Google ieviesa trīs jaunus “atvērtus” ģeneratīvos AI modeļus, uzsverot to uzlabotu drošību., mazāks izmērs un uzlabota caurspīdīgums, salīdzinot ar daudziem esošajiem modeļiem – nozīmīgs apgalvojums.
Jaunākie Google Gemma 2 ģeneratīvo modeļu klāsta papildinājumi, kas pirmo reizi tika ieviesti maijā, ietver jaunos modeļus Gemma 2 2B, ShieldGemma. un Gemma Scope. Šie modeļi ir pielāgoti dažādiem lietojumiem un lietošanas gadījumiem, uzsverot kopīgu apņemšanos nodrošināt drošību.
Atšķirībā no Google Gemini modeļiem, kuriem ir slēgta pirmkoda kods un kuri ir integrēti Google produktos un ko izmanto izstrādātāji, Gemma sērijas mērķis ir veicināt izstrādātāju labo gribu, kas ir līdzīgs Meta stratēģijai ar Llama.
Gemma 2 2B, viegls teksta ģenerēšanas modelis, ir paredzēts efektīvai darbībai dažādās aparatūras klāstā, sākot no klēpjdatoriem līdz modernām ierīcēm. Šis modelis ir licencēts ekskluzīvai lietošanai īpašos pētījumos un lietojumprogrammās, un tam var piekļūt, izmantojot tādas platformas kā Google Vertex AI modeļu bibliotēka, Kaggle un Google AI Studio rīkkopa.
ShieldGemma ir “drošības klasifikatoru” kopa, kas izveidota, lai identificētu kaitīgu saturu, piemēram, naida runu, uzmākšanos un seksuāla rakstura materiālus. Izmantojot Gemma 2 kā pamatu, ShieldGemma spēj filtrēt uzvednes uz ģeneratīvu modeli un iegūto saturu, ko modelis rada neatbilstošam materiālam.
No otras puses, Gemma Scope ļauj izstrādātājiem "tuvināt" konkrētus Gemma 2 modeļa aspektus, padarot tā iekšējo darbību interpretējamāku. Saskaņā ar Google datiem, Gemma Scope sastāv no "specializētiem neironu tīkliem, kas palīdz mums izpakot blīvo, sarežģīto informāciju, ko apstrādā Gemma 2, izvēršot to vieglāk analizējamā un saprotamā formā. Pētot šos paplašinātos uzskatus, pētnieki var gūt vērtīgu ieskatu kā Gemma 2 identificē modeļus, apstrādā informāciju un galu galā veic prognozes."
Gemma 2 modeļu izlaišana sakrīt ar ASV Tirdzniecības departamenta neseno apstiprinājumu par atvērtiem AI modeļiem sākotnējā ziņojumā. Ziņojumā uzsvērtas atvērto modeļu priekšrocības, piemēram, mazāku uzņēmumu, bezpeļņas organizāciju, pētnieku un atsevišķu izstrādātāju pieejamības palielināšana ģeneratīvajam AI, vienlaikus atzīstot arī uzraudzības iespēju nozīmi iespējamo risku mazināšanā.