Google มี แนะนำ โมเดล AI ทั่วไปแบบ "เปิด" ใหม่ 3 แบบ โดยเน้นย้ำถึงความปลอดภัยที่ได้รับการปรับปรุง ขนาดที่เล็กลง และความโปร่งใสที่ดีขึ้นเมื่อเทียบกับรุ่นที่มีอยู่หลายรุ่น - ข้อกล่าวอ้างที่สำคัญ
ผลิตภัณฑ์ใหม่ล่าสุดในกลุ่มผลิตภัณฑ์โมเดลเจนเนอเรทีฟ Gemma 2 ของ Google ซึ่งเปิดตัวครั้งแรกในเดือนพฤษภาคม รวมถึงโมเดลใหม่ Gemma 2 2B, ShieldGemma และเจมม่าสโคป โมเดลเหล่านี้ได้รับการออกแบบมาสำหรับการใช้งานและกรณีการใช้งานที่หลากหลาย โดยเน้นย้ำถึงความมุ่งมั่นร่วมกันในเรื่องความปลอดภัย
แตกต่างจากโมเดล Gemini ของ Google ซึ่งมีโค้ดแบบปิดและรวมอยู่ในผลิตภัณฑ์ของ Google และใช้งานโดยนักพัฒนา ซีรีส์ Gemma มุ่งมั่นที่จะส่งเสริมความปรารถนาดีในหมู่นักพัฒนา ซึ่งคล้ายกับกลยุทธ์ของ Meta กับ Llama
Gemma 2 2B เป็นรุ่นสร้างข้อความน้ำหนักเบา ได้รับการออกแบบให้ทำงานได้อย่างมีประสิทธิภาพบนฮาร์ดแวร์หลากหลายประเภท ตั้งแต่แล็ปท็อปไปจนถึงอุปกรณ์ Edge โมเดลนี้ได้รับอนุญาตให้ใช้เฉพาะในการวิจัยและแอปพลิเคชันเฉพาะ และสามารถเข้าถึงได้ผ่านแพลตฟอร์ม เช่น ไลบรารีโมเดล Vertex AI ของ Google, Kaggle และชุดเครื่องมือ AI Studio ของ Google
ShieldGemma คือชุดของ "ตัวแยกประเภทความปลอดภัย" ที่สร้างขึ้นเพื่อระบุเนื้อหาที่เป็นอันตราย เช่น คำพูดแสดงความเกลียดชัง การล่วงละเมิด และเนื้อหาทางเพศที่โจ่งแจ้ง ด้วยการใช้ Gemma 2 เป็นรากฐาน ShieldGemma มีความสามารถในการกรองข้อความแจ้งไปยังแบบจำลองเชิงกำเนิดและเนื้อหาผลลัพธ์ที่แบบจำลองสร้างขึ้นเพื่อหาวัสดุที่ไม่เหมาะสม
ในทางกลับกัน Gemma Scope ช่วยให้นักพัฒนาสามารถ "ขยาย" ในแง่มุมเฉพาะของโมเดล Gemma 2 ได้ ทำให้การทำงานภายในของโมเดลสามารถตีความได้ง่ายขึ้น ตามข้อมูลของ Google Gemma Scope ประกอบด้วย "โครงข่ายประสาทเทียมพิเศษที่ช่วยเราเปิดเผยข้อมูลที่มีความหนาแน่นและซับซ้อนซึ่งประมวลผลโดย Gemma 2 และขยายออกไปเป็นรูปแบบที่วิเคราะห์และเข้าใจได้ง่ายขึ้น ด้วยการศึกษามุมมองที่ขยายออกไปเหล่านี้ นักวิจัยจะได้รับข้อมูลเชิงลึกอันมีค่าเกี่ยวกับ Gemma 2 ระบุรูปแบบ ประมวลผลข้อมูล และคาดการณ์ในท้ายที่สุดได้อย่างไร”
การเปิดตัวโมเดล Gemma 2 เกิดขึ้นพร้อมกับการรับรองล่าสุดจากกระทรวงพาณิชย์ของสหรัฐอเมริกาเกี่ยวกับโมเดล AI แบบเปิดในรายงานเบื้องต้น รายงานดังกล่าวเน้นย้ำถึงประโยชน์ของโมเดลแบบเปิด เช่น การเพิ่มการเข้าถึงสำหรับบริษัทขนาดเล็ก องค์กรไม่แสวงผลกำไร นักวิจัย และนักพัฒนารายบุคคลไปจนถึง generative AI ขณะเดียวกันก็รับทราบถึงความสำคัญของการตรวจสอบความสามารถในการลดความเสี่ยงที่อาจเกิดขึ้น