谷歌推出三种新的“开放”生成式人工智能模型,强调了它们增强的安全性与许多现有模型相比,尺寸更小,透明度更高 - 这是一个重要的主张。
Google Gemma 2 生成模型系列的最新成员于 5 月份首次推出,其中包括新模型 Gemma 2 2B、ShieldGemma和杰玛范围。这些模型针对各种应用和用例量身定制,强调对安全的共同承诺。
与谷歌的 Gemini 模型具有闭源代码并集成到谷歌产品中并供开发者使用不同,Gemma 系列致力于在开发者之间增进善意,类似于 Meta 与 Llama 的策略。
Gemma 2 2B 是一种轻量级文本生成模型,旨在在从笔记本电脑到边缘设备的各种硬件上高效工作。该模型被授权在特定研究和应用中独家使用,并且可以通过 Google 的 Vertex AI 模型库、Kaggle 和 Google 的 AI Studio 工具包等平台访问。
ShieldGemma 是一套“安全分类器”,旨在识别仇恨言论、骚扰和露骨色情材料等有害内容。 ShieldGemma 以 Gemma 2 为基础,能够过滤生成模型的提示以及模型生成的结果内容,以找出不适当的材料。
另一方面,Gemma Scope 使开发人员能够“放大”Gemma 2 模型的特定方面,使其内部工作更容易解释。根据谷歌的说法,Gemma Scope 由“专门的神经网络组成,可以帮助我们解开 Gemma 2 处理的密集、复杂的信息,将其扩展为更容易分析和理解的形式。通过研究这些扩展的视图,研究人员可以获得有价值的见解Gemma 2 如何识别模式、处理信息并最终做出预测。”
Gemma 2 模型的发布恰逢美国商务部最近在一份初步报告中认可开放人工智能模型。该报告强调了开放模型的好处,例如增加小公司、非营利组织、研究人员和个人开发人员使用生成式人工智能的机会,同时也承认监控能力对于减轻潜在风险的重要性。