什么是元骆驼?全面了解面向开发者的开放人工智能模型

什么是元骆驼?全面了解面向开发者的开放人工智能模型
2024 年 9 月 17 日

与许多其他领先科技公司一样,Meta 开发了自己的生成式人工智能模型,称为 Llama。 Llama 的与众不同之处在于它的开放性,允许开发人员以相当大的自由度下载和使用它,尽管有一些条件需要记住。这种方法与 Anthropic 的 Claude、OpenAI 的 GPT-4oChatGPT) 和 Google 的 Gemini,只能通过 API 获得。

为了给开发人员提供更大的灵活性,Meta 与 AWS、Google Cloud 和 Microsoft Azure 等云服务提供商合作,提供 Llama 的云托管版本。此外,Meta 还构建了一些工具,可以简化开发人员微调和调整模型以满足其特定要求的流程。

下面是 Llama 的详细描述,包括它的功能、它提供的不同版本以及如何有效地使用它。

骆驼是什么?

Llama 不仅仅是一种模型;它也是一种模型。它包含一系列模型,例如:

  • 骆驼 8B

  • 骆驼 70B

  • 骆驼 405B

最新版本(Llama 3.1 8B、Llama 3.1 70B 和 Llama 3.1 405B)于 2024 年 7 月发布。这些模型在各种数据源上进行训练,例如不同语言的网页、公共代码、在线可用文件,以及其他人工智能系统产生的合成数据。

Llama 3.1 8B 和 70B 是紧凑型型号,可以运行从笔记本电脑到服务器的各种设备。另一方面,Llama 3.1 405B 是一种大型型号,通常需要数据中心硬件。虽然较小的型号可能不如 405B 强大,但它们提供更快的性能,并针对减少存储和延迟进行了优化。

所有 Llama 模型都具有包含 128,000 个标记的上下文窗口,允许它们处理大约 100,000 个单词(或 300 页文本)。这大约相当于《呼啸山庄》或《哈利·波特与阿兹卡班的囚徒》等书籍的长度。长上下文窗口有助于模型保留最近文档和数据中的信息,从而降低偏离主题的风险。

骆驼能做什么?

与其他生成式 AI 模型一样,Llama 可以帮助完成各种任务,例如编码、回答简单的数学问题以及总结八种语言的文档:英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语。它可以处理大多数基于文本的任务,例如分析 PDF 和电子表格等文件,但它目前不具备生成或处理图像的能力 - 这在未来可能会发生变化。

Llama 模型可以与第三方应用程序、工具和 API 集成来执行各种任务。它们被配置为使用 Brave Search 来回答有关当前事件的问题,使用 Wolfram Alpha API 进行数学和科学查询,以及使用 Python 解释器进行代码验证。据 Meta 称,Llama 3.1 甚至可以使用一些尚未经过明确训练的工具,尽管该功能的可靠性仍不确定。

在哪里可以使用 Llama?

如果您想直接与 Llama 联系,Facebook Messenger、WhatsApp、Instagram、Oculus 和 Meta.ai 等平台都支持 Meta AI 聊天机器人体验。

对于开发人员来说,Llama 可供下载,并且可以扩展到多个流行的云平台。 Meta 已与超过 25 家公司合作托管 Llama,其中包括 Nvidia、Databricks、Groq、Dell 和 Snowflake。许多合作伙伴提供了额外的工具,使 Llama 能够访问专有数据或更高效地运行。

Meta 建议使用较小的 Llama 模型,特别是 8B 和 70B,用于一般用途,例如运行聊天机器人或创建代码。另一方面,较大的 Llama 405B 更适合模型蒸馏等任务,其中涉及将知识从较大模型转移到较小模型,以及生成合成数据来训练其他模型。

运营每月用户超过 7 亿的应用程序的开发人员必须从 Meta 获得特殊许可证才能访问 Llama,这将由 Meta 自行决定是否授予。

Meta 为 Llama 提供哪些工具?

Meta 推出了多种工具来提高 Llama 的安全性:

  1. Llama Guard: 一个审核框架,可识别有问题的内容,例如仇恨言论、自残和侵犯版权。

  2. Prompt Guard: 专门设计用于保护 Llama 免受试图绕过其安全措施的有害消息的影响的工具。

  3. Cyber​​SecEval: 网络安全风险评估套件,用于评估模型安全性,重点关注自动化社会工程和攻击性网络活动等威胁。

例如,Llama Guard 可以检测输入或生成到 Llama 中的有害或非法内容,从而允许开发人员自定义阻止哪些类别。 Prompt Guard 专注于防御试图操纵模型的“消息注入攻击”。 Cyber​​SecEval 提供了用于评估与 Llama 模型相关的安全风险的基准。

Llama 的局限性

与其他生成型人工智能模型一样,Llama 也有其局限性和潜在风险。主要关注点之一是 Meta 是否使用受版权保护的材料来训练 Llama。如果是这种情况,用户可能会对模型生成的任何受版权保护的内容承担责任。

最近的报告表明,Meta 一直在使用受版权保护的电子书进行人工智能培训,尽管收到了法律警告。该公司还将 Instagram 和 Facebook 的内容纳入其模型训练中,让用户很难选择退出。 Meta 面临多起诉讼,其中包括莎拉·西尔弗曼 (Sarah Silverman) 等作者提起的诉讼,他们声称该公司未经许可使用了受版权保护的材料。

一个重要的考虑因素是编程,因为 Llama 可能会产生有错误或不安全的代码。开发人员在应用程序中实施人工智能生成的代码之前,必须让人类专家对其进行审查,这一点至关重要。

虽然 Meta 的 Llama 模型为开发人员提供了相当大的灵活性和机会,但认识到它带来的潜在风险和限制也很重要。

由 Code Labs Academy 为您提供 - Yourleading 在线编码训练营 面向未来的技术创新者。

图片来源:Meta

Code Labs Academy © 2024 版权所有.