Lakera 获得 2000 万美元保护企业免受生成式 AI 威胁和 LLM 漏洞的影响

Lakera 获得 2000 万美元保护企业免受生成式 AI 威胁和 LLM 漏洞的影响

Lakera 是一家瑞士初创公司,致力于保护生成式人工智能系统免受欺诈提示和其他危险的影响,在由欧洲风险投资公司领投的 A 轮融资中筹集了 2000 万美元 Lakera。 Atomico](https://atomico.com/)。

尽管生成式人工智能已经获得了很大的关注(正如 ChatGPT 等知名应用程序所证明的那样),但安全和数据隐私问题仍然是企业面临的关键问题。生成式人工智能由大型语言模型 (LLM) 提供支持,它允许机器以类似于人类的方式生成和理解文本。然而,恶意提示能够欺骗这些模型执行不需要的任务,例如泄露敏感信息或允许未经授权访问专用网络。通过 Lakera,这些日益增加的“即时注入”风险将得到解决。

Lakera 于 2021 年在苏黎世成立,于去年 10 月开始运营,拥有 [1000 万美元的种子资金](https://techcrunch.com/2023/10/12/lakera-launches-to-protect-large-language -来自恶意提示的模型/)。其目标是保护企业免受快速注入和数据泄露等 LLM 安全漏洞的影响。他们的技术与多个法学硕士合作,包括 Anthropic 的 Claude、Google 的 Bard、OpenAI 的 GPT-X 和 Meta 的 Llama。作为“低延迟人工智能应用程序防火墙”,Lakera 声称能够保护生成式人工智能应用程序之间和内部的通信安全。

Lakera 的第一个产品 Lakera Guard 使用的数据库是使用各种来源创建的,包括内部机器学习研究、来自 Hugging 等网站的开源数据集Face,还有一款名为 Gandalf 的互动游戏,测试玩家欺骗系统泄露秘密密码的能力。 Lakera 的“即时注入分类法”对这些攻击进行了分类,是在这些交互的帮助下开发的。

为了快速识别恶意提示注入,企业开发了自己的模型。通过不断从大量生成式人工智能交互中学习,这些模型能够识别危险趋势并适应新的威胁。

企业可以通过集成 Lakera Guard API 来保护自己免受有害提示的影响。此外,Lakera 还创建了在提示和应用程序输出中查找有害内容的模型,例如亵渎、暴力内容、仇恨言论和色情内容。尽管它们也用于其他情况,但这些检测器对于与公众交互的应用程序(例如聊天机器人)特别有用。只需一行代码,企业就可以整合 Lakera 的内容审核功能,并通过集中的策略控制面板设置特定的内容阈值。

凭借这笔 2000 万美元的新资本,Lakera 打算扩大其全球足迹,特别是在美国。该业务的知名客户已经存在于北美,例如加拿大独角兽 Cohere 和美国人工智能初创公司 Respell。

保护 AI 应用程序的安全是 SaaS 提供商、大公司和 AI 模型提供商的共同目标。尽管兴趣来自各个行业,但金融服务企业是早期采用者,并且特别意识到安全和合规性威胁。为了保持竞争力,大多数企业都明白,他们必须将生成式人工智能整合到其基本业务运营中。

除了 Atomico 之外,Redalpine、Citi Ventures 和 Dropbox 的风险投资部门也参与了 Lakera 的 A 轮投资。

Code Labs Academy © 2024 版权所有.