Lakera が生成型 AI の脅威と LLM の脆弱性から企業を守るために 2,000 万ドルを確保

Lakera が生成型 AI の脅威と LLM の脆弱性から企業を守るために 2,000 万ドルを確保

Lakera は、生成 AI システムを不正なプロンプトやその他の危険から守ることに専念するスイスのスタートアップ企業で、ヨーロッパのベンチャー キャピタル会社が主導するシリーズ A 資金調達ラウンドで 2,000 万ドルを調達しました。アトミコ』(https://atomico.com/)。

ChatGPT などの有名なアプリで実証されているように、生成 AI は多くの注目を集めていますが、セキュリティとデータ プライバシーの懸念は引き続き企業にとって重要な問題です。生成 AI は大規模言語モデル (LLM) を利用しており、これにより機械が人間と同様の方法でテキストを生成および理解できるようになります。ただし、悪意のあるプロンプトは、これらのモデルをだまして、機密情報の開示やプライベート ネットワークへの不正アクセスの許可など、望ましくないタスクを実行させる能力を持っています。 Lakera を使用すると、これらの増大する「即時注入」リスクに対処できるようになります。

Lakera は 2021 年にチューリッヒで設立され、昨年 10 月に シード資金 1,000 万ドルで事業を開始しました。 -malicious-prompts/) からのモデル。その目標は、急速なインジェクションやデータ漏洩などの LLM セキュリティ上の欠陥から企業を守ることです。彼らのテクノロジーは、Anthropic の Claude、Google の Bard、OpenAI の GPT-X、Meta の Llama など、いくつかの LLM で動作します。 Lakera は、「低遅延 AI アプリケーション ファイアウォール」として、生成 AI アプリケーション間および生成 AI アプリケーション内の通信を保護できると主張しています。

Lakera の最初の製品である Lakera Guard で使用されるデータベースは、内部の機械学習研究、Hugging のような Web サイトからのオープンソース データセットなど、さまざまなソースを使用して作成されました。 Face、およびシステムをだまして秘密のパスワードを漏らすプレイヤーの能力をテストする Gandalf と呼ばれるインタラクティブ ゲーム。これらの攻撃を分類する Lakera の「プロンプト インジェクション分類法」は、これらの相互作用を利用して開発されました。

悪意のあるプロンプト インジェクションを迅速に特定するために、この企業は独自のモデルを開発しています。これらのモデルは、多数の生成的な AI インタラクションから継続的に学習することで、危険な傾向を認識し、新しい脅威に適応することができます。

企業は、Lakera Guard API を統合することで、有害なプロンプトから身を守ることができます。さらに、Lakera は、プロンプトやアプリケーションの出力内で、冒涜的な言葉、暴力的なコンテンツ、ヘイトスピーチ、性的なコンテンツなどの有害なコンテンツを探すモデルを作成しました。これらの検出器は他の状況でも使用されますが、チャットボットなど、公衆と対話するアプリに特に役立ちます。企業はわずか 1 行のコードで、Lakera のコンテンツ管理機能を組み込み、集中ポリシー コントロール パネルを介して特定のコンテンツしきい値を設定できます。

この 2,000 万ドルの新たな資本により、Lakera は、特に米国での世界的な拠点を拡大するつもりです。このビジネスの著名な顧客は、カナダのユニコーン Cohere やアメリカの AI スタートアップ Respell など、北米にすでに存在します。

AI アプリケーションの保護は、SaaS プロバイダー、大企業、AI モデルのプロバイダーが共有する目標です。さまざまな業界から関心が寄せられていますが、金融サービス企業は早期に導入しており、特にセキュリティとコンプライアンスの脅威を認識しています。競争力を維持するには、ほとんどの企業が生成 AI を基本的な業務運営に統合する必要があることを理解しています。

Atomico に加えて、Redalpine、Citi Ventures、Dropbox のベンチャー キャピタル部門も Lakera のシリーズ A 投資に参加しました。

Code Labs Academy © 2024 無断転載を禁じます.