A Lakera, egy svájci startup, amely a generatív mesterségesintelligencia-rendszerek csalárd felszólításoktól és egyéb veszélyektől való megóvásával foglalkozik, 20 millió dollárt gyűjtött egy A sorozatú adománygyűjtő körben, amelyet az európai kockázatitőke-társaság . Atomico.
Bár a generatív mesterséges intelligencia nagy teret nyert – amint azt jól ismert alkalmazások, például a ChatGPT is mutatják –, a biztonsági és adatvédelmi aggályok továbbra is kulcsfontosságú problémákat jelentenek a vállalkozások számára. A generatív AI-t nagy nyelvi modellek (LLM) hajtják, amelyek lehetővé teszik a gépek számára, hogy az emberekhez hasonló módon készítsenek és értsenek szöveget. A rosszindulatú felszólítások azonban képesek megtéveszteni ezeket a modelleket nemkívánatos feladatok elvégzésére, például bizalmas információk felfedésére vagy magánhálózatokhoz való jogosulatlan hozzáférés engedélyezésére. A Lakera esetében ezeket a növekvő "azonnali befecskendezési" kockázatokat kezelni kell.
A 2021-ben zürichi alapítású Lakera tavaly októberben kezdte meg működését 10 millió dollár kezdőtőke-befektetéssel. Célja, hogy megvédje a vállalkozásokat az LLM biztonsági hibáitól, mint például a gyors injekciók és adatszivárgások. Technológiájuk számos LLM-mel működik együtt, köztük Claude-dal az Anthropic-tól, a Google Barddal, az OpenAI GPT-X-szel és a Meta's Llamával. Mint "alacsony késleltetésű AI-alkalmazások tűzfala", a Lakera azt állítja, hogy képes biztonságos kommunikációt biztosítani a generatív AI-alkalmazások között és azokon belül.
A Lakera első terméke, a Lakera Guard által használt adatbázist különféle források felhasználásával hozták létre, beleértve belső gépi tanulási kutatásokat, nyílt forráskódú adatkészleteket olyan webhelyekről, mint a Hugging Face, és egy Gandalf nevű interaktív játék, amely teszteli a játékosok azon képességét, hogy képesek-e a rendszert titkos jelszó felfedésére csalni. Ezeknek a kölcsönhatásoknak a segítségével fejlesztették ki a Lakera "prompt injekció taxonómiáját", amely osztályozza ezeket a támadásokat.
A rosszindulatú azonnali injekciók gyors azonosítása érdekében a vállalkozás saját modelleket fejleszt ki. A nagyszámú generatív AI interakcióból folyamatosan tanulva ezek a modellek képesek felismerni a veszélyes tendenciákat és alkalmazkodni az új fenyegetésekhez.
A vállalkozások a Lakera Guard API integrálásával megvédhetik magukat a káros felszólításoktól. Ezenkívül a Lakera olyan modelleket hozott létre, amelyek káros tartalmat keresnek, például káromkodást, erőszakos tartalmat, gyűlöletbeszédet és szexuális tartalmat a felszólításokban és az alkalmazások kimeneteiben. Bár más helyzetekben is használják őket, ezek az érzékelők különösen hasznosak a nyilvánossággal interakcióba lépő alkalmazásoknál, például a chatbotoknál. Egyetlen kódsorral a vállalkozások beépíthetik a Lakera tartalommoderálási funkcióit, és meghatározott tartalomküszöböket állíthatnak be egy központi házirend-vezérlőpulton keresztül.
Ezzel a 20 millió dolláros új tőkével a Lakera növelni kívánja globális lábnyomát, különösen az Egyesült Államokban. Észak-Amerikában már léteznek a vállalkozás jelentős ügyfelei, mint például a kanadai Cohere egyszarvú és az amerikai Respell AI startup.
Az AI-alkalmazások biztonságossá tétele a SaaS-szolgáltatók, a nagyvállalatok és az AI-modellek szolgáltatói közös célja. Bár az érdeklődés számos iparágból származik, a pénzügyi szolgáltatásokat nyújtó vállalkozások korán alkalmazkodnak, és különösen tisztában vannak a biztonsági és megfelelőségi fenyegetésekkel. A versenyképesség megőrzése érdekében a vállalkozások többsége tisztában van azzal, hogy a generatív AI-t be kell építenie alapvető üzleti tevékenységeibe.
Az Atomico mellett a Redalpine, a Citi Ventures és a Dropbox kockázati tőkerészlege vett részt a Lakera A sorozatú befektetésében.