Lakera, een Zwitserse startup die zich toelegt op het beschermen van generatieve AI-systemen tegen frauduleuze aanwijzingen en andere gevaren, heeft $20 miljoen opgehaald in een serie A-fondsenwervingsronde, geleid door een Europese durfkapitaalfirma Atomico.
Hoewel generatieve AI veel terrein heeft gewonnen – zoals blijkt uit bekende apps als ChatGPT – blijven zorgen over beveiliging en gegevensprivacy belangrijke problemen voor bedrijven. Generatieve AI wordt mogelijk gemaakt door grote taalmodellen (LLM's), waarmee machines tekst kunnen produceren en begrijpen op een manier die lijkt op die van mensen. Kwaadwillige prompts hebben echter het vermogen om deze modellen te misleiden en ongewenste taken uit te voeren, zoals het vrijgeven van gevoelige informatie of het toestaan van ongeoorloofde toegang tot privénetwerken. Met Lakera moeten deze toenemende risico's van 'onmiddellijke injectie' worden aangepakt.
Lakera werd in 2021 in Zürich opgericht en begon in oktober vorig jaar met haar activiteiten met $10 miljoen aan startgeld. Het doel is om bedrijven te beschermen tegen LLM-beveiligingsfouten, zoals snelle injecties en datalekken. Hun technologie werkt met verschillende LLM's, waaronder Claude van Anthropic, Google's Bard, OpenAI's GPT-X en Meta's Llama. Als een ‘AI-applicatiefirewall met lage latentie’ beweert Lakera de communicatie tussen en binnen generatieve AI-applicaties te kunnen beveiligen.
De database die wordt gebruikt door Lakera's eerste product, Lakera Guard, is gemaakt met behulp van een verscheidenheid aan bronnen, waaronder intern machine learning-onderzoek en open-source datasets van websites als Hugging Face, en een interactief spel genaamd Gandalf dat het vermogen van spelers test om het systeem te misleiden om een geheim wachtwoord vrij te geven. Lakera's 'prompt injection taxonomie', die deze aanvallen classificeert, werd ontwikkeld met behulp van deze interacties.
Om kwaadaardige promptinjecties snel te kunnen identificeren, ontwikkelt het bedrijf zijn eigen modellen. Door voortdurend te leren van een groot aantal generatieve AI-interacties zijn deze modellen in staat gevaarlijke tendensen te herkennen en zich aan te passen aan nieuwe bedreigingen.
Bedrijven kunnen zichzelf beschermen tegen schadelijke aanwijzingen door de Lakera Guard API te integreren. Bovendien heeft Lakera modellen gemaakt die zoeken naar schadelijke inhoud, zoals godslastering, gewelddadige inhoud, haatzaaiende uitlatingen en seksuele inhoud, in prompts en applicatie-uitvoer. Hoewel ze ook in andere situaties worden gebruikt, zijn deze detectoren vooral nuttig voor apps die interactie hebben met het publiek, zoals chatbots. Met slechts één regel code kunnen bedrijven de contentmoderatiefuncties van Lakera integreren en specifieke contentdrempels instellen via een gecentraliseerd beleidscontrolepaneel.
Met dit nieuwe kapitaal van 20 miljoen dollar wil Lakera zijn mondiale voetafdruk vergroten, vooral in de Verenigde Staten. Er bestaan al opmerkelijke klanten van het bedrijf in Noord-Amerika, zoals de Canadese eenhoorn Cohere en de Amerikaanse AI-startup Respell.
Het beveiligen van AI-applicaties is een doel dat wordt gedeeld door SaaS-aanbieders, grote bedrijven en aanbieders van AI-modellen. Hoewel de belangstelling uit verschillende sectoren komt, zijn financiële dienstverleners early adopters en zijn ze zich vooral bewust van de bedreigingen voor de veiligheid en compliance. Om concurrerend te blijven begrijpt de meerderheid van de bedrijven dat ze generatieve AI moeten integreren in hun fundamentele bedrijfsactiviteiten.
Naast Atomico namen Redalpine, Citi Ventures en de durfkapitaaldivisie van Dropbox deel aan Lakera's Series A-investering.