Lakera sikrer $20 millioner for å beskytte bedrifter fra generative AI-trusler og LLM-sårbarheter

Lakera sikrer $20 millioner for å beskytte bedrifter fra generative AI-trusler og LLM-sårbarheter

Lakera, en sveitsisk oppstartsbedrift dedikert til å skjerme generative AI-systemer mot uredelige meldinger og andre farer, har samlet inn 20 millioner dollar i en serie A-innsamlingsrunde, ledet av det europeiske venturekapitalfirmaet Atomico.

Selv om generativ kunstig intelligens har fått mye grep – som demonstrert av kjente apper som ChatGPT – fortsetter sikkerhets- og personvernhensyn å være sentrale problemer for bedrifter. Generativ AI er drevet av store språkmodeller (LLM), som lar maskiner produsere og forstå tekst på en måte som ligner på mennesker. Ondsinnede meldinger har imidlertid muligheten til å lure disse modellene til å utføre uønskede oppgaver, som å avsløre sensitiv informasjon eller tillate uautorisert tilgang til private nettverk. Med Lakera skal disse økende risikoene for "raske injeksjoner" håndteres.

Etter å ha blitt etablert i 2021 i Zürich, startet Lakera sin virksomhet i oktober i fjor med 10 millioner dollar i startpenger. Målet er å beskytte bedrifter mot LLM-sikkerhetsfeil som raske injeksjoner og datalekkasjer. Teknologien deres fungerer med flere LLM-er, inkludert som Claude fra Anthropic, Googles Bard, OpenAIs GPT-X og Metas Llama. Som en "lav-latency AI-applikasjonsbrannmur" hevder Lakera å være i stand til å sikre kommunikasjon mellom og innenfor generative AI-applikasjoner.

Databasen som ble brukt av Lakeras første produkt, Lakera Guard, ble opprettet ved hjelp av en rekke kilder, inkludert intern maskinlæringsforskning, åpen kildekode-datasett fra nettsteder som Hugging Face, og et interaktivt spill kalt Gandalf som tester spillernes evne til å lure systemet til å avsløre et hemmelig passord. Lakeras "spørre injeksjonstaksonomi", som klassifiserer disse angrepene, ble utviklet ved hjelp av disse interaksjonene.

For raskt å identifisere ondsinnede injeksjoner, utvikler virksomheten sine egne modeller. Ved å kontinuerlig lære av et stort antall generative AI-interaksjoner, er disse modellene i stand til å gjenkjenne farlige tendenser og tilpasse seg nye trusler.

Bedrifter kan beskytte seg mot skadelige spørsmål ved å integrere Lakera Guard API. Videre har Lakera laget modeller som ser etter skadelig innhold, som banning, voldelig innhold, hatefulle ytringer og seksuelt innhold, i forespørsler og applikasjonsutganger. Selv om de brukes i andre situasjoner også, er disse detektorene spesielt nyttige for apper som samhandler med publikum, for eksempel chatbots. Med bare én kodelinje kan bedrifter inkorporere Lakeras innholdsmodereringsfunksjoner og sette spesifikke innholdsterskler via et sentralisert policykontrollpanel.

Med denne friske kapitalen på 20 millioner dollar, har Lakera til hensikt å øke sitt globale fotavtrykk, spesielt i USA. Bemerkelsesverdige kunder av virksomheten finnes allerede i Nord-Amerika, som den kanadiske enhjørningen Cohere og den amerikanske AI-oppstarten Respell.

Sikring av AI-applikasjoner er et mål som deles av SaaS-leverandører, store selskaper og leverandører av AI-modeller. Selv om interessen kommer fra en rekke bransjer, er virksomheter innen finanstjenester tidlige brukere og spesielt oppmerksomme på truslene om sikkerhet og samsvar. For å holde seg konkurransedyktig forstår flertallet av virksomheter at de må integrere generativ AI i sin grunnleggende forretningsdrift.

I tillegg til Atomico, deltok Redalpine, Citi Ventures og Dropbox sin venturekapitalavdeling i Lakeras serie A-investering.

Code Labs Academy © 2024 Alle rettigheter forbeholdes.