Lakera säkrar $20 miljoner för att skydda företag från generativa AI-hot och LLM-sårbarheter

Lakera säkrar $20 miljoner för att skydda företag från generativa AI-hot och LLM-sårbarheter

Lakera, en schweizisk startup som ägnar sig åt att skydda generativa AI-system från bedrägliga uppmaningar och andra faror, har samlat in 20 miljoner USD i en serie A-insamlingsrunda, ledd av det europeiska riskkapitalföretaget Atomico.

Även om generativ AI har fått mycket dragkraft – vilket framgår av välkända appar som ChatGPT – fortsätter säkerhets- och dataintegritetsproblem att vara nyckelproblem för företag. Generativ AI drivs av stora språkmodeller (LLM), som tillåter maskiner att producera och förstå text på ett sätt som liknar människors. Skadliga uppmaningar har dock förmågan att lura dessa modeller till att utföra oönskade uppgifter, som att avslöja känslig information eller tillåta obehörig åtkomst till privata nätverk. Med Lakera ska dessa ökande risker med "snabb injektion" åtgärdas.

Efter att ha etablerats 2021 i Zürich började Lakera sin verksamhet i oktober förra året med 10 miljoner USD i startpengar. Dess mål är att skydda företag mot LLM-säkerhetsbrister som snabba injektioner och dataläckor. Deras teknik fungerar med flera LLM:er, inklusive som Claude från Anthropic, Googles Bard, OpenAI:s GPT-X och Metas Llama. Som en "låg-latens AI-applikationsbrandvägg" hävdar Lakera sig kunna säkra kommunikation mellan och inom generativa AI-applikationer.

Databasen som användes av Lakeras första produkt, Lakera Guard, skapades med hjälp av en mängd olika källor, inklusive intern forskning om maskininlärning, datauppsättningar med öppen källkod från webbplatser som Hugging Face, och ett interaktivt spel som heter Gandalf som testar spelarnas förmåga att lura systemet att avslöja ett hemligt lösenord. Lakeras "snabb injektion taxonomi", som klassificerar dessa attacker, utvecklades med hjälp av dessa interaktioner.

För att snabbt kunna identifiera skadliga promptinjektioner utvecklar verksamheten sina egna modeller. Genom att kontinuerligt lära sig av ett stort antal generativa AI-interaktioner kan dessa modeller känna igen farliga tendenser och anpassa sig till nya hot.

Företag kan skydda sig från skadliga uppmaningar genom att integrera Lakera Guard API. Dessutom har Lakera skapat modeller som letar efter skadligt innehåll, såsom svordomar, våldsamt innehåll, hatretorik och sexuellt innehåll, i uppmaningar och programutdata. Även om de används i andra situationer också, är dessa detektorer särskilt användbara för appar som interagerar med allmänheten, som chatbots. Med bara en rad kod kan företag införliva Lakeras funktioner för innehållsmoderering och ställa in specifika innehållströsklar via en centraliserad policykontrollpanel.

Med detta nya kapital på 20 miljoner dollar avser Lakera att öka sitt globala fotavtryck, särskilt i USA. Anmärkningsvärda kunder till verksamheten finns redan i Nordamerika, såsom den kanadensiska enhörningen Cohere och den amerikanska AI-startupen Respell.

Att säkra AI-applikationer är ett mål som delas av SaaS-leverantörer, stora företag och leverantörer av AI-modeller. Även om intresset kommer från en mängd olika branscher, är företag inom finansiella tjänster tidiga användare och särskilt medvetna om säkerheten och efterlevnadshoten. För att förbli konkurrenskraftiga förstår majoriteten av företag att de måste integrera generativ AI i sin grundläggande affärsverksamhet.

Förutom Atomico deltog Redalpine, Citi Ventures och Dropbox riskkapitaldivision i Lakeras serie A-investering.

Code Labs Academy © 2024 Alla rättigheter förbehållna.