Lakera, 'n Switserse beginonderneming wat daaraan toegewy is om generatiewe KI-stelsels teen bedrieglike aansporings en ander gevare te beskerm, het $20 miljoen ingesamel in 'n reeks A-fondsinsamelingsronde, gelei deur die Europese waagkapitaalfirma Atomico.
Alhoewel generatiewe KI baie vastrapplek gekry het - soos gedemonstreer deur bekende toepassings soos ChatGPT - bly sekuriteit- en dataprivaatheidskwessies steeds sleutelprobleme vir besighede. Generatiewe KI word aangedryf deur groot taalmodelle (LLM's), wat masjiene toelaat om teks te produseer en te verstaan op 'n manier soortgelyk aan dié van mense. Kwaadwillige aansporings het egter die vermoë om hierdie modelle te mislei om ongewenste take uit te voer, soos om sensitiewe inligting bekend te maak of om ongemagtigde toegang tot private netwerke toe te laat. Met Lakera moet hierdie toenemende "spoedige inspuiting"-risiko's aangespreek word.
Nadat Lakera in 2021 in Zürich gestig is, het Lakera in Oktober verlede jaar bedrywighede begin met $10 miljoen se saadgeld. Die doel daarvan is om ondernemings te beskerm teen LLM-sekuriteitsfoute soos vinnige inspuitings en datalekkasies. Hul tegnologie werk met verskeie LLM's, insluitend as Claude van Anthropic, Google's Bard, OpenAI se GPT-X, en Meta's Llama. As 'n "lae-latency AI-toepassings-firewall," beweer Lakera dat hy kommunikasie tussen en binne generatiewe KI-toepassings kan beveilig.
Die databasis wat deur Lakera se eerste produk, Lakera Guard gebruik word, is geskep met behulp van 'n verskeidenheid bronne, insluitend interne masjienleernavorsing, oopbrondatastelle van webwerwe soos Hugging Face, en 'n interaktiewe speletjie genaamd Gandalf wat spelers se vermoë toets om die stelsel te mislei om 'n geheime wagwoord bekend te maak. Lakera se "spoedige inspuiting taksonomie," wat hierdie aanvalle klassifiseer, is ontwikkel met die hulp van hierdie interaksies.
Om kwaadwillige vinnige inspuitings vinnig te identifiseer, ontwikkel die onderneming sy eie modelle. Deur voortdurend te leer uit 'n groot aantal generatiewe KI-interaksies, is hierdie modelle in staat om gevaarlike neigings te herken en by nuwe bedreigings aan te pas.
Besighede kan hulself teen skadelike aansporings beskerm deur die Lakera Guard API te integreer. Verder het Lakera modelle geskep wat soek na skadelike inhoud, soos vloekwoorde, gewelddadige inhoud, haatspraak en seksuele inhoud, in aansporings en toepassingsuitsette. Alhoewel hulle ook in ander situasies gebruik word, is hierdie verklikkers veral nuttig vir toepassings wat met die publiek interaksie het, soos kletsbotte. Met net een reël kode kan besighede Lakera se inhoudmodereringskenmerke insluit en spesifieke inhouddrempels stel via 'n gesentraliseerde beleidbeheerpaneel.
Met hierdie nuwe kapitaal van $20 miljoen, beoog Lakera om sy wêreldwye voetspoor te vergroot, veral in die Verenigde State. Opmerklike kliënte van die onderneming bestaan reeds in Noord-Amerika, soos die Kanadese eenhoorn Cohere en die Amerikaanse KI-opstart Respell.
Die beveiliging van KI-toepassings is 'n doelwit wat deur SaaS-verskaffers, groot korporasies en verskaffers van KI-modelle gedeel word. Alhoewel belangstelling uit 'n verskeidenheid nywerhede kom, is finansiëledienste-ondernemings vroeë aannemers en veral bewus van die sekuriteit- en voldoeningsbedreigings. Om mededingend te bly, verstaan die meerderheid ondernemings dat hulle generatiewe KI in hul fundamentele sakebedrywighede moet integreer.
Benewens Atomico, het Redalpine, Citi Ventures en Dropbox se waagkapitaalafdeling aan Lakera se reeks A-belegging deelgeneem.