Lakera, švajčiarsky startup, ktorý sa venuje ochrane generatívnych systémov umelej inteligencie pred podvodnými výzvami a inými nebezpečenstvami, vyzbieral 20 miliónov dolárov v kole fundraisingu série A, ktorý vedie európska spoločnosť rizikového kapitálu Atomico.
Hoci generatívna umelá inteligencia nadobudla veľkú pozornosť – ako dokazujú známe aplikácie ako ChatGPT – obavy o bezpečnosť a ochranu údajov sú pre podniky naďalej kľúčovými problémami. Generatívna AI je poháňaná veľkými jazykovými modelmi (LLM), ktoré umožňujú strojom vytvárať a chápať text podobným spôsobom ako ľudia. Škodlivé výzvy však majú schopnosť oklamať tieto modely, aby vykonali nechcené úlohy, ako je zverejnenie citlivých informácií alebo umožnenie neoprávneného prístupu do súkromných sietí. S Lakerou sa tieto zvyšujúce sa riziká „rýchlej injekcie“ musia riešiť.
Lakera bola založená v roku 2021 v Zürichu a začala svoju činnosť v októbri minulého roka s 10 miliónmi dolárov v počiatočnom štádiu. Jeho cieľom je chrániť podniky pred bezpečnostnými chybami LLM, ako sú rýchle injekcie a úniky údajov. Ich technológia spolupracuje s niekoľkými LLM, vrátane Claude z Anthropic, Google's Bard, OpenAI's GPT-X a Meta's Llama. Lakera ako „aplikačný firewall AI s nízkou latenciou“ tvrdí, že dokáže zabezpečiť komunikáciu medzi generatívnymi aplikáciami AI a v rámci nich.
Databáza používaná prvým produktom Lakera, Lakera Guard, bola vytvorená pomocou rôznych zdrojov, vrátane interného výskumu strojového učenia, open source datasetov z webových stránok ako Hugging Face a interaktívna hra s názvom Gandalf, ktorá testuje schopnosť hráčov oklamať systém, aby prezradil tajné heslo. S pomocou týchto interakcií bola vyvinutá Lakerova „taxonómia rýchlej injekcie“, ktorá klasifikuje tieto útoky.
Aby bolo možné rýchlo identifikovať škodlivé rýchle injekcie, podnik vyvíja svoje vlastné modely. Neustálym učením sa z veľkého počtu generatívnych interakcií AI sú tieto modely schopné rozpoznať nebezpečné tendencie a prispôsobiť sa novým hrozbám.
Firmy sa môžu chrániť pred škodlivými výzvami integráciou rozhrania API Lakera Guard. Okrem toho spoločnosť Lakera vytvorila modely, ktoré vo výzvach a výstupoch aplikácií hľadajú škodlivý obsah, ako sú vulgarizmy, násilný obsah, nenávistné prejavy a sexuálny obsah. Hoci sa používajú aj v iných situáciách, tieto detektory sú užitočné najmä pre aplikácie, ktoré komunikujú s verejnosťou, ako sú chatboty. Len s jedným riadkom kódu môžu podniky začleniť funkcie moderovania obsahu Lakera a nastaviť špecifické prahové hodnoty obsahu prostredníctvom centralizovaného ovládacieho panela politík.
S týmto čerstvým kapitálom vo výške 20 miliónov dolárov má Lakera v úmysle zvýšiť svoju globálnu stopu, najmä v Spojených štátoch. V Severnej Amerike už existujú významní klienti tohto biznisu, ako napríklad kanadský jednorožec Cohere a americký startup Respell s umelou inteligenciou.
Zabezpečenie aplikácií AI je spoločným cieľom poskytovateľov SaaS, veľkých korporácií a poskytovateľov modelov AI. Aj keď záujem pochádza z rôznych odvetví, podniky finančných služieb sú prvými používateľmi a sú si obzvlášť vedomé hrozieb v oblasti bezpečnosti a dodržiavania predpisov. Aby zostali konkurencieschopné, väčšina firiem chápe, že musia integrovať generatívnu AI do svojich základných obchodných operácií.
Okrem Atomico sa na investícii Lakera Series A podieľali aj Redalpine, Citi Ventures a divízia rizikového kapitálu Dropbox.