Lakera, o startup elvețiană dedicată protejării sistemelor AI generative de solicitări frauduloase și alte pericole, a strâns 20 de milioane de dolari într-o rundă de strângere de fonduri din seria A, condusă de firma europeană de capital de risc Atomico.
Deși AI generativă a dobândit multă tracțiune – așa cum demonstrează aplicațiile bine-cunoscute precum ChatGPT – preocupările privind securitatea și confidențialitatea datelor continuă să fie probleme cheie pentru companii. AI generativ este alimentat de modele de limbaj mari (LLM), care permit mașinilor să producă și să înțeleagă text într-un mod asemănător cu cel al oamenilor. Solicitările rău intenționate, totuși, au capacitatea de a înșela aceste modele pentru a îndeplini sarcini nedorite, cum ar fi dezvăluirea de informații sensibile sau permiterea accesului neautorizat la rețelele private. Cu Lakera, aceste riscuri crescânde de „injectare promptă” trebuie abordate.
Fiind înființată în 2021 la Zurich, Lakera și-a început operațiunile în octombrie anul trecut cu 10 milioane USD în bani de început -modele-din-prompt-uri malițioase/). Scopul său este de a proteja întreprinderile împotriva defectelor de securitate LLM, cum ar fi injecțiile rapide și scurgerile de date. Tehnologia lor funcționează cu mai multe LLM-uri, inclusiv Claude de la Anthropic, Bard de la Google, GPT-X de la OpenAI și Llama de la Meta. Fiind un „paravan de protecție pentru aplicații AI cu latență scăzută”, Lakera pretinde că poate securiza comunicarea între și în cadrul aplicațiilor AI generative.
Baza de date folosită de primul produs al lui Lakera, Lakera Guard, a fost creată folosind o varietate de surse, inclusiv cercetare internă în învățarea automată, seturi de date open-source de pe site-uri web precum Hugging. Face și un joc interactiv numit Gandalf care testează capacitatea jucătorilor de a păcăli sistemul să dezvăluie o parolă secretă. „Taxonomia de injecție promptă” a lui Lakera, care clasifică aceste atacuri, a fost dezvoltată cu ajutorul acestor interacțiuni.
Pentru a identifica rapid injecțiile prompte rău intenționate, afacerea își dezvoltă propriile modele. Învățând continuu dintr-un număr mare de interacțiuni AI generative, aceste modele sunt capabile să recunoască tendințele periculoase și să se adapteze la noile amenințări.
Companiile se pot proteja de solicitările dăunătoare prin integrarea API-ului Lakera Guard. Mai mult, Lakera a creat modele care caută conținut dăunător, cum ar fi blasfemia, conținutul violent, discursul instigator la ură și conținutul sexual, în solicitări și rezultate ale aplicației. Deși sunt utilizați și în alte situații, acești detectoare sunt utile în special pentru aplicațiile care interacționează cu publicul, cum ar fi chatbot-urile. Cu o singură linie de cod, companiile pot încorpora funcțiile Lakera de moderare a conținutului și pot stabili praguri specifice de conținut prin intermediul unui panou de control centralizat al politicii.
Cu acest capital proaspăt de 20 de milioane de dolari, Lakera intenționează să-și mărească amprenta globală, în special în Statele Unite. Clienți remarcabili ai afacerii există deja în America de Nord, cum ar fi unicornul canadian Cohere și startup-ul american de inteligență artificială Respell.
Securizarea aplicațiilor AI este un obiectiv împărtășit de furnizorii SaaS, corporațiile mari și furnizorii de modele AI. Deși interesul provine dintr-o varietate de industrii, companiile de servicii financiare sunt cele care le adoptă timpuriu și sunt deosebit de conștiente de amenințările de securitate și de conformitate. Pentru a rămâne competitive, majoritatea companiilor înțeleg că trebuie să integreze AI generativă în operațiunile lor fundamentale de afaceri.
Pe lângă Atomico, Redalpine, Citi Ventures și divizia de capital de risc a Dropbox au participat la investiția din seria A a Lakera.