Lakera, una startup suïssa dedicada a protegir els sistemes d'IA generativa de les indicacions fraudulentes i altres perills, ha recaptat 20 milions de dòlars en una ronda de recaptació de fons de la Sèrie A, liderada per la firma europea de capital risc Atomico.
Tot i que la IA generativa ha adquirit molta tracció, com ho demostren aplicacions conegudes com ChatGPT, les preocupacions de seguretat i privadesa de dades continuen sent problemes clau per a les empreses. La IA generativa està impulsada per grans models de llenguatge (LLM), que permeten a les màquines produir i comprendre text d'una manera semblant a la dels humans. Les indicacions malicioses, però, tenen la capacitat d'enganyar aquests models perquè portin a terme tasques no desitjades, com ara revelar informació sensible o permetre l'accés no autoritzat a xarxes privades. Amb Lakera, aquests riscos creixents d'"injecció ràpida" s'han d'abordar.
Després d'haver estat establerta el 2021 a Zuric, Lakera va començar a operar l'octubre de l'any passat amb 10 milions de dòlars en diners inicials -models-de-indicacions-malicioses/). El seu objectiu és protegir les empreses contra defectes de seguretat de LLM, com ara injeccions ràpides i filtracions de dades. La seva tecnologia funciona amb diversos LLM, com ara Claude d'Anthropic, Google's Bard, OpenAI's GPT-X i Meta's Llama. Com a "tallafoc d'aplicacions d'IA de baixa latència", Lakera afirma poder assegurar la comunicació entre i dins de les aplicacions d'IA generativa.
La base de dades utilitzada pel primer producte de Lakera, Lakera Guard, es va crear mitjançant una varietat de fonts, inclosa la investigació interna d'aprenentatge automàtic, conjunts de dades de codi obert de llocs web com Hugging. Face i un joc interactiu anomenat Gandalf que posa a prova la capacitat dels jugadors per enganyar el sistema perquè reveli una contrasenya secreta. La "taxonomia d'injecció ràpida" de Lakera, que classifica aquests atacs, es va desenvolupar amb l'ajuda d'aquestes interaccions.
Per identificar ràpidament les injeccions ràpides malicioses, l'empresa desenvolupa els seus propis models. Aprenent contínuament d'un gran nombre d'interaccions generatives d'IA, aquests models són capaços de reconèixer tendències perilloses i adaptar-se a noves amenaces.
Les empreses poden protegir-se de les indicacions perjudicials mitjançant la integració de l'API Lakera Guard. A més, Lakera ha creat models que busquen contingut nociu, com ara blasfemia, contingut violent, discurs d'odi i contingut sexual, a les indicacions i sortides d'aplicacions. Tot i que també s'utilitzen en altres situacions, aquests detectors són especialment útils per a aplicacions que interactuen amb el públic, com ara els chatbots. Amb només una línia de codi, les empreses poden incorporar les funcions de moderació de contingut de Lakera i establir llindars de contingut específics mitjançant un tauler de control de polítiques centralitzat.
Amb aquest nou capital de 20 milions de dòlars, Lakera té la intenció d'augmentar la seva empremta global, especialment als Estats Units. A Amèrica del Nord ja existeixen clients destacats del negoci, com l'unicorn canadenc Cohere i la startup nord-americana d'IA Respell.
La seguretat de les aplicacions d'IA és un objectiu que comparteixen els proveïdors de SaaS, les grans corporacions i els proveïdors de models d'IA. Tot i que l'interès prové d'una varietat d'indústries, les empreses de serveis financers són les primeres adoptants i són especialment conscients de les amenaces de seguretat i compliment. Per mantenir-se competitius, la majoria de les empreses entenen que han d'integrar la IA generativa a les seves operacions empresarials fonamentals.
A més d'Atomico, Redalpine, Citi Ventures i la divisió de capital risc de Dropbox van participar en la inversió de la sèrie A de Lakera.