Lakera zagotovi 20 milijonov dolarjev za zaščito podjetij pred generativnimi grožnjami umetne inteligence in ranljivostmi LLM

Lakera zagotovi 20 milijonov dolarjev za zaščito podjetij pred generativnimi grožnjami umetne inteligence in ranljivostmi LLM

Lakera, švicarsko zagonsko podjetje, namenjeno zaščiti generativnih sistemov umetne inteligence pred goljufivimi pozivi in ​​drugimi nevarnostmi, je zbralo 20 milijonov dolarjev v krogu zbiranja sredstev serije A, ki ga vodi evropsko podjetje tveganega kapitala Atomico.

Čeprav je generativna umetna inteligenca pridobila veliko oprijema – kot dokazujejo dobro znane aplikacije, kot je ChatGPT – so pomisleki glede varnosti in zasebnosti podatkov še vedno ključni problemi podjetij. Generativno umetno inteligenco poganjajo veliki jezikovni modeli (LLM), ki strojem omogočajo ustvarjanje in razumevanje besedila na način, podoben človeškemu. Zlonamerni pozivi pa lahko te modele zavedejo v izvajanje neželenih nalog, kot je razkritje občutljivih informacij ali omogočanje nepooblaščenega dostopa do zasebnih omrežij. Z Lakero je treba obravnavati ta naraščajoča tveganja za "takojšnje injiciranje".

Lakera, ustanovljena leta 2021 v Zürichu, je začela delovati oktobra lani z 10 milijoni dolarjev začetnega denarja. Njegov cilj je zaščititi podjetja pred varnostnimi napakami LLM, kot so hitre injekcije in uhajanje podatkov. Njihova tehnologija deluje z več LLM-ji, vključno s Claudom iz Anthropic, Googlovim Bardom, OpenAI-jevim GPT-X in Metino Llamo. Kot "požarni zid za aplikacije z umetno inteligenco z nizko zakasnitvijo" Lakera trdi, da lahko zaščiti komunikacijo med in znotraj generativnih aplikacij z umetno inteligenco.

Podatkovna baza, ki jo uporablja Lakerin prvi izdelek, Lakera Guard, je bila ustvarjena z uporabo različnih virov, vključno z internimi raziskavami strojnega učenja, odprtokodnimi nabori podatkov s spletnih mest, kot je Hugging Face in interaktivno igro Gandalf, ki preizkuša sposobnost igralcev, da zavedejo sistem, da razkrije skrivno geslo. Lakerina "taksonomija takojšnjega vbrizgavanja", ki razvršča te napade, je bila razvita s pomočjo teh interakcij.

Za hitro prepoznavanje zlonamernih takojšnjih injekcij podjetje razvija lastne modele. Z nenehnim učenjem iz velikega števila generativnih interakcij AI so ti modeli sposobni prepoznati nevarne težnje in se prilagoditi novim grožnjam.

Podjetja se lahko zaščitijo pred škodljivimi pozivi z integracijo API-ja Lakera Guard. Poleg tega je Lakera ustvarila modele, ki iščejo škodljivo vsebino, kot so kletvice, nasilna vsebina, sovražni govor in spolna vsebina, v pozivih in rezultatih aplikacij. Čeprav se uporabljajo tudi v drugih situacijah, so ti detektorji še posebej koristni za aplikacije, ki komunicirajo z javnostjo, kot so chatboti. S samo eno vrstico kode lahko podjetja vključijo Lakerine funkcije za moderiranje vsebine in nastavijo specifične vsebinske pragove prek centralizirane nadzorne plošče pravilnika.

S tem svežim kapitalom v višini 20 milijonov dolarjev namerava Lakera povečati svoj globalni odtis, zlasti v Združenih državah. Pomembne stranke podjetja že obstajajo v Severni Ameriki, kot sta kanadski samorog Cohere in ameriški startup AI Respell.

Zaščita aplikacij AI je skupen cilj ponudnikov SaaS, velikih korporacij in ponudnikov modelov AI. Čeprav zanimanje prihaja iz različnih panog, so podjetja s finančnimi storitvami zgodnja uporabnika in se še posebej zavedajo groženj glede varnosti in skladnosti. Da bi ostala konkurenčna, večina podjetij razume, da morajo generativno umetno inteligenco vključiti v svoje temeljne poslovne operacije.

Poleg Atomica so pri Lakerini naložbi serije A sodelovali Redalpine, Citi Ventures in Dropboxov oddelek za tvegani kapital.

Code Labs Academy © 2024 Vse pravice pridržane.