Lakera nodrošina 20 miljonus USD, lai aizsargātu uzņēmumus no ģeneratīviem AI draudiem un LLM ievainojamībām

Lakera nodrošina 20 miljonus USD, lai aizsargātu uzņēmumus no ģeneratīviem AI draudiem un LLM ievainojamībām

Lakera, Šveices jaunuzņēmums, kura mērķis ir aizsargāt ģeneratīvās mākslīgā intelekta sistēmas no krāpnieciskām uzvednēm un citām briesmām, ir piesaistījis 20 miljonus ASV dolāru A sērijas līdzekļu vākšanas kārtā, ko vada Eiropas riska kapitāla uzņēmums Atomico.

Lai gan ģeneratīvais AI ir guvis lielu pievilcību — kā to pierāda tādas labi zināmas lietotnes kā ChatGPT —, drošības un datu privātuma problēmas joprojām ir galvenās uzņēmumu problēmas. Ģeneratīvo mākslīgo intelektu nodrošina lielie valodu modeļi (LLM), kas ļauj mašīnām radīt un saprast tekstu līdzīgi kā cilvēkiem. Tomēr ļaunprātīgas uzvednes var maldināt šos modeļus, lai tie veiktu nevēlamus uzdevumus, piemēram, izpauž sensitīvu informāciju vai atļauj nesankcionētu piekļuvi privātiem tīkliem. Ar Lakera šie pieaugošie "tūlītējās injekcijas" riski ir jānovērš.

Lakera tika dibināta 2021. gadā Cīrihē, un tā sāka darbību pagājušā gada oktobrī ar 10 miljonu dolāru sākuma naudu. Tās mērķis ir pasargāt uzņēmumus no LLM drošības trūkumiem, piemēram, ātras injekcijas un datu noplūdes. Viņu tehnoloģija darbojas ar vairākiem LLM, tostarp ar Klodu no Anthropic, Google's Bard, OpenAI's GPT-X un Meta's Llama. Kā "zema latentuma AI lietojumprogrammu ugunsmūris" Lakera apgalvo, ka spēj nodrošināt saziņu starp ģenerējošām AI lietojumprogrammām un to iekšienē.

Datu bāze, ko izmantoja pirmais Lakera produkts Lakera Guard, tika izveidota, izmantojot dažādus avotus, tostarp iekšējo mašīnmācīšanās izpēti, atvērtā pirmkoda datu kopas no tādām vietnēm kā Hugging. Seja un interaktīva spēle Gendalf, kas pārbauda spēlētāju spēju pievilt sistēmu, lai tā atklātu slepenu paroli. Ar šo mijiedarbību palīdzību tika izstrādāta Lakera "ātrās injekcijas taksonomija", kas klasificē šos uzbrukumus.

Lai ātri identificētu ļaunprātīgas tūlītējas injekcijas, uzņēmums izstrādā savus modeļus. Nepārtraukti mācoties no liela skaita ģeneratīvu AI mijiedarbību, šie modeļi spēj atpazīt bīstamas tendences un pielāgoties jauniem draudiem.

Uzņēmumi var pasargāt sevi no kaitīgām uzvednēm, integrējot Lakera Guard API. Turklāt Lakera ir izveidojis modeļus, kas uzvednēs un lietojumprogrammu izvadēs meklē kaitīgu saturu, piemēram, rupjības, vardarbīgu saturu, naida runu un seksuālu saturu. Lai gan tos izmanto arī citās situācijās, šie detektori ir īpaši noderīgi lietotnēm, kas mijiedarbojas ar sabiedrību, piemēram, tērzēšanas robotiem. Izmantojot tikai vienu koda rindiņu, uzņēmumi var iekļaut Lakera satura regulēšanas funkcijas un iestatīt konkrētus satura sliekšņus, izmantojot centralizētu politikas vadības paneli.

Ar šo jauno kapitālu 20 miljonu ASV dolāru apmērā Lakera plāno palielināt savu globālo ietekmi, jo īpaši Amerikas Savienotajās Valstīs. Ziemeļamerikā jau pastāv ievērojami biznesa klienti, piemēram, Kanādas vienradzis Kohere un amerikāņu mākslīgā intelekta startup Respell.

AI lietojumprogrammu nodrošināšana ir SaaS pakalpojumu sniedzēju, lielo korporāciju un AI modeļu nodrošinātāju kopīgs mērķis. Lai gan interese nāk no dažādām nozarēm, finanšu pakalpojumu uzņēmumi ir agrīni ieviesēji un īpaši apzinās drošības un atbilstības draudus. Lai saglabātu konkurētspēju, lielākā daļa uzņēmumu saprot, ka tiem ir jāintegrē ģeneratīvais AI savās pamata uzņēmējdarbības darbībās.

Papildus Atomico, Redalpine, Citi Ventures un Dropbox riska kapitāla nodaļa piedalījās Lakera A sērijas ieguldījumos.

Code Labs Academy © 2025 Visas tiesības paturētas.