„Lakera“ apsaugo įmonėms 20 mln. USD nuo generuojančių dirbtinio intelekto grėsmių ir LLM pažeidžiamumų

„Lakera“ apsaugo įmonėms 20 mln. USD nuo generuojančių dirbtinio intelekto grėsmių ir LLM pažeidžiamumų

Lakera, Šveicarijos startuolis, siekiantis apsaugoti generatyvias dirbtinio intelekto sistemas nuo apgaulingų raginimų ir kitų pavojų, surinko 20 mln. USD per A serijos lėšų rinkimą, kuriam vadovauja Europos rizikos kapitalo įmonė Atomico.

Nors generatyvus AI įgijo daug traukos, kaip rodo gerai žinomos programos, pvz., „ChatGPT“, saugumo ir duomenų privatumo problemos ir toliau yra pagrindinės verslo problemos. Generatyvusis dirbtinis intelektas veikia naudojant didelių kalbų modelius (LLM), kurie leidžia mašinoms kurti ir suprasti tekstą panašiai kaip žmonės. Tačiau kenkėjiški raginimai gali apgauti šiuos modelius atlikti nepageidaujamas užduotis, pvz., atskleisti neskelbtiną informaciją arba leisti neteisėtai pasiekti privačius tinklus. Su „Lakera“ reikia spręsti šią didėjančią „greito injekcijos“ riziką.

2021 m. Ciuriche įkurta „Lakera“ veiklą pradėjo praėjusių metų spalį, turėdama 10 mln. USD pradinių pinigų. Jos tikslas yra apsaugoti įmones nuo LLM saugumo trūkumų, pavyzdžiui, greitų injekcijų ir duomenų nutekėjimo. Jų technologija veikia su keliais LLM, įskaitant Claude'ą iš Anthropic, Google's Bard, OpenAI's GPT-X ir Meta's Llama. „Lakera“, kaip „mažos delsos AI programų ugniasienė“, teigia galinti užtikrinti ryšį tarp generatyvių AI programų ir jų viduje.

Duomenų bazė, kurią naudojo pirmasis Lakera produktas Lakera Guard, buvo sukurta naudojant įvairius šaltinius, įskaitant vidinius mašininio mokymosi tyrimus, atvirojo kodo duomenų rinkinius iš tokių svetainių kaip Hugging „Face“ ir interaktyvus žaidimas „Gandalf“, kuris išbando žaidėjų gebėjimą apgauti sistemą atskleisti slaptą slaptažodį. „Lakera“ „greito injekcijos taksonomija“, kuri klasifikuoja šias atakas, buvo sukurta naudojant šias sąveikas.

Siekdama greitai atpažinti kenkėjiškas skubias injekcijas, verslas kuria savo modelius. Nuolat mokydamiesi iš daugybės generatyvių AI sąveikų, šie modeliai gali atpažinti pavojingas tendencijas ir prisitaikyti prie naujų grėsmių.

Įmonės gali apsisaugoti nuo žalingų raginimų integruodamos Lakera Guard API. Be to, „Lakera“ sukūrė modelius, kuriuose raginimuose ir programų išvestėse ieškoma žalingo turinio, pvz., nešvankybių, smurtinio turinio, neapykantos kurstymo ir seksualinio turinio. Nors jie naudojami ir kitose situacijose, šie detektoriai yra ypač naudingi programoms, kurios bendrauja su visuomene, pvz., pokalbių robotams. Turėdamos tik vieną kodo eilutę, įmonės gali įtraukti „Lakera“ turinio moderavimo funkcijas ir nustatyti konkrečias turinio ribas per centralizuotą politikos valdymo skydelį.

Turėdama šį naują 20 milijonų dolerių kapitalą, „Lakera“ ketina padidinti savo pasaulinį pėdsaką, ypač Jungtinėse Valstijose. Šiaurės Amerikoje jau yra žinomų verslo klientų, tokių kaip Kanados vienaragis Cohere ir Amerikos dirbtinio intelekto startuolis Respell.

AI programų apsauga yra SaaS teikėjų, didelių korporacijų ir AI modelių tiekėjų tikslas. Nors susidomėjimas kyla iš įvairių pramonės šakų, finansinių paslaugų įmonės anksti taiko ir ypač žino apie saugumo ir atitikties grėsmes. Kad išliktų konkurencingi, dauguma įmonių supranta, kad jos turi integruoti generatyvųjį AI į savo pagrindines verslo operacijas.

Be „Atomico“, „Lakera“ A serijos investicijose dalyvavo „Redalpine“, „Citi Ventures“ ir „Dropbox“ rizikos kapitalo padalinys.

Code Labs Academy © 2024 Visos teisės saugomos.