Lakera-ն 20 միլիոն դոլար է ապահովում ձեռնարկություններին գեներատիվ AI սպառնալիքներից և LLM խոցելիություններից պաշտպանելու համար

Lakera-ն 20 միլիոն դոլար է ապահովում ձեռնարկություններին գեներատիվ AI սպառնալիքներից և LLM խոցելիություններից պաշտպանելու համար

Lakera, շվեյցարական ստարտափը, որը նվիրված է գեներատիվ AI համակարգերին խարդախ հրահանգներից և այլ վտանգներից պաշտպանելուն, հավաքել է 20 միլիոն դոլար A Series դրամահավաքի փուլում, որը ղեկավարում է վենչուրային կապիտալի եվրոպական ընկերությունը Atomico:

Թեև գեներատիվ արհեստական ​​ինտելեկտը ձեռք է բերել մեծ ձգողականություն, ինչպես ցույց են տալիս ChatGPT-ի նման հայտնի հավելվածները, անվտանգության և տվյալների գաղտնիության հետ կապված մտահոգությունները շարունակում են մնալ բիզնեսի հիմնական խնդիրներ: Generative AI-ն սնուցվում է մեծ լեզվական մոդելներով (LLM), որոնք թույլ են տալիս մեքենաներին արտադրել և ընկալել տեքստը մարդկանց նմանությամբ: Վնասակար հուշումներն, այնուամենայնիվ, կարող են խաբել այս մոդելներին անցանկալի առաջադրանքներ իրականացնելու համար, ինչպիսիք են գաղտնի տեղեկատվության բացահայտումը կամ մասնավոր ցանցեր չարտոնված մուտքի թույլտվությունը: Lakera-ի հետ այս աճող «արագ ներարկման» ռիսկերը պետք է լուծվեն:

Հիմնադրվելով 2021 թվականին Ցյուրիխում, Lakera-ն սկսեց իր գործունեությունը անցյալ տարվա հոկտեմբերին 10 միլիոն դոլարի սերմերի գումարով: -models-from-malicious-prompts/): Դրա նպատակն է պաշտպանել ձեռնարկությունները LLM անվտանգության թերություններից, ինչպիսիք են արագ ներարկումները և տվյալների արտահոսքը: Նրանց տեխնոլոգիան աշխատում է մի քանի LLM-ների հետ, այդ թվում՝ որպես Claude from Anthropic, Google's Bard, OpenAI-ի GPT-X և Meta's Llama: Որպես «ցածր ուշացման AI հավելվածի firewall», Lakera-ն պնդում է, որ կարող է ապահովել հաղորդակցություն գեներատիվ AI հավելվածների միջև և ներսում:

Lakera-ի առաջին արտադրանքի՝ Lakera Guard կողմից օգտագործված տվյալների բազան ստեղծվել է տարբեր աղբյուրների միջոցով, ներառյալ ներքին մեքենայական ուսուցման հետազոտություն, բաց կոդով տվյալների հավաքածուներ այնպիսի կայքերից, ինչպիսիք են Hugging-ը: Դեմք և Գենդալֆ անունով ինտերակտիվ խաղ, որը ստուգում է խաղացողների կարողությունը խաբել համակարգը գաղտնի գաղտնաբառ բացահայտելու համար: Լակերայի «արագ ներարկման տաքսոնոմիան», որը դասակարգում է այս հարձակումները, մշակվել է այս փոխազդեցությունների օգնությամբ:

Վնասակար արագ ներարկումներն արագ բացահայտելու համար բիզնեսը մշակում է իր սեփական մոդելները: Շարունակաբար սովորելով արհեստական ​​ինտելեկտի մեծ թվով գեներատիվ փոխազդեցություններից՝ այս մոդելները կարողանում են ճանաչել վտանգավոր միտումները և հարմարվել նոր սպառնալիքներին:

Ընկերությունները կարող են պաշտպանվել իրենց վնասակար հուշումներից՝ ինտեգրելով Lakera Guard API-ն: Բացի այդ, Lakera-ն ստեղծել է մոդելներ, որոնք փնտրում են վնասակար բովանդակություն, ինչպիսիք են հայհոյանքները, բռնի բովանդակությունը, ատելության խոսքը և սեռական բովանդակությունը հուշումներում և հավելվածների արդյունքներում: Թեև դրանք օգտագործվում են նաև այլ իրավիճակներում, այս դետեկտորները հատկապես օգտակար են այն հավելվածների համար, որոնք փոխազդում են հանրության հետ, ինչպիսիք են չաթ-բոտերը: Կոդերի ընդամենը մեկ տողով բիզնեսները կարող են ներառել Lakera-ի բովանդակության մոդերացիայի առանձնահատկությունները և սահմանել բովանդակության հատուկ շեմեր կենտրոնացված քաղաքականության կառավարման վահանակի միջոցով:

20 միլիոն դոլարի այս թարմ կապիտալով «Լակերան» մտադիր է մեծացնել իր գլոբալ տարածությունը, մասնավորապես ԱՄՆ-ում: Բիզնեսի նշանավոր հաճախորդներ արդեն կան Հյուսիսային Ամերիկայում, ինչպիսիք են կանադական միաեղջյուրը Cohere-ն և ամերիկյան Respell AI ստարտափը:

AI հավելվածների պաշտպանությունը նպատակ է, որը կիսում են SaaS մատակարարները, խոշոր կորպորացիաները և AI մոդելների մատակարարները: Թեև հետաքրքրությունը գալիս է տարբեր ոլորտներից, ֆինանսական ծառայություններ մատուցող ձեռնարկությունները վաղ ընդունողներ են և հատկապես տեղյակ են անվտանգության և համապատասխանության սպառնալիքների մասին: Մրցունակ մնալու համար ձեռնարկությունների մեծամասնությունը հասկանում է, որ նրանք պետք է ինտեգրեն գեներատիվ AI-ն իրենց հիմնարար բիզնես գործառնությունների մեջ:

Բացի Atomico-ից, Redalpine-ը, Citi Ventures-ը և Dropbox-ի վենչուրային կապիտալի բաժինը մասնակցել են Lakera-ի A Series A-ի ներդրմանը:

Code Labs Academy © 2024 Բոլոր իրավունքները պաշտպանված են.