Lakera Müəssisələri generativ süni intellekt təhlükələrindən və LLM zəifliklərindən qorumaq üçün 20 milyon dollar təmin edir

Lakera Müəssisələri generativ süni intellekt təhlükələrindən və LLM zəifliklərindən qorumaq üçün 20 milyon dollar təmin edir

Lakera, generativ süni intellekt sistemlərini fırıldaqçı göstərişlərdən və digər təhlükələrdən qorumağa həsr olunmuş İsveçrə startapı Avropa vençur kapitalı firmasının rəhbərlik etdiyi A Seriyası üzrə fandreyzinq raundunda 20 milyon dollar topladı. Atomico](https://atomico.com/).

Generativ süni intellekt, ChatGPT kimi tanınmış proqramların nümayiş etdirdiyi kimi, çoxlu dartma qabiliyyəti əldə etsə də, təhlükəsizlik və məlumatların məxfiliyi ilə bağlı problemlər biznes üçün əsas problemlər olaraq qalır. Generativ süni intellekt böyük dil modelləri (LLM) ilə təchiz edilir ki, bu da maşınlara mətni insanlarınkinə oxşar şəkildə istehsal etməyə və dərk etməyə imkan verir. Zərərli göstərişlər bu modelləri aldadaraq, məxfi məlumatları açıqlamaq və ya şəxsi şəbəkələrə icazəsiz girişə icazə vermək kimi arzuolunmaz tapşırıqları yerinə yetirmək imkanına malikdir. Lakera ilə bu artan "tez inyeksiya" riskləri həll edilməlidir.

2021-ci ildə Sürixdə qurulan Lakera, keçən ilin oktyabrında [10 milyon dollar toxum pulu] ilə fəaliyyətə başladı(https://techcrunch.com/2023/10/12/lakera-launches-to-protect-large-language -zərərli-istəklərdən-modellər/). Onun məqsədi müəssisələrin sürətli inyeksiya və məlumat sızması kimi LLM təhlükəsizlik qüsurlarından qorumaqdır. Onların texnologiyası bir neçə LLM ilə işləyir, o cümlədən Anthropic-dən Klod, Google-un Bard, OpenAI-nin GPT-X və Meta-nın Llama. "Aşağı gecikmə AI tətbiqi təhlükəsizlik duvarı" olaraq, Lakera generativ AI tətbiqləri arasında və daxilində əlaqəni təmin edə biləcəyini iddia edir.

Lakera-nın ilk məhsulu olan Lakera Guard tərəfindən istifadə edilən verilənlər bazası daxili maşın öyrənmə tədqiqatı, Hugging kimi veb saytlardan açıq mənbə məlumat dəstləri daxil olmaqla müxtəlif mənbələrdən istifadə etməklə yaradılmışdır. Üz və oyunçuların gizli parolu açıqlamaq üçün sistemi aldatmaq qabiliyyətini yoxlayan Gandalf adlı interaktiv oyun. Bu hücumları təsnif edən Lakeranın "tez inyeksiya taksonomiyası" bu qarşılıqlı təsirlərin köməyi ilə hazırlanmışdır.

Zərərli sürətli inyeksiyaları tez bir zamanda müəyyən etmək üçün biznes öz modellərini hazırlayır. Çoxlu sayda generativ süni intellektlə qarşılıqlı əlaqədən davamlı olaraq öyrənərək, bu modellər təhlükəli meylləri tanıya və yeni təhdidlərə uyğunlaşa bilir.

Şirkətlər Lakera Guard API-ni inteqrasiya etməklə özlərini zərərli xəbərdarlıqlardan qoruya bilərlər. Bundan əlavə, Lakera göstərişlərdə və tətbiq çıxışlarında söyüşlər, zorakı məzmun, nifrət nitqi və cinsi məzmun kimi zərərli məzmun axtaran modellər yaratmışdır. Onlar digər vəziyyətlərdə də istifadə olunsa da, bu detektorlar chatbotlar kimi ictimaiyyətlə qarşılıqlı əlaqədə olan proqramlar üçün xüsusilə faydalıdır. Yalnız bir kod xətti ilə müəssisələr Lakera-nın məzmun moderasiyası xüsusiyyətlərini özündə birləşdirə və mərkəzləşdirilmiş siyasət idarəetmə paneli vasitəsilə xüsusi məzmun hədlərini təyin edə bilər.

20 milyon dollarlıq bu təzə kapitalla Lakera qlobal izlərini, xüsusən də ABŞ-da artırmaq niyyətindədir. Kanada unicorn Cohere və Amerikanın AI başlanğıcı Respell kimi biznesin görkəmli müştəriləri artıq Şimali Amerikada mövcuddur.

Süni intellekt tətbiqlərinin təhlükəsizliyi SaaS provayderləri, böyük korporasiyalar və AI modelləri provayderləri tərəfindən paylaşılan məqsəddir. Maraq müxtəlif sahələrdən gəlsə də, maliyyə xidmətləri müəssisələri erkən tətbiq edənlərdir və xüsusilə təhlükəsizlik və uyğunluq təhdidlərindən xəbərdardırlar. Rəqabətə davamlı olmaq üçün müəssisələrin əksəriyyəti başa düşürlər ki, onlar generativ süni intellektləri fundamental biznes əməliyyatlarına inteqrasiya etməlidirlər.

Atomico ilə yanaşı, Redalpine, Citi Ventures və Dropbox-un vençur kapitalı bölməsi Lakera-nın A Series investisiyasında iştirak etdi.

Code Labs Academy © 2024 Bütün hüquqlar qorunur.