Lakera забезпечує 20 мільйонів доларів для захисту підприємств від генеративних загроз ШІ та вразливостей LLM

Lakera забезпечує 20 мільйонів доларів для захисту підприємств від генеративних загроз ШІ та вразливостей LLM

Lakera, швейцарський стартап, який займається захистом генеративних систем штучного інтелекту від шахрайських підказок та інших небезпек, зібрав 20 мільйонів доларів у раунді збору коштів серії A, який проводить європейська компанія венчурного капіталу Atomico.

Незважаючи на те, що генеративний штучний інтелект набув великої популярності, як продемонстрували такі відомі програми, як ChatGPT, проблеми з безпекою та конфіденційністю даних залишаються ключовими проблемами для бізнесу. Генеративний штучний інтелект працює на основі великих мовних моделей (LLM), які дозволяють машинам виробляти та розуміти текст у спосіб, подібний до людей. Однак зловмисні підказки можуть змусити ці моделі виконати небажані завдання, як-от розкриття конфіденційної інформації або надання дозволу на несанкціонований доступ до приватних мереж. За допомогою Lakera ці зростаючі ризики «миттєвої ін’єкції» повинні бути усунені.

Заснована в 2021 році в Цюріху, Lakera розпочала свою діяльність у жовтні минулого року з 10 мільйонів доларів початкового капіталу. Його мета — захистити підприємства від недоліків безпеки LLM, таких як швидкі ін’єкції та витоки даних. Їхня технологія працює з декількома магістрами права, включно з Claude з Anthropic, Bard від Google, GPT-X від OpenAI і Llama від Meta. Як «брандмауер додатків штучного інтелекту з низькою затримкою» Lakera стверджує, що може захищати зв’язок між генеративними програмами штучного інтелекту та всередині них.

Базу даних, що використовується першим продуктом Lakera, Lakera Guard, було створено з використанням різноманітних джерел, зокрема внутрішніх досліджень машинного навчання, наборів даних із відкритим кодом із таких веб-сайтів, як Hugging. Face та інтерактивна гра під назвою Gandalf, яка перевіряє здатність гравців обманом змусити систему розкрити секретний пароль. За допомогою цих взаємодій було розроблено «таксономію швидкого введення» Lakera, яка класифікує ці атаки.

Для швидкого виявлення зловмисних оперативних ін’єкцій бізнес розробляє власні моделі. Постійно вивчаючи велику кількість генеративних взаємодій ШІ, ці моделі здатні розпізнавати небезпечні тенденції та адаптуватися до нових загроз.

Компанії можуть захистити себе від шкідливих підказок, інтегрувавши API Lakera Guard. Крім того, Lakera створила моделі, які шукають шкідливий вміст, як-от ненормативну лексику, насильницький вміст, ворожі висловлювання та сексуальний вміст, у підказках і результатах додатків. Хоча їх використовують і в інших ситуаціях, ці детектори особливо корисні для додатків, які взаємодіють із громадськістю, наприклад чат-ботів. За допомогою лише одного рядка коду компанії можуть використовувати функції модерації вмісту Lakera та встановлювати певні порогові значення вмісту за допомогою централізованої панелі керування політикою.

Маючи цей свіжий капітал у розмірі 20 мільйонів доларів, Lakera має намір збільшити свій глобальний слід, зокрема в Сполучених Штатах. Відомі клієнти цього бізнесу вже існують у Північній Америці, наприклад, канадський єдиноріг Cohere та американський стартап Respell, що займається штучним інтелектом.

Захист додатків штучного інтелекту є спільною метою постачальників SaaS, великих корпорацій і постачальників моделей штучного інтелекту. Незважаючи на те, що зацікавленість приходить з різних галузей, компанії, що надають фінансові послуги, першими починають використовувати їх і особливо усвідомлюють загрози безпеці та відповідності. Щоб залишатися конкурентоспроможними, більшість компаній розуміють, що вони повинні інтегрувати генеративний штучний інтелект у свої основні бізнес-операції.

Крім Atomico, Redalpine, Citi Ventures і підрозділ венчурного капіталу Dropbox брали участь в інвестиціях серії A Lakera.

Code Labs Academy © 2024 Всі права захищені.