Lakera zabezpiecza 20 mln dolarów na ochronę przedsiębiorstw przed zagrożeniami związanymi z generatywną sztuczną inteligencją i lukami w zabezpieczeniach LLM

Lakera zabezpiecza 20 mln dolarów na ochronę przedsiębiorstw przed zagrożeniami związanymi z generatywną sztuczną inteligencją i lukami w zabezpieczeniach LLM

Lakera, szwajcarski start-up zajmujący się ochroną generatywnych systemów sztucznej inteligencji przed fałszywymi komunikatami i innymi niebezpieczeństwami, zebrał 20 milionów dolarów w rundzie zbiórki serii A, prowadzonej przez europejską firmę venture capital Atomico.

Chociaż generatywna sztuczna inteligencja zyskała dużą popularność – jak pokazały dobrze znane aplikacje, takie jak ChatGPT – kwestie bezpieczeństwa i prywatności danych w dalszym ciągu są kluczowymi problemami firm. Generatywna sztuczna inteligencja opiera się na dużych modelach językowych (LLM), które umożliwiają maszynom tworzenie i rozumienie tekstu w sposób podobny do ludzkiego. Złośliwe podpowiedzi potrafią jednak oszukać te modele i zmusić je do wykonania niepożądanych zadań, takich jak ujawnienie poufnych informacji lub umożliwienie nieautoryzowanego dostępu do sieci prywatnych. W przypadku preparatu Lakera należy zająć się rosnącym ryzykiem „szybkiego wstrzyknięcia”.

Założona w 2021 r. w Zurychu firma Lakera rozpoczęła działalność w październiku ubiegłego roku z 10 milionami dolarów w postaci kapitału początkowego. Jego celem jest ochrona przedsiębiorstw przed lukami w zabezpieczeniach LLM, takimi jak szybkie wstrzykiwanie i wycieki danych. Ich technologia współpracuje z kilkoma LLM, w tym z Claude z Anthropic, Bard z Google, GPT-X z OpenAI i Llama z Meta. Jako „zapora aplikacji AI o niskim opóźnieniu” Lakera twierdzi, że jest w stanie zabezpieczyć komunikację pomiędzy generatywnymi aplikacjami AI i w ich obrębie.

Baza danych używana przez pierwszy produkt Lakery, Lakera Guard, została utworzona przy użyciu różnych źródeł, w tym wewnętrznych badań dotyczących uczenia maszynowego, zbiorów danych typu open source z witryn takich jak Hugging Face oraz interaktywną grę o nazwie Gandalf, która testuje zdolność graczy do oszukania systemu w celu ujawnienia tajnego hasła. Przy pomocy tych interakcji opracowano „taksonomię natychmiastowych zastrzyków” Lakery, która klasyfikuje te ataki.

Aby szybko zidentyfikować złośliwe zastrzyki zachęty, firma opracowuje własne modele. Dzięki ciągłemu uczeniu się na podstawie dużej liczby generatywnych interakcji AI modele te są w stanie rozpoznać niebezpieczne tendencje i dostosować się do nowych zagrożeń.

Firmy mogą zabezpieczyć się przed szkodliwymi monitami, integrując interfejs API Lakera Guard. Ponadto Lakera stworzyła modele wyszukujące szkodliwe treści, takie jak wulgaryzmy, treści zawierające przemoc, mowę nienawiści i treści o charakterze seksualnym, w podpowiedziach i wynikach aplikacji. Chociaż są one używane również w innych sytuacjach, te detektory są szczególnie przydatne w przypadku aplikacji wchodzących w interakcję z publicznością, takich jak chatboty. Za pomocą tylko jednego wiersza kodu firmy mogą włączyć funkcje moderowania treści Lakera i ustawić określone progi zawartości za pośrednictwem scentralizowanego panelu sterowania zasadami.

Dzięki temu nowemu kapitałowi w wysokości 20 milionów dolarów Lakera zamierza zwiększyć swój globalny zasięg, szczególnie w Stanach Zjednoczonych. Znani klienci firmy istnieją już w Ameryce Północnej, jak kanadyjski jednorożec Cohere i amerykański start-up AI Respell.

Zabezpieczanie aplikacji AI to cel wspólny dla dostawców SaaS, dużych korporacji i dostawców modeli AI. Chociaż zainteresowanie wynika z różnych branż, firmy świadczące usługi finansowe wcześnie wdrażają te rozwiązania i są szczególnie świadome zagrożeń związanych z bezpieczeństwem i zgodnością. Aby zachować konkurencyjność, większość firm rozumie, że muszą zintegrować generatywną sztuczną inteligencję z podstawowymi operacjami biznesowymi.

Oprócz Atomico w inwestycji serii A firmy Lakera uczestniczyły także Redalpine, Citi Ventures i dział venture capital Dropbox.

Code Labs Academy © 2024 Wszelkie prawa zastrzeżone.