Lakera는 생성적 AI 위협 및 LLM 취약점으로부터 기업을 보호하기 위해 2천만 달러를 확보했습니다.

Lakera는 생성적 AI 위협 및 LLM 취약점으로부터 기업을 보호하기 위해 2천만 달러를 확보했습니다.

사기성 프롬프트 및 기타 위험으로부터 생성 AI 시스템을 보호하는 데 전념하는 스위스 스타트업인 Lakera는 유럽 벤처 캐피탈 회사가 주도하는 시리즈 A 자금 조달 라운드에서 2천만 달러를 모금했습니다. 아토미코](https://atomico.com/).

ChatGPT와 같은 잘 알려진 앱에서 알 수 있듯이 생성적 AI가 많은 관심을 받았음에도 불구하고 보안 및 데이터 개인 정보 보호 문제는 여전히 기업의 주요 문제입니다. 생성적 AI는 기계가 인간과 유사한 방식으로 텍스트를 생성하고 이해할 수 있도록 하는 LLM(대형 언어 모델)을 기반으로 합니다. 그러나 악성 프롬프트는 이러한 모델을 속여 민감한 정보를 공개하거나 개인 네트워크에 대한 무단 액세스를 허용하는 등 원치 않는 작업을 수행하도록 할 수 있습니다. Lakera를 사용하면 이러한 증가하는 "즉시 주입" 위험이 해결됩니다.

2021년 취리히에서 설립된 라케라는 지난해 10월 종자금 1,000만 달러로 운영을 시작했다. -악성 프롬프트의 모델/). 그 목표는 신속한 주입 및 데이터 유출과 같은 LLM 보안 결함으로부터 기업을 보호하는 것입니다. 그들의 기술은 Anthropic의 Claude, Google의 Bard, OpenAI의 GPT-X 및 Meta의 Llama를 포함한 여러 LLM에서 작동합니다. Lakera는 "낮은 대기 시간의 AI 애플리케이션 방화벽"으로서 생성 AI 애플리케이션 간의 통신을 보호할 수 있다고 주장합니다.

Lakera의 첫 번째 제품인 Lakera Guard에서 사용되는 데이터베이스는 내부 머신러닝 연구, Hugging과 같은 웹사이트의 오픈 소스 데이터 세트 등 다양한 소스를 사용하여 생성되었습니다. Face와 시스템을 속여 비밀 암호를 공개하는 플레이어의 능력을 테스트하는 Gandalf라는 대화형 게임도 있습니다. 이러한 공격을 분류하는 Lakera의 "즉시 주입 분류법"은 이러한 상호 작용의 도움을 받아 개발되었습니다.

악성 프롬프트 인젝션을 신속하게 식별하기 위해 기업에서는 자체 모델을 개발합니다. 수많은 생성적 AI 상호 작용을 통해 지속적으로 학습함으로써 이러한 모델은 위험한 경향을 인식하고 새로운 위협에 적응할 수 있습니다.

기업은 Lakera Guard API를 통합하여 유해한 메시지로부터 스스로를 보호할 수 있습니다. 또한 Lakera는 프롬프트 및 애플리케이션 출력에서 ​​욕설, 폭력적인 콘텐츠, 증오심 표현, 성적인 콘텐츠와 같은 유해한 콘텐츠를 찾는 모델을 만들었습니다. 다른 상황에서도 사용되지만 이러한 감지기는 챗봇과 같이 대중과 상호 작용하는 앱에 특히 유용합니다. 단 한 줄의 코드만으로 기업은 Lakera의 콘텐츠 조정 기능을 통합하고 중앙 집중식 정책 제어판을 통해 특정 콘텐츠 임계값을 설정할 수 있습니다.

Lakera는 2천만 달러의 새로운 자본을 통해 특히 미국에서 글로벌 입지를 확대할 계획입니다. 캐나다 유니콘인 Cohere와 미국의 AI 스타트업인 Respell과 같은 주목할만한 비즈니스 고객이 이미 북미에 존재합니다.

AI 애플리케이션 보안은 SaaS 제공업체, 대기업, AI 모델 제공업체가 공유하는 목표입니다. 다양한 업계에서 관심이 오지만 금융 서비스 기업은 얼리 어답터이며 특히 보안 및 규정 준수 위협을 인식하고 있습니다. 경쟁력을 유지하려면 대부분의 기업이 생성 AI를 기본적인 비즈니스 운영에 통합해야 한다는 점을 이해하고 있습니다.

라케라의 시리즈A 투자에는 아토미코 외에도 레달파인(Redalpine), 씨티벤처스(Citi Ventures), 드롭박스(Dropbox)의 벤처캐피털 사업부가 참여했다.

Code Labs Academy © 2024 판권 소유.