Lakera đảm bảo 20 triệu đô la để bảo vệ các doanh nghiệp khỏi các mối đe dọa về AI và các lỗ hổng LLM

Lakera đảm bảo 20 triệu đô la để bảo vệ các doanh nghiệp khỏi các mối đe dọa về AI và các lỗ hổng LLM

Lakera, một công ty khởi nghiệp ở Thụy Sĩ chuyên bảo vệ các hệ thống AI sáng tạo khỏi những lời nhắc gian lận và các nguy hiểm khác, đã huy động được 20 triệu USD trong vòng gây quỹ Series A, do công ty đầu tư mạo hiểm Châu Âu dẫn đầu Atomico.

Mặc dù AI tổng quát đã thu hút được rất nhiều sự chú ý—như được chứng minh bởi các ứng dụng nổi tiếng như ChatGPT—các mối lo ngại về bảo mật và quyền riêng tư dữ liệu vẫn tiếp tục là vấn đề chính đối với các doanh nghiệp. AI sáng tạo được hỗ trợ bởi các mô hình ngôn ngữ lớn (LLM), cho phép máy móc tạo và hiểu văn bản theo cách giống với con người. Tuy nhiên, các lời nhắc độc hại có khả năng đánh lừa các mô hình này thực hiện các tác vụ không mong muốn, như tiết lộ thông tin nhạy cảm hoặc cho phép truy cập trái phép vào mạng riêng. Với Lakera, những rủi ro "tiêm nhanh" ngày càng tăng này sẽ được giải quyết.

Được thành lập vào năm 2021 tại Zurich, Lakera bắt đầu hoạt động vào tháng 10 năm ngoái với 10 triệu đô la tiền hạt giống. Mục tiêu của nó là bảo vệ các doanh nghiệp khỏi các lỗ hổng bảo mật LLM như tiêm nhanh và rò rỉ dữ liệu. Công nghệ của họ hoạt động với một số LLM, bao gồm Claude từ Anthropic, Bard của Google, GPT-X của OpenAI và Llama của Meta. Là "tường lửa ứng dụng AI có độ trễ thấp", Lakera tuyên bố có thể bảo mật liên lạc giữa và trong các ứng dụng AI tổng hợp.

Cơ sở dữ liệu được sản phẩm đầu tiên của Lakera, Lakera Guard sử dụng, được tạo bằng nhiều nguồn khác nhau, bao gồm nghiên cứu máy học nội bộ, bộ dữ liệu nguồn mở từ các trang web như Hugging Face và một trò chơi tương tác có tên Gandalf để kiểm tra khả năng của người chơi trong việc đánh lừa hệ thống tiết lộ mật khẩu bí mật. "Phân loại tiêm nhắc" của Lakera, phân loại các cuộc tấn công này, được phát triển với sự hỗ trợ của các tương tác này.

Để nhanh chóng xác định các hành vi tiêm nhắc độc hại, doanh nghiệp phát triển các mô hình của riêng mình. Bằng cách liên tục học hỏi từ một số lượng lớn các tương tác AI tổng hợp, các mô hình này có thể nhận ra các xu hướng nguy hiểm và thích ứng với các mối đe dọa mới.

Các doanh nghiệp có thể tự bảo vệ mình khỏi những lời nhắc có hại bằng cách tích hợp API Lakera Guard. Hơn nữa, Lakera đã tạo ra các mô hình tìm kiếm nội dung có hại, chẳng hạn như ngôn từ tục tĩu, nội dung bạo lực, lời nói căm thù và nội dung khiêu dâm trong lời nhắc và đầu ra của ứng dụng. Mặc dù chúng cũng được sử dụng trong các tình huống khác, nhưng những trình phát hiện này đặc biệt hữu ích cho các ứng dụng tương tác với công chúng, chẳng hạn như chatbot. Chỉ với một dòng mã, doanh nghiệp có thể kết hợp các tính năng kiểm duyệt nội dung của Lakera và đặt ngưỡng nội dung cụ thể thông qua bảng điều khiển chính sách tập trung.

Với nguồn vốn mới 20 triệu USD này, Lakera dự định sẽ tăng cường dấu ấn trên toàn cầu, đặc biệt là ở Hoa Kỳ. Các khách hàng đáng chú ý của doanh nghiệp đã tồn tại ở Bắc Mỹ, chẳng hạn như kỳ lân Cohere của Canada và công ty khởi nghiệp AI Respell của Mỹ.

Bảo mật các ứng dụng AI là mục tiêu được chia sẻ bởi các nhà cung cấp SaaS, các tập đoàn lớn và nhà cung cấp mô hình AI. Mặc dù sự quan tâm đến từ nhiều ngành khác nhau, các doanh nghiệp dịch vụ tài chính là những người áp dụng sớm và đặc biệt nhận thức được các mối đe dọa về bảo mật và tuân thủ. Để duy trì tính cạnh tranh, phần lớn các doanh nghiệp hiểu rằng họ phải tích hợp AI vào các hoạt động kinh doanh cơ bản của mình.

Ngoài Atomico, bộ phận đầu tư mạo hiểm của Redalpine, Citi Ventures và Dropbox cũng tham gia vào khoản đầu tư Series A của Lakera.

Code Labs Academy © 2024 Đã đăng ký Bản quyền.