Lakera, İşletmeleri Üretken Yapay Zeka Tehditlerinden ve LLM Açıklarından Korumak İçin 20 Milyon Dolar Güvence Altına Aldı

Lakera, İşletmeleri Üretken Yapay Zeka Tehditlerinden ve LLM Açıklarından Korumak İçin 20 Milyon Dolar Güvence Altına Aldı

Üretken yapay zeka sistemlerini hileli yönlendirmelerden ve diğer tehlikelerden korumaya adanmış İsviçreli bir girişim olan Lakera, Avrupalı ​​risk sermayesi şirketi tarafından yönetilen A Serisi bağış toplama turunda 20 milyon dolar topladı Lakera Atomico](https://atomico.com/).

Her ne kadar üretken yapay zeka, ChatGPT gibi iyi bilinen uygulamaların da gösterdiği gibi, büyük ilgi görmüş olsa da güvenlik ve veri gizliliği endişeleri, işletmeler için temel sorunlar olmaya devam ediyor. Üretken yapay zeka, makinelerin metni insanlara benzer bir şekilde üretmesine ve kavramasına olanak tanıyan büyük dil modelleri (LLM'ler) tarafından desteklenmektedir. Ancak kötü niyetli istemler, bu modelleri kandırarak hassas bilgilerin ifşa edilmesi veya özel ağlara yetkisiz erişime izin verilmesi gibi istenmeyen görevleri yerine getirme yeteneğine sahiptir. Lakera ile bu artan "hızlı enjeksiyon" risklerinin ele alınması gerekiyor.

2021 yılında Zürih'te kurulan Lakera, geçen yılın Ekim ayında 10 milyon dolarlık başlangıç ​​parasıyla faaliyetlerine başladı -kötü amaçlı-istemlerden-modeller/). Amacı, işletmeleri hızlı enjeksiyonlar ve veri sızıntıları gibi LLM güvenlik kusurlarına karşı korumaktır. Teknolojileri, Anthropic'ten Claude, Google'dan Bard, OpenAI'den GPT-X ve Meta'dan Llama dahil olmak üzere çeşitli LLM'lerle çalışıyor. "Düşük gecikmeli yapay zeka uygulama güvenlik duvarı" olarak Lakera, üretken yapay zeka uygulamaları arasındaki ve içindeki iletişimi güvenli hale getirebildiğini iddia ediyor.

Lakera'nın ilk ürünü olan Lakera Guard tarafından kullanılan veritabanı, dahili makine öğrenimi araştırmaları ve Hugging gibi web sitelerinden açık kaynaklı veri kümeleri dahil olmak üzere çeşitli kaynaklar kullanılarak oluşturulmuştur. Face ve oyuncuların sistemi gizli bir şifreyi ifşa etmesi için kandırma yeteneğini test eden Gandalf adlı etkileşimli bir oyun. Lakera'nın bu saldırıları sınıflandıran "hızlı enjeksiyon sınıflandırması" bu etkileşimlerin yardımıyla geliştirildi.

Kötü niyetli istem enjeksiyonlarını hızlı bir şekilde tespit etmek için işletme kendi modellerini geliştirir. Çok sayıda üretken yapay zeka etkileşiminden sürekli olarak öğrenen bu modeller, tehlikeli eğilimleri tanıyabiliyor ve yeni tehditlere uyum sağlayabiliyor.

İşletmeler Lakera Guard API'yi entegre ederek kendilerini zararlı istemlerden koruyabilirler. Ayrıca Lakera, istemlerde ve uygulama çıktılarında küfür, şiddet içeren içerik, nefret söylemi ve cinsel içerik gibi zararlı içerikleri arayan modeller oluşturmuştur. Her ne kadar başka durumlarda da kullanılsalar da, bu dedektörler özellikle sohbet robotları gibi halkla etkileşime giren uygulamalar için faydalıdır. İşletmeler yalnızca tek bir kod satırıyla Lakera'nın içerik denetleme özelliklerini kullanabilir ve merkezi bir politika kontrol paneli aracılığıyla belirli içerik eşiklerini belirleyebilir.

Lakera, 20 milyon dolarlık bu yeni sermayeyle, özellikle Amerika Birleşik Devletleri'nde olmak üzere küresel ayak izini artırmayı planlıyor. İşletmenin Kanadalı tek boynuzlu at Cohere ve Amerikalı yapay zeka girişimi Respell gibi önemli müşterileri Kuzey Amerika'da zaten mevcut.

Yapay zeka uygulamalarının güvenliğini sağlamak, SaaS sağlayıcıları, büyük şirketler ve yapay zeka modeli sağlayıcıları tarafından paylaşılan bir hedeftir. Her ne kadar ilgi çeşitli sektörlerden gelse de, finansal hizmet işletmeleri bu teknolojiyi ilk benimseyen şirketlerdir ve özellikle güvenlik ve uyumluluk tehditlerinin farkındadırlar. Rekabetçi kalabilmek için işletmelerin çoğunluğu, üretken yapay zekayı temel iş operasyonlarına entegre etmeleri gerektiğini anlıyor.

Lakera'nın A Serisi yatırımına Atomico'nun yanı sıra Redalpine, Citi Ventures ve Dropbox'ın risk sermayesi bölümü de katıldı.

Code Labs Academy © 2024 Her hakkı saklıdır.