Lakera Mendapatkan $20 Juta untuk Melindungi Perusahaan dari Ancaman AI Generatif dan Kerentanan LLM

Lakera Mendapatkan $20 Juta untuk Melindungi Perusahaan dari Ancaman AI Generatif dan Kerentanan LLM

Lakera, sebuah startup Swiss yang bertujuan melindungi sistem AI generatif dari permintaan penipuan dan bahaya lainnya, telah mengumpulkan $20 juta dalam putaran penggalangan dana Seri A, yang dipimpin oleh perusahaan modal ventura Eropa Atomico.

Meskipun AI generatif telah mendapatkan banyak daya tarik—seperti yang ditunjukkan oleh aplikasi terkenal seperti ChatGPT—masalah keamanan dan privasi data terus menjadi masalah utama bagi bisnis. AI Generatif didukung oleh model bahasa besar (LLM), yang memungkinkan mesin memproduksi dan memahami teks dengan cara yang mirip dengan manusia. Namun, perintah berbahaya memiliki kemampuan untuk menipu model ini agar melakukan tugas yang tidak diinginkan, seperti mengungkapkan informasi sensitif atau mengizinkan akses tidak sah ke jaringan pribadi. Bersama Lakera, peningkatan risiko "injeksi segera" ini harus diatasi.

Didirikan pada tahun 2021 di Zurich, Lakera mulai beroperasi pada bulan Oktober tahun lalu dengan dana awal sebesar $10 juta. Tujuannya adalah untuk melindungi perusahaan dari kelemahan keamanan LLM seperti injeksi cepat dan kebocoran data. Teknologi mereka bekerja dengan beberapa LLM, termasuk Claude dari Anthropic, Bard Google, GPT-X OpenAI, dan Llama Meta. Sebagai "firewall aplikasi AI berlatensi rendah", Lakera mengklaim mampu mengamankan komunikasi antara dan dalam aplikasi AI generatif.

Basis data yang digunakan oleh produk pertama Lakera, Lakera Guard, dibuat menggunakan berbagai sumber, termasuk penelitian pembelajaran mesin internal, kumpulan data sumber terbuka dari situs web seperti Hugging Face, dan permainan interaktif bernama Gandalf yang menguji kemampuan pemain untuk mengelabui sistem agar mengungkapkan kata sandi rahasia. "Taksonomi injeksi cepat" Lakera, yang mengklasifikasikan serangan-serangan ini, dikembangkan dengan bantuan interaksi-interaksi ini.

Untuk mengidentifikasi suntikan cepat yang berbahaya dengan cepat, bisnis mengembangkan modelnya sendiri. Dengan terus belajar dari sejumlah besar interaksi generatif AI, model ini mampu mengenali kecenderungan berbahaya dan beradaptasi terhadap ancaman baru.

Bisnis dapat melindungi diri mereka dari permintaan berbahaya dengan mengintegrasikan API Lakera Guard. Selain itu, Lakera telah menciptakan model yang mencari konten berbahaya, seperti kata-kata kotor, konten kekerasan, perkataan yang mendorong kebencian, dan konten seksual, dalam perintah dan keluaran aplikasi. Meskipun digunakan dalam situasi lain juga, detektor ini sangat berguna untuk aplikasi yang berinteraksi dengan publik, seperti chatbots. Hanya dengan satu baris kode, bisnis dapat menggabungkan fitur moderasi konten Lakera dan menetapkan ambang batas konten tertentu melalui panel kontrol kebijakan terpusat.

Dengan modal segar sebesar $20 juta, Lakera bermaksud meningkatkan jejak globalnya, khususnya di Amerika Serikat. Klien terkemuka dari bisnis ini sudah ada di Amerika Utara, seperti unicorn Kanada Cohere dan startup AI Amerika, Respell.

Mengamankan aplikasi AI adalah tujuan yang dimiliki oleh penyedia SaaS, perusahaan besar, dan penyedia model AI. Meskipun minat datang dari berbagai industri, bisnis jasa keuangan merupakan pengguna awal dan sangat sadar akan ancaman keamanan dan kepatuhan. Agar tetap kompetitif, sebagian besar bisnis memahami bahwa mereka harus mengintegrasikan AI generatif ke dalam operasi bisnis fundamental mereka.

Selain Atomico, Redalpine, Citi Ventures, dan divisi modal ventura Dropbox berpartisipasi dalam investasi Seri A Lakera.

Code Labs Academy © 2024 Semua hak dilindungi undang-undang.