Lakera รักษาความปลอดภัย 20 ล้านเหรียญสหรัฐเพื่อปกป้ององค์กรจากภัยคุกคาม AI และช่องโหว่ LLM

Lakera รักษาความปลอดภัย 20 ล้านเหรียญสหรัฐเพื่อปกป้ององค์กรจากภัยคุกคาม AI และช่องโหว่ LLM

Lakera สตาร์ทอัพสัญชาติสวิสที่มุ่งปกป้องระบบ AI ทั่วไปจากการฉ้อโกงและอันตรายอื่นๆ ได้ระดมทุนได้ 20 ล้านดอลลาร์ในการระดมทุน Series A ซึ่งนำโดยบริษัทร่วมทุนของยุโรป อะตอมมิโก

แม้ว่า AI เจนเนอเรทีฟจะได้รับความสนใจอย่างมาก ดังที่เห็นได้จากแอปชื่อดังอย่าง ChatGPT แต่ความกังวลด้านความปลอดภัยและความเป็นส่วนตัวของข้อมูลยังคงเป็นปัญหาสำคัญสำหรับธุรกิจ Generative AI ขับเคลื่อนโดยโมเดลภาษาขนาดใหญ่ (LLM) ซึ่งช่วยให้เครื่องจักรสามารถสร้างและเข้าใจข้อความในลักษณะที่คล้ายกับของมนุษย์ อย่างไรก็ตาม ข้อความแจ้งที่เป็นอันตรายสามารถหลอกลวงโมเดลเหล่านี้ให้ทำงานที่ไม่พึงประสงค์ได้ เช่น การเปิดเผยข้อมูลที่ละเอียดอ่อน หรืออนุญาตให้มีการเข้าถึงเครือข่ายส่วนตัวโดยไม่ได้รับอนุญาต Lakera มีความเสี่ยง "การฉีดยาทันที" ที่เพิ่มขึ้นเหล่านี้จะต้องได้รับการแก้ไข

Lakera ก่อตั้งขึ้นเมื่อปี 2021 ในเมืองซูริก โดยเริ่มดำเนินการในเดือนตุลาคมปีที่แล้วด้วยเงินเริ่มต้น $10 ล้าน เป้าหมายคือเพื่อปกป้ององค์กรจากข้อบกพร่องด้านความปลอดภัย LLM เช่น การแทรกซึมอย่างรวดเร็วและการรั่วไหลของข้อมูล เทคโนโลยีของพวกเขาทำงานร่วมกับ LLM หลายแห่ง รวมถึง Claude จาก Anthropic, Bard ของ Google, GPT-X ของ OpenAI และ Llama ของ Meta ในฐานะ "ไฟร์วอลล์แอปพลิเคชัน AI ที่มีความหน่วงต่ำ" Lakera อ้างว่าสามารถรักษาความปลอดภัยการสื่อสารระหว่างและภายในแอปพลิเคชัน AI ทั่วไปได้

ฐานข้อมูลที่ใช้โดยผลิตภัณฑ์แรกของ Lakera Lakera Guard ถูกสร้างขึ้นโดยใช้แหล่งข้อมูลที่หลากหลาย รวมถึงการวิจัยการเรียนรู้ของเครื่องภายใน ชุดข้อมูลโอเพ่นซอร์สจากเว็บไซต์ เช่น Hugging Face และเกมแบบโต้ตอบที่เรียกว่า Gandalf ที่ทดสอบความสามารถของผู้เล่นในการหลอกให้ระบบเปิดเผยรหัสผ่านลับ "อนุกรมวิธานการฉีดทันที" ของ Lakera ซึ่งจัดประเภทการโจมตีเหล่านี้ได้รับการพัฒนาโดยได้รับความช่วยเหลือจากปฏิสัมพันธ์เหล่านี้

เพื่อให้สามารถระบุการแทรกข้อมูลที่เป็นอันตรายได้อย่างรวดเร็ว ธุรกิจจึงพัฒนาโมเดลของตัวเอง ด้วยการเรียนรู้อย่างต่อเนื่องจากการโต้ตอบของ AI เชิงสร้างสรรค์จำนวนมาก โมเดลเหล่านี้จึงสามารถรับรู้แนวโน้มที่เป็นอันตรายและปรับให้เข้ากับภัยคุกคามใหม่ๆ

ธุรกิจสามารถป้องกันตนเองจากการแจ้งเตือนที่เป็นอันตรายได้โดยการผสานรวม Lakera Guard API นอกจากนี้ Lakera ได้สร้างแบบจำลองที่มองหาเนื้อหาที่เป็นอันตราย เช่น คำหยาบคาย เนื้อหาที่มีความรุนแรง คำพูดแสดงความเกลียดชัง และเนื้อหาเกี่ยวกับเรื่องเพศ ในข้อความแจ้งเตือนและแอปพลิเคชัน แม้ว่าจะใช้ในสถานการณ์อื่นๆ เช่นกัน แต่เครื่องมือตรวจจับเหล่านี้มีประโยชน์อย่างยิ่งสำหรับแอปที่มีการโต้ตอบกับสาธารณะ เช่น แชทบอท ด้วยโค้ดเพียงบรรทัดเดียว ธุรกิจต่างๆ จะสามารถรวมคุณสมบัติการควบคุมเนื้อหาของ Lakera และกำหนดเกณฑ์เนื้อหาเฉพาะผ่านแผงควบคุมนโยบายแบบรวมศูนย์

ด้วยเงินทุนใหม่จำนวน 20 ล้านดอลลาร์ Lakera มุ่งมั่นที่จะเพิ่มการดำเนินงานทั่วโลก โดยเฉพาะอย่างยิ่งในสหรัฐอเมริกา ลูกค้าที่มีชื่อเสียงของธุรกิจมีอยู่แล้วในอเมริกาเหนือ เช่น Cohere ยูนิคอร์นในแคนาดา และ Respell สตาร์ทอัพด้าน AI ของอเมริกา

การรักษาความปลอดภัยแอปพลิเคชัน AI เป็นเป้าหมายร่วมกันของผู้ให้บริการ SaaS องค์กรขนาดใหญ่ และผู้ให้บริการโมเดล AI แม้ว่าความสนใจจะมาจากอุตสาหกรรมที่หลากหลาย แต่ธุรกิจบริการทางการเงินก็ยังเป็นผู้ใช้กลุ่มแรกๆ และตระหนักถึงภัยคุกคามด้านความปลอดภัยและการปฏิบัติตามกฎระเบียบเป็นพิเศษ เพื่อรักษาความสามารถในการแข่งขัน ธุรกิจส่วนใหญ่เข้าใจว่าพวกเขาต้องรวม generative AI เข้ากับการดำเนินธุรกิจขั้นพื้นฐานของตน

นอกจาก Atomico, Redalpine, Citi Ventures และแผนกร่วมลงทุนของ Dropbox ยังมีส่วนร่วมในการลงทุน Series A ของ Lakera

Code Labs Academy © 2025 สงวนลิขสิทธิ์.