Lakera obtén 20 millóns de dólares para protexer ás empresas das ameazas xerativas da intelixencia artificial e das vulnerabilidades de LLM

Lakera obtén 20 millóns de dólares para protexer ás empresas das ameazas xerativas da intelixencia artificial e das vulnerabilidades de LLM

Lakera, unha startup suíza dedicada a protexer os sistemas xerativos de intelixencia artificial de avisos fraudulentos e outros perigos, recadou 20 millóns de dólares nunha rolda de recaudación de fondos da Serie A, dirixida pola firma europea de capital risco Atomico.

Aínda que a IA xerativa adquiriu moita tracción, como demostran aplicacións coñecidas como ChatGPT, as preocupacións de seguridade e privacidade dos datos seguen a ser problemas fundamentais para as empresas. A IA xerativa está impulsada por grandes modelos de linguaxe (LLM), que permiten ás máquinas producir e comprender texto dun xeito semellante ao dos humanos. Non obstante, as solicitudes maliciosas teñen a capacidade de enganar a estes modelos para que realicen tarefas non desexadas, como revelar información confidencial ou permitir o acceso non autorizado a redes privadas. Con Lakera, hai que abordar estes riscos crecentes de "inxección rápida".

Establecida en 2021 en Zúric, Lakera comezou a operar en outubro do ano pasado con 10 millóns de dólares en diñeiro inicial -modelos-de-indicacións-maliciosas/). O seu obxectivo é protexer ás empresas contra fallos de seguridade de LLM, como inxeccións rápidas e fugas de datos. A súa tecnoloxía funciona con varios LLM, incluíndo Claude de Anthropic, Bard de Google, GPT-X de OpenAI e Llama de Meta. Como un "firewall de aplicacións de IA de baixa latencia", Lakera afirma ser capaz de asegurar a comunicación entre e dentro das aplicacións de IA xerativa.

A base de datos utilizada polo primeiro produto de Lakera, Lakera Guard, creouse utilizando unha variedade de fontes, incluíndo investigación interna de aprendizaxe automática, conxuntos de datos de código aberto de sitios web como Hugging. Face e un xogo interactivo chamado Gandalf que proba a capacidade dos xogadores para enganar o sistema para que revele un contrasinal secreto. A "taxonomía de inxección rápida" de Lakera, que clasifica estes ataques, desenvolveuse coa axuda destas interaccións.

Para identificar rapidamente as inxeccións rápidas maliciosas, a empresa desenvolve os seus propios modelos. Ao aprender continuamente a partir dunha gran cantidade de interaccións xerativas da IA, estes modelos son capaces de recoñecer tendencias perigosas e adaptarse ás novas ameazas.

As empresas poden protexerse de indicacións daniñas integrando a API de Lakera Guard. Ademais, Lakera creou modelos que buscan contido prexudicial, como insultos, contido violento, discurso de odio e contido sexual, nas indicacións e saídas das aplicacións. Aínda que tamén se usan noutras situacións, estes detectores son especialmente útiles para aplicacións que interactúan co público, como os chatbots. Con só unha liña de código, as empresas poden incorporar as funcións de moderación de contido de Lakera e establecer limiares de contido específicos a través dun panel de control de políticas centralizado.

Con este novo capital de 20 millóns de dólares, Lakera pretende aumentar a súa pegada global, especialmente nos Estados Unidos. Clientes notables do negocio xa existen en Norteamérica, como o unicornio canadense Cohere e a startup estadounidense de intelixencia artificial Respell.

Protexer as aplicacións de IA é un obxectivo que comparten os provedores de SaaS, as grandes corporacións e os provedores de modelos de IA. Aínda que o interese provén de diversas industrias, as empresas de servizos financeiros son as primeiras adoptantes e son especialmente conscientes das ameazas de seguridade e cumprimento. Para manterse competitivas, a maioría das empresas entenden que deben integrar a IA xerativa nas súas operacións comerciais fundamentais.

Ademais de Atomico, Redalpine, Citi Ventures e a división de capital risco de Dropbox participaron no investimento da serie A de Lakera.

Code Labs Academy © 2024 Todos os dereitos reservados.