Lakera obtiene 20 millones de dólares para proteger a las empresas de las amenazas generativas de IA y las vulnerabilidades de LLM

Lakera obtiene 20 millones de dólares para proteger a las empresas de las amenazas generativas de IA y las vulnerabilidades de LLM

Lakera, una startup suiza dedicada a proteger los sistemas de IA generativa de mensajes fraudulentos y otros peligros, ha recaudado 20 millones de dólares en una ronda de recaudación de fondos Serie A, liderada por una firma europea de capital riesgo Atómico.

Aunque la IA generativa ha adquirido mucha fuerza (como lo demuestran aplicaciones conocidas como ChatGPT), las preocupaciones por la seguridad y la privacidad de los datos siguen siendo problemas clave para las empresas. La IA generativa funciona con grandes modelos de lenguaje (LLM), que permiten a las máquinas producir y comprender texto de una manera similar a la de los humanos. Sin embargo, las indicaciones maliciosas tienen la capacidad de engañar a estos modelos para que realicen tareas no deseadas, como revelar información confidencial o permitir el acceso no autorizado a redes privadas. Con Lakera se deben abordar estos crecientes riesgos de "inyección rápida".

Lakera, establecida en 2021 en Zurich, comenzó a operar en octubre del año pasado con 10 millones de dólares en capital inicial. Su objetivo es proteger a las empresas contra fallas de seguridad de LLM, como inyecciones rápidas y fugas de datos. Su tecnología funciona con varios LLM, incluidos Claude de Anthropic, Bard de Google, GPT-X de OpenAI y Llama de Meta. Como "firewall de aplicaciones de IA de baja latencia", Lakera afirma ser capaz de proteger la comunicación entre y dentro de las aplicaciones de IA generativas.

La base de datos utilizada por el primer producto de Lakera, Lakera Guard, se creó utilizando una variedad de fuentes, incluida la investigación interna de aprendizaje automático y conjuntos de datos de código abierto de sitios web como Hugging Face y un juego interactivo llamado Gandalf que pone a prueba la capacidad de los jugadores para engañar al sistema para que revele una contraseña secreta. La "taxonomía de inyección rápida" de Lakera, que clasifica estos ataques, se desarrolló con la ayuda de estas interacciones.

Para identificar rápidamente inyecciones maliciosas, la empresa desarrolla sus propios modelos. Al aprender continuamente de una gran cantidad de interacciones generativas de IA, estos modelos pueden reconocer tendencias peligrosas y adaptarse a nuevas amenazas.

Las empresas pueden protegerse de mensajes dañinos integrando la API Lakera Guard. Además, Lakera ha creado modelos que buscan contenido dañino, como malas palabras, contenido violento, incitación al odio y contenido sexual, en indicaciones y resultados de aplicaciones. Aunque también se utilizan en otras situaciones, estos detectores son especialmente útiles para aplicaciones que interactúan con el público, como los chatbots. Con solo una línea de código, las empresas pueden incorporar las funciones de moderación de contenido de Lakera y establecer umbrales de contenido específicos a través de un panel de control de políticas centralizado.

Con este nuevo capital de 20 millones de dólares, Lakera pretende aumentar su presencia global, particularmente en Estados Unidos. Ya existen clientes notables del negocio en América del Norte, como el unicornio canadiense Cohere y la startup estadounidense de IA Respell.

Proteger las aplicaciones de IA es un objetivo compartido por los proveedores de SaaS, las grandes corporaciones y los proveedores de modelos de IA. Aunque el interés proviene de una variedad de industrias, las empresas de servicios financieros son las primeras en adoptarlas y son particularmente conscientes de las amenazas a la seguridad y el cumplimiento. Para seguir siendo competitivas, la mayoría de las empresas entienden que deben integrar la IA generativa en sus operaciones comerciales fundamentales.

Además de Atomico, Redalpine, Citi Ventures y la división de capital de riesgo de Dropbox participaron en la inversión Serie A de Lakera.

Code Labs Academy © 2024 Todos los derechos reservados.