Lakera sichert sich 20 Millionen US-Dollar, um Unternehmen vor generativen KI-Bedrohungen und LLM-Schwachstellen zu schützen

Lakera sichert sich 20 Millionen US-Dollar, um Unternehmen vor generativen KI-Bedrohungen und LLM-Schwachstellen zu schützen

Lakera, ein Schweizer Startup, das sich der Abschirmung generativer KI-Systeme vor betrügerischen Eingabeaufforderungen und anderen Gefahren widmet, hat in einer Serie-A-Finanzierungsrunde unter der Leitung der europäischen Risikokapitalgesellschaft Atomico.

Obwohl die generative KI stark an Bedeutung gewonnen hat – wie bekannte Apps wie ChatGPT zeigen – sind Sicherheits- und Datenschutzbedenken weiterhin zentrale Probleme für Unternehmen. Generative KI basiert auf großen Sprachmodellen (LLMs), die es Maschinen ermöglichen, Texte auf ähnliche Weise wie Menschen zu produzieren und zu verstehen. Böswillige Eingabeaufforderungen können diese Modelle jedoch dazu verleiten, unerwünschte Aufgaben auszuführen, etwa vertrauliche Informationen preiszugeben oder unbefugten Zugriff auf private Netzwerke zu gewähren. Mit Lakera soll diesen zunehmenden Risiken der „prompten Injektion“ begegnet werden.

Lakera wurde 2021 in Zürich gegründet und nahm im Oktober letzten Jahres mit 10 Millionen US-Dollar Startkapital den Betrieb auf -models-from-malicious-prompts/). Ziel ist es, Unternehmen vor LLM-Sicherheitslücken wie schnellen Injektionen und Datenlecks zu schützen. Ihre Technologie funktioniert mit mehreren LLMs, darunter Claude von Anthropic, Googles Bard, OpenAIs GPT-X und Metas Llama. Als „KI-Anwendungsfirewall mit geringer Latenz“ behauptet Lakera, die Kommunikation zwischen und innerhalb generativer KI-Anwendungen sichern zu können.

Die von Lakeras erstem Produkt, Lakera Guard, verwendete Datenbank wurde unter Verwendung verschiedener Quellen erstellt, darunter interne Forschung zum maschinellen Lernen und Open-Source-Datensätze von Websites wie Hugging Face und ein interaktives Spiel namens Gandalf, das die Fähigkeit der Spieler testet, das System dazu zu bringen, ein geheimes Passwort preiszugeben. Mit Hilfe dieser Interaktionen wurde Lakeras „Prompt-Injection-Taxonomie“ entwickelt, die diese Angriffe klassifiziert.

Um bösartige Prompt-Injections schnell zu erkennen, entwickelt das Unternehmen eigene Modelle. Durch kontinuierliches Lernen aus einer Vielzahl generativer KI-Interaktionen sind diese Modelle in der Lage, gefährliche Tendenzen zu erkennen und sich an neue Bedrohungen anzupassen.

Unternehmen können sich durch die Integration der Lakera Guard API vor schädlichen Eingabeaufforderungen schützen. Darüber hinaus hat Lakera Modelle erstellt, die in Eingabeaufforderungen und Anwendungsausgaben nach schädlichen Inhalten wie Obszönitäten, gewalttätigen Inhalten, Hassreden und sexuellen Inhalten suchen. Obwohl sie auch in anderen Situationen eingesetzt werden, sind diese Detektoren besonders hilfreich für Apps, die mit der Öffentlichkeit interagieren, wie zum Beispiel Chatbots. Mit nur einer Codezeile können Unternehmen die Inhaltsmoderationsfunktionen von Lakera integrieren und über ein zentrales Richtlinienkontrollfeld spezifische Inhaltsschwellenwerte festlegen.

Mit diesem frischen Kapital von 20 Millionen US-Dollar will Lakera seine globale Präsenz, insbesondere in den USA, ausbauen. In Nordamerika gibt es bereits namhafte Kunden des Unternehmens, etwa das kanadische Einhorn Cohere und das amerikanische KI-Startup Respell.

Die Absicherung von KI-Anwendungen ist ein gemeinsames Ziel von SaaS-Anbietern, Großkonzernen und Anbietern von KI-Modellen. Obwohl das Interesse aus einer Vielzahl von Branchen kommt, sind Finanzdienstleistungsunternehmen Frühanwender und sich der Sicherheits- und Compliance-Bedrohungen besonders bewusst. Um wettbewerbsfähig zu bleiben, ist den meisten Unternehmen klar, dass sie generative KI in ihre grundlegenden Geschäftsabläufe integrieren müssen.

Neben Atomico beteiligten sich auch Redalpine, Citi Ventures und die Risikokapitalabteilung von Dropbox an der Serie-A-Investition von Lakera.

Code Labs Academy © 2024 Alle Rechte vorbehalten.