Lakera zajišťuje 20 milionů dolarů na ochranu podniků před generativními hrozbami umělé inteligence a zranitelností LLM

Lakera zajišťuje 20 milionů dolarů na ochranu podniků před generativními hrozbami umělé inteligence a zranitelností LLM

Lakera, švýcarský startup, který se věnuje ochraně generativních systémů umělé inteligence před podvodnými výzvami a dalšími nebezpečími, získal 20 milionů dolarů ve fundraisingovém kole série A, které vede evropská společnost rizikového kapitálu Atomico.

Přestože generativní umělá inteligence získala velkou pozornost – jak ukazují známé aplikace, jako je ChatGPT – obavy o bezpečnost a ochranu dat jsou pro podniky i nadále klíčovými problémy. Generativní umělá inteligence je poháněna velkými jazykovými modely (LLM), které umožňují strojům vytvářet a chápat text způsobem podobným lidskému. Škodlivé výzvy však mají schopnost oklamat tyto modely, aby provedly nežádoucí úkoly, jako je prozrazení citlivých informací nebo povolení neoprávněného přístupu do privátních sítí. S Lakerou je třeba tato narůstající rizika „rychlé injekce“ řešit.

Lakera, která byla založena v roce 2021 v Curychu, zahájila činnost v říjnu loňského roku s 10 milionů dolarů v počáteční fázi. Jeho cílem je chránit podniky před bezpečnostními nedostatky LLM, jako jsou rychlé injekce a úniky dat. Jejich technologie spolupracuje s několika LLM, včetně Claude z Anthropic, Google's Bard, OpenAI's GPT-X a Meta's Llama. Lakera jako „aplikační firewall AI s nízkou latencí“ tvrdí, že je schopna zabezpečit komunikaci mezi generativními aplikacemi AI a v rámci nich.

Databáze používaná prvním produktem Lakera, Lakera Guard, byla vytvořena pomocí různých zdrojů, včetně interního výzkumu strojového učení, open source datových sad z webů jako Hugging Face a interaktivní hra s názvem Gandalf, která testuje schopnost hráčů oklamat systém, aby prozradil tajné heslo. S pomocí těchto interakcí byla vyvinuta Lakeraova „taxonomie rychlé injekce“, která tyto útoky klasifikuje.

Aby bylo možné rychle identifikovat škodlivé rychlé injekce, společnost vyvíjí své vlastní modely. Díky neustálému učení z velkého počtu generativních interakcí AI jsou tyto modely schopny rozpoznat nebezpečné tendence a přizpůsobit se novým hrozbám.

Firmy se mohou chránit před škodlivými výzvami integrací API Lakera Guard. Kromě toho společnost Lakera vytvořila modely, které ve výzvách a výstupech aplikací vyhledávají škodlivý obsah, jako jsou vulgární výrazy, násilný obsah, projevy nenávisti a sexuální obsah. Přestože se používají i v jiných situacích, tyto detektory jsou užitečné zejména pro aplikace, které komunikují s veřejností, jako jsou chatboti. Pomocí jediného řádku kódu mohou podniky začlenit funkce moderování obsahu společnosti Lakera a nastavit konkrétní prahové hodnoty obsahu prostřednictvím centralizovaného ovládacího panelu zásad.

S tímto čerstvým kapitálem ve výši 20 milionů dolarů hodlá Lakera zvýšit svou globální stopu, zejména ve Spojených státech. V Severní Americe již existují významní klienti tohoto byznysu, jako je kanadský jednorožec Cohere a americký startup Respell s umělou inteligencí.

Zabezpečení aplikací AI je společným cílem poskytovatelů SaaS, velkých korporací a poskytovatelů modelů AI. Přestože zájem přichází z různých průmyslových odvětví, podniky finančních služeb jsou prvními uživateli a zvláště si uvědomují hrozby zabezpečení a dodržování předpisů. Aby zůstaly konkurenceschopné, většina podniků chápe, že musí integrovat generativní umělou inteligenci do svých základních obchodních operací.

Kromě Atomico se na investici Lakera Series A podílely Redalpine, Citi Ventures a divize rizikového kapitálu společnosti Dropbox.

Code Labs Academy © 2024 Všechna práva vyhrazena.