Lakera, sveitsiläinen startup, joka on omistautunut suojaamaan generatiivisia tekoälyjärjestelmiä petollisilta kehotteilta ja muilta vaaroilta, on kerännyt 20 miljoonaa dollaria A-sarjan varainkeruukierroksella, jota johtaa eurooppalainen riskipääomayritys Atomico.
Vaikka luova tekoäly on saanut paljon vetovoimaa – kuten ChatGPT:n kaltaiset tunnetut sovellukset osoittavat – turvallisuus- ja tietosuojahuolet ovat edelleen yritysten keskeisiä ongelmia. Generatiivista tekoälyä käyttävät suuret kielimallit (LLM), joiden avulla koneet voivat tuottaa ja ymmärtää tekstiä samalla tavalla kuin ihmiset. Haitalliset kehotteet voivat kuitenkin huijata nämä mallit suorittamaan ei-toivottuja tehtäviä, kuten paljastamaan arkaluonteisia tietoja tai sallimaan luvattoman pääsyn yksityisiin verkkoihin. Lakeran kanssa nämä kasvavat "pikapistosriskit" on otettava huomioon.
Vuonna 2021 Zürichiin perustettu Lakera aloitti toimintansa viime vuoden lokakuussa 10 miljoonan dollarin siemenrahalla. Sen tavoitteena on suojata yrityksiä LLM-tietoturvapuutteilta, kuten nopeilta lisäyksiltä ja tietovuodoilta. Heidän teknologiansa toimii useiden LLM:ien kanssa, mukaan lukien Claude from Anthropic, Google's Bard, OpenAI's GPT-X ja Meta's Llama. "Alhaisen latenssin tekoälysovellusten palomuurina" Lakera väittää pystyvänsä suojaamaan tiedonsiirtoa generatiivisten AI-sovellusten välillä ja sisällä.
Lakeran ensimmäisen tuotteen Lakera Guard käyttämä tietokanta luotiin useista eri lähteistä, mukaan lukien sisäinen koneoppimistutkimus, avoimen lähdekoodin tietojoukot verkkosivustoilta, kuten Hugging. Face ja Gandalf-niminen interaktiivinen peli, joka testaa pelaajien kykyä huijata järjestelmä paljastamaan salainen salasana. Lakeran "nopea injektio taksonomia", joka luokittelee nämä hyökkäykset, kehitettiin näiden vuorovaikutusten avulla.
Yritys kehittää omia mallejaan tunnistaakseen nopeasti haitalliset pikaruiskeet. Oppimalla jatkuvasti suuresta määrästä generatiivisia tekoälyvuorovaikutuksia nämä mallit pystyvät tunnistamaan vaarallisia taipumuksia ja mukautumaan uusiin uhkiin.
Yritykset voivat suojautua haitallisilta kehotteilta integroimalla Lakera Guard API:n. Lisäksi Lakera on luonut malleja, jotka etsivät kehotteista ja sovelluksista haitallista sisältöä, kuten kiroilua, väkivaltaista sisältöä, vihapuhetta ja seksuaalista sisältöä. Vaikka niitä käytetään myös muissa tilanteissa, nämä ilmaisimet ovat erityisen hyödyllisiä sovelluksille, jotka ovat vuorovaikutuksessa yleisön kanssa, kuten chatbotteja. Yhdellä koodirivillä yritykset voivat sisällyttää Lakeran sisällönvalvontaominaisuudet ja asettaa tietyt sisältörajat keskitetyn käytäntöjen ohjauspaneelin kautta.
Tällä uudella 20 miljoonan dollarin pääomalla Lakera aikoo kasvattaa globaalia jalanjälkeään erityisesti Yhdysvalloissa. Pohjois-Amerikassa on jo alan merkittäviä asiakkaita, kuten kanadalainen yksisarvinen Cohere ja amerikkalainen tekoälystartup Respell.
Tekoälysovellusten suojaaminen on SaaS-palveluntarjoajien, suuryritysten ja tekoälymallien tarjoajien yhteinen tavoite. Vaikka kiinnostus tulee useilta toimialoilta, rahoituspalveluyritykset ovat varhaisessa vaiheessa omaksuvia ja erityisen tietoisia turvallisuus- ja vaatimustenmukaisuusuhkista. Pysyäkseen kilpailukykyisinä suurin osa yrityksistä ymmärtää, että niiden on integroitava luova tekoäly osaksi perusliiketoimintaansa.
Atomicon lisäksi Redalpine, Citi Ventures ja Dropboxin riskipääomadivisioona osallistuivat Lakeran A-sarjan sijoitukseen.