Lakera забяспечвае 20 мільёнаў долараў для абароны прадпрыемстваў ад генератыўных пагроз штучнага інтэлекту і ўразлівасцей LLM

Lakera забяспечвае 20 мільёнаў долараў для абароны прадпрыемстваў ад генератыўных пагроз штучнага інтэлекту і ўразлівасцей LLM

Lakera, швейцарскі стартап, які займаецца абаронай генератыўных сістэм штучнага інтэлекту ад махлярскіх падказак і іншых небяспек, сабраў 20 мільёнаў долараў у раўндзе збору сродкаў серыі A, які вядзе еўрапейская фірма венчурнага капіталу Atomico.

Нягледзячы на ​​тое, што генератыўны штучны інтэлект набыў вялікую цягу, як прадэманстравалі такія вядомыя праграмы, як ChatGPT, праблемы бяспекі і канфідэнцыяльнасці даных па-ранейшаму застаюцца ключавымі праблемамі для бізнесу. Генератыўны штучны інтэлект заснаваны на вялікіх моўных мадэлях (LLM), якія дазваляюць машынам ствараць і разумець тэкст такім жа чынам, як і чалавек. Шкоднасныя падказкі, аднак, могуць прымусіць гэтыя мадэлі падмануць выкананне непажаданых задач, такіх як раскрыццё канфідэнцыйнай інфармацыі або дазвол несанкцыянаванага доступу да прыватных сетак. З Lakera, гэтыя ўзрастаючыя рызыкі «неадкладнай ін'екцыі» павінны быць вырашаны.

Заснаваная ў 2021 годзе ў Цюрыху, Lakera пачала сваю дзейнасць у кастрычніку мінулага года з 10 мільёнамі долараў першапачатковага капіталу. Яго мэта складаецца ў тым, каб абараніць прадпрыемствы ад недахопаў бяспекі LLM, такіх як хуткія ін'екцыі і ўцечкі даных. Іх тэхналогія працуе з некалькімі LLM, у тым ліку з Claude з Anthropic, Bard ад Google, GPT-X ад OpenAI і Llama ад Meta. У якасці «брандмаўэра прыкладанняў штучнага інтэлекту з нізкай затрымкай» Lakera сцвярджае, што можа забяспечыць сувязь паміж генератыўнымі праграмамі штучнага інтэлекту і ўнутры іх.

База даных, якая выкарыстоўваецца ў першым прадукце Lakera, Lakera Guard, была створана з выкарыстаннем розных крыніц, у тым ліку ўнутраных даследаванняў машыннага навучання, набораў даных з адкрытым зыходным кодам з такіх вэб-сайтаў, як Hugging Face і інтэрактыўная гульня пад назвай Gandalf, якая правярае здольнасць гульцоў прымусіць сістэму раскрыць сакрэтны пароль. З дапамогай гэтых узаемадзеянняў была распрацавана "таксаномія хуткай ін'екцыі" Lakera, якая класіфікуе гэтыя атакі.

Для хуткага выяўлення шкоднасных аператыўных ін'екцый бізнес распрацоўвае ўласныя мадэлі. Пастаянна вывучаючы вялікую колькасць генератыўных узаемадзеянняў штучнага інтэлекту, гэтыя мадэлі здольныя распазнаваць небяспечныя тэндэнцыі і адаптавацца да новых пагроз.

Кампаніі могуць засцерагчы сябе ад шкодных падказак, інтэграваўшы API Lakera Guard. Акрамя таго, Lakera стварыла мадэлі, якія шукаюць шкоднае змесціва, такое як ненарматыўная лексіка, гвалтоўнае змесціва, распальванне нянавісці і змесціва сексуальнага характару, у падказках і выходных дадзеных прыкладанняў. Хоць яны выкарыстоўваюцца і ў іншых сітуацыях, гэтыя дэтэктары асабліва карысныя для праграм, якія ўзаемадзейнічаюць з грамадскасцю, такіх як чат-боты. З дапамогай усяго аднаго радка кода прадпрыемствы могуць уключаць функцыі мадэрацыі кантэнту Lakera і ўсталёўваць пэўныя парогі кантэнту праз цэнтралізаваную панэль кіравання палітыкай.

Дзякуючы гэтаму свежаму капіталу ў 20 мільёнаў долараў, Lakera мае намер павялічыць свой глабальны след, асабліва ў Злучаных Штатах. Вядомыя кліенты гэтага бізнесу ўжо існуюць у Паўночнай Амерыцы, такія як канадскі аднарог Cohere і амерыканскі стартап AI Respell.

Бяспека прыкладанняў штучнага інтэлекту - гэта мэта, якую падзяляюць пастаўшчыкі SaaS, буйныя карпарацыі і пастаўшчыкі мадэляў штучнага інтэлекту. Нягледзячы на ​​​​тое, што цікавасць прыходзіць з розных галін, прадпрыемствы, якія займаюцца фінансавымі паслугамі, з'яўляюцца першымі, хто ўсведамляе пагрозы бяспецы і адпаведнасці. Каб заставацца канкурэнтаздольнымі, большасць кампаній разумеюць, што яны павінны інтэграваць генератыўны штучны інтэлект у свае асноўныя бізнес-аперацыі.

Акрамя Atomico, Redalpine, Citi Ventures і падраздзяленне венчурнага капіталу Dropbox удзельнічалі ў інвестыцыях серыі A Lakera.

Code Labs Academy © 2024 Усе правы абароненыя.