Začátkem loňského roku hacker infiltroval interní systémy zasílání zpráv OpenAI, tvůrce ChatGPT, a ukradl podrobnosti o designu jeho A.I. technologií. Hacker získal přístup ke konverzacím na fóru zaměstnanců, ale nedokázal se dostat přes hlavní systémy, ve kterých se nachází výzkum a vývoj umělé inteligence společnosti. Vzhledem k tomu, že nebyly odcizeny žádné informace o partnerech nebo zákaznících, nebyl tento incident – který byl zaměstnancům odhalen během schůzky všech rukou v dubnu 2023 – zveřejněn. Vedení společnosti OpenAI se rozhodlo neinformovat o události zákonné orgány, protože si mysleli, že hacker byl jednotlivec bez spojení se zahraničními vládami.
To vyvolalo vnitřní obavy z možnosti, že zahraniční nepřátelé ukradnou technologie umělé inteligence (AI) a ohrozí národní bezpečnost. Odhalila také slabiny v bezpečnostní metodice OpenAI. Jeden z bývalých technických programových manažerů OpenAI, Leopold Aschenbrenner, kritizoval OpenAI, že nepřijala vhodná opatření k zastavení zahraniční špionáže.
Tato událost zdůrazňuje rostoucí hodnotu a náchylnost dat vlastněných společnostmi zabývajícími se umělou inteligencí. Podobně jako jeho konkurenti Google a Anthropic, má OpenAI také přístup k obrovskému množství vynikajících tréninkových dat jako uživatelské a zákaznické kontaktní údaje. Tyto datové soubory jsou mimořádně cenné pro konkurenty, regulační orgány a státní aktéry, kromě toho, že jsou nezbytné pro vytváření pokročilé A.I. modely.
Kvalita tréninkových dat je pro A.I. systémů a vyžaduje mnoho lidské práce ke zlepšení. Miliardy uživatelských interakcí tvoří databanku OpenAI, která nabízí bohaté informace o preferencích spotřebitelů, trendech v oboru a lidském chování. Široká škála zainteresovaných stran, včetně marketingových týmů, analytiků a dalších vývojářů, najde v těchto informacích velkou hodnotu.
I když byl hack omezen na fórum zaměstnanců, objasnil možná nebezpečí většího narušení bezpečnosti. Firmy s umělou inteligencí se stávají strážci důležitých dat, což z nich dělá snadné cíle kybernetických útoků. Událost OpenAI slouží jako připomínka toho, že kvůli citlivé povaze příslušných dat mohou mít i malá narušení dalekosáhlé důsledky.
Vzhledem k tomu, že OpenAI a další průmysloví hráči zpřísňují bezpečnostní opatření, tento hack také podnítil debaty o požadavku na přísnější pravidla a pokyny pro ochranu technologie umělé inteligence (AI). Zákonodárci na federální a státní úrovni uvažují o přijetí zákonů, které by potrestaly podniky za narušení bezpečnosti, které má za následek škodu. Podle odborníků jsou ale nejhorší rizika z A.I. technologie jsou ještě roky daleko.
Hack OpenAI slouží jako varování pro A.I. s důrazem na nutnost silných bezpečnostních protokolů a význam ochrany citlivých dat. Průmysl si musí dávat pozor na rizika, jak se technologie umělé inteligence (AI) vyvíjejí, a zajistit, aby výhody umělé inteligence nebyly převáženy žádnými souvisejícími obavami. Tato událost zdůrazňuje otázku pečlivé rovnováhy mezi bezpečností a inovacemi a bude to jen obtížnější, až se umělá inteligence stane všudypřítomnější v našem každodenním životě.