Noong unang bahagi ng nakaraang taon, pinasok ng isang hacker ang mga internal messaging system ng OpenAI, ang lumikha ng ChatGPT, at nagnakaw ng mga detalye tungkol sa disenyo ng A.I. mga teknolohiya. Ang hacker ay nakakuha ng access sa mga pag-uusap sa isang staff forum, ngunit hindi niya nalampasan ang mga pangunahing sistema na naglalaman ng artificial intelligence research at development ng kumpanya. Dahil walang ninakaw na impormasyon ng kasosyo o customer, ang insidenteng ito—na ibinunyag sa mga miyembro ng kawani noong Abril 2023 na all-hands meeting—ay hindi isinapubliko. Nagpasya ang mga executive sa OpenAI na huwag ipaalam sa mga awtoridad sa batas ang kaganapan dahil inaakala nilang ang hacker ay isang indibidwal na walang koneksyon sa mga dayuhang pamahalaan.
Nagdulot ito ng panloob na pag-aalala tungkol sa posibilidad na ang mga dayuhang kaaway ay magnakaw ng mga teknolohiya ng artificial intelligence (AI) at ilagay sa panganib ang pambansang seguridad. Nagpahayag din ito ng mga kahinaan sa pamamaraan ng seguridad ng OpenAI. Isa sa mga dating technical program manager ng OpenAI, Leopold Aschenbrenner, ay binatikos ang OpenAI dahil sa hindi paggawa ng mga naaangkop na hakbang upang mahinto ang dayuhang paniniktik.
Itinatampok ng kaganapan ang pagtaas ng halaga at pagkamaramdamin ng data na pagmamay-ari ng mga kumpanya ng artificial intelligence. Katulad ng mga karibal nito Google at Anthropic, ang OpenAI ay may access din sa napakalaking dami ng mahusay na data ng pagsasanay. bilang data ng contact ng user at customer. Napakahalaga ng mga dataset na ito sa mga kakumpitensya, regulator, at aktor ng estado bilang karagdagan sa pagiging mahalaga para sa paglikha ng advanced na A.I. mga modelo.
Ang kalidad ng data ng pagsasanay ay mahalaga para sa A.I. sistema at nangangailangan ng maraming paggawa ng tao upang mapabuti. Bilyon-bilyong mga pakikipag-ugnayan ng user ang bumubuo sa databank ng OpenAI, na nag-aalok ng maraming insight sa mga kagustuhan ng consumer, mga uso sa industriya, at pag-uugali ng tao. Ang malawak na hanay ng mga stakeholder, kabilang ang mga marketing team, analyst, at iba pang developer, ay makakahanap ng malaking halaga sa impormasyong ito.
Kahit na ang hack ay pinaghihigpitan sa isang forum ng empleyado, nilinaw nito ang mga posibleng panganib ng mas malalaking paglabag sa seguridad. Ang mga negosyo ng AI ay nagiging tagapangalaga ng mahalagang data, na ginagawang madaling mga target para sa cyberattacks. Ang kaganapan ng OpenAI ay nagsisilbing paalala na, dahil sa sensitibong katangian ng data na kasangkot, kahit na ang mga maliliit na paglabag ay maaaring magkaroon ng malalayong kahihinatnan.
Habang hinihigpitan ang mga hakbang sa seguridad ng OpenAI at iba pang mga manlalaro sa industriya, ang hack ay nag-udyok din ng mga debate tungkol sa pangangailangan para sa mas matibay na mga panuntunan at alituntunin upang mapangalagaan ang teknolohiya ng artificial intelligence (AI). Ang mga mambabatas sa antas ng pederal at estado ay nag-iisip tungkol sa pagpapatibay ng mga batas na magpaparusa sa mga negosyo para sa mga paglabag sa seguridad na nagreresulta sa pinsala. Ngunit ayon sa mga eksperto, ang pinakamasamang panganib mula sa A.I. ang mga teknolohiya ay ilang taon pa.
Ang OpenAI hack ay nagsisilbing babala sa A.I. sektor, na nagbibigay-diin sa pangangailangan ng matibay na mga protocol ng seguridad at ang kahalagahan ng pagprotekta sa sensitibong data. Kailangang maging maingat ang industriya sa mga panganib habang umuunlad ang mga teknolohiya ng artificial intelligence (AI) at tiyaking ang mga pakinabang ng AI ay hindi nahihigitan ng anumang nauugnay na alalahanin. Ang isyu ng pagkakaroon ng maingat na balanse sa pagitan ng seguridad at pagbabago ay na-highlight sa pamamagitan ng pangyayaring ito, at ito ay magiging mas mahirap habang ang artificial intelligence ay nagiging mas malaganap sa ating pang-araw-araw na buhay.