У пачатку мінулага года хакер пракраўся ва ўнутраныя сістэмы абмену паведамленнямі OpenAI, стваральніка ChatGPT, і скраў падрабязную інфармацыю аб дызайне яго штучнага інтэлекту. тэхналогій. Хакер атрымаў доступ да размоў на форуме супрацоўнікаў, але не змог прайсці міма асноўных сістэм, у якіх знаходзяцца даследаванні і распрацоўкі штучнага інтэлекту кампаніі. Паколькі ніякая інфармацыя аб партнёрах або кліентах не была скрадзена, гэты інцыдэнт, пра які супрацоўнікі даведаліся падчас агульнай сустрэчы ў красавіку 2023 года, не быў апублікаваны. Кіраўнікі OpenAI вырашылі не паведамляць праваахоўным органам пра падзею, бо палічылі, што хакер быў асобай, не звязанай з замежнымі ўрадамі.
Гэта выклікала ўнутраныя заклапочанасці адносна таго, што замежныя ворагі могуць выкрасці тэхналогіі штучнага інтэлекту (AI) і паставіць пад пагрозу нацыянальную бяспеку. Гэта таксама выявіла слабыя месцы ў метадалогіі бяспекі OpenAI. Адзін з былых менеджэраў тэхнічнай праграмы OpenAI, Леапольд Ашэнбрэнер, раскрытыкаваў OpenAI за тое, што яна не прыняла належных мер для спынення замежнага шпіянажу.
Мерапрыемства падкрэслівае ўзрастаючую каштоўнасць і ўспрымальнасць даных, якія належаць фірмам штучнага інтэлекту. Падобна сваім канкурэнтам Google і Anthropic, OpenAI таксама мае доступ да велізарных аб'ёмаў выдатных навучальных даных як кантактныя дадзеныя карыстальнікаў і кліентаў. Гэтыя наборы даных вельмі важныя для канкурэнтаў, рэгулятараў і дзяржаўных суб'ектаў у дадатак да таго, што яны важныя для стварэння прасунутага штучнага інтэлекту. мадэлі.
Якасць навучальных даных мае вырашальнае значэнне для А.І. сістэмы і патрабуе шмат чалавечай працы для паляпшэння. Мільярды ўзаемадзеянняў карыстальнікаў складаюць банк даных OpenAI, які прапануе багатую інфармацыю аб спажывецкіх перавагах, галіновых тэндэнцыях і паводзінах чалавека. Шырокае кола зацікаўленых бакоў, у тым ліку маркетынгавыя каманды, аналітыкі і іншыя распрацоўшчыкі, знойдуць вялікую каштоўнасць у гэтай інфармацыі.
Нягледзячы на тое, што ўзлом быў абмежаваны форумам супрацоўнікаў, ён паказаў магчымыя небяспекі больш маштабных парушэнняў бяспекі. Прадпрыемствы са штучным інтэлектам становяцца захавальнікамі важных даных, што робіць іх лёгкай мішэнню для кібератак. Мерапрыемства OpenAI служыць напамінам пра тое, што з-за канфідэнцыйнага характару даных нават невялікія парушэнні могуць мець далёка ідучыя наступствы.
Паколькі меры бяспекі ўзмацняюцца OpenAI і іншымі гульцамі галіны, узлом таксама падштурхнуў дэбаты аб патрабаванні ўзмацнення правілаў і рэкамендацый для абароны тэхналогій штучнага інтэлекту (AI). Заканадаўцы на федэральным узроўні і на ўзроўні штатаў думаюць аб прыняцці законаў, якія будуць караць прадпрыемствы за парушэнні бяспекі, якія прыводзяць да шкоды. Але, на думку экспертаў, найбольшыя рызыкі ад А.І. да тэхналогій яшчэ шмат гадоў.
Узлом OpenAI служыць папярэджаннем для ШІ. сектар, падкрэсліваючы неабходнасць надзейных пратаколаў бяспекі і важнасць абароны канфідэнцыйных даных. Прамысловасць павінна сачыць за небяспекамі па меры развіцця тэхналогій штучнага інтэлекту (AI) і сачыць за тым, каб перавагі штучнага інтэлекту не пераважвалі звязаныя з гэтым праблемы. Праблема дасягнення дбайнага балансу паміж бяспекай і інавацыямі падкрэсліваецца гэтай падзеяй, і гэта стане толькі цяжэй, калі штучны інтэлект стане больш распаўсюджаным у нашым паўсядзённым жыцці.