Өткөн жылдын башында хакер ChatGPT түзүүчүсү OpenAIдин ички билдирүү тутумдарына кирип, анын AI дизайнынын чоо-жайын уурдап кеткен. технологиялар. Хакер кызматкерлердин форумунда баарлашууга мүмкүнчүлүк алды, бирок ал компаниянын жасалма интеллект изилдөөлөрүн жана иштеп чыгууларын камтыган негизги системалардан өтө алган жок. Өнөктөш же кардар тууралуу маалымат уурдалбагандыктан, 2023-жылдын апрель айында болгон жалпы жыйында кызматкерлерге айтылган бул окуя коомчулукка жарыяланган эмес. OpenAI компаниясынын жетекчилери бул окуя тууралуу укук органдарына билдирбөөнү чечишти, анткени алар хакерди чет элдик өкмөттөр менен эч кандай байланышы жок жеке адам деп ойлошкон.
Бул тышкы душмандар жасалма интеллект (AI) технологияларын уурдап, улуттук коопсуздукка коркунуч келтириши мүмкүн деген ички кооптонууну жаратты. Ошондой эле OpenAIдин коопсуздук методологиясынын алсыз жактарын аныктады. OpenAIдин техникалык программасынын мурдагы менеджерлеринин бири Леопольд Ашенбреннер OpenAI чет элдик тыңчылыкты токтотуу үчүн тиешелүү чараларды көрбөгөнү үчүн сынга алды.
Бул иш-чара жасалма интеллект фирмаларына таандык маалыматтардын баалуулугун жана сезгичтигин баса белгилейт. Атаандаштары Google жана Anthropic сыяктуу эле OpenAI да эң сонун машыгуу маалыматтарынын эбегейсиз чоң көлөмүнө ээ. колдонуучу жана кардар байланыш маалыматтары катары. Бул маалымат топтомдору атаандаштар, жөнгө салуучулар жана мамлекеттик актерлор үчүн өтө баалуу, андан тышкары өнүккөн AI түзүү үчүн маанилүү. моделдер.
Окутуу маалыматтарынын сапаты А.И. системалары жана жакшыртуу үчүн көп адам эмгегин талап кылат. Колдонуучулардын миллиарддаган карым-катнаштары OpenAIдин маалымат банкын түзөт, ал керектөөчүлөрдүн каалоолору, тармактын тенденциялары жана адамдын жүрүм-туруму боюнча кеңири түшүнүктөрдү сунуш кылат. Кызыкдар тараптардын кеңири чөйрөсү, анын ичинде маркетинг топтору, аналитиктер жана башка иштеп чыгуучулар бул маалыматтан чоң мааниге ээ болушат.
Бул хакерлик кызматкерлердин форуму менен чектелсе да, коопсуздуктун масштабдуу бузулушунун мүмкүн болуучу коркунучтарын ачык көрсөттү. AI ишканалары маанилүү маалыматтардын сакчыларына айланууда, бул аларды киберчабуулдардын оңой бутасына айлантат. OpenAI окуясы, тартылган маалыматтардын сезимтал мүнөзүнөн улам, кичинекей бузуулар да чоң кесепеттерге алып келиши мүмкүн экенин эскертет.
OpenAI жана башка тармактык оюнчулар коопсуздук чараларын күчөтүп жаткандыктан, хакерлик жасалма интеллект (AI) технологиясын коргоо үчүн күчтүүрөөк эрежелерди жана көрсөтмөлөрдү талап кылуу боюнча талаш-тартыштарды жаратты. Федералдык жана штаттык деңгээлдеги мыйзам чыгаруучулар зыян алып келген коопсуздукту бузгандыгы үчүн бизнести жазалай турган мыйзамдарды кабыл алуу жөнүндө ойлонуп жатышат. Бирок эксперттердин айтымында, эң начар тобокелдиктер А.И. технологиялар дагы эле көп жылдар бар.
OpenAI бузукулугу AI үчүн эскертүү катары кызмат кылат. күчтүү коопсуздук протоколдорунун зарылдыгын жана купуя маалыматтарды коргоонун маанилүүлүгүн баса белгилеген сектор. Жасалма интеллект (AI) технологиялары өнүгүп жаткандыктан, өнөр жай коркунучтарды издеп, AIнын артыкчылыктары эч кандай байланышкан тынчсыздануулардан ашып түшпөгөнүнө ынанышы керек. Коопсуздук менен инновациянын ортосунда кылдат тең салмактуулукту сактоо маселеси бул окуя менен баса белгиленет жана жасалма интеллект биздин күнүмдүк жашообузда кеңири жайылган сайын кыйындай берет.