Keçən ilin əvvəlində bir haker ChatGPT yaradıcısı OpenAI-nin daxili mesajlaşma sistemlərinə sızdı və onun AI-nin dizaynı ilə bağlı təfərrüatları oğurladı. texnologiyalar. Haker işçilər forumunda söhbətlərə giriş əldə etdi, lakin o, şirkətin süni intellekt üzrə tədqiqat və inkişafını özündə birləşdirən əsas sistemləri keçə bilmədi. Heç bir tərəfdaş və ya müştəri məlumatı oğurlanmadığından, 2023-cü ilin aprelində keçirilən hərtərəfli görüş zamanı heyət üzvlərinə açıqlanan bu hadisə ictimaiyyətə açıqlanmadı. OpenAI-nin rəhbərləri hakerin xarici hökumətlərlə heç bir əlaqəsi olmayan bir şəxs olduğunu düşündükləri üçün hadisə barədə hüquq orqanlarına məlumat verməmək qərarına gəliblər.
Bu, xarici düşmənlərin süni intellekt (AI) texnologiyalarını oğurlayacağı və milli təhlükəsizliyi təhlükə altına atacağı ehtimalı ilə bağlı daxili narahatlıqlara səbəb oldu. O, həmçinin OpenAI-nin təhlükəsizlik metodologiyasındakı zəif cəhətləri də ortaya qoydu. OpenAI-nin keçmiş texniki proqram menecerlərindən biri Leopold Aschenbrenner, OpenAI-ni xarici casusluğu dayandırmaq üçün müvafiq tədbirlər görmədiyinə görə tənqid etdi.
Tədbir süni intellekt firmalarına məxsus məlumatların artan dəyərini və həssaslığını vurğulayır. Rəqibləri Google və Anthropic kimi OpenAI-nın da böyük həcmdə mükəmməl təlim məlumatlarına çıxışı var. istifadəçi və müştəri əlaqə məlumatları kimi. Bu məlumat dəstləri qabaqcıl AI yaratmaq üçün vacib olmaqla yanaşı, rəqiblər, tənzimləyicilər və dövlət subyektləri üçün son dərəcə dəyərlidir. modellər.
Təlim məlumatlarının keyfiyyəti A.I. sistemlər və təkmilləşdirmək üçün çoxlu insan əməyi tələb olunur. Milyardlarla istifadəçi qarşılıqlı əlaqəsi OpenAI-nin istehlakçı seçimləri, sənaye tendensiyaları və insan davranışı haqqında zəngin anlayışlar təqdim edən məlumat bankını təşkil edir. Marketinq qrupları, analitiklər və digər tərtibatçılar da daxil olmaqla, maraqlı tərəflərin geniş dairəsi bu məlumatda böyük dəyər tapacaq.
Hack işçilərin forumu ilə məhdudlaşsa da, daha geniş miqyaslı təhlükəsizlik pozuntularının mümkün təhlükələrini aydınlaşdırdı. Süni intellekt müəssisələri mühüm məlumatların mühafizəçisinə çevrilirlər ki, bu da onları kiberhücumlar üçün asan hədəfə çevirir. OpenAI hadisəsi xatırladıcı rolunu oynayır ki, daxil olan məlumatların həssas təbiətinə görə, hətta kiçik pozuntular da çox geniş nəticələrə səbəb ola bilər.
OpenAI və digər sənaye oyunçuları tərəfindən təhlükəsizlik tədbirləri gücləndirildiyi üçün, hack, süni intellekt (AI) texnologiyasını qorumaq üçün daha güclü qaydalar və təlimatlar tələbi ilə bağlı müzakirələrə də təkan verdi. Federal və əyalət səviyyələrində qanunvericilər zərərlə nəticələnən təhlükəsizlik pozuntularına görə müəssisələri cəzalandıracaq qanunlar qəbul etməyi düşünürlər. Ancaq ekspertlərin fikrincə, A.I.-dən ən pis risklər. texnologiyalar hələ illər uzaqdadır.
OpenAI hacki A.I.-yə xəbərdarlıq rolunu oynayır. sektoru, güclü təhlükəsizlik protokollarının zəruriliyini və həssas məlumatların qorunmasının əhəmiyyətini vurğulayır. Süni intellekt (AI) texnologiyaları irəlilədikcə sənaye təhlükələri axtarmalı və süni intellektin üstünlüklərinin heç bir əlaqəli narahatlıqla üst-üstə düşmədiyinə əmin olmalıdır. Təhlükəsizlik və innovasiya arasında diqqətli bir tarazlığın yaradılması məsələsi bu hadisə ilə vurğulanır və süni intellekt gündəlik həyatımızda daha çox yayıldıqca daha da çətinləşəcək.