Awal tahun lalu, seorang peretas menyusup ke sistem pesan internal OpenAI, pembuat ChatGPT, dan mencuri detail tentang desain A.I. teknologi. Peretas memperoleh akses ke percakapan di forum staf, namun ia tidak dapat melewati sistem utama yang menampung penelitian dan pengembangan kecerdasan buatan perusahaan. Karena tidak ada informasi mitra atau pelanggan yang dicuri, insiden ini—yang diungkapkan kepada anggota staf selama pertemuan semua pihak pada bulan April 2023—tidak dipublikasikan. Para eksekutif di OpenAI memutuskan untuk tidak memberi tahu otoritas hukum mengenai peristiwa tersebut karena mereka mengira peretasnya adalah individu yang tidak memiliki koneksi dengan pemerintah asing.
Hal ini memicu kekhawatiran internal mengenai kemungkinan musuh asing akan mencuri teknologi kecerdasan buatan (AI) dan membahayakan keamanan nasional. Hal ini juga mengungkapkan kelemahan dalam metodologi keamanan OpenAI. Salah satu mantan manajer program teknis OpenAI, Leopold Aschenbrenner, mengkritik OpenAI karena tidak mengambil tindakan yang tepat untuk menghentikan spionase asing.
Acara ini menyoroti meningkatnya nilai dan kerentanan data yang dimiliki oleh perusahaan kecerdasan buatan. Mirip dengan pesaingnya Google dan Anthropic, OpenAI juga memiliki akses ke data pelatihan luar biasa dalam jumlah besar sebagai data kontak pengguna dan pelanggan. Kumpulan data ini sangat berharga bagi pesaing, regulator, dan aktor negara, selain juga penting untuk menciptakan teknologi AI tingkat lanjut. model.
Kualitas data pelatihan sangat penting bagi A.I. sistem dan membutuhkan banyak tenaga manusia untuk memperbaikinya. Miliaran interaksi pengguna membentuk bank data OpenAI, yang menawarkan beragam wawasan tentang preferensi konsumen, tren industri, dan perilaku manusia. Berbagai pemangku kepentingan, termasuk tim pemasaran, analis, dan pengembang lainnya, akan mendapatkan manfaat besar dari informasi ini.
Meskipun peretasan tersebut terbatas pada forum karyawan, hal ini memperjelas kemungkinan bahaya pelanggaran keamanan berskala lebih besar. Bisnis AI menjadi penjaga data penting, sehingga menjadikan mereka sasaran empuk serangan siber. Acara OpenAI berfungsi sebagai pengingat bahwa, karena sifat sensitif dari data yang terlibat, pelanggaran kecil sekalipun dapat menimbulkan konsekuensi yang luas.
Ketika langkah-langkah keamanan diperketat oleh OpenAI dan pemain industri lainnya, peretasan ini juga memicu perdebatan tentang perlunya peraturan dan pedoman yang lebih kuat untuk melindungi teknologi kecerdasan buatan (AI). Anggota parlemen di tingkat federal dan negara bagian sedang mempertimbangkan untuk memberlakukan undang-undang yang akan memberikan sanksi kepada bisnis atas pelanggaran keamanan yang mengakibatkan kerugian. Namun menurut para ahli, risiko terburuk dari A.I. teknologi masih bertahun-tahun lagi.
Peretasan OpenAI berfungsi sebagai peringatan bagi A.I. sektor ini, menekankan perlunya protokol keamanan yang kuat dan pentingnya melindungi data sensitif. Industri perlu mewaspadai bahaya seiring dengan kemajuan teknologi kecerdasan buatan (AI) dan memastikan bahwa manfaat AI tidak sebanding dengan kekhawatiran terkait lainnya. Persoalan dalam mencapai keseimbangan yang cermat antara keamanan dan inovasi menjadi sorotan dalam kejadian ini, dan hal ini akan menjadi semakin sulit seiring dengan semakin meluasnya kecerdasan buatan dalam kehidupan kita sehari-hari.