Model AI tidak pernah berhenti membuat kita terpesona dengan kemampuan dan keterbatasannya, menunjukkan perilaku aneh yang menyoroti bentuk dasarnya. Salah satu pengamatan penting adalah bahwa algoritme ini tampaknya memiliki preferensi terhadap angka-angka tertentu, serupa dengan cara manusia memilih angka. Ini bukan sekadar keanehan di permukaan; ini memberikan informasi tentang bagaimana model ini berfungsi.
Manusia memiliki masalah keacakan yang terdokumentasi dengan baik, sering kali terlalu banyak berpikir atau salah menafsirkan arti sebenarnya. Misalnya, ketika diminta untuk memperkirakan hasil lemparan 100 koin, prediksi manusia biasanya tidak menyertakan coretan kepala atau ekor yang merupakan karakteristik dari rangkaian acak nyata. Demikian pula, ketika memilih angka antara 0 dan 100, orang cenderung memilih opsi yang lebih "netral", seperti angka yang berakhiran 7, daripada angka ekstrem atau mencolok secara visual.
Tanpa diduga, sistem AI menunjukkan bias yang sama dalam pemilihan angka seperti yang dilakukan manusia. Dalam eksperimen informal yang dilakukan oleh insinyur Gramener, banyak model bahasa utama (LLM chatbots) diminta untuk memilih angka antara 0 dan 100. Hasil akhirnya sama sekali tidak acak . Bahkan ketika pengaturan diubah untuk meningkatkan ketidakpastian dan meningkatkan keacakan, setiap model terus menunjukkan preferensi terhadap angka tertentu. Misalnya, model GPT-3.5 Turbo dari OpenAI sering memilih 47, Claude 3 Haiku dari Anthropic memilih 42 sementara Gemini memilih 72. Demikian pula, model lain memiliki preferensi nomornya sendiri.
Selain itu, model ini menghindari angka rendah dan tinggi dan jarang memilih angka dua digit atau bulat kecuali pengaturan suhu dimaksimalkan, yang menyebabkan pilihan Gemini kurang umum.
Hal ini bukan disebabkan oleh kesadaran atau pengetahuan tentang keacakan, melainkan karena refleksi dari data pelatihan model. Tanpa logika nyata, sistem ini menghasilkan jawaban hanya berdasarkan seberapa sering data dimasukkan. Suatu angka kecil kemungkinannya untuk dipilih oleh model jika angka tersebut tidak sering muncul sebagai respons dalam set pelatihan.
Ini meniru pola pilihan yang mirip manusia dalam tugas yang tampaknya sederhana seperti pemilihan angka menggambarkan bagaimana model AI mencerminkan bias dan perilaku yang ada dalam pelatihan mereka data, sering kali mengarah pada interpretasi antropomorfik atas tindakan mereka.
Meski tampak "berpikir" seperti manusia, model ini kurang memiliki pemahaman dan kesadaran; mereka hanya berfungsi pada data yang mereka proses, sehingga memperlihatkan potensi dan keterbatasan teknologi AI saat ini.