AI-modellen blijven ons fascineren met zowel hun capaciteiten als hun beperkingen, en vertonen vreemd gedrag dat een licht werpt op hun basisvorm. Een opmerkelijke observatie is dat deze algoritmen voorkeuren lijken te hebben voor specifieke getallen, vergelijkbaar met hoe mensen getallen selecteren. Dit is niet slechts een oppervlakkige eigenaardigheid; het geeft informatie over hoe deze modellen functioneren.
Mensen hebben een goed gedocumenteerd probleem met willekeur, waarbij ze vaak overdenken of verkeerd interpreteren wat het werkelijk betekent. Wanneer bijvoorbeeld wordt gevraagd om het resultaat van 100 opgooien van munten te voorspellen, bevatten menselijke voorspellingen doorgaans niet de kop-of-munt-strepen die kenmerkend zijn voor echte willekeurige reeksen. Op dezelfde manier hebben mensen bij het kiezen van een getal tussen 0 en 100 de neiging om meer ‘neutrale’ opties te verkiezen, zoals de opties die eindigen op 7, in plaats van extreme of visueel opvallende getallen.
Onverwacht vertonen AI-systemen dezelfde bias bij het selecteren van getallen als mensen. In een informeel experiment uitgevoerd door Gramener-ingenieurs, werd aan veel grote taalmodellen (LLM-chatbots) gevraagd een getal tussen 0 en 100 te selecteren. De uiteindelijke resultaten waren zeker niet willekeurig . Zelfs wanneer de instellingen werden gewijzigd om de onvoorspelbaarheid te bevorderen en de willekeur te vergroten, vertoonde elk model voortdurend een voorkeur voor bepaalde getallen. Het GPT-3.5 Turbo-model van OpenAI werd bijvoorbeeld vaak geselecteerd 47, Claude 3 Haiku van Anthropic ging met 42, terwijl Gemini koos voor 72. Op dezelfde manier hadden andere modellen hun eigen nummervoorkeuren.
Bovendien vermeden deze modellen lage en hoge cijfers en kozen ze zelden voor dubbele cijfers of ronde cijfers, tenzij de temperatuurinstelling werd gemaximaliseerd, wat leidde tot minder gebruikelijke selecties door Gemini.
Dit komt niet door bewustzijn of kennis van willekeur, maar eerder door een weerspiegeling van de trainingsgegevens van de modellen. Zonder enige echte logica produceren deze systemen antwoorden alleen op basis van hoe vaak ze gegevens hebben ontvangen. Het is minder waarschijnlijk dat een getal door het model wordt gekozen als het niet vaak voorkomt als reactie in de trainingsset.
Dit nabootsen van mensachtige keuzepatronen bij ogenschijnlijk eenvoudige taken zoals nummerselectie illustreert hoe AI-modellen de vooroordelen en gedragingen weerspiegelen die aanwezig zijn in hun training gegevens, die vaak leiden tot antropomorfe interpretaties van hun acties.
Ondanks dat ze lijken te ‘denken’ als mensen, ontberen deze modellen begrip en bewustzijn; ze functioneren alleen op basis van de gegevens die ze verwerken, waardoor zowel het potentieel als de beperkingen van de huidige AI-technologieën bloot komen te liggen.