KI-modelle hou nooit op om ons te fassineer met beide hul vermoëns en beperkings nie, en vertoon vreemde gedrag wat 'n lig skyn op hul basiese vorm. Een noemenswaardige waarneming is dat hierdie algoritmes blykbaar voorkeure vir spesifieke getalle het, soortgelyk aan hoe mense getalle kies. Dit is nie bloot 'n eienaardigheid op die oppervlak nie; dit verskaf inligting oor hoe hierdie modelle funksioneer.
Mense het 'n goed gedokumenteerde probleem met ewekansigheid, wat dikwels oordink of verkeerd interpreteer wat dit werklik beteken. Byvoorbeeld, wanneer gevra word om die resultaat van 100 muntwisselings te voorspel, sluit menslike voorspellings tipies nie die kop-of-sterte-strepe in wat kenmerkend is van werklike ewekansige rye nie. Op soortgelyke wyse, wanneer hulle 'n getal tussen 0 en 100 kies, is mense geneig om meer "neutrale" opsies te verkies, soos dié wat op 7 eindig, eerder as uiterste of visueel treffende getalle.
Onverwags toon KI-stelsels dieselfde vooroordeel in getalseleksie as wat mense doen. In 'n informele eksperiment wat deur Gramener-ingenieurs uitgevoer is, is baie groot taalmodelle (LLM-kletsbotte) gevra om 'n getal tussen 0 en 100 te kies. Die finale resultate was geensins willekeurig nie. . Selfs toe die instellings verander is om onvoorspelbaarheid te bevorder en ewekansigheid te verhoog, het elke model voortdurend 'n voorkeur vir spesifieke getalle getoon. Byvoorbeeld, die GPT-3.5 Turbo-model van OpenAI het gereeld 47 gekies, Anthropic se Claude 3 Haiku /claude-3-haiku) het met 42 gegaan terwyl Gemini 72 gekies het. So ook het ander modelle hul eie nommervoorkeure gehad.
Daarbenewens het hierdie modelle wegbeweeg van lae en hoë getalle en het selde vir dubbelsyfers of ronde syfers gekies, tensy die temperatuurinstelling gemaksimeer is, wat gelei het tot minder algemene keuses deur Tweeling.
Dit is nie te wyte aan bewussyn of 'n kennis van willekeurigheid nie, maar eerder aan 'n weerspieëling van die opleidingsdata van die modelle. Sonder enige werklike logika produseer hierdie stelsels antwoorde wat slegs gebaseer is op hoe gereeld hulle data gevoer is. 'n Getal is minder geneig om deur die model gekies te word as dit nie gereeld as 'n reaksie in die opleidingstel voorkom nie.
Hierdie nabootsing van mensagtige keusepatrone in oënskynlik eenvoudige take soos nommerkeuse illustreer hoe KI-modelle die vooroordele en gedrag wat in hul opleiding teenwoordig is, weerspieël data, wat dikwels lei tot antropomorfiese interpretasies van hul optrede.
Ten spyte daarvan dat dit lyk asof hulle soos mense "dink", het hierdie modelle gebrek aan begrip en bewussyn; hulle funksioneer slegs op die data wat hulle verwerk, wat beide die potensiaal en beperkings van huidige KI-tegnologie blootlê.