Modely umelej inteligencie nás neprestávajú fascinovať svojimi schopnosťami a obmedzeniami a vykazujú zvláštne správanie, ktoré osvetľuje ich základnú formu. Jedným z pozoruhodných pozorovaní je, že tieto algoritmy majú zrejme preferencie pre konkrétne čísla, podobne ako ľudia vyberajú čísla. Toto nie je len povrchná zvláštnosť; poskytuje informácie o tom, ako tieto modely fungujú.
Ľudia majú dobre zdokumentovaný problém s náhodnosťou, často premýšľajú alebo nesprávne interpretujú, čo to skutočne znamená. Napríklad, keď sa požaduje predpovedanie výsledku 100 hodov mincou, ľudské predpovede zvyčajne neobsahujú pruhy hláv alebo chvostov, ktoré sú charakteristické pre skutočné náhodné sekvencie. V podobnom duchu, keď si ľudia vyberajú číslo medzi 0 a 100, majú tendenciu uprednostňovať „neutrálnejšie“ možnosti, ako napríklad tie, ktoré končia na 7, než extrémne alebo vizuálne nápadné čísla.
Systémy AI neočakávane vykazujú rovnakú zaujatosť pri výbere čísel ako ľudia. V neformálnom experimente, ktorý vykonali inžinieri Gramener, bolo mnoho hlavných jazykových modelov (chatbotov LLM) požiadaných, aby vybrali číslo medzi 0 a 100. Konečné výsledky neboli v žiadnom prípade náhodné. . Aj keď boli nastavenia zmenené s cieľom podporiť nepredvídateľnosť a zvýšiť náhodnosť, každý model neustále uprednostňoval konkrétne čísla. Napríklad model GPT-3.5 Turbo od OpenAI sa často vyberá 47, Anthropic's Claude 3 Haiku šiel so 42, zatiaľ čo Gemini sa rozhodol pre 72. Podobne aj iné modely mali svoje vlastné preferencie čísel.
Okrem toho sa tieto modely vyhýbali nízkym a vysokým číslam a zriedka sa rozhodli pre dvojciferné alebo okrúhle čísla, pokiaľ nebolo nastavenie teploty maximalizované, čo viedlo k menej bežným výberom Gemini.
Nie je to spôsobené vedomím alebo znalosťou náhodnosti, ale skôr odrazom tréningových údajov modelov. Bez akejkoľvek skutočnej logiky tieto systémy vytvárajú odpovede len na základe toho, ako často boli podávané dáta. Je menej pravdepodobné, že model vyberie číslo, ak sa často nevyskytuje ako odozva v trénovacej množine.
Toto napodobňovanie vzorcov voľby podobných ľuďom v zdanlivo jednoduchých úlohách, ako je výber čísel, ilustruje, ako modely AI odrážajú predsudky a správanie prítomné v ich tréningu údajov, čo často vedie k antropomorfným interpretáciám ich činov.
Napriek tomu, že sa zdá, že „myslia“ ako ľudia, týmto modelom chýba porozumenie a vedomie; fungujú iba na údajoch, ktoré spracúvajú, čím odhaľujú potenciál aj obmedzenia súčasných technológií umelej inteligencie.