Modely umělé inteligence nás nikdy nepřestanou fascinovat jak svými schopnostmi, tak omezeními, vykazují zvláštní chování, které osvětluje jejich základní podobu. Jedním z pozoruhodných pozorování je, že tyto algoritmy zřejmě preferují konkrétní čísla, podobně jako lidé vybírají čísla. To není jen povrchní zvláštnost; poskytuje informace o tom, jak tyto modely fungují.
Lidé mají dobře zdokumentovaný problém s náhodností, často přemýšlejí nebo špatně vykládají, co to skutečně znamená. Když se například požaduje předpovědět výsledek 100 hodů mincí, lidské předpovědi obvykle nezahrnují pruhy hlav nebo ocasů, které jsou charakteristické pro skutečné náhodné sekvence. V podobném duchu, když volí číslo mezi 0 a 100, lidé mají tendenci preferovat „neutrálnější“ možnosti, jako jsou ty, které končí na 7, spíše než extrémní nebo vizuálně nápadná čísla.
Systémy umělé inteligence neočekávaně vykazují stejnou zaujatost při výběru čísel jako lidé. V neformálním experimentu, který provedli inženýři společnosti Gramener, bylo mnoho hlavních jazykových modelů (chatbotů LLM) požádáno, aby vybrali číslo mezi 0 a 100. Konečné výsledky nebyly v žádném případě náhodné. . I když byla nastavení změněna, aby se podpořila nepředvídatelnost a zvýšila náhodnost, každý model neustále upřednostňoval konkrétní čísla. Například model GPT-3.5 Turbo od OpenAI často vybíral 47, Anthropic's Claude 3 Haiku šel s 42, zatímco Gemini se rozhodl pro 72. Podobně ostatní modely měly své vlastní preference čísel.
Kromě toho se tyto modely vyhýbaly nízkým a vysokým číslům a zřídka se rozhodly pro dvojciferné nebo kulaté číslice, pokud nebylo nastavení teploty maximalizováno, což vedlo k méně obvyklým výběrům Gemini.
To není způsobeno vědomím nebo znalostí náhodnosti, ale spíše odrazem tréninkových dat modelů. Bez jakékoli skutečné logiky tyto systémy produkují odpovědi pouze na základě toho, jak často byly zaváděny údaje. Číslo je méně pravděpodobné, že bude vybráno modelem, pokud se často nevyskytuje jako odezva v trénovací sadě.
Toto napodobování vzorců volby podobných lidem ve zdánlivě jednoduchých úkolech, jako je výběr čísel, ukazuje, jak modely umělé inteligence odrážejí předsudky a chování přítomné v jejich tréninku dat, což často vede k antropomorfním interpretacím jejich činů.
Přestože se zdá, že „myslí“ jako lidé, tyto modely postrádají porozumění a vědomí; fungují pouze na datech, která zpracovávají, a odhalují tak potenciál i omezení současných technologií umělé inteligence.