Modeli umetne inteligence nas nikoli ne nehajo fascinirati s svojimi sposobnostmi in omejitvami ter kažejo nenavadna vedenja, ki osvetljujejo njihovo osnovno obliko. Ena omembe vredna ugotovitev je, da se zdi, da imajo ti algoritmi preference za določene številke, podobno kot ljudje izbirajo številke. To ni le površinska nenavadnost; zagotavlja informacije o delovanju teh modelov.
Ljudje imamo dobro dokumentirano težavo z naključnostjo, pogosto pretiravamo ali si napačno razlagamo, kaj to v resnici pomeni. Na primer, ko so pozvani, da napovejo rezultat 100 metov kovancev, človeške napovedi običajno ne vključujejo nizov glav ali repov, ki so značilni za resnična naključna zaporedja. Podobno velja, da imajo ljudje pri izbiri števila med 0 in 100 raje bolj "nevtralne" možnosti, kot so tiste, ki se končajo na 7, namesto ekstremnih ali vizualno osupljivih številk.
Nepričakovano sistemi AI kažejo enako pristranskost pri izbiri številk kot ljudje. V neformalnem poskusu, ki so ga izvedli Inženirji Gramener, je bilo veliko večjih jezikovnih modelov (LLM chatbotov) naprošenih, da izberejo številko med 0 in 100. Končni rezultati nikakor niso bili naključni . Tudi ko so bile nastavitve spremenjene, da bi spodbudile nepredvidljivost in povečale naključnost, je vsak model nenehno kazal prednost določenim številkam. Na primer, model GPT-3.5 Turbo iz OpenAI je pogosto izbral 47, Anthropic's Claude 3 Haiku se je odločil za 42, medtem ko se je Gemini odločil za 72. Podobno so imeli drugi modeli svoje preference glede številk.
Poleg tega so se ti modeli izogibali nizkim in visokim številkam in so se redko odločali za dvomestne ali okrogle številke, razen če je bila nastavitev temperature maksimizirana, kar je privedlo do manj pogostih izbir Geminija.
To ni posledica zavesti ali znanja o naključnosti, temveč odraz podatkov o usposabljanju modelov. Brez kakršne koli prave logike ti sistemi proizvajajo odgovore samo na podlagi tega, kako pogosto so jim bili posredovani podatki. Manj verjetno je, da bo model izbral številko, če se ne pojavi pogosto kot odziv v nizu za usposabljanje.
To posnemanje človeških vzorcev izbire pri na videz preprostih nalogah, kot je izbira številk, ponazarja, kako modeli umetne inteligence odražajo pristranskosti in vedenja, ki so prisotna pri njihovem usposabljanju podatkov, kar pogosto vodi do antropomorfnih interpretacij njihovih dejanj.
Kljub temu, da je videti, da "razmišljajo" kot ljudje, ti modeli nimajo razumevanja in zavesti; delujejo le na podlagi podatkov, ki jih obdelujejo, pri čemer razkrivajo potencial in omejitve sedanjih tehnologij umetne inteligence.