AI-modeller slutar aldrig att fascinera oss med både deras förmågor och begränsningar, och uppvisar konstiga beteenden som lyser upp deras grundläggande form. En anmärkningsvärd observation är att dessa algoritmer verkar ha preferenser för specifika siffror, liknande hur människor väljer siffror. Detta är inte bara en märklighet på ytan; den ger information om hur dessa modeller fungerar.
Människor har ett väldokumenterat problem med slumpmässighet, ofta övertänker eller misstolkar vad det egentligen betyder. Till exempel, när man ombeds att förutsäga resultatet av 100 myntvändningar, inkluderar mänskliga förutsägelser vanligtvis inte de huvud-eller-svans-ränder som är karakteristiska för riktiga slumpmässiga sekvenser. På liknande sätt, när man väljer ett tal mellan 0 och 100, tenderar folk att föredra mer "neutrala" alternativ, som de som slutar på 7, snarare än extrema eller visuellt slående siffror.
Oväntat uppvisar AI-system samma fördomar i antal val som människor gör. I ett informellt experiment utfört av Gramener-ingenjörer ombads många stora språkmodeller (LLM-chatbots) att välja ett tal mellan 0 och 100. De slutliga resultaten var inte på något sätt slumpmässiga . Även när inställningarna ändrades för att främja oförutsägbarhet och öka slumpmässigheten, visade varje modell kontinuerligt en preferens för särskilda siffror. Till exempel valde GPT-3.5 Turbo-modellen från OpenAI ofta 47, Anthropics Claude 3 Haiku /claude-3-haiku) gick med 42 medan Gemini valde 72. På samma sätt hade andra modeller sina egna nummerpreferenser.
Dessutom undvek dessa modeller från låga och höga siffror och valde sällan tvåsiffriga eller runda siffror om inte temperaturinställningen maximerades, vilket ledde till mindre vanliga val av Gemini.
Detta beror inte på medvetenhet eller kunskap om slumpmässighet, utan snarare på en reflektion av modellernas träningsdata. Utan någon egentlig logik producerar dessa system svar endast baserat på hur ofta de har matats med data. Det är mindre sannolikt att ett nummer väljs av modellen om det inte förekommer ofta som ett svar i träningsuppsättningen.
Detta härmar av människoliknande valmönster i till synes enkla uppgifter som nummerval illustrerar hur AI-modeller återspeglar de fördomar och beteenden som finns i deras träning data, vilket ofta leder till antropomorfa tolkningar av deras handlingar.
Trots att de verkar "tänka" som människor, saknar dessa modeller förståelse och medvetenhet; de fungerar bara på den data de bearbetar, vilket avslöjar både potentialen och begränsningarna hos nuvarande AI-teknik.