AI-modeller viser menneskelignende preferanser for tall

AI-modeller viser menneskelignende preferanser for tall

AI-modeller slutter aldri å fascinere oss med både deres evner og begrensninger, og viser merkelig oppførsel som kaster lys over deres grunnleggende form. En bemerkelsesverdig observasjon er at disse algoritmene ser ut til å ha preferanser for spesifikke tall, som ligner på hvordan mennesker velger tall. Dette er ikke bare en merkelighet på overflaten; den gir informasjon om hvordan disse modellene fungerer.

Mennesker har et godt dokumentert problem med tilfeldighet, ofte overtenker eller feiltolker hva det egentlig betyr. For eksempel, når du blir bedt om å forutsi resultatet av 100 myntsvingninger, inkluderer menneskelige spådommer vanligvis ikke hode-eller-hale-strekene som er karakteristiske for ekte tilfeldige sekvenser. På samme måte, når de velger et tall mellom 0 og 100, har folk en tendens til å foretrekke mer "nøytrale" alternativer, for eksempel de som ender på 7, i stedet for ekstreme eller visuelt slående tall.

Uventet viser AI-systemer den samme skjevheten i antall valg som mennesker gjør. I et uformelt eksperiment utført av Gramener-ingeniører, ble mange store språkmodeller (LLM-chatbots) bedt om å velge et tall mellom 0 og 100. De endelige resultatene var på ingen måte tilfeldige . Selv når innstillingene ble endret for å fremme uforutsigbarhet og øke tilfeldigheten, viste hver modell kontinuerlig en preferanse for bestemte tall. For eksempel valgte GPT-3.5 Turbo-modellen fra OpenAI ofte 47, Anthropics Claude 3 Haiku /claude-3-haiku) gikk med 42 mens Gemini valgte 72. På samme måte hadde andre modeller sine egne nummerpreferanser.

I tillegg styrte disse modellene unna lave og høye tall og valgte sjelden tosifrede eller runde tall med mindre temperaturinnstillingen ble maksimert, noe som førte til mindre vanlige valg av Gemini.

Dette skyldes ikke bevissthet eller kunnskap om tilfeldighet, men snarere en refleksjon av treningsdataene til modellene. Uten noen reell logikk produserer disse systemene svar bare basert på hvor ofte de har blitt matet med data. Det er mindre sannsynlig at et tall blir valgt av modellen hvis det ikke forekommer ofte som en respons i treningssettet.

Denne etterligningen av menneskelignende valgmønstre i tilsynelatende enkle oppgaver som tallvalg illustrerer hvordan AI-modeller gjenspeiler skjevhetene og atferdene som er tilstede i treningen deres data, som ofte fører til antropomorfe tolkninger av deres handlinger.

Til tross for at de ser ut til å "tenke" som mennesker, mangler disse modellene forståelse og bevissthet; de fungerer bare på dataene de behandler, og avslører både potensialet og begrensningene til dagens AI-teknologier.

Code Labs Academy © 2024 Alle rettigheter forbeholdes.