AI-modeller viser menneskelignende præferencer for tal

AI-modeller viser menneskelignende præferencer for tal

AI-modeller holder aldrig op med at fascinere os med både deres evner og begrænsninger og udviser mærkelig adfærd, der kaster lys over deres grundlæggende form. En bemærkelsesværdig observation er, at disse algoritmer ser ud til at have præferencer for specifikke tal, svarende til hvordan mennesker vælger tal. Dette er ikke blot en mærkværdighed på overfladeniveau; den giver information om, hvordan disse modeller fungerer.

Mennesker har et veldokumenteret problem med tilfældighed, idet de ofte overtænker eller misfortolker, hvad det egentlig betyder. For eksempel, når man bliver bedt om at forudsige resultatet af 100 møntvendinger, inkluderer menneskelige forudsigelser typisk ikke de hoved-eller-hale-striber, der er karakteristiske for rigtige tilfældige sekvenser. På samme måde, når de vælger et tal mellem 0 og 100, har folk en tendens til at foretrække mere "neutrale" muligheder, såsom dem, der ender på 7, frem for ekstreme eller visuelt slående tal.

Uventet udviser AI-systemer den samme skævhed i nummerudvælgelsen, som mennesker gør. I et uformelt eksperiment udført af Gramener-ingeniører blev mange store sprogmodeller (LLM-chatbots) bedt om at vælge et tal mellem 0 og 100. De endelige resultater var på ingen måde tilfældige . Selv når indstillingerne blev ændret for at fremme uforudsigelighed og øge tilfældighed, viste hver model konstant en præference for bestemte tal. For eksempel valgte GPT-3.5 Turbo-modellen fra OpenAI ofte 47, Anthropics Claude 3 Haiku /claude-3-haiku) gik med 42, mens Gemini valgte 72. Ligeledes havde andre modeller deres egne nummerpræferencer.

Derudover styrede disse modeller uden om lave og høje tal og valgte sjældent tocifrede eller runde tal, medmindre temperaturindstillingen var maksimeret, hvilket førte til mindre almindelige valg af Gemini.

Dette skyldes ikke bevidsthed eller viden om tilfældighed, men snarere en afspejling af modellernes træningsdata. Uden nogen egentlig logik producerer disse systemer kun svar baseret på, hvor ofte de er blevet tilført data. Et tal er mindre tilbøjelige til at blive valgt af modellen, hvis det ikke ofte forekommer som en respons i træningssættet.

Denne efterligning af menneskelignende valgmønstre i tilsyneladende simple opgaver som nummervalg illustrerer, hvordan AI-modeller afspejler de skævheder og adfærd, der er til stede i deres træning data, hvilket ofte fører til antropomorfe fortolkninger af deres handlinger.

På trods af at de ser ud til at "tænke" som mennesker, mangler disse modeller forståelse og bevidsthed; de fungerer kun på de data, de behandler, og afslører både potentialet og begrænsningerne ved nuværende AI-teknologier.

Code Labs Academy © 2024 Alle rettigheder forbeholdes.