Tekoälymallit näyttävät ihmisten kaltaisia ​​numeroasetuksia

Tekoälymallit näyttävät ihmisten kaltaisia ​​numeroasetuksia

Tekoälymallit eivät koskaan lakkaa kiehtomasta meitä sekä kyvyillään että rajoitteillaan, ja ne osoittavat outoja käyttäytymismalleja, jotka valaisevat niiden perusmuotoa. Yksi huomionarvoinen havainto on, että näillä algoritmeilla näyttää olevan mieltymykset tietyille numeroille, samoin kuin kuinka ihmiset valitsevat numeroita. Tämä ei ole vain pintatason omituisuus; se tarjoaa tietoa näiden mallien toiminnasta.

Ihmisillä on hyvin dokumentoitu ongelma satunnaisuuden kanssa, koska he usein ajattelevat liikaa tai tulkitsevat väärin, mitä se todella tarkoittaa. Kun esimerkiksi pyydetään ennustamaan 100 kolikonheiton tulos, ihmisen ennusteet eivät yleensä sisällä todellisille satunnaisille sarjoille ominaisia ​​heads-tai-tails-raitoja. Vastaavasti valitessaan luvun väliltä 0–100 ihmiset yleensä pitävät enemmän "neutraalimmista" vaihtoehdoista, kuten 7:ään päättyvistä vaihtoehdoista äärimmäisten tai visuaalisesti silmiinpistävissä olevien numeroiden sijaan.

Tekoälyjärjestelmillä on yllättäen sama harha lukumäärien valinnassa kuin ihmisillä. Gramener-insinöörien tekemässä epävirallisessa kokeessa monia suuria kielimalleja (LLM-chatbotteja) pyydettiin valitsemaan luku väliltä 0–100. Lopulliset tulokset eivät olleet satunnaisia. . Jopa silloin, kun asetuksia muutettiin ennakoimattomuuden lisäämiseksi ja satunnaisuuden lisäämiseksi, jokainen malli osoitti jatkuvasti tiettyjä lukuja. Esimerkiksi GPT-3.5 Turbo -malli OpenAI:sta valittiin usein 47, Anthropic's Claude 3 Haiku valitsi numeron 42, kun taas Gemini valitsi 72:n. Samoin muilla malleilla oli omat numeroasetukset.

Lisäksi näissä malleissa vältyttiin pienistä ja suurista numeroista ja valittiin harvoin kaksinumeroisia tai pyöreitä lukuja, ellei lämpötila-asetusta ollut maksimoitu, mikä johti Geminin harvempiin valintoihin.

Tämä ei johdu tietoisuudesta tai satunnaisuuden tiedosta, vaan pikemminkin mallien harjoitustietojen heijastuksesta. Ilman todellista logiikkaa nämä järjestelmät tuottavat vastauksia vain sen perusteella, kuinka usein niille on syötetty tietoja. Malli ei todennäköisesti valitse lukua, jos se ei usein esiinny vastauksena harjoitusjoukossa.

Tämä ihmisen kaltaisten valintamallien matkiminen näennäisesti yksinkertaisissa tehtävissä, kuten numeroiden valinnassa, havainnollistaa, kuinka tekoälymallit heijastavat harjoittelussa esiintyviä harhoja ja käyttäytymistä. tietoja, jotka usein johtavat antropomorfisiin tulkintoihin heidän toimistaan.

Huolimatta siitä, että ne näyttävät "ajattelevan" kuten ihmiset, näiltä malleilta puuttuu ymmärrys ja tietoisuus; ne toimivat vain käsittelemillään tiedoilla, mikä paljastaa sekä nykyisten tekoälytekniikoiden mahdollisuudet että rajoitukset.

Code Labs Academy © 2024 Kaikki oikeudet pidätetään.