AI մոդելները երբեք չեն դադարում մեզ հրապուրել թե՛ իրենց կարողություններով, թե՛ սահմանափակումներով՝ դրսևորելով տարօրինակ վարքագիծ, որը լույս է սփռում դրանց հիմնական ձևի վրա: Ուշագրավ դիտարկումներից մեկն այն է, որ այս ալգորիթմները, ըստ երևույթին, նախապատվություններ ունեն հատուկ թվերի համար, ինչպես մարդիկ ընտրում են թվերը: Սա պարզապես մակերեսային մակարդակի տարօրինակություն չէ. այն տեղեկատվություն է տալիս այն մասին, թե ինչպես են գործում այս մոդելները:
Մարդիկ պատահականության հետ կապված լավ փաստագրված խնդիր ունեն՝ հաճախակի չափից դուրս մտածելով կամ սխալ մեկնաբանելով, թե դա ինչ է իրականում նշանակում: Օրինակ, երբ խնդրվում է կանխատեսել 100 մետաղադրամի շրջադարձի արդյունքը, մարդկանց կանխատեսումները սովորաբար չեն ներառում իրական պատահական հաջորդականություններին բնորոշ գլխի կամ պոչերի շերտերը: Նմանապես, 0-ից 100-ի միջև թվեր ընտրելիս մարդիկ հակված են նախընտրելու ավելի «չեզոք» տարբերակներ, ինչպիսիք են նրանք, որոնք ավարտվում են 7-ով, այլ ոչ թե ծայրահեղ կամ տեսողականորեն տպավորիչ թվեր:
Անսպասելիորեն, AI համակարգերը ցուցադրում են նույն կողմնակալությունը թվի ընտրության հարցում, ինչ մարդիկ: Gramener-ի ինժեներների կողմից անցկացված ոչ պաշտոնական փորձի ժամանակ շատ հիմնական լեզվական մոդելներ (LLM չաթ-բոտեր) խնդրել են ընտրել 0-ից 100-ի միջև ընկած թիվ: Վերջնական արդյունքները ամենևին էլ պատահական չէին: . Նույնիսկ երբ կարգավորումները փոխվեցին՝ անկանխատեսելիությունը խթանելու և պատահականությունը բարձրացնելու համար, յուրաքանչյուր մոդել անընդհատ նախապատվություն էր տալիս որոշակի թվերի: Օրինակ, GPT-3.5 Turbo մոդելը OpenAI-ից հաճախ ընտրված է 47, Anthropic's Claude 3 Haiku գնաց 42-ով, մինչդեռ Gemini ընտրեց 72-ը: Նմանապես, մյուս մոդելներն ունեին իրենց համարների նախապատվությունները:
Բացի այդ, այս մոդելները զերծ մնացին ցածր և բարձր թվերից և հազվադեպ էին ընտրում երկնիշ կամ կլոր թվեր, եթե ջերմաստիճանի կարգավորումը առավելագույնի հասցված չէր, ինչը հանգեցրեց Երկվորյակների կողմից ավելի քիչ տարածված ընտրությանը:
Սա պայմանավորված չէ գիտակցությամբ կամ պատահականության իմացությամբ, այլ ավելի շուտ մոդելների վերապատրաստման տվյալների արտացոլմամբ: Առանց որևէ իրական տրամաբանության, այս համակարգերը պատասխաններ են տալիս՝ հիմնված միայն այն բանի վրա, թե որքան հաճախ են դրանք սնվել տվյալների վրա: Թիվն ավելի քիչ հավանական է ընտրելու մոդելի կողմից, եթե այն հաճախ չի առաջանում որպես պատասխան ուսուցման հավաքածուում:
Սա մարդու նման ընտրության օրինաչափությունների նմանակում թվացյալ պարզ առաջադրանքների մեջ, ինչպիսին է թվերի ընտրությունը, ցույց է տալիս, թե ինչպես են AI մոդելներն արտացոլում իրենց ուսուցման ժամանակ առկա կողմնակալությունները և վարքագիծը: տվյալներ, որոնք հաճախ հանգեցնում են նրանց գործողությունների մարդաբանական մեկնաբանությունների:
Չնայած թվացյալին, որ «մտածում» են մարդկանց նման, այս մոդելները չունեն ըմբռնում և գիտակցություն. դրանք գործում են միայն իրենց մշակած տվյալների հիման վրա՝ բացահայտելով ներկա AI տեխնոլոգիաների և՛ ներուժը, և՛ սահմանափակումները: