AI մոդելները ցույց են տալիս մարդկանց նման նախապատվություններ թվերի համար

AI մոդելները ցույց են տալիս մարդկանց նման նախապատվություններ թվերի համար

AI մոդելները երբեք չեն դադարում մեզ հրապուրել թե՛ իրենց կարողություններով, թե՛ սահմանափակումներով՝ դրսևորելով տարօրինակ վարքագիծ, որը լույս է սփռում դրանց հիմնական ձևի վրա: Ուշագրավ դիտարկումներից մեկն այն է, որ այս ալգորիթմները, ըստ երևույթին, նախապատվություններ ունեն հատուկ թվերի համար, ինչպես մարդիկ ընտրում են թվերը: Սա պարզապես մակերեսային մակարդակի տարօրինակություն չէ. այն տեղեկատվություն է տալիս այն մասին, թե ինչպես են գործում այս մոդելները:

Մարդիկ պատահականության հետ կապված լավ փաստագրված խնդիր ունեն՝ հաճախակի չափից դուրս մտածելով կամ սխալ մեկնաբանելով, թե դա ինչ է իրականում նշանակում: Օրինակ, երբ խնդրվում է կանխատեսել 100 մետաղադրամի շրջադարձի արդյունքը, մարդկանց կանխատեսումները սովորաբար չեն ներառում իրական պատահական հաջորդականություններին բնորոշ գլխի կամ պոչերի շերտերը: Նմանապես, 0-ից 100-ի միջև թվեր ընտրելիս մարդիկ հակված են նախընտրելու ավելի «չեզոք» տարբերակներ, ինչպիսիք են նրանք, որոնք ավարտվում են 7-ով, այլ ոչ թե ծայրահեղ կամ տեսողականորեն տպավորիչ թվեր:

Անսպասելիորեն, AI համակարգերը ցուցադրում են նույն կողմնակալությունը թվի ընտրության հարցում, ինչ մարդիկ: Gramener-ի ինժեներների կողմից անցկացված ոչ պաշտոնական փորձի ժամանակ շատ հիմնական լեզվական մոդելներ (LLM չաթ-բոտեր) խնդրել են ընտրել 0-ից 100-ի միջև ընկած թիվ: Վերջնական արդյունքները ամենևին էլ պատահական չէին: . Նույնիսկ երբ կարգավորումները փոխվեցին՝ անկանխատեսելիությունը խթանելու և պատահականությունը բարձրացնելու համար, յուրաքանչյուր մոդել անընդհատ նախապատվություն էր տալիս որոշակի թվերի: Օրինակ, GPT-3.5 Turbo մոդելը OpenAI-ից հաճախ ընտրված է 47, Anthropic's Claude 3 Haiku գնաց 42-ով, մինչդեռ Gemini ընտրեց 72-ը: Նմանապես, մյուս մոդելներն ունեին իրենց համարների նախապատվությունները:

Բացի այդ, այս մոդելները զերծ մնացին ցածր և բարձր թվերից և հազվադեպ էին ընտրում երկնիշ կամ կլոր թվեր, եթե ջերմաստիճանի կարգավորումը առավելագույնի հասցված չէր, ինչը հանգեցրեց Երկվորյակների կողմից ավելի քիչ տարածված ընտրությանը:

Սա պայմանավորված չէ գիտակցությամբ կամ պատահականության իմացությամբ, այլ ավելի շուտ մոդելների վերապատրաստման տվյալների արտացոլմամբ: Առանց որևէ իրական տրամաբանության, այս համակարգերը պատասխաններ են տալիս՝ հիմնված միայն այն բանի վրա, թե որքան հաճախ են դրանք սնվել տվյալների վրա: Թիվն ավելի քիչ հավանական է ընտրելու մոդելի կողմից, եթե այն հաճախ չի առաջանում որպես պատասխան ուսուցման հավաքածուում:

Սա մարդու նման ընտրության օրինաչափությունների նմանակում թվացյալ պարզ առաջադրանքների մեջ, ինչպիսին է թվերի ընտրությունը, ցույց է տալիս, թե ինչպես են AI մոդելներն արտացոլում իրենց ուսուցման ժամանակ առկա կողմնակալությունները և վարքագիծը: տվյալներ, որոնք հաճախ հանգեցնում են նրանց գործողությունների մարդաբանական մեկնաբանությունների:

Չնայած թվացյալին, որ «մտածում» են մարդկանց նման, այս մոդելները չունեն ըմբռնում և գիտակցություն. դրանք գործում են միայն իրենց մշակած տվյալների հիման վրա՝ բացահայտելով ներկա AI տեխնոլոգիաների և՛ ներուժը, և՛ սահմանափակումները:

Code Labs Academy © 2024 Բոլոր իրավունքները պաշտպանված են.