Els models d'IA mostren preferències humanes per als números

Els models d'IA mostren preferències humanes per als números

Els models d'IA no deixen de fascinar-nos tant amb les seves habilitats com amb les seves limitacions, mostrant comportaments estranys que il·luminen la seva forma bàsica. Una observació destacable és que aquests algorismes semblen tenir preferències per a nombres específics, de manera similar a com els humans seleccionen els números. Això no és només una raresa a nivell superficial; proporciona informació sobre com funcionen aquests models.

Els éssers humans tenen un problema ben documentat amb l'atzar, que sovint pensen excessivament o malinterpreten el que realment significa. Per exemple, quan se li demana que predigui el resultat de 100 voltes de monedes, les prediccions humanes normalment no inclouen les ratlles de cap o cua que són característiques de seqüències aleatòries reals. De la mateixa manera, a l'hora de triar un nombre entre 0 i 100, la gent tendeix a preferir opcions més "neutres", com les que acaben en 7, en lloc de números extrems o visualment cridaners.

De manera inesperada, els sistemes d'IA presenten el mateix biaix en la selecció de nombres que els humans. En un experiment informal dut a terme per enginyers de Gramener, es va demanar a molts models de llenguatge principals (LLM chatbots) que seleccionessin un nombre entre 0 i 100. Els resultats finals no van ser de cap manera aleatoris. . Fins i tot quan es van canviar la configuració per promoure la imprevisibilitat i augmentar l'aleatorietat, cada model mostrava contínuament una preferència per nombres concrets. Per exemple, el model GPT-3.5 Turbo d'OpenAI en seleccionava sovint 47, Anthropic's Claude 3 Haiku va anar amb 42 mentre que Gemini va optar per 72. De la mateixa manera, altres models tenien les seves pròpies preferències de nombre.

A més, aquests models es van allunyar dels nombres baixos i alts i poques vegades van optar per dos dígits o xifres rodones, tret que es maximitzés la configuració de temperatura, la qual cosa va provocar que Gemini fes seleccions menys habituals.

Això no es deu a la consciència o al coneixement de l'aleatorietat, sinó a un reflex de les dades d'entrenament dels models. Sense cap lògica real, aquests sistemes produeixen respostes basades només en la freqüència amb què s'han alimentat dades. És menys probable que el model esculli un nombre si no es produeix amb freqüència com a resposta al conjunt d'entrenament.

Aquesta imitació de patrons d'elecció similars als humans en tasques aparentment senzilles com la selecció de números il·lustra com els models d'IA reflecteixen els biaixos i els comportaments presents en la seva formació. dades, que sovint condueixen a interpretacions antropomòrfiques de les seves accions.

Tot i semblar que "pensen" com els humans, aquests models manquen de comprensió i consciència; funcionen només amb les dades que processen, exposant tant el potencial com les limitacions de les tecnologies d'IA actuals.

Code Labs Academy © 2024 Tots els drets reservats.