Les modèles d'IA affichent des préférences humaines pour les nombres

Les modèles d'IA affichent des préférences humaines pour les nombres

Les modèles d’IA ne cessent de nous fasciner à la fois par leurs capacités et leurs limites, présentant des comportements étranges qui mettent en lumière leur forme de base. Une observation remarquable est que ces algorithmes semblent avoir des préférences pour des nombres spécifiques, de la même manière que les humains sélectionnent les nombres. Il ne s’agit pas simplement d’une bizarrerie superficielle ; il fournit des informations sur le fonctionnement de ces modèles.

Les humains ont un problème bien documenté avec le hasard, réfléchissant souvent trop ou interprétant mal ce que cela signifie réellement. Par exemple, lorsqu’on leur demande de prévoir le résultat de 100 lancers de pièces, les prédictions humaines n’incluent généralement pas les stries pile ou face qui sont caractéristiques des séquences aléatoires réelles. Dans le même ordre d'idées, lorsqu'ils choisissent un nombre entre 0 et 100, les gens ont tendance à préférer des options plus « neutres », comme celles qui se terminent par 7, plutôt que des nombres extrêmes ou visuellement frappants.

De manière inattendue, les systèmes d’IA présentent le même biais dans la sélection des nombres que les humains. Dans une expérience informelle menée par les ingénieurs Gramener, il a été demandé à de nombreux modèles de langage majeurs (chatbots LLM) de sélectionner un nombre compris entre 0 et 100. Les résultats finaux n'étaient en aucun cas aléatoires. . Même lorsque les paramètres étaient modifiés pour favoriser l’imprévisibilité et accroître le caractère aléatoire, chaque modèle montrait continuellement une préférence pour des nombres particuliers. Par exemple, le modèle GPT-3.5 Turbo d'OpenAI en sélectionnait fréquemment 47, Claude 3 Haiku d'Anthropic a opté pour 42 tandis que Gemini a opté pour 72. De même, d'autres modèles avaient leurs propres préférences numériques.

De plus, ces modèles évitaient les nombres faibles et élevés et optaient rarement pour des chiffres à deux chiffres ou des chiffres ronds à moins que le réglage de la température ne soit maximisé, ce qui a conduit à des sélections moins courantes de la part de Gemini.

Cela n’est pas dû à la conscience ou à la connaissance du caractère aléatoire, mais plutôt au reflet des données d’entraînement des modèles. Sans réelle logique, ces systèmes produisent des réponses basées uniquement sur la fréquence à laquelle ils ont reçu des données. Un nombre est moins susceptible d'être choisi par le modèle s'il n'apparaît pas fréquemment comme réponse dans l'ensemble d'apprentissage.

Cette imitation de modèles de choix semblables à ceux des humains dans des tâches apparemment simples comme la sélection de nombres illustre comment les modèles d'IA reflètent les préjugés et les comportements présents dans leur formation. données, conduisant souvent à des interprétations anthropomorphiques de leurs actions.

Bien qu'ils semblent « penser » comme les humains, ces modèles manquent de compréhension et de conscience ; ils fonctionnent uniquement sur les données qu’ils traitent, exposant à la fois le potentiel et les limites des technologies actuelles d’IA.

Code Labs Academy © 2024 Tous droits réservés.