Los modelos de IA muestran preferencias humanas por los números

Los modelos de IA muestran preferencias humanas por los números

Los modelos de IA nunca dejan de fascinarnos con sus habilidades y limitaciones, exhibiendo comportamientos extraños que arrojan luz sobre su forma básica. Una observación digna de mención es que estos algoritmos parecen tener preferencias por números específicos, de forma similar a como los humanos seleccionan números. Esto no es simplemente una rareza superficial; Proporciona información sobre cómo funcionan estos modelos.

Los humanos tenemos un problema bien documentado con la aleatoriedad, y con frecuencia pensamos demasiado o malinterpretamos lo que realmente significa. Por ejemplo, cuando se les pide que pronostiquen el resultado de 100 lanzamientos de moneda, las predicciones humanas generalmente no incluyen las rachas de cara o cruz que son características de secuencias aleatorias reales. De manera similar, a la hora de elegir un número entre 0 y 100, las personas tienden a preferir opciones más "neutrales", como las que terminan en 7, en lugar de números extremos o visualmente llamativos.

Inesperadamente, los sistemas de IA exhiben el mismo sesgo en la selección de números que los humanos. En un experimento informal realizado por ingenieros de Gramener, se pidió a muchos modelos de lenguaje importantes (LLM chatbots) que seleccionaran un número entre 0 y 100. Los resultados finales no fueron de ninguna manera aleatorios. . Incluso cuando se cambiaron las configuraciones para promover la imprevisibilidad y aumentar la aleatoriedad, cada modelo mostró continuamente una preferencia por números particulares. Por ejemplo, el modelo GPT-3.5 Turbo de OpenAI selecciona con frecuencia 47, Claude 3 Haiku de Anthropic optó por 42 mientras que Gemini optó por 72. Asimismo, otros modelos tenían sus propias preferencias numéricas.

Además, estos modelos se mantuvieron alejados de números altos y bajos y rara vez optaron por cifras de dos dígitos o redondas a menos que se maximizara el ajuste de temperatura, lo que llevó a selecciones menos comunes por parte de Gemini.

Esto no se debe a la conciencia o al conocimiento de la aleatoriedad, sino más bien a un reflejo de los datos de entrenamiento de los modelos. Sin ninguna lógica real, estos sistemas producen respuestas basadas únicamente en la frecuencia con la que se les han proporcionado datos. Es menos probable que el modelo elija un número si no ocurre con frecuencia como respuesta en el conjunto de entrenamiento.

Esta imitación de patrones de elección similares a los humanos en tareas aparentemente simples como la selección de números ilustra cómo los modelos de IA reflejan los sesgos y comportamientos presentes en su entrenamiento. datos, lo que a menudo conduce a interpretaciones antropomórficas de sus acciones.

A pesar de parecer "pensar" como humanos, estos modelos carecen de comprensión y conciencia; funcionan únicamente con los datos que procesan, lo que expone tanto el potencial como las limitaciones de las tecnologías de IA actuales.

Code Labs Academy © 2024 Todos los derechos reservados.