Modelos de IA mostram preferências humanas para números

Modelos de IA mostram preferências humanas para números

Os modelos de IA nunca param de nos fascinar com suas habilidades e limitações, exibindo comportamentos estranhos que iluminam sua forma básica. Uma observação digna de nota é que esses algoritmos parecem ter preferências por números específicos, semelhante à forma como os humanos selecionam os números. Isto não é apenas uma estranheza superficial; ele fornece informações sobre como esses modelos funcionam.

Os humanos têm um problema bem documentado com a aleatoriedade, muitas vezes pensando demais ou interpretando mal o que isso realmente significa. Por exemplo, quando solicitados a prever o resultado de 100 lançamentos de moeda, as previsões humanas normalmente não incluem as faixas de cara ou coroa que são características de sequências aleatórias reais. Na mesma linha, ao escolher um número entre 0 e 100, as pessoas tendem a preferir opções mais “neutras”, como aquelas que terminam em 7, em vez de números extremos ou visualmente marcantes.

Inesperadamente, os sistemas de IA apresentam o mesmo viés na seleção de números que os humanos. Em um experimento informal conduzido por engenheiros da Gramener, muitos dos principais modelos de linguagem (chatbots LLM) foram solicitados a selecionar um número entre 0 e 100. Os resultados finais não foram de forma alguma aleatórios . Mesmo quando as configurações foram alteradas para promover a imprevisibilidade e aumentar a aleatoriedade, cada modelo mostrou continuamente uma preferência por números específicos. Por exemplo, o modelo GPT-3.5 Turbo da OpenAI frequentemente selecionado 47, Claude 3 Haiku da Anthropic optou por 42, enquanto Gemini optou por 72. Da mesma forma, outros modelos tinham suas próprias preferências numéricas.

Além disso, esses modelos evitavam números altos e baixos e raramente optavam por dois dígitos ou números redondos, a menos que a configuração de temperatura fosse maximizada, o que levou a seleções menos comuns da Gemini.

Isto não se deve à consciência ou ao conhecimento da aleatoriedade, mas sim ao reflexo dos dados de treinamento dos modelos. Sem qualquer lógica real, estes sistemas produzem respostas baseadas apenas na frequência com que foram alimentados com dados. É menos provável que um número seja escolhido pelo modelo se não ocorrer com frequência como resposta no conjunto de treinamento.

Esta imitação de padrões de escolha semelhantes aos humanos em tarefas aparentemente simples, como seleção de números, ilustra como os modelos de IA refletem os preconceitos e comportamentos presentes em seu treinamento dados, muitas vezes levando a interpretações antropomórficas de suas ações.

Apesar de parecerem “pensar” como os humanos, estes modelos carecem de compreensão e consciência; funcionam apenas com base nos dados que processam, expondo tanto o potencial como as limitações das actuais tecnologias de IA.

Code Labs Academy © 2024 Todos os direitos reservados.