AI 모델은 기본 형태에 빛을 비추는 이상한 행동을 보여줌으로써 능력과 한계 모두로 우리를 끊임없이 매료시킵니다. 주목할만한 관찰 중 하나는 이러한 알고리즘이 인간이 숫자를 선택하는 방식과 유사하게 특정 숫자에 대한 선호도를 갖는 것으로 보인다는 것입니다. 이것은 단지 표면적인 이상한 현상이 아닙니다. 이는 이러한 모델이 어떻게 작동하는지에 대한 정보를 제공합니다.
인간은 무작위성에 대한 잘 문서화된 문제를 가지고 있으며, 종종 그것이 실제로 의미하는 바를 과도하게 생각하거나 잘못 해석합니다. 예를 들어, 100번의 동전 던지기 결과를 예측하라는 요청을 받았을 때 인간의 예측에는 일반적으로 실제 무작위 시퀀스의 특징인 앞면 또는 뒷면 줄무늬가 포함되지 않습니다. 비슷한 맥락에서, 0에서 100 사이의 숫자를 선택할 때 사람들은 극단적이거나 시각적으로 눈에 띄는 숫자보다는 7로 끝나는 것과 같은 더 "중립적인" 옵션을 선호하는 경향이 있습니다.
예상외로 AI 시스템은 숫자 선택에서 인간과 동일한 편향을 나타냅니다. Gramener 엔지니어가 수행한 비공식 실험에서 많은 주요 언어 모델(LLM 챗봇)에게 0에서 100 사이의 숫자를 선택하도록 요청했습니다. 최종 결과는 결코 무작위가 아닙니다. . 예측 불가능성을 조장하고 무작위성을 높이기 위해 설정을 변경하더라도 각 모델은 지속적으로 특정 숫자를 선호하는 모습을 보였습니다. 예를 들어 OpenAI의 GPT-3.5 터보 모델은 자주 선정된 47개, Anthropic의 Claude 3 Haiku /claude-3-haiku)는 42를 선택했고 Gemini는 72를 선택했습니다. 마찬가지로 다른 모델에도 고유한 번호 선호도가 있었습니다.
또한 이러한 모델은 낮은 숫자와 높은 숫자를 피하고 온도 설정이 최대화되지 않는 한 두 자리 숫자나 반올림 숫자를 거의 선택하지 않아 Gemini의 선택이 덜 일반적이었습니다.
이는 의식이나 무작위성에 대한 지식 때문이 아니라 모델의 훈련 데이터가 반영되었기 때문입니다. 실제 논리가 없으면 이러한 시스템은 데이터가 얼마나 자주 제공되는지에 따라서만 답변을 생성합니다. 훈련 세트에서 응답으로 자주 발생하지 않는 숫자는 모델에서 선택될 가능성이 적습니다.
숫자 선택과 같이 겉으로는 단순해 보이는 작업에서 이러한 인간과 같은 선택 패턴을 모방하면 AI 모델이 훈련에 존재하는 편견과 행동을 어떻게 반영하는지 알 수 있습니다. 종종 그들의 행동에 대한 의인화된 해석으로 이어집니다.
인간처럼 "생각"하는 것처럼 보이지만 이러한 모델에는 이해력과 의식이 부족합니다. 그들은 처리하는 데이터에 대해서만 작동하며 현재 AI 기술의 잠재력과 한계를 모두 노출합니다.