人工智能模型的能力和局限性一直让我们着迷,它们表现出的奇怪行为揭示了它们的基本形式。一个值得注意的观察是,这些算法似乎对特定数字有偏好,类似于人类选择数字的方式。这不仅仅是表面上的奇怪现象,而且是一种现象。它提供了有关这些模型如何运作的信息。
人类在随机性方面存在一个有据可查的问题,经常过度思考或误解其真正含义。例如,当被要求预测 100 次抛硬币的结果时,人类的预测通常不包括真实随机序列特有的正面或反面条纹。同样,当选择 0 到 100 之间的数字时,人们往往更喜欢更“中性”的选项,例如那些以 7 结尾的选项,而不是极端或视觉上引人注目的数字。
出乎意料的是,人工智能系统在数字选择方面表现出与人类相同的偏见。在 Gramener 工程师 进行的非正式实验中,许多主要语言模型(LLM 聊天机器人)被要求选择 0 到 100 之间的数字。最终结果绝不是随机的。即使更改设置以提高不可预测性并增加随机性,每个模型仍不断表现出对特定数字的偏好。例如,OpenAI 经常选择的 GPT-3.5 Turbo 模型 47、Anthropic 的 Claude 3 Haiku /claude-3-haiku) 选择了 42,而 Gemini 选择了 72。同样,其他型号也有自己的数字偏好。
此外,这些模型避开低数字和高数字,很少选择两位数或整数,除非温度设置最大化,这导致双子座不太常见的选择。
这不是由于意识或随机性知识,而是由于模型训练数据的反映。由于没有任何真正的逻辑,这些系统仅根据输入数据的频率来生成答案。如果某个数字在训练集中不经常作为响应出现,则模型不太可能选择该数字。
这种在数字选择等看似简单的任务中模仿类人选择模式说明了人工智能模型如何反映训练中存在的偏见和行为数据,通常会导致对其行为的拟人化解释。
尽管这些模型看起来像人类一样“思考”,但它们缺乏理解力和意识;它们仅对它们处理的数据起作用,暴露了当前人工智能技术的潜力和局限性。