AI モデルは、その能力と限界の両方で私たちを魅了してやみません。その基本的な形式に光を当てる奇妙な動作を示します。注目すべき観察の 1 つは、人間が数字を選択する方法と同様に、これらのアルゴリズムが特定の数字を優先しているように見えることです。これは単なる表面レベルの奇妙さではありません。これらのモデルがどのように機能するかについての情報を提供します。
人間はランダム性に関する十分に文書化された問題を抱えており、それが実際に何を意味するのかを考えすぎたり誤解したりすることがよくあります。たとえば、100 回のコイン投げの結果を予測するように求められた場合、人間の予測には通常、実際のランダムなシーケンスの特徴である表か裏の縞模様は含まれません。同様に、0 ~ 100 の数値を選択する場合、極端な数値や視覚的に印象的な数値よりも、7 で終わる数値など、より「中立的な」選択肢を好む傾向があります。
予想外なことに、AI システムは数値選択において人間と同じバイアスを示します。 Gramener エンジニア によって実施された非公式の実験では、多くの主要言語モデル (LLM チャットボット) が 0 から 100 までの数値を選択するように求められました。最終結果は決してランダムではありませんでした。 。予測不可能性を促進し、ランダム性を高めるために設定が変更された場合でも、各モデルは引き続き特定の数値を好む傾向を示しました。たとえば、OpenAI の GPT-3.5 Turbo モデル では、頻繁に選ばれた 47、Anthropic の Claude 3 Haiku が挙げられます。 /claude-3-haiku) は 42 を選択しましたが、Gemini は 72 を選択しました。同様に、他のモデルにも独自の数値設定がありました。
さらに、これらのモデルは低い数値や高い数値を避け、温度設定が最大化されない限り 2 桁や四捨五入の数値を選択することはほとんどありませんでした。そのため、Gemini による選択はあまり一般的ではありませんでした。
これは意識やランダム性の知識によるものではなく、むしろモデルのトレーニング データの反映によるものです。これらのシステムは実際のロジックを持たずに、データが供給された頻度のみに基づいて回答を生成します。トレーニング セット内の応答として数値が頻繁に発生しない場合、その数値がモデルによって選択される可能性は低くなります。
数値選択のような一見単純なタスクにおけるこの人間のような選択パターンの模倣は、AI モデルがトレーニング中に存在するバイアスや行動をどのように反映しているかを示しています。データは、しばしば彼らの行動の擬人化された解釈につながります。
これらのモデルは人間のように「思考」しているように見えますが、理解力や意識が欠けています。これらは処理するデータに対してのみ機能するため、現在の AI テクノロジーの可能性と限界の両方が明らかになります。