Các mô hình AI không bao giờ ngừng mê hoặc chúng ta bằng cả khả năng và hạn chế của chúng, thể hiện những hành vi kỳ lạ làm sáng tỏ hình dạng cơ bản của chúng. Một quan sát đáng chú ý là các thuật toán này dường như có những ưu tiên dành cho những con số cụ thể, tương tự như cách con người chọn những con số. Đây không chỉ đơn thuần là một điều kỳ lạ ở cấp độ bề mặt; nó cung cấp thông tin về cách các mô hình này hoạt động.
Con người có một vấn đề được ghi chép rõ ràng về tính ngẫu nhiên, thường xuyên suy nghĩ quá mức hoặc hiểu sai ý nghĩa thực sự của nó. Ví dụ: khi được yêu cầu dự đoán kết quả của việc tung 100 đồng xu, dự đoán của con người thường không bao gồm các vệt ngửa hoặc sấp đặc trưng của các chuỗi ngẫu nhiên thực sự. Tương tự như vậy, khi chọn một số từ 0 đến 100, mọi người có xu hướng thích những lựa chọn "trung lập" hơn, chẳng hạn như những số kết thúc bằng 7, hơn là những con số cực đoan hoặc nổi bật về mặt hình ảnh.
Thật bất ngờ, các hệ thống AI cũng thể hiện sự thiên vị trong việc lựa chọn số lượng giống như con người. Trong một thử nghiệm không chính thức được thực hiện bởi các kỹ sư Gramener, nhiều mô hình ngôn ngữ chính (chatbot LLM) đã được yêu cầu chọn một số trong khoảng từ 0 đến 100. Kết quả cuối cùng không hề ngẫu nhiên . Ngay cả khi cài đặt được thay đổi để nâng cao khả năng không thể đoán trước và tăng tính ngẫu nhiên, mỗi mô hình vẫn liên tục thể hiện sự ưu tiên đối với các con số cụ thể. Ví dụ: Mô hình GPT-3.5 Turbo từ OpenAI thường được chọn 47, Anthropic's Claude 3 Haiku chọn 42 trong khi Gemini chọn 72. Tương tự như vậy, các mẫu khác có tùy chọn số riêng của họ.
Ngoài ra, những mẫu này tránh xa các số thấp và số cao và hiếm khi chọn số có hai chữ số hoặc số tròn trừ khi cài đặt nhiệt độ được tối đa hóa, dẫn đến các lựa chọn ít phổ biến hơn của Song Tử.
Điều này không phải do ý thức hay kiến thức về tính ngẫu nhiên mà là do sự phản ánh dữ liệu huấn luyện của các mô hình. Không có logic thực sự, các hệ thống này tạo ra câu trả lời chỉ dựa trên tần suất chúng được cung cấp dữ liệu. Một số ít có khả năng được mô hình chọn nếu nó không thường xuyên xuất hiện dưới dạng phản hồi trong tập huấn luyện.
Việc bắt chước các kiểu lựa chọn giống con người trong các nhiệm vụ có vẻ đơn giản như chọn số minh họa cách các mô hình AI phản ánh những thành kiến và hành vi hiện diện trong quá trình đào tạo của chúng dữ liệu, thường dẫn đến những diễn giải mang tính nhân học về hành động của họ.
Mặc dù có vẻ ngoài “suy nghĩ” giống con người nhưng những mô hình này thiếu khả năng hiểu biết và ý thức; chúng chỉ hoạt động dựa trên dữ liệu chúng xử lý, bộc lộ cả tiềm năng lẫn hạn chế của các công nghệ AI hiện tại.