Modele AI nie przestają nas fascynować zarówno swoimi możliwościami, jak i ograniczeniami, wykazując dziwne zachowania, które rzucają światło na ich podstawową formę. Godną uwagi obserwacją jest to, że algorytmy te wydają się mieć preferencje dotyczące określonych liczb, podobnie jak ludzie wybierają liczby. Nie jest to jedynie powierzchowna osobliwość; dostarcza informacji o działaniu tych modeli.
Ludzie mają dobrze udokumentowany problem z przypadkowością, często za dużo myśląc lub błędnie interpretując, co to naprawdę oznacza. Na przykład ludzie poproszeni o prognozę wyniku 100 rzutów monetą zazwyczaj nie uwzględniają smug orła lub reszki charakterystycznych dla rzeczywistych sekwencji losowych. W podobny sposób, wybierając liczbę od 0 do 100, ludzie wolą bardziej „neutralne” opcje, na przykład te kończące się na 7, niż liczby ekstremalne lub rzucające się w oczy.
Nieoczekiwanie systemy sztucznej inteligencji wykazują taką samą stronniczość w doborze liczb, jak ludzie. W nieformalnym eksperymencie przeprowadzonym przez inżynierów Gramenera wiele głównych modeli językowych (chatbotów LLM) poproszono o wybranie liczby z zakresu od 0 do 100. Ostateczne wyniki nie były w żadnym wypadku przypadkowe . Nawet jeśli ustawienia zostały zmienione, aby promować nieprzewidywalność i zwiększać losowość, każdy model stale wykazywał preferencje dla określonych liczb. Na przykład model GPT-3.5 Turbo z OpenAI często wybieranych 47, Anthropic's Claude 3 Haiku wybrało 42, a Gemini wybrało 72. Podobnie inne modele miały własne preferencje dotyczące liczb.
Ponadto w modelach tych unikano niskich i wysokich liczb i rzadko wybierano liczby dwucyfrowe lub okrągłe, chyba że ustawienie temperatury było maksymalne, co doprowadziło do rzadszych wyborów dokonywanych przez firmę Gemini.
Nie wynika to ze świadomości czy wiedzy o losowości, ale raczej z odbicia danych szkoleniowych modeli. Bez żadnej prawdziwej logiki systemy te udzielają odpowiedzi wyłącznie na podstawie tego, jak często otrzymywały dane. Jest mniej prawdopodobne, że liczba zostanie wybrana przez model, jeśli nie pojawia się często jako odpowiedź w zestawie szkoleniowym.
To naśladowanie ludzkich wzorców wyborów w pozornie prostych zadaniach, takich jak wybieranie liczb, ilustruje, jak modele sztucznej inteligencji odzwierciedlają uprzedzenia i zachowania obecne podczas ich szkolenia danych, często prowadząc do antropomorficznych interpretacji ich działań.
Pomimo pozorów „myślenia” jak ludzie, modelom tym brakuje zrozumienia i świadomości; działają wyłącznie na przetwarzanych przez siebie danych, odsłaniając zarówno potencjał, jak i ograniczenia obecnych technologii AI.