I modelli di intelligenza artificiale non smettono mai di affascinarci con le loro capacità e i loro limiti, esibendo comportamenti strani che fanno luce sulla loro forma di base. Un’osservazione degna di nota è che questi algoritmi sembrano avere preferenze per numeri specifici, in modo simile al modo in cui gli esseri umani selezionano i numeri. Questa non è semplicemente una stranezza a livello superficiale; fornisce informazioni su come funzionano questi modelli.
Gli esseri umani hanno un problema ben documentato con la casualità, spesso pensano troppo o interpretano erroneamente cosa significhi realmente. Ad esempio, quando viene chiesto di prevedere il risultato di 100 lanci di una moneta, le previsioni umane in genere non includono le strisce di testa o croce che sono caratteristiche delle sequenze casuali reali. Allo stesso modo, quando si sceglie un numero compreso tra 0 e 100, le persone tendono a preferire opzioni più “neutre”, come quelle che terminano con 7, piuttosto che numeri estremi o di grande impatto visivo.
Inaspettatamente, i sistemi di intelligenza artificiale mostrano la stessa distorsione nella selezione dei numeri degli esseri umani. In un esperimento informale condotto dagli ingegneri Gramener, a molti dei principali modelli linguistici (chatbot LLM) è stato chiesto di selezionare un numero compreso tra 0 e 100. I risultati finali non erano affatto casuali . Anche quando le impostazioni venivano modificate per promuovere l’imprevedibilità e aumentare la casualità, ciascun modello mostrava continuamente una preferenza per numeri particolari. Ad esempio, il modello GPT-3.5 Turbo di OpenAI ne ha spesso selezionati 47, Claude 3 Haiku di Anthropic è andato per 42 mentre Gemini ha optato per 72. Allo stesso modo, altri modelli avevano le proprie preferenze numeriche.
Inoltre, questi modelli si sono tenuti alla larga dai numeri bassi e alti e raramente hanno optato per doppie cifre o cifre tonde a meno che l'impostazione della temperatura non fosse massimizzata, il che ha portato a selezioni meno comuni da parte di Gemini.
Ciò non è dovuto alla consapevolezza o alla conoscenza della casualità, ma piuttosto a una riflessione sui dati di addestramento dei modelli. Senza alcuna logica reale, questi sistemi producono risposte basate solo sulla frequenza con cui sono stati alimentati con i dati. È meno probabile che un numero venga scelto dal modello se non si presenta frequentemente come risposta nel set di addestramento.
Questa imitazione di modelli di scelta di tipo umano in compiti apparentemente semplici come la selezione dei numeri illustra come i modelli di intelligenza artificiale riflettono i pregiudizi e i comportamenti presenti nella loro formazione dati, spesso portando a interpretazioni antropomorfiche delle loro azioni.
Nonostante sembrino “pensare” come gli esseri umani, questi modelli mancano di comprensione e consapevolezza; funzionano solo sui dati che elaborano, esponendo sia il potenziale che i limiti delle attuali tecnologie di intelligenza artificiale.