Un nuovo studio rivela allucinazioni persistenti nei principali modelli di intelligenza artificiale

Un nuovo studio rivela allucinazioni persistenti nei principali modelli di intelligenza artificiale

Secondo uno studio recente, anche i migliori modelli di intelligenza artificiale sperimentano regolarmente allucinazioni—errori in cui i modelli generano informazioni false o fuorvianti. Tutti i modelli di intelligenza artificiale generativa, da Gemini di Google a Claude di Anthropic e il più recente GPT-4o di OpenAI, presentano questo problema, tuttavia il tipo e la frequenza degli errori differiscono in base ai dati di addestramento.

Nel tentativo di valutare queste allucinazioni, i ricercatori della Cornell, delle università di Washington e Waterloo e dell’organizzazione AI2 hanno confrontato i risultati del modello con fonti affidabili su una varietà di argomenti, tra cui geografia, storia, salute e diritto. Secondo i dati, nessun modello ha funzionato costantemente bene tra tutti gli individui, e quelli che hanno avuto meno allucinazioni lo hanno fatto in parte perché si sono rifiutati di rispondere a domande a cui avrebbero potuto aver risposto in modo errato.

La ricerca sottolinea la persistente difficoltà di fare affidamento su materiale generato dall’intelligenza artificiale, poiché anche i modelli più avanzati sono in grado di generare testi precisi e privi di allucinazioni solo in circa il 35% dei casi. Questa indagine include argomenti più difficili che non sono coperti da Wikipedia, come cultura, finanza e medicina, mentre gli studi precedenti si concentravano spesso su domande con risposte facilmente accessibili su Wikipedia. Abbiamo valutato più di una dozzina di modelli noti, come Gemini 1.5 Pro di Google, Llama 3 di Meta e GPT-4o.

Lo studio ha scoperto che, sebbene i modelli di intelligenza artificiale abbiano fatto progressi, il tasso di allucinazioni non è diminuito in modo significativo. I modelli di OpenAI erano tra quelli che avevano meno probabilità di produrre risultati imprecisi; tuttavia, i modelli hanno avuto più difficoltà a rispondere a domande sulla finanza e sulle celebrità che su geografia e informatica.

Non solo i modelli privi di capacità di ricerca sul web faticano a rispondere a problemi non coperti da Wikipedia, ma i modelli più piccoli hanno sovraperformato quelli più grandi in termini di tasso di allucinazioni. Questi risultati mettono in dubbio i progressi che i fornitori di intelligenza artificiale affermano di aver fatto.

La ricerca indica che le allucinazioni saranno un problema per qualche tempo a venire e che i criteri utilizzati per valutare questi modelli potrebbero non essere sufficienti. Il modello Claude 3 Haiku, che ha ottenuto una maggiore precisione non rispondendo a circa il 28% delle domande, è un esempio di modello che i ricercatori propongono come soluzione intermedia. Modelli di programmazione per fare lo stesso. D’altro canto, non è chiaro se le persone tollereranno un modello che si rifiuta costantemente di rispondere.

I ricercatori sostengono una legislazione che garantisca che gli esperti umani siano coinvolti nella verifica dei contenuti generati dall’intelligenza artificiale, nonché sforzi più concentrati per ridurre le allucinazioni, magari attraverso il controllo dei fatti da parte dell’uomo e procedure di citazione migliorate. Credono che ci sia molto potenziale per migliorare gli strumenti di controllo dei fatti e offrire correzioni per i contenuti che sono stati alterati da allucinazioni.

Code Labs Academy © 2025 Tutti i diritti riservati.