Nel tentativo di replicare l’intelligenza umana, il focus della corsa agli armamenti dell’intelligenza artificiale inizialmente si è concentrato sulla creazione di enormi modelli addestrati su estesi set di dati. Tuttavia, negli ultimi tempi si è verificato un notevole cambiamento, con i giganti della tecnologia e le startup che hanno rivolto sempre più la loro attenzione verso software di intelligenza artificiale più snelli e specializzati, più economici e veloci.
Questi modelli linguistici di piccole e medie dimensioni, progettati appositamente per compiti specifici e addestrati con meno dati, hanno guadagnato una notevole popolarità. A differenza delle loro controparti più grandi, possono essere sviluppati per un costo inferiore a 10 milioni di dollari e utilizzano meno di 10 miliardi di parametri. Per fare un confronto, GPT-4o di OpenAI, uno dei modelli più grandi, ha richiesto oltre 100 milioni di dollari per costruire e ha utilizzato più di un trilione di parametri. La dimensione ridotta di questi modelli si traduce in minori requisiti di potenza di calcolo e prezzi ridotti per query.
Microsoft, ad esempio, ha posto l'accento sulla famiglia di piccoli modelli Phi. Satya Nadella, CEO di Microsoft, afferma che questi modelli sono 1/100 delle dimensioni del modello dietro ChatGPT di OpenAI, ma possono gestire molte attività con efficienza comparabile. Yusuf Mehdi, Chief Commercial Officer di Microsoft, sottolinea la necessità di modelli distinti per compiti diversi, citando i costi più elevati del previsto associati all'esecuzione di modelli di grandi dimensioni. Inoltre, Microsoft ha recentemente introdotto laptop AI che utilizzano numerosi modelli AI per la ricerca e la generazione di immagini. Questi modelli funzionano sul dispositivo stesso senza fare affidamento su estesi supercomputer basati su cloud, come nel caso di ChatGPT.
Anche altre società come Google e startup di intelligenza artificiale come Mistral, Anthropic e Cohere hanno rilasciato modelli più piccoli. Inoltre, Apple ha svelato i piani per integrare piccoli modelli per migliorare la velocità e la sicurezza delle operazioni di intelligenza artificiale sui telefoni.
OpenAI, rinomata per sostenere modelli di grandi dimensioni, ha lanciato una versione più economica del suo modello di punta e intende concentrarsi sullo sviluppo di modelli più piccoli in futuro. I modelli di grandi dimensioni si rivelano eccessivi per attività come il riepilogo di documenti o la generazione di immagini, simili all’utilizzo di un serbatoio per un semplice giro di spesa. I modelli più piccoli, invece, possono offrire prestazioni comparabili a un costo notevolmente inferiore. Questi modelli sono spesso personalizzati per attività specifiche come la gestione di documenti legali o comunicazioni interne. Yoav Shoham di AI21 Labs afferma che i modelli piccoli sono economicamente più fattibili per un uso diffuso, poiché costano solo una frazione di quanto comporterebbero i modelli grandi e forniscono risposte alle domande.
Le aziende stanno adottando prontamente questi modelli più piccoli per migliorare l’efficienza e ridurre i costi. Ad esempio, Experian è passata a modelli più piccoli per i propri chatbot IA e ha ottenuto prestazioni simili a modelli più grandi ma a costi ridotti. Clara Shih di Salesforce sottolinea la praticità dei modelli più piccoli, poiché spesso comportano spese eccessive e problemi di latenza.
Dal rilascio di GPT-4 da parte di OpenAI, non ci sono stati progressi significativi nello sviluppo di modelli di grandi dimensioni, con conseguente stagnazione dei progressi. Di conseguenza, gli sforzi sono stati reindirizzati verso il miglioramento dell’efficienza dei modelli più piccoli. Sébastien Bubeck di Microsoft osserva l'attuale pausa nel grande sviluppo e incoraggia gli sforzi per aumentare l'efficienza.
Nonostante questo cambiamento, i modelli di grandi dimensioni continuano ad avere valore per compiti avanzati. Aziende come Apple e Microsoft continuano a incorporare modelli di grandi dimensioni come come ChatGPT nei loro prodotti, sebbene queste integrazioni in genere rappresentino solo una frazione delle loro iniziative complessive di intelligenza artificiale. Questa progressione significa la trasformazione dell’intelligenza artificiale da dimostrazioni futuristiche a spot pratici.