2 gennaio 2025
OpenAI non è riuscita a mantenere la promessa di offrire un'opzione di rinuncia entro il 2025. La società ha dichiarato a maggio che stava funzionando sullo strumento Media Manager, che darebbe ai creatori il potere di decidere quali delle loro creazioni includere nei set di dati di addestramento dell'IA. Sette mesi dopo, lo strumento che avrebbe dovuto aiutare a risolvere i problemi di proprietà intellettuale e placare le critiche non è stato rilasciato.
Secondo addetti ai lavori che hanno parlato con TechCrunch, lo sviluppo interno dello strumento non era una priorità assoluta. Un coordinatore che lavora con OpenAI ha sottolineato la mancanza di aggiornamenti recenti e un ex dipendente ha ammesso di non aver notato quasi alcun progresso. Fred von Lohmann, membro del team legale dello strumento, ha persino assunto una posizione di consulente part-time.
OpenAI non ha fornito alcun aggiornamento riguardante lo sviluppo o l'imminente rilascio di Media Manager, che aveva lo scopo di aiutare a gestire il complesso ambiente di proprietà intellettuale in cui i modelli di intelligenza artificiale devono navigare. Questi modelli, come ChatGPT e Sora di OpenAI, apprendono da enormi set di dati e possono generare contenuti che assomigliano molto ai dati originali, portando potenzialmente ad azioni legali da parte dei produttori.
Tecniche di opt-out ad hoc sono già disponibili tramite OpenAI, sebbene gli sviluppatori le critichino come insufficienti. L'obiettivo del nuovo strumento era ampliare queste scelte e offrire una soluzione più completa per le procedure di rinuncia e la proprietà dei contenuti.
Gli esperti dubitano che Media Manager possa risolvere con successo questi problemi se introdotto. Sostengono che lo strumento potrebbe non ridurre in modo significativo le questioni legali o soddisfare i requisiti di protezione dei contenuti e di pagamento, il che implica che gli autori sarebbero ingiustamente gravati dalla gestione della formazione sull’intelligenza artificiale.
Il significato di Media Manager in circostanze legali è ancora sconosciuto poiché OpenAI è ancora soggetto a cause legali e dipendente dalle difese del fair use. Lo strumento non è destinato a fornire una risposta completa ai problemi di proprietà intellettuale associati all'addestramento dei modelli di intelligenza artificiale; piuttosto, è un tentativo di pubbliche relazioni per affermare OpenAI come utente di contenuti etici.
Accendi la tua passione per l'intelligenza artificiale: scopri come trasformare i dati in soluzioni potenti e scalabili con il Data Science & AI Bootcamp di Code Labs Academy )._