2 ianuarie 2025
OpenAI nu și-a îndeplinit promisiunea de a oferi o opțiune de renunțare până în 2025. Compania a declarat în mai că funcționează pe instrumentul Media Manager, care le-ar oferi creatorilor puterea de a decide care dintre creațiile lor sunt incluse în seturile sale de date de instruire AI. Șapte luni mai târziu, instrumentul care ar trebui să ajute la rezolvarea problemelor de proprietate intelectuală și să liniștească criticii nu a fost lansat.
Potrivit persoanelor din interior care au vorbit cu TechCrunch, dezvoltarea internă a instrumentului nu a fost o prioritate de vârf. Un coordonator care lucrează cu OpenAI a subliniat lipsa actualizărilor recente, iar un fost angajat a recunoscut că nu a văzut aproape niciun progres. Fred von Lohmann, membru al echipei juridice a instrumentului, a ocupat chiar și o poziție de consultanță cu jumătate de normă.
OpenAI nu a furnizat nicio actualizare cu privire la dezvoltarea sau lansarea viitoare a Media Manager, care a fost destinat să ajute la gestionarea mediului complex de proprietate intelectuală pe care modelele AI trebuie să-l navigheze. Aceste modele, cum ar fi ChatGPT și Sora de la OpenAI, învață din seturi masive de date și pot genera conținut care seamănă foarte mult cu datele originale, ceea ce poate duce la procese din partea producătorilor.
Tehnicile ad-hoc de renunțare sunt deja disponibile prin OpenAI, deși dezvoltatorii le critică ca fiind insuficiente. Scopul noului instrument a fost să extindă aceste opțiuni și să ofere o soluție mai cuprinzătoare pentru procedurile de renunțare și proprietatea conținutului.
Experții se îndoiesc dacă Media Manager ar putea rezolva cu succes aceste probleme dacă ar fi introdus. Ei susțin că instrumentul ar putea să nu reducă în mod semnificativ problemele juridice sau să îndeplinească cerințele de protecție a conținutului și de plată, ceea ce înseamnă că autorii ar fi împovărați în mod nedrept cu gestionarea instruirii AI.
Semnificația Media Manager în circumstanțe legale este încă necunoscută, deoarece OpenAI este încă supus proceselor și dependent de apărarea utilizării loiale. Instrumentul nu este destinat să ofere un răspuns complet la problemele de proprietate intelectuală asociate cu modelele de IA de formare; mai degrabă, este o încercare de relații publice de a stabili OpenAI ca utilizator de conținut etic.
Aprinde-ți pasiunea pentru AI: învață cum să transformi datele în soluții puternice și scalabile cu Code Labs Academy online Data Science & AI Bootcamp.