2 Januarie 2025
OpenAI het nie sy belofte nagekom om 'n opt-out-opsie teen 2025 aan te bied nie. Die maatskappy het in Mei gesê dit werk op die Media Manager-nutsding, wat skeppers die mag sal gee om te besluit watter van hul skeppings by sy KI-opleidingdatastelle ingesluit is. Sewe maande later is die instrument wat veronderstel is om intellektuele eiendomskwessies op te los en kritici te paai, nie vrygestel nie.
Volgens ingeligtes wat met [TechCrunch] gepraat het (https://techcrunch.com/2025/01/01/openai-failed-to-deliver-the-opt-out-tool-it-promised-by-2025/), interne ontwikkeling van die instrument was nie 'n topprioriteit nie. 'n Koördineerder wat met OpenAI werk, het die gebrek aan onlangse opdaterings uitgewys, en 'n voormalige werknemer het erken dat hy amper geen vordering gesien het nie. Fred von Lohmann, 'n lid van die instrument se regspan, het selfs 'n deeltydse konsultasiepos beklee.
OpenAI het geen opdaterings verskaf oor die ontwikkeling of komende vrystelling van Media Manager nie, wat bedoel was om te help om die komplekse intellektuele eiendomsomgewing wat KI-modelle moet navigeer, te bestuur. Hierdie modelle, soos OpenAI se ChatGPT en Sora, leer uit massiewe datastelle en kan inhoud genereer wat baie ooreenstem met die oorspronklike data, wat moontlik tot regsgedinge van die vervaardigers kan lei.
Ad hoc-opt-out tegnieke is reeds beskikbaar deur OpenAI, hoewel ontwikkelaars dit as onvoldoende kritiseer. Die doel van die nuwe instrument was om hierdie keuses uit te brei en 'n meer omvattende oplossing vir opt-out-prosedures en inhoudeienaarskap te bied.
Kenners twyfel of Media Manager hierdie kwessies suksesvol kan oplos as dit ingestel word. Hulle voer aan dat die instrument dalk nie regskwessies aansienlik verminder of aan inhoudbeskerming en betalingsvereistes voldoen nie, wat impliseer dat skrywers onregverdig belas sal word met die bestuur van KI-opleiding.
Die belangrikheid van Mediabestuurder in regsomstandighede is steeds onbekend, aangesien OpenAI steeds onderhewig is aan regsgedinge en afhanklik van billike gebruik verdediging. Die instrument is nie bedoel om 'n volledige antwoord te gee op die intellektuele eiendomskwessies wat verband hou met opleiding van KI-modelle nie; eerder, dit is 'n openbare betrekkinge poging om OpenAI te vestig as 'n gebruiker van etiese inhoud.
Vuur jou passie vir KI aan: Leer hoe om data in kragtige, skaalbare oplossings te omskep met Code Labs Academy se aanlyn Data Science & AI Bootcamp.