2 januari 2025
OpenAI is zijn belofte niet nagekomen om tegen 2025 een opt-out-optie aan te bieden. Het bedrijf zei in mei dat het werkte op de Media Manager-tool, die makers de macht zou geven om te beslissen welke van hun creaties worden opgenomen in de AI-trainingsdatasets. Zeven maanden later is het instrument dat verondersteld wordt kwesties op het gebied van intellectueel eigendom op te lossen en critici te sussen, nog niet vrijgegeven.
Volgens insiders die met TechCrunch spraken, de interne ontwikkeling van de tool had geen topprioriteit. Een coördinator die met OpenAI werkt, wees op het gebrek aan recente updates, en een voormalig medewerker gaf toe dat hij vrijwel geen vooruitgang had gezien. Fred von Lohmann, lid van het juridische team van de tool, bekleedde zelfs een parttime adviesfunctie.
OpenAI heeft geen updates verstrekt met betrekking tot de ontwikkeling of aanstaande release van Media Manager, die bedoeld was om de complexe intellectuele eigendomsomgeving te helpen beheren waarin AI-modellen moeten navigeren. Deze modellen, zoals ChatGPT en Sora van OpenAI, leren van enorme datasets en kunnen inhoud genereren die sterk lijkt op de originele gegevens, wat mogelijk kan leiden tot rechtszaken van de producenten.
Ad hoc opt-out-technieken zijn al beschikbaar via OpenAI, hoewel ontwikkelaars deze als onvoldoende beschouwen. Het doel van de nieuwe tool was om deze keuzes uit te breiden en een uitgebreidere oplossing te bieden voor opt-outprocedures en contenteigendom.
Experts betwijfelen of Media Manager deze problemen met succes zou kunnen oplossen als het werd geïntroduceerd. Ze beweren dat de tool de juridische problemen misschien niet significant zal verminderen of zal voldoen aan de vereisten voor inhoudsbescherming en betaling, wat impliceert dat auteurs onredelijk belast zouden worden met het beheren van AI-trainingen.
De betekenis van Media Manager in juridische omstandigheden is nog onbekend, aangezien OpenAI nog steeds onderworpen is aan rechtszaken en afhankelijk van verdedigingen tegen redelijk gebruik. De tool is niet bedoeld om een volledig antwoord te bieden op de problemen op het gebied van intellectueel eigendom die gepaard gaan met het trainen van AI-modellen; het is eerder een PR-poging om OpenAI te profileren als gebruiker van ethische inhoud.
Ontstek uw passie voor AI: leer hoe u gegevens omzet in krachtige, schaalbare oplossingen met de online [Data Science & AI Bootcamp] van Code Labs Academy(https://codelabsacademy.com/en/courses/data-science-and-ai ).