2 de janeiro de 2025
A OpenAI não cumpriu sua promessa de oferecer uma opção de exclusão até 2025. A empresa disse em maio que estava funcionando na ferramenta Media Manager, que daria aos criadores o poder de decidir quais de suas criações serão incluídas em seus conjuntos de dados de treinamento de IA. Sete meses depois, a ferramenta que deveria ajudar a resolver questões de propriedade intelectual e apaziguar os críticos não foi lançada.
De acordo com fontes que falaram com TechCrunch, o desenvolvimento interno da ferramenta não era uma prioridade máxima. Um coordenador que trabalha com OpenAI apontou a falta de atualizações recentes, e um ex-funcionário admitiu que quase não viu progresso. Fred von Lohmann, membro da equipe jurídica da ferramenta, chegou a assumir um cargo de consultoria em meio período.
A OpenAI não forneceu nenhuma atualização sobre o desenvolvimento ou lançamento futuro do Media Manager, que tinha como objetivo ajudar a gerenciar o complexo ambiente de propriedade intelectual no qual os modelos de IA devem navegar. Esses modelos, como ChatGPT e Sora da OpenAI, aprendem com enormes conjuntos de dados e podem gerar conteúdo que se assemelha muito aos dados originais, potencialmente levando a ações judiciais por parte dos produtores.
Técnicas ad hoc de opt-out já estão disponíveis através da OpenAI, embora os desenvolvedores as critiquem como insuficientes. O objetivo da nova ferramenta era expandir essas opções e oferecer uma solução mais abrangente para procedimentos de exclusão e propriedade de conteúdo.
Os especialistas duvidam que o Media Manager consiga resolver esses problemas com sucesso se for introduzido. Eles argumentam que a ferramenta pode não reduzir significativamente as questões legais ou atender aos requisitos de proteção e pagamento de conteúdo, o que implica que os autores seriam injustamente sobrecarregados com o gerenciamento do treinamento em IA.
A importância do Media Manager em circunstâncias legais ainda é desconhecida, pois a OpenAI ainda está sujeita a ações judiciais e dependente de defesas de uso justo. A ferramenta não se destina a fornecer uma resposta completa às questões de propriedade intelectual associadas ao treinamento de modelos de IA; pelo contrário, é uma tentativa de relações públicas de estabelecer a OpenAI como utilizadora de conteúdo ético.
Desperte sua paixão pela IA: aprenda como transformar dados em soluções poderosas e escaláveis com o Code Labs Academy online Data Science & AI Bootcamp.