2 stycznia 2025 r
OpenAI nie dotrzymało obietnicy zapewnienia opcji rezygnacji do 2025 r. Firma oświadczyła w maju, że działa na narzędziu Media Manager, które dałoby twórcom możliwość decydowania, które z ich dzieł mają zostać uwzględnione w zbiorach danych szkoleniowych AI. Siedem miesięcy później narzędzie, które miało pomóc rozwiązać problemy własności intelektualnej i uspokoić krytyków, nie zostało wypuszczone.
Według osób, które rozmawiały z TechCrunch, Wewnętrzny rozwój narzędzia nie był najważniejszym priorytetem. Koordynator współpracujący z OpenAI zwrócił uwagę na brak najnowszych aktualizacji, a były pracownik przyznał, że nie widział prawie żadnego postępu. Fred von Lohmann, członek zespołu prawnego narzędzia, podjął nawet stanowisko konsultanta w niepełnym wymiarze godzin.
OpenAI nie dostarczyło żadnych aktualizacji dotyczących rozwoju lub nadchodzącej wersji Media Managera, który miał pomóc w zarządzaniu złożonym środowiskiem własności intelektualnej, w którym muszą poruszać się modele AI. Modele te, takie jak ChatGPT i Sora OpenAI, uczą się na podstawie ogromnych zbiorów danych i mogą generować treści, które bardzo przypominają oryginalne dane, co może prowadzić do procesów sądowych ze strony producentów.
Techniki rezygnacji ad hoc są już dostępne w OpenAI, chociaż programiści krytykują je jako niewystarczające. Celem nowego narzędzia było poszerzenie tych możliwości i zaoferowanie bardziej kompleksowego rozwiązania w zakresie procedur rezygnacji i własności treści.
Eksperci wątpią, czy po wprowadzeniu Media Manager mógłby skutecznie rozwiązać te problemy. Twierdzą, że narzędzie mogłoby nie ograniczyć znacząco kwestii prawnych lub nie spełniać wymogów dotyczących ochrony treści i płatności, co sugeruje, że autorzy byliby niesprawiedliwie obciążani zarządzaniem szkoleniami w zakresie sztucznej inteligencji.
Znaczenie Media Managera w okolicznościach prawnych jest nadal nieznane, ponieważ OpenAI nadal jest przedmiotem pozwów sądowych i opiera się na zabezpieczeniach dozwolonego użytku. Narzędzie nie ma na celu zapewnienia pełnej odpowiedzi na kwestie własności intelektualnej związane z uczeniem modeli AI; jest to raczej próba public relations, mająca na celu ustanowienie OpenAI jako użytkownika treści etycznych.
Rozbudź swoją pasję do sztucznej inteligencji: dowiedz się, jak przekształcać dane w zaawansowane, skalowalne rozwiązania, korzystając z internetowego [Data Science & AI Bootcamp] firmy Code Labs Academy(https://codelabsacademy.com/en/courses/data-science-and-ai ).