ChatGPT Plus erabiltzaileek sarbide goiztiarra dute OpenAIren ahots-modu aurreratuan

ChatGPT Plus erabiltzaileek sarbide goiztiarra dute OpenAIren ahots-modu aurreratuan

OpenAI-k asteartean hasi zuen ChatGPTren Ahots Modu Aurreratua zabaltzea, erabiltzaileei hasierako sarbidea emanez GPT-4o-ren audio erantzun hiperrealistak. Gaur egun, alfa bertsioa ChatGPT Plus erabiltzaile talde mugatu batek eskura dezake, 2024ko udazkenerako Plus erabiltzaile guztiei erabilgarritasuna zabaltzeko asmoarekin.

OpenAI-k maiatzean GPT-4o-ren ahotsa aurkeztu zuenean, ikusleak harrituta geratu ziren bere erantzun azkarrak eta benetako giza ahotsarekin zuen antza izugarria. Sky izeneko ahotsak "Her" pelikulako Scarlett Johansson aktorearen tonuaren oihartzun estua zuen. Demoa argitaratu, Johanssonek beldurra sortu zuen antzekotasunarengatik eta ordezkaritza legala eskatu zuen bere irudia babesteko. OpenAIk Johanssonen ahotsaren erabilera gezurtatu zuen eta, ondoren, demotik kendu zuen. Ekainean, OpenAIk Ahots Modu Aurreratua abiarazteko atzerapena jakinarazi zuen segurtasun-protokoloak indartzeko.

Hilabete geroago, OpenAI funtzio hau inplementatzen hasten da; hala ere, udaberriko eguneraketan nabarmendutako bideoak eta pantaila partekatzeko funtzioak ez dira hasierako alfa bertsioaren parte izango. Gaur egun, premium erabiltzaile hautatuek lehenago erakutsitako ahots funtzioa erabili ahal izango dute.

Ahots-modu aurreratua egungo Ahots-modutik bereizten da GPT-4o-ren erabileraren bidez, ahots-testurako, testu-prozesatzeko eta testu-ahotserako funtzioak modu independentean kudeatzen dituen eredu multimodala, interakzio azkarragoak lortzeko. OpenAI-k dio GPT-4o-k erabiltzailearen ahotsaren bidez transmititutako ñabardura emozionalak hautemateko gaitasuna duela, tristura, zirrara edo musika-tonuak abesten dituen sentimenduak barne.

Etapa pilotu honetan, ChatGPT Plus-en erabiltzaileek Ahots Modu Aurreratuaren funtzio hiperrealistak ezagutuko dituzte. OpenAI pixkanaka funtzio hau sartzen ari da bere erabilera gertutik gainbegiratzeko. Alfa taldeko erabiltzaileei ChatGPT aplikazioan jakinaraziko zaie eta, ondoren, argibide zehatzak jasoko dituzte posta elektroniko bidez.

Maiatzeko demoaz geroztik, OpenAIk probak egin ditu GPT-4o-ren ahots-funtzionalitateei buruz, 45 hizkuntza ezberdin hitz egiten dituzten kanpoko 100 talde gorri baino gehiagorekin. Segurtasun ekimen hauei buruzko txostena abuztuaren hasieran kaleratzea aurreikusten da. Ahots-modu aurreratuak ChatGPT-ren aurrez ezarritako lau ahotsak bakarrik izango ditu —Juniper, Breeze, Cove eta Ember— ahots-aktore profesionalekin elkarlanean landuak. Maiatzean erakutsitako Sky ahotsa eten egin da. OpenAIko bozeramaile Lindsay McCallum-en arabera, ChatGPT-k ezin du pertsona zehatz batzuen ahotsak errepikatu eta aurrez ezarritako ahotsetatik desbideratzen diren irteerak sortzea eragotziko du.


Irudia: OpenAI

Code Labs Academy © 2024 Eskubide guztiak erreserbatuta.