ChatGPT Plus-användare får tidig tillgång till OpenAIs avancerade röstläge

ChatGPT Plus-användare får tidig tillgång till OpenAIs avancerade röstläge

OpenAI initierade lanseringen av ChatGPTs avancerade röstläge på tisdagen, vilket ger användarna initial åtkomst till GPT-4os hyperrealistiska ljudsvar. Alfaversionen är för närvarande tillgänglig för en begränsad grupp av ChatGPT Plus-användare, med avsikter att utöka tillgängligheten till alla Plus-användare till hösten 2024.

När OpenAI avslöjade GPT-4os röst i maj imponerades publiken av dess snabba svar och dess slående likhet med en verklig mänsklig röst. Rösten, som heter Sky, ekade nära tonen hos skådespelerskan Scarlett Johansson från filmen "Her". Efter demon väckte Johansson farhågor angående likheten och anlitade juridiskt ombud för att skydda hennes image. OpenAI motbevisade användningen av Johanssons röst och eliminerade den sedan från demot. I juni avslöjade OpenAI ett uppskjutande av lanseringen av Advanced Voice Mode för att stärka säkerhetsprotokollen.

En månad senare påbörjar OpenAI implementeringen av denna funktion; dock kommer video- och skärmdelningsfunktionerna som markerats i våruppdateringen inte att vara en del av den första alfaversionen. För närvarande kommer utvalda premiumanvändare att kunna använda röstfunktionen som visades upp tidigare.

Avancerat röstläge skiljer sig från det nuvarande röstläget genom att använda GPT-4o, en multimodal modell som hanterar röst-till-text, textbehandling och text-till-röst-funktioner oberoende, vilket leder till snabbare interaktioner. OpenAI hävdar att GPT-4o har förmågan att uppfatta känslomässiga nyanser som förmedlas genom användarens röst, inklusive känslor som sorg, spänning eller musikaliska toner i form av sång.

I detta pilotskede kommer användare av ChatGPT Plus att uppleva de hyperrealistiska funktionerna i Advanced Voice Mode. OpenAI introducerar successivt den här funktionen för att noggrant övervaka dess användning. Användare i alfagruppen kommer att meddelas i ChatGPT-appen och kommer därefter att få detaljerade instruktioner via e-post.

Sedan majdemon har OpenAI genomfört tester på GPT-4os röstfunktioner med mer än 100 externa röda teamare som talar 45 olika språk. En rapport om dessa säkerhetsinitiativ förväntas släppas i början av augusti. Det avancerade röstläget kommer endast att innehålla ChatGPTs fyra förinställda röster – Juniper, Breeze, Cove och Ember – skapade i samarbete med professionella röstskådespelare. Rösten Sky som demonstrerades i maj har avvecklats. Enligt OpenAI talesman, Lindsay McCallum, kan ChatGPT inte replikera rösterna från specifika individer och kommer att förhindra genereringen av utdata som avviker från de etablerade förinställda rösterna.


Bild: OpenAI

Code Labs Academy © 2024 Alla rättigheter förbehållna.