OpenAI retrasó la llegada del modo de voz avanzado que introduce el modelo de lenguaje GPT-4o en el ‘chatbot, y que habilita una conversación más natural, con «emociones y señales no verbales», para asegurarse de que cumplen los «altos estándares de seguridad y fiabilidad».
GPT-4o, presentado en mayo, se diseñó para ofrecer una interacción entre la persona y la máquina «más natural», ya que tiene la capacidad de comprender una combinación de entradas de texto, audio e imagen y generar respuestas en la misma medida con gran velocidad.
Incluye, además, un ‘Modo voz’ avanzado, que permite elegir entre una serie de voces para personalizar la interacción con el chatbot’. Precisamente, una característica que ha generado polémica y ha llegado a la retirada de la voz Sky por parecerse a la de la actriz Scarlett Johansson, quien ya puso voz a un asistente de inteligencia artificial en la película Her, de 2013.
Este modo iba a probarse con un pequeño grupo de usuarios en julio, pero OpenAI ha decidido retrasar su inicio, porque necesitan «un mes más» para alcanzar el estándar que se han marcado, como han informado a través de un comunicado publicado en X (antigua Twitter).
En este tiempo, mejorarán la capacidad del modelo para detectar y rechazar contenido no apropiado y para mejorar la experiencia de usuario. También trabajarán en la infraestructura que respaldará su uso a gran escala y en tiempo real.
La hoja de ruta contempla el lanzamiento de este modo de voz en otoño para los usuarios de la suscripción Plus, aunque puede cambiar. Adicionalmente, esperan incorporar nuevas capacidades de vídeo y uso compartido de pantalla.
«El modo de voz avanzado de ChatGPT puede comprender y responder con emociones y señales no verbales, acercándonos a conversaciones naturales en tiempo real con IA», aseguran desde OpenAI. Por ello, dicen, los plazos en los que está disponible dependerán de cumpla sus «altos estándares de seguridad y fiabilidad».
Europa Press