OpenAI lanza nuevos modelos para la transcripción y la conversión a voz

shadow

 

OpenAI anunció nuevos modelos de audio y voz con los que busca impulsar las capacidades de agente de los ‘chatbots‘, con el objetivo en el futuro de que los desarrolladores puedan «incorporar sus propias voces personalizadas».

La firma tecnológica presentó dos nuevos modelos de voz a texto que facilitan la transcripción, basado en GPT-4o y GPT-4o mini, que mejoran la tasa de error y el reconocimiento del lenguaje.

OpenAI los compara con los modelos originales de Whisper, de conversión de voz a texto. En concreto, explica que gpt-4o-transcribe mejora el rendimiento en la tasa de error de palabras debido a las novedades aplicadas al aprendizaje por refuerzo y al entrenamiento intermedio con conjuntos de datos de audios diversos de alta calidad.

Las claves del éxito en la gestión comercial

Por otra parte, OpenAI anunció un modelo que realiza la acción inversa: convertir texto a voz. En este caso, el modelo gpt-4o-mini-tts habilita experiencias más personalizadas, ya que «los desarrolladores pueden indicarle al modelo no solo qué decir, sino también cómo decirlo», como recoge en el blog oficial.

De cara al futuro, OpenAI planea mejorar «la inteligencia y la precisión» de los modelos de audio para que los desarrolladores puedan «incorporar sus propias voces personalizadas».

Europa Press- Foto internet-medios

 

1044500
V: | 104