Como OpenAI lanza la versión avanzada del modo voz por su último modelo, GPT-4oLa compañía afirma que la función podría aumentar el riesgo de que algunos usuarios vean los modelos de inteligencia artificial como “similares a los humanos”.
La voz “humana y de alta fidelidad” de GPT-4o podría resolver el problema de alucinaciones, o la tendencia de un modelo a inventar información falsa o sin sentido, peor aún, dijo OpenAI en un Informe sobre la seguridad del modelo de IA, lo que podría afectar la confianza humana.
Durante las primeras pruebas de trabajo en equipo y de usuario internas, OpenAI afirmó que observó que los usuarios hablaban con el modelo con un “lenguaje que podría indicar que se estaban formando conexiones con el modelo”, como cuando un usuario le dijo al modelo: “Este es nuestro último día juntos”.
“Si bien estos casos parecen benignos, indican la necesidad de seguir investigando cómo estos efectos podrían manifestarse durante períodos más prolongados”, afirmó OpenAI, y agregó que sigue investigando el riesgo con usuarios más diversos y con estudios académicos e internos.
Si bien formar “relaciones sociales” con modelos de IA podría ayudar a las personas solitarias, también podría afectar las relaciones saludables al reducir la necesidad de interacción entre humanos, dijo OpenAI. Depender de los modelos de IA para una interacción “similar a la humana” también podría “influir en las normas sociales”, dijo la empresa, como interrumpir conversaciones en cualquier momento, lo que el modelo permite hacer a los usuarios, pero sería atípico en una conversación con una persona real.
Las capacidades de voz de GPT-4o, que debutó en mayo, se probaron con Más de 100 miembros externos del equipo rojo en 45 idiomas, y el modelo de IA fue entrenado para hablar solo en cuatro voces preestablecidas para proteger la privacidad de los actores de voz. GPT-4o está diseñado para bloquear salidas que usan voces que no están preestablecidas y, por lo tanto, no se pueden usar para hacerse pasar por personas y figuras públicas. OpenAI también agregó barandillas para bloquear solicitudes de audio con derechos de autor, incluida música, y contenido erótico, violento y dañino.
OpenAI está abordando un riesgo que fue el foco del director ejecutivo La película favorita de Sam Altman, Su, que muestra a un hombre que desarrolla sentimientos por una asistente virtual con la voz de la actriz Scarlett Johansson. En mayo, los usuarios dijeron que una de las voces de GPT-4o, Sky, sonaba similar a la de Johansson, lo que llevó a la compañía a pausar la voz, diciendo que no tenía la intención de imitar a la actriz Johansson dijo en una carta Ella estaba “conmocionada, enojada e incrédula” de que la compañía usara una voz que sonaba “inquietantemente similar” a la suya después de que ella se había negado a trabajar con Altman.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.