Cuando el tablero de OpenAI despidió a Sam Altman A finales de 2023, los miembros de la junta dijeron que él “no era consistentemente sincero en sus comunicaciones”. La declaración generó más preguntas que respuestas. llamando indirectamente a Sam Altman mentiroso, pero ¿sobre qué exactamente? Seis meses después, los creativos y antiguos empleados están pidiendo una vez más al público que cuestionar la confiabilidad de OpenAI.
Este mes, OpenAI afirmó La voz de ChatGPT, Sky, Nunca tengo parecerse a Scarlett Johansson de Su, provocando que la premiada actriz emitir una declaración pública condenatoria y amenazaron con acciones legales. La voz en cuestion ahora ha sido eliminada. También este mes, dos grandes nombres en la comunidad de IA quien dirigió un equipo de seguridad dentro de OpenAI renunció. Uno de los ejecutivos, Jan Leike, dijo al salir que la “cultura de seguridad” de OpenAI y los procesos han pasado a un segundo plano frente a los productos brillantes”. Ed Zitron escribe, cada vez es más difícil aceptar OpenAI al pie de la letra.
En primer lugar, la afirmación de que Sky no suena como Johansson es literalmente increíble. Gizmodo escribió un artículo afirmando que sonaba como la película. Su Justo después del lanzamiento de GPT-4 Omni, como lo hicieron muchas otras publicaciones, los ejecutivos de OpenAI parecieron insinuar en broma el parecido alrededor del lanzamiento. Altman tuiteó la palabra “su” ese día. El líder de investigación de Audio AGI de OpenAI tiene captura de pantalla de la película como fondo en X. Todos pudimos ver lo que OpenAI buscaba. En segundo lugar, Johansson afirma que Altman se acercó dos veces a ella para darle voz al asistente de audio de ChatGPT. OpenAI dice que Sky era un actor completamente diferente, pero la afirmación les parece a muchos falsa.
La semana pasada, Altman dijo que estaba ”avergonzado”sobre no conocer su empresa obligó a los empleados a guardar silencio sobre cualquier mala experiencia en OpenAI de por vida o a renunciar a su capital. El acuerdo de no menosprecio para toda la vida fue revelado por un informe vox, hablando con un ex empleado de OpenAI que se negó a firmarlo. Si bien muchas empresas tienen acuerdos de confidencialidad, no todos los días ver uno este extremo.
Altman dijo en una entrevista en enero que no sabía si el científico jefe de OpenAI, Ilya Sutskever, estaba trabajando en la empresa. Justo la semana pasada Sutskever y su codirector de Superalineación, Leike, abandonó OpenAI. Leike dijo que los recursos de Superalignment estaban siendo desviados a otras partes de la empresa durante meses.
En marzo, la directora de tecnología, Mira Murati, dijo ella no estaba segura si Sora fue entrenado en vídeos de YouTube. El director de operaciones Brad Lightcap duplicó esta confusión al esquivando una pregunta sobre ello en la Cumbre de tecnología de Bloomberg en mayo. A pesar de eso, El New York Times informa que miembros altos de OpenAI estuvieron involucrados en la transcripción de videos de YouTube para entrenar modelos de IA . El lunes, el CEO de Google Sundar Pichai contó El borde que si OpenAI entrenara en vídeos de YouTube, eso no sería apropiado.
En última instancia, OpenAI está envuelto en un misterio y la cuestión de la “franqueza inconsistente” de Sam Altman simplemente no desaparecerá. Esto puede ser perjudicial La reputación de OpenAI, pero el misterio también juega a favor de OpenAI. La empresa se ha presentado como una startup secreta con la clave de nuestra futurista y, al hacerlo, OpenAI ha captado con éxito nuestra atención colectiva. A lo largo del misterio, la empresa ha seguido lanzando cortes productos de IA de vanguardia. Dicho esto, es difícil no tener escepticismo sobre las comunicaciones de OpenAI, una empresa construida sobre la premisa de siendo “abierto”.
A version of this article originally appeared on Gizmodo.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.