En julio pasado, OpenAI anunció su Equipo de “superalineación”, una unidad dedicada a controlar los peligros existenciales de la inteligencia artificial, un esfuerzo al que la empresa dijo que estaba dedicando el 20% de su potencia informática durante los próximos cuatro años. Pero la compañía según no cumplió sus compromisos.
Según los informes, las solicitudes del equipo de Superalignment para acceder a las GPU (o unidades de procesamiento de gráficos, que se utilizan para entrenar y ejecutar modelos de IA) fueron rechazados repetidamente por el liderazgo de OpenAI. El presupuesto de potencia informática prometido por el equipo tampoco estuvo nunca cerca de alcanzar el 20%, informó Fortune, citando personas no identificadas familiarizadas con el equipo. OpenAI disolvió el equipo la semana pasada, después de que sus codirectores Ilya Sutskever y Jan Leike renunciaran a la compañía. OpenAI no respondió de inmediato a una solicitud de comentario.
Las fuentes le dijeron a Fortune que al equipo de Superalineación nunca se le asignó el poder de computación prometido y que recibió mucho menos del presupuesto de computación regular de Una persona dijo que OpenAI no estableció condiciones claras sobre cómo se asignaría el 20% prometido de la potencia de cómputo. tales como si sería “20% cada año durante cuatro años” o “5% anual durante cuatro años”.
Mientras tanto, el equipo de Superalineación fue informado repetidamente por Bob McGrew, vicepresidente de investigación de OpenAI, que es Se rechazaron las solicitudes de GPU adicionales más allá de lo ya presupuestado. Pero Otros líderes de OpenAI, incluida la directora de tecnología Mira Murati, estuvieron involucrados en el rechazo de las solicitudes, dijeron fuentes a Fortune.
Ese cambio de inversión no fue un buen augurio para el equipo de seguridad. Sin la potencia informática asignada, el equipo de Superalineación no pudo lograr más investigación ambiciosa, dijo una persona a Fortune. Las fuentes también respaldaron la investigación de Leike relato de la experiencia del equipo que compartió en X después de anunciar su renuncia de la empresa. Leike escribió que “la cultura y los procesos de seguridad han pasado a un segundo plano a productos brillantes», y que el equipo a veces estaba luchando por la informática y que cada vez era más difícil conseguir esta investigación crucial. hecho.”
Algunas fuentes dijeron a Fortune que el acceso del equipo a la potencia informática empeoró después de que el jefe ejecutivo de OpenAI, Sam Altman, fuera destituido temporalmente en noviembre, un esfuerzo. liderado por Sutskever, quien fue cofundador y científico jefe de la compañía. Sin embargo, una persona dijo que los problemas eran anteriores al derrocamiento . Sutskever no tuvo acceso al equipo de Superalineación después del Acción de Gracias, dijeron fuentes.
Sutskever y Leike se unieron lista de otros empleados de OpenAI que han partido la empresa recientemente, incluidos otros del equipo de Superalineación e investigadores que trabajan en la política y gobernanza de la IA.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.