Inteligencia artificial va a estar más arraigado en nuestra vida cotidiana, y el liderazgo de OpenAI quiere que el mundo sepa que está asumiendo los riesgos en serio después de la empresa cerró el equipo responsable de los peligros existenciales de la IA.
En una publicación en X firmado por Sam Altman, CEO de OpenAI y el presidente Greg Brockman, los ejecutivos dijeron que continúan sentando las bases para implementar modelos de IA cada vez más capaces de una manera segura. Pero escribieron que el futuro será “más difícil que el pasado”.
“Necesitamos seguir elevando nuestro trabajo de seguridad para igualar los desafíos de cada nuevo modelo”, dijeron el sábado.
“Sabemos que no podemos imaginar todos los escenarios futuros posibles”, agregaron. “Así que necesitamos tener un circuito de retroalimentación muy estrecho”, pruebas rigurosas, consideración cuidadosa en cada paso, seguridad de clase mundial y armonía de seguridad y capacidades», incluidas investigaciones de seguridad dirigidas a diferentes escalas de tiempo, y colaborar con los gobiernos y “muchas partes interesadas” en materia de seguridad.
La publicación llegó un día después de que OpenAI le dijera a Wired que había disolvió el equipo de “superalineación” dirigido por el cofundador y científico jefe Ilya Sutskever, y Jan Leike, quienes anunciaron su salida de la compañía la semana pasada. OpenAI dijo que el trabajo del equipo de “superalineación” será absorbido por otros esfuerzos de investigación en todo la empresa.
Tras su partida, Leike escribió en un hilo en X que había llegado a un “punto de ruptura” sobre desacuerdos con las prioridades básicas de la empresa, añadiendo que la “cultura y procesos de seguridad han pasado a un segundo plano a los productos brillantes » en los últimos pocos años.
Brockman y Altman escribieron el sábado que saben que Leike “seguirá contribuyendo a la misión desde fuera”.
Sutskever, quien ayudó brevemente a derrocar a Altman del liderazgo de OpenAI el año pasado, y Leike se unieron a las filas de varios otros. Empleados de OpenAI que tienen abandonaron la empresa recientemente, incluidos otros del equipo de superalineación e investigadores que trabajan en políticas y gobernanza de IA.
La reestructuración también se produjo después de que OpenAI revelara su el chatbot de IA más nuevo,ChatGPT-4o. Mira Murati, directora de tecnología de la compañía, dijo que las capacidades avanzadas del nuevo chatbot plantean “nuevos desafíos para nosotros cuando llega a un lugar seguro”.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.