El equipo de OpenAI responsable de los peligros existenciales de la IA se ha disuelto

Con las salidas de Ilya Sutskever y Jan Leike, el equipo de “superalineación” ya no existe

Es posible que se gane una comisión por los enlaces en esta página.
Ilya Sutskever hablando
Ilya Sutskever, cofundador y científico jefe de OpenAI, habla en la Universidad de Tel Aviv en Tel Aviv el 5 de junio de 2023.
Foto: JACK GUEZ / AFP (Getty Images)

El equipo de OpenAI responsable de los peligros existenciales de la inteligencia artificial ya no existe, después del cofundador y científico jefe Ilya Sutskever — y su colíder del equipo de “superalineación” de la empresa. Jan Leike — renunció el martes.

Publicidad

OpenAI le dijo a Wired que tiene disolvió el equipo, y agregó que su trabajo será absorbido por otros esfuerzos de investigación en toda la empresa. La firma anunció el equipo de superalineación el pasado mes de julio, con Sutskever y Leike al frente.

“La superinteligencia será la tecnología de mayor impacto que la humanidad haya inventado jamás y podría ayudarnos a resolver muchos de los problemas más importantes del mundo”. OpenAI dijo en ese momento. “Pero el vasto poder de la superinteligencia también podría ser muy peligroso y podría conducir a la pérdida de poder de la humanidad. o incluso la extinción humana».

Publicidad

Al equipo se le asignó la tarea de trabajar en este problema, y OpenAI dijo que estaba dedicando el 20% de su cómputo al esfuerzo sobre el los próximos cuatro años.

Publicidad

Sutskever, quien jugó un papel en el derrocamiento momentáneo del jefe ejecutivo de OpenAI, Sam Altman, en noviembre, escribió en X El martes que tomó la decisión de irse después de casi una década en la empresa. “Estoy emocionado por lo que viene después: un proyecto que es muy personalmente significativo para mi sobre el que compartiré detalles a su en tiempo ”, escribió.

Publicidad

El viernes, Leike compartió un hilo en X sobre su decisión de abandonar la empresa, que llamó “una de las cosas más difíciles que he hecho, porque necesitamos con urgencia averiguar cómo gobernar y controlar sistemas de IA mucho más inteligentes que nosotros”.

Leike escribió que se unió a OpenAI porque pensó que “sería el mejor lugar del mundo para realizar esta investigación”, pero que “ha estado en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la empresa durante bastante tiempo, hasta que finalmente llegamos a un punto de ruptura”. Continuó el hilo y escribió que OpenAI debería priorizar la seguridad mientras persigue la inteligencia general artificial o AGI.

Publicidad

Sutskever y Leike se unen lista de otros empleados de OpenAI que han partido la empresa recientemente, incluidos otros del equipo de superalineación e investigadores que trabajan en la política y gobernanza de la IA. Los anuncios llegaron un día después de OpenAI reveló su

el chatbot multimodal AI más nuevo, ChatGPT-4o. the company recently, including others from the superalignment team and researchers working on AI policy and governance. The announcements came a day after OpenAI revealed its newest multimodal AI chatbot, ChatGPT-4o.

Publicidad

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.

Publicidad