OpenAI tiene un nuevo comité de seguridad y, por supuesto, incluye a Sam Altman

El anuncio se produce apenas unas semanas después de que el equipo de peligros existenciales de IA de la empresa fuera cerrado.

Es posible que se gane una comisión por los enlaces en esta página.
Sam Altman
Foto: Chris Ratcliffe/Bloomberg (Getty Images)

OpenAI ha formado una nueva comité de seguridad y protección después de su El equipo de peligros existenciales fue disuelto a principios de este mes.

Publicidad

el nuevo equipo de supervisión Estará dirigida por el presidente de la junta, Bret Taylor, los directores Adam D’Angelo y Nicole Seligman, y el director ejecutivo de OpenAI. Sam Altman, anunció la compañía de inteligencia artificial el martes. La primera tarea del comité será evaluar y desarrollar los procesos y salvaguardas de OpenAI durante los próximos 90 días, dijo la empresa.

Al final del período de tres meses, el comité compartirá sus recomendaciones con la junta completa y, luego de la revisión, la compañía Compartir públicamente una actualización sobre las recomendaciones adoptadas.

Publicidad

La empresa también confirmó que ha comenzado a entrenar su modelo de IA de “próxima frontera” que sucederá al modelo GPT-4 que impulsa su chatbot, ChatGPT, y lo ayudará a avanzar hacia inteligencia general artificial (AGI).

Publicidad

El comité de seguridad también incluirá expertos técnicos y en políticas de OpenAI, incluido el jefe de preparación Aleksander Madry, la jefa de sistemas de seguridad Lilian Weng, el jefe de ciencia de alineación John Schulman, el jefe de seguridad Matt Knight y el científico jefe Jakub Pachocki.

Publicidad

Esto se produce después de que la empresa cerrara al equipo responsable de los peligros existenciales de la IA después de que los dos codirectores de la llamada “superalineación” de la empresa equipo — cofundador y científico jefe Ilya Sutskever y Jan Leike — renunció el 14 de mayo.

Tras su partida, Leike escribió en un hilo en X que había llegado a un “punto de ruptura” sobre desacuerdos con las prioridades fundamentales de la empresa, añadiendo que la “cultura y procesos de seguridad han pasado a un segundo plano a los productos brillantes » en los últimos pocos años.

Publicidad

Sutskever, quien ayudó a derrocar brevemente a Altman del liderazgo de OpenAI a fines del año pasado, y Leike se unió a las filas de varios otros. Empleados de OpenAI que tienen salieron de la compañía en los últimos meses, incluidos otros del equipo de superalineación e investigadores que trabajaban en políticas y gobernancia de La empresa se ha desviado de su misión original.

En respuesta a las salidas de alto perfil, Altman y el presidente de OpenAI, Greg Brockman, dijeron en un publicación co-firmada en X que continúan sentando las bases para implementar modelos de IA cada vez más capaces de una manera segura. “Necesitamos seguir elevando nuestra La seguridad trabaja para igualar los desafíos de cada nuevo modelo”, dijeron.

Publicidad

Esto incluye un “circuito de retroalimentación muy estrecho, pruebas rigurosas, una consideración cuidadosa en cada paso, seguridad de clase mundial y armonía de seguridad y capacidades. ”, escribió la pareja.

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.

Publicidad