El ex científico jefe de OpenAI está lanzando una nueva startup de IA centrada en la ‘superinteligencia’ segura

Ilya Sutskever solía liderar el equipo de OpenAI centrado en frenar los peligros de la IA avanzada

Es posible que se gane una comisión por los enlaces en esta página.
Ilya Sutskever dejó OpenAI en mayo, donde codirigió el equipo de “superalineación” de la empresa.
Ilya Sutskever dejó OpenAI en mayo, donde codirigió el equipo de “superalineación” de la empresa.
Foto: Jack Guez/AFP (Getty Images)

Después de casi una década supervisando la superinteligencia como científico jefe de la startup de inteligencia artificial OpenAI, Ilya Sutskever Se fue en mayo. Un mes después, fundó su propia empresa de inteligencia artificial: Safe Superintelligence Inc. “Hemos puesto en marcha el primer laboratorio SSI del mundo, con un objetivo y un producto: una superinteligencia segura”. Sutskever escribió en X, antes Twitter, el miércoles

Publicidad

. “Lo haremos mediante avances revolucionarios producidos por un pequeño equipo destrozado.A Sutskever se le unen en su nueva empresa Daniel Gross, quien anteriormente dirigió los esfuerzos de IA de Apple, y Daniel Levy, otro ex investigador de OpenAi. La startup tiene oficinas en Tel Aviv y Palo Alto, California. Junto a Jan Leike, quien también dejó OpenAI en mayo y ahora trabaja en Anthropic, una firma de IA

iniciado por antiguos empleados de OpenAI

— Sutskever lideró el equipo de Superalineación de OpenAI. El equipo se enfocó en controlar los sistemas de IA y garantizar que la IA avanzada no publicaría un peligro a la humanidad; fue disuelta poco después de la partida de ambos líderes. Safe Intelligence, como se desprende de su nombre, se centrará en esfuerzos de seguridad similares a los que hizo el antiguo equipo de Sutskever. “SSI es nuestra misión, nuestro nombre y toda nuestra hoja de ruta de productos, porque es nuestro único enfoque”, escribieron los cofundadores de la empresa. en un

Publicidad

carta publica

. “Nuestro enfoque singular significa ninguna distracción por gastos de administración o ciclos de productos, y nuestro modelo de negocio significa seguridad, protección y progreso todo aislado de presiones comerciales de corto plazo”.La empresa también promete que su “enfoque singular” evitará que la interferencia de la gestión o los ciclos de los productos se interpongan en su trabajo. Varios miembros de OpenAI, incluido el miembro fundador Andrej Karpathy

Publicidad

, han abandonado la empresa en los últimos meses. Varios antiguos empleados firmaron el mes pasado un carta abierta lanzando la alarma sobre los “riesgos graves» en OpenAI en cuestiones de supervisión y transparencia.Sutskever fue uno de los miembros de la junta directiva de OpenAI que intentó destituir a su compañero cofundador y director ejecutivo Sam Altman en noviembre, quien fue rápidamente reinstalado. Los directores tuvieron críticas sobre el manejo por parte de Altman de la seguridad de la IA y las acusaciones de comportamiento de abuso. Helen Toner, ex miembro de la junta, dijo que el comportamiento manipulador de Altman y las mentiras habían creado una cultura tóxica que los ejecutivos denominaron “abuso tóxico”. raising the alarm over “serious risks” at OpenAI over oversight and transparency issues.

Publicidad

Sutskever was one of OpenAI’s board members who attempted to oust fellow co-founder and CEO Sam Altman in November, who was quickly reinstated. The directors had criticisms over Altman’s handling of AI safety and allegations of abusive behavior. Former board member Helen Toner has said Altman’s manipulative behavior and lies had created a toxic culture that executives labeled “toxic abuse.”

Publicidad

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.

Publicidad