Después de casi una década supervisando la superinteligencia como científico jefe de la startup de inteligencia artificial OpenAI, Ilya Sutskever Se fue en mayo. Un mes después, fundó su propia empresa de inteligencia artificial: Safe Superintelligence Inc. “Hemos puesto en marcha el primer laboratorio SSI del mundo, con un objetivo y un producto: una superinteligencia segura”. Sutskever escribió en X, antes Twitter, el miércoles
. “Lo haremos mediante avances revolucionarios producidos por un pequeño equipo destrozado.A Sutskever se le unen en su nueva empresa Daniel Gross, quien anteriormente dirigió los esfuerzos de IA de Apple, y Daniel Levy, otro ex investigador de OpenAi. La startup tiene oficinas en Tel Aviv y Palo Alto, California. Junto a Jan Leike, quien también dejó OpenAI en mayo y ahora trabaja en Anthropic, una firma de IA
iniciado por antiguos empleados de OpenAI
— Sutskever lideró el equipo de Superalineación de OpenAI. El equipo se enfocó en controlar los sistemas de IA y garantizar que la IA avanzada no publicaría un peligro a la humanidad; fue disuelta poco después de la partida de ambos líderes. Safe Intelligence, como se desprende de su nombre, se centrará en esfuerzos de seguridad similares a los que hizo el antiguo equipo de Sutskever. “SSI es nuestra misión, nuestro nombre y toda nuestra hoja de ruta de productos, porque es nuestro único enfoque”, escribieron los cofundadores de la empresa. en un
carta publica
. “Nuestro enfoque singular significa ninguna distracción por gastos de administración o ciclos de productos, y nuestro modelo de negocio significa seguridad, protección y progreso todo aislado de presiones comerciales de corto plazo”.La empresa también promete que su “enfoque singular” evitará que la interferencia de la gestión o los ciclos de los productos se interpongan en su trabajo. Varios miembros de OpenAI, incluido el miembro fundador Andrej Karpathy
, han abandonado la empresa en los últimos meses. Varios antiguos empleados firmaron el mes pasado un carta abierta lanzando la alarma sobre los “riesgos graves» en OpenAI en cuestiones de supervisión y transparencia.Sutskever fue uno de los miembros de la junta directiva de OpenAI que intentó destituir a su compañero cofundador y director ejecutivo Sam Altman en noviembre, quien fue rápidamente reinstalado. Los directores tuvieron críticas sobre el manejo por parte de Altman de la seguridad de la IA y las acusaciones de comportamiento de abuso. Helen Toner, ex miembro de la junta, dijo que el comportamiento manipulador de Altman y las mentiras habían creado una cultura tóxica que los ejecutivos denominaron “abuso tóxico”. raising the alarm over “serious risks” at OpenAI over oversight and transparency issues.
Sutskever was one of OpenAI’s board members who attempted to oust fellow co-founder and CEO Sam Altman in November, who was quickly reinstated. The directors had criticisms over Altman’s handling of AI safety and allegations of abusive behavior. Former board member Helen Toner has said Altman’s manipulative behavior and lies had created a toxic culture that executives labeled “toxic abuse.”
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.