La semana pasada, Sam Altman se disculpó por los contratos de OpenAI que amenazó con recuperar el capital de antiguos empleados, afirmando en un tuit que “no sabía que esto estaba sucediendo y que debería haberlo hecho”. .” Ahora, documentos filtrado a Vox el miércoles sugirieron que Altman sí lo sabía, mostrando que el CEO y otros altos ejecutivos de OpenAI firmaron documentos que mantenían equidad sobre las cabezas de antiguos empleados.
Una de las condiciones que pondría en peligro el patrimonio de un antiguo empleado de OpenAI en la empresa, potencialmente valorada en millones de dólares, era hablar negativamente sobre OpenAI. Vox informa que cientos de documentos filtrados revelan un patrón de tácticas de alta presión en OpenAI para lograr que los empleados firmen normas no ultrarrestrictivas. -acuerdos de menosprecio y confidencialidad. En algunos casos, a los empleados se les dio solo una semana para perder su capital o aceptar el bozal de OpenAI.
Algunas de estas disposiciones de recuperación de capital obtenidas por Vox fueron supuestamente firmadas por Altman, el director de estrategia Jason Kwon, junto con el ex director de estrategia de la compañía. Diane Yoon, vicepresidenta de Personas. El acuerdo de confidencialidad ultrarrestrictivo supuestamente fue firmado por el director de operaciones, Brad Lightcap. Estos documentos complican las afirmaciones de Altos ejecutivos de OpenAI que no conocían.
Un portavoz de OpenAI le dice a Gizmodo que la empresa no ha quitado ni quitará nunca el capital adquirido a un empleado. El portavoz reiteró el sentimiento de Altman de que OpenAI ahora está eliminando las cláusulas de no menosprecio de sus trámites de salida y está liberando a los antiguos empleados de estas obligaciones.
“Lamentamos muchísimo que solo estemos cambiando este lenguaje ahora; no refleja nuestros valores ni la empresa que queremos ser”, dijo un portavoz de OpenAI en una declaración enviada por correo electrónico a Gizmodo.
Algunos empleados clave han abandonado OpenAI recientemente y han expresado bastante en voz alta sus quejas al salir. Investigador senior Jan Leike renunció la semana pasada y notó que la “cultura y los procesos de seguridad” de OpenAI han pasado a un segundo plano frente a los productos brillantes. Gretchen Krueger, ex investigadora de políticas de OpenAI publicado en X El miércoles abandonó la empresa y compartió las preocupaciones de Leike. Sin embargo, también tenía más preocupaciones propias.
“Necesitamos hacer más para mejorar aspectos fundamentales como los procesos de toma de decisiones; la rendición de cuentas; la transparencia; la documentación; la aplicación de políticas”, dijo Krueger en un publicar en X.
Krueger pasó a enumerar aún más inquietudes sobre OpenAI. Advirtió que estas quejas “no deben malinterpretarse como estrechas, especulativas o desconectados. No lo están”. En un tuit de seguimiento, escribe que las empresas tecnológicas pueden quitarle poder a las personas al sembrar división entre quienes crían preocupaciones. Esto parece describir indirectamente la división que se ha estado gestando dentro de OpenAI durante meses, que salió a la luz por primera vez con el derrocamiento de Ilya Sutskever. de Sam Altman.
El informe detalla cómo la mayoría de los empleados cedieron bajo la presión de OpenAI y firmaron los NDA restrictivos. Aunque OpenAI dice que no se han recuperado el patrimonio de nadie, eso ciertamente no significa que la empresa no haya silenciado a los antiguos empleados con la amenaza de ello. Ahora, más que nunca, Los antiguos empleados de OpenAI parecen estar hablando en masa contra las prácticas preocupantes dentro de la startup más popular de Silicon Valley.
A version of this article originally appeared on Gizmodo.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.