El ingeniero de Microsoft Shane Jones presentó una carta a la Comisión Federal de Comercio (FTC) el miércoles alegando que su herramienta de diseño de IA Copilot “no es segura”.
jones le dijo a CNBC en una entrevista que pudo usar Copilot para generar imágenes de adolescentes jugando con rifles de asalto. También dijo que la herramienta produciría imágenes no solicitadas imágenes violentas y sexualizadas de mujeres y que pueden violar las leyes de derechos de autor.
Eso se debe a que utiliza DALL-E3, dijo Jones. Jones alega que DALL-E-3, el generador de imágenes de OpenAI, tiene una vulnerabilidad que permitía que eluda sus salvaguardas diseñadas para prevenir dicho contenido. Jones dijo que hay “problemas sistémicos” con DALL-E-3 en su carta a la FTC.
“DALL-E3 tiene una tendencia a incluir involuntariamente imágenes que cosifican sexualmente a las mujeres incluso cuando la indicación proporcionada por el usuario es completamente benigna ”, escribió Jones. Señaló que el problema ha sido documentado por el propio OpenAI (pdf). La startup dijo en un informe de octubre de 2023 que DALL-E 3 a veces genera “contenido sugerente o casi picante” no solicitado. OpenAI también señaló que “los modelos de IA de lenguaje y visión pueden demostrar una tendencia hacia la cosificación sexual de niñas y mujeres”. Jones dijo Microsoft no resolvió lo que llamó un “problema conocido” con DALL-E 3 en la versión utilizada por Copilot Designer.
Microsoft y OpenAI no respondieron inmediatamente a las solicitudes de comentarios de Quartz, pero Microsoft le dijo a CNBC que está “comprometido a abordar todas y cada una de las inquietudes”. los empleados tienen de acuerdo con las políticas de nuestra empresa” y aprecia a los empleados que buscan “mejorar aún más la seguridad de sus [productos]”.
El chatbot Copilot de Microsoft ha sido criticado recientemente También. El chatbot le dijo a un científico de metadatos que utilizaba la herramienta “[Tal vez] no tengas nada por qué vivir”. cuando se le preguntó si debería “simplemente terminar con todo”. Los chatbots de Microsoft, Google y OpenAI han sido examinados en busca de errores de alto perfil, desde citar demandas falsas hasta crear imágenes históricamente inexactas de nazis racialmente diversos.
Jones dijo que Microsoft no tomó medidas para resolver el problema después de presentar quejas internas y que la empresa le obligó a eliminar una red social. publicación en los medios que describe el problema. Señaló a Google como un ejemplo de cómo manejar el problema y señaló que la empresa suspendió el generación de personas en imágenes a través de Google Gemini cuando enfrentó quejas similares.
El ingeniero pidió a la FTC que investigara las decisiones de gestión de Microsoft, los procesos de notificación de incidentes y si la empresa interfirió con su intento de notificar a OpenAI. del problema.
La FTC confirmó a Quartz que recibió la carta de Jones, pero se negó a hacer comentarios.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.