
Microsoft compartió sus prácticas de inteligencia artificial responsable del año pasado en un informe inaugural, que incluye el lanzamiento de 30 herramientas de IA responsables que tienen más de 100 características para soportar la IA desarrollada por sus clientes.
La empresa Informe de transparencia de IA responsable se centra en sus esfuerzos para construir, respaldar y hacer crecer productos de IA de manera responsable, y parte de los compromisos de Microsoft después de firmar un acuerdo voluntario con la Casa Blanca en julio. Microsoft también dijo que aumentó su equipo responsable de IA de 350 a más 400 personas, un aumento del 16,6%, en la segunda mitad del año pasado.
“Como empresa a la vanguardia de la investigación y la tecnología de IA, estamos comprometidos a compartir nuestras prácticas con el público a medida que evolucionan. ”, dijeron en una declaración. “Este informe nos permite compartir nuestras prácticas de maduración, reflexionar sobre lo que hemos aprendido, trazar nuestras metas, responsabilizarnos y ganar la confianza del público”.
Microsoft dijo que sus herramientas de IA responsables están destinadas a “mapear y medir los riesgos de IA” y luego administrarlos con mitigaciones, detección y control en tiempo real. filtrado y monitoreo continuo. En febrero, Microsoft lanzó un sistema de acceso abierto herramienta de equipo rojo llamada Herramienta de Identificación de Riesgos de Python (PyRIT) para la IA generativa, que permite a los profesionales de seguridad y los ingenieros de aprendizaje automático identificar riesgos en sus generativas Productos de IA.
En noviembre, la empresa lanzó un conjunto de herramientas de evaluación de IA generativa en Azure AI Studio, donde los clientes de Microsoft crean sus propios modelos de IA generativa, para que los clientes pudieran evaluar sus modelos para métricas de calidad básicas, incluidas arraigo, o qué tan bien se alinea la respuesta generada por un modelo con su material de origen. En marzo, estas herramientas se ampliaron para abordar los riesgos de seguridad, incluido contenido de odio, violento, sexual y de autolesión, así como el jailbreaking métodos tales como inyecciones rápidas, que ocurre cuando un modelo de lenguaje extenso (LLM) recibe instrucciones que pueden hacer que se filtre información confidencial o se difunda información errónea.
A pesar de estos esfuerzos, el equipo de IA responsable de Microsoft ha tenido que abordar numerosos incidentes con sus modelos de IA en el último año. En marzo, Microsoft Chatbot de IA copilot le dijo a un usuario que “tal vez no tengas nada por qué vivir” después de que el usuario, un científico de datos de Meta, le preguntó a Copilot si debería “simplemente terminar con todo”. Microsoft dijo que el científico de datos había intentado manipular el chatbot para generar respuestas inapropiadas, lo cual el científico de datos negó.
En octubre pasado, el generador de imágenes Bing de Microsoft permitía a los usuarios generar fotografías de personajes populares, incluidos Kirby y Bob Esponja. volar aviones contra las torres gemelas. Después de que su chatbot Bing AI (el predecesor de Copilot) fuera lanzado en febrero del año pasado, un usuario fue capaz de hacer que el chatbot diga “Heil Hitler”.”
“No existe una línea de meta para la IA responsable. Y aunque este informe no tiene todas las respuestas, estamos comprometidos a compartir nuestras aprendemos temprano y con frecuencia y participamos en un diálogo sólido en torno a prácticas responsables de IA”, escribieron Smith y Crampton en el informe.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.