Microsoft prohíbe a la policía usar su IA para el reconocimiento facial

Microsoft dijo que su servicio Azure OpenAI no debe ser utilizado “por o para” la policía estadounidense con fines de reconocimiento facial

Es posible que se gane una comisión por los enlaces en esta página.
Satya Nadella hablando con las manos en alto frente a un fondo azul que tiene el logotipo de Microsoft
Satya Nadella, presidente y director ejecutivo de Microsoft.
Foto: Ethan Miller (Getty Images)

Microsoft está prohibiendo el uso de su servicio de inteligencia artificial para el reconocimiento facial “por o para” los departamentos de policía en los Estados Unidos.

Publicidad

en su código de conducta actualizado Para su servicio Azure OpenAI, la compañía también dijo que las integraciones con el servicio no deben usarse para la tecnología de reconocimiento facial en tiempo real utilizada. por parte de “cualquier agente de la ley a nivel mundial”, incluyendo cámaras móviles y montadas en tableros, para intentar identificar a un individuo de manera no controlada, en el ambientes salvajes», o “intentar identificar a individuos presentes en una base de datos de sospechosos o reclusos anteriores».

Servicio OpenAI de Azure brinda a los clientes empresariales acceso a OpenAI modelos en lenguaje grande (LLM). El servicio es totalmente administrado por Microsoft y limitado a clientes que ya tienen una asociación con la empresa, lo utilizan para menores casos de riesgo, y que se enfocan en mitigaciones.

Publicidad

La semana pasada, Axon, una empresa que fabrica tecnología y armas, incluso para el cumplimiento de la ley, lanzó una Programa de software impulsado por IA que permite a la policía automatizar informes. El producto, llamado Borrador uno, es un “nuevo y revolucionario producto de software que redacta narrativas de informes policiales de alta calidad en segundos”. Axon dijo que Draft One está impulsado por OpenAI El LLM más potente, GPT-4, y puede escribir informes a partir de audio de transcripción automática de las cámaras corporales de la policía vendidas por la empresa.

Publicidad

Sin embargo, los críticos de la herramienta dijeron que podría ser problemático considerando La IA tiene problemas con las “alucinaciones” — o inventar información falsa o sin sentido — y puede usarse para absolver a la policía de responsabilidades legales si un reporte incluye información inexacta .

Publicidad

Dave Maass, director de investigaciones sobre tecnologías de vigilancia de la Electronic Frontier Foundation, le dijo a Forbes El Draft One es “una especie de pesadilla”. Agregó que la policía no está capacitada para usar herramientas impulsadas por inteligencia artificial y, por lo tanto, es posible que no comprender el alcance de la tecnología.

No está claro si el código de conducta actualizado de Microsoft está relacionado con el lanzamiento del producto de Axon.

Publicidad

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.

Publicidad