Un proveedor de software no podrá mentir sobre la precisión de su tecnología de reconocimiento facial impulsada por inteligencia artificial según una nueva orden propuesta por la administración Biden.
El martes, la Comisión Federal de Comercio (FTC) dijo que un orden de consentimiento propuesta con IntelliVision Technologies evitaría que la empresa con sede en San José, California, realice afirmaciones engañosas sobre su software. Eso incluiría cualquier declaración engañosa sobre su rendimiento que identifique a personas de diferentes géneros, etnias y tonos de piel.
A la empresa con sede en San José, California, también se le impediría hacer cualquier afirmación sobre su tecnología sin pruebas “competentes y confiables” que la respalden.
En los últimos seis años, IntelliVision ha afirmado que sus modelos se han entrenado con millones de rostros de todo el mundo y tienen “cero sesgos raciales o de género”, según la agencia. queja. Un hoja informativa En el sitio web de la empresa se afirma que su tecnología tiene una precisión “de hasta +99%”.
Si fuera cierto, sería un gran problema. Desde hace años, la tecnología de reconocimiento facial ha tenido problemas. Identificando mujeres y personas no blancas.
En 2018, un estudiar Los investigadores de Microsoft descubrieron que el software de reconocimiento facial podía equivocarse hasta un tercio de las veces cuando se usaba para identificar mujeres de piel más oscura, incluso cuando lograba resultados casi perfectos con hombres de piel clara. permaneció en gran parte un problema, y Varias empresas Como resultado de ello, me he encontrado con problemas.
El Instituto Nacional de Normas y Tecnología, que está a cargo del Departamento de Comercio, probó los algoritmos de IntelliVision. La organización descubrió que los algoritmos de IntelliVision ni siquiera estaban entre los 100 mejores probados a diciembre de 2023, alegó la FTC en su denuncia.
En lugar de probar su tecnología en millones de rostros, IntelliVision tomó un atajo, según la FTC, entrenando con imágenes de unas 100.000 personas y luego creando variantes de esas imágenes para realizar más pruebas. La FTC también dijo que la compañía no tenía evidencia de que su tecnología anti-suplantación de identidad no pudiera ser engañada por una foto.
“Las empresas no deberían promocionar sistemas de inteligencia artificial libres de sesgos a menos que puedan respaldar esas afirmaciones”, dijo el director de la Oficina de Protección al Consumidor de la FTC, Samuel Levine, en una declaración. “Quienes desarrollan y utilizan sistemas de IA no están exentos de los principios básicos de la publicidad engañosa”.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.