
La ley de la Unión Europea para regular el desarrollo, el uso y la aplicación de la inteligencia artificial ya está en vigor.
El Ley de IA es la primera ley importante sobre IA del mundo y fue Dada la luz verde final por los estados miembros del bloque, los legisladores y el órgano ejecutivo, la Comisión Europea, en mayo. La ley armoniza las normas sobre el uso y el desarrollo de la IA en todo el mercado único de la UE.
«Esta ley histórica, la primera de su tipo en el mundo, aborda un desafío tecnológico global que también crea oportunidades para nuestras sociedades y economías», dijo Mathieu Michel, secretario de Estado belga de digitalización. «Con la Ley de IA, Europa enfatiza la importancia de la confianza, la transparencia y la responsabilidad a la hora de tratar con nuevas tecnologías, al tiempo que garantiza que esta tecnología en rápida evolución pueda florecer e impulsar la innovación europea».
Aunque la Ley de IA es una legislación de la UE, tendrá un impacto importante en las empresas tecnológicas globales, especialmente en los EE. UU. Sin embargo, la mayoría de las disposiciones de la ley no entrarán en vigor hasta 2026, y las empresas tienen meses para cumplirlas.
Esto es lo que necesita saber sobre la histórica ley de IA.
¿Cómo se aspecto de la Ley de IA?
La Ley de IA fue propuesta por primera parte por la Comisión Europea en 2020 con el objetivo de garantizar que los sistemas de IA se utilicen y desarrollen en la UE son seguros y confiables. También pretende garantizar que los sistemas de IA respeten las leyes existentes sobre los derechos fundamentales de los ciudadanos de la UE e impulsar la inversión y la innovación de IA en el bloque.
La ley sigue un enfoque “basado en el riesgo” para regular la IA, lo que significa que cuanto mayor sea el riesgo de daño, más estricta será la norma. Los sistemas de IA clasificados como de “riesgo limitado” solo deben ser transparentes, mientras que los de la categoría de “alto riesgo” deben cumplir ciertos requisitos y obligaciones para poder comercializarse en la UE. Esas obligaciones incluyen medidas de evaluación y mitigación de riesgos, así como conjuntos de datos de alta calidad que minimicen los sesgos. Los sistemas de IA de alto riesgo incluyen dispositivos médicos y sistemas de identificación biométrica.
Mientras tanto, los sistemas de IA que pueden usarse para la manipulación cognitiva conductual y la puntuación social están prohibidos en el bloque. Los sistemas de IA que dependen de datos biométricos, como la raza y la orientación sexual, para la vigilancia predictiva también están prohibidos.
¿Dónde encaja la IA generativa en todo esto?
En virtud de la ley, IA generativa Los modelos se consideran IA de propósito general o modelos que pueden completar tareas a un nivel cercano al humano. Se considera que los modelos de IA de propósito general no plantean riesgos sistémicos y tienen requisitos y obligaciones limitados, como la transparencia de cómo se entrenan los modelos.
La Ley de IA define los modelos de IA de propósito general como: “capaces de generar texto, imágenes y otros contenidos”. Si bien los modelos de propósito general, como ChatGPT de OpenAI y Géminis de Google“presentan oportunidades únicas de innovación”, también presentan “desafíos para los artistas, autores y otros creadores y la forma en que se crea, distribuye, usa y consume su contenido creativo”.
Por lo tanto, estos modelos están sujetos a requisitos estrictos con respecto a la legislación de derechos de autor de la UE, pruebas de rutina y ciberseguridad.
Mientras tanto, la IA de código abierto, como Modelos de Llama de Meta, también está bajo regulación con algunas excepciones para los desarrolladores que hacen parámetros disponibles públicamente y permitir el “acceso, uso, modificación y distribución del modelo”.
¿Cómo se ven afectadas las empresas tecnológicas estadounidenses?
La mayoría de los sistemas avanzados de IA que se incluyen en la Ley de IA son desarrollados por empresas tecnológicas de Estados Unidos, incluidas Apple, Google y Meta. Sin embargo, es probable que la ley vaya más allá de las empresas tecnológicas que construyen y desarrollan IA, e impacte a las empresas que usan la tecnología o desarrollan sus propios sistemas.
En julio, Meta anunció que había decidido no lanzar sus próximos y futuros modelos de IA multimodal en la UE “debido a la naturaleza impredecible del entorno regulatorio europeo”. La decisión de la compañía siguió a la de Apple, que dijo en junio que no lanzaría sus próximos y futuros modelos de IA multimodal en la UE. Es probable que no lance su nueva Apple Intelligence y otras funciones de inteligencia artificial en el bloque debido a la Ley de Mercados Digitales. Aunque los modelos multimodales de Meta estarán bajo una licencia abierta, Las empresas en Europa no podrán utilizarlos sobre la decisión de la compañía, informó Axios. Y, según se informa, a las empresas fuera del bloque se les puede bloquear la posibilidad de ofrecer productos y servicios en el continente que utilicen los modelos de Meta. Sin embargo, Meta tiene una versión más grande, de solo texto, de su modelo Llama 3 que estará disponible en la UE cuando se lance, dijo la compañía a Axios.
En junio, Meta dijo que entrenamiento de retraso es modelos de lenguaje de gran tamaño sobre datos públicos de usuarios de Facebook e Instagram en la Unión Europea tras enfrentarse al rechazo de la Comisión de Protección de Datos de Irlanda (DPC).
¿Cuáles son las sanciones por no seguir las reglas?
Si una empresa infringe la Ley de IA, se enfrenta a una multa equivalente a un porcentaje de su facturación anual global del ejercicio anterior o a una cantidad predeterminada (el coste que sea mayor). Las multas pueden oscilar entre 35 millones de euros (38 millones de dólares) o el 7 % de la facturación global, y 7,5 millones de euros (8,1 millones de dólares) o el 1 % de la facturación.
Las multas son proporcionales para las pequeñas y medianas empresas y las empresas emergentes.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.