El Parlamento Europeo aprobó la Ley de Inteligencia Artificial que garantiza la seguridad y el cumplimiento de los derechos fundamentales, al tiempo que impulsa la innovación, un reglamento, acordado en negociaciones con los Estados miembros en diciembre de 2023, el cual fue respaldado por los eurodiputados con 523 votos a favor, 46 en contra y 49 abstenciones.
De acuerdo a agencias internacionales, se trata de la primera ley de su tipo está preparada para remodelar la forma en que las empresas y organizaciones en Europa utilizan la IA para todo, desde decisiones de atención médica hasta actividades policiales.
En su presentación, el Parlamento detalló que su objetivo es proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad ambiental frente a la IA de alto riesgo, al tiempo que impulsa la innovación y establece a Europa como líder en este campo. El reglamento establece obligaciones para la IA en función de sus riesgos potenciales y nivel de impacto.
En busca de establecer barreras para otras aplicaciones consideradas de “alto riesgo”, esta ley prohíbe, entre otras cosas, los sistemas de puntuación social impulsados por IA y cualquier herramienta biométrica utilizada para establecer la raza, las inclinaciones políticas o la orientación sexual de una persona.
Prohíbe el uso de IA para interpretar las emociones de las personas en las escuelas y lugares de trabajo, así como algunos tipos de perfiles automatizados destinados a predecir la probabilidad de que una persona cometa delitos en el futuro.
Pese a ello, también se expusieron algunas exenciones de aplicación de la ley, como ejemplo, sin bien el uso de sistemas de identificación biométrica (RBI) por parte de las fuerzas del orden está prohibido en principio, sólo puede implementarse si se cumplen estrictas salvaguardias, por ejemplo, su uso está limitado en el tiempo y el alcance geográfico y está sujeto a una autorización judicial o administrativa previa específica.
Dichos usos pueden incluir, por ejemplo, la búsqueda selectiva de una persona desaparecida o la prevención de un ataque terrorista. El uso de dichos sistemas post-facto se considera un caso de uso de alto riesgo, que requiere autorización judicial vinculada a un delito penal.
Además, también se prevén obligaciones claras para otros sistemas de IA de alto riesgo, que incluyen infraestructura crítica, educación y capacitación vocacional, empleo, servicios públicos y privados esenciales, como la atención médica, banca, ciertos sistemas de aplicación de la ley, migración y gestión de fronteras, justicia y procesos democráticos.
Dichos sistemas deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos y garantizar la supervisión humana. Los ciudadanos tendrán derecho a presentar quejas sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten a sus derechos.
Por ahora, el reglamento aún está sujeto a una revisión final por parte de los juristas lingüistas y se espera que sea adoptado definitivamente antes de que finalice la legislatura, en junio de este año. Además, la ley también necesita ser respaldada formalmente por el Consejo.
Entrará en vigor veinte días después de su publicación en el Diario Oficial, y será plenamente aplicable 24 meses después de su entrada en vigor, excepto: prohibiciones de prácticas, que se aplicarán seis meses después de la fecha de entrada en vigor.
Sigue leyendo:
– Google se propone ponerle fin al spam generado con IA y así planea hacerlo
– El próximo paso en el desarrollo de la IA podría estar mucho más cerca de lo que pensaban todos
– Cuál es el trabajo mejor pagado del mundo en 2024, según la inteligencia artificial