La UE ha dado el primer paso hacia una regulación de la Inteligencia Artificial, siguiendo el marco legislativo acordado el 8 de diciembre de 2023.
Se ha alcanzado un hito significativo: el Parlamento Europeo ha aprobado la primera ley que regula la Inteligencia Artificial en el continente, conocida como el Reglamento Europeo de la Inteligencia Artificial. Este marco legislativo, previamente acordado el 8 de diciembre del año pasado por la Comisión, el Consejo y el propio Parlamento Europeo, tiene como objetivo principal mitigar los riesgos asociados con esta tecnología sin frenar la innovación.
El pleno de la Eurocámara ha dado el último paso necesario para la adopción de esta normativa europea, que surgió después de intensas negociaciones durante los últimos días de la presidencia española del Consejo de la Unión Europea a finales de 2023, lideradas por Carme Artigas, entonces secretaria de Estado de Digitalización, tal y como ha apuntado El Confidencial.
Con una amplia mayoría de votos a favor (523 a favor, 46 en contra y 49 abstenciones), esta nueva regulación busca establecer los cimientos de esta industria emergente que está transformando rápidamente la tecnología y la sociedad, priorizando la seguridad, la transparencia y la responsabilidad.
La nueva normativa establece requisitos y obligaciones para las aplicaciones de IA según el nivel de riesgo que presenten, utilizando un sistema de clasificación que categoriza los riesgos en diferentes niveles: inaceptable, alto, limitado y mínimo, determinando así su legalidad.
Las normas generales sobre IA se aplicarán un año después de su entrada en vigor, en mayo de 2025, y las obligaciones para los sistemas de alto riesgo en tres años. Estarán bajo la supervisión de las autoridades nacionales, apoyadas por la Oficina de IA dentro de la Comisión Europea. Ahora corresponderá a los Estados miembros crear agencias nacionales de supervisión, según informa Euronews.
¿Qué prohíbe el nuevo Reglamento?
La nueva ley oficializa la prohibición de sistemas algorítmicos que vulneren los derechos fundamentales, como la puntuación social, el reconocimiento de emociones, la vigilancia policial predictiva o el rastreo de datos biométricos para inferir características personales como la raza, orientación sexual u opiniones políticas. Esto incluye casos como la manipulación electoral o la evaluación crediticia por entidades financieras. Sin embargo, quedan pendientes temas controvertidos como la protección de los derechos de autor, especialmente en el contexto del desarrollo de modelos de IA generativa.
A modo de orientación, el nivel más elevado de riesgo lo ocupan los sistemas de identificación biométrica remota. No obstante, se permite el uso de cámaras de identificación biométrica por parte de las fuerzas del orden, siempre y cuando cuenten con autorización judicial previa, con el objetivo de prevenir amenazas terroristas inminentes.
En el otro extremo, en la categoría de menor riesgo, se incluyen funciones como los filtros de spam o los detectores de duplicados de texto, los cuales pueden ser utilizados sin restricciones, siempre y cuando los proveedores informen a los usuarios sobre el uso de una herramienta de IA. Además, el reglamento impone una serie de responsabilidades para los sistemas de IA Generativa, como aquellos empleados en programas como ChatGPT de OpenAI o Gemini de Google. Por ejemplo, estos sistemas deben indicar si un texto, una canción o una imagen ha sido generada mediante IA.
Además, la institución ha revelado las penalizaciones por no cumplir con la ley, las cuales pueden variar entre 7,5 millones de euros o el 1,5% del volumen de negocio, y 35 millones de euros o el 7% del volumen de negocio, dependiendo de la infracción y el tamaño de la empresa. Estas sanciones estarán bajo la supervisión de la AI Office, una entidad establecida específicamente para asegurar el cumplimiento de las regulaciones.
Impacto de la Ley de la IA en los bancos
Desde Finovate, han resumido las cuatro cambios principales que establece la nueva normativa de la IA y su afectación para los bancos. La primera que destacan es la prohibición de la nueva Ley del uso de IA para el reconocimiento de emociones en entornos laborales y educativos, así como la implementación de puntuaciones sociales y la vigilancia policial predictiva basada exclusivamente en la creación de perfiles. Esta restricción afectará cómo los bancos y las empresas tecnológicas financieras emplean la IA en las interacciones con los clientes, en la suscripción y en la detección de fraudes.
La segunda es el cumplimiento. La normativa destaca a la banca como un servicio esencial tanto público como privado y la clasifica como un uso de alto riesgo de la IA. Por lo tanto, las entidades bancarias deben evaluar y mitigar los riesgos, mantener registros de uso, ser transparentes y precisos, y garantizar la supervisión humana de la IA. La ley garantiza a los ciudadanos dos derechos principales en relación con el uso de IA en sus servicios bancarios: el derecho a presentar quejas y el derecho a recibir explicaciones sobre las decisiones tomadas con IA. Esto requerirá que los bancos y las empresas tecnológicas financieras mejoren su gestión de riesgos y actualicen sus procesos de cumplimiento para adaptarse a los servicios impulsados por la IA.
En cuanto a la transparencia, comentan que la Ley exige que los bancos que empleen sistemas y modelos de IA con propósitos generales cumplan con la ley de derechos de autor de la UE y la publicación de resúmenes detallados sobre el contenido del entrenamiento.
Finalmente, la Ley puede beneficiar a los bancos en tanto que esta establece la disponibilidad de entornos de pruebas regulatorios y pruebas en el mundo real a nivel nacional para ayudar a las empresas a desarrollar y capacitar el uso de la IA antes de su implementación.
Sigue toda la información de Open Hub News en X y Linkedin , o en nuestra newsletter.