ENTREVISTAS

“La Ley de IA europea será aplicable en dos años”



Dirección copiada

Andrea Fernández, consultora Derecho TIC y Protección de Datos de Secure&IT, comenta los aspectos esenciales de la futura ley europea de IA

Publicado el 27 oct 2023

Rufino Contreras

Redactor Jefe



Andrea Fernández

¿Qué aspectos fundamentales va a tratar la ley de IA?

La propuesta de Reglamento sobre Inteligencia Artificial tiene un claro enfoque orientado a los riesgos que los sistemas de IA pueden suponer para la seguridad, salud y derechos fundamentales de las personas. Por ello, establece una clasificación de cuatro niveles: inaceptable, alto, limitado y mínimo.

Los sistemas de IA con un riesgo inaceptable, como los relativos a manipulación cognitiva o identificación biométrica en tiempo real, se consideran una amenaza para las personas y serán prohibidos. En cuanto a los sistemas de IA de riesgo alto, deberán cumplir con una serie de obligaciones como, por ejemplo, realizar evaluaciones de riesgo durante todo el ciclo de vida, ser aprobados mediante procedimientos adecuados antes de su uso o ser supervisados por personas físicas. Y, respecto a los sistemas de riesgo limitado, deberán ser transparentes e informar a los usuarios de que están interactuando con una IA, salvo en aquellas situaciones en las que resulte evidente.

¿Cuáles son las últimas novedades introducidas en el reglamento?

Entre las novedades introducidas en la última versión de propuesta de Reglamento cabe destacar la regulación específica y completa sobre los modelos fundacionales (eficiencia energética y medioambiental, gestión de calidad y riesgos, inscripción en un registro europeo…) y los requisitos específicos que se prevén para los sistemas de IA generativa, como la obligación de revelar que los contenidos han sido generados por IA, diseñar sistemas que impidan la generación de contenidos ilegales, etc.

Asimismo, el texto incorpora nuevas definiciones en términos relevantes como “modelo fundacional, “sistema de inteligencia artificial”, “riesgo significativo”, “identificación biométrica”, “ultrafalsificación” o “espacio controlado de pruebas”, entre otros.

¿A cuánto ascienden las multas por incumplir la ley de la IA?

Otro de los aspectos relevantes es el régimen sancionador. Las multas más altas podrán ser de hasta 40 millones de euros o, si es una empresa, hasta el 7% del volumen de negocio total anual global del ejercicio financiero anterior. Además, el texto propone que los proveedores, distribuidores, importadores o cualquier otro tercero, no puedan repartirse la carga de las sanciones y costas procesales, a través de cláusulas contractuales.

El Reglamento prevé una moratoria de dos años antes de que sea plenamente aplicable

¿Su aplicación es obligatoria y directa para los estados miembro de la UE?

El Reglamento de IA resultará de aplicación a los proveedores que introduzcan en el mercado o pongan en servicio sistemas de IA en la Unión, con independencia de si dichos proveedores están establecidos en la Unión o en un tercer país; a los usuarios de sistemas de IA que se encuentren en la Unión; y a los proveedores y usuarios de sistemas de IA que se encuentren en un tercer país, cuando la información de salida generada por el sistema se utilice en la Unión.

¿Cuáles son los plazos de la ley?

Si hablamos de plazos, en junio de este año, el Parlamento Europeo adoptó su posición sobre el texto del Reglamento que, actualmente, se encuentra en fase de trílogos, donde se reúnen miembros de la Comisión, el Parlamento Europeo y el Consejo para tratar de alcanzar un consenso sobre un texto definitivo (previsiblemente a finales de este año).

Una vez esté aprobado, entrará en vigor a 20 días después de su publicación y será aplicable en todos los Estados miembros de la UE sin necesidad de normas de transposición, como sí requieren, por ejemplo, las directivas.

No obstante, el Reglamento prevé una moratoria de dos años antes de que sea plenamente aplicable. En la práctica, esto supone que las organizaciones contarán con 24 meses para adaptarse a las obligaciones de la IA durante los cuales no estarán sujetas a sanciones, aunque deberán garantizar el cumplimiento.

Desde su punto de vista experto, ¿cree que esta normativa será realmente útil?

La aprobación del Reglamento Europeo de Inteligencia Artificial marcará un hito significativo en el sector, al proporcionar un marco normativo nuevo para el desarrollo y uso de la inteligencia artificial en Europa.

La transparencia se promueve activamente, lo que implica que los usuarios pueden comprender cómo se toman las decisiones automatizadas, reduciendo así la opacidad en los procesos algorítmicos. Además, creo que el enfoque basado en riesgos permite una evaluación adecuada de las aplicaciones de IA, priorizando la seguridad y la protección de los derechos fundamentales de las personas.

¿Cómo promover el uso responsable de la inteligencia artificial?

Considero también que el Reglamento favorecerá la adopción responsable de la IA ya que trata de impulsar la innovación ética y sostenible, sentando las bases para un futuro digital más seguro y confiable.

Hay que tener en cuenta que los legisladores han tenido que afrontar el reto de redactar un texto normativo que mantenga un equilibrio entre seguridad jurídica y flexibilidad, procurando que el texto no se quede obsoleto ante las innovaciones tecnológicas que surgen a una velocidad vertiginosa.

Además, el pasado 22 de agosto, el Consejo de Ministros aprobó el estatuto de la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), adscrita al Ministerio de Asuntos Económicos y Transformación Digital

¿Existe algún avance en la materia en el ámbito nacional?

El Ministerio de Asuntos Económicos y Transformación Digital ha publicado un borrador de Real Decreto que crea un espacio controlado de pruebas (sandbox). Será el primer espacio de pruebas para determinar cómo implementar los requisitos aplicables a los sistemas de IA de riesgo alto, según lo previsto en la propuesta de Reglamento europeo de IA.

Además, el pasado 22 de agosto, el Consejo de Ministros aprobó el estatuto de la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), adscrita al Ministerio de Asuntos Económicos y Transformación Digital. Por lo tanto, España se convierte en el primer país europeo con una entidad de supervisión de IA, anticipándose a la entrada en vigor del Reglamento Europeo de Inteligencia Artificial, que requerirá a los Estados miembros designar una autoridad de supervisión de IA.

Seguridad de la IA
Seguridad de la IA

¿Qué implicará a los proveedores tecnológicos la puesta en marcha de la ley?

Una de las principales características de este Reglamento (al igual que sucedió con el Reglamento Europeo de Protección de Datos) es que tiene un ámbito extraterritorial. Esto significa que los requisitos y obligaciones no solo se aplicarán a los proveedores y usuarios de sistemas de IA en la UE. También a los proveedores o usuarios que estén establecidos o ubicados fuera del territorio de la Unión siempre que introduzcan o pongan en servicio sistemas de IA en la UE o la información de salida generada por el sistema se utilice en la UE.

Además, los proveedores tecnológicos estarán sujetos a las sanciones y multas previstas en el reglamento, que pueden ser significativas y tener un impacto financiero considerable en las empresas.

Por lo tanto, las empresas proveedoras de productos y servicios tecnológicos que utilicen sistema de IA tendrán que realizar una inversión para adaptar sus procesos internos, implementando medidas técnicas y organizativas para cumplir con esta normativa.

¿Cree que es posible una aplicación ética de la IA, como dudan algunos expertos?

Al igual que sucede la utilización de otro tipo de tecnologías por parte de las empresas, el uso de herramientas de inteligencia artificial deberá respetar los derechos fundamentales de los ciudadanos y, en particular, los principios rectores de seguridad jurídica, proporcionalidad y no discriminación.

Por ello, el Reglamento sobre IA incluye principios y criterios para que los sistemas de IA garanticen, entre otros aspectos, la supervisión humana, la seguridad, la transparencia, la trazabilidad, la prevención de sesgos y discriminación y el respeto al medioambiente. Como consecuencia, no solo prevé proteger los derechos de los ciudadanos, sino que también se espera generar confianza en los usuarios y en las organizaciones que utilizan estas tecnologías.

TEMAS RELACIONADOS

Ley de IA Europea, las multas por incumplirla podrán superar los 30 millones

El Gobierno “negocia con Europa” la redacción de un “texto definitivo” de Ley de IA antes de que acabe 2023

Artículos relacionados

Artículo 1 de 5