La regulación europea de la inteligencia artificial, en 3 claves

Los 27 países de la UE han aprobado el "histórico" acuerdo, un paso crucial para impulsar la primera regulación horizontal de esta tecnología en el mundo

Ursula von der Leyen, durante el debate del estado de la Unión en el Parlamento de Estrasburgo, este miércoles.

Ursula von der Leyen, durante el debate del estado de la Unión en el Parlamento de Estrasburgo, este miércoles. / EFE

Carles Planas Bou

La ley europea de la inteligencia artificial (IA) está más cerca que nunca. Este viernes, los 27 países de la UE han aprobado el "histórico" acuerdo político sellado en diciembre, un paso crucial para impulsar la que será la primera regulación horizontal de esta tecnología en todo el mundo.

Fue en abril de 2021 cuando la Comisión Europea propuso la elaboración de un reglamento que dictaminase una serie de requisitos para los usos de la IA según su riesgo. A finales de 2022, cuando parecía haber consenso, la irrupción de ChatGPT devolvió a los legisladores a la casilla de salida. Casi tres años después de esa primera propuesta, el bloque comunitario ha pactado un texto legislativo que marcará los próximos años.

A falta de que aun se detallen distintos flecos técnicos, aquí resumimos las tres claves que hay que saber sobre este ambicioso proyecto.

Categorización según riesgos

La iniciativa conocida como AI Act categoriza los sistemas de IA según los peligros que entrañen para la sociedad. Bruselas establece cuatro estadios distintos. Así, prohibirá los que supongan un "riesgo inaceptable". Es el caso de la manipulación cognitivo-conductual, la clasificación de personas en base a su comportamiento o estatus socioeconómico, o los programas de identificación biométrica en tiempo real.

Un escalón por debajo están los usos de "alto riesgo", permitidos, pero sujetos a estrictas obligaciones. Así, los sistemas que puedan afectar negativamente a la seguridad o a los derechos fundamentales —aplicados en ámbitos como la educación, los automóviles o en el control de fronteras— serán evaluados antes de su comercialización y también durante su ciclo de vida.

En el tercer peldaño están las IA con un riesgo de manipulación "limitado". Se refiere a asistentes virtuales o a sistemas generativos como ChatGPT. Estos deberán cumplir con criterios de transparencia como informar a los usuarios de que están interactuando con una máquina o de que los contenidos que ha creado son sintéticos.

Por último están las que no tienen riesgo o uno "mínimo". Son las IA presentes en la mayoría de servicios digitales que usamos, desde videojuegos a filtros de correo basura. Estas pueden usarse sin necesidad de cumplir con ninguna norma en especial.

IA generativa

2023 fue el año de la eclosión de la IA generativa, los modelos que se alimentan de grandes volúmenes de datos de internet para ser capaces de crear de forma automatizada todo tipo de textos, imágenes o audios. La regulación de estas aplicaciones fue también uno de los aspectos más discutidos entre los legisladores europeos. El texto acordado en diciembre establece que las compañías responsables de esos programas, como Microsoft o Google, deberán ser transparentes e indicar con qué datos los entrenan para evitar así posibles violaciones de los derechos de autor.

Francia es el país que más ha presionado para diluir esas obligaciones, pues considera que perjudicarán a 'startups' europeas de IA como la francesa Mistral AI. También lo han hecho empresas como OpenAI, creadora de ChatGPT. El acuerdo final no incluirá la rebaja solicitada por París y Silicon Valley.

Excepciones y amenazas

La última clave es quizás la más polémica y crucial: la vigilancia biométrica. En junio, el Parlamento Europeo prohibió el uso de sistemas como el reconocimiento facial, considerado por las organizaciones en defensa de la privacidad como una amenaza a los derechos fundamentales. El acuerdo político sellado en diciembre veta la identificación en tiempo real, pero añade varias excepciones que benefician especialmente a policía y ejércitos. Así, las fuerzas y cuerpos de seguridad podrán usar esta tecnología en espacios públicos y con una autorización judicial previa para casos limitados como terrorismo, trata de personas o localizar a violadores.

Suscríbete para seguir leyendo