Europa cambia las normas y, a partir del 2 de agosto, obligará a las empresas a someter sus sistemas de IA a controles estrictos en todos los Estados miembros
LEGISLACIÓN
La Unión Europea regulará los sistemas de inteligencia artificial considerados de alto riesgo para garantizar la protección de los ciudadanos

- Àlex Roig
Periodista - Barcelona
La inteligencia artificial ha dejado de ser cosa de un futuro tecnológico que parecía lejano para formar parte de nuestro presente más cercano. Y es que sin darnos a penas cuenta, se ha colado en el día a día de nuestras vidas, integrada en herramientas, servicios y procesos que utilizamos a diario.

Este avance, sin embargo, no está exento de dudas. A medida que su uso se ha ido extendiendo, también lo han hecho las preocupaciones, especialmente en aquellos casos en los que interviene en decisiones importantes, donde el uso de datos, la falta de transparencia o el control real que se tiene sobre estos sistemas han llevado a Europa a empezar a poner límites que regulen la IA.
En este contexto, la Unión Europea ha puesto fecha a uno de los cambios más relevantes. A partir del 2 de agosto de 2026, las empresas estarán obligadas a someter a controles estrictos sus sistemas de inteligencia artificial considerados de alto riesgo, dentro del marco de la nueva Ley de Inteligencia Artificial (AI Act).
Estos sistemas son los que afectan directamente a aspectos sensibles de la vida de las personas. Se trata de herramientas utilizadas en procesos de selección, en educación, en sanidad o incluso en el ámbito judicial, donde una decisión automatizada puede tener consecuencias importantes si no existe un control adecuado.
A partir de ese momento, las empresas deberán cumplir una serie de requisitos antes de poder utilizar estos sistemas. Entre ellos, evaluar los riesgos, garantizar supervisión humana, documentar cómo funcionan y asegurar que los datos que utilizan sean adecuados y estén correctamente gestionados.

Además, también tendrán que mantener registros y ofrecer información clara sobre el uso de estos sistemas. El objetivo es que exista trazabilidad y que las autoridades puedan supervisar su funcionamiento, en un momento en el que la inteligencia artificial está cada vez más presente en decisiones relevantes.
Con esta medida, el reglamento europeo establece diferentes niveles de riesgo en función del uso de la inteligencia artificial. Mientras que algunos sistemas estarán prohibidos, otros, como los de alto riesgo, podrán utilizarse siempre que cumplan con estas exigencias y pasen los controles establecidos. Es decir, equilibrar el desarrollo tecnológico con la protección de los ciudadanos.

