Alberto Gago (Zaragoza, 39 años) es desde diciembre el nuevo director de la Agencia Española de Supervisión de la Inteligencia Artificial (Aesia), la primera de este tipo de la UE. Con apenas un año y medio de trayectoria, este organismo es el encargado de velar por que los sistemas de inteligencia artificial (IA) que se usan en España se ajusten a la legalidad. Gago conoce bien esa legalidad. Participó como asesor de la entonces Secretaria de Estado de Digitalización e IA, Carme Artigas, en las maratonianas negociaciones previas a la aprobación del Reglamento Europeo de IA, que arbitró España al ostentar la presidencia europea.
El Reglamento ordena los sistemas en cuatro categorías, en función del riesgo que ofrecen para la sociedad. En un primer escalón están los de riesgo mínimo, como los filtros de spam; y los de riesgo limitado, como la IA generativa. En el siguiente, se sitúan los de alto riesgo, y por tanto, sometidos a controles más estrictos, que son los sistemas que aplican a infraestructuras críticas, educación, servicios públicos y privados esenciales, salud o justicia; y los de riesgo inaceptable, que están directamente prohibidos (entran aquí sistemas de manipulación conductual cognitiva, de puntuación social o de identificación biométrica remota en tiempo real).
Cada país debe encargarse de que los sistemas prohibidos no se usen y, dentro de unos meses, también deberán verificar que los sistemas de alto riesgo cumplan los controles necesarios. El organismo que se ocupará de ello en España es la Aesia. Ubicada en La Coruña, la agencia cuenta, por el momento, con 35 empleados, aunque esperan llegar a los 50 antes de acabar el año y aspiran a seguir creciendo a partir del próximo. “Nuestro equipo es joven y multidisciplinar. Tenemos ingenieros informáticos y de telecomunicaciones, pero también economistas, sociólogos, filólogos o juristas. Les necesitamos a todos para entender las implicaciones sociales de la IA”, apunta Gago.
Pregunta. La Aesia es una desconocida para la población. ¿Cuáles son exactamente sus competencias?
Respuesta. Está naciendo, pero ya funciona a pleno rendimiento. El objetivo de la agencia es generar confianza entre la gente para el uso de la IA y seguridad jurídica para las empresas. La primera es la supervisión de sistemas de IA, tal y como mandata el Reglamento de IA. A día de hoy, solo están en vigor [desde febrero] las obligaciones relativas a los sistemas ya prohibidos, que son ocho. Hemos hecho una monitorización de miles de sistemas y estamos seguros de que no hay ningún sistema de IA prohibido en este momento en el mercado español.

P. ¿Cómo llevan a cabo esa monitorización?
R. A través de distintos canales. Uno de ellos son las denuncias, tenemos un buzón donde la gente puede hacer preguntas. También hacemos un seguimiento de la prensa y del mercado, preguntando a veces a los proveedores qué es lo que lleva este o aquel sistema. Tenemos un sistema automático que hace un barrido de todos los sectores, pero prestamos especial atención a los relacionados con las infraestructuras críticas, acceso a servicios públicos y privados esenciales, como la educación o la gestión de becas. Los sistemas clasificados como alto riesgo todavía no los podemos evaluar, se está negociando ahora mismo la Ley Ómnibus Digital; en cuanto acaben, sabremos si empezamos en agosto o diciembre de 2027.
P. ¿Qué otras competencias tienen?
R. La agencia tiene que hacer formación y alfabetización en IA. En el año que llevamos en marcha hemos respondido ya a 700 consultas sobre cómo aplicar el reglamento, sobre los riesgos o beneficios de la IA, etc. También tenemos la competencia de apoyo a la innovación, y eso lo hacemos publicando guías en español e inglés o haciendo pruebas de sistemas de IA en entornos reales. Luego también tenemos la parte internacional: queremos seguir contribuyendo a crear marcos institucionales de gobernanza de la IA. Somos uno de los referentes para la Comisión Europea. Colaboraremos con el laboratorio de gobernanza de la IA de Valencia. Por último, vamos a crear un laboratorio de ideas dentro de la agencia que analizará los impactos en la sociedad y en la economía, con la intención de adelantarnos a esos impactos.
P. ¿Cuándo lanzarán este think tank?
R. A finales de marzo. Queremos que analice de la mano de expertos nacionales de alto prestigio cuáles son los retos sociales y económicos que supone la IA, abordando temáticas como la desinformación o el mercado laboral. La idea es hablar también con la sociedad, es decir, ir a colegios, a institutos, a universidades, a las asociaciones para entender bien sus problemas reales.
P. Ha mencionado antes la Ley Ómnibus, que modificará el reglamento de IA solo dos años después de su entrada en vigor. ¿Están de acuerdo en que se toque esa norma?
R. Ninguna negociación es perfecta. Lo que está claro, y consensuado en la UE, es que no hay que desregular, sino focalizar mejor. Lo veo como un instrumento quirúrgico de la Comisión para simplificar aquello que es burocráticamente excesivo.
P. El presidente del Gobierno instó hace dos semanas a la Fiscalía a investigar a las plataformas de redes sociales por difundir pornografía a través de sus sistemas de IA. ¿Han prestado apoyo técnico en este frente?
R. España siempre ha sido un país de derechos. El presidente del Gobierno ha tomado una decisión valiente, muy pensada y creo que acertada con la prohibición del acceso de menores a las redes. Está en la línea de Australia, Francia y otros países. Al final se trata de asegurar que los derechos del mundo físico se trasladan al mundo digital. Y si los responsables de esas compañías no son capaces de asegurar que esos derechos se respetan, entonces tiene que haber alguna respuesta. La Aesia contribuirá a este esfuerzo dentro de las competencias que tiene. Además de alfabetizar a los jóvenes en materia de IA, desde el punto de vista jurídico también podemos hacer cosas. Por ejemplo, podemos apoyar a la Comisión Europea cuando hace investigaciones contra proveedores tecnológicos, aportando documentación o pruebas. También podemos apoyar a las autoridades, a la policía, al Ministerio Fiscal, cuando se investigan delitos penales.
P. ¿Lo han hecho ya?
R. Necesitamos que nos lo pidan, y de momento eso no ha sucedido.
