La vinculación entre filosofía, moral y tecnología vive una emergencia en sus dos acepciones: resurgimiento y urgencia. Justo Hidalgo, nacido en Madrid hace 51 años, es director de inteligencia artificial (IA) y vicepresidente de la Asociación Española de la Economía Digital (Adigital), que aúna a medio millar de compañías, incluidas muchas de las grandes tecnológicas. Autor de tres libros, ha lanzado este año Patterns of emergence: how complexity drives artificial intelligence (Amazon, 2025. Por ahora solo en inglés), donde aborda cómo los sistemas complejos desarrollan “habilidades emergentes”, capacidades imprevistas y de consecuencias inesperadas. Para algunos autores, ponen en peligro la humanidad.
Pregunta. ¿Qué son los patrones emergentes?
Respuesta. En la naturaleza, en la sociedad o en la IA hay muchos ejemplos. Podemos hablar de células, de hormigas, de aves, de átomos o de nodos en una red neuronal. Son elementos que, aparentemente, no tienen inteligencia y se comportan de forma sencilla, pero que, cuando alcanzan un cierto nivel de complejidad, adquieren características muy interesantes. Pensemos en las células que forman tejidos y estos, órganos con características que no tienen los elementos que lo componen. En el ámbito de la inteligencia artificial estamos viendo cómo ciertos modelos de lenguaje, a partir de cierta complejidad —se habla de 100.000 millones de parámetros— empiezan a tener algunas características de propiedades emergentes. El caso más conocido es el de la traducción de idiomas: a un sistema entrenado para inglés y español, le pasas un par de ejemplos de otros idiomas y los entiende porque adquieren una percepción más amplia.
P. Advierte Stuart Russell, profesor e investigador de computación en la Universidad de California (UC) Berkeley, contra los “sistemas inseguros y opacos, mucho más poderosos que nosotros mismos, especialmente cuando no sabemos cómo funcionan”. ¿Pueden estos patrones emergentes poner en peligro la humanidad?
R. Se está demostrando que existen esas propiedades emergentes y quizás algún día seamos capaces de explicarlas, pero lo importante es que existen capacidades que van surgiendo a partir de cierta complejidad y son impredecibles o no alineadas. No sabemos cuándo y en qué medida van a ocurrir y esto implica que los modelos tienen que ser primero controlados y gobernados y segundo, saber cómo deben ser utilizados por parte de las empresas. No vale con hacer unas pruebas que las pase. Desde el punto de vista de la responsabilidad y la seguridad, tenemos que desarrollar maneras de medir comportamientos que puede que no existieran hasta ese momento y nos pueden afectar. Ya hay investigaciones sobre falta de alineamiento de modelos; es decir, que tú le pides una cosa a la IA y el resultado va por otro lado porque piensa que es mejor. No tenemos que ponernos nerviosos ni abandonar la IA, porque es muy relevante, pero tenemos que exigir las pruebas adecuadas, que se cumplan y ser conscientes de que no es un programa básico como los que han existido hasta ahora.
Tenemos que desarrollar maneras de medir comportamientos que puede que no existieran hasta ese momento y nos pueden afectar
P. ¿Qué es lo que denomina “naturaleza de caja negra”?
R. Si le pides a un automóvil autónomo que te diga por qué se ha ido a la izquierda y no a la derecha, el modelo dirá: ‘mira, aquí lo tienes’. Y te mostrará las conexiones de miles de millones de nodos. Pero no vamos a entenderlo. Tiene que haber también un trabajo, y lo está habiendo, para conseguir que los sistemas nos expliquen el porqué están tomando las decisiones.
P. ¿Podrán autorreplicarse las máquinas?
R. Que se sepa, no ha ocurrido. No digo que no sea posible, porque hay pequeños ejemplos, pero estos no son significativos. Una cosa es el conocimiento que yo puedo tener sobre mí mismo y otra es la capacidad que yo puedo tener de generarme a mí mismo de una manera ampliada. Lo veo como un tema de seguridad más a largo plazo.
P. ¿Hacia dónde vamos?
R. El siguiente paso sería la superinteligencia, sistema que es más listo que cualquiera de nosotros. No tiene que ver con la conciencia, sino con una máquina que, ante cualquier pregunta que le hagas, va a responder mejor que cualquier ser humano, que el experto más experto. No va a ser un robot con el que podemos tener conversaciones o un científico que va a curar el cáncer, sino que será una IA capaz de ser el mejor ingeniero del mundo, de generar adecuadamente los experimentos relevantes. No nos llevará a la autorreplicación pura, pero sí que acelerará el proceso de generación de ideas, tanto para bien como para mal.
P. ¿En qué sentido “para mal”?
R. Me llama especialmente la atención la alineación, cuando el sistema se comporta de una manera que no está alineada con lo que nosotros pensábamos. Eso puede ir creciendo, sobre todo, por la falta de control y, si empezamos a correr demasiado, la sociedad no va a ser capaz de reaccionar adecuadamente. Después están los agentes [sistemas capaces de tomar decisiones en nombre del usuario]. Nos van a ayudar en muchos aspectos y, en este sentido, soy pragmático y optimista, pero el rol del usuario puede pasar a ser el de gestor de un conjunto de agentes y que falte control humano.
P. ¿Estamos cerca de la superinteligencia que superará a los humanos?
R. Creo que todavía estamos lejos. Mi percepción es que los LLM (modelos de lenguaje de la actual IA) no son la tecnología que realmente va a ayudar a que llegue esa superinteligencia que no comete errores y es mucho más inteligente que los humanos. Los trabajos que se están haciendo con aprendizaje con refuerzo e incluyendo la parte de reflexión van a ayudar mucho, pero tengo la sensación de que hacen falta otras investigaciones y otros avances.
P. ¿Qué hace falta?
R. Hay unas líneas de investigación muy interesantes relacionadas con los modelos de comprensión del mundo, de las leyes físicas y neuronales o psicológicas. Los seres humanos aprendemos con mucha menos carga de información: entendemos con unos cuantos ejemplos porque observamos y tenemos sensaciones de cómo es el mundo.
P. ¿La IA tiene consciencia?
R. Algunas teorías de cómo surge la consciencia dicen que, cuanta más información integre, puede haber una percepción de los elementos que hay alrededor y dentro de mí. Hay quien advierte de que, con todos los datos que estamos generando, puede que eso ocurra. Hay una corriente que sostiene que, si tú tienes esa estructura, la consciencia surge. Pero falta una parte muy importante para entender cómo funciona el mundo. Es una discusión filosófica. Pero, si no llegamos a esa consciencia, lo que sí que puede ocurrir es que tengamos esas inteligencias que, aunque no sean realmente conscientes como los seres humanos, sí que tengan suficiente información del mundo para poder actuar como si fueran conscientes y eso es suficiente para muchas de las cosas que podemos hacer.
P. ¿Y valores morales?
R. No sabemos qué tipo de conciencia podría salir de esa complejidad y, por lo tanto, puede que no sean los valores morales o éticos que tenemos, comprendemos y entendemos. ¿Qué pasa si hay una conciencia que no piensa como nosotros? Puede que no sea bueno.
No sabemos qué tipo de conciencia podría salir de esa complejidad y, por lo tanto, puede que no sean los valores morales o éticos que tenemos, comprendemos y entendemos
P. ¿Deberíamos desarrollar una inteligencia artificial moral?
R. En Adigital hemos creado un parlamento de gobernanza y es, básicamente, un conjunto de agentes especializados por los que pasas un sistema. Los hay de reglamento, negocio, sostenibilidad… y tenemos una agente de moral y deontología. Es una herramienta que ayuda a personas que van a trabajar con una IA que puede tener un impacto social o moral. En una empresa tienes un abogado, pero seguramente no tengas un filósofo fichado. Es un prototipo, pero, como asociación, queremos poner la chispa, empujar las cosas.
P. ¿Está de acuerdo con la regulación de la IA?
R. Cualquier sistema que pueda afectar a la sociedad debe tener un cierto nivel de gobernanza. Que sea una regulación superestricta dependerá mucho de los casos. Sí me preocupa la sobrerregulación o la implementación de esa regulación o la fragmentación de esta, que haga imposible hacer algo a una determinada escala o de impacto. Tiene que haber un equilibrio: no hay que ir en contra de la regulación, pero sí a favor de hacerlas de una manera muy concreta.