Blaise Agüera y Arcas (50 años, Providence, Rhode Island, EE UU) publicó en junio de 2022 un artículo en The Economist en el que advertía de que un chatbot en el que trabajaba Google, LaMDA, le hizo sentir por primera vez que “el suelo se movía bajo los pies”. Un compañero suyo, Blake Lemoine, llegó a afirmar que había hablado con una máquina que tenía alma. Agüera, en ese momento responsable de Investigación en Google Research, le despidió por revelación de documentos confidenciales, pero reconoció a EL PAÍS que LaMDA estaba haciendo que se replanteara muchas cosas.

Cinco meses después, el resto del mundo pudo sentir un vértigo parecido cuando OpenAI lanzó en abierto ChatGPT. En Google llevaban años trabajando en ello, pero, según dicen, creyeron que el producto todavía no estaba listo para lanzarlo al público. La competencia no pensó lo mismo.

Desde entonces, este físico e ingeniero informático de padre catalán y madre estadounidense le está dando vueltas a la idea de inteligencia. ¿Qué la define? ¿Puede una máquina ser inteligente? Él cree que sí, y lo desarrolla en las 600 páginas de su libro What Is Intelligence? (¿Qué es la inteligencia?, sin traducción prevista al castellano).

Agüera es un ejemplo que confirma que las grandes tecnológicas tienen en nómina a los mejores científicos del mundo en el campo de la inteligencia artificial (IA). Es vicepresidente de Google, donde lidera el grupo Paradigms of Intelligence (Pi), enfocado en investigación básica relacionada con IA. En la disciplina se le conoce, sobre todo, por haber inventado el aprendizaje federado, una técnica de aprendizaje automático que permite entrenar una IA a partir de los datos de varios dispositivos conectados. Agüera atiende a EL PAÍS por videoconferencia desde Chicago.

Pregunta. Dice en el libro que, cuando irrumpieron los grandes modelos de lenguaje, pensó que se dispararía un intenso debate en torno a nuestra comprensión de lo que es la inteligencia. E imaginó dos tipos principales de respuestas: negación y aceptación. ¿Con qué se ha encontrado?

Respuesta. He visto ambas. Supongo que el bando más numeroso es el de la negación, el de quienes dicen que la IA no es realmente inteligente, que solo está simulando serlo. Tengo problemas con esa afirmación. Es como si un estudiante de matemáticas aprueba un examen diciendo que solo está fingiendo: no puedes aprobar si no sabes matemáticas. Me parece interesante que sean los expertos quienes están más en la negación. Imagino que, cuando realmente entiendes cómo funcionan estos modelos, puede costar ver que eso sea inteligencia. De eso trata mi libro. La inteligencia no se define por la cosa más tonta que haces, sino por la más inteligente. Si eres capaz de resolver problemas bastante sofisticados, incluso la mitad de las veces, entonces algo interesante está sucediendo. El hecho de que a veces hagas algo estúpido no significa que la capacidad no esté ahí.

P. ¿Qué es la inteligencia?

R. No creo que haya una definición ampliamente aceptada. Creo que la inteligencia es la capacidad de comprender y actuar en un mundo complejo. Eso significa que tienes que ser capaz de modelarte a ti mismo y a tu entorno, incluyendo otras entidades inteligentes. Y ese modelo tiene que ser lo suficientemente bueno como para permitirte que influyas en el futuro de una manera que te sea útil. Como hay muchos tipos de entornos, muchas situaciones y muchos otros tipos de inteligencias, eso también significa que no hay una sola métrica que diga cuán inteligente se es. Por eso se habla de inteligencia matemática, social, emocional o musical.

P. ¿Encaja ahí la IA?

R. Absolutamente. Cada vez que interactúas con un modelo de IA, su entorno eres tú. Su utilidad depende de su capacidad para modelarte a ti y al mundo del que está hablando. Tu conversación no suele ser sobre vosotros dos, sino sobre otras cosas también, así que tiene que ser capaz de entender aspectos de todo eso para poder ser útil.

P. Su definición de inteligencia se centra en el resultado, no en el proceso. Hay quien reivindica que el proceso importa porque, si no, estaríamos ante loros estocásticos que repiten lo que han memorizado.

R. Exactamente, soy funcionalista. Eso significa que me importa cómo funciona algo, no sus detalles internos. En informática, la idea detrás de calcular una función es que puedes cambiar la implementación y, a pesar de ello, llegar a resultados equivalentes. No significa que no sea posible hacer trampa de alguna manera. Por ejemplo, si has memorizado las tablas de multiplicar del 1 al 100, puedes dar la respuesta correcta para problemas de multiplicación en ese rango. Pero no puedes resolver una multiplicación de cuatro dígitos porque no has entendido lo que es la multiplicación. La generalización es importante, permite considerar situaciones fuera de lo que pudiste memorizar. Si puedes hacer eso, entonces eres inteligente.

Sobre escupir lo que has memorizado: si los modelos de lenguaje solo memorizaran, no serían capaces de hacer todo lo que hacen. Ni siquiera multiplicar números de tres dígitos, porque si miras todas las combinaciones posibles de multiplicación entre números de tres dígitos ya es demasiado para memorizar, no tenemos ejemplos de todo eso en los datos de entrenamiento. Eso quiere decir que el modelo tiene que haber descubierto cómo hacerlo.

La inteligencia no se define por la cosa más tonta que haces, sino por la más inteligente

P. Si las máquinas pueden ser inteligentes, ¿cómo podemos diferenciarnos de ellas?

R. Somos blandos y suaves y estamos llenos de agua; las máquinas son duras, están hechas de silicio y computan con sistema binario. Así que la forma en que funcionamos es diferente. En el libro sostengo que puede ser menos distinto qué hacemos que cómo lo hacemos. Al construir nuestros cerebros, la naturaleza resolvió un problema muy similar al que la IA está tratando de resolver ahora. La humanidad ha sido capaz de construir aviones, que no baten sus alas, pero pueden volar porque aprovechan la misma física de la ecuación de Bernoulli que los animales y resuelven el mismo problema, aunque por diferentes medios. De hecho, las alas de los insectos son diferentes a las de los pájaros, por lo que la naturaleza también sustituye materiales o métodos. ¿Cuál es el equivalente de volar en la inteligencia? ¿Y cómo se hace? No hemos entendido completamente cómo funciona el cerebro, pero lo que sabemos sobre la IA nos ha ayudado a avanzar en la neurociencia.

P. Usted sostiene que la vida es intrínsecamente computacional.

R. Sí, y no lo digo metafóricamente. No funciona como un ordenador, pero la computación se puede definir como la ciencia de la causalidad. Las ecuaciones de la física básica de Newton, Einstein, Planck o Schrödinger no tienen causalidad, son totalmente reversibles en el tiempo. La causalidad es algo que solo ocurre cuando te alejas y miras la función de un sistema. Cuando empiezas a mirar causas, efectos y condicionantes, básicamente necesitas la capacidad de afectar el entorno y tomar una decisión fundamentada. En el momento en que tienes eso, eso es computación; y así es como funcionan los seres vivos y el cerebro.

P. Dice también que la IA es una consecuencia natural de la evolución.

R. En el libro desarrollo una teoría extendida de la evolución que va un poco más allá de la síntesis darwiniana clásica. No creo que Darwin estuviera equivocado. Es solo que su teoría estaba incompleta, en mi opinión, porque no incluye los efectos de la simbiogénesis, de que las cosas se unan para formar entidades novedosas. Sabemos que eso ha sucedido en la evolución varias veces. Por ejemplo, cuando las células se unieron para formar organismos multicelulares, no competían entre sí, sino que cooperaban para hacer algo nuevo. Este factor adicional es el que genera todo el progreso, la novedad y la creatividad en la evolución, que va más allá de cambios aleatorios y selección natural.

P. ¿Cree que la IA acabará igualando o superando la inteligencia humana?

R. Pioneros de la disciplina como Geoffrey Hinton, Yoshua Bengio o Yann LeCun dicen que eso ya ha sucedido, aunque personalmente no sé dónde se puede colocar el umbral del nivel humano. Los grandes modelos actuales ya son más inteligentes en muchos sentidos que nosotros individualmente. La inteligencia humana es colectiva. Individualmente, podríamos tener alguna especialidad, pero en muchas áreas no somos muy buenos. Pero cooperando hacemos cosas asombrosas: viajamos a la Luna, trasplantamos órganos, sabemos cómo dividir el átomo. LaMDA supuso un cambio real: la llegada del aprendizaje no supervisado, modelar el lenguaje sin darle ninguna tarea específica. Fue entonces cuando se dio un salto de verdad.

P. Defiende que la predicción, lo que hacen Gemini o ChatGPT, es inteligencia.

R. Sí. A principios de la década de 2010 estábamos haciendo predictores de la siguiente palabra para el teclado del teléfono Android. Yo, como la mayoría, asumí que esos modelos no pasarían de hacer coincidir patrones. Si le dabas una frase hecha, obtendría la palabra correcta. Eso no dice nada sobre la comprensión. Pero si le ponías un problema de texto, la idea de que obtendría la siguiente palabra correcta me parecía una locura. La cuestión es que, cuando hicimos los modelos muy grandes y comenzamos a entrenarlos con muchos datos de internet, comenzaron a resolver esos problemas correctamente. Me vi obligado a revisar mi idea de que la inteligencia requería algún tipo de “polvo de hadas”. Resulta que no, solo se trataba de hacer más grandes los modelos.

Procesadores al espacio

Pocos días antes de realizarse la entrevista, Google anunció el proyecto Suncatcher, el nombre con el que ha bautizado su plan de enviar al espacio centros de datos en los que procesar IA. Agüera le concedió la entrevista a EL PAÍS para hablar sobre su libro, pero como el científico compartió en X su entusiasmo por el proyecto, abordamos el tema en la última pregunta.

P. ¿Cuál ha sido su participación en Suncatcher?

R. Yo lo concebí. Originalmente, estaba pensando en eficiencia energética. El consumo energético de la IA está aumentando exponencialmente. Es cierto que la IA todavía es muy ineficiente comparado con el cerebro humano, que solo usa 20 vatios. Pero cuanto más eficiente la hagamos, más aumentará la demanda: es lo que se conoce como la paradoja de Jevons. Así que comencé a pensar en el lado de la oferta. Aunque espero que lleguemos a ver la fusión nuclear, creo que la solución es la energía solar. No la que cae en la Tierra, sino la del espacio, que es 10¹⁰ veces más potente. Queremos lograr mover las células solares fuera de la Tierra y computar justo allí.

P. ¿Ve factible ese salto al espacio?

R. Este es un proyecto de muchas décadas. Ahora estamos dando los primeros pasos. Creo que los sistemas altamente integrados, producidos en masa en el espacio, son la solución a largo plazo. Los proyectos espaciales, y no solo los de Google, pronto serán comunes. Dentro de poco, la idea de la computación en el espacio ya no sonará descabellada.

P. ¿Qué pasará hasta entonces?

R. Afortunadamente, todavía tenemos muchas palancas que accionar en la Tierra. Una de ellas es hacer que la IA sea más eficiente. Otra es resucitar la energía nuclear, que es mucho más limpia, saludable y segura que el carbón. Y, por supuesto, estimular la energía reutilizable de varios tipos, especialmente la solar terrestre.

source

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *