“Lo había deseado con un fervor que sobrepasaba con mucho la moderación; pero ahora que lo había conseguido, la hermosura del sueño se desvanecía y la repugnancia y el horror me embargaban”. Es la reacción ante su creación del doctor Frankenstein en la obra de Mary Shelley publicada en 1818 y conocida por el apellido del personaje del científico o El moderno Prometeo. Un vértigo similar ha sufrido Sam Altman, director ejecutivo de OpenAI. El máximo responsable de la empresa creadora de uno de los desarrollos más sofisticados de inteligencia artificial (IA) empieza creer en la teoría de la “internet muerta”, que defiende que el contenido generado automáticamente superará al generado por humanos, por lo que los peligros de manipulación, desinformación y condicionamientos de conductas de forma intencionada se multiplicarían.

El escueto mensaje de Altman ha despertado inquietudes: “Nunca me tomé tan en serio la teoría de la internet muerta, pero parece que ahora hay muchas cuentas de Twitter [ahora X y propiedad de Elon Musk] administradas por LLM”, los modelos de lenguaje de la IA.

Aaron Harris, director global de tecnología (CTO) en Sage, una multinacional especializada en aplicaciones de IA, es cauto en cuanto a la denominación del fenómeno, aunque no niega el proceso: “No sé si lo llamaría ‘la internet muerta’, pero sin duda está cambiando rápidamente. El auge de los contenidos automatizados y la interacción impulsada por bots [programas informáticos que imitan el comportamiento humano] hace que cada vez sea más difícil separar lo auténtico del ruido. La cuestión es si permitimos que ese ruido nos abrume o nos centramos en diseñar tecnología que restaure la confianza. Lo que importa ahora es cómo filtramos, verificamos y mostramos la información en la que la gente puede confiar”.

La referencia específica de Altman a la red social no es gratuita. “Esto es de vital importancia, ya que las redes sociales son ahora la principal fuente de información para muchos usuarios de todo el mundo”, escriben Jake Renzella, director de Ciencias de la Computación, y Vlada Rozova, investigadora de Aprendizaje Automático, en las universidades de Nueva Gales del Sur (UNSW Sydney) y Melbourne, respectivamente, en un artículo publicado en The Conversation.

“A medida que estas cuentas impulsadas por IA crecen en seguidores (muchas falsas, algunas verdaderas), ese alto número legitima la cuenta para usuarios reales. Esto significa que ahí fuera se está creando un ejército de cuentas. Ya hay pruebas sólidas de que las redes sociales están siendo manipuladas por estos bots para influir en la opinión pública con desinformación y ha estado sucediendo durante años”, resaltan los investigadores australianos en línea con la advertencia de Altman. Un estudio de la empresa de seguridad Imperva publicado hace dos años ya calculaba que “casi la mitad de todo el tráfico de Internet fue realizado por bots

Ya hay pruebas sólidas de que las redes sociales están siendo manipuladas por bots [programas informáticos que imitan el comportamiento humano] para influir en la opinión pública con desinformación y ha estado sucediendo durante años»

Jake Renzella y Vlada Rozova, investigadores de universidades de Sydney y Melbourne

Y esos bots no solo son capaces de crear contenidos singulares, sino también de imitar la fórmula para que su difusión sea masiva y viral. Según un nuevo estudio publicado en Physical Review Letters y dirigido por investigadores de la Universidad de Vermont y el Instituto Santa Fe, “lo que se propaga, ya sea una creencia, una broma o un virus, evoluciona en tiempo real y gana fuerza a medida que se distribuye” siguiendo un modelo matemático de “cascadas de autorrefuerzo [Self-Reinforcing Cascades]”.

Según esta investigación, aquello que se difunde muta a medida que se propaga y ese cambio ayuda a viralizarlo en un modelo parecido a los fuegos de sexta generación, imposibles de apagar con medios convencionales. “Nos inspiramos en parte en los incendios forestales: pueden volverse más fuertes cuando se queman a través de bosques densos y más débiles cuando se cruzan brechas abiertas. Ese mismo principio se aplica a la información, las bromas o las enfermedades. Pueden intensificarse o debilitarse dependiendo de las condiciones”, explica Sid Redner, físico, profesor del Instituto de Santa Fe y coautor del artículo.

Juniper Lovato, científica informática coautora del estudio, cree que el trabajo permite comprender mejor cómo se genera la formación de creencias, la desinformación y el contagio social. “Esto nos da una base teórica para explorar cómo evolucionan y se propagan las historias y las narrativas a través de las redes”, dice.

Los investigadores advierten que los riesgos de viralización de contenidos que sostienen la manipulación o la desinformación se multiplican con las herramientas de inteligencia artificial y exigen a los usuarios una mayor conciencia de los peligros de los asistentes y agentes de IA.

Porque estas novedosas herramientas de IA no solo conocen cómo elaborar el contenido y viralizarlo, sino cómo conseguir influir de forma personal y efectiva con la información que recopila de las interacciones de los usuarios.

En el trabajo ¿Gran ayuda o gran hermano? Auditoría de seguimiento, creación de perfiles y personalización en asistentes de IA generativa, presentado en el simposio de seguridad USENIX celebrado en Seattle, se analiza la vulnerabilidad de los usuarios para ser influenciados.

“Cuando se trata de la susceptibilidad a la influencia en las redes sociales, no se trata solo de quién eres, sino de dónde estás en una red y con quién estás conectado”, explica Luca Luceri, investigador de la Universidad del Sur de California y coautor del trabajo.

“Paradoja de la susceptibilidad”

En este sentido, la investigación refleja un fenómeno que denominan la “Paradoja de la susceptibilidad”, que supone “un patrón por el que los amigos de los usuarios son, en promedio, más influenciables que los propios titulares de la cuenta”. Según el trabajo, este comportamiento “puede explicar cómo se popularizan los comportamientos, las tendencias y las ideas, y por qué algunos rincones de internet son más vulnerables a la influencia que otros”.

Las personas que publican porque lo hacen otros a menudo forman parte de círculos muy unidos por un comportamiento similar y sugiere, según el estudio, que “la influencia social opera no solo a través de intercambios directos entre individuos, sino que también está moldeada y limitada por la estructura de la red”.

De esta forma, es posible predecir quién es más susceptible de compartir contenido, una mina para la viralización automática a partir de los datos personales que recopila la IA. “En muchos casos, saber cómo se comportan los amigos de un usuario es suficiente para estimar cómo se comportaría el usuario”, advierte el estudio.

La solución a los efectos de esta inteligencia artificial sobre el internet creado por humanos, pero que empieza a dominar, no es únicamente normativo. Según La ética de los asistentes avanzados de IA, un complejo y exhaustivo trabajo de Google Deepmind con una veintena de investigadores y universidades, el desafío tiene que hallarse en una relación tetraédrica entre el asistente de IA, el usuario, el desarrollador y la sociedad para desarrollar “un conjunto adecuado de valores o instrucciones para que funcionen de forma segura en el mundo y produzcan resultados que sean ampliamente beneficiosos”.

El trabajo de los investigadores desarrolla, a modo de las leyes de Asimov para la robótica, una serie de mandamientos para evitar una IA ajena a los principios morales que se pueden resumir así: no manipulará al usuario para favorecer los intereses de la IA (de sus desarrolladores) o generar un coste social (como la desinformación), no permitirá que el usuario o los desarrolladores apliquen estrategias negativas para la sociedad (dominación, condicionamiento o descrédito institucional) y no limitará indebidamente la libertad del usuario.

El problema no es necesariamente si el contenido proviene de un humano o de la IA, sino si alguien se responsabiliza de él»

Aaron Harris, CTO de Sega

Aaron Harris, CTO de Sega, cree posible una internet ética, “pero no va a suceder por casualidad”, precisa. “La transparencia y la responsabilidad deben determinar cómo se diseña y se regula la IA. Las empresas que la desarrollan deben lograr que sus resultados sean auditables y explicables, para que las personas comprendan de dónde proviene la información y por qué se recomienda. En finanzas, por ejemplo, la precisión no es opcional y los errores tienen consecuencias reales. El mismo principio se aplica online: una formación responsable, un etiquetado claro y la capacidad de cuestionar los resultados pueden hacer que la IA forme parte de un internet más ético y fiable”.

Harris defiende la protección del “internet humano”, “especialmente ahora que cada vez hay más contenido creado por bots”, pero no a costa de prescindir de los avances logrados. “No creo que la solución sea volver al mundo anterior a la IA e intentar restringir o eliminar por completo el contenido que ha generado. Ya forma parte de nuestra forma de vivir y trabajar, y puede aportar un valor real cuando se utiliza de forma responsable. El problema es si alguien se responsabiliza del contenido. Ese es el principio que todas las empresas deben seguir: la IA debe mejorar la capacidad humana, no sustituirla. Todavía es posible un internet más humano, pero solo si mantenemos las necesidades de las personas en el centro y hacemos que la responsabilidad sea innegociable”.


source

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *