Las redes sociales funcionan muchas veces como un espacio al que la sociedad recurre para informarse. X (antes Twitter) es todavía una de las plataformas con más peso en ese sentido. Una investigación con 4.965 perfiles se puso como objetivo ver qué tipo de discursos amplificaba la plataforma. Tras siete semanas de análisis, los autores concluyeron que el feed algorítmico de la red, hoy propiedad de Elon Musk, tiende a impulsar más contenido de derechas y a fomentar que los usuarios sigan cuentas de orientación conservadora.

El estudio, que se publica este miércoles en la revista Nature, se realizó seis meses después de la adquisición de Twitter por parte de Musk y aproximadamente un año antes del respaldo público que hizo a la campaña de Donald Trump en julio de 2024, cuando el republicano pretendía regresar a la Casa Blanca. Es decir, en pleno viraje ideológico de la plataforma, cuando se modificó el código fuente que tuvo desde sus inicios, hace veinte años, cortesía de su nuevo propietario, que recibió poderes ministeriales por parte del republicano.

Durante años, las teorías de la “cámara de eco” y la “burbuja de filtro” ya apuntaban que las redes sociales contenían algoritmos sesgados que incrementaban la polarización y la desinformación al eliminar perspectivas críticas. Sin embargo, este estudio aporta evidencia empírica más sólida que respalda esas hipótesis.

Para Mariluz Congosto, investigadora especializada en análisis de redes sociales y visualización de datos, el estudio constituye una prueba de que los intereses de la plataforma habrían evolucionado en consonancia con las posiciones de Musk —que promueve teorías tránsfobas, racistas y supremacistas como la del Gran Reemplazo—.

Para Roland Hodler, profesor de Economía de la Universidad de San Galo (Suiza) y coautor de la investigación, el algoritmo de X “no es políticamente neutral”. El sistema, apunta el economista, promueve más contenido de activistas políticos que de los medios de comunicación, lo que se traduce en que “más personas estén potencialmente influenciadas” por fuentes poco fiables.

No altera las actitudes políticas

Se asignó aleatoriamente a usuarios de Estados Unidos a dos configuraciones distintas: el feed algorítmico (“Para ti”) o el feed cronológico (“Siguiendo”). Y se analizó el contenido mediante una extensión de navegador instalada voluntariamente por parte de los participantes.

Los investigadores de la Universidad de Bocconi (Italia), de San Galo (Suiza), la Escuela de Economía de París y la Escuela de Estudios Superiores en Ciencias Sociales (Francia), identificaron que los usuarios dieron mayor prioridad a temas tradicionalmente destacados por el Partido Republicano, como inflación o inmigración; mostraron más probabilidad de considerar “inaceptables” las investigaciones penales contra Donald Trump; adoptaron posturas más favorables al Kremlin respecto a la guerra en Ucrania y menos favorables hacia el presidente ucranio, Volodímir Zelenski.

Aunque los resultados sugieren una clara tendencia en el algoritmo y un ajuste de las percepciones sobre asuntos concretos influenciados por este, la investigación no ha concluido que el sistema tenga un efecto directo en las posiciones políticas de las personas.

Ramón Salaverría, investigador sobre medios digitales, tiene una postura cautelosa en este sentido. “No habría que transmitir una impresión que supere lo que el propio estudio plantea”, afirma. “Los usuarios no han cambiado de afinidad respecto del partido. Lo que sí detecta es un desplazamiento en cuestiones polémicas y de actualidad durante el periodo analizado”. En un tiempo relativamente corto durante el verano de 2023, “los afines a ideas conservadoras se hicieron más afines” y se detectó “cierta incidencia” en quienes partían de posiciones liberales, apunta el catedrático de Periodismo en la Universidad de Navarra.

El efecto es duradero

Desactivar el algoritmo —es decir, pasar del feed algorítmico al cronológico— no produjo efectos inversos. Las publicaciones no se desplazaron de regreso hacia posiciones más liberales. “Si uso el algoritmo, lo activo, veo más contenido de la derecha, de activistas políticos, sigo a estos activistas y los añado como cuentas a las que quiero seguir. Y cuando desactivo el algoritmo, sigo todavía a estas personas”, explica Hodler, coautor de la investigación.

En España, la presencia de X es significativa entre la clase política. Diputados y analistas de todo el espectro ideológico han construido en la plataforma buena parte de su notoriedad pública. Y muchos de ellos se han mantenido en ella. Incluso después de que Elon Musk situara al Ejecutivo español en el centro de sus críticas y amplificara diversos bulos relacionados con la migración.

Los ataques también se dirigieron contra Podemos, la formación que pactó con el Gobierno socialista la aprobación de una regularización extraordinaria de migrantes que podría beneficiar a más de 500.000 personas.

“El negocio es el negocio”

Congosto, por su parte, afirma que “Twitter siempre ha tenido sesgo”. A su juicio, antes de la compra de Musk, la plataforma ya mostraba una inclinación, pero progresista —recuerda el cierre de la cuenta de Donald Trump tras el asalto al Capitolio—. Ahora, el sesgo se ha desplazado. “Las plataformas tienden a alinearse con el poder. El negocio es el negocio”, asegura.

Los investigadores detectaron, además, que los usuarios expuestos al algoritmo tenían mayor interacción. Para Congosto, este es el objetivo principal del sistema: “Te va a presentar siempre cosas que te enganchan. Eso significa más tiempo en la plataforma y eso tiene un valor económico clarísimo”. A su juicio, el sistema no “entiende” de ideologías, solo de viralidad. “Si en un contexto determinado los contenidos de derechas generan más actividad, se mostrarán más”, sostiene.

La agenda en manos del algoritmo

El análisis revela que el algoritmo prioriza contenido político, amplifica cuentas de activistas políticos —especialmente conservadores—, y reduce la presencia de medios tradicionales. A juicio de Congosto, esto entraña un gran riesgo. Si se reduce la visibilidad de fuentes que contrastan la información, aumenta el peso de discursos más emocionales o polarizantes.

Raúl Magallón, investigador especializado en desinformación, tecnología y esfera pública, comparte ese diagnóstico. A su entender, el debate no se limita a un eventual sesgo ideológico, sino que apunta a una transformación en la construcción de la agenda pública. “Probablemente los algoritmos no sirvan para cambiar nuestra cosmovisión política”, señala, “pero sí pueden ser determinantes a la hora de definir qué temas ocupan el centro de la actualidad”. Magallón advierte que estamos pasando “de la agenda de los medios de comunicación a la agenda de los algoritmos”.

source

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *