¿Los estereotipos capturan parte de la realidad o están socialmente distorsionados? Un grupo de científicos quiso comprobarlo, fijándose en el caso de los sesgos de género relacionados con la edad. Para ello, analizaron 1,4 millones de imágenes y vídeos de Google, Wikipedia, IMDb, Flickr y YouTube, además de nueve modelos de lenguaje entrenados con miles de millones de palabras de internet. Su conclusión: “A pesar de que no existen diferencias sistemáticas de edad entre mujeres y hombres en la fuerza laboral, encontramos que las mujeres se representan como más jóvenes que los hombres en diversas ocupaciones y roles sociales”. También vieron que, para las herramientas de inteligencia artificial (IA), los perfiles de hombres mayores están mejor cualificados que los de las mujeres.

Las mujeres afrontan una presión persistente por parecer jóvenes, lo que se ha dado en llamar edadismo de género. Diversos estudios muestran que a las mayores se las discrimina en la búsqueda de empleo y en la promoción profesional, y que hay más probabilidades de que se asocie la palabra chica con una mujer (independientemente de su edad y categoría laboral) que la palabra chico con un hombre. “Esta diferencia de edad es más marcada en el contenido que representa ocupaciones con mayor estatus y remuneración. Demostramos cómo los algoritmos principales amplifican este sesgo”, sostienen en el artículo Douglas Guilbeault, de la Universidad de Stanford, y sus colegas, en un artículo que se publica hoy en la revista Nature, punta de lanza de la mejor ciencia mundial.

Por ejemplo, vieron que Google Images representa a los doctores en una franja de edad de entre 25 y 34 años, mientras que encuadra a las doctoras entre los 18 y 24 años. En el portal especializado en cine IMDb, la mayoría de imágenes de actrices son de veinteañeras, aunque sean mayores en la actualidad, mientras que los actores son principalmente cuarentones o cincuentones.

Los investigadores optaron por estudiar la representación de la mujer en imágenes porque la edad biológica es un punto de referencia objetivo, medible, que puede servir para evaluar la exactitud de los estereotipos. “La relevancia de este estudio radica en la cuantificación rigurosa de este sesgo frente a anclajes objetivos verificables —en particular, datos del Censo de EE UU—, lo que permite superar el debate controvertido sobre la exactitud de los estereotipos”, señala Nuria Oliver, directora científica y cofundadora de la Fundación ELLIS Alicante y que no ha participado en el estudio, en declaraciones a la agencia SMC España.

La influencia de Google

En uno de los experimentos, Guilbeault y sus colegas pidieron a un grupo de voluntarios que estimaran la edad media de hombres y mujeres en determinadas ocupaciones. A una parte de los participantes se les exigió que, antes de pronunciarse, hicieran una búsqueda en Google Images. El resultado es que, quienes recurrieron a la herramienta de Google, dieron aproximaciones significativamente más bajas de la edad de las mujeres para cada ocupación.

Hay quien sostiene que los estereotipos más extendidos capturan información observable de los grupos sociales, es decir, que contienen algo de verdad. Otros insisten en que son exageraciones que distorsionan la realidad. ¿Se ajusta esta percepción sobre la edad de las mujeres trabajadoras a la realidad? No. Tras bucear en el censo de EE UU, los investigadores vieron que “no hay evidencias estadísticas de que haya categorías laborales en las que las mujeres sean más jóvenes que los hombres”.

“Estos resultados proporcionan evidencia integral y a gran escala del edadismo de género, es decir, de discriminación contra las mujeres mayores, pero no contra los hombres mayores, en el contenido en línea”, dice Ana Macanovic, del departamento de Ciencias Políticas y Sociales del Instituto Universitario Europeo de Fiesole (Italia), que no ha participado en el estudio. “El edadismo de género está relacionado con normas sociales que valoran la juventud y el atractivo en las mujeres, pero la experiencia y la madurez en los hombres. Por lo tanto, los resultados de Guilbeault y sus colegas muestran que estas normas sociales existen y se perpetúan en diversos tipos de contenido visual y textual en línea”.

La IA perpetúa los sesgos

En una segunda fase del estudio, el equipo de Guilbeault demostró que esos mismos sesgos están presentes también en los grandes modelos de lenguaje (LLM, por sus siglas inglesas), como ChatGPT. Para estas herramientas, ser mayor se asocia fuertemente con ser hombre. Y, cuando se le pide a estas IA que valoren currículums de hombres y mujeres, les dan sistemáticamente más puntuación a los de los hombres mayores que a los de compañeras jóvenes. “Nuestro estudio muestra cómo el género y la edad se distorsionan conjuntamente en todo internet y en los algoritmos que lo median, revelando así desafíos y oportunidades cruciales en la lucha contra la desigualdad”, escriben los autores.

Para Macanovic, el hecho de que las percepciones sesgadas sobre la edad y el género no solo son captadas por los modelos de IA, sino también reproducidas activamente por estos, “es sorprendente porque empresas como OpenAI afirman invertir grandes esfuerzos en tratar de eliminar los sesgos de los datos de entrenamiento y de los procedimientos de entrenamiento de sus modelos”.

“Lo preocupante es que, al incorporarse en sistemas automatizados con gran autoridad social, tales sesgos no sean solo simbólicos y se conviertan en discriminaciones con efectos reales en la vida cotidiana de las personas, por ejemplo, en el acceso a una cobertura médica, a un alquiler de vivienda o a un puesto de trabajo”, afirma, por su parte, Marian Blanco Ruiz, profesora de Comunicación Audiovisual y Publicidad en la Universidad Rey Juan Carlos en declaraciones a la agencia SMC España.

La demostración de cómo los sesgos algorítmicos se trasladan a la sociedad debería traer consecuencias. Así lo ve Pablo Haya Coll, investigador del Laboratorio de Lingüística Informática de la Universidad Autónoma de Madrid: “En mi opinión, es necesario fomentar las auditorías de algoritmos y exigir transparencia en los sistemas de IA, en línea con las obligaciones establecidas por el Reglamento Europeo de Inteligencia Artificial, que busca garantizar el uso seguro, ético y no discriminatorio de estas tecnologías”, ha dicho a SMC España.

source

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *