Cómo los Algoritmos Perpetúan el Edadismo de Género en la Red | El Espejo Distorsionado de la IA


¿Los estereotipos reflejan una realidad observable o son meras distorsiones sociales? Un grupo de científicos se propuso responder a esta pregunta, centrándose en los sesgos de género relacionados con la edad, y sus hallazgos son reveladores y preocupantes. Tras analizar 1.4 millones de imágenes y videos de plataformas como Google, Wikipedia, IMDb, Flickr y YouTube, además de examinar nueve modelos de lenguaje entrenados con miles de millones de palabras de internet, la conclusión es contundente: "A pesar de que no existen diferencias sistemáticas de edad entre mujeres y hombres en la fuerza laboral, encontramos que las mujeres se representan como más jóvenes que los hombres en diversas ocupaciones y roles sociales". El estudio, liderado por Douglas Guilbeault de la Universidad de Stanford, fue publicado recientemente en la prestigiosa revista Nature.

Los investigadores también descubrieron que, para las herramientas de Inteligencia Artificial (IA), los perfiles de hombres mayores están sistemáticamente mejor cualificados que los de las mujeres, independientemente de la edad.


El Edadismo de Género en el Contenido Online 👵🏽➡️👧🏻

Las mujeres enfrentan una presión persistente por parecer jóvenes, un fenómeno conocido como edadismo de género. Diversos estudios han demostrado que las mujeres mayores son discriminadas en la búsqueda de empleo y en la promoción profesional. Además, es más probable que la palabra "chica" se asocie con una mujer (sin importar su edad o categoría laboral) que la palabra "chico" con un hombre.

"Esta diferencia de edad es más marcada en el contenido que representa ocupaciones con mayor estatus y remuneración. Demostramos cómo los algoritmos principales amplifican este sesgo", sostienen Guilbeault y sus colegas. Por ejemplo, mientras Google Images representa a los doctores en una franja de edad de entre 25 y 34 años, encuadra a las doctoras entre los 18 y 24 años. En IMDb, la mayoría de imágenes de actrices son de veinteañeras, incluso si en la actualidad son mayores, mientras que los actores suelen ser cuarentones o cincuentones.

La elección de estudiar la representación de la mujer en imágenes y su edad biológica fue estratégica, ya que la edad es un punto de referencia objetivo y medible. Nuria Oliver, directora científica de la Fundación ELLIS Alicante, destaca la "cuantificación rigurosa de este sesgo frente a anclajes objetivos verificables —en particular, datos del Censo de EE UU—, lo que permite superar el debate controvertido sobre la exactitud de los estereotipos".



Google y la Perpetuación de Percepciones Sesgadas 🔍

La influencia de plataformas como Google es innegable. En un experimento, voluntarios a los que se les pidió estimar la edad media de hombres y mujeres en ciertas ocupaciones dieron aproximaciones significativamente más bajas para la edad de las mujeres después de realizar una búsqueda en Google Images. La investigación del censo de EE. UU. confirmó que "no hay evidencias estadísticas de que haya categorías laborales en las que las mujeres sean más jóvenes que los hombres", desmintiendo la idea de que estos estereotipos contienen una "verdad observable".

Ana Macanovic, del Instituto Universitario Europeo de Fiesole, señala que estos resultados "proporcionan evidencia integral y a gran escala del edadismo de género, es decir, de discriminación contra las mujeres mayores, pero no contra los hombres mayores, en el contenido en línea". Este tipo de sesgos algorítmicos es una preocupación creciente, especialmente cuando se integran en sistemas de alta autoridad social, como la IA Conversacional en servicios públicos o la banca, donde la automatización de atención al cliente podría replicar y amplificar estas discriminaciones en decisiones con efectos reales.

La IA No Solo Capta, Sino que Reproduce los Sesgos 🤖➡️🌍

En una segunda fase del estudio, el equipo de Guilbeault demostró que estos mismos sesgos están presentes en los grandes modelos de lenguaje (LLM), como ChatGPT. Para estas herramientas, ser mayor se asocia fuertemente con ser hombre. Al pedir a las IA que valoren currículums de hombres y mujeres, otorgan sistemáticamente más puntuación a los de los hombres mayores que a los de sus compañeras jóvenes.

El hecho de que los modelos de IA no solo capten, sino que reproduzcan activamente estos sesgos es alarmante. Marian Blanco Ruiz, profesora de Comunicación Audiovisual y Publicidad en la Universidad Rey Juan Carlos, advierte que, al incorporarse en sistemas automatizados con gran autoridad social, "tales sesgos no sean solo simbólicos y se conviertan en discriminaciones con efectos reales en la vida cotidiana de las personas, por ejemplo, en el acceso a una cobertura médica, a un alquiler de vivienda o a un puesto de trabajo".


TE PUEDE INTERESAR: ⚛️ La Amenaza Cuántica se Acerca: Optimización del Algoritmo de Shor Acorta el Horizonte de Ataque a Bitcoin


La demostración de cómo los sesgos algorítmicos se trasladan y amplifican en la sociedad exige acciones urgentes. Pablo Haya Coll, investigador de la Universidad Autónoma de Madrid, subraya la necesidad de "fomentar las auditorías de algoritmos y exigir transparencia en los sistemas de IA", en línea con el Reglamento Europeo de Inteligencia Artificial, para garantizar un uso seguro, ético y no discriminatorio de estas tecnologías.