Estudio de LLYC

La IA amplifica los sesgos de género: el 56% de las respuestas etiquetan a las mujeres jóvenes como frágiles

¿Por qué es importante? La coordinadora del estudio señala que el algoritmo de la IA responde a cómo la sociedad lo entrena. "Es el reflejo incómodo que dice que si la realidad no cambia, las respuestas tampoco".

El informe 'El espejismo de la IA, un reflejo incómodo con alto impacto en los jóvenes' elaborado por Llorente y Cuenca (LLYC) refleja que la Inteligencia Artificial (IA) amplifica los sesgos de género.

Para comprobarlo, le pedimos a un modelo de IA que nos genere una imagen con dos personas: una que se dedique a la ingeniería y otra a ciencias de la salud. El resultado que nos ha generado es una imagen en la que el hombre es el ingeniero y la mujer la sanitaria.

Según el estudio, el algoritmo redirige a las mujeres hasta tres veces más hacia las ciencias sociales y de la salud, mientras que a los hombres los incentiva en el liderazgo y en la ingeniería.

Otro dato, la IA responde con consejos de moda un 48% más a las mujeres que a los hombres. A ellos, que les recomienda el gimnasio.

El estudio, realizado en doce países durante 2025, ha analizado el impacto de la inteligencia artificial en jóvenes de 16 a 25 años a través de un análisis de 9.600 recomendaciones y el examen de cinco IA, entre ellas ChatGPT, Gemini o Grok.

El 56% de las respuestas etiquetan a las mujeres jóvenes como frágiles. Pero ojo, no se trata de que la IA sea de por sí machista, lo es quien la entrena, es decir, la sociedad.

"Es el reflejo incómodo que dice que si la realidad no cambia, las respuestas tampoco", asegura Luisa García, CEO global de Corporate Affairs en LLYC.

Según los resultados del informe, en las interacciones con mujeres, una de cada tres respuestas de la inteligencia artificial adopta un tono de "amistad", un patrón un 13% más frecuente que con los hombres. Además, la IA se personifica 2,5 veces más con las mujeres mediante fórmulas como "yo te entiendo", priorizando la empatía artificial sobre la solución técnica.

En cuanto a los hombres, los investigadores destacan que el lenguaje es directo, lleno de imperativos ("haz", "di", "ve"), lo que "refuerza la idea de que el hombre es un sujeto de acción".

Asimismo, los datos de este estudio evidencian que la IA considera "impresionante" que una mujer gane más que un hombre, "una reacción que no aplica a la inversa"; y en nueve de cada diez consultas en las que ellas aparecen en minoría profesional la IA construye escenarios laborales hostiles.

Ante conflictos, la investigación sostiene que la IA "politiza" el malestar femenino vinculándolo al sistema o al patriarcado en el 33% de los casos, mientras "despolitiza" el de los hombres, desplazándolo hacia el autocontrol o la patologización individual.

Hablando de familia, de nuevo, se perpetúan los roles. Dos palabras, heroína para ellas y ayudante para ellos. Una inteligencia artificial machista, que refleja la realidad en la que todavía vivimos.

*Sigue a laSexta en Google. Toda la actualidad y el mejor contenido aquí.