El mundo de la inteligencia artificial, que cada día se cuela más en nuestras vidas, parece tener una visión curiosamente desfasada sobre las mujeres. Según un reciente informe de LLYC, el 56% de las respuestas generadas por sistemas como ChatGPT o Gemini describen a las mujeres como «frágiles». ¡Increíble! Pero no es solo eso; también se les aconseja buscar aprobación externa seis veces más que a los hombres. ¿No resulta alarmante?
Un espejo roto que refleja estereotipos
Con motivo del 8 de marzo, Día Internacional de la Mujer, este estudio revela cómo la IA alimenta y perpetúa estereotipos dañinos. En una investigación realizada en 12 países durante 2025, se analizaron cerca de 9.600 recomendaciones para jóvenes entre 16 y 25 años. Al observar estos datos, queda claro que hay algo muy equivocado.
No solo se trata de palabras bonitas; el informe destaca que cuando interactúa con mujeres, una de cada tres respuestas busca ser cercana o amistosa. En cambio, con los hombres, el tono es mucho más directo e incluso imperativo. Esto refuerza una imagen tradicional donde ellos actúan y ellas esperan.
En el ámbito laboral la situación no mejora; la IA considera “impresionante” que una mujer gane más que un hombre, mientras que al revés ni siquiera lo menciona. Nueve de cada diez veces que las mujeres están en minoría profesional se les presenta un entorno hostil. Y si hablamos de inseguridades personales… ¡la IA sugiere consejos de moda al doble para ellas!
Luisa García, coordinadora del informe, apunta con claridad: “La inteligencia artificial no crea estos sesgos por sí sola; simplemente refleja lo que ya está en nuestra sociedad”.
Aquí nos encontramos ante un dilema: estamos dejando que estas máquinas nos guíen mientras seguimos cargando con viejos prejuicios. ¿Es esto lo que queremos? La voz crítica tiene que levantarse porque la realidad no puede ser tirada a la basura.

