Sesgos de género en las imágenes con IA

INGRID BACHMANN
Profesora de la Facultad de Comunicaciones
10 de Octubre de 2025
2 MINUTOS DE LECTURA
Aunque no es tecnología nueva, la inteligencia artificial (IA) generativa saltó a la palestra hace algunos años, cuando ChatGPT quedó disponible a todo público. Desde entonces, la oferta de IA generativa se ha disparado y hoy cualquier persona –incluso una sin mayores habilidades tecnológicas– puede generar imágenes, videos y texto simplemente describiendo el resultado deseado (un “prompt”). En ese contexto, vale la pena preguntarse hasta qué punto los prejuicios humanos se han incorporado a los sistemas de IA.
Uno muy documentado tiene que ver con los sesgos de género. Este tipo de sesgos está presente en todos los lenguajes y los de programación no son una excepción.El material con el que se entrena a algoritmos y sistemas de IA suele subrepresentar, estereotipar e hipersexualizar a las mujeres, y cuando la IA se nutre de ese tipo de datos, aprende a perpetuar y hasta amplificar estos sesgos. Por ejemplo, a partir del material disponible en la web, puede terminar aprendiendo a generar imágenes que muestran a los hombres como científicos y a las mujeres como enfermeras con uniforme sexy.
Algo similar ocurre con los muy exigentes patrones de belleza femenina en todo tipo de espacios mediáticos y digitales. Cuando estudiantes de periodismo de la Universidad Diego Portales crearon 2 mil imágenes con IA, obtuvieron resultados con todo tipo de estereotipos de género, así como de edad, nacionalidad y características socioeconómicas. Así, al pedir que se generara “persona chilena”, los resultados fueron principalmente mujeres jóvenes de aspecto caucásico. En las pocas imágenes generadas de mujeres mayores, la mayoría aparecía abrigadas con un chal, tejiendo o tomando mate.
Otro creciente problema en temas de género e inteligencia artificial es la llamada pornografía deepfake (video ultrafalseado), en la que se impone con IA la cara de alguien en imágenes sexualmente explícitas. Es espantosamente común. La proliferación de aplicaciones de “desnudificación”, que transforman imágenes normales de mujeres y niñas en desnudos, también son una señal de alerta. Sensity, una empresa dedicada al monitoreo de videos sintéticos, estima que más del 95% de los deepfakes en la web son de índole sexual y, de ellos, el 99% tienen a mujeres como objeto de la manipulación. Puede parecer algo insustancial –en rigor, la imagen creada es falsa–, pero igualmente se trata de una conducta no consentida de naturaleza sexual.
Los sesgos de género de la IA en tema de imágenes no son menores y su impacto, tampoco. Es importante mejorar la diversidad y representatividad de datos para entrenar sistemas de IA e integrar políticas que tengan en cuenta las cuestiones de género en el desarrollo de estos sistemas. Como usuarios, también debemos ser más críticos y reflexivos sobre estos sistemas, porque, como toda tecnología, no está exenta de consecuencias.