Menú
La IA representa con un sesgo de género casi el 60% de las profesiones, mientras que los humanos lo hacen en un 35 % de los casos.
La Universidad Europea y la Universidad de Valladolid han evaluado un total de 37 profesiones mediante el uso de DALL-E 2, una aplicación de inteligencia artificial (IA) desarrollada por OpenAI, y han observado que esta les ofrecía siempre el mismo género en 22 de ellas cuando introducían las coordenadas de búsqueda. El estudio se ha llevado a cabo utilizando una muestra de 666 imágenes creadas a través de esta aplicación.
Los datos reflejan que el 21,6 % de las profesiones se representan completamente estereotipadas con el género femenino, mientras que el 37,8 % lo hacen con respecto al masculino.
Según el informe, los estereotipos masculinos son evidentes en profesiones técnicas, científicas y tecnológicas. Por su parte, en ocupaciones artísticas como la interpretación, la música o la moda, las imágenes que devuelve la IA son exclusivamente femeninas. El estudio también destaca la presencia mayoritaria de mujeres en el sector de la educación y la salud, especialmente en enfermería.
Otras profesiones vinculadas al hombre, según esta tecnología, son la banca, la informática o la política. Por su parte, en empleos relacionados con la enseñanza, el diseño y el sector servicios son siempre figuras femeninas las que aparecen en las imágenes generadas por la inteligencia artificial. Este sesgo se produce en el 60 % de los casos en los que interviene la IA, por el 35 % en el caso de los humanos.
La falta de diversidad en los datos utilizados para entrenar los modelos es una de las causas de los sesgos de género en la IA, conforme a la investigación. Si los datos no reflejan adecuadamente la diversidad, el modelo aprende y reproduce los estereotipos. En el caso de DALL-E 2, los datos utilizados provienen principalmente de la web, lo que significa que el modelo se nutre de las ideas dominantes en la cultura online.
Para avanzar hacia tecnologías de IA verdaderamente inclusivas es esencial reflexionar sobre nuestros propios prejuicios y trabajar no solo para reflejar el pasado, sino para aprender críticamente de él, según los autores del estudio. También subrayan “la necesidad de una comunidad de desarrollo de IA diversa que establezca las bases hacia una IA más justa e imparcial”.