Últimas Noticias

Si quieres saber todo lo que sucede en nuestra Fundación no puedes perderte nuestro apartado de Prensa.

La Inteligencia Artificial está en todas partes y a mano de todo el mundo. Pero, ¿quién hace esa IA? ¿Dónde están las mujeres?

I

En las plataformas digitales, espacios caracterizados por estar más allá de lo físico y de lo tangible, sigue habiendo sitio para las discriminaciones de las mujeres. Y es que cuesta reconocer que ámbitos como la Tecnología y la Ciencia, que abanderan los lemas del progreso y del bienestar humano, sean capaces al mismo tiempo de crear y reproducir injusticias de género. Será preciso decir que la Tecnología y la Ciencia solo son concebidas como incompatibles con dichas injusticias si asumimos la imparcialidad, la neutralidad y la objetividad de las disciplinas científicas como un hecho. La realidad es que las ciencias están profundamente insertadas en la sociedad, y ésta interactúa con ella. Desde el diseño, los objetivos a seguir y la producción, hasta el uso que se hace de la Inteligencia Artificial nos incumbe a todos porque nos afecta a todo el mundo.

La Inteligencia Artificial ha cobrado mucha importancia en poco tiempo, manifestándose en múltiples áreas de actividad (laboral, asistencial, defensa, cultural, social, legal, etc.) y despertando una amplia respuesta social. Su influencia es tal que dependemos de la toma de decisiones a los que llegue la IA, de ello que la inserción de los sesgos de género en ella suponga un grave problema (Belloso, 2023). Sin embargo, la celeridad con la que se ha desarrollado este sector no ha ido aparejado de un cuestionamiento y de una evaluación cuidadosa sobre cómo se comporta y qué efectos tiene la Inteligencia Artificial en nuestras vidas.

Uno de los motivos más destacados por los cuales esto no ha ocurrido es el prestigio y el respeto incuestionable del que se les dota a las ramas STEM en general. La idea es que las disciplinas científicas se fundamentan exclusivamente en los hechos y, por tanto, el diseño, la metodología, y el producto no tienen errores. Al estar fundamentados exclusivamente en los hechos, es imposible que haya sesgos, pues los sesgos son producciones de la inteligencia humana, donde los juicios de valor son incorporados (consciente o inconscientemente) en la actividad. De esta manera, la Inteligencia Artificial establece una separación radical entre los hechos y los valores. Esta separación supone la no intromisión de las disciplinas de las ciencias sociales (juicios de valor) a las ciencias puras (juicios de verdad).

Esta justificación conlleva la idea de que, la evaluación ética, jurídica, o con perspectiva de género de la IA, así como la aplicación de la normativa jurídica a la IA, van a limitar y coartar el avance de la ciencia. Además, obstaculiza la capacitación de las y los ingenieros informáticos en el impacto moral que supondrá el diseño y la programación de la IA (Belloso, 2023). De esta manera, el debate en torno a si la tecnología es en sí misma mala o si es que sólo se hace un mal uso de ella es superfluo: el foco ha estado únicamente puesto en que la tecnología (el diseño, los objetivos que persigue, los datos) es mal utilizada, absolviendo e inmunizando a todas las fases previas. Es por eso que, en el caso de la IA, se habla del mito del algoritmo justo (Belloso, 2023). Ya va siendo hora de poner la mirada en estos sesgos. Va siendo hora de hacer uso de principios rectores, de valores más allá del progreso y el bienestar. Ya va siendo hora de reconocer que la separación entre los hechos y los valores es sólo un deseo. La Inteligencia Artificial y las innovaciones tecnológicas que se derivan de ella no son neutrales, discriminan, y lo hacen precisamente por el sesgo de género en los datos que maneja y por el sesgo en el diseño.

II

¿Por qué precisamente hay sesgos de género en la IA? Para abordar esta pregunta, cabe hacer referencia a la brecha digital de género, tanto en el acceso a la tecnología como en la habilidad digital. Hay una brecha de género de 8 puntos, según los datos de la Unión Europea del 2014, y según los datos de Emerj de 2017, sólo el 13% de las posiciones de poder en las empresas tecnológicas dedicadas a la Inteligencia Artificial son ocupados por mujeres (Rodríguez, 2021). La asignatura de Informática en los centros educativos es, junto con las Matemáticas, la Literatura y el Deporte, de las asignaturas que más desigualdades de género entre alumnos y alumnas presenta, donde los alumnos obtienen resultados superiores que las alumnas. Las disciplinas STEM (Science, Technology, Engineering & Mathematics) son muy poco elegidas por parte de las adolescentes como títulos universitarios, obteniendo una infrarrepresentación femenina en dichos sectores.

Esta masculinización de los sectores STEM influye en la falta de preocupación por los asuntos de las mujeres, en la falta de investigación con perspectiva de género, en las representaciones estereotipadas de las mujeres y en el lenguaje sexista que es reproducido en el diseño y en los datos de los que hacen uso.

Cabe además señalar que los grupos vulnerables de nuestra sociedad tienen más riesgo de sufrir de los sesgos de parte de los algoritmos, de manera que los datos sirvan como refuerzo de su propia marginación (Balmaceda, 2021).

III

La exposición de los algoritmos de la IA a las interacciones humanas tiene el efecto de reproducir lo que asume como representativo de la sociedad, a saber, las discriminaciones por motivo de género. Como ejemplo, el robot de Microsoft Twitter Tay, que aprendía en función de las conversaciones con los usuarios, tuvo que ser apagado a las 24 horas por la empresa debido al comportamiento sexista y racista que había adquirido de parte de los interlocutores humanos (Rodríguez, 2021). Si bien hay intentos en distintos países de utilizar precisamente la Inteligencia Artificial para erradicar los sesgos de género, no hay una evaluación sistémica por parte de las empresas tecnológicas para buscar activamente estos sesgos en la IA, erradicarlos y corregir el diseño y el input de datos del que hace uso.

Es interesante comentar que los prejuicios que influyen en los resultados que obtienen los algoritmos son un problema en el nivel prescriptivo más que descriptivo. Esto es, tomando el caso paradigmático de Amazon en sus contrataciones de mujeres y cómo no se ajustaban al perfil de candidatos del pasado (hombres) (Rodríguez, 2021), los algoritmos reproducen qué pasa en vez de lo que debería pasar.

Algunas de las consecuencias que tienen los sesgos de género en la Inteligencia Artificial son las siguientes: dificultad de encontrar puestos de trabajo tradicionalmente tipificados como masculinos, los chatbots y los robots de asistencia de voz como representantes de la asignación de roles femeninos como el servicio, la obediencia, entre otras cosas.

IV

Las soluciones vienen necesariamente por incluir la perspectiva de género al mundo digital, utilizar la tecnología para poder superar el patriarcado, no para mantenerlo. Para ello, el ciberfeminismo - término que originó en 1994 por la filósofa Sadie Plant para poder “teorizar, criticar, y explotar Internet” (Vita Activa, 2021) - debe de enfocarse en todos aquellos ámbitos donde el sexismo continúa vigente en los procesos tecnológicos (Mujer en Red, 1997).

En el caso particular de la Inteligencia Artificial, se habla desde hace unos años de justicia algorítmica o fairness (Belloso, 2023), por el cual las innovaciones tecnológicas deben ajustarse a unos parámetros ético-jurídicos como son la beneficencia, la maleficencia, la autonomía, la justicia, la inteligibilidad y la responsabilidad. Por otra parte, debe haber incentivos para que las niñas opten por las carreras STEM y por la ascensión de los puestos de liderazgo y de poder en las empresas tecnológicas, incorporando la perspectiva de género en la metodología, el diseño y en el seguimiento de la IA, así como la incorporación de datos segregados por sexo y una mayor cantidad de datos que representen a las mujeres.

En definitiva, debe de haber una interdisciplinariedad entre las ciencias sociales y las ciencias puras de tal manera que haya una evaluación y un cuidado por la producción científica en general. No hay que bajar la guardia con la reproducción de las desigualdades de género en las plataformas digitales.

Redacción: Ana E. Marcos

Edición: Nuria de Pablo Sánchez

BIBLIOGRAFÍA
  • Balmaceda, T. et al. (2021): “Bajo observación: Inteligencia artificial, reconocimiento facial y sesgos”, Artefactos, Revista de estudios de la ciencia y de la tecnología, Vol. 10 (2): 21-43. Disponible en https://revistas.usal.es/cinco/index.php/artefactos/article/view/25057/26997
  • Galloway, A. (1997): “Un informe sobre ciberfeminismo. Sadie Plant y VNS Matrix: análisis comparativo”, Mujeres en Red: El Periódico Feminista. Disponible en https://www.mujeresenred.net/spip.php?article1531
  • Vita Activa (2021): “Ciberfeminismo y tecnofeminismo”. Disponible en https://vita-activa.org/ciberfeminismo-y-tecnofeminismo/

How to collaborate

You can collaborate with Fundación Siglo22 and contribute to innovation in education, gender equality and research. How?

Become a volunteer

Subscribe

Si quieres informarte sobre todo lo que pasa en nuestra Fundación, suscríbete a las newsletters y recibe novedades todos los meses.
De conformidad con el RGPD 2016/679 y la LOPDGDD 3/2018, sus datos serán incorporados a nuestras ficheros para enviarle nuestra Newsletter y novedades relacionadas con las actividades de la Fundación. El responsable de tratamiento es Fundación Siglo22, y en cumplimiento con la normativa aplicable, solo cederemos sus datos cuando sea obligatorio por ley. Puede consultar nuestra Política de Privacidad para más información.

We work in Europe