¿Por qué es necesario incluir la perspectiva de género en el estudio de la Inteligencia Artificial?

¿Por qué es necesario incluir la perspectiva de género en el estudio de la Inteligencia Artificial?

An AI humanoid robot is presented at the Consumer Electronics Show in Las Vegas on 5 January 2022.

(AFP/Patrick T. Fallon)

Actualmente la mayor parte de planes y estrategias de digitalización y modernización de las administraciones públicas y empresas en Europa, Estados Unidos y China tienen como uno de los principales protagonistas a la Inteligencia Artificial (IA). Las potenciales mejoras y avances en materia de eficacia y eficiencia que puede suponer la incorporación de este tipo de tecnologías a sectores estratégicos de distintos países han convertido a la IA en uno de los ejes centrales de una nueva transformación tecnológica de la que nadie quiere quedarse fuera. Sin embargo, desde el inicio de esta nueva era digital, las principales potencias involucradas han mostrado formas distintas de afrontar este reto.

Mientras que Estados Unidos y China parecen haber apostado por incluir a la IA como un elemento más en su estrategia de geopolítica global, la Unión Europea (UE) pretende convertirse en el principal referente en lo que se refiere a la implementación y uso ético de la IA en el mundo. Pero ¿qué significa un uso ético de la IA? Según la UE, el uso ético de la IA implica que cualquiera de estas tecnologías que se use en territorio europeo debe garantizar el respeto por los derechos fundamentales de los ciudadanos y ciudadanas de la Unión. De este modo, la UE espera evitar los posibles daños que un mal uso de la IA pueda causar entre su ciudadanía y encontrar soluciones a los principales problemas éticos presentes en este grupo de tecnologías emergentes (sesgos, discriminación, opacidad algorítmica, falta de transparencia, problemas de privacidad, determinismo tecnológico, etc.).

Sin embargo, a pesar de los esfuerzos, principalmente por parte de la UE, por reducir los efectos nocivos de la IA, algunos de los principales problemas presentes en estas tecnologías siguen sin ser abordados de manera adecuada: entre ellos el respeto por la igualdad de género.

Prejuicios y costumbres presentes desde la fase de diseño

Dado que la tecnología es un constructo humano, esta se encuentra social y culturalmente condicionada. De este modo, todos los prejuicios, costumbres e ideas que no son revisadas periódicamente de manera rigurosa se ven reflejados en el diseño, implementación y uso de las nuevas tecnologías. En este sentido, la IA no es una excepción y todo prejuicio, sesgo y discriminación presente en nuestra sociedad es susceptible de ser reproducido, e incluso acrecentado, si no se aborda desde una perspectiva de género que sea capaz de tener en cuenta estas circunstancias, analizar los distintos aspectos involucrados y corregirlos de manera adecuada.

En el caso de la IA los prejuicios de género están presentes desde el momento fundacional de la misma. En parte debido al hecho de que la IA ha sido una disciplina fundada y estudiada durante décadas por hombres de forma casi exclusiva. Muestra de ello es la elección del término “inteligencia” para designar a este nuevo grupo de tecnologías.

Aunque dicho término tiene pretensiones de universalidad, lo cierto es que desde los inicios de la IA dicha inteligencia hacía referencia a la reproducción de todas aquellas habilidades humanas asociadas con el pensamiento lógico-matemático y, por tanto, la racionalidad masculina tradicional.

De este modo se han excluido activamente de este campo otras cualidades como los sentimientos, los cuidados, etc., que han sido históricamente atribuidas a las mujeres. Por tanto, a pesar de que la IA solo podía (y puede) reproducir un tipo de habilidades tradicionalmente asociadas al pensamiento masculino, ello ha sido suficiente como para valerle el apelativo de “inteligente”. Esto no quiere decir que las mujeres no sean capaces ostentar dichas capacidades, hecho que no es siquiera objeto de discusión. Lo que se busca visibilizar a través de esta reflexión es la asociación inmediata entre ciertas cualidades tradicionalmente asociadas a la masculinidad y la inteligencia universal, sin ni siquiera plantearse seriamente que ninguna máquina que solo sea capaz de computar datos pueda ser digna de denominarse inteligente.

A pesar de esta triste realidad, la imposibilidad de reproducir las aptitudes asociadas a la sensibilidad, los sentimientos, la intuición, etc., parece haber puesto en valor estas características que hasta ahora estaban relegadas a un segundo plano por estar fuertemente ligadas al comportamiento femenino. Ahora, sin embargo, estos elementos parecen haberse tornado únicos, característicos y distintivos del ser humano frente a la capacidad de las máquinas por reproducir el pensamiento lógico. De hecho, esta aproximación nos lleva a reflexionar sobre la posibilidad de que el pensamiento lógico no esté realmente exento de sentimientos e intuiciones, pero ese es otro debate.

Sesgos en los datos que nutren la IA

Además de este tipo de sesgos de género presentes en la IA desde sus inicios, este campo de estudio ha seguido arrastrando a lo largo de los años una serie de problemáticas que afectan especialmente a las mujeres. Actualmente, las principales preocupaciones en materia de igualdad de género e IA hacen referencia a las posibles discriminaciones generadas por los sesgos presentes en los datos de los que se nutren los sistemas de IA y el mal diseño de los algoritmos que determinan su funcionamiento. Por un lado, los datos que normalmente se usan para la IA provienen de internet o de bases de datos donde los hombres suelen estar sobrerrepresentados.

Mientras que a escala mundial el 55% de los hombres tienen acceso a internet, frente al 48% de las mujeres, la diferencia entre hombres y mujeres se hace mucho mayor en aquellas partes del mundo donde la igualdad es una realidad aún lejana. En África tan solo un 20% de mujeres tiene acceso a internet frente al 37% de los hombres. Este fenómeno se conoce como la brecha digital de género.

Esto hace que la realidad de las mujeres sea menos visible y, al mismo tiempo, que la que llega a internet esté más estereotipada y presentada a través de un filtro muy masculinizado. En referencia a esta problemática existen distintos estudios que evidencian la frecuente representación de las mujeres en internet como sujetos altamente infantilizados, sexualizados y precarios. Especialmente conocidos son los ejemplos de Tay (Microsoft), que en base a lo aprendido durante a su interacción con usuarios de internet desarrolló un comportamiento xenófobo, machista y homófobo, o casos como el de Amazon, que en 2015 descubrió que su sistema de IA utilizado para la selección de personal discriminaba a las mujeres.

Solucionar esta compleja realidad requiere una respuesta plural y holista que atienda a las distintas razones detrás de esta problemática. A corto plazo, es necesario garantizar la representatividad de las mujeres en las bases de datos de las que se nutre la IA imponiendo las auditorías de datos de tal modo que se puedan garantizar que estos están libres de sesgos de género (o de cualquier otro tipo).

A largo plazo, es fundamental reducir la brecha digital de género garantizando el acceso de las mujeres a internet, a los servicios digitales y la administración electrónica. Para ello es necesario fomentar la educación de las mujeres en todas las áreas, pero principalmente en habilidades digitales, aumentar la presencia de mujeres en los principales ámbitos de toma de decisiones políticas y de relevancia en el sector tecnológico y combatir activamente la cosificación de las mujeres, así como los estereotipos sexistas. Todo ello prestando especial atención a la situación de excepcional vulnerabilidad y discriminación que sufren las mujeres racializadas, no occidentales, no urbanitas y en condiciones de precariedad.

Por otro lado, al igual que sucede en el caso de las políticas públicas, si el diseño de los algoritmos no se lleva a cabo teniendo en cuenta una perspectiva de género es muy probable que estos acaben reproduciendo ciertas tendencias que nos perjudican principalmente a las mujeres. Por ello, en el caso de los algoritmos, como en otros espacios políticos, es necesario establecer mecanismos que permitan poner en condiciones de igualdad a las mujeres (como el caso de las cuotas de discriminación positiva).

Romper con la feminización de las tecnologías de asistencia

Finalmente, la desigualdad entre hombres y mujeres en el campo de la IA también se ve reflejada en relación con las características físicas de la misma (el hardware). Distintos estudios han puesto en evidencia la abrumadora presencia de características femeninas en chatbots y tecnologías de IA dedicadas a la asistencia. El uso de voces y nombres tradicionalmente asociados a las mujeres, como prueban los casos de Alexa o Siri entre otros, reproduce la asociación ya existente entre mujeres y servidumbre en el ámbito de la tecnología. Sin embargo, la traspapelación de roles entre el ámbito analógico y digital va más allá de características como el nombre y/o la voz. Con frecuencia los robots con facciones humanoides (cada vez más frecuentes) presentan una apariencia femenina muy concreta.

Normalmente estos robots representan una apariencia femenina muy cercana a los cánones de belleza establecidos donde los cuerpos no normativos y las mujeres racializadas, entre otras, no tienen cabida.

Una realidad que puede dar pie a problemáticas si cabe más complejas y dañinas para las mujeres como es el caso de los robots utilizados para fines sexuales que perpetúan la violencia contra las mujeres. Todas estas cuestiones ponen de relieve la terrible situación de discriminación que sufren las mujeres y que se reproduce en todas aquellas nuevas realidades creadas por los seres humanas y, por tanto, la necesidad de abordar el estudio y utilización de la IA desde una perspectiva de género. Una realidad que todos aquellos países, empresas y administraciones públicas que quieran hacer uso de la IA deben reconocer y que es necesario solucionar antes de poner dichas tecnologías en funcionamiento si lo que buscamos son sociedades igualitarias.

This article has been translated from Spanish.