Pourquoi est-il nécessaire d’inclure la perspective de genre dans les études sur l’intelligence artificielle

Pourquoi est-il nécessaire d'inclure la perspective de genre dans les études sur l'intelligence artificielle

An AI humanoid robot is presented at the Consumer Electronics Show in Las Vegas on 5 January 2022.

(AFP/Patrick T. Fallon)

À l’heure actuelle, l’intelligence artificielle (IA) est l’une des technologies clés utilisées dans la plupart des plans et stratégies de numérisation et de modernisation des administrations publiques et des entreprises en Europe, aux États-Unis et en Chine. Les améliorations et avancées potentielles en termes d’efficacité et d’efficience que peut entraîner l’incorporation de ce type de technologie dans les secteurs stratégiques de différents pays ont fait de l’IA l’un des axes centraux d’une nouvelle transformation technologique dont personne ne veut être exclu. Cependant, depuis le début de cette nouvelle ère numérique, les principales puissances impliquées ont relevé ce défi de différentes manières.

Alors que les États-Unis et la Chine semblent avoir choisi d’inclure l’IA comme un élément supplémentaire dans leur stratégie géopolitique mondiale, l’Union européenne (UE) entend devenir la principale référence pour la mise en œuvre et l’utilisation éthique de l’IA dans le monde. Mais que signifie une utilisation éthique de l’IA ? Selon l’UE, l’utilisation éthique de l’IA implique que chacune des technologies utilisées sur le territoire européen garantisse le respect des droits fondamentaux des citoyens de l’Union. De cette façon, l’UE entend éviter les éventuels préjudices que l’utilisation abusive de l’IA pourrait causer à ses citoyens et trouver des solutions aux principaux problèmes éthiques inhérents à ce groupe de technologies émergentes (préjugés, discrimination, opacité algorithmique, manque de transparence, problèmes de confidentialité, déterminisme technologique, etc.).

Cependant, malgré les efforts déployés, principalement par l’UE, pour réduire les effets néfastes de l’IA, certains des problèmes majeurs que supposent ces technologies ne sont toujours pas suffisamment pris en compte, notamment le respect de l’égalité des genres.

Les préjugés et les habitudes sont présents dès la phase de conception

La technologie étant une construction humaine, elle est conditionnée socialement et culturellement. Aussi tous les préjugés, habitudes et idées qui ne sont pas rigoureusement révisés périodiquement se reflètent-ils dans la conception, la mise en œuvre et l’utilisation des nouvelles technologies. À cet égard, l’IA ne fait pas exception : tous les préjugés, biais et discriminations présents dans notre société sont susceptibles d’être reproduits, voire multipliés, s’ils ne sont pas abordés dans une perspective de genre qui soit capable de prendre en considération ces éléments, d’analyser les différents facteurs en jeu et de les corriger adéquatement.

S’agissant de l’IA, les préjugés sexistes existent depuis sa création, en partie parce que l’IA est une discipline fondée et étudiée depuis des décennies presque exclusivement par des hommes, comme en témoigne le choix du terme « intelligence » pour désigner ce nouveau groupe de technologies.

Bien que ce terme ait des prétentions d’universalité, il est évident que dès le début de l’intelligence artificielle, cette dernière faisait référence à la reproduction de toutes les aptitudes humaines associées à la pensée logico-mathématique et, par conséquent, à la rationalité masculine traditionnelle.

C’est ainsi que d’autres qualités historiquement attribuées aux femmes, telles que les sentiments ou l’attention ont été activement exclues de ce domaine. Par conséquent, malgré le fait que l’IA ne pouvait (et ne peut) que reproduire un type d’aptitudes traditionnellement associées à la pensée masculine, cela a suffi pour la qualifier d’ « intelligente ». Cela ne signifie pas pour autant que les femmes ne possèdent pas ces aptitudes – une question qui ne se pose même pas. À travers cette réflexion, ce que l’on cherche à mettre en évidence, c’est l’association immédiate qui s’établit entre certaines qualités traditionnellement associées à la masculinité et l’intelligence universelle, sans même se demander sérieusement si une machine qui est uniquement capable de traiter des données mérite bien d’être qualifiée d’intelligente.

Malgré cette triste réalité, l’impossibilité de reproduire les compétences liées à la sensibilité, aux sentiments ou à l’intuition semble avoir mis en valeur ces caractéristiques qui, jusqu’à présent, étaient reléguées au second plan car fortement liées au comportement féminin. Aujourd’hui, ces éléments semblent toutefois devenus des caractéristiques uniques, spécifiques et distinctives de l’être humain, face à la capacité des machines à reproduire la pensée logique. Cette approche nous amène à réfléchir à l’hypothèse selon laquelle la pensée logique n’est pas totalement exempte de sentiments et d’intuitions, mais c’est là un autre débat.

Les données biaisées de l’IA

Outre les biais sexistes présents dans l’IA depuis sa création, ce champ d’études n’a cessé, au fil des ans, de soulever une série de problèmes qui touchent particulièrement les femmes. Actuellement, les principales préoccupations concernant l’égalité des genres et l’IA concernent la discrimination que pourraient générer les biais présents dans les données qui alimentent les systèmes d’IA ainsi que la mauvaise conception des algorithmes qui déterminent leur fonctionnement. D’une part, les données généralement utilisées pour l’IA sont issues d’Internet ou de bases de données où les hommes sont souvent surreprésentés.

Alors que 55 % des hommes dans le monde ont accès à Internet, par rapport à 48 % des femmes, la différence entre les deux sexes est nettement plus marquée dans les régions du monde où l’égalité n’est encore qu’une lointaine réalité. En Afrique, seulement 20 % des femmes ont accès à Internet, contre 37 % des hommes. Ce phénomène est appelé « fracture numérique entre les hommes et les femmes ».

La réalité des femmes est ainsi rendue moins visible et, parallèlement, ce que l’on peut en voir sur Internet est plus stéréotypé et présenté à travers un filtre très masculinisé. À l’égard de cette problématique, différentes études montrent que les femmes apparaissant sur Internet sont le plus souvent présentées comme des sujets fortement infantilisés, sexualisés et précaires.

Parmi les exemples les plus connus, citons l’agent conversationnel Tay ( de Microsoft) qui, sur la base de ce qu’il a appris au cours de ses interactions avec les internautes, a développé des comportements xénophobes, sexistes et homophobes, ou d’autres cas, comme celui d’Amazon qui, en 2015, a découvert que son système d’IA utilisé pour la sélection du personnel discriminait les femmes.

Contrer cette réalité complexe nécessite une réponse plurielle et globale qui aborde les causes à l’origine de ce problème. À court terme, il est nécessaire de veiller à la représentativité des femmes dans les bases de données qui alimentent l’IA, en imposant des audits de données de manière à pouvoir garantir qu’elles sont exemptes de biais sexistes ou de tout autre type de préjugé.

À plus long terme, il est essentiel de réduire la fracture numérique entre les hommes et les femmes, en garantissant l’accès des femmes à Internet, aux services numériques et à l’administration électronique. Pour atteindre cet objectif, il importe de favoriser l’éducation des femmes dans tous les domaines, mais principalement dans le domaine des compétences numériques, de renforcer la participation des femmes aux principaux processus de prise de décision politique ou en lien direct avec le secteur technologique et de lutter activement contre la réification des femmes et les stéréotypes sexistes. Tout cela en accordant une attention particulière aux situations de vulnérabilité exceptionnelle et de discrimination auxquelles sont exposées les femmes de couleur, non occidentales, non citadines ou précarisées.

Par ailleurs, à l’instar des politiques publiques, si les algorithmes ne sont pas élaborés en tenant compte de la perspective de genre, il est fort probable qu’ils finiront par reproduire certaines tendances particulièrement préjudiciables aux femmes. Raison pour laquelle, en ce qui concerne les algorithmes, comme pour tout autre espace politique, il est nécessaire de mettre en place des mécanismes permettant de placer les femmes sur un pied d’égalité (comme dans le cas des quotas de discrimination positive).

Mettre un terme à la féminisation des technologies d’assistance

Enfin, l’inégalité entre les hommes et les femmes dans le domaine de l’IA se reflète également dans ses caractéristiques physiques (le hardware). Différentes études ont mis en évidence la présence majoritaire de caractéristiques féminines dans les chatbots et les technologies d’IA destinées à l’assistance. L’utilisation de voix et de noms traditionnellement associés aux femmes, comme le montrent les cas d’Alexa ou de Siri entre autres, reproduit l’association déjà existante entre les femmes et la servitude dans le domaine de la technologie. Cependant, le transfert des rôles entre les sphères analogique et numérique va au-delà de caractéristiques telles que le nom et/ou la voix. Les robots aux traits humanoïdes (de plus en plus fréquents) affichent souvent une apparence féminine très concrète.

Habituellement, ces robots ont une apparence féminine très proche des canons de beauté établis, où les corps « hors normes » et les femmes racisées, entre autres, n’ont pas leur place.

Cette réalité peut donner lieu à des problèmes encore plus complexes et néfastes pour les femmes, comme dans le cas des robots utilisés à des fins sexuelles qui perpétuent la violence contre les femmes. Toutes ces questions mettent en lumière la terrible situation de discrimination subie par les femmes, que reproduisent toutes ces nouvelles réalités créées par les humains et démontrent, par conséquent, la nécessité d’aborder l’étude et l’utilisation de l’IA en tenant compte de la dimension de genre. Si nous souhaitons vivre dans des sociétés égalitaires, cette réalité doit être reconnue par tous les pays, entreprises et administrations publiques qui veulent utiliser l’IA et être résolue avant de mettre ces technologies en service.

This article has been translated from Spanish by Mohamed Oughcha