Fièvre éthique à la Silicon Valley

Des ingénieur(e)s, des scientifiques et d’autres employé(e)s de diverses grandes plateformes technologiques américaines se révoltent depuis quelque temps. Ils ne veulent pas que leur entreprise travaille pour le Pentagone, ni qu’elle se serve des techniques de reconnaissance faciale pour lutter contre l’immigration irrégulière. Ces dernières semaines, ils ont forcé plusieurs directeurs généraux à prendre position et à fixer des lignes rouges sur certains aspects de l’intelligence artificielle (IA).

De nombreuses technologies utilisées dans les objets de notre quotidien, qui ont contribué au succès de la Silicon Valley, ont une origine militaire, qu’il s’agisse d’Internet, du GPS ou des écrans tactiles, pour ne citer que quelques exemples – sans parler d’une époque plus ancienne qui a vu naître les fours à micro-ondes ou l’informatique. La DARPA (Agence des projets de recherche avancés pour la défense, dont le budget s’élève à 3,180 milliards USD pour l’exercice 2018), qui dépend du Pentagone, joue un rôle important à cet égard. La situation a-t-elle changé ?

Des plateformes telles que Tech Workers Coalition ou Coworkers.org ont permis une mobilisation sans précédent, par sa rapidité et son ampleur, avec un niveau d’auto-organisation que les grandes entreprises doivent désormais prendre en compte.

Chez Google, des milliers d’employés ont signé une lettre publique pour demander à leur directeur général, Sundar Pichai, de renoncer à sa participation à l’Équipe interdisciplinaire de guerre des algorithmes, connue sous le nom de Projet Maven – un contrat passé avec le Pentagone en vue de créer un « moteur intelligent de surveillance personnalisée » à installer dans les drones militaires.

Les employés ont exhorté Google à « ne pas participer au commerce de la guerre », et ont averti leur entreprise que, dans le cas contraire, la « marque Google » subirait des préjudices, tout comme sa « capacité de rivaliser par le talent ».

Chez Amazon, suite à l’ordre de Donald Trump de séparer les enfants mineurs de leurs parents immigrants en situation irrégulière, des milliers d’employés ont demandé à leur directeur général, Jeff Bezos, d’interrompre toutes les ventes de logiciels de reconnaissance faciale au gouvernement, puisque l’outil Rekogniton pouvait être utilisé de manière injuste contre ces immigrants. Les employés de Microsoft ont écrit leur propre lettre pour protester contre le contrat passé avec l’Immigration and Custom Enforcement Agency (Agence de l’immigration et contrôle des douanes – ICE). Mais toutes les grandes entreprises des États-Unis, d’Europe et de Chine (c’est d’ailleurs en Chine que l’État de surveillance le plus perfectionné est développé actuellement) investissent en ce moment dans ces technologies, qui ont d’évidentes applications civiles.

Ceux qui sont peut-être allés le plus loin face à la révolte de leurs employés sont les directeurs généraux de Google, Sundar Pichai, et de Microsoft, Satya Nadella. Dans son blog, Pichai a publié en juin dernier des « principes » pour l’application de l’IA que Google est en train de mettre au point. La première étape du Code de conduite de Google en 2000 était « ne soyez pas malveillants ». Elle a été supprimée en mai dernier. Cependant, voici quelques-unes des applications de l’IA que Google, selon ces nouveaux principes, ne va pas concevoir ni développer :

  • «Les technologies qui provoquent ou peuvent provoquer un préjudice général. En cas de risque matériel de préjudice, nous agirons uniquement lorsque nous considérerons que les avantages sont largement supérieurs aux risques et nous adopterons les mesures de sécurité appropriées ».
  • «Les armes ou autres technologies dont l’objectif ou l’application est essentiellement de provoquer ou de faciliter directement la survenue d’un préjudice à autrui ».
  • « Les technologies qui recueillent ou utilisent des informations à des fins de surveillance qui enfreignent les normes internationalement acceptées ».
  • « Les technologies dont l’objectif est contraire aux principes largement acceptés en matière de droit international et de droits humains ».

Au final, les employés de Google ont réussi à inciter leur entreprise à abandonner le Projet Maven.

Attitude pacifiste face à une militarisation croissante de l’IA

Mi-juillet, le président de Microsoft, Bradford L. Smith, a pour sa part été l’un des premiers à demander une réglementation dans ce domaine, ce qui est plutôt inhabituel, en sollicitant des règles gouvernementales pour la technologie de reconnaissance faciale. Il explique en effet que, malgré les avantages de cette technologie, elle revêt un aspect obscur, notamment la surveillance exercée par l’État, son utilisation sans le consentement explicite du participant, ainsi que la possibilité de « perpétuer la discrimination raciale ». L’UE a beaucoup plus progressé sur la question du consentement (bien que son effet réel reste à démontrer dans la pratique). Facebook, critiqué pour transmettre l’incitation à la haine dans des pays comme le Sri Lanka ou le Myanmar, a lancé un programme visant précisément à bloquer les contenus qui incitent à la haine, mais pas au point de parvenir à censurer sur son réseau social les négationnistes de l’Holocauste.

À quoi doit-on cet accès d’éthique à la Silicon Valley, un lieu où règne le secret, et plus encore ? L’éveil politique s’est propagé à en devenir viral. L’étincelle est peut-être la politique anti-immigration du président Trump, que Nadella a lui-même qualifiée de « cruelle et abusive ».

Dans la Silicon Valley, plus de la moitié des technologies de grande valeur ont été créées et/ou dirigées par des immigrants de première ou de deuxième génération. Un grand nombre d’ingénieurs et de personnes qui travaillent sur les grandes technologies ne sont pas nés aux États-Unis. C’est le talent qui compte par-dessus tout – et aussi l’idée qu’en travaillant à la Silicon Valley, on peut changer le monde, en bien.

C’est dans ce contexte qu’un certain pacifisme a vu le jour, semblable à ce qui peut être observé chez les chercheurs japonais en technologie, en particulier face à la militarisation croissante de l’IA, surtout si elle n’est pas défensive. La mise en place d’Internet avait cette dimension défensive qui visait à construire un réseau de communications décentralisé capable de résister à une attaque nucléaire. Cependant, la reconnaissance faciale, par exemple, a seulement permis de réduire, mais pas d’éliminer, les dommages collatéraux occasionnés lors d’attaques réalisées par des drones américains.

Un parallélisme pourrait être établi avec ce qui s’est produit pour le Projet Manhattan, à l’origine de la création de la bombe atomique pendant la Seconde Guerre mondiale. Après sa première utilisation, à Hiroshima et Nagasaki, bon nombre de scientifiques ont critiqué le projet. De nombreuses personnes qui travaillent à la Silicon Valley ne veulent pas participer aux programmes destinés aux champs de bataille ni promouvoir les technologies appliquées à la guerre ou à une sécurité excessive. Le mouvement contre les armes autonomes, ces « robots meurtriersu », prend actuellement de l’ampleur, et pas uniquement aux États-Unis.

On a entendu dire que l’opposition au Projet Maven pourrait être le « moment #MeToo » des employés de la technologie aux États-Unis.

L’éthique est de plus en plus présente dans le débat sur l’impact des nouvelles technologies, que l’on commence seulement à entrevoir. Les armes autonomes, la dimension idéologique des algorithmes et la surveillance totale, pour rester dans le domaine de la sécurité, sont des aspects qui prennent de l’importance, parallèlement à d’autres notions positives, telles que la capacité de sauver la vie de civils ou de soldats, ou la cybersécurité, toujours plus pressante. Les entreprises et leurs employés ne sont pas en reste. Robert McGinn les aide à aller de l’avant avec son ouvrage L’ingénieur éthique, une lecture incontournable pour ces professionnels.

This article has been translated from Spanish.