Quel sera l’impact de l’intelligence artificielle sur l’éducation ?

Quel sera l'impact de l'intelligence artificielle sur l'éducation ?

The growing popularity of artificial intelligence (AI) software, capable of generating images, sound and even text in a matter of seconds, is opening up a debate on technological transformation. In this February 2023 image, a teacher in A Coruña, Spain, gives a lesson in a classroom where technology, for the time being without artificial intelligence, is ubiquitous.

(José Álvarez Díaz)

La popularité croissante des logiciels d’intelligence artificielle (IA), qui ont démontré ces derniers mois qu’ils étaient de plus en plus aptes à générer des images, des vidéos, de la musique, du code informatique et même toutes sortes de textes en quelques secondes, avec des résultats qui semblent cohérents et porteurs de sens dans bien des cas – mais pas du tout dans bien d’autres –, suscite fascination et inquiétude, notamment parmi les artistes et les créateurs du monde entier.

Les réalisations des IA d’aujourd’hui sont parfois si spectaculaires et si convaincantes qu’il est difficile de ne pas penser qu’elles doivent être l’œuvre d’une entité consciente qui saisit ce qu’on lui demande et comprend ce qu’elle élabore pour nous répondre. Ce n’est assurément pas le cas, mais aux yeux du grand public, il semble soudain que nous soyons témoins de l’explosion d’une technologie révolutionnaire, pleine de possibilités, de promesses, mais aussi de dangers qui pourraient transformer le monde.

Cela pourrait arriver un jour, même si ce moment reste plus éloigné que cette espérance soudaine ne le laisse imaginer. Ce qui est arrivé ces derniers mois, c’est surtout que les technologies actuelles, assez courantes et connues de tous les chercheurs, qui jusqu’à présent les expérimentaient en toute confidentialité, ont soudainement commencé à sortir au grand jour, non seulement pour les présenter à la société, susciter l’intérêt et attirer les investisseurs, mais aussi pour que leurs programmes interagissent avec les gens et puissent « s’entraîner » avec des millions de requêtes et d’utilisateurs à la fois. Une quantité massive d’activités et d’informations qu’aucune entreprise n’aurait pu obtenir d’une autre manière pour ses IA.

Depuis l’année dernière, les générateurs d’images créés à partir de consignes écrites, tels que Midjourney, Stable Difussion ou Dall-E, commençaient déjà à éveiller l’intérêt de milliers de nouveaux utilisateurs et de curieux à travers le monde. Toutefois, le débat a atteint son paroxysme avec l’ouverture au public, en décembre, d’un programme similaire pour la création de textes : ChatGPT de l’entreprise OpenAI. Les résultats que ce logiciel fournit en à peine quelques secondes peuvent faire preuve d’une telle cohérence qu’ils donnent souvent l’impression d’avoir été écrits par une personne.

Il est possible qu’il fasse irruption dans la société pour s’y implanter, alors qu’en soi, il ne s’agit pas d’une nouveauté aussi transformatrice qu’il y paraît.

Le père de la linguistique contemporaine, Noam Chomsky lui-même, qui du haut de ses 94 ans a vécu toute l’histoire de l’IA jusqu’à aujourd’hui, avertissait en janvier que ChatGPT souffre en fait d’une limitation insoluble, car il accorde une valeur égale aux informations qui ont un sens dans le monde réel et à celles qui n’en ont pas, et ce, du fait qu’il ne peut ni les distinguer ni les comprendre. C’est la raison pour laquelle il n’apporte aucune avancée significative à l’humanité, a-t-il déclaré, ni dans le domaine des sciences ni dans celui de l’ingénierie informatique, « à part peut-être pour un étudiant qui triche à un examen ou dans une situation analogue ».

En effet, du jour au lendemain, les vieilles ruses des étudiants, qui consistaient notamment à recopier des paragraphes entiers de Wikipédia, sont rendues obsolètes par une technologie qui accomplit la même tâche de manière plus créative et plus convaincante ; en quelques secondes et avec peu d’efforts. Nos éducateurs sont-ils préparés à intégrer l’existence de l’IA dans nos salles de classe et dans nos vies ?

Les dangers de l’IA pour l’éducation

Dans l’immédiat, l’émergence de cette technologie telle qu’elle se présente aujourd’hui « ne me semble pas vraiment disruptive » et, de fait, « si ChatGPT était introduit demain dans les écoles, il ferait probablement perdre beaucoup de temps, sans aucun avantage par rapport au fait d’étudier avec un bon livre », déclare à Equal Times le chercheur espagnol José F. Morales, qui a une expérience directe du sujet de par son double rôle de professeur de logique computationnelle et de membre du département d’intelligence artificielle de l’Université polytechnique de Madrid (UPM) et de l’Institut IMDEA Software.

Les IA d’aujourd’hui « ne sont pas des êtres intelligents, elles ne sont pas programmées pour l’abstraction, le raisonnement et la compréhension de ce qu’elles produisent ; ce qu’elles font, c’est apprendre grâce à la structure des textes et des informations que nous mettons à leur portée, à partir des patrons qui se répètent, du fait qu’elles ont accès à une quantité inimaginable de données, impossible à concevoir pour un être humain », explique-t-il. « Il est dangereux de suggérer que leur fonctionnement est intelligent d’une quelconque façon. Il est également dangereux de laisser penser que certaines décisions importantes peuvent s’appuyer sur les résultats donnés par ce type d’IA et, dans le domaine de l’éducation, il est dangereux de prétendre qu’il peut s’agir d’un instrument fiable pour transmettre des connaissances, car si les informations qu’elles vous donnent sont correctes la moitié du temps, elles peuvent également vous présenter de fausses informations sous une forme indiscernable, avec des arguments tout aussi convaincants, l’autre moitié du temps ».

De ce fait, souligne-t-il, il s’agit d’« outils créatifs » que nous devons envisager comme une espèce d’« assistant sot », capable à la fois de nous aider et de nous tromper sans le savoir : « car sa maîtrise du langage et son argumentation sont tellement bonnes que vous pourriez penser qu’il comprend ce qu’il vous dit, alors qu’en fait il agit à la manière d’un perroquet, répétant les choses parce qu’elles lui ont l’air familières, sans toutefois comprendre ce qu’il dit ».

Ses réponses peuvent même sembler ingénieuses, mais elles sont basées sur un mécanisme similaire au texte prédictif de n’importe quel moteur de recherche, seulement à une échelle plus complexe et avec une quantité inimaginable d’informations derrière, que l’IA imite sans sourciller.

C’est là que réside l’autre grand danger, souligne M. Morales : ces IA, dont la capacité de calcul est incomparablement inférieure à celle d’une personne, répondent avec quelque chose qui ressemble beaucoup à notre intuition, en faisant une sorte de plagiat déguisé, puisqu’elles prennent comme référence, copient ou imitent d’énormes quantités de données disponibles en ligne, mais de manière totalement opaque, sans que nous puissions voir d’où et de qui elles ont été tirées, ni comment elles en reproduisent tout ce qu’elles nous livrent.

D’ailleurs, outre les répercussions juridiques potentielles que cela implique, et le fait que leur fonctionnement n’est pas basé sur la logique (contrairement aux autres IA qui ne se basent pas sur des réseaux neuronaux et qui sont étudiées depuis de nombreuses années, mais n’ont pas encore donné lieu à des applications utiles pour le grand public), elles comportent un autre danger : « leur façon de répondre, au final, est très monotone, et il faut faire attention à ce qu’elles ne finissent pas par uniformiser et tuer la créativité », prévient l’expert. Et la même chose se produit dans les salles de cours : « Copier n’est pas une mauvaise chose, c’est nécessaire pour apprendre », assure-t-il ; « ce qui est mauvais est de copier et de ne pas dire d’où ».

Pour M. Morales, « si un étudiant parvient à apprendre avec ChatGPT plutôt qu’avec un livre, alors félicitations, mais pour l’instant les livres sont beaucoup plus fiables et enrichissants comme source de connaissances ». De plus, « n’importe quel pays peut se permettre de publier ses propres manuels, mais dans le monde, seules deux ou trois entreprises sont en mesure d’entraîner ChatGPT, ce qui passe par des milliers et des milliers de textes, qu’elles sélectionnent et étiquettent elles-mêmes » et ce sont ces informations, inévitablement limitées et qui ont fait l’objet d’une médiation, qui donneraient lieu « aux “connaissances valides et correctes”, qui finiraient par devenir un modèle pétrifié, car on ne peut pas changer ce que l’IA a appris sans recommencer l’entraînement ».

Au bout du compte, s’interroge-t-il, « même si la technologie était bénéfique en classe, même si ChatGPT raisonnait, entre les mains de qui laissons-nous les étudiants ? Sommes-nous disposés, en tant que société, à déléguer à un tel point ? ».

« Il convient de ne pas oublier que, tant que la technologie ne nous permettra pas d’entraîner nos propres IA, nous devrons rester très prudents sur le choix des personnes à qui nous déléguons la gestion des connaissances et éviter les erreurs commises avec les réseaux sociaux », ajoute-t-il.

En somme, l’IA est déjà là et de nombreux éducateurs risquent d’être pris au dépourvu lorsqu’il s’agira de faire face à ses répercussions les plus immédiates.

Ne cédez pas à la panique

« Ne cédez pas à la panique, même si des changements seront nécessaires », déclare à Equal Times Rose Luckin, chercheuse au Knowledge Lab de l’University College London (UCL) et professeure de conception centrée sur l’apprenant à l’Institut de l’éducation de cette université. « Certains systèmes éducatifs sont mieux équipés que d’autres pour permettre aux apprenants de cohabiter avec l’IA et, en fait, d’en tirer profit », déclare Mme Luckin, une experte de premier plan concernant l’impact de l’IA sur l’éducation.

Dans cette optique, « les systèmes qui se concentrent sur l’apprentissage de données concrètes et l’évaluation de la capacité des étudiants à traiter l’information, à s’en souvenir et à la reproduire ne les préparent pas bien à un futur lieu de travail où ce type de compétences sera fourni par des systèmes d’IA ». À l’inverse, lorsque la priorité est d’« aider les étudiants à développer une compréhension sophistiquée d’eux-mêmes en tant qu’apprenants et de ce que sont les connaissances, d’où elles viennent, comment porter des jugements de valeur sur la validité d’un élément de preuve et comment être capable d’émettre un jugement sur ce qui mérite d’être cru ou non et, surtout, comment être bon dans leur propre apprentissage, vous équipez les étudiants des compétences dont ils ont besoin pour prospérer dans un monde où ils cohabiteront avec de nombreux types d’IA ».

À ce jour, reconnaît-elle, « je ne connais aucune institution spécifique qui gère correctement cette situation. Je pense qu’il s’agit là de quelque chose qui se révélera dans les semaines et les mois à venir, mais une chose est sûre : les systèmes et les institutions d’éducation doivent saisir cette occasion et la considérer comme un encouragement positif à un changement indispensable. »

Ses recommandations consistent à tirer parti des possibilités offertes par cette technologie pour rendre l’apprentissage plus amusant et plus efficace, en se basant sur une « utilisation avec sagesse » de l’IA pour accomplir les tâches les plus courantes et pour encourager la curiosité et l’exploration avec des outils tels que ChatGPT ou Dall-E, afin de mettre en place des « parcours d’apprentissage personnalisés ».

Avant tout, cependant, elle encourage à éviter des erreurs : par exemple, de « ne pas être capable de reconnaître qu’il s’agit d’une technologie qui change la donne » et qu’il n’y a pas de marche arrière possible.

« Impossible de faire rentrer le génie dans sa lampe à présent. Il est formidable que ChatGPT ait éveillé le monde de l’éducation aux implications de l’IA dans l’enseignement », car celle-ci sera bientôt « intégrée à toutes nos technologies de communication, du traitement de texte aux réseaux sociaux en passant par les moteurs de recherche ». Par conséquent, « nous devons préparer les gens afin qu’ils l’utilisent correctement », déclare Mme Luckin, et éviter la tentation d’ignorer cette réalité dans l’éducation ou de « considérer cette technologie juste comme un outil pour tricher ».

« Nous devons enseigner aux étudiants comment être des citoyens numériques et les faire participer à la réflexion sur la sécurité numérique », déclare Martin Henry, coordinateur de recherche pour l’Internationale de l’Éducation (IE), le groupement mondial des syndicats d’enseignants. « Nous nous adaptons à une technologie que nous n’avions jamais rencontrée auparavant. De ce fait, l’impact qu’elle aura dépendra de la façon dont nous la gérerons, mais aussi du fait de savoir si les décisions continueront à être prises par des humains ».

M. Henry, à l’instar de M. Morales, entrevoit un immense danger si nous devions déléguer nos processus décisionnels à l’intelligence artificielle, car, selon la façon dont elle est programmée ou les données dont elle se nourrit, « nous pourrions être face à un algorithme raciste, basé sur des données erronées ou encore qui aurait tendance à mieux noter les élèves des écoles privées que ceux des milieux populaires », comme cela s’est produit il y a quelques années en Angleterre. Après tout, conclut-il, « un algorithme fait ce que vous lui demandez de faire et si ce que vous lui demandez de faire est mal, alors nous avons un problème. Je pense que nous devrions faire attention à tout cela. »

Pour les éducateurs, le débat semble porter sur la nécessité de s’adapter à son temps. C’est également l’avis du Finlandais Pasi Sahlberg, l’un des plus grands spécialistes mondiaux en matière de politique éducative, ancien directeur général du ministère finlandais de l’Éducation et actuellement professeur d’éducation à la Southern Cross University de Lismore, en Australie. « Que je sache », a-t-il récemment déclaré à Equal Times, « tout le monde essaie de décider ce qu’il faut faire de la technologie, alors que l’IA et la réalité virtuelle trouvent peu à peu leur place dans l’enseignement classique ».

De fait, « nous débattons encore de la question de savoir si les téléphones portables doivent être interdits en classe, mais bientôt, plus tôt que nous ne le pensons, ces appareils seront intégrés à nos vêtements ou à nous-mêmes, ce qui rendra de telles interdictions impossibles. Le défi consistera plutôt à renouveler les écoles afin de les adapter à ce nouvel avenir. » En conséquence, estime-t-il, « apprendre à mener une vie sûre, responsable et saine avec toute cette technologie qui nous entoure est peut-être la compétence la plus importante du XXIe siècle ».

This article has been translated from Spanish by Charles Katsidonis