Introduction : L’IA éducative sous le signe du pharmakon
La vague actuelle d’intelligence artificielle (IA) déferlant sur l’éducation suscite à la fois espoirs et inquiétudes. La sortie de ChatGPT fin 2022, par exemple, a créé une véritable onde de choc dans le monde enseignant (). Les réactions ont été contrastées : « Si certain·e·s y voient une innovation prometteuse, plusieurs soulèvent des inquiétudes, notamment sur la facilité accrue de plagier ou de tricher » (). Comment penser de manière nuancée ces technologies qui promettent de transformer les pratiques pédagogiques ? Le philosophe Bernard Stiegler propose d’aborder tout objet technique comme un pharmakon, c’est-à-dire à la fois un remède et un poison – et potentiellement un bouc-émissaire (Pharmakon | Ars Industrialis). Autrement dit, l’IA éducative peut constituer un puissant outil d’émancipation, tout en comportant des risques d’aliénation, et il serait tentant de la rendre responsable de tous les maux. Une telle approche pharmacologique invite à examiner simultanément « le danger et ce qui sauve » (Pharmakon | Ars Industrialis), sans verser ni dans la technophilie naïve ni dans le rejet systématique.
Dans cet article, nous adopterons cette perspective pour analyser les implications de l’IA en éducation. Nous montrerons d’abord en quoi, utilisée avec discernement, l’IA peut agir comme un remède pédagogique favorisant différenciation, accessibilité et apprentissage optimisé. Nous examinerons ensuite les poisons potentiels de l’IA éducative : automatisation à outrance, perte de contrôle, dépendance technique, atteintes à la vie privée, biais et autres formes d’aliénation. Enfin, nous discuterons de la tentation d’ériger l’IA en bouc-émissaire, et de l’importance de la responsabilité humaine dans son usage éclairé. Cette réflexion se fonde sur des sources récentes et fiables, afin d’éclairer un lectorat de professionnels de l’éducation cherchant un regard critique mais équilibré sur ces évolutions.
L’IA comme remède pédagogique : potentialités d’émancipation
Du tutorat virtuel aux analyses prédictives, les applications de l’IA laissent entrevoir de réels atouts pour améliorer l’enseignement et l’apprentissage. Personnaliser les parcours éducatifs à grande échelle est l’une des promesses phares. Des systèmes d’apprentissage adaptatif peuvent ajuster les exercices et le rythme en fonction des besoins de chaque élève, offrant ainsi une différenciation pédagogique accrue. Par exemple, des assistants tutoriels comme Adaptiv’Math ou Lalilo adaptent automatiquement les activités au niveau des élèves et aident l’enseignant à suivre finement leur progression (L’intelligence artificielle dans l’éducation | Académie de Paris) (L’intelligence artificielle dans l’éducation | Académie de Paris). De même, un rapport britannique de 2025 souligne l’essor des usages de l’IA pour « le personalised learning » (apprentissage personnalisé) et les recommendation systems qui suggèrent aux apprenants des ressources adaptées à leur niveau (The role of AI in education: Opportunities and challenges – Nuffield Foundation). D’après une enquête internationale de 2024, l’adoption de ces outils par les étudiants est massive : 86 % des étudiants universitaires interrogés déclarent utiliser l’IA dans le cadre de leurs études (86 % des étudiants ont adopté l’intelligence artificielle dans le cadre scolaire selon une enquête). Leurs usages incluent des assistants virtuels comme ChatGPT, capables de « générer des réponses précises aux questions des étudiants en quelques secondes, facilitant ainsi la compréhension des matières complexes », ainsi que des systèmes de recommandation intégrés aux plateformes en ligne pour fournir des contenus sur mesure (86 % des étudiants ont adopté l’intelligence artificielle dans le cadre scolaire selon une enquête). Ces exemples illustrent le potentiel de l’IA pour mieux prendre en compte l’hétérogénéité des apprenants et soutenir chacun de manière plus individualisée qu’avec un cours unique pour tous.
L’IA peut également être un levier d’inclusion et d’accessibilité. Des outils d’IA conversationnelle ou de reconnaissance vocale permettent, par exemple, la transcription automatique des cours ou la synthèse vocale de textes, bénéfiques aux élèves en situation de handicap auditif ou visuel. De même, des systèmes intelligents peuvent aider les élèves à besoins éducatifs particuliers : l’UNESCO note que l’IA offre des aides spécialisées pour les apprenants en difficulté ou en situation de handicap (SEND), qui figurent parmi les opportunités majeures identifiées dans l’éducation (The role of AI in education: Opportunities and challenges – Nuffield Foundation). Par ailleurs, la traduction automatique alimentée par l’IA peut faciliter l’apprentissage dans une langue étrangère ou l’intégration d’élèves allophones. Autant d’outils qui, bien employés, peuvent rendre l’éducation plus équitable en apportant un soutien ciblé aux publics les plus vulnérables.
Un autre aspect prometteur est le soutien que l’IA peut apporter aux enseignants eux-mêmes. En automatisant certaines tâches fastidieuses, l’IA peut libérer du temps pour se concentrer sur la pédagogie et la relation humaine. Par exemple, des applications existent déjà pour corriger des quiz, analyser des devoirs ou gérer des plannings. D’après des experts, l’IA peut prendre en charge des tâches administratives répétitives (notation, planification, suivi des dossiers…), ce qui « libère [l’enseignant] pour faire ce qu’il fait de mieux : enseigner » et lui permet de passer plus de temps auprès des élèves, en s’assurant qu’aucun ne « passe entre les mailles du filet » ( AI in Schools: Pros and Cons | Illinois ). Cette rationalisation du travail enseignant peut non seulement réduire la surcharge administrative, mais aussi améliorer le suivi pédagogique : les systèmes d’IA fournissent des tableaux de bord synthétiques, signalent en temps réel les notions non acquises ou les élèves décrocheurs, bref fournissent une analyse fine des données d’apprentissage. Armés de ces informations, les enseignants peuvent intervenir plus tôt auprès d’un élève en difficulté ou ajuster leur enseignement en fonction des tendances observées dans la classe. On voit également apparaître des outils d’évaluation assistée par IA qui fournissent un feedback instantané aux apprenants, favorisant un apprentissage plus réactif. Enfin, la présence de l’IA en classe elle-même peut devenir un objet d’apprentissage : son arrivée suscite naturellement des discussions critiques chez les élèves, que l’enseignant peut exploiter pour développer leur esprit critique face aux technologies numériques. En ce sens, l’IA, bien intégrée, pourrait aussi être un remède à la passivité en stimulant le questionnement sur les enjeux éthiques et sociétaux de son usage.
Ainsi, envisagée sous l’angle du remède, l’IA éducative apparaît comme un outil potentiel d’émancipation pédagogique. Elle ouvre la voie à un enseignement plus différencié, plus inclusif, fondé sur des données permettant un pilotage plus précis des apprentissages. Cependant, comme tout pharmakon, ces bienfaits ne se déploient que dans la « mesure » de son usage approprié – au-delà commence la « démesure », où les effets bénéfiques peuvent basculer en effets délétères (Pharmakon | Ars Industrialis). Il nous faut donc examiner le versant obscur de l’IA éducative : quelles aliénations, quels poisons cette technologie peut-elle distiller si elle est mal pensée ou mal employée ?
Les revers du médaille : l’IA comme poison et facteur d’aliénation
À côté des promesses, les risques liés à l’IA en éducation sont bien réels et ne sauraient être ignorés. Automatisation excessive, déshumanisation des pratiques, dépendance technique ou atteintes aux droits des usagers – autant de dangers qui font de l’IA un poison potentiel pour le système éducatif si aucune précaution n’est prise.
Un premier risque tient à l’automatisation des pratiques enseignantes. Si l’on se repose aveuglément sur des systèmes d’IA pour planifier les cours, évaluer les élèves ou même dispenser des contenus, on court le danger d’une pédagogie standardisée et pilotée par la machine. L’enseignant pourrait voir son rôle réduit à celui d’un simple exécutant, appliquant les recommandations d’un algorithme. Une telle dérive menacerait l’essence même du geste pédagogique, qui repose sur le jugement professionnel, la créativité et la relation humaine directe avec les apprenants. Certes, l’IA peut assister l’enseignant, mais si elle le supplante dans la conduite de la classe, on risque une aliénation du métier enseignant : perte de savoir-faire, découragement et sentiment de perte de sens. L’UNESCO met en garde à ce sujet en recommandant de veiller à ce que les technologies d’IA servent à autonomiser les enseignants au lieu de les remplacer, et en formant ces derniers à travailler aux côtés des systèmes d’IA plutôt que sous leur dépendance (Intelligence artificielle et éducation). En somme, l’IA ne doit être qu’un outil au service de l’enseignant, non un automate qui dicte ses actions. Si l’on franchit cette ligne, le poison guette : celui d’une éducation déshumanisée où la machine prendrait le pas sur la relation interpersonnelle.
Par ailleurs, l’interaction humaine et sociale pourrait souffrir d’un usage inconsidéré de l’IA. À trop déléguer l’accompagnement des élèves à des tuteurs virtuels ou à des applications, on réduit d’autant les moments d’échange entre élèves et professeurs, ou entre pairs. Or ces interactions sont cruciales pour le développement socio-émotionnel. Des pédagogues s’inquiètent qu’une dépendance accrue à l’IA en classe « réduise les interactions professeur-élève […] et porte atteinte aux aspects socio-émotionnels de l’apprentissage », ce qui in fine nuirait aux compétences sociales des élèves ( AI in Schools: Pros and Cons | Illinois ). Certes, comme nous l’avons noté, libérer du temps grâce à l’IA peut aussi permettre aux enseignants de renforcer le lien avec leurs élèves ( AI in Schools: Pros and Cons | Illinois ). Toute la question est donc d’utiliser la technologie de façon judicieuse, sans appauvrir la dimension humaine de l’éducation. Une intégration irréfléchie, elle, pourrait aboutir à des élèves ultra-connectés mais socialement démunis, peu habitués à coopérer autrement qu’à travers des écrans.
Un autre chantier critique concerne la vie privée et le contrôle des données. Les systèmes d’IA éducative collectent et analysent d’innombrables données sur les performances, le comportement ou les préférences des apprenants. Cela pose de redoutables enjeux de protection des données personnelles. Qui conserve ces données, pour quelles finalités, et avec quelles garanties de sécurité ? De nombreuses voix s’inquiètent de la quantité de données récoltées et de l’opacité entourant leur usage : « les gens se demandent quelles données personnelles sont collectées et comment elles sont utilisées — et s’ils ont le moindre contrôle ou même connaissance de cet usage » ( AI in Schools: Pros and Cons | Illinois ). Le risque est double : d’une part, ces informations sensibles peuvent être mal protégées et faire l’objet de fuites ou d’abus ; d’autre part, elles peuvent être exploitées à des fins mercantiles ou de surveillance sans que les usagers (élèves, parents, enseignants) en soient conscients. Stiegler évoquait déjà, à propos du Web, un « système industriel dépossédant les internautes de leurs données pour les soumettre à un marketing omniprésent » (Pharmakon | Ars Industrialis). Transposé à l’éducation, ce travers prendrait la forme d’une marchandisation de données scolaires : par exemple, des entreprises privées aspirant les données de millions d’élèves pour affiner des produits commerciaux ou profiler de futurs consommateurs. On comprend dès lors l’importance de baliser strictement l’utilisation des données éducatives par l’IA, via des régulations robustes en matière de transparence et de contrôle (The role of AI in education: Opportunities and challenges – Nuffield Foundation). Faute de quoi, le poison d’une surveillance numérique des élèves et d’une érosion de la vie privée pourrait bien l’emporter sur le remède escompté.
De surcroît, l’IA peut agir comme un amplificateur de biais et d’inégalités. Les algorithmes n’étant jamais neutres, ils reflètent les biais présents dans les données avec lesquelles on les entraîne. Or, de nombreux cas montrent que les systèmes d’IA peuvent reproduire, voire accentuer, des discriminations sexistes, racistes, socio-économiques ou autres. Une analyse de plusieurs scandales publics conclut que les systèmes d’IA « reproduisent, amplifient et systématisent les biais et stéréotypes produits par les humains » (). Par exemple, un algorithme de recommandation pourrait orienter de manière inéquitable les filles et les garçons vers certains parcours, s’il est formé sur des données reflétant des stéréotypes de genre. De même, des outils de surveillance des examens basés sur l’IA ont été accusés d’être moins précis pour les étudiants non-blancs ou issus de milieux moins favorisés, renforçant un sentiment d’injustice. Ces biais algorithmiques risquent d’autant plus d’échapper à la vigilance qu’ils sont enfouis dans le code des machines. Sans vigilance éthique, l’IA éducative pourrait donc creuser la fracture au lieu de la combler, en désavantageant certains groupes d’élèves. Conscients de cela, les experts appellent à auditer et corriger en permanence les algorithmes utilisés en éducation, afin de garantir l’équité. L’UNESCO recommande par exemple d’établir des critères pour éliminer les biais de genre ou culturels dans les systèmes d’IA éducative, et de veiller à ce que ces systèmes intègrent des données diversifiées, notamment linguistiquement, pour éviter un biais en défaveur des langues minoritaires (Generative AI has disrupted education. Here’s how it can be used for good – UNESCO | World Economic Forum).
Enfin, il faut souligner le danger d’une dépendance technique et d’une perte d’agentivité des acteurs éducatifs. Plus l’école s’appuie sur des outils d’IA complexes, plus elle devient vulnérable aux pannes, aux bugs, ou aux changements imposés par les fournisseurs de technologie. Que se passera-t-il si, du jour au lendemain, une plateforme éducative intelligente ferme ou devient payante ? Ou si un algorithme adaptatif se trompe lourdement dans ses recommandations ? Une dépendance aveugle affaiblit la souveraineté pédagogique des enseignants et des institutions, qui risquent de se retrouver démunis sans l’assistance de la machine. Au-delà de l’aspect technique, c’est aussi la dépendance cognitive qu’il faut craindre : à force de compter sur l’IA pour résoudre les problèmes ou trouver les informations, élèves comme enseignants pourraient voir s’atrophier certaines de leurs compétences. L’UNESCO avertit qu’« il y a un danger à devenir trop dépendants de l’IA générative et à perdre de vue notre agentivité humaine, ce qui compromettrait le développement des facultés intellectuelles » (Generative AI has disrupted education. Here’s how it can be used for good – UNESCO | World Economic Forum). En clair, l’IA peut abrutir au lieu d’éduquer si elle dispense les réponses toutes faites plutôt que de stimuler la réflexion autonome. Pour éviter ce travers, l’UNESCO suggère par exemple de bannir sélectivement l’usage de l’IA dans certaines situations pédagogiques critiques « où [son usage] priverait les apprenants d’occasions de développer leurs capacités cognitives et sociales » en faisant l’expérience directe du réel (Generative AI has disrupted education. Here’s how it can be used for good – UNESCO | World Economic Forum). Autrement dit, il faut savoir mettre des limites à l’automatisation : tout ce qui peut être fait par l’IA n’est pas forcément souhaitable du point de vue formatif. Apprendre implique parfois un effort sans intermédiaire technique, et renoncer à cela serait un poison subtil mais profond pour l’éducation.
Face à l’ensemble de ces risques – et nous n’en avons dressé qu’un panorama partiel –, il apparaît clairement que l’IA en éducation est « à la fois ce qui permet de prendre soin et ce dont il faut prendre soin » (Pharmakon | Ars Industrialis). Cette ambivalence intrinsèque appelle une posture de vigilance critique. Plutôt que de rejeter en bloc l’IA (ce qui serait illusoire) ou de l’adopter aveuglément, il s’agit de développer une culture de l’accompagnement de ces technologies, pour maximiser leurs vertus émancipatrices tout en contenant leurs effets délétères. Cela passe par une réflexion sur nos pratiques et sur les conditions de déploiement de l’IA dans les établissements. En dernière analyse, la question qui se pose est bien : qui pilote ce pharmakon ? C’est ici qu’intervient la question de la responsabilité humaine et du risque du bouc-émissaire.
Entre empowerment et bouc-émissaire : garder l’humain au centre
Devant les potentiels immenses et les écueils non moins vastes de l’IA éducative, une réaction fréquente consiste à chercher un responsable unique – en l’occurrence, la technologie elle-même. Il est tentant de faire de l’IA le bouc-émissaire de tout ce qui dysfonctionne à l’école : si les élèves trichent ou deviennent paresseux, c’est à cause de ChatGPT ; si les professeurs perdent la maîtrise de leur classe, c’est la faute des algorithmes. Symétriquement, d’autres voudraient voir en l’IA la solution miracle à tous nos problèmes éducatifs : l’échec scolaire serait aboli grâce aux machines, chaque enfant aurait enfin un tuteur personnalisé infaillible, etc. Ces deux attitudes opposées – diabolisation ou sacralisation – ont en commun de déresponsabiliser les acteurs humains. Dans un cas, on absout l’enseignant ou le décideur de ses erreurs en accusant l’outil ; dans l’autre, on place un espoir démesuré dans la technique pour ne pas avoir à affronter de difficiles réformes pédagogiques ou sociales. Or, Bernard Stiegler nous rappelle qu’« en principe, un pharmakon doit toujours être envisagé selon les trois sens du mot : comme poison, comme remède et comme bouc-émissaire » (Pharmakon | Ars Industrialis). Autrement dit, il faut garder à l’esprit ces trois faces : l’IA peut soigner, elle peut empoisonner, et elle peut servir d’exutoire à nos propres manquements. Stiegler ajoute que le pharmakon devient bouc-émissaire surtout « de l’incurie qui ne sait pas en tirer un parti curatif et le laisse empoisonner la vie » (Pharmakon | Ars Industrialis). Appliqué à l’IA éducative, cela signifie que si nous ne faisons pas l’effort d’en exploiter intelligemment le potentiel (parti curatif) et de juguler ses effets pervers, alors oui, elle empoisonnera la vie scolaire – et nous serons tentés de la tenir pour seule coupable de ce désastre, évacuant notre propre incurie (négligence) dans le processus.
Rejeter la faute sur l’IA serait donc une grave erreur de diagnostic. Les technologies ne sont pas des entités douées d’intentions autonomes : ce sont nos conceptions, nos choix de design et d’usage qui déterminent en grande partie leurs impacts. Aussi convient-il de rappeler la responsabilité humaine à chaque étape. C’est aux décideurs publics de fixer des balises éthiques et juridiques claires (sur les données, la transparence, l’équité) ; c’est aux concepteurs de systèmes d’IA d’intégrer dès la conception des garde-fous contre les biais et d’impliquer des pédagogues dans le développement des outils ; c’est aux éditeurs privés de respecter des normes et de coopérer avec la communauté éducative plutôt que d’imposer un agenda purement commercial. Surtout, c’est aux enseignants et aux institutions éducatives de s’emparer de ces technologies de manière éclairée. À cet égard, la formation et la sensibilisation sont cruciales. Or, elles font encore défaut : « moins de 10 % des écoles et universités disposent actuellement de directives officielles sur l’IA », soulignait l’UNESCO en 2023 (Generative AI has disrupted education. Here’s how it can be used for good – UNESCO | World Economic Forum). Il y a donc un travail urgent à mener pour outiller les enseignants, tant d’un point de vue technique (maîtriser le fonctionnement de base des IA éducatives, leurs paramètres, leurs limites) que d’un point de vue didactique et éthique (savoir quand et comment utiliser tel outil, dans quel but pédagogique précis, et quand au contraire s’en abstenir). Sans cette montée en compétence collective, le risque est grand de subir l’IA plutôt que de l’intégrer positivement.
Assumer notre responsabilité, c’est également développer une gouvernance partagée de l’IA en éducation. Cela implique d’associer les enseignants, les chercheurs, les étudiants et les familles aux discussions sur l’introduction de ces outils dans les classes. Au lieu de décisions technocratiques prises d’en haut ou d’expérimentations sauvages, il faut une délibération éthique et pédagogique. Le rapport québécois de la FNEEQ (2023) relevait que le développement de l’IA éducative « se fait sans délibération collective sur l’utilité et […] les impacts de ce recours massif à la technologie » (), en grande partie piloté par les intérêts privés des GAFAM. Remédier à ce déficit démocratique est indispensable pour garder le contrôle sur les finalités de l’école à l’ère numérique. L’IA ne doit pas être implantée pour son prestige technologique ou la promesse de réduire les coûts, mais en fonction de sa contribution réelle au bien commun éducatif. Cela suppose de définir, en amont, nos objectifs : quels problèmes précis cherchons-nous à résoudre par l’IA ? Quelles valeurs non négociables (par exemple, la confidentialité des échanges éducatifs, l’égalité des chances, la bienveillance éducative) voulons-nous préserver ? Une fois ces cadres posés, on peut alors évaluer avec lucidité quelles applications d’IA sont pertinentes et sous quelles conditions. Bref, reprendre la main sur le pharmakon, c’est affirmer que l’IA n’est ni le sauveur miraculeux ni le diable à abattre, mais un outil parmi d’autres – outil puissant, certes, et à ce titre à manier avec précaution et intelligence.
En fin de compte, la question de l’IA en éducation renvoie à une problématique ancienne : celle de l’articulation entre technologie et pédagogie, entre moyens et finalités. L’écriture alphabétique fut en son temps un pharmakon – instrument d’émancipation du savoir, mais aussi crainte d’aliéner la mémoire orale (Pharmakon | Ars Industrialis). De même, chaque nouvelle technique éducative (imprimerie, radio, informatique…) a été tour à tour encensée ou vouée aux gémonies. L’intelligence artificielle s’inscrit dans cette histoire longue : elle peut, plus que jamais, augmenter nos capacités d’enseigner et d’apprendre, à condition que nous la mettions réellement au service de l’intelligence humaine, et non l’inverse (Intelligence artificielle ou bêtise artificielle ?) (Intelligence artificielle ou bêtise artificielle ?). Cela requiert une vigilance de tous les instants, une évaluation critique des usages et une volonté de prendre soin de cet outil comme on le ferait d’un médicament potentiellement dangereux. C’est tout le sens d’une pharmacologie de l’IA éducative : reconnaître son ambivalence fondamentale pour mieux équilibrer la dose de remède et la dose de poison, et éviter de chercher des boucs-émissaires faciles lorsque surviennent des effets indésirables.
Conclusion : Vers une appropriation critique et humaniste de l’IA éducative
En explorant l’IA en éducation à la lumière du concept de pharmakon, nous avons mis en évidence un constat central : l’IA n’est ni une panacée, ni un fléau en soi, mais un révélateur et un catalyseur des enjeux éducatifs contemporains. Utilisée de manière réfléchie, elle peut être un remède émancipateur – en soutenant la différenciation des apprentissages, en rendant l’éducation plus inclusive, en outillant les enseignants pour un meilleur suivi pédagogique. Mal employée ou livrée aux seules logiques du marché, elle peut devenir un poison aliénant – en automatisant à outrance au détriment de l’humain, en aggravant les inégalités, en captant les données au mépris de la vie privée, ou en rendant l’école dépendante d’une technostructure opaque. Entre ces deux extrêmes se joue notre capacité collective à ne pas faire de la technologie un bouc-émissaire, mais à en assumer pleinement la gestion.
L’IA confronte le monde éducatif à un impératif de lucidité et de responsabilité. Plutôt que de s’en remettre à des discours enchantés ou catastrophistes, il s’agit d’entrer dans une ère de cohabitation critique avec ces systèmes intelligents. Cela signifie : se former, expérimenter prudemment, évaluer scientifiquement les impacts sur l’apprentissage, partager les bonnes pratiques mais aussi les échecs, et surtout garder à l’esprit les finalités humanistes de l’éducation. Le véritable enjeu n’est pas l’IA elle-même, mais ce que nous en faisons : quelle école voulons-nous pour demain, et comment l’IA peut-elle y contribuer sans nous en détourner ?
En définitive, prendre soin du pharmakon de l’IA éducative, c’est reconnaître comme indissociables les dimensions du remède et du poison, afin de cultiver le premier tout en neutralisant le second. C’est aussi refuser la facilité du bouc-émissaire : si l’IA perturbe la pédagogie ou soulève des dilemmes, cela nous oblige à repenser nos méthodes, nos critères d’évaluation, la place du travail humain – et non à accuser uniquement la machine. Autrement dit, l’IA nous renvoie à notre propre responsabilité éthique et pédagogique. Entre crainte et enthousiasme, le chemin est étroit mais fertile : à nous, enseignants, chercheurs, décideurs, d’inventer une intelligence artificielle réellement au service de l’émancipation éducative, régulée par et pour l’humain. Ainsi pourrons-nous transformer ce puissant pharmakon en un allié durable de l’éducation, plutôt que d’en subir aveuglément les effets indésirables ou d’en attendre vainement des miracles.
Sources : Bernard Stiegler et Ars Industrialis, UNESCO, FNEEQ (2023), Nuffield Foundation/Ada Lovelace Institute (2025), World Economic Forum/UNESCO (2023), Université de l’Illinois (2024), Académie de Paris, Siecle Digital (2024), SenseMaking (2018)… (Pharmakon | Ars Industrialis) () (The role of AI in education: Opportunities and challenges – Nuffield Foundation) ( AI in Schools: Pros and Cons | Illinois ) (86 % des étudiants ont adopté l’intelligence artificielle dans le cadre scolaire selon une enquête) ( AI in Schools: Pros and Cons | Illinois ) ( AI in Schools: Pros and Cons | Illinois ) () (Generative AI has disrupted education. Here’s how it can be used for good – UNESCO | World Economic Forum) (voir références intégrées).