VERSION COURTE
1. Open source ou rien : la souveraineté technologique est la première liberté.
L’IA éducative doit être basée sur des logiciels et modèles open source, modifiables localement. Cela garantit l’indépendance face aux grandes plateformes privées (GAFAM) et préserve la capacité des communautés éducatives à contrôler, comprendre et adapter les outils . Une IA fermée enferme l’école dans une dépendance technique et politique. Un code libre est la condition d’une autonomie réelle.
2. La boîte noire est interdite : l’IA doit être transparente et explicable.
Chaque décision, chaque recommandation de l’IA doit pouvoir être retracée, comprise et justifiée. Pas d’algorithmes opaques dans une éducation critique : élèves et enseignants doivent pouvoir interroger et vérifier les processus de l’IA . La transparence est essentielle pour former des citoyens conscients, et non des consommateurs passifs d’outils technologiques.
3. L’IA doit être sobre : l’intelligence doit consommer moins, pas plus.
Utiliser des modèles légers (Small LLMs), optimisés localement, limite la surconsommation énergétique et le poids écologique de l’éducation numérique . Un outil éducatif ne doit pas aggraver l’empreinte carbone. Chaque déploiement d’IA doit viser la frugalité énergétique et la réparation plutôt que l’obsolescence programmée.
4. Data connues, data maîtrisées : la protection des élèves est non négociable.
Aucune collecte cachée, aucun profilage non consenti. Les données d’apprentissage doivent rester sous contrôle local et être utilisées uniquement pour améliorer l’expérience éducative . La vie privée des élèves prime sur toute promesse de performance technologique. La protection des données n’est pas un « bonus » mais une base éthique indispensable.
5. L’IA doit libérer, pas surveiller : non à la notation cachée, non au contrôle.
Pas d’IA qui note en secret, qui fiche, qui classe sans débat humain. L’évaluation reste sous la responsabilité exclusive des enseignants . Les outils doivent soutenir l’apprentissage, pas contrôler ou punir. Toute surveillance algorithmique déguisée détruit la confiance éducative et infantilise les élèves.
6. Des biais corrigés, pas reproduits : l’équité algorithmique est une exigence.
Les modèles doivent être audités pour éviter la reproduction des inégalités sociales, de genre ou culturelles . Une IA qui discrimine, même involontairement, est une trahison des principes d’égalité scolaire. Former des citoyens libres passe par des outils qui valorisent la diversité, et non qui la gomment.
7. Local d’abord : l’IA doit pouvoir fonctionner sans dépendance au cloud.
Installer et faire tourner localement les outils IA réduit l’empreinte carbone, sécurise les données, et permet de rester maître de ses infrastructures . Dépendre du cloud centralisé revient à perdre l’autonomie technique. Le modèle doit être hébergé dans l’établissement ou dans un réseau éducatif souverain.
8. L’IA doit renforcer l’autonomie intellectuelle, pas remplacer la pensée.
L’outil stimule l’esprit critique : il propose, mais ne prescrit pas . L’élève apprend à questionner l’IA, à croiser les réponses, à en percevoir les limites. L’éducation vise à créer des esprits émancipés, pas des « suiveurs » de suggestions algorithmiques. L’IA est un appui à la liberté de penser, jamais un substitut à l’intelligence humaine.
9. Gouvernance collective obligatoire : élèves, enseignants et familles décident ensemble.
L’usage d’une IA ne se décide pas « entre experts » : toute mise en place doit être coconstruite avec les communautés éducatives . C’est un principe démocratique : les élèves eux-mêmes doivent avoir leur mot à dire sur l’usage et les limites des outils qui les concernent. Une IA imposée sans débat est une IA déjà suspecte.
10. Humanisme avant technocratie : l’IA est au service de la dignité, pas de la performance.
L’IA ne vise pas à accélérer les notes ou les classements, mais à nourrir la créativité, la solidarité et la responsabilité . Elle soutient une vision humaniste de l’éducation : former des individus libres, critiques et engagés, respectueux de leur environnement et des autres. La technologie n’est qu’un moyen ; l’humain reste toujours la finalité.
11. L’IA maison doit prouver sa loyauté : une signature chiffrée garantit son intégrité.
Une IA éducative développée en local ou en interne (dite « maison ») ne suffit pas à inspirer confiance si son origine, son contenu et ses mises à jour ne sont pas vérifiables publiquement. Chaque modèle, chaque version, chaque mise à jour doit être signée numériquement (hash crypté, certificat, ou enregistrement type blockchain) pour prouver qu’il provient bien de l’organisation déclarée, sans modification non autorisée.
Cette signature garantit que le modèle utilisé en classe est conforme à l’intention pédagogique, sans altération par des acteurs tiers (ex : éditeurs, plateformes, administrations extérieures). En cas d’audit ou de litige, ce marquage permet de retracer l’historique des versions.
On parle ici de traçabilité cryptographique : un modèle signé est un modèle fiable. Cela rejoint les principes de confiance numérique zéro-autorité, où la preuve remplace la promesse.
VERSION LONGUE
Critères pour une IA compatible avec une éducation positive, humaniste et écologique
- Souveraineté technologique : l’IA éducative doit être open source et contrôlée localement. Les outils d’IA utilisés à l’école ne doivent pas enfermer les établissements dans les solutions propriétaires des géants du numérique. Au contraire, ils s’appuient sur des logiciels et modèles « libres » offrant les libertés fondamentales : utiliser, étudier le code, modifier et redistribuer (Note d’analyse – Les pratiques open source en intelligence artificielle). Cette ouverture garantit le contrôle national et local de l’outil : comme l’explique un rapport français, atteindre la souveraineté numérique est « une des solutions majeures pour sécuriser le développement de l’IA » (L’intelligence artificielle, souveraineté numérique et IA act). En somme, l’école privilégie des IA dont le code et les données sont publics et hébergés dans des structures maîtrisées (collectivités scolaires, associations, coopératives), afin d’éviter toute dépendance aux plateformes centralisées extérieures.
- Transparence absolue : l’IA éducative ne reste pas une boîte noire. Chaque algorithme et chaque traitement doit être explicable aux enseignants, aux élèves et aux familles. L’UNESCO insiste sur l’« utilisation transparente et contrôlable des données » éducatives ( Intelligence Artificielle et Éducation). Autrement dit, il faut pouvoir consulter les données d’entraînement, comprendre les règles et critères de l’IA, et tracer ses décisions. Les systèmes d’IA doivent être vérifiables et traçables, avec des mécanismes de contrôle externe (Éthique de l’intelligence artificielle | UNESCO). En pratique, cela signifie publier les architectures de modèles et fournir des « fiches d’explicabilité » adaptées en langage clair. Un élève ou un parent peut ainsi demander pourquoi l’IA a produit tel résultat (par exemple une suggestion de soutien scolaire) et obtenir une justification compréhensible. Cette exigence de transparence renforce la confiance dans l’outil et permet de détecter et corriger rapidement tout dysfonctionnement.
- Sobriété écologique : des modèles IA légers au service de la planète. L’empreinte carbone du numérique et de l’IA n’est pas négligeable (le numérique pèse environ 3–4 % des émissions mondiales de gaz à effet de serre (L’intelligence artificielle : une pollution cachée au cœur de l’innovation – Institut Supérieur de l’Environnement – ISE)). En éducation, on privilégie donc des modèles optimisés pour consommer moins d’énergie. Les techniques comme la quantification réduisent la taille des modèles et leur besoin en calcul (Les small LLM : de modèles légers à révolutionnaires). Par exemple, des « small LLM » (modèles réduits) peuvent tenir sur un smartphone et répondre rapidement (Les small LLM : de modèles légers à révolutionnaires), sans requérir un centre de calcul géant. L’objectif est de n’utiliser l’IA que lorsque le gain pédagogique est réel, en évitant par exemple de faire tourner en permanence des serveurs de traduction ou de génération massive de contenu. Chaque requête à l’IA doit être pensée comme un usage raisonné, en cohérence avec les principes de l’écoconception numérique (filtrage, mise en cache, réemploi des ressources, etc.). Ainsi, l’IA soutient la transition écologique de l’école plutôt que de la freiner.
- Liberté d’usage : l’IA éducative reste modifiable par la communauté. Les établissements et enseignants doivent pouvoir adapter eux‑mêmes les outils d’IA à leurs besoins pédagogiques et aux programmes locaux. Cela implique l’usage de licences ouvertes. Selon la CNIL, un modèle d’IA est véritablement libre si sa licence permet « d’exploiter, de copier, de distribuer, d’étudier, de modifier et d’améliorer » le logiciel et les données qui le constituent (Note d’analyse – Les pratiques open source en intelligence artificielle). Concrètement, cela donne le droit aux professeurs et aux développeurs scolaires de personnaliser l’IA : ajouter des exercices spécifiques, traduire des ressources ou corriger des comportements indésirables. Cette liberté garantit l’indépendance de l’école vis-à-vis des éditeurs : elle ne subit pas un outil « figé » mais peut continûment l’améliorer et le faire évoluer avec l’aide de la communauté éducative (enseignants, chercheurs, élèves). À l’inverse, un outil IA « fermé » et protégé par un verrou numérique serait incompatible avec une pédagogie participative.
- Vie privée inviolable : les données des élèves restent confidentielles. Tout système d’IA en classe respecte strictement les principes de protection de la vie privée. Les informations personnelles (identité, résultats, profils cognitifs) ne sont ni cédées ni utilisées à d’autres fins sans consentement. L’UNESCO rappelle que la vie privée doit être « respectée, protégée et promue tout au long du cycle de vie des systèmes d’IA » (Éthique de l’intelligence artificielle | UNESCO). La CNIL souligne en outre que même les grands modèles de langage peuvent retenir des données sensibles, qui doivent être protégées « dans les bases d’entraînement, au sein des modèles qui ont pu les mémoriser, ou dans l’utilisation des modèles au moyen des invites (prompts) » (IA et RGPD : la CNIL publie ses nouvelles recommandations pour accompagner une innovation responsable | CNIL). Concrètement, cela implique d’héberger les modèles localement ou sur des serveurs sécurisés, de chiffrer les informations scolaires et de limiter la collecte à ce qui est strictement nécessaire. Tout usage des données fait l’objet d’une information claire aux élèves et parents (formulaire de consentement, RGPD) et d’une gestion transparente. En somme, la protection de la vie privée n’est pas accessoire mais un critère structurant pour toute IA en éducation.
- Équité garantie : l’IA n’introduit aucun biais discriminatoire. Le système renforce la justice sociale et l’égalité des chances, au lieu de reproduire les stéréotypes ou les inégalités existantes. Comme le stipule la Recommandation UNESCO (2021), les acteurs de l’IA doivent « promouvoir la justice sociale, garantir l’équité et lutter contre les discriminations » (Éthique de l’intelligence artificielle | UNESCO). En pratique, cela implique un audit régulier des données et algorithmes pour vérifier qu’aucun groupe (classe sociale, genre, origine, handicap, etc.) n’est défavorisé. Par exemple, l’IA de corrections d’exercices doit être entraînée sur un corpus diversifié et anonyme pour ne pas biaiser selon l’écriture ou l’accent, et un algorithme d’orientation ne doit pas réduire les parcours possibles d’un élève du fait de son origine géographique. Chaque fois qu’un algorithme prend une décision, il y a un examen de ses fondements pour éviter les dérives. Si un biais est détecté, les données ou les formules sont réajustées de sorte à garantir que tous les élèves profitent d’un traitement juste. L’IA reste ainsi un levier d’inclusion et non de discrimination.
- Coopération avant compétition : l’IA encourage l’entraide, pas la rivalité. Dans une pédagogie positive, l’IA renforce les dynamiques collaboratives entre élèves. Par exemple, des outils basés sur l’IA peuvent suggérer des mises en relation pour un tutorat entre pairs ou faciliter des projets collectifs. C’est en phase avec les valeurs de l’éducation : l’UNESCO prône « des sociétés pacifiques, justes et interdépendantes » (Éthique de l’intelligence artificielle | UNESCO), un idéal de solidarité plutôt que d’individualisme. En classe, on insiste sur le fait que « la coopération n’est pas uniquement une finalité en soi, c’est avant tout un moyen d’apprendre » (Intelligence artificielle ou intelligence coopérative à l’école : faut-il choisir ? – Les Cahiers pédagogiques). L’IA ne doit donc pas enfermer l’élève dans son coin en lui donnant tout clés, mais lui proposer de collaborer. Par exemple, une IA d’aide à la résolution de problèmes pourrait encourager les élèves à partager leurs solutions partielles ou leur méthodologie entre eux, renforçant l’apprentissage collectif. L’objectif est de créer une intelligence artificielle « coopérative » qui soutient les relations humaines, au lieu de stimuler une compétition artificielle basée sur les points ou les scores.
- Émancipation intellectuelle : l’IA doit éveiller l’esprit critique et non formater les esprits. Chaque usage de l’IA en éducation est l’occasion d’apprendre, pas de robotiser l’élève. Les élèves sont invités à « décélérer pour penser plutôt qu’à automatiser » (Intelligence artificielle ou intelligence coopérative à l’école : faut-il choisir ? – Les Cahiers pédagogiques) : par exemple, après avoir reçu une réponse d’un chatbot, ils doivent la vérifier, la comparer à d’autres sources et réfléchir à ses limites. L’IA devient un point de départ pour l’investigation, non une solution clé en main. Par contraste, la recherche montre que la conception technique de certaines IA adaptatives impose une « standardisation des usagers » (Enjeux éthiques et critiques de l’intelligence artificielle en éducation : une revue systématique de la littérature) : en simplifiant à outrance la complexité du contexte pédagogique, elles risquent de réduire les élèves à un profil moyen. Ce critère impose donc de préférer des systèmes IA qui préservent la singularité de chaque apprenant. L’émancipation intellectuelle signifie que l’IA ne doit pas imposer une seule « bonne réponse », mais stimuler la curiosité : proposer plusieurs pistes, inciter à explorer les erreurs et encourager la pensée indépendante. Ainsi, plutôt que de niveler vers le bas, l’IA élargit les horizons cognitifs des élèves.
- Refus des modèles massifs fermés : exit les boîtes noires centralisées. Les établissements n’utilisent pas de LLM propriétaires et centralisés (chatbots en cloud non contrôlés), qui concentrent le pouvoir et les données chez quelques géants. À l’inverse, on préfère des modèles compacts, open source, pouvant tourner en local. La CNIL précise qu’un modèle d’IA est considéré « ouvert » seulement si « leurs paramètres, y compris les poids, les informations sur l’architecture du modèle et les informations sur l’utilisation du modèle, sont rendus publics » (Note d’analyse – Les pratiques open source en intelligence artificielle). En d’autres termes, on bannit tout service d’IA scolaire dont on ne peut pas examiner le code et les données. Ce refus des modèles fermés va de pair avec des initiatives d’IA éthiques : par exemple, la start-up française Pleias démontre qu’il est possible d’avoir un LLM performant « sur des données ouvertes » tout en respectant le droit d’auteur et en étant transparent (Pleias : des modèles de langages ouverts pour une IA éthique et transparente). L’école choisit donc des outils IA « décentralisés » (hébergés localement ou fédérés), de façon à garder la main sur la conception et la mise à jour des modèles.
- Respect des droits humains : l’IA éducative protège la dignité de chacun. À l’image des principes fondateurs de l’éducation, l’IA ne doit porter atteinte à aucune liberté fondamentale. L’UNESCO place le « respect, la protection et la promotion des droits de l’homme et des libertés fondamentales » comme pierre angulaire de toute politique d’IA (Éthique de l’intelligence artificielle | UNESCO). En pratique, cela veut dire interdire les usages coercitifs ou stigmatisants : par exemple, une IA de suivi des absences n’est jamais un système de surveillance punitive des élèves, mais un outil visant à comprendre et aider l’élève en difficulté, dans le respect de sa vie familiale et de son intimité. Les décisions importantes (orientation, affectation de fonds) ne sont jamais confiées à l’IA seule, mais révisées par l’équipe éducative. Enfin, l’IA ne déploie aucune propagande ou idéologie : elle respecte le pluralisme, la laïcité et l’esprit critique. Ce critère élargi rappelle que l’école reste un lieu de liberté et de citoyenneté, où la technologie ne peut remplacer le jugement humain et le respect mutuel.
- Diversité et inclusion : l’IA valorise toutes les différences. L’outil d’IA éducatif reflète la pluralité des élèves et de leurs parcours, sans privilégier un groupe majoritaire. La recommandation UNESCO souligne explicitement la nécessité « d’assurer la diversité et l’inclusion » dans les systèmes d’IA (Éthique de l’intelligence artificielle | UNESCO). Concrètement, l’IA prend en compte la diversité linguistique (par exemple des interfaces multilingues) et culturelle (contenus adaptés) de la classe. Elle est conçue pour être accessible à tous (aides pour les élèves en situation de handicap, compatibilité avec des outils de synthèse vocale ou de transcription). Les données d’entraînement incluent des exemples variés pour couvrir la pluralité des situations scolaires. L’objectif est que chaque élève s’y reconnaisse : par exemple, les problèmes mathématiques générés par l’IA illustrent des contextes familiers (culture locale, noms communs, exemples non genrés). Ainsi, l’IA ne sur-standardise pas en imposant un modèle unique d’apprenant, mais embrasse la diversité réelle des élèves.
- Contrôle humain inaliénable : l’enseignant reste maître du jeu pédagogique. L’IA ne remplace jamais l’enseignant, elle agit sous son autorité. L’UNESCO rappelle que, dans tout système d’IA, il faut garder « l’importance de la responsabilité humaine » (Éthique de l’intelligence artificielle | UNESCO). En éducation, cela signifie que chaque intervention de l’IA (un conseil, une correction, une évaluation) est validée et contextualisée par le professeur. Les décisions finales (par exemple une note ou une orientation) restent humaines et transparentes. De plus, les enseignants reçoivent une formation sur le fonctionnement de l’IA : ils comprennent ses limites et peuvent expliquer aux élèves comment elle fonctionne. L’IA est perçue comme un assistant pédagogique, toujours sous supervision : elle ne prend pas de décisions irrévocables sans revue par une personne, garantissant que l’humain demeure au centre du processus éducatif.
- Approche humaniste : l’IA sert l’épanouissement de la personne. Au-delà de l’information qu’elle fournit, l’IA éducative nourrit la confiance, la créativité et la solidarité. La vision humaniste recommandée par l’UNESCO insiste pour « adopter une approche humaniste comme principe général des politiques de l’IA et de l’éducation » ( Intelligence Artificielle et Éducation). Autrement dit, l’usage de l’IA en classe s’intègre dans une pédagogie qui valorise l’élève comme sujet critique et solidaire. Par exemple, l’IA peut proposer des exercices personnalisés pour soutenir un élève en difficulté, tout en respectant son rythme et son estime de soi. Elle peut encourager des projets d’éthique ou de citoyenneté (critiquer un algorithme de tri des élèves, réfléchir aux enjeux environnementaux de la tech), renforçant ainsi l’esprit critique et la conscience sociale. En somme, l’IA est conçue non pour automatiser l’humain, mais pour enrichir son humanité – accompagner la « conscientização » décrite par les pédagogies critiques.
- Traçabilité et responsabilité : l’IA est vérifiable et auditable à tout moment. Chaque outil et algorithme utilisé en éducation fait l’objet d’un contrôle de qualité rigoureux. L’UNESCO exige que les systèmes d’IA soient « vérifiables et traçables » (Éthique de l’intelligence artificielle | UNESCO), ce qui implique de documenter les processus internes et d’instituer des audits réguliers. Concrètement, on tient des journaux d’activité (logs) pour suivre qui a utilisé l’IA, sur quelle version et dans quel contexte. Si un résultat anormal apparaît (par exemple une recommandation pédagogique imprécise), il est possible de retracer l’historique du modèle et des données qui l’ont produit. Cette responsabilité algorithmique passe aussi par des mécanismes de signalement d’erreurs par la communauté éducative. En cas de problème, on peut remonter jusqu’aux concepteurs pour rectifier le tir. L’idée est d’éviter tout effet de tunnel : l’IA scolaire fonctionne dans un cadre connu et contrôlé, avec des « règles du jeu » claires et un suivi délibératif.
- Gouvernance inclusive : toutes les parties prenantes décident de l’IA. Les choix relatifs à l’introduction et à l’usage de l’IA en classe ne se font pas en vase clos. L’UNESCO rappelle qu’une gouvernance de l’IA doit respecter la « participation des différentes parties prenantes » (Éthique de l’intelligence artificielle | UNESCO). Cela signifie que professeurs, élèves et familles (voire la communauté locale) sont associés aux décisions : choix du logiciel, règles de fonctionnement, objectifs pédagogiques. Par exemple, avant d’adopter un nouvel assistant d’écriture IA, l’école peut organiser une réunion avec les élèves pour débattre de ses avantages et risques. Les retours d’expérience (feedback des utilisateurs) nourrissent les ajustements de l’outil. Cette gouvernance démocratique garantit que l’IA reste au service de la communauté éducative et s’adapte aux valeurs et besoins locaux.
- Consentement éclairé : l’usage de l’IA à l’école se fait en pleine transparence. Tout déploiement d’une IA dans un établissement s’accompagne d’une information claire aux élèves et à leur famille. Ils doivent savoir quand et comment l’IA est utilisée (par exemple pour corriger automatiquement des exercices) et quels droits ils ont (droit d’accès, de rectification, d’opposition). Sans leur accord explicite, l’IA ne collecte pas de données supplémentaires sur l’élève ni ne les partage avec des tiers. Ce principe de consentement protège les plus vulnérables et responsabilise l’organisation scolaire. En prime, il transforme l’introduction de l’IA en objet pédagogique : on peut expliquer aux élèves les enjeux (RGPD, vie privée) et discuter éthiquement de l’outil, renforçant ainsi leur esprit critique numérique.
- Anti-surveillance : l’IA n’est pas un outil de fichage ou de notation cachée. L’institution scolaire rejette l’IA utilisée pour surveiller en permanence les élèves (par exemple en analysant leur comportement au profil) ou pour déterminer un classement unique. Toute évaluation automatisée reste transparente et toujours validée par un enseignant. Par exemple, si une IA participe à un examen en ligne (pour détecter la triche), ses règles sont expliquées d’avance et les données de surveillance sont effacées juste après. L’idée est que l’école ne devienne pas un monde de Big Brother technologique. Ce critère protège le climat de confiance indispensable à l’apprentissage : l’IA doit faciliter, non contrôler discrètement, le parcours des élèves.
- Éthique et durabilité : l’IA intègre la responsabilité sociale et environnementale. L’outil scolaire ne peut ignorer son impact sociétal et écologique. Au-delà de la sobriété algorithmique déjà évoquée, cela signifie que les concepteurs se posent la question de la fin de vie des équipements (recyclage, reconditionnement) et de la pérennité des modèles (mise à jour régulière avec des données récentes et éthiques). Par exemple, on privilégie les données issues de ressources éducatives libres plutôt que de contenus soumis à droits d’auteur non clarifiés. On s’assure que l’IA ne consomme pas de ressources rares ou ne génère pas de pollution évitable. Ce critère rejoint la notion d’« écoconception » : l’outil d’IA est créé et maintenu selon des standards qui minimisent son empreinte globale, dans la continuité d’une démarche éducative responsable.
- Formation et esprit critique : on enseigne à utiliser l’IA de façon réfléchie. Enfin, le déploiement de l’IA s’accompagne d’un effort pédagogique sur sa compréhension. Les élèves apprennent ce qu’est l’IA, ses capacités et ses limites. On les encourage à questionner les réponses de l’IA, à reconnaître les situations où elle se trompe (hallucinations) et à comparer ses propositions à d’autres sources. Les enseignants aussi se forment aux outils qu’ils utilisent et restent vigilants. En bref, l’IA est intégrée dans une pédagogie critique : elle n’est pas une boîte noire magique, mais un sujet d’étude. Cela correspond à l’esprit de l’éducation humaniste et émancipatrice : on apprend aux élèves à penser l’outil, pas seulement à s’en servir mécaniquement. Ce dernier critère assure que l’IA reste un moyen au service de la formation intellectuelle de l’élève, et non une fin ou un substitut à l’action humaine.
Sources : Principes et recommandations en éthique de l’IA (UNESCO 2021) ( Intelligence Artificielle et Éducation) (Éthique de l’intelligence artificielle | UNESCO), études sur l’IA et l’environnement (L’intelligence artificielle : une pollution cachée au cœur de l’innovation – Institut Supérieur de l’Environnement – ISE) (Les small LLM : de modèles légers à révolutionnaires), rapports de la CNIL (Note d’analyse – Les pratiques open source en intelligence artificielle) (IA et RGPD : la CNIL publie ses nouvelles recommandations pour accompagner une innovation responsable | CNIL) et retours d’expérience pédagogiques (Intelligence artificielle ou intelligence coopérative à l’école : faut-il choisir ? – Les Cahiers pédagogiques) (Intelligence artificielle ou intelligence coopérative à l’école : faut-il choisir ? – Les Cahiers pédagogiques), soulignent l’importance de ces critères.