Aller au contenu

Travailler en groupe avec l’IA sans le perdre

Quand l’intelligence artificielle n’a de valeur pédagogique que si elle renforce la pensée collective au lieu de la court-circuiter

L’intelligence artificielle entre dans la classe avec une promesse séduisante : mieux accompagner, mieux répartir, mieux soutenir, mieux faire apprendre. Mais dès qu’on quitte l’élève seul face à son écran pour entrer dans le travail de groupe, la question se complique. Car l’IA peut autant enrichir la coopération que la vider de sa substance. Elle peut aider un collectif à mieux chercher, mieux argumenter, mieux se réguler. Elle peut aussi lisser les désaccords, déplacer l’effort, créer de nouvelles dépendances et fragiliser l’agentivité des élèves. Tout l’enjeu est donc là : non pas introduire l’IA dans le groupe, mais penser les conditions dans lesquelles elle peut servir une intelligence collective réellement formatrice.

La fin d’un malentendu : l’IA n’est pas seulement un outil pour individualiser

Pendant des années, l’intelligence artificielle en éducation a été pensée d’abord comme une machine à personnaliser. On attendait d’elle qu’elle adapte des exercices, détecte des erreurs, recommande des parcours, automatise certaines aides. Bref, on la regardait surtout comme un outil au service d’un apprentissage individuel. Le document joint montre bien que cette lecture est devenue trop courte. Avec l’essor de l’IA générative et des systèmes tutoriels intelligents, la machine n’est plus seulement un support périphérique ; elle peut désormais entrer dans les dynamiques de groupe comme partenaire socio-cognitif actif. C’est ce déplacement qui change tout. Il oblige à quitter une logique de simple assistance technique pour entrer dans une réflexion plus large sur la collaboration, l’orchestration de classe et le partage d’agence entre humains et systèmes artificiels.

Autrement dit, la vraie question n’est plus seulement : comment l’IA peut-elle aider un élève ? Elle devient : que se passe-t-il quand l’IA entre dans les interactions entre élèves, dans l’écriture à plusieurs, dans les débats, dans la coordination d’une tâche, dans la formation même des groupes ? Et surtout : que reste-t-il du travail collectif si une partie des opérations cognitives est désormais co-produite avec une machine ?

Le cœur du sujet : l’IA ne crée pas la collaboration, elle en modifie les conditions

Il faut poser d’emblée une limite nette : l’IA ne crée pas, à elle seule, une culture de coopération. Elle ne produit ni la confiance, ni l’engagement, ni le désir de chercher ensemble, ni le goût du désaccord fécond. Ce qui fait qu’un groupe apprend vraiment, ce sont toujours des conditions profondément pédagogiques : une tâche qui oblige à penser ensemble, une intention partagée, une répartition vivante des rôles, une circulation réelle de la parole, une responsabilité mutuelle, une présence enseignante capable de guider sans écraser. Le document rappelle d’ailleurs qu’une collaboration véritable ne se réduit pas à une simple juxtaposition d’actions, mais suppose une intentionnalité commune et une répartition fine des rôles. L’IA n’invente pas cela. En revanche, elle peut transformer les conditions dans lesquelles cela devient possible, visible, soutenable et parfois plus ambitieux.

C’est là qu’apparaît l’idée d’intelligence hybride. Cette notion est essentielle parce qu’elle permet de sortir d’une opposition stérile entre l’humain et la machine. Le problème n’est pas de savoir lequel des deux doit l’emporter. Le vrai sujet est de comprendre comment une activité cognitive peut être distribuée entre acteurs humains et artificiels sans que l’humain perde la main sur le sens. L’IA devient alors un élément d’un système plus large, où elle ne remplace pas l’enseignant ni les élèves, mais redessine certaines tensions entre le savoir, la médiation et l’activité du groupe.

Ce que l’IA fait vraiment en groupe : elle orchestre plus qu’elle n’enseigne

Le mot le plus juste n’est peut-être pas “automatisation”, mais “orchestration”. Le document s’appuie sur les travaux de Pierre Dillenbourg pour rappeler qu’enseigner une classe, surtout lorsqu’elle travaille en groupes, consiste à gérer en temps réel des passages complexes entre phases individuelles, échanges en petits collectifs et moments de mise en commun. C’est une activité exigeante, presque musicale, où il faut tenir ensemble le rythme, les transitions, les niveaux de cognition et l’unité de la classe. L’IA peut soutenir cette orchestration en rendant certains enchaînements plus lisibles, en suggérant les bons moments pour passer d’une réflexion individuelle à un débat collectif, ou en signalant les groupes qui avancent, stagnent ou se dispersent.

Mais le point le plus intéressant du document est ailleurs : les enseignants ne semblent pas attendre de l’IA qu’elle décide à leur place. Ils préfèrent un contrôle hybride. L’IA propose, calcule, suggère, apparie, rend visible. L’enseignant valide, ajuste, contextualise, parfois contredit. Ce modèle de co-orchestration est probablement l’un des apports les plus solides de la réflexion actuelle. Il évite deux impasses symétriques : l’automatisation déshumanisée d’un côté, le refus défensif de toute assistance de l’autre. Il repose sur une idée simple et forte : l’IA peut entrer dans la classe, mais elle n’y entre pas comme souveraine.

Former les groupes autrement : l’algorithme peut aider, à condition de rester au service d’une intention pédagogique

L’un des apports les plus concrets du document tient à la question de la composition des groupes. On parle souvent de ce que l’IA fait pendant l’activité. On parle moins de ce qu’elle peut changer avant même qu’elle commence. Or la qualité d’un travail de groupe dépend largement de la façon dont les groupes sont constitués. Tirage au sort, affinités, habitudes, organisation pratique : dans la réalité scolaire, cette étape est souvent rapide et peu pensée. L’IA ouvre ici une possibilité nouvelle. Des algorithmes de groupage, de clustering ou d’optimisation multi-critères peuvent aider à composer des groupes plus cohérents selon les objectifs : homogènes pour une remédiation ciblée, hétérogènes pour favoriser le conflit socio-cognitif, ou complémentaires pour stimuler le tutorat réciproque. Le document cite notamment des logiques de pairage fondées sur la complémentarité des connaissances, où chacun a quelque chose à apprendre et quelque chose à apporter.

C’est un point décisif. L’IA ne sert plus seulement à accompagner un groupe déjà formé ; elle peut contribuer à créer de meilleures conditions de travail collectif dès le départ. Mais ce gain ne vaut que si le critère algorithmique reste subordonné au jugement pédagogique. Une machine peut repérer des proximités de performances, d’intérêts ou de styles de travail. Elle ne connaît ni l’histoire relationnelle d’une classe, ni les tensions invisibles, ni les alliances fragiles, ni les contraintes humaines du terrain. Là encore, l’intérêt n’est pas dans la substitution, mais dans l’appui.

Quand l’IA devient presque un membre de l’équipe

C’est peut-être la mutation la plus déroutante. Le document ne présente pas l’IA seulement comme un outil externe au groupe, mais comme une présence pouvant adopter plusieurs postures au sein même du collectif. Elle peut agir comme pair virtuel, en apportant une perspective divergente pour éviter la pensée de groupe. Elle peut devenir facilitatrice ou modératrice, en structurant les étapes, en rappelant les objectifs, en soutenant un meilleur partage de la parole. Elle peut tenir le rôle d’experte ressource, capable de fournir une information à la demande ou de suggérer une piste documentaire. Elle peut enfin fonctionner comme tuteur de groupe, en repérant les impasses cognitives et en proposant des étayages adaptés.

Cette typologie est précieuse, parce qu’elle oblige à poser une question trop souvent négligée : quelle place donne-t-on exactement à l’IA dans l’activité ? Car une IA qui modère une discussion ne produit pas les mêmes effets qu’une IA qui rédige un texte à la place du groupe. Une IA qui relance la réflexion n’a pas la même portée qu’une IA qui ferme trop vite le champ des possibles en proposant d’emblée une réponse bien formée. Le choix du rôle n’est donc pas secondaire. Il détermine une partie de la dynamique collective, et même du type d’apprentissage que l’on rend possible.

Ce que l’IA améliore le plus souvent, ce n’est pas le résultat final mais le processus

C’est sans doute l’une des idées les plus importantes à préserver dans le débat. L’IA peut rendre la recherche plus fluide, les consignes plus opératoires, l’idéation plus abondante, les reformulations plus rapides, les transitions plus visibles. Elle peut aider un groupe à sortir d’une impasse, à explorer plusieurs pistes, à clarifier une question. En ce sens, elle améliore souvent le processus avant d’améliorer le produit. Et ce n’est pas un détail. Car en pédagogie, surtout dans le travail de groupe, le processus n’est pas un simple moyen ; il est déjà une partie du but. Discuter, argumenter, choisir, renoncer, arbitrer, vérifier, reformuler : c’est précisément cela qu’on cherche aussi à former.

Le document va dans ce sens lorsqu’il insiste sur des usages comme le brainstorming collaboratif avec critique des suggestions de l’IA, ou encore la rédaction assistée suivie d’un audit humain du texte généré. L’idée est forte : on peut déléguer un premier jet à la machine, mais l’évaluation doit porter sur la capacité du groupe à vérifier, corriger, enrichir, justifier. Autrement dit, ce qui compte n’est pas seulement ce que l’IA permet de produire, mais ce que les élèves sont encore capables d’en faire intellectuellement.

Voir enfin ce qui se passe dans les groupes

L’autre promesse forte de l’IA, souvent moins spectaculaire mais peut-être plus utile, se situe du côté des learning analytics. Le document le formule très bien : la puissance de l’IA réside aussi dans sa capacité à rendre visible l’invisible. Dans un travail de groupe, l’enseignant voit beaucoup de choses, mais pas tout. Il perçoit des impressions, des indices, des signaux faibles. Les outils d’analyse peuvent l’aider à objectiver certaines dynamiques : quels groupes parlent beaucoup mais avancent peu ? Quels groupes exécutent vite sans véritable discussion ? Quels groupes entrent dans une dynamique synergique où délibération et action se nourrissent l’une l’autre ? Quels groupes décrochent ? Quels groupes sont dominés par un élève plus à l’aise avec l’IA pendant que les autres deviennent passagers ?

Cette lecture plus fine peut transformer la manière d’intervenir. Non plus seulement corriger après coup, mais agir au bon moment, là où l’activité se joue vraiment. L’intérêt de l’IA n’est alors pas tant de produire du contenu que d’aider à mieux lire la vie cognitive du collectif. Elle devient un outil de vigilance pédagogique plus qu’un générateur de réponses.

Le point de bascule: aider le groupe ou lui voler son effort

C’est ici que l’enthousiasme doit ralentir. Car tout ce qui aide peut aussi affaiblir. Le document insiste à juste titre sur le risque d’atrophie cognitive. Si les élèves externalisent trop de travail intellectuel à la machine, ils peuvent perdre l’habitude de l’effort long, du doute, de la formulation tâtonnante, de la négociation difficile. Or le travail de groupe ne sert pas seulement à produire quelque chose en commun. Il sert aussi à apprendre à supporter la complexité, à traverser des désaccords, à affiner sa pensée au contact de celle des autres. Si l’IA lisse trop les frictions, elle peut dégrader ce que la coopération a de plus formateur : ses résistances fécondes.

À cela s’ajoute un autre danger, plus discret mais très réel : la naissance d’une fracture IA à l’intérieur même des groupes. Tous les élèves ne maîtriseront pas l’outil de la même manière. Certains sauront mieux questionner, reformuler, comparer, piloter. D’autres suivront. Le risque est alors de voir apparaître une nouvelle hiérarchie : non plus seulement entre élèves “forts” et “faibles”, mais entre ceux qui savent gouverner la machine et ceux qui deviennent spectateurs de l’interaction. Une pédagogie qui prétendrait renforcer la collaboration tout en laissant s’installer cette confiscation de l’agence manquerait sa promesse.

Le vrai rôle de l’enseignant devient plus clair, pas moins important

On entend souvent que l’IA ferait reculer l’enseignant. Le document défend exactement l’inverse, et il a raison. Plus l’outil devient puissant, plus le rôle du professeur se clarifie. Il n’est plus seulement transmetteur ou correcteur. Il devient architecte de l’apprentissage, organisateur des conditions de la rencontre entre intelligence humaine et artificielle, garant des finalités, lecteur des dynamiques, concepteur de tâches qui empêchent la délégation paresseuse et exigent encore une pensée authentique.

Ce déplacement est majeur. Il signifie que l’essentiel n’est pas de savoir si l’IA entre dans la classe, mais sous quelles règles, dans quels rôles, avec quels garde-fous, pour servir quelles finalités. Une classe équipée d’IA ne vaut rien pédagogiquement si elle renonce à faire penser. En revanche, une classe qui sait faire de l’IA un objet d’audit, de discussion, de confrontation, de sélection et de justification peut en faire un formidable révélateur de l’intelligence collective.

La question éthique n’est pas à côté du sujet, elle en fait partie

Enfin, il faut refuser l’idée que l’éthique serait un supplément de dossier. Dans le document, les questions d’intégrité, d’équité, de protection des données, de souveraineté numérique et de dépendance aux plateformes sont pleinement liées au cœur pédagogique du problème. Elles ne viennent pas après. Elles définissent les conditions mêmes d’un usage juste. Dès qu’on parle de groupes, on parle aussi de traces, de profils, de comportements observés, d’interactions analysées, parfois d’émotions inférées. On ne peut pas accueillir ces outils naïvement. Il faut savoir qui collecte, qui interprète, qui décide, qui stocke, qui profite.

Là encore, le critère n’est pas seulement l’efficacité. Une IA qui améliorerait la fluidité d’un groupe au prix d’une dépendance opaque ou d’une captation de données mal maîtrisée ne serait pas un progrès éducatif. Une école n’a pas pour vocation de confier sans recul ses médiations à des infrastructures qu’elle ne gouverne pas.

Ce que l’IA devrait nous obliger à défendre plus fortement encore

Au fond, le mérite de l’IA n’est pas de nous dispenser de penser le collectif. C’est plutôt de nous y contraindre davantage. Elle nous oblige à préciser ce que nous attendons vraiment du travail de groupe. Voulons-nous seulement aller plus vite, produire plus proprement, rendre des travaux mieux finis ? Ou voulons-nous former des élèves capables de délibérer, d’argumenter, de douter, de construire avec d’autres, de critiquer même une réponse fluide et séduisante lorsqu’elle est pauvre, fausse ou trop facile ?

Si l’on choisit la première voie, l’IA sera vite un accélérateur commode. Si l’on choisit la seconde, elle peut devenir beaucoup mieux : un révélateur, un perturbateur utile, un outil d’orchestration, un partenaire contrôlé, parfois un miroir critique de nos propres façons de penser ensemble. Mais cela suppose une ligne claire : la machine peut aider le groupe, jamais se substituer à ce qui fait sa valeur formatrice.

L’avenir de la pédagogie collaborative ne se jouera donc pas dans le choix entre enthousiasme technophile et refus nostalgique. Il se jouera dans notre capacité à construire un nouveau contrat pédagogique, où l’IA ne sera ni idole ni menace absolue, mais une force tenue, située, discutée, subordonnée à l’émancipation intellectuelle. Car la vraie question n’est pas de savoir si les élèves travailleront avec des machines. Ils le feront. La vraie question est de savoir s’ils apprendront encore, ensemble, à ne pas penser moins qu’elles.

Bibliographie

Zawacki-Richter, O., Marín, V. I., Bond, M., & Gouverneur, F. (2019). Systematic review of research on artificial intelligence applications in higher education – where are the educators? International Journal of Educational Technology in Higher Education, 16, Article 39. doi:10.1186/s41239-019-0171-0.

Bond, M., Khosravi, H., De Laat, M., Bergdahl, N., Negrea, V., Oxley, E., Pham, P., Chong, S. W., & Siemens, G. (2024). A meta systematic review of artificial intelligence in higher education: A call for increased ethics, collaboration, and rigour. International Journal of Educational Technology in Higher Education, 21, Article 4. doi:10.1186/s41239-023-00436-z.

Wang, S., Wang, F., Zhu, Z., Wang, J., Tran, T., & Du, Z. (2024). Artificial intelligence in education: A systematic literature review. Expert Systems with Applications, 252, Article 124167. doi:10.1016/j.eswa.2024.124167.

Tan, S. C., Lee, A. V. Y., & collaborators. (2022). A systematic review of artificial intelligence techniques for collaborative learning over the past two decades. Computers and Education: Artificial Intelligence. doi:10.1016/j.caeai.2022.100097.

Kővári, A. (2025). A systematic review of AI-powered collaborative learning in higher education: Trends and outcomes from the last decade. Social Sciences & Humanities Open, 11, Article 101335. doi:10.1016/j.ssaho.2025.101335.

Sichterman, B., Noroozi, O., Boetje, J., van Ginkel, S., Khosravi, H., & Versendaal, J. (2025). Supporting peer learning with artificial intelligence: A systematic literature review. Innovations in Education and Teaching International, 62(5), 1648–1664. doi:10.1080/14703297.2025.2530118.

Darvishi, A., Khosravi, H., Sadiq, S., Gašević, D., & Siemens, G. (2024). Impact of AI assistance on student agency. Computers & Education, 210, Article 104967. doi:10.1016/j.compedu.2023.104967.

Hu, W., Tian, J., & Li, Y. (2025). Enhancing student engagement in online collaborative writing through a generative AI-based conversational agent. The Internet and Higher Education, 65, Article 100979. doi:10.1016/j.iheduc.2024.100979.

Yin, X., Ye, J., Yu, S., Li, H., Liu, Q., & Zhao, G. (2025). The association between groups’ interactions with the Visual-GenAI learning analytics feedback and student engagement in CSCL. Computers & Education, Article 105434. doi:10.1016/j.compedu.2025.105434.

Marzano, D. (2025). Generative Artificial Intelligence (GAI) in Teaching and Learning Processes at the K-12 Level: A Systematic Review. Technology, Knowledge and Learning. doi:10.1007/s10758-025-09853-7.