Aller au contenu

De la fluidité à l’intention : pour une pédagogie de l’agentivité face aux IA génératives

Date : Mars 2026

Les débats sur l’intelligence artificielle en éducation sont souvent mal posés. On demande si l’IA est utile, dangereuse, inévitable, enthousiasmante ou inquiétante. Ces questions ne sont pas absurdes, mais elles manquent souvent leur cible. La vraie question n’est peut-être pas ce que l’IA sait faire. Elle est plus simple et plus exigeante à la fois : que voulons-nous lui faire faire, et à quelles conditions ?

https://www.webjeje.com/ia/inversion

Mode d’emploi – IOC Builder

  1. Ouvrir le fichier ioc.html dans un navigateur moderne (Chrome, Edge, Firefox).
  2. L’interface se présente comme un constructeur de prompt pédagogique basé sur l’« Inversion de Séquence Cognitive ».
  3. Commencer dans la colonne 1. Manifeste Pré-Interaction.
  4. Renseigner l’axiome ou thèse initiale : l’idée centrale que l’IA devra explorer.
  5. Ajouter le contexte pédagogique ou intellectuel pour préciser le cadre d’analyse.
  6. Dans les zones suivantes, décrire les intentions, contraintes et objectifs de la requête.
  7. Utiliser ensuite les bricks (blocs fonctionnels) disponibles dans l’interface.
  8. Faire glisser-déposer ces blocs dans la zone de construction centrale.
  9. Chaque bloc correspond à une fonction cognitive (analyse, synthèse, critique, audit…).
  10. Organiser les blocs dans l’ordre logique de raisonnement souhaité.
  11. Cette séquence détermine la structure finale du prompt généré.
  12. L’interface calcule automatiquement un Indice IOC prédictif.
  13. Cet indice estime le niveau d’intentionnalité et de structuration du prompt.
  14. Plus la séquence est précise, plus l’indice augmente.
  15. Ajuster les blocs et les paramètres pour améliorer la cohérence.
  16. Vérifier que chaque étape correspond à une action cognitive claire.
  17. Une fois la construction terminée, cliquer sur « Copier prompt ».
  18. Le prompt complet est alors copié dans le presse-papier.
  19. Coller ce prompt dans un LLM (En local comme moi, ChatGPT, Claude, Gemini, Cohere etc.).
  20. L’IA exécutera alors la séquence cognitive définie dans l’IOC Builder.

Cette inversion paraît modeste. En réalité, elle change presque tout. Elle déplace l’attention depuis la puissance apparente de la machine vers la qualité de l’intention humaine. Elle oblige à ne plus confondre fluidité verbale et pertinence intellectuelle. Elle rappelle qu’un système capable de produire des réponses rapides, élégantes et plausibles n’est pas, pour autant, un système qui pense à notre place de manière fiable. Les travaux de l’UNESCO insistent justement sur la nécessité d’une approche centrée sur l’humain, capable d’encadrer les usages éducatifs de l’IA au lieu de les subir. (UNESCO)

À partir du projet analysé ici, une thèse forte émerge : la qualité pédagogique d’un usage de l’IA dépend moins de la performance brute du modèle que du degré d’intentionnalité, d’agentivité et de résistance cognitive introduit par l’utilisateur. Le fichier étudié propose, sous forme d’interface et de grammaire de pilotage, un cadre implicite très clair. L’utilisateur doit d’abord expliciter un axiome, ensuite régler un niveau d’agentivité humaine, puis organiser une séquence de briques cognitives destinées non pas à accélérer la production, mais à la rendre plus lucide. Ce déplacement est majeur. Il suggère qu’en contexte éducatif, le problème central n’est pas d’obtenir plus vite une sortie, mais d’éviter que la machine remplace silencieusement les opérations intellectuelles qui devraient rester visibles, discutables et formatrices.

Le cœur de cette proposition peut être formulé ainsi : l’IA n’est pas d’abord un moteur de réponse ; elle devient un révélateur de posture cognitive. Lorsqu’un utilisateur n’explicite ni son intention, ni ses critères, ni ses limites, il délègue beaucoup plus qu’il ne le croit. Il ne délègue pas seulement la rédaction. Il délègue le cadrage du problème, le choix de l’angle, la hiérarchisation implicite des idées, parfois même les normes de vérité et de pertinence. À l’inverse, lorsqu’il affirme une thèse initiale, impose des contraintes, introduit de la friction volontaire, exige un audit des sources et maintient une forte agentivité, il transforme l’IA en outil de travail critique plutôt qu’en prothèse de substitution.

Cette idée rejoint, par un autre chemin, plusieurs constats désormais bien documentés. L’OCDE montre que les usages éducatifs de l’IA progressent rapidement chez les enseignants, notamment pour la préparation, l’exploration de contenus et parfois l’évaluation. En 2024, environ un tiers des enseignants déclaraient déjà utiliser l’IA pour leur travail dans les données TALIS exploitées par l’OCDE. (OECD) Mais l’extension des usages ne règle pas la question décisive : quels usages renforcent réellement l’apprentissage, et lesquels installent une dépendance cognitive discrète ? L’enjeu n’est pas l’adoption seule. Il est la forme de l’adoption.

Une hypothèse directrice : l’IA comme miroir de l’intention

Le projet étudié repose sur une intuition simple, presque sévère : sans axiome clair, l’IA ne fait qu’optimiser l’indétermination. Cette idée mérite d’être prise au sérieux. Dans de nombreuses situations, l’utilisateur formule une demande pauvre, puis attribue au système une forme d’intelligence supérieure dès lors que la réponse “sonne bien”. Or une requête imprécise ne produit pas seulement une réponse approximative ; elle laisse la machine choisir les chemins conceptuels à la place de l’humain. L’illusion n’est donc pas uniquement technique. Elle est cognitive. Plus la sortie est fluide, plus l’utilisateur risque d’oublier qu’il n’a ni contrôlé le raisonnement, ni vérifié les présupposés.

Le fichier ioc.html propose une formalisation originale de ce problème à travers un indice IOC prédictif. Pris comme objet théorique, cet indice ne doit pas être lu comme une métrique scientifique validée, mais comme un instrument de modélisation pédagogique. Il cherche à estimer non pas la qualité intrinsèque d’un texte, mais la distance entre une simple consommation de réponse et un usage piloté par l’intention. Il combine plusieurs dimensions : la présence d’un axiome initial, le niveau d’agentivité choisi, l’activation de mécanismes de résistance cognitive, et l’ajout de séquences de contrôle ou d’audit. En ce sens, l’IOC ne mesure pas la vérité ; il mesure le degré de non-abandon de la pensée.

Cette proposition est importante parce qu’elle déplace le centre de gravité de l’évaluation. Au lieu de demander si la réponse finale est élégante, on demande : qui a réellement conduit l’activité intellectuelle ? Le fichier met d’ailleurs en scène cinq niveaux d’agentivité, de la “délégation totale” à la “souveraineté”, ce qui revient à reconnaître qu’il existe plusieurs économies possibles de la relation homme-machine. L’IA peut écrire tout. Elle peut suggérer. Elle peut co-concevoir. Elle peut critiquer. Elle peut enfin être réduite à une fonction quasiment passive, contrôlée par un sujet humain fortement directeur. Cette gradation mérite d’être pensée pédagogiquement : toutes les tâches n’exigent pas le même degré d’autonomie humaine, mais toutes gagnent à rendre ce degré explicite.

On retrouve ici une préoccupation de plus en plus présente dans les travaux récents sur l’interaction humain-IA : les systèmes efficaces peuvent améliorer la performance visible tout en dégradant la compréhension du sujet sur ce qu’il fait, pourquoi il le fait, et sur la part qu’il prend réellement dans la décision. Des travaux récents soulignent ainsi le risque d’un décalage entre amélioration de performance et lucidité métacognitive, autrement dit le fait de mieux réussir sans devenir plus conscient des conditions de sa réussite. (arXiv) Dans le champ éducatif, ce point est capital : une aide n’est pas pédagogiquement bonne parce qu’elle rend la tâche plus facile, mais parce qu’elle permet de mieux comprendre, mieux choisir, mieux justifier.

Résister à l’automatisme : la friction comme condition d’apprentissage

L’un des aspects les plus féconds du projet est l’importance accordée à ce qu’il appelle la résistance cognitive. Dans une culture numérique dominée par la promesse de fluidité, cela peut sembler paradoxal. On vante les outils “sans friction”, “instantanés”, “naturels”, “magiques”. Le projet prend presque le contrepied de cette rhétorique. Il introduit au contraire des briques comme la boucle socratique, l’avocat du diable, le stress-test logique, le contre-exemple, la règle des cinq pourquoi, la gestion du vide ou encore le refus de répondre lorsque la question est mal posée. Autrement dit, il construit une interface non pas pour supprimer l’effort intellectuel, mais pour empêcher son évaporation.

Cette intuition entre fortement en résonance avec des travaux récents sur la littératie IA et les soutiens métacognitifs. Certains auteurs défendent l’idée d’une friction délibérée dans les interactions avec l’IA afin de limiter les biais humains, de ralentir l’adhésion trop rapide aux sorties de la machine et de renforcer les capacités de contrôle critique. Ce que le projet appelle “résistance” pourrait donc être reformulé en termes plus académiques comme une ingénierie de la désadhésion immédiate. L’objectif n’est pas de rendre l’outil pénible, mais de créer les conditions minimales d’un usage réfléchi.

En pédagogie, cette idée est particulièrement précieuse. L’apprentissage n’est pas la suppression de l’obstacle ; c’est le travail sur un obstacle fécond. Une technologie qui lisse tout risque de retirer à l’élève (ou à l’enseignant) les prises mêmes par lesquelles une compréhension se construit. De ce point de vue, la friction n’est pas l’ennemie de l’efficacité éducative ; elle peut en être une composante. On pourrait presque dire, avec un peu de malice, qu’une IA trop serviable devient vite une IA pédagogiquement paresseuse.

Le projet l’exprime à sa manière : l’outil ne doit pas seulement produire, il doit tenir tête. Cette posture tranche avec une partie des usages ordinaires des grands modèles de langage, souvent mobilisés comme assistants de complétion dociles. Ici, la docilité n’est pas le but. Le but est la mise sous tension de la pensée. Ce point permet de critiquer une certaine vision naïve de l’IA éducative fondée sur l’idée qu’un bon système serait celui qui réduit au maximum l’effort de formulation, de vérification et de structuration. Or, si l’effort disparaît totalement, c’est parfois la compétence elle-même qui s’efface derrière la commodité.

Des analyses récentes sur la préservation de l’autonomie humaine dans les systèmes de décision assistée rappellent d’ailleurs les risques de deskilling cognitif, c’est-à-dire d’érosion progressive des compétences lorsque la machine absorbe trop d’opérations auparavant réalisées par le sujet. Dans le domaine scolaire ou universitaire, cette perspective mérite d’être prise au sérieux. Une aide qui fait gagner du temps peut simultanément faire perdre de la prise conceptuelle. Le problème n’est donc pas l’assistance en elle-même, mais l’absence de cadrage sur ce qui doit rester exercé, appris, explicitement assumé par l’humain.

De l’outil génératif à l’infrastructure de vigilance

Le projet ne s’arrête pas à l’intention et à la friction. Il introduit aussi une troisième strate : l’audit. Plusieurs briques sont consacrées à la vérification des citations, à la distinction entre faits et opinions, à la détection de biais, à la traque des sophismes, à la simulation de relecture par les pairs, à l’index de doute, ou encore à l’obligation pour l’IA de dire “je ne sais pas”. Cette architecture est particulièrement intéressante, car elle rompt avec une logique purement expressive de l’usage des modèles de langage. Le système n’est pas seulement invité à écrire. Il est sommé de rendre des comptes.

Dans le contexte éducatif actuel, cette exigence correspond à un besoin très concret. L’UNESCO insiste sur la nécessité de développer les capacités humaines permettant un usage approprié, critique et responsable des IA génératives dans l’éducation et la recherche. (UNESCO) L’enjeu n’est pas simplement technique. Il est éthique, épistémique et pédagogique. Une institution éducative ne peut pas confier une part croissante de la production de contenus à des systèmes probabilistes sans renforcer corrélativement les mécanismes de discernement, de vérification et de responsabilité.

C’est ici que le projet apporte une contribution intéressante : il ne se contente pas d’ajouter un bouton “vérifier”. Il met en scène une culture de l’audit dès la phase de conception de la requête. Autrement dit, le contrôle n’arrive pas après coup comme un réflexe correctif ; il est intégré à l’architecture même de l’interaction. Cette idée est forte, car elle s’oppose à un usage compensatoire de l’esprit critique. Trop souvent, on formule vaguement, on obtient une sortie séduisante, puis l’on se promet d’être vigilant ensuite. En pratique, cette vigilance arrive tard, et parfois jamais. Le projet inverse cet ordre : on cadre d’abord, on résiste ensuite, on audite constamment.

Une telle approche peut nourrir une réflexion plus large sur ce qu’on pourrait appeler une pédagogie de l’agentivité assistée. L’IA n’y est ni idolâtrée, ni diabolisée. Elle est traitée comme un environnement puissant qui exige des formes nouvelles de discipline intellectuelle. Non pas une discipline punitive, mais une discipline de méthode : expliciter son axiome, nommer ses limites, décider du niveau de délégation, introduire de la contradiction, vérifier les sorties, distinguer fait et opinion, maintenir le droit au doute. Cette grammaire pourrait devenir un cadre très utile pour la formation des enseignants comme pour l’éducation des élèves aux usages de l’IA.

Une proposition théorique : l’inversion de séquence cognitive

Le projet se présente comme un cadre d’inversion de séquence cognitive. Cette expression n’appartient pas, à ma connaissance, au vocabulaire stabilisé des sciences de l’éducation ; il faut donc l’entendre ici comme une proposition théorique issue du projet lui-même. Elle peut toutefois être définie de manière opératoire : au lieu de partir de la réponse générée pour revenir ensuite vers l’intention, on part de l’intention, des contraintes, des critères de vérité et du degré de délégation acceptable avant toute génération.

Cette inversion mérite d’être prise au sérieux parce qu’elle modifie profondément le statut de la requête. Le prompt n’est plus une simple consigne technique. Il devient un espace de formalisation de la pensée préalable. En ce sens, écrire la requête revient déjà à penser. Et penser avant la génération change la nature même de ce qui sera généré. Là où l’usage ordinaire des IA tend à confondre vitesse et maîtrise, l’inversion de séquence cognitive réintroduit une antériorité du jugement humain.

Cette perspective peut également éclairer les débats curriculaires actuels. L’OCDE souligne que les capacités de l’IA obligent à reconsidérer ce qui doit être enseigné, appris et valorisé à l’école, notamment lorsque certaines tâches cognitives deviennent techniquement faciles à externaliser. (OECD) Dans ce contexte, des compétences comme la formulation de problème, la structuration d’un cadre, la justification d’un choix, la critique d’une sortie, la gestion de l’incertitude ou l’explicitation des critères prennent une importance accrue. Le projet étudié ne règle pas à lui seul ces questions, mais il pointe dans une direction féconde : si l’IA automatise une partie de la production, l’éducation doit rendre plus explicites les opérations de cadrage, de contrôle et de jugement.

Conclusion : ne pas demander seulement des réponses, mais des conditions de pensée

L’intérêt théorique du projet tient à sa simplicité radicale : il rappelle que le problème de l’IA en éducation n’est pas seulement un problème de performance, mais un problème de gouverne cognitive. Une machine qui répond bien ne dit rien, à elle seule, de la qualité intellectuelle de l’activité qu’elle a suscitée. On peut produire vite et penser peu. On peut même produire brillamment et comprendre faiblement. À l’inverse, un usage plus lent, plus contraint, plus audité, peut préserver ce qui compte le plus dans une perspective éducative : la capacité à formuler, juger, douter, réviser et assumer.

Trois propositions peuvent être retenues. Premièrement, l’intention explicite doit précéder la génération. Deuxièmement, l’agentivité humaine doit être réglée, visible et assumée, plutôt que dissoute dans la commodité de l’outil. Troisièmement, la résistance cognitive et l’audit ne sont pas des compléments facultatifs, mais des conditions de qualité pour des usages pédagogiquement défendables.

En ce sens, le projet ne propose pas seulement une interface. Il propose une éthique pratique du rapport à l’IA. Une manière de rappeler que l’enjeu n’est pas de parler avec une machine qui écrit bien, mais de ne pas oublier qui pense, qui décide, qui répond, et selon quelles normes. C’est sans doute moins spectaculaire qu’une démonstration de magie technologique. Mais pour l’éducation, c’est infiniment plus sérieux.

Jérôme SACARD 12/03/2026