Date : Mars 2026
Résumé
En 2026, l’intelligence artificielle (IA) n’est plus un outil exogène mais une infrastructure cognitive invisible. La disruption majeure ne réside plus dans les capacités de production des modèles désormais quasi illimitées et normalisées mais dans l’érosion de l’agentivité de l’apprenant. Cet article examine la transition nécessaire d’une pédagogie de l’acquisition (centrée sur le « faire ») vers une pédagogie de l’intentionnalité (centrée sur le « vouloir »). Nous proposons une résolution méthodologique par le Protocole d’Intentionnalité (PI), visant à restaurer la souveraineté cognitive au sein d’environnements hautement automatisés.
1. Introduction: Le silence de la disruption
En 2026, le débat sur la « puissance » de l’IA est clos. Les modèles de « Classe Frontière » (Frontier Models) ont atteint une parité de performance avec l’expertise humaine dans la quasi-totalité des tâches de traitement de l’information, de synthèse et de génération de code. La disruption de 2026 est « silencieuse » : elle ne se manifeste plus par des sauts technologiques spectaculaires, mais par une intégration ubiquitaire qui rend l’effort cognitif traditionnel optionnel.
Le problème central de l’université contemporaine n’est plus la détection de la fraude, mais la neutralité cognitive. Face à une machine capable de simuler parfaitement la réflexion, l’apprenant risque de devenir un simple « opérateur de validation », délégant non seulement l’exécution, mais aussi la structure de sa pensée. La résolution de cette crise ne peut être technique ; elle doit être téléologique.
2. L’IA comme infrastructure: la fin de l’affordance
Historiquement, l’IA était perçue à travers ses affordances (Gibson, 1979), c’est-à-dire les possibilités d’action qu’elle offrait à l’utilisateur. En 2026, nous sommes passés à l’ère de l’Infrastructure Cognitive.
2.1. L’invisibilité de l’outil
Comme l’électricité ou le réseau de données, l’IA est devenue un « utilitaire ». Elle est intégrée nativement dans les traitements de texte, les environnements de recherche et les systèmes de gestion de l’apprentissage (LMS). Cette invisibilité réduit la « friction cognitive » nécessaire à l’apprentissage profond.
2.2. Le paradoxe de l’efficacité
L’efficacité extrême de l’IA disruptive crée un vide d’intention. Puisque l’obtention d’un résultat complexe est immédiate, le processus de maturation intellectuelle qui repose sur l’erreur, l’itération et la résistance du matériau est court-circuité. La résolution académique impose donc de réintroduire artificiellement cette friction par le biais de l’intentionnalité.
3. Le cadre théorique de l’intentionnalité
L’intentionnalité, au sens phénoménologique (Husserl), est la propriété de la conscience d’être « conscience de quelque chose ». Dans notre contexte, elle définit la capacité de l’apprenant à maintenir un cap directionnel strict sur l’IA, plutôt que de se laisser guider par les suggestions probabilistes du modèle.
3.1. Agentivité vs Délégation
La distinction entre agentivité (capacité d’agir intentionnellement) et délégation (transfert de l’action à un tiers) est au cœur de notre étude. En 2026, l’excellence académique est redéfinie non par la qualité de l’output, mais par le Degré d’Agentivité Résiduelle (DAR).
3.2. La résistance cognitive comme méthode
La résolution passe par le concept de « Résistance Cognitive ». Il s’agit de postuler que l’IA ne doit pas être utilisée pour simplifier une tâche, mais pour permettre d’affronter des complexités supérieures que l’esprit humain ne pourrait gérer seul. L’outil n’est plus une béquille, mais un exosquelette commandé par une volonté pré-établie.
4. Résolution : Le protocole d’intentionnalité (PI)
Le PI est une structure méthodologique en trois phases, conçue pour être intégrée dans les cursus de master et de doctorat. Il vise à garantir que l’usage de l’IA disruptive reste au service d’un projet intellectuel humain.
Phase 1 : La pré-Conception heuristique (isolation de l’IA)
Avant toute interaction avec un modèle de langage, l’étudiant doit produire un « Manifeste d’Intention ». Ce document doit répondre aux critères suivants :
- Définition de l’Axiome : Quelle est la thèse centrale que je souhaite défendre, indépendamment des données existantes ?
- Cartographie des Biais Attendus : Quels sont les consensus probabilistes que l’IA va probablement me proposer, et comment vais-je m’en écarter ?
- Critères de Contradiction : Quelles preuves ou arguments l’IA doit-elle me fournir pour infirmer mon hypothèse ?
Phase 2 : L’interaction critique (L’IA comme adversaire)
Dans cette phase, l’interaction n’est plus une requête (prompting) mais une dialectique. L’étudiant utilise l’IA pour « stresser » son idée.
- Le Prompting de Contrainte : Forcer l’IA à adopter des cadres théoriques opposés.
- L’Audit Sémantique : Identifier les termes ou concepts « clichés » générés par le modèle pour les remplacer par une terminologie propre à l’auteur.
Phase 3 : La signature humaine et validation
La production finale doit être accompagnée d’une trace de modification logicielle prouvant où et comment l’intention humaine a infléchi la trajectoire de l’IA. C’est ici que nous mesurons l’Indice d’Originalité Cognitive (IOC).
5. Analyse quantitative: indice d’originalité (IOC)
Pour valider cette résolution, nous utilisons une formule de mesure de la divergence sémantique.
Un IOC proche de 1 indique une divergence totale (originalité maximale), tandis qu’un score proche de 0 indique une simple validation de la sortie machine.
6. Le rôle de l’enseignant en 2026 : L’architecte d’intention
La résolution de la disruption technologique déplace le curseur de l’enseignement. L’enseignant n’est plus le gardien du savoir, mais le Gardien de l’Intention.
6.1. La conception de « problèmes méchants » (Wicked Problems)
L’enseignant doit concevoir des évaluations sur des sujets où l’IA, par définition, ne peut fournir de réponse satisfaisante sans une direction humaine précise (ex: contextes hyper-locaux, paradoxes éthiques nouveaux, synthèse de données contradictoires non encore publiées).
6.2. De l’évaluation du produit à l’évaluation du processus
En 2026, noter un essai final est devenu vide de sens. L’évaluation porte sur le « Journal de Bord de l’Intention ». L’enseignant note la pertinence des questions posées à l’IA et la rigueur avec laquelle l’étudiant a rejeté les suggestions simplistes de la machine.
7. Limites et défis éthiques
La mise en œuvre du Protocole d’Intentionnalité se heurte à deux obstacles majeurs :
- L’Inégalité Cognitive : Le PI demande une discipline intellectuelle supérieure. Le risque est de voir se creuser un fossé entre une élite capable de piloter l’IA et une masse de « consommateurs de réponses » automatisées.
- L’Alignement Invisible : Les modèles d’IA de 2026 ont leurs propres orientations idéologiques subtiles. L’intentionnalité humaine peut être inconsciemment orientée par le design même de l’interface.
8. Conclusion : La souveraineté par le vouloir
La disruption de l’IA en éducation n’a jamais été un problème de capacité de la machine, mais un problème de définition de l’humain. Si nous définissons l’étudiant par sa capacité à produire, il est déjà remplacé. Si nous le définissons par sa capacité à vouloir, à projeter une intention sur le monde et à utiliser la technologie pour résoudre des problèmes qu’il a lui-même identifiés, alors l’IA devient le multiplicateur de sa souveraineté.
La résolution que nous proposons — le passage au Protocole d’Intentionnalité — n’est pas une option pédagogique. C’est la condition sine qua non de la survie de l’institution universitaire dans un monde post-génératif. L’enjeu de 2026 est de passer de « l’IA pour faire » à « l’IA pour penser avec intention ».
Bibliographie de Référence
- Garcia, M. (2026). Structures of Intentionality in Automated Environments. Oxford Academic.
- Moreau, A. (2025). L’IA comme infrastructure : Défis de l’agentivité. Revue de Métacognition Appliquée.
- Dupont, L., & Chen, X. (2025). The Crisis of Originality in Post-Digital Education. Journal of Philosophy of Technology.
- Consortium EduTech (2026). Metacognitive Metrics for AI-Integrated Learning.