Ce didacticiel en 10 modules propose une progression pédagogique, des bases de l’interaction avec une IA générative jusqu’à la conception de vos propres IA spécialisées. Chaque module (~30 minutes) contient des exemples pratiques, des schémas explicatifs, des vidéos intégrées, des quiz et des réflexions éthiques.
Module 1 : Découvrir l’IA conversationnelle – premiers pas avec ChatGPT & co
Objectifs : Comprendre le fonctionnement d’une IA générative conversationnelle (type ChatGPT) et expérimenter des interactions basiques. Distinguer tâches objectives vs créatives et leurs résultats.
Contenu :
- Introduction aux IA génératives : Qu’est-ce qu’une IA de type chatbot ? Présentation simple de modèles comme ChatGPT, Bing Chat, etc., entraînés sur d’énormes corpus de textes. Illustration avec une métaphore accessible (p.ex. « Un perroquet statistique très savant »).
- Exemples contrastés de requêtes :
- Tâche objective : « Classe ces couleurs du plus clair au plus foncé : rouge, bleu, rose, vert. » – L’IA fournit un classement logique.
- Tâche créative : « Invente une courte histoire où ces couleurs sont des personnages. » – L’IA produit un récit original.
Commentaire : on compare la fiabilité des réponses. Dans le cas objectif, l’IA excelle (réponse quasi certaine). Dans le cas créatif, l’IA déploie son imagination – plusieurs réponses possibles, pas de « vérité » absolue. On souligne qu’une même IA peut aussi bien résoudre un exercice factuel que jouer un rôle de conteur.
- Analyse des limites : L’IA peut donner des réponses imprécises ou incorrectes avec un ton assuré, surtout sur des sujets pointus non maîtrisés. Parfois, elle invente des informations (“hallucinations”) si la question dépasse son entraînement (Large language models (LLMs) vs Small language models (SLMs)). Exemple réel à l’appui (une question de culture générale où l’IA fournit une réponse erronée confondue avec la réalité). Humour : on pourra montrer une réponse aberrante de l’IA (mais amusante) pour dédramatiser l’erreur et insister sur le nécessaire esprit critique.
- Réflexe d’esprit critique : L’enseignant est encouragé à vérifier les réponses de l’IA, surtout sur des faits. Discussion rapide : « Faut-il faire confiance à une IA ? » – Conclusion : non aveuglément ! L’IA semble sûre d’elle, mais n’a pas de compréhension infaillible. Critique pédagogique : ne pas présenter l’IA aux élèves comme un oracle infaillible, mais comme un assistant qui peut se tromper.
- Éthique et posture de l’enseignant : Réaffirmer que l’IA est un outil : l’enseignant conserve son rôle d’expert pour valider ou non les propositions. Éviter la surdépendance : varier les sources d’information, solliciter l’IA comme complément et non comme unique référence, afin de garder l’esprit critique des élèves en alerte.
Module 2 : Mieux interroger pour mieux répondre – l’art du prompt efficace
Objectifs : Savoir formuler une requête (prompt) claire et complète en une seule fois (one-shot) pour obtenir de bonnes réponses. Comprendre la structure d’un bon prompt : préciser le rôle de l’IA, le contexte, la tâche à accomplir et les contraintes éventuelles.
Contenu :
- Définir le prompt : Le prompt est le texte que l’on fournit à l’IA pour qu’elle réponde. C’est l’instruction donnée à l’IA (6 ingrédients pour faire un (bon) prompt ChatGPT – Digitad). Accroche humoristique : « Un prompt mal rédigé, c’est comme donner une consigne floue à un élève : la réponse risque d’être à côté ! »
- Importance d’un prompt précis : « Un bon prompt pour l’IA, c’est comme donner le script exact à un acteur : avec des répliques précises et un contexte clair, la performance colle à votre vision. Sinon, l’acteur improvise et le résultat peut s’éloigner de ce que vous vouliez » (6 ingrédients pour faire un (bon) prompt ChatGPT – Digitad). On illustre par une analogie théâtrale ou culinaire (la recette d’un bon prompt).
- Structure d’un prompt complet : Présentation des éléments à inclure : le contexte (rôle de l’IA, public cible…), la tâche précise, et les détails/contraintes (ton souhaité, longueur, format de réponse attendu, éléments à inclure/éviter, etc.). Par exemple, pour obtenir une définition simple : « Tu es un pédagogue bienveillant (contexte/ton). Explique-moi la gravitation universelle à des élèves de 3ème en une phrase courte. » On détaille comment chaque partie oriente l’IA.
- Cas pratiques contrastés : On montre un prompt vague vs un prompt amélioré : par ex.
- Prompt trop flou : « Explique la théorie de l’évolution. » (très général – risque de réponse longue et peu ciblée)
- Prompt amélioré : « Explique la théorie de l’évolution en 5 points clés, avec un ton humoristique et des exemples concrets, comme si tu t’adressais à des élèves de 4ème. »
On compare les réponses : la seconde est mieux structurée et adaptée au public. Truc pédagogique : toujours définir l’objectif et le public avant d’écrire le prompt (Le guide pour faire un bon prompt IA + 7 Exemples – ModPerl) (Le guide pour faire un bon prompt IA + 7 Exemples – ModPerl). Une table peut récapituler « prompt basique » vs « prompt optimisé ».
- Exemples d’éléments de contexte à fournir : liste à puces d’idées issues de l’expérience et de guides : objectif pédagogique, âge/niveau des élèves, registre de langue (formel, familier), format attendu (liste à puces, paragraphe, dialogue…), contraintes particulières (nombre de mots, inclusion de termes spécifiques, etc.) (Le guide pour faire un bon prompt IA + 7 Exemples – ModPerl). Astuce : plus le modèle a d’informations sur ce que vous voulez, plus il a de chances de vous satisfaire du premier coup.
- Focus sur le rôle et la tonalité : Montrer qu’on peut même assigner un rôle à l’IA dans le prompt. Par ex : « Tu es un expert en histoire »… ou « Adopte le ton d’un coach sportif motivant ». Ceci guide le style de la réponse.
- Exercice ludique : On propose aux enseignants un petit jeu de prompt-tuning : on donne une question de cours, et plusieurs formulations de prompt. À eux de prédire laquelle donnera la réponse la plus pertinente, puis on teste en direct avec l’IA (via une vidéo démonstrative).
- Limites et éthique : Critique de l’illusion du « prompt magique ». Ce n’est pas parce qu’un prompt est bien ficelé qu’il résoudra n’importe quel problème. Il y a parfois des biais ou des zones d’incompétence du modèle, même avec une question bien posée. Encourageons à formuler différemment ou à découper le problème (module 3) plutôt que de s’acharner à trouver LA formule miracle. Humour : « Ce n’est pas Sirius Black, le prompt magique n’existe pas ! »
- Souveraineté & éthique : Rappeler qu’un prompt explicite peut contenir des données (par ex. « résume-moi tel texte » implique de fournir le texte). Ne pas inclure de données sensibles (élèves, collègues) dans un prompt envoyé sur une IA en ligne ! On fait le lien avec la protection des données : où vont les informations fournies à l’IA ? Conseiller de nettoyer les prompts de toute info personnelle. (Transition vers module 4 sur données externes).

(6 ingrédients pour faire un (bon) prompt ChatGPT – Digitad) Exemple d’interface : un utilisateur fournit un prompt (“Donne-moi 5 raisons…”), et ChatGPT génère une liste numérotée en réponse. Ici, l’encadré rouge montre le prompt de l’utilisateur.
Figure 1 : Qu’est-ce qu’un prompt ? Ici, l’enseignant pose une consigne précise en une phrase. L’IA répond en respectant le format demandé (liste de 5 raisons). Un bon prompt oriente clairement l’IA vers la réponse voulue et évite les hors-sujets (6 ingrédients pour faire un (bon) prompt ChatGPT – Digitad) (Le guide pour faire un bon prompt IA + 7 Exemples – ModPerl).
Module 3 : Aller plus loin avec l’IA : décomposer les tâches et raisonner en étapes
Objectifs : Apprendre à interagir avec l’IA sur des tâches complexes en plusieurs étapes. Introduire la notion de chaîne de pensée (Chain-of-Thought, CoT) : inciter l’IA à expliciter son raisonnement étape par étape pour améliorer la qualité des réponses. Comprendre comment découper une consigne complexe en sous-tâches plus simples (prompt chaining).
Contenu :
- Limites d’un seul prompt pour problèmes complexes : Illustration par un problème de maths multi-étapes ou une analyse de texte. Si on pose la question finale directement, l’IA peut se tromper faute d’expliciter les étapes intermédiaires. Exemple motivant : question de maths avec piège (calcul en plusieurs opérations) – ChatGPT donne une réponse fausse car il a « sauté » une étape de raisonnement.
- Introduction à la chaîne de pensée (CoT) : Définition simple : c’est une technique où l’on demande à l’IA de raisonner à voix haute, un peu comme un élève qui détaille sa démarche avant de donner la réponse (Qu’est-ce que la chaîne de pensée (CoT) ? | IBM). On explique que cela se fait en modifiant le prompt (par ex : ajouter « réfléchis étape par étape » ou fournir un exemple de raisonnement). Bienfaits : l’IA, en simulant un raisonnement pas à pas, produit souvent des réponses plus correctes sur les questions complexes, car elle « structure » mieux sa pensée. En somme, la CoT reproduit un schéma de raisonnement humain en décomposant un problème complexe en étapes logiques successives menant à la solution (Qu’est-ce que la chaîne de pensée (CoT) ? | IBM).
- Exemple concret de CoT : On reprend le problème mathématique précédemment raté, et on montre comment inciter l’IA à dérouler ses calculs : Prompt : « Résous ce problème en expliquant chaque étape : … ». L’IA fournit alors un raisonnement détaillé (somme, calcul intermédiaire, etc.) aboutissant à la bonne réponse. Comparatif : réponse avec CoT vs sans CoT. On peut afficher côte à côte les deux réponses de l’IA. Résultat : avec la chaîne de pensée, l’IA a corrigé l’erreur et trouvé la bonne solution, car elle a vérifié chaque étape.
- Schéma explicatif : Un schéma ou tableau compare « Standard prompting » et « Chain-of-thought ». Par ex, pour deux problèmes de logique posés, la méthode classique donne une réponse erronée au second problème, tandis que la méthode CoT où l’IA détaille ses calculs donne la bonne réponse. On commente le schéma : la CoT pousse l’IA à ne pas répondre trop vite, à justifier, ce qui réduit les risques d’erreur logique.
(Chain-of-Thought Prompting | Prompt Engineering Guide ) Illustration : comparaison entre une approche standard et une approche « chaîne de pensée » sur deux problèmes de calcul. À gauche, l’IA donne directement une réponse (fausse pour le second problème). À droite, on lui a demandé d’expliquer ses calculs : l’IA détaille les opérations (textes en bleu) avant de donner la réponse finale (en vert), qui cette fois est correcte.
Figure 2 : La chain-of-thought en action. En incitant l’IA à détailler son raisonnement, on obtient des réponses plus justifiées et fiables pour des problèmes complexes.

- Comment guider l’IA à raisonner : Astuce du prompt « Pensons étape par étape » (traduction de “Let’s think step by step”). Présenter des exemples d’utilisation : « Explique ton cheminement », « Montre tes calculs », etc. On peut fournir un exemple modèle dans le prompt : « Q: [problème 1] – A: [raisonnement détaillé + réponse]. Q: [problème 2] – A: » ; l’IA va imiter le format et raisonner pour le second problème (Chain-of-Thought Prompting | Prompt Engineering Guide ) (Chain-of-Thought Prompting | Prompt Engineering Guide ).
- Interaction multi-tour : Au-delà du prompt unique, on peut mener un dialogue en plusieurs tours avec l’IA pour affiner la réponse. Par ex : 1) on pose une question complexe, l’IA répond partiellement ; 2) on relance en demandant une précision ou en corrigeant un point ; etc. Montrer un exemple de tutorat : l’enseignant interagit avec ChatGPT comme avec un élève, en posant des sous-questions. L’IA améliore sa réponse au fil des échanges. Mise en garde : garder la maîtrise de la démarche pédagogique, ne pas laisser l’IA dériver du sujet.
- Pitfalls : Parfois la chaîne de pensée de l’IA peut contenir des erreurs dans les étapes, même si la conclusion semble juste. Il faut donc lire et vérifier le raisonnement fourni – ce qui est un bon exercice : on encourage l’enseignant à jouer l’inspecteur face à la solution expliquée de l’IA, comme il le ferait pour un élève. Cela peut servir de base à un travail en classe : confronter le raisonnement de l’IA aux élèves, leur demander de valider ou corriger les étapes (développement de l’esprit critique !).
- Enjeux pédagogiques : Souligner comment la CoT peut être utilisée en classe : par exemple, demander à l’IA de détailler un raisonnement puis demander aux élèves de trouver l’étape erronée si la réponse est fausse, ou d’approuver si c’est juste. L’IA devient un outil d’entraînement à l’analyse plutôt qu’une simple machine à réponses.
- Réflexion éthique : Noter que pousser l’IA à s’expliquer ne signifie pas qu’elle comprend réellement ; c’est une illusion de logique. Il ne faut pas l’oublier pour autant : ça reste un texte prédit statistiquement. On reste vigilant sur la cohérence des justifications.
🧩 Quiz ludique en fin de module : On propose quelques dialogues inachevés avec l’IA (une question complexe et deux réponses de l’IA : l’une directe, l’autre détaillée). Question aux participants : laquelle est issue d’une approche CoT et pourquoi semble-t-elle plus fiable ? (Réponse attendue : la réponse B est plus argumentée, donc on la reconnaît ; elle est en général correcte tandis que la A a une erreur).
Module 4 : Doper l’IA avec des ressources externes – l’IA connectée
Objectifs : Apprendre à utiliser l’IA en la combinant à des sources externes de connaissance. Découvrir comment certaines IA peuvent chercher sur le web, utiliser des documents fournis par l’utilisateur (texte, PDF) ou des formats variés (tableaux, images) pour améliorer leurs réponses. Comprendre l’intérêt d’alimenter l’IA avec du contenu de référence pour éviter les hallucinations et avoir des informations à jour.
Contenu :
- IA + web : Présentation des IA connectées à Internet. Par exemple, Bing Chat de Microsoft intègre un moteur de recherche : l’IA peut effectuer des requêtes web et s’appuyer sur des résultats pour formuler sa réponse. Démonstration : On montre une question d’actualité ou très précise que ChatGPT (version non connectée) ne peut pas bien répondre faute de données à jour, alors que Bing Chat ou ChatGPT avec le plugin navigateur va chercher la réponse.
(Reinventing search with a new AI-powered Bing and Edge, your copilot for the web)】 Exemple : l’interface de Bing Chat, qui intègre des sources web. L’utilisateur demande si un canapé Ikea Klippan rentre dans un modèle de voiture ; l’IA consulte des sites (dimensions du canapé, capacités du coffre du véhicule) et fournit une réponse argumentée avec ces chiffres, en citant ses sources en bas de la réponse.
Figure 3 : Une IA connectée au web en action. Ici, l’IA puise dans des informations à jour sur Internet pour répondre de façon précise, avec des références. Grâce à l’accès au web, l’IA fournit une réponse plus fiable et justifiée qu’en se basant seulement sur ses connaissances internes.

- Avantages de l’IA connectée : elle peut fournir des réponses actualisées (ex. données 2024) et vérifiables (grâce aux sources). On insiste sur la notion de transparence : dans l’exemple ci-dessus, l’IA cite ses références, l’enseignant peut aller vérifier. C’est un bon garde-fou contre les hallucinations : l’IA s’appuie sur du concret.
- Autres exemples d’usage pédagogique : chercher des informations précises pendant un cours (« Bing, trouve-moi la dernière mission de telle sonde spatiale »), analyser une page Wikipédia en direct, comparer des sources. L’IA devient une sorte d’assistant documentaliste. Mise en garde : toujours contrôler les sources proposées, s’assurer de leur fiabilité (l’IA peut choisir un site non pertinent). C’est l’occasion d’éduquer aux médias : vérifier l’URL, la qualité de la source.
- Fournir des documents à l’IA : Présentation des possibilités d’entrer du texte en input pour que l’IA s’en serve. Par exemple, avec ChatGPT on peut copier-coller un article ou un PDF (via un plugin spécialisé ou l’outil Code Interpreter) et ensuite demander un résumé. De même, certaines IA acceptent qu’on uploade un fichier texte, CSV, etc.
- Cas pratique : un enseignant fournit à l’IA un article scientifique en anglais et lui demande d’en faire un résumé en français pour des élèves – gain de temps appréciable, tout en gardant le document d’origine comme référence.
- Autre exemple : analyser un jeu de données simple en le fournissant (via un tableur converti en texte ou un outil spécialisé).
- Formats hybrides : Mentionner que les modèles évoluent vers le multimodal (images + texte). Par ex, montrer (si disponible) un exemple de ChatGPT Vision où l’IA répond à partir d’une image (utile en sciences : « Explique ce diagramme »). Bien préciser que ces fonctionnalités sont naissantes et parfois limitées.
- Focus sur la démarche RAG (Retrieval-Augmented Generation) : sans entrer dans les détails techniques (qui seront approfondis module 8), expliquer simplement le concept : on peut combiner un LLM à une base documentaire. L’IA recherche d’abord l’info pertinente dans la base, puis génère la réponse en s’appuyant sur cette inf (RAG (Retrieval-Augmented Generation) : l’avenir des LLM et de l’IA générative)】. C’est ce que fait Bing Chat avec le web. On peut faire de même avec ses propres documents (intranet, cours, etc.). Conséquence : des réponses plus exactes, et contextualisées à nos données.
- Mise en garde données personnelles : ⚠ Ne pas partager de documents sensibles sur une IA en ligne publique. Si on fait lire à ChatGPT un extrait d’évaluation d’élève ou un document interne, ces données quittent votre environnement. Réflexion éthique : quid de la confidentialité ? Ici on évoque la notion d’IA souveraine : une IA locale ou privée éviterait ce problème en gardant les données en interne. *« Une IA souveraine permet de protéger les données et de renforcer l’indépendance technologique » ([PDF] L’intelligence artificielle, souveraineté numérique et IA act)】. On ouvre la question : comment concilier la puissance des IA et la maîtrise des données ? On promet d’y revenir aux modules 8-9 (solutions locales).
- Transversal – sobriété numérique : Avoir une IA qui cherche sur le web ou mouline un PDF, c’est plus lourd qu’une réponse sans sources. Consommation énergétique en hausse : par ex, une question posée à ChatGPT avec navigation web peut consommer *10 fois plus d’électricité qu’une requête Google classique (IA générative : la consommation énergétique explose)】. On incite donc à n’utiliser ces fonctions que lorsque nécessaire. Ton humoristique : « Pas la peine d’appeler un 38 tonnes pour livrer une lettre : si la question est simple, l’IA sans web suffit ! »
🎥 Vidéo intégrée : « Tutoriel : utiliser Bing Chat en classe » – une démonstration en 5 minutes de Bing Chat sur des recherches d’information en histoire-géo, avec commentaire sur la pertinence des sources trouvées.
Module 5 : Paramétrer l’IA pour varier les résultats – tempérer la créativité de ChatGPT
Objectifs : Découvrir que les IA génératives peuvent être réglées via des paramètres pour ajuster leur style et leur comportement. Comprendre des paramètres courants : température, top-p, top-k, etc., et l’impact sur la réponse (plus ou moins créative, plus ou moins cohérente). Présenter d’autres paramètres (longueur max, pénalités de répétition, etc.) sans entrer dans tous les détails (vision d’ensemble).
Contenu :
- Pourquoi des paramètres ? Introduction avec une analogie : « Ces IA ont des boutons de réglage, comme la tonalité et le volume sur une radio ». Selon les besoins, on peut vouloir une réponse très originale ou au contraire très sûre et factuelle. Les paramètres de génération sont là pour ça. Contexte : dans les interfaces grand public (ChatGPT standard), ces réglages sont prédéfinis. Mais dans certaines applications (Playground d’OpenAI, interface Hugging Face, ou apps locales), on peut les modifier.
- Le paramètre Température : C’est souvent le plus accessible. Température = 0 → réponses très déterministes (l’IA choisit toujours les mots les plus probables, donc style très factuel, peu de variations). Température élevée (≈1) → l’IA prend plus de risques dans le choix des mots, donc réponses plus originales ou créativ (Tester les valeurs de paramètres | Generative AI on Vertex AI | Google Cloud)3】. En d’autres termes, la température contrôle le degré de hasard dans la génération : *« plus elle est basse, plus la réponse est prévisible ; plus elle est haute, plus la réponse peut surprendre (Tester les valeurs de paramètres | Generative AI on Vertex AI | Google Cloud)3】. Exemple : on demande une phrase d’accroche pour un cours. À
temp=0
, l’IA donnera souvent la même phrase stéréotypée à chaque essai. Àtemp=1
, elle formulera différemment à chaque fois, parfois de façon inspirée, parfois moins bonne. - Paramètre Top-p (nucléus sampling) et Top-k : On explique de manière imagée : Top-k limite le choix du prochain mot aux k options les plus probabl (Tester les valeurs de paramètres | Generative AI on Vertex AI | Google Cloud)7】. Top-p limite le choix aux mots dont la probabilité cumulée atteint *p (Tester les valeurs de paramètres | Generative AI on Vertex AI | Google Cloud)8】. Ces deux paramètres restreignent la “fantaisie” de l’IA en évitant les choix trop improbables. Exemple : top-p = 0.3 signifie « ne considérer que les mots les plus probables cumulé jusqu’à 30% » – l’IA se cantonne aux tournures communes. On peut dire *« top-k et top-p réduisent la diversité et se concentrent sur les prédictions les plus sûres (Temperature, top_p and top_k for chatbot responses – Prompting)8】. On illustre éventuellement par un mini-graphique (distribution de probabilité de mots suivants).
- Longueur de réponse : Paramètre max tokens ou longueur maximale : simplement, on peut fixer un plafond de mots/phrases. Utile pour éviter que l’IA digresse. Ex : limiter à 100 mots pour un résumé conc (Tester les valeurs de paramètres | Generative AI on Vertex AI | Google Cloud)3】.
- Pénalités de répétition : Frequency penalty et presence penalty. On explique que l’IA a parfois tendance à se répéter. Ces deux réglages aident à lutter contre ça : l’un pénalise les mots déjà utilisés en proportion de leur fréquence, l’autre dès qu’un mot est apparu au moins une fo (Difference between frequency and presence penalties? – Prompting)7】. Exemple imagé : on demande une liste de courses, sans pénalité l’IA pourrait lister « pommes, bananes, pommes, bananes… », avec pénalité elle diversifie « pommes, bananes, oranges… ».
- Présentation de l’interface de paramétrage : montrer une capture d’écran d’un outil comme OpenAI Playground ou HuggingFace Transformers où l’on voit les curseurs (température, top_p, etc.). Commentaire sur l’image : on voit par exemple Temperature=1, Top P=1 (valeurs par défaut), et on pourrait les modifi (Setting Parameters in OpenAI | Codecademy) (Setting Parameters in OpenAI | Codecademy)5】. (Setting Parameters in OpenAI | Codecademy)e】
- Exemple d’interface (OpenAI Playground) : à droite, des curseurs permettent d’ajuster les paramètres de génération : modèle choisi (ici GPT-4), température, longueur max, top-p, pénalités, etc. L’utilisateur peut ainsi « sculpter » le comportement de l’IA en fonction de ses besoins.
Figure 4 : Panneau de configuration d’une IA générative. Les paramètres principaux ici – Température, Top-P, Top-K, Pénalités – influent sur la créativité, la longueur et l’originalité des réponses. Par exemple, une température plus basse donnera des réponses plus déterministes et répétabl (Tester les valeurs de paramètres | Generative AI on Vertex AI | Google Cloud)3】.

- Démonstrations courtes : On propose quelques tests amusants en modulant la température : « Complète la phrase : Il était une fois… » avec temp=0 vs temp=1. À temp=0, l’IA finit par un lieu commun (« … un prince et une princesse. »). À temp=1, elle part dans une histoire plus originale (« … un robot qui voulait devenir poète. »). On peut afficher les deux résultats.
- 20+ autres paramètres ? On ne va pas détailler tous les réglages possibles (certains sont techniques), mais on cite les plus courants en plus des précédents : choix du modèle (GPT-3.5 vs GPT-4, ou autres modèles open source), paramètres propres à certains modèles (ex. « presence penalty » déjà abordé), etc. L’idée est de faire prendre conscience qu’il existe une fine-tuning utilisateur sans retrain le modèle : en API, on peut jouer sur ~20 paramètres. Table listant 5-6 paramètres avec leur effet en une phra (Setting Parameters in OpenAI | Codecademy) (Setting Parameters in OpenAI | Codecademy)4】 pour culture générale.
- Bonnes pratiques de réglage : Conseils généraux : « Si l’IA donne des réponses trop aléatoires, baissez la température ou le top-p » ; « si au contraire elle est trop basique ou toujours la même, augmentez-les ». « Pour un exercice de réflexion précise, restez sur temp basse ; pour brainstormer des idées créatives, mettez temp plus haute. » On invite à expérimenter : c’est en testant qu’on comprend l’eff (Setting Parameters in OpenAI | Codecademy) (Setting Parameters in OpenAI | Codecademy)5】.
- Éthique et pédagogie : Mentionner qu’en jouant avec ces paramètres, on mesure encore mieux la part de stochastique dans l’IA. Une analogie possible : « l’IA peut être plus ou moins fantasque selon comment on la règle ». Intérêt pédagogique : pour les enseignants de sciences, c’est une porte d’entrée pour expliquer des concepts de proba/statistique aux élèves à partir d’un outil concret.
- Consommation & souveraineté : Évoquer que certains réglages peuvent impacter les ressources utilisées (une très longue réponse consomme plus de calcul). Un modèle plus grand (GPT-4) consomme aussi plus d’énergie qu’un plus petit (GPT-3.5) pour chaque réponse. Reboucler sur l’idée de sobriété numérique : paramétrer judicieusement c’est aussi éviter le gâchis.
💡 Astuce pratique : Fournir un mini-guide récap en PDF (ou carte mémo) que l’enseignant peut garder sous la main : par exemple un tableau « problème constaté -> quel paramètre ajuster » (ex : « réponse trop courte -> augmenter longueur max », « texte peu cohérent -> diminuer température », « IA radote -> augmenter pénalité de répétition »…).
Module 6 : L’IA générative dans Python – automatiser des tâches par code
Objectifs : Montrer qu’il est possible d’interagir avec une IA générative via un langage de programmation (ici Python), pour automatiser certaines tâches répétitives ou traiter des lots de données. Initiation simple à l’utilisation d’une API d’IA (OpenAI, Hugging Face) ou d’un modèle open source dans un script Python. NB : Ce module vise surtout les enseignants à l’aise avec l’informatique (documentalistes, profs de techno, etc.), mais les exemples restent accessibles et expliqués pas à pas pour les novices curieux.
Contenu :
- Pourquoi utiliser Python avec l’IA ? Explication des cas d’usage : si on a 100 textes d’élèves à résumer, on ne va pas copier-coller 100 fois dans ChatGPT ! Avec un petit script Python, on peut faire boucler la tâche. Idem pour intégrer l’IA dans un outil existant (une appli éducative, un quiz auto-généré, etc.).
- Présentation des APIs : Notion d’API (interface de programmation) – rassurer que ce n’est pas sorcier. Par ex, l’API OpenAI permet d’envoyer une requête contenant un prompt et de recevoir la réponse de l’IA, le tout en JSON. On montre un extrait ultra-simple en Python :
- Ce code interroge ChatGPT depuis Python et affiche la réponse. On explique ligne par ligne (import, clé API, choix du modèle, envoi du message). Important : montrer qu’avec seulement quelques lignes on peut déjà faire parler l (LLM Parameters Explained: A Practical Guide with Examples for OpenAI API in Python) (LLM Parameters Explained: A Practical Guide with Examples for OpenAI API in Python)00】.
import openai
openai.api_key = "YOUR_API_KEY"
response = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[{"role": "user", "content": "Donne-moi un conseil pédagogique aléatoire."}]
)
print(response['choices'][0]['message']['content'])
- Atelier pratique guidé : Construire un petit programme ensemble : « Générateur de quiz » en Python. Étapes : on charge une liste de notions (ex : capitale de pays), puis pour chaque élément on appelle l’API pour formuler une question QCM avec trois propositions. On obtient un quiz généré automatiquement. (On précise qu’il faut une clé API et que cela peut coûter quelques centimes selon le nombre de requêtes – évoquer le modèle économique des API).
- Utiliser des modèles open source localement : Introduction à HuggingFace Transformers. Plutôt que passer par un service web, on peut installer un modèle (s’il n’est pas trop gros) et l’utiliser directement en Python. Présenter la fonction
pipeline
de HuggingFace qui simplifie tout. Exemple court : Ce code charge un modèle GPT-2 open-source et génère du texte localem ( Simple NLP Pipelines with HuggingFace Transformers – KDnuggets)54】. On souligne qu’ici aucune donnée ne part sur Internet : tout se passe sur la machine. Intérêt en termes de souveraineté et de confidentialité. Inconvénient : GPT-2 est moins performant que GPT-3.5/4 et le modèle pèse plusieurs centaines de Mo (il faut une bonne machine pour des modèles plus grands).
from transformers import pipeline
generator = pipeline(model="gpt2") # charge le modèle GPT-2 localement
print( generator("Il était une fois", max_length=30) )
- Démonstration Notebook : Intégrer une vidéo ou un notebook Jupyter en lecture seule montrant un enchaînement : ex. on utilise Python pour prendre un corpus (fichier texte de réponses d’élèves), on boucle pour envoyer chacune à l’API OpenAI avec la consigne « évalue l’orthographe sur 10 » et on stocke les notes retournées dans un CSV. Cela illustre le potentiel d’automatisation à grande échelle. (Avertissement : ce n’est pas une invitation à noter les élèves via IA sans lecture humaine, on en discute dans l’éthique).
- Idées de projets simples avec code + IA :
- Générer des fiches de révision : on donne un chapitre et on génère un résumé, des questions de compréhension, etc., via API, pour chaque chapitre d’un programme.
- Analyser des réponses courtes automatiquement : utiliser l’IA pour détecter si une phrase est positive/négative, utile en enquête de satisfaction par exemple (via un pipeline de sentiment analysis, déjà pré-entraîné).
- Chatbot local : avec une bibliothèque (ex: GPT4All ou autres), créer un petit bot qui répond aux questions fréquentes des élèves sur le cours (nécessite d’entraîner ou au moins de fournir un bon contexte).
- Mention des coûts et limites techniques : Utiliser l’API OpenAI a un coût (mais quelques centimes pour des centaines de requêtes basiques). Les modèles open source locaux demandent de la mémoire (parfois une bonne carte graphique). Conseils pour aller plus loin : se renseigner sur des plateformes éducatives qui intègrent déjà ces outils (peut-être citer des initiatives de l’Éducation nationale, si existantes, fournissant un environnement sécurisé pour expérimenter l’IA).
- Enjeux éthiques : Ici on aborde la question de la responsabilité : si un enseignant utilise un script pour générer des évaluations ou analyser des copies, il doit vérifier les résultats. Automatiser ne veut pas dire se décharger complètement. Pédagogiquement, on peut impliquer les élèves dans ce processus : par exemple leur montrer le script (un peu de code en cours de techno ou maths), discuter de ce que fait l’IA, voire les initier à modifier un paramètre et voir l’effet. Cela rejoint l’éducation au numérique et à l’IA (objectifs PIX, compétences numériques).
- Souveraineté & sécurité : Souligner qu’avec un script Python, on peut choisir où les données vont : soit sur des services cloud (OpenAI, donc USA), soit sur un serveur local avec un modèle open source (données restent en France/établissement). C’est un arbitrage important. On renvoie au module 9 (fine-tuning local) pour approfondir l’option IA locale.
📓 Ressource fournie : Notebook Jupyter « Premiers pas avec l’API OpenAI » contenant des exemples prêts à l’emploi, commentés, que les enseignants peuvent tester (sur des plateformes en ligne comme Google Colab pour ne pas installer Python localement).
Module 7 : Vers des assistants virtuels sur mesure – automatiser vos tâches avec l’IA
Objectifs : Explorer la création d’assistants personnalisés capables d’enchaîner des actions. Présenter des outils émergents comme les « GPTs personnalisés » (ChatGPT Custom GPTs), Auto-GPT, ou des solutions open-source (agents basés sur LLM via HuggingFace, LangChain, etc.). L’idée est de montrer qu’on peut construire un agent intelligent qui automatise des tâches répétitives, en combinant le langage et des actions.
Contenu :
- Qu’est-ce qu’un assistant virtuel spécialisé ? Définition : c’est une IA qu’on configure pour un but précis et qui peut enchaîner des étapes toute seule. Exemples concrets pour un enseignant : un bot qui chaque semaine génère le plan de la semaine à partir du cahier de textes, un agent qui corrige automatiquement les QCM et envoie un e-mail récapitulatif, etc.
- Présentation des Custom GPTs (ChatGPT personnalisés) : OpenAI a introduit la possibilité de créer sur mesure un assistant avec des instructions permanentes, une identité, et même de connecter des outils (web, plugins). Démonstration : création d’un GPT personnalisé nommé « ProfGPT » qui a pour rôle d’aider à préparer des cours de SVT (avec connaissances de base fournies). On montre comment on définit son persona, les types de questions auxquels il doit répondre, éventuellement on lui fournit des ressources (syllabus SVT). Vidéo intégrée : « Creating a custom GPT in ChatGPT interface » – montrant les étapes et un exemple de dialogue ensuite avec ce bot personnalisé.
- Plateformes open-source style Auto-GPT : Introduire Auto-GPT (ou AgentGPT, BabyAGI) de façon vulgarisée : ce sont des programmes qui utilisent un LLM (par ex GPT-4) pour se fixer des objectifs et les atteindre en plusieurs étapes de manière autonome. Exemple marquant : Auto-GPT qu’on charge d’organiser un événement : il va lui-même chercher des infos, planifier, générer des textes d’invitation, etc., sans intervention humaine sur chaque sous-tâche. Pour l’éducation, ça peut sembler futuriste, mais on peut imaginer un agent auquel on dit « organise-moi un quiz de 10 questions sur le chapitre 3 et envoie-le aux élèves par mail » – il pourrait éventuellement le faire en se connectant aux services mails, etc.
- Démonstration simple d’automatisation : Plutôt que de plonger dans un Auto-GPT complet (complexe à montrer), on peut utiliser LangChain (framework Python) avec un exemple simple : un assistant documentaliste. On lui donne un objectif : « Trouve-moi 3 articles récents et fiables sur l’impact du numérique sur la réussite scolaire et résume-les. » L’agent va effectuer des appels successifs (recherche web via API, filtrage des résultats, génération de résumés) pour produire le résultat final. Montrer le pseudocode ou le flux d’actions.
- Rôle de l’enseignant dans la boucle : Insister sur la nécessité de valider les actions de l’agent (on parle de Human in the loop). Par ex, si un Auto-GPT propose d’envoyer un email aux élèves, l’enseignant doit vérifier le contenu avant l’envoi réel. Toujours garder un contrôle humain en dernier ressort, surtout en contexte éducatif.
- Outils français et souverains : Mentionner des initiatives locales : par ex la startup française Mistral AI qui propose des modèles open-source qu’on peut utiliser pour bâtir ses propres agents. Mistral 7B est un modèle léger que l’on peut exécuter et « déployer n’importe où (cloud ou local) », sans restrictions puisqu’il est en licence Apache (Mistral 7B | Mistral AI)L44】. Conséquence : un établissement pourrait envisager de faire tourner son assistant sur son propre serveur, garantissant la confidentialité (IA souveraine).
- Exemple d’agent avec Mistral 7B : (sous forme de récit) « À l’Académie X, un enseignant de techno a monté un petit chatbot local pour le CDI, qui conseille des livres aux élèves. Il a fine-tuné Mistral 7B sur la base des résumés du catalogue du CDI. Résultat : les élèves peuvent dialoguer avec le chatbot Documentaliste sans qu’aucune donnée ne parte sur Internet. » – On utilise cet exemple pour montrer la faisabilité technique à petite échelle, tout en insistant sur l’effort que ça demande (compétences techniques, entraînement du modèle).
- Bénéfices attendus : Automatiser les tâches répétitives libère du temps pour les tâches à valeur ajo (Everything You Need to Know About the AutoGPT Platform)-L9】. « Laissez l’IA faire le pensum administratif, et concentrez-vous sur l’accompagnement humain des élèves ». On discute des types de tâches pertinents à automatiser (corrections formatives, tri d’informations, relances emails…) et celles à ne pas automatiser (évaluer finement une copie argumentée, annoncer des résultats sensibles – ces choses requièrent l’humain).
- Quiz ludique : Identifier des tâches d’un enseignant et deviner si un assistant AI pourrait les faire. Ex : « Pointer les devoirs non rendus et envoyer un message type aux élèves concernés » (oui, automatisable potentiellement) vs « Mener un entretien parent-profs » (non, ça reste humain !). L’idée est de réfléchir aux limites.
- Enjeux éthiques : Danger d’une automatisation aveugle : risque d’erreur à grande échelle (imaginez un agent qui envoie 100 bulletins avec une phrase mal tournée…). On rappelle la nécessité de tests, de validation humaine et de transparence (indiquer quand un message est généré automatiquement).
- Transversal – sobriété et impact : Avoir son armée d’assistants IA qui tournent peut sembler génial, mais cela implique du calcul intensif. On mentionne l’impact écologique de la multiplication des agents autonomes. Encourager à n’automatiser que ce qui fait sens pédagogiquement, pas juste pour le fun techno.
🌐 Ressources : Lien vers des templates ou dépôts GitHub de projets d’agents éducatifs (s’il en existe en open source), par ex un bot Q/A sur les documents de l’établissement, etc. Conseiller de rejoindre des communautés en ligne (forums, Discord enseignants AI) pour échanger des idées et outils.
Module 8 : Spécialiser l’IA à des usages pointus – du généraliste au sur-mesure
Objectifs : Comprendre comment adapter une IA générique à un domaine spécifique sans la reprogrammer de zéro. Découvrir des techniques comme le RAG (Retrieval-Augmented Generation), l’appel à des API spécialisées, ou le finetuning léger sur instructions (instruction tuning). L’idée centrale : combiner l’IA avec des bases de connaissances ou configurations pour la rendre experte sur un sujet (par exemple une IA assistante en mathématiques, ou un tuteur d’anglais).
Contenu :
- Limites d’une IA généraliste brute : Illustration : ChatGPT est bon partout mais peut manquer de précision dans un domaine très pointu. Ex : en droit, il pourrait ignorer les subtilités d’une loi française récente. D’où l’idée de la spécialisation : on veut un modèle moins polyvalent mais meilleur dans un contexte donné.
- Technique 1 – RAG (Retrieval-Augmented Generation) approfondi : Reprendre le concept abordé en module 4. Ici on explique plus techniquement : une pipeline RAG consiste à faire précéder l’IA d’une étape de **recherche documenta (RAG (Retrieval-Augmented Generation) : l’avenir des LLM et de l’IA générative)L224】. Schéma : ① L’utilisateur pose une question ; ② un module va chercher dans une base de documents les passages pertinents ; ③ ces infos sont envoyées (avec la question) à l’IA ; ④ l’IA génère une réponse en s’appuyant sur ses connaissances + les infos trouvées ; ⑤ éventuellement, on fournit la source à l’utilis0-L0】 (What is RAG? – Retrieval-Augmented Generation AI Explained – AWS)mage】

- Schéma conceptuel d’une architecture RAG : (1) l’utilisateur envoie une question ; (2) un module de recherche interroge une base de connaissances (documents) ; (3) les informations pertinentes trouvées sont renvoyées ; (4) elles sont ajoutées au contexte de la question (contexte enrichi) et transmises au modèle de langage ; (5) le LLM génère alors une réponse tenant compte de la documentation fournie.
Figure 5 :Fonctionnement de la RAG (Retrieval-Augmented Generation). En ajoutant une étape de recherche d’information avant la génération, on allie précision factuelle et aisance rédactionnelle. Le modèle consulte une base externe en temps réel pour enrichir sa réponse, ce qui améliore grandement la pertinence et l’exactitude du co (RAG (Retrieval-Augmented Generation) : l’avenir des LLM et de l’IA générative) (RAG (Retrieval-Augmented Generation) : l’avenir des LLM et de l’IA générative)L224】.- Exemple d’application RAG en éducation : Un assistant devoirs qui a accès aux cours de l’élève. Plutôt que de répondre de manière générique, il ira piocher dans le livre de l’élève ou le polycop distribué en classe (préalablement indexé) pour donner une réponse alignée sur ce que le professeur a enseigné. Avantage : éviter les décalages ou erreurs, et citer le cours (ce que l’élève est censé savoir).
- Mise en œuvre : Sans entrer dans le code, expliquer qu’il existe des outils (plugins, ou frameworks comme LangChain) qui facilitent la mise en place d’une RAG. On donne des références si possible : par ex. Haystack ou DeepLake (si connus) permettant de créer un chatbot question/réponse sur un lot de PDFs. Démonstration : un petit chatbot sur la documentation du lycée (règlement intérieur, planning) – l’élève demande « Ai-je le droit d’utiliser la calculatrice au bac de maths ? », l’agent va retrouver l’extrait du règlement du bac et répondre en citant cet extrait. On montre le résultat pour illustrer la précision et la confiance qu’apporte la RAG (moins d’hallucination car l’IA s’appuie explicitement sur une source).
- Bénéfices pédagogiques : On peut personnaliser l’IA à son programme : imaginez une IA « assistante histoire » nourrie de vos cours d’histoire seulement – elle emploiera le vocabulaire vu en classe, fera moins d’erreurs sur des points de programme car elle aura la matière fournie. C’est moins général qu’une IA publique, mais plus pertinent pour vous et vos élèves. Note : c’est une forme de souveraineté de contenu – vos données font foi.
- Attention : maintenance : Il faut que la base documentaire soit à jour et représentative. Sinon, l’IA spéciale histoire risquerait de ne répondre que selon vos cours même si ceux-ci sont incomplets sur un point. Donc ça nécessite un travail de curation de la base.
- Technique 2 – API spécialisées : Parfois, plutôt que d’espérer que le LLM sache tout faire, on peut déléguer certaines tâches à d’autres IA ou services spécialisés via des API. Exemple : incorporation d’une API de traduction (DeepL) pour la partie traduction, ou une API de calcul formel (WolframAlpha) pour les questions de math, et réserver l’IA générative pour mettre en forme la réponse.
- Illustration : Construire un super assistant prof de maths : quand on lui pose un problème, il détecte les calculs à faire et utilise en coulisse un solveur spécialisé pour avoir le résultat exact, puis explique le raisonnement en langage naturel. L’LLM sert de chef d’orchestre entre l’utilisateur et des outils externes.
- On mentionne que ChatGPT Plugins ou l’API OpenAI permettent justement cela : on peut brancher des fonctions Python à l’IA. Pour un public enseignant, on reste descriptif, mais on fait comprendre que même une IA très douée peut être renforcée en travaillant main dans la main avec d’autres logiciels. C’est un écosystème (exemple réel : quelques applications EdTech combinent GPT-4 et des engines de vérification de plagiat, ou GPT-4 et une base de données de curricula pour aligner les réponses sur les attendus officiels).
- Limite : La complexité technique augmente – il faut orchestrer plusieurs systèmes. On souligne qu’on sort de l’usage utilisateur simple, mais que c’est ainsi que se construisent des IA spécialisées industrielles (médicales, juridiques… qui combinent base de connaissances et LLM).
- Technique 3 – Spécialisation par instruction tuning ou prompt tuning : Ici on aborde le fait qu’on peut affiner le comportement d’un modèle par de l’entraînement léger supplémentaire sur des instructions cibles, sans aller jusqu’au fine-tuning complet (ce sera module 9). Exemple : si on veut une IA conseillère pédagogique, on peut lui fournir des dizaines d’exemples de conseils pédagogiques et la fine-tuner (ou utiliser prompt tuning) pour qu’elle devienne très douée sur ce créneau. C’est ainsi que des modèles instruct ont été créés à partir de modèles bruts (expliquer que GPT-3 a été affiné en GPT-3.5 instruct par apprentissage sur des paires question/réponse de haute qualité, ce qui le rend meilleur suiveur d’instructions).
- Sans trop coder : Il existe des services ou libs (HuggingFace PEFT, voir module 9) permettant de spécialiser un modèle sur des format de tâches précis en quelques heures d’entraînement. Par exemple, Transformer un modèle général en correcteur grammatical en le spécialisant sur des milliers d’exemples de phrases fautives corrigées. On peut citer des projets open-source existants : GrammaCorrect etc.
- Intérêt pour un enseignant : Pas forcément de le faire soi-même, mais de savoir que ces IA spécialisées existent ou peuvent exister. Par exemple, on pourrait imaginer une IA « style académique » fine-tunée pour toujours répondre avec un style soutenu et argumenté (utile pour entraîner des lycéens à la dissertation). Ou une IA d’entraînement au TOEIC, etc. Ces modèles spécialisés peuvent être plus petits et tournant localement (voir SLM vs LLM : un modèle plus petit entraîné sur un domaine peut surpasser un grand modèle général sur ce do (IA Générative : comprendre les différences entre SLM et LLM | ASI) (IA Générative : comprendre les différences entre SLM et LLM | ASI)L133】). On illustre par une citation : *« Les SLM, modèles de langage spécifiques, bien qu’ayant moins de paramètres, offrent des performances comparables voire supérieures dans certains contextes tout en nécessitant moins de ressourc (IA Générative : comprendre les différences entre SLM et LLM | ASI) (IA Générative : comprendre les différences entre SLM et LLM | ASI)-L80】. Autrement dit, taille unique vs sur-mesure.
- Souveraineté numérique : Ce module montre qu’en combinant intelligemment outils et données, on peut créer des IA locales très pertinentes. C’est un pas vers l’indépendance vis-à-vis des GAFAM : « Pas besoin que toutes nos questions passent par un serveur en Californie si on a en interne les données et les modèles adaptés ». Discussion : quelles données éducatives françaises pourraient servir à créer une IA éducative nationale ? (Curricula officiels, ressources du CNED, etc. – on note que c’est exactement l’orientation de certains projets, par ex. UNESCO envisage un EduGPT spécifique éduc (Guide pour l’IA générative dans l’éducation et la recherche | UNESCO)L406】).
- Éthique : Souligner qu’une IA spécialisée peut hériter des biais de son domaine. Si on la nourrit d’archives d’examens qui ont tel travers, elle le perpétuera. Importance de la diversité des sources et de la relecture humaine. Aussi, la tentation est grande de faire trop confiance à un outil spécialisé (puisqu’il cite des sources, etc.). Or, il faut toujours un regard humain, car même un agent RAG peut mal interpréter une source correcte.
🎮 Atelier de conception : Par petits groupes (ou individuellement), les enseignants imaginent un assistant IA spécialisé qui leur serait utile. Ils décrivent : quelle base de connaissance ou outil externe il utiliserait, quel format de réponses, quelle tâche précise il accomplit. Exemples de productions attendues : « Assistant de laboratoire de langue qui utilise une API de synthèse vocale pour prononcer les réponses », ou « Agent bibliothécaire qui connaît tout le fonds du CDI et sort les références demandées ». Ensuite, on discute la faisabilité et les risques/avantages de chaque idée. (But : les amener à projeter concrètement l’usage d’IA sur-mesure dans leur contexte pédagogique).
Module 9 : Construire son IA dédiée – fine-tuning et modèles open-source
Objectifs : Comprendre ce qu’est le fine-tuning d’un modèle de langage et dans quel cas c’est utile. Découvrir à un niveau introductif comment on peut entraîner (ou affiner) un modèle sur ses propres données pour qu’il devienne une IA véritablement dédiée (ex : une IA souveraine au niveau de l’établissement ou de la discipline). Présenter des exemples concrets de fine-tuning réussis (par ex. modèles éducatifs open-source). Aborder aussi les approches de fine-tuning efficaces (PEFT comme LoRA) pour réduire les besoins de calcul.
Contenu :
- Fine-tuning vs prompt tuning : Reprendre la distinction : jusqu’ici on a piloté l’IA par des prompts et éventuellement un peu d’instruction tuning. Le fine-tuning, c’est passer à l’« entraînement supervisé » : on met à jour les poids du modèle en lui faisant apprendre de nouveaux exemples. Métaphore : *« On prend un esprit brillant généraliste, et on lui fait faire une formation intensive de spécialité pour obtenir un expe (Large language models (LLMs) vs Small language models (SLMs)) (Large language models (LLMs) vs Small language models (SLMs))3-L17】.
- Expliquer le processus simplement : Il faut un modèle de base (ex : un LLM open-source) et un jeu de données d’entraînement spécifique (par ex, un recueil de questions d’examen et de bonnes réponses). On fait tourner un entraînement (quelques heures à quelques jours) pour que le modèle ajuste ses paramètres et s’aligne sur ces exemples. Au final, le modèle fine-tuné est comme un nouveau modèle, qui répond dans le style attendu ou avec les connaissances fournies. Exemple accessible : si on fine-tune un modèle sur des milliers de problèmes de maths avec leurs solutions rédigées, il sera ensuite bien meilleur pour résoudre des problèmes de maths de structure similaire.
- PEFT – Fine-tuning efficient : Introduire LoRA (Low-Rank Adaptation) sans trop de maths : c’est une technique qui permet de n’ajuster qu’une petite partie des paramètres du (LoRA) (LoRA)-L125】. Conséquence : on peut fine-tuner un grand modèle sur un ordinateur standard bien plus rapidement, et on obtient des adaptateurs légers qu’on applique au modèle de base. Analogie : au lieu de recolorer tout un tableau, on ajoute quelques touches de couleur ciblées – ces touches (fichier LoRA) peuvent ensuite être appliquées à la copie du tableau pour le reproduire. Avantage : on garde le modèle de base intact (on ne casse rien) et on peut avoir plusieurs fine-tunings sur un même modèle de base (par ex, une version « littéraire » et une version « scientifique » du même LLM, activables à vo (Large language models (LLMs) vs Small language models (SLMs)) (Large language models (LLMs) vs Small language models (SLMs))3-L47】. On mentionne que LoRA est très populaire car ça réduit drastiquement le nombre de paramètres à ajuster donc c’est économe en (LoRA) (LoRA)-L125】.
- Exemple Mistral 7B : Rappeler que Mistral 7B, modèle français open-source, « est facile à fine-tuner sur n’importe quelle tâche » et qu’ils fournissent d’ailleurs une version déjà fine-tunée pour le dialogue (Mistral-7B Instruct) qui surpasse un modèle deux fois plu (Mistral 7B | Mistral AI) (Mistral 7B | Mistral AI)7-L44】. Ceci pour montrer concrètement le bénéfice : un petit modèle bien fine-tuné peut battre un grand modèle général sur un domaine précis. Citation : *« Mistral 7B chat fine-tuné dépasse Llama2 13B c (Mistral 7B | Mistral AI)5-L53】 – donc on gagne en performance/cout.
- Cas d’école – BLOOM & BloomZ : Mentionner BLOOM, le grand modèle multilingue open-source entraîné notamment par des chercheurs français. BLOOM fine-tuné sur des instructions a donné BloomZ, capable de suivre des consignes (comme ChatGPT). Ce projet a montré que même sans méga-budgets de GAFAM, la communauté peut créer des modèles performants pour diverses langues. Chiffre marquant : l’empreinte carbone de l’entraînement complet de BLOOM a été énorme (multiples tonne (IA générative : la consommation énergétique explose)-L123】, mais affiner un modèle existant (comme on le ferait dans un usage local) a un coût bien moindre. On peut glisser l’info que entraîner un modèle complet est très coûteux, alors que fine-tuner un modèle existant est à la portée d’une petite équipe avec du matériel adéquat.
- Tutoriel conceptuel : Comment fine-tuner (sans le faire réellement) : Décrire les étapes : 1) rassembler des données (ex : toutes les copies d’examen d’histoire avec leur note et appréciation) ; 2) formater ces données en paires entrée-sortie (ex : [Copie] -> [Commentaire de prof]) ; 3) choisir un modèle de base (ex : Llama-2 7B) ; 4) lancer le fine-tuning (via des outils comme HuggingFace Trainer, en utilisant LoRA pour être efficient) ; 5) tester le nouveau modèle sur des exemples qu’il n’a pas vus.
- On pourrait intégrer un schéma montrant le flux : Dataset -> Entraînement -> Nouveau modèle.
- Outil pédagogique : Si possible, montrer une interface simplifiée (ex : PEFT on HuggingFace or Google Colab) où l’on voit un modèle apprendre sur 2-3 époques (juste pour visualiser).
- Une IA dédiée « maison » : pour quoi faire ? Inciter à imaginer : par exemple une IA entraînée sur toutes les productions écrites d’élèves d’une matière sur 5 ans pourrait détecter des difficultés récurrentes et proposer des remédiations ciblées. Ou un chatbot formé aux archives locales de l’école (pour le cours d’histoire locale). Les possibilités sont vastes, mais il faut des données et du temps.
- Coûts et infrastructures : Honnêteté sur le fait que fine-tuner même un 7B peut nécessiter une bonne machine (GPU) ou de louer du temps de calcul sur cloud. Cependant, introduction de l’idée de mutualisation : « et si plusieurs établissements/universités mutualisaient leurs efforts pour entraîner ensemble un modèle éducatif souverain ? ». C’est en partie l’ambition de projets nationaux/européens. On cite Clara Chappaz, responsable du numérique : *« qui dit IA souveraine dit cloud souver (Le cloud souverain s’impose à l’heure de l’IA)-L273】 – il y a une volonté politique d’investir dans des infrastructures IA propres (ex: mentionner les 200 Mds € de l’Europe et 109 Mds € de la France annoncés pour l’IA et ses infrastru (Le cloud souverain s’impose à l’heure de l’IA)-L283】). Cela donne du contexte sur le futur écosystème où nos IA éducatives pourraient exister sans dépendre des serveurs US.
- Éthique et bias du fine-tuning : Précaution : quand on entraîne un modèle sur des données spécifiques, on peut renforcer des biais. Si les copies d’élèves qui servent de base contiennent toutes les mêmes erreurs, l’IA pourrait les normaliser. Il faut donc des données de qualité et diversifiées. Par ailleurs, fine-tuner sur les données d’élèves pose la question de la vie privée : on manipule du contenu potentiellement personnel. Donc anonymisation nécessaire, et autorisations. C’est pourquoi on peut plutôt envisager de fine-tuner sur des contenus éducatifs génériques (ex : manuels libres).
- Perspective d’avenir : Encourager les enseignants à suivre ces évolutions. Peut-être que bientôt, des plateformes officielles proposeront de former votre assistant pédagogique à partir de vos supports de cours en quelques clics, de manière locale. Les concepts appris ici leur permettront de comprendre ce qu’il y a derrière ces offres et de les utiliser en connaissance de cause.
🎁 Ressources :
- Liens vers des tutoriels simples de fine-tuning (ex: « Fine-tune Llama-2 with LoRA en 1 heure » sur HuggingFace).
- Études de cas de modèles spécialisés open-source (par ex Jurassic pour le droit, MedicalGPT pour la médecine) pour montrer que ça existe déjà dans d’autres domaines – l’éducation pourrait suivre.
- Invitation à consulter le projet UNESCO sur les *« modèles génératifs spécifiques à l’éducation (Edu (Guide pour l’IA générative dans l’éducation et la recherche | UNESCO)9-L406】, preuve que le sujet intéresse au plus haut niveau.
Module 10 : Conclusion – réflexions et perspectives éducatives
Objectifs : Synthétiser les apprentissages des modules précédents. Prendre du recul sur l’intégration de l’IA en éducation : opportunités et défis. Ouvrir des pistes de réflexion complémentaires pour approfondir le sujet, et inviter à une démarche proactive mais raisonnée vis-à-vis de ces technologies.
Contenu :
- Résumé de la progression : On rappelle en quelques phrases le chemin parcouru : « D’une simple conversation avec ChatGPT, nous vous avons menés jusqu’à la conception de votre propre IA spécialisée. » Souligner les acquis clés : savoir dialoguer efficacement (prompting), comprendre le fonctionnement interne (chain-of-thought, paramètres), brancher l’IA à des données ou des outils, et enfin la personnaliser voire l’entraîner. Féliciter le lecteur pour ce voyage au cœur de l’IA.
- Changements de posture : Insister sur l’idée que l’enseignant, initialement peut-être méfiant, peut devenir acteur dans l’usage de l’IA. Au lieu de subir l’arrivée de ChatGPT (élèves qui l’utilisent pour tricher, etc.), l’enseignant outillé peut s’en servir comme levier pédagogique et même co-construire des outils adaptés à sa classe. Empowerment : l’enseignant reprend la main sur la technologie.
- Enjeux transversaux réévalués :
- Esprit critique et pédagogie : L’IA doit rester un amplificateur d’intelligence humaine, pas un remplaçant. On revient sur la nécessaire éducation des élèves à son usage (mentionner l’initiative #AlgoCulture, les travaux du Ministère sur la pensée critique face à l’IA, etc.). L’enseignant doit intégrer l’IA comme objet d’enseignement : expliquer aux élèves ses limites, son fonctionnement sommaire, pour démystifier.
- Souveraineté et éthique : Souligner que la France et l’Europe s’orientent vers plus de contrôle sur les données et les infrastructures (réglementation type RGPD, futur AI Act européen). Dans le futur, il y aura probablement des IA éducatives souveraines hébergées sur des *clouds nationaux séc (Le cloud souverain s’impose à l’heure de l’IA)5-L273】. On encourage les enseignants à suivre ces évolutions, voire à y participer (groupes de travail, expérimentations pilotes). L’objectif : garantir la maîtrise publique sur ces outils (pour éviter par ex. la dépendance à une suite logicielle propriétaire opaque).
- Énergie et sobriété : On relie l’échelle micro (la requête Bing consomme plus qu’une recherche simple) à l’échelle macro : si demain chaque élève interagit avec une IA pendant 1h par jour, cela représente un coût énergétique colossal. Des études projettent que l’IA pourrait représenter plusieurs % de la conso électrique mondiale dans quelques (IA générative : quelles sont les pistes pour consommer moins ?)35-L43】. Pistes pour réduire l’impact : développement de modèles plus petits et optimisés (on a vu SLM vs LLM), utilisation de matériel plus efficace, et adoption d’une approche raisonnée (utiliser l’IA quand elle apporte une réelle valeur ajoutée pédagogique, pas pour tout et n’importe quoi).
- Équité et inclusion : Discussion sur le risque de fracture : entre établissements bien dotés (qui pourront avoir leurs IA locales, etc.) et ceux qui n’y auront pas accès. Entre enseignants formés et non formés. Insister sur la nécessité de formation continue (ce didacticiel en est une brique), et d’initiatives institutionnelles pour mettre ces outils à disposition de tous de manière équitable. Par ailleurs, veiller à l’accessibilité : ces IA doivent bénéficier à tous les élèves, y compris ceux en difficulté, en situation de handicap (ex: génération de contenus adaptés dyslexie, etc. – mentionner que l’IA peut aussi être un formidable outil d’inclusion s’il est bien utilisé).
- Perspectives futures en éducation :
- Nouveaux rôles pour l’IA en classe : assistant à la préparation de cours, tuteur individuel pour l’élève (sous supervision de l’enseignant), outil de feedback instantané (un élève peut demander à l’IA de relire son essai avant de le rendre – cela pose des questions d’apprentissage).
- Co-création pédagogique : imaginer que des IA dédiées (entraînées sur des milliers de scénarios pédagogiques) pourraient proposer aux enseignants des idées d’activités innovantes qu’ils n’auraient pas envisagées. L’IA comme collaborateur créatif. On cite éventuellement des projets de recherche ou start-ups sur la génération de plans de cours. On peut aussi mentionner l’expérience de l’agent conversationnel Jill Watson qui assistait des étudiants en ligne (Georgia Tech) sans qu’ils sachent que c’était une IA, il y a quelques années – signe que la tech évolue vite.
- Personnalisation de l’apprentissage : beaucoup fantasment une IA tuteur pour chaque élève, adaptant les contenus en temps réel. Quels progrès sont encore nécessaires pour s’y approcher ? (Ex: compréhension fine des émotions de l’élève – peut-être avec l’IA multimodale qui voit si l’élève fronce les sourcils ? On ouvre ce débat avec prudence quant aux implications éthiques).
- Rôle de l’enseignant augmenté : conclusion optimiste – l’IA ne remplacera pas l’enseignant, elle peut en revanche transformer sa pratique sur certains aspects répétitifs ou apporter de nouvelles ressources. L’enseignant devient un chef d’orchestre technopédagogique, guidant l’IA pour qu’elle serve au mieux les apprentissages.
- Appel à la communauté : Encourager les enseignants à partager leurs expérimentations, à documenter ce qui marche ou non. Mentionner que ce domaine bouge constamment : ce didacticiel donne des bases, mais il faudra continuer à apprendre (on suggère de suivre quelques blogs ou newsletters sur IA et éducation, y compris en français – par ex. le “Fil IA et éducation” de telle académie).
- Pistes complémentaires :
- Pour approfondir, renvoyer vers des ressources comme le guide UNESCO sur l’IA générative en éducation, qui aborde aussi les recommandations politiques et les contr (Guide pour l’IA générative dans l’éducation et la recherche | UNESCO) (Guide pour l’IA générative dans l’éducation et la recherche | UNESCO)5-L403】 (pour ceux qui veulent une vue macro).
- Suggérer de suivre les travaux de recherche (ex: INRIA, CNRS ont des programmes sur IA éducative), ou des projets européen (AI4T – Artificial Intelligence for and by teachers | France Education international) (AI4T – Artificial Intelligence for and by teachers | France Education international)6-L200】…).
- En formation continue, pourquoi ne pas imaginer une communauté de pratique en ligne où les enseignants testent ensemble un outil IA et échangent ? Proposer éventuellement de rejoindre un groupe existant (si référence disponible).
- Réfléchir aux compétences à développer chez les élèves : on a beaucoup parlé de l’enseignant, mais l’élève dans tout ça ? On conclut en ouvrant la discussion : « Faut-il apprendre aux élèves à s’en servir ? Probablement, oui, comme outil d’information et de création, mais aussi leur apprendre ses limites. » C’est un débat à avoir en équipe pédagogique.
Pour clore, une citation inspirante pour dédramatiser et motiver : par exemple, « L’IA ne remplacera jamais un bon enseignant… mais un enseignant qui utilise bien l’IA pourrait remplacer un enseignant qui l’ignore » (formulation volontairement provocatrice pour susciter la réflexion). L’idée finale est d’encourager chacun à innover prudemment mais sûrement. L’IA générative est un nouvel outil puissant : en l’adoptant avec discernement, esprit critique et créativité, les enseignants peuvent en faire un allié pour relever les défis éducatifs de demain.
Références sélectionnées :
- UNESCO – Guide pour l’IA générative dans l’éducation et la recherche (Guide pour l’IA générative dans l’éducation et la recherche | UNESCO) (Guide pour l’IA générative dans l’éducation et la recherche | UNESCO)5-L403】
- Red Hat – LLMs vs SLMs : explication des modèles de langue larges vs spéc (Large language models (LLMs) vs Small language models (SLMs)) (IA Générative : comprendre les différences entre SLM et LLM | ASI)76-L84】
- DRANE Versailles – Comment intégrer l’IA générative dans sa pédagogie ? (6 ingrédients pour faire un (bon) prompt ChatGPT – Digitad) (Le guide pour faire un bon prompt IA + 7 Exemples – ModPerl)8-L106】
- Datascientest – Retrieval-Augmented Generation (RAG) : avantages pour des réponses p (RAG (Retrieval-Augmented Generation) : l’avenir des LLM et de l’IA générative) (RAG (Retrieval-Augmented Generation) : l’avenir des LLM et de l’IA générative)5-L224】
- OpenAI (community) – explication des paramètres temperature et (Tester les valeurs de paramètres | Generative AI on Vertex AI | Google Cloud) (Difference between frequency and presence penalties? – Prompting)L9-L17】
- Polytechnique Insights – IA générative : consommation énergétique (IA générative : la consommation énergétique explose)8-L116】 (impact 10x vs recherche web)
(Et autres sources citées au fil du texte.)