Aller au contenu

Vers une approche réfléchie de l’IA: Technique, temporalité et éthique : éclairages philosophiques

Plusieurs philosophes contemporains invitent à dépasser l’opposition simpliste entre technophobie et technophilie. Hans Jonas, pionnier de l’éthique de la responsabilité, alertait sur le décalage entre la rapidité du progrès technique et notre lenteur à en anticiper les conséquences (Systèmes d’intelligence artificielle générative : enjeux d’éthique). Son principe de précaution nous exhorte à la prudence, mais non au refus systématique : Jonas lui-même jugeait infondée la peur de voir la technique « acquérir une volonté qui s’opposerait à la nôtre » ((PDF) Éthique et intelligence artificielle) ((PDF) Éthique et intelligence artificielle). En somme, il s’agit d’user de notre liberté pour orienter la technologie vers le bien commun, en prévoyant et en maîtrisant ses effets à long terme.

Dans cette optique, Bernard Stiegler propose la notion de pharmakon : la technique est à la fois poison et remède (L’IA « pharmakon » : concilier innovation et sobriété). Elle devient poison lorsqu’elle est déployée sans finalité collective ni régulation, entraînant une « fuite en avant » consumériste aux lourds coûts énergétiques et sociaux (L’IA « pharmakon » : concilier innovation et sobriété). Mais la même technologie peut être remède si elle s’inscrit dans un projet critique et émancipateur (L’IA « pharmakon » : concilier innovation et sobriété). Appliqué à l’IA, ce principe signifie qu’il ne faut ni diaboliser ni idéaliser ces outils, mais les développer de façon responsable. Une IA “frugale” pensée pour répondre à de véritables besoins (santé, éducation, transition écologique…) et mise en œuvre avec sobriété pourrait ainsi apporter des bénéfices nets, là où une IA débridée et sans but clair risquerait d’aggraver les crises en cours (L’IA « pharmakon » : concilier innovation et sobriété).

De son côté, le sociologue Bruno Latour rappelle que nous vivons à l’ère de l’Anthropocène, où humains, techniques et milieu naturel sont inextricablement liés (Contemporanéité et Intelligence artificielle). Il critique la séparation radicale entre nature et technologie : nous devons « prendre soin de nos technologies comme de nos enfants », selon sa formule inspirée de Frankenstein. Plutôt que de n’autoriser l’IA que dans des cas critiques (parallèle du « tout ou rien » qu’il rejette), Latour prône de nouer de nouvelles alliances politiques et sociales avec les actants non-humains (dont les dispositifs techniques) afin de composer un monde soutenable (Contemporanéité et Intelligence artificielle). Cela implique de responsabiliser les concepteurs et les usagers de l’IA, comme on le ferait pour tout acteur influant sur la société et le vivant.

Enfin, Hartmut Rosa, théoricien de l’accélération sociale, nous met en garde contre une temporalité dominée par l’urgence et la performance au détriment de la qualité de vie. L’obsession de “gagner du temps” par la technologie peut paradoxalement nous en faire perdre sur le plan existentiel, en érodant notre sentiment de résonance avec le monde. Il souligne que chaque gain de vitesse dans nos activités tend à être absorbé par une augmentation du rythme global (Sous la surface des IA génératives | by Urban AI | Urban AI — FR | Medium). Toutefois, cette critique n’implique pas de rejeter les outils numériques, mais d’en repenser l’usage. Dans une perspective rosienne, on pourrait envisager que l’IA générative libère du temps sur des tâches routinières à condition que ce temps soit réinvesti dans des activités signifiantes – échanges humains, créativité, apprentissage approfondi – bref, dans des moments de résonance plutôt que dans une frénésie supplémentaire. L’IA doit rester un moyen de mieux vivre le temps, non un catalyseur d’aliénation.

Ce que disent les études récentes sur l’IA et le numérique

Les sciences sociales et les recherches empiriques offrent un contrepoint important à l’idée que l’IA intensifie nécessairement le travail « sans gain de temps réel ». Dans le domaine éducatif, par exemple, une enquête internationale de 2023 révèle que 86 % des étudiants utilisent désormais des outils d’IA dans leur parcours (86 % des étudiants ont adopté l’intelligence artificielle dans le cadre scolaire selon une enquête) (86 % des étudiants ont adopté l’intelligence artificielle dans le cadre scolaire selon une enquête). Loin d’être un gadget, ces usages répondent à des besoins concrets : tuteurs virtuels capables de fournir en quelques secondes des réponses détaillées à une question complexe, recommandation de ressources pédagogiques personnalisées au niveau de chaque apprenant, ou encore assistance à l’organisation du travail (planification des révisions, rappels d’échéances) (86 % des étudiants ont adopté l’intelligence artificielle dans le cadre scolaire selon une enquête) (86 % des étudiants ont adopté l’intelligence artificielle dans le cadre scolaire selon une enquête). Les étudiants interrogés soulignent que ces technologies rendent leur apprentissage plus interactif et mieux adapté à leurs besoins individuels (86 % des étudiants ont adopté l’intelligence artificielle dans le cadre scolaire selon une enquête). Surtout, l’IA est perçue comme un facteur de démocratisation : elle peut « franchir les barrières géographiques et économiques » en donnant accès à un accompagnement de qualité à des personnes qui en étaient éloignées (86 % des étudiants ont adopté l’intelligence artificielle dans le cadre scolaire selon une enquête). Un élève de zone rurale ou défavorisée peut ainsi, via l’IA, bénéficier d’explications supplémentaires ou de ressources adaptées, comme pourrait le faire un tuteur humain – une opportunité autrefois réservée à quelques-uns.

Dans le monde du travail, des expériences contrôlées montrent également des effets positifs tangibles. Une étude du MIT a mesuré l’impact de ChatGPT sur des tâches d’écriture professionnelle : les participants équipés de l’IA ont accompli leurs missions 40 % plus vite, tout en améliorant la qualité finale de 18 % en moyenne (Study finds ChatGPT boosts worker productivity for some writing tasks | MIT News | Massachusetts Institute of Technology) (Study finds ChatGPT boosts worker productivity for some writing tasks | MIT News | Massachusetts Institute of Technology). Cet accroissement de productivité ne signifie pas travailler plus pour produire plus, mais bien moins de temps passé sur les aspects mécaniques (rédaction brute, mise en forme) pour un résultat au moins équivalent. De même, une étude au sein d’une grande entreprise tech a montré qu’un assistant IA auprès d’un service client augmentait la productivité des agents de 14 % en moyenne – et jusqu’à +35 % pour les employés les moins expérimentés, en les aidant à résoudre plus rapidement les problèmes courants (Generative AI Can Boost Productivity Without Replacing Workers | Stanford Graduate School of Business). Fait notable, la qualité de service s’en est trouvée améliorée (délai de réponse réduit, taux de résolution en hausse), conduisant à des clients plus satisfaits et à une meilleure rétention des employés sur ces postes exigeants (Generative AI Can Boost Productivity Without Replacing Workers | Stanford Graduate School of Business). Ces résultats laissent penser que l’IA, correctement intégrée, peut alléger la charge de travail en automatisant certaines tâches répétitives ou complexes, tout en soutenant les humains dans leurs décisions – un gain de temps réel et mesuré, doublé d’une réduction du stress pour les employés débutants qui se sentent ainsi moins débordés.

Dans le secteur de la santé, souvent cité en exemple d’usage « critique », l’IA démontre déjà son utilité bien au-delà des seuls cas d’urgence vitale. Par exemple, l’apprentissage automatique est utilisé depuis une dizaine d’années pour planifier des traitements de radiothérapie contre le cancer : à Toronto, cela a fait passer le temps de planification de quelques heures à quelques minutes par patient, sans altérer la qualité des soins (Médecine, formation et intelligence artificielle : tirer profit des innovations compte tenu du risque ). Les spécialistes ont vu leur charge de travail routinière diminuer, ce qui leur a permis de consacrer plus de temps au suivi personnalisé des patients, tout en augmentant le nombre de cas traités (bénéfice d’efficacité sanitaire évident). De nouvelles applications d’IA détectent précocement des signes vitaux anormaux, avertissant l’équipe médicale avant qu’un état ne se détériore (Médecine, formation et intelligence artificielle : tirer profit des innovations compte tenu du risque ) – là encore, l’IA assiste le soignant, elle ne le remplace pas, mais lui fait gagner du temps précieux dans la surveillance et la réactivité. Selon l’OCDE, l’adoption raisonnée de l’IA en santé pourrait « accroître la qualité du travail, celle des interactions humaines et celle des résultats obtenus » (). Autrement dit, en déléguant aux algorithmes la fouille de signaux faibles dans d’immenses volumes de données, le personnel médical peut se concentrer davantage sur la relation de soin (écoute du patient, empathie) et sur les décisions cliniques complexes. L’amélioration conjointe de la productivité et de la qualité humaine du travail n’est donc pas une chimère : elle se réalise déjà dans certains contextes, à condition que l’outil numérique soit déployé dans le respect du facteur humain.

Ces études nuancent fortement l’idée d’une intensification univoque du travail par le numérique. Bien sûr, elles n’ignorent pas les écueils possibles (dépendance aux outils, nécessité de formation, risque d’erreurs si l’on surfait confiance à l’IA). Mais elles montrent qu’humain + IA peut être un tandem plus efficace que l’humain seul, comme en témoigne l’observation que « les humains qui travaillent avec l’IA surpassent aussi bien leurs semblables que les IA travaillant seules » dans certaines tâches (Médecine, formation et intelligence artificielle : tirer profit des innovations compte tenu du risque ) (). L’IA générative apparaît ainsi comme un amplificateur de capacités plutôt qu’un simple facteur de charge.

Usages pédagogiques et professionnels : vers plus de différenciation et moins de charge mentale

Au-delà des chiffres, il convient d’imaginer concrètement comment l’IA générative peut améliorer nos pratiques pédagogiques et professionnelles. Dans l’enseignement, beaucoup d’enseignants commencent à utiliser ces outils pour se décharger de certaines tâches administratives ou répétitives, et enrichir leur palette pédagogique. Par exemple, un professeur peut faire appel à ChatGPT pour générer rapidement un quiz, formuler différemment une consigne, ou créer plusieurs variantes d’un exercice afin d’adapter le niveau de difficulté aux besoins de chaque élève (Comment ChatGPT aide grandement certains enseignants – Le Devoir) (Les IA génératives pour une différenciation pédagogique plus efficace). Cela lui permet de différencier son enseignement sans y consacrer des heures supplémentaires : l’IA devient une sorte d’assistant préparateur, capable de proposer en quelques instants un texte simplifié pour les élèves en difficulté ou, à l’inverse, des ressources d’approfondissement pour les plus avancés (Les IA génératives pour une différenciation pédagogique plus efficace) (Les IA génératives pour une différenciation pédagogique plus efficace). Comme le résume une formatrice, intégrer l’IA en classe « facilite la manière dont les enseignants abordent la différenciation », en offrant aux élèves une diversité de chemins d’apprentissage sans alourdir la charge de travail du professeur (Les IA génératives pour une différenciation pédagogique plus efficace). De plus, l’IA peut prendre en charge des tâches fastidieuses comme la correction initiale de copies ou la génération de retours personnalisés, ce qui réduit la charge mentale des enseignants. Ces derniers peuvent alors consacrer davantage de temps à l’accompagnement humain : suivi individuel, remédiation fine, interaction en classe – autant d’aspects qualitatifs souvent négligés faute de temps et d’énergie.

Sur le plan professionnel, on retrouve un schéma similaire. Un rédacteur, un juriste ou un chercheur peut utiliser une IA générative pour réaliser une ébauche de texte, un résumé d’article ou une traduction brute. Ce brouillon intelligent lui fera gagner un temps non négligeable, qu’il pourra réallouer à des tâches à plus forte valeur ajoutée (analyse, créativité, vérification pointue des faits). Plutôt que d’intensifier le travail, l’IA vient resserrer certaines étapes et en accélérer l’exécution, sans sacrifier la réflexion humaine en aval. De nombreux professionnels témoignent que ces outils les aident à mieux hiérarchiser leurs priorités : savoir déléguer au numérique ce qui peut l’être (par exemple la mise en forme automatique d’un document, la classification d’emails, la recherche d’information basique) pour se concentrer sur le coeur de leur métier. En libérant l’esprit des « petites tâches » routinières, l’IA contribue à diminuer le stress cognitif lié au multitâche permanent. Bien sûr, cela suppose une appropriation réfléchie de l’outil : l’utilisateur doit garder la maîtrise, relire et corriger le résultat de l’IA, bref exercer son jugement. Mais une fois ces nouvelles routines établies, l’impact sur la qualité de vie au travail peut être positif – à l’opposé de l’idée reçue d’une machine qui pousserait l’humain à travailler toujours plus vite. En réalité, c’est quand l’humain reste seul face à des flux d’information ingérables (emails incessants, données multiples) que la surcharge guette ; si au contraire un système d’IA l’aide à trier, à prioriser et à automatiser intelligemment, l’humain peut retrouver du temps de respiration dans sa journée.

Il convient également de souligner le potentiel d’utilité sociale de l’IA générative. Dans des contextes pédagogiques, nous avons évoqué le désenclavement des élèves isolés ou en difficulté. De même, dans le monde professionnel, ces outils peuvent désenclaver certains usagers : pensons aux personnes en situation de handicap qui bénéficient de générateurs de texte ou de code adaptés à leurs besoins, ou aux petites entreprises qui, grâce à des assistants IA, accèdent à des compétences (traduction, design, conseil juridique de base) qu’elles ne pourraient s’offrir autrement. L’IA peut agir comme un “démocratiseur” d’accès à l’expertise. Plutôt que de réserver les gains de productivité aux seuls cas de vie ou de mort, on peut légitimement en faire profiter des causes sociales ou éducatives moins spectaculaires mais cruciales au quotidien. Par exemple, la correction automatisée de devoirs libère du temps pour le suivi psychopédagogique ; la génération de rapports ou de comptes-rendus allège la bureaucratie dans les associations et services publics, permettant aux travailleurs sociaux ou aux soignants de passer plus de temps sur le terrain humain. Ce sont là des gains qualitatifs qui ne se mesurent pas toujours en productivité immédiate, mais en amélioration du service rendu et en bien-être des acteurs.

En somme, une lecture nuancée des usages de l’IA générative montre que son efficacité et son intérêt dépendent de l’intention qui guide son intégration. Si l’on considère l’IA non comme une finalité en soi, ni comme un simple gadget, mais comme un outil au service d’objectifs humains, alors de nombreuses applications pédagogiques et professionnelles peuvent en tirer profit. Il ne s’agit pas de prétendre que l’IA résout magiquement tous les problèmes de l’école ou de l’entreprise (la question de la formation à l’esprit critique, de l’accompagnement au changement, reste centrale), mais de constater que ces technologies offrent de nouvelles marges de manœuvre. Elles peuvent contribuer à un travail mieux réparti, où la part de routine diminue et où la créativité, la relation et le sens augmentent.

Usage intensif, usage critique, usage raisonné : distinguer pour mieux agir

Une analogie fréquente compare l’essor du numérique à celui des énergies fossiles, suggérant que l’IA serait le nouveau « pétrole » dont il faudrait réduire la consommation avant qu’il ne provoque un désastre écologique et social. Cette comparaison contient une part de vérité – l’empreinte écologique du numérique n’est pas négligeable – mais elle doit être affinée pour éviter les confusions. D’abord, tous les usages de l’IA n’ont pas le même impact environnemental. Il y a une différence d’échelle entre un usage intensif et superflu (par exemple solliciter en permanence des serveurs pour générer des images inutiles, ou entraîner des modèles géants pour un bénéfice nul) et un usage intelligent et ciblé (par exemple utiliser un modèle existant pour optimiser une route logistique et économiser du carburant, ou pour diagnostiquer plus tôt une maladie). Comparer l’IA aux énergies fossiles suggère une fatalité de la pollution, alors que l’électricité qui alimente les IA peut provenir de sources renouvelables et que l’efficacité des algorithmes s’améliore sans cesse. On parle de plus en plus de sobriété numérique, c’est-à-dire d’une approche où l’on privilégie les usages à forte utilité sociale tout en minimisant la dépense énergétique inutile (L’IA « pharmakon » : concilier innovation et sobriété). Cela rejoint la notion d’IA frugale évoquée plus haut : développer des solutions légères, optimisées, et n’actionner la “grosse artillerie” computationnelle que lorsqu’elle est justifiée par l’enjeu.

Ensuite, la métaphore du « carburant » ignore un point crucial : l’IA n’est pas une ressource qui se consume à chaque usage de manière linéaire. Certes, entraîner un modèle de langage de plusieurs milliards de paramètres requiert beaucoup d’énergie, mais une fois ce modèle en place, le coût marginal de chaque utilisation peut être relativement faible, surtout si l’infrastructure est bien gérée. Par ailleurs, l’IA peut aider à réduire d’autres empreintes : optimisation de réseaux électriques, meilleure gestion de l’agriculture (donc moins de gaspillage), substitution de déplacements physiques par des simulations virtuelles, etc. Il serait paradoxal de s’interdire ces gains potentiels au motif d’une comparaison brute avec le pétrole. Ce qu’il faut, c’est évaluer au cas par cas le bilan coût-avantage. C’est exactement ce que propose une approche raisonnée : « chaque cas d’application concrète des LLM devrait faire la preuve de son utilité sociale au regard de sa contribution à l’augmentation de l’empreinte du numérique », écrivait un collectif récemment (Sous la surface des IA génératives | by Urban AI | Urban AI — FR | Medium). Autrement dit, pas de fuite en avant technologique pour le principe ou pour la mode, mais une sélection des usages où le jeu en vaut la chandelle.

En distinguant usage critique (vital ou d’urgence), usage intensif (boulimique et trivial) et usage raisonné (pertinent et optimisé), on se dote d’une grille pour décider quand et comment mobiliser l’IA. Par exemple, il va de soi que sauver des vies (usage critique) justifie de déployer des systèmes IA coûteux s’il le faut – c’est déjà le cas pour certaines analyses médicales complexes. À l’inverse, générer en boucle des vidéos inutiles en haute définition peut être pointé comme un usage intensif à réduire. Mais entre ces deux extrêmes se trouvent des milliers de situations du quotidien où une IA bien calibrée peut apporter un plus sans qu’on puisse les qualifier de « critiques » au sens strict. Faut-il les écarter pour autant ? Non, si leur utilité est avérée et que l’on en maîtrise l’impact. Par exemple, si un outil d’IA permet à un enseignant de mieux inclure des élèves en difficulté (utile socialement), l’investissement en vaut la peine du point de vue éthique. De même, si un assistant numérique permet de diminuer l’épuisement professionnel dans un service public, il serait dommage de s’en priver sous prétexte qu’il consomme un peu d’électricité. Ce qu’on économise en souffrance humaine, en temps, en opportunités sociales, a aussi de la valeur.

Notons au passage que la question écologique mérite d’être examinée avec rigueur : contrairement à l’idée répandue, l’IA n’est pas forcément toujours plus énergivore que l’activité humaine qu’elle remplace. Une étude publiée en 2024 a comparé l’empreinte carbone de tâches de rédaction et d’illustration effectuées par des IA par rapport à des humains : il en ressort que « les systèmes d’IA émettent entre 130 et 1500 fois moins de CO₂ par page de texte générée que des écrivains humains, et 310 à 2900 fois moins par image que des illustrateurs humains » (The carbon emissions of writing and illustrating are lower for AI than for humans | Scientific Reports). Bien sûr, ce genre de résultat doit être interprété prudemment (il ne signifie pas que l’IA “vaut” humainement une œuvre artistique, et il n’intègre pas les effets rebond possibles). Mais il rappelle que l’activité humaine a elle aussi un coût matériel (déplacements, consommation liée au temps passé, etc.), et que dans certains cas l’automatisation peut diminuer ce coût. Par analogie, un télétravailleur en visioconférence pollue moins qu’un travailleur qui prend sa voiture chaque matin pour aller à la même réunion physiquement. Il en va de même pour certaines productions intellectuelles : un article généré par IA consomme de l’électricité, tandis qu’un article humain consomme de l’électricité et tout un ensemble de ressources (nourriture, transport, bureau chauffé pendant des jours…). Loin de nous l’idée de remplacer les écrivains par des machines, mais cet exemple démontre que le parallèle entre IA et énergies fossiles atteint vite ses limites. L’IA est un outil dont l’impact dépend du système socio-technique dans lequel on l’insère.

En définitive, plutôt que de plaider pour une restriction de l’IA aux seules situations d’urgence, il est plus pertinent de promouvoir une culture de l’usage raisonné. Cela passe par l’éducation des concepteurs et des utilisateurs : sensibiliser aux conséquences sociales, cognitives, éthiques et environnementales des choix technologiques, comme le suggère le sociologue Jean-François Lucas (Intelligence artificielle : « L’humain, qui est le point de départ de tout dispositif numérique, doit rester le point d’arrivée ») (Intelligence artificielle : « L’humain, qui est le point de départ de tout dispositif numérique, doit rester le point d’arrivée »). C’est en développant ce sens critique collectif que nous pourrons distinguer les usages judicieux de ceux qui relèvent du gaspillage ou du danger. Plutôt qu’un moratoire général, c’est un discernement cas par cas qu’il faut exercer, en se posant à chaque fois les bonnes questions : À quoi cela sert-il ? Qui cela aide-t-il ? Quels sont les coûts induits ? Comment peut-on les minimiser ?. Une telle approche, inspirée par l’éthique de la responsabilité de Jonas et la prudence active de Stiegler, permet de tirer le meilleur de l’IA générative tout en gardant le contrôle démocratique sur son déploiement.

Conclusion : de la critique univoque à l’intelligence collective

En conclusion, la thèse initiale selon laquelle « l’IA générative intensifie le travail sans gain de temps et aggrave les crises, ne devant servir qu’en cas critique » apparaît réductrice au regard des éléments développés ci-dessus. Oui, l’IA et le numérique transforment profondément nos rapports au travail, au temps et à l’environnement – mais cette transformation n’est pas univoquement négative. Les perspectives philosophiques nous incitent à la vigilance éthique et à la maîtrise du temps, sans condamner en bloc la technique. Les données sociologiques et scientifiques récentes montrent des gains d’efficacité et des améliorations qualitatives indéniables lorsque l’IA est utilisée à bon escient (éducation plus personnalisée, travail allégé de certaines contraintes, santé augmentée par l’analyse rapide de données). Les usages pédagogiques et professionnels de l’IA générative, loin d’être anecdotiques, peuvent avoir un véritable impact social : lutte contre les inégalités d’accès au savoir, désenclavement des territoires, aide à la décision dans les organisations, ou encore réduction de la pénibilité mentale. Il serait dommage de se priver de ces avancées au motif d’une analogie outrancière avec le pétrole.

La clé réside dans la mesure et le discernement. Entre l’utopie technophile et la diabolisation technophobe, il y a place pour une voie médiane où l’IA est développée et employée de manière lucide. Cela implique de fixer des normes d’usage (par exemple, des seuils de consommation à ne pas dépasser pour des usages récréatifs, des critères d’utilité publique pour orienter les investissements numériques), de renforcer la transparence et la responsabilité des acteurs (concepteurs comme utilisateurs), et de poursuivre les efforts de sobriété technologique. Une telle approche intelligente de l’IA rejoint l’idée d’une innovation non pas débridée, mais orientée vers le bien commun. Plutôt que de restreindre l’IA aux situations extrêmes, nous pouvons l’intégrer dans un projet de société réflexif, où chaque nouvel outil est interrogé quant à sa finalité humaine.

En somme, l’IA générative n’est pas condamnée à intensifier le travail et les crises : elle peut aussi, si nous l’orientons correctement, contribuer à humaniser le travail, à alléger nos contraintes temporelles et à innover face aux défis (éducatifs, environnementaux, sociaux) de notre époque. La question n’est donc pas “IA ou pas IA ?”, mais “quelle IA, pour quels usages et sous quelles conditions ?”. C’est à cette condition d’intelligence collective et de gouvernance éclairée que la technique demeurera, selon le vœu de Jonas, un moyen au service de l’humain et non une fin en soi (Intelligence artificielle : « L’humain, qui est le point de départ de tout dispositif numérique, doit rester le point d’arrivée ») (Intelligence artificielle : « L’humain, qui est le point de départ de tout dispositif numérique, doit rester le point d’arrivée »). Une telle contre-argumentation ne nie pas les risques ni les excès possibles du numérique, mais elle refuse de jeter le bébé avec l’eau du bain : entre l’abstinence totale et l’addiction, il y a l’usage réfléchi – et c’est sans doute là que réside notre liberté et notre responsabilité.

Sources citées : Hans Jonas (éthique de la responsabilité) (Systèmes d’intelligence artificielle générative : enjeux d’éthique) ((PDF) Éthique et intelligence artificielle); Bernard Stiegler (technologie pharmakon) (L’IA « pharmakon » : concilier innovation et sobriété) (L’IA « pharmakon » : concilier innovation et sobriété); Bruno Latour (alliances à l’ère anthropocène) (Contemporanéité et Intelligence artificielle); Hartmut Rosa (critique de l’accélération) (Sous la surface des IA génératives | by Urban AI | Urban AI — FR | Medium); Études sur l’éducation et l’IA (86 % des étudiants ont adopté l’intelligence artificielle dans le cadre scolaire selon une enquête) (Les IA génératives pour une différenciation pédagogique plus efficace); Études sur l’IA au travail (Study finds ChatGPT boosts worker productivity for some writing tasks | MIT News | Massachusetts Institute of Technology) (Generative AI Can Boost Productivity Without Replacing Workers | Stanford Graduate School of Business); IA et santé (OCDE, 2024) (); Analogie énergie/numérique et sobriété (Sous la surface des IA génératives | by Urban AI | Urban AI — FR | Medium) (The carbon emissions of writing and illustrating are lower for AI than for humans | Scientific Reports); Tribune Jean-François Lucas (Intelligence artificielle : « L’humain, qui est le point de départ de tout dispositif numérique, doit rester le point d’arrivée »), etc.