Cette page rassemble des documents officiels, cadres de référence et ressources pour un usage éclairé et responsable de l’intelligence artificielle en éducation.
Elle offre un panorama incluant les supports de l’Éducation nationale, d’UNESCO et du Royaume-Uni, en montrant comment ces cadres se traduisent concrètement sur le terrain.
On y trouve des chartes, pactes, comparatifs, scénarios pédagogiques, matrices d’impact et outils pour aider les enseignants à appliquer les principes tels que la transparence, la protection des données et l’éthique.
L’ambition est de créer un lien opérationnel entre politiques nationales et pratiques de classe, pour que l’IA ne soit pas simplement discutée, mais utilisée de façon critique, créative et responsable. Enfin, cette page sert de guide aux enseignants cherchant des repères clairs et fiables pour élaborer ou évaluer leur usage de l’IA, dans un contexte éducatif dynamique et exigeant.
Cette page du ministère propose un cadre officiel, éthique et juridique pour l’usage de l’intelligence artificielle à l’école.
Sur IAEducative.fr, je cherche à donner du sens concret à ce cadre en l’illustrant par des projets pédagogiques, des expérimentations en classe et des outils pratiques à destination des enseignants et des élèves.
L’objectif est de relier la réflexion institutionnelle aux réalités du terrain, afin que l’IA ne soit pas seulement un objet de débat ou de vigilance, mais aussi une ressource maîtrisée, critique et créative au service des apprentissages et de la citoyenneté numérique.
Cette note « L’IA en éducation : cadre d’usage » (juin 2025), issue d’une large consultation, fixe des repères clairs : objectifs et principes, obligations légales (RGPD, transparence des décisions assistées), recommandations éthiques et déontologiques, et modalités d’évaluation (priorité au raisonnement, vigilance sur la fraude, pas de détecteurs IA peu fiables), avec des usages différenciés selon les niveaux (sensibilisation sans génération au primaire, usages encadrés dès la 4e, autonomie au lycée).
Sur IAEducative.fr, j'essaie de donner corps à ce cadre en le traduisant en pratiques : scénarios de classe, check-lists « données et transparence », modèles de mentions pour signaler l’usage d’IA, protocoles Pix, alternatives libres et frugales, matrices d’impact environnemental et exemples concrets de tâches où l’IA apporte une vraie plus-value pédagogique—bref, un pont opérationnel entre le texte ministériel et la réalité du terrain.
Sandrine Lefebvre-Reghay, professeure d’économie-gestion et doctorante au laboratoire DICEN-CNAM, a conçu cette charte d’utilisation de l’IA destinée aux élèves, enseignants et parents.
Ce schéma clair et pédagogique rappelle cinq principes essentiels :
Utiliser l’IA comme un outil pour progresser (et non pour déléguer sa réflexion)
Éviter le copier-coller, vérifier systématiquement les réponses générées,
Respecter le RGPD et penser à l’impact environnemental des usages.
La charte met aussi en avant des engagements différenciés (élève, parent, enseignant) et distingue trois niveaux d’usage (interdit, accompagné, autonome).
Un document concret et visuel qui illustre comment intégrer l’IA en éducation de façon éthique, critique et responsable.
Sandrine est sur LinkedIn :
https://www.linkedin.com/in/sandrine-lefebvre3105/
Ce pacte d’engagement pour un usage responsable de l’IA dans les devoirs est une initiative remarquable de Thibaud Hayette, professeur de lettres et Interlocuteur Académique pour le Numérique (IAN) de l’Académie de Lyon.
Formateur académique (CAFFA) et webmestre du site Lettres et LCA de Lyon, il est également expert CRCN-Edu et correspondant pour Le Progrès. Ce document propose un cadre clair et équilibré pour intégrer l’IA dans les apprentissages : rappel du rôle de l’effort personnel, respect de l’éthique, protection des données et sensibilisation à l’impact environnemental. Il offre aussi un code d’autorisation par niveaux et engage élèves, parents et enseignants dans une démarche commune, plaçant l’IA au service du développement de l’esprit critique et de l’autonomie des élèves.
Thibaut Hayette sur LinkedIn :
https://www.linkedin.com/in/thibaud-hayette-b1973016a/
Ce référentiel vise à guider les enseignants dans un usage réfléchi et pertinent de l’intelligence artificielle en éducation.
Il décrit comment l’IA transforme la relation pédagogique en un nouveau triptyque entre enseignant, apprenant et outil numérique, exigeant une redéfinition des *compétences professionnelles. Le document identifie 15 compétences clés, organisées en cinq composantes : approche centrée sur l’humain, éthique, fondements et applications de l’IA, pédagogie de l’IA et apprentissage professionnel. Ces compétences sont déclinées en trois niveaux progressifs : acquérir, approfondir et créer. En tant que référence internationale, ce cadre sert à élaborer des programmes nationaux, former les enseignants et définir des critères d’évaluation, tout en favorisant une appropriation éthique et durable de l’IA.
Télécharger le document : https://unesdoc.unesco.org/ark:/48223/pf0000392681
En anglais, ce document analyse l’effet de ChatGPT sur la pensée critique dans l’enseignement supérieur à l’aide du modèle « cognitive presence » (déclenchement, exploration, intégration, résolution).
Il s’appuie sur une méthode mixte combinant 40 questionnaires, 6 scripts d’usage et 2 entretiens. Les étudiants perçoivent des gains pour les phases de déclenchement, d’exploration et d’intégration, mais restent réservés pour la résolution.
Deux modes ressortent : un usage passif dirigé par l’IA et un usage collaboratif soutenu par l’IA ; avec un accompagnement clair, les quatre étapes peuvent être franchies.
Au final, l’impact dépend surtout de la qualité de l’interaction humain-IA, ce qui plaide pour des cadres pédagogiques structurés et des évaluations adaptées, malgré des limites d’échantillon et de généralisation.
Sur les pages de l’UNESCO consacrées à l’IA (éthique, éducation, inclusion, renforcement des capacités), le cap est clair : des garde-fous universels, une gouvernance outillée et une approche résolument humaine pour que « l’IA pour tous » réduise les inégalités au lieu de les creuser.
Sur IAEducative.fr, je transforme ces orientations en leviers opérationnels pour les classes et les équipes : traductions en scénarios pédagogiques alignés sur le SDG 4, grilles d’auto-diagnostic (littératie, biais, transparence), trames de politique d’établissement et kits d’animation (PIX, EMC, EMI) prenant en compte l’égalité femmes-hommes et les critères d’impact environnemental.
Autrement dit, j'essaie avec vous de faire un lien entre normes internationales et pratiques de terrain, pour une IA éthique, inclusive et efficace au service des apprentissages.
La page du Department for Education (Royaume-Uni, août 2025) définit les principes d’un usage sûr, efficace et responsable de l’IA générative dans l’éducation.
Elle met en avant le potentiel de ces outils pour alléger la charge administrative, aider à la planification des cours et personnaliser l’apprentissage, tout en rappelant que les bénéfices sont plus nets pour un usage « côté enseignant » que pour un usage direct par les élèves.
Le texte insiste sur la nécessité de protéger les données personnelles, de respecter le droit d’auteur, de prévenir la fraude aux examens et de garantir la sécurité en ligne. Ofsted et Ofqual encadrent respectivement l’impact de l’IA sur la qualité de l’enseignement et son usage dans l’évaluation. Enfin, le gouvernement investit dans le développement d’outils publics comme l’assistant pédagogique Aila et dans des dispositifs d’évaluation de la qualité des solutions EdTech. L’IA est présentée comme un soutien précieux, mais jamais comme un substitut à la relation éducative entre enseignants et élèves.
Le POSTnote 712 (23 janvier 2024), publié par le Parliamentary Office of Science and Technology (Royaume-Uni), explore les usages de l’intelligence artificielle dans l’enseignement et l’évaluation.
Le document souligne à la fois les opportunités et les risques : les outils d’IA peuvent soutenir les enseignants dans la préparation des cours, la correction, le suivi des élèves et les tâches administratives, et favoriser une personnalisation de l’apprentissage. Cependant, leur fiabilité reste limitée : contenus inexacts, biais, dépendance technologique, impact possible sur les compétences d’écriture et de pensée critique, ou encore risques pour l’équité des évaluations, puisque certains modèles génératifs sont capables de produire des textes réussissant certains examens.
Le rapport insiste sur plusieurs conditions pour un déploiement responsable : disposer de preuves solides de l’efficacité éducative des IA, offrir formation et accompagnement aux enseignants, clarifier les cadres juridiques concernant les données personnelles, et lutter contre la fracture numérique afin d’éviter d’accroître les inégalités.
Il appelle enfin à repenser certaines formes d’évaluation (écrits surveillés, oraux, examens pratiques) et à mieux encadrer l’usage des IA génératives dans l’éducation, afin qu’elles complètent l’action éducative sans s’y substituer.