Cette page du ministère propose un cadre officiel, éthique et juridique pour l’usage de l’intelligence artificielle à l’école.
Sur IAEducative.fr, je cherche à donner du sens concret à ce cadre en l’illustrant par des projets pédagogiques, des expérimentations en classe et des outils pratiques à destination des enseignants et des élèves.
L’objectif est de relier la réflexion institutionnelle aux réalités du terrain, afin que l’IA ne soit pas seulement un objet de débat ou de vigilance, mais aussi une ressource maîtrisée, critique et créative au service des apprentissages et de la citoyenneté numérique.
Cette note « L’IA en éducation : cadre d’usage » (juin 2025), issue d’une large consultation, fixe des repères clairs : objectifs et principes, obligations légales (RGPD, transparence des décisions assistées), recommandations éthiques et déontologiques, et modalités d’évaluation (priorité au raisonnement, vigilance sur la fraude, pas de détecteurs IA peu fiables), avec des usages différenciés selon les niveaux (sensibilisation sans génération au primaire, usages encadrés dès la 4e, autonomie au lycée).
Sur IAEducative.fr, j'essaie de donner corps à ce cadre en le traduisant en pratiques : scénarios de classe, check-lists « données et transparence », modèles de mentions pour signaler l’usage d’IA, protocoles Pix, alternatives libres et frugales, matrices d’impact environnemental et exemples concrets de tâches où l’IA apporte une vraie plus-value pédagogique—bref, un pont opérationnel entre le texte ministériel et la réalité du terrain.
Sandrine Lefebvre-Reghay, professeure d’économie-gestion et doctorante au laboratoire DICEN-CNAM, a conçu cette charte d’utilisation de l’IA destinée aux élèves, enseignants et parents.
Ce schéma clair et pédagogique rappelle cinq principes essentiels :
Utiliser l’IA comme un outil pour progresser (et non pour déléguer sa réflexion)
Éviter le copier-coller, vérifier systématiquement les réponses générées,
Respecter le RGPD et penser à l’impact environnemental des usages.
La charte met aussi en avant des engagements différenciés (élève, parent, enseignant) et distingue trois niveaux d’usage (interdit, accompagné, autonome).
Un document concret et visuel qui illustre comment intégrer l’IA en éducation de façon éthique, critique et responsable.
Sandrine est sur LinkedIn :
https://www.linkedin.com/in/sandrine-lefebvre3105/
Sur les pages de l’UNESCO consacrées à l’IA (éthique, éducation, inclusion, renforcement des capacités), le cap est clair : des garde-fous universels, une gouvernance outillée et une approche résolument humaine pour que « l’IA pour tous » réduise les inégalités au lieu de les creuser.
Sur IAEducative.fr, je transforme ces orientations en leviers opérationnels pour les classes et les équipes : traductions en scénarios pédagogiques alignés sur le SDG 4, grilles d’auto-diagnostic (littératie, biais, transparence), trames de politique d’établissement et kits d’animation (PIX, EMC, EMI) prenant en compte l’égalité femmes-hommes et les critères d’impact environnemental.
Autrement dit, j'essaie avec vous de faire un lien entre normes internationales et pratiques de terrain, pour une IA éthique, inclusive et efficace au service des apprentissages.
La page du Department for Education (Royaume-Uni, août 2025) définit les principes d’un usage sûr, efficace et responsable de l’IA générative dans l’éducation.
Elle met en avant le potentiel de ces outils pour alléger la charge administrative, aider à la planification des cours et personnaliser l’apprentissage, tout en rappelant que les bénéfices sont plus nets pour un usage « côté enseignant » que pour un usage direct par les élèves.
Le texte insiste sur la nécessité de protéger les données personnelles, de respecter le droit d’auteur, de prévenir la fraude aux examens et de garantir la sécurité en ligne. Ofsted et Ofqual encadrent respectivement l’impact de l’IA sur la qualité de l’enseignement et son usage dans l’évaluation. Enfin, le gouvernement investit dans le développement d’outils publics comme l’assistant pédagogique Aila et dans des dispositifs d’évaluation de la qualité des solutions EdTech. L’IA est présentée comme un soutien précieux, mais jamais comme un substitut à la relation éducative entre enseignants et élèves.
Le POSTnote 712 (23 janvier 2024), publié par le Parliamentary Office of Science and Technology (Royaume-Uni), explore les usages de l’intelligence artificielle dans l’enseignement et l’évaluation.
Le document souligne à la fois les opportunités et les risques : les outils d’IA peuvent soutenir les enseignants dans la préparation des cours, la correction, le suivi des élèves et les tâches administratives, et favoriser une personnalisation de l’apprentissage. Cependant, leur fiabilité reste limitée : contenus inexacts, biais, dépendance technologique, impact possible sur les compétences d’écriture et de pensée critique, ou encore risques pour l’équité des évaluations, puisque certains modèles génératifs sont capables de produire des textes réussissant certains examens.
Le rapport insiste sur plusieurs conditions pour un déploiement responsable : disposer de preuves solides de l’efficacité éducative des IA, offrir formation et accompagnement aux enseignants, clarifier les cadres juridiques concernant les données personnelles, et lutter contre la fracture numérique afin d’éviter d’accroître les inégalités.
Il appelle enfin à repenser certaines formes d’évaluation (écrits surveillés, oraux, examens pratiques) et à mieux encadrer l’usage des IA génératives dans l’éducation, afin qu’elles complètent l’action éducative sans s’y substituer.