« Ce qui ressort de ce texte c’est avant tout la volonté de « limiter » les actions de terrain et de « protéger » l’institution » écrit Bruno Devauchelle au sujet du cadre d’usage de l’IA publié samedi 14 juin par le ministère de l’Éducation nationale. Dans cet article, il relève l’absence de réflexion pédagogique et didactique contrairement à la présence des limites et des risques. Il propose une lecture de ce texte au regard des cadres publiés dans le même temps par la commission européenne et l’OCDE. Pour lui, il y a deux visions : « la volonté de « cadrer » plutôt que d’éduquer en premier. Il faut rassurer ! semble-t-il du côté de la France, il faut développer et éduquer pour ne pas être dominé du côté de l’Europe ».
Le premier document est une production du ministère de l’éducation et a été présenté en clôture du Vivatech. Mis en débat dès janvier 2025, il est enfin finalisé et mis à disposition de la communauté éducative. Il est accessible dès ce 14 juin en version publique. Dans le même temps la commission européenne et l’OCDE mettent en débat leur propre cadre orienté vers la volonté affirmée d’aider les acteurs de l’éducation dans leur intégration de l’IA : » Empowering Learners for the Age of AI, An AI Literacy Framework for Primary and Secondary Education (Donner aux apprenants les moyens de s’adapter à l’ère de l’IA, Un cadre d’alphabétisation en IA pour l’enseignement primaire et secondaire). Il semble que nous arrivions à un moment clé du déploiement de l’IA pour l’éducation, celui de la régulation et celui des préconisations. Après avoir présenté chaque document, nous proposons une analyse critique de ces deux documents dans leur volonté d’orienter les usages de l’IA dans l’enseignement.
Le cadre d’usage du MEN : encadrer et limiter les pratiques !
Le Cadre d’usage proposé par le MEN a une caractéristique principale : encadrer c’est-à-dire mettre en garde, fixer des limites, rappeler les interdictions. Cette manière de faire, qui semble située culturellement, a pour but de fixer des limites ce que l’on retrouve souvent dans la manière dont, actuellement, les responsables politiques orientent leur action. Si cette manière de faire permet de rassurer les acteurs, elle n’aborde pas directement les deux questions essentielles : celle des pratiques sociales de l’IA d’une part et celle de la pédagogie et de la didactique face à l’IA.
Si le texte parle des potentialités, il y associe aussitôt les risques et les limites. On retiendra en particulier ce passage étonnant : « L’utilisation d’une intelligence artificielle générative pour réaliser tout ou partie d’un devoir scolaire, sans autorisation explicite de l’enseignant et sans qu’elle soit suivie d’un travail personnel d’appropriation à partir des contenus produits, constitue une fraude. » Le terme de « fraude » employé ici semble amener à des sanctions avant même que soit posée la question du contexte, en particulier celui des devoirs à la maison.
Les seules préconisations pédagogiques du texte sont rassemblées en fin de texte de manière un peu courte : « Adaptez les devoirs et les modalités d’évaluation », « N’utilisez l’IA que lorsqu’une plus-value pédagogique est avérée » et « Adaptez les usages de l’IA générative en fonction du niveau ». Ce qui ressort de ce texte c’est avant tout la volonté de « limiter » les actions de terrain et de « protéger » l’institution. Et il semble que ce soit là la difficulté des décideurs face à une transformation importante de la société et donc de l’enseignement. Alors que les responsables institutionnels rappellent constamment les fondamentaux, ils sont face à une réalité pour laquelle ils ont bien du mal à se situer.
