Print Friendly, PDF & Email

Le Campus Européen d’été consacré aux big data en éducation (Université de Poitiers) a interrogé, au cours des journées de mercredi et de jeudi la place des données dans l’éducation. Pourquoi passer du terme anglais au terme français ? Parce que ces deux journées ont permis de mieux définir l’ensemble des questions posées et de mettre en évidence les véritables objets d’interrogation pour le monde éducatif.

Des possibilités nouvelles de suivre les élèves

Le projet de recherche Hubble a été au coeur des réflexions puisque plusieurs intervenants y collaborent. Ce projet « d’Observatoire humain pour l’analyse à partir des traces e-learning » a été présenté sous ses différents aspects, techniques et conceptuels. Serge Garlatti, de Telecom Bretagne et Vanda Luengo de Sorbonne Université ont pu nous faire entrer dans le coeur du problème : recueillir, traiter des données est un processus technique complexe. Cela montre bien qu’au-delà des envolées rhétoriques, il y a une réalité difficile à aborder, celle de la cohérence dans le travail des données. Mais le problème ne se limite pas à la dimension technique, il y a aussi la question de l’analyse, l’interprétation des données. Le travail dit des big data propose deux options : soit on sait ce que l’on veut recueillir et on organise techniquement cela, soit on recueille toutes sortes de données sans a priori et ensuite on cherche dans ces données des éléments pertinents. Il va de soi que la première solution est la meilleure. L’exemple des « learning analytics », qu’il faut définir comme l’analyse des traces dans les dispositifs d’apprentissages en ligne (ici les Moocs principalement) est particulièrement intéressant si l’on veut que ces données servent à l’apprentissage ou au moins aux enseignants.

Au travers des exemples et aussi des témoignages des entreprises (Ouat pour les traces dans les jeux sérieux), de Canopé (le projet Mathador de l’académie de Besançon), des chercheurs de l’université de Poitiers (projet Living Cloud), on a pu tirer un élément clé : le développement de l’usage des moyens numériques dans l’éducation ouvre des possibilités nouvelles pour suivre les enseignements, les apprenants. On a pu comprendre à partir de ces exposés de même que des présentations d’autres entreprises en dehors du secteur éducatif, que l’enjeu de la « captation de données » dans le monde de l’enseignement (mais aussi dans d’autres univers) pourrait transformer de manière assez importante plusieurs dimensions : l’accompagnement, le suivi, le conseil, la remédiation et bien sûr l’évaluation (des apprentissages et des compétences).

Livret scolaire et liberté

En proposant un regard quantitatif sur l’état actuel du réseau Viaéduc proposé par Canopé, Francois Cathala nous a fait toucher du doigt le fait que le passage de statistiques d’usage à une analyse approfondie de données pouvant aller jusqu’au learning analytics reste encore un travail à faire et qui semble loin d’être simple.

Mais les statistiques dites de surface (nombre d’abonnés, nombre de groupes, nombre de documents etc..) sont déjà des données qui apportent suffisamment d’information pour donner aux décideurs ce que certains appellent des tableaux de bord. Ceux-ci ne sont pas nouveau, mais on imagine la transposition d’une pratique connue dans l’entreprise à ce que cela pourrait donner avec des informations issues de l’analyse des traces dans un contexte scolaire ou de formation.

Les bulletins scolaires ne sont-ils pas des sortes de tableaux de bord ? Probablement, et l’on voit bien la transformation progressive, amorcée avec les logiciels de gestion des apprentissages et des compétences, transformation qui pourrait apporter de nouveaux regards sur l’élève mais pas uniquement. Quid de la liberté, du respect des personnes, ou simplement même de la qualité des informations.

Apprendre à décortiquer les données

La journée de jeudi a apporté les compléments nécessaires pour alerter le monde éducatif. Trois entreprises et un chercheur nous ont montré le point où nous en sommes dans l’utilisation des données recueillies au cours de l’utilisation de produits numériques. On s’aperçoit que le potentiel est important et que cela pourrait apporter des informations essentielles pour l’ensemble de la communauté éducative. Mais on a pu aussi voir les dangers d’une automatisation qui pourrait être déshumanisante. Catherine Moisan qui fut récemment directrice de l’évaluation et de la prospective (DEPP) au Ministère de l’Education a aussi mis en évidence l’importance du processus : captation, traitement. Elle a ajouté, à propos de ce travail, la dimension de la diffusion. Que peut-on mettre à disposition du grand public : toutes les données, des résultats, des analyses. ? On pressent bien que l’enjeu est considérable. Mais ce qui a été le plus surprenant c’est qu’en France il est très difficile d’avoir une information en continue sur un élève tout au long de la scolarité. De même à l’école primaire il est impossible d’avoir des informations sociales sur les élèves et leurs familles. On comprend donc que la collecte de données doit non seulement respecter la loi, mais surtout la « sensibilité » des publics concernés face à des dérives réelles ou imaginaires. Même si des suivis sont possibles (30000 élèves depuis plusieurs années) ils restent partiels.

Eric Bruillard a su mettre en évidence un point important qui sera ensuite repris dans la table ronde finale : il faut former aux données. Olivier Le Deuff, après nous avoir rappelé à l’instar de Bruno Latour que les données sont d’abord des « obtenues », ce sont des constructions, a insisté lui aussi sur la nécessaire formation qui inclue dans la translittératie la question des données. L’enjeu pour l’éducation et pour le monde scolaire et universitaire c’est, en particulier face aux données d’inviter à ouvrir les yeux.

Béatrice Drot Delange a illustré cette question à partir d’un travail avec les étudiants de première année de licence auxquels elle fait étudier un graphique. Elle relève des confusions entre le graphique et les données, des méconnaissances de la construction même du graphique, le peu de distance des jeunes face à un document final qui pourtant pose de nombreuses questions. A l’instar de la Fing qui présentait le projet Infolab pour former les adultes à ces données et leur traitement, la conclusion de ces échanges est l’importance dès le primaire de ne pas laisser les enfants se laisser « tromper » par des produits finis qui cachent les mécanismes qui ont amené à les produire. Travailler sur des données suppose au moins qu’on apprenne à les construire, les recueillir les traiter et les présenter.

Finalement l’apport essentiel de ces deux journées est l’impératif de formation sur les données. Il porte certes sur les jeunes, mais il porte surtout sur les enseignants. Les mécanismes cachés du machine learning, des learning analytics et autres data analytics doivent pouvoir être décryptées, expliquées et bien sûr critiquées. En observant combien il était difficile de recueillir certaines informations, les chercheurs ont montré que les risques de « biais », d’erreur, d’approximations, sont très nombreux, même quand ce sont les machines qui recueillent et traitent les informations. Car ce sont bien des humains qui conçoivent les logiciels et les algorithmes qui sont sous-jacents à ces produits. Lire de belles statistiques bien présentées impose d’en décortiquer le mécanisme de construction, cela doit faire aussi partie de la formation du citoyen éclairé.

Bruno Devauchelle

Big data et libertés au C2e

Le Big data au C2e