Des salles informatiques aux IA génératives : quel futur pour les logiciels scientifiques à l'école ?
- Christophe Chazot

- il y a 6 heures
- 18 min de lecture
L'histoire des logiciels scientifiques scolaires est d'abord une histoire d'enseignants. Depuis les années 1990, ce sont eux qui ont créé sur leur temps personnel les outils qui équipent encore aujourd'hui des milliers de classes : Régressi, AviMéca, Scilab et d'autres. Au fil du temps, des universités et des fondations ont complété cette offre avec Scratch, PhET, Phyphox ou FizziQ, des logiciels gratuits, souvent open source, adaptés aux besoins réels de la classe parce que conçus par ceux qui y travaillent.
Cette tradition a été bousculée par l'émergence des EdTech et des grands groupes numériques, accélérée par le Covid, qui a ouvert les portes d'établissements jusque-là peu perméables au tout-numérique. Ces nouvelles solutions offrent des environnements ergonomiques et des fonctionnalités innovantes, même si derrière la promesse d'un numérique éducatif moderne on a pu craindre le risque de modèles économiques qui transforment l'établissement en client captif, les données des élèves en ressource, et l'enseignant en prescripteur involontaire.
L'intelligence artificielle change à nouveau la donne. Elle démocratise la création de logiciels : produire un outil éducatif de qualité ne demande plus une carrière de développeur bénévole, et la tradition des enseignants-créateurs pourrait connaître une renaissance. Mais l'IA est aussi le logiciel ultime, celui qui s'adapte à chaque élève, répond à toute question, à toute heure, sans intermédiaire. Un point d'entrée unique pour la connaissance, sur lequel l'enseignant n'a aucun contrôle : ni sur le narratif, ni sur les sources, ni sur la façon dont le savoir est transmis.
On dit que "le logiciel mange le monde". Dans cet article nous vous proposons une grande rétrospective pour répondre à cette question : l'IA mangera-t-elle le logiciel éducatif, ou va-t-elle au contraire le réinventer ?
Quand le calcul entre en classe : calculatrices, ordinateurs et premiers langages
L'introduction de l'informatique dans l'enseignement français ne date pas du web. En 1970, 58 lycées sont déjà équipés en ordinateurs. Le plan « Informatique pour tous » de 1985 marque une tentative d'équipement massif et systématique : 6 000 postes sont distribués, accompagnés d'une circulaire définissant un objectif d'« éveil informatique et technologique ». Les Thomson TO7 et MO5 entrent dans les classes, avec eux le BASIC, premier langage de programmation qu'une génération entière d'élèves aura entre les mains. Mais l'effort s'interrompt avec les alternances politiques, et dans les années 1990, les machines vieillissent sans être renouvelées.
Dans les années 1970, la règle à calcul disparaît des cartables, remplacée par les calculatrices scientifiques de poche, Hewlett-Packard, Casio, Texas Instruments. Sans décision ministérielle ni plan d'équipement, le changement s'impose de lui-même en quelques années. Dans les années 1980 puis 1990, les calculatrices graphiques élargissent le périmètre : les TI-82, TI-83 et TI-84 de Texas Instruments, les Casio Graph 35 et Graph 75 deviennent l'outil standard du lycée scientifique, capables de tracer des fonctions, effectuer des régressions, résoudre des équations numériquement. Elles embarquent également un environnement de programmation, TI-Basic, Casio Basic, qui constitue souvent la première expérience de code structuré pour les élèves. Ces environnements restent fermés et propriétaires. NumWorks, calculatrice graphique française lancée en 2017, open source et programmable en Python, marquera une nouvelle étape, et préfigurera l'entrée officielle de Python dans les programmes de 2019.
C'est dans cette même période qu'apparaissent les premiers usages scientifiques stables sur ordinateur : le tableur. Excel ou Lotus 1-2-3, puis OpenOffice Calc, permettent de saisir des données expérimentales, de tracer des graphiques, d'effectuer des régressions linéaires. Ces outils généralistes, conçus pour les entreprises, sont détournés à des fins pédagogiques. Ils constituent, rétrospectivement, la première couche logicielle commune à toutes les disciplines scientifiques sur ordinateur, un langage universel des données tabulées, disponible partout, sans spécialisation disciplinaire, et qui reste, trente ans plus tard, présent dans la quasi-totalité des lycées.
L'ère des logiciels enseignants : la génération des outils gratuits nés en classe (années 1990–2010)
Le tournant le plus singulier de l'histoire des logiciels scientifiques scolaires en France est probablement celui-ci : la discipline a produit elle-même ses outils. Des professeurs, programmant sur leur temps personnel, ont créé les logiciels qui allaient équiper des milliers de lycées pendant deux décennies.
Régressi est l'exemple le plus emblématique. Développé et maintenu par Jean-Michel Millet, enseignant, le logiciel est un tableur-grapheur spécialisé pour les sciences physiques : acquisition et traitement de données expérimentales, régression, modélisation, transformée de Fourier. Distribué gratuitement depuis une page personnelle, compatible avec les équipements de laboratoire et les formats tableur standard, il représente pendant des années l'outil de référence dans les lycées et classes préparatoires scientifiques françaises, non pas parce qu'une institution l'a imposé, mais parce que des enseignants se le sont recommandé entre eux.
AviMéca relève de la même logique. Ce logiciel de pointage vidéo permet d'analyser image par image le déplacement d'un objet filmé, d'en extraire des coordonnées, et d'exporter les données vers Régressi ou un tableur. Son usage type : filmer une bille en chute libre, pointer sa position à chaque image, reconstruire la trajectoire et vérifier les lois de la mécanique. Regavi, PyMecaVideo (développé par Georges Khaznadar, enseignant à Dunkerque) et Tracker (open source, développé aux États-Unis) complètent ce sous-écosystème.
Ce phénomène est structurellement important : les logiciels les plus utilisés dans l'enseignement scientifique français de cette génération sont le fruit du travail bénévole de praticiens, distribués gratuitement, sans modèle économique, sans équipe de maintenance. Ils répondent exactement aux besoins de la classe parce qu'ils en émanent. Ils sont aussi, par construction, fragiles : leur pérennité dépend de la disponibilité d'une ou deux personnes. Quand Windows change ses codecs vidéo, AviMéca cesse de lire certains fichiers. Quand Flash disparaît, des dizaines d'animations pédagogiques créées par des enseignants cessent de fonctionner.
À la même époque, d'autres logiciels gratuits ou libres complètent le panorama : Dozzzaqueux pour simuler des titrages en chimie, Chemsketch pour la représentation moléculaire, Jmol pour la visualisation 3D en navigateur, Scilab comme alternative libre à MATLAB. Certains proviennent du monde universitaire ou de la recherche open source internationale. Tous se retrouvent sur des pages académiques régionales, compilées et redistribuées par des enseignants relais.
Les simulations interactives : la science sans paillasse (années 2000–2015)
La généralisation d'Internet ouvre une autre séquence : celle des simulations accessibles en ligne. L'idée n'est pas nouvelle, des applets Java circulent dès la fin des années 1990 sur des sites personnels d'enseignants, mais elle prend une échelle nouvelle avec l'émergence de projets structurés.
PhET Interactive Simulations, fondé en 2002 par le physicien Carl Wieman (prix Nobel), est le projet le plus significatif à l'échelle mondiale. Développé par l'Université du Colorado Boulder, il propose des centaines de simulations en physique, chimie, biologie et mathématiques, disponibles gratuitement, sous licence Creative Commons, traduites en une quarantaine de langues dont le français. Les simulations PhET permettent à un élève de manipuler des variables inaccessibles en laboratoire scolaire : modifier la masse d'une planète, changer la charge d'un électron, observer les niveaux d'énergie d'un atome. PhET est aujourd'hui massivement utilisé dans les établissements français et cité dans les ressources officielles des académies et d'Eduscol.
L'initiative Go-Lab, née d'un projet européen financé par la Commission européenne (2012–2016) et regroupant 18 partenaires, a cherché à fédérer l'ensemble de cet écosystème à l'échelle du continent. Go-Lab ne produisait pas ses propres simulations : il agrégeait des laboratoires virtuels, des laboratoires distants donnant accès à de vrais équipements à distance, dont ceux du CERN et de l'ESA, et des jeux de données expérimentales dans un portail unique. Les enseignants pouvaient y composer des parcours d'investigation structurés et les partager avec leurs élèves ou collègues. Go-Lab représente à ce jour la tentative la plus ambitieuse de coordination institutionnelle européenne dans ce domaine, préfigurant, dans sa logique de mutualisation, ce que pourraient être des infrastructures numériques éducatives pensées à l'échelle collective.
Dans le domaine des mathématiques, GeoGebra occupe une place équivalente. Développé depuis 2001 par Markus Hohenwarter à l'Université de Salzbourg, open source et gratuit, il propose dans une interface unifiée la géométrie dynamique, l'algèbre, le calcul et les statistiques. Traduit en plus de cinquante langues, il est aujourd'hui incontournable au collège et au lycée pour visualiser une fonction, construire une figure géométrique interactive ou modéliser graphiquement des données. Sa diffusion a suivi exactement le même chemin que PhET : virale, horizontale, portée par des enseignants qui se recommandent l'outil sans qu'aucune institution ne l'ait imposé.
Des initiatives françaises existent également : le site d'Adrien Willm (Ostralo), celui de Jean-Pierre Fournat (PCCL), et des simulations développées dans le cadre académique. Ces ressources reposaient d'abord sur Flash, technologie abandonnée par les navigateurs en 2020, rendant des milliers d'animations obsolètes du jour au lendemain, avant de migrer progressivement vers HTML5 et JavaScript. C'est ici qu'apparaît un premier effet de fragmentation technique majeur : la dépendance à une technologie propriétaire a créé une obsolescence synchronisée de ressources qui avaient demandé des années à développer.
De BASIC aux robots : l'apprentissage de la programmation
L'enseignement de la programmation précède de loin l'introduction de Python dans les programmes. Dans les années 1980, le plan « Informatique pour tous » s'accompagne d'un langage : le BASIC. Présent sur les Thomson TO7 et MO5 distribués dans les écoles françaises, il constitue pour toute une génération la première rencontre avec l'idée qu'une machine peut exécuter des instructions écrites par un être humain. L'expérience reste limitée, peu d'enseignants sont formés, les usages superficiels, mais elle plante une graine.
La programmation disparaît ensuite des programmes pendant près de deux décennies. Son retour s'opère par deux voies parallèles dans les années 2000 et 2010. La première est celle de la programmation par blocs : Scratch, développé par le MIT Media Lab à partir de 2003, repose sur des instructions visuelles que l'on emboîte comme des pièces de puzzle, supprimant la barrière de la syntaxe pour se concentrer sur la logique. Traduit en une soixantaine de langues, utilisé dès l'école primaire dans des dizaines de pays, il constitue pour beaucoup d'élèves la première expérience de programmation réelle.
La deuxième voie est celle de la robotique éducative. Le robot Thymio, développé par l'EPFL, permet dès le collège de programmer des comportements physiques observables en progressant par niveaux de complexité. D'autres robots pédagogiques (Lego Mindstorms, mBot, Ozobot) complètent ce panorama, chacun avec son niveau d'abstraction. L'idée commune : ancrer la logique dans le mouvement, rendre visible ce que le code produit dans le monde réel.
C'est en s'articulant avec des microcontrôleurs que ces approches prennent leur pleine dimension expérimentale. La carte Arduino, open source, conçue en Italie en 2005, s'impose dans les lycées technologiques : capteurs, moteurs, systèmes automatisés. La carte micro:bit, développée par la BBC en 2016, accéléromètre, magnétomètre, thermomètre embarqués, programmable en Python ou par blocs, devient l'outil de référence pour introduire la physique expérimentale programmée au collège. Le Raspberry Pi ouvre un niveau supérieur : véritable ordinateur Linux en format carte de crédit, il accueille des projets plus ambitieux en terminale et en classes préparatoires. Ces plateformes ont en commun d'être ouvertes, peu coûteuses, et de permettre à un élève de construire son propre capteur et de traiter ses données dans Python pour quelques dizaines d'euros.
Vittascience, EdTech française fondée en 2018, apporte une réponse pratique à l'obstacle qui freine encore beaucoup d'enseignants : l'installation. Sa plateforme web permet de programmer Arduino, micro:bit et ESP32 directement dans le navigateur, en Python ou par blocs visuels, sans rien installer localement. Utilisée notamment en SNT et en spécialité physique-chimie, elle illustre ce que peut être un outil centré sur un problème réel, avec un modèle BtoB institutionnel viable.
L'entrée institutionnelle de Python arrive en 2019 avec la réforme du lycée. Ce n'est pas un module d'informatique séparé : Python est inscrit dans les programmes de physique-chimie et de SVT au même titre que la démarche expérimentale. Les objectifs sont précis, simuler la propagation d'une onde, modéliser un bilan énergétique, déterminer la composition d'un état final, et les académies publient notebooks Jupyter et ressources Eduscol en soutien. Ce choix est structurellement différent de celui de Régressi ou d'AviMéca : Python n'est pas un logiciel éducatif, c'est le langage des chercheurs, des ingénieurs et des data scientists. L'introduire dans l'enseignement secondaire revient à aligner les pratiques scolaires sur celles de la science contemporaine, dans laquelle le code est devenu une compétence de base au même titre que l'algèbre.
L'instrumentation scientifique en classe : des interfaces propriétaires aux capteurs ouverts
Pendant longtemps, équiper un laboratoire de lycée pour l'expérimentation assistée par ordinateur a représenté un investissement conséquent. Les grands fabricants français, Jeulin, Eurosmart, Pierron, ont construit des gammes complètes de capteurs de précision : pH-mètre, conductimètre, capteur de force, de pression, de température, de luminosité. Ces interfaces ont permis de transformer le laboratoire scolaire, offrant aux élèves des mesures en temps réel, des courbes dynamiques, des acquisitions synchronisées sur plusieurs grandeurs : là où le TP se limitait autrefois à lire une valeur sur un cadran, il devient possible de modéliser une cinétique chimique ou de visualiser un signal sonore.
Mais ces systèmes ont été construits dans une logique de gamme fermée : chaque fabricant propose ses capteurs, son interface d'acquisition et son logiciel dédié (Atelier Scientifique pour Jeulin, Latis Pro pour Pierron), liés par des protocoles propriétaires. Un établissement qui investit dans l'écosystème d'un fournisseur se retrouve captif : les capteurs d'une marque ne parlent pas au logiciel d'une autre, et le renouvellement du parc impose de rester dans le même univers. Le coût global demeure élevé, une interface multivoies et une dizaine de capteurs peuvent représenter plusieurs milliers d'euros, creusant les inégalités entre établissements.
Le tournant vient d'ailleurs : du monde de la robotique éducative et de l'électronique grand public. La généralisation des microcontrôleurs à bas coût, Arduino, micro:bit, ESP32, a fait apparaître un écosystème de capteurs ouverts, compatibles, fabriqués en grande série pour des usages bien au-delà de l'école. Un capteur de CO₂, de pH ou de température connecté à un Arduino coûte quelques euros là où son équivalent en gamme propriétaire peut dépasser cent euros. La précision est parfois moindre, mais souvent suffisante pour les besoins du lycée, et surtout, les données sont accessibles dans n'importe quel environnement : Python, tableur, ou application mobile.
FizziQ Connect s'appuie sur cette logique : en connectant des capteurs ouverts à l'environnement FizziQ via Bluetooth ou USB, il rend accessibles des mesures de CO₂, pH, radioactivité ou température sans dépendance à un équipementier spécifique. La question qui se pose désormais est celle de la standardisation : pour que cet écosystème ouvert tienne ses promesses, il faut que logiciels, protocoles de communication et formats de données convergent, faute de quoi la fragmentation propriétaire serait simplement remplacée par une fragmentation open source, tout aussi difficile à gérer pour un enseignant non spécialiste.
Le smartphone comme instrument de mesure scientifique
Une évolution parallèle, souvent sous-estimée, a transformé l'outillage expérimental disponible en classe : la généralisation du smartphone. Un appareil que les élèves ont déjà dans la poche contient, selon les modèles, un accéléromètre, un gyroscope, un magnétomètre, un baromètre, un GPS, un microphone, une caméra et un capteur de luminosité, de véritables instruments de mesure physique, exploitables dès lors qu'un logiciel approprié en expose les données.
Phyphox, développé par l'Université RWTH d'Aix-la-Chapelle et publié en 2016, est le premier outil à s'être imposé largement dans les lycées français. Open source et gratuit, il donne accès à l'ensemble des capteurs du téléphone, affiche les mesures en temps réel et permet l'export des données. Sa fonction de contrôle à distance, un second appareil pilote l'acquisition via le réseau local, est particulièrement utile en TP collectif. Des expériences classiques deviennent réalisables sans matériel spécialisé : chute libre mesurée par accéléromètre, pendule, effet Doppler, mesure du champ magnétique terrestre. Ulysse Delabre, de l'Université de Bordeaux, a publié un ouvrage documentant les expériences réalisables avec Phyphox et FizziQ et les caractéristiques physiques des capteurs, rendant possible une approche rigoureuse de leurs limites et incertitudes.
FizziQ, lancé en 2020 en partenariat avec la Fondation La main à la pâte, s'inscrit dans la même logique avec un parti pris pédagogique plus affirmé. Gratuit, sans inscription, utilisable hors connexion, il intègre l'acquisition de données par les capteurs du smartphone, un cahier d'expériences structuré, des bibliothèques de protocoles créés par la communauté enseignante, et des outils d'analyse d'images et de chronophotographies. Les activités s'échangent entre élèves et enseignants par QR code. Via FizziQ Connect, l'outil peut être étendu à des microcontrôleurs (Arduino, micro:bit, ESP32) pour mesurer des grandeurs que le smartphone ne capte pas nativement : CO₂, pH, sondes de température, rayonnement, ...
Ces outils ont en commun d'être gratuits, construits par des institutions académiques ou des fondations d'utilité publique, et de fonctionner sur le matériel que les élèves possèdent déjà. Ils représentent une continuation de l'éthique des logiciels enseignants des années 1990, mais sur une plateforme universelle. Leur limite tient à la variabilité des capteurs d'un modèle de smartphone à l'autre, qui complique la comparaison des résultats entre élèves, et à la question non résolue dans la plupart des établissements de la place du téléphone personnel dans l'espace scolaire.
L’essor des EdTech : entre promesses et réalités
Dans le domaine des sciences, les laboratoires virtuels constituent l'apport le plus significatif. Labster, fondé au Danemark en 2011, propose plus de 300 simulations immersives en biologie, chimie, physique et génétique, intégrant des techniques empruntées au jeu vidéo, 3D, narration, gamification, dans un environnement sérieux et documenté pédagogiquement. Des études montrent une réduction significative des taux d'abandon dans les cours de STEM où il est utilisé. Avec plus de 6 millions d'utilisateurs dans 100 pays et des partenariats avec plus de 3 000 établissements, Labster représente un modèle EdTech commerciale qui a tenu ses promesses pédagogiques, au prix d'un abonnement institutionnel.
Après une phase d'euphorie entre 2020 et 2022, les investissements mondiaux dans l'EdTech dépassant 20 milliards de dollars par an, le secteur a subi un fort ralentissement. Le cas Byju's est devenu emblématique des excès de cette période : la startup indienne, valorisée à 22 milliards de dollars en 2022, s'est effondrée sous le poids de ses dettes et de pratiques commerciales agressives envers les familles. Khan Academy, fondée comme association à but non lucratif, occupe une position à part : son modèle est plus proche des fondations académiques que de l'EdTech commerciale.
En France, l'écosystème EdTech est actif mais se heurte à des réalités structurelles : décisions d'achat fragmentées entre régions, académies et établissements, budgets contraints, cycles de décision longs. Près d'une EdTech française sur deux a bénéficié de subventions publiques, notamment via le dispositif Édu-Up, aide pouvant couvrir jusqu'à 50 % des coûts de développement, avec des exigences pédagogiques et juridiques servant de filtre qualité. Les Territoires Numériques Éducatifs, financés par France 2030, ont sélectionné et déployé 69 solutions dans 12 départements pilotes. Les réussites durables se trouvent davantage dans le BtoB structurel : outils de gestion scolaire, plateformes de formation continue, solutions de suivi des apprentissages. Ce que cette période a produit, c'est moins une révolution pédagogique qu'une professionnalisation partielle de l'outillage numérique scolaire.
Le Covid, révélateur et accélérateur : quand l'école bascule dans le numérique
Le 16 mars 2020 au soir, quelques heures après l'annonce du confinement, des millions d'enseignants français se retrouvent à devoir enseigner les sciences sans laboratoire, sans paillasse, sans élèves en face d'eux. En quelques jours, tout ce que la décennie précédente n'avait pas réussi à imposer progressivement s'installe par la force des circonstances : la visioconférence, les laboratoires virtuels, les LMS, les ressources en ligne.
Pour les plateformes déjà en place, c'est une explosion de l'usage. PhET enregistre des dizaines de millions de sessions supplémentaires ; Labster signe en quelques semaines des contrats qu'il aurait mis des années à obtenir. Mais Zoom et Teams révèlent en même temps toutes les limites de la science à distance : un élève ne peut pas manipuler, sentir, observer par lui-même ce qui se passe dans un tube à essai ou sous un microscope. La littérature sur le sujet documente précisément ces limites, concentration réduite, engagement moindre, impossibilité de reproduire la dimension expérimentale et sensorielle du travail scientifique.
Une fois les confinements terminés, les établissements retournent massivement à l'enseignement présentiel et la plupart des outils adoptés dans l'urgence sont progressivement abandonnés. La rétention des usagers s'avère bien plus difficile que leur acquisition.
Ce que le Covid a changé durablement, en revanche, c'est la légitimité du numérique dans l'espace scolaire. Des enseignants qui n'avaient jamais touché à un outil numérique pédagogique s'en sont emparés par nécessité, et beaucoup ont continué après le retour en classe. Les grands acteurs, Google avec Workspace for Education, Microsoft avec Teams for Education, ont profité de cette période pour s'installer comme infrastructures par défaut dans de nombreux établissements, avec une rapidité qu'aucun dispositif institutionnel n'aurait permis. La parenthèse Covid a ainsi joué, pour le numérique éducatif, le rôle d'un accélérateur historique, avec tout ce que cela implique d'acquis solides et de raccourcis fragiles.
Le rôle de la puissance publique dans le développement des outils numériques
L'État n'a pas été spectateur du développement des outils numériques éducatifs, il en a été, à sa manière, un architecte discret. Dès les années 1980, le plan « Informatique pour tous » pose l'idée que l'équipement numérique des écoles est une responsabilité collective. Dans les décennies suivantes, les collectivités territoriales financent le déploiement des ENT, les régions équipent les lycées, les départements les collèges, créant le socle sans lequel aucun logiciel éducatif ne pourrait fonctionner à l'échelle nationale.
Le soutien public s'est affiné pour descendre jusqu'à la production de contenus. Le programme Édu-Up cofinance à hauteur de 50 % des projets innovants de ressources numériques, qu'ils soient portés par des entreprises, des associations ou des fondations, avec des exigences pédagogiques, juridiques et techniques qui servent de filtre qualité. C'est dans ce cadre que FizziQ Junior a été cofinancé, ou que des outils d'accessibilité pour élèves à besoins particuliers ont pu voir le jour sans modèle économique viable. France 2030 a prolongé cet effort : les Territoires Numériques Éducatifs ont mobilisé 25 millions d'euros pour sélectionner et déployer 69 solutions dans 12 départements pilotes, avec formation des enseignants intégrée. BpiFrance accompagne les startups EdTech en amorçage via la Bourse French Tech et les prêts d'innovation, tandis que le fonds Educapital intervient en fonds propres pour les acteurs ayant franchi l'étape de la validation pédagogique.
L'apport le plus structurant reste celui des institutions académiques qui produisent elles-mêmes des communs numériques. Capytale, né en intrapreneuriat à l'académie de Paris, connecté à tous les ENT de France et rassemblant plus de 6 000 activités mutualisées par des enseignants, en est l'exemple le plus abouti. Le GAR, géré par RENATER pour le compte du ministère, résout à l'échelle nationale le problème de la fragmentation des authentifications. Ces réalisations montrent que la puissance publique, quand elle agit sur les bons leviers, infrastructure, interopérabilité, communs, peut produire des effets qu'aucun acteur privé n'aurait ni intérêt ni capacité à générer.
Ce qui manque encore, c'est une coordination explicite entre ces couches : un enseignant navigue aujourd'hui entre un ENT régional, un outil financé par Édu-Up, une ressource sélectionnée par les TNE et un commun académique, sans percevoir d'architecture d'ensemble. L'IA, en multipliant les acteurs capables de produire, rend cette coordination plus urgente que jamais.
L’IA comme logiciel ultime : quand la machine s’adapte à chaque élève
L'arrivée des grands modèles de langage dans les usages scolaires à partir de 2022 constitue une rupture d'une nature différente de toutes les précédentes. Jusqu'ici, chaque outil éducatif était conçu pour une discipline, un niveau, un type d'activité. L'IA générative n'a pas de domaine : elle répond à n'importe quelle question, dans n'importe quelle discipline, à n'importe quelle heure, dans la langue et le registre de l'utilisateur. Elle s'adapte au niveau sans qu'on le lui indique, reformule jusqu'à être comprise, ne juge pas, ne se lasse pas. Pour un élève qui bute sur un exercice de cinématique à 23h, c'est un tuteur toujours disponible.
Les usages se développent vite, de manière diffuse et largement invisible aux yeux de l'institution. Les élèves utilisent ChatGPT, Claude ou Gemini pour reformuler un cours, expliquer un concept, vérifier un raisonnement, parfois pour comprendre, parfois pour contourner. Des outils plus spécialisés émergent : Khanmigo, tuteur IA de Khan Academy, guide l'élève par questions plutôt que par réponses. L'Éducation nationale, avec PIX IA, tente de former les élèves à un usage critique de ces outils plutôt que de les interdire.
Ce qui rend cette rupture profondément différente des précédentes, c'est la question du contrôle. Quand un élève utilise Régressi ou PhET, l'enseignant sait ce que l'outil fait, ce qu'il montre, selon quelle logique. Quand il utilise un LLM, il entre dans un système sur lequel l'enseignant n'a aucune prise : ni sur le narratif, ni sur les sources invoquées, ni sur la façon dont le savoir est mis en forme. Le modèle peut simplifier là où la rigueur est nécessaire, rassurer là où l'effort devrait s'imposer, proposer une explication fluide et convaincante qui n'est pas juste.
La question n'est pas celle de l'interdiction, qui serait aussi vaine que de chercher à interdire Internet. Elle est celle de la place que ces outils occupent dans la relation éducative, et du rôle que l'enseignant peut encore jouer quand l'élève dispose d'un accès direct, permanent et fluide à une machine qui répond à tout. L'IA générative est peut-être le premier outil numérique qui ne vient pas compléter le dispositif éducatif, elle le court-circuite.
L’IA comme outil de production : vers une renaissance des créateurs ?
L'intelligence artificielle ne modifie pas seulement la façon dont les élèves accèdent au savoir. Elle modifie la façon dont les logiciels eux-mêmes sont produits, et cette transformation est peut-être, à plus long terme, la plus structurellement significative.
Pendant des décennies, créer un bon logiciel éducatif demandait une conjonction rare : la compétence disciplinaire d'un enseignant, la maîtrise technique d'un développeur, et le temps, souvent celui de week-ends et de vacances scolaires consacrés à un projet sans rémunération. Régressi a demandé une carrière. PhET a nécessité des années de développement et le poids symbolique d'un prix Nobel pour convaincre une université de le financer. Ce prix, en temps, en compétences, en renoncements, a limité le nombre de créateurs à une poignée de personnes exceptionnellement motivées.
Les outils de codage assisté par IA changent cette équation radicalement. Un enseignant de physique avec une vision pédagogique claire mais une programmation limitée peut aujourd'hui produire un prototype fonctionnel en quelques semaines. Les outils produits seront probablement meilleurs sur plusieurs dimensions : interfaces modernes en HTML5, adaptation fine aux programmes officiels, mise à jour rapide lors des réformes, multiplateforme par défaut.
Cette démocratisation porte une promesse réelle : une renaissance du modèle enseignant-créateur, à une échelle et une vitesse sans commune mesure avec les années 1990. Mais elle porte aussi un risque symétrique : si tout le monde peut produire son propre outil, la fragmentation déjà documentée pourrait passer de quelques dizaines d'environnements à plusieurs centaines, sans interopérabilité, sans maintenance garantie au-delà de l'enthousiasme initial de leur créateur.
Il y a enfin une question de nature. Quand le code est produit en grande partie par une machine entraînée sur la connaissance collective de l'humanité, la valeur du logiciel ne réside plus dans les lignes de code elles-mêmes, elle réside dans la vision pédagogique qui l'a guidé. Ce déplacement renforce l'argument de l'open source : un code que la machine a contribué à écrire à partir du savoir commun appartient, d'une certaine manière, à la communauté dont ce savoir est issu.
Conclusion
L'histoire des logiciels scientifiques scolaires est, au fond, une histoire de confiance : confiance faite aux enseignants pour identifier les besoins réels de la classe, confiance faite aux institutions pour protéger ce qui ne peut pas être laissé au marché, confiance faite aux élèves pour apprendre avec des outils qui leur ressemblent. Les trois décennies qui précèdent dessinent une trajectoire cohérente : des créateurs isolés aux fondations académiques, des simulations Flash aux capteurs Bluetooth, chaque étape a élargi ce qui est possible en classe sans jamais résoudre définitivement la question de ce qui est souhaitable.
L'intelligence artificielle rouvre cette question sur deux fronts simultanés. D'un côté, elle se pose comme l'outil ultime de l'apprentissage, disponible à toute heure, capable d'informer, d'expliquer, de corriger des copies, de rédiger des exercices, de générer des vidéos ou des diagrammes à la demande. De l'autre, cette même puissance peut être mise au service de la création d'outils nouveaux, qui vivront leur propre vie au service de l'éducation. Un professeur de physique avec une idée précise et quelques semaines de travail peut aujourd'hui concevoir ce que Jean-Michel Millet n'aurait pu construire qu'en années. Ce potentiel mérite d'être activement encouragé : par des dispositifs de financement adaptés aux projets individuels, par des espaces de mutualisation où ces créations peuvent être partagées, améliorées et maintenues collectivement, et par une reconnaissance institutionnelle du temps que cela demande.
La diversité des outils spécialisés, crées par des individus, des fondations ou des Edtech, n'est pas un archaïsme face à l'IA généraliste, elle en est le contrepoids nécessaire. Un logiciel conçu pour pointer une trajectoire, simuler un titrage ou visualiser un champ magnétique offre ce qu'aucun système à tout faire ne peut garantir : un cadre pédagogique délibéré, une progression pensée, un ancrage dans les programmes.



Commentaires