Quand Séoul a lancé, en mars 2025, ses manuels scolaires alimentés par intelligence artificielle, l’annonce ressemblait à un bond dans le futur. Une dizaine d’éditeurs, des centaines d’ingénieurs, près de deux billions de wons d’investissement public et privé (quelque 1,17 milliard d’euros)… Le pays se rêvait en pionnier de l’éducation personnalisée, celle qui diagnostique automatiquement les lacunes, adapte les exercices en temps réel et promet d’alléger la charge des enseignants.
Quatre mois plus tard, l’image est tout autre : plaintes d’enseignants, élèves perdus, parents en colère, et un Parlement qui rétrograde en urgence ces manuels – destinés à l’apprentissage des maths, de l’anglais et de l’informatique – en simple matériel supplémentaire, rapporte The Korea Herald. La promesse d’un apprentissage boosté à l’IA s’est dissoute dans un mélange de précipitation et de naïveté technologique.
Un futur trop vite déployé
Sur le terrain, les premiers retours ont été implacables. Les cours démarrent en retard, le logiciel plante, les exercices ne correspondent pas au niveau réel des élèves. Les enseignants passent plus de temps à dépanner qu’à enseigner, souligne le site Rest of World. Dans de nombreuses écoles, les manuels IA génèrent… plus de travail, pas moins. Les élèves, eux, se retrouvent seuls face à une interface opaque qu’ils ne maîtrisent pas toujours – et qu’ils ont tôt fait de contourner.
Les critiques les plus sévères portent sur la qualité : erreurs factuelles, consignes mal formulées, exercices inadaptés. Un paradoxe pour un outil présenté comme “intelligent”. “Suivre les progrès des élèves avec ces manuels en classe était difficile, a déclaré un professeur de mathématiques du secondaire, selon Futurism. La qualité générale était médiocre et il était clair qu’ils avaient été conçus à la hâte.” À cela s’ajoutent les inquiétudes liées aux données, dans un pays où la pression académique est extrême et où le moindre historique peut conditionner l’accès à des écoles privées.
Une crise politique autant que technologique
Le fiasco tient aussi à un contexte politique électrique. L’ancien président Yoon Suk-yeol, qui a quitté ses fonctions en avril 2025, en avait fait un symbole de modernisation nationale. Son impeachment, puis l’arrivée au pouvoir d’un président opposé au projet, ont accéléré le désengagement institutionnel. Résultat : un programme porté à marche forcée, sans phase test crédible, ni évaluation indépendante.
Sur le terrain, cela se traduit par une chute rapide du taux d’utilisation : de 37 % d’écoles au printemps à 19 % après l’été. En outre, une pétition publique a réuni plus de 56 000 signatures de parents d’élèves mécontents entre mai et juin dernier. Les éditeurs, qui avaient embauché massivement des ingénieurs IA, annoncent maintenant restructurations et licenciements. Et les enseignants comme les élèves ne savent plus ce que l’État attend d’eux.
Leçons d’un crash-test mondial
Ce qui se joue en Corée dépasse largement ses frontières. Car le pays constituait un cas d’école : système éducatif performant, infrastructure numérique poussée, population familière des outils tech. Si l’IA scolaire échoue là, que peut-on en attendre ailleurs ?
Première leçon : l’IA ne remplace pas la pédagogie. Nombre d’enseignants coréens racontent des situations où le manuel IA proposait à tous les élèves la même logique d’exercice, ou des contenus trop complexes, voire erronés. L’adaptativité promise, censée être le cœur du dispositif, s’est révélée superficielle. Une conclusion s’impose : une IA mal entraînée entraîne mal.
Seconde leçon : l’éducation ne se pilote pas comme un lancement de produit technologique. Une classe, ce n’est pas un marché test A/B. C’est une communauté humaine, avec un temps long, des besoins diversifiés et une vulnérabilité propre – notamment chez les plus jeunes. L’approche “move fast and break things” (bouger vite et faire de la casse) ne fonctionne pas quand ce qui peut casser, ce sont des trajectoires scolaires et un développement apaisé des enfants.
Le risque de l’hyper-individualisation
L’un des paradoxes de la stratégie IA à l’école tient à son objectif : personnaliser l’apprentissage. Mais en Corée du Sud, plusieurs enseignants constatent que l’usage individuel sur écran fragilise la dynamique collective : moins d’échanges, moins de coopération, davantage d’élèves isolés dans leurs difficultés.
La personnalisation algorithmique place chaque enfant dans un tunnel pédagogique dont il ne connaît ni les critères, ni la logique, ni la finalité. À quel moment décide-t-on qu’une répétition d’exercices devient une stigmatisation ? Qui contrôle la façon dont l’algorithme interprète une erreur ? Que se passe-t-il quand l’IA attribue systématiquement un niveau trop bas – ou trop haut ?
Là encore, la Corée agissait comme laboratoire. Et les signaux sont clairs : on ne peut pas laisser un enfant seul face à un système qui ne rend pas visible ses propres mécanismes.
Et en France ? Une prudence… toute relative
Vu de Paris, cette mésaventure a tout d’un avertissement. L’Éducation nationale, elle aussi, expérimente des outils d’aide à la correction, des générateurs d’exercices, et commence à regarder les tuteurs IA proposés par les grands acteurs du numérique. Le ministère évoque une “IA au service de la réussite des élèves”, tout en assurant que l’humain restera central. Mais l’idée de manuels interactifs “augmentés” circule déjà dans plusieurs académies.
La tentation est grande : classes surchargées, manque d’enseignants, inégalités territoriales… l’IA semble promettre des solutions rapides. Mais le cas coréen montre qu’introduire l’IA à l’école sans répondre à la même impasse. Il faut d’abord clarifier trois points : le contrôle et l’usage des données ; la validation pédagogique ; la formation réelle des enseignants. Il faut se poser la question du contrôle des données et de leur usage, de qui valide la qualité pédagogique. Enfin, reste aussi à former les enseignants. Sur ce point, la France peut tirer un enseignement simple : l’IA ne devrait pas être introduite pour compenser des manques structurels, mais pour renforcer ce qui fonctionne déjà.
Comme en Corée, le risque est grand de voir l’éducation devenir un terrain d’affrontement idéologique autour de l’IA. Techno-enthousiastes contre techno-sceptiques, partisans de la modernisation contre défenseurs du papier… l’opposition est trop simpliste. La question n’est pas d’être pour ou contre l’IA, mais de savoir quelle IA, pour quoi, et à quelles conditions. L’école n’a pas besoin d’outils futuristes, mais d’outils fiables. Pas d’un remplacement, mais d’un renforcement.
Une innovation précieuse… à condition d’être mieux encadrée
Ironiquement, même en Corée du Sud, beaucoup d’enseignants reconnaissent que certains aspects fonctionnaient bien. Les élèves en difficulté bénéficiaient d’explications supplémentaires. Les outils ludiques retenaient davantage leur attention. Les élèves allophones pouvaient ajuster la vitesse ou la formulation des consignes. L’IA n’est pas un échec en soi – c’est son déploiement qui l’a été.
L’enseignement à tirer est limpide : l’IA peut aider si elle est introduite progressivement, testée sérieusement, intégrée à la pédagogie… et si elle laisse les enseignants maîtres du jeu. Au fond, la vraie question posée par l’expérience coréenne est simple : veut-on une école où l’intelligence artificielle adapte les manuels aux enfants… ou une école qui reste centrée sur l’intelligence humaine – celle des élèves comme des enseignants ?