Quand les IA s’auto-intoxiquent, ce sont d’abord les contenus, puis les décisions, et enfin les organisations qui trinquent. La fonction formation, grande consommatrice de solutions IA, en fera-t-elle les frais plus vite que prévu ? Car à force de nourrir les modèles avec leurs propres productions, la machine se referme sur elle-même. Les contenus s’uniformisent, les biais s’installent, les réponses perdent leur finesse, leur justesse, et leur utilité pédagogique. Derrière l’illusion d’un gain d’efficacité se cache une spirale appauvrissante, lente mais sûre. Les décideurs formation doivent désormais se poser une question simple : continuons-nous à automatiser sans discernement, ou décidons-nous de conserver, sinon de reprendre, la main sur la qualité des savoirs ?
L’illusion d’un progrès infini
Comme tant d’autres secteurs, celui de la formation a donc cédé aux sirènes de l’IA générative. Programmes personnalisés, tutoriels automatisés, assistants conversationnels : les promesses sont nombreuses, les coûts unitaires séduisants. Sauf qu’un danger se tapit derrière l’apparente modernité de ces outils. Baptisé "Habsburg AI" par le chercheur Jathan Sadowski dès 2023, ce syndrome désigne une dégénérescence progressive des modèles d’intelligence artificielle qui s’entraînent sur leurs propres productions… Inspirée d'une certaine déchéance génétique de la dynastie des Habsbourg (on pense au célèbre menton des portraits de Diego Velázquez), l’image frappe juste : à mesure que les IA réutilisent des données générées par d'autres IA, leurs réponses perdent en diversité, en pertinence, en créativité. L’illusion d’un progrès linéaire se brise sur la réalité inquiétante d’un effondrement progressif de la qualité des contenus. Des publications scientifiques l’ont démontré : il suffit de quelques générations d’auto-entraînement pour que les modèles se contractent autour d’un centre mou, répétitif, biaisé. Et le phénomène est exponentiel. Ce processus illustre, à sa manière, le deuxième principe de la thermodynamique : sans apport d’énergie ou de matière fraîche, tout système tend vers l’entropie, la désorganisation, et ici, l’appauvrissement !
Une menace directe pour la fonction formation
Le syndrome Habsburg AI est déjà à l’œuvre dans des contenus de formation générés à la volée, voire recyclés à l’excès. Des modèles internes qui régurgitent leurs propres réponses à l’infini. Des moteurs de création de modules qui piochent leurs données dans des bases déjà synthétiques. Des assistants qui, à force de s’auto-citer, finissent par tourner en rond. Ce recentrage algorithmique efface progressivement la variété des cas, des approches et des profils. L’adaptabilité aux publics spécifiques – primo-accédants, experts, profils atypiques – s’érode rapidement. La promesse de personnalisation s’effondre sur elle-même. Pire encore : les contenus deviennent si homogènes qu’ils perdent leur efficacité pédagogique. Les vidéos se teintent toutes de la même lumière, les textes s’uniformisent, les exemples deviennent interchangeables. À force de nourrir les modèles avec leurs propres productions, on les prive de réalité. Résultat : la fonction formation perd en crédibilité, en impact, et en capacité d’accompagnement stratégique. C’est le risque d’un divorce avec les clients internes et les parties prenantes, lassés de contenus stériles, peu différenciants, ou franchement inadaptés. On notera que cette uniformisation n'a certes pas attendu l'avénement de l'IA (confère les modules e-learning produits depuis 20 ans), mais que le phénomène accélère grandement, au point d'une perte de contrôle ? et qu'il n'a cessé de s'étendre, par exemple dans le marketing des fournisseurs : les lecteurs pourraient bien se lasser de ces posts tous ressemblants, finalement apparentés à de la "junk food".
Comment s’en prémunir, à quel prix
Les réponses à ce syndrome ne sont ni simples ni bon marché. Premier réflexe : exiger que les données d'entraînement des IA utilisées dans les outils formation soient d’origine humaine, documentée, traçable. Cela suppose de se détourner partiellement – ou totalement – des solutions low cost fondées sur du contenu synthétique. Cela impose aussi de challenger les prestataires : quelles sont leurs sources ? Comment marquent-ils les contenus générés par IA ? Peu savent répondre clairement. Ensuite, il faudra veiller à limiter les cycles d’auto-optimisation algorithmique sans supervision humaine. Plus un modèle est réentraîné sans corpus neuf, plus il s’appauvrit. Cela signifie que la fonction formation devra redevenir co-productrice de ses contenus, en impliquant experts-métiers, formateurs, et apprenants dans la chaîne de création. Enfin, vient la question des coûts. Oui, recruter des experts, constituer des bases de données authentiques, auditer les corpus, revient plus cher. Oui, cela alourdit les temps de développement. Mais quel est le prix de l’inauthenticité ? Celui de l’inefficacité. Celui d’une formation qui, à force de se singer elle-même, finit par ne plus former personne. Une infime dose de données corrompues suffit à dégrader l’ensemble du système. Il est donc temps de faire un choix stratégique : investir dans la qualité humaine… ou sombrer dans la médiocrité algorithmique.
Source : Inbred, gibberish or just MAD? Warnings rise about AI models
|