La personnalisation portée par l’intelligence artificielle s’impose dans les plateformes de formation. Promesse d’efficacité, elle pourrait pourtant enfermer les apprenants dans des univers trop lisses, où tout confirme et rien ne bouscule. En reproduisant les mécanismes de filtrage des réseaux sociaux, les outils intelligents risquent de priver la formation de sa fonction critique et transformatrice. Bulles cognitives, biais renforcés, alignement excessif : des effets pervers qu’il est urgent d’anticiper, pour préserver la richesse de l’apprentissage… et la performance collective.
Quand la personnalisation devient enfermement
Il est tentant de croire que plus un contenu est adapté à un profil, plus il sera efficace. Le raisonnement paraît imparable : à chaque collaborateur, son parcours, ses contenus, ses formats, ses modalités. Néanmoins, cette personnalisation tous azimuts peut rapidement glisser vers un filtrage excessif. L’apprenant ne voit plus que ce qui lui ressemble. Il est exposé à des savoirs qui confirment ses représentations, jamais à ceux qui les bousculent. Le moteur de recommandation, censé guider, devient un mur invisible. On parle de bulle de filtre : l’environnement numérique n’est plus un espace d’ouverture, mais de confort cognitif. L’utilisateur y reste, parce qu’il s’y sent bien. Mais il n’en sort plus. Les systèmes d’IA embarqués dans les plateformes d’apprentissage y contribuent puissamment. À partir des interactions passées, des préférences exprimées ou déduites, de la formulation des requêtes, ils calculent, anticipent, ajustent. Et, ce faisant, ils enferment. La promesse d’intelligence devient une fabrique d’évidence.
Des effets concrets sur les pratiques d’apprentissage
Le principal risque est l’appauvrissement. Quand tout confirme, rien ne transforme. Les parcours deviennent linéaires, les contenus redondants, la pensée homogène. Loin de provoquer le doute ou la réflexion, la formation ne fait que conforter les évidences. Les biais cognitifs — notamment celui de confirmation — trouvent un terrain idéal pour se déployer. Loin d’enrichir la culture de l’apprenant, les systèmes adaptatifs peuvent restreindre son horizon. Moins d’idées nouvelles, moins de confrontation de points de vue, moins d’occasions de changer d’avis. Les plateformes filtrent pour mieux séduire ; elles finissent par isoler. Les écarts se creusent : ceux qui disposent déjà d’un bon capital culturel sauront mieux interagir avec les outils, mieux formuler leurs requêtes, mieux tirer parti des contenus. Les autres se retrouvent enfermés dans des parcours plus pauvres, moins diversifiés, moins exigeants. L’IA, pourtant pensée comme levier d’inclusion, reproduit alors des inégalités qu’elle aurait pu corriger. Pire : dans sa logique d’apprentissage supervisé, elle amplifie ce qu’elle identifie comme efficace, au risque de marginaliser les profils moins conformes à la norme statistique.
Des impacts organisationnels difficilement mesurables, mais bien réels
L’organisation aussi finit par en payer le prix. L’illusion d’efficacité masque une perte de créativité. À force de conforter les idées dominantes, on bride l’innovation. À force de sélectionner des contenus « pertinents », on prive les équipes de signaux faibles. L’entreprise devient incapable d’anticiper les ruptures. Une culture trop homogène, trop filtrée, affaiblit le collectif. Elle produit des collaborateurs parfaitement alignés, mais incapables de dialoguer avec ceux qui pensent autrement. Le conformisme n’est pas un gage de performance durable. La bulle ne touche pas que les apprenants. Les concepteurs, s’ils s’en remettent aveuglément aux IA génératives pour produire des ressources pédagogiques, risquent de ne plus produire que ce qui « fonctionne », en abandonnant la part expérimentale et exploratoire pourtant essentielle à tout projet d’apprentissage. À force d’optimiser, on finit par stériliser.
Comment rouvrir le jeu
Il faut remettre de la diversité dans les parcours. D’un point de vue technique, cela signifie permettre aux utilisateurs de sortir volontairement de la logique de recommandation, proposer des contenus hors profil, diversifier les formats, croiser les sources. Certaines plateformes intègrent déjà des fonctions de “contre-recommandation” : elles injectent des contenus inattendus, volontairement dissonants, dans les fils de formation. D’un point de vue pédagogique, c’est l’occasion de renforcer les compétences transversales : esprit critique, capacité à douter, goût du débat, aptitude à la remise en question. Ces soft skills-là deviennent essentielles dans un monde saturé d’outils filtrants. Enfin, l’accompagnement humain reste la meilleure arme contre l’enfermement algorithmique. Le rôle du tuteur, du manager, du coach devient crucial. Il s’agit de jouer le miroir, de provoquer le décentrage, d’encourager les questions plutôt que les réponses immédiates. Ce n’est pas la technologie qu’il faut fuir, mais le réflexe de s’y abandonner sans garde-fous. Former à l’IA ne suffit pas : il faut former avec l’IA, contre ses biais et ses angles morts.
La bulle, un levier possible sous conditions
Dans certains contextes, pourtant, la logique de la bulle peut être mobilisée à bon escient. Pour accompagner une phase d’intégration, faire vivre une culture d’entreprise, transmettre une vision stratégique, un environnement de formation fortement cadré peut jouer un rôle structurant. À condition de ne pas s’y installer. La bulle ne doit pas devenir un écosystème permanent, mais un espace temporaire d’alignement. Dès que la culture est partagée, il est essentiel de rouvrir le spectre. La formation ne doit pas être un écho rassurant, mais un tremplin vers l’inconnu. Si l’on parvient à conjuguer personnalisation, ouverture et accompagnement, alors l’intelligence artificielle cessera d’être une machine à conformer pour redevenir un levier d’émancipation.
|