ELEARNINGLETTER
ACTUALITE & STRATEGIES DIGITAL LEARNING
ACTUALITÉS ÉVÉNEMENTS OFFRES D'EMPLOIS COMMUNIQUÉS ANNUAIRE DES PREMIUM CONTRIBUTEURS S'ABONNER À LA NEWSLETTER
Contenus de formation : le doute est-il encore possible ?
29 OCTOBRE 2025
Une réponse sur deux produite par les assistants numériques contiendrait des erreurs… Ce constat dépasse le champ de l’information : il menace la fiabilité des contenus de formation qui s’appuient — souvent sans le dire — sur les mêmes mécanismes de génération et de synthèse automatique.

Un signal fort pour les responsables formation-RH

L’étude News Integrity in AI Assistants, coordonnée par la BBC et l’Union européenne de radio-télévision (EBU), a testé plus de 3 000 réponses d’assistants numériques — ChatGPT, Microsoft Copilot, Google Gemini, Perplexity… Résultat : dans leur utilisation, 45 % comportent au moins une erreur significative, et 81 % présentent une forme de distorsion de l’information. Certaines réponses inventent des faits, d’autres citent de fausses sources ou réinterprètent des données (Google Gemini atteint jusqu’à 72 % de réponses problématiques selon les chercheurs !). Pour les professionnels de formation, c'est un signal fort : si ces technologies servent à produire ou résumer des contenus pédagogiques, le risque d’erreur se propage à bas bruit dans les dispositifs internes. On parle ici de cours, d’assistants d’apprentissage, de FAQ d’entreprise, de résumés automatiques… Tout un pan du savoir professionnel qui pourrait se voir contaminé par des inexactitudes difficilement détectables.

Quand l’automatisation brouille le savoir

Ce que révèle cette étude, c’est moins la faiblesse des outils que la puissance que revêt, aux yeux de la plupart des utilisateurs, l'illusion de de leur fiabilité. Une illusion potentiellement redoutable dans le champ de la formation : l’entreprise qui confie à un moteur automatisé la synthèse de ses connaissances internes croit gagner du temps — elle perd parfois en vérité. Les biais identifiés par les chercheurs sont qualifiés de “systémiques” : ils se répètent à travers les langues, les cultures, les thématiques, avec un risque d'amplification lorsque les assistants IA sont utilisés à des fins de traduction. Une erreur récurrente devient alors une norme implicite. Pour un dispositif d’apprentissage, c’est la fin de la traçabilité : qui a produit cette phrase, sur quelle base, et avec quel niveau de certitude ? Dans les catalogues digitaux, dans les parcours d’onboarding, dans les supports de formation managériale, cette dilution des sources peut devenir un risque majeur. Car une connaissance mal transmise n’est pas neutre : elle modifie les comportements, influence les décisions, installe des croyances fausses avec le vernis du progrès. Dans le monde renversé, tel que produit par l'IA, la prévision de Guy Debord semble s'actualiser puissamment : le vrai devient un moment du faux. 

Les trois angles morts de la formation automatisée

Premier angle mort : la vérification. Dans l’étude, un cinquième des réponses comportait des erreurs de fond — lois mal citées, faits historiques réécrits, chiffres inventés. La formation qui s’appuie sur de tels extraits se fragilise. Deuxième angle mort : la contextualisation. Les outils testés peinent à distinguer faits et opinions, à hiérarchiser les informations, à repérer la nuance. Or c’est justement cette nuance que les formations doivent cultiver. Troisième angle mort : la responsabilité. Quand un module généré par automatisation diffuse une erreur, qui en répond ? L’entreprise, le concepteur, le fournisseur de la technologie ? Dans un contexte de conformité accrue, notamment sur les thématiques sensibles (santé, sécurité, éthique, inclusion), cette question n’est plus académique. Le contenu produit automatiquement n’est pas seulement plus rapide : il est plus risqué. (On notera au passage que diverses temporalités viennent se percuter : l'instantanéité de la production par l'IA, qu'on assimilera à tort à un formidable gain de productivité, et le temps long qui construit les savoirs fondamentaux, dont la connaissance intime des métiers.)

Former à apprendre autrement

Le défi n’est pas de bannir l’automatisation, mais de la dompter. Les responsables formation doivent apprendre à gouverner le savoir numérique, pas seulement à le distribuer. Cela suppose de mettre en place des procédures de validation, des chartes de production, et surtout une culture d’esprit critique. Chaque collaborateur doit être formé non seulement à son métier, mais aussi à la lecture du savoir automatisé : comment une synthèse est-elle produite ? sur quelles sources ? avec quels biais possibles ? L’étude BBC-EBU, par son ampleur et son autorité, rappelle une évidence que l’innovation avait presque fait oublier : apprendre, c’est aussi (plus que jamais) douter. Dans un monde où le savoir se réécrit tout seul, l’esprit critique devient la première compétence à enseigner.

Le rapport complet : News Integrity in AI Assistants

ARTICLES RÉCENTS DANS LA MÊME THÉMATIQUE contenus & pédagogies
Le roleplay est l'avenir de la formation ! •SUITE La voix en formation : en progrès, mais d'un usage forcément limité •SUITE
« La performance se jouera à l’intersection humain–machine » •SUITE IA génératives : c'est mon choix ! •SUITE
L'image : nouveau cœur de la pédagogie ? •SUITE Règne du prompt paresseux : disparition programmée du discernement •SUITE
L’IA de confrontation : nouvelle école de la pensée ? •SUITE Du poil à gratter dans la relation pédagogique ? •SUITE
Combattre le vide : une mission d'intérêt public pour la formation •SUITE Contenus de formation : le doute est-il encore possible ? •SUITE
page précédente retour à l'accueil tous les articles
À LIRE CETTE SEMAINE
Les Chiffres Clés du digital learning by l’ISTF : édition... •SUITE
Du bon usage (par les Directions Formation) de... •SUITE
Former et s'entraîner… sous pluie fine ! •SUITE
Numérique et IA : l’erreur que les entreprises s’apprêtent... •SUITE
Chez ENGIE, la fin du mythe de la plateforme de formation... •SUITE
Le LMS entre dans une ère de simplification intelligente •SUITE
OFFRES D'EMPLOI
Account Executive
7SPEAKING
Chef de projet Marketing Digital
7SPEAKING
ILS INFORMENT
Experquiz : Diversifier les types de questions dans les évaluations
Mandarine Academy : Compétences 2026 : Mandarine Academy élargit ses catalogues pour...
PROCHAINS ÉVÉNEMENTS
Des rôles aux compétences : comment construire une organisation intelligente, alliant humains et IA
29 JANVIER 2026 / Skillsoft
Intervention Klara aux Learning Technologies - Du geste à la performance : la puissance du savoir-faire opérationnel
29 JANVIER 2026 / Klara HR
LES PLUS LUS
L'ascension fulgurante d'un nouveau champion de la...
Digital Learning : les vérités 2025 qui vont compter en 2026
Personnaliser les parcours pour faire des compétences un...
Trophées du Digital Learning 2026 : l’IA s’impose, les...
L’IA propulse Moodle 2026 comme puissant moteur de montée...
Former sous contrainte budgétaire à l'IFCAM : « Le...
L’IA ne promet plus : elle transforme déjà le Learning
La formation à l'Habilitation Assurance selon la Banque...
INSCRIPTION NEWSLETTER CONTACTEZ NOUS PUBLIEZ OFFRE D'EMPLOI PUBLIEZ ACTUALITÉ MENTIONS LÉGALES CENTRE DE PRÉFÉRENCES
www.e-learning-letter.com - © copyright e-learning Media 2026 - images fournies par Adobe Stock et Freepik - tous droits réservés - déclaration CNIL n°1717089 - email : informations@e-learning-letter.com - création : Fair Media ®