ELEARNINGLETTER
ACTUALITE & STRATEGIES DIGITAL LEARNING
ACTUALITÉS ÉVÉNEMENTS OFFRES D'EMPLOIS COMMUNIQUÉS ANNUAIRE DES PREMIUM CONTRIBUTEURS S'ABONNER À LA NEWSLETTER
Contenus de formation : le doute est-il encore possible ?
29 OCTOBRE 2025
Michel Diaz
directeur de la rédaction
e-learning letter
Une réponse sur deux produite par les assistants numériques contiendrait des erreurs… Ce constat dépasse le champ de l’information : il menace la fiabilité des contenus de formation qui s’appuient — souvent sans le dire — sur les mêmes mécanismes de génération et de synthèse automatique.

Un signal fort pour les responsables formation-RH

L’étude News Integrity in AI Assistants, coordonnée par la BBC et l’Union européenne de radio-télévision (EBU), a testé plus de 3 000 réponses d’assistants numériques — ChatGPT, Microsoft Copilot, Google Gemini, Perplexity… Résultat : dans leur utilisation, 45 % comportent au moins une erreur significative, et 81 % présentent une forme de distorsion de l’information. Certaines réponses inventent des faits, d’autres citent de fausses sources ou réinterprètent des données (Google Gemini atteint jusqu’à 72 % de réponses problématiques selon les chercheurs !). Pour les professionnels de formation, c'est un signal fort : si ces technologies servent à produire ou résumer des contenus pédagogiques, le risque d’erreur se propage à bas bruit dans les dispositifs internes. On parle ici de cours, d’assistants d’apprentissage, de FAQ d’entreprise, de résumés automatiques… Tout un pan du savoir professionnel qui pourrait se voir contaminé par des inexactitudes difficilement détectables.

Quand l’automatisation brouille le savoir

Ce que révèle cette étude, c’est moins la faiblesse des outils que la puissance que revêt, aux yeux de la plupart des utilisateurs, l'illusion de de leur fiabilité. Une illusion potentiellement redoutable dans le champ de la formation : l’entreprise qui confie à un moteur automatisé la synthèse de ses connaissances internes croit gagner du temps — elle perd parfois en vérité. Les biais identifiés par les chercheurs sont qualifiés de “systémiques” : ils se répètent à travers les langues, les cultures, les thématiques, avec un risque d'amplification lorsque les assistants IA sont utilisés à des fins de traduction. Une erreur récurrente devient alors une norme implicite. Pour un dispositif d’apprentissage, c’est la fin de la traçabilité : qui a produit cette phrase, sur quelle base, et avec quel niveau de certitude ? Dans les catalogues digitaux, dans les parcours d’onboarding, dans les supports de formation managériale, cette dilution des sources peut devenir un risque majeur. Car une connaissance mal transmise n’est pas neutre : elle modifie les comportements, influence les décisions, installe des croyances fausses avec le vernis du progrès. Dans le monde renversé, tel que produit par l'IA, la prévision de Guy Debord semble s'actualiser puissamment : le vrai devient un moment du faux. 

Les trois angles morts de la formation automatisée

Premier angle mort : la vérification. Dans l’étude, un cinquième des réponses comportait des erreurs de fond — lois mal citées, faits historiques réécrits, chiffres inventés. La formation qui s’appuie sur de tels extraits se fragilise. Deuxième angle mort : la contextualisation. Les outils testés peinent à distinguer faits et opinions, à hiérarchiser les informations, à repérer la nuance. Or c’est justement cette nuance que les formations doivent cultiver. Troisième angle mort : la responsabilité. Quand un module généré par automatisation diffuse une erreur, qui en répond ? L’entreprise, le concepteur, le fournisseur de la technologie ? Dans un contexte de conformité accrue, notamment sur les thématiques sensibles (santé, sécurité, éthique, inclusion), cette question n’est plus académique. Le contenu produit automatiquement n’est pas seulement plus rapide : il est plus risqué. (On notera au passage que diverses temporalités viennent se percuter : l'instantanéité de la production par l'IA, qu'on assimilera à tort à un formidable gain de productivité, et le temps long qui construit les savoirs fondamentaux, dont la connaissance intime des métiers.)

Former à apprendre autrement

Le défi n’est pas de bannir l’automatisation, mais de la dompter. Les responsables formation doivent apprendre à gouverner le savoir numérique, pas seulement à le distribuer. Cela suppose de mettre en place des procédures de validation, des chartes de production, et surtout une culture d’esprit critique. Chaque collaborateur doit être formé non seulement à son métier, mais aussi à la lecture du savoir automatisé : comment une synthèse est-elle produite ? sur quelles sources ? avec quels biais possibles ? L’étude BBC-EBU, par son ampleur et son autorité, rappelle une évidence que l’innovation avait presque fait oublier : apprendre, c’est aussi (plus que jamais) douter. Dans un monde où le savoir se réécrit tout seul, l’esprit critique devient la première compétence à enseigner.

Le rapport complet : News Integrity in AI Assistants

ARTICLES RÉCENTS DANS LA MÊME THÉMATIQUE contenus & pédagogies
Contenus de formation : le doute est-il encore possible ? •SUITE Sora2 change tout… sauf la pédagogie •SUITE
L’adaptive learning dans Moodle : entre innovation technologique, éthique et souveraineté numérique •SUITE Créer une motivation durable pour l’apprentissage des langues : entre IA, personnalisation et accompagnement humain •SUITE
Neurosciences et engagement : capter l’attention dans un monde distrait •SUITE Former autrement : personnalisation, gamification et marketing de la formation au service de l’engagement •SUITE
Les vertus du "pas à pas" dans l'apprentissage •SUITE Quand la formation vire au slop (soupe tiède) •SUITE
Maîtrise du français au travail : une compétence encore trop négligée •SUITE Le niveau de français en entreprise : ennemi public méconnu ? •SUITE
page précédente retour à l'accueil tous les articles
À LIRE CETTE SEMAINE
La robotisation impose le grand virage des compétences... •SUITE
Contenus de formation : le doute est-il encore possible ? •SUITE
L'ascension fulgurante d'un nouveau champion de la... •SUITE
Acheter français : les Directions Formation y sont-elles... •SUITE
Le LMS : toujours critiqué, mais toujours là (pour de... •SUITE
Évaluer pour révéler : l’évaluation comme moteur du... •SUITE
OFFRES D'EMPLOI
Chef(fe) de la mission e-formation
ENSP (Ecole Nationale Supérieure de la Police)
Account Executive
7SPEAKING
ILS INFORMENT
Mandarine Academy : Comment anticiper les menaces invisibles qui fragilisent la...
Experquiz : Des nouveautés sur la plateforme Experquiz
PROCHAINS ÉVÉNEMENTS
Webinaire: Moodle LMS x ReadSpeaker
04 NOVEMBRE 2025 / Enovation
Intégrer l’IA à ses pratiques pédagogiques
18 NOVEMBRE 2025 / ISTF
LES PLUS LUS
Comment assurer la maîtrise totale des connaissances ?
Former à Moodle autrement : quand la pédagogie guide la...
Neurosciences et engagement : capter l’attention dans...
Former, c'est engager !
Dernières annonces de ChatGPT : bouleversement attendu dans...
IA clandestine et inertie numérique : un cocktail à haut...
L’équipe apprenante pour de vrai ? C'est possible (et...
reviVRe : la réalité virtuelle au service de la formation...
INSCRIPTION NEWSLETTER CONTACTEZ NOUS PUBLIEZ OFFRE D'EMPLOI PUBLIEZ ACTUALITÉ MENTIONS LÉGALES CENTRE DE PRÉFÉRENCES
www.e-learning-letter.com - © copyright e-learning Media 2025 - images fournies par Adobe Stock et Freepik - tous droits réservés - déclaration CNIL n°1717089 - email : informations@e-learning-letter.com - création : Fair Media ®