Tandis que les IA génératives s’invitent dans tous les services, la pratique du prompting s’impose comme l’interface par défaut. Trop vite sacralisée, elle révèle déjà ses limites… ainsi que son potentiel, notamment pour les concepteurs pédagogiques et les apprenants autonomes. Le point de départ d’une réflexion plus large sur nos usages, à l’heure où la maîtrise du langage redevient un levier stratégique.
Une pratique qui s’installe sans discussion
Le prompting s’est imposé comme un réflexe. Un prompt bien tourné, une réponse convaincante, un sentiment de puissance… et une illusion de contrôle. En quelques mois, cette gymnastique textuelle a infiltré les usages, du marketing à la formation, du stagiaire au CDO. S’il faut interroger l’IA, il faut le faire « avec art » : la phrase d’entrée devient un code, une recette, un geste technique. Cela suffit, croit-on, à apprivoiser l’intelligence artificielle. On en oublierait presque de questionner ce que cette forme de dialogue a de bancal, d’artificiel, de fragile. Le prompting n’est pas du langage naturel, c’est un mode de pilotage rudimentaire déguisé en conversation. Il fonctionne… jusqu’à ce qu’il ne fonctionne plus.
Promesses et effets de bord
Soyons justes : bien utilisé, le prompting ouvre des perspectives utiles, et parfois décisives. Dans les services formation, il facilite la création de supports, de quiz, de synopsis. Il accélère le passage de l’idée au prototype. Il permet d’explorer des styles, des formats, des structures. Il soulage la page blanche et muscle l’agilité éditoriale. Côté collaborateurs, il propose une porte d’entrée vers l’auto-apprentissage : formuler une question, tester une réponse, itérer, s’autocorriger. Il stimule une curiosité que trop de LMS ont laissée en jachère. Le problème est ailleurs : dans ce dialogue est bancal, parce que fondé sur des règles instables. On peut produire une réponse brillante avec une formulation, et obtenir un non-sens en modifiant une virgule. C’est là que l’expérience s’effondre. Le système ne comprend pas l’humain : il extrapole, il prédit, il déduit des mots, pas des intentions. L'utilisateur s’épuise à ajuster sa question pour faire dire à la machine ce qu’il voulait vraiment.
Le syndrome de la recherche Google
L’analogie est connue, mais elle résiste à l’usure. Google a mis à disposition des opérateurs puissants, des filtres avancés, des requêtes booléennes. Combien d’internautes les ont vraiment utilisés ? L’immense majorité s’en est tenue à quelques mots-clés balancés à la va-vite, avec des résultats souvent satisfaisants, parfois déroutants. Le prompting suit le même chemin. Une élite d’utilisateurs explore des astuces, raffine ses requêtes, invente des tours de passe-passe. Le reste tape “fais-moi un module e-learning sur la cybersécurité” et récupère une soupe fade à réchauffer sous Articulate. Entre les mains de la majorité, le prompting devient un miroir de nos approximations. Ce n’est pas une critique de l’utilisateur. C’est un rappel : les interfaces qui reposent uniquement sur des formulations textuelles, sans guidage ni garde-fous, ne peuvent pas tenir leur promesse d’accessibilité et de fiabilité.
Un signal faible à transformer en stratégie
« Prompting Considered Harmful » : l’article de James Landay dans Communications of the ACM enfonce le clou, dans lequel il annonce d’emblée que le prompting est une impasse ergonomique et cognitive, un héritage temporaire à dépasser d’urgence. Le prompting ne serait pas une solution pérenne ; il ne pourrait durablement fonder notre relation à l’IA. Penser d’autres interfaces : conversationnelles, visuelles, multimodales. Des systèmes qui comprennent l’ambiguïté, qui questionnent en retour, qui co-construisent. Mais surtout, il faut former. Former les équipes formation à l’analyse critique des réponses générées. Former les concepteurs à manipuler l’incertitude, à détecter les hallucinations, à piloter l’IA sans se laisser piloter. Former les collaborateurs à exprimer clairement un besoin, à poser une problématique, à explorer les itérations. Le prompting ne doit pas être un réflexe vide, mais un prétexte pour revenir à l’essentiel : la capacité à penser, formuler, raisonner, douter. Car ce sont ces compétences que l’IA, malgré ses performances, ne remplacera jamais.
|