La maitrise des prompts est une étape indispensable à l’adoption de l’IA générative

Dans les années 80, de nombreux salariés étaient réfractaires à l’arrivée des ordinateurs en entreprises. D’une part, car ils ne savaient pas à quoi ils pourraient leur servir ; et d’autre part, car ils ne savaient pas s’en servir, alors que leur patron exigeait d’eux un gain de productivité. 40 ans plus tard, nous sommes en train de reproduire exactement la même situation avec l’IA générative : forcer l’adoption des chatbots auprès de salariés qui n’en voient pas l’intérêt et ne savent pas s’en servir, mais auxquels on demande un gain de productivité significatif, provoquant ainsi une forte méfiance ainsi que des réticences à l’adoption. Une situation paradoxale, dont nous ne parviendrons à sortir qu’avec de la pédagogie et surtout une prise de recul.

#GenAI


En synthèse :

  • Deux ans après la sortie de ChatGPT, nous bénéficions du recul pour comprendre que les chatbots reposant sur des modèles génératifs peuvent être déceptifs ;
  • La principale limitation des chatbots n’est pas leur puissance, mais leur prise en main (les utilisateurs posent des questions trop simples, générant des réponses trop génériques) ;
  • Malgré l’enthousiasme et les promesses des éditeurs, l’adoption des chatbots est plus lente que prévu, car la majeure partie des utilisateurs exploite les chatbots comme des moteurs de recherche (avec un ou deux mots-clés) ;
  • Contrairement à l’idée reçue, les chabots ne sont pas des collègues avec lesquels il faut dialoguer, mais des applications informatiques qu’il faut programmer à l’aide d’instructions en langage naturel (les prompts) ;
  • Il n’existe pas de méthode de prompt ultime, mais plusieurs méthodes correspondant à des contextes d’utilisation différents.

D’après la dernière édition du baromètre « Born AI » de l’agence Heaven, plus des 3/4 des 18-25 ans utilisent ChatGPT (Comment les jeunes utilisent l’IA : outils, habitudes, thématiques recherchées…). Une statistique très impressionnante qui illustre parfaitement le fort taux d’adoption de l’IA générative chez les jeunes, mais qui masque une autre réalité : les 2/3 de ces usages se font sur un smartphone, donc avec des questions courtes qui génèrent des réponses approximatives.

Voilà maintenant deux ans que les chatbots de nouvelle génération sont disponibles (ChatGPT, Claude…) et nous commençons sérieusement à en voir les limites. Non pas que ces modèles ne sont pas suffisamment puissants (ils le sont largement), mais l’interface conversationnelle qui est imposée aux utilisateurs de chatbots est assurément un facteur limitant, à la fois pour l’adoption (incompréhension du fonctionnement par les utilisateurs lambda) et pour l’utilisation (manque de précisions des questions). Rajouter des fonctionnalités ne facilitera pas l’adoption, au contraire, car cela encombre l’interface et rajoute de la confusion dans la tête des utilisateurs sur ce qu’est un chatbot et le type de service qu’il peut apporter par rapport à d’autres services en ligne (ex : moteur de recherche).

Voilà pourquoi je milite depuis un certain nombre de mois pour une acculturation à l’intelligence artificielle afin de bien expliquer aux utilisateurs potentiels ce qu’est un modèle génératif et ce à quoi il peut servir : Nous n’avons pas besoin de meilleures IA, mais d’une meilleure compréhension de l’IA. Mais au-delà de l’appréhension de la nature et des qualités / défauts des modèles génératifs, je vais focaliser ma réflexion dans cet article sur l’interface.

En effet, la vérité que personne ne veut admettre au sujet des chatbots est que leur adoption est plus lente et compliquée que prévu, car les interfaces conversationnelles ne sont pas aussi intuitives que le proclament les éditeurs et qu’elles sont même dans certains cas contre-productives, car elles provoquent un phénomène de rejet chez les utilisateurs qui refusent de s’extraire du paradigme menus / boutons / liens.

Est-il important de débattre des interfaces conversationnelles proposées par les chatbots ? Oui, car il nous faut impérativement éviter de reproduire l’impasse des assistants vocaux. Le succès mitigé des enceintes connectées s’explique ainsi en grande partie par le fait que malgré des progrès bien réels dans leurs capacités de compréhension, les utilisateurs n’ont fait qu’un usage très limité des assistants vocaux, car ils ne maitrisaient qu’un tout petit nombre de commandes vocales (cf. Usage of voice has plateaued publié en 2020). Si les enceintes connectées n’ont jamais été aussi perfectionnées et bon marché, les ventes régressent, car au-delà des adopteurs précoces, les utilisateurs lambda ne parviennent pas à se faire à l’interface vocale, donc limitent leurs usages, ce qui fait baisser la valeur d’usage, donc diminue leur motivation pour apprendre de nouvelle commandes. C’est un cercle vicieux dont il est très difficile de sortir.

Nous manquons encore de recul pour le constater, mais il y a un fort risque pour que nous reproduisions la même chose avec les interfaces conversationnelles : s’obstiner à penser que c’est aux utilisateurs de faire l’effort de comprendre le fonctionnement et la bonne utilisation des chatbots, plutôt que l’inverse. Un risque que les équipes d’Apple ont bien compris, puisque les différentes fonctionnalités de l’offre Apple Intelligence ne reposent pas sur un chatbot, mais sur des menus contextuels (L’IA est un concept, pas un produit). L’avenir nous dira si ce choix est le bon, mais force est de constater que cela limite fortement le champ d’action des modèles génératifs sur MacOS.

Il ne semble donc pas y avoir de solution simple à mettre en oeuvre pour faciliter l’adoption de l’IA générative, car les chatbots et assistants numériques induisent immanquablement de nouveaux usages, donc de nouveaux apprentissages. Le problème est que la plupart des « experts » vous expliquent, à tort, qu’il faut dialoguer avec les chatbots comme on dialogue avec un collègue ou stagiaire.

Autant le préciser tout de suite : Non, les IA ne sont pas des collègues ou des stagiaires numériques, ce sont des applications informatiques, il faut apprendre à interagir avec elles comme on le fait avec n’importe quelle application informatique.

Prompter = Programmer

Contrairement à ce qu’essayent de nous faire croire les éditeurs de chatbots, les interfaces conversationnelles ne sont pas la meilleure façon d’interagir avec un modèle de langage, car leur affordance est très faible, c’est à dire leur capacité à suggérer aux utilisateurs leur mode d’usage.

Ceci est très certainement la principale raison qui explique le faible taux d’adoption des chatbots : tout simplement parce que les utilisateurs n’étant pas habitués à parler à leur smartphone, ils le sont encore moins à parler à leur ordinateur, que ce soit à l’oral ou à l’écrit, d’autant plus avec un service en ligne : AI Chat Is Not (Always) the Answer.

Dans l’inconscient collectif, les services en ligne qui se rapprochent le plus des chatbots sont les moteurs de recherche : on pose une question et ils fournissent des réponses. Voilà plus de 20 ans que les internautes sont habitués à saisir un ou deux mots-clés dans Google pour obtenir ce qu’ils cherchent, comment voulez-vous qu’ils se mettent spontanément à détailler leur besoin en long, en large et en travers ?

Si les chatbots parvenaient à deviner en détail les besoins des utilisateurs, ce ne serait pas un problème, mais en n’utilisant que des demandes courtes, donc génériques, les utilisateurs n’obtiennent que des réponses courtes, donc génériques. D’où un sentiment de déception, une plus faible valeur perçue, et une volonté moindre d’apprendre à correctement utiliser les chatbots. Nous sommes potentiellement en train de reproduire le cercle vicieux des enceintes connectées et des assistants vocaux.

Toute la difficulté est qu’il y a un gros effort pédagogique pour faire comprendre aux utilisateurs que non, les IA ne sont pas magiques et que les chabots ne sont pas réellement capable de dialoguer, mais de simuler un dialogue. La différence est subtile, mais elle est cruciale pour comprendre que ces fameuses interfaces conversationnelles dont on nous vante les mérites sont en fait des interfaces à lignes de commandes, mais avec des commandes en langage naturel.

Voilà pourquoi l’apprentissage du prompt est essentiel : car sans une pédagogie et des méthodes adaptées, l’adoption est et restera limitée (New Users Need Support with Generative-AI Tools), c’est la condition sine qua non pour pouvoir exploiter les modèles génératifs à leur plein potentiel (obtenir les meilleures réponses). L’important n’est pas de rédiger le prompt le plus long, mais le prompt le mieux structuré pour faire en sorte que le chatbot prenne en compte tous les aspects de la demande, et dans le bon ordre.

De plus, savoir prompter sera indispensable pour l’étape d’après : concevoir des agents intelligents (Les scénarios d’adoption de l’IA générative pour 2025 et après). Mais nous n’en sommes pas encore là, pour le moment, concentrons-nous sur les chatbots.

Mon retour d’expérience sur deux ans d’évangélisation de l’IA et des prompts

Si vous lisez régulièrement ce blog, alors vous savez déjà que je m’efforce depuis plus de 20 ans de décrypter les usages et technologies numériques. Les articles que je rédige sont non seulement un moyen de structurer mes réflexions, mais également d’augmenter ma visibilité pour trouver des clients. Voilà pourquoi, dès le lancement de ChatGPT et des premiers articles que j’ai publiés sur le sujet, j’ai eu l’opportunité ces deux dernières années de donner des dizaines de conférences, formations et cours sur le sujet de l’intelligence artificielle générative en général, et sur les prompts en particulier.

Voici, en synthèse, les principaux enseignements que j’ai retenus de toutes ces interventions :

  • La plupart des utilisateurs n’ont qu’une connaissance partielle des outils numériques, voire de leur ordinateur (la fracture numérique n’est pas une légende, ni la dyspraxie numérique) ;
  • Les 3/4 des utilisateurs n’ont pas bien compris ce qu’était l’IA (un concept), ce qui est normal car personne n’a fait l’effort de leur expliquer ;
  • 1 personne sur 2 ne s’est jamais connectée ou n’a jamais vu à quoi ressemble un chatbot (par peur ou manque d’intérêt), les autres se sont connectés une fois ou deux pour tester, pas plus (car les réponses sont rapidement décevantes si l’on ne fait pas l’effort de bien formuler sa demande) ;
  • Aucun utilisateur ne sait faire la différence entre un chatbot, un agent intelligent et un assistant numérique, là encore c’est tout à fait normal, car les explications fournies par les « experts » sont très approximatives ;
  • Les étudiants se montrent beaucoup plus pragmatiques que les salariés et ont très rapidement adopté les chatbots pour se simplifier la vie, mais ils promptent de façon TRÈS empirique et sont EXTRÊMEMENT sensibles à ce sujet (ne vous avisez surtout pas de leur donner des conseils, ils pourraient vous mordre) ;
  • Changer les habitudes est un travail de longue haleine, il faudra des années avant que les salariés intègrent les chatbots ou les modèles génératifs dans leur quotidien professionnel.

Étant quotidiennement confronté à ces réalités, vous vous doutez bien que je suis très sceptique sur l’efficacité des dispositifs pédagogies qui ne reposent que sur des sessions « pratico-pratiques » sur le prompt. Ce dont les salariés ont réellement besoin n’est pas d’apprendre à prompter, mais d’avoir de bonnes raisons d’apprendre à prompter par eux-mêmes. Et ceci passe par une démarche plus complète d’acculturation à l’intelligence artificielle et aux usages / technologies numériques.

Mais dans l’immédiat, je ne peux que constater la demande persistante des entreprises, administrations, écoles… pour l’apprentissage du prompt. D’où ma modeste contribution de ce jour, et notamment le guide du prompt qui est proposé au téléchargement plus bas.

Si vous ne savez pas comment prompter, les chatbots le savent !

Inutile de tourner autour du pot : sachez avant toute chose qu’il n’existe pas de méthode de prompt ultime, uniquement des méthodes plus ou moins adaptées à telle ou telle situation ou besoin.

Seconde chose importante à savoir, Microsoft et Google proposent chacun un guide de prompting pour leur assistant numérique respectif (The art and science of prompting for Copilot et Gemini prompting guide 101), mais leur méthode n’est pas mémo-technique, et leur approche est à la fois trop compliquée pour les besoins les plus simples et pas assez sophistiquée pour les questions plus complexes.

Tout comme il existe différents contextes d’utilisation des moteurs de recherche dont découlent différentes façons de chercher (recherches simples, recherches avancées, recherches sélectives), j’ai acquis la certitude qu’il existe différents contextes d’utilisation des chatbots pour lesquels une méthode générique n’est pas forcément appropriée. Il existe ainsi de nombreuses méthodes toutes faites, ainsi que des infographies pour les lister, de même que des conseils prodigués par les éditeurs eux-mêmes (exemple ici avec les éditions Dalloz : Qu’est-ce qu’un bon prompt ?), mais sans qu’on nous explique laquelle est la bonne…

J’ai ainsi profité de l’accalmie des fêtes de fin d’année pour demander aux principaux chatbots d’évaluer ces différentes méthodes (ChatGPT, Claude, Le Chat, Gemini, Copilot, Grok…), ainsi que de me décrire la meilleure façon dont il faut les exploiter. Je suis arrivé, grâce à eux, à la conclusion suivante : idéalement, il ne faut pas utiliser une, mais trois méthodes de prompt.

Après de nombreux allers / retours avec les chatbots cités plus haut, j’ai ainsi pu formaliser trois méthodes correspondant à trois contextes d’utilisation :

  • Pour des questions simples, des prompts rapides avec « RTF » = Rôle, Tâche, Format ;
  • Pour des questions plus complexes, des prompts structurés avec « CRAFT » = Contexte, Rôle, Action, Format, Tonalité ;
  • Pour une utilisation avancée, des mega-prompts avec « CONTEXTE-V » = Contexte, Objectif, Niveau (d’expertise), Tâche, Exemples, X (contraintes), Tonalité, Encodage (format), Vérification.

Oui je sais, la méthode « CONTEXTE-V » peut vous sembler disproportionnée, mais elle se révèle très efficace pour des besoins spécifiques et/ou complexes, notamment avec les modèles de raisonnement (Do new AI reasoning models require new approaches to prompting?).

Bien évidemment, ces méthodes sont valables pour les modèles actuellement disponibles, leur pertinence sera très certainement remise en question d’ici à l’année prochaine, surtout avec la montée en puissance des modèles d’action pour lesquels il faudra des méthodes spécifiques, d’autant plus s’il est question de définir et paramétrer des agents intelligents.

Mais nous n’en sommes pas encore là…

Un guide pour vous aider à prompter au quotidien

Pour vous aider à mémoriser et mettre en oeuvre ces méthodes, j’ai rédigé un feuillet pédagogique sur le promting que vous pouvez télécharger ici : Le B-A-BA du prompt.

Ce feuillet pédagogique détaille les trois méthodes et fournit un certain nombre d’exemples. De plus, vous y découvrirez un prompt pour vous assister dans la rédaction de vos mega-prompts, notamment avec la méthode « CONTEXTE-V ». Un meta-prompt que je vous incite à transformer en assistant de rédaction de prompts grâce aux fonctionnalités proposées par certains chatbots ou assistants (ex : les Custom GPTs de ChatGPT ou les Gems de Gemini).

Je vous laisse télécharger ce guide pour tester ces trois méthodes et me faire vos retours ou suggestions pour pouvoir les améliorer. Une fois que vous vous serez familiarisé avec ces méthodes, je vous incite enfin à créer votre propre bibliothèque de prompts pour pouvoir réellement gagner du temps (à utiliser avec un service en ligne ou une extension pour votre navigateur comme Promptdrive).

Bon courage et bon apprentissage !