Les modèles génératifs seront surtout utiles aux juniors

Les semaines passent et les espérances / craintes liées aux IA génératives sont toujours aussi élevées, sans cesse alimentées par de nouvelles fonctionnalités ou promesses. Dire que l’IA est l’avenir de l’humanité, c’est un peu comme dire il y a 50 ans que l’ordinateur ou l’électronique étaient l’avenir de l’humanité : Nous nous en doutions tous plus ou moins, mais sans trop savoir quoi, quand, où, qui ou comment. Outre les prédictions des grands cabinets conseil, qui n’engagent que ceux qui les croient, se pose la question de savoir comment les entreprises vont intégrer les IA génératives et qui va en bénéficier. Heureusement, nous commençons à avoir quelques éléments de réponse sur ces questions, ainsi qu’un retour d’expérience par rapport aux précédents cycles d’adoption qui ne laissent rien présager de bon. À moins que nous nous décidions à correctement faire les choses ce coup-ci…

En quelques mois, l’IA générative est devenue la priorité des géants numériques :

Ces énormes investissements sont le signe qu’il est réellement en train de se passer quelque chose et que les big tech sont en train de préparer la prochaine évolution de l’outil informatique. Assurément un grand pas en avant dans l’histoire de l’humanité, car le paradigme de l’ordinateur personnel existe depuis 50 ans, mais également un saut dans l’inconnue, car l’IA fait peur (Le nouveau Bing est-il un danger pour l’humanité ?). La preuve en est : nous n’avons pas de grand modèle de langage souverain, mais le Gouvernement a déjà monté un comité éthique (La France se dote d’un comité stratégique dédié à l’intelligence artificielle).

Réguler les usages des modèles génératifs est-elle la priorité absolue de la France ? Non, mais au moins nous ne serons pas en retard sur ce sujet (la régulation). Il faut croire qu’à force de le répéter dans les médias, la peur de l’IA a fait son chemin dans la tête des citoyens qui s’inquiètent de voir une sorte de Frankenstein numérique échapper au contrôle de ses créateurs.

Rassurez-vous, je ne me risquerai pas à commenter la comparaison avec la créature du roman de Mary Shelley, mais puisque l’on fait dans la mythologie, il serait plus intéressant de prendre comme point de départ le mythe du golem, un être artificiel, dépourvu de libre arbitre, façonné afin d’assister ou de défendre son créateur.

Transposez ce mythe au quotidien des travailleurs du savoir (les cols blancs) et vous obtenez Clippy, le célèbre assistant Windows qui s’apprête à faire un grand retour grâce aux progrès spectaculaires des modèles de langage (modèles génératifs et collaboration).

Une progression exponentielle qui fait naitre des questionnements sur le moyen et long terme

J’ai déjà rédigé plusieurs articles sur le sujet, aussi je pense que vous devez déjà être sensibilisé aux enjeux à court terme des modèles génératifs (Quels problèmes essayons-nous de résoudre avec les IA génératives ? et Quels scénarios d’adoption pour les IA génératives ?). Dans cet article, nous allons plus aborder les enjeux à moyen et long terme, à savoir l’impact économique et social des modèles génératifs. Un sujet dont je ne suis visiblement pas leur seul à me préoccuper, car les progrès, comme les opportunités et menaces semblent exponentiels : The Exponential Growth in AI Computation.

Peu importe que toutes les prévisions ultra-optimistes formulées il y a 6 ans lors de la frénésie médiatique autour du deep learning soient finalement fausses, le marché s’emballe à nouveau et l’on commence à lire des analyses socio-économiques de l’impact des modèles génératifs :

Ces analyses sont-elles pertinentes ? Difficile de juger, car les chiffres et délais annoncés sont plutôt vagues. Sinon, moi aussi je peux affirmer avec la plus grande assurance que dans quelques années, l’IA générative va avoir un réel impact sur l’économie et notre vie quotidienne, mais ça ne va pas beaucoup vous aider…

Les assistants numériques sont les nouveaux copilotes

J’ai déjà mentionné de nombreuses études sur l’impact des IA génératives pour le monde du travail, celles-ci arrivent toutes plus ou moins à la même conclusion : il n’y aura pas de remplacement des salariés, mais plutôt des tâches qui seront automatisées, ou plutôt PLUS de tâches seront automatisées. Cette semaine encore, c’est Indeed qui publie une étude à ce sujet : Indeed’s AI at Work Report: How GenAI Will Impact Jobs and the Skills Needed to Perform Them.

Le meilleur moyen d’évaluer le potentiel des modèles génératifs et surtout d’anticiper leur intégration dans votre quotidien professionnel est de faire le parallèle avec les voitures : on nous avait promis des véhicules autonomes, mais finalement les difficultés techniques / juridiques / pratiques sont trop nombreuses, du coup nous devons nous contenter de systèmes d’aide à la conduite (navigation, anti-bloquage, anti-dérapage, correction de la trajectoire, aide au stationnement…). À priori rien de révolutionnaire, mais une sécurité accrue, indéniablement, et de l’aide au moment où on en a le plus besoin (ex : pour se garer en parallèle le long du trottoir).

Dans le monde de l’entreprise, ça sera la même chose : les assistants numériques ne vont pas faire le travail à notre place, mais fournir aux cols blancs une assistance pour des tâches simples et prévisibles, l’équivalent de ce que pourrait faire un stagiaire. L’idée serait de leur confier des tâches bien précises qu’ils pourraient réaliser en autonomie, mais sous la supervision d’un salarié confirmé.

Et c’est bien là où la distinction entre l’homme et la machine va se faire : l’apport des IA génératives sera limité pour des professionnels compétents dans leur domaine, ceux qui maitrisent leur sujet et disposent de bonnes capacités de rédaction ou de raisonnement (normalement).

Après plusieurs mois de spéculation et de fantasme, nous commençons en effet à avoir un peu de recul sur cette assertion grâce à des études sérieuses comme celle-ci : Experimental evidence on the productivity effects of generative artificial intelligence. Les conclusions sont équivoques : les chatbots reposant sur des modèles génératifs permettent de faire du travail en binôme et ne détruisent pas d’emplois.

Des conclusions similaires ressortent également de cette vaste étude de la Harvard Business School Technology & Operations Management sur les pires cols blancs, les consultants du BCG, et l’impact des IA génératives sur leur productivité : Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality. Cette étude menée sur une période de 3 mois porte sur 760 consultants dont le travail au quotidien a été évalué selon 18 tâches (créatives, analytiques, rédactionnelles…) avec trois approches : sans utilisation d’IA générative, avec l’utilisation d’une IA générative (ChatGPT+), avec l’utilisation d’une IA générative et l’aide d’un expert en prompt.

Les enseignements de cette étude sont les suivants :

  • Les consultants ayant recours aux IA génératives ont complété 12% de tâches en plus, 25% plus vite et avec 40% de qualité supplémentaire ;
  • Les consultants qui étaient dans la moitié la moins productive / qualitative ont bénéficié d’un gain de productivité / qualité largement supérieur à ceux qui étaient dans la moitié supérieure (+43% vs +17%).

Cette étude nous confirme donc que les IA génératives sont surtout bénéfiques aux débutants (juniors ou profils en acquisition de compétences) qui ne maitrisent pas un sujet et sont encore en phase d’apprentissage d’un métier ou d’un domaine.

Nous sommes tous des cyborgs

Plus généralement, tout comme les systèmes d’aide à la conduite permettent de compenser les faiblesses des conducteurs qui manque de pratique ou d’expérience, les IA génératives peuvent potentiellement relever le niveau des collaborateurs aux compétences moyennes voir faibles : Is it time for the Revenge of the Normies?.

En ce sens, les assistants numériques proposés par les grands éditeurs (cf. les annonces de Microsoft et Google) vont se révéler très utiles pour rehausser la qualité des productions et surtout pour gagner du temps : Automation or augmentation? This is how AI will be integrated into the jobs of tomorrow.

Un principe de travail en binôme que l’on retrouve dans d’autres domaines :

Accepteriez-vous d’être soigné par un robot ? Là n’est bien évidemment pas la question, mais plutôt : préférez-vous être soigné aujourd’hui par un médecin assisté d’une IA pour les tâches répétitives ou la semaine prochaine par un médecin qui travaille comme au XXe siècle ? C’est en tout cas la promesse de startups comme Nabla en France.

Qu’est-ce que tout ceci nous apprend : que petit à petit les robots et IA vont envahir notre quotidien ? Je suis désolé de le dire de façon aussi abrupte, mais c’est déjà le cas depuis longtemps : cela fait plusieurs décennies que les travailleurs du savoir (les cols blancs) sont indissociables des outils informatiques, ils forment un binôme avec leur ordinateur qui leur permet d’accéder à un ensemble d’outils et ressources informatiques sans lesquels ils sont absolument incapables d’assumer leurs responsabilités quotidiennes.

Croyez-le ou non, mais la fusion entre l’homme et la machine est effective depuis de nombreuses années, que ce soit pour les salariés (qui ne sont jamais très loin d’un ordinateur) ou les citoyens (qui ne séparent jamais de leur smartphone). D’un point de vue purement sémantique, cette fusion effective entre humains et machines pour former un organisme cybernétique est ce que l’on appelle un cyborg (« cybernetic organism« ).

Nous sommes tous des cyborgs, et ce n’est que le début : les « juniors » dépendront plus que d’autres des outils numériques mis à leur disposition, tandis que les « séniors » s’appuieront sur leur expérience et leur savoir-faire, mais le résultat sera à terme le même : une production standardisée avec une qualité garantie (Les IA génératives sont les nouveaux correcteurs orthographiques).

L’IA comme levier d’inclusion ?

L’objectif de ce fonctionnement en binôme n’est pas de créer des éternels assistés, mais plutôt de rendre directement opérationnels des juniors et de les faire progresser rapidement à travers de la formation appliquée en continu, c’est le principe du « learning in the flow of work », mais sans avoir besoin de mobiliser un sénior, le tutorat étant assuré par un assistant numérique. Dans cette histoire, tout le monde y gagne !

Vous noterez que cette approche s’inscrit tout à fait dans une démarche RSE : une amélioration des performances qui bénéficient à la fois à l’entreprise et aux salariés (les juniors sont plus autonomes et progressent rapidement, tandis que les séniors peuvent se concentrer sur des tâches à plus forte valeur ajoutée). En ce sens, l’IA est ici un réel levier d’inclusion, car elle donne une chance aux juniors : les jeunes comme ceux qui sont en reconversion. Une formidable opportunité pour renforcer la diversité, pas forcément ethnique ou sociale, mais celle qui permet de sortir de la spirale infernale du jeunisme : ne recruter que des jeunes, car ils sont censés maitriser les outils numériques (celles et ceux qui ont dépassé la cinquantaine savent de quoi je parle).

En poussant la réflexion plus loin, il serait même possible de considérer l’IA comme un moyen de re-équilibrer la répartition des pouvoirs / richesses : A.I. will reduce inequality by leveling the tech playing field, studies suggest.

Tout ceci est très stimulant, une splendide démonstration d’enthousiasme et de démagogie, mais ce serait oublier deux facteurs limitants :

Autant nous avons des solutions pour le problème de consommation d’énergie (affiner les modèles et les faire tourner en local), autant la disponibilité de données de qualité dans les entreprises est un authentique casse-tête sur lequel les data scientists se heurtent depuis de nombreuses années. C’est précisément l’absence de données de qualité qui les empêche de bénéficier de l’apport du machine learning, qu’elles soient discriminatoires (modèles de traitement de données chiffrées) ou génératives (modèles de traitement de contenus). Un problème que j’avais déjà évoqué il y a de nombreuses années : De l’importance des données (et des humains) pour le machine learning.

Je referme la parenthèse RSE pour revenir au sujet de cet article : la cible prioritaire des IA génératives (les juniors). La question est maintenant de savoir si nous pouvons reproduire ce fonctionnement en binôme en dehors du contexte professionnel.

L’IA comme levier d’éducation

Un chatbot est-il un bon professeur ? Je ne suis pas certain. En revanche, il peut être un excellent tuteur pour vous aider au quotidien dans la réalisation de tâches ou la solution de problèmes auxquels vous n’avez pas été confronté auparavant. Et ils le font de façon toujours plus intuitive, comme avec cette démonstration très impressionnante de la nouvelle version de ChatGPT :

Vu comme ça, c’est effectivement très utile, on imagine tout à fait une assistance aux devoirs sur ce même principe, et potentiellement une extrapolation à l’enseignement.

Je pense ne rien vous apprendre en écrivant que le niveau scolaire en France est plutôt bas, et qu’il continue de baisser : En mathématiques, un élève sur deux ne sait pas répondre à cette question à son entrée en sixième. Je ne me lancerais pas dans une analyse des dysfonctionnements du système éducatif français et de l’Éducation Nationale en particulier, mais plutôt dans le constat que la Chine et l’Inde ont misé très tôt sur ce principe de tutorat, un pari qui visiblement fonctionne bien compte tenu des gigantesques défis que représente l’instruction de centaines de millions d’élèves et étudiants, avec de belles réussites comme Yuanfudao et Byjus :

Est-il réellement pertinent d’envisager l’utilisation d’IA dans l’éducation pour compenser les dysfonctionnements du système ? Oui, car jusqu’à preuve du contraire, nous n’avons pas d’autres solutions et car avec un budget en déficit chronique, il n’est pas possible de procéder à une refonte complète. Vous remarquerez d’ailleurs que même l’UNECO se penche sur la question : Generative AI and the future of education.

Concrètement, à quoi peut bien ressembler l’apprentissage automatique ? À un ensemble de contenus et exercices pédagogiques générés à partir de bases de connaissances. Un principe testé par YouTube, mais qui ne donne pas réellement envie, car nous connaissons les limites des MOOCs : YouTube tests AI-generated quizzes on educational videos.

L’intention est bonne, certes, mais les limites de ces pratiques sont toujours les mêmes : hallucinations (véracité des contenus pédagogiques), propriété intellectuelle (données d’entrainement et de référence), souveraineté (dépendance à des technologies et compétences étrangères)…

Autre exemple d’utilisation maline des IA génératives dans l’éducation avec Quizlet, une application qui créé des fiches pour mieux mémoriser les cours (les flashcards), qui propose un agent conversationnel pour répondre à vos questions et qui génère également des quizz pour s’entrainer.

Pour le moment, on se contente de faire des prédictions sur la base d’hypothèses optimistes en considérant que les nombreuses conditions seront remplies d’ici à quelques années. Si vous avez l’impression que l’on tourne en boucle, je vous confirme que c’est bien le cas : ça blablate, mais nous n’avons malheureusement encore rien vu de viable à grande échelle.

Que ce soit pour les étudiants ou pour les salariés, la solution sera assurément technique, mais également méthodologique.

Une nécessaire réflexion de fond sur l’évolution des méthodes de travail et d’apprentissage

Est-il oui ou non envisageable de mettre en place des binômes homme/machine qui soient viables et opérationnels ? Peut-être, mais contrairement à ce que veulent vous faire croire les éditeurs et vendeurs de solutions miracles, tout ceci ne dépend pas de progrès techniques, mais bien de mentalité et de méthodes de travail.

Au final, tout ce résume à : les juniors sauront-ils travailler en toute intelligence avec les modèles génératifs ? Vaste question à laquelle nous n’avons pas d’éléments de réponse formels, que des indices qui ne présagent rien de bon. Il suffit de se pencher sur l’histoire de l’adoption des outils informatiques et numériques pour comprendre que les utilisateurs choisissent systématiquement la facilité : utiliser sans réfléchir. Reconnaissez-le ou non, mais c’est bien le chemin du moindre effort qui est systématiquement privilégié, sans se soucier aucunement des conséquences. Ça a été le cas avec les ordinateurs (prolifération exponentielle des emails et fichiers bureautiques) et avec les smartphones (dépendance, désinformation…), il n’y a aucune raison pour que ça se passe autrement avec les assistants numériques.

Cette tendance à la facilité est confirmée par cette étude de Nielsen-Norman : Information Foraging with Generative AI: A Study of 3 Chatbots. Il y est question de la façon dont sont utilisés les chatbots reposant sur des modèles génératifs (ChatGPT, Bing et Bard). Les enseignements de cette étude sont les suivants :

  • Dans les 3/4 des cas, les chatbots sont utilisés pour faire de la recherche d’information (en remplacement des moteurs de recherche) ;
  • Moins de 20% des réponses sont vérifiées (malgré les problèmes récurrents d’hallucinations).

Nous parlons ici d’utilisateurs de chatbots pour des tâches quotidiennes (ex : planifier des vacances, un achat ou une activité récréative), mais je doute fortement que les choses se passent différemment dans le monde de l’entreprise : les juniors vont se jeter sur les assistants numériques sans se poser de questions tant les bénéfices sont palpables pour eux (gain de temps, qualité de la syntaxe des contenus générés…). Idéalement, il faudrait que les séniors puissent superviser les tâches effectuées par les juniors assistés des IA génératives, mais c’est justement le but de la manœuvre : leur épargner ce travail de supervision.

Potentiellement, l’histoire va se répéter : aveuglées par les promesses des éditeurs, les entreprises vont se dépêcher de déployer les assistants numériques auprès de leurs collaborateurs pensant leur rendre service avec l’espoir d’un gain de productivité. Je ne suis pas devin, mais j’ai la conviction que sans un minimum de pédagogie, cela va engendrer plus de problèmes que ça ne va en résoudre, car l’important est de conserver un regard critique su le travail sous-traité aux IA : Good Judgment Is a Competitive Advantage in the Age of AI.

Oui, les modèles génératifs offrent d’immenses opportunités et représentent une nouvelle étape dans l’évolution des outils informatiques (la fameuse « Next Big Thing »), mais sans un minimum de garde-fous, les IA génératives sont comme des épées à double tranchant : les juniors en seront les premiers bénéficiaires, mais également les premières victimes.

Avant de vous lancer tête baissée dans une course à l’adoption comme nous en avons connu pour l’email ou les outils bureautiques, et dont nous subissons aujourd’hui les conséquences, il convient de définir un cadre d’utilisation (une combinaison de conseils, bonnes pratiques et règles à ne pas transgresser) et surtout de faire de la pédagogie : expliquer ce que sont les IA (démystifier), ce à quoi elles servent (l’objectif), ce qu’elles savent ou ne savent pas faire (les bénéfices et limites) et la façon dont elles vont s’insérer dans le quotidien professionnel (leur intégration aux processus et habitudes, quitte à en créer de nouvelles).

Et accessoirement, il convient aussi de se soucier de la disponibilité et de la qualité des données servant à l’entrainement et à l’affinage du modèle, mais ce sujet fera l’objet d’un autre article.