Avec la sortie de GPT-4, la ferveur médiatique autour des IA génératives atteint des sommets. Présentés comme la solution miracle à tous nos problèmes, les modèles génératifs nourrissent tous les fantasmes des techno-utopistes et “experts en IA” de Twitter. Pourtant ils ne résolvent en rien les problèmes des entreprises (cloisonnement des données et connaissances, système d’information sclérosé, gigantesque dette numérique…) et risquent même d’aggraver l’infobésité ou la désinformation. Plutôt que de participer à l’hystérie collective, je préfère adopter une approche critique et poser une question essentielle : quel problème essaye-t-on de résoudre ?

Cela fait à peine 3 mois que ChatGPT a été ouvert au grand public que l’on nous annonce déjà une nouvelle version majeure : OpenAI announces GPT-4, the next generation of its AI language model. Le lancement de GPT-4 est perçu par beaucoup comme le point de départ d’une authentique révolution : la plus grande innovation de l’histoire de l’informatique depuis l’invention de l’informatique elle-même. Nous nageons ici en plein délire collectif alimenté par les « experts en IA » de Twitter, les mêmes qui prophétisaient l’avènement du métavers l’an dernier ou du Web3 l’année précédente. Et pourquoi pas la plus importante invention de l’histoire de l’humanité depuis le silex tant qu’on y est ?
Je ne sais pas comment vous vivez cette période d’euphorie technologique, mais j’ai beaucoup de mal à expliquer cette amnésie généralisée qui touche les acteurs des NTIC. On nous avance fièrement comme argument que le rythme d’adoption de ChatGPT est le plus rapide jamais constaté pour un service numérique : 100 M d’utilisateurs en 2 mois. Dans les faits, la réalité est différente puisqu’il s’agit de 100 M de visiteurs sur le site d’OpenAI. En guise de comparaison, la référence reste le jeu PokémonGo qui avait franchi la barre des 100 M d’utilisateurs en 3 semaines (nous parlons bien ici d’utilisateurs qui ont téléchargé l’application et ont créé un compte). Mais bon, j’imagine que dans la logique des nouveaux techno-prophètes la comparaison n’est pas valide…

Si les progrès de la quatrième version de GPT sont effectivement impressionnants, tout ceci me donne quand même l’impression qu’avec les IA génératives, homo sapiens s’est trouvé une nouvelle massue et cherche maintenant des choses sur lesquelles taper pour voir ce que ça fait…
Croyez-le ou non, mais c’est déjà le cinquième article que je rédige sur ChatGPT en 1 mois 1/2, comme quoi le sujet est aussi passionnant que complexe.
ChatGPT est une révolution, ou une supercherie, ou peut-être bien les deux…
GPT-4 est donc la nouvelle version du large modèle de langage développé par OpenAI, la nouvelle poule aux oeufs d’or pour laquelle on nous fait le coup de l’iPhone : chaque nouvelle itération nous est présentée comme une révolution (“It changes everything” comme disait Steve Jobs).
Pour mémoire, GPT-4 n’est pas un algorithme ou le petit frère de Chat-GPT, c’est un logiciel qui modélise l’agencement des mots dans une base de données (la façon dont ils s’articulent entre eux) pour pouvoir générer d’autres mots formant des phrases en fonction de calculs statistiques. GPT est le modèle de langage sur lequel s’appuient des interfaces (ex : ChatGPT, Dall-E…) qui permettent aux utilisateurs d’interagir avec lui grâce à du texte ou des images.
Si d’après les premières observations les progrès sont manifestes, notamment sa capacité à traiter des contenus textuels et visuels (5 ways GPT-4 outsmarts ChatGPT), nous ne savons que très peu de choses sur cette quatrième version de GPT, une posture d’ailleurs assumée par l’éditeur (OpenAI co-founder on company’s past approach to openly sharing research: ‘We were wrong’). GPT-4 est donc une boite noire devant laquelle tout le monde s’extasie. Bon en fait, pas tout le monde, car ce sont surtout les journalistes et observateurs du grand public qui l’encensent, les professionnels de l’apprentissage machine sont plus prudents : GPT-4 has brought a storm of hype and fright, is it marketing froth, or is this a revolution?
Vous l’aviez déjà compris avec mes précédents articles (cf. La révolution des IA génératives n’aura pas lieu, ou pas comme on essaye de nous la vendre), j’ai un point de vue très réservé sur cette “innovation disruptive”, car j’en ai vu d’autres et surtout, car il y a de nombreux paramètres dans l’équation à prendre en compte avant de formuler pareille assertion. En premier lieu, il est important de rappeler que tous les grands acteurs du numérique ont déjà créé leur propre modèle de langage multinodal : Kosmos-1 pour Microsoft, LLaMA pour Facebook et PaLM-E pour Google. La différence est que ces modèles ne sont pas disponibles pour le grand public, uniquement pour la communauté scientifique (Google opens up its AI language model PaLM to challenge OpenAI and GPT-3).

La “révolution” de ChatGPT est surtout portée par l’engouement du grand public qui découvre des outils qui existaient déjà. En ce sens, OpenAI profite de sa position de challenger pour prendre de vitesse des Big Tech qui ont fait le choix d’avancer prudemment avec des outils qui sont aussi puissants que dangereux (GPT-4 Is Exciting and Scary). Mais visiblement, ça n’a pas l’air de déranger les médias qui voient en ChatGPT le nouveau miracle technologique qui va résoudre tous nos problèmes. De quels problèmes parlons-nous au juste ? C’est justement là que se situe l’ambiguïté.
GPT-4 : la révolution dans votre boite à spams
La description qui est faite de GPT-4 est une perle de la nova-langue techno-utopiste issue de la Silicon Valley : “human-level performance on various professional and academic benchmarks“. OK et alors ?
Dans les faits, ne vous laissez pas abuser : il n’y a rien de magique dans les progrès de GPT-4, car ce dernier repose uniquement sur de la force brute, c’est-à-dire l’utilisation d’un nombre croissant de machines pour créer le plus grand modèle de langage possible : Microsoft Strung Together Tens of Thousands of Chips in a Pricey Supercomputer for OpenAI. Pourquoi ne pas avoir utilisé cette approche avec les autres méthodes de machine learning ? Cette surenchère de moyens techniques est-elle justifiée ? À ce stade de mon argumentation, j’ai besoin d’apporter deux précisions : l’une sur la nature des IA (ce à quoi elles servent), et l’autre sur les limitations de la méthode employée par les modèles génératifs.
Commençons par la différence qui oppose les IA génératives aux IA discriminatives. Les IA génératives comme GPT reposent sur des modèles de traitement automatique du langage qui servent à générer des contenus. Pour pouvoir y parvenir, ces modèles sont pré-entrainés à l’aide de transformeurs, une méthode de traitement de l’information utilisée à la place des réseaux de neurones artificiels pour analyser un corpus de textes ou images. La finalité d’une IA générative est de générer des contenus, tandis que la finalité des autres IA, reposant sur l’apprentissage profond et les réseaux de neurones, est de trier et de classer des données, on parle alors d’IA discriminatives (What is generative AI? The evolution of artificial intelligence).

La seconde précision concerne les limites des IA génératives qui ne sont ni intelligentes ni conscientes, elles sont “simplement” extrêmement douées pour générer des textes avec une syntaxe parfaite, nous donnant l’illusion d’un savoir ou d’une forme d’empathie (cf. Chatbots aren’t becoming sentient, yet we continue to anthropomorphize AI).
Le fait que la génération de mots ne repose que sur un calcul statistique a mené la communauté scientifique à décrire ChatGPT comme un perroquet stochastique (On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?). Inutile d’aller sur Google pour trouver la définition, je l’ai fait pour vous : un phénomène stochastique est un événement qui ne se prête qu’à une analyse statistique, par opposition à un phénomène déterministe, pour lequel on a relié une cause à des conséquences (Mythes et réalités des IA génératives). On dit d’une personne qu’elle a un comportement stochastique quand elle parle sans se rendre compte de ce qu’elle dit. Et c’est exactement ce que fait ChatGPT : générer des mots les uns après les autres sans réellement en comprendre le sens ou les subtilités. Les modèles ne génèrent pas les bons contenus, mais ceux qui leur semblent le mieux correspondre à la demande de l’utilisateur. Ceci explique les phénomènes d’hallucinations dans les réponses (ChatGPT invente des personnes ou des faits) ou dans les images générées (ex : des mains avec six ou sept doigts).

Comme toujours, les techno-prophètes vous répondront que ces imperfections vont s’améliorer avec le temps et qu’à terme le potentiel est gigantesque, car ces IA génératives vont pouvoir remplacer un nombre incalculable de salariés et autoriser des gains de productivité gigantesques. De quelle productivité parlons-nous au juste : la génération de contenus en masse pour pouvoir inonder les boites aux lettres et médias sociaux ? Personnellement je n’avais pas conscience du fait que nous étions en déficit de contenus, plutôt l’inverse…
C’est là un point que personne n’aborde : la finalité de ces IA génératives qui sont effectivement très performantes dans la génération de contenus textuels et visuels, mais qui vont surtout dans un premier temps profiter aux fermes à contenus et spammeurs, une perspective qui ne me réjouit pas. À court terme, tous les articles seront remis en cause, car on les soupçonnera d’avoir été générés : Welcome to the Big Blur.
La question qui me vient à l’esprit est : comment avons-nous pu laisser faire ça alors que nous savons pertinemment que l’infobésité et la désinformation sont d’énormes problèmes ? Pourquoi célébrer la passage à l’échelle industrielle des contenus synthétique ? Il ne faut pas être devin pour comprendre que ça va forcément mal finir : Why Are We Letting the AI Crisis Just Happen?
Le problème est que ces nombreux spammeurs n’ont aucun scrupule et agissent déjà dans l’illégalité. Ce qui n’est pas le cas des entreprises et organisations qui sont censées bénéficier des IA génératives, car elles devront faire face à des complications commerciales et juridiques.
De très belles démonstrations, mais…
Le lancement de GPT-4 a été l’occasion pour son éditeur de nous faire de très belles démonstrations de ses capacités : GPT-4 Developer Livestream. Des capacités que personne ne remet en cause, mais qui ne tiennent toujours pas compte des limitations commerciales, juridiques et éthiques dont on fait abstraction dans ces flamboyantes des démonstrations.
Le “détail” dont très peu se soucient est que les capacités de GPT, et des autres modèles génératifs, reposent sur les données utilisées pendant la phase d’entrainement. Des données qui sont librement accessibles en ligne, mais qui ne sont pas libres de droits. Dans la mesure où GPT n’est plus un projet de recherche académique, mais un produit (commercialisé à travers son API ou son offre ChatGPT Plus), son éditeur s’expose à des poursuites menées par les ayants droit des données ayant servies à son entraînement. Au coeur de ces poursuites, il y a un vide juridique associé à deux notions complexes : l’utilisation dérivée et l’usage raisonnable (“Derivative Intellectual Property” et “Fair Use”).
Ce “détail” juridique est important, car il y a une grande différence entre expérimenter une solution technique dans un laboratoire de recherche et l’exploiter dans un cadre commercial se surtout vendre les contenus générés par le modèle. Pour cela, il faut un véhicule commercial, c’est-à-dire une offre portée par une société. Nous voyons ainsi fleurir depuis 2 mois d’innombrables startups qui promettent de révolutionner de nombreux secteurs d’activité (rédaction, production graphique, juridique…), mais c’est oublier les acteurs déjà en place :
- les solutions d’agents conversationnels proposées par des sociétés spécialisées comme conversationnel ou Eptica ;
- les solutions de génération de contenus comme celles proposées par Syllabs ;
- les solutions d’analyse experte de contenus comme celle de Doctrine qui sert à évaluer la solidité d’argumentaires juridiques…
Comme vous pouvez le constater, nous ne parlons pas ici de startups de la Silicon Valley, mais de sociétés françaises qui ont pignon sur rue depuis plus de 10 ans, avec des offres formalisées, des références, des employés qualifiés… Et là, je ne parle même pas de géants numériques comme Adobe ou SalesForce qui proposent déjà depuis plusieurs années des solutions de génération de contenus textuels (ex : emails) ou graphiques (cf. la solution d’Adobe décrite dans cet article publié il y a 5 ans : L’intelligence artificielle est un outil de productivité comme les autres).
Il y a clairement un phénomène d’amnésie et d’aveuglement : on veut croire à cette révolution qui va résoudre tous nos problèmes. Je suis vraiment désolé de jouer les rabat-joies en chef, mais ça ne sera pas le cas, car des solutions similaires existent depuis de nombreuses années, certes moins coûteuses ou performantes, mais qui n’ont pas vraiment révolutionné leur domaine respectif, car les exploits technologiques réalisés en laboratoire se heurtent à la réalité du terrain : des situations en entreprise qui sont toutes différentes et très souvent ambigües.
Je pense que la démonstration qui m’a le plus irrité est celle de génération d’un site web à partir d’un gribouillage. Créer un site web est-il si simple que ça ? Non, je ne pense pas.

Ne vous laisser pas embobiner par cette belle démonstration, car d’une part, concevoir un site web est un métier (et oui !) ; et d’autre part, car les solutions de prototypage rapide à partir d’un croquis existent depuis de nombreuses années (ex : Sketch2Code de Microsoft), sans qu’elles aient révolutionné le métier de concepteur de site web.
Il y a effectivement un très gros potentiel dans ces modèles génératifs, mais sous certaines conditions. La première étant de reposer sur un cadre commercial et juridique viable. La seconde étant de s’intégrer dans une solution qui va effectivement permettre de gagner du temps dans le cadre d’un processus de travail. Sous cet angle, les IA génératives sont les nouveaux correcteurs orthographiques.
À défaut de provoquer la plus grosse révolution depuis l’invention de l’ordinateur, ChatGPT va surtout reproduire la trajectoire d’intégration / banalisation des précédentes briques technologiques comme la correction orthographique ou la dictée vocale : c’est dans un premier temps une innovation issue de la recherche, puis elle est packagée sous forme de logiciel, puis elle est intégrée en tant que fonctionnalité, puis elle se généralise et devient un prérequis.
Entrons maintenant dans le vif du sujet : Les correcteurs orthographiques sont-ils un progrès pour l’humanité ? Ont-ils permis d’améliorer le niveau d’orthographe ?
Une dépendance accrue aux outils informatiques / numériques
Vous noterez que ce travail d’intégration des modèles génératifs a d’or et déjà démarré avec les annonces de Slack, Discord, SalesForce, Google (Google announces AI features in Gmail, Docs, and more to rival Microsoft) ou encore Microsoft (Microsoft announces Copilot: the AI-powered future of Office documents).
Plusieurs cas d’usage sont présentés dans cette belle vidéo, des exemples qui me font tiquer, car ils nous décrivent l’IA générative comme la solution ultime, alors qu’elle sert surtout à atténuer les symptômes d’une inculture informatique et numérique, mais pas à traiter les problèmes à la source.
Premier cas de figure avec la récupération d’informations et fichiers relatifs à un client, projet ou sujet :

OK très bien, ça peut potentiellement nous faire gagner du temps, mais est-ce une bonne chose de ne pas se soucier de l’origine du problème ? Est-ce qu’il ne serait pas plus viable d’apprendre aux équipes à correctement nommer et stocker les fichiers ainsi que de fluidifier la circulation d’informations dans les équipes ? En prime : est-ce que ce n’est pas le travail de Sharepoint de nous aider à mieux gérer les fichiers et les connaissances ?
Deuxième cas de figure avec la rédaction automatique d’emails :

OK génial, la machine rédige à la place de l’utilisateur un beau message en langage soutenu. Est-ce que cela va nous permettre de mieux travailler ou de faciliter la circulation de l’information ? Nous sommes ici en train de faire l’apologie d’IA servant à générer des contenus qui seront certainement synthétisés et traités par d’autres IA ! 🤨
Cela fait 15 ans que nous nous plaignons et cherchons à lutter contre l’infobésité, pourquoi se réjouir de l’avènement des IA génératives ? Est-ce que ça ne serait pas plus viable d’apprendre aux collaborateurs à envoyer moins d’emails et à reporter les pratiques de communication / collaboration sur des outils qui sont conçus pour (ex : Teams) ? Cette question est rhétorique, car nous savons tous que les entreprises n’ont pas réellement besoin d’augmenter leur capacité de production de contenus non-structurés (ex : emails, messages…). Donnez un outil de génération automatique de contenus à un utilisateur… et il va générer du contenu, encore plus de contenu. C’est peut-être une bonne chose pour l’inclusion, car ça va aider à compenser les faiblesses en rédaction ou orthographe de certain(e)s, mais quid des autres, celles et ceux qui vont subir la déferlante de contenus synthétiques ?
Troisième cas de figure avec l’analyse automatique de chiffres de vente dans un tableau Excel :

L’analyse de chiffres est une tâche laborieuse, nous sommes tous d’accord avec ça, mais c’est également un aspect fondamental du métier. Si un responsable des ventes n’est plus capable d’analyser lui-même des chiffres de vente, alors quelle est sa légitimité à occuper cette fonction ? Autre question : que font ces chiffres dans une grille Excel ? Ne devraient-ils pas être plutôt dans un ERP ou un logiciel de SFA ? N’est-ce pas le travail des outils de Business Intelligence de nous aider à bien interpréter les données (ex : Power BI) ? Là encore, nous sommes face à un phénomène d’amnésie, car il existe déjà des solutions pour faire ce genre d’analyse, notamment chez Salesforce qui intègre une IA depuis 5 ans (cf. cet article publié en début d’année 2018 : Salesforce Einstein now powers over 1 billion AI predictions per day).
Ce qui est mis en scène dans cette vidéo, ce n’est pas l’avènement des IA, mais l’échec des humains à correctement se servir de leurs outils et de leur cerveau. Doit-on s’en réjouir ?
Il y a donc un aspect éthique à cette question, mais également un aspect pratique : est-ce vraiment la bonne façon de gérer une activité en 2023 : en s’envoyant des diaporamas et des grilles Excel par email ? Cette vision de la collaboration et du pilotage d’une activité est extrêmement rétrograde, elle correspond à la culture informatique des années 90, celle que Microsoft essaye de prolonger. Ne vous y trompez pas : le but de Microsoft n’est pas de vous aider dans votre travail au quotidien, mais de vous rendre encore plus dépendant de leurs outils (Office, Outlook…).
(!) À ce stade de mon argumentation, je tiens à préciser que cet article n’est en aucun cas un pamphlet contre Microsoft, une société qui a énormément contribué aux usages numériques (Office, Dynamics, Power BI…), qui est un acteur majeur du cloud, et qui a toutes les cartes en main pour nous sortir du XXe siècle et nous projeter dans les XXIe siècle avec des solutions de collaboration modernes (ex : Teams, Planner, Viva…).
Pour résumer mon propos : l’intelligence artificielle devrait nous aider à progresser, pas à stagner voire à régresser en compensant nos mauvaises habitudes ou lacunes.
Faisons travailler notre cerveau, pas une IA
C’est une réflexion que j’avais déjà abordée dans mes précédents articles : le cerveau est comme un muscle, plus on utilise les IA dans nos tâches quotidiennes, et plus on affaiblit nos capacités cognitives (recherche, analyse, rédaction… cf. Le nouveau Bing est-il un danger pour l’humanité ?). J’ai croisé sur Twitter cette Une de journal des années 60 qui montre une manifestation de professeurs de math dénonçant l’utilisation de calculatrices au collège :

Si nous sommes tous d’accord pour affirmer que les calculatrices nous apportent un indéniable gain de temps et permettent d’éviter des erreurs, nous sommes également d’accord pour dire qu’elles ne doivent pas non plus nous empêcher d’apprendre à calculer, surtout pour les plus jeunes.
Nous sommes en 2023 et personne n’envisage de supprimer les calculatrices. Mais nous constatons également un niveau en math anormalement bas pour les collégiens et lycéens. Est-ce lié ? Difficile à dire, car il y a de nombreux paramètres à prendre en compte. Il devrait en être de même pour les IA génératives : plutôt que de célébrer la “révolution numérique” initiée par ChatGPT, nous devrions nous questionner sur les raisons qui nous poussent à vouloir impérativement croire à cette révolution.
La dure réalité que nous cherchons à fuir est que nous sommes dans une période d’incertitude où plus de contenus synthétiques n’améliorera pas la situation et risque au contraire de l’empirer (désinformation). Ce dont les entreprises ont besoin, ce sont des outils pour faire mieux avec moins, c’est-à-dire d’identifier les goulots d’étranglement, risques et dysfonctionnements dans l’organisation quotidienne (grâce à l’analyse de données), pas d’outils de production industrielle de contenus (textes, images, sons, vidéos…). Nous parlons ici de contenus non-structurés (emails, messages, fichiers bureautiques…), car la clé du progrès réside dans la libéralisation des savoirs et la structuration des connaissances.
Renforcer les capacités des collaborateurs passe par leur donner accès à plus de savoirs. Selon cette optique, l’utilisation d’un chatbot pour faciliter les interactions avec la base de connaissances de Stripe me semble tout à fait pertinente (Stripe and OpenAI collaborate to monetize OpenAI’s flagship products and enhance Stripe with GPT-4), mais ce n’est étonnamment pas celui qui est mis en avant.

Ce cas d’usage est donc très pertinent, mais il nécessite d’avoir des contenus de qualité et des connaissances structurées (reposant sur des ontologies et référentiels métier). La priorité des entreprises n’est ainsi par de recruter de toute urgence des experts en prompts, mais des documentalistes ! C’est le rôle des collaborateurs d’enrichir et de structurer le savoir-faire d’une entreprise, pas celui des machines.
Autre cas d’usage très pertinent, mais à apprécier avec un regard critique : l’utilisation d’un chatbot pour créer des applications métier (Microsoft’s new Power Platform AI Copilot will build your apps for you) :
Comme pour les précédents exemples, l’histoire racontée dans cette vidéo est très convaincante, mais dans la réalité d’une entreprise, en quoi la machine est-elle mieux qualifiée que les collaborateurs pour savoir s’il manque une colonne dans un tableau ? Cette vision de la machine omnisciente me laisse perplexe, d’autant plus que les “compétences” des IA génératives reposent sur des calculs statistiques, pas sur des connaissances formalisées. Dernier détail fait relativiser cette vision utopiste : l’outil de création d’applications métier présenté dans la vidéo nécessite d’avoir des données de qualité et disponibles (à travers des APIs ou micro-services), ce qui est rarement le cas.
En synthèse : la promesse est belle, le potentiel est énorme, mais il ne sera délivré que sous certaines conditions et devra surtout se plier à des exigences qui sont complètement éclipsées dans toutes ces belles démonstrations.
Où sont passées nos ambitions en matière de souveraineté et de sobriété numérique ?
À une époque pas si éloignée (il y a quelques semaines), la croissance des usages numériques était remise en cause par la nécessité de réduire l’impact environnemental (émission de gaz à effet de serre) et par la diminution de notre dépendance aux géants numériques américains. Et sans crier gare, ChatGPT débarque, et toutes ces considérations écolo-souverainistes passent au second plan. Telles des légions de skitarii de l’Adeptes Mechanicus, nous vénérons aveuglément l’innovation technologique et nous nous prosternons devant le dieu machine, comme s’il allait résoudre de façon miraculeuse tous nos problèmes. Celles et ceux qui osent questionner cette “révolution technologique” sont qualifiés de rétrogrades, voire de vieux cons incapables de mesurer le potentiel disruptives des IA génératives. Où est donc passé notre esprit critique ou notre libre arbitre ?
Au risque de me répéter : je constate un très surprenant phénomène d’amnésie générale, car toutes ces questions ont déjà été menées il y a 5 ans à l’époque où le grand public découvrait les méthodes de machine learning et les promesses de l’automatisation : AI slaves: the questionable desire shaping our idea of technological progress et Rise of robots fuels slavery threat for Asian factory workers.

Et pendant ce temps-là, il y a toujours une terrible guerre de tranchées en Ukraine, une sècheresse historique dans le sud de la France et un système bancaire qui vacille (faillite de SVB aux USA ou problème de refinancement du Crédit Suisse)… Je ne peux m’empêcher de penser que ChatGPT est plus un symbole qu’une révolution, ce chatbot cristallise les espoirs des techno-utopistes face à la permacrise. Entretenir l’espoir est une bonne motivation, mais cela ne doit pas nous faire oublier les problèmes concrets auxquels les entreprises et organisations doivent faire face.
Moralité : plutôt que de former vos collaborateurs aux techniques de prompt, apprenez-leur à éteindre leur ordinateur le soir et à mieux se servir de l’email.