Le nouveau Bing est-il un danger pour l’humanité ?

Les semaines passent et la fascination pour ChatGPT continue de prendre de l’ampleur. Si les capacités des IA génératives sont effectivement très convaincantes au premier abord, les services qui ambitionnent de les exploiter vont rapidement se heurter à des problématiques d’ordre juridiques, commerciaux et éthiques. Mais au-delà de ces difficultés, c’est l’équilibre même de la société qui est en jeu, ou du moins la place que les humains vont se laisser dans un quotidien dominé par les machines. Il est plus que jamais temps de réfléchir avant de se précipiter et de remettre en cause le solutionnisme technologique.

Les modèles génératifs sont assurément LE sujet du moment, celui qui pousse les médias à abuser de tous les superlatifs (6 Ways AI-Powered Search Engines Will Change the Internet Forever). J’ai déjà publié un article sur la question il y a seulement deux semaines (La révolution des IA génératives n’aura pas lieu, ou pas comme on essaye de nous la vendre), mais il y a tant à dire que je vous propose une nouvelle réflexion sur ce sujet.

Nous pensions que la ferveur médiatique allait retomber après les présentations de Microsoft et Google, mais il n’en est rien. Pourtant, force est de constater que ces deux présentations “officielles” étaient plutôt décevantes : beaucoup de promesses, mais peu de détails pour le nouveau Bing de Microsoft (et quelques erreurs au passage : Bing AI Can’t Be Trusted) ; encore moins de détails et également des approximations pour le moteur conversationnel de Google (Alphabet shares dive after Google AI chatbot Bard flubs answer in ad).

La tension est donc à son comble. Il faut dire que l’enjeu est de taille, car le marché global de la recherche s’élevant à 200 MM$ en 2022, le moindre % de part de marché représente une somme conséquente. De ce fait, certains analystes ont fait leurs calculs : une recherche coûte à Google en moyenne 1,06 cents et lui en rapporte 1,61. À côté de ça, une inférence dans ChatGPT coûterait 0,36 centimes (The Inference Cost Of Search Disruption – Large Language Model Cost Analysis). Je vous laisse calculer la marge potentielle pour mieux comprendre les motivations de Microsoft.

Ça, c’est la théorie, car dans la pratique, le marché est un peu plus complexe. Si l’on se donne la peine de prendre du recul et d’analyser tous les paramètres de l’équation, ce n’est plus du tout la même histoire. On se rend ainsi compte que ce nouveau Bing que l’on nous présente comme révolutionnaire est au mieux une utopie, au pire une supercherie.

Comme pour les précédents phénomènes médiatiques relatifs à des supposées disruptions (métavers, Web3, informatique quantique, assistants vocaux, impression 3D…), c’est toujours la même histoire : on se précipite pour nous annoncer une révolution technologique qui va TOUT changer, alors que ni la technologie sous-jacente, ni les usages, ni les modèles économiques ne sont prêts à passer à l’échelle. Pour mémoire, je vous rappelle que Microsoft et Google ont tous les deux connu des déboires avec les AI conversationnelles : Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day en 2017, et Google fires software engineer who claims AI chatbot is sentient l’année dernière.

Avec cet article, je vous propose de rentrer dans les détails pour comprendre pourquoi le monopole de Google est très loin d’être menacé et surtout quels sont les dangers du recours systématique à l’intelligence artificielle.

L’approche probabiliste versus l’approche déterministe

Commençons par le commencement avec des explications techniques plus précises sur les IA génératives : ChatGPT : comment ça marche ? Dans cet article très bien documenté, le fonctionnement des modèles génératifs de dernière génération est expliqué de façon simple que j’essaye de vous résumer dans les paragraphes suivants.

GPT un modèle génératif pré-entraîné, une sorte d’encyclopédie du web qui permet de transformer des demandes en réponses (Generative Pre-trained Transformer). ChatGPT est une version dérivée de GPT, c’est un modèle conversationnel qui a été affiné grâce à de l’apprentissage renforcé par retours humains (Reinforcement Learning from Human Feedback). À n’importe quelle question posée au modèle de référence (GPT), ChatGPT choisit la réponse textuelle qui présente le meilleur score de correspondance statistique avec la question. Pas forcément la bonne réponse, mais celle qui s’en approche le plus, avec néanmoins un mécanisme de filtres pour éviter les dérives (ex : des questions tordues qui généraient du texte raciste ou antisémite). Le modèle de référence (GPT) est extrêmement coûteux à entraîner car il faut lui faire ingérer toujours plus de contenus, il n’est donc mis jour qu’une fois tous les 12 ou 18 mois. En revanche, ChatGPT s’appuie sur du renforcement humain, il évolue donc plus naturellement et peut être mis à jour tous les mois.

La véritable révolution des transformers (le “T” de GPT) est de procéder à une analyse syntaxique de la demande (la fameuse “prompt“) pour pouvoir trouver une correspondance dans la base linguistique, qui elle-même est devenue de plus en plus grande à mesure que l’on augmentait la capacité de traitement durant la phase d’entraînement ()grâce aux ressources informatiques disponibles dans le cloud). On parle alors de grands modèles linguistiques (Large Language Model). Autant les premiers modèles ont été créés à l’aide d’un corpus restreint (une partie de Wikipedia pour BERT), autant les suivants ont été victime de boulimie et ont été entraînés avec tout ce qu’on a pu leur donner à ingérer : le web et ses innombrables contenus de qualité… variable (néanmoins filtrés par une équipe de Kenyans sous-payés : OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic). La principale différence vient donc des données ayant servies à l’entraînement des modèles.

Autre différence notable : ChatGPT est un modèle probabiliste qui repose sur des calculs statistiques : la réponse formulée est celle qui a la plus forte probabilité de correspondre à la demande. À la différence du graphe sémantique de Google qui repose sur un principe déterministe : soit il connaît la réponse, car elle est dans sa base de connaissances, soit il ne la connaît pas et va délivrer un résultat négatif. Ceci explique que ChatGPT donne parfois l’impression d’halluciner et d’inventer des réponses : elles sont statistiquement acceptables (probablement vraies), mais factuellement fausses.

Le Knowledge Graph est donc le principal argument en la faveur de Google, une gigantesque ontologie qu’ils bâtissent en secret depuis plus de 10 ans (Introducing the Knowledge Graph: things, not strings). Le problème est que le grand public n’a pas accès au graphe sémantique de Google, malgré les explications fournies récemment (A reintroduction to our Knowledge Graph and knowledge panels), tandis que les modèles d’OpenAI sont librement accessibles (DALL-E, ChatGPT, Whisper…). De ce fait, les néophytes ont l’impression d’avoir entre les mains une innovation de rupture, alors qu’elle est le fruit d’un très long travail d’évolution et de perfectionnement débuté il y a plus de 60 ans.

Malgré tout, certains ont pu tester le nouveau Bing qui s’appuie sur ChatGPT (entre autre) et la prise en main n’est pas réellement concluante : Premier test de Bing ChatGPT : je me suis disputé avec une IA et Les 1eres impressions de Microsoft Bing intégrant ChatGPT. D’autres ont fait des tests approfondis, et la déception est encore plus grande : Bing around and find out, No, Bing’s AI Chatbot Is Not Sentient, Microsoft’s Bing is an emotionally manipulative liar, and people love it ou Bing Is a Liar, and It’s Ready to Call the Cops.

Encore une fois, le problème ne vient pas de la taille du modèle (puisqu’on nous promet déjà des améliorations significatives avec GTP 4), mais de la méthode : ChatGPT ne comprend pas réellement ce qu’il génère, car il a une approche statistique (reposant sur une base linguistique) et non significative (reposant sur une base de connaissances structurée).

Bref, tout ça pour dire que Google et Microsoft ont deux approches radicalement différentes : Google essaye de maintenir sa position de leader en cherchant à bien faire les choses, car c’est la promesse formulée aux marchés financiers (la devise de Google était “Don’t be evil“, remplacée en 2018 par “Do the right thing“), tandis que Microsoft qui n’a rien à perdre et tente le hold up du siècle.

Signalons au passage que Google a le luxe de pouvoir miser sur les deux approches avec d’un côté son graphe de connaissances, et de l’autre son modèle de langage conversationnel (LaMDA pour Language Model for Dialogue Applications) qu’ils sont en train de finaliser : Google shows off new AI search features, but a ChatGPT rival is still weeks away.

Entendons-nous bien : si les réponses de ChatGPT (et du nouveau Bing) sont aujourd’hui perfectibles, elles seront perfectionnées, je n’en ai absolument aucun doute. Les difficultés sont ailleurs, car il y a de nombreuses zones d’ombre dans la belle histoire que Microsoft essaye de nous faire croire, notamment des problèmes juridiques, commerciaux et éthiques.

Les différences entre un moteur de recherche et un agent conversationnel

Poursuivons notre argumentation avec cette seconde grosse différence : Google est un moteur de recherche, il affiche des résultats. Le nouveau Bing est un agent conversationnel qui délivre une seule réponse. Cette distinction entraîne une responsabilité qui n’est pas la même : Google est un intermédiaire (entre les utilisateurs et les éditeurs des sites référencés), tandis que Bing est un éditeur (il génère ses propres réponses).

De nombreux articles ont été publiés cette semaine pointant du doigt des zones d’ombre dans les belles promesses de Microsoft :

Comme vous pouvez le constater, la liste de questions est longue, dont certaines étaient déjà posées il y a 5 ans avec les assistants vocaux et auxquelles nous n’avons toujours pas de réponses (lire à ce sujet cet article publié en 2017 : Les assistants personnels sont les nouveaux navigateurs web, et les GAFAM en sont les maitres absolus).

S’il y a une grande vague d’enthousiasme pour ces modèles génératifs qui sont censés révolutionner le monde du travail, vous noterez que les professionnels de l’édition sont en revanche beaucoup plus circonspects sur le potentiel des IA génératives : Publisher editorial teams experiment with ChatGPT, but few use AI tech in their work.

S’il est encore trop tôt pour dire qui à tort ou qui a raison, ce qui est certain c’est que Microsoft essaye de nous faire le coup de la technologie miracle, alors que la seule prouesse de ChatGPT est de fournir un service gratuit. Comme expliqué dans mon précédent article, la tactique de Microsoft est d’acheter des parts de marché, comme le font les startups en proposant un service gratuit, puis en basculant sur un modèle payant. Le problème est qu’en cherchant à revenir dans la course, Microsoft va se heurter à des difficultés qui ne sont pas (que) techniques.

Un marché de la recherche verrouillé depuis de nombreuses années

Comme nous l’avons vu précédemment, la recherche est une activité extrêmement lucrative, largement dominée par Google qui s’est assuré une position dominante grâce à son propre navigateur (Chrome qui représente plus de 65% de parts de marché) et en payant les autres éditeurs pour faire de Google le moteur de recherche par défaut (un montant estimé à 20 MM$ par an pour Apple et à 500 M$ pour Mozilla). Ceci explique que la part de marché de Google dans la recherche soit supérieure à 90% : Google’s Search Dominance.

Pour le moment, Bing ne représente que 3,5% du marché de la recherche sur ordinateur. Une toute petite part qui ne risque pas de beaucoup évoluer dans la mesure où la gamme Surface représente moins de 3% des ventes de PC.

Sur les terminaux mobiles, c’est encore pire, car Microsoft s’est retiré du marché des smartphones en 2017. De ce fait, il ne reste plus que Google et Apple avec respectivement Android et iOS.

Il ne reste plus que le créneau des objets connectés avec leurs assistants numériques où Bing est bien placé par l’intermédiaire d’Alexa. L’enceinte connectée d’Amazon est effectivement populaire, mais en perte de vitesse par rapport à Apple et Google qui font jouer la complémentarité avec les smartphones. De plus, il y a d’autres supports, notamment les oreillettes connectées, où là encore Apple et Google parviennent à imposer leur assistant.

Vous constaterez que c’est encore et toujours une bataille que se livrent les bigtechs entre elles. Il n’y a clairement pas de place pour les nouveaux entrants : The AI Boom That Could Make Google and Microsoft Even More Powerful.

L’investissement colossal de 10 MM$ dans OpenAI s’apparente donc à une manoeuvre quasi désespérée de Microsoft pour relancer Bing dans le marché de la recherche alors qu’il stagne depuis plus de 10 ans. Est-ce une fuite en avant ? Plutôt une opportunité de se positionner en avance de phase sur un créneau en forte croissance (la recherche assistée), LA spécialité de Microsoft qui par le passé a abusé de cette tactique pour écarter les concurrents.

Se pose maintenant la question de savoir si le marché de la recherche conversationnelle en vaut la peine.

Avons-nous réellement besoin de mettre de l’IA partout ?

Je pense que tout a été dit sur le potentiel des modèles génératifs, vous n’avez pas besoin de moi pour comprendre les capacités de ces outils (Les IA génératives annoncent une révolution dans les médias et la publicité). Ce marché est évalué à 10 MM$ en 2020, il devrait atteindre 50 MM$ en 2028 et dépasser les 200 MM$ d’ici à 2032 : Global Generative AI Market Size Value Cap Expected to Grow USD 200.73 Billion By 2032, at 34.2% CAGR.

Je ne me risquerai pas à commenter ou à dénoncer ces projections, car il suffit de quelques minutes pour se rendre compte du potentiel de ChatGPT, capable de générer des contenus très convaincants, mais est-ce de ça dont nous avons besoin ? Dans la mesure où cela fait plus de 10 ans que nous luttons contre les fermes à contenu, l’infobésité, les spams, les fake news… pourquoi se réjouir de la disponibilité des IA génératives ? D’autant plus que ChatGPT n’est que le dernier outil disponible d’une longue liste : Comment écrirons-nous en 2030 ?

La vraie question que je me pose est la suivante : quel est le problème qu’ils essayent de résoudre ? La question se pose, car si les bénéfices sont théoriques, les dangers sont eux bien réels, comme on a pu le voir ces derniers mois avec une série de contenus synthétiques qui finissent toujours pas passer entre les mailles du filet (Réforme des retraites : Ces images d’un CRS et d’une manifestante, par Midjourney, font le tour du monde).

Outre le problème des fausses images (ou vidéos, ou extraits sonores), il y a également le souci de la syntaxe des contenus textuels. Les réponses générées par ChatGPT sont grammaticalement irréprochables, mais terriblement fades. Le niveau de langage très élevé de ChatGPT nous trompe ainsi sur sa capacité à formuler des raisonnements à la fois corrects, mais aussi éthiques, voire humains.

Some might say that the output of large language models doesn’t look all that different from a human writer’s first draft, but, again, I think this is a superficial resemblance. Your first draft isn’t an unoriginal idea expressed clearly; it’s an original idea expressed poorly, and it is accompanied by your amorphous dissatisfaction, your awareness of the distance between what it says and what you want it to say. That’s what directs you during rewriting, and that’s one of the things lacking when you start with text generated by an A.I.

Source : ChatGPT Is a Blurry JPEG of the Web

Est-ce ça dont nous avons besoin : une avalanche de contenus aseptisés, mais à la véracité incertaine ? Je ne suis pas certain que les lecteurs y gagnent au change, de même que les rédacteurs, car la promesse de faire gagner du temps risque de provoquer l’inverse :

New technologies meant to free people from the burden of work have added new types of work to do instead. Maybe AI will help you work. But more likely, you’ll be working for AI. OpenAI appears to be adopting a classic mode of technological solutionism: creating a problem, and then selling the solution to the problem it created.

Source : ChatGPT Is About to Dump More Work on Everyone

À ce stade de mon explication, j’imagine que vous avez déjà deviné où je voulais en venir : la généralisation des intelligences artificielles va-t-elle réellement bénéficier à la société ? Difficile à dire pour le moment, car il y a énormément de paramètres à prendre en compte.

Ceci étant dit, je trouve intéressant de remettre en question cette fuite en avant (le solutionnisme technologique) et de nous interroger sur la pertinence de la généralisation des intelligences artificielles dans les services numériques que nous utilisons au quotidien.

Une nouvelle étape de la domestication de l’homme par la machine ?

Nombreux sont celles et ceux qui ont tenté de nous alarmer au sujet de l’utilisation toujours plus intensive des intelligences artificielles. Je n’en dresserai pas la liste, mais je signale néanmoins les prises de parole récurrentes de Eric Sadin à ce sujet : dès 2018 (L’asservissement par l’intelligence artificielle) et plus récemment (ChatGPT : « Plus que dans un capitalisme de surveillance, nous voici dans une administration de notre bien-être »).

Je ne suis ni philosophe, ni anthropologue, néanmoins, je constate que ce qui différencie les humains des mammifères est la taille de leur cerveau. Un cerveau avec des facultés sociales hyper-développées qui permettent aux humains de mieux raisonner, créer et socialiser.

En déléguant aux intelligences artificielles toujours plus de tâches cognitives, le risque est de se rendre dépendant et surtout de voir la taille de notre cerveau diminuer, comme un muscle que l’on ne fait plus travailler. Suis-je en train d’affabuler ? Non pas réellement, et pour s’en convaincre il suffit de lire les articles publiés par des fonds d’investissement comme a16z qui montrent un optimisme sans limites pour les intelligences artificielles : Generative AI, The Next Consumer Platform et Five Predictions for the Future of Learning in the Age of AI.

Pour être plus précis, les principaux risques encourus sont les suivants :

  • Une baisse de la capacité de raisonnement avec les réponses génériques (manque de discernement des bons liens et sources) et les résumés (manque de nuances) ;
  • Une baisse de la faculté de communiquer avec la génération automatique de messages ou de contenus (emails, articles…) ;
  • Une baisse de la faculté de socialiser avec les interactions automatisées (avatars, réponses suggérées…).

Pour bien mesurer le danger que représente cette intrusion des IA génératives dans notre quotidien, il faut prendre du recul : Nous sommes dans un contexte socio-politico-culturel complexe où la société est de plus en plus divisée alors que les enjeux sont décisifs (transition énergétique, alimentaire…).

La priorité de l’humanité n’est pas de s’amuser à générer des images rigolotes, mais à mieux analyser (écouter, prendre conscience), mieux communiquer (expliquer, se faire comprendre), mieux collaborer (trouver des solutions et des compromis). Il y a une réelle urgence à ne pas se laisser aller à la facilité en déléguant toujours plus de tâches cognitives à des machines, car cela risque d’appauvrir tout ce qui fait notre humanité.

De plus, je vous rappelle que nous n’avons pas besoin d’un nouveau moteur de recherche, mais de nouvelles façons de travailler : Avons-nous encore besoin des ordinateurs et imprimantes ? La priorité de Microsoft ne devrait certainement pas être de venir concurrencer Google sur son terrain, mais de perfectionner ses solutions dans le cloud (dont ses offres de modèles verticaux pré-entrainés) ainsi que ses environnements de collaboration. En ce sens, ce nouveau Bing est une distraction incompréhensible pour Microsoft qui a pourtant fort à faire avec Azure et avec l’intégration de Teams, SharePoint et Viva.

Tout ceci nous amène à essayer de comprendre l’origine de cette affaire.

À qui profite ChatGPT ?

Avec tout ce brouhaha autour des IA génératives, il y a une forte spéculation sur l’éditeur de GPT dont la valorisation approche les 30 MM$ : ChatGPT’s creator OpenAI has doubled in value since 2021 as the language bot goes viral and Microsoft pours in $10 billion. Il y a ici un énorme risque de bulle spéculative, car nous avons déjà connu deux “innovations de rupture” dont les promesses n’ont clairement pas été tenues : les voitures autonomes et les interfaces neurales.

Dans ces deux précédents cas, des promesses très fortes ont été formulées alors que de nombreux problèmes techniques, commerciaux, juridiques et étiques restaient encore en suspend. Pour le moment, ça progresse très lentement :

Quel est le point commun entre ces trois “technologies disruptives” qui se révèlent immatures ? Elon Musk, qui est à l’origine de Tesla, Neuralink et OpenAI. Dans les trois cas, c’est toujours le même schéma qui se répète : Des annonces fracassantes avec des promesses qu’ils ne savent pas tenir. Que vous le reconnaissiez ou pas, ils sont en train de nous refaire la même avec OpenAI et ChatGPT, sauf que cette fois ils se sont trouvé un partenaire industriel pour les accompagner (Microsoft).

Vous ne trouvez pas qu’il ressemble aux vilains dans un film de James Bond ?

Ce qui me chagrine dans cette histoire, c’est que si Microsoft à les moyens de faire un pari à plusieurs milliards de dollars, l’humanité ne peut plus réellement se permettre ce genre de digression, car le temps presse (échéance climatique, raréfaction des terres rares…). Notre réelle priorité n’est pas de bousculer le marché de la recherche, mais plutôt de mettre en oeuvre au plus vite les principes de développement numérique durable : Une transformation digitale vertueuse à travers la responsabilité numérique des entreprises. Arrêtez donc de fantasmer sur les IA génératives et éteignez vos ordinateurs et smartphones le soir ! 😡

Quoique les deux ne sont pas incompatibles… 🤔

MàJ (16/02/2023) : Suite aux premiers retours des utilisateurs, Microsoft fait amande honorable et communique en toute transparence sur les progrès à réaliser (The new Bing & Edge, Learning from our first week).

MàJ (17/02/2023) : Google profite des déboires de Microsoft pour cadrer son service avant même sa disponibilité (Google asks employees to rewrite Bard’s bad responses, says the A.I. ‘learns best by example’).