Entre promesses révolutionnaires et scénarios catastrophistes, le web agentique suscite autant d’espoirs que de peurs, souvent alimentés par des discours opportunistes qui brouillent notre compréhension des enjeux réels. Je vous propose dans cet article de démêler le vrai du faux en analysant la réalité derrière l’agitation médiatique : pourquoi l’adoption de l’IA agentique est bien plus lente que ce que les éditeurs veulent nous faire croire, quels sont les véritables obstacles qui freinent les entreprises (humains, culturels, organisationnels..), et pourquoi des phénomènes comme le vibe coding méritent notre vigilance. Car si la révolution agentique est bel et bien en marche, elle ne se fera ni toute seule, ni du jour au lendemain.

En synthèse :
- L’IA ne provoquera pas l’apocalypse, mais ne fera pas non plus de miracles. Les précédents historiques montrent que les révolutions technologiques génèrent toujours plus d’emplois qu’elles n’en détruisent, mais les gains de productivité promis par les éditeurs restent pour l’instant invisibles sur les fiches de paie.
- La peur de l’IA est un fonds de commerce. Entre analystes anxiogènes, journalistes sensationnalistes et techno-prophètes au comportement sectaire, la confusion ambiante profite surtout à ceux qui en font un levier d’attention médiatique ou d’enrichissement rapide.
- L’adoption de l’IA agentique se heurte à un mur humain, pas technologique. Le fossé entre les populations informatiques, déjà à l’aise avec ces outils, et le reste des salariés, encore empêtrés dans leurs lacunes numériques et leurs habitudes de travail, est bien plus profond que ce que les éditeurs veulent admettre.
- Le vibe coding est une bombe à retardement. Utile pour prototyper ou automatiser des tâches ponctuelles, il donne l’illusion de la compétence et risque de reproduire à grande échelle le désastre de l’informatique « grise » des années 80, avec en prime des problèmes de sécurité et de conformité réglementaire.
- Avant de rêver d’agents intelligents, il faut mettre de l’ordre dans le chaos informationnel. Les entreprises ont moins besoin d’experts en IA que de documentalistes et de référents numériques capables de structurer leurs données et d’acculturer leurs équipes aux usages numériques.
Encore une semaine très riche en annonces et nouveaux produits pour les éditeurs d’outils numériques reposant sur l’IA :
- Introducing Custom Agents chez Notion ;
- The First Fully General Computer Action Model pour Perplexity ;
- Nano Banana 2: Combining Pro capabilities with lightning-fast speed chez Google ;
- Introducing Mercury 2, The fastest reasoning LLM, powered by diffusion pour Inception Labs…
Les semaines passent et finissent par toutes se ressembler, car les progrès autour de l’IA générative sont constants depuis plusieurs années (depuis le lancement de ChatGPT). Nous vivons une période particulière où l’innovation fonctionne à plein régime, mais où la compréhension est encore très faible. Dans ces conditions, il est très difficile d’arriver à faire la part des choses, de discerner les bruits des signaux, tant les annonces sont nombreuses et contradictoires, oscillant inlassablement entre les discours révolutionnaires et cataclysmiques.
La vérité se situe sans doute entre ces deux discours. Mais ce qui est certain, c’est qu’il y a une fuite en avant. Vers quoi ? Ça c’est la question à 1 T$ ! Très certainement vers l’avènement des machines, dont certains prennent le parti de rire : Watch the viral ‘ad’ that imagines aged Elon Musk, Sam Altman, and Jeff Bezos promoting a creepy energy source for AI.
La peur (de l’IA) fait vendre
Ces injonctions au progrès technologique laissent libre cours à des acteurs sans scrupule qui prennent des raccourcis, à l’image des éditeurs chinois qui ne se gênent pas pour pratiquer la distillation à grande échelle (c’est-à-dire « aspirer » les connaissances des modèles de référence pour entraîner leurs propres modèles) : Anthropic says DeepSeek, Moonshot, and MiniMax used 24,000 fake accounts to rip off Claude. Cette pratique illustre parfaitement la dynamique actuelle : dans la course à l’IA, tous les coups sont permis.
Toutes ces annonces fracassantes sont également une aubaine pour des analystes sans vergogne qui agitent le drapeau rouge afin de capter l’attention médiatique : The 2028 Global Intelligence Crisis. . Cette analyse, au titre savamment anxiogène, décrit un scénario où l’IA provoquerait un effondrement systémique de l’économie mondiale d’ici deux ans. Une mise en garde relayée par des journalistes qui se délectent de ces scénarios catastrophes sans aucunement chercher à les questionner, provoquant ainsi un phénomène de panique sur les marchés financiers avec l’effondrement des cours de bourse des grands éditeurs de logiciels : Wall Street Has AI Psychosis.

Pourtant, l’analyse citée plus haut ne relève pas de travaux de recherche scientifique, mais plus d’une rhétorique proche de la collapsologie, qui se fait d’ailleurs démontée par plusieurs cabinets d’étude ou d’investissement plus sérieux :
- The ‘extreme and improbable’ economics of Citrini’s AI report ;
- Citrini’s Scenario Is A Great But Deeply Flawed Thought Experiment ;
- The 2026 Global Intelligence Crisis.
Beaucoup de bruit pour rien donc, d’autant plus que nous disposons d’études macro-économiques qui nous confirment que les changements ne sont jamais aussi brutaux, mais s’inscrivent dans une réalité économique et administrative qui a toujours imposé son propre rythme : Thousands of CEOs just admitted AI had no impact on employment or productivity, and it has economists resurrecting a paradox from 40 years ago.
Vous ne me croyez pas ? Je vous engage à lire cette autre étude : The Macroeconomic Consequences of AI. L’auteur y explique en substance que si l’IA va indéniablement remodeler l’économie, les précédents historiques (moteur à combustion, électricité, ordinateur personnel, internet) montrent que ces technologies, bien que profondément disruptives, ont toujours fini par générer davantage d’emplois qu’elles n’en ont détruit.
It is highly certain that AI will fundamentally reshape the economy. However, it is equally uncertain just how and when. […] If the history of past technological advances is a reliable guide, we should be reasonably optimistic about AI. Technologies such as the internal combustion engine, electricity, the personal computer, and the internet were highly disruptive, making many existing jobs obsolete. However, these technologies also generated enormous gains in incomes, profits and wealth, driving greater demand for other goods and services and creating additional jobs, including some that were unimaginable at the time.
Traduction : l’économie suit des cycles de croissance / décroissance qui sont amorcés par des innovations technologiques. À chaque fois, les contemporains ont cru vivre la fin du monde. À chaque fois, le monde s’est adapté, non pas sans douleur, mais sans apocalypse.

Vous ne me croyez toujours pas ? Alors je vous suggère cette autre étude : Effective AI in the Workplace: What the Research Shows. Les chercheurs y démontrent que l’IA fonctionne mieux lorsqu’elle automatise des tâches de support au sein d’un poste, rendant le travail humain restant plus décisif et exigeant un niveau de jugement plus élevé. Le travail est certes exécuté plus vite, mais il continue de nécessiter une supervision humaine.
Rather than eliminating roles or departments wholesale, AI works best when it automates supporting tasks within a job, making the remaining human work more consequential and requiring higher levels of judgment. Work may get done faster, but it will still require human oversight.
Pour résumer de longues explications : non, l’IA ou les agents intelligents ne sont pas magiques, ils représentent un potentiel gigantesque, mais qui n’est accessible qu’à ceux qui font l’effort de comprendre, d’apprendre et de changer leurs habitudes. Mais ça, c’est un discours que personne ne veut entendre, et qui n’intéresse nullement les journalistes qui préfèrent largement relayer les théories sur la fin du monde.
Pourtant, la vérité n’est pas très loin, il suffit simplement d’écouter les bonnes personnes pour avoir un avis beaucoup plus modéré sur cette « révolution agentique » qui rend quasi-instantanément les logiciels et applications en ligne obsolètes : Workday CEO says Anthropic and OpenAI uses his company’s software.
Je pense que la meilleure illustration de ce faux départ de l’IA agentique est le fait que le montant moyen des augmentations est aussi faible que durant la crise financière : Nearly half of companies are turning to poor ‘peanut butter’ raises, following the same pattern of the 2008 recession, and it could take years to recover. Peut-être est-il réellement temps de relativiser ces gains de productivité que nous promettent les éditeurs, car si l’IA avait réellement stimulée la productivité des entreprises comme on nous l’assure, les salariés en verraient les bénéfices sur leur fiche de paie. Force est de constater que ce n’est pas le cas.
N’allez pas croire que je me complais dans le rôle du rabat-joie de service, mais ayant connu plusieurs révolutions technologiques (PC, web, smartphones, cloud), je peux vous assurer que l’adoption et les progrès réels sont beaucoup plus longs à venir que ce que les progrès technologiques nous le font espérer.
Pas de révolution instantanée, juste une lente évolution empirique
Je pense ne rien vous apprendre en écrivant qu’entre la révolution agentique et la révolte des machines, nous nous dirigeons assurément vers un scénario intermédiaire où les entreprises et gouvernements vont se laisser porter par le courant de l’évolution et tenter tant bien que mal de masquer leur incompréhension des innovations récentes et de leurs enjeux. C’est exactement ce qui s’est passé avec la transformation numérique au cours de la dernière décennie : beaucoup d’entreprises ont prétendu se transformer alors qu’elles se contentaient d’empiler des outils sans changer fondamentalement leurs processus. La dette numérique ainsi accumulée rend l’adoption de l’IA agentique encore plus compliquée qu’elle ne devrait l’être.
Le problème est toujours le même : les technologies les plus performantes ne valent que si elles sont acceptées par le plus grand nombre. Et pour le moment, je vous rappelle qu’une bonne partie des salariés ont toujours le plus grand mal à gérer leurs emails. Penser qu’ils vont spontanément installer leur propre serveur OpenClaw pour automatiser les tâches répétitives relève de la science-fiction. Il ne s’agit pas d’un problème technique, mais d’un problème humain, culturel et organisationnel.

Non, la révolution agentique ne va pas se faire toute seule, car elle nécessite des ressources (informations, données, connaissances) et des compétences qui ne sont pas disponibles. Pour vous en convaincre, il vous suffit de demander l’avis d’un collègue informaticien, il vous confirmera que les DSI des grandes entreprises et organisations sont encore empêtrées dans le chantier de migration des applications vers le cloud, et qu’elles n’ont aucune envie de se précipiter pour déployer des technologies autant immatures qu’instables : imaginez devoir développer une application métier alors que de nouveaux systèmes de base de données sortent tous les jours, TOUS LES JOURS !
Ne sous-estimons pas non plus la résistance au changement, qui n’est pas qu’un réflexe conservateur. C’est aussi une forme d’intelligence collective : les organisations qui ont survécu à plusieurs vagues technologiques ont appris qu’il vaut mieux être un adopteur éclairé qu’un adopteur précoce.
Bref, tout ça pour dire que l’IA fait peur, surtout à ceux qui ne font pas l’effort de la comprendre. Voilà pourquoi les « journalistes » usent et abusent des récits catastrophiques, car c’est un raccourci facile pour générer de l’audience. C’est un fait connu de tous, mais ça ne les empêche pas d’en remettre une couche. Puisque le spectre des licenciements de masse commence à s’essouffler, on nous ressort ainsi celui de la guerre nucléaire : AIs can’t stop recommending nuclear strikes in war game simulations. Ce genre de titre sensationnaliste mérite d’être déconstruit : un modèle de langage qui recommande une frappe nucléaire dans une simulation ne signifie pas que l’IA va déclencher un conflit. Cela signifie simplement que les modèles actuels, entraînés sur des corpus incluant de la doctrine militaire, reproduisent les logiques d’escalade qu’ils ont absorbées. C’est un problème de données d’entraînement, pas un problème existentiel.
Mais dans le doute, certains essaient de freiner la militarisation de l’IA :
- Anthropic refuses Pentagon’s new terms, standing firm on lethal autonomous weapons and mass surveillance ;
- Google Workers Seek ‘Red Lines’ on Military A.I., Echoing Anthropic.
Je trouve plutôt cocasse qu’un éditorialiste américain brandisse la peur d’un conflit nucléaire, alors que, jusqu’à preuve du contraire, son pays est le seul à avoir fait usage de l’arme nucléaire. J’imagine qu’ils ont la mémoire courte ou qu’ils n’ont pas écouté à l’école…
Tiens d’ailleurs, à ce sujet, saviez-vous que pour la première fois dans l’histoire de l’humanité, la nouvelle génération a un niveau d’instruction plus faible que la précédente ? C’est pourtant une réalité : The U.S. spent $30 billion to ditch textbooks for laptops and tablets: The result is the first generation less cognitively capable than their parents. 30 MM $ investis pour remplacer les manuels scolaires par des tablettes aux États-Unis, et le résultat est une régression cognitive. Voilà qui devrait nous inciter à un minimum de prudence quant aux promesses miraculeuses de la technologie dans l’éducation. Non, un écran n’est pas un professeur, un moteur de recherche n’est pas un cerveau, et l’accès instantané à l’information n’a jamais remplacé l’effort d’apprentissage.
Comme précisé en début d’article, nous sommes dans une période faste où les plus malins profitent de la confusion ambiante pour s’ériger en nouveaux prophètes et nous vendre une vision de l’avenir où ils seront les rois, comme à l’époque du Web3 où la blockchain était censée être la solution à tout. L’histoire ne se répète pas exactement, mais elle rime : les mêmes mécanismes d’emballements médiatiques, les mêmes promesses de disruption, les mêmes investisseurs aveuglés par la peur de manquer le train.
De nouveaux prophètes numériques prêts à tout pour un enrichissement rapide
Le problème est que ces nouveaux techno-prophètes sont maintenant assistés d’outils dopés à l’IA qui leur permettent de laisser libre cours à leurs ambitions (La superintelligence va décupler notre capacité d’agir) et de contourner toutes les règles sociales implicites, et de tenter le jackpot avec l’argent d’investisseurs complètement désinhibés qui, non seulement ne leur expliquent pas qu’ils vont trop loin, mais les incitent ! Ce phénomène crée une boucle de rétroaction inquiétante : des projets de plus en plus extravagants génèrent du buzz médiatique, qui attire de nouveaux investisseurs. Nous avons déjà vu ce mécanisme à l’œuvre avec les ICO en 2017 et les NFT en 2021, et nous savons comment cela se termine.
Cet article très instructif dresse ainsi le portrait de techno-prophètes au comportement sectaire préoccupant : Child’s Play. Une nouvelle génération de sociopathes qui sont malheureusement devenus les nouvelles icônes de la Silicon Valley, à l’image du fondateur de Cluely, une startup qui s’est fait connaître en proposant un service d’assistance pour tricher aux examens ou aux entretiens d’embauche : Inside the intentionally ‘fratty’ AI startup that wants you to cheat on everything. Que l’on puisse lever des millions de dollars pour industrialiser la triche en dit long sur l’état moral de l’écosystème technologique. Le message implicite est dévastateur : les compétences réelles ne comptent plus, seule compte l’ambition.

Le dénominateur commun de ce microcosme en pleine ébullition est la capacité agentique des derniers modèles génératifs, et avec elle la mouvance du vibe coding, la nouvelle religion des « doers » : ceux qui font, par opposition aux « thinkers« , ceux qui réfléchissent (trop). Le vibe coding cristallise parfaitement cette tension : il donne l’illusion de la compétence à ceux qui n’ont jamais pris le temps de comprendre les fondamentaux.
Cette dichotomie simpliste entre l’action et la réflexion est révélatrice d’une culture qui valorise la vitesse d’exécution au détriment de la qualité et de la pertinence. Comme si agir sans comprendre était devenu une vertu. « Move fast and break things » ? Faut voir, ça dépend…
Vous faire conduire par une voiture autonome ne fait pas de vous un conducteur
Pour mémoire, le vibe coding est une pratique qui consiste à utiliser des outils d’IA pour générer du code sans avoir de compétences ou connaissances en informatique. C’est une approche qui fusionne l’art du codage assisté avec l’inspiration et l’intuition. Formulé ainsi, cela semble presque poétique. Mais grattez un peu le vernis et vous découvrirez une réalité beaucoup moins romantique : des applications bricolées sans architecture cohérente, des tests bâclés, des documentations quasi-inexistantes, et aucune considération pour la sécurité ou la maintenabilité.
Si je suis le premier à reconnaître que cette nouvelle génération d’outils (Claude Code, ChatGPT Codex, Cursor…) est révolutionnaire, car elle ouvre la voie des environnements agentiques de travail (Des Digital Workplaces aux Agentic Workplaces), je reste parfaitement lucide quant à leurs limitations, car ils ne sont pas du tout adaptés pour concevoir et créer des applications d’envergure ou critiques. Ces outils sont extraordinaires pour prototyper, pour automatiser des tâches répétitives, pour accélérer le travail de développeurs expérimentés. Mais les utiliser comme substitut à une véritable ingénierie logicielle ou à une compétence fonctionnelle, c’est confondre la maquette avec le bâtiment.
Si je devais faire une analogie : les outils de vibe coding sont aux solutions informatiques ce que les vélos-cargos sont aux camions de livraison : une utopie dont seule une infime partie de la population peut bénéficier dans de bonnes conditions. Je n’ai rien contre les vélotafeurs, mais il faut bien avouer que les vélos-cargos ne sont adaptés que pour certains usages dans un contexte très spécifique. Vous pouvez livrer un colis dans votre quartier avec un vélo-cargo, mais vous ne pouvez pas approvisionner un supermarché.

Formulé autrement : non, le vibe coding n’est pas la solution à tout, c’est l’enfant terrible des outils de no-code et des modèles génératifs, une technologie très puissante à ne pas mettre entre toutes les mains. On pourrait d’ailleurs établir un parallèle instructif avec l’informatique « grise » des années 80 : quand le PC est arrivé dans les entreprises, il a engendré des applications bricolés par les utilisateurs eux-mêmes en VBscript en dehors de tout contrôle de la DSI. Quarante ans plus tard, les entreprises se battent encore avec des tableaux Excel devenus des applications critiques que plus personne ne sait maintenir. Le vibe coding risque de reproduire exactement le même phénomène, mais à une échelle et une vitesse sans précédent.
Il existe déjà d’innombrables articles qui expliquent bien mieux que je ne pourrais le faire les limites du vibe coding, mais comme ils sont rédigés par des informaticiens, on ne les écoute pas (cf. Vibe Coding Explained: How It Works, Benefits, and Hidden Risks). Pourtant, je peux vous garantir que les risques sont bien réels : failles de sécurité, éparpillement des informations, corruption des données… Ajoutez à cela les problèmes de conformité réglementaire (RGPD, NIS2, DORA), et vous comprenez que le vibe coding en entreprise est une bombe à retardement.

Diriez-vous que la grille de calculs bricolée par votre collègue est un substitut aux applications métier ? Non, bien évidemment, même s’il faut bien avouer qu’Excel rend de sacrés services pour ce que je qualifie d’outils informatiques de proximité. Le vibe coding occupe exactement la même niche : utile pour des besoins ponctuels et limités, dangereux dès qu’on cherche à en faire un pilier de son activité.
Le pire dans tout ça est que les progrès des modèles génératifs sont constants et réels, menaçant ainsi des rentes de situation qui ont bien trop duré : How AI helps break the cost barrier to COBOL modernization. Voilà un cas d’usage parfaitement légitime : utiliser l’IA pour moderniser des systèmes historiques que plus personne ne sait maintenir. C’est exactement dans ce type de contexte que l’IA excelle, quand elle est utilisée comme un outil au service de professionnels compétents. Le tout étant d’être bien conscient de leurs forces et faiblesses, et surtout, de leur attribuer le bon rôle. Car un outil puissant mal utilisé n’est pas un outil défaillant, c’est un outil mal compris.
L’IA comme copilote plutôt que comme pilote automatique
Si vous lisez ce blog régulièrement, alors vous connaissez déjà mon point de vue : l’IA est un paradigme de l’outil informatique qui peut nous aider à tourner la page du XXe siècle pour nous projeter dans le XXIe siècle : s’extraire de l’impasse dans laquelle nous sommes bloqués avec les fichiers et emails pour adopter de nouveaux outils et nouvelles façons de travailler (cf. Des intranets collaboratifs aux environnements numériques de travail augmentés par l’IA).
J’ai bien conscience que mon discours peut prêter à confusion, car cela donne l’impression que je souffle le chaud et le froid : d’un côté j’annonce la révolution agentique (Une accélération exponentielle de l’IA grâce aux agents intelligents), alors que de l’autre, je la dénonce ! Mais ne vous y trompez pas : ce que je dénonce est l’empressement des éditeurs à nous vendre des solutions immatures pour lesquelles les utilisateurs potentiels ne sont clairement pas prêts. Ce n’est pas la destination que je conteste, c’est la vitesse à laquelle on nous force à embarquer.
Vous noterez au passage que les éditeurs ne sont pas les seuls à vouloir traire la vache de l’IA par anticipation, car les cabinets de conseil sont maintenant en ordre de bataille pour nous faire avaler de force la soupe agentique : OpenAI forms « Frontier Alliances » with top consultancies to push enterprise AI into production. Si ça peut vous rassurer, les éditeurs américains ne seront pas les uniques bénéficiaires de cette révolution annoncée : Mistral AI inks a deal with global consulting giant Accenture.
Si vous cherchez une preuve que la révolution agentique est prématurée, elle est sous vos yeux, il suffit de consulter les statistiques fournies par Anthropic pour se rendre compte que l’adoption des agents IA est pour le moment confinée aux métiers de l’informatique : Half the AI Agent Market Is One Category, The Rest Is Wide Open.

J’ai déjà abordé cette question dans un précédent article (Une accélération exponentielle de l’IA grâce aux agents intelligents), et je persiste : si l’adoption des outils agentiques a été rapide pour les populations informatiques, c’est parce que nous parlons de salariés parfaitement à l’aise avec l’informatique (c’est leur boulot), disciplinés (ils ont l’habitude de collaborer autour de normes et conventions), et surtout conscients qu’ils doivent faire évoluer leurs compétences en permanence. Pour les salariés lambda, c’est tout l’inverse : ils souffrent de grosses lacunes informatiques / numériques, travaillent chacun dans leur coin avec leurs propres outils et conventions, et sont absolument persuadés d’être les garants d’un savoir-faire inestimable. Pour être quotidiennement confronté à ce défi dans mes missions d’acculturation, je peux vous affirmer que le fossé entre ces deux populations est bien plus profond que ce que les éditeurs veulent bien admettre.
Entre les apôtres du travail à l’ancienne et les nouveaux techno-prophètes, c’est le choc des cultures et surtout l’incompréhension la plus totale, car chacun est persuadé d’avoir raison et d’être du bon côté de l’histoire : les uns œuvrant pour faire évoluer l’humanité, tandis que les autres cherchent au contraire à la préserver. Ceci étant dit, la vérité est que les deux camps ont partiellement raison : l’innovation est nécessaire, mais elle doit être accompagnée, expliquée, contextualisée… pas imposée à marche forcée.

Rassurez-vous, je ne vais pas me lancer dans une énième explication sur la nature exacte de la révolution agentique (ça sera le thème de mon prochain article), mais je vous en propose une synthèse : l’IA ne remplace pas l’humain, elle déplace le travail pour qu’il soit moins répétitif et plus précis. Au même titre que les robots introduits dans les chaînes de montage dans les années 60 ont servi à épargner les ouvriers des tâches les plus ingrates et les ont protégés des risques physiques, les IA vont prendre à leur charge les tâches cognitives les plus ingrates et répétitives (celles qui sont source d’épuisement et d’erreurs), mais vont requérir un travail supplémentaire de modélisation des tâches et de surveillance de leur exécution. Ce point est crucial : l’IA ne supprime pas le travail, elle le transforme. Et ces nouvelles tâches de supervision nécessitent des compétences qui n’existent pas encore à grande échelle.
Voilà pourquoi les entreprises n’ont pas forcément besoin d’experts en IA, mais plutôt de documentalistes et de référents numériques pour pouvoir :
- Structurer les connaissances, flux d’informations et référentiels de données pour les rendre plus facilement exploitables par les agents intelligents (L’IA pour restructurer les informations et données) ;
- Acculturer aux usages et technologies numériques afin de faciliter l’appropriation de l’IA et d’harmoniser les pratiques (Un référentiel de compétences en IA pour faciliter l’adoption).
Ce besoin peut sembler anachronique à l’ère de l’IA, mais c’est précisément le contraire. Les modèles d’IA ne valent que ce que valent les données sur lesquelles ils travaillent. Or, la plupart des entreprises sont assises sur un gisement d’informations désorganisées, fragmentées, déstructurées, obsolètes. Avant de rêver d’agents intelligents autonomes, il faudrait commencer par mettre de l’ordre dans ce chaos informationnel.
Au stade où nous en sommes de la révolution agentique (aux prémices), les deux erreurs que vous pourriez faire seraient de ne pas croire au potentiel des agents IA ou de penser qu’ils vont tout changer à court terme. La lucidité commande de se situer entre ces deux postures.
Une révolution en devenir, mais une révolution quand même !
Avec ce nouvel article, j’espère vous avoir convaincu de deux choses :
- Des enjeux de la révolution agentique et de la nature profonde des changements qu’ils augurent (cf. Web agentique : la révolution qui ne vous attendra pas) ;
- De la polarisation néfaste des discours propagés par des individus peu scrupuleux en mal d’attention (Des dangers du dogmatisme technologique).
Quelles que soient vos convictions, ou votre absence de conviction, il est essentiel que vous preniez conscience de la nature irrémédiable des changements qui sont en cours : le génie est sorti de sa boîte, personne ne parviendra à l’y faire rentrer à nouveau. Les modèles génératifs sont là, ils progressent à une vitesse stupéfiante, et ils vont continuer à se perfectionner indépendamment de ce que nous en pensons. La question n’est donc pas de savoir si nous voulons de cette révolution, mais comment nous allons l’accompagner.
Startups, laboratoires de recherche et grandes sociétés technologiques sont ainsi lancées dans une course à l’innovation pour espérer prendre pied dans un marché au potentiel gigantesque, mais à l’émergence très laborieuse tant les technologies et usages sous-jacents sont immatures.

Cette immaturité n’est pas un défaut passager, c’est la caractéristique structurelle d’un marché en phase d’exploration, où personne ne sait encore quels modèles technologiques / économiques vont s’imposer.
Tenez-le pour dit : si personne ne peut évaluer avec précision l’arrivée à maturité du marché de l’IA, il faut être aveugle pour ne pas capter les signaux :
- Your Google Chrome browser just got a useful autopilot feature ;
- Gemini can now automate some multi-step tasks on Android ;
- Copilot Tasks: From Answers to Actions.
Ces trois annonces montrent que les géants du numérique intègrent désormais des capacités agentiques dans leurs produits grand public. Ce n’est plus de la recherche, ce n’est plus du prototypage, c’est le début d’un déploiement à l’échelle de milliards d’utilisateurs.
Je répète ce qui va très certainement devenir mon nouveau mantra : si vous vous sentez perdu, c’est normal, il y a largement de quoi, car nous sommes très clairement dans une période de surchauffe. Rassurez-vous, cette confusion n’est pas le signe de votre incompétence, c’est le symptôme d’une accélération qui dépasse la capacité d’évolution de la plupart des organisations et des individus (Des limites de la capacité d’absorption du marché avec l’IA).
L’agitation actuelle ne doit néanmoins pas vous faire oublier que cette surchauffe est la conséquence d’une phase transitoire annonçant une nouvelle ère de l’humanité : l’avènement de la civilisation numérique (cf. Du Web4 à la Société 5.0). Nous sommes les contemporains d’un basculement civilisationnel comparable aux précédentes révolutions industrielles, avec cette différence majeure que le rythme du changement est plus rapide. Ce qui a pris un siècle au XIXe se produit en une décennie au XXIe.
Le plus troublant dans tout ça étant que le web agentique n’est que la prochaine étape d’une évolution perpétuelle des outils et usages numériques. Après le web des documents, le web social, le web mobile, le web sémantique, voici le web agentique. Et celui-ci sera suivi d’un autre, puis d’un autre encore.

La seule certitude que nous pouvons avoir est que le changement est permanent, et que notre capacité à nous y adapter déterminera, plus que toute autre chose, notre avenir collectif.
Questions / Réponses
Qu’est-ce que le web agentique et en quoi se distingue-t-il des précédentes évolutions du web ?
Le web agentique est la prochaine étape de l’évolution des outils numériques, après le web des documents, le web social, le web mobile et le web sémantique. Il repose sur les capacités agentiques des derniers modèles d’IA générative, qui permettent aux logiciels d’exécuter des tâches de manière plus autonome. Les géants du numérique (Google, Microsoft, Adobe, SalesForce, ServiceNow…) intègrent déjà ces capacités dans leurs produits, marquant le début d’un déploiement à grande échelle.
L’IA va-t-elle réellement supprimer massivement des emplois ?
Les précédents historiques (moteur à combustion, électricité, ordinateur personnel, internet) montrent que les technologies disruptives ont toujours fini par générer davantage d’emplois qu’elles n’en ont détruit. Les études macroéconomiques confirment que les changements ne sont jamais aussi brutaux qu’annoncé et s’inscrivent dans des cycles économiques qui imposent leur propre rythme. L’IA ne supprime pas le travail, elle le transforme en déplaçant les tâches répétitives vers des fonctions de supervision et de modélisation.
Pourquoi les discours alarmistes sur l’IA sont-ils si répandus ?
La peur fait vendre : des analystes peu scrupuleux agitent des scénarios catastrophiques pour capter l’attention médiatique, et des journalistes relaient ces récits sans les questionner. Ce phénomène n’est pas nouveau ; on l’a déjà observé lors de précédentes vagues technologiques comme le Web3. En réalité, plusieurs cabinets d’étude sérieux démontrent que ces analyses alarmistes relèvent davantage de la collapsologie que de la recherche scientifique.
Pourquoi l’adoption des outils d’IA agentique est-elle si lente en entreprise ?
Trois obstacles majeurs freinent cette adoption. D’abord, un problème humain et culturel : de nombreux salariés ont encore du mal à maîtriser les outils informatiques et numériques de base. Ensuite, un problème de données : la plupart des entreprises sont assises sur des informations et connaissances désorganisées et fragmentées, alors que les modèles d’IA ne valent que ce que valent les données sur lesquelles ils travaillent. Enfin, les DSI sont encore empêtrées dans des chantiers de migration vers le cloud et ne souhaitent pas déployer des technologies aussi immatures qu’instables.
Qu’est-ce que le vibe coding et pourquoi faut-il s’en méfier ?
Le vibe coding consiste à utiliser des outils d’IA pour générer du code sans disposer de compétences en informatique. S’il est utile pour du prototypage ou des besoins ponctuels, il produit souvent des applications sans architecture cohérente, mal sécurisées et impossibles à maintenir. Le risque est comparable à celui de l’informatique « grise » des années 80 avec les macros Excel devenues critiques : le vibe coding pourrait engendrer le même phénomène, mais à une échelle et une vitesse sans précédent.