Plus de 3 ans après la sortie de ChatGPT, force est de constater que l’adoption de l’IA générative patine encore sérieusement (une étude récente révèle ainsi que 80 % des salariés refusent l’adoption imposés par leur direction), et les usages sont encore très superficiels. Je vous propose dans cet article de comprendre pourquoi les modèles ne sont pas en cause, et pourquoi la vraie bataille se joue ailleurs : dans notre capacité collective à expliquer ce qu’est l’IA, à quoi elle sert, et comment s’en emparer sans anxiété. Discours trompeurs, confusion des marques, surenchère technologique, faux débats autour de l’AGI, cas d’usage mal ciblés… les obstacles sont nombreux et souvent mal identifiés. Avant de chercher à convaincre vos équipes d’adopter tel ou tel outil, il est urgent de poser les bonnes bases pédagogiques.

En synthèse :
- Le principal frein à l’adoption de l’IA générative n’est pas technologique, mais pédagogique. Ce ne sont pas les modèles qui manquent, c’est la capacité à expliquer clairement ce qu’est l’IA, à quoi elle sert et comment s’en emparer sans stress ni sentiment d’urgence.
- La confusion propagée par les éditeurs aggrave la situation. Microsoft, Google ou Adobe ont mis en place des stratégies d’hypervisibilité de leur offre, avec Copilot, Gemini et Firefly, qui génèrent plus de confusion que d’adhésion.
- Les cas d’usage ne sont pas un levier d’adoption efficace. Imposer des procédures à des salariés qui ne comprennent pas encore l’IA est le meilleur moyen de provoquer de la résistance au changement, qu’elle soit passive ou active.
- L’IA générative est une technologie à usages généraux, comme l’ordinateur. On peut quasiment tout faire avec, mais faute de manuel d’utilisation et dans un contexte de changements permanents, l’e scepticisme’attentisme domine naturellement chez les utilisateurs potentiels.
- Ce dont nous avons besoin, c’est d’une pédagogie progressive et apaisée. Plutôt que de nouveaux modèles ou de statistiques alarmantes, il faut aider les utilisateurs à découvrir graduellement ce que l’IA peut (et ne peut pas) faire, en choisissant des outils adaptés à leur niveau de maturité.
J’ai conscience d’être allé très loin dans mes réflexions sur l’IA agentique dans mes derniers articles (ex : De la transformation numérique à la transformation agentique), et d’avoir très certainement perdu en route bon nombre d’utilisateurs débutants ou potentiels de l’IA générative. Il est donc temps de faire une pause, de revenir aux fondamentaux, et de répondre à une question simple : pourquoi l’adoption de l’IA générative peine-t-elle encore autant à décoller, trois ans après l’irruption de ChatGPT ?
La réponse n’est pas à chercher du côté des modèles qui progressent de jour en jour, elle est dans notre incapacité collective à expliquer clairement ce qu’est l’IA, à quoi elle sert, et comment s’en emparer, sans stress ni sentiment d’urgence. L’IA est un sujet nébuleux, qui fait peur, que l’on finit par rejeter, comme en témoigne cette récente enquête qui nous révèle que 80 % des salariés refusent purement et simplement l’adoption imposée par leur direction : White-collar workers are quietly rebelling against AI as 80% outright refuse adoption mandates.
Ce n’est vraiment pas facile de s’y retrouver tant les annonces sont nombreuses, contradictoires, ou parfois légèrement mensongères.
Tous premiers, comme à l’École des fans !
Il sort quasiment tous les jours un nouveau modèle génératif, une nouvelle version d’un modèle existant, ou l’annonce d’une prochaine version qui changera tout.
Meta a ainsi dévoilé la semaine dernière Muse Spark en promettant de tendre vers une « superintelligence personnelle » (Introducing Muse Spark: Scaling Towards Personal Superintelligence).

De leur côté, les équipes d’Anthropic ont annoncé la finalisation d’un modèle ultra puissant, tellement qu’il est trop dangereux pour être diffusé publiquement (Anthropic says its most powerful AI cyber model is too dangerous to release publicly).

Une surenchère perpétuelle que certains n’hésitent pas à critiquer, car il y a visiblement de l’exagération (cf. Claude Mythos: Cybersecurity and Project Glasswing).
Comme toujours, chaque éditeur mesure la performance de ses modèles à son avantage, rendant toute comparaison sérieuse presque impossible. Il existe bien des classements indépendants, notamment ceux de ArtificialAnalysis, mais ils nous révèlent surtout que les modèles les plus performants sont désormais dans un mouchoir de poche, ce qui rend la différenciation d’autant plus difficile à percevoir pour un utilisateur non initié.

Dans ces conditions, comment voulez-vous qu’un néophyte sache par où commencer ? D’autant plus quand les grands éditeurs brouillent les pistes…
Copilot est le nouveau Watson
À cette confusion technologique s’ajoute une confusion de marque soigneusement entretenue par les éditeurs eux-mêmes. Microsoft a ainsi fait le choix de faire de « Copilot » une marque ombrelle désignant de nombreux produits et services distincts. Un article récemment publié nous propose une cartographie de tout ces services (How many products does Microsoft have named ‘Copilot’? I mapped every one), et le résultat est risible :

Pour un débutant, il est quasiment impossible de savoir quel Copilot fait quoi, ni à quoi correspond précisément l’outil que son chef de service lui demande d’adopter d’urgence. Cette stratégie d’hypervisibilité se retourne néanmoins contre elle-même, car elle génère plus de confusion que d’adhésion. IBM avait déjà tenté quelque chose d’approchant avec Watson, censé être le fer de lance de leur stratégie de commercialisation de l’IA, avec le succès qu’on lui connait.
Au cas où vous vous poseriez la question : non, il n’est pas possible de fluidifier l’adoption de l’IA générative avec des cas d’usage. J’avais déjà développé ce point l’année dernière : L’adoption de l’IA générative ne passera ni par les politiques, ni par les cas d’usage.
La majeure partie des cas d’usage se content de formaliser des tâches banales qui font déjà partie du quotidien des collaborateurs. […] D’autant plus que les outils et pratiques se périment très vite : ce qui est valable aujourd’hui sera périmé dans 6 mois.
L’IA générative ne doit ainsi pas être présentée comme un gadget qui peut rendre des services (ex : rédiger des comptes-rendus de réunions ou traduire des articles), mais comme une occasion de revoir les méthodes et habitudes de travail : une nouvelle façon d’exploiter les ressources informatiques pour se libérer de l’héritage néfaste des outils bureautiques.
Si le travail d’identification et de formalisation des cas d’usage est intéressant pour cadrer les usages potentiels, il concerne surtout la DSI et les juristes, mais ne doit en aucun être utilisé comme un levier d’adoption. Le problème est que ces fameux cas d’usage envoient un signal plutôt négatif aux salariés : « Vous vous y prenez mal, voici les vraies procédures à suivre pour être plus productif dans votre travail« . Vous conviendrez que c’est sans doute le meilleur moyen de générer de la résistance au changement, qu’elle soit passive (inconsciente) ou active (volontaire).
Mais ce n’est pas faute d’avoir prévenu : Nous n’avons pas besoin de meilleures IA, mais d’une meilleure compréhension de l’IA.
Si vous avez besoin de lister et de décrire des cas d’usage, c’est que les utilisateurs n’ont aucune idée de ce qu’est l’IA, de ce à quoi elle peut leur servir, et surtout qu’ils n’ont pas envie de s’y intéresser !
Ce dont les salariés ont réellement besoin, ce n’est pas d’une marche à suivre, mais de meilleures explications sur ce qu’est l’IA et son potentiel. Une fois ces notions assimilées, ils entameront par eux-mêmes le travail de réflexion sur leurs habitudes de travail, c’est d’ailleurs la seule façon pour que ce changement soit durable.
Mais comme toujours, les grands éditeurs cherchent à imposer leur offre, en s’appuyant notamment sur leur écosystème.
Gemini est le nouveau Google
Ainsi, dans la même veine que Microsoft, aviez-vous remarqué que la marque « Gemini » désignait à la fois un chatbot, une famille de modèles, un assistant numérique dans Chrome et Android, une gamme de services… auxquels sont associés de nombreux autres produits et services.

Si la marque « Google » a très bien fonctionné et a permis d’unifier ses déclinaisons verticales (Maps, Shopping, Finance, Flights…), comme pour Microsoft, le choix de « Gemini » comme marque ombrelle est plutôt confusant.
Et comme si ça ne suffisait pas, Google tente de court-circuiter la norme d’agents IA définie par Anthropic (Agent Skills) en lançant ses propres « Skills », des prompts réutilisables en un clic, directement intégrés à Chrome : Turn your best AI prompts into one-click tools in Chrome. Même terme, conception différente, écosystèmes incompatibles. C’est très agaçant, mais surtout très préjudiciable pour les utilisateurs qui ne savent plus par où et quoi commencer.
Idem chez Adobe où Firefly désigne la fois une famille de modèles, un service en ligne et maintenant un assistant orchestrateur : Adobe’s new Firefly AI assistant can use Creative Cloud apps to complete tasks.
Mais le pire, est que tout cela intervient dans un espace médiatique déjà saturé de discours anxiogènes sur l’IA, parfois contradictoires. Et les scientifiques eux-mêmes n’arrangent pas les choses…
L’AGI est la nouvelle chimère
Il n’existe aucune définition communément admise de l’intelligence artificielle générale (AGI pour « Artifical General Intelligence »), ce qui est très pratique pour revendiquer des percées scientifiques sans avoir à les prouver. Ainsi, le co-fondateur de Databricks déclare que l’AGI est déjà là, du moins la sienne : Databricks co-founder Matei Zaharia wins ACM Prize and declares AGI is already here.
Une façon plus pragmatique d’aborder la question serait peut-être de s’intéresser à la capacité de concentration des modèles. On dispose déjà d’agents capables de travailler plus de huit heures en autonomie sur une même tâche complexe (AI joins the 8-hour work day as GLM ships 5.1 open source LLM, beating Opus 4.6 and GPT-5.4 on SWE-Bench Pro), soit davantage que ce que l’on demande à la plupart des salariés.
Une autre approche consiste à définir l’AGI comme « un système avec une capacité d’apprentissage supérieure aux humains », définition proposée dans le cadre du programme ARC-AGI-3 lancé début 2026 (Announcing ARC-AGI-3, A New Challenge for Frontier Agentic Intelligence).
Quelle est la meilleure approche pour correctement définir l’AGI, et par extension l’IA ? Impossible de trancher… Et c’est précisément cette impossibilité qui me convainc davantage chaque jour de militer pour une acculturation en douceur.
Make AI simple again
À l’époque du machine learning, l’IA servait à analyser de grandes quantités de données pour faciliter la prise de décision, c’était un schéma mental simple, dont témoigne cette série d’articles publiés sur mon blog entre 2018 et 2020.
De l’apport de l’intelligence artificielle pour la quatrième révolution industrielle
Si le 20e siècle ressemblait à une surenchère pour produire toujours plus, le 21e siècle semble aller dans la direction inverse, celle de la personnalisation. Avec le numérique, nous assistons à la fin de la course à la massification (production de masse, distribution de masse, médias de masse…). Face à une attention et une consommation fragmentée, les économies d’échelle ne sont plus opérantes. Nous troquons donc de la puissance (industrielle) contre de la précision et de la personnalisation qui peut aussi être industrialisée.
Le machine learning est d’ores et déjà à l’origine d’une nouvelle vague d’outils d’analyse de données et d’aide à la décision. Ces intelligences artificielles auto-apprenantes sont une évolution naturelle des systèmes experts reposant sur un ensemble de règles figées, mais elles ouvrent d’innombrables opportunités d’optimisation des performances ET d’utilisation des ressources. En quelque sorte, la quintessence de la quatrième révolution industrielle !
Des articles qui résonnent étrangement avec la situation actuelle et l’emballement autour des modèles génératifs.
L’intelligence artificielle est un outil de productivité comme les autres
Avec la généralisation des smartphones et la montée en puissance des assistants numériques, le grand public se fait une idée plus précise de ce à quoi servent concrètement les IA.
Les IA sont perçues comme un outil professionnel inévitable à terme, mais on ne sait pas trop à quoi précisément ça va servir, ni à qui. Il faut dire que le sujet n’est pas simple et requiert des compétences pointues, que nous sommes dans une période de grande d’incertitude, et que leur déploiement s’inscrit dans un vaste phénomène de transition numérique où de nombreux sujets se superposent.
La seule solution viable consiste à utiliser les machines pour travailler mieux et plus vite. […] C’est le principe du salarié augmenté, qui n’est pas un gros mot, mais une réalité économico-industrielle. […] L’IA ne remplace pas ou ne perturbe pas le travail du créatif, elle l’aide à travailler plus vite et surtout elle le libère de nombreuses tâches fastidieuses.
Pourquoi l’intelligence artificielle ? Pour faire plus avec moins
Le problème est qu’on nous présente l’IA à travers des assertions polarisées : soit comme l’innovation qui va détruire des millions d’emplois, soit comme la technologie révolutionnaire qui va faire grandement progresser la médecine, préserver notre planète… Des affirmations qui sont bien loin de ce que l’IA et le machine learning ont à nous proposer.
L’automatisation et le machine learning ne sont que des outils au service d’entreprises qui fixent leurs propres limites et règles. L’objectif n’est pas de remplacer les salariés, mais de les soulager des tâches répétitives ou fastidieuses afin qu’ils puissent se concentrer sur des missions à plus forte valeur ajoutée. […] Mais les gains de performance incrémentaux que l’on peut potentiellement obtenir avec du machine learning ou du deep learning sont très aléatoires, et exigent surtout beaucoup de ressources.
Intelligence artificielle et machine learning s’installent durablement dans notre quotidien
Les IA et le machine learning sont des solutions évidentes au déluge de données auquel nous devons faire face, mais il y a manifestement un effort pédagogique qui n’a pas été fait. […] Si l’on considère les enjeux de la 4e révolution industrielle et que l’on met de côté les considérations émotionnelles (la peur de perdre son emploi), l’IA n’apparait pas comme une option ou une orientation stratégique, c’est une nécessité pour rester dans la course et maintenir la compétitivité (garantir sa survie à moyen terme). […] Adopter des solutions reposant sur l’IA et la machine learning, c’est se prémunir contre une concurrence toujours plus féroce.
La vérité sur l’intelligence artificielle en entreprise
Je pense ne pas me tromper en disant que le débat autour des IA et de l’automatisation repose sur une ambiguïté : vous n’êtes pas en concurrence avec les machines, sauf si vous refusez de travailler avec elles. Un peu comme un bucheron qui refuserait d’utiliser une tronçonneuse ou un comptable qui préfèrerait tout calculer à la main : d’un côté ils ne travailleront pas mieux, et de l’autre ils seront plus lents et moins précis. Pourquoi cette analogie avec les bucherons et comptables ? Parce que la compréhension de ce que sont et à quoi servent les intelligences artificielles est encore beaucoup trop approximative.
À vouloir simplifier des termes techniques, les éditeurs de solutions ont généré un flou artistique autour de l’intelligence artificielle, qui est maintenant assimilée à du vaporware. […] Dès que l’on essaye de simplifier le discours, on s’emmêle les pinceaux… Ce qui est bien dommage, car si l’intelligence est purement artificielle, les progrès sont bien réels !
La technique n’est plus un problème, notamment grâce aux progrès réalisés en algorithmie ainsi qu’aux ressources informatiques disponibles dans le cloud. En revanche, il y a un double défi à surmonter : un déficit de pédagogie et une pénurie de données de qualité. […] Il faut impérativement mobiliser les équipes internes pour identifier les bonnes sources de données et pour pouvoir valider l’apprentissage effectif ou la pertinence du modèle.
SI j’étais retors, je me contenterais de recycler ces articles, car les constats et les réflexions sont quasiment identiques ! Néanmoins, force est de constater que la situation est aujourd’hui plus compliquée, car les enjeux sont toujours plus élevés (usages, investissements, ressources…). Je suis néanmoins persuadé que si la confusion est aussi grande aujourd’hui, c’est en majeure partie car l’IA générative est une technologie à usages généraux, comme les ordinateurs. Dans la mesure où l’on peut quasiment tout faire grâce aux modèles génératifs, mais qu’il n’y a pas de manuel d’utilisation et que les technologies changent toutes les semaines, l’adoption stagne et le scepticisme s’installe dans la tête d’utilisateurs potentiels auxquels le marché a fait des promesses un peu trop enthousiastes.

Ce dont nous avons besoin, ce n’est pas de nouveaux modèles, mais d’une nouvelle pédagogie : simplifier le discours pour aider les utilisateurs à s’y retrouver et surtout à se projeter dans de nouvelles habitudes. Souvenez-vous la première fois que l’on vous a mis en face d’un ordinateur, saviez-vous instinctivement à quoi il allait vous servir et comment vous pourriez revoir vos façons de travailler ? J’imagine que non… C’est la même chose avec l’IA : on a beau savoir qu’elle peut quasiment tout faire, on ne sait pas à quoi ça peut nous servir.
Voilà pourquoi la rencontre entre l’IA générative et ses utilisateurs potentiels ne s’est pas réellement faite pour le moment. Il est donc largement temps d’essayer d’y remédier.
Mettre un pied devant l’autre, et recommencer
Plus de trois ans après la sortie de ChatGPT, l’enjeu n’est plus de concevoir des modèles toujours plus puissants, mais d’aider les utilisateurs potentiels à en comprendre l’intérêt et les limites. Je milite donc activement pour une appropriation en douceur de l’IA générative, qui passe par une découverte progressive de ce qu’elle peut faire ou non, et par le choix d’outils adaptés à ses besoins réels.
On me pose souvent la question de savoir quelle est la meilleure IA. Il n’y a pas de bonne réponse universelle. C’est comme demander quel logiciel choisir : tout dépend de vos besoins et de votre niveau de maturité (vous n’avez pas besoin de la dernière version de Photoshop pour recadrer vos photos de vacances).
Si j’ai une large préférence pour Claude qui édite certainement les modèles génératifs les plus performants, je reconnais volontiers que ce sont aussi les plus complexes à manier et les plus rigoureux (nombreux garde-fous).

Pour les usages courants, ChatGPT offre ainsi le meilleur compromis entre puissance et souplesse, et propose de plus de nombreuses fonctionnalités très intéressantes. De même, Gemini couplé au moteur de recherche de Google, ou intégré à Android, est redoutablement efficace. Idem pour Copilot qui est injustement méconnu dans sa version grand public, mais qui propose de nombreuses fonctionnalités. Et il ne faut pas oublier Manus, récemment racheté par Meta, qui propose un ensemble d’agents très performants.

Mais dans tous les cas de figure, dans la mesure où votre travail au quotidien est nécessairement dans l’environnement de Microsoft ou de Google, votre appropriation passera forcément par Copilot for MS365 ou Gemini for Workspace pour vos usages professionnels.

Pour les utilisateurs intensifs, je pense avoir suffisamment insisté sur l’immense potentiel de Claude Cowork avec les skills et plugins, des mini-extensions que l’on retrouve aussi dans OpenAI Codex et même dans OpenWork.

Sinon, on nous parle beaucoup de OpenClaw, mais je vous le déconseille très fortement, car beaucoup trop instable et “rugueux” pour des débutants.
Mais si vous n’en êtes qu’au tout début de votre apprentissage, rien de tel que des manuels pédagogiques pour vous éclairer.
Quatre documents de référence
J’ai rédigé ces dernières semaines plusieurs feuillets pédagogiques sur l’IA à destination des néophytes :
- 20 questions sur l’IA : comprendre l’IA générative pour mieux l’apprivoiser
- 12 gestes du quotidien pour bien appréhender l’IA
- Panorama des services d’IA générative
- Matrice des usages de l’IA générative
Ces feuillets permettent de mieux comprendre ce qu’est (et ce que n’est pas) l’intelligence artificielle, de distinguer les points forts et les limites des modèles génératifs, et d’identifier les services les plus pertinents selon vos besoins et vos usages.

Ces documents à télécharger gratuitement sur Acculturation-Numerique.fr sont ma modeste contribution à l’évangélisation de l’IA générative et à son adoption par le plus grand nombre.
N’hésitez pas à les partager avec vos proches ou vos collègues.
Questions / Réponses
Pourquoi est-il si difficile de s’y retrouver parmi tous les outils d’IA disponibles ?
Les annonces se succèdent à un rythme effréné, les modèles se ressemblent de plus en plus, et les grands éditeurs entretiennent volontairement une confusion des marques. Copilot, Gemini, Claude… chaque marque peut désigner à la fois un chatbot, une famille de modèles et une gamme de services distincts. Dans ces conditions, même un utilisateur averti peine à s’y retrouver.
Pourquoi les salariés résistent-ils à l’adoption de l’IA en entreprise ?
La résistance vient souvent de la manière dont l’IA leur est présentée : sous forme de cas d’usage formalisés par ds consultants externes et imposés par la hiérarchie, qui envoient implicitement le message que leurs méthodes de travail actuelles sont mauvaises. Ce type d’approche génère de la résistance au changement, qu’elle soit passive ou active, plutôt que de l’adhésion.
Quelle est la meilleure IA pour commencer ?
Il n’existe pas de réponse universelle : tout dépend de vos besoins et de votre niveau de maturité. Pour les usages courants, ChatGPT offre un bon compromis entre puissance et souplesse. Si vous travaillez déjà dans l’environnement Microsoft ou Google, Copilot for MS365 ou Gemini for Workspace seront sans surprise les points d’entrée les plus naturels.
L’IA va-t-elle bientôt atteindre le niveau de l’intelligence humaine ?
La notion d’intelligence artificielle générale (AGI) fait l’objet de déclarations régulières, mais il n’en existe aucune définition communément admise, ce qui permet à chacun de revendiquer des avancées sans avoir à les démontrer. Mieux vaut se concentrer sur ce que l’IA peut concrètement faire pour vous aujourd’hui, plutôt que de spéculer sur des horizons incertains.
Par où commencer concrètement si l’on est débutant ?
L’approche la plus efficace est une découverte progressive : comprendre d’abord ce que l’IA est (et ce qu’elle n’est pas), avant de chercher à l’utiliser. Des ressources pédagogiques existent pour cela, notamment les feuillets disponibles sur Acculturation-Numerique.fr, conçus précisément pour accompagner cette montée en compétence sans précipitation.