Alors que les modèles de langage atteignent un plateau de performance, l’écosystème de l’IA générative entre dans une nouvelle phase où startups et géants technologiques réorientent leurs investissements vers des territoires encore peu explorés : modèles de monde, agents intelligents, objets connectés, superintelligence… Cette recomposition du marché, marquée par la consolidation d’un oligopole et l’émergence de nouveaux usages, dessine les contours d’une transformation qui ne fait que commencer, et creuse l’écart entre ceux qui observent et ceux qui s’inscrivent dans une dynamique d’exploration / adoption.

En synthèse :
- La dynamique des LLMs s’essouffle, avec des gains désormais marginaux. L’innovation se déplace vers l’optimisation des coûts, l’efficience énergétique et la spécialisation des modèles plutôt que vers la course à la taille.
- L’IA générative entre dans une phase de diversification technologique, où les modèles de raisonnement, d’action et de monde prennent le relais pour ouvrir de nouveaux usages au-delà du simple chatbot conversationnel.
- Le marché est porté moins par la science que par la narration, car les startups comme les big techs alimentant l’imaginaire des investisseurs pour soutenir valorisations et levées de fonds dans un contexte de forte surchauffe.
- Les entreprises entrent dans l’ère des « work models » et le grand public dans celui des assistants numériques, avec Microsoft et Meta en pointe pour transformer l’IA en levier opérationnel du quotidien pro / perso.
- Un oligopole se consolide autour de quelques acteurs clés, où OpenAI et Anthropic restent des références, pendant que Google, Microsoft, Meta et Amazon consolident leurs acquis.
La nouvelle est tombée cette semaine : Nike ferme sa filiale dédiée aux NFTs, le dernier bastion du web3 vient de tomber (Nike sells RTFKT: Digital products subsidiary quietly offloaded in December).
C’est à priori comme cela que l’on pourrait interpréter cette actualité, ou du moins c’est ce que veulent nous faire croire les éditeurs de l’article qui tentent par tous les moyens d’attirer notre attention avec un titre racoleur pour nous faire cliquer, et espérer engranger des (maigres) revenus publicitaires.
Une tactique éditoriale qui ne date pas d’hier, quasiment aussi vieille que le web, mais qui me fait tiquer, car si effectivement Nike a pris la décision de se recentrer sur les articles de sport (ce qui est logique), cela ne veut pas dire que les NFTs ou la blockchain sont des échecs. Bien au contraire, car ces technologies ont fait des progrès considérables depuis la « belle époque ». Ceci ne signifie en rien la fin du Web3, mais simplement la fin des profits rapides reposant sur la mécompréhension de technologies complexes.
Un schéma qui résonne étrangement avec l’actualité de l’IA…
La fin de les LLMs, vraiment ?
Si vous suivez de près ou de loin l’actualité de l’IA générative, alors vous avez forcément été exposé au psychodrame du départ de Yann LeCun de son poste de Chief AI scientist chez Meta. La raison invoquée est que « Les LLMs sont une impasse » (Ex-Meta chief AI scientist says LLMs are a dead end).
Et comme d’habitude, les médias déforment les propos et font des raccourcis très grossiers pour inciter au clic. Car s’il y a bien une divergence de points de vue entre le scientifique et le patron de Meta, les raisons de son départ sont plus complexes : Mark Zuckerberg’s Former Top AI Scientist Reveals Exactly Why He Quit.
Mon interprétation est qu’en tant que chercheur et scientifique, Yann LeCun s’e’est retrouvé isolé au sein d’une nouvelle organisation chez Meta où les priorités ont changé : il n’est plus question de faire progresser la recherche, mais de sortir des produits qui contribuent au chiffre d’affaires (From Llamas to Avocados: Meta’s shifting AI strategy is causing internal confusion).
Cette nouvelle organisation, accompagnée de nouvelles priorités, est une décision managériale tout à fait logique, mais elle n’est plus alignée avec les ambitions de celui que l’on surnomme « le père de deep learning » qui reste un chercheur dans l’âme, et non un chef de produit. Je vous recommande à son sujet ce documentaire : Meta’s Yann LeCun now has his own documentary.
Sinon, pour vous épargner une longue et laborieuse explication (je ne me risquerais pas à rentrer dans des détails techniques), sachez que la recherche sur les modèles de langage s’essouffle. Comprenez par là que les gains de puissance ou de performance sur ce type de modèle se font à la marge. Le fait est qu’il n’est plus viable de créer des modèles de langage avec plus de paramètres (car trop couteux à entrainer et à faire tourner), et que de toute façon nous avons déjà utilisé tous les contenus à notre disposition (cf. L’embarrassante question de l’origine des données d’entrainement des IA génératives publié il y a deux ans).
En conséquence de quoi, la marge de progression des LLMs est maintenant très faible. Les prochains progrès se feront visiblement sur la taille des modèles (grâce à des techniques comme la quantization et la distillation) pour pouvoir générer des réponses quasi-équivalente, mais en dépensant beaucoup moins d’énergie (TII’s Falcon H1R 7B can out-reason models up to 7x its size, and it’s mostly open). Une trajectoire d’évolution qui touche déjà d’autres types de modèles (MiroMind’s MiroThinker 1.5 delivers trillion-parameter performance from a 30B model, at 1/20th the cost).

Ceci étant dit, ce n’est pas parce que les progrès d’une technologie sont moindres qu’elle n’est plus pertinente. Ainsi, la dernière fois que j’ai vérifié, l’économie mondiale reposait sur des applications exploitant des bases de données relationnelles. Des outils informatiques qui n’évoluent quasiment plus depuis des années, et pourtant…
J’insiste vraiment sur le fait que si la marge de progression des LLMs est faible, elle n’est néanmoins pas nulle, notamment en les compactant et en les spécialisant. C’est d’ailleurs l’objectif des TRM (« Tiny Recursive Model« ), des modèles à mi-chemin entre petit modèle de langage et modèle de raisonnement, c’est à dire des modèles génératifs entraînés spécifiquement pour résoudre des problèmes précis ou compléter des tâches spécifiques de manière récursive : ils améliorent leurs réponses avec des corrections successives plutôt que de générer une solution en une seule fois (cf. Penser petit pour penser juste : les TRM, ces IA minuscules qui défient les géants).
Les efforts ne se concentrent donc plus sur les modèles de langage, ceux qui équipent les chatbots généralistes, mais sur les autres types de modèle génératif.
Les modèles de langage ne sont qu’une forme d’IA générative parmi d’autres
Comme j’ai déjà eu l’occasion de vous l’expliquer qu’il existe de nombreux types de modèle génératif, et que certains offrent une belle marge de progression :
- Les modèles multimodaux (des images et vidéos plus réalistes) ;
- Les modèles de raisonnement (des réflexions plus poussées, mieux cadrées) ;
- Les modèles d’action (toujours plus d’autonomie)…

La dernière catégorie en vogue est celle des modèles de monde (« world models« ) qui offrent une appréhension plus précise de la réalité physique de notre monde. La finalité des modèles de monde est de générer des environnements réalistes qui s’appuient sur les règles de la physique : des simulations en 3D où si vous renversez un verre d’eau, celle-ci s’écoule par terre et s’accumule au point le plus bas du sol.
Avec de tels modèles, la création de jeux vidéos ou d’environnements virtuels serait beaucoup plus rapide, un gros coup d’accélérateur pour le métavers. On comprend mieux pourquoi les équipes de recherche de Meta, sous la direction de Yann LeCun, ont été les premières à sortir un modèle de ce type : Meta Reveals ‘WorldGen’ Tool to Generate VR Worlds from AI Prompts.
Comme il n’y a pas de hasard, la nouvelle startup de Yann LeCun est justement spécialisée dans les modèles de monde, il va ainsi pouvoir poursuivre ses travaux sur la fusion entre les IA et les robots pour pouvoir concevoir des entités 100% autonomes, capables de découvrir un environnement inconnu, de le comprendre et d’enrichir ses capacités que cette base : Yann LeCun unveils LeJEPA, likely his final Meta project before launching a startup.
Tout ceci est très intéressant, mais la très large majorité des usages de l’IA générative concerne des échanges écrits avec un chatbot, donc des modèles de langage. Pourquoi donc dépenser autant d’argent en R&D alors que les utilisateurs en sont encore à découvrir le fonctionnement et l’intérêt des LLMs ? Tout simplement car la valorisation (et donc les levées de fond) des startups du secteur se base sur les revenus futurs et le potentiel de croissance.
Innover pour faire rêver
Je vous rappelle que le marché de l’IA générative est actuellement tout sauf rationnel. Certains parlent de bulle spéculative, c’est contestable, mais je pense ne pas me tromper en écrivant que tous s’accordent pour dire qu’il y clairement un phénomène de surchauffe. À partir de ce constat, soit on tente de calmer les espoirs au risque de neutraliser la croissance potentielle, soit on les alimente pour justement stimuler la croissance. Et c’est précisément ce choix qui a été vraisemblablement fait, et accepté.
Nous nous retrouvons donc avec des big techs qui investissent des sommes colossales pour pouvoir créer des IA toujours plus puissantes, plus spécialisées, et surtout avec une valeur perçue toujours plus élevée pour justifier les coûts de R&D.

Pour éviter de se faire rattraper par les grandes sociétés technologiques, les startups du secteur lèvent des montants records pour pouvoir elles aussi investir en R&D et proposer des services reposant sur des modèles toujours plus performants, pour pouvoir fidéliser les abonnés et sécuriser des revenus réguliers (ARR pour « Average Recurring Revenue« ).
Vous l’aurez compris, ce qui stimule le marché n’est pas la recherche du progrès scientifique, mais de la capacité à faire rêver les médias et investisseurs pour perpétuer le cercle vertueux du capital risque : plus d’innovations = gains de performances = des services plus attractifs = plus d’utilisateurs / investisseurs = plus de revenus et capitaux = plus de R&D = …
Comme mentionné plus haut, l’innovation bat son plein avec les modèles génératifs, mais nous risquons bientôt d’atteindre un palier, car les ressources (électricité, terres rares, contenus…) vont venir à manquer.
Le prochain palier se fera avec la montée en puissance des IA neuro-symboliques qui reposent sur l’utilisation conjointe d’une base de connaissance et d’un moteur de règles. Ce qui est compliqué à concevoir dans un environnement avec beaucoup de variables (ex : quelles sont les règles du marketing ou de la gestion d’entreprise ?). Il n’existe à priori qu’une seule IA neuro-symbolique probante, et elle ne s’applique qu’à un domaine très étroit : la géométrie (AlphaGeometry).

Est-il réaliste de penser que nous aurons très bientôt des IA neuro-symbolique à disposition ? Difficile à dire pour le moment, car la recherche progresse lentement. Peut-être dans des domaines rigoureux régis par des règles strictes comme la comptabilité… Mais malheureusement, qui dit comptabilité dit fiscalité, et là nous sommes dans des territoires beaucoup plus flous où les règles sont interprétées. Donc non. Mais ce n’est pas grave, car il existe d’autres pistes d’innovation.
Quelles perspectives d’innovation pour 2026 ?
Comme précisé en début d’article, si la marge de progression des modèles de langage est maintenant faible, il y a encore beaucoup de potentiel avec les modèles de raisonnement, de travail, d’action… Et c’est justement sur ceux-là que les efforts des éditeurs se concentrent pour pouvoir sortir au plus vite des offres susceptibles de leur faire gagner des parts de marché, ou à minima de conserver celles durement gagnées.
2025 a assurément été l’année des LRMs (« Large Reasoning Models« ), ceux qui ont permis aux chatbots de passer d’un apport éditorial (mieux écrire) à un apport méthodologique (mieux raisonner = mieux travailler). Ainsi, de gros progrès ont été réalisés De gros progrès depuis les premiers modèles de raisonnement avec des processus cognitifs mieux maitrisés, et des boucles de raisonnement / validation à plusieurs niveaux.

Là où ces LRMs vont s’avérer très utiles, c’est quand ils sauront appliquer leurs facultés cognitives à un métier ou un domaine. L’évolution logique des modèles de raisonnement est d’en faire des modèles de travail (« work models ») qui qui auront une compréhension fine des différentes activités d’une entreprise (ex : compta, RH…). Ces modèles de travail sont la priorité de Microsoft qui compte bien en faire son principal levier de différenciation : Bientôt un “Work Model” universel sur votre PC ? Leur arme secrète est le Work Graph qui se nourrit des fichiers, messages et flux de travail. Une approche qui a été rénovée récemment avec les Work IQ (interactions), Fabric IQ (données) et Foundry IQ (connaissances) : Des intranets collaboratifs aux environnements numériques de travail augmentés par l’IA.

Vous noterez que ces innovations sont particulièrement pertinentes pour les cabinets conseil qui pourraient concevoir leur propre modèle de raisonnement / travail en s’appuyant sur leurs méthodes ou sur leur façon de mettre en œuvre des méthodes ou grilles décisionnelles (ex : matrice SWOT, BCG…). Certains prédisent déjà la fin des cabinets conseil, je pense plutôt que cela va être une renaissance pour eux. À moins que ChatGPT ne leur coupe l’herbe sous les pieds, comme c’est potentiellement le cas avec ce rachat d’une startup spécialisée dans le coaching méthodologique des cadres : OpenAI to acquire the team behind executive coaching AI tool Convogo.
2025 a également été marqué par les débuts des LAMs (« Large Action Models« ) avec des agents intelligents toujours plus autonomes et des échanges toujours mieux encadrés (standardisation) : Êtes-vous prêt pour le web agentique ?
Le rachat de Manus par Meta s’inscrit dans cette optique avec l’intégration prochaine de ce service dans WhatsApp pour en faire un assistant transactionnel : Meta just bought Manus, an AI startup everyone has been talking about. Les modèles d’action se distinguent des modèles de langage, car ils ne s’appuient pas sur une base de connaissances, mais sur une machine virtuelle dans le cloud (une instance Linux) qui leur permet de littéralement exécuter les tâches demandées par les utilisateurs.
Pour le moment, l’assistant numérique de Meta vivote dans un coin des applications (Facebook, Instagram…) ou sur le web (Meta.ai), mais grâce à la probable fusion de Manus et de cet assistant numérique, nous allons probablement voir émerger une nouvelle catégorie de super apps qui carburent à l’IA : Le retour de la revanche des applications (quasi) instantanées.

Et puisque l’on parle de Meta, comment ne pas évoquer l’ambition de Mark Zuckerberg avec les objets connectés (il n’a toujours pas digéré l’échec du Facebook Phone) ou avec la réalité étendue. Ils ont ainsi dernièrement annoncé le rachat d’uns startup spécialisée dans les habitroniques (wearables) augmentés grâce à l’IA (Meta acquires AI device startup Limitless), ainsi qu’un report du lancement de leurs nouvelles lunettes de réalité augmentée, car ils n’arrivent pas à assumer les premières commandes (Meta delays Ray-Ban Display glasses global rollout due to inventory limits, U.S. demand).
Ce report de la commercialisation des Ray-Ban Display en Europe me frustre au plus haut point, car je suis intimement convaincu de la complémentarité entre les lunettes intelligentes de Meta et leur assistant numérique. Une synergie qui autoriserait des usages inédits, comme par exemple la possibilité de demander à l’assistant de faire une réservation dans un restaurant rien qu’en regardant sa vitrine : 2026 sera l’année de la réalité augmentée (par l’IA). Et le pire, c’est qu’ils continuent d’enrichir ces lunettes de nouvelles fonctionnalités : Meta Ray-Ban Display Teleprompter, Handwriting, Industry & Research Collaborations, & More.

Sinon, LE gros chantier de 2026 sera la conception d’algorithmes d’apprentissage continu (contrairement au séquentiel) pour des modèles que l’on améliore en permanence : Computer scientist Yann LeCun: “Intelligence really is about learning”. À partir du moment où un modèle peut enrichir sa base de connaissances en permanence, il ne lui reste plus qu’à le doter de capacités de découverte (exploration autonome), et nous avons toutes les pièces du puzzle de l’intelligence artificielle générale.
Rassurez-vous, je ne relancerai pas ce débat, qui est toujours aussi tendu (Yann LeCun calls general intelligence « complete BS » and Deepmind CEO Hassabis fires back publicly), car je préfère largement la notion de superintelligence à celle d’AGI. Un concept plus facile à appréhender, et surtout plus réaliste : La superintelligence va décupler notre capacité d’agir.
Tout ça pour dire que 2026 va être une année faste, surtout pour les acteurs déjà bien implantés.
Un oligopole en cours de consolidation
Face à l’agilité des startups américaines et chinoises, les grandes sociétés technologiques sont sur le pied de guerre :
- Google savoure son retour sur le devant de la scène avec Gemini (How Google Got Its Groove Back and Edged Ahead of OpenAI) ;
- Microsoft consolide son ancrage dans le monde de l’entreprise avec Copilot, et peut s’appuyer sur la clairvoyance de son Chief AI pour rassurer les patrons (Towards Humanist Superintelligence) ;
- Meta dépense sans compter, mais le pivot depuis le métavers semble plaire aux investisseurs et actionnaires (Investors Are Still Bullish on AI Stocks) ;
- Amazon est en embuscade avec Alexa+ (With new Alexa website, Amazon’s consumer AI vision finally comes together) et ses offres dans le cloud (AWS Updates Its Nova Models To Compete With Google, Anthropic and OpenAI et AWS puts Kiro and other AI agents to work on truly autonomous software development)

Le seul géant numérique qui semble perdu est Apple, visiblement complètement démuni (Apple AI Chief John Giannandrea Retiring After Siri Delays), très certainement victime du syndrome de l’innovateur : Comment les Big Techs vont s’accaparer le marché de l’IA.
Une débauche de grands moyens qui n’ébranlent pas pour autant les ambitions des deux acteurs de référence : OpenAI et Anthropic.
Ainsi, l’éditeur de ChatGPT pourrait bien créer la surprise en 2026 avec le lancement prochain de modèles sectoriels, notamment dans le secteur financier pour lequel ils ont recrutés des anciens salariés des cabinets d’audit (OpenAI trains AI to take on junior banking tasks), de même que de nouveaux services verticaux à l’image de cette nouvelle fonctionnalité dédiée à la santé / bien-être des utilisateurs : Introducing ChatGPT Health.

Mais tous les espoirs sont surtout concentrés sur les projets d’objets connectés d’OpenAI, dont le premier à sortir devrait être un stylo intelligent (« Project Gumdrop ») : OpenAI’s First Consumer Device Is Shaped Like A Pen, Launching In 2026-2027.
Tenez-le pour dit : vous n’avez pas fini d’entre parler de ChatGPT !
Sur le terrain des usages professionnels, Claude reste LA valeur sûre : le modèle le plus puissant et l’éditeur le plus responsable, ce qui plait beaucoup aux investisseurs institutionnels : Claude creator Anthropic reportedly hits $350 billion valuation as it raises another $10 billion. Leurs modèles impressionnent par leur puissance, notamment Claude Code qui s’impose comme l’outil de référence pour les développeurs (Anthropic makes agent Skills an open standard), dont certains y voient une forme d’IA généraliste : Claude Code is about so much more than coding.
Bon OK, là c’est moi qui grossit le trait et qui déforme les propos de l’auteur qui décrit ce service comme un « general-purpose AI agent« . Certes, si entre de bonnes mains ce modèle peut créer n’importe quelle application, il faut toujours lui dire quoi faire (absence de volonté et d’autonomie) et lui fournir le bon contexte (pas d’intelligence situationnelle). Bref, rien à voir avec l’AGI.

Dans tous les cas de figure, j’anticipe dans les prochains mois un élargissement de la fracture numérique entre ceux qui n’utilisent pas l’IA ou se servent de ChatGPT comme de Google (pour faire des recherches), et ceux qui investissent du temps et des efforts pour comprendre les innovations et explorer les nouveaux usages.
Certes, l’adoption de l’IA générative est plus longue que prévu, car les résistances sont fortes, mais le potentiel est d’autant plus fort que la révolution de l’IA vient à peine de démarrer.
Questions / Réponses
Pourquoi dit-on que les LLMs (modèles de langage) arrivent à leurs limites ?
Les modèles de langage actuels ont atteint un seuil où les gains de performance deviennent marginaux. D’une part, augmenter le nombre de paramètres coûte désormais trop cher en énergie et en ressources. D’autre part, la quasi-totalité des contenus disponibles pour l’entraînement a déjà été exploitée. Les progrès se concentrent donc sur l’optimisation des modèles existants pour les rendre plus efficaces, et non plus sur leur agrandissement.
Quels sont les autres types de modèles d’IA générative au-delà des LLMs ?
L’IA générative ne se limite pas aux chatbots conversationnels, qui reposent sur les modèles de langage. Elle comprend également les modèles multimodaux (génération d’images et de vidéos), les modèles de parole, les modèles de raisonnement (réflexion structurée et approfondie), les modèles d’action (exécution autonome de tâches), les modèles de monde (simulation d’environnements physiques réalistes)… Ces dernières catégories concentrent aujourd’hui l’essentiel des efforts de recherche.
Qu’est-ce qu’un modèle de monde (« World model ») et à quoi sert-il ?
Un modèle de monde est une IA capable de générer des environnements virtuels qui respectent les lois de la physique (ex : simuler l’écoulement de l’eau lorsqu’un verre se renverse). Ces modèles trouvent des applications dans la création de jeux vidéo, d’environnements de réalité virtuelle, et dans le développement de robots capables de comprendre et d’interagir avec leur environnement de manière autonome.
Quelle est la différence de positionnement entre OpenAI et Anthropic sur le marché de l’IA ?
OpenAI, avec ChatGPT, se positionne sur le grand public tout en développant des modèles sectoriels (finance, santé) et des objets connectés. Anthropic, éditeur de Claude, privilégie les usages professionnels en misant sur la puissance de ses modèles et une approche responsable du développement de l’IA. Cette distinction attire des profils d’investisseurs et d’utilisateurs différents.
Pourquoi parle-t-on d’un élargissement de la fracture numérique avec l’IA ?
L’écart se creuse entre ceux qui se contentent d’utiliser l’IA de façon basique (comme un moteur de recherche amélioré) et ceux qui investissent du temps pour maîtriser ces outils et explorer leurs possibilités. Dans un contexte professionnel, cette différence d’appropriation risque de créer des disparités significatives en termes de productivité et d’employabilité.