La vérité sur l’intelligence artificielle en entreprise

L’intelligence artificielle était sensée révolutionner notre quotidien et sauver des millions de vie ; pourtant elle n’a pas été capable de prédire la pandémie, d’en ralentir la progression ou d’aider les scientifiques à mettre plus rapidement un vaccin au point. Se pourrait-il que l’on nous ait menti sur son potentiel réel ? Comme souvent, les promesses n’engagent que ceux qui y croient… Aussi est-il largement temps de clarifier la nature et le rôle que peut jouer l’intelligence artificielle dans la croissance des entreprises pour en faciliter l’adoption.

Cette semaine, Elon Musk faisait à nouveau sensation en déclarant que ceux qui ne croient pas que les intelligences artificielles seront plus malines qu’eux sont bien plus stupides qu’ils ne le pensent (Elon Musk said people who don’t think AI could be smarter than them are ‘way dumber than they think they are’). Je suis au regret de vous apprendre que je suis sacrément stupide, car je ne pense pas qu’une IA sera un jour plus intelligente qu’un humain.

Le problème de cette déclaration est qu’elle repose sur des raccourcis qui sont à la fois dangereux pour notre compréhension de ce qu’est une IA, mais également pour notre capacité d’acceptation du progrès. Vous sentez-vous en danger parce qu’une calculatrice calcule mieux et plus vite que vous ? Vous sentez-vous en danger parce qu’une machine à coudre coud plus vite que vous ? Vous sentez-vous en danger parce que votre smartphone a mémorisé plus de numéros de téléphone que vous ? Non, car vous avez intégré le fait que ces machines sont d’une part mono-tâches, et qu’elles sont d’autre part au service des humains. Il en va de même pour les IA : elles ne sont pas plus intelligentes, car il y a plusieurs formes d’intelligences ; et surtout car elles ne sont pas, n’ont jamais été et ne seront jamais autonomes.

Je pense ne pas me tromper en disant que le débat autour des IA et de l’automatisation repose sur une ambiguïté : vous n’êtes pas en concurrence avec les machines, sauf si vous refusez de travailler avec elles. Un peu comme un bucheron qui refuserait d’utiliser une tronçonneuse ou un comptable qui préfèrerait tout calculer à la main : d’un côté ils ne travailleront pas mieux, et de l’autre ils seront plus lents et moins précis. Deux arguments qui feraient qu’on leur préfèrerait un remplaçant acceptant de travailler avec des outils modernes pour un meilleur rendement.

Pourquoi cette analogie avec les bucherons et comptables ? Parce que la compréhension de ce que sont et à quoi servent les intelligences artificielles est encore beaucoup trop approximative. Il en résulte des attentes impossibles à combler et une méfiance qui freine leur adoption dans les entreprises.

L’intelligence artificielle est l’enzyme glouton de l’informatique

Au début des années 70, les publicitaires ont eu l’idée de nous vendre de la lessive en vantant l’action des enzymes gloutons. En réalité, il s’agissait d’un détergent biologique aux multi-enzymes capables de dévorer la saleté. Si ce concept publicitaire partait d’une bonne intention (épargner aux consommateurs des termes scientifiques), il n’a pas réellement fonctionné, car les consommateurs craignaient que les enzymes abiment leur linge.

Il en va de même avec l’intelligence artificielle : à vouloir simplifier des termes techniques, les éditeurs de solutions ont généré un flou artistique autour de l’intelligence artificielle qui est maintenant assimilée à du vaporware. Certes, il existe bien des arnaques comme seules les startups de la Silicon Valley savent en faire (“Fake it until you make it” : Human-guided burrito bots raise questions about the future of robo-delivery), mais cette façon ultra-enthousiaste de présenter les IA commence à fatiguer le marché. Très clairement, je pense que nous sommes allez au bout des promesses que l’on pouvait faire autour de l’IA. D’ailleurs, vous remarquerez que les derniers rapports publiés ne mentionnent plus l’IA, mais l’automatisation : The future of work in Europe.

J’ai déjà eu de nombreuses occasions de vous livrer ma version, aussi je me contenterai d’une synthèse : L’intelligence artificielle n’est pas une technologie, c’est un concept, une vue de l’esprit (utiliser l’outil informatique pour simuler l’intelligence humaine). N’allez pas croire qu’une application reposant sur l’intelligence artificielle est “intelligente”, c’est simplement un outil numérique comme un autre. Vous noterez d’ailleurs que tout est dans le terme en lui-même : intelligence ARTIFICIELLE. Comme Luc Julia l’a très bien expliqué dans son livre : “L’intelligence artificielle n’existe pas”.

Dans les faits, l’IA est un domaine de réflexion très vaste, un sujet de recherche qui est exploité depuis des décennies, mais qui ne correspond à aucune réalité pratique. Bon en fait si, les applications de l’intelligence artificielle sont nombreuses, mais très différentes les unes des autres. Les assimiler à une seule discipline serait comme de considérer que l’informatique désigne un ensemble de pratiques et outils similaires (alors qu’il existe des outils informatiques pour tout et n’importe quoi, des jeux mobiles aux puces intégrées dans les systèmes de freinage des voitures).

Vous conviendrez qu’entre les super-calculateurs quantiques et la calculette qui traine sur votre bureau il y a une sacrée différence, non ? C’est la même chose avec l’intelligence artificielle : ce terme est trop vague pour que l’on appréhende les outils et pratiques qui lui sont associés comme un ensemble. En premier lieu, il convient de dissocier ces outils et pratiques en deux catégories qui correspondent à deux réalités.

Approche symbolique vs. approche connexionniste

Comme nous venons de le voir, l’intelligence artificielle est un terme bien trop généraliste. Nous devrions le bannir de notre vocabulaire pour n’utiliser que des termes plus précis, ceux qui sont liés à des applications concrètes. Nous distinguons ainsi deux façons de simuler l’intelligence : les moteurs de règles et les systèmes apprenants. Une dichotomie très bien expliquée par Olivier Ezratty en 2018 : Que devient l’IA symbolique ?

Si le marché s’est emballé ces dernières années pour les pratiques de deep learning (“apprentissage profond” en québécois), la majeur partie des intelligences artificielles, et plus précisément des agents intelligents, repose sur l’utilisation d’arbres de décision.

Il n’y a rien de mal à utiliser des arbres de décision, simplement c’est un abus de langage de nous faire passer ça pour la quatrième révolution industrielle dans la mesure où ils sont exploités depuis des décennies. C’est bien simple : plus on s’intéresse au sujet et plus la déception est grande quand on commence à creuser les méthodes utilisées par les éditeurs et startups. Un phénomène d’essoufflement de l’engouement autour de l’IA déjà constaté par le même Oliver Ezratty l’année dernière : La vague de l’IA est-elle terminée ?

Vous pourriez me dire que ce sont justement les progrès réalisés en machine learning qui sont à l’origine de l’engouement de ces dernières années, et je vous répondrais que oui, effectivement, mais que dans ce cas là, par soucis d’honnêteté intellectuelle, il faut impérativement faire la différence entre ces deux approches : soit vous cherchez à automatiser des tâches de façon formelle et maitrisée (à l’aide d’un moteur de règles), soit vous cherchez à traiter de grandes quantités d’information en laissant à la machine un minimum de liberté dans la façon de le faire (à l’aide de méthodes d’apprentissage machine).

Bon dans les faits, ce n’est pas si simple, car il est possible (et parfois recommandé) de faire les deux en même temps : démarrer l’automatisation du traitement d’informations à l’aide de règles pré-définies et compléter ces règles avec de nouveaux traitements plus ou moins explicites proposés par la machine. Comme vous pouvez le constater, dès que l’on essaye de simplifier le discours, on s’emmêle les pinceaux… Ce qui est bien dommage, car si l’intelligence est purement artificielle, les progrès sont bien réels !

Des domaines d’application bien maitrisés, mais mélangés sous une même appellation générique

Croyez-le ou non, mais l’intelligence artificielle n’est pas qu’un domaine de recherche, c’est un ensemble de pratiques (plus ou moins comparables) qui concernent des applications concrètes en entreprise depuis des décennies : reconnaissance optique de caractères (pour lire les chèques et les adresses sur les enveloppes), traduction, correction orthographique…

Avec les récents progrès qui concernent à la fois l’automation et l’apprentissage machine, il existe un nombre fini de cas d’usage : traitement automatique du langage, reconnaissance visuelle / auditive, robotisation, conduite autonome… Malheureusement, ces usages sont généralement représentés dans des schémas d’ensemble où l’on mélange méthode (ex : deep learning) et application (ex : clustering). Il en résulte une certaine confusion bizarrement entretenue par les acteurs du créneau qui se complaisent à nous faire le coup du garagiste (sortir des termes techniques pour pouvoir facturer plus cher une simple opération de maintenance).

La bonne nouvelle est que le côté “tambouille” s’efface petit à petit pour ne plus laisser la place qu’aux applications en elles-même, ce qui est une très bonne chose, car on se concentre sur le bénéfice apporté (automatisation, précision…) plutôt que sur la méthode (le choix du ou des algorithmes). Les directions métier ont ainsi à leur disposition une panoplie de services et solutions pour gagner en efficacité (cf. mon panorama des solutions d’intelligence artificielle pour le marketing publié en 2017).

De même, les leaders du créneau oeuvrent pour démontrer leur savoir-faire ou partagent carrément leur modèle pour que la communauté se l’approprie et participe ainsi à son enrichissement. Régulièrement, nous avons la démonstration des progrès spectaculaires des IA : OpenAI’s new language generator GPT-3 is shockingly good, Unravel the symbols of ancient Egypt et An AI can generate photographs of people’s faces from line drawings.

Le fait de partager des travaux de recherche est une très bonne chose, car de nombreuses briques technologiques sont ainsi disponibles librement. La réalité de l’utilisation de l’intelligence artificielle en entreprise ressemble ainsi à de la cuisine d’assemblage : une combinaison de briques technologiques permettant d’automatiser des traitements (chatbot, optimisation des campagnes publicitaires…). Tout ceci fonctionne plutôt bien, mais ne garanti en rien des gains de performance fulgurants dans la mesure où toutes les entreprises ont déjà commencé à exploiter ces briques technologiques ou solutions prêtes à l’emploi : Nearly half of marketers are already using or testing machine learning.

Problème : les progrès les plus spectaculaires ont déjà été faits, notamment dans la reconnaissance visuelle / vocale ou le traitement automatique du langage. Pour pouvoir gagner en compétitivité de façon significative (distancer la concurrence), les entreprises doivent maintenant redoubler d’efforts et mettre en oeuvre l’automatisation et l’apprentissage machine à tous les étages (eBay CTO: AI is now an ‘ecosystem’ for us). Pour ce faire, elles ont le choix entre trois façons en fonction du niveau de complexité.

Vous pouvez prendre le menu, choisir à la carte ou faire à manger vous-même

Rassurez-vous, l’utilisation de moteurs de règles ou d’applications reposant sur l’apprentissage machine ne veut pas nécessairement dire recruter une armée de data scientists. Nous pouvons ainsi distinguer trois niveaux de complexité dans l’intégration de l’intelligence artificielle :

  • Les solutions prêtes à l’emploi proposées par des éditeurs spécialisés (ex : détection de fraude dans l’assurance, optimisation des enchères dans la publicité en ligne, génération automatique de texte pour le référencement…) ;
  • Les offres packagées proposées par les géants du numérique (ex : les services d’IA de Amazon, Microsoft, IBM et cie), ces offres reposent sur des modèles de traitement pré-entrainés qu’il faut affiner avec des données internes ;
  • Les offres d’infrastructures en libre-service pour pouvoir créer vos propres modèles en exploitant les architectures techniques de Amazon, Microsoft, Google…

Le premier niveau est naturellement le plus simple à mettre en oeuvre, mais c’est ce qui lui fait défaut : vos concurrents y ont également accès. Le second niveau est un bon compromis, idéal pour les entreprises qui ont un data lab, mais pas forcément des équipes de spécialistes en algorithmes. Le troisième niveau est réservé aux entreprises disposant de compétences pointues en data science.

Dans l’absolu, ces trois façons de faire de l’IA se valent, mais elles ne procurent pas les mêmes avantages compétitifs : le gain est proportionnel aux ressources mobilisées et budgets investis. Comme précisé plus haut, les victoires rapides ont déjà été remportées, aussi les prochains gains de performances vont être plus compliqués à acquérir et demander beaucoup plus de ressources (compétences, données, puissance de calcul…). Autant vous dire qu’il ne faut pas trainer, car les retardataires seront rapidement distancés.

Une réelle urgence à l’adoption et au déploiement à grande échelle

Pour résumer ce qui a été dit plus haut : la technique n’est plus un problème, notamment grâce aux progrès réalisés en algorithmie ainsi qu’aux ressources informatiques disponibles dans le cloud. En revanche, il y a un double défi à surmonter : un déficit de pédagogie et une pénurie de données de qualité.

Concernant le premier point, il semble évident qu’il reste un gros travail à faire pour expliquer ce qu’est une intelligence artificielle, notamment les deux approches (symbolique vs. connexionniste), ce qu’elles peuvent faire ou ne pas faire, ce qu’elles peuvent apporter à une entreprise ou organisation et ce qu’elles peuvent coûter à mettre en oeuvre et exploiter. Le ratio bénéfices / coûts est essentiel à maitriser, sans cela, il y a assez peu de chances qu’un DAF accepte d’engager de grosses dépenses, d’autant plus que la pression est forte pour freiner l’adoption et “privilégier l’humain”. Une réaction naturelle de défense face à l’inconnu (l’IA est un sujet complexe à comprendre), mais qui risque de produire l’effet inverse : rejet des solutions, donc baisse relative de compétitivité face aux concurrents, donc perte de parts de marché, donc destruction d’emplois). Selon cette optique, il y a de véritables verrous psychologiques à faire sauter (L’IA se développe, mais elle a toujours besoin de l’humain).

Le second point est tout aussi important : disposer de données de qualité et en quantité suffisante, que ce soit pour entrainer la machine afin qu’elle puisse développer un modèle de traitement suffisamment précis (De l’importance des données pour le machine learning) ou pour modéliser des processus métier afin de mettre en place des règles de traitements automatiques. Dans les deux cas, il faut impérativement mobiliser les équipes internes pour identifier les bonnes sources de données et pour pouvoir valider l’apprentissage effectif ou la pertinence du modèle (De l’importance des experts métiers pour entrainer les intelligences artificielles).

Vu la tension que génère le débat sur l’IA et l’automatisation (du fait d’une mécompréhension de leur fonctionnement et de leurs capacités), de nombreuses entreprises sont ralenties dans leur appropriation des solutions qui exploitent les moteurs de règles ou l’apprentissage machine. Encore une fois, il y a un gros travail pédagogique pour rassurer, expliquer et surtout aider les collaborateurs à changer de mentalité (accepter la co-existance avec des machines qui sont de toute façon omniprésentes dans notre quotidien depuis 50 ans) et à faire évoluer leurs méthodes de travail (collaborer avec des systèmes experts et intégrer la donnée dans les décisions et arbitrages).

Une fois ce travail pédagogique fait, les collaborateurs seront dans un bien meilleur état d’esprit pour faciliter l’adoption d’outils et pratiques leur permettant de gagner en compétitivité. Comme toujours, nous en revenons à la clé de la transformation digitale : la pédagogie.

9 commentaires sur “La vérité sur l’intelligence artificielle en entreprise

  1. Merci Fred pour cet article.
    Avec le terme Intelligence Artificielle, M. ou Mme Toulemonde à la impression qu’on va vivre dans le monde des robots de Isaac Asimov capable d’agir en toute autonomie.
    Malheureusement les promesses de l’IA tardent à arriver au mieux elle permet de prédire ou d’automatiser des réponses ou actions dans un contexte déterminé (RPA).
    Pour les entreprises, le marketing saute sur l’IA pour packager des solutions avec des algorithmes avancés mais sans soupçons d’intelligence 😊

    1. Mais nous vivons déjà dans le monde des robots : ils sont omniprésents dans l’industrie, l’agriculture, les services… Sans parler des robots logiques (les agents intelligents) qui travaillent en toute autonomie, mais sur des périmètres fonctionnels très restreints, et sous la surveillance d’humains.

  2. Bon travail de synthèse, utile, on n’insistera en effet jamais assez sur l’importance des données tant au niveau quantitatif que qualitatif. L’IA a faim et il faut l’alimenter pour qu’elle soit efficace.
    Merci pour cette article.

    P.S. A la 1ère phrase : sensée et non censée ;)

    1. Je dirai plutôt “censée” que “sensée”, qu’on peut remplacer par “supposée” par exemple.

  3. Merci pour cet article, ça fait plaisir de voir enfin ce terme intelligence artificielle remis à sa place ;) et oui ce ne sont que des programmes informatiques pour réaliser et automatiser des tâches de plus en plus complexes, et il faudra toujours des humains intelligents pour les concevoir ou les contrôler… c’est là que le problème peut se poser, ça commence à se faire rare ;)

    Toujours un point de vue censé et réfléchi ! Peut être 15 ans que je vous lis, et c’est toujours aussi juste, ça fait plaisir !

    1. Merci pour votre message. Déjà 15 ans de lecture ? Si mes calculs sont exacts, vous avez dû voir passer près de 3.500 articles sur ce blog…

      1. Et à mon avis, j’en ai bien lu 90%, et je ne me souviens pas avoir été en désaccord 😉 Bref continuez et ne changez rien, le bon sens à tendance à se faire rare !

  4. Super article dédié aux entreprises mais…
    Il manque le sujet de l’IA le plus prometteur de cette décennie : le mix des IA symboliques avec les IA connexionnistes. Par exemple les GAN, sont le meilleur exemple mais dommage, je ne les ai pas approfondies.
    Globalement, les potentiels des IA seront pour 2025 ou 2030 d’apres Gartner.

    Certaines entreprises font des acquisitions d equipement qu elles utilisent durant 20ans, comme les manufactures ou le portuaires etc… Elles preparent leurs transition durant 5 ans avant d acquerir le materiel. Ne pas acquerir trop vite des outils en 2020 et attendre encore 5 ans est une decision intelligente contrairement a ceux qui n auront pas cru dans les IA.

    1. Effectivement, le marché spécule sur les approches hybrides, notamment avec les pratiques de “Explainable Learning” (ML + DL = XL) où une IA est utilisée pour expliquer le raisonnement d’une autre IA (décrire le modèle de façon lisible). J’ai appris à me méfier de ces projections…

      Quand au délai d’amortissement du matériel, nous sommes dans une logique complètement différente des industrielle, car les entreprises n’achètent rien, elles louent. De plus, elles n’ont même pas à investir dans de la R&D car les modèles proposés sont pré-entrainés avec des données génériques. Le risque est donc quasi nul pour les entreprises les plus frileuses.

Les commentaires sont fermés.