Pourquoi l’intelligence artificielle ? Pour faire plus avec moins

L’intelligence artificielle est dans toutes les conversations, tous les débats, tous les argumentaires commerciaux, toutes les prédictions… elle nous est présentée à la fois comme la principale cause du futur effondrement de notre civilisation, mais également comme la solution à tout. Nous sommes confrontés à une situation absurde dans la mesure où nous avons l’injonction d’en louer les mérites et de l’implémenter au plus vite, alors qu’il y a un déficit flagrant de compréhension de ce qu’est réellement l’intelligence artificielle, de ce qu’elle peut apporter au monde de l’entreprise ou à la société en générale, et de la façon dont elle peut le faire. Non, l’IA n’est ni magique, ni révolutionnaire, c’est l’évolution logique de l’outil informatique, ni plus, ni moins.

L’intelligence artificielle est et restera omniprésente, au même titre que l’outil informatique

Plus les mois passent et plus l’intelligence artificielle s’installe dans nos conversations personnelles et professionnelles, dans le débat politique, dans les conférences sur le numérique, le marketing, l’environnement, l’industrie… (cf. Intelligence artificielle et machine learning s’installent durablement dans notre quotidien) L’Intelligence artificielle est devenu un sujet omniprésent, il est même mentionné dans les programmes du nouveau Bac !

Si l’on en parle autant, c’est qu’elle s’impose comme une évidence (De l’apport de l’intelligence artificielle pour la quatrième révolution industrielle). Le problème est qu’on nous la présente à travers des assertions polarisées : soit comme l’innovation qui va détruire des millions d’emplois, soit comme la technologie révolutionnaire qui va faire grandement progresser la médecine, préserver notre planète… Des affirmations qui sont bien loin de ce que l’IA et le machine learning ont à nous proposer (Artificial Intelligence Is Powerful , And Misunderstood).

D’une part : non, les IA ne vont pas détruire des emplois, ces derniers évoluent selon les cycles économiques, cela a été théorisé (La destruction créatrice est un phénomène contre lequel vous ne pouvez pas lutter). De plus, n’oublions pas que nous n’avons pas besoin d’IA pour détruire des centaines de milliers d’emplois, nous y arrivons très bien tout seuls : Potential International Employment Effects of a Hard Brexit. D’autre part : non, les intelligences artificielles ne vont pas sauver la planète, seuls nous (ses occupants) sommes capables de le faire. Mais vous le saviez déjà, non ?

Tout ça pour dire que l’intelligence artificielle n’est ni la cause de nos malheurs / espoirs, ni le remède, mais une partie des deux. Au même titre que l’on peut difficilement accuser l’outil informatique d’avoir détruit des emplois à la fin du siècle dernier, nous ne pouvons pas continuer à propager des scénarios catastrophes qui reposent sur des hypothèses et des projections bancales (3 types of AI that represent our fears for the future).

Entendons-nous bien : je ne suis pas en train de minimiser l’impact de l’intelligence artificielle sur l’économie et notre société, simplement je vous invite à prendre du recul et à ne pas vous tromper de cible. Diriez-vous que les ordinateurs sont responsables de la dernière crise économique ? Non, c’est l’assouplissement des règles d’attribution des crédits à la consommation qui a fait enfler la bulle de l’endettement aux États-Unis, s’écrouler le marché immobilier, ect… Les ordinateurs n’ont fait qu’accélérer la mise sur le marché de produits financiers toxiques ou mal maitrisés. Pour l’intelligence artificielle, c’est la même chose : l’automatisation et le machine learning ne sont que des outils au service d’entreprises qui fixent leurs propres limites et règles. Ce n’est pas aux IA ou aux robots qu’il faut définir et imposer des règles éthiques, mais aux patrons et conseils d’administration. Encore une fois, ne vous trompez pas de cible, vous risqueriez de passer à côté de la révolution numérique.

Chaque révolution industrielle relève le niveau de productivité

Cela n’a pas pu vous échapper : depuis l’avènement de la mondialisation, nous sommes lancés dans une course à la productivité. Il y a une réelle injonction de performance, il faut pouvoir faire plus avec moins, ainsi va le cycle de vie des produits et des marchés.

J’ai déjà eu l’occasion de vous expliquer que la troisième révolution industrielle correspondait à celle de la généralisation de l’électronique, donc de l’informatisation des emplois de bureau et de l’automatisation des emplois manuels. 30 ans après le début de cette 3e révolution industrielle, n’importe qui peut constater que nous n’avons pas éliminé le papier et qu’il reste encore de nombreux travailleurs manuels. La réalité de la robotisation est que nous avons atteint un plateau dans l’automatisation des tâches physiques. Les prochains gains de productivité seront négligeables, car il y a une réalité économique à laquelle bon nombre d’industriels se heurtent : la conception et l’exploitation de robots pour effectuer des tâches complexes ou diversifiées est moins rentable que le recours à une main d’oeuvre humaine.

Formulé autrement : ce qui devait être automatisé pour gagner en productivité l’a déjà été, il ne reste plus que des tâches trop complexes pour être automatisées de façon rentable. Nous sommes maintenant plus dans une approche qui combine la polyvalence et la capacité d’adaptation des humains avec la puissance des machines. Exemple avec les exosquelettes utilisés par Colas :

Comme la vidéo l’illustre très bien, les robots ne sont pas nos ennemis, ils ne sont pas là pour remplacer les ouvriers, mais pour diminuer la pénibilité. Ainsi, il est possible d’augmenter le rendement, mais pas au détriment d’ouvriers à qui on demandait auparavant de faire toujours plus d’heures et de prendre toujours plus de risques. Ici, le gain de productivité se fait dans des conditions saines.

Il existe aussi des sociétés comme Deepomatic qui proposent d’utiliser l’IA pour sécuriser des sites industriels (par reconnaissance visuelle des facteurs de danger) tout en optimisant la productivité (gain de temps et de ressources) et en appliquant le principe de maintenance prédictive (Reconnaissance vidéo : Deepomatic lève 6,2 millions pour conquérir l’industrie).

Il n’y a donc pas de débat concernant l’utilisation de l’intelligence artificielle dans l’industrie, car elle n’est que bénéfique. En ce qui concerne les emplois de bureau, la situation est différente, car nous n’en sommes pas au même point.

La priorité : augmenter le rendement des emplois tertiaires

Après avoir augmenté de façon drastique la productivité des secteurs primaires et secondaires (agriculture et industrie), les technologies d’automatisation s’attaquent maintenant au secteur tertiaire, celui des services. L’objectif étant de déployer des robots logiques capables d’automatiser un certain nombre de tâches répétitives et à faible valeur ajoutée.

Avec la quatrième révolution industrielle et la généralisation du numérique, tous les éléments qui composent le quotidien des travailleurs du savoir sont numérisés : commandes, clients, dossiers, messages… Grâce aux capacités des plateformes big data, il est possible de collecter, stocker et raffiner de grands volumes de données. Ceci va servir de base à la modélisation des processus métier à des fins d’automatisation (RPA pour Robot Process Automation) ainsi que d’optimisation (baisse des coûts de production, réduction de la consommation de ressources, optimisation des revenus…).

Comme pour l’exemple des ouvriers cité plus haut, l’objectif n’est pas de remplacer les salariés, mais de les soulager des tâches répétitives ou fastidieuses afin qu’ils puissent se concentrer sur des missions à plus forte valeur ajoutée. Le principe est connu de longue date, mais se heurte encore à d’énormes réticences liées à la peur du changement.

Et comme toujours, ces peurs sont largement infondées, car elles reposent sur des hypothèses farfelues. Souvenez-vous qu’à l’arrivée des tableurs en entreprise, on craignait de voir disparaitre les comptables et contrôleurs de gestion. S’il y a bien une chose dont je suis persuadé, c’est qu’aucune IA ne pourra jamais égaler la polyvalence et la faculté d’adaptation d’un humain. Ceci étant dit, nous parlons ici d’un humain motivé et bienveillant, pas d’un salarié désimpliqué et blasé des promesses de sa hiérarchie… mais c’est un autre débat qui ne sera pas abordé ici.

L’important, à retenir et c’est d’ailleurs le sujet principal de cet article, est que l’intelligence artificielle n’est pas magique. Ne vous faites pas leurrer par les discours enjôleurs des “spécialistes” et autres vendeurs de solutions : pour pouvoir réellement automatiser des tâches de façon fiable, pérenne et avec de réels gains de performance, il faut mobiliser beaucoup de ressources : Les IA créent des emplois… que vous n’avez surement pas envie d’occuper. Et c’est là tout le paradoxe du machine learning : les gains ne sont pas garantis. La conception du modèle de traitement de l’IA (phase d’apprentissage) est ainsi un peu comme un saut de la foi : il est impossible de savoir à l’avance quels seront les bénéfices réels, voire s’il y en a.

Non, la machine n’apprend pas toute seule

Contrairement à ce que l’on essaye (trop) régulièrement de vous faire croire, aucune machine n’est capable d’apprendre par elle-même, c’est un abus de langage.

Dans la vraie vie, on identifie un processus que l’on souhaite automatiser (ex : trier des photos de chats et de chiens), on dote un ordinateur de capacités analytiques (ex : reconnaissance visuelle) lui permettant de simuler des fonctions cognitives (un raisonnement), afin de développer un modèle de traitement de l’information (ex : en entrée, des photos en vrac ; en sortie, des photos triées). Dans les premiers temps, ce modèle est très imparfait, aussi, différentes familles / variantes d’algorithmes sont testées pour pouvoir optimiser ce modèle. Donc dans l’absolu, ce n’est pas l’algorithme qui évolue, c’est le modèle de traitement. Un modèle qui est spécifique au processus cognitif qu’on lui demande de simuler, ainsi qu’aux données ayant servi à son entrainement. Une fois qu’un premier niveau de capacités cognitives a été atteint, on procède à un enrichissement du modèle pour lui demander de faire des choses plus complexes.

Cette intelligence artificielle (en réalité un modèle de traitement) passe donc par différentes phases d’entraînement, de contrôle, de pondération et d’optimisation qui exigent énormément de ressources humaines et de données de qualité (De l’importance des experts métiers pour entrainer les intelligences artificielles).

Si vous avez l’occasion de discuter avec des data scientists, ceux qui conçoivent et entrainent les IA, ils vous confirmeront qu’il y a un côté très expérimental, à la limite du tâtonnement, dans l’optimisation d’un modèle : il faut tester différentes combinaisons d’algorithmes et de paramétrage afin de faire progresser le taux de fiabilité. Pour pouvoir obtenir des résultats significatifs, il faut du temps, des ressources pointues et surtout des jeux de données de très bonne qualité, donc un gros travail préalable de labelisation des données brutes et de discrimination de données non pertinentes (réduction de dimensionnalité).

Tout ça pour dire que si l’on peut sans trop de difficultés évaluer les gains de performance d’une intelligence artificielle à raisonnement automatique (ex : les outils de programmatic buying ou de marketing automation), les gains de performance incrémentaux que l’on peut potentiellement obtenir avec du machine learning ou du deep learning sont très aléatoires, et exigent surtout beaucoup de ressources (This Is Why A.I. Has Yet to Reshape Most Businesses). À tel point, que la question de la rentabilité économique revient fréquemment : ne serait-il pas plus simple de se contenter d’une GOFAI (Good Old-Fashion AI) plutôt que de pratiquer la fuite en avant avec le deep learning ? Impossible de le dire, car chaque cas est particulier.

Au final, toute cette histoire de big data et de machine learning n’est-elle pas une vaste fumisterie ? Non pas du tout, car toutes les conditions sont enfin réunies pour pour que cela produise les résultats escomptés : faire plus avec moins.

Mobile, social, big data, IA, IoT, plateformes… forment un grand ensemble

OK, je veux bien reconnaitre que ces dix dernières ont ressemblé à une interminable course à l’adoption de nouvelles technologies (matériel et logiciel) où chaque innovation en chassait une autre. Il en résulte un sentiment de lassitude, voire de méfiance vis-à-vis des nouveautés “révolutionnaires” que l’on essaye de nous refourguer en ce moment (ex : 5G, VR, 8K…). Du coup, toutes ces innovations plus ou moins pertinentes (en phase avec les besoins réels des consommateurs) finissent par semer le doute dans l’esprit des décideurs qui affichent un certain scepticisme vis-à-vis des ressources englouties pour s’adapter à la mobilité, aux médias sociaux, aux objets connectés, aux plateformes numériques, au big data… On en vient à se poser la fameuse question : au final, est-ce que tout ça a un sens ?

Aujourd’hui nous pouvons enfin affirmer que oui, toutes ces briques numériques s’emboitent pour former un tout cohérent dont l’intelligence artificielle est à la fois le point commun et l’aboutissement.

Toutes les pièces du grand puzzle numérique sont enfin réunies et s’emboitent dans l’objectif de maximiser la productivité et les revenus. Le numérique agit comme un liant permettant de faciliter la rencontre entre l’offre et la demande, de fluidifier la circulation des informations et données, et de permettre leur agrégation et analyse à grande échelle dans une optique d’automatisation et d’optimisation. L’intelligence artificielle, et plus particulièrement le machine learning, est la pièce centrale de cet agencement permettant d’analyser de plus grandes quantités de données, d’identifier des corrélations là où les humains ne le peuvent pas, de faire des prédictions plus précises et d’automatiser les traitements de façon bien plus efficace.

C’est donc bien à ça que sert l’intelligence artificielle : analyser, automatiser, optimiser, prédire… autant d’objectifs permettant de relever les défis du XXIe siècle (mondialisation, épuisement des ressources, disruption…), mais qui se heurtent à de nombreux enjeux : disponibilité des données, mobilisation de ressources conséquentes, accès aux bons talents, acceptation ou résistance de la part des collaborateurs internes…

Tout ceci nous mène au sempiternel besoin de pédagogie et de montée en compétences numériques : n’espérez pas pour réaliser de gain de performances si vos collaborateurs n’ont pas bien compris le fonctionnement des intelligences artificielles, les bénéfices et limitations du machine learning, le cadre général dans lequel elles s’inscrivent (l’accélération numérique) et la finalité de tout ceci (éviter de se faire dépasser par une concurrence toujours plus féroce).

Moralité : s’il y a encore des débats internes dans votre entreprise ou organisation sur l’intérêt d’exploiter l’intelligence artificielle, c’est que les différentes parties-prenantes ne sont pas bien conscientes des enjeux et du potentiel. Un facteur supplémentaire qui vient creuser votre dette numérique.

2 commentaires sur “Pourquoi l’intelligence artificielle ? Pour faire plus avec moins

  1. lisez cet article très intéressant une fois en suivant la logique de l’auteur (de haut en bas et rapidement) et ensuite remonter le de bas en haut en ne gardant que les phrases clés….vous y verrez beaucoup plus clair

  2. ….
    “IA ne vont pas détruire des emplois, ces derniers évoluent selon les cycles économiques, cela a été théorisé (La destruction créatrice…” : bien sûre une théorie de 1943… encore si c’était de la physique.. je dirais why not, ..pas de souci…

    “l’objectif n’est pas de remplacer les salariés, mais de les soulager des tâches répétitives ou fastidieuses afin qu’ils puissent se concentrer sur des missions à plus forte valeur ajoutée” : mais oui ça dégouline de bons sentiments.. pas de souci..

    Je persiste à dire que tout cette belle parole c’est de la fumée.. et puis on s’en fou…

    L’Informatisation/L’automatisation/La Robotisation va détruire des emplois au niveau mondial… elle est utilité pour des gains de productivité.. what else ?!!!!! pour soulager les employés ??!!!?? Je ne dois pas vivre dans le même monde…

    Par contre oui il faut y aller pour au moins le contrôle des technos (c pas gagné).. et ne pas se faire devancer par les concurrents i18n (intra/extra européen) pour la productivité/coût.

    Et moi je suis plutôt pour que la robotisation/l’informatisation arrive bcp plus vite.. et que cela faisse baisser le cout de production pour qu’on recommence à produire en France… Bref

Les commentaires sont fermés.