La semaine dernière, toutes les grandes sociétés américaines ont publié leurs résultats trimestriels. L’occasion pour le monde entier de constater à nouveau que les GAFAM dominent l’économie mondiale avec une capitalisation boursière supérieure à trois mille milliards de dollars. Force est de constater que la supériorité technologique de ces sociétés leur a permis de développer une supériorité économique. La volonté des GAFAM de se diversifier dans tous les secteurs d’activité possibles est particulièrement inquiétante, il suffit d’analyser l’ambition d’Amazon pour s’en convaincre. Au même titre que les éditeurs de presse, sommes-nous condamnés à devenir de simples sous-traitants de Google, Facebook et cie ? Il y a de grandes chances, surtout si vous vous contentez de reproduire les modèles économiques et recettes commerciales / publicitaires du XXe siècle. Sommes-nous voués à devenir des ressources obsolètes avec l’avènement des IA (surtout celles des GAFAM et BAT) ? Pas nécessairement, surtout si vous vous outillez en ce domaine et si vous parvenez à réunir les bonnes compétences, notamment les experts métier.
Bientôt la fin de la lune de miel pour l’IA ?
L’intelligence artificielle est indéniablement LE phénomène médiatique du moment, du moins dans les médias professionnels. Je suis tous les jours abreuvé d’un déluge d’articles parfois dithyrambiques, parfois alarmistes, sur les exploits de telle ou telle IA capable de supplanter les médecins et professionnels de santé (AI Is Continuing Its Assault on Radiologists – AI Could Diagnose Your Heart Attack on the Phone—Even If You’re Not the Caller). Et ce n’est qu’un début, car les IA n’en sont qu’à leurs premiers galops d’essai (10 Charts That Will Change Your Perspective On Artificial Intelligence’s Growth), et s’inviteront bientôt dans tous les secteurs d’activité (8 AI Predictions for 2018).
L’intelligence artificielle n’est néanmoins pas l’apanage des médias professionnels, car on en parle aussi pour des applications grands publics («Hello World»: Le jour où une intelligence artificielle a dévoilé son morceau composé avec Stromae et Tommy Hilfiger et IBM s’associent pour mettre l’intelligence artificielle au service de la création) et même dans l’armement (AI weapons will transform war, and they can’t be stopped). #skynet
Mais rassurez-vous, car d’une part, les grands éditeurs en maitrisent tous les aspects (How IBM Watson is powering every other business with AI), et parce que c’est une bonne chose pour notre développement économique (L’intelligence artificielle pourrait permettre aux entreprises d’augmenter significativement leurs effectifs). Du coup, l’opinion publique suit (Les Français prêts pour l’IA !) et s’enthousiasme même de la magnanimité des grands acteurs (Google is launching an AI research center in France et Facebook plans European AI investment and digital training programs amid growing regulatory scrutiny).
Toutes les planètes sont donc alignées pour un déploiement massif : 79% des marketeurs prévoient d’utiliser l’IA cette année. Ainsi donc, 8 marketeurs sur 10 sont prêts à exploiter des intelligences artificielles. Pourquoi et pour faire quoi ? Au final, on ne sait pas trop : Half of business leaders plan to implement AI despite believing it won’t help. Et c’est là tout le problème de l’intelligence artificielle : il y a un consensus généralisé pour dire que ça va révolutionner notre quotidien et rendre obsolète la moitié des métiers, mais on ne sait pas bien comment ni à quel horizon. J’avais essayé d’apporter ma modeste contribution à ce sujet complexe l’année dernière en publiant mon panorama des solutions d’IA pour le marketing. L’objectif était d’y voir plus clair dans cette cacophonie et d’identifier des exemples concrets de ce que l’IA peut apporter dans notre travail au quotidien (L’intelligence artificielle est un outil informatique comme un autre).
Cela peut vous paraitre trivial, mais sans ce travail pédagogique, le marché se retrouve coincé entre des médias qui ont une couverture très approximative du sujet, des experts qui ont bien du mal à rendre leur propos accessible au plus grand nombre et des éditeurs de solutions qui promettent tout et n’importe quoi. Dernier exemple en date : Lucy, un système marketing expert capable de réaliser à la fois l’étude de marché, la segmentation et l’achat média (IBM’s Watson now powers Lucy, a cognitive computing system built specifically for marketers).
J’ai déjà assisté à de nombreuses démonstrations de solutions semi ou complètement automatisées, mais j’ai rarement vu une proposition de valeur aussi ambitieuse… et farfelue ! En gros, vous fournissez à la machine l’intégralité de vos documents, sous n’importe quel format (grilles de chiffres, études en PDF, logs, fichiers Word ou PowerPoint…) et le service vous ressort une analyse complète du marché :
Vous cliquez ensuite sur un bouton et la machine vous génère une segmentation très précise :
Vous cliquez enfin sur un troisième bouton et l’on vous détaille le plan média idéal, sur l’ensemble des médias en et hors ligne :
…
…
…
Sans déconner ? Une stratégie marketing / com / média en trois clics de souris ? WTF?
…
…
…
Encore une fois, j’ai déjà écouté de nombreux pitchs plus ou moins ambitieux, mais celui-ci est de loin le plus risible. Là, nous sommes carrément au plus haut du pic des attentes exagérées. Je ne sais pas pour vous, mais j’interprète ça comme un signal : les fournisseurs de solutions sont prêts à raconter les plus gros mensonges à des annonceurs complètement désemparés qui sont prêts à les croire, du moment qu’ils leur permettent de profiter de la vague médiatique de l’intelligence artificielle (“nous aussi, nous en faisons !“). Bref, c’est du grand n’importe quoi, et il est tant que l’on referme cette fenêtre médiatique pour envisager de façon plus sereine la suite, c’est à dire le passage du POC (“proof of concept“) à l’exploitation réelle des IA dans notre travail au quotidien. Mais pour cela, il faut s’organiser.
Les IA sont des lave-vaisselles comme les autres
Difficile donc de ne pas rester sceptique devant la solution miracle présentée plus haut, pourtant, ils y croient très fort As IBM Ramps Up Its AI-Powered Advertising, Can Watson Crack the Code of Digital Marketing?. Prétendre qu’il est possible de modéliser un marché et ses clients pour automatiser le marketing et la communication, c’est très mal connaitre le comportement chaotique des consommateurs, et surtout les données qui sont à disposition (ou non).
S’il est effectivement possible d’améliorer les performances de telle ou telle action marketing ou campagne de publicité, les gains de performance sont fonction de la qualité des données que l’on fournit à la machine. Heureusement, car sinon, les gains de performance s’annuleraient (What Changes When AI Is So Accessible That Everyone Can Use It?).
Dans la mesure où les algorithmes sont disponibles dans le milieu universitaire, la différence va réellement se faire sur le modèle de traitement, c’est à dire dans la façon dont l’IA va analyser le problème qu’on lui soumet (améliorer le ciblage, baisser les coûts d’achat média, augmenter les chances de clic sur une bannière…) et restituer une réponse en fonction des données qui sont à sa disposition. Pour vous épargner une longue explication, nous sommes aujourd’hui au 3eme stade de l’automatisation :
- le 1er stade correspond à des automates qui exécutent des règles définies par des humains (marketing automation, programmatic buying…) ;
- le 2eme stade correspond à des systèmes qui créent leurs propres règles, mais sur la base de données étiquetées par des humains (machine learning) ;
- le 3eme stade correspond à des systèmes qui analysent eux-mêmes les données et en déduisent leurs propres règles (deep learning).
Ce troisième stade est intéressant, car il permet de mettre en oeuvre des IA avec des données brutes. Le problème est que ces systèmes sont des boites noires, il est impossible d’en comprendre réellement le fonctionnement et de pouvoir optimiser les traitements. C’est là toute la différence entre l’apprentissage supervisé, où l’on structure au préalable les données et où l’on impose à la machine les caractéristiques à prendre en compte ; et l’apprentissage non supervisé où la machine travaille en complète autonomie.
“Complète autonomie” est d’ailleurs un terme qui ne correspond pas du tout à la réalité, car il y a un important travail préparatoire pour configurer et alimenter le système. Pour bien comprendre ces prérequis, j’adore la métaphore du lave-vaisselle : un lave-vaisselle vous permet de ne pas vous mouiller les mains, en revanche, il faut rincer les assiettes et couverts, les placer au bon endroit dans les tiroirs, mettre du liquide de lavage / rinçage, choisir un programme, puis sortir les assiettes / couverts / verres, les essuyer et les ranger dans les placards. Cette analogie fonctionne aussi très bien avec un lave-linge.
D’une part, la machine ne fonctionne pas de façon autonome (uniquement dans la phase de construction du modèle de traitement), d’autre part, pour exploiter une IA au maximum de sa capacité, il vous faudra investir du temps et beaucoup d’efforts pour parvenir à maitriser le modèle de traitement et l’optimiser.
En théorie, si vous utilisez un algorithme de deep learning comme les réseaux de neurones, il est quasiment impossible d’en comprendre le fonctionnement, car la machine exploite d’innombrables couches de neurones artificiels pour former un schéma de pensée qui n’est pas lisible par les êtres humains. Dernièrement, des chercheurs ont commencé à travailler sur des IA dont la fonction serait de rendre justement lisible le modèle de traitement (AI, Please Explain Yourself). Financés en partie par le DARPA, ces travaux permettraient de demander à la machine d’expliquer son raisonnement et de pouvoir ainsi l’ajuster comme il est possible de le faire avec le machine learning traditionnel (Explainable Artificial Intelligence). Mais tout ceci n’est pour le moment que de la théorie.
Donc non, il n’y a pas de solution miracle : pour exploiter une intelligence artificielle, il faut de la ressource humaine, et pas n’importe laquelle.
Vous pouvez manquer de spécialistes en IA, mais pas d’experts métier
Comme expliqué précédemment, la réussite de tout projet d’intelligence artificielle repose sur la maitrise du modèle de traitement, sinon, vous ne parviendrez pas à faire mieux que la concurrence. Or, pour maitriser ce fameux modèle de traitement, il faut maitriser le processus d’apprentissage et les données. Aujourd’hui, on nous explique que cette phase est assurée par les data scientist et qu’il en manque (Major multinationals identify emerging skills gaps on AI). Là encore, la réalité est plus subtile : recruter un data scientist ne vous aidera pas, car il ne sera pas autonome. Ce dont vous avez besoin, c’est d’une équipe complète d’experts de votre métier ET d’un data scientist. Souvenez-vous de l’adage “garbage in, garbage out” : si vous ne fournissez pas au data scientist les bonnes données ou la bonne explication sur le traitement “métier” de ces données, il ne pourra pas faire de miracles.
Le plus gros défi des marques et organisations est donc pour le moment de se constituer des jeux de données dont elles auront à la fois la pleine propriété et la maitrise. L’important étant de privilégier la qualité sur la quantité, car à partir du moment où les données sont de mauvaise qualité (incomplètes ou corrompues), l’algorithme sera biaisé, et augmenter la taille du jeu de données n’arrangera pas les choses. De ce que j’en sais, les algorithmes bayésiens permettent justement de faire des inférences (des déductions probabilistiques) sur un petit data set pour pouvoir fournir à la machine un jeu de données d’entrainement beaucoup plus important. D’où l’intérêt des smart data (des données de qualité) par rapport aux big data (des données en grande quantité, mais brutes).
Moralité : on se focalise un peu trop sur les algorithmes et les data scientists, deux choses que les annonceurs ont beaucoup de mal à maitriser, alors que l’on devrait s’intéresser aux données et aux experts métiers (cf. l’article publié l’année dernière : De l’importance des données et des humains pour le machine learning).
Le meilleur conseil que je puisse vous donner est le suivant : profitez du chantier RGPD pour développer une stratégie “data” ambitieuse et monter une équipe interne composée d’experts métier (pour modéliser les traitements), de spécialistes de la donnée (pour identifier les sources et les flux) et de membres de la DSI (pour les exploiter dans de bonnes conditions informatiques). Une fois opérationnelle, cette équipe pourra être complétée par des spécialistes de l’intelligence artificielle afin de créer des modèles et les optimiser, mais de façon ponctuelle (l’essentiel du travail est dans la collecte et le raffinage des donnés, pas dans la phase d’entrainement de l’IA).
Avec ces explications, j’espère vous avoir éclairé sur les enjeux de l’IA et les chantiers qui vous attendent. Dans tous les cas de figure, sachez que non, les GAFAM n’ont pas encore gagné la partie, mais que votre fenêtre d’opportunités se rétrécit de jour en jour. Ne tardez pas, car il sera bientôt trop tard, surtout au rythme où vont les choses.
Merci. Ce rappel des fondamentaux est très réussi.
«probalistiques» probabilistiques ?
«se rétrécie de jour en jour» rétrécit ?
Oui merci, je corrige.
Merci Fred. Ca fait du bien de constater que d’autres experts voient d’abord un phénomène de com’ et de
marketing dans cette hype IA.
Du côté juridique, ma remise d’équerre est plus longue et donne ceci : http://www.precisement.org/blog/Intelligence-artificielle-en-droit-derriere-la-hype-la-realite.html