À une époque très lointaine, les enthousiastes des nouvelles technologies étaient considérés avec amusement et bienveillance comme des geeks. Aujourd’hui, ils sont pointés du doigt comme des irresponsables, des élitistes ou des pseudo-criminels. Deux camps s’affrontent : d’un côté les techno-utopistes qui croient en la capacité des nouvelles technologies de sauver l’humanité ; et de l’autre, les techno-collapsologues qui pensent qu’au contraire les nouvelles technologies vont détruire l’humanité. Une fracture de plus dans une société qui a décidément bien du mal à comprendre et accepter ces nouvelles technologies, l’IA en premier lieu !

L’essentiel de cet article en 5 points-clés :
- Certains idéalisent le « web d’avant », pourtant les progrès technologiques et fonctionnels ont apporté de nombreux avantages (performances, fiabilité, diversité de contenus et de services….)
- Le web d’aujourd’hui est très different de celui de la fin des années 90, notamment grâce à l’avènement des smartphones, des médias sociaux ou du cloud computing (logiciels en ligne)
- Face à l’accélération du rythme d’innovation et de diversification, il est nécessaire de réguler et de standardiser les technologies et usages numériques pour éviter les dérives et faciliter l’adoption
- Le débat autour de l’IA a cristallisé les prises de position et fait émergé deux courants de pensé antagonistes (les techno-utopistes et les techno-collapsologues)
- Il convient d’adopter une approche raisonné et pragmatique des technologies et usages numériques (reposant sur des besoins concrets et légitimes), plutôt qu’une attitude dogmatique excessivement optimiste ou pessimiste
Comme tous les ans, les blogueurs et éditorialistes se plient à la règle des prédictions et des souhaits, essayant d’anticiper ce qui va se passer dans les prochains mois. Je suis tombé la semaine dernière sur un article parfaitement démagogique qui espère pour 2024 un retour au web d’avant : The Internet Is About to Get Weird Again.
Selon l’auteur, le « web d’avant » était forcément mieux, car local (pas de grandes plateformes sociales comme Instagram ou TikTok), authentique (les geeks entre eux), non régulé… En gros, l’article tente de faire vibrer la corde nostalgique des premiers utilisateurs d’internet, l’époque « bénie » où le web était un gros foutoir dont on s’accommodait tant bien que mal. Le « on » dans ce contexte signifie ceux qui avaient les connaissances et les compétences. Les bienfaits du web de l’époque étaient ainsi réservés à un nombre restreint de connaisseurs et passionnés.
Depuis, les choses ont changé, car la quasi-totalité des services et technologies sont accessibles à n’importe qui fait l’effort de comprendre et d’apprendre (ex : outils de gestion de contenu, plateformes de no-code…). Y avons-nous gagné au change ? Ça dépend, car si par exemple les grandes plateformes sociales ont grandement simplifié la publication de contenus, elles facilitent aujourd’hui la prolifération de vérités alternatives et de discours haineux. De même, l’effondrement des cryptomonnaies et NFTs ont vaporisé les économies de centaines de millions de personnes. Tout ceci nous donne une bonne illustration de ce que peut engendrer une généralisation trop rapide de technologies et usages non matures. En ce sens, je diverge de l’avis de l’auteur de l’article qui encense le web de l’époque : à partir du moment où vous mettez entre les mains de milliards de personnes des outils de publication / interaction / vente aussi puissants, il faut nécessaire un cadre strict pour éviter les dérives (ex : loi contre les influvoleurs), ainsi que des standards pour normaliser et faciliter les usages (ex : sécurisation).

De façon plus générale, je suis très sceptique quant à ce courant de pensée néo-anarchiste qui glorifie le joyeux bordel. Il n’y a rien de joyeux par exemple à toutes ces cyber-attaques dont sont victimes des PME et des hôpitaux (la résultante d’une évolution trop rapide et non maitrisée des outils numériques).
Ce qui me dérange dans ce discours rétrograde, c’est qu’absolument rien n’empêche ces nostalgiques de lancer un site web « à l’ancienne ». Je pense qu’au fond, ils ne sont pas réellement nostalgiques, mais aigris de ne pas avoir rencontré le succès qu’ils espéraient avec leurs initiatives de sites ou services en ligne « alternatifs ». Ils sont certainement très agacés que la vidéo d’une jeune fille qui se trémousse en mini-short dans sa chambre aura plus de vues en 24h sur TikTok qu’ils n’en auront dans toute leur carrière avec leurs articles. 😬
Mais ce n’est pas le propos de cet article, car ma motivation première est plutôt de prendre du recul sur l’évolution des technologies et usages numériques, et surtout d’analyser l’impact sociétal de leur généralisation auprès de plus de 5 milliards d’individus.
Non, ça n’était pas mieux avant
Avant toute chose, il est important de préciser que le web d’avant, je l’ai connu : j’y travaillais dès 1997, et non, ce n’était pas du tout mieux. En 25 ans, le web a connu des progrès considérables en matière de simplicité, de fiabilité, de richesse des contenus et des services proposés. Pour s’en rendre compte, une petite visite du Web Design Museum s’impose.

À l’époque, nous n’avions pas de Gmail, Google Photo, Google Docs, WhatsApp, Dropbox, PayPal, Canva, Notion… Aucun de ces services n’était disponible, et ceux de l’époque étaient terriblement lents et limités. Les lancements de nouveaux services à l’époque étaient également chaotiques comparés à de nouveaux services ou applications comme Pokémon Go, Threads, Copilot, Bard… qui offrent stabilité et performance dès le premier jour à des centaines de millions d’utilisateurs.

En termes de régulation, c’était encore pire, car le web du siècle dernier était littéralement un Far West juridique : il n’y avait pas de RGPD, de directives ePrivacy ou Omnibus, pas de DSA ou DMA… les internautes étaient livrés à eux-mêmes, seuls face à des géants numériques tout puissants.
Certes, les big techs sont encore extrêmement puissantes (certains les considèrent, à juste titre, comme les nouveaux maitres du monde), mais nous sommes maintenant sur la bonne voie grâce au travail acharné de Thierry Breton et son équipe à Bruxelles pour mettre en place un cadre législatif rigoureux afin de protéger les utilisateurs européens.
Ceci nous amène tout naturellement à parler d’évolution et d’innovation.
Il n’y aura pas de retour en arrière, uniquement une fuite en avant plus ou moins bien contrôlée
Le web d’aujourd’hui est-il mieux que celui d’il y a 20 ans ? La question est complexe, car il y a du pour et du contre. Mais dans tous les cas de figure, s’il y a bien une chose sur laquelle tout le monde est d’accord, c’est que le web d’aujourd’hui est très différent de celui d’il y a 20 ans, ou même 10 ans, ou même 5 ans.
Comparativement aux débuts des années 2000, nous avons pu constater de nombreuses évolutions techniques, fonctionnelles, ergonomiques, économiques… À cette époque, il n’y avait pas de smartphone, pas de médias sociaux, pas de rafraichissements silencieux des pages, pas de services de cloud computing, pas de systèmes d’abonnement ou de paiements fractionnés. Idem si l’on compare le web d’aujourd’hui à celui du début des années 2010 : c’était les débuts de l’iPhone et de Facebook, Uber et Deliveroo n’existaient pas et les SMS étaient encore la référence en matière de messagerie mobile. Rien qu’en 5 ans, nous avons pu constater de gros changements, notamment dans des domaines que l’on pensait immuables comme le commerce en ligne ou les médias sociaux avec la montée en puissance spectaculaire de services comme Shein ou TikTok.

Dans la mesure où les technologies et usages évoluent de façon empirique et que les problèmes s’accentuent (inégalités, concentration des richesses et pouvoirs, arnaques…), je ne vois pas en quoi cette glorification du joyeux bordel d’avant peut nous apporter quelque chose de positif. Je suis ainsi persuadé que la seule façon de s’inscrire de façon sereine dans un quotidien numérique est d’accepter la réalité de l’évolution du web et d’y faire face avec pragmatisme et responsabilité. Quelle serait l’alternative ? Refuser son évolution et se raccrocher aux technologies et modèles que l’on maitrise, ou du moins que l’on comprend.
L‘intelligence artificielle est typiquement le sujet qui cristallise les peurs et espoirs, celui qui participe à la polarisation du débat sur l’évolution de notre société au sein de laquelle les technologies numériques occupent une place toujours plus importante. Ceux qui ne comprennent pas, ou qui ne font pas l’effort de comprendre les larges modèles de langages (LLMs) se retrouvent ainsi devant un dilemme :
- considérer que les modèles génératifs sont une opportunité et faire preuve du même optimisme aveugle que les nombreux techno-prophètes qui annoncent des lendemains meilleurs (grâce à l’IA) ;
- considérer les modèles génératifs comme une menace et mettre en avant des dérives potentielles (ex : fake news, usurpation d’identité…) pour justifier un status quo et éviter l’extinction de la race humaine, rien que ça !
Nous avons eu notre compte de prédictions aussi optimistes que déraisonnées sur l’IA en 2023, aussi nous sommes maintenant plus en clin à écouter ceux qui formulent des prédictions inverses, à l’image du Forum Economique Mondial qui vient juste de sortir la dernière édition de son étude sur les Global Risks où sont notamment analysés quatre facteurs de changements : le climat, la démographie, la géopolitique et les technologies. Vous ne devinerez jamais quels risques sont particulièrement mis en évidence par ce rapport… un petit indice : AI and Quantum Computing Flagged As New Global Risks says WEF.

Astuce éditoriale : Si les risques liés à l’IA ne sont pas suffisamment effrayants, il suffit de les combiner avec ceux de l’informatique quantique pour être certains que l’on vous écoute. 🤦🏻
Vraisemblablement, ceux qui ont rédigé ce rapport n’ont aucune idée de l’état d’avancement des travaux de R&D sur l’informatique quantique (ni des contraintes opérationnelles pour stabiliser et exploiter un qbit, un bit quantique), mais de toute façon ils ne se sont pas non plus beaucoup renseignés sur les dernières avancées en matière d’IA générative… J’imagine que le but de la manoeuvre est plus d’occuper l’espace médiatique que d’apporter une vision réaliste. Et c’est bien là le problème, car ce dont nous avons besoin, c’est de réalisme et non de nouvelles mises en garde : reconnaitre que si nous ne maitrisons pas tout, la situation est loin d’être hors de contrôle, bien au contraire.
Cette digression sur le traitement médiatique de l’IA générative peut vous sembler futile, mais elle est essentielle à la compréhension des enjeux des travaux de régulation actuels. La question étant de savoir si nous devons, pouvons ou souhaitons intervenir pour freiner, stimuler ou encadrer le développement des IA.
Vers une politisation de l’innovation et de l’IA
Vous l’aurez compris, je suis convaincu que les évolutions du web représentent un progrès indéniable (sécurité, rapidité, puissance, accessibilité…). Cependant, pour que tout le monde puisse bénéficier des innovations numériques dans de bonnes conditions, il faut réguler et standardiser (cf. Anthropic researchers find that AI models can be trained to deceive). Voilà pourquoi le régulateur s’active à Bruxelles : pour encadrer au plus vite les communications numériques (Digital Service Act), les échanges numériques (Digital Market Act) et les futurs usages de l’intelligence artificielle (AI Act) qui vont avoir un impact non-négligeable sur l’emploi et la dynamique des marchés (AI could affect up to 60 percent of jobs in advanced economies).

Très clairement, l’IA est devenu un sujet de société du fait de son impact sur l’emploi ou l’économie, tandis que sa régulation est devenue un sujet politique. Si tout le monde appelle à une régulation de l’IA générative, c’est que le potentiel disruptif est énorme, à la fois dans le bon et le mauvais sens du terme (relancer la transformation numérique pour créer de nouvelles opportunités vs. dérégler encore plus la dynamique des marchés). C’est visiblement le camp des partisans d’une régulation forte qui est en train de gagner, car l’IA est un domaine complexe dont il est plus facile de se méfier que de se réjouir. En gros : diaboliser une technologie que l’on ne comprend pas pour se préserver de risques potentiels. Une posture défensive modique, car la gestion du risque est un domaine plutôt bien maitrisé (cf. Managing the risks of generative AI).

Au fond de moi , je pense que ce qui anime les « doomers » (les personnes qui s’inquiètent de l’effondrement de la civilisation) est la volonté d’agir sur au moins un des quatre grands facteurs de changements cités plus haut : puisqu’il est très compliqué de réguler le climat, la démographie ou la géopolitique, ils se rabattent sur ce qu’ils peuvent plus facilement contrôler, la technologie, et plus particulièrement LA technologie dont tout le monde parle en ce moment, l’intelligence artificielle.
Ce qui me chagrine dans ces postures polarisées (la recherche de contrôle vs. l’optimisme aveugle) est que le débat sur l’IA ne nuise à l’innovation en général, qui est pourtant facteur de progrès : 20 things that make the world a better lace in 2023. Le problème étant qu’il n’y a pas d’entre-deux, car l’IA nous est présentée comme un épouvantail ou comme la solution à tous nos problèmes (At CES, everything was AI, even when it wasn’t).

Entendons-nous bien : je ne condamne aucunement l’optimisme ou la prudence, mais plutôt la posture dogmatique qui consiste à choisir un camp et à se fermer à toute discussion ou possibilité d’avis nuancé. Je suis ainsi partisan d’une accélération, pour profiter de la dynamique d’innovation actuelle, mais alignée sur des besoins concrets et légitimes, pas simplement pour l’exploit technique.
Tout ceci relance le débat sur les bienfaits de l’innovation technologique et les différents courants de pensée qui en découlent.
De l’altruisme efficace à l’accélérationisme aligné
Au commencement, il y a l’Effective Altruism, un courant de pensée qui repose sur la volonté de faire le bien de la façon la plus rationnelle et efficace possible. Ça, c’est la théorie telle qu’elle est propagée dans de nombreux sites dédiés (EffectiveAltruism.org, AltruismeEfficaceFrance.org…). Dans les faits, et jusqu’à preuve du contraire, l’altruisme efficace consiste surtout à chercher à gagner plus pour donner plus, donc dans un premier temps à gagner plus, le plus rapidement possible.
Cette recherche mène bien évidemment à des détournements et des discours incroyablement démagogiques. Une posture très caricaturale, mais néanmoins revendiquée par une légion d’entrepreneurs / philosophes mythomanes à l’image du fondateur de la plateforme de cryptomonnaies FTX : Sam Bankman-Fried Demonstrates Ineffective Altruism at Its Worst et Sam Bankman-Fried and the effective altruism delusion.

Nous avons très clairement ici le pire du pire de la culture libérale de la Silicon Valley. Heureusement que des très généreux donateurs comme Bill Gates ou Marc Benioff n’ont pas attendu ce courant de pensée pour mettre à profit leur immense fortune (plusieurs milliards de dollars pour la Bill & Melinda Gates Foundation ou la UCSF Benioff Children’s Hospitals) et exposer au monde entier ce qu’est l’altruisme à grande échelle.
Dans la mesure où ce mouvement commence à être fortement décrié, certains ont eu la bonne idée de créer un courant de pensée dérivé, l’Effective Accelerationism (souvent abrégé en « e/acc »), qui met de côté la partie « gagner plus pour donner plus » et se concentre sur le « faire le bien de la façon la plus rationnelle et efficace possible ».
L’accélérationnisme efficace est un mouvement philosophique du 21e siècle prônant une position explicitement pro-technologie. Ses partisans croient que le progrès mené par l’intelligence artificielle est un grand égalisateur social qui devrait être encouragé. Ils se voient comme un contrepoids à la vision prudente selon laquelle l’IA est hautement imprévisible et doit être régulée, qualifiant souvent leurs opposants de manière péjorative de « doomers » ou de « decels » (abréviation de « décélération »).
Wikipedia
Cette doctrine prône ainsi une approche extrême et décomplexée du techno-capitalisme, parce que pour le bien de tous. (cf. EffectiveAcceleration.tech : « The force of technocapitalistic progress is inevitable, technocapital is an inexorable physical process« ).
Plusieurs personnalités de la Silicon Valley se revendiquent de ce courant de pensée, comme Sam Altman (patron de OpenAI), Garry Tanou (patron de l’accélérateur Y Combinator) ou Marc Andreessen, le patron du très puissant fond d’investissement a16z et également auteur du maintenant célèbre Manifeste pour le techno-optimisme :
We are told to be angry, bitter, and resentful about technology. We are told to be pessimistic. We are told to be miserable about the future.
Our civilization was built on technology. Our civilization is built on technology. Technology is the glory of human ambition and achievement, the spearhead of progress, and the realization of our potential. It is time, once again, to raise the technology flag. It is time to be Techno-Optimists.
Techno-Optimist Manifesto

Si le sujet vous intéresse, ou vous intrigue, je vous recommande ces quelques explications complémentaires :
- What is Effective Accelerationism?
- Move Fast and Make Things
- Notes on e/acc principles and tenets
- This A.I. Subculture’s Motto: Go, Go, Go
- E/acc is Silicon Valley’s response to all your negativity
- ‘It’s a Cult’: Inside Effective Accelerationism, the Pro-AI Movement Taking Over Silicon Valley
Si vous pensez que tout ceci est une vaste blague, c’est que vous ne percevez pas bien la ferveur de ce mouvement qui se transforme petit à petit en religion avec son propre drapeau et même une boutique de produits dérivés : Accelerate.shop.

Faut-il réellement s’en soucier ? Oui et non. Oui, car l’influence des gourous de la Silicon Valley sur l’exécutif américain est bien réelle ; non, car le travail de régulation mené par l’Union Européenne nous protège des dérives éventuelles du techno-capitalisme. Quoi que pas tout à fait, car nous sommes petit à petit en train de nous diriger vers un internet à plusieurs vitesses :
- le web et l’économie numérique ultra-libérale de l’Amérique du Nord ;
- le web et les usages numériques régulés de l’Union Européenne ;
- le web et géants numériques extrêmement contrôlés de la Chine ;
- le web et l’économie numérique pseudo-libérale mais tant pas que ça de l’Inde…
Très clairement, le web en tant que village mondial est un concept du passé, victime des politiques divergentes des grandes nations. Des divergences qui grandissent tous les ans à mesure que les usages s’intensifient et que les technologies évoluent, compliquant ainsi de façon exponentielle le développement international des éditeurs de contenus et services en ligne. Certes, ce mouvement e/acc n’est qu’un épiphénomène à l’échelle de la planète, mais c’est un signal faible à prendre en compte, car ces courants de pensé conditionnent des stratégies d’investissement qui influent sur les gouvernements et les politiques publiques, donc les régulations, donc les usages.
Rien de très surprenant, car dès qu’il y a beaucoup d’audience et d’argent, la politique s’en mêle et complique tout. Il est simplement regrettable que les points de vue soient polarisés : il faut être soit pour, soit contre, et je m’y refuse. Je ne suis d’ailleurs pas le seul, car des voix dissonantes commencent à se faire entendre pour remettre en question le dogme du techno-optisme : Is Optimism Wired or Tired?, The year of ‘does this serve us’ and the rejection of reification et Une réfutation du manifeste “techno-optimiste”.
On pourrait croire que remplacer une technique obsolète par une nouvelle plus performante est toujours un gain, mais ce n’est pas aussi simple, toute évolution technique présente des avantages et des inconvénients, Il y a toujours un prix à payer.
Dans ce débat, le principe de précaution est l’argument-massue qui prévaut, celui que l’on nous ressort pour clore les discussions, mais qui fait fi des grandes avancées technologiques comme le feu ou le nucléaire qui sont des progrès indéniables, même si pas parfaitement maitrisées. S’il y a effectivement eu de grandes catastrophes qui ont marqué l’histoire (ex : incendies, accidents de Tchernobyl ou Fukushima…), à aucun moment nous n’envisageons d’y renoncer (quoi que nombreux ceux qui pensent que l’on peut remplacer les centrales nucléaires par des éoliennes…).

Vous noterez au passage que ce débat sur l’innovation et le progrès ne date pas de ChatGPT, je vous invite ainsi à relire cet article publié en 2020 : Tech for good : Et si c’était une très mauvaise idée ?
Un des enseignements de l’histoire de la technologie est qu’on ne sait jamais à l’avance l’utilisation qui en sera faite lorsqu’elle est inventée. Toute technologie peut être utilisée pour le bien comme pour le mal. Nous n’avons pas tous la même définition du bien et du mal. Imposer la condition du bien a priori, c’est risquer d’écarter des technologies utiles. Il n’est pas nécessaire de vouloir le bien pour le faire.
Philippe Silberzahn
Dans ce débat sur la régulation de l’IA, qui a tort ou raison ? Personne et tout le monde, car jusqu’à preuve du contraire, nous ne savons pas, et les experts non plus ! Pour vous en convaincre, je vous propose de découvrir les conclusions de cette étude à laquelle ont répondu presque 3.000 scientifiques. Le but de cette étude est d’estimer les délais nécessaires à la mise au point d’une IA généraliste (HLMI pour « High-Level Machine intelligence« ) et à l’atteinte de la singularité (FAOL pour « Full Automation of Labor« ) : A survey of 2,778 researchers shows how fragmented the AI science community is.

Les avis sont très disparates : La probabilité pour que les IA dépassent les capacités humaines sont en moyenne de 10% en 2027 et 50% en 2047, tandis que les chances de voir émerger une IA complètement autonome sont en moyenne de 10% en 2037 et de 50% en 2116.

Que faut-il conclure de cette étude ? Que nous ne savons pas ! À partir de ce constat, il semble évident que le schisme entre les « decel » et les « e/acc » n’a pas lieu d‘être, car nous n’avons pas d’éléments tangibles pour justifier une posture fiable à court, moyen ou long terme. Tout ce que nous savons, c’est qu’il y a un certain nombre de politiciens qui ont peur, car ils ne comprennent pas grand-chose aux subtilités de l’intelligence artificielle (à leur décharge, c’est un domaine vaste et complexe). Ce que nous savons également, c’est qu’il y a de l’autre côté du spectre un certain nombre de têtes brulées qui comptent bien gagner un maximum d’argent en surfant sur la vague ChatGPT sans trop se soucier des conséquences pour eux ou pour les autres. Pour vous donner une analogie, c’est un peu comme de rouler au-delà de la limite de vitesse autorisée sur une autoroute dont nous ne connaissons ni la destination ni là où elle s’arrête…

Dans la mesure où moi non plus je ne sais pas où cette course à l’IA généraliste nous mène, je suis partisan d’adopter une vision pragmatique et surtout attentive. L’important dans toute cette cacophonie est de conserver son esprit critique et, encore une fois, de faire preuve de réalisme : de ne pas céder à la facilité en adoptant des courants de pensée dogmatiques et stériles.
Je déplore réellement le fait que le débat actuel crée une famine intellectuelle qui bénéficie aux visions extrêmes (accélérationistes vs. collapsologues). Il faut une approche plus équilibrée reposant sur une vision claire de ce que la technologie peut ou ne peut pas nous apporter, une appréhension réaliste de ses avantages et inconvénients, mais surtout l’assurance que ces innovations correspondent à un besoin et non la simple recherche d’un exploit technique ou d’un enrichissement rapide (Existential Pessimism vs. Accelerationism: Why Tech Needs a Rational, Humanistic « Third Way »).
Croyez-le ou non, mais il existe également un terme pour ce courant de pensée intermédiaire : Aligned Accelerationalism (« a/acc ») qui désigne un accélérationisme technologique aligné sur les besoins prioritaires de notre société.
Ni pour ni contre, bien au contraire !
Comme nous venons de le voir, l’adoption et/ou l’évolution des technologies devient un sujet sociétal avec une forte dimension politique (régulation, financement…). Le grand paradoxe de ce débat est que plus nous nous penchons sur la question de façon « neutre » et plus nous l’abordons d’un point de vue philosophique, et non technique. Ce qui participe à la dilution des arguments et points de vue avec des raisonnements ne reposant plus que sur des hypothèses.
Ceci étant dit, je suis convaincu que ce débat n’est pas vain, car l’approche philosophique de la maîtrise / régulation de l’IA est une quête de la vérité (ou de s’en rapprocher le plus possible) pour nourrir l’espoir d’un monde meilleur et motiver des projets pertinents et surtout viables. Dans cette optique, je ne suis pas certain que des services comme Character.ai puissent être jugés comme pertinents, mais qui suis-je pour émettre un jugement (Gen-Z Is Healing Their Trauma Through AI Chatbots) ?

Je tiens néanmoins à rappeler que le bien-fondé de l’innovation est thème récurrent sur ce blog :
Avec l’accélération du rythme d’innovation et la multiplication des terminaux et services en ligne, les utilisateurs “lambda” sont très clairement arrivés à un point de saturation, aussi bien dans leur quotidien personnel (où ils se satisfont de leur smartphone et de Netflix) que dans leur quotidien professionnel (où ils sont contents de pouvoir utiliser la visio et le cloud, mais restent très attachés à leurs emails et fichiers). Plus de technologies ne changeront pas la donne. Ce qu’il faut, c’est s’assurer que ces technologies servent un but légitime et soient correctement déployées et adoptées.
Le progrès ne viendra pas des nouvelles technologies, mais de l’évolution des usages
Ou encore ici :
L’innovation technologique n’est maintenant plus considérée comme un avantage compétitif, mais comme un prérequis, une condition de survie dans un marché en perpétuelle recherche de la “Next Big Thing”. Selon cette doctrine, le manque d’innovation est le pire des fléaux. Ceux qui osent douter de la capacité des innovations technologiques à résoudre tous les problèmes du monde sont considérés comme des barbares rétrogrades.
L’innovation technologique est-elle systématiquement un progrès ?
Ces réflexions stratosphériques peuvent vous sembler superflues, mais je suis convaincu qu’elles participent à une forme d’hygiène intellectuelle salutaire qui doit être renouvelée à chaque évolution des technologies et usages, car nous quittons l’âge de l’insouciance et devons nous préparer à accepter l’idée de vivre dans un monde aux ressources limitées qui ne nous permettent plus de produire autant que nous le souhaitons.

C’est une réalité qu’il va nous falloir accepter : nous atteignons les limites de ce que la planète peut nous fournir pour produire de l’énergie (charbon, pétrole, uranium…) et des équipements (silicium, terres rares…), il va falloir s’y adapter et modifier en conséquence nos habitudes et modes de vie (ex : Est-il bien raisonnable de payer 4.000$ pour le tout nouveau vision Pro d’Apple ?). Rassurez-vous, je ne vais pas me lancer dans une longue argumentation sur le numérique responsable, je garde ça pour un prochain article.
Toujours est-il que le débat sur la régulation de l’IA, et plus généralement sur la façon dont nous voulons utiliser l’innovation technologique s’enlise dans un affrontement stérile entre deux courants de pensée antagonistes. De tout ceci, ce n’est certainement pas l’humanité qui en sortira grandit, mais une poignée d’individus qui tirent les ficelles en jouant sur l’ignorance ou la méconnaissance des sujets techniques, les techno-populistes.
Pour lutter contre ce phénomène, la seule porte de sortie de ce débat ne semble pas être plus de démagogie (« Les nouvelles technologies vont nous sauver » vs « Les nouvelles technologies sont dangereuses« ), mais plus de pédagogie.
Et on reparle d’acculturation numérique
Comme expliqué plus haut, les positions extrêmes (accélérationistes vs. décélérationistes) sont un levier très efficace pour se faire entendre en alimentant les peurs ou les espoirs des uns et des autres autour de l’intelligence artificielle.
À travers ce blog, que je rédige depuis plus de 20 ans, je milite activement pour une compréhension fine des usages et technologies numériques sans laquelle les débats et raisonnements sont biaisés par de les nombreux dogmes propagés par les techno-populistes. Exemples récents ici avec cet article sur l’IA générative : L’intelligence artificielle fait peur, surtout à ceux qui ne font pas l’effort de la comprendre.
Plutôt que de spéculer sur les possibles utilisations détournées de l’IA, nous devrions plutôt nous préoccuper des utilisations détournées de l’outil informatique (emails, fichiers bureautiques…) et des outils numériques (logiciels en ligne, visioconférences…). C’est un réel problème qui grève la compétitivité des entreprises depuis trop longtemps et qui réduit leur marge de manoeuvre à une époque où la pression est très forte pour qu’elles se ré-inventent.

Croyez-le ou non, mais le fond du problème est toujours le même : le déficit de culture numérique, mon cheval de bataille depuis la création de ce blog (dont la devise originelle était « Simplifions l’internet« ). Cette bataille pédagogique se matérialise aujourd’hui par une offre que je suis en train de finaliser et dont les détails sont ici : Acculturation-numerique.fr.
Bien évidemment, l’IA occupe une place de premier plan dans cette offre d’acculturation, mais l’objectif visé est bien de remettre à niveau les participants sur l’ensemble des technologies et usages numériques, pas uniquement la dernière brique d’une longue série d’innovation. Comme précisé, cette offre est encore en phase de finalisation, j’aurai d’autres occasions de vous en reparler. Stay tuned…