Quel va être l’impact de la fin de l’ordinateur individuel ?

Le week-end dernier, j’ai essayé d’expliquer à mes petits garçons ce qu’est l’internet. Un exercice de style à priori pas si complexe, mais qui nécessite d’expliquer également ce que sont les ordinateurs et les contenus numériques. Je ne vais pas vous raconter ma vie privée, mais pour faire court, disons que je les ai perdus en route (pourtant j’avais fait des schémas et tout). Plus j’y repense, et plus je me rends compte que je n’aurais jamais dû m’enliser sur ce terrain glissant et me concentrer sur ce qui les intéresse réellement : les contenus. Ils se moquent bien de comprendre comment fonctionne un ordinateur ou même le WiFi, tout ce qui les intéresse, c’est le contenu (de préférence en rapport avec les Pokemons).

Ce qui me mène au sujet du présent article : Après 30 ans de domination des constructeurs d’ordinateurs et éditeurs de logiciels (Microsoft, HP, Dell, IBM…), l’hégémonie des acteurs traditionnels de l’industrie informatique est aujourd’hui remise en cause par de nouveaux entrants (Google, Amazon, SalesForce…). Pourquoi ? Car les ordinateurs sont devenus une commodité, un moyen d’accès aux services et contenus proposés sur le web. Bien évidemment nous avons toujours besoin de processeurs, de cartes mères, d’écrans, de claviers… mais la comoditisation de l’équipement informatique est un phénomène inaltérable. Pire : Malgré la baisse régulière des prix pour les rendre toujours attractifs, les ordinateurs sont perçus comme des outils de plus en plus ringards, et dispensables (La fin de l’ordinateur individuel est programmée).

En à peine quelques années, les smartphones et tablettes se sont imposés comme des alternatives tout à fait crédibles aux ordinateurs traditionnels : plus mobiles (en raison de leur encombrement et autonomie), plus rapides (allumage en quelques secondes), plus versatiles (grâce à l’interface tactile, à la connexion 3G, au GPS…) :

  • Les ventes des smartphones et tablettes ont dépassé celles des ordinateurs en 2010 ;
  • Windows vient de passer sous la barre des 50% des parts de marché des terminaux connectés ;
  • Les smartphones et tablettes représentent déjà 5% de trafic en Europe…

Bref, vous l’aurez compris, le marché est en train de basculer en faveur des alternatives aux ordinateurs, et cette tendance va s’accélérer pour le grand public tout comme pour le marché de l’entreprise avec la montée en puissance des smartphones low-cost, la disponibilité de contenus et services offrant des expériences novatrices (Pourquoi les interfaces tactiles peuvent révolutionner l’industrie musicaleVers de nouvelles expériences d’achat et de consultation) et les offres de cloud. Je suis persuadé de ne rien vous apprendre en disant que les usages des smartphones s’intensifient au détriment de celui des ordinateurs, je tiens néanmoins à insister sur le fait que les smartphones et tablettes ne sont qu’une première étape de déportation des usages vers un ensemble de terminaux alternatifs (tablettes, cloudbooks, TV connectées…).

Les grands gagnants de cette nouvelle configuration de marché sont Google, Amazon ou SalesForce. Bien évidemment les acteurs historiques ne sont pas encore condamnés, mais ils doivent fournir des efforts considérables pour ne pas se laisser distancer, à l’image de Microsoft et Apple qui investissent lourdement pour trouver un second souffle et préparer l’avenir (avec respectivement l’interface gestuelle de Kinect et l’interface vocale de Siri).

Vous avez du mal à vendre ? Louez !

Il y a encore quelques années, quand vous achetiez un ordinateur, les constructeurs essayaient de vous refourguer par tous les moyens un accès à internet, source de revenus récurrents. Aujourd’hui, la bataille de l’accès ne compte plus, le prochain défi sera de vous vendre un abonnement pour que vous puissiez accéder à vos contenus depuis n’importe quelle terminal. Microsoft, Google, Apple ou Amazon s’efforcent ainsi de s’imposer comme le fournisseur le plus légitime en matière de cloud personnel. De même, dans le monde de l’entreprise, on ne vend plus des licences, mais des accès à des services en ligne. Il y a quelque mois, Marc Andressen faisait sensation en publiant un article intitulé “Why Software Is Eating The World“, je pense que sa vision et la mienne se rejoignent : La valeur ajoutée ne se situe plus dans le matériel, mais dans les services et contenus. Oui, il est toujours possible de dégager de grosses marges avec du hardware, mais tout le monde ne s’appelle pas Apple. Il est ainsi moins risqué et plus rentable de miser sur la monétisation des contenus et services, plutôt que sur les moyens d’y accéder (et cette approche se vérifie aussi dans d’autres secteurs : Airbnb CEO: The future is about access, not ownership).

À la question “Est-ce la fin de l’ordinateur individuel ?“, je réponds un grand “oui“. Encore faut-il que l’on s’entende sur ce qu’est un ordinateur individuel : Nous parlons bien des ordinateurs traditionnels. Je fais ainsi le distinguo entre un ordinateur portable et le Chromebook de Google. D’un côté nous avons une machine avec un disque dur pour stocker des contenus et des logiciels, de l’autre, nous avons une interface entre des utilisateurs et des contenus et services en ligne. Certes, les ordinateurs traditionnels assurent pleinement cette fonction d’interfaçage, mais les chromebooks sont définitivement moins complexes à prendre en main, initialiser et maintenir. À l’image des tablettes comme l’iPad : on les allume et on profite.

Une vision hédoniste de l’outil informatique

Profitez“, je pense que c’est bien là le maitre-mot : après des décennies d’humiliation, la patiente des utilisateurs est à bout, ils ne veulent plus s’embêter à installer les bons drivers, mettre à jour et paramétrer les logiciels, s’assurer que les protections anti-virus  sont opérationnelles… Les utilisateurs veulent devenir de simples consommateurs de contenus et services, et pour cela, ils sont prêts à faire des concessions : troquer de l’évolutivité et de la souplesse contre de la simplicité et de la tranquillité, même si cela implique de se rendre dépend de Apple ou Google. Qu’importe, après tout ce sont des marques cool, non ?

Pour résumer une longue explication, j’écrirais ceci : nous quittons l’ère où nous capitalisions sur l’outil informatique (avoir une machine robuste et évolutive pour qu’elle puisse durer plus longtemps) pour rentrer dans celui des contenus et services pervasifs (qu’importe le terminal d’accès, l’important est que je puisse accéder à mes fonctions sociales, ma musique, mes jeux… et ceux depuis n’importe où).

Quel impact pour les marques ?

La grande question que vous devez maintenant vous poser est la suivante : votre offre s’inscrit-elle dans cette tendance ? Pour pouvoir sereinement anticiper l’avenir proche, vous devrez ainsi vous assurer que :

  • Vos produits sont consultables et achetables dans n’importe quel contexte (principalement en mobilité), de même que votre service client ;
  • Vos contenus sont accessibles au travers de différents types de terminaux (pas que l’iPhone ou l’iPad) et ils offrent une valeur ajoutée propre à chacun des formats (intuitivité de l’interface tactile, largeur de l’écran d’une TV, localisation d’un smartphone…) ;
  • Vous proposez une expérience sans couture à vos clients qui consulter vos contenus et exploiter vos services à différents moments de la journée et sur différents supports.

J’ai déjà eu de nombreuses occasions de vous convaincre de démultiplier les points d’accès, mais l’étude récente de Brand Online Commerce devrait vous aider à sauter le pas : Les smartphones et tablettes représentent 10% des visites des sites web de mode et produits de beauté ainsi que 7 % des ventes en ligne. Encore plus intéressant : le taux de transformation des ventes réalisées à partir d’un iPad est supérieur de 42% à celui des boutiques en ligne. Ces chiffres ne me surprennent pas, car ils illustrent une réalité du marché : Acheter en ligne est devenu un acte banal (froid et sans émotion), alors que les terminaux alternatifs proposent des expériences plus enrichissantes pour les clients et prospects, d’autant plus s’il y a du contenu à valeur ajouté (Upcoming Zappos iPad App Mimics a Fashion Magazine et L’avenir de l’internet est aux contenus, pas au SoLoMo). Et quand bien même vous n’avez ni les moyens, ni l’organisation pour produire du contenu, les smartphones et tablettes offrent d’innombrables opportunités pour réenchanter votre expérience de marque, à l’image de ce qu’à fait Audi au Brésil :

Au final, même si la transition entre les ordinateurs personnels et les nombreuses alternatives (Chromebooks, tablettes…) va prendre un certain temps, de nombreux annonceurs se sont déjà approprié ces nouveaux supports et parviennent à générer de nouvelles opportunités d’affaires grâce à des scénarios d’engagement novateurs.

Même si aujourd’hui l’essentiel des interactions en situation de mobilité est issu des terminaux Apple (iPhone et iPad), les alternatives low-cost (Android, Kindle) et les nouveaux formats (tablettes 7″, TV connectées…) vont venir bouleverser l’ordre établi. En d’autres termes : Ne pensez pas être à l’abri avec vos applications iPhone et iPad, car vous n’avez parcouru qu’une toute petite portion du chemin menant au nirvana du monde numérique – des contenus et services pervasifs pour des clients connectés en permanence et en recherche de nouvelles expériences.

Les smartphones sont-ils en fin de cycle d’évolution ?

En moins de deux semaines, nous avons eu droit à une avalanche de nouveautés sur le créneau des smartphones : iPhone 4S, Droid Razr et Galaxy Nexus. Tous plus beaux les uns que les autres, les constructeurs semblent s’être lancés dans une course à l’armement : écran AMOLED, processeur bi-coeur, NFC, communication 4G, objectif de 8 M de pixels…

nexus-razr-iphone.jpg

Si cette débauche de technologie de pointe est très impressionnante sur le papier, elle pose néanmoins la question de la limite de la sophistication des smartphones. J’ai ainsi récemment acquis le dernier iPhone 4S, une petite merveille technologique qui est particulièrement performante pour les jeux. OK, mais à 850 Euros, c’est quand même le prix d’une Xbox 360, d’une PS3 ET d’une Wii !

Bref, tout ça pour dire que je pense que les smartphones sont en fin de cycle d’évolution : les constructeurs améliorent les caractéristiques techniques, mais ne proposent pas de réelles innovations d’usage. Quand vous regardez ce à quoi ressemblaient les smartphones il y a 10 ans (Infographie sur l’évolution des smartphones), vous vous rendez facilement compte que les smartphones ont déjà connu leur révolution, et je ne pense pas qu’ils en connaitront une autre. Un signe qui ne trompe pas : les deux principaux leviers de différenciation des constructeurs (4G et NFC) tentent de résoudre des problèmes qui n’existent pas réellement.

Depuis quand est-il compliqué de payer avec une carte bancaire ?

En matière de smartphone et de téléphonie mobile, le gros sujet du moment est le paiement mobile avec NFC. Les constructeurs et industriels font en ce moment d’énormes efforts pour nous faire comprendre que NFC et le smartphone sont la solution à notre problème de paiement. Heu… personnellement je n’ai pas de problème de paiement : je réalise mes achats avec ma carte bancaire (ça me prend 30 secondes pour payer) ou avec de l’argent liquide (il y a toujours un distributeur de billets pas très loin).

Je veux bien croire que depuis l’arrêt de Moneo il faut préparer l’arrivée d’une autre solution, mais force est de constater que les utilisateurs ne sont pas forcément demandeurs d’une solution intégrée aux smartphones. Visa, Mastercard, American Express, Google… unissent leurs forces pour évangéliser NFC en tant que moyen de paiement, mais c’est selon moi faire une fausse promesse car :

  1. NFC n’est qu’une norme de communication, il faut bien plus qu’une puce NFC dans un smartphone pour réaliser une transaction (Le smartphone deviendra-t-il notre moyen de paiement principal ?) ;
  2. Il existe de nombreuses alternatives, notamment d’autres normes de communication comme Bluetooth (The Mobile Payments Race Heats Up: Low Energy Bluetooth vs. NFC), les codes 2D (comme le proposent LevelUp ou Kuapay) ou NFC 2.0.

Vous pourriez me dire qu’ils existent quantité d’autres usages innovants que pourrait apporter NFC, et je serais bien d’accord avec vous : il existe quantité de domaines d’application potentiels dans les jeux (Nokia Launches New NFC-Enabled Games), le commerce local (BrandTable, NFC concept that will alter your food court experience) et tout un tas d’autres domaines (Near Field Communication: A Quick Guide to the Future of Mobile).

nfchotel.jpg

Le problème n’est pas de trouver des domaines d’application pour NFC, car il y en a des tonnes, mais de susciter l’adhésion du grand public. Loin de moi l’idée de jouer les vieux de la vieille, mais tous les scénarios d’usage décrits ont une proposition de valeur pas très éloignée de ce que proposait Ericsson au siècle dernier avec Bluetooth. Donc pour résumer : ce n’est pas parce que c’est techniquement possible que les utilisateurs l’adopteront. L’histoire regorge de technologies de pointe qui n’ont pas su trouver leur public.

Y a-t-il vraiment un problème avec la 3G ?

Autre grande bataille dans laquelle se sont lancés les opérateurs du monde entier : la course de vitesse pour déployer la 4G. Là encore, les industriels rivalisent d’ingéniosité pour nous vendre des scénarios d’usages plus proches du fantasme que de la réalité.  J’aime bien le foot, mais je ne vois pas l’intérêt de regarder un match entier en Full HD 3D sur un écran de 10 cm de large. Vous pouvez dire que je force le trait en jouant les rabats-joie, mais force est de constater qu’à part les travailleurs nomades (un marché de niche), la demande pour la 4G est plutôt faible.

Le problème n’est pas tant de savoir si l’on a besoin d’un débit important en situation de mobilité, que d’exploiter la 3G à son plein potentiel. Il existe déjà des offres très compétitives pour de la 3G+ (norme HSDPA) qui suffisent largement. D’autant plus qu’en matière de mobilité, l’important n’est pas le débit, mais le ratio entre débit et consommation d’énergie. De ce fait, les normes comme WiMAX sont à proscrire au profit de la norme communément admise (LTE) qui n’est pas réellement de la 4G, mais de la 3,9G. Rendez-vous compte : les opérateurs peinent à trouver des scénarios d’usage crédibles, et en plus ils ont la lourde tâche de nous vendre de la fausse 4G !

Il existe bien des usages comme la visio-conférence ou la vidéo HD, mais ils représentent une proposition de valeur trop faible pour justifier le prix du forfait. À mon sens, les deux seuls usages réellement intéressants sont la VoIP et les services liés au cloud computing. Autant je ne suis pas convaincu par Spotify ou Skype avec mon forfait actuel, autant ça pourrait m’intéresser avec un réseau 4G. Mais encore une fois, tout le problème est de faire se rencontrer la demande (les usages et services) avec la bonne offre (le prix des forfaits).

Vers une reconfiguration du marché

Comme nous venons donc de le voir, les innovations que les industriels veulent nous vendre (NFC, 4G…) ne correspondent pas à un réel besoin des utilisateurs, ni une réalité du marché. Si les smartphones sont en fin de cycle d’innovation, ils vont donc basculer dans la case “vache à lait” et devenir des produits de commodité, d’où l’intérêt de surveiller de près les smartphones low-cost.

Une autre solution serait de ne pas miser sur le matériel, mais sur le service. C’est ce que tente de faire Apple avec son nouvel assistant personnel Siri.

iphone-siri.jpg

L’astuce n’est pas de rendre le téléphone plus intelligent, mais de lier le matériel à un service en ligne (l’iPhone ne fait qu’interpréter votre voix et envoyer une requête dans l’attente d’une réponse). À partir de là, libre à Apple d’enrichir Siri avec des applications et services tiers pour vous proposer une interface vocale réellement viable. Pour le moment ce fameux Siri est en mode beta et n’est (en théorie) pas connecté à d’autres services, même s’il est possible de contourner cette limitation : Remember the Milk and Siri on an iPhone 4S Work Together for Reminders.

Outre ce Siri qui fait déjà des émules (Iris Is Sort Of Siri For Android), les constructeurs de smartphones sont donc dans l’impasse. La solution sur laquelle ils semblent tous travailler est d’amener les clients sur les tablettes qui offrent de véritables innovations de rupture : Pourquoi les interfaces tactiles peuvent révolutionner l’industrie musicale. Sur le papier, la manoeuvre est mutuellement profitable : les clients retrouvent leurs marques et leurs contenus tout en bénéficiant d’une expérience enrichie, les industriels et opérateurs factures deux machines + deux forfaits + chaque application en double. Le problème est qu’il y a un fort taux de déperdition en route, la promesse des constructeurs est donc de vous proposer une expérience sans couture avec un système d’exploitation et un écosystème de contenus / applications unifié : iOS pour Apple, Android pour Google, BBX pour BlackBerry. Pour le moment Microsoft est encore en train de finaliser le lancement de Windows Phone, mais la convergence avec Windows 8 se précise petit à petit.

Selon ce schéma, Apple se taille la part du lion avec une part de marché écrasante en faveur de son iPad. Tout comme pour les smartphones, Apple défriche et Google récupère le gros du marché en propulsant les machines d’entrée de gamme. Une stratégie intéressante, car elle permet de toucher une population bien plus large (Quel sera l’impact des touchbooks low-cost ?). Mais sur ce coup là, ils devront composer avec Amazon qui vient jouer les trouble fête : Amazon à l’assaut du segment low-cost avec les nouveaux Kindle. Une solution serait de racheter Kobo (qui se positionne en concurrent direct avec son tout nouveau Kobo Vox), mais la marque appartient au groupe Indigo / Chapters, ce qui risque de poser un problème d’abus de position dominante.

Bref, la situation est loin d’être simple : les relais de croissance du segment des smartphones sont à la fois compliqués à mettre en oeuvre et coûteux à acquérir.

 Conclusion

Revenons à nos moutons et à la question que j’essayais de traiter en début d’article : les smartphones sont-ils en fin de cycle d’évolution ? Oui, j’en suis persuadé. Nous allons donc entrer dans une phase de rationalisation du marché et de comoditisation de l’offre. Autant vous dire que les marques qui sont encore en train de se poser la question de la pertinence d’une application iPhone ont intérêt à rapidement se décider, car le marché et les usages vont très rapidement évoluer.

Pour ceux qui ont déjà expérimenté une application pour smartphone, l’heure est maintenant à l’industrialisation de leur présence sur les terminaux mobiles. La prochaine étape consistera à s’intéresser de près aux tablettes et aux autres terminaux alternatifs, dont les TV connectées (entre autres).

La fin de l’ordinateur individuel est programmée

Nous sommes en 2011, cela fait donc 30 ans que l’ordinateur individuel a été mis sur le marché (source : Wikipedia). 30 ans que nous utilisons la combinaison unité centrale / écran / clavier / souris. 30 ans de croissance quasi ininterrompu pour les constructeurs et éditeurs de logiciels qui ont bénéficié du phénomène de comoditisation de l’offre (une baisse des prix obtenue par économie d’échelle en vendant des produits quasiment identiques aux entreprises et particuliers).

IBM_PC

Plusieurs signaux du marché sont néanmoins en train de participer au déclin de l’ordinateur individuel tel que nous l’avons connu : l’arrivée à maturité de l’internet et des offres de cloud computing, la montée en puissance des terminaux mobiles et des usages en mobilité.

Avec les annonces de ces dernières semaines, il semble clair que Microsoft, Google et Apple sont en ordre de bataille pour faire basculer l’informatique dans le 21ème siècle. Certes, tout ne s’est pas fait en quelques semaines : Les offres d’Application Service Providers et les smartphones en Asie sont une réalité depuis le siècle dernier (donc bien avant l’apparition du cloud computing ou de l’iPhone / iPad), mais nous y voyons maintenant beaucoup plus clair dans le jeu des grands acteurs de l’informatique et de l’internet.

Les ordinateurs individuels supplantés par les terminaux nomades

Même si de gros progrès ont été réalisés, les ordinateurs ne font plus rêver personne : trop encombrants, trop chers, trop laborieux à maintenir (failles de sécurité, anti-virus, anti-malware…). La solution des industriels a été de créer un nouveau segment pour relancer l’intérêt : les netbooks (cf. Les netbooks vont-ils amorcer la révolution du web 3.0 ?). Mais tout ne s’est passé comme prévu, les netbooks ont fait long-feu car ils étaient incapables de tenir la promesse faite aux consommateurs (l’informatique low-cost). Après 3 années d’égarement, Google parvient néanmoins à proposer aux industriels une offre viable : Avec Chrome OS, Google parie sur le CloudBook.

Les chromebooks représentent donc l’évolution ultime du concept avec un hardware et un software allégé au maximum au service de la simplicité et de la portabilité. Parviendrons-ils à réussir leur pari et convaincre le grand public ? Oui j’en suis persuadé, car l’offre est bien pensée (système de location mensuelle) et que la transition va se faire en douceur auprès des publics les plus réceptifs (étudiants…).-

chromebook

De même, les tablettes tactiles existent depuis près de 20 ans, mais souffraient de gros problèmes ergonomiques. Elles aussi ne parvenaient pas à tenir la promesse d’une informatique nomade et tactile. Il a fallu attendre la sortie de l’iPad pour viabiliser le concept de touchbook. La touche de génie d’Apple a été de simplifier l’interface et surtout de repenser l’outil informatique (cf. Pourquoi iOS est plus disruptif que vous ne le pensez).

iwork_ipad

Ainsi ce n’est pas tant le hardware qui a évolué que le software. Apple et Microsoft ont bien compris que le modèle traditionnel du logiciel ne va pas perdurer longtemps, surtout face à la menace de nouveaux entrants comme Google, SalesForce… Il était donc urgent de refondre ce modèle et de tenter autre chose : Software as a Service, mini-applications, services en ligne freemium… (cf. Apple, Microsoft, Google, Adobe à la recherche du nouveau paradigme des logiciels).

Une nouvelle approche de l’informatique personnelle

Entendons-nous bien : il est bien ici question d’informatique pour le grand public, pas pour les contrôleurs de gestion, développeurs… Là encore les nouvelles configurations de marché rendent obsolète l’ordinateur traditionnel. Les usages d’aujourd’hui tournent ainsi essentiellement autour du web et de tout ce qu’il propose : contenus, plateformes sociales, jeux… Or, les offres récemment créées par Apple, Netflix ou encore OnLive nous prouvent que les utilisateurs peuvent se passer des ordinateurs pour consommer des contenus et services.

onlive

Avec l’avènement de l’internet, l’ordinateur s’est banalisé et n’est plus qu’un moyen d’accès à des contenus et services en ligne. Les utilisateurs valorisent maintenant beaucoup plus l’autonomie et la portabilité que la puissance. L’architecture x86 des processeurs Intel est maintenant supplantée par l’architecture ARM des smartphones et terminaux nomades (cf. 2011, l’année du point de bascule).

Dans cette nouvelle approche de l’outil informatique (plus ludique, plus sociale), Intel a pourtant été précurseur avec le lancement de Meego, un système d’exploitation de “nouvelle génération” qui était destiné à propulser les netbooks (Intel et Jolicloud à la recherche de l’interface parfaite pour les netbooks). Un concept qui a été remanié depuis, mais dont nous voyons une autre illustration avec le futur Windows : Microsoft dévoile l’interface tactile de Windows 8.

Win8_start

Cette nouvelle approche de l’outil informatique semble donc parfaitement adaptée aux nouveaux usages des internautes. Mais elle pourrait également fonctionner avec les collaborateurs équipés de terminaux nomades leur permettant d’accéder à leur intranet et les applications qui vont avec. Ont-ils réellement besoin de plus ? Nous ne savons encore pas grand-chose de l’offre pro de Google (baptisée Chromebox) mais elle pourrait bien nous faire envisager à nouveau le modèle client/serveur. Ceci étant dit, c’est un autre débat que je ne souhaite pas entamer dans cet article.

L’avènement du cloud personnel

Nous avions déjà Amazon Cloud Drive, Google Music, et maintenant c’est Apple qui annonce iCloud, son offre de stockage de données en ligne. Le cloud computing n’est maintenant plus réservé aux entreprises, les offres se structurent pour en faire bénéficier les particuliers afin de leur offrir toujours plus de liberté dans leurs modes de consommation.

iCloud

L’idée maitresse derrière ses offres est la suivante : puisque le piratage rend toujours plus compliquée la vente des licences (musiques, films ou logiciels), les distributeurs et éditeurs se tournent plutôt vers la location (SaaS), l’hébergement (cloud) et la monétisation de l’accès aux contenus (streaming). Le futur Mac OS X Lion ne sera ainsi proposé qu’en téléchargement via le Mac App Store. Non seulement ce modèle permet de verrouiller la chaine de distribution, mais il assure également à l’opérateur de ces services des revenus récurrents (en plus de collecter les N° de carte bancaire de l’ensemble des utilisateurs de Mac).

Après avoir conquis le marché de l’entreprise, le cloud computing s’attaque donc maintenant au grand public et les perspectives sont plus que juteuses : The Personal Cloud Will Be A $12 Billion Industry in 2016.

Personal_Cloud

Avec la banalisation de la bande passante et les premières offres de très haut début, cette tendance ne peut que s’accélérer.

Vers une expérience unifiée pour les clients

Donc si l’on résumé : itunes + App Store + iCloud = des contenus, services et applications disponibles sur tous vos terminaux. La promesse d’Apple n’est plus de vous assurer la meilleure expérience sur smartphone ou sur touchbook, mais sur l’ensemble de vos terminaux. La vision d’Apple rejoint ainsi celle de Google (avec ChromeOS et Android) et celle de Microsoft (avec Windows 8 et Windows Phone). Nous sommes donc bel et bien entrés dans l’ère de l’informatique nomade et polymorphe où les contenus et services sont achetés une fois et consommés en différents endroits.

À ce petit jeu là, celui qui remportera la mise sera celui qui proposera la compatibilité la plus large, donc l’écosystème le plus étendu. Pas étonnant que Google distribue gratuitement ces systèmes d’exploitation, car ce sont autant de points de consommation pour eux : L’écosystème numérique de demain est en train de se construire avec Google, Apple et Amazon.

Je suis intimement persuadé que nous sommes en train de vivre une transformation dont nous ne mesurons pas encore l’impact. Comme je l’avais senti l’année dernière, le prochain terrain de bataille sera la télévision. Google est déjà très bien positionné (Pourquoi Google a quasiment déjà gagné la bataille du salon avec Google TV), mais nous pourrions avoir des surprises avec les consoles de jeux, notamment la Xbox de Microsoft avec Live TV ou encore la future Wii U qui propose un étonnant couplage entre une console multifonctions et une manette aux airs de touchbook.

WiiU

Tout ceci me fait donc dire que les jours de l’ordinateur individuel sont comptés. La suite à lire ici : Quel va être l’impact de la fin de l’ordinateur individuel ?.

Le retour de la revanche du contenu

Avec l’avènement des médias sociaux, on a voulu nous faire croire que le contenu était mort et que la communauté allait générer ses propres contenus et s’auto-alimenter. J’ai déjà eu l’occasion de m’exprimer sur cette vision très restrictive (De la qualité des contenus sur Facebook) et l’actualité récente semble me donner raison.

Vague d’acquisitions pour les blogs et usines à contenu

Première preuve de la valeur du contenu, les récentes acquisitions de blogs par AOL : Techcrunch.com pour 25 M$ (Why We Sold TechCrunch To AOL, And Where We Go From Here) et HuffingtonPost.com pour 315 M$ (AOL Agrees to Acquire The Huffington Post). Avec ces deux acquisitions, AOL complète donc son impressionnante collection de blogs à gros volume (Engadget, Autoblog…).

AOL_blogs

Pourquoi un géant des médias montre-t-il un si grand intérêt pour des blogs ? Tout simplement parce qu’AOL valorise le contenu de qualité et sait évaluer le potentiel d’affaires que cela représente.

Autre signe de l’intérêt du marché pour le contenu, la récente introduction en bourse de DemandMedia. Pour ceux qui ne connaissent, DemandMedia est ce que les détracteurs appellent une “usine à contenu”, ils produisent du contenu au kilomètre pour pouvoir nourrir des portails et squatter les pages de résultats des moteurs de recherche. Un modèle intéressant qui a su séduire de nombreux clients, mais laisse quand même dubitatif : Content Farms 2.0, Can Robots Help Write the News?. Toujours est-il que les moteurs en question ne sont pas dupes et travaillent activement à réduire la visibilité des “sites de basse qualité” : Google Search and search engine spam.

iPad = nouveau chouchou des éditeurs

Autre fait marquant de ces dernières mois : la ruée vers l’iPad qui est vu par les éditeurs comme la nouvelle plateforme de distribution et monétisation de leurs contenus. Certains grands éditeurs US et suédois ont été pionniers (à l’image de Condé Nast ou Bonnier), d’autres ont préféré attendre et lancer des projets plus ambitieux comme le magazine Project de Virgin ou TheDaily de NewsCorp.

TheDaily

Pour le moment tout le monde est en train de chercher le bon modèle économique (prix, système d’abonnement et de fidélisation…), mais le potentiel est bien réel. De plus, la distribution de magazines d’information sur l’iPad n’est qu’un début puisqu’il existe de nombreuses autres configurations de marché en fonction des types de contenu (Une seconde vie pour les contenus digitaux grâce à l’iPad ?) et des supports (notamment les e-readers).

L’iPad est donc un canal de distribution / monétisation viable. Vous voulez une preuve de plus ? Apple nous en fournit une belle avec son système d’abonnement pour les éditeurs de contenu. En résumé : iTunes va proposer aux utilisateurs d’iPad un système d’abonnement à des contenus moyennant une commission de 30%. Les éditeurs ont toujours la possibilité de vendre des abonnements grâce à leur site web, mais les transactions qui passent par iTunes seront ponctionnées de la marge d’Apple. Inutile de vous offusquer quand à cette posture très dirigiste de la firme de Cupertino, Amazon en fait de même avec le Kindle (Apple’s Big Subscription Bet: Brilliant, Brazen, Or Batsh*t Crazy?).

Là encore, nous avons la preuve que le contenu représente une réelle valeur que les industriels se disputent. Cette situation peut vous sembler malsaine dans la mesure où les éditeurs sont coincés entre le marteau et l’enclume (respectivement Apple et Amazon), mais la situation va se débloquer grâce à la progressive diversification du marché et la montée en puissance de machines concurrentes à l’iPad et au Kindle. D’ailleurs Adobe anticipe déjà ce phénomène avec la mise à disposition d’outils permettant de publier du contenu numérique sous forme d’applications mobiles pour iOS et Android : Adobe’s Digital Publishing Suite is Coming to Android.

Et on reparle des micro-transactions

Nous venons donc de voir que le contenu recommence à être apprécié à sa juste valeur et que les industriels se chamaillent pour verrouiller la chaine de distribution et capter un maximum de revenus sur les tablettes. Mais quid du web “traditionnel” ? Heureusement Google est là pour proposer une solution de monétisation des contenus (Google One Pass) qui va simplifier la vie des éditeurs : Powered By Google Checkout, One Pass Is A Payment System For Content Publishers.

Le principe est de proposer un système d’authentification unique (pour accéder à votre contenu depuis différentes machines) associé à un mécanisme de paiement universel (Google Checkout). Est-ce une bonne chose pour un éditeur d’esquiver Apple et Amazon pour se marier avec Google ? La question mérite d’être posée, car la dépendance entre les éditeurs et le moteur de recherche est déjà très forte (trop ?).

Au final, je pense que le grand gagnant de cette histoire sera le client car il aura à sa disposition des moyens simples pour découvrir, acheter et consommer des contenus numériques. Même si les différents canaux sont verrouillés par une poignée d’industriels, c’est un mal nécessaire pour favoriser le développement des usages et l’installation de nouvelles habitudes de consommation (et notamment les microtransactions). Il a fallu presque 10 ans à Apple pour rééduquer les clients vis-à-vis de la musique en ligne (et les faire accepter de payer plutôt que de télécharger illégalement), j’espère qu’il en faudra moins pour les contenus textuels (actualités, magazines, livres…).

Dans tous les cas de figure, je suis persuadé que le contenu aura sa revanche et sera monétisé à sa juste valeur. Après ça, tout est une question de maitrise des coûts de production (en intégrant la commission des intermédiaires de distribution) pour que l’opération reste rentable.

Bien évidemment nous sommes d’accord sur le fait que les dynamiques sociales et communautaires ne s’opposent pas à la monétisation / distribution du contenu. Au contraire : c’est un levier, pas un frein.

2011, l’année de la désillusion ?

2010 aura été une année riche en nouveautés et en expérimentations. J’ai déjà eu l’occasion de partager avec vous mon enthousiasme quant à cette nouvelle année 2011 où les tendances vont se concrétiser et les marchés émergents vont croitre significativement. La contre-partie de cette maturation va par contre se traduire par une désillusion généralisée sur de nombreux domaines. La raison est toute simple : tout changement ou innovation s’accompagne forcément de fausses promesses ou d’attentes exagérées, ceci est valable pour un certain nombre de domaines comme les médias sociaux, l’entreprise 2.0, le commerce en ligne, les terminaux mobiles…

J’anticipe donc une année 2011 plus réaliste avec des projets moins opportunistes et plus à même de créer de la valeur plutôt que de jouer sur l’effet d’annonce (“regardez ma nouvelle application HTML5 de curation pour l’iPad“).

Médias sociaux, une inévitable bulle des attentes

J’ai déjà évoqué la bulle des médias sociaux dans mes prédictions 2011 : non pas une bulle spéculative, mais plutôt une bulle des attentes vis-à-vis de ce que le social marketing peut apporter à une marque. Les médias sociaux sont en effet un formidable terrain d’expression et d’échange pour les marques souhaitant entrer en conversation avec leurs clients / prospects dans le but de développer des interactions sociales de proximité et d’améliorer l’offre. Le problème est que l’on voit encore beaucoup trop d’opérations et campagnes dont l’unique but semble être de générer du buzz (ou de faire croire qu’il y a eu un buzz) : Trop de buzz et pas assez de dialogues.

2011 va, selon moi, être l’année du “Et après ?. De nombreuses marques ont créé leur page Facebook, ouvert des comptes Twitter et diffusé des vidéos virales. OK, et après ? Rassurez-vous, il y a un après, mais il n’existe pas de formule magique : la maturation de la présence d’une marque sur les médias sociaux passera par un douloureux processus menant à une remise en question, plus de transparence, l’acquisition d’une plus grande souplesse dans les processus et offres, l’amélioration de la qualité du service…

Dans le cas des médias sociaux, plusieurs facteurs sont à l’origine de la désillusion :

  • Un grand nombre de prestataires peu scrupuleux prêts à faire n’importe quelle promesse pour remporter des budgets ;
  • Des médias classiques (TV, radio, presse) très maladroits dans leur façon d’aborder les médias sociaux et de les présenter au public ;
  • Des annonceurs un peu désemparés (face à un phénomène à la croissance spectaculaire) qui doivent monter des actions “commando” sous la pression d’actionnaires ou de DG trop impatients de prendre leurs concurrents directs de vitesse.

Attendez-vous donc à définir des objectifs plus réalistes et à surtout mettre en place une feuille de route précise pour structurer votre présence sur les médias sociaux et vous y installer de façon durable. En résumé : moins de buzz et plus de conversations.

Entreprise 2.0, où sont les bénéfices tangibles à la collaboration ?

Les pratiques et outils associés à l’Entreprise 2.0 ont également été générateurs de moults promesses et attentes concernant la circulation de l’information, la productivité et la créativité des équipes. J’avais été parfaitement explicite dans mon article fondateur rédigé en 2007 (Qu’est-ce que l’Entreprise 2.0 ?) : il ne suffit pas d’installer les outils, toute dynamique de collaboration doit s’accompagner d’un changement de mentalités / habitudes de travail ainsi que des référentiels d’évaluation et leviers de stimulation des collaborateurs.

J’entends autour de moi beaucoup trop de projets de réseau social interne qui ne prennent pas, car les collaborateurs n’y trouvent pas leur intérêt. Et pour cause : la collaboration se fait au détriment de la performance individuelle. Tant que les collaborateurs seront évalués et rémunérés en fonction d’objectifs quantitatifs individuels, les projets de plateformes collaboratives ou de capitalisation sont voués à l’échec.

Là encore il n’y a pas de mystère : la conduite du changement est un facteur décisif dans la mise en place de pratiques collaboratives. Les outils sont une composante nécessaire, mais pas suffisante.

E-commerce, pas si simple de se démarquer

L’année 2010 aura été une année record pour le commerce en ligne : Bilan du E-commerce 2010. Mais ne vous laissez pas berner par ces chiffres, car la vie n’est pas rose pour les marchands en ligne. Leur quotidien est en effet une lutte incessante contre des marges toujours plus serrées et un coût d’acquisition de trafic toujours plus élevé. La réalité du terrain est la suivante : il est plus compliqué d’ouvrir une boutique en ligne qu’une boutique physique. Quels que soient les produits que vous vendez ou la niche que vous ciblez, la compétition est acharnée et les parts de marché sont très dures à acquérir et conserver. Il existe bien quelques succes stories sur des petits marchands qui ont vu leurs ventes exploser grâce aux médias sociaux et au bouche à oreille, mais ne rêvez pas : ça ne fonctionnera pas pour vous. Ou du moins, la construction d’une communauté avec une composante marchande se fera sur la durée et ne vous permettra pas d’atteindre rapidement un volume de ventes conséquent.

Vous pourriez également me citer le cas des local deals et du succès phénoménal de Groupon. OK et alors ? Il existe des dizaines de clones de Groupon qui dépensent des sommes colossales pour se partager ce petit marché. Non seulement Groupon est devenu un mastodonte, mais le géant Amazon est également rentré dans la danse avec le rachat de LivingSocial.

Moralité : Là encore il n’y a pas de mystère, il faut ramer pour exister. Et ce n’est pas parce que vous avez une page Facebook ou un beau carrousel en Flash sur votre page d’accueil que ça va être plus simple.

Smartphones, un marché encore restreint qui va souffrir de la fragmentation

Voilà plus de 10 ans que l’on nous parle de l’internet mobile. Après des débuts chaotiques au début des années 2000, le marché des services mobiles est enfin en voie de maturation. “En voie de maturation” veut dire que nous n’en sommes encore qu’au tout début. La réalité du marché est la suivante : sur les 55 millions de téléphones mobiles en circulation, seule une petite quantité est réellement capable de consommer des contenus et services en ligne. Les parts de marché des OS mobiles sont en effet très significatives : les possesseurs de smartphones ne représentent qu’une toute petite partie de la population.

Il y a certes eu près de 4 millions d’iPhone vendus en France, mais le renouvellement participe beaucoup à la surévaluation de ce créneau (on parle d’à peine 1,5 M d’utilisateurs actifs d’iPhone). De même, on nous parle beaucoup d’Android, mais les smartphones équipés de l’OS de Google ne sont pas tous égaux et ne sont donc pas à traiter comme un sous-ensemble homogène.

Vous avez lancé une application iPhone l’année dernière ? OK très bien, et après ? Toutes les grandes marques nationales sont déjà présentes sur iTunes, il va donc falloir trouver d’autres leviers de différentiation pour vous démarquer de la concurrence. Une application Android ? Oui pourquoi pas, mais pour quelle version d’Android ? La réalité du marché fait que le “marché” des possesseurs de smartphone est petit à petit en train de se fragmenter entre différents OS (Symbian, iOS, Android, Blackberry OS, Meego, WebOS, Bada…) et différentes versions d’OS.

Là encore, il n’y a pas de mystère : sous-traiter le développement d’une application iPhone à un prestataire spécialisé ne va pas vous aider à aborder sereinement le sujet de la mobilité. Vous devrez mener une réflexion plus profonde sur les véritables besoins des utilisateurs en situation de mobilité (une conversion de votre site web ou boutique en ligne n’est pas forcément pertinente) ainsi que sur la meilleure façon de toucher le plus de monde possible (les applications mobiles en HTLM5 sont une bonne piste).

Touchbooks, la presse en ligne n’est pas encore sauvée

Dans un registre similaire, le lancement en grande pompe de l’iPad en début d’année dernière a suscité les espérances les plus folles concernant la monétisation des contenus. Les touchbooks étaient alors considérés comme la solution ultime à la gratuité des sites web. Producteurs de contenus et éditeurs de presse se sont alors emballés (euphémisme) sur l’appétence du grand public vis-à-vis des applications payantes. Il existe bien des exemples intéressants comme l’application du magazine Wired (qui se vend à 25.000 exemplaires par mois en moyenne), mais il ne suffit pas de proposer une version numérique en téléchargement pour combler la baisse des ventes du papier.

Il y a moins de 500.000 iPad en circulation en France, et tous les possesseurs ne sont pas prêts à payer plusieurs abonnements par mois. Nous verrons bien ce que News Corp va réussir à faire avec le tout nouveau The Daily, mais il n’y a pas de mystère : les utilisateurs ne payeront que pour des contenus de qualité apportant une proposition de valeur différenciante (cf. Une seconde vie pour les contenus digitaux grâce à l’iPad ?).

HTML5 ne remplacera pas Flash (ni HTML)

Dernière nouveauté qui a également engendré beaucoup d’emballement : HTML5. Présenté à tort comme le pourfendeur des technologies propriétaires (avec Flash en ligne de mire), HTML5 est censé être la réponse à tout : vidéo HD, 3D en temps réel, performance des applications en ligne… Mais ce n’est pas parce que nous avons attendu 10 ans cette incrémentation (en passant de la version 4 à la version 5) que le HTML va spontanément régler tous les problèmes de compatibilité, accessibilité, distribution… J’ai déjà eu l’occasion de m’exprimer sur ce débat (Pourquoi HTML5 et Flash ne peuvent être comparés) et je réitère mes propos : l’adoption d’HTML5 comme standard de conception des pages et interfaces web va se faire sur de nombreuses années, années pendant lesquelles la technologie Flash va continuer de progresser.

Il y a également eu le buzz autour de la balise <video> d’HTML5 qui permet de lire nativement des vidéos HD sans passer par un player en Flash. La promesse est belle (se libérer de la dépendance à la chaine de production / distribution d’Adobe), mais la réalité est plus nuancée : Vidéo HTML5, la guerre des codecs est déclarée.

De même, le W3C a récemment dévoilé le logo officiel d’HTML5 (qu’il faut maintenant appeler HTML), signe que cette nouvelle itération de ce langage vient de passer un cap de maturation. La réalité est que c’est avant tout la technologie qui est maintenant mûre (les spécifications) mais pas forcément le marché. Une très grosse partie des utilisateurs utilise encore Internet Explorer qui ne reconnait pas le HTML5. Non seulement cette tranche des internautes est majoritaire, mais elle va mettre des années avant de s’équiper en navigateur de nouvelle génération (Firefox, Chrome ou IE9).

Le grand public se moque pas mal de ce débat d’expert, il a également beaucoup de réticences à changer ses habitudes (et se remettre ainsi en question). J’ai récemment entamé un vaste chantier de refonte graphique de l’ensemble de mes blogs. Cette refonte graphique s’accompagne d’un travail d’optimisation et de remise à niveau du code-source des pages (en HTML5 et CSS3, visible sur FredCavazza.net, MediasSociaux.fr et MarketingVirtuel.fr). J’ai ainsi reçu un grand nombre de messages me disant “votre site ne fonctionne pas“. Si, mes sites fonctionnent, c’est votre navigateur qui n’est pas à jour. Le problème est qu’il est beaucoup plus simple de critiquer le changement plutôt que de l’accepter (“pourquoi devrais-je changer de navigateur alors que le mien fonctionne bien ?“).

Bref, tout ça pour vous dire que malgré tout le bien que je pense d’HTML5 et des technologies qui vont avec, le marché va mettre plusieurs années avant de se renouveler et de pouvoir en profiter. Donc pas de mystère : il va falloir encore composer avec HTML4 et Flash pendant de nombreuses années.

Pas de mystère, il faut bien travailler

En conclusion, je ne ferai que répéter ce qui est écrit plus haut : suite à l’émergence de nombreuses nouvelles pratiques et technologies, une bulle des attentes s’est formée autour des opportunités promises par des prestataires peu scrupuleux. Cette bulle va fatalement s’effondrer dans un futur proche (probablement cette année) et ramener le marché à la réalité. Au final ce n’est pas une si mauvaise chose, car cela va permettre de faire le ménage dans cette horde d’opportunistes qui entrainent les annonceurs sur des terrains glissants.

J’insiste cependant sur le fait qu’il ne faut pas jeter le bébé avec l’eau du bain. Si nous allons devoir passer par une phase de débisounoursisation (l’abandon d’une vision “bisounours”), les opportunités offertes par les nouveautés / évolutions décrites plus haut sont bien réelles. Elles seront par contre plus complexes à saisir que ce que l’on veut bien admettre. Au travail !