À une époque pas si lointaine, la blogosphère s’écharpait autour de la définition du Web 2.0, c’était les débuts des médias sociaux. Puis nous avons assisté à la généralisation des terminaux mobiles, des grands volumes de données, de la réalité augmentée / virtuelle, des assistants numériques… Cette tentative de définition universelle de ce qu’était le web à l’époque est loin derrière nous. Pourtant, avec la montée en puissance de la blockchain et des applications distribuées, certains annoncent que nous sommes entrés dans la troisième grande étape d’évolution du web. Le problème de ces “phases” est qu’elles supposent une évolution linéaire, ce qui est loin d’être le cas.
J’étais le mois dernier invité à Montréal pour donner une conférence sur l’avenir du web (le support est disponible ici : A quoi ressemblera le web de demain). Un sujet périlleux, car il est toujours difficile de faire le bon dosage entre anticipation (les tendances qui vont se concrétiser l’année prochaine) et futurologie (ce que nous devions être en mesure de faire dans 10 ans si le rythme d’innovation se poursuit). Je me suis tout de même prêté volontiers à cet exercice de style, car les ingrédients du web de demain sont déjà là. Comprenez par là qu’en décortiquant les bons signaux, vous pouvez avoir une vision assez fiable de ce à quoi vont ressembler les usages en 2015.
Du web 1.0 au web 3.0
Le moins que l’on puisse dire, c’est qu’en 10 ans, tout à changé… ou pas ! Si vous regardez dans le détail l’offre de deux piliers du web comme Amazon et Ebay, vous vous rendrez compte que les fondamentaux sont les mêmes. Certes, vous pourriez me dire qu’avec Facebook et Twitter nous sommes rentrés de plein fouet dans la révolution digitale, celle qui renverse les dictateurs et génère des centaines de milliards de dollars, mais vous pourriez aussi reconnaitre que la transformation du web s’apparente plus à un enrichissement. Comprenez par là que de nouveaux usages se développent, mais qu’ils se cumulent avec les anciens, du moins pour le grand public.
Je pense ne pas me tromper en disant que l’histoire du web s’écrit par cycles de 5 ans marqués par la domination d’acteurs sur-puissants. Les années 2000 ont ainsi été dominées par les portails (Yahoo, MSN, AOL…) qui concentraient l’audience avec une offre exhaustive de contenus et de services. Les années 2005 ont été marquées par la domination des moteurs de recherche et en particulier de Google avec plus de 80% de parts de marché (et un écosystème très dense qui vivait et vit encore des mots-clés). Les années 2010, dans lesquels nous nous trouvons, sont marquées par la domination des plateformes sociales et notamment de Facebook qui s’impose comme le poids lourd incontesté de sa catégorie avec 750 millions d’utilisateurs (cf. Rétrospective sur les 3 dernières années de Facebook).
Puisque nous évoquons l’histoire de l’évolution du web, impossible de faire l’impasse sur les grands stades d’évolution (aussi bien technologiques que d’usages) :
Le web 1.0 était surtout centré sur les documents, il a vu se généraliser des outils comme l’email, des acteurs comme les portails de contenu ainsi que le commerce en ligne ;
Le web 2.0 est centré sur les utilisateurs, il se caractérise par la généralisation des réseaux sociaux, l’avènement des contenus générés par les utilisateurs, les pratiques de social shopping et de nombreuses innovations autour des API et mashups ;
Le web squared sera centré sur les données, l’information y circule en temps-réel, les données sont agrégées dans des écosystèmes, qui sont rattachés à tous types d’objets (ombres informationnelles) et générées de façon mécanique (metadonnées implicites) ;
Le web 3.0 est encore un concept abstrait, mais on anticipe déjà des usages assistés par des agents intelligents qui exploiteront des contenus sémantiques, où les objets seront communicant et l’information pervasive (accessible depuis n’importe où).
Les grandes étapes d'évolutions du web
J’ai déjà eu l’occasion de m’exprimer sur ces différents stades d’évolution, donc je vous propose de nous intéresser aux facteurs qui vont accélérer la migration d’un stade à un autre.
Quatre leviers d’innovation stimulant de nombreuses pratiques disruptives
Les dernières années ont été riches en bouleversements et transformation des usages. Ces transformations ont été favorisées par de nombreux facteurs, mais il est possible d’identifier quatre leviers d’innovations qui ont bouleversé la façon dont l’information est véhiculée, dont nous consommons des contenus et services, dans nos habitudes d’achats, dans notre façon de collaborer :
Les pratiques sociales. Inutile de vous faire l’article sur l’importance que les médias sociaux ont pris dans les usages en ligne. Non seulement ils concentrent l’audience et l’attention des médias, mais également les budgets publicitaires. Ils modifient également nos attentes et nos comportements d’achat. La rupture sociétale qu’ils induisent a même poussé les médias traditionnels à revoir leur modèle.
Le cloud compting. Là encore, je ne souhaite pas me lancer dans une nième explication des impacts et bénéfices de l’informatique distante. Après plusieurs années de croissance spectaculaire, les offres gagnent en maturité et sophistication et nous permettent de nous libérer de nombreuses contraintes.
Les données. Avec la banalisation de l’accès à internet et des outils de publication toujours plus simples et performants, il va être créé près de 1,8 zettabytes de données rien qu’en 2011. Un chiffre abstrait pour la plupart d’entre-nous mais qui illustre les dimensions d’une mine d’or encore largement inexploitée.
Les 4 leviers d'innovation du web de demain
A partir de ces quatre leviers, et en les combinant, il est possible d’isoler un certain nombre de pratiques disruptives :
Mobile + Social = Géolocalisation. En combinant le nombre de smartphones en circulation et le levier social / communautaire, vous pouvez fournir aux internautes des contenus et services contextualisés en fonction de l’endroit où ils se trouvent et des amis et contacts qui sont passés par là (c’est le principe des placestreams, qui a fait le succès de Foursquare), les commerçants et enseignes de distribution en sont les premiers bénéficiaires.
Données + Cloud = Open Data. Les données renferment une très forte valeur ajoutée pour ceux qui savent les interpréter intelligemment et qui exploitent des plages de données suffisamment grandes (notion de Big Data). Les institutions, municipalités, acteurs territoriaux et gouvernements possèdent des masses considérables de données, mais ne les exploitent pas forcément. L’Open Data consiste donc à mettre à disposition dans les nuages des données publiques. L’idée derrière ces initiatives est de permettre aux acteurs qui en ont l’ambition d’exploiter ces données pour en extraire des tendances, des corrélations et de pouvoir ainsi anticiper l’évolution du marché. Pour vous donner un aperçu, je vous recommande de tester Google Correlate.
Données + Social = Graphes d’intérêts. Voilà de nombreuses années que les réseaux sociaux nous vantent les mérites de leurs graphes sociaux et de l’intérêt qu’ils représentent en matière de ciblage comportemental. Le problème est que dans un environnement social à forte exposition, les utilisateurs ne se comportent pas tout à fait de façon cohérente. Par opposition aux graphes sociaux (ceux que vous connaissez ou prétendez connaitre), les graphes d’intérêts se focalisent sur ce que vous aimez (ou ce que vous n’aimez pas) et sur les comportements adoptés par les personnes ayant les mêmes centres d’intérêt que vous. Il en résulte des moteurs de recommandation bien plus pertinents et surtout auto-apprenant.
Cloud + Mobile = Personnal cloud. L’informatique distante envahie petit à petit le monde de l’entreprise et fait prendre conscience aux DSI tout l’intérêt de ne pas héberger sois-même ses données (disponibilité, archivage…) et de ne pas maintenir sois-même ses serveurs et applications (économie d’échelle, facilité de mise à jour et déploiement…). Les grands acteurs du web (Google, Amazon, Apple…) partent maintenant à la conquête du grand public avec des offres très attractives pour héberger vos emails, photos, musiques… Non seulement ces offres vous garantissent la pérennité de vos données, elles en facilitent l’accès quel que soit le terminal utilisé, mais elle leur permet surtout de facturer aux clients un service à vie (il est nettement plus rentable d’héberger un fichier MP3 que de le vendre). Google Music, Amazon Cloud Drive, iCloud, et toutes les offres d’acteurs spécialisées (Spotify, Flickr…) vont vous faire oublier votre disque dur.
Données + Mobile + Social = Quantified Self. Se connaitre au travers de vos données personnelles, telle est la promesse du Quantified Self qui s’appuie sur les terminaux mobiles pour les capter, sur des services à valeur ajoutée pour les monétiser et sur le levier social pour vous fidéliser. Nouveau phénomène social ou arme ultime de personnalisation des offres ? Il est encore trop tôt pour bien appréhender l’impact de ces pratiques, mais elles en disent long sur notre appropriation de l’outil informatique, des terminaux mobiles et des mécaniques sociales dans notre quotidien.
Cette liste est loin d’être exhaustive, mais elle illustre bien selon moi l’exploitation de ces quatre leviers d’innovation (mobile, social, cloud et données).
Quels défis à relever ?
Nous parlons bien ici d’usages disruptifs en avance de phase par rapport au marché, ils ne touchent que les innovateurs et les adopteurs précoces. Ceci étant dit, j’engage les annonceurs et fournisseurs de contenus / services à s’y intéresser de près, car ils préfigurent les opportunités de demain (sauf si vous vous contentez des mots-clés).
Pour pouvoir exploiter ces usages à votre avantage et bénéficier des opportunités qu’ils offrent, il convient de se mettre dans la bonne disposition d’esprit :
Réduire la fracture technologique. Encore une fois, nous parlons d’usages fortement novateurs et disruptifs, ne vous laissez donc pas impressionner par ces nouvelles technologiques dont certaines ne sont pas encore tout à fait au point. L’avenir appartient aux audacieux, si vous vous complaisez dans l’adage “ma grand-mère saura-t-elle le faire fonctionner“, vous n’irez pas bien loin (à moins d’être positionné sur le créneau du tricot,, avec tout le respect que j’ai pour cette pratique).
Ne pas avoir peur d’échouer. La culture anglo-saxonne célèbre l’échec comme une preuve d’audace (“Fail often, fail fast“), contrairement à la culture française qui le pénalise. Si vous vous contentez de jouer les suiveurs réactifs, vous ne parviendrez pas à saisir les meilleures opportunités. Tout est une question de dosage du risque.
Miser sur le long terme. Tous les nouveaux usages décrits plus haut sont encore très loin d’être adoptés par le grand public. Il en résulte des tailles de marché très réduites et une rentabilité incertaine. Si vous voulez être certain de gagner de l’argent, misez sur une hausse du prix du pétrole. Si vous voulez par contre vous positionner sur des usages avant-gardiste et véhiculer une image d’innovateur, tournez-vous plutôt vers ces usages prometteurs (tout en maitrisant l’investissement initial et les coûts d’exploitation).
Je conclurais cet article en rappelant une évidence : je ne suis pas devin, mais simplement un observateur averti. Si vous avez identifié d’autres tendances, n’hésitez pas à les partager dans les commentaires.
Voilà maintenant près de 5 ans que l’on parle du web 2.0 (ce terme a pour la première fois été utilisé en 2004 lors du Web 2.0 Summit) et depuis le grand jeu a été de savoir quand arrivera la prochaine itération. Pour faire simple disons que le web 2 .0 était le terme utilisé dans les années 2006/2007 pour décrire un changement majeur dans les usages de l’internet (voir ma dernière définition en date). Ce dernier repose sur deux notions fondamentales: l’intelligence collective, le web comme une plateforme (pour les utilisateurs et les services). Maintenant ce terme est passé de mode et l’on emploie plus volontiers celui de médias sociaux qui sonne moins “informatique” à l’oreille. J’ai également eu l’occasion de faire un panorama des différents services associés aux médias sociaux ainsi que de donner une définition.
L’étape suivante a logiquement été d’anticiper le web 3.0 (dont j’ai également tenté de donner une définition en 2006) qui repose sur le concept de web sémantique avec le découpage suivant qui est communément admis :
Web 1.0 = plateforme pour les documents
Web 2.0 = plateforme pour les individus
Web 3.0 = plateforme pour les données
A la vue du chantier titanesque que représente la re-sémantisation du web (nous parlons d’un horizon à 5 ou 10 ans) et des avancées dans d’autres domaines, Tim O’Reilly et John Battelle ont proposé une appellation intermédiaire lors du dernier Web 2.0 Summit : Web Squared: Web 2.0’s Successor?
L’idée étant de regrouper différentes avancées majeures derrière un terme unique pour pouvoir capitaliser dessus et évangéliser le marché. D’où la nouvelle notion de Web² (Web au carré, “Web Squared” en anglais) qui étend la portée du web 2.0 au-delà de la frontière des ordinateurs et des utilisateurs pour lui trouver des domaines d’application dans le monde réel, comprenez par là le terrain.
Le Web² est donc présenté comme un complément du Web 2.0, une forme de maturation qui va tranquillement nous mener vers la prochaine itération majeure (le fameux Web 3.0 dont les contours sont encore flous). Plusieurs notions fondamentales sont citées dans ce schéma que je vais essayer de vulgariser.
Implied Metadata : des métadonnées générées automatiquement et des systèmes auto-apprenants
Le web est aujourd’hui une véritable mine d’or d’informations. A tel point que le commun du mortel est confronté au problème d’infobésité : une surabondance d’informations qui perturbe la recherche d’informations à valeur ajoutée. Pour nous aider dans cette tâche de traitement de cette masse colossale d’informations, nous avons besoin de métadonnées (des données qui décrivent les données). Prenons l’exemple d’une photo de la Tour Eiffel, n’importe qui saura que cette photo a été prise à Paris, n’importe quel utilisateur humain mais pas les machines ! Pour qu’un service ou un agent intelligent puisse savoir que telle photo représente la Tour Eiffel et qu’elle a été prise à Paris, il faut lui préciser. Oui mais voilà, c’est un travail laborieux. Heureusement sont apparus des appareils photo numériques capables d’associer tout un tas de données aux photos comme par exemple les coordonnées GPS ou le modèle de l’appareil. Ces données ne sont pas directement accessibles à l’utilisateur mais elles sont disponibles pour qui veut bien se donner la peine de les chercher.
Ce type de métadonnées ne représente aux yeux de l’utilisateur que très peu de valeur, sauf si elles sont collectées et exploitées dans un contexte structurant comme par exemple sur FlickR où il est possible de parcourir les photos de la communauté en fonction de l’endroit où elles ont été prises (sur une carte du monde) ou en fonction du type d’appareil photo. Vous obtenez ainsi un très bon outil d’analyse du parc d’appareils photo numériques en circulation sans que les utilisateurs aient eu à saisir ces données, elle sont implicites (d’où la notion d'”implied metadata“).
Mais cela va plus loin avec les systèmes auto-apprenants qui sont capables de générer des métadonnées à partir de recoupements. Reprenons l’exemple de nos photos numériques : si vous souhaitez les classer en fonction des personnes qui sont prises en photo, il faut toutes les parcourir à la main pour mettre de côté celles qui vous intéressent. Sauf si vous avez recours à un logiciel de reconnaissance faciale qui va faire ce travail à votre place : vous lui donner 2 ou 3 exemples pour qu’il reconnaisse un visage et il vous propose ensuite une liste de suggestions à valider. C’est le principe mis en œuvre par iPhoto 09.
L’article de Tim O’reilly cite l’exemple d’un chauffeur de taxi en Nouvelle-Zelande qui a trouvé un façon très rentable d’exploiter les métadonnées implicites : ce dernier a enregistré pendant 6 semaines un certain nombre de données sur ses courses (nombre de passagers, coordonnées GPS des points de départ et arrivée, conditions climatiques, horaires…), en a fait une compilation puis une analyse afin de déterminer les quartiers le plus rentables en fonction de l’heure de la journée.
Les métadonnées implicites comme facteur de croissance du C.A., une belle promesse, non ? Et il est possible de trouver de nombreux autres domaines d’application grâce aux données potentiellement fournies par des capteurs (votre téléphone ou n’importe quel objet équipé d’une puce RFID ou ZigBee peut faire l’affaire). Il en va de même pour les compteurs intelligents qui vont remonter des données très précieuses sur les habitudes de consommation des foyers (notion de “Smart Electric Grid” possible car chaque appareil émet une signature électrique unique). Ce type d’équipement permet ainsi à votre fournisseur d’énergie de mieux anticiper la consommation (et donc son approvisionnement) ainsi que de vous faire des recommandations pour optimiser votre facture.
Bien évidemment tout ceci est encore en train de se mettre en place mais il semblerait qu’une norme commune soit déjà en train d’émerger : MQTT, un protocole pour standardiser les communications de machine à machine (cf. MQTT Poised For Big Growth – an RSS For Internet of Things?).
L’auteur nous met néanmoins en garde contre l’accumulation de ces données et les problèmes d’exploitation qui peuvent en découler : ce sont des données brutes, elles doivent être traitées et présentées de façon adéquate pour être compréhensibles et représenter une réelle valeur. D’où l’importance de systèmes de visualisation suffisamment souples et intuitifs pour permettre une manipulation aisée. Des services comme Gap Minder nous montrent ainsi la voie : mettre à disposition des données brutes (Ex : Data.gov) et fournir les outils pour les manipuler et en tirer du sens.
Information Shadow : des infos pour chaque objet, personne, lieu…
Autre notion importante, celle d’Information Shadow qui décrit l’ensemble des informations et données associées à un objet, une personne, un lieu, un événement… Ces informations sont disponibles n’importe où (data-on-the-cloud), il suffit juste d’avoir le bon lecteur pour les visualiser. Prenons un exemple que vous connaissez tous : le code barre. En passant un scanner dessus, vous obtenez la désignation, le prix… Même principe pour les mobile tags et autres flashcodes qu’il suffit de prendre en photo avec votre téléphone pour obtenir des infos complémentaires (cinémas les plus proches et horaires pour un film, ressources complémentaires pour un article…). Nous n’en croisons pas beaucoup pour le moment mais attendez-vous à une montée en puissance très rapide grâce notamment à des lecteurs universels comme le BeeTagg Multicode Reader ou à l’impulsion de gros acteurs comme Microsoft avec son Tag.
Autre possibilité et pas des moindres, le recours à des applications de réalité augmentée en situation de mobilité comme celle que propose Layar : en regardant le monde au travers de la caméra de votre téléphone, vous avez accès à une multitude de couches de données supplémentaires qui viennent enrichir la réalité.
Exemple d’application de réalité augmentée avec Layar
Ce ne sont que des exemples et encore une fois les domaines d’application sont nombreux, de même que les supports.
Real-Time Web : informations et interactions sociales en quasi temps réel
Autre phénomène majeur de ces derniers mois, l’avènement du web temps réel avec notamment les outils de microblogging comme Twitter. L’idée derrière cette notion est que les outils mis à la disposition de la foule (accessibles au travers d’un ordinateur ou de terminaux mobiles) permettent l’émergence d’une conscience collective qui réagit en quasi temps réel aux événements extérieurs. Le facteur le plus important dans ce web en temps réel est la remontée d’informations ultra- fraiches directement sur le terrain, comme par exemple lors des dernières manifestations en Iran.
Cela fonctionne aussi bien pour les news que pour les événements (tweets lors de conférences, concerts ou défilé du 14 juillet), pour le marketing (avec des outils de monitoring de la statusphère), pour les interactions sociales avec des solutions de syndication en temps réel comme Echo (cf. Vers des commentaires distribués pour les blogs ?).
Bref, l’échelle de temps est de plus en plus courte et cela s’applique d’autant mieux sur des plateformes sociales à grande échelle. Il y a à ce sujet une théorie très intéressante autour du Synaptic Web (en référence aux synapses qui relient les neurones entre eux) qui décrit les plateformes sociales de type Facebook ou Twitter comme des cerveaux “sociaux” où les membres (les neurones) interagissent en très grand nombre et avec des temps de réaction toujours plus courts (RT, commentaires, notes…). Bref, c’est de l’intelligence collective en quasi temps réel, le tout étant de trouver les bons outils de surveillance / interprétation des ces échanges (pour faire le tri entre bruit et signaux).
Data Ecosystems : des bases de connaissances structurées, ouvertes et universelles
Dernière grosse notion du Web² : les écosystèmes de données qui permettent de relier entre elles des bases de connaissances qui étaient auparavant cloisonnées. Pour comprendre le fonctionnement de ces Data Ecosystems, il me faut d’abord vous expliquer deux notions sous-jacentes : les Linked Data et les Data Sets.
Le terme Linked Data est utilisé pour décrire une méthode de partage et de connexion de données entre elles. Jusqu’à présent, pour relier deux données entre elles il fallait faire un lien depuis une donnée A vers une donnée B avec une URL (ex : Un clic sur ce lien ‘Fred Cavazza‘ mène à mon profil sur LinkedIn). Cette forme de connexion présente de nombreuses contraintes car elle est trop formelle et surtout limitée (un lien ne permet de relier entre elles que 2 données). C’est à la fois très puissant pour les utilisateurs (qui sautent de pages en pages) mais très pauvre pour les machines et agents intelligents (qui doivent parcourir le web dans tous les sens pour lier un grand nombre de données entre elles). L’idée derrière les Linked Data est de proposer un mécanisme plus souple et surtout plus puissant qui repose sur 4 principes :
Utiliser des URIs et non des URLs (un identifiant unique bien qui autorise de la granularité) ;
Utiliser des adresses http pour un accès universel (aussi bien pour les utilisateurs que pour les machines) ;
Structurer les informations sur la ressource à l’aide de métalangage comme RDF ;
Lier ces informations à d’autres données (via des URIs).
Dans les faits : vous avez un article qui parle de Berlin, vous pouvez soit mettre un lien URL sur le mot Berlin qui pointe vers la page Wikipedia (utile pour les utilisateurs mais par pour les machines car ce sont des informations non-structurées), soit mettre un lien URI qui pointe vers les Linked Data de Berlin (avec des données structurées très utiles pour les machines mais bien trop dures à lire pour les utilisateurs).
Ne vous y trompez pas : les Linked Data ne sont pas l’avenir du web semantique, c’est “simplement” une façon de sémantiser le web. Mais je ne voudrais pas m’enliser dans des explications complexes sur les subtilités entre Linked Data et Semantic Web.
Les Data Sets sont des groupes de données qui sont connectées entre eux (les groupes). Pour faire simple : IMDB est une gigantesque base de données sur l’industrie du cinéma, par contre elle n’est pas nécessairement ouverte à l’extérieure (il faut avoir un compte premium il me semble). Les Data Sets sont des bases de données qui sont liées entre elles grâce aux Linked Data, chaque donnée enrichit les autres et multiplie ainsi la valeur du tout. Fabrice Epelboin donne une très belle métaphore dans son article : « Les données étaient autrefois enfermées, comme des fleurs dans des serres. Ce que l’on propose ici, c’est de les faire pousser en plein air, de façon à ce qu’une multitude d’abeilles non seulement se chargent de la polénisation pour le compte des fleuristes, mais qu’on puisse créer du miel et la profession d’apiculteur ».
Bien évidemment cela représente un chantier titanesque mais les travaux progressent à grand pas, notamment sous l’impulsion de Sir Tim Berners Lee dont vous pouvez voir ici une présentation parlant des Linked Data au TED :
L’objectif des Data Ecosystems est donc de créer de gigantesques bases de bases de données, ou plutôt une méta base de données qui les regroupe toutes :
L’idée étant que l’on puisse créer de la valeur en liant des données de différents horizons (médicales, culturelles…). Signalons ainsi des initiatives remarquables comme :
dbPedia, une communauté qui se charge de structurer les informations de Wikipedia en données “compatibles” avec Linked Data (regardez donc le cadre à droite de certaines fiches, les infobox, ce sont des données tructurées) ;
Jamendo, une plateforme musicale entièrement en Creative Commons qui a publié son catalogue sous forme de Data Sets / Linked Data (exploitables avec dbTunes).
Ce ne sont que quelques exemples mais ils témoignent de l’ampleur de la tâche et de l’engagement des membres.
Vous l’aurez donc compris, le web sémantisé n’est pas pour tout de suite mais les différents grands acteurs se mettent en rang pour terminer cette conversion au plus vite. Linked Data et Data Sets ne sont qu’un exemple d’initiatives concourant à la création de Data Ecosystems mais il en existe d’autres comme par exemple le format CommonTag qui vise à standardiser l’utilisation des tags (cf. Common Tag apporte un standard aux métadonnées).
Pourquoi parler du Web Squared ?
Tout simplement parce qu’il est inimaginable de penser évangéliser le marché avec des termes jargonnant comme Information Shadow, Linked Data, Implied Metadata… il faut employer un terme simple qui puisse aider le commun des mortels à comprendre que nous sommes en train de vivre une nouvelle bascule (tout comme cela a été le cas avec le Web 2.0).
Je suis persuadé que nous sommes pratiquement arrivé au bout de ce que le web peut nous offrir en terme de partage de documents / contenus de même que pour les interactions sociales. Il existe encore de nombreux services et domaines d’application à trouver dans ces deux domaines mais nous avons déjà fait le plus gros. Nous sommes déjà en train de vivre la prochaine grosse itération du web : le web en temps réel, la réalité augmentée, les objets communicants, les écosystèmes de données sont des innovations en cours de maturation qui vont complètement bouleverser notre façon de communiquer, consommer, travailler, nous divertir… Bref, un nouveau paradigme des usages du web.
Pour marquer cette itération, nous avons besoin d’éduquer le marché (utilisateurs, annonceurs, opérateurs, pouvoirs publics…) et pour cela il faut pouvoir capitaliser sur un terme simple : le Web² (Web Squared).
Et maintenant ?
Maintenant tout reste à faire ! Ou plus précisément le travail d’évangélisation ne fait que commencer. Je vous engage ainsi à vous familiariser avec ces différentes notions et de prendre le temps d’en tester les applications pour bien appréhender la (r)évolution qui approche.
En ce moment c’est la saison des conférences et l’actualité est particulièrement riche cette semaine avec la 140 Characters Conference à New York et l’Enterprise 2.0 Conference à Boston. Médias sociaux et entreprise 2.0… deux domaines qui suscitent beaucoup de bruit et de créativité mais qui ne se mélangent pas. Une des raisons principale qui fait que ces deux domaines sont jusqu’à présent restés hermétiques est parce qu’ils répondent à des objectifs différents et surtout fonctionnent différemment (notamment dans la motivation et les dynamiques sociales sui régissent les interactions).
C’est dans ce contexte que le Social Business Design fait son apparition avec l’ambition d’unifier ces deux pratiques en une sorte de Théorie du Tout : From Social Media To Social Business Design.
Le Social Business Design est présenté comme une philosophie qui vise à repenser le marketing d’une marque et la collaboration au sein de ses équipes en s’appuyant sur les médias sociaux. Dans ce modèle, tous les acteurs externes et internes sont connectés et capables de contribuer : Taking the leap: Social Business Design.
Pour arriver à ce mode de fonctionnement, les auteurs ont identifiés 4 composantes essentielles :
Ecosystem – Un écosystème au sein duquel l’entreprise évolue, sa cartographie permet d’identifier les acteurs-clés (clients, fournisseurs, partenaires, coopétiteurs…) et les interactions qui les relient ;
Hivemind – Une intelligence collective au service de la créativité, à la fois du côté des clients (qui pourraient être mobilisés au travers de plateformes de suggestions collaboratives) et du côté des collaborateurs (en mettant en commun leurs connaissances et savoir-faire pour les enrichir / compléter) ;
Metafilter – Des mécanismes de filtrage collaboratifs qui permettent de lutter contre l’infobésité (infos froides) et la sur-stimulation (infos chaudes) pour exploiter de façon plus efficace les données internes (des collaborateurs) et externes (des clients) ;
Dynamic Signal – Une écoute en temps réel du marché et de l’organisation (l’entreprise, ses filiales, partenaires…).
C’est en mettant en œuvre ces 4 composantes qu’une entreprise est à même de collecter les bonnes données et de détecter les bons signaux pour évoluer rapidement et s’adapter à un marché toujours plus volatile : Social Business Design and the Real Time Enterprise. L’auteur cite ainsi l’industrie musicale qui n’a pas su évoluer suffisamment vite et se retrouve maintenant dans une impasse.
Voici donc un modèle très intéressant car il fait le pont entre les dynamiques liées au web 2.0, aux médias sociaux et à l’entreprise 2.0 :
Le web 2.0 dans le sens “the web as a platform” qui se décline en un écosystème interne (les collaborateurs, filiales…) et externe (les fournisseurs, partenaires…) ;
Les médias sociaux comme interface entre les clients / prospects et la marque ;
L’entreprise 2.0 comme moteur de la collaboration (fertilisation croisée, circulation dynamique de l’information…).
Bien évidement, tout ceci n’a de sens que si la direction de l’entreprise / marque adhère complètement à ces pratiques et développe les capacités de réaction nécessaires pour bien exploiter ces social insights en adaptant son marketing mix voir son modèle économique (“from conversation to transformation“).
Ce principe de transformation active (un pendant de la “beta perpétuelle“) est également abordée dans cet article qui parle de la maturation des bénéfices à l’appropriation des outils collaboratifs : The Social Software Value Matrix.
Distribué, chaque service ou département possède sa cellule de veille et sa propre “stratégie” ;
Centralisé, un service est entièrement dédié aux médias sociaux et défini la posture de la marque (généralement cette tâche revient au département marketing) ;
Collégial, une équipe est constituée de représentants des différents départements / filiales pour mutualiser les ressources, bien faire circuler l’information et collecter les besoins.
Tout ceci est encore un peu conceptuel mais je suis très sensible à ce modèle de Social Business qui parvient à réunir deux mondes qui ne se cotoyaient pas (les marketeux d’un côté, les pro de l’organisation de l’autre). À suivre…
Voilà un petit bout de temps que je n’avais pas parlé de web 2.0. Entendons-nous bien : quand je parle de web 2.0, je parle de services en ligne qui favorisent l’émergence d’écosystèmes ouverts et extensibles, pas de sites avec “juste” un peu d’Ajax dans l’interface pour faire joli. Je ne sais pas s’il faut y voir un signe des temps (les gens s’adpatent et font face à la crise) en tout cas les marketplaces (“place de marché” en français) sont à l’honneur en ce moment, boostées par la vague des pro-ams (les professional-amateurs).
Il y a tout d’abord Book of Cook, une place de marché qui met en relation les passionnés de cuisine qui veulent arrondir leurs fins de mois et ceux qui n’ont pas envie de payer trop cher pour un restaurateur professionnel : Online marketpace for home-cooked meal.
Le principe est simple : si vous êtes doué en cuisine, vous créez votre fiche en décrivant vos spécialités, ingrédients préférés et tarifs, les utilisateurs vous passent en suite commande de repas que vous préparez chez vous (pour livraison ultérieure) ou directement chez votre hôte (ils ne parlent pas de clients). L’astuce est de jouer avec la proximité (géographique, culinaire…) et les recommandations de la communauté. La plateforme est bien conçue puisqu’elle prend en charge la mise en relation ainsi que la gestion des disponibilités.
Voici donc une excellente initiative pour favoriser le commerce ultra-local et valoriser le talent d’amateurs passionnés.
Là encore le principe est simple : vous remplissez un questionnaire pour déterminer votre profil et vos objectifs, la plateforme vous recommande alors des personnal coachs (mais vous pouvez aussi choisir librement) qui vont établir votre programme de la semaine. La grande différence c’est que tout se passe à distance (par email, téléphone) et en public : vous saisissez les emails de proches qui vont pouvoir suivre vos progrès au travers de récapitulatifs hebdomadaires. Là où le service est intelligent, c’est qu’il vous offre des soupapes de sécurité : vous pouvez déclarer des “irrégularités exceptionnelles” à votre coach (qui essayera de vous responsabiliser sans vous culpabiliser) mais aussi lancer des S.O.S. à vos proches (“j’ai envie d’un kebad !“) qui seront là pour vous empêcher de commettre trop d’entorses à votre régime.
Cette solution est donc diabolique : elle coûte bien moins cher aux clients et permet aux coachs de suivre beaucoup plus de monde en s’appuyant sur la communauté (les proches) pour assurer le soutien de proximité. En prime il existe même une version iPhone : FitOrbit Brings a Personal Trainer to Your iPhone.
Les marketplaces de pro-ams comme solution anti-crise ?
Vous remarquerez que dans les deux cas, le concept sous-jacent est d’assurer une prestation quasi-professionnelle à des tarifs moindres en ayant recours à du personnel non-diplomé mais compétent (cautionné par la communauté). Nous avons donc à faire à des plateformes d’intermédiation pratiquant le crowdsourcing au niveau pro-am. Une solution qui doit intéresser plus d’un américain souhaitant avoir un complément de revenu (ou un revenu principal) dans une économie en reconstruction.
Traduction : c’est de la débrouille 2.0. En France il existe des concepts proches à l’image de Zilok ou de… de quoi déjà ? (vos suggestions sont les bienvenus dans les commentaires)
Manage Cookie Consent
We use cookies to optimize our website and our service.
Functional
Toujours activé
The technical storage or access is strictly necessary for the legitimate purpose of enabling the use of a specific service explicitly requested by the subscriber or user, or for the sole purpose of carrying out the transmission of a communication over an electronic communications network.
Préférences
Le stockage ou l’accès technique est nécessaire dans la finalité d’intérêt légitime de stocker des préférences qui ne sont pas demandées par l’abonné ou l’utilisateur.
Statistics
The technical storage or access that is used exclusively for statistical purposes.Le stockage ou l’accès technique qui est utilisé exclusivement dans des finalités statistiques anonymes. En l’absence d’une assignation à comparaître, d’une conformité volontaire de la part de votre fournisseur d’accès à internet ou d’enregistrements supplémentaires provenant d’une tierce partie, les informations stockées ou extraites à cette seule fin ne peuvent généralement pas être utilisées pour vous identifier.
Marketing
The technical storage or access is required to create user profiles to send advertising, or to track the user on a website or across several websites for similar marketing purposes.