Les leviers d’innovation du web pour les 5 prochaines années

J’étais le mois dernier invité à Montréal pour donner une conférence sur l’avenir du web (le support est disponible ici : A quoi ressemblera le web de demain). Un sujet périlleux, car il est toujours difficile de faire le bon dosage entre anticipation (les tendances qui vont se concrétiser l’année prochaine) et futurologie (ce que nous devions être en mesure de faire dans 10 ans si le rythme d’innovation se poursuit). Je me suis tout de même prêté volontiers à cet exercice de style, car les ingrédients du web de demain sont déjà là. Comprenez par là qu’en décortiquant les bons signaux, vous pouvez avoir une vision assez fiable de ce à quoi vont ressembler les usages en 2015.

Du web 1.0 au web 3.0

Le moins que l’on puisse dire, c’est qu’en 10 ans, tout à changé… ou pas ! Si vous regardez dans le détail l’offre de deux piliers du web comme Amazon et Ebay, vous vous rendrez compte que les fondamentaux sont les mêmes. Certes, vous pourriez me dire qu’avec Facebook et Twitter nous sommes rentrés de plein fouet dans la révolution digitale, celle qui renverse les dictateurs et génère des centaines de milliards de dollars, mais vous pourriez aussi reconnaitre que la transformation du web s’apparente plus à un enrichissement. Comprenez par là que de nouveaux usages se développent, mais qu’ils se cumulent avec les anciens, du moins pour le grand public.

Je pense ne pas me tromper en disant que l’histoire du web s’écrit par cycles de 5 ans marqués par la domination d’acteurs sur-puissants. Les années 2000 ont ainsi été dominées par les portails (Yahoo, MSN, AOL…) qui concentraient l’audience avec une offre exhaustive de contenus et de services. Les années 2005 ont été marquées par la domination des moteurs de recherche et en particulier de Google avec plus de 80% de parts de marché (et un écosystème très dense qui vivait et vit encore des mots-clés). Les années 2010, dans lesquels nous nous trouvons, sont marquées par la domination des plateformes sociales et notamment de Facebook qui s’impose comme le poids lourd incontesté de sa catégorie avec 750 millions d’utilisateurs (cf. Rétrospective sur les 3 dernières années de Facebook).

Puisque nous évoquons l’histoire de l’évolution du web, impossible de faire l’impasse sur les grands stades d’évolution (aussi bien technologiques que d’usages) :

  • Le web 1.0 était surtout centré sur les documents, il a vu se généraliser des outils comme l’email, des acteurs comme les portails de contenu ainsi que le commerce en ligne ;
  • Le web 2.0 est centré sur les utilisateurs, il se caractérise par la généralisation des réseaux sociaux, l’avènement des contenus générés par les utilisateurs, les pratiques de social shopping et de nombreuses innovations autour des API et mashups ;
  • Le web squared sera centré sur les données, l’information y circule en temps-réel, les données sont agrégées dans des écosystèmes, qui sont rattachés à tous types d’objets (ombres informationnelles) et générées de façon mécanique (metadonnées implicites) ;
  • Le web 3.0 est encore un concept abstrait, mais on anticipe déjà des usages assistés par des agents intelligents qui exploiteront des contenus sémantiques, où les objets seront communicant et l’information pervasive (accessible depuis n’importe où).
Les grandes étapes d'évolutions du web

J’ai déjà eu l’occasion de m’exprimer sur ces différents stades d’évolution, donc je vous propose de nous intéresser aux facteurs qui vont accélérer la migration d’un stade à un autre.

Quatre leviers d’innovation stimulant de nombreuses pratiques disruptives

Les dernières années ont été riches en bouleversements et transformation des usages. Ces transformations ont été favorisées par de nombreux facteurs, mais il est possible d’identifier quatre leviers d’innovations qui ont bouleversé la façon dont l’information est véhiculée, dont nous consommons des contenus et services, dans nos habitudes d’achats, dans notre façon de collaborer :

  • La mobilité. Les chiffres sont éloquents : 5 milliards de téléphones mobiles, 400 M de smartphones, 40 millions de touchbooks. Les terminaux mobiles prennent une place toujours plus importante dans notre quotidien et vont bientôt dépasser les ordinateurs traditionnels. Non seulement ils nous permettent d’être connectés en permanence, mais ils nous montrent également une autre façon d’appréhender l’outil informatique.
  • Les pratiques sociales. Inutile de vous faire l’article sur l’importance que les médias sociaux ont pris dans les usages en ligne. Non seulement ils concentrent l’audience et l’attention des médias, mais également les budgets publicitaires. Ils modifient également nos attentes et nos comportements d’achat. La rupture sociétale qu’ils induisent a même poussé les médias traditionnels à revoir leur modèle.
  • Le cloud compting. Là encore, je ne souhaite pas me lancer dans une nième explication des impacts et bénéfices de l’informatique distante. Après plusieurs années de croissance spectaculaire, les offres gagnent en maturité et sophistication et nous permettent de nous libérer de nombreuses contraintes.
  • Les données. Avec la banalisation de l’accès à internet et des outils de publication toujours plus simples et performants, il va être créé près de 1,8 zettabytes de données rien qu’en 2011. Un chiffre abstrait pour la plupart d’entre-nous mais qui illustre les dimensions d’une mine d’or encore largement inexploitée.
Les 4 leviers d'innovation du web de demain

A partir de ces quatre leviers, et en les combinant, il est possible d’isoler un certain nombre de pratiques disruptives :

  • Mobile + Social = Géolocalisation. En combinant le nombre de smartphones en circulation et le levier social / communautaire, vous pouvez fournir aux internautes des contenus et services contextualisés en fonction de l’endroit où ils se trouvent et des amis et contacts qui sont passés par là (c’est le principe des placestreams, qui a fait le succès de Foursquare), les commerçants et enseignes de distribution en sont les premiers bénéficiaires.
  • Données + Cloud = Open Data. Les données renferment une très forte valeur ajoutée pour ceux qui savent les interpréter intelligemment et qui exploitent des plages de données suffisamment grandes (notion de Big Data). Les institutions, municipalités, acteurs territoriaux et gouvernements possèdent des masses considérables de données, mais ne les exploitent pas forcément. L’Open Data consiste donc à mettre à disposition dans les nuages des données publiques. L’idée derrière ces initiatives est de permettre aux acteurs qui en ont l’ambition d’exploiter ces données pour en extraire des tendances, des corrélations et de pouvoir ainsi anticiper l’évolution du marché. Pour vous donner un aperçu, je vous recommande de tester Google Correlate.
  • Données + Social = Graphes d’intérêts. Voilà de nombreuses années que les réseaux sociaux nous vantent les mérites de leurs graphes sociaux et de l’intérêt qu’ils représentent en matière de ciblage comportemental. Le problème est que dans un environnement social à forte exposition, les utilisateurs ne se comportent pas tout à fait de façon cohérente. Par opposition aux graphes sociaux (ceux que vous connaissez ou prétendez connaitre), les graphes d’intérêts se focalisent sur ce que vous aimez (ou ce que vous n’aimez pas) et sur les comportements adoptés par les personnes ayant les mêmes centres d’intérêt que vous. Il en résulte des moteurs de recommandation bien plus pertinents et surtout auto-apprenant.
  • Cloud + Mobile = Personnal cloud. L’informatique distante envahie petit à petit le monde de l’entreprise et fait prendre conscience aux DSI tout l’intérêt de ne pas héberger sois-même ses données (disponibilité, archivage…) et de ne pas maintenir sois-même ses serveurs et applications (économie d’échelle, facilité de mise à jour et déploiement…). Les grands acteurs du web (Google, Amazon, Apple…) partent maintenant à la conquête du grand public avec des offres très attractives pour héberger vos emails, photos, musiques… Non seulement ces offres vous garantissent la pérennité de vos données, elles en facilitent l’accès quel que soit le terminal utilisé, mais elle leur permet surtout de facturer aux clients un service à vie (il est nettement plus rentable d’héberger un fichier MP3 que de le vendre). Google Music, Amazon Cloud Drive, iCloud, et toutes les offres d’acteurs spécialisées (Spotify, Flickr…) vont vous faire oublier votre disque dur.
  • Données + Mobile + Social = Quantified Self. Se connaitre au travers de vos données personnelles, telle est la promesse du Quantified Self qui s’appuie sur les terminaux mobiles pour les capter, sur des services à valeur ajoutée pour les monétiser et sur le levier social pour vous fidéliser. Nouveau phénomène social ou arme ultime de personnalisation des offres ? Il est encore trop tôt pour bien appréhender l’impact de ces pratiques, mais elles en disent long sur notre appropriation de l’outil informatique, des terminaux mobiles et des mécaniques sociales dans notre quotidien.

Cette liste est loin d’être exhaustive, mais elle illustre bien selon moi l’exploitation de ces quatre leviers d’innovation (mobile, social, cloud et données).

Quels défis à relever ?

Nous parlons bien ici d’usages disruptifs en avance de phase par rapport au marché, ils ne touchent que les innovateurs et les adopteurs précoces. Ceci étant dit, j’engage les annonceurs et fournisseurs de contenus / services à s’y intéresser de près, car ils préfigurent les opportunités de demain (sauf si vous vous contentez des mots-clés).

Pour pouvoir exploiter ces usages à votre avantage et bénéficier des opportunités qu’ils offrent, il convient de se mettre dans la bonne disposition d’esprit :

  • Réduire la fracture technologique. Encore une fois, nous parlons d’usages fortement novateurs et disruptifs, ne vous laissez donc pas impressionner par ces nouvelles technologiques dont certaines ne sont pas encore tout à fait au point. L’avenir appartient aux audacieux, si vous vous complaisez dans l’adage « ma grand-mère saura-t-elle le faire fonctionner« , vous n’irez pas bien loin (à moins d’être positionné sur le créneau du tricot,, avec tout le respect que j’ai pour cette pratique).
  • Ne pas avoir peur d’échouer. La culture anglo-saxonne célèbre l’échec comme une preuve d’audace (« Fail often, fail fast« ), contrairement à la culture française qui le pénalise. Si vous vous contentez de jouer les suiveurs réactifs, vous ne parviendrez pas à saisir les meilleures opportunités. Tout est une question de dosage du risque.
  • Miser sur le long terme. Tous les nouveaux usages décrits plus haut sont encore très loin d’être adoptés par le grand public. Il en résulte des tailles de marché très réduites et une rentabilité incertaine. Si vous voulez être certain de gagner de l’argent, misez sur une hausse du prix du pétrole. Si vous voulez par contre vous positionner sur des usages avant-gardiste et véhiculer une image d’innovateur, tournez-vous plutôt vers ces usages prometteurs (tout en maitrisant l’investissement initial et les coûts d’exploitation).

Je conclurais cet article en rappelant une évidence : je ne suis pas devin, mais simplement un observateur averti. Si vous avez identifié d’autres tendances, n’hésitez pas à les partager dans les commentaires.

Web Squared, transition vers le web 3.0 ou nouveau paradigme ?

Voilà maintenant près de 5 ans que l’on parle du web 2.0 (ce terme a pour la première fois été utilisé en 2004 lors du Web 2.0 Summit) et depuis le grand jeu a été de savoir quand arrivera la prochaine itération. Pour faire simple disons que le web 2 .0 était le terme utilisé dans les années 2006/2007 pour décrire un changement majeur dans les usages de l’internet (voir ma dernière définition en date). Ce dernier repose sur deux notions fondamentales: l’intelligence collective, le web comme une plateforme (pour les utilisateurs et les services). Maintenant ce terme est passé de mode et l’on emploie plus volontiers celui de médias sociaux qui sonne moins « informatique » à l’oreille. J’ai également eu l’occasion de faire un panorama des différents services associés aux médias sociaux ainsi que de donner une définition.

L’étape suivante a logiquement été d’anticiper le web 3.0 (dont j’ai également tenté de donner une définition en 2006) qui repose sur le concept de web sémantique avec le découpage suivant qui est communément admis :

  • Web 1.0 = plateforme pour les documents
  • Web 2.0 = plateforme pour les individus
  • Web 3.0 = plateforme pour les données

A la vue du chantier titanesque que représente la re-sémantisation du web (nous parlons d’un horizon à 5 ou 10 ans) et des avancées dans d’autres domaines, Tim O’Reilly et John Battelle ont proposé une appellation intermédiaire lors du dernier Web 2.0 Summit : Web Squared: Web 2.0’s Successor?

L’idée étant de regrouper différentes avancées majeures derrière un terme unique pour pouvoir capitaliser dessus et évangéliser le marché. D’où la nouvelle notion de Web² (Web au carré, « Web Squared » en anglais) qui étend la portée du web 2.0 au-delà de la frontière des ordinateurs et des utilisateurs pour lui trouver des domaines d’application dans le monde réel, comprenez par là le terrain.

Web² = Web 2.0 + World

Les explications autour de ce Web² sont résumées dans l’article fondateur suivant : Web Squared: Web 2.0 Five Years On, mais vous pouvez en trouver une lecture plus synthétique ici : The Evolving Web In 2009: Web Squared Emerges To Refine Web 2.0. C’est d’ailleurs de ce dernier article que je tire ce très bon schéma :

web_squared

 

Le Web² est donc présenté comme un complément du Web 2.0, une forme de maturation qui va tranquillement nous mener vers la prochaine itération majeure (le fameux Web 3.0 dont les contours sont encore flous). Plusieurs notions fondamentales sont citées dans ce schéma que je vais essayer de vulgariser.

Implied Metadata : des métadonnées générées automatiquement et des systèmes auto-apprenants

Le web est aujourd’hui une véritable mine d’or d’informations. A tel point que le commun du mortel est confronté au problème d’infobésité : une surabondance d’informations qui perturbe la recherche d’informations à valeur ajoutée. Pour nous aider dans cette tâche de traitement de cette masse colossale d’informations, nous avons besoin de métadonnées (des données qui décrivent les données). Prenons l’exemple d’une photo de la Tour Eiffel, n’importe qui saura que cette photo a été prise à Paris, n’importe quel utilisateur humain mais pas les machines ! Pour qu’un service ou un agent intelligent puisse savoir que telle photo représente la Tour Eiffel et qu’elle a été prise à Paris, il faut lui préciser. Oui mais voilà, c’est un travail laborieux. Heureusement sont apparus des appareils photo numériques capables d’associer tout un tas de données aux photos comme par exemple les coordonnées GPS ou le modèle de l’appareil. Ces données ne sont pas directement accessibles à l’utilisateur mais elles sont disponibles pour qui veut bien se donner la peine de les chercher.

Ce type de métadonnées ne représente aux yeux de l’utilisateur que très peu de valeur, sauf si elles sont collectées et exploitées dans un contexte structurant comme par exemple sur FlickR où il est possible de parcourir les photos de la communauté en fonction de l’endroit où elles ont été prises (sur une carte du monde) ou en fonction du type d’appareil photo. Vous obtenez ainsi un très bon outil d’analyse du parc d’appareils photo numériques en circulation sans que les utilisateurs aient eu à saisir ces données, elle sont implicites (d’où la notion d' »implied metadata« ).

Mais cela va plus loin avec les systèmes auto-apprenants qui sont capables de générer des métadonnées à partir de recoupements. Reprenons l’exemple de nos photos numériques : si vous souhaitez les classer en fonction des personnes qui sont prises en photo, il faut toutes les parcourir à la main pour mettre de côté celles qui vous intéressent. Sauf si vous avez recours à un logiciel de reconnaissance faciale qui va faire ce travail à votre place : vous lui donner 2 ou 3 exemples pour qu’il reconnaisse un visage et il vous propose ensuite une liste de suggestions à valider. C’est le principe mis en œuvre par iPhoto 09.

iPhoto_Faces

L’article de Tim O’reilly cite l’exemple d’un chauffeur de taxi en Nouvelle-Zelande qui a trouvé un façon très rentable d’exploiter les métadonnées implicites : ce dernier a enregistré pendant 6 semaines un certain nombre de données sur ses courses (nombre de passagers, coordonnées GPS des points de départ et arrivée, conditions climatiques, horaires…), en a fait une compilation puis une analyse afin de déterminer les quartiers le plus rentables en fonction de l’heure de la journée.

Les métadonnées implicites comme facteur de croissance du C.A., une belle promesse, non ? Et il est possible de trouver de nombreux autres domaines d’application grâce aux données potentiellement fournies par des capteurs (votre téléphone ou n’importe quel objet équipé d’une puce RFID ou ZigBee peut faire l’affaire). Il en va de même pour les compteurs intelligents qui vont remonter des données très précieuses sur les habitudes de consommation des foyers (notion de « Smart Electric Grid » possible car chaque appareil émet une signature électrique unique). Ce type d’équipement permet ainsi à votre fournisseur d’énergie de mieux anticiper la consommation (et donc son approvisionnement) ainsi que de vous faire des recommandations pour optimiser votre facture.

Smart_Electricity_Meter

Bien évidemment tout ceci est encore en train de se mettre en place mais il semblerait qu’une norme commune soit déjà en train d’émerger : MQTT, un protocole pour standardiser les communications de machine à machine (cf. MQTT Poised For Big Growth – an RSS For Internet of Things?).

L’auteur nous met néanmoins en garde contre l’accumulation de ces données et les problèmes d’exploitation qui peuvent en découler : ce sont des données brutes, elles doivent être traitées et présentées de façon adéquate pour être compréhensibles et représenter une réelle valeur. D’où l’importance de systèmes de visualisation suffisamment souples et intuitifs pour permettre une manipulation aisée. Des services comme Gap Minder nous montrent ainsi la voie : mettre à disposition des données brutes (Ex : Data.gov) et fournir les outils pour les manipuler et en tirer du sens.

Information Shadow : des infos pour chaque objet, personne, lieu…

Autre notion importante, celle d’Information Shadow qui décrit l’ensemble des informations et données associées à un objet, une personne, un lieu, un événement… Ces informations sont disponibles n’importe où (data-on-the-cloud), il suffit juste d’avoir le bon lecteur pour les visualiser. Prenons un exemple que vous connaissez tous : le code barre. En passant un scanner dessus, vous obtenez la désignation, le prix… Même principe pour les mobile tags et autres flashcodes qu’il suffit de prendre en photo avec votre téléphone pour obtenir des infos complémentaires (cinémas les plus proches et horaires pour un film, ressources complémentaires pour un article…). Nous n’en croisons pas beaucoup pour le moment mais attendez-vous à une montée en puissance très rapide grâce notamment à des lecteurs universels comme le BeeTagg Multicode Reader ou à l’impulsion de gros acteurs comme Microsoft avec son Tag.

MobileTag

Autre possibilité et pas des moindres, le recours à des applications de réalité augmentée en situation de mobilité comme celle que propose Layar : en regardant le monde au travers de la caméra de votre téléphone, vous avez accès à une multitude de couches de données supplémentaires qui viennent enrichir la réalité.

Layar1

Exemple d’application de réalité augmentée avec Layar

Ce ne sont que des exemples et encore une fois les domaines d’application sont nombreux, de même que les supports.

Real-Time Web : informations et interactions sociales en quasi temps réel

Autre phénomène majeur de ces derniers mois, l’avènement du web temps réel avec notamment les outils de microblogging comme Twitter. L’idée derrière cette notion est que les outils mis à la disposition de la foule (accessibles au travers d’un ordinateur ou de terminaux mobiles) permettent l’émergence d’une conscience collective qui réagit en quasi temps réel aux événements extérieurs. Le facteur le plus important dans ce web en temps réel est la remontée d’informations ultra- fraiches directement sur le terrain, comme par exemple lors des dernières manifestations en Iran.

twitter_iran

Cela fonctionne aussi bien pour les news que pour les événements (tweets lors de conférences, concerts ou défilé du 14 juillet), pour le marketing (avec des outils de monitoring de la statusphère), pour les interactions sociales avec des solutions de syndication en temps réel comme Echo (cf. Vers des commentaires distribués pour les blogs ?).

Bref, l’échelle de temps est de plus en plus courte et cela s’applique d’autant mieux sur des plateformes sociales à grande échelle. Il y a à ce sujet une théorie très intéressante autour du Synaptic Web (en référence aux synapses qui relient les neurones entre eux) qui décrit les plateformes sociales de type Facebook ou Twitter comme des cerveaux « sociaux » où les membres (les neurones) interagissent en très grand nombre et avec des temps de réaction toujours plus courts (RT, commentaires, notes…). Bref, c’est de l’intelligence collective en quasi temps réel, le tout étant de trouver les bons outils de surveillance / interprétation des ces échanges (pour faire le tri entre bruit et signaux).

Data Ecosystems : des bases de connaissances structurées, ouvertes et universelles

Dernière grosse notion du Web² : les écosystèmes de données qui permettent de relier entre elles des bases de connaissances qui étaient auparavant cloisonnées. Pour comprendre le fonctionnement de ces Data Ecosystems, il me faut d’abord vous expliquer deux notions sous-jacentes : les Linked Data et les Data Sets.

Le terme Linked Data est utilisé pour décrire une méthode de partage et de connexion de données entre elles. Jusqu’à présent, pour relier deux données entre elles il fallait faire un lien depuis une donnée A vers une donnée B avec une URL (ex : Un clic sur ce lien ‘Fred Cavazza‘ mène à mon profil sur LinkedIn). Cette forme de connexion présente de nombreuses contraintes car elle est trop formelle et surtout limitée (un lien ne permet de relier entre elles que 2 données). C’est à la fois très puissant pour les utilisateurs (qui sautent de pages en pages) mais très pauvre pour les machines et agents intelligents (qui doivent parcourir le web dans tous les sens pour lier un grand nombre de données entre elles). L’idée derrière les Linked Data est de proposer un mécanisme plus souple et surtout plus puissant qui repose sur 4 principes :

  • Utiliser des URIs et non des URLs (un identifiant unique bien qui autorise de la granularité) ;
  • Utiliser des adresses http pour un accès universel (aussi bien pour les utilisateurs que pour les machines) ;
  • Structurer les informations sur la ressource à l’aide de métalangage comme RDF ;
  • Lier ces informations à d’autres données (via des URIs).

Dans les faits : vous avez un article qui parle de Berlin, vous pouvez soit mettre un lien URL sur le mot Berlin qui pointe vers la page Wikipedia (utile pour les utilisateurs mais par pour les machines car ce sont des informations non-structurées), soit mettre un lien URI qui pointe vers les Linked Data de Berlin (avec des données structurées très utiles pour les machines mais bien trop dures à lire pour les utilisateurs).

Berlin_dbPedia

Ne vous y trompez pas : les Linked Data ne sont pas l’avenir du web semantique, c’est « simplement » une façon de sémantiser le web. Mais je ne voudrais pas m’enliser dans des explications complexes sur les subtilités entre Linked Data et Semantic Web.

Les Data Sets sont des groupes de données qui sont connectées entre eux (les groupes). Pour faire simple : IMDB est une gigantesque base de données sur l’industrie du cinéma, par contre elle n’est pas nécessairement ouverte à l’extérieure (il faut avoir un compte premium il me semble). Les Data Sets sont des bases de données qui sont liées entre elles grâce aux Linked Data, chaque donnée enrichit les autres et multiplie ainsi la valeur du tout. Fabrice Epelboin donne une très belle métaphore dans son article : « Les données étaient autrefois enfermées, comme des fleurs dans des serres. Ce que l’on propose ici, c’est de les faire pousser en plein air, de façon à ce qu’une multitude d’abeilles non seulement se chargent de la polénisation pour le compte des fleuristes, mais qu’on puisse créer du miel et la profession d’apiculteur ».

Bien évidemment cela représente un chantier titanesque mais les travaux progressent à grand pas, notamment sous l’impulsion de Sir Tim Berners Lee dont vous pouvez voir ici une présentation parlant des Linked Data au TED :

http://video.ted.com/assets/player/swf/EmbedPlayer.swf

L’objectif des Data Ecosystems est donc de créer de gigantesques bases de bases de données, ou plutôt une méta base de données qui les regroupe toutes :

DataSets

L’idée étant que l’on puisse créer de la valeur en liant des données de différents horizons (médicales, culturelles…). Signalons ainsi des initiatives remarquables comme :

  • Le projet Gutenberg, une bibliothèque universelle (sorte de Google Books mais en open source) ;
  • dbPedia, une communauté qui se charge de structurer les informations de Wikipedia en données « compatibles » avec Linked Data (regardez donc le cadre à droite de certaines fiches, les infobox, ce sont des données tructurées) ;
  • Jamendo, une plateforme musicale entièrement en Creative Commons qui a publié son catalogue sous forme de Data Sets / Linked Data (exploitables avec dbTunes).

Ce ne sont que quelques exemples mais ils témoignent de l’ampleur de la tâche et de l’engagement des membres.

Vous l’aurez donc compris, le web sémantisé n’est pas pour tout de suite mais les différents grands acteurs se mettent en rang pour terminer cette conversion au plus vite. Linked Data et Data Sets ne sont qu’un exemple d’initiatives concourant à la création de Data Ecosystems mais il en existe d’autres comme par exemple le format CommonTag qui vise à standardiser l’utilisation des tags (cf. Common Tag apporte un standard aux métadonnées).

Pourquoi parler du Web Squared ?

Tout simplement parce qu’il est inimaginable de penser évangéliser le marché avec des termes jargonnant comme Information Shadow, Linked Data, Implied Metadata… il faut employer un terme simple qui puisse aider le commun des mortels à comprendre que nous sommes en train de vivre une nouvelle bascule (tout comme cela a été le cas avec le Web 2.0).

Je suis persuadé que nous sommes pratiquement arrivé au bout de ce que le web peut nous offrir en terme de partage de documents / contenus de même que pour les interactions sociales. Il existe encore de nombreux services et domaines d’application à trouver dans ces deux domaines mais nous avons déjà fait le plus gros. Nous sommes déjà en train de vivre la prochaine grosse itération du web : le web en temps réel, la réalité augmentée, les objets communicants, les écosystèmes de données sont des innovations en cours de maturation qui vont complètement bouleverser notre façon de communiquer, consommer, travailler, nous divertir… Bref, un nouveau paradigme des usages du web.

Pour marquer cette itération, nous avons besoin d’éduquer le marché (utilisateurs, annonceurs, opérateurs, pouvoirs publics…) et pour cela il faut pouvoir capitaliser sur un terme simple : le Web² (Web Squared).

Et maintenant ?

Maintenant tout reste à faire ! Ou plus précisément le travail d’évangélisation ne fait que commencer. Je vous engage ainsi à vous familiariser avec ces différentes notions et de prendre le temps d’en tester les applications pour bien appréhender la (r)évolution qui approche.

Social Business Design = Web 2.0 + Médias sociaux + Entreprise 2.0

En ce moment c’est la saison des conférences et l’actualité est particulièrement riche cette semaine avec la 140 Characters Conference à New York et l’Enterprise 2.0 Conference à Boston. Médias sociaux et entreprise 2.0… deux domaines qui suscitent beaucoup de bruit et de créativité mais qui ne se mélangent pas. Une des raisons principale qui fait que ces deux domaines sont jusqu’à présent restés hermétiques est parce qu’ils répondent à des objectifs différents et surtout fonctionnent différemment (notamment dans la motivation et les dynamiques sociales sui régissent les interactions).

C’est dans ce contexte que le Social Business Design fait son apparition avec l’ambition d’unifier ces deux pratiques en une sorte de Théorie du Tout : From Social Media To Social Business Design.

SocialBusinessDesign

Le Social Business Design est présenté comme une philosophie qui vise à repenser le marketing d’une marque et la collaboration au sein de ses équipes en s’appuyant sur les médias sociaux. Dans ce modèle, tous les acteurs externes et internes sont connectés et capables de contribuer : Taking the leap: Social Business Design.

Pour arriver à ce mode de fonctionnement, les auteurs ont identifiés 4 composantes essentielles :

  • Ecosystem – Un écosystème au sein duquel l’entreprise évolue, sa cartographie permet d’identifier les acteurs-clés (clients, fournisseurs, partenaires, coopétiteurs…) et les interactions qui les relient ;
  • Hivemind – Une intelligence collective au service de la créativité, à la fois du côté des clients (qui pourraient être mobilisés au travers de plateformes de suggestions collaboratives) et du côté des collaborateurs (en mettant en commun leurs connaissances et savoir-faire pour les enrichir / compléter) ;
  • Metafilter – Des mécanismes de filtrage collaboratifs qui permettent de lutter contre l’infobésité (infos froides) et la sur-stimulation (infos chaudes) pour exploiter de façon plus efficace les données internes (des collaborateurs) et externes (des clients) ;
  • Dynamic Signal – Une écoute en temps réel du marché et de l’organisation (l’entreprise, ses filiales, partenaires…).

C’est en mettant en œuvre ces 4 composantes qu’une entreprise est à même de collecter les bonnes données et de détecter les bons signaux pour évoluer rapidement et s’adapter à un marché toujours plus volatile : Social Business Design and the Real Time Enterprise. L’auteur cite ainsi l’industrie musicale qui n’a pas su évoluer suffisamment vite et se retrouve maintenant dans une impasse.

Voici donc un modèle très intéressant car il fait le pont entre les dynamiques liées au web 2.0, aux médias sociaux et à l’entreprise 2.0 :

  • Le web 2.0 dans le sens « the web as a platform »  qui se décline en un écosystème interne (les collaborateurs, filiales…) et externe (les fournisseurs, partenaires…) ;
  • Les médias sociaux comme interface entre les clients / prospects et la marque ;
  • L’entreprise 2.0 comme moteur de la collaboration (fertilisation croisée, circulation dynamique de l’information…).

Bien évidement, tout ceci n’a de sens que si la direction de l’entreprise / marque adhère complètement à ces pratiques et développe les capacités de réaction nécessaires pour bien exploiter ces social insights en adaptant son marketing mix voir son modèle économique (« from conversation to transformation« ).

Ce principe de transformation active (un pendant de la « beta perpétuelle« ) est également abordée dans cet article qui parle de la maturation des bénéfices à l’appropriation des outils collaboratifs : The Social Software Value Matrix.

SocialSoftwareValueMatrix

Pour prolonger cette réflexion, je vous propose également cet article : Companies Should Organize For Social Media in a “Hub and Spoke” model. L’auteur y liste 3 modèles d’organisation interne pour prendre en compte et exploiter les médias sociaux :

  • Distribué, chaque service ou département possède sa cellule de veille et sa propre « stratégie » ;
  • Centralisé, un service est entièrement dédié aux médias sociaux et défini la posture de la marque (généralement cette tâche revient au département marketing) ;
  • Collégial, une équipe est constituée de représentants des différents départements / filiales pour mutualiser les ressources, bien faire circuler l’information et collecter les besoins.

SocialMediaOrganizations

Tout ceci est encore un peu conceptuel mais je suis très sensible à ce modèle de Social Business qui parvient à réunir deux mondes qui ne se cotoyaient pas (les marketeux d’un côté, les pro de l’organisation de l’autre). À suivre…

Un second souffle pour les marketplaces avec les pro-ams

Voilà un petit bout de temps que je n’avais pas parlé de web 2.0. Entendons-nous bien : quand je parle de web 2.0, je parle de services en ligne qui favorisent l’émergence d’écosystèmes ouverts et extensibles, pas de sites avec « juste » un peu d’Ajax dans l’interface pour faire joli. Je ne sais pas s’il faut y voir un signe des temps (les gens s’adpatent et font face à la crise) en tout cas les marketplaces (« place de marché » en français) sont à l’honneur en ce moment, boostées par la vague des pro-ams (les professional-amateurs).

Il y a tout d’abord Book of Cook, une place de marché qui met en relation les passionnés de cuisine qui veulent arrondir leurs fins de mois et ceux qui n’ont pas envie de payer trop cher pour un restaurateur professionnel : Online marketpace for home-cooked meal.

BookOfCooks_Home

Le principe est simple : si vous êtes doué en cuisine, vous créez votre fiche en décrivant vos spécialités, ingrédients préférés et tarifs, les utilisateurs vous passent en suite commande de repas que vous préparez chez vous (pour livraison ultérieure) ou directement chez votre hôte (ils ne parlent pas de clients). L’astuce est de jouer avec la proximité (géographique, culinaire…) et les recommandations de la communauté. La plateforme est bien conçue puisqu’elle prend en charge la mise en relation ainsi que la gestion des disponibilités.

BookOfCooks_cook

Voici donc une excellente initiative pour favoriser le commerce ultra-local et valoriser le talent d’amateurs passionnés.

Autre exemple avec FitOrbit, une place de marché qui relie des coachs personnels avec ceux qui ont besoin de soutien pour faire de l’exercice : FitOrbit Connects You To Real Personal Fitness Trainers Online.

FitOrbit

Là encore le principe est simple : vous remplissez un questionnaire pour déterminer votre profil et vos objectifs, la plateforme vous recommande alors des personnal coachs (mais vous pouvez aussi choisir librement) qui vont établir votre programme de la semaine. La grande différence c’est que tout se passe à distance (par email, téléphone) et en public : vous saisissez les emails de proches qui vont pouvoir suivre vos progrès au travers de récapitulatifs hebdomadaires. Là où le service est intelligent, c’est qu’il vous offre des soupapes de sécurité : vous pouvez déclarer des « irrégularités exceptionnelles » à votre coach (qui essayera de vous responsabiliser sans vous culpabiliser) mais aussi lancer des S.O.S. à vos proches (« j’ai envie d’un kebad !« ) qui seront là pour vous empêcher de commettre trop d’entorses à votre régime.

Cette solution est donc diabolique : elle coûte bien moins cher aux clients et permet aux coachs de suivre beaucoup plus de monde en s’appuyant sur la communauté (les proches) pour assurer le soutien de proximité. En prime il existe même une version iPhone : FitOrbit Brings a Personal Trainer to Your iPhone.

Les marketplaces de pro-ams comme solution anti-crise ?

Vous remarquerez que dans les deux cas, le concept sous-jacent est d’assurer une prestation quasi-professionnelle à des tarifs moindres en ayant recours à du personnel non-diplomé mais compétent (cautionné par la communauté). Nous avons donc à faire à des plateformes d’intermédiation pratiquant le crowdsourcing au niveau pro-am. Une solution qui doit intéresser plus d’un américain souhaitant avoir un complément de revenu (ou un revenu principal) dans une économie en reconstruction.

Traduction : c’est de la débrouille 2.0. En France il existe des concepts proches à l’image de Zilok ou de… de quoi déjà ? (vos suggestions sont les bienvenus dans les commentaires)

Orange à la conquête du web 2.0

Avec une telle position dominante sur l’accès à internet et la mobilité, Orange ne pouvait pas se permettre de se laisser distancer sur les services en ligne (Wanadoo reste une marque encore très présente dans la tête des clients). Il a fallu un certain temps aux équipes pour s’organiser (en témoignent des services peu inspirés comme BubbleTop ou My BE) mais il semblerait qu’Orange ait maintenant atteint une vitesse de croisière confortable avec en moyenne un nouveau service en ligne tous les deux mois (voir plus quand ils sont en forme).

orange_home

Non ceci n’est pas un billet sponsorisé mais plutôt ma modeste contribution pour donner un peu de visibilité à des équipes qui font de gros efforts pour revenir dans la course. Je parle bien de combler un retard, car tous les projets cités plus bas s’inspirent de services existants. Mais c’est tout de même une très bonne chose d’avoir un acteur français avec autant de moyens et d’ambitions.

Mais commençons par le commencement avec une petite clarification sur les différentes entités d’Orange dont sont issus les projets et quelques liens centrés sur l’innovation :

  • Orange Labs qui est en charge de faire de la R&D et de développer des prototypes dans le cadre d’expérimentations (à ne pas confondre avec Lab’Orange) ;
  • L’Explocentre qui est l’incubateur du groupe et qui se charge de monter des projets et d’en tester la viabilité (ils éditent notamment le site BetaExplore) ;
  • Le Technocentre qui intervient dans la phase de finalisation des projets en vue d’un lancement grand public ;
  • Orange Vallée, une filiale qui expérimente, teste et incube également ;
  • Orange Innovation TV, un portail de l’innovation avec différentes chaînes thématiques.

Voilà pour un tour d’horizon rapide de qui fait quoi. Intéressons-nous maintenant aux différents projets avec plus d’une dizaine de services plus ou moins avancés :

  • Djinngo (anciennement Bubbletop) un service de page personnelle accessible sur le web et le mobile avec une fonction de blog intégrée ;

djinngo

  • MaZoneVidéo, un service de partage de vidéos ;mazonevideo
  • Pikeo, un service de partage de photos ;pikeo
  • Katoa, un service de scrapbooking en ligne ;katoa
  • SoundTribes, une communauté musicale qui milite pour la promotion de jeunes talents ;soundtribes
  • WhoseGame, un portail de casual games ;whosegame
  • WorMee, un service de partage de playlists qui est jumelé avec RadioMee ;wormee
  • ComeInMyWorld, un univers virtuel à mi-chemin entre Second Life et Meetic ;cimw
  • HomeLook, un service de surveillance personnelle (pour votre maison) ;homelook
  • 24-24Actu, un moteur de recherche d’actualités multi-support (texte, images, vidéos…) ;
  • Friendize, une plateforme communautaire centrée sur la diffusion d’informations au sein d’espaces privatifs ;
  • Welles, une plateforme de contenus dont on ne connait pas grand chose pour le moment.

Mais ce n’est pas tout puisqu’ils travaillent également sur du hardware :

  • Hello, un ordinateur ultra-simplifié pour les séniors ;

helloorange

  • Tabbee, une tablette PC qui rentre en concurrence avec la TechCrunch Tablet ;orange_tabbee
  • Keanu, une télécommande gestuelle pour manipuler du contenu depuis (en face de) votre télévision.

Ouf ! Voilà donc une belle brochette de projets. Alors oui, vous pourriez me dire qu’ils existent déjà ailleurs (et qu’il ne leur manque plus qu’un service de microblog) mais au risque de me répéter, je pense qu’il n’y a pas 36 façons d’innover : Il faut observer, apprendre, expérimenter et se lancer. D’après ce que j’ai pu voir, les équipes d’Orange sont donc en train de se structurer pour aborder l’innovation de façon industrielle.

Oui c’est moins glamour que le petit génie qui bricole dans sa chambre d’étudiant, mais estimez-vous que nous avons trop d’innovateurs en France pour nous permettre de bouder tous ces efforts ? Bref, pour une fois qu’un industriel français innove à grande échelle dans les services en ligne, ça serait injuste de ne pas en parler. Et en plus ça me change de toujours parler de Google, Facebook et Twitter !

(Merci à Caroline pour m’avoir aidé à préparer ce billet)

Vers un nouveau modèle d’affaire avec l’Entreprise à profit modéré

Credit crunch, crise immobilière-bancaire, récession… à en croire les grands médias, le monde est à genoux. Rassurez-vous il se relèvera (comme il l’a toujours fait) mais cette reconstruction prochaine s’accompagnera d’une forte remise en question du modèle capitaliste comme nous l’avons connu (et qui visiblement a été prit à défaut). Utopie ? Pas tant que ça dans la mesure où les choses commencent à changer.

L3C, le modèle hybride entre « non profit » et « for profit« 

Connaissez-vous la L3C (low-profit limited liability company) ? Il s’agit d’une forme juridique hybride pour les sociétés US qui fait le pont entre le modèle « for profit » (les sociétés commerciales) et le modèle « non-profit » (les associations et fondations). Pourquoi faire le pont entre ces deux modèle ? Pour poser les bases d’un nouveau modèle d’affaires et pour assouplir le modèle « non profit« . Rappelons qu’aux États-Unis ce fameux modèle « non profit » est fortement règlementé car il donne droit à d’importantes réductions fiscales.

Concrètement, une entreprise L3C a bien évidement le droit de faire des bénéfices (comme les sociétés commerciales) mais ce n’est pas sa priorité car elle doit avant tout remplir une mission « sociale » (comme une association ou une fondation). Le capital d’une L3C est composé à 50% de fonds privés et à 50% de fonds associatifs / caritatifs (mécènes). Elle doit également se conformer à un certain nombre de contraintes pour obtenir l’immunité fiscale de l’IRS (le fisc américain). Immunité fiscale ? Oui car les L3C ne payent pas d’impôts, les bénéfices (ou pertes) sont fiscalement assumés par les actionnaires. Ce dispositif est tout récent et encore très limité puisque la loi date d’avril 2008 pour l’état du Vermont et de janvier 2009 pour l’état du Michigan.

En France le contexte est très différent puisque le modèle associatif est beaucoup plus souple (mais fiscalement moins avantageux). Une première tentative d’importation du concept a été réalisée pour donner le concept d’entreprise à capital altruiste. Pour faire simple disons que le principe consiste à donner une part du capital d’une entreprise à une cause humanitaire, environnementale… Nous sommes donc bien loin du modèle L3C, mais il faut bien avouer que cette démarche est délicate : comment réagiraient les donateurs d’une association (ex. La Fondation Abbé Pierre) qui se mettrait à jouer les business angel ?

Pas si simple donc, et pourtant… il y aurait tellement à faire ! Regardez le mal que se donnent des grands groupes comme Total, EDF, Suez ou Renault pour surfer sur la vague Développement Durable. Avec un modèle L3C correctement ficelé (du point de vue fiscal), ils disposeraient d’un levier très puissant pour remplir leurs objectifs « sociaux » tout en optimisant leur fiscalité (joindre l’utile à l’agréable).

1Habitat, la première L3C française ?

C’est là que rentre en scène 1Habitat, une start-up française qui édite et diffuse en ligne des petites annonces immobilières. Pourquoi parler de cette start-up ? Premièrement parce que j’y ai (modestement) contribué et deuxièmement parce qu’elle tente d’adapter le modèle L3C en posant les bases de l’Entreprise à profit modéré.

1Habitat, la première start-up à profit modéré
1Habitat, la première start-up à profit modéré

1Habitat est donc une entreprise hybride qui possède les avantages financiers d’une société commerciale en visant les avantages sociaux d’une structure associative. La mission que 1Habitat s’est fixé est de relever 3 défis :

  1. Rendre plus accessibles les annonces immobilières (d’un point de vue éditorial) ;
  2. Adresser les questions environnementales en valorisant les biens immobiliers éco-compatibles et en limitant les rejets de CO2 ;
  3. Faire preuve de solidarité envers les mal logés.

Donc dans les faits, 1Habitat utilise un alphabet de 150 pictogrammes pour décrire les biens immobiliers afin de faciliter la saisie / lecture et d’atténuer les emphases commerciales (« Coup de coeur« , « atypique« …). De plus, ça facilite grandement la traduction. La plateforme incite fortement les utilisateurs à publier un maximum de photos afin de limiter le nombre de visites (et donc de CO2 rejetés dans l’atmosphère). 1Habitat s’engage également à compenser ses émissions de CO2 et à reverser au moins 5% de son C.A. (et 20% de son bénéfice) à une association luttant contre le mal-logement.

Mieux, cette start-up va plus loin au travers d’engagements économiques, sociaux et environnementaux :

  • Plafonnement des salaires (le plus haut salaire ne peut excéder 9 fois le plus bas salaire) ;
  • Recherche d’un équilibre économique « dynamique » en attirant les investisseurs socialement responsables ;
  • Faire du maintien de l’emploi des collaborateurs un axe stratégique ;
  • Lancer un programme de sensibilisation aux dangers de la pollution de l’air intérieur.

Tout ceci est l’oeuvre de Stéphane Ricol, un entrepreneur acharné qui a décidé de s’investir dans un projet économiquement viable mais socialement et environnementalement engagé. D’où l’Entreprise à profit modéré.

Un débat public pour officialiser l’entreprise hybride

J’imagine que 1Habitat n’est pas un cas isolé et qu’il existe de nombreux entrepreneurs frustrés par la législation française qui fonctionne encore sur un mode très binaire (gagner de l’argent ou ne pas en gagner). Dommage, car il existe pourtant des réflexions intéressantes dans le secteur informatique / conseil comme le wecena, le mécénat de compétences informatiques en intercontrat.

Bref, tout ça pour dire qu’un chantier de réflexion publique s’impose pour créer un nouveau statut juridique permettant à d’autres projets de ce type de voir le jour. Pour cela, il faudrait pouvoir assouplir à la fois la règlementation relative aux dépenses de mécénat (afin de financer les Entreprises à profit modéré) et les charges salariales (afin de les rendre compétitives et financièrement autonomes).

Je me doute bien que ce chantier s’annonce long et complexe, mais depuis que j’entends parler de « repenser le modèle capitaliste », cette notion d’Entreprise à profit modéré pourrait potentiellement être la première mesure concrète à voir le jour. Et qui sait… peut-être qu’un jour nous irons beaucoup plus loin avec des salaires versés en Open Money ou des tickets pour restos bio ;-)

Livre dont vous êtes le héros + Web 2.0 = Protagonize

Je souhaiterais vous parler ce matin de mon coup de coeur de la semaine (avec un an de retard) : Protagonize, un site d’écriture collaborative de livres en ligne. Il existe déjà de nombreuses initiatives de livres collaboratifs basés sur un wiki (notamment We Are Smarter Then Me), des films collaboratifs (avec la plateforme CoWriteScript) et même des documentaires collaboratifs (dont le très sérieux LostZombies) mais cette plateforme mérite une attention particulière.

La page d'accueil de Protagonize
La page d'accueil de Protagonize

La plateforme est assez classique dans ses fondamentaux : des catégories, commentaires, notes, tags, favoris, tops et profils des membres. Par contre l’innovation vient de la structure des livres. Il y a des livres à structure linéaire (plusieurs chapitres qui s’enchainent comme Abstinence) qui sont rédigés par un seul auteur qui s’inspire des commentaires des membres :

Un livre à structure linéaire de Protagonize
Un livre à structure linéaire de Protagonize

Et il y a les livres à embranchements multiples (comme les Livres dont vous êtes le héro) auxquels tout le monde peut contribuer comme The East Wallinford Chronicle) :

Un livre à ambranchements multiples dans Protagonize
Un livre à embranchements multiples dans Protagonize

La plateforme est très bien conçue avec beaucoup de pédagogie et d’explications, les possibilités sont nombreuses, le design est particulièrement bien soigné avec un très beau traitement typographique. Bref je suis conquis par ce nouveau concept dont vous trouverez plus d’infos ici : Protagonize, A Collaborative Fiction-Writing Community et  Test Vidéo : Protagonize, le site 2.0 dont vous êtes le héros !.

Je rêve d’un concept similaire importé en France… encore faudrait-il réglé les problèmes potentiels de droits d’auteur et pourquoi d’exploitation commerciale collective (avec redistribution en fonction du degré de participation à l’oeuvre).