LeWeb12, compte-rendu de la première journée – suite

Suite de mon compte-rendu sur les keynotes de cette huitième édition de LeWeb. Pour celles et ceux qui ont raté le premier épisode : LeWeb12, compte-rendu de la première journée.

Les conférences de cette seconde partie de journée parlent un peu moins de l’internet des objets, et font la part belle aux entrepreneurs à succès de la Silicon Valley et d’ailleurs.

Misha Lyalin de Zeptolab

Misha Lyalin dans son costume

J’imagine que, comme moi, vous ne connaissez pas Zeptolab, un studio russe de développement de jeux, mais vous connaissez sûrement leur principale réalisation (Cut the Rope). Son fondateur, Misha Lyalin, a revêtu pour l’occasion son plus beau costume (en référence au costume Angry Birds porté par Loic Lemeur il y a deux ans) :

  • La configuration de marché est très différente dans les pays du BRIC qu’en Occident, les smartphones Android y sont majoritaires ;
  • L’audience des jeux sur smartphones est bien plus large que celle des jeux hardcore, ils essayent de développer des gameplays pour toute la famille ;
  • La vente de jeux est une source de revenus intéressante, mais ils les choses commencent à devenir intéressantes avec le merchandising (ex : les peluches Angry Birds et le petit monstre de Cut the Rope) ;
  • Ils lancent un nouveau jeu (Pudding Monsters) avec l’ambition de proposer un gameplay universel, compréhensible immédiatement par n’importe qui (un travail créatif bien plus complexe qu’il n’y parait : simple to understand, hard to master) ;
  • Le merchandising est indispensable pour trouver des clients en dehors des app stores où la compétition est très (trop ?) intense ;
  • Les  applications natives ne vont pas disparaitre, car elles proposent de loin la meilleure expérience, par contre, elles impliquent un coût de développement qui augmente de façon exponentielle avec le nombre de plateformes visées, donc un ROI beaucoup plus complexe. HTML5 est donc un remède à ce problème de rentabilité, car les web app permettent de cibler tous les smartphones et tablettes, idéalement il faut les deux.

Phil Libin de Evernote

Phil Libin de Evernote

Phil Libin est là pour nous parler du succès de Evernote et de sa stratégie de diversification :

  • Ils ont 45 M d’utilisateurs pour moins d’une cinquantaine d’employés ;
  • Ils ont plus d’1 M d’utilisateurs dans une dizaine de pays, 800K en France ;
  • 90% des utilisateurs s’en servent comme pense-bête, 15% d’utilisateurs sont des comptes pro (Evernote Business) ;
  • Ils ont beaucoup travaillé sur la contextualisation des notes qui sont affichées dans vos résultats de recherche Google ou dans le mode de lecture hors-ligne ;
  • Leur ambition est d’aider les utilisateurs à gagner en efficacité (organiser leurs notes et la collaboration avec des collègues) et donc en productivité ;
  • De nouvelles versions majeurs de Skitch, Food et Hello arrivent dans les prochaines semaines ;
  • L’avis de la communauté d’utilisateurs est très important pour identifier vos points faibles (ex : la dernière version de Skitch), mais pas pour trouver des solutions ou pour vous donner des pistes d’innovation ;
  • Eux aussi travaillent le merchandising avec les carnets Moleskine et même les chaussettes officielles (véridique !).

Ben Gomes de Google

Ben Gomes de Google

Ben Gomes travaille dans l’équipe de recherche du moteur :

  • Ils sont très bons dans le traitement des chaines de caractères (strings), mais souhaiteraient apporter une couche d’intelligence à l’index (things), d’où le knowledge graph qui est en train d’être déployé en France ;
  • La première consiste à isoler des entités sémantiques (des sujets), puis de les relier de façon pertinente et contextuelle ;
  • Les spécificités linguistiques sont particulièrement complexes à gérer (le terme football a une signification différente en Angleterre, aux USA et en Australie) ;
  • Les données sémantiques sont principalement collectées de bases de connaissances (semi)-structurées comme Wikipedia ou Freebase ;
  • Leur index gère plus de 30 milliards d’URL, il devient donc urgent de structurer cette base avec une approche sémantique beaucoup plus rigoureuse ;
  • Leur autre challenge du moment est de maitriser la recherche vocale, pour préparer le terrain à de nouveaux types de terminaux (ex : les Google Glass) ;
  • Avec Google Now, ils prennent une direction très différente, car il n’est pas ici question de recherche lancée à partir d’une équation, mais d’anticiper les besoins des utilisateurs (saviez-vous que votre smartphone fait maintenant office de podomètre ?).

Katie Stanton de Twitter

Katie Stanton de Twitter

Katie Stanton est la VP du développement international chez Twitter :

  •  Ils ont déjà 6 bureaux ouverts en dehors des US (Japon, Allemagne, Brésil…), la France sera le prochain marché qui bénéficiera de sont bureau ;
  • Elle reconnait que la France est un marché complexe, surtout avec des entités média très puissantes (chaînes TV, journaux…) ;
  • Ils ont préféré concentrer leurs efforts en Russie plutôt qu’en Chine (où Sina Weibo affiche plusieurs centaines millions de comptes) ;
  • L’actualité est particulièrement riche avec la nouvelle de la grossesse de la princesse Kate et de l’arrivée du Pape sur Twitter ;
  • Ils fournissent à leurs partenaires des analytics très détaillés, mais ne projettent pas de le faire pour les particuliers ;
  • Il y a un ratio de 60/40 entre les producteurs et lecteurs de tweets.

Peter Deng de Facebook

Peter Deng de Facebook

Peter Deng est le directeur des produits de Facebook (les applications nativement proposées sur la plateforme) :

  • Toutes les fonctionnalités ont dû être revues pour être intégrées à l’application mobile ;
  • Le basculement vers le mobile est le plus gros projet de la société depuis le lancement de la plateforme d’applications ;
  • Ils sont en train de finaliser des applications spécifiquement dédiées pour le mobile (ex : Facebook Messenger que l’on peut utiliser simplement avec son N° de téléphone, sans avoir à créer de profil Facebook) ;
  • Ils viennent d’annoncer une nouvelle version majeure pour Android de Facebook Messaging ;
  • Il veut rassurer le marché sur le fait que l’application Messaging n’exploite pas les données personnelles des utilisateurs à des fins de profiling (position géographique, carnet d’adresses…) ;
  • Ils passent beaucoup de leur temps à adapter et améliorer le service pour les téléphones d’entrée de gamme (feature phones).

Dalton Caldwell de App.net

Dalton Caldwell de App.net

Dalton Caldwell est le créateur de App.net, une plateforme permettant de créer des applications sociales à partir de flux d’informations et de données :

  • Avec l’avènement de l’internet des objets, nous allons être littéralement noyés sous une masse d’informations et de données qu’il va falloir traiter, isoler le signal du bruit va être le challenge de ces prochaines années pour les travailleurs du savoir ;
  • Il va devenir de plus en plus complexe de gérer les notifications générées automatiquement par les utilisateurs de services tiers (faut-il blacklister le service ou ces utilisateurs ?) ;
  • Les entreprises peuvent investir dans de puissants mécanismes de filtrage collaboratif ou sémantique, mais comment vont s’en sortir les utilisateurs individuels ?
  • La solution réside dans les services de traitement de flux (ex : Yahoo! Pipes, IFTTT…), Flipboard est également un bel exemple grand public de traitement de flux ;
  • La véritable valeur ajoutée d’un service est de transformer un flux de données.

Adam Wilson de Orbotix

Adam Wilson de Orbotix

Adam Wilson est le fondateur de Orbotix, la société de commercialise la Sphero :

  • Sphero est avant tout une plateforme de jeu plutôt qu’une balle motorisée, ils fournissent à la fois les APIs pour contrôler la balle, mais également la plateforme pour déployer les applications ;
  • Ils ambitionnent de combler le trou entre les jeux exploitant l’environnement réel et ceux reposant sur des environnements virtuels (Découvrez des interfaces tangibles ludiques avec Sphero et Sifteo) ;
  • Ils sont conscients de ne pas avoir les ressources et la force créative pour concevoir une nouvelle génération de jeux, ils se reposent donc largement sur la communauté pour inventer de nouveaux gameplays.

Autant vous dire que je suis très déçu par cette présentation qui ne reflétait vraiment pas le potentiel de ces petites balles.

Carly Gloge de Ubooly

Carly Gloge de Ubooly

Carly Gloge est la fondatrice de Ubooly, une peluche intelligente propulsée par votre smartphone :

  • Les uboolys sont les premiers produits d’une longue série, leur ambition est de servir de support pédagogique et ludique (smart toy) qui s’améliore en s’adaptant au comportement de l’enfant (les tamagochis du XXIe siècle) ;
  • La peluche se sert du micro et de l’accéléromètre pour appréhender son environnement, les interactions reposent sur une intelligence artificielle comparable à Siri.

Là encore je suis très déçu, car il y a tant à dire de cette nouvelle génération de jouets interactifs, auto-apprenant, connectés… mais la démo a été vraiment trop courte (cf. La sophistication des interfaces de tablettes passe-t-elle forcément par des accessoires ?).

Fred Potter de Netatmo

Fred Potter de Netatmo

La dernière présentation de la journée avec Netatmo, une station météo de nouvelle génération, par Frédéric Potter qui est également le fondateur de Withings :

  • De nombreux paramètres sont capturés par leurs stations (températures, taux d’humidité, pression atmosphérique, qualité de l’air, pollution sonore…) et stockés dans les nuages ;
  • La multiplication des sources d’information leur permet d’avoir des données plus précises (mais de façon empirique) que Météo France ;
  • Leur objectif est de constituer un réseau de capteurs permettant d’intensifier la collecte et le partage de données locales ;
  • Ils s’intéressent à toutes les données relatives à la qualité de vie, notamment la pollution sonore (particulièrement dans les grandes villes), et la pollution intérieure (CO2…) ;
  • Les données sont l’ingrédient essentiel à toute amélioration, d’où l’importance de commercer à les collecter.

Phil Busoa de LIFX

Phil Busoa de LIFX

LIFX est un autre projet issu de KickStarter qui commercialise des ampoules intelligentes :

  • 1,3 M de $ ont été levés en 6 jours, la preuve que les ampoules intelligentes intéressent du monde ;
  • Les ampoules n’ont pas beaucoup évolué sur ces cent dernières années, aussi bien sur la technologie d’éclairage que les possibilités d’interaction ;
  • Leur ambition est de proposer des cas d’usage proches de la chromathérapie (améliorer le quotidien et l’humeur des gens grâce à une utilisation plus astucieuse de l’éclairage) ;
  • En plus des applications ludiques (modification de l’ambiance), les ampoules LIFX peuvent également interagir avec des applications tiers (notification en fonction de paramètres prédéfinis comme l’ouverture d’une porte) ;
  • Nous pouvons imaginer d’innombrables possibilités en combinant ces ampoules avec d’autres solutions comme SmartThings vu ce matin ;
  • Ils sont encore en train de peaufiner leur produit avant de passer à la production à grande échelle ;

Ceci conclut donc une journée très riche en présentations et en retours d’expérience, dont vous pouvez voir les rediffusions ici : Watch all the talks from LeWeb12 Day 1. Je n’aurais pas la possibilité d’assister à la seconde journée, mais je serais là pour la troisième (ce jeudi). La journée n’est néanmoins pas terminée, car il va y avoir de nombreuses soirées et apéros dans Paris.

À ce sujet, je vous signale que nous organisons avec Claude Malaison un Yulbiz de clôture de LeWeb ce jeudi 6 au Bon Pêcheur en fin de journée (9 rue des Prêcheurs à Paris, au métro Châtelet Les Halles). Les détails ne sont pas encore tout à fait fixés, mais vous pouvez d’hors et déjà noté ce RDV dans votre agenda.

La suite est ici : Jour 3.

LeWeb12, compte rendu de la première journée

Comme chaque année depuis 8 ans, la Silicon Valley et les entrepreneurs du monde entier se donnent rendez-vous à Paris pour la conférence LeWeb. Le thème de cette année est l’internet des objets. Un thème particulièrement avant-gardiste, quoique pas tout à fait, car les startups françaises ont leur mot à dire : L’internet des objets est en train de se construire avec Sigfox.

LeWeb12-Hall-e1354621487326

Comme c’est la tradition, il pleut, il fait froid et il y a des travaux dans tous les sens. Qu’importe, cela n’entamera pas mon enthousiasme, surtout que la programmation de cette année est particulièrement riche. Les conférences vont être réparties sur trois scènes, mais comme je ne peux pas me dédoubler, je me contenterais de vous relater ce qui se passe sur la scène principale.

Tony Fadell de Nest et Xavier Niel de Free

LeWeb12-Tony-e1354621138563

Première intervention de la journée avec Tony Fadell, qui était entre autres dans l’équipe de conception de l’iPod nous parle du Nest,  son thermostat connecté :

  • Il y a plus de 250M de thermostats aux US, plus que de consoles de jeux, c’est un marché gigantesque, mais personne n’a jamais essayé de les améliorer ;
  • Les produits Apple ont été une grande source d’inspiration pour le Nest (simplicité d’usage, esthétisme, packaging…) ;
  • Il a fallu 15 ans pour connecter les utilisateurs entre eux grâce au web, il faudra aussi de nombreuses années pour que les machines se connectent entre elles à grande échelle, ce n’est qu’une première étape ;
  • Les données collectées par le thermostat permettent d’optimiser la consommation d’énergie en adaptant la température au comportement de ses utilisateurs (notamment l’alternance des jours de semaine et des WE) ;
  • C’est le premier produit intelligent distribué à grande échelle, même dans les chaines de bricolage ;
  • Le produit est présent dans 63 pays alors qu’il n’est officiellement commercialisé que dans 3 pays, ils travaillent donc dur pour accélérer le déploiement international et notamment en Europe ;
  • Philips avait travaillé sur un concept similaire dans les années 90 tournant sous Windows CE, mais le projet a été abandonné ;
  • Mettre sur le marché un terminal truffé d’électronique est beaucoup plus compliqué que ça en a l’air (dans « hardware« , il y a « hard« ), ceci explique le retard constaté ou les échecs de nombreux projets sur KickStarter (NdR : effectivement, je suis toujours en attente de ma montre Pebble) ;
  • Conseils : soyez méthodique et concentré; ne sous-estimez pas les différences de marché entre les US et l’Europe; si c’est trop facile, c’est que vous avez sous-estimé un problème.

Ariel Garten de Interaxon

LeWeb12-Ariel-e1354621196772

Ariel Garten, la patronne canadienne de Interaxon vient nous présenter son bandeau permettant de contrôler par la pensée des ordinateurs :

  • Pourquoi se donner tant de mal à connecter des machines et ne pas essayer de connecter des hommes ?
  • Ils essayent de replacer les humains au centre de leurs préoccupations, pas la technologie ;
  • Cette année ils lancent Muse, leur premier produit grand public  à199$, livré avec un certain nombre d’APIs pour donner la possibilité à la communauté de développeurs de concevoir de nombreuses applications ;
  • Il y a un temps d’adaptation, puis le bandeau va vous permettre de contrôler certains paramètres ou de rajouter un contexte émotionnel à votre usage des TIC (ex : adapter la typos d’un email à l’état émotionnel du rédacteur) ;LeWeb12-Muse-e1354621295686
  • La démonstration était… surréaliste, mais pas forcément plus que les premiers tests d’email ou de SMS, le produit est livré avec une première série de jeux et d’applications  (waaaaaaaant !) ;
  • Ils travaillent avec les membres de l’équipe olympique canadienne pour améliorer leur concertation lors des épreuves.

Benjamin Cichy de la Nasa

LeWeb12-Ben-e1354621338648

Benjamin Cichy est le Software Chief Architect du programme d’exploration de la NASA :

  •  La seule méthode viable pour explorer une planète et son écosystème… est d’y aller, le programme d’exploration de Mars est ains riche en surprise (ex : les traces de chlore trouvé dans la poussière martienne cette semaine) ;
  • Envoyer le robot pathfinder sur Mars en 1997 a été une énorme avancée, car c’est la première planète que les hommes explorent (la lune ne compte pas, car c’est une… lune) ;
  • La NASA a subi deux terribles échecs avant de réussir la « livraison » de Spirit et Opportunity en 2004 ;
  • Les missions d’exploration ont prouvé que les deux ingrédients essentiels à la vie sont présents sur Mars (de l’eau et de l’énergie grâce au soleil) ;
  • La nouvelle itération du rover (Curiosity) est bien plus ambitieuses car une dizaine de nations participent à ce programme, ils ont dû entièrement revoir la conception de la capsule d’entrée et du protocole d’atterrissage car ce rover est bien plus gros (2 mètre par 3) ;LeWeb12-Curiosity-e1354621442144
  • Le logiciel pilotant la séquence d’atterrissage contient 5 millions de lignes de code ;
  • La mission Curiosity est un succès, mais leur taux de réussite n’est que de 33% (bravo pour leur humilité) ;
  • Les enseignements et technologies développées pour ces missions trouveront prochainement des domaines d’application dans nos vies quotidienne et plus particulièrement l’internet des objets.

Jeff Hagins de SmartThings

SmartThings est un projet financé via KickStrater qui commercialise des capteurs et modules intelligents pour la maison :

  • Leur ambition est de construire le physical graph, par analogie avec le social graph et interest graph, afin de faciliter la programmation d’interactions avec les objets du quotidien ;
  •  L’internet des objets repose sur trois piliers : la simplicité d’utilisation (pour les développeurs et les utilisateurs), l’ouverture (utilisation de standards technologiques) et l’intelligence (rendre service au quotidien et non chercher l’exploit technologique) ;
  • Ils commercialisent un ensemble de capteurs et de prises qui communiquent avec des applications disponibles sur leur app store ;
    Démonstration d’une application SmartThings

    LeWeb12-Smartthings-e1354621379115

  • Ils sont pour le moment concentrés sur le perfectionnement de l’environnement de développement et sur le développement de la communauté.

Pour les autres conférences de la journée, ça se passe ici : Suite.

Les leviers d’innovation du web pour les 5 prochaines années

J’étais le mois dernier invité à Montréal pour donner une conférence sur l’avenir du web (le support est disponible ici : A quoi ressemblera le web de demain). Un sujet périlleux, car il est toujours difficile de faire le bon dosage entre anticipation (les tendances qui vont se concrétiser l’année prochaine) et futurologie (ce que nous devions être en mesure de faire dans 10 ans si le rythme d’innovation se poursuit). Je me suis tout de même prêté volontiers à cet exercice de style, car les ingrédients du web de demain sont déjà là. Comprenez par là qu’en décortiquant les bons signaux, vous pouvez avoir une vision assez fiable de ce à quoi vont ressembler les usages en 2015.

Du web 1.0 au web 3.0

Le moins que l’on puisse dire, c’est qu’en 10 ans, tout à changé… ou pas ! Si vous regardez dans le détail l’offre de deux piliers du web comme Amazon et Ebay, vous vous rendrez compte que les fondamentaux sont les mêmes. Certes, vous pourriez me dire qu’avec Facebook et Twitter nous sommes rentrés de plein fouet dans la révolution digitale, celle qui renverse les dictateurs et génère des centaines de milliards de dollars, mais vous pourriez aussi reconnaitre que la transformation du web s’apparente plus à un enrichissement. Comprenez par là que de nouveaux usages se développent, mais qu’ils se cumulent avec les anciens, du moins pour le grand public.

Je pense ne pas me tromper en disant que l’histoire du web s’écrit par cycles de 5 ans marqués par la domination d’acteurs sur-puissants. Les années 2000 ont ainsi été dominées par les portails (Yahoo, MSN, AOL…) qui concentraient l’audience avec une offre exhaustive de contenus et de services. Les années 2005 ont été marquées par la domination des moteurs de recherche et en particulier de Google avec plus de 80% de parts de marché (et un écosystème très dense qui vivait et vit encore des mots-clés). Les années 2010, dans lesquels nous nous trouvons, sont marquées par la domination des plateformes sociales et notamment de Facebook qui s’impose comme le poids lourd incontesté de sa catégorie avec 750 millions d’utilisateurs (cf. Rétrospective sur les 3 dernières années de Facebook).

Puisque nous évoquons l’histoire de l’évolution du web, impossible de faire l’impasse sur les grands stades d’évolution (aussi bien technologiques que d’usages) :

  • Le web 1.0 était surtout centré sur les documents, il a vu se généraliser des outils comme l’email, des acteurs comme les portails de contenu ainsi que le commerce en ligne ;
  • Le web 2.0 est centré sur les utilisateurs, il se caractérise par la généralisation des réseaux sociaux, l’avènement des contenus générés par les utilisateurs, les pratiques de social shopping et de nombreuses innovations autour des API et mashups ;
  • Le web squared sera centré sur les données, l’information y circule en temps-réel, les données sont agrégées dans des écosystèmes, qui sont rattachés à tous types d’objets (ombres informationnelles) et générées de façon mécanique (metadonnées implicites) ;
  • Le web 3.0 est encore un concept abstrait, mais on anticipe déjà des usages assistés par des agents intelligents qui exploiteront des contenus sémantiques, où les objets seront communicant et l’information pervasive (accessible depuis n’importe où).
Les grandes étapes d'évolutions du web

J’ai déjà eu l’occasion de m’exprimer sur ces différents stades d’évolution, donc je vous propose de nous intéresser aux facteurs qui vont accélérer la migration d’un stade à un autre.

Quatre leviers d’innovation stimulant de nombreuses pratiques disruptives

Les dernières années ont été riches en bouleversements et transformation des usages. Ces transformations ont été favorisées par de nombreux facteurs, mais il est possible d’identifier quatre leviers d’innovations qui ont bouleversé la façon dont l’information est véhiculée, dont nous consommons des contenus et services, dans nos habitudes d’achats, dans notre façon de collaborer :

  • La mobilité. Les chiffres sont éloquents : 5 milliards de téléphones mobiles, 400 M de smartphones, 40 millions de touchbooks. Les terminaux mobiles prennent une place toujours plus importante dans notre quotidien et vont bientôt dépasser les ordinateurs traditionnels. Non seulement ils nous permettent d’être connectés en permanence, mais ils nous montrent également une autre façon d’appréhender l’outil informatique.
  • Les pratiques sociales. Inutile de vous faire l’article sur l’importance que les médias sociaux ont pris dans les usages en ligne. Non seulement ils concentrent l’audience et l’attention des médias, mais également les budgets publicitaires. Ils modifient également nos attentes et nos comportements d’achat. La rupture sociétale qu’ils induisent a même poussé les médias traditionnels à revoir leur modèle.
  • Le cloud compting. Là encore, je ne souhaite pas me lancer dans une nième explication des impacts et bénéfices de l’informatique distante. Après plusieurs années de croissance spectaculaire, les offres gagnent en maturité et sophistication et nous permettent de nous libérer de nombreuses contraintes.
  • Les données. Avec la banalisation de l’accès à internet et des outils de publication toujours plus simples et performants, il va être créé près de 1,8 zettabytes de données rien qu’en 2011. Un chiffre abstrait pour la plupart d’entre-nous mais qui illustre les dimensions d’une mine d’or encore largement inexploitée.
Les 4 leviers d'innovation du web de demain

A partir de ces quatre leviers, et en les combinant, il est possible d’isoler un certain nombre de pratiques disruptives :

  • Mobile + Social = Géolocalisation. En combinant le nombre de smartphones en circulation et le levier social / communautaire, vous pouvez fournir aux internautes des contenus et services contextualisés en fonction de l’endroit où ils se trouvent et des amis et contacts qui sont passés par là (c’est le principe des placestreams, qui a fait le succès de Foursquare), les commerçants et enseignes de distribution en sont les premiers bénéficiaires.
  • Données + Cloud = Open Data. Les données renferment une très forte valeur ajoutée pour ceux qui savent les interpréter intelligemment et qui exploitent des plages de données suffisamment grandes (notion de Big Data). Les institutions, municipalités, acteurs territoriaux et gouvernements possèdent des masses considérables de données, mais ne les exploitent pas forcément. L’Open Data consiste donc à mettre à disposition dans les nuages des données publiques. L’idée derrière ces initiatives est de permettre aux acteurs qui en ont l’ambition d’exploiter ces données pour en extraire des tendances, des corrélations et de pouvoir ainsi anticiper l’évolution du marché. Pour vous donner un aperçu, je vous recommande de tester Google Correlate.
  • Données + Social = Graphes d’intérêts. Voilà de nombreuses années que les réseaux sociaux nous vantent les mérites de leurs graphes sociaux et de l’intérêt qu’ils représentent en matière de ciblage comportemental. Le problème est que dans un environnement social à forte exposition, les utilisateurs ne se comportent pas tout à fait de façon cohérente. Par opposition aux graphes sociaux (ceux que vous connaissez ou prétendez connaitre), les graphes d’intérêts se focalisent sur ce que vous aimez (ou ce que vous n’aimez pas) et sur les comportements adoptés par les personnes ayant les mêmes centres d’intérêt que vous. Il en résulte des moteurs de recommandation bien plus pertinents et surtout auto-apprenant.
  • Cloud + Mobile = Personnal cloud. L’informatique distante envahie petit à petit le monde de l’entreprise et fait prendre conscience aux DSI tout l’intérêt de ne pas héberger sois-même ses données (disponibilité, archivage…) et de ne pas maintenir sois-même ses serveurs et applications (économie d’échelle, facilité de mise à jour et déploiement…). Les grands acteurs du web (Google, Amazon, Apple…) partent maintenant à la conquête du grand public avec des offres très attractives pour héberger vos emails, photos, musiques… Non seulement ces offres vous garantissent la pérennité de vos données, elles en facilitent l’accès quel que soit le terminal utilisé, mais elle leur permet surtout de facturer aux clients un service à vie (il est nettement plus rentable d’héberger un fichier MP3 que de le vendre). Google Music, Amazon Cloud Drive, iCloud, et toutes les offres d’acteurs spécialisées (Spotify, Flickr…) vont vous faire oublier votre disque dur.
  • Données + Mobile + Social = Quantified Self. Se connaitre au travers de vos données personnelles, telle est la promesse du Quantified Self qui s’appuie sur les terminaux mobiles pour les capter, sur des services à valeur ajoutée pour les monétiser et sur le levier social pour vous fidéliser. Nouveau phénomène social ou arme ultime de personnalisation des offres ? Il est encore trop tôt pour bien appréhender l’impact de ces pratiques, mais elles en disent long sur notre appropriation de l’outil informatique, des terminaux mobiles et des mécaniques sociales dans notre quotidien.

Cette liste est loin d’être exhaustive, mais elle illustre bien selon moi l’exploitation de ces quatre leviers d’innovation (mobile, social, cloud et données).

Quels défis à relever ?

Nous parlons bien ici d’usages disruptifs en avance de phase par rapport au marché, ils ne touchent que les innovateurs et les adopteurs précoces. Ceci étant dit, j’engage les annonceurs et fournisseurs de contenus / services à s’y intéresser de près, car ils préfigurent les opportunités de demain (sauf si vous vous contentez des mots-clés).

Pour pouvoir exploiter ces usages à votre avantage et bénéficier des opportunités qu’ils offrent, il convient de se mettre dans la bonne disposition d’esprit :

  • Réduire la fracture technologique. Encore une fois, nous parlons d’usages fortement novateurs et disruptifs, ne vous laissez donc pas impressionner par ces nouvelles technologiques dont certaines ne sont pas encore tout à fait au point. L’avenir appartient aux audacieux, si vous vous complaisez dans l’adage « ma grand-mère saura-t-elle le faire fonctionner« , vous n’irez pas bien loin (à moins d’être positionné sur le créneau du tricot,, avec tout le respect que j’ai pour cette pratique).
  • Ne pas avoir peur d’échouer. La culture anglo-saxonne célèbre l’échec comme une preuve d’audace (« Fail often, fail fast« ), contrairement à la culture française qui le pénalise. Si vous vous contentez de jouer les suiveurs réactifs, vous ne parviendrez pas à saisir les meilleures opportunités. Tout est une question de dosage du risque.
  • Miser sur le long terme. Tous les nouveaux usages décrits plus haut sont encore très loin d’être adoptés par le grand public. Il en résulte des tailles de marché très réduites et une rentabilité incertaine. Si vous voulez être certain de gagner de l’argent, misez sur une hausse du prix du pétrole. Si vous voulez par contre vous positionner sur des usages avant-gardiste et véhiculer une image d’innovateur, tournez-vous plutôt vers ces usages prometteurs (tout en maitrisant l’investissement initial et les coûts d’exploitation).

Je conclurais cet article en rappelant une évidence : je ne suis pas devin, mais simplement un observateur averti. Si vous avez identifié d’autres tendances, n’hésitez pas à les partager dans les commentaires.

Le Quantified Self au service de la productivité individuelle et collective

Si les utilisateurs et les interactions sociales qui les relient sont la matière première principale du web sur les 5 dernières années (avec l’avènement des médias sociaux), les années suivantes devront composer avec une autre matière première précieuse : les données (cf. Du contenu roi aux données reines). Les données sont la matière première du géo-marketing, elles permettent d’optimiser l’implantation d’un hypermarché. Elles sont également à la base de l’analyse décisionnelle qui permet de piloter une activité commerciale. Elles permettront bientôt d’adapter notre style de vie et notre comportement à un environnement toujours plus hostile (stress, maladies, bactéries tueuses…).

Non seulement les progrès réalisés par les outils de collecte et de partage vont grandement faciliter la constitution de personal data ecosystems, mais les annonceurs, collectivités et organisations vont nous y inciter, car elles apporteront des réponses aux questions que nous ne nous posons pas encore.

Définition et origines du Quantified Self

Il existe déjà un certain nombre d’articles publiés sur le sujet (dont le très bon interview d’Emmanuel Gadenne : Le Quantified Self : doit-on compter sur soi ?), aussi je vais vous la faire courte : Le Quantified Self est une pratique consistant à collecter des données personnelles et à les partager. Pourquoi ? C’est là toute la question… Le QS est en effet une discipline polymorphe où chacun y trouve son compte, donc avec des motivations et des pratiques différentes. La notion communément admise est la suivante : « Mieux se connaitre au travers des données« .

Les origines sont à chercher dans les journaux intimes et les pratiques de self-tracking. Vous connaissiez déjà des systèmes comme Nike+ ou la Wii Fit, le QS va plus loin en proposant une approche systématique et publique. La publication et le partage de ces données personnelles est en effet ce qui différencie le Quantified Self des autres pratiques (notamment le Self-tracking). Plusieurs facteurs favorisent ce phénomène de publication et de partage : des capteurs plus petits (et des smartphones qui peuvent se substituer à ces capteurs) ; des services permettant de facilement collecter, structurer, partager les données ainsi que de créer des interactions sociales avec les personnes partageant les mêmes objectifs que vous (comme par exemple 42Goals) ; des plateformes sociales qui banalisent l’acte social de partager sa vie (sites de partage de photos, de localisation…).

Fitbit

N’essayez pas de trouver des raisons rationnelles à cette pratique, car c’est avant tout une expérience sociale et humaine. Les entreprises sont en quête perpétuelle de performance, pourquoi pas les individus ? Pour une analyse psycho-sociaux-ethno-techno, je vous recommande la lecture de ces articles : Finalement, documentez-moi, Nos vies gérées par les données et Self-tracking, quand les chiffres parlent.

42goals

N’allez pas pensez que le Quantified Self est une forme dégénérative de narcissisme social, il s’agit simplement d’un mouvement de fond fédérateur. Les motivations des pratiquants sont multiples et je n’ai pas l’ambition de toutes les lister. Mais bon, force est de constater que l’on vérifie plus facilement le niveau d’huile de sa voiture plutôt que sa pression artérielle, cherchez l’erreur…

Exemples de domaines d’application

Comme précisé plus haut, le QS est une meta-discipline qui regroupe des individus aux motivations très diversifiées. Il est ainsi possible d’en identifier quelques-unes :

  • Pour des raisons médicales. Des sites comme CureTogether ou PatientLikeMe permettent ainsi de tisser des liens sociaux entre personnes souffrant des mêmes maladies de longue durée ou suivant le même traitement.
  • Pour se comparer à d’autres. Quoi de plus naturel que de chercher à s’auto-évaluer en se comparant aux autres, aussi bien dans le domaine sportif (RunKeeper, Runtastic), que pour votre gestion quotidienne (PearBudget) ou vos ébats sexuels (BedPost).
  • Pour chercher un soutien moral. Des systèmes comme Withings ou BodyMedia permettent de faciliter la collecte de votre poids et de votre tension, mais une fois les données agrégées, il manque la plateforme sociale pour pouvoir dévoiler vos objectifs personnels et trouver l’entourage social qui va vous aider à les atteindre. Cela peut concerner une perte de poids, mais aussi la diminution de votre dépendance à la cigarette ou à l’alcool (DrinkingDiary). Il existe en fait une infinité de données personnelles à mesurer, des plateformes comme Quantter, Daytum ou LifeMetric vous aide à organiser la collecte de ses données ainsi que leur partage.
  • Par curiosité. Savez-vous combien de musique vous écoutez ou combien de km vous parcourez dans la journée ? Des systèmes comme iTunes ou Google Latitude se proposent de quantifier votre quotidien, juste pour le plaisir.

Cette (petite) liste n’est là que pour illustrer la diversité des motivations de chacun. Vous noterez que les données personnelles collectées peuvent être à la fois des données quantitatives (votre poids) tout comme qualitatives (votre humeur sur Moodscope ou Mappiness). En fait les deux sont utiles pour nous aider à mieux comprendre qui nous sommes et la façon dont nous nous insérons dans notre cercle sociale.

Mappiness

Tout ceci vous paraît abstrait ou psychotique ? C’est normal, la première réaction de celles et ceux qui découvrent cette discipline est invariablement la même : « ces gens ont-ils des problèmes ?« . Pas forcément, et vous ? En faisant un petit travail d’introspection, vous pouvez très facilement identifier des variables d’ajustement dans votre quotidien : Vous avez du sommeil en retard : Combien ? Vous buvez trop de café : Combien ? Vous ne faites pas assez de sport : Combien ?

Quelles applications pour les marques ?

Nous arrivons maintenant à la partie qui fait peur : l’exploitation de toutes ces données personnelles. Plusieurs services existent déjà et proposent une offre complète et bien délimitée, mais nous n’en sommes qu’aux prémices de quelques choses de bien plus ambitieux.

Des plateformes comme Withings ou Zeo apporte un service clé en main avec l’appareil de mesure, le service en ligne d’agrégation et d’archivage des données (cf. How I sleep: random thoughts after using MyZeo to measure my sleep for a few weeks). Jusque-là, rien de très intéressant, si ce n’est pour vous refourguer des pilules du sommeil.

Zeo

Prenons maintenant le cas de BodyMedia. Ils proposent également une offre similaire avec à la fois les appareils pour collecter les données ainsi que le service pour les archiver. Là où ça devient intéressant, c’est qu’ils travaillent en collaboration avec des coaches sportifs ainsi que des professionnels de santé. Nous ne sommes donc plus dans le cadre d’une expérimentation névro-narcissique, mais dans le cadre plus général d’un programme de santé et bien-être. La vente de capteurs devient donc une activité satellite, l’important pour eux est de stocker les données et de faire l’intermédiaire entre les utilisateurs et les professionnels qui vont pouvoir exploiter ces données.

Bodymedia

Avec ce cas de figure, nous voyons bien que l’intérêt ne réside pas dans la vente de capteurs, mais bien dans l’exploitation des données. Certains proposent un système fermé comme Philips avec son DirectLife, d’autres optent pour un système ouvert comme RunKeeper qui permet d’agréger les données : Zeo and Fitbit now integrate with RunKeeper!.

Nous en venons donc au principe de personal data ecosystem. L’idée est de se constituer une base de données personnelles (poids, nombre de cigarettes fumées / de cafés bus, humeur, calories ingurgitées / dépensées, nombre de km parcourus…). Une fois ces données collectées, archivées et mises en forme, vous y autorisez l’accès à des fournisseurs de service qui vont les analyser et vous faire des recommandations et/ou des propositions. Tout comme vous autorisez un site à personnaliser son contenu en fonction de votre graphe social (via Facebook Connect ou autre), il serait possible de personnaliser une offre en fonction de vos données personnelles. Plusieurs éditeurs sont ainsi en compétition pour orchestrer ce partage et faire office de tiers de confiance.

Un acteur comme Quantter s’efforce ainsi de faciliter la collecte des données en proposant des applications pour smartphone, mais également un ingénieux système de collecte via Twitter de type #activity:numberunit (ex: #run:5km). L’intérêt de collecter les données de façon publique via Twitter est d’ouvrir la porte à des annonceurs potentiels (l’éditeur préfère parler de micro-sponsors) qui pourrait très facilement exploiter ça dans le cadre de campagnes avec dotation.

Quantter

Précisons que la collecte et l’archivage de données personnelles est un très gros marché, d’autant plus avec des données médicales. Microsoft et Google sont d’ailleurs déjà positionnés sur ce créneau (respectivement Google Health et Microsoft HealthVault) avec des offres combinant la gestion de données médicales ainsi que les données personnelles lambda. Le scénario tout à fait probable que j’envisage est le suivant : Des services de développement de photos sont déjà intégrés à votre compte Picasa (qui stocke vos photos), votre médecin ou votre coach « santé » pourrait tout à fait exploiter de la même façon vos données stockées sur Google Health. Google gagnerait ainsi de l’argent dans l’acte d’intermédiation et/ou dans l’accès aux données (qui serait payant pour les pros).

Encore plus fort : en déployant son service à grande échelle, Google pourrait amasser une masse considérable de données personnelles sur les utilisateurs. Ils pourraient alors se servir de ces données d’un point de vue macroscopique. Nous pouvons ainsi envisager un service à destination des agences gouvernementales ou des industries pharmaceutiques qui leur donnerait accès à ces données ainsi qu’aux outils d’analyse (l’équivalent de ce que propose Médiamétrie mais pour des données personnelles). Nous parlons bien ici de Data-as-a-Service : un service d’accès et d’exploitation de grandes quantités de données. L’intérêt pour les industriels serait de disposer d’une base de données déjà constituée et de pouvoir les exploiter pour repérer des signaux faibles : des tendances qui ne sont visibles qu’avec de très grandes quantités de données.

Illustration avec Google Correlate, un service qui permet de comparer des séries de données hétérogènes pour essayer d’identifier des corrélations empiriques. Aujourd’hui ce service est alimenté par des données publiques, mais nous pourrions tout à fait envisager une offre plus sophistiquée avec un accès premium offrant des données personnelles anonymisées et des outils d’analyse plus complexes (agents intelligents). À ce petit jeu là, c’est celui qui possèdera la plus grande quantité de données qui raflera la mise. Correction : c’est celui qui possèdera la plus grande quantité de données, l’infrastructure pour les stocker, les outils pour les manipuler et les offres pour les commercialiser qui remportera la mise. Qui d’autre que Google est mieux placé sur ce terrain là ?

Dernière application pour les marques : la connaissance client. Les annonceurs exploitent aujourd’hui trois types de données concernant les clients : l’historique des achats pour le programme de fidélité, le profil et le comportement pour la personnalisation des offres. Des solutions comme Facebook Connect ou AudienceScience (anciennement Wunderloop) facilitent grandement cette tâche de personnalisation des newsletter ou offres. Avoir accès à des gigantesques bases de données personnelles pourrait représenter un gros avantage pour les marques. Prenons l’exemple d’un fabriquant de vêtements, cette base de données lui permettrait d’ajuster les tailles de ses produits en fonction des tendances qu’il peut constater.

Mais nous pouvons aller beaucoup plus loin et envisager un ajustement des campagnes en fonction de critères jusque-là ignorés : l’humeur, la santé financière, le cycle menstruel… Bien évidement, il serait complètement surréaliste de penser que les prospects vont autoriser volontairement les annonceurs à accéder à leurs données personnelles, par contre nous pourrions l’envisager avec des tiers de confiance. Ces intermédiaires seraient en mesure à partir des données personnelles des utilisateurs de sortir un score de réceptivité en quasi-temps réel. Ce score servirait aux annonceurs à avancer ou décaler le lancement d’une campagne pour s’assurer de son succès. Traduction : Les annonceurs payeraient pour savoir si les conditions sont bonnes pour lancer une promotion aujourd’hui ou s’il faut attendre le lendemain ou la fin de semaine.

Vous trouvez le principe effrayant ? Pas moi. Après tout nous parlons d’utilisateurs consentants qui sont bien contents de bénéficier d’un service gratuit de collecte et d’archivage de données personnelles. À partir du moment où ces données sont anonymisées, leur exploitation ne devrait pas poser trop de problèmes éthiques. Pour vous en convaincre, laissez-moi vous rappeler que c’est que fait Google depuis des années : ils exploitent les données issues des recherches ainsi que les statistiques de fréquentation des sites, mais dans la mesure où Google Search et Google Analytics sont gratuits, ça ne dérange personne.

Les données seront la matière première du web 3.0

Le Quantified Self n’est à mon avis que la partie visible de l’iceberg. Le web est un média proposant une incroyable richesse de par la quantité de contenus qui y est disponible. Avec les médias sociaux, cette richesse a été considérablement accrue avec les contenus générés par les utilisateurs. Les données seront un troisième facteur d’enrichissement, elles donneront plus de sens au contenu (data journalism) et permettront de personnaliser l’expérience des internautes (personal data ecosystem).

Les données seront également source de nouvelles interactions sociales : si vous n’êtes pas à l’aise avec l’écrit (pas le courage ou l’assurance pour rédiger un blog), peut-être pourriez-vous trouver un intérêt à faire parler les données pour vous. Des sites comme 42Goals ou Quantter sont en faite des plateformes sociales qui utilisent les données personnelles plutôt que les billets / tweets / photos / … pour générer des interactions sociales entre les membres. Cela peut se faire dans un cadre complètement informel (par curiosité ou narcissisme) ou de façon plus sérieuse (Mooscope envoie ainsi un email à vos amis si votre humeur change radicalement et que vous avez des idées noires).

Les données seront ensuite un levier d’amélioration de la performance, qu’elle soit individuelle (faire plus d’exercice, arrêter de fumer…) ou collective. Les municipalités pourraient ainsi exploiter les checkins de services comme Foursquare ou Gowalla pour identifier les zones à fort trafic et redimensionner les capacités d’accueil ou les transports en commun pour éviter les goulots d’étranglement ; ou des services comme Asthmapolis pour identifier les zones irritantes pour les personnes souffrant d’asthme.

Les données seront enfin très précieuses pour aider les annonceurs à améliorer leur connaissance client à partir de données anonymisées ou à partir de données personnelles fournies volontairement par les prospects / clients pour bénéficier d’une offre mieux ciblée ou plus compétitive.

Encore une fois, tout ceci peut vous sembler abstrait ou effrayant (ou les deux), mais j’ai l’intime conviction que nous sommes au-devant d’une nouvelle révolution, et les données en seront la clé. Rassurez-vous, nous aurons largement l’occasion d’en reparler.

Du contenu roi aux données reines

Souvenez-vous… il y a quelques années, le contenu était considéré comme la matière première du web : Celui qui maîtrisait le contenu maitrisait le web (les portails qui agrégeaient de très nombreuses sources de contenu concentraient également l’audience). Puis il y a eu MySpace, les Skyblogs, Facebook, Twitter, FourSquare… et maintenant il parait que c’est la communauté qui est reine. Certes, les plateformes sociales sont indéniablement en haut des tableaux d’audience, mais je reste convaincu que sans contenus une communauté n’est pas viable. Comprenez par là que ce sont les contenus qui alimentent les conversations et font tourner les communautés. De ce point de vue là, les plateformes sociales ne sont qu’un intermédiaire entre le contenu et les internautes. Un intermédiaire à valeur ajoutée, mais qui présente tout de même une certaine fragilité dans sa pérennisation (cf. De la qualité des contenus sur Facebook).

Sans rentrer dans la polémique, je pense ne pas me tromper en disant que le contenu reste roi, la communauté se nourrit de ce contenu pour générer des interactions sociales (mais là encore il y a des subtilités : Ne confondez plus communautaire et social). La grande question que je me pose est la suivante : Qu’est-ce qui alimente les rédacteurs de ce contenu ? C’est là où les données entrent en scène, non pas les données que les rédacteurs possèdent déjà, mais plutôt les données disponibles publiquement que les internautes peuvent  interroger et manipuler à loisir.

Les données à la base du… journalisme de données

Nous parlons bien ici de données brutes en très grande quantité (des chiffres) qu’il serait trop coûteux de traiter. En les exposant publiquement, ce travail de compilation / trituration / interprétation est déléguée à la communauté qui va ainsi pouvoir nourrir une réflexion ou appuyer des prises de position. Et à ce petit jeu, certains journalistes en ont fait leur spécialité, cela s’appelle du journalisme de données (datajournalism en anglais). L’idée est d’extraire des informations pertinentes de quantités importantes de données.

Pour vous aider à comprendre l’intérêt de cette pratique, amusez-vous à compter le nombre d’articles qui font référence à Google Trends, les statistiques de recherche sont les données sur lesquelles repose toute l’argumentation de ces articles. Autre illustration avec ce graphique très intéressant qui met en évidence les performances extraordinaires (=suspectes) des coureurs du tour de France :

ActuVisu

Ces données sont extraites du portail ActuVisu qui permet justement de manipuler des bases de données (cf. Datajournalisme : du nouveau en France avec ActuVisu). Les données sont dans ce cas de figure la matière première d’une réflexion, ou plutôt d’une investigation. Les possibilités sont nombreuses et la profession se met en marche pour développer de nouvelles compétences dans ce domaine. Pour mieux comprendre ce phénomène, je vous recommande les trois articles suivants : Pourquoi le data-journalisme, c’est l’avenir en marcheQuatre voies du datajournalism et Illusions et malentendus sur le journalisme de données.

Après les portails de contenus, les portails de données

L’exemple français d’ActuVisu illustre une tendance de fond initiée il y a 5 ans avec la fondation GapMinder qui fournit justement un accès à de très nombreuses données et statistiques (leur crédo : « Unveiling the beauty of statistics for a fact based world view« ).

Gapminder

Tout l’intérêt de ce portail est d’une part d’agréger le plus grand nombre de données possible (de préférence en les rendant exploitables et compatibles) ainsi que de fournir un outil simple pour manipuler et visualiser ces données. Il existe d’autres initiatives comme ManyEyes d’IBM, Socrata ou plus modestement Worldmapper. Notez que ces interfaces pour données sont une notion chère à Tim Bernes-Lee (cf. ReadWriteWeb Interview With Tim Berners-Lee, Part 2: Search Engines, User Interfaces for Data, Wolfram Alpha, And More…), preuve que ce sujet est important.

Un créneau très porteur qui intéresse les moteurs de recherche de Google, qui a racheté en 2007 l’outil de visualisation qui propulse GapMinder et qui propose également Google Public Data Explorer dans son labo. Ce rachat fait sens dans la mesure où Google est très certainement un des mieux placé pour collecter les données éparpillées aux 4 coins du web. Reste encore le problème des données non-publiques.

Libération des données publiques avec Open Data

Les initiatives d’Open Data consiste à libéraliser les données publiques pour apporter plus de transparence (à l’image du portail anglais WhereDoesMyMoneyGo?) et pour nourrir des réflexions et projets sociétaux (lire à ce sujet Open Data : des licences libres pour concilier innovation sociale et économique). L’administration américaine a été la première à se lancer en ouvrant le portail Data.gov, suivie par d’autres pays comme l’Angleterre, l’Australie et la Nouvelle-Zélande (cf. Quel modèle pour le data.gov Français ?).

DataUK

Il est important de comprendre que ces initiatives ne sont pas tant une manoeuvre politique ou un outil de surveillance qu’un levier d’innovation pour accélérer l’émergence de nouveaux modèles sociétaux ou de nouveaux projets relatifs à l’environnement, l’éducation, la santé…

Pour le moment le chantier est toujours en cours en France mais des initiatives locales permettent déjà d’accéder à des poches de données : État des lieux de l’OpenData en France.

Les données comme trésor de guerre des moteurs

Comme nous venons de le voir, les données sont donc une matière première particulièrement convoitée. À partir de ce constat, il n’est pas surprenant de voir que les grands moteurs de recherche s’intéressent de près à ces données et cherchent à les exploiter pour apporter une couche d’intelligence aux résultats de recherche. Illustration avec le tout nouveau Bing Shopping qui propose des pages de résultats structurées :

BingShopping

L’idée derrière tout ça est de proposer non pas un moteur de recherche mais un outil d’aide à la décision (cf. New version of Bing Shopping). Et pour structurer des résultats, que faut-il ? Des données ! Autant Microsoft a opté pour des partenariats, autant Google est passé à la vitesse supérieure avec notamment l’acquisition d’ITA, un fournisseur de données touristiques spécialisé sur l’aérien qui va permettre à Google de faire de l’intégration verticale sur ce créneau : With ITA Purchase, Google Now Owns the Skies.

La vente de billets d’avion en ligne est un business très juteux, il est donc normal que Google casse sa tirelire pour blinder sa position. Il y a par contre des secteurs à priori moins rémunérateurs mais pour lesquels un outil de consolidation / manipulation / visualisation des données offrirait une position dominante à son éditeur : L’immobilier, l’emploi, les loisirs (IMDB est un bon exemple de données structurées à valeur ajoutée) ou encore le sport (citons l’exemple de Footbalistic). Je vous recommande à ce sujet l’article de GigaOm qui détaille ces exemples : Who Will Google Buy Next for Structured Data?.

L’idée ici est d’investir dans une base de donnée verticale et de monétiser son exploitation. Constituer une base de données de référence est un chantier titanesque, et seuls les acteurs avec les plus gros moyens peuvent y parvenir. Mais une fois le monopole établi, les possibilités sont nombreuses pour rentabiliser cet investissement. Google Maps est un autre exemple intéressant d’une gigantesque base de données (géographiques) dont nous avons maintenant beaucoup de mal à nous passer et dont le propriétaire a tout le temps pour trouver des solutions de monétisation viables.

Plus intéressant, un article de GigaOm nous révèle que ITA ne se restreint pas au secteur du tourisme aérien mais édite également une solution de manipulation de données accessible sur NeedleBase.comMeet the Web Database Company Google Just Bought. Cette solution ne permet pas de manipuler des données publiques mais de groupes de données dont l’utilisateur a les droits. Toujours est-il que cette solution est à la fois puissante et intuitive, tout ce dont nous avons besoin pour faire du journalisme de données :

NeedleBase

Manipulation de données avec NeedleBase

Tout récemment Google a fait une acquisition qui va dans ce sens en mettant la main sur Metaweb, une gigantesque base de donnée « ouverte » où sont répertoriés 12 million d’entités sémantiques (visibles sur Freebase.com) : Google Acquires ‘Open Database’ Company Metaweb To Enrich Search Results.

Vers des systèmes auto-alimentants

Voici donc la stratégie de Google : Acheter des données avec l’idée de la monétiser une fois que le marché sera devenu dépendant de leur exploitation. Mais sommes-nous réellement dépendant des données ? Vous particulièrement, probablement pas, mais de nombreux aspects de votre quotidien repose sur une exploitation fine de données. Nous pourrions même aller plus loin en disant que l’exploitation des bonnes données pourrait améliorer votre quotidien (cf. Nos vies gérées par les données) ou la productivité d’une entreprise.

Les objets de notre quotidien pourraient ainsi capter un grand nombre de données vous concernant et fournir ainsi des statistiques très précieuses sur votre mode de vie et la façon d’optimiser votre alimentation, vos trajets, votre budget, votre suivi médical… Imaginez alors l’intérêt d’un coach qui serait à même d’interpréter ces données et de vous offrir de précieux conseils pour améliorer votre quotidien. Ces conseils et les données qui en sont à l’origine deviendraient rapidement une drogue pour des hommes et des femmes soucieux de leur bien-être : The upcoming Internet pandemic: data addiction.

Reste encore à régler le problème de la collecte : Seule une minuscule minorité des habitants de cette planète serait d’accord pour s’équiper des outils de mesure de votre quotidien (sommeil, alimentation, exercices physiques, trajets, dépenses…). Une minorité de geeks, sauf si un acteur industriel avec de gros moyens décide de fournir gratuitement les outils de mesure et de collecte en faisant un pari sur l’avenir (et sur la monétisation de ces données). Et cet industriel avide de données, encore une fois c’est Google avec son projet de compteur intelligent PowerMeter.

Google_PowerMeter

Et même si Google ne peut pas remplacer tous les compteurs électriques des pays occidentaux, il peut fournir la plateforme pour consolider les données et les re-publier : Google Releases API for Energy Tool PowerMeter. La promesse de Google est simple : Vous aider à mieux comprendre vos habitudes de consommation pour optimiser vos dépenses… tout en revendant les statistiques aux industriels pour qu’ils puissent développer des appareils ménagers plus en phase avec le mode de vie de ces clients.

Loin de moi l’idée de jouer les paranoïaques et de dénoncer ces pratiques, car si tout le monde y trouve son intérêt il n’y a pas de raison de s’en priver. Il n’empêche que si je fais la somme de tout ce que Google peut potentiellement savoir sur moi, ça commence à faire beaucoup :

  • Mes contacts avec Gmail ou Android (carnet d’adresse + historique des appels) ;
  • Mon profil (âge, parcours…) avec Google Me ;
  • Mes achats avec Checkout ;
  • Mes centres d’intérêt avec l’historique de mes recherches ;
  • Mes déplacements avec Latitude ;
  • Mes loisirs (les programmes TV que je regarde) avec Google TV ;
  • Mes lieux de vacances avec Picasa…

Et ce n’est qu’un début car avec la sémantisation progressive du web, le moteur d’indexation pourra consolider toujours plus de données sur les internautes, mobinautes et même tvnautes. Les données seront donc la matière première à une nouvelle génération d’outils, services et prestations en rapport avec l’amélioration du quotidien de chacun. Des données qui seront l’objet d’une bataille acharnée pour en contrôler la possession, la collecte ou l’exploitation.

J’anticipe donc un web dominé par les contenus et données où Google jouera un rôle prépondérant. Facebook ou Twitter peuvent-ils prétendre à un rôle important dans ce tableau ? J’en doute car il faut des moyens considérables et surtout des appuies industriels et politiques, tout ce qui leur fait défaut actuellement. Longue vie au couple royal !

Les conversations remplaceront-elles les messages ?

Saviez-vous que le premier email avait été envoyé durant les années 60, soit il y a plus de 40 ans. 40 ans… et une bonne partie de notre activité quotidienne en ligne repose toujours sur les emails. Entre temps il y a eu de nombreuses révolutions technologiques ou des usages (web, intranets, web 2.0, médias sociaux…) mais les messages, eux, n’ont pas beaucoup changé dans leur mode de fonctionnement : un expéditeur, un destinataire, un objet et un corps. Avec le temps, les messages sont devenus plus riches (nombreuses possibilités de formatage ou de pièces jointes) mais le fonctionnement est toujours le même.

Là où ça devient problématique c’est quand :

  1. Plus des 2/3 des messages échangés sur la planète sont du spam ;
  2. Il existe une multitude de moyens de communication (tweets, systèmes de messagerie des plateformes sociales…) et que ces derniers font saturer votre attention ;
  3. Votre activité en ligne est répartie entre différents ordinateurs / terminaux.

À partir de ce constat, il devient plus qu’urgent de revoir le mode de fonctionnement de ces messages et de passer à autre chose. Cet autre chose, ce sont les conversations : les conversations privées ou publiques, indexables et archivables, enrichies ou non (contenus riches, fichiers joints, modules applicatifs encapsulés…), éditables ou non.

En fait, quand on y réfléchit bien, le point de bascule est déjà dernière nous avec l’apparition de messages structurés en conversations dans Gmail :

gmail-conversations

Mais ceci n’était qu’un début car les conversations sont petit à petit passées au centre des attentions et ne font qu’entamer un long processus d’évolution.

Et les conversations deviennent publiques

La déferlante des médias sociaux a ainsi apportée une dimension « sociale » aux conversations en les rendant publiques, comprenez par là que certains sites comme Facebook ou Twitter sont devenus des lieux de rencontre où il faut être vu et où chacun écoute les conversations des autres. Les public walls ont donc ressuscité les livres d’or (« guest book » en anglais) des sites perso pour en faire quelque chose de résolument plus intuitif, distribué, visible… plus social quoi ! Notons que ce principe de public wall fonctionne aussi dans le monde professionnel avec les réseaux sociaux d’entreprise.

De même, Twitter a intensifié cette pratique en y rajoutant une dimension temporelle importante avec les conversation publiques en quasi-temps réel (par l’usage des @ et #). Sur ce terrain là, signalons un petit nouveau (Nurphy) qui propose un service de conversation en ligne permettant de mieux gérer les aspects privé / public : Nurphy Wants to Replace Email with Conversations.

Outre les réseaux sociaux, une partie des conversations sont également hébergées par les blogs et leurs commentaires. Pas étonnant que dans cette mouvance nous avons également vu naitre et croitre des services d’agrégation de commentaires comme BackType (cf. Les commentaires au centre de votre graph social) ou Echo (cf. Vers des commentaires distribués pour les blogs ?).

BackType

Mais il y a une limite à cette visibilité à outrance : l’éparpillement. De fait, la prochaine étape de la transformation des conversations va être de les regrouper.

Des conversations unifiées

La messagerie unifiée n’est pas une nouveauté dans le monde de l’entreprise car voilà des années que l’on en parle. Le principe étant de regrouper en un seul endroit les messages (et conversations) en provenance de différents supports : email, messages téléphoniques, SMS… Avec l’avènement des médias sociaux, ce besoin d’unification va se faire également sentir sur le plan personnel. Comprenez par là que nous sommes maintenant saturés d’alertes et autres simili-spams en provenance de réseaux sociaux qui noient notre capacité à répondre à des messages plus importants (provenant de « vrais » amis ou de la famille).

D’où l’intérêt d’unifier tous les messages, alertes, stimuli en provenance des multiples plateformes sociales (email, réseaux sociaux, tweets, messagerie instantanée…) pour pouvoir les trier et surtout les classer. Le but de l’exercice étant de faire ressortir ceux en provenance d’interlocuteurs de choix (votre conjoint, mère…) ou nécessitant une réponse urgente. Un tel système permettrait également de garder le fil d’une conversation s’étalant sur différents supports (démarrée par email puis au téléphone…).

Rajoutez à cela la possibilité d’agréger les messages de tous vos terminaux (ordinateurs, netbook, smartphone, nabaztag…) ainsi que d’y accéder avec n’importe quel terminal et vous obtenez un sacré casse-tête ! Mais à coeur vaillant rien d’impossible, c’est en tout cas ce que se sont dit les équipes de Mozilla qui travaillent sur un projet de messagerie unifiée : Raindrop.

Raindrop

Parler de messagerie unifiée pour ce projet est très réducteur, les équipes le définissent plutôt comme un nouveau système de communication où vous connectez différentes sources (emails, Facebook, Twitter, Skype…), vous définissez des règles de traitement et vous greffez des extensions pour automatiser certaines tâches. Plus d’infos ici : First look: inside Mozilla’s Raindrop messaging platform. Pour le moment ce projet n’en est qu’à ses balbutiements mais il démontre une grande valeur ajoutée et préfigure ce que pourrait être l’avenir de la messagerie unifiée : 4 Reasons Why Mozilla’s Raindrop Matters.

L’avenir de la messagerie unifiée ? Oui à condition d’avoir fait le lien entre messages textuels et messages vocaux. Un mariage à priori impossible tant les difficultés technologiques sont nombreuses. Mais là encore, à co(d)eurs vaillants rien d’impossible puisque Google est en train de déployer aux États-Unis son service Google Voice qui vous propose de retranscrire les messages vocaux en texte : Google Voice Can Now Take Control Of Your Mobile Voicemail.

GoogleVoiceMail

Très pratique pour unifier toutes les formes de conversations, mais également effrayant car la retranscription ne prend pas en compte l’intonation, elle supprime le contexte.

Comme nous l’avons vu un peu plus haut, agréger les conversations n’est que la première étape. Le plus grand bénéfice d’une telle opération est de pouvoir traiter ces conversations voir de les enrichir.

Vers des conversations enrichies

C’est là que rentre en scène Google Wave, le fameux service dont on a beaucoup de mal à faire une définition courte. Et pour cause, Wave se situe à la croisée de nombreux usages et peu être exploitée de nombreuses façons : Google Wave = Email + IM + Wiki + Mashup. En fait il serait très réducteur de considérer Wave comme une évolution de l’email car c’est en fait un projet bien plus ambitieux que ça : Google Wave’s unproductive email metaphors.

Wave

Dans le contexte de la conversation, Wave vous permet de rendre une discussion active en autorisant l’édition, la gestion des modifications et la publication (par encapsulation dans une page web). Nous avons donc un usage plus proche du wiki.

Mais Wave vous permet également d’insérer des modules dans les discussions pour pouvoir l’enrichir et lui donner une dimension applicative : carte, slideshow, sondage… En fait il est possible de créer une infinité d’extensions et de mettre en place des robots auquel vous attribuez des permissions pour pouvoir faire tout un tas de chose à votre place. D’ailleurs nous ne devrions pas tarder à voir apparaitre une place de marché d’extensions pour Wave : Google Wave team talk shop and future.

Mélangez le potentiel des agents intelligents avec la possibilité de publier une discussion sur une page web et vous obtenez une authentique révolution dans votre façon de communiquer, d’interagir, de collaborer, de partager… Si vous avez la chance d’avoir une invitation pour Wave, je vous invite à tester le service en profondeur pour bien vous rendre compte du potentiel disruptif de cette technologie.

Conclusion

Donc au final, l’email est-il mort ? Non bien au contraire, il ne fait qu’entamer une longue série de mutations pour en faire l’outil de communication du 21ème siècle. N’oublions pas que derrière chaque email il y a un ingrédient essentiel (un utilisateur), et cette longue évolution ne devra en aucun cas le perdre en route. Lequel des usages pro ou perso va accélérer cette évolution ? Il est encore trop tôt pour le dire, mais dans tous les cas de figure l’email est condamné à évoluer à moyen terme. Qui s’en plaindra ?

Web Squared, transition vers le web 3.0 ou nouveau paradigme ?

Voilà maintenant près de 5 ans que l’on parle du web 2.0 (ce terme a pour la première fois été utilisé en 2004 lors du Web 2.0 Summit) et depuis le grand jeu a été de savoir quand arrivera la prochaine itération. Pour faire simple disons que le web 2 .0 était le terme utilisé dans les années 2006/2007 pour décrire un changement majeur dans les usages de l’internet (voir ma dernière définition en date). Ce dernier repose sur deux notions fondamentales: l’intelligence collective, le web comme une plateforme (pour les utilisateurs et les services). Maintenant ce terme est passé de mode et l’on emploie plus volontiers celui de médias sociaux qui sonne moins « informatique » à l’oreille. J’ai également eu l’occasion de faire un panorama des différents services associés aux médias sociaux ainsi que de donner une définition.

L’étape suivante a logiquement été d’anticiper le web 3.0 (dont j’ai également tenté de donner une définition en 2006) qui repose sur le concept de web sémantique avec le découpage suivant qui est communément admis :

  • Web 1.0 = plateforme pour les documents
  • Web 2.0 = plateforme pour les individus
  • Web 3.0 = plateforme pour les données

A la vue du chantier titanesque que représente la re-sémantisation du web (nous parlons d’un horizon à 5 ou 10 ans) et des avancées dans d’autres domaines, Tim O’Reilly et John Battelle ont proposé une appellation intermédiaire lors du dernier Web 2.0 Summit : Web Squared: Web 2.0’s Successor?

L’idée étant de regrouper différentes avancées majeures derrière un terme unique pour pouvoir capitaliser dessus et évangéliser le marché. D’où la nouvelle notion de Web² (Web au carré, « Web Squared » en anglais) qui étend la portée du web 2.0 au-delà de la frontière des ordinateurs et des utilisateurs pour lui trouver des domaines d’application dans le monde réel, comprenez par là le terrain.

Web² = Web 2.0 + World

Les explications autour de ce Web² sont résumées dans l’article fondateur suivant : Web Squared: Web 2.0 Five Years On, mais vous pouvez en trouver une lecture plus synthétique ici : The Evolving Web In 2009: Web Squared Emerges To Refine Web 2.0. C’est d’ailleurs de ce dernier article que je tire ce très bon schéma :

web_squared

 

Le Web² est donc présenté comme un complément du Web 2.0, une forme de maturation qui va tranquillement nous mener vers la prochaine itération majeure (le fameux Web 3.0 dont les contours sont encore flous). Plusieurs notions fondamentales sont citées dans ce schéma que je vais essayer de vulgariser.

Implied Metadata : des métadonnées générées automatiquement et des systèmes auto-apprenants

Le web est aujourd’hui une véritable mine d’or d’informations. A tel point que le commun du mortel est confronté au problème d’infobésité : une surabondance d’informations qui perturbe la recherche d’informations à valeur ajoutée. Pour nous aider dans cette tâche de traitement de cette masse colossale d’informations, nous avons besoin de métadonnées (des données qui décrivent les données). Prenons l’exemple d’une photo de la Tour Eiffel, n’importe qui saura que cette photo a été prise à Paris, n’importe quel utilisateur humain mais pas les machines ! Pour qu’un service ou un agent intelligent puisse savoir que telle photo représente la Tour Eiffel et qu’elle a été prise à Paris, il faut lui préciser. Oui mais voilà, c’est un travail laborieux. Heureusement sont apparus des appareils photo numériques capables d’associer tout un tas de données aux photos comme par exemple les coordonnées GPS ou le modèle de l’appareil. Ces données ne sont pas directement accessibles à l’utilisateur mais elles sont disponibles pour qui veut bien se donner la peine de les chercher.

Ce type de métadonnées ne représente aux yeux de l’utilisateur que très peu de valeur, sauf si elles sont collectées et exploitées dans un contexte structurant comme par exemple sur FlickR où il est possible de parcourir les photos de la communauté en fonction de l’endroit où elles ont été prises (sur une carte du monde) ou en fonction du type d’appareil photo. Vous obtenez ainsi un très bon outil d’analyse du parc d’appareils photo numériques en circulation sans que les utilisateurs aient eu à saisir ces données, elle sont implicites (d’où la notion d' »implied metadata« ).

Mais cela va plus loin avec les systèmes auto-apprenants qui sont capables de générer des métadonnées à partir de recoupements. Reprenons l’exemple de nos photos numériques : si vous souhaitez les classer en fonction des personnes qui sont prises en photo, il faut toutes les parcourir à la main pour mettre de côté celles qui vous intéressent. Sauf si vous avez recours à un logiciel de reconnaissance faciale qui va faire ce travail à votre place : vous lui donner 2 ou 3 exemples pour qu’il reconnaisse un visage et il vous propose ensuite une liste de suggestions à valider. C’est le principe mis en œuvre par iPhoto 09.

iPhoto_Faces

L’article de Tim O’reilly cite l’exemple d’un chauffeur de taxi en Nouvelle-Zelande qui a trouvé un façon très rentable d’exploiter les métadonnées implicites : ce dernier a enregistré pendant 6 semaines un certain nombre de données sur ses courses (nombre de passagers, coordonnées GPS des points de départ et arrivée, conditions climatiques, horaires…), en a fait une compilation puis une analyse afin de déterminer les quartiers le plus rentables en fonction de l’heure de la journée.

Les métadonnées implicites comme facteur de croissance du C.A., une belle promesse, non ? Et il est possible de trouver de nombreux autres domaines d’application grâce aux données potentiellement fournies par des capteurs (votre téléphone ou n’importe quel objet équipé d’une puce RFID ou ZigBee peut faire l’affaire). Il en va de même pour les compteurs intelligents qui vont remonter des données très précieuses sur les habitudes de consommation des foyers (notion de « Smart Electric Grid » possible car chaque appareil émet une signature électrique unique). Ce type d’équipement permet ainsi à votre fournisseur d’énergie de mieux anticiper la consommation (et donc son approvisionnement) ainsi que de vous faire des recommandations pour optimiser votre facture.

Smart_Electricity_Meter

Bien évidemment tout ceci est encore en train de se mettre en place mais il semblerait qu’une norme commune soit déjà en train d’émerger : MQTT, un protocole pour standardiser les communications de machine à machine (cf. MQTT Poised For Big Growth – an RSS For Internet of Things?).

L’auteur nous met néanmoins en garde contre l’accumulation de ces données et les problèmes d’exploitation qui peuvent en découler : ce sont des données brutes, elles doivent être traitées et présentées de façon adéquate pour être compréhensibles et représenter une réelle valeur. D’où l’importance de systèmes de visualisation suffisamment souples et intuitifs pour permettre une manipulation aisée. Des services comme Gap Minder nous montrent ainsi la voie : mettre à disposition des données brutes (Ex : Data.gov) et fournir les outils pour les manipuler et en tirer du sens.

Information Shadow : des infos pour chaque objet, personne, lieu…

Autre notion importante, celle d’Information Shadow qui décrit l’ensemble des informations et données associées à un objet, une personne, un lieu, un événement… Ces informations sont disponibles n’importe où (data-on-the-cloud), il suffit juste d’avoir le bon lecteur pour les visualiser. Prenons un exemple que vous connaissez tous : le code barre. En passant un scanner dessus, vous obtenez la désignation, le prix… Même principe pour les mobile tags et autres flashcodes qu’il suffit de prendre en photo avec votre téléphone pour obtenir des infos complémentaires (cinémas les plus proches et horaires pour un film, ressources complémentaires pour un article…). Nous n’en croisons pas beaucoup pour le moment mais attendez-vous à une montée en puissance très rapide grâce notamment à des lecteurs universels comme le BeeTagg Multicode Reader ou à l’impulsion de gros acteurs comme Microsoft avec son Tag.

MobileTag

Autre possibilité et pas des moindres, le recours à des applications de réalité augmentée en situation de mobilité comme celle que propose Layar : en regardant le monde au travers de la caméra de votre téléphone, vous avez accès à une multitude de couches de données supplémentaires qui viennent enrichir la réalité.

Layar1

Exemple d’application de réalité augmentée avec Layar

Ce ne sont que des exemples et encore une fois les domaines d’application sont nombreux, de même que les supports.

Real-Time Web : informations et interactions sociales en quasi temps réel

Autre phénomène majeur de ces derniers mois, l’avènement du web temps réel avec notamment les outils de microblogging comme Twitter. L’idée derrière cette notion est que les outils mis à la disposition de la foule (accessibles au travers d’un ordinateur ou de terminaux mobiles) permettent l’émergence d’une conscience collective qui réagit en quasi temps réel aux événements extérieurs. Le facteur le plus important dans ce web en temps réel est la remontée d’informations ultra- fraiches directement sur le terrain, comme par exemple lors des dernières manifestations en Iran.

twitter_iran

Cela fonctionne aussi bien pour les news que pour les événements (tweets lors de conférences, concerts ou défilé du 14 juillet), pour le marketing (avec des outils de monitoring de la statusphère), pour les interactions sociales avec des solutions de syndication en temps réel comme Echo (cf. Vers des commentaires distribués pour les blogs ?).

Bref, l’échelle de temps est de plus en plus courte et cela s’applique d’autant mieux sur des plateformes sociales à grande échelle. Il y a à ce sujet une théorie très intéressante autour du Synaptic Web (en référence aux synapses qui relient les neurones entre eux) qui décrit les plateformes sociales de type Facebook ou Twitter comme des cerveaux « sociaux » où les membres (les neurones) interagissent en très grand nombre et avec des temps de réaction toujours plus courts (RT, commentaires, notes…). Bref, c’est de l’intelligence collective en quasi temps réel, le tout étant de trouver les bons outils de surveillance / interprétation des ces échanges (pour faire le tri entre bruit et signaux).

Data Ecosystems : des bases de connaissances structurées, ouvertes et universelles

Dernière grosse notion du Web² : les écosystèmes de données qui permettent de relier entre elles des bases de connaissances qui étaient auparavant cloisonnées. Pour comprendre le fonctionnement de ces Data Ecosystems, il me faut d’abord vous expliquer deux notions sous-jacentes : les Linked Data et les Data Sets.

Le terme Linked Data est utilisé pour décrire une méthode de partage et de connexion de données entre elles. Jusqu’à présent, pour relier deux données entre elles il fallait faire un lien depuis une donnée A vers une donnée B avec une URL (ex : Un clic sur ce lien ‘Fred Cavazza‘ mène à mon profil sur LinkedIn). Cette forme de connexion présente de nombreuses contraintes car elle est trop formelle et surtout limitée (un lien ne permet de relier entre elles que 2 données). C’est à la fois très puissant pour les utilisateurs (qui sautent de pages en pages) mais très pauvre pour les machines et agents intelligents (qui doivent parcourir le web dans tous les sens pour lier un grand nombre de données entre elles). L’idée derrière les Linked Data est de proposer un mécanisme plus souple et surtout plus puissant qui repose sur 4 principes :

  • Utiliser des URIs et non des URLs (un identifiant unique bien qui autorise de la granularité) ;
  • Utiliser des adresses http pour un accès universel (aussi bien pour les utilisateurs que pour les machines) ;
  • Structurer les informations sur la ressource à l’aide de métalangage comme RDF ;
  • Lier ces informations à d’autres données (via des URIs).

Dans les faits : vous avez un article qui parle de Berlin, vous pouvez soit mettre un lien URL sur le mot Berlin qui pointe vers la page Wikipedia (utile pour les utilisateurs mais par pour les machines car ce sont des informations non-structurées), soit mettre un lien URI qui pointe vers les Linked Data de Berlin (avec des données structurées très utiles pour les machines mais bien trop dures à lire pour les utilisateurs).

Berlin_dbPedia

Ne vous y trompez pas : les Linked Data ne sont pas l’avenir du web semantique, c’est « simplement » une façon de sémantiser le web. Mais je ne voudrais pas m’enliser dans des explications complexes sur les subtilités entre Linked Data et Semantic Web.

Les Data Sets sont des groupes de données qui sont connectées entre eux (les groupes). Pour faire simple : IMDB est une gigantesque base de données sur l’industrie du cinéma, par contre elle n’est pas nécessairement ouverte à l’extérieure (il faut avoir un compte premium il me semble). Les Data Sets sont des bases de données qui sont liées entre elles grâce aux Linked Data, chaque donnée enrichit les autres et multiplie ainsi la valeur du tout. Fabrice Epelboin donne une très belle métaphore dans son article : « Les données étaient autrefois enfermées, comme des fleurs dans des serres. Ce que l’on propose ici, c’est de les faire pousser en plein air, de façon à ce qu’une multitude d’abeilles non seulement se chargent de la polénisation pour le compte des fleuristes, mais qu’on puisse créer du miel et la profession d’apiculteur ».

Bien évidemment cela représente un chantier titanesque mais les travaux progressent à grand pas, notamment sous l’impulsion de Sir Tim Berners Lee dont vous pouvez voir ici une présentation parlant des Linked Data au TED :

http://video.ted.com/assets/player/swf/EmbedPlayer.swf

L’objectif des Data Ecosystems est donc de créer de gigantesques bases de bases de données, ou plutôt une méta base de données qui les regroupe toutes :

DataSets

L’idée étant que l’on puisse créer de la valeur en liant des données de différents horizons (médicales, culturelles…). Signalons ainsi des initiatives remarquables comme :

  • Le projet Gutenberg, une bibliothèque universelle (sorte de Google Books mais en open source) ;
  • dbPedia, une communauté qui se charge de structurer les informations de Wikipedia en données « compatibles » avec Linked Data (regardez donc le cadre à droite de certaines fiches, les infobox, ce sont des données tructurées) ;
  • Jamendo, une plateforme musicale entièrement en Creative Commons qui a publié son catalogue sous forme de Data Sets / Linked Data (exploitables avec dbTunes).

Ce ne sont que quelques exemples mais ils témoignent de l’ampleur de la tâche et de l’engagement des membres.

Vous l’aurez donc compris, le web sémantisé n’est pas pour tout de suite mais les différents grands acteurs se mettent en rang pour terminer cette conversion au plus vite. Linked Data et Data Sets ne sont qu’un exemple d’initiatives concourant à la création de Data Ecosystems mais il en existe d’autres comme par exemple le format CommonTag qui vise à standardiser l’utilisation des tags (cf. Common Tag apporte un standard aux métadonnées).

Pourquoi parler du Web Squared ?

Tout simplement parce qu’il est inimaginable de penser évangéliser le marché avec des termes jargonnant comme Information Shadow, Linked Data, Implied Metadata… il faut employer un terme simple qui puisse aider le commun des mortels à comprendre que nous sommes en train de vivre une nouvelle bascule (tout comme cela a été le cas avec le Web 2.0).

Je suis persuadé que nous sommes pratiquement arrivé au bout de ce que le web peut nous offrir en terme de partage de documents / contenus de même que pour les interactions sociales. Il existe encore de nombreux services et domaines d’application à trouver dans ces deux domaines mais nous avons déjà fait le plus gros. Nous sommes déjà en train de vivre la prochaine grosse itération du web : le web en temps réel, la réalité augmentée, les objets communicants, les écosystèmes de données sont des innovations en cours de maturation qui vont complètement bouleverser notre façon de communiquer, consommer, travailler, nous divertir… Bref, un nouveau paradigme des usages du web.

Pour marquer cette itération, nous avons besoin d’éduquer le marché (utilisateurs, annonceurs, opérateurs, pouvoirs publics…) et pour cela il faut pouvoir capitaliser sur un terme simple : le Web² (Web Squared).

Et maintenant ?

Maintenant tout reste à faire ! Ou plus précisément le travail d’évangélisation ne fait que commencer. Je vous engage ainsi à vous familiariser avec ces différentes notions et de prendre le temps d’en tester les applications pour bien appréhender la (r)évolution qui approche.