LeWeb12, compte-rendu de la première journée – suite

Suite de mon compte-rendu sur les keynotes de cette huitième édition de LeWeb. Pour celles et ceux qui ont raté le premier épisode : LeWeb12, compte-rendu de la première journée.

Les conférences de cette seconde partie de journée parlent un peu moins de l’internet des objets, et font la part belle aux entrepreneurs à succès de la Silicon Valley et d’ailleurs.

Misha Lyalin de Zeptolab

Misha Lyalin dans son costume

J’imagine que, comme moi, vous ne connaissez pas Zeptolab, un studio russe de développement de jeux, mais vous connaissez sûrement leur principale réalisation (Cut the Rope). Son fondateur, Misha Lyalin, a revêtu pour l’occasion son plus beau costume (en référence au costume Angry Birds porté par Loic Lemeur il y a deux ans) :

  • La configuration de marché est très différente dans les pays du BRIC qu’en Occident, les smartphones Android y sont majoritaires ;
  • L’audience des jeux sur smartphones est bien plus large que celle des jeux hardcore, ils essayent de développer des gameplays pour toute la famille ;
  • La vente de jeux est une source de revenus intéressante, mais ils les choses commencent à devenir intéressantes avec le merchandising (ex : les peluches Angry Birds et le petit monstre de Cut the Rope) ;
  • Ils lancent un nouveau jeu (Pudding Monsters) avec l’ambition de proposer un gameplay universel, compréhensible immédiatement par n’importe qui (un travail créatif bien plus complexe qu’il n’y parait : simple to understand, hard to master) ;
  • Le merchandising est indispensable pour trouver des clients en dehors des app stores où la compétition est très (trop ?) intense ;
  • Les  applications natives ne vont pas disparaitre, car elles proposent de loin la meilleure expérience, par contre, elles impliquent un coût de développement qui augmente de façon exponentielle avec le nombre de plateformes visées, donc un ROI beaucoup plus complexe. HTML5 est donc un remède à ce problème de rentabilité, car les web app permettent de cibler tous les smartphones et tablettes, idéalement il faut les deux.

Phil Libin de Evernote

Phil Libin de Evernote

Phil Libin est là pour nous parler du succès de Evernote et de sa stratégie de diversification :

  • Ils ont 45 M d’utilisateurs pour moins d’une cinquantaine d’employés ;
  • Ils ont plus d’1 M d’utilisateurs dans une dizaine de pays, 800K en France ;
  • 90% des utilisateurs s’en servent comme pense-bête, 15% d’utilisateurs sont des comptes pro (Evernote Business) ;
  • Ils ont beaucoup travaillé sur la contextualisation des notes qui sont affichées dans vos résultats de recherche Google ou dans le mode de lecture hors-ligne ;
  • Leur ambition est d’aider les utilisateurs à gagner en efficacité (organiser leurs notes et la collaboration avec des collègues) et donc en productivité ;
  • De nouvelles versions majeurs de Skitch, Food et Hello arrivent dans les prochaines semaines ;
  • L’avis de la communauté d’utilisateurs est très important pour identifier vos points faibles (ex : la dernière version de Skitch), mais pas pour trouver des solutions ou pour vous donner des pistes d’innovation ;
  • Eux aussi travaillent le merchandising avec les carnets Moleskine et même les chaussettes officielles (véridique !).

Ben Gomes de Google

Ben Gomes de Google

Ben Gomes travaille dans l’équipe de recherche du moteur :

  • Ils sont très bons dans le traitement des chaines de caractères (strings), mais souhaiteraient apporter une couche d’intelligence à l’index (things), d’où le knowledge graph qui est en train d’être déployé en France ;
  • La première consiste à isoler des entités sémantiques (des sujets), puis de les relier de façon pertinente et contextuelle ;
  • Les spécificités linguistiques sont particulièrement complexes à gérer (le terme football a une signification différente en Angleterre, aux USA et en Australie) ;
  • Les données sémantiques sont principalement collectées de bases de connaissances (semi)-structurées comme Wikipedia ou Freebase ;
  • Leur index gère plus de 30 milliards d’URL, il devient donc urgent de structurer cette base avec une approche sémantique beaucoup plus rigoureuse ;
  • Leur autre challenge du moment est de maitriser la recherche vocale, pour préparer le terrain à de nouveaux types de terminaux (ex : les Google Glass) ;
  • Avec Google Now, ils prennent une direction très différente, car il n’est pas ici question de recherche lancée à partir d’une équation, mais d’anticiper les besoins des utilisateurs (saviez-vous que votre smartphone fait maintenant office de podomètre ?).

Katie Stanton de Twitter

Katie Stanton de Twitter

Katie Stanton est la VP du développement international chez Twitter :

  •  Ils ont déjà 6 bureaux ouverts en dehors des US (Japon, Allemagne, Brésil…), la France sera le prochain marché qui bénéficiera de sont bureau ;
  • Elle reconnait que la France est un marché complexe, surtout avec des entités média très puissantes (chaînes TV, journaux…) ;
  • Ils ont préféré concentrer leurs efforts en Russie plutôt qu’en Chine (où Sina Weibo affiche plusieurs centaines millions de comptes) ;
  • L’actualité est particulièrement riche avec la nouvelle de la grossesse de la princesse Kate et de l’arrivée du Pape sur Twitter ;
  • Ils fournissent à leurs partenaires des analytics très détaillés, mais ne projettent pas de le faire pour les particuliers ;
  • Il y a un ratio de 60/40 entre les producteurs et lecteurs de tweets.

Peter Deng de Facebook

Peter Deng de Facebook

Peter Deng est le directeur des produits de Facebook (les applications nativement proposées sur la plateforme) :

  • Toutes les fonctionnalités ont dû être revues pour être intégrées à l’application mobile ;
  • Le basculement vers le mobile est le plus gros projet de la société depuis le lancement de la plateforme d’applications ;
  • Ils sont en train de finaliser des applications spécifiquement dédiées pour le mobile (ex : Facebook Messenger que l’on peut utiliser simplement avec son N° de téléphone, sans avoir à créer de profil Facebook) ;
  • Ils viennent d’annoncer une nouvelle version majeure pour Android de Facebook Messaging ;
  • Il veut rassurer le marché sur le fait que l’application Messaging n’exploite pas les données personnelles des utilisateurs à des fins de profiling (position géographique, carnet d’adresses…) ;
  • Ils passent beaucoup de leur temps à adapter et améliorer le service pour les téléphones d’entrée de gamme (feature phones).

Dalton Caldwell de App.net

Dalton Caldwell de App.net

Dalton Caldwell est le créateur de App.net, une plateforme permettant de créer des applications sociales à partir de flux d’informations et de données :

  • Avec l’avènement de l’internet des objets, nous allons être littéralement noyés sous une masse d’informations et de données qu’il va falloir traiter, isoler le signal du bruit va être le challenge de ces prochaines années pour les travailleurs du savoir ;
  • Il va devenir de plus en plus complexe de gérer les notifications générées automatiquement par les utilisateurs de services tiers (faut-il blacklister le service ou ces utilisateurs ?) ;
  • Les entreprises peuvent investir dans de puissants mécanismes de filtrage collaboratif ou sémantique, mais comment vont s’en sortir les utilisateurs individuels ?
  • La solution réside dans les services de traitement de flux (ex : Yahoo! Pipes, IFTTT…), Flipboard est également un bel exemple grand public de traitement de flux ;
  • La véritable valeur ajoutée d’un service est de transformer un flux de données.

Adam Wilson de Orbotix

Adam Wilson de Orbotix

Adam Wilson est le fondateur de Orbotix, la société de commercialise la Sphero :

  • Sphero est avant tout une plateforme de jeu plutôt qu’une balle motorisée, ils fournissent à la fois les APIs pour contrôler la balle, mais également la plateforme pour déployer les applications ;
  • Ils ambitionnent de combler le trou entre les jeux exploitant l’environnement réel et ceux reposant sur des environnements virtuels (Découvrez des interfaces tangibles ludiques avec Sphero et Sifteo) ;
  • Ils sont conscients de ne pas avoir les ressources et la force créative pour concevoir une nouvelle génération de jeux, ils se reposent donc largement sur la communauté pour inventer de nouveaux gameplays.

Autant vous dire que je suis très déçu par cette présentation qui ne reflétait vraiment pas le potentiel de ces petites balles.

Carly Gloge de Ubooly

Carly Gloge de Ubooly

Carly Gloge est la fondatrice de Ubooly, une peluche intelligente propulsée par votre smartphone :

  • Les uboolys sont les premiers produits d’une longue série, leur ambition est de servir de support pédagogique et ludique (smart toy) qui s’améliore en s’adaptant au comportement de l’enfant (les tamagochis du XXIe siècle) ;
  • La peluche se sert du micro et de l’accéléromètre pour appréhender son environnement, les interactions reposent sur une intelligence artificielle comparable à Siri.

Là encore je suis très déçu, car il y a tant à dire de cette nouvelle génération de jouets interactifs, auto-apprenant, connectés… mais la démo a été vraiment trop courte (cf. La sophistication des interfaces de tablettes passe-t-elle forcément par des accessoires ?).

Fred Potter de Netatmo

Fred Potter de Netatmo

La dernière présentation de la journée avec Netatmo, une station météo de nouvelle génération, par Frédéric Potter qui est également le fondateur de Withings :

  • De nombreux paramètres sont capturés par leurs stations (températures, taux d’humidité, pression atmosphérique, qualité de l’air, pollution sonore…) et stockés dans les nuages ;
  • La multiplication des sources d’information leur permet d’avoir des données plus précises (mais de façon empirique) que Météo France ;
  • Leur objectif est de constituer un réseau de capteurs permettant d’intensifier la collecte et le partage de données locales ;
  • Ils s’intéressent à toutes les données relatives à la qualité de vie, notamment la pollution sonore (particulièrement dans les grandes villes), et la pollution intérieure (CO2…) ;
  • Les données sont l’ingrédient essentiel à toute amélioration, d’où l’importance de commercer à les collecter.

Phil Busoa de LIFX

Phil Busoa de LIFX

LIFX est un autre projet issu de KickStarter qui commercialise des ampoules intelligentes :

  • 1,3 M de $ ont été levés en 6 jours, la preuve que les ampoules intelligentes intéressent du monde ;
  • Les ampoules n’ont pas beaucoup évolué sur ces cent dernières années, aussi bien sur la technologie d’éclairage que les possibilités d’interaction ;
  • Leur ambition est de proposer des cas d’usage proches de la chromathérapie (améliorer le quotidien et l’humeur des gens grâce à une utilisation plus astucieuse de l’éclairage) ;
  • En plus des applications ludiques (modification de l’ambiance), les ampoules LIFX peuvent également interagir avec des applications tiers (notification en fonction de paramètres prédéfinis comme l’ouverture d’une porte) ;
  • Nous pouvons imaginer d’innombrables possibilités en combinant ces ampoules avec d’autres solutions comme SmartThings vu ce matin ;
  • Ils sont encore en train de peaufiner leur produit avant de passer à la production à grande échelle ;

Ceci conclut donc une journée très riche en présentations et en retours d’expérience, dont vous pouvez voir les rediffusions ici : Watch all the talks from LeWeb12 Day 1. Je n’aurais pas la possibilité d’assister à la seconde journée, mais je serais là pour la troisième (ce jeudi). La journée n’est néanmoins pas terminée, car il va y avoir de nombreuses soirées et apéros dans Paris.

À ce sujet, je vous signale que nous organisons avec Claude Malaison un Yulbiz de clôture de LeWeb ce jeudi 6 au Bon Pêcheur en fin de journée (9 rue des Prêcheurs à Paris, au métro Châtelet Les Halles). Les détails ne sont pas encore tout à fait fixés, mais vous pouvez d’hors et déjà noté ce RDV dans votre agenda.

La suite est ici : Jour 3.

LeWeb12, compte rendu de la première journée

Comme chaque année depuis 8 ans, la Silicon Valley et les entrepreneurs du monde entier se donnent rendez-vous à Paris pour la conférence LeWeb. Le thème de cette année est l’internet des objets. Un thème particulièrement avant-gardiste, quoique pas tout à fait, car les startups françaises ont leur mot à dire : L’internet des objets est en train de se construire avec Sigfox.

LeWeb12-Hall-e1354621487326

Comme c’est la tradition, il pleut, il fait froid et il y a des travaux dans tous les sens. Qu’importe, cela n’entamera pas mon enthousiasme, surtout que la programmation de cette année est particulièrement riche. Les conférences vont être réparties sur trois scènes, mais comme je ne peux pas me dédoubler, je me contenterais de vous relater ce qui se passe sur la scène principale.

Tony Fadell de Nest et Xavier Niel de Free

LeWeb12-Tony-e1354621138563

Première intervention de la journée avec Tony Fadell, qui était entre autres dans l’équipe de conception de l’iPod nous parle du Nest,  son thermostat connecté :

  • Il y a plus de 250M de thermostats aux US, plus que de consoles de jeux, c’est un marché gigantesque, mais personne n’a jamais essayé de les améliorer ;
  • Les produits Apple ont été une grande source d’inspiration pour le Nest (simplicité d’usage, esthétisme, packaging…) ;
  • Il a fallu 15 ans pour connecter les utilisateurs entre eux grâce au web, il faudra aussi de nombreuses années pour que les machines se connectent entre elles à grande échelle, ce n’est qu’une première étape ;
  • Les données collectées par le thermostat permettent d’optimiser la consommation d’énergie en adaptant la température au comportement de ses utilisateurs (notamment l’alternance des jours de semaine et des WE) ;
  • C’est le premier produit intelligent distribué à grande échelle, même dans les chaines de bricolage ;
  • Le produit est présent dans 63 pays alors qu’il n’est officiellement commercialisé que dans 3 pays, ils travaillent donc dur pour accélérer le déploiement international et notamment en Europe ;
  • Philips avait travaillé sur un concept similaire dans les années 90 tournant sous Windows CE, mais le projet a été abandonné ;
  • Mettre sur le marché un terminal truffé d’électronique est beaucoup plus compliqué que ça en a l’air (dans “hardware“, il y a “hard“), ceci explique le retard constaté ou les échecs de nombreux projets sur KickStarter (NdR : effectivement, je suis toujours en attente de ma montre Pebble) ;
  • Conseils : soyez méthodique et concentré; ne sous-estimez pas les différences de marché entre les US et l’Europe; si c’est trop facile, c’est que vous avez sous-estimé un problème.

Ariel Garten de Interaxon

LeWeb12-Ariel-e1354621196772

Ariel Garten, la patronne canadienne de Interaxon vient nous présenter son bandeau permettant de contrôler par la pensée des ordinateurs :

  • Pourquoi se donner tant de mal à connecter des machines et ne pas essayer de connecter des hommes ?
  • Ils essayent de replacer les humains au centre de leurs préoccupations, pas la technologie ;
  • Cette année ils lancent Muse, leur premier produit grand public  à199$, livré avec un certain nombre d’APIs pour donner la possibilité à la communauté de développeurs de concevoir de nombreuses applications ;
  • Il y a un temps d’adaptation, puis le bandeau va vous permettre de contrôler certains paramètres ou de rajouter un contexte émotionnel à votre usage des TIC (ex : adapter la typos d’un email à l’état émotionnel du rédacteur) ;LeWeb12-Muse-e1354621295686
  • La démonstration était… surréaliste, mais pas forcément plus que les premiers tests d’email ou de SMS, le produit est livré avec une première série de jeux et d’applications  (waaaaaaaant !) ;
  • Ils travaillent avec les membres de l’équipe olympique canadienne pour améliorer leur concertation lors des épreuves.

Benjamin Cichy de la Nasa

LeWeb12-Ben-e1354621338648

Benjamin Cichy est le Software Chief Architect du programme d’exploration de la NASA :

  •  La seule méthode viable pour explorer une planète et son écosystème… est d’y aller, le programme d’exploration de Mars est ains riche en surprise (ex : les traces de chlore trouvé dans la poussière martienne cette semaine) ;
  • Envoyer le robot pathfinder sur Mars en 1997 a été une énorme avancée, car c’est la première planète que les hommes explorent (la lune ne compte pas, car c’est une… lune) ;
  • La NASA a subi deux terribles échecs avant de réussir la “livraison” de Spirit et Opportunity en 2004 ;
  • Les missions d’exploration ont prouvé que les deux ingrédients essentiels à la vie sont présents sur Mars (de l’eau et de l’énergie grâce au soleil) ;
  • La nouvelle itération du rover (Curiosity) est bien plus ambitieuses car une dizaine de nations participent à ce programme, ils ont dû entièrement revoir la conception de la capsule d’entrée et du protocole d’atterrissage car ce rover est bien plus gros (2 mètre par 3) ;LeWeb12-Curiosity-e1354621442144
  • Le logiciel pilotant la séquence d’atterrissage contient 5 millions de lignes de code ;
  • La mission Curiosity est un succès, mais leur taux de réussite n’est que de 33% (bravo pour leur humilité) ;
  • Les enseignements et technologies développées pour ces missions trouveront prochainement des domaines d’application dans nos vies quotidienne et plus particulièrement l’internet des objets.

Jeff Hagins de SmartThings

SmartThings est un projet financé via KickStrater qui commercialise des capteurs et modules intelligents pour la maison :

  • Leur ambition est de construire le physical graph, par analogie avec le social graph et interest graph, afin de faciliter la programmation d’interactions avec les objets du quotidien ;
  •  L’internet des objets repose sur trois piliers : la simplicité d’utilisation (pour les développeurs et les utilisateurs), l’ouverture (utilisation de standards technologiques) et l’intelligence (rendre service au quotidien et non chercher l’exploit technologique) ;
  • Ils commercialisent un ensemble de capteurs et de prises qui communiquent avec des applications disponibles sur leur app store ;
    Démonstration d’une application SmartThings

    LeWeb12-Smartthings-e1354621379115

  • Ils sont pour le moment concentrés sur le perfectionnement de l’environnement de développement et sur le développement de la communauté.

Pour les autres conférences de la journée, ça se passe ici : Suite.

Les leviers d’innovation du web pour les 5 prochaines années

J’étais le mois dernier invité à Montréal pour donner une conférence sur l’avenir du web (le support est disponible ici : A quoi ressemblera le web de demain). Un sujet périlleux, car il est toujours difficile de faire le bon dosage entre anticipation (les tendances qui vont se concrétiser l’année prochaine) et futurologie (ce que nous devions être en mesure de faire dans 10 ans si le rythme d’innovation se poursuit). Je me suis tout de même prêté volontiers à cet exercice de style, car les ingrédients du web de demain sont déjà là. Comprenez par là qu’en décortiquant les bons signaux, vous pouvez avoir une vision assez fiable de ce à quoi vont ressembler les usages en 2015.

Du web 1.0 au web 3.0

Le moins que l’on puisse dire, c’est qu’en 10 ans, tout à changé… ou pas ! Si vous regardez dans le détail l’offre de deux piliers du web comme Amazon et Ebay, vous vous rendrez compte que les fondamentaux sont les mêmes. Certes, vous pourriez me dire qu’avec Facebook et Twitter nous sommes rentrés de plein fouet dans la révolution digitale, celle qui renverse les dictateurs et génère des centaines de milliards de dollars, mais vous pourriez aussi reconnaitre que la transformation du web s’apparente plus à un enrichissement. Comprenez par là que de nouveaux usages se développent, mais qu’ils se cumulent avec les anciens, du moins pour le grand public.

Je pense ne pas me tromper en disant que l’histoire du web s’écrit par cycles de 5 ans marqués par la domination d’acteurs sur-puissants. Les années 2000 ont ainsi été dominées par les portails (Yahoo, MSN, AOL…) qui concentraient l’audience avec une offre exhaustive de contenus et de services. Les années 2005 ont été marquées par la domination des moteurs de recherche et en particulier de Google avec plus de 80% de parts de marché (et un écosystème très dense qui vivait et vit encore des mots-clés). Les années 2010, dans lesquels nous nous trouvons, sont marquées par la domination des plateformes sociales et notamment de Facebook qui s’impose comme le poids lourd incontesté de sa catégorie avec 750 millions d’utilisateurs (cf. Rétrospective sur les 3 dernières années de Facebook).

Puisque nous évoquons l’histoire de l’évolution du web, impossible de faire l’impasse sur les grands stades d’évolution (aussi bien technologiques que d’usages) :

  • Le web 1.0 était surtout centré sur les documents, il a vu se généraliser des outils comme l’email, des acteurs comme les portails de contenu ainsi que le commerce en ligne ;
  • Le web 2.0 est centré sur les utilisateurs, il se caractérise par la généralisation des réseaux sociaux, l’avènement des contenus générés par les utilisateurs, les pratiques de social shopping et de nombreuses innovations autour des API et mashups ;
  • Le web squared sera centré sur les données, l’information y circule en temps-réel, les données sont agrégées dans des écosystèmes, qui sont rattachés à tous types d’objets (ombres informationnelles) et générées de façon mécanique (metadonnées implicites) ;
  • Le web 3.0 est encore un concept abstrait, mais on anticipe déjà des usages assistés par des agents intelligents qui exploiteront des contenus sémantiques, où les objets seront communicant et l’information pervasive (accessible depuis n’importe où).
Les grandes étapes d'évolutions du web

J’ai déjà eu l’occasion de m’exprimer sur ces différents stades d’évolution, donc je vous propose de nous intéresser aux facteurs qui vont accélérer la migration d’un stade à un autre.

Quatre leviers d’innovation stimulant de nombreuses pratiques disruptives

Les dernières années ont été riches en bouleversements et transformation des usages. Ces transformations ont été favorisées par de nombreux facteurs, mais il est possible d’identifier quatre leviers d’innovations qui ont bouleversé la façon dont l’information est véhiculée, dont nous consommons des contenus et services, dans nos habitudes d’achats, dans notre façon de collaborer :

  • La mobilité. Les chiffres sont éloquents : 5 milliards de téléphones mobiles, 400 M de smartphones, 40 millions de touchbooks. Les terminaux mobiles prennent une place toujours plus importante dans notre quotidien et vont bientôt dépasser les ordinateurs traditionnels. Non seulement ils nous permettent d’être connectés en permanence, mais ils nous montrent également une autre façon d’appréhender l’outil informatique.
  • Les pratiques sociales. Inutile de vous faire l’article sur l’importance que les médias sociaux ont pris dans les usages en ligne. Non seulement ils concentrent l’audience et l’attention des médias, mais également les budgets publicitaires. Ils modifient également nos attentes et nos comportements d’achat. La rupture sociétale qu’ils induisent a même poussé les médias traditionnels à revoir leur modèle.
  • Le cloud compting. Là encore, je ne souhaite pas me lancer dans une nième explication des impacts et bénéfices de l’informatique distante. Après plusieurs années de croissance spectaculaire, les offres gagnent en maturité et sophistication et nous permettent de nous libérer de nombreuses contraintes.
  • Les données. Avec la banalisation de l’accès à internet et des outils de publication toujours plus simples et performants, il va être créé près de 1,8 zettabytes de données rien qu’en 2011. Un chiffre abstrait pour la plupart d’entre-nous mais qui illustre les dimensions d’une mine d’or encore largement inexploitée.
Les 4 leviers d'innovation du web de demain

A partir de ces quatre leviers, et en les combinant, il est possible d’isoler un certain nombre de pratiques disruptives :

  • Mobile + Social = Géolocalisation. En combinant le nombre de smartphones en circulation et le levier social / communautaire, vous pouvez fournir aux internautes des contenus et services contextualisés en fonction de l’endroit où ils se trouvent et des amis et contacts qui sont passés par là (c’est le principe des placestreams, qui a fait le succès de Foursquare), les commerçants et enseignes de distribution en sont les premiers bénéficiaires.
  • Données + Cloud = Open Data. Les données renferment une très forte valeur ajoutée pour ceux qui savent les interpréter intelligemment et qui exploitent des plages de données suffisamment grandes (notion de Big Data). Les institutions, municipalités, acteurs territoriaux et gouvernements possèdent des masses considérables de données, mais ne les exploitent pas forcément. L’Open Data consiste donc à mettre à disposition dans les nuages des données publiques. L’idée derrière ces initiatives est de permettre aux acteurs qui en ont l’ambition d’exploiter ces données pour en extraire des tendances, des corrélations et de pouvoir ainsi anticiper l’évolution du marché. Pour vous donner un aperçu, je vous recommande de tester Google Correlate.
  • Données + Social = Graphes d’intérêts. Voilà de nombreuses années que les réseaux sociaux nous vantent les mérites de leurs graphes sociaux et de l’intérêt qu’ils représentent en matière de ciblage comportemental. Le problème est que dans un environnement social à forte exposition, les utilisateurs ne se comportent pas tout à fait de façon cohérente. Par opposition aux graphes sociaux (ceux que vous connaissez ou prétendez connaitre), les graphes d’intérêts se focalisent sur ce que vous aimez (ou ce que vous n’aimez pas) et sur les comportements adoptés par les personnes ayant les mêmes centres d’intérêt que vous. Il en résulte des moteurs de recommandation bien plus pertinents et surtout auto-apprenant.
  • Cloud + Mobile = Personnal cloud. L’informatique distante envahie petit à petit le monde de l’entreprise et fait prendre conscience aux DSI tout l’intérêt de ne pas héberger sois-même ses données (disponibilité, archivage…) et de ne pas maintenir sois-même ses serveurs et applications (économie d’échelle, facilité de mise à jour et déploiement…). Les grands acteurs du web (Google, Amazon, Apple…) partent maintenant à la conquête du grand public avec des offres très attractives pour héberger vos emails, photos, musiques… Non seulement ces offres vous garantissent la pérennité de vos données, elles en facilitent l’accès quel que soit le terminal utilisé, mais elle leur permet surtout de facturer aux clients un service à vie (il est nettement plus rentable d’héberger un fichier MP3 que de le vendre). Google Music, Amazon Cloud Drive, iCloud, et toutes les offres d’acteurs spécialisées (Spotify, Flickr…) vont vous faire oublier votre disque dur.
  • Données + Mobile + Social = Quantified Self. Se connaitre au travers de vos données personnelles, telle est la promesse du Quantified Self qui s’appuie sur les terminaux mobiles pour les capter, sur des services à valeur ajoutée pour les monétiser et sur le levier social pour vous fidéliser. Nouveau phénomène social ou arme ultime de personnalisation des offres ? Il est encore trop tôt pour bien appréhender l’impact de ces pratiques, mais elles en disent long sur notre appropriation de l’outil informatique, des terminaux mobiles et des mécaniques sociales dans notre quotidien.

Cette liste est loin d’être exhaustive, mais elle illustre bien selon moi l’exploitation de ces quatre leviers d’innovation (mobile, social, cloud et données).

Quels défis à relever ?

Nous parlons bien ici d’usages disruptifs en avance de phase par rapport au marché, ils ne touchent que les innovateurs et les adopteurs précoces. Ceci étant dit, j’engage les annonceurs et fournisseurs de contenus / services à s’y intéresser de près, car ils préfigurent les opportunités de demain (sauf si vous vous contentez des mots-clés).

Pour pouvoir exploiter ces usages à votre avantage et bénéficier des opportunités qu’ils offrent, il convient de se mettre dans la bonne disposition d’esprit :

  • Réduire la fracture technologique. Encore une fois, nous parlons d’usages fortement novateurs et disruptifs, ne vous laissez donc pas impressionner par ces nouvelles technologiques dont certaines ne sont pas encore tout à fait au point. L’avenir appartient aux audacieux, si vous vous complaisez dans l’adage “ma grand-mère saura-t-elle le faire fonctionner“, vous n’irez pas bien loin (à moins d’être positionné sur le créneau du tricot,, avec tout le respect que j’ai pour cette pratique).
  • Ne pas avoir peur d’échouer. La culture anglo-saxonne célèbre l’échec comme une preuve d’audace (“Fail often, fail fast“), contrairement à la culture française qui le pénalise. Si vous vous contentez de jouer les suiveurs réactifs, vous ne parviendrez pas à saisir les meilleures opportunités. Tout est une question de dosage du risque.
  • Miser sur le long terme. Tous les nouveaux usages décrits plus haut sont encore très loin d’être adoptés par le grand public. Il en résulte des tailles de marché très réduites et une rentabilité incertaine. Si vous voulez être certain de gagner de l’argent, misez sur une hausse du prix du pétrole. Si vous voulez par contre vous positionner sur des usages avant-gardiste et véhiculer une image d’innovateur, tournez-vous plutôt vers ces usages prometteurs (tout en maitrisant l’investissement initial et les coûts d’exploitation).

Je conclurais cet article en rappelant une évidence : je ne suis pas devin, mais simplement un observateur averti. Si vous avez identifié d’autres tendances, n’hésitez pas à les partager dans les commentaires.

Le Quantified Self au service de la productivité individuelle et collective

Si les utilisateurs et les interactions sociales qui les relient sont la matière première principale du web sur les 5 dernières années (avec l’avènement des médias sociaux), les années suivantes devront composer avec une autre matière première précieuse : les données (cf. Du contenu roi aux données reines). Les données sont la matière première du géo-marketing, elles permettent d’optimiser l’implantation d’un hypermarché. Elles sont également à la base de l’analyse décisionnelle qui permet de piloter une activité commerciale. Elles permettront bientôt d’adapter notre style de vie et notre comportement à un environnement toujours plus hostile (stress, maladies, bactéries tueuses…).

Non seulement les progrès réalisés par les outils de collecte et de partage vont grandement faciliter la constitution de personal data ecosystems, mais les annonceurs, collectivités et organisations vont nous y inciter, car elles apporteront des réponses aux questions que nous ne nous posons pas encore.

Définition et origines du Quantified Self

Il existe déjà un certain nombre d’articles publiés sur le sujet (dont le très bon interview d’Emmanuel Gadenne : Le Quantified Self : doit-on compter sur soi ?), aussi je vais vous la faire courte : Le Quantified Self est une pratique consistant à collecter des données personnelles et à les partager. Pourquoi ? C’est là toute la question… Le QS est en effet une discipline polymorphe où chacun y trouve son compte, donc avec des motivations et des pratiques différentes. La notion communément admise est la suivante : “Mieux se connaitre au travers des données“.

Les origines sont à chercher dans les journaux intimes et les pratiques de self-tracking. Vous connaissiez déjà des systèmes comme Nike+ ou la Wii Fit, le QS va plus loin en proposant une approche systématique et publique. La publication et le partage de ces données personnelles est en effet ce qui différencie le Quantified Self des autres pratiques (notamment le Self-tracking). Plusieurs facteurs favorisent ce phénomène de publication et de partage : des capteurs plus petits (et des smartphones qui peuvent se substituer à ces capteurs) ; des services permettant de facilement collecter, structurer, partager les données ainsi que de créer des interactions sociales avec les personnes partageant les mêmes objectifs que vous (comme par exemple 42Goals) ; des plateformes sociales qui banalisent l’acte social de partager sa vie (sites de partage de photos, de localisation…).

Fitbit

N’essayez pas de trouver des raisons rationnelles à cette pratique, car c’est avant tout une expérience sociale et humaine. Les entreprises sont en quête perpétuelle de performance, pourquoi pas les individus ? Pour une analyse psycho-sociaux-ethno-techno, je vous recommande la lecture de ces articles : Finalement, documentez-moi, Nos vies gérées par les données et Self-tracking, quand les chiffres parlent.

42goals

N’allez pas pensez que le Quantified Self est une forme dégénérative de narcissisme social, il s’agit simplement d’un mouvement de fond fédérateur. Les motivations des pratiquants sont multiples et je n’ai pas l’ambition de toutes les lister. Mais bon, force est de constater que l’on vérifie plus facilement le niveau d’huile de sa voiture plutôt que sa pression artérielle, cherchez l’erreur…

Exemples de domaines d’application

Comme précisé plus haut, le QS est une meta-discipline qui regroupe des individus aux motivations très diversifiées. Il est ainsi possible d’en identifier quelques-unes :

  • Pour des raisons médicales. Des sites comme CureTogether ou PatientLikeMe permettent ainsi de tisser des liens sociaux entre personnes souffrant des mêmes maladies de longue durée ou suivant le même traitement.
  • Pour se comparer à d’autres. Quoi de plus naturel que de chercher à s’auto-évaluer en se comparant aux autres, aussi bien dans le domaine sportif (RunKeeper, Runtastic), que pour votre gestion quotidienne (PearBudget) ou vos ébats sexuels (BedPost).
  • Pour chercher un soutien moral. Des systèmes comme Withings ou BodyMedia permettent de faciliter la collecte de votre poids et de votre tension, mais une fois les données agrégées, il manque la plateforme sociale pour pouvoir dévoiler vos objectifs personnels et trouver l’entourage social qui va vous aider à les atteindre. Cela peut concerner une perte de poids, mais aussi la diminution de votre dépendance à la cigarette ou à l’alcool (DrinkingDiary). Il existe en fait une infinité de données personnelles à mesurer, des plateformes comme Quantter, Daytum ou LifeMetric vous aide à organiser la collecte de ses données ainsi que leur partage.
  • Par curiosité. Savez-vous combien de musique vous écoutez ou combien de km vous parcourez dans la journée ? Des systèmes comme iTunes ou Google Latitude se proposent de quantifier votre quotidien, juste pour le plaisir.

Cette (petite) liste n’est là que pour illustrer la diversité des motivations de chacun. Vous noterez que les données personnelles collectées peuvent être à la fois des données quantitatives (votre poids) tout comme qualitatives (votre humeur sur Moodscope ou Mappiness). En fait les deux sont utiles pour nous aider à mieux comprendre qui nous sommes et la façon dont nous nous insérons dans notre cercle sociale.

Mappiness

Tout ceci vous paraît abstrait ou psychotique ? C’est normal, la première réaction de celles et ceux qui découvrent cette discipline est invariablement la même : “ces gens ont-ils des problèmes ?“. Pas forcément, et vous ? En faisant un petit travail d’introspection, vous pouvez très facilement identifier des variables d’ajustement dans votre quotidien : Vous avez du sommeil en retard : Combien ? Vous buvez trop de café : Combien ? Vous ne faites pas assez de sport : Combien ?

Quelles applications pour les marques ?

Nous arrivons maintenant à la partie qui fait peur : l’exploitation de toutes ces données personnelles. Plusieurs services existent déjà et proposent une offre complète et bien délimitée, mais nous n’en sommes qu’aux prémices de quelques choses de bien plus ambitieux.

Des plateformes comme Withings ou Zeo apporte un service clé en main avec l’appareil de mesure, le service en ligne d’agrégation et d’archivage des données (cf. How I sleep: random thoughts after using MyZeo to measure my sleep for a few weeks). Jusque-là, rien de très intéressant, si ce n’est pour vous refourguer des pilules du sommeil.

Zeo

Prenons maintenant le cas de BodyMedia. Ils proposent également une offre similaire avec à la fois les appareils pour collecter les données ainsi que le service pour les archiver. Là où ça devient intéressant, c’est qu’ils travaillent en collaboration avec des coaches sportifs ainsi que des professionnels de santé. Nous ne sommes donc plus dans le cadre d’une expérimentation névro-narcissique, mais dans le cadre plus général d’un programme de santé et bien-être. La vente de capteurs devient donc une activité satellite, l’important pour eux est de stocker les données et de faire l’intermédiaire entre les utilisateurs et les professionnels qui vont pouvoir exploiter ces données.

Bodymedia

Avec ce cas de figure, nous voyons bien que l’intérêt ne réside pas dans la vente de capteurs, mais bien dans l’exploitation des données. Certains proposent un système fermé comme Philips avec son DirectLife, d’autres optent pour un système ouvert comme RunKeeper qui permet d’agréger les données : Zeo and Fitbit now integrate with RunKeeper!.

Nous en venons donc au principe de personal data ecosystem. L’idée est de se constituer une base de données personnelles (poids, nombre de cigarettes fumées / de cafés bus, humeur, calories ingurgitées / dépensées, nombre de km parcourus…). Une fois ces données collectées, archivées et mises en forme, vous y autorisez l’accès à des fournisseurs de service qui vont les analyser et vous faire des recommandations et/ou des propositions. Tout comme vous autorisez un site à personnaliser son contenu en fonction de votre graphe social (via Facebook Connect ou autre), il serait possible de personnaliser une offre en fonction de vos données personnelles. Plusieurs éditeurs sont ainsi en compétition pour orchestrer ce partage et faire office de tiers de confiance.

Un acteur comme Quantter s’efforce ainsi de faciliter la collecte des données en proposant des applications pour smartphone, mais également un ingénieux système de collecte via Twitter de type #activity:numberunit (ex: #run:5km). L’intérêt de collecter les données de façon publique via Twitter est d’ouvrir la porte à des annonceurs potentiels (l’éditeur préfère parler de micro-sponsors) qui pourrait très facilement exploiter ça dans le cadre de campagnes avec dotation.

Quantter

Précisons que la collecte et l’archivage de données personnelles est un très gros marché, d’autant plus avec des données médicales. Microsoft et Google sont d’ailleurs déjà positionnés sur ce créneau (respectivement Google Health et Microsoft HealthVault) avec des offres combinant la gestion de données médicales ainsi que les données personnelles lambda. Le scénario tout à fait probable que j’envisage est le suivant : Des services de développement de photos sont déjà intégrés à votre compte Picasa (qui stocke vos photos), votre médecin ou votre coach “santé” pourrait tout à fait exploiter de la même façon vos données stockées sur Google Health. Google gagnerait ainsi de l’argent dans l’acte d’intermédiation et/ou dans l’accès aux données (qui serait payant pour les pros).

Encore plus fort : en déployant son service à grande échelle, Google pourrait amasser une masse considérable de données personnelles sur les utilisateurs. Ils pourraient alors se servir de ces données d’un point de vue macroscopique. Nous pouvons ainsi envisager un service à destination des agences gouvernementales ou des industries pharmaceutiques qui leur donnerait accès à ces données ainsi qu’aux outils d’analyse (l’équivalent de ce que propose Médiamétrie mais pour des données personnelles). Nous parlons bien ici de Data-as-a-Service : un service d’accès et d’exploitation de grandes quantités de données. L’intérêt pour les industriels serait de disposer d’une base de données déjà constituée et de pouvoir les exploiter pour repérer des signaux faibles : des tendances qui ne sont visibles qu’avec de très grandes quantités de données.

Illustration avec Google Correlate, un service qui permet de comparer des séries de données hétérogènes pour essayer d’identifier des corrélations empiriques. Aujourd’hui ce service est alimenté par des données publiques, mais nous pourrions tout à fait envisager une offre plus sophistiquée avec un accès premium offrant des données personnelles anonymisées et des outils d’analyse plus complexes (agents intelligents). À ce petit jeu là, c’est celui qui possèdera la plus grande quantité de données qui raflera la mise. Correction : c’est celui qui possèdera la plus grande quantité de données, l’infrastructure pour les stocker, les outils pour les manipuler et les offres pour les commercialiser qui remportera la mise. Qui d’autre que Google est mieux placé sur ce terrain là ?

Dernière application pour les marques : la connaissance client. Les annonceurs exploitent aujourd’hui trois types de données concernant les clients : l’historique des achats pour le programme de fidélité, le profil et le comportement pour la personnalisation des offres. Des solutions comme Facebook Connect ou AudienceScience (anciennement Wunderloop) facilitent grandement cette tâche de personnalisation des newsletter ou offres. Avoir accès à des gigantesques bases de données personnelles pourrait représenter un gros avantage pour les marques. Prenons l’exemple d’un fabriquant de vêtements, cette base de données lui permettrait d’ajuster les tailles de ses produits en fonction des tendances qu’il peut constater.

Mais nous pouvons aller beaucoup plus loin et envisager un ajustement des campagnes en fonction de critères jusque-là ignorés : l’humeur, la santé financière, le cycle menstruel… Bien évidement, il serait complètement surréaliste de penser que les prospects vont autoriser volontairement les annonceurs à accéder à leurs données personnelles, par contre nous pourrions l’envisager avec des tiers de confiance. Ces intermédiaires seraient en mesure à partir des données personnelles des utilisateurs de sortir un score de réceptivité en quasi-temps réel. Ce score servirait aux annonceurs à avancer ou décaler le lancement d’une campagne pour s’assurer de son succès. Traduction : Les annonceurs payeraient pour savoir si les conditions sont bonnes pour lancer une promotion aujourd’hui ou s’il faut attendre le lendemain ou la fin de semaine.

Vous trouvez le principe effrayant ? Pas moi. Après tout nous parlons d’utilisateurs consentants qui sont bien contents de bénéficier d’un service gratuit de collecte et d’archivage de données personnelles. À partir du moment où ces données sont anonymisées, leur exploitation ne devrait pas poser trop de problèmes éthiques. Pour vous en convaincre, laissez-moi vous rappeler que c’est que fait Google depuis des années : ils exploitent les données issues des recherches ainsi que les statistiques de fréquentation des sites, mais dans la mesure où Google Search et Google Analytics sont gratuits, ça ne dérange personne.

Les données seront la matière première du web 3.0

Le Quantified Self n’est à mon avis que la partie visible de l’iceberg. Le web est un média proposant une incroyable richesse de par la quantité de contenus qui y est disponible. Avec les médias sociaux, cette richesse a été considérablement accrue avec les contenus générés par les utilisateurs. Les données seront un troisième facteur d’enrichissement, elles donneront plus de sens au contenu (data journalism) et permettront de personnaliser l’expérience des internautes (personal data ecosystem).

Les données seront également source de nouvelles interactions sociales : si vous n’êtes pas à l’aise avec l’écrit (pas le courage ou l’assurance pour rédiger un blog), peut-être pourriez-vous trouver un intérêt à faire parler les données pour vous. Des sites comme 42Goals ou Quantter sont en faite des plateformes sociales qui utilisent les données personnelles plutôt que les billets / tweets / photos / … pour générer des interactions sociales entre les membres. Cela peut se faire dans un cadre complètement informel (par curiosité ou narcissisme) ou de façon plus sérieuse (Mooscope envoie ainsi un email à vos amis si votre humeur change radicalement et que vous avez des idées noires).

Les données seront ensuite un levier d’amélioration de la performance, qu’elle soit individuelle (faire plus d’exercice, arrêter de fumer…) ou collective. Les municipalités pourraient ainsi exploiter les checkins de services comme Foursquare ou Gowalla pour identifier les zones à fort trafic et redimensionner les capacités d’accueil ou les transports en commun pour éviter les goulots d’étranglement ; ou des services comme Asthmapolis pour identifier les zones irritantes pour les personnes souffrant d’asthme.

Les données seront enfin très précieuses pour aider les annonceurs à améliorer leur connaissance client à partir de données anonymisées ou à partir de données personnelles fournies volontairement par les prospects / clients pour bénéficier d’une offre mieux ciblée ou plus compétitive.

Encore une fois, tout ceci peut vous sembler abstrait ou effrayant (ou les deux), mais j’ai l’intime conviction que nous sommes au-devant d’une nouvelle révolution, et les données en seront la clé. Rassurez-vous, nous aurons largement l’occasion d’en reparler.

Du contenu roi aux données reines

Souvenez-vous… il y a quelques années, le contenu était considéré comme la matière première du web : Celui qui maîtrisait le contenu maitrisait le web (les portails qui agrégeaient de très nombreuses sources de contenu concentraient également l’audience). Puis il y a eu MySpace, les Skyblogs, Facebook, Twitter, FourSquare… et maintenant il parait que c’est la communauté qui est reine. Certes, les plateformes sociales sont indéniablement en haut des tableaux d’audience, mais je reste convaincu que sans contenus une communauté n’est pas viable. Comprenez par là que ce sont les contenus qui alimentent les conversations et font tourner les communautés. De ce point de vue là, les plateformes sociales ne sont qu’un intermédiaire entre le contenu et les internautes. Un intermédiaire à valeur ajoutée, mais qui présente tout de même une certaine fragilité dans sa pérennisation (cf. De la qualité des contenus sur Facebook).

Sans rentrer dans la polémique, je pense ne pas me tromper en disant que le contenu reste roi, la communauté se nourrit de ce contenu pour générer des interactions sociales (mais là encore il y a des subtilités : Ne confondez plus communautaire et social). La grande question que je me pose est la suivante : Qu’est-ce qui alimente les rédacteurs de ce contenu ? C’est là où les données entrent en scène, non pas les données que les rédacteurs possèdent déjà, mais plutôt les données disponibles publiquement que les internautes peuvent  interroger et manipuler à loisir.

Les données à la base du… journalisme de données

Nous parlons bien ici de données brutes en très grande quantité (des chiffres) qu’il serait trop coûteux de traiter. En les exposant publiquement, ce travail de compilation / trituration / interprétation est déléguée à la communauté qui va ainsi pouvoir nourrir une réflexion ou appuyer des prises de position. Et à ce petit jeu, certains journalistes en ont fait leur spécialité, cela s’appelle du journalisme de données (datajournalism en anglais). L’idée est d’extraire des informations pertinentes de quantités importantes de données.

Pour vous aider à comprendre l’intérêt de cette pratique, amusez-vous à compter le nombre d’articles qui font référence à Google Trends, les statistiques de recherche sont les données sur lesquelles repose toute l’argumentation de ces articles. Autre illustration avec ce graphique très intéressant qui met en évidence les performances extraordinaires (=suspectes) des coureurs du tour de France :

ActuVisu

Ces données sont extraites du portail ActuVisu qui permet justement de manipuler des bases de données (cf. Datajournalisme : du nouveau en France avec ActuVisu). Les données sont dans ce cas de figure la matière première d’une réflexion, ou plutôt d’une investigation. Les possibilités sont nombreuses et la profession se met en marche pour développer de nouvelles compétences dans ce domaine. Pour mieux comprendre ce phénomène, je vous recommande les trois articles suivants : Pourquoi le data-journalisme, c’est l’avenir en marcheQuatre voies du datajournalism et Illusions et malentendus sur le journalisme de données.

Après les portails de contenus, les portails de données

L’exemple français d’ActuVisu illustre une tendance de fond initiée il y a 5 ans avec la fondation GapMinder qui fournit justement un accès à de très nombreuses données et statistiques (leur crédo : “Unveiling the beauty of statistics for a fact based world view“).

Gapminder

Tout l’intérêt de ce portail est d’une part d’agréger le plus grand nombre de données possible (de préférence en les rendant exploitables et compatibles) ainsi que de fournir un outil simple pour manipuler et visualiser ces données. Il existe d’autres initiatives comme ManyEyes d’IBM, Socrata ou plus modestement Worldmapper. Notez que ces interfaces pour données sont une notion chère à Tim Bernes-Lee (cf. ReadWriteWeb Interview With Tim Berners-Lee, Part 2: Search Engines, User Interfaces for Data, Wolfram Alpha, And More…), preuve que ce sujet est important.

Un créneau très porteur qui intéresse les moteurs de recherche de Google, qui a racheté en 2007 l’outil de visualisation qui propulse GapMinder et qui propose également Google Public Data Explorer dans son labo. Ce rachat fait sens dans la mesure où Google est très certainement un des mieux placé pour collecter les données éparpillées aux 4 coins du web. Reste encore le problème des données non-publiques.

Libération des données publiques avec Open Data

Les initiatives d’Open Data consiste à libéraliser les données publiques pour apporter plus de transparence (à l’image du portail anglais WhereDoesMyMoneyGo?) et pour nourrir des réflexions et projets sociétaux (lire à ce sujet Open Data : des licences libres pour concilier innovation sociale et économique). L’administration américaine a été la première à se lancer en ouvrant le portail Data.gov, suivie par d’autres pays comme l’Angleterre, l’Australie et la Nouvelle-Zélande (cf. Quel modèle pour le data.gov Français ?).

DataUK

Il est important de comprendre que ces initiatives ne sont pas tant une manoeuvre politique ou un outil de surveillance qu’un levier d’innovation pour accélérer l’émergence de nouveaux modèles sociétaux ou de nouveaux projets relatifs à l’environnement, l’éducation, la santé…

Pour le moment le chantier est toujours en cours en France mais des initiatives locales permettent déjà d’accéder à des poches de données : État des lieux de l’OpenData en France.

Les données comme trésor de guerre des moteurs

Comme nous venons de le voir, les données sont donc une matière première particulièrement convoitée. À partir de ce constat, il n’est pas surprenant de voir que les grands moteurs de recherche s’intéressent de près à ces données et cherchent à les exploiter pour apporter une couche d’intelligence aux résultats de recherche. Illustration avec le tout nouveau Bing Shopping qui propose des pages de résultats structurées :

BingShopping

L’idée derrière tout ça est de proposer non pas un moteur de recherche mais un outil d’aide à la décision (cf. New version of Bing Shopping). Et pour structurer des résultats, que faut-il ? Des données ! Autant Microsoft a opté pour des partenariats, autant Google est passé à la vitesse supérieure avec notamment l’acquisition d’ITA, un fournisseur de données touristiques spécialisé sur l’aérien qui va permettre à Google de faire de l’intégration verticale sur ce créneau : With ITA Purchase, Google Now Owns the Skies.

La vente de billets d’avion en ligne est un business très juteux, il est donc normal que Google casse sa tirelire pour blinder sa position. Il y a par contre des secteurs à priori moins rémunérateurs mais pour lesquels un outil de consolidation / manipulation / visualisation des données offrirait une position dominante à son éditeur : L’immobilier, l’emploi, les loisirs (IMDB est un bon exemple de données structurées à valeur ajoutée) ou encore le sport (citons l’exemple de Footbalistic). Je vous recommande à ce sujet l’article de GigaOm qui détaille ces exemples : Who Will Google Buy Next for Structured Data?.

L’idée ici est d’investir dans une base de donnée verticale et de monétiser son exploitation. Constituer une base de données de référence est un chantier titanesque, et seuls les acteurs avec les plus gros moyens peuvent y parvenir. Mais une fois le monopole établi, les possibilités sont nombreuses pour rentabiliser cet investissement. Google Maps est un autre exemple intéressant d’une gigantesque base de données (géographiques) dont nous avons maintenant beaucoup de mal à nous passer et dont le propriétaire a tout le temps pour trouver des solutions de monétisation viables.

Plus intéressant, un article de GigaOm nous révèle que ITA ne se restreint pas au secteur du tourisme aérien mais édite également une solution de manipulation de données accessible sur NeedleBase.comMeet the Web Database Company Google Just Bought. Cette solution ne permet pas de manipuler des données publiques mais de groupes de données dont l’utilisateur a les droits. Toujours est-il que cette solution est à la fois puissante et intuitive, tout ce dont nous avons besoin pour faire du journalisme de données :

NeedleBase

Manipulation de données avec NeedleBase

Tout récemment Google a fait une acquisition qui va dans ce sens en mettant la main sur Metaweb, une gigantesque base de donnée “ouverte” où sont répertoriés 12 million d’entités sémantiques (visibles sur Freebase.com) : Google Acquires ‘Open Database’ Company Metaweb To Enrich Search Results.

Vers des systèmes auto-alimentants

Voici donc la stratégie de Google : Acheter des données avec l’idée de la monétiser une fois que le marché sera devenu dépendant de leur exploitation. Mais sommes-nous réellement dépendant des données ? Vous particulièrement, probablement pas, mais de nombreux aspects de votre quotidien repose sur une exploitation fine de données. Nous pourrions même aller plus loin en disant que l’exploitation des bonnes données pourrait améliorer votre quotidien (cf. Nos vies gérées par les données) ou la productivité d’une entreprise.

Les objets de notre quotidien pourraient ainsi capter un grand nombre de données vous concernant et fournir ainsi des statistiques très précieuses sur votre mode de vie et la façon d’optimiser votre alimentation, vos trajets, votre budget, votre suivi médical… Imaginez alors l’intérêt d’un coach qui serait à même d’interpréter ces données et de vous offrir de précieux conseils pour améliorer votre quotidien. Ces conseils et les données qui en sont à l’origine deviendraient rapidement une drogue pour des hommes et des femmes soucieux de leur bien-être : The upcoming Internet pandemic: data addiction.

Reste encore à régler le problème de la collecte : Seule une minuscule minorité des habitants de cette planète serait d’accord pour s’équiper des outils de mesure de votre quotidien (sommeil, alimentation, exercices physiques, trajets, dépenses…). Une minorité de geeks, sauf si un acteur industriel avec de gros moyens décide de fournir gratuitement les outils de mesure et de collecte en faisant un pari sur l’avenir (et sur la monétisation de ces données). Et cet industriel avide de données, encore une fois c’est Google avec son projet de compteur intelligent PowerMeter.

Google_PowerMeter

Et même si Google ne peut pas remplacer tous les compteurs électriques des pays occidentaux, il peut fournir la plateforme pour consolider les données et les re-publier : Google Releases API for Energy Tool PowerMeter. La promesse de Google est simple : Vous aider à mieux comprendre vos habitudes de consommation pour optimiser vos dépenses… tout en revendant les statistiques aux industriels pour qu’ils puissent développer des appareils ménagers plus en phase avec le mode de vie de ces clients.

Loin de moi l’idée de jouer les paranoïaques et de dénoncer ces pratiques, car si tout le monde y trouve son intérêt il n’y a pas de raison de s’en priver. Il n’empêche que si je fais la somme de tout ce que Google peut potentiellement savoir sur moi, ça commence à faire beaucoup :

  • Mes contacts avec Gmail ou Android (carnet d’adresse + historique des appels) ;
  • Mon profil (âge, parcours…) avec Google Me ;
  • Mes achats avec Checkout ;
  • Mes centres d’intérêt avec l’historique de mes recherches ;
  • Mes déplacements avec Latitude ;
  • Mes loisirs (les programmes TV que je regarde) avec Google TV ;
  • Mes lieux de vacances avec Picasa…

Et ce n’est qu’un début car avec la sémantisation progressive du web, le moteur d’indexation pourra consolider toujours plus de données sur les internautes, mobinautes et même tvnautes. Les données seront donc la matière première à une nouvelle génération d’outils, services et prestations en rapport avec l’amélioration du quotidien de chacun. Des données qui seront l’objet d’une bataille acharnée pour en contrôler la possession, la collecte ou l’exploitation.

J’anticipe donc un web dominé par les contenus et données où Google jouera un rôle prépondérant. Facebook ou Twitter peuvent-ils prétendre à un rôle important dans ce tableau ? J’en doute car il faut des moyens considérables et surtout des appuies industriels et politiques, tout ce qui leur fait défaut actuellement. Longue vie au couple royal !