Les différents stades d’évolution du web : 1.0, 2.0, 3.0…

À une époque pas si lointaine, la blogosphère s’écharpait autour de la définition du Web 2.0, c’était les débuts des médias sociaux. Puis nous avons assisté à la généralisation des terminaux mobiles, des grands volumes de données, de la réalité augmentée / virtuelle, des assistants numériques… Cette tentative de définition universelle de ce qu’était le web à l’époque est loin derrière nous. Pourtant, avec la montée en puissance de la blockchain et des applications distribuées, certains annoncent que nous sommes entrés dans la troisième grande étape d’évolution du web. Le problème de ces “phases” est qu’elles supposent une évolution linéaire, ce qui est loin d’être le cas.

Lire la suite “Les différents stades d’évolution du web : 1.0, 2.0, 3.0…”

La recherche passe à l’ère sémantique (et sociale) (et pas visuelle)

La semaine dernière, la frénésie autour de l’IPO de Facebook était a son apogée et qui a fait passé presque inaperçu un changement majeur pour le web : l’évolution du fonctionnement de la recherche de Google (Introducing the Knowledge Graph: things, not strings).

Google à l’assaut du web sémantique avec son Knowledge Graph

Le panneau de recherche sémantique de Google

La raison majeure de cette évolution est la prise en compte de données sémantiques dans les résultats de recherche. Le principe est le suivant : plutôt que se fier à des chaînes de caractères, Google va maintenant travailler à partir de données structurées (“Things, not strings“). Ces données structurées sont  la résultante des travaux de sémantisation des contenus initiés par les équipes de Google il y a de nombreuses années qui avaient déjà permis de faire des premières expérimentations (notamment la roue magique qui depuis a été mise hors ligne : Google Knowledge Graph, un pas vers la recherche sémantique).

Le Knowledge Graph est donc l’arme ultime de Google pour faire progresser la recherche. Une évolution qui s’est fait attendre, car le marché a beaucoup évolué ces derniers temps surtout avec les big data (Du contenu roi aux données reines). Ce graphe des connaissances repose sur la notion d’entités sémantiques qui représentent des personnes, des objets, des lieux, des ouvrages… Les informations et données sont alors associées à ces entités pour créer des bulles de connaissances qui sont affichées sur la droite de la page.

Des résultats de recherche structurés grâce aux entités sémantiques

L’air de rien, cette colonne de droite est la plus grosse évolution de l’interface de Google depuis plus d’une décennie ! Non seulement elle va permettre d’enrichir la liste de résultats avec des données et informations structurées, mais elle va aussi permettre de dissocier les sujets de recherche qui ont le même nom.

Un repérage pus évident des sujets de recherche similaires

De plus, la structuration des connaissances va permettre d’afficher des listes de résultats plus courtes, mais plus riches, ce qui est parfait pour les terminaux mobiles : The Knowledge Graph for mobile and tablet search.

Des listes de résultats mieux conçues pour les terminaux mobiles

Présenté de cette façon, ça à l’air très bien. Et pour cause, cette approche structurée de la connaissance est utilisée depuis de nombreuses années par Wikipedia, et notamment le projet DBpedia dont vous pouvez bénéficier au travers des infobox.

Les infobox de Wikipedia

Encore une fois, il était grand temps que Google fasse évoluer le coeur de son moteur de recherche, car ils étaient en train d’accumuler du retard. Au cours de la décennie passée, nous avons ainsi été les témoins de quatre grandes étapes d’évolution :

  1. Le web centré sur les pages et les documents (le Page rank de Google a permis de les classer par score de pertinence) ;
  2. Le web centré sur les vidéos (YouTube et les autres plateformes de partage de vidéos ont bouleversé les usages, la réponse de Google a été d’introduire les images et les vidéos dans les listes de résultats de son universal search) ;
  3. Le web centré sur les utilisateurs (Facebook est aujourd’hui l’acteur central du web avec son social graph, et Google est clairement à la traine) ;
  4. Le web centré sur des données structurées (Wikipedia et Google ont beaucoup investi dans ce domaine pour ne pas rater le coche).

En sortant sont knowledge graph, Google jette-t-il implicitement l’éponge vis-à-vis du web social ? Oui et non. Oui, car la dimension sociale n’a qu’un intérêt limité pour améliorer la pertinence des résultats de recherche (Mythes et réalités de la social search). De plus, voilà des années que l’on nous annonce la mort de Google avec l’avènement de la recherche sociale chez Facebook (par opposition à la recherche algorithmique), mais nous n’en avons toujours pas vu la couleur (ceci est principalement dû à la qualité des contenus sur Facebook). Non ensuite, car avec Google+, ils se sont lancés dans un immense chantier de sociabilisation du web.

Donc si l’on résume, les résultats de recherche de Google vont donc (très prochainement) être classés selon :

  • L’algorithme d’indexation reposant sur le page rank (qui a toujours son utilité) ;
  • Les entités sémantiques reposant sur Freebase ;
  • Les interactions sociales (conversations et interactions) associées à des auteurs référencés dans Google+.

Ils sont donc potentiellement positionnés sur les trois fronts de la recherche : algorithmique, social et sémantique.

Microsoft à l’assaut du web social avec Bing

De son côté, Microsoft vient également d’annoncer une nouvelle version de Bing exploitant la dimension socialeIntroducing the New Bing: Spend Less Time Searching. Si le nouveau Bing va appuyer ses résultats sur de nombreuses plateformes sociales (Facebook, Quora, Foursquare…), la dimension sémantique n’est pas en reste, car les équipes de recherche travaillent depuis de nombreuses années sur un moteur d’entités sémantiques baptisé Satori et dont on peut voir la partie visible de l’iceberg dans les snapshots, un panneau de détails des données structurées associés à un terme de recherche :

La nouvelle interface de recherche de Bing avec les snapshots et vos amis

Mais c’est la dimension sociale qui est la plus mise en avant dans cette refonte avec une colonne de droite qui lui est entièrement dédiée.

Cette nouvelle version de Bing se situe donc logiquement dans la continuité de son positionnement d’outil d’aide à la décision (Le marché de la recherche relancé avec Bing et Wolfram ?).

Yahoo! tente un ultime retour avec sa recherche visuelle

Visiblement ils se sont passé le mot, car Yahoo! aussi tente d’innover avec Axis, une extension pour navigateurs permettant de faire de la recherche visuelleYahoo! launches Axis, a combined search and browsing product.

Le nouvelle interface de recherche visuelle de Yahoo!

Je ne sais pas trop quoi penser de cette nouveauté. Il y a certes de l’ambition dans ce lancement (ils envisagent d’en faire une plateforme et même un navigateur dans le navigateur : Yahoo Axis, un nouveau navigateur web sur iOS), mais je reste sceptique sur le principe de recherche visuelle, car le filon a déjà été exploité par d’autres, et notamment Spezify, oSkope ou encore Cooliris.

J’ai toujours été un ardent défenseur de Yahoo! qui a joué un rôle prépondérant dans l’évolution du web que nous connaissons aujourd’hui… mais qui n’en finit pas de sombrer : The incredible shrinking Yahoo!. La meilleure chose qu’ils pourraient faire serait de revendre les parts qu’ils possèdent dans Alibaba et de racheter Twitter (Alibaba Buys Back 20% Stake From Yahoo for $7.1 Billion).

Plus que quelques leviers d’amélioration

Puisque l’on en parle (de Twitter), il est intéressant de constater qu’avec les changements que vont opérer Google et Microsoft, le marché se rétrécie et il ne va plus rester grand monde pour contrer l’hégémonie de ces mastodontes hormis les initiatives étranges comme DuckDuckGo.

Plus sérieusement, il ne reste selon moi, que trois acteurs pouvant réellement faire bouger les choses, et qui sont donc logiquement des rachats potentiels :

  • Twitter, le roi incontesté du web en temps réel, posez une question à vos followers, et les réponses arrivent au bout de quelques secondes. En théorie, car en pratique, celles et ceux qui n’ont que quelques dizaines de followers n’obtiennent pas grand-chose. Toujours est-il qu’avec une bonne technologie d’analyse sémantique, les tweets sont une authentique mine d’or dans le cadre de la recherche d’informations ou de données. Reste encore à signer un gros chèque et surtout à bien appréhender la dimension culturelle de la tweetosphère.
  • Quora, avec sa plateforme d’entreaide centrée sur les questions/réponses collaboratives. Là encore, Quora est une proie facile, mais sa richesse ne repose que sur la dynamique volontariste de sa communauté. Un rachat par Microsoft, Google ou Facebook pourrait tout ruiner…
  • Wolfram Alpha, le moteur de recherche le plus sophistiqué avec ses innombrables possibilités de requêtes structurées (une visite du blog vous en donnerait un aperçu). Assurément l’interface de recherche la plus aboutie… pour les chercheurs ! Je doute que le grand public y trouve son compte, éventuellement les enseignants, mais seulement les plus motivés. Par contre, dans le monde de l’entreprise, il y aurait beaucoup de choses à faire.

Vous remarquerez que je n’ai volontairement pas citer de moteur de recherche marchand. Ceci s’explique par le fait que les principaux moteurs se sont déjà organisés pour couvrir se domaine de façon autonome et proposer une structuration des informations sur les produits (Rich Snippets for Ecommerce: Schema.org and GoodRelations).

Tout va changer, mais rien ne va changer

Au final, même si les changements annoncés ces dernières semaines vont irrémédiablement modifier la façon de travailler des moteurs de recherche, les habitudes et parts de marché ne risquent pas de beaucoup évoluer. Toujours est-il qu’avec ces nouveautés, le web vient d’entamer sa transition vers l’ère sémantique. Mais nous aurons laaaaaaaaaaaaargement l’occasion d’en reparler…

Du contenu roi aux données reines

Souvenez-vous… il y a quelques années, le contenu était considéré comme la matière première du web : Celui qui maîtrisait le contenu maitrisait le web (les portails qui agrégeaient de très nombreuses sources de contenu concentraient également l’audience). Puis il y a eu MySpace, les Skyblogs, Facebook, Twitter, FourSquare… et maintenant il parait que c’est la communauté qui est reine. Certes, les plateformes sociales sont indéniablement en haut des tableaux d’audience, mais je reste convaincu que sans contenus une communauté n’est pas viable. Comprenez par là que ce sont les contenus qui alimentent les conversations et font tourner les communautés. De ce point de vue là, les plateformes sociales ne sont qu’un intermédiaire entre le contenu et les internautes. Un intermédiaire à valeur ajoutée, mais qui présente tout de même une certaine fragilité dans sa pérennisation (cf. De la qualité des contenus sur Facebook).

Sans rentrer dans la polémique, je pense ne pas me tromper en disant que le contenu reste roi, la communauté se nourrit de ce contenu pour générer des interactions sociales (mais là encore il y a des subtilités : Ne confondez plus communautaire et social). La grande question que je me pose est la suivante : Qu’est-ce qui alimente les rédacteurs de ce contenu ? C’est là où les données entrent en scène, non pas les données que les rédacteurs possèdent déjà, mais plutôt les données disponibles publiquement que les internautes peuvent  interroger et manipuler à loisir.

Les données à la base du… journalisme de données

Nous parlons bien ici de données brutes en très grande quantité (des chiffres) qu’il serait trop coûteux de traiter. En les exposant publiquement, ce travail de compilation / trituration / interprétation est déléguée à la communauté qui va ainsi pouvoir nourrir une réflexion ou appuyer des prises de position. Et à ce petit jeu, certains journalistes en ont fait leur spécialité, cela s’appelle du journalisme de données (datajournalism en anglais). L’idée est d’extraire des informations pertinentes de quantités importantes de données.

Pour vous aider à comprendre l’intérêt de cette pratique, amusez-vous à compter le nombre d’articles qui font référence à Google Trends, les statistiques de recherche sont les données sur lesquelles repose toute l’argumentation de ces articles. Autre illustration avec ce graphique très intéressant qui met en évidence les performances extraordinaires (=suspectes) des coureurs du tour de France :

ActuVisu

Ces données sont extraites du portail ActuVisu qui permet justement de manipuler des bases de données (cf. Datajournalisme : du nouveau en France avec ActuVisu). Les données sont dans ce cas de figure la matière première d’une réflexion, ou plutôt d’une investigation. Les possibilités sont nombreuses et la profession se met en marche pour développer de nouvelles compétences dans ce domaine. Pour mieux comprendre ce phénomène, je vous recommande les trois articles suivants : Pourquoi le data-journalisme, c’est l’avenir en marcheQuatre voies du datajournalism et Illusions et malentendus sur le journalisme de données.

Après les portails de contenus, les portails de données

L’exemple français d’ActuVisu illustre une tendance de fond initiée il y a 5 ans avec la fondation GapMinder qui fournit justement un accès à de très nombreuses données et statistiques (leur crédo : “Unveiling the beauty of statistics for a fact based world view“).

Gapminder

Tout l’intérêt de ce portail est d’une part d’agréger le plus grand nombre de données possible (de préférence en les rendant exploitables et compatibles) ainsi que de fournir un outil simple pour manipuler et visualiser ces données. Il existe d’autres initiatives comme ManyEyes d’IBM, Socrata ou plus modestement Worldmapper. Notez que ces interfaces pour données sont une notion chère à Tim Bernes-Lee (cf. ReadWriteWeb Interview With Tim Berners-Lee, Part 2: Search Engines, User Interfaces for Data, Wolfram Alpha, And More…), preuve que ce sujet est important.

Un créneau très porteur qui intéresse les moteurs de recherche de Google, qui a racheté en 2007 l’outil de visualisation qui propulse GapMinder et qui propose également Google Public Data Explorer dans son labo. Ce rachat fait sens dans la mesure où Google est très certainement un des mieux placé pour collecter les données éparpillées aux 4 coins du web. Reste encore le problème des données non-publiques.

Libération des données publiques avec Open Data

Les initiatives d’Open Data consiste à libéraliser les données publiques pour apporter plus de transparence (à l’image du portail anglais WhereDoesMyMoneyGo?) et pour nourrir des réflexions et projets sociétaux (lire à ce sujet Open Data : des licences libres pour concilier innovation sociale et économique). L’administration américaine a été la première à se lancer en ouvrant le portail Data.gov, suivie par d’autres pays comme l’Angleterre, l’Australie et la Nouvelle-Zélande (cf. Quel modèle pour le data.gov Français ?).

DataUK

Il est important de comprendre que ces initiatives ne sont pas tant une manoeuvre politique ou un outil de surveillance qu’un levier d’innovation pour accélérer l’émergence de nouveaux modèles sociétaux ou de nouveaux projets relatifs à l’environnement, l’éducation, la santé…

Pour le moment le chantier est toujours en cours en France mais des initiatives locales permettent déjà d’accéder à des poches de données : État des lieux de l’OpenData en France.

Les données comme trésor de guerre des moteurs

Comme nous venons de le voir, les données sont donc une matière première particulièrement convoitée. À partir de ce constat, il n’est pas surprenant de voir que les grands moteurs de recherche s’intéressent de près à ces données et cherchent à les exploiter pour apporter une couche d’intelligence aux résultats de recherche. Illustration avec le tout nouveau Bing Shopping qui propose des pages de résultats structurées :

BingShopping

L’idée derrière tout ça est de proposer non pas un moteur de recherche mais un outil d’aide à la décision (cf. New version of Bing Shopping). Et pour structurer des résultats, que faut-il ? Des données ! Autant Microsoft a opté pour des partenariats, autant Google est passé à la vitesse supérieure avec notamment l’acquisition d’ITA, un fournisseur de données touristiques spécialisé sur l’aérien qui va permettre à Google de faire de l’intégration verticale sur ce créneau : With ITA Purchase, Google Now Owns the Skies.

La vente de billets d’avion en ligne est un business très juteux, il est donc normal que Google casse sa tirelire pour blinder sa position. Il y a par contre des secteurs à priori moins rémunérateurs mais pour lesquels un outil de consolidation / manipulation / visualisation des données offrirait une position dominante à son éditeur : L’immobilier, l’emploi, les loisirs (IMDB est un bon exemple de données structurées à valeur ajoutée) ou encore le sport (citons l’exemple de Footbalistic). Je vous recommande à ce sujet l’article de GigaOm qui détaille ces exemples : Who Will Google Buy Next for Structured Data?.

L’idée ici est d’investir dans une base de donnée verticale et de monétiser son exploitation. Constituer une base de données de référence est un chantier titanesque, et seuls les acteurs avec les plus gros moyens peuvent y parvenir. Mais une fois le monopole établi, les possibilités sont nombreuses pour rentabiliser cet investissement. Google Maps est un autre exemple intéressant d’une gigantesque base de données (géographiques) dont nous avons maintenant beaucoup de mal à nous passer et dont le propriétaire a tout le temps pour trouver des solutions de monétisation viables.

Plus intéressant, un article de GigaOm nous révèle que ITA ne se restreint pas au secteur du tourisme aérien mais édite également une solution de manipulation de données accessible sur NeedleBase.comMeet the Web Database Company Google Just Bought. Cette solution ne permet pas de manipuler des données publiques mais de groupes de données dont l’utilisateur a les droits. Toujours est-il que cette solution est à la fois puissante et intuitive, tout ce dont nous avons besoin pour faire du journalisme de données :

NeedleBase

Manipulation de données avec NeedleBase

Tout récemment Google a fait une acquisition qui va dans ce sens en mettant la main sur Metaweb, une gigantesque base de donnée “ouverte” où sont répertoriés 12 million d’entités sémantiques (visibles sur Freebase.com) : Google Acquires ‘Open Database’ Company Metaweb To Enrich Search Results.

Vers des systèmes auto-alimentants

Voici donc la stratégie de Google : Acheter des données avec l’idée de la monétiser une fois que le marché sera devenu dépendant de leur exploitation. Mais sommes-nous réellement dépendant des données ? Vous particulièrement, probablement pas, mais de nombreux aspects de votre quotidien repose sur une exploitation fine de données. Nous pourrions même aller plus loin en disant que l’exploitation des bonnes données pourrait améliorer votre quotidien (cf. Nos vies gérées par les données) ou la productivité d’une entreprise.

Les objets de notre quotidien pourraient ainsi capter un grand nombre de données vous concernant et fournir ainsi des statistiques très précieuses sur votre mode de vie et la façon d’optimiser votre alimentation, vos trajets, votre budget, votre suivi médical… Imaginez alors l’intérêt d’un coach qui serait à même d’interpréter ces données et de vous offrir de précieux conseils pour améliorer votre quotidien. Ces conseils et les données qui en sont à l’origine deviendraient rapidement une drogue pour des hommes et des femmes soucieux de leur bien-être : The upcoming Internet pandemic: data addiction.

Reste encore à régler le problème de la collecte : Seule une minuscule minorité des habitants de cette planète serait d’accord pour s’équiper des outils de mesure de votre quotidien (sommeil, alimentation, exercices physiques, trajets, dépenses…). Une minorité de geeks, sauf si un acteur industriel avec de gros moyens décide de fournir gratuitement les outils de mesure et de collecte en faisant un pari sur l’avenir (et sur la monétisation de ces données). Et cet industriel avide de données, encore une fois c’est Google avec son projet de compteur intelligent PowerMeter.

Google_PowerMeter

Et même si Google ne peut pas remplacer tous les compteurs électriques des pays occidentaux, il peut fournir la plateforme pour consolider les données et les re-publier : Google Releases API for Energy Tool PowerMeter. La promesse de Google est simple : Vous aider à mieux comprendre vos habitudes de consommation pour optimiser vos dépenses… tout en revendant les statistiques aux industriels pour qu’ils puissent développer des appareils ménagers plus en phase avec le mode de vie de ces clients.

Loin de moi l’idée de jouer les paranoïaques et de dénoncer ces pratiques, car si tout le monde y trouve son intérêt il n’y a pas de raison de s’en priver. Il n’empêche que si je fais la somme de tout ce que Google peut potentiellement savoir sur moi, ça commence à faire beaucoup :

  • Mes contacts avec Gmail ou Android (carnet d’adresse + historique des appels) ;
  • Mon profil (âge, parcours…) avec Google Me ;
  • Mes achats avec Checkout ;
  • Mes centres d’intérêt avec l’historique de mes recherches ;
  • Mes déplacements avec Latitude ;
  • Mes loisirs (les programmes TV que je regarde) avec Google TV ;
  • Mes lieux de vacances avec Picasa…

Et ce n’est qu’un début car avec la sémantisation progressive du web, le moteur d’indexation pourra consolider toujours plus de données sur les internautes, mobinautes et même tvnautes. Les données seront donc la matière première à une nouvelle génération d’outils, services et prestations en rapport avec l’amélioration du quotidien de chacun. Des données qui seront l’objet d’une bataille acharnée pour en contrôler la possession, la collecte ou l’exploitation.

J’anticipe donc un web dominé par les contenus et données où Google jouera un rôle prépondérant. Facebook ou Twitter peuvent-ils prétendre à un rôle important dans ce tableau ? J’en doute car il faut des moyens considérables et surtout des appuies industriels et politiques, tout ce qui leur fait défaut actuellement. Longue vie au couple royal !

Web Squared, transition vers le web 3.0 ou nouveau paradigme ?

Voilà maintenant près de 5 ans que l’on parle du web 2.0 (ce terme a pour la première fois été utilisé en 2004 lors du Web 2.0 Summit) et depuis le grand jeu a été de savoir quand arrivera la prochaine itération. Pour faire simple disons que le web 2 .0 était le terme utilisé dans les années 2006/2007 pour décrire un changement majeur dans les usages de l’internet (voir ma dernière définition en date). Ce dernier repose sur deux notions fondamentales: l’intelligence collective, le web comme une plateforme (pour les utilisateurs et les services). Maintenant ce terme est passé de mode et l’on emploie plus volontiers celui de médias sociaux qui sonne moins “informatique” à l’oreille. J’ai également eu l’occasion de faire un panorama des différents services associés aux médias sociaux ainsi que de donner une définition.

L’étape suivante a logiquement été d’anticiper le web 3.0 (dont j’ai également tenté de donner une définition en 2006) qui repose sur le concept de web sémantique avec le découpage suivant qui est communément admis :

  • Web 1.0 = plateforme pour les documents
  • Web 2.0 = plateforme pour les individus
  • Web 3.0 = plateforme pour les données

A la vue du chantier titanesque que représente la re-sémantisation du web (nous parlons d’un horizon à 5 ou 10 ans) et des avancées dans d’autres domaines, Tim O’Reilly et John Battelle ont proposé une appellation intermédiaire lors du dernier Web 2.0 Summit : Web Squared: Web 2.0’s Successor?

L’idée étant de regrouper différentes avancées majeures derrière un terme unique pour pouvoir capitaliser dessus et évangéliser le marché. D’où la nouvelle notion de Web² (Web au carré, “Web Squared” en anglais) qui étend la portée du web 2.0 au-delà de la frontière des ordinateurs et des utilisateurs pour lui trouver des domaines d’application dans le monde réel, comprenez par là le terrain.

Web² = Web 2.0 + World

Les explications autour de ce Web² sont résumées dans l’article fondateur suivant : Web Squared: Web 2.0 Five Years On, mais vous pouvez en trouver une lecture plus synthétique ici : The Evolving Web In 2009: Web Squared Emerges To Refine Web 2.0. C’est d’ailleurs de ce dernier article que je tire ce très bon schéma :

web_squared

 

Le Web² est donc présenté comme un complément du Web 2.0, une forme de maturation qui va tranquillement nous mener vers la prochaine itération majeure (le fameux Web 3.0 dont les contours sont encore flous). Plusieurs notions fondamentales sont citées dans ce schéma que je vais essayer de vulgariser.

Implied Metadata : des métadonnées générées automatiquement et des systèmes auto-apprenants

Le web est aujourd’hui une véritable mine d’or d’informations. A tel point que le commun du mortel est confronté au problème d’infobésité : une surabondance d’informations qui perturbe la recherche d’informations à valeur ajoutée. Pour nous aider dans cette tâche de traitement de cette masse colossale d’informations, nous avons besoin de métadonnées (des données qui décrivent les données). Prenons l’exemple d’une photo de la Tour Eiffel, n’importe qui saura que cette photo a été prise à Paris, n’importe quel utilisateur humain mais pas les machines ! Pour qu’un service ou un agent intelligent puisse savoir que telle photo représente la Tour Eiffel et qu’elle a été prise à Paris, il faut lui préciser. Oui mais voilà, c’est un travail laborieux. Heureusement sont apparus des appareils photo numériques capables d’associer tout un tas de données aux photos comme par exemple les coordonnées GPS ou le modèle de l’appareil. Ces données ne sont pas directement accessibles à l’utilisateur mais elles sont disponibles pour qui veut bien se donner la peine de les chercher.

Ce type de métadonnées ne représente aux yeux de l’utilisateur que très peu de valeur, sauf si elles sont collectées et exploitées dans un contexte structurant comme par exemple sur FlickR où il est possible de parcourir les photos de la communauté en fonction de l’endroit où elles ont été prises (sur une carte du monde) ou en fonction du type d’appareil photo. Vous obtenez ainsi un très bon outil d’analyse du parc d’appareils photo numériques en circulation sans que les utilisateurs aient eu à saisir ces données, elle sont implicites (d’où la notion d'”implied metadata“).

Mais cela va plus loin avec les systèmes auto-apprenants qui sont capables de générer des métadonnées à partir de recoupements. Reprenons l’exemple de nos photos numériques : si vous souhaitez les classer en fonction des personnes qui sont prises en photo, il faut toutes les parcourir à la main pour mettre de côté celles qui vous intéressent. Sauf si vous avez recours à un logiciel de reconnaissance faciale qui va faire ce travail à votre place : vous lui donner 2 ou 3 exemples pour qu’il reconnaisse un visage et il vous propose ensuite une liste de suggestions à valider. C’est le principe mis en œuvre par iPhoto 09.

iPhoto_Faces

L’article de Tim O’reilly cite l’exemple d’un chauffeur de taxi en Nouvelle-Zelande qui a trouvé un façon très rentable d’exploiter les métadonnées implicites : ce dernier a enregistré pendant 6 semaines un certain nombre de données sur ses courses (nombre de passagers, coordonnées GPS des points de départ et arrivée, conditions climatiques, horaires…), en a fait une compilation puis une analyse afin de déterminer les quartiers le plus rentables en fonction de l’heure de la journée.

Les métadonnées implicites comme facteur de croissance du C.A., une belle promesse, non ? Et il est possible de trouver de nombreux autres domaines d’application grâce aux données potentiellement fournies par des capteurs (votre téléphone ou n’importe quel objet équipé d’une puce RFID ou ZigBee peut faire l’affaire). Il en va de même pour les compteurs intelligents qui vont remonter des données très précieuses sur les habitudes de consommation des foyers (notion de “Smart Electric Grid” possible car chaque appareil émet une signature électrique unique). Ce type d’équipement permet ainsi à votre fournisseur d’énergie de mieux anticiper la consommation (et donc son approvisionnement) ainsi que de vous faire des recommandations pour optimiser votre facture.

Smart_Electricity_Meter

Bien évidemment tout ceci est encore en train de se mettre en place mais il semblerait qu’une norme commune soit déjà en train d’émerger : MQTT, un protocole pour standardiser les communications de machine à machine (cf. MQTT Poised For Big Growth – an RSS For Internet of Things?).

L’auteur nous met néanmoins en garde contre l’accumulation de ces données et les problèmes d’exploitation qui peuvent en découler : ce sont des données brutes, elles doivent être traitées et présentées de façon adéquate pour être compréhensibles et représenter une réelle valeur. D’où l’importance de systèmes de visualisation suffisamment souples et intuitifs pour permettre une manipulation aisée. Des services comme Gap Minder nous montrent ainsi la voie : mettre à disposition des données brutes (Ex : Data.gov) et fournir les outils pour les manipuler et en tirer du sens.

Information Shadow : des infos pour chaque objet, personne, lieu…

Autre notion importante, celle d’Information Shadow qui décrit l’ensemble des informations et données associées à un objet, une personne, un lieu, un événement… Ces informations sont disponibles n’importe où (data-on-the-cloud), il suffit juste d’avoir le bon lecteur pour les visualiser. Prenons un exemple que vous connaissez tous : le code barre. En passant un scanner dessus, vous obtenez la désignation, le prix… Même principe pour les mobile tags et autres flashcodes qu’il suffit de prendre en photo avec votre téléphone pour obtenir des infos complémentaires (cinémas les plus proches et horaires pour un film, ressources complémentaires pour un article…). Nous n’en croisons pas beaucoup pour le moment mais attendez-vous à une montée en puissance très rapide grâce notamment à des lecteurs universels comme le BeeTagg Multicode Reader ou à l’impulsion de gros acteurs comme Microsoft avec son Tag.

MobileTag

Autre possibilité et pas des moindres, le recours à des applications de réalité augmentée en situation de mobilité comme celle que propose Layar : en regardant le monde au travers de la caméra de votre téléphone, vous avez accès à une multitude de couches de données supplémentaires qui viennent enrichir la réalité.

Layar1

Exemple d’application de réalité augmentée avec Layar

Ce ne sont que des exemples et encore une fois les domaines d’application sont nombreux, de même que les supports.

Real-Time Web : informations et interactions sociales en quasi temps réel

Autre phénomène majeur de ces derniers mois, l’avènement du web temps réel avec notamment les outils de microblogging comme Twitter. L’idée derrière cette notion est que les outils mis à la disposition de la foule (accessibles au travers d’un ordinateur ou de terminaux mobiles) permettent l’émergence d’une conscience collective qui réagit en quasi temps réel aux événements extérieurs. Le facteur le plus important dans ce web en temps réel est la remontée d’informations ultra- fraiches directement sur le terrain, comme par exemple lors des dernières manifestations en Iran.

twitter_iran

Cela fonctionne aussi bien pour les news que pour les événements (tweets lors de conférences, concerts ou défilé du 14 juillet), pour le marketing (avec des outils de monitoring de la statusphère), pour les interactions sociales avec des solutions de syndication en temps réel comme Echo (cf. Vers des commentaires distribués pour les blogs ?).

Bref, l’échelle de temps est de plus en plus courte et cela s’applique d’autant mieux sur des plateformes sociales à grande échelle. Il y a à ce sujet une théorie très intéressante autour du Synaptic Web (en référence aux synapses qui relient les neurones entre eux) qui décrit les plateformes sociales de type Facebook ou Twitter comme des cerveaux “sociaux” où les membres (les neurones) interagissent en très grand nombre et avec des temps de réaction toujours plus courts (RT, commentaires, notes…). Bref, c’est de l’intelligence collective en quasi temps réel, le tout étant de trouver les bons outils de surveillance / interprétation des ces échanges (pour faire le tri entre bruit et signaux).

Data Ecosystems : des bases de connaissances structurées, ouvertes et universelles

Dernière grosse notion du Web² : les écosystèmes de données qui permettent de relier entre elles des bases de connaissances qui étaient auparavant cloisonnées. Pour comprendre le fonctionnement de ces Data Ecosystems, il me faut d’abord vous expliquer deux notions sous-jacentes : les Linked Data et les Data Sets.

Le terme Linked Data est utilisé pour décrire une méthode de partage et de connexion de données entre elles. Jusqu’à présent, pour relier deux données entre elles il fallait faire un lien depuis une donnée A vers une donnée B avec une URL (ex : Un clic sur ce lien ‘Fred Cavazza‘ mène à mon profil sur LinkedIn). Cette forme de connexion présente de nombreuses contraintes car elle est trop formelle et surtout limitée (un lien ne permet de relier entre elles que 2 données). C’est à la fois très puissant pour les utilisateurs (qui sautent de pages en pages) mais très pauvre pour les machines et agents intelligents (qui doivent parcourir le web dans tous les sens pour lier un grand nombre de données entre elles). L’idée derrière les Linked Data est de proposer un mécanisme plus souple et surtout plus puissant qui repose sur 4 principes :

  • Utiliser des URIs et non des URLs (un identifiant unique bien qui autorise de la granularité) ;
  • Utiliser des adresses http pour un accès universel (aussi bien pour les utilisateurs que pour les machines) ;
  • Structurer les informations sur la ressource à l’aide de métalangage comme RDF ;
  • Lier ces informations à d’autres données (via des URIs).

Dans les faits : vous avez un article qui parle de Berlin, vous pouvez soit mettre un lien URL sur le mot Berlin qui pointe vers la page Wikipedia (utile pour les utilisateurs mais par pour les machines car ce sont des informations non-structurées), soit mettre un lien URI qui pointe vers les Linked Data de Berlin (avec des données structurées très utiles pour les machines mais bien trop dures à lire pour les utilisateurs).

Berlin_dbPedia

Ne vous y trompez pas : les Linked Data ne sont pas l’avenir du web semantique, c’est “simplement” une façon de sémantiser le web. Mais je ne voudrais pas m’enliser dans des explications complexes sur les subtilités entre Linked Data et Semantic Web.

Les Data Sets sont des groupes de données qui sont connectées entre eux (les groupes). Pour faire simple : IMDB est une gigantesque base de données sur l’industrie du cinéma, par contre elle n’est pas nécessairement ouverte à l’extérieure (il faut avoir un compte premium il me semble). Les Data Sets sont des bases de données qui sont liées entre elles grâce aux Linked Data, chaque donnée enrichit les autres et multiplie ainsi la valeur du tout. Fabrice Epelboin donne une très belle métaphore dans son article : « Les données étaient autrefois enfermées, comme des fleurs dans des serres. Ce que l’on propose ici, c’est de les faire pousser en plein air, de façon à ce qu’une multitude d’abeilles non seulement se chargent de la polénisation pour le compte des fleuristes, mais qu’on puisse créer du miel et la profession d’apiculteur ».

Bien évidemment cela représente un chantier titanesque mais les travaux progressent à grand pas, notamment sous l’impulsion de Sir Tim Berners Lee dont vous pouvez voir ici une présentation parlant des Linked Data au TED :

http://video.ted.com/assets/player/swf/EmbedPlayer.swf

L’objectif des Data Ecosystems est donc de créer de gigantesques bases de bases de données, ou plutôt une méta base de données qui les regroupe toutes :

DataSets

L’idée étant que l’on puisse créer de la valeur en liant des données de différents horizons (médicales, culturelles…). Signalons ainsi des initiatives remarquables comme :

  • Le projet Gutenberg, une bibliothèque universelle (sorte de Google Books mais en open source) ;
  • dbPedia, une communauté qui se charge de structurer les informations de Wikipedia en données “compatibles” avec Linked Data (regardez donc le cadre à droite de certaines fiches, les infobox, ce sont des données tructurées) ;
  • Jamendo, une plateforme musicale entièrement en Creative Commons qui a publié son catalogue sous forme de Data Sets / Linked Data (exploitables avec dbTunes).

Ce ne sont que quelques exemples mais ils témoignent de l’ampleur de la tâche et de l’engagement des membres.

Vous l’aurez donc compris, le web sémantisé n’est pas pour tout de suite mais les différents grands acteurs se mettent en rang pour terminer cette conversion au plus vite. Linked Data et Data Sets ne sont qu’un exemple d’initiatives concourant à la création de Data Ecosystems mais il en existe d’autres comme par exemple le format CommonTag qui vise à standardiser l’utilisation des tags (cf. Common Tag apporte un standard aux métadonnées).

Pourquoi parler du Web Squared ?

Tout simplement parce qu’il est inimaginable de penser évangéliser le marché avec des termes jargonnant comme Information Shadow, Linked Data, Implied Metadata… il faut employer un terme simple qui puisse aider le commun des mortels à comprendre que nous sommes en train de vivre une nouvelle bascule (tout comme cela a été le cas avec le Web 2.0).

Je suis persuadé que nous sommes pratiquement arrivé au bout de ce que le web peut nous offrir en terme de partage de documents / contenus de même que pour les interactions sociales. Il existe encore de nombreux services et domaines d’application à trouver dans ces deux domaines mais nous avons déjà fait le plus gros. Nous sommes déjà en train de vivre la prochaine grosse itération du web : le web en temps réel, la réalité augmentée, les objets communicants, les écosystèmes de données sont des innovations en cours de maturation qui vont complètement bouleverser notre façon de communiquer, consommer, travailler, nous divertir… Bref, un nouveau paradigme des usages du web.

Pour marquer cette itération, nous avons besoin d’éduquer le marché (utilisateurs, annonceurs, opérateurs, pouvoirs publics…) et pour cela il faut pouvoir capitaliser sur un terme simple : le Web² (Web Squared).

Et maintenant ?

Maintenant tout reste à faire ! Ou plus précisément le travail d’évangélisation ne fait que commencer. Je vous engage ainsi à vous familiariser avec ces différentes notions et de prendre le temps d’en tester les applications pour bien appréhender la (r)évolution qui approche.

Rétrospectives sur mes prédictions 2008

Comme chaque année, avant de me lancer dans le délicat exercice des prédictions de l’année 2009, je souhaiterais au préalable revenir sur les prédictions que j’avais faites en début d’année et voir si elles se sont réalisées.

1/ Interopérabilité forcée entre les réseaux sociaux

À défaut de forçage, on peut parler de bonne volonté, même si la route sera longueOpenID (implémenté par à peut-près tout le monde de Google à Yahoo! en passant par Microsoft), OpenSocialData AvailbilityData Portability… les initiatives ne manquent pas et des projets propriétaires comme Facebook Connect apparaissent comme ridiculement isolés. Dans tous les cas de figure, entre les réseaux sociaux de niche, les plateformes de création de réseaux sociaux et la socialisation des plateformes communautaires traditionnelles (type casual gaming…), l’avenir est bien évidement dans l’interopérabilité universelle.

Verdict : On y est pas encore mais ça va venir.

2/ Des jeux disponibles sur iTunes

Lancée en juillet 2008, l’App Store est une véritable machine de guerre qui génère des millions de $ de bénéfices, à tel point que l’iPhone est maintenant plus vu comme une console portable que comme un smartphone (cf. Is iPhone The New Gaming Platform?).

Verdict : Bingo !

3/ Hybridation des univers virtuels et des réseaux sociaux pour les jeunes

Pas un seul univers virtuel n’est lancé (ou n’est en exploitation) sans une très forte dimension sociale. Ce phénomène dépasse même largement le segment des jeunes (Réseaux sociaux + Univers virtuels = ExitReality ?) et concerne également les univers entre eux (Vers une extra-opérabilité des univers virtuels avec Myrl).

Verdict : Bingo !

4/ Hybridation entre jeux vidéos et réseaux sociaux

Inutile de revenir là-dessus car je me suis déjà largement exprimé sur ce sujet : Social Networks + Casual Games = Social GamesLa Brute + MMO + Facebook = Elven Blood et Entropia Universe et Prizee au Salon du Jeu Vidéo.

Verdict : Bingo !

5/ Bientôt les UGG (User Generated Games)

Idem, je me suis déjà exprimé sur ce sujet : Microsoft lance une plateforme de création de jeux en ligne et EA se lance dans les User Generated Games.

Verdict : Bingo !

6/ Le P2P trouve d’autres domaines d’application

Visiblement les architectures P2P font plus peur que rêver ! Toujours est-il qu’avec l’arrêt de projets comme Outback Online, et la refonte de Joost en un portail de diffusion plus traditionnel nous comme loin de mes prédictions.

Verdict : C’est raté !

7/ Apparition d’indicateurs spécifiques aux réseaux sociaux et univers virtuels

La question de la monétisation (donc de l’évaluation) et du ROI des campagnes ciblant ces supports est plus que jamais d’actualité en cette période de “réduction de la voilure”. Comprenez par là que ces fameux indicateurs sont maintenant une nécessité mais que personne n’accepte encore de communiquer ouvertement dessus (chacun ayant son algorithme de social scoring). En attendant d’avoir un référentiel stabilisé et partagé par l’ensemble de la profession, vous pouvez toujours calculer votre Social Media Score.

Verdict : On y est pas encore mais ça va venir.

8/ Des territoires d’expression sur-mesure pour les plus grandes marques

En plus d’un certain nombre de marques comme Mc Donald’s, Disney et Renault qui se sont lancées, nous voyons se multiplier les univers virtuels de niche en rapport avec des émissions de télévision (Star’Ac World, Plus belle la life) sous l’impulsion d’acteurs comme There ou Taatu (cf. There veut marcher sur les plates bandes de Second Life et Taatu, une solution “clé en main” qui séduit les annonceurs) de même que l’apparition de réseaux sociaux centrés sur des people (Les peoples envahissent les réseaux sociaux).

Verdict : Bingo !

9/ Accélération de l’innovation dans le e-Commerce

Nombreuses sont les innovations qui ont vu le jour cette année : au niveau de l’interface (3D, vidéo… des tonnes d’exemples à découvrir sur RichCommerce.fr), au niveau des terminaux mobiles (Bientôt le ‘visual search engine’ sur iPhone), au niveau des utilisateurs et de leur capacité de recommandation (Amazon et la longue traîne du web TV shopping). Il y a également de la nouveauté dans les solutions de paiement avec 3D Secure mais je ne préfère pas aborder le sujet car ça risque de dégénérer… Bref, le e-Commerce se porte bien et l’innovation n’est pas prête de s’arrêter.

Verdict : Bingo !

10/ Une seconde chance pour le web sémantique

Décidément le web sémantique n’en finit plus d’être (re)lancer avec des services comme Twine, Swirrl et des notions comme semantic desktop ou les semantic web apps. Bref, il y a des couches sémantiques à tous les étages… mais pas chez les moteurs de recherche. Visiblement nous nous dirigeons donc vers une “sémantisation sociale” du web (contenus, applications, utilisateurs…) réalisée par les internautes et non par des agents intelligents. Donc ils ne le sont pas tant que ça en fait (intelligents) (les agents).

Verdict : C’est raté !

 

Bon… avec 6 prédictions réalisées et 2 en voie de réalisation ça me fait un très beau palmarès, non ? J’espère que mes prédictions 2009 connaitrons une même réussite !