La recherche passe à l’ère sémantique (et sociale) (et pas visuelle)

La semaine dernière, la frénésie autour de l’IPO de Facebook était a son apogée et qui a fait passé presque inaperçu un changement majeur pour le web : l’évolution du fonctionnement de la recherche de Google (Introducing the Knowledge Graph: things, not strings).

Google à l’assaut du web sémantique avec son Knowledge Graph

Le panneau de recherche sémantique de Google

La raison majeure de cette évolution est la prise en compte de données sémantiques dans les résultats de recherche. Le principe est le suivant : plutôt que se fier à des chaînes de caractères, Google va maintenant travailler à partir de données structurées (« Things, not strings« ). Ces données structurées sont  la résultante des travaux de sémantisation des contenus initiés par les équipes de Google il y a de nombreuses années qui avaient déjà permis de faire des premières expérimentations (notamment la roue magique qui depuis a été mise hors ligne : Google Knowledge Graph, un pas vers la recherche sémantique).

Le Knowledge Graph est donc l’arme ultime de Google pour faire progresser la recherche. Une évolution qui s’est fait attendre, car le marché a beaucoup évolué ces derniers temps surtout avec les big data (Du contenu roi aux données reines). Ce graphe des connaissances repose sur la notion d’entités sémantiques qui représentent des personnes, des objets, des lieux, des ouvrages… Les informations et données sont alors associées à ces entités pour créer des bulles de connaissances qui sont affichées sur la droite de la page.

Des résultats de recherche structurés grâce aux entités sémantiques

L’air de rien, cette colonne de droite est la plus grosse évolution de l’interface de Google depuis plus d’une décennie ! Non seulement elle va permettre d’enrichir la liste de résultats avec des données et informations structurées, mais elle va aussi permettre de dissocier les sujets de recherche qui ont le même nom.

Un repérage pus évident des sujets de recherche similaires

De plus, la structuration des connaissances va permettre d’afficher des listes de résultats plus courtes, mais plus riches, ce qui est parfait pour les terminaux mobiles : The Knowledge Graph for mobile and tablet search.

Des listes de résultats mieux conçues pour les terminaux mobiles

Présenté de cette façon, ça à l’air très bien. Et pour cause, cette approche structurée de la connaissance est utilisée depuis de nombreuses années par Wikipedia, et notamment le projet DBpedia dont vous pouvez bénéficier au travers des infobox.

Les infobox de Wikipedia

Encore une fois, il était grand temps que Google fasse évoluer le coeur de son moteur de recherche, car ils étaient en train d’accumuler du retard. Au cours de la décennie passée, nous avons ainsi été les témoins de quatre grandes étapes d’évolution :

  1. Le web centré sur les pages et les documents (le Page rank de Google a permis de les classer par score de pertinence) ;
  2. Le web centré sur les vidéos (YouTube et les autres plateformes de partage de vidéos ont bouleversé les usages, la réponse de Google a été d’introduire les images et les vidéos dans les listes de résultats de son universal search) ;
  3. Le web centré sur les utilisateurs (Facebook est aujourd’hui l’acteur central du web avec son social graph, et Google est clairement à la traine) ;
  4. Le web centré sur des données structurées (Wikipedia et Google ont beaucoup investi dans ce domaine pour ne pas rater le coche).

En sortant sont knowledge graph, Google jette-t-il implicitement l’éponge vis-à-vis du web social ? Oui et non. Oui, car la dimension sociale n’a qu’un intérêt limité pour améliorer la pertinence des résultats de recherche (Mythes et réalités de la social search). De plus, voilà des années que l’on nous annonce la mort de Google avec l’avènement de la recherche sociale chez Facebook (par opposition à la recherche algorithmique), mais nous n’en avons toujours pas vu la couleur (ceci est principalement dû à la qualité des contenus sur Facebook). Non ensuite, car avec Google+, ils se sont lancés dans un immense chantier de sociabilisation du web.

Donc si l’on résume, les résultats de recherche de Google vont donc (très prochainement) être classés selon :

  • L’algorithme d’indexation reposant sur le page rank (qui a toujours son utilité) ;
  • Les entités sémantiques reposant sur Freebase ;
  • Les interactions sociales (conversations et interactions) associées à des auteurs référencés dans Google+.

Ils sont donc potentiellement positionnés sur les trois fronts de la recherche : algorithmique, social et sémantique.

Microsoft à l’assaut du web social avec Bing

De son côté, Microsoft vient également d’annoncer une nouvelle version de Bing exploitant la dimension socialeIntroducing the New Bing: Spend Less Time Searching. Si le nouveau Bing va appuyer ses résultats sur de nombreuses plateformes sociales (Facebook, Quora, Foursquare…), la dimension sémantique n’est pas en reste, car les équipes de recherche travaillent depuis de nombreuses années sur un moteur d’entités sémantiques baptisé Satori et dont on peut voir la partie visible de l’iceberg dans les snapshots, un panneau de détails des données structurées associés à un terme de recherche :

La nouvelle interface de recherche de Bing avec les snapshots et vos amis

Mais c’est la dimension sociale qui est la plus mise en avant dans cette refonte avec une colonne de droite qui lui est entièrement dédiée.

Cette nouvelle version de Bing se situe donc logiquement dans la continuité de son positionnement d’outil d’aide à la décision (Le marché de la recherche relancé avec Bing et Wolfram ?).

Yahoo! tente un ultime retour avec sa recherche visuelle

Visiblement ils se sont passé le mot, car Yahoo! aussi tente d’innover avec Axis, une extension pour navigateurs permettant de faire de la recherche visuelleYahoo! launches Axis, a combined search and browsing product.

Le nouvelle interface de recherche visuelle de Yahoo!

Je ne sais pas trop quoi penser de cette nouveauté. Il y a certes de l’ambition dans ce lancement (ils envisagent d’en faire une plateforme et même un navigateur dans le navigateur : Yahoo Axis, un nouveau navigateur web sur iOS), mais je reste sceptique sur le principe de recherche visuelle, car le filon a déjà été exploité par d’autres, et notamment Spezify, oSkope ou encore Cooliris.

J’ai toujours été un ardent défenseur de Yahoo! qui a joué un rôle prépondérant dans l’évolution du web que nous connaissons aujourd’hui… mais qui n’en finit pas de sombrer : The incredible shrinking Yahoo!. La meilleure chose qu’ils pourraient faire serait de revendre les parts qu’ils possèdent dans Alibaba et de racheter Twitter (Alibaba Buys Back 20% Stake From Yahoo for $7.1 Billion).

Plus que quelques leviers d’amélioration

Puisque l’on en parle (de Twitter), il est intéressant de constater qu’avec les changements que vont opérer Google et Microsoft, le marché se rétrécie et il ne va plus rester grand monde pour contrer l’hégémonie de ces mastodontes hormis les initiatives étranges comme DuckDuckGo.

Plus sérieusement, il ne reste selon moi, que trois acteurs pouvant réellement faire bouger les choses, et qui sont donc logiquement des rachats potentiels :

  • Twitter, le roi incontesté du web en temps réel, posez une question à vos followers, et les réponses arrivent au bout de quelques secondes. En théorie, car en pratique, celles et ceux qui n’ont que quelques dizaines de followers n’obtiennent pas grand-chose. Toujours est-il qu’avec une bonne technologie d’analyse sémantique, les tweets sont une authentique mine d’or dans le cadre de la recherche d’informations ou de données. Reste encore à signer un gros chèque et surtout à bien appréhender la dimension culturelle de la tweetosphère.
  • Quora, avec sa plateforme d’entreaide centrée sur les questions/réponses collaboratives. Là encore, Quora est une proie facile, mais sa richesse ne repose que sur la dynamique volontariste de sa communauté. Un rachat par Microsoft, Google ou Facebook pourrait tout ruiner…
  • Wolfram Alpha, le moteur de recherche le plus sophistiqué avec ses innombrables possibilités de requêtes structurées (une visite du blog vous en donnerait un aperçu). Assurément l’interface de recherche la plus aboutie… pour les chercheurs ! Je doute que le grand public y trouve son compte, éventuellement les enseignants, mais seulement les plus motivés. Par contre, dans le monde de l’entreprise, il y aurait beaucoup de choses à faire.

Vous remarquerez que je n’ai volontairement pas citer de moteur de recherche marchand. Ceci s’explique par le fait que les principaux moteurs se sont déjà organisés pour couvrir se domaine de façon autonome et proposer une structuration des informations sur les produits (Rich Snippets for Ecommerce: Schema.org and GoodRelations).

Tout va changer, mais rien ne va changer

Au final, même si les changements annoncés ces dernières semaines vont irrémédiablement modifier la façon de travailler des moteurs de recherche, les habitudes et parts de marché ne risquent pas de beaucoup évoluer. Toujours est-il qu’avec ces nouveautés, le web vient d’entamer sa transition vers l’ère sémantique. Mais nous aurons laaaaaaaaaaaaargement l’occasion d’en reparler…

Du contenu roi aux données reines

Souvenez-vous… il y a quelques années, le contenu était considéré comme la matière première du web : Celui qui maîtrisait le contenu maitrisait le web (les portails qui agrégeaient de très nombreuses sources de contenu concentraient également l’audience). Puis il y a eu MySpace, les Skyblogs, Facebook, Twitter, FourSquare… et maintenant il parait que c’est la communauté qui est reine. Certes, les plateformes sociales sont indéniablement en haut des tableaux d’audience, mais je reste convaincu que sans contenus une communauté n’est pas viable. Comprenez par là que ce sont les contenus qui alimentent les conversations et font tourner les communautés. De ce point de vue là, les plateformes sociales ne sont qu’un intermédiaire entre le contenu et les internautes. Un intermédiaire à valeur ajoutée, mais qui présente tout de même une certaine fragilité dans sa pérennisation (cf. De la qualité des contenus sur Facebook).

Sans rentrer dans la polémique, je pense ne pas me tromper en disant que le contenu reste roi, la communauté se nourrit de ce contenu pour générer des interactions sociales (mais là encore il y a des subtilités : Ne confondez plus communautaire et social). La grande question que je me pose est la suivante : Qu’est-ce qui alimente les rédacteurs de ce contenu ? C’est là où les données entrent en scène, non pas les données que les rédacteurs possèdent déjà, mais plutôt les données disponibles publiquement que les internautes peuvent  interroger et manipuler à loisir.

Les données à la base du… journalisme de données

Nous parlons bien ici de données brutes en très grande quantité (des chiffres) qu’il serait trop coûteux de traiter. En les exposant publiquement, ce travail de compilation / trituration / interprétation est déléguée à la communauté qui va ainsi pouvoir nourrir une réflexion ou appuyer des prises de position. Et à ce petit jeu, certains journalistes en ont fait leur spécialité, cela s’appelle du journalisme de données (datajournalism en anglais). L’idée est d’extraire des informations pertinentes de quantités importantes de données.

Pour vous aider à comprendre l’intérêt de cette pratique, amusez-vous à compter le nombre d’articles qui font référence à Google Trends, les statistiques de recherche sont les données sur lesquelles repose toute l’argumentation de ces articles. Autre illustration avec ce graphique très intéressant qui met en évidence les performances extraordinaires (=suspectes) des coureurs du tour de France :

ActuVisu

Ces données sont extraites du portail ActuVisu qui permet justement de manipuler des bases de données (cf. Datajournalisme : du nouveau en France avec ActuVisu). Les données sont dans ce cas de figure la matière première d’une réflexion, ou plutôt d’une investigation. Les possibilités sont nombreuses et la profession se met en marche pour développer de nouvelles compétences dans ce domaine. Pour mieux comprendre ce phénomène, je vous recommande les trois articles suivants : Pourquoi le data-journalisme, c’est l’avenir en marcheQuatre voies du datajournalism et Illusions et malentendus sur le journalisme de données.

Après les portails de contenus, les portails de données

L’exemple français d’ActuVisu illustre une tendance de fond initiée il y a 5 ans avec la fondation GapMinder qui fournit justement un accès à de très nombreuses données et statistiques (leur crédo : « Unveiling the beauty of statistics for a fact based world view« ).

Gapminder

Tout l’intérêt de ce portail est d’une part d’agréger le plus grand nombre de données possible (de préférence en les rendant exploitables et compatibles) ainsi que de fournir un outil simple pour manipuler et visualiser ces données. Il existe d’autres initiatives comme ManyEyes d’IBM, Socrata ou plus modestement Worldmapper. Notez que ces interfaces pour données sont une notion chère à Tim Bernes-Lee (cf. ReadWriteWeb Interview With Tim Berners-Lee, Part 2: Search Engines, User Interfaces for Data, Wolfram Alpha, And More…), preuve que ce sujet est important.

Un créneau très porteur qui intéresse les moteurs de recherche de Google, qui a racheté en 2007 l’outil de visualisation qui propulse GapMinder et qui propose également Google Public Data Explorer dans son labo. Ce rachat fait sens dans la mesure où Google est très certainement un des mieux placé pour collecter les données éparpillées aux 4 coins du web. Reste encore le problème des données non-publiques.

Libération des données publiques avec Open Data

Les initiatives d’Open Data consiste à libéraliser les données publiques pour apporter plus de transparence (à l’image du portail anglais WhereDoesMyMoneyGo?) et pour nourrir des réflexions et projets sociétaux (lire à ce sujet Open Data : des licences libres pour concilier innovation sociale et économique). L’administration américaine a été la première à se lancer en ouvrant le portail Data.gov, suivie par d’autres pays comme l’Angleterre, l’Australie et la Nouvelle-Zélande (cf. Quel modèle pour le data.gov Français ?).

DataUK

Il est important de comprendre que ces initiatives ne sont pas tant une manoeuvre politique ou un outil de surveillance qu’un levier d’innovation pour accélérer l’émergence de nouveaux modèles sociétaux ou de nouveaux projets relatifs à l’environnement, l’éducation, la santé…

Pour le moment le chantier est toujours en cours en France mais des initiatives locales permettent déjà d’accéder à des poches de données : État des lieux de l’OpenData en France.

Les données comme trésor de guerre des moteurs

Comme nous venons de le voir, les données sont donc une matière première particulièrement convoitée. À partir de ce constat, il n’est pas surprenant de voir que les grands moteurs de recherche s’intéressent de près à ces données et cherchent à les exploiter pour apporter une couche d’intelligence aux résultats de recherche. Illustration avec le tout nouveau Bing Shopping qui propose des pages de résultats structurées :

BingShopping

L’idée derrière tout ça est de proposer non pas un moteur de recherche mais un outil d’aide à la décision (cf. New version of Bing Shopping). Et pour structurer des résultats, que faut-il ? Des données ! Autant Microsoft a opté pour des partenariats, autant Google est passé à la vitesse supérieure avec notamment l’acquisition d’ITA, un fournisseur de données touristiques spécialisé sur l’aérien qui va permettre à Google de faire de l’intégration verticale sur ce créneau : With ITA Purchase, Google Now Owns the Skies.

La vente de billets d’avion en ligne est un business très juteux, il est donc normal que Google casse sa tirelire pour blinder sa position. Il y a par contre des secteurs à priori moins rémunérateurs mais pour lesquels un outil de consolidation / manipulation / visualisation des données offrirait une position dominante à son éditeur : L’immobilier, l’emploi, les loisirs (IMDB est un bon exemple de données structurées à valeur ajoutée) ou encore le sport (citons l’exemple de Footbalistic). Je vous recommande à ce sujet l’article de GigaOm qui détaille ces exemples : Who Will Google Buy Next for Structured Data?.

L’idée ici est d’investir dans une base de donnée verticale et de monétiser son exploitation. Constituer une base de données de référence est un chantier titanesque, et seuls les acteurs avec les plus gros moyens peuvent y parvenir. Mais une fois le monopole établi, les possibilités sont nombreuses pour rentabiliser cet investissement. Google Maps est un autre exemple intéressant d’une gigantesque base de données (géographiques) dont nous avons maintenant beaucoup de mal à nous passer et dont le propriétaire a tout le temps pour trouver des solutions de monétisation viables.

Plus intéressant, un article de GigaOm nous révèle que ITA ne se restreint pas au secteur du tourisme aérien mais édite également une solution de manipulation de données accessible sur NeedleBase.comMeet the Web Database Company Google Just Bought. Cette solution ne permet pas de manipuler des données publiques mais de groupes de données dont l’utilisateur a les droits. Toujours est-il que cette solution est à la fois puissante et intuitive, tout ce dont nous avons besoin pour faire du journalisme de données :

NeedleBase

Manipulation de données avec NeedleBase

Tout récemment Google a fait une acquisition qui va dans ce sens en mettant la main sur Metaweb, une gigantesque base de donnée « ouverte » où sont répertoriés 12 million d’entités sémantiques (visibles sur Freebase.com) : Google Acquires ‘Open Database’ Company Metaweb To Enrich Search Results.

Vers des systèmes auto-alimentants

Voici donc la stratégie de Google : Acheter des données avec l’idée de la monétiser une fois que le marché sera devenu dépendant de leur exploitation. Mais sommes-nous réellement dépendant des données ? Vous particulièrement, probablement pas, mais de nombreux aspects de votre quotidien repose sur une exploitation fine de données. Nous pourrions même aller plus loin en disant que l’exploitation des bonnes données pourrait améliorer votre quotidien (cf. Nos vies gérées par les données) ou la productivité d’une entreprise.

Les objets de notre quotidien pourraient ainsi capter un grand nombre de données vous concernant et fournir ainsi des statistiques très précieuses sur votre mode de vie et la façon d’optimiser votre alimentation, vos trajets, votre budget, votre suivi médical… Imaginez alors l’intérêt d’un coach qui serait à même d’interpréter ces données et de vous offrir de précieux conseils pour améliorer votre quotidien. Ces conseils et les données qui en sont à l’origine deviendraient rapidement une drogue pour des hommes et des femmes soucieux de leur bien-être : The upcoming Internet pandemic: data addiction.

Reste encore à régler le problème de la collecte : Seule une minuscule minorité des habitants de cette planète serait d’accord pour s’équiper des outils de mesure de votre quotidien (sommeil, alimentation, exercices physiques, trajets, dépenses…). Une minorité de geeks, sauf si un acteur industriel avec de gros moyens décide de fournir gratuitement les outils de mesure et de collecte en faisant un pari sur l’avenir (et sur la monétisation de ces données). Et cet industriel avide de données, encore une fois c’est Google avec son projet de compteur intelligent PowerMeter.

Google_PowerMeter

Et même si Google ne peut pas remplacer tous les compteurs électriques des pays occidentaux, il peut fournir la plateforme pour consolider les données et les re-publier : Google Releases API for Energy Tool PowerMeter. La promesse de Google est simple : Vous aider à mieux comprendre vos habitudes de consommation pour optimiser vos dépenses… tout en revendant les statistiques aux industriels pour qu’ils puissent développer des appareils ménagers plus en phase avec le mode de vie de ces clients.

Loin de moi l’idée de jouer les paranoïaques et de dénoncer ces pratiques, car si tout le monde y trouve son intérêt il n’y a pas de raison de s’en priver. Il n’empêche que si je fais la somme de tout ce que Google peut potentiellement savoir sur moi, ça commence à faire beaucoup :

  • Mes contacts avec Gmail ou Android (carnet d’adresse + historique des appels) ;
  • Mon profil (âge, parcours…) avec Google Me ;
  • Mes achats avec Checkout ;
  • Mes centres d’intérêt avec l’historique de mes recherches ;
  • Mes déplacements avec Latitude ;
  • Mes loisirs (les programmes TV que je regarde) avec Google TV ;
  • Mes lieux de vacances avec Picasa…

Et ce n’est qu’un début car avec la sémantisation progressive du web, le moteur d’indexation pourra consolider toujours plus de données sur les internautes, mobinautes et même tvnautes. Les données seront donc la matière première à une nouvelle génération d’outils, services et prestations en rapport avec l’amélioration du quotidien de chacun. Des données qui seront l’objet d’une bataille acharnée pour en contrôler la possession, la collecte ou l’exploitation.

J’anticipe donc un web dominé par les contenus et données où Google jouera un rôle prépondérant. Facebook ou Twitter peuvent-ils prétendre à un rôle important dans ce tableau ? J’en doute car il faut des moyens considérables et surtout des appuies industriels et politiques, tout ce qui leur fait défaut actuellement. Longue vie au couple royal !

Web Squared, transition vers le web 3.0 ou nouveau paradigme ?

Voilà maintenant près de 5 ans que l’on parle du web 2.0 (ce terme a pour la première fois été utilisé en 2004 lors du Web 2.0 Summit) et depuis le grand jeu a été de savoir quand arrivera la prochaine itération. Pour faire simple disons que le web 2 .0 était le terme utilisé dans les années 2006/2007 pour décrire un changement majeur dans les usages de l’internet (voir ma dernière définition en date). Ce dernier repose sur deux notions fondamentales: l’intelligence collective, le web comme une plateforme (pour les utilisateurs et les services). Maintenant ce terme est passé de mode et l’on emploie plus volontiers celui de médias sociaux qui sonne moins « informatique » à l’oreille. J’ai également eu l’occasion de faire un panorama des différents services associés aux médias sociaux ainsi que de donner une définition.

L’étape suivante a logiquement été d’anticiper le web 3.0 (dont j’ai également tenté de donner une définition en 2006) qui repose sur le concept de web sémantique avec le découpage suivant qui est communément admis :

  • Web 1.0 = plateforme pour les documents
  • Web 2.0 = plateforme pour les individus
  • Web 3.0 = plateforme pour les données

A la vue du chantier titanesque que représente la re-sémantisation du web (nous parlons d’un horizon à 5 ou 10 ans) et des avancées dans d’autres domaines, Tim O’Reilly et John Battelle ont proposé une appellation intermédiaire lors du dernier Web 2.0 Summit : Web Squared: Web 2.0’s Successor?

L’idée étant de regrouper différentes avancées majeures derrière un terme unique pour pouvoir capitaliser dessus et évangéliser le marché. D’où la nouvelle notion de Web² (Web au carré, « Web Squared » en anglais) qui étend la portée du web 2.0 au-delà de la frontière des ordinateurs et des utilisateurs pour lui trouver des domaines d’application dans le monde réel, comprenez par là le terrain.

Web² = Web 2.0 + World

Les explications autour de ce Web² sont résumées dans l’article fondateur suivant : Web Squared: Web 2.0 Five Years On, mais vous pouvez en trouver une lecture plus synthétique ici : The Evolving Web In 2009: Web Squared Emerges To Refine Web 2.0. C’est d’ailleurs de ce dernier article que je tire ce très bon schéma :

web_squared

 

Le Web² est donc présenté comme un complément du Web 2.0, une forme de maturation qui va tranquillement nous mener vers la prochaine itération majeure (le fameux Web 3.0 dont les contours sont encore flous). Plusieurs notions fondamentales sont citées dans ce schéma que je vais essayer de vulgariser.

Implied Metadata : des métadonnées générées automatiquement et des systèmes auto-apprenants

Le web est aujourd’hui une véritable mine d’or d’informations. A tel point que le commun du mortel est confronté au problème d’infobésité : une surabondance d’informations qui perturbe la recherche d’informations à valeur ajoutée. Pour nous aider dans cette tâche de traitement de cette masse colossale d’informations, nous avons besoin de métadonnées (des données qui décrivent les données). Prenons l’exemple d’une photo de la Tour Eiffel, n’importe qui saura que cette photo a été prise à Paris, n’importe quel utilisateur humain mais pas les machines ! Pour qu’un service ou un agent intelligent puisse savoir que telle photo représente la Tour Eiffel et qu’elle a été prise à Paris, il faut lui préciser. Oui mais voilà, c’est un travail laborieux. Heureusement sont apparus des appareils photo numériques capables d’associer tout un tas de données aux photos comme par exemple les coordonnées GPS ou le modèle de l’appareil. Ces données ne sont pas directement accessibles à l’utilisateur mais elles sont disponibles pour qui veut bien se donner la peine de les chercher.

Ce type de métadonnées ne représente aux yeux de l’utilisateur que très peu de valeur, sauf si elles sont collectées et exploitées dans un contexte structurant comme par exemple sur FlickR où il est possible de parcourir les photos de la communauté en fonction de l’endroit où elles ont été prises (sur une carte du monde) ou en fonction du type d’appareil photo. Vous obtenez ainsi un très bon outil d’analyse du parc d’appareils photo numériques en circulation sans que les utilisateurs aient eu à saisir ces données, elle sont implicites (d’où la notion d' »implied metadata« ).

Mais cela va plus loin avec les systèmes auto-apprenants qui sont capables de générer des métadonnées à partir de recoupements. Reprenons l’exemple de nos photos numériques : si vous souhaitez les classer en fonction des personnes qui sont prises en photo, il faut toutes les parcourir à la main pour mettre de côté celles qui vous intéressent. Sauf si vous avez recours à un logiciel de reconnaissance faciale qui va faire ce travail à votre place : vous lui donner 2 ou 3 exemples pour qu’il reconnaisse un visage et il vous propose ensuite une liste de suggestions à valider. C’est le principe mis en œuvre par iPhoto 09.

iPhoto_Faces

L’article de Tim O’reilly cite l’exemple d’un chauffeur de taxi en Nouvelle-Zelande qui a trouvé un façon très rentable d’exploiter les métadonnées implicites : ce dernier a enregistré pendant 6 semaines un certain nombre de données sur ses courses (nombre de passagers, coordonnées GPS des points de départ et arrivée, conditions climatiques, horaires…), en a fait une compilation puis une analyse afin de déterminer les quartiers le plus rentables en fonction de l’heure de la journée.

Les métadonnées implicites comme facteur de croissance du C.A., une belle promesse, non ? Et il est possible de trouver de nombreux autres domaines d’application grâce aux données potentiellement fournies par des capteurs (votre téléphone ou n’importe quel objet équipé d’une puce RFID ou ZigBee peut faire l’affaire). Il en va de même pour les compteurs intelligents qui vont remonter des données très précieuses sur les habitudes de consommation des foyers (notion de « Smart Electric Grid » possible car chaque appareil émet une signature électrique unique). Ce type d’équipement permet ainsi à votre fournisseur d’énergie de mieux anticiper la consommation (et donc son approvisionnement) ainsi que de vous faire des recommandations pour optimiser votre facture.

Smart_Electricity_Meter

Bien évidemment tout ceci est encore en train de se mettre en place mais il semblerait qu’une norme commune soit déjà en train d’émerger : MQTT, un protocole pour standardiser les communications de machine à machine (cf. MQTT Poised For Big Growth – an RSS For Internet of Things?).

L’auteur nous met néanmoins en garde contre l’accumulation de ces données et les problèmes d’exploitation qui peuvent en découler : ce sont des données brutes, elles doivent être traitées et présentées de façon adéquate pour être compréhensibles et représenter une réelle valeur. D’où l’importance de systèmes de visualisation suffisamment souples et intuitifs pour permettre une manipulation aisée. Des services comme Gap Minder nous montrent ainsi la voie : mettre à disposition des données brutes (Ex : Data.gov) et fournir les outils pour les manipuler et en tirer du sens.

Information Shadow : des infos pour chaque objet, personne, lieu…

Autre notion importante, celle d’Information Shadow qui décrit l’ensemble des informations et données associées à un objet, une personne, un lieu, un événement… Ces informations sont disponibles n’importe où (data-on-the-cloud), il suffit juste d’avoir le bon lecteur pour les visualiser. Prenons un exemple que vous connaissez tous : le code barre. En passant un scanner dessus, vous obtenez la désignation, le prix… Même principe pour les mobile tags et autres flashcodes qu’il suffit de prendre en photo avec votre téléphone pour obtenir des infos complémentaires (cinémas les plus proches et horaires pour un film, ressources complémentaires pour un article…). Nous n’en croisons pas beaucoup pour le moment mais attendez-vous à une montée en puissance très rapide grâce notamment à des lecteurs universels comme le BeeTagg Multicode Reader ou à l’impulsion de gros acteurs comme Microsoft avec son Tag.

MobileTag

Autre possibilité et pas des moindres, le recours à des applications de réalité augmentée en situation de mobilité comme celle que propose Layar : en regardant le monde au travers de la caméra de votre téléphone, vous avez accès à une multitude de couches de données supplémentaires qui viennent enrichir la réalité.

Layar1

Exemple d’application de réalité augmentée avec Layar

Ce ne sont que des exemples et encore une fois les domaines d’application sont nombreux, de même que les supports.

Real-Time Web : informations et interactions sociales en quasi temps réel

Autre phénomène majeur de ces derniers mois, l’avènement du web temps réel avec notamment les outils de microblogging comme Twitter. L’idée derrière cette notion est que les outils mis à la disposition de la foule (accessibles au travers d’un ordinateur ou de terminaux mobiles) permettent l’émergence d’une conscience collective qui réagit en quasi temps réel aux événements extérieurs. Le facteur le plus important dans ce web en temps réel est la remontée d’informations ultra- fraiches directement sur le terrain, comme par exemple lors des dernières manifestations en Iran.

twitter_iran

Cela fonctionne aussi bien pour les news que pour les événements (tweets lors de conférences, concerts ou défilé du 14 juillet), pour le marketing (avec des outils de monitoring de la statusphère), pour les interactions sociales avec des solutions de syndication en temps réel comme Echo (cf. Vers des commentaires distribués pour les blogs ?).

Bref, l’échelle de temps est de plus en plus courte et cela s’applique d’autant mieux sur des plateformes sociales à grande échelle. Il y a à ce sujet une théorie très intéressante autour du Synaptic Web (en référence aux synapses qui relient les neurones entre eux) qui décrit les plateformes sociales de type Facebook ou Twitter comme des cerveaux « sociaux » où les membres (les neurones) interagissent en très grand nombre et avec des temps de réaction toujours plus courts (RT, commentaires, notes…). Bref, c’est de l’intelligence collective en quasi temps réel, le tout étant de trouver les bons outils de surveillance / interprétation des ces échanges (pour faire le tri entre bruit et signaux).

Data Ecosystems : des bases de connaissances structurées, ouvertes et universelles

Dernière grosse notion du Web² : les écosystèmes de données qui permettent de relier entre elles des bases de connaissances qui étaient auparavant cloisonnées. Pour comprendre le fonctionnement de ces Data Ecosystems, il me faut d’abord vous expliquer deux notions sous-jacentes : les Linked Data et les Data Sets.

Le terme Linked Data est utilisé pour décrire une méthode de partage et de connexion de données entre elles. Jusqu’à présent, pour relier deux données entre elles il fallait faire un lien depuis une donnée A vers une donnée B avec une URL (ex : Un clic sur ce lien ‘Fred Cavazza‘ mène à mon profil sur LinkedIn). Cette forme de connexion présente de nombreuses contraintes car elle est trop formelle et surtout limitée (un lien ne permet de relier entre elles que 2 données). C’est à la fois très puissant pour les utilisateurs (qui sautent de pages en pages) mais très pauvre pour les machines et agents intelligents (qui doivent parcourir le web dans tous les sens pour lier un grand nombre de données entre elles). L’idée derrière les Linked Data est de proposer un mécanisme plus souple et surtout plus puissant qui repose sur 4 principes :

  • Utiliser des URIs et non des URLs (un identifiant unique bien qui autorise de la granularité) ;
  • Utiliser des adresses http pour un accès universel (aussi bien pour les utilisateurs que pour les machines) ;
  • Structurer les informations sur la ressource à l’aide de métalangage comme RDF ;
  • Lier ces informations à d’autres données (via des URIs).

Dans les faits : vous avez un article qui parle de Berlin, vous pouvez soit mettre un lien URL sur le mot Berlin qui pointe vers la page Wikipedia (utile pour les utilisateurs mais par pour les machines car ce sont des informations non-structurées), soit mettre un lien URI qui pointe vers les Linked Data de Berlin (avec des données structurées très utiles pour les machines mais bien trop dures à lire pour les utilisateurs).

Berlin_dbPedia

Ne vous y trompez pas : les Linked Data ne sont pas l’avenir du web semantique, c’est « simplement » une façon de sémantiser le web. Mais je ne voudrais pas m’enliser dans des explications complexes sur les subtilités entre Linked Data et Semantic Web.

Les Data Sets sont des groupes de données qui sont connectées entre eux (les groupes). Pour faire simple : IMDB est une gigantesque base de données sur l’industrie du cinéma, par contre elle n’est pas nécessairement ouverte à l’extérieure (il faut avoir un compte premium il me semble). Les Data Sets sont des bases de données qui sont liées entre elles grâce aux Linked Data, chaque donnée enrichit les autres et multiplie ainsi la valeur du tout. Fabrice Epelboin donne une très belle métaphore dans son article : « Les données étaient autrefois enfermées, comme des fleurs dans des serres. Ce que l’on propose ici, c’est de les faire pousser en plein air, de façon à ce qu’une multitude d’abeilles non seulement se chargent de la polénisation pour le compte des fleuristes, mais qu’on puisse créer du miel et la profession d’apiculteur ».

Bien évidemment cela représente un chantier titanesque mais les travaux progressent à grand pas, notamment sous l’impulsion de Sir Tim Berners Lee dont vous pouvez voir ici une présentation parlant des Linked Data au TED :

http://video.ted.com/assets/player/swf/EmbedPlayer.swf

L’objectif des Data Ecosystems est donc de créer de gigantesques bases de bases de données, ou plutôt une méta base de données qui les regroupe toutes :

DataSets

L’idée étant que l’on puisse créer de la valeur en liant des données de différents horizons (médicales, culturelles…). Signalons ainsi des initiatives remarquables comme :

  • Le projet Gutenberg, une bibliothèque universelle (sorte de Google Books mais en open source) ;
  • dbPedia, une communauté qui se charge de structurer les informations de Wikipedia en données « compatibles » avec Linked Data (regardez donc le cadre à droite de certaines fiches, les infobox, ce sont des données tructurées) ;
  • Jamendo, une plateforme musicale entièrement en Creative Commons qui a publié son catalogue sous forme de Data Sets / Linked Data (exploitables avec dbTunes).

Ce ne sont que quelques exemples mais ils témoignent de l’ampleur de la tâche et de l’engagement des membres.

Vous l’aurez donc compris, le web sémantisé n’est pas pour tout de suite mais les différents grands acteurs se mettent en rang pour terminer cette conversion au plus vite. Linked Data et Data Sets ne sont qu’un exemple d’initiatives concourant à la création de Data Ecosystems mais il en existe d’autres comme par exemple le format CommonTag qui vise à standardiser l’utilisation des tags (cf. Common Tag apporte un standard aux métadonnées).

Pourquoi parler du Web Squared ?

Tout simplement parce qu’il est inimaginable de penser évangéliser le marché avec des termes jargonnant comme Information Shadow, Linked Data, Implied Metadata… il faut employer un terme simple qui puisse aider le commun des mortels à comprendre que nous sommes en train de vivre une nouvelle bascule (tout comme cela a été le cas avec le Web 2.0).

Je suis persuadé que nous sommes pratiquement arrivé au bout de ce que le web peut nous offrir en terme de partage de documents / contenus de même que pour les interactions sociales. Il existe encore de nombreux services et domaines d’application à trouver dans ces deux domaines mais nous avons déjà fait le plus gros. Nous sommes déjà en train de vivre la prochaine grosse itération du web : le web en temps réel, la réalité augmentée, les objets communicants, les écosystèmes de données sont des innovations en cours de maturation qui vont complètement bouleverser notre façon de communiquer, consommer, travailler, nous divertir… Bref, un nouveau paradigme des usages du web.

Pour marquer cette itération, nous avons besoin d’éduquer le marché (utilisateurs, annonceurs, opérateurs, pouvoirs publics…) et pour cela il faut pouvoir capitaliser sur un terme simple : le Web² (Web Squared).

Et maintenant ?

Maintenant tout reste à faire ! Ou plus précisément le travail d’évangélisation ne fait que commencer. Je vous engage ainsi à vous familiariser avec ces différentes notions et de prendre le temps d’en tester les applications pour bien appréhender la (r)évolution qui approche.

Rétrospectives sur mes prédictions 2008

Comme chaque année, avant de me lancer dans le délicat exercice des prédictions de l’année 2009, je souhaiterais au préalable revenir sur les prédictions que j’avais faites en début d’année et voir si elles se sont réalisées.

1/ Interopérabilité forcée entre les réseaux sociaux

À défaut de forçage, on peut parler de bonne volonté, même si la route sera longueOpenID (implémenté par à peut-près tout le monde de Google à Yahoo! en passant par Microsoft), OpenSocialData AvailbilityData Portability… les initiatives ne manquent pas et des projets propriétaires comme Facebook Connect apparaissent comme ridiculement isolés. Dans tous les cas de figure, entre les réseaux sociaux de niche, les plateformes de création de réseaux sociaux et la socialisation des plateformes communautaires traditionnelles (type casual gaming…), l’avenir est bien évidement dans l’interopérabilité universelle.

Verdict : On y est pas encore mais ça va venir.

2/ Des jeux disponibles sur iTunes

Lancée en juillet 2008, l’App Store est une véritable machine de guerre qui génère des millions de $ de bénéfices, à tel point que l’iPhone est maintenant plus vu comme une console portable que comme un smartphone (cf. Is iPhone The New Gaming Platform?).

Verdict : Bingo !

3/ Hybridation des univers virtuels et des réseaux sociaux pour les jeunes

Pas un seul univers virtuel n’est lancé (ou n’est en exploitation) sans une très forte dimension sociale. Ce phénomène dépasse même largement le segment des jeunes (Réseaux sociaux + Univers virtuels = ExitReality ?) et concerne également les univers entre eux (Vers une extra-opérabilité des univers virtuels avec Myrl).

Verdict : Bingo !

4/ Hybridation entre jeux vidéos et réseaux sociaux

Inutile de revenir là-dessus car je me suis déjà largement exprimé sur ce sujet : Social Networks + Casual Games = Social GamesLa Brute + MMO + Facebook = Elven Blood et Entropia Universe et Prizee au Salon du Jeu Vidéo.

Verdict : Bingo !

5/ Bientôt les UGG (User Generated Games)

Idem, je me suis déjà exprimé sur ce sujet : Microsoft lance une plateforme de création de jeux en ligne et EA se lance dans les User Generated Games.

Verdict : Bingo !

6/ Le P2P trouve d’autres domaines d’application

Visiblement les architectures P2P font plus peur que rêver ! Toujours est-il qu’avec l’arrêt de projets comme Outback Online, et la refonte de Joost en un portail de diffusion plus traditionnel nous comme loin de mes prédictions.

Verdict : C’est raté !

7/ Apparition d’indicateurs spécifiques aux réseaux sociaux et univers virtuels

La question de la monétisation (donc de l’évaluation) et du ROI des campagnes ciblant ces supports est plus que jamais d’actualité en cette période de « réduction de la voilure ». Comprenez par là que ces fameux indicateurs sont maintenant une nécessité mais que personne n’accepte encore de communiquer ouvertement dessus (chacun ayant son algorithme de social scoring). En attendant d’avoir un référentiel stabilisé et partagé par l’ensemble de la profession, vous pouvez toujours calculer votre Social Media Score.

Verdict : On y est pas encore mais ça va venir.

8/ Des territoires d’expression sur-mesure pour les plus grandes marques

En plus d’un certain nombre de marques comme Mc Donald’s, Disney et Renault qui se sont lancées, nous voyons se multiplier les univers virtuels de niche en rapport avec des émissions de télévision (Star’Ac World, Plus belle la life) sous l’impulsion d’acteurs comme There ou Taatu (cf. There veut marcher sur les plates bandes de Second Life et Taatu, une solution “clé en main” qui séduit les annonceurs) de même que l’apparition de réseaux sociaux centrés sur des people (Les peoples envahissent les réseaux sociaux).

Verdict : Bingo !

9/ Accélération de l’innovation dans le e-Commerce

Nombreuses sont les innovations qui ont vu le jour cette année : au niveau de l’interface (3D, vidéo… des tonnes d’exemples à découvrir sur RichCommerce.fr), au niveau des terminaux mobiles (Bientôt le ‘visual search engine’ sur iPhone), au niveau des utilisateurs et de leur capacité de recommandation (Amazon et la longue traîne du web TV shopping). Il y a également de la nouveauté dans les solutions de paiement avec 3D Secure mais je ne préfère pas aborder le sujet car ça risque de dégénérer… Bref, le e-Commerce se porte bien et l’innovation n’est pas prête de s’arrêter.

Verdict : Bingo !

10/ Une seconde chance pour le web sémantique

Décidément le web sémantique n’en finit plus d’être (re)lancer avec des services comme Twine, Swirrl et des notions comme semantic desktop ou les semantic web apps. Bref, il y a des couches sémantiques à tous les étages… mais pas chez les moteurs de recherche. Visiblement nous nous dirigeons donc vers une « sémantisation sociale » du web (contenus, applications, utilisateurs…) réalisée par les internautes et non par des agents intelligents. Donc ils ne le sont pas tant que ça en fait (intelligents) (les agents).

Verdict : C’est raté !

 

Bon… avec 6 prédictions réalisées et 2 en voie de réalisation ça me fait un très beau palmarès, non ? J’espère que mes prédictions 2009 connaitrons une même réussite !

Vers de la micro-authentification avec MicroID

Vous connaissiez l’authentification avec identifiant et mot de passe, mais connaissez-vous la micro-authentification ? Pour faire simple il s’agit non pas d’authentifier un utilisateur de façon formelle (en lui demandant ses codes d’accès) mais plutôt de faire de l’authentification « silencieuse ».

Explication : lorsque vous rédigez un commentaire vous pouvez saisir un nom, un email et une URL, mais qui me dit que c’est bien vous ? Pour être plus précis, rien ne vous empêche d’utiliser le nom et l’email de quelqu’un d’autre.

Et c’est là où MicroID entre en scène : ce protocole d’authentification permet de certifier l’identité d’un internaute lorsqu’il dépose un commentaire sur un blog ou fait des modifications dans un wiki. Inutile de vous emballer, ce mécanisme de certification n’est pas inviolable (loin de là) mais il apporte une solution simple et élégante.

Vous noterez donc la subtile différence entre OpenID et MicroID : le premier sert à authentifier un utilisateur sur une service, le second sert à authentifier l’auteur d’un micro-contenu.

Tout repose sur un code (la fameuse MicroID) qui est généré à partir de la concaténation de votre email et d’une URL. Cette URL peut être celle de votre blog ou celle de votre service de gestion d’identité numérique comme ClaimID. Ce code va ensuite servir de clé d’authentification.

Donc pour faire simple :

  1. Vous allez sur le site MicroID.org pour vous créer votre propre MicroID ;
  2. Vous publiez cette MicroID sur la page d’accueil de votre blog (ou sur votre page de profil) ;
  3. Lorsque vous publiez un commentaire (ou du contenu sur un service compatible), le mécanisme compare la concaténation de vos email/URL à celle publiée sur votre blog ;
  4. Si c’est la même MicroID, alors votre identité est certifiée, vous êtes bien celui que vous prétendez être.

Voilà, MicroID est aux mécanismes de certification ce que les microformats sont au web sémantique : une solution très simple à implémenter qui propose un premier niveau de service tout à fait acceptable.

Bien évidement vous ne vous servirez jamais de MicroID pour payer vos impôts en ligne ou gérer vos comptes bancaires, mais par contre c’est une solution extrêmement bien adaptée aux médias sociaux : un moyen simple de contrôler la prolifération de micro-contenus (commentaires, modifications…) sans pénaliser les utilisateurs (ils n’ont rien à faire si ce n’est paramétrer leur MicroID).

Pour en savoir plus sur ce protocole, je vous recommande la page de Wikipedia ou leur blog. Pour l’instant une petite dizaine de services compatibles (Last.fm, Wikitravel, Digg…) mais la liste devrait s’allonger.

Il existe un plugin WordPress pour  implémenter MicroID dans les commentaires mais il n’est malheureusement pas compatible avec la dernière évolution majeure (la V 2.5), enfin je crois. Quelqu’un peut-il me renseigner là-dessus ?

MaJ (17/07/2008) : Après lecture des différents commentaires je me rend compte que quelque chose m’échappe dans le processus d’authentification utilisé. Je pense qu’il n’est pas si simple de détourner une MicroID mais leur site web manque effectivement d’explications sur la viabilité du processus. A suivre…

Mes 10 prédictions pour l’année 2008

Le début d’année est traditionnellement la période propice aux prédictions. Donc sans plus attendre, je me lance dans ce périlleux exercice.

1/ Interopérabilité forcée entre les réseaux sociaux

Depuis l’avènement de la Facebook Platform, pas une semaine ne passe sans qu’un réseau social annonce le lancement de sa propre plateforme d’hébergement d’applications et services tiers (MySpace, LinkedIn, Hi5, Bebo, Friendster). Tout ceci est-il bien sérieux ? Surtout depuis le lancement d’OpenSocial (le framework de Google qui permet d’uniformiser les applications reposant sur des réseaux sociaux).

Alors que les premières expérimentations d’applications multi-plateformes semblent concluantes (voir à ce sujet ILike connects across OpenSocial, Facebook, iTunes), on en vient à se demander si cette bataille de formats n’est pas anachronique. Car au final les éditeurs de services de même que les utilisateurs se moquent bien de savoir quelle est la meilleure plateforme. Si les différents réseaux ne trouvent pas rapidement un terrain d’entente, c’est le marché qui va trouver la solution à leur place.

J’anticipe donc une interopérabilité au forceps entre ces différents réseaux qui reposera sur des astuces et autres failles de sécurité (lire à ce sujet l’affaire du ScobleGate). Est-ce une mauvaise chose ? Bien sur que non, ça permettra de gagner du temps. Rappelez-vous que Google Maps à l’origine n’était pas du tout ouvert (bien au contraire), ce n’est que lorsque des services comme Housing Maps ont vu le jour que les équipes de Google ont compris l’intérêt d’ouvrir leur plateforme.

2/ Des jeux disponibles sur iTunes

Avouez que c’est quand même un peu dommage de ne pas pouvoir installer de jeux sur son iPhone (ou son iPod Touch). Il y a bien un répertoire de jeux en ligne (Web Apps Games) mais c’est un peu triste, d’autant plus que Safari Mobile ne sait pas lire le Flash.

Rajoutez à cela la pauvreté de l’offre de sonneries et vous comprendrez pourquoi les jeux seront le prochain gisement de marge sur iTunes. Nous parlons bien ici de casual games pour lesquels plusieurs modèles économiques sont envisageables : les jeux achetés auxquels vous pourrez jouer indéfiniment, les jeux loués pour une période donnée (ou ceux qui seront mis en test), les jeux auxquels vous jouerez à l’unité (en payant quelques centimes la partie). Il serait même possible d’imaginer l’intégration de jeux ou de nombre de parties dans le forfait des opérateurs (au même titre que le nombre de minutes ou de SMS).

Quand on y réfléchi bien, si les utilisateurs et les éditeurs y sont favorables, pourquoi Apple se priverait-il d’ouvrir une marketplace de jeux dans iTunes ? Et pourquoi pas des partenariats avec les géants des jeux pour téléphones mobiles ?

3/ Hybridation des univers virtuels et des réseaux sociaux pour les jeunes

Pas la peine d’en rajouter car je me suis déjà exprimé sur ce sujet ici : L’invasion des nouvelles plateformes sociales. Il n’empêche que cette prédiction reste largement valable pour 2008.

4/ Hybridation entre jeux vidéos et réseaux sociaux

L’industrie du jeu vidéo est une industrie mature… très mature… tellement mature qu’elle est déjà en train de préparer sa mue. Nous ne parlons pas ici d’une révolution qui va tout balayer en 2008 mais plutôt d’un nouveau modèle qui nous vient d’Asie et qui risque de mettre à mal les grands éditeurs.

Le principe est simple : le jeu est gratuit et librement téléchargeable, par contre les extras sont payants. Par « extras« , je parle de costumes ou d’accessoires supplémentaires, non pas de niveaux additionnels. Rajoutez à cela une dimension jeux en ligne à la sauce réseau social et vous obtenez des jeux comme Kart Rider, Maple Story, Drift City ou encore Gunz. Le modèle économique est donc fondé non pas sur de la vente de licence mais sur du micro-commerce.

Bien évidement la réalisation n’est pas aussi soignée qu’un Bioshock ou qu’un Crysis, par contre ils compensent la sophistication technique et graphique par un gameplay sans faille. Ces jeux sont en plus régulièrement enrichis et mis à jour, l’addiction est totale.

Comme ils sont très bien organisés, le marché est dominé par quelques acteurs de taille (Nexon, Ijji…) qui proposent de nombreux jeux pour toutes les audiences et qui vont jusqu’à commercialiser des cartes prépayées échangeables contre de la monnaie virtuelle (ex. la Nexon Game Card). C’est plus pratique quand on a pas encore son argent de poche.

Autant prévenir tout de suite : inutile de rêver, vous ne pouvez pas lutter, ils sont tout simplement trop bien organisés et structurés. Encore une fois, je ne suis pas en train d’annoncer la mort de l’industrie du jeu vidéo mais plutôt une nouvelle itération qui saura exploiter ce qui se fait de mieux en termes de technologie (à quand les Rich Internet Games et les Rich Desktop Games ?) et pratiques sociales (un seul avatar qui pourra être « porté » sur différents réseaux sociaux / jeux en ligne avec même des déclinaisons mobiles).

Vous n’êtes pas convaincu ? Allez donc jeter un œil à ce que proposent des briques technologiques comme Unity 3D.

5/ Bientôt les UGG (User Generated Games)

Souvenez-vous : la musique et son exploitation « sociale » (partage, recommandation…) a été le levier de différenciation de MySpace (et le moteur de son succès). La vidéo en a été de même pour YouTube, idem pour les applications de Facebook. Les jeux seront le nouveau levier de croissance pour les réseaux sociaux. Mais pas n’importe quel jeux, ceux qui parviendront à exploiter l’effet réseau et à tirer partie des utilisateurs : soit en leur permettant de créer des jeux (éditeur de niveaux…) soit en les impliquant dans la personnalisation et la prolifération.

Je vous recommande donc de surveiller de près des portails comme Pogo, Cafe ou Miniclip, de même que des plateformes de création comme Kongregate ou YoyoGames (il y en a aussi ici : 20+ Tools For Creating Your Own Games). Peut-être un premier pas vers le Game 3.0 ?

6/ Le P2P trouve d’autres domaines d’application

Après le partage de fichier (Napster, BitTorrent…) et le partage de vidéo (Joost), les protocoles P2P seraient-ils en passe de supplanter le HTTP ? Non, ça serait faire une conclusion hâtive. Toujours est-il que la bande passante disponible ne croit pas aussi vite que les besoins des utilisateurs, il va donc falloir trouver d’autres modes de propagation de l’information et surtout d’exploitation des tuyaux.

Et c’est là où le P2P entre en scène, ou plutôt sors de l’ombre et est adopté comme solution alternative par les éditeurs et constructeurs. Car il faut bien avouer que la technologie est au point, mais qu’elle restait pour le moment largement marginalisée (utilisation illégale ou universitaire).

Outre les solutions de M2M, j’anticipe un usage étendu du P2P à des domaines comme les univers virtuels : Outback Online était un bon terrain d’expérimentation mais ce projet a capoté (y a-t-il un repreneur dans la salle ?) ; ou encore les agendas partagés comme MySharedProfil (un système communautaire de gestion de contacts en mode P2P, de carte SIM à carte SIM) dont vous pouvez voir une démo ici : MySharedProfil, Rich Contact Management.

Il existe très certainement de nombreux autres domaines d’application dont je n’ai pas connaissance aussi n’hésitez pas à les mentionner dans un commentaire.

7/ Apparition d’indicateurs spécifiques aux réseaux sociaux et univers virtuels

Avec des investissements publicitaires toujours en hausse dans les réseaux sociaux et univers virtuels, les annonceurs, régies et agences vont réclamer des outils de mesure et d’aide à la décision plus précis et surtout plus pertinents (surtout au regard des montants investis). Hors il n’existe à ce jour aucun indicateur fiable de l’influence exercée par la présence d’une marque ou de l’engagement d’un utilisateur ciblé au sein d’un réseau social ou d’un univers virtuel. Pour être exacte : si, il existe une multitude d’indicateurs et d’outils « maison » (à l’image de VTracker) mais il ne sont pas partagés par les différents acteurs de la chaîne de valeur.

J’anticipe donc la définition au niveau de la profession d’indicateurs (metrics) servant à mesurer et évaluer :

  • L’activité d’un membre au sein d’un réseau social ou d’un avatar dans un univers virtuel (provenance, destination, actions menées / abandonnées…) ;
  • L’engagement d’un membre / avatar vis-à-vis d’une campagne (exposition, transformation, récurrence…) ;
  • La pertinence du choix d’un réseau social / univers virtuel (segments représentés, niveaux et type d’activités…) ;
  • Le potentiel d’un leader d’opinion au sein des réseaux sociaux (popularité, influence, légitimité…).

Cette série d’indicateurs permettront aux annonceurs / régies / agences def guider leurs choix et de construire leur community / virtual planning (attribution de lignes de budget sur différents réseaux sociaux et univers virtuels). C’est en quelque sorte une étape obligatoire pour la maturation de ces nouveaux micro-médias, car lorsque qu’un service dépasse les 50 millions de membres, ça devient sérieux. A quand un groupe de travail officiel au sein de l’IAB ?

8/ Des territoires d’expression sur-mesure pour les plus grandes marques

Aviez-vous remarqué que les marques les plus puissantes pouvaient se permettre de « posséder » leur propre réseau social ou univers virtuel ? Exemples de réseaux sociaux dédiés : Hybrid Synergy Drive de Toyota ou Mosh de Nokia. Exemples d’univers virtuels dédiés : MTV qui exploite plusieurs plateformes sur Virtual MTV, Coca-Cola avec MyCoke, Disney avec Virtual Magic Kingdom,TF1 avec sa Star’ac World, Le futur Lego Universe… Comme vous pouvez le constater, les exemples ne manquent pas.

Sans aller dans ces extrêmes (car il faut un budget confortable pour se payer ça), nous allons assister en 2008 à la mise à disposition des annonceurs de plateformes en marque grise permettant de faire des choses similaires dans des ordres de coûts tout à fait raisonnables. Sur ce créneau des acteurs comme Ning, There ou encore MetaPlace semblent bien placés.

9/ Accélération de l’innovation dans le e-Commerce

Rich Commerce, social shopping, mashup marchands, v-commerce, boutiques éphémères, crowdshopping… les nouveaux concepts de commerce en ligne ne manquent pas. Et pourtant… nous ne faisons que découvrir le potentiel de ces nouvelles pratiques.

Je ne vous prédis rien de complètement nouveau pour l’année prochaine mais plutôt une évolution de ces pratiques, et pourquoi pas un mélange de tout ça en même temps : interfaces riches et/ou 3D, agrégation de catalogues externes, exploitation sociale (recommandation et approvisionnement), co-création… se sera en quelque sorte de l’innovation par l’assemblage (un des principes fondateurs du web 2.0 et donc du e-commerce 2.0).

Mais nous aurons l’occasion d’en reparler, normalement la semaine prochaine…

10/ Une seconde chance pour le web sémantique

Je ne pouvais pas faire l’impasse sur ce sujet. 2008 sera-t-il l’année du web sémantique ? Non pas réellement dans la mesure où la sémantique a toujours fait partie du web (plus ou moins). Par contre 2008 verra sans doute l’arrivée à maturation de langages sémantiques qui trouveront des domaines d’application bien précis comme APML pour les réseaux sociaux (cf. Should Facebook Implement APML?), XBRL pour les documents de reporting financier (cf. Microsoft Advances XBRL Data Standard in the US) ou encore hListing pour le commerce en ligne (cf. Kelkoo and the hListing microformat).

Est-ce que « seconde chance » est le bon terme ? Je ne sais pas, en tout cas j’espère sincèrement que la sémantisation du web va s’accélérer car la tâche est énorme. Je m’autorise donc ce petit excès d’optimisme.

—–

Et voilà, dix prédictions qui font dix. Beaucoup de thèmes récurrents (interfaces riches, réseaux sociaux) mais de nouveaux centres d’intérêts (univers virtuels, jeux vidéo) qu’il va falloir surveiller de près durant cette année.

Rendez-vous début 2009 pour faire le point.

Le retour des info-bulles prédictives

Souvenez-vous, je vous parlais l’année dernière des vignettes prédictives qui s’affichent au survol de la souris sur un lien (ici : Pour ou contre les vignettes prédictives sur les liens ?), et bien figurez-vous que même si le public y a fait un accueil plutôt froid (c’est vrai que c’est un peu intrusif), vous allez encore en entendre parler.

Deux nouveautés vont ainsi relancer l’intérêt pour ces info-bulles prédictives :

  • une nouvelle version de Snap Preview Anywhere Bubble (avec la possibilité de désactiver cette fonctionnalité) ;
  • un service équivalent mais qui fonctionne pour le contenu textuel (iReader).

Je trouve ce iReader très prometteur car il fonctionne sur le principe d’analyse sémantique pour n’afficher qu’un résumé du contenu du lien :

Le iReader en action

Le principale avantage de iReader est d’être une extension au navigateur (vous ne l’imposez pas à vos lecteurs). Par contre, même si les résumés en anglais sont plutôt pertinents, en français c’est une catastrophe…

C’est en quelque sorte une fusion de Snap Preview et de Copernic Summarizer… (via Read/Write Web)