HTML 5 + CSS 3 = une révolution pour les interfaces web

Voilà 20 ans que le web existe et presque 10 ans que le HTML n’a pas évolué et propose toujours la même structure et les mêmes balises. 10 ans c’est beaucoup, c’est la moitié de la « vie » du web. 10 ans c’est beaucoup, surtout lorsque l’on constate les révolutions qui ont eu lieu dans les usages du web ces 5 dernières années (partage de vidéos, réseaux sociaux, infos en temps réel…). Pas étonnant que des technologies propriétaires (Flash) se soient imposées (notamment sur la vidéo et les RIA) et que d’autres s’installent tranquillement pour combler un manque (notamment Google Gears pour l’accès hors ligne).

Bref, il était temps que le marché se réveille et c’est (presque) chose faite avec l’arrivée à maturation de HTML 5 et CSS 3. Pour faire simple, disons que nous avons franchi le point de bascule et que la route qui mène à une adoption de ces nouveaux standards n’est plus si longue. Pourquoi est-ce important de se soucier de ça ? Tout simplement parce que ces nouvelles spécifications vont changer beaucoup de choses dans la façon de concevoir et d’exploiter les interfaces web, des changements qui vont fortement impacter les différents métiers de la profession.

Autant vous prévenir tout de suite : les explications qui vont suivre sont une tentative de l’auteur de résumer et vulgariser un foutoir pas possible (qui provoquent d’innombrables querelles d’experts depuis des années : HTML 5 is a mess. Now what?) sans pour autant prendre partie car de toute façon les choses semblent visiblement s’améliorer. Je ne donne que mon interprétation, vous êtes libre de proposer la votre.

Commençons donc par nous intéresser à cette nouvelle version de HTML et pourquoi s’est-elle imposée face à XHTML (pour une explication plus détaillée c’est ici : XHTML 2 vs. HTML 5, et là : Misunderstanding Markup: XHTML 2/HTML 5 Comic Strip).

HTML vs. XHTML

Au commencement il y avait donc le HTML 4 dont les spécifications ont été publiées en 1997. Une légère évolution a été publiée en 1999 avec le HTML 4.01. Puis le W3C a décidé de miser sur le langage XML (plus sophistiqué et surtout extensible) en proposant une reformulation du HTML avec les balises du XML, à savoir le XHTML 1.0. Tout l’intérêt de cette reformulation est de pouvoir marier la simplicité du HTML avec la puissance du XML (et ses nombreuses possibilités d’évolution).

Sur cette lancée, le W3C a alors lancé le chantier XHTML 2 pour faire une réécriture complète des spécifications et poser de nouvelles bases pour un langage plus puissant, plus robuste, plus évolutif… bref, un langage qui propulserait le web dans une autre dimension sans toutefois assurer de rétro-compatibilité. Hé oui… car il faut bien faire table rase pour pouvoir redémarrer sur des bases saines. Et c’est bien là le problème : ne pas assurer la rétro-compatibilité était inacceptable pour l’industrie (et notamment les éditeurs de navigateurs) qui ont alors décidé de lancer des travaux indépendant sous l’aile du WHATWG (Web Hypertext Application Technology Working Group). Ce groupe de travail a commencé à travailler sur les spécifications des Web Applications.

Après un bras de fer de plusieurs années (et un constat d’échec pour l’équipe de travail sur les spécifications XHTML 2), le W3C a fini par réintroduire les spécifications du WHATWG et de créer un groupe de travail officiel sur le HTML 5 tout en abandonnant l’autre chantier (RIP XHTML 2).

Par élimination il ne reste donc plus qu’un seul prétendant au titre de remplaçant du HTML 4, d’autant plus qu’il a reçu le soutien de qui vous savez (Google Bets Big on HTML 5). Nous sommes donc semble-t-il arriver à un consensus de l’industrie sur des spécifications qui ne sont pas aussi ambitieuses que celles d’XHTML 2 mais qui ont l’énorme mérite de faire avancer les choses (souvenez vous qu’il n’y a pas eu d’évolution en 12 ans).

Qu’est-ce qui va changer avec HTML 5 ?

Pour faire simple disons qu’avec HTML 5 nous allons quitter l’ère du web des documents pour enter dans celle du web des applications. L’ambition de cette nouvelle itération est donc de supprimer les balises obsolètes, d’en remplacer certaines et d’en introduire de nouvelles afin de donner une structure sémantique plus cohérente aux pages web.

De nouvelles API vont ainsi standardiser un certain nombre d’interactions :

  • L’accès hors ligne et le stockage sur le disque dur (pour une exploitation en mode déconnecté) ;
  • L’édition en ligne, le drag&drop ;
  • L’accès à l’historique de navigation…

Bref, tout ce qui nécessitait le recours à javascript ou à des technologies propriétaires sera désormais « livré d’origine ».

La grosse nouveauté est donc de proposer un nouveau schéma de structuration des données qui va venir remplacer les éléments en bloc et en ligne (cf. HTML5 se dévoile) :

content_model

Les spécifications manquent de précisions pour se faire une idée de ce nouveau schéma, d’autant plus que de nouvelles balises structurantes comme <template> et <datatemplate> ont été introduites.

Gros changement également avec un jeu de nouvelles balises permettant de mieux définir le contenu : <header>, <nav>, <article>, <aside> et <footer> :

html5_structure

C’est donc une petite révolution puisque ces nouvelles balises vont permettre une structuration beaucoup plus propre des pages, surtout pour les sites avec beaucoup de contenus (blogs, portails…). Plus d’infos ici : HTML5 and The Future of the Web.

Notons enfin l’apparition de balises très intéressantes comme <audio> et <video> pour les éléments multimédias, <canvas> pour les dessins vectoriels ou encore <datagrid> pour les tableaux de données. Ces nouvelles balises permettront de réduire la dépendance à des technologies propriétaires comme Flash. Juste un dernier mot sur les formulaires qui vont avoir de nouveau types de champs <input> comme date, time, number, range, email, url, search, color

Je pense qu’il n’est pas faux de dire qu’avec HTML 5 la séparation entre contenu, structure et présentation sera encore plus facilement gérable.

Quelles nouvelles possibilités pour CSS 3 ?

Précisions que du côté des feuilles de styles, les travaux autour des nouvelles spécifications CSS 3 sont beaucoup moins perturbés. Cela permet donc d’avancer plus vite. Quoi que… j’ai dans mes archives des articles sur le sujet datant de 2004 et 2005 : Des formulaires standardisés, CSS 3 : des templates pour structurer vos pages web et Formulaires : quand les CSS 3 vous changent la vie.

L’essentiel des travaux autour des CSS 3 a été de standardiser des propriétés pour réaliser des traitements graphiques qui nécessitaient auparavant des astuces :

  • Border-radius pour les coins arrondis ;
  • Text-shadow pour les ombres portées ;
  • Transparency et Opacity pour la transparance ;
  • Animation et Transition pour les animations (cf. Nicer Navigation with CSS Transitions, à regarder avec les dernières versions de Safari ou Chrome)…

Bref, il y a beaucoup de nouveautés à découvrir ici : 7 New Essential CSS 3 Techniques Revealed. Tout l’intérêt étant de pouvoir se passer d’images ou d’astuces pour pouvoir réaliser ce que l’on souhaite. Illustration avec ces jolis boutons :

Boutons_CSS3

Encore plus intéressant, toutes les propriétés concernant la mise en page et le positionnement : Presentation Levels, Template Layout, Multi-column Layout, Grid Positioning et Flexible Box Layout.

Le changement va être aussi spectaculaire que radical : là où il fallait tout un tas de <div> imbriqués, d’images, de tableaux… pour arriver à la mise en page et au traitement graphique souhaité (donc en alourdissant le code source), nous aurons bientôt une syntaxe bien plus lisible grâce à ces nouvelles propriétés.

Quels bénéfices et pour quand ?

Je vous propose de récapituler ce que nous venons de voir : un contenu mieux structuré et défini, une syntaxe allégée, des traitements graphiques standardisés… tout ceci va permettre d’avoir un code source beaucoup plus propre. Ceci est particulièrement important dans la mesure où les pages ne sont plus faites à la main pour des utilisateurs humains, mais générées par des systèmes de gestion de contenu et exploitées à la fois par des humains et des agents intelligents (via les balises descriptives ou microformats).

C’est donc une authentique révolution à laquelle nous allons assister… dans quelques années ! Hé oui, car même si les spécifications sont là, leur implémentation est fonction du bon vouloir des éditeurs de navigateurs et du taux de renouvellement par les utilisateurs.

Aujourd’hui le marché est encore dominé par un IE qui risque d’aggraver encore son retard avec ces nouvelles spécifications. Vient ensuite Firefox qui évolue vite (grâce à une communauté très active) mais qui est tout de même fortement ralenti par l’inertie des utilisateurs (surtout lorsque les parts de marché dépassent les 30 %).

Il est certain que les choses sont beaucoup plus simples pour Safari, Opera ou encore Chrome qui peuvent avancer à leur rythme (lire à ce sujet : Opera 10, Chrome 4, Firefox 4 : Vers des plateformes sociales et applicatives).

Donc au final, l’impact ne se fera pas ressentir avant quelques années. Sauf si un éditeur trouve le moyen de faire avancer les choses au forcing (au hasard Google avec son futur Wave qui tournera bien mieux sur Chrome).

google-wave

Par contre, une fois que le parc de navigateurs aura été renouvelé, j’anticipe un gros changement au niveau de l’industrie du web avec une montée en puissance de profils comme les architectes front office (l’équivalent des DBA ou des architectes systèmes) chargés de concevoir des interfaces web cohérentes et surtout performantes (notamment dans la gestion des styles).

De même, j’anticipe une véritable révolution pour les outils de prototypage rapide dont l’intérêt était limité du fait du format de sortie (du HTML de base que ne pouvaient pas exploiter les équipes de production) et qui vont fortement bénéficier de cette épuration du code source et de la séparation structure / contenu /présentation.

Bref, j’ai l’impression de me répéter, le web a de très beaux jours devant lui avec ces nouvelles spécifications qui vont tranquillement nous amener vers des contenus mieux structurés (sémantisés) et des applications en ligne plus performantes et simples à créer / maintenir.

Quels scénarios d’évolution pour Twitter

Avec la rentrée viennent les bonnes résolutions de la rentrée. Une de mes premières résolutions est donc d’arrêter de publier des article sur Twitter, ou du moins d’en publier moins car j’ai comme l’impression que nous approchons de la saturation. Mais il faut dire que malgré son apparente simplicité, Twitter a l’incroyable faculté d’hypnotiser la blogosphère au point d’en devenir un des sujets de prédilection depuis près de 2 ans. À tel point que l’on se demande quel sujet va venir éclipser la Twittmania : Il y a une vie après Twitter (heu… laquelle déjà ?).

Plutôt que de revenir sur les clés du succès de Twitter, je préfère essayer de me projeter et de lister différents scénarios d’évolution possibles. Vos remarques et propositions sont bien évidemment les bienvenues dans les commentaires.

Scénario 1 : La ligne de commande du web

Dans un précédent article j’avais comparé Twitter à la CB du web. Mais lorsque je regarde les différents services gravitant dans l’écosystème de Twitter, je me dis qu’une évolution possible serait de « standardiser » de fait les tweets pour en faire des instructions façon lignes de commande. Mais si enfin, des lignes de commande comme il est possible d’en saisir quand vous êtes en mode « console ». Twitter deviendrait donc une gigantesque console à l’échelle du web, une interface textuelle qui permet aux utilisateurs et aux services de communiquer entre eux.

L’intérêt des interfaces à lignes de commande est leur souplesse et leur évolutivité. De nombreuses fonctions et informations sont ainsi publiées sur Twitter avec une syntaxe bien particulière pour pouvoir être utilisées ultérieurement par des services extérieurs. Concrètement il s’agit de services en ligne qui vont parcourir la Twittosphère et récupérer les tweets qui utilisent la bonne syntaxe pour proposer une lecture plus simple.

Premier exemple avec Boarding qui permet de recenser les voyageurs en transit et faire des rencontres informelles dans les aéroports. Exemple de syntaxe : « #boarding in cdg for yyz » = « J’embarque à Paris pour Toronto« .

L'interface de Boarding pour les voyageurs en transit
L'interface de Boarding pour les voyageurs en transit

Il y a également StockTwits qui analyse les tweets relatifs aux sociétés cotées et permet d’en faire une synthèse, il suffit pour cela d’insérer le ticket Nasdaq de la société dont vous parlez précédé du symbole $ :

StockTwits pour les boursicoteurs-tweeteurs
StockTwits pour les boursicoteurs-tweeteurs

Dans le même style il y a aussi PollyTrade, un service qui vous permet de passer des ordres du type « @pollytrade buy 100 shares AAP« . Plus d’infos ici : Boursicoter avec Twitter.

Pour les fans de ciné il y a aussi FlixPulse qui agrège les avis de la Twittosphère :

Les critiques de film avec FlixPulse
Les critiques de film avec FlixPulse

Il existe également un service de rating plus ouvert (Out of 5) qui utilise un principe équivalent mais sans possibilité de faire des moyennes.

On retrouve enfin un service de rencontre (Radaroo) qui utilise une syntaxe assez complexe :

Radaroo
La syntaxe du service de rencontre Radaroo

Notons également le très particulier Ideas Culture qui permet de faire des demandes de recherche d’informations qui sont traitées dans la nuit par des équipes travaillant en Australie : Services uses Twitter to crowdsource ideas overnight.

Bref, tous ces exemples me font dire que la simplicité de Twitter et surtout les nombreuses possibilités offertes par les API permettent de développer tout un tas d’usages autour de cette fonction de ligne de commande.

Scénario 2 : le nouveau flux RSS

Quoi que l’on puisse en dire, et même si je suis un fan de la première heure, les flux RSS ne sont pas réellement entrés dans les habitudes du grand public, ni même des collaborateurs en entreprise. Pourtant il existe un réel besoin d’un flux d’informations brutes (de type flux AFP) que Twitter pourrait bien combler. C’est en tout cas le point de vue de certains : Rest in Peace RSS et Twitter humanise la technologie RSS. Les arguments avancés sont qu’avec Twitter la masse d’utilisateurs permet de faire du filtrage collaboratif sur les infos et que l’on trouve plus facilement son ou ses « fournisseurs » en fonction des affinités que vous avez avec lui (ou elle).

Je ne rentrerais pas dans le débat de savoir si les abonnés RSS ont plus de valeur que les followers (cf. RSS Subscribers or Twitter Followers: Which Are Worth More?) mais je pense qu’il serait juste de dire que Twitter est un très bon canal d’informations en temps réel pour celles et ceux qui veulent surveiller de loin, mais que pour une activité de veille plus intensive et systématique, les flux RSS sont tout de même recommandés.

Tout ça pour dire que dans certains domaines, Twitter est utilisé comme un canal de diffusion en temps réel :

Bref, il existe autant de domaines d’application que de types d’information. En ce qui concerne l’immobilier, il existe même des robots capable de répondre à des requêtes : RealEstate.com Launches Useful Twitter Bot. (ha non mince, c’est plus de la ligne de commande ça).

Scénario 3 : Une plateforme de jeux en temps réel

Les jeux ont toujours été un vecteur très performant de sociabilisation, et Twitter peut faire entrer cette sociabilisation dans l’ère du temps réel en permettant aux joueurs de rester en contact ou de se rencontrer avec des services comme TweetMyGaming (TweetMyGaming Compiles Video Game Conversations from Twitter in Real-Time) ou Twoof (qui permet de lier vos deux comptes Doof et Twitter) ou de partager les réactions des joueurs au cours d’une partie (How Twitter is Changing the World of Professional Poker).

Mais les applications les plus intéressantes sont celles qui concernent les jeux en ligne directement intégrés à Twitter, ou du moins qui se servent de Twitter comme canal d’interaction (MSPOG + microblog = Micro social RPG) et qui représentent un marché juteux (Virtual Mafia Game Making Actual Money on Twitter).

Même s’il existe déjà de nombreuses plateformes sociales dédiées aux joueurs (RaptR, GamerDNA…), c’est encore une fois Twitter vers lequel les regards se tournent : Can Twitter Become the New Casual Gaming Hub? Pourquoi ? Toujours pour les mêmes raison : simplicité, ouverture, modularité…

Conclusion

J’arrête là ma liste de scénarios d’évolution possibles car il faut que je vous en laisse aussi ! Plus sérieusement, je constate que la stratégie de Twitter qui consiste à complètement ouvrir sa base de donnée au travers de nombreuses API a été payante pour gagner très rapidement en popularité et surtout en ferveur. Dans un avenir proche il pourrait être tout à fait envisageable d’exploiter un service reposant sur Twitter sans que vous ayez à passer par Twitter.com (inscription, autorisation, manipulation…), tout serait délégué à des services tiers et Twitter serait alors une sorte de couche de communication.

Une évolution intéressante qui, de plus, pourrait devenir un modèle économique pour Twitter qui ne facturerait pas les utilisateurs mais les services qui exploitent sa base de données.

Alors selon vous Twitter peut-il réussir cette forme de reconversion ?

Netbook + TabletPC = Touchbook (et le web devient tactile)

Alors que le marché des netbooks n’en finit plus de grossir (ils représentent maintenant 1/5 des ventes : Netbooks Now A Fifth Of All Portable Computer Shipments), j’ai comme l’impression que nous sommes en train de voir émerger un nouveau segment : les touchbooks (des netbooks à écran tactile). Certains pourraient dire que les Tablet-PC existent depuis de nombreuses années, certes, mais je pense que ce type de terminaux va connaitre une seconde jeunesse en bénéficiant de l’expérience acquise par les constructeurs sur les netbooks (des machines « low-cost« ). Entendons-nous bien : « low-cost » ne rime pas forcément avec mauvaise qualité, il s’agit plus d’un positionnement différent où l’on ne recherche pas les meilleures performances mais plutôt le meilleur rapport valeur/prix (cf. The Good Enough Revolution: When Cheap and Simple Is Just Fine).

En tête de liste des prétendants à ce nouveau segment nous avons le Tabbee d’Orange :

tabbee

 

À peine sortie, cette machine fait déjà des émules avec le JournE Touch de Toshiba :

Journe_Touch

 

Nous retrouvons ensuite le fameux CrunchPad qui devrait sortir d’ici peu :

crunchpad

 

Moins sexy mais bien meilleur marché il y a le TouchBook de Always Innovating qui est proposé en open source pour le software ET le hardware (merci à Piffeur pour le lien) :

touchbook_AI

 

Mais on trouve également des formats alternatifs comme les Internet Tablet d’Archos :

archos-a5h-android

 

Ou encore les netbooks à écran tactiles comme le T91 d’Asus :

EeePCT91

 

Le point commun de toutes ces machines est de proposer un écran tactile, mais pas forcément l’interface qui va avec ! Et c’est là où il y a comme un problème, alors que le segment des netbooks est encore en train de chercher le bon système d’exploitation (cf. Intel et Jolicloud à la recherche de l’interface parfaite pour les netbooks).

Apple a révolutionné la téléphonie mobile avec son iPhone, les constructeurs précités sauront-ils en faire de même avec ces nouvelles machines ? Difficile à dire pour le moment, surtout avec le lobbying de Microsoft et de son futur Windows 7 qui devrait proposer des choses très intéressantes en terme d’interfaces tactiles. Intéressantes pour une utilisation intensive voire exclusive ? J’en doute, mais je peux me tromper. Archos montre l’exemple en proposant des Internet Tablet propulsée par Android mais est-ce suffisant pour convaincre le grand public… pas certain non plus car cela limite les domaines d’applications.

Dans l’idéal il faudrait attendre l’annonce d’un Macbook Touch pour avoir une machine cohérente (avec une interface parfaitement adaptée) mais ça ne sera visiblement pas pour cette année.

apple_netbook

Pour le moment le produit qui me semble le plus intéressant est le Qooq, un terminal dédié à la cuisine :

qooq

Pour faire simple, il s’agit d’un touchbook entièrement dédié à la cuisine (un « coach culinaire ») avec tout un tas de recettes à suivre pas à pas, des vidéos de préparation, des astuces et interviews de grands chefs et même une application de gestion des courses. Bref, c’est un terminal « intégré ».

Vous noterez qu’un effort a été fait pour adapter le terminal à son contexte d’utilisation (écran protégé contre les projections, pied pour le maintenir en position verticale…) de même que l’interface particulièrement réussie. Cette machine est proposée avec un abonnement (13 €/mois) qui donne accès aux recettes, aux fiches ingrédients ainsi qu’à un magazine vidéo sur l’art culinaire. Un modèle économique particulièrement intéressant pour un terminal proposé à 350 € (il fait aussi station météo et cadre numérique).

Peut-être que le Qooq ouvre la voix à toute une série de touchbooks de niche avec une ergonomie, une interface et des services verticalisés pour le grand public (pour les personnes âgées, pour les 5-7 ans…) ou les professionnels. En tous cas je me réjouis d’avance car ce type de machine va permettre de remettre en question les interfaces jusqu’alors proposées et apporter de l’innovation dans un marché stagnant (à quand remonte la dernière grosse innovation en matière d’informatique grand public ?).

Si vous connaissez d’autres exemples, les commentaires sont là pour ça…

Mes 3 sites coup de coeur (août 2009)

Pour cette édition estivale des mes trois sites coup de cœur du moment je vous propose une sélection tout en couleurs et en rondeurs.

Commençons avec le site de MetaLab :

La page d'accueil de MetaLab

Bon OK pas trop de couleurs vives mais avec un très bon contraste, des coins joliment arrondis et de belles transitions latérales et horizontales pour parcourir les différentes réalisations.

Nous avons ensuite Trent River Cruise :

La page d'accueil de Trent Cruising

Beaucoup de zones de respiration dans cette page d’accueil et des éléments parfaitement alignés sur grille de lecture, pas trop de texte et des illustrations qui se font rares pour une ambiance très apaisante (à l’image des croisières qu’ils proposent j’imagine).

Nous avons enfin Guifx :

La page d'accueil de GuiFX

Ambiance beaucoup plus colorée pour cette page d’accueil avec encore moins de texte mais plus d’illustrations. Vous noterez au passage la sophistication du traitement des boutons qui réchauffent l’ambiance et donne un aspect plus qualitatif (plus riche ?).

La suite le mois prochain.

Résumé de l’actualité estivale 2009

Voilà, c’est la rentrée. Le moment est donc venu de faire le point sur les les événements marquants du mois d’août.

Facebook rachète FriendFeed (et autres annonces)

C’est LA grosse annonce des vacances : après plusieurs années de négociations, FriendFeed accepte l’offre de rachat par Facebook (cf. FriendFeed accepts Facebook friend request). On parle d’un montant de 50 millions de $ pour récupérer les activités de FriendFeed ainsi que les 12 employés. Je ne p ense pas que ceci puisse être interprété comme la volonté de contenir la montée en puissance de Twitter car ces deux services sont en fait assez différents. FriendFeed n’a jmais été un réel concurrent pour Twitter, plutôt un concurent pour le Friends Update. Par contre Facebook Lite est une attaque on ne peut plus directe à l’égémonie de Twitter.

Quelle sera la suite ? Difficile à dire pour le moment si ce n’est quelques rumeurs notamment autour de Bebo dont AOL voudrait bien se débarrasser et qui permettrait à Facebook de rajeunir son audience. Il y a également des rumeurs concernant Spotify, LE service de streaming musical dont tout le monde parle en ce moment et qui pemettrait à Facebook de se remettre à niveau sur ce créneau là. D’autant plus que…

MySpace rachète iLike

Autre grosse nouvelle de l’été, le géant MySpace qui se reveille et prend le contrôle de iLike pour 20 millions de $. Un petit montant pour une très belle opération permettant à MySpace d’injecter du sang neuf dans sa base d’utilisateurs et de renforcer sa position sur la social music. Pour le moment on ne sait pas trop comment va se passer la cohabitation avec MySpace Music mais espérons que l’intégration se fera en douceur.

Prochaine étape : pourquoi pas un partenariat indistriel avec Apple/iTunes ou un autre rachat (au hasard Pandora).

Une nouvelle version de Google ?

Beaucoup de question autour d’une possible nouvelle version de Google dont le nom de code est Caffeine. Visiblement un nouvel algorithme de recherche serait à l’étude, de même qu’une nouvelle architecture technique pour plus de rapidité (cf. Google Caffeine: A Detailed Test of the New Google).

Plusieures hypothèses sont possible : un nouveau système de rating (évolution du page rank), de la recherche en temps réel… Je laisse les spécialistes s’exprimer.

Les services mobiles « next-gen » sont à la mode

Alors que Twitter et Facebook/FriendFeed se tranquilement en train de conquérir les masses (et donc de se ringardiser vis à vis des adopteurs précoces), des applications mobiles de dernière génération sont en passe de devenir les nouveles coqueluches de la blogosphère. Il y a ainsi FourSquare (un réseau social localisé) qui n’est pour le moment pas disponible en France. Il y a aussi Layar (un browser mobile à la sauce réalité augmentée) qui vient de sortir sa V.2 (cf. Layar Augmented Reality Browser Now World Wide on Android, iPhone is Next) et la toute récente Métro Paris que j’ai testé avec succès.

Pour le moment ce marché est encore assez confidentiel du fait de la taille réduite d’utilisateurs-cible (les possesseurs de smartphone) mais il y a potentiellement de gros revenus à tirer de cette niche à forte valeur ajoutée.

Nouvelles versions de Mac OS et Windows

C’est demain que sort Snow Leopard, la nouvelle version épurée de Mac OS qui va mettre l’accent sur les performances. Windows 7 ne devrait pas tarder à suivre avec une promesse similaire de refonte « en profondeur ». Je pense qu’il faudra attendre quelques mois avant de voir les réels améliorations côté services et notamment une intégration plus fine avec les infrastructures on-the-cloud.

Nokia sort un netbook

Alors que l’on spécule de plus en plus sur une Mac Tablet (15 ans après le Newton), c’est finalement Nokia qui a fait sensation en présentant son Booklet 3G : Nokia Booklet 3G mini laptop unveiled. Une superbe machine qui intègre enfin la 3G de façon native mais qui n’a toujours pas communiqué sur le prix. Mon intuition me dit que ce n’est pas un hasard si ce produit ne s’appelle pas « netbook » : c’est parce qu’il va dépasser la barre symbolique des 500 $ et ne plus trop correspondre ainsi à la « norme » des netbooks. L’idée de génie est d’avoir prévu un emplacement pour pouvoir glisser « à chaud » une carte SIM. Attendons de voir si cette machine tient ses promesses (cf. Why It’s Too Early To Be Excited About Nokia’s Late Netbook) et surtout de voir si l’on peut utiliser un autre système d’exploitation que le Windows annoncé (lequel déjà ?).

Voilà, ça fait beaucoup pour un mois d’août. J’ai oublié des choses ?

Web Squared, transition vers le web 3.0 ou nouveau paradigme ?

Voilà maintenant près de 5 ans que l’on parle du web 2.0 (ce terme a pour la première fois été utilisé en 2004 lors du Web 2.0 Summit) et depuis le grand jeu a été de savoir quand arrivera la prochaine itération. Pour faire simple disons que le web 2 .0 était le terme utilisé dans les années 2006/2007 pour décrire un changement majeur dans les usages de l’internet (voir ma dernière définition en date). Ce dernier repose sur deux notions fondamentales: l’intelligence collective, le web comme une plateforme (pour les utilisateurs et les services). Maintenant ce terme est passé de mode et l’on emploie plus volontiers celui de médias sociaux qui sonne moins « informatique » à l’oreille. J’ai également eu l’occasion de faire un panorama des différents services associés aux médias sociaux ainsi que de donner une définition.

L’étape suivante a logiquement été d’anticiper le web 3.0 (dont j’ai également tenté de donner une définition en 2006) qui repose sur le concept de web sémantique avec le découpage suivant qui est communément admis :

  • Web 1.0 = plateforme pour les documents
  • Web 2.0 = plateforme pour les individus
  • Web 3.0 = plateforme pour les données

A la vue du chantier titanesque que représente la re-sémantisation du web (nous parlons d’un horizon à 5 ou 10 ans) et des avancées dans d’autres domaines, Tim O’Reilly et John Battelle ont proposé une appellation intermédiaire lors du dernier Web 2.0 Summit : Web Squared: Web 2.0’s Successor?

L’idée étant de regrouper différentes avancées majeures derrière un terme unique pour pouvoir capitaliser dessus et évangéliser le marché. D’où la nouvelle notion de Web² (Web au carré, « Web Squared » en anglais) qui étend la portée du web 2.0 au-delà de la frontière des ordinateurs et des utilisateurs pour lui trouver des domaines d’application dans le monde réel, comprenez par là le terrain.

Web² = Web 2.0 + World

Les explications autour de ce Web² sont résumées dans l’article fondateur suivant : Web Squared: Web 2.0 Five Years On, mais vous pouvez en trouver une lecture plus synthétique ici : The Evolving Web In 2009: Web Squared Emerges To Refine Web 2.0. C’est d’ailleurs de ce dernier article que je tire ce très bon schéma :

web_squared

 

Le Web² est donc présenté comme un complément du Web 2.0, une forme de maturation qui va tranquillement nous mener vers la prochaine itération majeure (le fameux Web 3.0 dont les contours sont encore flous). Plusieurs notions fondamentales sont citées dans ce schéma que je vais essayer de vulgariser.

Implied Metadata : des métadonnées générées automatiquement et des systèmes auto-apprenants

Le web est aujourd’hui une véritable mine d’or d’informations. A tel point que le commun du mortel est confronté au problème d’infobésité : une surabondance d’informations qui perturbe la recherche d’informations à valeur ajoutée. Pour nous aider dans cette tâche de traitement de cette masse colossale d’informations, nous avons besoin de métadonnées (des données qui décrivent les données). Prenons l’exemple d’une photo de la Tour Eiffel, n’importe qui saura que cette photo a été prise à Paris, n’importe quel utilisateur humain mais pas les machines ! Pour qu’un service ou un agent intelligent puisse savoir que telle photo représente la Tour Eiffel et qu’elle a été prise à Paris, il faut lui préciser. Oui mais voilà, c’est un travail laborieux. Heureusement sont apparus des appareils photo numériques capables d’associer tout un tas de données aux photos comme par exemple les coordonnées GPS ou le modèle de l’appareil. Ces données ne sont pas directement accessibles à l’utilisateur mais elles sont disponibles pour qui veut bien se donner la peine de les chercher.

Ce type de métadonnées ne représente aux yeux de l’utilisateur que très peu de valeur, sauf si elles sont collectées et exploitées dans un contexte structurant comme par exemple sur FlickR où il est possible de parcourir les photos de la communauté en fonction de l’endroit où elles ont été prises (sur une carte du monde) ou en fonction du type d’appareil photo. Vous obtenez ainsi un très bon outil d’analyse du parc d’appareils photo numériques en circulation sans que les utilisateurs aient eu à saisir ces données, elle sont implicites (d’où la notion d' »implied metadata« ).

Mais cela va plus loin avec les systèmes auto-apprenants qui sont capables de générer des métadonnées à partir de recoupements. Reprenons l’exemple de nos photos numériques : si vous souhaitez les classer en fonction des personnes qui sont prises en photo, il faut toutes les parcourir à la main pour mettre de côté celles qui vous intéressent. Sauf si vous avez recours à un logiciel de reconnaissance faciale qui va faire ce travail à votre place : vous lui donner 2 ou 3 exemples pour qu’il reconnaisse un visage et il vous propose ensuite une liste de suggestions à valider. C’est le principe mis en œuvre par iPhoto 09.

iPhoto_Faces

L’article de Tim O’reilly cite l’exemple d’un chauffeur de taxi en Nouvelle-Zelande qui a trouvé un façon très rentable d’exploiter les métadonnées implicites : ce dernier a enregistré pendant 6 semaines un certain nombre de données sur ses courses (nombre de passagers, coordonnées GPS des points de départ et arrivée, conditions climatiques, horaires…), en a fait une compilation puis une analyse afin de déterminer les quartiers le plus rentables en fonction de l’heure de la journée.

Les métadonnées implicites comme facteur de croissance du C.A., une belle promesse, non ? Et il est possible de trouver de nombreux autres domaines d’application grâce aux données potentiellement fournies par des capteurs (votre téléphone ou n’importe quel objet équipé d’une puce RFID ou ZigBee peut faire l’affaire). Il en va de même pour les compteurs intelligents qui vont remonter des données très précieuses sur les habitudes de consommation des foyers (notion de « Smart Electric Grid » possible car chaque appareil émet une signature électrique unique). Ce type d’équipement permet ainsi à votre fournisseur d’énergie de mieux anticiper la consommation (et donc son approvisionnement) ainsi que de vous faire des recommandations pour optimiser votre facture.

Smart_Electricity_Meter

Bien évidemment tout ceci est encore en train de se mettre en place mais il semblerait qu’une norme commune soit déjà en train d’émerger : MQTT, un protocole pour standardiser les communications de machine à machine (cf. MQTT Poised For Big Growth – an RSS For Internet of Things?).

L’auteur nous met néanmoins en garde contre l’accumulation de ces données et les problèmes d’exploitation qui peuvent en découler : ce sont des données brutes, elles doivent être traitées et présentées de façon adéquate pour être compréhensibles et représenter une réelle valeur. D’où l’importance de systèmes de visualisation suffisamment souples et intuitifs pour permettre une manipulation aisée. Des services comme Gap Minder nous montrent ainsi la voie : mettre à disposition des données brutes (Ex : Data.gov) et fournir les outils pour les manipuler et en tirer du sens.

Information Shadow : des infos pour chaque objet, personne, lieu…

Autre notion importante, celle d’Information Shadow qui décrit l’ensemble des informations et données associées à un objet, une personne, un lieu, un événement… Ces informations sont disponibles n’importe où (data-on-the-cloud), il suffit juste d’avoir le bon lecteur pour les visualiser. Prenons un exemple que vous connaissez tous : le code barre. En passant un scanner dessus, vous obtenez la désignation, le prix… Même principe pour les mobile tags et autres flashcodes qu’il suffit de prendre en photo avec votre téléphone pour obtenir des infos complémentaires (cinémas les plus proches et horaires pour un film, ressources complémentaires pour un article…). Nous n’en croisons pas beaucoup pour le moment mais attendez-vous à une montée en puissance très rapide grâce notamment à des lecteurs universels comme le BeeTagg Multicode Reader ou à l’impulsion de gros acteurs comme Microsoft avec son Tag.

MobileTag

Autre possibilité et pas des moindres, le recours à des applications de réalité augmentée en situation de mobilité comme celle que propose Layar : en regardant le monde au travers de la caméra de votre téléphone, vous avez accès à une multitude de couches de données supplémentaires qui viennent enrichir la réalité.

Layar1

Exemple d’application de réalité augmentée avec Layar

Ce ne sont que des exemples et encore une fois les domaines d’application sont nombreux, de même que les supports.

Real-Time Web : informations et interactions sociales en quasi temps réel

Autre phénomène majeur de ces derniers mois, l’avènement du web temps réel avec notamment les outils de microblogging comme Twitter. L’idée derrière cette notion est que les outils mis à la disposition de la foule (accessibles au travers d’un ordinateur ou de terminaux mobiles) permettent l’émergence d’une conscience collective qui réagit en quasi temps réel aux événements extérieurs. Le facteur le plus important dans ce web en temps réel est la remontée d’informations ultra- fraiches directement sur le terrain, comme par exemple lors des dernières manifestations en Iran.

twitter_iran

Cela fonctionne aussi bien pour les news que pour les événements (tweets lors de conférences, concerts ou défilé du 14 juillet), pour le marketing (avec des outils de monitoring de la statusphère), pour les interactions sociales avec des solutions de syndication en temps réel comme Echo (cf. Vers des commentaires distribués pour les blogs ?).

Bref, l’échelle de temps est de plus en plus courte et cela s’applique d’autant mieux sur des plateformes sociales à grande échelle. Il y a à ce sujet une théorie très intéressante autour du Synaptic Web (en référence aux synapses qui relient les neurones entre eux) qui décrit les plateformes sociales de type Facebook ou Twitter comme des cerveaux « sociaux » où les membres (les neurones) interagissent en très grand nombre et avec des temps de réaction toujours plus courts (RT, commentaires, notes…). Bref, c’est de l’intelligence collective en quasi temps réel, le tout étant de trouver les bons outils de surveillance / interprétation des ces échanges (pour faire le tri entre bruit et signaux).

Data Ecosystems : des bases de connaissances structurées, ouvertes et universelles

Dernière grosse notion du Web² : les écosystèmes de données qui permettent de relier entre elles des bases de connaissances qui étaient auparavant cloisonnées. Pour comprendre le fonctionnement de ces Data Ecosystems, il me faut d’abord vous expliquer deux notions sous-jacentes : les Linked Data et les Data Sets.

Le terme Linked Data est utilisé pour décrire une méthode de partage et de connexion de données entre elles. Jusqu’à présent, pour relier deux données entre elles il fallait faire un lien depuis une donnée A vers une donnée B avec une URL (ex : Un clic sur ce lien ‘Fred Cavazza‘ mène à mon profil sur LinkedIn). Cette forme de connexion présente de nombreuses contraintes car elle est trop formelle et surtout limitée (un lien ne permet de relier entre elles que 2 données). C’est à la fois très puissant pour les utilisateurs (qui sautent de pages en pages) mais très pauvre pour les machines et agents intelligents (qui doivent parcourir le web dans tous les sens pour lier un grand nombre de données entre elles). L’idée derrière les Linked Data est de proposer un mécanisme plus souple et surtout plus puissant qui repose sur 4 principes :

  • Utiliser des URIs et non des URLs (un identifiant unique bien qui autorise de la granularité) ;
  • Utiliser des adresses http pour un accès universel (aussi bien pour les utilisateurs que pour les machines) ;
  • Structurer les informations sur la ressource à l’aide de métalangage comme RDF ;
  • Lier ces informations à d’autres données (via des URIs).

Dans les faits : vous avez un article qui parle de Berlin, vous pouvez soit mettre un lien URL sur le mot Berlin qui pointe vers la page Wikipedia (utile pour les utilisateurs mais par pour les machines car ce sont des informations non-structurées), soit mettre un lien URI qui pointe vers les Linked Data de Berlin (avec des données structurées très utiles pour les machines mais bien trop dures à lire pour les utilisateurs).

Berlin_dbPedia

Ne vous y trompez pas : les Linked Data ne sont pas l’avenir du web semantique, c’est « simplement » une façon de sémantiser le web. Mais je ne voudrais pas m’enliser dans des explications complexes sur les subtilités entre Linked Data et Semantic Web.

Les Data Sets sont des groupes de données qui sont connectées entre eux (les groupes). Pour faire simple : IMDB est une gigantesque base de données sur l’industrie du cinéma, par contre elle n’est pas nécessairement ouverte à l’extérieure (il faut avoir un compte premium il me semble). Les Data Sets sont des bases de données qui sont liées entre elles grâce aux Linked Data, chaque donnée enrichit les autres et multiplie ainsi la valeur du tout. Fabrice Epelboin donne une très belle métaphore dans son article : « Les données étaient autrefois enfermées, comme des fleurs dans des serres. Ce que l’on propose ici, c’est de les faire pousser en plein air, de façon à ce qu’une multitude d’abeilles non seulement se chargent de la polénisation pour le compte des fleuristes, mais qu’on puisse créer du miel et la profession d’apiculteur ».

Bien évidemment cela représente un chantier titanesque mais les travaux progressent à grand pas, notamment sous l’impulsion de Sir Tim Berners Lee dont vous pouvez voir ici une présentation parlant des Linked Data au TED :

http://video.ted.com/assets/player/swf/EmbedPlayer.swf

L’objectif des Data Ecosystems est donc de créer de gigantesques bases de bases de données, ou plutôt une méta base de données qui les regroupe toutes :

DataSets

L’idée étant que l’on puisse créer de la valeur en liant des données de différents horizons (médicales, culturelles…). Signalons ainsi des initiatives remarquables comme :

  • Le projet Gutenberg, une bibliothèque universelle (sorte de Google Books mais en open source) ;
  • dbPedia, une communauté qui se charge de structurer les informations de Wikipedia en données « compatibles » avec Linked Data (regardez donc le cadre à droite de certaines fiches, les infobox, ce sont des données tructurées) ;
  • Jamendo, une plateforme musicale entièrement en Creative Commons qui a publié son catalogue sous forme de Data Sets / Linked Data (exploitables avec dbTunes).

Ce ne sont que quelques exemples mais ils témoignent de l’ampleur de la tâche et de l’engagement des membres.

Vous l’aurez donc compris, le web sémantisé n’est pas pour tout de suite mais les différents grands acteurs se mettent en rang pour terminer cette conversion au plus vite. Linked Data et Data Sets ne sont qu’un exemple d’initiatives concourant à la création de Data Ecosystems mais il en existe d’autres comme par exemple le format CommonTag qui vise à standardiser l’utilisation des tags (cf. Common Tag apporte un standard aux métadonnées).

Pourquoi parler du Web Squared ?

Tout simplement parce qu’il est inimaginable de penser évangéliser le marché avec des termes jargonnant comme Information Shadow, Linked Data, Implied Metadata… il faut employer un terme simple qui puisse aider le commun des mortels à comprendre que nous sommes en train de vivre une nouvelle bascule (tout comme cela a été le cas avec le Web 2.0).

Je suis persuadé que nous sommes pratiquement arrivé au bout de ce que le web peut nous offrir en terme de partage de documents / contenus de même que pour les interactions sociales. Il existe encore de nombreux services et domaines d’application à trouver dans ces deux domaines mais nous avons déjà fait le plus gros. Nous sommes déjà en train de vivre la prochaine grosse itération du web : le web en temps réel, la réalité augmentée, les objets communicants, les écosystèmes de données sont des innovations en cours de maturation qui vont complètement bouleverser notre façon de communiquer, consommer, travailler, nous divertir… Bref, un nouveau paradigme des usages du web.

Pour marquer cette itération, nous avons besoin d’éduquer le marché (utilisateurs, annonceurs, opérateurs, pouvoirs publics…) et pour cela il faut pouvoir capitaliser sur un terme simple : le Web² (Web Squared).

Et maintenant ?

Maintenant tout reste à faire ! Ou plus précisément le travail d’évangélisation ne fait que commencer. Je vous engage ainsi à vous familiariser avec ces différentes notions et de prendre le temps d’en tester les applications pour bien appréhender la (r)évolution qui approche.

Comment le microblog a bouleversé les pratiques de blog

Depuis l’apparition des blogs au début des années 2000 et leur très forte émancipation (notamment grâce à des acteurs comme Skyblog en France), il a fallu grosso-modo 5 ans à la blogosphère pour se structurer (faisant apparaître 3 sous-ensembles : high-tech, politique et life style) et se professionnaliser (cf. Changement d’époque pour les blogs ?). C’est un résumé grossier mais là n’est pas le propos de cet article.

Tout se passait bien jusqu’à l’explosion des médias sociaux (avec sa myriade de services) et la forte montée en puissance du micro-blogging (Twitter a-t-il atteint le point de bascule ?). Alors que l’on pensait la blogosphère toute puissante, voilà que deux services sont venus bouleverser la donne : Twitter et FriendFeed. Le premier sert à publier des messages ultra-courts (même en situation de mobilité), le deuxième sert à agréger sa production sur les médias sociaux. Vous pourriez me dire (à juste titre) que c’est une tempête dans un verre d’eau, il n’empêche qu’au fil du temps j’ai constaté une modification radicale dans les pratiques de blog, et notamment chez les acteurs « historiques » de la blogosphère :

Bref, les choses ont irrémédiablement changé suite à la maturation d’outils et plateformes sociales complémentaires (cf. Blogging Vs Microblogging + Lifestreaming + Social Networking). Comment expliquer ce changement : Lassitude des lecteurs ? Saturation de la blogosphère ? Envie de tester d’autres supports ? C’est un peu tout cela à la fois, mais surtout la mutliplication des supports : Is Blogging Evolving Into Life Streams?.

Aujourd’hui la configuration que je croise le plus souvent est la suivante :

  • L’activité de veille / filtre quotidienne sur Twitter (ou FriendFeed) ;
  • Des billets plus longs sur les blogs.

Il y a une logique derrière cette évolution : le blog n’est plus le support de prédilection pour de l’information chaude, il a été supplanté par le microblog. Illustration la semaine dernière avec l’annonce du lancement de Chrome OS : Je me suis dépêché de rédiger un billet sur le sujet à peine quelques heures après l’annonce, résultat : rien (très peu de commentaires et quasiment aucun lien). J’ai quelques jours plus tard pris le temps de rédiger un article plus complet avec une réflexion mieux argumentée et le résultat est bien plus satisfaisant (des commentaires plus riches, plein de liens entrants). L’enseignement que je peux en tirer est le suivant : j’arrête définitivement de faire la course à l’info chaude, moins de billets mais des articles plus réfléchis (que je pourrais qualifier « d’info tiède »). Finalement c’est Jakob Nielsen qui avait raison avant l’heure en préconisant de rédiger des articles et non des billets (Write Articles, Not Blog Postings).

Bien évidemment ceci ne s’applique pas à tous les blogs, les billets d’humeur sont toujours très largement appréciés, mais par ceux qui ont envie de les lire !

Reste maintenant à savoir comment les blogs vont évoluer. Sur cette question scénarios sont envisageables (What is the Future of Blogging?) :

  • Une transformation des blogs en lifestream (notez que lifestream et blogs peuvent tout à fait cohabiter (c’est ce que je fais avec ma barre latérale) ;
  • Une transformation des blogs en plateformes sociales (par l’intermédiaire de social bar comme Google Friend Connect ou Stribe) ;
  • Une transformation des blogs en web TV (peu probable car il faut tout de même de l’équipement, mais peut-être que les plateformes de livecast peuvent nous y aider) ;
  • Une redéfinition des blogs (un site comme un autre ?) ;
  • Un nouveau modèle encore à définir (Google Wave est un bon point de départ).

Comme vous pouvez le constater, les options sont encore nombreuses. En tous cas je reste persuadé que l’on ne peut plus se permettre de ne miser que sur un seul format : la prise de parole sur le web doit s’envisager comme un ensemble de publications sur différents formats (billets, articles, tweets, vidéos, diaporamas…).

Pour le moment je reste fidèle à mon support d’origine (mes 7 blogs) mais je commence à voir des choses tout à fait intéressantes avec des plateforms hybrides comme Tumblr ou Posterous qui permettent de publier avec différents formats, depuis différentes sources.

Finalement peut-être que le bon choix est celui de Steve Rubel : un lifestream modulaire pour sa production quotidienne et de temps en temps des articles de fond publiés sur des médias à forte audience (Mashable…).

Quoique, ça manque peut-être un peu d’interactivité tout ça… peut-être une petite touche de Facebook / LinkedIn par dessus et ça commencera à être bien.

Dans le doute je vous pose la question : préférez-vous plus de billets (1 par jour) ou des analyses plus poussées (quitte à tomber à 1 ou 2 articles par semaine) ?