Les conversations remplaceront-elles les messages ?

Saviez-vous que le premier email avait été envoyé durant les années 60, soit il y a plus de 40 ans. 40 ans… et une bonne partie de notre activité quotidienne en ligne repose toujours sur les emails. Entre temps il y a eu de nombreuses révolutions technologiques ou des usages (web, intranets, web 2.0, médias sociaux…) mais les messages, eux, n’ont pas beaucoup changé dans leur mode de fonctionnement : un expéditeur, un destinataire, un objet et un corps. Avec le temps, les messages sont devenus plus riches (nombreuses possibilités de formatage ou de pièces jointes) mais le fonctionnement est toujours le même.

Là où ça devient problématique c’est quand :

  1. Plus des 2/3 des messages échangés sur la planète sont du spam ;
  2. Il existe une multitude de moyens de communication (tweets, systèmes de messagerie des plateformes sociales…) et que ces derniers font saturer votre attention ;
  3. Votre activité en ligne est répartie entre différents ordinateurs / terminaux.

À partir de ce constat, il devient plus qu’urgent de revoir le mode de fonctionnement de ces messages et de passer à autre chose. Cet autre chose, ce sont les conversations : les conversations privées ou publiques, indexables et archivables, enrichies ou non (contenus riches, fichiers joints, modules applicatifs encapsulés…), éditables ou non.

En fait, quand on y réfléchit bien, le point de bascule est déjà dernière nous avec l’apparition de messages structurés en conversations dans Gmail :

gmail-conversations

Mais ceci n’était qu’un début car les conversations sont petit à petit passées au centre des attentions et ne font qu’entamer un long processus d’évolution.

Et les conversations deviennent publiques

La déferlante des médias sociaux a ainsi apportée une dimension “sociale” aux conversations en les rendant publiques, comprenez par là que certains sites comme Facebook ou Twitter sont devenus des lieux de rencontre où il faut être vu et où chacun écoute les conversations des autres. Les public walls ont donc ressuscité les livres d’or (“guest book” en anglais) des sites perso pour en faire quelque chose de résolument plus intuitif, distribué, visible… plus social quoi ! Notons que ce principe de public wall fonctionne aussi dans le monde professionnel avec les réseaux sociaux d’entreprise.

De même, Twitter a intensifié cette pratique en y rajoutant une dimension temporelle importante avec les conversation publiques en quasi-temps réel (par l’usage des @ et #). Sur ce terrain là, signalons un petit nouveau (Nurphy) qui propose un service de conversation en ligne permettant de mieux gérer les aspects privé / public : Nurphy Wants to Replace Email with Conversations.

Outre les réseaux sociaux, une partie des conversations sont également hébergées par les blogs et leurs commentaires. Pas étonnant que dans cette mouvance nous avons également vu naitre et croitre des services d’agrégation de commentaires comme BackType (cf. Les commentaires au centre de votre graph social) ou Echo (cf. Vers des commentaires distribués pour les blogs ?).

BackType

Mais il y a une limite à cette visibilité à outrance : l’éparpillement. De fait, la prochaine étape de la transformation des conversations va être de les regrouper.

Des conversations unifiées

La messagerie unifiée n’est pas une nouveauté dans le monde de l’entreprise car voilà des années que l’on en parle. Le principe étant de regrouper en un seul endroit les messages (et conversations) en provenance de différents supports : email, messages téléphoniques, SMS… Avec l’avènement des médias sociaux, ce besoin d’unification va se faire également sentir sur le plan personnel. Comprenez par là que nous sommes maintenant saturés d’alertes et autres simili-spams en provenance de réseaux sociaux qui noient notre capacité à répondre à des messages plus importants (provenant de “vrais” amis ou de la famille).

D’où l’intérêt d’unifier tous les messages, alertes, stimuli en provenance des multiples plateformes sociales (email, réseaux sociaux, tweets, messagerie instantanée…) pour pouvoir les trier et surtout les classer. Le but de l’exercice étant de faire ressortir ceux en provenance d’interlocuteurs de choix (votre conjoint, mère…) ou nécessitant une réponse urgente. Un tel système permettrait également de garder le fil d’une conversation s’étalant sur différents supports (démarrée par email puis au téléphone…).

Rajoutez à cela la possibilité d’agréger les messages de tous vos terminaux (ordinateurs, netbook, smartphone, nabaztag…) ainsi que d’y accéder avec n’importe quel terminal et vous obtenez un sacré casse-tête ! Mais à coeur vaillant rien d’impossible, c’est en tout cas ce que se sont dit les équipes de Mozilla qui travaillent sur un projet de messagerie unifiée : Raindrop.

Raindrop

Parler de messagerie unifiée pour ce projet est très réducteur, les équipes le définissent plutôt comme un nouveau système de communication où vous connectez différentes sources (emails, Facebook, Twitter, Skype…), vous définissez des règles de traitement et vous greffez des extensions pour automatiser certaines tâches. Plus d’infos ici : First look: inside Mozilla’s Raindrop messaging platform. Pour le moment ce projet n’en est qu’à ses balbutiements mais il démontre une grande valeur ajoutée et préfigure ce que pourrait être l’avenir de la messagerie unifiée : 4 Reasons Why Mozilla’s Raindrop Matters.

L’avenir de la messagerie unifiée ? Oui à condition d’avoir fait le lien entre messages textuels et messages vocaux. Un mariage à priori impossible tant les difficultés technologiques sont nombreuses. Mais là encore, à co(d)eurs vaillants rien d’impossible puisque Google est en train de déployer aux États-Unis son service Google Voice qui vous propose de retranscrire les messages vocaux en texte : Google Voice Can Now Take Control Of Your Mobile Voicemail.

GoogleVoiceMail

Très pratique pour unifier toutes les formes de conversations, mais également effrayant car la retranscription ne prend pas en compte l’intonation, elle supprime le contexte.

Comme nous l’avons vu un peu plus haut, agréger les conversations n’est que la première étape. Le plus grand bénéfice d’une telle opération est de pouvoir traiter ces conversations voir de les enrichir.

Vers des conversations enrichies

C’est là que rentre en scène Google Wave, le fameux service dont on a beaucoup de mal à faire une définition courte. Et pour cause, Wave se situe à la croisée de nombreux usages et peu être exploitée de nombreuses façons : Google Wave = Email + IM + Wiki + Mashup. En fait il serait très réducteur de considérer Wave comme une évolution de l’email car c’est en fait un projet bien plus ambitieux que ça : Google Wave’s unproductive email metaphors.

Wave

Dans le contexte de la conversation, Wave vous permet de rendre une discussion active en autorisant l’édition, la gestion des modifications et la publication (par encapsulation dans une page web). Nous avons donc un usage plus proche du wiki.

Mais Wave vous permet également d’insérer des modules dans les discussions pour pouvoir l’enrichir et lui donner une dimension applicative : carte, slideshow, sondage… En fait il est possible de créer une infinité d’extensions et de mettre en place des robots auquel vous attribuez des permissions pour pouvoir faire tout un tas de chose à votre place. D’ailleurs nous ne devrions pas tarder à voir apparaitre une place de marché d’extensions pour Wave : Google Wave team talk shop and future.

Mélangez le potentiel des agents intelligents avec la possibilité de publier une discussion sur une page web et vous obtenez une authentique révolution dans votre façon de communiquer, d’interagir, de collaborer, de partager… Si vous avez la chance d’avoir une invitation pour Wave, je vous invite à tester le service en profondeur pour bien vous rendre compte du potentiel disruptif de cette technologie.

Conclusion

Donc au final, l’email est-il mort ? Non bien au contraire, il ne fait qu’entamer une longue série de mutations pour en faire l’outil de communication du 21ème siècle. N’oublions pas que derrière chaque email il y a un ingrédient essentiel (un utilisateur), et cette longue évolution ne devra en aucun cas le perdre en route. Lequel des usages pro ou perso va accélérer cette évolution ? Il est encore trop tôt pour le dire, mais dans tous les cas de figure l’email est condamné à évoluer à moyen terme. Qui s’en plaindra ?

Web Squared, transition vers le web 3.0 ou nouveau paradigme ?

Voilà maintenant près de 5 ans que l’on parle du web 2.0 (ce terme a pour la première fois été utilisé en 2004 lors du Web 2.0 Summit) et depuis le grand jeu a été de savoir quand arrivera la prochaine itération. Pour faire simple disons que le web 2 .0 était le terme utilisé dans les années 2006/2007 pour décrire un changement majeur dans les usages de l’internet (voir ma dernière définition en date). Ce dernier repose sur deux notions fondamentales: l’intelligence collective, le web comme une plateforme (pour les utilisateurs et les services). Maintenant ce terme est passé de mode et l’on emploie plus volontiers celui de médias sociaux qui sonne moins “informatique” à l’oreille. J’ai également eu l’occasion de faire un panorama des différents services associés aux médias sociaux ainsi que de donner une définition.

L’étape suivante a logiquement été d’anticiper le web 3.0 (dont j’ai également tenté de donner une définition en 2006) qui repose sur le concept de web sémantique avec le découpage suivant qui est communément admis :

  • Web 1.0 = plateforme pour les documents
  • Web 2.0 = plateforme pour les individus
  • Web 3.0 = plateforme pour les données

A la vue du chantier titanesque que représente la re-sémantisation du web (nous parlons d’un horizon à 5 ou 10 ans) et des avancées dans d’autres domaines, Tim O’Reilly et John Battelle ont proposé une appellation intermédiaire lors du dernier Web 2.0 Summit : Web Squared: Web 2.0’s Successor?

L’idée étant de regrouper différentes avancées majeures derrière un terme unique pour pouvoir capitaliser dessus et évangéliser le marché. D’où la nouvelle notion de Web² (Web au carré, “Web Squared” en anglais) qui étend la portée du web 2.0 au-delà de la frontière des ordinateurs et des utilisateurs pour lui trouver des domaines d’application dans le monde réel, comprenez par là le terrain.

Web² = Web 2.0 + World

Les explications autour de ce Web² sont résumées dans l’article fondateur suivant : Web Squared: Web 2.0 Five Years On, mais vous pouvez en trouver une lecture plus synthétique ici : The Evolving Web In 2009: Web Squared Emerges To Refine Web 2.0. C’est d’ailleurs de ce dernier article que je tire ce très bon schéma :

web_squared

 

Le Web² est donc présenté comme un complément du Web 2.0, une forme de maturation qui va tranquillement nous mener vers la prochaine itération majeure (le fameux Web 3.0 dont les contours sont encore flous). Plusieurs notions fondamentales sont citées dans ce schéma que je vais essayer de vulgariser.

Implied Metadata : des métadonnées générées automatiquement et des systèmes auto-apprenants

Le web est aujourd’hui une véritable mine d’or d’informations. A tel point que le commun du mortel est confronté au problème d’infobésité : une surabondance d’informations qui perturbe la recherche d’informations à valeur ajoutée. Pour nous aider dans cette tâche de traitement de cette masse colossale d’informations, nous avons besoin de métadonnées (des données qui décrivent les données). Prenons l’exemple d’une photo de la Tour Eiffel, n’importe qui saura que cette photo a été prise à Paris, n’importe quel utilisateur humain mais pas les machines ! Pour qu’un service ou un agent intelligent puisse savoir que telle photo représente la Tour Eiffel et qu’elle a été prise à Paris, il faut lui préciser. Oui mais voilà, c’est un travail laborieux. Heureusement sont apparus des appareils photo numériques capables d’associer tout un tas de données aux photos comme par exemple les coordonnées GPS ou le modèle de l’appareil. Ces données ne sont pas directement accessibles à l’utilisateur mais elles sont disponibles pour qui veut bien se donner la peine de les chercher.

Ce type de métadonnées ne représente aux yeux de l’utilisateur que très peu de valeur, sauf si elles sont collectées et exploitées dans un contexte structurant comme par exemple sur FlickR où il est possible de parcourir les photos de la communauté en fonction de l’endroit où elles ont été prises (sur une carte du monde) ou en fonction du type d’appareil photo. Vous obtenez ainsi un très bon outil d’analyse du parc d’appareils photo numériques en circulation sans que les utilisateurs aient eu à saisir ces données, elle sont implicites (d’où la notion d'”implied metadata“).

Mais cela va plus loin avec les systèmes auto-apprenants qui sont capables de générer des métadonnées à partir de recoupements. Reprenons l’exemple de nos photos numériques : si vous souhaitez les classer en fonction des personnes qui sont prises en photo, il faut toutes les parcourir à la main pour mettre de côté celles qui vous intéressent. Sauf si vous avez recours à un logiciel de reconnaissance faciale qui va faire ce travail à votre place : vous lui donner 2 ou 3 exemples pour qu’il reconnaisse un visage et il vous propose ensuite une liste de suggestions à valider. C’est le principe mis en œuvre par iPhoto 09.

iPhoto_Faces

L’article de Tim O’reilly cite l’exemple d’un chauffeur de taxi en Nouvelle-Zelande qui a trouvé un façon très rentable d’exploiter les métadonnées implicites : ce dernier a enregistré pendant 6 semaines un certain nombre de données sur ses courses (nombre de passagers, coordonnées GPS des points de départ et arrivée, conditions climatiques, horaires…), en a fait une compilation puis une analyse afin de déterminer les quartiers le plus rentables en fonction de l’heure de la journée.

Les métadonnées implicites comme facteur de croissance du C.A., une belle promesse, non ? Et il est possible de trouver de nombreux autres domaines d’application grâce aux données potentiellement fournies par des capteurs (votre téléphone ou n’importe quel objet équipé d’une puce RFID ou ZigBee peut faire l’affaire). Il en va de même pour les compteurs intelligents qui vont remonter des données très précieuses sur les habitudes de consommation des foyers (notion de “Smart Electric Grid” possible car chaque appareil émet une signature électrique unique). Ce type d’équipement permet ainsi à votre fournisseur d’énergie de mieux anticiper la consommation (et donc son approvisionnement) ainsi que de vous faire des recommandations pour optimiser votre facture.

Smart_Electricity_Meter

Bien évidemment tout ceci est encore en train de se mettre en place mais il semblerait qu’une norme commune soit déjà en train d’émerger : MQTT, un protocole pour standardiser les communications de machine à machine (cf. MQTT Poised For Big Growth – an RSS For Internet of Things?).

L’auteur nous met néanmoins en garde contre l’accumulation de ces données et les problèmes d’exploitation qui peuvent en découler : ce sont des données brutes, elles doivent être traitées et présentées de façon adéquate pour être compréhensibles et représenter une réelle valeur. D’où l’importance de systèmes de visualisation suffisamment souples et intuitifs pour permettre une manipulation aisée. Des services comme Gap Minder nous montrent ainsi la voie : mettre à disposition des données brutes (Ex : Data.gov) et fournir les outils pour les manipuler et en tirer du sens.

Information Shadow : des infos pour chaque objet, personne, lieu…

Autre notion importante, celle d’Information Shadow qui décrit l’ensemble des informations et données associées à un objet, une personne, un lieu, un événement… Ces informations sont disponibles n’importe où (data-on-the-cloud), il suffit juste d’avoir le bon lecteur pour les visualiser. Prenons un exemple que vous connaissez tous : le code barre. En passant un scanner dessus, vous obtenez la désignation, le prix… Même principe pour les mobile tags et autres flashcodes qu’il suffit de prendre en photo avec votre téléphone pour obtenir des infos complémentaires (cinémas les plus proches et horaires pour un film, ressources complémentaires pour un article…). Nous n’en croisons pas beaucoup pour le moment mais attendez-vous à une montée en puissance très rapide grâce notamment à des lecteurs universels comme le BeeTagg Multicode Reader ou à l’impulsion de gros acteurs comme Microsoft avec son Tag.

MobileTag

Autre possibilité et pas des moindres, le recours à des applications de réalité augmentée en situation de mobilité comme celle que propose Layar : en regardant le monde au travers de la caméra de votre téléphone, vous avez accès à une multitude de couches de données supplémentaires qui viennent enrichir la réalité.

Layar1

Exemple d’application de réalité augmentée avec Layar

Ce ne sont que des exemples et encore une fois les domaines d’application sont nombreux, de même que les supports.

Real-Time Web : informations et interactions sociales en quasi temps réel

Autre phénomène majeur de ces derniers mois, l’avènement du web temps réel avec notamment les outils de microblogging comme Twitter. L’idée derrière cette notion est que les outils mis à la disposition de la foule (accessibles au travers d’un ordinateur ou de terminaux mobiles) permettent l’émergence d’une conscience collective qui réagit en quasi temps réel aux événements extérieurs. Le facteur le plus important dans ce web en temps réel est la remontée d’informations ultra- fraiches directement sur le terrain, comme par exemple lors des dernières manifestations en Iran.

twitter_iran

Cela fonctionne aussi bien pour les news que pour les événements (tweets lors de conférences, concerts ou défilé du 14 juillet), pour le marketing (avec des outils de monitoring de la statusphère), pour les interactions sociales avec des solutions de syndication en temps réel comme Echo (cf. Vers des commentaires distribués pour les blogs ?).

Bref, l’échelle de temps est de plus en plus courte et cela s’applique d’autant mieux sur des plateformes sociales à grande échelle. Il y a à ce sujet une théorie très intéressante autour du Synaptic Web (en référence aux synapses qui relient les neurones entre eux) qui décrit les plateformes sociales de type Facebook ou Twitter comme des cerveaux “sociaux” où les membres (les neurones) interagissent en très grand nombre et avec des temps de réaction toujours plus courts (RT, commentaires, notes…). Bref, c’est de l’intelligence collective en quasi temps réel, le tout étant de trouver les bons outils de surveillance / interprétation des ces échanges (pour faire le tri entre bruit et signaux).

Data Ecosystems : des bases de connaissances structurées, ouvertes et universelles

Dernière grosse notion du Web² : les écosystèmes de données qui permettent de relier entre elles des bases de connaissances qui étaient auparavant cloisonnées. Pour comprendre le fonctionnement de ces Data Ecosystems, il me faut d’abord vous expliquer deux notions sous-jacentes : les Linked Data et les Data Sets.

Le terme Linked Data est utilisé pour décrire une méthode de partage et de connexion de données entre elles. Jusqu’à présent, pour relier deux données entre elles il fallait faire un lien depuis une donnée A vers une donnée B avec une URL (ex : Un clic sur ce lien ‘Fred Cavazza‘ mène à mon profil sur LinkedIn). Cette forme de connexion présente de nombreuses contraintes car elle est trop formelle et surtout limitée (un lien ne permet de relier entre elles que 2 données). C’est à la fois très puissant pour les utilisateurs (qui sautent de pages en pages) mais très pauvre pour les machines et agents intelligents (qui doivent parcourir le web dans tous les sens pour lier un grand nombre de données entre elles). L’idée derrière les Linked Data est de proposer un mécanisme plus souple et surtout plus puissant qui repose sur 4 principes :

  • Utiliser des URIs et non des URLs (un identifiant unique bien qui autorise de la granularité) ;
  • Utiliser des adresses http pour un accès universel (aussi bien pour les utilisateurs que pour les machines) ;
  • Structurer les informations sur la ressource à l’aide de métalangage comme RDF ;
  • Lier ces informations à d’autres données (via des URIs).

Dans les faits : vous avez un article qui parle de Berlin, vous pouvez soit mettre un lien URL sur le mot Berlin qui pointe vers la page Wikipedia (utile pour les utilisateurs mais par pour les machines car ce sont des informations non-structurées), soit mettre un lien URI qui pointe vers les Linked Data de Berlin (avec des données structurées très utiles pour les machines mais bien trop dures à lire pour les utilisateurs).

Berlin_dbPedia

Ne vous y trompez pas : les Linked Data ne sont pas l’avenir du web semantique, c’est “simplement” une façon de sémantiser le web. Mais je ne voudrais pas m’enliser dans des explications complexes sur les subtilités entre Linked Data et Semantic Web.

Les Data Sets sont des groupes de données qui sont connectées entre eux (les groupes). Pour faire simple : IMDB est une gigantesque base de données sur l’industrie du cinéma, par contre elle n’est pas nécessairement ouverte à l’extérieure (il faut avoir un compte premium il me semble). Les Data Sets sont des bases de données qui sont liées entre elles grâce aux Linked Data, chaque donnée enrichit les autres et multiplie ainsi la valeur du tout. Fabrice Epelboin donne une très belle métaphore dans son article : « Les données étaient autrefois enfermées, comme des fleurs dans des serres. Ce que l’on propose ici, c’est de les faire pousser en plein air, de façon à ce qu’une multitude d’abeilles non seulement se chargent de la polénisation pour le compte des fleuristes, mais qu’on puisse créer du miel et la profession d’apiculteur ».

Bien évidemment cela représente un chantier titanesque mais les travaux progressent à grand pas, notamment sous l’impulsion de Sir Tim Berners Lee dont vous pouvez voir ici une présentation parlant des Linked Data au TED :

http://video.ted.com/assets/player/swf/EmbedPlayer.swf

L’objectif des Data Ecosystems est donc de créer de gigantesques bases de bases de données, ou plutôt une méta base de données qui les regroupe toutes :

DataSets

L’idée étant que l’on puisse créer de la valeur en liant des données de différents horizons (médicales, culturelles…). Signalons ainsi des initiatives remarquables comme :

  • Le projet Gutenberg, une bibliothèque universelle (sorte de Google Books mais en open source) ;
  • dbPedia, une communauté qui se charge de structurer les informations de Wikipedia en données “compatibles” avec Linked Data (regardez donc le cadre à droite de certaines fiches, les infobox, ce sont des données tructurées) ;
  • Jamendo, une plateforme musicale entièrement en Creative Commons qui a publié son catalogue sous forme de Data Sets / Linked Data (exploitables avec dbTunes).

Ce ne sont que quelques exemples mais ils témoignent de l’ampleur de la tâche et de l’engagement des membres.

Vous l’aurez donc compris, le web sémantisé n’est pas pour tout de suite mais les différents grands acteurs se mettent en rang pour terminer cette conversion au plus vite. Linked Data et Data Sets ne sont qu’un exemple d’initiatives concourant à la création de Data Ecosystems mais il en existe d’autres comme par exemple le format CommonTag qui vise à standardiser l’utilisation des tags (cf. Common Tag apporte un standard aux métadonnées).

Pourquoi parler du Web Squared ?

Tout simplement parce qu’il est inimaginable de penser évangéliser le marché avec des termes jargonnant comme Information Shadow, Linked Data, Implied Metadata… il faut employer un terme simple qui puisse aider le commun des mortels à comprendre que nous sommes en train de vivre une nouvelle bascule (tout comme cela a été le cas avec le Web 2.0).

Je suis persuadé que nous sommes pratiquement arrivé au bout de ce que le web peut nous offrir en terme de partage de documents / contenus de même que pour les interactions sociales. Il existe encore de nombreux services et domaines d’application à trouver dans ces deux domaines mais nous avons déjà fait le plus gros. Nous sommes déjà en train de vivre la prochaine grosse itération du web : le web en temps réel, la réalité augmentée, les objets communicants, les écosystèmes de données sont des innovations en cours de maturation qui vont complètement bouleverser notre façon de communiquer, consommer, travailler, nous divertir… Bref, un nouveau paradigme des usages du web.

Pour marquer cette itération, nous avons besoin d’éduquer le marché (utilisateurs, annonceurs, opérateurs, pouvoirs publics…) et pour cela il faut pouvoir capitaliser sur un terme simple : le Web² (Web Squared).

Et maintenant ?

Maintenant tout reste à faire ! Ou plus précisément le travail d’évangélisation ne fait que commencer. Je vous engage ainsi à vous familiariser avec ces différentes notions et de prendre le temps d’en tester les applications pour bien appréhender la (r)évolution qui approche.

Les netbooks vont-ils amorcer la révolution du web 3.0 ?

Pour simplifier une explication longue et laborieuse, et pour éviter tout dérapage dans la discussion, nous partirons du principe que le web 3.0 marque une rupture dans nos usages du web (après l’introduction d’une nouvelle dimension sociale par le web 2.0) en apportant des évolutions majeures comme la connexion pervasive, le cloud computing, le nomadisme et la disparition de la frontière entre logiciels et sites web au profit de modèles plus agiles comme les applications en ligne et les clients riches (Rich Descktop Application).

Il y a netbook et netbook

Avant de continuer je souhaiterais (re)définir ce que j’entends par “netbook“. Il y a deux caractéristiques essentielles à prendre en compte : la taille et le prix de la machine. Ces caractéristiques nous permettent de bien délimiter le concept de netbook et d’éviter de brouiller l’argumentation qui va suivre avec des cas particuliers.

La taille est donc le premier critère : entre 7 et 9 pouces. Moins de 7 pouces et vous vous rapprochez de la taille des gros smartphones, plus de 9 pouces et vous vous rapprochez des ultra-portables. Je fais donc le choix d’exclure les machines de format 10 pouces qui s’éloignent à mon sens de la “philosophie” des netbooks pour essayer de concurrencer (avec beaucoup de mal) les ultra-portables. De même, les prochaines générations de machines au format 11 pouces sont à mon avis une hérésie qui risque de dangereusement cannibaliser les ordinateurs à bas prix et tirer la qualité vers le bas.

Un emcombrement beaucoup plus faible que les laptops

Le prix est également une seconde caractéristique structurante car les netbooks ne s’utilisent pas seuls, ils viennent en complément d’un autre ordinateur. Nous pouvons ainsi exclure les machines qui dépassent les 500 € car elles sont alors affichées au même prix que les ordinateurs d’entrée de gamme. Ne parlons même pas du futur Vaio P qui sera vendu à partir de 999 €, avec des versions au prix d’un Macbook Air (un comble !).

Nous pouvons argumenter des heures sur cette définition du netbook (moins de 9 pouces et moins de 500 €) mais elle est cependant nécessaire à l’argumentation du reste de l’article.

Les netbooks sont plus de gros smartphones que des petits ordinateurs

L’arrivée sur le marché du EeePC en début d’année dernière a marqué un tournant dans le marché des ordinateurs. Non pas parce que les technologies mises en oeuvre dans ces petits machines sont révolutionnaires mais plutôt parce qu’ils ont créé une nouvelle niche de marché qui va non seulement rapidement s’imposer comme un segment majeur mais également initier un nouveau mode de consommation de l’outil informatique et de l’internet.

Je m’explique : avant nous avions les téléphones mobiles et les ordinateurs. Puis les PDA sont venus s’interposer entre ces deux segments, rapidement remplacés par les smartphones. Ces derniers proposent un compromis intéressant entre les fonctions de téléphonie classiques (appels, SMS, répertoire…) et les fonctions d’informatique d’appoint (mail, web et consultation de documents). Je précise qu’il s’agit bien là d’un usage d’appoint car même si les Blackberry nous rendent de gros services, ils excellent surtout dans la rédaction de courts emails (réponses urgentes).

Puis est apparu l’iPhone qui a complètement retourné le marché en proposant une expérience utilisateur unique reposant sur les widgets mobiles (à mi-chemin entre applications et sites web). Rapidement copié par ses concurrents, l’iPhone semble avoir défini un modèle viable de ce qu’est un smartphone, de ce qu’il sait bien faire et de ce qu’il ne sait pas faire (principalement pour des contraintes d’affichage et de saisie).

Enfin, sont apparus les netbooks qui vont venir compléter ce tableau avec une proposition de valeur intermédiaire : idéal pour le mail et le surf en situation de mobilité, parfait pour la prise de note sur le terrain (dans les transports en commun ou lors de réunions / conférences), bien pour de la consultation / manipulation de documents bureautiques. Les documents bureautiques sont un cas d’usage important car ils illustrent bien les différences entre les 3 segments précités : vous créez un document bureautique sur votre ordinateur, vous le complétez sur votre netbook et vous le consultez sur votre smartphone. Bien évidemment vous pourriez argumenter qu’il est tout à fait possible de créer un document bureautique sur un netbook mais avouez que ce n’est pas l’idéal : vous imagineriez-vous rédiger le diaporama du rapport annuel de votre société sur un EeePC ? Bon de toute façon la définition de Wikipedia est formelle : “frappe ou rectification de texte épisodique, vérification et modification de tableaux de chiffres, graphiques ou présentations animées“.

Netbook + 3G = une condition nécessaire

Pour le moment la plupart des netbooks sont vendus “nus” ou au mieux avec une clé de connexion 3G. Tout comme cela a été le cas pour l’iPhone, la valeur ajoutée des netbooks sera d’autant plus grande s’ils sont connectés en permanence et de préférence sans limite de débit. À partir du moment où seront généralisées les packs netbooks + abonnement, les usages commenceront à évoluer pour s’adapter aux caractéristiques de ces machines (très faible encombrement, bonne autonomie…).

Le collaborateur nomade (ou l’utilisateur lambda) trouvera alors dans les netbooks un outils formidable pour garantir l’intégrité de sa vie numérique et donc par rebond de sa vie numérique sociale. Et c’est très certainement cette dernière qui risque de pousser l’adoption. Imaginez un petit appareil qui tient dans votre sacoche (pas la peine de se trimballer ces immondes sacs noirs en nylon renforcé) ou votre sac à main et qui vous permet d’être connecté en permanence à vos messageries (emails ou instantanée), à Facebook, Skype, Deezer, FlickR, YouTube, Netvibes, Twitter… que vous pourriez emmener en week-end, en vacances…

Suis-je en train d’affabuler ? De décrire un comportement d’hyper-geek parisien ? Pas si sûr : souvenez-vous au tout début de la téléphonie mobile ou des Blackberry, nous étions loin de nous douter des bouleversements et de l’addiction qu’ils allaient engendrer. Je suis plus que convaincu qu’il en sera de même pour les netbooks, nous les retrouverons partout car ils vont bénéficier de deux phénomènes : l’informatique low cost (initiée il y a quelques années avec le PC à 100$) et les plateformes sociales mobiles / locales (prolongement naturel des réseaux sociaux).

Votre sésame pour le SaaS et le cloud computing

Même si elles gagnent petit à petit en popularité, les applications en ligne sont encore largement minoritaires par rapport aux applications traditionnelles (installées sur votre disque dur). Par contre, à partir du moment où les netbooks vont commencer à être massivement déployés (en entreprise comme chez les particuliers), les rapports de force ne sont plus les même car ces machines donnent aux applications en ligne un formidable appel d’air (la connexion permanente résolvant le problème de disponibilité) et pénalisent les applications plus lourdes (qui réclament plus de puissance). Il y a donc fort à parier que la croissance du marché des SaaS sera liée à celle des netbooks.

Et ceci est encore plus vrai avec le cloud computing : à partir du moment où vous devez jongler entre plusieurs ordinateurs / périphériques, la meilleure façon de gérer la synchronisation des données est encore de ne pas les stocker sur vos disques durs. C’est là où les services et applications reposant sur le principe du data on the cloud prennent toute leur importance. Peut-être pas pour vos photos de vacances, mais pour vos emails ou vos documents de travail (à travers des espaces de travail collaboratifs).

En poussant ce raisonnement un peu plus loin, on se dit que les netbooks pourraient également être les meilleurs ambassadeurs de l’Entreprise 2.0 et sa myriade d’outils décentralisés (blogs internes, wikis…). Autant il est très compliqué de “nomadiser” l’ensemble des collaborateurs d’une équipe ou d’une structure (tout le monde ne peut pas travailler sur un ordinateur portable), autant il serait bien plus simple d’équiper ceux qui le demandent / requièrent avec un netbook. Surtout les machines propulsées par Linux : un OS économique, léger, facile à paramétrer / gérer (pour les administrateurs) et à l’abri des virus et autres cochonneries qui traînent sur la toile.

À la recherche de l’OS parfait

Nous en venons maintenant à parler du grand inconnu de ce tableau : le système d’exploitation. Autant il est hasardeux de vouloir faire tourner Windows (ou Mac OS) sur ces machines pour les raisons évoquées plus haut (puissance…), autant les premières versions des distributions Linux livrées avec les machines ne sont pas très convaincantes. Même si les choses évoluent et que l’on commence à voir arriver des distributions spécialement adaptées aux netbooks (comme la Ubuntu Netbook Remix), les choses n’avancent pas aussi vite qu’elles le devraient compte-tenu des enjeux.

L'écran
L'écran d'accueil d'Ubuntu Netbook Remix

Car avec des millions de machines déjà en circulation et toutes celles qui seront vendues dans les prochaines années, ce sont des dizaines de millions d’utilisateurs qui pourraient être autant d’abonnés à des services à valeur ajoutée : stockage et synchronisation, alertes… Regardez ce que fait Apple avec son MobileMe et vous pourrez en déduire les innombrables possibilités de services associables à ces netbooks connectés en permanence.

L’idée serait de proposer un ensemble de services directement au niveau du système d’exploitation. Des services qui seraient personnalisables en fonction des besoins de chacun. Quelque chose à mi-chemin entre les systèmes de widgets actuels et Netvibes. Vous le voyez venir ? Tant mieux, ça veut dire qu’il y en a qui suivent ;-) Cette idée n’est pas neuve car il y a déjà du monde sur le créneau : Jolicloud, dont Tariq Krim est à l’origine (le fondateur de Netvibes).

Imaginez un système d’exploitation beaucoup plus convivial et simple d’utilisation. Un bureau personnalisable où vous auriez un accès direct à un ensemble d’informations et de services (emails, flux RSS, Tweets, alertes Facebook…), des raccourcis vers vos documents et fichiers partagés. Ce bureau présenterait une forte valeur pour les éditeurs de services et intermédiaires marchands qui pourraient subventionner une partie du prix de la machine pour avoir l’opportunité d’être présents par défaut (comme les fournisseurs d’accès à internet il y a quelques années).

Un scénario réaliste car la bataille se gagnera bien au niveau du système d’exploitation maintenant que les utilisateurs disposent de plusieurs browsers alternatifs. La finalité ne serait pas de proposer le plus de fonctionnalités gratuites possibles mais plutôt de mettre en avant un ensemble de services à valeur ajoutée qui seraient facturés sous forme d’abonnement. Partant du principe que les constructeurs ne se risqueraient pas en dehors de leur métier d’origine (hardware et un peu de software), il y a donc de la place pour un éditeur d’OS dédiés aux netbooks.

L’idéal pour cet éditeur serait de pouvoir se réserver un canal de communication direct avec les utilisateurs, un mécanisme de push qui pourrait être monétisé avec des éditeurs de contenus ou des services locaux. Mais ce modèle n’est pas tout à fait nouveau, il existe déjà pour la téléphonie mobile sous la forme des portails officiels (du type i-mode & cie). Nous pourrions même envisager un système de micro-paiement associé à l’abonnement. Oui les possibilités sont nombreuses et tout reste à inventer / recycler.

Une configuration idéale pour les enfants

Pour vous convaincre de la viabilité de ce dispositif, imaginez ce que cela pourrait donner avec le “marché” des enfants. Normalement vous êtes comme moi : hyper stressé à l’idée que votre progéniture brutalise votre outil de travail sous prétexte que Lapin Malin a du mal à comprendre ce qu’il/elle essaye de lui faire faire. Comment faire alors pour faire découvrir l’informatique aux plus jeunes ? Les netbooks bien sûr : pas trop chers, pas trop encombrants, avec un clavier adapté à leurs petites mains et une puissance largement suffisante pour faire tourner quelques logiciels ludo-éducatifs.

Et c’est là où ça devient intéressant, plutôt que de continuer à vendre des DVD au travers de canaux de distribution toujours plus gourmands, les éditeurs de ces logiciels pourraient envisager différentes options :

  • Continuer à vendre du logiciel, mais avec un format adapté : les cartes mémoires (dignes successeurs des cartouches de jeux) qui pourraient être expédiées gratuitement par la poste (car très faible encombrement).
  • Basculer sur un mode abonnement où l’enfant recevrait régulièrement des mises à jour en fonction de ses progrès ou des saisons. Ces mises à jour pourraient être téléchargées sur le web par les parents ou bien se faire de façon silencieuse dans un environnement sécurisé comme celles proposées par Kidzui.
  • Subventionner une machine « habillée » aux couleurs des mascottes de la marque (Adibou, Lapin Malin…) et la commercialiser avec un abonnement.

Comme vous pouvez le constater il existe de nombreux scénarios tout à fait viables et surtout bien mieux adaptés aux problématiques actuellement rencontrées par les éditeurs (piratage, vampirisation des marges par les distributeurs…).

Google, l’acteur de l’ombre qui pourrait bien s’imposer

Et Google dans tout ça ? Depuis le début de l’article je n’ai pas abordé le sujet mais Google pourrait jouer un rôle très important dans l’écosystème des netbooks :

Bref, Google pourrait bien être l’acteur de l’ombre qui pour le moment se fait très discret avant de passer à une phase beaucoup plus offensive. Meilleur scénario : une offre intégrée comprenant une machine propulsée par un Google OS associée à une offre d’abonnement double Wifi + 3G sur le réseau Google (encore à monter / racheter).

Bien sûr il y a d’autres acteurs en course (Microsoft, Yahoo!…) mais Google me semble être celui qui pourrait le plus rapidement s’imposer sur ce créneau.

Conclusion

Je pourrais parler de ce sujet pendant des heures tellement le potentiel est gigantesque. Encore une fois, la vraie valeur ajoutée des netbooks repose plus sur les nouveaux usages que sur la transposition d’usages existants (bureautique traditionnelle en situation de mobilité). Tout reste à faire dans ce marché encore embryonnaire où les efforts sont pour le moment essentiellement concentrés sur le hardware (terrible course à l’innovation sur les processeurs, les disques SSD, l’autonomie…) lorsque les plus belles marges pourraient être réalisées sur du service.

LeWeb’08, un concentré de médias sociaux à Paris

Paris est à l’honneur les 9 et 10 décembre prochains avec la cinquième édition des conférences LeWeb de notre Loïc Lemeur (inter)national : LeWeb’08.

Le thème de cette année est l’amour (“Love” comme disent les américains) mais ne vous y trompez pas, il s’agit plus de l’amour de son prochain (ou de soi-même) car il y sera question du web social. Les médias sociaux seront donc à l’honneur cette année avec un programme tout à fait intéressant et des intervenants prestigieux : LeWeb’08 Program.

Même si le programme ne vous motive pas, cette conférence est assurément un évènement incontournable pour le networking. Outre les stars de la blogosphère US, vous pourrez ainsi y croiser des stars du web francophone et européen grâce au programme réservé aux blogueurs officiels (dont votre serviteur fait partie). J’espère donc y retrouvez de vieilles connaissances comme les amis Claude et Bertrand ainsi que des personnes de talent que je ne croise pas assez comme Frédéric et Cédric (et la liste est longue).

Et même si ni le programme ni les personnes que vous pouvez croiser dans les couloirs ne vous intéressent, alors il vous reste toujours la Start-up Competition dont la liste vient d’être dévoilée : LeWeb’08 Startup Competition: Companies Selected and Judges Announced.

Je reteindrais de cette liste quelques concepts très prometteurs :

  • Des social software orientés “Entreprise 2.0” comme KonoLive et Producteev ;
  • Des services plus orientés “médias” comme Radionomy ou Kaltura ;
  • Des services tournés vers le microblogging et le micro-partage comme ShoutEm et Zipipop).

Bien évidement cette liste n’est pas exhaustive car la plupart des services en compétition sont en beta ou en langue étrangère que je ne comprends pas.

Voilà, j’espère bien croiser certains d’entrevous là-bas. En tout cas il faut que l’on s’organise…

Les gagnants du TechCrunch50 sont là !

La grande messe annuelle des start-ups (TechCrunch50) vient de s’achever sur une remise de prix particulièrement intéressante. 52 start-ups ont ainsi été présentées au jury qui vient de publier la liste des lauréats : Yammer Takes Top Prize At TechCrunch50.

En fait c’est plus l’innovation que la viabilité qui est ici récompensée et lorsque l’on regarde de près la description de ces start-ups, c’est un festival de buzzword :

  • Yammer, du Corporate Microblogging en mode SaaS ;
  • Atmosphir, une plateforme de User Generated Games ;
  • FitBit, un Personal Wealth Tracker Device ;
  • GoogGuide, du Citizen Social Shopping ;
  • Grockit, un Massively Collaborative Serious Learning Game ;
  • Swype, un Predictive Gesture Recognition Software for Touch Interface.

Gloups, ça vous la coupe, hein ?

Comme je suis en forme, je veux bien me prêter au jeu des prédictions avec ici quelques services que je sens bien monter en puissance d’ici la prochaine édition :

  • Dans la mouvance Green IT, des Crowdfunded Citizen Low Emitions Softwares (des applications en ligne financées par les collaborateurs qui seraient optimisées en terme de consommation de temps de calcul et de bande passante pour limiter l’empreinte carbone ;
  • Dans la mouvance WebOS et serious games, des Enterprise-level Positive Learning Collaborators Generated Open Environment Marketplace (une place de marché BtoB spécialisée dans les plates-formes de génération de programme de e-learning orientés bien-être – un concept qui plait aux générations Y et Z) ;
  • Dans la mouvance convergence réalité/virtualité, des Transreality Online Corporate Workplaces (des espaces de travail collaboratif en ligne reposant sur le principe de la réalité augmentée – ou de la virtualité diminuée – spécialement optimisés pour les problématiques des grands compte) ;
  • Dans la mouvance Social Shopping et développement durable, des Crowsourced Social Actions Brandstream (des aggrégateurs d’initiatives éco-responsables réalisées bénévolement par des fans pour le compte de grandes marques).

Pas mal, non ?

Bon, au-délà des buzzwords, force est de constater que les idées sont là et que l’innovation tourne à plein régime. Petit bémol pour Yammer qui se contente de légèrement modifier le modèle économique de Twitter tout en reproduisant quasiment à l’identique le design des pages. Même si l’idée est géniale, cette contrefaçon manifeste en agace plus d’un (cf. Was TechCrunch50 rigged? et Yammer is TC50 Winner – This is a Joke? Right?).

Et comme je suis un indécrottable chauvin, j’en profite pour vous lister les start-ups françaises participantes : Fotonauts, FairSoftware, Producteev, Cardsoff et MyBooo (cf. TechCrunch50 et les français).