7 ans de blog et bientôt une dixième version

Déjà 7 ans de blog… c’est fou comme le temps passe vite, et surtout comme l’écriture peut rapidement s’installer dans un quotidien professionnel. En 7 ans j’aurais publié près de 3.000 billets sur mes 7 blogs. Même si la cadence n’est plus la même qu’à la « grande époque », j’ai toujours une motivation intacte. En fait le ralentissement dans ma production s’explique par le fait que je n’ai plus envie d’écrire de la même façon.

Voilà bien longtemps que j’ai abandonné la chasse au scoop et la course au référencement, mon rythme de production s’est ainsi stabilisé à 1 analyse par semaine sur ce blog et 2 ou 3 billets par mois sur les autres blogs. C’est peu, mais c’est aussi largement suffisant pour le temps que je peux y consacrer (car j’ai aussi une famille et un travail) et surtout pour ce que j’ai à dire.

De toute façon il n’en faut pas plus pour fidéliser un lectorat. Autant sur les  cinq premières années j’étais en phase de conquête, autant depuis ces deux dernières années j’en suis plus à de la fidélisation. Mais « fidéliser » ne veut pas forcément dire « stabiliser », ça veut surtout dire se concentrer sur le coeur de son audience, quitte à perdre quelques lecteurs « périphériques ». En 2 ans 1/2 j’ai ainsi perdu près de la moitié de mon audience (visiteurs sur le site et abonnés au flux RSS) :

Stats_FCnet

Perdre la moitié de mon audience était le prix à payer pour avoir des conversations de qualité. J’ai ainsi constaté une très nette amélioration dans les commentaires : Non seulement il n’y a plus de trolls et autres déchets, mais en plus il y a une véritable intelligence dans les échanges que je peux avoir avec mes commentateurs (et aussi entre eux). Bref, je ne regrette en rien les changements effectués dans ma ligne éditoriale et mon rythme de publication. Je pense appliquer la même méthode avec mes 6 autres blogs dont la croissance est soutenue et dont certains vont bientôt rivaliser avec le blog principal.

Côté exposition médiatique, on me fiche également la paix : Je continue à être sollicité par des agences mais la tendance est la baisse (ça ne m’empêche pas de toujours avoir un petit frisson quand je reçois un colis de chez Buzzman, surtout depuis cette histoire de pied de porc). Par contre je continue à être inondé de demandes d’interviews de la part d’étudiants et c’est pire chaque année !

Donc je suis bien parti pour continuer ainsi jusqu’à mon dixième anniversaire (et même plus). La prochaine étape pour moi sera une remise à niveau technique (passage à WordPress 3) et une refonte graphique pour l’ensemble des blogs. Tout ceci devrait normalement arriver dans le courant du mois de juillet.

MIX 2010 – Jour 0

Et c’est parti pour 3 jours de conférence à Las Vegas à l’occasion du MIX, la grande messe annuelle de Microsoft. La conférence ne commence officiellement que demain mais nous avons droit à une première journée de pre-sessions en ce dimanche ensoleillé.

Une fois passé l’étape de récupération du badge et des goodies (les habituelles gourdes et stylos) nous nous retrouvons dans un centre de conférence bien agréable, surtout la partie lounge avec vue sur la plage artificielle du Mandalay Bay (le type sur la photo voudrais bien y aller mais sortir à l’air libre semble lui faire un peu peur…).

L'espace lounge de la conférence avec vue sur le dehors
L'espace lounge de la conférence avec vue sur le dehors

Pas le temps de se détendre car les premières sessions démarrent déjà.

HTML 5 Now !

La grande attraction de la journée est le workshop géant de Molly Holzschlag, la grande prêtresse du HTML et des standards web qui travaille chez Opera.

Molly sur la scène du MIX 2010
Molly Holzschlag pieds nus !

La matinée est consacrée à une question existentielle : Pourquoi HTML 5 ? (ou du moins comment en sommes-nous arrivé là) :

  • Le web repose sur la notion d’interopérabilité mais comme le HTML a stagné trop longtemps (10 ans depuis HTML 4.01), cette interopérabilité est menacée par les nombreuses initiatives des navigateurs ;
  • Les spécifications du W3C ne sont « que » des recommandations qui sont interprétées et plus ou moins implantées par les éditeurs de navigateur ;
  • Parfois des innovations isolées sont spécifiées ultérieurement par le W3C (ex. : XMLhttpRequest lancé par IE, Border-radius lancé par Firefox – il me semble) ;
  • Les spécifications d’HTML 5 sont plus longues à rédiger car beaucoup plus précises que pour les autres technologies du W3C afin d’éviter toute interprétation par les éditeurs (et notamment la gestion des erreurs) ;
  • HTML 5 est déjà (partiellement) supporté par l’ensemble des navigateurs ;
  • La majeure partie des sites (et des pages web) se font imposer la version d’HTML par l’outil de gestion de contenu qui définit de façon arbitraire le Doctype ;
  • XHTML 2 était trop rigoureux et ne voulait pas gérer les erreurs ni la rétro-compatibilité, les travaux de spécifications ont donc été stoppés car les standards sont supposés reposer sur la notion de compatibilité (même rétro) ;
  • Petite précision : Rétro-compatibilité = Vous avez le contenu sans le design, Dégradation élégante = Vous avez le contenu et la majeure partie du design ;
  • Tous les grands acteurs du web contribuent au groupe de travail sur HTML 5 (rappelons qu’il y a 2 jeux de spécifications : Celles qui sont en cours de rédaction par le WHAT-WG et celles approuvées par le W3C ;
  • Internet Explorer évolue beaucoup plus lentement que les autres navigateurs car ils doivent gérer un héritage très contraignant ;
  • IE est problématique même dans sa dernière version car si le Doctype n’est pas spécifié explicitement c’est le moteur de rendu de IE 5.5 qui est utilisé (gloups !) ;
  • HTML 5 a pour objectif de proposer la meilleure expérience d’utilisation possible pour le web, cette version est tournée vers l’avenir mais doit se plier à une contrainte de rétro-compatibilité (« evolution not revolution« ) ;
  • HTML 5 est une réponse à l’enrichissement du web et aux besoins croissants relatifs aux applications en ligne ;
  • Elle insiste sur le fait que HTML 5 priorise avant tout les besoins des utilisateurs et des auteurs par rapport à ceux des éditeurs de navigateur ;
  • HTML 5 introduit une séparation stricte du contenu, de la structure et de la sémantique, cette version prépare ainsi la transition vers le web multi-plateforme (et les terminaux mobiles) ;
  • L’accessibilité est un sujet toujours d’actualité, surtout au travers des problématiques de référencement naturel.

Une intervention surprenante car plus tournée autour des enjeux « politiques » de HTML 5 que d’une explication des balises. Molly a terminé sur un point de vue surprenant : HTML 5 est plus une philosophie qu’un langage et représente une avancée majeure dans le mode de fonctionnement du W3C et ses rapports avec le marché et les éditeurs.

Vegas Baby !

L’après-midi a été consacrée à des activités beaucoup plus triviale avec un virée sur le strip et notamment le City Center, un tout nouveau complexe hôtelier à près de 11 milliards de $ qui est tellement nouveau que quasiment rien n’est terminé ! Du coup nous nous sommes rabattu sur le Bellagio et sa flamboyante galerie marchande de luxe.

Le Bellagio et sa reproduction du lac de Côme
Le Bellagio et sa reproduction du lac de Côme

La soirée a été tout aussi agréable avec une sortie groupée pour les journalistes / blogueur dans un resto japonais avec table chauffante et crevettes qui volent dans tous les sens :

Le cuisto-cascadeur du restaurant japonais
Le cuisto-cascadeur du restaurant japonais

C’est demain que les choses sérieuses vont commencer avec la keynote d’ouverture. À suivre…

À la recherche de nouveaux formats hybrides pour les touchbooks

Alors que la date de sortie officielle de l’iPad a été annoncée au 3 avril prochain et que de sérieux concurrents commencent à pointer le bout de leur nez (HP Slate, Dell Streak…), nous sommes toujours dans l’expectative pour savoir quel type de contenu va faire mouche sur les touchbooks. Après avoir tourné le problème dans ma tête de nombreuses fois, j’en viens à la conclusion que les contenus réellement adaptés aux touchbooks ne sont pas encore là, mais que nous n’en sommes pas très loin. Plusieurs expérimentations me laissent en effet penser que la solution se trouve dans un format hybride à mi-chemin entre web-documentaire, livre / BD enrichis et jeux narratifs. Encore faudra-t-il résoudre le casse-tête du format et de la distribution, mais nous reviendrons là-dessus plus tard.

J’ai déjà eu l’occasion de vous parler des web-documentaires, ces documentaires morcelés en chapitres librement accessibles mélangeant du texte, des photos, de la vidéo… Après en avoir consulter plus d’un, force est de constater que l’on n’est pas très bien installé sr une chaise en face de son écran. Par contre, visionné sur un touchbook dans votre canapé favori, l’expérience est autrement plus intéressante. Imaginez ainsi ce que pourrait donner un contenu comme Afrique : 50 ans d’indépendance

Afrique

Le niveau d’interactivité est parfaitement adapté à ce que l’on peut faire sans trop d’effort sur un écran tactile : Choisir un chapitre, cliquer pour lire un texte complémentaire, laisser un commentaire…

Il y a ensuite le cas des bandes dessinées qui pourraient tout à fait être adaptées sur les touchbooks. Nous avons déjà des start-up qui se positionnent sur le créneau comme Graphic.ly ou Panelfly mais je ne suis pas certain qu’ils prennent la bonne direction. Je suis ainsi bine plus conquis par ce que propose les Humanoïdes associés avec le portage sur Megalex sur iPhone.

MEGALEX

Au final nous nous retrouvons avec une vidéo, mais l’expérience est tout à fait convaincante : Le fait de remplacer les bulles par des bruitages et voix d’acteurs ainsi que les effet de traveling sur les cases procurent un sentiment d’immersion tout à fait saisissant.

C’est d’ailleurs rigoureusement le même procédé qui est utilisé pour N, la BD vidéo de Stephen King :

N-StephenKing

C’est bien une vidéo « toute bête » qui est utilisée, mais avec un peu d’imagination on se dit que ça ne devrait pas être très compliqué de faire ça en Flash qui à la base est fiat pour ça (de l’animation vectorielle). Du Flash sur l’iPad ? Mais oui bien sûr puisqu’il existe maintenant la possibilité de compiler un contenu Flash pour en faire une application iPhone, le recours à Flash ne semble plus être un problème.

Nous pourrions même envisager des choses encore plus poussées avec la possibilité d’interagir avec le contenu comme nous le présente l’éditeur Penguin sur cette vidéo (cf. How Penguin Will Reinvent Books With iPad) :

L’idée est de transformer le lecteur en… lecteur actif ? Acteur ? Gribouilleur ? Je ne sais pas trop quel terme utilisé mais nous sommes bien dans un cas de figure unique où les enfants peuvent interagir directement sur le contenu (c’est d’ailleurs tout l’intérêt de ce type d’ouvrage) :

Penguin-iPad

Nous quittons ici le domaine de l’édition pour rentrer sur le territoire des jeux. Et ça tombe bien car l’actualité nous fournit un très bon exemple avec Heavy Rain, un jeu vidéo narratif développé par un studio français (cocorico !) :

HeavyRain

Ici il n’est pas tant question d’action ou de dextérité à la manette mais plutôt de suivre une histoire conditionnée par vos choix (qui jalonnent la narration) et agrémenter parfois de Quick Time Events pour maintenir votre attention. Pour le moment ce titre n’est disponible que pour la PS3, un monstre de puissance, mais n’oublions pas que l’iPad (out comme l’iPhone) a des composants techniques suffisamment puissant pour faire tourner de la 3D dans de très bonnes conditions sans avoir besoin de sortir un rendu Full-HD.

J’imagine tout à fait ce type de titre envahir les touchbooks car parfaitement adaptés au contrat d’interaction que proposent les tablettes tactiles : Visionnage en plein écran et quelques clics de temps à autre. Il en va de même pour les jeux de stratégie ou de plateau qui font fureur sur l’iPhone (de type Tower Defense) qui pourraient trouver dans l’iPad un second souffle pour des projets plus ambitieux : Ngmoco hopes to rule with new mobile games.

Tout ceci est très encourageant et la solution semble donc bien se trouver dans de nouveaux formats hybrides. Mais il reste à régler deux problèmes : Tout d’abord le circuit de distribution qui est plutôt rigide chez Apple (euphémisme) et qui ne favorise pas forcément les petits éditeurs (cf. Is Content King? Then Distribution Is Crown Prince). Ensuite le format car s’il semble y avoir consensus pour les ebooks avec le format ePub (cf. Web Standards for E-books), pour les touchbooks ça va être beaucoup plus compliqué car les contenus sont loin d’être figés. Et c’est d’ailleurs tout l’intérêt de ces machines : Pouvoir proposer un éventail beaucoup plus riche de possibilités en mélangeant des images, du son, de la vidéo, du texte, des animations…

Flash a su s’imposer comme standard de facto pour les contenus rich media du web, en sera-t-il de même pour les contenus des touchbooks ? Difficile à dire pour le moment dans la mesure où le marché a toutes les chances d’être très largement dominé par l’iPad et que les rapports sont très tendus entre Adobe et Apple. Je ne vois pas bien comment la situation pourrait se débloquer dans les prochaines semaines… si ce n’est avec le rachat d’Adobe par Apple. L’idée vous semble farfelue ? Réfléchissez-y à deux fois, et pour vous aider, je vous propose cette lecture : 7 Reasons For Apple To Acquire Adobe et Why Apple Should Buy Adobe.

Je suis persuadé que l’arrivée effective de l’iPad sur le marché va faire se précipiter les choses. Plus que quelques jours à attendre…

Mes 3 sites coup de coeur (mars 2010)

Ce mois-ci j’ai encore une belle moisson de jolis sites, je me demande même si je ne vais pas passer à 5 sites coup de coeur…

Commençons avec le très mignon Cubicl, une application de collaboration en ligne pro/perso :

Cubicl

Une palette de couleur très harmonieuse, une approche graphique tout en rondeur, des intitulés accrocheurs et des textes courts et percutants. Rien à redire, cette page véhicule du sérieux et de la maitrise.

Restons dans le minimalisme avec Tapbots, un éditeur d’applications pour iPhone :

Tapbots

L’approche graphique est ici similaire au précédent site avec un style très cartoon mais il y a une volonté afficher d’en dire le moins possible, et ça marche ! Les descriptions des applications sont minimalistes (même pas de captures d’écran) mais cette page d’accueil donne sacrément envie de cliquer. La grille de lecture permet à l’oeil de bien circuler entre les blocs, les contrastes sont excellents et les illustrations rythment bien la page dans sa verticalité (ha mince, je me met à parler comme un sémioticien, c’est grâce docteur ?).

Terminons avec un troisième site en rupture complète, le portfolio de Simon Collison :

SimonCollison

La page d’accueil de ce site est un véritable électrochoc avec une touche graphique rétro dans la plus pure tradition des manuels de taxinomie. Chaque bloc correspond à une rubrique. Je ne peux qu’applaudir l’engagement de ce design et le travail réalisé pour respecter les codes graphiques de la taxonomie (fond de page, typographie, illustrations…). Facile de se démarquer avec un site comme celui-là !

La suite le mois prochain…

Qualcomm à l’assaut des smartbooks et de la convergence mobile

J’ai eu ce matin une discussion très intéressante avec Jean Viraldi et Fabien Darrigues de chez Qualcomm (merci à Cédric pour avoir organisé la rencontre). Pour vous la faire courte, Qualcomm est spécialisée dans la conception et la fabrication de solutions de télécommunication mobile (ils sont entre autre inventeur de la norme CDMA et représente 1/3 des parts de marché des puces qui équipent les terminaux mobiles). Ils sont donc tout à fait légitime pour imaginer et concevoir les outils de communication de demain, et ça tombe car ce sujet me passionne en ce moment (cf. 2010 sera-t-elle l’année de l’informatique nomade et polymorphe ?).

La fin de l’ère x86 et le basculement vers l’informatique nomade / mobile

Intel a régné sans partage sur le monde des ordinateurs ces 30 dernières années grâce à l’architecture x86 (sur laquelle repose les familles de processeurs Intel mais aussi Cyrix, AMD, VIA…). Aujourd’hui les conditions de marché sont différentes dans la mesure où il y a bien plus de terminaux mobiles que d’ordinateurs. Les smartphones se sont ainsi imposés comme les ordinateurs de poche de notre quotidien, il s’en vend bien plus que d’ordinateurs (plus d’1,2 milliards de téléphones vendus en 2009). De même, les netbooks ont montrés les limites de l’architecture x86 en terme d’autonomie et de performances. Entendons-nous bien : Nous ne parlons pas de performance pure (un indicateur du siècle dernier) mais du ratio entre puissance et consommation. Et à ce petit jeu là, les architectures ARM sont imbattables car elles ont été conçues dans cette optique.

L’année 2010 (et dans une certaine mesure l’année 2009) sera donc la charnière entre l’ère des PC (Personnal Computer = architecture x86) et l’ère des terminaux mobiles (architecture ARM). Nous ne parlons pas ici d’un remplacement mais plutôt de l’inversement de l’échelle des valeurs : Les plus gros enjeux et les plus belles opportunités sont à chercher du côté des terminaux mobiles plutôt que du côté des ordinateurs où les marges sont plus faibles et où les modèles économiques s’épuisent.

À partir de là, la bataille ne va pas se dérouler autour des smartphones (car l’offre arrive à saturation) mais plutôt autour de nouveaux formats de terminaux dont vont découler de nouveaux services et usages : Smartbooks, touchbooks, webbooks, Personal Mobile Television, Personal Internet Viewer… les possibilités sont innombrables et nous n’en sommes qu’au début de l’informatique mobile, nomade et résidentielle.

xbook

Smartphone + Netbook = Smartbook

J’ai déjà eu l’occasion de vous parler des smartbooks, cette nouvelle génération de terminaux mobiles qui vont venir s’intercaler entre les smartphones et les netbooks. Après en avoir discuté avec différents interlocuteurs, j’ai maintenant la conviction qu’ils appartiennent définitivement à la grande famille des terminaux mobiles et qu’ils vont ainsi bénéficier de l’héritage culturel des téléphones (par opposition à l’héritage culturel des ordinateurs et leur fascination pour la puissance « brute »). Les premiers concepts de smartbooks faisaient apparaitre des terminaux hybrides dont on ne savait pas trop à quelle famille ils étaient rattachés :

qualcomm-smartbooks

Maintenant que nous avons un premier terminal « viable » qui va être très prochainement lancé sur la marché (le AirLife de HP-Compaq), les contours de ce segment semblent encore plus ambigus avec un aspect très proche des netbooks mais des détails rappelant fortement les smartphones (système d’exploitation Android, écran tactile, boutons « Home » et « Menu » sous le pavé tactile…) :

compaq-airlife

Toujours est-il que même si la différence avec les netbooks est subtile, elle est pourtant bien réelle : Les netbooks sont des terminaux nomades alors que les smartbooks sont des terminaux mobiles. Il y a ainsi deux différences majeures dans les usages :

  • Les terminaux nomades sont connectés de façon ponctuelle (on les allument pour s’en servir) alors que les terminaux mobiles sont allumés toute la journée et même la nuit (ils restent en veille et on les recharge une fois par jour) ;
  • Les terminaux nomades utilisent des technologies de communication pull (WiFi) alors que les terminaux mobiles utilisent des technologies de communication push (SMS, alertes…).

Ces deux différences font que l’on peut classer les terminaux dans une catégorie ou l’autre. Les smartbooks sont donc de gros smartphones et non des netbooks connectés. Qualcomm a monté une business unit dédiée à l’évangélisation des smartbooks et je compte bien suivre ça de très près car ils préfigurent l’avenir de l’internet mobile et certains analystes sont déjà très optimistes : 163 Million Smartbooks Expected to Ship in 2015.

Vers la 4G et après ?

Comment parler de terminaux mobiles sans aborder les normes ? Le Mobile World Congress de Barcelone a été l’occasion de dévoiler au grand public la roadmap vers la téléphonie mobile de quatrième génération, celle qui va autoriser des débits supérieurs à 50 Mbits/s. La norme LTE (Long Term Evolution) semble donc être bien partie pour assurer la transition entre L’HSDPA et… une version plus aboutie baptisée provisoirement LTE Advanced.

Vous seriez en droit de me dire que la course au haut débit en situation de mobilité n’est pas une finalité (après tout l’important c’est la ratio entre débit et consommation) mais la proposition de valeur de la norme LTE est de proposée une consommation inférieure pour des débits équivalents à la 3G ou la 3,5G. Une aubaine pour les smartbooks et autres terminaux mobiles cherchant à maximiser leur autonomie.

Outre les usages data où le débit n’est jamais assez élevé (LTE sera la norme de référence pour les modems-clés USB en 2011), la vidéo semble être un bon prétexte pour cette course à la bande passante. Que neni, car les réseaux de télécommunication ne supporteront jamais une montée en charge à grande échelle. Pour de la vidéo en situation de mobilité dans des conditions viables, il faudra plutôt chercher du côté de normes broadcast comme DVB-H plutôt que de rêver à une hypothétique solution viable d’unicast. Pour le moment le déploiement semble au point mort en France, mais les États-Unis semblent avoir prit une longueur d’avance avec des services déjà opérationnels comme le Flo-TV de Qualcomm.

flo_tv

Attendez-vous à voir débarquer des smartphones compatibles dès l’année 2010…

Deux autres gros segments à adresser : Feature phones et eBooks

En plus des smartphones, smartbooks et Personal Mobile Television, Qualcomm s’intéresse également à deux autres segments très porteurs : Les feature phones et les ebooks. Pour votre information (j’ai découvert ça la semaine dernière), « feature phone » est le nouveau terme à la mode pour désigner les smartphones low-cost (moins de 100 $). On n’en parle pas beaucoup dans les médias, mais les feature phones représentent les 3/4 des parts de marché. Un segment moins sexy que celui des smartphones mais avec une intensité concurrentielle bien inférieure car l’écosystème est encore atomisé.

Pour bien comprendre les conditions de marché, il faut s’intéresser aux systèmes d’exploitation : Là om l’on compte pas moins de 6 acteurs pour les smartphones (Google / Android, Apple et iPhone, RIM / BlackBerry, Nokia / Symbian, Palm, Microsoft / Windows Mobile,  Samsung / Bada) et il s’en créé encore (à l’image de MeeGo). Pour les feature phones la situation est différente puisque les OS varient d’un combiné à l’autre et qu’il n’y a pas réellement d’offre uniformisée. Qualcomm s’est donc lancé sur ce créneau avec Brew Mobile Platform, l’évolution de son système d’exploitation « maison ». Une solution particulièrement compétitive car adaptée aux « faibles » capacités hardware des feature phones qui ne peuvent s’offrir des composants trop onéreux.

Faible coût ne rime pas forcément avec compromis sur la qualité de l’interface puisque la Brew MP est capable de faire tourner Flash Lite mais également Adobe Mobile Client pour les Rich Mobile Applications. Le tout récent HTC Smart est ainsi propulsé par Brew mais propose une interface très proche d’Android, on s’y tromperait !

HTC_Smart

La prochaine étape logique pour la Brew MP devrait être une application store centralisée.

Autre segment en pleine ébullition : les eBooks. Alors que la blogosphère n’en finit plus de prédire le déclin du Kindle (équipé d’un écran à encre électronique) face à l’iPad (équipé d’un écran à LED), Qualcomm s’apprête à rentrer dans la danse avec une technologie d’affichage intermédiaire baptisée Mirasol. Cette technologie repose sur des membranes réflectives combinée à un système de rétro-éclairage à basse consommation qui autorise un excellent contraste en plein soleil, une grande autonomie, un affichage en couleur avec un taux de rafraichissement suffisant pour faire de la vidéo.

qualcomm-mirasol

Pourquoi la vidéo est-elle importante dans le contexte des ebooks ? Tout simplement parce que vidéo = belles pubs = revenus suffisant pour financer des contenus de qualité. Là où  le Kindle sera enfermé dans sa niche de livres / journaux payants, les terminaux équipés d’écran à technologie Mirasol seront plus versatiles (magazines et BD digitalisés) et plus confortables que l’iPad. Lancement prévu en fin d’année.

2010, l’année de la convergence mobile ?

Smartphones, smartbooks, personal mobile television, feature phones, ebooks… Qualcomm est petit à petit en train de se positionner sur tous les segments à fort potentiel pour s’imposer comme l’outsider de référence par rapport à des acteurs sur-médiatisés (Google, Apple, Microsoft). En proposant une plateforme intégrée (la fameuse puce SnapDragon) Qualcomm se positionne à la croisée de nombreux usages :

  • Informatique (au travers de nombreuses applications disponibles sur des systèmes d’exploitation compatibles comme Android) ;
  • Internet (avec la connectivité permanente) ;
  • Multimédia (avec des composants dédié au codage / décodage audio et vidéo) ;
  • TV (avec le réseau MediaFlo) ;
  • Jeux (les capacités 3D des composants graphiques sont largement suffisantes pour ça) ;
  • Édition (grâce à sa technologie d’affichage)…

Tout ceci est très encourageant, et il ne manque plus qu’un domaine d’activité pour compléter ce tableau : La santé. Avec le vieillissement de la population et l’allongement de l’espérance de vie, ce sont des centaines des milliards de papy-boomers qui seront concernés par la nouvelle génération de terminaux à usage pseudo-médical :

  • Des téléphones simplifiés (avec de grosses touches) équipés d’une puce GPS et d’un bouton d’appel pour pouvoir facilement localisé et aider des personnes âgées en difficulté (subissant un malaise ou s’étant perdues car victime de la maladie d’Alzheimer) ;
  • Des visiophones simplifiés capables de faire du diagnostique à distance (comme le Health d’Intel) ou de retransmettre les constantes vitales de capteurs portées en permanence.

Outre les applications évidente pour les personnes du troisième âge, ce types de terminaux peut intéresser les pouvoirs publics qui y trouverait un avantage économique (cela coûte beaucoup moins cher de surveiller un patient à son domicile plutôt que dans une chambre d’hôpital). Ces terminaux seraient donc potentiellement subventionnés par la sécurité sociale dans le cadre de la médecine ambulatoire.

Plus que jamais je suis intimement convaincu que nous sommes à l’aube de gros changements dans notre façon d’appréhender les outils informatiques et de penser / concevoir les services qui accompagneront ces nouveaux usages.