Vers des comportements de recherche extrêmes ?

En à peine 10 ans Google est passé du statut de start-up dans un garage à celui d’ultra-leader incontesté de la recherche (il récolte tout de même près de 90% des parts de marché en France).

Nous ne discuterons pas ici des raisons de cette adoption massive et sans précédent mais plutôt des dérives comportementales que cela entraine. A commencer par une modification profonde des habitudes de recherche : les internautes font de plus en plus confiance à Google et à la pertinence légendaire de son moteur.

Illustration avec les résultats plutôt inquiétant de cette étude menée par Think Eyetracking : Has Google gotten better? (via GrokDotCom). Elle démontre un changement notable dans la façon dont les internautes cherchent et surtout parcourent la page de résultats :

search_behaviour

 

Hé oui, l’attention est maintenant fortement concentrée sur les trois premiers résultats (et non plus les 5 comme c’était le cas d’une précédente étude menée en 2005).

Que pouvons-nous en déduire ? Que les internautes apprennent à mieux se servir d’un moteur de recherche et qu’ils préfèrent affiner leur équation de recherche plutôt que de devoir fouiller dans la liste. Gloups ! Un changement plutôt inquiétant en si peu de temps (3 ans). Comment vont-ils se comporter en 2011 ? Ils ne regarderont pus que le premier résultat de la liste ?

Déjà que la compétition sur les mots-clés était rude, avec ce type d’étude les enchères risquent d’être encore plus acharnées !

En tout cas je me réjouis de cette étude car me permet de faire le lien avec une théorie que j’avais publié il y a plus de 2 ans sur les comportements de recherche extrêmes : Vers la règle du clic unique ?.

Adobe collabore avec Google et Yahoo! pour améliorer l’indexation de Flash

Aujourd’hui est un grand jour pour les professionnels du référencement, les flasheurs et toute la communauté web en générale. Adobe vient en effet d’annoncer une collaboration active avec les équipes de Google et de Yahoo! pour améliorer l’indexation des fichiers Flash : Finally, Flash Becomes Truly Searchable.

Petite explication préliminaire : Pour indexer le web Google utilise des robots (les googlebots) qui parcourent les pages d’un site une à une, en analysent le contenu et l’associent à des mots-clés au sein d’un gigantesque répertoire (la fameux index). Problème : Ces robots ne savent lire que le HTML. Ce qui veut dire que les contenus « riches » (vidéos, sons, animations Flash…) ne sont pas indexés. Rien de très grave puisque les référenceurs avaient trouvés des parades pour indexer correctement non pas les fichiers Flash mais les pages qui les contiennent. Hé oui, car une animation Flash ne se ballade jamais toute seule dans la toile, elle est forcément encapsulée dans une page HTML.

La grosse nouveauté du jour est que Adobe vient d’annoncer une collaboration officielle avec les équipes de Google et Yahoo! pour faciliter ce travail d’indexation. Concrètement, ils ont fourni à Google et Yahoo! un robot qui est capable d’analyser les fichiers Flash. Ou du moins qui est capable d’analyser certains contenus d’un fichier Flash : les textes et les liens (c’est déjà un très bon début).

Là où ça devient intéressant, c’est que le robot d’Adobe est également capable d’interagir avec votre ficher Flash. En d’autres termes, il peut cliquer sur les boutons et faire tout un tas d’opérations de base qui lui permette « d’explorer » l’application comme un utilisateur pourrait le faire.

C’est donc une excellente nouvelle puisque vous n’aurez pas à acheter la nouvelle version de telle ou telle logiciel ou à modifier tout un tas de paramètres. Traduction : ne faites rien, Google et Yahoo se chargent d’indexer vos fichiers Flash pour vous. (cf. How to Get Flash Site at the Top of Google). C’est sûr que cette annonce jette un sacré pavé dans la marre des référenceurs : Remember All Those SEO Tips You Read? They Are Wrong.

Même s’il manque encore beaucoup de travail pour pouvoir indexer de façon réellement efficace l’intégralité du contenu des fichiers Flash (images, vidéos…), cette nouvelle est très encourageante pour les concepteurs d’applications.

Pour les concepteurs d’applications ? Oui, pour les concepteurs d’interfaces en Flash qui ne font pas d’usage intensif d’image ou de vidéos. Ha mince, c’est un peu dommage, vous ne trouvez pas ?

Force est de constater qu’avec cette annonce ils passent visiblement à côté du gros du marché : Flash n’a d’intérêt que si l’on exploite ses capacités à gérer des animations vectorielles ou la vidéo (sinon il faut faire de l’HTML ou de l’Ajax). Dans la mesure où le fameux robot fournit par Adobe n’est pas en mesure d’indexer autre chose que du texte et des liens (cf. Improving Flash Indexing) il va donc passer à côté de toute la diversité et la richesse des contenus Flash (qui repose majoritairement sur les images, animations vectorielles et vidéos).

Alors bien évidement c’est une très bonne nouvelle pour les concepteurs d’applications en Flash / Flex (qui ne font pas un usage intensif des animations et vidéos en full HD), mais depuis quand une application a-t-elle besoin d’être indéxée ? Je parle de l’application en elle-même, pas du site qui l’héberge. Il n’y a pas réellement d’intérêt à référencer une interface applicative dans la mesure où elle est forcément associée à un site compagnon (qui lui s’indexe très bien).

Bref, même si nous somme en présence d’une annonce historique, je ne peux pas partager l’enthousiasme de tout ce beau monde dans la mesure où cette première étape ne va pas révolutionner le web et encore moins le marché du SEO : Flash May Now Bring More Search Traffic, Does it Matter?. C’est une étape nécessaire qui va très certainement déboucher sur des procédés et outils d’indexation plus sophistiqués, mais dans un premier temps c’est très limité.

Il reste de plus une grande question en suspend : quid de MSN et Live Search ? J’imagine difficilement Adobe livrer un tel outil à Microsoft qui est son concurrent le plus dangereux (au travers de technologies comme Silverlight ou WPF). Irons-nous donc vers une indexation limitée aux seuls partenaires d’Adobe ? Cette forme de discrimination ne fait pas l’unanimité (cf. Adobe Gets the Press But Does Search No Favors) et même au sein des équipes d’Adobe (cf. Search-ability in Flash).

Encore une fois tout ceci n’est pas si simple et le jeux des intérêts croisés fait que le chantier d’indexation des contenus riches est encore loin d’être bouclé.

Connaissez-vous la micro-pertinence de vos contenus ?

Dans le monde de l’internet contemporain (où Google règne en maître incontesté), l’indicateur de référence pour la pertinence d’un site est le Page Rank (PR pour les intimes), à savoir l’indice de pertinence utilisé par Google dans son processus d’indexation.

Jusqu’à présent, il existait des outils pour déterminer le PR d’un site (comme le MyGoogle PageRank) mais pas des pages en elles-même.

Je vous propose de découvrir un outil formidable pour évaluer la pertinence des contenus à l’intérieur de vos pages : Webmaster Eyes.

J’appelle ça l’analyse de la micro-pertinence car cet outil vous permet de visualiser en sur-impression le PR de chacun des liens de votre page. Ceci est particulièrement intéressant par exemple pour la page ‘Archives‘ de ce site :

MicroPertinence

 

Très pratique et surtout très instructif de pouvoir comparer la pertinence des catégories ou des mots-clés.

Un portail français sur l’analyse d’audience

Enfin ! Après plusieurs mois de gestation et de tests, Adrien et ses potes passent à la vitesse supérieure avec une deuxième version de leur portail dédié à l’analyse d’audience : Web-Analytique.com.

L’analyse d’audience (web analytic en anglais) est un domaine encore largement sous-exploité en Franceoptimisation de trafic rime encore beaucoup trop avec référencement.

Toujours est-il que ce portail est très bien conçu avec une rubrique Actualités, une rubrique Bien débuter et bien entendu des Ressources.

Pour vous donner un avant-goût, je vous livre la baseline du portail : L’analyse de la fréquentation de votre site est un enjeu décisif dans un secteur où la concurrence n’est qu’à un clic !

N’oubliez pas que Google est votre premier utilisateur

Voilà un point de vue on ne peut plus tranché. C’est en substance le propos de Pete Stein (le patron de Razorfish, une des agences web les plus créatives au monde) dans cet article : Google-ize Your Website.

Pour faire court, le point de vue de l’auteur est le suivant :

  • L’internet est devenu trop grand ;
  • Google est le meilleur ami des utilisateurs qui cherchent quelque chose sur le web ;
  • Google est potentiellement un très bon ami pour ceux qui ont des choses à vendre ou des idées à véhiculer.

Lorsque vous concevez un site vous devez donc :

  1. Faire en sorte que vos pages soient optimisées pour les robots de Google
  2. Considérer que toutes vos pages sont potentiellement des pages d’accueil (les fameuses landing pages dont je parlais dans un précédent billet) ;
  3. Anticiper les changements de comportement, à savoir la manière dont les utilisateurs vont accéder à l’information (et donc à votre site) une fois que l’ère de suprématie de Google sera achevée.

Plus extrême vous avez ?

Quand référencement et analyse d’audience font bon ménage

Voilà un article plein de bon sens que je vous propose de lire en ce début de semaine : Web Analytics Meet Search Marketing. Il y est question de la complémentarité des pratiques de référencement payant (par achat de mots-clés) et d’analyse d’audience.

L’auteur y explique qu’il est primordial d’étudier le comportement des utilisateurs entre le moment où ils effectuent une recherche et le passage à l’acte… ou pas ! Car c’est dans l’étude des cas d’échec que se trouvent les renseignements les plus précieux. Et c’est là où les solutions de mesure d’audience trouvent leur potentiel.

Et pour appuyer le propos de l’auteur, je m’autorise une petite citation de l’Art de la guerre : On apprend plus de l’échec que la victoire. Enfin je pense que cette citation est tirée de ce livre… bon si jamais c’est pas le cas j’aime bien celle-ci aussi : Celui qui n’a pas d’objectifs ne risque pas de les atteindre.

Libérons-nous de l’emprise des moteurs de recherche !

Et plaf ! Alors là ça faisait bien longtemps que Jakob Nielsen n’avait pas lancé un aussi gros pavé dans la mare : Search Engines as Leeches on the Web. Dans son dernier édito le docteur Nielsen n’hésite pas à attaquer la position ultra-dominante des moteurs de recherche qui vampirisent la valeur des sites web.

Explications : Si vous n’êtes pas sur Google vous n’existez pas. Pour être sur Google il faut acheter des mots-clés pour se donner de la visibilité. Ces mots-clés sont en vente sur le principe des enchères (plus vous enchérissez haut et plus vous ressortirez souvent). A partir de là, soit vous investissez dans votre site web pour rendre le contenu intéressant, soit vous investissez dans une campagne d’achat de mots-clés. Dans le premier cas, le résultat risque d’être très long à venir. Dans le deuxième cas, le résultat est très rapide et ça fait plaisir aux patrons.

Moralité, le système d’achat de mots-clés mis en place par les grands moteurs de recherche est pernicieux car il force les éditeurs de site à investir une partie toujours plus importante de leur budget dans de l’achat d’espace (la forme) au lieu de privilégier la pertinence des contenus et fonctionnalités (le fond).

Alors, qui veut témoigner ?