Vers la règle du clic unique ?

Voilà 10 ans que l’internet existe, 10 ans où il n’à cessé de croître et pendant lesquels les utilisateurs ont eu largement le temps de se familiariser avec les logiques de recherche d’information. En 10 ans les comportements ont fortement évolué et nous n’en sommes qu’au début.

L’illustration la plus flagrante de cette modification de comportement est la fonction de base de l’internet : la recherche d’information. Depuis l’avènement du roi Google, le niveau d’exigence des utilisateurs a été rehaussé au plus haut point : soit l’information qu’ils cherchent se trouve dans les 5 premiers résultats, soit elle n’existe pas. Avouez-le, votre comportement à également évolué : depuis combien de temps ne vous êtes-vous pas aventuré au-delà de la première page de résultat ?

Voilà pourquoi il est temps de se rendre à l’évidence : les habitudes et réflexes liés à la recherche d’information ont irrémédiablement changé et nous nous dirigeons vers des comportements extrêmes. Alors je pose ici une question ouverte : à quand la règle du clic unique ?

Cette règle repose sur un postulat simple : pour une information qui représente une certaine valeur, vos utilisateurs n’iront pas plus loin qu’un clic depuis votre page d’accueil ou depuis la première page de résultats de Google.

Mais avant de rentrer des les détails de cette règle, laissez-moi dans un premier temps enterrer définitivement la pseudo règle des 3 clics.

Oublions la règle des 3 clics

Il existe une précédente règle relative au nombre maximum de clics « tolérés » par les utilisateurs avant d’accéder à l’information qu’il recherche : la règle des 3 clics. J’ai déjà eu l’occasion de m’exprimer sur l’absurdité de cette règle (voir à ce sujet mon précédent billet : En finir avec la règle des 3 clics, qui a été rédigé il y a près de 3 ans !) mais je souhaite quand même enfoncer le clou une dernière fois : réduire le nombre de clics pour atteindre le niveau le plus profond dans un site revient à complexifier son arborescence. Pour faire simple, cela implique de confronter l’utilisateur à plus de liens à chaque clic, donc des choix plus longs, donc plus de risques d’erreurs, donc plus de frustration.

Je ne sais pas qui est à l’origine de cette règle mais les grands gourous de l’utilisabilité ne l’ont jamais cautionné. Pire, ils l’ont démonté au travers d’arguments très précis :

Moralité : oubliez la règle des 3 clics car elle n’est pas fondée.

La valeur relative de l’information

Il ne faut pas être devin pour comprendre que les informations à forte valeur ajoutée doivent figurer en page d’accueil, ou du moins qu’un lien y menant doit figurer en page d’accueil. Oui, mais à forte valeur ajoutée pour qui ? Car c’est là où réside une forte zone d’ombre : qui peut décider de la valeur d’une information ? En fait, tout est fonction de contexte : n’importe quelle information, aussi insignifiante peut-elle paraître à vos yeux, peut potentiellement représenter de la valeur à un utilisateur du moment qu’elle est restituée dans le bon contexte.

Voilà tout est dit, même s’il existe une hiérarchie dans l’information présente sur site, aucune ne mérite d’être perdue au fond d’une arborescence. Et dites-vous bien une chose : si les utilisateurs ne trouvent pas ce qu’ils cherchent sur votre site, ils trouveront l’information ailleurs : sur un portail, sur un blog, sur Wikipedia, ou sur le site de votre concurrent ! N’oubliez pas que Google dispose de près de 100.000 serveurs qu’ils font fonctionner jour et nuit pour indexer en permanence le contenu de l’internet. En fait le plus gros danger n’est pas que les utilisateurs ne trouvent pas ce qu’ils recherchent, car de toute façon ils trouveront. Non, le plus dangereux est que vos utilisateurs trouvent de l’information qui vous concerne mais dans un environnement que vous ne contrôlez pas.

Nous sommes bientôt en 2007, et le problème de l’infobésité se fait ressentir tous les jours de façon toujours plus pressante. Après avoir passé 10 minutes à chercher une information précise, pensez-vous sincèrement que les utilisateurs vont investir encore plus de leur précieux temps pour vérifier la véracité de l’information qu’ils ont eu tant de mal à trouver ? Non, et c’est bien là le problème ! Car s’ils ont été induit en erreur par une information fausse (ou légèrement transformée), ce n’est pas la source qu’ils vont blâmer, mais plutôt ceux qui auraient initialement dû la publier.

Prenons l’exemple d’un utilisateur qui cherche une information comptable sur une société X (admettons le taux d’endettement d’une des filiales de Danone en 1998). Après avoir échoué sur le site de ladite société, notre utilisateur parvient à trouver son information au fin fond du forum d’un portail boursier (par exemple sur Boursorama). Si ce chiffre est faux, à qui cet utilisateur va en vouloir : à l’auteur du post sur le forum, au portail financier ou plutôt à la société qui devrait rendre facilement accessible ses données comptables ?

Prenons un deuxième exemple : un utilisateur veut vérifier la compatibilité d’un accessoire avec son appareil photo numérique. Pour cela, il recherche une liste exhaustive des caractéristiques techniques de son appareil sur le site du constructeur… sans succès. Il finit par trouver son information sur le blog d’un amateur de photo, mais se rend compte que l’accessoire en question n’est pas compatible. Envers qui cet utilisateur va-t-il exprimer sa frustration : l’auteur du blog ou le constructeur de l’appareil qui aurait dû publier des fiches techniques plus complètes ?

Permettez-moi d’insister sur ce dernier point : publier une information ne suffit pas, encore faut-il s’assurer qu’elle est visible et trouvable. N’oubliez pas que le client est roi et que si vos utilisateurs ne trouvent pas ce qu’ils cherchent, ils seront alors convaincus que l’information n’a pas été publiée sur votre site.

Comprenez bien que vous avez tout à gagner à rendre l’information facilement trouvable sur votre site. Et inversement : vous avez tout à perdre si vos utilisateurs vont chercher de l’information vous concernant sur d’autres sites ou blogs.

Comment respecter la règle du clic unique ?

Il existe deux manières de respecter cette règle : mieux exploiter votre site (système de navigation et de recherche) et mieux exploiter les moteurs de recherche.

Le premier travail que vous devez effectuer est de vous assurer de la performance de vote site. A commencer par le système de navigation : les grandes rubriques sont-elles facilement repérables et intuitives ? Les sous-rubriques sont-elles facilement navigables ? Les intitulés des items de navigation sont-ils facilement compréhensibles ? Utilisent-ils le langage des utilisateurs finaux ou votre jargon interne ? Votre offre est-elle présentée et structurée en fonction des besoins des clients ou selon l’organisation interne ? Avez-vous testé votre système de navigation à l’aide d’outils comme le tri par cartes ou des tests-utilisateurs ?…

De même, vous devez également vous assurez de la pertinence de votre moteur de recherche interne : Toutes les pages du site sont-elles indexées ? La liste de résultats est-elle facile à comprendre ? Les résultats peuvent-ils être triés (par pertinence, date…) ? Est-il possible d’affiner une recherche ? Proposez-vous des alternatives (termes associés, fautes de frappe…) ? Existe-t-il un lexique ? Epluchez-vous vos statistiques de recherche pour savoir quels sont les termes les plus recherchés ?…

Il existe en fait un grand nombre de choses à vérifier et à affiner. Mais ne vous leurrez pas : aucun logiciel magique ou système expert ne pourra faire ce travail à votre place. Toute l’optimisation des systèmes de navigation et de recherche peut être réalisée à moindre coût, l’important étant de ne pas lancer un chantier de refonte pharaonique une fois tous les 5 ans mais plutôt de répartir ces tâches sur toute cette durée et de favoriser l’amélioration continue. La bonne nouvelle c’est que même un stagiaire peut réaliser ces optimisations, il faut juste se poser les bonnes questions et savoir chercher les réponses au bon endroit.

Le second travail à réaliser pour respecter la règle du clic unique consiste à optimiser le référencement de votre site, ou plutôt de TOUTE l’information contenue dans votre site. Car c’est là où réside une forte ambiguïté : référencer correctement un site ne consiste pas forcément à faire remonter la page d’accueil en tête de liste de résultats sur un mot-clé générique. Dites-vous bien une chose : le meilleur référencement possible est le référencement naturel. Il existe déjà de nombreux articles sur le référencement durable qui traite de ce sujet. Ainsi, je vais juste insister sur un point qui me semble essentiel : la lisibilité du code. Plus votre code source est « propre », c’est-à-dire plus il respectera une sémantique HTML correcte, et meilleure sera l’indexation réalisée par les moteurs de recherche.

En un mot comme en cent, ne cherchez pas à lutter contre Google, essayez plutôt de jouer selon les règles qu’il a défini : pas de pages fantômes, fermes de liens et autres pratiques illicites. Le référencement est un actif immatériel stratégique pour un site, un peu comme une marque. Il serait illusoire de penser qu’en deux ou trois bidouilles vous arriverez à déjouer les algorithmes que les meilleurs chercheurs de la planète ont mis des années à peaufiner. Avoir un référencement pertinent demande du temps et de la rigueur. Encore une fois, il est important de privilégier un travail de fond plutôt qu’un grand coup d’éclat à l’occasion d’une nouvelle version d’un site.

Il n’est jamais trop tard

Oui je sais ce que vous êtes en train de vous dire : il exagère, nous n’en sommes pas encore là, avec notre page rank de 7, nous sommes à l’abri, nous avons réalisés des tests l’an dernier et ça nous a coûté une fortune… Et pourtant, l’heure tourne et l’internet continu de grossir. Jours après jours, mois après mois, le nombre de sites / blogs / wikis / portails / flux RSS… ne cesse de croître, obligeant les internautes à modifier leurs habitudes de recherche et de consommation de l’information.

La règle du clic unique n’est peut-être pas LA nouvelle règle ultime en matière d’ergonomie, mais elle reflète une réalité et préfigure ce à quoi nous (les concepteurs de sites) devons nous préparer. A vous maintenant de décider si vous voulez être bénéficiaire ou victime de l’infobésité.

35 commentaires sur “Vers la règle du clic unique ?

  1. Vous connaissez déjà http://www.dontclick.it/ qui propose une interface navigable sans clic, justement. A un moment, j’utilisais pour mes onglets Firefox un système de « changement d’onglet au survol », avec une extension. C’est très agréable, et moins fatigant, moins crispant pour les doigts. Justement, j’allais signaler une publicité formidable, cela rentre dans le contexte, puisque on n’a pas besoin de cliquer pour déclencher l’effet. Il s’agit d’une animation Flash, une image fixe, en noir et blanc, et quand on passe la souris dessus, l’image se colore. Le principe est celui du grattage (comme le TacOTac, oui oui), et ça m’a attiré l’oeil. La pub Altran

  2. Pour moi, bien souvent, c’est même devenu la règle du 0 clic :-) Je rentre des mots clés pertinant dans la barre d’URL de mon browser Firefox, je tappe Enter sur mon clavier et Firefox me renvoit la même page que si j’aurais fait la recherche sur Google et que j’aurais cliqué le bouton: « J’ai de la chance ». ++

  3. Je me demande parfois si je ne suis pas un ovni ?! Suis-je le seul à avoir reglé mes préférences Google à 100 réponses par page ? Et je vais souvent piocher des liens positionnés eau 30 ou 35ème rang. Suis-je un acharné ?

  4. Excellent article Fred.
    Je te rejoins particulièrement sur l’importance à accorder au référencement naturel et à la « propreté du code HTML ». Le respect des validations (X)HTML est, à mon sens, un aspect à ne pas sous-estimer.

  5. Bonjour, je suis dubitatif sur la manière et sur le fond de cet article… Ce qui est valabable (l’argumentation) pour la rêgle des 3 clics, l’est également pour la rêgle du 1 (ou zero) clic. De ce point de vue l’article n’apporte rien de nouveau sous le soleil. Quand au lien proposé vers un article traitant de la dite rêgle des trois clics, les conclusions sont sommaires et rapides ; on peut y affirmer tout et son contraire. De mon point de vue, il y a un manque patent de rigueur (ex : affirmer qu’une chose et « vrai » car telle ou telle personne l’affirme) dans ces deux articles… Au final, il me semble que l’on passe à coté de l’apport de la rêgle des 3 clics ; celle-ci ne doit pas, bien évidemment, être pris au pied de la lettre, mais seulement nous faire nous interroger sur l’organisation et donc la navigation du site… FRED

  6. Fred, Laisses moi juste préciser 2 choses : les deux articles qui sont cités en référence pour démonter la règle des 3 clics ont été rédigés par Jakob Nielsen et Joshua Porter, les deux plus grands gourous de l’ergonomie informatique. Ces articles présentent les conclusion d’études rigoureuses qui impliquent des dizaines d’utilisateurs. en faisant appel à ton bon sens (et à ton expérience), tu peux toi même te convaincre que cette règle est une aberration. /Fred

  7. Merci Fred C. pour ce rappel à l’ordre bienvenu comme souvent. La mise en garde est particulièrement pertinente contre les « menus » et autres « catégories », cauchemard des concepteurs, mais encore plus, hantise des utilisateurs. Enfin… hantise, précisément plus tellement puisque comme tu le dis, il ne prend pas la peine (sauf s’il est têtu) de chercher à comprendre : il va googler ailleurs. Ce qui conduit logiquement comme tu le dis à travailler sans relâche à rendre son information trouvable facilement. Après réflexion, clicunic, ça me rappelle le rêve de certains dans les années 90 : avec le web devenu la télé, le clicunic, c’est pour choisir la chaîne !

  8. Je pense que nous avons tendance à surestimer l’importance de la « propreté » du code HTML des pages d’un site pour que celui-ci soit mieux indexé par les moteurs de recherche (et en particulier Google). Je me base pour dire ca sur une « FAQ vidéo » de Matt Cutts, le populaire ingénieur de Google : Extrait traduit : {{Q: La propreté du code (validation W3C par exemple) est-elle importante pour Google ? R: Les gens normaux font des erreurs en codant, Google ne tient donc pas compte de la validation dans ses algorithmes.}} D’après : http://www.zorgloob.com/2006/08/faq-vido-sur-le-seo-par-matt-cutts.asp

  9. je crois qu’il ya 2 extra terrestres déjà ici je confirme je vais bien au delà du premier clique règle idéale en théorie une bonne manière de mieux penser ça navigation …etc ( merveilleux de trouver tout du premier coup ) mais dans la réalité une pure utopie que semble s’éloigner a mesure que le web grossi ce que peut m’interesser n’est pas forcement bon pour mon voisin de palie,r les découvertes les plus intéressantes je les faits bien au delà du premier clique exemple: essaye de trouver une image que peut t’intéresser dans le FlickR (qui possède un système de navigation des plus performants du moment) du premier clique ? Bonne chance Fred… :-)

  10. Mon propos ne portait pas sur les articles de Nielsen et Joshua Porter, mais bien sur les tiens (celui-ci et celui que tu mets en référence sur ton blog). Le « simple bon » sens me pousse à dire que les arguments utilisés pour démonter la rêgle des trois clics, peuvent également être retournés sur les rêgles du « one clic » (ou « no-clic »)… Un exemple :« …réduire le nombre de clics pour atteindre le niveau le plus profond dans un site revient à complexifier son arborescence ».
    Ce faisant si l’on retient la rêgle du one clic, que dire de l’arborescence qui en découle ? Mon jugement est probablement un peu dûr, mais ton article est truffé de ce type d’argument… Enfin, je tiens à dire que j’apprécie ton travail et que je consulte régulièrement ton blog (via RSS). C’est uniquement dans cette perspective que mes remarques sont à prendre. Je note simplement que la rigueur à laquelle tu nous as habitué n’est pas présente ici. J’ai conscience que cela peut-être mal interprété, mais je me devais de t’en faire part. Bon courage à toi. FRED

  11. Concernant la recherche sur google, je suis comme Julien. Non pas que j’ai 100 résultats par pages, mais que je peux aller jusqu’aux pages 15-20 si je cherche VRAIMENT une information. Et c’est peut être la qu’il faut faire une distinction : – Une navigation accès plaisir, laissé-allé, sans but vraiment précis. – Une navigation de recherche intensive. Il ne vous est jamais arrivé de passer au moins 1h a chercher une information simple ? et de creuser, creuser, creuser jusqu’a ce que vous aillez une réponse ? Dans ce cas, les autres pages de Google vous semble t’elle si dénués d’intérêt ?

  12. @ Thierry : Il y a quand même une différence entre un code valide et un code à peut près propre. Je reste persuadé que simplifier son code source améliore le processus de référencement… sans pour autant garantir une place dans le TOP 5 ! Disons juste que c’est une étape indispensable @ Fred : A partir du moment où tu expose une théorie qui s’applique à un maximum de cas, il existe toujours des contre-exemples ou des interprétations pour la démonter (la théorie). Je reste néanmoins persuadé que nous allons vers une saturation de l’information (la fameuse infobésité) et que les utilisateurs « accorderont » de moins en moins de clics à chacun des sites qu’ils visitent. @ Jo et Loomax : Je ne pense pas que vous soyez de bons exemples, FlickR est un service connu uniquement par les geeks et bon nombre d’utilisateurs ne savent même pas qu’il y a plus d’une page de résultat sur Google. Bon OK, nous tombons un peu dans un débat d’experts sur des exemples extrêmes. Toujours est-il que votre niveau de compétences pour le maniement de l’internet est TRES loin d’être celui de Mr-tout-le-monde /Fred

  13. « …Je reste néanmoins persuadé que nous allons vers une saturation de l’information (la fameuse infobésité) et que les utilisateurs « accorderont » de moins en moins de clics à chacun des sites qu’ils visitent. » Nos réflexions se rejoignent tout à fait quand à la conclusion :) Au sujet de la connaissance de « monsieur tous le monde », il y a une vidéo sur YouTube (désolé je n’ai plus le lien en tête), tirée de l’excellent magasine « Striptease », dans lequelle on voit trois personnages en proie avec la hot-line. Leurs regards dubitatif quand à l’interrogation du hot-lineur concernant « la fermeture des fenêtres » devrais nous inciter à la reflexion sur l’accessibilité « global » des sites et de l’internet en général. Sur ce, j’arrête de vous ennuyer. Place aux autres… FRED

  14. Entièrement d’accord avec cet article (et bravo !) sur l’intérêt du référencement naturel dans la mise en relation rapide et directe (en 1 clic) entre une question posé et un contenu pertinent. Difficile en effet de faire plus rapide en terme de clic et plus efficace en terme de taux de transformation puisqu’avec le référencement naturel l’internaute trouve directement la réponse à sa question, tapée dans un moteur sous forme de mots clés. Cet article met également très bien en perspective la nécessité d’intégrer le référencement à la conception d’un site et en fonction des critères d’accessibilité et d’utilisabilité plutôt que de se contenter d’une vulgaire approche technique (et souvent froide) du référencement. Les mots clés sont le reflet de nos attentes, comportements, usages sur le web, bref d’une partie de nos vies, voila pourquoi référencement et accessibilité sont à mes yeux indissociable d’une stratégie réussie de création de trafic ciblé, durable et performante et humaine ! Un code plus propre est plus facile à lire par les moteurs et un atout pour le positionnement toutefois autant le préciser : un site conforme W3C n’est pas mieux référencé (malheureusement) qu’un site qui ne l’est pas du tout ou pas totalement. Google et tout autre moteur digne de ce nom, ne peut en effet pas se priver d’afficher un résultat pertinent même si la page est mal codée ou ne respecte pas les standards… J’entends souvent des personnes se plaindre de l’hégémonie (bien réelle) de Google et dire, « Oui y a marre de ce Google qui nous impose ses propres règles du jeu pour le référencement ». Les règles Google sont avant tout des règles de bons sens et de mon point de vue une adaptation mathématique des règles de comportements et d’usages des utilisateurs avant d’être de règles propres à son moteur. Il ne s’agit donc pas de suivre les règles Google pour optimiser son référencement mais bien de suivre les règles et attentes de ces utilisateurs pour optimiser son référencement ce qui fait toute une différence, surtout quand Google ne sera plus aussi puissant… (On peut rêver non ?)

  15. Article très intéressant comme toujours. Je me faisais une reflexion l’autre jour en utilisant le dashboard d’OS X : l’ayant configuré pour qu’il apparaîsse en colant ma souris dans un coin de l’écran, lorsque je suis à travailer et que je souhaite vérifier la météo, les stats de mon site ou les dernières entrées de quelques flux RSS, je n’ai qu’à déplacer ma souris ! Le but n’est pas de faire la pub de dashboard ni même d’OS X mais c’est effectivement un exemple flagrant du fait qu’on peut en 2006 être à 0 clic d’un très grand nombre d’information. Et d’un point de vue ergonomique ET expérience utilisateur, je n’ai pas encore vu mieux.

  16. La bonne nouvelle c’est que même un stagiaire peut réaliser ces optimisations C’est une bonne nouvelle çà ou c’est un langage de commercial-marketeux ?

  17. Non, c’est un authentique bonne nouvelle. Cela veut dire que la démarche d’optimisation peut être internalisée à moindre coûts. Il faut juste du temps, de la bonne volonté et un peu de bon sens. N’y voyez surtout pas un quelconque dénigrement des stagiaires et de leur utilité dans le cadre d’une entreprise. /Fred

  18. Salut Je me permet d’intervenir ici en tant que tout petit webmaster/blogeur… Je pense comme Fred que l’infobésité est déjà là. Chaque requête sur google renvoie 1 000 000 de résultats… Vis à vis de la rêgle du 1click, je pense qu’elle doit plus être une ligne de mirre qu’une rêgle absolue. Ceci dis les internautes sont en train de s’habituer aux blogs et ce format est quand même le roi du 1click (tag) voir du no-click (rss). 2 élements que vous n’avez pas évoqué et que malheuresement je n’ai pas le temps d’argumenter sont à soulever : Les liens commerciaux : où comment je peux être n°1 sur l’info avec une bonne stratégie, vu que c’est du cpc pourquoi ne pas imaginer d’acheter la reference de l’accessoire ou « endettement d’une des filiales de Danone en 1998 » Wikio : ?!? Webwag : pour l’instant pas d’infos concrete mais des rumeurs, n’empeche que les homepages perso sont à prendre en compte. a+ Richard aka Rfly

  19. Bonjour, Cet article est plein de bon sens, mais je reste dubitatif également, tu alimentes ton argumentation en n’exposant que certains cas de figure qui jouent en sa faveur. Par exemple, la règle des 3 clics était bel et bien fondée au temps des bas-débits (imaginez-vous à l’époque en train de poireauter pendant 20 minutes pour afficher 5 pages qui n’aboutissent pas à votre recherche), et elle reste de vigueur dans certains cas selon moi. Par exemple, je perds vite patience, haut-débis ou pas, quand j’entre dans une arborescence qui paraît toute simple de prime abord, mais qui en fin de compte possède des ramifications qui n’en finissent pas. De même ce qui est contradictoire, c’est que tu préconises la règle du clic unique, mais tu dis également que les gens adorent cliquer (voir précédent billet sur la règle des 3 clics), et je pense que c’est encore plus d’actualité aujourd’hui avec l’ADSL. Les connexions sont plus rapides, les clics plus nombreux et plus spontanés. Tout dépend du type de site et du contexte dans lequel l’utilisateur se trouve. Je peux très bien perdre patience sur un site dont le niveau d’ergonomie est déplorable, mais je peux très bien m’entêter à vouloir trouver une info capitale en parcourant les 10 premières pages de résultats de Google (ce qui entre nous ne prends pas plus de 10 minutes). Concernant l' »infobésité », on revient à la même chose. Il y a du bon sens dans ce qui est dit, mais là encore ça ne s’applique qu’à certaines catégories de sites. En effet dans tes deux exemples, la responsabilité des sites en question est évidente, mais est-elle aussi évidente pour un graphiste qui ne stipule pas clairement sur son site que le print n’est pas son domaine ? il suffirait que Monsieur X lance un billet en disant le contraire pour qu’il en soit tenu pour responsable ? Je le répète, beaucoup d’éléments dans cet article donnent à réfléchir et j’en tiendrai compte (les lecteurs de flux RSS illustrent parfaitement cette règle du clic unique), mais tu l’as dit toi-même, Internet est vaste et s’agrandit de jour en jour, et la généralisation que tu en fais reste quand même dérangeante. En témoigne le nombre infini de cas et de contextes particuliers qui ne feront sans cesse que de créer des contradictions à travers une forme unique de discours.

Répondre

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l'aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s