Les facteurs limitant du web 2.0

Jeremy Chone du site Bits and Buzz vient de publier un très bon billet sur celui-dont-on-ne-doit-pas-citer-le-nom : Web 0.x to Web 2.0 Simplified. Ce billet est très bon pour deux choses, la première est un schéma qui résume parfaitement le paradigme entre web 1.0 et web 2.0 :

L’auteur définit ainsi l’ère du web 2.0 comme une ère où les producteurs de contenu (notamment au travers des blogs, wikis, album photos en ligne…) vont prendre une place de plus en plus importante par rapport aux consommateurs de contenu (les visiteurs).

L’autre point important de ce billet est l’identification de 3 facteurs limitant du web 2.0 :

  1. les communautés isolées d’utilisateurs, c’est à dire le caractère exclusif de certaines communautés qui ne s’ouvrent pas à l’extérieur et qui forcent les utilisateurs à adhérer à différentes communautés de façon indépendante et parallèle (à quand une identité universelle voir du SSO en ligne ?) ;
  2. le manque d’interopérabilité entre les différents services en ligne (on en revient à la notion de portabilité décrite dans un précédent billet) ;
  3. les limitations liées à l’architecture de l’internet qui force la grande majorité des services en ligne à fonctionner en mode client-serveur (il faudrait chercher un début de réponse dans l’intégration de modules P2P aux navigateurs à l’instar d’Opera qui intègre un client BitTorrent ou de l’extension AllPeers pour Firefox).

Et vous, vous voyez d’autres facteurs limitant ?

Un commentaire sur “Les facteurs limitant du web 2.0

  1. Depuis quand l’architecture de l’internet repose-t-elle sur le client-serveur ? Le Web n’est pas internet…

  2. Un point limitant : je ne vois pas l’interet de proposer toujours plus de contenu si il y a de moins en moins de monde pour les consulter. Surtout que ce contenu sera de plus en plus dispersé. Il vaudrait mieux centraliser les données par thème plutôt que de multiplier les « petits » contenus qui seront de plus en plus difficile à consulter puisqu’isolés dans le nombre.

  3. Pour moi, le facteur limitant essentiel, c’est la dégradation du rapport signal/bruit dés qu’on ouvre les vannes de la production de contenu. Par exemple, avec toute l’affection que j’ai pour Digg, le contenu laisse souvent à désirer, y compris en première page, et le plus gros point noir, c’est que l’accroche proposée est souvent minimaliste. Je me demande ce que donnerait un Digg-like avec des entrées éditables façon wiki. Ca vaut aussi pour Scoopeo et les autres, bien sûr.

  4. Ce n’est pas qu’il y a moins de consommateurs, c’est que les consommateurs sont en même temps les producteurs de contenu. Ensuite justement le web 2.0 c’est la centralisation du contenu autours de tags et de communautés. Mes 2 cents.

  5. je réflechie depuis un bout de temps a un systeme de SSO en ligne. Donc si d’autres personnes sont partante avec moi contactez moi :)

  6. Je trouve ce graphique particulièrement éclairant. Par ailleurs la remarque de Polaris sur le rapport signal/bruit qui augmente parallèlement au contenu est produit par les utilisateurs me parait fondée, mais n’y aurait-il pas une voie qui consisterait à coupler production de contenu et tagging des internautes avec des algorithmes de pertinence?

  7. Le Web 3.0 verra t’il la fin des blogs ? Jeremy Chone a propos?in novembre une vue simplifi?de l’?lution du Web entre sa version 0 et sa version 21, celle du (trop ?) fameux Web 2.02. Ce qui n’a pas — me semble t’il — ? donn?omme conclusion, c’est que le Web 3.0 pourrait voir la fin…

  8. Hum… visiblement la préoccupation de tous est de pouvoir s’y retrouver dans toute cette masse de contenu miraculeusement créée par les utilisateurs eux-mêmes. Les moteurs de recherche seront-ils les piliers du web 2.0 ? /Fred

  9. Les limites du web 2.0 Je voulais à l’origine poster un simple commentaire chez Frédéric Cavazza, mais les idées venant, il devenait évident qu’un billet serait beaucoup plus approprié. Frédéric se pose tout simplement la question des limites du Web 2.0, …

  10. Pour déroger un peu, personnellement je dirais que le principal facteur limitant, et notamment celui que je rencontre en ce moment même, c’est la pauvreté des offres techniques qui permettent aux développeurs de tels services de concrétiser leurs idées : ce n’est pas sur un hébergement dédié PHP+MySQL qu’on va pouvoir faire du Ruby ou des WebServices en Java par exemple, et un serveur dédié coute encore très cher pour un développeur indépendant dont le service en gestation ne génère pas encore les revenus pour s’autofinancer (Le serveur dédié le moins cher que j’ai trouvé jusqu’à maintenant c’est 46€ par mois !). Je me demande comment ont fait les créateurs de Del.icio.us ou de netvibes au début…

  11. Autant le schéma est intéressant, autant les 3 facteurs limitants me semblent à côté de la plaque : 1- les communautés s’ouvrent ou ne s’ouvrent pas sur l’extérieur, il n’y a rien de systématique et c’est le choix de chacune d’entre elles. Les deux types ont prouvé qu’ils étaient viables et je trouve personnellement bien qu’ils continuent à co-exister. 2- le manque d’interopérabilité est très relatif : il n’a jamais été aussi facile de rendre des services interopérables et il fait partie des préceptes de web 2.0 que d’optimiser « l’hackability » des services proposés. 3- la diffusion de services interopérables va précisément à l’encontre de ce qui est dit sur les limites de « l’architecture d’internet » (et je ne parle du grand flou technique de ce point).

  12. Je crois que le (très bon) schéma et les commentaires illustrent le chantier de l’avenir. 1. Les moteurs de recherche n’indexent qu’une partie du web et le font en fonction des possibilités qu’offrent les sites (en général le titre, la meta « description » et le reste du texte). Le tout est ensuite mouliné et classé de sorte qu’une minorité des sites sont réellement visibles. 2. Les rédacteurs, par flemme, manque de temps ou de compétence, ne décrivent pas leur contenu et n’en articulent pas les parties entre elles. Dans le meilleur des cas, le contenu est taggé et le rédacteur fait un lien vers un autre contenu dont il se souvient (si ce n’est pas trop ancien) 3. Le fait que les rédacteurs soient de plus en plus nombreux ne signifie pas que le contenu proposé soit plus signifiant ou valide (skyblog n’est pas ma cible unique). On pourrait rajouter sur le graphe une courbe de « contenu pertinent ».
    Face à ce triple défi, il me semble que la réflexion a déjà commencé sur le plan théorique via le web sémantique. Pour aller au delà et permettre à l’utilisateur lambda d’entrer dans l’ère de la métadonnée et des ontologies, les outils restent à inventer qui permettraient sans trop d’effort : – d’articuler et regrouper les tags existants pour en faire une ontologie – de proposer automatiquement un tagage d’un texte sur la base de son contenu – d’assurer les liens automatiques entre des contenus similaires – de construire des folksnomie sur la base des tags utilisés ou consultés…

  13. Je trouve quand meme cet article un peu limite dans la mesure ou il se concentre encore et toujours sur la notion de contenu : l’auteur y voit le web 2.0 toujours comme une enorme bibliotheque et selon lui ce ne sont que l’organisation et les protagonistes qui changent. C’est une vision un peu limitative qui met de cote des aspects importants de la mutation en cours, notamment en ce qui concerne les usages. Le Web s’elargit au-dela de sa vocation initiale de source de contenu en devenant un outil : par exemple quand j’utilise blogmarks pour enregistrer mes favoris, je l’utilise moins pour creer du contenu que pour enregistrer et rendre disponibles mes favoris depuis n’importe quel ordinateur. Je reste dans mon idee de « Web Utile » : pour moi le changement majeur ne se situe pas au niveau de qui cree le contenu ou comment on l’organise (parce que si ce n’est que ca, effectivement le web 2.0 c’est du vent et on tourne en rond), mais sur sa transformation de media en plateforme, dans laquelle la production et la consultation de contenu en tant que telle ne devient finalement au’une utilisation possible parmi tant d’autres : webmail, partage de photos, de raccourcis, de calendrier, edition collaborative, et toutes ces applications qui sont encore a inventer.

  14. Le facteur limitant est l’utilisateur d’un site web qui est loin d’être aussi actif et désireux de l’être qu’on le prétend. Quel % de tes visiteurs vont répondre à ta question ? Un tout petit % :)

  15. Oui mais un petit pourcentage largement superieur a la part qu’ils representaient auparavant. Passer de 1 a 4% de parts de marche, c’est encore petit mais c’est une progression par 4 quand meme. D’autant qu’en extrapolant ce n’est encore qu’un debut, le Web Utile s’eveille a peine est reste encore bien en-dessous de son potentiel. Et puis je reste sur mon idee : le contenu en tant que telle n’est qu’une partie du Web. Pour moi les blogs, les CMS et autres wikis ne sont que du… « Web 1.5 ». Le veritqble Web 2.0, je le vois quand ce contenu creera une vraie valeur ajoutee, quand la creation de contenu ne sera qu’une consequence d’une utilisation fonctionnelle, et meme quand le contenu deviendra secondaire par rapport a la fonctionnalite. Alors bien sur ca ne remplacera pas le reste, mais la marge de progression est enorme.

  16. La validité des sources d’information est un facteur limitant du web 2.0. Celà était déjà le cas avant, mais les flux d’information et les échanges s’accélérant, cette problématique est toujours plus cruciale…

  17. Romain : La validité des sources d’information est tout le contraire d’un facteur limitant du web 2.0 : les auteurs sont soumis à un contrôle de plus en plus actif de leurs lecteurs. C’est « la sagesse de foules » décrite par O’Reilly : la validité de l’information étant un vrai problème pour le web, cet argument est plutôt favorable aux usages du web 2.0.

  18. Oui mais en meme temps JB, ton argument est a double tranchant parce que plus il y a lecteurs-acteurs pour donner ou enlever du credit aux auteurs, plus il y a d’auteurs. Mais bon, je constate qu’on est encore et toujours dans un debat de gestion d’information : credit, securite, architecture mais encore et toujours du contenu. C’est Fred qui rappelait il y a quelques temps quelques articles tres interessants de Seth Godin sur l’inertie. Comme quoi ca existe aussi en technologie : meme les plus geeks ont du mal a s’eloigner de ce qu’ils connaissent.

  19. Eh oui, je pense aussi que le principal facteur limitant est le contenu lui-même et sa fiabilité. Avant, nous tombions sur un site ou une page perso, l’auteur était clairement identifié, et on pouvait lire ce qu’il disait en sachant à quoi s’en tenir. Avec le Web2, on ne connait même plus l’auteur de l’article. Comment faire confiance au contenu sans pouvoir faire confiance à l’auteur ? Lire tout le monde, c’est aussi lire n’importe qui…

Laisser un commentaire