Après le Web 2.0, voici venu le temps du Web2

L’expression “Web 2.0” fut inventée en 2004 par Dale Dougherty de la société O’Reilly Media et théorisée en 2005 par Tim O’Reilly, dans un livre blanc intitulé “What is Web 2.0”. Alors que l’on s’attendait à voir émerger le concept de Web 3.0, défini par certains comme le Web sémantique, Tim O’Reilly vient de lancer le “Web au carré” (Web squared en anglais), lors du cinquième Web 2.0 Summit qui s’est tenu à San Francisco en octobre dernier. Un livre blanc intitulé “Web squared: Web 2.0 five years on” regroupe les grands principes de ce nouveau concept.              Dans un premier temps, quelques rappels sur l’ancêtre du Web2 s’imposent. A l’origine, le Web (Web 1.0) n’était qu’un ensemble de pages statiques et de systèmes difficilement compatibles entre eux. Après l’an 2000, le Web connut des évolutions majeures, que certains ont regroupées sous le terme Web 2.0.                On pensera surtout au fort développement des pratiques collaboratives, à l’image des blogs ou encore de l’encyclopédie Wikipédia, désormais symbole de ce renouveau du Web.             Le Web 2.0 théorisé par Tim O’Reilly reposait sur 7 grands principes (voir Netsources n°64) :              - le Web est perçu comme une plate- forme de services ;              - les internautes deviennent co-développeurs des applications ;                - le service s’améliore quand le nombre d’internautes augmente ;                - la richesse est dans les données ;              - le Web tire parti de l’intelligence collective ;              - les interfaces deviennent plus souples et légères ;              - le logiciel se libère du PC.              Le Web 2.0 a déplacé les internautes au cœur du système, en mettant l’accent sur l’intelligence collective et la collaboration ; le Web2, quant à lui, est centré sur les données. Voici donc les grandes lignes développées par Tim O’Reilly dans son livre blanc sur le Web au carré.                 L’ESSOR DU TEMPS REEEL                On a pu voir émerger depuis quelques années les outils de microblogging, dont le représentant le plus célèbre n’est autre que Twitter (voir Netsources n°78, janvier-février 2009). Pour rappel, Twitter est un outil qui permet à ses utilisateurs de poster de courts messages (appelés “tweets”, maximum 140 caractères).                Les informations publiées sont disponibles immédiatement partout dans le monde.               Il existe désormais des moteurs de recherche en temps réel comme Twitter Search ou encore Social Mention, qui permettent de retrouver instantanément ces informations ; certains moteurs classiques, comme Google par exemple, commencent également à intégrer des données en temps réel dans leurs résultats.                On a pu voir l’intérêt de ce système lors des récents événements en Iran, où les manifestants ont pu informer en direct le monde entier de ce qui se passait.                 LE WEB EST LE MONDE               L’un des concepts les plus intéressants développés par Tim O’Reilly est probablement celui de l’“ombre informationnelle” (Information Shadow). L’idée est que chaque objet du monde réel dispose d’une ombre informationnelle sur le Web : chaque livre a une ombre sur Amazon ou Google Books, chaque chanson a une ombre sur iTunes et chaque humain a une ombre informationnelle via ses emails, ses billets de blogs, ses commentaires, ses photos sur Facebook, etc.  Le monde réel et le Web ne sont plus deux univers distincts : le Web est le monde.                 D’ailleurs, certaines applications, quoique encore peu nombreuses, permettent d’aller encore plus loin en enrichissant la réalité. On parle d’“outils de réalité augmentée”.                C’est le cas d’une application prénommée Layar, développée par une firme néerlandaise. Cette application s’utilise à travers la caméra vidéo de son téléphone portable : l’utilisateur réalise une vidéo de l’endroit où il se trouve et l’application y superpose instantanément des informations commerciales (restaurants les plus proches, appartements à vendre avec des détails sur la taille et les prix, etc).                 Non seulement le monde réel et le Web ne font plus qu’un, mais le second enrichit le premier. Même si pour l’instant, les outils de réalité augmentée n’en sont qu’à leurs balbutiements, on peut entrapercevoir l’impact de ce type d’applications sur notre futur.              UNE NOUVELLE PARTICIPATION SENSORIELLE                          Le Web 2.0 avait vu le logiciel se libérer du PC. Plus besoin d’être sur son ordinateur, chez soi ou au bureau pour accéder à Internet et aux multiples services qui en découlent. L’utilisation d’un iphone, de smartphones et autres Blackerry pour surfer sur le Web est désormais pratique courante.               Ce phénomène continue de croître et connaît des évolutions majeures. Tim O’Reilly parle d’une “nouvelle participation sensorielle”. Alors que la recherche était jusqu’alors d’ordre purement tactile (taper sur son clavier les termes de sa requête), de nouvelles modalités de recherche se développent et notamment au niveau vocal.                L’application de recherche Google Mobile pour l’iphone en est un très bon exemple : lorsque l’utilisateur approche le téléphone de son oreille, l’application détecte le mouvement et passe en mode vocal.               Il suffit de dire “Pizza” pour voir apparaître sur l’écran un plan indiquant les trois pizzérias les plus proches. La navigation sur le Web s’était déplacée du PC vers des terminaux plus mobiles ; c’est désormais la façon d’interagir avec le Web qui évolue.               FAIRE COOPERER LES SOUS-SYSTEMES               Contrairement aux premières applications Web qui étaient fragmentées et quasi-incompatibles entre elles, le maître mot est désormais : Interopérabilité. Comme iPhoto’09, le logiciel de gestion de photos d’Apple qui intègre Flickr et Google Maps, de nombreux services recourent désormais aux services de bases de données de fournisseurs externes.                 DES SYSTEMES AUTO-APPRENANTS                 Pour appréhender des informations, des images, des vidéos, nous avons besoin de métadonnées, c’est-à-dire de données sur les données. Ce système, bien qu’il ne porte pas ce nom là, est bien connu des professionnels de l’information depuis de très nombreuses années, notamment pour la description de documents dans les notices bibliographiques.               Mais le terme “métadonnées” en tant que tel n’est apparu que dans les années 90, pour faciliter l'accès au contenu informationnel d'une ressource informatique.               Chaque page web dispose de métadonnées qui vont lui permettre d’être indexées par les moteurs, chaque image est décrite pour lui permettre d’être retrouvée, etc.                Mais l’ajout manuel de métadonnées est un travail titanesque et chronophage, surtout face à la prolifération d’informations sur le Web.                Durant l’ère du Web 2.0, on avait commencé à voir se développer des métadonnées implicites – c'est-à-dire générées automatiquement – et la construction de bases de données pour les capter et les utiliser. Les appareils photos numériques, par exemple, fournissent de multiples métadonnées implicites, comme la date de la prise de vue, le lieu, le type d’appareil utilisé, etc.                Si une même personne charge ses photos sur le site de partage de photos Flickr, Flickr lui-même capte les métadonnées fournies par l’appareil, les intègre dans une base et les réutilise pour situer le lieu sur une carte.               Ce système de métadonnées implicites continue de se développer, mais certains systèmes vont désormais plus loin, en générant automatiquement des métadonnées à partir d’informations antérieures.                 C’est notamment le cas du système de reconnaissance facial proposé par iPhoto’09 d’Apple, où l’utilisateur tague manuellement une photo avec le nom de la personne qui y figure et où l’application détecte ensuite automatiquement les autres photos où cette même personne apparaît. Même si le résultat n’est pas encore parfait et s’il faut parfois effectuer quelques corrections manuelles, le système est malgré tout très probant et laisse présager des évolutions intéressantes dans le futur.                 Depuis la théorisation du Web 2.0 en 2005, le Web a indéniablement évolué ; de nouveaux services et de nouveaux comportements ont émergé.               Si l’on définit le Web 3.0 comme le Web sémantique, il apparaît clairement que nous n’y sommes pas encore parvenus.               Le Web2 quant à lui n’est pas un bouleversement majeur, juste une transition entre le Web 2.0 et le Web 3.0.              Lorsque Tim O’Reilly déclare dans son livre blanc à propos du Web qu’entre “1990-2004, l’allumette a été frottée, que la période 2005-2009 a été l’amorce et que 2010 est l’explosion”, il est bien évident que cela est totalement exagéré et n’est ni plus ni moins qu’un concept marketing, destiné à relancer une machine qui commence à s’essouffler.                Déjà cinq ans que nous parlons quotidiennement du Web 2.0 ; il était temps de faire émerger un nouveau concept. Utiliser l’expression “Web au carré” alors que tout le monde s’attendait à des formules du type Web 2.1, 2.5 ou encore 3.0, n’était qu’un pied de nez et n’avait pour seul but que de générer du buzz.               Mais outre cet aspect purement marketing, Tim O’Reilly a le mérite de mettre par écrit et de théoriser les dernières grandes évolutions du Web. Un bon moyen de prendre conscience des changements qui s’opèrent et de visualiser les prémices du monde de demain.                 INFORMATION               “Web squared: Web 2.0 five years on” http://assets.en.oreilly.com/1/event/28/web2009_websquared-whitepaper.pdf   Carole Barthole
Publié dans le n°83 de Netsources (Novembre/Décembre 2009)

Aucun commentaire:

Enregistrer un commentaire