Le web 3.0 : une révolution déjà en marche ?

​Le terme de web sémantique n’est pas récent, Tim Berners Lee, l’inventeur d’Internet l’évoquait déjà en 1994 lors de la première conférence WWW. Le W3C (World Wide Web Consortium, instance de normalisation d’Internet) travaille dessus depuis 2001 à lui donner des outils utiles à son développement grâce à des standards. Cette nouvelle approche permet aux machines de comprendre les données et de répondre à des requêtes de plus en plus poussées. Aux moyens de langages spécifiques (RF, OWL, SPARQL) les pages Internet peuvent être traitées automatiquement et sont reliées entre elles. Le web devient ainsi un gigantesque index hiérarchisé.

​Cependant son entrée sur le web se fait attendre et plusieurs raisons viennent freiner cette nouvelle révolution de l’Internet. Le principal reproche est la complexité de l’écriture de ses différents langages. On compte par exemple une dizaine de variations sur le RDF (Resource Description Framework) ainsi que OWL qui, lui, permet de traiter des différents vocabulaires à employer dans la description des pages des sites.

​Ce dernier point est d’ailleurs un autre aspect négatif car les descriptions se font à partir d’ontologies – sorte de thésaurus décrivant des concepts. Un travail titanesque reste à faire pour déterminer les termes et décrire les notions qui sont le cœur du web sémantique et cela représente un coût très important en temps et en argent. De plus, la barrière de la langue est à prendre en compte et les concepts pas forcément les mêmes d’un pays à l’autre. Tout reste donc à faire.

​Toutefois, la plus grande avancée que l’on peut espérer de ce web de données et dont Berners-Lee parle dans Weaving the Web est« [la capacité des ordinateurs] d’analyser toutes les données sur le Web — le contenu, liens, et les transactions entre les personnes et les ordinateurs».

​Même si ce travail semble impossible à réaliser, il semble que le premier pas a déjà été effectué. Les entreprises s’intéressent particulièrement à cette nouvelle façon de penser Internet. En effet, le traitement automatique des données récoltées et la publicité ultra personnalisée sont les moteurs du web d’aujourd’hui et de demain.

​Certaines institutions comme la BBC, la radiotélévision britannique et la BNF, la Bibliothèque nationale de France ont entamé depuis quelques années un long travail pour remanier leurs sites web. Ces sites d’information mais également tous les types de ressources sont ainsi reliés entre eux pour former une vaste toile. La révolution qu’on nous promet n’est peut-être pas aussi voyante que la transition avec le web 2.0 mais selon Berners-Lee «les « agents intelligents » qu’on nous promet depuis longtemps vont enfin se concrétiser».