logo academy

Qu’est-ce que le Web 3.0 et comment fonctionne-t-il ?

1 février, 2023

15 min

Qu’est-ce que le Web 3.0 et comment fonctionne-t-il ?
débutant

Chaque phase du Web a façonné la technologie et la société, offrant aux utilisateurs en ligne de plus en plus d’outils et de possibilités. Nous explorons ce qui a changé au cours de l’histoire d’internet et ce qu’est le Web 3.0, la troisième phase qui nous attend.

L’origine du Web 3.0 : Internet et le Web 1.0

Aujourd’hui, internet est presque un besoin primaire, un service qui va de soi et qui imprègne nos journées. Avant de comprendre ce qu’est le Web 3.0, sa troisième “période”, remontons aux origines de cette technologie : elle n’a pas été créée pour un usage public, mais est née pour être exploitée dans le domaine militaire, tout comme la cryptographie.

“Polemos [le conflit] de toutes choses est père, de toutes choses est roi ; et les uns révèlent des dieux, les autres des humains, les uns des esclaves, les autres des libres ” – Héraclite.

C’est pendant la guerre froide, et surtout après le lancement de Spoutnik dans l’espace, que le ministère américain de la défense a commencé à investir dans des projets de recherche pour trouver de nouveaux systèmes de communication. Cette mission a d’abord été prise en charge par le chercheur Paul Baran, avant d’être confiée à un groupe de recherche dédié, l’ARPA. Si vous avez lu l’histoire des domaines internet, ce nom vous sera familier.

L’ARPA, entre 1967 et 1972, a créé le premier réseau informatique, en utilisant les lignes téléphoniques. Le réseau ARPANET reliait différents ordinateurs des universités et instituts participant au projet. L’ARPA a poursuivi son travail d’innovation en créant (en 1973) le protocole TCP/IP, que les chercheurs ont utilisé pour mettre en œuvre un réseau public. En pratique, TCP/IP est l’union de deux protocoles fondamentaux d’internet qui permettent la communication : le protocole de contrôle de transmission (TCP) et le protocole Internet (IP). En bref, les serveurs qui hébergent le contenu des pages web sont reconnus par une adresse IP, afin que les navigateurs puissent les localiser et sy connecter via TCP.

Après des années de développement sous une direction essentiellement militaire, la National Science Foundation américaine a décidé en 1992 qu’Internet ne serait pas un service d’État. Une tentative de décentralisation qui, toutefois, ne pouvait être réalisée que par le Web 3.0. Quoi qu’il en soit, à partir de ce moment-là, l’accès à internet sera proposé par des entreprises spécialisées : les fournisseurs d’internet commerciaux que nous connaissons aujourd’hui, techniquement appelés ISP (Internet Service Providers).

Cet événement, ainsi que l’invention du World Wide Web, a amené internet au stade de la commercialisation. Le réseau mondial “WWW” a été créé par Tim Berners-Lee, un chercheur du CERN, en 1991. Au protocole TCP/IP, Tim a ajouté trois outils fondamentaux pour le “Web 1.0” et internet en général :

  • HTML (HyperText Markup Language), le langage de mise en forme du web.
  • URI/URL (Uniform Resource Identifier or Locator) : une adresse unique permettant de localiser des ressources sur le web. Il s’agit du “lien” vers les sites en ligne, une chaîne dont le domaine internet fait partie.
  • HTTP (HyperText Transfer Protocol) : protocole permettant de récupérer le contenu des pages internet à partir de serveurs, en coopération avec TCP/IP.

Le Web 1.0, la première phase d’internet, a été conçu pour le partage d’informations, principalement dans la communauté scientifique, et l’expérience était essentiellement “passive“. Les premiers utilisateurs ne pouvaient pas interagir avec les pages internet ni les modifier, mais simplement lire et observer des images et du texte statiques. Une “consultation” exclusive a défini le Web 1.0 comme étant “en lecture seule” et le premier navigateur, Mosaic, a été créé en 1994 dans cette optique unique, puis copié par Netscape, la première entreprise publique parmi les protagonistes de la fameuse bulle Internet.

Lorsque la bulle a éclaté en 2000, l’opinion publique pensait que le web était un phénomène passager sans réel avenir. Seuls 6,7 % de la population mondiale avaient alors accès à internet. De nombreuses entreprises ont fait faillite, mais les avancées technologiques réalisées pendant la bulle sont restées.

Ainsi, les entreprises ont commencé à utiliser les premières API, pour développer des applications sur Internet, et Ward Cunningham a inventé les pages wiki, modifiables par n’importe qui. Le modèle wiki a finalement transformé l’internet “en lecture seule” en internet “en lecture-écriture” d’aujourd’hui : le Web 2.0, caractérisé par la création de contenu par les utilisateurs, même sans but commercial.

Ce qui a également motivé l’avancement de la technologie au cours de ces années, c’est l’extrême nécessité de simplifier les transactions, à travers ce qui allait devenir le commerce électronique. Mais ceci est une autre histoire, continuons plutôt la nôtre, qui nous amènera à découvrir ce qu’est le Web 3.0.

Web 2.0 : Big Tech et Big Data

Depuis 2004, les changements les plus perturbateurs de l’histoire d’internet ont eu lieu. L’accès au web s’est déplacé vers les appareils mobiles, les images sont le support qui a pris de plus en plus d’importance et les médias sociaux ont créé une sorte de métavers, une réalité parallèle dans laquelle chacun peut participer, partager et interagir. En bref : le Web 2.0 est un terme inventé par Tim o’Reilly pour désigner la deuxième phase d’internet, où le flux d’informations a 2 canaux. Le contenu généré par l’utilisateur (CGU) ajoute la création de contenu à la simple lecture, faisant du web un écosystème dynamique.

L’omniprésence de la technologie internet, désormais accessible à (presque) tout le monde, a néanmoins donné un terrain fertile aux activités criminelles, qui tentent de cibler les sujets en ligne. Pour les reconnaître, vous pouvez lire l’article sur le phishing et les systèmes de Ponzi, ou consulter la FAQ relative à la sécurité.

Un autre élément qui change le paradigme du web est le contrôle par des entités centralisées, comme l’ICANN, qui gère le DNS, et le monopole des GAFAM, ou Big Tech : Alphabet (Google), Amazon, Apple, Meta (Facebook) et Microsoft. L’influence de ces géants est évidente, à tel point qu’ils peuvent censurer différents types d’informations en ligne ; par exemple, sur les réseaux sociaux de Meta, les utilisateurs peuvent être arbitrairement interdits, tout comme l’algorithme du moteur de recherche de Google “décide” des actus à afficher en première page.

Google et Meta utilisent souvent cette hégémonie sur le Web 2.0 à leur propre profit. En pratique, les internautes n’acceptent pas de devoir payer pour rechercher des informations ou envoyer des courriers électroniques, donc les fournisseurs de ces services doivent trouver un autre moyen de gagner de l’argent. Une solution pour elles consiste à collecter un maximum de données sur les utilisateurs et à les vendre à d’autres entreprises, qui sont alors en mesure de faire des prédictions de toutes sortes. L’affaire Facebook-Cambridge Analytica en est un exemple : les informations de 87 millions de membres du réseau social auraient fait l’objet d’une fuite, qui a ensuite été exploitée pour effectuer des analyses et favoriser la campagne électorale de Donald Trump en 2016.

Ce n’est pas une coïncidence si nous parlons souvent de Big Data dans ce contexte, car la Big Tech traite d’énormes quantités de données, relatives à presque toute personne ayant accès ‘internet.

Les Big Tech sont donc potentiellement en mesure de contrôler toutes les données partagées en ligne par leurs utilisateurs, grâce à leur rôle de fournisseur d’espace de stockage, de courrier électronique, de comptes sociaux, de logiciels, de streaming, de commerce électronique et de nombreux autres outils que nous utilisons quotidiennement et auxquels nous laissons l’ombre de nos données. D’autres entreprises du Web 2.0 ont également dû s’adapter à cette nouvelle norme où “savoir [leur comportement]  est un pouvoir [sur les utilisateurs]”, en se servant d’outils, désormais réglementés, comme les cookies.

Le résultat de ce modèle est un échange de valeur souvent inégal entre les entreprises et les utilisateurs, comme dans le cas du scandale Facebook-Cambridge Analytica ou celui, plus récent, de TikTok. L’oligopole exercé par les autres membres des GAFAM (Apple, Amazon et Microsoft) est moins problématique car les gens acceptent plus facilement l’idée de payer pour des logiciels, du matériel et des produits de première nécessité. Bien qu’ils ne rechignent pas à collecter des données, du moins pour leur propre usage interne, ils n’ont pas historiquement fondé leur activité principale sur le big data. Quoi qu’il en soit, le contrôle de l’information n’est pas le seul problème du Web 2.0 qui a motivé le développement du Web 3.0.

Les problèmes du Web 2.0 vont au-delà des données

La collecte et le traitement plus ou moins licite des données n’est pas le seul aspect controversé du Web 2.0 et en général d’un Web centralisé en oligopole.

Les entreprises à l’origine des médias sociaux ont souvent été accusées de manipuler l’opinion publique par le biais de mesures de censure et de la création de la bulle de filtrage par le biais d’algorithmes de personnalisation de l’expérience. 

Deuxièmement, il est clair que la centralisation du Web 2.0 est un point faible en cas de défaillance de l’un de ces services dépendant des grandes technologies. Vous en avez certainement fait l’expérience par le passé : lorsqu’un système est en panne, c’est comme si la voix du monde s’éteignait, pour se rallumer lentement sous forme de murmure sur des canaux alternatifs.

Ce sont ces canaux alternatifs qui peuvent devenir la solution et la nouvelle normalité du Web 3.0.

Qu’est-ce que le Web 3.0 ?

Le Web 2.0 a vu l’avènement des smartphones, des réseaux sociaux et des technologies “cloud”, mais l’omniprésence de cette deuxième phase, c’est-à-dire la possibilité d’accéder à internet de n’importe où et à partir de n’importe quel appareil, caractérise également le Web 3.0. La troisième phase d’internet s’ouvre également au concept de parité, en s’appuyant sur des réseaux décentralisés, distribuant la puissance de calcul (edge computing) et les sources d’information (Internet des objets). L’internet de la troisième phase “comprend” les intentions de recherche, en organisant les informations à la manière d’un être humain, c’est pourquoi on l’appelle aussi “web sémantique” : la logique d’internet sera confiée à l’intelligence artificielle, qui “apprendra” activement grâce à l’apprentissage automatique.

Cependant, la forme que prendra le Web 3.0 et la définition de ce qu’il est n’est pas encore certaine. La première théorie d’un internet “intelligent”, qui lie les ressources en fonction de leur signification, remonte à 2006 : c’est encore Tim Berners Lee qui a inventé le terme “Web 3.0″, après avoir créé le WWW lui-même. Cette idée ne concernait que l’aspect “sémantique”, que nous expliquerons plus en détail par la suite, mais elle a subi au fil du temps divers ajouts : outre ceux déjà mentionnés, Gavin Wood a proposé l’application de la technologie blockchain à Internet, créant ainsi le concept de Web3. Il ne s’agit pas d’une alternative au Web 3.0, mais plutôt d’une déclinaison de celui-ci, liée au concept de décentralisation et de propriété du contenu.  

Le Web sémantique

Le Web 3.0, selon Tim-Berners Lee, est un réseau d’informations liées de manière significative : chaque ressource serait dotée de “métadonnées”, définissant son contexte sémantique, de sorte qu’elle serait agrégée en fonction de son contenu. En bref, les navigateurs n’afficheront plus de résultats basés sur des “mots clés”, mais comprendront réellement ce que l’utilisateur recherche et veut savoir. Cela n’est possible qu’en dotant le Web d’une intelligence artificielle, capable de raisonner comme l’humain, capable de “traitement du langage naturel”. Traitons donc de cette technologie et d’autres qui expliquent plus en détail ce qu’est (et sera) le Web 3.0.

L’intelligence artificielle et l’internet des objets

L’intelligence artificielle (IA) répondra à des questions complexes avec précision et rapidité, en sélectionnant le contenu le plus pertinent et de qualité, en reconnaissant et en excluant les “fake news”. Les applications de l’IA que vous connaissez peut-être déjà sont les chatbots (tels que ChatGPT), les moteurs de recherche avancés, les assistants virtuels (Siri et Alexa), la traduction automatique et de nombreux jeux vidéo où vous pouvez jouer “contre l’ordinateur”.

Les applications possibles de cette technologie sont presque infinies, d’autant plus si l’on considère la composante d’apprentissage automatique, utilisée en IA pour permettre aux logiciels d’apprendre par eux-mêmes et de s’auto-perfectionner. De cette manière, l’intelligence artificielle sera également capable d’identifier des relations, des schémas et des modèles, afin de “prédire” le comportement des utilisateurs et d’anticiper ses conséquences.

Les appareils intégrant l’IA, comme les voitures, les drones, les alarmes antivol intelligentes, les assistants numériques, sont des éléments de l’Internet des objets : un réseau distribué de matériel qui collecte des informations et interagit.

Le principal défi à l’heure actuelle est de rendre les applications d’IA capables d’apprendre et de s’auto-actualiser, car elles nécessitent toujours une intervention humaine, en tout cas pour l’instant. L’intelligence artificielle implique également d’énormes quantités de données disponibles, ainsi que leur traitement selon des algorithmes complexes ce qui nécessite une évolutivité croissante.

Informatique de pointe

C’est précisément pour répondre à la nécessité de traiter des données de plus en plus volumineuses que l’on parle aujourd’hui d’informatique périphérique, littéralement de “traitement à la périphérie”.

L’Edge computing est un terme technique pour désigner quelque chose que nous savons déjà, à savoir que ce sont nos smartphones, voitures, ordinateurs, smartwatches, tablettes, etc, qui traitent les données qu’ils génèrent, constituant ainsi une sorte de “supercalculateur décentralisé”. Avant l’essaimage des appareils intelligents connectés en réseau et l’Internet des objets ou IoT, on ne parlait que d’informatique dématérialisée.

L’informatique en nuage consiste en un seul fournisseur de services cloud, auquel les dispositifs sont connectés dans une structure hiérarchique et centralisée. C’est le fournisseur qui traite les données fournies par les appareils connectés ; lorsqu’il ne fait que stocker des informations, on parle de stockage cloud.

En comparaison, l’informatique de périphérie est une structure beaucoup plus décentralisée, le traitement des données étant délégué aux extrémités du système, c’est-à-dire aux appareils individuels. Cela accélère les processus, réduit le trafic de données et diminue les problèmes en cas d’interruption de la connexion.

Le système qui résultera de ces trois éléments constitutifs du Web 3.0 sera donc probablement décentralisé au niveau du traitement des données, mais restera essentiellement centralisé du point de vue des fournisseurs, du contrôle et de la propriété des données.

Qu’est-ce que le Web3 ?

Le Web3 est un “courant interne” du Web 3.0 : il fait référence à une version complètement décentralisée d’internet, dans laquelle tout le potentiel de la blockchain est exploité, afin que les utilisateurs puissent posséder et contrôler leurs données personnelles, leurs actifs numériques et leur identité numérique. L’environnement qui sera créé sera sans confiance et sans autorisation : n’importe qui pourra vraiment y participer, sans devoir faire confiance à des autorités intermédiaires, en faisant partie d’une structure peer-to-peer et non plus client-serveur. Enfin, le logiciel du nouvel internet sera essentiellement open-source : c’est déjà possible, car tout le monde peut “construire” de nouvelles applications sur les codes des cryptomonnaies.

Ce qui définit le Web 3.0, ce n’est donc plus la combinaison “lecture-écriture”, mais la triade “lecture-écriture-propriété” : une vision qui ne peut devenir réalité que grâce à la DLT et aux solutions qui en découlent, comme les NFT, les Dapps, les DAO et les cryptos.

En rapport