Che cos’è il Web 3.0 e come funziona?
1 febbraio, 2023
14 min
Ogni fase del Web ha segnato la tecnologia e la società, dando agli utenti online sempre più strumenti e possibilità. Esploriamo cos’è cambiato nel corso della storia di internet e che cos’è il Web 3.0, la terza fase che ci aspetta in futuro.
L’origine del Web 3.0: internet e il Web 1.0
Oggi internet è quasi un bisogno primario, un servizio che si dà per scontato e che pervade le nostre giornate. Prima di capire cos’è il Web 3.0, il suo terzo “periodo”, rintracciamo le origini di questa tecnologia: non è stata creata per l’uso pubblico, bensì è nata per essere sfruttata in ambito militare, proprio come la crittografia.
“Polemos [il conflitto] di tutte le cose è padre, di tutte le cose è re; e gli uni rivela dei, gli altri umani, gli uni schiavi, gli altri liberi” – Eraclito
È durante la guerra fredda, e soprattutto dopo il lancio dello Sputnik nello spazio, che il ministero della difesa statunitense cominciò ad investire in progetti di ricerca per trovare nuovi sistemi di comunicazione. Questa missione fu prima presa in carico dal ricercatore Paul Baran e in seguito fu affidata a un gruppo di ricerca dedicato, chiamato ARPA. Se hai letto la storia dei domini internet, questo nome ti sarà familiare.
ARPA, tra il 1967 e il 1972, creò il primo network di computer, usando le linee telefoniche. La rete ARPANET collegava tra loro diversi computer di università e istituti che partecipavano al progetto. ARPA continuò il suo lavoro d’innovazione creando (nel 1973) il protocollo TCP/IP, che i ricercatori usarono per implementare un network pubblico. In pratica, il TCP/IP è l’unione di due protocolli fondamentali per Internet, che permettono la comunicazione: il Transmission Control Protocol (TCP) e l’Internet Protocol (IP). In poche parole, i server che ospitano i contenuti delle pagine web sono riconosciuti da un indirizzo IP, così che i browser possano individuarli e collegarsi ad essi attraverso il TCP.
Curiosità
Il termine internet venne usato per la prima volta nel 1974 come abbreviazione di “internetworking”. Lo troviamo nei documenti che presentavano il funzionamento del protocollo TCP/IP.
Dopo anni di sviluppo sotto una direzione prevalentemente militare, nel 1992 la National Science Foundation americana decise che internet non sarebbe stato un servizio statale. Un tentativo di decentralizzazione, che tuttavia potrebbe essere concretizzato solo dal Web 3.0. In ogni caso, da quel momento l’accesso ad internet sarebbe stato offerto da aziende dedicate: i fornitori internet commerciali che conosciamo oggi, chiamati tecnicamente ISP (Internet Service Provider).
Questo evento, insieme all’invenzione del World Wide Web, portò internet alla fase della commercializzazione. In particolare, il network globale “WWW” fu creato da Tim Berners-Lee, un ricercatore del CERN, nel 1991. Al protocollo TCP/IP, Tim aggiunse 3 strumenti fondamentali per il “Web 1.0” e Internet in generale:
- HTML (HyperText Markup Language), il linguaggio di formattazione del web.
- URI/URL (Uniform Resource Identifier o Locator): un indirizzo unico per individuare le risorse sul web. È il “link” ai siti online, una stringa di cui fa parte anche il dominio Internet.
- HTTP (HyperText Transfer Protocol): il protocollo per recuperare i contenuti delle pagine Internet dai server, collaborando con il TCP/IP.
Il Web 1.0, la prima fase di Internet, era pensato per la condivisione di informazioni, principalmente nella comunità scientifica, e l’esperienza era essenzialmente “passiva”. I primi utenti, infatti, non potevano interagire con le pagine Internet o modificarle, ma semplicemente leggere e osservare immagini e testi statici. L’esclusiva “consultazione” definisce il Web 1.0 come “read-only” (sola lettura) e, a tale scopo, nel 1994 è stato creato il primo browser, Mosaic, poi copiato da Netscape, la prima azienda pubblica tra le protagoniste della famosa bolla delle dotcom.
Allo scoppio della bolla nel 2000, l’opinione pubblica pensava che il web fosse un fenomeno passeggero, senza un vero futuro. Solo il 6,7% della popolazione mondiale allora aveva accesso ad internet. Molte aziende fallirono, ma gli avanzamenti tecnologici ottenuti durante la bolla restarono.
Curiosità
L’innovazione come conseguenza di una bolla speculativa non è un fenomeno unico. Durante e in seguito alla corsa all’oro, non furono tanto i minatori a guadagnare, ma i commercianti che vendevano loro pale e picconi, sviluppando nuove soluzioni estrattive.
Così le aziende cominciarono ad usare le prime API, per sviluppare applicazioni su internet, e Ward Cunningham inventò le pagine wiki, ossia modificabili da chiunque. Il modello wiki finalmente trasformò l’internet “sola-lettura” nell’internet “leggi-scrivi” (read-write) dei giorni nostri: il Web 2.0, caratterizzato dalla creazione di contenuti da parte di utenti, anche senza alcuno scopo commerciale.
Ciò che in questi anni motivava l’avanzamento della tecnologia era anche l’estremo bisogno di semplificare le transazioni, tramite quello che sarebbe stato l’e-commerce. Ma questa è un’altra storia, continuiamo piuttosto la nostra, che ci condurrà fino a scoprire cos’è il Web 3.0.
Web 2.0: Big Tech e Big Data
Dal 2004 ad oggi, sono avvenuti i cambiamenti più dirompenti per la storia di internet. L’accesso al web si è spostato sui dispositivi mobili, le immagini sono il medium che ha acquisito sempre più importanza e i social media hanno creato una sorta di metaverso; una realtà parallela a cui tutti possono partecipare, condividere e interagire. In una parola: Web 2.0, termine coniato da Tim o’Reilly per indicare la seconda fase di internet, dove il flusso di informazioni ha 2 canali. L’User Generated Content (UGC) aggiunge la creazione di contenuti alla semplice lettura, rendendo il web un ecosistema dinamico.
La diffusione a tappeto della tecnologia internet, oggi disponibile a (quasi) tutti, tuttavia ha dato terreno fertile alle attività criminali, che tentano di colpire i soggetti online. Per riconoscerle puoi leggere l’articolo dedicato a Phishing e Schemi Ponzi, oppure consultare le FAQ a tema sicurezza.
Un’altra componente che cambia il paradigma del web è il controllo da parte di entità centralizzate, come l’ICANN che gestisce il DNS, e il monopolio delle Big 5, o Big Tech: Alphabet (Google), Amazon, Apple, Meta (Facebook) e Microsoft. L’influenza di questi colossi è palese, tanto che potrebbero censurare diversi tipi di informazione online; ad esempio, sui social di Meta gli utenti possono essere arbitrariamente bannati, così come l’algoritmo del motore di ricerca Google “decide” quali notizie mostrare in prima pagina.
Google e Meta, inoltre, spesso utilizzano questa egemonia sul Web 2.0 per il loro profitto. In pratica, gli utenti di internet non accettano di dover pagare la ricerca di informazioni o l’invio di email, di conseguenza i fornitori di questi servizi devono trovare un altro modo per ottenere delle entrate. La soluzione per loro è quindi raccogliere il più grande numero possibile di dati sugli utenti per venderli ad altre società, in grado così di fare previsioni di vario tipo. Ne è un esempio il caso Facebook-Cambridge Analytica, per cui sarebbero state divulgate informazioni di 87 milioni di iscritti al social network, sfruttate poi per condurre analisi e favorire la campagna elettorale di Donald Trump nel 2016.
Non a caso in questo contesto si parla spesso di Big Data, perché le Big Tech si occupano di enormi quantità di dati, relative a pressoché chiunque abbia accesso ad internet.
Big Data
Set di dati di volumi, varietà e velocità di generazione tanto grandi da superare la capacità di elaborazione dei software tradizionali di data analysis.
Le Big Tech, quindi, sono potenzialmente in grado di controllare qualsiasi dato condiviso online dai loro utenti, grazie al loro ruolo di provider per gli spazi di archiviazione, email, account social, software, streaming, e-commerce e molti altri strumenti che utilizziamo quotidianamente, ai quali lasciamo le nostre data shadow. Anche le altre aziende del Web 2.0 si sono dovute adattare a questo nuovo standard in cui “sapere [i loro comportamenti] è potere [sugli utenti]”, aiutandosi con strumenti, oggi regolati, quali i cookie.
Shadow Data vs Data shadow
Il termine Shadow data si riferisce a dati archiviati da un’azienda fuori dal suo sistema strutturato, sicuro e aggiornato, e di conseguenza non protetti da terzi. Data shadow invece si riferisce all’insieme di “tracce” di dati che un utente lascia tramite le sue azioni quotidiane online.
Il risultato di questo modello è uno scambio di valore spesso impari tra aziende e utenti, come nel caso dello scandalo Facebook-Cambridge Analytica o quello più recente di TikTok. L’oligopolio che esercitano gli altri membri dei Big 5 (Apple, Amazon e Microsoft) risulta meno problematico perché le persone accettano più facilmente l’idea di pagare software, hardware e beni di prima necessità. Sebbene non si esimano dalla pratica di raccogliere dati, perlomeno per il proprio utilizzo interno, questi storicamente non hanno fondato il loro business primario sui big data. In ogni caso, il controllo delle informazioni non è l’unico problema del Web 2.0 che ha motivato lo sviluppo del Web 3.0.
I problemi del Web 2.0 oltre i dati
La raccolta e il trattamento più o meno lecito di dati non è l’unico aspetto controverso del Web 2.0 e in generale di un Web centralizzato in un oligopolio.
Le aziende dietro i social media sono state spesso accusate di aver manipolato l’opinione pubblica tramite misure di censura e della creazione della cosiddetta bolla di filtraggio attraverso algoritmi di personalizzazione dell’esperienza.
In secondo luogo, è chiaro come la centralizzazione del Web 2.0 sia un punto debole in casi di malfunzionamento di qualsiasi di questi servizi dipendenti dalle Big Tech. Avrai sicuramente sperimentato questa eventualità in passato: quando qualche sistema è down è come se si spegnesse la voce del mondo, che si riaccende piano piano come un mormorio su canali alternativi.
Sono questi canali alternativi che possono diventare la soluzione e la nuova normalità del Web 3.0.
Che cos’è il Web 3.0?
Il Web 2.0 ha visto l’avvento degli smartphone, dei social network e delle tecnologie in “cloud”, ma il senso di ubiquità della seconda fase, ovvero la possibilità di accedere ad Internet da dovunque e da qualsiasi dispositivo, caratterizza anche il Web 3.0. La terza fase di Internet, tuttavia, si apre anche al concetto di parità, basandosi su reti decentralizzate, distribuendo la potenza di calcolo (edge computing) e le fonti di informazione (Internet of Things). L’internet della terza fase “capisce” gli intenti di ricerca, organizzando le informazioni in modo simile all’uomo, per questo è anche detto “web semantico”: la logica di Internet sarà affidata all’intelligenza artificiale, che “imparerà” attivamente grazie al machine learning.
La forma che prenderà il Web 3.0 e definirà cos’è, tuttavia, non è ancora certa. La prima teoria di un internet “intelligente”, che lega le risorse in base al loro significato, risale al 2006: è ancora Tim Berners Lee ad aver coniato il termine Web 3.0, dopo aver creato lo stesso WWW. Questa idea riguardava il solo aspetto “semantico”, che spiegheremo meglio in seguito, ma nel tempo ha subito varie integrazioni: oltre alle già citate, Gavin Wood ha proposto l’applicazione della tecnologia blockchain ad internet, creando il concetto di Web3. Questo non è un’alternativa al Web 3.0, ma piuttosto una sua declinazione, legata al concetto di decentralizzazione e di proprietà dei contenuti.
Il Web semantico
Il Web 3.0, secondo Tim-Berners Lee, è una rete di informazioni collegate in modo significativo: ogni risorsa avrebbe dei “metadati”, che ne definiscono il contesto semantico, così da essere aggregate in base al loro contenuto. In poche parole, i browser non mostreranno più i risultati in base a “keyword” ma capiranno davvero cosa l’utente cerca e vuole sapere. Questo è possibile soltanto dotando il Web di un’intelligenza artificiale, capace di ragionare come l’uomo, ovvero in grado di effettuare il “Natural Language Processing”. Trattiamo dunque questa e le altre tecnologie che spiegano più nel dettaglio cos’è (e sarà) il Web 3.0.
Intelligenza Artificiale e Internet of Things
L’Intelligenza Artificiale (IA) risponderà accuratamente e velocemente a domande complesse, selezionando i contenuti più rilevanti e di qualità, riconoscendo ed escludendo le cosiddette “fake news”. Applicazioni dell’IA con cui potresti già essere familiare sono i chatbot (come ChatGPT), i motori di ricerca più avanzati, gli assistenti virtuali (Siri e Alexa), la traduzione automatica e tantissimi videogiochi in cui si può giocare “contro il computer”.
Le applicazioni possibili di questa tecnologia sono quasi infinite, tanto più se si considera la componente del machine learning, utilizzata nell’IA per permettere ai software di imparare da soli ed auto-perfezionarsi. In questo modo l’Intelligenza Artificiale potrà anche individuare relazioni, schemi e modelli, così da “prevedere” i comportamenti degli utenti e anticiparne le conseguenze.
I dispositivi che hanno l’IA integrata, come automobili, droni, antifurto smart, gli assistenti digitali, sono elementi dell’Internet of Things: una rete distribuita di hardware che raccolgono informazioni ed interagiscono.
La sfida principale in questo momento è quella di rendere le applicazioni AI in grado di imparare e auto-aggiornarsi, dato che al momento hanno bisogno dell’intervento umano. L’intelligenza artificiale, inoltre, sottintende enormi quantità di dati a disposizione, oltre alla loro elaborazione secondo algoritmi complessi: questo richiede crescente scalabilità.
Edge computing
Proprio per rispondere al bisogno di elaborare dati sempre più big, si parla oggi di edge computing, letteralmente “elaborazione al margine”.
L’edge computing è un termine tecnico per indicare qualcosa che già conosciamo, ossia che sono proprio i nostri smartphone, auto, computer, smartwatch, tablet ecc a processare i dati che loro stessi generano, costituendo una sorta di “supercomputer decentralizzato”. Prima del pullulare di dispositivi smart connessi alla rete e dell’Internet of Things o IoT, tuttavia, si parlava solo di cloud computing.
Il cloud computing consiste in un unico fornitore di servizi in cloud, a cui sono connessi i dispositivi in una struttura gerarchica e centralizzata. È il fornitore che si occupa di elaborare i dati forniti dai dispositivi connessi; quando si limita a conservare informazioni, si parla invece di cloud storage.
L’edge computing in confronto è una struttura molto più decentralizzata, in quanto l’elaborazione dei dati viene delegata verso le estremità del sistema, ossia i singoli dispositivi. Questo velocizza i processi, riduce il traffico di dati e minori problemi in caso di interruzioni della connessione.
Il sistema che risulterà da questi 3 elementi costitutivi del Web 3.0 sarà quindi probabilmente decentralizzato a livello di elaborazione dei dati, ma rimarrà sostanzialmente centralizzato dal punto di vista dei provider, del controllo e della proprietà dei dati.
Che cos’è il Web3?
Il “Web3”, come anticipato, è una “corrente interna” al Web 3.0: fa riferimento ad una versione completamente decentralizzata di Internet, in cui vengono sfruttate tutte le potenzialità della blockchain, così che gli utenti possano possedere e controllare i propri dati personali, i propri beni digitali e la propria identità digitale. L’ambiente che si creerà sarà trustless e permissionless: potrà parteciparvi davvero chiunque, senza necessità di riporre fiducia in autorità intermediarie, inserendosi in una struttura peer-to-peer e non più client-server. Infine, i software del nuovo internet saranno essenzialmente open-source: questo è già possibile, perché chiunque può “costruire” nuove applicazioni sui codici delle criptovalute.
Ciò che definisce cos’è il Web 3.0, dunque, non è più la combinazione “read-write”, ma la terna “read-write-own”: una visione che può diventare realtà solo tramite le DLT e le soluzioni che ne derivano, come gli NFT, le Dapp, le DAO e le crypto.