Close

La singolarità economica: prepariamoci a dire addio al capitalismo come lo conosciamo

Welcome-Globe-1

Per la rubrica Antropocene proponiamo un estratto liberamente tradotto dal libro The Syntellect Hypothesis: Five Paradigms of the Mind’s Evolution scritto dal futurista, filosofo e saggista Alex Vikoulov.

Nota che non sostengo alcun modello particolare, sto solo dicendo che stiamo rapidamente superando la classica forma di capitalismo. Credo che l’evoluzione economica sia simile a qualsiasi altro processo naturale di sviluppo dei modelli, quindi è applicabile anche allo sviluppo economico. L’evoluzione economica non si esaurisce con il capitalismo. Entro la metà del secolo, probabilmente il geo-post-capitalismo combinerà economia di mercato, elementi socialisti e persino una pianificazione centrale progettata dall’intelligenza artificiale in un contesto decentralizzato delle sue componenti globali. L’utilitarismo evolutivo – assicurare il maggior bene al maggior numero – sembra un’evidente eventualità.

Entro la metà del secolo, probabilmente il geo-post-capitalismo combinerà economia di mercato, elementi socialisti e persino una pianificazione centrale progettata dall’intelligenza artificiale in un contesto decentralizzato delle sue componenti globali.

Fintanto che i costi delle comunicazioni e del calcolo continuano a scendere a causa dei progressi esponenziali della tecnologia, le reti di comunicazione diventano globali e onnipresenti e man mano che le reti proliferano, sostituiscono gradualmente la materia con la mente, cioè l’intelligenza di rete. L’accesso sta diventando più importante della proprietà. In alcune situazioni sarebbe più economicamente ottimale affittare che possedere, in altre situazioni condividere e generare reddito passivo.

Alcuni epicentri di innovazione, come la Silicon Valley, venerata come la capitale tecnologica americana, dove ho la fortuna di vivere, hanno un’influenza fuori misura sull’economia mondiale, i mercati azionari e la cultura. Questo piccolo tratto di terra da San Jose a San Francisco ospita tre delle cinque società più preziose del mondo: giganti della tecnologia come Apple, Facebook, Google, Intel e Oracle rivendicano tutti la Silicon Valley come luogo di nascita e dimora. La Bay Area di San Francisco ha la 19ma economia al mondo per dimensioni, al di sopra della Svizzera e dell’Arabia Saudita. E la California è ora la quinta più grande economia, superando il Regno Unito nel 2018.

Dall’altra parte dell’Oceano Pacifico, la Cina collettivista rivaleggia con gli Stati Uniti in termini di generazione di Big Data. Inoltre, la Cina sembra porre maggiormente l’accento sullo sviluppo della robotica – macchine empatiche – per integrare i robot e, di conseguenza, le AGI nel tessuto della società, mentre finora l’attenzione degli Stati Uniti è stata incarnata dall’IA. La Cina potrebbe essere più vicina alla realizzazione del cervello globale, incarnato nell’Internet of Things, nell’Internet of NanoThings, nell’Internet quantistico e nel Virtual Metaverse rispetto alla maggior parte dei paesi. Ma allo stesso tempo, nulla di tutto ciò avrà davvero importanza: comunque entro la metà del secolo gli stati-nazione svaniranno, proprio come le mura feudali della città non sono più che una peculiarità storica.

Entro la metà del secolo gli stati-nazione svaniranno, proprio come le mura feudali della città non sono più che una peculiarità storica.

Il Rapporto globale sullo sviluppo sostenibile delle Nazioni Unite del 2019 suggerisce che dobbiamo seriamente considerare di apportare cambiamenti drastici ai nostri sistemi economici. “[I] modelli economici che informano il processo decisionale politico nei paesi ricchi ignorano quasi completamente le dimensioni energetiche e materiali dell’economia”, hanno scritto i ricercatori nel rapporto. “Le economie hanno esaurito la capacità degli ecosistemi planetari di gestire i rifiuti generati dall’uso di energia e materiali”. In sintesi, forse è il momento di accettare che non possiamo in qualche modo mantenere una crescita economica senza fine su un pianeta finito.

Ma cosa succede se con la nuova ondata di tecnologie, come la nanotecnologia che ci consentirebbe di riprogrammare la materia a livello molecolare, potremmo superare la scarsità una volta per tutte? Il design diventerebbe quindi la parte più importante dall’inizio alla fine del prodotto che può essere liberamente condivisa o avere un premio sul mercato. Ad ogni modo, questo smantellerà l’attuale sistema sociale, economico e politico, perché diventerà irrilevante; ogni istituzione, ogni sistema di valori, ogni aspetto della nostra vita sono stati governati dalla scarsità: il problema di distribuire una quantità finita di “roba”. Non ci sarà bisogno di nessuna delle istituzioni sociali di oggi. In altre parole, quando la nanotecnologia e la realtà ultra realistica sarà all’ordine del giorno, il sistema costruito sulla scarsità si sgretolerà e ciò preannuncerebbe la prossima “singolarità economica”.

Il futuro dell’energia è qui – e non è rinnovabile

Welcome-Globe-1

Per la rubrica “Antropocene” proponiamo un articolo liberamente tradotto da Medium che presenta vantaggi e questioni di un’opzione energetica poco considerata, ma dall’altissimo potenziale, per contribuire all’interruzione delle emissioni di carbonio.

Da un po’ di tempo “rinnovabile” è diventato sinonimo di “libero dal carbonio”. Ma il solare e l’eolico non sono gli unici mezzi per produrre energia senza emissioni di CO2. Le energie rinnovabili sono importanti e dovrebbero sicuramente far parte del mix energetico di ogni paese. Tuttavia, non dovrebbero essere al centro dell’intero futuro dell’energia condivisa. Le energie rinnovabili sono intermittenti e richiedono un’enorme stoccaggio energetico nonché enormi tratti di terra o responsabilità del consumatore per installazioni sulle proprie proprietà. Fa eccezione l’idroelettrico, che può essere la migliore forma complessiva di energia grazie al suo potere affidabile e privo di carbonio. Eppure anche l’idroelettrico ha i suoi lati negativi, come gli impatti dannosi sugli ecosistemi locali e le limitazioni geografiche. La linea di fondo è che tutti i sistemi energetici dovrebbero avere un ruolo nel mix energetico: eolico, solare, idroelettrico e, nonostante molte discussioni, nucleare.

L’energia nucleare ha risparmiato milioni di tonnellate di CO2 dall’emissione nell’atmosfera per quasi i tre quarti di secolo. Ma ciò ha comportato molti gravi inconvenienti, come i rifiuti radioattivi e il potenziale di fusione del nocciolo o altri incidenti gravi. Chiaramente, questa non è una forma ideale di energia per il futuro, anche se può aiutare a ridurre drasticamente la nostra produzione di carbonio. Aumentare la produzione nucleare significherebbe aumentare la quantità di rifiuti e aumentare le possibilità di ulteriori incidenti simili a Fukushima o Chernobyl. E se ci fosse un modo per sfruttare l’elettricità priva di carbonio creata dalla scissione degli atomi senza sprechi, fusione del nocciolo, costi elevati e torri di raffreddamento dall’aspetto inquietante?

Tale opzione è possibile, sebbene non sia operativa in nessuna parte del mondo. Questo perché finora non si è dimostrata commercialmente praticabile su nessuna scala – il che, combinato con la paura della parola “nucleare” e la convinzione quasi dogmatica che l’unica forma di energia priva di carbonio sia l’energia rinnovabile, ne ha impedito l’implementazione.

Dovremmo davvero esplorare se questa forma di energia può aiutarci con il nostro crescente problema del carbonio atmosferico.

Perché i piccoli reattori modulari sono l’ideale

Dimentica le centrali elettriche deprimenti, costose e contestate dei tipici ritratti dell’energia nucleare. Questi modelli più vecchi e obsoleti non sono la strada da percorrere. Il futuro dell’energia pulita può essere molto più piccolo e meno minaccioso. E potrebbe includere molti piccoli reattori modulari (SMR), in particolare i reattori al fluoruro di torio liquido (LFTR).

Il torio è il numero 90 nella tavola periodica degli elementi, due posti dietro l’uranio. È una sostanza debolmente radioattiva che è molto più abbondante dell’uranio presente in natura – e ci sono numerosi vantaggi nell’usarlo come combustibile rispetto a quest’ultimo. No, non è rinnovabile, ma una pallina da golf di torio potrebbe, in teoria, alimentare una piccola città per decenni. E il fatto che non sia rinnovabile non dovrebbe essere un aspetto negativo. Le energie rinnovabili, ad eccezione dell’idroelettrico, sono intermittenti; gli LFTR fornirebbero energia di base alla rete per il backup di energia solare ed eolica. Diventa ancora più essenziale avere una nuova forma scalabile di energia priva di carbonio se seguiamo il percorso di elettrificare tutto per ridurre l’uso di combustibili fossili. Questo perché le reti elettriche dovranno espandersi triplicando o quadruplicando la loro attuale capacità (o più) per far fronte all’afflusso di pratiche dipendenti dall’elettricità, come gli autoveicoli e la produzione industriale. Gli LFTR sono privi di emissioni di carbonio, quasi privi di rifiuti, affidabili, efficienti e teoricamente sicuri. Sameer Surampalli fa un ottimo lavoro nel descrivere alcuni dei dettagli più tecnici della potenza del torio:

Una disposizione tipica per un moderno reattore a base di torio ricorda un reattore convenzionale, sebbene con notevoli differenze. Innanzitutto, il torio-232 e l’uranio-233 vengono aggiunti ai sali di fluoruro nel nocciolo del reattore. Quando si verifica la fissione, il calore e i neutroni vengono rilasciati dal nucleo e assorbiti dal sale circostante. Questo crea un isotopo uranio-233, poiché il torio-232 assume un neutrone aggiuntivo. Il sale si scioglie in uno stato fuso, che fa funzionare uno scambiatore di calore, riscaldando un gas inerte come l’elio, che spinge una turbina a generare elettricità. Il sale irradiato scorre in un impianto di post-elaborazione, che separa l’uranio dal sale. L’uranio viene quindi rimandato al nucleo per riavviare il processo di fissione.

Ci sarebbero anche vantaggi in termini di costi che entrerebbero in gioco se venissero commissionati reattori al torio, con LFTR che necessitavano di meno costi per funzionare rispetto ai reattori a combustibile solido (una volta operativi, i sali costerebbero all’incirca $ 150 / kg e il torio costerebbe circa $ 30 / kg) . Inoltre lo stesso Surampalli afferma:

Se il torio diventa popolare, questo costo non farà che diminuire poiché il torio è ampiamente disponibile ovunque nella crosta terrestre. Il torio si trova in una concentrazione oltre 500 volte maggiore dell’uranio fissile-235. Il torio, storicamente è stato messo da parte come sottoprodotto dell’estrazione di metalli in terre rare. Con l’estrazione, si poteva ottenere abbastanza torio per alimentare LFTR per migliaia di anni. Per un impianto da 1 GW, il costo del materiale per il carburante sarebbe di circa $ 5 milioni. Poiché gli LFTR usano il torio allo stato naturale, non sono richiesti costosi processi di arricchimento del combustibile o fabbricazione di barre di combustibile solido, il che significa che i costi del combustibile sono significativamente inferiori rispetto a un reattore a combustibile solido comparabile. In un reattore perfettamente funzionante, il ritrattamento post-chimico consentirebbe a un LFTR di consumare in modo efficiente quasi tutto il suo combustibile, lasciando pochi rifiuti o sottoprodotti a differenza di un reattore convenzionale.

Questi benefici non dovrebbero essere presi alla leggera. Se siamo seriamente intenzionati a fermare le emissioni di CO2 – cosa che dovremmo tutti sostenere – allora questa tecnologia dovrebbe avere la giusta possibilità di dimostrare se è in grado di fornire energia di base alle reti elettriche in tutto il mondo.

Perché il nucleare SMR è più sicuro del nucleare tradizionale

L’energia nucleare LFTR piccola e modulare affronta quasi tutti i problemi associati all’energia nucleare tradizionale. Ci sono meno rifiuti, funziona a pressione atmosferica e utilizza sale liquido anziché refrigeranti ad alta pressione. Ha anche un affidabile sistema di spegnimento passivo.

Gli LFTR generano una quantità significativamente inferiore di rifiuti radioattivi rispetto ai reattori di terza generazione e possono riutilizzare l’uranio separato, rendendo il reattore SMR quasi autosufficiente una volta avviato. A differenza dei tradizionali sistemi nucleari ad alta pressione, gli LFTR sono progettati per funzionare come sistemi a bassa pressione, che sono molto più stabili, e i sali di fluoro hanno punti di ebollizione molto alti, rendendoli resistenti a forti o improvvisi aumenti di pressione.

La combinazione di un sistema a bassa pressione e un alto punto di ebollizione limita notevolmente la possibilità di un’esplosione nell’edificio contenitore. Gli LFTR non richiedono un raffreddamento massiccio: possono essere posizionati ovunque e possono essere raffreddati ad aria, motivo per cui sono considerati piccoli reattori modulari. Questi particolari SMR sono intrinsecamente sicuri: se il nucleo dovesse surriscaldarsi, un sistema di spegnimento passivo abilitato per gravità manderebbe il sale riscaldato e irradiato in una camera di contenimento sotterranea e spegnerebbe il reattore. E se c’è una cosa su cui si può fare affidamento in questo universo, è la gravità.

Gli aspetti negativi

L’energia a base di torio non è priva di difetti. Le principali lamentele degli attivisti anti-nucleari e degli scienziati scettici nel merito sono che non sono testati, non sono praticabili e rappresentano semplicemente una distrazione per lo status quo dell’attuale industria nucleare. Queste affermazioni non sono prive di fondamento – il fatto che finora non sia stato testato, rende giustificabile la critica, e sta effettivamente distogliendo l’attenzione sulla situazione nucleare corrente, intenzionalmente o meno. E le affermazioni sulla sicurezza, sebbene solide in teoria, devono ancora essere testate in tutti gli scenari del mondo reale. A tal proposito Surampalli, un sostenitore o SMR di torio, scrive:

Gli LFTR presentano alcune sfide. Vi sono delle lacune significative nella ricerca e nei materiali necessari per gli LFTR. Le strutture chimiche di post-trattamento, che separerebbero l’uranio dai sali fusi per il riutilizzo, non sono ancora state costruite in modo fattibile. Ogni reattore, per essere avviato, richiederebbe dell’uranio altamente arricchito (come l’uranio-235) che è molto costoso.

Egli inoltre afferma che “qualsiasi residuo radioattivo non può essere utilizzato per creare armi “, ma questa è un’affermazione dibattuta. Alcuni scienziati sostengono che l’U-233 creato nei reattori al torio potrebbe essere usato per creare armi atomiche se estratto nel modo giusto. Altri affermano che ciò non è possibile. Ad ogni modo, sarebbe una buona idea proteggere gli LFTR da interferenze esterne, indipendentemente dalle loro capacità di proliferazione. Un articolo del di quasi un decennio fa delinea il motivo per cui il torio non è così “verde” come sembra, e alcuni dei punti in esso contenuti sono corretti.

E adesso?

Il potere del torio non è un “proiettile d’argento”. Non esiste una cura completa che può essere attuata e risolvere il problema climatico in un giorno. Pur se il potere della fusione nucleare dovesse diventare una realtà (il che potrebbe richiedere anche sessant’anni o più), avrebbe una sua serie di problemi da superare. Tuttavia, se vogliamo seriamente fermare le emissioni di carbonio con la tecnologia disponibile, dobbiamo considerare gli LFTR. Possiamo etichettare qualsiasi tecnologia non rinnovabile come blasfema continuando nel frattempo a emettere carbonio. Ma possiamo anche avanzare con tecnologie non testate e ad alta ricompensa che potrebbero essere una parte enorme della soluzione al più urgente problema globale che gli esseri umani abbiano mai creato.

Ci interessa di più attenerci alla nostra ideologia piuttosto che implementare le migliori opzioni disponibili per ridurre le emissioni di carbonio? Temo sia la prima. Spero di sbagliarmi.

 

Perchè è importante il decentramento per internet

blockchain-3277335_1280

Articolo liberamente tradotto da Medium

Le prime due epoche di Internet

Durante la prima era di Internet – dagli anni ’80 ai primi anni 2000 – i servizi Internet sono stati costruiti su protocolli aperti che erano controllati dalla comunità di Internet. Ciò significava che persone o organizzazioni potevano aumentare la loro presenza su Internet sapendo che le regole del gioco non sarebbero cambiate in seguito. Enormi proprietà web sono state avviate durante questa era tra cui Yahoo, Google, Amazon, Facebook, LinkedIn e YouTube. In tale processo, l’importanza di piattaforme centralizzate come AOL è notevolmente diminuita.

Durante la seconda era di Internet, dalla metà degli anni 2000 ad oggi, le società tecnologiche a scopo di lucro – in particolare Google, Apple, Facebook e Amazon (GAFA) – hanno creato software e servizi che hanno rapidamente superato le capacità dei protocolli aperti. La crescita esplosiva degli smartphone ha accelerato questa tendenza quando le app mobili sono diventate la maggior parte dell’uso di Internet. Alla fine gli utenti sono passati da servizi aperti a questi servizi più sofisticati e centralizzati. Anche quando gli utenti continuavano ad accedere a protocolli aperti come il Web, in genere lo facevano mediati dal software e dai servizi GAFA.

La buona notizia è che miliardi di persone hanno avuto accesso a tecnologie straordinarie, molte delle quali erano gratuite. La cattiva notizia è che diventa molto più difficile per le startup, i creatori e altri gruppi aumentare la loro presenza su Internet senza preoccuparsi delle piattaforme centralizzate che cambiano le regole, portando via il loro pubblico e profitti. Questo a sua volta ha soffocato l’innovazione, rendendo Internet meno interessante e dinamico. La centralizzazione ha anche creato tensioni sociali più ampie, che vediamo nei dibattiti su argomenti come notizie false, bot sponsorizzati dallo stato, “nessuna piattaforma” di utenti, leggi sulla privacy dell’UE e pregiudizi algoritmici. Questi dibattiti sono destinati ad intensificarsi nei prossimi anni.

“Web 3”: la terza era di Internet

Una risposta a questa centralizzazione è quella di imporre una regolamentazione del governo alle grandi società Internet. Questa risposta presuppone che Internet sia simile alle reti di comunicazione tradizionali come reti di telefoni, radio e TV. Ma le reti basate sull’hardware del passato sono sostanzialmente diverse da Internet che è invece una rete basata sul software. Una volta costruite le reti basate su hardware, sono quasi impossibili da riprogettare. Le reti basate su software possono essere riprogettate attraverso l’innovazione imprenditoriale e le forze di mercato.

Internet è l’ultima rete basata su software, costituita da un livello centrale relativamente semplice che collega miliardi di computer completamente programmabili ai margini. Il software è semplicemente la codifica del pensiero umano e come tale ha uno spazio di progettazione quasi illimitato. I computer connessi a Internet sono, in linea di massima, liberi di eseguire qualunque software scelgano i loro proprietari. Qualunque cosa si possa immaginare, con la giusta serie di incentivi, può propagarsi rapidamente su Internet. L’architettura di Internet è il punto d’incontro tra creatività tecnica e progettazione di incentivi.

Internet è ancora agli inizi della sua evoluzione: i principali servizi Internet saranno probabilmente quasi completamente riqualificati nei prossimi decenni. Ciò sarà reso possibile dalle reti cripto-economiche, una generalizzazione delle idee inizialmente introdotte da Bitcoin e ulteriormente sviluppate in Ethereum . Le reti crittografiche combinano le migliori caratteristiche delle prime due epoche Internet: reti decentralizzate e gestite dalla comunità con capacità che alla fine supereranno quelle dei servizi centralizzati più avanzati.

Perché il decentramento?

Il decentramento è un concetto comunemente frainteso. Ad esempio, a volte si dice che il motivo per cui i sostenitori della crittografia favoriscono il decentramento è resistere alla censura del governo o a causa delle opinioni politiche libertarie. Questi non sono i motivi principali per cui il decentramento è importante.

Diamo un’occhiata ai problemi con le piattaforme centralizzate. Le piattaforme centralizzate seguono un ciclo di vita prevedibile. Quando iniziano, fanno tutto il possibile per reclutare utenti e complementi di terze parti come sviluppatori, aziende e organizzazioni multimediali. Lo fanno per rendere i loro servizi più preziosi, poiché le piattaforme (per definizione) sono sistemi con effetti di rete su più lati. Man mano che le piattaforme aumentano la curva a S dell’adozione, il loro potere sugli utenti e sulle terze parti cresce costantemente.

Quando raggiungono il vertice della curva a S, le loro relazioni con i partecipanti alla rete cambiano da somma positiva a somma zero. Il modo più semplice per continuare a crescere sta nell’estrazione di dati dagli utenti e nella competizione con i complementi rispetto al pubblico e ai profitti. Esempi storici di questo sono Microsoft contro Netscape, Google contro Yelp, Facebook contro Zynga e Twitter contro i suoi clienti di terze parti. I sistemi operativi come iOS e Android si sono comportati meglio, anche se richiedono ancora una buona tassa del 30%, rifiutano le app per motivi apparentemente arbitrari e sfruttano a piacimento la funzionalità delle app di terze parti.

Per le terze parti, questa transizione dalla cooperazione alla competizione sembra una sorta di esca. Nel tempo, i migliori imprenditori, sviluppatori e investitori sono diventati diffidenti nei confronti delle piattaforme centralizzate. Ora abbiamo decenni di prove che continuare a puntare su di esse finirà con una delusione. Inoltre, gli utenti rinunciano alla privacy, al controllo dei propri dati e diventano vulnerabili alle violazioni della sicurezza. Questi problemi con le piattaforme centralizzate probabilmente diventeranno ancora più critiche nel prossimo futuro.

L’ascesa delle cripto-reti

Le cripto-reti sono reti costruite su Internet che 1) utilizzano meccanismi di consenso come blockchain per mantenere e aggiornare il proprio stato 2) utilizzare criptovalute (monete / gettoni) per incentivare i partecipanti al consenso (minatori / validatori) e altri partecipanti alla rete. Alcune reti crittografiche, come Ethereum, sono piattaforme di programmazione generali che possono essere utilizzate per quasi tutti gli scopi. Altre reti crittografiche hanno uno scopo speciale, ad esempio Bitcoin è destinato principalmente alla memorizzazione di valore, Golem per l’esecuzione di calcoli e Filecoin per l’archiviazione dei file decentralizzata.

I primi protocolli Internet avevano specifiche tecniche create da gruppi di lavoro o organizzazioni senza scopo di lucro che si basavano sull’allineamento degli interessi nella comunità di Internet per ottenere l’adozione. Questo metodo ha funzionato bene nelle primissime fasi di Internet, ma dall’inizio degli anni ’90 pochissimi nuovi protocolli hanno ottenuto un’adozione diffusa. Le reti crittografiche risolvono questi problemi fornendo incentivi economici a sviluppatori, manutentori e altri partecipanti alla rete sotto forma di token. Sono anche molto più tecnicamente robuste. Ad esempio, sono in grado di mantenere il proprio stato e fare trasformazioni arbitrarie su quello stato, cosa che i protocolli passati non potrebbero mai fare.

Le reti crittografiche utilizzano molteplici meccanismi per garantire che rimangano neutrali man mano che crescono, impedendo l’esca e il passaggio di piattaforme centralizzate. Innanzitutto, il contratto tra crypto-reti e i loro partecipanti viene applicato in codice open source. In secondo luogo, sono tenuti sotto controllo attraverso meccanismi di “voce” e “uscita”.  I partecipanti ricevono voce attraverso il governo della comunità, sia “su catena” (tramite il protocollo) che “fuori catena” (attraverso le strutture sociali attorno al protocollo) . I partecipanti possono uscire abbandonando la rete e vendendo le loro monete o, in casi estremi, biforcando il protocollo.

In breve, i crypto-reti allineano i partecipanti alla rete per lavorare insieme verso un obiettivo comune: la crescita della rete e l’apprezzamento del token. Questo allineamento è uno dei motivi principali per cui Bitcoin continua a sfidare gli scettici e prosperare, anche se nuove reti crittografiche come Ethereum sono cresciute al suo fianco.

Le reti crittografiche odierne soffrono di limitazioni che gli impediscono di essere una valida alternativa agli operatori storici centralizzati. Le limitazioni più gravi riguardano prestazioni e scalabilità. Nei prossimi anni vedremo la correzione di questi limiti e la creazione di reti che formano lo strato infrastrutturale dello stack crittografico. Dopodiché, la maggior parte dell’energia si dedicherà alla creazione di applicazioni in cima a tale infrastruttura.

Come vince il decentramento

Una cosa è dire che le reti decentralizzate dovrebbero vincere, e un’altra cosa è dire che vinceranno. Diamo un’occhiata a motivi specifici per essere ottimisti al riguardo.

Software e servizi web sono creati dagli sviluppatori. Ci sono milioni di sviluppatori altamente qualificati nel mondo. Solo una piccola parte lavora in grandi aziende tecnologiche e solo una piccola parte di loro lavora allo sviluppo di nuovi prodotti. Molti dei più importanti progetti software nella storia sono stati creati da startup o da comunità di sviluppatori indipendenti.

Le reti decentralizzate possono vincere la terza era di Internet per lo stesso motivo per cui hanno vinto la prima era: vincendo i cuori e le menti di imprenditori e sviluppatori.

Un’analogia illustrativa è la rivalità negli anni 2000 tra Wikipedia e i suoi concorrenti centralizzati come Encarta. Se hai confrontato i due prodotti nei primi anni 2000, Encarta era un prodotto di gran lunga migliore, con una migliore copertura degli argomenti e una maggiore precisione. Ma Wikipedia è migliorata a un ritmo molto più veloce, perché aveva una comunità attiva di collaboratori volontari che erano attratti dalla sua filosofia decentralizzata e governata dalla comunità. Nel 2005, Wikipedia era il sito di riferimento più popolare su Internet. Encarta è stata chiusa nel 2009.

La lezione è che quando si confrontano i sistemi centralizzati e decentralizzati, è necessario considerarli dinamicamente, come processi, anziché staticamente, come prodotti rigidi. I sistemi centralizzati spesso iniziano completamente operativi, e migliorano solo alla velocità con cui i dipendenti dell’azienda sponsor li migliorano. I sistemi decentralizzati iniziano con metà operatività ma, nelle giuste condizioni, crescono esponenzialmente man mano che attraggono nuovi collaboratori.

Nel caso delle reti crittografiche, ci sono più circuiti di feedback combinati che coinvolgono sviluppatori del protocollo principale, sviluppatori di reti crittografiche complementari, sviluppatori di applicazioni di terzi e fornitori di servizi che gestiscono la rete. Questi circuiti di feedback sono ulteriormente amplificati dagli incentivi del token associato, che – come abbiamo visto con Bitcoin ed Ethereum – può potenziare la velocità con cui si sviluppano le comunità crittografiche (e talvolta portare a risultati negativi, come con l’elettricità eccessiva consumata dal minare Bitcoin).

La questione se i sistemi decentralizzati o centralizzati vinceranno la prossima era di Internet si riduce a chi costruirà i prodotti più interessanti, il che a sua volta si riduce a chi otterrà sviluppatori e imprenditori di alta qualità dalla loro parte. GAFA presenta molti vantaggi, tra cui riserve di cassa, grandi basi di utenti e infrastruttura operativa. Le crittografie hanno una proposta di valore significativamente più interessante per sviluppatori e imprenditori. Se riescono a conquistare i loro cuori e le loro menti, possono mobilitare molte più risorse di GAFA e superare rapidamente lo sviluppo del loro prodotto.

Le piattaforme centralizzate spesso vengono raggruppate al momento del lancio con app avvincenti: Facebook aveva le sue principali funzionalità di socializzazione e l’iPhone aveva un numero di app chiave. Le piattaforme decentralizzate, al contrario, spesso lanciano app deboli e senza chiari casi d’uso. Di conseguenza, devono passare attraverso due fasi di adattamento mercato-prodotto: 1) adattamento mercato-prodotto tra la piattaforma e gli sviluppatori / imprenditori che finiranno la piattaforma e costruiranno l’ecosistema, e 2) adattamento mercato-prodotto tra la piattaforma / ecosistema e gli utenti finali. Questo processo in due fasi è ciò che induce molte persone, compresi i sofisticati tecnologi, a sottovalutare costantemente il potenziale delle piattaforme decentralizzate.

La prossima era di Internet

Le reti decentralizzate non sono un proiettile d’argento che risolverà tutti i problemi su Internet. Ma offrono un approccio molto migliore rispetto ai sistemi centralizzati.

Confronta il problema dello spam di Twitter con il problema dello spam di posta elettronica. Da quando Twitter ha chiuso la propria rete agli sviluppatori di terze parti, l’unica azienda che lavora allo spam di Twitter è stata Twitter stessa. Al contrario, c’erano centinaia di aziende che hanno cercato di combattere lo spam tramite e-mail, finanziate da miliardi di dollari in capitale di rischio e finanziamenti aziendali. Lo spam tramite e-mail non è stato risolto, ma ora è migliore la situazione, perché terze parti sapevano che il protocollo e – mail era decentralizzato, quindi potevano costruire attività commerciali senza preoccuparsi delle regole del gioco che cambiano in seguito.

Oppure considera il problema della governance della rete. Oggi, gruppi di dipendenti non responsabili su grandi piattaforme decidono come classificare e filtrare le informazioni, quali utenti vengono promossi e quali vengono banditi e altre importanti decisioni di governance. Nelle reti crittografiche, queste decisioni vengono prese dalla comunità, usando meccanismi aperti e trasparenti. Come sappiamo dal mondo offline, i sistemi democratici non sono perfetti, ma sono molto meglio delle alternative.

Le piattaforme centralizzate sono state dominanti per così tanto tempo che molte persone hanno dimenticato che esiste un modo migliore per costruire servizi Internet. Le crittografie sono un modo efficace per sviluppare reti di proprietà della comunità e offrono condizioni di parità per sviluppatori, creatori e aziende di terze parti. Abbiamo visto il valore dei sistemi decentralizzati nella prima era di Internet. Speriamo di vederlo di nuovo nel prossimo futuro.