Chiudi

La sindrome Frankenstein


Quante volte avete sentito o pensato: “tale tecnologia è incontrollabile e andrebbe proibita”? Specialmente quando si presenta sulla scena una tecnologia relativamente nuova e dirompente nasce la “sindrome Frankenstein“. La paura che essa possa “contaminarci”, “assimilarci”, “distruggere” o sfuggire di mano è così diffusa nell’immaginario collettivo da diventare una cifra caratteristica della nostra “civiltà moderna”. Siamo animali strani: probabilmente guidati da luoghi comuni o da paure istintuali tendiamo ormai a vedere la tecnologia in modo riduttivo come oggetto di consumo o come diavoleria moderna. Eppure la tecnologia non è tanto l’ultimo modello di smartphone o un complicato strumento quanto qualcosa che attiene alla nostra natura profonda di essere umani: una creazione ed estensione della mente umana. La co-evoluzione tra uomo e tecnologia è talmente intrecciata che possiamo definire l’uomo come “quell’animale che trascende limiti naturali e biologici attraverso la tecnologia”. L’evoluzione della tecnologia contribuisce quindi potentemente alla nostra evoluzione (a cominciare dalla nostra prima grande tecnologia: il linguaggio) anzi ormai coincide con essa.

Allora perché non avvertiamo tale legame essenziale tra noi e la tecnologia e siamo non di rado ossessionati dai rischi che da essa possono derivare? La verità è che quando si tratta di evitare i rischi, ci dice Kevin Kelly studioso della tecnologia, “smettiamo di essere razionali: quando decidiamo quali di essi contrastare, temiamo i voli aerei ma non la guida dell’auto; reagiamo al rischio minimo di una radiografia dentale ma non a quello molto più grave di una carie trascurata; le vaccinazioni ci spaventano più di un’epidemia; siamo ossessionati dai rischi dei pesticidi ma non da quelli dei cibi biologici”.

Non c’è dubbio che l’apparato tecnologico sta aumentando di complessità tanto che non possiamo nemmeno sperare di averne il controllo totale, l’incertezza governa la nostra vita e la tecnologia ci sfugge frequentemente di mano. Non c’è dubbio inoltre che ogni tecnologia ci dona, insieme ai vantaggi, anche nuovi problemi di ordine etico e sociale. La tecnofobia sarebbe dunque da imputare alla nostra incapacità di controllare il tecnosistema?

“Le conseguenze corrono insieme alla loro natura dirompente”ci avverte Kevin Kelly “le tecnologie potenti saranno tali in tutti i sensi, nel bene e nel male. Non esiste una tecnologia molto costruttiva che non sia anche molto distruttiva, così come non esiste una grande idea che non possa essere distorta finendo per causare grande danno”.

La domanda a questo punto da farsi è: la potenzialità distruttiva intrinseca a ogni tecnologia è sufficiente a giustificarne  l’abbandono o la proibizione? Possiamo pretendere tecnologia a rischio/costi zero? Siamo sicuri che il miglior atteggiamento etico-politico sia quello di limitare o vietare una tecnologia quando essa manifesta qualche rischio/costo? Fin dove siamo disposti a spingerci nello sviluppo della tecnologia? Saremmo favorevoli, ad esempio, a un’iniziativa politica che si proponga di chiudere internet (semmai sia tecnicamente possibile) sulla base dei rischi derivanti da cellule terroristiche che utilizzassero tale mezzo per organizzare attentati su larga scala?

Nella mia di vita di tecnologo (ovvero colui che non si limita ad usare la tecnologia come consumatore ma riflette su di essa) ho ormai individuato quattro fondamentali approcci alla tecnologia:

1. Approccio luddista: la tecnologia è troppo pericolosa e crea troppi problemi quindi abbandoniamola del tutto!

2. Approccio Amish: adottiamo in modo lento solo quella tecnologia che non perturba in modo traumatico la tradizione e la famiglia.

3. Approccio Precauzionale: si deve dimostrare che una tecnologia non produca danni prima di adottarla.

4. Approccio Pro-attivo: nella consapevolezza che una tecnologia a rischio/costo zero è una chimera si pensa a correggere, testare, valutare, simulare gli effetti (per quanto possibile) di ogni tecnologia quindi cercando di minimizzarne i rischi/costi e aumentarne i benefici per tutti.

Il rifiuto della tecnologia tout court (approccio luddista) o una forte limitazione di essa (approccio amish e precauzionale) ha costi umani di gran lunga peggiori di un approccio proattivo che cerca invece di concentrarsi in modo costruttivo su come migliorare una tecnologia. Tuttavia oggi l’atteggiamento prevalente e popolare, tra quelli descritti poco sopra, è senza dubbio quello “precauzionale”. Una buona dose di cautela sicuramente ci aiuta a prendere decisioni e a fare scelte con più saggezza ma quando la cautela diventa unico ed esclusivo valore nella nostra vita, tanto da essere perfino istituzionalizzato e trasformato in un principio, il cosiddetto principio di precauzione, si finisce per creare molti più problemi di quelli che si pretenderebbe di risolvere.

A questo proposito può illuminarci un aneddoto di Kevin Kelly:

“In una lettera scritta al suo amico inventore Henry Ford, Orville Wright parlò di una storia sentita da un missionario inviato in Cina. Wright la raccontò a Ford per la stessa ragione per la quale io ora la racconto qui, a voi: suggerire di andarci piano, quando si tratta di rischi ipotetici. Il missionario voleva migliorare la tecnica, elaborata e complessa, con cui i contadini cinesi della sua provincia raccoglievano il grano. I coltivatori locali tagliavano i fusti con una specie di piccola cesoia, così il missionario si fece spedire dall’America una falce e ne dimostrò la superiore resa produttiva a una folla ammutolita. «Il mattino seguente, tuttavia, una delegazione si recò in visita al missionario. La falce doveva essere immediatamente distrutta. Perché, dissero costoro, se fosse caduta nelle mani dei ladri, un intero campo poteva essere tagliato e il raccolto portato via in una sola notte». Così la falce fu bandita e il progresso arrestato, perché dei non-utilizzatori avevano immaginato un danno possibile – ma del tutto improbabile – che sarebbe potuto derivarne alla loro comunità”.

Se il nostro giudizio fosse basato solo su ipotetici rischi che accompagnano l’introduzione di ogni tecnologia finiremmo in realtà per rallentare ogni innovazione e progresso con conseguenze disastrose sulla qualità della nostra vita. Se il principio di precauzione fosse stato imposto in modo rigoroso nel corso della storia umana, saremmo ancora in condizioni povere, sgradevoli, e brutali. Fortunatamente la nostra percezione pubblica e collettiva dei pericoli e dell’incontrollabilità di una tecnologia  non sempre coincide con le scelte più o meno inconsce che compiamo quotidianamente a livello individuale. 

In tutti i casi la tecnologia più o meno “stupida” non ci impedisce di vivere più o meno la nostra vita: l’importante è usare ciò di cui disponiamo nel modo migliore possibile lavorando affinchè siano aumentati i benefici e minimizzati costi. Non si può avere sotto controllo ogni cosa, il rischio è intrinseco alla tecnologia stessa, possiamo illuderci di evitarlo o diminuirlo abolendo determinate tecnologie esponendoci così ai rischi peggiori della natura (chi rinuncerebbe oggi davvero ai vaccini esponendosi al rischio di contrarre un virus mortale?). Quello che possiamo fare è invece impegnarci a ridurre il più possibile il grado di rischio della tecnologia in modo da non dover rinunciare ai benefici derivanti da essa.

“Proibire l’uso di tecnologie che vengono messe in dubbio non serve a niente”  prosegue Kevin Kelly “piuttosto è meglio individuare per esse nuove funzioni. Una tecnologia può svolgere diversi ruoli nella società; può avere più di un’espressione; può essere tarata in vista di diverse condizioni operative; può avere più di un imprimatur politico. Dal momento che i divieti sono inutili, occorre ridirigere le tecnologie in forme più conviviali.”

Non proibire o limitare ma ri-direzionare le tecnologie. E’ vero che ogni tecnologia produce nuovi problemi insieme ai nuovi benefici ma non esiste una tecnologia a costo/rischio zero. La tecnologia generalmente crea maggiori opzioni e scelte nella nostra vita (avete mai pensato a quante cose possiamo fare in più grazie alla tecnologia rispetto a un uomo del medioevo?) quindi proibire o limitare una tecnologia, solo in nome della sicurezza, significa ridurre opzioni e scelte nella nostra vita. La migliore risposta per ridurre le conseguenze negative non è la cautela massima ma è adottare un approccio pro-attivo. In altre parole i problemi che genera la tecnologia sono risolubili solo con un miglior uso della stessa.

Non potrei concludere meglio con le parole di Kevin Kelly:

“Una delle reazioni più frequenti di fronte al carattere incontrollabile delle geno-, robo-, infoe nanotecnologie è la richiesta di porre una moratoria al loro sviluppo: devono essere vietate. Nel 2000 Bill Joy, il pioniere della scienza informatica a cui si deve l’invenzione di svariati fondamentali linguaggi di programmazione che fanno funzionare Internet, ha lanciato un appello ai suoi colleghi scienziati che operano nella genetica, nella robotica e nell’informatica affinché abbandonino le tecnologie GRIN, potenzialmente suscettibili di essere trasformate in armi, e smettano di lavorarci come è stato fatto per le armi biologiche.

Sotto l’egida del principio di precauzione, l’ente canadese per il controllo dell’ambiente ESTC (Environmental Science & Technology Centre) ha invocato una moratoria per l’intera ricerca nanotecnologica. L’equivalente tedesco dell’EPA ha chiesto di mettere al bando i prodotti contenenti nanoparticelle d’argento (usate nei rivestimenti antimicrobici). Altri vorrebbero vietare l’uso di automobili autopilotate in strada, mettere fuorilegge i vaccini per l’infanzia geneticamente ingegnerizzati, o fermare la terapia genetica umana fino a quando arrivi il giorno in cui sarà possibile dimostrare, per ciascuna di queste invenzioni, che non causa danni. È proprio questa la cosa sbagliata da fare. Queste tecnologie sono inevitabili, e produrranno danni di qualche tipo. D’altronde, tanto per richiamare solo uno degli esempi appena fatti, le automobili pilotate da esseri umani causano danni ingentissimi: ogni anno sulle strade muoiono milioni di persone. Se le auto controllate da robot facessero “solo” mezzo milione di morti all’anno, non sarebbe già un miglioramento?

[…]Alla fin fine la tecnologia è un modo di pensare: una certa tecnologia è un pensiero espresso. Non bisogna fare di tutta l’erba un fascio, certo: ci sono teorie stupide, risposte sbagliate e idee insulse. Se un laser militare e l’azione di disobbedienza civile di Gandhi sono entrambe opere utili dell’immaginazione umana, e quindi sono entrambe tecnologie, tra le due c’è una bella differenza. Alcune possibilità restringono le scelte future, mentre altre sono gravide di altre possibilità. Tuttavia, la risposta più adeguata a un’idea spregevole non è smettere di pensare, ma tirar fuori un’idea migliore. A conti fatti dovremmo preferire una cattiva idea a nessuna idea: infatti, se una cattiva idea può essere emendata, l’assenza di pensiero non offre alcuna speranza*.”

* [grassetto mio]


Fonte:Kevin Kelly, Quello che vuole la Tecnologia, Codice Edizioni

Rispondi

%d blogger hanno fatto clic su Mi Piace per questo: