|
|
Alla ricerca di un’etica delle nuove tecnologie |
|
|
|
|
|
|
|
|
L’etica è messa alla prova dagli sviluppi scientifici e tecnici che ogni giorno si prospettano più numerosi. Il filosofo Hans Jonas, in una celebre opera del 1979 sul “Principio responsabilità”, enunciava la crisi dei vecchi paradigmi: “ora tremiamo nella nudità di un nihilismo nel quale il massimo di potere si unisce al massimo di vuoto, il massimo di capacità al minimo di sapere intorno agli scopi”. La bioetica tende a confrontare taluni risultati tecno-scientifici con certi “valori”; ai quali sottomettere la ricerca. Quasi mai rimette in discussione quelli che sono ritenuti “valori” alla luce delle nuove acquisizioni scientifiche. Prevale, non di rado, quella che Jonas definisce “euristica della paura”. Ciò spinge a far ricorso agli strumenti del diritto, ad approcci deontologici e al proliferare di comitati etici. Questi ultimi composti con criteri di rappresentanza politica e ideologica. Del tutto inadeguati rispetto alle questioni aperte dalla presenza massiccia delle nuove tecnologie nella nostra vita. È quanto argomenta un recente saggio di Adriano Fabris (foto), filosofo morale all’Università di Pisa: “Etica delle nuove tecnologie” (Editrice La Scuola). L’autore da tempo va indagando le questioni aperte dall’agire tecnologico nel campo ad esempio della comunicazione: è del 2006 il volume “Etica della comunicazione” (Carocci), e del 2010 il denso contributo “TeorEtica. Filosofia della relazione” (Morcelliana). La ricerca tecno-scientifica non è mai neutrale. Da un punto di vista etico, evidenzia Fabris, non è più possibile mantenere una rigida distinzione fra teoria e prassi; né fra ricerca di base e ricerca applicata. L’analisi è insidiata dal rischio di fissare situazioni destinate a un rapido superamento; usando categorie destinate a divenire presto inadeguate. Con lo sguardo a tecnologie che ci sono più o meno familiari (telefonini, internet, robot), Fabris propone una serrata critica del presente e della mentalità che in esso predomina. Gli apparati tecnici hanno una complessità e un’autonomia che ci costringono a regolare sui loro ritmi la nostra stessa vita. Anzi spingono a concepire l’essere umano come un meccanismo, sia pure imperfetto. La tecnica si trasforma in un “progetto globale di gestione e di controllo sul mondo”; in un “sapere autonomo, incisivo e capace di autogiustificarsi”. L’ambizione delle nuove tecnologie è di rendere tutto artificiale. E dunque tutto controllabile e manipolabile. Si assume perciò un punto di vista riduzionistico. Come nel caso della cibernetica, che tende a ricondurre l’uomo all’animale. E l’animale a un meccanismo, riproducibile e controllabile. La confusione tra naturale e artificiale giustifica l’idea che “tutto è permesso”. Con l’esito paradossale di “una crescente perdita di controllo riguardo alle conseguenze delle nostre azioni e di un effettivo incremento dell’alea nel mondo in cui viviamo”. Una semplice ripresa di modelli etici del passato non è sufficiente. Emblematico il caso del virtuale. Un ambito in cui sono compresenti, virtualmente, elementi che nella riflessione filosofica precedente erano distinti e contrapposti. Per disciplinare l’agire all’interno della rete non bastano i codici o le indicazioni di galateo. I codici rischiano di restare lettera morta. Bisogna invece “fornire le motivazioni, stabilire perché è opportuno assumere determinati comportamenti piuttosto che altri”. Va recuperata la distinzione fra mondo quotidiano e realtà virtuale. Occorre “una pedagogia della relazione in rete e con la rete: capace di evitare i due estremi sia dell’assorbimento che della contrapposizione, sia dell’entusiasmo acritico che del rifiuto preconcetto”. Il compito etico è di scegliere, nel contesto relazionale del web 2.0, gli atteggiamenti in grado di promuovere altre relazioni, non già di distruggerle. Quindi è giustificata la scelta di comportamenti come la sincerità e il rispetto degli interlocutori, che guidano le relazioni off-line. Abbiamo oggi la possibilità di incrementare la nostra umanità; di andare al di là dell’umanità stessa. Con i robot l’uomo può creare qualcosa a sua immagine e somiglianza, togliendo questa prerogativa al Dio biblico. Come gestire l’autonomia del robot? Se i robot sono macchine che accompagnano l’agire umano in quanto possiedono un certo grado di autonomia, vanno intesi come soggetti etici? C’è da chiedersi: di chi è la responsabilità nel caso dell’azione di un robot? Del costruttore, del programmatore, del robot stesso? Di tutti costoro insieme? I robot possono decidere: ma si tratta di una vera e propria decisione? I robot possiedono una loro autonomia. Sono in grado di autoregolarsi e d’imparare dalle loro interazioni con l’ambiente. Interagiscono con l’ambiente privilegiando un’opzione a discapito di altre. in certa misura agiscono insomma come soggetti morali. Ciò richiede una specifica “roboetica”. Negli esseri umani la scelta avviene in base a motivi non riconducibili semplicemente a un calcolo. Ma che possono dar senso all’azione. La macchina sceglie invece attuando una procedura. Non c’è dispiacere per ciò che è lasciato alle spalle. In un mondo nel quale tutto è virtualmente già realizzato, non c’è spazio per la libertà. Resta solo il compito di attuare ciò che fin dall’inizio è programmato. Quindi “più che un’etica del buono o del cattivo, nel caso dei robot bisogna parlare di comportamento giusto o sbagliato, corretto o scorretto”. Eppure esistono conflitti morali anche nel caso dei robot. Ad esempio, un Drone programmato per colpire un bersaglio militare deve accettare, e se sì fino a che punto, quegli effetti collaterali che possono comportare la morte di civili innocenti? Emerge qui la sovrabbondanza che caratterizza l’ambito dell’etica; rispetto a una gestione meramente procedurale di determinati comportamenti. Lo scrittore di fantascienza Isaac Asimov è stato il primo a cercare una conciliazione fra il compito di seguire una procedura e la necessità di gestire conflitti morali. Nel 1942 formulò tre leggi fondamentali volte a regolamentare il comportamento di questi sistemi autonomi. Ai robot era anzitutto imposto di proteggere gli esseri umani, poi di ubbidire ai loro ordini e infine di preservare se stessi come robot. Leggi destinate a fallire, avverte Fabris. Basti pensare che la maggior parte dei robot è costruita a uso militare, contro la prima legge. Tipico dei conflitti di valore è che non possono essere risolti. L’agire morale unisce la più ampia autonomia alla maggiore sensibilità nei confronti delle motivazioni. Esso non è semplice procedura. Né scelta arbitraria. L’agire delle macchine si colloca però sulla soglia di questo esito pienamente morale. Non va, però, dimenticato che le tecnologie veicolano valori ben precisi: rimandano alla dimensione dell’utilizzabilità, del fare sistema, della controllabilità di ogni cosa. Tutto è funzionale a qualcosa d’altro. In tale prospettiva il mondo, in quanto fatto di elementi funzionali, ha senso e valore anzitutto per la sua impiegabilità. Tutto deve essere utile: utile a qualcos’altro. Niente ha dunque valore in sé. Il ricorso a comitati etici nel caso di controversie sull’uso di tecnologie come la fertilizzazione in vitro, manifesta l’intenzione di affrontare problemi che hanno uno spessore etico attraverso decisioni di carattere politico. L’etica non può essere sostituita dalla politica. Così come non può essere fondata in base a norme o a codici. Ciascuno di noi è responsabile nella misura in cui è inserito in una relazione che lo coinvolge. Chi è responsabile lo è anche di ciò di cui non è, in senso stretto, responsabile. In questo modo, sostiene Fabris, “è possibile guadagnare per l’etica la dimensione di universalità che altre forme di gestione delle emergenze provocate dall’utilizzo delle nuove tecnologie non sono in grado di garantire”. La responsabilità per l’universale è responsabilità anche per ciò di cui non si è strettamente responsabili. Su quest’aspetto, la letteratura soccorre la filosofia. Fabris richiama una bella pagina di Kafka. Nel “Processo” l’imputato deve accettare la condanna. Sa di essere responsabile di qualcosa che ha fatto, anche se non conosce il capo d’imputazione. È insomma “incolpevolmente colpevole”, per usare le parole del filosofo Günter Anders a proposito del pilota di Hiroshima, Claude Heatherly. Le nuove tecnologie hanno conseguenze che non sempre dipendono da noi: “Resta solo, sembra dirci ‘Il processo’, la possibilità di espiare”. Perché ci accorgiamo di non essere più umani. Per evitare l’esito intravisto da Kafka, “dobbiamo rovesciare la colpa in responsabilità”. Cioè assumere “una responsabilità che vale sia per ciò che dipende da noi, sia per ciò che sfugge al nostro controllo”. È questa la strada per recuperare il senso del nostro essere umani.Pasquale Rotunno |
|
|