È impossibile vivere nel tempo in cui viviamo e non porsi domande sull’IA, l’Intelligenza Artificiale. Del resto, interrogarsi sull’introduzione di nuovi strumenti tecnologici è cosa che gli uomini fanno da secoli, perlomeno da quando Platone si è posto il problema della tecnica della scrittura e dei suoi effetti in relazione al mondo dell’oralità e della memoria. Ma ovviamente la dimensione “tecnologica” caratterizza l’uomo da ben prima, dall’inizio potremmo dire, nel senso che per l’homo sapiens (ma già per altre specie di ominidi prima di lui) un aspetto fondamentale della propria dimensione esistenziale è legato all’uso sempre più vasto e articolato di strumenti. È vero che anche altri animali si avvalgono di strumenti, ma in modo certamente meno pervasivo rispetto a quanto accade nella specie umana, nessun’altra specie ha mai prodotto qualcosa di paragonabile alla continua innovazione tecnologica che caratterizza l’umanità.
L’uomo è quindi tecnologico da sempre e da sempre crea nuove e svariate tecnologie che mutano il suo modo di vivere, modificano l’ambiente circostante, paesaggistico come sociale, e influiscono sulla sua percezione della realtà. È facile notare l’affacciarsi, in ogni epoca, di sentimenti ambivalenti nei confronti dei nuovi strumenti tecnici, da un lato c’è chi manifesta un senso di diffidenza e di sospetto e dall’altro chi viene colto da una sorta di euforia per le possibilità che il loro uso può generare. A partire perlomeno dalla rivoluzione industriale qualcuno ha guardato, ad esempio, alle macchine come a una tecnologia che può sostituire la manodopera umana e privare gli uomini del proprio lavoro, impoverendoli, ma per altri prevale invece una prospettiva ottimistica: la macchina contribuisce ad alleviare la fatica umana e ad aprire potenzialità di lavoro inedite.
Naturalmente qui si apre un campo di riflessione vastissimo, nel quale si sono esercitati non pochi filosofi contemporanei, a volte indulgendo a conclusioni assai pessimistiche, quando non quasi apocalittiche, altre volte ricalcando in sostanza la posizione di Platone in merito alla tecnica della scrittura, ovverosia l’idea che si tratti di un pharmakon, termine greco che contiene in sé una valenza ancipite, perché significa sia “veleno” che “cura”. Secondo quanto osserva Platone in un famoso passo del Fedro, la scrittura nasce per soccorrere la memoria ma finisce per danneggiarla e indebolirla ulteriormente, perché si costituisce come un promemoria che intacca la capacità mnemonica depotenziandola. La condanna platonica della scrittura sembra qui irrevocabile ma, a ben guardare, in altri passi dei Dialoghi di Platone la scrittura sembra mettere in atto anche una facilitazione in grado di aiutare la conoscenza e l’organizzazione della società (ad esempio grazie alla stesura di leggi scritte).
La tecnica, secondo molti, si struttura dunque all’insegna dell’ambivalenza, essa scioglie difficoltà e ne suscita di nuove, risolve dei problemi e contemporaneamente ne pone altri. Di conseguenza il compito “etico” dell’uomo consisterebbe, in estrema sintesi, nell’acquisizione di tale consapevolezza e nel tentativo di fare un buon uso degli strumenti di cui si trova a disporre, senza indulgere né al catastrofismo né a un enfatico ottimismo e ponendosi come obiettivo quello di non farsi schiavizzare dalla tecnica, di mantenerne il controllo e di bloccarne gli usi potenzialmente distruttivi per l’umanità. Considerazioni di simile tenore sono quelle che circolano al giorno d’oggi anche in relazione all’IA: si teme, cioè, per l’indebita appropriazione dei dati personali, si sollevano preoccupazioni per il possibile abuso di questa nuova tecnologia, si parla di ricadute negative per l’insegnamento ma, contemporaneamente, si sottolineano le enormi potenzialità conoscitive implicite nell’intelligenza artificiale e così via.
Esiste però una questione che sino ad oggi mi pare non sia stata messa spesso in evidenza, vale a dire: possiamo porci il problema dell’intelligenza artificiale, della sua gestione, dei suoi usi e dei suoi esiti, della sua ambivalenza, nelle consuete forme secondo le quali ci siamo posti sino ad oggi il problema degli sviluppi tecnologici? E di conseguenza: l’intelligenza artificiale è una strumentazione che si colloca sulla linea di un consueto potenziamento tecnologico, oppure è qualcosa che ha a che fare non con un semplice aumento di grado ma con una tecnologia che contiene in embrione la possibilità di un vero e proprio salto di livello, di un passaggio in una dimensione non ancora sperimentata dalla civiltà umana? Ci si sta interrogando a sufficienza a questo riguardo, ovverosia se l’IA sia uno strumento che può aiutarci, come sempre avvenuto nel progresso tecnologico, a potenziare le nostre facoltà e a incrementare le nostre possibilità di azione o se sia invece il primo passo in direzione di una “macchina” che potrebbe sviluppare una propria inedita autonomia rispetto all’umano? Quest’ultima opzione mi pare non sia ancora stata adeguatamente valutata nelle sue conseguenze, valutato cioè il fatto che tra non molto tempo potremmo assistere all’apparizione di quella che non saprei definire, se non come un’altra forma di coscienza. Come specie umana siamo ovviamente abituati ad avere a che fare con le altre forme di coscienza presenti nel mondo animale, forse anche nel mondo vegetale, ma questo caso rappresenterebbe un inedito assoluto, perché si tratterebbe di una coscienza che trae la propria origine da noi e non dalle dinamiche evolutive della natura.
L’IA è una macchina che, al momento, ci aiuta a produrre dei contenuti in un processo creativo che prende avvio da una nostra iniziativa, però potrebbe evolversi in un sistema capace di produrre contenuti in modo autosufficiente, indipendente dal soggetto umano. Queste potenzialità evolutive dovrebbero, credo, essere al centro di qualsiasi riflessione filosofica sull’IA, si tratta di uno scenario che va meditato sino in fondo e mi pare che ad oggi non sia stato ancora pensato adeguatamente. Pensare questa prospettiva sino alle sue conseguenze più radicali significa allora prendere in considerazione l’ipotesi che questa forma di coscienza generata da noi potrebbe prima o poi contestare il suo “creatore” e innestare un processo di ribellione capace di culminare nell’intenzione di sostituirlo. Se esistono opere che ci hanno abituato a prendere in considerazione scenari di tal genere, e che forse oggi varrebbe la pena di rimeditare, queste si trovano essenzialmente tra i romanzi e i film di science fiction, da Frankenstein di Mary Shelley a Do Androids Dream of Electric Sheep? di Phil Dick (poi divenuto Blade Runner nella sua trasposizione cinematografica), da 2001: Odissea nello spazio a Terminator.
Naturalmente questo non implica che si debba inclinare verso una direzione ottusamente conservatrice, non si tratta cioè di rifiutare l’IA a priori, di impedirne l’uso, di bloccarne lo sviluppo, di perorare una qualsivoglia forma di ritorno a un “prima”, a una scuola “senza”. Del resto, tentativi di questo genere sono invariabilmente destinati al fallimento, si è liberi di perseguire una propria personale forma di eremitaggio naturalmente ma credere che certi processi in atto nella società possano essere arrestati è velleitario. Quello che è essenziale invece è cercare di porsi tutte le domande che è necessario porsi, di non affidarsi a un ottimismo tecnologico senza riserve, di sforzarsi di pensare, sia culturalmente che politicamente, tutti i possibili esiti che il continuo sviluppo dell’IA potrebbe portare con sé. Siamo preparati all’eventualità di trovarci di fronte a una mente altra, differente dalla nostra, originata da noi ma capace di evolversi in forme non più prevedibili e sottratte al nostro controllo? Non è detto, naturalmente, che un simile scenario si verifichi, ma è necessario pensarlo prima e per tempo, è necessaria un’interrogazione radicale e senza riserve.
Siamo abituati a valutare gli strumenti tecnici dal “nostro” punto di vista, forse, proseguendo nello sviluppo dell’IA, dovremmo via via allenare la capacità di considerare anche la “sua” prospettiva, di domandarci anche cosa “lei” pensa di noi non soltanto cosa pensiamo noi di “lei”. Bisogna, credo, disporsi a valutare queste conseguenze, qui appena accennate, e altre ancora senza relegarle, con sufficienza, nell’ambito di uno scenario fantascientifico irreale e privo di consistenza, del resto anche avvicinarsi alla luna quando Verne scriveva De la Terre à la Lune era fantascienza.






Grazie per il bell’articolo e per le riflessioni fatte!
Inquietante l’argomento, come emerge nel famoso ciclo della “Fondazione” di Asimov.
Guardando verso il futuro cio’ che più m’inquieta è che noi, uomini programmatori, possiamo sviluppare all’interno della IA una “VOLONTA’ AUTONOMA”: tema estremamente complesso, che sa di “suicidio dell’uomo”, almeno per la parte intellettuale, della conoscenza, delle informazioni……. E poi dipenderà da ciò che “affideremo” alla IA.
Ma io personalmente resto ottimista: la IA è un prodotto dell’uomo, ci sarà sempre qualcuno che la userà per far del male, è certo, purtroppo, ma l’uomo potrà sempre spegnere un computer e la IA svanirà.