Questa è la terza parte di un’intervista, direi di un dialogo tra me e Sergio Bellucci, giornalista, saggista, rappresentante italiano dell’Upeace - l'Università per la Pace dell'ONU - e autore del libro “AI - un viaggio nel cuore della tecnologia del futuro”. Chi ha perso le parti precedenti le può trovare qui.

Vi anticipo che da questo dialogo ne trarremo un libro scritto a quattro mani, visto l’interesse che l’argomento sta suscitando in voi lettori e di cui vi ringrazio.

Riprendiamo il discorso interrotto.

D’Angelo. Chi legge i miei libri e i miei articoli, sa che da sempre sostengo che la vera transizione, il vero cambiamento, il vero cambio di paradigma deve prima di tutto avvenire all'interno di ognuno di noi. Tutto passa prima attraverso l'essere umano, il quale ci sta dando dimostrazione - non soltanto negli ultimi anni, ma da molto tempo - di non disporre di un sufficiente grado di coscienza, di lucidità e consapevolezza tali da generare un sentimento diffuso di fiducia verso chi ha il potere e la possibilità di prendere decisioni importanti per conto di tutti noi.
L'intelligenza artificiale ha un grandissimo potenziale, come l'energia atomica, ma se ne facciamo bombe che usiamo per distruggerci l’uno con l'altro è meglio lasciar perdere. Molti degli scienziati e dei tecnici che lavorano con l'IA - lo stesso Stephen Hawking che hai citato precedentemente - puntano il dito sui rischi insiti in questo strumento e chiedono che vengano stabilite regole che la limitino, che la gestiscano in modo da minimizzarne i possibili effetti negativi. Ma chi stabilisce le regole?
Il sistema democratico ci dice che è compito della politica fissare le regole del vivere civile. Ma sappiamo bene che la politica oggi non è un metodo per governare i popoli e i Paesi scevro da ogni influenza esterna. Al contrario, molti osservatori la definiscono come lo strumento di multinazionali, di poteri economici e finanziari e che il suo ruolo non sia altro che esprimere in termini legislativi i voleri di questi poteri. Le ultime elezioni statunitensi, con la presenza di Elon Musk al fianco di Trump, non hanno fatto altro che rendere palese ciò che a molti era chiaro da molto tempo e cioè che il ruolo decisionale non è prerogativa del mondo politico, bensì di quello finanziario.
Detto questo, rimane il fatto che l’umanità, forse per la prima volta dalla sua comparsa, è stata in grado di sviluppare uno strumento che, se usato con le migliori intenzioni, potrebbe avere delle conseguenze meravigliose per noi stessi, come hai precedentemente detto. Addirittura aiutandoci a capire quelli che sono i nostri difetti, le nostre pecche e a migliorarci, a evolverci nel vero senso della parola, ma al tempo stesso ha delle potenzialità tragiche, tremende.
Siamo ancora agli albori di questa tecnologia e già vediamo che, per esempio, si fanno filmati con l'IA che sono praticamente indistinguibili da quelli veri e più andiamo avanti, più queste cose saranno più attendibili proprio perché, come abbiamo detto, l’IA impara dai dati che le forniamo e quindi svolge sempre meglio il suo lavoro.
Tu sei giornalista, tutti e due lavoriamo nel campo dell'informazione e sappiamo benissimo come questa sia cruciale in questo momento storico e come le persone seguono e diano credito a quello che viene proposto loro dai media. Se questa informazione, che già oggi è manipolata, per usare un eufemismo, domani sarà in mano all'intelligenza artificiale, non saremmo più in grado di distinguere il vero dal falso.
Quindi torniamo al punto di partenza; è l'uomo che deve cambiare prima di andare avanti. Mi sembra come se fossimo arrivati all’IA troppo presto, impreparati nei confronti di questo strumento. L’essere che l’ha generata non è in grado di comprenderla.

Bellucci. Hai toccato un tasto importante. Io sono della scuola del vecchio filosofo di Treviri che diceva che l'umano si pone solo le domande a cui può rispondere. Ciò significa che in qualche modo, da qualche parte, in qualche forma, una capacità di governo dell’IA l'umano la possiede.

Anche se il salto che abbiamo di fronte è un salto importante. Dicevi delle regole. Non bastano le regole.

Faccio spesso questo esempio per spiegare cosa intendo a tal proposito. Prova a immaginare se il giorno che l'umano inventò la ruota ci fosse stato un legislatore che guardandola avesse normato il suo utilizzo stabilendo che “la ruota può essere utilizzata solo per questa e quest'altra funzione.”

Quella norma non avrebbe avuto nessun successo perché la storia umana avrebbe generato comunque l'utilizzo della ruota in miliardi di funzioni diverse, in quanto una volta che hai generato uno strumento, non puoi deciderne i termini del suo utilizzo, che viene, di fatto, stabilito dalla consuetudine e dalle esigenze del momento.

Oggi siamo di fronte a macchine, a strumenti che sono in grado di intervenire nel modificare anche in termini epistemologici il modello della conoscenza.

Stiamo parlando di un aumento esponenziale di quello che l'umano ha a disposizione per comprendere e definire la sua stessa relazione con la realtà, che non è possibile normare. Quello che è possibile - e sarebbe auspicabile fare - è scegliere delle opzioni di lavoro e costruire modelli che diventino esempi. In questo senso allora si potrebbe indirizzare lo sviluppo di queste tecnologie verso un esito piuttosto che un altro.

Utilizzando, quindi, il concetto gramsciano dell'egemonia al posto di quello delle regole rigide dentro le quali inscatolare un mondo che, di fatto, non è inscatolabile. È un'illusione pensare che il mondo funzioni attraverso regole e norme. Non funziona così nemmeno per cose molto più banali, tant'è che le carceri sono piene di persone che svolgono attività considerate illegali: tu Stato dici “non si può fumare la marijuana!”, ma la società continua a farlo.

Se l’inefficacia di un sistema totalmente normato è evidente per cose così banali - che dovrebbero essere cancellate dall’intelligenza di un legislatore che capisce che la società funziona in maniera diversa e ha le sue compatibilità sociali - ti puoi immaginare la sua inadeguatezza su temi ben più complessi come questo dell’IA, che rischia di mettere in mano di pochissimi un potere enorme in grado di condizionare il tutto.

Quindi credo sia necessario generare immediatamente dei modelli che diventino modelli egemoni dentro i quali l'umanità si possa riconoscere.

Ho recentemente scritto un articolo sull’inutilità di un mondo normato.

Esatto. Ora il punto vero è che per la prima volta nella storia degli ultimi secoli, se non di migliaia di anni, l'Europa non è al centro dei processi di innovazione. Questo cosa significa? Intanto che il mondo è molto più complesso dell'Europa odierna e quindi l'europocentrismo che ci ha caratterizzato psicologicamente deve far strada a un multipolarismo concreto e vero (non la finta globalizzazione che sta mostrando il suo fallimento) di un mondo con le sue diverse qualità, con le differenze che lo caratterizzano, eccetera.

Però c'è un fatto: qui in Europa si era generata, come conseguenza dei due conflitti del secolo scorso, un certo tipo di organizzazione sociale, con modelli di società basati su un'idea di welfare inclusivo, fondato sui diritti delle persone, dei lavoratori e delle minoranze. Modelli che avevano generato una tipologia di relazione con un certa interpretazione della storia. Penso per esempio alla lettura della composizione, quella data dal materialismo storico, quindi le classi, il loro divenire, i rapporti, e così via. Ecco, il fatto che questa tecnologia invece si stia sviluppando sostanzialmente negli Stati Uniti e in Cina, con ambienti culturali, sociali ed economici completamente diversi e con finalità diverse da quelle del modello europeo, beh, insomma, segnala la fine di un percorso storico e l'inizio di uno nuovo.

Ora non sappiamo se alla fine prevarrà il modello americano o quello cinese. In maniera forse molto più concreta, quello che vedo - che è uno dei miei campi di lavoro in questo momento con l'attività dell'Università per la Pace - è evitare un processo di divergenza tecnologica nel mondo. Cioè, che cosa sta accadendo?

I microprocessori neuromorfici di cui abbiamo parlato sono una tecnologia molto sofisticata, che fino ad ora è stata nelle mani degli Stati Uniti. Quando le tecnologie dell'intelligenza artificiale hanno avuto questa improvvisa accelerazione, si è posto il tema di come i microprocessori neuromorfici dovessero essere riservati a una sola area geografica; la Cina, tanto per essere chiari, non doveva avere dei microprocessori neuromorfici avanzati per impedirle di sviluppare sistemi di intelligenza artificiale analoghi a quelli utilizzati da quest'altra parte del mondo. Ovviamente la decisione non ha nulla di commerciale, ma è una decisione geopolitica che riguarda gli equilibri militari tra i due mondi e questo a cosa ha portato? Che per una piccola fase questo embargo ha prodotto una differenziazione, un'accelerazione da una parte e un ritardo dall'altra.

Ma siccome, come abbiamo visto con l’esempio della ruota, questi sviluppi non li puoi arginare dentro alcuni utilizzi, la Cina ha deciso di investire per produrre i suoi microprocessori neuromorfici in grado di competere con quelli americani. Ora, al di là del fatto che la velocità dei due mondi possa essere diversa, quello che è interessante evidenziare è che lo sviluppo tecnologico cinese sta divergendo da quello occidentale. Questa cosa significa?

Significa che noi potremmo trovarci nel giro di pochissimo con due tecnologie diverse, forse non interoperabili e quindi con una separazione del mondo che non è più soltanto il risultato di una decisione politica - e quindi alla fine ricomponibile attraverso un tavolo di discussione aperta - ma di avere una vera e propria divergenza tecnologica. È come produrre due ferrovie con degli scartamenti diversi: non sono compatibili.

Una differenza non solo tecnologica, ma di forma di pensiero.

Assolutamente sì e questo, già in parte, tali tecnologie lo stanno evidenziando, perché funzionano in relazione alla struttura del linguaggio e siccome i linguaggi sono diversi, addirittura le scritture sono diverse - perché chi scrive in ideogrammi pensa in modo completamente diverso da chi scrive con gli alfabeti - questa differenza sta generando dei problemi di dialogo non indifferenti.

Quindi noi siamo in presenza veramente di un passaggio storico. Non è tutto così semplice e bello come ci viene raccontato.

Sembra che alcune differenze che tentiamo di nascondere sotto il tappeto, prima o poi si facciano comunque sentire. Oriente e Occidente, almeno apparentemente, hanno alla base delle proprie culture delle differenze che hanno generato società e modi di intendere la vita differenti. Dagli anni ’60 promuoviamo le differenze come arricchimento, ma al tempo stesso ne siamo spaventati, il diverso, l’alieno non ci dà tranquillità. Argomento interessante di cui tratteremo nel prossimo articolo.