Riprendiamo il nostro colloquio con Sergio Bellucci.
D'Angelo. L'intelligenza artificiale si basa anche sul reperimento di mega dati e più ne ha, più la sua risposta sarà precisa. I ricercatori del MIT hanno sviluppato un programma (Sibyl) che utilizza i dati di TAC, RM e radiografie fatte in tutto il mondo negli ultimi anni, per predire la possibilità di sviluppo del cancro al polmone. Ho visto un video dove i medici mostravano la TAC al polmone di una persona dove loro non notavano nulla di strano, ma il software si soffermava su un’area particolare. Due anni dopo questa persona ha sviluppato un cancro esattamente in quel punto. Quindi è innegabile che ci siano degli aspetti assolutamente positivi dell'IA e abbiamo visto che il suo grado di precisione è correlato alla quantità di dati che assorbe da diverse fonti.
A cominciare dal mondo di internet, che ormai è sconfinato, dalle chat a cui noi partecipiamo, dai blog, dai dati che forniamo tramite i social media o quando compriamo qualcosa on-line o tramite i like. Pertanto ha una possibilità di apprendimento, di acquisizione dati, praticamente infinita. Ma i dati a cui ha accesso sono forniti da esseri umani con pregiudizi, preconcetti, errori e mistificazioni. Le stesse persone che lavorano sull'IA dicono che questo è un pericolo. Quindi la sua intelligenza è un'intelligenza che contiene tutti i malintesi, le mistificazioni, i preconcetti di noi umani. Questo sviluppato per enne volte la potenzialità di questa macchina può dare luogo a errori enormi.
Bellucci. Questo è uno degli aspetti del salto di livello che la civiltà umana ha potenzialmente davanti a sé. La “scoperta” dei cosiddetti bias presenti all'interno dei dati che l'umano ha prodotto nella sua storia è emersa proprio perché ci siamo posti il tema dell'intelligenza artificiale che sì accumula dati, ma cosa ci restituisce? L'immagine di quello che siamo! Di fatto questa tecnologia ci dice "questo sei tu". Se, per esempio, chiediamo all’IA di rappresentare l’immagine di un lavoratore in campo infermieristico ci restituisce l’immagine di una donna, un’infermiera. Allo stesso modo rappresenta la figura del medico con un uomo, ma in realtà sappiamo che non è così.
Di conseguenza noi accusiamo l'intelligenza artificiale di avere un bias, ma quel bias in realtà è presente nelle strutture della società perché, guarda caso, i medici sono in stragrande maggioranza uomini e comunque nell'immaginario collettivo il medico è uomo e quindi il problema del bias è in noi e non nella macchina. Quindi l’IA ci fa vedere uno spaccato di come siamo. Certo, nelle discussioni colte, quando siamo in presenza di pubblico oppure in alcuni ambienti il problema del gender è già ampiamente affrontato, risolto e scontato, ma nella massa complessiva della società queste cose sono depositate e stanno là.
Per la prima volta è una macchina a porci davanti ai nostri pregiudizi e a far sì che ci poniamo il problema di pensare alla società in maniera diversa. Sarebbe sbagliato se noi poggiassimo le decisioni di quello che dobbiamo fare su strutture che contengono questi bias, ma non è che prima dell'intelligenza artificiale quei bias non funzionavano! Funzionavano, soltanto che non ce ne rendevamo conto perché erano depositati nel cervello e nei comportamenti di un singolo, di una singola persona, di un singolo personaggio che prendeva decisioni in funzione dei suoi bias personali che aveva accumulato durante la sua vita. Quindi c'è un aspetto che è estremamente positivo che ci consente di mettere sotto osservazione un aspetto qualitativo della nostra essenza di umanità e di lavorare in termini molto più precisi.
Qual è il risvolto negativo? Quello di rendere oggettivi dei bias. Cioè, siccome ce le distribuisce la macchina, ci può essere un atteggiamento che ci porterebbe a dire: “Beh, la realtà non è un giudizio umano, ma è un giudizio di una macchina e quindi è oggettivo”. Potrebbe essere la volta buona per renderci conto che non esistono cose oggettive. Per esempio ho partecipato a qualche riunione con alcuni capi del personale di grandi aziende e si comincia a porre maggiore attenzione ad alcuni aspetti grazie ai software di IA che si utilizzano per agevolare questo lavoro che fanno emergere nelle persone queste prevenzioni di cui, fino a ieri, non si rendevano conto.
Quindi quello che tu dici è vero, ma c'è anche questo risvolto che occorre tenere presente. Bisogna evitare che le decisioni, i risultati dei calcoli dell'intelligenza artificiale diventino cose oggettive. Per esempio sono molto preoccupato della decisione di Biden dell'anno scorso di utilizzare le decisioni di giudizio delle intelligenze artificiali e, quindi, di automatizzare le risposte di giudizio, perché ogni cosa ha le sue caratteristiche e non ci può essere una cosa oggettiva e neutra.
Perciò il salto della relazione in alcune funzioni sociali tra la decisione che è messa in mano a una persona o a una macchina è un salto di qualità non di poco conto, ma non perché la persona non avesse i suoi bias. Basta prendere quello che succede in quasi tutti i Paesi del mondo quando si mette sotto giudizio uno straniero, un diverso. Probabilmente il giudice avrà spesso dei bias non piccoli che custodisce dentro di sé; però, siccome è un essere umano, non ce ne rendiamo conto oppure facciamo finta di non rendercene conto.
La differenza sta nel fatto che noi abbiamo una nostra intelligenza, un nostro modo di relazionarci con il tutto e abbiamo, appunto, delle pecche dentro di noi. Facciamo un danno che può essere più o meno contenuto a seconda anche della nostra posizione sociale, delle responsabilità che abbiamo. Ma l’IA ha una potenzialità quasi infinita perché sembrerebbe che possa arrivare a questo punto. Sembrerebbe che nella scala dell'evoluzione l'intelligenza artificiale sia già oggi molto simile a noi e potenzialmente potrebbe arrivare a essere paragonabile all’idea che molti di noi hanno della divinità. Una macchina con intelligenza infinita e che prende decisioni per conto nostro che possono essere molto interessanti, se vogliamo utilizzare un termine neutro, ma che possono anche essere devastanti. Quando si fa la rotta per una nave, per un aereo, pochissimi gradi di differenza all'inizio determinano errori esponenziali.
Sono assolutamente d'accordo con te, perché l’umano dispone di alcune caratteristiche come l'empatia e la compassione. Per continuare con l’esempio precedente, un giudice di fronte a un quadro molto complesso può provare empatia e comprendere un aspetto umano della vicenda che una macchina probabilmente non vedrà mai. Alcuni chiamano questa cosa “oggettività” e quindi un giudizio, come dire, standard, che quindi risponde all'assunto della legge uguale per tutti, ma in realtà noi sappiamo perfettamente che le relazioni umane sono qualcosa di più complesso e la società tutta è qualcosa di più complesso.
Quindi su questo ti do completamente ragione, c'è un salto di qualità a cui bisogna porre molta attenzione. Perché prima ho parlato del salto storico che è avvenuto con il passaggio dallo strumento alla macchina? Perché il passaggio da quella fase dello strumento alla fase della macchina ha prodotto delle rotture epocali.
Faccio un solo esempio per farti capire. Fino a quel momento le comunità umane si sostenevano con delle regole di funzionamento che erano condensate per accumulo di esperienza nei secoli in forme, modalità e regole che variavano da territorio a territorio, da città a città, da paese a paese. E quelle regole erano codificate nella tradizione. La tradizione era importante perché era il condensato di queste istruzioni che servivano alla comunità per sopravvivere. La rottura della tradizione le metteva in discussione. Non era una cosa frivola. Se tu non ti comportavi secondo le regole che quella comunità aveva costruito, mettevi in discussione la vita della comunità. Quindi dovevi stare alle regole.
Quando arrivava uno straniero le cose erano due: o si metteva sotto le regole e quindi diventava un elemento prezioso, perché era un apporto quantitativo al funzionamento di una macchina che però non veniva messa in discussione, oppure immetteva una modifica delle regole che 9 su 10 era negativa o veniva considerata negativa e, di conseguenza, veniva espulso o eliminato dalla comunità. Se invece veniva considerato un apporto positivo, veniva inglobato nella tradizione e lui entrava a farne parte.
Questo ha generato la forma delle comunità umane all’interno delle quali ci sono ancora residui di questi principi sociali, perché l'evoluzione intorno al sistema delle regole sociali e quindi alle tradizioni, è talmente forte che facciamo quasi fatica a non pensarci all'interno di una tradizione. Si può dire che è nel nostro DNA e torna subito a galla nei momenti di crisi, cioè nei momenti di passaggio, perché ha radici più che millenarie. E infatti adesso che sta iniziando questa transizione, questo grande cambiamento, questo passaggio storico dell'umanità, riemerge subito le necessità della tradizione, cioè del circoscrivere la mia comunità, impedire che l'altro venga a distruggere l'equilibrio della mia comunità e la mia comunità è fatta di regole, di culture.
Poi, se vai a vedere bene come oggi viviamo in tutto il mondo, di tutto ciò non c'è più traccia, perché noi tutti andiamo al supermercato a comprare la merce; le catene di approvvigionamento e le società non hanno nulla più a che vedere con quello schema, ma quello schema è culturalmente molto forte e oggi sta vivendo una grandissima trasformazione, perché appunto il passaggio a queste tecnologie è un passaggio storico, ci sta ponendo il tema di una nuova rottura, forse addirittura più profonda di quella che abbiamo vissuto nel passaggio dallo strumento alla macchina, perché questa tecnologia aumenta la capacità e lavora simulando il funzionamento del cervello, quindi delle capacità decisionali.
Siamo all'inizio di una nuova era. Alcuni sostengono che stiamo finendo l'era della preistoria, cioè l'era in cui il soddisfacimento dei bisogni e la sopravvivenza erano in stretta relazione alla mano e non al cervello. Quindi abbiamo la necessità di dar vita a nuove regole, a nuove forme sociali che sono completamente diverse da quelle che noi abbiamo utilizzato fino a oggi e, ovviamente, questo passaggio non sarà un pranzo di gala, perché quando ci sono rotture di questa natura vengono giù tutte le cose che noi abbiamo pensato e creato fino a ieri, dalle istituzioni alla percezione del sé, perché siamo dentro un passaggio di quelli che riscrivono le forme dell'umano.
Stephen Hawking ce l'aveva detto e lo cito nel mio libro AI un viaggio nel cuore della tecnologia del futuro: l'umano, alla fine di questo secolo, potrebbe lasciare il posto a una nuova specie umana, perché non c'è soltanto il rapporto con la tecnologia, ma la stessa struttura cognitiva dell'uomo di fronte a questo salto tecnologico può subire, anzi sta già subendo, delle trasformazioni profonde nella relazione tra l'individuo e la realtà. Siamo quindi in una fase completamente nuova in cui ci si pongono questioni inedite.
Purtroppo i libri che abbiamo sugli scaffali ci dicono poco, perché descrivono quello che è stata la storia fino a questo punto, anche riguardo il confronto sociale, politico, culturale. Ma il salto verso questa nuova realtà lo dobbiamo generare noi, lo stiamo generando noi con i nostri comportamenti, con queste nostre discussioni, con il conflitto sociale e, drammaticamente, anche con le guerre che si stanno producendo, cioè stiamo dentro un crogiolo della storia che sta determinando l'inizio di una nuova fase.
Questa nuova fase si trova di fronte a una biforcazione di modelli e i due modelli hanno pro e contro a seconda di come vengono in qualche modo utilizzati. La biforcazione è centralizzazione o decentralizzazione, che è il grande problema che hanno le tecnologie di oggi, cioè queste tecnologie possono essere sviluppate con grandi processi di centralizzazione e quindi con tutto quello che significa il controllo nelle mani di pochissimi di tutti i processi che l'umanità produce - e stiamo andando ampiamente verso questo modello con i rischi e le distorsioni che questo modello produce - o la decentralizzazione delle strutture con i rischi connessi.
Perché la decentralizzazione della potenza di queste macchine all'interno di un corpo sociale che non ha ancora trovato un equilibrio né tra le classi né in termini geopolitici, prefigura un caos indefinito e anche l'impossibilità di darci regole su come queste tecnologie possono essere utilizzate per il bene e per il male. Il punto è che né politica né la cultura si stanno ponendo i temi di questo processo, di come possiamo, cioè, coniugare il meglio della centralizzazione con il meglio della decentralizzazione e quindi con quali ipotesi di nuove forme di governo, nuove forme di istituzioni che affrontano questo tema.
Ecco questo qui è il punto sul quale vedo una fortissima difficoltà, perché i termini del problema sono tanti. In termini geopolitici, per esempio, si sta andando verso il confronto di due processi di centralizzazione diversi che si scontrano e il decentramento dei processi può produrre un'esplosione che io non saprei neanche definire. Ecco questo è un po' il quadro.