Parliamo di intelligenza artificiale, un argomento di estrema attualità e che solleva molti dubbi, molte apprensioni e, al contempo, suscita grandi entusiasmi.
Affronto questo argomento grazie alla competenza di Sergio Bellucci che, oltre a essere un caro amico, è un giornalista, saggista, rappresentante italiano dell’Upeace - l'università per la pace dell'ONU - e autore del libro “AI - un viaggio nel cuore della tecnologia del futuro”.
Partiamo da qualcosa di apparentemente banale: perché la chiamiamo intelligenza artificiale?
La chiamiamo intelligenza artificiale per un'operazione di marketing degli anni ‘50. Nel libro racconto che in quel periodo il matematico John McCarthy, nel raccogliere le risorse per finanziare il suo progetto di sviluppo industriale, pensò di chiamarlo “intelligenza artificiale”; una definizione che ebbe grande successo, perché stimolò quel desiderio, forse inconscio, del mondo della finanza di intervenire in questo processo. E infatti raccolse molti soldi e da quel momento il nome “Intelligenza Artificiale” è diventato, almeno nel mondo informatico, un topos, un elemento centrale.
Nel tempo ci sono stati diversi tentativi di costruire modelli intelligenti e, all’esterno del mondo scientifico, c'era grande attesa e molta eccitazione, perché sembrava che finalmente si fosse trovato il modo per elaborare un sistema intelligente. Ma i modelli nascevano e crollavano con una certa rapidità e, altrettanto rapidamente, gli interessi verso la cosiddetta IA si raffreddavano. Quindi abbiamo vissuto, in questi decenni, degli alti e bassi molto consistenti. Poi, a un certo punto, è arrivata la svolta del cosiddetto “AI learning” e la qualità e la forma di questa tecnologia hanno avuto una forte accelerazione che l’hanno fatta progredire rapidamente.
Ho sentito che quelli di OpenAI, i creatori di GPT 4, sostengono che questo strumento ha in sé la capacità di comprensione. Cosa intendono dire?
Una definizione di intelligenza potrebbe essere “la capacità di prendere decisioni in determinati contesti, in funzione del raggiungimento di un obiettivo”. C'è una discussione apertissima e forse anche un'evoluzione da una sorta di antropocentrismo integrale per il quale solo l'umano è intelligente e quindi l'intelligenza sarebbe una prerogativa umana.
Per un periodo abbastanza lungo si è pensato che l'intelligenza potesse essere quantificata e si inventò un meccanismo per dare un valore numerico all'intelligenza, il famoso QI. Con il tempo gli analisti hanno capito che l'essere umano dispone di vari tipi di intelligenza e quindi parlare di intelligenza al singolare è diventato, per gli studiosi, alquanto riduttivo, perché ogni umano dispone di un certo livello quantitativo per ciascuna delle diverse intelligenze che esistono; pertanto, ognuno ha una sua sfumatura di intelligenza.
Quindi la scienza si è vista costretta a interrogarsi sulla definizione di intelligenza e gli studi sviluppati in vari campi ci hanno aiutato a capire che il mondo in realtà contiene un'intelligenza che va al di là di quella umana. Si è visto, per esempio, che le diverse specie animali sono tutte intelligenti, riescono, cioè, a interagire con l'ambiente, a prendere decisioni in funzione di un obiettivo, spesso quello della sopravvivenza e della riproduzione, che comunque non sono obiettivi banali. Stiamo, anzi, parlando di quelli che sono a tutti gli effetti i compiti primari nei processi evolutivi della vita.
Di conseguenza abbiamo capito che non solo gli esseri umani dispongono di diversi tipi di intelligenze, ma che ce ne sono tante anche al di fuori dell'umano. Un altro esempio è dato dalla scoperta che il micelio, l’apparato vegetativo dei funghi che forma un’immensa rete sotterranea, connette le piante tra di loro consentendole di dialogare, riuscendo, per esempio, a capire le esigenze reciproche e di intervenire in sostegno di chi tra di loro è in sofferenza. Perché sanno perfettamente che la sopravvivenza collettiva è l'unico modo per sopravvivere e che, se si è da soli, difficilmente si rimane in vita. Quindi anche lo stesso ambiente vegetale vive di un concerto di interessi, di adattamenti, di decisioni, un sistema di connessioni che possiamo definire intelligente.
Ma ancora oggi la scienza sta lavorando sul concetto di intelligenza e questo sta a significare quanto ambigua e difficile sia la sua descrizione. Per esempio il Santa Fe Institute in Colorado - che negli anni ‘80 mise in atto i paradigmi della teoria del caos e che è un grande crogiolo di competenze a livello mondiale - proprio quest'anno in agosto ha aperto un canale di studio per lavorare sul significato di intelligenza. Sembrerebbe che stiamo attraversando una fase di ripensamento di un certo tipo di struttura e si stia facendo strada l’idea che anche alcuni prodotti generati dagli esseri umani potrebbero avere una loro forma di intelligenza, che ovviamente non ha nulla a che vedere con l'intelligenza umana, con quella di un corpo che nasce, cresce, vive, prova emozioni, eccetera. Ma questo è ciò che definiamo appunto intelligenza umana, ma che non è il modello dell'intelligenza in assoluto.
Insomma, va a capire, Danilo, come siamo fatti e come è fatto il mondo. Per fortuna ci sono tante cose ancora da scoprire.
Su questo tema ci torneremo perché è molto interessante. Bill Gates, che tra l'altro collabora strettamente con Open AI, dice che non è chiaro come la conoscenza venga acquisita dall'intelligenza artificiale. Anche Tim Urban, un blogger molto seguito soprattutto da Elon Musk, dice che non si capisce come funzioni l’IA, perché si forma da sola. Questo aspetto, non essendo un tecnico, non mi è per nulla chiaro.
Certo, perché occorre capire il livello tecnologico a cui siamo arrivati, altrimenti si ha difficoltà a digerire informazioni di questa natura, a causa di un retaggio che ci portiamo dietro da tantissimo tempo: quello dello strumento.
L’essere umano probabilmente diventa tale nel momento in cui si differenzia dalle altre specie animali quando inventa lo strumento. Stanley Kubrik ce lo descrive in maniera stupenda quando in 2001 Odissea nello spazio mostra lo scimmione che giocando con un osso si accorge che quell’oggetto gli permette di generare un'azione, che è quella di riuscire a rompere il cranio di un animale morto; lì ha l'intuizione che quell’osso può moltiplicare la potenza della sua mano. È in quel momento, probabilmente, che si distingue l'umano dagli altri animali, grazie all’invenzione o la scoperta dello strumento e noi, da centinaia di migliaia d’anni, lavoriamo per affinare questi strumenti e moltiplicarli, fino ad arrivare ad avere i computer.
Per questo parlo di un retaggio che dura da tantissimo tempo nell'affinazione di cose che servono ad aumentare la potenza non solo dei nostri arti, ma anche dei nostri sensi. Questo sottintende che, in quanto essere umano, dispongo della possibilità di creare strumenti, anche potenti, per realizzare quanto precedentemente immaginato.
Questo pensiero arriva fino allo sviluppo della società industriale che costituisce una separazione netta tra il prima e il dopo nella storia umana, perché da quel momento lo strumento diventa macchina e la macchina accoglie al suo interno un'azione che prima era esclusivamente umana e la fa diventare un sistema macchinico. E la macchina che man mano si sviluppa è in grado di far sua una parte della nostra capacità mentale e manuale, come saper fare un oggetto e questo genera un’importante lacerazione, perché interrompe questo rapporto generativo cervello-strumento-oggetto che ci ha caratterizzato per tutta la storia evolutiva.
Non solo: la fase in cui il lavoro umano necessario a utilizzare le macchine era ancora assimilabile a quello artigianale - in quanto era comunque necessaria l’esperienza e l’abilità dell’operaio/artigiano - è durata molto poco perché l'invenzione del modello scientifico della produzione da parte di Taylor ha trasformato anche questo rapporto tra l'umano e la macchina in un rapporto derubricato a una mansione insignificante, attraverso un processo di parcellizzazione delle mansioni. Per cui l’uomo non aveva bisogno più di saper utilizzare alcuno strumento, se non la poca conoscenza sufficiente per fare un solo gesto che permettesse il funzionamento della macchina. E questa semplificazione ha comportato nel ‘900 un aumento esponenziale della capacità produttiva, cioè ha permesso la messa al lavoro del sistema macchinico che diventava sempre più automatizzato, ma che ancora necessitava, sebbene in modo periferico, del lavoro umano.
Questo ha prodotto anche la divisione tra chi deteneva la conoscenza del funzionamento dei macchinari, cioè i tecnici e gli operai che dovevano soltanto premere un bottone. Da qui l’alienazione della classe operaia.
Assolutamente sì, questo ha creato una separazione sociale tra l'ingegnere, il tecnico e l'operaio che la utilizzava. Si è prodotta, perciò, una separazione in termini di conoscenza che è stata il vero tema che non abbiamo affrontato in tutto lo sviluppo industriale, perché la società tutta l’ha data per naturale, quando al contrario era il punto di partenza di una separazione gigantesca. Forse solo Marcuse lavorò un po' su questa divisione nel ‘900, criticando le società che non mettevano in discussione la tecnologia, la sua natura e la forma del sistema macchinico.
Per qualche decennio i sistemi informatici hanno lavorato con la logica meccanica; la capacità di calcolo, prima con le valvole e poi coi microprocessori, era progettata come il sistema macchinico, con un ingegnere che decideva come la macchina doveva fare i calcoli. Quindi c'era una decisione umana sul funzionamento del processo del microprocessore e del software che utilizzava quel microprocessore.
Invece di avere un microprocessore che ospita un software ed entrambe vengono progettati da un ingegnere, restando quindi in presenza di un risultato che rimane all’interno di una dimensione umana, oggi ci sono microprocessori molto più efficaci che sono fatti come un wafer, sono composti, cioè, da più strati. Il microprocessore ha un input che gli viene generato e che, di conseguenza, produce un output. Il percorso interno al wafer viene gestito in maniera del tutto casuale dal microprocessore e se il risultato è un risultato negativo il percorso effettuato per il calcolo viene derubricato per importanza, se il risultato invece è positivo viene rafforzato nella sua utilità.
Per cui, questa struttura di percorso che fa il calcolo per avere un risultato, è del tutto casuale, non è conoscibile nel senso che non è possibile capire qual è il percorso che fa, infatti li chiamano “black box”, scatola nera. Quindi il meccanismo di funzionamento è completamente nuovo e il punto è che questo meccanismo che controlla se il risultato è buono o negativo, che in una prima fase dello sviluppo delle intelligenze artificiali veniva fatto sotto il controllo umano, adesso si fa in maniera automatica. Cioè, ci sono dei software che gestiscono miliardi di buono, cattivo, buono, cattivo, in frazioni di secondo, quindi con livelli di addestramento molto più efficaci, dal punto di vista tecnologico e ingegneristico e con risultati non sempre perfetti, ma con una sempre maggiore capacità di inglobare le informazioni e gestire le relazioni con l'ambiente.
Per esempio, un braccio robotico ha la possibilità di avere il controllo di un'azione – cominciamo, quindi, ad avere un'interazione tra queste capacità di calcolo e le azioni nel mondo fisico - e come avviene per l’apprendimento in un essere umano che per compiere un’azione, come prendere in mano un oggetto, magari sbaglia lasciandolo cadere, lo stesso accade per il braccio robotico quando inizialmente agisce in maniera apparentemente inconsulta, prima di realizzare quale sia il modo migliore per afferrare saldamente l’oggetto. Siamo all'inizio di una strutturazione che sta modificando le forme con cui queste macchine apprendono.
Il tanto famoso e utilizzato Chat GPT 4 è stato di gran lunga superato, perché dall'aprile di quest'anno sono cominciate a emergere nuove strutture con cui viene sviluppato l'algoritmo di risposta, che stanno facendo fare un vero salto di qualità. Sembra che l'ultima versione “Chat GPT o1”, che è uscita all'inizio di settembre, poggi su veri e propri ragionamenti; c'è un salto qualitativo nella logica con cui funziona il sistema.
Questa tua risposta mi dà lo spunto per altre domande che mi sono venute mentre tu parlavi, ma le tengo per la nostra prossima puntata.