Da qualche tempo, nel tran-tran quotidiano, mi fermo sorpreso che una parte del mio cervello è impegnata, a mia insaputa, a ruminare su ChatGPT e sugli sviluppi dell’Intelligenza Artificiale. Non posso farne a meno. Forse perché fin da piccolo mi piaceva smontare i giocattoli piuttosto che giocarci. Anzi, smontarli e rimontarli era il mio gioco preferito. Finché i miei genitori non capirono l’antifona e mi regalarono la scatola di costruzioni meccaniche Condor n. 5, popolare negli anni ’50, che conteneva un insieme di strisce, lamiere, assi di ferro, ruote dentate, componibili per mezzo di viti e dadi, per costruire gru, automobili, aerei, navi e tante altre macchine. Per la stessa ragione, negli anni ’70 mi sono appassionato al calcolo elettronico. Mi piaceva smontare un ragionamento, rimontarlo in un algoritmo e trasformarlo in una macchina logica che potesse ‘funzionare’ senza di me. La cosa mi procurava una vertigine di potenza: il pensiero che diventava un’azione ripetuta infinite volte senza distrazioni e segni di stanchezza. L’aspetto più gratificante stava nel fatto che sapevo come l’algoritmo operava, perché commetteva errori e dove intervenire per correggere. Con ChatGPT non è più così. Ed è questa la causa del mio rovello.
Ho passato un paio di mesi a scrivere un breve saggio sul metodo scientifico di Leonardo e sull’uso estensivo che egli fa del pensiero analogico per mettere insieme le proprie osservazioni. Non disponeva di un adeguato linguaggio matematico per costruire modelli quantitativi. Gli scienziati dovranno attendere le scoperte matematiche di Newton e Leibnitz. Fino a Newton l’unico linguaggio matematico efficace era quello della geometria, tant’è che lo stesso Newton mise da parte il calcolo che aveva inventato e utilizzò la geometria per divulgare le proprie scoperte. Leonardo ha come programma scientifico la spiegazione di “tutte le qualità” delle forme visibili. Della geometria gli interessa le forme e le proporzioni. Se ne serve per trovare le analogie tra fenomeni eterogenei. Ad esempio, per comprendere la natura della luce disegna un cerchio con molti osservatori disposti intorno. Poiché gli osservatori vedono contemporaneamente lo stesso oggetto, ne deduce che la luce si propaga dall’oggetto agli occhi in onde circolari. A questo punto mette in azione il pensiero analogico: osserva che anche un sasso gettato in uno stagno genera onde circolari. L’analogia gli suggerisce di utilizzare lo stagno come laboratorio per scoprire i comportamenti della luce. Fa un esperimento: lancia due pietre nello stagno e vede che i due cerchi di onde si incontrano senza annullarsi. Il risultato gli fornisce la spiegazione del perché le onde di luce non si mischiano in una orrenda confusione. Una conclusione che anticipa di secoli le scoperte della fisica. Il tutto senza apparati sperimentali, senza misure e senza matematica. Se non è un genio uno così!
Le analogie di Leonardo mi hanno ricordato che Douglas Hofstadter, scienziato cognitivo e professore di Intelligenza Artificiale, autore del celebre Godel, Escher, Bach. Un’eterna ghirlanda brillante (Adelphi, 1984), pone l’analogia alla base della fluidità cognitiva. L’analogia non solo ci consente di creare ponti tra situazioni diverse, ma anche di costruire generalizzazioni, identificando le proprietà comuni di esperienze diverse, e, infine, di utilizzare le generalizzazioni per fare previsioni e comprendere cose nuove. L’analogia è alla base dell’immaginazione e della creatività. Se qualche lettore ha interesse a comprendere qualcosa di più legga il libro di Douglas Hofstadter e Emmanuel Sanders Superfici ed essenze. L’analogia come cuore pulsante del pensiero (Codice Edizioni, 2015). È un volumaccio di seicento pagine, ma ne vale la pena. Scoprirà che i concetti di ‘significato’, ‘apprendimento’ e ‘creatività’ sono meno enigmatici di quanto supponiamo. Scoprirà, soprattutto, che il pensiero analogico è una proprietà di tutti i sistemi viventi, e che, grazie ai progressi dell’elettronica e dell’informatica, da qualche decennio è possibile implementarlo anche in sistemi di Intelligenza Artificiale.
Una analogia è una relazione del tipo “ABC : ABD = MNO : MNP”. La formula si legge “ABD sta ad ABD come MNO sta a MNP”. Le analogie sono dovunque nel nostro linguaggio quotidiano. Ce ne serviamo per dare senso alle cose. Ad esempio, formulando associazioni come “Medico sta ad Ospedale come Maestro sta a Scuola”, creando così un abbinamento tra professioni e luoghi. Oppure quando affermo che il cuore è una pompa (pompa : fa circolare acqua = cuore : fa circolare sangue). Talvolta l’analogia è sottintesa, come in “mi sento un leone”, dove stabilisco un collegamento tra il mio stato fisico e la forza di un leone. L'analogia aiuta a rendere più vivida e significativa l'espressione. I poeti la utilizzano a man bassa per evocare sensazioni e emozioni, come nella poesia di Ungaretti Soldati: «Si sta come d’autunno sugli alberi le foglie». Il piacere del lettore sta nella decodifica dell’analogia.
Quello che fanno i sistemi intelligenti come ChatGPT è costruire nuove analogie sulla base di ciò che hanno imparato nella fase di addestramento. Quando chiedo a ChatGPT di dirmi cosa significa “mi sento un leone”, il sistema mi risponde che mi sento forte, cioè usa l’analogia “io: ? = leone: forza”. Prende la forza del leone e la attribuisce al mio stato fisico. Alla richiesta di fornirmi l’elenco ordinato delle altre possibili analogie, ecco la risposta: forza, determinazione, potenza, coraggio, resistenza, autodisciplina, saggezza, resilienza, empatia, integrità. Le prime cinque sono accettabili, le ultime appaiono totalmente arbitrarie. Come mi ha confermato Mauro Martino, Direttore del Visual Lab. MIT-IBM di Cambridge (MA) non dobbiamo meravigliarci se ChatGPT è creativo. Non è stato progettato per essere un servo obbediente. Sulla base di miliardi di esempi ha imparato a costruire testi mettendo in fila parole su basi probabilistiche. Per imbrigliare la sua propensione a creare è necessario che l’utente definisca accuratamente il contesto entro cui il sistema cui deve selezionare le parole, ciò che deve fare e il risultato che desidera. Il ‘prompt’ che scriviamo nell’interfaccia non è un’istruzione: è più simile a un contratto con tante clausole. Se siamo bravi a scriverlo, senza lasciargli scappatoie, il sistema rispetta i vincoli del contratto più o meno diligentemente, altrimenti, appena può, si prende la propria libertà e inventa. Ciò che dobbiamo imparare è come calibrare la libertà da concedere al sistema. Se siamo carcerieri ci fornisce un contributo banale: leone = forza; se gli lasciamo molta libertà diventa troppo creativo: leone = empatico. Insomma, ChatGPT è un nuovo tipo di macchina, totalmente differente da quelle a cui siamo abituati. E, potete esserne certi, trasformerà il mondo in cui abbiamo vissuto.