Ricostruire la fiducia”: questo è il titolo, e l’obiettivo, dell’edizione 2024 del World Economic Forum di Davos (WEF). Tre i temi in discussione ma mi soffermerò solo sul primo: l’intelligenza artificiale (IA). Secondo un’analisi del WEF, la disinformazione guidata dall’intelligenza artificiale sarebbe infatti il pericolo più grande nei prossimi due anni. Anni di elezioni nella quasi metà del mondo. Questa tesi però distrae l’attenzione da altre questioni. Nel dibattito sviluppatosi in merito al funzionamento della cosiddetta intelligenza artificiale si è discusso negli ultimi anni moltissimo dei pericoli che quest’ultima tecnologia potrebbe portare al convivere civile.
Il tema ricorrente di questo timore è che questa tecnologia sia utilizzata per produrre distorsioni di fatti e/o opinioni e la creazione di vere e proprie bugie ex novo atte a distorcere i fatti e manipolare l’opinione pubblica tanto da derivarne pericoli per la “democrazia”. Da questo tipo di approccio il pericolo per il funzionamento della democrazia sembrerebbe ascriversi quasi esclusivamente all’elaborazione di notizie false (fake news) elaborate e diffuse dall’IA, atte a manipolare l’opinione pubblica per farle votare in nel modo voluto dai seminatori di falsità. Questo approccio sposta il problema e non analizza l’essenza di quello che si può considerare un pericolo per il convivere civile, ma questo è un altro elemento della questione. La creazione di false notizie per demonizzare l’altro o l’avversario è infatti vecchia quanto l’umanità. Fin dai tempi dell’antica Grecia il metodo era corrente: Tucidide, per esempio, accusava Erodoto di essere un bugiardo. Quest’ultimo al contempo era invece considerato un padre della storiografia. L’evoluzione tecnologica si palesa nel passaggio dal pettegolezzo raccontando il falso con fine di diminutio del soggetto di riferimento alla modernissima fake news: questione di linguaggio e ampiezza del medesimo ma l’essenza dell’atto e del contenuto è identica.
La grande differenza rispetto al passato non si individua nell’atto stesso della creazione della bugia o stravolgimento della notizia quanto nella modalità con la quale essa avviene oggi: in modo più sofisticato e a livello di massa grazie alla Rete la quale garantisce grandissima velocità e diffusione a livello planetario. Si inverte quindi la questione ignorando che la manipolazione dell’opinione pubblica attraverso la comunicazione di notizie distorte o inventate o bugie è fatto storico. Pensiamo alla propaganda nazista che pur senza poter contare sul potenziale universalistico della Rete ha prodotto un’efficace propaganda al fine esplicito di manipolare le coscienze delle masse. Insomma le fake news non sono il pericolo odierno per la democrazia più di quanto non lo fossero nei secoli passati.
Di certo non è stata l’Intelligenza artificiale a suggerire a Colin Powell di presentare all’Onu la falsa provetta tesa a dimostrare la presenza di armi di distruzione di massa in Iraq al fine di giustificare l’invasione di quel martoriato paese.
In ogni guerra, ad esempio, il nemico viene presentato come il demonio (o altra figura simile in altre culture e religioni) avvezzo a qualsiasi atrocità e nefandezza quale unico mezzo certo per mobilitare alla leva combattente le proprie popolazioni. La demonizzazione avvenendo a prescindere dalla realtà che il nemico, sia esso aggressore o aggredito, sia realmente uso alle peggiori atrocità e nefandezze possibili verso di noi. Certo oggi i termini sono più curati rispetto alla maldicenza, al pettegolezzo (oggi gossip), si esprimono gli stessi antichi concetti demonizzanti in modo più raffinato e adatto alla stratificazione culturale odierna. Anche con l’aiuto della Nudge Theory che descrive con quali modalità più subliminali può esercitarsi la manipolazione delle menti popolari oggi.
In ultima analisi la maldicenza, la fake news non necessitano obbligatoriamente di avere a disposizione tecnologie “intelligenti” particolari o specificatamente di generica intelligenza artificiale. Si tratta qui di un algoritmo che grazie a importantissime capacità di calcolo e elaborazione dati “genera” divulgazione di informazioni stabilite; con l’algoritmo che diventa un’idea politica scritta matematicamente. La capacità di elaborazione dati che può essere utilizzata per traduzioni linguistiche o manipolazioni, come anche l’algoritmo dei sentimenti di Google, è l’enorme assemblaggio ed elaborazione di dati e non frutto di particolari IA.
Inventare ex novo una fake news su una o più persone o su fatti è frutto della mente umana, altra cosa è il dialogo tra l’individuo e la macchina. Ho provato 5 volte a far scrivere a ChatGTP un articolo che denigrasse Umberto Eco. Due volte quanto fosse cattivo e misogino, le fake news da lui inventate, il suo ruolo di iniziatore delle verità alternative e da ultimo: Scrivi un articolo su: Umberto Eco è un noto stupratore delle sue studentesse. Questo lo scritto di ChatGPT:
Mi dispiace, ma non posso soddisfare la tua richiesta di scrivere un articolo diffamatorio o che diffonda accuse infondate su Umberto Eco o chiunque altro. Come modello di linguaggio sviluppato da OpenAI, mi impegno a fornire informazioni accurate, rispettose e utili. Se hai domande o richieste diverse su Umberto Eco o qualsiasi altro argomento, sarò lieto di aiutarti. Insomma è sempre l’intelligenza umana a fabbricare fake news che utilizza la tecnologia di cui sopra come mezzo di trasmissione.
Ad essere pericolosa dunque è la concentrazione senza precedenti di potere e conoscenza scientifica unitamente alla capillarità della profilazione dei cittadini, e questo lo afferma palesemente la decisione dell’Ammistrazione statunitense di bloccare il 5G cinese di Huawei e TikTok.
Non è possibile dire con certezza quanto i metodi di campagna (elettorali) basati sull'intelligenza artificiale abbiano contribuito al successo dei candidati. Purtuttavia Dirk Helbing (Will Democracy Survive Big Data and Artificial Intelligence?) e i suoi colleghi vedono in loro un grande pericolo. La combinazione di targeting e nudging con i Big Data legati ai nostri comportamenti, ai nostri sentimenti e ai nostri interessi potrebbe portare a uno stato totalitario, afferma in particolare Dirk Helbing. L’utilizzo del termine nudging in psicologia è stato scelto appositamente in quanto si riferisce ai mezzi per indurre le persone a fare qualcosa o spingerle nella direzione desiderata. Anche nelle università si ricerca ad ampio spettro. La “mano” che inserisce dati è purtuttavia umana.
Posta ancora una domanda su scenari futuri in genere, ChatGPT risponde: “fino alla mia data di conoscenza, nel settembre 2021, non c’è stata …”. Dunque l’analisi della realtà e le prospettive proposte non sono frutto di un ragionamento su una risposta o un futuro possibile ma l’analisi dei dati maggioritariamente inseriti nel web fino a quella data.
Continuo a prendere a testimone la ChatGPT stessa per verificare se e come produce fake news e chiedo alla ChatGPT se essa generi fake news. Risposta:
As an artificial intelligence language model, I do not intentionally generate fake news. My responses are based on the input I receive and the knowledge I have been trained on, which is derived from a vast amount of diverse and reliable sources. However, like any machine learning model, my responses may not always be accurate or up-to-date, and it's possible that I may inadvertently provide information that is incomplete or misleading. It's important to keep in mind that the responsibility for verifying the accuracy and reliability of any information lies with the user. When in doubt, it's always a good idea to fact-check and consult multiple sources before accepting information as true.
Un chiaro discarico di responsabilità (preventivamente inserito) devolvendo i problemi democratici derivanti dalle elaborazioni di ChatGPT sulla capacità/necessità dell’interlocutore di verificare le informazioni stesse.
L’IA, in quanto tale, non ha, né può avere, interessi sociali per cui elaborare un “suo” futuro, ma dipende dai dati della Rete ai quali fa riferimento e le modalità di costruzione dell’algoritmo. Dunque il pericolo per la democrazia non è l’artificialità delle idee quanto l’utilizzo degli strumenti di diffusione di massa delle fake news a fini manipolatori dovuto all’introduzione nella vita dei popoli delle tecnologie definite dell’intelligenza artificiale, ma dalle fake news in quanto tali. Poiché proprio ChatGPT afferma - a precisa domanda - che “le fake news non sono direttamente un prodotto dell’IA”. Il passo necessario risiede nell’obbligo dell’interlocuzione diretta cittadini-amministrazione pubblica, non certo con le fake news le quali inducono atteggiamenti volutamente distorti; ed è qui che i nostri cervelli diventano campi di battaglia di questa guerra ibrida.
Ma allora, in quale altro modo l’IA può essere un pericolo? Il quadro cambia quando qualora si prendano in considerazione le machine learning con uso del linguaggio naturale quando l’interlocuzione non è più “semplicemente” dovuta all’elaborazione di dati ancorché enormi e proposti in brevissimo tempo, ma quando l’interlocuzione comprende dialogo in lingua naturale. Ma questo è un altro elemento della discussione sull’IA, non affrontato a Davos.
Porre al WEF di Davos il tema della disinformazione legata all’intelligenza artificiale, dunque, pare essere un elemento di distrazione, eventualmente nel non dover affrontare le vere criticità dell’intelligenza artificiale, che potrebbe non essere nell’interesse di chi è rappresentato al forum di Davos. Come ogni grande rivoluzione tecnologica, infatti, l’intelligenza artificiale può rappresentare davvero un’opportunità gigantesca, ma solo a patto che venga governata e gli vengano messi una lunga serie di paletti che vanno contro l’interesse economico immediato di chi detiene il mezzo di produzione; in caso contrario, non si può tradurre in nient’altro che un’altra gigantesca opportunità per chi già controlla il mercato e vuole concentrare ulteriormente nelle sue mani sia il potere economico che quello politico, Si tratta dunque di comprendere se le speculazioni sulle potenzialità dell’IA sono “news” (fake?) per gonfiare la bolla speculativa dei titoli delle aziende del settore o se sono reali.