Lo ‘scandalo’ Cambridge Analityca ha portato in superficie una questione assai controversa, e assai ‘antica’ peraltro, ovvero quella del controllo. Dal Panopticon di Jeremy Bentham al Grande Fratello di Orwell, alla moderna gestione dei Big Data, la ‘società di massa’ è sempre stata attraversata dalla pulsione (e dalla opportunità tecnica) di un ‘controllo di massa’. Anche se, in effetti, al di fuori della immaginazione riversata nelle letteratura fantastica, l’obiettivo di un effettivo controllo massivo ha (sinora) funzionato più in quanto fattore dissuasivo, che non in quanto fattore effettivo.
Nel Panopticon [1], paradigma dell’idea di controllo assoluto, l’efficacia sta tutta nel meccanismo inibitorio che la struttura avrebbe indotto: poiché tutti i reclusi erano ‘osservabili’ in qualsiasi momento, ed era loro impossibile sapere chi effettivamente fosse sotto osservazione nel singolo momento, essi sarebbero stati indotti a comportarsi sempre come se lo fossero. A esercitare quindi il potere dissuasivo, più che la struttura in sé era il meccanismo psicologico che questa determinava; in fin dei conti, il potere di controllo risiedeva nella capacità di condizionare la mente dei soggetti cui era rivolto. Con un meccanismo in fin dei conti assai simile a quello per cui giochiamo al superenalotto, benché la possibilità di indovinare il 6 sia di uno su 622.614.630.
E tanto più si estende la platea dei soggetti sottoposta al controllo, tanto più questa diviene sfuggente. Il famoso sistema Echelon [2], proprio perché pensato per ‘filtrare’ tutte le comunicazioni (su rete elettronica) del pianeta, ha una dimensione tale da renderlo elefantiaco, privandolo quindi di quella che (teoricamente) sarebbe la sua unica efficacia, ovvero la capacità di identificare e prevenire le minacce. Nessun attacco terroristico è stato sventato grazie a questo sistema, nessuna ‘rete’ è stata smantellata.
Ma la questione che si pone oggi, più che alla sicurezza guarda alla privacy. Quel che sembra preoccuparci è l’uso degli strumenti di controllo da parte di privati, al fine di condizionare le nostre scelte - commerciali e/o politiche - mentre siamo maggiormente disposti a rinunciare alla nostra privacy in cambio di una maggiore sicurezza (o della promessa di). Al tempo stesso, nell’ordinario l’opinione pubblica non sembra particolarmente attenta alla gestione dei propri dati, anche perché nessuno si sente ‘minacciato’ direttamente. Sia pure inconsapevolmente, ciascuno percepisce che la dimensione di scala è tale da allontanare da sé il focus dell’attenzione. Basti pensare al ricorrente dibattito sulle intercettazioni, che appassiona in realtà solo una ristretta parte di società, quella che - appunto - in virtù del proprio ruolo (pubblico, o criminale...) si riconosce come potenzialmente soggetta a indagine.
D’altra parte, ormai da decenni ‘seminiamo’ informazioni personali in forma di dati. Dalle banche alle società telefoniche, dal sistema sanitario alle compagnie aeree, sono innumerevoli gli organismi che collezionano informazioni sul nostro conto. Solo che questa enorme mole di dati rimane(va) comunque frammentata in diverse banche dati, incomunicanti fra loro, e quindi - benché già estremamente personalizzata - la capacità di ‘profilazione’ sulla base di quei dati rimaneva bassa, e comunque limitata.
Con la ‘seconda fase’ dell’era internettiana, le cose sono cambiate profondamente. Da un lato, si è verificata una espansione esponenziale dei soggetti per i quali si dispone di dati informativi archiviati, e al tempo stesso si espansa enormemente anche la quantità e varietà di questi dati, mentre dall’altro si è verificata una enorme concentrazione delle banche dati (G.A.F.A.M. [3]).
Ciò ha determinato una elevatissima capacità di profilazione - anche se spesso in forma ‘anonima’, ovvero senza che il singolo profilo corrisponda necessariamente a una identificazione reale (nome e cognome, indirizzo, data di nascita...). Che, del resto, è una informazione addirittura ‘secondaria’. Sotto il profilo dell’azione di marketing, infatti, non è rilevante sapere come ti chiami, essendo più che sufficiente conoscere i tuoi gusti, i tuoi interessi, il tuo orientamento sessuale e politico, ecc. ecc. Il vantaggio di possedere ed elaborare i dati, infatti, sta tutto nella possibilità di proporti ciò che potrebbe interessarti, più che nell’associare questo interesse a una persona specifica.
Quello che Google, Apple, Facebook, Amazon e Microsoft (ovvero i big dell’economia digitale) fanno, è utilizzare la gigantesca quantità di informazioni che noi stessi forniamo, su base assolutamente volontaria, per estrapolarne ‘meta-informazioni’, da utilizzare a loro volta per ‘suggerirci’ scelte corrispondenti al nostro ‘profilo’. Siamo nel regno dell’algoritmo [4]. Da questo punto di vista, quel che il caso Cambridge Analityca evidenzia (al di là della ‘liceità’ con cui i dati sono stati acquisiti), non è tanto una questione di privacy - cosa sai di me - quanto una questione di ‘allocazione di potere’ – chi sa cose su di me. Posto che la società globalizzata contemporanea è ormai strutturalmente connessa, e in modo così profondo, da considerare utopistica qualsiasi idea di ‘deconnessione’, il punto focale si sposta dal controllo delle informazioni al controllo su chi le possiede (e sull’uso che ne fa).
Allo stato attuale delle cose, siamo in una fase di transizione, in cui lo sviluppo tecnologico sta considerevolmente accelerando la sua capacità di elaborazione dati e - quindi - di ‘gestirli’ in modo sempre più preciso e veloce. Dal regno dell’algoritmo - ovvero un insieme di codice contenente le istruzioni per estrarre informazioni dai dati, e attivare conseguentemente una o più ‘azioni’ - ci avviamo verso l’impero dell’intelligenza artificiale (A.I.) [5].
L’A.I., infatti, è il passo successivo, il passaggio dal funzionamento ‘meccanico’ a quello ‘intelligente’. Grazie anche al ‘machine learning’ [6], la capacità di interpretazione ed elaborazione dei dati diventerà sempre più simile a quella umana, più precisa, più veloce, più ‘performante’. Contemporaneamente, si appresta l’espansione dell’acquisizione dati da un altro fronte. L’Internet of Things (IoT) [7], moltiplicherà esponenzialmente la quantità di informazioni che - stavolta indirettamente, e fuori dal nostro controllo più o meno consapevole - trasmettiamo alle banche dati.
Nella storia umana, non si è mai data una situazione in cui vi fosse una tale estensione - e una tale ‘profondità’ - di informazioni, concentrate in pochissimi ‘luoghi’, e soprattutto in possesso di privati e senza un corpus legislativo (globale) capace di normarne l’acquisizione e l’utilizzo. 34 anni dopo 1984 [8], il Grande Fratello non è solo un format televisivo di successo, ma una concreta possibilità.
Se, dunque, la questione centrale è il controllo su chi controlla i nostri dati, appare evidente che il ritardo con cui gli stati la affrontano è non solo temporale, ma culturale. Mentre il processo di globalizzazione esplodeva, senza alcun effettivo controllo da parte delle istituzioni portatrici dell’interesse pubblico, le multinazionali private dell’era digitale non solo hanno ‘cavalcato’ questo processo, mantenendosi sempre sulla cresta dell’onda, ma ne sono a loro volta diventate attrici primarie. Si tratta quindi di recuperare un gap assai ampio, che appunto prima ancora d’essere normativo è concettuale, e attiene alla dislocazione del potere. Come assicurare un effettivo controllo sull’uso dei big data? Come stabilire i limiti dell’utilizzo lecito, e della lecita acquisizione?
Può essere la ‘filosofia’ degli open data la risposta a questi interrogativi? Di sicuro, è urgente interrogarsi su queste problematiche; prima ancora che sotto il profilo politico e/o sociologico, sotto quello culturale ed etico. Si tratta di scrivere il finale non di un romanzo, ma della vita delle generazioni a venire.
Note:
[1] Panopticon
[2] Echelon
[3] GAFAM: Google, Apple, Facebook, Amazon e Microsoft
[4] Algoritmo
[5] Intelligenza artificiale
[6] Apprendimento automatico
[7] Internet delle cose
[8] 1984