Il cambiamento epocale dovuto all’elaborazione dei big data, per mezzo degli algoritmi dell’intelligenza artificiale, solleva giganteschi problemi di controllo e di rischio in caso di disfunzione. I dati, proiezione digitale delle nostre persone, sono input fondamentali per produrre avanzamenti in ambito medico e per migliorare le politiche sanitarie. Teoricamente di proprietà degli utilizzatori, in realtà sono registrati e depositati dalle industrie produttrici. La loro sicurezza e l’anonimato non sono garantiti.
Le “tracce digitali” di un soggetto, ad esempio, i comportamenti, i parametri biologici e la posizione, ma soprattutto le eventuali informazioni sensibili in ambiti delicati, a rischio stigma, come quelli dei disturbi mentali, sono facilmente rilevate. Da complessi database, mediante algoritmi di IA, ad esempio, di riconoscimento facciale o analisi genomica, le informazioni possono essere intercettate e manipolate, per discriminare, prevedere o influenzare le scelte delle persone o per richiedere maggiori premi assicurativi1.
Sempre più accessibili e trasparenti, i dati sono anche prede allettanti per la creazione di valore nel mercato digitale. Il concetto di dato personale e anonimo è ormai sparito in una sorta di far web di schedature e profilazioni ossessive, fuori controllo, nel quale la violazione della privacy sembra sistematica: nel 2018, mediante l’utilizzo degli algoritmi di riconoscimento facciale, la metà degli americani è stata schedata nei data base della polizia mentre compagnie private come Karios hanno profilato 250 milioni di individui1.
Si sta dunque cancellando la separazione tra sfera privata e sfera pubblica, le persone hanno acquisito una nuova dimensione, quella social, completamente pubblica. La rete, da possibile risorsa democratica, si è trasformata in strumento di sorveglianza globale da parte delle mega-piattaforme private, versione digitale del Panopticon (“che fa vedere tutto”) di J. Bentham, il dispositivo di sorveglianza carceraria che, a fine Settecento, profetizzava la moderna società del controllo sociale.
Una schiavitù volontaria
Come afferma il sociologo Lelio Demichelis: “Le persone si sono messe in vetrina, hanno accettato di essere sorvegliati in massa… Il sistema ha sfruttato, potenziandola a volte a fini di profitto, la tentazione umana di stare con gli altri e di sapere di loro e il narcisismo derivante dalla socialità innata e dalla tendenza all’esposizione di sé tipico dell’uomo. Ciò che sembrava un valore intangibile, forma della nostra soggettività e mezzo di costruzione della nostra individuazione (la privacy) è evaporata/svaporata”.
I dati personali, la vita intera, la condizione di salute/malattia sono diventati forza-lavoro e merce, un pluslavoro per garantire plusvalore al sistema economico, una risorsa da sfruttare, una merce che noi stessi produciamo diventando lavoratori-produttori di dati personali, in una sorta di schiavitù volontaria. La privacy deve essere minimizzata, diventare un concetto superato, come afferma Mark Zuckerberg, fondatore, presidente e amministratore delegato di Facebook: “Ormai gli utenti condividono senza problemi le informazioni personali online. Le norme sociali cambiano nel tempo. E così anche per la privacy”.
Strumenti di difesa
In Europa le App realizzate per la finalità di diagnosi, cura e prevenzione sono equiparate a veri e propri dispositivi medici e come tali sottoposti a specifica regolamentazione. Sono peraltro presenti criticità in merito alla certificazione di qualità, alla privacy e ad aspetti bioetici. I sensori indossabili accumulano, infatti, grandi quantità di informazioni sensibili che possono essere accessibili senza il consenso degli interessati.
Le istituzioni europee hanno prodotto documenti di garanzia, ad esempio, il recente Regolamento europeo in materia di protezione dei dati personali, conosciuto con l'acronimo GDPR, che pone con forza l'accento sull'importanza della protezione dei dati, nonché l’inasprimento delle sanzioni amministrative a carico dei destinatari dei nuovi obblighi in materia di tutela dei dati personali.
La difesa del diritto alla privacy è la salvaguardia della libertà dell’individuo e di una società che, consapevole di se stessa e delle proprie capacità, dovrebbe essere in grado di dissentire rispetto al potere tecnologico, o almeno di evitare di essere sempre più integrata/identificata secondo le forme e le norme del sistema. La privacy, in una realtà digitale pervasiva, significa anche infatti un livello più alto di trasparenza e di scelta per le persone, in grado di contrastare il controllo centrale.
La soluzione, peraltro, non sta nella semplice riappropriazione dei propri dati mediante norme rigide. Secondo S. Zuboff, sociologa della Harvard Business School, le norme non toccano il punto nodale della questione. La spinta ad introdurre tali leggi, paradossalmente, “non fa che istituzionalizzare e legittimare ancora di più la raccolta dei dati. È come negoziare il numero massimo di ore lavorative quotidiane di un bambino di sette anni, piuttosto che contestare la legittimità del lavoro minorile”2.
La protezione della riservatezza, anche in ambito sanitario, richiederà la concezione di nuovi costrutti, maggiormente allineati agli attuali contesti ontologici prodotti dalle sempre più affascinanti/inquietanti intelligenze computazionali, peraltro indispensabili, a causa delle loro immense potenzialità, per fornire risposte in ambiti ad elevata complessità e incertezza, come quelli della salute/malattia”1.
La risposta deve essere culturale, mediante il recupero e la promozione dei diritti delle persone, compreso quello di rinunciare, consapevolmente, alla fruizione del diritto alla privacy, per chi voglia partecipare al flusso dell’attualità tecnologica ed essere costantemente on line anziché “on life”.