
A cura di Gianna Martinengo e Stefano A. Cerri, 11 Dicembre 2020
Una reazione a STOA (Science and Technology Option Assesment) Annual Lecture, 9 Dicembre 2020 : Digital Human Rights and the Future of Democracy, lessons from the Pandemia; evento organizzato da Eva Kaili, Membro del Parlamento Europeo e Presidente di STOA
Sommario
Abbiamo ascoltato la “lecture” e volentieri cerchiamo di riflettere e di comunicare: quali erano i temi? Cosa abbiamo imparato? Quale è la soluzione proposta? Cosa resta da fare?
I temi
La relatrice invitata, Prof. Zuboff ha sostenuto con molta convinzione fondata su dati significativi la tesi, che da anni ha elaborato e pubblicato, che la nostra democrazia è fortemente minacciata dalle ingerenze nella nostra sfera privata dei giganti dell’Informatica, come Google, Amazon, Facebook. Questi hanno progressivamente invaso la nostra vita privata, e, in cambio di servizi “gratuiti” raccolgono gigantesche quantità di dati personali per elaborarli e rivenderli sotto forma – essenzialmente – di informazioni o previsioni commercialmente “ricche” sul nostro comportamento, sulla nostra salute, sulla nostra sfera privata insomma. Dunque, i loro servizi sono ampiamente ripagati dai nostri dati personali i quali sono “l’oro nero del 21° secolo” secondo molti.
La metafora è importante, perché esattamente come nel caso del petrolio, il punto (sostenuto da Zuboff) è che dobbiamo cambiare assolutamente il nostro modello di sviluppo non permettendo più di estrarre “il petrolio / i dati personali” cioè regolando con leggi l’acquisizione dei dati – ora priva di regole – da parte delle società che usano gli stessi per farne immensi profitti.
Le osservazioni sono state numerose e fortemente cariche di interrelazioni nella argomentazione. Non riusciremmo a riassumerle; riusciamo forse a commentarne il senso.
Cosa abbiamo imparato
A parte il rigore e la ricchezza argomentativa della Prof. Zuboff, francamente eravamo già consapevoli della situazione. Già nel 2008 il collega Sir Nigel Shadbolt scriveva “The Spy in the Coffee Machine: The End of Privacy as We Know It” : https://www.amazon.it/Spy-Coffee-Machine-Kieron-OHara/dp/1851685545 . Da quegli anni ad oggi molta acqua è passata sotto i ponti, l’impatto di Web è diventato pervasivo sia nella sfera privata che in quella pubblica o professionale, abbiamo quasi dovunque accesso alla banda larga e ci aspettiamo ulteriori “progressi” grazie all’”Internet delle cose”.
Si, progressi, i quali come sempre si accompagnano a rischi e talvolta anche minacce.
Si tratta di assumere un atteggiamento scientifico: cioè cercare di capire e prevedere i fenomeni naturali. Esistono fenomeni “naturali” positivi e negativi; la natura essendo fatta dalla terra in cui abitiamo, da animali, vegetali e minerali (come l’acqua degli oceani), e da miliardi di umani: anche essi fanno parte integrale della natura, e sono evidentemente all’origine di molti cambiamenti, come aveva notato per la prima volta negli anni ’90 un grande ecologo, Francesco Di Castri.
Capire e prevedere serve in molte situazioni. Esempi negativi: la pandemia, il riscaldamento climatico e l’inquinamento ambientale, la scomparsa di specie animali o vegetali; esempio positivo: l’aumento generalizzato e benvenuto dell’età media degli umani in vita grazie alla medicina e ad altre condizioni favorevoli dovute al progresso. Capire e prevedere serve anche per controllare che i nostri dati restino di nostra proprietà oppure, se decidiamo di cederli, non siano usati contro di noi.
Prima di ascoltare la Prof. Zuboff, non eravamo documentati su questo ultimo fenomeno – l’acquisizione e l’uso di dati personali da parte dei “giganti” di Internet - con la consistenza e completezza della nostra relatrice invitata. Un esempio fra tanti: non sapevamo che nel 1985 la quota di documenti digitali fosse attorno al 1%, nel 2000 attorno al 50% ed oggi attorno al 95%, praticamente tutti o quasi. Grazie, Prof. Zuboff: leggeremo i suoi libri, molto interessanti.
Effettivamente, utilizzare i dati personali per tracciare i nostri comportamenti, le nostre preferenze, le scelte, le relazioni umane che abbiamo potrebbe essere un comportamento neutro se questi dati, anche grazie o a causa degli algoritmi di machine learning (cioè la “nuova” Intelligenza Artificiale) non fossero utilizzati per influenzarci.
Naturalmente, secondo i “giganti” del Web, non c’è che la buona volontà di darci quelli che da noi si chiamavano “consigli per gli acquisti”, cioè la pubblicità; in un modo mirato, personalizzato dunque gradito anche dal cliente. Nel caso della salute: ancora di più la giustificazione ufficiale è che i consigli sui farmaci sarebbero preziosi perché efficaci per aiutarci ad evitare malattie o a curare quelle che abbiamo. Ma nessuno ci garantisce che questi siano gli unici modi con cui i “giganti” (o i loro committenti) usino i nostri dati. Anzi, da quello che sappiamo, troppo spesso questi dati sono utilizzati per fini impropri, come influenzare le nostre idee politiche o modificare il nostro comportamento sociale.
Nessun dubbio che l’analisi della Prof. Zuboff sia sensata, fondata, concreta, credibile, e anche molto inquietante. Non nuovissima, ma perfettamente motivata, rigorosamente documentata, calorosamente sostenuta da lei e da molti altri intellettuali impegnati al mondo su questo fronte: la democrazia digitale.
L’analisi è convincente: se non interviene nessuno, abbiamo capito e riusciamo a prevedere un futuro nel quale sarà in gioco non solo la nostra libertà personale ma la stessa democrazia.
La soluzione proposta
La denuncia riguarda ovviamente il fatto che non esiste una legislazione che regoli con efficacia questo fenomeno. Il riferimento della Prof. Zuboff alla complessa legislazione di cui i Paesi si sono dotati – dall’800 ad oggi - per regolare la prima rivoluzione industriale e controllare il rispetto dei diritti dei cittadini non è inutile. È chiaro che solo le leggi possono limitare gli abusi ben noti come il lavoro minorile, la vendita incontrollata di armi come le mine antiuomo, e molti altri comportamenti contrari ai principi fondamentali della convivenza umana. Tuttavia, due osservazioni non possono essere eluse.
La prima è che nonostante le leggi, molti Paesi e molte persone non le rispettano.
Un esempio attualissimo è dato dal caso dell’effetto serra dovuto all’ossido di carbonio e tutte le altre conseguenze disastrose del comportamento umano sulla natura. Sin dal 1990, Rio de Janeiro (https://it.wikipedia.org/wiki/Summit_della_Terra ) a tutti i livelli nazionali ed internazionali si parla di ecologia, di necessità di controllare le emissioni, di cambiare i modelli di sviluppo quasi sempre fondati sull’uso di combustibili fossili. L’ultimo accordo era quello chiamato COP21, 2015, Parigi (https://ec.europa.eu/clima/policies/international/negotiations/paris_it ). Ma uno dei Paesi più importanti, gli Stati Uniti, si è ritirato con l’amministrazione Trump (https://en.wikipedia.org/wiki/List_of_parties_to_the_Paris_Agreement#Withdrawal_from_Agreement) . Altri Paesi hanno firmato ma sono ben lontani da implementare le misure promesse. Fortunatamente alla data di oggi il nuovo Presidente USA Biden ha dichiarato di aderire nuovamente, e l’Unione Europea ha raggiunto un accordo sula riduzione di emissioni. La strada è lunga, ma si progredisce.
Noi pensiamo che finché non ci sarà l’interesse reale, economico, politico a cambiare i modi di produzione e di consumo, i risultati saranno scarsi.
La seconda osservazione è che la digitalizzazione o, più in generale, la “rivoluzione informatica” non è paragonabile alla prima rivoluzione industriale. Infatti, l’Informatica ha introdotto prodotti e servizi che hanno a che fare con l’elaborazione di simboli, non di materia. Questi simboli rappresentano Informazione, e l’Informazione non si consuma, anzi si moltiplica se viene comunicata ed elaborata. Per questo l’Informatica della comunicazione ha assunto un peso molto importante rispetto all’Informatica del calcolo. Il mondo digitale non è localizzabile come il mondo industriale; miliardi di persone e di macchine producono, elaborano e trasformano Informazione grazie a miliardi di macchine collegate in rete. Persone e macchine si distribuiscono su tutto il pianeta.
Dunque, è vero che si moltiplicano prodotti e servizi possibili grazie all’uso dei “dati”, ma è anche vero che il controllo globale di questo fenomeno risulta molto difficile, molto più difficile del controllo globale della produzione e del consumo di prodotti e servizi della prima rivoluzione industriale. Non esiste una vera e propria legislazione globale, esistono solo i primi timidi passi verso qualche accordo che conviene a tutti, valido finché conviene a ciascuno.
La nostra convinzione è che certamente le leggi saranno un utile ausilio ad imporre regole che favoriscano la libertà individuale limitando le minacce insite nel mal uso di dati personali, ma non basta. Forse ci vuole anche una nuova cultura non solo digitale, ma anche informatica; forse ci vuole un nuovo impegno di ricerca e sviluppo per favorire l’emergenza di nuove infrastrutture che proteggano la sovranità individuale e delle collettività.
Cosa resta da fare
La prof. Zudoff ha parlato di cultura digitale. Questa dovrebbe essere parte della cultura generale a partire dall’età della ragione, esattamente come la lingua madre ed il ragionamento matematico.
Più che digitale, la chiameremmo cultura informatica. Cioè la consapevolezza – che potrebbe essere coltivata fin dalle scuole elementari – che l’Informazione, assieme alla materia, all’energia ed alla vita, è una proprietà intrinseca della natura. Questa natura comprende anche le società di esseri viventi, umani inclusi. Il comportamento delle api o delle formiche, ad esempio, è regolato da Informazione, perché questa “cosa” ci permette di decidere e di sopravvivere.
Dando all’Informazione uno statuto di proprietà essenziale della natura, si arriverebbe a capire questioni molto importanti, come la differenza fra Dati, Informazione e Conoscenza; la necessità di comunicare attraverso messaggi che siano comprensibili per l’interlocutore, il bisogno di strumenti di misura e di controllo per raggiungere un obiettivo (ad esempio, come avviene nella Cibernetica, o Automatica). Tutte queste sono discipline che hanno formalizzato, anche con l’ausilio matematico, pezzi di natura; soprattutto quella vivente. Cosa sarebbe studiare le cellule senza capire gli scambi di Informazione che permettono loro di vivere? Ed il sistema immunitario che altro non è che un sofisticato sistema di auto-regolazione?
Piano piano, si arriverebbe a capire anche i calcolatori, il digitale, il bit e l’algoritmo. Partendo dalla natura: dopo tutto il DNA è un meraviglioso sistema di codifica digitale; il cervello la rete più sofisticata che esista per codificare, memorizzare e recuperare Informazione e trasformarla in Conoscenza ed in azione. E forse si riuscirebbe anche a capire che l’Informatica è più simile alla linguistica che alla matematica, quando non consideriamo solo l’anatomia (l’hardware, i codici, gli algoritmi, le reti) ma la fisiologia (a cosa serve, come viene usata, come verrà usata). A questo punto l’Intelligenza Artificiale rappresenta una conseguenza naturale dell’approccio culturale, così come le scienze cognitive e lo studio dell’intelligenza naturale, quella emozionale e quella collettiva incluse.
Cultura scientifica Informatica – quella tecnologica-digitale ne fa parte - per capire e prevedere i fenomeni informatici, sia quelli utili, positivi, entusiasmanti che quelli che ci preoccupano e forse ci minacciano. Quante più persone capiscono e prevedono, quanto più sarà inevitabile che queste stesse persone trovino interesse a controllare l’uso di queste risorse, con comportamenti conseguenti. Cultura informatica non solo fra i giovani, che sono cresciuti all’interno della rivoluzione informatica e di Web, ma soprattutto fra i decisori, che più di tutti hanno bisogno di essere aiutati a capire e prevedere.
Ma c’è un altro aspetto che a nostro parere oggi è diventato di importanza fondamentale. Non basta accettare le tecnologie bisogna dominarle. Mentre le tecnologie “classiche” possono quasi sempre essere giusto importate, comperate e pagate, quelle di origine informatica sono per natura diverse ed esigono, per essere davvero capite e previste, un comportamento proattivo, costruttivo perché hanno un impatto pervasivo e non semplicemente strumentale nel nostro comportamento quotidiano. Nel nostro caso: si tratta di investire in ricerca e sviluppo di nuove architetture, protocolli, sistemi, infrastrutture, pratiche che proteggano la sovranità individuale e collettiva.
Esattamente come i “giganti” aspirano i nostri dati, possiamo farlo anche noi per proteggerci. Possiamo costruire un nostro mondo di dati che sia anche, in parte, aspirato da quello pubblico ma che ci permetta di navigare in sicurezza senza il pericolo di essere spiati o derubati. Possiamo tecnicamente costruire spazi Web ad accesso controllato all’interno dei quali esistono solo risorse (documenti, persone, classificatori, eventi, …) della cui validità siamo sicuri perché ne conosciamo la provenienza e ci fidiamo della stessa, e all’interno dei quali possiamo navigare senza il controllo di intrusi. Un giardino privato, individuale o collettivo; diverso da quello pubblico dove possiamo trovare erbacce oppure malintenzionati che non vogliono il nostro bene, ci sfruttano o ci minacciano.
Uno dei progetti di ricerca a cui stiamo lavorando da anni è proprio questo: l’abbiamo battezzato ViewpointS (punti di vista) perché eravamo scoraggiati dalla complessità del Web semantico che ci forzava ogni giorno ad accettare “la verità” di qualche standard altrui (chiamato ontologia). Partendo dallo studio dei processi di apprendimento di concetti e procedure, abbiamo previsto che ogni utente costruisca il suo “punto di vista” – che altro non è che una dichiarazione di “prossimità” fra due risorse - e lo condivida con la comunità, realizzando una specie di “saggezza della folla” o intelligenza collettiva. Man mano, è diventato un progetto sull’apprendimento “per caso” (serendipità: vedi ad esempio il recente articolo https://link.springer.com/chapter/10.1007/978-3-030-60735-7_14 [1] ) ma allo stesso tempo sulla sovranità di uno o mille mondi Web “privati”.
Pensando alla Prof. Zuboff, crediamo con convinzione che la nostra o simili infrastrutture di protezione della sovranità possano essere complementari alle sue proposte di una legislazione globale per il controllo dei dati. Siamo convinti che oltre ai vincoli legali, lavorando in positivo su nuovi paradigmi tecnologici, sistemi, infrastrutture, potremo contare sull’interesse dei singoli e delle collettività a usare strumenti più sicuri e garantiti di quelli attuali pubblici spesso troppo esposti.
Dunque, non solo nuove leggi ma anche più cultura scientifica informatica soprattutto per i decisori e nuove infrastrutture tecnologiche protette riusciranno a farci progredire su questa esigenza, oramai riconosciuta da tutti, di protezione dei dati nella democrazia digitale.
[1] Cerri S.A., Lemoisson P. (2020) Serendipitous Learning Fostered by Brain State Assessment and Collective Wisdom. In: Frasson C., Bamidis P., Vlamos P. (eds) Brain Function Assessment in Learning. BFAL 2020. Lecture Notes in Computer Science, vol 12462. Springer, Cham. https://doi.org/10.1007/978-3-030-60735-7_14

Gianna Martinengo
CEO DKTS
Membro dell’Advisory Board di STOA
Fondatrice e Presidente di Women&Tech®
Expertise: Innovazione tecnologica e sociale, E-Learning, Women’s Empowerment
(per maggiori dettagli sul CV, vedi: https://www.didaelkts.it/gianna-martinengo )
Stefano A. CERRI
(Parma, 1947) è Professore Emerito di Informatica dell’Un. di Montpellier; Distinguished Fellow della Fondazione Bruno Kessler, Trento e Vice Presidente Ricerca e Sviluppo della Società Didael KTS (per maggiori dettagli sul CV, vedi: https://www.didaelkts.it/stefano-a-cerri/ ).
Mail: sacerri47@gmail.com