lunedì 25/07/2022 • 06:00
Dare punteggi ai cittadini per, poi, prevedere benefici o sanzioni è una delle modalità più pericolose di trattamento dei dati nella società digitale, capace di generare discriminazione, di ridurre il cittadino a una “cifra” e di aumentare la mercificazione dei dati.
Ascolta la news 5:03
Ce lo insegna, del resto, anche la storia. Questo è il motivo per cui i Garanti privacy e il legislatore europeo sono particolarmente attenti a delineare i limiti giuridici di tali attività.
Una società del controllo e del punteggio
Black Mirror, la pregevole serie televisiva focalizzata soprattutto sugli aspetti patologici delle nuove tecnologie (ma non solo), ha dedicato il primo episodio della terza stagione (“Caduta Libera”) all'idea di una società attorno a noi che valuti costantemente la nostra posizione all'interno di una comunità, elaborando i nostri dati e assegnando continuamente punteggi, o premi, al nostro operato e al nostro stesso modo di vivere.
Lacie, la protagonista della puntata, vive in una città nella quale le persone sono giudicate tramite un'app che si basa sulla loro popolarità e che vede attiva la possibilità di un rating costante (“voto alla persona”) da zero a cinque.
Grazie alle valutazioni altrui, si può vivere più o meno bene nella società: comprare case, accedere a servizi e benefit, ottenere un lavoro migliore.
Sono veri e propri “punti sociali” che condizionano la vita reale, soprattutto se le valutazioni della persona sono negative.
Si pensi a una nostra “giornata tipo” basata su un punteggio costante assegnato a ogni nostra azione di persone e cittadini: usciamo di casa alla mattina con un punteggio di 5 “stelline”.
Ci “comportiamo bene” (ad esempio aiutiamo un anziano ad attraversare la strada, o usiamo i mezzi pubblici invece di inquinare con la nostra vettura, o otteniamo riconoscimenti sul lavoro), le nostre stelline aumentano, e ci si aprono servizi e agevolazioni in società (sconti, priorità in una visita medica, beni gratuiti di prima necessità).
Oppure, al contrario, la nostra giornata è un vero disastro e, pian piano, le nostre stelline iniziano a diminuire sino ad azzerarsi: siamo coinvolti in un piccolo incidente stradale, ci dimentichiamo la scadenza di un pagamento, otteniamo un brutto giudizio sul luogo di lavoro per uno screzio con il capo e… improvvisamente siamo senza “punteggio sociale” e i servizi della società attorno a noi ci vengono negati. Non possiamo più fruire dei mezzi pubblici, non ci accettano in determinati luoghi/locali e il padrone di casa ci sfratta.
Purtroppo, tali strategie di governance dei dati e di marketing non riguardano soltanto il mondo suggestivo della fiction.
Il Garante per la protezione dei dati italiano, nel mese di giugno scorso, ha avviato ben tre istruttorie volte ad analizzare con cura eventuali aspetti problematici di progetti di social scoring che sono stati avviati in città italiane.
Anche in questo caso, il fine di tali progetti è quello della assegnazione di punteggi “in società” ai cittadini per garantire, o meno, particolari benefici.
Il fine degli strumenti di social scoring
Simili iniziative di assegnazione di punteggi ai cittadini partono, solitamente, da iniziative di amministrazioni locali e, in generale, dal settore “pubblico” e dall'amministrazione.
Sono, quasi sempre, “premiali” e non “punitive”, ossia cercano di individuare dei cittadini virtuosi che grazie a un loro comportamento esemplare e a punti che accumulano nei principali settori - protezione dell'ambiente, tasse, sport, cultura e mobilità – ottengono specifici benefici.
Per ogni cittadino premiato, però, è chiaro che vi sia anche un cittadino che “rimane fuori” da questo sistema e che quel determinato beneficio non lo ottiene.
In particolare, sono chiaramente due i punti critici in un sistema di questo tipo: i) la possibilità di discriminazione e i processi di controllo che si possono attuare sui cittadini, e ii) la richiesta alle persone fisiche di un conferimento di dati eccessivo rispetto a quello che sarebbe necessario, conferimento che avviene spesso in maniera volontaria, per profilarle al meglio e con un consenso condizionato fortemente dall'idea di “premio”, di “vantaggio” e di “beneficio”, con un approccio seduttivo tipico delle piattaforme social e del marketing digitale.
La situazione si presenta ancora più delicata se i soggetti coinvolti sono vulnerabili: si pensi a minori, anziani, malati e disabili.
Nonostante molti obiettivi si possano raggiungere anche con trattamenti di dati anonimi o anonimizzati, simili progetti, soprattutto quando vedono la partecipazione di partner privati, hanno uno spiccato interesse a raccogliere dati identificativi e aggiornati dei cittadini per, poi, utilizzarli anche per altre finalità quali la fidelizzazione dei consumatori.
Un sistema di tale tipo potrebbe riguardare anche l'assegnazione, ad esempio, di alloggi popolari. In questo caso, la cautela dovrebbe essere ancora maggiore: la possibilità di incidere sui diritti e le libertà delle persone e delle famiglie è infatti ancora più evidente.
Aspetti politici e giuridici del social scoring
I sistemi di social scoring sono interessanti, per il diritto e la politica, sotto tanti profili.
Vi è un aspetto chiaramente politico che richiama, immediatamente, la Cina e il sistema di governo e di controllo cinese dei cittadini.
In quel caso, il trattamento dei dati, unito all'identificazione di qualsiasi attività del cittadino in rete tramite sistemi di intelligenza artificiale e di riconoscimento facciale, prende la forma di una vero e proprio controllo di ogni aspetto della vita in società di una persona: l'accesso ai mezzi pubblici, gli acquisti, il lavoro, i servizi medici, gli spostamenti.
Se inseriamo questa attività nella nostra “società dei sensori”, ossia una società digitale che analizza costantemente gli impulsi che il cittadino lascia negli spazi digitali, si comprende la pericolosità di simili azioni soprattutto se avviene dolcemente, senza traumi e supera la linea della nostra vita, della nostra casa e della nostra quotidianità. Del resto, notava bene Remo Bodei, tutti ci siamo accorti della caduta del muro di Berlino ma nessuno si è accorto della caduta delle pareti domestiche.
Siamo in presenza, in sintesi, di una delle forme più subdole di sorveglianza, assai più invasiva e, soprattutto, più difficile da evitare, specialmente se attivata durante la vita quotidiana o sul posto di lavoro.
Casa, lavoro e corpo della persona, ha ricordato spesso il Garante nelle sue relazioni annuali, rischiano di diventare sempre di più i nuovi luoghi di sorveglianza e di controllo, e il tutto è agevolato da uno sviluppo esponenziale dei big data causato dall'uso intensivo di tecniche di calcolo sempre più raffinate e precise.
In questo quadro, in sintesi, anche il settore pubblico inizia a essere coinvolto in quel processo di mercificazione dei dati che è il nuovo modello di sviluppo della ricchezza che si basa sulla facile accessibilità alle informazioni delle persone.
L'identità personale del cittadino diventa, così, una semplice cifra per big data, cifra che viene trattata non solo dalle piattaforme ma anche dalla politica locale (e centrale) con precise conseguenze giuridiche.
Del resto, il grande studioso Lawrence Lessig già aveva parlato da tempo di Big Big Brother, ossia un nuovo, enorme “Grande Grande Fratello” che unisce per la prima volta, con finalità di controllo, il Governo e il mondo del law enforcement, le società commerciali, le pubbliche amministrazioni e gli utenti stessi.
Come può intervenire il diritto
Il Garante ricorda, puntualmente, la necessità di una valutazione d'impatto prima di procedere con tali trattamenti, e l'obbligo di verificare con cura il rispetto di tutti gli adempimenti previsti dal GDPR. Questo per tutelare, innanzitutto, i diritti e le libertà dei cittadini.
La recente proposta di regolamentazione dell'intelligenza artificiale “all'europea”, ora in discussione a livello comunitario, ha poi espressamente incluso simili sistemi, se mossi da intelligenza artificiale, tra le categorie vietate.
È stata espressamente vietata, in particolare, l'immissione sul mercato, la messa in servizio o l'uso di sistemi da parte delle autorità pubbliche o per loro conto ai fini della valutazione o della classificazione dell'affidabilità delle persone fisiche per un determinato periodo di tempo sulla base del loro comportamento sociale o di caratteristiche personali o della personalità note o previste, in cui il punteggio sociale così ottenuto comporti il verificarsi di trattamenti pregiudizievoli o sfavorevoli.
Non è facile, però, contenere, nell'era dei big data, la tentazione anche del settore pubblico di profilare i cittadini per, in qualche modo, catalogarli in funzione di servizi. E il confine con il passaggio all'utilizzo di tali strumenti per puro controllo è molto labile.
© Copyright - Tutti i diritti riservati - Giuffrè Francis Lefebvre S.p.A.
Rimani aggiornato sulle ultime notizie di fisco, lavoro, contabilità, impresa, finanziamenti, professioni e innovazione
Per continuare a vederlo e consultare altri contenuti esclusivi abbonati a QuotidianoPiù,
la soluzione digitale dove trovare ogni giorno notizie, video e podcast su fisco, lavoro, contabilità, impresa, finanziamenti e mondo digitale.
Abbonati o
contatta il tuo
agente di fiducia.
Se invece sei già abbonato, effettua il login.