Contributo pubblicato su: https://www.knowit.clioedu.it/rivista

 

DIGITALIZZAZIONE, NUDGING E FILTER BUBBLES

Tecnologie, libertà e regolamentazione

Alcuni studi, qualche tempo fa, annunciavano che entro il 2022 Internet avrebbe raggiunto 4,8 miliardi di utenti. Si annunciava la creazione, nel solo 2020, di “più traffico dati di quello creato nei 32 anni precedenti messi insieme”[1].

Così è stato: l’anno prossimo più del 60% della popolazione mondiale sarà connessa alla rete.

In molti conoscono l’immagine che mostra cosa succede su Internet in un solo minuto[2]; colpiscono, più che i numeri degli email inviati (passati dai 156 milioni del 2017 a 187 milioni nel 2018), le 266 mila ore di contenuti visualizzati su Netflix™, i 973.000 login su Facebook™, i 4,3 milioni di video visualizzati su YouTube™ e le 375.000 App scaricate. Tutto in un solo minuto.

La realtà in molti casi ha superato la fantasia dei registi della nostra adolescenza: sui social network imperano bot che simulano comportamenti umani e agiscono con “intenti” nocivi[3] oppure robot che sembrano umani[4] (il caso di Cambridge Analytica e le risposte fornite da Marck Zuckerberg alle domande del Senato sono fatti di cronaca).

Un tale formidabile sviluppo tecnologico porta con sé traguardi e possibilità che qualche tempo fa non avremmo immaginato, ma pone, al contempo, interrogativi decisivi. Studiosi, giuristi, storici e filosofi si confrontano da tempo su questi temi[5].

Se Internet ha modificato la nostra vita in meglio, contribuendo a offrire enormi potenzialità e possibilità a milioni di individui, è però altrettanto vero che il digitale, connettendo le persone alla rete ha spalancato decine di porte dietro le quali vi sono anche quesiti e incertezze determinanti: dalla possibile futura inutilità di alcune mansioni alla necessità di misure di sicurezza sempre più sofisticate per proteggere coloro che utilizzano le nuove tecnologie (basti pensare alle implicazioni medicali di molti strumenti o alla guida autonoma degli autoveicoli); dalla consapevolezza che dovrà necessariamente essere sviluppata e coltivata negli utenti al possibile, o forse doveroso, controllo delle piattaforme che, a loro volta, controllano, veicolano e molto spesso condizionano milioni di informazioni.

Se, infatti, scienza e tecnologia sono neutrali, l’uomo non lo è. Arduo dunque trovare soluzioni alle solo accennate questioni, ancora più arduo solo che si pensi alla natura prevalentemente privata dei big player in questione[6].

Le norme

L’unione europea ha fatto passi da gigante in materia di circolazione e protezione dei dati personali, pur dopo anni di tentativi di rallentamento. Alle norme sovranazionali si sono aggiunte specifiche prescrizioni nazionali[7].

Ma, come noto, le norme si adeguano a quel che la realtà ha già plasmato.

Il Consiglio d’Europa, in apertura di quest’anno, ha indicato con forza alcune tematiche che le moderne democrazie dovranno tenere in considerazione, sottolineando, in particolare, che la protezione dei dati personali, pur fondamentale, dovrà però essere accompagnata anche da altre precauzioni, per regolare l’utilizzo, per esempio, dei dati “inferiti”[8]. Il tema è affascinante.

Portabilità e dati “inferiti”

Tra le novità del regolamento europeo in tema di diritti degli interessati spicca, tra altri, il c.d. “diritto alla portabilità” [9], già conosciuto nel settore della telefonia. Favorisce, in sintesi, la possibilità di controllare le proprie informazioni e facilita la trasmissione di dati tra titolari, aumentando di conseguenza anche le opportunità del libero mercato.

La portabilità delle informazioni riguarda, in particolare, dati conferiti da un interessato e trattati con sistemi automatizzati[10].

Il tema del controllo dell’interessato (e, quindi, anche dei nostri diritti) in ordine all’utilizzo di tali dati è molto delicato. Il Gruppo di Lavoro dei 29, oggi EDPB (European Data Protection Board[11]) ha in passato precisato al riguardo come “dati forniti direttamente dall’interessato” debbano ritenersi (solo) quelli relativi e derivanti dalla sua attività nell’ambito dei rapporti che egli ha con il titolare del trattamento, ma non quelli che il titolare, autonomamente, derivi o tragga da operazioni di data analysis o di profilazione: tali dati, “creati” dal titolare con autonome operazioni di analisi, non sono oggetto del diritto alla portabilità dell’interessato, anche se al medesimo riferibili[12]: sono, questi ultimi, appunto, i “dati inferiti” (inferred data), ossia i dati tratti da altri dati[13].

Queste informazioni, utilizzate su grandi scale, sono in grado di influenzare scelte, comportamenti, opinioni e coscienze degli individui.

La Dichiarazione del 13 febbraio 2019 del Consiglio d’Europa prende posizione al riguardo sin dal proprio titolo: essa è infatti dedicata alle “manipulative capabilities of algorithmic process[14].

Non può non convenirsi che l’enorme produzione di informazioni resa possibile dallo sviluppo digitale consenta, se non governata, “forme massive di profilazione dei comportamenti”. I rischi e i pericoli sono evidenti[15].

La nuova frontiera di una possibile e probabilmente doverosa regolamentazione sembra, però, un’altra: non più, o non soltanto “il trattamento dei dati delle persone, ma la capacità di fare previsioni comportamentali sulla base dei trattamenti” … di dati anche di altre persone[16], sfruttando le correlazioni comportamentali di una massa enorme di individui.

“Nudging”

E’ interessante come un concetto proprio della psicologia comportamentale possa essere riferito alle possibili manipolazioni degli individui consentite da operazioni algoritmiche.

In base a tale teoria, infatti, piccoli aiuti, suggerimenti o incentivi possono indurre le persone a effettuare alcune scelte, piuttosto che altre[17]. La possibilità che esse possano essere condizionate da possibili incentivi decisionali, combinata con l’analisi preventiva di milioni di comportamenti che precedono la scelta, appare questione affascinante e al contempo inquietante.

Se il momento dell’indecisione è quello nel quale un soggetto può essere più permeabile e più “vulnerabile”, è evidente che la disponibilità di informazioni in merito a decisioni prese in situazioni del genere da milioni di persone combinata con “incentivi” sapientemente dosati possano essere elementi in grado di determinare chi riuscirà a “portare dalla propria parte” un individuo.

Le “filter bubbles”

Completiamo queste brevi osservazioni con il concetto di “bolle” informative, che sostanzialmente richiama un ecosistema creato dalla società digitale sulla base delle attività dei soggetti, con inclusione di tematiche e informazioni “piegate” o suggerite sulla base delle precedenti attività e che, in pari tempo, esclude o elimina quelle ritenute meno interessanti o piacevoli. Si tratta di operazioni effettuate sulla base dell’analisi continua delle singole attività svolte in rete (tramite navigazione, social, applicazioni varie, anche di tipo Iot).  A ben vedere, la correlazione tra le possibili interferenze di un tale sistema con la libera autodeterminazione è estremamente rilevante.

L’odierna possibilità (o pericolo) che la nostra “visione” del mondo sia pesantemente condizionata dagli algoritmi, dalle loro capacità di autoapprendimento, oltre che predittive, è evidente.

Il Regolamento Europeo più volte citato può certamente, per alcuni versi, costituire un valido strumento per evitare che le persone siano sottoposte a decisioni effettuate mediante procedimenti completamente automatizzati[18].

Resta però che le macchine sono progettate da uomini, come lo sono gli algoritmi. Gli uomini, inoltre, producono le leggi e dovrebbero farle rispettare.

Scienza e tecnologia sono il motore del progresso, della civiltà e del benessere, ma non devono andare disgiunte da un sano umanesimo e dalla libertà di autodeterminazione.

Una delle più grandi sfide che ci attendono sarà trovare il giusto equilibrio tra scienza, progresso e libertà. Che, poi, sono sempre stati la sfida e insieme il compito dell’uomo.

[1] CorCom, 29 novembre 2018: https://www.corrierecomunicazioni.it/digital-economy/internet-siamo-solo-allinizio-scatta-lera-del-multi-zettabyte/.

[2] A questo link è possibile anche esaminare le differenze e l’aumento di interazioni negli ultimi anni: https://www.visualcapitalist.com/internet-minute-2018/.

[3] https://www.mylegge.it/2019/04/19/distil-networks-il-20-del-traffico-web-e-composto-da-bot-pirata/

[4] https://www.instagram.com/lilmiquela/: Lilmiquela è una “influencer”, ma non esiste nella realtà, è realizzata in computer grafica ed ha, ad oggi, 1,6 milioni di follower. Wired Italia, Estate 2018.

[5] Si pensi, tra le sterminate fila di scrittori, ad esempio, a Y. N. Harari, 21 Lezioni per il XXI Secolo, Saggi Bompiani, 2018 e anche a R. Susskind, L’avvocato di domani. Il futuro della professione legale tra rivoluzione tecnologica e intelligenza artificiale, goWare & Guerini Next, 2019.

[6] Per interessanti spunti in relazione a un recente caso di cronaca, v.: https://webradioiuslaw.it/casapound-la-censura-di-facebook-intervista-allavv-andrea-lisi/.

[7] I riferimenti sono, come evidente, al Reg. Europeo nr. 679/2016 e, per l’Italia, al decreto di adeguamento del D.Lgs. 196/203 effettuato con il provvedimento dell’estate scorsa.

[8] Consiglio d’Europa, Dichiarazione del 13 febbraio 2019: https://search.coe.int/cm/pages/result_details.aspx?objectid=090000168092dd4b.

[9] Art. 20 Reg. Europeo nr. 679/2016. Per una compiuta analisi del tema, si veda: L. BIANCHI, in Circolazione e Protezione dei Dati Personali, tra Libertà e Regole del Mercato, Commentario al Reg. UE n. 2016/679 e al novellato d.lgs. 196/2003, a cura di R. PANETTA. Giuffrè Francis Lefebvre, 2019, Cap. X, pagg. 223 e ss..

[10] Il diritto è infatti esercitabile solo laddove il trattamento sia basato sul consenso ed effettuato con mezzi automatizzati, come precisato dal citato Art. 20, 1, lett. a) e lett. b).

[11] https://edpb.europa.eu/.

[12] WP 29, Guidelines on the right to “data portability”, 27 ottobre 2017: https://ec.europa.eu/newsroom/article29/item-detail.cfm?item_id=611233.

[13] Si veda F. PIZZETTI, su Agenda Digitale, 13 luglio 2018: https://www.agendadigitale.eu/sicurezza/portabilita-dei-dati-nel-gdpr-cosa-significa-e-cosa-implica-questo-nuovo-diritto/.

[14] Cfr. nota 6.

[15] Si veda, ancora: F. PIZZETTI, su Agenda Digitale del 26 febbraio 2019: https://www.agendadigitale.eu/cultura-digitale/dati-inferiti-regolarne-luso-per-tutelare-le-persone-la-nuova-frontiera-della-privacy/.

[16] V. G. D’Acquisto, DigEat 2019, lato B, pag. 26, “Any colour you like”.

[17] Teoria dei nudge, su Wikipedia: https://it.wikipedia.org/wiki/Teoria_dei_nudge.

[18] V. Art. 22 GDPR.