Quella che segue è una traduzione originale di questo articolo del New York Times.
Chelsea Manning è un’attivista statunitense, sostenitrice della trasparenza governativa e dei diritti transgender ed ex analista di intelligence dell’esercito degli Stati Uniti. Nel 2013 è stata condannata a 35 anni di carcere per reati contro la sicurezza nazionale (caso Wikileaks) per aver diffuso documenti segretati sulle guerre in Iraq ed Afghanistan. Ha ricevuto la grazia alla fine della presidenza Obama ed è stata rilasciata a Maggio del 2017.

Per sette anni non sono esistita.

Mentre ero incarcerata non avevo né estratti conto, né bollette, né referenze creditizie. Nel nostro interconnesso mondo dei big data, apparivo non dissimile da una persona defunta. Dopo essere stata rilasciata, la mancanza di informazioni su di me ha creato una serie di problemi, dalla difficoltà ad aprire un conto bancario ai problemi nell’ottenere una patente di guida o affittare un appartamento.

Nel 2010, l’iPhone aveva solo 3 anni, e molte persone ancora non vedevano gli smartphone come quelle indispensabili appendici digitali che sono oggi. Sette anni più tardi, praticamente tutto quello che facciamo ci fa seminare informazioni digitali, lasciandoci alla mercé di algoritmi invisibili che minacciano di consumare la nostra libertà.

La fuga di informazioni può sembrare innocua sotto certi aspetti. Dopotutto, perché preoccuparsi quando non si ha niente da nascondere?

Compiliamo le nostre dichiarazioni dei redditi. Facciamo telefonate. Inviamo email. Le dichiarazioni dei redditi vengono usate per farci restare onesti. Acconsentiamo a trasmettere la nostra posizione in modo da poter ricevere le previsioni del tempo sui nostri smartphone. Record delle nostre chiamate, messaggi e spostamenti fisici sono conservati assieme alle informazioni sui pagamenti. Magari quelle informazioni vengono analizzate segretamente per essere sicuri che non siamo dei terroristi – ma solo nell’interesse della sicurezza nazionale, è la rassicurazione fornita.

I nostri volti e le nostre voci vengono registrati da telecamere di sorveglianza e altri sensori connessi ad internet, alcuni dei quali oggi abbiamo volontariamente messo nelle nostre case. Ogni volta che carichiamo una notizia o una pagina su un social media, ci esponiamo a del codice di tracking, permettendo a centinaia di entità sconosciute di monitorare le nostre abitudini di navigazione e di acquisto. Acconsentiamo a criptici termini di servizio che oscurano la vera natura e scopo di queste transazioni.

Stando a uno studio del 2015 del Pew research Center, il 91% degli adulti americani crede di aver perso il controllo su come le proprie informazioni personali vengono raccolte ed usate.

Quanto hanno veramente perso, tuttavia, è più di quanto probabilmente sospettano.

Il vero potere della raccolta dei dati di massa (big data) risiede negli algoritmi su misura capaci di setacciare, ordinare ed identificare pattern all’interno dei dati stessi. Quando una quantità sufficiente di dati viene raccolta nel corso del tempo, governi ed aziende possono usare, od abusare, questi pattern per prevedere comportamenti futuri. I nostri dati forniscono un “pattern di vita” a partire da tracce digitali apparentemente innocue come connessioni alle celle telefoniche, transazioni di carte di credito e cronologie di navigazione su internet.

Le conseguenze del nostro essere costantemente sottoposti ad analisi algoritmica sono spesso poco chiare. Ad esempio, l’intelligenza artificiale – il termine pigliatutto della Silicon Valley per denominare gli algoritmi di deep-thinking e deep-learning – è promossa dalle aziende tecnologiche come la via verso le comodità hi-tech della cosiddetta “internet-delle-cose”. Ciò include assistenti personali digitali, elettrodomestici connessi ed autovetture a guida autonoma.

Allo stesso tempo, altri algoritmi già analizzano le abitudini sui social media, determinano l’accesso al credito, decidono quale candidato contattare per un colloquio di lavoro, giudicano se un imputato possa essere rilasciato su cauzione. Altri sistemi di machine-learning utilizzano l’analisi facciale automatizzata per rilevare e registrare emozioni, o affermano di poter predire se qualcuno diventerà un criminale analizzandone il volto.

Questi sistemi non lasciano alcuno spazio all’umano, e tuttavia definiscono la nostra vita quotidiana. Quando ho iniziato a ricostruire la mia vita questa estate, ho dolorosamente scoperto che questi sistemi non hanno tempo per le persone che sono uscite dal sistema – non colgono certe sfumature. Ho fatto pubblicamente coming-out come transgender ed ho iniziato la terapia ormonale mentre ero in prigione. Quando sono stata rilasciata, tuttavia, non c’era storia tangibile di me in quanto donna trans. I sistemi di credito e di controllo dei miei dati assumevano automaticamente che stessi attuando una frode. I miei conti bancari erano ancora sotto il mio precedente nome, che legamente non esisteva più. Per mesi ho dovuto portare con me un faldone dei miei vecchi documenti ed una copia dell’ordinanza col mio cambio di nome. E tuttavia, a volte gli impiegati rilevavano la discrepanza, e con una alzata di spalle rispondevano “il computer dice di no” negandomi l’accesso.

Questo modo di pensare plasmato dalle macchine è diventato particolarmente pericoloso nelle mani dei governi e della polizia.

Negli anni recenti il nostro esercito, le forze dell’ordine e le agenzie di intelligence si sono intrecciate in modi inaspettati. Collezionano più dati di quanti possano gestire, e guadano questo mondo di dati fianco a fianco in enormi edifici, solitamente senza finestre, chiamati “fusion centers“.

Queste nuove potenti relazioni hanno creato le fondamenta e dato vita ad un vasto stato di polizia. Algoritmi avanzati lo hanno reso possibile su livelli senza precedenti. Infrazioni minori, o “microcrimini”, possono essere adesso gestiti aggressivamente. E dato che i database nazionali sono condivisi tra il governo e le aziende, questi piccoli incidenti possono seguirvi per sempre, anche se le informazioni sono sbagliate o mancano di contesto.

Allo stesso tempo, l’esercito degli Stati Uniti usa i metadati di innumerevoli comunicazioni per i propri attacchi con i droni, usando il segnale dei cellulari per rintracciare ed eliminare i bersagli.

Nella letteratura e nella cultura popolare, concetti quali “psicoreato” o “precrimine” hanno origine dalla fiction distopica. Vengono usati per limitare e punire chiunque sia segnalato da sistemi automatizzati come un potenziale criminale o una minaccia, persino se il crimine deve ancora avvenire. Ma questo elemento della fantascienza sta diventando rapidamente realtà. Algoritmi di vigilanza preventiva vengono già usati per creare mappe automatiche delle zone ad alto rischio di futuri crimini, e così come la sorveglianza “manuale” prima di essi, in larghissima parte prendono di mira quartieri poveri o di minoranze.

Il mondo è diventato un sinistramente banale racconto distopico. Le cose appaiono le stesse in superficie, ma non lo sono. Senza alcun apparente limite a come gli algoritmi possono usare ed abusare i dati che vengono raccolti su di noi, il potenziale controllo sulle nostre vite è in costante crescita.

La nostra patente di guida, le nostre chiavi, le nostre carte di credito sono parti importanti della nostra vita. Persino i nostri account sui social media presto potrebbero diventare componenti cruciali per essere dei membri funzionanti della società. Adesso che viviamo in questo mondo, dobbiamo capire come mantenere la nostra connessione con la società senza consegnarla a processi automatizzati che non possiamo né vedere né controllare.

Annunci