Il web ti vede
Il social network più popolare si è lanciato alla conquista del mondo. Per far questo stringe accordi con compagnie telefoniche e fornisce servizi gratuiti. Qualche stato, spinto dalla società civile, dice no. Facebook punta al controllo totale della rete e a incamerare enormi quantità di dati su ognuno di noi. Per poi orientare le nostre vite.
Uno scontro tra due delle più popolose potenze mondiali si è consumato tra il 2014 e il 2015: da una parte l’India, con un miliardo e 250 milioni di abitanti, dall’altra Facebook, con un miliardo e mezzo di utenti. I due giganti sono venuti ai ferri corti, legali, per l’iniziativa Facebook Free Basics, lanciata dal social network in 53 paesi in Africa, Medio Oriente, Asia, Oceania e America Latina, economie emergenti in cui la maggior parte della popolazione ha accesso limitato a internet a causa della scarsa diffusione di computer e smartphone, o per la parziale copertura di rete del territorio nazionale, o ancora per i costi proibitivi delle connessioni. Il programma Facebook Free Basics, fortemente voluto da Mark Zuckerberg in persona (fondatore di Facebook, ndr), consiste essenzialmente nella stipulazione di accordi con operatori mobili locali per fornire un accesso a Facebook di default, ovvero senza la necessità di usare un browser (programma per la navigazione in rete, ndr) per aprire il sito del social network, e con costi di navigazione completamente a carico della compagnia mobile.
Facebook o internet?
Il fatto che l’iniziativa si chiamasse precedentemente Internet.org rivela la vera ambizione del progetto: quella di rendere Facebook non solo la porta d’accesso alla rete, ma un vero e proprio sinonimo di internet. Questa tendenza, in realtà, precede il lancio di Internet.org nel 2014 in Zambia. Due anni prima, nel 2012, nel corso di uno studio per l’organizzazione Research ICT Africa, il capo del team di ricerca, Richard Stork, aveva notato un dato bizzarro: il numero degli intervistati che dichiarava di usare Facebook era superiore a quello di chi affermava di usare internet.
Un caso simile si era verificato, nello stesso anno, in Indonesia, dove Helani Galpaya, una ricercatrice per il think tank LIRNEasia, aveva commentato così i risultati del suo studio: «Sembra che, per gli intervistati, internet non esista. C’è solo Facebook». Altre ricerche condotte in Africa e Asia del Sud confermarono questa tendenza: Facebook e internet sono ormai termini intercambiabili. Un fatto incoraggiante alla vigilia dello sbarco di Facebook Free Basics nella frontiera più ambita: l’India. Per Zuckerberg, intenzionato a far crescere la sua creatura nel più grande mercato mondiale ancora disponibile (in Cina Facebook è tuttora proibito) questo era tutt’altro che un problema: del resto, come ribadito dallo stesso fondatore del social network in interventi pubblici, articoli pubblicati su giornali locali e incontri a porte chiuse con autorità politiche indiane, il punto fondamentale del progetto era consentire a centinaia di milioni di persone di restare in contatto e condividere ricordi, notizie e opinioni. Cento milioni sono già utenti di Facebook ma il potenziale è di 800 milioni. Che tutto ciò avvenga all’interno di un recinto è, a detta della multinazionale, secondario. Facebook Free Basics, nelle parole di Zuckerberg, era un regalo. Che però l’India ha rifiutato.
Il controllo del web
La campagna contro l’iniziativa di Zuckerberg ha portato per la prima volta al centro del dibattito pubblico il tema della neutralità della rete, ovvero il principio che i provider di banda larga debbano concedere a tutti i produttori di contenuti lo stesso spazio. Un controllore (in questo caso Facebook) a guardia dell’accesso al web avrebbe potuto decidere a quali organi d’informazione dare la priorità, lasciando in ombra altri. La scelta potrebbe essere dettata da ragioni politiche o di mercato, dando spazio a contenuti che hanno più possibilità di essere cliccati. La mobilitazione di attivisti ed esperti della rete ha così costretto l’autorità indiana per le telecomunicazioni a revocare l’autorizzazione al servizio offerto dal gigante digitale tramite un operatore di telefonia mobile locale. Un no, arrivato a febbraio 2016, che è stato il più traumatico nei 12 anni di esistenza di Facebook. Per Nikhil Pahlwa, fondatore di «Medianama», un sito d’informazione sul settore delle telecomunicazioni indiane, la minaccia principale sarebbe stata quella di rendere la compagnia di Menlo Park (Facebook) l’unica porta d’accesso al web per la gran parte dei cittadini indiani, che così avrebbero attinto prevalentemente alle informazioni disponibili nel social network per farsi delle opinioni sulla politica, l’economia e la società del proprio paese e del mondo intero.
False notizie, che costano
Non si tratta di riflessioni oziose tra addetti ai lavori, perché le conseguenze sono reali e riguardano la vita, e spesso la morte, di migliaia di persone. Sempre in India, nel novembre 2016, il governo di Navendra Modi ha deciso di mettere al bando, da un giorno all’altro, l’86% della carta moneta in circolazione come misura radicale contro la corruzione. Poche ore prima dell’annuncio ufficiale, la notizia del bando circolò a velocità vertiginosa su WhatsApp, il servizio di instant messaging di proprietà di Facebook, usato da 180 milioni di indiani, e sullo stesso Facebook, scatenando un vero e proprio assalto a banche e altri istituti finanziari per cambiare le banconote di piccolo taglio. Inoltre, secondo la voce che circolava sui social media, le nuove banconote da 500 e 2.000 rupie avrebbero contenuto un microchip per tracciarne i movimenti. La notizia era ovviamente falsa, ma aveva contribuito a seminare il panico e a rendere più frenetica la corsa all’accumulo di banconote di grosso taglio prima del passaggio al nuovo formato. Nella ressa, decine di persone hanno perso la vita.
Un effetto ancora più drammatico della diffusione di notizie false su Facebook si è verificato in Sud Sudan, il più giovane paese africano insanguinato da una guerra civile dal dicembre 2013. Secondo un rapporto delle Nazioni Unite pubblicato lo scorso novembre, «i social media sono stati usati dai sostenitori di tutte le fazioni, inclusi alcuni membri del governo, per esagerare incidenti, diffondere falsità e minacce o lanciare messaggi d’odio».
L’uso dei media per incitare alla violenza non è una novità: è nota l’esperienza di Radio Mille Colline, che contribuì attivamente ad aizzare estremisti Hutu nel 1994 in Rwanda contro i propri compatrioti di etnia Tutsi. E l’importanza delle notizie false come strumento di propaganda governativa per coalizzare le masse contro un nemico, o per inventare il nemico tout court, ha una lunga storia alle spalle. Certo, i social media consentono una circolazione più rapida e virale della propaganda, come il recente dibattito sulle fake news, esploso dopo la vittoria di Donald Trump alle ultime elezioni statunitensi, ha messo più volte in luce.
Cosa sono i Big Data?
Nella discussione sulla rivoluzione in atto nella comunicazione politica, resta sullo sfondo un elemento centrale. Facebook e altri social media consentono di identificare con estrema precisione gli individui non solo più recettivi nei confronti delle fake news, ma anche più autorevoli nella loro rete di contatti, cosicché una bufala rilanciata da loro ha maggiore credibilità. Tutto ciò è reso possibile dalla capacità di social media come Facebook di raccogliere una mole senza precedenti di informazioni personali, i cosiddetti Big Data.
Il tema dei Big Data sta suscitando l’entusiasmo di esperti di cooperazione per lo sviluppo e interventi umanitari, interessati al modo in cui le tecnologie digitali possono aumentare la precisione degli interventi e migliorarne l’efficienza. Meno discusso è il lato oscuro dei Big Data, ovvero quello che la matematica e attivista americana Cathy O’Neil chiama, nell’omonimo libro appena pubblicato, le Weapons of Math Destruction (armi di distruzione matematica, ndr), un gioco di parole sull’espressione Weapons of Mass Destruction, armi di distruzione di massa. Nel saggio della O’Neil le armi sono gli algoritmi usati per elaborare l’enorme quantità di dati prodotti dalle nostre comunicazioni sui social media, transazioni finanziarie e spostamenti fisici, per costruire dei profili che possono essere sfruttati per gli scopi più vari. Il mercato dei Big Data è particolarmente sofisticato negli Stati Uniti, dove sono usati per predire in quali aree urbane verranno commessi dei crimini, o il tasso di rischio per chi chiede un prestito, o il premio per un assicurato.
Cathy O’Neil sostiene che, attingendo alle reti sociali dei cittadini, questi servizi rischiano di cristallizzare delle disuguaglianze esistenti. Pertanto, una persona che proviene da un quartiere disagiato e ha amici o parenti con una storia di insolvenze alle spalle ha meno possibilità di ricevere un prestito e rischia di essere fermato e perquisito più spesso dalla polizia nella zona in cui vive. Anche nei paesi in via di sviluppo un numero crescente di fornitori di servizi finanziari sta usando dati estratti dai social media per stabilire il livello di rischio dei potenziali clienti: è il caso, ad esempio, di Branch e First Access, due fintech, ovvero compagnie finanziarie che usano tecnologie digitali, che offrono prestiti a centinaia di migliaia di utenti di denaro mobile (mobile money, vedi MC luglio, agosto-settembre e novembre 2014, ndr) in Kenya e Tanzania sulla base dei dati raccolti tra contatti telefonici e su Facebook.
Minaccia alla democrazia
Secondo Frank Pasquale, un giurista dell’Università del Maryland e autore di The Black Box Society, la fiducia cieca nei dati generati dall’uso di tecnologie digitali e soprattutto l’opacità dei meccanismi decisionali fondati sugli algoritmi, nasconde una minaccia al principio fondativo delle istituzioni democratiche, ovvero il «conoscere per deliberare». E qui, per chiudere il cerchio, conviene tornare ai social media, ai due maggiori terremoti politici del 2016, ovvero il referendum sul Brexit britannico e l’elezione di Donald Trump alla presidenza degli Stati Uniti, e al filo rosso che lega questi due eventi.
Lo scorso dicembre, due giornalisti investigativi, Hannes Grassegger e Mikael Krogerus, hanno pubblicato sulla rivista svizzera Das Magazin il frutto di un’inchiesta durata diversi mesi che getta una luce inquietante sul modo in cui i Big Data estratti dai social media possono essere usati per individuare elettori tentennanti e condizionarli in una certa direzione. I due reporter hanno puntato la lente su un’agenzia con sede a Londra, la Cambridge Analytica, che ha prestato consulenza sia per Leave.EU, il fronte anti-europeista nel referendum del 23 giugno sulla permanenza britannica nell’Unione europea, che per la campagna elettorale di Trump nella corsa alla Casa Bianca. Cambridge Analytica appartiene al Scl (Strategic Communication Laboratories) Group, una società di comunicazione politica che ha seguito le campagne elettorali di partiti e movimenti politici in tutto il mondo, dalle elezioni in Sud Africa nel 1994 a quelle in Kenya nel 2013, passando da quelle in Ucraina nel 2004 a quelle in Romania nel 2008, incluso un progetto di ricerca condotto in Italia nel 2012 per un non specificato partito politico.
Identikit digitali
Guidata dal 41enne britannico Alexander James Ashburner Nix, la Cambridge Analytica è specializzata nella raccolta ed elaborazione di dati per «audience targeting», ovvero per identificare con la massima precisione i membri del corpo elettorale in modo da modulare messaggi politici che tocchino, per così dire, i tasti giusti. I social media offrono un enorme bacino di dati, e la potenza di calcolo degli strumenti a disposizione permette di trasformare questi dati in informazioni leggibili, stabilendo rilevanze statistiche. Ma ciò che trasforma queste informazioni in proiettili che colpiscono nel segno sono delle tecniche psicometriche ispirate alle ricerche di uno psicologo polacco dell’università di Cambridge, Michal Kosinski.
Durante i suoi studi nello Psychometric Centre dell’ateneo britannico, Kosinski si era occupato di ampliare le possibilità offerte da un modello per identificare diverse tipologie di personalità umana sviluppato negli anni ‘80, il cosiddetto modello Ocean, un acronimo dei termini che, in inglese, significano apertura (Openness), coscienziosità (Conscientiousness), estroversione (Extroversion), piacevolezza (Agreeableness) e nevrosi (Neuroticism). Secondo la teoria alla base di questo modello, la personalità di chiunque può essere ricondotta a una miscela, in parti diverse, di queste caratteristiche. Dopo aver messo a punto un test, MyPersonality App, per ricostruire le personalità dei partecipanti, Kosinski l’aveva condiviso su Facebook aspettandosi che poche decine di amici partecipassero al gioco. Aveva raccolto invece milioni di risposte.
Kosinski e il suo team di ricerca avevano lavorato su questa mole mastodontica di dati e, nel 2012, hanno pubblicato un articolo su un giornale accademico dimostrando che, conoscendo una media di 68 «mi piace» cliccati da utenti americani di Facebook, è possibile indovinare, al 95%, il colore della pelle e, all’85%, se il rispondente è democratico o repubblicano. Il ricercatore si spingeva fino al punto di affermare che conoscendo 70 «mi piace» di una persona la si conosce come se fosse un amico, con 150 come se fosse un figlio e con 300 come se fosse una moglie o un marito. Una disponibilità di oltre 300 «mi piace», elaborati secondo il modello Ocean, consente di conoscere l’utente più di quanto questo conosca se stesso.
Big Data e politica
Secondo quanto riportato dai due giornalisti svizzeri, lo stesso giorno della pubblicazione dell’articolo Kosinski ha ricevuto una minaccia di denuncia e un’offerta di lavoro, entrambe da Facebook. Spaventato dai risultati della sua ricerca, e dalle sue implicazioni politiche, Kosinski però ha declinato l’offerta e, da quel momento, si è dedicato a mettere in guardia sull’impatto dei social media sul dibattito democratico, prevedendo il rischio che questa tecnica possa massimizzare l’influenza delle notizie false sui social media, marcando un pericoloso passaggio dal «conoscere per deliberare» al «conoscere per condizionare». Un incubo che è sembrato realizzarsi quando è emerso che Cambridge Analytica ha usato un metodo ispirato alla ricerca di Kosinski, e basato sull’applicazione del modello Ocean ai dati raccolti sui social media, sia per la campagna della Brexit che per quella di Trump. E che potrebbe rivelarsi molto più di una collaborazione una tantum: uno dei membri del consiglio di amministrazione di Cambridge Analytica è Stephen Bannon, ex direttore di Breitbart, il megafono della cosiddetta Alt-Right, la nuova estrema destra americana, stratega della vittoriosa campagna di Donald Trump e tuttora braccio destro dell’inquilino della Casa Bianca.
La tecnica, usata per la prima volta nel referendum britannico e nelle elezioni americane potrebbe trovare presto applicazione altrove. E potrebbe essere migliorata da agenzie concorrenti. Una delle più avanzate e opache compagnie che operano nel campo dei Big Data applicati alla comunicazione politica e alla raccolta d’intelligence è la Palantir Technologies, creata nel 2004 da Peter Thiel, miliardario tedesco-americano già fondatore di PayPal, il gigante dei pagamenti online nel 1999, e tra i primi a credere in Facebook, di cui tuttora detiene cinque milioni di azioni e siede nel consiglio d’amministrazione. Thiel, a differenza della grande maggioranza degli imprenditori della Silicon Valley, ha preso pubblicamente posizione a sostegno di Trump. La sua Palantir si occupa di analisi di antiterrorismo per il Dipartimento americano della difesa e per altre agenzie di spionaggio e attinge, tra gli altri, ai dati generati dalle comunicazioni sui social media.
Un semplice «mi piace» non dirà poi tanto, ma centinaia possono fornire un profilo completo. Un click non costa nulla ma, come nel famoso slogan forgiato dal video-artista Richard Serra nel 1973 e diventato popolare negli anni ‘90, «Se qualcosa è gratis, vuol dire che il prodotto sei tu».
Gianluca Iazzolino