5 Le Piattaforme Social: possibilità di influenzare reputazione e orientamenti politici

In questa sezione la prima parte verrà dedicata alle analisi che si possono effettuare sui social network per comprendere i profili degli utenti e le tendenze politiche, mentre la seconda parte sarà dedicata a descrivere le azioni intraprese per influenzare gli orientamenti politici.

Profilare gli utenti

A oggi sono offerti molti strumenti di analisi del “sentiment” su Twitter: si tratta di identificare il linguaggio naturale, e le emoji, per estrarre informazioni sullo stato emotivo di chi scrive tweets, in modo da comprendere l’effetto immediato delle campagne di comunicazione, o le reazioni di fronte a notizie rilevanti. Le analisi più accurate partono da un’opera di decodifica da parte di personale addestrato, che poi, per macinare l’enorme mole di dati, viene estesa attraverso algoritmi di machine learning sull’intero campione. Il sentiment ha mostrato in molti casi il proprio potere predittivo: per esempio è notevole la precisione con cui sono stati identificati i paesi europei a maggior rischio terrorismo [1].

La nostra attività su Facebook è in buona parte pubblica, a meno di non utilizzare setting di privacy molto restrittivi. Parte dell’attività è palesemente politica, consiste nella condivisione di contenuti su notizie di attualità, su decisioni governative, oppure nel postare proprie riflessioni, mentre un’altra parte è indirettamente politica, e riguarda i nostri gusti artistici, musicali, letterari ecc. Tale attività consente facilmente di riconoscere preferenze a un utente umano: chiunque, infatti, ha compreso abbastanza rapidamente le opinioni dei propri contatti a partire dai loro post e dalle loro condivisioni; diverse tecnologie stanno cercando di analizzare tali preferenze in un’ottica di Big Data per estrarre informazioni utili a fini commerciali oppure per impostare campagne elettorali – ed è naturalmente su questo secondo aspetto che concentreremo l’attenzione. Come scrive Jerome Lanier [2]: “Una quantità enorme di dati viene raccolta su di te, momento per momento, comprese le espressioni facciali, il modo in cui il tuo corpo si muove, chi conosci, cosa leggi, dove vai, cosa mangi e la tua probabile suscettibilità a vari tentativi di persuasione. Questi dati vengono quindi utilizzati dagli algoritmi per creare feed di stimoli, sia a pagamento che non, progettati per aumentare il ‘coinvolgimento’ e aumentare l’efficacia degli ‘annunci pubblicitari’”.

A ogni analisi corrispondono esperimenti di influenza per misurare la correttezza dell’analisi, dedurre delle regole generali e perfezionare gli strumenti di design a disposizione (in nota una rassegna dei migliori [3]; per esempio, Facebook ha consentito nel 2012 due esperimenti molto contestati a un gruppo di ricercatori della University of California e della Cornell: nel primo esperimento, è stata ridotta l’esposizione dei soggetti (inclusi nel gruppo sperimentale, rispetto al gruppo di controllo) a contenuti positivi immessi dai loro amici nel flusso di Facebook; in un secondo, è stato fatto lo stesso con i contenuti negativi. “Positivo” e “negativo” sono stati decisi in base alla definizione fornita da un software, il Linguistic Inquiry and Word Count [4]. Le parole analizzate sono state oltre 122 milioni, provenienti da tre milioni di post. L’esperimento ha coinvolto quasi 700 mila profili, producendo due risultati: il primo è una dimostrazione dell’effetto di rinforzo – maggiori emozioni nei post producono maggiore risposta scritta, che porta al secondo risultato, ossia il contagio emotivo – subire maggiori stimoli negativi porta a scrivere post negativi [5]. Prima e dopo questo esperimento, sono state svolte analisi sui dati del popolare social network, che confermano pienamente l’ipotesi del contagio emotivo. Per esempio, uno studio su Nature sostiene che l’aggiunta del bottone “ho votato” per le elezioni del 2010 avrebbe spinto 340 mila persone a votare [6].

Il caso Cambridge Analytica e l’influenzamento del voto elettorale

Questo enorme potenziale non poteva sfuggire un uso politico, che è arrivato sotto gli occhi di tutti in occasione dell’elezione di Donald Trump negli USA [7] e della Brexit. Una società, Cambridge Analytica, avrebbe creato il profilo psicologico di circa 50 milioni di statunitensi. I dati sono stati raccolti attraverso una app chiamata Thisisyourdigitallife, costruita dall’accademico Aleksandr Kogan, attraverso la sua società Global Science Research (GSR): centinaia di migliaia di utenti sono stati pagati per sostenere un test di personalità e hanno accettato di raccogliere i loro dati per un uso apparentemente accademico. Tuttavia, l’app avrebbe anche raccolto le informazioni degli amici di Facebook dei partecipanti alla prova, portando all’accumulo di un pool di dati di decine di milioni di persone. La “policy” di Facebook consentiva solo la raccolta di dati di amici per migliorare l’esperienza utente nell’app mentre ne impediva la vendita o l’utilizzo per finalità promozionali, e il social network ha affermato che i dati sarebbero stati ottenuti senza che ne fosse a conoscenza. Cambridge Analytica, finita in bancarotta a causa dello scandalo delle elezioni statunitensi, affermava di avere sviluppato un sistema di “microtargeting comportamentale”, ossia pubblicità altamente personalizzata su ogni singola persona. I suoi responsabili sostenevano di riuscire a far leva non solo sui gusti ma anche sulle emozioni degli utenti. Il cuore del servizio è un algoritmo sviluppato al fine di prevedere e anticipare le risposte degli individui. Il suo ideatore affermava che fossero sufficienti informazioni su 70 “Mi piace” su Facebook per conoscere più cose sulla personalità di un soggetto rispetto ai suoi amici, 150 per saperne di più dei genitori del soggetto e 300 per superare le conoscenze del suo partner. Una volta che Cambridge Analytica fu in grado di avere un profilo per i milioni di elettori statunitensi, i responsabili della comunicazione di Trump poterono inviare specifici messaggi, sovente facendo leva sulle emozioni più negative degli elettori, insistendo sulla loro paura, sulla loro frustrazione, spesso ricorrendo a informazioni false ma credibili, le cosiddette fake news. Le notizie false sono sempre esistite anche prima dei social network, così come la manipolazione dei mass media; ciò che stupisce nell’attuale epidemia, e che ha spinto a coniare un nuovo termine – fake news per l’appunto – è la portata e il coinvolgimento attivo degli utenti. I precedenti media hanno sempre avuto un’unica direzione di interazione: dal medium al fruitore; oggi i fruitori possono trasmettere le notizie attraverso gli strumenti di condivisione (su Twitter, Pinterest, Facebook, Tumblr ecc), e possono anche crearne di proprie, per esempio riadattando immagini con semplici programmi a disposizione di chiunque. Per contrastare il problema delle fake news generate con finalità di manipolazione, Facebook ha intrapreso diverse iniziative: in Germania e Francia ha cercato la collaborazione dei media per la verifica degli articoli segnalati con il proprio strumento di fact checking. I media coinvolti potranno quindi accedere al portale delle segnalazioni e verificare cosa hanno indicato gli utenti. I contenuti fittizi o devianti saranno quindi passati al vaglio e segnalati con un’icona, laddove non supereranno il vaglio di un paio di supervisioni: un messaggio inoltre inviterà l’utente a consultare un sito terzo, per approfondire il tema. Ovviamente, si potrà continuare a condividere anche una notizia falsa, ma una segnalazione apparirà per ribadire il concetto di notizia contestata.

Il sistema non è privo di limiti: recentemente è sorta una polemica per la scelta di uno dei verificatori delle segnalazioni negli USA; il motivo del contendere è il suo orientamento politico fortemente conservatore, nonché alcune accuse di aver creato false notizie contro Obamacare e Hillary Clinton. Nel giudicare un articolo di una testata liberal, ha optato per segnalarlo come “falso”, riducendone dell’80% le chance di condivisione [8]. Siamo di fronte alla riproposizione di un problema decisamente antico, almeno dalla Repubblica di Platone, chi controlla i controllori? Se spetta a Facebook decidere quali testate possono valutare le segnalazione, si attribuisce al social network un enorme potere; ma chi altro dovrebbe decidere? Non di certo i governi, che, a seconda delle maggioranze, potrebbero cercare di favorire la propria parte politica. Ed è complesso dare vita a delle authorities pubbliche, come ben sa chiunque si sia occupato di qualità della ricerca universitaria.

Cercando di sintetizzare una materia in costante evoluzione, i social oggi consentono un’analisi a scopo predittivo, un’identificazione degli opinion leader, un’azione di manipolazione dell’emotività e, infine, la propagazione di false notizie, allo scopo di screditare i propri avversari politici o di consolidare le opinioni dei propri sodali. Un ulteriore aspetto d’attenzione è costituito dalla cosiddetta “filter bubble”, la bolla creata dall’algoritmo di Facebook, progettato per riproporre nel newsfeed sulla nostra homepage i post di persone con cui siamo soliti interagire, creando un naturale rinforzo.

Che fare?

Come si risolvono, sempre che sia possibile, tutti i problemi finora analizzati? L’idea di uscire dai social network è rischiosa: nel caso ad abbandonarli fosse soprattutto una parte politica, l’altra parte aumenterebbe ulteriormente il proprio isolamento cognitivo, radicalizzando le proprie opinioni. Con i social occorre, probabilmente, convivere: è possibile intervenire affinché i fenomeni sopra discussi non si ripropongano?

Soluzioni puramente tecnologiche potrebbero non essere sufficienti, sia perché non esistono per design sistemi pienamente efficaci o sicuri, sia perché si affidano unicamente ai provider dei servizi, in mancanza di un quadro regolamentare certo. Possiamo allora auspicare un miglioramento delle capacità degli utenti di identificare le azioni di manipolazione? Facebook è in definitiva un medium molto recente, la popolazione sta imparando a usarlo e alcuni costumi deteriori stanno in parte scomparendo (per es. stanno diminuendo le foto di cibo che per qualche anno hanno infestato le nostre bacheche). Nel caso in cui la popolazione venisse fornita di migliori strumenti cognitivi, educata a distinguere le fake news, a seguire la netiquette, potremmo aspettarci un uso più consapevole dei social networks? Di certo la via della formazione merita comunque un tentativo, se non altro per mantenere un po’ di controllo umano su dati che si prestano molto bene a uno sfruttamento da parte dell’Intelligenza Artificiale.

5 Le Piattaforme Social: possibilità di influenzare reputazione e orientamenti politici

Lascia un commento