3 I robot digitali e l'attacco alle informazioni

1984: la prima sfida tra software (Core war)

Maggio 1984. Sulla rivista Scientific American (“Le Scienze” in Italia) viene pubblicata per la prima volta la descrizione di Core War (“Guerra dei nuclei”) , un gioco in cui due o più programmi informatici (warrior) combattono tra loro in una ipotetica arena digitale, come moderni gladiatori. Gli autori del gioco (Dewdney e Jones) avevano definito le regole e confinato le battaglie all’interno della memoria di un computer. A trent’anni di distanza, un qualcosa di similare sta avvenendo anche nel mondo reale. Ma non è più solo un gioco per appassionati di informatica.

L’avvento dei “Social bot”

Adesso l’arena sono i social network e i programmi prendono il nome di social bot. [The rise of social bots. Communication of the ACM, July 2016. Ferrara, Varol, Davis, Menczer, Flammini] E non ci sono regole. I conflitti sono automatizzati, su scala mondiale, a colpi di informazioni a bassa credibilità. [The spread of low-credibility content by social bots. Indiana University, May 2018. Shao, Ciampaglia, Varol, Yang, Flammini, Menczer] In particolare, social bot sono stati utilizzati per supportare o contrastare dibattiti politici, creare e diffondere false informazioni (fake news), influenzare i mercati azionari. Ma cos’è un social bot e come opera? In genere, quando una persona vuole crearsi un profilo (account) su un social network (ad es. twitter e facebook), inserisce i propri dati, magari con una foto, si sceglie una password ed inizia a pubblicare informazioni, fare commenti su eventi, foto, notizie, intrattenere relazioni con altre persone utilizzando il sistema di messaggistica (chat). Ci si aspetta che tutti i profili presenti sui social network corrispondano a persone fisiche. Magari c’è qualche simpaticone che preferisce inserire dati non veritieri (quindi nome e cognome inventati, o copiati da altri profili) compresa la foto. Però è facile immaginare che dietro ogni profilo (reale o fittizio) ci sia una persona fisica. Per cui viene dato per scontato che ogni messaggio, ogni foto, ogni like o ogni altra azione compiuta da un profilo provenga da una persona fisica. In realtà non è così. Esistono profili, con tanto di nome, cognome e foto, che sono gestiti in modo automatico da programmi informatici. Per cui i messaggi pubblicati, ma anche tutte le attività di questi profili, non sono azioni di una persona fisica, ma di un computer. E può capitare di essere convinti di interagire con una persona fisica, mentre in realtà è un computer programmato per simulare una persona fisica. Questi sono i social bot, bot come diminutivo di robot: un profilo su un social network che opera e agisce in quanto governato da un chip di silicio. I social bot, oltre a interagire con profili di persone fisiche, interagiscono tra loro, anche in modo coordinato. Per cui può capitare che centinaia di social bot, la “pensino” ad uno stesso modo su una determinata questione, pubblicando messaggi e contenuti tra loro coordinati ed in linea, mentre altri migliaia o decine di migliaia abbiano una “idea” contraria e rispondano con altrettanti messaggi e contenuti ma sostenendo una fazione opposta. Dall’esterno, si può avere l’impressione che una determinata questione sia fortemente polarizzata, quando in realtà si tratta solo di una opinione o punto di vista sostenuto da migliaia di programmi informatici. E’ come vedere un gran premio di Formula 1, senza sapere che tra le vetture in corsa ci sono delle auto a guida autonoma. Come è possibile rendersi conto dell’attività dei social bot? Al momento ci sono ricerche in corso per mettere a disposizione degli strumenti in grado di riconoscerli, [Online Human-Bot Interaction: Detection, Estimation, and Characterization. ICWSM 2017, Varol, Ferrara, Davis, Menczer, Flammini] ma bisogna avere la volontà ed il tempo per effettuare queste verifiche.

Social bot nelle elezioni americane del 2016

L’attività dei bot è stata oggetto di analisi [Algorithms, bots, and political communication in the US 2016 election: The challenge of automated political communication for election law and administration. Journal of Information Technology & Politics. Volume 15, 2018 – Issue 2. Howard, Wooley, Calo.] e negli ultimi anni tra i casi più rilevanti è annotato quello relativo alle elezioni presidenziali americane del 2016. Per esempio, nel corso del primo dibattito elettorale sono stati analizzati [Bots and Automation over Twitter during the First U.S. Presidential Debate. COMPROP DATA MEMO 2016.1 / 14 OCT 2016. Kollanyi, Howard, Woolley] i messaggi (tweet) pubblicati su Twitter relativi ai due candidati.

Chieregato1.png

Di circa 4,5 milioni di tweet, il 39,1% erano pro-Trump, e il 13,6% erano pro-Clinton. Di questi, quelli pubblicati da profili che possono essere considerati social bot (profili con alto livello di automazione, cioè che pubblicavano 50 o più messaggi al giorno) erano:

  • il 32,7% del totale dei pro-Trump;
  • il 22,3% del totale dei pro-Clinton.

Se poi si vogliono considerare anche i messaggi di natura più neutrale, si può vedere come il 23,3% di tutti i messaggi erano generati da bot.

Chieregato2.png

Questi dati acquistano maggiore rilevanza se si considera il valore dei social network nella formazione dell’opinione di una quota della popolazione [Social Media and Fake News in the 2016 Election. Journal of Economic Perspectives—Volume 31, Number 2—Spring 2017—Pages 211–236] [Hunt Allcott and Matthew Gentzkow News Use Across Social Media Platforms 2016 – Pew Research Center 2016. Jeffrey Gottfried and Elisa Shearer ] . In particolare, è stato analizzato che il 62% della popolazione USA adulta si informa sui social network (anche se solo il 18% dichiara di cercare spesso le notizie sui social ed il 26% dichiara di cercarle solamente qualche volta).

Warrior bot vs Social bot

Le previsioni dell’utilizzo nella scena politica di queste modalità di azione sono di un ulteriore aumento e diffusione [Future elections may be swayed by intelligent, weaponized chatbots. MIT Technology Review, September/October 2018. Lisa-Maria Neudert]. Anche se rimane da verificare il reale impatto di questo tipo di attività sulla effettiva formazione di un consenso, è presumibile che i social bot possano acquisire un maggiore spazio, soprattutto in considerazione del loro costo contenuto e della possibilità di diffondere e rendere virali contenuti a bassa credibilità, consentendo campagne apertamente denigratorie con un basso rischio di attribuzione di responsabilità. L’azione di contrasto nei confronti di questi bot è una delle più recenti frontiere della ricerca nella sicurezza delle informazioni. In particolare, per quanto riguarda la creazione di warrior bot in grado, non solo di difendere (ad es. esplicitando e rendendo virale la falsità di una informazione già diffusa) ma anche di attaccare gli altri bot, esponendo ai partecipanti il conflitto (cyber) in corso e depotenziando preventivamente azioni di computational propaganda [Computational Propaganda: Political Parties, Politicians, and Political Manipulation on Social Media. Samuel C. Woolley and Philip N. Howard. Oxford University Press]. Relativamente alle informazioni a bassa credibilità (fake news) è possibile sostenere che siano paragonabili a virus informatici, la cui diffusione determina effetti deleteri nei sistemi informativi. Un virus informatico è scritto in un linguaggio di programmazione, una fake news è scritta in linguaggio naturale. E’ ragionevole pensare che possa essere sviluppato un sistema di individuazione di tali informazioni falsate (basato su un approccio di riconoscimento, in cui parte può essere automatizzato [Automatic Detection of Fake News. Proceedings of the 27th International Conference on Computational Linguistics. Santa Fe, New Mexico, USA, August 20-26, 2018. Veronica Perez-Rosas, Bennett Kleinberg, Alexandra Lefevre, Rada Mihalcea] e parte effettuato con interventi man-made) che porti ad un archivio (database), pubblico, integro e costantemente aggiornato in modo collaborativo. Da questo database, i warrior bot possono attingere le informazioni per riconoscere le fake news e, pilotati da sistemi di intelligenza artificiale, agire sui social network come un antivirus, capace di muoversi anche con azioni offensive nei confronti degli altri bot. In sintesi, i bot possono rappresentare una potenziale minaccia per la formazione di un consenso pubblico, ma esistono già allo studio delle contromisure da poter adottare per limitare rischi ed effetti negativi. Rimane da individuare chi dovrà o potrà guidare queste azioni difensive/offensive, rimanendo credibile nel tempo.

3 I robot digitali e l’attacco alle informazioni

Lascia un commento