Un’indagine scopre che la funzione ‘suggested friends’ ha favorito la creazione di reti di supporter e anche aiutato il reclutamento di soggetti deboli. Male anche su contenuti e account: il social fatica a chiuderli e spesso li riattiva dopo le proteste

E SE fra gli amici che potresti conoscere su Facebook saltasse fuori un terrorista? Sembra una barzelletta noir ma è ciò di cui è stata accusata la piattaforma di Mark Zuckerberg (dovessero mai mancare nuovi fronti di polemica quotidiani) da uno studio della no profit Counter Extremism Project con sedi a New York e Londra. L’organizzazione si occupa di sensibilizzare le società hi-tech a rimuovere contenuti estremistici dalle loro piattaforme. Bene, anzi male: in questo caso pare che la funzionalità “persone che potresti conoscere”, cioè i suggerimenti degli amici che popolano le nostre bacheche, abbia inavvertitamente aiutato a intrecciare e far conoscere migliaia di “soggetti sensibili”, chiamiamoli così, l’uno con l’altro.

Insomma, suo malgrado Facebook avrebbe funzionato, almeno in certi momenti e in certe specifiche realtà, come formidabile canale di reclutamento. D’altronde non serve stringere amicizia con un certo utente per vedersene suggerire di “simili” per contesto o per orientamenti: basta solo cliccare su un qualche tipo di contenuto per finire assimilati nello stesso insieme di contatti. Da lì, il pasticcio è fatto. “Il fallimento di sorvegliare in modo efficiente la sua piattaforma ha consentito a Facebook di diventare un posto in cui esistono ampie reti di supporti all’Isis, la propaganda è diffusa, le persone vengono radicalizzate e nuovi sostenitori vengono reclutati” ha spiegato al TelegraphGregory Waters, uno degli autori di un rapporto sul tema dedicato che sarà pubblicato a breve.

Il documento ha messo sotto la lente le attività di un migliaio di supporter dell’Isis in 96 Paesi, scoprendo che utenti con questo genere di “simpatie”, chiamiamole così, venivano quotidianamente suggeriti l’uno all’altro tramite lo strumento “suggested friends”. Sarebbe accaduto perfino allo stesso autore dello studio, letteralmente bombardato di consigli di connessione di questo tipo dopo aver preso contatti con un estremista tramite il social network. Ancora peggio è andata al collega Robert Postings il quale, dopo aver cliccato su alcune pagine di notizie non estremiste ma in cui venivano illustrati fatti di cronaca di quel genere accaduti nelle Filippine ha iniziato a essere inondato nel giro di poche ore da suggerimenti di dozzine di apparenti estremisti di base in quell’area geografica.

“Nel suo desiderio di connettere più persone possibile ha inavvertitamente creato un sistema che aiuta a connettere estremisti e terroristi” ha spiegato Postings. Il rischio, rispetto a soggetti deboli facilmente radicalizzabili, è dunque enorme. Lo racconta molto bene un altro esempio sottoposto dalla coppia di ricercatori: un supporter indonesiano dell’Isis ha inviato una richiesta di amicizia a un utente non musulmano a New York nel marzo 2017. Nel corso dello scambio iniziale lo statunitense ha spiegato di non essere religioso ma tuttavia interessato all’Islam. Nelle settimane e nei mesi seguenti l’indonesiano ha inviato senza sosta messaggi e link contenenti propaganda favorevole allo Stato islamico e, “nel giro di sei mesi – spiega Postings – quell’uomo è passato dal non avere una chiara idea religiosa a essere un supporter radicalizzato dell’Isis”. Meccanismi che chi lavora nel settore conosce bene.

Nello studio si analizza anche il sostanziale fallimento di Facebook nella rimozione di materiale terroristico dalla piattaforma: sui mille profili esaminati dai ricercatori, meno della metà era stata sospesa sei mesi dopo. Segno che il lavoro di “bonifica” è lento e poco efficiente. Anche quando certi profili vengono sospesi in seguito della rimozione di contenuti di un certo tipo i loro account vengono spesso mantenuti attivi o riattivati dopo le lamentele degli intestatari. Un utente britannico è riuscito a “salvare” il proprio profilo per ben nove volte.

“Non c’è spazio per i terroristi su Facebook – ha replicato un portavoce di Menlo Park – lavoriamo in modo solerte per assicurare che non ci siano terroristi o gruppi di questo genere sulla piattaforma e rimuoviamo ogni contenuto che celebri o supporti il terrorismo. Il 99% dei contenuti legati all’Isis o ad Al Qaeda che rimuoviamo è individuato dai nostri sistemi automatizzati”. Evidentemente le maglie continuano a essere troppo larghe e certi algoritmi, come quello dedicato agli intrecci fra amici, sono in grado di innescare veri e propri cortocircuiti.