facebook censura troppo gli estremisti
Facebook è stato messo sotto pressione dall’opinione pubblica per rimuovere contenuti estremisti, disinformazione e abuso dalle sue piattaforme per diversi anni. Ha affermato di aver compiuto importanti passi avanti, impiegando migliaia di moderatori per rivedere i contenuti segnalati e implementare algoritmi per rilevare e rimuovere contenuti inappropriati.
Dopo gli attacchi terroristici di Christchurch a marzo, in cui un presunto suprematista bianco australiano ha ucciso dozzine di persone in due moschee e trasmesso in diretta su Facebook, una nuova ondata di condanne ha colpito Facebook e altre piattaforme online, accusate di agevolare la propaganda terroristica.
La prossima settimana, si prevede che i leader mondiali e gli amministratori delegati delle più grandi piattaforme online del mondo si incontreranno a Parigi. Si tratta di una riunione co-ospitata dal primo ministro della Nuova Zelanda, Jacinda Ardern e dal presidente francese, Emmanuel Macron, per impegnarsi a eliminare i contenuti terroristici online .
L’Associated Press (AP) ha presentato una denuncia dicendo che Facebook ha esagerato nell’individuare e rimuovere contenuti estremisti.
Nel corso di cinque mesi l’anno scorso, dei ricercatori hanno monitorato pagine accessibili pubblicamente, controllate da utenti affiliati a gruppi terroristici. Durante questo periodo, solo il 38% dei post che presentavano simboli di gruppi estremisti furono rimossi.
Mentre lo studio ha dei limiti, in particolare perché le piattaforme dei social media normalmente rifiutano di condividere i dati anonimi con i ricercatori, questi ultimi hanno affermato che, le dichiarazioni di Facebook, secondo cui i suoi sistemi rimuovono la maggior parte dei contenuti estremisti, sono quasi certamente imprecise.
L’AP ha rivisto in modo indipendente i contenuti di estremisti su Facebook, scoprendo che :
contenuti sanguinosi ed estremisti, come video di esecuzioni, fotografie di teste mozzate e propaganda islamista, sono rimasti facili da trovare
a causa della loro presenza nei risultati di ricerca.
Una pagina che non è stata rilevata da Facebook includeva l’intestazione “Lo stato islamico” in inglese, sopra una fotografia di una nube di funghi; questa pagina molto probabilmente è sfuggita ai sistemi di Facebook a causa del fatto che il testo è stato inserito nella foto.
Altre pagine che sono rimaste individuabili includono “The American Nazi Party”, “New Aryan Empire” e “Aryan Brotherhood Headquarters”.
L’AP ha anche scoperto che Facebook generava automaticamente video usando materiale estremista, come video animati contenenti messaggi antisemiti che affermavano: “Grazie per essere qui, da Facebook” e il simbolo “Mi piace” istantaneamente riconoscibile di Facebook.
Hany Farid, un esperto di informatica forense all’Università della California-Berkeley e consulente del Counter-Extremism Project, ha dichiarato all’AP che i sistemi di apprendimento automatico di Facebook per la rilevazione dell’estremismo stavano fallendo e che la società non era disposta ad accettare le spese per affrontare il problema .
In risposta allo studio, Facebook ha affermato che i suoi meccanismi non sono perfetti, ma stanno migliorando:
Dopo aver effettuato ingenti investimenti, stiamo rilevando e rimuovendo i contenuti a sfondo terroristico ad un tasso di successo molto più alto rispetto a due anni fa. Non rivendichiamo di trovare tutto e rimaniamo vigili nei nostri sforzi contro i gruppi terroristici di tutto il mondo.
ha detto un portavoce. in una dichiarazione.
Recentemente, Facebook ha messo al bando una manciata di provocatori di estrema destra di alto profilo, tra cui Milo Yiannopoulos, Paul Nehlen e Laura Loomer: una mossa che ha attirato le critiche del presidente degli Stati Uniti Donald Trump.
Questo ha fatto seguito all’annuncio che il materiale che promuove il nazionalismo bianco e il separatismo bianco – i movimenti estremisti a cui sarebbe stato affiliato lo sparatutto di Christchurch – sarebbe stato bandito dalla piattaforma.