La mancanza di moderazione sulla piattaforma è peggiorata proprio nel momento in cui avrebbe dovuto raddoppiare gli sforzi per combattere l’odio online e rispondere alla crisi
Dall’inizio della crisi di Covid-19, i messaggi di odio sono esplosi sui social network. Secondo il barometro dell’odio online messo in atto dalla società Netino, sono aumentati significativamente nel primo trimestre del 2020 e rappresentano il 14% dei messaggi. Nello stesso periodo, il numero di commenti di ogni tipo su Facebook è quasi raddoppiato. Questo doppio fenomeno va ben oltre il solo quadro nazionale. Questo odio è causato dagli individui, ma anche da gruppi organizzati, presenti e attivi da molto tempo sui social network. Vedono questa crisi come l’ultima opportunità per trasmettere i loro messaggi e persino la loro ideologia. La viralità di questi messaggi è ancora più forte e le loro conseguenze più preoccupanti che il contesto del parto ha aumentato significativamente il numero di ore trascorse davanti agli schermi, specialmente sui social network.
Leggi anche > Coprifuoco Usa, Trump minaccia
Per rispondere alla crisi occorre la moderazione di facebook
Le piattaforme falliscono nel loro dovere di moderazione. E Facebook, il più grande di questi, è un esempio particolarmente sorprendente. Certamente, notiamo la volontà di Facebook di sostenere la società civile e combattere la disinformazione e le teorie del complotto legate a Covid-19, anch’esse in aumento. Inoltre, la creazione annunciata dal social network di una “corte suprema” , responsabile della decisione indipendente di determinati casi, costituisce uno sforzo che accogliamo con favore. Tuttavia, la mancanza di moderazione sulla piattaforma, già problematica prima della crisi, è peggiorata quando, appunto, sarebbe stato auspicabile che Facebook raddoppiasse i suoi sforzi in questo settore.
Leggi anche > 2 giugno, centrodestra assembrato in piazza
Ciò è tanto più allarmante dal momento che il Wall Street Journal ha recentemente rivelato che il social network aveva ottenuto prove, dopo aver condotto ricerche interne, che il suo algoritmo ha contribuito alla proliferazione di contenuti estremi, senza che ciò lo spingesse a effettuare cambiamenti fondamentali.