Gli algoritmi dei social che cancellano i post e chiudono le pagine
adv

Ecco come funzionano i sistemi di moderazione dei social network

Il social network di Mark Zuckerberg è finito per l’ennesima volta sotto i riflettori per gli errori e per la scarsa trasparenza per i meccanismi di moderazione. Allo stesso tempo e modo, anche gli altri social network non presentano trasparenza per quanto riguarda il meccanismo di moderazione dei contenuti considerati offensivi o non rispettosi della policy aziendale.

Il caso della pagina delle Sardine

Durante la seconda metà di novembre l’algoritmo di moderazione di Facebook ha oscurato la famosa pagina del movimento delle Sardine. Dopo qualche ora, però, il social ha deciso di ripristinarla. Come è potuto succedere? In realtà, l’algoritmo ha individuato un’attività insolita della pagina. Questo si è verificato a causa delle numerosissime interazioni come i commenti che hanno insospettito il sistema di moderazione con conseguente chiusura della pagina. Ovviamente il sistema di censura non è solo automatizzato, ma presenta anche una componente umana. Quest’ultima componente, una volta appurato che non c’era stata alcuna incitazione all’odio, è intervenuta e di conseguenza i moderatori hanno deciso di ripristinare la pagina.

Un sistema di moderazione confuso

È noto che quando ci sono delle attività  sospette sui social, ci sono degli algoritmi che lanciano degli allarmi e la decisione finale viene presa da moderatori in carne ed ossa. Allo stesso tempo, tuttavia, si è optato per interventi automatizzati che però non riescono a distinguere il contesto di immagini e commenti. In aggiunta, sembra che anche i profili più popolari o appartenenti a soggetti con una carica pubblica abbiano un trattamento differente. Non sono pochi i casi in cui il social network ha riservato un trattamento più generoso nei confronti dei contenuti pubblicati da personaggi come Matteo Salvini o Donald Trump, nonostante i loro post violassero apertamente le regole del social network.

Altri social

Anche altri social come Instagram utilizza filtri basati sull’intelligenza artificiale. In particolare, ne esiste uno specifico per i commenti offensivi e uno per i commenti di tipo spam. La particolarità di questi strumenti è che si basano su meccanismi di machine learning. Anche in questo caso però vi sono dei moderatori umani. Per quanto riguarda l’autore dei commenti, Instagram ha introdotto un sistema di allerta che avverte l’utente in caso di eliminazione dell’account o sospensione dello stesso. Infatti, il social network comunica all’utente le motivazioni del provvedimento. Questo fa si che l’utente in questione possa fare appello e ripristinare l’account.

Su Twitter a moderazione dei contenuti non si limita a eliminare il post segnalato, ma addirittura, prima di prendere una decisione il social network consulta il destinatario degli insulti o del post offensivo. Il social utilizza però anche un sistema di rilevamento automatico basato sull’intelligenza artificiale e circa la metà dei tweet illeciti vengono rimossi ancor prima che gli utenti provvedano a segnalarli. Le segnalazioni vengono poi confermate da un team di moderatori in carne ed ossa.