Ecco come funziona la moderazione su Facebook

Il Guardian ha diffuso alcuni documenti che svelano le linee guida con cui affrontare post su razzismo, sesso, bullismo e terrorismo

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Per quale motivo un post su Facebook, che incita al terrorismo, viene censurato e un altro no? Allo stesso modo: perché due utenti che pubblicano una foto di nudo vengono gestiti in maniera diversa? Ce lo siamo chiesto in tanti, da tempo, e il Guardian ha trovato la soluzione: diffondere le linee guida che mostrano come il social network modera i contenuti pubblicati online e che riguardano temi scottanti, come il razzismo, il sesso, il bullismo e il terrorismo appunto. A differenza di quanto si pensi, molto spesso il fattore umano risulta ancora cruciale nelle logiche del gigante 2.0. Ad esempio, quando si parla di revenge porn, non è così immediato censura o sospendere gli account degli interessati, perché potrebbero non rappresentare una minaccia nell’immediato. In generale è questa l’idea che ci si fa del modus operandi di Facebook: la prevenzione è solo una piccola percentuale del teorema “causa-effetto”, che dipende molto da cosa il team considera realmente pericoloso nell’immediato.

Come agire

Similmente, Facebook non interviene sempre e prontamente quando un utente trasmette in diretta qualcosa che non dovrebbe. O almeno, non se le intenzioni non sono chiare e non vi è una finalità contraria alle policy del gruppo. Facciamo l’esempio in cui una persona decida di esprimere il proprio giudizio anti-razziale con un video live: a che punto e per quale motivo la piattaforma dovrebbe intervenire? Qual è il limite da raggiungere per richiedere un intervento censorio? Insomma, siamo qua a discutere di un leak diffuso dal Guardian ma è chiaro che fin quando sarà l’uomo a decidere non potrà esservi un giudizio univoco su tutti gli aspetti inerenti alla vita sul social.

Leggi anche:  Fandom, la community di appassionati abbraccia l’IA generativa