Il revisore dei contenuti per Facebook non è un lavoro semplice, i discorsi d’odio e le fake news sono la regola

Fare il revisore dei contenuti per Facebook in questo periodo non deve essere un bel lavoro. I dati che ne sono venuti fuori in questa trimestrale e nella precedente non sono decisamente incoraggianti per il moltiplicarsi di discorsi d’odio e fake news. Gli odiatori seriali, e non solo, stanno lavorando alacremente per renderlo un posto peggiore. I dati parlano di un social in netta crescita, tocca però chiedersi come stia avvenendo questa crescita.
I dati
Da Menlo Park fanno sapere che la AI e gli algoritmi stanno lavorando tantissimo per arginare il diffondersi di fake news e messaggi d’odio di ogni genere. Nel primo trimestre del 2020 sono stati rimossi 9,6 milioni di post di cui l’88,8% molto prima che arrivassero le segnalazioni degli utenti. Un aumento dell’86% dei messaggi rispetto all’ultimo trimestre del 2019. Anche gli utenti hanno dato una mano a fare ripulitura con le segnalazioni.
“Abbiamo visto un enorme cambiamento nel comportamento attraverso il sito a causa di COVID-19, un enorme aumento della disinformazione che riteniamo pericolosa”
Mike Schroepfer, CTO di Facebook
Le rilevazioni di Facebook sono ottimistiche?
A fare le pulci a questi dati ci ha pensato Caitlin Carlson, professore associato presso la Seattle University, che afferma che i 9,6 milioni di post rimossi per incitamento all’odio sembrano sospettosamente piccoli rispetto all’enorme rete di utenti di Facebook.
Carlson ha pubblicato i risultati a gennaio da un esperimento in cui lei e un collega hanno raccolto più di 300 post di Facebook che sembravano violare le regole del discorso d’odio della piattaforma. Solo circa la metà dei post è stata infine rimossa; i moderatori dell’azienda apparivano più rigorosi nel far rispettare i casi di insulti razziali ed etnici che la misoginia.
I revisori dei contenuti e il PTSD
Dicevo all’inizio che fare il revisore dei contenuti non deve essere un lavoro entusiasmante. In un articolo su The Verge si da notizia che Facebook ha accettato di pagare 52 milioni di dollari agli attuali ed ex moderatori per compensare dei problemi di salute mentale sviluppati sul posto di lavoro. In una transazione preliminare depositata venerdì presso la corte superiore di San Mateo, il social network ha accettato di risarcire i danni ai moderatori americani e di fornire loro più consulenza mentre lavorano. Tutto è partito dalla ex moderatrice Selena Scola che ha sviluppato il disturbo da stress post traumatico dopo aver visualizzato centinaia di migliaia di immagini su stupri, omicidi e suicidi. Il suo compito era quello di bloccarne la pubblicazione.

L’AI e l’algoritmo
Va da sé che che l’azienda stia pensando ad una soluzione meno umana per controllare tutta questa mole di dati. Le sfumature però sono ancora la nota dolente della macchine.
Durante la call con la stampa Mike Schroepfer, chief technology officer di Facebook, ha chiarito che l’azienda ha aggiornato i suoi algoritmi di rilevamento del linguaggio dell’odio con l’aiuto di recenti ricerche sull’applicazione del software di apprendimento automatico al linguaggio. Molte aziende tecnologiche stanno rielaborando i loro sistemi, come Google ad esempio, per incorporare miglioramenti significativi nella capacità degli algoritmi di risolvere problemi linguistici e rispondere a domande o chiarire frasi ambigue.
Ha anche chiarito che questi miglioramenti non rendono la tecnologia quasi perfetta. “Non sono ingenuo”, ha detto Schroepfer. “Penso che gli umani faranno questo lavoro per un futuro indefinito.”
credit: Wired; Techcrunch