I moderatori che lavorano a Hyderabad, un importante centro informatico dell’Asia meridionale, hanno parlato della pressione sulla loro salute mentale dovuta alla revisione di immagini e video a contenuto sessuale e violento, che a volte includono bambini vittime di tratta.
Molte piattaforme di social media nel Regno Unito, nell’Unione Europea e negli Stati Uniti hanno trasferito il lavoro a Paesi come l’India e le Filippine.
OpenAI, creatore di ChatGPT, ha dichiarato che l’intelligenza artificiale potrebbe essere utilizzata per accelerare la moderazione dei contenuti, ma non si prevede che possa porre fine alla necessità di migliaia di moderatori umani impiegati dalle piattaforme di social media.
“I wellness coach esistono come formalità, perché queste aziende globali hanno bisogno di spuntare una clausola legale, probabilmente. Quando siamo sovraccarichi dopo aver esaminato un video sensibile, ci spostano semplicemente in una sezione meno sensibile finché non ci sentiamo meglio”, ha dichiarato uno dei moderatori.
“Stiamo gestendo i contenuti per proteggere la salute mentale delle persone, a rischio del nostro benessere emotivo”.
“Ci sono stati casi in cui ho segnalato un video contenente nudità infantile e ho ricevuto chiamate dai miei supervisori”. “La maggior parte di queste immagini di minori seminudi proviene dagli Stati Uniti o dall’Europa, ma negli ultimi tre anni ho ricevuto diversi avvertimenti dai miei supervisori di non contrassegnare questi video.”
Leggi l’articolo intero: ‘I log into a torture chamber each day’: the strain of moderating social media