Moderadores enfrentam rotinas perturbadoras ao remover conteúdo ilegal das redes sociais. As empresas prometem suporte, mas desafios emocionais persistem.
A rotina de moderadores de conteúdo em redes sociais envolve lidar com o que há de mais sombrio na internet: imagens e vídeos de decapitações, abusos infantis, assassinatos e discursos de ódio. Esse trabalho essencial, muitas vezes invisível, é realizado por humanos que analisam e removem materiais considerados nocivos para proteger os usuários.

Apesar dos avanços tecnológicos, a responsabilidade final ainda recai sobre moderadores humanos, geralmente contratados por empresas terceirizadas. Esses profissionais analisam conteúdos sinalizados em grandes plataformas como TikTok, Facebook e Instagram. “Eu assumi aquilo para mim. Deixei que minha saúde mental absorvesse o golpe para que os usuários comuns pudessem prosseguir com suas atividades na plataforma”, relatou Mojez, ex-moderador do TikTok em Nairóbi, no Quênia.
Traumas e Impactos Psicológicos
O trabalho causa efeitos devastadores. Muitos moderadores relatam insônia, dificuldade de se alimentar e traumas profundos. Um ex-funcionário contou sobre um colega que passava mal ao ouvir o choro de um bebê, enquanto outro relatou problemas de interação familiar devido aos conteúdos perturbadores que presenciou.
Em 2020, a Meta (antigo Facebook) chegou a pagar um acordo de US$ 52 milhões a moderadores que desenvolveram problemas psicológicos decorrentes do trabalho. Uma das líderes do processo judicial, Selena Scola, descreveu os moderadores como “guardiões de almas”, diante da quantidade de cenas extremas que precisam assistir para proteger outros usuários.
Apesar disso, os moderadores demonstram orgulho pelo papel que desempenham na sociedade digital. Um deles comparou sua função à de bombeiros ou paramédicos, expressando o desejo de ser reconhecido com uniforme e distintivo.
IA: Solução ou Risco?
A inteligência artificial (IA) surge como uma possível ferramenta para aliviar a carga sobre os moderadores. Dave Willner, ex-chefe de confiança e segurança da OpenAI, explicou que a empresa desenvolveu uma ferramenta de moderação baseada no ChatGPT, com 90% de precisão na identificação de conteúdos nocivos. “Elas [as ferramentas de IA] não ficam cansadas, chocadas ou entediadas… são infatigáveis”, afirmou.
No entanto, especialistas alertam para os limites da tecnologia. Paul Reilly, professor de comunicação na Universidade de Glasgow, ressalta que a IA pode ser rígida e ignorar nuances importantes, como contextos culturais ou sociais. Para ele, a moderação humana continua essencial, mas é urgente melhorar as condições de trabalho desses profissionais.
Respostas das Empresas
As empresas de tecnologia reconhecem os desafios da moderação de conteúdo e afirmam implementar medidas de apoio.
TikTok: Relatou oferecer suporte clínico e programas de bem-estar para seus moderadores, além de usar tecnologia automatizada para filtrar inicialmente os conteúdos.
OpenAI: Destacou que, em parceria com seus contratados, aplica políticas para proteger a saúde mental das equipes que treinam suas ferramentas.
Meta: Garantiu que suas parceiras oferecem apoio psicológico 24 horas por dia e permitem que os moderadores personalizem ferramentas para desfocar imagens sensíveis.
Apesar das iniciativas, os relatos mostram que os desafios emocionais continuam sendo uma realidade para os moderadores, enquanto a automação completa ainda parece distante.
O texto foi traduzido da série original da BBC Radio, adaptado e revisado pela nossa equipe. A série original pode ser ouvida aqui.