Resumo
- A Meta planeja substituir moderadores terceirizados por inteligência artificial para melhorar a moderação de conteúdo, como remoção de publicações ilegais e identificação de golpes.
- A Meta afirma que a IA oferece mais precisão e rapidez em tarefas como detectar aliciamento, terrorismo, exploração infantil, fraudes e falsificações de perfis.
- Humanos continuarão envolvidos em revisões de conteúdo e decisões críticas, enquanto a IA assume tarefas repetitivas e áreas de táticas mutáveis, como venda de drogas ilícitas.
A Meta anunciou, nesta quinta-feira (19/03), planos para usar inteligência artificial em tarefas de moderação de conteúdo, como remoção de publicações ilegais e identificação de golpes. Essa transição deve levar alguns anos, segundo a empresa.
Enquanto isso, a dona de Facebook e Instagram vai diminuir a contratação de humanos para esses trabalhos. Geralmente, a moderação de conteúdo ficava a cargo de empresas terceirizadas. A Meta não mencionou nenhum nome, mas sabe-se que ela já delegou essas tarefas a companhias como a Accenture e a Teleperformance.
Meta promete moderação melhor com IA

De acordo com a empresa, os sistemas de inteligência artificial superam, de forma consistente, os métodos atuais de fiscalização. Por isso, a companhia espera resultados melhores, mais rápidos e mais precisos.
A companhia ressaltou a grande variedade de tarefas em que a IA se sai bem, como detectar conteúdos relacionados a aliciamento para atividades sexuais, terrorismo, exploração infantil, drogas, fraudes e golpes, além de identificar falsificações de perfis de famosos e roubos de contas.
A Meta também destaca que esses sistemas oferecem mais precisão e respostas mais rápidas a acontecimentos do mundo real. Outra vantagem que a companhia alega é a redução de medidas excessivas.
Humanos continuarão com parte do trabalho
A empresa, no entanto, pondera que a mudança só diz respeito à parte do trabalho que pode ser automatizada.
“Ainda teremos pessoas revisando conteúdo, mas esses sistemas [de IA] poderão assumir trabalhos mais adequados à tecnologia, como análises repetitivas de conteúdo gráfico ou áreas em que atores mal-intencionados estão constantemente mudando suas táticas, como venda de drogas ilícitas e golpes”, escreve a Meta em seu blog.
Além disso, a empresa afirma que as tarefas de desenvolvimento, treinamento, supervisão e avaliação da IA continuarão a cargo de especialistas: “As pessoas continuarão a exercer um papel fundamental em como tomamos as decisões de risco elevado e críticas, como recursos após desativações de contas ou relatos a autoridades policiais”.
Mesmo assim, a migração também pode ter a ver com decisões estratégicas. Como lembra a CNBC, uma reportagem da Reuters indicou que a Meta pode demitir até 20% dos seus funcionários para compensar os gastos no desenvolvimento de IA. Em resposta, a empresa disse que a reportagem era “especulativa”.
Moderação é assunto polêmico
Como lembra o TechCrunch, a Meta prometeu mudanças drásticas na moderação de conteúdo de suas redes no início de 2025, afrouxando várias restrições que vigoravam até então. Paralelamente a isso, a empresa e outras gigantes das mídias sociais estão sendo processadas nos Estados Unidos sob acusação de danos à saúde de adolescentes e jovens.
Os próprios moderadores já tiveram problemas com esse tipo de trabalho. A exposição frequente a imagens perturbadoras — acidentes, crueldade animal, estupros, assassinatos e suicídios, por exemplo — pode levar a diversos problemas de saúde mental, como ansiedade, depressão e transtorno de estresse pós-traumático.
Em 2020, a Meta (que ainda se chamava Facebook) fechou um acordo no valor de US$ 52 milhões para indenizar 11.250 trabalhadores terceirizados responsáveis por essas tarefas.
Com informações do TechCrunch e da CNBC
