Parece que muitas vezes vemos notícias de que algum crime flagrante ou outro foi cometido em um ou outro site de mídia social, incluindo postagens ilegais ou transmissão ao vivo de conteúdo violento. Pode ser fácil imaginar como, nesta era tecnologicamente avançada, essas coisas podem passar despercebidas.
Mas, o fato é que é virtualmente impossível moderar sites de mídia social de forma eficaz. Por que? Há algumas razões.
Alguns sites de mídia social ainda são incipientes ou são mais específicos. No entanto, os principais sites de mídia social têm vastas bases de usuários. Os maiores sites têm entre centenas de milhões a bilhões de usuários. Naturalmente, qualquer plataforma tão grande é difícil de monitorar.
A maioria das principais redes sociais gerencia isso por meio de uma combinação de relatórios da comunidade, algoritmos (imperfeitamente) treinados para detectar conteúdo prejudicial e alguns moderadores humanos. Embora um membro da comunidade ou IA possa detectar e relatar informações prejudiciais, é um humano (ou grupo de humanos) que tem a palavra final. E muitos sites oferecem um processo de apelação.
Os sites de mídia social não são enormes apenas em termos de base de usuários. Diferentes estados e diferentes países têm diferentes leis relacionadas a que tipo de conteúdo precisa ser relatado e como.
Portanto, as empresas de mídia social ativas em diferentes áreas geográficas geralmente precisam ter políticas diferentes para usuários diferentes. Isso inclui diferentes políticas de desinformação e privacidade. Na verdade, O Twitter teve que concordar com termos específicos para ser desbanido na Nigéria.
Ainda mais do que isso, a mídia social é um fenômeno global, mas nem sempre acontece nas linguagens "globais". Isso pode deixar as empresas de mídia social lutando para encontrar moderadores de conteúdo que falam idiomas regionais para fornecer serviços globalmente sem deixar esses usuários vulneráveis a agentes mal-intencionados.
Um bom exemplo é o do dono do Facebook, Meta. A empresa foi recentemente processado por um ex-moderador de conteúdo em Nairóbi que afirma que os moderadores de conteúdo da área são induzidos ao erro a assumir o papel.
3. Moderadores estão andando na corda bamba
A maioria dos usuários de mídia social quer duas coisas: eles querem se sentir seguros e querem se sentir livres. Encontrar um equilíbrio entre esses dois desejos é a difícil tarefa do moderador de conteúdo.
Desviar-se muito para um lado e os usuários se sentirão policiados. Afaste-se muito para o outro lado e os usuários se sentirão abandonados. Uma maneira de alguns sites de mídia social contornar isso é por meio de moderadores da comunidade.
Os moderadores da comunidade ajudam a expressar que a moderação é algo feito com paixão por promover discurso construtivo sem permitir conteúdo prejudicial e não por qualquer desejo de controlar ou oprimir Usuários. Esse modelo é desafiador em escala, embora diferentes plataformas o façam funcionar de maneiras diferentes.
Parler voltou a ficar online depois de ajustar sua política de moderação para cumprir as políticas de terceiros. Eles têm uma espécie de sistema de júri comunitário que mais ou menos só entra em ação depois que uma postagem potencialmente problemática já foi denunciada. Priorizar os relatórios do usuário é outra maneira pela qual Parler ajuda a aliviar a carga de seus moderadores.
4. Os moderadores precisam seguir uma linha dinâmica
Os moderadores de conteúdo também operam no que pode parecer uma área moral cinzenta. Mesmo as plataformas com uma visão de moderação mais livre de expressão têm regras contra conteúdo potencialmente nocivo ou violento. Algumas postagens são obviamente prejudiciais ou violentas, enquanto outras podem parecer prejudiciais ou perigosas para alguns usuários (ou moderadores), mas não para outros.
Muitas plataformas também têm regras contra outras atividades, como venda de produtos ou serviços. Essa pode ser uma área ainda mais complicada de navegar, principalmente devido ao tamanho e escopo de alguns sites.
Considerar o que os moderadores da comunidade Reddit fazem. Sempre que os usuários ingressam em uma nova comunidade, eles recebem imediatamente as regras dessa comunidade. Essas regras também são postadas ao lado de cada página da comunidade. Isso permite que cada comunidade tenha um subconjunto de regras sob medida para ela, em vez de regras gerais para todo o site.
A ideia de subreddits também ajuda o Reddit a usar moderadores da comunidade em escala. Os moderadores têm a tarefa de moderar seu subreddit, em vez de tentar patrulhar todo o site.
Finalmente, a mídia social se move muito rápido. Quando você ouve sobre uma postagem problemática, pode ser bem depois que o autor original a retirou. Caso a postagem não tenha sido denunciada enquanto estava ativa, respondê-la após o fato pode ser complicado.
Em um caso em 2015, uma postagem no site de mídia social YikYak foi denunciada à polícia usando uma versão alterada da postagem original, que já havia sido removida. O que poderia ter sido resolvido internamente pelos moderadores de conteúdo online tornou-se um drama jurídico prolongado que perturbou toda uma comunidade.
Muitos sites de mídia social, incluindo o Facebook, têm políticas para preservar postagens suspeitas no caso de precisarem ser referenciados em situações de desenvolvimento, inclusive pela aplicação da lei.
Mas recursos como transmissão ao vivo significam que o conteúdo aumenta à medida que acontece, o que os algoritmos podem perder até que seja tarde demais.
Jogue uma moeda para o seu moderador
Se você vir algo online que o preocupe, use os canais fornecidos para denunciá-lo. Tente evitar ficar chateado ou desconfiado porque moderar a mídia social é difícil. O mesmo vale se você ou uma postagem for denunciada. É provavelmente um movimento bem-intencionado para manter os usuários de mídia social seguros.