Como qualquer moderador sabe, o corrico é mais do que um simples incómodo.
De acordo com Leigh Adams, director dos serviços de moderação na Viafoura, “os trolls tornam-se a minoria vocal, e podem rapidamente ultrapassar e afogar conversas mais relevantes”. Quando o comportamento tóxico não é controlado, pode conduzir os fóruns numa direcção que prejudique activamente a sua marca. Os vossos moderadores estão equipados para identificar e eliminar eficazmente os maus comportamentos antes que estes causem danos a longo prazo? Aqui estão cinco ferramentas importantes de que vão precisar.
Directrizes Comunitárias
O primeiro passo para construir uma comunidade online segura é criar directrizes comunitárias fortes que sejam claras, fáceis de encontrar, e abrangentes. Estes servem como primeira linha de defesa para os aspirantes a trolls.
O que devem conter as directrizes? Os peritos recomendam uma política de não-tolerância para ataques pessoais, conteúdos obscenos, caluniosos ou difamatórios, e tudo o que seja abusivo ou profano. Depois disso, as directrizes devem ser personalizadas para se adequarem à sua plataforma.
Quando um utilizador se comporta mal, as directrizes comunitárias podem ajudar os seus moderadores a tomar uma decisão informada no sentido de os assinalar ou proibir. Também fornecem uma justificação, caso um utilizador proibido apresente uma queixa. Isto ajuda a proteger os seus moderadores, o que por sua vez os ajuda a fazer o seu trabalho com confiança.
Conhecer os Sinais
As portagens podem ser classificadas em uma de duas categorias; conta única e conta múltipla. Ambos os tipos podem ser identificados rápida e facilmente se os moderadores souberem o que procurar. Assegure-se de que a sua equipa de moderação sabe como aceder aos dados dos utilizadores e procurar sinais de aviso.
Os trolls de conta única são utilizadores que atravessam a linha, quer o saibam ou não. Podem ser identificados por volume e normalmente ostentam um elevado número de bandeiras, desactivações, ou comentários. Podem ser resgatados, e muitas vezes alterar o comportamento com um aviso ou uma única proibição. Os trolls com várias contas regressarão repetidamente sob diferentes pseudónimos. Normalmente procuram atenção e muitas vezes deixam pistas sobre a sua identidade a fim de reacender conversas tóxicas. Os moderadores devem procurar novas contas para sinais indicadores de retorno de um troll. Terão frequentemente uma elevada taxa de desactivação, nome semelhante, imagem de avatar, ou endereço IP a uma conta previamente banida. Alguns trolls estão tão ansiosos por atenção, que podem até publicar ‘Estou de volta’ ou ‘Fui banido’.
Proibição
Quando todos os avisos não tiverem conseguido travar o mau comportamento, os moderadores devem ter o poder de proibir os utilizadores problemáticos. As proibições ajudam a manter as directrizes da sua comunidade e a criar um espaço melhor para os utilizadores bem comportados que desejem usufruir da plataforma.
Existem vários tipos de proibições; proibições incrementais, proibições fantasma, e proibições permanentes. Os moderadores podem aumentar o seu nível de controlo ao compreender o melhor cenário de utilização para cada tipo de proibição.
Uma proibição incremental é utilizada como um “stop-gap” ou um aviso para garantir que os infractores pela primeira vez tenham espaço para melhorar. As proibições fantasma permitem que o troll continue a afixar, mas retiram o comentário da alimentação geral. As proibições permanentes são exactamente isso: permanentes. As proibições são uma ferramenta poderosa. Dêem poder aos vossos moderadores para os utilizarem. Desde que o utilizem com precisão, a confiança para proibir os utilizadores poupará tempo e fortaleza mental.
Ferramentas de IA
Uma das melhores ferramentas que pode dar à sua equipa de moderação humana é um sistema de IA que identificará a maioria da toxicidade óbvia, reduzirá o seu âmbito de moderação e permitir-lhes-á concentrarem-se em situações mais matizadas.
Há várias opções de moderação inteligente disponíveis, mas nem todos os sistemas se tornam iguais. Muitos serviços utilizam umalista de “palavras proibidas” que não capturam a maioria das questões contextuais ou violações “mascaradas”. Em vez disso, escolha um serviço com processamento de linguagem natural ou aprendizagem mecânica. Estes sistemas permitem à IA adaptar-se como moderadores aprovar ou bloquear comentários, personalizando o algoritmo à sua plataforma.
De acordo com o relatório Viafoura ‘Everyone Is A Troll’, as comunidades com software avançado de moderação comprovaram o seu crescimento; 62% mais utilizadores gostam, 35% mais comentários por utilizador, e 34% mais respostas por utilizador.
Apoio à sua equipa de moderação
A sua equipa de moderação faz o trabalho essencial mas difícil de proteger a sua comunidade contra a hostilidade que chega. A criação de um ambiente de trabalho eficiente, positivo e saudável irá ajudá-los a evitar o esgotamento e a manter a positividade.
O primeiro e mais importante aspecto de um local de trabalho saudável é a comunicação aberta. Estabeleça um canal (como Slack ou Google Meets) e encoraje os seus moderadores a procurarem ajuda. Isto ajudará a sua equipa a permanecer neutra, a identificar os preconceitos inconscientes uns dos outros e a assegurar que o conhecimento possa ser partilhado.
Apoie ainda mais a sua equipa de moderação, mantendo a carga de trabalho transparente e dando acesso a pausas frequentes. O descanso pode ser produtivo, e quando se lida com a constante negatividade, essencial.
Na Viafoura, acreditamos que moderadores bem preparados contribuem para comunidades fortes e saudáveis. Quantas destas ferramentas empregam os seus moderadores? Equipe a sua equipa com uma gama completa de estratégias de moderação e eles podem construir uma comunidade que se sinta segura, apoie a sua marca, e cresça juntamente com a sua plataforma.