A sua equipa de moderação tem as ferramentas para detectar o troll?

Como qualquer moderador sabe, o corrico é mais do que um simples incómodo.

De acordo com Leigh Adams, director dos serviços de moderação na Viafoura, “os trolls tornam-se a minoria vocal, e podem rapidamente ultrapassar e afogar conversas mais relevantes”. Quando o comportamento tóxico não é controlado, pode conduzir os fóruns numa direcção que prejudique activamente a sua marca. Os vossos moderadores estão equipados para identificar e eliminar eficazmente os maus comportamentos antes que estes causem danos a longo prazo? Aqui estão cinco ferramentas importantes de que vão precisar.

Directrizes Comunitárias

O primeiro passo para construir uma comunidade online segura é criar directrizes comunitárias fortes que sejam claras, fáceis de encontrar, e abrangentes. Estes servem como primeira linha de defesa para os aspirantes a trolls.

O que devem conter as directrizes? Os peritos recomendam uma política de não-tolerância para ataques pessoais, conteúdos obscenos, caluniosos ou difamatórios, e tudo o que seja abusivo ou profano. Depois disso, as directrizes devem ser personalizadas para se adequarem à sua plataforma.

Quando um utilizador se comporta mal, as directrizes comunitárias podem ajudar os seus moderadores a tomar uma decisão informada no sentido de os assinalar ou proibir. Também fornecem uma justificação, caso um utilizador proibido apresente uma queixa. Isto ajuda a proteger os seus moderadores, o que por sua vez os ajuda a fazer o seu trabalho com confiança.

Conhecer os Sinais

As portagens podem ser classificadas em uma de duas categorias; conta única e conta múltipla. Ambos os tipos podem ser identificados rápida e facilmente se os moderadores souberem o que procurar. Assegure-se de que a sua equipa de moderação sabe como aceder aos dados dos utilizadores e procurar sinais de aviso.

Os trolls de conta única são utilizadores que atravessam a linha, quer o saibam ou não. Podem ser identificados por volume e normalmente ostentam um elevado número de bandeiras, desactivações, ou comentários. Podem ser resgatados, e muitas vezes alterar o comportamento com um aviso ou uma única proibição. Os trolls com várias contas regressarão repetidamente sob diferentes pseudónimos. Normalmente procuram atenção e muitas vezes deixam pistas sobre a sua identidade a fim de reacender conversas tóxicas. Os moderadores devem procurar novas contas para sinais indicadores de retorno de um troll. Terão frequentemente uma elevada taxa de desactivação, nome semelhante, imagem de avatar, ou endereço IP a uma conta previamente banida. Alguns trolls estão tão ansiosos por atenção, que podem até publicar ‘Estou de volta’ ou ‘Fui banido’.

 

Proibição

Quando todos os avisos não tiverem conseguido travar o mau comportamento, os moderadores devem ter o poder de proibir os utilizadores problemáticos. As proibições ajudam a manter as directrizes da sua comunidade e a criar um espaço melhor para os utilizadores bem comportados que desejem usufruir da plataforma.

Existem vários tipos de proibições; proibições incrementais, proibições fantasma, e proibições permanentes. Os moderadores podem aumentar o seu nível de controlo ao compreender o melhor cenário de utilização para cada tipo de proibição.

Uma proibição incremental é utilizada como um “stop-gap” ou um aviso para garantir que os infractores pela primeira vez tenham espaço para melhorar. As proibições fantasma permitem que o troll continue a afixar, mas retiram o comentário da alimentação geral. As proibições permanentes são exactamente isso: permanentes. As proibições são uma ferramenta poderosa. Dêem poder aos vossos moderadores para os utilizarem. Desde que o utilizem com precisão, a confiança para proibir os utilizadores poupará tempo e fortaleza mental.

Ferramentas de IA

Uma das melhores ferramentas que pode dar à sua equipa de moderação humana é um sistema de IA que identificará a maioria da toxicidade óbvia, reduzirá o seu âmbito de moderação e permitir-lhes-á concentrarem-se em situações mais matizadas.

Há várias opções de moderação inteligente disponíveis, mas nem todos os sistemas se tornam iguais. Muitos serviços utilizam umalista depalavras proibidas” que não capturam a maioria das questões contextuais ou violações “mascaradas”. Em vez disso, escolha um serviço com processamento de linguagem natural ou aprendizagem mecânica. Estes sistemas permitem à IA adaptar-se como moderadores aprovar ou bloquear comentários, personalizando o algoritmo à sua plataforma.

De acordo com o relatório Viafoura ‘Everyone Is A Troll’, as comunidades com software avançado de moderação comprovaram o seu crescimento; 62% mais utilizadores gostam, 35% mais comentários por utilizador, e 34% mais respostas por utilizador.

Apoio à sua equipa de moderação

A sua equipa de moderação faz o trabalho essencial mas difícil de proteger a sua comunidade contra a hostilidade que chega. A criação de um ambiente de trabalho eficiente, positivo e saudável irá ajudá-los a evitar o esgotamento e a manter a positividade.

O primeiro e mais importante aspecto de um local de trabalho saudável é a comunicação aberta. Estabeleça um canal (como Slack ou Google Meets) e encoraje os seus moderadores a procurarem ajuda. Isto ajudará a sua equipa a permanecer neutra, a identificar os preconceitos inconscientes uns dos outros e a assegurar que o conhecimento possa ser partilhado.

Apoie ainda mais a sua equipa de moderação, mantendo a carga de trabalho transparente e dando acesso a pausas frequentes. O descanso pode ser produtivo, e quando se lida com a constante negatividade, essencial.

Na Viafoura, acreditamos que moderadores bem preparados contribuem para comunidades fortes e saudáveis. Quantas destas ferramentas empregam os seus moderadores? Equipe a sua equipa com uma gama completa de estratégias de moderação e eles podem construir uma comunidade que se sinta segura, apoie a sua marca, e cresça juntamente com a sua plataforma.

A aquisição do Twitter – outro motivo para construir comunidades empenhadas e activas nas suas propriedades

Segunda-feira, 25 de Abril de 2022, a direcção do Twitter aceitou a oferta do bilionário Elon Musk de comprar a empresa de comunicação social e torná-la privada. O anúncio termina o que só pode ser chamado de “tempestade de fogo dos meios de comunicação social” com uma semana de duração, pois o Musk ofereceu-se para comprar a empresa por 44 mil milhões de dólares. Os accionistas do Twitter receberão $54,20 por cada acção ordinária – um prémio significativo sobre o preço da acção de apenas meses antes.

Musk tem-se referido frequentemente a si próprio como um “defensor da liberdade de expressão” e tem sido um alto crítico das políticas de moderação de conteúdos postas em prática por organizações, como o Twitter, para conter o fluxo de desinformação, impor a autenticidade e prevenir o assédio.

Musk também parece acreditar que está a fazer avançar o movimento da liberdade de expressão ao assumir a plataforma social. Por exemplo, afirma que quer “tornar o Twitter melhor do que nunca, melhorando o produto com novas funcionalidades, tornando os algoritmos de fonte aberta para aumentar a confiança, derrotando os bots de spam e autenticando todos os seres humanos”.

Em geral, as notícias levantaram sobrancelhas.

Entre as recentes declarações de Musk e o regresso implícito de utilizadores actualmente banidos da plataforma, muitos acreditam que ele está obrigado a entrar em conflito com múltiplos reguladores. Agora, Thierry Breton, o comissário da União Europeia para o mercado interno, avisou Elon Musk de que o Twitter deve seguir as regras sobre a moderação de conteúdos ilegais e prejudiciais em linha.

O que significa isto para as editoras dependentes de plataformas de social media como o Twitter? De acordo com Musk, ele planeia ter menos moderação de conteúdo no Twitter. Isto significa que os editores estarão em breve à mercê das suas estratégias de comunicação social, que se basearão na sua própria definição de notícias verdadeiras ou precisas e de uma audiência de partilha livre.

O resultado final é que os editores devem controlar as suas orientações comunitárias e a moderação do conteúdo. Por outras palavras, precisam de estar numa posição em que possam proteger-se contra a desinformação e ataques pessoais aos seus jornalistas.

Por esta razão, os editores precisam de investir na construção das suas comunidades e conversas de audiência longe dos meios de comunicação social. Afinal, não há melhor maneira de manter o envolvimento do público onde ele pertence – directamente nos sítios Web de propriedade dos editores!

Muitas editoras digitais já começaram a adoptar estratégias e soluções de envolvimento no local, incluindo conversas em tempo real e perguntas e respostas ao vivo, para fazer crescer o público, recolher dados de primeira mão e, em última análise, conduzir a uma monetização sustentável. No entanto, a compra do Twitter pela Elon Musk realçou a necessidade de acelerar essa estratégia.

Esteja certo de que, para onde quer que o Twitter vá a partir daqui, a Viafoura estará pronta para lhe abrir um caminho para a construção de uma comunidade online comprometida e segura.

4 maneiras de saber se a solução de moderação de comentários de que necessita está também alinhada com a sua marca editorial

Escolher a solução de moderação certa pode ser um desafio, e muitas organizações consideram que a sua solução de moderação actual não está à altura dos padrões da sua marca. Quando a sua solução de moderação de comentários não está alinhada com a sua marca, reflecte mal em si e afasta a sua comunidade de utilizadores.

Se quer construir uma marca próspera, precisa de oferecer uma experiência excepcional para o seu público. Isso significa não se contentar com uma moderação medíocre e ter uma
envolvimento da comunidade
solução com um conjunto completo de ferramentas à sua disposição para moderar a sua comunidade, incluindo proibição de sombras, pesquisa de IP, gestão de trolls, gostos, e seguidores.

Uma solução de moderação de comentários que está verdadeiramente alinhada com a sua marca não se mistura apenas com o seu ambiente; também reflecte o valor da sua marca e melhora o seu negócio.


Investigação
mostra que quando implementa soluções de compromisso em toda a sua plataforma, os utilizadores anónimos passam mais tempo no seu site e têm 25,4 vezes mais probabilidades de se converterem.

Este artigo examinará algumas das características e atributos centrais de uma solução de moderação na marca que pode proteger a sua comunidade, a sua redacção, e a sua marca à medida que cresce a longo prazo.

1. Análise preditiva

Utilizar uma solução com análise preditiva é vital para obter melhores percepções da sua comunidade, para que saiba e compreenda o que é mais importante para eles. Sem ela, a sua estratégia de conteúdo será baseada no trabalho de adivinhação.

A sua capacidade de oferecer conteúdos e experiências relevantes aos utilizadores determinará a força da sua marca. Se é uma marca que oferece cobertura actualizada sobre tópicos que interessam aos utilizadores, eles vão envolver-se mais com a sua marca do que se lhes oferecesse histórias mais adequadas a outro público alvo.

2. Está a trabalhar com um fornecedor ou um parceiro?

Se procura uma solução que tenha a capacidade de evoluir com a sua marca a longo prazo, então precisa de garantir que está a trabalhar com um parceiro e não com um fornecedor. Enquanto um vendedor irá colocar anúncios através de activos digitais para maximizar a sua visibilidade online e oferecer uma partilha de receitas, tratá-lo-ão mais como um investimento financeiro do que como um cliente.

Um verdadeiro parceiro irá trabalhar consigo num modelo de pagamento SaaS para o ajudar a inovar novas estratégias que impulsionem os registos, e adquirir dados únicos dos utilizadores que lhe permitam melhorar a sua marca e a forma como serve os clientes.

3. Moderação automatizada

Ao construir uma comunidade de utilizadores no seu website, precisa de ter uma estratégia para lidar com a toxicidade se quiser proteger os seus utilizadores e a sua marca. A incapacidade de moderar comentários tóxicos pode ser extremamente prejudicial para a reputação da sua organização.

Por exemplo, a incapacidade do Twitter para lidar com comentários odiosos prejudicou a marca da organização ao fazer com que os utilizadores chamassem a plataforma por ser um refúgio para a toxicidade, com
Amnistia Internacional
indo até à marca do sítio “um lugar tóxico para as mulheres”.

Como resultado, é essencial ter uma sala de conversação com moderação automática para assegurar que pode manter a conversa livre de abuso, assédio, ódio, e comentários incivilizados em tempo real.

É importante lembrar que uma solução de moderação de qualidade não é uma lista de palavras proibidas; é uma solução completa orientada pela IA com moderação semântica que pode inferir a intenção e o significado de comentários incivilizados de forma independente.

4. Recolha de dados em primeira mão

Qualquer solução eficaz de envolvimento e moderação da comunidade deve ter a capacidade de recolher dados em primeira mão.

A implementação de uma ferramenta de envolvimento que possa recolher dados de primeira pessoa é vital para garantir que pode desenvolver conhecimentos detalhados sobre o seu público, que pode utilizar para oferecer recomendações de conteúdo personalizadas e feeds de notícias que os mantenham envolvidos.

Por exemplo, simplesmente oferecer aos seus utilizadores um feed de notícias personalizado pode ajudá-lo a gerar mais 3,15
visualizações de páginas
.

Ao recolher dados de primeira pessoa, é possível identificar quais os tópicos que interessam aos utilizadores, quais os autores que mais provavelmente seguirão, e recomendar peças que não só são susceptíveis de os envolver no site, mas que também os vão interessar.

Elevando a sua marca com moderação de comentários

Uma solução de moderação de comentários que esteja alinhada com a sua marca elevará a experiência do utilizador e fará com que o seu público confie ainda mais em si.

Características como a análise preditiva orientada pela IA, a recolha de dados em primeira mão e a moderação automatizada dão-lhe uma base sólida para começar a construir uma comunidade de utilizadores segura e próspera.

Tudo menos, e corre o risco de oferecer uma experiência comunitária pouco optimizada, irrelevante e tóxica para os seus utilizadores e os seus jornalistas.

Exit mobile version