Votre équipe de modération dispose-t-elle des outils nécessaires pour repérer le troll ?

Comme tout modérateur le sait, le trolling est plus qu’une simple nuisance.

Selon Leigh Adams, directeur des services de modération chez Viafoura, “les trolls deviennent la minorité bruyante, et peuvent rapidement prendre le dessus et noyer les conversations plus pertinentes”. Lorsqu’un comportement toxique n’est pas contrôlé, il peut entraîner les forums dans une direction qui nuit activement à votre marque. Vos modérateurs sont-ils équipés pour identifier et éliminer efficacement les mauvais comportements avant qu’ils ne causent des dommages à long terme ? Voici cinq outils importants dont ils auront besoin.

Directives communautaires

La première étape de la création d’une communauté en ligne sûre consiste à établir des directives claires, faciles à trouver et complètes. Ils constituent la première ligne de défense contre les trolls potentiels.

Que doivent contenir les directives ? Les experts recommandent une politique de tolérance zéro à l’égard des attaques personnelles, des contenus obscènes, diffamatoires ou calomnieux, et de tout ce qui est injurieux ou blasphématoire. Ensuite, les directives doivent être personnalisées pour s’adapter à votre plate-forme.

Lorsqu’un utilisateur se comporte mal, les directives communautaires peuvent aider vos modérateurs à prendre une décision éclairée pour le signaler ou le bannir. Ils fournissent également une justification, au cas où un utilisateur banni déposerait une plainte. Cela permet de protéger vos modérateurs, ce qui les aide à faire leur travail en toute confiance.

Connaître les signes

Les péages peuvent être classés dans l’une des deux catégories suivantes : compte unique et compte multiple. Les deux types peuvent être identifiés rapidement et facilement si les modérateurs savent ce qu’il faut rechercher. Assurez-vous que votre équipe de modération sait comment accéder aux données des utilisateurs et rechercher les signes d’alerte.

Les trolls à compte unique sont des utilisateurs qui franchissent la ligne, qu’ils le sachent ou non. Elles peuvent être identifiées par leur volume et présentent généralement un nombre élevé de drapeaux, de désactivations ou de commentaires. Ils peuvent être échangés et modifient souvent le comportement avec un avertissement ou une interdiction unique.Les trolls à comptes multiples reviennent à plusieurs reprises sous différents pseudonymes. Ils cherchent généralement à attirer l’attention et laissent souvent des indices sur leur identité afin de relancer des conversations toxiques. Les modérateurs devraient examiner les nouveaux comptes pour y déceler les signes révélateurs du retour d’un troll. Ils ont souvent un taux de désactivation élevé, un nom, une image avatar ou une adresse IP similaires à ceux d’un compte précédemment banni. Certains trolls sont tellement avides d’attention qu’ils vont jusqu’à poster “Je suis de retour” ou “J’ai été banni”.

 

Interdiction de

Lorsque tous les avertissements n’ont pas réussi à mettre fin à un mauvais comportement, les modérateurs devraient être habilités à bannir les utilisateurs problématiques. Les interdictions permettent de faire respecter les directives de votre communauté et de créer un meilleur espace pour les utilisateurs sages qui souhaitent profiter de la plate-forme.

Il existe plusieurs types d’interdictions : les interdictions progressives, les interdictions fantômes et les interdictions permanentes. Les modérateurs peuvent augmenter leur niveau de contrôle en comprenant le meilleur scénario d’utilisation pour chaque type d’interdiction.

Une interdiction progressive est utilisée comme un palliatif ou un avertissement pour s’assurer que les personnes qui commettent une première infraction ont la possibilité de s’améliorer. Les interdictions fantômes permettent au troll de continuer à poster, mais elles suppriment le commentaire du flux général. Les interdictions permanentes ne sont que cela : permanentes. Les interdictions sont un outil puissant. Donnez à vos modérateurs les moyens de les utiliser. Pour autant qu’ils l’utilisent correctement, la possibilité d’interdire des utilisateurs leur fera gagner du temps et de la force mentale.

Outils d’IA

L’un des meilleurs outils que vous pouvez donner à votre équipe de modération humaine est un système d’IA qui identifiera la majorité des cas de toxicité évidente, réduira leur champ de modération et leur permettra de se concentrer sur des situations plus nuancées.

Il existe un certain nombre d’options de modération intelligente, mais tous les systèmes ne sont pas égaux. De nombreux services utilisent uneliste demots interdits” qui ne permet pas de détecter la majorité des problèmes contextuels ou des violations de “masquage”. Choisissez plutôt un service avec traitement du langage naturel ou apprentissage automatique. Ces systèmes permettent à l’IA de s’adapter à mesure que les modérateurs approuvent ou bloquent les commentaires, en adaptant l’algorithme à votre plateforme.

Selon le rapport de Viafoura intitulé “Everyone Is A Troll”, il est prouvé que les communautés dotées d’un logiciel de modération avancé enregistrent une croissance : 62 % d’utilisateurs en plus, 35 % de commentaires en plus par utilisateur et 34 % de réponses en plus par utilisateur.

Soutien à votre équipe de modération

Votre équipe de modération accomplit la tâche essentielle mais difficile de protéger votre communauté contre l’hostilité entrante. La création d’un environnement de travail efficace, positif et sain les aidera à éviter l’épuisement professionnel et à rester positifs.

Le premier et le plus important aspect d’un lieu de travail sain est une communication ouverte. Créez un canal (comme Slack ou Google Meets) et encouragez vos modérateurs à demander de l’aide. Cela aidera votre équipe à rester neutre, à identifier les préjugés inconscients de chacun et à garantir le partage des connaissances.

Soutenez votre équipe de modération en veillant à la transparence de la charge de travail et en offrant des pauses fréquentes. Le repos peut être productif et, lorsque vous êtes confronté à une négativité constante, il est essentiel.

Chez Viafoura, nous sommes convaincus que des modérateurs bien préparés font des communautés fortes et saines. Combien de ces outils vos modérateurs utilisent-ils ? En équipant votre équipe d’une gamme complète de stratégies de modération, vous pourrez créer une communauté qui se sent en sécurité, qui soutient votre marque et qui se développe en même temps que votre plateforme.

La prise de contrôle de Twitter – une raison supplémentaire de créer des communautés engagées et actives sur les propriétés que vous possédez et exploitez.

Lundi 25 avril 2022, le conseil d’administration de Twitter a accepté l’offre du milliardaire Elon Musk de racheter la société de médias sociaux et de la rendre privée. Cette annonce met fin à ce que l’on ne peut appeler qu’une tempête médiatique de plusieurs semaines, alors que M. Musk proposait de racheter la société pour 44 milliards de dollars. Les actionnaires de Twitter recevront 54,20 dollars pour chaque action ordinaire, soit une prime importante par rapport au cours de l’action quelques mois plus tôt.

Musk s’est souvent présenté comme un “partisan de la liberté d’expression” et a vivement critiqué les politiques de modération du contenu mises en place par des organisations, comme Twitter, pour endiguer le flux de désinformation, renforcer l’authenticité et prévenir le harcèlement.

Musk semble également croire qu’il fait avancer le mouvement de libération de la parole en prenant le contrôle de la plateforme sociale. Par exemple, il affirme vouloir “rendre Twitter meilleur que jamais en améliorant le produit avec de nouvelles fonctionnalités, en rendant les algorithmes open source pour augmenter la confiance, en vainquant les robots spammeurs et en authentifiant tous les humains”.

De manière générale, la nouvelle a fait sourciller.

Entre les récentes déclarations de Musk et le retour implicite des utilisateurs actuellement bannis de la plateforme, beaucoup pensent qu’il ne manquera pas d’entrer en conflit avec de multiples régulateurs. Aujourd’hui, Thierry Breton, commissaire de l’Union européenne chargé du marché intérieur, a averti Elon Musk que Twitter devait respecter les règles relatives à la modération des contenus illégaux et préjudiciables en ligne.

Qu’est-ce que cela signifie pour les éditeurs qui dépendent des plateformes de médias sociaux comme Twitter ? Selon Musk, il prévoit d’avoir moins de modération de contenu sur Twitter. Cela signifie que les éditeurs seront bientôt à la merci de ses stratégies en matière de médias sociaux, qui seront fondées sur sa propre définition de l’information véridique ou exacte et sur un public qui partage librement.

L’essentiel est que les éditeurs contrôlent les directives de leur communauté et la modération du contenu. En d’autres termes, ils doivent être en mesure de se protéger contre la désinformation et les attaques personnelles à l’encontre de leurs journalistes.

C’est pourquoi les éditeurs doivent investir dans le développement de leurs communautés et des conversations avec leur public en dehors des médias sociaux. Après tout, il n’y a pas de meilleur moyen de maintenir l’engagement de l’audience là où il doit être : directement sur les sites web des éditeurs !

De nombreux éditeurs numériques ont déjà commencé à adopter des stratégies et des solutions d’engagement sur site, notamment des conversations en temps réel et des questions-réponses en direct, afin d’accroître leur audience, de recueillir des données de première main et, en fin de compte, d’obtenir une monétisation durable. Toutefois, l’achat de Twitter par Elon Musk a mis en évidence la nécessité d’accélérer cette stratégie.

Soyez assuré que, quelle que soit l’évolution de Twitter, Viafoura sera prêt à vous ouvrir la voie pour créer une communauté en ligne engagée et sûre.

4 façons de savoir si la solution de modération des commentaires dont vous avez besoin est également alignée sur votre marque éditoriale

Le choix de la bonne solution de modération peut s’avérer difficile, et de nombreuses organisations constatent que leur solution de modération actuelle n’est pas à la hauteur des normes de leur marque. Lorsque votre solution de modération des commentaires n’est pas en phase avec votre marque, elle donne une mauvaise image de vous et aliène votre communauté d’utilisateurs.

Si vous voulez construire une marque prospère, vous devez offrir une expérience exceptionnelle à votre public. Cela signifie ne pas se contenter d’une modération médiocre et avoir une
engagement communautaire
avec une suite complète d’outils à votre disposition pour modérer votre communauté, notamment le bannissement fictif, la recherche d’adresses IP, la gestion des trolls, les “likes” et les “follows”.

Une solution de modération des commentaires véritablement alignée sur votre marque ne se contente pas de s’intégrer parfaitement à votre environnement ; elle reflète également la valeur de votre marque et améliore votre activité.


La recherche
montrent que lorsque vous mettez en œuvre des solutions d’engagement sur votre plateforme, les utilisateurs anonymes passent plus de temps sur votre site et ont 25,4 fois plus de chances de se convertir.

Cet article examine certaines des caractéristiques et attributs essentiels d’une solution de modération adaptée à la marque, qui peut protéger votre communauté, votre salle de rédaction et votre marque à mesure que vous vous développez sur le long terme.

1. Analyse prédictive

L’utilisation d’une solution d’analyse prédictive est essentielle pour mieux connaître votre communauté, afin de savoir et de comprendre ce qui compte le plus pour elle. Sans cela, votre stratégie de contenu sera basée sur des suppositions.

Votre capacité à offrir un contenu et des expériences pertinents aux utilisateurs déterminera la force de votre marque. Si vous êtes une marque qui offre une couverture de dernière minute sur des sujets qui intéressent les utilisateurs, ils s’engageront davantage avec votre marque que si vous leur proposez des histoires qui conviennent mieux à un autre public cible.

2. Travaillez-vous avec un vendeur ou un partenaire ?

Si vous recherchez une solution capable d’évoluer avec votre marque à long terme, vous devez vous assurer que vous travaillez avec un partenaire plutôt qu’avec un vendeur. Un fournisseur placera des annonces sur des actifs numériques pour maximiser votre visibilité en ligne et vous proposera un partage des revenus, mais il vous traitera davantage comme un investissement financier que comme un client.

Un véritable partenaire travaillera à vos côtés sur un modèle de paiement SaaS pour vous aider à innover de nouvelles stratégies qui stimulent les inscriptions, et à acquérir des données uniques sur les utilisateurs qui vous permettent d’améliorer votre marque et la façon dont vous servez les clients.

3. Modération automatisée

Lorsque vous créez une communauté d’utilisateurs sur votre site web, vous devez avoir une stratégie pour faire face à la toxicité si vous voulez protéger vos utilisateurs et votre marque. L’incapacité à modérer les commentaires toxiques peut être extrêmement préjudiciable à la réputation de votre organisation.

Par exemple, l’incapacité de Twitter à gérer les commentaires haineux a porté atteinte à la marque de l’organisation, les utilisateurs reprochant à la plateforme d’être un havre de toxicité.
Amnesty International
est allée jusqu’à qualifier le site de “lieu toxique pour les femmes”.

Il est donc essentiel de disposer d’un salon de discussion doté d’un système de modération automatique afin de garantir que la conversation reste exempte d’abus, de harcèlement, de haine et de commentaires incivils en temps réel.

Il est important de se rappeler qu’une solution de modération de qualité n’est pas une liste de mots interdits ; c’est une solution complète pilotée par l’IA avec une modération sémantique qui peut déduire l’intention et le sens des commentaires incivils de manière indépendante.

4. Collecte de données par des tiers

Toute solution efficace d’engagement communautaire et de modération doit être en mesure de recueillir des données de première main.

Le déploiement d’un outil d’engagement capable de collecter des données de première main est essentiel pour s’assurer que vous pouvez développer des informations détaillées sur votre public, que vous pouvez utiliser pour offrir des recommandations de contenu personnalisées et des flux d’informations qui les maintiennent engagés.

Par exemple, le simple fait d’offrir à vos utilisateurs un fil d’actualité personnalisé peut vous aider à générer 3,15 de plus de
pages vues
.

En recueillant des données de première main, vous pouvez identifier les sujets qui intéressent les utilisateurs, les auteurs qu’ils sont le plus susceptibles de suivre, et recommander des articles qui sont non seulement susceptibles de les faire participer au site, mais aussi de les intéresser.

Améliorer votre marque grâce à la modération des commentaires

Une solution de modération des commentaires en phase avec votre marque améliorera l’expérience utilisateur et renforcera la confiance de votre public.

Des fonctionnalités telles que l’analyse prédictive pilotée par l’IA, la collecte de données de première partie et la modération automatisée vous offrent une base solide pour commencer à créer une communauté d’utilisateurs sûre et prospère.

Sinon, vous risquez d’offrir une expérience communautaire mal optimisée, non pertinente et toxique pour vos utilisateurs et vos journalistes.

Quitter la version mobile