Votre équipe de modération dispose-t-elle des outils nécessaires pour repérer le troll ?

Comme tout modérateur le sait, le trolling est plus qu’une simple nuisance.

Selon Leigh Adams, directeur des services de modération chez Viafoura, “les trolls deviennent la minorité bruyante, et peuvent rapidement prendre le dessus et noyer les conversations plus pertinentes”. Lorsqu’un comportement toxique n’est pas contrôlé, il peut entraîner les forums dans une direction qui nuit activement à votre marque. Vos modérateurs sont-ils équipés pour identifier et éliminer efficacement les mauvais comportements avant qu’ils ne causent des dommages à long terme ? Voici cinq outils importants dont ils auront besoin.

Directives communautaires

La première étape de la création d’une communauté en ligne sûre consiste à établir des directives claires, faciles à trouver et complètes. Ils constituent la première ligne de défense contre les trolls potentiels.

Que doivent contenir les directives ? Les experts recommandent une politique de tolérance zéro à l’égard des attaques personnelles, des contenus obscènes, diffamatoires ou calomnieux, et de tout ce qui est injurieux ou blasphématoire. Ensuite, les directives doivent être personnalisées pour s’adapter à votre plate-forme.

Lorsqu’un utilisateur se comporte mal, les directives communautaires peuvent aider vos modérateurs à prendre une décision éclairée pour le signaler ou le bannir. Ils fournissent également une justification, au cas où un utilisateur banni déposerait une plainte. Cela permet de protéger vos modérateurs, ce qui les aide à faire leur travail en toute confiance.

Connaître les signes

Les péages peuvent être classés dans l’une des deux catégories suivantes : compte unique et compte multiple. Les deux types peuvent être identifiés rapidement et facilement si les modérateurs savent ce qu’il faut rechercher. Assurez-vous que votre équipe de modération sait comment accéder aux données des utilisateurs et rechercher les signes d’alerte.

Les trolls à compte unique sont des utilisateurs qui franchissent la ligne, qu’ils le sachent ou non. Elles peuvent être identifiées par leur volume et présentent généralement un nombre élevé de drapeaux, de désactivations ou de commentaires. Ils peuvent être échangés et modifient souvent le comportement avec un avertissement ou une interdiction unique.Les trolls à comptes multiples reviennent à plusieurs reprises sous différents pseudonymes. Ils cherchent généralement à attirer l’attention et laissent souvent des indices sur leur identité afin de relancer des conversations toxiques. Les modérateurs devraient examiner les nouveaux comptes pour y déceler les signes révélateurs du retour d’un troll. Ils ont souvent un taux de désactivation élevé, un nom, une image avatar ou une adresse IP similaires à ceux d’un compte précédemment banni. Certains trolls sont tellement avides d’attention qu’ils vont jusqu’à poster “Je suis de retour” ou “J’ai été banni”.

 

Interdiction de

Lorsque tous les avertissements n’ont pas réussi à mettre fin à un mauvais comportement, les modérateurs devraient être habilités à bannir les utilisateurs problématiques. Les interdictions permettent de faire respecter les directives de votre communauté et de créer un meilleur espace pour les utilisateurs sages qui souhaitent profiter de la plate-forme.

Il existe plusieurs types d’interdictions : les interdictions progressives, les interdictions fantômes et les interdictions permanentes. Les modérateurs peuvent augmenter leur niveau de contrôle en comprenant le meilleur scénario d’utilisation pour chaque type d’interdiction.

Une interdiction progressive est utilisée comme un palliatif ou un avertissement pour s’assurer que les personnes qui commettent une première infraction ont la possibilité de s’améliorer. Les interdictions fantômes permettent au troll de continuer à poster, mais elles suppriment le commentaire du flux général. Les interdictions permanentes ne sont que cela : permanentes. Les interdictions sont un outil puissant. Donnez à vos modérateurs les moyens de les utiliser. Pour autant qu’ils l’utilisent correctement, la possibilité d’interdire des utilisateurs leur fera gagner du temps et de la force mentale.

Outils d’IA

L’un des meilleurs outils que vous pouvez donner à votre équipe de modération humaine est un système d’IA qui identifiera la majorité des cas de toxicité évidente, réduira leur champ de modération et leur permettra de se concentrer sur des situations plus nuancées.

Il existe un certain nombre d’options de modération intelligente, mais tous les systèmes ne sont pas égaux. De nombreux services utilisent uneliste demots interdits” qui ne permet pas de détecter la majorité des problèmes contextuels ou des violations de “masquage”. Choisissez plutôt un service avec traitement du langage naturel ou apprentissage automatique. Ces systèmes permettent à l’IA de s’adapter à mesure que les modérateurs approuvent ou bloquent les commentaires, en adaptant l’algorithme à votre plateforme.

Selon le rapport de Viafoura intitulé “Everyone Is A Troll”, il est prouvé que les communautés dotées d’un logiciel de modération avancé enregistrent une croissance : 62 % d’utilisateurs en plus, 35 % de commentaires en plus par utilisateur et 34 % de réponses en plus par utilisateur.

Soutien à votre équipe de modération

Votre équipe de modération accomplit la tâche essentielle mais difficile de protéger votre communauté contre l’hostilité entrante. La création d’un environnement de travail efficace, positif et sain les aidera à éviter l’épuisement professionnel et à rester positifs.

Le premier et le plus important aspect d’un lieu de travail sain est une communication ouverte. Créez un canal (comme Slack ou Google Meets) et encouragez vos modérateurs à demander de l’aide. Cela aidera votre équipe à rester neutre, à identifier les préjugés inconscients de chacun et à garantir le partage des connaissances.

Soutenez votre équipe de modération en veillant à la transparence de la charge de travail et en offrant des pauses fréquentes. Le repos peut être productif et, lorsque vous êtes confronté à une négativité constante, il est essentiel.

Chez Viafoura, nous sommes convaincus que des modérateurs bien préparés font des communautés fortes et saines. Combien de ces outils vos modérateurs utilisent-ils ? En équipant votre équipe d’une gamme complète de stratégies de modération, vous pourrez créer une communauté qui se sent en sécurité, qui soutient votre marque et qui se développe en même temps que votre plateforme.

Pourquoi la désactivation des commentaires est une menace, et non une solution, pour les entreprises de médias

Les trolls, le spam et la désinformation ont donné une mauvaise réputation aux espaces de commentaires.

Sites web qui sont inondés de commentaires offensants et indignes de confiance peuvent perdre le respect des annonceurs et des utilisateurs. Pes éditeurs pensent souvent que la seule solution est d’abandonner et de fermer leurs outils de commentaires.

Mais fermer les commentaires n’est pas une solution ; c’est un catalyseur de graves problèmes commerciaux.

Le problème de la suppression des commentaires sur votre site web

En réalité, les entreprises de médias souffrent dès qu’elles se débarrassent des outils sociaux de leur site web.

(Sans commentaires, les entreprises) perdent un lien direct avec leur public (et se contentent de fournir) un contenu passif aux lecteurs, au lieu de créer des possibilités actives de retour d’information et d’opinion”, explique Mark Zohar, président et directeur de l’exploitation de Viafoura.. “Cette boucle de rétroaction entre le contenu, l’éditeur et l’auteur est essentielle pour obtenir un contenu très performant et réengager les audiences.”

En un mot, les organisations médiatiques ont besoin d’outils de commentaires pour se rapprocher de leurs communautés et créer de meilleures expériences pour les membres de l’audience et le personnel.

Les entreprises qui abandonnent leurs commentaires ne résolvent rien ; elles permettent simplement à leurs pires spectateurs de nuire à leurs marques.

Ajoutez à cela le fait que
50%
des enregistrements de nouveaux utilisateurs se font sur des pages web avec des
outils de commentaires
et il est facile de comprendre pourquoi les espaces sociaux sont des fonctionnalités incontournables pour tous les éditeurs qui souhaitent se rapprocher de leur public.

Des mains humaines en coupe sur une table avec des bulles au milieu.

Comment gérer des espaces de commentaires sûrs et réussis

Modération des commentaires est la meilleure arme d’un éditeur contre le comportement offensif des utilisateurs. On ne saurait trop insister sur l’importance d’accompagner tout outil social en ligne de services avancés de modération des commentaires. – c’est ce qui sépare les espaces sociaux sûrs et lucratifs de ceux qui sont voués à l’échec.

Les entreprises médiatiques qui associent leurs espaces de commentaires en ligne à une modération efficace se donnent les meilleures chances d’accroître leur audience, la fidélité de leurs clients et leurs revenus sans nuire à leur réputation.

“Les gens veulent participer à des communautés où ils se sentent en sécurité”, explique Zohar. “Nous savons, grâce à nos données, que les communautés et les sites bénéficiant d’une modération active, positive et civile génèrent de l’engagement sur place.”

Lorsqu’ils sont protégés par les services de modération automatisée de Viafoura
services de modération automatisés
nos données montrent que les clients ont vu des utilisateurs engagés passer 168 fois plus de temps sur le site, gagner jusqu’à
2,000
nouveaux enregistrements mensuels et consulter 3,6 fois plus de pages que les entreprises médiatiques sans outils de commentaires.

“Là où il n’y a pas de commentaires, nous constatons une baisse de l’engagement”, ajoute M. Zohar.

Au lieu de se débarrasser des commentaires, les entreprises médiatiques peuvent s’appuyer sur la modération pour créer des environnements sûrs qui invitent les journalistes, les lecteurs et les commentateurs à communiquer et à se connecter les uns aux autres.

Vous craignez que la modération ne soit un investissement trop coûteux ?

Il existe de nombreuses solutions rentables
modération humaine et basée sur l’IA
options disponibles. Vous pouvez également rechercher un fournisseur d’outils d’engagement qui inclut des services de modération directement dans sa solution de commentaires pour une expérience abordable et sans tracas.

Soyez récompensé grâce aux données des utilisateurs

Les rédactions ne tirent pas grand profit de l’envoi de contenu dans le vide, où elles n’en entendront plus jamais parler. Les outils de commentaires modérés donnent aux journalistes la possibilité d’avoir des conversations positives sur leur contenu, d’obtenir des réactions de la part de leurs lecteurs enregistrés et d’utiliser ces informations pour rendre le contenu encore plus attrayant à l’avenir.

Cela signifie que lorsque les utilisateurs enregistrés laissent des commentaires sur votre site, vous pouvez étendre vos données sur les utilisateurs au-delà de leurs profils généraux pour inclure des informations sur les comportements, les intérêts, les sentiments, la propension et l’intention d’achat du public.

Une fois que vous avez ces données déclaratives, vous pouvez les intégrer dans votre modèle d’entreprise.

“Le fait de permettre aux utilisateurs de communiquer directement avec vous et (d’autres lecteurs) autour du contenu crée des perspectives, (conduisant) à des profils d’utilisateurs riches qui évoluent au fil du temps à mesure qu’ils participent activement à la communauté”, explique M. Zohar. “En comprenant le comportement des utilisateurs sur place ainsi que leurs intérêts et leur propension… les éditeurs peuvent améliorer des éléments tels que la curation de la newsletter, les inscriptions et cibler les utilisateurs pour les abonnements.”

Le plus
données de première main
que vous pouvez obtenir des commentateurs, plus vous pourrez regrouper les utilisateurs partageant les mêmes idées pour personnaliser leur expérience, leur envoyer des messages d’abonnement et leur montrer des publicités pertinentes.

En d’autres termes, votre solution de commentaires a le potentiel de vous donner un avantage sur vos concurrents. Alors, quoi que vous fassiez, ne désactivez pas les commentaires !


Vous voulez en savoir plus sur nos solutions de commentaires et d’engagement ? Cliquez ici pour découvrir notre gamme de produits.

Pourquoi le dialogue de votre communauté est la meilleure ressource pour construire une stratégie de contenu réussie

Les humains sont naturellement sociaux. Sinon, pourquoi Facebook aurait-il 2,89 milliards d’utilisateurs actifs chaque mois ?

Mais ces expériences ne doivent pas se limiter aux plateformes de médias sociaux. En fait, ne pas soutenir le contenu des nouvelles avec des expériences sociales et interactives est une opportunité gâchée pour les organisations médiatiques.

Parce que les sites de médias sociaux sont en proie à la désinformation, aux problèmes de confidentialité des données et aux trolls, les utilisateurs en sont venus à faire confiance aux sites d’information 25 % de plus qu’aux plateformes de médias sociaux, selon un rapport de Reuters .

Les experts de l’industrie des médias remarquent maintenant que les utilisateurs perdent l’intérêt de partager du contenu et d’interagir avec leurs relations sur les médias sociaux .

“Au lieu de cela, les gens veulent rechercher activement des opportunités de rejoindre des communautés et des conversations plus isolées ou centrées sur des sujets d’intérêt”, explique Dan Seaman, vice-président de la gestion des produits chez Viafoura. »

Une conversation bidirectionnelle entre la rédaction et le public

Sans un dialogue bidirectionnel entre les membres du public et l’équipe éditoriale, les entreprises de médias sont incapables de comprendre pleinement ou de se connecter avec la communauté autour de leur contenu.

“Votre public s’attend à avoir la possibilité d’aimer, de commenter, de laisser ses opinions et de soumettre des questions”, déclare Mark Zohar, président et COO de Viafoura. “En leur donnant cette opportunité, les entreprises de médias peuvent créer un niveau d’engagement sain, recueillir des informations sur les données et établir une relation directe entre le contenu, les auteurs et les lecteurs.”

Les organisations médiatiques qui permettent aux membres de leur public de poser des questions et de partager leurs pensées ont accès à une mine d’informations sur leur communauté. Et ces informations peuvent être utilisées pour rendre leurs stratégies de contenu globales plus pertinentes et alignées sur les intérêts des lecteurs.

Offrir un dialogue bidirectionnel forge également des relations durables et significatives avec le public qui les encouragent à revenir plus fréquemment pour consommer et interagir avec le contenu.

“Nous savons que lorsque les auteurs laissent des commentaires dans l’expérience de conversation, cela stimule absolument l’engagement parce que les gens veulent répondre à des auteurs et des sources crédibles”, ajoute Zohar.

Ainsi, établir des liens sociaux solides qui conduisent à fidéliser l’audience ne consiste pas seulement à permettre aux lecteurs de discuter entre eux. JLes journalistes peuvent également contribuer aux conversations de la communauté pour mieux comprendre les préférences, les pensées et les opinions des lecteurs.

Obtenir des informations et des suivis auprès de votre public

Zohar souligne que les organisations médiatiques peuvent utiliser les commentaires de leur public pour trouver des sources potentielles de futurs reportages.

“Vous pouvez parcourir la communauté pour voir si quelqu’un a écrit sur une expérience spécifique qu’il aurait pu avoir dans un commentaire”, explique Zohar. “En ce sens, les membres de la communauté peuvent devenir des sources anonymes de contenu, y compris des reportages d’enquête.”

Les journalistes peuvent inclure des questions comme invites de conversation à la fin de leurs articles ou dans la section des commentaires pour encourager les gens à partager leurs expériences et opinions personnelles.

À l’occasion, les utilisateurs peuvent également publier leurs questions et préoccupations brûlantes sur des sujets de contenu spécifiques, ce qui pourrait aider les journalistes à formuler de nouvelles idées pour des articles de suivi.

Alors que les journalistes commencent à accorder plus d’attention aux paroles des membres de leur public, les utilisateurs verront leurs pensées et leurs préférences reflétées dans le contenu, ce qui conduira à une expérience sur site plus captivante.

Les données de Viafoura mettent même en évidence que le temps passé par les utilisateurs sur site peut être multiplié par 16 lorsque les organisations médiatiques soutiennent simplement leur contenu avec des outils sociaux.

Établir des directives de conversation saines

Malgré la nécessité de cultiver les conversations avec leur public, les organisations médiatiques sont également confrontées au défi de maintenir les bonnes conditions de commentaires pour encourager la participation de leur communauté et des journalistes.

“Lorsque le dialogue n’est pas sain et que vous ne disposez pas des mécanismes nécessaires pour soutenir une conversation civile, l’environnement social se transforme rapidement”, explique Zohar. “Votre salle de rédaction ne voudra pas converser avec un public se livrant à des attaques personnelles, que ce soit contre la communauté ou un auteur.”

Ainsi, pour maintenir les conversations sur le sujet, sans troll et saines, les organisations doivent s’appuyer sur des systèmes d’assistance, tels que la modération automatisée et les modérateurs humains , pour appliquer les directives de la communauté.

Si vous recherchez un système de modération efficace, gardez un œil sur celui qui peut automatiquement bloquer jusqu’à 95 % des commentaires offensants pour obtenir les meilleurs résultats.

Les organisations qui gardent leurs espaces de commentaires exempts de contenu préjudiciable ont le pouvoir social de leurs communautés à portée de main. Les journalistes peuvent ensuite puiser dans les conversations saines de leur public pour mieux se connecter avec leur lectorat et créer un contenu que les gens voudront réellement lire et payer.

Viafoura obtient la certification SOC 2 Type 1

Viafoura, leader mondial de l’expérience numérique pour les organisations médiatiques mondiales, a le plaisir d’annoncer qu’elle a passé avec succès l’audit Service Organization Control (SOC) 2 Type 1 et obtenu la certification SOC 2 Type 1.

« En tant qu’entreprise SaaS, nous prenons très au sérieux la sécurité des données de nos clients », déclare Mark Zohar, président et COO de Viafoura. « Obtention de la certification SOC 2 témoigne de l’engagement de Viafoura envers la sécurité, l’intégrité et la disponibilité de notre plateforme. Cela garantit également que nos clients recevront le plus haut niveau de sécurité, de confiance et de conformité.

Un audit SOC 2 Type 1 examine tous les contrôles et processus au sein des écosystèmes d’un fournisseur SaaS ou cloud qui gèrent les informations client, et s’assure qu’ils respectent les cinq principes de confiance des données. Ces principes de confiance sont sécurité, disponibilité, intégrité du traitement, confidentialité et respect de la vie privée.

L’audit SOC 2 est technique et strict, mesurant le processus qu’un fournisseur de SaaS ou de cloud utilise pour surveiller les activités inhabituelles, et comment il est équipé pour répondre par des actions correctives.

“La conformité SOC2 garantit à nos clients et prospects que nous avons pris toutes les mesures nécessaires pour protéger et sauvegarder leurs données”, déclare Zohar. “Notre mission en tant qu’entreprise est de créer des communautés en ligne civiles et sécurisées pour la marque qui engagent et activent les audiences numériques. Cette mission ne peut être accomplie sans un fort investissement et un engagement envers la sécurité et la conformité des données.

Quitter la version mobile