Le Daily Herald apporte des communautés interactives et dynamiques à sa propriété numérique grâce à Viafoura.

De nombreux éditeurs ont du mal à inciter leurs lecteurs numériques à passer du statut de lecteur occasionnel à celui d’abonné actif. Le Daily Herald est un éditeur qui relève ce défi avec zèle.

Le Daily Herald, le plus grand quotidien de la banlieue de Chicago, fournit des informations locales et nationales de dernière minute. Bien qu’ils aient proposé à leurs lecteurs de commenter via Facebook, ces commentaires apparaissaient sur Facebook.com et non sur DailyHerald.com – privant ainsi le Daily Herald de la possibilité d’établir un dialogue entre son personnel et ses lecteurs. En déplaçant les commentaires sur leur propriété, le Daily Herald offre désormais un environnement sain et dynamique qui facilite l’interaction communautaire.

Mark Stallings, responsable des opérations numériques au Daily Herald, déclare : “Nous avons mené plusieurs séries d’analyses exhaustives au cours de nos recherches pour trouver un remplacement à notre plateforme de commentaires actuelle. Nous avions une liste d’incontournables pour toute nouvelle plateforme de commentaires, et Viafoura faisait partie d’un petit groupe de fournisseurs qui répondaient à nos critères, voire les dépassaient. Avant tout, nous voulions un fournisseur qui place les commentaires et l’engagement social au cœur de son activité. Ils devaient être bien établis et avoir fait leurs preuves en fournissant des solutions de premier ordre présentant les caractéristiques suivantes : personnalisation des lecteurs, modération forte, gestion simple des utilisateurs, rapports et analyses compréhensibles et intégration facile. Après avoir réduit la liste, nous avons parlé au personnel d’autres maisons d’édition et à des groupes du secteur pour nous aider à prendre la décision finale”.

Grâce aux conversations, aux blogs en direct, aux discussions communautaires, à la modération automatique et à la modération complète de Viafoura, le Daily Herald augmentera les revenus des abonnés, le temps passé par les visiteurs sur le site, le nombre d’articles qu’ils lisent et le nombre de fois où ils reviennent pour s’intéresser au contenu dans un intervalle donné.

Dalia Vainer, directrice du succès client de Viafoura, veille à ce que le Daily Herald connaisse le succès et une expérience client exceptionnelle. Dalia a le commentaire suivant concernant le tout nouveau partenariat de Viafoura : “Nous sommes ravis que le Daily Herald ait choisi Viafoura comme partenaire pour l’engagement communautaire ! Nous sommes impatients de travailler ensemble pour créer et développer un espace sûr et modéré qui apportera la tranquillité d’esprit aux équipes internes et aux lecteurs”.

Les contributeurs d’UGC font désormais partie intégrante des stratégies de contenu réussies

Vous avez travaillé dur, intégré une plateforme d’expérience numérique (DXP) efficace avec des solutions d’engagement et de modération, et enfin créé un espace sûr pour votre communauté d’audience. Avec un cadre communautaire en place et une solution de modération en action, utilisez ce nouveau temps libre pour féliciter les oies dorées de votre troupeau : les contributeurs de contenu généré par l’utilisateur (CGU).

Commençons par le commencement : qui sont les contributeurs de contenu généré par les utilisateurs, pleins d’énergie et désireux de se faire remarquer publiquement ? Leurs contributions peuvent-elles servir de modèle à d’autres utilisateurs plus passifs ? Si c’est le cas, quels sont les moyens d’y parvenir sans être malhonnête ?

Le renforcement positif est un moyen sûr d’encourager les utilisateurs à aller plus loin dans votre entonnoir d’audience et de renforcer la rétention. En plaçant les contributions de votre communauté sur un piédestal, vous ne récompensez pas seulement ces contributeurs de CGU ultra précieux par une reconnaissance, mais vous diffusez également à votre communauté et au-delà le type de comportement que votre marque valorise et célèbre.

Une fois que vous aurez intégré un solide élément de contribution au CGU à votre stratégie de contenu axée sur l’audience, vos efforts seront récompensés par d’importants gains de revenus (à la fois en termes de publicité et d’abonnements) et par une communauté d’utilisateurs en constante expansion qui s’écoulera régulièrement dans votre entonnoir d’audience.

Afin de déterminer la meilleure façon d’intégrer les créateurs de CGU dans votre stratégie, vous devrez d’abord examiner les outils et les techniques à votre disposition, la façon d’optimiser l’efficacité du contenu CGU et, surtout, la façon de le faire d’une manière qui rehausse votre marque et favorise son succès.

 

Mettre en évidence les commentaires des utilisateurs

Au quotidien, la mise en œuvre d’une stratégie de commentaires épinglés est un excellent moyen de mettre en avant les membres de votre communauté et de donner le ton aux conversations naissantes.

Dans certains cas, le fait que votre équipe de rédaction/contenu lance la discussion dans la section des commentaires avec un commentaire épinglé comme amorce de conversation peut conduire à un engagement immédiat et à des contributions des utilisateurs. Lorsque les commentaires des utilisateurs affluent, remplacez votre commentaire par une contribution d’un utilisateur qui adhère aux valeurs de votre marque, donne le ton et encourage les autres à participer.

 

Choix de la rédaction

Réfléchissez à l’endroit où vous pouvez atteindre différents publics à différents stades de l’entonnoir d’audience.

Si votre équipe éditoriale envoie un bulletin d’information, inclure un élément de CGU dans un segment “Choix de la rédaction” est un excellent moyen de montrer que vous appréciez les contributions des membres de votre communauté et cela donne aux membres inscrits une raison d’apporter leurs propres opinions et perspectives dans l’espoir d’être également mis en avant.

Pour atteindre des publics qui ne sont pas nécessairement inscrits à des bulletins d’information, l’intégration de ces “Choix de la rédaction” dans un contenu facilement accessible sur le site peut inspirer les utilisateurs inscrits et établir un lien avec les visiteurs non encore inscrits. Le partage de ces contributions avec un public plus large a le potentiel d’établir, une fois de plus, un comportement ambitieux pour les autres utilisateurs et d’améliorer l’engagement.

 

Badges

Tout comme la mise en évidence de ce que vos contributeurs UGC ont partagé, les badges sont un moyen pour vous de distinguer les différents types d’utilisateurs qui s’engagent dans votre contenu et de favoriser une communauté unique propre à votre site. En effet, les utilisateurs qui ont consacré du temps et de l’énergie pour obtenir leur propre badge sont beaucoup plus susceptibles de poursuivre leurs efforts et de rester actifs et engagés.

 

Conclusion

En fin de compte, les publics qui recherchent du contenu et investissent leur temps, leur énergie et leur argent dans votre publication sont le pain et le beurre du monde de l’édition. Lorsque nous prenons leurs intérêts à cœur et que nous célébrons leur fidélité et le temps qu’ils passent sur nos plateformes, nous en apprenons de plus en plus sur eux grâce à leurs offres de données et pouvons à notre tour continuer à leur fournir le contenu de grande valeur axé sur leurs intérêts qu’ils méritent.

Une nouvelle étude montre que le premier commentaire publié par un éditeur suscite une conversation intéressante.

Les responsables de l’engagement de l’audience savent qu’une section de commentaires saine est un élément essentiel de la création d’une communauté en ligne saine. Avec des débats politiques controversés de plus en plus fréquents et un nombre croissant de personnes qui se tournent vers l’internet pour exprimer leur frustration, il est plus important que jamais de maintenir une section de commentaires à la fois civile et animée.

Heureusement, une technique simple peut aider les éditeurs et les modérateurs à orienter les conversations avec une plus grande tranquillité d’esprit. Selon une nouvelle étude de Viafoura, les médias connaissent une augmentation significative du trafic, de la civilité et de l’engagement lorsque les éditeurs publient le premier commentaire.

Poster le premier commentaire est depuis longtemps une technique utilisée par les gestionnaires de médias sociaux et les influenceurs afin de contrôler le ton de la conversation et de créer un engagement. Le premier commentaire permet de “briser la glace” et de donner le ton de la conversation. Il invite également les lecteurs à réagir, ce qui peut augmenter le temps passé sur le site et renforcer la fidélité à la marque.


Que se passe-t-il lorsque les éditeurs publient en premier ?

L’étude s’est déroulée entre le 28 septembre et le 15 décembre 2021 dans 15 salles de rédaction à travers le Canada, couvrant une sélection variée de régions géographiques et les différentes extrémités du spectre politique. Chaque salle de rédaction a publié le premier commentaire sur un certain nombre d’articles de ses publications, dans l’heure qui a suivi la mise en ligne des articles. Ce groupe test a ensuite été comparé à un groupe de référence afin de fournir un contexte aux résultats.

Un élément de l’étude qui différait d’une plateforme à l’autre était le type de commentaire posté sous l’article. Les tactiques varient d’une salle de rédaction à l’autre. Certains rédacteurs ont offert leur aide aux utilisateurs, en répondant à des points particuliers de l’article ou en répondant à des questions. D’autres ont posé des questions spécifiques, dirigées, sur la réaction des lecteurs à l’article. Les écrivains ont eu la liberté de faire entendre leur voix et leur créativité dans la section des commentaires !

Au cours de l’étude, Viafoura a recueilli des données sur le volume des commentaires, le temps passé à commenter et la conversion avant et après l’engagement – trois mesures cruciales utilisées pour évaluer le succès d’un espace communautaire en ligne.


Publier en premier signifie augmenter l’engagement, la conversion et la tranquillité d’esprit.

L’étude a révélé que l’activité a augmenté de façon spectaculaire sur tous les indicateurs, avec une augmentation de 45 % du temps passé dans les commentaires, de 380 % de la moyenne totale des commentaires et de 347 % de la moyenne des “likes”. Cette augmentation drastique indique que le contrôle du premier commentaire donne le ton et conduit à un discours plus civilisé.

Avec un ensemble standard de comportements en place, les besoins de modération diminuent. Alors que le groupe de référence devait signaler 6,8 % des messages et désactiver 9,1 % des utilisateurs, le groupe test a vu ces chiffres diminuer de manière significative, avec 4,8 % de messages signalés et 7,4 % d’utilisateurs désactivés. En donnant simplement l’exemple d’un bon comportement, les éditeurs ont réduit le nombre de violations des directives communautaires et de bannissements d’utilisateurs.

Le résultat le plus surprenant est peut-être l’augmentation significative des inscriptions.

Des recherches antérieures ont montré que près de 50 % des membres finissent par se retirer d’une plateforme lorsqu’ils sont exposés au trolling. En revanche, lorsque les éditeurs ont publié le premier commentaire, chaque article a connu une augmentation de 55 % des inscriptions, avec une augmentation de 9 % des utilisateurs qui ont tenté d’interagir en commentant avant de s’inscrire.

L’impact positif ne s’est pas arrêté à la conversion. Viafoura a également constaté une augmentation de 21 % des utilisateurs qui ont interagi avec les commentaires après l’inscription. Cela indique que les utilisateurs ont participé au discours, qu’ils se sont sentis suffisamment positifs pour s’inscrire et qu’ils ont continué à se sentir engagés et loyaux après le point de conversion.

Ces données confirment l’idée que la publication du premier commentaire peut constituer une étape importante dans la réalisation des objectifs de conversion. Lorsque les éditeurs interagissent directement avec leur communauté, ils contribuent à maintenir un sentiment de sécurité et d’attention qui peut conduire à une augmentation directe de l’engagement.

Que pouvons-nous conclure ?

La fidélisation des clients est essentielle au bien-être et à la longévité de toute marque en ligne. De simples astuces de modération peuvent faire la différence entre une conversation en ligne litigieuse et une communauté en ligne florissante.

En donnant le ton de la conversation, les éditeurs peuvent orienter le contenu, inviter à un discours poli et même adapter leur engagement aux besoins et aux intérêts de leur public cible. Dans chaque cas, les premiers commentaires se sont révélés être une étape essentielle dans le processus de protection et de développement des communautés numériques.

Pourquoi les fournisseurs de services de modération des commentaires doivent aller plus loin pour protéger leurs partenaires

Les entreprises de médias, comme toutes les marques, cherchent à renforcer la reconnaissance et la confiance en publiant du contenu généré par les utilisateurs. Cependant, la publication de ce contenu n’est pas sans risque : les organisations doivent s’assurer que les utilisateurs ne publient pas de messages offensants ou menaçants sur leurs sites Web ou leurs applications. C’est là que la modération du contenu entre en jeu.

Dans l’environnement moderne actuel, les organisations font tout leur possible pour garantir la civilité sur leurs propriétés numériques tout en encourageant la liberté d’expression et les conversations d’opinion. Nombre d’entre eux ont mis en place des solutions de modération qui font appel à des modérateurs en direct ou utilisent des algorithmes automatisés pour résoudre ce problème.

La population générale a également pris conscience de la modération. en particulier ce qu’il fait et pourquoi il est utilisé. Que se passe-t-il donc lorsque votre partenaire de modération devient plus qu’un simple fournisseur de technologie ?

Récemment, un client de Viafoura et l’un des plus grands éditeurs du Royaume-Uni a découvert pourquoi l’équipe de modération de Viafoura est bien plus qu’un partenaire.

L’éditeur utilise à la fois les solutions d’IA (Intelligence Artificielle) et de modération en direct de Viafoura. Comme la solution d’IA apprend et applique les directives de la communauté définies par l’éditeur, 85 % à 90 % des commentaires sont facilement modérés par son moteur d’IA. Les autres “commentaires douteux” sont envoyés à un modérateur en direct pour qu’il prenne une décision.

Au début de cette année, l’un de ces commentaires a été envoyé à un modérateur en direct à Viafoura. A Un utilisateur a menacé une crèche dans la section des commentaires, ce qui a bien sûr été signalé et envoyé dans la file d’attente de modération.

Au lieu de simplement bloquer le commentaire et de bannir l’utilisateur, l’employé de modération de Viafoura a contacté l’équipe de l’éditeur pour expliquer la situation. Les employés de la grande maison d’édition ont immédiatement abordé la situation avec les forces de l’ordre locales.

Moins d’une demi-heure après la publication du commentaire, la police est intervenue.

Grâce à la rapidité d’esprit de Viafoura et des employés de l’éditeur, qui ont fait un effort supplémentaire. qui ont fait un effort supplémentaire, une situation potentiellement terrible a été entièrement évitée.

“La modération est bien plus qu’un simple jugement consistant à s’assurer que le contenu généré par l’utilisateur respecte les directives et les règles propres à la plateforme afin de déterminer si le contenu peut être publié”, explique Leigh Adams, directrice des services de modération chez Viafoura. “Oui, il s’agit de maintenir les normes de nos clients, mais il s’agit aussi de reconnaître quand un commentaire doit être transmis. Nous sommes fiers de disposer d’un personnel qui sait quoi faire quand… et faire un effort supplémentaire pour atteindre nos clients. parce que nous avons la relation pour le faire facilement.”

Surmonter l’évitement des nouvelles et reconquérir votre public

L’un des éléments positifs qui ressort de la pandémie est le regain d’intérêt pour la santé mentale et le bien-être. D’une semaine à l’autre, des personnes du monde entier sont devenues des grabataires, qu’elles le veuillent ou non. Ils ont été contraints de s’asseoir chez eux et, après avoir épuisé tout ce que Netflix avait à offrir, de réfléchir. Penser, réfléchir et prendre conscience de leur santé mentale d’une manière qu’il était peut-être plus facile d’éviter auparavant.

Avec ce temps de réflexion, il n’est pas étonnant que les gens aient commencé à remarquer la corrélation entre leur humeur et leur santé mentale, d’une part, et les montagnes russes émotionnelles du cycle des nouvelles tout au long de la pandémie, d’autre part. En une seule séance, les téléspectateurs pouvaient voir une vidéo inspirante montrant des Italiens chantant depuis leur balcon en quarantaine, suivie d’histoires horribles de personnes piégées chez elles avec des proches décédés, tandis qu’un chiron au bas de l’écran fournissait un compteur de décès constamment mis à jour.

Si le cycle des actualités n’est pas connu pour être une source constante de contenu édifiant, la pandémie a mis en lumière l’impact des mauvaises nouvelles sur notre bien-être mental. Il n’est pas étonnant que de nouveaux comportements d’audience soient apparus. Ceux qui, au détriment des éditeurs du monde entier, voudraient que nous détournions le regard et évitions les informations plutôt que de regarder la télévision pour voir nos journées gâchées par un énième article sur la dernière menace existentielle.

Effet de la santé mentale sur les tendances à éviter les nouvelles

Évitement des nouvelles : la
résistance ou rejet actif ou intentionnel des nouvelles.
.

Bien que ce nouveau comportement n’en soit qu’à ses débuts, des études indiquent que les gens, partout dans le monde, sont devenus plus sélectifs quant au contenu qu’ils consomment. C’est un moyen d’atténuer les sentiments négatifs qui vont de pair avec un cycle d’informations qui semble être de plus en plus négatif, préoccupant et déprimant.

Dans les premiers jours de la pandémie, selon les données compilées par Nielsen,
les éditeurs ont suivi une augmentation de 60%
dans la consommation de contenus d’information, au niveau mondial. Quels étaient les gros titres pendant cette période ? Des histoires liées à la pandémie, ainsi que des crises politiques survenant dans le monde entier, avec plus de quelques mentions notables appartenant aux États-Unis.

Au fur et à mesure que le temps passait et que les gros titres devenaient de plus en plus tragiques, un sentiment d’épuisement envahissant parmi le public était alimenté par les nouvelles. Une enquête annuelle menée par Reuters auprès de plus de 90 000 participants sur 46 marchés différents a révélé que 43 % des personnes interrogées ont déclaré que le barrage ininterrompu d’informations COVID-19 ou politiques les avait incitées à éviter les informations de manière sélective. En outre,
36% de ces mêmes personnes ont déclaré que leur humeur était affectée négativement
par la nature majoritairement déprimante du cycle des nouvelles.

Depuis lors, les éditeurs se sont retrouvés dans une position impossible : rendre compte honnêtement de la nature sinistre de l’actualité de notre monde et subir une baisse d’audience, faire des reportages sensationnels et perdre toute crédibilité, ou rendre compte de sujets anodins comme les divorces et les scandales de célébrités pour que les gens soient divertis mais non informés ?

La négativité sape la confiance et accroît l’évitement des informations.

Cette situation n’est pas seulement délicate pour les équipes de rédaction et de contenu, mais l’évitement des nouvelles a également rendu difficile la création de communautés d’adeptes passionnés et engagés. C’est encore plus difficile lorsque les informations elles-mêmes sont jugées indignes de confiance par des consommateurs mal informés ou mal conseillés. Les États-Unis, en particulier, doivent faire face à cette tendance croissante.
Un quart seulement des personnes interrogées aux États-Unis déclarent avoir confiance dans les médias de leur pays.
.

Le public aura toujours des idées et des opinions, en particulier lorsqu’il s’agit de concepts plus grands que nature comme la propagation d’une pandémie ou une insurrection pour renverser la démocratie. Il est naturel de vouloir partager ces pensées et d’ouvrir une discussion sur ces idées, ce pour quoi la section des commentaires d’un article est littéralement faite.

Cependant, près d’une personne sur cinq interrogée dans le cadre de l’étude Reuters a déclaré qu’elle tendait à éviter les nouvelles parce que le fait de partager ses opinions
mène à des disputes qu’ils préfèrent éviter
. Cela va droit au cœur du défi auquel les éditeurs sont confrontés lorsqu’ils tentent de trouver des solutions à la baisse de l’engagement et des taux d’abonnement. Si les gens ne se sentent pas à l’aise pour exprimer leur point de vue, non seulement ils éviteront de s’engager dans un discours ouvert sur des sujets attrayants, mais il est probable qu’ils éviteront carrément le contenu.

Comment surmonter l’évitement de l’actualité et conquérir le public ?

Que peuvent donc faire les éditeurs pour surmonter l’évitement des nouvelles et créer des communautés florissantes de lecteurs passionnés ? Réponse : une stratégie de croissance fondée sur l’audience et les données.

En donnant la priorité aux intérêts de votre public, en créant du contenu qui correspond aux valeurs de votre organisation et aux objectifs de vos équipes de rédaction et de publication, vous êtes en mesure de réduire le risque d’évitement des informations. Si vous parvenez à vous positionner en tant qu’éditeur qui fournit un contenu de haute qualité et qui fait de la place aux
communauté et un discours sain
vous êtes sur la bonne voie pour reconquérir votre public et accéder à de précieuses données de première main qui vous aideront dans vos efforts.

Les connaissances comportementales sont essentielles dans le paysage actuel de l’édition numérique. Ces données peuvent être difficiles à obtenir sans une équipe d’analystes, mais des solutions clés en main existent.

Bannissement fantôme contre les violateurs de la communauté

Plateformes construites par des modérateurs pour
aider les autres modérateurs à maintenir une communauté positive
sont disponibles pour vous et vos équipes.

Un outil précieux pour la modération communautaire est le bannissement fantôme basé sur le temps. Ces “temps morts” peuvent être attribués aux personnes qui désobéissent fréquemment aux directives de la communauté et qui répandent la toxicité.

L’étiquetage des commentaires peut contribuer à renforcer davantage ces directives, en mettant en évidence ceux qui sont conformes aux directives, ceux qui s’éloignent du sujet avec des messages plus aléatoires, et même ceux qui sont signalés comme des attaques directes contre les auteurs ou d’autres membres de la communauté. Grâce à une modération attentive et réfléchie, vous serez mieux à même de promouvoir un dialogue coopératif et respectueux entre les lecteurs. En rendant l’espace de discussion plus sûr, vous avez créé une opportunité invitante pour les utilisateurs potentiels qui évitaient peut-être votre contenu pour éviter les conflits et la toxicité indésirables.

Recherche d’adresses IP pour limiter ou bloquer les trolls présumés

Les éditeurs ont évidemment besoin de développer leur audience pour rester à flot. Une audience saine et importante est essentielle pour les revenus, les possibilités d’apprentissage fondées sur les données, sans oublier qu’elle est extrêmement attrayante pour les annonceurs et les affiliés désireux de dépenser de l’argent pour entrer en contact avec ces lecteurs.

Malheureusement, si des trolls ou des extrémistes harcèlent les autres membres de la communauté au point de les pousser à éviter les nouvelles, la qualité de l’audience s’en trouve grandement diminuée. La quantité n’est pas supérieure à la qualité, même si les vues et les partages sont des indicateurs importants pour stimuler les abonnements.

Au lieu de cela, vous pouvez utiliser des plateformes dotées de fonctions intégrées de recherche d’adresse IP pour trouver ces mauvais acteurs et modérer leurs messages afin qu’ils ne puissent plus perturber le reste de la communauté. Cela vous permettra également d’éviter de violer par inadvertance les directives de publication de vos affiliés et de risquer de perdre des affaires vitales, qui ont été
une dure leçon apprise par les habitants de Parler après le 6 janvier
.

Modérer les conversations, les événements en direct, les chats communautaires et les critiques.

Enfin, utilisez votre console de modération pour encourager un dialogue sain sur tous les flux numériques affiliés à votre publication. Il peut s’agir de conversations dans la section des commentaires d’un article, d’interactions lors d’événements en direct ou de chats communautaires. Vous pouvez même influer sur le ton des évaluations et des critiques concernant votre publication afin d’empêcher la propagation d’un négativisme trompeur.

La console se connecte directement à chacun de ces forums, ce qui permet à l’ensemble de votre équipe éditoriale de travailler dans le même espace et d’appliquer des directives cohérentes à tous les points de vente. Non seulement cela augmentera l’efficacité et la productivité de votre équipe, mais vous établirez une norme pour votre public quant au type de communauté qu’il peut attendre de votre publication. C’est ainsi que vous préparez le terrain pour établir la confiance et l’authenticité, deux caractéristiques absolument nécessaires pour développer votre audience.

Alors que le monde est en constante évolution et que les lecteurs adaptent leur façon de consommer du contenu, les éditeurs doivent être attentifs à la manière de créer des espaces informatifs, sûrs et encourageants pour leurs lecteurs.

Digiday Media et Viafoura – un partenariat de haut niveau avec de nouveaux formats de contenu, des opportunités d’engagement et des mises à jour d’analyse.

Sautez le péage : Comment faire face aux trolls férus de technologie ?

Nous sommes en 2022 et les gens se tournent désormais vers les appareils pour établir une connexion humaine. L’internet n’a jamais été aussi social et ce trafic en constante augmentation s’accompagne d’une profusion de merveilleux moments de connexion… Et d’une population de trolls qui n’a jamais été aussi nombreuse.Le trolling sur internet est défini comme un “comportement en ligne malveillant” caractérisé par une provocation agressive ou délibérée des autres. Si ce comportement peut être (discutablement) cathartique pour la personne qui trolle les communautés dans l’anonymat, sa présence détériore considérablement la santé et la sécurité d’un espace numérique, et donc sa convivialité.

Les éditeurs, grands et petits, souffrent également des trolls. Ils connaissent bien la technologie, sont presque toujours anonymes et disposent de beaucoup de temps pour répandre la toxicité, ce qui en fait une force avec laquelle il faut compter. Qu’est-ce qui est pire ? Ils sont là pour rester.

Au lieu de vous rendre, voici quelques tactiques de trolls dont il faut se méfier et ce que vous pouvez faire pour éviter le péage et protéger votre tranquillité.

Comptes multiples

Les trolls sont obsessionnels, irascibles et persistants. Si vous vous retrouvez soudain face à une horde de trolls, n’oubliez pas qu’il peut s’agir d’une seule personne, en mission, utilisant plusieurs comptes. Les trolls disposent du temps et de la technologie nécessaires pour envahir les espaces, éviter les interdictions et saper les bonnes vibrations durement gagnées de votre communauté. Comment puis-je le résoudre ? – Une fois que vous connaissez le comportement d’un troll, vous pouvez le repérer dans la nature (déguisé en nouvel utilisateur) lorsqu’il déclenche des bagarres ou encourage des opinions incendiaires. Ces récidivistes laissent des traces qui indiquent leur identité. Armé des outils et des données de votre communauté, recherchez des noms, des courriels, des avatars ou des adresses IP similaires liés à des interdictions existantes. Vérifiez, confirmez, puis interdisez-les autant de fois qu’il le faut.

Discours de haine et vulgarité

Les trolls ont besoin d’ attention et le langage offensant est un moyen facile de l’obtenir. En 2019, environ un tiers des posts sur lesquels les modérateurs de Viafoura sont tombés contenaient des discours de haine et/ou de la vulgarité. Cela représente près de 83 millions de tentatives d’être méchant sans raison. Nous pouvons donc au moins reconnaître aux trolls le mérite d’être dévoués à leur métier… Mais ce n’est pas le cas. Comment puis-je le résoudre ? – A La “liste des mots interdits” peut contribuer à limiter cette tactique particulière, mais certains trolls peuvent utiliser une tactique appelée “masquage”. Les trolls masqueront les mots interdits par des symboles, une orthographe verticale, des points, etc. pour déjouer une simple liste de mots interdits. Si vous n’êtes pas sûr de ce qu’il faut rechercher, faites confiance – 0nce u se.e 1t, y0u c4nt uns33 1t. Une IA de traitement du langage naturel plus sophistiquée, comme celle de Viafoura, peut repérer les mots masqués et les bloquer avec une précision de plus de 90 %.

Conseil supplémentaire: de nombreux fournisseurs de services prétendent disposer d’une IA ou d’une modération automatique, mais n’exploitent pas réellement le traitement du langage naturel ou l’apprentissage automatique pour comprendre les variations des mots et des structures de phrases. Vérifiez auprès de votre fournisseur de services de modération que votre outil peut apprendre à mesure que les modérateurs approuvent ou bloquent les commentaires, ce qui permet de perfectionner l’algorithme, qui doit être adapté à vos directives.

Signalisation en série

La modération d’utilisateur à utilisateur peut être un outil de sécurité précieux, mais elle peut aussi donner lieu à des abus. Certains trolls utilisent la fonction de “signalement” pour faire taire ou frustrer des utilisateurs innocents. Dans certains cas, le marquage en série peut même entraîner un bannissement injuste pour des personnes qui n’ont violé aucune directive. Si un utilisateur signale souvent des contenus qui ne violent pas les directives de la communauté, vous avez peut-être un troll sur les bras.Comment résoudre ce problème ? – Utilisez vos données et travaillez avec votre communauté. Considérez cette incitation à vous impliquer dans votre communauté et à apprendre à connaître vos contributeurs positifs. En demandant à des utilisateurs de confiance leur point de vue et leur expérience du troll suspecté, vous pourrez reconnaître les reporters sous faux drapeau sur-le-champ.

Traiter avec les trolls n’est pas toujours facile et ce n’est jamais une expérience amusante. Malheureusement, ils sont là pour rester et, s’ils ne sont pas contrôlés, ils peuvent transformer votre espace numérique en une communauté tumultueuse où règnent les conflits – ce qui n’est certainement pas quelque chose que vous voulez associer à votre marque. En nous dotant des connaissances, des outils et de la sensibilisation appropriés, nous pouvons tenir les trolls à distance et utiliser ces mêmes méthodes de modération pour empêcher le comportement toxique des utilisateurs de se développer, même sans trolls pour alimenter les flammes.

Pour en savoir plus sur la suite d’outils de modération de Viafoura, visitez https://viafoura.com/content-moderation/.

ACM – propulser de nouveaux niveaux d’engagement communautaire avec Viafoura

ACM, est composé de plus de 140 grandes marques d’informations rurales et régionales. ACM est au service de millions de personnes dans tous les états et territoires d’Australie. Ses titres principaux sont les suivants
Canberra Times
,
Newcastle Herald
,
The Examiner
,
The Border Mail
,
The Courier
,
Illawarra Mercury
,
The Land
et des titres agricoles comme The Land et Queensland Country Life.

ACM est un réseau de médias moderne qui se passionne pour la mise en œuvre de nouvelles technologies, faisant de ses journaux et de ses sites web les meilleurs de leur catégorie en matière de journalisme régional. Tom Woodcock, responsable du marketing numérique, note que l’ACM s’efforce de créer un environnement qui permettra à la fois d’engager et de développer ses communautés et d’être un lieu que les équipes éditoriales pourront facilement gérer et dont elles seront fières. Grâce à l’utilisation de la gamme complète de services de Viafoura, y compris les blogs en direct, le chat communautaire, les conversations et la modération, l’engagement communautaire sera propulsé à de nouveaux niveaux.

Woodcock déclare : “Avant d’utiliser les solutions de Viafoura, nous étions confrontés à une technologie plus ancienne qui ne permettait pas d’obtenir les niveaux d’engagement que nous souhaitions de la part de la communauté, qui remettait en question nos normes de modération et qui nous donnait peu de visibilité en ce qui concerne les données.” Désormais, le public de l’ACM pourra interagir avec les journalistes et entre eux, tandis que le moteur de modération en temps réel de Viafoura veillera à ce que les commentaires toxiques soient signalés et que les conversations restent civiles. “Nous nous réjouissons de notre avenir avec Viafoura”.

“Viafoura est ravi d’accueillir ACM comme son premier client australien ! Nous sommes impatients de voir comment ils vont mettre en œuvre cette solution pour offrir une expérience d’engagement améliorée à leurs utilisateurs et obtenir des données et des informations plus approfondies “, déclare Dalia Vainer, directrice de l’expérience client chez Viafoura.

Votre équipe de modération dispose-t-elle des outils nécessaires pour repérer le troll ?

Comme tout modérateur le sait, le trolling est plus qu’une simple nuisance.

Selon Leigh Adams, directeur des services de modération chez Viafoura, “les trolls deviennent la minorité bruyante, et peuvent rapidement prendre le dessus et noyer les conversations plus pertinentes”. Lorsqu’un comportement toxique n’est pas contrôlé, il peut entraîner les forums dans une direction qui nuit activement à votre marque. Vos modérateurs sont-ils équipés pour identifier et éliminer efficacement les mauvais comportements avant qu’ils ne causent des dommages à long terme ? Voici cinq outils importants dont ils auront besoin.

Directives communautaires

La première étape de la création d’une communauté en ligne sûre consiste à établir des directives claires, faciles à trouver et complètes. Ils constituent la première ligne de défense contre les trolls potentiels.

Que doivent contenir les directives ? Les experts recommandent une politique de tolérance zéro à l’égard des attaques personnelles, des contenus obscènes, diffamatoires ou calomnieux, et de tout ce qui est injurieux ou blasphématoire. Ensuite, les directives doivent être personnalisées pour s’adapter à votre plate-forme.

Lorsqu’un utilisateur se comporte mal, les directives communautaires peuvent aider vos modérateurs à prendre une décision éclairée pour le signaler ou le bannir. Ils fournissent également une justification, au cas où un utilisateur banni déposerait une plainte. Cela permet de protéger vos modérateurs, ce qui les aide à faire leur travail en toute confiance.

Connaître les signes

Les péages peuvent être classés dans l’une des deux catégories suivantes : compte unique et compte multiple. Les deux types peuvent être identifiés rapidement et facilement si les modérateurs savent ce qu’il faut rechercher. Assurez-vous que votre équipe de modération sait comment accéder aux données des utilisateurs et rechercher les signes d’alerte.

Les trolls à compte unique sont des utilisateurs qui franchissent la ligne, qu’ils le sachent ou non. Elles peuvent être identifiées par leur volume et présentent généralement un nombre élevé de drapeaux, de désactivations ou de commentaires. Ils peuvent être échangés et modifient souvent le comportement avec un avertissement ou une interdiction unique.Les trolls à comptes multiples reviennent à plusieurs reprises sous différents pseudonymes. Ils cherchent généralement à attirer l’attention et laissent souvent des indices sur leur identité afin de relancer des conversations toxiques. Les modérateurs devraient examiner les nouveaux comptes pour y déceler les signes révélateurs du retour d’un troll. Ils ont souvent un taux de désactivation élevé, un nom, une image avatar ou une adresse IP similaires à ceux d’un compte précédemment banni. Certains trolls sont tellement avides d’attention qu’ils vont jusqu’à poster “Je suis de retour” ou “J’ai été banni”.

 

Interdiction de

Lorsque tous les avertissements n’ont pas réussi à mettre fin à un mauvais comportement, les modérateurs devraient être habilités à bannir les utilisateurs problématiques. Les interdictions permettent de faire respecter les directives de votre communauté et de créer un meilleur espace pour les utilisateurs sages qui souhaitent profiter de la plate-forme.

Il existe plusieurs types d’interdictions : les interdictions progressives, les interdictions fantômes et les interdictions permanentes. Les modérateurs peuvent augmenter leur niveau de contrôle en comprenant le meilleur scénario d’utilisation pour chaque type d’interdiction.

Une interdiction progressive est utilisée comme un palliatif ou un avertissement pour s’assurer que les personnes qui commettent une première infraction ont la possibilité de s’améliorer. Les interdictions fantômes permettent au troll de continuer à poster, mais elles suppriment le commentaire du flux général. Les interdictions permanentes ne sont que cela : permanentes. Les interdictions sont un outil puissant. Donnez à vos modérateurs les moyens de les utiliser. Pour autant qu’ils l’utilisent correctement, la possibilité d’interdire des utilisateurs leur fera gagner du temps et de la force mentale.

Outils d’IA

L’un des meilleurs outils que vous pouvez donner à votre équipe de modération humaine est un système d’IA qui identifiera la majorité des cas de toxicité évidente, réduira leur champ de modération et leur permettra de se concentrer sur des situations plus nuancées.

Il existe un certain nombre d’options de modération intelligente, mais tous les systèmes ne sont pas égaux. De nombreux services utilisent uneliste demots interdits” qui ne permet pas de détecter la majorité des problèmes contextuels ou des violations de “masquage”. Choisissez plutôt un service avec traitement du langage naturel ou apprentissage automatique. Ces systèmes permettent à l’IA de s’adapter à mesure que les modérateurs approuvent ou bloquent les commentaires, en adaptant l’algorithme à votre plateforme.

Selon le rapport de Viafoura intitulé “Everyone Is A Troll”, il est prouvé que les communautés dotées d’un logiciel de modération avancé enregistrent une croissance : 62 % d’utilisateurs en plus, 35 % de commentaires en plus par utilisateur et 34 % de réponses en plus par utilisateur.

Soutien à votre équipe de modération

Votre équipe de modération accomplit la tâche essentielle mais difficile de protéger votre communauté contre l’hostilité entrante. La création d’un environnement de travail efficace, positif et sain les aidera à éviter l’épuisement professionnel et à rester positifs.

Le premier et le plus important aspect d’un lieu de travail sain est une communication ouverte. Créez un canal (comme Slack ou Google Meets) et encouragez vos modérateurs à demander de l’aide. Cela aidera votre équipe à rester neutre, à identifier les préjugés inconscients de chacun et à garantir le partage des connaissances.

Soutenez votre équipe de modération en veillant à la transparence de la charge de travail et en offrant des pauses fréquentes. Le repos peut être productif et, lorsque vous êtes confronté à une négativité constante, il est essentiel.

Chez Viafoura, nous sommes convaincus que des modérateurs bien préparés font des communautés fortes et saines. Combien de ces outils vos modérateurs utilisent-ils ? En équipant votre équipe d’une gamme complète de stratégies de modération, vous pourrez créer une communauté qui se sent en sécurité, qui soutient votre marque et qui se développe en même temps que votre plateforme.

Quitter la version mobile