Verfügt Ihr Moderationsteam über die nötigen Mittel, um Trolle zu erkennen?

Wie jeder Moderator weiß, ist Trolling mehr als nur ein Ärgernis.

Laut Leigh Adams, Director of Moderation Services bei Viafoura, “werden Trolle zur lautstarken Minderheit und können schnell relevante Konversationen überholen und übertönen”. Wenn toxisches Verhalten unkontrolliert bleibt, kann es Foren in eine Richtung führen, die Ihrer Marke aktiv schadet. Sind Ihre Moderatoren in der Lage, schlechtes Verhalten effektiv zu erkennen und zu beseitigen, bevor es langfristigen Schaden anrichtet? Hier sind fünf wichtige Instrumente, die sie benötigen.

Leitlinien der Gemeinschaft

Der erste Schritt zum Aufbau einer sicheren Online-Community besteht darin, klare, leicht auffindbare und umfassende Gemeinschaftsrichtlinien zu erstellen. Diese dienen als erste Verteidigungslinie für Möchtegern-Trolle.

Was sollten Leitlinien enthalten? Experten empfehlen, persönliche Angriffe, obszöne, verleumderische oder diffamierende Inhalte und alles, was beleidigend oder profan ist, nicht zu tolerieren. Danach sollten die Leitlinien an die jeweilige Plattform angepasst werden.

Wenn sich ein Benutzer schlecht verhält, können die Community-Richtlinien Ihren Moderatoren helfen, eine fundierte Entscheidung zu treffen, ob sie den Benutzer kennzeichnen oder sperren sollen. Sie bieten auch eine Rechtfertigung, falls ein gesperrter Nutzer eine Beschwerde einreicht. Dies trägt dazu bei, Ihre Moderatoren zu schützen, was wiederum dazu beiträgt, dass sie ihre Arbeit mit Vertrauen erledigen können.

Kennen Sie die Anzeichen

Mautgebühren können in zwei Kategorien eingeteilt werden: Einzelkonto und Mehrfachkonto. Beide Arten können schnell und einfach identifiziert werden, wenn die Moderatoren wissen, worauf sie achten müssen. Stellen Sie sicher, dass Ihr Moderationsteam weiß, wie man auf Nutzerdaten zugreift und nach Warnzeichen sucht.

Einzelkonto-Trolle sind Nutzer, die die Grenze überschreiten, ob sie es wissen oder nicht. Sie können anhand der Lautstärke identifiziert werden und weisen in der Regel eine große Anzahl von Kennzeichen, Deaktivierungen oder Kommentaren auf. Sie können eingelöst werden und ändern ihr Verhalten oft schon mit einer Verwarnung oder einer einmaligen Sperre.Trolle mit mehreren Konten kehren wiederholt unter verschiedenen Pseudonymen zurück. Sie sind in der Regel auf der Suche nach Aufmerksamkeit und hinterlassen oft Hinweise auf ihre Identität, um giftige Gespräche neu zu entfachen. Moderatoren sollten bei neuen Konten auf verräterische Anzeichen für einen wiederkehrenden Troll achten. Sie haben oft eine hohe Deaktivierungsrate, einen ähnlichen Namen, ein ähnliches Avatarbild oder eine ähnliche IP-Adresse wie ein zuvor gesperrtes Konto. Manche Trolle sind so erpicht auf Aufmerksamkeit, dass sie sogar “Ich bin zurück” oder “Ich wurde verbannt” posten können.

 

Verbot

Wenn alle Warnungen versagt haben, um schlechtes Verhalten zu stoppen, sollten die Moderatoren befugt sein, problematische Benutzer zu sperren. Verbote tragen dazu bei, die Richtlinien Ihrer Gemeinschaft aufrechtzuerhalten und einen besseren Raum für die braven Nutzer zu schaffen, die die Plattform genießen möchten.

Es gibt verschiedene Arten von Verboten: schrittweise Verbote, Geisterverbote und dauerhafte Verbote. Moderatoren können ihre Kontrollmöglichkeiten verbessern, indem sie sich über das beste Nutzungsszenario für jede Art von Verbot informieren.

Ein schrittweises Verbot wird als Zwischenlösung oder als Warnung eingesetzt, um sicherzustellen, dass Ersttäter einen Spielraum für Verbesserungen erhalten. Bei Geisterverboten kann der Troll weiter posten, aber der Kommentar wird aus dem allgemeinen Feed entfernt. Dauerhafte Verbote sind genau das: dauerhaft. Verbote sind ein wirksames Instrument. Ermächtigen Sie Ihre Moderatoren, sie zu nutzen. Vorausgesetzt, sie verwenden es richtig, spart das Vertrauen in die Sperrung von Nutzern Zeit und mentale Stärke.

AI-Tools

Eines der besten Werkzeuge, die Sie Ihrem menschlichen Moderationsteam an die Hand geben können, ist ein KI-System, das den Großteil der offensichtlichen Toxizität identifiziert, den Umfang der Moderation reduziert und es ihnen ermöglicht, sich auf differenziertere Situationen zu konzentrieren.

Es gibt eine Reihe von intelligenten Moderationsmöglichkeiten, aber nicht alle Systeme sind gleich. Viele Dienste verwenden eineListe mitverbotenen Wörtern”, die die meisten kontextbezogenen Probleme oder “Maskierungs”-Verstöße nicht erfasst. Wählen Sie stattdessen einen Dienst mit natürlicher Sprachverarbeitung oder maschinellem Lernen. Diese Systeme ermöglichen es der KI, sich anzupassen, wenn Moderatoren Kommentare genehmigen oder blockieren, und passen den Algorithmus an Ihre Plattform an.

Laut dem Viafoura-Bericht “Everyone Is A Troll” verzeichnen Communities mit fortschrittlicher Moderationssoftware nachweislich ein Wachstum: 62 % mehr Likes, 35 % mehr Kommentare pro Nutzer und 34 % mehr Antworten pro Nutzer.

Unterstützung für Ihr Moderationsteam

Ihr Moderationsteam hat die wichtige, aber schwierige Aufgabe, Ihre Gemeinschaft vor neuen Anfeindungen zu schützen. Die Schaffung eines effizienten, positiven und gesunden Arbeitsumfelds wird ihnen helfen, Burnout zu vermeiden und ihre positive Einstellung zu bewahren.

Der erste und wichtigste Aspekt eines gesunden Arbeitsplatzes ist eine offene Kommunikation. Richten Sie einen Kanal ein (z. B. Slack oder Google Meets) und ermutigen Sie Ihre Moderatoren, sich um Hilfe zu bemühen. Dies wird Ihrem Team helfen, neutral zu bleiben, die unbewussten Vorurteile der anderen zu erkennen und sicherzustellen, dass Wissen geteilt werden kann.

Unterstützen Sie Ihr Moderationsteam zusätzlich, indem Sie die Arbeitsbelastung transparent halten und häufige Pausen einplanen. Ruhe kann produktiv sein, und wenn man mit ständiger Negativität zu kämpfen hat, ist sie unerlässlich.

Wir bei Viafoura sind der Meinung, dass gut vorbereitete Moderatoren für starke und gesunde Gemeinschaften sorgen. Wie viele dieser Tools verwenden Ihre Moderatoren? Rüsten Sie Ihr Team mit einer kompletten Palette von Moderationsstrategien aus, und es kann eine Community aufbauen, die sich sicher fühlt, Ihre Marke unterstützt und mit Ihrer Plattform wächst.

Die Übernahme von Twitter – ein weiterer Grund für den Aufbau engagierter und aktiver Gemeinschaften auf Ihren eigenen und von Ihnen betriebenen Immobilien

Am Montag, den 25. April 2022, hat der Vorstand von Twitter das Angebot des Milliardärs Elon Musk angenommen, das Social-Media-Unternehmen zu kaufen und zu privatisieren. Mit dieser Ankündigung endet ein wochenlanger Medienwirbel, als Musk anbot, das Unternehmen für 44 Milliarden Dollar zu kaufen. Die Twitter-Aktionäre erhalten 54,20 US-Dollar für jede Stammaktie – ein deutlicher Aufschlag gegenüber dem Aktienkurs von vor einigen Monaten.

Musk hat sich selbst oft als Verfechter der freien Meinungsäußerung” bezeichnet und war ein lautstarker Kritiker von Richtlinien zur Inhaltsmoderation, die von Organisationen wie Twitter eingeführt wurden, um den Fluss von Fehlinformationen einzudämmen, Authentizität zu erzwingen und Belästigungen zu verhindern.

Musk scheint auch zu glauben, dass er die Bewegung für freie Meinungsäußerung vorantreibt, indem er die soziale Plattform übernimmt. So behauptet er beispielsweise, er wolle “Twitter besser machen als je zuvor, indem er das Produkt mit neuen Funktionen erweitert, die Algorithmen quelloffen macht, um das Vertrauen zu erhöhen, die Spam-Bots besiegt und alle Menschen authentifiziert”.

Die Nachricht hat im Allgemeinen für Aufsehen gesorgt.

Angesichts der jüngsten Äußerungen von Musk und der angedeuteten Rückkehr von Nutzern, die derzeit von der Plattform verbannt sind, glauben viele, dass er zwangsläufig in Konflikt mit mehreren Regulierungsbehörden geraten wird. Nun hat Thierry Breton, der EU-Kommissar für den Binnenmarkt, Elon Musk ermahnt, dass Twitter die Regeln für die Moderation illegaler und schädlicher Online-Inhalte befolgen muss.

Was bedeutet das für Verlage, die von Social-Media-Plattformen wie Twitter abhängig sind? Musk zufolge plant er, weniger Inhalte auf Twitter zu moderieren. Das bedeutet, dass die Verleger bald seinen Strategien für die sozialen Medien ausgeliefert sein werden, die auf seiner eigenen Definition von wahrheitsgemäßen oder korrekten Nachrichten und einem frei teilenden Publikum beruhen werden.

Die Quintessenz ist, dass die Verleger die Kontrolle über ihre Community-Richtlinien und die Moderation von Inhalten haben müssen. Mit anderen Worten: Sie müssen in der Lage sein, sich gegen Fehlinformationen und persönliche Angriffe auf ihre Journalisten zu schützen.

Aus diesem Grund müssen Verlage in den Aufbau ihrer Communities und Publikumsgespräche abseits der sozialen Medien investieren. Schließlich gibt es keinen besseren Weg, das Engagement des Publikums dort zu halten, wo es hingehört – direkt auf den verlagseigenen Websites!

Viele digitale Verlage haben bereits damit begonnen, Strategien und Lösungen für die On-Site-Beteiligung einzuführen, darunter Echtzeitgespräche und Live-Fragen, um ihr Publikum zu vergrößern, Erstanbieterdaten zu sammeln und letztendlich eine nachhaltige Monetarisierung zu erreichen. Der Kauf von Twitter durch Elon Musk hat jedoch deutlich gemacht, dass diese Strategie beschleunigt werden muss.

Seien Sie versichert, dass Viafoura Ihnen den Weg für den Aufbau einer engagierten und sicheren Online-Community ebnen wird, egal wie es mit Twitter weitergeht.

4 Wege, um herauszufinden, ob die von Ihnen benötigte Lösung für die Moderation von Kommentaren auch mit Ihrer redaktionellen Marke übereinstimmt

Die mobile Version verlassen