Come ogni moderatore sa, il trolling è più di un semplice fastidio.
Secondo Leigh Adams, direttore dei servizi di moderazione di Viafoura, “i troll diventano la minoranza vocale, e possono rapidamente superare e annegare le conversazioni più rilevanti”. Quando il comportamento tossico non viene controllato, può portare i forum in una direzione che danneggia attivamente il vostro marchio. I moderatori sono in grado di identificare ed eliminare efficacemente i comportamenti scorretti prima che causino danni a lungo termine? Ecco cinque importanti strumenti di cui avranno bisogno.
Linee guida della comunità
Il primo passo per costruire una comunità online sicura è la creazione di linee guida solide, chiare, facili da trovare e complete. Questi servono come prima linea di difesa per gli aspiranti troll.
Cosa dovrebbero contenere le linee guida? Gli esperti raccomandano una politica di non tolleranza per gli attacchi personali, i contenuti osceni, calunniosi o diffamatori e tutto ciò che è offensivo o blasfemo. Dopodiché, le linee guida devono essere personalizzate per adattarsi alla vostra piattaforma.
Quando un utente si comporta male, le linee guida della community possono aiutare i moderatori a prendere una decisione informata per segnalarlo o bannarlo. Forniscono inoltre una giustificazione, nel caso in cui un utente bandito presenti un reclamo. Questo aiuta a proteggere i moderatori, che a loro volta possono svolgere il loro lavoro con sicurezza.
Conoscere i segnali
I pedaggi possono essere suddivisi in due categorie: conto singolo e conto multiplo. Entrambi i tipi possono essere identificati rapidamente e facilmente se i moderatori sanno cosa cercare. Assicuratevi che il vostro team di moderazione sappia come accedere ai dati degli utenti e cercare i segnali di allarme.
I troll di un singolo account sono utenti che oltrepassano il limite, che lo sappiano o meno. Possono essere identificati in base al volume e in genere vantano un elevato numero di flag, disattivazione o commenti. Possono essere riscattati e spesso modificano il loro comportamento con un avvertimento o un singolo ban. I troll con più account tornano ripetutamente sotto diversi pseudonimi. In genere cercano attenzione e spesso lasciano indizi sulla loro identità per riaccendere conversazioni tossiche. I moderatori dovrebbero esaminare i nuovi account per individuare i segni rivelatori di un troll di ritorno. Spesso hanno un alto tasso di disattivazione, un nome, un’immagine avatar o un indirizzo IP simili a quelli di un account precedentemente bannato. Alcuni troll sono così desiderosi di attenzione che possono persino postare “Sono tornato” o “Sono stato bannato”.
Vietare
Quando tutti gli avvertimenti non sono riusciti a fermare il cattivo comportamento, i moderatori dovrebbero avere la facoltà di bannare gli utenti problematici. I divieti aiutano a sostenere le linee guida della community e a creare uno spazio migliore per gli utenti educati che desiderano usufruire della piattaforma.
Esistono diversi tipi di divieti: incrementali, fantasma e permanenti. I moderatori possono aumentare il loro livello di controllo comprendendo lo scenario di utilizzo migliore per ogni tipo di divieto.
Un divieto progressivo viene utilizzato come misura di ripiego o come avvertimento per garantire che i trasgressori della prima volta abbiano un margine di miglioramento. I ban fantasma consentono al troll di continuare a postare, ma rimuovono il commento dal feed generale. I divieti permanenti sono solo questo: permanenti. I divieti sono uno strumento potente. Date ai vostri moderatori la possibilità di utilizzarli. A condizione che lo utilizzino in modo accurato, la sicurezza di vietare l’accesso agli utenti farà risparmiare tempo e forza d’animo.
Strumenti AI
Uno dei migliori strumenti che potete fornire al vostro team di moderazione umano è un sistema di intelligenza artificiale che identificherà la maggior parte delle tossicità evidenti, riducendo la portata della moderazione e consentendo loro di concentrarsi su situazioni più sfumate.
Esistono diverse opzioni di moderazione intelligente, ma non tutti i sistemi sono uguali. Molti servizi utilizzano unelenco di “parole proibite” che non cattura la maggior parte dei problemi contestuali o delle violazioni di “mascheramento”. Scegliete invece un servizio con elaborazione del linguaggio naturale o apprendimento automatico. Questi sistemi consentono all’intelligenza artificiale di adattarsi all’approvazione o al blocco dei commenti da parte dei moderatori, personalizzando l’algoritmo in base alla piattaforma.
Secondo il rapporto di Viafoura “Everyone Is A Troll”, le community dotate di un software di moderazione avanzato hanno dimostrato di registrare una crescita: 62% di like in più per gli utenti, 35% di commenti in più per utente e 34% di risposte in più per utente.
Supporto per il team di moderazione
Il vostro team di moderazione svolge il lavoro essenziale ma difficile di proteggere la vostra comunità dall’ostilità in arrivo. Creare un ambiente di lavoro efficiente, positivo e sano li aiuterà a evitare il burnout e a mantenere la positività.
Il primo e più importante aspetto di un ambiente di lavoro sano è la comunicazione aperta. Create un canale (come Slack o Google Meets) e incoraggiate i vostri moderatori a chiedere aiuto. Questo aiuterà il vostro team a rimanere neutrale, a identificare i pregiudizi inconsci degli altri e a garantire la condivisione delle conoscenze.
Sostenete ulteriormente il vostro team di moderazione mantenendo il carico di lavoro trasparente e fornendo l’accesso a pause frequenti. Il riposo può essere produttivo e, quando si ha a che fare con una negatività costante, essenziale.
Noi di Viafoura crediamo che moderatori ben preparati creino comunità forti e sane. Quanti di questi strumenti utilizzano i vostri moderatori? Se il vostro team dispone di una gamma completa di strategie di moderazione, potrà costruire una comunità che si senta sicura, che supporti il vostro marchio e che cresca insieme alla vostra piattaforma.