Il vostro team di moderazione ha gli strumenti per individuare il troll?

Come ogni moderatore sa, il trolling è più di un semplice fastidio.

Secondo Leigh Adams, direttore dei servizi di moderazione di Viafoura, “i troll diventano la minoranza vocale, e possono rapidamente superare e annegare le conversazioni più rilevanti”. Quando il comportamento tossico non viene controllato, può portare i forum in una direzione che danneggia attivamente il vostro marchio. I moderatori sono in grado di identificare ed eliminare efficacemente i comportamenti scorretti prima che causino danni a lungo termine? Ecco cinque importanti strumenti di cui avranno bisogno.

Linee guida della comunità

Il primo passo per costruire una comunità online sicura è la creazione di linee guida solide, chiare, facili da trovare e complete. Questi servono come prima linea di difesa per gli aspiranti troll.

Cosa dovrebbero contenere le linee guida? Gli esperti raccomandano una politica di non tolleranza per gli attacchi personali, i contenuti osceni, calunniosi o diffamatori e tutto ciò che è offensivo o blasfemo. Dopodiché, le linee guida devono essere personalizzate per adattarsi alla vostra piattaforma.

Quando un utente si comporta male, le linee guida della community possono aiutare i moderatori a prendere una decisione informata per segnalarlo o bannarlo. Forniscono inoltre una giustificazione, nel caso in cui un utente bandito presenti un reclamo. Questo aiuta a proteggere i moderatori, che a loro volta possono svolgere il loro lavoro con sicurezza.

Conoscere i segnali

I pedaggi possono essere suddivisi in due categorie: conto singolo e conto multiplo. Entrambi i tipi possono essere identificati rapidamente e facilmente se i moderatori sanno cosa cercare. Assicuratevi che il vostro team di moderazione sappia come accedere ai dati degli utenti e cercare i segnali di allarme.

I troll di un singolo account sono utenti che oltrepassano il limite, che lo sappiano o meno. Possono essere identificati in base al volume e in genere vantano un elevato numero di flag, disattivazione o commenti. Possono essere riscattati e spesso modificano il loro comportamento con un avvertimento o un singolo ban. I troll con più account tornano ripetutamente sotto diversi pseudonimi. In genere cercano attenzione e spesso lasciano indizi sulla loro identità per riaccendere conversazioni tossiche. I moderatori dovrebbero esaminare i nuovi account per individuare i segni rivelatori di un troll di ritorno. Spesso hanno un alto tasso di disattivazione, un nome, un’immagine avatar o un indirizzo IP simili a quelli di un account precedentemente bannato. Alcuni troll sono così desiderosi di attenzione che possono persino postare “Sono tornato” o “Sono stato bannato”.

 

Vietare

Quando tutti gli avvertimenti non sono riusciti a fermare il cattivo comportamento, i moderatori dovrebbero avere la facoltà di bannare gli utenti problematici. I divieti aiutano a sostenere le linee guida della community e a creare uno spazio migliore per gli utenti educati che desiderano usufruire della piattaforma.

Esistono diversi tipi di divieti: incrementali, fantasma e permanenti. I moderatori possono aumentare il loro livello di controllo comprendendo lo scenario di utilizzo migliore per ogni tipo di divieto.

Un divieto progressivo viene utilizzato come misura di ripiego o come avvertimento per garantire che i trasgressori della prima volta abbiano un margine di miglioramento. I ban fantasma consentono al troll di continuare a postare, ma rimuovono il commento dal feed generale. I divieti permanenti sono solo questo: permanenti. I divieti sono uno strumento potente. Date ai vostri moderatori la possibilità di utilizzarli. A condizione che lo utilizzino in modo accurato, la sicurezza di vietare l’accesso agli utenti farà risparmiare tempo e forza d’animo.

Strumenti AI

Uno dei migliori strumenti che potete fornire al vostro team di moderazione umano è un sistema di intelligenza artificiale che identificherà la maggior parte delle tossicità evidenti, riducendo la portata della moderazione e consentendo loro di concentrarsi su situazioni più sfumate.

Esistono diverse opzioni di moderazione intelligente, ma non tutti i sistemi sono uguali. Molti servizi utilizzano unelenco di “parole proibite” che non cattura la maggior parte dei problemi contestuali o delle violazioni di “mascheramento”. Scegliete invece un servizio con elaborazione del linguaggio naturale o apprendimento automatico. Questi sistemi consentono all’intelligenza artificiale di adattarsi all’approvazione o al blocco dei commenti da parte dei moderatori, personalizzando l’algoritmo in base alla piattaforma.

Secondo il rapporto di Viafoura “Everyone Is A Troll”, le community dotate di un software di moderazione avanzato hanno dimostrato di registrare una crescita: 62% di like in più per gli utenti, 35% di commenti in più per utente e 34% di risposte in più per utente.

Supporto per il team di moderazione

Il vostro team di moderazione svolge il lavoro essenziale ma difficile di proteggere la vostra comunità dall’ostilità in arrivo. Creare un ambiente di lavoro efficiente, positivo e sano li aiuterà a evitare il burnout e a mantenere la positività.

Il primo e più importante aspetto di un ambiente di lavoro sano è la comunicazione aperta. Create un canale (come Slack o Google Meets) e incoraggiate i vostri moderatori a chiedere aiuto. Questo aiuterà il vostro team a rimanere neutrale, a identificare i pregiudizi inconsci degli altri e a garantire la condivisione delle conoscenze.

Sostenete ulteriormente il vostro team di moderazione mantenendo il carico di lavoro trasparente e fornendo l’accesso a pause frequenti. Il riposo può essere produttivo e, quando si ha a che fare con una negatività costante, essenziale.

Noi di Viafoura crediamo che moderatori ben preparati creino comunità forti e sane. Quanti di questi strumenti utilizzano i vostri moderatori? Se il vostro team dispone di una gamma completa di strategie di moderazione, potrà costruire una comunità che si senta sicura, che supporti il vostro marchio e che cresca insieme alla vostra piattaforma.

L’acquisizione di Twitter: un’altra ragione per creare comunità attive e impegnate sulle proprietà di proprietà e gestite.

Lunedì 25 aprile 2022, il consiglio di amministrazione di Twitter ha accettato l’offerta del miliardario Elon Musk di acquistare la società di social media e di renderla privata. L’annuncio pone fine a quella che può essere definita una tempesta mediatica durata settimane, quando Musk ha offerto di acquistare l’azienda per 44 miliardi di dollari. Gli azionisti di Twitter riceveranno 54,20 dollari per ogni azione ordinaria, un premio significativo rispetto al prezzo del titolo di pochi mesi prima.

Musk si è spesso definito un “sostenitore della libertà di parola” e ha criticato aspramente le politiche di moderazione dei contenuti messe in atto da organizzazioni, come Twitter, per arginare il flusso di disinformazione, rafforzare l’autenticità e prevenire le molestie.

Musk sembra anche convinto di promuovere il movimento per la libertà di parola assumendo il controllo della piattaforma sociale. Per esempio, afferma di voler “rendere Twitter migliore che mai, migliorando il prodotto con nuove funzionalità, rendendo gli algoritmi open source per aumentare la fiducia, sconfiggendo i bot di spam e autenticando tutti gli esseri umani”.

In generale, la notizia ha fatto sollevare le sopracciglia.

Tra le recenti dichiarazioni di Musk e l’implicito ritorno degli utenti attualmente banditi dalla piattaforma, molti ritengono che sia destinato a entrare in conflitto con diverse autorità di regolamentazione. Ora Thierry Breton, commissario dell’Unione Europea per il mercato interno, ha avvertito Elon Musk che Twitter deve seguire le regole sulla moderazione dei contenuti illegali e dannosi online.

Cosa significa questo per gli editori che dipendono da piattaforme di social media come Twitter? Secondo Musk, intende ridurre la moderazione dei contenuti su Twitter. Ciò significa che gli editori saranno presto alla mercé delle sue strategie sui social media, che si baseranno sulla sua stessa definizione di notizie veritiere o accurate e su un pubblico che condivide liberamente.

Il punto fondamentale è che gli editori devono avere il controllo delle linee guida della loro comunità e della moderazione dei contenuti. In altre parole, devono essere in grado di proteggersi dalla disinformazione e dagli attacchi personali ai loro giornalisti.

Per questo motivo, gli editori devono investire nella costruzione di comunità e conversazioni con il pubblico al di fuori dei social media. Dopotutto, non c’è modo migliore per mantenere il coinvolgimento del pubblico nel posto che gli spetta: direttamente sui siti web di proprietà dell’editore!

Molti editori digitali hanno già iniziato ad adottare strategie e soluzioni di coinvolgimento on-site, tra cui conversazioni in tempo reale e domande e risposte dal vivo, per far crescere il pubblico, raccogliere dati di prima parte e, in ultima analisi, ottenere una monetizzazione sostenibile. Tuttavia, l’acquisto di Twitter da parte di Elon Musk ha evidenziato la necessità di accelerare questa strategia.

Siate certi che, ovunque Twitter vada da qui in poi, Viafoura sarà pronta a darvi la possibilità di costruire una comunità online coinvolta e sicura.

4 modi per sapere se la soluzione di moderazione dei commenti di cui avete bisogno è anche allineata con il vostro marchio editoriale

La scelta della giusta soluzione di moderazione può essere impegnativa e molte organizzazioni scoprono che la loro attuale soluzione di moderazione non è all’altezza degli standard del loro marchio. Quando la soluzione di moderazione dei commenti non è in linea con il vostro marchio, si riflette negativamente su di voi e allontana la vostra comunità di utenti.

Se volete costruire un marchio fiorente, dovete offrire un’esperienza eccezionale al vostro pubblico. Ciò significa non accontentarsi di una moderazione mediocre e avere una
soluzione per il coinvolgimento della comunità
con una suite completa di strumenti a disposizione per moderare la comunità, tra cui shadow banning, ricerca IP, gestione dei troll, like e follow.

Una soluzione di moderazione dei commenti veramente in linea con il vostro marchio non si limita a integrarsi perfettamente nel vostro ambiente, ma riflette anche il valore del vostro marchio e migliora la vostra attività.


La ricerca
Le ricerche dimostrano che quando si implementano soluzioni di coinvolgimento sulla propria piattaforma, gli utenti anonimi trascorrono più tempo sul sito e hanno 25,4 volte più probabilità di convertire.

Questo articolo esaminerà alcune delle caratteristiche e degli attributi fondamentali di una soluzione di moderazione on-brand in grado di proteggere la vostra comunità, la vostra redazione e il vostro marchio durante la vostra crescita a lungo termine.

1. Analisi predittiva

L’utilizzo di una soluzione con analisi predittive è fondamentale per ottenere una migliore comprensione della vostra comunità, in modo da sapere e capire cosa conta di più per loro. Senza di essa, la vostra strategia di contenuti si baserà su congetture.

La vostra capacità di offrire contenuti ed esperienze rilevanti agli utenti determinerà la forza del vostro marchio. Se siete un marchio che offre una copertura aggiornata su argomenti che interessano agli utenti, questi ultimi si impegneranno con il vostro marchio più di quanto farebbero se offriste loro storie più adatte a un altro target.

2. Lavorate con un fornitore o un partner?

Se cercate una soluzione in grado di evolvere con il vostro marchio a lungo termine, dovete assicurarvi di lavorare con un partner piuttosto che con un fornitore. Sebbene un fornitore inserisca annunci sulle risorse digitali per massimizzare la vostra visibilità online e offrire una quota di ricavi, vi tratterà più come un investimento finanziario che come un cliente.

Un vero partner lavorerà al vostro fianco con un modello di pagamento SaaS per aiutarvi a innovare nuove strategie che favoriscano le registrazioni e ad acquisire dati unici sugli utenti che vi consentano di migliorare il vostro marchio e il modo in cui servite i clienti.

3. Moderazione automatica

Quando costruite una comunità di utenti sul vostro sito web, dovete avere una strategia per gestire la tossicità se volete proteggere i vostri utenti e il vostro marchio. La mancata moderazione dei commenti tossici può essere estremamente dannosa per la reputazione della vostra organizzazione.

Per esempio, l’incapacità di Twitter di gestire i commenti d’odio ha danneggiato il marchio dell’organizzazione, in quanto gli utenti hanno definito la piattaforma come un rifugio per la tossicità, con
Amnesty International
si è spinta fino a bollare il sito come “un luogo tossico per le donne”.

Di conseguenza, è essenziale disporre di una chat room con moderazione automatica per garantire che la conversazione sia libera da abusi, molestie, odio e commenti incivili in tempo reale.

È importante ricordare che una soluzione di moderazione di qualità non è un elenco di parole vietate, ma una soluzione completa guidata dall’intelligenza artificiale con una moderazione semantica in grado di dedurre l’intento e il significato dei commenti incivili in modo indipendente.

4. Raccolta di dati di prima parte

Qualsiasi soluzione efficace per il coinvolgimento e la moderazione della comunità dovrebbe essere in grado di raccogliere dati di prima parte.

L’impiego di uno strumento di coinvolgimento in grado di raccogliere dati di prima parte è fondamentale per assicurarsi di sviluppare approfondimenti dettagliati sul proprio pubblico, da utilizzare per offrire raccomandazioni di contenuti personalizzati e feed di notizie che lo tengano impegnato.

Ad esempio, offrire semplicemente ai vostri utenti un feed di notizie personalizzato può aiutarvi a generare 3,15 visualizzazioni di pagina in più.
visualizzazioni di pagina
.

Raccogliendo dati di prima parte, è possibile identificare quali sono gli argomenti a cui gli utenti sono interessati, quali autori è più probabile che seguano e raccomandare pezzi che non solo li coinvolgeranno sul sito, ma che li interesseranno anche.

Elevare il vostro marchio con la moderazione dei commenti

Una soluzione di moderazione dei commenti in linea con il vostro marchio eleverà l’esperienza dell’utente e farà sì che il vostro pubblico si fidi ancora di più di voi.

Funzionalità come l’analisi predittiva guidata dall’intelligenza artificiale, la raccolta di dati di prima parte e la moderazione automatizzata vi forniscono una solida base per iniziare a costruire una comunità di utenti sicura e fiorente.

Se non lo fate, rischiate di offrire un’esperienza di community poco ottimizzata, irrilevante e tossica per i vostri utenti e per i vostri giornalisti.

Exit mobile version