Saltare il pedaggio: Come affrontare i troll esperti di tecnologia

È l’anno 2022 e le persone si rivolgono ai dispositivi per stabilire un contatto umano. Internet non è mai stato così sociale e con questo traffico in costante crescita arriva un’abbondanza di meravigliosi momenti di connessione… E un numero sempre più alto di troll. Il trolling su Internet è definito come un “comportamento online dannoso” caratterizzato da una provocazione aggressiva o deliberata nei confronti degli altri. Sebbene questo comportamento possa essere (discutibilmente) catartico per la persona che trolla le comunità nell’anonimato, la sua presenza deteriora significativamente la salute e la sicurezza di uno spazio digitale, e quindi la sua fruibilità.

Gli editori grandi e piccoli soffrono allo stesso modo per mano dei troll. Sono esperti di tecnologia, quasi sempre anonimi e con un’abbondanza di tempo a disposizione per diffondere tossicità, sono una forza da tenere in considerazione. Cosa c’è di peggio? Sono qui per restare.

Invece di arrendersi, ecco alcune tattiche di trollaggio a cui prestare attenzione e cosa si può fare per evitare il pedaggio e proteggere la propria pace.

Conti multipli

I troll sono ossessivi, petulanti e persistenti. Se vi trovate improvvisamente di fronte a un’orda di troll, tenete presente che potrebbe trattarsi di una sola persona, in missione, che utilizza molti account. I troll hanno il tempo e la tecnologia per invadere gli spazi, eludere i ban e infangare le buone vibrazioni guadagnate con fatica dalla vostra comunità. Come posso risolvere il problema? – Una volta conosciuto il comportamento di un troll, è possibile individuarlo in libertà (sotto le mentite spoglie di un nuovo utente) mentre scatena risse o incoraggia opinioni incendiarie. Questi recidivi lasciano indizi che indicano la loro identità. Armati degli strumenti e dei dati della vostra comunità, cercate nomi simili, e-mail, avatar o indirizzi IP collegati a divieti esistenti. Controllate, confermate e poi bandite tutte le volte che è necessario.

Odio e volgarità

I troll hanno bisogno di attenzione e il linguaggio offensivo è un modo semplice per ottenerla. Nel 2019, circa un terzo dei post in cui si sono imbattuti i moderatori di Viafoura conteneva espressioni di odio e/o volgarità. Si tratta di quasi 83 milioni di tentativi di essere cattivi senza motivo, quindi possiamo almeno riconoscere ai troll il merito di essersi dedicati al loro mestiere… Ma non un buon credito, per essere sicuri. Come posso risolvere il problema? – A L’elenco delle parole vietate può aiutare a limitare questa particolare tattica, ma alcuni troll possono utilizzare una tattica chiamata “mascheramento”. I troll mascherano le parole vietate con simboli, grafie verticali, punti, ecc. per eludere un semplice elenco di parole vietate. Se non siete sicuri di cosa cercare, fidatevi: una volta che avete visto, non potete non sapere cosa cercare. Un’intelligenza artificiale più sofisticata per l’elaborazione del linguaggio naturale, come quella di Viafoura, è in grado di individuare le parole mascherate e di bloccarle con una precisione superiore al 90%.

Suggerimento bonus: molti fornitori di servizi affermano di avere l’intelligenza artificiale o la moderazione automatica, ma in realtà non sfruttano l’elaborazione del linguaggio naturale o l’apprendimento automatico per comprendere le variazioni delle parole e delle strutture delle frasi. Verificate con il vostro fornitore di moderazione che lo strumento sia in grado di apprendere come i moderatori approvano o bloccano i commenti, formando ulteriormente l’algoritmo, che dovrebbe essere personalizzato in base alle vostre linee guida.

Segnalazione seriale

La moderazione da utente a utente può essere un valido strumento di sicurezza, ma ha anche un potenziale di abuso. Alcuni troll utilizzano la funzione di “flagging” per mettere a tacere o frustrare utenti innocenti. In alcuni casi, la segnalazione seriale può persino comportare un ban ingiusto per persone che non hanno violato alcuna linea guida. Se un utente segnala spesso e la maggior parte dei contenuti segnalati non viola le linee guida della comunità, potreste avere per le mani un troll.Come risolverlo? – Utilizzate i dati e lavorate con la vostra comunità. Considerate questo incentivo per essere coinvolti nella vostra comunità e conoscere chi sono i vostri collaboratori positivi. Chiedere agli utenti fidati le loro opinioni e le loro esperienze con il sospetto troll vi aiuterà a riconoscere subito i falsi reporter.

Avere a che fare con i troll non è sempre facile e non è mai un’esperienza divertente. Purtroppo sono qui per restare e, se non controllati, possono trasformare il vostro spazio digitale in una comunità tumultuosa e piena di conflitti, cosa che non volete sia associata al vostro marchio. Dotandoci di conoscenze, strumenti e consapevolezza adeguati, possiamo tenere a bada i troll e utilizzare gli stessi metodi di moderazione per evitare che si sviluppino comportamenti tossici da parte degli utenti anche senza che i troll alimentino le fiamme.

Per saperne di più sulla suite di strumenti di moderazione di Viafoura, visitate il sito https://viafoura.com/content-moderation/.

Il vostro team di moderazione ha gli strumenti per individuare il troll?

Come ogni moderatore sa, il trolling è più di un semplice fastidio.

Secondo Leigh Adams, direttore dei servizi di moderazione di Viafoura, “i troll diventano la minoranza vocale, e possono rapidamente superare e annegare le conversazioni più rilevanti”. Quando il comportamento tossico non viene controllato, può portare i forum in una direzione che danneggia attivamente il vostro marchio. I moderatori sono in grado di identificare ed eliminare efficacemente i comportamenti scorretti prima che causino danni a lungo termine? Ecco cinque importanti strumenti di cui avranno bisogno.

Linee guida della comunità

Il primo passo per costruire una comunità online sicura è la creazione di linee guida solide, chiare, facili da trovare e complete. Questi servono come prima linea di difesa per gli aspiranti troll.

Cosa dovrebbero contenere le linee guida? Gli esperti raccomandano una politica di non tolleranza per gli attacchi personali, i contenuti osceni, calunniosi o diffamatori e tutto ciò che è offensivo o blasfemo. Dopodiché, le linee guida devono essere personalizzate per adattarsi alla vostra piattaforma.

Quando un utente si comporta male, le linee guida della community possono aiutare i moderatori a prendere una decisione informata per segnalarlo o bannarlo. Forniscono inoltre una giustificazione, nel caso in cui un utente bandito presenti un reclamo. Questo aiuta a proteggere i moderatori, che a loro volta possono svolgere il loro lavoro con sicurezza.

Conoscere i segnali

I pedaggi possono essere suddivisi in due categorie: conto singolo e conto multiplo. Entrambi i tipi possono essere identificati rapidamente e facilmente se i moderatori sanno cosa cercare. Assicuratevi che il vostro team di moderazione sappia come accedere ai dati degli utenti e cercare i segnali di allarme.

I troll di un singolo account sono utenti che oltrepassano il limite, che lo sappiano o meno. Possono essere identificati in base al volume e in genere vantano un elevato numero di flag, disattivazione o commenti. Possono essere riscattati e spesso modificano il loro comportamento con un avvertimento o un singolo ban. I troll con più account tornano ripetutamente sotto diversi pseudonimi. In genere cercano attenzione e spesso lasciano indizi sulla loro identità per riaccendere conversazioni tossiche. I moderatori dovrebbero esaminare i nuovi account per individuare i segni rivelatori di un troll di ritorno. Spesso hanno un alto tasso di disattivazione, un nome, un’immagine avatar o un indirizzo IP simili a quelli di un account precedentemente bannato. Alcuni troll sono così desiderosi di attenzione che possono persino postare “Sono tornato” o “Sono stato bannato”.

 

Vietare

Quando tutti gli avvertimenti non sono riusciti a fermare il cattivo comportamento, i moderatori dovrebbero avere la facoltà di bannare gli utenti problematici. I divieti aiutano a sostenere le linee guida della community e a creare uno spazio migliore per gli utenti educati che desiderano usufruire della piattaforma.

Esistono diversi tipi di divieti: incrementali, fantasma e permanenti. I moderatori possono aumentare il loro livello di controllo comprendendo lo scenario di utilizzo migliore per ogni tipo di divieto.

Un divieto progressivo viene utilizzato come misura di ripiego o come avvertimento per garantire che i trasgressori della prima volta abbiano un margine di miglioramento. I ban fantasma consentono al troll di continuare a postare, ma rimuovono il commento dal feed generale. I divieti permanenti sono solo questo: permanenti. I divieti sono uno strumento potente. Date ai vostri moderatori la possibilità di utilizzarli. A condizione che lo utilizzino in modo accurato, la sicurezza di vietare l’accesso agli utenti farà risparmiare tempo e forza d’animo.

Strumenti AI

Uno dei migliori strumenti che potete fornire al vostro team di moderazione umano è un sistema di intelligenza artificiale che identificherà la maggior parte delle tossicità evidenti, riducendo la portata della moderazione e consentendo loro di concentrarsi su situazioni più sfumate.

Esistono diverse opzioni di moderazione intelligente, ma non tutti i sistemi sono uguali. Molti servizi utilizzano unelenco di “parole proibite” che non cattura la maggior parte dei problemi contestuali o delle violazioni di “mascheramento”. Scegliete invece un servizio con elaborazione del linguaggio naturale o apprendimento automatico. Questi sistemi consentono all’intelligenza artificiale di adattarsi all’approvazione o al blocco dei commenti da parte dei moderatori, personalizzando l’algoritmo in base alla piattaforma.

Secondo il rapporto di Viafoura “Everyone Is A Troll”, le community dotate di un software di moderazione avanzato hanno dimostrato di registrare una crescita: 62% di like in più per gli utenti, 35% di commenti in più per utente e 34% di risposte in più per utente.

Supporto per il team di moderazione

Il vostro team di moderazione svolge il lavoro essenziale ma difficile di proteggere la vostra comunità dall’ostilità in arrivo. Creare un ambiente di lavoro efficiente, positivo e sano li aiuterà a evitare il burnout e a mantenere la positività.

Il primo e più importante aspetto di un ambiente di lavoro sano è la comunicazione aperta. Create un canale (come Slack o Google Meets) e incoraggiate i vostri moderatori a chiedere aiuto. Questo aiuterà il vostro team a rimanere neutrale, a identificare i pregiudizi inconsci degli altri e a garantire la condivisione delle conoscenze.

Sostenete ulteriormente il vostro team di moderazione mantenendo il carico di lavoro trasparente e fornendo l’accesso a pause frequenti. Il riposo può essere produttivo e, quando si ha a che fare con una negatività costante, essenziale.

Noi di Viafoura crediamo che moderatori ben preparati creino comunità forti e sane. Quanti di questi strumenti utilizzano i vostri moderatori? Se il vostro team dispone di una gamma completa di strategie di moderazione, potrà costruire una comunità che si senta sicura, che supporti il vostro marchio e che cresca insieme alla vostra piattaforma.

Exit mobile version