Il vostro team di moderazione ha gli strumenti per individuare il troll?

Come ogni moderatore sa, il trolling è più di un semplice fastidio.

Secondo Leigh Adams, direttore dei servizi di moderazione di Viafoura, “i troll diventano la minoranza vocale, e possono rapidamente superare e annegare le conversazioni più rilevanti”. Quando il comportamento tossico non viene controllato, può portare i forum in una direzione che danneggia attivamente il vostro marchio. I moderatori sono in grado di identificare ed eliminare efficacemente i comportamenti scorretti prima che causino danni a lungo termine? Ecco cinque importanti strumenti di cui avranno bisogno.

Linee guida della comunità

Il primo passo per costruire una comunità online sicura è la creazione di linee guida solide, chiare, facili da trovare e complete. Questi servono come prima linea di difesa per gli aspiranti troll.

Cosa dovrebbero contenere le linee guida? Gli esperti raccomandano una politica di non tolleranza per gli attacchi personali, i contenuti osceni, calunniosi o diffamatori e tutto ciò che è offensivo o blasfemo. Dopodiché, le linee guida devono essere personalizzate per adattarsi alla vostra piattaforma.

Quando un utente si comporta male, le linee guida della community possono aiutare i moderatori a prendere una decisione informata per segnalarlo o bannarlo. Forniscono inoltre una giustificazione, nel caso in cui un utente bandito presenti un reclamo. Questo aiuta a proteggere i moderatori, che a loro volta possono svolgere il loro lavoro con sicurezza.

Conoscere i segnali

I pedaggi possono essere suddivisi in due categorie: conto singolo e conto multiplo. Entrambi i tipi possono essere identificati rapidamente e facilmente se i moderatori sanno cosa cercare. Assicuratevi che il vostro team di moderazione sappia come accedere ai dati degli utenti e cercare i segnali di allarme.

I troll di un singolo account sono utenti che oltrepassano il limite, che lo sappiano o meno. Possono essere identificati in base al volume e in genere vantano un elevato numero di flag, disattivazione o commenti. Possono essere riscattati e spesso modificano il loro comportamento con un avvertimento o un singolo ban. I troll con più account tornano ripetutamente sotto diversi pseudonimi. In genere cercano attenzione e spesso lasciano indizi sulla loro identità per riaccendere conversazioni tossiche. I moderatori dovrebbero esaminare i nuovi account per individuare i segni rivelatori di un troll di ritorno. Spesso hanno un alto tasso di disattivazione, un nome, un’immagine avatar o un indirizzo IP simili a quelli di un account precedentemente bannato. Alcuni troll sono così desiderosi di attenzione che possono persino postare “Sono tornato” o “Sono stato bannato”.

 

Vietare

Quando tutti gli avvertimenti non sono riusciti a fermare il cattivo comportamento, i moderatori dovrebbero avere la facoltà di bannare gli utenti problematici. I divieti aiutano a sostenere le linee guida della community e a creare uno spazio migliore per gli utenti educati che desiderano usufruire della piattaforma.

Esistono diversi tipi di divieti: incrementali, fantasma e permanenti. I moderatori possono aumentare il loro livello di controllo comprendendo lo scenario di utilizzo migliore per ogni tipo di divieto.

Un divieto progressivo viene utilizzato come misura di ripiego o come avvertimento per garantire che i trasgressori della prima volta abbiano un margine di miglioramento. I ban fantasma consentono al troll di continuare a postare, ma rimuovono il commento dal feed generale. I divieti permanenti sono solo questo: permanenti. I divieti sono uno strumento potente. Date ai vostri moderatori la possibilità di utilizzarli. A condizione che lo utilizzino in modo accurato, la sicurezza di vietare l’accesso agli utenti farà risparmiare tempo e forza d’animo.

Strumenti AI

Uno dei migliori strumenti che potete fornire al vostro team di moderazione umano è un sistema di intelligenza artificiale che identificherà la maggior parte delle tossicità evidenti, riducendo la portata della moderazione e consentendo loro di concentrarsi su situazioni più sfumate.

Esistono diverse opzioni di moderazione intelligente, ma non tutti i sistemi sono uguali. Molti servizi utilizzano unelenco di “parole proibite” che non cattura la maggior parte dei problemi contestuali o delle violazioni di “mascheramento”. Scegliete invece un servizio con elaborazione del linguaggio naturale o apprendimento automatico. Questi sistemi consentono all’intelligenza artificiale di adattarsi all’approvazione o al blocco dei commenti da parte dei moderatori, personalizzando l’algoritmo in base alla piattaforma.

Secondo il rapporto di Viafoura “Everyone Is A Troll”, le community dotate di un software di moderazione avanzato hanno dimostrato di registrare una crescita: 62% di like in più per gli utenti, 35% di commenti in più per utente e 34% di risposte in più per utente.

Supporto per il team di moderazione

Il vostro team di moderazione svolge il lavoro essenziale ma difficile di proteggere la vostra comunità dall’ostilità in arrivo. Creare un ambiente di lavoro efficiente, positivo e sano li aiuterà a evitare il burnout e a mantenere la positività.

Il primo e più importante aspetto di un ambiente di lavoro sano è la comunicazione aperta. Create un canale (come Slack o Google Meets) e incoraggiate i vostri moderatori a chiedere aiuto. Questo aiuterà il vostro team a rimanere neutrale, a identificare i pregiudizi inconsci degli altri e a garantire la condivisione delle conoscenze.

Sostenete ulteriormente il vostro team di moderazione mantenendo il carico di lavoro trasparente e fornendo l’accesso a pause frequenti. Il riposo può essere produttivo e, quando si ha a che fare con una negatività costante, essenziale.

Noi di Viafoura crediamo che moderatori ben preparati creino comunità forti e sane. Quanti di questi strumenti utilizzano i vostri moderatori? Se il vostro team dispone di una gamma completa di strategie di moderazione, potrà costruire una comunità che si senta sicura, che supporti il vostro marchio e che cresca insieme alla vostra piattaforma.

Perché spegnere i commenti è una minaccia, non una soluzione, per le aziende del settore dei media

Troll, spam e disinformazione hanno dato agli spazi di commento una cattiva reputazione.

Siti web che vengono inondati di commenti offensivi e inaffidabili possono perdere il rispetto di inserzionisti e utenti. PGli editori spesso pensano che l’unica soluzione sia arrendersi e chiudere gli strumenti di commento.

Ma chiudere i commenti non è una soluzione, bensì un catalizzatore di gravi problemi aziendali.

Il problema di eliminare i commenti dal proprio sito web

La realtà è che le aziende del settore dei media soffrono nel momento in cui si liberano degli strumenti sociali del loro sito web.

(Senza commenti, le aziende) perdono la connessione diretta con il loro pubblico (e si limitano a fornire) contenuti passivi per i lettori, invece di creare opportunità attive di feedback e opinioni”, afferma Mark Zohar, presidente e COO di Viafoura. “Questo ciclo di feedback tra contenuto, editore e autore è fondamentale per ottenere contenuti ad alto rendimento e per coinvolgere nuovamente il pubblico”.

In poche parole, le organizzazioni dei media hanno bisogno di strumenti di commento per avvicinarsi alle loro comunità e creare esperienze migliori per gli spettatori e il personale.

Le aziende che abbandonano i commenti non risolvono nulla, ma permettono ai loro peggiori utenti di danneggiare il loro marchio.

Si aggiunga che
50%
delle registrazioni di nuovi utenti avviene su pagine web con strumenti di
strumenti di commento
è facile capire perché gli spazi sociali siano una caratteristica imprescindibile per tutti gli editori che desiderano avvicinarsi al proprio pubblico.

Mani umane a coppa su un tavolo con bolle vocali al centro.

Come gestire spazi di commento sicuri e di successo

Moderazione dei commenti è la più grande arma di un editore contro il comportamento offensivo degli utenti. L’importanza di supportare qualsiasi strumento sociale online con servizi avanzati di moderazione dei commenti non può essere sopravvalutata. – è ciò che separa gli spazi sociali sicuri e redditizi da quelli destinati al fallimento.

Le aziende del settore dei media che abbinano i loro spazi per i commenti online a una moderazione efficace hanno le maggiori possibilità di far crescere il proprio pubblico, la fedeltà dei clienti e le entrate senza danneggiare la propria reputazione.

“Le persone vogliono partecipare a comunità in cui si sentono al sicuro”, spiega Zohar. “Sappiamo dai nostri dati che le comunità e i siti con una moderazione attiva, positiva e civile generano impegno sul posto”.

Quando sono protetti dai servizi di Viafoura
servizi di moderazione automatica
i nostri dati dimostrano che i clienti hanno visto gli utenti impegnati trascorrere 168 volte più tempo sul sito, guadagnando fino a
2,000
nuove registrazioni mensili e visualizzare un numero di pagine 3,6 volte superiore rispetto alle aziende del settore media che non dispongono di strumenti di commento.

“Laddove i commenti non avvengono, si assiste a un calo dell’engagement”, aggiunge Zohar.

Invece di eliminare i commenti, le aziende del settore dei media possono ricorrere alla moderazione per creare ambienti sicuri che invitino giornalisti, lettori e commentatori a comunicare e a connettersi tra loro.

Siete preoccupati che la moderazione possa essere troppo costosa per investire?

Ci sono molte soluzioni efficaci dal punto di vista dei costi
Moderazione umana e basata sull’intelligenza artificiale
opzioni disponibili. Potete anche cercare un fornitore di strumenti di engagement che includa i servizi di moderazione direttamente nella sua soluzione di commento per un’esperienza conveniente e senza problemi.

Essere ricompensati con i dati degli utenti

Le redazioni non traggono molto valore dall’invio di contenuti nel vuoto, dove non se ne sente più parlare. Gli strumenti di commento moderato danno ai giornalisti la possibilità di avere conversazioni positive sui loro contenuti, di ricevere un feedback dai lettori registrati e di utilizzare queste informazioni per rendere i contenuti ancora più interessanti in futuro.

Ciò significa che quando gli utenti registrati lasciano commenti sul vostro sito, potete espandere i dati degli utenti al di là dei loro profili generali per includere informazioni sui comportamenti del pubblico, gli interessi, i sentimenti, la propensione e l’intenzione di acquisto.

Una volta che avete questi dati dichiarativi, potete inserirli nel vostro modello di business.

“Consentire agli utenti di comunicare direttamente con voi e (con gli altri lettori) sui contenuti crea approfondimenti, (portando) a ricchi profili di utenti che si evolvono nel tempo man mano che partecipano attivamente alla comunità”, spiega Zohar. “Comprendendo il comportamento degli utenti in loco, nonché i loro interessi e la loro propensione… gli editori possono migliorare aspetti quali la curatela delle newsletter, le iscrizioni e il targeting degli utenti per le sottoscrizioni”.

Più
dati di prima parte
che riuscite a ottenere dai commentatori, meglio potete raggruppare gli utenti che la pensano allo stesso modo per personalizzare le loro esperienze, inviare loro messaggi di iscrizione e mostrare loro annunci pubblicitari pertinenti.

In altre parole, la vostra soluzione di commento ha il potenziale per darvi un vantaggio sui vostri concorrenti. Quindi, qualunque cosa facciate, non spegnete i commenti!


Volete saperne di più sulle nostre soluzioni di commento e coinvolgimento? Fate clic qui per scoprire la nostra gamma di prodotti.

Perché il dialogo della tua community è la migliore risorsa per costruire una strategia di contenuti di successo

Gli esseri umani sono intrinsecamente sociali. Perché altrimenti l’avrebbe fatto Facebook 2,89 miliardi di utenti attivi ogni mese?

Ma queste esperienze non dovrebbero essere limitate alle piattaforme di social media. In effetti, non supportare i contenuti delle notizie con esperienze sociali e interattive è un’opportunità sprecata per le organizzazioni dei media.

Poiché i siti di social media sono pieni di disinformazione, problemi di privacy dei dati e troll, gli utenti sono arrivati a fidarsi dei siti di notizie il 25% in più rispetto alle piattaforme di social media, secondo un rapporto di Reuters .

Gli esperti del settore dei media stanno ora notando che gli utenti stanno perdendo interesse nella condivisione di contenuti e nel coinvolgimento con le loro connessioni sui social media .

“Invece, le persone vogliono cercare attivamente opportunità per unirsi a comunità e conversazioni che sono più isolate o incentrate su argomenti di interesse”, afferma Dan Seaman, vicepresidente della gestione dei prodotti di Viafoura”.

Una conversazione bidirezionale tra editoriale e pubblico

Senza un dialogo bidirezionale tra i membri del pubblico e la redazione, le società di media non sono in grado di comprendere appieno o connettersi con la comunità attorno ai loro contenuti.

“Il tuo pubblico si aspetta di avere l’opportunità di mettere mi piace, commentare, lasciare le proprie opinioni e porre domande”, afferma Mark Zohar, presidente e COO di Viafoura. “Dando loro questa opportunità, le società di media possono creare un sano livello di coinvolgimento, raccogliere informazioni sui dati e costruire una relazione diretta tra contenuto, autori e lettori”.

Le organizzazioni dei media che consentono ai membri del loro pubblico di porre domande e condividere i loro pensieri hanno accesso a una miniera d’oro di informazioni sulla loro comunità. E tali informazioni possono essere utilizzate per rendere le loro strategie di contenuto complessive più pertinenti e allineate agli interessi dei lettori.

Offrire un dialogo bidirezionale crea anche relazioni durature e significative con il pubblico che lo incoraggia a tornare più frequentemente per consumare e interagire con i contenuti.

“Sappiamo che quando gli autori lasciano commenti nell’esperienza di conversazione, questo aumenta assolutamente il coinvolgimento perché le persone vogliono rispondere ad autori e fonti credibili”, aggiunge Zohar.

Così stabilendo forti connessioni sociali che portano alla fedeltà del pubblico non significa solo consentire ai lettori di chattare tra loro. Ji nostri analisti possono anche contribuire alle conversazioni della comunità per una visione più approfondita delle preferenze, dei pensieri e delle opinioni dei lettori.

Ottenere approfondimenti e follow-up dal tuo pubblico

Zohar sottolinea che le organizzazioni dei media possono utilizzare i commenti del loro pubblico per trovare potenziali fonti per notizie future.

“Puoi guardare attraverso la comunità per vedere se qualcuno ha scritto su un’esperienza specifica che potrebbe aver avuto in un commento”, spiega Zohar. “In questo senso, i membri della comunità possono diventare fonti anonime di contenuti, comprese le storie investigative”.

I giornalisti possono includere domande come spunti di conversazione alla fine dei loro articoli o all’interno della sezione commenti per incoraggiare le persone a condividere le proprie esperienze e opinioni personali.

Occasionalmente, gli utenti possono anche pubblicare le loro domande e preoccupazioni scottanti su argomenti di contenuto specifici, che potrebbero aiutare a ispirare i giornalisti a formare nuove idee per storie di follow-up.

Man mano che i giornalisti iniziano a prestare maggiore attenzione alle parole dei membri del loro pubblico, gli utenti vedranno i loro pensieri e preferenze riflessi nel contenuto, portando a un’esperienza sul sito più accattivante.

I dati di Viafoura evidenziano anche che il tempo che gli utenti trascorrono in loco può aumentare di 16 volte quando le organizzazioni dei media supportano semplicemente i loro contenuti con strumenti social.

Stabilire linee guida di conversazione sane

Nonostante la necessità di coltivare conversazioni con il loro pubblico, le organizzazioni dei media affrontano anche la sfida di mantenere le giuste condizioni di commento per incoraggiare la partecipazione sia della loro comunità che dei giornalisti.

“Quando il dialogo non è salutare e non hai i meccanismi per supportare la conversazione civile, l’ambiente sociale si trasforma rapidamente”, afferma Zohar. “La tua redazione non vorrà conversare con un pubblico coinvolto in attacchi personali, sia contro la comunità che contro un autore”.

Quindi, per mantenere le conversazioni in tema, senza troll e sane, le organizzazioni devono fare affidamento su sistemi di supporto, come la moderazione automatizzata e moderatori umani , per far rispettare le linee guida della community.

Se stai cercando un sistema di moderazione efficace, tieni d’occhio quello in grado di bloccare automaticamente fino al 95% dei commenti offensivi per ottenere i migliori risultati.

Le organizzazioni che mantengono i loro spazi di commento liberi da contenuti dannosi hanno il potere sociale delle loro comunità a portata di mano. I giornalisti possono quindi attingere alle conversazioni sane del loro pubblico per connettersi meglio con i loro lettori e creare contenuti che le persone vorranno davvero rimanere a leggere e pagare.

Viafoura ottiene la certificazione SOC 2 Tipo 1

Viafoura, la società leader nell’esperienza digitale per le organizzazioni di media globali, è lieta di annunciare di aver completato con successo l’audit di tipo 1 di Service Organization Control (SOC) 2 e di aver ottenuto la certificazione SOC 2 di tipo 1.

“In qualità di azienda SaaS, prendiamo molto sul serio la sicurezza dei dati dei nostri clienti”, afferma Mark Zohar, Presidente e COO di Viafoura. “Ottenere la certificazione SOC 2 è una testimonianza dell’impegno di Viafoura per la sicurezza, l’integrità e la disponibilità della nostra piattaforma. Garantisce inoltre che i nostri clienti ricevano il massimo livello di sicurezza, fiducia e conformità.

Un audit SOC 2 di tipo 1 esamina tutti i controlli e i processi all’interno degli ecosistemi di un fornitore SaaS o cloud che gestiscono le informazioni sui clienti e si assicura che soddisfino i cinque principi di affidabilità dei dati. Questi principi di fiducia sono sicurezza, disponibilità, integrità del trattamento, riservatezza e riservatezza.

L’audit SOC 2 è tecnico e rigoroso e misura il processo utilizzato da un fornitore SaaS o cloud per monitorare le attività insolite e il modo in cui è attrezzato per rispondere con azioni correttive.

“La conformità SOC2 assicura ai nostri clienti e potenziali clienti che abbiamo adottato tutte le misure necessarie per proteggere e salvaguardare i loro dati”, afferma Zohar. “La nostra missione come azienda è creare comunità online civili e sicure per il marchio che coinvolgano e attivino il pubblico digitale. Questa missione non può essere raggiunta senza un forte investimento e impegno per la sicurezza e la conformità dei dati”.

Exit mobile version