¿Tiene su equipo de moderación las herramientas necesarias para detectar al troll?

Como cualquier moderador sabe, el trolling es algo más que una molestia.

Según Leigh Adams, director de servicios de moderación de Viafoura, “los trolls se convierten en la minoría vocal y pueden superar y ahogar rápidamente las conversaciones más relevantes”. Cuando el comportamiento tóxico no se controla, puede llevar a los foros en una dirección que perjudica activamente a su marca. ¿Están sus moderadores equipados para identificar y eliminar eficazmente los malos comportamientos antes de que causen daños a largo plazo? He aquí cinco herramientas importantes que necesitarán.

Directrices comunitarias

El primer paso para construir una comunidad online segura es crear unas sólidas directrices comunitarias que sean claras, fáciles de encontrar y completas. Estos sirven como primera línea de defensa para los posibles trolls.

¿Qué deben contener las directrices? Los expertos recomiendan una política de no tolerancia para los ataques personales, los contenidos obscenos, calumniosos o difamatorios, y cualquier cosa abusiva o profana. Después de eso, las directrices deben ser personalizadas para adaptarse a su plataforma.

Cuando un usuario se comporta mal, las directrices de la comunidad pueden ayudar a los moderadores a tomar una decisión informada para marcarlo o prohibirlo. También proporcionan una justificación, en caso de que un usuario prohibido presente una queja. Esto ayuda a proteger a sus moderadores, lo que a su vez les ayuda a hacer su trabajo con confianza.

Conozca las señales

Los peajes pueden clasificarse en una de las dos categorías: cuenta única y cuenta múltiple. Ambos tipos pueden identificarse rápida y fácilmente si los moderadores saben qué buscar. Asegúrese de que su equipo de moderación sabe cómo acceder a los datos de los usuarios y buscar señales de alerta.

Los trolls de cuenta única son usuarios que cruzan la línea, lo sepan o no. Pueden identificarse por su volumen y suelen tener un gran número de banderas, deshabilitaciones o comentarios. Pueden ser redimidos, y a menudo enmiendan su comportamiento con una advertencia o un único baneo.Los trolls con varias cuentas volverán repetidamente bajo diferentes alias. Suelen buscar atención y a menudo dejan pistas sobre su identidad para reavivar conversaciones tóxicas. Los moderadores deben buscar en las cuentas nuevas los signos reveladores de un troll que regresa. Suelen tener un alto índice de desactivación, un nombre, una imagen de avatar o una dirección IP similares a los de una cuenta previamente baneada. Algunos trolls están tan ávidos de atención que incluso pueden publicar “He vuelto” o “Me han baneado”.

 

Prohibición de

Cuando todas las advertencias han fallado para detener el mal comportamiento, los moderadores deben estar facultados para prohibir a los usuarios problemáticos. Los baneos ayudan a mantener las directrices de tu comunidad y a hacer un mejor espacio para los usuarios que se comportan bien y desean disfrutar de la plataforma.

Hay varios tipos de prohibiciones: incrementales, fantasmas y permanentes. Los moderadores pueden aumentar su nivel de control comprendiendo el mejor escenario de uso para cada tipo de prohibición.

La prohibición progresiva se utiliza como un parche o una advertencia para asegurarse de que los infractores por primera vez tengan margen de mejora. Los baneos fantasma permiten que el troll siga publicando, pero eliminan el comentario del feed general. Las prohibiciones permanentes son sólo eso: permanentes. Las prohibiciones son una herramienta poderosa. Permita que sus moderadores los utilicen. Siempre que lo usen con precisión, la confianza para prohibir a los usuarios ahorrará tiempo y fortaleza mental.

Herramientas de IA

Una de las mejores herramientas que puede dar a su equipo humano de moderación es un sistema de IA que identificará la mayoría de la toxicidad obvia, reducirá su ámbito de moderación y les permitirá centrarse en situaciones más matizadas.

Existen varias opciones de moderación inteligente, pero no todos los sistemas son iguales. Muchos servicios utilizan unalista depalabras prohibidas ” que no detecta la mayoría de los problemas contextuales o las violaciones de “enmascaramiento”. En su lugar, elija un servicio con procesamiento de lenguaje natural o aprendizaje automático. Estos sistemas permiten que la IA se adapte a medida que los moderadores aprueban o bloquean los comentarios, personalizando el algoritmo a su plataforma.

Según el informe de Viafoura “Todo el mundo es un troll”, se ha comprobado que las comunidades con un software de moderación avanzado experimentan un crecimiento: un 62% más de likes de los usuarios, un 35% más de comentarios por usuario y un 34% más de respuestas por usuario.

Apoyo a su equipo de moderación

Su equipo de moderación realiza el esencial pero difícil trabajo de proteger a su comunidad contra la hostilidad entrante. Crear un entorno de trabajo eficiente, positivo y saludable les ayudará a evitar el agotamiento y a mantener la positividad.

El primer y más importante aspecto de un lugar de trabajo saludable es la comunicación abierta. Crea un canal (como Slack o Google Meets) y anima a tus moderadores a pedir ayuda. Esto ayudará a su equipo a mantenerse neutral, a identificar los prejuicios inconscientes de los demás y a garantizar que se puedan compartir los conocimientos.

Apoye aún más a su equipo de moderación manteniendo la carga de trabajo transparente y proporcionando acceso a descansos frecuentes. El descanso puede ser productivo, y cuando se trata de una negatividad constante, esencial.

En Viafoura, creemos que los moderadores bien preparados hacen que las comunidades sean fuertes y saludables. ¿Cuántas de estas herramientas emplean sus moderadores? Equipa a tu equipo con una completa gama de estrategias de moderación y podrán construir una comunidad que se sienta segura, apoye tu marca y crezca junto con tu plataforma.

Salir de la versión móvil