¿Tiene su equipo de moderación las herramientas necesarias para detectar al troll?

Como cualquier moderador sabe, el trolling es algo más que una molestia.

Según Leigh Adams, director de servicios de moderación de Viafoura, “los trolls se convierten en la minoría vocal y pueden superar y ahogar rápidamente las conversaciones más relevantes”. Cuando el comportamiento tóxico no se controla, puede llevar a los foros en una dirección que perjudica activamente a su marca. ¿Están sus moderadores equipados para identificar y eliminar eficazmente los malos comportamientos antes de que causen daños a largo plazo? He aquí cinco herramientas importantes que necesitarán.

Directrices comunitarias

El primer paso para construir una comunidad online segura es crear unas sólidas directrices comunitarias que sean claras, fáciles de encontrar y completas. Estos sirven como primera línea de defensa para los posibles trolls.

¿Qué deben contener las directrices? Los expertos recomiendan una política de no tolerancia para los ataques personales, los contenidos obscenos, calumniosos o difamatorios, y cualquier cosa abusiva o profana. Después de eso, las directrices deben ser personalizadas para adaptarse a su plataforma.

Cuando un usuario se comporta mal, las directrices de la comunidad pueden ayudar a los moderadores a tomar una decisión informada para marcarlo o prohibirlo. También proporcionan una justificación, en caso de que un usuario prohibido presente una queja. Esto ayuda a proteger a sus moderadores, lo que a su vez les ayuda a hacer su trabajo con confianza.

Conozca las señales

Los peajes pueden clasificarse en una de las dos categorías: cuenta única y cuenta múltiple. Ambos tipos pueden identificarse rápida y fácilmente si los moderadores saben qué buscar. Asegúrese de que su equipo de moderación sabe cómo acceder a los datos de los usuarios y buscar señales de alerta.

Los trolls de cuenta única son usuarios que cruzan la línea, lo sepan o no. Pueden identificarse por su volumen y suelen tener un gran número de banderas, deshabilitaciones o comentarios. Pueden ser redimidos, y a menudo enmiendan su comportamiento con una advertencia o un único baneo.Los trolls con varias cuentas volverán repetidamente bajo diferentes alias. Suelen buscar atención y a menudo dejan pistas sobre su identidad para reavivar conversaciones tóxicas. Los moderadores deben buscar en las cuentas nuevas los signos reveladores de un troll que regresa. Suelen tener un alto índice de desactivación, un nombre, una imagen de avatar o una dirección IP similares a los de una cuenta previamente baneada. Algunos trolls están tan ávidos de atención que incluso pueden publicar “He vuelto” o “Me han baneado”.

 

Prohibición de

Cuando todas las advertencias han fallado para detener el mal comportamiento, los moderadores deben estar facultados para prohibir a los usuarios problemáticos. Los baneos ayudan a mantener las directrices de tu comunidad y a hacer un mejor espacio para los usuarios que se comportan bien y desean disfrutar de la plataforma.

Hay varios tipos de prohibiciones: incrementales, fantasmas y permanentes. Los moderadores pueden aumentar su nivel de control comprendiendo el mejor escenario de uso para cada tipo de prohibición.

La prohibición progresiva se utiliza como un parche o una advertencia para asegurarse de que los infractores por primera vez tengan margen de mejora. Los baneos fantasma permiten que el troll siga publicando, pero eliminan el comentario del feed general. Las prohibiciones permanentes son sólo eso: permanentes. Las prohibiciones son una herramienta poderosa. Permita que sus moderadores los utilicen. Siempre que lo usen con precisión, la confianza para prohibir a los usuarios ahorrará tiempo y fortaleza mental.

Herramientas de IA

Una de las mejores herramientas que puede dar a su equipo humano de moderación es un sistema de IA que identificará la mayoría de la toxicidad obvia, reducirá su ámbito de moderación y les permitirá centrarse en situaciones más matizadas.

Existen varias opciones de moderación inteligente, pero no todos los sistemas son iguales. Muchos servicios utilizan unalista depalabras prohibidas ” que no detecta la mayoría de los problemas contextuales o las violaciones de “enmascaramiento”. En su lugar, elija un servicio con procesamiento de lenguaje natural o aprendizaje automático. Estos sistemas permiten que la IA se adapte a medida que los moderadores aprueban o bloquean los comentarios, personalizando el algoritmo a su plataforma.

Según el informe de Viafoura “Todo el mundo es un troll”, se ha comprobado que las comunidades con un software de moderación avanzado experimentan un crecimiento: un 62% más de likes de los usuarios, un 35% más de comentarios por usuario y un 34% más de respuestas por usuario.

Apoyo a su equipo de moderación

Su equipo de moderación realiza el esencial pero difícil trabajo de proteger a su comunidad contra la hostilidad entrante. Crear un entorno de trabajo eficiente, positivo y saludable les ayudará a evitar el agotamiento y a mantener la positividad.

El primer y más importante aspecto de un lugar de trabajo saludable es la comunicación abierta. Crea un canal (como Slack o Google Meets) y anima a tus moderadores a pedir ayuda. Esto ayudará a su equipo a mantenerse neutral, a identificar los prejuicios inconscientes de los demás y a garantizar que se puedan compartir los conocimientos.

Apoye aún más a su equipo de moderación manteniendo la carga de trabajo transparente y proporcionando acceso a descansos frecuentes. El descanso puede ser productivo, y cuando se trata de una negatividad constante, esencial.

En Viafoura, creemos que los moderadores bien preparados hacen que las comunidades sean fuertes y saludables. ¿Cuántas de estas herramientas emplean sus moderadores? Equipa a tu equipo con una completa gama de estrategias de moderación y podrán construir una comunidad que se sienta segura, apoye tu marca y crezca junto con tu plataforma.

Por qué desactivar los comentarios es una amenaza, no una solución, para las empresas de comunicación

Los trolls, el spam y la desinformación han dado mala fama a los espacios de comentarios.

Páginas web que se inundan de comentarios ofensivos y poco fiables pueden perder el respeto de anunciantes y usuarios. Pos editores suelen pensar que la única solución es rendirse y cerrar sus herramientas de comentarios.

Pero cerrar los comentarios no es una solución; es un catalizador de graves problemas empresariales.

El problema de dejar de comentar en su sitio web

La realidad es que las empresas de medios de comunicación sufren en el momento en que se deshacen de las herramientas sociales de su sitio web.

(Sin comentarios, las empresas) pierden la conexión directa con su público (y se limitan a ofrecer) un contenido pasivo a los lectores, en lugar de crear oportunidades activas para recibir comentarios y opiniones”, afirma Mark Zohar, presidente y director de operaciones de Viafoura. “Ese bucle de retroalimentación entre el contenido, el editor y el autor es fundamental para que los contenidos tengan un alto rendimiento y vuelvan a atraer a las audiencias”.

En pocas palabras, las organizaciones de medios de comunicación necesitan herramientas de comentarios para acercarse a sus comunidades y crear mejores experiencias para los miembros de la audiencia y el personal.

Las empresas que abandonan sus comentarios no están resolviendo nada; sólo están permitiendo que sus peores miembros de la audiencia dañen sus marcas.

Añade el hecho de que
50%
de los nuevos registros de usuarios se producen en páginas web con
herramientas de comentarios
y es fácil ver por qué los espacios sociales son características imprescindibles de los sitios web para todos los editores que desean acercarse a su público.

Manos humanas ahuecadas sobre una mesa con burbujas de discurso en el centro.

Cómo dirigir espacios de comentarios seguros y exitosos

Moderación de comentarios es la mejor arma de un editor contra el comportamiento ofensivo de los usuarios. La importancia de apoyar cualquier herramienta social en línea con servicios avanzados de moderación de comentarios no puede ser exagerada – es lo que separa los espacios sociales seguros y lucrativos de los que están condenados al fracaso.

Las empresas de medios de comunicación que combinan sus espacios de comentarios en línea con una moderación eficaz tienen la mayor oportunidad de aumentar su audiencia, la fidelidad de los clientes y los ingresos sin dañar su reputación.

“La gente quiere participar en comunidades donde se siente segura”, explica Zohar. “Sabemos por nuestros datos que las comunidades y los sitios con una moderación activa y positiva que es civilizada generan compromiso en el sitio”.

Cuando está protegido por los
servicios de moderación automática
nuestros datos muestran que los clientes han visto a los usuarios comprometidos pasar 168 veces más tiempo en el sitio, ganar hasta
2,000
nuevos registros mensuales y ven 3,6 veces más páginas que las empresas de medios de comunicación sin herramientas de comentarios.

“En los casos en los que no se producen (los comentarios), vemos un descenso del compromiso”, añade Zohar.

En lugar de prescindir de los comentarios, las empresas de comunicación pueden recurrir a la moderación para crear entornos seguros que inviten a periodistas, lectores y comentaristas a comunicarse y conectarse entre sí.

¿Nervioso de que la moderación sea demasiado cara para invertir en ella?

Hay muchas opciones rentables
moderación humana y basada en la IA
opciones disponibles. También puede buscar un proveedor de herramientas de participación que incluya servicios de moderación directamente en su solución de comentarios para una experiencia asequible y sin complicaciones.

Obtenga recompensas con los datos de los usuarios

Las redacciones no obtienen mucho valor al enviar contenidos al vacío, donde nunca más se sabe de ellos. Las herramientas de comentarios moderados ofrecen a los periodistas la posibilidad de mantener conversaciones positivas sobre sus contenidos, recibir comentarios sobre ellos de sus lectores registrados y utilizar esa información para que los contenidos sean aún más atractivos en el futuro.

Esto significa que, a medida que los usuarios registrados dejan comentarios en su sitio, puede ampliar los datos de los usuarios más allá de sus perfiles generales para incluir información sobre los comportamientos, intereses, sentimientos, propensión e intención de compra de la audiencia.

Una vez que tenga esos datos declarativos, podrá introducirlos en su modelo de negocio.

“Permitir que los usuarios se comuniquen directamente con usted y (con otros lectores) en torno a los contenidos crea perspectivas, (que conducen) a perfiles de usuario ricos que evolucionan con el tiempo a medida que participan activamente en la comunidad”, dice Zohar. “Al conocer el comportamiento del usuario in situ, así como su interés y propensión… los editores pueden mejorar aspectos como la selección de boletines, las inscripciones y los usuarios objetivo para las suscripciones”.

Cuanto más
datos de origen
de los comentaristas, mejor podrá agrupar a los usuarios afines para personalizar sus experiencias, enviarles mensajes de suscripción y mostrarles anuncios relevantes.

En otras palabras, su solución de comentarios tiene el potencial de darle una ventaja sobre sus competidores. Así que, hagas lo que hagas, ¡no apagues los comentarios!


¿Quiere saber más sobre nuestras soluciones de comentarios y compromiso? Haga clic aquí para ver nuestra gama de productos.

Por qué el diálogo de su comunidad es el mejor recurso para construir una estrategia de contenido exitosa

Los seres humanos somos sociales por naturaleza. ¿Por qué otra razón tendría Facebook 2.89 mil millones de usuarios activos cada mes?

Pero estas experiencias no deben limitarse a las plataformas de redes sociales. De hecho, no respaldar el contenido de noticias con experiencias sociales e interactivas es una oportunidad desperdiciada para las organizaciones de medios.

Debido a que los sitios de redes sociales están plagados de información errónea, problemas de privacidad de datos y trolls, los usuarios han llegado a confiar en los sitios de noticias un 25% más que en las plataformas de redes sociales, según un informe de Reuters .

Los expertos en la industria de los medios ahora notan que los usuarios están perdiendo interés en compartir contenido e interactuar con sus conexiones en las redes sociales .

“En cambio, la gente quiere buscar activamente oportunidades para unirse a comunidades y conversaciones que estén más aisladas o centradas en temas de interés”, dice Dan Seaman, vicepresidente de gestión de productos de Viafoura.

Una conversación bidireccional entre editorial y audiencias

Sin un diálogo bidireccional entre los miembros de la audiencia y el personal editorial, las empresas de medios no pueden comprender completamente o conectarse con la comunidad en torno a su contenido.

“Su audiencia espera tener la oportunidad de dar me gusta, comentar, dejar sus opiniones y enviar preguntas”, afirma Mark Zohar, presidente y director de operaciones de Viafoura. “Al darles esa oportunidad, las empresas de medios pueden crear un nivel saludable de compromiso, recopilar información de datos y construir una relación directa entre el contenido, los autores y los lectores”.

Las organizaciones de medios que permiten a los miembros de su audiencia hacer preguntas y compartir sus pensamientos tienen acceso a una mina de oro de información sobre su comunidad. Y esa información se puede utilizar para hacer que sus estrategias generales de contenido sean más relevantes y estén alineadas con los intereses de los lectores.

Ofrecer un diálogo bidireccional también forja relaciones duraderas y significativas con las audiencias que las alientan a regresar con mayor frecuencia para consumir e interactuar con el contenido.

“Sabemos que cuando los autores dejan comentarios en la experiencia de conversación, eso definitivamente genera compromiso porque las personas quieren responder a autores y fuentes creíbles”, agrega Zohar.

Así que establecer fuertes conexiones sociales que conducen a la lealtad de la audiencia no se trata solo de permitir que los lectores conversen entre sí. jLos periodistas también pueden contribuir a las conversaciones de la comunidad para obtener una visión más profunda de las preferencias, pensamientos y opiniones de los lectores.

Obtener información y seguimientos de su audiencia

Zohar destaca que las organizaciones de medios pueden usar los comentarios de su audiencia para encontrar fuentes potenciales para futuras noticias.

“Puede mirar a través de la comunidad para ver si alguien ha escrito sobre una experiencia específica que podría haber tenido en un comentario”, explica Zohar. “En este sentido, los miembros de la comunidad pueden convertirse en fuentes anónimas de contenido, incluidas las historias de investigación”.

Los periodistas pueden incluir preguntas como mensajes de conversación al final de sus artículos o dentro de la sección de comentarios para alentar a las personas a compartir sus experiencias y opiniones personales.

Ocasionalmente, los usuarios también pueden publicar sus preguntas e inquietudes candentes sobre temas de contenido específicos, lo que podría ayudar a inspirar a los periodistas a formar nuevas ideas para historias de seguimiento.

A medida que los periodistas comiencen a prestar más atención a las palabras de los miembros de su audiencia, los usuarios verán sus pensamientos y preferencias reflejados en el contenido, lo que generará una experiencia en el sitio más cautivadora.

Los datos de Viafoura incluso destacan que el tiempo que los usuarios pasan en el sitio puede aumentar 16 veces cuando las organizaciones de medios simplemente respaldan su contenido con herramientas sociales.

Establecimiento de pautas de conversación saludable

A pesar de la necesidad de cultivar conversaciones con sus audiencias, las organizaciones de medios también enfrentan el desafío de mantener las condiciones de comentarios adecuadas para alentar la participación tanto de su comunidad como de los periodistas.

“Cuando el diálogo no es saludable y no tienes los mecanismos para apoyar una conversación civilizada, el entorno social se degrada rápidamente”, dice Zohar. “Su sala de redacción no querrá conversar con una audiencia involucrada en ataques personales, ya sea contra la comunidad o contra un autor”.

Por lo tanto, para mantener las conversaciones sobre el tema, libres de trolls y saludables, las organizaciones deben confiar en los sistemas de soporte, como la moderación automatizada y los moderadores humanos , para hacer cumplir las pautas de la comunidad.

Si está buscando un sistema de moderación efectivo, esté atento a uno que pueda bloquear automáticamente hasta el 95% de los comentarios ofensivos para obtener los mejores resultados.

Las organizaciones que mantienen sus espacios de comentarios libres de contenido dañino tienen el poder social de sus comunidades al alcance de la mano. Luego, los periodistas pueden aprovechar las conversaciones saludables de su audiencia para conectarse mejor con sus lectores y crear contenido que la gente realmente querrá quedarse para leer y pagar.

Viafoura logra la certificación SOC 2 Tipo 1

Viafoura, la empresa líder en experiencia digital para organizaciones de medios globales, se complace en anunciar que completó con éxito la auditoría de control de organización de servicios (SOC) 2 Tipo 1 y obtuvo la certificación SOC 2 Tipo 1.

“Como empresa de SaaS, nos tomamos muy en serio la seguridad de los datos de nuestros clientes”, dice Mark Zohar, presidente y director de operaciones de Viafoura. “Obtención de la certificación SOC 2 es un testimonio del compromiso de Viafoura con la seguridad, integridad y disponibilidad de nuestra plataforma. También garantiza que nuestros clientes recibirán el más alto nivel de seguridad, confianza y cumplimiento.

Una auditoría SOC 2 Tipo 1 analiza todos los controles y procesos dentro de los ecosistemas de un proveedor de nube o SaaS que administran la información del cliente y se asegura de que cumplan con los cinco principios de confianza de los datos. Estos principios de confianza son seguridad, disponibilidad, integridad del procesamiento, confidencialidad y privacidad.

La auditoría SOC 2 es técnica y estricta, y mide el proceso que emplea un proveedor de SaaS o de la nube para monitorear actividades inusuales y cómo están equipados para responder con acciones correctivas.

“El cumplimiento de SOC2 asegura a nuestros clientes actuales y potenciales que hemos tomado todas las medidas necesarias para proteger y salvaguardar sus datos”, dice Zohar. “Nuestra misión como empresa es crear comunidades en línea civiles y seguras para la marca que atraigan y activen audiencias digitales. Esta misión no se puede lograr sin una fuerte inversión y compromiso con la seguridad y el cumplimiento de los datos”.

Salir de la versión móvil