Para muchos periódicos, la sección de comentarios es un gran espacio para que los lectores contribuyan con pensamientos, experiencias y perspectivas diversas, pero también puede convertirse en un caldo de cultivo para la negatividad con argumentos y lenguaje ofensivo que pueden ahogar voces valiosas.
Éste es el desafío que enfrenta la editora de la comunidad del Financial Times, Lucy Warwick-Ching. El FT tiene un equipo de moderadores dedicado, pero con cientos de artículos publicados cada semana, no pueden mantener el ritmo y la mayoría de los artículos están cerrados a los comentarios. También decidieron cerrar todas las secciones de comentarios los fines de semana para evitar que las discusiones tóxicas se salgan de control cuando no hay nadie en su escritorio.
Contratar moderadores adicionales es demasiado caro y construir tu propio sistema de moderación también es demasiado engorroso. Entonces, el equipo de Warwick-Ching utilizó una herramienta de moderación preexistente de Utopia Analytics. Luego, la herramienta se entrenó con 200.000 comentarios de lectores reales para reconocer discusiones educadas, no argumentativas y fuera de tema.
Las herramientas de IA pueden identificar comentarios sexistas y racistas, a pesar del lenguaje complejo. Foto: Eidosmedia
Cuando la herramienta empezó a utilizarse, el FT todavía necesitaba verificar manualmente cada comentario que aprobaba. La herramienta tarda meses en tomar las decisiones de moderación correctas. Ahora capta la mayoría de los comentarios sexistas y racistas, a pesar del lenguaje complejo que utilizan los lectores del FT.
"No es perfecto y todavía es un trabajo en progreso", dijo Warwick-Ching seis meses después.
Sin embargo, su impacto sigue siendo significativo. Anteriormente, a los moderadores les tomaba mucho tiempo filtrar los comentarios negativos. Ahora, la IA se encarga de gran parte del trabajo pesado, liberando a los moderadores para que se concentren en la construcción de la comunidad.
La IA no sólo es eficaz para moderar los comentarios, sino que también reemplaza a los humanos en el manejo de comentarios emocionalmente dañinos. La IA ahora absorbe gran parte de la negatividad que traen esos comentarios, protegiendo a los humanos de ella.
Lo más importante, afirma Warwick-Ching, es que la llegada de herramientas de IA no dejará a ningún operador sin trabajo. Desde el principio, cuando presentamos la herramienta de moderación, dejamos claro que no se trataba de reducir la cantidad de personal, sino de crear un espacio para que los moderadores pudieran realizar su trabajo.
Hasta ahora, la herramienta de IA ha dado resultados positivos. Los lectores han enviado correos electrónicos diciendo que han notado una mejora en la civilidad en la sección de comentarios y que no han tenido ninguna queja significativa sobre comentarios rechazados injustamente.
Los periodistas también han visto un aumento significativo en los beneficios de los comentarios, con valiosas contribuciones de los lectores que enriquecen sus historias. También descubrieron que el uso de IA permite a los moderadores centrarse en lo que mejor saben hacer: fomentar un espacio acogedor e informativo para las personas.
Hoai Phuong (según Periodismo)
[anuncio_2]
Fuente: https://www.congluan.vn/cong-cu-ai-co-the-giup-cac-toa-soan-kiem-duyet-binh-luan-nhu-the-nao-post298847.html
Kommentar (0)