Pour de nombreux journaux, la section des commentaires est un excellent espace où les lecteurs peuvent apporter des pensées, des expériences et des perspectives diverses, mais elle peut également devenir un terrain fertile pour la négativité avec des arguments et un langage offensant qui peuvent étouffer des voix précieuses.
C’est le défi auquel est confrontée Lucy Warwick-Ching, rédactrice en chef de la communauté du Financial Times. Le FT dispose d'une équipe de modérateurs dédiée, mais avec des centaines d'articles publiés chaque semaine, ils ne peuvent pas suivre et la plupart des articles sont fermés aux commentaires. Ils ont également décidé de fermer toutes les sections de commentaires le week-end pour éviter que les discussions toxiques ne deviennent incontrôlables lorsque personne n'est à leur bureau.
Embaucher des modérateurs supplémentaires est trop coûteux et créer votre propre système de modération est également trop fastidieux. L’équipe de Warwick-Ching a donc utilisé un outil de modération préexistant d’Utopia Analytics. L'outil a ensuite été formé sur 200 000 commentaires de lecteurs réels pour reconnaître les discussions polies, non argumentatives et hors sujet.
Les outils d’IA peuvent identifier les commentaires sexistes et racistes, malgré un langage complexe. Photo : Eidosmedia
Lorsque l’outil a été mis en service pour la première fois, le FT devait encore vérifier manuellement chaque commentaire qu’il approuvait. Il faut des mois à l’outil pour prendre les bonnes décisions de modération. Il détecte désormais la plupart des commentaires sexistes et racistes, malgré le langage complexe utilisé par les lecteurs du FT.
« Ce n’est pas parfait et c’est encore un travail en cours », a déclaré Warwick-Ching six mois plus tard.
Cependant, son impact reste significatif. Auparavant, les modérateurs mettaient beaucoup de temps à filtrer les commentaires négatifs. Désormais, l’IA prend en charge une grande partie du travail lourd, permettant aux modérateurs de se concentrer sur la création de communauté.
L’IA est non seulement efficace pour modérer les commentaires, mais elle remplace également les humains dans le traitement des commentaires émotionnellement dommageables. L’IA absorbe désormais une grande partie de la négativité que ces commentaires suscitent, protégeant ainsi les humains de cette négativité.
Plus important encore, Warwick-Ching affirme que l’avènement des outils d’IA ne mettra aucun opérateur au chômage. « Dès le début, lorsque nous avons introduit l'outil de modération, nous avons clairement indiqué qu'il ne s'agissait pas de réduire les effectifs, mais de créer un espace où les modérateurs peuvent faire leur travail. »
Jusqu’à présent, l’outil d’IA a donné des résultats positifs. Les lecteurs ont envoyé un courrier électronique indiquant qu'ils avaient remarqué une amélioration de la civilité dans la section des commentaires et qu'ils n'avaient reçu aucune plainte significative concernant des commentaires injustement rejetés.
Les journalistes ont également constaté une augmentation significative des avantages des commentaires, les précieuses contributions des lecteurs enrichissant leurs articles. Ils ont également constaté que l’utilisation de l’IA permet aux modérateurs de se concentrer sur ce qu’ils font le mieux : favoriser un espace accueillant et informatif pour les gens.
Hoai Phuong (selon le journalisme)
Source : https://www.congluan.vn/cong-cu-ai-co-the-giup-cac-toa-soan-kiem-duyet-binh-luan-nhu-the-nao-post298847.html
Comment (0)