Google fait appel à l'apprentissage automatique pour aider les éditeurs à identifier les trolls et les commentaires toxiques

Ne serait-il pas formidable que l'apprentissage automatique puisse être appliqué pour améliorer les commentaires et autres conversations en ligne? Grands et petits éditeurs, du NYT au site que vous lisez, dépensent des ressources importantes pour empêcher les trolls de bombarder les lecteurs de commentaires toxiques.

Une nouvelle technologie Google basée sur l'apprentissage automatique s'efforce d'automatiser le processus de tri à travers des millions de commentaires, aidant à identifier et à signaler les commentaires abusifs qui sapent un échange civil d'idées.

En partenariat avec Jigsaw, Google a lancé Perspective, une technologie à un stade précoce basée sur l'apprentissage automatique qui peut aider à identifier les commentaires toxiques sur le Web. L'API officielle Perspective permet aux éditeurs d'utiliser cette technologie pour leurs sites Web.

Google explique comment cela fonctionne:

Perspective examine les commentaires et les note en fonction de leur similitude avec les commentaires jugés «toxiques» ou susceptibles de faire quitter la conversation. Pour savoir comment repérer un langage potentiellement toxique, Perspective a examiné des centaines de milliers de commentaires qui avaient été étiquetés par des évaluateurs humains.

Chaque fois que Perspective trouve de nouveaux exemples de commentaires potentiellement toxiques ou reçoit des corrections des utilisateurs, il peut améliorer la notation des futurs commentaires.

Une fois que le système a identifié les commentaires toxiques, les éditeurs peuvent les signaler pour que leurs propres modérateurs les examinent et les incluent dans une conversation. Les lecteurs peuvent également trier les commentaires par toxicité, afin de faire apparaître les conversations importantes. Le système pourrait même permettre aux commentateurs de voir la toxicité potentielle de leur commentaire pendant qu'ils l'écrivent.

Vous pensez que la pêche à la traîne n'est pas un gros problème?

Chose encore - Le New York Times a une équipe entière chargée d'examiner en moyenne 11 000 commentaires chaque jour. En raison de la main-d'œuvre nécessaire à l'examen des commentaires, le journal ne contient des commentaires que sur environ dix pour cent de ses articles..

Google et le Times ont travaillé ensemble pour former des modèles d'apprentissage automatique afin que les modérateurs puissent trier les commentaires plus rapidement. Lorsque Perspective sera lancé publiquement et que de nombreux autres éditeurs l'adopteront, le système sera exposé à davantage de commentaires et développera une meilleure compréhension de ce qui rend certains commentaires toxiques.

"Notre premier modèle est conçu pour repérer un langage toxique, mais au cours de la prochaine année, nous sommes désireux de nous associer et de proposer de nouveaux modèles qui fonctionnent dans des langues autres que l'anglais ainsi que des modèles qui peuvent identifier d'autres perspectives, comme lorsque les commentaires ne sont pas substantiels ou hors sujet ", a déclaré Google.

Selon DataSociety, 72% des internautes américains ont été témoins de harcèlement en ligne et près de la moitié en ont personnellement fait l'expérience. Près d'un tiers des répondants ont déclaré s'autocensurer ce qu'ils publient en ligne par crainte de représailles. On estime que le harcèlement en ligne a affecté la vie d'environ 140 millions de personnes aux États-Unis, et bien d'autres ailleurs.

Source: Google