Lorsque des contenus publiés par des internautes sont signalés aux hébergeurs de contenus, ce sont des modérateurs qui prennent le temps d'étudier chaque dossier. Ces modérateurs sont ainsi chargés de lire les propos ou de regarder les vidéos ou photos publiées et dénoncées par les utilisateurs.

Et les contenus sont régulièrement très choquants : meurtres, scènes pédopornographiques, torture, violences extrêmes, gore... Tout y passe, au point de parfois choquer durablement les modérateurs qui sont contraints d'assister à ces contenus à longueur de journée.

Explicit content

Greg Blauert et Henry Soto ne reprochent pas à Microsoft la nature du poste qu'ils ont occupé comme modérateur, mais l'incapacité de la firme à leur proposer un accompagnement leur permettant de gérer le stress lié à leur activité psychologiquement lourde. Ils estiment par ailleurs avoir été mal informés des risques liés au poste, Microsoft jugeant que les contenus à traiter ne peuvent entrainer de réel trouble psychologique.

Un des deux plaignants a fait partie des premiers employés de l'équipe de modération de Microsoft en 2008, l'autre étant embauché en 2011. Après quelques années de service, ils ont développé des troubles chroniques : cauchemars, angoisses et parfois hallucinations... Des effets post-traumatiques qui pourraient remettre en cause la nature même du poste de modérateur.

Pendant plusieurs années, Microsoft aurait minimisé les effets du travail sur ses employés, les encourageant simplement à prendre de petites pauses en faisant des promenades ou en se changeant l'esprit sur des jeux vidéo.

Au fil du temps, Microsoft a remplacé une partie de ses modérateurs avec des algorithmes automatisés, et le groupe affirme n'employer que du personnel spécifiquement formé à cette tâche. C'est la justice américaine qui jugera désormais si Microsoft n'a pas suffisamment protégé ses employés dans un procès qui pourrait faire jurisprudence et ouvrir la porte à de nombreuses plaintes dans les années à venir.