Pour détecter et bloquer des photos et vidéos intimes partagées sur le réseau social et Instagram sans le consentement des personnes représentées, Facebook a annoncé son recours à du machine learning et de l'intelligence artificielle.

Pour cette technologie, Facebook souligne une action proactive avant signalement et pouvant détecter des contenus de personnes nues ou presque nues. Le contenu détecté par la technologie est soumis à l'examen d'un membre des équipes de modération spécialement formé.

Le cas échéant, le contenu sera supprimé et le compte à l'origine du partage sans autorisation pourra être désactivé. Une procédure d'appel demeure en vigueur dans l'éventualité où une erreur a été commise.

Facebook

Facebook donne peu de détails sur cette technologie et la manière dont l'algorithme fonctionne. À Motherboard, un porte-parole de Facebook a précisé que pour la phase d'apprentissage (ou entraînement) de la technologie, des images intimes non consensuelles préalablement confirmées ont été soumises afin de " reconnaître les schémas de langage et les mots clés qui indiqueraient si une image ou une vidéo a été partagée sans consentement. "

On se souviendra que Facebook avait lancé un programme pilote proposant à des personnes d'envoyer elles-mêmes leurs photos intimes et craignant qu'elles ne se retrouvent sur Facebook ou Instagram. Pour cette procédure encadrée, il était question de générer une empreinte numérique des photos (qui ne sont pas stockées ; détruites au bout de sept jours). Via ces empreintes numériques, l'idée était de bloquer de manière préventive une diffusion.

Ce programme pilote est d'ailleurs toujours d'actualité avec des organisations partenaires en Australie, Canada, Royaume-Uni et États-Unis.