Depuis quelques jours, Facebook est sous le coup de critiques nourries : un algorithme de recommandation du réseau a proposé à des utilisateurs s'ils souhaitaient voir d'autres "vidéos sur les primates" à la suite d'une vidéo d'un tabloïd britannique qui présentait des personnes noires.

Facebook a rapidement présenté ses excuses et décrit une "erreur inacceptable" de son système d'intelligence artificielle liée aux recommandations. Pour éviter que cela ne se reproduise, Facebook a désactivé l'algorithme de recommandation sur le sujet en question et a annoncé lancer une enquête interne.

Le réseau a admis que ses systèmes d'intelligences n'étaient pas parfaits, et que s'ils profitent d'améliorations constantes, certaines erreurs, parfois préjudiciables et sensibles peuvent intervenir.

Déjà critiqué pour ne pas toujours lutter suffisamment contre le racisme et la haine en ligne, Facebook offre ici une pierre de plus à ses détracteurs.