Après Facebook, c'est au tour de YouTube - aussi sous pression sur ce sujet - d'annoncer de nouveaux moyens afin de lutter contre la présence de contenus extrémistes et à caractère terroriste sur sa plate-forme de vidéos en ligne.

Blocage-site-main-rouge-ministere-interieur Sans surprise, le machine learning est également appelé à la rescousse. Google précise qu'au cours des six derniers mois, des modèles d'analyse vidéo ont permis d'identifier et supprimer plus de la moitié des contenus liés au terrorisme. Davantage de ressources d'ingénierie seront allouées et la technologie permettra de mettre au point de nouveaux " classificateurs de contenu " pour accélérer l'identification et la suppression.

Tout comme Facebook, YouTube ne mise pas tout sur la technologie et va renforcer le facteur humain pour les signalements et le bon discernement avec une augmentation du nombre d'experts indépendants et spécialisés dans le cadre de son programme Trusted Flagger. La contribution d'une cinquantaine d'ONG en plus de 63 déjà présentes.

Les vidéos qui ne violent pas " clairement " les conditions d'utilisation, mais par exemple avec des contenus suprémacistes ou d'extrémisme religieux, apparaîtront derrière un avertissement et ne pourront par ailleurs pas être monétisées, recommandées ou commentées.

Déjà en vigueur aux États-Unis, une méthode de redirection sera plus largement étendue à l'Europe. L'approche est de type publicité ciblée pour atteindre de potentielles recrues de groupes terroristes et les rediriger vers des vidéos de contre-discours à la radicalisation.

Rappelons que fin 2016, Facebook, Microsoft, Twitter et YouTube ont formé une alliance pour créer une base de données commune d'empreintes numériques uniques (hashs) de contenus terroristes et limiter leur propagation en ligne.