LaboFnac

Facebook veut mieux protéger sa plateforme Live contre les abus

Deux mois après l'attentat de Christchurch, Facebook a décidé de réagir et de restreindre l'usage de sa plateforme Live. Cette mesure fait suite à "l'appel de Christchurch" lancé par la France et la Nouvelle-Zélande.

Deux mois après la diffusion en direct sur Facebook de l’attaque contre des mosquées en Nouvelle-Zélande, un attentat qui a fait 51 morts, le réseau social a décidé de réagir. Facebook annonce dans un communiqué vouloir protéger sa plateforme Live contre les abus et investir dans la recherche sur les contenus manipulés. Depuis le 15 mai, les utilisateurs qui enfreignent certaines règles sur Facebook verront leur utilisation de Facebook Live restreinte. Plus strict, le réseau social a décidé de mettre en place une politique dite de « première infraction ». Ainsi, lorsqu’un utilisateur enfreint les conditions d’utilisation de Facebook, il se verra interdire l’utilisation de Facebook Live pour une période déterminée, par exemple 30 jours, à compter de sa première infraction.

Facebook

© Creative Commons

Facebook applique désormais une politique de « première infraction »

Jusqu’ici, la firme de Mark Zuckerberg se contentait de supprimer les contenus contraires à ses standards. Elle pouvait aussi bloquer l’utilisation de Facebook et donc l’accès à sa plateforme Live en cas de récidive, voire exclure des personnes pour des « violations mineures répétées » ou une « unique violation flagrante » dans certains cas. Le réseau social ne veut pas s’arrêter là et prévoit d’étendre ces restrictions à d’autres domaines au cours des prochaines semaines, comme le fait d’empêcher ces personnes de créer des publicités sur Facebook. « Nous sommes conscients des antagonismes entre les personnes qui préféreraient un accès sans entrave à nos services et les restrictions nécessaires pour assurer la sécurité des utilisateurs sur Facebook. Notre objectif est de limiter les risques d’abus sur Facebook Live tout en permettant aux personnes d’utiliser ce service de manière positive chaque jour », explique Guy Rosen, vice-président intégrité de la firme américaine.

Le réseau social va investir dans la recherche sur les contenus manipulés

Facebook avait été fortement critiqué pour avoir tardé à interrompre la diffusion de la vidéo. Outre le temps de réaction de la plateforme et les critiques envers sa modération, le réseau social explique avoir été confronté aux problèmes de la prolifération de nombreuses variantes de la vidéo de l’attaque. « Des personnes ont partagé – pas toujours intentionnellement – des versions modifiées de la vidéo, ce qui a rendu leur détection difficile pour nos systèmes », assure Facebook. La firme reconnaît que ses outils, notamment basés sur des technologies de comparaison vidéo et audio, ne sont pas assez performants. Le réseau social a donc décidé d’investir 7,5 millions de dollars dans de nouveaux partenariats de recherche avec trois universités (Université du Maryland, Cornell, et l’Université de Californie, Berkeley) pour rechercher de nouvelles techniques.

Facebook Live

© Facebook

Ces coopérations sont destinées à améliorer les technologies d’analyse d’images et de vidéos, en permettant de mieux détecter les manipulations de contenus (photos, vidéo et audio) et de distinguer les publications involontaires de celles d’acteurs qui, au contraire, manipulent intentionnellement des vidéos et des photos. Les efforts du réseau social doivent notamment permettre de mieux lutter contre les DeepFakes. L’an dernier, la firme américaine avait joué la transparence en dévoilant les chiffres impressionnants de sa politique de modération. Elle avait aussi expliqué que son IA qui lui permet d’identifier des contenus à caractère terroriste était « encore loin d’être efficace pour la plupart des contenus non conformes ».


Contenus associés

Partager cet article :

Attention, vous avez déjà 3 produits dans le comparateur : supprimez un de ces produits pour rajouter celui-ci au comparateur.