LaboFnac

YouTube : plus de 8 millions de vidéos ont été supprimées en 3 mois

La plateforme vidéo de Google a publié son premier rapport sur l'application des règles de la communauté. Elle annonce avoir supprimé 8,3 millions de vidéos entre octobre et décembre 2017. 

Comme Facebook, YouTube essuie des critiques concernant ses méthodes de modération. De nombreuses dérives ont été constatées, en particulier sur sa plateforme dédiée aux enfants, Youtube Kids. Sommée de réagir, la plateforme avait annoncé une série de mesures destinées à renforcer la protection des enfants. Susan Wojcicki, la PDG de YouTube, était également montée au créneau pour annoncer la création d’un rapport en 2018 afin d’offrir une « plus grande transparence » concernant la modération des contenus.

YouTube

© Capture d’écran / YouTube

Ce premier rapport est là et permet de faire un premier bilan sur l’application du règlement de la communauté établi par Google. Dans un billet de blog, le géant américain annonce que plus de 8 millions de contenus ont été supprimés (8 284 039 vidéos) entre octobre et décembre 2017. On apprend également que 6,7 millions de vidéos ont été signalées par des machines (ordinateurs et machine learning) plutôt que par des humains. Sur ces 6,7 millions de vidéos, 76 % ont pu être supprimées avant de comptabiliser la moindre vue.

Beaucoup de spams et du contenu pour adultes

La firme précise que la majorité des vidéos retirées était composée de spams (26,4 %) et de contenus pour adultes (30,1 %). Des vidéos présentant des contenus haineux (15,6 %), violents (13,5 %) ou pouvant mettre en danger des enfants (5,2 %) ont aussi été recensées. Enfin, YouTube a supprimé des vidéos faisant l’apologie du terrorisme (1,6 %).

La plateforme vidéo en profite pour vanter les mérites de ses nouvelles méthodes de modération. Elle annonce que début 2017, 8 % des vidéos signalées pour « extrémisme violent » ont été retirées avec moins de 10 vues. Désormais, plus de la moitié des vidéos qui sont retirées pour ce même motif ont moins de 10 vues. Le site assure qu’il doit cette progression à l’apprentissage automatique (machine learning) introduit en juin 2017. En plus des ordinateurs, la plateforme avait annoncé en décembre qu’elle allait recruter 10 000 modérateurs supplémentaires pour examiner les vidéos signalés. La version Kids de YouTube pourrait notamment en profiter.


Contenus associés

Partager cet article :

Attention, vous avez déjà 3 produits dans le comparateur : supprimez un de ces produits pour rajouter celui-ci au comparateur.