LaboFnac

YouTube a supprimé 58 millions de vidéos en trois mois

La plateforme vidéo de Google a fait le ménage au cours du troisième trimestre 2018 en supprimant 58 millions de vidéos, 1,7 million de chaînes et plus de 224 millions de commentaires. C'est ce qui ressort du nouveau rapport trimestriel de YouTube portant sur la modération de ses contenus.

YouTube vient de publier un nouveau rapport appelé « Application du règlement de la communauté YouTube » pour le troisième trimestre 2018 et le géant de la vidéo n’a pas chômé. Cible de critiques concernant sa modération, Alphabet multiplie les efforts pour limiter la propagation de toutes formes de dérives sur sa plateforme. Au troisième trimestre, YouTube a supprimé 58 millions de vidéos qui ne respectaient pas ses conditions d’utilisations. Plus de 224 millions de commentaires et 1,7 million de chaînes ont également été supprimés sur la période juillet-septembre.

YouTube

© Creative Commons

Dans le détail, YouTube explique que le fait de clôturer près de 1,7 million de chaînes (1 667 587 chaînes très exactement) a entraîné la suppression de 50,2 millions de vidéos. Le géant américain rappelle dans son rapport que la « clôture d’une chaîne YouTube intervient après trois mises en garde pour non-respect du règlement de la communauté en 90 jours, après un abus grave (par exemple, si son propriétaire fait preuve d’un comportement prédateur) » ou si la firme estime « que son but est d’enfreindre délibérément notre règlement (ce qui est souvent le cas des comptes de spam) ». Entre le mois de juillet et de septembre 2018, près de 80 % des chaînes supprimées l’ont été pour « spam, contenu prêtant à confusion et escroquerie », 12,6 % pour nudité ou contenu à caractère sexuel et 4,5 % pour la sécurité des enfants.

Au total, YouTube a supprimé 58 millions en trois mois

YouTube a également examiné les vidéos signalées et en a supprimé plus de 7,8 millions grâce à la détection automatique (81 %) ou manuelle (19 %). La firme met avant les bons résultats de ses algorithmes de détection automatique qui lui permettent de faire appliquer ses règles plus rapidement et plus précisément. Ainsi, la majorité des vidéos signalées automatiquement ont été supprimées sans aucune vue (74,5 % contre 25,5 % supprimées avec au moins une vue). Là encore, le spam, la sécurité des enfants ou la nudité ont été les principaux motifs de suppression.

« Nous avons toujours eu recours à un mélange d’humain et de technologie pour traiter les contenus violents sur notre plate-forme, et en 2017, nous avons commencé à appliquer une technologie d’apprentissage machine (machine learning) plus avancée pour signaler les contenus à examiner par nos équipes. Cette combinaison de technologie de détection intelligente et de modérateurs humains hautement qualifiés nous a permis d’appliquer nos politiques avec une rapidité croissante », explique la société. Enfin, 224 millions de commentaires ont supprimé de la plateforme qui compte plusieurs millions d’utilisations publiant « chaque trimestre des milliards de commentaires sous les vidéos ». La quasi-totalité (99,5 %) des commentaires supprimés a été détectée par les systèmes de signalement automatisé de YouTube.


Contenus associés

  • Cindy

    J’en ai fait les frais avec ma petite chaîne satirique et pamphlétaire. Le problème c’est que YouTube ne tient pas compte des signalements pour propos haineux et incitant à la violence. Comme Facebook ils ont tout axé sur la nudité, l’érotisme et la pornographie.
    Ma chaîne luttait efficacement contre les théories complotistes qui sont légion sur la plateforme, alors que YouTube laisse ce genre de chaîne répandre son poison en privant de réponse la partie adverse.

Partager cet article :

Attention, vous avez déjà 3 produits dans le comparateur : supprimez un de ces produits pour rajouter celui-ci au comparateur.