Nous utilisons des cookies sur nos sites web. Des informations sur les cookies et sur la manière dont vous pouvez vous opposer à leur utilisation à tout moment ou mettre fin à leur utilisation sont disponibles dans notre Déclaration de protection des données.
Comment YouTube a boosté son trafic en promouvant des contenus toxiques
Applications 3 min de lecture 1 commentaire

Comment YouTube a boosté son trafic en promouvant des contenus toxiques

Qu'est-ce qu'il y a de si bien sur YouTube ? La plateforme permet à n'importe qui de télécharger et de partager ses vidéos avec le monde entier. Qu'est-ce qui est mauvais ? Elle permet à n'importe qui de télécharger et de partager ses vidéos avec le monde entier. La prolifération de contenus dont les cibles sont douteuses, comme les fakes news, les théories du complot et d'autres beautés à l'ère de l'information, n'a rien de nouveau, mais ce que certains dénoncent maintenant, c'est la façon dont la société aurait traité cette question pendant une longue période de temps.

Pendant des années, YouTube aurait ignoré les demandes de ses employés pour signaler et télécharger des vidéos "toxiques" à partir de sa plateforme. La raison ? Augmenter le trafic. Selon plus de 20 employés (anciens et actuels) de l'entreprise, le personnel aurait fait des propositions pour empêcher la propagation de contenus perturbateurs, faux, extrémistes et/ou promouvoir des théories du complot. Toutefois, YouTube aurait fait la sourde oreille à de telles propositions afin de ne pas passer à côté des points de vue exprimés.

Par exemple, l'une des propositions suggérait de supprimer les vidéos problématiques ou limites de l'onglet "Recommandation". Selon un ancien ingénieur d'entreprise, YouTube a rejeté la proposition en 2016, recommandant des vidéos aussi controversées soient-elles. Selon les employés, l'objectif interne était d'atteindre un milliard d'heures de visionnage par jour.

AndroidPIT youtube
Une plateforme pour les fake news ? YouTube aurait détourné le regard pendant des années. © AndroidPIT

Les employés ne faisant pas partie de l'équipe de modération ont également indiqué que l'entreprise les avait découragés de chercher des vidéos toxiques sur la plateforme, car les avocats auraient dit que la responsabilité de YouTube serait plus grande si ses employés connaissaient et signalaient l'existence de ce contenu.

Au moins cinq employés supérieurs ont quitté YouTube en raison de leur réticence à régler ce problème. Selon l'une des anciennes employées, la directrice exécutive Susan Wojcicki "n'a jamais été au-delà", affirmant que son travail était de "faire avancer l'entreprise" et non de traiter des informations incorrectes ou des contenus dangereux. Un porte-parole de YouTube a déclaré que l'entreprise a commencé à prendre des mesures fin 2016. Cependant, à fin de l'année 2017, le département "Confiance et Sécurité" ne comptait plus qu'une vingtaine d'employés.

En 2018, le site a commencé à essayer de freiner les fake news et les théories du complot avec une boîte de texte informative, et cette année a décidé d'éliminer la publicité de contenu potentiellement dangereux. En plus de rassurer le public, par une annonce faite le 25 janvier de cette année, que moins de vidéos défendant les théories du complot seront recommandées.

Tout porte à croire que YouTube tente de rectifier la situation, mais il semble qu'il soit un peu tard et qu'il n'ait pas présenté une stratégie cohérente pour traiter la question dans toute sa complexité. Si la plateforme veut empêcher la prolifération de vidéos problématiques, elle devra traiter un problème essentiel comme la modération de contenu.

Êtes-vous surpris par la situation ?

1 commentaire

Ecrire un nouveau commentaire :
Tous les changements seront sauvegardés. Aucun brouillon n'est enregistré pendant l'édition