Les algorithmes de recommandation de YouTube accusés d’être inutiles

Temps de lecture :2 Minutes, 13 Secondes

Les experts de Mozilla ont constaté que les actions des utilisateurs sur les vidéos YouTube n’affectent pas beaucoup le comportement des algorithmes de recommandation. The Verge écrit à ce sujet.

Les chercheurs ont analysé les comptes de plus de 20 000 utilisateurs de services qui ont installé l’extension RegretsReporter. Avec lui, les utilisateurs peuvent filtrer le contenu et masquer les vidéos indésirables.

Réduisez vos frais d’échanges
Les frais d’échanges peuvent représenter plusieurs centaines de dollars chaque année. Pour cette raison, les bons tradeurs cherchent à les réduire car ils peuvent impacter fortement leurs résultats. Vous aussi vous pouvez le faire grâce aux liens ci-dessous :

Selon Mozilla, les boutons Je n’aime pas, Pas intéressé et Ne recommande pas les vidéos de cette chaîne n’ont que peu ou pas d’effet sur le système de recommandation. Les utilisateurs ont continué à rencontrer des contenus similaires.

Les auteurs de l’étude soutiennent qu’au mieux, les algorithmes ne font pas face à la tâche et proposent plus de la moitié des vidéos inutiles dans le flux. Dans le pire des cas, l’effet des boutons est peu abondant.

En moyenne, l’option « Je n’aime pas » a influencé les recommandations dans 12% des cas, « Pas intéressé » dans 11%. Les boutons « Ne pas recommander les vidéos de cette chaîne » et « Supprimer de l’historique des vidéos regardées » se sont avérés plus efficaces : 43 % et 29 %, respectivement.

Les chercheurs pensent que le service vidéo devrait prêter attention au problème et recommander moins de vidéos indésirables dans le flux.

« YouTube devrait respecter les commentaires des utilisateurs sur leur expérience en tant que signaux significatifs sur la façon dont les gens veulent passer leur temps sur la plate-forme », ont-ils déclaré.

YouTube a critiqué les résultats de l’étude et a déclaré que Mozilla n’avait pas pris en compte de nombreux facteurs qui affectent le fonctionnement des algorithmes.

Selon la représentante de l’entreprise, Elena Hernandez, le système promeut délibérément certaines vidéos indésirables afin que les utilisateurs ne se retrouvent pas dans une bulle d’information.

« Il est important que nos contrôles ne filtrent pas des sujets ou des points de vue entiers, car cela peut avoir des répercussions négatives pour les téléspectateurs », a-t-elle déclaré.

Hernandez a noté que les boutons d’interaction vidéo et chaîne affectent des vidéos et des créateurs spécifiques, pas des sujets en général. Le service vidéo n’arrêtera pas de recommander tout contenu lié à un sujet, une opinion ou un orateur, a-t-elle ajouté.

Rappelons qu’en septembre 2022, des scientifiques ont annoncé une augmentation de la confiance des utilisateurs dans les modérateurs d’IA.

En octobre 2021, un ancien employé de Meta a accusé Facebook d’utiliser délibérément des algorithmes pour inciter à la haine à des fins lucratives.

Abonnez-vous aux actualités de ForkLog sur Telegram : ForkLog AI – toutes les actualités du monde de l’IA !

Vous avez trouvé une erreur dans le texte ? Sélectionnez-le et appuyez sur CTRL + ENTRÉE

Voir l’article original sur forklog.com