Un Bug facebook bloque des articles authentiques sur le Covid-19
- Ce qui parait être un bug dans les filtres anti-spam de Facebook empêche les utilisateurs de publier des articles légitimes sur le coronavirus (covid-19) et d’autres sujets.
- Dans un tweet, le vice-président de l’intégrité, Guy Rosen, a déclaré: « Nous y sommes – il s’agit d’un bogue dans notre système anti-spam, sans rapport avec les changements dans notre effectif de modérateur de contenu. Nous sommes en train de le réparer et de remettre en ligne tous ces messages. «
- On ne peut pas compter à 100% sur le travail des intélligences artificielles, ce bug facebook en est une preuve tangible.

Les systèmes de modération automatisés de Facebook semblent se détraquer. Un bug dans les filtres anti-spam
Beaucoup d’utilisateurs se sont plaints du fait que des liens vers des actualités concernant la fermeture d’écoles, les interdictions de vol et d’autres informations liées à l’épidémie du coronavirus (covid-19) avaient été bloquées par le filtre automatique de facebook.
Des publications pourtant légitimes, se font enlever des murs facebook après réception d’une notification indiquant que le contenu – parfois simplement un lien vers un article – viole les normes de la communauté Facebook. « Nous nous efforçons de limiter la propagation de spams parce que nous ne voulons pas autoriser les contenus conçus pour tromper, ou qui tente d’induire les utilisateurs en erreur … »


Facebook a déclaré qu’un bogue (bug) dans son système anti-spam a temporairement bloqué la publication de certains liens vers des actualités sur le coronavirus.
Lisez ces consignes et informations de l’OMS sur le Covid-19
Il est vrai que le problème peut aussi provenir du fait que les plateformes de médias sociaux s’efforcent de renforcer leurs filtres automatiques pour lutter contre la désinformation liée au Covid-19, mais sur les réseaux sociaux, certains flottent sur l’idée que la décision de Facebook d’envoyer ses modérateurs de contenu contractuels à la maison pourrait être la cause principale du problème.
Facebook rejette ces déclarations, et Guy Rosen, Vice Président de l’intégrité chez Facebook, a tweeté que « ceci est un bogue dans un système anti-spam, sans rapport avec les changements dans notre effectif de modérateur de contenu. » Rosen a aussi déclaré que la plate-forme travaillait à la restauration des messages.

Plus tard mardi soir, Rosen a tweeté que Facebook avait restauré toutes les publications incorrectement supprimées (sur le coronavirus et d’autres sujets)
On ne peut pas compter à 100% sur le travail des intélligences artificielles, ce bug facebook en est une preuve tangible.
Le problème sur Facebook nous rappelle que même les systèmes automatisés les plus avancés ont leurs imperfections et peuvent se détraquer à tout moment, et ce fait pourrait devenir plus évident à mesure que de plus en plus de sociétés, y compris Twitter et YouTube, dépendent de la modération automatisée du contenu pendant la pandémie du coronavirus (Covid-19).

Les entreprises disent qu’elles le font pour respecter la distance sociale, car nombre de leurs employés sont obligés de travailler à domicile. Cette semaine, ils ont également averti les utilisateurs qu’en raison de l’augmentation de la modération automatisée, davantage de messages pourraient être supprimés par erreur.
Dans un article de blog publié lundi, YouTube a déclaré à ses créateurs que la plate-forme se tournerait vers l’apprentissage automatique pour aider «une partie du travail normalement effectué par les évaluateurs».
La société a averti que la transition signifierait que certains contenus seraient supprimés sans intervention humaine, et que les utilisateurs et les contributeurs de la plate-forme pourraient voir certaines de leurs vidéos supprimées du site sans réellement violer les standards.
La société a également averti que «certains contenus non révisés peuvent ne pas être disponible via la recherche, sur la page d’accueil ou dans les recommandations».
De même, Twitter a déclaré à ses utilisateurs que la plate-forme s’appuiera à l’avenir de plus en plus sur l’automatisation et l’apprentissage automatique pour supprimer «les contenus abusifs et manipulés». La société à aussi reconnu que l’intelligence artificielle ne pourrait pas remplacer les modérateurs humains.
«Nous voulons être clairs: alors que nous travaillons pour assurer la cohérence de nos systèmes, ils peuvent parfois manquer du contexte que nos équipes apportent, ce qui peut nous amener à commettre des erreurs», a déclaré la société dans un article de blog.
Pour compenser les erreurs potentielles de ses systèmes de contrôle, Twitter a déclaré qu’il ne « suspendrait définitivement aucun compte « uniquement sur la base du travail des systèmes de contrôle automatisés ».
« Nous ne nous attendons pas à ce que cela ait un impact notable sur les personnes utilisant notre plate-forme », a déclaré Facebook, dans un communiqué. «Cela dit, cette approche peut présenter certaines limites et nous pourrions constater des temps de réponse plus longs et ainsi faire plus d’erreurs.»
Le passage aux modérateurs de l’IA n’est pas une surprise. Pendant des années, les entreprises technologiques ont proposé les outils automatisés comme un moyen sûr de compléter leurs efforts pour lutter contre les contenus offensants et dangereux qui peuvent se multiplier sur leurs plateformes.
Bien que l’IA peut faciliter et accélérer la modération du contenu, la technologie peut également avoir du mal à comprendre le contexte social des publications ou des vidéos et, par conséquent, apporter des jugements inexacts sur leur signification. En fait, la recherche a montré que les algorithmes qui détectent le racisme peuvent être biaisés contre les Noirs, et la technologie a été largement critiquée en raison de sa vulnérabilité aux prise de décisions discriminatoires.
Lisez Mes dernieres publications
- Le Glossaire SEO: Quelques Termes importants à connaître
- Le Rôle des OGD dans la Gestion des Destinations Touristiques
- Funny: L’emoji « drôle » de Linkedin est enfin là
- SEO: Comment fonctionnent les moteurs de recherche?
- Guerre en Urkraine: Le collectif de pirates Anonymous a déclaré la cyberguerre à la Russie
Vous pouvez trouver ici quelques publications qui ont été supprimées des murs facebook
Laisser un commentaire