De nombreux utilisateurs de Facebook vont peut-être, dans les semaines qui viennent, être confrontés à une nouvelle notification. S'ils ont aimé, partagé ou commenté un message sur Facebook lié à la pandémie de Covid-19, et que ce message a été ensuite supprimé par les équipes de modération de Facebook en raison de son caractère dangereux, ils vont recevoir dans les deux semaines qui suivent un message les incitant à mieux s'informer sur la crise du coronavirus.
ffff

Cette notification suivant l'interaction contiendra un lien les redirigeant vers les sites officiels des autorités sanitaires ( comme ceux de l'OMS ou de ministères de la santé ).

Cette évolution du dispositif de crise de Facebook face aux contenus traitant du coronavirus, annoncée par communiqué jeudi 16 avril, est aussi évoquée dans un message posté directement par Mark Zuckerberg, le fondateur et dirigeant du réseau social.

Il s'y félicite du succès du portail « Centre d'information sur le coronavirus (Covid-19) » et des messages de prévention et d'information mis en avant par Facebook dans les flux d'actualité de ses utilisateurs. Ce sont en tout plus de 2 milliards de personnes sur Facebook et Instagram qui ont accédé grâce à cela à des informations officielles des autorités sanitaires, selon Facebook.

La direction de Facebook se réjouit également que « des centaines de milliers de contenus mensongers liés au Covid-19 » ont été supprimés du réseau social ces dernières semaines. Depuis janvier, dans le contexte de la pandémie, Facebook semble appliquer avec un zèle particulier sa politique de suppression des messages, photos ou vidéos postés par des utilisateurs ou des pages pouvant mettre en danger la santé ou la vie de ses utilisateurs : début mars, Mark Zuckerberg s'exprimait déjà pour indiquer que l'entreprise allait concentrer ses efforts contre « les informations fausses et les théories du complot identifiées par les principales organisations sanitaires ».

Parmi les messages supprimés directement par Facebook lorsqu'ils sont détectés : les « fausses affirmations à propos de remèdes ou traitements » contre le coronavirus ou « les affirmations selon lesquelles la distanciation sociale n'aide pas à lutter contre la propagation du coronavirus », comme le précisait un communiqué posté le 26 mars. En France, cela a pu concerner notamment les messages indiquant de manière trompeuse que les traitements à l'hydroxychloroquine sont efficaces contre le coronavirus.

Politique de succession

Cette politique de suppression, appliquée directement par les modérateurs de Facebook, se fait en parallèle du circuit mis en place pour lutter contre les fausses informations, développé par l'entreprise avec des partenaires ces dernières années. Le réseau social s'appuie pour cela sur un travail de vérifications mené par près de 60 rédactions et associations dans le monde entier ; en France, Le Monde et sa rubrique de vérification des faits, Les Décodeurs, en font partie.
Lorsque ces partenaires détectent qu'un message sur Facebook est potentiellement trompeur, ils lui apposent un label spécifique, qui a pour conséquence de dégrader la visibilité de ces messages dans l'environnement Facebook, et d'afficher un avertissement aux utilisateurs qui tomberaient tout de même dessus.
Jeudi 16 avril, Facebook indique avoir affiché de tels avertissements « sur plus de 40 millions de publications » postées par des utilisateurs du monde entier au cours du mois de mars. Ils ont été générés « sur la base de 4 000 évaluations de partenaires » vérificateurs d'informations. « Lorsque les utilisateurs voient ces étiquettes de mise en garde, dans plus de 95 % des cas, ils ne vont pas plus loin et ne consultent pas le contenu », ajoute le réseau social, pour qui il s'agit d'un signe de l'efficacité.

Une étude dénonce une modération inefficace

Tout ceci reste insuffisant, selon l'ONG Avaaz, dont un nouveau rapport - également publié jeudi - est en partie à l'origine du nouveau système de notification annoncé par Facebook. Cette étude, réalisée par une organisation spécialiste du militantisme en ligne et ayant déjà étudié la désinformation sur Facebook dans d'autres contextes (par exemple, celui de la mobilisation des « gilets jaunes » en France), démontre que les informations fausses ou trompeuses au sujet de la pandémie restent encore trop vues sur Facebook.

Pour arriver à ce constat, l'ONG a isolé 104 « mésinformations » au sujet du Covid-19, diffusées dans cinq langues (anglais, français, espagnol, italien et arabe). Selon Avaaz, ces publications ont été partagées 1,7 million de fois et ont donné lieu à environ 117 millions de consultations : une estimation que l'ONG estime être conservatrice.

Parmi ces 104 fausses informations figurent par exemple des indications fantaisistes sur les éléments qui protégeraient un individu du coronavirus (le fait d'être noir, utiliser de l'huile d'origan ou les décoctions à l'ail...). Mais, parmi ces messages, plusieurs dizaines ne comportaient aucun avertissement alors même que, parfois, l'information en question avait justement été démentie par au moins un des partenaires de Facebook en matière de « fact-checking ».

Par ailleurs, 25 publications identifiées par Avaaz pouvaient être considérées comme faisant courir un risque direct aux utilisateurs de Facebook. Deux ont été vite retirées. Après avoir été averti par l'ONG, Facebook en a ensuite supprimé dix-sept, et ajouté des indications selon lesquelles l'information était fausse ou trompeuse sur deux autres. Facebook n'a pas touché à quatre de ces publications.

« Pas représentatifs »

Ces constats sont à prendre avec des pincettes tant ils ont été réalisés sur un échantillon infime de messages trompeurs, comparé aux volumes de contenus ayant été supprimés. Facebook, dans une déclaration à la presse transmise jeudi, regrette ainsi que les messages étudiés par Avaaz ne soient « pas représentatifs de ce qu'il se passe sur Facebook » : « Leurs découvertes ne reflètent pas le travail que nous avons réalisé sur le sujet », réagit l'entreprise.

L'ONG, pour qui ces 104 messages étudiés constituent seulement « la partie émergée l'iceberg », considère à l'inverse que si elle avait eu « un mois ou deux de plus pour analyser davantage de contenus », elle aurait « trouvé des résultats très similaires », selon un porte-parole. Avaaz maintient ainsi que ses travaux restent révélateurs de plusieurs phénomènes :
  • Les fausses informations relatives au Covid-19 restent très présentes sur la plate-forme, malgré les efforts et les promesses des dirigeants ;
  • Le temps de réaction de Facebook est trop long : selon l'ONG, il s'écoule plusieurs jours entre le moment où une information apparaît, celui où elle est vérifiée et enfin le moment où le réseau social appose l'indication à destination de ses utilisateurs ;
  • La mauvaise articulation entre le réseau social et ses partenaires en fact-checking, qui rend possible la présence sur Facebook de contenus pourtant contredits par ses partenaires.