Facebook vient d’annoncer une série de mesures pour lutter contre la propagation de fausses informations sur son réseau social. Il aura fallu que Facebook soit accusé d’avoir facilité la victoire de Donald Trump aux élections pour que cette annonce très attendue arrive enfin.
Pourquoi voit-on autant d’intox sur Internet ?
Si vous vous demandez quel est l’intérêt de diffuser des intox (ou hoax), on fait le point rapidement :
Plus votre article est racoleur, plus il génère de vues. Plus il génère de vues, plus les publicités du site sont affichées et lui génèrent des revenus. Du coup, pour attirer toujours plus de monde, de nombreux sites peu scrupuleux n’hésitent pas à diffuser n’importe quoi, quitte à inventer de fausses informations.
Pour être sûrs de générer du trafic, ils diffusent ensuite leurs contenus via les plateformes publicitaires de Facebook. C’est ainsi que vous voyez apparaître des articles sponsorisés dans votre fil d’actualités, ou sur le côté droit.
Bien sûr, Facebook n’est pas la seule plateforme à fonctionner de la sorte, le même principe s’applique également sur le moteur de recherches de Google. Quand on connait le nombre d’utilisateurs de ces deux services, on imagine les conséquences que cela peut avoir…
Un jeu dangereux qui n’est pas sans conséquences
L’intox qui circule en abondance sur Facebook est un vrai problème, qui a dévoilé toute son ampleur lors de la dernière élection présidentielle américaine.
Prenons un exemple concret :
Les employés de la pizzeria « Comet Ping Pong », à Washington, ont été les cibles de menaces de mort à cause d’un article mensonger. Des articles publiés sur The New Nationalist ou The Vigilant dénonçaient un trafic d’enfants organisé par Hillary Clinton et son directeur de campagne dans l’arrière-boutique de la pizzeria.
On aimerait se tromper mais l’adage « plus c’est gros plus ça passe, et plus un mensonge est répété plus on en vient à le croire » est bel et bien avéré… Lors de la période électorale américaine, plus les informations diffusées étaient erronées, plus elles étaient commentées et partagée. Et chez Facebook, plus une information recueille d’interactions, plus elle est vue. On pourrait croire que ces articles représentent une quantité négligeable des informations qui circulent, or il n’en est rien : 39% des articles pro-Trump étaient mensongers, contre 19% des articles pro-Clinton.
La France n’est pas en reste, tous les jours, on peut voir passer des dizaines d’articles complètement fantasques sur l’actualité politique par exemple.
Facebook annonce une série de mesures
Accusé d’avoir facilité la victoire de Donald Trump, Facebook a décidé de réagir : Mark Zuckerberg a annoncé travailler à la mise en place d’un plan de lutte contre la diffusion de fausses informations sur son réseau social. Sept mesures ont été annoncées :
- Investir dans des technologies permettant de détecter les fausses informations avant même qu’elles soient signalées comme telle par les utilisateurs.
- Se faire aider par des journalistes ou par des organisations spécialisées dans la vérification des faits pour faire le tri de façon objective.
- Simplifier la procédure de signalement d’une fausse nouvelle par les utilisateurs du réseau social.
- Ajouter des stickers d’avertissements sur les publications signalées comme fausses pour prévenir les utilisateurs.
- Éviter d’afficher des articles d’intox parmi les articles suggérés sous une publication.
- Exclure les sites de désinformation de son réseau publicitaire.
- Durcir sa charte publicitaire pour empêcher les sites d’intox de gagner de l’argent par le biais d’annonces sur Facebook.
Interdire aux sites mensongers d’utiliser ses services publicitaires est une mesure phare du programme pour porter un coup dur aux intérêts économiques des annonceurs peu scrupuleux. Une mesure que le réseau social refusait de prendre auparavant.
En effet, les revenus publicitaires sont le fonds de commerce de Facebook qui diffuse au plus grand nombre les annonces les plus rentables. Et ce, quelle que soit la fiabilité de l’information.
Facebook avait déjà testé au printemps 2016 des développements permettant d’empêcher l’apparition de contenus mensongers sur les fils d’actualités des utilisateurs. Mais les résultats n’ont pas été assez concluants pour permettre un déploiement de la solution. Cette fois, Mark Zuckerberg se veut pragmatique et annonce d’ores et déjà que « certaines de ces idées fonctionneront, d’autre non ».
Sur le papier le projet est séduisant, mais faut-il s’inquiéter de potentielles dérives liées à l’arbitrage des informations diffusées ? Est-ce que le réseau pourrait être tenté de dévier de sa mission et orienter les informations diffusées ?
Rappelons que la majorité des Américains (comme des Français) s’informent via leurs fils d’actualités. Il est capital de prendre du recul sur toutes les informations qui circulent et de d’adopter le réflexe de toujours vérifier leurs sources. Quand on sait que beaucoup prennent encore au premier degré les infos des sites parodiques (comme le Gorafi), on se rend compte à quel point l’internaute, même averti, est une proie facile.