L’expérience tirée des réseaux sociaux montre qu’il est possible d’apprendre à des millions d’utilisateurs à reconnaître de la mésinformation et à l’éviter.
Les plateformes de réseaux sociaux tentent de lutter contre les fausses allégations ou de les discréditer. Toutefois, la mésinformation cause plus de dommages que jamais. Elle influence tout, depuis les élections à la santé publique, en passant par le traitement des immigrants et des réfugiés.
En collaboration avec Jigsaw, un département au sein de Google qui lutte contre les menaces auxquelles sont confrontées les sociétés ouvertes, une équipe de chercheurs de l’université de Cambridge et de l’université de Bristol au Royaume-Uni ont présenté une solution simple qu’ils appellent «prebunking» dans la revue «Science Advances». Le «prebunking» consiste à simplement inoculer aux personnes certaines compétences de base en matière de pensée critique relative à la mésinformation. Cette approche repose sur la théorie de l’inoculation psychologique qui explique comment nos attitudes ou nos croyances peuvent être protégées contre la persuasion ou l’influence tout comme nos corps peuvent l’être contre des maladies.Afin de démontrer qu’un seul visionnage d’un clip vidéo permet d’améliorer la sensibilisation à la mésinformation, les chercheurs ont mené une étude auprès de 30 000 participants sur YouTube. Ils ont créé et téléchargé dans des créneaux publicitaires une série de brèves vidéos d’animation passant en revue différentes communications manipulatrices destinées à propager de fausses informations.
Les résultats ont montré l’efficacité du «prebunking». Indépendamment de facteurs tels que le niveau d’instruction et les traits de personnalité, le visionnage de brèves vidéos d’inoculation a amélioré la capacité des sujets à identifier les méthodes de manipulation fréquemment utilisées dans la mésinformation en ligne. Ils distinguaient bien mieux les fausses informations qu’auparavant.
«Notre recherche apporte la preuve de concept nécessaire selon laquelle le principe de l’inoculation psychologique peut facilement être étendu à plusieurs centaines de millions d’utilisateurs dans le monde», commente le coauteur Sander van der Linden, professeur et responsable du Social Decision-Making Lab à Cambridge qui a mené l’étude, dans un article publié par la même université.
«La mésinformation nocive se présente sous de nombreuses formes, mais les tactiques et les discours de manipulation sont souvent répétés et peuvent donc être prédits», explique la coauteure Beth Goldberg, responsable de la R’D pour le département Jigsaw de Google. «Apprendre aux personnes des techniques comme les attaques ad-hominem qui visent à les manipuler peut les aider à mieux se protéger contre la mésinformation et éviter de la propager à l’avenir. Nous avons montré que les publicités vidéo comme moyen de transmission des messages de “prebunking” peuvent servir à atteindre des millions de personnes, avant même que les discours nocifs ne gagnent du terrain.»
«La propagande, les mensonges et les mauvaises orientations s’inspirent presque toujours du même manuel stratégique», ajoute le coauteur Stephan Lewandowsky, professeur à l’université de Bristol. «Les vérificateurs de faits ne peuvent réfuter qu’une fraction des mensonges qui circulent en ligne. Nous devons apprendre aux personnes à reconnaître le manuel stratégique de la mésinformation, afin qu’elles comprennent quand elles sont induites en erreur.»Google utilise déjà ces conclusions à bon escient. Jigsaw mènera une campagne de «prebunking» en République tchèque, en Pologne et en Slovaquie afin de lutter contre la mésinformation relative aux réfugiés ukrainiens. Toutefois, les citoyens se montrent très sceptiques et ne font pas vraiment confiance aux entreprises technologiques.
«Mais, en fin de compte, nous devons faire face à la réalité, à savoir que les entreprises de réseaux sociaux contrôlent une grande partie du flux d’information en ligne. Par conséquent, afin de protéger les personnes, nous avons imaginé des solutions indépendantes, fondées sur des données probantes que les entreprises de réseaux sociaux peuvent effectivement mettre en œuvre sur leurs plateformes», explique Sander van der Linden à la «BBC». «Selon moi, laisser les entreprises de réseaux sociaux livrées à elles-mêmes ne permettra pas de générer le type de solutions qui responsabilisent les personnes et les aident à repérer la mésinformation qui se propage sur leurs plateformes.»