Views: 386
par Brigitte Axelrad – SPS n°300, avril 2012, publié par l’AFIS
Sommaire de la page
Comment lutter efficacement contre les mythes et les légendes urbaines [1] ?
« Le Coca-Cola en grande quantité peut être mortel, parce qu’il contient du dioxyde de carbone (CO2) ».
« Les vaisseaux du programme Apollo ne se sont jamais posés sur la Lune, il s’agit d’une mise en scène filmée dans les studios d’Hollywood.
« Les technologies sans fil augmentent l’apparition de l’autisme chez les enfants. » Ou encore
« Le vaccin ROR est une des causes de l’autisme. », etc.
Qui n’a jamais été victime de légendes urbaines, de rumeurs ou de mythes, qui se répandent comme une traînée de poudre par le bouche à oreille et par Internet, et franchissent la barrière des frontières et des langues ?
Ces mythes et légendes sont des croyances qui paraissent au premier abord erronées à un esprit averti, mais qui sont souvent tellement enracinées dans la mentalité collective qu’il est difficile de les déloger et d’éliminer leur influence, parfois pernicieuse, sur les comportements. Par exemple, beaucoup de parents ont refusé de faire vacciner leur enfant par le ROR (rubéole, oreillons, rougeole) de crainte qu’il ne devienne autiste. [2] En plus d’exposer ces enfants à la rougeole, cette peur est en partie responsable de la recrudescence de cette maladie dans les pays concernés.
John Cook et Stephan Lewandowsky [3], tous deux spécialisés dans le domaine des neurosciences, viennent de publier un guide de huit pages, The Debunking Handbook (Le guide de la démythification), dont l’objectif est de faire comprendre aux scientifiques et aux vulgarisateurs que ce qui doit être considéré comme important, c’est moins ce que pensent ou croient les gens que comment et avec quelle intensité ils le croient ou le pensent.
Gare au « biais de confirmation » !
Dans un article de l’Agence Science Presse, intitulé « La vulgarisation en retard sur la psychologie » du 8 janvier 2012, Pascal Lapointe écrit que les vulgarisateurs scientifiques sont souvent eux-mêmes victimes d’un mythe, celui du « syndrome du déficit de connaissance » [4] qui pré-suppose que le public est ignorant, et que, pour déraciner les croyances, les « démythifier », il suffit de lui apporter plus de faits, plus d’informations. Ainsi, il finira par voir la lumière et une relation plus saine surgira entre la science et le public. Pourtant, cela peut produire un contre-effet qui est de renforcer le mythe. Pour ébranler une croyance, il ne suffit pas de la bombarder de faits.
En effet, la pensée est sélective et a tendance à chercher et retenir ce qui confirme les croyances et à ignorer ou sous-estimer ce qui les contredit. C’est ce qu’on appelle le « biais de confirmation ». Ce processus cognitif s’explique de deux façons : il nous permet de traiter plus vite l’information parmi une foule d’informations données, ce qui est positif ; mais comme nous n’aimons pas nous tromper, nous préférons ne pas chercher l’erreur, ce qui est un obstacle à la connaissance.
Alors comment communiquer efficacement ? Il semble qu’il faille se libérer de la représentation de la cruche pleine, qui serait le savoir et ceux qui le détiennent, et de la cruche vide, le public souvent désinformé. Communiquer efficacement, ce n’est pas remplir la cruche vide avec la cruche pleine. C’est se mettre à la place du public, prendre en compte ses préjugés, ses attentes et l’état de sa connaissance et ajuster son discours à l’auditoire.
C’est justement cette méthode que propose The Debunking Handbook.
La méthode proposée par John Cook et Stephan Lewandowsky
Les auteurs partent d’un constat : démythifier les mythes est un problème plus ardu qu’il n’y paraît. On peut facilement arriver à l’effet inverse, c’est-à-dire renforcer par inadvertance les mythes que l’on cherche à corriger.
Le mythe est persistant, même après avoir été corrigé. D’après une étude publiée dans le « Journal of Consumer Research », on a remis à des sujets un dépliant pour démythifier la résistance psychologique au vaccin contre la grippe. Trente minutes après la lecture du dépliant, une partie des sujets reste fortement persuadée que le vaccin est dangereux. [5]
En 2011, dans « Psychonomic Bulletin & Review », John Cook et Stephan Lewandowsky ont proposé une méthode d’analyse du phénomène suivant : une information encodée dans le cerveau comme étant vraie continuera d’influencer la mémoire et le raisonnement, même après avoir été démontrée fausse. [6]
Les auteurs du livret proposent une stratégie d’information en 6 points :
Éviter que le public se familiarise avec le mythe.
Lorsqu’on cherche à le corriger, il faut éviter de le mentionner et mettre l’accent sur les faits plutôt que sur le mythe.
Rendre l’information facile à traiter.
Contrairement à la tendance habituelle des vulgarisateurs scientifiques, John Cook et Stephan Lewandowsky recommandent de présenter un contenu simple en sacrifiant la complexité et les n
uances, d’utiliser un langage clair, des phrases courtes, des sous-titres, des paragraphes. En anglais, ce principe se résume par le mot KISS, Keep It Simple, Stupid. Plus l’information sera facile à traiter par l’auditeur, et plus il sera en mesure de la reconnaître comme fondée. Toutefois, pour s’adapter à des auditoires différents, on peut avoir trois versions de son argumentaire, une version simplifiée avec des textes courts et des graphiques, une version intermédiaire, une version avancée en langage plus technique avec des explications plus détaillées.
Ne pas en faire trop.
Le communicateur scientifique s’imagine qu’en fournissant beaucoup de contre-arguments, il aura plus de succès dans la démythification. C’est l’inverse qui se produit. Le moins peut être le plus efficace. Par exemple, trois arguments permettent souvent mieux de corriger une croyance que douze arguments, qui finissent par renforcer la croyance initiale.
Tenir compte du cadre de référence du public.
Les processus cognitifs amènent souvent les gens, à leur insu, à traiter l’information de manière biaisée. Lorsque vous essayez de convaincre un auditeur en lui présentant des arguments qui vont à l’encontre de son cadre de référence, il va déployer toute son énergie pour en trouver d’autres qui contredisent votre démonstration. Il s’agit cette fois du « biais de non confirmation ».
Quand le mythe est déboulonné, un vide est laissé dans l’esprit.
Il faut le combler par une explication plausible. Par exemple, le CO2 contenu dans le Coca-Cola se trouve aussi dans les eaux gazeuses. Si le Coca-Cola à haute dose était mortel, toutes les eaux gazeuses le seraient aussi…
Utiliser des graphiques.
Ils sont un outil particulièrement efficace dans la lutte contre les mythes. Quand les auditeurs convaincus veulent réfuter vos arguments qui contredisent leurs croyances, ils se saisissent des ambigüités pour conforter leur interprétation. Les graphiques fournissent moins de possibilités de mauvaise interprétation ou de contradiction.
Ceux qui vulgarisent la science et qui déboulonnent les mythes ont tout intérêt à s’appuyer sur la psychologie et ses collaboratrices des temps modernes, les neurosciences. Gaston Bachelard, en 1937, dans La formation de l’esprit scientifique, disait déjà des professeurs de sciences : « Ils n’ont pas réfléchi au fait que l’adolescent arrive dans la classe de physique avec des connaissances empiriques déjà constituées : il s’agit alors, non pas d’acquérir une culture expérimentale, mais bien de changer de culture expérimentale, de renverser les obstacles déjà amoncelés par la vie quotidienne. ». Ceci est toujours vrai pour un grand nombre de vulgarisateurs scientifiques : « Ils ne comprennent pas qu’on ne comprenne pas. Peu nombreux sont ceux qui ont creusé la psychologie de l’erreur, de l’ignorance et de l’irréflexion. »
Notes
[1] K-I-S-S, qui veut dire « embrasser » en anglais est un acronyme humoristique de « Keep It Short and Simple » et de « Keep It Simple, Stupid », principe qui affirme que la plupart des systèmes fonctionnent mieux s’ils sont simples, plutôt que complexes, et que la simplicité devrait donc être un objectif clé dans la conception, alors que la complexité devrait être évitée.http://www.barrypopik.com/index.php…
[2] « Silence, on vaccine… »
[3] John Cook a créé et dirige la revue Skeptical Science. Stephan Lewandowsky enseigne les sciences cognitives à l’University of Western Australia.
[4] [www.sciencepresse.qc.ca/blog…]
[5]Skurnik, I., Yoon, C., Park, D., & Schwarz, N. (2005). How warnings about false claims become recommendations. Journal of Consumer Research, 31, 713-724.
[6] Ecker UK, Lewandowsky S, Swire B, Chang D. « Psychonomic Bulletin & Review », juin 2011, www.ncbi.nlm.nih.gov/pubmed/21359617