dimanche, janvier 12, 2014

La démocratie des crédules (G. Bronner)


Livre passionnant qui confirme (biais de confirmation de ma part !) un certain nombre d'intuitions que je n'avais pas creusées.

La thèse : l'abondance d'informations et le fait que chacun puisse s'exprimer sans validation créent une démocratie des crédules. C'est probablement une explication, au moins partielle, de ce que j'appelle la baisse d'intelligence des occidentaux.

La profusion d'informations libres (donc internet) augmente la crédulité en favorisant à outrance les théories farfelues.

Essayons de dresser la liste des différents effets qui expliquent les théories farfelues et leur succès :

Le biais de confirmation

Pour comprendre, il faut revenir sur la différence nette entre infirmation et confirmation.

La démarche logiquement correcte face à une théorie est l'infirmation. On a une théorie, on essaie de prouver qu'elle est fausse et, à mesure que ces tentatives échouent, la validité de cette théorie gagne en vraisemblance. Cependant, il suffit d'une seule preuve de  fausseté pour invalider la théorie en question.

Or, l'esprit humain ne fonctionne pas ainsi. Il cherche des confirmations, tout simplement par c'est intellectuellement plus économique. Si nous cherchions à prouver que chaque chose en laquelle nous croyons est fausse, pour en tester la robustesse, nous ne pourrions plus vivre. Alors que chercher une ou deux confirmations est assez facile.

Problème, la démarche de confirmation est erronée. Elle ne prouve rien.

On évalue à la grosse que, face à un problème, 90 % des gens cherchent une confirmation de leur solution préférée et seulement 10 % en testent la robustesse en cherchant une infirmation.

Une fois que l'on a compris cela, on peut continuer sur internet et la démocratie des crédules.


Un biais de confirmation renforcé

Pour n'importe quelle théorie, vous trouvez au moins cent pages qui vous prouvent que vous avez bien raison de penser ce que vous pensez.

De plus, les motivations des croyants et celle des non-croyants n'étant pas symétriques, pour n'importe quelle thèse fafelue, vous trouvez plus de gens qui se sont cassés le cul à écrire des pages web pour la défendre que pour l'attaquer.


Diffusion étendue grâce à internet

Internet permet une bien plus grande diffusion des théories les plus baroques. La masse a maintenant à sa disposition un éventail beaucoup plus étendu de propositions. Mais cette variété n'implique pas que de bons choix en résultent, c'est le noeud du problème.

La motivation des croyants

Les théories qui nous disent que la vérité est ailleurs sont extrêmement séduisantes : par effet de dévoilement, elles donnent un sentiment de supériorité à leurs tenants. Ils savent quelque chose que les autres, les imbéciles, les naïfs, les suppots du système, ne savent pas.

De plus, il y a un effet de soulagement. Le monde est complexe et incertain, c'est dur à suppporter. Une théorie complotiste soulage de la complexité (on a une théorie) et de l'incertitude (il y a une explication).

Serge Galam a bien illustré le fait qu'un noyau dur peut forcer l'indécision du majorité molle. Remarquons que c'est ce qui se passe avec le gouvernement Hollande sur un certain nombre de sujets dits sociétaux : les positions tenues sur la délinquance et l'immigration par exemple sont très minoritaires, mais elles sont portées par des gens motivés qui ont pris le temps de noyauter le PS (ce noyautage aurait sans doute été matériellement impossible si les associations n'étaient pas subventionnées) et, par ricochet, le gouvernement.

L'effet Fort

Charles Fort est un Américain qui a entrepris de "démontrer" n'importe quelle thèse suivant une technique simple : une accumulation d'arguments faibles. Chaque argument, examiné attentivement, ne tient pas la route. Mais l'accumulation fait que le récepteur moyennement motivé, qui ne va pas faire trop d'efforts pour démonter les arguments un à un, va finir par se dire «Tout ne doit pas être faux».

Avant internet, cette technique était d'efficacité limitée car passait par la diffusion d'un livre (on n'accumule pas des dizaines d'arguments dans une conversation).

Internet a donné un instrument de choix à cette technique, non seulement pour la diffusion, mais pour la construction : une page sur un sujet attire les arguments, qui s'accumulent naturellement.

C'est un trait qui me permet de me méfier au premier abord d'une page complotiste : l'accumulation d'arguments me met la puce à l'oreille. La vérité est souvent simple, et terne.

Comme par hasard

L'abus de "comme par hasard" est aussi un indicateur incitant à la méfiance : il sous-entend que les coïncidences n'en sont pas. Or, s'il y a une chose que le cerveau humain fait très très mal, c'est l'évaluation des probabilités, notamment conditionnelles (s'il se passe ça, quelle est la probabilité que ... ?). Malgré ce que peut en dire l'intuition, il y a de bonnes chances que les coïncidences soient, tout simplement, des coïncidences.

Exemple de "comme par hasard" : un journaliste maritime publie un roman en 1898 où un paquebot géant baptisé Titan fait naufrage en avril en percutant un iceberg et on manque de canots de sauvetage. coïncidence troublante avec le naufrage du Titanic censée illustrer l'existence de prémonitions surnaturelles.

La coïncidence est nettement moins troulante en prenant en compte les éléments suivants : les paquebots géants étaient à la mode, les dimensions du Titan varient de 50 % par rapport à celles du Titanic (donc on ne peut pas dire que la prémonition brillait par son exactitude), les causes de naufrage d'un paquebot géant sont relativement limitées, que l'auteur ait pensé à l'iceberg n'est pas étonnant (et comme ils sont dangereux dans une période très limitée, on a la date). Le problème des canots de sauvetage était connu : leur nombre était fixé par le tonnage et non par l'effectif. Quant au nom, Titan, il est dans la série des noms à la mode, le prédécesseur du Titanic était le Gigantic.

Mais voilà, pour démonter l'argument du livre prémonitoire, il faut plus travailler que pour l'émettre. Cette asymétrie porte en elle la victoire des croyants par usure.

Trop de concurrence tue l'information

Depuis internet et les télés en continu, la fraicheur d'un scoop ne se compte plus en jours ou en heures mais en minutes. Le journaliste n'a donc plus le temps de vérifier l'information.

Et si, avec intelligence et courage, le journaliste suspend son jugement le temps de vérifier l'information, cela ne lui rapporte rien : le discrédit d'une information fausse tombe sur toute la profession indistinctement. En revanche, si l'information est vraie, il est en retard sur ses collègues s'il a perdu du temps à vérifier. C'est un dilemme du prisonnier où tout le monde perd.

L'affaire Baudis est exemplaire : le témoignage complet de l'accusateur ne laissait guère de doutes sur le fait qu'il était mythomane (il se présentait comme le fils caché de Michael Jackson, violé par Nicolas Sarkozy !). Les télés ont préféré diffuser la partie du témoignage qui paraissait vraisemblable plutôt que de perdre du temps à vérifier.

Le problème de l'offre

L'offre internet n'est pas équilibrée. Non seulement, un indécis trouvera de quoi confirmer n'importe quelle thèse idiote, mais il y a des chances que les tenants de cette thèse soient prépondérants par rapport à ses opposants.

L'effet est que l'indécis aura tendance à pencher du coté des plus motivés, plus nombreux à s'exprimer.

La science en danger

Les effets néfastes de cette ultra-démocratie où chacun donne son avis à tort et à travers sont particulièrement visibles dans le domaine scientifique : les peurs sont grandes et les connaissances petites. Le grand n'importe quoi menace.

Exemple : Orange installe une antenne-relais sur un immeuble. Les locataires commencent à se plaindre de divers maux, attribués à cette antenne. On évoque un dépôt de plainte. Renseignement pris, l'antenne n'est pas branchée, il manque un boitier électronique !

Cette peur de la science aboutit au calamiteux principe de précaution.

Exemple : l'eau de Javel n'est plus utilisée dans les hôpitaux occidentaux par peur d'éventuels effets cancérigènes. Tremblement de terre en Haïti. 5 000 morts à cause du choléra en quelques semaines. Les ONG se décident enfin à utiliser exceptionnellement l'eau de Javel. Disparition du choléra.

La peur d'éventuels effets cancérigènes de l'eau de Javel a couté 5 000 morts.

La démocratie délibérative ?

Parmi les solutions proposées à tous ces biais, il y a la démocratie délibérative. On part de l'idée que les gens peuvent avoir des idées fausses au départ mais que de la discussion jaillit la lumière.

Hélas, quiconque a déjà pratiqué une assemblée sait que ce sont les grandes gueules qui entrainent la majorité et non les raisonnables.

Monter le niveau d'éducation ?

Il y a un présupposé, totalement faux, que la peur et la crédulité viennent du manque de connaissance et d'éducation. (Parenthèse politique : on nous dit que la xénophobie vient de la «méconnaissance de l'Autre», sous-entendu, elle est déraisonnable. Mais non, elle peut très bien venir, au contraire, de ce qu'on le connaît, être très raisonnable).

On a prouvé maintes fois que, au contraire, le niveau de crédulité augmente avec le niveau d'études, tout simplement parce qu'on a l'esprit plus ouvert à des idées originales.

C'est particulièrement vrai pour les littéraires (désolé s'il y en a parmi mes lecteurs) qui sont assez éduqués pour savoir que la science peut se tromper mais pas assez formés pour porter par eux-mêmes un jugement solide. Ils ont donc tendance à traiter tout énoncé scientifique comme une croyance parmi d'autres.

Par exemple, on trouve dans un exercice pour sociologues en herbe un énoncé demandant de traiter U=RI comme une croyance !

Le résultat, affligeant : c'est parmi cette population (qui constitue la grande majorité de ceux qui causent dans le poste, journalistes, politiciens, etc.) qu'on trouve le plus de gens croyant à l'astrologie et à l'homéopathie. De là, on peut facilement glisser à d'autres croyances moins inoffensives.

Le bon esprit critique

Le mauvais esprit critique est celui qui cède à une théorie à cause de nos biais cognitifs. Par exemple, il adopte les hypothèses fumeuses sur l'attentat du 11 septembre parce qu'il n'évalue pas correctement la probabilité d'une telle occurrence et il s'oblige à imaginer un complot caché.

Le bon esprit critique est celui qui adopte une théorie après avoir combattu nos biais cognitifs.

Une bonne nouvelle, une mauvaise nouvelle

La bonne nouvelle : le bon esprit critique s'éduque. On peut même dire que toute formation scientifique est un effort pour obtenir des raisonnements délivrés des biais cognitifs.

La mauvaise nouvelle : cette éducation est très limitée. Dans le temps : si on ne pratique pas régulièrement, on retombe vite dans les biais cognitifs. En étendue : on peut avoir des raisonnements admirables dans un  certain domaine et totalement stupides dans un autre. On ne manque pas de grands scientifiques qui ont des raisonnements politiques crétins, quand ils ne sont pas criminels.


Un mot personnel sur littéraires et scientifiques

En tant que scientifique de formation, j'éprouve un  mépris certain pour les littérateurs dès qu'ils sortent de leur étroit domaine. Ce sont des gens qui, à mes yeux, se payent de mots. Pour eux, un bon mot vaut un bon raisonnement. Une pirouette lexicale ou une fantaisie grammaticale remplacent des heures de réflexion.

Cependant, les meilleurs, comme Stendhal ou Simon Leys, par goût du mot juste, atteignent une rigueur plus que scientifique.


Un drame sans solution ?

Bronner propose une meilleure éducation aux biais cognitifs des populations à risque, les journalistes en priorité. Par exemple, si les journalistes avaient eu un cours sur la propagation des légendes urbaines seraient-ils tombés si vite dans le piège de l'affaire Baudis ?

Il reconnaît qu'il ne faut pas trop attendre de cette démarche.

En revanche, il a une autre proposition, fort intéressante à mes yeux parce qu'elle rejoint certaine de mes réflexions : favoriser les cercles de réflexion de proximité, les sociétés savantes.

En économie, Jean-Jacques Rosa explique que les empires étaient rendus nécessaires par la rareté et la cherté de l'information, qu'il fallait de grandes bureaucraties pour collecter et exploiter une information rare. Inversement, en nos temps d'information quasi-gratuite, il faut des structures légères pour l'exploiter au plus vite : plutôt Singapour que l'URSS.

Il me semble qu'on peut retrouver par la voie des biais cognitifs le même type de préconisation.

Dans un monde d'informations débordantes et instantanées où tout le monde peut et veut donner son avis, plus la communauté est grande, plus la loi de la moyenne est susceptible de donner la victoire aux biais cognitifs. Autrement dit, les décisions stupides sont inéluctables.

En revanche, dans une communauté plus étroite, les voix singulières sont moins étouffées par le nombre et il y a encore une chance qu'elles puissent vaincre les biais cognitifs.





Aucun commentaire: