« 20 MINUTES » AVEC« L’esprit critique est plein de trous », lance le youtubeur Thomas Durand

« L’esprit critique est plein de trous… » Comment le youtubeur Thomas Durand fait de la pédagogie contre les idées reçues

« 20 MINUTES » AVECL’animateur de la chaîne YouTube La Tronche en biais publie « La Science des balivernes », un livre dans lequel où il se demande pourquoi nous croyons à certaines idées reçues
Ancien biologiste, Thomas C. Durand se consacre maintenant à l'esprit critique, notamment à travers la chaîne YouTube La Tronche en biais, qui réunit 228.000 abonnés.
Ancien biologiste, Thomas C. Durand se consacre maintenant à l'esprit critique, notamment à travers la chaîne YouTube La Tronche en biais, qui réunit 228.000 abonnés. - Hannah Assouline / éditions humainSciences / Hannah Assouline / éditions humainSciences
Mathilde Cousin

Mathilde Cousin

L'essentiel

  • Chaque semaine, 20 Minutes propose à une personnalité de commenter un phénomène de société dans son rendez-vous « 20 Minutes avec… ».
  • En quelques années, Thomas C. Durand a réuni, avec son complice Vled Tapas, 228.000 abonnés sur sa chaîne YouTube. Au programme, esprit critique appliqué au « bullshit ».
  • Le biologiste de formation vient de publier La Science des balivernes aux éditions Humensciences. Pour 20 Minutes, il explique pourquoi nous croyons à certaines idées reçues.

L’OMS recommanderait de faire 10.000 pas par jour. La muraille de Chine serait le seul bâtiment visible à l’œil nu depuis la lune. Ces idées reçues, le biologiste et écrivain Thomas C. Durand a choisi de les nommer « balivernes ». Dans le livre La Science des balivernes*, sorti il y a quelques jours, il se demande pourquoi nous croyons dur comme fer à certaines idées que l’on sait pourtant parfois fausses.

Pour 20 Minutes, Thomas C. Durand, qui co-anime également la chaîne « La Tronche en biais », très populaire sur YouTube, revient sur ces « balivernes » et sur les biais cognitifs, ces raisonnements de notre cerveau qui agissent sur notre quotidien sans que nous n’en ayons toujours conscience.

Pourquoi certaines idées s’imprègnent-elles plus que d’autres dans notre cerveau ? Vous citez l’exemple de la muraille de Chine, qui serait le seul bâtiment visible à l’œil nu depuis la lune, ou la phrase « on n’utilise que 10 % de notre cerveau »…

Attention, la plupart des choses que l’on entend et que l’on répète sont vraies. Mais il y en a d’autres qu’on répète parce que cela fait une bonne histoire, c’est agréable d’y croire. La baliverne au sujet de la muraille de Chine, par exemple. Eh bien Thomas Pesquet a encore pris une photo il y a quelques jours. Il dit qu’à l’œil nu, il ne la voit pas ! La baliverne est réfutée, mais ça fait une belle histoire, donc on va encore l’entendre.

Il y a de nombreuses « balivernes » qui touchent à la santé. Vous prenez l’exemple des pierres semi-précieuses, qui émettraient des énergies bonnes pour notre santé, ou la croyance selon laquelle il y a plus d’accouchements les soirs de pleine lune…

Le domaine de la santé est particulièrement riche en balivernes. On adore croire des choses sur la santé, sans doute parce que c’est un domaine très important et qu’on se sent souvent démuni en la matière. Croire certaines choses sur la santé, ça nous permet de nous imaginer que nous contrôlons un peu les choses. Les balivernes ont aussi un rôle pour nous rassurer, limiter le stress et, de ce point de vue, elles fonctionnent.

Il ne faut donc pas nécessairement porter un jugement négatif sur ces croyances. Mis à part lorsque la santé est en jeu, auquel cas il est préférable de croire des choses vraies.

Le livre est paru le 25 mai.
Le livre est paru le 25 mai. - Editions humainsScience

Certaines balivernes sont répétées à l’envi. Ne faut-il pas y voir un échec de l’esprit critique ?

On peut voir ça comme ça mais, encore une fois, la plupart des choses que l’on répète sont vraies : « 2 + 2 = 4 », « Paris est la capitale de la France ». Il ne faut pas que mon livre soit une brique en plus pour catégoriser les gens entre « gentils » et « méchants », au contraire !

Nous sommes tous à égalité devant les énoncés. Si on s’entraîne, nous pouvons tous résister un petit peu mieux aux énoncés trompeurs. Il n’y a jamais de garantie que l’on soit étanche au « bullshit » [aux mensonges]. Nous avons tous dans la tête des choses fausses que l’on ne veut pas questionner. La plupart du temps, ce n’est pas grave. L’esprit critique est plein de trous, mais il existe chez tout le monde !

Vous consacrez une grande partie du livre à ce qu’on appelle les biais cognitifs. Dans la vie quotidienne est-il est important de savoir que nous raisonnons avec ces biais ? Est-il important d’agir contre eux ou avec eux ?

On les voit chez les autres. Le but du bouquin, c’est de rappeler que cela existe chez tout le monde. Les biais ne sont pas des preuves que le cerveau est mal foutu. Ce sont juste des raccourcis mentaux qui, dans la plupart des situations, nous amènent à des conclusions qui sont proches de la réalité, assez proches pour que le raisonnement soit considéré comme étant valide.

Ces biais sont multiples. Nous n’y sommes pas sensibilisés au quotidien…

A l’heure actuelle, on ne sait pas encore comment on peut améliorer l’esprit critique des gens. Mais présenter les biais est une bonne piste. Il faut qu’on soit conscient des biais parce que ceux-ci sont exploités par le marketing. Si vous voulez vraiment ne pas être un mouton, il faut les connaître. Le marketing a des recettes, qu’il le sache ou non, qui tapent exactement dans les angles morts de la rationalité des gens pour obtenir d’eux qu’ils disent oui là où ils auraient dit non s’ils avaient vraiment jugé à la hauteur de leurs intérêts personnels.

Les gens qui sont un peu conspirationnistes, qui sont dans le rejet des théories officielles, ont tout intérêt à connaître les biais cognitifs. Ils sont dans une démarche où ils désirent ne pas être manipulés. Ils confondent ce désir avec cette idée : « C’est bon, puisque je ne veux pas être manipulé, je ne peux pas l’être. » Or dès qu’on en est sûrs, c’est un piège mortel, parce que l’on cesse d’être prudent.



Dans le livre, vous expliquez que ces biais se retrouvent dans de nombreuses situations, même là où l’on pourrait s’attendre à de l’impartialité. Par exemple, vous citez l’exemple d’une étude scientifique menée sur des décisions de justice en Espagne. Certaines décisions présentent un biais lié au réquisitoire, ou, dans le cadre d'un appel, aux condamnations précédentes. Le jugement final s’en trouve influencé…

Dans la plupart des situations, les humains ont intérêt à regarder comment les autres humains se comportent et à calquer leur comportement sur celui des autres. Si des personnes sont en train de courir en hurlant dans la rue, ce n’est pas pour rien, en général. Peut-être est-ce un canular, mais c’est une hypothèse un peu coûteuse. Il vaut mieux courir, parce que peut-être qu’il y a un fauve en liberté ou un fou furieux qui tire sur les gens.

En revanche, lorsqu’on est un juge, qu’on a des règles à suivre et qu’on devrait être objectif, il s’avère qu’on ne l’est pas, parce que l’être humain n’est pas objectif. Même les magistrats vont être un peu conservateurs dans le jugement et vont avoir tendance à suivre les jugements des autres.

Vous utilisez l’expression « penser contre soi-même ». Est-ce la méthode que vous recommandez pour se libérer des biais cognitifs ?

Il n’y a pas de méthode miracle. Les biais, vous ne vous en débarrasserez pas. La meilleure preuve, ce sont les illusions d’optique : même quand on sait ce que l’on a sous les yeux, parfois, on n’arrive pas à voir la réalité telle qu’elle est. Les biais cognitifs vont rester parce que le cerveau est fait comme ça.

Il y a des situations où on arrive à un jugement qui est faux, même quand on sait que c’est faux : on a des professionnels, à l’hôpital, qui croient qu’il y a plus de naissances les jours de pleine lune. Même si les données disent le contraire, ils ont le sentiment qu’ils l’ont vu, qu’ils ont vécu, que le lien de logique est réel.

Peut-on quand même avoir des signaux d’alerte ?

Les signaux d’alerte, ce sont les autres, les gens autour de soi. C’est pour ça qu’il faut s’intéresser aux gens qui ne pensent pas comme nous. On ne peut pas être que dans des cercles où nous sommes tous d’accord. Avoir un petit peu de désaccord avec nos amis, c’est la meilleure chose que l’on puisse faire. La solution, c’est aussi de ne pas croire qu’on est immunisé. Lire des bouquins sur les biais cognitifs ne vous empêchera pas d’en avoir !

Vous dites ne pas avoir envie d’être le chevalier blanc du rationalisme…

Nous sommes perçus comme ça, nous les zététiciens [ceux qui appliquent les méthodes scientifiques à des domaines sortant du champ habituel de la science], les sceptiques, en particulier parce que des gens qui se reconnaissent dans cette communauté ont une attitude de redresseurs de torts. Ils sont motivés par des bons sentiments et ils sont un peu trop tranchants dans leur jugement. Notre travail, ce n’est pas d’aller faire la guerre aux gens, c’est d’être dans la prophylaxie, dans l’éducation populaire, et d’aider les gens à se demander pourquoi ils pensent ce qu’ils pensent, parce que la plupart des gens n’ont pas envie de croire des bêtises.

Avez-vous des projets pour la chaîne YouTube ?

Nous avons un format qui s’appelle « La petite boutique des erreurs », où nous présentons des « fallacies » [des illusions], des sophismes sous un mode un peu amusant avec des personnages fictifs -un maître et son disciple qui font la chasse à des créatures bizarres que sont les fallacies. On va tourner cet été et ça va revenir à la rentrée.

Et nous faisons, tous les mois au moins, un live de deux heures où on reçoit des experts pour parler de différents sujets. On va parler de la foudre en boule, de cancer et médecine parallèle et surtout des idées reçues par rapport à cela, comment on est arrivé à telle conclusion.

* La Science des balivernes est paru le 25 mai aux éditions Humensciences.

Sujets liés