Je pensais voir un ami demain, il a dû annuler; je pensais vivre dans un pays stable, l’Europe est ébranlée par la guerre; je voulais me promener, mais je suis tombé malade. Une rapide réflexion nous fait entrevoir que rien dans notre monde n’est assuré. Ce que nous pensions acquis depuis l’école est faux: Molière n’est pas mort sur scène, les médiévaux ne croyaient pas que la Terre est plate, les autruches n’enfoncent pas leur tête dans le sable, etc. Internet rajoute à notre incertitude. On y trouve tout et son contraire. Tout le monde peut écrire et il y a autant de vrai que de faux; l’information nous parvient en continu et nous n’avons plus le temps de la traiter. Dans cette masse, on parle de désinformation et de besoin… de réinformation! C’est à y perdre son latin.
Mais s’il n’existe aucun savoir qui ne puisse être remis en question, faut-il pour autant tomber dans un relativisme sceptique selon lequel rien n’est vrai et dans lequel toutes les opinions se valent? Ou, au contraire, existe-t-il des «vérités scientifiques» qui puissent assurer certaines de nos croyances?
Le besoin de contrôle
Nous ne pouvons pas vivre longtemps dans un environnement instable et peu sécurisé. Dans ce cas, les psychologues observent un mécanisme de défense psychologique assez commun: face à la complexité du monde, l’homme éprouve le besoin de contrôler son environnement en le simplifiant, parfois à l’extrême: d’un côté, les gentils, dont il fait partie, de l’autre les méchants qui veulent le tromper. Cette vision dichotomique aide les personnes à retrouver une forme de sécurité et diminue leur anxiété.[2]
L’absence de nuances et de diversité d’opinions fait cependant que ces personnes sont plus facilement sujettes à croire toute explication qui corrobore leur vision. Ainsi certaines tombent-elles dans les théories du complot. Au lieu d’essayer de comprendre la complexité, elles tentent d’adapter le monde à leur vision; toute justification qui va dans ce sens est considérée vraie, même si elle paraît farfelue. Les défenseurs de la théorie du complot justifient ainsi le plus souvent leurs positions et sont persuadés de leur bienfondé.
N’en va-t-il pas de même finalement pour toutes nos croyances? La science elle-même n’est-elle pas une justification que nous estimons vraie, mais qui se trompe parfois? Ainsi une justification ne suffit pas à prouver la véracité de notre propos, et ce point nous interroge sur le bien-fondé de nos propres croyances.
Opinion, foi et science
Le philosophe allemand Emmanuel Kant propose de distinguer trois degrés de croyances: l’opinion, la foi et la science.[3] L’opinion est le degré de croyance le plus bas. Il s’agit souvent d’un discours rapporté: «J’ai lu un article qui dit que…», «un ami m’a dit que…», «la majorité des gens pensent que…», etc. De plus, sa justification est faible ou, plus exactement, elle est vraisemblable, c’est-à-dire qu’elle a la semblance du vrai mais n’est pas (encore) vérifiée par des faits, par des raisons objectives.
Le deuxième degré de croyance est celui de la foi. Celle-ci est un entre-deux qui n’a ni la faiblesse d’une opinion (car si je peux changer d’opinion, la foi semble plus assurée), ni la force de la certitude scientifique (car je ne peux pas la prouver rationnellement). Il s’agit d’une conviction, d’une évidence qui concerne l’expérience intime. Elle est subjective, c’est-à-dire propre à chacun, et pour cette raison je ne peux ni réellement l’expliquer ni surtout l’imposer aux autres.
Enfin le degré de croyance le plus fort est celui de la science. Celle-ci produit une certitude car elle n’est pas seulement personnelle (comme la foi) et vraisemblable (comme l’opinion), mais elle tend vers une objectivité et une universalité, c’est-à-dire à être valable pour tout le monde, en tout temps et en tout lieu. Par exemple, la loi de la gravité fait que tous les corps qui ont une masse s’attirent, peu importe où ils se trouvent et de quoi ils sont composés. Du fait de cette universalité, il est légitime de poser et d’imposer la science comme vraie.
Cela dit, la science reste une croyance. En effet, elle progresse et il arrive que des choses que nous croyions vraies, parfois même durant des siècles, s’avèrent être fausses. Se demander si la science ne serait finalement pas qu’une opinion parmi d’autres est donc légitime.
C’est là que le besoin de nuance se fait sentir. La science peut être considérée comme vraie car «dans l’état actuel de nos connaissances», elle l’est. Elle peut être envisagée comme une autorité que nous pouvons aisément suivre, puisqu’elle contient un haut degré de certitude qui s’appuie sur des faits objectifs et donc universellement valables. Mais comme la certitude n’est pas la vérité (mais notre rapport de croyance à elle), il est possible que les positions scientifiques changent. Cela ne signifie pas pour autant que la science affirme tout et son contraire. Elle permet d’éliminer les hypothèses qui sont fausses et de progresser ainsi vers la vérité. Elle ne peut donc pas changer du tout au tout.
On peut ainsi affirmer qu’il existe une exactitude scientifique qui peut emporter notre adhésion. Certains objecteront que les scientifiques ne sont pas toujours d’accord entre eux. Mais n’est-ce pas là le propre de la science? Pour progresser vers le savoir, tout scientifique a besoin de soumettre à la critique de ses pairs les résultats de sa recherche. C’est dans ce débat d’idées et de contrôle par les autres experts que le vrai se dégage. Ainsi toute publication scientifique est un work in progress. Cela ne signifie pas que son contenu est faux, mais juste qu’il n’est pas une vérité absolue; qu’il est la vérité dans l’état actuel de notre savoir.
Les biais de connaissance
Les philosophes des sciences ont relevé certains biais de connaissance qui permettent de mieux saisir notre rapport à la certitude. Etienne Klein l’explique brillamment dans un petit ouvrage nommé Le goût du vrai.[4] De ce livre, je ne retiens ici que de deux effets psychologiques: l’ultracrépidarianisme et l’effet Donning-Kruger.
Sous le terme barbare d’ultracrépidarianisme se cache une expression latine: sutor, ne ultra crepidam, que l’on pourrait traduire par «cordonnier ne coud pas plus loin que la semelle». Il semble, en effet, faire peu de sens que le cordonnier, lorsqu’il fabrique une chaussure, se mette à dépasser et à la coudre plus loin que la semelle. Pourtant, c’est une tendance générale de croire que parce que l’on possède des compétences réelles dans un domaine, on en possède dans d’autres également. Combien de fois n’a-t-on pas entendu: «Je ne suis pas médecin, mais...»? Certes, chacun peut avoir un avis, dans les domaines qu’il ne maîtrise pas également, mais le danger est de croire à son propre discours et d’estimer que son opinion vaut une expertise.
Socrate, au Ve siècle av. J.-C. déjà, relevait dans son Apologie[5] ce danger de l’opinion: «une folle présomption» animait alors les Athéniens qui croyaient tous, des artisans aux politiciens, savoir comment gérer la cité au mieux, alors que personne ne savait même ce qu’était la justice ou le bien commun. Sommes-nous si éloignés d’eux lorsque nous nous prétendons virologues, experts en géopolitique ou en finance? Socrate, pour sa part, était le plus sage des hommes, car il adoptait une attitude humble face au savoir. Il savait qu’il ne détenait pas la vérité et que c’est lorsqu’on affirme une certitude absolue qu’on s’éloigne le plus de la vérité. Ainsi, avoir conscience de ses limites est le seul moyen pour se mettre à chercher, pour comprendre et progresser vers un savoir véritable qui ne serait plus une simple opinion.
Le deuxième biais de connaissance a été observé par deux psychologues, David Dunning et Justin Kruger, en 1999.[6] Ils ont remarqué que lorsque quelqu’un commence à acquérir des connaissances dans un domaine, il a tendance à surestimer son savoir et à parler avec assurance d’un sujet qu’il ne maîtrise objectivement pas. Cela explique pourquoi certains, après avoir lu un ou deux articles scientifiques, se sentent compétents pour parler du coronavirus ou de la guerre en Ukraine. Or, quand ces personnes continuent à acquérir des connaissances dans ce même domaine, elles se rendent vite compte qu’elles avaient présumé de leur savoir; que le champ de leur ignorance est étendu. Et même si elles se spécialisent dans ce domaine, elles ne parleront plus jamais de ces questions avec autant d’assurance qu’au début de leur recherche.
Il y a là un double paradoxe. Premièrement, ceux qui parlent avec le plus d’assurance sont souvent ceux qui en savent le moins, tandis que les experts sont plus prudents dans leurs propos. Deuxièmement, il faut un certain niveau de compétence pour apercevoir son incompétence et les limites de sa connaissance…
De l’ultracrépidarianisme et de l’effet Dunning-Kruger, nous pouvons retenir deux choses: une certaine humilité par rapport à notre propre savoir est bienvenue et il faut faire confiance aux experts, surtout s’ils parlent avec prudence et essaient d’introduire de la nuance dans leur propos. C’est là un gage de plus de compétence et d’une plus grande certitude du savoir.
Foi et remise en question
Considérer la foi permet d’éclairer la question de la certitude scientifique. Comme vu plus haut, la foi, bien qu’elle ne puisse s’expliquer, engendre une forme de conviction. Que nous donnions des preuves rationnelles en faveur de l’existence de Dieu ou de sa non-existence, cela ne change rien pour celui qui a la foi. Le domaine de la raison et celui de la foi ne se recoupent pas. Or la foi véritable est celle qui se remet en question - dans le cas contraire, elle serait un savoir, une certitude. Elle est un acte de croyance: elle sait qu’elle ne peut pas prouver son objet. Celui qui ne met aucunement en question sa foi n’est pas un croyant, mais un fanatique ou un intégriste. Au contraire, l’exemple des saints montrent que plus ils avancent dans la foi, plus ils doutent. Ainsi de Mère Térésa qui, jusqu’au seuil de sa mort, remit profondément en question l’existence de Dieu et se demanda si le ciel était vide. Dans ce doute profond, l’acte de foi est d’autant plus impressionnant.
Cet exemple peut aider à comprendre le rapport entre le doute et le savoir. Celui qui cherche à comprendre, qu’il soit un croyant ou un scientifique, doit d’abord douter, remettre en question ses opinions et ses croyances. C’est à ce seul prix qu’il peut progresser vers la vérité.
Les dangers de l’opinion
À mon sens, les opinions engendrent trois dangers. Premièrement, croire que son avis est la vérité, que notre représentation du monde est la seule valable. Il est difficile de reconnaître ses opinions, de les remettre en question, voire de rompre avec elles lorsqu’elles sont communes à notre environnement et dominantes (mainstream). Le danger réel est de ne plus les interroger. Pour dépasser le simple stade de l’opinion, une idée commune doit pouvoir passer au creuset de la critique.
Deuxièmement, et c’est un mal très contemporain, il semble qu’au nom d’une certaine compréhension de la liberté d’expression, on estime que tout le monde doit non seulement pouvoir exprimer tout ce qu’il pense (alors que ce qui appartient à la sphère privée est parfois illégal à prononcer dans l’espace public), mais surtout que toutes les opinions se valent. Ainsi tout et son contraire peut être dit et est «vrai». Le risque est de tomber dans un relativisme sceptique dangereux. Parce que nous ne pouvons pas atteindre une vérité absolue, nous supposons que celle-ci n’existe pas. Or, s’il n’y a pas de vrai, il n’y a pas de justice, de morale ou de bien qui tienne – «tu estimes que cela est mal, moi pas». La frontière entre bien et mal est supprimée, et nous tombons dans l’amoralité. C’est une dangereuse mise en avant de l’opinion individuelle.
Un troisième écueil nous attend. Après avoir remis en question nos opinions et être parvenus à un système cohérent, nous risquons de le considérer comme une vérité absolue et inaltérable. C’est alors que naissent les pires idéologies. C’est la critique d’Hannah Arendt qui souligne que les révolutions, en voulant remplacer l’ancien système, ont conduit à des systèmes encore plus sclérosés. Le danger réside donc dans l’arrêt de la remise en question de la pensée.
Pour progresser, l’autre
Alors comment progresser vers un plus grand degré de certitude? En plus d’être conscients des biais de connaissance évoqués ici, le meilleur moyen reste sans doute la rencontre avec l’altérité. Les opinions des autres nous permettent de douter des nôtres. Il est en ce sens important de sortir de ce que l’on nomme aujourd’hui des bulles, de discuter avec des gens qui ont des opinions différentes.
Toutefois la rencontre d’une pensée autre ne suffit pas. Il faut encore porter le «souci de la vérité». Souvent, dans une discussion, nous voulons persuader l’autre de la véracité de notre opinion. Or un véritable dialogue repose plutôt sur l’écoute des arguments de l’autre, avec la possibilité de se laisser convaincre par certains d’entre eux. Il s’agit d’envisager la discussion non comme un combat entre deux opinions, mais comme une recherche commune de la vérité. Penser ensemble et autrement permet d’éliminer les croyances fausses, les opinions érigées en vérité absolue, et ainsi de progresser vers le vrai, sans jamais cesser de remettre en question sa pensée. En ce sens, toute certitude devrait passer par le creuset de la confrontation aux autres, par un examen approfondi de sa cohérence et devrait, à tout moment, pouvoir être à nouveau remis en question. Finalement, l’incertitude ne devrait-elle pas être rassurante? C’est de la certitude absolue qu’il faut savoir se méfier.
[1] Benjamin Franklin, Lettre à M. J.-B. Le Roy, 13 novembre 1789.
[2] Anthony Lantian, Rôle fonctionnel de l’adhésion aux théories du complot: un moyen de distinction?, thèse de doctorat soutenue en décembre 2015, 340 p., consultable sur tel.archives-ouvertes.fr (voir en particulier les pp. 30-35).
[3] Emmanuel Kant, Critique de la raison pure, Méthodologie, II, 3e section, 1781.
[4] Etienne Klein, Le goût du vrai, Paris, Gallimard 2020, 64 p.
[5] Platon, Apologie de Socrate, 19a- 22e.
[6] Justin Kruger, David Dunning, «Unskilled and Unaware of It: How Difficulties in Recognizing One's Own Incompetence Lead to Inflated Self-Assessments», in Journal of Personality and Social, vol. 77, no 6, décembre 1999, pp. 1121–34.