La science et la religion : pour un nouveau débat (2/4)

Les difficultés épistémologiques et métaphysiques de la science moderne : monotonie de la science et le problème du réel

Selon une vision traditionnelle en science, les théories scientifiques décrivent la réalité physique qui serait plus « réelle » en quelque sorte que ce que nous observons. Selon un point de vue assez général, le réalisme scientifique est la meilleure explication du succès de la science. C’est ce qu’Hillary Putnam appelle l’« argument du miracle » : le réalisme est la seule philosophie permettant de considérer que la science n’est pas un miracle. Les théories scientifiques sont des instruments efficaces parce qu’elles permettent de faire beaucoup de choses comme prédire, calculer, expliquer et surtout intervenir et manipuler les entités du monde physique. L’existence de ces atouts de la théorie est la meilleure preuve que le réalisme est vrai.

Toutefois, de nombreux philosophes parmi les constructivistes comme Bas van Fraassen, les relativistes et les pragmatiques ont critiqué cette position en arguant que l’évolution et la pratique de la science ont affaibli le réalisme. Arthur Fine a déclaré de manière solennelle : « le réalisme est mort. Sa mort a été annoncée par les néopositivistes qui se sont rendu compte qu’ils pouvaient accepter tous les résultats de la science, y compris tous les membres du zoo scientifique, est néanmoins déclarer que les questions soulevées par les assertions d’existence du réalisme étaient de simples pseudo questions1».

C’est vraiment l’évolution de la science qui remet en cause, selon ces courants de pensée, la vision selon laquelle la science actuelle nous donne une image vraie du monde parce que l’idée d’évolution et de changement réduit les théories scientifiques à de simples instruments de calcul et de
prédiction et non de théories décrivant le monde. Selon Bas van Fraassen, la science ne vise tout au plus que « sauver les phénomènes » à travers un processus continuel de perfectionnement et d’amélioration2.

C’est ce qu’il appelle l’adéquation empirique. La science ne peut viser que l’adéquation empirique avec les phénomènes qui dédouane les scientifiques de croire que leurs théories soient vraies et que les entités qu’elles décrivent soient réelles.

Ce qui a amené un nombre de plus en plus grand de philosophes à se démarquer du réalisme ce sont les problèmes soulevés par l’interprétation de la mécanique quantique et le triomphe de la philosophie « antiréaliste » de Niels Bohr que nous désignons tour à tour comme une forme de mathématisme ou de rationalisme par rapport au réalisme d’Einstein.

La controverse entre les fondateurs de la mécanique quantique qui sont regroupés autour de l’école de Copenhague (Bohr et Heisenberg principalement) et qui proposent une vision du monde quantique basée sur les probabilités et non sur la réalité du monde et Einstein qui n’a jamais reconnu cette nature probabiliste en se réclamant d’une théorie basée sur l’existence d’un monde réel et déterministe représente en fait une controverse entre le mathématisme positiviste qui est en fait un rationalisme et le réalisme. Le mathématisme énonce que la raison mathématique est la seule source de connaissance tandis que le réalisme empiriste suppose que l’expérience perceptive est le socle à partir duquel nous pouvons bâtir cette connaissance.

Il convient de rappeler que les théories de la relativité restreinte et de la relativité générale reposent en grande partie sur des hypothèses explicatives qui peuvent facilement être confrontées à l’expérience perceptive. La relativité est un concept perceptif et les hypothèses d’Einstein sont facilement compréhensibles à travers des exemples observationnels et visuels.

En revanche, les tenants de l’école de Copenhague à l’instar de Bohr sont des positivistes parce qu’ils se contentent de décrire le monde microscopique grâce à des constructions mathématiques élaborées par la raison seule et qui collent parfaitement aux résultats expérimentaux. Par exemple, Werner Heisenberg a élaboré en 1925 la mécanique des matrices afin de représenter les atomes.

Ces matrices qui sont des concepts mathématiques abstraits ont été utilisées par ce physicien afin de représenter les propriétés des particules.

L’une des particularités de cette construction mathématique est la non commutativité : A X B n’est pas égale à B X A. Cette particularité d’ordre mathématique ne peut pas être décrite intuitivement dans la réalité physique.

Une discussion entre Bohr et Schrödinger reflète les sources philosophiques des deux courants de pensée en mécanique quantique et montre cette lutte intellectuelle entre réalisme et rationalisme. Schrödinger s’est associé à Einstein dans sa critique de l’interprétation de Copenhague. Tandis que Bohr soutenait que les transitions photoniques dans les atomes représentent une description satisfaisante pour les atomes, Schrödinger s’y opposait en démontrant l’impossibilité d’observer de telles transitions. Par ailleurs, la mécanique ondulatoire qui a été développée grâce à ses travaux postule l’existence d’ondes de matière réelles selon la théorie des ondes-matière de Louis de Broglie. Mais Bohr a refusé de reconnaître l’existence réelle d’ondes dans les atomes. Les ondes de Schrödinger et de De Broglie sont devenues par la suite et dans le cadre de l’interprétation de Copenhague des ondes de probabilité d’existence de la particule dans un espace donné plutôt que des ondes réelles dans le cadre de ce qu’on appelle une fonction d’onde.

Par conséquent, on peut dire que les membres de ce groupe ont renoncé à décrire la réalité des phénomènes quantiques en leur préférant les constructions mathématiques alors que des physiciens comme Einstein et Schrödinger considèrent que des images vraies que nous pouvons comprendre représentent le socle à partir duquel on peut cerner la réalité des phénomènes quantiques.

On peut remarquer une telle divergence de points de vue quasiment philosophiques en examinant de près la controverse Bohr-Einstein qui a pris le haut du pavé des discussions lors de la cinquième conférence de physique de l’Institut Solvay qui a eu lieu à Bruxelles en octobre 1927.

Lors de cette conférence, Einstein et ses collègues ont déclaré que la mécanique quantique n’était pas une théorie complète et que des entités cachées se tapissent dans l’ombre et expliquent les phénomènes quantiques. Ces variables cachées permettent selon eux de mettre fin aux aspects déroutants de la théorie quantique comme la dualité onde-corpuscule et le principe de superposition. « Pour Einstein et plus encore pour ses partisans, le côté flou et indéterminé de la physique quantique, ne peut satisfaire un scientifique et montre bien qu’il doit y avoir quelque chose là- dessous : on doit retrouver des petites billes, ou des ondes, enfin quelque chose que nous sachions nous représenter. Si on ne les voit pas encore, c’est que nos moyens d’observation sont insuffisants. »3.

On voit bien ici qu’Einstein n’a pas renoncé au réalisme en supposant l’existence d’entités cachées. On peut expliquer cette croyance par une attitude métaphysique à propos de l’existence d’un monde objectif qui est à la fois un héritage de la théologie judéo-chrétienne et une vision concurrente à celle de la religion. Einstein a hérité ces deux aspects de la science.

En revanche, pour l’école de Copenhague, ces concepts n’ont plus droit de cité dans la théorie qu’ils défendent. La source de la théorie devient la raison seule puisqu’elle repose sur une formulation abstraite mais cohérente de la réalité qui se résume à l’existence d’une entité mathématique et abstraite qui est la fonction d’onde4.

Ce mathématisme est provisoire et hésitant puisque il est confronté à un écueil engendré par l’effondrement de la vision classique du monde physique et les difficultés presque insurmontables d’élaborer de nouveaux concepts pour la mécanique quantique.

Lorsqu’on dit que les fondateurs de la mécanique quantique sont des rationalistes, cela signifie qu’ils se sont attelés à bâtir des concepts quantiques sur les ruines des concepts classiques en raison de l’impossibilité de maintenir l’objectivité d’une description réelle des phénomènes et sa continuité dans un contexte expérimental marqué par la disparition de toute représentation dans l’espace-temps du phénomène quantique ainsi que par l’apparition d’une interaction insoupçonnée en mécanique classique, entre l’observateur et le phénomène observé. Cette interaction est devenue par la suite ce qu’on appelle le problème de la mesure.

Devant de telles difficultés qui se traduisent par le lent et dirimant processus de construction théorique de concepts quantiques, Niels Bohr n’a eu d’autre choix que de définir le phénomène physique de la manière suivante « […] des observations obtenues dans des circonstances spécifiées, incluant un compte rendu de la totalité du dispositif expérimental »5. Durant les années 1980, une expérience cruciale a été réalisée par l’équipe d’Alain Aspect qui confirme la vision orthodoxe de l’école de Copenhague. Mais le prix de cette victoire qui semble provisoire est le sacrifice du réalisme. La fonction d’onde est devenue encore plus abstraite avec les développements ultérieurs de la mécanique quantique.

La fusion entre la mécanique quantique et la théorie de la relativité restreinte a rendu la notion classique de particule encore plus problématique. Les particules sont devenues insaisissables et énigmatiques. Ces difficultés incitent à ne plus voir le cadre conceptuel de la mécanique classique lié aux notions de particule et de champ comme pertinent pour la mécanique quantique des champs ni comme utilisable ou indispensable pour l’interprétation des résultats des expériences de physique quantique. Le triomphe du mathématisme en physique quantique a entrainé une véritable crise qu’on appelle « ontologique » car cette crise touche à l’ontologie, à l’essence même des entités quantiques. Ces entités sont-elles des ondes ou des particules ou l’excitation d’un champ ? On ne le sait plus.

L’un des moyens salutaires les plus sûrs pour résoudre cette crise est le retour à un certain réalisme. Mais la route est longue et aucune théorie ne pointe à l’horizon hormis l’interprétation théorique robuste de David Bohm, laquelle ne suscite aucun consensus parmi les physiciens. Selon cette interprétation, les trajectoires des particules quantiques sont « guidées » par des ondes réelles conformément à l’équation de Schrödinger.

On voit à travers cette histoire de la mécanique quantique que son développement a été marqué par un débat entre le réalisme et l’antiréalisme qui n’a jamais été épuisé. L’expérience sur laquelle repose la mécanique quantique est l’origine de cette lutte.

Les expériences entraient en contradictions avec les théories de la mécanique classique. Si la mécanique quantique a connu un développement sans précédent avec les travaux de physiciens comme Heisenberg, Born et Bohr, il n’en demeure pas moins vrai que leurs travaux ne visent qu’à se conformer aux résultats des observations expérimentales sur les atomes. Ces résultats sont liés aux raies spectrales et aux émissions de photons.

Lors d’une discussion entre Einstein et Heisenberg, ce dernier a défendu la nouvelle mécanique des matrices en arguant qu’elle n’est conçue que pour représenter et interpréter les observations sur les atomes. En réalité le rationalisme des fondateurs de la mécanique quantique au sein du courant de Copenhague n’est que le résultat progressif de l’image floue offerte par l’image réaliste des atomes.

Ainsi, le « mathématisme positiviste » de la physique quantique selon l’interprétation de Copenhague est un rationalisme de circonstances et non un rationalisme de principe. Il ne survit que lorsque le réalisme ne parvient plus à nous donner une image satisfaisante des phénomènes quantiques. Mais dès qu’une image réelle sorte des ténèbres vers la lumière, le rationalisme est remplacé par une interprétation réaliste. Par ailleurs, les prédictions du rationalisme sont soumises au verdict de l’expérience alors que le réalisme possède sa propre raison d’être puisqu’il est d’origine expérimentale.

Les méandres de l’antiréalisme dans la science moderne

Cette petite histoire de la mécanique quantique si elle ne remet pas en cause définitivement le réalisme scientifique, montre néanmoins que l’argument du miracle n’est plus suffisant pour fonder le réalisme. Par conséquent, des alternatives à ce principe se sont développées. Ces alternatives sont :

1. L’inférence à la meilleure explication

2. La sous-détermination de la théorie par les données de l’expérience

3. La discontinuité des théories scientifiques et l’induction pessimiste

L’inférence à la meilleure explication se résume comme suit : lorsqu’on infère une hypothèse et qu’elle s’avère vraie, elle fournit la meilleure explication possible.

L’inférence à la meilleure explication (IME), encore connue sous le nom d’abduction, de raisonnement adductif, de rétroduction, de raisonnement rétroductif, ou encore de raisonnement par hypothèse, est une des trois formes de raisonnements révélées et reconnues par le philosophe pragmatiste Charles Sander Peirce.

Mais les antiréalistes ont émis des réserves concernant ce principe parmi lesquels il y a la nécessité de tenir compte des hypothèses rivales en considérant l’hypothèse vrai qui fournit la meilleure explication qui est l’explication vraie. Une première critique consiste à admettre que certains critères peuvent être utilisés en faveur d’une théorie comme la simplicité, l’unité et la cohérence alors que ces critères n’ont rien à voir avec la vérité. Par ailleurs, les antiréalistes admettent qu’il est très difficile de choisir entre plusieurs hypothèses théoriques rivales.

Ce problème a été radicalisé dans le cadre du deuxième principe relatif à la sous-détermination de la théorie par l’expérience qui a été élaboré par Pierre Duhem et W.V.O. Quine. Selon ce principe, une hypothèse théorique ne peut pas constituer à elle seule une base solide aux prédictions si elle n’est pas appuyée par d’autres hypothèses auxiliaires. Dans le cas où l’expérimentation produit des résultats qui ne concordent pas avec les prédictions, une hypothèse donné ne peut à elle seule être coupable. Il faudrait se référer à d’autres hypothèses pour ce faire.

D’autres versions de ce principe permettent de comprendre qu’il y a plusieurs théories qui sont empiriquement équivalentes mais qui sont toutefois différentes par le contenu épistémique (par exemple en ajoutant ou en excluant des entités inobservables prévues par la théorie).

Le dernier principe qui constitue un « coup dur » pour le réalisme est l’induction pessimiste. Selon ce principe, de nombreuses théories scientifiques se sont révélées comme fausses par le passé. Une telle discontinuité dans l’évolution de la science nous incite à inférer que les théories actuelles peuvent subir le même sort.

On peut aborder l’induction pessimiste de la manière suivante : la science contient des théories qui ont réussi sur le plan empirique. Il est donc naturel qu’on puisse affirmer qu’elles sont vraies. Mais l’histoire de la science nous apprend également que des efforts conceptuels similaires ont abouti à des théories fausses. Aucune discipline scientifique n’est immunisée contre les risques du changement. Beaucoup de théories dans le passé qui ont été reconnues comme vraies et qui ont formé un pilier du monde scientifique de l’époque se sont révélées comme erronées.

La théorie calorifique de la chaleur était considérée comme très satisfaisante au 18ème siècle. Elle n’est plus regardée aujourd’hui que comme approximativement vraie. Il est impossible que la théorie qui nous dit que la chaleur est une substance fluide soit une approximation de la théorie qui stipule que le phénomène de la chaleur est le résultat du mouvement des molécules. Si cette dernière théorie est vraie, alors la première est complètement erronée. Il en est de même pour des théories comme celles de l’éther ou de l’espace et du temps absolus qui ont été remises en cause par la théorie de la
relativité restreinte.

Le rejet de théories qui décrivent les entités et phénomènes physiques a amené les philosophes à considérer l’évolution de la science comme reflétant une « discontinuité ». Karl Popper a montré que l’expérience est orientée beaucoup plus vers la réfutation que vers la confirmation des théories dans la mesure où l’expérience porte sur des termes théoriques qui sont testables donc réfutables. Une telle philosophie est similaire à la thèse de l’induction pessimiste. Les expériences sont réalisées beaucoup plus selon le schéma de la discontinuité de la science que dans le sens de la continuité.

Le refuge des réalistes semble être le progrès que la science réalise en permettant petit à petit des prédictions de plus en plus précises. La vérité est approchée de manière progressive et non définitive. Mais cet argument n’est pas réellement suffisant pour maintenir le réalisme dans toute sa vigueur en raison, d’une part, des attaques sérieuses des antiréalistes comme Van Fraassen qui reflète une incapacité des réalistes à prouver que les théories cherchent la vérité et la description objective de la réalité et non comme l’affirme Van Fraassen l’adéquation empirique6 et, d’autre part, des redoutables arguments de l’induction pessimiste et de la sous-détermination des théories par les données empiriques. A cela s’ajoute les difficultés d’interprétation de la mécanique quantique qui sont étroitement liées à la discontinuité de la science et l’induction pessimiste.

A partir de cette constatation, on peut s’interroger sur le bien fondé de la supériorité des lois physiques sur un autre domaine de savoir et plus particulièrement sur l’interprétation de la religion des phénomènes physiques.

On va voir dans la troisième partie de cet article que les physiciens ont du mal à représenter ontologiquement les entités inobservables de la physique comme les atomes, les protons, les électrons. Ils ne parviennent pas à savoir s’ils sont des particules ou des ondes. Cette difficulté a eu pour origine un postulat de la mécanique quantique qui a légué aux scientifiques cette notion bizarre de dualité onde-particule.