lundi 17 septembre 2018

De l’influence de la religion dans la construction de la physique classique. Matérialisme vs. Naturalisme.

Clément Rosset, l'Anti-Nature, Logique du Pire
Derrière ses airs de tenancier jovial, Clément Rosset (1939-2018) était l'un des "objets singuliers" de la philosophie Française contemporaine. On se propose de rendre ici un petit hommage à ses ouvrages consacrés à la Nature et au Hasard.

Dans les cercles universitaires les plus fortement marqués par l’héritage du positivisme logique, les sciences sont généralement présentées aux étudiants comme détentrices de la vérité, de l’autorité, des absolus et finalement de la seule véritable autorité absolue. 

Cette conception très dogmatique de la pratique scientifique apparaît dès lors que sciences et religions sont frontalement opposées, en général sous l’égide des valeurs d’émancipation intellectuelle du siècle des Lumières. A cette époque, la pensée occidentale aurait effectué un saut qualitatif décisif en débarrassant la connaissance humaine des oripeaux de la théologie, d’un coup porté par la tranchante et lumineuse lame de la Raison. Mais les sciences n’ont pas été produites ex nihilo et leur construction s’inscrit dans un processus historique plus profond, qui doit prendre en compte de multiples contributions. Le récit stéréotypé d’une victoire triomphante de la libre pensée sur l’hétéronomie semble, en définitive, trop simple. Se pourrait-il que l’épée rédemptrice de la Raison fût patiemment « forgée par les Dieux », quelque part dans les ténébreux labyrinthes de la scolastique médiévale ? Au XVIII ème siècle, l’idée de Dieu est supplantée par celle de Nature (chez Rousseau ou d’Alembert par exemple), interprétée en tant que Force ou Volonté antérieure à tout être, permettant la production et le développement d’un ordre universel déchiffrable par les Hommes. Nous voyons déjà planer ici les ombres de la transcendance divine, ainsi que le remarque Nietzsche dans l’aphorisme 109 du Gai Savoir lorsqu’il pose explicitement la question : « Quand aurons-nous dédivinisé la Nature ? ». C’est donc qu’il y a confusion lorsque science et religion s’affrontent comme deux monothéismes concurrents. En effet, comme l’explique Clément Rosset, dans sa grande fresque consacrée au hasard à travers Logique du pire (Presses Universitaires de France, Quadrige, 1971) et L’anti-nature (Presses Universitaires de France, Quadrige, 1973), le véritable siècle antireligieux trouva son apogée avec la philosophie matérialiste du XVIème (Giordano Bruno, Machiavel, Montaigne …) et non avec les Lumières du XVIII ème siècle. 

Nature et hasard

«Ce n’est qu’en apparence que la pensée de la nature, telle qu’elle se manifeste, par exemple, dans le théisme et le déisme du XVIIIème siècle […] a succédé à la pensée théologique et religieuse. En réalité, elle la précède depuis toujours […]. Ce n’est qu’à partir de la reconnaissance d’un être constitué en dehors de la volonté humaine –être qui s’est appelé nature au XVIII ème sciècle, mais avait et a reçu, en d’autres temps et dans d’autres civilisations, des noms différents- que la pensée religieuse devient possible. C’est l’idée de nature qui conduit à l’idée de Dieu et non l’inverse, parce qu’elle contient le thème originel d’où dérivent toutes les religions : la reconnaissance d’une intervention étrangère à l’Homme, d’un pouvoir efficace auquel l’Homme ne prend nulle part. En prétendant remplacer les superstitions religieuses par un culte de la nature, les libres penseurs du XVIII ème sciècle ne faisaient que revenir aux sources vives de la religion et de la superstition. » (Logique du pire, p.82) 

Dans ces deux ouvrages admirables, l’auteur se propose de démanteler le concept de Nature en montrant qu’il ne s’agit que d’une projection sur le réel, dont la trame est le hasard, du désir tout humain de trouver un ordre, un sens, une raison à des choses qui en seraient dépourvues. 

«A ce titre, l’idée de nature pourrait apparaitre comme l’expression la plus générale de l’affectivité paranoïaque, c’est-à-dire comme l’expression d’une des composantes fondamentales de toute affectivité humaine : elle en exprime précisément les deux principaux thèmes, l’insatisfaction et la rationalisation. » (L’anti-nature, p.26)

Le concept de Nature serait une erreur, un fantasme idéologique qui consisterait à «substituer la complication ordonnée d’un monde à la simplicité chaotique de l’existence » (L’anti-nature, 4ème de couverture).  Un ersatz de religion en somme.

Car en effet : 
«Ce qui est contraire à l’idée de nature n’est pas l’idéologie religieuse, mais à l’opposé, la pensée matérialiste, qui refuse de voir dans l’existence tant l’effet de forces que le résultat de principes : pour rendre compte de ce que les Hommes appellent la nature, le matérialisme se contente d’invoquer deux « refus de principe » qui sont l’inertie (refus d’introduire l’idée de force dans l’existence) et le hasard (seul apte à rendre compte de la possibilité des productions sans entorse au principe d’inertie). » (L’anti-nature, p.26)

Rosset donne à la notion de hasard une définition très précise et bien particulière, proche de celle du clinamen chez Lucrèce : le hasard, c’est le principe qui gouverne la matière. « Hasard est précisément le nom qui désigne l’aptitude de la matière à s’organiser spontanément » (Logique du pire, p.85). 

D’une certaine manière, la physique contemporaine vient appuyer cette définition. En effet, deux des principales approches de la physique, la mécanique statistique et la mécanique quantique sont des théories probabilistes. Pour la physique statistique, les processus d’évolution et d’organisation de la matière à l’échelle atomique et moléculaire sont stochastiques (le mouvement Brownien en est un exemple typique). Pour la physique quantique, le hasard apparaît dans le processus de mesure, qui est indéterministe (la réduction de la fonction d’onde est gouvernée par le hasard dans le cadre d’une interprétation n’admettant pas de variables cachées). Quant à l’étude des systèmes dynamiques, remise au goût du jour depuis le dernier quart du XXème siècle, il se pourrait qu’elle révèle une imprédictibilité fondamentalement liée à une certaine forme de hasard, lorsque des systèmes chaotiques sont en jeu. Mais ce dernier exemple est plus délicat et nous y reviendrons certainement dans le cadre ce blog.

Chez Rosset, le hasard est un principe immanent, intimement relié à la matière, tandis que la nature apparaît comme l’archétype de la transcendance que confèrent généralement au réel les approches dites rationnelles ou scientifiques. Nous esquisserons ici une définition ramassée du hasard au moyen d’une formule malheureusement vague et négative (c’est-à-dire en somme l’exact opposé du travail de l’auteur, dont la lecture reste, pour cette raison, essentielle et nécessaire). Celle-ci permettra néanmoins d’appréhender de manière pédagogique son  intérêt pour la construction d’une ontologie et d’une (anti-)métaphysique matérialistes. Le hasard comme principe ontologique constituant est ce qui s’oppose à toute intervention providentielle (qu’elle soit religieuse ou déterministe). En ce sens le hasard « s’oppose à tout ce qui est «voulu», d’une certaine manière qui n’est pas humaine, voulu avant qu’intervienne la volonté humaine. Voulu par les lois de la matière, de l’Histoire, de la vie, de Dieu, comme on voudra penser » (Logique du pire, p.85).

La pensée du hasard inclut le hasard dans sa représentation de la matière. Le hasard est donc en ce sens un automouvement immanent et spontané, ayant son principe en lui-même et n’excluant nullement la possibilité de relations constantes et intelligibles dans le monde. Lorsque celles-ci existent, elles sont simplement le fruit du hasard, au sens où l’ordre n’est qu’un cas particulier du désordre. Car en effet, si le hasard est le principe ontologique fondamental, produisant tout, il produit aussi son contraire qui est l’ordre. Selon Rosset, les idéologies naturalistes « accordent le point principal de l’idéologie religieuse, à savoir qu’il « se fait » quelque chose, qu’il y a un « monde » de fait » (L’anti-nature, p.34) c’est-à-dire qu’il y a de l’ordre interprétable dans le réel, et que celui-ci est le résultat d’un « faire », d’une force d’ordonnancement. 

C’est donc une certaine forme de croyance que d’invoquer un principe transcendant pour justifier l’existence des choses et des mondes. Le Hasard, lui, se passe d’idéologie puisqu’il représente « l’insignifiance radicale » (Logique du pire, p.139), le fait que les choses soient sans raison. Le matérialisme est ainsi amoral tandis que la recherche de raison se voit marquée d’affectivité. Comment concilier, alors, le matérialisme méthodologique des sciences (tout ce que les sciences étudient est matière ou produit de la matière) avec leur objectivité ? Que penser de cette tradition scientifique consistant à se poser en sujet connaissant face à une nature-objet dont les lois sont à étudier ?
A contrario, Les sciences et techniques chinoises, dont le substrat culturel peut être considéré comme exempt de monothéisme, s’enracinent dans le déploiement immanent du réel. D’après les travaux de Sandra Harding et Joseph Needham, l’idée d’un univers conçu comme « un grand empire gouverné par le Logos divin » ne fut jamais perceptible dans la longue histoire de la science chinoise. Par comparaison avec la science occidentale à la Renaissance, « la conception chinoise de la nature posait problème en ceci qu’elle ne suscitait aucune curiosité à l’égard des lois abstraites formulées avec précision et décrétées depuis les origines par un législateur céleste pour une nature non humaine. Il n’y avait aucune assurance que le code des lois de la Nature pût être dévoilé, pour la bonne raison qu’il n’y avait aucune certitude qu’un être divin, même plus rationnel que l’Homme, eût jamais formulé un tel code. » Les multiples traditions de la science chinoise ont, selon Harding et Needham, pour dénominateur commun de considérer que la nature se gouverne elle-même, « vaste toile de liens dépourvue d’un tisserand, et dans laquelle les Hommes interviennent à leur propre péril ». Cette interprétation du réel semble davantage se conformer au matérialisme décrit par Rosset.

Ainsi, l’analyse de ces spécificités culturelles permet de reconnaitre qu’au cours de l’Histoire, les valeurs chrétiennes ont fait avancer les sciences occidentales dans bien des domaines en leur suggérant une certaine notion de l’harmonie, de la vérité et de l’ordre des choses. A l’inverse, elles les ont retardées dans d’autres, en leur interdisant d’avoir recours à certaines hypothèses concernant, par exemple, la place de l’Homme et le statut la vie dans l’univers. En effet, comme le remarque l’historien des sciences Alexandre Koyré (dans Etudes d’histoire de la pensée scientifique,  « orientation et projets de recherches »), l’évolution de la pensée scientifique est très étroitement liée à celle des idées transscientifiques, philosophiques, métaphysiques, et religieuses.  Certains principes physiques d’une très grande efficacité pratique se basent historiquement sur des valeurs qui confinent au religieux. Précisons qu’un principe physique est un postulat fondamental qui n’est pas démontré mais tenu pour vrai en raison de son succès empirique et parce qu'aucune expérience ne l’a jamais invalidé. Les principes physiques expriment en peu de mots des hypothèses permettant d’inférer des conclusions d’une portée très générale à propos du monde. Ils sont donc d’une importance conceptuelle capitale. En plus de sous-tendre l’édifice épistémologique, leur formulation abstraite recèle une « valeur esthétique » non négligeable, communément appréciée des physiciens.
C’est le cas par exemple du principe de moindre action ou du principe de Fermat en optique, dont la mystérieuse puissance de prédiction des phénomènes ne peut s’expliquer que parce que «la nature agit toujours par les voies les plus courtes et les plus simples» (Fermat).  De même, dans Principe de la moindre quantité d'action pour la mécanique (1744), Maupertuis définit ainsi l'action : « L'Action est proportionnelle au produit de la masse par la vitesse et par l'espace. Maintenant, voici ce principe, si sage, si digne de l'Être suprême : lorsqu'il arrive quelque changement dans la Nature, la quantité d'Action employée pour ce changement est toujours la plus petite qu'il soit possible. »
On voit donc que dans l’histoire de la physique, les scientifiques entretiennent un dialogue constant avec des puissances divines et des êtres suprêmes. Revenons deux siècles plus tôt et intéressons-nous à un autre exemple, rapporté par Alexandre Koyré. A ceux qui voudraient présenter les progrès de l’astronomie, et en particulier le passage du géocentrisme à l’héliocentrisme, comme un triomphe de l’athéisme sur l’obscurantisme Chrétien, Koyré rappelle les arguments qui furent employés par Copernic (De revolutionibus orbium coelestium, 1543) pour initier son changement de paradigme.

«À vrai dire, le monde de Copernic n'est nullement dépourvu de traits hiérarchiques. Ainsi, s'il affirme que ce ne sont pas les cieux qui se meuvent, mais la Terre, ce n'est pas seulement parce qu'il semble irrationnel de faire mouvoir un corps énormément grand au lieu d'un corps relativement petit [...] mais aussi parce que "la condition d'être au repos est considérée comme plus noble et plus divine que celle du changement et de l'inconsistance ; cette dernière, par conséquent, convient davantage à la Terre qu'à l'univers". Et c'est à  cause de sa suprême perfection et de son importance - source de lumière et de vie - que la place qu'il occupe dans le monde et assigné eau soleil : La place centrale, que, suivant la tradition pythagoricienne et renversant ainsi complètement l'échelle de valeur d'Aristote et des médiévaux, Copernic croit être la meilleure et la plus importante ». (Alexandre Koyré, Du monde clos à l’univers infini, Gallimard Tel, 1973 pour la traduction Française, p.48)

Les théories élaborées par nos illustres prédécesseurs n’abordaient généralement les questions fondamentales de la métaphysique que sous l’angle d’une théologie, quelle que fût sa forme. Pourquoi les lois de la physique sont-elles ainsi faites ? Pourquoi y-a-t’ il un univers plutôt que rien ? Pour y répondre, Descartes et Newton se contentaient typiquement d’un « comment », préfigurant ainsi l’avènement du positivisme en abandonnant à la religion les questions relatives au mystère de la création : l’univers, la raison et les lois de la physique sont tels que Dieu a voulu qu’ils soient. Les Hommes doivent se contenter d’une étude empirique du réel, assistés dans leur tâche par l’outil mathématique. Cette position a, selon Koyré, son importance dans l’efficacité de la physique Newtonienne : « Les concepts philosophiques de Newton concernant le rôle des mathématiques et de la mesure exacte dans la constitution du savoir scientifique furent aussi importantes pour le succès de ses entreprises que son génie mathématique : ce n’est pas par manque d’habileté expérimentale, mais par suite de l’insuffisance de leur philosophie de la science –empruntée à Bacon- que Boyle et Hooke ont échoué devant les problèmes de l’optique, et ce sont de profondes divergences philosophiques qui ont nourri l’opposition de Huygens et de Leibniz à Newton. » (Dans Etudes d’histoire de la pensée scientifique, « orientation et projets de recherches » p.13 ). 
Outre l’impossibilité morale de s’écarter du dogme religieux en proposant une métaphysique différente de celle validée par l’Eglise, il se pourrait que les réponses à ces questions aient été éludées en raison d’une difficulté intrinsèque à les formuler en des termes clairs. Le problème serait en quelque sorte intrinsèquement mal posé, qu’on lui donne le nom de Dieu ou de Nature.

Pour Clément Rosset, dans L’anti-nature,
«L’idée fondamentale du naturalisme est une mise à l’écart du rôle du hasard dans la genèse des existences : l’affirmation que rien ne saurait se produire sans quelque raison, et qu’en conséquence les existences indépendantes des causes introduites par le hasard ou l’artifice des Hommes résultent d’un autre ordre de causes, qui est l’ordre des causes naturelles. On sait seulement que la nature est ce qui reste quand on a de toutes choses biffé les effets de l’artifice et du hasard : nul ne précise ce qui reste ainsi, mais il suffit, pour que se constitue l’idée de nature, qu’on tienne pour acquis qu’il y a quelque chose qui reste. » (L’antinature, p. 20)

«Nul doute en effet que l’efficacité du concept de nature et de ses diverses imageries ne tienne en premier lieu à son obscurité même, à l’incapacité où elle est de se définir comme de se peindre. […] L’efficacité du concept de nature est ainsi à la mesure de son imprécision, qui contribue à la rendre invulnérable. L’idée de nature est invincible parce qu’elle est vague ; mieux, parce qu’elle n’existe pas en tant qu’idée : et rien n’est invincible comme ce qui n’existe pas. »  (L’antinature, p. 21)
A ce stade, certains lecteurs auront remarqué que ce sont les règles de la réfutation Poppérienne qu’enfreint l’idée de nature, alors même que cette dernière est abondamment utilisée pour fonder le rapport scientifique au réel depuis le début de l’époque moderne (Galilée : « La nature est écrite en langage mathématique »). La réfutabilité, que nous définirons progressivement dans la suite, est pourtant l’une des conditions requises pour qu’un énoncé accède au qualificatif de « scientifique ». C’est ce que rappelle Rosset, sans la nommer, lorsqu’il oppose adéquatement la croyance non à la vérité mais à la précision :
« […] C’est le sort général d’une croyance que d’abonder en raisons de croire, mais d’être très pauvre en définitions de sa propre croyance : elle sait toujours dire pourquoi elle croit, jamais ce à quoi, précisément, elle croit. Aussi la grande ennemie de la croyance n’est-elle pas la « vérité » (que ses incroyants lui opposent vainement), mais la précision. » (L’antinature, p. 21)

Aujourd’hui, combien de scientifiques seraient capables de définir précisément ce qu’est « la science » et pourquoi ils la pratiquent, sinon en raison de son efficacité empirique ? 

Réfutation ou falsification Popperienne

La théologie, dogmatique et irréfutable par principe, jouit d’une très grande stabilité car elle repose majoritairement sur des énoncés invérifiables qui ne peuvent être expérimentalement mis à l’épreuve. De même, certaines expériences de pensée à propos des concepts centraux de la religion aboutissent à des paradoxes ou à des énoncés absurdes, parce que leurs définitions ne sont pas assez précises pour être opérationnelles dans un système hypothético-déductif. Le discours qui en résulte n’est alors ni clair ni univoque. C’est le cas par exemple de la question naïve : « Dieu pourrait-il créer un rocher si lourd qu’il n’arriverait lui-même pas à le soulever ? » qui présuppose et nécessite une définition précise de Dieu. Autrement, comment lui attribuer des propriétés ? Le mystère et la croyance sont toujours suffisamment vagues et indéfinis pour trouver leur place parmi les représentations et les désirs de ceux qui les adoptent, tout en donnant l’illusion d’un sens, d’une raison, d’une vérité. Notons toutefois avec Whitehead que « la science est plus changeante que la théologie ». Il s’agit là de l’une des principales différences entre la pratique scientifique, dotée de son matérialisme méthodologique et la croyance religieuse qui postule des entités immatérielles. Karl Popper fonde en effet son critère de démarcation scientifique sur la réfutabilité : une théorie est scientifique si elle est capable de tenir sur son objet un discours suffisamment précis pour aboutir à des expériences dont les résultats pourraient la contredire et la réfuter. Dans ces conditions, cela ne signifie nullement que la théorie soit fausse d’emblée. Cela signifie au contraire que le degré de crédibilité accordé à cette théorie est d’autant plus fort qu’il est possible de tenter de la remettre en question sans aboutir à sa destruction. Affirmer implique alors vraisemblablement d’avoir les moyens de remettre en question, de discuter et tester les hypothèses. Ainsi, pour Popper, prouver c’est échouer à réfuter. Les théories scientifiques, valables un temps, sont continuellement réfutées par de nouvelles expériences, de nouvelles observations, et deviennent obsolètes pour être mieux remplacées par de nouvelles théories. La réfutation Popperienne (ou falsification, terme plus employé chez les anglophones) permet donc de déduire logiquement que des théories sont fausses mais pas qu’elles sont vraies. Popper remplace la vérité par  une double notion plus subtile. D’abord, une théorie sera acceptée si elle résiste aux tentatives de réfutation : on parle alors de corroboration. Ensuite, le mouvement par lequel une théorie fausse se voit remplacée par une nouvelle, converge par degrés successifs vers une forme de vérité approximative constamment améliorée : la vérisimilitude.

Avec l’essor des machines à vapeurs au début du XIXème siècle, les physiciens s’intéressèrent à la chaleur et au transfert d’énergie thermique, posant alors les fondements d’une discipline nouvelle : la thermodynamique. La formalisation théorique et le raffinement des connaissances empiriques dans ce domaine mirent ironiquement fin aux aspirations de nombreux savants et inventeurs qui entendaient découvrir une source de mouvement perpétuel. Leurs hypothèses se trouvèrent réfutées. Ironiquement, il se peut que ce vieux rêve ne soit pas mort : le critère de réfutabilité, même s’il n’est pas toujours adapté ni respecté en pratique, confronte continuellement les hypothèses aux expériences et aux données d’observation nouvelles, engendrant par là-même un mouvement perpétuel de la pensée, consubstantiel à la connaissance scientifique.

Il semble alors raisonnable d’interpréter le critère de Popper comme une condition nécessaire à l’existence de la pratique scientifique. Mais est-elle suffisante ? On pourrait dire qu’il s’agit là d’un critère logique de rigueur et d’honnêteté intellectuelle propre au matérialisme méthodologique. En pratique il a toutefois ses limites et fut outrepassé à de nombreuses reprises au cours de l’Histoire des sciences. Si les chercheurs l’avaient appliqué strictement, certaines des théories scientifiques les plus belles et les plus efficaces que nous connaissons auraient été rejetées dès leurs balbutiements. Pour Alan F. Chalmers (Qu’est-ce que la science, Editions La découverte, Paris, 1987, pour la traduction Française, p.116) on peut trouver pour toute théorie scientifique classique des rapports d’observations jugés valides à l’époque de leur formulation mais qui la contredisent. C’est le cas par exemple de l’anomalie de l’orbite de la planète Uranus qui contredisait en son temps la théorie de la gravitation de Newton et aurait ainsi pu suffire à la réfuter. C’était sans compter sur la présence de la planète Neptune, qui restait à découvrir à cette époque. Celle-ci exerce en effet sur les orbites des planètes voisines une force gravitationnelle dont la contribution dans l’interaction globale n’avait pas été prise en compte par les conditions initiales injectées dans les équations du mouvement. D’un point de vue général, la théorie n’était donc pas en défaut : ce sont l’interprétation et l’observation qui, dans ce cas particulier, étaient erronées. Le lecteur intéressé trouvera dans l’ouvrage de Chalmers susmentionné une étude plus détaillée du cas de la révolution Copernicienne et des difficultés rencontrées lors de l’application du critère de réfutabilité à la complexité de ce changement théorique majeur. De la même manière, en 1604, lorsque Galilée formula la loi de la chute des corps, celle-ci ne pouvait être soumise au critère de réfutation sur le plan expérimental. Personne à cette époque ne savait obtenir le vide nécessaire à la réalisation de l'expérience cruciale permettant de tester l'hypothèse selon laquelle les corps tombent tous à la même vitesse, indépendamment de leur masse, lorsqu'ils ne sont pas soumis aux frottements de l'air. C'est une expérience de pensée qui permit de trancher, au moyen d’un raisonnement par l’absurde : 
Soit deux corps massifs C1 et C2, de masses respectives m1 et m2 telles que m1>m2. 

Considérons le syllogisme suivant :
P1. : Les corps les plus lourds tombent plus rapidement que les corps légers.
P2. : Or, m1 > m2
Conclusion : Donc m1 tombe plus vite que m2.

On relie maintenant C1 et C2 avec une corde. D’après P1, l’ensemble C1+C2, de masse m1+m2, devrait tomber plus rapidement que C1 puisque m1+m2 > m1. Mais lors de la chute, C1 devance C2, ce qui a pour effet de tendre la corde et produit un effet de « parachute », de sorte que C1+C2 tombe plus lentement que C1.
P1 est donc réfutée et remplacée par P1’ : Les corps les plus lourds tombent plus rapidement que les corps légers lorsqu’ils sont soumis aux frottements de l’air.

La réfutation est donc un critère rationnel efficace pouvant être employé tant dans le domaine empirique que théorique. Mais comme nous l'avons évoqué, elle présente toutefois ses limites et fut critiquée tout au long du dernier quart du XXème siècle.

Réfutation : critiques et évolution.

Paul Feyerabend, qui fut pendant ses années d’études de la physique et de la philosophie, un Poppérien convaincu, écrit dans son autobiographie (Tuer le temps, édition seuil, traduit de l’anglais par Baudoin Jurdant p.116) qu’un tel critère de rationalisation du réel est dangereux parce qu’il contient des éléments qui  paralysent notre jugement. « Le rationalisme, qu’il soit dogmatique ou critique, ne fait pas exception. Pire même : la cohérence interne de ses produits, la dimension apparemment raisonnable de ses principes, la promesse d’une méthode qui permettrait aux individus de se libérer des préjugés et le succès des sciences qui semble être l’exploit principal du rationalisme lui confèrent une autorité presque surhumaine. Popper a non seulement fait usage de ces éléments mais il y a encore ajouté un ingrédient paralysant de son propre cru – la simplicité. […] C’était drôle de couvrir de mépris des traditions vénérables en prouvant qu’elles n’avaient « aucun sens sur le plan cognitif ». C’était même encore plus drôle de critiquer des théories scientifiques respectables en levant la baguette magique de la falsifiabilité » confesse-t’il. « Je ne me rendis pas compte que j’acceptais une hypothèse importante et pas du tout évidente. Je croyais que les normes « rationnelles », dès qu’elles étaient appliquées rigoureusement et sans exceptions, pouvaient conduire à une pratique aussi flexibles, riche, stimulante et technologiquement efficace que celle des sciences que nous connaissons déjà, que nous acceptons et que nous admirons. Mais l’hypothèse est fausse. Pratiqué avec détermination et sans concessions, le falsificationnisme balaierait la science telle que nous la connaissons». Si Feyerabend reconnait que certains épisodes de l’Histoire des sciences semblent obéir au modèle falsificationniste, il affirme toutefois qu’il s’agit d’une idéalisation. « Ce qui ne veut pas dire que la science soit irrationnelle » ajoute-t’il. « On peut rendre compte de chacune de ses étapes […]. Néanmoins, les étapes prises ensemble ne constituent que rarement un modèle cohérent obéissant à des principes universels et les cas qui confirment de tels principes ne sont pas plus fondamentaux que les autres. » Pour Feyerabend, la science n’est pas un système mais un « collage ». Son point de vue, qui tend à nier l’existence d’une méthode scientifique universelle comme outil de rationalisation systématique du réel, est abondamment développé dans l’un de ses ouvrages majeurs, Contre la méthode , dont la publication lui valut en son temps de nombreuses critiques, jusqu’à être qualifié de « pire ennemi de la science » par la revue Nature en 1987. Par la suite, ses travaux connurent un accueil plus favorable et un regain d’intérêt notamment de la part de philosophes pragmatistes comme Richard Rorty et Thomas Nagel.
Par ailleurs, Kuhn reconnait (La structure des révolutions scientifiques, p.22) que «La science normale, activité au sein de laquelle les scientifiques passent inévitablement presque tout leur temps, est fondée sur la présomption que le groupe scientifique sait comment est constitué le monde. Une grande partie du succès de l’entreprise dépend de la volonté qu’à le groupe de défendre cette supposition, à un prix élevé s’il le faut ». Quitte à s’écarter des principes de rationalisation. Il ajoute que des réponses aux questions concernant les relations et les interactions entre les observateurs humains les entités fondamentales qui composent l’univers doivent être fermement intégrées à l’initiation qui prépare l’étudiant et lui donne accès à la pratique professionnelle. Selon lui  c’est parce que l’éducation scientifique (p.21) « est à la fois rigoureuse et rigide que ces réponses en arrivent à avoir une emprise profonde sur l’esprit des scientifiques, et cette emprise est l’une des grandes raisons de l’efficacité particulière de l’activité normale de recherche et de la direction dans laquelle elle se développe à tel moment donné. »

A ce stade, je pose toutefois la question : dans quelle mesure les étudiants questionnent-ils l’origine de ces réponses ? L’opportunité et la possibilité de le faire leur sont-elles seulement proposées au cours de leur éducation ?

Kuhn prend donc en compte le caractère positif de l’obstination et de l’entêtement quasi dogmatique dont font parfois preuve les scientifiques lorsqu’ils défendent leur vision des choses face à d’autres modes d’explication considérés comme scientifiques ou non. De même, Imre Lakatos enrichit le critère de réfutabilité de Popper, trop souvent inadapté à la « réalité du terrain » : la moindre observation ou expérience en contradiction avec une hypothèse impliquerait le rejet de cette hypothèse, alors que la qualité des instruments de mesure utilisés ou l’interprétation des données par les chercheurs pourraient être en cause. Plus récente et plus pertinente, la tentative de Lakatos entend caractériser l’essor de la pratique scientifique et de ses méthodes par ce qu’il appelle les « programmes de recherche ». Il considère les théories comme des structures contenant un noyau dur d’hypothèses inattaquables et irréfutables par principe, même lorsque des observations et des résultats d’expériences les contredisent, mais aussi une « ceinture protectrice » d’hypothèses réfutables. Ainsi la rigidité et l’inertie s’invitent-t-elles localement et régulièrement - dans des proportions que la préservation d’une certaine liberté intellectuelle requiert de soigneusement doser- au cœur de l’activité scientifique afin d’en garantir la souplesse et la mobilité globale. Elles lui sont nécessaires autant qu’elles peuvent lui nuire, dans la mesure où, comme l’explique Popper dans La logique de la découverte scientifique  (Paris payot 1973 trad. Nicole Thyssen Rutten et Philippe Devaux p.111) : « La base empirique de la science objective ne comporte donc rien « d’absolu ». La science ne repose pas sur une base rocheuse. La structure audacieuse de ses théories s’édifie en quelque sorte sur un marécage. Elle est comme une construction bâtie sur pilotis. Les pilotis sont enfoncés dans le marécage mais pas jusqu’à la rencontre de quelques base naturelle ou « donnée » et, lorsque nous cessons d’essayer de les enfoncer davantage, ce n’est pas parce que nous avons atteint un terrain ferme. Nous nous arrêtons, tout simplement, parce que nous sommes convaincus qu’ils sont assez solides pour supporter l’édifice, du moins provisoirement. »

La recherche scientifique n’est donc ni un dogme rigide, ni un absolu scepticisme, ni un acte anomique de pure créativité révolutionnaire. Sa nature, en supposant qu’il soit possible de la caractériser, s’enracine ailleurs. Ailleurs certes, mais dans quelle direction l’étudiant curieux doit-il chercher ? Que renferment les eaux troubles du marécage dont parle Popper ?  Peut-être y trouve-t-on encore des présupposés métaphysiques immémoriaux propres aux civilisations monothéistes, l’idée de force extérieure dictant loi et ordre transcendants, déchiffrables par les Hommes ? Si cette hypothèse semble raisonnable, elle ne saurait se montrer suffisante pour expliquer totalement l’efficacité, la puissance d’action et les importants succès de la science moderne.

Aucun commentaire:

Enregistrer un commentaire

Saisissez votre commentaire.