Dans les cercles universitaires les plus fortement marqués par l’héritage du positivisme logique, les sciences sont généralement présentées aux étudiants comme détentrices de la vérité, de l’autorité, des absolus et finalement de la seule véritable autorité absolue.
Cette conception très dogmatique de la pratique scientifique apparaît dès lors que sciences et religions sont frontalement opposées, en général sous l’égide des valeurs d’émancipation intellectuelle du siècle des Lumières. A cette époque, la pensée occidentale aurait effectué un saut qualitatif décisif en débarrassant la connaissance humaine des oripeaux de la théologie, d’un coup porté par la tranchante et lumineuse lame de la Raison. Mais les sciences n’ont pas été produites ex nihilo et leur construction s’inscrit dans un processus historique plus profond, qui doit prendre en compte de multiples contributions. Le récit stéréotypé d’une victoire triomphante de la libre pensée sur l’hétéronomie semble, en définitive, trop simple. Se pourrait-il que l’épée rédemptrice de la Raison fût patiemment « forgée par les Dieux », quelque part dans les ténébreux labyrinthes de la scolastique médiévale ? Au XVIII ème siècle, l’idée de Dieu est supplantée par celle de Nature (chez Rousseau ou d’Alembert par exemple), interprétée en tant que Force ou Volonté antérieure à tout être, permettant la production et le développement d’un ordre universel déchiffrable par les Hommes. Nous voyons déjà planer ici les ombres de la transcendance divine, ainsi que le remarque Nietzsche dans l’aphorisme 109 du Gai Savoir lorsqu’il pose explicitement la question : « Quand aurons-nous dédivinisé la Nature ? ». C’est donc qu’il y a confusion lorsque science et religion s’affrontent comme deux monothéismes concurrents. En effet, comme l’explique Clément Rosset, dans sa grande fresque consacrée au hasard à travers Logique du pire (Presses Universitaires de France, Quadrige, 1971) et L’anti-nature (Presses Universitaires de France, Quadrige, 1973), le véritable siècle antireligieux trouva son apogée avec la philosophie matérialiste du XVIème (Giordano Bruno, Machiavel, Montaigne …) et non avec les Lumières du XVIII ème siècle.
Nature et hasard
«Ce n’est qu’en apparence
que la pensée de la nature, telle qu’elle se manifeste, par exemple, dans le
théisme et le déisme du XVIIIème siècle […] a succédé à la pensée théologique
et religieuse. En réalité, elle la précède depuis toujours […]. Ce n’est qu’à
partir de la reconnaissance d’un être constitué en dehors de la volonté humaine
–être qui s’est appelé nature au XVIII ème sciècle, mais avait et a
reçu, en d’autres temps et dans d’autres civilisations, des noms différents-
que la pensée religieuse devient possible. C’est l’idée de nature qui conduit à
l’idée de Dieu et non l’inverse, parce qu’elle contient le thème originel d’où
dérivent toutes les religions : la reconnaissance d’une intervention
étrangère à l’Homme, d’un pouvoir efficace auquel l’Homme ne prend nulle part.
En prétendant remplacer les superstitions religieuses par un culte de la
nature, les libres penseurs du XVIII ème sciècle ne faisaient que
revenir aux sources vives de la religion et de la superstition. » (Logique du pire, p.82)
Dans ces deux ouvrages admirables, l’auteur se propose de démanteler le concept de Nature en montrant qu’il ne s’agit que d’une projection sur le réel, dont la trame est le hasard, du désir tout humain de trouver un ordre, un sens, une raison à des choses qui en seraient dépourvues.
Dans ces deux ouvrages admirables, l’auteur se propose de démanteler le concept de Nature en montrant qu’il ne s’agit que d’une projection sur le réel, dont la trame est le hasard, du désir tout humain de trouver un ordre, un sens, une raison à des choses qui en seraient dépourvues.
«A ce titre, l’idée de
nature pourrait apparaitre comme l’expression la plus générale de l’affectivité
paranoïaque, c’est-à-dire comme l’expression d’une des composantes
fondamentales de toute affectivité humaine : elle en exprime précisément
les deux principaux thèmes, l’insatisfaction et la rationalisation. » (L’anti-nature, p.26)
Le concept de Nature serait une
erreur, un fantasme idéologique qui consisterait à «substituer la
complication ordonnée d’un monde à la simplicité chaotique de
l’existence » (L’anti-nature, 4ème
de couverture). Un ersatz de religion en
somme.
Car en effet :
Car en effet :
«Ce qui est contraire à
l’idée de nature n’est pas l’idéologie religieuse, mais à l’opposé, la pensée
matérialiste, qui refuse de voir dans l’existence tant l’effet de forces que le
résultat de principes : pour rendre compte de ce que les Hommes appellent
la nature, le matérialisme se contente d’invoquer deux « refus de
principe » qui sont l’inertie (refus d’introduire l’idée de force dans
l’existence) et le hasard (seul apte à rendre compte de la possibilité des
productions sans entorse au principe d’inertie). » (L’anti-nature, p.26)
Rosset donne à la notion de
hasard une définition très précise et bien particulière, proche de celle du clinamen chez Lucrèce : le hasard,
c’est le principe qui gouverne la matière. « Hasard est précisément le nom
qui désigne l’aptitude de la matière à s’organiser spontanément » (Logique du pire, p.85).
D’une certaine manière, la physique contemporaine vient appuyer cette définition. En effet, deux des principales approches de la physique, la mécanique statistique et la mécanique quantique sont des théories probabilistes. Pour la physique statistique, les processus d’évolution et d’organisation de la matière à l’échelle atomique et moléculaire sont stochastiques (le mouvement Brownien en est un exemple typique). Pour la physique quantique, le hasard apparaît dans le processus de mesure, qui est indéterministe (la réduction de la fonction d’onde est gouvernée par le hasard dans le cadre d’une interprétation n’admettant pas de variables cachées). Quant à l’étude des systèmes dynamiques, remise au goût du jour depuis le dernier quart du XXème siècle, il se pourrait qu’elle révèle une imprédictibilité fondamentalement liée à une certaine forme de hasard, lorsque des systèmes chaotiques sont en jeu. Mais ce dernier exemple est plus délicat et nous y reviendrons certainement dans le cadre ce blog.
D’une certaine manière, la physique contemporaine vient appuyer cette définition. En effet, deux des principales approches de la physique, la mécanique statistique et la mécanique quantique sont des théories probabilistes. Pour la physique statistique, les processus d’évolution et d’organisation de la matière à l’échelle atomique et moléculaire sont stochastiques (le mouvement Brownien en est un exemple typique). Pour la physique quantique, le hasard apparaît dans le processus de mesure, qui est indéterministe (la réduction de la fonction d’onde est gouvernée par le hasard dans le cadre d’une interprétation n’admettant pas de variables cachées). Quant à l’étude des systèmes dynamiques, remise au goût du jour depuis le dernier quart du XXème siècle, il se pourrait qu’elle révèle une imprédictibilité fondamentalement liée à une certaine forme de hasard, lorsque des systèmes chaotiques sont en jeu. Mais ce dernier exemple est plus délicat et nous y reviendrons certainement dans le cadre ce blog.
Chez Rosset, le hasard est un
principe immanent, intimement relié à la matière, tandis que la nature apparaît
comme l’archétype de la transcendance que confèrent généralement au réel les
approches dites rationnelles ou scientifiques. Nous esquisserons ici une
définition ramassée du hasard au moyen d’une formule malheureusement vague et
négative (c’est-à-dire en somme l’exact opposé du travail de l’auteur, dont la
lecture reste, pour cette raison, essentielle et nécessaire). Celle-ci
permettra néanmoins d’appréhender de manière pédagogique son intérêt pour la construction d’une ontologie
et d’une (anti-)métaphysique matérialistes. Le hasard comme principe
ontologique constituant est ce qui s’oppose à toute intervention providentielle
(qu’elle soit religieuse ou déterministe). En ce sens le hasard « s’oppose
à tout ce qui est «voulu», d’une certaine manière qui n’est
pas humaine, voulu avant qu’intervienne la volonté humaine. Voulu par les
lois de la matière, de l’Histoire, de la vie, de Dieu, comme on voudra
penser » (Logique du pire,
p.85).
La pensée du hasard inclut le
hasard dans sa représentation de la matière. Le hasard est donc en ce sens un
automouvement immanent et spontané, ayant son principe en lui-même et
n’excluant nullement la possibilité de relations constantes et intelligibles
dans le monde. Lorsque celles-ci existent, elles sont simplement le fruit du
hasard, au sens où l’ordre n’est qu’un cas particulier du désordre. Car en
effet, si le hasard est le principe ontologique fondamental, produisant tout,
il produit aussi son contraire qui est l’ordre. Selon Rosset, les idéologies
naturalistes « accordent le point principal de l’idéologie religieuse, à
savoir qu’il « se fait » quelque chose, qu’il y a un
« monde » de fait » (L’anti-nature,
p.34) c’est-à-dire qu’il y a de
l’ordre interprétable dans le réel, et que celui-ci est le résultat d’un
« faire », d’une force d’ordonnancement.
C’est donc une certaine forme de
croyance que d’invoquer un principe transcendant pour justifier l’existence des
choses et des mondes. Le Hasard, lui, se passe d’idéologie puisqu’il représente
« l’insignifiance radicale » (Logique
du pire, p.139), le fait que les choses soient sans raison. Le matérialisme
est ainsi amoral tandis que la recherche de raison se voit marquée
d’affectivité. Comment concilier, alors, le matérialisme méthodologique des
sciences (tout ce que les sciences étudient est matière ou produit de la
matière) avec leur objectivité ? Que penser de cette tradition
scientifique consistant à se poser en sujet connaissant face à une nature-objet
dont les lois sont à étudier ?
A contrario, Les sciences et techniques chinoises, dont le substrat
culturel peut être considéré comme exempt de monothéisme, s’enracinent dans le
déploiement immanent du réel. D’après les travaux de Sandra Harding et Joseph Needham, l’idée d’un univers conçu comme « un grand empire gouverné par le
Logos divin » ne fut jamais perceptible dans la longue histoire de la
science chinoise. Par comparaison avec la science occidentale à la Renaissance,
« la conception chinoise de la nature posait problème en ceci qu’elle ne
suscitait aucune curiosité à l’égard des lois abstraites formulées avec
précision et décrétées depuis les origines par un législateur céleste pour une
nature non humaine. Il n’y avait aucune assurance que le code des lois de
la Nature pût être dévoilé, pour la bonne raison qu’il n’y avait aucune
certitude qu’un être divin, même plus rationnel que l’Homme, eût jamais formulé
un tel code. » Les multiples traditions de la science chinoise
ont, selon Harding et Needham, pour dénominateur commun de considérer que la
nature se gouverne elle-même, « vaste toile de liens dépourvue d’un
tisserand, et dans laquelle les Hommes interviennent à leur propre
péril ». Cette interprétation du réel semble davantage se conformer au
matérialisme décrit par Rosset.
Ainsi, l’analyse de ces
spécificités culturelles permet de reconnaitre qu’au cours de l’Histoire, les
valeurs chrétiennes ont fait avancer les sciences occidentales dans bien des
domaines en leur suggérant une certaine notion de l’harmonie, de la vérité et
de l’ordre des choses. A l’inverse, elles les ont retardées dans d’autres, en
leur interdisant d’avoir recours à certaines hypothèses concernant, par exemple,
la place de l’Homme et le statut la vie dans l’univers. En effet, comme le
remarque l’historien des sciences Alexandre Koyré (dans Etudes d’histoire de la pensée scientifique, « orientation
et projets de recherches »), l’évolution de la pensée scientifique est
très étroitement liée à celle des idées transscientifiques, philosophiques,
métaphysiques, et religieuses. Certains
principes physiques d’une très grande efficacité pratique se basent
historiquement sur des valeurs qui confinent au religieux. Précisons qu’un
principe physique est un postulat fondamental
qui n’est pas démontré mais tenu pour vrai en raison de son succès empirique et
parce qu'aucune expérience ne l’a jamais invalidé. Les principes physiques
expriment en peu de mots des hypothèses permettant d’inférer des conclusions d’une
portée très générale à propos du monde. Ils sont donc d’une importance
conceptuelle capitale. En plus de sous-tendre l’édifice épistémologique, leur
formulation abstraite recèle une « valeur esthétique » non
négligeable, communément appréciée des physiciens.
C’est le cas par exemple du principe
de moindre action ou du principe de Fermat en optique, dont la mystérieuse
puissance de prédiction des phénomènes ne peut s’expliquer que parce que «la
nature agit toujours par les voies les plus courtes et les plus simples»
(Fermat). De même, dans Principe de la moindre quantité d'action
pour la mécanique (1744), Maupertuis définit ainsi l'action : « L'Action
est proportionnelle au produit de la masse par la vitesse et par l'espace.
Maintenant, voici ce principe, si sage, si digne de l'Être suprême : lorsqu'il
arrive quelque changement dans la Nature, la quantité d'Action employée pour ce
changement est toujours la plus petite qu'il soit possible. »
On voit donc que dans l’histoire
de la physique, les scientifiques entretiennent un dialogue constant avec des
puissances divines et des êtres suprêmes. Revenons deux siècles plus tôt et
intéressons-nous à un autre exemple, rapporté par Alexandre Koyré. A ceux qui voudraient
présenter les progrès de l’astronomie, et en particulier le passage du
géocentrisme à l’héliocentrisme, comme un triomphe de l’athéisme sur
l’obscurantisme Chrétien, Koyré rappelle les arguments qui furent employés par
Copernic (De revolutionibus orbium
coelestium, 1543) pour initier son changement de paradigme.
«À vrai dire, le monde de Copernic n'est
nullement dépourvu de traits hiérarchiques. Ainsi, s'il affirme que ce ne sont
pas les cieux qui se meuvent, mais la Terre, ce n'est pas seulement parce qu'il
semble irrationnel de faire mouvoir un corps énormément grand au lieu d'un
corps relativement petit [...] mais aussi parce que "la condition d'être
au repos est considérée comme plus noble et plus divine que celle du changement
et de l'inconsistance ; cette dernière, par conséquent, convient davantage à la
Terre qu'à l'univers". Et c'est à
cause de sa suprême perfection et de son importance - source de lumière
et de vie - que la place qu'il occupe dans le monde et assigné eau soleil : La
place centrale, que, suivant la tradition pythagoricienne et renversant ainsi
complètement l'échelle de valeur d'Aristote et des médiévaux, Copernic croit
être la meilleure et la plus importante ». (Alexandre Koyré, Du monde clos à l’univers infini,
Gallimard Tel, 1973 pour la traduction Française, p.48)
Les théories élaborées par nos
illustres prédécesseurs n’abordaient généralement les questions fondamentales
de la métaphysique que sous l’angle d’une théologie, quelle que fût sa forme. Pourquoi
les lois de la physique sont-elles ainsi faites ? Pourquoi y-a-t’ il
un univers plutôt que rien ? Pour y répondre, Descartes et Newton se
contentaient typiquement d’un « comment », préfigurant ainsi
l’avènement du positivisme en abandonnant à la religion les questions relatives
au mystère de la création : l’univers, la raison et les lois de la
physique sont tels que Dieu a voulu qu’ils soient. Les Hommes doivent se
contenter d’une étude empirique du réel, assistés dans leur tâche par l’outil
mathématique. Cette position a, selon Koyré, son importance dans l’efficacité
de la physique Newtonienne : « Les concepts philosophiques de Newton
concernant le rôle des mathématiques et de la mesure exacte dans la
constitution du savoir scientifique furent aussi importantes pour le succès de
ses entreprises que son génie mathématique : ce n’est pas par manque
d’habileté expérimentale, mais par suite de l’insuffisance de leur philosophie
de la science –empruntée à Bacon- que Boyle et Hooke ont échoué devant les
problèmes de l’optique, et ce sont de profondes divergences philosophiques qui
ont nourri l’opposition de Huygens et de Leibniz à Newton. » (Dans Etudes
d’histoire de la pensée scientifique, « orientation et projets de recherches » p.13 ).
Outre l’impossibilité morale de
s’écarter du dogme religieux en proposant une métaphysique différente de celle validée
par l’Eglise, il se pourrait que les réponses à ces questions aient été éludées
en raison d’une difficulté intrinsèque à les formuler en des termes clairs. Le
problème serait en quelque sorte intrinsèquement mal posé, qu’on lui donne le
nom de Dieu ou de Nature.
Pour Clément Rosset, dans L’anti-nature,
Pour Clément Rosset, dans L’anti-nature,
«L’idée fondamentale du
naturalisme est une mise à l’écart du rôle du hasard dans la genèse des
existences : l’affirmation que rien ne saurait se produire sans quelque
raison, et qu’en conséquence les existences indépendantes des causes
introduites par le hasard ou l’artifice des Hommes résultent d’un autre ordre
de causes, qui est l’ordre des causes naturelles. On sait seulement que la
nature est ce qui reste quand on a de toutes choses biffé les effets de
l’artifice et du hasard : nul ne précise ce qui reste ainsi, mais il suffit,
pour que se constitue l’idée de nature, qu’on tienne pour acquis qu’il y a quelque
chose qui reste. » (L’antinature, p. 20)
«Nul doute en effet que l’efficacité du
concept de nature et de ses diverses imageries ne tienne en premier lieu à son
obscurité même, à l’incapacité où elle est de se définir comme de se
peindre. […] L’efficacité du concept de nature est ainsi à la mesure de son
imprécision, qui contribue à la rendre invulnérable. L’idée de nature est
invincible parce qu’elle est vague ; mieux, parce qu’elle n’existe pas en
tant qu’idée : et rien n’est invincible comme ce qui n’existe
pas. » (L’antinature, p. 21)
A ce stade, certains lecteurs
auront remarqué que ce sont les règles de la réfutation Poppérienne qu’enfreint
l’idée de nature, alors même que cette dernière est abondamment utilisée pour
fonder le rapport scientifique au réel depuis le début de l’époque moderne (Galilée :
« La nature est écrite en langage mathématique »). La réfutabilité,
que nous définirons progressivement dans la suite, est pourtant l’une des conditions
requises pour qu’un énoncé accède au qualificatif de
« scientifique ». C’est ce que rappelle Rosset, sans la nommer,
lorsqu’il oppose adéquatement la croyance non à la vérité mais à la
précision :
« […] C’est le sort général d’une croyance
que d’abonder en raisons de croire, mais d’être très pauvre en définitions de
sa propre croyance : elle sait toujours dire pourquoi elle croit, jamais
ce à quoi, précisément, elle croit. Aussi la grande ennemie de la croyance
n’est-elle pas la « vérité » (que ses incroyants lui opposent
vainement), mais la précision. » (L’antinature,
p. 21)
Aujourd’hui, combien de scientifiques seraient capables de définir précisément ce qu’est « la science » et pourquoi ils la pratiquent, sinon en raison de son efficacité empirique ?
Réfutation ou falsification Popperienne
La théologie, dogmatique et
irréfutable par principe, jouit d’une très grande stabilité car elle repose
majoritairement sur des énoncés invérifiables qui ne peuvent être
expérimentalement mis à l’épreuve. De même, certaines expériences de pensée à
propos des concepts centraux de la religion aboutissent à des paradoxes ou à
des énoncés absurdes, parce que leurs définitions ne sont pas assez précises
pour être opérationnelles dans un système hypothético-déductif. Le discours qui
en résulte n’est alors ni clair ni univoque. C’est le cas par exemple de la
question naïve : « Dieu pourrait-il créer un rocher si lourd qu’il
n’arriverait lui-même pas à le soulever ? » qui présuppose et
nécessite une définition précise de Dieu. Autrement, comment lui attribuer des
propriétés ? Le mystère et la croyance sont toujours suffisamment vagues
et indéfinis pour trouver leur place parmi les représentations et les désirs de
ceux qui les adoptent, tout en donnant l’illusion d’un sens, d’une raison,
d’une vérité. Notons toutefois avec
Whitehead que « la science est plus changeante que la théologie ». Il
s’agit là de l’une des principales différences entre la pratique scientifique,
dotée de son matérialisme méthodologique et la croyance religieuse qui postule
des entités immatérielles. Karl Popper fonde en effet son critère de
démarcation scientifique sur la réfutabilité : une théorie est
scientifique si elle est capable de tenir sur son objet un discours
suffisamment précis pour aboutir à des expériences dont les résultats pourraient
la contredire et la réfuter. Dans ces conditions, cela ne signifie nullement
que la théorie soit fausse d’emblée. Cela signifie au contraire que le degré de
crédibilité accordé à cette théorie est d’autant plus fort qu’il est possible
de tenter de la remettre en question sans aboutir à sa destruction. Affirmer
implique alors vraisemblablement d’avoir les moyens de remettre en question, de
discuter et tester les hypothèses. Ainsi, pour Popper, prouver c’est échouer à
réfuter. Les théories scientifiques, valables un temps, sont continuellement
réfutées par de nouvelles expériences, de nouvelles observations, et deviennent
obsolètes pour être mieux remplacées par de nouvelles théories. La réfutation
Popperienne (ou falsification, terme plus employé chez les anglophones) permet donc
de déduire logiquement que des théories sont fausses mais pas qu’elles sont
vraies. Popper remplace la vérité par
une double notion plus subtile. D’abord, une théorie sera acceptée si
elle résiste aux tentatives de réfutation : on parle alors de
corroboration. Ensuite, le mouvement par lequel une théorie fausse se voit
remplacée par une nouvelle, converge par degrés successifs vers une forme de
vérité approximative constamment améliorée : la vérisimilitude.
Avec l’essor des machines à
vapeurs au début du XIXème siècle, les physiciens s’intéressèrent à
la chaleur et au transfert d’énergie thermique, posant alors les fondements
d’une discipline nouvelle : la thermodynamique. La formalisation théorique
et le raffinement des connaissances empiriques dans ce domaine mirent
ironiquement fin aux aspirations de nombreux savants et inventeurs qui
entendaient découvrir une source de mouvement perpétuel. Leurs hypothèses se
trouvèrent réfutées. Ironiquement, il se peut que ce vieux rêve ne soit pas
mort : le critère de réfutabilité, même s’il n’est pas toujours adapté ni
respecté en pratique, confronte continuellement les hypothèses aux expériences
et aux données d’observation nouvelles, engendrant par là-même un mouvement
perpétuel de la pensée, consubstantiel à la connaissance scientifique.
Il semble alors raisonnable
d’interpréter le critère de Popper comme une condition nécessaire à l’existence
de la pratique scientifique. Mais est-elle suffisante ? On pourrait dire
qu’il s’agit là d’un critère logique de rigueur et d’honnêteté intellectuelle
propre au matérialisme méthodologique. En pratique il a toutefois ses limites
et fut outrepassé à de nombreuses reprises au cours de l’Histoire des sciences.
Si les chercheurs l’avaient appliqué strictement, certaines des théories
scientifiques les plus belles et les plus efficaces que nous connaissons
auraient été rejetées dès leurs balbutiements. Pour Alan F. Chalmers (Qu’est-ce que la science, Editions La
découverte, Paris, 1987, pour la traduction Française, p.116) on peut trouver pour toute théorie
scientifique classique des rapports d’observations jugés valides à l’époque de
leur formulation mais qui la contredisent. C’est le cas par exemple de
l’anomalie de l’orbite de la planète Uranus qui contredisait en son temps la
théorie de la gravitation de Newton et aurait ainsi pu suffire à la réfuter.
C’était sans compter sur la présence de la planète Neptune, qui restait à
découvrir à cette époque. Celle-ci exerce en effet sur les orbites des planètes
voisines une force gravitationnelle dont la contribution dans l’interaction
globale n’avait pas été prise en compte par les conditions initiales injectées
dans les équations du mouvement. D’un point de vue général, la théorie n’était
donc pas en défaut : ce sont l’interprétation et l’observation qui, dans
ce cas particulier, étaient erronées. Le lecteur intéressé trouvera dans
l’ouvrage de Chalmers susmentionné une étude plus détaillée du cas de la
révolution Copernicienne et des difficultés rencontrées lors de l’application
du critère de réfutabilité à la complexité de ce changement théorique majeur. De
la même manière, en 1604, lorsque Galilée formula la loi de la chute des corps,
celle-ci ne pouvait être soumise au critère de réfutation sur le plan
expérimental. Personne à cette époque ne savait obtenir le vide nécessaire à la
réalisation de l'expérience cruciale permettant de tester l'hypothèse selon
laquelle les corps tombent tous à la même vitesse, indépendamment de leur masse,
lorsqu'ils ne sont pas soumis aux frottements de l'air. C'est une expérience de
pensée qui permit de trancher, au moyen d’un raisonnement par l’absurde :
Soit deux corps massifs C1 et
C2, de masses respectives m1 et m2 telles que m1>m2.
Considérons le syllogisme suivant :
Considérons le syllogisme suivant :
P1. : Les corps les plus
lourds tombent plus rapidement que les corps légers.
P2. : Or, m1 > m2
Conclusion : Donc m1 tombe
plus vite que m2.
On relie maintenant C1 et C2 avec une corde. D’après P1, l’ensemble C1+C2, de masse m1+m2, devrait tomber plus rapidement que C1 puisque m1+m2 > m1. Mais lors de la chute, C1 devance C2, ce qui a pour effet de tendre la corde et produit un effet de « parachute », de sorte que C1+C2 tombe plus lentement que C1.
P1 est donc réfutée et remplacée
par P1’ : Les corps les plus lourds tombent plus rapidement que les corps
légers lorsqu’ils sont soumis aux frottements de l’air.
La réfutation est donc un critère rationnel efficace pouvant être employé tant dans le domaine empirique que théorique. Mais comme nous l'avons évoqué, elle présente toutefois ses limites et fut critiquée tout au long du dernier quart du XXème siècle.
Réfutation : critiques et évolution.
Paul Feyerabend, qui fut pendant
ses années d’études de la physique et de la philosophie, un Poppérien
convaincu, écrit dans son autobiographie (Tuer
le temps, édition seuil, traduit de l’anglais par Baudoin Jurdant
p.116) qu’un tel critère de rationalisation du réel est dangereux parce qu’il
contient des éléments qui paralysent notre jugement. « Le
rationalisme, qu’il soit dogmatique ou critique, ne fait pas exception. Pire
même : la cohérence interne de ses produits, la dimension apparemment
raisonnable de ses principes, la promesse d’une méthode qui permettrait aux
individus de se libérer des préjugés et le succès des sciences qui semble être
l’exploit principal du rationalisme lui confèrent une autorité presque
surhumaine. Popper a non seulement fait usage de ces éléments mais il y a
encore ajouté un ingrédient paralysant de son propre cru – la simplicité. […]
C’était drôle de couvrir de mépris des traditions vénérables en prouvant
qu’elles n’avaient « aucun sens sur le plan cognitif ». C’était même
encore plus drôle de critiquer des théories scientifiques respectables en
levant la baguette magique de la falsifiabilité » confesse-t’il. « Je
ne me rendis pas compte que j’acceptais une hypothèse importante et pas du tout
évidente. Je croyais que les normes « rationnelles », dès qu’elles
étaient appliquées rigoureusement et sans exceptions, pouvaient conduire à une
pratique aussi flexibles, riche, stimulante et technologiquement efficace que
celle des sciences que nous connaissons déjà, que nous acceptons et que nous
admirons. Mais l’hypothèse est fausse. Pratiqué avec détermination et sans
concessions, le falsificationnisme balaierait la science telle que nous la
connaissons». Si Feyerabend reconnait que certains épisodes de l’Histoire des
sciences semblent obéir au modèle
falsificationniste, il affirme toutefois qu’il s’agit d’une idéalisation.
« Ce qui ne veut pas dire que la science soit irrationnelle »
ajoute-t’il. « On peut rendre compte de chacune de ses étapes […].
Néanmoins, les étapes prises ensemble ne constituent que rarement un modèle
cohérent obéissant à des principes universels et les cas qui confirment de tels
principes ne sont pas plus fondamentaux que les autres. » Pour Feyerabend,
la science n’est pas un système mais un « collage ». Son point de
vue, qui tend à nier l’existence d’une méthode scientifique universelle comme
outil de rationalisation systématique du réel, est abondamment développé dans
l’un de ses ouvrages majeurs, Contre la
méthode , dont la publication lui valut en son temps de
nombreuses critiques, jusqu’à être qualifié de « pire ennemi de la
science » par la revue Nature en 1987. Par la suite, ses travaux connurent
un accueil plus favorable et un regain d’intérêt notamment de la part de
philosophes pragmatistes comme Richard Rorty et Thomas Nagel.
Par ailleurs, Kuhn reconnait (La structure des révolutions scientifiques,
p.22) que «La science normale, activité au sein de laquelle
les scientifiques passent inévitablement presque tout leur temps, est fondée
sur la présomption que le groupe scientifique sait comment est constitué le
monde. Une grande partie du succès de l’entreprise dépend de la volonté qu’à le
groupe de défendre cette supposition, à un prix élevé s’il le faut ».
Quitte à s’écarter des principes de rationalisation. Il ajoute que des réponses
aux questions concernant les relations et les interactions entre les
observateurs humains les entités fondamentales qui composent l’univers doivent
être fermement intégrées à l’initiation qui prépare l’étudiant et lui donne
accès à la pratique professionnelle. Selon lui c’est parce que
l’éducation scientifique (p.21) « est à la fois rigoureuse et rigide que
ces réponses en arrivent à avoir une emprise profonde sur l’esprit des
scientifiques, et cette emprise est l’une des grandes raisons de l’efficacité
particulière de l’activité normale de recherche et de la direction dans
laquelle elle se développe à tel moment donné. »
A ce stade, je pose toutefois la question : dans quelle mesure les étudiants questionnent-ils l’origine de ces réponses ? L’opportunité et la possibilité de le faire leur sont-elles seulement proposées au cours de leur éducation ?
Kuhn prend donc en compte le
caractère positif de l’obstination et de l’entêtement quasi dogmatique dont
font parfois preuve les scientifiques lorsqu’ils défendent leur vision des
choses face à d’autres modes d’explication considérés comme scientifiques ou
non. De même, Imre Lakatos enrichit le critère de réfutabilité de Popper, trop
souvent inadapté à la « réalité du terrain » : la moindre
observation ou expérience en contradiction avec une hypothèse impliquerait le
rejet de cette hypothèse, alors que la qualité des instruments de mesure
utilisés ou l’interprétation des données par les chercheurs pourraient être en
cause. Plus récente et plus pertinente, la tentative de Lakatos entend
caractériser l’essor de la pratique scientifique et de ses méthodes par ce
qu’il appelle les « programmes de recherche ». Il considère les
théories comme des structures contenant un noyau dur d’hypothèses inattaquables
et irréfutables par principe, même lorsque des observations et des résultats
d’expériences les contredisent, mais aussi une « ceinture
protectrice » d’hypothèses réfutables. Ainsi la rigidité et l’inertie
s’invitent-t-elles localement et régulièrement - dans des proportions que la
préservation d’une certaine liberté intellectuelle requiert de soigneusement
doser- au cœur de l’activité scientifique afin d’en garantir la souplesse et la
mobilité globale. Elles lui sont nécessaires autant qu’elles peuvent lui nuire,
dans la mesure où, comme l’explique Popper dans La logique de la découverte scientifique (Paris payot 1973
trad. Nicole Thyssen Rutten et Philippe Devaux p.111) : « La base
empirique de la science objective ne comporte donc rien « d’absolu ».
La science ne repose pas sur une base rocheuse. La structure audacieuse de ses
théories s’édifie en quelque sorte sur un marécage. Elle est comme une
construction bâtie sur pilotis. Les pilotis sont enfoncés dans le marécage mais
pas jusqu’à la rencontre de quelques base naturelle ou « donnée » et,
lorsque nous cessons d’essayer de les enfoncer davantage, ce n’est pas parce
que nous avons atteint un terrain ferme. Nous nous arrêtons, tout simplement,
parce que nous sommes convaincus qu’ils sont assez solides pour supporter
l’édifice, du moins provisoirement. »
La recherche scientifique n’est
donc ni un dogme rigide, ni un absolu scepticisme, ni un acte anomique de pure
créativité révolutionnaire. Sa nature, en supposant qu’il soit possible de la
caractériser, s’enracine ailleurs.
Ailleurs certes, mais dans quelle direction l’étudiant curieux doit-il
chercher ? Que renferment les eaux troubles du marécage dont parle
Popper ? Peut-être y trouve-t-on
encore des présupposés métaphysiques immémoriaux propres aux civilisations
monothéistes, l’idée de force extérieure dictant loi et ordre transcendants,
déchiffrables par les Hommes ? Si cette hypothèse semble raisonnable, elle
ne saurait se montrer suffisante pour expliquer totalement l’efficacité, la
puissance d’action et les importants succès de la science moderne.
Aucun commentaire:
Enregistrer un commentaire
Saisissez votre commentaire.