Le Repaire des Sciences
Sciences Physiques et Chimiques

 

 

 

 

     Epistémologie : généralités

 

 

 

 


Théories de la validation
        Gaston Bachelard et l'obstacle épistémologique
        L'inductivisme
        Falsificationnisme ou réfutabilité
        Point de vue d'autres philosophes

Théories de l'explication
        Unité des sciences

 

L’épistémologie fait partie de ces mots difficiles à définir. Issu du grec « epistêmê » signifiant « science » et de « logos » signifiant « étude », l’épistémologie pourrait donc se définir comme l’étude de la science, ie. l’étude de la connaissance. On peut y voir le développement de réflexions sur le savoir, sur les moyens déployés pour le construire – d’où un lien fusionnel avec l’histoire des sciences –. Dans le système universitaire français, en dehors des filières dont elle constitue la moelle, l’épistémologie est cruellement absente. Dans les facultés de sciences dites exactes, par exemple, c’est un aspect de la construction des connaissances complètement occulté.

L’épistémologie peut être vue comme une partie de la philosophie qui s'intéresse au discours rationnel sur la connaissance scientifique. La philosophie des sciences étudie ainsi la connaissance scientifique d'un point de vue critique. L'épistémologie peut s'intéresser à établir une classification des sciences, à définir des catégories. C'était la première étape des sciences dans la classification (la taxonomie des familles, genres et espèces en sciences naturelles), la deuxième étape étant l'explication et la troisième la prédiction à partir des modèles, issus des théories explicatives, et leur simulation. Des questions plus existentielles sont également soulevées : qu'est-ce que le savoir ? Comment prend-il forme ? Pourquoi telle forme de savoir plutôt qu'une autre ? Quelles sont les limites du savoir ? Comment faire pour savoir ?

"L'évolution de la prise de conscience de la nature profonde de la pensée scientifique pourrait être symbolisée, très schématiquement, par trois devises, dont chacune réinterprète d'une certaine manière et rectifie la précédente. On a d'abord proclamé qu'il n'y avait de science que l'universel; puis, qu'il n'y avait de science que le mesurable. Nous devrions dire aujourd'hui: il n'y a de science que le structurable. Profession de foi qui ne récuse nullement les deux précédentes, mais les relativise, et donne un sens nouveau à l'universel et au mesurable. C'est de cette manière qu'il conviendrait, me semble-t-il, de reconnaître le rôle et la place des modèles qualitatifs dans la pensée scientifique." Gilles Gaston Granger.

Au début du XXème siècle, dans une perspective fondamentaliste, certains philosophes se sont posé la question de savoir s’il était possible d’isoler des faits d’observation, à la base de la généralisation et de la connaissance. Deux points de vue se sont alors confrontés,

 

Théories de la validation

Gaston Bachelard et l'obstacle épistémologique

Gaston Bachelard définit, en 1934, dans un article intitulé "La formation de l'esprit scientifique", ce dernier comme étant "la rectification du savoir, l'élargissement des cadres de la connaissance". Pour lui, le scientifique doit se dépouiller de tout ce qui constitue les "obstacles épistémologiques internes", en se soumettant à une préparation intérieure afin que sa recherche progresse vers la vérité. À ce titre, il prête une grande importance à la psychanalyse, non pas à titre thérapeutique, mais en ce qu'elle permettrait de mieux écarter certaines croyances naïves qui ne seraient que la projection de nos désirs et pulsions. Ce qu'il appelle la "psychanalyse de la connaissance" permettrait la libération pour l'homme de ce qui fait obstacle à la recherche scientifique, et marquer alors dans sa recherche des progrès décisifs. La notion d'obstacle épistémologique est ce qui permet de poser le problème de la connaissance scientifique: c'est à partir du moment où celui-ci est surmonté, donnant lieu à une "rupture épistémologique", que l'on atteint le but recherché. Les obstacles sont, pour Bachelard, non seulement inévitables, mais aussi indispensables pour connaître la vérité. Celle-ci en effet n'apparaît jamais par une illumination subite, mais au contraire, après de longs tâtonnements, "une longue histoire d'erreurs et d'errances surmontées". Plutôt que de vouloir changer le fonctionnement des choses, l'attitude la plus juste pour un scientifique serait de se changer lui-même, dans sa manière d'aborder la science. Ce qui freine le chercheur n'est pas ce qu'a priori il pourrait croire: ce ne sont pas les phénomènes eux-mêmes, mais bien à l'intérieur de lui que les rectifications doivent être faites. Le chercheur, dans sa quête, investit de manière humaine, trop humaine, c'est-à-dire que bien souvent il pose la conclusion d'abord et offre ensuite à l'esprit d'explorer les chemins vers cette conclusion selon les désirs qu'il projette. Si l'on sait que nous ne devons jamais poser trop tôt les conclusions, la quête scientifique n'en demeure pas moins une longue suite de tâtonnements. Le plus grand obstacle resterait en effet, selon Bachelard, ce qui a été déjà découvert, et il faut pouvoir le remettre en question. "La compréhension de demain passe par la négation du discours d'aujourd'hui", affirmait-il. Ainsi les obstacles épistémologiques peuvent-ils être autant de vagues sens communs que les formations de la pensée réfléchie. Les "régressions, stagnations, inerties" dont il parle sont dues à l'échec de conceptions d'abord jugées conformes à la réalité, et qu'il faut rectifier aujourd'hui car elles conduisent à une contradiction intellectuelle. Bachelard dénonce l'opinion que nous laisse l'expérience empirique et son influence sur la connaissance scientifique : "le réel n'est jamais ce que l'on pourrait croire, il est toujours ce qu'on aurait dû penser", dit-il. "La science s'oppose formellement à l'opinion : l'opinion ne pense pas, elle traduit des besoins en connaissances." La connaissance scientifique consistera à revenir sans arrêt sur le déjà découvert. En plus de permettre la connaissance juste de ce qui nous entoure, elle s'avère être également, par la quête longue et difficile qu'elle représente, une conquête de l'esprit humain par l'incessant travail de rectification de nous même.

L'inductivisme

L'induction consiste à passer de cas singuliers à une proposition générale. Le problème est de savoir si nous sommes justifiés à croire que nous pouvons prédire un quelconque fait d'après nos théories. Par exemple, nous avons observé que le soleil, jusqu'ici, se lève le matin. Mais rien ne semble justifier notre croyance au fait qu'il se lèvera encore demain. Ce problème avait été jugé insoluble par le philosophe écossais David Hume (1771–1776), pour lequel notre croyance relevait de l'habitude. Le théorème de Cox-Jaynes [2] donne cependant non seulement des bases mathématiques à l'induction, mais sous condition de savoir que c'est simplement notre modèle du monde que l'induction nous permet d'améliorer, non une connaissance intime de celui-ci.

Falsificationnisme ou réfutabilité

Le philosophe autrichien Karl Popper (1902–1994) critique le raisonnement par induction. Ce dernier a certes une valeur psychologique mais pas une valeur logique. De nombreuses observations cohérentes ne suffisent pas à prouver que la théorie qu'on cherche à démontrer soit vraie. A contrario, une seule observation inattendue suffit à falsifier une théorie. Ainsi, mille cygnes blancs ne suffisent pas à prouver que tous les cygnes sont blancs ; mais un seul cygne noir suffit à prouver que tous les cygnes ne sont pas blancs. C’est le paradoxe de Hempel [3]. Il en résulte qu'une théorie ne peut être « prouvée » mais seulement considérée comme non encore réfutée par des tests intersubjectifs jusqu'à preuve du contraire. Partant de là, on peut distinguer :

Seules les potentiellement réfutables (celles associables à des expériences dont l'échec prouverait l'erreur de la théorie) font partie du domaine scientifique; c'est le « critère de démarcation des sciences ». Popper a toujours défendu l'idée que la méthode scientifique, reposant sur "la logique de la découverte scientifique", est la même pour toutes les sciences (Voir Popper, in "Misère de l'historicisme"). Cependant, pour Popper, il y a des objets qui ne peuvent se prêter à des investigations scientifiques. Il n'y a pas de sciences "exactes" puisque la vraie science est, selon lui, logiquement faillible et constamment sujette à des révisions intersubjectives. Il n'y a que des sciences et des pseudo-sciences (comme la psychanalyse ou le marxisme). Il soutient qu'il est par conséquent inutile de vouloir être scientifique là où on ne peut l'être, se défendant ainsi, de tout scientisme, qu'il a toujours combattu.

Parmi les théories réfutables (Popper dit falsifiables), certaines ont été réfutées et abandonnées, d'autre n'ont pas été réfutées : elles sont dites par Popper « corroborées » ie. considérées vraies jusqu'à preuve du contraire. On peut remarquer que l'hypothèse du dieu trompant en permanence les sens imaginé par Descartes dans les Méditations métaphysiques et qui préfigure l'idée de réalité virtuelle est elle aussi, par définition, corroborée par l'expérience. C'est un autre critère qui nous conduit à ne pas la considérer comme prioritaire : celui du rasoir d'Occam [4].

Point de vue d'autres philosophes

Pour le logicien hongrois Imre Lakatos (1922–1974), il existe deux méthodes de recherche: l'heuristique positive et l'heuristique négative. L'heuristique positive, qui se trouve autour de l'heuristique négative, peut être modifiée. Elle est dynamique. L'heuristique négative présente le noyau dur, une base de programme qui est inchangeable et est protégée de toute forme de modification (ceinture protectrice). Le noyau contient toutes les hypothèses fondamentales et se trouve au centre du modèle de recherche. Lakatos considère le noyau comme infalsifiable par décision méthodologique du chercheur. Ainsi, deux programmes de recherche peuvent coexister même si un des deux est dynamique et l'autre stagne. Lakatos exclut les hypothèses ad hoc. Si le noyau, enrichi par les chercheurs, est détruit par des preuves scientifiques qui s'opposent, Lakatos prédit un changement du programme de recherche.

Mettant l'accent sur la discontinuité dans le processus de la construction scientifique, le philosophe américain Thomas Kuhn (1922–1996) discerne des périodes relativement longues pendant lesquelles la recherche est qualifiée de « normale », c'est-à-dire qu'elle s'inscrit dans la lignée des paradigmes théoriques dominants, périodes pendant lesquelles de brefs et inexplicables changements constituent une véritable « révolution scientifique ». Le choix entre les paradigmes n'est pas fondé rationnellement. Cette posture implique que chaque paradigme permet de résoudre certains problèmes et, de là, les paradigmes seraient incommensurables.

Le philosophe d’origine autrichienne Paul Feyerabend (1924–1994) observait à l'exemple de la naissance de la mécanique quantique que souvent l'avancement scientifique ne suit pas de règles strictes. Ainsi, selon lui, le seul principe qui n'empêche pas l'avancement de la science est « a priori tout peut être bon » (ce qui définit l'anarchisme épistémologique). Il critique donc l'aspect réducteur de la théorie de la réfutabilité et défend le pluralisme méthodologique. Il existe selon lui une très grande variété de méthodes différentes adaptées à des contextes scientifiques et sociaux toujours différents. De plus, il remet en question la place que la théorie de la réfutabilité accorde à la science, en en faisant l'unique source de savoir légitime, et le fondement d'une connaissance universelle qui dépasse les clivages culturels et communautaires. Enfin, Feyerabend critique son manque de pertinence pour décrire correctement la réalité du monde scientifique et des évolutions des discours et pratiques scientifiques. Son œuvre principale, Contre la méthode. Esquisse d'une théorie anarchiste de la connaissance, fut reçue très négativement par la communauté scientifique, car elle accuse la méthode scientifique d'être un dogme et soulève la question de savoir si la communauté doit être aussi critique par rapport à la méthode scientifique que par rapport aux théories qui en résultent.

La loi a d'abord été conçue comme une relation entre une cause et un effet. Mais face à la contingence de la nature, certains penseurs, et notamment le philosophe franciscain anglais Guillaume d'Ockham (1285–1349), furent amenés à formuler l'idée que l'expression de la nécessité des lois de la nature s'exprime sous la forme d'une proposition hypothétique du type : si... alors... donc... hors...

 

Théories de l'explication

Unité des sciences

Au départ fut la publication en 1948 de "Cybernetics, or Control and Communication in the Animal and the Machine” de Norbert Wiener (cybernétique) dont le titre emblématique et programmatique tisse une toile qui recouvre le naturel et l'artificiel, les sciences naturelles et les sciences sociales, introduisant l’information comme l’une des trois composantes universelles avec la matière et l’énergie qui régnaient en maîtresses jusqu’alors.

L’information est ce qui met en forme, qui structure la matière avec l’énergie collatérale. Cette information a ouvert aux USA un bouillonnement intellectuel et scientifique dans tous les domaines, à commencer par la biologie avec l'Austro-Canadien Ludwig von Bertalanffy qui a publié en 1968 "General System Theory. Foundations, Development, Applications", dans l'unité polysystémique des sciences.

Il s’agit de la Première révolution scientifique de l’information avec la cybernétique de la première génération du "signal" physique. Au premier niveau physique, la communication est la transmission des "signaux" porteurs de "signes" qui conduisent à la deuxième révolution scientifique de l’information avec la cybernétique de la deuxième génération, celle du postulat "tout comportement est communication". Au deuxième niveau social, la communication est la mise en commun des significations et des valeurs. Au troisième niveau culturel, la communication est la communion des collègues (ceux qui partagent la même loi et le même héritage) autour des croyances de la religion et les règles de conduite de la morale.

En 1972, sont apparus "Steps to an Ecology of Mind" de Gregory Bateson et "System and Structure. Essays on Communication and Exchange" d’Anthony Wilden qui ont débouché sur une approche écosystémique, une méthodologie issue de nombreuses sciences et couvrant un large spectre d’applications dans de nombreuses sciences et techniques, physiques, biologiques et sociales. La Théorie des contextes formalise cette approche qui relie les niveaux de la lithosphère minérale à la biosphère du vivant sur lesquels se déploie le niveau de la sociosphère des congénères et collègues producteurs de la pensée au niveau de la noosphère par leurs activités sociales.

Il y a eu le paradigme de la matière de la mécanique newtonienne et le paradigme de l’énergie de la thermodynamique qui a inspiré les travaux de Marx et Freud avec leur pression, pulsion, surpression et dépression. La Théorie des contextes, du paradigme de l’information, couvre et relie ces deux paradigmes précédents en une hiérarchie des niveaux de type logique, de contrainte ou de dépendance.

Les sociologues ou philosophes des sciences français Edgar Morin et Michel Serres, pour leur part, ont cherché le "Passage du Nord-Ouest" (titre d’un livre programmatique de Michel Serres) pour relier les "sciences dures" (hard sciences) physico-chimiques au "sciences douces" (soft sciences).

La série "La Méthode" d’Edgar Morin adopte la hiérarchie des contraintes de la Théorie des contextes en commençant par le physique de "La nature de la nature" (1977) pour continuer avec le biologique de "La vie de la vie" (1980) et poursuivre la progression des niveaux jusqu’aux idées engendrées par les activités sociales du niveau précédent.

Publication posthume en 1984 et testament intellectuel, "La Nature et la Pensée" (Mind and "Nature. A Necessary Unity", 1979) de Gregory Bateson clarifie et résume l'écologie de l'esprit en une "métastructure" ou "structure qui relie" les sciences éparpillées et disjointes en chapelles disciplinaires.

Cette unité nécessaire entre la nature et l'esprit est dans la communication qui relie, ce que Edgar Morin, nomme, parfois de "paradigme de la communication", celui des "relations", en contraste aux "objets".

"(...) La différence entre le monde newtonien et celui de la communication tient, simplement, au fait que le premier attribue une réalité aux objets et parvient à une certaine simplicité théorique en excluant le contexte du contexte, donc en fait, toute métarelation et, a fortiori, tout recul à l'infini dans la chaîne de telles relations." (Gregory Bateson, p. 72, "Vers une écologie de l'esprit". 2, Seuil, Paris, 1980). La communication est, alors, l'interface entre le physique et le psychique avec le social et le culturel.

"(...) Pour faire progresser la question, nous proposons donc d'utiliser un seul système pour comprendre les multiples aspects du comportement humain. Aujourd'hui, nous croyons que la communication est le seul modèle scientifique qui nous permette d'expliquer les aspects physiques, intrapersonnels, interpersonnels et culturels des évènements en un même système. En employant un système unique, nous éliminons la multiplicité des univers séparés, les vocabulaires diversifiés et les polémiques qui surviennent parce que nous, spécialistes des sciences humaines et cliniciens, ne pouvons pas nous comprendre.” (Gregory Bateson & Jürgen Ruesch, p. 17, "Communication et société", Seuil, Paris, 1988. Trad. fr. de "Communication. The Social Matrix of Psychiatry", 1951, 1968, 1987.).

 

Notes

[1] Le holisme (du grec holos : entier) est un système de pensée pour lequel les caractéristiques d'un être ou d'ensemble ne peuvent être connues que lorsqu'on le considère et l'appréhende dans son ensemble, dans sa totalité, et non pas quand on en étudie chaque partie séparément.

[2] Le théorème de Cox-Jaynes (1946), dû dans sa version originale au physicien Richard Cox, est une codification des processus d'apprentissage à partir d'un certain ensemble de postulats. Cette codification se trouve coïncider au terme de ces considérations avec celle - historiquement d'origine toute différente - de probabilité. Elle induit donc une interprétation « logique » des probabilités indépendante de celle de fréquence. Elle fournit également une base rationnelle au mécanisme d'induction logique, et donc de l'apprentissage par des machines. Les résultats de Cox n'avaient touché qu'une audience réduite avant qu'E.T. Jaynes ne redécouvre ce théorème et n'en défriche une série d'implications pour les méthodes bayésiennes.

[3] Si je dis « Tous les corbeaux sont noirs », cette phrase est logiquement équivalente à « Tous les objets non-noirs sont des non-corbeaux » (loi de contraposition : P => Q est equivalent à non-Q => non-P ). Pour renforcer par un processus d'induction ma conviction que « Tous les objets non-noirs sont des non-corbeaux », je peux fort bien rester dans ma chambre, y trouver dix mille objets non noirs, et vérifier que ce sont bien tous des non-corbeaux. Une loi qui se vérifie sur dix mille observations sans la moindre exception est certainement valide, n'est-ce pas ?

[4] Le rasoir d'Occam (orthographe latine et française) ou d'Ockham (orthographe anglo-saxonne) est un principe de raisonnement que l'on attribue au moine franciscain et philosophe Guillaume d'Occam (XIVe siècle), mais qui était connu et formulé avant lui : « Les multiples ne doivent pas être utilisés sans nécessité » (pluralitas non est ponenda sine necessitate). L'énoncé : Entia non sunt multiplicanda praeter necessitatem, littéralement : « Les entités ne doivent pas être multipliées par delà ce qui est nécessaire » est une variante souvent attribuée à Guillaume d'Occam sans cependant qu'il y en ait trace dans ses écrits. Aussi appelé « principe de simplicité », « principe de parcimonie », ou encore « principe d'économie », il exclut la multiplication des raisons et des démonstrations à l'intérieur d'une construction logique. Le principe du rasoir d'Occam consiste à ne pas utiliser de nouvelles hypothèses tant que celles déjà énoncées suffisent, à utiliser à fond les hypothèses qu'on a déjà faites, avant d'introduire de nouvelles hypothèses, ou autrement dit à ne pas apporter aux problèmes une réponse spécifique, ad hoc, avant d'être (pratiquement) certain que c'est indispensable (sinon on risque d'escamoter le problème, et de passer à côté d'un théorème ou d'une loi physique). « Nous ne devons admettre comme causes des choses de la nature au-delà de ce qui est à la fois vrai et suffisant à en expliquer l'apparence » Isaac Newton.