505 articles,

3 sites à ce jour
Accueil 31|10|2014 Plan du site Agenda Liens Rédacteurs Contact Admin
Accueil >>  Coin Philo
COURS N°12

L’ÉPISTÉMOLOGIE

samedi 16 octobre 2004, par Gaëlle Sartre-Doublet


Analyse de notions
Etude n°1

I) DÉFINITION ET HISTORIQUE



L’épistémologie signifie étymologiquement « étude des sciences », puisque ce terme est composé des mots grecs suivants :
Epistémê = science
Logos = étude, raison, discours

L’épistémologie est une partie de la philosophie (au même titre que la métaphysique, la philosophie morale et politique, la logique etc...) qui étudie les principes, les méthodes et l’histoire des sciences.
Ce terme est relativement récent puisqu’il fut introduit dans le courant du XIXème siècle par Ampère (1775-1836) dans son Essai sur la philosophie des sciences en 1836 pour être très rapidement repris dès 1840 par Whewell dans sa Philosophie des sciences inductives.
L’apparition tardive de cette discipline est tout à fait logique si l’on considère que jusqu’à Descartes (en gros), philosophie et science ont toujours été intimement liées.
En effet, depuis l’antiquité, tout savoir théorique (en dehors de l’astronomie et des mathématiques) est systématiquement intégré à la philosophie. La physique, par exemple, ne constituait selon la division stoïcienne qu’une des trois parties de la philosophie.
Même au XVIIème siècle, lorsque la science moderne apparaît, les scientifiques eux-mêmes continuent de parler de « philosophie naturelle » en désignant leur discipline.
La rupture du cordon ombilical entre philosophie et science fut donc loin d’être brutale !

Néanmoins, la philosophie des sciences ne se limite pas au XIXème et XXème siècles. En effet, même si elle ne dit pas encore son nom (puisque jusque-là, la « science » s’apparentait à la « philo »), la réflexion sur la science remonte au commencement de la philosophie. Par exemple, Platon consacre entièrement son Théétète (un dialogue issu de ses tétralogies) au problème de la connaissance scientifique.
Ce qui caractérise la science moderne, apparue au XVIIème et selon la thèse des encyclopédistes (XVIIIème), c’est qu’elle est fondée sur une méthode entièrement nouvelle : la méthode expérimentale.
Annoncée par Francis Bacon (1561-1626), précisée par Descartes (1596-1650), elle fut mise en oeuvre par quelques génies isolés comme Galilée (1564-1642), Pascal (1623-1662) et Newton (1642-1727).
Néanmoins, tous les analystes ne partagent pas nécessairement cette version. A en croire certains historiens, on trouverait quelques exemples de méthodologie expérimentale chez les grecs comme chez les jésuites.
Ainsi, l’avènement de la science moderne serait en fait davantage due à « une espèce de renversement de l’attitude spirituelle toute entière, la vie active prenant désormais le pas sur la vie contemplative, tandis que l’homme médiéval, ou Antique, ne poursuivait que la contemplation »
(Alexandre Koyré, philosophe français, 1882-1964).

Mais au fond, peu importe, ces deux thèses ne sont pas nécessairement absolument contradictoires. Si la méthode expérimentale n’est vraisemblablement pas entièrement nouvelle au XVIIème, c’est en tout cas la première fois dans l’histoire occidentale qu’elle est utilisée de manière systématique. Et c’est bien cette utilisation qui caractérise la naissance de la science moderne.
De plus, c’est également l’application systématique de cette méthode qui va désormais radicalement distinguer la science de la philosophie et qui donnera naissance, un siècle et demi plus tard, à l’épistémologie.

II) L’ÉPISTÉMO (pour les intimes !!!) : A QUOI ÇA SERT ?



En voilà une question qu’elle est bonne !
Mais avant d’y répondre, il faut bien comprendre que cette scission entre science et philosophie a eu de lourdes conséquences.
En effet, une fois la rupture consommée entre ces deux branches fondamentales de la connaissance humaine, l’une (physique, biologie, astrophysique etc., sans parler bien sûr des mathématiques qui faisaient déjà bande à part) s’est prétendue sciences exactes ou "dures", tandis que l’autre (histoire, philo, socio, psycho etc.) était reléguée au statut de sciences humaines ou "molles".
Or, la philosophie, toujours théoriquement « science de toutes les sciences », s’est trouvé une nouvelle occupation (déchargée qu’elle était de répondre aux questions qui concernent désormais la physique, la biologie etc.) : elle a crée l’épistémologie, chargée de s’interroger principalement sur la validité de ces sciences dites exactes.
Bien sûr, je m’attends à voir s’esquisser sur quelques mines réjouies (essentiellement celles de nos amis scientifiques d’ailleurs...) un petit rictus condescendant, du type « causez toujours, chez nous ça marche ». Certes, ça marche, et il est certain que ces théories sont à ce titre valides. Mais est-ce pour autant qu’elles sont vraies, ou même simplement justifiées ?
C’est tout l’enjeu de l’épistémologie, qui, fidèle en ce sens à la tradition philosophique dont elle est issue, n’hésite pas à jeter un pavé dans la mare de nos certitudes les plus absolues.


III) QU’EST-CE QU’UNE SCIENCE « EXACTE » ?




On peut distinguer la recherche scientifique en deux grands domaines : les sciences empiriques (c’est à dire expérimentales, issues de l’expérience) et celles qui ne le sont pas.
- Les premières tentent d’explorer, de décrire, d’expliquer et de prévoir les événements du monde dans lequel nous vivons (médecine, météorologie par exemple).
- Les secondes, comme la logique ou les mathématiques abstraites, démontrent des propositions sans qu’il soit nécessaire d’invoquer l’expérience. Il s’agit en fait de systèmes qui fonctionnent « en soi », selon des règles logiques précises. Nous nous occuperons peu de ces derniers, dans la mesure où ils représentent ce que Karl Popper (Epistémologue, 1902 - 1994) nomme des « mondes logiquement possibles », qui ne nécessitent pas de confrontation au réel. D’où il résulte que ces sciences accèdent à une vérité « absolue » tout en demeurant une vérité « en soi », c’est-à-dire dénuée de tout lien avec l’expérience. Nous soulèverons néanmoins un problème : ces sciences partent d’énoncés (du style 1+1=2), qui, pour être justifiés, nécessitent d’autres énoncés (il parait qu’un scientifique un peu foldingue mais terriblement sympathique est parvenu, au terme d’une très longue démonstration, à prouver que 1+1=1,9999999...).
Or, ces énoncés ont à leur tour besoin d’énoncés pour être justifiés. Il s’ensuit que ces sciences, pour éviter une régression à l’infini (car mon professeur foldingue, pour faire sa démonstration, a dû lui aussi faire appel à une première « phrase » mathémathique qu’il faudrait démontrer), doivent admettre des « énoncés de base », également nommés postulats. Le problème que posent ces postulats (1+1=2, na ! et pis c’est tout !), c’est qu’ils sont par définition indémontrables. L’objectivité des sciences non-empiriques (rappelons-le : logique, mathémathiques...) connait donc un problème de base : ces disciplines sont incapables de prouver l’origine de leurs démonstrations.
Embêtant, non ?
Néanmoins, les sciences non-empiriques ne doivent être considérées que comme des instruments - instruments qui, d’ailleurs, ont fait leur preuves - pour accéder au connaissable. Elles ne l’atteignent pas. Eloignées de la réalité, simples formules logiques au service des autres sciences, elles n’ont pas la prétention de décrire le monde dans lequel nous vivons, et c’est pourquoi nous ne les embêterons pas davantage. En effet, l’essentiel de la réflexion épistémologique porte sur les méthodes des sciences empiriques (médecine, météorologie, physique...) qui, elles, sont censées rendre compte du réel.

IV) LES « GROS DÉFAUTS » DES SCIENCES EMPIRIQUES




Que les esprits chagrins ne se méprennent pas : malgré tous les problèmes que posent les sciences « exactes » et que nous allons particulièrement développer maintenant à propos des sciences expérimentales (prononcez « empiriques », ça fait bien dans la conversation), on n’a pas trouvé mieux jusqu’à présent pour décrire le réel.
N’empêche...
L’exactitude des sciences dures n’est pas toujours au rendez-vous, contrairement à ce que l’opinion commune (les médias, votre voisin de palier...) aimerait absolument croire afin de se rassurer. D’une part, parce qu’à l’image des sciences non-empiriques, les sciences empiriques ne sont pas à l’abri des postulats (il faut bien admettre un énoncé de base pour entamer une recherche). D’autre part, parce que ces sciences connaissent des difficultés à tous les stades de leur élaboration : objectivité du chercheur, problèmes épistémologiques (de méthode) et instrumentaux, découvertes structurellement impossibles... A vos marques...

a) Le chercheur : savant objectif ou individu partial ?


L’expression « homme de science » souligne clairement la double nature du chercheur, à la fois homme soumis à l’emprise de ses passions et de ses préjugés, et savant garant de la rigueur et de l’objectivité scientifique.
Cette double appartenance est propice au questionnement philosophique :
« Et si, derrière la volonté de rigueur et le souci d’objectivité dont se parent les savants, se cachaient des postulats indémontrables, des dogmes, de l’idéologie, des approximations hasardeuses, des tabous ? » s’interroge l’épistémologue Max Schreiber.
Il est effectivement loin d’être fortuit de se poser ces questions. La communauté scientifique n’est-elle pas, avant tout, une communauté humaine, donc faillible par essence ? C’est ce que nous sommes amenés à constater en prenant connaissance des différentes analyses historiques et sociologiques, qui nous présentent une science au visage humain, en proie aux mêmes difficultés que d’autres disciplines : des querelles de clocher relatives à leur époque.
C’est une analyse que l’on retrouve chez Kuhn, Lakatos et Holton, mais aussi chez Bachelard et Koyré (tous épistémologues) : chaque époque serait marquée par un concept dominant, qui prend tour à tour le nom de paradigme (Khun), de programme de recherche (Lakatos) ou de thémata (Holton), selon leurs auteurs.
Mais le principe est le même : un concept lié à une science marque son époque et influence d’autres sciences.
Ainsi, Max Schreiber nous donne l’exemple de la notion de « sélection », initialement utilisée en biologie, qui se transpose au XIXème en notion de « concurrence » en économie. Et les exemples « d’adaptation » d’une notion ou d’un concept d’un domaine à un autre ne manquent pas...
Par exemple, actuellement, la théorie du chaos, simple observation de physique mécanique, se voit associée à de nombreuses disciplines aussi diverses que les phénomènes fractales dans un domaine purement théorique ou la météorologie dans ses applications pratiques. La communauté scientifique, sous le coup d’une découverte qu’elle « ressent » comme riche d’applications, cherche à faire passer toutes les branches possibles de la science par le filtre que cette innovation constitue.
De manière plus générale, la tentation est grande pour un chercheur d’éclairer sa discipline par le prisme déformant de l’idéologie ou des principes auxquels il souscrit. Cette attitude, le plus souvent involontaire et inconsciente de la part du chercheur, restreint le champ d’investigation des scientifiques et donc, le champ des découvertes.

Mais il y a plus grave. Le savant, en tant qu’être humain, est parfois tout à fait consciemment malhonnête (et d’ailleurs, pourquoi échapperait-il à la règle ?).
L’affaire de la mémoire de l’eau en est, à ce titre, un exemple tout à fait significatif :
En 1989, le professeur Jacques Benvéniste, un chercheur financé par les laboratoires homéopathiques « BOIRON », découvre une propriété de l’eau : après de très nombreuses dilutions, l’eau conserverait une partie des propriétés des produits dilués, par empreinte de la molécule diluée dans la molécule H2o (molécule de l’eau). Magique ! Car cela signifie qu’il est désormais possible de condenser dans l’eau les vertus de différentes substances, ce qui est une révolution d’un point de vue médical (en gros, inutile d’avoir recours aux substances, je peux me contenter de leur empreinte).
Cette découverte, saluée par la communauté scientifique, publiée par de grands magazines « avertis » (Nature, Science...) connait un grand retentissement. Las !
Quelques mois plus tard, aucun laboratoire, aucun chercheur ne parviennent, en suivant pourtant une démarche absolument identique à la sienne, à renouveler l’expérience de Benvéniste. La pseudo-découverte est enterrée, la fraude probable dénoncée.

De deux choses l’une :
- ou Benvéniste a voulu faire une découverte de façade pour décrocher des aides et poursuivre d’autres recherches.
- ou il a obéi au laboratoire « BOIRON », afin de bénéficier d’un « coup de pub » et assurer la validité et le bien-fondé de l’homéopathie en tant que thérapie efficace.

Dans les deux cas, pour l’objectivité incontestable du scientifique, il faudra repasser...
Ce n’est pas tout. Le scientifique peut également, tout à fait honnêtement cette fois-ci, orienter ses recherches en fonction de son idéologie personnelle, et de manière totalement consciente (contrairement au phénomène du paradigme, idéologie véhiculée par une communauté et imposée de manière inconsciente à l’individu). Et très souvent, il faut reconnaître que cette attitude, si elle nous éloigne de la vérité scientifique, est salutaire - voire vitale - à l’humanité. Dieu merci, les scientifiques, eux aussi, ont une conscience ! En effet, la volonté éthique peut constituer une motivation suffisante pour que le chercheur mette fin à sa recherche.
Par exemple, on peut évoquer à ce sujet les prises de position radicales d’Einstein et d’Oppenheimer, horrifiés par l’ampleur des conséquences induites par leurs découvertes, qui militèrent dès la fin de la seconde guerre mondiale (un peu tard, donc, mais mieux vaut tard que jamais) pour l’arrêt systématique des recherches nucléaires fondamentales.
De même, on se souviendra de Jacques Testard, biologiste français, qui dès 1986 a volontairement mis fin à ses recherches en génétique humaine, et ce malgré tous les espoirs thérapeutiques liés à cette discipline, pour éviter tout risque de dérive eugénique (du grec eu = bien et gennân = engendrer ; ce mot désigne l’ensemble des méthodes qui visent à améliorer le patrimoine génétique de groupes humains. On a pu en répertorier quelques exemples tout à fait significatifs sous la dictature Hitlérienne...), c’est-à-dire de sélection arbitraire des caractères des foetus.
Si ce type de démarche est incontestablement positif, démontrant que pour une partie des chercheurs, la recherche de la connaissance doit parfois s’effacer devant des impératifs éthiques, elle pose cependant un problème.
En effet, cette limitation de la recherche scientifique est éminemment fragile, puisqu’elle relève de la seule volonté du savant. C’est pourquoi, de plus en plus, la communauté scientifique fait appel à l’opinion publique pour statuer sur de tels enjeux.


b) Les problèmes méthodologiques et instrumentaux


Outre ces limites humaines, la science rencontre également des problèmes méthodologiques et instrumentaux.

1) Des problèmes méthodologiques


Au niveau méthodologique, et en dehors du débat lié aux postulats, se joue une autre bataille : celle de la validité d’une hypothèse. Considérons en premier lieu comment on teste une hypothèse, entendue comme tout énoncé que l’on soumet à un examen. Parfois, la procédure est très simple, comme dans le cas d’Ignace Semmelweis, médecin d’origine hongroise, qui réalisa ses travaux à l’hôpital de Vienne, sur la période 1844-1848. En effet, ce médecin constata que l’un des deux services d’obstétrique (discipline médicale qui traite de la grossesse et de la technique de l’accouchement) de son établissement enregistrait un pourcentage élevé de femmes, qui, en accouchant, contractaient une affection grave et souvent fatale connue sous le nom de fièvre puerpérale.
Semmelweis émit à ce propos plusieurs hypothèses, afin d’expliquer la différence qui s’établissait entre les deux services : les différences d’encombrement, de régime alimentaire ou de soins furent rapidement rejetées car ces conjectures contredisaient des faits aisément observables.
Semmelweis envisagea alors la possibilité que l’écart de mortalité existant entre les deux services fut d’ordre psychologique, car le prêtre qui devait donner l’extrême onction à une patiente était obligé de traverser cinq pièces (ce qui pouvait effrayer les autres malades) dans un des deux services seulement. Cependant, l’intensité de cette peur et ses effets sur la fièvre ne sont pas aussi directement constatables que des différences de régime et d’encombrement. Semmelweis recourt alors à une méthode indirecte de vérification. Le raisonnement se fait alors ainsi :

Si l’hypothèse considérée, disons H, est vraie, alors certains événements observables (dans notre exemple, une baisse significative de la mortalité) devraient se produire dans certaines conditions déterminées (ici, l’interdiction pour le prêtre de traverser les salles).
Autrement dit :

Si H est vrai, I l’est aussi
Mais (comme les faits le montrent), I n’est pas vrai (le taux de mortalité étant inchangé)



Donc, H n’est pas vrai non plus


Tout raisonnement de cette forme, appelé modus tollens en logique, est valide déductivement (je déduis des faits que mon hypothèse n’est pas valable).
Cette hypothèse ayant été rejetée, Semmelweis en établit une dernière :

Dans le premier service (où le taux de mortalité est particulièrement élevé), des étudiants s’occupent de patientes, alors que dans le deuxième service, ce sont des sages-femmes qui oeuvrent. Or, s’il advient que des étudiants pratiquent des autopsies (actes chirurgicaux sur des cadavres), les sages-femmes n’en font jamais. C’est pourquoi, en déduit le Docteur Semmelweis, un empoisonnement du sang causé par la matière cadavérique pourrait être à l’origine de la différence de mortalité entre les deux services. Dès lors, Semmelweis infère que des mesures appropriées d’antiseptie réduiraient les cas mortels de cette maladie. A ce stade, son raisonnement prend ainsi cette forme :

Si H est vrai, I l’est aussi
Or (comme les faits le montrent) I est vrai ___________________________________
Donc, H est vrai


Néanmoins, ce résultat favorable ne prouve pas de façon décisive que H soit une hypothèse vraie. En effet, ce raisonnement, qui porte le nom «  d’erreur consistant à affirmer le conséquent  » est invalide déductivement, c’est-à-dire que sa conclusion peut-être fausse, même quand ses prémisses sont vraies. En effet, selon un exemple plus facile à appréhender de Karl Popper (La logique de la découverte scientifique), c’est un peu comme si je disais :

Si tous les cygnes sont blancs, alors tous les cygnes que je verrai seront blancs
Or, comme tous les cygnes que j’ai vus sont blancs ____________________________________________________________
Donc, tous les cygnes sont blancs.


Or, s’il est certain que si la majorité des cygnes sont blancs, il en existe pourtant des noirs, en Australie. Ce n’est donc pas parce que tous les cygnes que j’ai vus sont blancs qu’il n’en existe pas d’autres couleurs, et il suffit qu’un seul cygne au monde soit noir pour que l’énoncé « Tous les cygnes sont blancs » soit faux.
Ce problème est nommé problème de l’induction (j’induis d’un cas particulier une vérité générale), qui n’est pas un raisonnement valide puisqu’il peut, nous venons de le voir, conduire à une fausse conclusion.
C’est exactement ce qu’il s’est passé dans le cas du Docteur Semmelweis : la fièvre puerpérale n’avait pas pour unique source l’empoisonnement par la matière cadavérique, mais aussi la décomposition d’organismes vivants. C’est pourquoi force est de constater que le résultat favorable d’un échantillon - même très important - de tests ne suffit pas à prouver de manière décisive la validité d’une hypothèse inductive. Longtemps, le problème de l’induction a poursuivi la science et, même s’il a trouvé une résolution théorique avec Karl Popper, on peut admettre qu’il la poursuit encore.
Mais comment faire autrement ? La science ne semble pas pouvoir éviter le caractère « probable » de ses expériences, que cherche pourtant à nier Karl Popper. Bien sûr, plus on expérimentera une théorie, plus elle sera probable. Mais probable n’est pas vrai et c’est pourquoi les sciences expérimentales connaissent dans leur fondement même des problèmes importants de méthode.


2) Des problèmes instrumentaux

Les problèmes méthodologiques ne sont malheureusement pas les seuls que rencontre le scientifique dans l’élaboration et l’expérimentation d’une théorie. En effet, il se retrouve également confronté à des obstacles inhérents à ses instruments. A ce titre, l’exemple de la mécanique quantique illustre totalement ce fait.
Ainsi, pour localiser une particule, il faut « l’éclairer », c’est-à-dire utiliser un médiateur entre elle-même et l’observateur ; la lumière et toutes les ondes du spectre jouent ce rôle. Mais la position de la particule ne pourra être déterminée qu’entre deux crètes d’ondes. Pour affiner l’expérience, l’observateur doit recourir à des rayonnements de plus courte longueur d’onde, mais d’énergie plus élevée, ce qui perturbe la particule.
Selon Planck, on ne peut pas utiliser une quantité « trop petite » de lumière, et l’on doit au moins faire appel à un quantum (unité élémentaire d’énergie émise par un atome).
Donc, la position exacte de la particule étudiée ne pourra jamais être connue avec précision.
Cette théorie, appelée « principe d’incertitude » par Heisenberg ne permet à l’expérience que de fournir des probabilités quant aux positions précises des particules étudiées. La mécanique quantique introduit donc un élément inévitable d’imprécision et de hasard dans le mode d’acquisition scientifique de la connaissance.


3) Le savoir scientifique entre désinformation et surinformation

Enfin, les limites de l’acquisition du savoir peuvent parfois dépendre de l’objet même de celui-ci. Ainsi, par essence, par structure, un objet, existant idéalement, peut se révéler en théorie ou en pratique inaccessible au chercheur.
Si l’étude du Big-Bang primordial, par exemple, parvient, tant par théorie que par observation, à se rapprocher à quelques infimes fractions de seconde de l’événement (pour être précis : moins d’un cent milliardième de seconde), elle ne peut pas et ne pourra jamais, par structure, atteindre l’instant 0, c’est-à-dire l’initiation du phénomène.
En raison de l’absence de tout transmetteur, de tout relais d’information, l’objet ne pourra jamais être précisément étudié. De même, l’analyse des objets à forte gravité, que l’on nomme communément « trous noirs », connaissent des limites structurales identiques.
En fait, si la genèse et l’évolution de tels objets est connue, du moins théoriquement, « ce qui se passe réellement » est définitivement inaccessible à l’homme : la science reste impuissante face à des événements dont toute observation est impossible.
En effet, le trou noir attirant à lui toute forme d’énergie, y compris la lumière, aucun messager, aucune information ne pourra jamais en revenir. De ce fait, certains phénomènes échappent inévitablement à l’analyse scientifique, en raison de l’inexistence de l’information et de l’impossibilité structurelle d’en constituer.

Cependant, d’autres limites minent encore l’efficacité de la démarche scientifique, liées non pas à un déficit mais à un excédent d’informations, notamment dans le domaine des sciences prédictives (météorologie par exemple).
Ainsi, dans la frénésie du mouvement positiviste et moderniste du XIXème, pour lequel la science constitue le point d’aboutissement de toute pensée et le progrès technique une source de bienfaits universels pour l’homme, des savants ont bâti une théorie prédictive très audacieuse : en connaissant parfaitement les caractères et les données d’un événement, on pourrait par extrapolation et raisonnement scientifique prédire son évolution.
Cette démarche, appelée déterminisme, évidente pour des problèmes simples, rendait, pour ses partisans, tout phénomène accessible à la pensée, y compris les plus complexes. Le raisonnement et le comportement humain pourraient un jour être mis en équation !
Evidemment, le déterminisme se heurta à l’extrême complexité des phénomènes analysés, qui la mirent en échec. Certains événements échappent totalement à toute prévision relative à leur évolution, en raison de l’impossibilité de recenser l’énorme quantité de leurs données fondamentales. La prévision météorologique, par exemple, se heurte à des difficultés de ce type : bien que la connaissance de ces phénomènes soit parfaitement maîtrisée et théorisée, la prédiction évolutive d’un système aussi complexe que l’atmosphère terrestre doit demeurer de l’ordre du pronostic.
C’est pourquoi le déficit ou le surplus d’information freine, voire paralyse, la science, qui apparaît dès lors comme un système structurellement limité, un processus efficace mais imparfait d’acquisition du savoir.

CONCLUSION GÉNÉRALE



La connaissance paraît en perpétuel mouvement, et sa progression continue la conduit sans cesse vers plus d’exactitude, comme en témoigne son histoire. C’est dans la science, de par ses procédés et ses méthodes, que la connaissance semble pouvoir réaliser ses plus fulgurants progrès, de sorte qu’on a pu la croire sans limite.
Pourtant, ce serait négliger les difficultés structurelles inhérentes à la science, difficultés souvent liées à son incroyable développement, à tous les stades de son élaboration.
Ainsi, l’homme de science est-il avant tout un homme, influencé dans ses recherches par des paradigmes, ses a-priori, lorsqu’il n’est pas (ce qui heureusement, demeure assez rare) tout simplement malhonnête.
De plus, il rencontre souvent des problèmes de méthode, notamment celui posé par l’induction, qui ne lui permettent pas de justifier son savoir, et se heurte également à des problèmes instrumentaux.
Enfin, sa connaissance semble devoir rester structurellement inachevée, dans la mesure où il se trouve quelquefois dans l’incapacité d’analyser certains phénomènes, soit par manque d’information, soit au contraire par une hyper-complexité des données fondamentales recensées.
C’est pourquoi la science se révèle être un mode imparfait d’acquisition des connaissances, même si celui-ci demeure à ce jour le plus performant. On pourrait, à l’instar de Platon à propos des mathématiques, souhaiter le dépassement des sciences par une science suprême qui les parachèverait.
Toutefois, nous pensons que ce serait méconnaître les limites de l’esprit humain, pour lequel la connaissance ne peut être qu’à son image : essentiellement limitée.


Creative Commons License
Cet article est mis à disposition de tous sous un contrat Creative Commons.

Répondre à cet article

 

DANS LA MEME RUBRIQUE

 
 


Gaëlle Sartre-Doublet]
[(Lecture philosophique des contes de fées)
Gaëlle Sartre-Doublet, 42 ans, maitrise de Philosophie. Ex-prof auprès d’un public en difficulté scolaire, ex-journaliste à "La Dépêche du Midi", actuelle fonctionnaire territoriale et modératrice du forum de Vox Populi, rédactrice en chef et directrice de publication pour notre webzine jusqu’au 1er janvier 2009, date qui a vu Laure Dupau reprendre le flambeau.

 

> L’ÉPISTÉMOLOGIE
Bonjour, j’ai lu votre excellent article. mais je reviens sur un passage qui a déjà été signalé s’agissant de la probabilité qu’une théorie soit vraie. Les sciences ne cherchent pas des théories probables sinon on aurait pu en rester à Newton plutôt que de considérer la théorie d’Einstein. C’est pourquoi Popper a élaboré son concept de vérissimilitude. ce qui fait que l’on peut préférer rationnellement une théorie improbable à une théorie probable. Il a écrit de nombreux articles sur ce sujet qu’il n’a pas nier contrairement à ce que vous écrivez. Il a d’ailleurs aussi apporté des contributions à la théorie des probabilités. Bien à vous Philonico
> L’ÉPISTÉMOLOGIE

Bonjour.

J’ai lu avec intérêt votre article sur l’épistémologie, et je souhaiterais juste relever une formulation qui me semble poser problème :

"La science ne semble pas pouvoir éviter le caractère « probable » de ses expériences, que cherche pourtant à nier Karl Popper. Bien sûr, plus on expérimentera une théorie, plus elle sera probable. Mais probable n’est pas vrai et c’est pourquoi les sciences expérimentales connaissent dans leur fondement même des problèmes importants de méthode."

Je ne comprends pas l’usage du terme "probable" à propos des expériences. S’agit-il du résultat ? Mais alors, la probabilité ne devrait pas être la même avant et après l’expérience : comprise entre 0 et 1 avant, égale à 0 (raté !) ou à 1 (réussi !) après. Et comment pourrait-on, de toute façon, évaluer la "probabilité" d’un test expérimental ?

Pierre Duhem a montré (cf. "La théorie physique") qu’à un ensemble donné de "faits pratiques" peut correspondre une infinité de "faits théoriques" : au sens des lois du calcul des probabilités, la probabilité d’une théorie est donc toujours nulle ; et comme certaines théories sont meilleures que d’autres, le concept de probabilité est inadéquat pour évaluer la valeur heuristique d’une théorie. Pour faire court : une théorie n’a pas de probabilité. Donc une théorie ne peut pas être plus "probable" qu’une autre, à moins d’utiliser ce terme au sens plus trivial (et plus subjectif) de "vraisemblable". Popper a élaboré le concept de corroboration précisément pour contourner ce type de problèmes.

Quant au "fondement" des sciences... la recherche des fondements ultimes mène toujours à une régression à l’infini. Mais si on ne peut pas prouver la vérité d’une théorie, on peut (éventuellement) prouver sa fausseté, et montrer qu’une théorie est meilleure qu’une autre. Ce qui reste l’objet de l’épistémologie, plutôt que la recherche de fondements définitifs, c’est alors l’étude des conditions du progrès des connaissances.

Frédéric Fabre


> L’ÉPISTÉMOLOGIE


Bonjour,

Par "probable", j’entendais le pourcentage de chances qu’une théorie corresponde au réel, ou, si vous préférez, "à ce qu’il se passe en vrai". Par exemple, la théorie selon laquelle la lumière est une onde "fonctionne" dans ses applications pratiques. Ce qui ne signifie pas pour autant qu’elle soit vraie, puisque la théorie selon laquelle la lumière serait constituée de particules "fonctionne" également.
Je voulais simplement insister sur la différence de nature entre la validité d’une théorie et sa véracité. Je vous remercie de votre intervention qui, je l’espère, m’aura permis de mieux clarifier ma pensée sur ce point.
Au plaisir de vous lire,

Gaëlle Sartre-Doublet


> L’ÉPISTÉMOLOGIE


Bonjour.

Je vous remercie de la prise en compte de mon message, et de votre réponse.

Précisément, je ne crois pas qu’il puisse exister quelque chose comme un "pourcentage de chances qu’une théorie corresponde au réel". Cette expression ne pourrait s’interpréter que de deux façons : soit en termes de probabilité subjective, donc décrivant non la relation d’une théorie au réel mais celle du sujet connaissant à la connaissance du réel, et cette probabilité ne pourrait finalement qu’être 0 ou 1 ; soit en termes fréquentistes, mais la notion de fréquence de vérité pour la validité d’une hypothèse, en tant qu’énoncé universel, reste auto-contradictoire. La question de la "vérité d’une théorie" comme correspondance avec les faits (Popper/Tarski) n’épuise pas celle de l’ontologie : il peut exister des ontologies concurrentes, également efficientes dans un domaine donné, du fait que l’appareil conceptuel d’une théorie relève de son aspect formel, tandis que la relation au réel relève de son aspect empirique.

D’autre part, l’exemple que vous prenez pose des problèmes spécifiques, mettant en jeu la complémentarité, et la relation entre le continu et le discontinu en physique.

Je reste entièrement d’accord avec vous sur la nécessité de distinguer la validité (aspect empirique, correspondance avec les faits) de la véracité (ontologie) d’une théorie.

Frédéric Fabre


> L’ÉPISTÉMOLOGIE


Bonjour,

Tout d’abord, veuillez m’excuser d’avoir pris un temps certain pour vous répondre, mais on ne balaye pas un commentaire de la qualité du vôtre d’un simple revers de manche.
Il fallait que je me pose et que j’y réfléchisse un peu.
Je sens que sur le fond, nous ne sommes pas tout à fait d’accord, en tout cas pas sur les termes à employer pour retranscrire ce que nous savons de ce qui nous entoure.
Il existe, autour de nous, une réalité "en soi" que nos moyens d’investigation nous permettent - ou non - de découvrir.
Ce cours de vulgarisation avait pour modeste objectif de faire prendre conscience à tout le monde que "La science" n’est pas toujours exacte, qu’elle se confronte elle aussi à des incertitudes, voire à des tabous et à des manipulations.
Si vous souhaitez aller plus avant dans cette conversation, n’hésitez pas à m’écrire directement : mon adresse est disponible sur ce site.
Mais pour avoir consulté le vôtre, je doute que vous ayez besoin de mes éclaircissements :-)
En tout cas, merci de votre intervention qui prouve une fois de plus que la philosophie est une matière vivante.
J’ai été ravie d’avoir pris connaissance de vos remarques constructives. J’encourage nos lecteurs, s’ils veulent approfondir le sujet, à venir vous rendre visite.

Bien à vous,
Gaëlle Sartre-Doublet
(1/2) 28 février 2011, par Philonico
(2/2) 5 septembre 2006, par Frédéric Fabre
.
SPIP / Squelette Spip01
© 09/2003 Gab-design.com sous licence GPL