Notes d'épistémologie

Notes d'épistémologie

Objet de ce blog

Mémos et réflexions épistémologiques en annexe du site de l'agronome philosophe.

Mémo 11. La réalité quantique

EpistémologiePosted by opdecamp 27 Aug, 2013 13:53:54

La réalité quantique est celle de l'infiniment petit, alors que celle de la réalité relativiste concerne plutôt celle de l'infiniment grand dans le domaine astrophysique de vitesses et de forces de gravitation extrêmes. Des centaines de particules subatomiques ont été découvertes dont la taille est de l'ordre du fentomètre (fm, millième de picomètre, millionième de nanomètre, milliardième de micromètre) et dont la nature est aussi ondulatoire.

Les aspects corpusculaire et ondulatoire d'une particule quantique coexistent, mais c'est plus qu'une superposition et il serait plus juste de dire selon NICOLESCU (1) que cette particule n'est "ni onde, ni corpuscule". Ses caractéristiques dynamiques d'énergie "E" et de quantité de mouvement "p" sont reliées par la formule d'EINSTEIN-PLANCK (E=hν) et de DE BROGLIE (p=h/λ ou p=hk, avec k comme nombre d'ondes, inverse de la longueur d'ondes λ). SCHRÖDINGER soutenait que la particule quantique était une onde de matière mais Max BORN a établi que sa fonction était en fait une onde de probabilité. Comme l'explique GREENE (2), "l'amplitude d'une onde en un point donné de l'espace est proportionnelle à la probabilité que" la particule (électron, neutron, proton, photon, etc.) "soit localisée en ce point". Et cette "onde s'étend dans tout l'espace, à travers tout l'univers", mais son amplitude "chute rapidement vers zéro en dehors d'une région assez réduite". Le caractère probabiliste des événements quantiques est le signe d'une propriété nouvelle que NICOLESCU appelle la spontanéité quantique. Elle n'est nullement le signe d'une ignorance ou d'une quelconque imprécision, la mécanique quantique fait des prévisions précises et détaillées. Ce serait "une illusion de celui qui force à tout prix les phénomènes quantiques à entrer dans le carcan du réalisme classique." Mais la liberté quantique est irréductible aux canons du déterminisme classique. Le rêve d'un déterminisme absolu de LAPLACE s'écroule: la spontanéité, l'aléatoire font désormais partie intégrante de la Physique.

Par ailleurs, la réalité quantique est fragile et s'effondre par interférence avec le monde macroscopique lors d'une mesure de son état. Une seule valeur est obtenue et correspond à une réduction du paquet d'ondes, à une abolition de la pluralité des valeurs possibles de l'observable physique, ce qui est très obscur car les lois fondamentales de la mécanique quantiques semblent ainsi cesser d'agir au cours de la mesure!

Le principe d'incertitude (mieux nommé "d'indétermination") d'HEISENBERG est également fondamental. Il établit l'impossibilité d'une localisation précise d'un événement quantique dans l'espace-temps.

De même, la non-séparabilité quantique est une autre propriété spécifique de cette réalité. Il est expérimentalement possible d'intriquer, de corréler initialement une propriété de 2 particules (leur spin par exemple) et d'observer ensuite que cette intrication persiste sur de longues distances, sans maintien d'un lien quelconque entre-elles, par une sorte de connexion durable, instantanée et de nature inconnue. Si 2 expérimentateurs séparés dans l'espace-temps déterminent en toute indépendance les conditions de leur propre expérience sur de telles particules intriquées, les résultats de l'un et l'autre seraient complètement indépendants selon les idées classiques de causalité locale et de séparabilité,. Or, l'expérience d'Alain ASPECT en 1982 a confirmé de manière éclatante, sur base des inégalités de BELL, l'existence expérimentale de corrélations non locales, de la non-séparabilité quantique. Elle se manifeste jusqu'à des grandes distances, expérimentalement confirmées (+de 20km). Est-ce la faillite de l'objectivité scientifique, la violation de la causalité? Non, d'après NICOLESCU, car la causalité locale ne doit être considérée que comme "une forme particulière, étroite de l'objectivité scientifique, basée sur la notion d'objets séparés, indépendants les uns des autres". Et de s'en référer à Bernard D'ESPAGNAT (3), quant à l'existence d'une réalité indépendante de l'homme qui doit alors nécessairement être inséparable car:"Si 2 parties localisables ont interagi, cette interaction (intrication) persistera quelque soit leur éloignement ultérieur, par le moyen d'influences instantanées." A une certaine échelle, il y a dans l'univers une cohérence, une unité des lois qui assurent l'ensemble des systèmes naturels.
A propos des influences instantanées, précise NICOLESCU, elles ne signifient pas que, à partir d'un certain émetteur, on puisse transmettre instantanément un signal à un certain récepteur. La non-séparabilité concerne l'ensemble des systèmes et non pas l'un ou l'autre considéré isolément. La spontanéité quantique est incompatible avec la manipulation macroscopique de la non-séparabilité. Elle est fragile et s'abolit en cas d'interaction avec notre monde: la cohérence se métamorphose alors en décohérence qui est un nouveau domaine de la Physique. C'est précisément cette décohérence qui nous permet de comprendre la coexistence paradoxale du monde quantique et du monde macrophysique.

----------
(1) Basarab NICOLESCU. Nous, la particule et le monde. Editions du Rocher, 2002.
(2) Brian GREENE. La magie du Cosmos. Robert Laffont; 2005.
(3) Bernard D'ESPAGNAT. A la recherche du réel. Gauthier-Villars, 1981.





  • Comments(0)//philoscience.agrophil.org/#post12

Philosophie des sciences appliquées

EpistémologiePosted by opdecamp 26 Aug, 2013 13:43:07

Or donc, l'éthique est une composante philosophique des sciences appliquées au même titre que l'épistémologie. L'expression de "philosophie des sciences appliquées "englobe donc à la fois leur éthique et leur épistémologie, ce qui nous place "clairement dans le cadre politique, c'est-à-dire de l'être ensemble" d'après GUY (1). Ce dernier illustre l'intrication de l'éthique et de l'épistémologie par l'exemple suivant: "Si le projectile est une fusée, le succès de son lancement tient autant aux lois de Newton bien assimilées que dans le bon ajustage de la direction et de la grandeur de sa vitesse initiale". Si le lancement de la fusée relève de l'éthique (bien/mal), celle-ci est intriquée à une épistémologie d'application des lois newtoniennes par l'ajustage des conditions initiales ou conditions de préparation. Mais les lois newtoniennes proprement-dites relèvent quant à elles d'un ordre strictement épistémologique.
GUY précise donc que pour les processus SCI (sensibles aux conditions initiales) des sciences appliquées, il se présente un amalgame entre un objectif (éthique) et une vérité (loi).
De plus, un statut épistémologique particulier des sciences appliquées résulte de ses niveaux d'échelles différents de ceux des sciences fondamentales et de la recherche scientifique. Ses niveaux se caractérisent par des emboîtements de systèmes macroscopiques et complexes de plus en plus grands. Je prends un exemple assez frappant qui se rapporte aux sciences agronomiques où les ingénieurs peuvent appliquer des résultats de recherche de laboratoire (de plusieurs disciplines) au système de culture (parcelle), puis au système de production (exploitation agricole) jusqu'au système agraire (paysage local) et parfois bien au-delà (région écoclimatique). Ils se voient confrontés ainsi à une ensemble d'interactions entre agents ou facteurs à des niveaux géographiques et d'organisation de plus en plus élevés. Et à chaque niveau se rapporte non seulement une épistémologie spécifique d'application, mais aussi une éthique particulière (du fermier et sa famille jusqu'à la population de toute une région en passant par celle des campagnes, villages et villes).

GUY (1) propose deux façons pratiques de distinguer l'éthique et l'épistémologie en sciences appliquées:

- dans la première, l'éthique serait la connaissance et la maîtrise des conditions initiales que l'homme pourrait fixer, alors que l'épistémologie serait la recherche des lois de la nature dont l'homme pourrait ne pas disposer;

- dans la seconde, c'est l'objet ou plus vaguement le contexte qui ferait la distinction, à savoir que si aucun être humain n'est concerné on parlerait d'épistémologie pure alors qu'à partir de quelques personnes (comme une famille dans une exploitation agricole) on commencerait à parler d'éthique.
-------------
(1) Bernard GUY. Ethique et épistémologie: convergence entre la démarche épistémologique (chercher le vrai) et la démarche éthique (chercher le bien): point de vue des sciences de l'ingénieur. HAL-SHS, 2012. Disponible en pdf à l'adresse: <http://halshs.archives-ouvertes.fr/hal-00736247/>





  • Comments(0)//philoscience.agrophil.org/#post11

Intrusion de l'éthique en sciences appliquées

EpistémologiePosted by opdecamp 25 Aug, 2013 10:59:05

La troisième thèse du positivisme scientifique d'Auguste COMTE (1798-1857) était que la Science devait permettre d'agir sur la Nature à l'avantage de l'humanité. C'est, comme le souligne LECOURT (1), cette notion d'application des connaissances acquises qui a été assignée aux ingénieurs. Leur mission est d'en déduire les applications industrielles, mais COMTE et le positivisme dominant considèrent qu'il s'agit d'un savoir-faire plutôt que d'un savoir en soi. Il s'agit d'organiser la coopération entre la théorie et la pratique. Et, il s'ensuit que les sciences pour l'ingénieur ont un fonctionnement différent de celui des autres sciences. Bernard GUY (2) situe bien les sciences appliquées à l'interface entre la Nature et le Social et remarque que si de nombreux travaux d'ordre sociologique et historique y ont été consacrés, leur étude d'ordre épistémologique est restée très limitée. Par ailleurs, dans la mesure où elles visent un bien pour la société , elles "sont à la croisée de l'épistémologie (validation des sciences) et de l'éthique (validation de l'application des sciences)". Le sens courant du mot "éthique", selon Wikipédia, est celui de "la recherche du bien par un raisonnement conscient" par distinction avec la morale qui est "l'ensemble des normes propres à un individu, à un groupe social ou à un peuple, à un moment précis de son histoire". Il y a dans ce sens courant de l'éthique comme une similitude possible avec l'épistémologie popperienne que GUY met en pratique: "Karl Popper dirait que l'on ne peut connaître la société dans son ensemble ni proposer une vision du bien claire à l'avance pour l'ensemble de cette société". L'analogie avec l'épistémologie popperienne vaut également au niveau du critère de réfutabilité. De même que l'on ne sait pas savoir avec certitude et à l'avance ce qui est vrai mais seulement ce qui est faux, l'on ne sait pas établir nécessairement d'avance ce qui est bien mais seulement ce qui est mal. "La seule chose finalement qui nous reste, qui est objective, rationnelle, c'est le désaccord entre ce qu'on annonce et ce qu'on obtient, que l'annonce concerne un objectif de connaissance (vrai/faux) ou d'éthique (bien/mal)... Il n'y a pas de bien concevable clairement à priori, pas plus que qu'il n'y a de vrai saisissable clairement à priori." Il se pose aussi une question cruciale de savoir sur quoi fonder l'éthique: sur l'Homme, la Nature, la Raison, la Liberté, Dieu? L'action des ingénieurs, la mise en chantier d'un projet, le choix et l'ajustement des conditions initiales s'enclenche sur base d'une hypothèse éthique.
--------
(1) Dominique LECOURT. La philosophie des Sciences. PUF, 2001. Collection "Que sais-je?"
(2) Bernard GUY. Ethique et épistémologie: convergence entre la démarche épistémologique (chercher le vrai) et la démarche éthique (chercher le bien): point de vue des sciences de l'ingénieur. HAL-SHS, 2012. Disponible en pdf à l'adresse: <http://halshs.archives-ouvertes.fr/hal-00736247/>





  • Comments(0)//philoscience.agrophil.org/#post10

Mémo 10. La réalité relativiste

EpistémologiePosted by opdecamp 19 Aug, 2013 19:49:56

La théorie de la relativité d'EINSTEIN s'est inspirée de l'épistémologie de Ernst MACH (1838-1916) et de sa critique de la mécanique newtonienne, même si EINSTEIN le qualifia, d'après Michel PATY (1), de "déplorable philosophe" tout en reconnaissant "la grandeur de son scepticisme et de son indépendance incorruptibles". MACH développa une épistémologie positiviste psychophysique basée sur l'observation empirique et les sensations qui sont les véritables éléments du monde, ce qui rappelle ARISTOTE. La conception d'une théorie n'est que celle d'une hypothèse par induction et démarre des perceptions sensibles pour ensuite y retourner, ce qui rappelle POPPER: "les théories sont comme des feuilles mortes qui tombent...", sinon elles deviennent des mythes, des dogmes, alors qu'elles sont contingentes. La critique épistémologique doit alors les détruire. MACH a émis "une critique vigoureuse des conceptions absolues de la mécanique newtonienne (temps, espace, mouvement)".de même que "de la masse comme quantité de matière". Si la vitesse constante était déjà reconnue comme relative et avait besoin d'une comparaison avec un point de référence (observateur à l'intérieur ou à l'extérieur d'un train par exemple), l'accélération était ressentie d'elle-même, de manière apparemment indépendante, sans référence. Comme l'explique GREENE (2), une accélération devait, selon NEWTON aussi s'opérer par rapport à "quelque chose". Il proposa ce "quelque chose" comme étant l'espace absolu, une scène vide et transparente en tant qu'entité physique immobile que remplissent les objets et corps de l'univers. Pour MACH, la force que l'on ressent en cas d'accélération "est due à l'influence combinée de toute la matière qui compose l'Univers" (2) et serait donc proportionnelle à cette dernière: si l'espace était vide de toute matière, on ne ressentirait rien! Mais MACH ne proposait aucun mécanisme physique et c'est EINSTEIN qui s'est inspiré des idées de MACH pour élaborer sa propre théorie de la gravitation ou théorie de la relativité générale.

NEWTON considérait également le temps comme absolu: quel que soit l'observateur sa mesure reste identique. La théorie de la relativité restreinte d'EINSTEIN établit par contre la relativité du temps, sur base de la constance de la vitesse de la lumière quelque soit l'observateur. Tout objet ou corps peut avoir non seulement une vitesse dans l'espace mais aussi une vitesse dans le temps et ces deux vitesses sont combinées: un objet immobile se déplace dans le temps à chaque seconde qui passe, mais lorsque cet objet se déplace dans l'espace, son déplacement dans le temps diminue proportionnellement! Si on se déplace, on vieillit moins vite et d'autant moins vite que notre déplacement est rapide! La combinaison de ces deux vitesses dans l'espace-temps est égale à 300.000 km/sec (vitesse de la lumière dans l'espace uniquement). Ni l'espace, ni temps ne sont absolus, mais l'espace-tempsentremêlé est lui seul absolu.

En relativité générale par contre, "l'espace et le temps deviennent des entités dynamiques; ils répondent à la présence de masse et d'énergie". L'espace-temps se courbe et se déforme par le champ de gravitation. Toutefois conclut GREENE (2), "du fait que l'écart entre les réalités classique et relativiste ne se manifeste que ... pour des vitesses ou des forces de gravitation extrêmes..., la physique newtonienne reste une approximation extraordinairement précise et fort utile dans bien des cas."
-----
(1) Michel PATY. Ernst MACH. Encyclopédie Universalis; 2005.

(2) Brian GREENE. La magie du Cosmos. Robert Laffont; 2005.

  • Comments(0)//philoscience.agrophil.org/#post9

Mémo 9. Systémique et modélisation

EpistémologiePosted by opdecamp 19 Aug, 2013 19:48:18

L'interaction est un des grands concepts de l'approche systémique qui la distingue de l'approche scientifique classique. A la simple relation causale d'un élément A sur un élément B se substitue une double action de A sur B et de B sur A (1). Pour illustrer la distinction entre une relation classique de cause à effet et une interaction systémique, je prends l'exemple de la teneur en CO2 de l'atmosphère et de sa température moyenne. L'augmentation de CO2 (d'origine anthropique) est considérée comme cause d'une augmentation de la température par effet de serre. Mais, par étude paléoclimatique des carottes de glace et dosage du CO2 atmosphérique qui s'y trouve piégé, il apparaît qu'au sortir de chaque âge glaciaire la teneur en CO2 de l'atmosphère augmente! Le réchauffement provoque réciproquement et naturellement une augmentation du CO2 dans l'atmosphère. Cette interaction peut s'expliquer par le dégazage en CO2 des océans survenant lors d'une élévation de la température, sa solubilité dans l'eau s'en trouvant diminuée. Une forme rétroactive d'interaction (feed-back) peut être de type positive si elle renforce l'action ou négative si elle la déforce.
Le principe hoolistique d'interaction mais aussi de complexité en systémique s'oppose à celui du réductionisme cartésien. Outre l'interaction, les notions d'organisation, de globalité et de complexité sont aussi essentielles.

La description mathématique d'un système dynamique de "n" éléments peut se réaliser dans un cas simple par une série de "n" équations différentielles simultanées aux "n" variables dynamiques Qi correspondantes, comme indiqué par ANGELIER (2):

dQ1/dt = f1(Q2, Q3,...Qn); dQ2/dt = f2(Q1, Q3,...Qn); dQn/dt = fn(Q1, Q2,...Qn-1)

La résolution de ces équations devient très difficile si le nombre de variables "n" est élevé et devient quasi-impossible pour des systèmes non-linéaires.

Alors, on peur recourir à la modélisation systémique. Le modèle correspond à un schéma de la séquence des réactions qui simule le fonctionnement d'un système. DURAND (1) souligne l'originalité du modèle systémique par le raisonnement analogique qu'il implique. Cette modélisation se distingue fondamentalement des dichotomies classiques de l'induction et déduction, de la synthèse et de l'analyse. L'analogie est propre à l'enfance ( "c'est comme...") et à l'art, où le peintre et le poète créent leur oeuvre sur un jeu d'analogies et non par une suite de déductions et d'inductions procédant de logique. Si on conteste à l'analogie toute rigueur scientifique, explique DURAND, "on doit bien reconnaître qu'il stimule l'imagination et la découverte grâce à son pouvoir suggestif." Le modèle (systémique) est "la forme la plus élaborée de l'analogie" à côté de ses trois autres que sont le symbole, l'image et l'isomorphisme. Pour ANGELIER, il "représente à la fois les actions et leurs résultats", et se construit "par tâtonnement ou analogie fonctionnelle", par raisonnement heuristique (visant la découverte des faits) pour obtenir "des solutions qui sont seulement plausibles, adéquates." Il ne s'agit pas de simplifier la réalité pour l'expliquer, mais "à construire un modèle pour la rendre intelligible, compréhensible."

Une mise au point terminologique s'impose encore sur le terme "modélisation". A côté de la modélisation systémique existe également une modélisation "mécaniste" basée sur une représentation compartimentale du système et une formalisation par équations différentielles dynamiques déterministes utilisant des logiciels adaptés. Un exemple en est cité par ANGELIER par les modélisations de Lokta-Volterra en écologie, relatives aux comportements compétitifs en espèces (relations proie-prédateur) et à la croissance des populations respectives. Les interactions par rétroactions positives ou négatives sont également considérés dans les modèles mécanistes. Mais, comme déjà signalé les modèles déterministes posent de vrais problèmes pour les systèmes complexes à interactions multiples et dedynamique non-linéaire.

Enfin, il existe aussi pour les systèmes des modèles statiques qui ignorent la composante temporelle des phénomènes. C'est le cas par exemple des modèles numériques de terrain (MNT) pour les systèmes d'information géographique (SIG).

-----
(1) Daniel DURAND. La systémique. PUF, 1979. Collection "Que sais-je".
(2) Eugène ANGELIER. Les sciences de la complexité et le vivant. Tec & Doc Lavoisier, 2008.



  • Comments(0)//philoscience.agrophil.org/#post8

Mémo 8. Chaos, complexité, émergence

EpistémologiePosted by opdecamp 19 Aug, 2013 19:46:55

A partir de quelques éléments de littérature sur la dynamique des systèmes et leurs propriétés de complexité, d'émergence et de dynamique parfois chaotique (1 à 5), les quelques notions suivantes peuvent être énoncées pour poursuivre une analyse épistémologique dans la thématique du scepticisme.

Un système se décrit à la fois comme une structure par l'agencement de ses éléments, corps ou parties et comme un fonctionnement par les échanges et flux de matière, d'énergie et d'information qui se produisent en son sein ou avec son environnement.

Un système est généralement dynamique, c'est-à-dire que ses états varient avec le temps. Pour les processus et phénomènes qui l'animent, BRICMONT (2) considère que s'il peut exister une fonction mathématique F(xt,, yt, etc.) [ou plutôt d'une série d'équations différentielles par rapport au temps de ses variables] qui décrive leur évolution quantitative, cela suffit à en proclamer le caractère déterministe, sachant que cette fonction peut être connue ou non. Pour BRICMONT, tout système du plus simple au plus complexe est théoriquement mathématisable par une fonction F [ou la série d'équations différentielles correspondantes]. On pourrait cependant discuter et proposer que tant que la fonction F resterait inconnue ou méconnue, le système serait indéterminé et qu'il évoluerait donc de manière plus ou moins aléatoire. Du point de vue scientifique, l'inconnu et le méconnu relèvent à mon sens totalement ou partiellement du hasard!

Le chaos est l'un des comportements (pas tous) spécifique aux systèmes non-linéaires. Les variables dynamiques descriptives d'un tel système (par exemple la position, la vitesse, l'accélération, la pression, etc.) apparaissent dans les équations, ne fût-ce que pour une dérivée première ou seconde, sous une forme non-linéaire. La clé pour comprendre le chaos tient, selon HILBORN (4), dans la réconciliation entre le déterminisme et l'aléatoire par cette notion de non-linéarité. Le terme chaos et l'adjectif chaotique sont utilisés pour désigner un comportement évolutif dans le temps de type apériodique (qui ne se répète jamais) et d'apparence aléatoire ou "bruité". Un infime changement de valeur d'un paramètre dans un système non-linéaire entraînera des changements "dramatiques" à la fois dans son comportement qualitatif et quantitatif. Pour une valeur d'un paramètre, le comportement peut être périodique alors qu'il devient brutalement et totalement apériodique pour une valeur légèrement différente. Pratiquement tous les systèmes sont non-linéaires au moins dans une certaine mesure. Le comportement non-linéaire est bien plus commun que celui beaucoup plus idéal de la linéarité et qui a constitué le cœur de la Physique ces 300 dernières années! Aussi, une imprécision infime sur les mesures et observations dans des systèmes non-linéaires (mais déterministes) peut-elle entraîner une faillite totale de leurs prévisions scientifiques dans un terme plus ou moins court.

Un système complexe est celui qui contient un grand nombre d'éléments et où se produisent des effets non linéaires par émergence de nouvelles propriétés (transitions) par rapport à celles à celles des éléments ou parties isolées. Les propriétés du tout n'égalent ni ne s'identifient à la somme des propriétés spécifiques des éléments ou parties. Ainsi, par exemple des cellules comme les milliards de neurones, qui n’ont individuellement aucune propriété cognitive, peuvent s’interconnecter en réseaux dans le système "cerveau" et faire émerger des propriétés de connaissance et de compréhension.

Mais un système simple peut aussi être complexe. Ainsi, un corps chimique contenu dans un espace limité est-il un système dont les éléments sont les molécules au niveau microscopique et qui possède des propriétés émergentes au niveau macroscopique. Dans certaines conditions, un tel système simple peut s'auto-organiser de manière complexe comme dans le cas des cellules de Bénard par émergence de structures dissipatives. ATLAN (6): "C’est une certaine dose de hasard, des perturbations aléatoires – en théorie de l’information, on appelle cela du bruit, en thermodynamique, des fluctuations –, qui introduisent dans ce phénomène d’émergence une nouveauté, imprédictible".

Un système complexe dispose en plus d'une capacité d'adaptation voire d'évolution dans le cas de systèmes biologiques.

----
(1) Daniel DURAND. La systémique. PUF, 1979. Collection "Que sais-je".
(2) Jean BRICMONT. Déterminisme, chaos et mécanique quantique. Matière première, 2: 243-266: Le déterminisme entre sciences et philosophie. Pascal Charbonnat et François Pépin (dir). Ed. Matériologiques (materiologiques.com), 2012.
(3) Jean-Paul BAQUIAST. Comprendre. Nouvelles sciences, nouveaux citoyens. Creative Commons Attribution License, 2005.
(4) Robert C. HILBORN.. Chaos and non linear dynamics. An introduction for scientists and engineers. Oxford university press, 2006.
(5) Eugène ANGELIER. Les sciences de la complexité et le vivant. Tec & Doc Lavoisier, 2008.
(6) Henri ATLAN. La science crée les problèmes, mais ne fournit pas les solutions. Philosophie magazine, n°50, 2011.

  • Comments(0)//philoscience.agrophil.org/#post7

Mémo 7. Le scepticisme antique

EpistémologiePosted by opdecamp 19 Aug, 2013 19:45:18

Source et citations en italiques: AUBENQUE (1), sauf précision complémentaire.

PYRRHON D'ELIS (contemporain d'ARISTOTE) est reconnu comme le fondateur du scepticisme. Il y voit plutôt une quête du bonheur liée à la suspension de tout jugement: ne rien affirmer ou nier. Il se fonde pour cela sur l'indifférence des phénomènes qui en constitue une propriété négative. Il considère donc que leur véritable nature est "non manifeste" et que "la vérité estinaccessible", "située au-delà de l'apparence".

AENESIDEME élargit "la critique pyrrhonienne en l'étendant à la raison elle-même". Il ne peut y avoir de relations de cause à effet ni entre deux objets ou corps car ils sont prisonniers de leur propre nature, ni entre deux incorporels car leur contact mutuel est impossible, ni entre un corps et un incorporel car il doit y avoir homogénéité entre la cause et l'effet. FRANCK (2) précise pour AENISIDEME sur ce point clé que "l’action de deux substances de nature différente l’une sur l’autre, ou même celle de deux substances simplement distinctes, sont des choses dont nous n’avons aucune idée." et que toute relation de cause à effet est une illusion grossière de perception de nos sens. "Mais, d’un autre côté, obligé d’accorder que l’esprit humain conçoit cette relation et ne peut pas ne pas la concevoir, il (AENESIDEME) s’arrête à ce moyen terme, que la loi de la causalité est, à la vérité, une condition, un phénomène de l’intelligence, mais qu’elle n’existe qu’à ce seul titre, et de là le scepticisme absolu en métaphysique."

Sextus EMPIRICUS (3ème siècle) est un médecin philosophe. C'est de son nom que dérive le qualificatif empirique. Il a livré dans son oeuvre "Adversus mathematicos", une somme d'arguments sceptiques contre la science. Au dogme des propositions métaphysiques des sciences exactes, "il veut substituer ... une sorte de science ou d'art, fondée uniquement sur l'observation, sur l'étude des phénomènes et de leurs lois de succession." Mais, comme tel, il ne propose ni fondement théorique ni méthode expérimentale, car "il n'y a rien à apprendre".
Il pousse sa réflexion jusqu'à nier la communication, "car on ne peut comprendre un langage que si l'on a reçu d'avance la clé de ses significations". AUBENQUE (1) en conclut alors que "le scepticisme est "le constat de la dissolution d'une certaine conception du logos,.... un logos non dialectique qui avait désappris sa propre relativité."

La Nouvelle Académie (école platonicienne) se rapproche du scepticisme et lutte contre le dogmatisme ambiant des premiers siècles de notre ère. A propos du probable, cette école fait comprendre que "quel que soit son degré, (il) ne s'égalera jamais au certain et que le raisonnable ... ne se déduit pas d'une rationalité de type logique ou mathématique." Cette école fonde "sur le probabilisme un humanisme pratique".

----
(1) Pierre AUBENQUE. Les philosophes hellénistiques (III. Le scepticisme). In: La Philosophie de Platon à St Thomas. Sous la direction de François Châtelet. Marabout, 1979.
(2) Adolphe FRANCK et autres (Hachette, 1875). Dictionnaire des sciences philosophiques/Ænésidème

  • Comments(0)//philoscience.agrophil.org/#post6

Mémo 6. Discussion du scepticisme popperien

EpistémologiePosted by opdecamp 19 Aug, 2013 19:42:50
La conception d'une théorie scientifique repose sur une synthèse des observations et de l'expérience acquise et procède donc au départ selon une démarche inductive. Elle permet de proposer sous forme d'une hypothèse initiale une explication scientifique d'une réalité ou d'évaluer le déroulement d'un phénomène, l'accomplissement d'un processus avec un probabilité de type bayésien. L'incertitude d'une théorie, son caractère hypothétique est inhérent à sa primo-conception. Les probabilités bayésiennes des événements constitutifs du phénomène étudié peuvent être évaluées si les observations ont été faites "en grand nombre". C'est bien une démarche aventureuse qui est initiée. Et effectivement, cette hypothèse initiale est soumise par déduction au feu de vérifications et de cas nouveaux, à d'autres observations et expérimentations qui établiront des probabilités fréquentistes. Les écarts entre l'hypothèse et les faits conduiront à des adaptations de l'hypothèse initiale pour la reconcevoir sous mode inductif dans une nouvelle version, et ainsi de suite selon un cycle de "révolutions" plus ou moins durable suivant l'évolution de l'incertitude ou la réfutation finale éventuelle.
Ce cheminement épistémologique est schématisé dans la figure 1 ci-dessous.
Figure 1. Schéma d'épistémologie évolutioniste popperienne

  • Comments(0)//philoscience.agrophil.org/#post5
« PreviousNext »