Notes d'épistémologie

Mémo 19: Complexité, intrication et intégralitéEpistémologie

Posted by opdecamp 11 Jun, 2016 15:06:15

Blog imageLa matière vivante et la matière inerte, l'information et l'énergie sont intégrés dans ce que l'humanité découvre comme étant des systèmes complexes adaptatifs (SCA). L'humain y est toujours inclus, non seulement lorsqu'il en est acteur ou façonneur, mais aussi en tant qu'observateur car tout système et son environnement s'emboîtent dans le système plus vaste qui les contient tous deux. Ces SCA réagissent par auto-gouvernance ou auto-organisation à des variations dans les flux de matière, d'énergie ou d'information auxquels ils sont soumis. Ce sont des structures dissipatives au sens de Ilya Prigogine, en ce que leur matière est informée et animée par des flux et transferts d'énergie.

Une région géographique, un paysage rural, un parc industriel ou un quartier de ville quelconques, un modèle de smartphone et son ensemble d'utilisateurs, une ruche d'abeilles ou encore un réseau synaptique de cerveau de souris en sont quelques exemples choisis à des échelles variées. Leur complexité tient d'abord au nombre important et parfois très élevé de leurs unités élémentaires et à leurs interactions multiples. Les flux d'information qui les structurent sont imprégnés de culture humaine ne fût-ce que par les perceptions que nous en avons.

Les SCA défient plusieurs espaces d'incomplétude de disciplines et domaines de compétences. Telle que considérée par HEYLIGHEN et al. (2007), la complexité se focalise sur des phénomènes qui ne sont ni ordonnés comme dans la mécanique newtonienne déterministe, ni désordonnés comme dans la mécanique statistique ou la sociologie postmoderne. Du point de vue scientifique, il s'agit de phénomènes intermédiaires situés à la limite du chaos et fondamentalement caractérisés par l'incertitude épistémique et ontologique de leur dynamique évolutive. Par analogie avec la spontanéité de la particule quantique selon l'expression de NICOLESCU (2002), on pourrait évoquer comme FRAISOPI (2012, page 88) celle des quanta de vie d'un SCA pour intégrer la non linéarité de sa dynamique, les sursauts dont il fait preuve suite aux perturbations et contraintes de son environnement, à la manière ainsi aussi de sauts quantiques. Un champ de possibilités ou de probabilités, un espace de phase lui est ouvert en permanence pour affirmer sa spontanéité immanente et permettre l'émergence de structures et de processus inattendus, ou pour opérer des bifurcations évolutives.

A l'inverse, il n'y a pas de place pour la nouveauté ou la création dans le monde mécaniste newtonien qui se limite à des systèmes plus simples et non auto-organisés. Les éléments de l'ontologie newtonienne sont la matière, l'espace-temps absolu dans lequel elle se meut et les forces ou lois naturelles qui régissent le mouvement. Aucune autre catégorie d'existence n'est considérée telle que l'esprit, la vie, l'organisation, la téléonomie. La connaissance scientifique est alors réduite à une cartographie de l'objet vers le sujet. La découverte scientifique n'y est plus un processus créatif, elle ôte seulement la couverture sur des distinctions qui étaient en attente d'être observées ou analysées. Cette opération effectuée, les composants et phénomènes de la matière y évoluent de manière régulière, prévisible et réversible. Ils peuvent alors être représentés par une modélisation mathématique, c'est-à-dire par un jeu fini de variables dynamiques x(t), y(t) et z(t), qui parvient à préciser par les valeurs successives d'une fonction F(x,y,z) les états du système à un temps t1, t2, t3...etc. Ce paradigme newtonien est en effet basé sur la science naturelle mathématique. Les bases épistémologiques du paradigme mécaniste sont cependant attribuées à Descartes (1596-1650), l'un des philosophes des Lumières. BLOCH (1994) indique que c'est la Renaissance avec Galilée (1564-1642), Kepler (1571-1630) et puis seulement Newton (1643-1727) qui a redonné aux mathématiciens antiques comme Pythagore un nouvel intérêt, alors que cet intérêt s'était fortement émoussé au Moyen-Age.

Par contre les SCA ne peuvent plus être modélisés par une analyse mathématique. Leur comportement ne peut plus être décrit par des variables indépendantes identifiables et mesurables séparément. Ces dernières sont indistinctement intriquées et interactives en ce que l'on peut appeler des facteurs comme le facteur culturel (humain), climatique, géologique, etc. La méthodologie d'étude et de gestion ou d'aménagement de tels systèmes exige des innovations par une modulation des savoirs et savoir-faire. Elle exige l'irruption de la pluridisciplinarité notamment dans la connaissance. Une taxinomie en est proposée par KLEINPETER (2013): pluri-, multi-, polydisciplinarité, transdisciplinarité et interdisciplinarité en sont les catégories principales.

OXMAN (2016) postule qu'à l’aube du 21ème siècle est apparu le mème de l'antidisciplinarité. Celui-ci libère des principes arbitraires et des silos hérités des Lumières et ouvre le nouvel âge de l'intrication. L'innovation et le progrès sont dorénavant tributaires d'interactions entre les rôles et les disciplines des quatre grands domaines de créativité relatifs à la Science, l'Ingénierie, l'Art et le Design.

Pour aménager ou gérer les SCA dont l'humanité prend dorénavant conscience, il faut opérer de manière progressive et empirique, par une méthode d'essais-erreurs et de manière contextuelle, ouverte aux avis et approbations des individus et collectivités tant à l'intérieur qu'à l'extérieur du système. C''est ainsi que LALOUX (2015) préconise le pilotage dynamique des entreprises évoluées OPALE en tenant compte des quatre aspects ou quadrants de Ken WILBER pour obtenir une compréhension intégrale de la réalité: "les prévisions présentent un intérêt dans un monde compliqué, mais elles ne servent plus à rien dans un monde complexe".
Blog imageLes 4 quadrants de Wilber adaptés pour la compréhension de la réalité intégrale des SCA

Références citées:

BLOCH Ernst; 1994. La philosophie de la Renaissance. Paris, Payot (poche).

FRAISOPI Fausto; 2012. La complexité et les phénomènes. Nouvelles ouvertures entre science et philosophie. Paris, Hermann.

HEYLIGHEN Francis, CILLIERS Paul and GERSHENSON Carlos; 2007. Complexity and philosophy, in: J. Bogg and R. Geyer (editors), Complexity, Science and Society, Radcliffe, Oxford.

KLEINPETER Édouard; 2013. Taxinomie critique de l'interdisciplinarité. In: HERMÈS, La Revue, Interdisciplinarité: entre disciplines et indiscipline: 123-129, Paris, CNRS Éditions.

LALOUX Frédéric; 2015. Reinventing organizations. Vers des communautés de travail inspirées. Paris, Diatenio.

NICOLESCU Basarab; 2002. "Nous, la particule et le monde", Monaco, Éditions du Rocher.

OXMAN Neri; 2016. Age of Entanglement. An inaugural essay for the Journal of Design of Science (JoDS), <http://jods.mitpress.mit.edu/pub/AgeOfEntanglement>

Mémo 18: Le "cas" du GIECEpistémologie

Posted by opdecamp 26 May, 2015 13:40:11

Le cas du GIEC est particulièrement intéressant pour opérer une analyse de la conformité de ses travaux avec les règles de l'éthique scientifique sur base de son organisation et de sa manière de communiquer. Une telle analyse est présentée dans la conférence tenue par le philosophe belge Drieu GODEFRIDI le 7 mai 2015 sous l'égide de l'institut Turgot à l'Assemblée Nationale (Paris). Elle est reproduite à cette adresse [vidéo 61'19"]:<https://www.youtube.com/watch?v=f8_ClrXqQD0>
Blog image

COMPTE-RENDU

Trois questions sont traitées: (1) le débat sur le GIEC est-il légitime et se distingue-t-il du débat scientifique? (2) le GIEC fait-il de la science ou autre chose? (3) la pérennité du GIEC doit-elle être assurée? La thèse du conférencier étant que l'organisation du GIEC est viciée et qu'il devrait être démantelé ou pour le moins réformé de manière radicale.

Première question.

Il faut relever que tout débat critique officiel sur le GIEC est fortement contraint voire impossible, ce qui est totalement anormal dans les pays de régime démocratique. Le débat sur le GIEC est par ailleurs justifié eu égard d'abord à son pouvoir normatif, considérable de fait. Cette organisation est composée de 3 groupes de travail:
- "le premier fait la synthèse de la science en matière de climat,

- le deuxième évalue les impacts négatifs pour l'homme des impacts observés et
- le troisième propose tout un catalogue de normes ...pour remédier à ces impacts négatifs".

Le dernier rapport du GIEC comporte près de 3.000 pages et se subdivise en 3 parties dont la dernière, d'environ 1.000 pages, est dédiée aux recommandations de type "normatives" dans tous les secteurs de l'activité humaine. Sont membres du GIEC les 195 pays de l'Organisation Météorologique Mondiale (OMM), ce qui signifie que les recommandations du GIEC ont vocation de s'appliquer du point de vue normatif dans pratiquement l'ensemble des pays de la planète. L'influence potentielle du GIEC est donc planétaire, ce qui est un cas exceptionnel pour une institution internationale dans l'histoire de l'humanité et constitue une raison suffisante en soi de questionnement épistémologique [NDLR: ou d'éthique scientifique] sur ses travaux.

En matière de droit, la nature des actes dépend de la nature de l'institution, de son essence organisationnelle. En l'occurrence, il est nécessaire de déterminer si les actes posés par le GIEC sont bien d'ordre scientifique (au sens des sciences exactes) ou plutôt d'ordre politique ou alors des deux simultanément (et confondus).

Jean-Louis Borloo, à l'époque où il était Ministre, décrivait les rapports du GIEC (les 3.000 pages) comme des documents scientifiques. D'autres personnalités considèrent que seule la première partie est scientifique, les deux autres possédant des colorations politiques plus ou moins importantes. Le climatologue français Hervé le Treut a par contre déclaré à plusieurs reprises que le GIEC ne faisait pas de science. Il y a donc bien confusion sur le type d'organisation en cause qui semble osciller entre un pôle scientifique et un pôle politique. On pourrait admettre l'existence de deux moments distincts à savoir celui de la science et de son rapport sur une question et puis celui de la politique et de ses décisions normatives éventuelles, mais pas une concomitance de ces deux types d'actes intrinsèquement distincts. Il ne peut être question d'accréditer une ingérence politique dans des travaux scientifiques.

Le débat sur le GIEC trouve donc sa légitimité et sa pertinence du fait de son pouvoir considérable et de la confusion sur sa nature exacte, soit politique, soit scientifique.

Deuxième question.

L'analyse de la scientificité du GIEC peut s'effectuer raisonnablement selon le triple point de vue de sa composition, de ses compétences et de son fonctionnement.

Le GIEC est principalement constitué d'un secrétariat, de trois groupes de travail et d'une assemblée générale dite "plénière". Le secrétariat est purement administratif, sans compétences scientifiques.

Les rapports du GIEC sont de bonne facture et comportent en annexe la liste des scientifiques ayant participé à leur rédaction et celle des personnes qui les ont relus ainsi que la compétence précise de chacun d'eux.

Pour le premier groupe attaché à la synthèse de l'évolution du climat, l'immense majorité de ses membres sont des scientifiques au sens des sciences exactes. Le deuxième groupe de travail dédié à l'impact négatif pour l'homme de l'évolution climatique observée, il y a un mélange de représentants des sciences exactes et des sciences humaines avec une prédominance apparente des premiers. Quant au troisième groupe de travail, il y a également un mélange mais cette fois avec une nette dominance des sciences humaines sur les sciences exactes. Enfin, l'assemblée générale du GIEC est composée d'une large majorité de personnalités qui ne sont pas des scientifiques. Ce sont les gouvernements qui choisissent leur délégués dans cette assemblée, sans même devoir renseigner leurs compétences. Il s'agit dans leur immense majorité de fonctionnaires, de représentants de cabinets ministériels, etc.

Il apparaît donc que les scientifiques dominent largement dans le premier groupe et dans une moindre mesure dans le deuxième, mais que pour le troisième groupe et l'assemblée générale leur représentation devient minoritaire voire négligeable au sein de l'assemblée générale.

Que penser d'une évaluation ou d'une qualification de négative ou positive pour une évolution du climat? Une telle évaluation relève d'un jugement de valeur. Et donc, il faut considérer que la deuxième partie du rapport du GIEC repose intégralement sur des jugements de valeur qui ne sont pas du domaine de la science mais plutôt de la morale ou de la politique au sens large [NDLR: sur une axiologie]. De même pour la troisième partie dite normative. Ce sont des jugements de valeur qui sont effectivement à l'origine des normes. La norme est du domaine du "devoir être", la science dans celui de l'"être", des "faits." Au niveau des compétences, il apparaît donc insoutenable d'affirmer que le GIEC est du domaine de la science sans autre forme de procès.


Qu'en est-il enfin du fonctionnement du GIEC? La question est de savoir qui décide, qui a le pouvoir du dernier mot? C'est une une organisation intergouvernementale qui est portée et financée par les gouvernements. Concrètement, il existe une synthèse pour les "décideurs" de quelques dizaines de pages qui sont directement négociées et débattues par les gouvernements. Les minutes de ces débats sont d'ailleurs publiés où l'on retrouve par exemple des discussions entre le Nicaragua et l'Arabie Saoudite et non entre tel et tel scientifique! Mais là n'est pas encore l'élément probant. Le pouvoir du dernier mot réside dans l'article 11 des principes du GIEC qui renvoye à ldisposition qu'aucun document, aucun rapport, aucun acte ne peut être estampillé, revêtu du sceau du GIEC, qui n'ait été préalablement visé ou approuvé par l'assemblée générale. Or, cette assemblée "plénière" n'est pas du tout scientifique en regard des membres qui y siègent. Ce qui signifie en somme qu'aucun acte, aucun rapport du GIEC ne peut être posé ou publié sans l'approbation préalable des gouvernements! C'est donc clairement la reconnaissance d'une ingérence politique dans des travaux scientifiques.
Blog image

Extrait de la page web:<https://www.ipcc.ch/organization/organization_structure.shtml>

La question du scientisme du GIEC doit aussi être intégrée dans l'analyse de sa scientificité. Le scientisme est une "invention française", c'est RENAN et COMTE. C'est l'idée de gouverner l'humanité au nom de la science et non plus de la religion ou de superstitions. Le scientisme peut paraître séduisant à première vue mais c'est une erreur de raisonnement car si la science est reine pour s'exprimer sur les faits, elle n'a plus rien a dire en matière de "valeurs". Il y a une différence de registre entre l'être et le devoir-être. Or, le GIEC est une organisation typiquement scientiste et il suffit d'examiner ses rapports pour s'en convaincre: la troisième partie normative de ces rapports renvoient à de multiples reprises aux deux parties précédentes pour justifier les normes préconisées. Ces déductions de normes à partir d'observations ou de faits constituent le vice de raisonnement typique du scientisme.

Donc, non seulement le GIEC n'est pas une organisation scientifique mais bien plutôt politique, et comme telle, elle est scientiste. Un parallèle existe avec le technocratisme qui prône que les techniciens gouvernent la société au nom de leur savoir-faire et de leur expertise.

On peut expliciter par un exemple. La science a démontré que le tabac nuit à la santé définie en termes de capacité pulmonaire, d'espérance de vie, etc. C'est une connaissance factuelle objective dont aucune "norme" ne peut être tirée du point de vue scientifique. Par contre, je peux m'en instruire mais décider malgré tout de fumer car j'y accorde un plaisir, une valeur particulière. Ou bien, si j'ai d'autres valeurs comme préférer de vivre plus longtemps ou avoir de meilleures performances sportives, je peux m'imposer la norme de ne pas ou ne plus fumer. Des normes antinomiques les unes des autres peuvent donc être adoptées à partir d'un même savoir scientifique. Il n'y a pas de lien de nécessité entre le savoir et la norme. Dès lors, la troisième partie du rapport du GIEC n'a pas de raison d'être dans un cadre strictement scientifique ou devrait alors présenter un bouquet de normes qui seraient contradictoires les unes avec les autres. Mais dans cette troisième partie, le GIEC propose un catalogue de normes parfaitement homogènes. Concrètement: la décroissance aux pays riches et un transfert massif de richesses vers les pays pauvres ou émergents qui par ailleurs seraient autorisés à croître encore un peu à titre temporaire! C'est un courant idéologique qui s'appelle l'écologisme et même de la "deep ecology".

Troisième question.

Que peut -on faire dès lors du GIEC? Il faut certes reconnaître qu'aucune organisation humaine n'est parfaite, que l'idée de réunir des scientifiques sur une question jugée préoccupante n'est pas mauvaise en soi, qu'un travail scientifique collectif et collaboratif à la manière de Wikipédia est plutôt louable. Par ailleurs qu'il y ait des polémiques sur le GIEC, c'est normal dans le cadre des enjeux colossaux comme les énergies renouvelables ou fossiles. Le problème n'est pas non plus en soi la qualité ou l'honnêteté des scientifiques œuvrant au sein du GIEC. En fait, le problème c'est la structure de cette organisation qui repose sur un vice constitutionnel qui jettera toujours une ombre sur la qualité scientifique de ses actes ou rapports. Et pas seulement dans leur deuxième et troisième parties qui sont manifestement d'ordre politique, mais aussi dans la première. Quels sont en fait exactement les critères de sélection des articles scientifiques retenus dans la synthèse de la littérature sur l'évolution du climat? Tant que l'on restera dans le mélange des genres du politique et du scientifique, il subsistera toujours une ombre, un doute, un soupçon fondamental.

Cela fait maintenant 25 ans que l'on subit ce discours lénifiant, moralisateur sur la nature scientifique des rapports du GIEC et il faudrait envisager une réforme radicale comme une possibilité d'évolution: le deuxième et le troisième groupe n'ont rien à faire dans une organisation qui se prétend scientifique. Si le premier groupe se maintient, il faudrait ôter tout droit d'ingérence politique dans ses travaux de synthèse et de rédaction. Il y aurait alors tout de même lieu de faire état de postures scientifiques dissidentes et de les publier en annexe au lieu des les ostraciser comme c'est le cas actuellement. Une telle réforme annihilerait le pouvoir de nuisance du GIEC et déplacerait le débat politique de son sein vers les lieux qui lui sont dédiés à savoir les parlements nationaux des pays membres. Ce serait une première possibilité d'évolution du GIEC en lui permettant de devenir une institution qui contribuerait au progrès des connaissances sur le climat.

La deuxième évolution possible, c'est le lyssenkisme, qui se sert de la puissance de l'État pour faire taire les opinions scientifiques divergentes. Et dans l'évolution actuelle du GIEC on peut détecter une "inspiration lyssenkiste", vers une science estampillée du sceau de l'État. On peut rappeler à cet égard les propos de J-P Van Ypersele qui a traité de "négationnistes" en 2007 tous les scientifiques qui remettait en cause les conclusions du GIEC.

DISCUSSION

Les points de vue et raisonnement développés par le conférencier sont rationnels et cohérents et je les partage volontiers. Je pourrais ajouter par référence au post-précédent [<http://philoscience.agrophil.org/#post18>] que le mélange des genres politiques et scientifiques contrevient pour le moins à la première règle de MERTON de l'éthique scientifique, celle de l'universalisme ou de l'impartialité ainsi qu'au principe de la distinction forte entre "fait" et "valeur" de Max WEBER. Il faut maintenir clairement distincts le "savoir" des sciences, le "savoir-faire" des sciences appliquées et le "devoir-faire" de l'éthique et de la politique, au risque de verser dans le scientisme ou le technocratisme.





Mémo 17: Ordre d'éthique scientifiqueEpistémologie

Posted by opdecamp 20 Apr, 2015 08:24:58

L'éthique scientifique tout comme l'épistémologie fait partie de la philosophie des sciences. La conférence récente du 12 mars 2015 de la philosophe française Catherine LARRÈRE y était consacrée et est reproduite en vidéo (38', AgrobiosciencesTV) à l'adresse suivante: <http://www.agrobiosciences.org/article.php3?id_article=3956> ou encore sur le site de vimeo: <https://vimeo.com/122143971>.

En voici d'abord un compte-rendu puis une discussion personnelle.

COMPTE-RENDU
Blog image

Catherine LARRÈRE distingue les trois étapes suivantes dans l'évolution de l'éthique scientifique.

1) Novembre 1917: conférence du sociologue allemand Max WEBER sur le métier de savant. Distinction forte entre "fait" (scientifique) et "valeur" (culture, politique, morale). Le savant ne doit pas abuser de son autorité pour émettre des jugements de valeurs. Ces derniers ne doivent pas interférer avec ses travaux. Max Weber énonce un devoir adressé à des individus (savants). Mais dans la traduction française, Raymond ARON en 1959 en représentera une dimension collective.

2) Années 1930-1940: éthique de la science formulée par Karl POPPER (philosophe des sciences), Michæl POLANYI (polymathe et épistémologue hongrois) et le sociologue américain Robert MERTON. Époque de la montée des totalitarismes (national socialisme allemand ou italien, socialio-communisme en URSS) où la neutralité axiologique de la science est remise en cause et par là sa neutralité politique: appels à un science prolétarienne ou à une science aryenne. La science se voit inféodée au régime politique. En réaction, POPPER, POLANYI et MERTON formulent une éthique de la science. Deux articles de MERTON en servent de références: 1937, "Science and the social order" et 1942, "Science and democratic social structure". La position de MERTON n'est pas en contradiction avec celle de Weber: elle la reprend et la transforme de l'individu à une communauté sociale. Les libertés et les droits des scientifiques consistent en quatre règles à respecter (dites de MERTON):
- universalisme ou impartialité: les idées et la vérité scientifiques sont discutées et arbitrées en fonction de critères impersonnels, sans intervention d'appartenance des chercheurs à une race, à une classe sociale, à leur sexe, à leur place dans l'institution, etc. C'est un rejet explicite de ce qu'il y ait une science aryenne ou prolétarienne.
- communalisme: la science est une entreprise collective orientée vers le bien de la communauté (scientifique) mais ouverte puisque les scientifiques sont tenus de rendre publiques leurs découvertes. La communauté scientifique est orientée vers le bien général, le bien public. Communauté ouverte donc, de type démocratique, en opposition aussi au totalitarismes.
- scepticisme organisé (vidéo 17'34"): il n'y a pas d'argument d'autorité, c'est l'expérience et le raisonnement qui tranchent et en l'absence de preuve concluante la suspension du jugement s'impose. Tout le problème est alors le cas des incertitudes. L'idée est un travail de remise en cause constante (influence de POPPER): pas d'acquis définitif.
- caractère désintéressé de la recherche (vidéo 17'42"): pas de promotions de ses propres intérêts mais seulement l'extension du savoir.

Ces règles insistent donc sur leur parenté avec celle de la démocratie. Mais il y a aussi l'idée que le travail scientifique est un travail qui se fait collectivement. C'est un rapport social en même temps qu'un rapport à la vérité. Cette éthique affirme que la communauté scientifique est une communauté indépendante: elle se règle elle-même dans la recherche de la vérité et rejette les interventions extérieures. On peut dès lors faire remonter cette éthique de la science à des temps antérieurs, comme le fait l'historien des sciences Michel SERRES, en référence aux conséquences de l'affaire Galilée et à sa condamnation par la papauté: dans l'intérêt même de la société, il faut laisser les scientifiques régler leurs problèmes entre eux dans la recherche de la vérité (mais la société élabore aussi ses propres règles sans domination scientifique). L'autonomie donnée à la science n'est accordée que de manière temporaire et peut être remise en cause et c'est à cela que nous assistons depuis les années 1950, depuis les retombées d'Hiroshima.

3) Depuis 1950 jusqu'à aujourd’hui: reformulation des relations entre liberté et responsabilité depuis les retombées d'Hiroshima. C'est l'allusion à l'intervention des scientifiques dans la mise au point de la bombe atomique (Projet Manhattan: prise en main politique d'un projet scientifique). C'est le fait de la montée en puissance de la maîtrise technique qui attire l'attention sur les conséquences de la recherche scientifique et c'est ce que Raymond ARON relève bien en 1959 dans sa représentation (traduction en français) de la conférence de WEBER de 1917 (vidéo à 23'25"): les moyens de détruire mis par les progrès de la science à la disposition des chefs civils et militaires sont devenus à ce point démesurés que les savants, responsables de ces découvertes et de leur application, s'interrogent sur leur responsabilité. Le philosophe Hans JONAS va développer cette idée dans son livre sur "Le principe responsabilité". Ce qui pose problème ce n'est pas l'échec des scientifiques, c'est leur succès! C'est par la puissance des applications de la science que se pose la responsabilité des scientifiques. A la responsabilité individuelle sur les faits et découvertes scientifiques énoncée par WEBER se substitue une responsabilité collective sur les conséquences. Ensuite, l'accent est aussi mis sur l'utilité sociale, sur le lien entre science, technique et économie.

La recherche de vérité ne suffit donc plus, il s'y ajoute celle d'utilité d'autant plus que la science coûte de plus en plus cher. La recherche scientifique et la croissance économique doivent aller de pair. La science devient plus que jamais une activité sociale et "socialement utile" comme postulé effectivement déjà par MERTON. Mais c'est une activité sociale qui a de plus en plus de mal à se penser "à part" de la société, dans sa propre sphère de "communalisme". La communauté scientifique en devient illusoire.

Un nouveau type de rapport entre liberté et responsabilité doit donc être examiné. Celui qui va introduire cette nouvelle conception de la liberté ou de la responsabilité de la science, c'est HEISENBERG (physicien bien connu, c'est aussi celui qui dans l'Allemagne nazie a été en charge du programme nucléaire). A propos de l'énorme succès entre science de la nature et technologie scientifique (bombe nucléaire), Werner HEISENBERG considère dans ses mémoires que ce succès a dépassé la possibilité de contrôle par les forces humaines.

Une nouvelle définition de la liberté de la science passe par celle de son autonomie. Le développement de la science et de la technique est un processus techno-scientifique autonome, qui se développe par lui-même, en quelque sorte de manière "naturelle".

Deux possibilités se présente donc selon Catherine LARRÈRE:
(a) si l'on naturalise ce processus dans une éthique naturaliste, c'est une expérience de la nature qui fait émerger une nouvelle espèce de la réalité, ce qui est rassurant;
(b) si l'on n'assume pas ces présupposés d'une éthique naturaliste, c'est-à-dire que le processus n'est pas naturel, nous devons prendre sur "nous" la responsabilité de ce que ce processus implique, celui de la monstruosité, ce qui est effrayant (théorie de JONAS).

Dans l'autonomie par naturalisation du mouvement scientifique, c'est la question de la responsabilité des scientifiques qui est posé. Si ce mouvement se fait (effectivement) malgré nous, comme le laisse penser HEISENBERG, c'est une façon de refuser cette responsabilité. "Si cela ne se fait pas ici, cela se fera ailleurs" traduit une référence plutôt à un modèle économique qu'à un processus naturel humain dans la technoscience. L'idée est qu'il faut être en compétition et ce qui est alors inquiétant c'est les distorsions de compétition ou de concurrence. Dans cette optique, on occulte l'aspect de coopération qui caractérise (communalisme) le travail scientifique. Prendre un modèle économique dans l'éthique naturaliste, c'est faire passer la compétition avant la coopération, c'est renoncer au modèle social du travail scientifique mis en évidence par MERTON. Mais selon Catherine LARRÈRE, on doit renoncer à une certaine indépendance (liberté) quand on prend en considération l'utilité sociale.

DISCUSSION

La conception d'une nouvelle éthique de la science est-elle justifiée?

En ce qui me concerne, oui, et elle devrait même être systématiquement organisée dans le sens où deux règles de MERTON me semblent devoir être revues: celles de l'universalisme ou de l'impartialité et celle du communalisme.

L'impartialité scientifique est effectivement plus fortement menacée aujourd'hui du fait des spécialisations poussées des disciplines alors que la complexité des objets d'étude s'est fortement accrue et globalisée. Je songe par exemple aux problématiques et controverses sur les causes de changements des climats ou de la polarisation entre les modèles agroécologiques et industriels de l'agriculture. La mise en place d'instances éthiques pluridisciplinaires de haut vol sont nécessaires pour arbitrer et sanctionner les dérives idéologiques.

Le communalisme doit pour ces mêmes raisons se commuer en un pluralisme et inclure les sciences humaines comme la sociologie, la philosophie ou l'anthropologie. L'ouverture vers la société s'en trouverait ainsi améliorée et pourrait peut-être se compléter d'un organe consultatif représentant plus globalement le public et des utilisateurs des applications et innovations scientifiques.

Mais cette nouvelle éthique devra réaffirmer la prise en compte de l'utilité socio-économique des travaux scientifiques, ce qui est déjà largement traduit dans les faits. Les scientifiques consentent déjà à une perte d'autonomie et de liberté au niveau du financement de leurs travaux.

Quant à le question de la responsabilité sur les conséquences des découvertes et résultats: elle ne peut être imputée qu'à ceux qui détiennent le pouvoir et les moyens de les appliquer. A ce niveau et au premier plan il y a les instances privées et publiques, souvent les mêmes que celles qui financent le travail scientifique. Au second plan, il y a les techniciens et les ingénieurs. dont les connaissances et le savoir-faire sont également déterminants, mais également soumis aux décisions et au pouvoir des instances de premier plan.

Le renforcement de l'impartialité et la plus grande ouverture du communalisme associés aux règles de scepticisme organisé et de caractère désintéressé de la recherche pourraient constituer les fondements axiologiques pour instituer un "Ordre d'éthique scientifique" au niveau national puis international par délégation. Mais il me paraît essentiel d'étendre l'application de cette éthique réformée à la communication avec le public vu le poids des médias dans l'opinion publique. Un ordre qui s'inscrirait alors, le cas échéant, en contre-pouvoir des instances privées et publiques qui commandent les travaux et exploitent les résultats scientifiques.

Références bibliographiques.

MERTON, R.K.; 1973. Science and the social order, 1938. Paper first read at the American Sociological Society, December 1937. Philosophy of Science, 5: 321-337.

MERTON, R. K; 1973. The normative structure of science, 1942. Originally published as "Science and technology in a democratic order", Journal of legal and political sociology, 1 (1942): 115-126, later published as "Science and democratic social structure", in Robert K. Merton, "Social structure and social theory".

Les deux articles précités sont rassemblés dans un PDF disponible à l'adresse: <http://sciencepolicy.colorado.edu/students/envs_5110/merton_sociology_science.pdf>





Mémo 16: Le nouveau réalismeEpistémologie

Posted by opdecamp 16 Apr, 2015 14:03:23

Selon Maurizio FERRARIS (2014), le constructivisme (mémo 14) est le propre d'une philosophie postmoderne. Il postule que le principe fondamental du postmodernisme philosophique est la formulation suivante de Friedrich NIETZSCHE (Fragments posthumes, 1885-1887): "il n'y a pas de faits, seulement des interprétations". La vérité ne serait qu'une sorte de mythe, une construction qui passe par une médiation des schémas conceptuels et représentations. On rejoint ici l'hypothèse phénoménologique ou interactionniste des épistémologies constructivistes indiquée par LE MOIGNE (2012, voir mémo 14), une dé-objectivation de la science qui peut conduire selon FERRARIS à une "illégitimation du savoir humain", à l'ouverture d'un espace pour la transcendance, à faire sauter les frontières "entre réalité et fiction ... entre science, religion et superstition".

En réaction, l'auteur propose sa conception personnelle du réalisme avec les trois mots clés: (1) Ontologie, (2) Critique et (3) Lumières.
(1) Falsification de l'être-savoir. Les postmodernes font une confusion entre l'être et le savoir, entre "ce qui est" et "ce que l'on en sait", entre ontologie et épistémologie. Il existe un caractère saillant au réel qui est "inamendable" et qui nous permet de distinguer le rêve de la réalité ou la science de la magie. Par exemple, l'eau mouille et le feu brûle indépendamment de toutes les connaissances sur ces deux éléments. L'inamendabilité constitue un caractère fondamental du réel, à la fois persistant et non aléatoire, qui vise ce qui "ne peut être ni corrigé ni transformé par un appel aux schémas conceptuels". On ne peut pas nier toute autorité ontologique à la perception, même si nos sens peuvent nous tromper, même si nos conceptions sont déçues.
(2) Falsification du vérifier-accepter. L'irréaliste postmoderne est incapable d'établir s'il se transforme avec le monde ou s'il imagine ou rêve cette mutuelle transformation. Par contre, le réalisme est la prémisse de la critique du monde et de sa transformation.
(3) Falsification du savoir-pouvoir selon trois versions. La première version est une remise en question du caractère désintéressé du savoir, par une relation radicale entre la connaissance et l'intérêt. FERRARIS considère qu'il s'agit d'une forme ténue de postmodernisme car elle ne remet pas en cause le réel. Et puis, il faut effectivement admettre que le savoir peut être animé par une volonté de puissance ou des intérêts de carrière. Cependant, ces motivations ne remettent pas nécessairement en cause les résultats du savoir et de l'émancipation par celui-ci proclamée par les "Lumières", "du rôle central du savoir dans le bien-être de l'humanité". Une deuxième version se réfère à l'idée que "l'organisation du savoir est strictement déterminée par des motivations de pouvoir". La troisième version enfin vise le dogmatisme pouvant être amplifié par la violence du pouvoir. C'est alors une pensée faible: "les certitudes non étayées par des faits peuvent créer des résultats désastreux".

Mais FERRARIS propose un traité de paix avec le constructivisme sous forme d'une possible reconstruction sur ce qu'il appelle "l'attrition de la réalité", un monde externe, autonome et inamendable sur lequel peuvent s'exercer à la fois nos modèles conceptuels et nos appareils perceptifs. Il se déclare ainsi partisan d'un réalisme minimaliste, dans lequel l'ontologie fait office de frontière ou de limite. Outre le feu et l'eau, il prend encore le cas des dinosaures à l'appui d'une attrition fondamentale du réel, version éthique de son inamendabilité. Les dinosaures constituent des formes de vie organisées qui se sont développées en toute indépendance de notre savoir et de nos schémas conceptuels, antérieurement à toute épistémologie possible.

Il propose dès lors trois catégories d'objets:

(a) les objets naturels "existent dans l'espace et le temps indépendamment des sujets" comme les montagnes, les rivières et les castors qui subissent de par leur constitution (monde extérieur ontologique) l'action de l'épistémologie (monde intérieur);
(b) les objets sociaux "existent dans l'espace et le temps dépendamment des sujets" comme les billets de banque, les fichiers d'un disque dur, les promesses et les mariages qui n'existent que parce que nous le croyons et font partie de nos savoirs au sens épistémologique;
(c) les objets idéaux "existent en dehors de l'espace et du temps indépendamment des sujets".

Le message essentiel du nouveau réalisme de FERRARIS est la distinction entre objets naturels et sociaux, entre nature et culture. Cette distinction est l'élément décisif de la critique du monde, de la falsification du vérifier-accepter évoquée. Le monde naturel est universel et relève de l'ontologie alors que le monde social est culturel et relève de l'épistémologie.

Référence citée:

FERRARIS, M.; 2014. Manifeste du nouveau réalisme. Paris, Hermann.





Mémo 15. Limites des modèlesEpistémologie

Posted by opdecamp 20 Oct, 2014 13:53:08

VARENNE (2014) cite le modélisateur et informaticien Marvin Minsky pour caractériser un modèle dans le sens le plus large: "Pour un observateur O, un objet A* est un modèle d’un objet A, dans la mesure où O peut utiliser A* pour répondre à des questions qui l’intéressent au sujet de A".

Le terme de "modèle" est pris dans son sens figuré comme l'objet modélisant "A*" et non dans son sens propre comme l'objet modélisé "A". C'est à partir du 19ème siècle, explique VARENNE, que le mot évolue vers ce sens figuré, pour illustrer une théorie, l’interpréter, ou même en tenir "lieu quand la théorie est absente".

Parmi les 4 formes de modèles de DURAND (2006, p. 56 à 62) figurent d'abord la maquette ("modèle" réduit en 3D) et la représentation graphique (carte géographique, organigramme, arbre généalogique, diagramme, schéma, etc.) qui sont des modèles physiques descriptifs et statiques. Ces 2 premières formes correspondent à ce que VARENNE considère comme un "construit physique réel à visée de reproduction simplifiée". Ces formes de modèle correspondent ainsi à une reproduction, une illustration de l'objet modélisé (un immeuble, un avion, les sols ou le relief d'une région, schéma des composants et flux d'un système ou d'un circuit électrique ou hydraulique, etc.). Elles s'accordent plutôt à une épistémologie réaliste ou positiviste basée sur l'hypothèse ontologique et sur une méthode analytique. Par ailleurs, elle ne contient et ne propose aucun outil ou moyen particulier de simulation des processus en œuvre ou d'exploration de changements d'états dans le système considéré. Cependant, leurs informations sont conçues et assemblées dans le but de servir prioritairement à la compréhension du système modélisé (modèle cognitif) secondairement de support à la décision quant à son devenir (modèle décisionnel ou normatif).

Au-delà du modèle statique, DURAND distingue alors 2 autres formes: le modèle cybernétique (flux d'énergie ou de matière) et le modèle numérique (flux d'information) qui ont tous deux une ambition de simulation dynamique et une visée prévisionnelle intrinsèque de régulation ou de comportement d'un système. Le modèle prévisionnel illustre une théorie ou idéalise la réalité sous un angle défini, pour simuler son comportement, sa dynamique. Il se conçoit soit encore par un raisonnement mathématico-analytique (équations aux dérivées partielles EDP) pour les systèmes linéaires à nombre limité de variables, soit par raisonnement analogique pour les systèmes plus complexes, non linéaires et à nombre de variables élevé. Dans ce dernier cas, une épistémologie de type positivo-réaliste est inadaptée et la démarche constructiviste s'impose dans laquelle les variables déterministes sont remplacées par des indicateurs phénoménologiques.

HILBORN (2006, p. 4 et suivantes) définit un système non-linéaire comme un système dynamique dont les équations d'évolution dans le temps sont non-linéaires, c'est-à-dire que les variables dynamiques descriptives du système, par exemple la position spatiale, la vitesse (dérivée première par rapport au temps) ou l'accélération (dérivée seconde) apparaissent dans les équations sous une forme non-linéaire (pas une droite). Pour ANGELIER (2008, p. 54 et suivantes) ce sont pour la plupart des systèmes physiques ou chimiques, à états, "qui transforment une succession d'entrées en une succession de sorties". Ils "sont linéaires de la même façon qu'une équation est linéaire, si la somme de deux ou plusieurs solutions est aussi une solution: F(x+y)=f(x)+f(y), ou bien f(a.x)=a.f(x)". Et ANGELIER de préciser également que "dans une équation non linéaire, la proportionnalité entre la cause et l'effet n'est pas obligatoirement respectée, et chaque solution doit être découverte individuellement".

VARENNE explique que le modèle (analytique/explicatif ou analogique/phénoménologique) relève d'une double relativité. La première rejoint l'hypothèse phénoménologique constructiviste (voir mémo 14), à savoir qu'il découle d'un point de vue particulier de l'observateur sur la réalité. Le modèle est une vision ou perception partielle de la réalité sous l'angle des problématiques envisagées. La formalisation d'un modèle participe dès lors d'un "déracinement" de la réalité pour devenir une "fiction mathématique" ou une "simple grille d'analyse de données". La seconde relativité est également apparentée au constructivisme par l'hypothèse téléologique, à savoir qu'un modèle sert à répondre à un questionnement, ce qui définit son objectif particulier. Le modèle est un outil de facilitation, un "système symbolique médiateur": il facilite ainsi la recherche des réponses au questionnement posé, à la manière d'un leader qui possède une capacité de médiation dans un groupe. VARENNE propose dès lors une typologie des modèles sur base des différents types de médiation et qui recoupe les 4 formes de modèles retenues par DURAND et évoquées plus haut:

- facilitation expérimentale: "faciliter une observation, une visualisation, ... le rendu d’une expérience ou d’une expérimentation" (maquettes, représentations graphiques, plan d'essais agronomiques, etc.);
- facilitation cognitive: compression et sélection de données, classifications, explication (double hélice de Watson et Crick pour l'ADN), prédiction (phénoménologique) sans explication éventuelle, etc.
- facilitation de théorisation: élaboration d'une théorie encore immature par "explorations conceptuelles hypothétiques et ponctuellement liées à des données partiellement disponibles", images mentales pour représenter des mécanismes d'un calcul, formalisation analogique permettant des réductions d'échelle et du nombre de variables, correspondances entre phénomènes de nature différente (électricité/mécanique des fluides), tests de cohérence interne ou d'applicabilité d'une théorie, diminution de complexité; etc.
- facilitation de communication: entre disciplines, entre groupes humains (gestion conflits), construction coopérative de solutions (modélisation d'accompagnement ou interactive entre experts et acteurs d'un système agro-économique par exemple)
- facilitation de décision/action: gestion d'épidémies et catastrophes, de risques financiers.

Quant aux simulations, VARENNE les assimilent soit à des instruments de calcul (numérique) des modèles analytiques soit à des modèles analogiques (ou phénoménologiques). Dans le premier cas, elles "calculent des modèles mathématiques non traitables analytiquement". Dans le second cas, elles consistent à "imiter les performances observables de l'objet modélisé" du fait de l'impossibilité d'expliquer ou théoriser le système considéré. Les simulations sont donc des "modèles de modèles" ou des "modèles à la seconde puissance" qui pourraient éloigner de la réalité d'un degré supplémentaire. VARENNE précise encore que le modèle analogique ou simulation, est plus qu'un simple analogon et que même lorsqu'il est symbolique ou abstrait, son utilisateur lui donne une existence autonome, "une forte indépendance ontologique" qui l'apparente à un objet en soi.

CAMARA et al. (2012) définissent la modélisation ontologique (informatique) comme une "spécification formelle et explicite d'une conceptualisation partagée". Ils pratiquent une distinction similaire à celle de DURAND entre entités statiques qu'ils appellent "continuants" (objets, statiques mais susceptibles de changement d'état par des processus internes ou externes) et entités dynamiques ou "occurents" (processus, événements, états). Les principaux types de relations envisagées entre continuants et occurents sont cités comme suit:

- participation: un continuant participe dans un occurent. "La participation est générique et doit être spécialisée pour être utilisée dans la modélisation correspondant à une application particulière".
- méréologie: "partie de" qui s'applique à la fois aux continuants et aux occurents. Exemple: un processus est constitué d'événements (et non l'inverse) ou d'une suite d'états successifs.
- hiérarchie: vise les relations d'héritage.
- externalité, internalité: point de vue sur une structure complexe et granulaire; selon le niveau de granularité (niveau d'échelle) où se situe l'observation, un processus peut être perçu comme interne ou externe à un objet.
- causalité: l'un des postulats de base des systèmes complexes. L'émergence de propriétés ou de comportements imprévisibles ont une cause. Ainsi, par exemples: un événement cause un autre événement; un état autorise un événement; un événement initie un état; un état active un autre état.

Une remarque fondamentale mérite d'être finalement émise sur ce dernier type de relation de causalité, à savoir qu'elle pourrait ne plus être propre à la réalité modélisée comme dans l'hypothèse déterministe de l'épistémologie positivo-réaliste, mais plutôt au modèle lui-même, à la simulation, en tant qu'ontologie, en tant que règle de fonctionnement interne, correspondant en quelque sorte à un déterminisme simulé! Comme dit VARENNE: le modèle pourrait "non seulement rompre les amarres par rapport au réel mais devenir aussi un autre réel à la place du réel". Si la modélisation ontologique doit coller le plus possible à une réalité, c'est à celle du réel immédiat, à sa perception instantané, et pas nécessairement "au mécanisme caché derrière les apparences", c'est-à-dire à "l'explication vraie" des phénomènes mesurables (perçus implicitement à un degré de moindre réalité)!

Références bibliographiques:

ANGELIER E.; 2008. Les sciences de la complexité et le vivant. Tec & Doc (Lavoisier).
CAMARA G., S. DESPRES, R. DJEDIDI et M. LO; 2012. Modélisation ontologique des systèmes complexes: cas de la propagation de la bilharziose au Sénégal. 4e Colloque National sur la Recherche en Informatique et ses applications (CNRIA12), Thiès-Bambey, Sénégal.
DURAND D.; 2006. La systémique. PUF, Que sais-je? (10ème édition).
HILLBORN, R.C.; 2006. Chaos and non linear dynamics. An introduction for scientists and engineers. Oxford university press.
VARENNE F.; 2014. Epistémologie des modèles et des simulations: tour d’horizon et tendances. In: J.M. Levy (dir.), Les Modèles, possibilités et limites. Jusqu’où va le réel?, Paris, Matériologiques: 13-46. PDF de la version 2008.





Mémo 14. Les épistémologies constructivistesEpistémologie

Posted by opdecamp 07 Oct, 2014 10:45:12

LE MOIGNE (2012) synthétise en deux hypothèses la gnoséologie des épistémologies constructivistes en contraste avec celles de l'épistémologie institutionnelle contemporaine (voir mémo 13).

La première est l'hypothèse phénoménologique (p. 71 et suivantes) ou interactionniste. Elle postule l'inséparabilité perçue par Jean Piaget "entre l'acte de connaître un "objet" et l'acte de "se" connaître qu'exerce le sujet connaissant". C'est par l'interaction entre le "moi" et les "objets" que s'organise la connaissance du monde, autrement dit par l'interaction entre le sujet et l'objet. "Le réel connaissable est un réel phénoménologique, celui que le sujet expérimente" (p. 72). "Rien n'est donné, tout est construit" disait Gaston Bachelard ou encore Antonio Machado: "Marcheur, il n'y a pas de chemin, le chemin se construit en marchant".
Il en résulte 3 caractéristiques de l'expérience ou du réel:
- l'irréversibilité de la cognition, la flèche du temps qui rejoint l'hypothèse d'Héraclite (tout flue, fluctue, bifurque, etc.); en somme, il n'y a plus de réalité ontologique, plus de réalité stable ou immuable!
- le caractère dialogique du réel connaissable, c'est-à-dire, et pour citer encore Blaise Pascal, "Toutes choses étant causées et causantes, aidées et aidantes, médiates et immédiates...". Le principe dialogique, également héraclitéen, assume la tension thèse/antithèse qui loin de s'exclure mutuellement ou de se résoudre en une synthèse, restent "indissociables en une même réalité" (p. 75).
- la récursivité de la cognition, que le biologiste et généticien ukrainien Théodore Dobjansky exprimait comme suit: "En changeant ce qu'il connaît du monde, l'homme change le monde qu'il connaît. Et en changeant le monde dans lequel il vit, l'homme se change lui-même".

La deuxième est l'hypothèse téléologique (p.76 et suivantes) qui prend "en compte l'intention ou les finalités" du sujet connaissant et mise sur sa capacité plus ou moins limitée à s'autofinaliser. La cognition possède donc un caractère intentionnel à ne pas confondre avec le rationnel: à la question du "pourquoi" la réponse commence par "à fin de" plutôt que "parce que". Et comme la rappelle GUILLEBAUD (2005, p. 216), Gaston Bachelard avançait qu'à l'instar de toutes les activités humaines, la connaissance scientifique est inséparable d'un projet (Essai sur la connaissance approchée, 1927).

A ces deux hypothèses gnoséologiques, précise LE MOIGNE, s'associent deux principes méthodologiques (p. 79 et suivantes).

Le premier est celui de la modélisation systémique qui diffère de la modélisation analytique en ce "qu'elle assume explicitement le rôle du modélisateur et de ses projets" et en ce qu'elle privilégie l'acte à la chose: "qu'est-ce que çà fait?", plutôt que "de quoi est-ce fait?".

DURAND (2006, p.62 et suivantes) présente le processus de modélisation systémique en 4 étapes ou modules, plus particulièrement adapté au domaine des sciences sociales:

- définition du projet: finalité et limites ou frontières;

- dessin du modèle: graphe lisible et compréhensif des relations/interactions entre en un nombre limité d'éléments ou de groupes d'éléments; le nombre potentiel de relations est plus élevé que celui des éléments (un système de 4 éléments peut comporter 6 relations(4 côtés + 2 diagonales), 6 éléments jusqu'à 15 relations, 10 éléments jusqu'à 45! Mais tous les éléments ne sont pas nécessairement en interaction. Caractériser les interactions: à sens unique ->, ou double sens <->, à effet positif ou négatif, relation d'influence ou d'inhibition, etc.

- comportement du modèle: définir individuellement le rôle, la fonction des éléments ou groupes d'éléments dans le comportement du système. Trois catégories d'éléments: les invariants (considérés comme fixes, non susceptibles de transformation, statiques en quelques sortes); les contraintes (internes ou externes au système et qui limitent sa capacité d'adaptation ou de réaction à tel ou tel situation ou événement); les variables qui changent du fait d'événements aléatoires externes au système ou du fait de décisions du modélisateur en tant que meneur de jeu. Cette 3ème étape peut être la plus longue et est la plus délicate car s'y mettent en œuvre les qualités et l'imagination du modélisateur. Ce module doit se terminer par un exercice de validation pour vérifier l'utilité pratique du modèle théorique.

- et enfin, la simulation: cette dernière étape permet d'utiliser le modèle pour en tirer des enseignements ou préparer des décisions selon une voie algorithmique (quantification partielle) ou une voie heuristique (sur base de scénarios).

ANGELIER (2008, p.59) indique que si la simulation n'est ni de l'expérimentation, ni de la théorie, elle en tient cependant lieu. "Elle sert à explorer quels types d'interactions sont compatibles avec le comportement global du système, et réciproquement; également à hasarder certaines règles de conduites des composants, certaines prédictions sur le comportement du système, qui seront vérifiées expérimentalement". Il ajoute de surcroît que si les modèles déterministes (mathématisation par équations différentielles) ne laisse aucune place au hasard, ils sont rarement utilisés dans les sciences du vivant qui intègrent toujours une part d'incertitude (ontologique). La modélisation analytique ne leur convient pas du fait de la multiplicité des interactions. Dès lors, le tâtonnement ou l'analogie fonctionnelle s'y imposent ( p. 61).

Le deuxième principe méthodologique précisé par LE MOIGNE est celui d'action intelligente (p. 84 et suivantes) en symétrie avec celui de raison suffisante de Leibniz dans l'épistémologie institutionnelle contemporaine (voir mémo 13 précédent). Le philosophe américain John Dewey le décrivait comme processus cognitif de l'esprit pour restaurer la consonance souhaitée entre ses comportements et ses projets lorsqu'ils sont perçus en dissonance. Il s'agit de procédures tâtonnantes, à raisonnement dialogique où s'alternent la mise en œuvre de moyens adaptés à des fins intermédiaires et celle de nouveaux moyens pour atteindre d'autres fins possibles. L'expérience antérieure est exploitée comme réservoir heuristique ainsi que les raisonnements rétroductifs et transductifs. Les ressources du raisonnement dialogique pratiqué doivent être reproductibles mais l'objectif de conformité formelle à une connaissance "vraie" (raison suffisante) est abandonné. Les connaissances ainsi construites sont dès lors plutôt possibles qu'exclusivement nécessaires et celles qui seront communiquées ou enseignées seront de la responsabilité socioculturelle et éthique du modélisateur. Le modélisateur devra assumer que ces connaissances sont argumentées, c'est-à-dire à la fois constructibles et reproductibles, mais qu'elles ne sont pas nécessairement "démontrées".

Références bibliographiques:

ANGELIER E.; 2008. Les sciences de la complexité et le vivant. Tec & Doc (Lavoisier).

DURAND D.; 2006. La systémique. PUF, Que sais-je? (10ème édition).

LE MOIGNE J-L.; 2012. Les épistémologies constructivistes. PUF, Que sais-je? (4ème édition).

GUILLEBAUD J-C.; 2005. La force de conviction. A quoi pouvons-nous croire? Seuil (Points).



Mémo 13. Critique du positivisme et du réalismeEpistémologie

Posted by opdecamp 30 Sep, 2014 14:34:34

Le positivisme et le réalisme constituent les épistémologies institutionnelles contemporaines (LE MOIGNE, 2012, p.11) et leur gnoséologie s'est considérablement affaiblie en ce qui concerne ses deux hypothèses constitutives. Leurs méthodologies sont également critiquées.

Par delà leur dualité, ces deux courants épistémologiques institutionnels se fondent d'abord sur l'hypothèse ontologique de la connaissance de la réalité. Cette dernière étant considérée comme indépendante de l'observateur-modélisateur (LE MOIGNE, p. 19 & 20). La progression de la science s'illustrerait par la métaphore de l'asymptote (la réalité) dont elle pourrait se rapprocher sans peut-être jamais l'atteindre. GUILLEBAUD (2005, p. 213) cite deux ouvrages d'Henri Poincaré ("La science et l'hypothèse" de 1902 et "La valeur de la science" de 1905) où ce mathématicien dénie à la science "sa capacité supposée d'appréhender véritablement le réel sans le recours à des axiomes, à des conventions ou même à des intuitions, c'est-à-dire des croyances". Le positivisme et le réalisme se fondent aussi sur l'hypothèse déterministe ou hypothèse de causalité. Elle permet d'expliquer la réalité selon une "longue chaînes de raisons toutes simples et faciles" comme l'écrivait Descartes. Le déterminisme devient une condition "sine qua non" de la science en tant que "recherche des lois causales qui gouvernent la réalité" (LE MOIGNE, p.23). Et c'est cette "croyance" que GUILLEBAUD (p. 212) reconnaît comme base du projet prométhéen de la science. L'hypothèse déterministe et mécaniste s'est affaiblie avec les observations sur le comportement des systèmes complexes: mise en évidence des structures dissipatives (Ilya Prigogine) des systèmes thermodynamiques ouverts à l'écart de l'équilibre et du chaos "déterministe" en dynamique non linéaire ce qui les rend imprévisibles. Un coup plus fort lui a sans doute aussi été porté par la découverte de la spontanéité des particules quantiques. Selon LE MOIGNE (p. 25), l'effritement de l'hypothèse déterministe méritait la formulation d'une hypothèse épistémologique alternative telle celle de Karl Popper dans son "Plaidoyer pour l'indéterminisme" de 1982, mais sans toutefois "sortir du métaparadigme de l'épistémologie institutionnelle contemporaine". Outre Poincaré, GUILLEBAUD (p. 213) évoque le spiritualisme du philosophe Henri Bergson comme écorcheur de l'épistémologie positiviste en ce qu'il soutient que la vie est une "imprévisible création de formes, traversant les règnes du minéral jusqu'à l'humain, selon une "division" de l'élan vital originel en deux axes divergents, l'instinct et l'intelligence". Bergson marquerait ainsi "une rupture radicale avec la pensée matérialiste qui triomphait auparavant" et il "redonne leur place à l'intuition, à la durée, au "moi profond", à l'élan vital, à la capacité créatrice de l'humain". La similitude de ces idées est frappante avec le pouvoir auto-organisateur des systèmes complexes (structures dissipatives), l'imprévisibilité de leur dynamique non linéaire ainsi qu'avec la spontanéité de la particule quantique et l'incertitude ontologique qu'elle engendre. L'instabilité, le non équilibre, les relations d'incertitude ébranlent l'univers déterministe et focalise désormais la science sur les concepts de processus, de dynamique, d'émergence.

Pour les méthodes du positivisme et du réalisme, LE MOIGNE évoque le principe de modélisation analytique (p. 25 à 30) et celui de raison suffisante (p. 30 à 35).

Pour le "réductionnisme de méthode", LE MOIGNE rappelle qu'il n'est pas intégralement consubstantiel à ces épistémologies. C'est la puissance modélisatrice de l'analyse cartésienne et non celle de la réduction qui est impérative et ce "sans abandonner de parcelles", sans simplification ou réduction. Ce premier principe méthodologique souffre pour LE MOIGNE d'une "faiblesse théorique congénitale" car, comme l'observait déjà Leibniz, il n'est pas dit comment décomposer en parties! Il pourrait conduire à décomposer (réduire) un arbre jusqu'à un tas de sciure pour le connaître! Il rend aussi invisibles les liens qui relient les éléments analysés entre eux. Par contre, il encourage à croire en une réalité ultime, particule ou gène, ou "au moins de trouver quelque chose qui puisse, un instant, la représenter". Par contre, tant que les hypothèses ontologique et déterministes sont respectées, la modélisation holiste est tout aussi légitime que l'analytique. Il n'est pas interdit "pour connaître le tout, de connaître également les parties, non plus que pour connaître les parties, de connaître également le tout", selon la formule de Blaise Pascal. De même ne pourrait-on admettre sous prétexte de violation d'un réductionisme de méthode, l'hypothèse plus spécifique de "non séparabilité": que des objets distants à un instant donné ne soient pas vraiment séparés comme dans l'intrication des particules quantiques, alors que celle-ci est bel et bien démontrée (voir mémo 11 sur la réalité quantique)! LE MOIGNE (p. 30) conclut sur ce principe de la modélisation analytique, placé "sous le signe du bistouri, du microscope, du spectroscope et du télescope ... ne mérite peut-être pas la réputation de respectabilité scientifique éminente que les institutions lui ont accordée depuis deux siècles".

Le deuxième principe de raison suffisante a été formulée par Leibniz: "rien jamais n'arrive sans qu'il y ait une cause ou du moins une raison déterminante", c'est -à-dire que "l'existence d'un réel possible doit être "expliquée" syllogistiquement en raison" (LE MOIGNE, p. 31). Ce principe s'articule parfaitement à l'hypothèse déterministe et à fortiori causaliste, mais lui "ajoute subrepticement" l'hypothèse "de la naturalité de la logique déductive", à savoir que l'ordonnancement de la "longue chaîne de raisons toutes simples" "rend indiscutablement compte et raison" de la réalité, ce qui donne une puissance épistémique exceptionnelle à la logique formelle. Le raisonnement déductif est ainsi fondé en "vérité naturelle". Ce principe va compléter la modélisation analytique de décomposition en parcelles selon une procédure qui facilitera leur recomposition par un mode déductif des "longues chaînes de raisons toutes simples". Et LE MOIGNE (p. 34) d'ajouter que le "développement du calcul différentiel et intégral au 18ème siècle allait ainsi apporter une méthode présumée universelle de détermination des lois de la nature".

C'est cet examen critique de l'épistémologie institutionnelle contemporaine qui peut fournir quelques motifs d'écouter et décoder le discours alternatif des épistémologies constructivistes.

Références bibliographiques:

LE MOIGNE J-L.; 2012. Les épistémologies constructivistes. PUF, Que sais-je? (4ème édition).

GUILLEBAUD J-C.; 2005. La force de conviction. A quoi pouvons-nous croire? Seuil (Points).



Mémo 12. L'incertitude socio-scientifiqueEpistémologie

Posted by opdecamp 27 Sep, 2014 11:26:57

L'incertitude a envahi le domaine scientifique dans presque toutes les disciplines, y compris la plus solide qui est celle de la Physique avec la "spontanéité" quantique. Elle caractérise aussi les systèmes complexes de dynamique non linéaire dont l'imprévisibilité est révélée par la théorie du chaos. Mais elle est plus particulièrement d'actualité avec l'avènement de la nouvelle éthique écologique et les changements sociologiques qui en découlent.

Citant WALKER et al. (2003), COUTELLEC (2013, p. 172) rapporte l'existence de 2 types d'incertitudes: le type épistémique, dû aux connaissances insuffisantes ou incomplètes, et le type ontologique, inhérent aux systèmes complexes, humains et naturels, dont la dynamique est imprévisible. Il s'agit d'une actualisation de la distinction classique entre incertitude fondamentale et incertitude mesurable, cette dernière étant assimilée au risque mesurable ou quantifiable (calculable) et assurable. L'incertitude épistémique laisse un espoir d'être vaincue par la recherche et l'expérimentation, l'ontologique non. Le diagnostic de cette dernière est donc plutôt désespérant quant aux possibilités d'orienter les phénomènes qu'elle caractérise.

Pour WALKER et al. (op. cit.), cités par MAXIM et al. (2008), l'incertitude se définit comme toute déviation de l'idéal d'une connaissance parfaitement déterministe d'un système. L'incertitude paraît alors associée à des "possibles" qui se réfèrent à des processus et phénomènes stochastiques. Pour ceux-ci, leurs probabilités peuvent être fréquentistes (mesurées expérimentalement) ou bayésiennes (calculées par raisonnement inductif). MAXIM et al. (2008) évoquent aussi la distinction de WYNNE (1992) entre incertitude et ignorance, cette dernière ne permettant aucune hypothèse théorique.

Un exemple d'incertitude scientifique ontologique est évidemment le principe d'HEISENBERG portant sur l'impossibilité de préciser en même temps la vitesse et la position d'une particule quantique, la fonction de cette dernière étant de fait une onde de probabilité comme établi par Max BORN (voir mémo précédent).

Outre l'incertitude scientifique de type épistémique ou ontologique et de probabilité fréquentiste ou bayésienne pour la première, MAXIM et al. (op. cit.) proposent également un nouveau type d'incertitude, dite subjective, de nature composite. Ses dimensions sont à la fois scientifique et sociale. C'est ce que l'on peut dénommer l'incertitude socio-scientifique qui repose sur la contestation des preuves, de leur légitimité ou qualité, par des acteurs ou groupes sociaux, particulièrement dans le domaine environnemental ou écologique. C'est donc une incertitude socialement déterminée. La contestation des preuves y est motivée par une diversité d'éthiques, d'intérêts, d'enjeux socio-économiques. Ce type d'incertitude donne lieu à un type de controverse qui peut prendre des proportions considérables, comme celle qui oppose les climatosceptiques et les carboréchauffistes.

Références bibliographiques.

COUTELLEC L.; 2013. De la démocratie dans les sciences. Epistémologie, éthique et pluralisme. Ed. Matériologiques: 362 p.

MAXIM, L., J.P. VAN DER SLUIJS et J.-M. DOGUET; 2008. Mettre en œuvre le principe de précaution. Risques. Les cahiers de l’assurance, 72: 93-103. Document htm

WALKER W.E., P. HARREMOËS, J. ROTMANS , J.E. VAN DER SLUIJS, M. B. A. VAN ASSELT; E. JANSSEN and M.E. KRAYER VON KRAUSS; 2003. Defining uncertainty. A conceptual basis for uncertainty management in model-based decision support. Integrated assessment, 4.1: 5-17. Site web pour ce document.

WYNNE, B.; 1992. Misunderstood misunderstandings: social identities and public uptake of science. Public Understanding of Science, 1: 281-304