Voie sans issue ? (2/2)

mercredi 24 septembre 2014
par  LieuxCommuns

(../...)

Voir la première partie

Sur les représentations sociales de la science

On l’a dit mille fois, situation suprêmement paradoxale que celle de l’homme contemporain. Plus il est « puissant », plus il est impuissant. Plus il sait, moins il sait. Et, malgré la fantastique arrogance de quelques hommes de science, plus il sait, moins sait-il ce que c’est, ce que ce serait que savoir.
Plus il sait, moins il sait. Il n’est pas difficile d’illustrer cette idée aussi bien à l’intérieur du savoir lui-même, considéré « intrinsèquement » (j’en parlerai brièvement dans la troisième partie de cette contribution), que par le rapport de ce savoir à son sujet. Sujet individuel, d’abord, qui sait toujours plus sur toujours moins ; moins, non seulement dans l’étendue — chaque champ particulier se rétrécissant continuellement —, mais aussi et surtout pour ce qui concerne le sens et les conditions de son savoir. Sujet collectif aussi — communautés scientifiques au sein desquelles trois décennies de discours sur la multi ou transdisciplinarité n’ont pas fait contrepoids à la réalité d’une spécialisation accélérée et à ses résultats. Sujet collectif surtout : la communauté humaine elle-même. Longtemps avant que l’on ne parle des « deux cultures » et de leur scission dans la société contemporaine, Max Weber remarquait qu’un sauvage en sait infiniment plus sur le monde pratique qui l’entoure qu’un contemporain sur le sien. Quant au monde « théorique », la foi religieuse d’antan a laissé la place à une vague croyance en la science et en la technique, croyance abstraite, enveloppe qui ne contient le plus souvent que quelques miettes rassises tombées de la table des vulgarisateurs (qui sont souvent des scientifiques), Comme le statut de cette croyance n’est qu’un filtrat délayé de représentations provenant des scientifiques eux-mêmes, il serait préférable de parler directement de celles-ci.
Je n’ai pas l’intention ni la possibilité de le faire ici : ce serait l’objet d’un livre. Je vais plutôt parler de deux fallaces qui me semblent extrêmement répandues, fortement représentatives, en elles-mêmes et dans leurs diverses combinaisons plus ou moins incohérentes, et précieuses — même si leurs tenants n’étaient pas majoritaires — pour dévoiler les problématiques sous-jacentes.
La première, la moins plausible et certainement presque jamais défendue ouvertement, dénie à la science toute valeur de vérité ou, ce qui revient au même, donne au terme vérité le sens le plus étroitement pragmatique, « ça marche ». Qu’est-ce qui marche ? Comme il se doit, le pragmatisme accouche du scepticisme qu’il contient : tout marche, n’importe quoi marche (anything goes, Feyerabend). Cet aboutissement est inévitable. Thèse pragmatiste : nous acceptons comme vraies les théories qui « marchent ». Question : comment savons-nous qu’une théorie marche ? Mon propos n’est pas de reprendre ici une « réfutation » philosophique du scepticisme, mais de remarquer que cette conception limite (l’« anarchisme épistémologique ») part d’une constatation de fait qu’elle ne comprend ni n’énonce correctement : l’histoire de la science ne forme pas système se déployant dans le temps, pour oublier un autre fait tout aussi massif : loin que « tout marche », les théories pouvant à un moment donné entrer en compétition au vu de la masse des « faits admis » Sont très peu nombreuses.
La deuxième, de loin la plus répandue — et que je crois largement majoritaire parmi les scientifiques — est une version du progressisme du XIXe siècle, prétendant que l’évolution de notre savoir dans le temps trace une asymptote vers une vérité serrée de plus en plus près, que les théories scientifiques qui se succèdent constituent des traductions de moins en moins inexactes de la réalité, et que, si succession il .y a, c’est que les théories antérieures représentent des « cas particuliers » des théories ultérieures, lesquelles sont, en retour, des « généralisations » des premières. Cette vue intenable porte inconsciemment une lourde métaphysique, impliquant entre autres une harmonie préétablie entre un ordonnancement des strates de l’être et un développement de notre pensée, ou encore que le plus « profond », le moins immédiatement phénoménal est nécessairement l’universel. On continue d’invoquer obstinément, pour la fonder, la succession Newton-Einstein, du reste nullement typique de l’histoire de la science, oblitérant le bouleversement catégoriel, axiomatique et représentationnel qui les sépare. Elle conduit tout naturellement à un dogmatisme triomphaliste — le dogme affirmant le presque dernier mot pour demain, et cela tous les jours — dont les exemples abondent. Déjà, en 1898, lord Kelvin, inaugurant un congrès de physiciens, affirmait que l’édifice de la physique était pratiquement achevé, sous réserve de deux petits problèmes dont sans doute les années immédiatement à venir allaient offrir la solution. On ne sait ce qu’il faut davantage admirer de l’arrogance mégalomaniaque ou de l’instinct sûr du génial physicien lui faisant mettre le doigt sur ce qui allait précisément mettre par terre l’édifice dont il célébrait l’achèvement : l’expérience de Michelson et le rayonnement du corps noir, entre tant d’autres questions alors et parfois aujour­d’hui encore ouvertes. Depuis lors, les proclamations analogues ne font pas défaut, amplifiées aussitôt par les vulgarisateurs et les journalistes qui vont répétant toutes les cinq semaines que la dernière énigme de la nature est enfin résolue.
Les deux fallaces ont des implications politiques. Nous savons, nous savons tout, donc laissez-nous faire. Nous ne savons rien et personne ne sait rien, il n’y a pas de discours cohérent possible (ou il y en a une infinité sur le même objet, ce qui revient au même), donc l’ordre des choses existant est aussi bon ou aussi mauvais que n’importe quel autre.
Les deux ont ceci de commun, qu’elles veulent occulter l’interrogation philosophique qui non seulement gît à l’origine de la science occidentale, mais est, aujourd’hui plus que jamais, requise par elle dans ses difficultés théoriques sans précédents.
Sociologiquement et historiquement, ce qui est peut-être le plus intéressant, c’est l’existence certaine (je ne discute pas ici de son importance statistique — à mes yeux elle est grande) d’une catégorie de scientifiques qui vivent dans le clivage mental, sur deux niveaux de « conscience de soi » ou de « représentation de soi » — sans que l’on puisse décrire l’un de ces deux niveaux comme premier par rapport à l’autre ou plus profond que l’autre.
A l’un de ces niveaux, le scientifique représentatif de cette catégorie pensera et dira : nous possédons la vérité, ou nous allons en posséder la meilleure approximation humainement faisable. A un autre niveau, il dira : il est stupide (« métaphysique ») de se poser la question de la vérité, cette question n’a pas de sens, la science n’examine pas le quoi mais le comment ; elle n’interroge pas l’objet, elle le manipule et en prévoit le comportement. Il y a des calculs et des expériences qui marchent, d’autres non, on les triture jusqu’au succès ou bien on change les hypothèses. S’il est plus sophistiqué épistémologiquement, il se reconnaîtra avec délices dans une conception qui réussit une étrange synthèse des deux précédentes et dira qu’une théorie n’est jamais vraie mais simplement « falsifiable » (ou réfutable), qu’elle est provisoirement acceptée aussi longtemps qu’elle n’a pas été réfutée. Bien entendu, il ne se posera pas la question de ce qui rend la réfutation d’une théorie « vraie » ou valide ; encore moins de tout ce qui est présupposé, du côté du sujet comme de l’objet de la science, pour que des procédures comme la position d’hypothèses et ensuite leur « falsification » ou « réfutation » soient possibles.
Mais le plus grave c’est que, pour ce type de scientifique, les deux niveaux décrits sont complètement recouverts par son attitude réelle, en un sens la plus authentique. Attitude pour laquelle la question de la vérité ne pose pas — ne se pose même pas au degré requis pour qu’on dise : la question n’a pas de sens. Certes, il se pose toujours une question de correction ou d’exactitude : de résultats corrects, d’observations exactes et, surtout, de cohérence ou correspondance de ce que l’on cherche, trouve et avance avec the accepted body of beliefs, le corps de croyances scientifiques chaque fois admises et considérées comme (provisoirement ou non) établies. A ce niveau réel, effectif, l’activité scientifique devient une activité techno-pragmatique qui manipule des objets, des instruments, des algorithmes et des concepts, se satisfait de ce que tout cela « marche » tant bien que mal, et s’interdit de s’interroger sur elle-même et sur les conditions de son succès, même pragmatique.
Mais, pour que cette activité techno-pragmatique, le développement de ce techno-savoir soient sociologiquement possibles, pour que l’entreprise, avec ses coûts généralement immenses et non rationnellement justifiables (ce qui ne veut pas dire qu’ils soient positivement injustifiés) soit financée, pour qu’elle attire des jeunes gens doués, qu’elle accumule autorité et prestige et que les risques de toute sorte qu’elle engendre demeurent socialement refoulés, il faut présenter au public une certaine image de la science moderne qui est celle précisément que le public, sous l’emprise de la signification imaginaire de l’expansion illimitée de la maîtrise « rationnelle », attend et demande. Cette image est celle d’une marche triomphale d’où incertitudes théoriques intérieures à la science et questions de fond relatives à son objet et à son rapport à la société doivent à tout prix être évacuées. Il faut aussi assurer, à l’encontre de l’évidence, qu’aucun problème ou risque majeur n’existe découlant de l’utilisation ou de la mise en application des découvertes scientifiques — ou que quelques règles de bonne conduite des laboratoires suffisent pour y parer.
Ainsi, de toutes les activités humaines, la science serait la seule à simplement résoudre des questions sans en soulever aucune, soustraite à l’interrogation comme à la responsabilité. Divine innocence, merveilleuse extra-territorialité.
Du coup aussi, il faudrait abolir toute communication entre science et philosophie ou plus simplement pensée, réflexion, interrogation. Les questions que soulèvent les crises successives de la science et son histoire, mais aussi les conditions et les fondements de l’activité scientifique, enfin et surtout, ce qu’elle dit ou ne dit pas sur ce qui est et son mode d’être, comme sur celui qui connaît et son mode d’être, ces questions doivent être oubliées. A tel point que je me demande si ce que je dis ici (et ailleurs depuis longtemps), ce langage, ces préoccupations (qui ont été, en leur temps, révérence parler, celles de ces faibles d’esprit nommés Démocrite, Platon, Aristote, Descartes, Leibniz, Newton, Kant, Maxwell, Einstein, Poincaré, Bohr, Weyl, Eddington, Hilbert, Broglie, Hei­senberg, etc.), cet étonnement même — le thaumazein disait Aris­tote — qui ne peuvent être qu’amplifiés et intensifiés immensément par le succès même, en un sens déraisonnable, de la science moderne, si ce langage et ces préoccupations auront encore un sens quelconque, fût-il dérisoire, pour le scientifique d’ici trente ans, ou si elles lui paraîtront simplement inintelligibles.

Sur quelques aspects de la science contemporaine comme théorie

J’ai dit auparavant, plus on sait, moins on sait — et certes cela peut paraître une boutade jouant sur la différence entre la réalité du savoir et l’idée qu’on s’en fait, entre ce qu’on sait et ce qu’on croit savoir. En vérité, il n’en est pas ainsi. Les mondes « classiques » étaient pour ainsi dire complets (au sens « topologique »). Il n’y avait pas de « trous » manifestes dans le système du monde de Newton (de Laplace) pour Newton, ni dans les mathématiques d’Euclide pour Euclide. Dans les deux cas, il y avait évidemment des problèmes — ce qui est tout à. fait autre chose. Le monde euclidien (avec sa réforme hilbertienne) est complet, une fois « exilée » la question de la validité du postulat des parallèles — il est complet avec cette validité indiscutée comme point à l’infini. Le monde newtonien est complet à condition d’interdire une ou quelques questions apparemment « périphériques » (par exemple, que signifie la simultanéité d’observations faites par des observateurs distants ou comment peut-on la vérifier). Et la miraculeuse convenance entre Euclide et Newton était « complète », elle aussi. Autrement dit, les « trous » étaient sur la « frontière » du système, et il y en avait un seul, ou très peu ; il était donc possible de les recouvrir, en tout cas de les « isoler ». Aujourd’hui cette isolation, ce voilement ne sont plus, ne doivent plus être possibles.
J’aimerais avoir la place pour esquisser de plus près les apories qui me semblent sourdre de l’intérieur de la science contemporaine, pour montrer leur importance à la fois pour la science et pour la philosophie [Je l’avais fait il y a quinze ans dans « Science moderne et interrogation philosophique », op. cit.]. A défaut, et pour secouer ce qui me semble une certaine torpeur épistémologique qui s’empare de l’époque, je donnerai seulement une série d’exemples majeurs qui me paraissent justifier qu’un scientifique se penche sur les fondements de son activité et renoue avec l’interrogation philosophique.
A tout seigneur tout honneur, commençons par quelques questions relatives aux mathématiques. Après les deux théorèmes de Godel (1931), d’autres théorèmes d’indécidabilité ont surgi (notamment Church, 1936 ; Turing, 1936). Au total ces théorèmes signifient que, en dehors des cas triviaux (finis), il existe en mathématiques des propositions indécidables, que la cohérence des systèmes formels ne peut jamais être démontrée à l’intérieur de ces mêmes systèmes, qu’aucune machine (ou algorithme) indiquant d’avance si une proposition est ou non décidable ne pourra jamais exister. Depuis leur publication, la discussion de ces théorèmes semble s’être progressivement cantonnée à l’intérieur d’un cercle étroit de spécialistes de logique mathématique. C’était en un sens naturel : ces théorèmes n’affectaient pas le travail courant des mathématiciens, quelle que soit la « profondeur » de son objet. Leur importance est ailleurs. Ils ruinent l’idée de la possibilité d’un savoir hypothético-déductif rigoureux, dans le seul domaine non trivial où nous avions semblé nous en approcher. Non seulement je n’en connais pas de véritable élaboration philosophique ; mais, à ma connaissance, personne n’a essayé d’examiner leurs implications pour la physique du réel (laquelle est supposée, certes, n’avoir affaire qu’à des quantités finies, mais qui met en œuvre constamment des ensembles infinis dans les formalismes qu’elle utilise).
D’autre part, depuis Cantor, la mathématique a été progressivement reconstruite de fond en comble sur la base de la théorie des ensembles — et, en tout cas (à part toute question de « fondement »), elle contient cette théorie comme une de ses parties essentielles. Or dans la théorie des ensembles surgit nécessairement une question — en apparence « secondaire » — portant sur la suite des nombres cardinaux des ensembles infinis. En termes grossiers, la question est : entre l’infini des nombres naturels (1, 2, 3...) et l’infini des nombres réels (ceux qui correspondent aux points d’une ligne), y a-t-il ou non un infini d’un autre « type de quantité » (d’un autre cardinal) ? L’hypothèse de Cantor, dite hypothèse du continu, répond par la négative : à l’infini des naturels succède immédiatement (du point de vue de la cardinalité) l’infini des réels. Or, d’abord Godel démontre en 1940 que l’hypothèse du continu (et même une hypothèse plus forte, dite hypothèse du continu généralisée) est compatible avec les axiomes usuels de la théorie des ensembles, notamment le système d’axiomes dit de Zermelo-Fraenkel. Puis, en 1963, Paul J. Cohen démontre que la négation de l’hypothèse du continu est également compatible avec la théorie des ensembles. Il s’ensuit d’abord que la théorie des ensembles est incomplète ; ensuite et surtout, que l’on pourrait la compléter en admettant tel ou tel axiome supplémentaire — ce qui conduirait à une situation comparable à celle des géométries euclidiennes et non euclidiennes. Il ne semble pas que l’on ait jusqu’ici élaboré les implications, probablement considérables, d’une pluralité de théories des ensembles.
En troisième lieu, une part énorme des résultats mathématiques du XXe siècle s’appuie sur l’axiome du choix, formulé par Zermelo, équivalent à l’assertion : tout ensemble peut être bien ordonné. Or de cet axiome — qui a paru tout à fait contre-intuitif à de grands mathématiciens comme E. Borel ou H. Weyl et toute l’école intuitionniste —, on peut montrer qu’il équivaut à la fois à des propositions qui semblent intuitivement évidentes (par exemple, que le produit cartésien d’une famille d’ensembles non vides n’est pas vide) et qu’il est incompatible avec d’autres propositions qui semblent intuitivement tout aussi évidentes, comme l’axiome de la déterminité de J. Mycielski (1964 ; cet axiome affirme que tous les jeux infinis à information parfaite sont déterminés, au sens qu’il y a toujours une stratégie gagnante pour l’un des deux partenaires). Ici la question n’est pas seulement la possible fragilité d’une grande partie des résultats de la mathématique moderne (qui avait conduit N. Bourbaki à marquer d’un astérisque les théorèmes dont la démonstration dépend de l’acceptation de l’axiome du choix), mais la vacillation de l’intuition mathématique aux prises avec ses créations extrêmes.
A l’intersection de la mathématique et de la physique, au passage de l’une à l’autre, il faut rappeler que la question de l’extraordinaire efficacité des mathématiques appliquées au monde physique reste aussi ouverte que du temps de son premier auteur, Pythagore. Et qu’on ne vienne pas dire qu’elle a été résolue par la Critique de la raison pure. Car, d’une part, l’essentiel de ces applications présuppose la théorie mathématique de la mesure sur des ensembles de réels, qui reste obscure même du point de vue strictement mathématique. D’autre part et surtout, l’explicandum est l’applicabilité à un monde physique qui n’est pas celui de l’expérience courante d’« outils » (de formes, si l’on préfère) venant de parties des mathématiques aussi complexes et aussi éloignées entre elles que, par exemple, le calcul différentiel absolu et la théorie des distributions, dont le rapport avec l’« Esthétique transcendantale » est hautement improbable, pour dire le moins.
En physique proprement dite, l’ouvrage — le grand ouvrage —est constamment remis sur le chantier. Ainsi, par exemple, et malgré une sorte de publicité unilatérale acharnée depuis trente-cinq ans au moins, il est inexact de dire que l’on puisse à l’heure actuelle décider entre les différents modèles cosmologiques, et notamment entre un Univers « ouvert » et un Univers « fermé ». Si, dans l’état actuel de nos connaissances, une singularité « explosive » dans l’histoire de l’Univers il y a quelque 15 ou 20 milliards d’années ne peut pas être sérieusement contestée, le modèle d’un Univers « ouvert » (en expansion indéfinie à partir d’un événement unique signant une origine absolue) est de plus en plus mis en question par les révisions constamment en hausse (ce qui n’était pas, a priori, difficile à prévoir !) des estimations de la densité moyenne de l’Univers. Si celle-ci s’avérait dépasser une certaine valeur critique (dont les estimations actuelles semblent assez proches) on serait obligé d’accepter un modèle « cyclique », alternativement en expansion et en contraction, dans l’histoire duquel donc le big bang n’aurait été qu’un événement important dans une série peut-être infinie d’événements du même type. Mais dans ce dernier modèle, la matière-énergie ne se conserve pas (elle « croît » avec chaque cycle, pendant fa phase de contraction). Notons simplement que, outre l’importance intrinsèque fondamentale de la cosmologie et du choix entre ces modèles (ou d’autres), la simple existence d’un modèle cohérent (découlant de la relativité générale et des équations de Friedmann), en principe compatible avec des observations possibles, au sein duquel des lois essentielles de conservation de la physique actuelle ne sont pas valides, suffit à montrer quelle extravagance il y aurait à penser que cette physique est vraiment assurée sur ses bases théoriques.
A l’autre bout de la physique (intimement lié au premier), la « zoologie » des particules élémentaires dont se plaignait Heisen­berg a changé de forme, mais peut-être pas de fond. Si l’on a pu mettre de l’ordre dans les centaines de particules « élémentaires », cela laisse subsister une bonne trentaine de particules « vraiment fondamentales » elles-mêmes « résultant » de la combinatoire d’un nombre plus limité de caractéristiques. L’on peut penser que la véritable question est moins la multiplicité des particules, que la pluralité des caractéristiques de base ; pourquoi la charge, le spin, le u, le d, le b, le t et tout le reste ? Par ailleurs, les tentatives de construire une théorie vraiment unifiée se heurtent toujours à l’incompatibilité entre la structure de la relativité générale et celle de la théorie quantique — les deux constamment « confirmées » par des observations et des faits expérimentaux. Mais si, comme il le semble, la position quantique est inébranlable (cf. encore récemment le sort du « paradoxe EPR » et la question de la non-séparation), une unification exigerait une quantification de l’espace-temps — expression à laquelle il semble impossible de donner un sens. La situation de la physique fondamentale est toujours en flux et de nouveaux concepts de base sont périodiquement introduits — comme récemment la « super-symétrie », ou les « cordes » et « super-cordes » (strings et superstrings) qui devraient prendre la place des particules dans un Univers sous-jacent « vrai » à dix dimensions.
Dans le domaine de la biologie, il faut noter un malentendu de taille qui règne, à peu près depuis que le darwinisme originel a été dépassé. On parle constamment de théorie de l’évolution. Le terme d’évolution, aussi bien dans le langage commun que dans l’esprit de Darwin (cf., pour ne citer que cela, les termes de « sélection » et de « survie du plus apte ») a le sens incontournable d’un déploiement de potentialités, d’une progression, au moins d’une complexification. Or, si le fait de l’évolution est incontestable, il n’existe aucune théorie véritable de l’évolution. Il est évident que la théorie néo-darwinienne (la « synthèse moderne ») est une théorie de la différenciation des espèces — non pas de l’évolution des espèces. Car non seulement la même théorie « expliquerait » tout aussi bien une histoire de la Terre qui aurait conduit à l’existence d’espèces tout à fait différentes de celles qui existent ; mais rien, en elle, ne rend intelligible que le « sens » de cette évolution (sa direction) aille de quelques organismes primitifs aux hominidés ; rien, en elle, ne dit pourquoi la différenciation s’est faite dans le sens d’une complexification croissante et non pas, pour ainsi dire, « latéralement ». Pourquoi les millions d’espèces actuelles, et non pas, pour le dire grossièrement, quelques millions d’espèces de monocellulaires ?
Enfin, après un tumulte de proclamations excessives qui a duré vingt ans, on a admis, semble-t-il, que l’ADN et le code génétique — découvertes fondamentales s’il en fût, qui le contesterait ? —sont loin de fournir tout ce qu’il faut pour rendre intelligible l’autoproduction et même la reproduction de l’être vivant. Il suffit de rappeler que neurologistes aussi bien qu’immunologistes dans leur majorité repoussent l’idée d’une prédétermination génétique complète (codée dans l’ADN) des spécialisations des cellules nerveuses ou immunitaires, en faveur des hypothèses dites épigénétiques (qui font de cette spécialisation le résultat de l’« histoire » de chaque cellule, largement codéterminée par le « paysage » où elle se trouve, à savoir ses « voisinages »). Plus que probablement, ces hypothèses contiennent une grande part de vérité (de toute façon, l’hypothèse de la prédétermination est intenable pour les classes de cellules mentionnées). Mais l’on peut aussi se demander si la conception épigénétique ne reconduit pas à un autre niveau la difficulté à laquelle elle est censée répondre (il faudrait encore une prédétermination génétique, rendant telles cellules capables de tel développement épigénétique et pas d’autres, de telles séquences de réaction à son « histoire » et pas d’autres, etc.). Et, d’autre part, elle conduit à se réinterroger sur des capacités et propriétés tout à fait fondamentales de l’être vivant, dont il n’existe pour l’instant aucune amorce de compréhension théorique. C’est une chose de dire qu’un gène détermine un caractère précis. C’en est une autre de dire qu’un gène détermine la capacité de produire un nombre indéfini de caractères (ce dont nous avons par ailleurs la certitude via l’exemple des capacités linguistiques de l’être humain).
Que signifie tout cela, sinon que la science est, heureusement, plus ouverte que jamais, plus questionnante que jamais, moins reposante pour l’esprit que jamais ? Que signifie tout cela, pour les véritables scientifiques et pour ceux qui ne peuvent pas rester indifférents devant leur immense travail, sinon un appel au renouvellement de la pensée humaine ?

Au lieu de conclure

La science est, devrait être, contrairement à ce qui s’est passé depuis Hegel, objet de passion pour le philosophe. Non pas comme ensemble de certitudes — mais comme puits interminable d’énigmes, mélange inextricable de lumière et d’obscurité, témoignage d’une incompréhensible rencontre toujours assurée et toujours fugitive entre nos créations imaginaires et ce qui est. Aussi, comme affirmation éclatante de notre autonomie, du rejet des croyances simplement héritées et instituées, de notre capacité à tisser constamment le nouveau dans une tradition, à nous transformer en nous appuyant sur nos transformations passées.
Mais nous devons distinguer la portée philosophique et les virtualités pratiques abstraites de la science de sa réalité social-historique, du rôle effectif qu’elle joue dans le monde contemporain et dans son immense dérive. Considéré dans sa totalité, ce rôle est loin d’être univoquement positif. La destruction de l’environnement, aux conséquences incalculables et largement inconnues, a peut-être commencé déjà avec la fin du néolithique (début de l’élimination de diverses espèces vivantes, déboisement). Elle a pris des dimensions qualitativement autres depuis non pas tellement la révolution industrielle, mais la révolution scientifique de l’industrie, à savoir comme disait Marx, « l’application consciente ( !) de la science à l’industrie ». En somme, depuis que nous ne vivons plus avec une technologie « naïve » ( !), mais avec une technologie scientifique. Que pèseront les conforts, pour ceux qui en jouissent, de la vie moderne devant une éventuelle fonte des calottes glaciaires ? Et combien de centimes vaudront toutes les conquêtes de la médecine moderne, si une Troisième Guerre mondiale explosait ?
Ces comptes ne peuvent pas être faits, dans aucun domaine —le plus et le moins s’enchevêtrent inextricablement. Ils peuvent encore moins être faits pour tous les domaines à la fois — à moins que la réalité ne les fasse un jour pour nous. Pour faire des comptes, il faudrait avoir des éléments séparables, qui n’existent pas ici. La fallace de la séparation : gardons la médecine moderne et rejetons (les conséquences militaires de) la physique nucléaire contient un illogisme identique à celui des jeunes écologistes qui fuient l’industrie en fondant des communautés rurales — au sein desquelles ils ne peuvent pas se passer des produits de l’industrie. La médecine moderne et la physique nucléaire (théorique et appliquée) ne sont pas des plants différents, mais deux branches du même arbre pour ne pas dire deux substances contenues dans le même fruit. L’existence et le développement de l’une comme de l’autre présupposent le même type anthropologique, les mêmes attitudes à l’égard du monde et de l’existence humaine, les mêmes modes de pensée, de technicité et d’instrumentation.
Tout cela ne signifie pas que la recherche scientifique est « mauvaise » en soi, loin de là, ni qu’il faille l’arrêter (de toute façon on ne le pourrait pas et on ne le devrait pas). Nous sommes seulement rappelés à quelques évidences, certaines banales, d’autres moins.
Évidences banales : sortis de leur laboratoire, les scientifiques sont des hommes comme les autres, aussi vulnérables à l’ambition, au désir de pouvoir, à la flatterie, à la vanité, aux influences, aux préjugés, à la cupidité, aux erreurs de jugement et aux prises de position irréfléchies que n’importe qui. Aussi, comme on pouvait le prévoir, l’immense progrès du savoir positif et de ses applications ne s’est pas accompagné d’un millimètre de progrès moral, ni chez ses protagonistes ni chez leurs concitoyens.
Évidences moins banales : la fantastique autonomisation de la techno-science — que Jacques Ellul a eu l’imprescriptible mérite de formuler dès 1947 — et que scientifiques aussi bien que laïcs se masquent moyennant l’illusion de la séparabilité des « moyens » et des « fins » un autre « maître » pourrait donner une autre orientation à l’évolution techno-scientifique. Mais cet ensemble de connaissances, de pratiques, de possibilités, qui fabrique des laboratoires, des laborantins, des imitateurs, des inventeurs, des découvreurs, des armes d’apocalypse, des bébés en éprouvette, des chimères réelles, des poisons et des médicaments — cette hyper­mégamachine, personne ne la domine ni ne la contrôle et, dans l’état actuel des choses, la question de savoir si quelqu’un pourrait la contrôler ne se pose même pas. Avec la techno-science, l’homme moderne croit s’être donné la maîtrise. En réalité, s’il exerce un nombre grandissant de « maîtrises » ponctuelles, il est moins puissant que jamais devant la totalité des effets de ses actions, précisément parce que celles-ci se sont tellement multipliées, et parce qu’elles atteignent des strates de l’étant physique et biologique sur lesquelles il ne sait rien — ce qui ne l’empêche pas de fouiller avec un bâton toujours plus grand la fourmilière qui est certainement aussi un guêpier.
Il faut en finir avec l’idée que la science et la technique conféreraient à l’humanité un pouvoir qui serait actuellement « mal utilisé ». D’une part, la techno-science produit constamment du « pouvoir », au sens limité de la capacité effective de faire ; d’autre part, avec l’évolution de la société contemporaine (cf. infra), ce pouvoir ne pouvait pas être « utilisé » autrement qu’il ne l’est, et par personne d’autre que celui qui l’utilise, c’est-à-dire Personne. Il n’y a ni technocratie, ni scientocratie. Loin de former un nouveau groupe dominant, scientifiques et techniciens servent des Appareils de pouvoir existants (à la rigueur ils en font partie) et ces Appareils exploitent, certes, et oppriment presque tout le monde, mais ne dirigent vraiment rien.
Il y a au cœur de l’époque moderne, depuis la fin des « âges obscurs », deux significations imaginaires sociales, intrinsèquement antinomiques quoique liées (mais cette liaison ne peut nous retenir ici). L’autonomie d’une part qui a animé aussi bien les mouvements émancipateurs et démocratiques qui parcourent l’histoire de l’Occident que la renaissance de l’interrogation et de l’enquête rationnelle. L’expansion illimitée de la maîtrise « rationnelle » d’autre part, au fondement de l’institution du capitalisme et de ses avatars (parmi lesquels, par une monstrueuse inversion, le totalitarisme) et qui sans doute culmine avec le déferlement de la techno­science.
Pour des raisons que j’ai longuement développées ailleurs, la maîtrise « rationnelle » en expansion illimitée ne peut être en réalité qu’une maîtrise pseudo-rationnelle. Mais une autre dimension importe ici davantage. Une « maîtrise rationnelle » implique, exige en vérité, dès que la « rationalité » a été vue comme parfaitement « objectivable », ce qui a rapidement voulu dire : algorithmisable, une maîtrise impersonnelle. Mais une maîtrise impersonnelle étendue à tout est évidemment la maîtrise de mais, de personne — et par là même, c’est la non-maîtrise complète, l’impouvoir. (Dans une démocratie, il y a certes une règle rationnelle impersonnelle, la loi, pensée sans désir comme disait Aristote, mais il y a aussi des gouvernants et des juges en chair et en os.)
Tout à fait symptomatique à cet égard est la tendance actuelle à l’« automatisation des décisions », déjà en cours dans un grand nombre de cas secondaires mais qui commence à prendre une autre allure avec les « systèmes experts ». Et encore plus illustrative est l’idée, qui en constitue en quelque sorte l’achèvement, de la Doomsday machine, système expert qui ferait partir automatiquement les fusées d’un camp dès que celles de l’autre seraient computées ou supposées parties, éliminant ainsi tout facteur politique-psychologique « subjectif » (donc à la fois faillible et influençable) dans la dissuasion, et dont en vérité nous ne sommes pas tellement loin.
Dans les sociétés qui ont précédé la nôtre, la négation de la mortalité humaine était assurée par la religion au sens le plus large de ce terme. Cette négation a toujours été une dénégation, au sens freudien du terme : négation qui, dans l’acte même de se formuler, démontre le contraire de ce qu’elle affirme explicitement. (Si l’homme était immortel, il n’aurait point besoin de toutes ces démonstrations et de tous ces articles de foi.) Ce rôle est aujourd’hui joué, autant que faire se peut, par la techno-science. Il ne suffit pas d’aller répétant que dans le monde moderne la science a pris la place de la religion ; il faut comprendre à la fois les limites de cette substitution (qui ne nous concernent pas ici) et la trace de vérité qu’elle comporte. La science offre un substitut à la religion pour autant qu’elle incarne derechef l’illusion de l’omniscience et de l’omnipotence — l’illusion de la maîtrise. Cette illusion se monnaye d’une infinité de manières — depuis l’attente du médicament-miracle, en passant par la croyance que les « experts » et les gouvernants savent ce qui est bon, jusqu’à la consolation ultime : « Je suis faible et mortel, mais la Puissance existe. » La difficulté de l’homme moderne à admettre l’éventuelle nocivité de la techno­science n’est pas sans analogie avec le sentiment d’absurdité qu’éprouverait le fidèle devant l’assertion : Dieu est mauvais. De la valorisation du pouvoir-faire en tant que tel à l’adoration de la force nue, l’écart est bien petit.
Le fantasme de la toute-puissance existe sans doute depuis que l’homme est homme. Il s’est monnayé par quelque puissance — et il s’est réfugié dans la magie, ou la conquête militaire. Pour la première fois sa fécondation par son rejeton — la rationalité — lui a permis de devenir puissance historique effective, signification imaginaire sociale dominant un monde entier. Si cela a pu être, ce n’est pas seulement que l’imaginaire humain a pris ce tournant et s’est donné des moyens autres que magiques ou naïvement militaires. C’est aussi que le monde — le monde « pré-humain » — s’y prête, qu’il est connaissable et même manipulable. Il est connaissable de manière apparemment illimitée, dévoilant à notre travail les unes après les autres des strates connectées et pourtant hétérogènes. Mais il n’est visiblement pas manipulable sans limite — et cela, non pas d’un simple point de vue « extensif » (inverser le sens de la rotation de la Galaxie, par exemple) mais d’un point de vue qualitatif. Cette limite, nous l’avons visiblement atteinte et nous sommes en train de la franchir sur plusieurs points à la fois. Et le plus intime rapport existe, j’ai essayé de le montrer, entre le déploiement sans limite de notre connaissance et les limites qui devraient être imposées à nos manipulations.
Or, en même temps que s’épanche triomphante la rage de la « puissance », le fétichisme de la « maîtrise rationnelle », en même temps semble subir une éclipse l’autre grande signification imaginaire créée par l’histoire gréco-occidentale, celle de l’autonomie, notamment politique. La crise actuelle de l’humanité est crise de la politique au grand sens du terme, crise à la fois de la créativité et de l’imagination politiques, et de la participation politique des individus. La privatisation et l’« individualisme » régnants laissent libre cours à l’arbitraire des Appareils en premier lieu, à la marche autonomisée de la techno-science à un niveau plus profond.
C’est là le point ultime de la question. Les dangers énormes, l’absurdité même contenue dans le développement tous azimuts et sans aucune véritable « orientation » de la techno-science, ne peuvent être écartés par des « règles » édictées une fois pour toutes, ni par une « compagnie de sages » qui ne pourrait devenir qu’instrument, sinon même sujet, d’une tyrannie. Ce qui est requis est plus qu’une « réforme de l’entendement humain », c’est une réforme de l’être humain en tant qu’être social-historique, un ethos de la mortalité, un auto-dépassement de la Raison. Nous n’avons pas besoin de quelques « sages ». Nous avons besoin que le plus grand nombre acquière et exerce la sagesse — ce qui à son tour requiert une transformation radicale de la société comme société politique, instaurant non seulement la participation formelle mais la passion de tous pour les affaires communes. Or, des êtres humains sages, c’est la dernière chose que la culture actuelle produit.

« Que voulez-vous donc ? Changer l’humanité ?
- Non, quelque chose d’infiniment plus modeste : que l’humanité se change, comme elle l’a déjà fait deux ou trois fois. »


Commentaires