Accueil > Biologia novae, Critique de la science > Gérard Nissim Amzallag, La raison malmenée, 2002

Gérard Nissim Amzallag, La raison malmenée, 2002

De l’origine des idées reçues en biologie moderne

CNRS éditions, 2002.

Préface

Voilà un livre qui en agacera plus d’un. Sans doute lui trouvera-t-on quelques défauts ; mais il n’est pas sûr que ce soit ceux-ci qui irriteront ; car il a des qualités bien plus gênantes, dont la principale est d’appeler un chat un chat et de dire que l’empereur est nu, sans trop se soucier de l’étiquette et des usages qui prônent l’admiration là où non seulement il n’y a rien à admirer, mais tout simplement rien à voir.

Pour reprendre une des métaphores botaniques qu’affectionne son auteur, peut-être le buisson des critiques qu’il assène aurait-il mérité d’être un peu élagué et mis en forme. Certes. Mais, après tout, nul n’est tenu d’aimer la topiaire et les jardins à la française ; et, tel quel, ce foisonnement a l’avantage de présenter un large éventail de ce qu’on pourrait reprocher à la science actuelle, et plus spécialement à la biologie. A moins – puisque l’auteur appelle un chat un chat, et que la science ne se construit pas toute seule –, qu’il ne faille le reprocher aux chercheurs et enseignants, particulièrement aux biologistes (à tout seigneur tout honneur, les généticiens sont les plus concernés).

Peut-être trouvera-t-on aussi que, dans ce buisson de critiques, il aurait fallu séparer plus nettement celles qui s’adressent à la méthode scientifique elle-même, et celles qui touchent à ce que les biologistes en ont fait (autrement dit : dénonçons les dérives pour sauver les principes). Certes. Mais, après tout, pour reprendre une formule de généticien, si cette méthode scientifique a tellement été dévoyée par les biologistes, c’est qu’elle devait bien avoir quelque prédisposition à sortir du droit chemin.

Tout cela est complexe, discutable à l’infini, et il est souvent difficile de trancher. En tout cas, on saura gré à l’auteur de mettre les choses à plat, et de rappeler crûment certaines vérités souvent oubliées. Par exemple, que le cadre positiviste ne doit son succès qu’à sa relation privilégiée avec la technique. Ou encore de répondre à Karl Popper – selon qui il y aurait entre les théories une sorte de lutte darwinienne d’où la plus apte sortirait gagnante –, qu’en réalité le combat a lieu entre les partisans de ces théories : le vainqueur est celui qui laisse le plus de descendants (c’est-à-dire le plus de disciples au sein de l’institution), les armes utilisées n’ont souvent rien de scientifique et, parfois, elles confinent même à la malhonnêteté, la fraude et la falsification.

Non pas une fraude ou une falsification qui serait un simple arrangement de résultats expérimentaux – car ce genre de choses (même s’il est moins rare qu’on le croit) n’aurait guère d’intérêt philosophique –, mais plutôt une façon de dénaturer la méthode scientifique et d’abuser de ses faiblesses (dans les deux sens du terme « faiblesses » : ses penchants autant que ses insuffisances).

C’est là que M. Amzallag se montre le plus pertinent. Car il ne s’agit pas seulement de revenir sur les relations de la science avec la technique, l’argent et le pouvoir, et sur les fruits qu’engendrent ces relations aussi vénales que contre-nature – on a déjà beaucoup écrit sur tout cela –, mais d’analyser les mille et une manières de subvertir la raison au nom de la science, de justifier l’injustifiable par les meilleures raisons du monde, ou bien par les sentiments les plus philanthropiques quand les raisons ne suffisent pas. Un domaine où les biologistes, et surtout les généticiens, sont passés maîtres. Les exemples abondent, l’ouvrage en propose quelques-uns, et il ne serait pas très difficile d’en trouver d’autres (en tant qu’historien des sciences, je peux en témoigner).

M. Amzallag esquisse un panorama des raisons de cette déraison, que ce soit la confusion entre la science et la technologie, les conditions sociales et financières de la recherche, le terrain idéologique, etc., mais aussi et surtout le mode d’approche du réel propre à la science, et le sort particulier que la biologie lui a fait subir. Ce dernier point est sans doute le plus original et le plus intéressant. Et qu’on ne croit pas que M. Amzallag soit ici trop sévère. Les errements, pour ne pas dire les détournements, de la méthode scientifique sont quasiment une habitude chez les biologistes. Sans que quiconque s’en inquiète vraiment. Il est vrai qu’ils ne sont pas toujours facilement détectables, car la biologie, du fait de ses faiblesses théoriques et de la « mollesse » de ses concepts, s’est toujours fort bien accommodée d’une multitude d’incohérences (à eux seuls, les recours abusifs à la notion de sélection pourraient remplir un ouvrage entier).

S’agit-il là, pour reprendre une expression de l’auteur, d’une « maladie infantile » ou d’une « malformation congénitale » de la science en général ? ou simplement de la biologie ?

Pour ce qui concerne la science, le sujet est bien trop vaste pour en décider en quelques lignes ; mais pour ce qui concerne la biologie moderne, on peut sans doute parler de « malformation congénitale » plutôt que de « maladie infantile ». Le darwinisme n’y est pas pour rien. On a maintes fois dénoncé les méfaits des usages sociaux de cette doctrine (dont Karl Popper, malgré toute la sympathie qu’il lui porte, s’est résigné à dire qu’elle n’était qu’un « programme métaphysique »), mais on s’est beaucoup moins préoccupé de ses conséquences sur les méthodes utilisées en biologie. Avec cet ouvrage, on commence à aborder la question de manière sérieuse.

Il est certes possible de ne pas toujours suivre M. Amzallag sur chacun des points qu’il aborde (notamment en matière d’épistémologie), mais il est certain que son travail marque une étape dans l’analyse de la biologie, d’abord en brisant certains tabous, ensuite en remettant en cause maints schémas de pensée erronés mais profondément enracinés par l’habitude, et enfin en ouvrant de nouvelles voies. La dernière partie de son ouvrage dépasse en effet la pure négativité de la critique, pour proposer une approche qui a au moins deux mérites : l’un est de revenir aux êtres vivants réels, l’autre de se référer à une science plus actuelle que la physique du XIXe siècle qui, aujourd’hui encore, sert bien souvent de modèle aux biologistes. Il ne faut pas confondre les concepts scientifiques et les stéréotypes positivistes du siècle dernier, ni la rigueur intellectuelle et l’étroitesse d’esprit. Cela méritait d’être rappelé, et on saura gré à M. Amzallag de l’avoir fait.

André Pichot.


Remerciements

Mes remerciements s’adressent avant tout à mes collègues qui, consciemment ou non, ont illustré à mes yeux certains procédés couramment utilisés en Biologie. L’anonymat qui les protège est un témoignage de ma gratitude à leur égard.

Certains exemples rapportés ici proviennent de discussions que j’ai eu sur le sujet avec Hervé Seligmann, Henri Lerner et Anthony Trewavas. Leur audace et leur témérité de pensée imprègne nombre de ces pages.

Les réflexions sur la biologie en particulier, et sur la science en général sont devenues elles aussi une affaire de spécialistes. C’est probablement ce qui décourage nombre de mes collègues expérimentalistes à écrire un pareil type d’ouvrage. J’ai eu, pour ma part, la chance d’être vivement stimulé à le faire par mes amis Philippe Grosos et Thomas Mourier, et ma femme Michal, eux qui ont suivi la lente gestation de ce livre et l’ont entourée de leurs précieux conseils.

Qu’ils soient ici vivement remerciés.

G.N.A.


Introduction

« Nous sommes profondément conscients aujourd’hui que l’enthousiasme de nos prédécesseurs vis-à-vis des merveilleux acquis de la mécanique newtonienne les a conduit à des généralisations concernant la prédictibilité, que nous étions poussés à croire avant 1960, mais que nous reconnaissons aujourd’hui comme erronées. Nous voudrions collectivement nous excuser pour avoir induit en erreur le public en diffusant des idées sur le déterminisme des systèmes satisfaisant les lois de Newton, et qui se sont avérées fausses. »

Prononcée à l’occasion d’un congrès sur la physique des fluides en 1986 [1], cette déclaration de James Lighthill est des plus singulières. Il est clair que la connaissance scientifique se développe au travers d’une perpétuelle remise en question, le long d’un chemin le plus souvent sinueux. Le doute existentiel qui imprègne l’investigateur est même probablement le critère le plus fiable permettant de différencier la démarche scientifique de l’approche mythologique. La science est susceptible de subir des révolutions, des refontes du cadre de pensée et de l’approche du réel. James Lighthill n’a donc aucune raison de s’excuser de la révolution dont il est un des acteurs. Il devrait au contraire annoncer avec fierté un tel événement. Après tout, une révolution dans la pensée témoigne plutôt de l’ouverture d’esprit, non seulement de quelques pionniers, mais encore de la communauté scientifique tout entière. Le remplacement des théories représente même la garantie que le « jeu de la science » ne le cède en rien à la tentation dogmatique.

Il serait surprenant que James Lighthill découvrît subitement, peu de temps avant le congrès, ce que chacun reconnaît comme inhérent à l’activité scientifique. Il semblerait plutôt que cette déclaration fasse acte de repentir collectif, au nom de générations de physiciens qui ont « induit en erreur » le grand public. Cependant, une telle interprétation n’enlève rien à la singularité d’un tel discours, parce qu’il n’est nullement question de repentir dans le jeu de la science. En effet, l’adhésion à une hypothèse est tout à fait légitime à partir du moment où celle-ci est sujette à vérification, et que ses partisans acceptent de se plier au « verdict de l’expérience ».

Si Lighthill s’excuse collectivement, ce n’est donc pas parce que ses prédécesseurs se sont trompés d’hypothèse. Il s’excuse en leur nom d’avoir transgressé les règles du jeu de la science. Des générations de physiciens ont exploité le statut d’objectivité conféré à l’activité scientifique pour renforcer une idéologie. Or cet abus a été perpétré par « enthousiasme », c’est-à-dire au nom d’une foi.

James Lighthill n’est pas le seul physicien à tenir ce genre de discours. « La physique classique, affirment Prigogine et Stengers [2], était dominée par un idéal, celui d’une connaissance maximale, complète, qui réduirait le devenir à une répétition tautologique du même. C’était, nous l’avons vu, le mythe fondateur de cette science. » Lighthill s’excuse donc, au nom de ses collègues, pour avoir exploité les succès de l’approche scientifique moderne de façon à légitimer le dogme déterministe, et ce indépendamment de tout critère de scientificité. Son discours est une des rares occasions où un scientifique se penche sur sa responsabilité dans l’élaboration du cadre idéologique auquel adhère si fortement la société. Il révèle que l’enthousiasme manifesté par les hommes et femmes de science dans la promotion de certaines idéologies plutôt que d’autres ne prend pas sa source dans une catharsis de la découverte. Contrairement aux pythies de l’Antiquité, les scientifiques ne sont pas des passifs intermédiaires, des simples porte-voix du réel.

La révolution dont Lighthill se fait l’écho n’est donc pas limitée au simple remplacement d’une théorie par une autre. Elle implique un changement complet de repères, la redécouverte d’un réel réfractaire à toute représentation déterministe. Comme l’exprime Edgar Morin [3], « la complexité n’est pas à l’écume phénoménale du réel. Elle est à son principe même ». Il est donc plutôt question, ici, d’une métarévolution dans la pensée. Celle-ci naît du refus de considérer a priori tous les phénomènes dont on peut prédire le devenir comme les fruits d’un déterminisme immuable, de lois dont l’expression serait reproductible à volonté. Au contraire, Prigogine et Stengers affirment  que : « arrivé à l’équilibre, le système a oublié la manière dont il a été préparé. Seul compte le “bassin attracteur” : tous les systèmes dont un état appartient à ce bassin se dirigent vers le même étai final, caractérisé par le même comportement, le même ensemble de propriétés » [4].

L’abandon du déterminisme implique de repenser non seulement le rapport d’une théorie face à l’expérience, mais encore remet en question les objectifs mêmes de l’activité scientifique. En refusant l’idée qu’une série de lois se cache derrière tout phénomène, la démarche scientifique se doit avant tout de redécouvrir le réel, de le décrire aussi précisément qu’il est possible, en dehors de toute tentative d’intervention. « Nous ne savons pas a priori de quoi une population chimique est capable et nous ne pouvons pas non plus a priori faire la différence entre ce que nous devons prendre en considération et ce que nous devons négliger », constatent Prigogine et Stengers [5]. Dans cette perspective, chaque expérience devient un événement unique, dont l’approche exige de se débarrasser au maximum de tout prisme idéologique, quel qu’il soit.

La révolution née de la résurgence de la complexité représente donc une émancipation vis-à-vis du dogme déterministe, dans sa prétention à embrasser l’Univers tout entier dans une immense équation. Dans ce sens, elle est l’homologue de la révolution scientifique du XVIIe siècle, celle qui permit à l’homme de dépasser la problématique imposée par la scolastique médiévale. En tant que tel, ce bouleversement aurait dû se répercuter dans tous les domaines du monde scientifique (et même de la société), là où le déterminisme fait encore pleinement autorité. Or, il n’en fut rien. Les lois de la physique sont encore enseignées telles quelles dans les lycées et les universités. Comme il sera illustré tout au long de cet ouvrage, la recherche de lois, témoignage d’une foi en un ordre du monde, reste encore la motivation profonde de l’investigation scientifique. Paradoxalement, nulle véritable retombée du séisme qui a secoué la physique ne se fait encore véritablement sentir. Nous verrons même que certains domaines, en particulier la biologie moderne, se montrent particulièrement indifférents à une si profonde révolution.

Certes, la métamorphose opérée au XVIIe siècle ne s’est pas produite en un jour. Il est même probable que la transformation des mentalités ne s’acheva jamais complètement. Mais la situation est toute différente aujourd’hui, parce que, contrairement à la scolastique médiévale, le « jeu de la science » interdit de négliger de telles évidences. Or cette révolution est magnifiquement ignorée, non seulement dans ses fondements, mais encore dans ses conséquences. Il existe bien des physiciens se consacrant à l’étude des processus non déterministes, mais ils se retrouvent confinés dans un nouveau domaine : la dynamique des systèmes non réversibles. D’une métarévolution, cette approche est devenue une nouvelle discipline, une branche de l’arbre de la science. Elle s’est trouvée domestiquée, voire phagocytée par l’ancien monde qu’elle se proposait de transformer.

En fin de compte, le cadre positiviste ne doit sa survie à aucune bataille idéologique. Il tire sa si grande immunité de la relation privilégiée qu’il entretient avec la technique. Cette intrication entre savoir et pouvoir est formulée par Descartes dans les termes suivants : « Ainsi, toute la philosophie est comme un arbre dont les racines sont la Métaphysique, le tronc est la Physique, et les branches qui sortent de ce tronc sont toutes les autres sciences, qui se réduisent à trois principales, à savoir la Médecine, la Mécanique et la Morale […].  » [6]

Descartes postule donc l’existence d’une continuité entre l’investigation du réel (la Physique) et son exploitation (la Mécanique). Plus encore, il prétend même que l’application pratique représente la finalité de l’investigation : « Or comme ce n’est pas des racines ni du tronc des arbres qu’on cueille les fruits, mais seulement des extrémités de leurs branches, ainsi, la principale utilité de la philosophie dépend de celles de ses parties qu’on ne peut apprendre que les dernières. » [7] Avec Descartes, la technique prit donc une nouvelle signification, beaucoup plus profonde et exégétique du réel. Elle devint non seulement l’extension des sens et des gestes de l’homme, mais encore l’expression du champ des possibilités d’exploitation ouvert par l’investigation scientifique [8].

En contrepartie, c’est sur le terrain des applications, et non plus de l’investigation scientifique, que se détermina désormais la valeur (et donc la validité) d’une théorie. Une telle situation tendit à stabiliser une théorie en vertu de ses applications, et ce bien au-delà de tout critère scientifique. Plus encore, elle ne put que privilégier les théories à partir desquelles il est possible de dégager des lois, c’est-à-dire des règles universelles de prédictibilité, les seules utilisables dans la conception de nouvelles machines.

Dans un tel état d’esprit, il n’est donc pas étonnant que la science classique n’ait nullement senti le besoin de se défendre face à la menace d’un changement de cadre conceptuel : elle se trouve d’emblée protégée par la définition même de la science en tant qu’activité intimement associée à la technique. Par ailleurs, elle peut se glorifier d’être la source d’une immense ouverture du champ d’exploitation du réel.

Il découle de cette perspective une symbiose très particulière : la science ouvre le champ des potentialités de maîtrise du réel. En retour, l’émergence de nouvelles machines améliore les possibilités d’investigation du réel (aussi bien à travers le contrôle des conditions initiales que des moyens de mesure de phénomènes de plus en plus discrets). Les nouvelles découvertes mènent à des applications qui, en retour, conduisent à de nouvelles découvertes. L’idée qu’un tel processus puisse se poursuivre à l’infini est à l’origine de l’idéologie positiviste. Face à cette attitude, il est nécessaire de rappeler que prédictibilité n’implique pas nécessairement intelligibilité. Par exemple, les astrologues babyloniens justifiaient une cosmologie qui s’est ultérieurement avérée complètement erronée, et ce en vertu de leur capacité à prédire le mouvement des astres avec une étonnante précision.

L’arbre de la science de Descartes renferme un élément encore plus révolutionnaire que l’intime association entre science et technique. Une de ses trois branches est la « Médecine ». Cette insertion est éminemment osée, parce qu’elle implique un certain degré d’homologie conceptuelle entre les machines et le vivant. Contrairement à certains de ses disciples, Descartes n’affirmait pas que l’étude des uns éclairait complètement la compréhension et l’exploitation des autres. Mais l’incorporation de la « Médecine » à côté de la « Mécanique » suggère que ces deux branches de la connaissance puisent leur sève d’un même tronc, celui de la science physique et du déterminisme qui lui est inhérent.

Le vivant est infiniment plus réfractaire à l’approche déterministe que le monde de la mécanique, si bien que l’approche mécaniciste du vivant se développa beaucoup plus lentement que l’idée d’un lien entre physique et mécanique. Cependant, cette thèse fit progressivement des émules non seulement en biologie, mais encore dans tous les autres domaines d’investigation. En tant qu’aînée des sciences, la physique devint alors l’étalon de scientificité de toute la connaissance. Les méthodes de la physique classique devinrent le critère universel d’objectivité de la connaissance. « Depuis l’époque des Lumières, constatent Prigogine et Stengers [9], la recherche des “lois naturelles” qui gouvernent le comportement des hommes et leur société a mené ceux qui devinrent les fondateurs des sciences économiques et sociales à tenter de calquer leurs méthodes sur celles de la physique classique. C’était, semblait-il, le seul moyen de mener une analyse “scientifique” supposée libre de toute valeur. Ces “méthodes objectives” devaient conduire à des résultats auréolés de toute l’autorité de la science. »

En corollaire, cette attitude impliqua l’exclusion de toute réalité réfractaire au mode d’investigation déterministe. Elle suscita également, au-delà des idées, l’étalon par lequel fut reconnue la valeur scientifique d’un travail et surtout celle de son auteur. Or il sera illustré dans cet ouvrage en quoi ce simple critère de « scientificité » se révéla être un argument souvent bien plus convaincant que la réalité expérimentale. Paradoxalement, dans cette science par imitation, c’est l’objet d’étude qui fut défini en fonction des critères de scientificité, et non l’inverse. Par exemple, la scientificité de la linguistique émergea du postulat d’arbitraire du signe, c’est-à-dire de l’idée d’équivalence entre les mots de toutes les langues dans la description d’un même signifiant. À la manière des lois de la physique, ce postulat d’isotropie universelle effaçait d’un seul coup toute composante historique.

Certes, une telle approche facilita grandement l’analyse comparative en linguistique. En contrepartie, la question de l’origine et de l’évolution des langues dans leur rapport avec le psychisme humain (ce qui peut être considéré comme la plus cruciale des questions de la linguistique) se vit expulsée hors du domaine de l’investigation : « La question de l’origine du langage, affirme Saussure [10], n’a pas l’importance qu’on lui attribue généralement. Ce n’est même pas une question à poser. Le seul objet réel de la linguistique, c’est la vie normale et régulière d’un idiome déjà constitué. »

La biologie se trouve dans une position pratiquement similaire à celle de la linguistique. Tout d’abord, la science du vivant a exclu du domaine de scientificité non seulement l’origine de la vie, c’est-à-dire le passage de l’inanimé au vivant, mais également son évolution. En effet, l’adhésion inconditionnelle à la théorie darwinienne fit de toute innovation un accident dû au hasard, ultérieurement sélectionné par le milieu. En tant qu’événement exceptionnel, l’innovation devint un accident de parcours, réfractaire dans son essence même à toute tentative de formalisation. La dynamique de complexification, phénomène on ne peut plus fondamental dans l’évolution du vivant, fut donc complètement exclue du champ d’investigation. La vie, dans ses manifestations les plus spécifiques, serait-elle exclue du champ de scientificité ? On est en droit de le penser du fait qu’il n’existe jusqu’aujourd’hui aucune définition scientifique de la vie, comme en témoigne la sempiternelle controverse quant à la classification des virus parmi les êtres vivants ou l’inanimé.

Il s’agit là d’une situation plutôt étonnante. En effet, la biologie peut difficilement prétendre à une scientificité calquée sur le modèle de la physique classique avant même d’avoir défini l’objet de son investigation. Or ce problème est beaucoup plus profond qu’une simple imprécision d’ordre sémantique. S’il n’existe pas encore de définition scientifique de la vie, c’est entre autres parce que les êtres vivants se montrent réfractaires aux principes déterministes inspirés de la physique classique.

Par exemple, pour décrire l’autonomie du développement, les embryologistes de la première moitié du XXe siècle exprimèrent le besoin d’utiliser des termes tels que « canalisation » (c’est-à-dire la capacité du développement à poursuivre son déroulement normal en dépit de perturbations rencontrées en chemin) [11], « équifinalité » (notion exprimant l’indépendance de l’état final du développement vis-à-vis des variations de l’état initial) [12], ou même « plasticité adaptative » (notion exprimant la capacité de l’organisme à modifier de façon adaptative son développement en fonction de perturbations rencontrées en chemin) [13]. Or ces notions se prêtent fort peu à une quelconque formalisation selon le mode déterministe classique.

Cette situation se modifia radicalement durant la seconde moitié du XXe siècle, et ce en vertu des premières découvertes relatives aux mécanismes physico-chimiques sous-jacents au fonctionnement des cellules vivantes. Ces découvertes furent l’amorce d’une révolution en biologie. Tout comme dans la physique classique, elles ouvraient désormais la voie à l’étude de l’objet vivant sur la base de ses constituants. « Du coup, constate Edgar Morin [14], la biologie moléculaire, expliquant les machineries chimiques de la vie, mais non la vie elle-même, a cru que la vie était une notion mythologique, de toute façon indigne de science, et a expulsé la vie hors de la biologie. »

Certes, les êtres vivants sont bien le siège de réactions chimiques, de processus fondés sur des principes physiques. Cependant, la transposition en biologie de la démarche propre à la physique classique implique un postulat de réversibilité. Or cet indispensable présupposé confère à l’approche déterministe une dimension foncièrement irréaliste, tout simplement parce qu’il est impossible de créer ou de ressusciter un être vivant à partir de ses constituants. La mort est un phénomène irréversible, surgissant alors même que la composition chimique de l’individu ne change pas de façon significative.

Par conséquent, il reste illusoire d’essayer de comprendre le vivant dans son intégralité à partir de l’étude de ses constituants isolés. « En fait, constate André Pichot [15], cette négation de la spécificité du vivant, qui se veut matérialiste, confond simplement le matérialisme épistémologique et les sciences de la matière […] Si bien qu’aujourd’hui on a l’impression que ce que vise la biologie n’est pas tant l’étude de la vie que sa pure et simple négation, le nivellement et l’unification de l’univers par la physico-chimie. »

Les physiciens du XIXe siècle concentrèrent leurs efforts sur la prédiction du devenir de systèmes soigneusement isolés des aléas du monde réel. Par le succès de leur investigation et des applications qui en découlèrent, ils finirent par faire accepter l’idée d’une identité entre prédictibilité et intelligibilité. Or le réel « découvert parce que potentiellement maîtrisable » n’est qu’un réel bien particulier, acceptant de se plier aux exigences de la prédictibilité.

Certes, en physique, nombreux sont les aspects du réel se laissant modeler (du moins de façon grossière) par l’expérimentateur. Cependant, la situation est tout autre en ce qui concerne le vivant. En effet, si les biologistes éprouvent encore le besoin d’utiliser une terminologie complètement étrangère à l’approche déterministe, ce n’est pas forcément le signe d’un « laxisme épistémologique ». L’impalpable réalité propre au vivant est difficilement communicable par le vocabulaire forgé dans un contexte déterministe. Henri Atlan [16] en témoigne quand il affirme que « toute organisation cellulaire est ainsi faite de structures fluides et dynamiques. Le tourbillon liquide – détrônant l’ordonnancement du cristal – en est devenu, ou redevenu, le modèle, ainsi que la flamme de bougie, quelque part entre la rigidité du minéral et la décomposition de la fumée ».

Au vu de ces considérations, il devient aisé de comprendre l’absence d’une définition « scientifique » de la vie. Cependant, il existe bien une science du vivant construite sur le mode déterministe. Cela signifierait-il que l’approche réductionniste permet d’aboutir à une approximation satisfaisante de la réalité vivante ? On a peine à le croire. En effet, avancer une réponse affirmative à cette interrogation reviendrait à faire de la spécificité du vivant un problème mineur, d’essence « philosophique ».

Il existe donc un paradoxe au cœur de la biologie qui n’est d’ailleurs pas le privilège de ce domaine. Il affecte de près ou de loin tous les champs d’investigation scientifiques, comme en témoigne Paul Feyerabend : « La science moderne a développé des structures mathématiques dont la cohérence et la généralité excèdent tout ce qui a existé jusqu’à présent. Mais pour accomplir ce miracle, il a fallu que toutes les difficultés existantes soient confinées dans le rapport entre la théorie et les faits, et soient dissimulées par des approximations ad hoc ou d’autres procédés. » [17] Ainsi, la réitération à outrance d’une approche déterministe du réel génère un univers de la connaissance très luxuriant, certes, mais ne cessant toutefois de s’éloigner de son objet d’étude. Cette dynamique mène à un épuisement par l’absurde de l’investigation. Ainsi que le dénoncent Prigogine et Stengers [18], « ce que la science classique touche se dessèche et meurt, meurt à la diversité qualitative, à la singularité, pour devenir la simple conséquence d’une loi générale ».

Pour en venir à se « dessécher », le vivant doit être débarrassé de l’autonomie qui lui est inhérente. Or cette situation, pour autant qu’elle puisse être maîtrisée, vide l’objet d’étude d’une de ses propriétés les plus fondamentales, celle qui fait de chaque cellule une entité vivante et non pas un simple sac d’enzymes. Il est donc impossible de plier l’objet vivant à cette exigence sans le voir se dissoudre instantanément, sous les yeux même de l’investigateur. Cette résistance passive, mais bien réelle, provoque une situation éminemment singulière : l’inadéquation chronique de l’être vivant à son cadre d’investigation. Il n’est pas seulement question d’un malaise épistémologique. Comme il sera longuement détaillé dans cet ouvrage, l’inadéquation fondamentale du vivant au cadre d’investigation emprunté à la physique classique engendre une pathologie chronique en biologie : la fraude, sous tous ses aspects, mais également l’introduction systématique de critères idéologiques, extra-scientifiques, dans l’adhésion, la vérification et la diffusion d’une théorie plutôt qu’une autre, ces deux aspects de la pathologie en question étant, bien entendu, intimement liés.

Et pourtant, par imitation de la physique classique, la biologie moderne accumule une immense quantité de données et d’interprétations. Il s’y développe un savoir relativement cohérent, fondé en grande partie sur le postulat mécaniciste du « pouvoir des gènes ». Présents dans toute cellule vivante, les gènes sont considérés comme les détenteurs exclusifs de l’information gouvernant toutes les réponses des êtres vivants, depuis leur développement jusqu’à leur comportement. Ces propriétés transforment l’organisme en une machine (fort complexe, certes) dont les rouages sont à la fois actionnés et produits par l’expression coordonnée des gènes.

Dans la plus pure tradition positiviste, l’interprétation mécaniciste du vivant est en passe de faire de la biologie une puissante arme de contrôle et de façonnage de la société. Plus encore, il s’élabore à partir de ce savoir une nouvelle éthique selon le mode classique de coalescence entre science et technologie. Cette métamorphose affecte non seulement notre regard sur le monde vivant mais encore sur l’homme, devenu lui aussi une « machine vivante » non moins sujette que les autres aux critères technologiques d’optimisation. Il est donc nécessaire de s’interroger sur le rapport entre l’arbre de la science du vivant et son « objet d’étude », non seulement au nom d’une curiosité intellectuelle, mais également parce que le savoir développé est en passe de transformer la société jusque dans ses fondements.

En fait, plutôt qu’un véritable dialogue, ce débat prend l’allure d’une lutte entre les défenseurs de valeurs traditionnellement considérées comme « humanistes » et les partisans du « progrès ». Cette controverse peut bien mener à une charte limitant l’exploitation de l’« objet vivant ». Elle n’implique cependant aucune reconsidération de la notion de progrès, l’élément vital de l’activité scientifique moderne. Elle mène, dans le meilleur des cas, à un contrôle de la vitesse de transformation de la société par les biotechnologies.

En fin de compte, le débat sur ce qui est maintenant défini comme la bioéthique semble d’avance vidé de son contenu, et ce pour deux raisons. La première est que toute controverse reste impossible tant que la biologie demeure indifférente à la particularité de son objet d’investigation, ou du moins à ce qui reste réfractaire à toute tentative de formalisation dans un cadre réductionniste. Les défenseurs des valeurs humanistes traditionnelles et les partisans des biotechnologies brandissent des arguments issus de registres foncièrement différents. La seconde est que les biotechnologies sont une source de puissance. Or dans une société aussi mercantile que la nôtre, ce pouvoir est susceptible de contrecarrer la plupart des considérations d’ordre éthique.

L’objectif du présent ouvrage n’est nullement de prendre position dans une telle controverse. Son ambition est tout autre. En parallèle à ce que dénonce Lighthill en physique, il est tout à fait envisageable que la société soit également abusée par l’« enthousiasme » que manifestent les biologistes modernes vis-à-vis de l’approche réductionniste. Cette idée est d’autant plus plausible que le vivant se montre particulièrement réfractaire au cadre réductionniste. La conscience d’une telle inadéquation est susceptible de transformer radicalement le débat sur la bioéthique. Elle soulève même de multiples questions quant à la nature du progrès inhérent à l’activité scientifique. En effet, comment procède l’investigation dans le cas d’une inadéquation chronique avec l’objet d’étude ? Dans quelle mesure les infractions au « jeu de la science » (c’est-à-dire la fraude scientifique dans ses manifestations les plus diverses) sont-elles impliquées dans la dissipation de tels écarts avec le réel ? Par ailleurs, comment, sous un tel climat, peuvent croître les branches biologiques de l’arbre de la science ?

Comment est-il possible, dans un tel contexte, d’envisager une extension des applications biotechnologiques ? En réalité, cette dernière question est d’autant plus pertinente que, comme nous le verrons, elle joue généralement un rôle de réponse face aux précédentes. Les succès biotechnologiques, par leur existence même, garantissent le bien-fondé de la méthode d’investigation. Mais une telle réponse ne peut être acceptée d’emblée, parce que le lien entre les théories et leurs applications n’est pas toujours aussi direct qu’on se le représente.

L’idée d’une inadéquation profonde des fondements de la biologie face au vivant a également préoccupé les philosophes. Heidegger voit même dans cette impossibilité d’embrasser l’objet d’étude une caractéristique fondamentale de cette activité : « Ainsi apparaît quelque chose d’irritant. Ce que les sciences ne peuvent contourner : la nature, l’homme, l’histoire, le langage, est, en tant que cet Incontournable, inaccessible aux sciences et par elles. » [19] Alors, faut-il abandonner l’idée d’une appréhension scientifique du vivant ? Faut-il se résigner à voir croître à l’infini les branches d’un arbre de la science fondamentalement étranger au réel, et conclure, avec Heidegger, que « la spécialisation n’est aucunement le symptôme d’une dégénérescence due à quelque aveuglement, encore moins un signe de décadence marquant la science moderne. La spécialisation n’est pas un mal qui serait simplement inévitable. Elle est une conséquence nécessaire et la conséquence positive de l’être de la science moderne » [20] ?

En dépit d’une telle affirmation, nous sommes profondément convaincu que la science n’est pas condamnée à un éclatement progressif en domaines de plus en plus spécialisés et dépourvus de sens, philosophiquement parlant. Le divorce progressif par rapport au réel n’est pas une irrémédiable malédiction propre à « l’être de la science ». Les scientifiques modernes ne sont pas des nains spirituels hissés sur les épaules de géants d’un passé héroïque, jouissant, de par leur position épigée, du pouvoir de résoudre des problèmes de plus en plus complexes. Comme en physique, il est possible de concevoir un mode d’investigation biologique renouant l’alliance avec le vivant, c’est-à-dire foncièrement fidèle à la spécificité de son objet d’étude.

Dans la dernière partie de cet ouvrage, il sera présenté l’esquisse d’une nouvelle approche fondée sur une reconsidération de la variabilité expérimentalement observée en biologie. Cette variabilité sera regardé non plus uniquement comme un simple bruit parasite dans l’expression d’une information préexistante, mais également comme un processus d’individuation, c’est-à-dire la manifestation essentielle des processus auto-organisateurs conduisant à l’émergence des métastructures harmonieuses, et ce à toutes les échelles d’organisation du vivant.

L’idée d’une épistémologie du vivant découlant de cette nouvelle approche remet en cause l’idée d’un déploiement de la connaissance à partir d’un tronc commun de lois physiques érigé sur ses « racines métaphysiques », c’est-à-dire sur le postulat d’intelligibilité d’un Univers animé par des lois immuables. Elle invite tout d’abord à repenser ce qui aujourd’hui apparaît comme une évidence : le lien entre science et technique, imprimant depuis le XVIIe siècle un caractère déterministe et pragmatique à l’investigation scientifique. C’est seulement une fois libérés de cette emprise qu’il peut émerger de nouveaux rejets de la souche de l’arbre de la science. Il devient alors possible d’établir une nouvelle approche expérimentale plus fidèle à l’individualité de chaque être vivant, et de reconnaître un réel redevenu infini, auquel l’homme doit désormais s’initier, dans la féconde incertitude accompagnant chaque rencontre.

Gérard Nissim Amzallag.

 


[1] J. Lighthill, Proc. Roy. Soc. Lond. Ser. A, 1986, 407, 35-50.

[2] Ilya Prigogine et Isabelle Stengers, La Nouvelle Alliance, métamorphose de la science, Gallimard, nouv. éd., 1986, p. 351.

[3] Edgar Morin, Science avec conscience, Seuil, 1990, p. 25.

[4] Prigogine et Stengers, op. cit., p. 192.

[5] Ibid., p. 430.

[6] René Descartes, Lettre-préface des Principes de la philosophie, éd. Flammarion, 1996, p. 74.

[7] Ibid., p. 75.

[8] Prigogine et Stengers, op. cit., p. 63, notent, à ce sujet : « Si la science conçoit le monde comme soumis à un schéma théorique universel qui réduit ses richesses diverses aux mornes applications de lois générales, elle se donne par là même comme instrument de contrôle et de domination. »

[9] Ibid., p. 421.

[10] Louis Ferdinand De Saussure, Cours de linguistique générale, Payot, 1972, p. 105.

[11] Voir à ce sujet P. Weiss, The science of life : The living system – a system for living, 1973, Futura Publishing, New York. La notion de canalisation fut également longuement développée par C.H. Waddington, entre autres dans son ouvrage The Strategy of genes, 1957, Allen and Unwin, Londres.

[12] Voir L. von Bertalanffy, « The theory of open systems in physics and biology », Science, 1950, 112, 21-29. Cette idée est amplement reprise par nombre d’évolutionnistes modernes. Voir par exemple J.T. Bonner éd., Evolution and development, 1982, Springer-Verlag, Berlin, et plus particulièrement P. Alberch, « Developmental constraints in evolutionary processes », p. 313-332.

[13] Voir F. E. Warburton, « Feedback in development and its evolutionary significance », American Naturalist, 1955, 89, 129-140. Pour les végétaux, chez qui cette propriété est remarquablement exprimée, voir A. D. Bradshaw, « Evolutionary significance of phenotypic plasticity in plants », Advances in Genetics, 1965, ou, plus récemment, S.E. Sultan, « Phenotypic plasticity and the neo-darwinian legacy », Evolutionary Trends in Plants, 1992, 6, p. 61-71.

[14] Edgar Morin, op. cit., p. 251.

[15] André Pichot, « Explication biochimique et explication biologique », in L’Explication dans les sciences de la vie, CNRS Éditions, 1983, p. 74.

[16] Henri Atlan, Entre le cristal et la fumée, essai sur l’organisation du vivant, éd. du Seuil, 1979, p. 5.

[17] Paul Feyreabend, Contre la méthode, esquisse d’une théorie anarchiste de la connaissance, trad . fr., éd. du Seuil, 1979, p. 65.

[18] Op. cit., p. 94.

[19] Martin Heidegger, « Science et méditation », in Essais et conférences, trad. fr., éd. Gallimard, p. 74.

[20] Ibid., p. 65-66.

  1. Aucun commentaire pour l’instant.
  1. No trackbacks yet.

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s

%d blogueurs aiment cette page :