François Képès, rationalisateur des machines vivantes, 2014

Téléchargez l’article au format PDF

pls_440_couv_200pxLe magazine scientifique Pour la science de juin 2014 a fait sa première de couverture avec le titre accrocheur Réinventer le vivant, quels enjeux pour la biologie de synthèse ? qui annonce le dossier [1] consacré à cette nouvelle technoscience. Comme il se doit, l’illustration de cette couverture est une molécule d’ADN, mais cette fois constituée de circuits électroniques…

L’article le plus intéressant est sans conteste celui du généticien François Képès [2] intitulé “La biologie de synthèse : vers une ingénierie du vivant”.

Or François Képès est avant tout un ingénieur et en ce qui concerne la biologie de synthèse, il sait ce qu’il veut : faire du vivant – pour le moment surtout des bactéries les plus élémentaires – la nouvelle machine-outil de l’industrie des biotechnologies.

Ingénierie rationnelle

Rappelant que « au début des années 1960, l’invention des circuits intégrés a métamorphosé l’ingénierie électronique » (phrase qui a manifestement inspiré l’illustration de la couverture de ce magazine), il file l’analogie :

« Et si une telle combinaison de technique et de méthode était transposable en biologie ? S’il était possible, en biologie aussi, de disposer d’une banque d’outils et de règles rationnelles qui, combinés selon les besoins, aideraient à comprendre le vivant en le fabriquant, ou à concevoir et produire à la demande de nouvelles fonctions biologiques n’existant pas dans la nature ? Depuis quelques années, cette idée fait son chemin parmi les biologistes. Rassemblées sous le nom de biologie de synthèse, leurs approches se construisent aux interfaces de la biologie et de l’ingénierie, avec des apports de la chimie, de la physique, des mathématiques et de l’informatique. Elles ont pour objectif d’injecter en biologie les principes fondant toute ingénierie. De quoi s’agit-il ? Quelles sont les ambitions de la biologie de synthèse ? Que permet-elle aujourd’hui ? Quelles sont ses perspectives et limites ? Telles sont les questions que nous examinerons ici. » (PLS)

Pour ensuite proposer une définition claire et précise :

« La biologie de synthèse est l’ingénierie rationnelle de la biologie. En d’autres termes, elle vise à la conception rationnelle et à l’ingénierie de systèmes complexes fondés sur le vivant ou inspirés par le vivant, et dotés de fonctions absentes dans la nature. » (PLS)

Pour mettre en œuvre cette « ingénierie rationnelle », il faut des bases solides :

« Qu’est-ce que cela signifie ? Les ingénieries de systèmes électroniques ou mécaniques nécessitent des cadres bien établis pour gérer la complexité, des outils fiables pour manipuler les états du système, et des plateformes de tests. La biotechnologie, en revanche, est encore dépourvue de tels cadres, outils et plateformes. » (PLS)

Or, comme l’avait déjà constaté en 2012 Geneviève Fioraso [3] dans son Rapport sur les enjeux de la biologie de synthèse : « La complexité du vivant : un verrou à lever pour la biologie de synthèse » [4]. Il est donc nécessaire de simplifier tout cela, afin de faire en sorte que le vivant, par trop instable, fantasque et imprévisible, se comporte enfin comme une machine-outil régulière, fiable et prévisible. C’est ce sur quoi s’achève son article :

« Une barrière, enfin, est la taille limite des circuits biochimiques que l’on réussit à construire. […] Comment briser ce plafond pour construire des circuits biochimiques plus complexes et augmenter d’autant les possibilités de la biologie de synthèse ? Pour une part, ce plafond tient à notre incapacité à concevoir un génome complet. Pour étendre fortement la taille et la complexité des circuits, il faudrait pouvoir introduire un nombre arbitraire de gènes qui coopéreraient de façon optimale selon un cahier des charges fixé par avance. […]

Plusieurs équipes se sont ainsi lancées dans des recherches visant à synthétiser ou à réduire des génomes complets d’organismes unicellulaires. C’est le cas, par exemple, de l’équipe de l’Institut J. Craig Venter, à Rockville aux États-Unis, et de celle de Fred Blattner, de l’Université du Wisconsin, à Madison, pour les bactéries, ou encore de celle de Jef Boeke et Joël Bader, de l’Université Johns Hopkins, à Baltimore, pour la levure. […]

Dans mon équipe, nous cherchons précisément à exploiter les contraintes connues des génomes de micro-organismes pour la conception ab initio de génomes porteurs de grands circuits de synthèse. » (PLS)

La « conception ab initio d’un génome » revient en fait à chercher quel est le « génome minimal – un génome qui ne contiendrait que les gènes nécessaires au fonctionnement de la cellule » et qui servirait donc de « plateforme » sur laquelle des « extensions » pourraient être ajoutées, des « constructions génétiques » plus ou moins complexes seraient greffées afin de produire les molécules ou réaliser les fonctions biologiques souhaitées.

Révolution industrielle

François Képès veut donc, avec son « ingénierie rationnelle » appliquée à la biologie de synthèse, faire ce que les ingénieurs du XIXe siècle ont réalisé dans la conception des machines qui ont été le vecteur de la révolution industrielle : normaliser les mesures, standardiser les dimensions afin de rendre possible l’interchangeabilité des pièces et rationaliser la conception des machines.

C’est là un aspect de la révolution industrielle qui est souvent oublié : on présente couramment l’invention de la machine à vapeur comme l’acte fondateur de cette période ; et ce n’est certes pas complètement faux. Car il faut bien un moteur indépendant des éléments naturels [5] pour animer de manière régulière et continue un grand nombre de machines engagées dans une production de masse [6]. Mais cette révolution dans la production repose avant tout sur la généralisation de l’emploi des machines ; machines qu’il faut donc produire en grand nombre, voire en masse, c’est-à-dire de manière qui soit elle-même industrielle.

Or, avant la révolution industrielle, toutes les machines, des plus simples aux plus complexes (les horloges et les moulins à vent, pour n’évoquer que les plus courantes depuis le XIIIe siècle jusqu’au XVIIIe siècle) étaient produites de manière artisanale. Un atelier ne produisait pas en série une pièce pour qu’ensuite un autre atelier assemble les machines. Un artisan et ses ouvriers fabriquaient eux-mêmes toutes les pièces d’une machine et les ajustaient les unes aux autres en sorte qu’au final, elle fonctionne. Chaque machine était donc unique ; en conséquence une pièce d’une machine ne pouvait pas servir à remplacer une pièce défectueuse d’une autre machine. Ce n’est qu’à la fin du XVIIIe siècle dans l’horlogerie (industrie de luxe à l’époque) que des dimensions standardisées seront adoptées pour la réalisation des engrenages et des vis, afin de faciliter une production qui reste encore totalement artisanale.

L’idée de l’interchangeabilité des pièces d’une machine remonte à l’invention des caractères mobiles pour l’imprimerie, mais elle n’a jamais vraiment été étendue à d’autres mécaniques, probablement à cause de la difficulté qu’il y a à mouler des métaux autres que ductiles (or, argent, laiton, plomb). Au début du XVIIIe siècle, Guillaume Deschamps propose un fusil dont les pièces sont interchangeables et réalise une démonstration devant le Roi de France en 1726 avant de créer une fabrique qui fournira 12 000 fusils à la marine. Toutes les pièces de ce fusil sont réalisées par des artisans, ce qui fait dire à un commentateur :

« L’idée de faire convenir toutes les pièces des platines, les unes avec les autres, est ingénieusement imaginée, mais ceux qui connoissent l’usage de la forge, sçavent qu’elle ne peut former ces pièces en perfection, qu’elle peut seulement les disposer et que ce n’est que la lime qui peut les approprier au model, ainsy le temps qu’on y employ est de grande dépence. »

En d’autres termes, il est difficile et coûteux de chercher à produire des pièces interchangeables de manière entièrement artisanale, et c’est pourquoi cette livraison à la marine n’aura pas de suite [7].

Pourtant, le maître arquebusier Honoré Blanc (1736-1801) propose en 1777 au Roi de France, puis à l’État issu de la Révolution française, un nouveau modèle de fusil aux pièces interchangeables [8]. Pour lui, la solution réside dans la standardisation. Dans un « règlement », il précise les dimensions de toutes les pièces de son nouveau modèle.

« L’interchangeabilité implique que la précision de la fabrication des pièces d’un produit donné soit telle que leur assemblage ne nécessite aucun ajustement final. A son niveau, la méthode de Blanc atteint cet idéal : il met au point des matrices pour remplacer le forgeage des pièces, il invente des gabarits pour les raboter et des machines à forer les trous pour les façonner, il fabrique des calibres pour vérifier que les pièces s’ajustent selon une certaine marge de tolérance. Bien que ce procédé soit mis en œuvre à l’aide d’outils manuels, l’exécution dépend en principe de guides mécaniques. Chaque ouvrier est obligé de faire des pièces qui s’ajustent parfaitement lors de l’assemblage final. Le procédé de fabrication contrôle le travail de l’artisan et, de ce point de vue, l’ajustement final du produit témoigne de la rigueur avec laquelle l’ordre social est policé. […]

En 1777, [le chef de l’artillerie Jean-Baptiste de] Gribeauval et ses partisans introduisent ainsi non seulement un nouveau modèle de fusil, mais aussi de nouveaux rapports d’encadrement avec les armuriers [qui sont des artisans indépendants]. Pour la première fois, au lieu d’acheter des produits finis, l’État fixe les prix de pièces détachées qui, soulignons-le, ne sont pas encore interchangeables. Les tests de qualité sont renforcés et de nouvelles techniques de production sont introduites. Honoré Blanc est chargé de faire en sorte que “soient pourvus les différents outils et instruments nécessaires pour assurer l’uniformité dans les trois manufactures”. »

Mais cela ne va pas sans difficultés, car dans un premier temps, la fabrication des pièces normalisées est confiée à des artisans qualifiés, supervisée et rigoureusement contrôlée par des inspecteurs militaires :

« Puisque la pièce d’un artisan n’est acceptée que si elle s’ajuste avec celles de ses camarades d’atelier, on est tenté d’interpréter l’objectivité du produit fabriqué comme le résultat d’un ensemble de règles toujours plus élaborées destinées à juguler les révoltes potentielles des artisans. Cette objectivité apparente ne met pourtant pas fin à tous les conflits. Il suffit pour s’en convaincre de voir comment la ville de Saint-Étienne a réagi face à cette volonté de rationalisation de la fabrication… […]

[Car] cette perfection a un prix. Le nombre de platines rejetées augmente de façon significative à partir de 1777, de même que la charge de travail pour les fabricants. Les armuriers augmentent leurs coûts. Ils sont nombreux à abandonner la production militaire au profit d’un marché civil qui, sous la forte demande des révolutionnaires américains, est singulièrement florissant. […]. En désespoir de cause, l’inspecteur Agoult décrète que les armuriers seront soumis à la discipline militaire. Des dizaines d’entre eux sont jetés en prison sous l’accusation de violation des règles de procédures du travail. Ces hommes ne sont ni des soldats, ni des ouvriers journaliers, mais des artisans d’élite. Le conseil municipal, offusqué, prend fait et cause pour eux. […]

[Le chef de l’artillerie Jean-Baptiste de Gribeauval] propose une solution technique qui élimine tout simplement le besoin en ouvriers qualifiés : la fabrication de pièces interchangeables ! »

Mais ce n’est qu’après la Révolution française qu’Honoré Blanc se lance en tant qu’entrepreneur privé dans la fabrication de fusils aux pièces normalisées et interchangeables, réalisée par une main d’œuvre non qualifiée :

« Grâce à ses appuis au sein de l’artillerie, Blanc obtient diverses faveurs : il reçoit une subvention qui représente 27% de son coût de production, il est autorisé à utiliser la main-d’œuvre des conscrits et obtient de bas taux d’intérêt. […] En septembre 1797, il produit environ 4 000 fusils à platine à Roanne. En 1800, il atteint les 11 500. Après sa mort en 1802, la production se poursuit au rythme de 10 000 fusils par an. […] Mais les compétences artisanales demeurent encore essentielles dans le processus de production et la fabrique de Blanc n’atteint jamais son seuil de rentabilité. Les fusils de Roanne sont 20% plus chers que ceux produits par la région stéphanoise. »

Pour cette raison, et pour d’autres motifs d’ordre politiques, la manufacture d’Honoré Blanc ferme en 1807. Et ce n’est que dans les années 1850 que l’Europe découvre le système américain de fabrication des pièces interchangeables, appliquée à de nombreuses autres machines, car Honoré Blanc avait reçu en 1785 la visite d’un certain Thomas Jefferson (1743-1826), alors ambassadeur américain en France, avant de devenir président des État-Unis…

Qu’est-ce qu’une machine ?

Cette histoire est vieille de 200 ans, mais elle contient déjà tous les aspects propres au développement technique à son stade capitaliste et industriel ; aspects que l’on retrouve actuellement, comme François Képès va nous en donner plus loin l’illustration.

Les problèmes économiques et, par contre coup politiques, qu’à rencontré Honoré Blanc dans la réalisation de pièces de fusil normalisées et interchangeables ont également une origine technique que ne me semblent pas avoir aperçu les historiens.

Si l’on veut produire en série des pièces métalliques toutes identiques, selon un modèle, avec régularité, précision et de manière économique, ce n’est pas à des artisans travaillant à la main, aussi qualifiés et habilles fussent-ils, qu’il faut s’adresser, mais bien plutôt à une usine équipée de machines-outils pilotées par des ouvriers spécialisés. Cela nous paraît aujourd’hui une évidence. Mais lorsque des telles machines n’existaient pas, il était beaucoup plus difficile d’imaginer pouvoir s’en servir ! Autrement dit, avant de se lancer dans la production de pièces normalisées et interchangeables, il aurait fallu produire les machines-outils capables de les façonner avec la régularité, la précision et l’économie qu’un tel projet technique exigeait.

Au musée des Arts et Métiers à Paris, est exposée une machine-outil à tailler les engrenages, elle-même composée d’engrenages. La toute première machine à tailler les engrenages a certainement été construite par un artisan, qui a façonné à la main ses engrenages et a ajusté ses pièces les unes aux autres, comme pour n’importe quelle autre machine réalisée à cette époque. A partir de là, la production de pièces détachées pour construire toutes sorte de mécaniques a pu commencer.

La production de pièces détachées, normalisées et interchangeables implique un nouveau système technique, totalement inédit, propre à la production industrielle. La machine-outil, elle-même constituée de telles pièces, est la seule à en permettre la production de manière suffisamment précise et régulière pour rendre l’ensemble viable, à la fois au niveau du fonctionnement mécanique et de l’économie de la production. En réalité, la production industrielle implique d’abord et avant tout la mise au point de machines-outils, base de toute production régulière d’objets identiques.

Il est donc possible de distinguer trois principales catégories de machines (catégories qui ne sont pas strictement étanches) :

  • Le moteur est une machine primaire, en ce sens que c’est lui qui anime toutes les autres machines ; longtemps ce furent les éléments naturels et sociaux : eau, vent, animaux domestiques, force musculaire humaine, qui ne sont pas à proprement parler des machines, mais sont employés en tant qu’instruments pour une finalité étrangère à eux-mêmes.
  • La machine-outil est une machine intermédiaire, en ce sens qu’elle est capable de façonner avec précision et régularité des pièces normalisées et interchangeables pour d’autres machines, ou de participer à la réalisation de produits finis.
  • Les machines terminales sont des produits finis, opérationnels et efficaces, prêtes à réaliser la fonction spécialisée pour laquelle l’« ingénierie rationnelle » les a conçus : ce peut être un fusil, une automobile, une usine automatisée de production de panneaux de particules, une centrale nucléaire (elle-même moteur pour d’autres machines), etc.

Nous avons signalé au passage que les êtres vivants ne sont pas à proprement parler des machines. Pourtant, François Képès, tout au long de son article, fait comme si non seulement ses bactéries étaient employés comme des instruments [9], mais surtout comme si ses bactéries pouvaient être réduites effectivement à n’être plus que des machines, et plus particulièrement des machines-outils dans un processus de production industrielle de molécules. C’est là une ambition toute nouvelle que notre ingénieur nous fait certes miroiter, mais qu’il ne prend pas la peine un seul instant d’examiner de plus près.

Car qu’est-ce qu’un être vivant ? qu’est-ce qu’une machine ? Voilà des questions qu’il faudrait se poser afin de savoir s’il est possible de transformer le premier en second, et à quel prix [10]. Mais ces questions par trop philosophiques ne semblent pas intéresser notre ingénieur qui reconduit l’ignorance et l’inconscience de toute la biologie moderne quant à la nature des êtres vivant : pour cette science – qui ne sait pas ce qu’est un être vivant et qui ne veut pas le savoir – les êtres vivants sont des machines biochimiques très complexes ; pour la biologie de synthèse, ce sont des machines trop complexes, qu’il faut donc simplifier.

Une machine est constituée de divers éléments qui ont des rapports fixes et déterminés une fois pour toutes de manière à transformer les flux de matière qui la traversent. C’est-à-dire quasiment l’opposé d’un être vivant, constitué de divers éléments qui ont des rapports changeants et variés de manière à pouvoir non seulement transformer mais surtout à pouvoir s’incorporer à eux-mêmes, assimiler la matière qu’ils puissent dans le milieu environnant.

La biologie de synthèse voudrait ainsi réaliser la quadrature du cercle : conserver la régularité et la prévisibilité de la machine en ayant en plus les capacités de transformation et d’assimilation du vivant. La vie serait le moteur de ces « systèmes vivants », la molécule d’ADN la machine-outil de cette « usine biochimique » qu’est la cellule, et les molécules d’intérêt industriel leur produit plus ou moins fini.

La fameuse réinvention du vivant que l’on nous vante est donc en réalité sa simplification, son appauvrissement, sa désinvention par sa réduction – nécessairement mortifère – au fonctionnement d’une bête et disciplinée machine ; c’est-à-dire non à quelque chose de nouveau, mais seulement à ce que l’on connaît déjà et rencontre partout dans la société capitaliste et industrielle.

Normalisation industrielle

Dans son article, François Képès détaille ce qu’il faudrait rationaliser et normaliser pour transformer les êtres vivants en systèmes vivants selon les « principes fondateurs de toute ingénierie ». Très clairement, il s’agit de créer un nouveau système technique propre à la biologie, ainsi transformée complètement en une technoscience.

  • Le « découplage de la conception et de la fabrication » (PLS).

Pour le moment, la fabrication et la mise au point des « circuits métaboliques » – le processus par lequel les gènes insérés dans une bactérie finissent par produire une molécule désirée – reste largement empirique. Les biotechnologues [11] procédant par essais et correction des erreurs jusqu’à obtenir le résultat souhaité.

François Képès nous dit que cela est du à l’« imperfection des modèles » appliqués à des bactéries encore trop diversifiées, comme on le verra plus loin. Autrement dit, contrairement à ce que les ingénieurs font avec les machines ordinaires à partir de leur connaissance des propriétés physiques de la matière, pour faire produire à une bactérie une molécule donnée, il n’existe pas de modèle théorique fiable qui pourrait indiquer, même vaguement, la manière dont il faut s’y prendre.

La biologie moderne ne sachant pas ce qu’est un être vivant – quelle est sa spécificité par rapport aux objets inanimés qu’étudie la physique et par rapport aux machines que cette même physique permet de construire –, elle n’a, fort logiquement, aucune espèce de théorie sur ce qu’est l’organisme, le comment et le pourquoi de son fonctionnement. Les manipulations de laboratoire sont donc en grande partie du bricolage : lorsque ça marche, c’est par chance, et lorsque ça ne marche pas, on ne sait pas pourquoi non plus ; les biotechnologues avancent donc en tâtonnant vers ce qu’ils prétendent pourtant être leur « maîtrise du vivant ».

  • L’« indépendance du contexte ou orthogonalité » (PLS).

Il s’agit ici très clairement de l’idée d’interchangeabilité (« modularité » selon FK) des « briques » génétiques (biobricks) employées pour réaliser les « circuits métaboliques ».

« Dans la cellule vivante, les interactions des composants de synthèse et cellulaires sont difficiles à prédire ou à caractériser. Un circuit bien caractérisé dans une bactérie fonctionnera différemment dans une autre souche, même si elle est proche. […]

La fabrication d’un objet fondé sur la biologie, ou inspiré par elle, devient donc un processus hiérarchique d’assemblage de modules. Idéalement, les propriétés de chaque module ne devraient pas dépendre du circuit de synthèse dans lequel il est immergé. » (PLS)

Un des caractères distinctifs des êtres vivants par rapport aux machines, c’est leur individualité : les êtres vivants ne sont pas tous identiques, aucun ne réagit exactement de la même manière à une situation du fait de leur histoire vécue. Pourtant même à l’échelle des bactéries, cette individualité est un obstacle pour la biologie de synthèse.

  • La « normalisation des composants » (PLS).

Cette normalisation est la suite logique de l’interchangeabilité : elle est nécessaire afin d’automatiser l’ensemble du processus de production des constructions biotechnologiques, c’est-à-dire autant leur mise au point dans les laboratoires que leur production à l’échelle industrielle :

« Il s’agit de normaliser non seulement les composants, mais aussi les dispositifs et la production biologique, sans oublier les systèmes hybrides qui combinent nanobiologie et nanoélectronique. » (PLS)

En effet, François Képès déplore amèrement le fait que la main de l’homme mette encore les pieds dans la biologie de synthèse :

« Aujourd’hui, c’est encore l’expert humain qui établit cette boucle entre résultats expérimentaux et conception de l’expérience suivante. […]Malgré quelques avancées, la conception et fabrication de circuits biochimiques de synthèse réalisant les fonctionnalités souhaitées reste un artisanat spécialisé. Comme pour chaque révolution industrielle, la donne ne sera changée que lorsque ce socle conceptuel et méthodologique quittera la tour d’ivoire de quelques chercheurs très spécialisés pour devenir accessible à de nombreux ingénieurs. » (PLS)

Il rêve du jour où un ingénieur parviendra à concevoir un « circuit métabolique » sans se salir les mains en restant derrière son écran d’ordinateur :

« Par exemple, pour caractériser ses micro-organismes, [la start-up américaine] Gingko Bioworks a automatisé le processus complet – une gageure, car le processus fait intervenir une succession de robots incompatibles. […] Le résultat en est un nombre réduit d’erreurs et un meilleur contrôle de la qualité.

Pourtant, d’importants gains sont prévisibles si était développé un environnement de conception qui non seulement fournirait une interface de haut niveau commandant les robots biomoléculaires, mais aussi analyserait automatiquement les résultats des expériences et leur reproductibilité. Cette analyse servirait à améliorer le prochain plan expérimental, lui aussi numérisé. » (PLS)

Cette normalisation industrielle du processus de production implique également de nombreux progrès dans la « modélisation mathématico-informatique » du comportement des systèmes vivants afin que la conception théorique des « circuits métaboliques » puisse devenir effective. Là comme ailleurs dans la science actuelle, ce que l’on entend par théorie n’a rien à voir avec une compréhension des mécanismes propres au vivant.

L’article précédant celui de François Képès dans ce dossier nous le rappelait : il s’agit de compiler tous les articles scientifiques sur les processus physico-chimiques à l’œuvre dans la cellule vivante afin d’élaborer un modèle mathématique qui permet une simulation informatique de son comportement [12].

Ne rien comprendre, mais asservir

La modélisation informatique est la seule approche théorique dont veulent aujourd’hui entendre parler les scientifiques, quelque soit leur domaine : celle qui permet de calculer et de prévoir. Elle évite d’avoir à penser son objet dans sa spécificité et par là de comprendre véritablement ce qu’il est et par suite ce que l’on fait de lui.

Pourtant, nos biotechnologues ne manquent jamais de souligner que l’approche que promeut la biologie de synthèse « aiderait à comprendre le vivant en le fabriquant » (PLS) :

« Construire un système biologique qui fonctionne comme prévu est une façon de s’assurer que l’on a compris les phénomènes sous-jacents. En ce sens, la biologie de synthèse permet de faire progresser les connaissances sur le monde vivant. » (PLS)

Mais comment espérer comprendre quoi que ce soit en niant l’existence, en supprimant, en détruisant ce qu’il s’agit justement de comprendre ? Car réduire le vivant à la machine, c’est en faire quelque chose que nous connaissons : quelque chose qui fonctionne « comme prévu », qui produit l’effet que l’on en attend ; et rien d’autre. Alors que ce qu’il s’agit de comprendre dans le vivant, c’est précisément son caractère dynamique, imprévisible et capricieux ; bref, ce dont ne sera jamais pourvu une machine, à savoir son activité autonome.

Si les biotechnologues comme François Képès parviennent un jour à fabriquer un « système vivant » selon « les principes fondamentaux de l’ingénierie rationnelle », ce n’est pas à une meilleure connaissance et compréhension du « monde vivant » qu’ils vont parvenir, puisqu’ils font tout pour le simplifier, l’appauvrir et le réduire à la machine, mais seulement à une meilleure manière de l’asservir aux impératifs du rendement industriel et de la rentabilité économique.

En fait, l’idée que l’« on comprend mieux ce que l’on sait fabriquer » vient de la méthode des sciences, développée par et pour la physique, l’étude des objets considérés comme inertes et morts, et de son lien très étroit avec la technique. Cette méthode à en effet pour but de découvrir les régularités dans les phénomènes de la nature, et pour cela elle construit des dispositifs expérimentaux qui par la mesure des réactions qu’ils entraînent et l’analyse mathématique permettent d’énoncer ensuite des « lois de la nature ».

Mais l’application de la méthode scientifique à l’étude du vivant engendre « l’inadéquation chronique de l’être vivant à son cadre d’investigation » [13]. La méthode des sciences atteint ici ses limites : l’être vivant est trop complexe et turbulent dans toutes ses innombrables formes et manifestations pour une méthode qui réclame l’isolement et la stabilité de l’objet, la reproductibilité des expériences, la quantification et la mathématisation des résultats comme condition d’étude et de connaissance. Il faudrait une méthode adéquate à l’étrange objet de la biologie que sont les êtres vivants, c’est-à-dire une méthode développée à partir d’une connaissance de leur spécificité par rapport aux objets inanimés qu’étudie la physique et par rapport aux machines que cette même physique permet de construire. On en est fort loin.

Car la biologie de synthèse ne cherche absolument pas à comprendre le vivant tel qu’il existe depuis 3,5 milliards d’années, tout l’article de François Képès montre bien plutôt qu’il s’agit de le contraindre à rentrer dans le rang des machines afin de le faire marcher au pas de l’appareil de production industriel et de l’économie capitaliste.

Cette idée que l’« on comprend mieux ce que l’on sait fabriquer » est donc certainement tout à fait valable pour les machines ordinaires qui sont construites selon les principes de la physique, mais il faut rappeler qu’elle a été énoncée à une époque où le savant était souvent lui-même parfois un peu artisan, autant parce que ses recherches étaient menées en amateur éclairé que parce qu’il était souvent capable de construire lui-même ses dispositifs expérimentaux et ses machines, alors beaucoup plus simples et rudimentaires que celles présentes aujourd’hui dans les laboratoires. C’était du temps où la science n’était pas encore de la big science ni une technoscience ; c’est-à-dire une époque révolue…

Il est particulièrement comique de voir cette idée reprise de nos jours par un François Képès qui prône une automatisation avancée de la mise au point des « circuits métaboliques » et de la production des substances : lorsque les biotechniciens sont derrière leurs écrans et que les machines automatiques font tout le boulot, que reste-t’il au commun des mortels en matière de « fabrication » et plus encore de « compréhension » ? Évidemment rien.

Les machines, comme disait Marx, sont du « travail mort », c’est-à-dire de la connaissance fixée – au sens photographique du terme – dans l’agencement de la matière ; mise en mouvement, cette matière met en œuvre ce savoir, mais ne le transmet pas à ceux qui en utilisent les résultats : qui comprend les principes physiques et biologiques en jeux lorsqu’il allume la lumière électrique, roule en automobile, mange un plat surgelé ou absorbe un médicament ?

L’industrie fabrique de plus en plus les choses qui nous entourent, et nous ne comprenons pas mieux ce monde, bien au contraire. S’il y a quelqu’un qui « comprend en fabriquant », ce sont les entreprises industrielles qui comprennent mieux chaque jour comment nous rendre indispensables et nécessaires les produits qu’ils fabriquent en faisant disparaître les conditions qui permettaient auparavant de s’en passer. Loin de nous rendre « comme maîtres et possesseurs de la nature », la connaissance scientifique participe aujourd’hui à la dépossession toujours plus avancée des individus au profit des puissances de l’État, du Marché et de l’Industrie.

Le programme génétique

Dans l’article de François Képès, il y a une idée qu’il ne mentionne jamais, alors que pourtant elle est présente en filigrane tout au long, à savoir l’idée de programme génétique. Toute cellule vivante, et par suite les organismes pluricellulaires entiers, ne seraient qu’une sorte d’usine biochimique pilotée par le centre de commande que constitue l’information contenue dans le génome, l’ensemble des gènes enregistrés sur la molécule d’ADN. Cette information génétique serait à la fois le code pour la composition des protéines, le système de régulation de l’expression des gènes et enfin le programme qui dirigerait le fonctionnement de toutes les cellules vivantes et le plan d’organisation des organismes.

Cela fait beaucoup pour une seule molécule. Et pourtant, cette idée, toujours très populaire chez les biologistes, est vieille d’au moins 60 ans et durant toute cette période, jamais elle n’a été justifiée par aucun article scientifique ni par aucune validation expérimentale d’aucune sorte. Étonnant, non ?!

Rappelons comment le biologiste américain Ernst Mayr (1904-2005) l’énonce pour la première fois dans un article scientifique en une seule phrase :

« Le code ADN, entièrement propre à l’individu et pourtant spécifique à l’espèce de chaque zygote (la cellule-œuf fertilisée), qui contrôle le développement du système nerveux central et périphérique, des organes des sens, des hormones, de la physiologie et de la morphologie de l’organisme, est le programme de l’ordinateur comportemental de l’individu. »

Article dans la revue Science, « Cause and effect in biology », 1961.

Comment peut-on passer si rapidement de l’idée de code génétique (qui assurément existe) à l’idée de contrôle du développement de l’organisme (qui se manifeste parfois), puis sans plus de transition à l’idée de programme déterminant toutes les manifestations de l’individu (de la protéine jusqu’au – l’auteur semble vouloir insister particulièrement sur cet aspect – comportement de l’individu) ? Ernst Mayr ne le précise nulle part dans cet article pas plus qu’ailleurs – bien que selon lui l’existence de ce programme soit la caractéristique la plus remarquable des êtres vivant ; ce qu’il soutiendra jusqu’à la fin de sa vie [14].

Pourtant les notions de code, de régulation et de programme n’ont aucun lien nécessaire : c’est un peu comme si l’on prétendait que puisqu’une locomotive suit des rails et qu’elle est équipée d’un régulateur de vitesse, elle serait « programmée » pour faire tel trajet à tels et tels horaires !

Il y a plus de 10 ans déjà, le mal avait été diagnostiqué :

Autrement dit, la génétique s’est retrouvée avec une théorie voulant une chose, et des résultats expérimentaux en voulant une autre. La théorie veut que l’hérédité soit la transmission d’une substance ordonnée (ADN) commandant l’organisation de l’être vivant. Mais au fur et à mesure que les résultats expérimentaux s’accumulaient, l’ordre de cette substance est devenu de plus en plus incertain et sa correspondance avec l’organisation de l’être vivant, de plus en plus vague. Au point qu’aujourd’hui, il ne reste pratiquement plus rien, ni de cet ordre, ni de cette correspondance.

Le cadre théorique de la génétique est ainsi tombé en lambeaux sans que quiconque ait jamais cherché à l’amender ou le remplacer. On a simplement fait disparaître la référence à Schrödinger et, grâce au flou entourant la notion d’information, on a continué à parler de « programme génétique » en s’accrochant, faute de mieux à ce que l’on savait être une formule creuse, bien commode par sa capacité à expliquer n’importe quoi (il suffit de greffer des régulations sur les régulations, comme l’astronomie médiévale empilait les épicycles sur les épicycles). […]

Dans l’incapacité à proposer un nouveau cadre théorique, on lança alors deux grands programmes de recherche : le décryptage des génomes et le génie génétique ; programmes qui ont tous deux la particularité de mettre en suspens les questions théoriques.

Le décryptage des génomes les laisse de côté pour s’intéresser aux difficultés techniques de l’analyse des macromolécules d’ADN. Quant au génie génétique, ce n’est pas, contrairement à ce qu’on pourrait croire, l’application de théories génétiques à l’industrie, l’agriculture et la médecine, mais la transformation de méthodes de laboratoire (notamment celles de la transgenèse) en procédés industriels, agricoles ou médicaux. La principale difficulté étant que ces procédés ont des exigences de rendement, de rentabilité et de sécurité qui n’ont rien à voir avec celles des laboratoires. Soit, ici encore, un abandon des questions théoriques, et un recentrage sur les problèmes techniques.

André Pichot, Mémoire pour rectifier les jugements
du public sur la révolution biologique, 2003.

Dit encore plus crûment : la biologie moderne ne sait pas ce qu’est un être vivant, et l’idée de « programme génétique » lui a surtout servi à continuer à faire comme si c’était une machine. Et en l’occurrence, une machine semblable à celles qui sont les plus prestigieuses, les plus modernes et les plus perfectionnées de l’après Seconde Guerre Mondiale, à savoir les ordinateurs.

L’insistance des biologistes sur l’ADN comme centre de commande de la cellule vient en partie de la méthode des sciences, qui recherche avant tout des éléments stables, calculables et prévisible et qui a beaucoup de mal à appréhender les éléments dynamiques, qualitatifs et chaotiques tels le métabolisme. Mais l’idée de programme génétique vient aussi d’une projection de l’ordre social sur l’ordre biologique (qui sert en retour à justifier le premier par le second) : une machine est dirigée par un centre de commande et ses rouages ne font qu’exécuter les ordres ; cette organisation hiérarchique rappelle furieusement celle de l’État, de l’Armée, des entreprises, des usines, etc. ; elle est issue en droite ligne de la société divisée en classes, entre les dirigeants et la piétaille des dirigés…

Képès n’en parle pas, parce qu’il sait que l’idée est périmée et par trop simpliste. Pourtant, un spectre hante bel et bien la biologie de synthèse, et c’est le spectre du « programme génétique ». Le programme génétique n’existe pas, mais la biologie de synthèse a pour ambition de l’incarner, de lui donner corps et réalité en dépit du vivant : il s’agit pour elle de mettre les êtres vivants en conformité avec la théorie.

« Aujourd’hui plus que jamais, la conception de l’être vivant comme machine est indissolublement liée au fait que nous vivons dans une société capitaliste et industrielle : elle reflète ce que les instances qui dominent la société voudraient que le vivant soit, afin de pouvoir en faire ce que bon leur semble. » [15]

La fuite en avant éthique et responsable

Vers la fin de son article, François Képès nous fait miroiter le « potentiel économique considérable » des « applications industrielles » de la biologie de synthèse. Mais en chercheur responsaâable, il termine sur le petit couplet habituel :

« En ouvrant toutes ces possibilités, la biologie de synthèse renouvelle les questions éthiques concernant la responsabilité des hommes à “artificialiser” le vivant. Jusqu’à quel point voulons-nous modifier ou recréer le vivant ? Quelle gouvernance de la biologie de synthèse adopter pour qu’elle corresponde bien à nos attentes ? Il est indispensable que ces questions soient dès maintenant continûment débattues. » (PLS)

De qui parle donc François Képès ? qui sont ces « hommes » responsables de « l’artificialisation » (instrumentalisation ou asservissement aurait été plus juste, mais moins neutre…) du vivant ? que désigne ce « nous » qui veut « modifier et recréer le vivant » ? qui partage ces « attentes » qui nécessiteraient une « gouvernance » spécifique à la biologie de synthèse ?

François Képès, en bon bonnimenteur roublard, nous fait ici le coup du « nous sommes tous responsables » de ce que seuls quelques uns font et ont décidé sans avoir jamais rien demandé à personne. De nombreux chercheurs travaillent dans la biologie de synthèse, et ils ne tolèreraient pas que l’on restreigne leur « liberté de recherche ». Que cette « liberté » soit commanditée par les financements des États et de leurs Armées, de l’industrie et de la bourse, cela ne les gêne nullement. Car bien sûr, quoi qu’il en soit, « nous sommes tous responsables » de leur désinvolture et de leurs compromissions…

« Soyons sûrs que la biologie de synthèse induira de nouveaux débats et défis, qu’il faudra assumer en toute transparence et en toute bonne foi. Comme toute technologie, elle sera ce que les hommes en feront, elle n’est intrinsèquement ni bénigne ni maligne. » [16]

Voilà une grande découverte de François Képès : la technologie est neutre, tout dépend de l’usage que « les hommes » en font ! Depuis les années 1940, avec la naissance de l’industrie nucléaire, on sait – on devrait savoir – qu’il n’en est rien.

La technologie est une forme particulièrement élaborée de la technique, qui par sa complexité et sa démesure réserve sa mise en œuvre à des corps spécialisés et hiérarchisés, ce qui induit des formes politiques et sociales qui renforcent le pouvoir de l’État et de l’industrie au détriment du pouvoir des « hommes », de la société en son ensemble. Les experts, la bureaucratie, la technocratie et leurs diverses institutions s’en trouvent consolidés ; les questions politiques sont de plus en plus subordonnées à des solutions économiques et techniques ; la démocratie est réduite au simulacre de consultations sur des décisions déjà prises ailleurs,etc.

Souvenons-nous par exemple, comment le Commissariat à l’Énergie Atomique (CEA) fut conçu comme un État dans l’État dès 1945 par un général de Gaulle soucieux d’obtenir la Bombe atomique. Comment la France fut nucléarisée durant les années 1970 et 1980 à coup de matraque envers toutes les oppositions populaires qui se sont manifestées autour de chaque site. Comment les gouvernements successifs ont entérinés les choix faits par les technocrates de l’atome, pour l’essentiel issus de Polytechnique et de l’École des Mines. Et comment aujourd’hui, la Commission Nationale du Débat Public (CNDP) sur le projet Cigéo (enfouissement des déchets nucléaires à 500 m de profondeur) à Bure fait semblant de ne pas entendre les opposants qui ont perturbés et empêchés la tenue de ses « débats »…

En vous souvenant que le plutonium (3 kg par an dans chacun des réacteurs nucléaire) a une « demi-vie » (perd la moitié de sa radioactivité) de 24 000 ans (les plus anciennes traces de civilisation remontent à 10 000 ans), que c’est un élément chimique des plus toxique qui soit et un radionucléide des plus dangereux, essayez de prononcer sans vous étrangler de rire la phrase suivante :

« Comme toute technologie, l’industrie nucléaire sera ce que les hommes en feront, elle n’est intrinsèquement ni bénigne ni maligne. »

Pour ignorer tout cela, pour avoir une réflexion aussi pauvre sur la technologie et être à ce point aveugle à ses conséquences sur la société, François Képès doit débarquer de la planète Kripton ; à moins qu’il ne faille mettre en doute sa « bonne foi »…

Pierre-Benoît Joly, directeur de Institut Francilien Recherche, Innovation et Société (IFRIS), bien qu’acceptologue notoire [17], ne prend pas, lui, ses lecteurs pour des imbéciles :

« La puissance des groupes des biotech – qui sont les véritables acteurs de ces transformations – pose un problème de légitimité. Ne pouvant se prévaloir d’une légitimité de type démocratique, la légitimité de ces groupes découle des résultats qu’ils produisent, ce qui conduit à mettre la focale sur la contribution de leurs activités du point de vue de la rationalité économique. L’idéologie du progrès ayant fait long feu, ces groupes se prévalent de la sound science et du développement durable. » [18]

Traduit en bon français, cela signifie que les industriels (« les hommes » ?) tentent de faire passer leur recherche du profit pour des œuvres philanthropiques. Souvenez-vous, les OGM de Monsanto allaient éradiquer la faim dans le monde, etc. Aujourd’hui, la production par une bactérie génétiquement modifiée de l’artémisinine, la principale molécule du traitement contre le paludisme (malaria en anglais), joue le même rôle dans l’acceptabilité de la biologie de synthèse :

« La production issue d’une ou deux unités industrielles d’artémisinine pourrait suffire à produire autant que des milliers d’agriculteurs qu’on avait encouragés à produire de l’armoise annuelle ; l’impact sur les ressources de ces agriculteurs pourrait être considérable. […]

Un argumentaire en apparence inattaquable (“il n’y a pas assez de médicament”) ; la collusion entre des scientifiques-entrepreneurs (Jay Keasling) qui innovent dans leurs universités mais brevettent leurs innovations via leurs start-up (Amyris), puis cèdent des licences d’exploitation à des groupes multinationaux (Sanofi) ; le risque de captage par une multinationale – déjà dominante sur le marché mondial – de profits générés par des ressources génétiques naturellement disponibles… Autant d’éléments rencontrés de façon récurrente dans le contexte de la biologie synthétique. »

Catherine Bourgain et Kévin Jean, “L’artémisinine : emblème du meilleur des mondes de la biologie de synthèse”, fiche rédigée pour la Fondation Sciences Citoyennes, 13 octobre 2013.

Nous voyons donc déjà ici ce que « les hommes » font de la biologie de synthèse : ce n’est qu’une nouvelle forme de l’accaparement des ressources naturellement disponibles, de la privatisation du vivant et de la captation de son activité autonome au profit du capitalisme industriel.

François Képès, qui fait semblant de ne pas savoir dans quel monde il vit, est bien évidement très soucieux d’« éthique », cette fausse conscience de la domination. Il déclarait dans une interview :

« Pour être acceptée par la société, la biologie de synthèse doit être démystifiée. Les débats relatifs à des progrès techniques peuvent tourner court, comme on a pu le voir dans le cas des nanotechnologies. Pour ne pas reproduire les mêmes erreurs, il est nécessaire de consacrer un temps aux questions éthiques et sociétales lors de chaque conférence, et de convier les organisations non-gouvernementales au débat. »

Industrie & Technologie, “Il faut démystifier la biologie de synthèse”, 1er février 2012.

François Képès, qui a collaboré aux auditions publiques de l’Office Parlementaire d’Évaluation des Choix Scientifiques et Technologiques (OPECST) sur la biologie de synthèse, le sait bien : pour faire accepter, il faut faire participer [19].

Il faut dès maintenant débattre continûment de notre responsabilité et de nos attentes collectives envers la biologie de synthèse… afin de surtout ne jamais rien conclure. Et pendant que les confusionnistes font leur travail, que la conscience régresse en s’enlisant dans la contre-expertise et l’évaluation coûts/bénéfice au cas pas cas des applications, la recherche peut progresser et les pouvoirs publics et les investisseurs être rassurés.

Car, en fin de compte, le principe qui sous-tend ces débats reste celui déjà appliqué par d’autres entreprises industrielles qui ont fait la preuve de leur nocivité à tous les points de vue :

« Voici donc confirmé ce que la catastrophe de Tchernobyl avait déjà permis d’établir : tous les risques sont acceptables quand on fait en sorte de ne pas laisser à ceux qui les prennent la possibilité de les refuser. »

Thierry Ribault, “Le désastre de Fukushima et les sept principes du national-nucléarisme”, revue Raison Présente n°189, 2014.

Car un spectre hante les débats publics sur les technosciences et les nécrotechnologies ; le spectre du sabotage des expérimentations OGM et du débat public sur les nanotechnologies en 2010. Soit le spectre du refus radical.

Les scientistes et leurs mercenaires ne craignent rien tant que des gens se dressent et affirment haut et fort :

« Nous ne voulons pas de vos belles saloperies ! »

La mystique de la biologie de synthèse

« Il faut dé-mys-ti-fier », nous disent tous les mystificateurs de la biologie de synthèse. Mais qui dément et ridiculise les Craig Vantardises [20] des promoteurs de la biologie de synthèse ? Pas nos ardents « démystificateurs », car eux aussi veulent en croquer…

Eh bien, nous nous vantons de faire ici ce travail de démystification, mais cette fois à leurs dépends : nous avons montré – et montrerons mieux encore par la suite – l’inanité de leur conception du vivant, l’inconsistance de leur pensée, la veulerie de leurs compromissions et la bassesse de leurs petits arrangements avec le pire – toutes les lamentables réalités qu’ils voudraient que nous partagions avec eux pour accepter la biologie de synthèse et le monde qui va avec

Peu importe, donc, que les ambitions de la biologie de synthèse se concrétisent ou pas. Ce qui compte, à nos yeux, c’est avant tout que ces ambitions soient affirmées et soutenues par nombre de chercheurs, que d’autres, ou les mêmes, collaborent à leur « acceptabilité sociale » et à neutraliser toute critique et opposition radicales. Ces ambitions sont là, et elles signifient une conception de la vie et un projet politique et social en radicale rupture avec tout ce qui s’est fait depuis des millénaires.

Cela s’appelle le transhumanisme, c’est-à-dire la fusion de l’homme avec des machines. La réalisation de cette idéologie scientifique commence avec la réduction du vivant à la machine, et donc avec la biologie de synthèse. Quelques uns s’en défendent (par exemple, l’association La Paillasse), car la connexion est par trop sulfureuse avec le scientisme le plus fanatique. Mais cela ne change rien à l’affaire.

L’ambition reste, qui est de nous délivrer – au sens religieux du terme, en référence à la conception du salut comme dépassement radical des maux liés à la condition humaine sur Terre [21] – de la peine d’avoir à faire les choses par et pour nous-mêmes en les confiants aux bons soins de la Mégamachine capitaliste et industrielle…

Machines qui travaillez pour nous,
que vos produits soient sanctifiés,
que votre Règne arrive,
que vos Nécessités soient accomplies,
sur la Terre comme au Cyberespace.
Donnez-nous aujourd’hui notre steak
in vitro quotidien,
Pardonnez-nous nos insuffisances
Comme nous pardonnons aussi à ceux qui gèrent les nuisances,
Ne nous soumettez pas a la dépendance envers l’Autre
Mais délivrez-nous de la Nature.
Car c’est à Vous qu’appartiennent
le règne, la puissance et la gloire
pour les siècles des siècles.

Amen !

Liberté et autonomie

Le rapport au vivant actuel est avant tout technologique et machinique : il vise à l’instrumentalisation, la domination, l’exploitation des êtres vivants – et des êtres humains avec eux – et à leur aliénation au rythme et aux impératifs des machines par l’appareil capitaliste et industriel. Sous prétexte de nous rendre « comme maîtres et possesseurs de la nature », cette machinerie est en train de détruire partout les conditions de l’autonomie et de la liberté des vivants : c’est cela, et rien d’autre, qui engendre les nuisances et les dépossessions auxquelles la biologie de synthèse et d’autres nécrotechnologies prétendent remédier.

Un autre rapport au vivant est à inventer à partir de ce qui a déjà été pratiqué et expérimenté spontanément par les éleveurs, les paysans et les artisans de part le passé. Il passe avant tout par la reconnaissance et le respect de la spécificité du vivant, de son autonomie comme condition de notre liberté.

Mais cela signifie qu’il faut renoncer à cette prétendue « maîtrise du vivant » pour développer une coopération avec les êtres vivants, accepter de composer avec leur caractère incertain et changeant, etc. ; renoncer à tout déléguer aux machines pour se colleter avec la « matérialité un peu crasse » des êtres vivant, accepter d’impliquer son propre corps dans un effort, dans une confrontation sensible avec le travail de la matière, de la vie et d’autrui [22].

Bref, revenir exercer soi-même une activité vivante dans la réalité plutôt que de continuer à développer les médiations technologiques qui la mettent de plus en plus à distance. Soit revenir en arrière [23] pour sortir de l’impasse industrielle afin de pouvoir expérimenter et développer de nouvelles formes de vie sociale et d’organisation politiques dans diverses directions.

Quel État, quels groupes industriels, quels investisseurs accepteraient de financer une telle recherche qui ne déboucherait pas sur des perspectives de production de marchandises et de conquête de parts de marchés, c’est-à-dire sur de nouvelles dépossessions des conditions de notre existence ?

Chers scientifiques, si attachés à votre « liberté de recherche » au point de collaborer à « l’acceptabilité sociale » des nécrotechnologies, irez-vous vous aventurer dans de telles contrées sauvages et inexplorées ?

Nombre d’entre vous, comme ce François Képès, rationalisateur des machines vivantes, sont de pondérés fanatiques de l’aliénation et de gentils collaborateurs du despotisme industriel qui se font bénévolement les promoteurs de la fuite en avant éthique et responsable…

On nous permettra donc de douter qu’il puisse encore sortir quelque chose de bon et d’utile pour l’humanité de la « communauté scientifique ».

La vie est ailleurs.

Andréas Sniadecki, octobre 2014.

.

Visualiser l’article complet :

François Képès, rationalisateur des machines vivantes

.


Notes:

[1] Pour la science n°440, juin 2014. Ce dossier est constitué de trois articles. Les citations issues de l’article de François Képès sont référencées : (PLS).

[2] « François Képès est directeur de recherche à l’institut de Biologie des Systèmes et de Synthèse (ISSB, Genopole, UEVE, CNRS) et directeur du Programme d’épigénomique à Genopole, à Évry. Il est professeur invité permanent au Collège impérial de Londres. ».

Il est également l’auteur de la brochure de 64 pages, qui fait dans la vulgarisation assez vulgaire, La biologie de synthèse plus forte que la nature ? éd. Le Pommier, 2011. Son article de Pour la science reprend et complète cette brochure sur certains points.

[3] Avant de devenir ministre de la Recherche et de l’Enseignement Supérieur dans le gouvernement de François Hollande. Voir son portrait au vitriol en tant que députée et adjointe à la Ville de Grenoble “Geneviève Fioraso™, l’élue augmentée” dans Le Postillon, journal de Grenoble et de sa cuvette n°14, février-mars 2012.

[4] C’est le titre d’un chapitre de ce rapport, réalisé à partir d’auditions publiques organisées par l’Office Parlementaire d’Évaluation des Choix Scientifiques et Technologiques (OPECST) le 4 mai 2012. Document en deux volumes disponible sur Internet.

[5] Comme peuvent l’être le débit de l’eau d’une rivière, le vent ou les animaux pour les moulins ; cf., Chris de Decker, “Des fabriques mues par le vent: histoire (et avenir) des moulins à vent”, Low-Tech Magazine, octobre 2009.

[6] Production de masse qui implique aussi, à l’intérieur de l’usine, une discipline du travail qui plie la main d’œuvre au rythme des machines, ne l’oublions pas.

[7] Jean-Louis Peaucelle, “Du concept d’interchangeabilité à sa réalisation, le fusil des XVIIIe et XIXe siècles”, revue Gérer et comprendre n°80, Juin 2005 (article disponible sur Internet).

[8] Ken Adler, “L’amnésie des armuriers français, comment une innovation technologique majeure peut-elle tomber dans l’oubli ?”, magazine La Recherche n°308, avril 1998. Les citations qui suivent sont issues de cet article.

[9] Ce qui est déjà le cas depuis des millénaires dans la transformation de nombreux aliments par l’homme : pain, fromage, bière, etc.

[10] Pour une réponse à ces questions, voir : Bertrand Louart, Le vivant, la machine et l’homme, le diagnostic historique de la biologie moderne par André Pichot et ses perspectives pour la critique de la société industrielle, 2013 (64 p.). Brochure disponible sur demande et sur Internet.

[11] On ne peut pas raisonnablement qualifier de biologistes ces “scientifiques” qui se présentent souvent eux-mêmes comme des techniciens ou des ingénieurs du vivant.

[12] Markus Covert, “Simuler une cellule vivante”, Pour la science n°440, juin 2014.

[13] Gérard Nissim Amzallag, La raison malmenée, de l’origine des idées reçues en biologie moderne, CNRS éditions, 2002.

[14] Voir son ultime ouvrage, recueil d’affirmations péremptoires : Après Darwin, la biologie une science pas comme les autres, éd. Dunod, 2006.

[15] Bertrand Louart, Le vivant, la machine et l’homme, le diagnostic historique de la biologie moderne par André Pichot et ses perspectives pour la critique de la société industrielle, 2013 (64 p.).

[16] François Képès, La biologie de synthèse plus forte que la nature ?, éd. Le Pommier, 2011.

[17] C’est-à-dire travaillant à « l’acceptabilité sociale » de la biologie de synthèse : voir Pieces et main d’œuvre, “La biologie de synthèse vue de l’intérieur”, Aujourd’hui le nanomonde n°19, 2012.

[18] Pierre-Benoît Joly, “Innovation « responsable » et développement durable – Produire la légitimité des OGM et de leur monde”, Futuribles n°383, mars 2012. La sound science désigne des études scientifiques financées par l’industrie afin de soutenir ses intérêts.

[19] Le troisième article du dossier consacré à la biologie de synthèse est sur ce thème : Pierre-Benoît Joly et Benjamin Raimbault, “Biologie de synthèse et sciences sociales, un dialogue difficile”, Pour la science n°440, juin 2014. Dans le résumé de l’article, on peut lire : « Les sciences sociales ont un rôle à jouer, mais celui-ci n’est ni de vaincre la contestation ni d’être le porte-parole de la société ». Faisons semblant de rester neutres et objectifs, quoi qu’il arrive…

[20] J. Craig Venter, Life at the Speed of Light, 2013 ; trad. fr. Le vivant sur mesure, de la double hélice à l’aube de la vie numérique, éd. JC Lattès, 2014.

[21] Aurélien Berlan, Autonomie et délivrance. Repenser l’émancipation à l’ère des dominations impersonnelles, Intervention au IIe colloque international “Penser l’émancipation”, à l’Université Paris-Ouest Nanterre, du 19 au 22 février 2014.

[22] Voir Jocelyn Porcher, Vivre avec les animaux, une utopie pour le XXIe siècle, éd. La Découverte, 2011.

[23] Voir Lewis Mumford, “Techniques autoritaires et techniques démocratiques”, 1963 ; in “Orwell et Mumford, la mesure de l’homme”, Notes & Morceaux choisis, Bulletin critique des sciences, des technologies et de la société industrielle n°11, éd. La Lenteur, 2014.

Laisser un commentaire