Accueil > Bombe Atomique > John von Neumann, Pourrons-nous survivre à la technologie ?, 1955

John von Neumann, Pourrons-nous survivre à la technologie ?, 1955

En 1955, deux ans avant de crever d’un cancer des os, l’abominable scientifique John von Neumann (1903-1957), écrivit un article pour la revue Fortune, intitulé “Pourrons-nous survivre à la technologie ?”. C’était poser la question à l’un des pires ennemis de l’humanité que le Livre Noir de la Science ait connu, et l’un des mieux à même d’y répondre.

Son collègue Richard Feynman, précurseur des nanotechnologies, l’évoquait ainsi, à propos des beaux jours passés ensemble à Los Alamos alors qu’ils participaient au projet Manhattan, à la réalisation de la bombe atomique :

« Et puis, j’ai connu von Neumann, le célèbre mathématicien. […] Je dois à von Neumann d’avoir compris que nous n’avons pas à nous sentir responsables du monde dans lequel nous vivons. Depuis lors, je n’ai cessé de me sentir “socialement irresponsable”, et je me suis toujours bien porté. Cette irresponsabilité active qui est la mienne est née de ces conseils que von Neumann me donnait lors de nos promenades. »

Que John von Neumann, juif hongrois né Janos Lajos Neumann en 1903, naturalisé américain en 1937, ait combattu l’Allemagne nazie et l’Union soviétique sur le front militaro-scientifique, cela va de soi. Il fit ce que faisaient ses collègues, dans tous les camps ; quitte à en changer quand on ne leur donnait plus les moyens de leurs passionnantes recherches. Von Neumann y apporta cependant un génie démoniaque et une insouciance allègre, de l’ordre de l’instinct de mort tel que décrit par Freud dans Malaise dans la civilisation. Ce n’est pas rien que d’être considéré à la fois comme « le père » de la bombe H, de la « théorie des jeux », de l’architecture des ordinateurs et même, de la « singularité technologique ». C’est-à-dire de cette théorie du développement exponentiel des technologies et du dépassement de l’homme par les « machines intelligentes ».

Seule la perspective de sa propre fin, due au cancer contracté lors des essais nucléaires de Bikini, semble l’avoir rendu un rien méditatif. On reste cependant pantois, comme chaque fois qu’on lit les tentatives de réflexion d’un scientifique, fût-il un génie, de la bêtise, toute pragmatique et technique, des propos tenus. A cet étonnement, se mêle de l’effroi. Au bord de l’extinction où « la technologie » – c’est-à-dire von Neumann et ses pareils – a mené l’humanité, suivant ses propres dires, il ne voit qu’une solution de survie. Davantage de technologie. Des technologies mégalomaniaques développant le nucléaire, l’automation, la géoingénierie, et imposant la paix par la crainte de la destruction mutuelle. Ce programme, à peu près suivi depuis 1955, nous a rapprochés plus que jamais de cette destruction redoutée. Ne l’oublions jamais quand nos États, les medias et leurs marionnettes nous enjoignent – notamment à l’occasion de la 28e Fête de la science en ce mois d’octobre 2019 – d’ « écouter les scientifiques ! … d’écouter la science ! », afin d’échapper aux diverses catastrophes technoscientifiques convergeant sur nos têtes.

Pièces et main d’œuvre, le 1er octobre 2019.

Traduit par Annie Gouilleux.

 

 


John von Neumann

Membre du Commissariat à l’énergie nucléaire

Pourrons-nous survivre à la technologie ?

Compte tenu des risques auxquels l’homme réussira à s’exposer dès 1980, le globe est dangereusement étroit et ses institutions politiques dangereusement instables.

 

« Le grand globe » lui-même traverse une crise qui arrive rapidement à maturité et que l’on peut attribuer au fait que le progrès technologique doit s’accomplir dans un environnement à la fois sous-dimensionné et sous-organisé. Pour cerner cette crise avec quelque précision et explorer les possibilités de la résoudre, il ne suffira pas d’examiner les faits pertinents, il faudra également se livrer à quelques conjectures. Cela nous permettra d’éclairer quelques évolutions technologiques possibles pour le prochain quart de siècle.

Pendant la première moitié de ce siècle, le rythme rapide de la révolution industrielle s’est heurté à une limite absolue, qui n’était pas celle du progrès technique en tant que tel, mais celle d’un facteur de sécurité fondamental. Ce facteur de sécurité, qui avait permis l’avance de la révolution industrielle entre le milieu du XVIIIe siècle et le début du XXe siècle, était essentiellement une question de Lebensraum [d’espace vital] géographique et politique, c’est-à-dire une portée géographique toujours plus étendue de l’activité technique, associée à une intégration politique du monde toujours plus large. Au sein de ce cadre en expansion, on pouvait s’adapter aux tensions importantes qu’engendrait le progrès technique.

Or ce mécanisme de sécurité est brusquement en train de s’enrayer. Au sens littéral comme au sens figuré, l’espace vient à nous manquer. Nous commençons enfin à ressentir de façon urgente les effets de la taille réelle, finie, de la terre.

Ainsi cette crise ne découle ni d’évènements accidentels ni d’erreurs humaines. Elle est inhérente au rapport de la technique à la géographie d’une part, et à l’organisation politique de l’autre. Au cours les années 1940, il était évident que la crise prenait de l’ampleur et on peut en faire remonter certaines phases à 1914. Pendant les années qui nous séparent de 1980, la crise évoluera probablement bien au-delà de ce que nous avons connu antérieurement. Personne ne peut dire quand et comment elle se terminera – ni dans quelle situation elle nous laissera.

Dangers actuels et à venir

Chaque étape de la révolution industrielle a consisté à fournir plus d’énergie à un moindre coût, à permettre de contrôler mieux et plus facilement les actions et les réactions humaines, ainsi qu’à accroître et à accélérer les communications. Chacune de ces évolutions rendait les deux autres plus efficaces. Ensemble, ces trois facteurs ont accéléré l’exécution des opérations à grande échelle – industrielles, politiques, et migratoires. Mais pendant toute la durée de l’évolution, l’accélération n’a pas tant servi à raccourcir la durée exigée par les processus qu’à étendre les territoires sur lesquels ils agissaient. La raison en est simple. Puisque la plupart des échelles temporelles sont fixées par rapport aux temps de réaction, aux habitudes, et à d’autres facteurs physiologiques et psychologiques humains, l’accélération des processus technologiques a eu pour effet d’augmenter la taille des entités concernées par leurs opérations – entités politiques, organisationnelles, économiques et culturelles. C’est-à-dire qu’au lieu d’effectuer les mêmes opérations qu’auparavant en moins de temps, les opérations à grande échelle exigeaient désormais la même durée. Cette importante évolution s’est heurtée à une limite naturelle, celle de la taille de la terre. Nous avons maintenant atteint cette limite ou, du moins nous nous en approchons beaucoup.

Cela s’est manifesté précocement, fortement et spectaculairement dans le domaine militaire. Dès 1940, même les plus grands pays d’Europe occidentale et continentale n’étaient plus des entités militaires adéquates. Seule la Russie a pu subir un revers militaire conséquent sans s’écrouler. Depuis 1945, les seuls progrès dans le domaine de l’aéronautique et des communications auraient pu rendre toute entité géographique, y compris la Russie, incapable de soutenir une guerre. L’avènement de l’armement nucléaire ne fait que couronner cette évolution. Les armes offensives sont désormais si efficaces qu’elles ôtent tout crédit aux échelles temporelles défensives. Dès la première guerre mondiale, on observa que l’amiral qui commandait la flotte de guerre pouvait « perdre l’Empire britannique en une après-midi ». Pourtant à cette époque, les forces navales étaient des entités relativement stables, assez peu exposées à des surprises d’ordre technique. De nos jours, nous avons toutes les raisons de craindre que même des innovations mineures et des subterfuges dans le domaine de l’armement nucléaire puissent être décisifs en moins de temps qu’il n’en faut pour élaborer des contremesures spécifiques. Bientôt les nations existantes seront aussi instables en temps de guerre que l’aurait été une nation de la taille de la presqu’île de Manhattan dans un conflit utilisant les armes de 1900.

Cette instabilité militaire a déjà trouvé une expression politique. Deux superpuissances, les États-Unis et l’URSS, possèdent des moyens de destruction si énormes qu’il y a peu de chances d’atteindre un équilibre purement passif. D’autres pays, y compris ceux qui pourraient être « neutres », sont incapables de se défendre militairement, au sens habituel du terme. Au mieux, ils se procureront leurs propres moyens de destruction, comme le fait la Grande Bretagne. Par conséquent, le « concert des puissances » – ou l’organisation internationale équivalente – repose sur une base plus fragile que jamais. La situation est d’autant plus confuse que les nouveaux nationalismes non européens viennent de parvenir à l’existence politique.

« Normalement » – c’est-à-dire au cours de ces derniers siècles – tout cela aurait débouché sur une guerre. Y aura-t-il une guerre avant 1980 ? Ou tout de suite après ? Il serait présomptueux de répondre à cette question de manière péremptoire. En tout cas, le présent et l’avenir sont tous deux dangereux. Si dans l’immédiat il s’agit de faire face au danger tel qu’il se présente, il est également vital d’envisager l’évolution de ce problème au cours de la période 1955-80, même en supposant que tout se passe aussi bien que possible dans l’immédiat. Il ne s’agit pas de minimiser les problèmes actuels d’armement, de tension entre les États-Unis et l’URSS, ou d’évolution des révolutions asiatiques. Ce sont des problèmes prioritaires. Mais nous devons nous préparer à la suite, de crainte que nos éventuels succès du moment ne s’avèrent futiles. Notre réflexion doit dépasser les problèmes immédiats pour envisager la forme qu’ils pourraient prendre au cours des décennies ultérieures.

Quand les réacteurs seront grands

L’évolution technologique est encore en phase d’accélération. Directement ou indirectement, les technologies sont toujours constructives et bénéfiques. Mais leurs conséquences tendent à accroître l’instabilité, ce que nous examinerons de plus près après avoir étudié certains aspects de l’évolution technologique en cours.

Voyons d’abord l’approvisionnement énergétique en expansion rapide. On s’accorde généralement sur le fait qu’au cours des deux prochaines décennies, nous disposerons d’une quantité accrue de combustibles conventionnels tels le charbon ou le pétrole. La demande croissante tend à maintenir leur prix à un niveau élevé, mais des progrès dans les méthodes de production semblent faire baisser le prix de l’énergie. Dans le domaine de l’énergie, il est certain que l’avènement de l’énergie nucléaire est l’évènement le plus décisif. La seule source contrôlée de cette énergie dont on dispose actuellement est le réacteur à fission nucléaire. Aux Etats-Unis, les techniques de réaction nucléaire semblent proches d’être en mesure de concurrencer les sources d’énergie conventionnelles (chimiques). Cependant, en raison des prix généralement élevés du combustible à l’étranger, elles pourraient déjà être compétitives dans nombre de pays étrangers importants. La technique de réaction nucléaire n’a pourtant que dix ans et demi, pendant lesquels l’essentiel des efforts a principalement porté non sur l’énergie mais sur la production de plutonium. Accordons-leur dix ans d’effort industriel à grande échelle, et les spécificités économiques des réacteurs nucléaires seront sans aucun doute très supérieures à celles des réacteurs actuels.

En outre, il n’existe pas de loi naturelle qui impose de lier toute libération contrôlée d’énergie nucléaire à des réactions de fission, comme cela a été le cas jusqu’à présent. Il est vrai que l’énergie nucléaire semble être la source primaire de toute l’énergie actuellement visible dans la nature. Par ailleurs, il n’est pas surprenant qu’une première percée dans le domaine intranucléaire ait eu lieu à la « limite supérieure » instable du système de noyaux (c’est-à-dire par fission). Mais la fission n’est pas le moyen normal par lequel la nature relâche l’énergie nucléaire. À long terme, l’exploitation industrielle systématique de l’énergie pourrait faire évoluer cette dépendance vers d’autres modes d’énergie encore plus abondants. D’ailleurs, les réacteurs ont jusqu’à présent été limités au cycle traditionnel chaleur-vapeur-générateur-électricité, tout comme les automobiles furent d’abord construites sur le modèle des buggys. Nous élaborerons probablement peu à peu des procédures plus naturellement et plus efficacement adaptées à cette nouvelle source d’énergie, et abandonnerons les aberrations et les déviations conventionnelles héritées des processus alliant la chimie et la combustion. Par conséquent, l’énergie pourrait être gratuite d’ici quelques décennies – exactement comme l’air que nous respirons – nous utiliserions le charbon et le pétrole principalement comme matières premières destinées à la synthèse de chimie organique à la quelle leurs propriétés sont le mieux adaptées, comme l’expérience l’a prouvé.

« Alchimie » et automation

Il n’est pas inutile d’insister sur le fait que l’on aura avant tout tendance à explorer systématiquement les réactions nucléaires – il s’agira donc de la transmutation des éléments, d’alchimie plutôt que de chimie. Le développement de l’usage industriel des processus nucléaires aura pour but principal de les adapter à l’exploitation à grande échelle sur le site relativement exigu qu’est la terre ou, plus exactement, à toute installation industrielle réalisable sur terre. Bien entendu, la nature engage depuis toujours des processus nucléaires, elle le fait bien et en quantités astronomiques, mais les sites « naturels » de son industrie occupent des étoiles toutes entières. Nous avons des raisons de croire que sa façon d’opérer exige au minimum l’espace d’une étoile. À cet égard, les limites de notre foncier nous contraignent à faire beaucoup mieux que la nature. L’exemple quelque peu extrême et surnaturel de la fission, cette percée remarquable de la dernière décennie, a démontré que cela pourrait ne pas être impossible.

Il est difficile d’imaginer quels seront les effets de la transmutation massive des éléments sur la technologie en général, mais ils seront de fait radicaux. On peut déjà le pressentir dans des domaines proches. Il ne faut pas voir un exemple typique de ce que représente la révolution nucléaire dans la révolution générale qui est clairement en marche dans la sphère militaire et dans sa spécificité effective, à savoir son terrible potentiel de destruction de masse. Et pourtant, elle pourrait bien être représentative de la profondeur des transformations que produira cette révolution dans tout ce qu’elle touchera. Et elle touchera probablement la plupart des technologies.

En dehors de toute évolution nucléaire, l’automation va probablement évoluer rapidement aussi. On a vu apparaître ces dernières années des analyses intéressantes sur les développements récents et sur les possibilités à court terme dans ce domaine. Certes, le contrôle automatique est aussi vieux que la révolution industrielle, car la caractéristique nouvelle et décisive de la machine à vapeur de Watt fut sa valve de contrôle automatique, qui incluait le contrôle de la vitesse par un « régulateur ». Mais au cours de ce siècle, de petits amplificateurs et interrupteurs donnent à l’automation une tout autre dimension. Cette évolution a commencé avec le relais électromécanique (téléphone), s’est poursuivie et étendue avec le tube cathodique, et paraît s’accélérer grâce à divers dispositifs à l’état solide (cristaux semi-conducteurs, noyaux ferromagnétiques, etc.). Les deux dernières décennies témoignent aussi de notre capacité croissante à contrôler et à « maîtriser » de grandes quantités de ces dispositifs à l’intérieur d’une même machine. Même actuellement, le nombre de tubes cathodiques dans un avion approche ou excède le millier. D’autres machines, contenant jusqu’à 10 000 tubes cathodiques, jusqu’à cinq fois plus de cristaux et peut-être plus de 10 000 noyaux, fonctionnent actuellement sans erreurs pendant de longues périodes, exécutant plusieurs millions d’actions programmées et régulées par seconde, avec une petite marge d’erreurs quotidiennes ou hebdomadaires.

Nombre de ces machines ont été construites pour effectuer des calculs scientifiques et techniques compliqués, de la comptabilité à grande échelle et des enquêtes logistiques. Il ne fait guère de doute qu’on les utilisera pour le contrôle des processus industriels complexes, la logistique, l’économie, et autres prévisions, et pour maintes autres choses auparavant totalement hors de portée de la programmation et du contrôle automatiques et quantitatifs. Grâce à des formes simplifiées de contrôle automatique ou semi-automatique, l’efficacité de certaines branches d’industrie importantes s’est considérablement accrue au cours des décennies récentes. On peut donc s’attendre à ce que les formes plus récentes et considérablement plus élaborées, que l’on peut désormais se procurer de plus en plus facilement, iront encore plus loin dans ce sens.

Dans le domaine du contrôle, les progrès sont essentiellement des améliorations dans la communication de l’information au sein d’une organisation ou d’un mécanisme. Dans ce domaine, l’ensemble des progrès est phénoménal. Quoique moins spectaculaires, les améliorations dans les communications, au sens direct, physique – les transports – sont considérables et réguliers. Si l’évolution du nucléaire nous permet de disposer d’une énergie illimitée, les transports évolueront probablement encore plus rapidement. Mais même « normal », le progrès sur mer, terre et dans les airs est extrêmement important. C’est précisément ce progrès « normal » qui a façonné l’essor économique du monde et donné naissance aux idées de globalisation en politique et en économie.

Un climat sous contrôle

Occupons-nous maintenant d’une industrie totalement « anormale » et de ses perspectives d’avenir – c’est-à-dire d’une industrie qui ne figure actuellement sur aucune liste d’activités importantes : le contrôle du temps météorologique, ou du climat, pour employer un terme plus ambitieux mais plus approprié. L’un des aspects de cette activité jouit d’une grande notoriété : il s’agit de « faire tomber la pluie ». La technique utilisée actuellement suppose la présence d’une épaisse masse nuageuse et provoque les précipitations grâce à de petites quantités d’agents chimiques. S’il est malaisé d’évaluer l’intérêt des efforts entrepris jusqu’ici, certaines preuves semblent indiquer que ce but est à notre portée. Mais le contrôle du temps météorologique et du climat ne se limite pas à faire tomber la pluie. Tous les phénomènes météorologiques importants, ainsi que le climat proprement dit, sont en fin de compte sous le contrôle de l’énergie solaire qui se répand sur la terre. Certes, les hommes n’ont pas le pouvoir de modifier la quantité d’énergie solaire. Ce qui importe vraiment, cependant, n’est pas la quantité qui atteint la terre, mais la fraction que la terre en retient puisque celle qu’elle renvoie dans l’espace n’est pas plus utile que si elle n’était jamais arrivée. Or, la quantité qu’absorbent la terre ferme, les océans ou l’atmosphère, semble soumise à des influences subtiles. Certes, la volonté humaine ne contrôle encore aucune d’entre elles de manière significative, mais tout porte à croire qu’il existe des possibilités de contrôle.

Le dioxyde de carbone relâché dans l’atmosphère par la combustion du charbon et du pétrole – plus de la moitié de ces émissions ont eu lieu au cours de la génération écoulée – pourrait avoir suffisamment altéré la composition de l’atmosphère pour générer un réchauffement général de la planète d’environ un degré Fahrenheit. Le volcan Krakatoa est entré en éruption en 1883 et a relâché une quantité d’énergie qui n’avait rien d’exorbitant. Si la poussière de l’éruption était restée dans la stratosphère pendant quinze ans, renvoyant la lumière du soleil loin de la terre, cela aurait pu suffire à faire baisser la température de la planète de six degrés (en fait, elle est restée en suspension pendant trois ans, et il aurait sans doute fallu cinq éruptions de ce genre pour atteindre le résultat dont je viens de parler). Il se serait agi d’un refroidissement notable. Le dernier âge de glace, alors que la moitié du continent nord-américain et l’intégralité de l’Europe du Nord et de l’Ouest étaient recouverts d’une calotte glaciaire semblable à celle du Groenland ou de l’Antarctique, n’affichait que quinze degrés de moins qu’actuellement. D’autre part, un réchauffement de quinze degrés ferait probablement fondre la calotte glaciaire du Groenland et de l’Antarctique, et instaurerait un climat semi-tropical dans le monde entier.

« Des effets plutôt sensationnels »

En outre, nous savons que la persistance de vastes calottes glaciaires tient au fait que la glace réfléchit l’énergie solaire tout en dégageant de l’énergie terrestre encore plus rapidement que les sols ordinaires. Répandues sur une surface glacée, ou dans l’atmosphère au-dessus d’elle, des couches microscopiques de matière colorée pourraient inhiber le processus de réflexion-radiation, faire fondre la glace et modifier le climat alentour. Les mesures qui permettraient ce genre de transformation sont techniquement réalisables, et les investissements requis n’excèderaient pas ceux qui ont suffi au développement des systèmes ferroviaires et d’autres industries importantes. La difficulté principale réside dans la prévision détaillée des effets induits par ce genre d’intervention radicale. Mais notre connaissance de la dynamique des processus de contrôle dans l’atmosphère atteint rapidement un niveau qui nous permettrait de faire ce genre de prédiction. Nous interviendrons probablement sur l’atmosphère et le climat dans quelques décennies, et cela se produira à une échelle difficile à imaginer actuellement.

Bien entendu, ce qu’on pourrait faire ne dit rien de ce qu’on devrait faire. Provoquer un nouvel âge de glace pour contrarier les autres, ou un nouvel âge tropical « interglaciaire » pour faire plaisir à tout le monde, ne constitue pas nécessairement un programme rationnel. Il serait en fait très compliqué d’évaluer les conséquences ultimes d’un refroidissement ou d’un réchauffement général. Ces changements affecteraient le niveau des océans, et donc l’habitabilité des plateformes côtières des continents ; l’évaporation des océans et donc les niveaux mondiaux de précipitations et de glaciation, et ainsi de suite. Il n’est pas spontanément évident de savoir ce qui serait bénéfique ou nuisible – ni dans quelle région du monde. Mais il n’est guère douteux que l’on pourrait effectuer les analyses nécessaires pour prévoir certaines conséquences, intervenir à toute échelle désirable, et finalement obtenir des effets assez sensationnels. Le climat et le niveau des précipitations de régions particulières pourraient être modifiés. Par exemple, les perturbations temporaires – y compris les invasions d’air froid (polaire) qui constituent l’hiver normal sous les latitudes moyennes, et les orages tropicaux (ouragans) – pourraient être corrigées ou au moins atténuées.

Il n’est pas nécessaire d’exposer en détail ce que cela signifierait pour l’agriculture ou, en vérité, pour tous les aspects de l’écologie humaine, animale et végétale. Quel pouvoir sur notre environnement et sur la nature toute entière cela implique !

Ce genre d’actions aurait une portée plus directement et plus véritablement mondiale que les guerres récentes ou même probablement futures, ou que l’économie à n’importe quelle époque. Une intervention humaine d’envergure affecterait profondément la circulation générale de l’atmosphère, qui dépend de la rotation de la terre et du réchauffement soutenu des tropiques par le soleil. Des mesures prises dans l’Arctique pourraient permettre de contrôler le temps météorologique dans les régions tempérées, ou des mesures prises dans une seule région tempérée pourraient avoir de graves conséquences dans une partie assez éloignée du globe. Plus complètement que la menace d’une guerre, nucléaire ou autre, ne l’a jamais fait, tout ceci fera converger les affaires de chaque État avec celles de tous les autres.

Bons ou mauvais contrôles

Des évolutions telles la gratuité de l’énergie, le développement de l’automation, le progrès des communications, le contrôle partiel ou total du climat possèdent des caractéristiques communes qui méritent qu’on s’y arrête. Premièrement, bien que toutes soient intrinsèquement utiles, elles peuvent s’avérer destructrices. Même les outils nucléaires de destruction les plus redoutables ne sont que des spécimens extrêmes d’un genre qui renferme des méthodes utiles pour relâcher de l’énergie ou transmuer des éléments. Les projets de contrôle du climat les plus constructifs seraient forcément basés sur des idées et des techniques se prêtant également à des formes de guerre climatique que personne n’a encore imaginées. Comme la science, la technologie est intégralement neutre et se contente, quel qu’en soit l’objet, de fournir des moyens de contrôle, tous lui sont indifférents.

Deuxièmement, la plupart de ces évolutions tendent à affecter l’ensemble de la planète ou, pour être plus précis, à produire des effets qui peuvent se propager de n’importe quel endroit à n’importe quel autre. Elles portent en elles un conflit avec la géographie et les institutions auxquelles elle a donné naissance – telles que nous les entendons aujourd’hui. Certes, toute technologie interagit avec la géographie, et chacune d’elles impose ses propres règles et modalités géographiques. La technologie qui se développe actuellement et dominera les prochaines décennies semble totalement conflictuelle avec les concepts et les entités politiques et géographiques traditionnels et, dans l’ensemble, encore valable provisoirement. Voilà en quoi consiste la crise de la technologie qui arrive maintenant à maturité.

Quel genre d’action cette situation exige-t-elle ? Quoi que l’on se sente tenté de faire, il faut tenir compte d’un aspect décisif : ces mêmes techniques qui provoquent du danger et de l’instabilité sont intrinsèquement utiles, ou s’en approchent grandement. En fait, plus elles sont susceptibles d’être utiles, plus leurs effets risquent d’être déstabilisants. Ce n’est pas la capacité destructrice malfaisante d’une invention particulière qui provoque le danger. Puissante et efficace, la technologie est intrinsèquement une réussite ambivalente, elle porte en elle le danger.

Indivisibilité de la science

En cherchant une solution, l’une d’entre elles est à écarter d’emblée car elle est fausse. On ne résoudra pas cette crise en interdisant tel ou tel aspect apparemment nuisible de la technologie. D’une part, les aspects de la technologie, ainsi que les sciences sous-jacentes, sont si entremêlés qu’à long terme, seule l’élimination totale de tout progrès technologique suffirait à en éliminer certains. De plus, sur un plan plus immédiat et plus prosaïque, les techniques utiles et les techniques nuisibles sont partout si proches les unes des autres qu’il n’est jamais possible de distinguer le bon grain de l’ivraie. Tous ceux qui ont si laborieusement tenté de séparer la science ou la technologie (militaire), « classées secret-défense » de la science et de la technologie « ouvertes » le savent bien ; dans ce domaine, le succès est tout au plus éphémère – cinq ans peut-être – et personne ne pense qu’il peut en être autrement. De même, il est probable que la distinction entre sujets utiles et nuisibles dans tous les domaines technologiques s’atténuerait et disparaîtrait en l’espace de dix ans.

En outre, en cas de séparation réussie, il faudrait qu’elle soit durable (contrairement au « secret-défense » militaire, pour lequel gagner ne serait-ce que quelques années peut s’avérer important.) De plus, la proximité des techniques utiles et des techniques nuisibles, et la possibilité d’utiliser les secondes militairement, donnent beaucoup d’importance aux empiètements concurrentiels. C’est donc mondialement qu’il faudrait faire respecter l’interdiction de certaines technologies. Mais la seule autorité capable de le faire efficacement serait si parfaite et aurait une telle portée qu’elle serait le signe de la résolution des problèmes internationaux plutôt que celui de la découverte du moyen de les résoudre.

Enfin, et ceci est de la plus haute importance, je crois qu’interdire la technologie (l’invention et le développement qui sont difficilement séparables de l’enquête scientifique sous-jacente) va à l’encontre de toutes les valeurs de l’âge industriel. C’est inconciliable avec une intellectualité accrue, telle que la comprend notre époque. Il est difficilement imaginable que l’on réussisse à imposer une telle retenue dans le cadre de notre civilisation. Ce n’est que si les désastres que nous redoutons s’étaient déjà produits, si l’humanité avait déjà perdu toutes ses illusions sur la civilisation technologique, qu’il serait possible de prendre ce genre de mesure. Mêmes les dernières guerres désastreuses n’ont pas engendré un tel niveau de désillusion, comme le prouve la résistance phénoménale du mode de vie industriel qui a repris le dessus même – ou particulièrement – dans les régions les plus atteintes. Plus que jamais auparavant sans doute, le système technologique conserve très grande vitalité, et les conseils de retenue ont peu de chances d’être entendus.

La survie – une possibilité

L’élimination de la guerre en tant qu’ « outil de politique nationale » serait une solution beaucoup plus satisfaisante que l’interdiction de la technologie. Le désir d’y parvenir est aussi ancien que le reste du système éthique par lequel nous prétendons être gouvernés. C’est un sentiment dont l’intensité est fluctuante et se renforce à la suite de guerres importantes. Quelle force a-t-il à présent, est-il en hausse ou en baisse ? Pour des raisons évidentes, tant matérielles qu’émotionnelles, il est certainement très fort. Il semble universellement partagé et transcende les différents systèmes politiques, du moins à titre individuel. Pourtant, s’il s’agit d’évaluer sa longévité et son efficacité, une certaine circonspection semble légitime.

On peut difficilement contester les arguments « matériels » contre la guerre, mais les facteurs émotionnels sont sans doute moins stables. Les souvenirs de la guerre de 1939-45 restent vifs, mais il est difficile de prévoir ce qu’il adviendra du sentiment populaire lorsqu’ils s’effaceront. La révulsion ressentie lors de la guerre de 1914-18 n’a pas résisté plus de vingt ans à la pression d’une crise politique grave. Les éléments d’un conflit international à venir sont de toute évidence réunis aujourd’hui, ils sont encore plus nets qu’après 1914-18. On peut douter que, sans contrepartie émotionnelle, des considérations matérielles suffiront à contenir l’espèce humaine dont les antécédents sont médiocres. Certes, les raisons « matérielles » sont plus solides que jamais, car la guerre serait infiniment plus destructrice qu’auparavant. Mais on a eu cette impression à plusieurs reprises dans le passé sans que cela soit décisif. Certes, cette fois le risque de destruction semble plus réel qu’apparent, mais rien ne garantit qu’un danger réel soit mieux en mesure de contrôler les actions humaines qu’une apparence convaincante de danger.

Quels sont les garde-fous qui nous restent ? Apparemment, il ne nous reste que des mesures opportunistes au jour le jour ou – peut-être – d’une année sur l’autre, une longue série de petites décisions judicieuses. Et cela n’a rien de surprenant. Après tout, cette crise est due à la rapidité du progrès, à sa probable accélération, et au fait que certaines de nos relations ont atteint un seuil critique. Plus précisément, nous commençons à produire des effets du même ordre de grandeur que celle du « vaste globe lui-même ». Ils attentent de fait à l’intégrité de la planète. Donc on ne peut plus, comme autrefois, absorber toute nouvelle accélération en étendant le théâtre des opérations. Dans les conditions actuelles, il n’est pas raisonnable de compter sur une nouvelle panacée.

Il n’existe pas de remède au progrès. La frustration guette toute tentative de trouver des moyens sûrs pour canaliser la variété explosive du progrès actuel. La seule sécurité possible est relative, et elle réside dans l’exercice quotidien et intelligent de notre discernement.

C’est affreux, mais il y a pire

L’association des formes possibles et actuelles de guerre nucléaire et d’une situation internationale exceptionnellement instable, crée de formidables problèmes peu aisés à résoudre. Ceux des prochaines décennies promettent d’être tout aussi fâcheux, « en pire ». La tension entre les États-Unis et l’URSS est forte, mais lorsque d’autres nations commenceront à faire pleinement sentir leur potentiel offensif, cela n’arrangera pas les choses.

Les affreux risques de guerre nucléaire actuels pourraient céder le pas à d’autres encore plus affreux. Dès qu’il sera possible de contrôler le climat mondial, les complications actuelles nous paraîtront peut-être simples. Ne nous mentons pas à nous-mêmes : dès que ces possibilités se matérialiseront, elles seront exploitées. Par conséquent, il faudra élaborer de nouvelles formes et procédures politiques adéquates. Toute notre expérience prouve que même des changements technologiques moins importants que ceux qui se préparent peuvent profondément transformer les rapports politiques et sociaux. L’expérience montre aussi que ces transformations ne sont pas prévisibles a priori et que la plupart des « premières estimations » les concernant s’avèrent fausses. Pour toutes ces raisons, il ne faut pas prendre nos difficultés actuelles, ni les réformes proposées, trop au sérieux.

Le seul fait avéré est que nous devons nos difficultés à une évolution qui, quoiqu’utile et bénéfique, est également dangereuse. Pourrons-nous élaborer les ajustements nécessaires assez rapidement ? La réponse la plus encourageante consiste à dire que l’humanité a déjà été soumise à des épreuves similaires et qu’elle semble posséder des capacités innées à s’en sortir, en dépit de difficultés plus ou moins soutenues. Il serait déraisonnable d’exiger une recette prête à l’emploi. Nous ne pouvons qu’évoquer les qualités humaines qui nous seront nécessaires : la patience, la souplesse, l’intelligence.

John von Neumann (1903-1957)


Dr. John von Neumann,

Membre du Commissariat à l’énergie atomique des États-Unis,

Washington, D. C.

La défense pendant une guerre nucléaire

 

Il ne suffira pas de savoir que l’ennemi n’a que cinquante tours dans son sac et que nous pouvons tous les déjouer, il faudra aussi pouvoir les déjouer presque au moment même où il les utilise.

 

Rare au cours des deux générations qui nous ont précédés, l’initiation à toute science appliquée par le biais de la science militaire, n’est pas si absurde. Sans vouloir faire appel à des souvenirs lointains, depuis Archimède et Léonard de Vinci, cette situation particulière appartient à une très longue lignée.

Je souhaite toutefois évoquer quelques souvenirs. Mon initiation personnelle a eu lieu dans les Laboratoires de recherche balistique au début de la seconde guerre mondiale. On peut s’étonner rétrospectivement de la rareté de la main d’œuvre formée à ce genre de science appliquée, et en particulier dans le domaine militaire. C’était particulièrement vrai en ce qui concerne la théorie, et plus encore dans mon domaine – les mathématiques.

Le nombre élevé de spécialistes censés être extrêmement pointus dans des domaines de recherche hautement complexes, et cependant le peu de connaissances que nous avions des sujets auxquels on allait nous initier, étaient stupéfiants.

C’est pourquoi les conseils et l’exemple de quelqu’un qui savait de quoi il s’agissait furent extrêmement précieux. Il est difficile de décrire la manière dont s’articulent la position d’expert présumé d’une part, et en ignorance totale de ce qui importait à l’époque.

Je pense qu’il vaut mieux l’illustrer par une histoire que l’on m’a racontée récemment. Il s’agit d’un Amérindien en train de s’enregistrer dans un hôtel en signant sa fiche de deux X. Lorsqu’on lui a demandé ce que cela signifiait, il a répondu que le premier signifiait « Chef Aigle Chauve » ; quant au second, il voulait dire « docteur de 3e cycle ». Nous faisions la même chose !

Également très remarquable fut la manière dont cette transformation eut lieu dans d’autres domaines et dont se développèrent les institutions rattachée aux Laboratoires de recherche balistique.

Cela m’est apparu pour la première fois dans les Laboratoires de recherche balistique où, d’abord sous la direction du colonel Zornig, puis sous celle di colonel Simon, et toujours accompagné par les conseils du Dr. Kent, cette institution est devenue cinquante fois plus grande. Et que dire de la complexité de ce qui s’y déroulait !

Outre les faits que je viens d’évoquer, il convient de noter que ce laboratoire fut l’un des pionniers en Amérique de la construction de la soufflerie supersonique. Il fut le seul pionnier dans le domaine qui m’occupa beaucoup par la suite – la construction de machines à calculer électroniques modernes.

La première machine à calculer grandeur nature fut construite à l’université de Pennsylvanie pour les Laboratoires de recherche balistique. Puis, pendant des années, c’était là, et là seulement, qu’on pouvait se procurer les seules machines capables de fonctionner. Il fallut assez longtemps pour qu’on élabore, ailleurs et de manière indépendante, une machine vraiment très rapide. Depuis lors, et d’une année sur l’autre, la complexité et la sophistication du secteur de l’armement se sont accrues très rapidement. Pour vous en donner un exemple, je voudrais citer l’étape des machines à calculer. Il est sans doute vrai que depuis 1945, la capacité globale de ces machines double presque chaque année.

Cela est stupéfiant car sur une période de dix ans, cela signifie une multiplication par mille. Pourtant, il est exact qu’à certains égards, il s’agit bien d’une multiplication par mille. Je connais même un cas où il s’agit en réalité d’une multiplication par trois ou quatre mille depuis 1946.

On reste abasourdi de voir à quel point l’usage de la machine à calculer s’est développé, au point qu’il est difficile d’imaginer comment s’en passer aujourd’hui dans certains domaines.

L’un d’entre eux, bien entendu, est la balistique, sous les formes très complexes qu’elle a acquises de nos jours. La balistique est passée du calcul des tables de tir pour un usage plus ou moins conventionnel, au calcul des tables de tir pour l’artillerie antiaérienne, puis au domaine plus complexe des tirs air-air, et à présent au domaine particulier et compliqué du guidage de la trajectoire des missiles.

John von Neumann (1903-1957)

  1. Aucun commentaire pour l’instant.
  1. No trackbacks yet.

Répondre

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l'aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

%d blogueurs aiment cette page :