[go: up one dir, main page]

Risque de catastrophe planétaire

événement pouvant causer la destruction de l'humanité et de la Terre

Un risque de catastrophe planétaire ou de catastrophe globale est un événement futur hypothétique qui aurait le potentiel de dégrader le bien-être de la majeure partie de l'humanité, par exemple en détruisant la civilisation moderne ; cette notion, introduite par divers auteurs à partir de la fin du xxe siècle, a été théorisée et précisée en 2008 par le philosophe Nick Bostrom, lequel avait proposé également dès 2002 d'appeler risque existentiel un événement qui pourrait causer l'extinction de l'humanité.

Une boule de feu s'écrasant dans l'océan.
Vue d'artiste d'un impact cosmique. Un tel impact pourrait avoir été la cause de l'extinction des dinosaures non-aviens.

Parmi les catastrophes planétaires potentielles figurent les changements climatiques, les pandémies et les guerres nucléaires, mais également des risques liés aux nanotechnologies ou à une prise de contrôle par une intelligence artificielle hostile, ainsi que des événements d'origine spatiale tels que des impacts de météorites.

Une étude quantitative rigoureuse de ces risques est difficile, en raison de l'incertitude sur les conséquences finales (les enjeux) de l'aléa déclencheur de la catastrophe, et sur la probabilité de cet aléa, et aussi parce que de nombreux biais cognitifs en compliquent l'analyse ; de plus, un évènement ayant pu provoquer l'extinction de l’humanité ou la destruction complète de la civilisation ne s'étant évidemment encore jamais produit, la probabilité qu'il en advienne un est minimisée ; ce phénomène est connu en statistique sous le nom de biais de sélection.

Bien que les risques de catastrophe planétaire aient fait l'objet de nombreux scénarios de science-fiction (modernisant souvent des mythes très anciens comme celui de Pandore), et de déclarations alarmistes à partir des années 1950, ce n'est qu’au début du XXIe siècle que divers organismes ont commencé à les étudier systématiquement, en particulier sous l'impulsion des mouvements transhumanistes, et plus récemment, de la collapsologie.

Classifications

modifier

Risques majeurs

modifier

Un risque majeur est un événement incertain dont la réalisation est souvent faiblement probable, mais dont les effets négatifs sont considérables. Les géographes et de nombreux spécialistes après eux découpent cette notion en trois termes : l'aléa, qui est l'événement incertain lui-même, les enjeux, qui sont les valeurs socio-économiques ou écologiques soumises aux effets de l’aléa quand il survient, et la vulnérabilité, qui fixe le degré plus ou moins grand de destruction des enjeux par ces effets[1]. Par exemple, dans le cas du risque d’inondation fluviale, l’aléa est la crue du cours d’eau, les enjeux sont les personnes et les biens exposés à l'inondation, enfin la vulnérabilité se mesure en particulier en tenant compte de la hauteur, de la solidité et de l’étanchéité des immeubles concernés[2].

Risque de catastrophe planétaire et risque existentiel

modifier

Au début des années 1980, la découverte du cratère d'impact de Chixculub et sa mise en relation avec la disparition des dinosaures a amené à considérer sérieusement la possibilité de catastrophes pouvant entraîner des conséquences à l'échelle de la planète entière, et en particulier à analyser dans ces termes les répercussions sur le climat et l'agriculture d'une guerre nucléaire[3].

À partir des années 1990, des avertissements de plus en plus détaillés (comme le World Scientists' Warning to Humanity de 1992), reprenant parfois des thèses plus anciennes telles que celles du rapport Meadows en 1972, amènent plusieurs auteurs à préciser la définition de risques dépassant les limites de désastres régionaux, et pouvant concerner toute l'humanité.

Dans Catastrophe: Risk and Response, Richard Posner a regroupé en 2004 des évènements apportant « un bouleversement ou une ruine complète » à l’échelle globale (plutôt que locale ou régionale), les considérant comme méritant une attention toute particulière en termes d’analyse coût-avantage, parce qu'ils pourraient, directement ou indirectement, mettre en danger la survie de l’humanité dans son ensemble[4]. Parmi les évènements discutés par Posner, on trouve les impacts cosmiques, l’emballement du réchauffement climatique, la gelée grise, le bioterrorisme, et les accidents dans les accélérateurs de particules.

Indépendamment de ces travaux, le philosophe Nick Bostrom a introduit en 2008 la notion de risque de catastrophe planétaire (anglais : global catastrophic risk)[5], prolongeant son analyse de 2002 dans laquelle il définissait la notion de risque existentiel (anglais : existential risk)[6],[n 1], et en relation avec une classification des risques selon leur étendue et leur intensité[8], l’étendue allant de l’échelle individuelle à l’ensemble des générations futures, et l’intensité de « imperceptible » à « maximale » (des exemples sont donnés dans le tableau ci-dessous). Sur cette échelle, il définit un « risque de catastrophe planétaire » comme au moins « global » (affectant la majorité des humains) et d'intensité « majeure » (affectant le bien-être des individus sur une période prolongée)[n 2] ; un « risque existentiel » est défini comme « transgénérationnel » et « maximal » (irréversible, et mortel à court terme). Ainsi, un risque existentiel détruit l'humanité (voire toutes les formes de vie supérieure) ou au minimum ne laisse aucune chance à la réapparition d’une civilisation, alors qu’une catastrophe planétaire, même si elle tuait la majorité des humains, laisserait une chance de survie et de reconstruction aux autres ; Bostrom considère ainsi les risques existentiels comme beaucoup plus significatifs[10] ; il fait également remarquer que l'humanité n'avait pas pu envisager de risque existentiel avant 1950[n 3], et que toutes les stratégies conçues pour diminuer les risques de catastrophe planétaire sont inopérantes face à des menaces d’extinction complète[6].

Presque par définition, les catastrophes planétaires constituent non seulement des risques majeurs, mais correspondent à une vulnérabilité maximale et à des enjeux si vastes qu’ils sont impossibles à quantifier. Il en résulte une confusion souvent faite entre risque et aléa dans ce cas.

Grille d’étendue et d’intensité des risques
Risque Imperceptible Supportable Majeur Maximal
Personnel Perte d’un cheveu Perte d’un doigt Amputation d’une jambe Mort
Local Trafic ralenti Routes coupées Destruction
des infrastructures
Séisme de 1755
à Lisbonne
Global Réchauffement global
de 0,03 °C
Année sans été Destruction complète
de la couche d’ozone
Hiver nucléaire
Transgénérationnel Perte d’une
espèce de Scarabées
Disparition des Félins Extinction de l’Holocène Fin de l’humanité
D’après un article de Nick Bostrom sur la prévention des risques existentiels[8] ; sur fond rose, les risques de catastrophe planétaire ; sur fond orange, les risques existentiels.

Classification en fonction de scénarios

modifier

Bostrom identifie quatre types de scénarios de catastrophe planétaire. Les « bangs » sont des catastrophes brutales (accidentelles ou délibérées) ; les exemples les plus vraisemblables étant les guerres nucléaires, l’utilisation agressive (et échappant à tout contrôle) de biotechnologies ou de nanotechnologies, et les impacts cosmiques. Les « écroulements » (crunches)[n 4] sont des scénarios de dégradation progressive des structures sociales, dans lesquels l’humanité survit, mais la civilisation est irrémédiablement détruite, par exemple par épuisement des ressources naturelles, ou par des pressions dysgéniques abaissant l’intelligence moyenne. Les « hurlements » (shrieks) sont des scénarios d’avenirs dystopiques, tels que des régimes totalitaires utilisant des intelligences artificielles pour contrôler l’espèce humaine. Les « gémissements » (whimpers) sont des déclins graduels des valeurs, puis de la civilisation[6]. Nick Bostrom considère les trois derniers types de scénarios comme empêchant (plus ou moins définitivement) l’humanité de réaliser son potentiel ; Francis Fukuyama estime que cet argument, qui s’appuie sur les valeurs du transhumanisme, ne suffit pas à lui seul à les classer tous comme des risques de catastrophe planétaire[7].

En économie, les événements ayant une probabilité très faible de survenir, mais qui peuvent avoir des conséquences désastreuses pour l'économie mondiale sont appelés des risques oméga. Un risque oméga désigne le fait qu'un événement réduise le produit intérieur brut (PIB) mondial de plus de 50 % en l'espace d'une décennie. Ces risques se distinguent par deux caractéristiques principales : un événement doit avoir le potentiel de réduire le PIB mondial de plus de 50 % et la chute du PIB doit se produire dans les 10 ans suivant l'impact. Ainsi, les événements comme les crises démographiques résultant de faibles taux de fécondité, même s'ils peuvent entraîner une baisse du PIB (la baisse n'est pas brutale), ne sont pas considérés comme des risques oméga[11].

Sources potentielles de risques

modifier

Parmi les risques existentiels, c'est-à-dire les risques d'extinction massive de la biosphère incluant l'espèce humaine, figurent surtout des causes exogènes naturelles, comme :

Certains de ces phénomènes se sont produits à de nombreuses reprises dans le passé, mais leur probabilité d'occurrence à l'échelle historique est souvent impossible à évaluer faute de données scientifiques suffisantes (les observations précises n'ont commencé qu'il y a trois siècles).

En revanche, les risques de catastrophe planétaire correspondent le plus souvent à des causes endogènes (dues aux actions humaines) :

Avec le développement des technologies, la destruction, sinon du genre humain[n 5], du moins de la civilisation moderne par les actions d'une nation, d'une corporation, d'une communauté religieuse ou autre, ou même d'un individu, est plus probable qu'auparavant d'un point de vue statistique. Il est cependant possible que le développement des techniques de sécurité puisse diminuer ces risques, mais en sacrifiant les droits de l'homme et les libertés démocratiques.

Certains scénarios combinent des causes naturelles et artificielles : un orage magnétique majeur du Soleil ou une inversion du champ magnétique terrestre pourraient bloquer le fonctionnement des appareils et des réseaux électroniques dont l'économie mondiale est devenue totalement dépendante, débouchant sur un krach mondial et sur des conflits de grande envergure[12]. Une pandémie peut avoir des conséquences économiques majeures, amenant à une crise systémique[13].

Selon le Future of Humanity Institute, les causes anthropiques menacent davantage de provoquer l’extinction de l’humanité que des causes naturelles[8],[14]. De même, le Cambridge Project for Existential Risk (développé en 2012 par le Centre pour l’étude des risques existentiels de l’université de Cambridge[15]) affirme que les « plus grandes menaces » pour l’espèce humaine sont anthropogéniques ; il s’agit, selon lui, du réchauffement global, des guerres nucléaires, de biotechnologies ayant échappé au contrôle, et d’intelligences artificielles hostiles[16].

Depuis 1947, le Bulletin of the Atomic Scientists analyse les risques de catastrophe planétaire (initialement, ceux liés à un conflit nucléaire), représentant symboliquement leur estimation des risques à l'aide de l’Horloge de la fin du monde. Depuis 1991, cette horloge n'a pas cessé de se rapprocher de minuit ; en particulier, en 2015, elle a été avancée de deux minutes pour refléter le fait que le Bulletin of the Atomic Scientists considère que le réchauffement climatique correspond désormais à un risque de catastrophe planétaire, et peut-être existentiel[17] ; l'expression « existential risk » (risque existentiel) apparait depuis cette date dans tous leurs documents de synthèse, accompagnant l'analyse de nouveaux risques, tel que celui de la désinformation cybernétique en 2020[18] ; en 2024, l'horloge est au plus près de minuit depuis sa création, en raison entre autres « des lacunes dans la gouvernance mondiale que la gestion de la crise de la Covid-19 a fait apparaître »[19], et des conséquences de la guerre en Ukraine[20].

Les listes plus détaillées de risques ci-dessous (dont certains sont corrélés entre eux, par exemple une crise systémique affaiblissant les services de santé augmentera les risques de pandémie) sont classées par probabilité estimée décroissante[21],[n 6] ; cette classification, reprenant les travaux des divers groupes d'étude cités plus loin, ne recoupe pas bien les classifications plus traditionnelles des géographes, lesquelles sont basées en particulier sur la typologie des enjeux (environnementaux, économiques, etc.).

Risques dus à des actions humaines

modifier

Risques connus

modifier
Réchauffement global
modifier

Le réchauffement climatique actuel (qui n’est plus contesté par la communauté scientifique, et dont la plus grande partie est attribuée aux activités industrielles depuis le XIXe siècle), amène à des variations anormales du climat sur toute la Terre, et à des effets secondaires tels que la montée du niveau des océans et leur acidification. Les projections même les plus modérées de ce réchauffement suggèrent qu'il va s’amplifier, augmentant en particulier la fréquence et l’intensité d’évènements climatiques extrêmes (canicules, inondations, tempêtes, etc.) et des catastrophes qui leur sont associées[24]. Parmi ses effets indirects, on mentionne la perte de la biodiversité, les dommages subis par le système actuel de production agricole, la propagation accrue de maladies infectieuses telles que le paludisme, et la mutation rapide de micro-organismes. Pour toutes ces raisons, le Bulletin of the Atomic Scientists considère depuis 2015 que le réchauffement climatique correspond désormais à un risque de catastrophe planétaire, et peut-être existentiel[17].

Il a même été suggéré que le dépassement d'un certain seuil pourrait amener le climat terrestre à basculer vers un état stable brûlant analogue à celui de Vénus (c'est la thèse de l’emballement climatique) ; même des scénarios moins extrêmes, sans rendre la Terre inhabitable, pourraient causer la fin de la civilisation[25] (un exemple de risque climatique nouveau apparaissant dans certains de ces scénarios est la formation d'hypercyclones). Cependant, l’existence de climats beaucoup plus chauds dans un passé relativement récent, par exemple lors du début de l’Éocène, amène de nombreux spécialistes à contester que ces derniers risques soient réels[26],[27],[28].

Surpopulation et crises agricoles
modifier

Un désastre écologique, tel que des récoltes catastrophiques suivies d’un effondrement des services écosystémiques, pourrait résulter des tendances actuelles à la surpopulation, à la croissance économique sans limites, et au manque d’agriculture durable. La plupart des scénarios de catastrophe mettent en jeu un ou plusieurs des facteurs suivants : l’extinction de l'Holocène, la rareté de l’eau potable (qui pourrait amener à ce qu’environ la moitié de l’humanité ne dispose que d’eau présentant des dangers sanitaires) et le déclin des pollinisateurs[29],[30], mais aussi la surpêche, la déforestation massive, la désertification, les changements climatiques, ou enfin des épisodes de pollution de l’eau ; beaucoup de ces inquiétudes apparaissaient déjà dans le rapport Meadows de 1972[31].

Graphique montrant trois courbes d'évolution de la population. 
3 scénarios d’évolution de la population mondiale entre 1800 et 2100[32],[33].

Même sans catastrophe soudaine (les « bangs » définis par Nick Bostrom), les déséquilibres entre population et ressources alimentaires risquent d’amener progressivement à des crises majeures, les catastrophes malthusiennes (ce sont des « écroulements » (crunches) pour la même classification). Le XXe siècle a vu une augmentation rapide de la population mondiale[33] due aux progrès de la médecine et à une forte amélioration de la productivité agricole, en particulier venant de la Révolution verte[34],[35]. Ainsi, entre 1950 et 1984, les transformations mondiales de l’agriculture amenèrent à une augmentation de 250 % de la production de céréales. La Révolution verte permit à la production de nourriture de se maintenir au niveau de la croissance démographique, et même de la favoriser. L'énergie demandée pour les travaux agricoles était apportée par les carburants fossiles, que ce soit pour les tracteurs et l’irrigation (aux moteurs consommant des hydrocarbures), ou pour la fabrication d’engrais et de pesticides ; l’arrivée du pic pétrolier pourrait ainsi amener une crise agricole[36],[37].

Dans une étude intitulée Food, Land, Population and the U.S. Economy (« Nourriture, terre, population, et économie américaine »), David Pimentel (professeur à l’université Cornell) et Mario Giampietro (chercheur au National Research Institute on Food and Nutrition) estiment que la population américaine maximale pour une économie durable ne peut dépasser 200 millions d’habitants ; la même étude affirme que pour éviter le désastre, la population mondiale devrait être réduite des deux tiers[38] ; ils pensent que les conséquences de cette crise agricole devraient apparaître à partir de 2020, et devenir critiques après 2050. Dale Allen Pfeiffer craint que les décennies à venir voient une montée des prix alimentaires suivie de famines massives telles que le monde n’en a encore jamais connues[37],[39]. Ces calculs recoupent ceux de l’ONG américaine Global Footprint Network, qui détermine le jour du dépassement (la date à laquelle la production mondiale annuelle de ressources renouvelables a été entièrement consommée), et constate que, depuis 1971 (année où cela s'est produit pour la première fois), il arrive chaque année plus tôt : en 2019, il a lieu le [40],[41] ; si en 2020, en raison de la pandémie de Covid-19, il n'a eu lieu que le , il revient au dès 2021[41], et au en 2022[42].

Désastres environnementaux
modifier
Image satellite du nuage brun d'Asie. 
Les particules de pollution aérienne du « nuage brun d’Asie » (de même surface que les États-Unis) peuvent voyager tout autour de la planète.

Outre les crises mentionnées précédemment, des risques écologiques divers menacent les productions agricoles. Ainsi, le blé, la deuxième céréale produite après le maïs, reste sensible à des infections fongiques. Ug99, une souche de la rouille noire, peut causer une perte complète des récoltes de la plupart des variétés modernes[43]. L’infection se voit propagée par le vent, et aucun traitement n'est connu ; si elle contaminait les grandes régions de production (États-Unis, Europe, Inde, Russie et Chine du Nord), la crise résultante amènerait à une flambée des prix, mais également à des pénuries d’autres produits alimentaires[44]. Comme pour d’autres scénarios de catastrophes, des déplacements massifs de populations ou même des guerres sont à craindre. En revanche, en dépit de débats concernant l’introduction de plantes génétiquement modifiées, les risques que cette introduction provoque une catastrophe écologique globale (par exemple par l’apparition d’insectes résistants à tous les pesticides, ou de mauvaises herbes envahissantes) semblent négligeables[45].

Carte du Pacifique nord, montrant les courants et les accumulations de déchets. 
L'accumulation des déchets plastiques dans le Pacifique nord.

La plupart des autres catastrophes environnementales envisageables (marées noires, pollutions industrielles et même accidents nucléaires) restent localisées. Cependant, le nuage brun d'Asie pourrait avoir des conséquences climatiques sur tout le globe[46] ; de même, la pollution des océans semble devenir planétaire. En particulier, d’après la Fondation Race for Water, « […] la pollution des océans par les plastiques […] représente la pire catastrophe écologique de l’Histoire. »[47].

Enfin, les décès dus à la pollution de l’air atteignent un niveau alarmant[n 7] et provoquent un déficit économique annuel de centaines de milliards de dollars, selon la Banque mondiale[50]. Il n'est cependant pas clair qu’il s'agisse d’une catastrophe planétaire au sens de Nick Bostrom, dans la mesure où de nombreuses régions ont les moyens de lutter localement contre cette pollution[n 8].

L'ensemble des menaces décrites dans les sections précédentes, considéré comme une crise globale, a fait l'objet à plusieurs reprises de tentatives d'alerte. Le , la revue BioScience et le journal Le Monde publient un manifeste signé par 15 364 scientifiques de 184 pays : constatant que depuis l'appel « World Scientists' Warning to Humanity » lancé en 1992 par l'Union of Concerned Scientists et plus de 1 700 scientifiques indépendants, dont la majorité des lauréats de prix Nobel de sciences alors en vie, « non seulement l'humanité a échoué à accomplir des progrès suffisants pour résoudre ces défis environnementaux annoncés, mais il est très inquiétant de constater que la plupart d'entre eux se sont considérablement aggravés ». Ils concluent : « Pour éviter une misère généralisée et une perte catastrophique de biodiversité, l'humanité doit adopter une alternative plus durable écologiquement que la pratique qui est la sienne aujourd’hui. Bien que cette recommandation ait été déjà clairement formulée il y a vingt-cinq ans par les plus grands scientifiques du monde, nous n'avons, dans la plupart des domaines, pas entendu leur mise en garde. Il sera bientôt trop tard pour dévier de notre trajectoire vouée à l'échec, car le temps presse »[52],[53],[54] ; en , ce texte est repris par plus de 11 000 scientifiques, insistant sur « le risque de souffrances indicibles en raison de la crise climatique »[55].

Le , l'IPBES, à la suite de sa réunion à Paris, lance à son tour une alerte majeure concernant la perte de biodiversité, affirmant que « la santé des écosystèmes dont nous dépendons, comme toutes les autres espèces, se dégrade plus vite que jamais » et que « un million d'espèces animales et végétales [...] risquent de disparaître à brève échéance », ce qui représente une sur huit des espèces connues à cette date[56].

Guerres et destructions massives
modifier
Le champignon atomique de Castle Bravo. 
Castle Bravo, d'une puissance de 15 Mt, explosant au-dessus de Bikini en 1954.

Le scénario qui a été le plus étudié est celui d’une guerre nucléaire. Bien que la probabilité annuelle d’une telle guerre est faible, Martin Hellman faisait remarquer en 1985 que si cette probabilité reste constante ou ne diminue pas assez vite, la guerre est inévitable à long terme : il viendra fatalement un jour où la chance de la civilisation s’épuisera[57]. Durant la crise des missiles de Cuba, John Kennedy estimait les chances d’une guerre nucléaire « entre une sur trois et une sur deux »[58] ; à plusieurs reprises, le déclenchement d'un tel conflit (avec ses risques d'escalade incontrôlable) n'a été évité que de justesse, comme en 1962, lorsque Vassili Arkhipov s'opposa à l'envoi d'un missile nucléaire contre un navire américain[59], ou lors de la fausse alerte nucléaire soviétique de 1983.

En 2024, les États-Unis et la Russie ont un arsenal combiné de 11 130 armes nucléaires[60] et, en tenant compte des autres puissances nucléaires, il y a 12 500 armes nucléaires en existence dans le monde[60], d’une puissance destructrice totale d’environ 5 000 mégatonnes (Mt), soit 250 000 fois celle de la bombe d’Hiroshima ; bien que cela ne représente qu'une fraction de l'arsenal de la guerre froide et soit en constante diminution depuis celle-ci[n 9], ces chiffres expliquent cependant les estimations pessimistes symbolisées par l’Horloge de l’Apocalypse, laquelle a été avancée en 2018 pour refléter l'inquiétude face à « l'incapacité des dirigeants mondiaux à faire face aux menaces imminentes d'une guerre nucléaire »[61],[62], et encore avancée le pour les mêmes raisons, accompagnées d'une inquiétude nouvelle sur la désinformation cybernétique[63]. Les déclarations menaçantes de Vladimir Poutine accompagnant l'invasion de l'Ukraine à partir de amènent de nombreux experts à réévaluer leurs estimations du risque nucléaire à l’échelle régionale, sans d'ailleurs exclure complètement la possibilité d’une escalade incontrôlable[64] ; une nouvelle avancée (à 90 secondes avant minuit) est effectuée le 23 janvier 2023, en raison du développement de la guerre en Ukraine et des risques correspondants[20].

Zone de destruction complète de la Tsar Bomba placée sur une carte de la région parisienne. 
Effet supposé de Tsar Bomba (la plus grosse bombe H jamais testée, avec une puissance de 57 Mt) sur la région parisienne : le cercle rouge (rayon : 35 km) correspond à la zone de destruction complète.

Le grand public identifiait souvent la guerre nucléaire avec la « fin du monde », mais jusqu’au début des années 1980, les dirigeants et les experts n’envisageaient qu’un faible risque d’extinction complète de l’humanité à la suite d’une telle guerre : dans une célèbre déclaration de 1957, Mao Zedong expliquait qu’il ne craignait pas une guerre nucléaire, à laquelle « de nombreux Chinois survivraient »[65] ; en 1982 encore, Brian Martin estimait qu’un échange de bombes entre les États-Unis et l’URSS pourrait tuer de 400 à 450 millions de personnes directement, et peut-être quelques centaines de millions de personnes supplémentaires en raison des retombées, surtout dans l’hémisphère Nord, soit « guère plus de 10 % de l’humanité »[66]. Cependant, à partir de 1983, des scénarios plus pessimistes, prenant en compte la notion d’hiver nucléaire[67],[68], amenèrent à craindre, au minimum, une destruction complète de la civilisation dans ce cas, en raison en particulier de l’impossibilité de l’agriculture durant plusieurs années[69],[70],[68].

Les armes de l’Apocalypse constituent une forme ultime de la notion de dissuasion nucléaire : il s'agit d’armes suicidaires garantissant qu’un agresseur hypothétique périrait avec l’agressé (et avec le reste de l’humanité). Elles sont techniquement réalisables (par exemple sous forme de bombes H gigantesques salées au cobalt), mais le concept a été abandonné au début des années 1960 (essentiellement parce que, par nature, elles constituaient une épée de Damoclès pour leur possesseur)[71], et elles ne font plus partie des risques existentiels sérieusement envisagés.

D’autres types d’armes et de conflits peuvent entraîner des risques de catastrophe planétaire, en particulier l’utilisation d’armes de destruction massive (chimiques et biologiques), mais aussi certaines formes de bioterrorisme (parce que risquant de déclencher des pandémies incontrôlables)[72].

Risques systémiques
modifier

Bien que les crises financières, telles que la Grande Dépression, aient souvent par le passé présenté un caractère global, on ne pouvait jusque-là pas parler de risque de catastrophe planétaire au sens strict. Mais l’accélération des communications et l’utilisation massive d’Internet rendent désormais envisageable deux types d’effondrement du système : d’une part une déstabilisation des mécanismes financiers, provoquée par exemple par une amplification des fluctuations boursières échappant à tout contrôle (risque qui a été associé aux transactions à haute fréquence lors du Flash Crash de 2010), ou par une crise de confiance analogue à la crise des subprimes, d’autre part une perte physique d’informations, voire de valeurs, liée à une panne d’Internet. Le premier risque est difficilement mesurable (et en particulier mal assurable) ; en revanche, Internet a été conçu pour résister à la plupart des attaques ou des dysfonctionnements envisageables, et ce n’est qu’au début du XXIe siècle qu’il a été remarqué qu’une éruption solaire suffisamment puissante, telle que celle de 1859 ou celle de , pouvait perturber suffisamment les communications et les appareils électroniques pour « renvoyer la civilisation au XVIIIe siècle »[73] ; cependant, une étude de 2021 conclut que le risque a été surévalué, et ne dépasserait pas le niveau de catastrophes « locales », comparables par exemple à la rupture d'un câble transatlantique[74].

Plus généralement, la mondialisation et l’interconnexion des divers systèmes fait désormais qu’une crise locale ou ne concernant qu’une seule ressource peut, par effet domino, amener une catastrophe planétaire (il s’agit d’« écroulements » (crunches) au sens de Nick Bostrom). La plus connue des crises de ce genre est l’arrivée du pic pétrolier (et en particulier ses conséquences sur l’agriculture)[36],[37], mais elle est anticipée depuis plusieurs décennies, et ce ne serait que des effets indirects inattendus qui pourraient la transformer en effondrement global. D’autres scénarios de crise systémique de ce type ont été moins étudiés, et pourraient avoir des conséquences difficilement réparables ; on peut ainsi mentionner la « crise de l’eau », laquelle devient planétaire, mais qui pourrait surtout entraîner une guerre entre la Chine, l’Inde et le Pakistan (trois puissances nucléaires) pour le contrôle des ressources hydriques de l’Himalaya[75],[76], ou encore la pénurie de terres rares, a priori de faible importance, mais pouvant amener des tensions sur la fabrication de produits aussi divers que les ampoules basse consommation, les voitures électriques ou les éoliennes, avec des conséquences non négligeables sur la transition énergétique[77]. Vers 1990, Joseph Tainter a développé des analyses plus générales de ces scénarios ; dans son travail le plus connu, L’Effondrement des sociétés complexes[78], il étudie l’effondrement de la civilisation maya, de la civilisation anasazi[79] et de l’Empire romain, en termes de théorie des réseaux, d’économie de l’énergie et de théorie de la complexité[n 10]. Bien que ces crises résultent d’enchaînements de désastres locaux, non inéluctables et auxquels on peut espérer trouver des parades plus ou moins rapides, Victor Clube et Bill Napier ont fait remarquer que des scénarios de catastrophes systémiques brutales (les « bangs ») déclenchées par un accident local sont également possibles[n 11], et ne laissent qu’une étroite marge de manœuvre avant de devenir planétaires.

Risques envisageables

modifier
Intelligence artificielle
modifier

En 1993, Vernor Vinge popularise, sous le nom de singularité technologique, l’idée selon laquelle si l’homme parvient à construire une intelligence artificielle (IA) supérieure à lui, celle-ci pourra à son tour en construire une autre encore supérieure. Cette rétroaction positive aboutirait alors rapidement à une superintelligence inconcevable pour nous[82]. Il remarque que cela pourrait s’avérer dangereux pour les humains[83]. Cette idée donne naissance à un mouvement social, le singularitarisme.

Plus précisément, il a été suggéré que des ordinateurs capables d’apprentissage pourraient devenir rapidement superintelligents et entreprendre des actions non prévues par leur programmation, voire hostiles ; ou encore que des robots pourraient entrer en compétition avec l’humanité[84]. Il est d'ailleurs possible que la première superintelligence apparaissant élimine toutes les autres, étant également capable de manipuler toute intelligence inférieure afin d’atteindre ses objectifs[85]. Nick Bostrom appelle cette question le « problème du contrôle »[86].

Stephen Hawking, Bill Gates et Elon Musk ont exprimé leurs craintes d’intelligences artificielles se développant au point d’échapper à tout contrôle, Hawking précisant que cela pourrait signifier « la fin de l’humanité »[87]. Des experts participent en 2009 à une conférence organisée par l’Association for the Advancement of Artificial Intelligence afin de discuter la possibilité, pour des ordinateurs et des robots, d’acquérir une sorte d’autonomie, et la menace que cette éventualité pourrait présenter. Outre le fait que certains robots ont acquis diverses formes de semi-autonomie, allant de la recherche de prises pour se recharger au choix de cibles à attaquer, ils font remarquer que certains virus informatiques peuvent activement lutter contre leur élimination, et atteignent « le niveau d’intelligence des blattes ». Ces experts ajoutent que si une apparition de la conscience telle que la dépeint souvent la science-fiction reste peu vraisemblable, d’autres problèmes ou dangers ne sont nullement à exclure[82]. Plus récemment, divers groupes scientifiques notent une accélération des progrès en intelligence artificielle (dont la victoire d'AlphaGo contre Lee Sedol en a été l’un des signes les plus visibles) pouvant amener à de nouvelles inquiétudes[88],[89],[90]. Eliezer Yudkowsky pense que les risques créés par l’intelligence artificielle sont plus imprévisibles que toutes les autres sortes de risques et ajoute que la recherche à ce sujet se voit biaisée par l’anthropomorphisme : les gens basant leur analyse de l’intelligence artificielle sur leur propre intelligence[n 12], cela les amène à sous-estimer les possibilités de l’IA. Il sépare d’ailleurs les risques en problèmes techniques (des algorithmes imparfaits ou défectueux empêchant l’IA d’atteindre ses objectifs[n 13]), et en échecs « philosophiques », bien plus pernicieux et difficiles à contrôler, où les objectifs de l’IA sont en fait nuisibles à l’humanité[93]. Nick Bostrom rejoint cette position en publiant en 2014 Superintelligence : Paths, Dangers, Strategies[94].

Des craintes plus immédiates ont été exprimées, s'inquiétant de ce que l'utilisation d'intelligences artificielles faibles permettent de créer des fake news et de les propager efficacement sur les réseaux sociaux, amenant par exemple à des manipulations politiques d'envergure ; un avertissement est régulièrement donné chaque année depuis 2020 à ce sujet par le Bulletin of the Atomic Scientists, considérant que « des vagues de mensonges portées par Internet... mettent en danger la démocratie en général, et sabotent les efforts globaux de lutte contre les risques existentiels »[95]. À partir de 2020, des logiciels tels que GPT-4 et DALL-E, permettant de créer des textes et des images difficiles à distinguer de documents authentiques, apparaissent sous des formes accessibles au grand public ; ils sont soumis par leurs créateurs eux-mêmes à de sévères restrictions d'emploi, pour éviter des « effets néfastes potentiels tels que la désinformation, le spam, l'hameçonnage, etc. »[96], mais il n'est pas certain que des produits analogues ne puissent être développés par des groupes d'acteurs moins scrupuleux[97].

Biotechnologies
modifier
Pictogramme triangulaire, formé de cercles noirs sur fond jaune, ayant l'aspect de pinces. 
Signal d’avertissement de danger biologique.

Les biotechnologies peuvent créer un risque de catastrophe planétaire en développant des agents infectieux naturels ou artificiels, qui pourraient ensuite se répandre par l’utilisation d’armes biologiques, d’attaques terroristes, ou par accident[98], provoquant des pandémies.

Une croissance exponentielle est observée dans le secteur des biotechnologies ; Noun et Chyba prédisent que cela amènera à une énorme amélioration de ces techniques dans les décennies à venir[98]. Ils estiment que les risques correspondants de guerre biologique et de bioterrorisme sont plus importants que ceux des armes nucléaires ou chimiques, parce que les agents infectieux sont plus faciles à produire, et que leur production en masse est difficilement contrôlable, les capacités technologiques correspondantes devenant accessibles même à des individus isolés[98]. Jusqu’à présent, les utilisations terroristes des biotechnologies ont été rares, mais il est difficile de savoir si cela est dû à un manque de moyens, ou à un manque de motivation[98].

Le risque principal attendu dans l’avenir est l’apparition d’agents infectieux génétiquement modifiés ou entièrement artificiels[98]. On estime en effet en général que la virulence des agents infectieux naturels, qui ont coévolué avec leurs hôtes, est limitée par la nécessité que les hôtes survivent assez longtemps pour transmettre l’agent[99], mais il est possible de modifier génétiquement ces agents (volontairement ou accidentellement) pour changer leur virulence et d’autres caractéristiques[98]. Ainsi, un groupe de chercheurs australiens a involontairement changé les caractéristiques du virus de la variole de la souris en essayant de développer un virus qui stériliserait les rongeurs[98] ; le virus modifié est devenu extrêmement létal même chez des souris vaccinées ou naturellement résistantes[100],[101],[102]. Si elles ne sont pas strictement réglementées, les technologies permettant des manipulations génétiques des caractéristiques des virus risquent de devenir aisément accessibles dans l’avenir[98].

Noun et Chyba proposent trois catégories de mesures pour réduire les risques de pandémies (naturelles ou artificielles) : régulation ou interdiction de recherches potentiellement dangereuses, amélioration de la veille sanitaire, et développement des moyens de lutte contre la propagation d’épidémies (par exemple en produisant des vaccins plus efficaces, et en les distribuant plus largement)[98].

Nanotechnologies
modifier

De nombreuses nanotechnologies sont en développement ou déjà utilisées[103]. La seule qui semble présenter un risque de catastrophe planétaire significatif est l’assemblage moléculaire, une technique qui permettrait de construire des structures complexes à une précision atomique[104]. L’assemblage moléculaire est pour l’instant un concept purement théorique et demandant des avancées importantes en nanotechnologie, mais qui pourrait permettre de produire des objets sophistiqués en grande quantité et à bas coût dans des nano-usines de la taille d’imprimantes 3D (lesquelles sont une version grossière et macroscopique du même concept)[103],[104]. Lorsque ces nano-usines pourront elles-mêmes en produire d’autres, la production pourrait être limitée seulement par la quantité de ressources relativement abondantes, comme les matériaux bruts, l’énergie, et les logiciels ; elles pourraient ainsi, entre autres, fabriquer à bas prix des armes sophistiquées, autonomes et durables[103].

Chris Phoenix classe les risques de catastrophe créés par les nanotechnologies en trois catégories[105] :

  1. Accélération du développement d’autres technologies, comme l’intelligence artificielle ou les biotechnologies.
  2. Production en masse d’objets potentiellement dangereux, et créant une dynamique de risque, telle que la course aux armements.
  3. Création de processus se reproduisant sans frein, avec des effets destructeurs.

Il signale cependant également que les nanotechnologies sont susceptibles de diminuer plusieurs autres risques de catastrophe planétaire[103].

Plusieurs chercheurs affirment que l’essentiel de ces risques vient du potentiel militaire et de course aux armements[100],[103],[106]. On a suggéré plusieurs raisons pour lesquelles ces techniques pourraient amener à des escalades instables (contrairement par exemple aux armes nucléaires) :

  1. un grand nombre d’acteurs peuvent être tentés de participer à l’escalade, le coût correspondant étant faible[103] ;
  2. la fabrication d’armes par cette méthode est peu coûteuse et aisée à camoufler[103] ;
  3. la difficulté de contrôle des intentions des autres acteurs pousse à s’armer par prudence, et à déclencher des attaques préventives[103],[107] ;
  4. l’assemblage moléculaire diminue la dépendance envers le commerce international[103], lequel est un facteur de paix ;
  5. une guerre d’agression devient économiquement plus intéressante pour l’agresseur, la fabrication d’armes étant bon marché, et les humains moins nécessaires sur le champ de bataille[103].

L’auto-régulation par tous les acteurs, étatiques ou non, semblant difficile à atteindre[108], des mesures pour limiter les risques d’armement et de guerre ont été principalement proposées dans le cadre du multilatéralisme[103],[109]. Une infrastructure internationale, peut-être analogue à l’Agence internationale de l’énergie atomique et consacrée spécifiquement aux nanotechnologies, devrait être développée, donnant plus de pouvoir au niveau supranational[109]. Il est également possible d’encourager le développement technologique différentiel, privilégiant les technologies défensives[103],[110].

D’autres catastrophes planétaires dues aux nanotechnologies sont envisageables. Ainsi, en 1986, dans son livre Engines of Creation[111], Eric Drexler envisageait la notion de gelée grise, un thème souvent repris par les médias et la science-fiction[112],[113] ; ce scénario met en jeu de petits robots autoréplicatifs qui détruiraient toute la biosphère en l’utilisant comme source d'énergie et de matériaux. Cependant, désormais, les experts du domaine (y compris Drexler) ont discrédité ce scénario ; selon Chris Phoenix, « une gelée grise ne pourrait être que le résultat d’un processus délicat et délibéré, et non un accident »[114].

Accidents liés à une technologie expérimentale
modifier

Les biotechnologies pourraient amener au développement de pandémies incurables, les guerres chimiques conduire à des pollutions irrémédiables, les nanotechnologies produire des gelées grises catastrophiques. Plus généralement, Nick Bostrom a suggéré que chaque nouvelle technologie peut faire apparaître des risques impensables auparavant, et que dans sa poursuite du savoir, l’humanité risquerait même de créer par inadvertance un dispositif susceptible de détruire la Terre, voire le Système solaire[115], les recherches en physique des particules pouvant créer des conditions exceptionnelles ayant des conséquences catastrophiques. Déjà, certains scientifiques s’inquiétaient de ce que le premier essai nucléaire pourrait embraser l’atmosphère[116],[117] ; plus récemment, des spéculations alarmistes se sont manifestées concernant la production éventuelle de micro-trous noirs[118], de strangelets ou d’autres états physiques anormaux au Grand collisionneur de hadrons, et envisageant une réaction en chaîne pouvant conduire à un désastre. Ces craintes particulières ne se sont évidemment pas concrétisées, et avaient d’ailleurs déjà été réfutées par le calcul[119],[120],[121],[122], mais chaque nouvelle avancée technologique peut susciter des craintes analogues[n 14].

Risques non anthropiques

modifier

Les risques décrits dans cette section correspondent à des aléas indépendants des actions humaines ; la plupart, à l'exception principalement des pandémies, ne sont également guère atténués par des mesures préventives éventuelles. Leur probabilité annuelle, comparée à celle des risques d'origine humaine, est cependant estimée le plus souvent comme étant négligeable[14] (là encore à l'exception des pandémies).

Pandémie

modifier

La mortalité due à une pandémie est égale à la virulence de l’agent infectieux, multipliée par le nombre total de personnes infectées. On suppose en général qu’il y a une limite à la virulence des agents infectieux ayant coévolué avec leurs hôtes[99], parce qu’un agent qui tue trop rapidement son hôte n’aura pas le temps de se propager[123]. Ce modèle simple prédit que s’il n’y a pas de lien entre virulence et mode de transmission, les agents infectieux évolueront vers des formes peu virulentes et à transmission rapide. Cette hypothèse n’est cependant pas toujours vérifiée, et lorsqu’une relation existe entre virulence et transmission, par exemple parce que la décomposition cadavérique libère l’agent infectieux, de hauts niveaux de virulence peuvent alors apparaître[124], limités seulement par d’autres facteurs tels que les interactions entre les différents hôtes (puces, rats et humains dans le cas de la peste, par exemple)[99],[125] ; de plus, si la pandémie est un phénomène secondaire lié à une zoonose, la virulence chez les humains peut être totale[126]. De nombreuses pandémies historiques ont ainsi eu un effet dévastateur sur des populations importantes, les plus connues étant la peste noire (entre 1347 et 1352) et la grippe espagnole (1918-1919) ; cela implique qu’une pandémie globale pourrait constituer une menace réaliste contre la civilisation.

La veille sanitaire actuelle rend la probabilité d’une telle pandémie assez faible, au moins pour des agents infectieux similaires à ceux connus (et en particulier non modifiés par l’utilisation de biotechnologies). Cependant, la possibilité qu’apparaisse un nouveau pathogène (comme dans le cas des maladies émergentes), ou qu’une mutation rende beaucoup plus virulent un virus tel que celui de la grippe, n’est jamais à exclure ; un affaiblissement des services de santé lié par exemple à une crise économique pourrait également rendre ce risque de catastrophe planétaire beaucoup plus important. Inversement, les mesures de confinement prise lors de la pandémie de Covid-19 pourraient avoir des conséquences économiques majeures ; la transformation de cette crise en catastrophe planétaire n'est pas exclue par certains collapsologues[127],[13].

Sans qu’il s’agisse directement de pandémies, l’apparition de « super-bactéries » résistant à tous les antibiotiques fait peser de nouvelles menaces de crises sanitaires[128],[129]. D’autre part, des maladies telles que l’obésité ou les allergies, bien que non contagieuses, sont décrites métaphoriquement comme des pandémies[130],[131] ; si elles s’étendaient, elles pourraient finir par exercer d’importantes pressions dysgéniques à l’échelle mondiale[132].

Changements climatiques

modifier

Un changement climatique est une modification durable des climats de l’ensemble du globe. Dans un passé relativement récent (à l’échelle géologique), la Terre a connu des climats allant de périodes glaciaires à des épisodes si chauds que des palmiers poussaient en Antarctique. On suppose de plus que des épisodes dits de Terre boule de neige, où tous les océans étaient recouverts de glace, ont eu lieu dans un passé beaucoup plus reculé. Des changements climatiques soudains (en quelques décennies) ont eu lieu à une échelle régionale, par exemple durant le petit âge glaciaire, ou lors de l’optimum climatique médiéval, mais les changements climatiques globaux se sont produits lentement, du moins depuis le début du Cénozoïque[n 15], et le climat est devenu plus stable encore depuis la fin de la dernière période glaciaire il y a dix mille ans. La civilisation (et en particulier l’agriculture) s’étant développée durant une période de climats stables, une variation naturelle vers un nouveau régime climatique (plus chaud ou plus froid) pourrait constituer un risque de catastrophe planétaire[134].

La période actuelle (l’Holocène) est considérée comme un épisode interglaciaire au milieu d’une oscillation assez régulière entre glaciations et déglaciations, d’une période d’environ 50 000 ans, que l’on explique par la théorie astronomique des paléoclimats. Une nouvelle glaciation constituerait certainement une catastrophe planétaire au sens de Bostrom, mais outre que le modèle n’en prédit pas pour les quelques millénaires à venir, l’intervention du réchauffement climatique modifiera probablement l’évolution des climats, pouvant même amener à l’apparition de régimes très différents de ceux que la Terre a connu dans le passé[25].

Volcanisme

modifier
Carte des États-Unis montrant l'étendue de la couche de cendres 
Extension de la couche de cendres déposée à la suite de la dernière éruption de la caldeira de Yellowstone (640 000 BP).

L’éruption d’un supervolcan[135],[136] peut amener à un hiver volcanique semblable à un hiver nucléaire, lié à une importante pollution (soufre, cendres et gaz carbonique). Un évènement de ce type, l’éruption de Toba[137], s’est produit en Indonésie il y a environ 71 500 ans ; selon la théorie de la catastrophe de Toba[138], cette éruption aurait pu réduire les populations humaines à quelques dizaines de milliers d’individus.

La caldeira de Yellowstone est un autre de ces supervolcans, ayant connu plus d’une centaine d’éruptions formatrices de caldeiras au cours des derniers 17 millions d’années, dont une douzaine de « superéruptions »[139]. Lors de la dernière de ces éruptions, il y a 640 000 ans, les cendres éjectées recouvrent tous les États-Unis à l’ouest du Mississippi, ainsi que le nord-ouest du Mexique[139].

Ce type d’éruption entraine d’importantes conséquences sur le climat global, pouvant aller jusqu’à déclencher une glaciation si le soleil reste caché suffisamment longtemps par les cendres, ou au contraire un réchauffement climatique si ce sont les gaz à effet de serre qui l’emportent. À une plus petite échelle, cela s’est produit en 1816 après l’éruption du Tambora, avec pour conséquence une « année sans été ».

Bien que ne relevant pas du même mécanisme, les éruptions ayant donné naissance aux provinces magmatiques s'accompagnent sans doute (durant des dizaines voire des centaines de milliers d'années) d'émissions de gaz et de poussières en quantité comparable à celle des supervolcans. Elles demeurent beaucoup plus rares (la plus récente, celle du groupe basaltique du Columbia, ayant eu lieu il y a environ quinze millions d’années), et sont généralement considérées comme responsables des plus importantes des extinctions de masse, l’extinction Permien-Trias étant par exemple corrélée à la formation des trapps de Sibérie. Il s’agit là clairement d’un risque existentiel, mais dont nous serions probablement prévenus des millénaires à l’avance.

Autres risques géologiques

modifier

Le champ magnétique terrestre s’est inversé de nombreuses fois durant son histoire, laissant en particulier des traces dans les roches du fond océanique, permettant de dater ces inversions. Elles sont actuellement peu fréquentes, la dernière ayant lieu il y a 780 000 ans. Au moment de la transition, le champ s’affaiblit considérablement, permettant aux radiations (vent solaire, éruptions solaires, rayons cosmiques) d’atteindre le sol, mettant en danger la civilisation par augmentation des cancers, des mutations, etc. Ces théories restent cependant actuellement partiellement discréditées, l’analyse statistique ne montrant pas de corrélation entre ces inversions et des extinctions de masse[140],[141].

Dessin de la vague provoquée par la chute d'un énorme objet. 
Représentation d’artiste d’un impact météoritique d’ampleur planétaire, provoquant un mégatsunami.

Un autre risque de catastrophe planétaire est un mégatsunami, vague géante qui pourrait être causée par exemple par l’effondrement d’une ile volcanique. La probabilité de ce genre d’évènement a été fortement exagérée par les médias[142] et ces scénarios ne correspondent qu’à des catastrophes régionales. Cependant, un impact cosmique se produisant dans l’océan (tel que celui correspondant à l’extinction des dinosaures) pourrait provoquer un mégatsunami balayant des continents entiers[143].

Impact cosmique

modifier
Vue d'avion du cratère 
Meteor Crater, un cratère d’impact vieux de 50 000 ans.

Plusieurs astéroïdes sont entrés en collision avec la Terre au cours de son histoire. L’astéroïde de Chicxulub, par exemple, est la cause la plus probable de l'extinction des dinosaures non-aviens il y a 66 millions d’années, à la fin du Crétacé[144]. Un objet de plus d’un kilomètre de diamètre frappant la Terre détruirait probablement la civilisation, et à partir de trois kilomètres, aurait de bonnes chances de provoquer l’extinction de l’humanité[145] ; on estime que ces impacts se produisent en moyenne une fois par 500 000 ans (les impacts de gros objets, dépassant les 10 kilomètres, étant à peu près 100 fois moins fréquents)[145]. Le scénario d’une collision combine plusieurs des catastrophes planétaires vues précédemment : hiver d’impact, déclenchement d’éruptions volcaniques et de mégatsunamis (si l’impact a lieu dans l’océan), mais aussi séismes, tempêtes de feu, etc.[81].

Autres menaces cosmiques

modifier
Filaments et flammes rouges. 
Éruption solaire, avec éjections en longs filaments dépassant la distance Terre-Lune.

En dehors des impacts d’astéroïdes, et peut-être d’éruptions solaires exceptionnelles[73], les autres menaces identifiables correspondent typiquement à des scénarios à très longue échéance, ou de plausibilité très faible ; il n’est au demeurant pas envisageable dans un avenir prévisible de s’en protéger. Ainsi, le Soleil passera inéluctablement par une phase d’expansion (le transformant en géante rouge englobant peut-être l’orbite terrestre) dans environ 7 milliards d'années[146] ; de même, des simulations des mouvements planétaires à long terme montrent qu’une collision entre Mercure et la Terre (un risque existentiel pour toute forme de vie[143]) a une probabilité non négligeable de se produire d’ici quelques milliards d’années[147].

Jets lumineux de part et d'autre d'un astre. 
Sursaut gamma (vue d’artiste).

De nombreux évènements très énergétiques, tels que les sursauts gamma[148], les supernovas et les hypernovas, constitueraient des risques existentiels s'ils se produisaient à moins de quelques centaines d'années-lumière de la Terre (une hypernova pourrait être la cause de l’extinction de l’Ordovicien-Silurien[149]). Cependant, la probabilité d’une telle occurrence est estimée comme très faible[150].

Des colonnes de poussière cosmique 
Une célèbre nébuleuse obscure : les Piliers de la création.

D’autres risques, tels que le passage du système solaire à travers une nébuleuse obscure ou un nuage de poussière cosmique (qui pourrait amener d’importants changements climatiques), ou l'approche d'une autre étoile à moins d'une année-lumière du Soleil[n 16], sont eux aussi estimés comme négligeables à l’échelle des prochains millénaires[152].

Vie extraterrestre

modifier

Depuis La Guerre des mondes, la vie extraterrestre et ses interactions avec l’espèce humaine sont des thèmes récurrents de la science-fiction. Cependant, bien que des scientifiques tels que Carl Sagan estiment que son existence (mais pas nécessairement l’existence d’une intelligence extra-terrestre) est très probable, les distances interstellaires sont telles qu'une interaction avec l'humanité semble peu vraisemblable. Le seul risque qui peut être raisonnablement envisagé est celui d’une contamination accidentelle (par exemple par des bactéries martiennes), et même ce scénario est considéré comme très peu réaliste[153],[n 17].

Estimation de la vraisemblance du risque

modifier

Certains aléas ne dépendant pas des actions humaines ont une probabilité qu’on peut envisager de calculer avec précision. Ainsi, la probabilité que l’Humanité disparaisse au cours du prochain siècle en raison d’un impact cosmique serait d’une chance sur un million[155] (même si certains scientifiques affirment que le risque pourrait être beaucoup plus grand[156],[157]). De même, la fréquence d’éruptions volcaniques d’ampleur suffisante pour créer une catastrophe climatique, analogue à celle ayant résulté de l’explosion de Toba (qui aurait peut-être provoqué la quasi-extinction de l’humanité[158]) a été estimée d’une par 50 000 ans[135].

Le danger relatif que posent d’autres menaces est beaucoup plus difficile à estimer. En 2008, à la conférence sur les risques de catastrophe planétaire organisée à l’Université d’Oxford, un groupe d’experts réputés regroupant leurs compétences sur différents types de risques a suggéré une probabilité de 19 % de l’extinction de l’espèce humaine durant le prochain siècle (cependant, le compte-rendu de la conférence avertit que la méthode utilisée pour synthétiser les réponses données ne prend pas correctement en compte l’absence de réponse à certaines questions[21]). Le rapport annuel pour 2016 de la Global Challenges Foundation fait remarquer que même les estimations les plus optimistes impliquent que l’Américain moyen risque cinq fois plus de mourir dans une catastrophe planétaire que dans un accident de voiture[159],[160].

Aléa Probabilité estimée d’une

extinction de l’humanité avant 2100

Probabilité totale 19 %
Armes utilisant les nanotechnologies 5 %
Intelligence artificielle hostile 5 %
Guerres non nucléaires 4 %
Pandémie résultant de manipulations biologiques 2 %
Guerre nucléaires 1 %
Accident lié aux nanotechnologies 0,5 %
Pandémie naturelle 0,05 %
Terrorisme nucléaire 0,03 %
Source : Future of Humanity Institute, 2008[21].

L’estimation précise de ces risques présente de considérables difficultés méthodologiques. L’attention a surtout été donnée à des risques portant sur les cent prochaines années, mais des prévisions sur un tel laps de temps sont difficiles : si les menaces posées par la nature sont relativement constantes (quoique de nouveaux risques peuvent être découverts), les menaces anthropogéniques sont susceptibles de changer dramatiquement avec le développement de nouvelles technologies. La capacité des experts à prédire l’avenir sur de telles échelles de temps s’est par le passé révélée assez limitée. De plus, outre les aspects technologiques de ces nouvelles menaces, l’analyse de leur impact sur la société et de la capacité qu’elle a à s’en défendre est limitée par les difficultés méthodologiques des sciences humaines, et par la vitesse avec laquelle les relations internationales peuvent changer[159].

Les risques existentiels posent d’autres problèmes d’estimation, en raison d’un biais de sélection majeur, le principe anthropique. Contrairement à la plupart des autres catastrophes, le fait qu’une extinction massive concernant l’humanité ne se soit jamais produite dans le passé ne donne aucune information sur la probabilité d’un tel évènement dans l’avenir, parce que, par définition, une extinction ne laisse pas d’observateurs (humains), et donc, même si des catastrophes constituant des risques existentiels étaient très probables, le fait que l’humanité ait survécu signifierait seulement qu’elle a eu énormément de chance[161]. Il reste cependant possible pour estimer ces risques de se servir d’évènements analogues ayant laissé des traces, comme les cinq grands épisodes d’extinction ayant précédé l’apparition de l’Homme ; il est parfois aussi possible de calculer les effets de telle ou telle catastrophe technologique, par exemple d’un hiver nucléaire[8].

Paradoxe de Fermi

modifier

En 1950, le physicien italien Enrico Fermi se demanda pourquoi l’humanité n’avait pas encore rencontré de civilisations extra-terrestres. Comme il le demandait, « où est tout le monde ? »[162]. Étant donné l’âge de l’Univers et son grand nombre d’étoiles, la vie extraterrestre devrait être banale, à moins que la Terre soit très atypique. C’est cette bizarrerie qui est connue sous le nom de paradoxe de Fermi.

Bien qu’elle ne soit pas majoritairement acceptée, une explication proposée du paradoxe est la notion de risque existentiel, et plus précisément, l’idée que des civilisations que nous aurions pu observer (ou qui auraient pu nous rendre visite) ont été détruites avant que l’humanité apparaisse[161],[163].

Importance économique et éthique des risques existentiels

modifier

La réduction des risques existentiels bénéficie surtout aux générations futures ; en fonction de l’estimation de leur nombre, on peut considérer qu’une diminution même légère du risque a une grande valeur morale. Derek Parfit affirme ainsi que nos descendants pourraient potentiellement survivre encore cinq milliards d’années, jusqu’à ce que l’expansion du Soleil rende la Terre inhabitable[164],[165] ; Nick Bostrom pense même que la colonisation de l’espace permettrait à un nombre astronomique de personnes de survivre durant des centaines de milliards d’années[10] ; c’est la comparaison entre la population actuelle et cet énorme nombre de descendants potentiels détruits par l’extinction qui justifie « moralement » qu’on fasse tout pour réduire les risques.

Ces positions n’ont pas été vraiment contestées, bien que d’un point de vue économique, il faille prendre en compte le fait que la valeur d’un bien actuel est plus importante que la valeur du même bien s’il ne doit être touché que dans l’avenir ; le modèle le plus couramment utilisé, celui de l’actualisation exponentielle, pourrait rendre ces bénéfices futurs bien moins significatifs. Cependant, Jason Gaverick Matheny a affirmé que ce modèle n’est pas pertinent pour déterminer la valeur de la réduction de risques existentiels[155].

Certains économistes ont essayé d’estimer l’importance des risques de catastrophe planétaire (mais pas des risques existentiels). Martin Weitzman prétend que l’espérance (au sens statistique) du coût économique résultant de changements climatiques est importante en raison de situations auxquelles les modèles affectent une faible probabilité, mais qui provoqueraient des dommages catastrophiques[166]. Plus généralement, Richard Posner pense que nous faisons bien trop peu, le plus souvent, pour pallier les risques de catastrophes planétaires lorsque ceux-ci sont faibles et difficiles à estimer[4].

Outre les biais cognitifs analysés dans la section suivante, il y a aussi des raisons économiques expliquant pourquoi peu d’efforts sont faits pour réduire les risques existentiels, et même certains risques de catastrophe planétaire non irréparable : ces risques concernent un bien global, c´est-à-dire que même si une grande puissance les réduit, elle ne profitera que d’une petite partie du bénéfice correspondant ; de plus la majorité de ces bénéfices seront perçus par les générations futures, lesquelles n’ont évidemment aucun moyen de payer une assurance contre ces risques aux générations actuelles[8].

Perception des risques

modifier
Tableau représentant quatre cavaliers sépulcraux dans un décor désolé. 
Les Quatre Cavaliers de l’Apocalypse dans un tableau de 1887 par Viktor Vasnetsov (de gauche à droite, la Peste, la Famine, la Guerre et la Conquête).

Selon Eliezer Yudkowsky, de nombreux biais cognitifs peuvent influencer la façon dont les individus et les groupes estiment l’importance des risques de catastrophe globale, biais parmi lesquels figurent l’insensibilité à l’étendue, l’heuristique de disponibilité, l'erreur de conjonction, l’heuristique d’affect, et l’effet d’excès de confiance[91]. Ainsi, l’insensibilité à l’étendue amène les gens à être souvent plus concernés par les menaces individuelles qu’à celles s’adressant à des groupes plus vastes[91] (c’est pourquoi leurs dons pour des causes altruistes ne sont pas proportionnels à l’ampleur du problème[167]) ; cela fait qu’ils ne considèrent pas l’extinction de l’humanité comme un problème aussi grave qu’il devrait l’être. De même, l'erreur de conjonction les amène à minimiser les catastrophes qui n’ont que peu de rapport avec celles dont ils ont eu connaissance, et à supposer que les dommages qu’elles causeront ne seront pas beaucoup plus graves[91].

Il a été souvent remarqué[168] que la majorité des risques anthropogéniques mentionnés précédemment correspondent à des mythes souvent très anciens, ceux de Prométhée, de Pandore et, plus récemment, celui de l’apprenti sorcier étant les plus représentatifs. La symbolique des quatre Cavaliers de l’Apocalypse, les trois derniers représentant la Guerre, la Famine et la Peste, se trouve déjà dans l’Ancien Testament sous la forme du choix inconfortable offert par Dieu au roi David[169]. Les divers risques de révolte des machines apparaissent dans le mythe du Golem, et, combinés aux biotechnologies, dans l’histoire du monstre de Frankenstein. D’autre part, il a été suggéré que les récits de catastrophes de diverses traditions religieuses (où elles sont le plus souvent liées au courroux des divinités) correspondraient à des souvenirs de catastrophes réelles (par exemple le Déluge serait lié à la reconnexion de la mer de Marmara avec la mer Noire) ; sous le nom de catastrophisme cohérent (coherent catastrophism)[157], Victor Clube et Bill Napier ont développé l’hypothèse selon laquelle des pluies de météorites cataclysmiques auraient donné naissance à de nombreux mythes cosmogoniques, allant de l’histoire de la destruction de Sodome et Gomorrhe (thèse défendue également par Marie-Agnès Courty) aux descriptions de l’Apocalypse[23] ; leurs idées sont cependant mal acceptées par la communauté scientifique[170].

L’existence de ces interprétations « mythiques », ainsi que de nombreuses prophéties de fin du monde[n 18], facilite un phénomène de refus partiel ou total de prise en compte de ces risques de catastrophe, connu sous le nom de syndrome de Cassandre[n 19],[172] : tandis que les risques anthropogéniques sont minimisés en les attribuant à des peurs irrationnelles, les catastrophes décrites dans les mythes sont jugées exagérées par l’ignorance et la déformation des souvenirs[n 20],[173].

L’analyse des risques causés par l’Homme souffre d’ailleurs de deux biais opposés : les lanceurs d’alerte tendent à exagérer le risque pour se faire entendre[n 21], voire à dénoncer des risques imaginaires au nom du principe de précaution[174] ; de puissants intérêts économiques essaient à l’inverse de minimiser les risques liés à leurs activités, comme le montre par exemple l’affaire de l’institut Heartland[175], et plus généralement l’analyse des stratégies de désinformation exposée dans Les Marchands de doute[n 22].

Donnant une interprétation rationnelle au mythe de l’âge d’or[n 23], Jared Diamond fait enfin remarquer que certaines catastrophes, les « écroulements » (crunches) de Nick Bostrom, peuvent passer inaperçues des sociétés qui les subissent, faute d’une mémoire historique suffisante[n 24] ; c’est par exemple ainsi qu’il explique le désastre écologique subi par les habitants de l’île de Pâques[177].

Organisations d'évaluation des risques

modifier
Pictogramme représentant un quart d'horloge, les aiguilles sur minuit mois cinq. 
Pictogramme de l’Horloge de la fin du monde.

Le Bulletin of the Atomic Scientists est un des plus vieux organismes se préoccupant de risques globaux ; il fut fondé en 1945 après que le bombardement d’Hiroshima a fait prendre conscience par le grand public des dangers de l’arme atomique. Il étudie les risques associés aux technologies et aux armes nucléaires, et est célèbre pour sa gestion de l’Horloge de la fin du monde depuis 1947.

En 1972, les travaux du Club de Rome ont donné lieu à un célèbre rapport, Halte à la croissance ?, mettant en garde contre les risques d’épuisement des ressources naturelles et de catastrophes écologiques avant la fin du XXIe siècle. Paru en plein milieu des Trente Glorieuses, le rapport est fortement contesté dès sa parution pour son pessimisme[n 19],[178], mais ses hypothèses sont plutôt considérées comme optimistes quarante ans après sa parution par le Club : l'épuisement arriverait en fait avant la moitié du XXIe siècle[179].

Depuis le début des années 2000, un nombre croissant de scientifiques, de philosophes et de milliardaires des nouvelles technologies ont créé des organisations indépendantes ou liées aux milieux académiques, consacrées à l’analyse des risques de catastrophe planétaire[180].

Parmi les organisations non gouvernementales (ONG) de ce type, on trouve le Machine Intelligence Research Institute (créé en 2000), qui a pour but de réduire les risques de catastrophe liés à l’intelligence artificielle et à la singularité technologique[181], et dont Peter Thiel est un des principaux donateurs[182]. Plus récemment, la Lifeboat Foundation (créée en 2006) subventionne des recherches de prévention d’une catastrophe technologique[183], la plupart des fonds allant à des projets universitaires[184] ; le Future of Life Institute a été créé en 2014 pour « rechercher des moyens de sauvegarder l'humanité face aux nouveaux défis technologiques »[185], Elon Musk en est un des plus importants donateurs[186].

Parmi les organisations dépendant d’universités figurent le Future of Humanity Institute, fondé en 2005 par Nick Bostrom à l’université d'Oxford pour effectuer des recherches sur l’avenir à long terme de l’humanité et les risques existentiels, le Centre pour l'étude des risques existentiels, fondé en 2012 à l’université de Cambridge (et dont Stephen Hawking est consultant) pour étudier quatre risques anthropogéniques : l’intelligence artificielle[n 25], les biotechnologies, le réchauffement climatique et les risques de guerre ; ou encore, à l’université Stanford, le Center for International Security and Cooperation, étudiant les politiques de coopération permettant de réduire les risques de catastrophe planétaire[188].

Enfin, d’autres groupes d’évaluation des risques appartiennent à des organisations gouvernementales. Ainsi, l’Organisation mondiale de la santé (OMS) possède un département appelé Alerte et Réponse Globale (GAR) chargé de la coordination entre États membres en cas de pandémie[189],[190] ; l'Agence des États-Unis pour le développement international (USAID) possède un programme analogue[191]. Le Laboratoire national Lawrence Livermore a une division, le Global Security Principal Directorate (Directoire principal de la sécurité globale) chargé d’étudier pour le compte du gouvernement des questions telles que la bio-sécurité, le contre-terrorisme, etc[192].

Précautions et prévention

modifier

La notion de gouvernance globale respectant les limites planétaires a été proposée comme une approche de prévention des risques de catastrophe écologique. En particulier, le domaine de la géo-ingénierie envisage de manipuler l’environnement à l’échelle du globe pour combattre les changements anthropogéniques de la composition atmosphérique. Des techniques globales de stockage et de conservation des aliments ont été envisagées, mais leur coût serait élevé, et de plus elles pourraient aggraver les conséquences de la malnutrition. David Denkenberger et Joshua Pearce ont suggéré d'utiliser diverses nourritures alternatives pour diminuer les risques de famine liés à des catastrophes planétaires telles qu’un hiver nucléaire ou un changement climatique soudain[193], par exemple de convertir la biomasse (les arbres et le bois) en produits comestibles[194] ; cependant, il faudra beaucoup d’avancées dans ce domaine pour que ces méthodes permettent à une fraction importante de la population de survivre[195]. D’autres suggestions de diminution des risques, telles que les stratégies de déviation des astéroïdes pour parer aux risques d’impact, ou le désarmement nucléaire, s’avèrent économiquement ou politiquement difficiles à mettre en œuvre. Enfin, la colonisation de l’espace est une autre proposition faite pour augmenter les chances de survie face à un risque existentiel[196], mais des solutions de ce type, inaccessibles actuellement, demanderont sans doute entre autres le recours à l’ingénierie à grande échelle.

Parmi les précautions effectivement prises individuellement ou collectivement, on peut citer :

Analyses et critiques

modifier

L'importance des risques détaillés dans les sections précédentes est rarement niée, même si les risques dus à l’homme sont souvent minimisés[n 22] ; cependant, les analyses de Nick Bostrom et d'autres auteurs transhumanistes ont été critiquées de plusieurs points de vue distincts.

Critiques techniques

modifier

Plusieurs des risques mentionnés par Nick Bostrom dans ses ouvrages sont jugés exagérés (voire imaginaires), ou correspondent à des échelles de temps si vastes qu’il semble un peu absurde de les regrouper avec des menaces presque immédiates[202],[n 26]. D’ailleurs, les calculs de probabilité, d’espérance ou d’utilité sont difficiles ou mal définis pour ce genre de situation, comme le montrent par exemple des paradoxes tels que l’argument de l’Apocalypse, et comme Nick Bostrom le reconnaît lui-même[203],[202]. En particulier, il a développé un argument éthique affirmant que le nombre exorbitant de nos descendants voués au néant par une catastrophe existentielle justifie qu’on emploie tous les moyens imaginables pour diminuer, si peu que ce soit, la probabilité de cet accident[10] ; cependant, les calculs sur lesquels il s’appuie ont été contestés et cet argument pourrait bien n’être qu’un sophisme[155].

Nick Bostrom et Max Tegmark ont publié en 2005 une analyse d’un risque d’instabilité de l’univers entier[204]. Indépendamment de la validité de leurs calculs (tendant à montrer que le risque est très faible), on peut se demander s'il y a réellement un sens à parler d’une catastrophe dont nul ne serait averti, et qui ne laisserait aucun observateur ; lors d’une discussion analogue sur le risque d’une réaction en chaîne embrasant toute l’atmosphère, un ami avait répondu aux angoisses de Richard Hamming par « Ne t’inquiète pas, Hamming, il ne restera personne pour te blâmer »[116].

Positions philosophiques

modifier

Les analyses de Nick Bostrom s’appuient sur le transhumanisme, une idéologie prônant l’usage des sciences et des techniques afin d’améliorer les caractéristiques physiques et mentales des êtres humains ; il considère ainsi que tout ce qui pourrait empêcher l’humanité de développer pleinement son potentiel est un risque existentiel[6] ; estimant par exemple que seule la conquête de l'espace interstellaire peut mettre l'humanité à l'abri des dangers cosmiques prévisibles à l'échelle des centaines de millions d'années, il met parmi les risques existentiels la disparition du potentiel technologique nécessaire à cette colonisation[205].

Cette position a été sévèrement critiquée, entre autres parce qu’elle amène à nier des valeurs auxquelles l’humanité actuelle est attachée, au nom de valeurs futures hypothétiques[7]. Steve Fuller remarque en particulier que si une catastrophe planétaire ne détruit pas toute l’humanité, les survivants pourront légitimement estimer dans certains cas que leur situation s’est améliorée[206].

Dans la fiction

modifier

Littérature

modifier
La Fin du monde, tableau apocalyptique de John Martin. 
La Fin du monde, tableau de John Martin (1853).

Des scénarios de catastrophe planétaire sont en germe dans les plus anciens mythes répertoriés : déluge engloutissant tous les êtres vivants dans l’Épopée de Gilgamesh, destruction par la glace, l’eau ou le feu dans le mythe nordique du Ragnarök, liste des dix plaies d'Égypte, etc.[207]. Mais aucun de ces récits, ni de ceux proposés par la science-fiction jusque vers 1950, ne se soucie de vraisemblance scientifique ou sociologique ; les descriptions de dystopies (correspondant aux « hurlements » (shrieks) de Nick Bostrom), à l’exception notable de 1984, se préoccupent également fort peu de la cohérence et de la viabilité des systèmes qu'elles proposent en repoussoir.

Après Hiroshima, une abondante littérature post-apocalyptique se développe, comportant d’ailleurs des œuvres non rangées dans le champ de la science-fiction, comme Malevil, mais la plupart de ces romans se concentrent sur la question de la survie, et non sur les causes de la catastrophe (presque toujours nucléaire)[n 14] ; en 1985, Jacques Goimard expliquera la popularité de ces récits par le « désir d’effondrement »[208].

Au début des années 1970 apparaissent des descriptions de catastrophes environnementales visant au réalisme. Ainsi, John Brunner publie Tous à Zanzibar (1968) et Le Troupeau aveugle (1972), dénonçant respectivement les dangers de la surpopulation et de la pollution, et se voulant scientifiquement irréprochables ; il s’appuie sur une documentation très à jour, reflétant les analyses des premiers mouvements écologistes, et s’avère même étonnamment précis dans ses prédictions[209].

Des romans décrivant des catastrophes dues aux nouvelles technologies (intelligence artificielle, biotechnologies, nanotechnologies, etc.) n’apparaissent pas avant 1990, et restent marginaux ; bien plus nombreux sont ceux se préoccupant, comme dans les romans de Iain Banks sur la Culture, de la façon dont les humains pourraient s’adapter à ces technologies, dans des univers inspirés des idées transhumanistes.

Cinéma

modifier

Les catastrophes ont constitué un sujet de choix depuis les débuts de l’histoire du cinéma (avec par exemple en 1927 Metropolis, considéré comme le premier film dystopique), mais la difficulté de la réalisation d'effets spéciaux convaincants fait que les réalisateurs se sont plutôt attachés à la description d’un monde dévasté, comme dans la série des Mad Max.

À partir des années 1990, les énormes progrès des effets spéciaux numériques donnent au film catastrophe un nouveau souffle : Independence Day relatant une invasion extra-terrestre, Volcano l’irruption d’un volcan en pleine ville, ou encore Armageddon décrivant la destruction d’un astéroïde menaçant l’impact ; on peut aussi citer les films de la série Terminator et ceux de la série Matrix, illustrant la « révolte des machines ». En 2004, Le Jour d’après de Roland Emmerich décrit un changement climatique brutal. Cependant, tous ces films ont été gravement critiqués pour leur absence de réalisme ou de vraisemblance[210],[n 27].

Plus récemment encore, d’autres types de catastrophes planétaires, en particulier les pandémies, ont fait l’objet de films demandant moins d'effets spéciaux et au demeurant plus réalistes, le film le plus célèbre de ce type étant Contagion.

Notes et références

modifier
  1. Plus précisément, dans un article pour le Journal of Evolution and Technology, il définit un risque existentiel comme « un évènement qui annihilerait la vie intelligente sur Terre ou réduirait son potentiel de façon drastique et permanente »[6] ; cette approche s'appuyant sur les valeurs du transhumanisme est largement contestée par d'autres courants de pensée, comme par exemple par Francis Fukuyama[7].
  2. Des définitions plus quantitatives ont été données par la suite ; ainsi, la Global Challenges Foundation définit un tel risque comme « provoquant la mort d'au moins un dixième de l'humanité »[9].
  3. En négligeant les évènements de très faible probabilité, comme les impacts cosmiques par des objets de plus de 3 km de diamètre, au demeurant minimisés par les théories de l'époque concernant les grandes extinctions, attribuées à des causes graduelles.
  4. D’autres auteurs, comme Jared Diamond ou Paul R. Ehrlich, utilisent plutôt le terme « effondrement » (collapse).
  5. Le risque d'une extinction complète est évidemment diminué par l'effectif même de l'humanité (plus de 8 milliards d'individus), et l'existence de groupes développant des stratégies de survie à la plupart des catastrophes envisageables.
  6. Même pour des risques indépendants des actions humaines (impacts cosmiques, volcanisme, etc.) et s'étant déjà produit fréquemment (à l'échelle géologique), la notion de probabilité n'est pas toujours bien définie : dans l’ignorance des mécanismes exacts causant la catastrophe, la loi d’apparition de l’aléa étudié reste incertaine. Benoît Mandelbrot a ainsi montré que de nombreux phénomènes (allant des intermittences sur les lignes téléphoniques aux crues des fleuves, ou aux prix des matières premières) ont une structure temporelle fractale[22] ; lorsque c'est le cas, la probabilité d’apparition du phénomène varie selon l’échelle de temps choisie. Ainsi, le risque d’impact cosmique (qu’on peut a priori estimer à un impact destructeur par million d’années) change beaucoup si l’on est en fait en train de traverser un essaim météoritique[23].
  7. L’agence nationale de santé publique estime en 2016 que la pollution de l’air est responsable de 48 000 morts par an en France[48] ; l’Organisation mondiale de la santé l’estimait responsable en 2012 de près de sept millions de morts prématurées par an, surtout dans les pays à revenus faibles et intermédiaires, en particulier en Asie[49].
  8. Ce que montrent, par exemple, les mesures prises à la suite du grand smog de Londres ; en revanche, éliminer le nuage brun d'Asie demanderait des mesures coercitives internationales difficiles à mettre en œuvre[51].
  9. Une série d'accords sur la réduction des armes stratégiques a été régulièrement mise à jour et respectée par les deux parties ; la dernière version en date court jusqu'en 2026.
  10. En 2014, Eric H. Cline a de même attribué à une crise systémique globale l'effondrement soudain de royaumes et d'empires à la fin de l'âge du bronze[80] ; on trouvera dans l’article Théories sur les risques d’effondrement de la civilisation industrielle d’autres analyses des scénarios possibles d’effondrement (collapse) des systèmes.
  11. Ils évoquent par exemple la chute d’une météorite de 50 m de diamètre (ce qui a lieu tous les 1000 ans en moyenne[81]) qui, si elle se produisait sur le territoire américain, pourrait être prise pour une attaque nucléaire surprise, déclenchant une contre-attaque automatique[23].
  12. Il s’agit là d’un des biais cognitifs qui rendent difficile l’appréciation exacte des risques de catastrophe planétaire[91].
  13. Ce type d'erreur est particulièrement difficile à gérer lorsque l'IA ne peut justifier ses raisonnements, et que les humains risquent de suivre aveuglément des conseils s'avérant désastreux[92].
  14. a et b Des catastrophes « réalistes » provenant de l’apparition d’une nouvelle technologie ont été parfois envisagées par des auteurs de science-fiction dès les années 1950 ; un célèbre exemple étant l’invention de la glace-neuf dans le roman de Kurt Vonnegut, Le Berceau du chat.
  15. Cependant, un important changement climatique, peut-être global, se serait produit en quelques décennies à la fin du Dryas récent, il y a 12 000 ans[133].
  16. Un tel passage, perturbant le nuage de Oort, pourrait beaucoup augmenter le risque d'impact cosmique ; en 2016, il a été montré que ce serait en particulier le cas de Gliese 710 dans 1,35 million d'années[151].
  17. Cependant, des recommandations éditées par le COSpAR dans le cadre de la protection planétaire concernant les retours d’échantillons sur Terre (catégorie V) ont pour objectif d’éviter une telle contamination[154].
  18. Ces prophéties n'entrent pas directement dans le cadre de la prédiction de risques de catastrophe planétaire, faute de donner des détails sur les mécanismes mis en jeu ; elles jouent cependant un rôle certain dans le scepticisme souvent affiché face aux analyses alarmistes des experts[171]. L’analyse des mécanismes par lesquels les groupes s’adaptent à la dissonance cognitive provenant de prédictions erronées est le sujet du livre de Leon Festinger, L'Échec d'une prophétie ; ils amènent les observateurs ne faisant pas partie du groupe à se montrer plus sceptiques face à de nouvelles prophéties.
  19. a et b Sous le titre La malédiction de Cassandre, une analyse de Ugo Bardi (dont voici la version originale en anglais) est parue en 2011, étudiant la diabolisation du rapport du Club de Rome intitulé Halte à la croissance ?.
  20. Dans L’Éveil, Oliver Sacks fait remarquer que des pandémies même relativement récentes sont minimisées (la grippe de 1918) ou complètement oubliées (l’encéphalite léthargique).
  21. Ainsi, dans La Bombe P, Paul R. Ehrlich annonçait en 1968 des famines massives (dues à la surpopulation) censées se produire avant 1980.
  22. a et b Dans Les Marchands de doute, Naomi Oreskes et Erik M. Conway montrent que les mêmes stratégies de désinformation employées pour nier les méfaits du tabagisme ont été utilisées pour minimiser les effets du réchauffement climatique, des pluies acides et de la destruction de la couche d’ozone.
  23. Apparaissant dans de nombreux mythes indo-européens (grecs et romains, mais aussi hindous), ces récits d’un état passé idéal dont l’humanité a été chassée peuvent être également vus comme des variantes du thème du paradis perdu ; Claude Lévi-Strauss les rattache à un « mythème » plus général expliquant les institutions sociales (et aussi la maladie, le vieillissement et la mort) par la perte, à la suite d’une transgression, d’un état antérieur plus favorable[176].
  24. Manquant de traditions écrites, par exemple, ils ignorent que, dans le passé, leurs conditions de vie étaient meilleures, et répètent les actions nuisibles de leurs prédécesseurs, parce qu’ils n’ont pas conscience de leurs conséquences.
  25. Huw Price explique « qu’il semble raisonnable de penser que tôt ou tard l’intelligence échappera aux contraintes biologiques et que nous ne serons alors plus ce qu’il y a de plus malin, et risquerons d’être à la merci de machines ne prenant pas nos intérêts en compte[187]. »
  26. Ainsi, il parait peu vraisemblable que l’humanité soit un jour capable d’empêcher l’expansion du Soleil, et seule la colonisation de systèmes extra-solaires peut l’en protéger. Cependant, ce type de colonisation (dans l’état actuel de nos connaissances) repose sur des capacités technologiques et sociales extrêmement éloignées de nos possibilités actuelles (typiquement, maintenir dans d’immenses vaisseaux spatiaux des civilisations stables de futurs colons, pendant plusieurs dizaines de milliers d’années) ; une analyse sérieuse de rapport coûts-bénéfices dans ce cas semble à plusieurs critiques totalement illusoire.
  27. Par exemple, faire exploser un astéroïde comme dans Armageddon ne protégerait probablement pas la Terre de l’impact ; le changement climatique décrit dans Le Jour d’après, outre qu’il ne risque guère de provoquer une nouvelle ère glaciaire à court terme, ne saurait en aucun cas geler instantanément les gens restés dehors.

Références

modifier
  1. Céline Grislain-Letrémy, Reza Lahidji et Philippe Mongin, Les risques majeurs et l'action publique : Rapport du Conseil d'analyse économique no 105, La Documentation française, .
  2. Helga-Jane Scarwell et Richard Laganier, Risque d'inondation et aménagement durable du territoire, Villeneuve-d'Ascq, Presses universitaires du Septentrion, , 242 p. (ISBN 2-85939-870-8, lire en ligne), p. 51.
  3. Carl Sagan, Richard Turco, L'hiver nucléaire, collection Science ouverte, Seuil, 1991 (ISBN 978-2020127110)
  4. a et b Posner 2004, Introduction, « Qu'est-ce qu’une catastrophe ? ».
  5. Bostrom 2008, p. 1 (lire en ligne).
  6. a b c d et e Bostrom 2002.
  7. a b et c (en) Francis Fukuyama, « Transhumanism », Foreign Policy,‎ (lire en ligne).
  8. a b c d et e (en) Nick Bostrom, « Existential Risk Prevention as Global Priority » [« La prévention des risques existentielles, une priorité globale »], Global Policy,‎ , p. 15–31 (DOI 10.1111/1758-5899.12002, lire en ligne, consulté le ).
  9. Cotton-Barratt 2016
  10. a b et c (en) Nick Bostrom, « Astronomical Waste: The opportunity cost of delayed technological development » [« Gâchis astronomique : le coût d'un délai du développement technologique »], Utilitas, vol. 15, no 3,‎ , p. 308–314 (DOI 10.1017/s0953820800004076, lire en ligne).
  11. Tomasz Wyluda, Omega risk: Analysis of events with low probability and catastrophic impact on the global economy, Katowice, XVIII International Scientific Conference Analysis of International Relations 2024 - University of Economics in Katowice. Methods and Models of Regional Development, , 73-84 p. (lire en ligne [PDF])
  12. a et b (en) Niall Firth, « Human race 'will be extinct within 100 years', claims leading scientist », Daily Mail,‎ (lire en ligne, consulté le )
  13. a et b (en) Covid-19 and catastrophic risk, sur le site du Future of Life Institute.
  14. a et b (en) « Frequently Asked Questions » [« Foire aux questions »], Future of Humanity Institute (consulté le ).
  15. (en) « The Cambridge Project for Existential Risk » [« Le projet de Cambridge pour les risques existentiels »], Cambridge University.
  16. (en) « 'Terminator center' to open at Cambridge University » [« Un "centre Terminator" va s'ouvrir à l'université de Cambridge »], Fox News,‎ (lire en ligne).
  17. a et b (en) « 2015: IT IS 3 MINUTES TO MIDNIGHT » [« 2015 : trois minutes avant minuit »](Archive.orgWikiwixArchive.isGoogleQue faire ?), sur Bulletin of the Atomic Scientists, .
  18. (en) Plus proche que jamais : plus que 100 secondes avant minuit, sur le Bulletin of the Atomic Scientists, 23 janvier 2020.
  19. (en) La Covid sonne le réveil : plus que 100 secondes avant minuit Bulletin of the Atomic Scientists, 27 janvier 2021.
  20. a et b (en) « A time of unprecedented danger:It is 90 seconds to midnight », Bulletin of the Atomic Scientists (consulté le ).
  21. a b et c (en) Global Catastrophic Risks Survey, Technical Report, 2008, Future of Humanity Institute.
  22. « L'application des fractales à la finance : entretien avec Benoît Mandelbrot », La Recherche,‎ (lire en ligne).
  23. a b et c Victor Clube et Bill Napier, Hiver cosmique, Le jardin des livres, 2006.
  24. Julien Cattiaux, Fabrice Chauvin, Hervé Douville et Aurélien Ribes, « Des bulletins météo extrêmes à prévoir », La Recherche, no 517,‎ (résumé).
  25. a et b (en) Isaac M. Held et Brian J. Soden, « Water Vapor Feedback and Global Warming » [« Réchauffement global et rétroaction de la vapeur d’eau »], Annu. Rev. Energy Environ 2000,‎ , p. 449 et suivantes (résumé).
  26. (en) James Hansen, « Climate sensitivity, sea level and atmospheric carbon dioxide » [« Sensibilité au climat, niveau de la mer et gaz carbonique de l’atmosphère »], Royal Society Publishing, vol. 371, no 2001,‎ , p. 20120294 (DOI 10.1098/rsta.2012.0294, lire en ligne).
  27. (en) Kendall Powell et John Bluck, « Tropical 'runaway greenhouse' provides insight to Venus » [« L'emballement de l’effet de serre donne des indices pour Vénus »](Archive.orgWikiwixArchive.isGoogleQue faire ?), NASA Ames Research Center, .
  28. (en) Fricke, H. C., Williams, C. et Yavitt, J. B., « Polar methane production, hothouse climates, and climate change » [« Production de méthane polaire, climats de serre et changements climatiques »], American Geophysical Union, vol. Fall Meeting,‎ (Bibcode 2009AGUFMPP44A..02F).
  29. (en) Ambrose Evans-Pritchard, « Einstein was right - honey bee collapse threatens global food security » [« Einstein avait raison - l’effondrement des abeilles menace la sécurité alimentaire »], The Daily Telegraph, Londres,‎ (lire en ligne).
  30. Martine Valo, « Il faut interdire l'usage des pesticides néonicotinoïdes en Europe », Le Monde, Groupe Le Monde,‎ (lire en ligne).
  31. Meadows 1974, p. 129 et suiv. de l’édition anglaise.
  32. (en)[PDF]Nations unies, Département des Affaires économiques et sociales, World Population Prospects - The 2012 Revision - Key Findings and Advance Tables, (lire en ligne).
  33. a et b (en) « Historical Estimates of World Population » [« Estimations historiques de la population mondiale »](Archive.orgWikiwixArchive.isGoogleQue faire ?), sur census.gov, US Census Bureau (consulté le ).
  34. (en) « The end of India's green revolution? » [« La fin de la révolution verte en Inde ? »], BBC News,‎ (lire en ligne, consulté le ).
  35. (en) Food First (en), « Green Revolution » [« Révolution Verte »], Foodfirst.org (consulté le ).
  36. a et b Matthieu Auzanneau, « Nier l'imminence du pic pétrolier est une erreur tragique », sur petrole.blog.lemonde.fr, (consulté le ).
  37. a b et c (en) The Oil Drum: Europe, « Agriculture Meets Peak Oil » [« L’agriculture rencontre le pic pétrolier »], Europe.theoildrum.com (consulté le ).
  38. (en) « Eating Fossil Fuels » [« Manger des carburants fossiles »], EnergyBulletin.net, (consulté le ).
  39. (en) Dale Allen Pfeiffer, « Drawing Momentum from the Crash » [« Utiliser le crash pour gagner de la force »], sur uncommonthought.com, .
  40. Marc Bettinelli, Vincent Pastorelli et Audrey Garric, « Le « jour du dépassement de la Terre » en infographies », sur lemonde.fr, (consulté le ).
  41. a et b (en) « Past Earth Overshoot Days » [« Recalcul des dates du dépassement (en fonction de la méthodologie de 2018) »], sur overshootday.com.
  42. (en) « Overshoot day (jour du dépassement) », sur Overshootday.org, .
  43. (en) « Cereal Disease Laboratory : Ug99 an emerging virulent stem rust race » [« Laboratoire des maladies des céréales : Ug99, une rouille émergente »], Ars.usda.gov (consulté le ).
  44. (en) « Durable Rust Resistance in Wheat » [« Résistance durable à la rouille du blé »], Wheatrust.cornell.edu (consulté le ).
  45. Ainsi, une expérience intensive sur les risques d’hybridation avec le colza« Hybridation entre le colza et la ravenelle en conditions proches de la pratique agricole », sur inra.fr, (consulté le ) a donné des résultats entièrement négatifs.
  46. Christiane Galus, « Le “nuage brun” d’Asie pourrait menacer le climat de la planète », Le Monde,‎ (lire en ligne).
  47. « R4WO en bref : Une course contre la montre pour préserver les océans », Race for Water (consulté le ).
  48. Laetitia Van Eeckhout, « La pollution de l’air est responsable de 9 % de la mortalité en France », sur Le Monde, (consulté le ).
  49. « 7 millions de décès prématurés sont liés à la pollution de l’air chaque année »(Archive.orgWikiwixArchive.isGoogleQue faire ?), sur le site de l’Organisation mondiale de la santé, .
  50. « Un air irrespirable : la pollution atmosphérique tue et coûte de l’argent », sur banquemondiale.org, .
  51. (en) V. Ramanathan et al., « Atmospheric brown clouds regional assessment report with focus on Asia » [« Rapport sur les nuages bruns »](Archive.orgWikiwixArchive.isGoogleQue faire ?), sur United Nations Environment Programme, .
  52. Le cri d'alarme de quinze mille scientifiques sur l'état de la planète, Le Monde, .
  53. « Environnement : l'avertissement de 15 000 scientifiques face à la dégradation de la planète - France 24 », France 24,‎ (lire en ligne, consulté le )
  54. « Alerte de 15 000 scientifiques : leurs 9 indicateurs de dégradation de la planète analysés », France Culture,‎ (lire en ligne, consulté le )
  55. Damian Carrington, « Climate crisis: 11,000 scientists warn of 'untold suffering' », .
  56. Pierre Le Hir, « Biodiversité : une espèce sur huit, animale et végétale, risque de disparaître à brève échéance », Le Monde,‎ (lire en ligne, consulté le ).
  57. (en) Martin Hellman, « On the Probability of Nuclear War » [« Sur la probabilité d’une guerre nucléaire »], sur stanford.edu, .
  58. (en) Avner Cohen et Steven Lee, Nuclear Weapons and the Future of Humanity : The Fundamental Questions [« Armes nucléaires et avenir de l’humanité : les questions fondamentales »] (lire en ligne), p. 237.
  59. (en) Marion Lloyd, « Soviets close to using A-bomb in 1962 crisis, forum is told », The Boston Globe,‎ (lire en ligne, consulté le ).
  60. a et b (en) Federation of American Scientists, « Status of World Nuclear Forces » [« État des forces nucléaires dans le monde »], sur Federation of American Scientists, (consulté en ).
  61. « Il est minuit moins deux minutes trente avant la fin du monde », Le Figaro.fr avec AFP, .
  62. (en) « The Doomsday Clock just moved: It’s now 2 minutes to ‘midnight’, the symbolic hour of the apocalypse », Lindsey Bever, Sarah Kaplan et Abby Ohlheiser, The Washington Post.com, .
  63. (en) Plus proche que jamais : plus que 100 secondes avant minuit, sur le Bulletin of the Atomic Scientists, 23 janvier 2020.
  64. (en) Will Putin go nuclear ? sur le Bulletin of the Atomic Scientists, 27 avril 2022.
  65. (en) Frank Dikötter, La Grande Famine de Mao, 1958–62, New York, Walker & Company, , 420 p. (ISBN 978-0-8027-7768-3 et 0-8027-7768-6), p. 13.
  66. (en) Brian Martin, « Critique of nuclear extinction » [« Critique du concept d'extinction nucléaire »], Journal of Peace Research, vol. 19, no 4,‎ , p. 287–300 (DOI 10.1177/002234338201900401, lire en ligne, consulté le ).
  67. Richard Turco, Owen Toon, Thomas Ackerman, James Pollack et Carl Sagan, « L'hiver nucléaire », La paix surarmée, Belin,‎ .
    traduction en français de (en) « Nuclear Winter: Global Consequences of Multiples Nuclear Explosions », Science, vol. 222, no 4630,‎ , p. 1283-1292.
  68. a et b (en) Carl Shulman, « Nuclear winter and human extinction: Q&A with Luke Oman », sur Overcoming Bias, (consulté le ).
  69. (en) C. Bardeen, L. Oman, A. Robock, G. L. Stenchikov, O. B. Toon et R. P. Turco, « Atmospheric effects and societal consequences of regional scale nuclear conflicts and acts of individual nuclear terrorism » [« Effets atmosphériques et conséquences sociales de conflits nucléaires régionaux »], Atmospheric Chemistry and Physics,‎ (lire en ligne, consulté le ).
  70. Bostrom 2002, section 4.2.
  71. (en) Herman Kahn, On Thermonuclear War [« Sur la guerre thermonucléaire »], Princeton, NJ, USA, Princeton University Press,, .
  72. (en) Christian Enemark, « Biological attacks and the non-state actor: A threat assessment » [« Attaques biologiques par un acteur non-étatique : évaluation des menaces »], Intelligence and National Security,‎ (lire en ligne).
  73. a et b « VIDEO - La tempête solaire qui a failli renvoyer la Terre au 18e siècle », sur bfmtv.com, BFM TV, (consulté le ).
  74. (en) Sangeetha Abdu Jyothi, « Solar Superstorms: Planning for an Internet Apocalypse », sur Université de Californie à Irvine, (consulté le ).
  75. « La « guerre de l’eau » », sur lemonde.fr, (consulté le ).
  76. « Guerre de l'eau : le Pakistan menace l'Inde », sur lefigaro.fr, (consulté le ).
  77. Bruno Chaudret, « Métaux et terres rares : l’autre problème de la transition énergétique », Progressistes,‎ (lire en ligne, consulté le ).
  78. Tainter 1990.
  79. Il a formé un groupe multidisciplinaire pour étudier la culture anasazi dans Evolving Complexity and Environmental Risk in the Prehistoric Southwest (Santa Fe Institute Proceedings no 24), coédité avec Bonnie Bagley Tainter, 1998.
  80. (en) Eric H. Cline, 1177 B.C.: The Year Civilization Collapsed (2014), Princeton University Press, (ISBN 978-0-691-14089-6), publié en français sous le titre 1177 avant J.-C. : Le jour où la civilisation s'est effondrée (traduction par Philippe Pignard), La Découverte (2016), (ISBN 978-2-7071-9061-1).
  81. a et b (en) Une analyse des effets d’impacts cosmiques, et un simulateur basé sur cette analyse, développé à l’université d’Arizona.
  82. a et b (en) John Markoff, « Scientists Worry Machines May Outsmart Man » [« L’inquiétude des savants sur les machines devenant plus malignes que l’homme »], The New York Times,‎ (lire en ligne).
  83. (en) Vernor Vinge, « The Coming Technological Singularity: How to Survive in the Post-Human Era » [« La singularité technologique : comment survivre dans l’ère post-humaine »], sur rohan.sdsu.edu, .
  84. (en) Bill Joy, « Why the future doesn't need us » [« Pourquoi l’avenir n’a pas besoin de nous »], Wired,‎ (lire en ligne).
  85. (en) Nick Bostrom, « Ethical Issues in Advanced Artificial Intelligence » [« Questions éthiques en intelligence artificielle avancée »], sur nickbostrom.com, .
  86. (en) Nick Bostrom, Superintelligence : Paths, Dangers, Strategies [« Superintelligence : chemins, dangers, stratégies »], Oxford University Press, , 328 p. (ISBN 978-0-19-967811-2, lire en ligne).
  87. (en) Kevin Rawlinson, « Microsoft's Bill Gates insists AI is a threat » [« Bill Gates insiste : l’IA est une menace »], BBC News (consulté le ).
  88. (en) Mariëtte Le Roux, « Rise of the Machines: Keep an eye on AI, experts warn » [« L’éveil des machines : gardez un œil sur l’IA, avertissent les experts »], Phys.org,‎ (lire en ligne, consulté le ).
  89. (en) P. W. Singer, « Gaming the Robot Revolution: A military technology expert weighs in on Terminator: Salvation » [« Parier sur la révolution des robots »], sur slate.com, (consulté le ).
  90. (en) Laurent Orseau et Stuart Armstrong, « Safely Interruptible Agents » [« Programmes qu'on peut arrêter sans danger »], sur intelligence.org, (consulté le ). .
  91. a b c et d (en) Eliezer Yudkowsky, « Cognitive Biases potentially affecting judgments of global risks » [« Biais cognitifs pouvant affecter les jugements des risques planétaires »], sur intelligence.org, MIRI, (consulté le ).
  92. Hubert Guillaud et Rémi Sussan, « L'intelligence artificielle va-t-elle rester impénétrable ? », sur internetactu.blog.lemonde.fr, Le Monde, (consulté le ).
  93. (en) Eliezer Yudkowsky, « Artificial Intelligence as a Positive and Negative Factor in Global Risk » [« L'intelligence artificielle comme facteur positif et négatif de risque global »], sur yudkowsky.net (consulté le ).
  94. (en) Tim Adams, « Artificial intelligence: ‘We’re like children playing with a bomb’ » [« IA : Nous sommes comme des enfants jouant avec une bombe »], The Observer,‎ (lire en ligne, consulté le ).
  95. (en) « At doom’s doorstep: It is 100 seconds to midnight », Bulletin of the Atomic Scientists, John Mecklin,‎ (lire en ligne)
  96. (en) « TechCrunch – Startup and Technology News », sur TechCrunch, (consulté le ).
  97. « DALL-E, Lensa, LaMDA, ChatGPT : les enjeux éthiques des IA génératrices d'images ou de textes », sur CNET, (consulté le ).
  98. a b c d e f g h et i Bostrom 2008, chapitre 20 : Biotechnologie et biosécurité.
  99. a b et c (en) Steven Frank, « Models of parasite virulence », Q Rev Biol, vol. 71, no 1,‎ , p. 37–78 (DOI 10.1086/419267, lire en ligne).
  100. a et b (en) Anders Sandberg, « The five biggest threats to human existence », sur theconversation.com (consulté le ).
  101. (en) Ronald J. Jackson, Alistair J. Ramsay, Carina D. Christensen, Sandra Beaton, Diana F. Hall et Ian A. Ramshaw, « Expression of Mouse Interleukin-4 by a Recombinant Ectromelia Virus Suppresses Cytolytic Lymphocyte Responses and Overcomes Genetic Resistance to Mousepox », Journal of Virology, vol. 75, no 3,‎ , p. 1205–1210 (DOI 10.1128/jvi.75.3.1205-1210.2001, lire en ligne, consulté le ).
  102. (en) Le virus tueur augmente la crainte du bioterrorisma, article du New Scientist, .
  103. a b c d e f g h i j k et l Bostrom 2008, chapitre 21 : Nanotechnology as global catastrophic risk.
  104. a et b (en) « Frequently Asked Questions - Molecular Manufacturing », sur foresight.org (consulté le ).
  105. (en) Chris Phoenix et Mike Treder, « Three Systems of Action: A Proposed Application for Effective Administration of Molecular Nanotechnology » [« Trois systèmes d'action : une proposition pour un contrôle effectif des nanotechnologies »], sur crnano.org, (consulté le ).
  106. (en) Eric Drexler, « A Dialog on Dangers »(Archive.orgWikiwixArchive.isGoogleQue faire ?), sur foresight.org (consulté le ).
  107. (en) Eric Drexler, « Engines of Destruction (Chapter 11) »(Archive.orgWikiwixArchive.isGoogleQue faire ?), sur e-drexler.com (consulté le ).
  108. (en) « Dangers of Molecular Manufacturing » [« Les dangers des usines moléculaires »], sur crnano.org (consulté le ).
  109. a et b (en) « The Need for International Control » [« La nécessité d'un contrôle international »], sur crnano.org (consulté le ).
  110. (en) « Technical Restrictions May Make Nanotechnology Safer » [« Des restrictions techniques pourraient rendre les nanotechnologies plus sûres »], sur crnano.org (consulté le ).
  111. (en) Lawrence E. Joseph, Apocalypse 2012 : A Scientific Investigation Into Civilization's End, New York, Broadway, , 261 p. (ISBN 978-0-7679-2448-1), p. 6.
  112. (en) Paul Rincon, « Nanotech guru turns back on 'goo' » [« Le gourou des nanotechnologies ne croit plus à la « gelée » »], BBC News,‎ (lire en ligne, consulté le ).
  113. (en) Fred Hapgood, « Nanotechnology: Molecular Machines that Mimic Life » [« Nanotechnologies : des machines moléculaires imitant la vie »], Omni,‎ (lire en ligne, consulté le ).
  114. (en) « Leading nanotech experts put 'grey goo' in perspective » [« Les experts relativisent le danger de gelée grise »], sur crnano.org (consulté le ).
  115. Bostrom 2002, section 4.8.
  116. a et b (en) Richard Hamming, « Mathematics on a Distant Planet ».
  117. (en) « Report LA-602, ''Ignition of the Atmosphere With Nuclear Bombs'' » [PDF] (consulté le ).
  118. (en) Robert Matthews (en), « A Black Hole Ate My Planet » [« Un trou noir a mangé ma planète »], New Scientist,‎ (lire en ligne, consulté le ).
  119. (en) Emil Konopinski, C. Marvin et Edward Teller, « Ignition of the Atmosphere with Nuclear Bombs », Los Alamos National Laboratory, no LA–602,‎ (lire en ligne [PDF], consulté le ).
  120. (en) Une déclaration officielle concernant la sécurité du LHC.
  121. (en) « Safety at the LHC ».
  122. (en) J. Blaizot et al., « Study of Potentially Dangerous Events During Heavy-Ion Collisions at the LHC », sur doc.cern.ch, CERN, .
  123. (en) « Crossing the Line: Selection and Evolution of Virulence Traits » [« Franchir la ligne : sélection et évolution de la virulence »], PLoS Pathogens, vol. 2, no 5,‎ , e42 (DOI 10.1371/journal.ppat.0020042).
  124. (en) « Challenging the trade-off model for the evolution of virulence: is virulence management feasible? », Trends Microbiol., vol. 11, no 1,‎ , p. 15–20 (DOI 10.1016/S0966-842X(02)00003-3).
  125. (en) « Virulence evolution in emerging infectious diseases », Evolution, vol. 59, no 7,‎ , p. 1406–12 (DOI 10.1554/05-111).
  126. (en) Gandon S, « Evolution of multihost parasites », Evolution, vol. 58, no 3,‎ , p. 455–69 (DOI 10.1111/j.0014-3820.2004.tb01669.x).
  127. De l'effondrement à la pandémie de Covid-19 Vidéo d'Yves Cochet en mars 2020.
  128. « Une super-bactérie cauchemardesque résiste à tous les antibiotiques », L'Express,‎ (lire en ligne, consulté le ).
  129. Anne Debroise, « Menace mondiale sur la santé publique », La Recherche,‎ .
  130. « Obésité et surpoids », sur who.int, Organisation mondiale de la santé, (consulté le ).
  131. (en) Platts-Mills TA, Erwin E, Heymann P et Woodfolk J, « Is the hygiene hypothesis still a viable explanation for the increased prevalence of asthma? », Allergy. 60 Suppl 79: 25–31.,‎ (PMID 15842230, DOI 10.1111/j.1398-9995.2005.00854.x).
  132. P. Bernanose, « Notre intelligence est-elle en train de s’émousser ? », sur santelog.com, (consulté le ).
  133. (en) Thomas V. Lowell et Meredith A. Kelly, « Was the Younger Dryas Global? », Science, vol. 321, no 5887,‎ , p. 348–349 (ISSN 0036-8075 et 1095-9203, PMID 18635782, DOI 10.1126/science.1160148, lire en ligne, consulté le )
  134. Bostrom 2008, chap. 13, p. 276.
  135. a et b (en) M.R. Rampino et S.H. Ambrose, « Super eruptions as a threat to civilizations on Earth-like planets », Icarus, vol. 156,‎ , p. 562–569 (DOI 10.1006/icar.2001.6808, Bibcode 2002Icar..156..562R, lire en ligne).
  136. (en) Kate Ravilious, « What a way to go », The Guardian,‎ (lire en ligne).
  137. (en) Université d'Oxford, « The Toba supereruption », sur toba.arch.ox.ac.uk, .
  138. (en) Stanley H. Ambrose, « Late Pleistocene human population bottlenecks, volcanic winter, and differentiation of modern humans » [« Goulots d’étranglement des populations humaines de la fin du Pléistocène et hiver volcanique »], Journal of Human Evolution, vol. 34, no 6,‎ , p. 623–651 (DOI 10.1006/jhev.1998.0219, lire en ligne).
  139. a et b (en) Greg Breining, Super Volcano : The Ticking Time Bomb Beneath Yellowstone National Park [« Supervolcan : la bombe à retardement sous Yellowstone »], St. Paul, MN., Voyageur Press, , 256 p. (ISBN 978-0-7603-2925-2), « Distant Death », p. 256.
  140. (en) Roy E. Plotnick, « Relationship between biological extinctions and geomagnetic reversals », Geology, vol. 8, no 12,‎ , p. 578 (DOI 10.1130/0091-7613(1980)8<578:RBBEAG>2.0.CO;2, Bibcode 1980Geo.....8..578P).
  141. (en) Karl-Heinz Glassmeier et Vogt, Joachim, « Magnetic Polarity Transitions and Biospheric Effects », Space Science Reviews, vol. 155, nos 1-4,‎ , p. 387–410 (DOI 10.1007/s11214-010-9659-6, Bibcode 2010SSRv..155..387G).
  142. (en) George Pararas-Carayannis, « Evaluation of the threat of mega tsunami generation from postulated massive slope failures of island volcanoes on La Palma, Canary Islands, and on the island of Hawaii », drgeorgepc.com, (consulté le ).
  143. a et b (en) Prehistoric Asteroid "Killed Everything", National Geographic, 2002.
  144. « La chute d’une météorite a bien été fatale aux dinosaures », sur Le Monde.fr, (consulté le ).
  145. a et b Bostrom 2002, section 4.10.
  146. Laurent Sacco, L’apocalypse dans 7,6 milliards d’années ?. futura-sciences.com, .
  147. (en) Ken Croswell, Will Mercury Hit Earth Someday?, Skyandtelescope.com .
  148. (en) Explosions in Space May Have Initiated Ancient Extinction on Earth, NASA.
  149. (en) Anne Minard, « Gamma-Ray Burst Caused Mass Extinction? », sur news.nationalgeographic.com, National Geographic News, .
  150. (en) Adrian Melott et Brian Thomas, « Astrophysical Ionizing Radiation and the Earth: A Brief Review and Census of Intermittent Intense Sources », Astrobiology, vol. 11,‎ , p. 343–361 (DOI 10.1089/ast.2010.0603, Bibcode 2011AsBio..11..343M, arXiv 1102.2830, lire en ligne).
  151. (en) Annonce du passage proche de Gliese 710.
  152. (en) Fraser Cain, « Local Galactic Dust is on the Rise », Universe Today,‎ (lire en ligne).
  153. Bostrom 2002, section 7.2.
  154. (en) COSPAR, « COSPAR PLANETARY PROTECTION POLICY » [PDF], .
  155. a b et c (en) Jason Gaverick Matheny, « Reducing the Risk of Human Extinction », Risk Analysis, vol. 27, no 5,‎ , p. 1335–1344 (DOI 10.1111/j.1539-6924.2007.00960.x, lire en ligne).
  156. (en) D.J. Asher, M.E. Bailey, V. Emel'yanenko et W.M. Napier, « Earth in the cosmic shooting gallery », The Observatory, vol. 125,‎ , p. 319–322 (Bibcode 2005Obs...125..319A, lire en ligne [PDF]).
  157. a et b (en) David J. Asher, Victor Clube, Bill Napier et Duncan Steel (1994). Coherent Catastrophism. Vistas in Astronomy, 38 (1), 1-27 (Harvard.edu résumé en ligne).
  158. Ambrose 1998; Rampino et Ambrose 2000, p. 71, 80.
  159. a et b (en) Robinson Meyer, « Human Extinction Isn't That Unlikely », The Atlantic, (consulté le ).
  160. (en) « Global Challenges Foundation website, Report for 2016 »(Archive.orgWikiwixArchive.isGoogleQue faire ?), globalchallenges.org (consulté le ).
  161. a et b (en) Milan Ćirković, Anders Sandberg et Nick Bostrom, « Anthropic Shadow: Observation Selection Effects and Human Extinction Risks », Risk Analysis, vol. 30,‎ , p. 1495–1506 (DOI 10.1111/j.1539-6924.2010.01460.x, lire en ligne).
  162. (en) E. M. Jones, « 'Where is everybody?' An account of Fermi's question », Los Alamos National Laboratory (LANL), United States Department of Energy, (consulté le ).
  163. (en) Brian Ventrudo, « So Where Is ET, Anyway? » [« Où est ET, alors ? »], Universe Today,‎ (lire en ligne, consulté le ) : « Some believe [the Fermi Paradox] means advanced extraterrestrial societies are rare or nonexistent. Others suggest they must destroy themselves before they move on to the stars ».
  164. (en) Derek Parfit, Reasons and Persons [« Causes et gens »], Oxford University Press, , 453–454 p..
  165. (en) Damian Harrington, « Date set for desert Earth » [« Une date pour une Terre déserte »], BBC News Online,‎ (lire en ligne).
  166. (en) Martin Weitzman, « On modeling and interpreting the economics of catastrophic climate change » [« Modélisation et interprétation des conséquences économiques de catastrophes climatiques »], The Review of Economics and Statistics, vol. 91, no 1,‎ , p. 1–19 (DOI 10.1162/rest.91.1.1, lire en ligne).
  167. (en) J.A. Hausman (dit.), W.H. Desvousges, F.R. Johnson, R.W. Dunford, K.J. Boyle, S.P. Hudson et N. Wilson, Contingent Valuation : A Critical Assessment [« Évaluation contingente: analyse critique »], Amsterdam, North Holland, , « Measuring natural resource damages with contingent valuation: tests of validity and reliability », p. 91−159.
  168. Voir par exemple cette recension de Phillip V. Stanley (en) dans le cadre d’un cours sur les mythes grecs de catastrophe, et plus généralement Jeanvrin 2009.
  169. « Sept ans de famine, trois mois de guerre ou trois jours de peste », Samuel 24-13.
  170. (en) Un contre-argument important développé par un des experts de la NASA.
  171. Lafargue 2012.
  172. (en) AtKisson, A., Believing Cassandra: An Optimist Looks at a Pessimist's World, Earthscan (1999).
  173. D’autres motivations pour ce refus sont exposées dans "Confronting the New Misanthropy" (en), un article de Frank Furedi dans Spiked en 2006.
  174. Voir cette analyse des spéculations alarmistes autour du LHC, et en particulier cet article (en) de Nature.
  175. Normand Baillargeon, « Vous reprendrez bien un peu de propagande », sur voir.ca, Voir, .
  176. Claude Lévi-Strauss, Mythologiques, t. I : Le Cru et le Cuit, Paris, Plon, 1964.
  177. Diamond 2006, chap. 2, section La forêt évanouie. .
  178. Marie-Béatrice Baudet, « Aurelio Peccei, premier résistant à la croissance », Le Monde,‎ (lire en ligne)
  179. (en) Mark Strauss, « Looking Back on the Limits of Growth », Simthsonian Magazine,‎ (lire en ligne)
  180. (en) Sophie McBain, « Apocalypse soon: the scientists preparing for the end of times » [« Bientôt l'Apocalypse : les savants se préparent à la fin des temps »], New Statesman, (consulté le ).
  181. (en) « Reducing Long-Term Catastrophic Risks from Artificial Intelligence » [« Réduction des risques de catastrophe globale dus à l'intelligence artificielle »], Machine Intelligence Research Institute (consulté le ).
  182. (en) Angela Chen, « Is Artificial Intelligence a Threat? », The Chronicle of Higher Education, (consulté le ).
  183. (en) « About the Lifeboat Foundation », The Lifeboat Foundation (consulté le ).
  184. (en) Ashlee Vance, « The Lifeboat Foundation: Battling Asteroids, Nanobots and A.I. », New York Times, (consulté le ).
  185. (en) « The Future of Life Institute » (consulté le ).
  186. (en) Nick Bilton, « Ava of ‘Ex Machina’ Is Just Sci-Fi (for Now) », New York Times, (consulté le ).
  187. (en) Sylvia Hui, « Cambridge to study technology's risks to humans », Associated Press, .
  188. (en) « Center for International Security and Cooperation », Center for International Security and Cooperation (consulté le ).
  189. (en) « Global Alert and Response (GAR) »(Archive.orgWikiwixArchive.isGoogleQue faire ?), World Health Organization (consulté le ).
  190. (en) Kelley Lee, Historical Dictionary of the World Health Organization, Rowman & Littlefield, (lire en ligne), p. 92.
  191. (en) « USAID Emerging Pandemic Threats Program » [archive du ], USAID (consulté le ).
  192. (en) « Global Security », Lawrence Livermore National Laboratory (consulté le ).
  193. (en) David Denkenberger et Joshua Pearce, Feeding Everyone No Matter What: Managing Food Security After Global Catastrophe (en), Elsevier, San Francisco, 2014.
  194. (en) Denkenberger, D. C., & Pearce, J. M. (2015). Feeding Everyone: Solving the Food Crisis in Event of Global Catastrophes that Kill Crops or Obscure the Sun. Futures. 72:57–68. open access.
  195. (en) Baum, S.D., Denkenberger, D.C., A Pearce, J.M., Robock, A., Winkler, R. Resilience to global food supply catastrophes. Environment, Systems and Decisions 35(2), p. 301-313 (2015). open access.
  196. (en) Mankind must abandon earth or face extinction : Hawking, physorg.com, (lire en ligne).
  197. (en) Lewis Smith, « Doomsday vault for world’s seeds is opened under Arctic mountain », The Times Online, Londres,‎ (lire en ligne).
  198. « En Norvège, la réserve mondiale de graines rattrapée par le réchauffement », Libération,‎ (lire en ligne).
  199. « Changement climatique : le permafrost entourant la Banque mondiale de graines a fondu », Courrier international,‎ (lire en ligne).
  200. Laureline Savoie, « PLAN B : Une Grande Muraille verte pour arrêter le désert », sur lemonde.fr, (consulté le ).
  201. Laurence Caramel, « La Grande Muraille verte, mirage sahélien », sur lemonde.fr, (consulté le ).
  202. a et b Nick Bostrom, « Are You Living In a Computer Simulation? » [« Vivez-vous dans une simulation informatique ? »], Philosophical Quarterly, vol. 53,‎ , p. 243-255 (lire en ligne).
  203. (en) Nick Bostrom, « The Doomsday Argument, Adam & Eve, UN++, and Quantum Joe », Synthese, vol. 127, no 3,‎ , p. 359–387 (DOI 10.1023/A:1010350925053, lire en ligne).
  204. (en) M. Tegmark et N. Bostrom, « Is a doomsday catastrophe likely? », Nature, vol. 438, no 5875,‎ , p. 754 (DOI 10.1038/438754a, Bibcode 2005Natur.438..754T, lire en ligne).
  205. Ord 2020, p. 188 et suivantes.
  206. (en) Steve Fuller, « Why Superintelligence May Not Help Us Think about Existential Risks—or Transhumanism », Social Epistemology Review and Reply Collective, vol. 3, no 10,‎ , p. 47-49 (lire en ligne).
  207. Jeanvrin 2009.
  208. Jacques Goimard, Histoires de catastrophes : La Grande anthologie de la science-fiction, Paris, Le Livre de poche, coll. « Le Livre de poche » (no 3818), , 2e éd., 443 p. (ISBN 9782253036289) (préface).
  209. Liste de prédictions de Tous à Zanzibar, dans Gentside.
  210. Les films avec les plus grosses aberrations scientifiques, sur le site senscritique.com.

Annexes

modifier

Bibliographie

modifier

Articles connexes

modifier

Liens externes

modifier