--> Comprendre les crises (83) : Le risque existentiel
24 sep 2022
Comprendre les crises (83) : Le risque existentiel

Le centre de recherche sur le risque existentiel (CSER) a été créé en 2012 au sein de l’université de Cambridge (État du Massachusetts) pour étudier les menaces issues des technologies pouvant aller jusqu’à l’extinction de l’humanité.
La production du centre est intéressante car elle vient compléter les travaux de l’OCDE de 2011 sur les chocs auxquels seront confrontés les États. Le rapport sur "futurs chocs mondiaux" avait particulièrement ciblé cinq grandes menaces : les pandémies, les attaques informatiques contre des "infrastructures critiques », les crises financières, les révolutions et révoltes sociales et les orages géomagnétiques d’origine solaire.
Un peu plus de dix années après cette publication, au moins quatre de ces grands risques sont survenus et ont montré que nos sociétés n’étaient pas totalement prêtes pour y faire face. Le risque climatique, bien qu’identifié comme systémique et nécessitant de préparer la population mondiale à affronter ses effets, est resté pendant quelques années en sourdine. Les hyper feux qui ont affectés l’Australie, les Etats Unis, la Russie et maintenant l’Europe ont contribué à réveiller les consciences car ils ont fait prendre conscience à grande échelle des risques liés à la sècheresse (destruction des forêts, pertes agricoles, augmentation des prix des denrées alimentaires…)
Les travaux du CSER permettent d’alimenter la réflexion en continu sur ces risques catastrophiques mondiaux soit provoqués par une cause humaine, soit par une cause exogène (impact d’un astéroïde, hyper éruption volcanique provoquant un tsunami et /ou un changement climatique, tempête géomagnétique rendant inopérant la quasi-totalité des équipements électroniques…). Ce sont les publications concernant les catastrophes provoquées par l’activité humaine qui sont les plus intéressantes à étudier et force est de reconnaitre que notre progression spectaculaire dans le domaine technologique constitue un risque majeur. Il touche au mésusage de de l’intelligence artificielle, des biotechnologies, des manipulations génétiques mais aussi à la mauvaise gouvernance avec des possibilités accrues de guerre mondiale, y compris nucléaire, de mauvaise gestion des pandémies et de l’environnement.
L’apport des travaux du CSER et de l’Institut du futur de l’humanité est de nous faire prendre conscience que nous sommes à un point de bascule et qu’il nous faut aller au-delà de l’appréhension des risques catastrophiques mondiaux qui, bien que pouvant provoquer la mort d’une majorité d’êtres humains, n’implique pas la disparition de l’humanité qui pourrait potentiellement survivre à un tel choc.Nous devons aujourd’hui prendre en compte la possibilité de survenance d’un risque existentiel pouvant totalement détruire l’humanité car sa survenance annihilera tout espoir de rétablissement des sociétés humaines à l’échelle de la planète.
Les risques existentiels, s’ils sont facilement imaginables, sont néanmoins difficiles à prévoir selon des process de modélisation scientifiquement éprouvés. La preuve d’un événement d’extinction passée n’est pas une preuve de leur probabilité dans le futur. Il faut aussi intégrer la survenance de cygnes noirs, par nature imprévisibles et qui peuvent constituer le grain de sel ou l’accélérateur d’un événement d’extinction, ce qui pose un problème méthodologique supplémentaire. La dimension morale de la prise en compte d’un risque existentiel est considérable car elle pose par exemple la question de la sauvegarde d’une infime partie de l’humanité qui pourrait trouver refuge dans l’espace et à partir de là devenir une potentielle source de soutien pour de futures générations qui pourraient revenir sur terre ou vivre sur une autre planète.
Les travaux de Nick Bostrom sont très intéressants car ils montrent qu’une très faible réduction du risque existentiel aurait un très fort impact sur le nombre d’humains qui existeront dans le futur.
Le défi est de taille car pour l’instant il est traité par des structures et des mécanismes de gouvernance qui évoluent moins rapidement que les changements technologiques et sociaux. De plus, le traitement des risques et menaces systémiques est réalisé à l’échelle des États dont les intérêts stratégiques sont encore divergents alors qu’ils devraient se rejoindre pour faire face à une telle situation.
Pour l’instant nous ne pouvons compter que sur des politiques nationales et des actions individuelles en espérant que la catastrophe ultime ne survienne pas alors que la gouvernance à l’échelle planétaire pour y répondre n’est pas encore efficiente.
Les directeurs du Bulletin of the Atomic Scientists de l’université de Chicago qui gèrent l’horloge de l’apocalypse l’ont réglé depuis le 23 janvier 2020 sur 23 h 58 min 20 s en raison de l’« incapacité des dirigeants mondiaux à faire face aux menaces imminentes d’une guerre nucléaire et du changement climatique ». Elle affichait 23 h 53 lors de sa création en 1947 en pleine guerre froide quand le risque de guerre atomique était prégnant….

En savoir plus
HORLOGE DE L’APOCALYPSE
https://thebulletin.org/
https://thebulletin.org/doomsday-clock/#nav_menu
Future of Humanity Institute
https://futureoflife.org/
Travaux du philosophe suédois Nick Bostrom, fondateur de l’association Humanity+, et directeur de l’Institut pour le futur de l’humanité de l’université d’Oxford. Nick Bostrom : Existential Risk Prevention as Global Priority ; University of Oxford
https://pdf4pro.com/amp/view/existential-risk-prevention-as-global-priority-54c7d5.html

Partager cet article