-->
Le centre de recherche sur le risque existentiel (CSER) a été créé en 2012 au sein de l’université de Cambridge (État du Massachusetts) pour étudier les menaces issues des technologies pouvant aller jusqu’à l’extinction de l’humanité.
La production du centre est intéressante car elle vient compléter les travaux de l’OCDE de 2011 sur les chocs auxquels seront confrontés les États. Le rapport sur "futurs chocs mondiaux" avait particulièrement ciblé cinq grandes menaces : les pandémies, les attaques informatiques contre des "infrastructures critiques », les crises financières, les révolutions et révoltes sociales et les orages géomagnétiques d’origine solaire.
Un peu plus de dix années après cette publication, au moins quatre de ces grands risques sont survenus et ont montré que nos sociétés n’étaient pas totalement prêtes pour y faire face. Le risque climatique, bien qu’identifié comme systémique et nécessitant de préparer la population mondiale à affronter ses effets, est resté pendant quelques années en sourdine. Les hyper feux qui ont affectés l’Australie, les Etats Unis, la Russie et maintenant l’Europe ont contribué à réveiller les consciences car ils ont fait prendre conscience à grande échelle des risques liés à la sècheresse (destruction des forêts, pertes agricoles, augmentation des prix des denrées alimentaires…)
Les travaux du CSER permettent d’alimenter la réflexion en continu sur ces risques catastrophiques mondiaux soit provoqués par une cause humaine, soit par une cause exogène (impact d’un astéroïde, hyper éruption volcanique provoquant un tsunami et /ou un changement climatique, tempête géomagnétique rendant inopérant la quasi-totalité des équipements électroniques…).
L’apport des travaux du CSER et de l’Institut du futur de l’humanité est de nous faire prendre conscience que nous sommes à un point de bascule et qu’il nous faut aller au-delà de l’appréhension des risques catastrophiques mondiaux qui, bien que pouvant provoquer la mort d’une majorité d’êtres humains, n’implique pas la disparition de l’humanité qui pourrait potentiellement survivre à un tel choc.
Les risques existentiels, s’ils sont facilement imaginables, sont néanmoins difficiles à prévoir selon des process de modélisation scientifiquement éprouvés. La preuve d’un événement d’extinction passée n’est pas une preuve de leur probabilité dans le futur. Il faut aussi intégrer la survenance de cygnes noirs, par nature imprévisibles et qui peuvent constituer le grain de sel ou l’accélérateur d’un événement d’extinction, ce qui pose un problème méthodologique supplémentaire.
Les travaux de Nick Bostrom sont très intéressants car ils montrent qu’une très faible réduction du risque existentiel aurait un très fort impact sur le nombre d’humains qui existeront dans le futur.
Le défi est de taille car pour l’instant il est traité par des structures et des mécanismes de gouvernance qui évoluent moins rapidement que les changements technologiques et sociaux. De plus, le traitement des risques et menaces systémiques est réalisé à l’échelle des États dont les intérêts stratégiques sont encore divergents alors qu’ils devraient se rejoindre pour faire face à une telle situation.
Pour l’instant nous ne pouvons compter que sur des politiques nationales et des actions individuelles en espérant que la catastrophe ultime ne survienne pas alors que la gouvernance à l’échelle planétaire pour y répondre n’est pas encore efficiente.
Les directeurs du Bulletin of the Atomic Scientists de l’université de Chicago qui gèrent l’horloge de l’apocalypse l’ont réglé depuis le 23 janvier 2020 sur 23 h 58 min 20 s en raison de l’« incapacité des dirigeants mondiaux à faire face aux menaces imminentes d’une guerre nucléaire et du changement climatique ». Elle affichait 23 h 53 lors de sa création en 1947 en pleine guerre froide quand le risque de guerre atomique était prégnant….
En savoir plus
HORLOGE DE L’APOCALYPSE
https://thebulletin.org/
https://thebulletin.org/doomsday-clock/#nav_menu
Future of Humanity Institute
https://futureoflife.org/
Travaux du philosophe suédois Nick Bostrom, fondateur de l’association Humanity+, et directeur de l’Institut pour le futur de l’humanité de l’université d’Oxford.
https://pdf4pro.com/amp/view/existential-risk-prevention-as-global-priority-54c7d5.html