-->
Parmi les explications d’une crise ou son aggravation nous allons trouver au premier rang les facteurs humains et notamment le comportement irrationnel des acteurs. Cette irrationalité revêt des formes multiples : c’est la décision héroïque, mais inutile, de lancer une charge de cavalerie face à des canons, ce sont les techniciens de la centrale de Tchernobyl qui, sur ordre de leur supérieur, coupent plusieurs dispositifs de sécurité, c’est aussi le commandant du Costa Concordia qui longe la cote, déchire la coque de son navire et l’abandonne sans organiser les secours … Cela peut être aussi un comportement collectif suicidaire face aux problèmes environnementaux ou bien encore un comportement économique mû par un tel désir d’engranger des profits que tous les mécanismes d’autorégulation des marchés sont impuissants à contenir un désastre…
Surprises prévisibles, biais et comportements
La question comportementale explique notamment pourquoi il existe encore des freins aux politiques de prévention des risques malgré une progression sans précédent de nos connaissances et une technologie de plus en plus puissante. La catastrophe de la plateforme Deepwater Horizon survenue en 2010 dans le golfe du Mexique avait constitué un champ d’observation des plus intéressants. Au dernier trimestre 2010 des chercheurs américains (Howard C.Kunreuther and Erwann O.Michel-Kerjan publient un article intitulé : Overcoming myopia, Learning from the BP Oil Spill and other catastrophes dans la revue du Milken Institute).
Leur étude identifie au moins six biais cognitifs qui vont entrainer, chacun à des degrés divers des réactions inappropriées dans une chaine de décision. On trouvera ainsi l’optimisme qui va occulter certains scénarios au prétexte qu’ils sont inenvisageables puis les expertises contradictoires qui inciteront le décideur à se ranger aux évaluations les plus proches de leurs objectifs. On trouve ensuite les contraintes budgétaires qui vont privilégier la sous-évaluation des mesures de prévention, dont il est toujours difficile de quantifier le retour sur investissement. Le quatrième biais est lié aux difficultés récurrentes de travailler en mode collaboratif alors que la connaissance des interdépendances est un facteur clé de la prévention des risques systémiques mais aussi de la maitrise d’une crise. Le cinquième biais est qualifié par les auteurs de « cécité mimétique » car parfois les décideurs dans un souci de prudence ou de déresponsabilisation succomberont à la facilité d’imiter le comportement d’autres acteurs en faisant l’économie d’une analyse sur la bonne adéquation de cette transposition à leur propre situation. Il existe enfin un dernier écueil lié à l’occultation d’événements du passé ou très douloureux (que cela touche à la mémoire individuelle ou collective).
Les Américains baptiseront cet ensemble de facteurs « surprises prévisibles ». La seule certitude que nous pouvons avoir est que, quand elles surviennent, elles conduisent immanquablement à une crise grave.
L’apport de Daniel Kahneman
Les travaux du Prix Nobel Daniel Kahneman qui présente la particularité d’être un sociologue et un économiste apporte de nouveaux éléments qu’il semble intéressant d’intégrer à notre approche des crises. Son champ d’étude, l’économie, s’adapte très bien à tout type de crise. Il analyse ainsi dans son dernier ouvrage, Système 1, Système 2, des biais tels que l’égocentrisme, le statu quo. Le premier ancre la croyance d’être plus intelligent que le voisin, le second freine le changement de comportement Il analyse également un « effet de halo » et un biais de « pseudo certitude » L’effet de halo privilégie la première impression, quant au biais de pseudo certitude, il nous fera agir selon des vérités périmées.
Il faut néanmoins tempérer l’optimisme de certains qui pensent que les travaux des comportementalistes permettraient de rationaliser les erreurs possibles. Si les situations à risque dans le domaine de l’économie peuvent se prêter à la modélisation, cela semble plus difficile pour des décisions à caractère plus politique que l’on va rencontrer dans d’autres types de crises. Il existe toujours de la place dans ce champ pour l’aveuglement ou le panache qui inexorablement viendront aggraver la crise. Si l’on retrouve dans l’analyse de Kahneman, certaines des idées de Carlo Cipolla exposées en 1976 dans son opuscule : les lois fondamentales de la stupidité humaine , http://www.gerard-pardini.fr/spip.php?article27, il est utile de rappeler que la puissance de la stupidité est difficilement modélisable car inacceptable pour les décideurs.
Khaneman, prix Nobel d’économie 2002, analyse dans son ouvrage Système 1,Système 2,les deux vitesses de la pensée que sont l’intuition et la réflexion tout en en décrivant leurs implications dans la prise de décision.
En savoir plus :
Conférence TED de Daniel Kahneman
http://www.ted.com/talks/lang/fr/daniel_kahneman_the_riddle_of_experience_vs_memory.html
Interview sur France inter de D.Khaneman (se positionner à 32m 48 s)
http://www.franceinter.fr/player/reecouter?play=486147
Lire
Système 1, système 2 ; Les deux vitesses de la pensée ; Flammarion ;
ISBN 13 : 9782081211476