--> Comprendre les crises (46) Les limites du Big Data
01 nov 2018
Comprendre les crises (46) Les limites du Big Data

Cet article est inspiré de celui publié par le professeur Eric Blayo dans le blog Binaire et intitulé Quand les Big Data font la pluie et le beau temps.

Les prémisses de ce que pourrait apporter le big data à la prévision des risques et crises remontent aux années 20 quand le mathématicien anglais Lewis Fry Richardson décrit ce que pourrait être un dispositif industriel de prévision.
Richardson a découpé la Terre en 3 200 colonnes verticales, l’atmosphère en tranches à 3 niveaux situés à 4, 7 et 12 km d’altitude et construit son modèle avec des pas de temps de 3h dans ces compartiments.
Les résultats furent décevants car il manquait à Richardson la puissance de calcul des ordinateurs. Il lui fallait environ 70 000 personnes en capacité de traiter les données pour obtenir des résultats qui ne pouvaient être qu’imprécis car limités par le temps nécessaire à des humains pour réaliser les calculs par compartiments. Néanmoins Richardson a démontré que l’on pouvait faire de la prévision (en occurrence météorologique) par du calcul.
La capacité de calcul dont l’humanité dispose et qui va encore s’accroitre avec les ordinateurs quantiques devrait théoriquement permettre de réaliser des prédictions se révélant exactes. Or, prédire de manière certaine quelque chose dont on pense que ce sera la réalité n’est toujours pas possible. Il faut injecter dans les modèles toujours plus de données jusqu’au dernier moment ce qui rend l’exercice, imprécis par essence.
La seule certitude est qu’il simplement possible de remplacer une équation mathématique (par nature exacte) par une expression approchée calculable par un ordinateur. Pour résumer le dilemme, le modèle doit doit intégrer toutes les variables à un instant t qui n’est pas celui de la réalité. Il faut donc se contenter, même en disposant de beaucoup de données et d’une puissance de calcul considérable de se contenter de tangenter ce qui pourrait être une réalité. Les mathématiciens parlent d’ailleurs d’« assimilation de données ». Il nous est donc aujourd’hui possible de disposer de données de plus en plus nombreuses et fiables mais certainement pas de garantir la survenance d’une réalité qui n’existe pas encore.
Le professeur Blayo rappelle qu’il peut y avoir des “erreurs significatives” à tous les stades :
Dans les équations car nous ne connaissons pas totalement la physique de nombreux matériaux et encore moins le comportement humain ;
Dans la partie numérique qui ne peut garantir qu’une approximation. Plus on veut raffiner un résultat, plus on va réduire le maillage et devoir travailler sur des dizaines ou centaines de millions de données. Comme cela est impossible, il faut définir autoritairement un niveau de maillage et introduire inéluctablement le risque d’interactions avec des biais cognitifs.
Dans la description de l’existant car nous ne connaissons pas tout de la réalité qui nous entoure. Nous sommes contraints de travailler par “assimilation” et “extrapolation” et de ce fait, exposés à des erreurs d’instrumentations et de représentativité.
Nous pouvons raisonnablement imaginer que les techniques d’intelligence artificielle liées au big data vont nous permettre de disposer d’un maillage de calcul encore plus fin qui va contribuer à fiabiliser des prévisions et des prédictions mais sans éliminer les biais cognitifs du modélisateur …. Cela est encore plus vrai quand la prévision attendue concernera des comportements humains économiques ou sociétaux.
S’il est possible que nous dispositions à très court terme de meilleures prévisions météos, il est illusoire de penser que l’IA permettra d’éviter des crises économiques et sociétales. Si un jour cela arrive c’est que l’humain aura capitulé et laissera des machines le gouverner.
Blayo cite opportunément en fin de son article le professeur Lennox Sharman Shackle disciple d ’Hayek,Keynes et Joseph Schumpeter et dont les travaux sont difficilement rattachables à une école de pensée. Il faut retenir de lui un enseignement fondamental : Les décisions des individus provoquent des changements continuels pour ceux-ci. « Reconnaître qu’il y a de la nouveauté, au sens de choses fondamentalement non déductibles susceptibles d’être rencontrées pour la première fois, c’est reconnaître que nous ne pouvons pas construire des modèles qui présenteront le cours de l’histoire d’une société même sur une période limitée. »
Le faire malgré tout nous expose à de fortes déconvenues lorsque ce cours prendra une forme inattendue.

En savoir plus
Éric Blayo est professeur à l’Université de Grenoble Alpes où il est membre du Laboratoire Jean Kuntzmann. Il est spécialiste de la modélisation mathématique et numérique des sciences de l’environnement (météo, système océan-atmosphère, climat).
Son article tend à démontrer que la compréhension des processus complexes doit s’appuyer sur des modélisations qui pour être efficaces doivent prendre en compte plusieurs échelles de temps et d’espace et intégrer des données permettant de corriger les modèles qui ne peuvent être qu’imparfaits.
https://theconversation.com/face-a-lincertitude-les-limites-de-la-modelisation-88261
https://theconversation.com/modeliser-la-nature-a-laide-de-superordinateurs-ca-sert-a-quoi-92958
Blog Binaire : http://binaire.blog.lemonde.fr/

Partager cet article