--> Comprendre les crises (38) Intelligence artificielle et « dé-coincidence »
27 jan 2018
Comprendre les crises (38) Intelligence artificielle et « dé-coincidence »

Intelligence artificielle, réalité et humanité augmentées ne sont plus des concepts, mais une réalité en devenir.
Nous sommes tout à la fois demandeurs de plus de rapidité dans le traitement des flux de données, d’aide à la décision mais aussi inquiets de la puissance des algorithmes couplée à une augmentation potentiellement illimitée du stockage des données.
Comment accepter la traduction quasi simultanée et refuser l’évolution de la prise de décision politique ? Les deux procèdent de l’utilisation de process identiques.
Tout cela fait l’objet de débats entre les partisans enthousiastes de ce qui peut être analysé comme une évolution positive et les inquiets qui prédisent que la révolution numérique porte les germes d’un conflit mondial. Cela a été le cas dans le passé avec les ruptures technologiques majeures apportées par la machine à vapeur puis l’électricité qui ont permis les deux dernières guerres mondiales.

Le Forum de Davos de janvier 2018 a consacré une bonne part de ces débats à ces questions et une vision portée par de nombreux jeunes entrepreneurs qui sont persuadés que nos sociétés peuvent s’améliorer rapidement en ayant recours massivement aux technologies portées par le numérique. Ce courant ne fait pas le choix d’une centralisation à la « big brother » mais fait confiance aux mises en réseaux s’appuyant sur des clouds autonomes et les smartphones.

La véritable question réside dans la régulation des réseaux. Comme dans les siècles passés l’évolution des technologies peut produire le meilleur (moins de famines, une espérance de vie allongée, moins de guerres) et le pire (des conflits mondiaux hyper destructeurs). La technologie est identique mais utilisée par une dictature ou une démocratie, elle ne produit pas les mêmes effets.
La nouveauté est qu’aujourd’hui il faut trouver un nouveau mode de fonctionnement des démocraties traditionnelles. La vitesse d’échange de l’information est peu compatible avec les échéances électorales traditionnelles et la représentation du pouvoir telle que nous les connaissons. Qui apparaît le plus légitime à porter une revendication ou prendre une décision ? Un représentant élu selon les règles traditionnelles de vote ou un blogueur ?

Si l’on rajoute à ces débats celui de l’éducation dont le rapport à l’intelligence artificielle constitue une donnée incontournable, nous avons bien tous les ingrédients d’une incertitude porteuse d’une crise (ou de crises) majeure (s).

Nul ne peut garantir aujourd’hui qu’une proportion significative d’humains sera en capacité de prendre des décisions de manière autonome dans les décennies à venir.
Les deux scénarios possibles sont angoissants.
Le premier est que l’humanité s’en remette de plus en plus en plus à des programmes d’aides qui potentiellement pourraient s’émanciper progressivement de leurs créateurs, convaincus qu’ils seront que ce qui sort de la machine est bon .
Le second repose sur le postulat que l’homme quoi qu’il arrive garde le contrôle et que les algorithmes seront imprégnés de la morale injectée par l’homme. C’est le scénario Asimov avec les trois lois de la robotique : Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger. Deuxième loi : Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la première loi. Troisième loi : Un robot doit protéger son existence dans la mesure où cette protection n’est pas en contradiction avec la première ou la deuxième loi.
Les trois lois apparaissent protectrices pour l’homme mais ce n’est qu’une apparence car si le système de prise de décision fonctionne à partir de l’analyse de données issues des humains on ne peut en évacuer les biais cognitifs. Et si un « programmeur en chef » se met en situation de « purger » les algorithmes des biais qu’il pense néfastes, le dispositif fonctionnera alors comme une dictature.

Une seule issue à ces scénarios d’asservissement : être en situation de comprendre qu’il ne faut pas avoir pour objectif d’être fusionnel avec son environnement.
La lecture de Dé-coincidence , le dernier ouvrage de Claude Jullien est en ce sens roborative. Il nous redit avec force, dans la lignée de ses autres travaux que pour exister il faut être « hors ». « L’homme est l’être qui ne coïncide pas – ce qui fait qu’il s’est promu en homme et peut exister ; sa seule essence est de n’en avoir aucune, sa seule définition est de se soustraire à toute définition possible (toutes les définitions de l’homme ne coïncidant qu’avec un parti pris). En quoi on peut dire, effectivement, que seul il « existe. »
Bien sûr, cela suppose que nous soyons individuellement et collectivement assez forts pour repousser le confort de la « coïncidence » c’est-à-dire l’adéquation entre nous et les autres et entre nous et le monde tel qu’une perception collective nous le fait apparaitre réel. La puissance des algorithmes accroît cette coïncidence en contribuant puissamment à unifier les représentations. Il nous faudra donc lutter pour combattre cette vision d’un monde parfait que l’on nous prédit grâce aux réseaux et à la puissance de calcul de traitement des données.
Cela suppose une éducation de combat pour permettre à chacun de vivre en sachant faire le tri des idées reçues et en luttant contre l’uniformisation des consciences. François Jullien est convaincant quand il nous démontre que la coïncidence, c’est la mort et la dé-coïncidence, " la possibilité d‘une vie".

Accepter les conséquences de l’essor de l’intelligence artificielle ne peut se concevoir que si chacun d’entre nous dispose d’une conscience autonome. Le dernier essai du philosophe François Jullien ""Dé-construction" est à ce titre stimulant car il donne des outils pour ne pas subir ce qui pourrait être une déferlante d’uniformisation mortifère de la connaissance.
En savoir plus :
Conférence de F. Jullien sur "Dé-construction" le 25 janvier 2017
http://www.bnf.fr/fr/evenements_et_culture/anx_conferences_2017/a.c_170125_philo.html

Partager cet article