L’expansion de l’IA redonne une actualité aux travaux de l’économiste américain Robert Solow[1] sur la croissance économique qui lui valurent d’être récompensé par le prix Nobel d’économie en 1987 pour sa modélisation de la relation entre le développement des technologies de l’information et la productivité. Pour bien comprendre les enjeux actuels sur l’IA qui nécessitent des allocations de ressources considérables tant financières qu’énergétiques et sans oublier la dimension sociale, il faut intégrer dans l’analyse les trois dimensions mises en évidence par Solow dans ses travaux : historique, géographique et sectorielle.

Historiquement, les statistiques montrent que dans la quasi-totalité des pays OCDE et notamment ceux appartenant au G7, les gains de productivité ont été décorrélés de la très forte progression des technologies de l’information et des communications (TIC) et ce sur une longue période ayant débuté dès les années 1970.

Géographiquement, les pays leaders dans la production de TIC n’ont pas connu les plus importants niveaux de croissance. Le cas le plus emblématique est celui du Japon qui dans la période de plein développement des TIC a connu la récession. Le cas des Etats-Unis est plus complexe car il a connu une forte croissance de productivité dans la seconde moitié des années 1990 mais qui n’a pas perduré et a même ralenti par la suite en même temps que l’on constatait une expansion de la digitalisation de l’économie et de la société, baptisée « quatrième révolution technologique ». L’analyse des chiffres sur une longue période et la comparaison avec ceux caractérisant l’Europe montrent que les courbes de productivité de ces deux grands ensembles se stabilisent et deviennent parallèles.

Sectoriellement, les activités ayant le recours le plus massif aux TIC (services aux entreprises par exemple avec la bureautique) ne sont pas celles qui connaissent les plus forts gains de productivité. Les économistes s’accordent bien entendu pour constater des progrès significatifs d’amélioration de la productivité dans ces secteurs mais là aussi ils sont décorrélés de l’expansion de la digitalisation[2].

Pour résumer la situation, Robert Solow, emploiera dans un article paru dans le New York Time l’expression : « l’ère informatique est visible partout, excepté dans les statistiques de productivité »[3].

Dit autrement, les statistiques de croissance et de productivité montrent que sur une longue durée, toute machine informatique supplémentaire mise à disposition d’un travailleur lui apporte une augmentation non proportionnelle de sa productivité qui finit par décroitre et tendre vers zéro. Sans progrès technique (qui n’est pas un progrès informatique) la production n’augmente plus et sur le très long terme apparait également une convergence des niveaux de richesse entre les pays les moins riches dont la croissance économique est plus forte et les plus riches ou elle décroit.

La période qui s’ouvre avec le développement de l’IA pose la question de savoir si elle caractérisera une ère de rupture ou bien si elle s’inscrira dans la continuité de la dernière révolution industrielle qui a vu la généralisation des TIC[4]. La question n’est pas anodine car le modèle de Solow sera totalement pertinent si la réponse est que nous nous trouvons dans une continuité de la généralisation d’internet et de la digitalisation. Dans ce cas, l’IA provoquera une évolution de la productivité comparable à celle constatée entre 1980 et 2010, c’est à dire une progression non uniforme par secteurs de production et par pays et sur le long terme la perspective d’une convergence.

Si au contraire l’IA marque une totale rupture faisant que nous sommes actuellement dans une période transitoire avant un basculement économique et sociétal, alors le modèle de Solow ne sera plus pertinent car cette période correspondrait au délai nécessaire au basculement vers l’adoption d’une technologie à usage général (TUG)[5]. Il est alors fort probable que les gains de productivité soient alors très significatifs en raison de la diffusion de cette rupture et qu’ils soient concentrés dans les pays ayant anticipé ce basculement en investissant massivement dans l’IA.

Les enjeux sont gigantesques car c’est toute la société qui serait transformée. L’irruption de l’IA intéresse tout aussi bien la sphère économique et industrielle que la sphère de la vie quotidienne avec des interactions entre les deux encore difficilement mesurables. La seule certitude est que la productivité des futurs travailleurs de l’IA devra tout autant à la mobilisation de ressources (en temps et en investissement culturel notamment) acquises dans le temps et l’espace de leur quotidien privatif que dans ceux ressortant de leur activité du travail.

Cela veut dire également que le bouleversement concernera les choix fondamentaux de vie en société. Ces choix risquent d’engendrer des effets très inégalitaires, car dépendant notamment des capacités individuelles à maitriser le numérique et des capacités collectives à le réguler…

Selon les options retenues, individus, marchés et Etats peuvent voir leur mode de fonctionnement totalement remis en cause car les dispositifs actuels d’encadrement et de régulation ne sont pas adaptés à l’avènement d’une technologie à application générale.

Tirer sur le fil du paradoxe de Solow se révèle donc bien d’une grande actualité ; Il touche aussi très directement au statut de l’information qui sera défendu par les Etats. Soit elle est considérée comme un actif intangible et un bien public, supposé non mesurable par la productivité et elle bénéficie alors de la qualification de « non rivalité »,[6] soit elle est considérée comme un bien de consommation participant au système productif. Il y a vraisemblablement la place pour un régime hybride, ce que défend pour l’instant l’Union Européenne pour contrer les « externalités négatives » du numérique (surconsommation du numérique, désinformation, harcèlement…) mais pour l’instant les deux statuts coexistent en générant de grandes turbulences dont nous ne pouvons encore mesurer les évolutions et les conséquences. 

Il est aussi possible qu’une prise de conscience collective de l’inacceptabilité de la généralisation de l’IA couplée à la marchandisation de l’information fera que cette nouvelle technologie à usage général (TUG), aboutisse à une limitation de l’ampleur des changements organisationnels et sociétaux pour éviter que nous entrions dans un inconnu. Mais rien à ce jour n’indique que la modération primera dans le choix du statut de l’information traitée par l’IA et que nous nous satisferons d’améliorations substantielles plutôt que de ruptures…

L’enjeu des prochaines grandes échéances politiques sera de bien mesurer la différence entre maitriser une technologie et donner un but à cette technologie pouvant aboutir à un schéma inédit de partage du pouvoir entre l’homme et elle.


[1] Robert Solow (1924- 2023) a été enseignant au MIT pendant presque cinquante ans où il formera des générations d’économistes dont plusieurs seront également récompensés par un prix Nobel (George Akerlof et Joseph Stiglitz en 2001, Peter Diamond en 2010, Jean Tirole en 2014, William Nordhaus en 2018).

[2] Denis Requier-Desjardins ; L’évolution du débat sur le paradoxe de Solow depuis sa formulation : les raisons d’une récurrence et les bases de l’argumentation. Séminaire du Laboratoire d’Étude et de Recherche sur l’Économie, les Politiques et les Systèmes sociaux (LEREPS) du 13/12/2024 ;

https://hal.science/hal-04871859v1/document

[3] Robert Solow, « We’d better watch out », New York Times Book Review, 12 juillet 1987, page 36. Son expression a été parfois traduite par : on voit des ordinateurs partout sauf dans les statistiques de productivité. https://www.standupeconomist.com/pdf/misc/solow-computer-productivity.pdf

[4] Ce schéma est décrit par les économistes s’inscrivant dans la théorie de Schumpeter sur l’innovation en distinguant les innovations de rupture et les innovations incrémentales. La diffusion des premières crée une nouvelle trajectoire économique et sociétale, les secondes ne font que modifier la trajectoire en cours. Voir notamment sur ce point l’ouvrage de Philippe Aghion, Céline Antonin et Simon Bunel, Le pouvoir de la destruction créatrice, Odile Jacob, 2020.

[5] Technologie à usage général (TUG) en anglais, General Purpose Technology (GPT). Voir notamment sur ce point la note de l’OCDE publiée en juin 2025.

[6] Le concept de non rivalité s’applique aux choses (dont les données informationnelles) pouvant être utilisées par une ou plusieurs personnes, sans que leur utilisation empêche celle des autres ni altère leur substance. La théorie générale sur le droit des biens concerne a contrario les choses rivales en protégeant ou garantissant une exclusivité (cela concerne au premier chef le droit des affaires et le régime de la propriété intellectuelle). La non rivalité implique une organisation du partage, alors que la rivalité ne peut être garantie que par une gestion de l’exclusivité. La généralisation de l’IA a pour conséquence inéluctable d’organiser un équilibre entre partage et exclusivité tout en préservant les libertés liées à la création et à l’expression…

Quant à la mesure de la productivité de l’information, il faut savoir que les GAFA militent pour que les « tokens » entendus au sens d’unité de calcul de base pour désigner une unité lexicale (traitant un mot, une instruction ou une ligne de code) soient retenus comme indicateurs pertinents pour mesurer leur productivité et justifier leur niveau d’investissement. A titre indicatif, les données fournies par Google en 2025 montrent que son usage mensuel des tokens est passé de 480 000 milliards de tokens en mai, à 980 000 milliards en juillet, puis à 1 300 000 milliards en octobre.


En savoir plus sur COMPRENDRE LES CRISES : LE BLOG DE GÉRARD PARDINI

Abonnez-vous pour recevoir les derniers articles par e-mail.


Laisser un commentaire

En savoir plus sur COMPRENDRE LES CRISES : LE BLOG DE GÉRARD PARDINI

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Poursuivre la lecture