L’extension indéfinie du domaine du calculable

Tout semble happé par la logique du calcul utilitaire, jusqu’aux biens communs... Mais rien n’est inéluctable.

Quelques considérations sur le développement contemporain de l’équivalent général monétaire et les relations qu’il entretient avec l’espace, le temps et la décision politiques.

Avertissement

Il faudrait parler de la lente mathématisation des rapports sociaux à travers l’échange : d’abord autour de ces grandes et encore inachevées batailles de territoire entre le « calculable » et « l’incalculable », lesquelles ont commencé dans l’Antiquité ; ensuite, autour de cette irrésistible ascension du calculable dans les sociétés occidentales modernes, de sa promotion via le vecteur monétaire (matériel ou non) en équivalent général ; également, avec la victoire contemporaine de cet équivalent général par la marchandisation, de l’idéologie qu’il porte toujours en Occident face aux autres équivalents généraux qui lui disputaient encore la place il y a peu (le bonheur, le communisme, Dieu,…, que sais-je encore ?). Il faudrait…

Il faudrait, en outre, que je formule les pré-requis de l’hypothèse que j’avance ici « d’une prise de pouvoir » des pratiques probabilistes sur les mathématiques et le calcul en général, lesquelles contribuent de ce fait aujourd’hui, toujours en Occident, à menacer le temps, « notre infrastructure immatérielle commune de base ». Il faudrait…

Mais ici, je souhaite uniquement tracer à grands traits les étapes et les effets d’une tranche d’histoire particulière, et de ses lieux, qui m’apparaissent symptomatiques des voies qu’a prises la victoire contemporaine du calculable sur l’incalculable [1].
J’insiste pour dire que je n’ai pas fait la démonstration de ce que j’avance (j’explique, je pense comprendre, mais ai-je raison ? [2]).

Un peu d’histoire des sciences économiques aux Etats-Unis au 20è siècle et des pratiques autour d’elles.

Bien entendu, on est déjà « dans la mathématisation » de l’économie dès la deuxième moitié du 19è siècle quand l’Ecole néo-classique représentant le « discours scientifique » sur l’éco-nomie introduit le marché comme instance de déchiffrement, et donc de mesure de l’économie. Mais la tradition américaine, portée par une philosophie pragmatiste qui s’est développée au début du 20è siècle sur le rejet de la vieille philosophie européenne rationaliste et métaphysique, va donner une emphase inégalée et spécifique à tout cela.
Pour des raisons trop longues à expliquer ici, on dira seulement qu’elle a fait déboucher, dès les années 20, les sciences économiques sur un concept central d’équilibre général fondé sur des travaux de mathématiques et de physique appliquée. Il reste que ce concept a diffusé pour devenir une métaphore centrale d’une très grande puissance d’inspiration en sociologie, en anthropologie, en histoire des sciences et même en critique littéraire…, bref, dans toutes ou presque toutes les sciences sociales américaines et même dans les humanités… C’est alors le triomphe des formalismes ! [3] Or, c’est le moment où les Américains commencent à vouer un « culte » à l’ingénieur : aussi, c’est par développements buissonnants d’ingénierie que ces formalismes vont circuler dans les techniques de production et d’organisation des entreprises, de bien-être, de l’hygiénisme, d’art, d’architecture… On retiendra que ce modèle de l’équilibre général a donné lieu, entre 1920 et 1945 notamment, à d’âpres batailles scientifiques (entre matheux à la recherche d’une vérité globale et économètres-ingénieurs à la recherche de vérités locales ou de vraisemblances) dont la fécondité a traversé le siècle pour ne laisser vif aucun autre courant sur le champ de bataille et, last but not least, à de furieuses batailles politiques autour des fondements économiques des politiques publiques à élaborer. Samuelson et Léontieff, pour ne citer qu’eux, sont des « enfants directs » de ces fondements-là, de leurs applications, des politiques économiques d’avant et d’après-guerre… [4]

L’équilibre économique général est donc devenu un modèle, à la fois comme connaissance et comme promesse d’homéostasie pour tout système. Après la guerre, en effet, aux Etats-Unis, on veut donc réguler pour entretenir les équilibres souhaités : la science et la défense américaines en sont les terrains principaux… et par une méthode, c’est important, qui efface toutes les autres : la modélisation. Dans les années 50 et 60, les techniques de modélisation envahissent donc le Pentagone. Tout se passe alors comme si le « complexe militaro-industriel » (CMI) américain avait trouvé la pierre philosophale. D’un côté, leurs think tank posent des objectifs à 20, à 30, à 50 ans dans un style désinhibé bien connu depuis cette période sous l’expression de « prophétie auto-réalisatrice », objectifs de nature souvent politique et non strictement militaire (c’est la Rand Corporation qui symbolise le mieux cette orientation). D’un autre côté, le DOD modélise la guerre d’une part, et les matériels de guerre, d’autre part. Et c’est là que se produit, selon moi, l’un des grands casses de l’histoire politique contemporaine : la décision politique est subtilisée par le CMI sans que les politiques ne s’en aperçoivent (à moins que ceux-ci, après la guerre, n’aient consenti inconsciemment à ce vol pensant que la politique de défense et de sécurité américaines était chose trop importante …pour qu’elle leur soit confiée par le peuple, et que le CMI saurait, lui, mieux gérer les passions en gouvernant par… la raison rationnelle ?!).
La « recherche opérationnelle » au DOD sera à son apogée sous Robert Mac Namara. Les programmations (de matériels puis de stratégies) se fondent alors sur des modèles, les variables des modèles se transforment en critères, et les critères retenus ne sont que ceux qui peuvent être, d’une manière ou d’une autre, monétarisables. Le résultat est que le CMI produit lui-même ses « analyses coût-avantage » (ACA : c’est l’acronyme français) qui se présentent comme une balance où tout étant monétarisé, tous les scenarii de choix possibles se soldent (au sens propre et figuré) par un… chiffre. Dès lors, le politique ne fut plus appelé qu’à vérifier les comptes, que dis-je ?, à comparer des chiffres, rien de plus. Donc, à chercher en vain les choix que l’on faisait semblant de lui demander d’opérer. Le tour était joué, définitivement joué, puisque le CMI a toujours gardé depuis – sentiment personnel - son autonomie de décision par rapport au pouvoir politique américain.

Après la guerre en France, jusqu’à aujourd’hui

La culture de l’ingénieur américain et les techniques de modélisation ont traversé l’Atlantique dans les années 60. La rationalisation des choix budgétaires (RCB) en est partiellement (partiellement seulement) le fruit doctrinal et technique. Jeunes étudiants en économétrie, nous apprenions alors que tout choix public était rationnel s’il s’appuyait sur l’une des deux méthodes : l’analyse coût-avantage (déjà citée) d’une part, l’analyse multicritère se présentaient de la même manière mais la seconde résistait, elle, à la calculabilisation, puis à la monétarisation de tous ses critères, donc à « produire » la décision politique avant même que le politique n’en soit saisi. Las, la résistance ne fut pas longue… Par ailleurs, c’est le moment où le Plan a commencé à prendre en charge le cœur invisible de ces modèles : le choix d’un taux d’actualisation. [5] Or, j’aimerais bien savoir si le taux moyen d’actualisation de tout projet d’intérêt public ou d’intérêt général en France depuis 40 ans n’a pas fait que croître en moyenne période, ce qui indiquerait une baisse tendancielle de la « préférence publique » pour le futur ! [6] J’en suis presque persuadé….
Bref, monétarisation de tous les critères de choix et croissance du taux moyen d’actualisation (si je dis vrai) ont peut-être inspiré les logiques parmi les plus structurantes dans les processus d’élaboration de nos politiques et actions publiques. Voilà deux facteurs qui auront, selon moi, battu en brèche « l’autonomie du politique » (facteurs portés par la compétence des technocrates, lesquels ont-ils jamais désiré autre chose que de fantasmer pour leur propre compte sur la décision politique ?….Mais ceci est une autre affaire).

Le taux d’actualisation et le taux de rendement interne (TRI)

Dans son projet d’article intitulé « Crise financière et développement durable » [7], Alain Grandjean rappelle que, pour des raisons identiques à celles que je viens d’exposer, les mécanismes du marché ne sont pas susceptibles de financer les investissements dont « la planète et nos descendants ont le besoin le plus pressant ». Pour des motifs d’efficacité, je reprends ici la totalité du § très clair de son projet d’article qui l’explique : « [Les mécanismes du marché] ne peuvent pas prendre en charge le développement durable pour une raison simple : le critère financier majeur dans la prise de décision d’investissement est le « taux de rendement interne » (ou TRI) qui compare le coût de l’investissement à ses recettes futures en les actualisant [8]. Par exemple, une recette de 1 euro dans 20 ans vaut 0,4 euro à un taux d’actualisation de 5%, 0,15 euro si on actualise à 10% et 0,06 euro si on actualise à 15%, TRI souhaité par les investisseurs financiers. L’avenir n’existe tout simplement pas dans ce raisonnement. Or, il est clair que c’est le TRI qui détermine aujourd’hui l’affectation des capitaux. C’est, en effet, le mode de calcul le plus cohérent permettant de maximiser la rentabilité des capitaux engagés, et c’est le « jeu » logique au plan microéconomique des actionnaires et des dirigeants. En revanche, il est clair que cette maximisation de la rentabilité microéconomique n’a aucune raison de coïncider avec la maximisation de l’intérêt collectif ! Le développement durable notamment suppose par définition de lancer des investissements à durée de retour long et qui donne du prix à l’avenir. Il y a donc là une contradiction simple et déterminante [9] ».
Pour condenser d’une phrase l’enseignement de ce qui précède : la mondialisation requiert à coup sûr une certaine concordance des comptes et des temps, sauf à exacerber les violences à venir….

Ouverture sur la question « des biens communs »

La question des « biens communs » et des orientations stratégiques qui revaloriseraient la nature des enjeux qu’ils portent est engagée lorsqu’on parle de développement durable. Eclairons-là sans commentaires de quelques repères inspirés directement par cette note :
1/ Camper fermement sur une définition très large des « biens communs » (lesquels relèvent de 3 ordres hétérogènes - ordre naturel, ordre économique, ordre social –).
2/ Résister à toute forme d’homogénéisation de ces 3 ordres entre eux (attention, les technocrates sont des ingénieurs : ils savent même faire çà !) en ne cédant jamais sur leur irréductibilité, autrement dit s’opposer à toute confusion visible ou invisible entre leurs référentiels respectifs (éviter l’irréversibilité pour l’ordre naturel ; prendre soin pour l’ordre économique ; rendre équitable pour l’ordre social) ; en effet, on l’aura compris, fusionner des ordres hétérogènes, c’est supprimer le choix politique.
3/ Résister, en parallèle, à la tentation de dissocier les « biens communs » entre eux en organisant leur dialogue politique (on dira plus tard comment) ;
4/ Militer pour que tout investissement engageant des « biens communs » écarte radicalement les principes selon lesquels ne compte que ce qui peut être compté et ne vaut que ce dont la jouissance est présente.

Bref, un développement durable, mais aussi humain, mais aussi moderne justifie que le périmètre politiquement déclaré des « biens communs » soit très large, que le dialogue entre ceux-ci soit élaboré par distinction et association, enfin, pour faire écho au principal objet de ce papier, que la double et récurrente tentation de la monétarisation et du « présentéisme » soit surmontée, ce qui n’est pas là le moindre des défis.

Jean-Paul Karsenty, le 2 juin 2008

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message
  • Pour créer des paragraphes, laissez simplement des lignes vides.

// Article publié le 4 juin 2008 Pour citer cet article : Jean-Paul Karsenty, « L’extension indéfinie du domaine du calculable », Revue du MAUSS permanente, 4 juin 2008 [en ligne].
http://www.journaldumauss.net/./?L-extension-indefinie-du-domaine
Notes

[1J’ai bien conscience que parler de « victoire contemporaine du « calculable sur l’incalculable » signifie que je laisse supposer que le processus est achevé, et peut-être même irréversible. Je pourrais, en effet, me contenter de parler d’extension du champ de la logique économique. Mais je perçois cette réalité-là comme plus grave et plus complexe. Et je sais que je cherche implicitement à établir une distinction et une tension plus approfon-dies de triple nature : 1/ entre le marchand et le non-marchand (c’est-à-dire entre le marché monétarisé et son extérieur) ; 2/ entre la logique économique et d’autres logiques (non-économiques, mais néanmoins passibles de calcul) ; 3/ entre le calculable et le non-calculable (c’est-à-dire entre le chiffre et le verbe, d’une part, et ce qui ne ressortit ni de l’un ni de l’autre). Mais tout ceci est une toute autre histoire…

[2Merci à Michel Henochsberg (Professeur à Paris X) pour les quelques remarques que cette note lui a inspirées.

[3On est donc là dans le monde de l’équilibre général post Walras et ante Arrow-Debreu.

[4La presque totalité des informations et explications contenues dans ce paragraphe, je les dois à un exposé d’Annie COT (Professeur à Paris I) et de Michel ARMATTE (Professeur à Paris VI) au cours d’un séminaire du Centre Alexandre Koyré animé par Amy DAHAN (07/04/2008). Mais ces lignes ne les engagent pas.

[5Y-a-t-il choix plus politique que le choix d’un taux d’actualisation ? La valeur de ce taux exprime le degré de préférence pour le futur d’un décideur, et donc sa détermination à contribuer à l’affectation des capitaux disponibles à l’instant t au profit d’un projet plutôt que d’un autre.

[6Je ne sais pas si une telle observation est possible dans les autres grands pays occidentaux ni si elle a été faite, enfin si un raisonnement de même nature peut être conduit.

[7Son article a paru dans le n° 50 en avril 2008 des Annales des Mines – Responsabilité et Environnement (Alain Grandjean, associé de Carbone 4)

[8L’actualisation consiste à affecter d’un coefficient de réduction les montants financiers futurs ; ce coefficient est d’autant plus faible que l’année est éloignée.

[9Note de JPK : Avec un peu d’humour, on pourrait néanmoins prétendre que nos représentations collectives sont quand même en train d’évoluer. Deux exemples davantage dans mes domaines de compétence ?
- lorsque les pays occidentaux, voilà 50 ans environ, se posaient encore la question du choix du nucléaire civil, quel taux d’actualisation a-t-on dû appliquer au critère des déchets nucléaires pour que ce choix restât crédible ? Or, nous savions et pensions, que, sauf progrès scientifique improbable à l’époque comme aujourd’hui encore, certains d’entre ces déchets auraient une activité de plusieurs centaines de milliers d’années ! Prix de l’avenir à l’époque : quasi-nul.
- lorsqu’aujourd’hui (il y a 2 mois environ), la Chine fait volontairement exploser l’un de ses satellites dans l’atmosphère, elle sait que les débris (on appelle cela une externalité négative) tourneront en orbite pendant 1 siècle environ… Prix de l’avenir… un peu moins que nul !...
Magnifique progrès, n’est-ce pas ?... mais dont le rythme, on le comprend, n’a pas la moindre capacité de renverser les logiques délétères que nous venons de décrire.

Suivre la vie du site RSS 2.0 | Plan du site | Espace privé | SPIP | squelette