Voici une
vaste question qui est au cœur de la relation entre pouvoir politique et
technosciences. La cybernétique de Norbert Wiener a tenté d'y répondre dès les
années 1940, mais avec quels résultats ?
Il n'est pas douteux que
les mathématiques permettant d'élaborer de tels modèles soient d'une grande
beauté formelle et recourent aux notions d'émergence, de chaos, de hasard et,
bien-sûr, de non-linéarités. Par ailleurs, si l'on connaît désormais le rôle
joué par l'utilisation du Big Data dans la campagne électorale de Barack Obama
en 2008, il convient de remarquer qu’il ne s'agit pas à proprement parler de
modélisation mais plutôt de traitement de données.
Alors, si
cela était possible, comment pourrions-nous construire un modèle mathématique de
l’organisation de la société ? J'aborde ici les grandes lignes de cette
question à travers la lecture d'un ouvrage désormais classique : L'acteur et le système (Editions du
Seuil, 1977), écrit par deux sociologues, M. Crozier et E. Friedberg
Introduction :
Leurs travaux étudient les effets
de rétroaction « contre-intuitifs » qui caractérisent l’action
humaine, donc la politique. Dès les premières pages, on lit à propos de ces
effets que « dans leur acception la plus générale, ceux-ci désignent
les effets inattendus, non voulus et à la limite aberrants sur le plan
collectif d'une multitude de choix individuels autonomes et, pourtant, chacun à
son niveau et dans son cadre, parfaitement rationnels. Ils marquent le
décalage, voire l'opposition souvent fatale entre les orientations et les
intuitions des acteurs et l'effet d'ensemble de leurs comportements dans le
temps, ce mécanisme fondamental qui fait qu'en voulant le bien nous réalisons
le mal ». (Ibid. p.16-17)
On retrouve ici typiquement la
problématique de l'ambivalence de la technique décrite par Jacques Ellul.
L’effet contre-intuitif est au cœur de l’action humaine collective.
Je remarque
cependant que le nom de Jacques Ellul n’est -à ma connaissance- pas cité une
seule fois dans L'acteur et
le système. Son œuvre, pour partie antérieure à
la parution du livre de Crozier et Frieberg, fait pourtant abondamment
référence aux notions de boucles de rétroactions et de système social autonome.
Dès 1954, avec Le système technicien,
Ellul identifie ce qui selon lui constitue le moteur présumé de cette
autonomie : la dimension sacrée conférée à la technique. Mais revenons à L'acteur et le système. D’emblée, les
auteurs sont formels : il serait vain de chercher des lois déterministes
de l’histoire puisque « ni nos intentions, ni nos motivations, ni nos
objectifs, ni nos relations transcendantales avec le sens de l'histoire ne sont
une garantie ou une preuve de la réussite de nos entreprises. L'enfer, on le
sait bien, est pavé de bonnes intentions. » (Ibid., p.17)
Ainsi, ce qui pourrait sembler
être une contradiction logique est en fait un effet d'organisation : des
résultats contre-intuitifs émergent de la structuration
sociale de l'action collective, comme dans le cas de la situation
perdant-perdant du dilemme du prisonnier.
Norbert Wiener (1894-1964), père fondateur de la cybernétique. |
Il n’y a pas de lois déterministes de
l’histoire.
L'organisation et l'action
collective sont donc les deux faces complémentaires d'une même pièce.
L'organisation, en tant qu'elle redéfinit les problèmes en les structurant
socialement, permet de surmonter ces impasses logiques primaires. En retour,
elle produira de nouveaux effets contre-intuitifs (secondaires cette fois)
issus de ses propres processus de contrôle et de régulation. Même si les
acteurs agissent rationnellement, ils restent assujettis aux moyens qu'ils
utilisent pour s'organiser et fixer leurs finalités. Ces moyens sont
arbitraires, contingents, mais exercent toujours une contrainte sur le champ
social qui n'est donc jamais neutre. L'accomplissement d'objectifs communs par
des acteurs ayant des orientations divergentes est un problème dont les
solutions, socialement construites, sont multiples. « En cette matière, il
n'y a ni fatalité ni déterminisme. Ces solutions ne sont ni les seules
possibles ni même les meilleures relativement à un "contexte"
déterminé. Ce sont toujours des solutions contingentes au sens radical du
terme, c'est-à-dire largement indéterminées et donc arbitraires. Mais elles
n'en sont pas moins contraignantes » (Ibid.,
p.16)
La cybernétique, à la croisée des chemins. Source : Cybernetics : From past to future (D.A. Novikov, 2016, en ligne gratuitement ici) |
Action et incertitude : vers une modélisation stochastique ?
Les auteurs ajoutent :
« Aussi loin que l'on touche l'analyse "rationnelle" de sa
structure logique ou "naturelle", tout problème matériel comporte
toujours une part appréciable d'incertitude, c'est-à-dire d'indétermination, quant aux modalités concrètes de sa solution.
Dans le cas contraire, il ne constitue plus un problème au sens vrai du terme,
puisqu'il pourrait être résolu par une machine ou tout autre mécanisme
automatique ». (Ibid., p.23)
L'organisation et la redéfinition
des problèmes ont alors pour but de créer des incertitudes artificielles mieux
maîtrisées que les incertitudes « naturelles ».
À propos de la résolution des
problèmes par les machines : « la cybernétique rassure parce que, sous les
dehors d'un langage ésotérique, elle permet encore une fois d'esquiver le vrai
débat et d'éviter de tirer toutes les conséquences du caractère
irréductiblement indéterminé, c'est-à-dire politique, des systèmes sociaux.
Contre ces nouvelles illusions scientistes et/ou technocratiques, on ne
répétera jamais assez cette constatation fondamentale : Il n'y a pas de système sociaux entièrement réglés ou contrôlés ».
(Ibid., p.29). On retrouve ici
typiquement l’intuition d’Hannah Arendt : politique et liberté sont
intimement liées par la contingence. On entrevoit alors la possibilité d’algorithmes
stochastiques.
Bien sûr, les acteurs disposent
toujours d'une marge de liberté à l'intérieur des contraintes que leur impose
le système (c’est le principe de la loi de probabilité). Et leur stratégie
d'interaction les uns avec les autres repose largement sur l'opportunisme, ce
qui complique la mathématisation de leur comportement. Le mécanisme de
régulation de l'ensemble, qui permet la médiation des stratégies divergentes,
est ainsi toujours contingent. Il s'agit du pouvoir.
Pouvoir, contrôle et émergence : vers des algorithmes
non-linéaires ?
Le pouvoir politique n'est donc
pas le simple produit d’une structure d'autorité mais un jeu de relations
distribué sur l'ensemble des acteurs. Le pouvoir émerge de l'identification et
du contrôle sans cesse renouvelés des sources d'incertitudes naturelles et
artificielles les plus pertinentes pour chaque acteur individuel. C'est
pourquoi les effets systémiques de l'action collective sont largement autonomes
et non pas décidés par un ou quelques individus. C’est le principe de la
non-linéarité.
Cette définition rejoint tout à
fait la conception politique de la liberté développée par Hannah Arendt. Le
pouvoir, en fin de compte, se trouve dans la possibilité qu'ont les acteurs de
donner collectivement naissance à de l'inattendu. L'algorithme déterministe, on l'aura compris, tend quant
à lui à supprimer cette autonomie.
On lit en effet p.35 que
« le changement n'est ni le déroulement majestueux de l'histoire dont il
suffirait de connaître les lois ni la conception et la mise en œuvre d'un
modèle plus "rationnel" d'organisation sociale. Il ne peut se
comprendre que comme un processus de création collective à travers lequel les
membres d'une collectivité donnée apprennent
ensemble, c'est-à-dire inventent et
fixent de nouvelles façons de jouer le jeu social de la coopération et du
conflit, bref, une nouvelle praxis sociale, et acquièrent les capacités
cognitives, relationnelles et organisationnelles correspondantes ».
Plus loin : « La
transformation de nos modes d'action collective pour permettre plus
d'initiative et plus d'autonomie des individus ne passe pas par moins d'organisation, mais par plus d'organisation, au sens de
structuration consciente des champs d'action » (Ibid., p.35)
Modélisation Bottom-up plutôt que Top-down.
La méthodologie de Crozier et
Friedberg prétend ainsi partir des comportements imprévisibles pour expliquer
les contraintes systémiques et non l'inverse. Ils choisissent donc l’approche « bottom-up ».
D'après eux, la conduite humaine ne saurait se conformer à un strict
déterminisme et présenterait toujours une part d'imprévisibilité et de contingence.
Il faut ici comprendre « contingent au sens radical du terme, c'est-à-dire
à la fois dépendant d'un contexte, des opportunités et contraintes (matérielles
et humaines) qu'il fournit, et indéterminé, donc libre » (Ibid., p.46). Selon les auteurs, ce
schéma d'explication, qui postule des « acteurs atomiques »
individuels et intègre l'émergence de rétroactions contraignantes qui
circonscrivent les potentialités d’action, est le seul à même de rendre compte
de la variété des phénomènes sociaux empiriquement observables.
Si l'on devait construire un
modèle selon ces directives, on prendrait donc soin d’étudier toutes les
subtilités des méthodes d’« optimisation sous contrainte » ou de « minimisation
de fonctionnelle ». Voici en effet ce qu’on lit à propos du raisonnement
selon lequel l'homme chercherait systématiquement la meilleure solution aux
problèmes qui se présente à lui : « ce raisonnement est beaucoup trop encombrant
mais, en même temps, il est faux. L'être humain est incapable d'optimiser. Sa
liberté et son information sont trop limitées pour qu'il y parvienne. Dans un
contexte de rationalité limitée, il décide de façon séquentielle et choisit
pour chaque problème qu'il a à résoudre la première solution qui correspond
pour lui a un seuil minimal de satisfaction » (Ibid., p.54). C'est donc que l’humain agit de façon heuristique. Ce qui tendrait à donner
encore davantage de poids à la possibilité concrète d’utiliser la méthode de
décision éthique proposée par Hans Jonas.
En effet, les objectifs et les
projets des acteurs individuels ou collectifs sont toujours multiples, plus ou
moins ambigus, explicites ou contradictoires. C'est pourquoi la rationalité ne
devrait pas être évaluée à l'aune d'objectifs clairement définis, mais plutôt
par rapport à des opportunités et au comportement des autres acteurs. Ce modèle
permet de caractériser des régularités de comportement observées empiriquement,
qui ne prennent leur sens que par rapport à une stratégie holistique. Enfin, il est à noter qu'une telle stratégie n'implique
pas forcément de volonté consciente
de la part des acteurs, c’est pourquoi l’hypothèse du libre-arbitre n’est pas
nécessaire ici.
Conclusion
Si l'on n'a pas répondu à notre
question de départ, on peut toutefois comprendre qualitativement la dynamique des
crises actuelles : les acteurs capitalistes prennent leurs décisions de manière
non concertée mais selon les opportunités qu’offre le contexte, tout en ayant
pour objectif général la maximisation du profit. Il en résulte un système
techno-économique autonome, qui ne repose pas sur une stratégie globale établie
à l'avance par un petit nombre d’individus, mais sur l'interaction évolutive
entre les acteurs déterminants dans une situation donnée. Ce type d'interaction
est caractérisé par des boucles de rétroactions qui, comme on le sait en bon
physiciens, finissent par diverger si elles ne sont pas régulées. Pour finir, je
pense que l'on sous-estime beaucoup les résultats et les formes que peut
prendre l'auto-organisation des sociétés humaines. Il est vrai qu’il s’agit là d’un
un concept abstrait et le remplacer par des explications mono-causales peut parfois
devenir très tentant, en particulier lorsque l’analyse d’une situation
politique échappe à tous les commentateurs ! Suivez mon regard …
Aucun commentaire:
Enregistrer un commentaire
Saisissez votre commentaire.