MATHEMATIQUES ET COMPLEXITE

 

Pour déterminer la complexité, on cherche, dans l’approche classique, la taille du plus petit programme permettant de calculer le système complexe. La complexité est donc le plus petit algorithme qui simule le système. On cherche ainsi à comprimer au maximum les informations (démarche de connaissance) de manière à mettre en lumière les interactions simples qui engendrent un fonctionnement complexe du système (lire "pour la science" décembre 2003).

Cette démarche implique le présupposé suivant ; La compression informationnelle, à travers les symboles, produit une compression temporelle, de sorte que la connaissance devient intemporelle. En effet, les calculs et les simulations informatiques se réalisent dans une dimension intemporelle. Que l’ordinateur soit rapide ou lent, le résultat sera le même après un nombre identique de boucles de calculs. Que l’on fasse une simulation aujourd’hui ou demain, le résultat sera le même. La connaissance fige dans le temps la logique des processus qu’elle décrit. La connaissance décrit des processus historique et dynamiques avec un formalisme statique. Cela est une des caractéristique générale de la connaissance, mais c’est peut être aussi une de ses limitations. L’invariant temporel est une caractéristique générale de la croyance et l’on est obligé ici d’admettre que la connaissance est une croyance dont le critère est la logique. Cette même croyance fait dire à Wolfram que l’univers peut être mis en équation et à Einstein que « Dieu joue au dés ». Qui a raison ?

Le bénéfice de la connaissance intemporelle, qui permet d’anticiper les phénomènes, est lié à la perte de l’information liée à l’histoire du système, histoire comprimée par la démarche cognitive. Les mathématiques, science par excellence de la logique cognitive, sont également victimes de cette dualité. D’une part, une formidable puissance d’abstraction, d’autre part l’incapacité à formaliser les phénomènes dans l’infiniment précis. Non qu’elle manque en soi de précision, mais que la compression symbolique qui en fait sa puissance, a pour corollaire la perte d’information concernant son histoire.

Par exemple considérons les deux calculs réalisés dans l’ordre suivant :

1 + 1 = 2 et 2 / 2 = 1 De quelle couleur sera le 1 résultant?

Le 1 sera violet, car si l’on partage deux pommes violettes en deux, on obtient une pomme violette. Quantitativement, tous les 1 de ces deux calculs sont identiques ! Qualitativement, les 1 ne son pas identiques, ils ont des couleurs différentes.
En faisant le calcul à l’envers on obtient des couleurs différentes, évidemment !

2 / 2 = 1 et 1 + 1 = 2

Dans le premier cas, la compression informationnelles donne : 1 = 1
Dans le second cas, la compression informationnelle donne : 2 = 2

Le résultat mathématique (quantitatif) est identique, mais le sens dans lequel se sont déroulé les opérations a modifié d’autres niveaux informationnels. En condensant les informations, elle ne prend pas en compte toutes les étapes. Quantitativement, on part de 1 et on arrive à 1. Qualitativement, on part du rouge et on arrive au violet.

Le lecteur répondra en toute logique que l’on mélange plusieurs informations sur une seule opération. Les opérateurs logiques sur les couleurs et sur les chiffres n’étant pas les mêmes, il est logique d’arriver à ce résultat. En dédoublant les opérations, on arriverait à un résultat correct ! Non car le problème est reporté sur un autre niveau informationnel.

Si l’on étudie quantitativement un phénomène social (dynamique en quatre dimensions), la dynamique biologique qui la sous-tend sera un autre niveau d’information. Si l’on étudie un phénomène biologique (dynamique en trois dimensions), la dynamique des éléments physiques qui la sous tend sera un autre niveau d’information. Si l’on étudie un phénomène physique macroscopique (dynamique des champs en 2 dimensions), la dynamique des particules élémentaires qui la sous tend sera un autre niveau d’information. Enfin si l’on étudie une particule élémentaire (dynamique de l’énergie à une dimension), le principe d’incertitude de Heisenberg nous interdit la connaissance à la fois de la vitesse et de la position de la particule. Une variable au moins sur laquelle l’histoire a un impact, constitue un niveau d’information complémentaire, de sorte que nous ne pourrons, en toute logique, conclure que l’abstraction faite par les outils mathématiques ne peuvent représenter de manière parfaitement exact les phénomènes naturelles. Autrement dit, la connaissance à ses limites imposées par le fait même qu’elle est intemporelle tout en décrivant des phénomènes temporels. Si la compression d’un phénomène permet sa compréhension directe, elle ne prend pas en compte son histoire et l’effet qu’elle a eu sur d’autres niveaux.

Les mathématiques sont une logique qui n’a aucune application infiniment précise dans la réalité puisque l’on ne peut pas isoler parfaitement un seul objet d’étude de son environnement. Ainsi, les mathématiques ne sont une science exacte que dans un espace virtuel.

Prenons comme second exemple la dynamique des échanges dans une entreprise. Entre l’instant t1 et l’instant t2, on peut effectuer un bilan des flux « i » qui entrent dans le système, et des flux « j » qui en ressortent, et déterminer la variation de capital pour l’entreprise en question. Une équation, plus ou moins réaliste, peut être effectuée pour mettre en relation l’ensemble des flux et la variation de capital. Cette équation va comprimer le temps t2-t1 pour obtenir une équation de la forme C = f(i,j).
A y regarder de plus près, nous observons que certains flux sont symétriques (échange égal en valeur) et d’autres sont asymétriques. Les achats et les ventes sont des flux symétriques. En revanche, le bénéfice de l’entreprise, les repas offert à des clients, les rabais de quantité des fournisseurs, sont des flux asymétriques. Ces différents types de flux n’ont pas le même impact sur la construction du capital. Pour les distinguer entre eux, il est indispensable de réintroduire dans l’analyse une notion de temps que l’équation générale à pour objectif d’aplatir. La variable temps associée aux flux permet de les caractériser qualitativement. Nous distinguons quatre catégories de flux en fonction de la temporalité de la réciprocité des flux ;

- Une réciprocité instantanée caractérise un échange de type économique (A <-- --> B). Elle permet la différenciation.
- Une réciprocité à court terme caractérise une relation sociale. Elle produit le lien social (A --> B ; B --> A) par le mécanisme bien connu du don et du contre-don.
- Une réciprocité à moyen terme caractérise une relation éducative. Elle permet la production et la reproduction des identités et de la culture (A --> b ; ; B --> c)
- Une réciprocité à long terme représente une relation hiérarchique. Elle permet la production de l’organisation à travers la politique (a --> B ; ; ; b --> A ).

Chaque type de flux à des caractéristiques et des fonctions bien précises. Cette typologie des flux nous permet de déterminer parmi les flux symétriques, ceux qui ont un caractère diversifiant et permette l’adaptation en produisant du désordre et du chaos (flux D pour diversifiant), par opposition à ceux qui produisent de la cohérence, de la dépendance et de l’ordre (flux L pour lien). Dans les flux asymétriques, nous distinguons ceux qui permettent l’acquisition des ressources pour construire la complexité du système (flux H pour hiérarchiques) et ceux qui ont pour finalité de transmettre l’identité pour reproduire le système tel qu’il est (flux R pour reproducteur).

L’exemple de l’entreprise nous a permis de présenter cette typologie très générale des flux en relation avec la variable « temps » associée aux flux pour en déterminer leurs fonctions. Les systèmes psychologiques, aussi bien que sociaux, biologiques ou physiques, sont structurés de la même manière. Sur la base de cette typologie des flux, la complexité d’un système est le produit des flux de ces quatre catégories.

Complexité = Flux R x flux D x flux H x flux L

Si une catégorie est manquante, le système n’est pas complexe et ne possède pas la capacité d’auto-organisation. Il pourra être compliqué, mais non complexe. Les propriétés suivantes apparaissent :
- A chaque phase est associé un opérateur et un opérateur inverse.


Reproduction : production <-- -->consommation
Différenciation : spécialisation <-- --> échange
Hiérarchisation : organisation <-- --> désorganisation
Liaison : lien <-- --> rupture


- l’opérateur complexifie le système, alors que l’opérateur inverse décomplexifie l’environnement. Autrement dit, l’augmentation d’entropie de l’environnement permet la complexification du système.
- L’augmentation de la complexité est le résultat de la minimisation des contraintes temporelles, alors que l’augmentation de l’entropie est le résultat de la minimisation des contraintes spatiales.
- Une réaction en chaîne est responsable de la complexification des systèmes.

Nous avons développé, pour l’analyse des systèmes sociaux, un outil d’analyse, la comptabilité complexe, qui nous permet de mesurer la durabilité des systèmes (développement à long terme), par opposition à la comptabilité traditionnelle qui détermine un capital actuel, responsable du développement dans le court terme.

La complexité est maximale, lorsque, pour un capital définit, chaque phase à la même valeur. C’est lorsque le système se trouve à mi-chemin entre ordre et désordre qu’ayant un fonctionnement chaotique, il est le plus complexe. Nous savons qu’un système parfaitement ordonné, ou parfaitement désordonné, est peu ou pas complexe. Son évolution est soit inexistante, car parfaitement ordonnée, soit statistiquement prévisible, car parfaitement désordonnée. Ce n’est qu’à la frontière de ces deux extrêmes que le système est complexe. Ainsi, si l’ordre et le désordre peuvent être quantifiés, la complexité est d’autant plus importante que le produit de ces deux états est élevé. On rejoint ici la mesure algorithmique de la complexité rappelée en début de cet article. Plus la complexité est importante, moins le système est prévisible et plus l’algorithme de sa description sera volumineux.

Réintroduire une fonction de temps dans les analyses permet de restaurer l’information perdue lors de la compression symbolique et de la compression du temps qui en résulte. Elle permet de compléter l’approche quantitative par des arguments qualitatifs, liés à la dynamique dans le temps des interactions entre les éléments d’un système.