Article scientifique en physique des systèmes dynamiques non linéaires.

Systèmes dynamiques non linéaires : l'émergence comme bifurcation

L’émergence, telle que définie par les émergentistes britanniques du début du 20ème siècle, désigne un saut qualitatif entre différents niveaux de réalité méréologiquement hiérarchisés. Cette « créativité naturelle » qui consomme l’irréductibilité de certaines propriétés de systèmes complexes, mettrait ainsi en échec les lois de la physique. Le processus d’émergence semble donc par définition inexplicable. Pourtant, dans la seconde moitié du 20ème siècle, la science va s’emparer de la question de la dynamique des systèmes et se doter de nouveaux outils pour « analyser » la complexité. On peut ici faire référence à la théorie des systèmes complexes adaptatifs du Santa Fe Institute (avec notamment Chris Langton, Stuart Kauffman et John Holland), à la thermodynamique loin de l’équilibre (initiée par Ilya Prigogine), à la synergétique, ou encore à la théorie des systèmes dynamiques non linéaires. Le concept d’émergence est explicitement mobilisé notamment dans la théorie des systèmes complexes adaptatifs1 ou encore dans la modélisation des structures dissipatives par Ilya Prigogine que nous présenterons ci-après. L’émergence désigne des processus dynamiques capables de faire apparaître dans le temps des structures macroscopiques stables. A l’aune de ces théories de la complexité, l’émergence ne sera plus un paradigme opaque défini de façon purement négative, mais un phénomène dynamique modélisable, traversant des systèmes physiques et biologiques très différents.

Au début du 20ème siècle, les travaux de Henri Poincaré sur le problème des trois corps2 ont montré les limites de l’analyse réductionniste des systèmes ; un ensemble fini d’hypothèses de départ n’est pas toujours suffisant pour déterminer l’évolution d’un système en tout point du temps. Même un système n’impliquant que trois corps peut être soumis au phénomène de « sensibilité aux conditions initiales » : une infime variation des conditions initiales pourra provoquer une divergence exponentielle de sa trajectoire d’évolution. Bien que les lois qui contraignent cette évolution soient déterministes, l’impossibilité de décrire l’état initial du système avec une précision infinie le rend mathématiquement imprévisible : on ne peut pas, même approximativement, prédire à quel point de l’espace des états la trajectoire du système sera à un temps T. Cette imprévisibilité est due à la non-proportionnalité de certaines causes et de certains effets, ou à ce qu’on appelle couramment la non-linéarité du système. Il ne s’agira donc plus de tenter de linéariser les équations non-linéaires qui décrivent ces systèmes, de les remplacer par des approximations linéaires. Pour aborder les systèmes complexes dont on ne peut résoudre les équations différentielles, Henri Poincaré propose, contre l’analyse quantitative réductionniste, une analyse qualitative géométrique de l’allure générale des solutions des équations. Les méthodes, les outils et les concepts développés par Henri Poincaré sont indéniablement le point d’ancrage de la théorie des systèmes dynamiques contemporaine3.

Après Henri Poincaré, il devient désormais tout à fait légitime de mobiliser, au sein des explications scientifiques, une méthodologie émergentiste plutôt que réductionniste, c’est-à-dire de se focaliser sur l’organisation globale d’un système plutôt que sur les propriétés de ses parties, parce que sa non prédictibilité n’est plus attribuée à une incompétence épistémique temporaire. Ainsi, la fin des années 1960 connaîtra l’essor d’une « science du chaos » ou plus largement d’une « science des systèmes dynamiques non linéaires », basée sur la reconnaissance du fait que des comportements complexes peuvent survenir à partir de lois dynamiques très simples.

« Le chaos apporte un nouveau défi au point de vue réductionniste selon lequel on peut comprendre un système en le décomposant et en étudiant chacune de ses parties. Ce point de vue a prévalu dans les sciences notamment parce que dans beaucoup de systèmes le comportement du tout consiste en effet en la somme de ses parties. Le chaos démontre pourtant qu’un système peut avoir un comportement complexe qui émerge en conséquence d’une simple interaction non linéaire entre quelques composants.[…] L’interaction entre les composants d’une certaine échelle peut conduire à un comportement global complexe à une échelle plus grande, comportement qui ne peut généralement être déduit à partir des composants individuels.4 » [notre traduction]

Depuis quelques dizaines d’années, la science a donc dû se doter de nouveaux outils mathématiques pour décrire plus que pour résoudre les équations non linéaires de ces systèmes. On a découvert que d’étonnantes « structures » soutenaient les comportements apparemment chaotiques de ces systèmes. Un ordre soutiendrait le chaos apparent. La théorie du chaos, branche importante de la théorie des systèmes dynamiques non linéaires, est en définitive une théorie de l’ordre, un nouveau type d’ordre révélé par une nouvelle mathématique. La résolution des équations non linéaires ne sera pas à proprement parler un résultat, mais une forme, une structure aujourd’hui souvent tracée par un ordinateur. Cette structure visible, nommée « attracteur », représente la dynamique du système sur le long terme dans un espace mathématique abstrait. Quel que soit le point de départ, le comportement du système suit une trajectoire qui semble « attirée » par cette structure. Ce sont David Ruelle et Floris Takens5, dans les années 1970, qui suggèrent que des attracteurs structurellement stables, dits « attracteurs étranges », peuvent permettre de décrire la turbulence ou le chaos. On sait aujourd’hui que les attracteurs étranges des systèmes chaotiques présentent une géométrie singulière : une structure fractale. Le comportement de ces systèmes n’est donc pas aléatoire ; le désordre est endigué par les caractéristiques topologiques des équations du système. Lorsqu’on les déstabilise, les systèmes chaotiques évoluent tous de la même manière : ils suivent une loi universelle qu’on a coutume d’appeler « route de bifurcation vers le chaos » ; le système devient alors dans une certaine mesure prévisible. L’aboutissement des recherches sur les attracteurs est plutôt surprenant : le nombre de types d’attracteurs est limité malgré la grande diversité des système physiques. Outre la structure fractale des « attracteurs étranges », on a pu caractériser des attracteurs qui correspondent à un état spécifique vers lequel converge le système et qui sont représentés par des points fixes, ou encore des cycles limites qui représentent la répétition d’une trajectoire dynamique du comportement du système. Il apparaît que certaines propriétés dynamiques d’un système peuvent être déduites de la forme de ses attracteurs. La science des systèmes dynamiques non linéaires consistera en une analyse « qualitative » du comportement de ces systèmes, c’est-à-dire en l’identification de différents attracteurs, classés selon leurs caractéristiques topologiques. Stephen Smale, mathématicien américain, est reconnu comme ayant très largement contribué au développement de cette méthode d’analyse associant la complexité des comportements dynamiques à la simplicité d’une approche topologique.6

Ainsi, malgré la sensibilité aux conditions initiales et l’apparente stochasticité de l’évolution des systèmes complexes, une approche macroscopique fait apparaître un nouveau mode de description pertinent, comme si le niveau macroscopique avait une complexité qui lui est propre. Que le système comprenne un nombre très réduit de variables simultanées (au minimum 3), ou un très grand nombre – comme c’est le cas dans la grande majorité des systèmes réels -, les attracteurs semblent avoir le même degré de complexité.

« Tout se passe donc comme si le phénomène macroscopique avait son degré de complexité propre, indépendant du degré de complexité du niveau microscopique sous-jacent. C’est bien là la définition d’une autonomie du niveau macroscopique par rapport au niveau microscopique, justifiant la recherche d’une structure et d’une prévisibilité attachées à son niveau propre. En d’autres termes, il serait fondamentalement (et pas seulement pratiquement) inutile de prospecter le microscopique pour comprendre les structures, les fonctions et les évolutions d’un niveau macroscopique.7 »

La modélisation des systèmes dynamiques non linéaires en termes d’attracteurs est étroitement corrélée, et ce depuis les travaux d’Henri Poincaré, à la recherche des points de « bifurcation » de la dynamique de ces systèmes, une bifurcation consistant en la modification du paysage d’attracteurs. On parle de bifurcation quand un petit changement dans les valeurs de certains paramètres, provoque un changement qualitatif ou topologique soudain du comportement global du système. Dès les années 1930, le mathématicien russe Aleksander Andronov8 propose une caractérisation de différents types de points de bifurcation, au seuil desquels de petites perturbations peuvent produire des comportements macroscopiques qualitativement différents. Une bifurcation désigne plus précisément le changement brutal de la structure des équations décrivant le système, lorsqu’un paramètre atteint une valeur critique ou valeur seuil. Cette valeur est très précise ; il y a une ponctualité des passages critiques. Passé ce point de stabilité ou point de bifurcation, certains attracteurs disparaissent et de nouveaux surviennent. Pour comprendre ces bifurcations, plutôt que d’analyser les interactions microscopiques entre les composants du système, il s’agira de déterminer les variables, ou paramètres d’ordre, dont l’évolution continue provoque, au-delà d’un certain seuil, une bifurcation. De même que les attracteurs, les différents types de bifurcation peuvent être classés topologiquement et sont peu nombreux. Certaines bifurcations par exemple, inscrivent le système dans le temps, le système acquiert une nouvelle propriété : l’historicité. Si, à un instant T, au seuil d’une bifurcation, un système peut évoluer avec une probabilité égale vers deux états différents, une fois l’un des deux états adopté, le système redevient stable et ne peut recouvrer son état antérieur sans l’intervention d’un paramètre de contrôle extérieur ; le système devient donc historiquement déterminé. Ainsi, si l’on ne peut prédire à quel point de l’espace des états la trajectoire du système sera à un certain moment, on peut cependant décrire qualitativement l’évolution dynamique du système.

Pour les théoriciens des systèmes dynamiques non linéaires, l’émergence correspondra à une bifurcation, à un changement brutal de la dynamique d’un système. Elle n’est plus l’apparition magique d’une qualité systémique inexplicable, mais un processus dynamique qui, bien que découvert empiriquement et non déductible logiquement à partir du comportement des parties du système, peut être mathématiquement décrit. Ce processus dynamique a une pertinence ontologique parce qu’il présente des caractéristiques récurrentes qui traversent des systèmes physiques très différents et qu’il présente donc une certaine autonomie, relativement aux interactions micro-causales sous-jacentes. L’émergence n’est donc pas un constat d’échec épistémique afférent à des systèmes physiques isolés, mais un processus dynamique modélisable qui présente une certaine universalité.

Si la théorie de l’émergence devient une théorie de la bifurcation, l’émergence peut-elle être associée à tout type de bifurcation ? Dans les différentes définitions préalablement esquissées, l’émergence coïncide toujours avec une structuration spatio-temporelle macroscopique du système, qui permet une description du système plus simple qu’en termes d’interactions de ses parties. Cette structuration macroscopique peut-elle être associée à un type de bifurcation spécifique ?

Parallèlement, mais de façon étroitement liée à la modélisation des systèmes dynamiques non linéaires, se développe une théorie dynamique de l’apparition de structures macroscopiques stables, ou morphogenèse, qui va connaître un grand essor dans les années 1970-1980. Le second principe de la thermodynamique, ou principe de maximisation de l’entropie, semblait rendre particulièrement difficile la survenance de structures macroscopiques, puisque tout système fermé tend spontanément vers un état d’équilibre thermodynamique symétrique ou homogène. Une goutte d’encre tombant dans un verre d’eau, par exemple, obéit à une loi de dispersion dans l’espace : tout système doit inéluctablement aller vers l’état de dispersion le plus grand possible s’il est fermé, et équivalent à celui de son environnement s’il est ouvert. Selon Jean Petitot9, René Thom, mathématicien français, aurait été le premier à comprendre que l’homogénéité des substrats physiques peut être brisée lorsque les valeurs de certains paramètres de contrôle atteignent des valeurs critiques, et que des formes organisées peuvent ainsi apparaître. Pour qu’il y ait structuration spatiale, ou apparition de formes, il faut nécessairement qu’il y ait brisure de symétrie. De façon contre-intuitive, l’état homogène initial est celui qui présente le plus haut degré de symétrie possible. René Thom affirme l’universalité d’un principe de stabilité structurelle, indépendant des causes matérielles ou du substrat physico-chimique, qui impose une contrainte très forte sur les dynamiques internes des systèmes en limitant la complexité morphologique de leurs bifurcations. Il s’agira alors de modéliser les formes naturelles, de les géométriser afin de découvrir les formes ontologiques autonomes qui délimitent leurs dynamiques internes. A partir de l’observation des morphologies macroscopiques, on pourrait en partie déduire les dynamiques internes qui les engendrent. Indépendamment de la composition physico-chimique des systèmes et sans utiliser une méthodologie réductionniste, il serait ainsi possible d’expliquer l’émergence de formes structurellement stables. En 1972, dans Stabilité structurelle et morphogénèse10, René Thom définit la morphogenèse en termes de « catastrophes ». Une catastrophe consiste en la disparition brutale d’un équilibre stable aboutissant à un nouvel équilibre, via la variation continue des paramètres agissant sur le système. Il dresse ainsi la liste de sept catastrophes élémentaires, sept types de passage brutal d’un état stable à un autre lorsque certains paramètres de contrôle atteignent une valeur « catastrophique ». Ce sont ces catastrophes, ces bifurcations des dynamiques internes qui permettraient de briser l’homogénéité initiale des systèmes et de faire apparaître des structures macroscopiques spécifiques. L’émergence de toute forme physique ou biologique devrait pouvoir être expliquée à partir de ces sept catastrophes élémentaires. Les tentatives d’exportation des idées mathématiques abstraites de René Thom, notamment vers la biologie et les sciences humaines, ont donné lieu à de nombreuses controverses, et on est aujourd’hui loin d’attribuer à sa théorie des catastrophes la pertinence universelle à laquelle elle semblait prétendre. C’est peut-être en tant que méthodologie que cette théorie mérite plus particulièrement d’être aujourd’hui reconsidérée.

« La théorie des catastrophes est plutôt une méthodologie qui permet de comprendre, dans beaucoup de cas, et de modéliser dans un certain nombre de cas, des situations qui, autrement, seraient très difficiles à atteindre, des systèmes dont on ne pourrait pas obtenir une description, parce qu’ils sont trop compliqués, qu’ils possèdent trop d’éléments. […] Elle offre des moyens d’intelligibilité dans des situations qui sont en général trop complexes pour être analysées selon des méthodes réductionnistes […].11 » [notre traduction]

Si l’universalité de la théorie des catastrophes a été largement remise en question, on reconnaît encore aujourd’hui sa pertinence dans certains domaines spécifiques, et notamment pour modéliser des phénomènes tels que les transitions de phase.12

A la même époque, le concept de « structure dissipative », introduit par Ilya Prigogine13, a permis d’expliquer comment des systèmes thermodynamiquement ouverts peuvent bifurquer vers des états macroscopiques spatio-temporellement structurés. Les systèmes dissipatifs désignent des systèmes qui opèrent loin de l’équilibre thermodynamique et échangent de la matière, de l’énergie et de l’information avec leur environnement. Ce sont ces échanges qui peuvent faire émerger une organisation macroscopique, en brisant la symétrie spatio-temporelle initiale du système. Cette auto-organisation suppose que le système soit délimité par une frontière permettant une entrée d’énergie et une sortie d’entropie, qui vont permettre l’augmentation de la complexité et la diversification des éléments au sein du système. Selon le second principe de la thermodynamique, l’entropie est spontanément croissante en système fermé. Mais, dans un système ouvert, l’équilibre n’est plus le seul attracteur du système. Pour qu’une structure dissipative apparaisse et se maintienne, il faut un apport d’énergie permanent.

« Pour un nombre relativement restreint de réactions chimiques, on va voir apparaître une évolution exactement contraire au phénomène de dispersion. Partant d’une situation uniforme, on va aboutir à une répartition non uniforme des constituants chimiques dans l’espace.14 »

La structure n’existe ici que par dissipation d’énergie. Ce type de structure doit être distingué de la structure d’équilibre d’un cristal par exemple, qui va perdurer indéfiniment. L’état d’équilibre correspond au plus grand degré d’entropie ; il survient lorsque toutes les variables thermodynamiques du milieu prennent des valeurs proches de celles de son environnement. Lorsqu’un système est près de l’équilibre, il faut injecter une quantité considérable d’énergie pour qu’une structure dissipative apparaisse.

En physique, l’apparition de formes spatiales à partir d’un milieu homogène, correspond à ce que l’on appelle communément aujourd’hui une « transition de phase ». Celle-ci désigne un changement qualitatif de l’organisation globale et des propriétés statistiques d’un système, quand un paramètre de contrôle (tel que la température) atteint une valeur critique. Une phase est un état de la matière défini par un certain nombre de propriétés variant de façon continue quand on change certains paramètres de contrôle. La vapeur est la phase gazeuse de l’eau, la glace est sa phase solide. En thermodynamique, on parle de transition de phase entre l’état solide, liquide et gazeux de l’eau par exemple. Quand le paramètre de contrôle, ici la température, atteint une valeur seuil, telle que 0°C dans les conditions de pression atmosphériques habituelles, l’eau passe de la phase liquide à la phase solide. On parle également de transition de phase d’un métal pour désigner le passage d’un état paramagnétique à un état ferromagnétique. Au-dessus d’une certaine température, appelée température de Curie, un aimant perd sa propriété d’attraction.

Toutes les transitions de phase n’induisent pas une nouvelle structuration spatiale globale du système. Les phases liquide et gazeuse de l’eau présentent une homogénéité similaire. La phase liquide de l’eau présente une symétrie maximum car les molécules sont arrangées de façon homogène, de la même manière selon tous les axes. La phase solide, état cristallin, présente une symétrie qui saute plus directement aux yeux mais qui est en fait plus faible : les atomes sont arrangés selon un réseau hétérogène et anisotrope, les propriétés varient selon les directions considérées. Il y a donc rupture de symétrie entre la phase liquide et la phase solide. Dans la première moitié du 20ème siècle, Lev Landau, physicien russe, a associé la notion de « paramètre d’ordre » à la notion de symétrie, proposant une classification des transitions de phase selon qu’elles présentent ou non un paramètre d’ordre. Ce paramètre d’ordre, qui peut être un nombre ou un vecteur à plusieurs composantes, doit être non nul dans la phase ordonnée et s’annuler lors de la transition. L’ordre mesure l’écart du nouvel état du système par rapport à la symétrie de départ. Un système homogène, parfaitement symétrique, sera qualifié de désordonné. Pour la transition ferromagnétique-paramagnétique, c’est la distribution spatiale des moments magnétiques atomiques qui constitue l’ordre, ou la direction des spins. L’aimantation est la somme des moments magnétiques de chaque atome. Elle est maximale lorsque tous les moments magnétiques atomiques sont orientés dans la même direction. A la température de Curie, 770 degrés pour un cristal de fer, les fluctuations thermiques détruisent l’ordre, la distribution des moments magnétiques atomiques devient aléatoire et l’aimantation devient nulle ; on passe donc de la phase ferromagnétique à la phase paramagnétique. Pour ce qui est du passage de la phase liquide de l’eau à sa phase solide, l’ordre concerne la répartition spatiale des molécules d’eau.

Les transitions avec paramètre d’ordre désignent donc des transitions induisant une rupture de symétrie. Ce sont ces transitions spécifiques qui nous intéressent plus particulièrement pour la caractérisation de l’émergence, puisqu’elles coïncident avec une structuration macroscopique du système. Lorsqu’il y a rupture de symétrie, la transition entre deux phases ne peut être modélisée par une fonction continue. Il n’y a pas de relation causale discrète ou continue entre les deux phases ; l’effet causé par l’évolution d’un certain paramètre n’est plus proportionnel à la valeur de ce paramètre. La transition de phase avec paramètre d’ordre correspond donc à ce que nous avons défini comme une bifurcation de la dynamique du système. Nous avons vu que les bifurcations pouvaient être classées selon leur topologie, et que celle-ci permettait de décrire qualitativement l’évolution dynamique d’un système. Les transitions de phases avec paramètres d’ordre ont pu être caractérisées comme des « bifurcations fourche supercritiques ». Cette caractérisation permet notamment de prédire que, près du point de transition, les longueurs de corrélations entre les éléments du système divergent. Lorsque le paramètre d’ordre augmente, des corrélations longue distance s’établissent, si bien que les détails microscopiques s’atténuent et qu’une invariance d’échelle surgit. Aucune échelle ne semble plus jouer de rôle spécifique, ne peut plus servir de référence pour exprimer toutes les autres mesures. On parle d’auto-similarité : « […] le tout ressemble (statistiquement) à la partie, ou la partie est (statistiquement) équivalente au tout. Autrement dit, l’information acquise de l’observation de données est indépendante de la résolution à laquelle sa mesure est réalisée. »15 Les propriétés de réponse du système aux changements de certains paramètres deviennent tout à fait anormales. Une perturbation microscopique pourra ainsi être tout à fait amortie et rester sans conséquence pour la structure globale du système, ou bien elle sera amplifiée et propagée à toutes les échelles. Entre deux points de bifurcation le système est structurellement stable, il manifeste une certaine robustesse telle que les changements de certains paramètres ne modifieront pas l’allure des solutions qui décrivent la dynamique du système. Même lorsqu’une perturbation microscopique n’est pas amortie, puisqu’elle est nécessairement propagée jusqu’à l’échelle la plus haute du système, elle concernera l’ensemble du système et ne mettra donc pas en péril sa cohérence, sa structuration globale.

Un exemple devenu classique dans les recherches autour de la notion d’émergence, est celui des « cellules de convection de Rayleigh-Bénard » en mécanique des fluides. Un liquide est placé entre deux plaques horizontales conductrices de chaleur. On maintient une différence de température entre les deux plaques, la plaque inférieure est plus chaude que la plaque supérieure. Plus l’on se rapproche de la plaque inférieure, plus le liquide est chaud ; étant moins dense il aura donc tendance à monter. Inversement plus le liquide est proche de la plaque supérieure, plus il est froid ; plus dense, il aura donc tendance à descendre. A partir d’une différence de température bien définie entre les deux plaques, un mouvement de convection survient, c’est-à-dire une agitation spectaculairement organisée selon une structure géométrique macroscopique particulièrement remarquable : le mouvement s’organise en rouleaux strictement parallèles. De façon contre intuitive, la convection ne survient pas dès que la différence de température est positive mais seulement lorsqu’on a atteint une différence de température critique très précise et définie selon la viscosité et la diffusité du fluide utilisé dans l’expérience. Le comportement critique de ce système peut être assimilé à une transition de phase avec paramètre d’ordre. En dessous de la différence de température critique, on a une phase hautement symétrique ; au point critique, la symétrie est brisée, un ordre surgit. En comparant l’évolution du système aux transitions de phase avec paramètre d’ordre, aux bifurcations fourche supercritiques, on a pu justifier mathématiquement les comportements observés. Par ailleurs, l’analogie avec les transitions de phase a été complétée par la démonstration du fait que, passé le point critique, dans la phase ordonnée, les longueurs de corrélation augmentaient de façon spectaculaire. Si l’on perturbe localement la vitesse de convection, cette perturbation aura beaucoup plus d’impact dans la phase la plus symétrique, les longueurs de corrélations y sont donc bien moins grandes. 16

Assimiler l’émergence à une bifurcation de la dynamique d’un système, ce n’est donc pas consommer une sorte de saut qualitatif insondable. La théorie des systèmes dynamiques non linéaires permet de décrire qualitativement l’évolution d’un système, de prédire certaines de ses propriétés en identifiant la topologie de la bifurcation qu’il subit. On retiendra que l’émergence constitue une bifurcation spécifique qui brise la symétrie du milieu homogène initial et fait apparaître une structuration globale soutenue par des corrélations longue portée qui traversent toutes les échelles. L’émergence induit donc une forme de robustesse de l’organisation macroscopique, dans la mesure où des perturbations microscopiques seront, ou tout à fait amorties, ou propagées à toutes les échelles, de sorte que c’est le système dans son ensemble qui fluctuera, sans que sa structuration, sa cohérence macroscopique ne soit remise en cause17. De façon contre intuitive, la robustesse de la structure globale est ainsi liée à une forme d’adaptabilité de l’arrangement de ses parties. La nouvelle cohésion du système est telle que les perturbations survenant à une échelle inférieure n’affectent en rien ses propriétés globales, si bien que les caractéristiques pertinentes déterminant les interactions possibles du système avec son environnement deviennent ses propriétés globales. Un phénomène émergent, caractérisé par la divergence de la portée des corrélations de ses parties, spécifie donc des interactions nouvelles entre le système et son environnement. La structure macroscopique est ainsi causalement pertinente bien que n’ayant aucun corrélat au niveau microscopique. Une nouvelle description, distincte de l’analyse micro-causale, est donc bien nécessaire. Adopter une posture émergentiste suppose ainsi de reconnaître que plusieurs modèles d’explication peuvent être requis pour appréhender le comportement d’un seul et même système.

1 Stuart Kauffman,en 1995, théorise la vie comme un phénomène émergent dans At Home in the Universe : the Search for the Laws of Self-Organization and Complexity, Oxford : Oxford University Press.

Dans Emergence : from Chaos to Order, Oxford : Oxford University Press, 1998, John Holland, chercheur en informatique, entreprend de distinguer les phénomènes authentiquement émergents des choses nouvelles apparues par un heureux hasard » (« serendipitous novelty »), telles qu’un jeu de lumière sur des feuilles dans la brise.

2 Ce problème a déjà été évoqué chapitre 3.2, partie I.

3 Pour un exposé complet de l’héritage d’Henri Poincaré dans la théorie contemporaine des systèmes dynamiques, et plus largement des travaux fondateurs de cette science de la complexité, voir l’article de David Aubin : AUBIN D., « Writing the History of Dynamical Systems and Chaos : Longue Duree and Revolution, Disciplines and Cultures », Historia Mathematica, 2002, vol. 29, n°3. p. 273-339.

4 CRUTCHFIELD J. P., FARMER J. D., PACKARD N. H., SHAW R. S., « Chaos », Scientific American, 1986, vol. 255, n°12). p. 48–49.

5 RUELLE D., TAKENS F., « On the nature of turbulence », Communications in Mathematical Physics, 1971, vol. 20, n°3. p. 167–192.

6 SMALE S., « Dynamical systems and the topological conjugacy problem for diffeomorphisms », Proceedings of the International Congress of Mathematicians, Stockholm, Djurshold : V. Strenstrom, 1963, p. 490–496.

7 FRONTIER S., « Les outils mathématiques nouveaux du transfert d’échelle : géométrie fractale, relateurs arithmétiques, théorie des catastrophes, dynamique chaotique, analyse non standard », Le transfert d’échelle, Paris : ORSTOM, 1991, p. 379-403. p. 396.

8 ANDRONOV A., PONTRJAGIN L., « Systèmes grossiers », Doklady Akademi Nauk SSSR, 1937, vol.14. p. 247–250.

9 PETITOT J., « Nature et enjeux de la modélisation en sciences sociales », Le genre humain, 1998, n°33. p. 75-102.

Jean Petitot est un philosophe et mathématicien français contemporain connu notamment pour avoir prolongé la théorie des catastrophes de René Thom dans le champ des sciences cognitives. Physique du sens, Paris : éditions du CNRS, 1992.

10 THOM R., Stabilité structurelle et morphogénèse : essai d’une théorie générale des modèles, Reading : W. A. Benjamin, 1972.

11 THOM R., Prédire n’est pas expliquer. Paris : Eshel, 1991. p. 29.

12 BOGDAN T. V., WALES D. J., « New results for phase transitions from catastrophe theory », The Journal of chemical physics, 2004, vol. 120, n°4. p. 11090-11099

13 PRIGOGINE I., NICOLIS G, « On Symmetry‐Breaking Instabilities in Dissipative Systems », Journal of Chemical Physics, 1967, vol. 46, n°9. p. 3542-3550.

14 VIDAL C., « La chimie créatrice », Les sciences de la forme aujourd’hui, Paris : Editions du seuil, 1994. p. 79.

15 ABRY P. Lois d’échelle, fractales et ondelettes – Volume 2, Hermes Sciences Publication : 2002, p16.

16 CNRS, « Phénomènes critiques. », Images de la physique, 1978. p55-70

17 On rejoint donc ici la théorisation de l’émergence de De Wolf et Holvoet, développée Partie II, Chapitre 2.1.2 : la robustesse de l’organisation macroscopique relativement aux perturbations microscopiques est un signe distinctif de l’émergence relativement à l’auto-organisation.