Equipe CIM (proposition, octobre 2002 ; mise à jour, juin 2008)

 

"Complexité et information morphologiques" (CIM)

LIENS, CNRS - École Normale Supérieure, Paris

 

 

Responsable : Giuseppe Longo
 

Membres (thésards et stagiaires)

An answer to Einstein's quip

 

Présentation

Ce texte présente le cadre de travail d'une équipe composée par un chercheur, deux thésards au LIENS, deux thésards co-dirigés, en moyenne. La proposition est le résultat d'une réflexion qui a démarré, tout d'abord, par une recherche à caractère fondationnel, en mathématiques et en informatique, en marge des activités de l'équipe "Langage, Types et Logique" du LIENS et inspirée par des collaborations avec des collègues d'autres disciplines (voir ci-dessous). On a graduellemnt mise en place des collaborations interdisciplinaires plus ciblées, entre informatique, physique et biologie. En référence au récent contrat d'action pluriannuel CNRS-Etat, le thème de recherche esquissé ici pourrait être considéré à caractère "interdisciplinaire exploratoire", par contraste aux projets interdisciplinaires "d'objectifs" ou "de proximité". La première partie résume la réflexion, largement à caractère épistémologique, qui a précédé cette proposition, ainsi que les nouvelles lignes directrices générales qui en sont la conséquence. Les parties qui suivent esquissent les questions spécifiques auxquelles nous travaillons.

 

 

ARTICULATION DU TEXTE :

 

Partie I : Réflexions préliminaires

Partie II : Géométrie et relations causales

Partie III : La notion biologique de dégénérescence et ses modèles

Partie IV: An update in English and references 2004-2008 (rapport d'équipe): CIM-RapportProjet08.pdf   

 

 

Partie I: Réflexions préliminaires

 

I.1 Prémisses

Au cours du XXème siècle, des machines extraordinaires pour l’élaboration de l’information ont changé la science et la vie quotidienne ; l’informatique est devenue leur discipline centrale. Le processus constitutif de cette science a démarré avec le projet de fondement des mathématiques dans des « lois de la pensée » arithmétiques et logiques (Boole, Frege), dans des calculs arithmétiques « potentiellement mécanisables » (Peano, Hilbert) ... Une fois les mathématiques, et en particulier la géométrie[Hilbert99], encodées dans l’arithmétique formelle, une preuve « mécanique » de cohérence (Hilbert, 1900) aurait garanti leur certitude et leur objectivité, après l’état de « délire » [Frege84, p. 20] dans lequel se trouvait la géométrie de l’espace physique (des droites qui etaient des géodésiques possiblement courbes, des corps rigides pas nécessairement rigides … selon Riemann, Helmoltz, Clifford, voir [Longo01] pour des références au sujet de ce clivage et des propositions pour le surmonter). Ce programme d’arithmétisation et de logicisation a tout d’abord exclu des problématiques fondationnelles tout “jugement” sur l’espace, pour aboutir, entre autres, à une Théorie de la Calculabilité arithmétique (Curry, Herbrand, Gödel, Church, Kleene) et à des machines digitales, purement mathématiques d’abord (Turing, 1935), et ensuite matérielles (Turing, VonNeumann). Une analyse de l’information, en tant que suites de 0 et de 1, voit aussi le jour, quelques années plus tard [Shannon48] ; deux théories mathématiques de très grande intér^et et avec une multitude d'applications commencèrent ainsi, celle de la Calculabilité et celle de l’Information.

L’auteur de cette proposition d’équipe a longtemps contribué à la première de ces théories, à ses notions de fonctionnelle calculable [BarendregtLongo82 ; LongoMoggi84], à ses applications aux langages de programmation [BruceLongo90 ; Longo&al00], à sa sémantique ensembliste et catégorique [Longo83 ; AspertiLongo91] (voir dans http://www.di.ens.fr/users/longo les textes ou les références à environ 80 publications sur ces thèmes ; la revue “Mathematical Structures for Computer Science” (MSCS), de la Cambridge University Press, créée et dirigée depuis 1990 par l’auteur de ce projet, est un lieu privilégié pour tous ces aspects de l’informatique mathématique). Un apport spécifique, mais important, à la théorie de la calculabilité et à ses applications a été la “sémantique topologique” de théories non-typées et typées du calcul et de la preuve (voir [Longo03] pour un point de vue récent). En bref, des calculs arithmétiques et des systèmes de programmation ou déductifs, tout en gardant leur autonomie formelle, ont trouvé un sens mathématique (et, par ricochet, des applications et des extensions remarquables) dans des structures mathématiques, en fait “géométriques”. En fait cette “autonomie formelle” (en tant que “sémantique opérationnelle”, indépendante de tout contexte, de tout “matériel”) est au cœur de l’informatique en tant que science ; elle s’exprime par la “portabilité du logiciel” et elle est due à l’indépendance de la classe des fonctions calculables, et de leurs principales propriétés, vis-à-vis du système de calcul (Turing-complets) ainsi que de son contexte d’exploitation. En fait, les « lois universelles de la pensée » (Boole, Frege, Russell) ne dépendent pas du langage, de l’implantation, du matériel. Et cette Philosophie de l'Arithmétique, surtout grâce à ses extraodinaires machines numériques, s'est posée comme Philosophie de la Nature, pendant un siècle, jusqu'à nous proposer de comprendre le génôme comme programme, l'évolution comme algorithme, le cerveau comme ordinateur digital.

 

Il faudrait maintenant dépasser très nettement ce paradigme, qui a permis le démarrage de théories nouvelles par une distinction, certes importante mais simplificatrice (d’abord le programme, le calcul ou la déduction formels, avec leur sémantique opérationnelle bien autonome, ensuite la “signification”, éventuellement géométrique), et arriver à expliciter le calcul engendré par la déformation, la complexité née de la structure (et son organisation spatiale, voir ci-dessous), la déduction et l'enchaînement causal s'exprimant comme passage d'une forme à une autre, voire dans les treillis de relations signifiantes propres aux pratiques humaines.

Les phénomènes naturels motivent cette démarche : dans une vision moniste, du vivant en particulier, il n’y a pas “d’âme” et de “corps”, ni de “software” et de “hardware”, bien indépendants, ontologiquement et épistémiquement (en cognition et en biologie, la notion informatique de programme - dans le cerveau, dans le génome ... - induit un nouveau dualisme - et une approche laplacienne aux phénomènes du vivant, voir [Longo03a]). Au contraire, le “programme” est intégré dans, et constitué par, la forme matérielle elle-même et il se déroule grâce à la plasticité de ce matériel. Il faudrait alors comprendre ce calcul comme plasticité des formes, chez le vivant, en tant que déformations qui en induisent d’autres, des déformations qui dépendent du matériel, de sa structuration et d’un riche contexte d’interaction.

Du point de vue mathématique, ce projet ne s’oppose pas, mais devrait proposer un complément, par dualité, aux approches logico-arithmétiques, centrées sur le langage, des fondements des mathématiques, de l’information et des calculs, si longtemps au centre des préoccupations de l’auteur de ces lignes. Dans la suite de cette partie, on spécifiera un questionnement et des objectifs généraux, comme première étape de recherche à partir des cadres conceptuels, entre sciences de la nature et informatique, esquissés dans maints articles récents, par ce même auteur et ses collaborateurs (en particulier F. Bailly, Physique-CNRS, voir http://www.di.ens.fr/users/longo ). Nous décrirons plus précisément ces objectifs dans les parties II à IV qui suivent.

 

 

I.2 Questionnement général et cadre scientifique

 

I.2.1 De l’information et de la complexité algorithmique vers une géométrie de l’information et de la complexité

La complexité algorithmique et computationnelle, autant que la théorie classique de l’information et son pendant la théorie de l'entropie thermodynamique, constituent de très vastes domaines de recherche. Or, les questions de l’information et de la complexité semblent à la fois distinctes et liées entre elles ; elles soulèvent l’une et l’autre des difficultés conceptuelles et théoriques spécifiques, loin d’avoir été surmontées, même du point de vue classique. Toutefois ces concepts et théories élaborés dans le cadre de la logique et de l'informatique (ou de la physique) ne se sont pas toujours pleinement opérants pour cerner ce que l’on peut entendre par “complexité” morphologique ou biologique, par exemple, ou par “information pertinente” pour des organismes vivants qui semblent pourtant en dépendre vitalement. Cette situation est sans doute due au fait que les théories actuellement en vigueur mobilisent principalement un point de vue formel et arithmétique : malgré le rôle croissant des méthodes analytiques et géométriques en complexité algorithmique, le temps de calcul (ou la longueur d’un programme) restent la mesure principale de complexité. Bien entendu, cet état de fait répond à une histoire bien établie et riche en résultats, ainsi qu’à une première nécessité d’opérativité et de modélisation associée à l’essor des théories algorithmiques et de l’informatique, mais il trouve ses limites dès qu’il s’agit de prendre en compte les caractéristiques spatiales et temporelles dans leur expression topologique et physique (et non plus seulement numérique). La priorité que l’on voudrait donner dans ce projet aux structures spatio-temporelles, du point de vue de l’information et de la complexité, devrait aider à analyser ces limites et à compléter ce manque. En fait, une de nos ambitions à long terme est le développement d'une théorie intrinsèque de la complexité et de l'information morphologiques, qui ne fasse pas nécessairement référence à un algorithme numérique qui engendre ou explore une forme, via un codage digital (un peu comme, en mathématiques, le concept de varieté est né en tant que géométrie intrinsèque des surfaces courbes).

La géométrie des systèmes dynamiques (voir [Devaney89]) a déjà contribué à la mise en place de théories très importantes et qui vont dans le sens que l’on cherche à préciser ici : les réseaux de neurones, en tant que dynamique de formes [Hertz&al91], et la géométrisation de l’information shannonienne, comme dans [AmariNagaoka00], ont ouvert de nouvelles perspectives au calcul et à la modélisation des systèmes naturels. En fait, l’analyse géométrique de l’information que l’on vise à terme est sûrement compatible avec les “genèses de structures” propres à la géométrie des réseaux de neurones. Aussi les intuitions dans [Thom72], encore de type physico-mathématique, ou la notion d’entropie topologique, à partir de [Adler&al65], de nature informationnelle, peuvent contribuer à créer ce nouveau cadre d’analyse des “patterns that compute”, qui est au cœur de ce projet. Mais ce n’est que relativement récemment que les questions topologiques - associées à la théorie des singularités et ses applications - ont été prises en compte dans les descriptions morphologiques, voire dans la morphogénèse. De la même manière, ont été prises plus sérieusement en considération les complications des structures géométriques fractales, de nature physique aussi dans l'ordre du vivant, dissociant du même coup dimensions métrique et topologique [Bailly&al94] et engendrant des structures morphologiques particulières auxquelles on peut associer des entropies mathématiques non triviales (et vraisemblablement des mesures d’information correspondantes ?). Toutefois, les outils techniques que l’on espère développer devraient être, en principe, de nature différente, car notre objectif est en priorité l’analyse des phénomènes biologiques, plus que ceux de la physique. Et chez le vivant, complexité veut dire, entre autres, interaction de ces niveaux d’organisation qui sont aujourd’hui traités par des outils différents (dynamique des réseaux de cellules, par exemple, et fractalité des organes, voir ci-dessous). Dans ce but, il faudra d’abord construire un cadre conceptuel rigoureux pour cette approche, qui se voudrait synthétique.

 

I.2.2 - Entropie et complexité morphologique

Il existe souvent une grande confusion (et richesse), en dehors de l’informatique, dans le sens que l’on donne aux termes de “complexité” et d’“information” (voire d'“entropie”), et nous souhaitons, autant que faire se peut dans un premier stade du travail, arriver à éviter trop d’ambiguïtés. Dans les théories computationnelles classiques, ces concepts sont bien analysés et fortement et clairement liés, [Chaitin87 ; LiVitànyi97]; dans certains cas, l'entropie est aussi corrélée au calcul et au hasard et où une grande complexité veut dire peu d'uniformité (d'une distribution). Du point de vue purement morphologique, au contraire, ce que peut être le contenu informationnel d’un changement de forme, de la complexification d’une structure est loin d’être clair (pour la biologie, voir [BrooksWiley86 ; Ayres92]). Par exemple, certains processus morphogénétiques engendrent, d’un côté, de l’entropie, par leurs aspects de dynamique irréversible (liés aussi à la consommation d’énergie), de l’autre, ils peuvent augmenter l’information exprimée, en tant qu’organisation structurelle globale ou complexité morphologique (comme c’est le cas dans l’embryogénèse), ce qui ferait baisser l’entropie. Est-il possible de donner une mesure et faire un bilan de ces variations positives et négatives d’entropie ? Sont-elles liées à des valeurs quantifiables d’information ?

En général, on peut dire qu'un objet ou un phénomène naturel est complexe s'il est à la fois ordonné et désordonné, régulier et irrégulier, intégré et différencié, variant et invariant, stable et instable (et c'est bien ce que suggèrent la structure et la phénoménalité du cerveau, voir [EdelmanTononi, 2000]). Dans le cas du vivant en fait, il est aussi question d’enchevêtrement et de bouclage de différents niveaux d’organisation, c’est-à-dire des niveaux d’organisation qui se superposent et se corrèlent (organisme/organe/cellule, par exemple). Tout cela va bien au delà la complexité pour le calcul digital et ses grands problèmes (voir PNP ...) et certains auteurs considèrent que l'analyse de la complexité en ce sens est un problème ouvert majeur et « peut-être indéfinissable » [Ayres92]. A notre avis, une des difficultés réside dans le fait que ces aspects de la complexité dans les sciences de la nature concernent à la fois la structure (complexité objective) et les corrélations fonctionnelles au milieu (complexité épistémique) : leur mathématisation peut suivre des parcours très différents. Dans le cas de la physique, où cette distinction est plus facile à décrire, un système d’équations non linéaires peut bien donner la complexité objective d’un système dynamique, tandis que le “portrait de phase” (ou la structure géométrique de l’attracteur) interprète bien la notion de complexité épistémique. Ce double caractère est encore plus accentué chez le vivant où les corrélations entre niveaux d’organisation ou de structure (en tant que complexité objective) et fonctions (complexité épistémique) sont au cœur de toute problématique au sujet de l’évolution. Comment conceptualiser avec rigueur et quantifier, si possible, ces intuitions que l’on partage avec maints biologistes ?

Les systèmes dynamiques co-évolutifs analysent certains de ces aspects, mais le découpage mathématique du réel qu’ils proposent, quoique très intéressant, n’arrive pas à prendre en compte cette distinction et, techniquement, fait l’impasse quant à la différence entre “changement/transition de phase”, dans l’espace des paramètres considérés pertinents, et, plus radicalement, “changement d’espace des phases”. Ne serait-ce pas cette difficulté due à l’enchevêtrement et au couplage des niveaux d’organisation du vivant ? Chacun de ces niveaux (espèce/individu/organe/cellule) nécessite une analyse conceptuelle, et mathématique, différente : par exemple, on retrouve des structures fractales au niveau des organes (poumons, système vasculaire ...), tandis que l’interaction dynamique est plutôt pertinente au niveau des rapports entre entités individuelles (réseaux d’individus). Mais, quand, au cours de l’évolution, un “potentiel latent” s’exprime par l’apparition d’un nouvel organe, c’est l’interaction entre individus qui change. L’investigation de ces couplages est un défi majeur et doit progresser en liaison avec la richesse mathématique des analyses en termes de réseaux d’interaction (comme celles de la physique statistique et la géométrie des systèmes dynamiques, si développées dans l’étude du vivant). En particulier, comment relier les effets des échanges énergétiques, qui sont à l’origine de la structure fractale de certains organes, à la géométrie des interactions dynamiques, propres aux échanges inter-individuels ? Quelle corrélation mathématique, en termes de complexité et d’échange d’information, peut-on proposer entre des niveaux d’analyse, jusqu’à présent essentiellement distincts ?

Une réponse à ces questions ferait partie d’un apport, pour nous crucial, à l’analyse des rapports entre local et global dans les structures complexes : c’est justement l’interaction causale entre niveaux (locaux) qui donne la complexité globale d’un organisme vivant. Les notions physiques de ‘’longueur de corrélation’’ (qui changerait du local au global), ‘’état critique hors équilibre’’ (la structure globale maintient l’homéorhesis) paraissent pertinentes pour saisir certains aspects de la nature multi-échelles des phénomènes qui nous intéressent, et elles peuvent être associées à des structures causales possibles pour l’analyse de la complexité.

Les nombreux problèmes mentionnés dans ces deux sections peuvent demander différents outils mathématiques pour leur analyse. Certains des objectifs concernant la complexité morphologique pourront être étudiés avec les méthodes de l'entropie topologique (voir le mémoire de DEA de Saulnier, téléchargeable, pour un survol et des références). L'analyse des brisures de symétrie, pourrait aider dans la compréhension de certains changement de formes (phylogénèse et embryogénèse) : celles-ci constituent un phénomène central de la morphogénèse, peu compris du point de vue mathématique (malgré le travail fondateur de Réné Thom). En particulier, une brisure de symétrie augmente l'information extrinsèque d'une forme : comment l'évaluer ? Peut-on corréler l'évolution causale d'un phénomène aux changements d'information par le biais des brisures de symétrie? Bref, nous pensons que, dans l’analyse du vivant en particulier, il faudrait mieux expliciter la corrélation entre structures causales et complexité des phénomènes (voir parties II, III et IV).

 

I.2.3 - Fondements et cognition

Dans les prémisses, on a essayé de mettre brièvement en évidence le rôle que le débat fondationnel en mathématiques a eu dans l’invention des machines arithmétiques qui ont changé nos modes de vie, ainsi que dans les théories de la connaissance (et de la cognition) du XXème siècle. On ne peut donc pas essayer d’enrichir les programmes traditionnels des fondements de la connaissance, sans réfléchir au clivage que nous avons évoqué (formalismes logiques vs. fondements des théories de l’espace). Ce volet du projet est une composante de ce qui a été appelé, par l’auteur de ce texte, l’analyse des “fondements cognitifs des mathématiques” (voir les nombreux articles et conférences invitées téléchargeables). Notre thèse se base sur l’expérience faite concernant les “théorèmes d’incomplétude concrète”, voir [Longo02], qui a mis en évidence le rôle des “jugements géométriques” dans la preuve (bon ordre, symétries, ... voir aussi le travail fondateur de J.Y. Girard). Or, ces “jugements” sont le résultat d’une construction de sens qui part de notre action dans l’espace, en tant que vivants, jusqu’à sa “reconstruction conceptuelle et normative” (nous organisons et rendons intelligible l’espace physique par la géométrie, voir [Longo01] pour une analyse et des références). Cette approche, déjà esquissée chez Poincaré, Enriques ... (mais il faudrait aussi citer Riemann, Helmholtz et H. Weyl) peut aujourd’hui aller au-delà de l’introspection, le seul outil que ces grands mathématiciens avaient à l’époque, grâce à l’interaction avec les sciences du vivant, la cognition et la linguistique (en septembre ‘02, un colloque international, dédié à l’approche aux fondements proposée par ce projet, a été organisé à Rome, voir http://w3.uniroma1.it/cog-found/ ; un autre à Paris, en mars '04, voir http://www.di.ens.fr/users/longo/Conferences/progr-com1998.htm). Du reste, nous pensons que la réflexion au sujet de l’enracinement des concepts et des structures mathématiques dans nos expériences cognitives, de l’espace en particulier, doit aller de pair avec un projet de conceptualisation et de mathématisation (structuration mathématique) des phénomènes naturels, tel que l’étude de la complexité et de l’information morphologiques que nous souhaitons développer.

 

 

I.3 Expériences récentes et articulation du travail

Il est certain que ce cadre de travail à long terme, n’a pas de sens pour une seule équipe, dans un seul laboratoire, axé sur une discipline bien précise. Du reste, la connaissance scientifique se forme souvent à la frontière de disciplines différentes : le département STIC du CNRS et l’ENS encouragent explicitement des explorations d’interface et la direction de travail que l’on envisage ici implique des connaissances et l’acquisition d’une sensibilité à la dynamique des structures dans différents phénomènes naturels, qui demandent un changement de cap et une reconversion importante, par rapport à une longue activité scientifique dans les mathématiques du calcul et de la programmation. Ce changement et cette reconversion, qui ont démarré par l’explicitation d’un projet épistémologique, devraient aboutir à des résultats basés sur un point de vue nouveau, au sujet de deux thèmes, la complexité et l’information, qui sont tout à fait dans le cadre des activités du STIC.

Cette proposition est déjà la conséquence des échanges scientifiques avec des collègues d’autres disciplines. Très brièvement, on peut prendre date de la visite, en 1996, sur la chaire Condorcet de l’ENS, de L. Maffei (Biologiste, SNS, Pise ; invitation faite conjointement à A. Prochiantz, à présent directeur du Dept. de Biologie, ENS). Les séminaires et le colloque organisés à l’occasion, les maintes discussions avec ce neurobiologiste et ancien collègue, ont posé les bases des échanges qui ont suivi, en particulier avec A. Berthoz (Professeur de Physiologie, Collège de France). Les réunions du CeSEF, groupe de réflexion sur la physique quantique qui a débuté en ‘96 à l’EHESS, sont à l’origine d’une collaboration avec des physiciens comme F. Bailly et M. Mugur-Schachter (le groupe vient de publier un volume chez Kluwer). À l’ENS, le CenECC a été un lieu de rencontre et d’encouragement à la mise en place d’activités spécifiques, comme l’atelier “Géométrie et Cognition”, que cet auteur dirige depuis 1999 ; les activités de cet atelier, financé par l’action Cognitique (2000-03), MENRST, a permis une collaboration importante avec J. Petitot, à présent directeur du CREA, Ecole Polytechnique, et B. Teissier, Mathématiques, CNRS - Paris VII (un numéro spécial de MSCS, Cambridge University Press, vol. 10, n. 4, August 2000, a été publié ainsi qu'un numéro special du Bulletin of Symbolic Logic, ASL, Vol. 9, Number 2, June 2003 et de la Revue de Synthèse n.1-2 avril '04, sous la direction de l'auteur de ce projet).

Nous avons donc proposé une petite équipe à l’intérieur du LIENS, un chercheur et deux ou trois thésards en principe, qui puisse constituer le noyau de départ de ce vaste chantier, qui devrait rendre plus précises, et à terme quantifier, ces notions de complexité et d’information naturelles (morphologiques). La collaboration avec des chercheurs non-informaticiens est bien évidemment indispensable. Les liens scientifiques déjà établis ou à établir à l’extérieur et à l’intérieur de l’ENS (en Biologie, en Physique, avec le nouveau Département d’Etudes Cognitives de l’ENS, dont font partie le Lattice-CNRS et le CenECC) devraient permettre un soutien de l’échange scientifique par de nouveaux financements conjoints et par un espace physique à l’ENS (places-bureaux en dehors du LIENS) pour des invités et d’autres thésards travaillant dans le cadre de collaborations (voir p. 1 et les collaborations avec le laboratoire de physiologie du Collège de France et PPS).

La réflexion épistémologique étant déjà bien engagée, le temps est venu aussi de la spécification conceptuelle et, ensuite, de sa mathématisation. Pour le moment, une collaboration active est en cours avec F. Bailly (Physique, CNRS, Meudon) ; deux autres sont prévues dans le cadre des sciences du vivant (A. Berthoz, Collège de France - co-direction de thèse). Un groupe de travail a été mis en place avec des collègues de l'ENS, Paris VI et du CNRS (M. Imbert et N. Peyreras, Biologie ; R. Mosseri, T. Paul, Physique; thème principal : "Morphogénèse et embryogénèse évolutives, variabilité et stabilité structurelle", voir ). Avec J.Y. Girard, nous organisons un groupe de travail aux réunions bi-annuelles (titre: Logique comme géométrie du cognitif, voir http://www-philo.univ-paris1.fr/Joinet/ligc.html).

Les deux premières bourses de thèse de l'équipe, au LIENS en octobre 2002, ont été attribuées sur la base des projets esquissés en §. 2.1 et 2.2: les directions de ces travaux seront mieux précisées dans les parties qui suivent. Trois des quatre thésards affectés à l'équipe ont suivi des stages de DEA, en 2001/02, sous la direction du responsable de l'équipe ; leur travail de thèse, dans un premier temps, s'est situé en continuité avec leur mémoire de stage de DEA (informatique, logique mathématique et cognition), permettant une intégration progressive dans les activités interdisciplinaires mentionnées

 

 

Partie II Géométrie et relations causales

 

II.1 Les symétries et le continu. Modélisation et imitation.

Toute l’histoire de la physique a posé au centre de l’intelligibilité des phénomènes des notions changeantes de cause, depuis le riche classement d’Aristote, jusqu’à la simplification (trop forte ?) de Galilée et à leur compréhension moderne en termes de “relations structurales”, voire leur remplacement par ces relations. Il s'agit alors de la stabilité des structures géométriques en question, de leurs invariants et symétries, ([Weyl, 1927 et 1952], [van Fraassen, 1994] ; voir [Bailly, 2003], [Bailly, Longo, 2004]). Jusqu’à tenter d'effacer totalement la notion de cause, suite à un grand débat encore ouvert, en faveur, par exemple, des corrélations de probabilité (en Physique Quantique, voir par exemple [Anandan, 2002]).

Or, la simulation informatique est aujourd’hui au cœur de toute construction de connaissance. Mais que veut dire “simuler” ? Rendre intelligible en reproduisant la structure causale d’un phénomène ? Et donc aider dans la prédiction ? Pas nécessairement. Dans deux remarquables articles, [Turing, 1952 et 1950], Turing propose une distinction importante : dans celui de 1952 il décrit un modèle de la morphogenèse ; dans l’article de 1950, il présente un “jeu” d’imitation computationnelle. Voilà deux articulations possibles de la notion de simulation et de son rapport à la causalité : la première signifie une tentative d’expliciter des déterminations que l’on considère comme intrinsèques au phénomène (ou qui expliquent son évolution : dans le cas de Turing, des équations non linéaires), dans la seconde on renonce à rendre intelligible le processus et on essaye de l’imiter par une structure qui peut avoir tout autre régime causal (« le cerveau n’est surement pas une machine a états discrets, une DSM, » dit Turing explicitement, mais on peut essayer d’en imiter le fonctionnement par une DSM, plus particulièrement par la machine qui porte son nom; voir [Longo, 2004]).

Le fait est que les relations de causalité ne sont pas dans le monde, mais sont des structures de l’intelligibilité : nous rendons intelligibles des fragments du monde en proposant des liens causaux, non arbitraires, car ancrés dans des régularités phénoménales. Or, la nature de l’outil conceptuel, mathématique, géométrique, computationnel, employé dans la modélisation/simulation n’est pas neutre dans cet effort d’organisation du monde. En particulier, que les mathématiques du continu et les structures discrètes (algorithmiques, typiquement) entraînent des structures causales différentes, voilà une des thèses que nous tenterons d’expliciter (voir II.3). Et le jeu discret vs. continu est un problème, bien évidemment, d’organisation de l’espace et du temps.

L’autre thème au cœur de nos réflexions sur la causalité est l’analyse de l’interaction du global et du local. Un système d’équations détermine, en général, l’évolution globale d’un système dynamique ; il nous donne ainsi les invariants et les symétries qui régissent cette évolution (ses “déterminations objectives”, voir [Bailly, Longo, 2004]). Par contre, la variation ou perturbation locale, éventuellement en dessous du niveau d’observation, est à l’origine de la variabilité dynamique propre aux systèmes physiques chaotiques et contribue à celle du vivant. Voilà donc un autre aspect de ce que nous aimerions appeler une géométrie intrinsèque des relations causales, au moins en physique, car la variation locale est ainsi comprise comme cause de l’évolution spécifique d’un système globalement déterministe. Dans un cadre discret, ces phénomènes se présentent d’une façon fort différente (on peut faire de l’imitation, bien rarement de la modélisation) : peut-on comprendre cette différence comme des brisures de symétrie différentes, une fois comprise une relation causale comme une “brisure de symétrie” et les lois comme des géodésiques dans des espaces appropriés (voir [Bailly, Longo, 2004]) ?

 

 

II.2 Causalités et complexité en biologie.

La situation est encore plus complexe en biologie, où la “réduction” à l’une ou l’autre des théories physico-mathématiques courantes est loin d’être accomplie (pour autant qu'elle soit possible ou souhaitable !). Une des difficultés pour ce faire réside, à notre avis, tout autant dans les spécificités des régimes causaux des théories physiques - qui, de plus, diffèrent entre eux - que dans la richesse propre des dynamiques du vivant. On pense ici à l’enchevêtrement et au couplage des niveaux d’organisation, aux phénomènes d’autopoièse, aux effets ago-antagonistes, aux causalités croisées si souvent mentionnés dans les réflexions théoriques en biologie (voir [Varela F., 1989 ; Rosen R., 1991 ; Stewart J., 2002 ; Bernard-Weil E., 2002 ; Bailly, Longo, 2003].

Au cœur de nos analyses concernant la biologie, on posera les rapports entre structure et fonction. Dans le but, encore une fois, d’utiliser des relations structurelles pour rendre intelligibles des phénomènes, les “liens” que nous voulons mettre en évidence, même au moyen de schémas très abstraits, ne correspondront pas nécessairement à des “liens matériels”, voire à des configurations physiques. Ils ne seront tout d’abord que des structures organisatrices de la pensée, qui devraient aider à la compréhension des phénomènes, en proposant en premier lieu un cadre conceptuel. En fait, nous ne pensons pas que l’intelligibilité réside seulement et toujours dans une causalité “matérielle”, de type physique, mais que nous devons tenir compte d'aspects spécifiques à la biologie, liés à des formes de téléonomies, voire d'anticipation et que nous avons déjà résumés dans le concept de "finalité contingente". Quels liens causaux rendent compte des boucles d’interaction et de l’enchevêtrement et du couplage des niveaux d’organisation dont nous parlions ? Si la complexité est relative à cette richesse structurelle du vivant, elle a un sens justement à cause des relations causales qui sont au cœur de l’unité d’un organisme vivant : bref, il n’y a pas de complexité d’une structure vivante sans liens causaux, au sein de la structure elle-même, entre ses niveaux d’organisation, ainsi que par rapport à son environnement. En d’autres termes, si on cherche à détailler la complexité dans le vivant, on doit tenir compte d'interactions multiples (qui se présentent simultanément tout en demeurant de nature fort différente#), de rétroactions massives (qui empêchent le plus souvent de pouvoir partitionner les systèmes en sous-systèmes faiblement couplés pour faciliter l'analyse), de téléonomies holistiques (selon lesquelles l'organisation locale est dépendante de la structure globale et se réorganise en fonction des nécessités d'optimalisation ou de durabilité de cette structure suivant des critères encore mal connus#).

Néanmoins il nous semble qu'un des points communs à ces domaines disciplinaires – et c'est ce que nous voulons mettre en lumière et souligner dans notre travail - réside dans le fait que l'analyse causale, tout en restant utile et efficace, doit maintenant être relativisée et faire désormais une large place, pour une meilleure compréhension de leurs structures théoriques et conceptuelles, à une approche plus générale en ce qu'elle s'appuie beaucoup plus sur les propriétés d'invariances, de symétries (et de leurs brisures), de conservations, sous-jacentes à ces manifestations que nous avons tendance à interpréter, en physique classique au moins, en termes d'actions causales objectives. On y verra peut-être la trace d'un processus au cœur de l’analyse de la complexité où l’accent est mis surtout sur des aspects "géométriques" (pris en un sens très large) par rapport à ce qui est "arithmétique"#.

 

 

II.3 Modélisation et simulation informatique.

Reprenons maintenat un thème esquissé dans II.1, le jeu entre continu et discret en modélisation. En physique et en biologie, de nombreux phénomènes sont modélisés en termes de systèmes dynamiques qui évoluent dans un espace des phases de nature continue. Certaines propriétés de ces systèmes n'ont de sens que dans ce contexte continu. C'est le cas des trois propriétés caractéristiques des systèmes chaotiques dans la définition de Devaney, qui sont la sensibilité aux conditions initiales, la transitivité topologique et la densité des points périodiques.

Or ces systèmes sont étudiés au moyen d'ordinateurs digitaux, dans lesquels ce qui représente l'espace des phases est discret et même fini. À chaque itération, le recours au calcul approché force le système à rester dans cet espace fini.

Les trajectoires calculées par l'ordinateur possèdent de ce fait des caractéristiques qui les distinguent de celles d'un système physique. D'une part le système simulé fournit des résultats reproductibles (on peut toujours itérer une simulation digitale: même les générateur psuedo-aléatoires sont déterministes ET prédictibles), alors qu'un système dynamique chaotique ne suivra pas deux fois la même trajectoire (un aspect de son imprédictibilité) même s'il part des mêmes conditions initiales, dans le sens de la physique (voir [Longo03a]). En effet dans le monde physique on ne définit les conditions initiales que sous la forme d'un intervalle, tandis que dans la machine digitale elles sont fixées de manière exacte. De plus, toutes les trajectoires calculées par l'ordinateur sont périodiques, de période éventuellement très longue, car l'ensemble des états est fini. Enfin la trajectoire calculée dans le système simulé est perturbée par rapport à celle du système réel par l'effet de l'arrondi à chaque étape de calcul. De ce point de vue les simulations par ordinateur ne sont pas un modèle, ni même une image approximée du comportement du système réel : dans le cas des dynamiques non-linéaires elles en sont une "imitation", pour reprendre la terminologie de Turing, [Turing, 1950], voir II.1.

Une justification partielle de l'usage de l'ordinateur et du calcul approché pour l'étude des systèmes dynamiques est fournie par le lemme de poursuite, valable sur une large classe de systèmes. Il s’énonce comme suit : pour tout e il existe un d tel qu'à toute simulation d'une trajectoire par un calcul approché à d près correspond une trajectoire exacte qui ne s'éloigne pas de plus de e de la pseudo-trajectoire simulée. Il est à noter que l'appellation de lemme de poursuite ne signifie pas qu'une trajectoire simulée par ordinateur est une approximation d'une trajectoire décrite dans le continu, mais à l'inverse que la trajectoire continue est reconstituée a posteriori à partir de la trajectoire simulée.

La dynamique “symbolique” nous semble le cadre naturel dans lequel développer ces réflexions. Cette approche consiste à partitionner l'espace des phases en un nombre fini de régions, et à observer pour chaque point de départ la suite des régions par lesquelles passe la trajectoire. Ainsi à chaque point de départ se trouve associée une suite infinie de symboles, correspondant à ce que l'on peut effectivement observer de l'évolution du système, à l'échelle macroscopique. La dynamique du système se trouve alors étudiée dans l'espace de ces suites infinies.

En considérant le lemme de poursuite dans le cadre de la dynamique symbolique et des décalages de Bernouilli, nous pensons qu'il y a un lien fort entre la valeur du point de départ de la trajectoire poursuivante et la stratégie d'arrondi. En fait, les résultats des simulations sont fortement dépendants de la stratégie d'arrondi choisie. Par exemple, il est possible de construire des stratégies d'arrondi pour lesquelles toutes les trajectoires simulées par l'ordinateur pour la fonction logistique tendent vers 0. La façon dont l'arrondi est programmé a alors une influence déterminante sur la nature des trajectoires fournies par la machine et leur représentativité.

La première direction de recherche dans laquelle nous travaillons concerne l'analyse approfondie de l'impact du choix de certaines stratégies d'arrondi sur les résultats de la simulation des systèmes dynamiques.

Une autre direction de recherche que nous envisageons d'approfondir concerne les propriétés algorithmiques de suites d'entiers associées à un système dynamique. Les suites fournies par la dynamique symbolique peuvent présenter des propriétés reliées à celles de la trajectoire associée. Nous avons déjà évoqué la calculabilité, nous pouvons citer aussi la périodicité qui correspond à une trajectoire cyclique, la présence de toute suite possible de chiffres qui correspond à une trajectoire ergodique (qui passe arbitrairement près de tout point). Il peut également exister une relation entre l'écriture dans une certaine base d'un nombre réel et les trajectoires d'un système dynamique ad hoc.

Nous nous efforcerons enfin de poursuivre les réflexions concernant la signification et les implications de l'étude des systèmes dynamiques (qui sont des objets mathématiques définis dans un cadre essentiellement continu, et dont le comportement ne peut être décrit que par des raisonnements mathématiques propres au continu) au moyen de machines digitales, qui ont été conçues pour manipuler des suites finies de symboles. Bref, nous pensons que l'importance et l'impact des techniques digitales est énorme et point "transparent" dans la modélisation scientifique : les ordinateurs ont et imposent leur propre "logique" (leurs brisures de symétries et leur structure causale), qui n'est pas nécessairement celle du monde (ni de ses modélisations continues). Les analyses que nous développons devraient contribuer à ce débat.

 

 

Partie III: La notion biologique de dégénérescence et ses modèles

 

En parallèle à l’analyse de la causalité esquissée plus haut, nous considérons nécessaire une analyse des processus biologiques qui tienne compte d’une « dialectique causale entre structure et fonction » : bref, en plus du point de vue réductionniste classique, selon lequel la fonction est déterminée par la structure, il faut également prendre en compte la relation inverse. Plus spécifiquement, notre tentative de comprendre la "finalité contingente" propre aux phénomènes du vivant demande un élargissement des différentes structures de la causalité proposée en physique. En fait, dans notre opinion, les théories du champ physique, qui en plus sont loin d'être unifiées, ne paraissent pas suffisante, car elles nous proposent des relations causales seulement entre structures ; en particulier, les relations causales dans les phénomènes du vivant devraient inclure des boucles de rétroaction entre fonction et structure. Par exemple, on peut considérer que la structure moléculaire du matériel génétique est "expliquée" par l’organisation et la fonction que ce matériel contribue à produire : ce sont en effet des traits phénotypiques qui sont « sélectionnés », dont ce lien à double sens entre structure et fonction. L'idée est que la sélection, à l'échelle moléculaire, est relativement insensible à la structure et porte préférentiellement sur la fonction. Dit autrement, si les causes de l’évolution sont formulées en termes phénotypiques, tandis que les effets sont formulés en termes de gènes, un « manuel de traduction » doit être fourni pour passer de l’un à l’autre de ces deux modes de description.

La « dégénéréscence », c'est a dire le fait que deux structures différentes peuvent réaliser la même fonction, ou bien qu’un même structure peut réaliser des fonctions différentes dans des environnement différents, nous paraît un aspect essentiel du lien entre « structure » et « fonction » : l'analyse conceptuelle et mathématique de cette notion, due à Edelman, sera au centre de nos préoccupations. J. Edelman a en fait donné à la notion de dégénéréscence une portée générale, en biologie. Introduite d’abord en immunologie (qui valut le Prix Nobel à son auteur), cette notion a contribué à réfuter la théorie de l’instruction selon laquelle les molécules étrangères transfèrent de l’information concernant leur forme et leur structure au site de liaison des molécules d’anticorps. C’est aujourd’hui la théorie de sélection clonale qui est retenue : l’organisme fabrique un immense répertoire d’anticorps ayant chacune un site de liaison de forme différente. Les molécules étrangères se lient aux anticorps plus ou moins complémentaires de leur propre forme. Il y a ensuite reproduction différentielle par sélection clonale : la population de lymphocytes est modifiée par sélection, et à postériori (il n’y a pas de causes finales). Généralisant ce mécanisme, Edelman propose une « topobiologie », une théorie au sein de laquelle les cellules sont les acteurs clés de « cascades topobiologiques », et qui redonne son importance à des mécanismes mécano-chimiques, face au computationnalisme génétique.

De même, pour un même caractère phénotypique, il est toujours possibles d'envisager différents mécanismes physico-chimiques susceptibles de le réaliser et ne présentant aucune différence pathologique pour les individus (e.g., le problème du polymorphisme génétique intra-populationnel) tandis que, réciproquement, un même mécanisme physico-chimique peut affecter diversement tout un ensemble de caractères phénotypiques distincts (e.g., le problème de la pléiotropie). A cet égard, il faut noter que, à la différence d'éléments simplement redondants, des éléments dégénérescents pourront éventuellement avoir une fonction distincte dans des circonstances différentes (on songe, par exemple, au cas de mutations muettes qui deviennent létales lorsque l'environnement se modifie...). On peut alors parler de dégénérescence, non seulement dans le cas de la relation entre codons et acides aminés, mais encore, comme on vient de le voir, entre génotypes et phénotypes, entre catalyseurs et réactions enzymatiques, entre anti-corps et anti-gènes, ainsi que entre la structure neuronale du cerveau et la distribution des groupements fonctionnels en son sein. Cette dernière distinction est d'ailleurs fondamentale dans la mesure où elle met l'accent sur le divorce et l'intéraction entre structure et fonction en biologie et permet de souligner le rôle joué par la sélection dans le développement individuel des organismes (sélection somatique) ainsi que dans l'évolution globale des espèces (sélection naturelle). De ce point de vue, il est clair qu'un organisme dégénérescent présente un avantage adaptatif important du fait de sa plasticité (sa capacité à modifier ses réponses en fonction du contexte) dont l'un des exemples le plus frappant est sans doute la capacité du cerveau à ré-organiser ses cartes neuronales en cas de lésion.

On propose donc de se placer dans un cadre dit « interactionniste » (ou constructiviste), nous permettant de renouveler notre vision des systèmes et de leurs interactions. Dans cette vision processuelle, il n’y a plus de programme pre-existant au processus, et l’hérédité doit être redéfinie comme instanciation répétée de l’ensemble des conditions nécessaires au déroulement régulier de l’ontogenèse ; l’environnement n’est plus défini que relativement aux capacités d’assimilation de l’organisation. Le schéma interactionniste vise à articuler les modèles internes et externes, et à dissoudre les dichotomies traditionnelles (comme le couple inné/acquis). La causalité devient immanente (elle ne suit pas une lois physique "normative", pre-établie, elle est un constitué, une asymmétrie d'une géodésique dans un champ à explciter, voir [BaillyLongo04]) et le seul critère d’adaptation est la stabilité dynamique. Au-delà des sciences du vivant, c’est la question de la modularité qui est posée : comment des ensembles parviennent à acquérir une autonomie fonctionnelle (émergence et individuation), comment est-ce que ces ensembles interagissent (question de l’enchevêtrement des niveaux d’organisation), quels sont les mécanismes de la causation descendante (downward causation) ?

A ce stade, et considérant la morphogenèse biologique, il nous est apparu que la notion de fonction, inhérente à la biologie, est aujourd’hui mal définie mathématiquement. Nous proposons de voir la fonction comme relative à l’interaction d’un système avec son environnement, ou bien avec un autre système. Ainsi, dans cette vision interactionniste, la dégénéréscence apparaît naturellement, comme condition des capacités d’adaptation et d’évolution du vivant. On se place donc dans le cadre d’unités en interaction. Ce cadre est clairement suggéré par le fait de plus en plus clair que les propriétés fonctionnelles définies au niveau macroscopique sont émergentes et ne peuvent être prédites selon une séquence linéaire de causalité de type molécule à fonction biologique. Dit autrement les fonctions biologiques ne peuvent être assignées à un composant cellulaire selon une relation bijective (considérer par exemple les relations de pléiotropie et polygénie qui existent entre le génotype et le phénotype).
(Pour une analyse de ces concepts, voir le livre Bailly-Longo, 2006, cité et introduit dans Longo's web-page).

 

Partie IV: An update in English and references 2004-2008: CIM-RapportProjet08.pdf   

 

Références au 2004
(pour les plus récentes voir Partie IV et downloadable papers)

[Adler&al65] Adler R., Konheim A. McAndrew M. “Topological entropy”, Trans Amer. Math. Soc., vol. 114, 1965.

[AmariNagaoka00] Amari S., Nagaoka H. Methods of information geometry, Amer. Math. Soc., Oxford U.P., 2000.

[AspertiLongo91] Asperti A., Longo G., Categories, Types, and Structures. MIT Press, 1991.

[Ayres92] Ayres R., Information, Entropy and Progress, Amer. Inst. Physics, New York, 1992.

[Bailly&al90] Bailly F., Gaill F., Mosseri R. “Fractals, organisation levels and structure-function coupling in Biology” Ecole de Biologie Théorique, Solignac, 1990.

[BaillyLongo03] Bailly F., Longo G. “Objective and Epistemic Complexity in Biology”. Invited lecture, proceedings of International Conference on Theoretical Neurobiology, (N. D. Singh, ed.), National Brain Research Centre, New Delhi, INDIA , 2003. 

[BaillyLongo04] Bailly F., Longo G. “Causalites et symetries dans les sciences de la nature. Le continu et le discret mathematiques”, à paraître dans “Logique et Intéraction: pour une Géométrie de la Cognition” (Joinet ed.) Presses de la Sorbonne , 2004.

[BarendregtLongo82] Barendregt H., Longo G. “Recursion Theoretic Operators and Morphisms of Numbered Sets,” M.I.T., Lab. for Computer Science Tech. Mon. 194, Fundamenta Mathematicae, CXIX, 1982.

[Bernard-Weil 02] Bernard-Weil E. "Ago-antagonistic Systems", in M. Mugur-Schächter and A. Van der Merwe (eds.) Quantum Mechanics, Mathematics, Cognition and Action, Kluwer, 2002

[BrooksWiley86] Brooks D., Wiley E. Evolution as Entropy: Towards a Unified Theory of Biology, Univ. Chicago Press, 1986.

[BruceLongo90] Bruce K., Longo G. “Modest models of records, inheritance and bounded quantification” Information and Computation, vol. 87, n. 1-2, 1990.

[Chaitin87] Chaitin G. Algorithmic Information Theory, Cambridge U. P., 1987.

[Devaney89] Devaney, R. L. An introduction to chaotic dynamical systems, Addison-Wesley, 1989.

[EdelmanTononi, 2000] Edelman G., Tononi G. Comment la matière devient conscience, Odile Jacob, Paris, 2000.

[Frege84] Frege G. The Foundations of Arithmetic, 1884 (Engl. transl. Evanston, 1980).

[Hertz&al91] Hertz J., Krogh A. and Palmer R. Introduction to the Theory of Neural Computation, 1991.

[Hilbert99] Hilbert D., Les fondements de la géométrie, 1899 (trad. fran., Dunod, 1971).

[LiVitànyi97] Li M., Vitànyi P. Kolmogoroff Complexity and Its Applications, Springer, 1997.

[Longo83] Longo G. “Set-Theoretical Models of Lambda-calculus: Theories, Expansions, Isomorphisms,” Annals Pure Applied Logic vol. 24, 1983.

[Longo01] Longo G. “Space and Time in the foundation of Mathematics, or some challenges in the interaction with other sciences”, Invited Lecture at the First American Mathematics Society / SMF meeting, Lyon, July 2001 (to appear).

[Longo02] Longo G. “On the proofs of some formally unprovable propositions and Prototype Proofs in Type Theory”. Invited Lecture, Types 2000, Durham (GB), Dec. 2000, Lecture Notes in Computer Science, vol 2277, Springer, 2002.

[Longo03] Longo G. “Some Topologies for Computations”, Invited Lecture, proceedings of Géométrie au XXè siècle, 1930 - 2000, Paris, September 2001; to appear, 2003.

[Longo03a] Longo G. “Computer Modelling and Natural Phenomena”. Invited Lecture, European Software Engineering Conference and ACM SIGSOFT Symposium, Helsinki, Finland, September 1-5, 2003.

[Longo04] Longo G. “Laplace, Turing and the "imitation game" impossible geometry: randomness, determinism and programs in Turing's test”. Invited Lecture, Conference on Cognition, Meaning and Complexity, Roma, June 2002, to appear 2004. (version française dans Intellectica, n. 35, 2002).

[Longo&al00] Longo G., Milsted K. and Soloviev S., “Coherence and Transitivity of Subtyping as Entailment”, Jour. of Logic and Computation., vol. 10, n. 4, 2000.

[LongoMoggi84] Longo G., Moggi E. “The Hereditary Partial Recursive Functionals and Recursion Theory in higher types,” Jour. Symb. Logic, vol. 49, n. 4, 1984.

[Kuramoto84] Kuramoto Y., Chemical oscillations, waves and turbulence, Springer-Verlag, Berlin, 1984.

[Rosen 91] Rosen, R. Life Itself, New York: Columbia University Press, 1991.

[Shannon48] Shannon C. “The mathematical theory of communication”, Bell System Tech. Jour., vol. 27, 1948.

[SpornsTononi02] Sporns O. And Tononi G., Classes of network connectivity and dynamics”, Complexity, 2002.

[Stewart 02] Stewart J. “La modélisation en biologie” dans Enquête sur le concept de modèle, Nouvel P. (ed.), Presses Univ. de France, 2002.

[Thom72] Thom R. Stabilité structurelle et Morphogénèse, Benjamin, Paris, 1972.

[TysonChenNovak03] Tyson J., Chen K.C. and Novak B., Sniffers, buzzers, toggles and blinkers: dynamics of regulatory and signaling pathways in the cell, Current opinion in cell biology, 2003.

[Varela02] Varela, F. Autonomie et connaissance, Paris: Seuil , 1989.

[Winfree67] Winfree A.T., Biological rhythms and the behavior of populations of coupled oscillators”, J. Theor. Biol., 16 (1967), 15-42.