Accords et désaccords


Accords et désaccords sur la nature et l'origine de la complexité du vivant

 

• Charles Lineweaver posant des questions sur la nature et l'origine et l'accroissement de la complexité dans notre monde (et particulièrement sur terre avec la Vie) propose des réponses très différentes de celles centrées sur l'idée de contenu en calcul et la profondeur logique de Bennett. Comment choisir et pourquoi ?

 

Charles Lineweaver défend que l'accroissement de la complexité structurelle de l'univers et principalement des êtres vivants doit être comprise en associant la conception de la complexité proposée par Christoph Adami (nous allons la présenter rapidement) et l'idée d'un transfert de la complexité non adaptative (de nature thermodynamique) de l'environnement vers les êtres vivants, qui s'en enrichiraient donc par copie. Selon cette idée, la complexité structurelle sur terre aurait une origine thermodynamique, elle serait de nature physique, ce qui est totalement opposé à l'idée que la complexité organisée des êtres vivants est équivalente à un contenu en calcul, résultant d'interactions entre composants matériels et liée seulement de manière secondaire aux concepts de la thermodynamique.

Citons des passages de ce récent article de Lineweaver qui défend une conception foncièrement en contradiction avec celle proposée dans ce blog.

« Adami identify genomic complexity with the amount of information DNA sequences store about their environments. I want to emphasize that not only is the information in DNA about the environment, but that the information in DNA came from the environment [...]. In any naturalistic explanation for the origin and evolution of life, the non-adaptive complexity of the physical environment precedes, and is the source of, the adaptive complexity of life. The information in DNA comes from the environment and it has been put into the DNA by selection. Darwinian evolution involving selection of all kinds (natural, sexual, and artificial) is the channel through which the complexity and information of the environment creates and shapes the complexity and information of biological organisms. [...]

« Just as biological complexity can be traced back to the complexity of the environment, environmental complexity can be traced back to free energy available due to an entropy gap between the initial low entropy of the universe and the maximum potential entropy of the universe. Complexity is limited by the availability of free energy and free energy is limited by the entropy gap.  »

Charles Lineweaver, A simple treatment of complexity: cosmological entropic boundary conditions on increasing complexity, in Charles Lineweaver, Paul Davies, and Michael Ruse, eds. Complexity and the arrow of time, Cambridge University Press, 2013.

Cette vision s'oppose à celle qui conçoit la complexité organisée comme du contenu en calcul et son augmentation, en particulier chez les êtres vivants, comme provenant simplement du fait que des mécanismes de calcul avec mémorisation se sont mis en place et permettent l'exécution de calculs et la conservation de leurs résultats avec une efficacité sans cesse croissante. La duplication de certaines molécules et plus tard des cellules est l'un de ces mécanismes. Ces calculs se poursuivent aujourd'hui autrement que par les processus biologiques de la sélection naturelle et ont pris une multitude de formes dont la culture et les technologies de l'information ne sont que deux exemples.

Dans le schéma proposé par Lineweaver, il y a l'énergie libre (elle dépend de l'écart séparant l'entropie actuelle de l'entropie maximale possible). C'est elle qui crée la complexité de l'environnement. Celle-ci devient à son tour la complexité des êtres vivants. La complexité du vivant ne serait que l'intériorisation de la complexité de l'environnement, c'est-à-dire du monde physique avant que la vie n'y apparaisse. La sélection ne serait qu'un canal permettant de transformer l'une en l'autre.

Le fondement de cette analyse est la conception défendue par Christoph Adami de la complexité organisée, qu'il nomme physical complexity. Pour lui :

« Physical complexity is a measure [...] that turns out to be a simple and intuitive measure of the amount of information that an organism stores, in its genome, about the environment in which it evolves. »

Christoph Adami, Sequence complexity in Darwinian evolution, Complexity 8.2 : 49-56, 2002.

« Thus, the physical complexity measures the amount of information about the environment that is coded in the sequence, and is conditional on such an environment. In practice, an estimate of the complexity of a string can be obtained by counting the number of loci per string that are fixed in the ensemble, while the volatile positions represent, again with respect to the environment, randomness. [...] In fact, a moment’s reflection reveals that K(s : e), the complexity of string s given a description of the environment e, is not practical, meaning that it can not, in general, be determined by inspection. In other words, it is impossible to determine which, and how many, of the bits of string s correspond to information about e. ) »

Christoph Adami, Nicolas Cerf, Physical complexity of symbolic sequences, Physica D: Nonlinear Phenomena 137.1 : 62-69, 2000.

Outre qu'il est un peu ennuyeux que même de manière approchée, il soit impossible de déterminer et d'évaluer cette complexité physique, la conception défendue par Lineweaver et Adami me semble se tromper sur plusieurs points.

- Point 1-

Qu'il soit nécessaire qu'une certaine énergie libre soit disponible pour que l'évolution biologique se déroule est une affirmation que personne ne conteste. Cependant, l'énergie libre nécessaire à l'évolution sur terre est dérisoire comparée à ce qui est disponible dans l'univers et même seulement dans le système solaire. Envisager la fin de cette disponibilité entraînant la fin de la vie possible est assez ridicule car, autant qu'on puisse le savoir, nous sommes sur cette question tranquille pour des milliards d'années. Les théoriciens ne savent pas précisément d'où vient la grande quantité d'énergie libre disponible, ils en discutent encore ! L'article évoque cette incertitude. Il ne semble même pas absurde d'envisager qu'il n'y aura jamais pénurie.

Dans une conception de la complexité structurelle comme contenu en calcul, la question du destin ultime de la vie se pose en termes très différents. Si tout n'est lié qu'à la capacité qu'on a d'exécuter des calculs et que Rolf Landauer et Charles Bennett ont raison concernant le coût entropique inévitable d'un calcul (ils défendent qu'il est asymptotiquement nul, voir Charles Bennett, The thermodynamics of computation, a review, International Journal of Theoretical Physics 21.12, 905-940, 1982), alors nous apprendrons à utiliser de moins en moins d'énergie libre pour calculer, cela même si elle n'est disponible qu'en quantité bornée. La croissance de la complexité organisée ne connaîtra donc pas nécessairement de limite. Mais répétons-le il s'agit essentiellement d'un faux problème à cause de ordres de grandeur et des incertitudes théoriques concernant l'origine de l'énergie libre dont il n'est même pas exclu qu'elle sera mise à la disposition de la vie de manière illimitée. Ne perdons pas de temps avec le faux problème de l'énergie libre du Cosmos et des problèmes qui se poseront à la vie dans mille milliards d'années !

Une citation pour confirmer ce que j'écris.

« In other words, at a minimum the Earth is bathed in about one trillion times the amount of entropy flux required to support the rate of evolution assumed here. [...] Presumably the entropy of the Earth’s biosphere is indeed decreasing by a tiny amount due to evolution, and the entropy of the cosmic microwave background is increasing by an even greater amount to compensate for that decrease. But the decrease in entropy required for evolution is so small compared to the entropy throughput that would occur even if the Earth were a dead planet, or if life on Earth were not evolving, that no measurement would ever detect it. »

Daniel Styer, Entropy and evolution, American Journal of Physics 76.11 : 1031-1033, 2008.

- Point 2-

Il ne faut pas confondre condition nécessaire et condition nécessaire et suffisante. L'énergie libre peut se dépenser sans que la vie apparaisse et c'est le cas presque partout. Un moteur à essence peut tourner indéfiniment en dégradant une considérable quantité d'énergie libre, et cela sans produire la moindre complexité. On n'explique donc pas l'apparition de la complexité organisée en évoquant l'énergie libre qui n'est au mieux qu'une condition nécessaire. Il se passe quelque chose de particulier qui augmente la complexité organisée. Quoi ? La conception de Adami et Lineweaver ne le dit pas. Ce qu'ils proposent ne répond pas à l'attente qu'on a d'une explication de la complexification.

La partie de l'explication concernant l'environnement est plus étrange encore me semble-t-il. Il serait devenu complexe et c'est cette complexité qui passe alors dans les êtres vivants ; la complexité (structurelle) des êtres vivants n'étant que la quantité d'informations sur l'environnement qu'ils contiennent. Trois points à nouveaux doivent être mentionnés.

- Point 1-

La définition de Christoph Adami semble inadéquate. Un appareil photo qui vient de prendre une photo contient beaucoup d'informations sur son environnement. Pourtant il n'est pas devenu très complexe (surtout si, par exemple, il a photographié un tas de sable) et encore moins vivant. Des nombreux exemples pourraient être donnés montrant que le fait de contenir de l'information sur son environnement n'est ni nécessaire, ni suffisant pour être structurellement complexe, ou vivant. Même s'il est vrai que certains êtres vivants évolués contiennent de l'information sur leur environnement, et que c'est pour eux essentiel (les mammifères par exemple), cela ne signifie pas du tout qu'on a là le bon élément à retenir pour définir et mesurer la complexité organisée et pour déterminer la nature de la complexité organisée du vivant.

- Point 2-

Même en admettant la définition d'Adami, cette conception n'explique rien : dans certains environnements complexes, rien ne se produit. On reste encore sur sa faim : aucune explication sur ce qui permet le transfert n'est proposée ; aucun indice n'est donné qui permettrait de distinguer un environnement où la vie apparaît et se développe, d'un environnement comme la surface de la lune où (sauf information contraire) rien de très intéressant ne se déroule.

- Point 3-

Un problème fondamental de la discussion telle qu'elle est menée par Adami et Lineweaver et bien d'autres est qu'ils n'ont pas en définitive de bonne notion générale de complexité (au sens de complexité organisée). Sans cesse, ils parlent de la complexité comme s'il s'agissait de la complexité comme contenu en information (complexité de Kolmogorov) en considérant sans doute qu'il est évident et clair par exemple qu'un tableau plein de traits dans tous les sens est plus complexe qu'un tableau de Mondrian. Leur refus implicite de discuter soigneusement de ce qu'est la complexité en général (et pas seulement de la complexité des êtres vivants comme s'y cantonne Adami qui ne pose jamais la question abstraite générale, ou le fait en ne mentionnant que la complexité de Kolmogorov) les conduit à revenir sans cesse à la notion implicite de complexité comme contenu en information. Cela les fait passer à côté de toute discussion sérieuse de la question, puisqu'ils s'appuient sur une intuition non critiquée correspondant à un stade théorique où on n'a pas opéré la distinction entre contenu en information et contenu en calcul. Adami prétend définir la complexité des êtres vivants — leur complexité organisée — en n'ayant pas au préalable réfléchi à la complexité en général et aux différents usages fait de ce terme dans le langage courant qui justement mélange la complexité d'une suite de tirages à pile ou face de celle des décimales de Pi. Il la définit en s'appuyant uniquement sur une notion d'information mutuelle (donc de contenu en information commun entre deux objets) alors qu'il faut franchir un pas théorique nouveau en introduisant et en utilisant la notion de contenu en calcul. Ne franchissant pas cet obstacle — le passage de l'information au calcul, l'acceptation qu'à côté du concept fondamental d'information, il y a celui de calcul — il ne peut comprendre ce qui dans l'évolution est créatif et ne se réduit pas à des concepts physiques et thermodynamiques. Il y a comme un refus par principe de donner aux concepts de la théorie du calcul une place suffisante, et ce refus en confinant la réflexion et les constructions théoriques à des concepts de la physique classique fait tourner en rond la recherche d'une solution à la question de la complexité en biologie et ne produit qu'une forme de vision réductionniste physicaliste, très peu convaincante comme les exemples les plus simples le montrent. Cette attitude peut être vue comme un refus de la dimension dynamique ou même un refus de prendre en compte de la dimension temps. Il faut réaliser et introduire au cœur de la théorie qu'il se calcule quelque chose, que ces calculs ne sont pas nécessairement effacés, qu'ils peuvent être réutilisés, et qu'il se produit donc une sédimentation du passé dynamique, une mémorisation du résultat des interactions constructives et exploratrices, et que l'accroissement de la complexité du vivant c'est cela.

Le plus gros défaut de la vision de Christoph Adami et de Charles Lineweaver est qu'elle ne caractérise pas ce qui produit la complexité organisée (contrairement à celle défendue ici sur le contenu en calcul). C'est une conception qui ne voit pas qu'il se produit un phénomène algorithmique, que la sélection naturelle opère des essais en grand nombre et n'en retient qu'une partie, en un mot que nous sommes face à un phénomène computationnel avec mémorisation. Ne pas voir la dimension algorithmique et donc le calcul dans l'évolution et dans la vie, n'est-ce pas être aveugle à l'essentiel ?

L'article de Charles Lineweaver évoque la position du physicien Prix Nobel 1969 Murray Gell-Mann pour qui la consommation d'énergie libre n'est pas nécessairement importante dans l'apparition de la complexité organisée. Gell-Mann lie la complexification au terme de « frozen accident giving rise to regularities ». Cette position est particulièrement intéressante et les images que propose Gell-Mann sont à rapprocher des calculs cristallisés évoqués ici plusieurs fois pour faire comprendre l'idée des contenus en calcul.

Lineweaver, conscient de son désaccord avec Gell-Mann, écrit :

« We have argued that a complex environment is the result of the initial low gravitational entropy of the early universe and the resulting gravitational collapse of galaxies, stars, and planets. The ultimate driver of complexity is the dissipation of free energy. This does not seem to be a well-accepted point of view. Gell-Mann (1995) does not associate the evolution of complexity with low gravitational entropy, but wants to explain the complexity of life as the result of “frozen accidents, giving rise to regularities” with little or no connection with free energy. ».

Lineweaver cite Gell-Mann :

« As the universe grows older and frozen accidents pile up, the opportunities for effective complexity to increase keep accumulating as well. Thus there is a tendency for the envelope of complexity to expand. (Gell-Mann, 1995) »

« The second law of thermodynamics, which requires average entropy (or disorder) to increase, does not in any way forbid local order from arising through various mechanisms of self-organization, which can turn accidents into frozen ones producing extensive regularities. (Gell-Mann, 1995) »

Ajoutons encore la citation suivante de Gell-Mann :

« As time goes by in the history of the universe and accidents (with probabilities for various outcomes) accumulate, so do frozen accidents, giving rise to regularities, and thus as the universe grows older and frozen accidents pile up, the opportunities for effective complexity to increase keep accumulating as well. Thus there is a tendency for the envelope of complexity to expand even though any given entity may either increase or decrease its complexity during a given time period. »

L'article de Gell-Mann cité se trouve ici.

Notons pour être complet qu'il mentionne la notion de complexité effective « the effective complexity, which is roughly the length of a compact description of the identified regularities of an entity ».

Cette notion est intéressante, mais elle reste assez problématique car elle suppose la capacité chez celui qui veut l'utiliser de distinguer ce qui dans un objet est réellement sa structure (« identified regularities ») de ce qui est de l'information aléatoire sans importance (comme ce qui décrirait l'emplacement précis des poils d'un mammifère). Des rapports ont été prouvés entre des versions (paramétrées) de cette notion et la profondeur logique Bennett. Ce dernier concept nous semble de très loin un concept mathématique mieux fondé et ayant l'avantage de bien faire apparaître que ce qui importe dans une mesure de complexité organisée est un temps de calcul. Insistons sur le fait qu'il n'y a pas contradiction entre le concept de complexité effective et celui de profondeur logique de Bennett. Il n'est donc possible d'affirmer que la conception que nous défendons de l'augmentation des contenus en calcul comme vision générale de l'évolution est compatible avec celle de Gell-Mann.

Cet accord avec Murray Gell-Mann sur le fond, malgré un vocabulaire et une formulation s'appuyant sur les idées de formalismes de Charles Bennett, plutôt que sur les images et descriptions informelles données par Gell-Mann est un argument en faveur de la théorie du Collectionneur universel qui s'engage plus loin et est plus spéculative mais n'est pour nous que la poursuite logique de la vision de Gell-Mann. Ce qu'il nomme Frozen accident désigne pour nous un calcul non trivial mémorisé. Comme lui, nous ne pensons pas que ces calculs soient fortement liés à des concepts thermodynamiques.

Quelques références à propos de la complexité effective et de ses rapports avec la profondeur logique de Bennett :

Murray Gell‐Mann, Seth Lloyd, Information measures, effective complexity, and total information. Complexity 2.1 : 44-52, 1996.

James McAllister, Effective complexity as a measure of information content. Philosophy of Science, 70(2), 302-307, 2003

Ay, N., Markus Müller, and A. Szkola. Effective Complexity and Its Relation to Logical Depth. IEEE Transactions on Information Theory 9.56 (2010): 4593-4607.

À titre d'information notons aussi que l'article de Gell-Mann et Llyod critique de manière sévère l'idée de Christoph Adami :

« We should mention that a number of authors have considered mutual information as a measure of complexity in the context of dynamical systems [...]. Without modification, that idea presents a conflict with our intuitive notion of complexity. Consider two identical very long bit strings consisting entirely of ones. The mutual information between them is very large, yet each is obviously very simple. Moreover, the statement that they are the same is also very simple. The pair of strings is not at all complex in any usual sense of the word. »

L'article de McAllister quant à lui remarque que tel qu'elle est présentée par Gell-Mann et Llyod la notion de complexité effective est subjective :

« The effective complexity of a string as a purely formal construct, lacking a physical interpretation, is either close to zero, or equal to the string’s algorithmic complexity, or arbitrary, depending on the auxiliary criterion chosen to pick out the regular component of the string. Because of this flaw, the concept of effective complexity is unsuitable as a measure of information content. »

Heureusement les développements de Nihat Ay, Markus Müller et Arleta Szkola offrent un formalisme rigoureux de la notion de complexité effective qui, sans contredire les remarques de McAllister, donnent une version paramétrée de la complexité effective pour laquelle des rapports précis avec la profondeur logique de Bennett sont prouvés.

Notons encore que diverses variantes de la notion de complexité effective ont été proposées sous le terme de sophistication et qu'il a été établi récemment dans l'article suivant que ces notions sont — en un sens technique — équivalentes à celle de profondeur logique de Bennett. voir :

Luis Antunes, et al. Sophistication vs Logical Depth. Theory of Computing Systems : 1-19, 2013.

De tout cela, il semble résulter de manière définitive que le meilleur concept de complexité organisée disponible aujourd'hui est bien celui de profondeur logique de Bennett et que l'explication de son accroissement est en définitive très simple : l'univers calcule, quand il réussit à mémoriser les résultats de ses calculs il devient plus efficace encore pour mener de nouveaux calculs ; ceux-ci s'accumulent, le contenu en calcul de l'univers s'accroît, l'univers devient plus riche en structures.

 

 

Publier un commentaire