Le tout est-il plus que la somme des parties ?

20.06.2013 par Jean-Paul Delahaye, dans Uncategorized

J'ai toujours été agacé par la maxime «Le tout est plus que la somme de ses parties» due au grand Aristote. Elle a été commentée mille fois et presque toujours applaudie sans beaucoup de sens critique.

La raison de cette agacement est que je ne voyais pas à quoi pouvait correspondre sérieusement —c'est-à-dire mathématiquement ou logiquement— ce "plus" que posséderait toujours le tout sur la somme de ses parties.

Pour donner à la maxime un sens intéressant —et si possible démontrable—, il faut fixer une notion de valeur,  et constater —ou mieux prouver— que celle du "tout" est plus grande que la somme des valeurs des "parties". Pour faire une somme, il faut dépasser les idées vagues et définir une mesure. Il faut donc associer un nombre au "tout" et d'autres à chaque "partie". La maxime avec peut-être des hypothèses restrictives à formuler doit pouvoir devenir un théorème.

Il semble assez naturel de rechercher cette valeur sous la forme d'une mesure de complexité ou de contenu en information car ce «plus» évoqué est vraisemblablement un enrichissement, ce qu'aujourd'hui nous cherchons à comprendre en employant les mots information et complexité. En résumé, pour tirer quelque chose de formel et donc de précis de la maxime sur le "tout" et les "parties", on doit considérer des objets A(1), A(2), ..., A(k) qui auront chacun une certaine complexité Complexité(A(1)), Complexité(A(2)), ..., Complexité(A(k)) (ne précisons pas de quelle complexité on parle pour l'instant ni son rapport éventuel avec de l'information), et dont la réunion Union(A(i)) aura une complexité plus grande que la somme des complexités individuelles :

Complexité(Union(A(i)))  > Complexité(A(1)) + ... + Complexité(A(k))

Il se trouve que ça ne marche pas bien pour toutes les idées qui viennent en premier à l'esprit du mathématicien et de l'informaticien (théoricien).

Tentative  1

Prenons pour objet des ensembles (au sens mathématique) et pour mesure de leur complexité leur nombre d'éléments. Ce n'est pas absurde : plus un ensemble comprend d'éléments, plus il est complexe. Il y a bien un rapport entre les deux côté de l'inégalité étudiée, mais il est inverse de celui qu'on attend :

Complexité (Union(A(i)))  ≤ Complexité (A(1)) + ... + Complexité (A(k))

Il s'agit d'un théorème immédiat en théorie des ensembles.

Dans le cas d'ensembles finis, il n'y a égalité que lorsque tous les ensembles sont disjoints deux à deux, ce qui se produit plutôt rarement. Notre première tentative de formalisation, donne et démontre une maxime opposée à celle d'Aristote !

Tentative  2

Prenons pour objet des problèmes algorithmiques applicables à des entiers n.

Quelques exemples.

A(1) : «factoriser n» ;

A(2) : «trouver la somme des diviseurs de n» ;

A(3) : «déterminer si n est un nombre premier» ;

A(4) : «déterminer si n est un carré parfait» ;  etc.

Prenons pour le tout, le problème de résoudre l'ensemble des problèmes élémentaires simultanément. Pour mesure de complexité, prenons —cela va de soi pour qui s'intéresse à la complexité des algorithmes— le nombre d'opérations nécessaires (ou la taille de la mémoire nécessaire) pour mener la résolution des problèmes. On sait par exemple depuis 2002 que savoir si un nombre n est premier (problème de la primalité) est polynomial (en fonction de la taille de n).

Avec cette formalisation on ne peut plus naturelle pour qui s'occupe d'algorithmes, la maxime d'Aristote ne marche toujours pas. En effet, la complexité de la résolution du "tout" sera au plus la somme des complexités des "parties" et sera souvent plus faible car certains problèmes (comme ceux de notre liste) bénéficient des calculs faits pour d'autres ce qui permet des économies de ressource pour qui cherche à traiter les problèmes simulténément.

La complexité du "tout", dans le cas des problèmes et algorithmes, est toujours inférieure ou égale à la somme des complexités des "parties".

Complexité (Union(A(i)))  ≤ Complexité (A(1)) + ... + Complexité (A(k))

Dommage !

Tentative  3

On considère des objets numériques finis et on mesure leur valeur par la complexité de Kolmogorov, qui, par définition, est la taille du plus petit programme qui les engendre. Cette mesure de complexité est aujourd'hui unanimement considérée comme la bonne mesure «du contenu en information» d'un objet numérique. Elle généralise l'entropie de Shannon. Elle est utilisée en informatique mais aussi en physique, en philosophie des sciences, en biologie, en psychologie.

Pas de chance, et c'est plus grave ici car il s'agit vraiment d'une mesure de contenu en information, là encore la complexité de Kolmogorov d'un ensemble d'objets numériques finis est inférieure ou égale à la somme des complexités de Kolmogorov des objets pris un à un. C'est un théorème de la théorie.

L'idée de la démonstration est simple : les programmes les plus courts qui engendrent  A(1), A(2), ..., A(k), peuvent  être mis bout à bout ; ils constituent alors un programme qui engendre le "tout" ; ce programme somme n'est peut-être pas le plus court qui donne le "tout", mais le programme le plus court qui donne le "tout" sera plus court (puisqu'il y a déjà ce programme là) et donc la complexité du "tout" sera inférieure à la somme des complexité des "parties". Là encore, la théorie dit (et démontre) le contraire de la maxime d'Aristote.

Fort de ces exemples, il me semblait que jamais dans aucun cas, on ne pouvait mathématiquement trouver des situations où la complexité du "tout" est plus grande que la somme des complexités des objets pris individuellement. Même en cherchant le plus honnêtement possible, quelle que soit la façon (naturelle) de définir et de mesurer la complexité,  pas de "tout" meilleur que  "la somme des parties".

Précision que dans ma recherche d'une mesure de complexité satisfaisant la maxime d'Aristote, j'ai exclu les méthodes factices où on place dans le "tout" autre chose que l'ensemble des "parties". Par exemple, je ne considère pas comme une illustration acceptable de la maxime d'Aristote qu'on dise qu'il y a dans un mot plus que ce qu'il y a dans l'ensemble de ses lettres.

Il est vrai que dans le mot COMPLEXE, il y a plus que dans la donnée de l'ensemble de ses lettres C, E, E, L, M, O, P, X, mais c'est bien évidemment parce qu'on ordonne les lettres, et que cet ordre (ajouté aux parties) constitue le "plus" qu'on trouve dans le "tout" et qui n'est pas dans la somme des "parties". De telles illustrations de la maxime d'Aristote sont illusoires et naïves,  elles sont triviales et sans intérêt puisque qu'elles sont basées sur un ajout caché quand on constitue le "tout", autrement dit un truc de prestidigitateur.

Pouvait-il exister des cas recevables illustrant formellement la maxime d'Aristote dans le champ contemporain des sciences de la complexité ?

Enfin un cas qui marche !

La théorie algorithmique de l'information qui détaille tout ce qu'on peut dire et démontrer sur la complexité de Kolmogorov a introduit une notion qui va nous sauver.

Il s'agit de la «profondeur logique de Bennett» qui est, par définition, le temps de calcul du plus court programme qui produit l'objet numérique fini auquel on s'intéresse. C'est une mesure de «complexité structurelle» (une mesure de la richesse en organisation), ce que n'est pas la complexité de Kolmogorov qui n'est qu'une mesure de «contenu incompressible d'information». Ces deux mesures de complexité diffèrent le plus à propos des objets aléatoires dont l'exemple typique est une suite finie de '0' et de '1' obtenue par des tirages successifs à pile ou face. Pour un tel objet aléatoire, la complexité de Kolmogorov est maximale : on ne peut pas le décrire de manière sensiblement plus brève qu'en en donnant les éléments un à un, ce qui est la pire situation puisque l'objet à produire sera explicitement dans le programme. Une suite aléatoire des bits est incompressible alors qu'à l'inverse la profondeur logique est minimale : une suite aléatoire n'est pas structurée, son contenu en structure est quasi-nul ; sa profondeur logique de Bennett est réduite au minimum puisqu'exécuter le programme le plus court qui engendre la suite aléatoire revient à exécuter un programme qui recopie une donnée explicitement inscrite dans le programme et qu'une telle copie ne peut pas prendre de temps.

Dans le cas général, la profondeur logique de Bennett ne donne pas que le "tout" a une complexité  plus grande que la somme des complexités des "parties". En effet, si vous prenez un tout composé de k fois le même objet, sa profondeur logique sera à peu de chose près la complexité d'un seul objet, et donc sera nettement inférieure à la somme des complexités des objets pris un à un. Il ne peut y avoir un théorème du "tout" et des "parties" exprimant sans restriction la maxime d'Aristote, même avec la profondeur logique de Bennett !

En revanche, et c'est là que j'ai eu une surprise, il existe des cas où on peut établir avec certitude (ce qui est assez difficile quand on manie le concept de profondeur logique) que la complexité d'un tout composé de plusieurs objets sera supérieure à la complexité de la somme de chacun d'eux. Voici un tel exemple imparable.

Considérons les deux images A et B.

A

B

 

 

Chacune est composée de '0' (pixel noir) et de '1' (pixel blanc) d'une manière parfaitement aléatoire. Leur profondeur logique de Bennett est donc minimale comme nous venons de l'expliquer  : un objet aléatoire n'est pas structuré et possède donc une profondeur logique minimale comparable à celle d'une suite de même longueur composée uniquement de '0'.

Le "tout" (composé des deux images A et B) n'est pas aléatoire, car les deux images sont intimement corrélées. Pour s'en rendre compte, on applique un ou-exclusif entre A et B ce qui donne une image C : quand les deux pixels de A et B sont identiques, on met un '1' dans l'images C, sinon on met un '0'.

C

 

 

Faites l'expérience : téléchargez les images et superposez-les  : la superposition simple qui correspond au 'ou' fait déjà apparaître le résultat ; l'opération logique 'ou-exclusif' (appelée aussi 'xor') donne exactement C.

On voit apparaître un célèbre personnage de l'histoire de France, mais on peut bien sûr par le même procédé à la base de ce qu'on nomme la «cryptographie visuelle » obtenir n'importe quelle image aussi structurée qu'on le souhaite en partant de deux objets parfaitement non structurés (mais corrélés).

On montre par ailleurs que partant de A et de C on obtiendra B en appliquant là aussi un ou-exclusif. Il en résulte que  le programme le plus court qui donnera le "tout" A et B sera le programme le plus court de A associé avec le programme le plus court de C, suivi d'un calcul de ou-exclusif entre A et C, ou sera quelque chose très proche de ce procédé. Puisque C est structuré de manière non triviale, ce programme minimal pour le "tout" A et B aura un temps de calcul plus long que la somme des temps de calcul des programmes minimaux pour A et minimaux pour B (qui étaient des programmes très rapides puisqu'il n'y aucune structure dans A, et aucune structure dans B). La profondeur logique du "tout" A et B" est donc plus grande que la somme de la profondeur logique de A et de la profondeur logique de B. C'est un théorème et l'énoncé général qu'on peut donner de cette situation est le suivant :

Quelle que soit la profondeur logique d'un objet numérique C, on peut construire deux objets numériques A et B, de telle façon que A et B soient chacun de profondeur logique minimale, et que le "tout" constitué de A et de B possède une profondeur logique équivalente à celle de C (puisqu'il donne C).

Complexité(A union B)  > Complexité(A) + Complexité(B)

Dans le cas de telles situations, on a bien deux objets dont l'ensemble a une complexité structurelle  plus grande que la somme des complexités structurelles des parties. Enfin un cas général où la maxime d'Aristote prend un sens formel, précis et démontrable !

Le cas des systèmes complexes

Je pense que ce n'est pas un hasard si pour réussir à donner un sens mathématique précis à la maxime d'Aristote en proposant une notion bien définie de valeur des objets qu'on combine, il a fallu se référer à la complexité structurelle telle que l'a définie Bennett (et surtout pas à la complexité de Kolmogorov qui ne donnera jamais l'inégalité recherchée puisqu'on démontre qu'elle donne l'inégalité inverse) .

Il est probable que ceux qui évoquent ce "tout" qui est plus que la "somme" de ses "parties" ont en tête des situations où c'est bien l'organisation (ou encore "la richesse en structures", "la valeur  fonctionnelle", "le contenu en calcul") qui sert à mesurer ce que valent le "tout" et ses "parties". L'idée exprimée par la phrase d'Aristote est souvent fausse —elle intéresse d'ailleurs parce qu'on la perçoit comme paradoxale—, mais il y a des cas où le paradoxe devient vrai et prouvable : ceux où ce qui mesure la valeur du tout est vraiment lié à une richesse en structures. Ces cas font l'intérêt de la maxime.

Croire à la maxime et en faire un pilier philosophique des réflexions sur la complexité sans même chercher à savoir de quoi elle parle, ni si cela peut se mathématiser est une attitude ridicule puisque le plus souvent c'est l'inégalité inverse qu'on peut démontrer (même quand on envisage la complexité des algorithmes ou la complexité de Kolmogorov). Disposer d'un cas précis où la maxime devient vraie est très éclairant, et je considère qu'avec l'exemple proposé, on a une preuve nouvelle du bien fondé de la définition de Bennett : la complexité structurelle d'un objet fini Ob se mesure par «le temps de calcul de son programme le plus court», ou, dans la version plus tolérante de la définition de Bennett,  par «le temps de calcul des programmes courts que produisent Ob».

Il existe peut-être d'autres procédés formels (non illusoires) donnant un sens à la maxime d'Aristote, mais celui qui s'appuie sur la profondeur logique de Bennett appliquée à l'association de deux objets structurés et corrélés est probablement central du fait de sa place au sein de la théorie algorithmique de l'information qui est la théorie la plus générale de l'information. Dans les systèmes complexes, comme les sont les organismes vivants ou les écosystèmes, les interdépendances font qu'on est le plus souvent dans une situation semblable à celle des images A, B et C. Ce qui est apparu dans un premier temps l'exception y devient la règle. La complexité du "tout" mesurée par la profondeur logique de Bennett est donc, dans de telles structures, supérieure à la somme des complexités des "parties". Bien évidemment, Aristote ne pensait pas à la profondeur logique de Bennett, mais il me semble qu'aujourd'hui pour donner un sens technique à son intuition —et il ne faut jamais renoncer à de tels objectifs—, la meilleure méthode possible est de l'évoquer. Qu'il ait fallu deux mille ans pour que l'intuition du Stagirite trouve une forme mathématique robuste et devienne l'objet de science, n'est-ce pas la preuve, encore une fois, de son exceptionnel génie !

 

Sur la cryptographie visuelle voir  :

Sur la profondeur logique de Bennett voir  :


23 commentaires pour “Le tout est-il plus que la somme des parties ?”

  1. Nicolas Graner Répondre | Permalink

    La maxime d'Aristote ne peut s'appliquer que dans des cas où on prend en compte des interactions entre les "parties". Ainsi, dans le tout premier exemple (réunion d'ensembles), elle ne s'applique pas si on définit la "complexité" d'un ensemble comme le nombre de ses éléments. Mais si on la définit par exemple comme le nombre de couples d'éléments (la modélisation la plus élémentaire des interactions au sein d'un groupe), la maxime s'applique : le nombre de couples d'éléments dans une union d'ensembles disjoints est supérieur à la somme des nombres de couples d'éléments de chaque ensemble. Dès qu'on prend en compte une notion de relations entre éléments d'un tout on peut trouver des cas où la maxime s'applique, sans avoir besoin d'une notion aussi élaborée que la profondeur logique de Bennett. Bien sûr elle ne s'applique pas dans tous les cas, mais ce n'est pas son but : personne ne dit que partout, toujours, un tout sera supérieur à la somme de ses parties : cette maxime est en général énoncée dans un cas spécifique quand on observe ce type de phénomène.

    Par ailleurs, pourquoi décider que le "plus" concerne nécessairement une complexité ? Si on considère par exemple la valeur marchande (notion qui n'est pas formalisable mathématiquement mais peut être modélisée et évaluée par la psychologie expérimentale), il est clair que la valeur que l'on est prêt à payer pour un service de 12 assiettes assorties est supérieure à la somme des valeurs de chaque assiette vendue séparément. Il n'y a là aucune "triche" coome dans l'exemple du mot et de ses lettres : la juxtaposition des 12 assiettes n'introduit aucune structure particulière, et pourtant l'utilité de l'ensemble s'en trouve augmentée. Un exemple encore plus net est celui d'un jeu de cartes : chaque carte isolée a une valeur quasi-nulle, de même que tout sous-ensemble jusqu'à 51 cartes, alors que l'ensemble des 52 a une valeur substantielle, sans qu'aucune mesure de complexité ou de profondeur logique le justifie.

    • Jean-Paul Delahaye Répondre | Permalink

      L'exemple des relations ne me satisfait guère ; on pourrait aussi bien prendre le nombre de parties d'un ensemble : il y en a en général plus pour le tout (A union B) que pour A et pour B.
      Si on considère un graphe (les arcs représentant les relations effectives entre nœuds de A et B) alors les relations dans le tout (les arcs du graphe dont les nœuds sont ceux de A ou B) sont plus nombreuses que celles entre nœuds de A et celles entre nœuds de B, parce pour le tout il y a en plus les arcs qui relient des nœuds de A et des nœuds de B. On a donc un exemple comme celui que j'ai donné avec le mot COMPLEXE.
      L'exemple économique est intéressant, mais il se fonde sur la subjectivité des agents économiques alors que mon but était de rechercher une formalisation mathématique, et que je me posais la question en recherchant du côté d'une "valeur" (pour le "tout" et les "parties") en rapport avec la complexité et l'information (ce qui je crois est le plus souvent l'idée de ceux qui mentionnent la maxime d'Aristote).

  2. Janpol Répondre | Permalink

    Bonjour Jean-Paul.
    Je me risquerai à "commenter" certains blogueurs certifiés par la revue que je suis depuis .... disons quelques années. Dont vous-même, car je suis mathématicien (si c'est une référence). Mais un mathématicien bizarre, puisqu'il remet en question les acquis "durs" des mathématiques et le fondement même de la certitude scientifique.
    Nous y reviendrons peut-être.
    Ici, ce qui me branche, est la relation faite entre un TOUT et des PARTIES. Et justement j'ai touché un peu à ceci. Et je peux vous assurer qu'il n'y a pas de relation mathématique possible entre ces deux choses inconciliables par nature. Pour en trouver une, il faut "transcender" l'approche par un aspect philosophique et la cerner dans une enveloppe logique par les principes fondamentaux de non-contradiction et du tiers exclu, puis de les projeter dans un cadre réel appelé continuum spatio-temporel. C'est une longue histoire.

    Mais, si on considère un TOUT, alors il "occupe" un espace-temps objectif. C'est nécessairement un "contenant". Et que contient-il ? Un processus chronologique d'assemblage des PARTIES éventuelles. Si on désassemble ce TOUT, on n'obtient pas des PARTIES mais des TOUT, qui sont eux-mêmes des contenants spatio-temporels ... et des "liens". Démontez votre montre et vous comprendrez.

    Ceci s'applique à tout ce que nous considérons comme TOUT contenant des PARTIES. A méditer philosophiquement !

    Alors ? Pour aborder ce problème, nous dirons que ce qui est complexe pour certains est très simple pour d'autres qui connaissent le processus d'assemblage !
    Allez-y remonter votre montre.

    Cordialement

    • Jean-Paul Delahaye Répondre | Permalink

      Mon but était de trouver un sens (par trop trivial si possible) à la maxime d'Aristote en m'imposant que cela soit mathématiquement sensé et si possible pertinent. Vous semblez croire que c'est impossible. Pourtant je maintiens que mon exemple avec la profondeur logique de Bennett répond à ma question initiale... et je pense que ce n'est pas sans intérêt philosophique.
      L'exemple de la montre est intéressant, mais je crois justement que la profondeur logique de Bennett est le meilleur moyen de lui donner un sens précis.

  3. Benoit Répondre | Permalink

    Bonjour.
    Je ne suis qu’un vulgaire prof de maths en collège et grand admirateur de vos articles depuis des années mais alors là, il me semble que vous trahissez largement la fameuse maxime d’Aristote :
    Votre idée d’utiliser rechercher le « plus » sous la forme d’une mesure de complexité ou de contenu en information ou d’utiliser la profondeur logique de Bennett est inadaptée puisque le « plus » de la maxime signifie dans le sens commun « plus simple » ou « plus efficace ». Ainsi pour moi, vos tentatives 1 et 2 illustrent bien la maxime.
    Quant à la tentative sensée marcher, l’image B est obtenue à partie de A et C. Ainsi la seule chose que le sens commun en conclurait est : Complexité(B) = Complexité(A) + Complexité(C) + Complexité( ou-exclusif) + le temps de faire le boulot.

    • Jean-Paul Delahaye Répondre | Permalink

      On peut discuter à l'infini de la façon dont il faut comprendre Aristote. Je me proposais seulement de tenter d'en trouver un modèle mathématique prouvable et pas totalement absurde. L'idée de la profondeur logique (qui se veut une mesure de richesse en structures) ne me semble pas contredire l'interprétation la plus courante de la phrase d'Aristote. Mais bien sûr mon texte n'est qu'un jeu... mathématique.
      Je ne suis pas d'accord avec votre conclusion :
      Complexité(B) = Complexité(A) + Complexité(C) + Complexité( ou-exclusif) + le temps de faire le boulot.
      La partie gauche redonne bien la partie droite, mais pas l'inverse (de B on ne peut pas tirer A).

      • Jean-François Répondre | Permalink

        Bonjour à tous, bonjour Jean-Paul,
        Je suis également prof de math et également enthousiasmé par la lecture de vos articles sur la revue Pour la Science.
        Il me parait évident que mon collègue a raison dans l'idée "Complexité(B) = Complexité(A) + Complexité(C) + Complexité( ou-exclusif) + le temps de faire le boulot", mais en effet, admettre que B est obtenue à partir de A et C... c'est aussi admettre que A s'obtient à partir de B et C, ce qui donnerait, en parlant de complexité "c" :
        c(B) = c(A) + c(C) + c(ou-exclusif) + c(boulot)
        c(A) = c(B) + c(C) + c(ou-exclusif) + c(boulot),
        soit en additionnant les deux équations :
        c(C) + c(ou-exclusif) + c(boulot) = 0, ce qui est absurde !
        Ainsi, réfléchir à ce cas en termes d'additions de complexités me semble absurde... je pense plutôt qu'il est impossible de dire que [A et B sont deux parties du tout C].

        Une autre idée me venait, de la physique quantique, pour étayer Aristote (dont je ne suis pas du tout fan !) : n'est-il pas vrai que l'énergie nucléaire d'un noyau atomique est supérieure à la somme des énergies de chacune de ses particules ?

        Enfin, il n'est pas impossible que dans sa maxime, Aristote faisait référence à la société : une société humaine (ou autre) est plus que l'amoncellement de ses individus, elle est aussi faite des liens entre eux (tiens, comme dans un noyau atomique 😉

  4. nicolas P Répondre | Permalink

    Est-ce que la maxime de départ d'Aristote ne serait pas à prendre comme le résultat de Cantor, qui dit que "l'ensemble des parties d'un ensemble (fini ou non) a une cardinalité strictement supérieure à celle de l'ensemble de départ" ?
    Autrement dit que card(℘(E)) > card(E)

    • Jean-Paul Delahaye Répondre | Permalink

      En tout cas ce n'est pas ainsi qu'on l'interprète habituellement où "partie" en entendu comme "composant" dans un sens disjonctif.

  5. JLM Répondre | Permalink

    Un cas qui marche!
    Apparemment très efficace pour passer les barrières Google,Echelon,prism,etc,etc
    Soit dit en passant

  6. janpol Répondre | Permalink

    Bien sûr, bien sûr ! l'appréciation algorithmique d'une complexité dépend de l'ordre selon lequel s'enchainent les calculs. C'est le message que j'ai voulu transmettre. C'est aussi pour cela que nous devrions parler de "symplectique" plutôt que de "complexité" en définissant la "symplectique" comme la recherche du plus petit espace-temps nécessaire pour aboutir au résultat (on rejoint ici la fonction de Kolmogorov).
    Il faut alors distinguer entre une fonction "réelle" et une fonction "imaginaire" selon que le terme existe ou non.
    Tout est dans l'aboutissement.
    Mais, après tout, le "plus" d'Aristote n'est-il pas quantitatif ? Et ainsi, vouloir quantifier ce "plus" est-il une déviation numériste à tous prix ! Car, enfin, n'est-il pas préférable d'avoir une montre complète, plutôt que des pièces détachées ?

  7. JLM Répondre | Permalink

    Une façon comme une autre d'aborder la notion de Dieu Unique ou le monothéisme dans une civilisation polithéiste.
    A la recherche du supplément d'âme ?Physiquement ,celà peut être abordé différemment en tenant compte des nouvelles connaissances
    On peut aussi l'aborder de façon socialisante:
    Soit 5 personnes A,B,C,D,E que l'on peut prendre individuellement ou par binôme:
    A-lien-B ,par exemple
    Le tout étant:
    A+B+C+D+E+ la somme des liens
    Liens qui disparaissent lorsqu'on retourne aux individualités
    Physiquement ,c'est discutable,2 vecteurs -forces opposés et parallèles forment un couple,si les 2 forces se retrouvent sur une même droite,la résultante est nulle et le couple est nul.
    Politquement ,son application directe est :Diviser pour mieux règner.
    Aristote devait être démocrate.

  8. Septemtium Répondre | Permalink

    Je vois plutôt celà, d'un point de vue mathématique, comme des vecteurs.
    Le tout est formés par un certain nombre de vecteurs, dont la norme est égale à la somme des normes des parties, mais qu'à l'a différence prêt que le sens plus ordonné du tout donne une valeur supérieure à aux parties chacuns disjointes.

  9. Kaeso Répondre | Permalink

    Le facteur complexité est beaucoup trop mit en avant dans la démonstration car absent de l'énoncé de base. Le fait de l'en déduire est intéressant mais comme une partie seule du raisonnement et pas comme un tout.
    Aristote avait beau être un homme de sciences au caractère logique, la phrase a avant tout une portée philosophique. Je ne pense pas qu'elle puisse être retranscrite en de simples équations de façon exhaustive. On peut adapter cet exemple à la finance, au comportement humain, aux mathématiques et y trouver des exemples et des contres exemple.
    L'article est très intéressant à lire, de même que la démonstration, bravo!
    *******Je ne donne que mon avis, pas la vérité.

  10. François Répondre | Permalink

    Très intéressant mais, comme d'autres commentateurs, je ne suis pas d'accord sur le présupposé complexité => Bien. Aristote, il me semble, était un partisan de l'ordre et donc de la faible entropie et il aurait fallu considérer l'inverse de la complexité de Kolmogorov comme mesure du Bien, pour le quel ça marche trivialement.

    Le paradoxe, c'est que l'ordre absolu c'est le vide, c'est la mort. L'Europe, si elle n'est plus vraiment Aristotélicienne, c'est le moins qu'on puisse dire, a tout de fois hérité de cette logique de mort (la fameuse fin de l'histoire). Tout ce qui peut contribuer à faire réfléchir sur le sujet est donc salutaire et je vous remercie de cet article.

  11. Mathieu Répondre | Permalink

    Je partage comme vous l'énervement que provoque cette phrase sur la complexité du tout qui est plus que celle de ses parties, qui effectivement est présentée comme un principe scientifique établi alors qu'il ne semble y avoir aucune base théorique. Merci donc pour cette tentative. Ma lecture rapide est que l'équation présentée pourrait être réécrite :
    Complexité (A union B) = Complexité A + Complexité B + (Information sur la façon de combiner A et B).
    Ici cette information est selon moi le fait qu'il faille connaître la structure de A et B pour savoir qu'une opération XOR permet de fournir un objet C plus complexe.
    Cela me semble en fait assez simplement correspondre au principe de découpage en couches des systèmes complexes, empirique en ingénierie, informatique en particulier, et peut-être plus profond en réalité s'il l'on réalise des rapprochements entre architectures informatiques et architectures biologiques. Par exemple, à partir de composants simples, des transistors, on peut créer un composant plus complexe comme une unité de calcul ou une mémoire (registre) grâce à la connaissance que l'on a sur les propriétés de ces composants élémentaires et la façon de les agencer. On aurait alors :
    "Complexité Unité calcul = complexité transistor 1 + complexité transistor 2 + ... + complexité transistor n + information sur l'agencement à réaliser entre les n transistors".
    Cette information est la connaissance sur les propriétés physiques du transistor qui nous (humains) nous fait déduire qu'un agencement est possible pour réaliser un additionneur, ou un registre etc. Au "niveau" suivant, la connaissance sur les propriétés des nouveaux composants que sont les unités de calcul, les mémoires etc. et la façon de les assembler via une microarchitecture permet de définir une nouvelle couche qui est le langage machine et ainsi de suite jusqu'à un système complet...A chaque niveau, l'"émergence" d'une couche de niveau N+1 de complexité supérieure, ne serait pas un phénomène quasi-mystique rendant le terme exaspérant mais simplement l'augmentation de l'ordre (au sens physique) du système, traduit par l'information "injectée" pour organiser les composants élémentaires au niveau N.

  12. Adrien Répondre | Permalink

    hum tres simplement 1 homme + 1 femme = 1 couple ou 1 famille.
    1 joueur de foot + 1 joueur de foot .... = 1 equipe de foot ...

    Dans la vie ie au quotidien le tout et toujours plus que la somme des parties 🙂 ...

    • Mathieu Répondre | Permalink

      Hum .. c'est plein de "bon sens" en effet. C'est censé être un blog scientifique par contre, il s'agit d'argumenter. Très bon choix d'exemples par ailleurs.

    • jip Répondre | Permalink

      1 homme + 1 femme n'est pas nécessairement un couple.

      Napoléon n'est pas apparu par hasard. Il préexistait (au moins) dans notre conscience. Ce n'est pas un "plus" et on peut y mettre toute la complexité que l'on souhaite.

  13. psylo Répondre | Permalink

    Je pense que dans la maxime "le tout est plus que la somme de ses parties" on se retrouve face a une logique qui ne concerne pas directement les mathématique et d'une réalité simple que les maths ne peuvent formaliser qu'a travers un raisonnement très complexe ! Dans le cas d'un groupe social par exemple, prendre chaque partie et lui demander son avis sur un sujet conduira a certains résultats selon les méthodes développé en psychologie sociale (on pourra utiliser une méthode plus ou moins qualitative ou quantitative par exemple). Résultat différent de celui obtenu lorsqu'on réunit ce groupe et qu'on lui demande de donner un avis collégialement recueillit. Se mettra alors en place un certains nombre d'échange, de prise de position, de rapports de pouvoir, qui provoquerons alors une réponse véritablement groupale. Réponse très différente de la réponse des membre de ce groupe pris isolément et que le chercheur en science social aura peiné a synthétiser de façon pertinente selon des méthodes très diverse. Le tout est plus que la somme des partie permet donc de ne pas être dupe et de se rendre compte que l'étude du groupe ne peut être une addition d'analyses concernant plusieurs individus(même lorsqu'on utilise la sacro sainte méthode statistique). Et inversement, l'individuel ne peut pas être une analyse groupale fractionné et porté sur un éléments du groupe. En science humaine cela opère une véritable révolution dans le sens ou l'on est obligé de penser les rapport de singularité et de pluralité d'une façon complètement nouvelle(peut être sans la logique mathématique) !! Dans tout les cas la logique mathématique n'est pas une sorte de raisonnement duquel on peut emmètre des certitude, dédaignant alors tout autre forme logique(Schrödinger). Il faut être humble et admettre que parfois le système logique utilisé rend incompréhensible le fait observé. Que faut il interroger alors ? la théorie ou les faits ? La philo et les maths, deux sœurs qui se chamaillent 🙂

  14. zinki Répondre | Permalink

    je pensais que cette maxime provenait de la constatation que (a+b)² est plus important que a²+b² ^^ oui ce fameux double produit

  15. Sko Répondre | Permalink

    Alors moi je pense sincèrement que vous êtes entrés par la mauvaise porte dans une complexité hors contexte.
    N'étant pas prêt à démontrer cette Maxime mathématiquement, j'en propose donc une autre interprétation (même si l'exemple de Benett m'a laissé sans voix).
    La voie artistique dans la création de parfums semble prendre un sens quand dès lors que vous fassiez une composition d'huiles essentielles et de matières synthétiques, le résultat est plus beau et plus évocateur que la somme des émotions suscitées par chacune d'elles prises séparément.
    Aussi l'exemple de la création de bases de Schiff est bon, car en plus de créer un accord olfactif complexe, il délivre par l'association des deux MP une couleur bien spécifique.
    Dans ma lancée je rajoute un autre exemple, celui des mélanges pour augmenter le volume de phase gazeuse stationnaire et améliorer la diffusion des parfums. Un mélange éthanol 96°+parfum sera moins diffusif qu'un mélange éthanol 86°+parfum. En effet l'eau contenue dans le deuxième cas apporte un effet liftant qui aide à la suspension des molécules odorantes dans l'air. Ici donc le tout créé avec une masse molaire moindre est supérieur d'un point de vue sensoriel que la somme de ses parties, caractérisées par leur masse molaire. CQFD

  16. Epo Répondre | Permalink

    Haaaa les matheux...

    Pourquoi positionner la valeur toujours sur le même groupe? Le tout peut apporter une valeur, contenue dans un groupe disjoint, qui pourrait être fonctionnel.
    Ainsi la somme des parties d'un systeme "voiture" me permettent de rouler et ajoute une valeur fonctionnelle supplémentaire.

Publier un commentaire