Emboîtements,
émergences et incertitude (2)
Depuis le Big-bang, l’univers suit la loi de l’entropie, et, classiquement,
comme on dit que l’entropie mesure la quantité de désordre d’un système, le
désordre s’accroîtrait. Mais posons-nous une question « simple » : que
veut-dire le mot « désordre » et comment pourrais-je être sûr que son niveau
s’accroît ? Est-ce que je peux mesurer dans l’absolu le désordre d’un système ?
Ou est-ce que je ne le fais pas plutôt au regard d’un ordre, ou d’un ensemble
de règles que je considère comme représentant ce qui est ordonné ?
En effet, le désordre ne peut
se penser qu’en opposition à un ordre. Il n’existe pas par lui-même. Donc son
niveau, non plus. Je ne peux donc pas dire que, dans l’absolu, le désordre d’un
système s’accroît. Ce n’est que par rapport à mon référentiel, explicite ou
implicite, qu’il s’accroît, en s’en écartant davantage.
Finalement le désordre est une affaire de point de vue, c’est un jugement
que l’on porte sur une situation, ce n’est pas une donnée intrinsèque. Combien
de fois n’avez-vous pas dit en voyant le bureau d’un collègue de bureau ou d’un
de vos enfants : « Mais quel désordre ! Comment fais-tu pour retrouver quelque
chose là-dedans ? ». Mais pour ce collègue ou cet enfant, le bureau n’est pas
en désordre, et il sait très bien où se trouver chaque chose. Simplement son
ordre n’est pas le vôtre. Peut-être que pour vous, ordre veut dire alignement
et tas bien structurés, alors que pour lui, c’est une affaire de couleur et de
proximité…
Revenons donc à l’entropie, et posons-nous la question suivante :
qu’entendons-nous quand nous disons que le désordre s’accroît ? Puisque tout le
monde l’affirme, et que tous les scientifiques sont d’accord sur le sens qu’il
donne à cet accroissement, cela signifie donc qu’ils ont un référentiel, et que
ce référentiel est commun. Sinon, pour les uns, le désordre s’accroîtrait, et
pour d’autres pas.
Donc ce que l’on entend par « le désordre s’accroît », c’est que le
système s’écarte davantage d’un même ensemble de règles, du même ordre.
Quel est cet ordre ? Je crois que cet ordre implicite est la
prévisibilité des trajectoires individuelles de ce qui compose le système.
Reprenons en effet la définition de l’entropie issue de la physique
statistique : l’entropie d’un système est fonction du nombre de
configurations microscopiques que peuvent prendre les particules qui le
composent, et, plus exactement, varie homothétiquement suivant le logarithme de
ce nombre. Une configuration est à la fois une façon de placer les particules,
et de leur distribuer l’énergie interne.
Donc, si l’entropie est nulle, cela signifie qu’il n’y a qu’une seule configuration,
c’est-à-dire que toutes les particules ne peuvent être placées que d’une façon,
et qu’il n’y a aussi qu’une façon de répartir l’énergie. On connaît alors exactement
comment se trouvent les particules : aucune incertitude. Maintenant si
l’entropie s’élève, le nombre de ces configurations s’accroît. Or, plus le
nombre de configurations, c’est-à-dire d’états possibles, est grand, plus il
est difficile de connaître l’état exact du système, et plus il est incertain et
imprévisible.
Ainsi l’entropie ne varie pas en fonction du désordre, notion subjective
et pour laquelle on manque d’un mètre étalon, mais en fonction de la
prévisibilité. La loi de l’entropie pour un système isolé peut être reformulé
comme suit : tout système isolé évolue spontanément en augmentant le nombre de
ses possibles et devient d’instant en instant moins prévisible.
Or, l’univers dans sa totalité constitue par construction un système isolé,
car, puisque il est considéré dans sa totalité, c’est-à-dire tel qu’il était au
moment du big-bang, il ne peut rien exister en dehors de lui.
Aussi, l’Univers est, depuis le big-bang, de moins en moins prévisible,
et accroît continûment le champ de ses possibles.
(à suivre)
Aucun commentaire:
Enregistrer un commentaire