Message caché

L'un des exercices de l'atelier d'écriture cette semaine [1] consistait à prendre un livre, un magazine, des mots croisés, n'importe quel truc avec beaucoup de texte, à surligner certains mots au hasard (ou du moins, guidé par ce que les connexions neuronales pensent être du hasard) et à jouer avec ces mots de manière à écrire un poème. 

Comme le but était de le partager ensuite avec les autres élèves, je me suis dit qu'il me fallait un écrit en anglais. J'ai donc pris le chapitre "OVERCOME Theorem, What is Peak Locus Theorem, Proven by Maxima" du livre "Evo-SETI" de Claudio Maccone [2] et j'ai produit ça : 

Answer should be symbolic. 

The analytical proof

Trivial book

Equations shape mass extinction. 

What?

Code was able to work!

Always keeps alive

Independent area

Imagine!

Overcome!

Flights to the moon!

Ça n'a aucun rapport avec le contenu du résumé. Il y est bien question de vol sur la Lune, mais juste pour présenter le logiciel Maxima développé par le MIT dans les années 60, entre autres pour vérifier les orbites des vols Apollo. [3]

Anoptikon

Comme ça m'a beaucoup amusée, j'ai pris un livre en Français qui parlait d'un sujet similaire (ou presque) : Anoptikon d'Olivier Auber [4]. J'ai surligné des mots au hasard, enfin pas vraiment. Si j'avais utilisé un ordinateur pour choisir à ma place, il y a peu de risque que le verbe "effondrer" apparaisse deux fois. 


Entropie 

Complexité du téléphone

Défaut d'énergie

Réseau vulnérable

Il s'effondrera ?

Nos interactions s'autodétruisent

Comment parvenir à l'écologie ? 

La question s'attache aux organes

S'effondrer ?

Il existe un code : N E G E N T R O P I E  


Ça ne veut absolument rien dire... Si un lycéen produisait ce poème de mots trouvés, le professeur de français lui mettrait 0/20 car ce n'est pas de la poésie, pas de rimes, pas de métrique. La professeur de science mettrait 0/20 car les connaissances sont très fragiles... 

L'entropie, c'est le désordre. Le second principe de la thermodynamique dit qu'elle ne fait qu'augmenter dans l'univers (ou dans mon appartement [5]). 

L'entropie existe aussi en informatique. Par exemple, si le texte d'Olivier Auber ou de Claudio Maccone est envoyé par onde radio à des extraterrestres, on peut s'inquiéter des pertes. S'il manque un mot, est-ce grave ? S'il en manque un sur deux est-ce qu'on peut tout de même reconstituer le message ? Quand je publie une image sur ce blog, je lui donne une taille raisonnable (640 pixels de large en général), donc je diminue les informations par rapport à ce qui a été pris par l'appareil photo. S'il n'y a que la Lune et des pixels noirs de la nuit, la perte d'information n'est pas énorme. C'est aussi parce qu'il n'y a pas beaucoup d'entropie dans ma photo (du noir, un rond jaune, des cratères un peu gris et surtout flous) . Mais s'il y avait plus de détails, il y aurait plus d'entropie, donc la compression sans perte d'information serait plus limitée. 

EVO-SETI

Le mathématicien Claude Shannon a développé une formule permettant de calculer cette entropie issue d'une source d'information donnée [6]. Claudio Maccone l'a appliquée à la distribution b-lognormale des civilisations, des espèces depuis 3,5 milliards d'années (voir les réflexions autour de la préface [7]).  

Si tel Macron qui lit toutes les publications scientifiques sur le SARS-Cov2, je me transforme d'un coup de baguette magique en mégalo qui lit toutes les publications des mathématiciens, ça peut dire que j'ai lu ça : 


Lire des mots, tout le monde peut le faire. Je peux même m'amuser à en sélectionner quelques uns (je diminue l'entropie), puis à les mélanger (j'augmente l'entropie) pour produire un autre poème de mots trouvés (ce jeu m'amuse beaucoup) : 

Earth

Zero

Life starts

Plant rewrite evolution

Entropy

Exponential disorganization

Family goals

Other result conceived

Decreasing Civilization

Negentropy

Origin

Zero

Earth


En terme d'information, ce qui distingue, la vie cellulaire apparue il y a 3,5 milliards d'années de l'espèce humaine, c'est le nombre de divisions. Les généticiens utilisent une hypothèse appelée horloge moléculaire pour mesurer le nombre de mutations d'une espèce à partir d'un ancêtre commun [9]. Plus il y a de mutations, plus l'espèce est évoluée, plus il y a de désordre, donc d'entropie (on voit assez bien la désorganisation de la France avec tous les variants du SARS-COV2). Le dragon en origami modulaire à partir du journal des Ulis [10] progresse doucement, mais rien qu'avec le corps et la queue, il y a une grande quantité de mutations par rapport au modèle [11]. 




En poursuivant ses calculs de l'entropie d'une fonction p correspondant à la loi b_lognormale, Claudio Maccone arrive à une droite, qui va de (-3,5 Milliards d'années; 0) pour l'ARN, à (0; 25,575) pour l'humain.  Est-ce qu'il y a des erreurs mathématiques dans sa démonstration ? A-t-il raison d'utiliser l'hypothèse de l'horloge moléculaire ? Ce n'est pas à moi (ni à Macron) de le dire. Je ne suis experte, ni en mathématique, ni en génétique. En tant que citoyenne, je peux juste faire confiance aux experts qui ont analysé le papier de Claudio Maccone avant d'accepter sa publication. Peut-être que demain, un autre scientifique publiera un article où il trouvera 30 ? Peut-être qu'Axel Khan ira sur les plateaux TV pour dire qu'on ne peut pas utiliser cette hypothèse dans ce cadre là ? Ce n'est pas parce que les scientifiques ne sont pas d'accord, que l'on ne sait rien. Est-ce que Frédérique Vidal, notre ministre de la recherche trouvera que cette publication est islamogauchiste parce que cela suppose que tous les humains ont évolué de la même manière ? On s'en fiche. 

Ce qui est intéressant, c'est que Claudio Maccone met ainsi un place une unité d'évolution Evo-SETI, correspondant à ce qui sépare l'humain de l'ARN. Il la baptise EE (Evoseti Evolution).  

EE = 1 sur Terre (correspondant à 25,575 bits de différence entre l'humain et l'ARN)

Sur une exoplanète où la vie a évolué, on pourra ainsi calculer le nombre de mutations séparant ce qui y vit (tournesols, poissons,  dauphins, singes, petits hommes verts ou gris) de l'ARN. Si EE est supérieur à 1, alors on aura à faire à des entités plus évoluées que les humains. 

Bifurquer

On peut aussi parler d'entropie ou de négentropie d'un point de vue philosophique, comme le fait Bernard Stiegler [12]. Son livre Bifurquer [13] attend toujours qu'il y ait un peu plus d'entropie dans mon cerveau pour être lu. Le 26 juin, toute information présente dans mon cerveau se résumait à 5 lettres : SONIA,  ça fait 101 en binaire, donc 3 bits suffisaient à coder mon univers.  Je ne me suis pas encore plongée dedans. Les EE m'intéressent plus, et n'ayant plus d'enfant, je suis égoïstement moins préoccupée par la négentropie et la fin de l'anthropocène.

A défaut de comprendre la portée philosophique des mots, je peux encore jouer avec...



Volcan, Soleil, Espace tendent vers l'entropie

Chaleur thermodynamique

Équilibre mécanique

Entropie organisée

Les échelles se contredisent, 

Différant à l'extérieur

Potentiels envisageables

L'entropie stipule la dispersion

Faible concentration

Comment distinguer ce qui est vivant ? 


  1. E. Piotelat, 10 mois, 04/2021
  2. C, Maccone, Evo-SETI, Life Evolution Statistics on Earth and Exoplanets, Springer, 2020
  3. Maxima, a Computer Algebra System
  4. O Auber, Anoptikon. Une exploration de l'internet invisible, 2019
  5. E. Piotelat, Entropie, 09/2020
  6. Entropie de Shannon, Wikipédia. 
  7. E. PIotelat, Evo-SETI - Préface, 04/2021
  8. O. Beaumont, «Il lit tout» : comment Macron épluche les études scientifiques sur le Covid-19, Le Parisien, 02/2021
  9. Horloge moléculaire, Wikipédia.
  10. E. Piotelat, Origami modulaire, 04/2021
  11. Dragon - Ying 3D Origami
  12. E. Piotelat, Suicide climatique, 08/2020
  13. B. Stiegler & collectif internation, Bifurquer, les liens qui libèrent, 2020

Commentaires