Don : soutien financier
Flux RSS RSS (flux d'abonnement)

Stocker l’Univers

vendredi 29 novembre 2024

Parc, pelouse, tables de pique nique, arbres (grands pins) et soleil rasant.
 

27 novembre 2024

En procédant à quelques calculs, si l’on souhaite stocker la position et les caractéristiques de chaque particule située sur la planète (électron, proton, charge électrique, de tout corps animé ou inanimé, du cœur magmatique à la stratosphère, ...) en attribuant à chaque information un certain nombre de bits, 0 et 1 combinés, pour la définir, on peut arriver au résultat de 1039 Yottaoctets [1] (un 1 suivi de 39 zéros, ou encore 1000 milliards de milliards de milliards de milliards si je ne me trompe pas) ce qui est 8,33×1038 fois ce que nous avons déjà produit et stocké comme données dans les disques durs et mémoires flash de la planète, à l’heure actuelle. Ce qui ne tiendrait même pas sur la planète que l’on veut représenter. [2]

C’est démentiel et on se demande : et pour l’Univers ? Pour encoder chacune des 1082 particules qui, suppose-t-on, le composent ?

Il nous faudrait 1069 Yottaoctets cette fois-ci. On le visualisera en terme de volume de disques durs nécessaire, installés en armoires = 1070m3, ce qui dépasserait le volume de la sphère contenant le système solaire... de plusieurs milliards de milliards de fois ! Et dépasserait en réalité le volume de notre galaxie.

On est donc mal. Très loin de pouvoir se dire que notre Univers est une simulation, vu la difficulté de stocker l’information. Et je parle ici d’un état figé, à l’instant t, mais après quelques minutes de simulation, le volume nécessaire de matériel, même en pensant à de nouveaux supports un million de fois plus denses pour encoder l’information, dépasserait rapidement la taille de l’univers.

Cependant... Et si la donnée représentant la particule était la particule elle-même ? C’est-à-dire, si le système de stockage était optimisé au point d’être l’Univers qu’il représente, cela "marcherait", je crois. L’Univers pourrait alors être vu comme l’ordinateur qui se simule lui-même.

Ce "truc", où l’Univers est son propre système de stockage, où l’information est intrinsèque à la matière qu’elle encode, est une idée qu’on retrouve dans cette phrase de John Wheeler, physicien théoricien américain :

Je vois mon parcours en physique divisé en trois périodes. Dans la première période, j’ai d’abord adhéré à l’idée que tout était Particules. Ensuite, j’appelle ma deuxième période Tout est Champs. Maintenant, je suis plutôt dominé par cette nouvelle vision : Tout est Information.

On pourrait voir ainsi l’Univers comme une machine de Turing ultime, où les particules sont des bits d’information en transformation constante, où chaque action ou interaction chimique est un calcul, où chaque loi de la nature est un algorithme. Pas besoin de chercher une raison, un initiateur, un destinataire des résultats : L’Univers à chaque instant tel qu’il est, il est l’ensemble des paramètres de configuration et il est aussi le résultat du calcul. De plus, l’énergie nécessaire à produire ces calculs est présente sous la forme même des données que le calcul utilise. De ce fait, il me semble que l’Univers pourrait être auto-généré et qu’il n’existe pas d’information en dehors, il consomme et produit toute l’information.

En pensant à la mécanique quantique, je vois l’image d’une optimisation de l’information. Ce caractère superposé, non-décidé, du chat de Shrödinger qui est à la fois mort et vivant car la particule qui décide de son sort, tant qu’elle n’est pas observée, est dans un état quantique superposé, partout à la fois dans la limite d’une zone nuageuse électronique, ou positif et négatif à la fois, pour simplifier. Et seulement à la mesure en laboratoire, ou à l’observation, au contact dans la nature (on ouvre la boîte où le chat et le poison, ainsi que la particule qui sert à déclencher/ne pas déclencher l’empoisonnement, ont été placés [3]). Comme si le nombre de bits pour encoder l’information était "libre", dans cette indécision, ou plutôt contenant plus que ce qu’il peut contenir finalement quand est inscrit, seulement à l’observation, au besoin du monde externe, à sa rencontre, ce qu’il en est définitivement. Par exemple, dans un jeu vidéo, on ne calcule pas l’éclaboussure de la goutte d’eau à moins que la caméra soit suffisamment proche. De loin, la pluie tombe et seulement en me rapprochant je vais voir les ronds dans l’eau, les autres goutelettes être expulsées et la manière qu’elles ont de retomber. Je vois la même optimisation, car dans une particule non encore décidée qui occupe l’espace d’un nuage de probabilité, il y a plusieurs possibles stockés au même endroit. Cela ressemble fort à une allocation de ressources au moment du besoin, comme dans une simulation informatique... En mécanique quantique, c’est comme si l’Univers différait les détails jusqu’à ce qu’une interaction ou une mesure impose leur précision. Tout dépend de l’observateur (Rovelli).

On retrouve cette économie dans la nature, dans les structures des alvéoles des ruches, le chemin le plus court que finissent par trouver les fourmis, etc. Ce qui coûte le moins, ce qui dépense le moins, s’en sort le mieux, et persiste. C’est presque une loi de la nature, de l’Univers. On pourra y voir à la fois une optimisation de l’information comme une contrainte liée au coût de stockage, ou comme une économie naturelle. Quant à l’information qui est maximale avant l’observation et dépérit ensuite (de tous les possibles, on passe à un état fixe observé), cela est décrit par Shannon dans sa Théorie de l’Information, au sujet de l’entropie. La formule qu’il utilise pour décrire l’information transmise d’un émetteur à un récepteur, abîmée par le bruit, est la même que celle que celle découverte par Boltzmann en thermodynamique, qui décrit comment un système se refroidit par exemple, ou comment un système ordonné S devient désordre, d’après le nombre de ses états microscopiques ou combinatoires W.

S = k. log W

Avec une constante k qui permet de mettre en relation l’infiniment petit des particules et le monde macroscopique via la température [4].

Couverture de Simulacron 3
Illus. Peter Goodfellow

S’il semble improbable que notre Univers soit une simulation, par l’encombrement qui serait nécessaire, même en supposant une miniaturisation qui a forcément une limite physique, il reste d’une part l’argument du point de départ, des lois préexistantes ; et l’argument statistique. Le second est le suivant, et a besoin de faire abstraction de tout ce que nous venons de dire sur les aspects pratiques et volumétriques :

  • si une seule civilisation technologique arrive à la possibilité de simuler un Univers de manière si parfaite que des êtres qui y naîtraient n’auraient aucun moyen de prouver qu’ils vivent dans une simulation, alors cette civilisation lancera autant de simulations que possible pour tenter de reproduire un maximum de modèles, potentiellement des milliards et des milliards. Parmi tous ces milliards, si l’on ajoute l’Univers "réel" de départ, on obtient un nombre d’univers égale à des milliards + 1 : on voit qu’il est plus probable de faire partie des simulations que de faire partie de ce "1" [5].
  • les lois préexistent-elles aux particules ? Le fait qu’il existe une loi de la gravitation universelle qui fonctionne partout, sur les planètes, galaxies, objets, mais que ces objets n’ont pas toujours existé, ni même les atomes qui les composent, est troublant. Quand l’Univers était âgé de moins d’une seconde, les atomes n’existaient pas encore. Ils se sont formés à partir des protons, neutrons, électrons, qui eux-mêmes n’existaient pas quelques millisecondes plus tôt. Or, les lois qui régissent ces particules ont permis de les créer. Alors, viennent-elles des particules, ou est-ce l’inverse ? [6].

Peut-être suffisait-il de programmer un algorithme de départ, avec quelques règles simples (revoir le Jeu de la vie de Conway, et la Fourmi de Langton, en bas de cet article) et de laisser se développer le reste (Big-bang), dans un coin de l’Univers qui nous paraît immense, à nous qui sommes dedans.

Toutes ces idées ne sont que le fruit d’un état mental qui se demande dans quel monde on vit, quand on voit la montée des fascismes, la persistance des sophismes, le mensonge pur et simple, la haine, les budgets culture cou coupé, tous les budgets publics de toute façon. Se dire que si l’on vit dans une simulation a un aspect rassurant pour quelqu’un d’angoissé par nature, peut-être.

Notes

[1Petit rappel :
102 = 100
103 = 1000 = 1 Kilo
106 = un million = 1 Méga
109 = un milliard = 1 Giga
etc. Et 1 Yottaoctet = 1000 milliards de Teraoctets, qui font je le rappelle 1000 Gigaoctets.

[2J’ai pris arbitrairement 572 bits d’information par atome (composé de certains protons, neutrons, et chaque particule ayant une charge, un spin, et toute une complexité dynamique, etc.) Ce qui peut sembler beaucoup, deux ou dix fois trop, mais est en réalité peut-être deux ou dix fois insuffisant. Cela change le calcul, mais pas d’un ordre de grandeur tel que les questions qui suivent ne se poseraient plus, on reste dans la même idée.

[3Un chat est enfermé dans une boîte avec un flacon de gaz mortel et une source radioactive. Si un compteur Geiger détecte un certain seuil de radiations, le flacon est brisé et le chat meurt. Selon l’interprétation de Copenhague, le chat est à la fois vivant et mort. Pourtant, si nous ouvrons la boîte, nous pourrons observer que le chat est soit mort, soit vivant. https://fr.m.wikipedia.org/wiki/Chat_de_Schr%C3%B6dinger

[4Cette relation a été proposée par Ludwig Boltzmann vers les années 1870 alors que la notion d’états microscopiques était encore très spéculative (les atomes étaient encore mal connus). Il a été en butte à la moquerie des scientifiques de son époque ce qui l’a vraisemblablement conduit au suicide. Aujourd’hui il est considéré comme le père fondateur de la thermodynamique statistique. Sur sa tombe à Vienne est gravée sa formule à l’origine du concept de l’entropie.

[5On attribue cette démonstration à Nick Bostrom, dont je n’ai malheureusement rien lu d’autre, mais qui ne m’a pas l’air d’avoir la lumière à tous les étages puisqu’il est persuadé que l’IA va épargner du travail ! Comme si l’histoire des technologies ne montrait pas que la quantité de travail demeure, c’est le rendement qui augmente, et donc les profits, c’est-à-dire s’enfoncer encore plus dans la boue radioactive du capitalisme. Il dit par exemple : "Je pense que le but ultime [de l’usage et du développement des IA] doit être la disparition totale du travail. Ce que nous voulons faire, c’est remplacer le besoin pour les humains de travailler, pas seulement grâce à l’intelligence artificielle mais grâce à l’automatisation dans son ensemble – si nous avons inventé la charrue, c’est pour arrêter de nous briser le dos". Il n’a peut-être pas lui-même de lumbago, mais où voit-il que le mal de dos a disparu ?

[6Les quatre lois qui régissent notre Univers, ainsi qu’on les décrit aujourd’hui :

  • interaction forte (cohésion des noyaux atomiques)
  • interaction faible (responsable de radioactivité)
  • la gravitation (on connaît, la pomme, la lune autour de la Terre)
  • la force électromagnétique (phénomènes électriques, lumineux)

Partager cet article

Je crée du contenu sur le web depuis 2001. Ici, il n'y a pas de vidéo, mais comme tout créateur de contenu, j'accepte le soutien mensuel, ou ponctuel.

Rien à voir, mais vous pouvez faire trembler la page.