Commentaires : Vivons-nous dans une simulation ? Elon Musk a relancé le débat

réalitévirtuelle
science
elonmusk
Tags: #<Tag:0x00007f920ac230c8> #<Tag:0x00007f920ac22ee8> #<Tag:0x00007f920ac22c68>

#62

La thermodynamique a introduit la notion de l'entropie, la tendance vers la désorganisation, donc perte d'information. L'accumulation de cette dernière dans l'ADN n'est pas démontrable par l'application des lois de la physique de la même manière que la suite de tous nombres premiers n'est pas exprimable par une formule, mais doit être considéré cas par cas. La vie est un de ces cas non prévisibles par des lois physiques.

Il n'y a rien de métaphysique ni d’ésotérique dans la notion de volonté.
Même dans une amibe il y a bel et bien une volonté de préservation et de distribution du message génétique. Je n'ai jamais prétendu que la volonté pouvait influer sur la matière elle même (encore que, avec la bombe nucléaire et les accelerateurs..) mais sur son organisation , donc sur son entropie. L'ADN est tout de même le seul principe de réplication connu et jusqu'à aujourd'hui, à part quelques acides aminés sur les comètes, on n'en a trouvé de trace nulle part ailleurs.

L'erreur et l'imperfection, donc une incomplétude dans l'application des lois de la physique, est indispensable à l'évolution de la vie, même si les mutations favorisant la survie surgissent très très rarement.

Les délires métaphysiques de Gödel n'enlèvent rien à la pertinence de ses découvertes, comme les errements astrologiques et alchimiques de Newton n'enlèvent rien à la description de la réalité dans les Principia.


#63

Du grand n'importe quoi.
Portail science de Wikipédia, sélection de 5 sujets au hasard, passage au mixeur -> ton message.


#64

Il y a toujours que des dédaigneux sur numé, ça ne s’est pas arrangé


#65

Tu tiens vraiment à ce que j’argumente ?

On assimile en effet souvent l’entropie à la notion de désordre, mais il n’est pas question de perte d’information :
" Toute transformation d’un système thermodynamique s’effectue avec augmentation de l’entropie globale incluant l’entropie du système et du milieu extérieur. On dit alors qu’il y a création d’entropie."

Où est-il question d’information ?

Bien sur que si, l’ADN c’est de la chimie basique.
Une structure sucre-phosphate qui supporte de paire de bases azotées constituées de 4 types (adénine (A), cytosine ©, guanine (G) ou thymine (T)).
L’alternance de ces différentes bases permet de créer des séquences stockant de l’information.
Il n’y a pas de mystère, c’est de la chimie qui respecte les lois fondamentale de la physique.

Totalement sans rapport.
De plus, c’est faux, si l’on ne sait pas aujourd’hui réduire l’ensemble des nombres premiers à une unique formule, il existe des sous ensembles qui permettent de ne pas les traiter cas par cas.

C’est une propriété émergente 100% compatibles avec les lois de la physique.
Je te met au défi de démontrer le contraire.

Non, c’est de la chimie et du pur hasard.

L’entropie d’un système s’exprime en Joule/Kelvin.
Pas une seule trace de la volonté dans les formules permettant de calculer l’entropie.

C’est du pur délire.

Faux.
Le prion par exemple se multiplie à l’identique alors qu’il n’a ni ADN, ni ARN.

Les acides aminés sur les comète ne sont pas de l’ADN.
On en a pas trouvé ailleurs parce que l’on a pas encore pu chercher ailleurs.

On ne connaît pas système qui ne respecte pas les lois de la physique aujourd’hui.
Si tu en as découvert un, dépêche toi de publier tes travaux, ça intéresse énormément de monde.

Tu auras certainement le prix Nobel un de ces jours.

Gödel était mathématicien, pas physicien.


#66

Je te conseil vivement la lecture de l'article posté plus haut par Bayley et qui détail parfaitement l'explication de ce sur quoi tu fais erreur.

L'article est long et tres complet et explique en quoi parler d'energie et d'information quand on parle d'entropie est une erreur de meme que le discours lié a la vie. L'ordre deviens le chaos mais du chaos peut naitre l'ordre et ce dans d'autres exemples que la vie.

L'entropie n'est pas quelque chose qui va dans un seul sens, il y a des entropies positives et négatives.

Bref l'article le détail bien mieux que moi par un expert du domaine et il explique en quoi il est faux t'interpreter comme tu l'a fait. Ou au moins incorrect. (a noté qu'on est sur des notions pointu, faire une erreur ça arrive :stuck_out_tongue: )


#67

Tout à fait d'accord. Mais il faut le faire en utilisant un maximum de précaution, en se posant à chaque étape la question de la validité de la démarche et à être prêt arrêter dès que ça déraille. La démarche peut être tout à fait intéressante, mais il faut éviter le piège d'en tirer des conclusions hâtives. Ce n'est pas parce que le problème A ressemble au problème B que la solution de A est identique à la solution de B.

Déjà appliquer la mécanique des fluides au trafic routier est une démarche qui s'effectue avec d'infinies précautions, mais quand en plus les domaines n'ont rien à voir, c'est franchement casse-gueule.


#68

@Bayley

Je ne suis pas sûr d'avoir bien compris ce texte de Jean Zin et peut être que vous pourrez 'y aider, mais il me semble douteux sur sa rigueur scientifique.

Il cite ce passage de wikipedia qui me semble correct ("énergie" et "ordre" son bien entre guillemets) :

On pourrait ainsi comparer un être vivant à un réfrigérateur: ce dernier, tout en consommant de l'énergie de façon dissipative, retire de la chaleur d'une source froide pour la donner à une source plus chaude. De même, les êtres vivants consomment de l'énergie de façon dissipative, pour accroître leur «ordre» (structures dans le temps et l'espace, différences de potentiel, etc.) tout en rejetant de la matière et de l'énergie «désorganisées», et le système pris dans son ensemble voit son entropie augmenter.

Et vient le critiquer en introduisant la notion d'information qui n'a rien à foutre ici :

A cause du rôle qu'y joue l'information, la comparaison de la vie avec un réfrigérateur ou d'autres structures dissipatives n'est pas du tout pertinente.

Cette affirmation n'est pas argumentée et je ne vois pas pourquoi elle serait vraie.
D'un point de vue physique, frigo ou cellule vivante, ce sont les mêmes principes d'entropie.

Pas besoin d'intégrer l'information pour traiter de l'entropie de ces systèmes.

S'il a envie de les comparer du point de vue informationnel, la effectivement on tombe dans "l'anthropique". Mais le frigo n'a pas moins d'information que le vivant, cette information est contenue dans ces document de conception et sont système de thermostat. C'est pas différent de l'ADN.

C'est bien une interprétation de psychanalyste tout ça.
Je préfère m'en tenir à celles de vrais physiciens.


#69

Je n’ai pas tout compris non plus du texte de Jean Zin. Mais ce que j’en ai retenu, c’est qu’il conteste fortement l’application de la thermodynamique à la théorie de l’information.

Pour lui (et cela me semble pertinent), la thermodynamique s’occupe de systèmes matériels. Les notions d’entropie et d’énergie sont objectives. Des particules sont plus ou moins agitées, se frottent entre elles plus ou moins, dégagent plus ou moins de chaleur, c’est un fait. Peu importe l’observateur ou même l’absence d’observateur.

Alors que l’information est une notion purement subjective. Les documents de conception du frigo écrits en chinois apportent de l’information que parce les chinois y ont mis de l’information en chinois et qu’ils savent la lire. Alors que pour nous, ces documents n’apportent aucune information : c’est de l’hébreu :slight_smile: . Donc pour les chinois, ces documents modifient l’entropie du système alors que pour nous français, cela ne la modifie pas. D’où le problème.

Mon système est dans l’état 10111001110. Il passe à l’état 10111001111. Est-ce que c’est une information au sens “est-ce que cela a une signification” ? Ou est-ce que c’est juste du mouvement brownien ?


#70

Je suis d’accord à 100% avec toi;

En fait, je n’avais pas lu tout le texte de Jean Zin, et en particulier le paragraphe “information contraire de l’entropie”.

Je pense que cette phrase résume bien les choses :

“Il est important de souligner que l’information n’a pas d’effet en elle-même, qu’elle doit se transformer en travail pour lutter contre l’entropie, et donc dépenser de l’énergie, ce qui augmente forcément l’entropie mais sans aucun rapport avec le gain d’entropie, avec la valeur d’un travail qui peut être fait en pure perte ou tout changer.”

J’ai l’impression qu’il distingue “l’entropie” au sens général de “l’entropie thermodynamique” mais sans jamais exprimer de façon explicite les différences.
Pas facile de suivre.