Archives et Dossiers Secrets

Devenez rédacteurs et soyez édités sur les secrets d'état, d'histoire et de géopolique

Vous n'êtes pas identifié.

Annonce

Archives et Dossiers Secrets c'est terminé. Le blog est en "lecture seule", témoignage de l'excellence de cette expérience. Toute l'équipe d'ADS remercie la Rédaction de la maison d'Edition Export Press et l'animateur radio Jean Claude Carton pour leur soutien sans faille. Nous vous invitons à éteindre vos télés, allumez vos cerveaux et prenez désormais vos informations sur CONTRE INFO.COM

MERCI ...

aux administrateurs et modérateurs : Carthoris, House, Hieronymus, Tobeor, Keats, Pégase, Meryl, Ressac, Organik, Neo Trouvetout et Jean Luc... aux rédacteurs : John Lloyds, Infomystères, Monsieur Mondialisation, Sylv1, Pégase, Hieronymus, Stefnou, Pierre Valcourt et Nolan Romy... aux membres : Apollo, Bob Rekin, Boris, Cosmos, Crystelle, Dread, Eddymdf, Fredolenray, Garf, GrandPas, Herveboy, Jay-k, Jean Claude Carton, Max, Marius, l’Hermite, Mike7917, Michel Thys, Nanouche, Non666, Phantom, Raphaël Charles, Psd503, Saint Just, Sopalin, Succube, Thx428, Tissou, Vitriol/Patrick Burensteinas, Voyageur, Adidier, Arckangel, Aries, Asse42, Logos, Nostalgeek, Rigel, Sergueï... et aux 32 sites partenaires qui nous référencent.
On évoque parfois le livre à emporter sur une île déserte... en réalité la question qu'il faudrait se poser est : " Et si je ne devais en lire qu'un ? "COMPRENDRE L'EMPIRE" d'Alain Soral est la synthèse de tout ce que l'on peut retenir de ce triste siècle... car pour savoir il faut déjà comprendre, et une fois compris c'est un devoir de faire savoir.

#1  26 Aug 2010 09:04:00

Crystelle
Missionnaire
Date d'inscription: 18 Jun 2010
Messages: 370

Les frères Bogdanov

LES FRERES BOGDANOV
Au fur et à mesure de la lecture de l'article, je suis tombée sur trois autres, et de m'apercevoir ainsi qu'entre Rue 89 et les Frères Bogdanov, ceci devenait un véritable règlement de compte !

Premier Article est celui ci.

Les frères Bogdanov exagèrent le succès de leur dernier livre

http://i33.tinypic.com/1si3yv.jpg



Les frères Bogdanov aiment contrôler et manipuler leur image. Ils s'attaquent aujourd'hui à l'esthétique des ventes de leur livre, « Le Visage de Dieu », dont ils enflent spectaculairement les chiffres.

"La Visage de Dieu" (éd. Grasset).Dans Le Journal du dimanche du 22 août,  http://i34.tinypic.com/1zx0aqb.jpg

après avoir insulté un contributeur de Rue89, Igor et Grichka Bogdanov annoncent fièrement les chiffres de vente de cet ouvrage :

    « Il est numéro un, d'ores et déjà vendu à 200 000 exemplaires et en cours de traduction dans vingt pays. […] Nous en sommes très fiers. »

Il y a de quoi. Surtout si l'on croit Grichka Bogdanov, lorsqu'il déclare le lendemain, dans Le Parisien :

    « On vient de dépasser les 250 000 ventes et on est en route pour les 300 000. »

50 000 ventes en une nuit, dans un monde de l'édition en pleine crise, ça force le respect. Seulement, on observe un écart considérable entre ces chiffres et ceux annoncés par les éditions Grasset et les services de statistiques.
68 000 exemplaires vendus, selon l'Ipsos

Edistat, service d'information et de statistiques pour l'édition, estime -à l'aide d'un panel de 1 200 magasins situés en France métropolitaine- à 71 512 le nombre d'exemplaires du livre vendus depuis sa parution en mai. Le site de statistiques ne prend cependant pas en compte les ventes via Internet. L'écart sensible entre les chiffres annoncés par Igor et Grichka Bogdanov et ceux d'Edistat, pourrait donc être logiquement attribué aux sites de vente en ligne.

Pas si l'on en croit l'Ipsos, qui prend en compte ces sites dans son panel de 2 700 points de vente. Selon l'institut de sondages, les frères Bogdanov auraient ainsi vendu 68 000 exemplaires de leur essai, en ligne comme en librairie. Même si le nombre de ventes n'est pas aussi élevé que celui affiché par les deux frères, toujours en soif de notoriété, il reste très honorable pour ce type d'ouvrage.
« Les journalistes enflent souvent les ventes »

Les éditions Grasset, qui publient « Le Visage de Dieu », déclarent quant à elles « 130 000 exemplaires », un chiffre qui correspond au nombre d'exemplaires commandés par les librairies, et non au nombre de ventes effectives en caisse.

À défaut de trouver une explication aux allégations des auteurs, le service presse de Grasset nous répond :

    « Ce sont les journalistes qui ont dû dire ça. Ils enflent souvent les ventes. »

Dimanche, dans leur interview au JDD, les deux frères se préoccupent des dangers d'Internet :

    « Il faut faire attention à ce qu'on lit sur Internet, où beaucoup de frustrés et de semi-décérébrés se déversent. »

Igor et Grishka Bogdanov disent vouloir modifier leur page Wikipédia, car, selon les deux frères « elle dit n'importe quoi ». Aujourd'hui, c'est donc aussi des journalistes qu'il faudrait se méfier.

Photo : les frères Bogdanov avec le professeur Lubos Motl au salon du Livre 2008 (Audrey Cerdan/Rue89)
Rue 89

Qui a débouché sur le précédent

Les frères Bogdanov insultent un blogueur de Rue89

Dans une interview au Journal du Dimanche, les frères Bodganov dénoncent Internet en général et un article de Rue89 en particulier, « signé par un débile mental ».

« Il faut faire attention à ce qu'on lit sur Internet, où beaucoup de frustrés et de semi-décérébrés se déversent. A notre sujet, Rue89 a publié un article signé par un débile mental. »

Ils ajoutent qu'ils « vont rectifier » leur fiche Wikipédia car, selon eux, elle « dit n'importe quoi ».

On l'aura compris, l'article de Rue89, signé par notre ami le journaliste scientifique chevronné Pierre Vandeginste, n'est pas très tendre à leur égard. La sortie insultante des deux animateurs nous permet de redonner un peu de publicité à ce billet au vitriol, très apprécié de nos lecteurs, et titré « La science fictive des Bogdanov ». Bonne lecture !

Photo : les frères Bogdanov (Wikimedia Commons)

Rue89

Et qui a débouché sur un autre

Polemique
La science fictive des Bogdanov

Une « nouvelle émission scientifique », qu'ils disaient. J'ai regardé ce premier « Science X », http://i35.tinypic.com/352446d.gif
stoïquement, de la première à la dernière minute. J'ai vu beaucoup de science-fiction, et de la plus éculée. Et de la prospective de comptoir à grand coups de « Demain, ma brave dame, sûrement que… »

Par exemple, « on vivra 150 ans », l'une des éternelles fixettes des faux jumeaux. Et encore un reportage comme si on y était sur l'exoplanète Gliese 581 d, située à 20 années-lumière d'ici. On ne sait pratiquement rien sur elle… Mais combien de téléspectateurs auront compris que ces images étaient pure fiction ?

Bref, du facile, de la grosse ficelle. Contenu scientifique proche du zéro absolu, coupables approximations à tous les étages, le tout emballé dans du papier chocolat pour faire demain, servi sur un plateau mégalo peuplé d'un carnaval emprunté à « Star Wars ». En plus toc.

Et les deux grotesques, au milieu de tout ça, toujours aussi robots dans leur gestuelle figée, toujours aussi pipeau dans leurs effets de manche à deux balles. Et toujours dans leur combinaison spatiale de mardi gras. Du « Temps X » après la lettre.

Bien sûr, si France 2 a choisi Igor et Grichka Bogdanov pour créer cette « nouvelle émission scientifique », cela n'a rien à voir avec le fait que, comme le signalent les intéressés sur Pure People, ils travaillent depuis 2001, pour l'illustration sonore, avec un certain Pierre Sarkozy, fils de Nicolas. Sûrement que ça s'est trouvé comme ça…

En fait, la direction de la chaîne a dû penser à eux en voyant leur prestation sur TF1, en mars dernier, dans le « Qui veut gagner des millions ? » spécial Sidaction. Ils ont plafonné à 1500€, en se vautrant sur une question un peu trop scientifique pour eux ! Le basilic vert, un lézard d'Amérique centrale qui marche sur l'eau, ça ne leur disait rien…

Pourtant Grichka prétendit ensuite en avoir vu à Fontainebleau… Du délire ! Auparavant, ils avaient pataugé dans le principe d'Archimède, se demandant si la poussée de bas en haut est égale à une ou deux fois le « poids du volume d'eau déplacé ». Grandiose !

Ou alors, France 2 a pu estimer que pour une telle émission, il fallait au moins des professeurs d'université. Or il est temps que cela se sache, les Bogdanov sont tous deux professeurs à l'Université de Bourgogne ! Trop modestes, les intéressés ne le crient pas sur les toits, mais on peut découvrir cette information sur le site de l'Université Megatrend (copie d'écran) de Belgrade (Serbie), où les frères seraient également professeurs. Notez que tous les « professeurs étrangers » de cette liste sont d'abord professeurs ailleurs. Il fallait donc logiquement que les Bogdanov exhibent une chaire en France pour s'y retrouver.

Mais bizarrement, ils ne se sont jamais vanté d'enseigner à l'Université de Bourgogne, celle là-même où ils ont obtenu leur fabuleuse thèse (dont nous avons déjà parlé ici). D'ailleurs, l'Université de Bourgogne elle-même n'est pas au courant : sur son annuaire, pas de trace du moindre Bogdanov.

Diantre, est-ce que cette information serait… prématurée ? Comme l'était déjà l'annonce de leur titre de docteur sur la quatrième de couverture de leur livre (« Dieu et la science ») publié en 1991, soit onze et huit ans, respectivement, avant la soutenance de la thèse d'Igor et de celle de Grichka. Une erreur de l'éditeur, avaient bredouillé les faux docteurs.

Pourtant, six ans plus tôt, déjà, en 1985, les mêmes se donnaient du « docteur en astrophysique » dans une interview à Paris Match. Sans doute le journaliste avait-il entendu des voix. Décidément, ces deux-là n'ont vraiment pas de bol.

« On » ne cesse de leur attribuer des diplômes qu'ils n'ont pas, et après on s'étonne qu'ils aient la grosse tête ! A ce propos, il est très désobligeant de supposer, comme je le lis un peu partout, que les proéminences des Bogdanov relèveraient de la chirurgie esthétique. Pourquoi auraient-ils fait une chose pareille ? Rien que pour passer plus souvent sur les plateaux de télé les plus distingués, comme ceux de Cauet ou de Ruquier ? Grotesque.

Il y a des explications plus simples. Ils auraient pu, par exemple, forcer un peu sur l'hormone de croissance. Suite à des études largement contestées depuis, deux catégories de fondus faisaient joujou avec, dans les années 1990 : les adeptes de la gonflette et les accros à l'éternelle jeunesse. Or l'abus de cette hormone provoque une croissance exagérée de certains os, à commencer par ceux de la mâchoire inférieure. Voilà pourquoi tant de sportifs et bodybuildés arboraient à une époque des mandibules surdimensionnées.

Est-ce que les Bogdanov, tout à leur désir impérieux d'atteindre les 150 ans, auraient dépassé la dose prescrite ? Après tout, c'est leur droit le plus strict de prêter leur corps à la science…

Rue 89

Dernière modification par Crystelle (26 Aug 2010 10:18:49)


Partageons, partageons les découvertes et les connaissances. Mettons nous à la place de ceux qui cherchent. Ne laissons personne dans l'ignorance.

Hors ligne

 

#2  26 Aug 2010 10:01:03

Néo Trouvetout
Modérateur
Date d'inscription: 17 Aug 2010
Messages: 110

Re: Les frères Bogdanov

Existait-il quelque chose avant le big bang ? Telle est la question que se sont posée Igor et Grichka Bogdanov. Pour la première fois, un des plus brillants théoriciens de la physique moderne, le Pr Lubos Motl, analyse et confirme leurs travaux. En 2002, les frères Bogdanov déclenchent une tempête dans le monde scientifique en publiant six articles sur l’origine de l’Univers.

Contestée par une partie des scientifiques, la thèse des frères Bogdanov d’un «instant zéro» avant le big bang est confortée par un physicien réputé. Signé Lubos Motl, jeune physicien théoricien d’origine tchèque ancien professeur à Harvard.

L’équation Bogdanov porte à la fois sur la question de l’origine de l’univers et sur la thèse d’Igor et Grichka Bogdanov selon laquelle, avant le big bang, derrière le mur de Planck considéré comme infranchissable par la plupart des physiciens, il y aurait ce qu’ils appellent l’instant zéro. Là où notre réalité n’a plus cours, où plus rien de ce que nous connaissons est mesurable, bref où l’espace et le temps perdent toute signification. Et c’est ce «code mathématique» qui serait à l’origine de l’univers tout entier.

Plus on regarde loin dans l’univers, plus on regarde loin dans le passé. Lorsque vous regardez la lune, vous la voyez comme elle était il y a une seconde puisque sa lumière met une seconde pour nous parvenir.

De même pour le soleil, les étoiles, etc. Si je vais jusqu’au bout de notre galaxie, un immense nuage d’étoiles appelé Voie lactée et peuplé d’environ deux cent cinquante milliards de soleils plus ou moins semblables au nôtre, et si je fais un signal, vous ne l’apercevrez que dans cent mille ans à peu près. Or un satellite a photographié pendant assez longtemps l’univers à quelques millions de kilomètres d’ici. Des photons, grains de lumière venus du fond de l’espace, ont apporté une image, celle de l’univers tel qu’il était il y a presque quatorze milliards d’années. Soit trois cent mille ans à peine après le big bang. Cette image montre des traces de couleurs, du vert, du bleu, qui sont les ancêtres lointains de nos constellations, galaxies et étoiles. Grâce à elle, les astrophysiciens ont pu reconstituer l’histoire de l’univers de manière très fidèle.

À cette époque, l’univers ne contient aucune planète, aucune étoile, seulement un gaz d’hydrogène qui présente à sa surface des fluctuations de température et d’énergie. Et c’est à partir de ces fluctuations que vont se constituer des galaxies et, plus tard, des étoiles de première génération, qui exploseront pour donner naissance à des étoiles de deuxième génération.

Le big bang s’il a eu lieu, a néanmoins laissé des traces. Voici deux exemples. Les points qui scintillent sur un écran de télévision que l’on appelle la neige sont des grains de lumière. Environ 10% d’entre eux proviennent du fond de l’univers, du flash lumineux provoqué par le big bang. Autre exemple. La formule de l’eau, c’est H20 où le H représente l’hydrogène. Or l’hydrogène que contient l’univers tout entier a été fabriqué pendant la première minute après le big bang. C’est une question de température. Celle nécessaire à fabriquer les noyaux constituants l’hydrogène doit être extrêmement élevée et n’a existé qu’à ce moment-là.

La théorie d’Igor et Grichka tendrait à dépasser ce qu’on appelle le “mur de Planck” sur laquelle a buté jusqu’à ce jour la plupart des scientifiques.

La longueur de Planck est une notion de physique. C’est l’ultime fragment de matière en dessous duquel on ne peut pas descendre. Au-delà, la physique s’arrête, c’est autre chose. Rapportée à l’univers, c’est la longueur de l’univers au moment où il commence. L’univers est en constante expansion, il grandit à chaque seconde. Si on rembobine ce film, il va rétrécir et, à mesure que l’on remonte dans le passé, il va devenir de plus en plus petit. Jusqu’à sa limite, au-delà même de la particule élémentaire, qui est celle de Planck. C’est là que commence le big bang. Toute la question est de savoir ce qu’il y avait avant

Selon Igor et Grichka avant le supposé Big Bang, il y a du “temps imaginaire”, de “l’information” qu’on pourrait représenter par un code cosmologique qui se transforme en énergie puis en matière au moment où il franchit le mur de Planck.


http://www.neotrouve.com/?p=4


@ Crystelle
je suis assez d'accord avec vous

leur "erreur" serait peut être d'avoir essayé de vulgariser au grand public inculte :

ETAT TOPOLOGIQUE DE L’ESPACE-TEMPS A L’ECHELLE ZERO
http://psychosmose.free.fr/files/physiq … danoff.pdf

quand aux inexactitudes elles existent dans tous les travaux et à ce niveau tout peut être réfuté. C'est juste que les projcteurs sont braqués sur eux...

Des théories qui me rappellent celles de l'HYPERSCIENCE de Franck HATEM, que j'affectionnent bien depuis un moment.
http://philosophie.pagesperso-orange.fr/temps.htm


@+
NT


Hors ligne

 

#3  26 Aug 2010 10:15:03

Crystelle
Missionnaire
Date d'inscription: 18 Jun 2010
Messages: 370

Re: Les frères Bogdanov

Bonjour à vous Néo trouve tout ; et bien que de connaissance bravo ! Moi je ne conteste rien du tout, car là dedans, je vous avoue ne pas être une très grande spécialiste. Mais il est vrai que ça fait un petit bout de temps, voire des années et des années que l'on s'acharne sur les frères Bogdanov et ceci relèverait plutôt d'une sorte de jalousie à leur égard,  et oui cher Néo trouve tout ; voyez, il vaut mieux que la science reste terne et ennuyeuse, au risque que si elle devenait plus attractive comme les frères Bogdanov essayent de la rendre  plus attractive depuis des années et des années, elle risquerait d'être accessible et compréhensible par tous et par tout le monde. Et ça, c'est terriblement vexant pour les scientifiques avec un ego sur dimensionné  de se retrouver soudainement au même niveau  que des individus lambdas ! C’est comme la musique classique, elle doit rester terne et ennuyeuse, pour donner l’impression qu’il y a une catégorie d’individu qui l’a comprenne et d’autres qui sembleraient tellement inculte qui ne la comprennent pas !  C’est comme ce musicien je crois d’origine norvégien ou suédois, qui avait joué dans un stade cette fameuse musique classique, celle qui avait été reprise dans une pub ! Mon dieu ! Sacrilège que n’avait-il pas commis ! Tout une horde de musicien l’ont traité de musicien de bas étages etc… car cher Néo Trouve tout, il avait tout simplement voulu rendre accessible une des plus belle musique classique à un publique qui n’avait pas forcément l’habitude et le temps d’écouter la musique classique !


C’est un peu ça la France, c’est de faire semblant de vous faire croire que tout parait si difficile, qu’il nous, ou vous, est tout simplement impossible à nous pauvres gens lambdas, de comprendre  tout ce qui se passe autour de nous, mais au fait ! J’y pense tout d’un coup, c’est pas ce qui s’appelle essayer de garder le contrôle sur l’individu !!!!  Mais là, je crois que je m'égare.


Partageons, partageons les découvertes et les connaissances. Mettons nous à la place de ceux qui cherchent. Ne laissons personne dans l'ignorance.

Hors ligne

 

#4  24 Oct 2010 12:44:22

Crystelle
Missionnaire
Date d'inscription: 18 Jun 2010
Messages: 370

Re: Les frères Bogdanov

Qui en veut aux Frères Bogdanov

Emission du samedi 23 octobre on n'est pas couché

Dernière modification par Crystelle (24 Oct 2010 12:46:43)


Partageons, partageons les découvertes et les connaissances. Mettons nous à la place de ceux qui cherchent. Ne laissons personne dans l'ignorance.

Hors ligne

 

#5  24 Oct 2010 12:56:26

House
Administrateur
Date d'inscription: 12 May 2010
Messages: 1042
Site web

Re: Les frères Bogdanov

Le dernier livre des frères Bogdanov, intitulé Le Visage de Dieu, a battu des records de vente cet été en librairie. Aux yeux du CNRS, les théories abordées dans cet ouvrage n'auraient pourtant rien de scientifiques.

C'est vendredi 15 octobre, dans les pages de l’hebdomadaire Marianne, que sont apparus des extraits d’un rapport du CNRS. Remontant à 2003, ce dernier s’est penché sur les thèses de doctorats présentées en 1999 et 2002 par Igor et Grichka Bogdanov. D’après le-dit rapport, les thèses étayées par les deux frères n’ont aucune valeur scientifique.

Les deux hommes dénoncent ce jugement, et n'hésitent pas à évoquer la théorie du complot. Lors d’une interview accordée au Parisien, les jumeaux Bogdanov l’ont d’ailleurs affirmé : "On découvre ainsi qu’il existe dans les couloirs obscurs du CNRS une sorte de "Stasi" scientifique, faite d’agents secrets destinés à abattre tel ou tel chercheur [...] "

Les deux frères ont déclaré qu’après avoir déjà été assimilés à des créationnistes, ils faisaient une nouvelle fois les frais d'accusations lancées afin de les discréditer en raison de leur succès.

Source

Dans Marianne, ils donnent le rapport du CNRS




Les frères Bogdanoff dénoncent la jalousie des scientifiques

Discrédités par un rapport du CNRS cité par le magazine Marianne (voir notre article), les très médiatisés frères Bogdanoff tentent de se défendre. Évoquant la jalousie des autres scientifiques, ils assurent que les conclusions du Comité national de la recherche scientifique  sont en réalité celles "d'individus isolés".



Suite




Extrait des commentaires sur sciences.blogs.liberation.fr:



Invité du Grand Journal sur Canal+ mercredi soir, Grichka Bogdanov a déclaré à propos du rapport du CNRS.
[Le rapport] dit : « Grichka Bogdanov a écrit une énormité page 17 de la thèse ». Or quand vous vous reportez à la page 17 de la thèse, du chapitre 1, normalement, vous vous retrouvez dans le chapitre 3, c’est-à-dire dans quelque chose qui n’a rien à voir. Donc à mon avis le rapport a été fait de façon tellement lointaine, de façon tellement peu sérieuse, qu’effectivement on n’y retrouvera pas l’image de ma thèse.

Le lecteur peut vérifier que la page 17 de la thèse de Grichka Bogdanov, qui est en ligne (http://tel.archives-ouvertes.fr/docs/00 … 001502.pdf), se trouve bien dans le chapitre 1 de celle-ci, contrairement à ce qu’a dit Grichka Bogdanov sur Canal+. Cette page, la 17e du document .pdf de la thèse, est numérotée 3 par l’auteur de la thèse (qui utilise une numérotation indépendante pour la partie introductive de son manuscrit). Sur cette page on trouve bien, comme il est écrit dans le rapport du CNRS, l’énormité suivante :

Note : SO(2, 2) n’a pas de représentation matricielle, ce qui supprime la notion usuelle d’état quantique.

Peu importe la numérotation des pages finalement (page 17 du fichier .pdf de la thèse, page 3 d’après la numérotation de l’auteur), Grichka Bogdanov affirme bien dans sa thèse que le groupe SO(2,2) n’admet pas de représentation matricielle. Et c’est énorme!!!

Flash non détécté


"Pour le sceptique, le doute est une fin; pour l’esprit méthodique, le doute est un moyen."

Hors ligne

 

#6  12 May 2011 20:20:32

adidier24
Novice
Lieu: BELGIQUE
Date d'inscription: 11 May 2011
Messages: 14

Re: Les frères Bogdanov

J'ai le livre "le visage de dieu" et ai repéré moi-même des erreurs alors imaginez l'analyse d'un vrais scientifique:
http://sciences.blogs.liberation.fr/hom … C3%A9.html
Relevé d’erreurs


Chapitre 1

•p. 53, dès le deuxième paragraphe, se trouve une erreur de conversion d’unités. En convertissant en secondes l’âge de l’univers exprimé en années (ou ici en siècles), les auteurs se trompent. Une année correspondant à environ 30 millions de secondes, les 13,7 milliards d’années (ou 137 millions de siècles, selon leur terminologie atypique peut-être inspirée du d’un discours du pape Pie XII auxquels ils font référence) devraient correspondre à environ 400 ou 500 millions de milliards de secondes. Les auteurs parlent ici de 100 millions de milliards de secondes, soit entre 4 et 5 fois moins que le chiffre exact (la même erreur se répète plus tard, p. 159). Ces erreurs numériques sont tellement nombreuses qu’il est quasiment impossible de les recenser toutes. Seulement certaines seront mentionnées dans cette liste.

•p. 53 encore, le terme « ligne d’univers » est introduit, mais assez difficilement compréhensible pour le non initié. En particulier, le concept de ligne d’univers ne vaut que pour un objet ponctuel, ou en tout cas dont on néglige l’extension spatiale. Ici les auteurs finissent par prétendre l’« appliquer » à l’Univers dans son ensemble. On devine le sens de ce que veulent dire les auteurs : ils proposent juste de remonter dans le temps (ce qu’ils disent plus ou moins). Mais la notion de ligne d’univers n’est certainement pas maîtrisée. Petit indice laissant soupçonner qu’il en serait ainsi : les auteurs introduisent le terme en le mettant entre guillemets, une procédure qui en général, que ce soit dans leurs manuscrits de thèse ou ailleurs, est signe que les auteurs ne prétendent pas utiliser un terme scientifique de façon rigoureuse, donnant l’impression persistante d’un jargon plus fait pour impressionner la galerie que pour discuter sérieusement de science (en l’occurrence, il est totalement inutile de parler de ligne d’univers pour indiquer que l’on va simplement s’essayer à décrire ce que l’on verrait si l’on remontait le temps).

•p. 54, c’est le terme d’ « infosphère » qui est introduit sans être défini. L’infosphère, pour autant que l’on essaie de suivre le propos des auteurs, représente une sorte de quantité d’information, dont les auteurs distinguent une composante « naturelle » et une composante « humaine ». La raison de ce distinguo n’est pas claire (en plus d’être inutile pour leur propos), pas plus que la façon dont on quantifie l’une comme l’autre. En fait, tout porte à croire que les auteurs n’en ont pas d’idée précise. En particulier, à aucun moment ils ne précisent comment est calculée la composante « naturelle », à laquelle ils prétendent faire jouer un rôle central. En tout état de cause, en mettant ensemble les différentes assertions concernant cette infosphère, on arrive à diverses incohérences (voir remarque sur la p. 130).

Chapitre 2

•p. 64, la Lune est mise à « presque » 300 000 km de la Terre, alors qu’elle en est de nos jours toujours à plus de 360 000 km (la valeur médiane est aux alentours de 384 000 km, la distance variant d’environ 20 000 km autour de cette valeur).

•p. 65 se trouvent de nombreuses erreurs relatives à la découverte du rayonnement fossile. L’année de l’annonce découverte est avancée d’un an (1964 au lieu de 1965, la découverte ayant, elle, eu lieu en 1964), et le statut de leurs découvreurs est erroné : Penzias et Wilson ne sont pas des « étudiants chercheurs », mais des chercheurs en poste des laboratoires Bell. Par ailleurs les auteurs affirment que le rayonnement avait été détecté auparavant par les membres de l’équipe de James Peebles à Princeton, ce qui est faux. C’est précisément parce que ceux-ci savait qu’ils avaient été (bien involontairement du reste) devancés par Penzias et Wilson que l’un d’eux (Dicke, semble-t-il) aurait dit à ses collaborateurs une phrase désormais célèbre « Well boys, we have been scooped ».

•p. 71, les auteurs affirment avec aplomb que le passage du 220 V au 110 V empêcherait les appareils modernes de fonctionner. Curieuse affirmation quand on sait qu’aujourd’hui, de nombreux pays (au premier rang desquels les États-Unis) sont encore au 110 V ! Un très grand nombre d’appareils électriques étant par ailleurs équipés d’un transformateur, le changement de la tension d’entrée ne produirait guère plus de gêne que la nécessité d’adapter le transformateur en conséquence.

•p. 73 est mentionné le célèbre article « αβγ », du nom des trois auteurs figurant dans la liste des auteurs (Ralph Alpher, Hans Bethe et George Gamow)[1]. Dans la façon dont les auteurs parlent de cet article, les trois noms cités ont effectivement participé à son élaboration. Mais en réalité il n’en était rien, seuls Alpher et Gamow ont effectivement écrit cet article, le nom de Bethe étant rajouté par facétie, avec d’ailleurs la mention explicite « In abstentia », par Gamow (sans l’accord d’Alpher, d’ailleurs) pour le côté humoristique d’une telle association de noms. Au passage, le Big Bang est assimilé à tort (fût-ce dans un souci simplificateur) à une explosion, ce qu’il n’est pas.

•p. 77, l’affirmation selon laquelle les surgelés n’existaient pas en 1943 est erronée. Le procédé date des années 1920 et les premières commercialisations ont eu lieu aux Etats-Unis dans les années 1930.

•p. 77, les auteurs affirment à tort que Robert Oppenheimer a écrit dans un célèbre article de 1939[2] que les étoiles mourantes s’effondraient en « trou noir ». Or ce terme n’a été introduit que près d’un quart de siècle plus tard. Ceci étant, l’article en question décrit effectivement la formation d’un trou noir suite à un effondrement gravitationnel.

•p. 82, la découverte de l’expansion de l’Univers par Hubble est mal décrite. La loi de proportionnalité entre vitesse de récession et distance ne sera pas vraiment clairement établie en 1929, mais en 1931 (selon le degré de fiabilité que l’on attribue aux données utilisées dans l’article de 1929). Par ailleurs, les auteurs reprennent l’analogie bien connue du ballon qui gonfle pour évoquer l’expansion de l’univers, mais ils commettent deux erreurs. Les galaxies ne peuvent être assimilées à des points du fait de leur extension spatiale, il faudrait à l’inverse les assimiler à des objets étendus mais indéformables. Par ailleurs, l’expansion de l’univers ne dit rien sur son évolution temporelle. Or les auteurs présentent l’expansion comme un gonflement de plus en plus rapide, ce qui représente effectivement l’accélération de l’expansion actuelle, mais pas l’image qu’en avaient les astronomes contemporains de Hubble.
Chapitre 3
À partir de là et pour cinq chapitres, les auteurs s’engagent dans un vague exposé de l’histoire de la Terre. Les sources utilisées ne sont pas précisées. Il est probable qu’un certain nombre d’erreurs soit présent, mais ces erreurs éventuelles n’ont pour la plupart pas trait à l’astrophysique et la cosmologie.

Chapitre 5

•p. 117, les auteurs placent un tyrannosaure à l’emplacement de ce qui deviendra plus tard le bassin parisien. Malheureusement, ces dinosaures n’ont jamais vécu dans cette région du globe, les seuls spécimens connus ayant été localisés en Amérique du Nord.

•p. 120, les auteurs décrivent l’épisode connu de l’extinction des dinosaures. Ils ne le font cependant sans guère de nuances, se contentant de reproduire l’image d’Épinal d’une extinction brutale consécutive à un impact météoritique majeur dont les vestiges du cratère sont situés dans l’actuelle péninsule du Yucatan. Mais ce scénario est loin d’être consensuel. De nombreux indices pointent le fait que l’extinction a loin d’avoir été aussi brutale (contrairement à ce qu’affirment les auteurs), au point que le fait même que l’impact du Yucatan en ait été le principal moteur est contesté par nombre de scientifiques. D’autres facteurs, notamment le volcanisme intense des trapps du Deccan semblent au moins aussi susceptibles d’avoir été à l’origine de cette extinction, ce qui n’est aucunement évoqué ici.

Chapitre 6

•p. 130 commence la longue série d’incohérences au sujet de l’information telle qu’elle est décrite par les auteurs. L’information est depuis l’introduction décrite comme l’inverse de l’entropie (affirmation également répétée ultérieurement). Or l’entropie croît au cours du temps (selon le second principe de la thermodynamique, et une fois que l’on a correctement défini le système étudié, chose qui revêt un caractère crucial quand on considère un univers en expansion), donc l’information devrait décroître. Ici, les auteurs affirment que l’information est passée de 10119 bits il y a 500 millions d’années à 10120 bits aujourd’hui. De telles affirmations incohérentes se produisent régulièrement, par exemple, elle est évaluée à 10115 bits il y a 5 milliards d’années (p. 137). Par ailleurs, aucun élément n’est donné quant à la source utilisée par les auteurs pour les chiffres annoncés ni sur le processus de calcul. Il ne semble pas clair que les auteurs comprennent la façon dont sont (probablement) obtenus ces chiffres.
En réalité, les chiffres données (sans que les auteurs en aient manifestement conscience) correspondent à l’entropie associée à l’horizon cosmologique. Cette entropie est considérablement plus grande que l’entropie classique d’un gaz de particules, cette dernière étant proportionnelle au nombre de particules de l’univers observable, soit dans les 1090 (dont les principaux contributeurs sont les photons et les neutrinos). L’entropie associée à l’horizon est bien plus grande, elle atteint aujourd’hui les 10120[3], mais son interprétation est très délicate. En fait on ne la connaît même pas ; les seuls cas où l’on pense être en mesure de déterminer l’entropie associée à un horizon se fait dans le cas de certains trous noirs (pas les mêmes selon la théorie de gravité quantique utilisée, d’ailleurs), mais rien ne permet d’affirmer que ces calculs valent aussi pour un horizon cosmologique. Il n’est pas non plus évident qu’il soit possible en pratique d’envisager d’utiliser cette quantité ultime d’information pour réaliser des programmes informatiques au sens que l’entend Seth Lloyd. Celui-ci était d’ailleurs assez circonspect à ce sujet en 2001, date d’un de ses premiers articles sur le sujet[4].

Chapitre 7

•p. 132, les auteurs affirment (quoique de façon ambiguë) qu’une entaille de quelques dizaines de centimètres dans le rocher de Chaillot (évoquée à partir de la p. 55) aurait survécu à plusieurs centaines de millions d’années d’érosion éolienne, hydrologique et marine. Cette affirmation se reproduit, de façon plus ambiguë deux pages plus loin, où cette entaille est présentée, si on essaie d’interpréter le propos cryptique des auteurs, comme résultant d’un impact météoritique vieux de 4 milliards d’années.

•p. 133, les auteurs commencent une longue série d’erreurs au sujet de l’éclat de la Voie lactée qui serait, comme les auteurs l’affirment depuis ALBB[5], plus brillante par le passé du fait de l’expansion de l’Univers, qui la rendait plus petite par le passé, donc plus lumineuse. Il n’en est rien, et la taille de la Voie lactée n’a que peu varié sur les derniers milliards d’années. Ceci étant, les auteurs évitent soigneusement d’attribuer explicitement (comme ils le faisaient par le passé) cette variation d’éclat à l’expansion de l’Univers. Bref, ils persistent dans l’erreur, tout en enlevant les affirmations les plus grossières qui permettent de l’identifier et dont ils ont été les auteurs. En tout état de cause, si l’éclat de la Voie lactée vu depuis la Terre a varié au cours du temps (ce qui est vraisemblable), il faudrait expliquer pourquoi, et rien n’assure par exemple qu’une formation d’étoile plus intense ait rendu le ciel plus clair, car l’absorption du milieu interstellaire, sans doute plus importante par le passé que maintenant puisque moins de matière était condensée en étoiles, pourrait très bien compenser l’effet.

•p. 134 se trouve une double incohérence (outre celle relative à l’entaille du rocher de Chaillot déjà évoquée). Les auteurs affirment que la Grande Ourse était « aplatie » par rapport à sa configuration actuelle il y a 4 milliards d’années. Une page plus tôt, ils affirmaient qu'il y a 3,5 milliards d’années, la constellation n’était même pas reconnaissable. Mais cette erreur est minime par rapport à l’affirmation selon laquelle les configurations stellaires dessinant les constellations actuelles sont susceptibles de survivre aussi longtemps malgré la dynamique des mouvements stellaires autour du centre galactique : avec des vitesses relatives de quelques dizaines de kilomètres par seconde (soit, à la louche 0,01% de la vitesse de la lumière), les écarts de position entre deux étoiles aujourd’hui proche sont susceptibles d’atteindre des ordres de grandeur de l’ordre de la taille de la Voie lactée en un milliard d’année (il ne s’agit que d’un ordre de grandeur ; il faut tenir compte de la dynamique galactique globale pour avoir des chiffres plus précis). Par ailleurs, nombre des étoiles composant nos constellations sont des étoiles lumineuses, donc à faible durée de vie : toutes n’existaient pas il y a quatre milliards d’années !

•p. 135 et 136 subsistent malgré le peu de détails donnés des incohérences au sujet de la théorie communément acceptée de la formation de la Lune. Les auteurs disent que la Lune a permis l’allongement de la période de rotation terrestre (ce qui est vrai), mais après avoir dit que les débris issus de la collision entre la Terre et Théia avaient été expulsés sur une orbite « lointaine ». Or si la Lune a permis le ralentissement de la période de rotation terrestre via les effets de marée, c’est parce que son orbite initiale était suffisamment proche de la Terre pour échanger avec elle un maximum de moment cinétique (le moment cinétique propre de la Terre et de la Lune diminuent au profit du moment cinétique orbital, ce qui se traduit par une augmentation du rayon de l’orbite lunaire), et n’était donc pas « lointaine », terme trop vague pour être acceptable ici. En tout état de cause, rien ne permet au lecteur de comprendre le détail du processus… tout comme rien ne laisse à penser que les auteurs en ont compris les détails, ou même le principe sous-jacent.

Chapitre 8

On retourne ici dans des considérations plus astrophysiques. Sans surprise, les erreurs, imprécisions et incompréhensions y sont très nombreuses. En fait, il est même difficile d’extraire dans ce chapitre et le suivant des paragraphes ou simplement des lignes qui font suffisamment de sens tout, du moins si on se limite à celles énonçant des concepts physiques. De la même façon, il est difficile de déterminer quand une erreur s’arrête et quand débute la suivante.

•p. 137, l’affirmation que la Voie lactée était plus brillante il y a 5 milliards d’années, et que les autres galaxies étaient mieux visibles ne reposent sur aucun argumentaire. Ce qui est dit correspond à nouveau au discours tenu dans ALBB et alors justifié par le raccourcissement des distances du fait de l’expansion de l’univers. Mais cet effet ne se produit ni à l’échelle des galaxies, ni à celle du Groupe Local, qui comprend les seules galaxies qui peuvent être qualifiées de « visibles » à l’œil nu dans des conditions normales.

•p. 138, la température du « fond spatial » n’est pas définie. Tout porte à croire qu’il s’agit de celle du fond diffus cosmologique dont l’évocation à ce moment n’a du reste que peu d’intérêt. Dans ce cas, elle ne peut être considérée comme « légèrement » supérieure à sa valeur actuelle, puisqu’elle était environ deux fois plus élevée à l’époque considérée (cinq milliards d’années dans le passé correspondent approximativement à un décalage vers le rouge de 1, la relation entre la température du fond diffus cosmologique et le décalage vers le rouge étant simplement T(z) = T0 (1 + z), T0 étant la température actuelle de ce fond diffus).

•p. 138 encore, les amas globulaires sont décrits comme « embrasant » la voûte céleste il y a 5 milliards d’années. Or les amas globulaires sont des objets très anciens, dans lesquels le taux de formation d’étoiles est très faible depuis leur formation, sans doute concomitante avec celle de notre Voie lactée il y a environ dix milliards d’années. Leur luminosité n’a donc guère de raison d’avoir été notablement plus importante à cette époque, sauf à imaginer que la même erreur que dans ALBB a été commise par les auteurs au sujet de l’expansion de l’univers. À nouveau, le manque d’explications de ce type d’affirmation rend le propos inexploitable.

•p. 138 toujours, la notion curieuse de « vide pur » est évoquée par les auteurs, ce « vide pur » étant produit par les régions soufflées par les vents stellaires. Cette notion n’existe pas en astrophysique, et les régions soufflées par les vents stellaires ne sont pas spécialement vides de matière, du moins à l’échelle de la densité moyenne de l’univers.

•p. 139, les auteurs parlent des premières réactions « éblouissantes » de la vie d’une étoile, quand le seuil d’allumage des réactions nucléaires est atteint. Malheureusement, cette affirmation n’est pas conforme aux faits : lors de l’allumage des réactions nucléaires, l’étoile demeure en général encore invisible du fait qu’elle est encore masquée par la nébuleuse qui lui a donné naissance, une situation qui n’est d’ailleurs pas sans poser de problèmes en astronomie, les étoiles massives à très courte durée de vie étant parfois très difficiles à observer.

•p. 139 encore, les auteurs font preuve d’un grand manque de connaissance sur la formation des systèmes planétaires en affirmant que notre système solaire était aisément reconnaissable dès sa formation. Il était en réalité fort différent de ce qu’il est aujourd’hui, étant notamment beaucoup plus riche en planétoïdes telluriques, parmi lesquels Théia, dont les auteurs ont pourtant parlé quelques pages plus tôt... Les positions d’Uranus et Neptune étaient aussi, selon toute vraisemblance, inversées par rapport à leur configuration actuelle (elles ne prendront leurs positions respective que plusieurs centaines de millions d’années plus tard, suite à une perturbation globale de très grande amplitude produite par une résonance 2:1 entre Jupiter et Saturne, résonance également responsable d’une intense augmentation des impacts sur les planètes telluriques, portant le nom de grand bombardement tardif dont la date est estimée à 800 millions d’années après la formation du système solaire si l’on se base sur les datations des échantillons de roches lunaires ramenés sur Terre).

•p. 139 toujours, les auteurs mettent la Nébuleuse de la Tarentule dans « les » Nuages de Magellan au lieu du Grand Nuage de Magellan, et lui attribuent sa distance actuelle, alors que les modélisations indiquent que les deux Nuages ont vu leur distance à la Voie lactée notablement varier en plusieurs milliards d’années. L’affirmation selon laquelle cette Nébuleuse, aujourd’hui la région de formation stellaire la plus active du Groupe Local avait déjà un statut semblable cinq milliards d’années plus tôt devrait aussi être étayée.

•p. 140, les auteurs parlent de « plusieurs supernovae visibles à l’œil nu » venant d’apparaître dans la Nébuleuse de la Tarentule. Même avec un taux de formation d’étoiles considérablement plus élevé qu’aujourd’hui, le fait que ne serait-ce deux supernovae aient pu apparaître simultanément (c’est-à-dire à seulement quelques mois d’intervalle pour pouvoir éventuellement être visibles en même temps) dans une région aussi petite du ciel, fût-elle très active, est fort invraisemblable. On devine un manque total de maîtrise des ordres de grandeurs astrophysiques de la part des auteurs, impression qui s’impose implacablement à mesure que l’on avance dans la lecture de l’ouvrage.

•p. 140 et 141, les auteurs essaient de décrire un rémanent de supernova. Sans le dire, ils décrivent en réalité la Nébuleuse du Crabe, résidu de l’explosion d’une étoile vue en extrême orient en l’an 1054 et pendant un peu moins de deux ans. Tout y est, de la couleur des filaments et de la nébuleuse, à la période de rotation du pulsar central. Malheureusement, ce choix est très contestable, la Nébuleuse du Crabe étant sur bien des aspects un rémanent très atypique. Par exemple, son pulsar est, de loin, le plus énergétique connu ; son âge, très jeune (un peu moins de mille ans), n’en fait pas un représentant typique d’un rémanent, dont la durée de vie se compte en centaines de milliers d’années, avant sa dilution totale dans le milieu interstellaire. Les auteurs font également la confusion (commune) entre poids et masse, parlant d’un « poids qui exploserait d’un coup : 5000 tonnes ! », avec en sus une grosse erreur de conversion. Le rapport du champ gravitationnel à la surface d’un pulsar par rapport à celui de la Terre est bien plus que le facteur 50 000 annoncé par les auteurs : il est plus proche de 150 000 000 000 (soit environ 400 000 × 6002, le facteur 400 000 résultant du rapport de masse entre la Terre et le pulsar, et le facteur 6002 du rapport des carrés des rayons des deux astres). Par ailleurs, la surface d’une étoile à neutrons n’est pas composée de neutrons, mais probablement majoritairement d’un cristal très dense de fer. Par ailleurs, un pulsar n’« émet » pas, mais « possède » un champ magnétique (qui par induction du fait de la rotation du pulsar génère, ou « émet », cette fois, un fort rayonnement électromagnétique). Enfin, l’affirmation que le pulsar modèle son environnement « à la vitesse de la lumière » est trompeuse. L’évolution de la nébuleuse est principalement déterminée par la vitesse des éjectas de la supernova, qui se compte en milliers de kilomètres par seconde, soit plutôt de l’ordre de 1% de la vitesse de la lumière (même si des particules de très haute énergie se déplaçant à des vitesses comparables à celle de la lumière sont également produites par la nébuleuse, mais en quantités très faibles au regard de la masse éjectée).

•p. 141 et 142, les auteurs font preuve d’une inutile prudence concernant la masse des trous noirs supermassifs. Plusieurs d’entre eux ont une masse qui dépasse nettement le milliard de masses solaires, notamment celui de la galaxie M87. Par ailleurs, la lumière d’un quasar n’« illumine » pas vraiment sa galaxie hôte. Il aurait fallu dire qu’elle surpassait (parfois de beaucoup) celle-ci, ce qui a longtemps été à l’origine des interrogations concernant la nature des quasars, puisque la galaxie hôte était parfois trop faible pour être vue. À lire les auteurs, les quasars possèdent des « geysers lumineux » qui forment la partie la plus lumineuse de l’objet. En réalité, si un quasar possède effectivement des jets le long des quels peut s’échapper une partie de la matière qui tombe sur le quasar, le gros de la lumière est émis par la région centrale et non par les jets, d’où l’aspect ponctuel de ces objets, dont découle d’ailleurs leur nom. Des chiffres assez curieux parsèment ce passage. Le taux d’accrétion de 1000 masses solaires par an est non sourcé et trompeur car un taux moyen de quelques masses solaires par an serait largement plus réaliste et informatif pour le lecteur. Même si effectivement des taux plus élevés sont observés, on sait que ces configurations excèdent une valeur critique appelée luminosité d’Eddington et ne peuvent être atteintes dans un régime stationnaire susceptible de durer longtemps. Enfin, l’affirmation que les trous noirs sont « à jamais invisibles » est farfelue. On peut en principe voir un trou noir issu de la fusion de deux objets (étoile à neutrons et/ou trou noir) à l’aide d’un détecteur d’ondes gravitationnelles (le taux d’observation de tels événements pour une sensibilité donnée étant pour l’heure inconnu), et il est tout à fait réaliste d’envisager imager directement la silhouette d’un trou noir se découpant sur un fond lumineux en utilisant des techniques (en l’occurrence l’interférométrie radio) qui ont quasiment la sensibilité requise aujourd’hui pour observer les deux trous noirs de plus gros diamètre angulaire (Sgr A* dans notre propre Galaxie et le trou noir central de la galaxie géante voisine M87).

•p. 142, les auteurs reparlent des pulsars qui remodèlent leur environnement à la vitesse de la lumière. Il y a là une redite manifeste et inutile (en plus d’être fausse, voir ci-dessus), preuve que l’ouvrage n’a même pas fait l’objet d’une relecture attentive. D’autres redites de ce type se retrouvent dans divers endroits de l’ouvrage.

•p. 142, l’affirmation selon laquelle la matière noire représente 90% du total matière noire + matière baryonique est fausse. Le rapport entre les deux est de l’ordre de 6 ou 7, donc le chiffre de 85% serait plus exact. Avec le 90% des auteurs, même si le chiffre semble peu différent du précédent, il y aurait 9 fois plus de matière noire que de matière baryonique, ce qui est très clairement exclu par les observations depuis belle lurette. Par ailleurs, il est établi que le halo des galaxies contient de la matière sombre. Le conditionnel employé par les auteurs révèle leur manque de connaissances élémentaires sur le sujet, puisque c’est de l’étude des effets gravitationnels produits par ces halos invisibles des galaxies que découle la preuve historiquement la plus directe de l’existence de la matière noire.

•p. 143, l’affirmation selon laquelle il y a 12 milliards d’années les étoiles étaient « encore rares » est creuse et incohérente avec la suite. Il faudrait préciser que l’on parle du lieu de la future Voie lactée, ce qui n’est pas vraiment évident. Des galaxies existaient déjà à ce moment là.

•p. 143, l’affirmation selon laquelle les époques de formation des galaxies telles que prédites par les modèles sont mises à mal par les observations ne repose sur rien. Les modèles récents s’accommodent très bien d’une formation très précoce comme celle observée. On observe d’ailleurs de façon assez directe que cette formation est très précoce, puisque l’on observe des galaxies présentant un décalage vers le rouge très élevé.

•p. 144, la raison pour laquelle les première étoiles étaient beaucoup plus massives que les actuelles n’est pas donnée (composition chimique différente les rendant moins opaques au rayonnement et par suite plus stables pour des grandes masses, entre autres). La brièveté de leur vie ne résulte pas de leur masse, comme affirmé par les auteurs, mais du rapport masse/luminosité, très défavorable (la luminosité augmente très vite avec la masse, le rapport masse/luminosité est donc d’autant plus petit que la masse est grande).

•p. 145, les auteurs font allusion au seul pulsar connu possédant une planète gazeuse avérée (PSR B1620–26, non cité). Ils lui attribuent la possession de cette planète depuis la formation de l’étoile ayant donné naissance au pulsar, mais cette affirmation est erronée. Les caractéristiques orbitales indiquent sans le moindre doute que cette planète a été capturée relativement récemment (et sans doute temporairement) par le pulsar, même si elle-même a un âge probablement comparable à celui-ci.

•p. 146, les auteurs assimilent l’univers à la recombinaison (380 000 ans après le Big Bang) à un « immense nuage de gaz » suggérant une vague extension spatiale limitée. Or l’univers à cette époque est presque parfaitement homogène et même si sa taille est finie, on ne peut l’assimiler à un objet tel un nuage possédant un bord. Le reste de la page (et la suivante) sont un charabia où un minimum d’information est donné malgré un grand nombre de mots. Le lecteur n’en saura pas plus sur le pourquoi de cette époque (ni même sur le pourquoi de sa température plus élevée qu’aujourd’hui). Le chapitre suivant, notamment le passage p. 151, permet de s’assurer que les auteurs ne comprennent effectivement pas cette période de l’histoire de l’univers.

•p. 148, les auteurs s’engagent dans une discussion bizarre où se mêlent diverses affirmations relatives à l’apparition de la vie. Ils trouvent « troublant » que la position des étoiles dans une galaxie influe sur la probabilité d’apparition de la vie dans leur cortège planétaire, alors que cette considération est triviale et trivialement adaptable au système solaire (la Terre est plus favorable au développement de la vie que les autres planètes). Ils y affirment qu’un des freins à l’apparition de la vie est lié au risque d’explosion de supernovae, alors qu’au vu des distances interstellaires, les supernovae potentiellement dangereuses pour une planète abritant la vie ne concernent, où que l’on soit dans une galaxie, que des régions extrêmement petites autour des planètes (quelques dizaines d’années-lumière), avec un taux par conséquent très faible de nos jours. En étant plus savants, les auteurs auraient au contraire parlé des autres risques, plus objectifs, sur la survie à long terme d’un système planétaire (risque de rencontres stellaires rapprochées notamment : un amas globulaire est un endroit très hostile au développement de la vie, cf. le cas de la planète récemment capturée par PSR B1620–26 pourtant évoqué précédemment).

•p. 149, les auteurs se font de plus en plus pressants sur leur conviction mystico-religieuse (affirmée ailleurs dans divers entretiens) de la vie comme finalité de l’évolution cosmique (même si ce n’est pas dit aussi clairement ici). Ce à quoi ils font allusion est dénommé, quand abordé scientifiquement (ce qui n’est pas le cas ici), principe anthropique, et a trait aux caractéristiques que doit avoir un univers (ou une région de l’univers) abritant la vie, caractéristiques que de facto l’univers observable possède puisque nous y résidons. Les connaissances actuelles permettent d’aborder ces questions de façon tout à fait rationnelle, sans le moins du monde nécessité une quelconque métaphysique religieuse. En particulier, de nombreux modèles de physique des hautes énergies, dont le plus connu est sans doute la théorie dite du landscape en théorie des cordes, prédisent l’existence de régions (très) distantes de l’univers où règnent de loin en loin toutes les lois physiques possibles et imaginables (avec par exemple des valeurs différentes des constantes fondamentales). Certaines régions, en fait la quasi-totalité, sont hostiles à toute forme de structure évoluée (et donc à la vie), alors que d’autres, bien plus rares, y sont propices. Les propriétés de notre univers observable sont, dans ce cadre-là, loin d’être typiques, ou issues d’une quelconque mécanique « globale, universelle et nécessaire » comme l’affirment les auteurs, mais une réalisation plus ou moins fortuite d’un processus physique bien plus vaste que ce que nos moyens d’observation ne permettent d’appréhender. Bien sûr cette situation est par certains côtés insatisfaisante (en particulier elle n’est pas testable sur certains points), mais peut néanmoins être abordée de façon parfaitement rationnelle (on peut par exemple espérer à terme vérifier si notre univers observable avec son jeu de lois physiques et constantes fondamentales correspond à un région d’univers typique parmi celles susceptibles d’abriter la vie).

Chapitre 9

•p. 150, les auteurs parlent de la surface de dernière diffusion sans définir ce terme, en s’en tenant à une vague analogie (la surface de l’eau) qui ne correspond pas à la nature de la surface de dernière diffusion. Il aurait été plus intelligent de parler de la surface du Soleil, qui est la « surface de dernière diffusion » des photons produits en son sein (en d’autres termes, en regardant vers le centre du Soleil, on ne le voit pas, notre regard ne pouvant porter plus loin que la région où l’opacité devient trop grande, c’est-à-dire sa surface).

•p. 151, les auteurs apportent une confirmation de ce que l’on soupçonnait depuis la première fois qu’ils ont parlé de la recombinaison (p. 146) : ils ne comprennent absolument pas de quoi ils parlent. Ils affirment gaillardement qu’avant la recombinaison, l’univers est « sombre ». Bien sûr il n’en est rien : l’univers est de plus en plus lumineux à mesure que l’on remonte vers le passé, tout comme l’intérieur du Soleil est de plus en plus lumineux à mesure que l’on se déplace depuis sa surface vers le centre. La différence cruciale entre avant et après la recombinaison (ou, dans l’analogie donnée ici, entre en dessous et en dessus de la surface du Soleil), c’est la distance parcourue par la lumière que l’on reçoit depuis sa dernière interaction avec la matière : elle est faible avant la recombinaison (le mot « faible » s’entendant ici par rapport à la distance caractéristique que l’on peut définir dans un univers en expansion, le rayon de Hubble), et de plus en plus grande à l’issue (la distance maximale parcourue par un objet de propageant à la vitesse de la lumière est en général proportionnelle au rayon de Hubble ; la distance parcourue par la lumière tend vers cette valeur limite à mesure que le temps passe). L’évocation d’une bizarre « lumière noire » par les auteurs, ou leur affirmation selon laquelle les photons sont « prisonniers » de la matière est des plus fantaisistes et montre qu’ils ne maîtrisent absolument des notions pourtant élémentaires de physique (en l’occurrence ici : libre parcours moyen et opacité). On note que la recombinaison n’est pas toujours très bien expliquée dans les ouvrages de vulgarisation (voir par exemple le dossier « SagaSciences » du CNRS consacré à la cosmologie…), qui attribuent effectivement parfois à cette époque le statut de « première lumière » de l’univers, terme ambigu qui a selon toute vraisemblance induit les auteurs en erreur et les a amenés à « déduire » le concept farfelu et très personnel de « lumière noire ». Par contre, le statut de « plus vieille image du monde », souvent employé est, lui, correct : aucune image des temps plus anciens n’est effectivement directement accessible (dans le domaine électromagnétique) à l’observation, même si on peut remonter à ces époques plus anciennes par des moyens indirects (par exemple l’héliosismologie, c’est-à-dire l’étude des vibrations de la surface du Soleil, permet d’obtenir de nombreux renseignement sur sa structure interne).
Ce passage, comme d’autres (extinction des dinosaures, visibilité des trous noirs, dangerosité supposée des supernovae, ou bien distance Terre-Mars et nucléosynthèse, toutes deux évoquées plus loin, etc.), en dit long sur la façon dont les auteurs rassemblent les sources pour leurs écrits : ils se basent de façon manifeste sur des ouvrages de vulgarisation de qualité incertaine et non des ouvrages d’un académique, qui sont sans doute d’un niveau inaccessible pour eux.

•p. 151, les auteurs affirment à tort que les photons sont les particules les plus nombreuses dans l’univers 10 000 ans après le Big Bang (soit dans l’ère dite de domination de la radiation). En réalité, les neutrinos, toutes familles confondues, sont plus nombreux que les photons.

•p. 152, l’affirmation selon laquelle les atomes ne peuvent exister aux températures indiquées (3 000 à 12 000 degrés) est fausse en l’état : c’est parce que les photons sont très nombreux, en plus d’être aux températures annoncées que noyaux et électrons ne peuvent se recombiner pour former des atomes. Dans un milieu plus riche en matière, la recombinaison aurait lieu avant une telle température. Il se trouve que l’univers est quelque peu « pauvre » en matière : moins d’un atome pour un milliard de photons. C’est cette caractéristique (dont le pourquoi est mal compris à l’heure actuelle, voir passage sur la baryogénèse ci-dessous) qui fait que la recombinaison n’a lieu qu’à une température aussi basse. Indépendamment de cela, la recombinaison de l’hélium a lieu à des températures supérieures à 3000 degrés, mais cela ne suffit pas à rendre l’univers transparent, il faut pour cela attendre la recombinaison de l’hydrogène.

•p. 152, les auteurs indiquent ce que vaut selon eux la taille de l’univers observable en fonction de son âge pour plusieurs époque, partant de 1000 ans et allant vers le passé. L’intérêt de cette énumération est peu claire, et la façon de donner divers chiffres très obscure. Par ailleurs, le tout souffre d’une erreur récurrente : les auteurs affirment que la taille de l’univers observable à une époque donnée est égale à son âge multiplié par la vitesse de la lumière. Il s’agit là d’une erreur de débutant, car dans un univers en expansion, la taille de l’univers observable (techniquement on devrait parler de la taille de l’horizon) n’est pas, sauf cas très particulier, égal au produit de l’âge par la vitesse de la lumière. En général, il est proportionnel à cette quantité, mais avec une constante de proportionnalité supérieure à 1. En l’occurrence dans un univers dominé par de la radiation (ou des espèces relativistes, puisqu’il y a aussi des neutrinos), ladite constante vaut 2. Indépendamment de cette erreur, les auteurs semblent tout faire pour que la relation qu’ils énoncent n’apparaisse pas explicitement. 1000 ans après le Big Bang, au lieu de parler de 1000 années lumière (au lieu des 2000 qui seraient le chiffre exact), ils convertissent de façon peu heureuse le chiffre en kilomètres. 100 ans après le Big Bang, ils ne donnent pas de chiffre, mais indiquent qu’il est inférieur à un tiers de la distance de l’étoile polaire (qui est effectivement à plus de 300 années-lumière de la Terre), ce qui n’aidera sans doute pas grand monde, à moins de connaître la distance de l’étoile polaire, ce qui ne sera pas le cas de plus de 0,1% des lecteurs (et encore !). Et de toute façon le chiffre est faux : l’étoile polaire a une parallaxe estimée à 7,56 millisecondes d’arc, ce qui met sa distance en environ 430 années lumière. En prenant cette distance comme référence, il aurait fallu dire que la taille en question était plus petite que le quart de cette dernière au lieu de citer un facteur d’un tiers. Quand ils arrivent un an après le Big Bang, les auteurs donnent (enfin !) la raison du chiffre annoncé pour les 1000 ans, pour aussitôt énoncer une énormité pour l’âge d’un jour : le système solaire est beaucoup plus vaste qu’un jour-lumière, puisque le nuage de Oort (le réservoir des comètes qui plongent de temps en temps vers le système solaire interne) s’étend sur des distances comparables, quoique inférieures, à la mi-distance aux étoiles proches (il atteint probablement plus d’une année-lumière). Même si, comme les auteurs le font peut-être implicitement[6], on se limite au système solaire interne défini par les orbites de la planète la plus lointaine (Neptune), alors la taille annoncée (de 25 milliards de kilomètres, alors qu’un jour lumière est bien plus proche de 26 milliards de kilomètres…) n’est pas égale à quatre fois le rayon, mais plutôt à six fois celui-ci (le demi-grand axe de Neptune fait 4,5 milliards de kilomètres). Peut-être les auteurs choisissent-ils la désormais planète naine Pluton pour délimiter le système solaire, mais ce choix est aujourd’hui des plus arbitraires, Pluton n’étant comme on le sait désormais qu’un corps parmi d’autres parmi beaucoup d’autres objets de petite taille qui peuplent les régions situées à plusieurs dizaines, voire centaines d’unités astronomiques du Soleil.

•p. 153, les auteurs parlent de « degrés Kelvin », une appellation aujourd’hui obsolète (on parle de kelvins et non de degrés Kelvin), sans définir ce terme qui est de fait plus confusant qu’autre chose pour le lecteur moyen. Juste après, on note une incohérence dans les températures annoncées. À cette période de l’histoire de l’univers, l’âge t et la température T sont reliés par la loi t T2 = Constante. En divisant l’âge par deux, la température augmente d’un facteur environ égal à 1,4. Or ici, elle passe de 300 à 500 millions de degrés. D’autres incohérences de ce type se retrouvent de loin en loin ultérieurement.

•p. 153 toujours, l’affirmation selon laquelle un neutron « se désintègre à jamais dans une mort solitaire » est assez ridicule. Le neutron se désintègre en un proton (plus un électron et un antineutrino), qui lui-même aura éventuellement la possibilité de redevenir un neutron lors de diverses réactions nucléaires au sein des étoiles.

•p. 153 encore, l’utilisation de la distance Terre-Mars « en 2009 » comme échelle de distance est assez inepte. En un an, la distance entre ces deux planètes évolue considérablement (en l’occurrence pour 2009 entre 0,744 et 2,43 unités astronomiques, soit une variation de distance plus grande qu’un facteur 3). Par ailleurs, le chiffre de 60 millions de kilomètres annoncé à ce moment là est faux : c’est le 31 décembre que les deux planètes seront au plus près de l’année (l’opposition n’aura lieu qu’en 2010), à une distance alors égale à 0,744 unité astronomique, soit plus de 100 millions de kilomètres. Sans doute les auteurs confondent-ils avec l’opposition très rapprochée Terre-Mars de 2003, mais cette opposition était extrêmement favorable.

•p. 154, l’affirmation que les noyaux d’hydrogène ont été produits pendant les trois premières minutes de l’univers est peu heureuse : les noyaux d’hydrogène, en général composés d’un unique proton, existent avant même la nucléosynthèse, depuis l’assemblage des quarks. Ce ne sont que les noyaux possédant plus d’un nucléon qui ont pour origine les trois premières minutes (notons qu’il s’agit là d’une ambiguïté fréquente dans les ouvrages de vulgarisation ; le fait que les auteurs fassent les mêmes erreurs que des ouvrages de vulgarisation montre à nouveau que leurs sources ne sont pas les ouvrages académiques utilisés et compris par de vrais chercheurs, mais des ouvrages de vulgarisation qui sont les seuls qu’ils s’essaient à comprendre — sans guère de succès comme on le voit…).

•p. 154 encore, on a une incohérence à nouveau avec la distance Terre-Mars (voir ci-dessus), 20 millions de kilomètres étant ici décrits comme « le quart de la distance qui nous sépare de Mars ».

•p. 154 toujours, un erreur assez incompréhensible se trouve lors de la description des interactions photons-matière. On y apprend que « dès qu’un proton ou un électron apparaît, il est aussitôt repris et capturé par un photon ». Outre l’incohérence manifeste avec l’annonce farfelue qu’avant la recombinaison c’était la lumière qui était prisonnière de la matière (ici les auteurs semblent affirmer le contraire, pour autant que l’on puisse s’essayer à extraire du sens de leur discours), cela n’a pas grand chose à voir avec la réalité.

•p. 155, les auteurs proposent une définition curieuse et fantaisiste de l’antimatière. D’après eux électrons et positrons sont susceptibles de s’annihiler au motif que leur charge est opposée. Le raisonnement tenu (si l’on ose appeler ça ainsi) est à l’envers : électrons et positrons peuvent s’annihiler (principalement en photons, ce qui semble inconnu des auteurs, voir ci-dessous) parce qu’ils sont antiparticules l’un de l’autre, ce qui a pour conséquence que leur charge est opposée. Par ailleurs, l’issue l’annihilation massive électrons-positrons est mal décrite : on pourrait croire à les lire que l’excédent de matière sur l’antimatière est créé au moment de cette annihilation. Il n’est en rien, cet excédent existe depuis une époque plus ancienne (et aujourd’hui non datée) où il a été créé suite à un processus aujourd’hui très mal, voire pas du tout, compris appelé baryogénèse.

•p. 156, les auteurs répètent une ânerie déjà énoncée p. 56 au sujet de la distance Terre-Lune, réduite à 300 000 km.

•p. 156 encore, ce qui est dit au sujet du découplage des neutrinos révèle que ce phénomène (comme toute la cosmologie évoquée dans l’ouvrage, sans doute) n’est pas compris des auteurs. La différence de température entre le fond de neutrinos et de photons n’est pas comprise. Elle provient du fait que l’annihilation électrons-positrons a lieu après le découplage des neutrinos, et donc que les paires photons produites ne peuvent se transformer en paires de neutrinos. Au final, l’annihilation injecte de l’énergie uniquement dans le fluide de photons et « réchauffe » en quelque sorte celui-ci par rapport à celui de neutrinos, ce qui induit un écart de température entre les deux, que l’on peut estimer comme étant dans un rapport proche de (4/11)1/3, soit 0,714, d’où une température actuelle de 1,95 kelvin pour le fond de neutrinos dans l’hypothèse où les neutrinos ont sans masse (quand les neutrinos ont une masse, leur température actuelle n’a pas vraiment de sens, mais le rapport donné ci-dessus reste valide tant que les neutrinos sont relativistes, ce qui est le cas à l’époque considérée). Les auteurs font également preuve d’une grande incompétence en physique des neutrinos : il n’est absolument pas possible, même à long terme de détecter quoi que ce soit de ce fond car des neutrinos aussi peu énergétiques n’interagissent pas assez pour cela[7]. Incidemment, il n’y a pas besoin de détecter directement le fond de neutrinos pour s’assurer de son existence et de sa température au moment de la nucléosynthèse : les résultats de la nucléosynthèse permettent de tester les chiffres énoncés ci-dessus, notamment par le fait que la durée de la nucléosynthèse, dont dépendent explicitement les abondances des différents noyaux produits, est déterminée par la densité d’énergie totale de l’univers à cette époque, densité à laquelle les neutrinos apportent une contribution substantielle.

•p. 156 se trouvent diverses autres idioties concernant les neutrinos. On y apprend par exemple que les produits de désintégration du neutrons sont le proton, l’électron et le neutrino. En fait il s’agit d’un antineutrino (électronique) et non d’un neutrino. Le rapport de masse de 100 000 annoncé entre proton et neutrino est également faux. La masse d’un proton est de l’ordre de 2 GeV, alors que diverses considérations astrophysiques assurent que les neutrinos les plus massifs ont une masse inférieure à quelques électronvolts, soit un rapport de masse de l’ordre du milliard au mieux. Peut-être les auteurs veulent-ils comparer les énergies du proton et des neutrinos à une époque donnée, mais ce n’est pas ce qu’ils disent.

•p. 157, on retrouve la confusion poids-masse déjà évoquée auparavant. Le terme d’équilibre thermodynamique « surprenant », d’après les auteurs (pourquoi « surprenant » ? On n’en saura rien du reste) n’est pas défini.

•p. 158, l’affirmation selon laquelle la nucléosynthèse doit son existence au fait que les neutrinos étaient découplés est difficilement acceptable en l’état. Même si les neutrinos interagissent ultérieurement avec la matière vient de toute façon un moment où leur énergie ne perturbe plus notablement la structure des noyaux atomiques : c’est exactement ce qu’il se passe pour les photons !

•p. 158 est répétée l’ânerie au sujet de la détection possible du fond de neutrinos. Comme déjà dit, il n’en est rien. La même chose vaut pour le fond d’ondes gravitationnelles (que l’on détectera sous formes d’ondes et non sous forme de particules individuelles, les gravitons, que ceux-ci existent ou non) : les contraintes existant déjà sur ce fond d’ondes gravitationnelles mettent les instruments actuels et envisagés très en deçà des possibilités d’une détection directe, sauf à imaginer des scénarios cosmologiques très inattendus, basés sur certains modèles dits de quintessence[8], mais même dans ce cas, la détection semble très problématique.

Chapitre 10

Les auteurs s’aventurent dans de la physique des plus spéculatives… tout en continuant à enchaîner erreurs sur erreurs à un rythme effréné. En fait, à partir de la page 161, le propos devient presque totalement incohérent, les confusions les plus grotesques prenant le pas sur tout ce que l’on serait éventuellement enclin à qualifier de discours potentiellement intelligible. Il est même difficile d’extraire des bribes de phrase que l’on peut commenter tant la cohérence du discours y est inexistante.

•p. 159, les affirmations concernant Friedmann sont très trompeuses. Friedmann a été le premier à étudier les solutions dynamiques décrivant l’évolution d’un univers homogène et isotrope, mais dire qu’il a « osé prédire » l’existence d’une singularité initiale est farfelu : Friedmann, et Lemaître par la suite, ont « simplement », si l’on peut dire déduit les conséquences de leurs hypothèses. Par ailleurs, Lemaître a très explicitement indiqué que la validité de ses calculs aux très hautes densités était incertaine. Par ailleurs, Friedmann et Lemaître ont mis en évidence des solutions sans singularité initiale, comme celles où le facteur d’échelle part dans le passé d’une valeur finie non nulle et croît continûment au cours du temps (cette solution tend asymptotiquement dans le passé vers l’univers statique d’Einstein).

•p. 159, les auteurs passent brutalement aux notations en puissance, parlant de 1017 au lieu de 100 millions de milliards. Si l’idée n’est pas mauvaise, la notation n’est pas définie, ce qui rend le propos difficilement compréhensible pour le lecteur non averti.

•p. 159 toujours, les auteurs font à nouveau preuve de leur incompréhension de ce qui est communément appelé « le son du Big Bang ». Ce terme désigne la traduction en son des fluctuations de densité traversant l’univers à l’époque non pas du Big Bang mais de la recombinaison (c’est-à-dire a l’époque d’émission du rayonnement fossile, environ 380 000 ans après le Big Bang). Ce terme de « son du Big Bang » est certes trompeur, et, sans surprise, les auteurs l’ont très naïvement assimilé à un son produit au sortir de l’ère de Planck. Pour être plus précis, les ondes de densité observées à la recombinaison sont issues d’un processus physique bien plus ancien, remontant à l’époque où, si l’on convertit la densité d’énergie qui règne alors en température, ladite température était de quelques ordres de grandeur inférieure à celle de Planck (c’est en tout cas ce qu’il se passe dans les modèles d’inflation). Mais l’observation effective de ces fluctuations de densité n’est possible qu’à partir de la recombinaison. En effet, ces fluctuations sont essentiellement produites au moment où, du fait de la dynamique atypique de l’expansion de l’univers pendant l’inflation, elles deviennent plus grande que l’univers observable d’alors : elles sont donc inobservable au moment de leur création. Une telle erreur est loin d’être anodine : elle montre à quel point des notions essentielles (et basiques) de cosmologie, que n’importe quel étudiant de Master maîtrise sans guère de difficulté, ne sont ici absolument pas comprises.

•p. 160, les auteurs affirment avec un aplomb étonnant que la longueur de Planck est la limite de divisibilité de la matière (en prenant l’exemple d’une feuille de papier). On se serait attendu qu’ils parlent plutôt ici de l’échelle atomique ou moléculaire ! Sans doute voulaient-ils parler d’une possible limite de divisibilité de l’espace, quoique ce terme soit assez ambigu et devrait être précisé. De plus, parler de la longueur de Planck comme « frontière de notre réalité physique » est également insatisfaisant. Il faudrait plutôt parler de l’échelle limite où le cadre mathématique des lois de la physique que nous connaissons devient inutilisable. Il est également possible qu'il ne soit plus physiquement possible de tester la structure de l'espace-temps à des échelles aussi petites (c’est en substance ce que dit Shahn Majid dans un texte cité par les auteurs chapitre 19), mais si c'est cela que veulent dire les auteurs, c’est d’une part mal dit, d’autre part non expliqué, donc sans guère d’intérêt pour le lecteur.

•p. 161, les auteurs affirment, toujours sans aucune justification, que l’espace-temps ne possède plus qu’un bit au temps de Planck, ceci résultant de calculs faits par des « experts en cosmologie quantique » (en l’occurrence Seth Lloyd, qui ne semble guère pouvoir prétendre à un tel statut au vu de sa quasi-absence de publications dans le domaine[9]. Ce calcul qui tel qu’il est évoqué peut sembler difficile n’est rien d’autre que l’affirmation que l’univers observable de cette époque ne possède plus qu’un petit nombre de bits. Ce petit nombre résulte seulement du fait qu’à cette époque le contenu (approximatif) d’une région d’univers observable (déduite ici naïvement en extrapolant les équations de Friedmann) ne contient guère plus d’une particule (à raison d’un bit par particule) et que la taille de l’horizon est de l’ordre de la surface de Planck (et ne possède donc qu’un bit). Mais cette constatation est tout à fait triviale. Si l’on suppose le nombre de particules conservé lors de l’expansion (ce qui est le cas aujourd’hui, mais qui n’était probablement pas le cas dans l’univers primordial), alors le nombre de particules présentes dans une région observable n’est pas constant au cours du temps. Pendant une grande partie de l’expansion de l’univers, ce nombre augmente, et par voie de conséquence le nombre de bits associés aussi. Comparer quelque propriété que ce soit de ce qui correspond à l’univers observable à un instant donné avec l’univers observable d’un autre instant est quelque peu risqué (et potentiellement sans objet) puisque le système étudié n’est pas le même. Ici, comparer leur nombre de bits est sans aucun intérêt. Ce type de discours complètement incohérent se poursuit p. 162.

•p. 161 toujours, les auteurs semblent s’extasier sur le fait qu’un bit soit communément représenté par ce que l’on appelle une sphère de Bloch. Ils semblent en tirer la conclusion « extraordinaire » (selon leur terme) que cela impliquerait quoi que ce soit pour l’univers. Il n’en est bien sûr rien, la sphère de Bloch étant juste un objet mathématique permettant d’encoder les quantités qui décrivent un qubit, qui nécessite deux angles, un angle, θ pour l’amplitude relative des deux états (proprotionnelle respectivement à cos θ et sin θ, l’angle pouvant être pris dans l’intervalle [- π / 2, π / 2]), et une phase φ, variant entre 0 et 2 π, ce que l’on peut effectivement associer aux deux angles usuels de colatitude (à une petite transformation près sur l’angle) et de longitude de la géométrie sphérique. La pseudo-justification de ce que les auteurs semblent tirer en terme de réalité physique de cette sphère de Bloch est une phrase citée complètement hors-contexte d’un article (au demeurant non publié et ne comptant aucune citation) de physique quantique[10], qui n’apporte aucun élément pour étayer leur propos. Les auteurs montrent par la suite qu’ils ne comprennent pas de ce qu’est une sphère de Bloch (ce dont on se doutait un peu !), puisqu’ils affirment que seuls deux points de la sphère de Bloch représentent des « états purs ». Or la sphère de Bloch est (par définition) une représentation des états purs : chacun de ses points en représente un. Sans doute les auteurs étaient-ils sensés parler des états classiques (ne correspondant pas à une superposition des deux états possibles du bit après mesure), mais leur incompréhension de la terminologie (pourtant élémentaire !) de la mécanique quantique les amène à avoir un propos incohérent.
La suite du paragraphe (page suivante), est sans doute un des passages les plus invraisemblablement ridicules écrit par les auteurs. Ils affirment qu’il est « naturel » de doter la sphère de Bloch non pas de deux mais de trois dimensions à l’époque de Planck. Ceci ne veut strictement rien dire ! C’est même une des plus grosses inepties que l’on peut trouver dans cet ouvrage, tout comme l’est l’assimilation de la sphère de Bloch munie de son incohérente dimension supplémentaire à quoi que ce soit qui concerne la structure de l’univers. À partir du moment où le nombre d’états classiques du système est fixé (ici, deux pour un qubit), la structure de la sphère de Bloch l’est également (ici, elle est représentable par une sphère à deux dimensions). L’incohérence la plus absolue continue sur cette page, où les auteurs affirment que l’existence d’un seul bit la possibilité qu’a l’Univers « d’être là ou... de ne pas y être ». Ceci ne veut, à nouveau strictement rien dire. A priori, si le bit considéré se rapporte à une particule, il ne s’agit rien d’autre que de son spin (c’est en tout cas la façon dont Seth Lloyd présente les choses), et n’a strictement rien à voir avec une quelconque propriété de l’espace-temps. On ne voit de toute façon ce que ce « être là ou ne pas y être » pourrait bien vouloir dire dans une formulation scientifique rigoureuse.

•La lecture pénible de la suite de la page 162 montre une autre incohérente, puisque les auteurs y affirment que l’entropie de l’univers observable d’alors est « inférieure » à un, assertion incohérente avec l’évocation d’un bit unique (nombre de bits et entropie sont, comme indiqué en début de texte, la même chose).

•p. 163 se trouve une autre erreur assez inimaginable de la part de prétendus physiciens. Ils affirment que la supersymétrie correspond à l’unification de toute les interactions connues. La supersymétrie n’a a priori rien à voir avec cette unification.
Les quatre interactions connues (électromagnétisme, interactions faible et forte, gravitation) ont historiquement été décrites séparément les unes des autres. L’interaction faible et l’électromagnétisme ont été unifiés dans le cadre de ce qui est appelé théorie électrofaible, dont les résultats ont été testés dans les accélérateurs de particules car l’échelle d’unification est de l’ordre de 100 GeV, qui est une énergie atteignable expérimentalement. De nombreux modèles existent pour unifier la théorie électrofaible à l’interaction forte. On parle alors de théorie grand unifiée, mais l’unification se produit à des énergies considérablement plus élevées et probablement inaccessibles expérimentalement, même à long terme. Certaines prédictions existent cependant, et sont testables, comme l’éventuelle durée de vie finie au proton. C’est ainsi qu’une des premières théories grand unifié (et une des plus simples, dite modèle SU(5)) a pu être exclue par la non-observation de la durée de vie du proton. L’on pense qu’il est possible d’unifier la gravité aux trois autres interactions, quoiqu’on ne sache pas réaliser cette unification, du fait que la gravité n’est pas une théorie dont on peut proposer une version quantique. Quand on réalise une telle unification, on parle alors de théorie du tout. On considère qu’à suffisamment haute énergie (au voisinage de l’énergie de Planck), il faut utiliser une telle théorie pour décrire les phénomènes, parmi lesquels l’évolution de l’univers quand il se trouve à l’échelle de Planck. En revanche, la supersymétrie ne s’inscrit pas du tout dans ce cadre d’unification. Elle repose sur l’idée qu’à chaque espèce de particule connue peut être associée une particule aujourd’hui inconnue appelée superpartenaire, et qui suit une statistique différente : si la particule connue est un fermion, son superpartenaire et un boson et vice-versa. À haute énergie, particule ordinaire et superpatenaires ont des propriétés identiques (notamment la masse), mais pas à basse énergie. Les particules supersymétriques ont une énergie de masse supérieure aux énergies atteignables actuellement, mais qui pourraient être atteignables par le LHC. Divers arguments théoriques laissent en effet penser que l’échelle où pourrait se manifester la supersymétrie est celle qui va être atteinte par le CERN. Il peut exister des liens entre la supersymétrie et les théories du tout. Par exemple la théorie des cordes prédit l’existence de la supersymétrie. Mais appeler « supersymétrie » une quelconque théorie unifiée n’a pas de sens et ne s’explique que par l’immense ignorance des auteurs pour des concepts connus de n’importe quel physicien des particules.

•p. 164, les auteurs commencent à affirmer que des observations astrophysique viendraient en soutien de leur prétendue prédiction selon laquelle l’univers serait muni d’une courbure légèrement positive. Comme cela sera vu plus loin, ceci est une affirmation mensongère, aucune observation astrophysique consensuelle n’amenant une telle conclusion. On est au demeurant choqué (quoique modérément surpris) par l’assimilation des « astrophysiciens » à des personnes dogmatiques qui en d’autres temps auraient affirmé que la Terre était plate...

•p. 167, les auteurs s’essaient sans succès au jeu des conversions d’unités. En convertissant l’énergie de Planck (1019 GeV) en électronvolts (ce qui donne 1028 eV), ils trouvent « 100 milliards de milliards de milliards de milliards », soit 1038 eV : une erreur d’un facteur 10 milliards... Indépendamment de cette erreur, les auteurs véhiculent à cet instant là, comme ils le feront plusiurs fois par la suite, l’idée que cette énergie là est une énergie « maximale ». C’est certes peut-être vrai pour une particule élémentaire, mais pas pour un objet macroscopique. Convertie en unités plus communes, l’énergie de Planck est de l’ordre du milliard de joules, soit par exemple l’énergie cinétique d’un train de 1500 tonnes se déplaçant à 160 km / h. Si cette énergie n’est donc pas considérable au niveau macroscopique, l’imaginer concentrée dans une particule élémentaire extraordinairement petite est assez, indiscutablement, impressionnant.
Chapitre 11

•p. 169, l’affirmation selon laquelle l’époque de Planck est considérée par certaines personnes non identifiées comme « inconnaissable à tout jamais » ou « zone interdite » ne repose sur rien. La seule certitude est que les connaissances actuelles en physique ne permettent pas d’étudier cette époque, si tant est qu’elle ait effectivement existé (ce que les auteurs considèrent à tort comme acquis ; voir p. 183 ci-après).

•p. 169, les auteurs présentent un « théorème algébrique » obtenu dans le cadre de la théorie des groupes quantiques aurait un « sens physique ». Aucune précision supplémentaire n’est donnée ici, et aucune référence n’est donnée quant à ce théorème. Tout porte à croire que le théorème en question correspond à la section 3.3.2 de la thèse de Grichka Bogdanov. Ce résultat n’avait à l’époque pas été jugé suffisamment important par les auteurs pour le publier séparément en tant qu’article scientifique. Ils ont mis cet article en ligne sur le serveur de prépublications arXiv suite à la polémique qui a éclaté fin 2002 au sujet de la validité de leurs travaux[11], mais cet article n’a jamais été accepté dans une revue scientifique à comité de lecture (et aucun élément ne permet d’ailleurs d’affirmer qu’il a même effectivement été soumis). Quel est le statut de ce résultat ? La version en ligne de l’article ne compte, près de sept ans après sa mise en ligne, aucune citation dans un autre article scientifique publié. Elle ne fait aucune mention d’une utilisation dans le cadre d’un quelconque modèle ou scénario cosmologique. Une telle mention n’est pas non plus explicitement présente dans les travaux publiés des auteurs : La seule mention de ce résultat dans la suite de la thèse de Grichka Bogdanov est située section 5.2.1, où est simplement écrit que le théorème obtenu « suggère » la possibilité de la fluctuation de la signature de la métrique. Par ailleurs, l’étude détaillée de ce travail révèle que dans sa formule actuelle, la formulation du théorème manque de rigueur et est fausse (même si on peut reformuler de façon exacte) et quelque peu trivial : il ne correspond qu’à une généralisation d’un exemple donné par Shahn Majid dans une monographie. Indépendamment de son importance supposée (et non prouvée), le niveau de complexité du théorème relève d’un stage d’étudiant de Master, bien loin des « plusieurs années de travail » évoquées par les auteurs[12]. En bref, les auteurs mentent sur l’importance réelle de ce résultat.

•p. 170, l’affirmation selon laquelle la limite entre la cosmologie classique et l’ère de Planck « peut être comparée à l’horizon invisible d’un trou noir » ne repose sur rien. Le passage dans l’ère de Planck s’accompagne selon toute vraisemblance par un changement des conditions physiques, alors que le passage de l’horizon d’un trou noir ne s’accompagne pas d’effets observables. Une telle affirmation de la part des auteurs se répète quelques pages plus loin (p. 178). Ce manque total de rigueur, qui caractérise toute la suite de ce chapitre (et le suivant) montre clairement que le discours tenu n’est désormais en rien scientifique, mais se résume à une collection généralement incohérente de termes techniques qui ne sont certainement pas maîtrisés par les auteurs, et dont il est difficile d’imaginer qu’ils n’aient pas pour but d’impressionner le lecteur.

•p. 170, les auteurs s’imaginent ne pouvoir être décrits, s’ils pouvaient être présents lors de l’ère de Planck, que par ce qu’ils appellent une « probabilité de présence ». Ce terme entre guillemets n’est pas explicité et n’a guère de chances d’être compris par le lecteur. Il s’agit en fait d’un terme décrivant un concept essentiellement issu de mécanique quantique non relativiste, où les objets sont effectivement décrits comme des probabilités de présence (un objet n’est pas localisable avec une précision arbitraire, aussi ce qui tient lieu de sa position est une fonction qui décrit la probabilité de trouver l’objet à tel ou tel endroit si on effectue une mesure de sa position). Mais ce concept de probabilité de présence ne fait pas partie de la théorie quantique des champs. On a surtout l’impression d’une utilisation (impropre) de jargon destiné à impressionner le lecteur.

•p. 171, les auteurs affirment avec aplomb que selon eux, « la force de gravitation ne se contente pas d’agir sur l’espace : elle déforme également le temps ». Ce que les auteurs semblent présenter comme une forme d’intuition (« Selon nous », écrivent-ils) est en fait une trivialité. En fait, la première prédiction concrète faite par Einstein au sujet de la relativité générale a été l’existence de ce qu’on appelle l’effet Einstein, qui est précisément le fait que l’écoulement du temps est affecté par le champ gravitationnel. Ce résultat a été obtenu plusieurs années avant l’écriture des équations exacte décrivant le champ gravitationnel. Du reste, les auteurs font ultérieurement mention de cet effet Einstein (p. 227, quoique pas sous ce nom), signe à nouveau d’un manque de cohérence manifeste dans leur discours.

•p. 173, l’affirmation selon laquelle l’hypothèse des auteurs de l’existence d’un temps imaginaire (qui est ce qu’ils présentent comme le point central de leurs travaux) est confortée par le théorème évoqué p. 169 est mensongère. Comme déjà dit, rien dans ce théorème ne permet d’effectuer un tel lien. L’article séparé publié par les auteurs sur ce théorème ne fait pas mention d’un tel lien, et la thèse de Grichka Bogdanov indique que le résultat de ce théorème « suggère » l’existence du temps imaginaire. De ce fait toutes les prétendues conclusions tirées par les auteurs à partir de ce moment sont essentiellement sans objet et relèvent du médiocre argument d’autorité.

•p. 177, les auteurs évoquent les monopôles de Dirac, sans guère de détails et sans présenter l’importance des résultats obtenus par Dirac (la présence de monopoles magnétique expliquerait pourquoi la charge électrique est quantifiée comme observé). Par contre, le passage aux monopoles « gravitationnels » (entre guillemets dans le texte) est très obscur. On a en particulier du mal à savoir ce que les auteurs entendent par « soumis à une gravité extrême ». A priori, toute masse ponctuelle est un monopole gravitationnel (son champ est purement radial). Du reste, il n’e semble pas exister de dipôles gravitationnels dans la Nature. Enfin, les auteurs citent un article de « Thibaut Damour et Pierre Fayet » comme supportant leur idée[13]. Ils oublient, volontairement sans doute, le troisième auteur de l’article (et premier signataire !), Alain Connes, qui avait à l’époque vivement critiqué leurs travaux. En tout état de cause, cet article n’affirme pas que les monopoles « pourraient bien exister autour du Big Bang et y devenir très important » comme les auteurs disent. En fait rien dans l’article cité correspond de près ou de loin à ce à quoi les auteurs se référaient jusque là en parlant de monopoles. En effet, cet article décrit des distributions de matière qui ne sont pas à symétrie sphérique, mais qui génèrent un champ extérieur à symétrie sphérique. Au sens newtonien, il s’agit donc de « monopoles », puisque le champ gravitationnel décroît loin de l’objet exactement comme une particule ponctuelle (ou à symétrie sphérique). Cela n’a rien à voir avec les monopoles dont les auteurs ont parlé jusque là.

•p. 179, les auteurs prétendent qu’il existe des moyens observationnels ou expérimentaux de tester leurs idées, et de citer le satellite Planck et le plus puissant accélérateur de particules, le LHC. Ils indiquent que le LHC pourrait mettre en évidence l’existence de dimensions supplémentaires, (ce qui est vrai : c’est le seul scénario qui pourrait expliquer la production éventuelle de trous noirs microscopiques), mais pas forcément une seule comme ils l’affirment, et que Planck pourrait mettre en évidence la « topologie primordiale ». Ce que le satellite Planck peut contraindre, c’est la topologie actuelle de l’univers (ou plus précisément sa topologie au moment de la recombinaison, attendu qu’aucun phénomène connu ne pourrait changer celle-ci entre cette époque et maintenant), mais pas grand chose sur ce dont ils parlent actuellement, à savoir le contenu matériel de l’univers pendant l’ère de Planck. Cette situation s’explique par le fait que l’échelle d’énergie où sont pense-t-on produites les fluctuations de densité observées dans le fond diffus cosmologique est estimée être quelque part entre 1014 et 1016 GeV, soit plusieurs ordres de grandeur en dessous de l’échelle de Planck. Quant au LHC, il ne peut mettre en évidence l’existence de dimensions supplémentaires d’espace que dans des cas très particuliers, et rien ne permet de faire un lien entre ces éventuelles dimensions supplémentaires et le temps imaginaire cher aux auteurs.

•p. 180, les auteurs parlent, comme ils l’ont plusieurs fois fait dans des précédents ouvrages, du « cône de lumière de l’espace-temps ». Tout porte à croire que le concept de cône de lumière leur est totalement étranger. En relativité, un cône de lumière est associé à un point donné (et non à l’espace-temps dans sa globalité), et correspond à la figure qui permet de séparer les points de l’espace-temps qui sont dans le passé de ce point, dans le futur de celui-ci, ou ailleurs. Le terme de « passé » correspond ici aux points où se produisent des événements susceptibles d’affecter ce qui se passe au point considéré, et le terme de « futur » aux points où se produiront des événements susceptibles d’être influencés par le ce qu’il se passe au point considéré, l’« ailleurs » correspond aux points qui ne sont dans aucun de ces deux cas. Quelle que soit la structure de l’espace-temps, on peut toujours définir le cône de lumière associé à un point, et ce cône ne peut en aucun cas être « disloqué », selon les termes des auteurs, par une structure, fût-elle compliquée, de l’espace-temps. Si on essaie de faire l’exégèse du propos des auteurs au sujet du cône de lumière, il semble que celui-ci soit dans leur esprit lié d’une façon ou d’autre autre à la dynamique de l’expansion de l’univers (c’est en tout cas l’interprétation que l’on est tenté de faire à partir d’un schéma situé en toute fin d’ALBB[14]), mais aucune définition concrète n’en est donnée. Ce concept pourtant élémentaire n’est, en tout état de cause, pas compris, comme de nombreux autres.

•p. 181, les auteurs refont la même erreur au sujet du cône de lumière, dont ils mettent la base sur la singularité, ce ne veut pas dire grand chose (la singularité ne fait a priori pas partie de l’espace-temps, il est donc difficile d’y mettre la base d’un cône de lumière). Par ailleurs, les termes utilisés pour évoquer la singularité comme une « nappe lumineuse, inouïe » qui les laisse « émerveillés et fascinés » ne relève certainement pas du langage scientifique, mais plutôt d’un style pseudo-littéraire que l’on utiliserait pour décrire une sorte d’expérience mystique.
Chapitre 12

•p. 182, les auteurs parlent du « rayonnement pur » de la singularité. Ce terme ne veut rien dire. On ne sait pas décrire ce qui est issu d’une singularité gravitationnelle de type Big Bang (si tant est qu’elle existe, voir remarque suivante). Le contenu matériel issu de la singularité n’est donc pas connu. Si on se réfère au propos des auteurs, il s’agit d’instantons et éventuellement de monopoles. Ils ne font pas mention de rayonnement. Du reste, les photons sont des particules issues dans la limite à basse énergie de la théorie électrofaible, il n’est pas clair qu’ils aient une existence propre à très haute énergie.

•p. 183, les auteurs discutent (enfin !) du bien-fondé de la singularité comme commencement de l’espace-temps, singularité dont l’existence « ne fait pas le moindre doute ». Cette affirmation est tout simplement fausse, et révèle à nouveau que des résultats parfaitement connus de la plupart des cosmologistes sont inconnus des auteurs. La preuve invoquée par les auteurs découle des théorèmes sur les singularités de Hawking et Penrose. Ces théorèmes décrivent le contexte dans lequel la formation des trous noirs est inéluctable, ce qui était le cadre dans lequel Hawking et Penrose ont élaboré ces théorèmes. Si on utilise ces théorèmes en inversant le cours du temps, ceux-ci discutent alors les conditions sous lesquelles l’univers dans son ensemble peut être issu d’une singularité initiale. Ces théorèmes indiquent donc que l’existence d’une singularité passée dans un univers homogène et isotrope est inéluctable quand trois conditions sont réunies. Parmi ces trois conditions figure le fait que la gravitation soit tout le temps attractive, ce qui techniquement traduit par ce qu’on appelle la condition forte sur l’énergie. À l’époque où les théorèmes de Hawking et Penrose ont été écrits, cette hypothèse était implicitement considérée comme vérifiée, ce qui transparaît dans l’ouvrage « The large-scale structure of space-time » co-écrit par Hawking[15]. On sait aujourd’hui que rien ne permet d’ériger cette hypothèse en certitude. En fait, une des plus grandes certitudes de la cosmologie primordiale est que la plus lointaine époque à laquelle on puisse remonter décrit un univers où cette hypothèse n’est pas vérifiée. En effet, durant la probable période d’inflation cosmique qu’a connue l’univers très tôt dans son histoire (période qui explique simultanément l’homogénéité et l’isotropie à grande échelle, ainsi que la présence de petites fluctuations de densité à partir desquelles se sont formées les amas et superamas de galaxies), l’univers est presque exclusivement empli d’une forme de matière dont la pression est négative et agit comme une sorte d’antigravité (c’est-à-dire qu’elle provoque une accélération et non une décélération des différentes régions de l’univers les unes par rapport aux autres). En fait, en poussant la logique des scénarios d’inflation, on arrive assez naturellement au concept d’inflation chaotique éternelle proposé par le russe Andréi Linde, scénario dans lequel il n’y a jamais eu de singularité initiale. Du reste, les auteurs font à nouveau manque d’un sens logique élémentaire : le premier modèle cosmologique issu de la relativité générale, l’univers statique d’Einstein, est précisément un modèle où il n’y a pas de singularité initiale. De façon ironique, le second modèle cosmologique proposé, l’espace de de Sitter, ne présente pas non plus de singularité initiale, puisqu’il décrit un univers en expansion mais de densité constante. Dans ces deux cas est présente une constante cosmologique qui viole la condition forte sur l’énergie invoquée pour ces théorèmes (cette condition est également violée pendant l’inflation).

•p. 183, les auteurs assimilent la singularité au fait qu’un hypothétique « rayon » de l’univers tendrait vers 0 à l’approche de la singularité. En cosmologie, les distances relatives entre deux régions ou objets de l’univers évolue par l’intermédiaire d’une quantité appelée facteur d’échelle, quantité qui tend effectivement vers 0 à l’approche d’une singularité. Cette quantité a effectivement à certaines époques été assimilée à un « rayon » (la notation R en résultant, du reste, même si aujourd’hui elle est abandonnée), mais en aucun cas elle peut être assimilée à un rayon de l’univers, ce qui supposerait une extension finie de celui-ci, chose dont les auteurs semblent certes convaincus, mais qui n’est pas prouvé à l’heure actuelle (et dont rien ne permet d’assurer qu’elle le sera un jour, voir ci-après). Par ailleurs, les auteurs en profitent pour affirmer « le zéro est inévitablement associé à la singularité originelle », ce qui annonce le discours qu’ils vont tenir par la suite, mais qui ne correspond pas à la façon dont on décrit une singularité. La caractérisation mathématique d’une singularité gravitationnelle est assez délicate et, que ce soit dans sa caractérisation ancienne par Hawking et Ellis[16] ou dans les travaux plus récents, elle ne repose pas spécialement sur le concept mathématique du zéro, mais, entre autres, par la divergence de certaines quantités décrivant le champ gravitationnel ou par le fait que certaines trajectoires dans l’espace-temps considéré sont dites « incomplètes », c’est-à-dire qu’elles atteignent dans certaines conditions une région où elles ne peuvent plus être prolongées.

•p. 184, les auteurs affirment que « il nous semble que seule une approche mathématique a quelque chance de fournir des indications valides [de la description d’une singularité] ». Ce propos, qui tel qu’il est posé résulte manifestement d’une opinion personnelle est difficilement intelligible : en grossissant le trait, on peut dire que la physique n’est rien d’autre qu’une tentative de modélisation du réel faite avec des objets mathématiques : c’est une mathématisation du réel. Dans ce contexte, on voit mal la différence entre une théorie physique et une « approche mathématique » pour reprendre les termes des auteurs. En fait, il est probable que les auteurs n’ont pas d’idées claires sur la question, ne serait-ce que parce que leur maîtrise des différentes branches de la physique est très médiocre sinon inexistante.

•La suite de la page 184 correspond au début d’une partie où les auteurs tiennent un discours crypto-poétique qui n’a plus grand chose à voir avec un travail scientifique (et pour cause : ils ne décrivent plus des phénomènes physiques bien connus, mais parlent à la place de ce qu’ils présentent comme un travail scientifique).

•p. 185, les auteurs usent d’un étrange argument d’autorité pour étayer leurs affirmations concernant les instantons. Ils affirment sans guère de preuves que dans leur scénario fait des précisions quantitatives précises concernant la population d’instantons et leur taille, et citent un article d’Edward Witten sur les instantons pour prétendument en tirer des conclusions sur le bien fondé de leur approche. Il n’y a strictement aucun lien concret entre leurs propres travaux et ceux d’E. Witten. Ce dernier résultat d’un modèle spécifique de théorie des cordes à dix dimensions, ce qui n’a rien à voir avec ce que font les auteurs. La lecture des travaux publiés par les auteurs conforte cette analyse. Dans au moins un de leurs articles[17], ils font effectivement référence au même article de Witten, mais sans démontrer un quelconque lien avec leurs travaux. Une grande partie du texte de la fin de ce chapitre tient, à nouveau de l’élucubration pseudo-mystique et non du discours scientifique sérieux. L’affirmation selon laquelle le zéro engendrerait toute chose (un thème récurrent chez les auteurs) en fait partie. Les auteurs semblent pour le moins fascinés par le fait qu’un petit nombre de règles mathématiques permette de construire les nombre entiers, puis les entiers relatifs, les nombres rationnels et les nombres réels, mais ceci n’a pas grand chose à voir avec la cosmologie. La plupart sinon la totalité des objets physiques sont représentés par des constructions mathématiques qui ne peuvent être construites uniquement avec des nombres (loin s’en faut), et aucun élément ne permet d’affirmer que cette situation change pendant l’ère de Planck. On s’attendrait au contraire que les théories physiques qui décrivent l’ère de Planck étant pour l’heure inconnue, celles-ci soient sans doute relativement complexes et fassent appels à des objets mathématiques plus sophistiqués encore que ceux des théories existantes (en l’occurrence théorie quantique des champs et relativité générale).

•p. 195, les auteurs attribuent le chiffre de 10120, correspondant ici au nombre d’opérations élémentaires que l’on peut associer à l’univers observable actuel considéré comme un ordinateur géant, le nom de « nombre de Lloyd ». Cette dénomination n’a pas lieu d’être, ce chiffre se déduisant de façon relativement triviale de la donnée du rayon de l’univers observable, de son âge et du nombre de ses constituants (ce que Seth Lloyd concède lui-même dans son article de 2001 cité plus haut).

•p. 195, les auteurs présentent une curieuse définition de la factorielle, qu’ils définissent (quand son argument est zéro) comme « zéro multiplié par le nombre qui lui serait immédiatement inférieur » [a priori –1, donc]. Cette définition est fausse, la factorielle étant définie par la relation habituelle n ! = n × (n - 1) !, ce qui ici indique que la factorielle de 0 est (formellement) égale à zéro fois la factorielle de –1 (et non à 0 multiplié par –1). Le fait que la factorielle de 0 soit une quantité finie indique que la factorielle de –1 est infinie. Les raisons de cette bizarrerie s’expliquent naturellement en faisant appel à la définition moderne de la factorielle, qui fait intervenir la fonction Gamma d’Euler. La mention du « formidable « potentiel d’engendrement » du zéro », qui continuerait à fasciner on-ne-sait qui est dans ce contexte des plus ridicules.

•p. 195, les auteurs font plusieurs confusion au sujet du 0 vu comme nombre complexe. Le 0 des nombres entiers ne correspond en principe pas au zéro est entiers relatifs (au sens où techniquement parlant, ce n’est pas le même objet mathématique). Le second est en effet vu comme une classe d’équivalence construite à partir des paires ordonnées d’entiers naturels. Il existe bien sûr une application qui à tout nombre entier associe un entier relatif non négatif, cette injection canonique associant l’entier relatif dont la classe contient (n, 0) à l’entier naturel n. La construction des nombres rationnels, puis des réels, puis des nombres complexes, se fait là encore en définissant les éléments de ces nouveaux ensembles sous la forme de classes d’équivalences de structures définies à partir d’éléments de l’ensemble précédent. Parler dans ce paragraphe du 0 du fait que le zéro (lequel ?) « n’est pas fondamentalement un être stable » et qu’il a un « contenu dynamique » ne veut strictement rien dire, quel que soit le zéro dont on parle. Du reste, la majeure partie des références que font les auteurs au sujet des nombres complexes ne repose pas sur les constructions successives évoquées, mais sur la représentation des nombres complexes par le plan complexe, qui n’est pas une construction fondamentale. Du reste, même si l’on considère que l’approche faite à partir du plan complexe est plus fondamentale, dire que le zéro des nombres complexes est le seul nombre à la fois réel et imaginaire pur n’a guère plus de contenu que d’affirmer que dans un plan euclidien, deux droites orthogonales (ou même non parallèles) s’intersectent toujours un en unique point.
Chapitre 13

•p. 198, l’affirmation que les idées développées par les auteurs sont à l’ « extrême pointe de la physique théorique actuelle », et de préciser « qu’elles en font partie » est pour le moins discutable. Beaucoup des outils que les auteurs prétendent utiliser font partie de la physique théorique, mais il est difficile de les placer « à la pointe » de celle-ci. Ces outils là ne sont en effet pas spécialement nouveaux, ils ont pour la plupart été introduits il y a plusieurs décennies, quand bien même le lecteur curieux n’en aurait jusque là jamais entendu parler. Par ailleurs, de nombreux résultats ont été obtenus dans chacun de ces domaines. Il n’y a semble-t-il guère plus que les auteurs pour penser que leurs travaux représentent une quelconque percée dans quelque domaine que ce soit. Au vu de leur inculture scientifique généralisée, et au vu du peu de prise que plusieurs de leurs interlocuteurs directs lors de leurs thèses avaient sur les sujets étudiés, il est possible qu’ils se soient laissés tenter par l’idée selon laquelle peu de gens avaient une expertise dans les domaines qu’ils abordaient, mais cela illustre plus leur propre ignorance qu’une quelconque vision objective de la recherche en physique.

•La suite du propos des auteurs repose elle aussi sur des arguments fallacieux. Au motif que très peu de choses sont connues au sujet de l’éventuelle singularité initiale (ce qui est vrai, puisqu’on ne connaît pas les lois physiques susceptibles de la décrire), le lecteur se voit asséner que son ignorance à lui n’est guère plus grande que celles des scientifiques sérieux qui travaillent sur ces thématiques. C’est là un argumentaire classique des pseudos-sciences : où il est régulièrement affirmé qu’au motif que de nombreuses zones d’ombre existent dans tel ou tel domaine scientifique, un ignorant complet en saurait presque autant (ou à peine moins, selon le cas) que des chercheurs travaillant depuis des années dessus. C’est en somme mettre sur le même plan les pistes explorées avec beaucoup de soin et qui ont effectivement mené à des impasses avec l’absence totale de connaissances sur le sujet. Cela n’a pas de sens. On ne sait effectivement pas bien avec certitude à quoi ressemblera une théorie quantique de la gravitation, mais les chercheurs savent avec certitude à quoi elle ne ressemblera certainement pas, ce qui fait une différence considérable.

•p. 198 et suivante, les auteurs invoquent une citation d’Alan Guth pour étayer leur propos. Ils présentent (à juste titre) Alan Guth comme le père de l’inflation[18], concept qu’ils n’ont jamais décrit dans leur ouvrage, malgré un « souvenez-vous » qu’il est difficile de relier à quoi que ce soit. Mais le plus grave est dans la suite. Ils présentent Guth comme « lâché » (en italiques dans le texte) « par ses propres certitudes », affirmant que « L’instant de la création reste dans les ténèbres ». Cette affirmation (dont le contexte n’est pas précisé) correspond exactement aux conséquences des scénarios d’inflation. Les conditions physiques permettant à une phase d’inflation de démarrer sont en effet très peu contraignantes, et par ailleurs, l’inflation a tendance à faire disparaître toute trace de l’état de l’univers aux époques antérieures à elle. Dans un scénario cosmologique comprenant une phase d’inflation, il est donc tout à fait possible (et même probable) que l’on n’ait aucun moyen observationnel de remonter à des époques antérieures à celle de l’inflation. Affirmer que l’instant de la création reste dans les ténèbres est donc techniquement parfaitement motivé. Ce que les auteurs vont faire par la suite du chapitre va être de prétendre trouver des traces observationnelles susceptible de conforter leur scénario. Mais, pour les raisons évoquées à l’instant, cette discussion a de fortes raisons d’être totalement sans objet puisque l’hypothèse que l’univers actuel soit issu d’une phase inflationnaire est assez fortement suggéré par les données. Par ailleurs, quand bien même il n’y aurait pas eu de phase d’inflation dans l’univers primordial, il est probable que le vrai scénario possède en commun avec l’inflation la propriété d’effacer les conditions antérieures de l’état de l’univers. En effet, l’homogénéité et l’isotropie de l’univers ne semblent pouvoir s’expliquer dans l’état actuel des connaissances que par l’existence d’un processus (inflation ou autre) qui a forcé une vaste région de l’univers à devenir ainsi, quel qu’ait été son état initial.

•p. 201, les auteurs invoquent leur ami Luboš Motl à la rescousse pour affirmer qu’ils disposent de soutiens dans le milieu académique. Pour preuve de son intégrité, ils présentent M. Motl comme l’unique voix dissonante à l’époque de la surmédiatisation du modèle de Gareth Lisi[19], dont il aurait été le seul à entrevoir le peu d’intérêt. Mais cette présentation est très erronée. Si la presse généraliste a consacré, pour des raisons d’ignorance de ce qu’est réellement la physique théorique, une place certainement excessive à ce travail, il n’en a pas été de même de la communauté scientifique dans son ensemble, qui a globalement peu utilisé ou commenté ce travail[20]. Ce en quoi Luboš Motl s’est singularisé, c’est le ton coutumier assez direct (et quelque peu inélégant) avec lequel il a donné son opinion.

•Dans la suite du paragraphe, les auteurs font un amalgame sans doute volontaire entre les commentaires très élogieux qui ont été faits sur le directeur de thèse de Tom Banks et ceux qu’ils attribuent de façon très personnelle à Luboš Motl. Il est du reste assez curieux de voir qu’au final, les auteurs présentent Luboš Motl de « physicien conservateur, ce qu’il est sans aucun doute », puis quelques paragraphes plus loin lui attribuer une « étonnante ouverture d’esprit » !

•p. 202, la terminologie utilisée par les auteurs pour brièvement décrire la gravité quantique à boucles montre que cette discipline leur est étrangère. Ils la décrivent comme « une alternative à la gravité quantique », laissant entendre que le terme de gravité quantique décrit une théorie spécifique de la gravitation, alors que c’est en fait le terme générique décrivant toute théorie de la gravitation compatible avec les concepts de la mécanique quantique. La fin de ce paragraphe les montre relativement incapables d’expliquer la raison d’être du terme « boucles », qu’ils désignent implicitement comme étant une sorte de synonyme à celui d’ « atome d’espace », ce qui n’est techniquement pas le cas, l’un étant la conséquence de l’autre[21].

•p. 202, l’affirmation selon laquelle la « dernière avancée » en gravité quantique à boucle remonte à 1988 ne repose sur rien. En particulier, la première tentative réussie dans cette discipline de donner une interprétation microscopique à l’entropie des trous noirs date du milieu des années 1990[22]. Se greffe dans ce paragraphe et les suivants la controverse bien connue entre tenants et opposants à la théorie des cordes. Divers facteurs ayant fait que plusieurs opposants notoires à la théorie des cordes aient été les premiers à critiquer (à raison) les auteurs, ceux-ci essaient d’instiller l’idée que ce serait uniquement dû à une forme de « jalousie » de la part de ces gens-là, qui craindraient que la pertinence de leur domaine de recherche soit mis à mal par les prétendus résultats obtenus par les auteurs. L’irruption dans ce contexte de Luboš Motl, farouche pourfendeur de toute recherche alternative à la théorie des cordes, procède de cette même logique. Du reste, celui-ci s’est borné à affirmer que selon lui, les travaux des auteurs ne valaient à ses yeux pas moins que ceux produits en gravité quantique à boucles, dont il dit depuis longtemps le plus grand mal. D’une manière générale, il existe un désaccord entre théoriciens des cordes et promoteurs d’autres approches sur le bien-fondé et les promesses potentielles de leurs théories respectives. Ce qui aurait pu être un débat scientifique intéressant tourne hélas depuis plusieurs années à la querelle de personnes, heureusement confinée à une infime partie de la blogosphère.

•p. 204, dans leur présentation de l’« Équation Bogdanov », ouvrage paru l’an dernier et signé Luboš Motl, les auteurs s’attribue le titre de gloire d’avoir vu leurs travaux qualifiés de « nouvelle façon de faire face à la question de l’origine ». Mais Si cette citation correspond effectivement à ce qu’a dit Luboš Motl, son sens réel est trompeur. Luboš Motl est de longue date en lutte contre divers opposants de la théorie des cordes, notamment les promoteurs de la gravité quantique à boucles. Si le débat a tourné de longue date à la querelle de personne, son point de départ était scientifique. Luboš Motl considère que la gravité quantique à boucles est une impasse, et donne diverses raisons (vulgarisées) qui le poussent à cette conclusion. Il s’émeut par ailleurs du statut qu’il considère immérité dont jouissent certains de ses adversaires (Lee Smolin et Carlo Rovelli, notamment), pour ensuite s’émouvoir du traitement moins favorable dont jouissent les frères Bogdanov. Cette situation est vécue par lui comme une injustice, mais non pas tant parce que les auteurs sont injustement déconsidérés, mais au contraire parce que Smolin et al. sont injustement considérés. La défense qu’il prend vis-à-vis des auteurs est donc une défense par défaut, qui est peut-être aussi motivée par des liens plus personnels que scientifiques qu’il a noués avec eux[23]. Du reste, si on lit entre les lignes les commentaires faits par Luboš Motl au sujet du travail des auteurs, le moins que l’on puisse dire est qu’il reste systématiquement ambigu quant à la valeur qu’il lui donne. Sur son blog, on trouve ainsi la phrase sybilline terminée par un smiley Unfortunately, I can’t write more here, for example the equation itself and whether it is correct. The reader will hopefully understand. wink2[24]. Quelques semaines plus tard, il évoque la présence du point d’interrogation dans le sous-titre de son livre « Le secret de l’origine de l’univers ? », mais en des termes tout aussi ambigus : Because there was a question mark in the subtitle, I had absolutely no problem with it even though it was invented by the publisher. One must read the bulk to see whether the question mark is "No" or an "exclamation mark" or something more complex. I would treat loop quantum gravity and other alternative proposals in quantum gravity in the very same way - no problem to write a book "Smolin’s equation: a solution to the Universe?". It just seems as a good and balanced format to introduce such books.[25] En d’autres termes, le fait que le terme « Le secret de l’origine de l’univers » soit présent dans le sous-titre ne préjuge en aucun cas que les travaux des auteurs apportent une réponse, puisque le sous-titre est sous la forme d’une question, et qu’une formulation strictement identique aurait pu être utilisée par lui pour parler de théories scientifiques qu’il considère comme fausses...

•p. 205, l’affirmation selon laquelle les prétendus travaux des auteurs aient été au début de leur médiatisation le seul « « vrai » » sujet de discussion de centaines de chercheurs relève de la pure invention. La majeure partie des personnes ayant lu ces travaux n’a guère eu besoin de temps pour en juger de la valeur. Il est par contre vrai que cet épisode fut un sujet de conversation, mais relevant plus de l’anecdote et de la moquerie que de l’activité scientifique proprement dite.

•p. 206, les auteurs évoquent sans le dire l’article de Ciel et Espace intitulé « La mystification Bogdanov »[26]. Ils ne font pas de lien vers l’article, dont ils ne donnent pas de référence. Le lecteur est donc dans l’impossibilité de juger par lui-même du bien-fondé du terme de « mystification ». Les auteurs omettent par ailleurs de signaler qu’ils ont à la suite de la publication de cet article intenté un procès au journal Ciel et Espace, où ils demandaient plusieurs dizaines de milliers d’euros de dommages et intérêts. Ils omettent également de dire que la procédure n’a jamais été menée à son terme (ils l’ont abandonnée), et qu’ils ont été condamnés à payer 2 500 euros à titre d’indemnisation ainsi que le remboursement des frais de procédure[27].

•p. 207, les auteurs citent un article de deux chercheurs d’Europe de l’est comme supportant leurs travaux[28]. Cet article, très isolé (c’est pour ainsi dire le seul qui mentionne en bibliographie un article des auteurs[29]), et n’ayant pas été publié dans une revue scientifique à comité de lecture (c’est en fait un compte-rendu de conférence), n’est de toute façon en rien basé sur les travaux des auteurs, qu’il cite en passant comme abordant une thématique annexe de celle qu’il aborde (en y consacrant moins d’une demi-ligne). Il est faux de dire que cet article « démontre » quoi que ce soit en rapport avec ce que disent les auteurs d’« Au commencement du temps ». On note au passage que ceux-ci omettent dans leur livre de donner la référence de prépublication de cet article (gr-qc/0508046), ce qui rend complique significativement la vérification de la véracité de leurs dires. Du reste, assimiler les auteurs de cet article-là à des « membres de l’école russe de physique théorique » est une sémantique ronflante et assez trompeuse, montrant à nouveau la présentation systématiquement biaisée qu’ils font des prétendus soutiens dont ils disposent.

résentent comme autant de confirmations plus ou moins explicites de leurs idées. Ils commencent par affirmer que les données de WMAP sondent des époques très anciennes de l’histoire de l’univers (sans expliquer pourquoi ; en fait par le fait que les fluctuations de densité observées ont probablement été générées alors que la densité d’énergie était très élevée, bien qu’inférieure à celle de Planck). Ils datent cette époque à 10-18 seconde après le Big Bang. Cet ordre de grandeur est grossièrement faux, en négligeant la durée de la phase inflationnaire, et en supposant la température équivalente en fin d’inflation aux alentours de 1014 à 1016 GeV, on obtient un âge dont l’ordre de grandeur se situe dans la fourchette 10-38−10-34 seconde[30]. Plus grave que cet ordre de grandeur incorrect (qui de toute façon n’est guère parlant pour le lecteur), est l’affirmation que le LHC devrait « combler » cet écart avec l’époque de Planck. Il n’en est rien, car les énergies sondées (certes directement) par le LHC sont considérablement plus faibles que celles testées (plus indirectement) en cosmologie. Il s’en faut d’ailleurs de beaucoup : 7 TeV pour l’un contre 1014 à 1016 GeV pour l’autre (soit approximativement entre 10 et 12 ordres de grandeur). On a à nouveau l’illustration que ces ordres de grandeur d’énergie, pourtant accessibles à un étudiant de niveau lycée, ne sont absolument pas maîtrisés par les auteurs, dont on imagine que les « sources » utilisées se basent sur les communiqués de presse un peu trop vendeurs du CERN, parlant de « créer le Big Bang en laboratoire ».

•p. 208 encore, les auteurs laissent entendre que le satellite de l’agence spatiale européenne Planck pourra, « à la grande différence de ses prédécesseurs », « déceler d’infimes variations de températures, avec la précision d’un millionième de degré [par rapport à la température moyenne du fond diffus cosmologique] ». La phrase est tellement mal tournée qu’elle en vient à laisser entendre que les prédécesseurs de Planck, les satellites américains COBE et WMAP avaient une précision significativement moindre. Or la situation est plus complexe. Planck a une meilleure précision en température, mais aussi en résolution angulaire et pourra mieux séparer le signal d’origine cosmologique que ces prédécesseurs. C’est la combinaison de ces trois facteurs (en fait plus particulièrement le dernier) qui en fait un instrument avec lequel on peut faire beaucoup plus de science. Mais sur le principe général, Planck fait la même chose (en mieux) que les générations précédentes d’instrument. La différence très quantitative est que des données de la qualité attendue de Planck permettent de bien mieux contraindre les scénarios inflationnaires, mais l’époque correspondante est exactement la même que celle déjà partiellement contrainte par WMAP. Disons qu’il y a une sorte d’effet de seuil qui fait que passée une certaine qualité de données, on entre dans une configuration où l’on peut tirer beaucoup de conclusions, alors qu’auparavant on ne pouvait pas faire grand chose. La note de bas de page p. 209 est à ce titre complètement farfelue, puisque les auteurs laissent entendre que Planck sondera des époques plus anciennes que WMAP. Sans doute les auteurs ont-ils été trompés par le fait que le terme de « Big Bang », qui pour eux correspond à l’instant initial de l’histoire de l’univers correspond en général à la phase très dense et très chaude dont est issu l’univers tel que nous le connaissons. Assurément, les énergies de 1014 à 1016 GeV font partie de cette époque là. Indépendamment de cette erreur, on reste choqué par l’utilisation de propos prononcés par un confrère (Jean-Loup Puget) dans un cadre peu académique (les auteurs mentionnent qu’ils sont issus d’échanges lors de la préparation de l’enregistrement de leur émission) pour prétendument justifier du bien-fondé de leurs travaux.

•p. 209, les auteurs commencent une énumération de diverses observations qu’ils présentent comme autant d’éléments de preuve en faveur de leur modèle. Ils commencent par évoquer l’équilibre thermique de l’univers primordial, puis les estimations de la courbure spatiale de l’univers par le satellite WMAP, la mise en évidence de l’énergie noire, le paradoxe EPR et les trous noirs. Rien de précis n’est dit ici, chacune de ces cinq thématiques se voyant consacrée plus tard un chapitre entier (chapitres 16 à 20), après deux chapitres de digressions diverses sans grand intérêt (14 et 15). On note malgré tout au passage l’affirmation surréaliste que les planètes correspondent à la totalité des « éléments lourds » de l’univers, eux-mêmes représentant 0,03% de la masse-énergie totale de l’univers, les étoiles quant-à elles représentant une fraction de 0,5%. L’assimilation des éléments lourds à des planètes est des plus fantaisistes. Le terme d’éléments lourds renvoie, en astrophysique, à toute forme de matière ordinaire qui ne soit pas de l’hydrogène ou de l’hélium. Ces éléments lourds correspondent aux noyaux atomiques autres que l’hélium synthétisés au cœur des étoiles, mais seule une petite fraction d’entre eux se retrouve finalement dans les planètes (dont les plus massives sont de toute façon vraisemblablement composées majoritairement d’hydrogène et d’hélium). Par ailleurs, en prenant les chiffres de 0,5% et de 0,03% avancés par les auteurs, cela signifierait que la masse des étoiles n’excède pas celle des planètes d’un facteur plus grand que 16, ce qui est totalement farfelu (pour mémoire, dans le Système solaire, le rapport est plus proche de 1000). Là encore on a l’illustration que l’ignorance généralisée des auteurs les conduit dans un premier temps à une association ridicule (éléments lourds-planètes), et que leur manque total de sens critique les empêche de réaliser leur erreur (rapport 16 entre masse des étoiles et des planètes déduite de leur hypothèse).
Chapitre 14

•p. 214, les auteurs continuent leur propos incohérent au sujet de ce qu’ils nomment, entre guillemets, le « cône de lumière cosmologique ». À les lire, ce qu’ils appellent « cône de lumière cosmologique » représente l’ensemble des événements (des points) de l’espace-temps… c’est-à-dire l’espace-temps lui-même. Cette association leur a manifestement échappé. Pour le reste, l’on y apprend que ce cône de lumière (donc notre espace-temps) est conique, preuve cette fois encore que le propos est incohérent : si le cône de lumière associé à un point est, lui, conique par construction, la forme d’un espace-temps est très variable et peut être arbitrairement complexe. L’univers de Gödel, cité plus loin en est un excellent exemple.

•p. 215, les auteurs abordent l’idée que les événements d’un espace-temps « coexistent au sein d’une réalité temporelle unifiée ». Ils se réfèrent là à un livre de vulgarisation de Paul Davies. Le propos initial de Paul Davies n’est pas connu ici, mais ce qu’il affirme probablement n’est rien d’autre que le fait que l’espace-temps est mathématiquement un objet que l’on appelle variété et que, pour beaucoup de situations, il est commode de considérer dans son ensemble. Il n’y a pas de raisons valables de feuilleter une variété d’espace-temps en une série d’hypersurfaces de genre espace (c’est-à-dire extraire l’ « espace » à un instant donné), chacune étant étiquetée par un « instant » donné, comme on le fait implicitement en mécanique classique. On peut certes procéder ainsi en relativité, mais une telle décomposition n’est pas du tout unique, et n’apporte de toute façon pas grand chose à la compréhension de la structure de l’espace-temps. La lecture du propos des auteurs montre que ce point n’a pas été compris, et qu’ils tentent une exégèse personnelle et naïve des propos des uns et des autres afin de promouvoir on-ne-sait quelle idée sur le concept de temps, idée qui, à les lire serait une sorte de preuve, ou en tout cas d’indication que leur scénario de temps imaginaire possède une base scientifique sérieuse.

•Dans le contexte indiqué ci-dessus, les auteurs citent p. 216 une lettre d’Albert Einstein adressée à la famille de son confident et ami Michele Besso suite à son décès. Il y a quelque chose de malsain et même d’indécent à voir les auteurs citer à leur crédit une phrase émanant certes d’un grand scientifique, mais prononcée dans des circonstances où elle n’a clairement aucune visée scientifique.

•p. 216, les auteurs affirment gaillardement que l’on ne peut appréhender l’espace-temps comme un tout, « peut-être, mais à condition d’appréhender ce tout non pas en temps réel mais dans un temps autre : le temps imaginaire ». Rien ne vient étayer cette affirmation, qui est en réalité ridiculement fausse. Une variété, quelle que soit la métrique (et donc sa signature) peut parfaitement être appréhendée comme un tout. C’est d’ailleurs l’application de cette considération mathématique élémentaire à l’espace-temps de la relativité restreinte (puis à ceux de la relativité générale) qui ont motivé les citations d’Einstein et de Paul Davies invoquées par les auteurs. Ce sur quoi insistent Einstein et Paul Davies (et bien d’autres, par exemple Thibault Damour cité plus loin), c’est que l’espace-temps de la relativité restreinte possède cette structure mathématique naturelle de variété, chose qui n’apparaît pas aussi clairement dans la conception newtonienne d’espace et de temps où cette structure n’a que peu d’intérêt.

•p. 217, les auteurs passent on ne sait trop comment ni pourquoi à des considérations d’espace-temps à des considérations de topologie. Ils affirment avec aplomb que la topologie ne change pas au cours du temps. Cela ne veut pas dire grand chose. La topologie est une caractéristique qui est conservée lors d’une transformation continue. Par exemple, si l’on part d’une membrane sphérique, on ne peut transformer celle-ci en une chambre à air sans déchirer puis recoller celle-ci. Ces deux étapes critiques ne sont pas des transformations continues au sens mathématique du terme, mais rien n’empêche de les faire. Affirmer que la topologie ne peut changer au cours du temps ne veut donc rien dire. Incidemment, on note encore une fois le manque de cohérence dans le propos des auteurs : dans leur modèle de temps imaginaire, il y a un changement de topologie de l’espace-temps…

•p. 218, les auteurs poursuivent la confusion (volontaire ?) entre citations de scientifiques prises hors contexte (en l’occurrence ici Thibault Damour) et les prétendus soutiens au bien fondé de leur modèle. Rien de ce que dit Thibault Damour (même si les mots qui lui sont prêtés ne sont pas d’une clarté absolue) ne diffère de ce qui constitue les bases de la relativité et ne pourrait être librement réinterprété comme supportant l’idée du temps imaginaire cher aux auteurs.

•p. 219, les auteurs colportent l’idée fausse qu’une majeure partie de la « neige » reçue sur l’écran d’une télévision mal réglée proviendrait du fond diffus cosmologique. Au vu de la fréquence perçue par une antenne de télévision hertzienne et de la largeur de bande, la portion de signal cosmologique effectivement reçu est en réalité très faible. À la décharge des auteurs, signalons que cette erreur est colportée depuis longtemps dans la presse scientifique grand public, mais qu’elle ne semble pas reposer sur un calcul concret.

•p. 219 toujours, le « problème du dernier souffle de César », présenté comme l’œuvre du physicien Enrico Fermi est évoqué comme « nécessitant peu de calculs mais une bonne dose de réflexion ». On eût aimé dans ce contexte voir les auteurs expliquer au lecteur la façon dont le résultat est obtenu. En l’espèce, les auteurs présentent le résultat sans expliquer comment on l’obtient, et on peut légitimement douter qu’ils sachent effectivement comment il est obtenu. En l’occurrence, le résultat annoncé par les auteurs résulte de la coïncidence numérique entre d’une part le rapport de volume de l’atmosphère terrestre et de la capacité pulmonaire moyenne d’un individu (ou plutôt dans le rapport des masses d’air correspondantes), et d’autre part le nombre de molécules présentes dans les poumons d’un individu pris au hasard au moment d’une inspiration. Le premier nombre étant légèrement inférieur au second, il y a en moyenne à un instant donné quelques molécules dans nos poumons qui se trouvaient dans les poumons d’une quelconque autre personne à un moment fixé (du moins en supposant un brassage de l’air suffisamment efficace entre les deux époques pour redistribuer l’air de façon homogène). Le résultat vaut pour des époques arbitrairement anciennes (celle des dinosaures par exemple), pourvu que les molécules composant l’atmosphère actuelle soit exactement les mêmes que celles de l’époque plus ancienne considérée (ce qui est très vraisemblablement au moins le cas de l’azote et de l’argon). Ceci étant dit, on se demande bien ce que ces considérations viennent faire dans le propos plus général des auteurs, qui vise, rappelons-le à apporter des preuves que leur modèle de temps imaginaire serait physiquement motivé. On a plutôt l’impression d’une tentative peu convaincante de meublage où la pérennité de certaines choses est présentée avec beaucoup de poudre aux yeux comme un argument en faveur de l’existence du temps imaginaire.

Chapitre 15

•p. 223 et 224, les auteurs entament ce chapitre consacré à la cinquième dimension par une figure de style dont ils sont friands. Compilant un petit nombre de citations de scientifiques opposés à une idée qui se révèlera malgré tout plus tard très fructueuse, ils essaient d’instiller l’idée que toute idée à un moment rejetée est malgré tout promise à un bel avenir. L’histoire des sciences retient certes presque exclusivement les erreurs d’appréciation de certains scientifiques et non leurs jugements pertinents, mais ceux-ci restent immensément plus nombreux.

•p. 227, alors que les auteurs présentent très sommairement l’effet Einstein, à savoir que le temps ne s’écoule pas à la même vitesse selon l’intensité du champ gravitationnel (ou plutôt selon le potentiel gravitationnel), ils en viennent à affirmer successivement qu’à la surface d’une étoile à neutrons « le temps s’écoulera deux fois moins vite », puis que « à peine une journée se sera écoulée à la surface de votre étoile à neutrons, alors que sur terre, c’est presque une semaine qui aura filé ! » Ainsi donc, a en croire les auteurs, la durée d’une semaine serait à peu près égale à deux jours… En l’occurrence, c’est la première citation qui est exacte, pas la seconde : le décalage vers le rouge gravitationnel à la surface d’une étoile à neutrons est de l’ordre de 1, et le rapport d’écoulement du temps est donc de l’ordre de 2 et non de 7 comme affirmé dans la seconde citation. Ceci étant, la surface d’une étoile à neutrons est un lieu très hostile, car les effets de marée détruisent instantanément tout objet macroscopique qui s’y trouverait (et donc tout astronaute).

•p. 227 encore, les auteurs sont assez peu rigoureux sur la terminologie utilisée au sujet de l’effet Einstein. Ce n’est pas l’intensité de la force de gravité (au sens newtonien du terme) qui détermine la vitesse d’écoulement du temps, mais plutôt le potentiel gravitationnel. Certes ce second terme est plus difficile à évoquer dans un ouvrage de vulgarisation, mais il est le seul qui soit exact ici. À la décharge des auteurs, le terme de « champ gravitationnel » est souvent évoqué dans les publications pour parler des coefficients de la métrique, dont certains sont directement liés au potentiel gravitationnel et non au champ gravitationnel newtoniens.

•p. 227 et 228, les auteurs évoquent les courbes de genre temps fermées, qui peuvent apparaître dans certaines solutions des équations de la relativité générale. Suivant leur méthode habituelle, ils passent plus de temps à compter des anecdotes non sourcées et ne présentant guère d’intérêt qu’à expliquer les concepts scientifiques qu’ils utilisent. En l’occurrence, l’existence des boucles de genre temps fermées est signe d’une pathologie dans l’espace-temps que l’on considère. Même en relativité restreinte, il est possible d’avoir des boucles de genre temps fermées. Il suffit de se placer dans un référentiel inertiel donné, et d’imposer que la coordonnée temporelle y soit périodique (en d’autre terme, on change la topologie de l’espace-temps). Les équations de la relativité restreinte sont localement inchangées, mais l’espace-temps global présente les pathologies usuelles liées à ces courbes de genre temps fermées. On ne savait pas quelles étaient les structures possibles d’espace-temps en relativité générale avant les travaux de Gödel cités par les auteurs. C’est à la suite de la solution trouvée par Gödel que les chercheurs ont réalisé que les espaces-temps issus de la relativité générale pouvaient présenter une structure très complexe, et, dans une grande majorité des cas, pathologiques. C’est la raison pour laquelle aujourd’hui on impose un certain nombre de critères supplémentaires aux espaces-temps solution des équations de la relativité générale avant de pouvoir affirmer qu’ils sont physiquement acceptables. La solution de Gödel, tout aussi intéressantes que soient ses propriétés, ne peut pour ces raisons être assimilée à un espace-temps physiquement réaliste. Par ailleurs, les auteurs citent un travail de Willem Jacob van Stockum comme étant le premier où apparaissent des courbes de genre temps fermées et permettant des voyages dans le temps[31]. Seulement la première partie de cette phrase est exacte. S’il est vrai qu’il existe des trajectoires de genre temps qui sont des courbes de genre temps fermées, celles-ci ne correspondent pas à des trajectoires géodésiques et surtout nécessiteraient une accélération infinie pour pouvoir être parcourue par un observateur. Le voyage dans le temps dans cet espace-temps m’est donc pas possible.

•Toujours à propos de l’univers de Gödel, la très succincte présentation qu’en font les auteurs est erronée. L’existence des courbes de genre temps fermée résulte des propriétés globales de l’espace-temps, pas du simple fait que l’« univers était en rotation ». D’une manière générale il est difficile de conceptualiser la structure de cet univers comme une simple déformation de l’espace minkowskien de la relativité restreinte. Par exemple, tous les points de cet univers sont équivalents (c’est ce que l’on appelle un espace homogène), aussi il n’est pas possible d’imaginer les phénomènes de rotation à l’œuvre comme résultant de l’existence d’un unique axe de rotation comme le font implicitement les auteurs.

•p. 229, l’affirmation de l’impossibilité de visualiser un espace à quatre dimensions au motif que nous ne serions que des êtres à trois dimensions mériterait d’être étayée. Il n’est pas dit s’il s’agit d’une limite physiologique ou une question d’accoutumance a notre monde tridimensionnel. La suite du paragraphe contredit d’ailleurs ce qui est dit au début. Après avoir parlé d’impossibilité, les auteurs prétendent maintenant être en mesure de prédire ce que l’on verrait si on avait accès à une quatrième dimension. Du reste, ils ne donnent pas de références à leurs affirmations. On aurait aimé les voir évoquer les simulations informatiques que l’on peut réaliser avec des objets quadridimensionnels et qui sont de prime abord effectivement déroutantes.

•p. 229 toujours, il est faux de dire que l’unification entre gravitation et électromagnétisme « ne peut être véritablement réalisée que dans une cinquième dimension ». L’a théorie de Kaluza-Klein a montré une possible interprétation purement géométrique de l’électromagnétisme comme une manifestation d’une cinquième dimension cachée et non accessible à la matière, mais rien ne dit que ce modèle correspond à la réalité. Il a par contre été à l’origine de très nombreux travaux ultérieurs s’inspirant au moins du fait qu’une théorie physique dans un espace à quatre dimensions puisse n’être qu’une théorie effective issue d’une théorie plus fondamentale dans un espace à plus de dimensions.
•Page suivante, les auteurs opèrent un glissement assez peu honnête, où ils assimilent de fait la cinquième dimension (sans préciser s’ils se placent dans la théorie de Kaluza-Klein ou non) à « leur » temps imaginaire. Il faut bien comprendre ici qu’une théorie physique utilisant des dimensions supplémentaires se doit de donner très précisément la structure et le rôle de ces dimensions supplémentaires, et il ne suffit pas que deux théories introduisent chacune une dimension spatiale supplémentaire pour avoir quoi que ce soit à voir l’une avec l’autre et que les résultats obtenus par l’une puissent être valables pour l’autre. Par exemple, dans la théorie initiale de Kaluza-Klein, la cinquième dimension est compacte, alors que dans le modèle de Randall-Sundrum cité par les auteurs, elle est non compacte. En ce sens, mêler des travaux de physiciens sérieux à ceux des auteurs au seul motif que les uns et les autres utilisent e terme de « cinquième dimension » est d’une grande ineptie.

•p. 231, dans le paragraphe dédié au principe holographique, les auteurs indiquent que leur modèle inclut l’existence d’un bord à l’espace-temps quadridimensionnel sous la forme d’une sphère à trois dimensions. Il est assez difficile d’extraire du sens de cette phrase car trop peu de détails sont donnés ici. Indiquons simplement qu’en cosmologie ordinaire où l’on considère un espace homogène et isotrope, l’espace peut être éventuellement fini (du fait qu’il a une courbure positive ou du fait qu’il a une topologie atypique), mais ne possède jamais de bord. Par ailleurs, les auteurs indiquent que le bord de l’espace temps est un objet de genre espace, ce qui n’apparaît pas immédiatement cohérent. On imaginerait plus facilement que ce bord possède une dimension temporelle. Il est possible que les auteurs aient quelque chose de plus précis en tête, mais en l’état leur propos est totalement inexploitable pour un chercheur (et à plus forte raison pour le lecteur moyen).

•p.  233, les auteurs évoquent l’espace anti-de Sitter. Ils présentent cet espace comme étant un espace-temps quadridimensionnel plongé dans un espace à cinq dimensions, dont trois sont des dimensions d’espace et deux de temps. Cette présentation est très peu rigoureuse et même inexacte. Il est parfois commode, pour construire certains espaces, de les considérer comme étant des sous-espaces d’espaces de plus grande dimension. L’exemple le plus simple de ce type de construction est la sphère usuelle à deux dimensions, que l’on conceptualise aisément comme une région d’un espace tridimensionnel euclidien. C’est même le moyen le plus naturel d’en construire la métrique et par suite d’en déterminer toutes les propriétés géométriques. Mais cette description « extrinsèque » de la sphère n’est pas la seule possible, et surtout n’est pas la plus fondamentale. On peut parfaitement décrire une sphère sans référence à un plongement dans un espace extérieur. C’est du reste en substance ce que l’on fait de façon parfaitement routinière en relativité générale où généralement les espaces considérés ne voient pas leur structure apparaître plus simple quand on les imagine plongés dans un espace de dimension plus grande. Du reste, un tel plongement n’est pas nécessairement possible. Par exemple, il n’est pas possible de visualiser un espace-temps de Minkowski à 1 + 1 comme une surface plongée dans un espace tridimensionnel euclidien. Il n’est pas non plus possible de visualiser une surface de courbure scalaire négative constante dans un espace tridimensionnel euclidien. Dans le cas considéré par les auteurs, il est vrai que tant l’espace de de Sitter que l’espace anti-de Sitter de dimension N peuvent être vus comme des espaces plongés dans des espaces de Minkowski de dimension supérieure, et c’est même là le moyen le plus simple de les présenter, mais dire que ces espaces sont plongés dans des espaces de dimension supérieure est une erreur conceptuelle beaucoup plus grave que ce que la sémantique ne laisse paraître.

•p. 236, les auteurs commettent à nouveau la même erreur que précédemment au sujet de la topologie qui est « conservée » au cours du temps. Comme déjà dit, la conservation de la topologie n’est acquise que pour certains types de transformations (celles qui sont continues au sens mathématique du terme), mais pas dans un cas plus général.
Chapitre 16

•p. 238, les auteurs entament sans oser le dire explicitement un étrange parallèle entre Ludwig Boltzmann et aux-mêmes, celui-ci étant présenté de façon grotesque comme un précurseur du temps imaginaire cher aux auteurs. Pour l’anecdote, les auteurs nous gratifient de la curieuse affirmation selon laquelle le fait de posséder « une barbe fournie et des sourcils électriques » donne à Boltzmann un avantage sur ses détracteurs.

•p. 238 encore, l’affirmation selon laquelle à l’époque relatée par les auteurs (tout début du XXe siècle) « peu de gens [savaient] vraiment » de qu’était la thermodynamique est très discutable, la discipline en elle-même existant depuis plusieurs décennies. Un des ouvrages fondateurs de la discipline est par exemple celui de Sadi Carnot, « Réflexions sur la puissance motrice du feu et sur les machines propres à développer cette puissance », publié en 1824. Il est possible que les auteurs confondent avec la physique statistique, dont le lien avec la thermodynamique a effectivement été fait au tournant du XXe siècle, et où Boltzmann a effectivement joué un rôle important, mais si c’est le cas, cela démontre (sans surprise) des lacunes importantes dans la compréhension de la terminologie de base de cette discipline.

•p. 239, les auteurs entament une discussion sur l’entropie « initiale » (comprendre : à des époques très anciennes) de l’univers dans laquelle se glissent quantité d’erreurs. Le fait que l’univers ait été à cette époque là en état d’équilibre thermodynamique est affirmé sans être justifié. Or il n’y a aucune preuve observationnelle de cela (contrairement à ce qu’affirment les auteurs ; voir plus bas). Par ailleurs, ce que décrivent les auteurs ne correspond pas à l’équilibre thermodynamique, mais l’équilibre thermique (ils mentionnent l’uniformité supposée de la température, mais pas l’équilibre des interactions entre espèces).

•p. 240, l’affirmation selon laquelle l’équation définissant l’entropie comme proportionnelle au nombre d’états microscopiques d’un système physique (S = k log Ω) « parle d’elle-même » ne correspond guère à la réalité, surtout venant de personnes qui ne prennent pas la peine de l’expliquer et dont la compréhension peut sérieusement être mise en doute. Dans la même veine, dire que « ceux qui ont été en mesure de l’analyser ont tout de suite compris qu’elle contenait l’un des secrets les plus brûlants de l’univers » n’est ni pertinent ni proche du statut de cette équation, certes très importante, dans l’édifice de la physique.

•p. 241, les auteurs prétendent étayer l’affirmation de l’existence d’un équilibre thermodynamique (en fait thermique) de l’univers en citant la carte des fluctuations du fond diffus cosmologique établie en 1992 par le satellite COBE. Ce faisant, ils commettent de très nombreuses erreurs. COBE a observé le rayonnement fossile au moment de la recombinaison, soit 380 000 après le Big Bang. Les conclusions de COBE portent donc sur l’état objectif de l’univers à cette époque là, quand la température était descendue à 3000 degrés, bien loin de la température à l’éventuelle époque de Planck. Par ailleurs, la détermination de l’équilibre thermique à la recombinaison résulte des observations de l’instrument FIRAS, qui n’a pas établi une carte de température, mais le spectre du rayonnement dans plusieurs directions. Les auteurs confondent manifestement avec la carte du ciel établie par l’instrument DMR, qui, elle, pouvait déterminer des écarts d’intensité du rayonnement entre deux régions du ciel, mais sans déterminer avec précision si ce rayonnement était ou non thermique : c’est précisément en supposant (sur foi des résultats de FIRAS) que ce rayonnement est thermique que DMR peut en tirer la carte des fluctuations. Du reste, la question de l’équilibre thermique du rayonnement n’a pas été abordée par le satellite WMAP et ne le sera pas par Planck : ces deux satellites sont équipés de détecteurs ayant la même fonction que DMR, mais pas d’instrument du type de FIRAS. Ceci étant, même en faisant fi de ces erreurs, techniques, il n’est pas possible de déduire des observations de COBE que l’univers était en état d’équilibre thermique à des époques arbitrairement plus anciennes. En fait, ces résultats n’impliquent même pas que l’univers ait été en équilibre thermique au moment de la recombinaison, mais « seulement » que le fond diffus cosmologique a été à une époque antérieure en équilibre thermique, et que même si cet équilibre thermique a été rompu avant la recombinaison (et c’est selon toute vraisemblance ce qui s’est produit), il n’y a eu aucune injection d’énergie dans ce rayonnement qui perturbe son spectre. En effet, si des photons sont à un moment donné en équilibre thermique, même s’ils cessent brutalement d’interagir avec le reste de l’univers, leur distribution en énergie évolue de façon à imiter celle qu’ils auraient s’ils étaient encore en état d’équilibre thermique. C’est d’ailleurs précisément ce qui se passe à la recombinaison : cette époque est le moment où matière et rayonnement cessent d’interagir notablement, aussi à la fin de la recombinaison l’univers n’est-il plus en état d’équilibre thermique, même si la structure de son rayonnement en a l’apparence. Signalons enfin que ces considérations d’équilibre thermique ne disent rien sur l’état d’équilibre thermodynamique de l’univers. Par exemple, au moment de la recombinaison, l’équilibre thermodynamique impliquerait que la totalité des électrons libre se lient aux noyaux atomiques pour former des atomes neutres, mais ce n’est pas ce qui se produit : du fait de la dilation croissante de la matière, une partie des électrons n’a pas la possibilité de se lier aux noyaux. Cette situation se produit en fait souvent lors de l’évolution de l’univers. Par exemple, il est très probable que la matière noire existant aujourd’hui dans l’univers soit le résidu d’une matière plus abondante qui aurait dû disparaître du fait de ses interactions, mais dont les réactions se sont arrêtées de fait quand la dilution a rendu impossible la rencontre entre ces particules. Pour conclure, signalons aussi que l’état d’uniformité de la température du fond diffus cosmologique est le signe quasi-certain d’un événement très antérieur du type inflation, durant laquelle l’univers n’est plus en état d’équilibre thermique ou thermodynamique. Ceci illustre le fait que l’étude de l’état de l’univers à la recombinaison ne permet pas de prouver avec certitude ce que pouvait être son état à l’éventuelle époque de Planck (d’autant que l’épisode d’inflation, probablement postérieur à l’époque de Planck a tendance à effacer à peu près toute trace de l’état antérieur de l’univers).

Chapitre 17

Sur la courbure
Le gros de ce chapitre est consacré à affirmer une chose fausse, à savoir que les observations auraient montré de façon quasi-certaine que la courbure de l’univers est positive. Il n’existe, contrairement à ce qu’affirment les auteurs, aucune preuve observationnelle de ce fait, et par ailleurs de nombreux éléments théoriques suggèrent fortement que l’univers actuel ne peut présenter une courbure significative. Que les observations ne détectent pas de courbure est donc plutôt rassurant. En dépit de ces évidences, les auteurs ne vont ici avoir de cesse d’affirmer le contraire, l’objectif étant semble-t-il de relier une courbure positive à une prédiction de leur modèle. Ils vont malgré tout argumenter de façon assez peu cohérente en faveur de cette courbure positive, en abusant de divers arguments d’autorité, en citant principalement des échanges de correspondance avec quelques scientifiques prestigieux (George Smoot, un des responsables de la mission COBE et Prix Nobel de physique 2006, George Ellis, spécialiste de relativité générale et collaborateur de Stephen Hawking).

Plus précisément, le propos des auteurs semble être de montrer que les données actuelles indiquent de façon quasi-certaine que l’espace serait « courbé », c’est-à-dire que les lois de la géométrie euclidienne ne serait plus valable à suffisamment grande échelle. Cette possibilité est prédite par les lois de la relativité générale : la distribution de matière influe locale sur la géométrie de l’espace (en fait de l’espace-temps), et l’espace peut de ce fait à grande échelle posséder des propriétés géométriques différentes de la géométrie dite euclidienne que nous connaissons. Par exemple, la somme des angles d’un triangle peut ne plus être égale à 180 degrés. Dans les situations les plus simples, l’écart aux lois de la géométrie euclidienne est déterminé par une échelle de distance unique appelée rayon de courbure. C’est dans ce cas que se place la cosmologie. La courbure est proportionnelle à l’inverse du carré du rayon de courbure. La courbure est ainsi d’autant plus faible que les lois de la géométrie euclidienne sont valables à des échelles de plus en plus grandes. D’un point de vue géométrique, une valeur nulle de la courbure correspond à une géométrie euclidienne traditionnelle, une valeur positive correspond à une géométrie dite sphérique (dont l’analogue à deux dimensions correspond à la sphère usuelle), et une valeur négative correspond à ce que l’on appelle une géométrie hyperbolique, plus difficile à représenter (et à expliquer), même à deux dimensions[32].

Observationnellement, on essaie de déterminer cette courbure par diverses méthodes plus ou moins indirectes. Du fait des imprécisions des mesures et des méthodes de détermination, ce que l’on obtient au final est une estimation de cette courbure, avec une certaine barre d’erreur. Ces barres d’erreur sont de nature principalement statistique : si tout se passe bien (tout comme pour un sondage), la barre d’erreur associée à l’estimation d’une quantité indique que ladite quantité a un certain pourcentage de chances (typiquement 68% ou 95%) d’être située à l’intérieur de la barre d’erreur. Depuis 2006 (et même avant cette date), la valeur nulle de la courbure a toujours été située à l’intérieur de la marge d’erreur. Affirmer comme les auteurs le font qu’une courbure positive est « très fortement probable » est tout sauf rigoureux. En l’état, les observations ne permettent pas de dire quoi que ce soit sur le signe de la courbure. Elles contraignent juste le rayon de courbure à être (très probablement) supérieur à une certaine valeur, significativement supérieure à dix milliards d’années-lumière et même probablement à la taille de l’univers observable.

Plus grave, les éléments théoriques aujourd’hui à disposition proposent d’expliquer l’homogénéité et l’isotropie de l’univers par le fait que celui-ci a connu une phase d’expansion très importante très tôt dans son histoire, au point que son éventuel rayon de courbure a crû dans des proportions gigantesques, bien au-delà de la taille de l’univers observable. Si ce scénario appelé « inflation cosmique » (ou « inflation » quand il n’y a pas de confusion possible) est avéré, il sera par conséquent impossible de mettre en évidence une courbure non nulle de l’univers, quelles que soient la précision des instruments et la méthode d’analyse utilisées. Une telle situation est aussi ancienne que les premiers modèles d’inflation, qui ont été proposés, dès le tout début des années 1980[33]. Ajoutons que l’analyse des données de WMAP fait de façon relativement explicite l’hypothèse que l’on se place dans un scénario de type inflationnaire. Une courbure nulle fait donc implicitement partie du cadre dans lequel les données sont analysées. On peut tout à fait faire l’analyse sans faire d’hypothèse sur la courbure, mais cela revient surtout à tester a posteriori le bien fondé de cette hypothèse : l’estimation de la courbure est un test normal de vérification de la cohérence interne de l’analyse de données et du cadre théorique sous-jacent utilisé.

Sur la topologie de l’univers
La plupart des topologies intéressantes pour la cosmologie peuvent être vue comme étant une sorte de pavage de l’espace. De façon très simplifiée[34], l’idée est de supposer que l’espace tridimensionnel (par exemple l’espace euclidien usuel) possède un pavage périodique (par exemple avec des cubes, mais on peut le faire avec des formes plus complexes). La topologie est alors définie par l’un de ses cubes, qui représente désormais la totalité de l’univers. Cet espace ne comporte pas de bord, au sens où arrivé à l’une des faces du cube, tout se passe comme si l’on était instantanément transporté au même endroit de la face opposée. Dans la terminologie usuelle, le cube (ou la forme qui pave l’espace) est appelé domaine fondamental et l’espace initial espace de recouvrement universel. Le domaine fondamental n’est pas nécessairement d’extension finie comme c’est le cas avec le cube. Il peut par exemple avoir la forme d’une « tranches » infinie dans deux directions ou d’une « cheminée » infinie dans une seule dimension. De même, à deux dimensions, on peut paver le plan par des formes finies (des carrés ou des parallélogrammes) ou infinie (des rubans). Quand une seule direction n’est pas d’extension finie (les « tranches » à trois dimensions ou les lattes à deux dimensions), la topologie est dite cylindrique, car à deux dimensions, un cylindre peut être vu comme un ruban que l’on aurait recourbé suivant sa largeur et dont on aurait collé les deux extrémités. Cette représentation du ruban en cylindre illustre bien que l’espace correspondant ne possède pas de bord (ses bords sont tous recollés deux à deux). On peut de même à partir d’un rectangle replier puis recoller deux côtés opposés (obtenant ainsi un cylindre de longueur finie), puis replier le cylindre sur lui-même est en recoller les deux extrémités ouvertes. On obtient alors une figure en forme de chambre à air. Une telle topologie ainsi construite est, en géométrie, appelée un tore. Ici, le tore est une surface, c’est un objet intrinsèquement bidimensionnel, que l’on visualise dans notre espace tridimensionnel usuel. Par ailleurs, la représentation en chambre à air, certes explicite, trahit la vraie nature d’un tore : géométriquement, la surface du tore est partout plate, ce qui n’est pas le cas de la chambre à air que l’on a construite. Ceci illustre que la représentation extrinsèque d’une géométrie quelconque n’est pas toujours facile et ne laisse pas forcément transparaître certaines de ses propriétés. Ceci étant, notre tore n’en est pas moins bidimensionnel, au sens où l’intérieur de la figure ainsi fabriquée ne fait pas partie du tore. On peut, même si c’est significativement plus difficile à conceptualiser, effectuer une construction similaire à partir d’un cube, dont on identifie deux à deux les faces opposées. On obtient alors un tore à trois dimensions, tout comme on peut fabriquer des cylindres à trois dimensions à partir des « tranches » déjà évoquées. Ce sont ces cylindres et tores tridimensionnel qui pourraient représenter des topologies acceptables pour l’univers.

Mais il existe de nombreuses autres topologies posexsibles, comme l’espace de Poincaré. Celui-ci n’a pas défini comme les exemples donnés plus haut, dans un espace plat, mais dans un espace sphérique, pour lesquels des topologies différentes peuvent être définies. À deux dimensions, il est possible de paver le plan avec des hexagones, mais pas avec des pentagones. Il n’est par contre pas possible de paver la sphère bidimensionnelle avec des hexagones, mais cela est possible avec des pentagones. C’est à partir de cette figure que l’on fabrique les ballons de football[35]. À partir de ce pavage, il est facile de représenter un solide comportant 12 faces pentagonales. Un tel solide à 12 faces est un dodécaèdre, et il porte le nom de « solide platonicien », terme qui traduit le fait que chacune de ses faces ou de ses sommets sont semblables les unes aux autres[36]. De la même façon, il est possible de paver un espace euclidien avec des cubes, mais pas avec des dodécaèdres. C’est l’inverse qui est vrai dans un espace sphérique, où l’on peut montrer (quoique cela n’ait rien d’évident !) qu’il est possible de paver la sphère tridimensionnelle avec 12 dodécaèdres. On peut alors définir une topologie, appelée pour des raisons historiques espace de Poincaré.

Suite du relevé d’erreurs

•p. 247, le satellite COBE est présenté comme étant « le premier engin à avoir observé le fond diffus cosmologique ». Le terme utilisé est ambigu. Le fond diffus cosmologique était observé depuis le milieu des années 1960, d’abord avec des instruments au sol, puis avec des instruments embarqués (une des premières mises en évidence du dipôle cosmologique, dont l’origine est due au déplacement du Soleil et de notre Galaxie par rapport au fond diffus, a été faite à l’aide d’instruments embarqués sur un avion U2[37]).

•p. 247 toujours, le fond diffus est présenté comme étant « loin, très loin d’ici (en fait à plus de 13 milliards d’années lumière) ». Les auteurs font preuve d’une grande confusion dans cette phrase. Tout d’abord, le fond diffus cosmologique baigne l’univers tout entier. Le fond observé par les instruments de fabrication humaine est celui qui existe au voisinage terrestre. Il n’est donc pas « loin, très loin d’ici ». Peut-être les auteurs avaient-ils en tête la zone d’émission du fond diffus. Mais dans ce cas, le chiffre mentionné de « plus de 13 milliards d’années-lumière » est trompeur. La zone d’émission du fond diffus aujourd’hui reçu sur Terre est désormais située à environ 45 milliards d’années-lumière de nous, et non seulement 13 milliards comme on pourrait naïvement le penser. L’écart entre les deux chiffres provient de ce que l’univers est en expansion, et que les distances entre deux régions physiques de l’univers changent au cours du temps. Incidemment, les auteurs donnent involontairement le bon chiffre un peu plus loin dans le chapitre (p. 252). Le fait qu’ils ne l’aient pas donné ici montre qu’ils ne comprennent pas les références qu’ils ont utilisées pour décrire les distances dans l’univers.

•p. 247 et suivantes, les auteurs entament donc une discussion sur la fameuse « courbure de l’univers ». Attendu qu’ils ne font strictement rien d’autre que mentionner (fût-ce de façon extrêmement biaisée) des résultats publiés dans la littérature scientifique, ils sont bien naïfs d’imaginer être les seuls à avoir réalisé que ces données impliquaient avec une quasi-certitude une courbure positive : un tel résultat n’est absolument affirmé par les auteurs sérieux ayant publié une quelconque analyse de ces données, qui ne permettent pas de se prononcer sur le signe de la courbure. Ce n’est rien de moins que ce que les auteurs rapportent de la part de George Smoot. Utiliser une phrase aussi creuse (et pour cause) que celle de George Smoot pour affirmer qu’une courbure positive est « très fortement probable » est à la limite de l’honnêteté. Du reste, étant donnés les arguments théoriques incitant à penser que les espoirs de mise en évidence d’une courbure non nulle sont quasi-inexistants, une indication observationnelle forte en faveur d’une courbure non nulle ferait assurément couler beaucoup d’encre. L’absence totale de discussion dans le livre sur ce point est une des meilleures illustrations que la maîtrise générale du corpus de connaissances nécessaire à une discussion pertinente au sujet de l’univers primordial et de la structure à très grande échelle qui en découlerait n’est pas acquise.

•p. 248, les auteurs affirment que « pour la première fois », les moyens d’observation sont en mesure de déterminer la « forme de l’univers ». L’affirmation est ambiguë. Le fait que l’univers soit en expansion nous donnent déjà des indications sur la forme sinon de l’espace, au moins de l’espace-temps. Par ailleurs, des contraintes observationnelles existent déjà sur la courbure dont les premières contraintes précises datent des résultats de BOOMERanG, un instrument dédié à l’étude du fond diffus cosmologique, qui fut embarqué sur un ballon-sonde au-dessus de l’Antarctique. Le titre du premier article analysant les données de BOOMERanG faisait du reste explicitement référence à la courbure de l’Univers[38].

•p. 248 toujours, les auteurs affirment qu’il est « impossible de vous représenter une sphère à trois dimensions », au motif qu’on ne pourrait s’échapper d’une sphère tridimensionnelle pour la voir d’en dehors (puisque nous vivons dans un espace qui est déjà à trois dimensions). Mais cette affirmation qui consiste à considérer qu’un objet ne peut être décrit que de façon extrinsèque va à l’encontre d’à peu près tout ce qui se fait en géométrie depuis plus d’un siècle. D’un point de vue fondamental, la description la plus naturelle d’une géométrie est de nature intrinsèque. Du reste, la façon dont on décrit l’univers en expansion dans son ensemble ne repose jamais sur le plongement de notre espace-temps dans un objet géométrique de dimension ou d’extension plus grande[39]. et cela n’empêche pas de pouvoir déterminer la courbure ou toute autre propriété géométrique de l’univers. Le lecteur curieux pourra par exemple consulter les simulations numériques de l’américain Jeffrey Weeks, qui a réalisé une sorte de simulateur de vol dans des espaces de courbure positive et négative (et aussi de différentes topologies). La variation d’aspect due à la courbure des objets situés suffisamment en arrière plan est parfaitement décelable[40].

•p. 249, les auteurs affirment que « pour presque tous les astrophysiciens d’aujourd’hui » (catégorie de chercheurs manifestement méprisée par les auteurs !) , « l’espace dans lequel nous vivons est plat ». Il n’y a pas de sources pour étayer cette affirmation. La plupart des problèmes d’astrophysique ne nécessitent pas de prendre en compte la courbure de l’univers (attendu que celle-ci est très faible). Il n’y a que pour des problèmes faisant intervenir la structure à grande échelle de l’univers que la courbure éventuelle doit être prise en compte. À l’époque où les contraintes sur la courbure n’étaient guère précises (c’est à dire jusqu’au milieu des années 1990), les gens sérieux faisaient effectivement des simulations dans des univers de différente courbure (nulle et négative, puisqu’avant la découverte de l’énergie noire, ou soupçonnait déjà que la quantité de matière présente était insuffisante pour conférer à l’univers une courbure positive[41]. Pour le reste, le consensus évoqué par les auteurs résulte de la combinaison des observations et des éléments théoriques déjà mentionnés. Il est heureux qu’un résultat observationnel par ailleurs motivé par des considérations théoriques soit majoritairement accepté !

•p. 249, les auteurs concèdent que leur conviction d’un univers sphérique ne repose « à vrai dire, sur pas grand chose » et qu’« aucune observation irréfutable ne permet de trancher ». Cela est pour une fois exact… et montre au passage que le ton bien plus péremptoire utilisé dans les deux pages qui précèdent ne relève pas d’une démarche objective. Mais cet éclair de lucidité ne dure pas : quelques lignes plus loin, les auteurs affirment gaillardement que « soutenir que l’univers est plat [en italique dans le livre] nous semble aussi déraisonnable… (pour ne pas dire aussi absurde) que croire que la Terre est plate ». Au-delà du manque manifeste d’objectivité, c’est l’incohérence du propos avec les lignes qui précèdent qui surprend le plus.

•p. 249, les auteurs se permettent une petite pique contre certains astrophysiciens, chose qui n’a guère d’intérêt en soi, mais révèle leur manque de maîtrise des notions de topologie de base. Ils mentionnent quelques-unes des topologies envisagées pour l’univers comme le cylindre ou le tore. Cependant, il n’apparaît pas clair qu’ils comprennent ce dont ils parlent. Qu’en disent les auteurs ? Ils parlent de « cylindre » ou de « pneu de voiture à trois dimensions », mais il n’ait pas clair qu’ils aient saisi que c’est de l’analogue géométrique tridimensionnel de ces objets dont on parle ici. Plus grave, juste après, ils parlent de l’espace de Poincaré, qu’ils décrivent comme « ce que les géomètres appellent un solide platonicien à douze faces, ou « dodecahedron » ». Bienheureux le lecteur qui comprendra quelque chose ! Le vocabulaire employé par les auteurs montre assez clairement qu’ils ne comprennent pas de quelle topologie ils parlent. Ils ne sont en fait même pas capables de reconnaître à partir des sources en langue anglaises qu’ils ont utilisées que le terme de « dodecahedron » (sans accent et avec un « h ») n’est rien d’autre que la traduction anglaise du français « dodécaèdre ». De même, le fait qu’ils parlent de « solide platonicien » sans expliquer qu’il s’agit du dodécaèdre usuel montre là encore qu’ils n’ont ni idée de ce dont ils parlent ni la curiosité (pas plus que la compétence, sans doute), de s’instruire sur le sujet.

•Par la suite, les auteurs affirment que le modèle de l’espace de Poincaré est « totalement disqualifié par les observations », au motif que «  personne n’a pu constater que l’univers avait douze faces ». Si le modèle est certes aujourd’hui significativement moins populaire qu’au moment où il a été proposé[42], les raisons n’ont rien à voir avec le fait que l’univers aurait douze faces. Quelle que soit la topologie définie, l’univers n’a pas de bord. On peut interpréter une topologie non simplement connexe comme une région avec un bord mais on accole systématiquement les bords deux à deux, ce qui au final rend la notion de bord sans objet. Par exemple, à deux dimensions, un cylindre n’a pas de bord, pas plus qu’un tore, et dire que l’espace de Poincaré aurait 12 faces est aussi inepte qu’affirmer qu’une chambre à air aurait quatre côtés[43]. Il n’en demeure pas moins que la méthode peut-être la plus naturelle pour repérer la topologie consiste à observer des corrélations dans les motifs de température du fonddiffus cosmologique, corrélations qui se produisent uniquement le long de segment qui sur la sphère céleste vont dessiner un motif qui dépend de la topologie. Par exemple, pour l’espace de Poincaré le motif est celui des arêtes d’un dodécaèdre projetées sur une sphère. Il pourrait être éventuellement possible (quoique hautement improbable) que les connaissances des auteurs aillent jusqu’à implicitement mentionner ce fait ici, mais cela reflèterait alors leur manque de connaissance de la littérature, car si des annonces de non-détection de la topologie de l’espace de Poincaré ont été faites[44], il y a déjà des annonces de détection[45], même si celles-ci restent minoritaires.

•p. 252, les auteurs mentionnent une taille de « presque 50 milliards d’années-lumière » pour l’univers. En supposant qu’ils parlent implicitement de son rayon plutôt que son diamètre (ce qui n’est pas explicité), le chiffre est juste… mais en contradiction avec 13 milliards (de rayon) de la p. 247, preuve que les valeurs correctes ne sont pas connues et les valeurs recopiées au gré de leurs lectures ne sont pas comprises et présentées de façon cohérente.

•p. 252 toujours, les auteurs font une présentation volontairement biaisée des résultats de trois premières années de prise de données de WMAP. Ils affirment que l’analyse révèle une courbure marginalement positive, ce qui est faux. La valeur préférée par les données est certes positive, mais la barre d’erreur associée, indissociable de la valeur « préférée » est du même ordre que ladite valeur, ce qui fait qu’une courbure nulle est parfaitement compatible avec les observations. Il y a à nouveau une incohérence entre les affirmations des auteurs (la courbure est positive) et les arguments d’autorité dont ils usent pour l’asséner (l’affirmation de Smoot selon laquelle est l’estimation est seulement compatible avec une valeur positive — formulation qui signifie comme déjà dit que l’on ne peut rien dire sur le signe de la courbure).

•p. 253, les auteurs poursuivent leurs affirmations fausses en faisant en prime preuve d’une méconnaissance de la méthode d’estimation de la courbure. En pratique, il existe une relation entre la courbure, le taux d’expansion et la densité d’énergie totale de l’univers. Cette relation peut se réécrire en introduisant une valeur caractéristique de la densité d’énergie, appelée densité critique, et en comparant celle-ci à la densité d’énergie de l’univers actuel. La différence entre ces deux densités donne le signe de la courbure. Mais tel que les auteurs le présentent, c’est parce que l’on sait que la densité d’énergie totale est supérieure à la densité critique que l’on déduit le signe de la courbure. En réalité, c’est le contraire : on détermine la courbure via des méthodes géométrique (sans entrer dans les détails la taille angulaire d’un objet en fonction de sa distance dépend de la courbure), et ensuite on en déduit la densité. Incidemment, ce passage révèle une autre erreur grossière de la part des auteurs qui parlent d’une « densité [d’énergie] totale supérieure à 1 », ce qui ne veut rien dire (une densité d’énergie n’est pas un nombre pur, il possède une unité, en l’occurrence le joule par mètre cube si l’on se place dans le système international d’unité[46]). D’après ce qui précède c’est au rapport de la densité totale à la densité critique dont ils font allusion… ou plutôt dont font allusion les sources qu’ils ont utilisées : il n’y a à aucun moment une quelconque indication que les auteurs connaissent le détail de ses équations, pourtant à la base de tout modèle cosmologique…

•p. 253 toujours, les auteurs opèrent une étrange confusion de date. Après avoir répété que c’était l’analyse des données de WMAP publiées 2006[47] qui, selon eux, indiquaient une courbure positive, ils justifient celle-ci en usant un argument d’autorité (en l’occurrence en citant un échange de correspondance avec George Ellis, célèbre spécialiste de relativité générale[48], correspondance en date de… 2004. Par ailleurs, George Ellis n’a que très peu travaillé sur les données de WMAP ni fait d’analyse statistique approfondie de celles-ci[49].

•Dans la suite de la page, les auteurs affirment que la forme sphérique de l’univers serait la plus « naturelle » (mis en italique par eux) du fait que les données la révèlent. Outre le fait que ce n’est pas ce qu’indiquent les données, la présence d’un adjectif aussi vague que « naturel » est très critiquable. Il est, dans l’état actuel de nos connaissances et de l’absence d’une théorie de la gravitation quantique, difficile de prétendre savoir ce qui pourrait être naturel au sujet de la structure à très grande échelle de l’univers observable. Il se pourrait que des éléments théoriques apportent des éclairages sur la question (par exemple, la théorie M semble plutôt préférer un univers d’extension finie[50]), mais ce qu’en disent les auteurs ne relève de rien d’autre que de l’opinion personnelle. Plus grave, les éléments théoriques mentionnés en introduction du relevé d’erreurs de ce chapitre laissent peu d’espoir que l’on en arrive un jour à une telle situation.

•p. 254, les auteurs mentionnent que le satellite Planck en espérant qu’il « précise[ra] et confime[ra] ceux de WMAP au sujet de la courbure. Il apparaît aujourd’hui largement plus plausible que Planck estimera tout comme WMAP la courbure comme compatible avec une valeur nulle, en tout cas inférieure en valeur absolue à une valeur encore plus petite que cette déjà contrainte par WMAP. Dans un tel cas de figure, Planck pas plus que WMAP n’entretiendra pas l’espoir des auteurs d’une mise en évidence

•Dans la suite de la page 254, et dans les suivantes, les auteurs s’efforcent de présenter des arguments théoriques qui, selon eux, seraient compatibles avec l’hypothèse d’une courbure positive. Ils citent pour cela une contribution de Shahn Majid, avec lequel ils avaient interagi durant leur thèse, publiée dans un ouvrage collectif au sujet de la nature de l’espace et du temps[51]. Cette contribution est présentée comme une « solide approche mathématique de l’espace-temps au moment du Big Bang ». Cette présentation est mensongère. D’une part, l’ouvrage dans son ensemble n’a pas vocation à être très technique, mais au contraire d’offrir des éléments de réflexion exprimés dans un langage non technique au sujet de questions fondamentales sur la nature de l’espace et du temps[52], et d’autre part dans l’introduction de son texte, Shahn Majid précise qu’il va essentiellement « s’attaquer à des problématiques au sujet de l’espace et du temps d’un point de vue théorique »[53].

•Trois citations de Majid sont mentionnées. La première, « Ainsi pour chaque point de la sphère quantique S3, il existe quatre directions dans laquelle vous pouvez vous déplacer […]. Je prétends que la direction supplémentaire pourrait être interprétée comme étant le temps »[54]. La lecture de ce passage révèle que contrairement aux affirmations des auteurs, elle n’est aucunement en lien avec une problématique de cosmologie. Pire, l’article scientifique auquel se réfère Shahn Majid dans cette partie de son texte[55], ne prétend pas non plus faire de la cosmologie. Incidemment, les prédictions observables des modèles évoqués par S. Majid dans sa contribution (une vitesse de la lumière variable en fonction de la longueur d’onde du fait qu’une structure discrète sous-jacente de l’espace-temps verrait des propagations différentes des photons en fonction de leur longueur d’onde) ont été en grande partie invalidées par le satellite d’observation de rayons gamma Fermi, explicitement cité par Majid[56], comme pouvant mettre en évidence cette structure à petite échelle de l’espace-temps ![57]

•La seconde citation fait dire à Shahn Majid que l’univers peut être assimilé à un espace tridimensionnel sphérique. La localisation de cette affirmation n’est pas donnée ici, mais le fait est que Shahn Majid tient un discours semblable en au moins un endroit de sa contribution[58]. Ceci dit, aucune source scientifique ne vient chez Shahn Majid étayer le pourquoi de cette sphéricité de l’espace. Au final, il est possible que Shahn Majid soit à titre personnel favorable à l’idée que l’espace soit effectivement sphérique, mais cette conviction relève semble-t-il plus de l’opinion personnelle que d’une quelconque analyse objective des données actuelles. Que les auteurs reprennent à leur compte cette opinion de Shahn Majid ne rend pas celle-ci plus exacte !

•p. 255, ils mentionnent enfin un résultat connu de géométrie, concernant le groupe des rotations de l’espace tridimensionnel, groupe appelé SO(3), et que Shahn Majid présente comme pouvant être doté d’une courbure[59]. Les auteurs en déduisent que cela impliquerait (ou suggèrerait) que l’espace tridimensionnel lui-même soit doté d’une courbure. Bien sûr, il n’en est rien. Une rotation d’un objet tridimensionnel peut se caractériser par deux objets, l’axe est l’angle de la rotation. Comme seule la direction de l’axe importe ici, on peut repérer celui-ci par eux angles à partir d’un système de référence donné (par exemple la latitude et la longitude). Ainsi, une rotation d’espace peut-elle être définie à partir de trois angles. Dans un espace tridimensionnel euclidien, on peut repérer la position d’un point par trois coordonnées. Ces coordonnées peuvent être toutes trois des distances, c’est ce qu’il se passe quand on se place en coordonnées cartésiennes. Mais on peut également utiliser non pas trois distances, mais une distance et deux angles. C’est ce que l’on fait en coordonnées sphériques. Il n’est par contre pas très naturel (quoique techniquement possible) d’utiliser trois angles. Par contre, dans un espace tridimensionnel sphérique, du fait que l’espace est d’extension finie, il est assez naturel de repérer la position des objets avec un système de coordonnées s’apparentant fortement aux coordonnées sphériques, mais dont la dernière coordonnée n’est plus une distance, mais un angle. Il est donc possible d’opérer une correspondance entre une rotation d’espace (repérée par ses trois angles) avec un point de la sphère à trois dimensions (repéré par trois angles). Techniquement, on peut alors interpréter cette courbure du groupe SO(3) par le fait que les rotations d’axes différents ne commutent pas entre elles. Mais cela ne dit strictement rien de la structure de l’espace dans lequel opère cette rotation ! Le groupe SO(3) peut être utilisé pour effectuer des rotations dans un espace de courbure négative, positive, ou nulle, et la structure géométrique de ce groupe des rotations ne présume en rien de celle de l’espace dans lequel on va l’utiliser. Du reste, on ne voit pas pourquoi une propriété liée au groupe des rotations devrait ici être utilisée. Les rotations d’espace font partie d’un ensemble plus vaste de transformations mathématiques, les isométries, que l’on peut toujours définir dans un espace de courbure constante, et ce groupe d’isométries a une structure plus complexe que l’espace tridimensionnel dans lequel on le définit.

•La suite de la page 254 et la suivante présentent un charabia informe dont il est très difficile d’extraire un quelconque sens. Les auteurs y affirment que la sphère à trois dimensions est le bord d’un espace à quatre dimensions, ce qui est faux tel quel : on peut représenter une sphère à trois dimensions comme délimitant une région d’un espace de dimension plus grande, mais cette représentation n’est pas intrinsèque et n’est pas, de loin, la seule possible. Ils semblent ensuite assimiler l’espace-temps à quatre dimensions comme un des espaces dans lequel on peut définir une sphère à trois dimensions, mais il est assez difficile d’imaginer en quoi une quelconque sphère à trois dimensions pourrait « être le bord », selon la terminologie des auteurs, d’un espace-temps, dont rien ne permet d’affirmer qu’il est d’extension finie, puisque la direction temporelle n’a pas de raison d’être finie (a priori, quelle que soit la courbure, la présence importante d’énergie noire implique que l’expansion se poursuivra indéfiniment, du moins tant que l’univers peut être décrit comme étant homogène et isotrope et que les propriétés de l’énergie noire ne changent pas). Les auteurs parlent ensuite de pivoter la droite du temps, « qui a une certaine orientation à l’intérieur de la sphère », sans en dire plus (on voit mal comment il pourrait en être autrement : ce qui précède ne veut déjà rien dire). Peu après, on fait pivoter on-ne-sait quelle droite (représentant le temps, apparemment), « de 90 degrés dans le plan complexe », ce qui n’a rien à voir avec un quelconque plongement d’on-ne-sait quelle sphère dans on-ne-sait quel espace. A priori, en définissant une sphère tridimensionnelle comme plongée dans une structure géométrique (appelée variété), chacune des coordonnées sont réelles, et on en peut introduire trivialement des coordonnées complexes. De même, on peut essayer de représenter un espace-temps quadri-dimensionnel en le plongeant dans un espace de dimension plus grande (comme déjà dit, c’est ainsi que d’ordinaire on introduit l’espace de de Sitter), mais réduire la façon dont on définit la coordonnée temporelle de l’espace-temps est significativement plus subtile que de le faire avec des « droites » (l’exemple de l’espace de de Sitter est à ce titre très instructif).

•p. 255, les auteurs parlent explicitement du moment ou le « bord de notre Univers ne mesurait que 10-33 cm » (au temps de Planck), ce qui là encore ne veut rien dire. Un univers, fût-il sphérique, n’a a priori pas de bord. Peut-être que les auteurs ont en tête de parler de son rayon de courbure, mais à ce moment là, il n’y a d’une part pas de lien avec les lignes qui précèdent, et d’autre part l’éventuel rayon de courbure de l’univers (ou en tout cas d’une région de l’univers) au sortir de l’ère de Planck n’est pas connu avec certitude (et ne peut pas l’être si comme soupçonné, une phase d’inflation a effacé cet état très primordial de l’univers). En tout état de cause, le lien hypothétique entre la forme éventuellement sphérique de l’univers et le temps imaginaire n’apparaît absolument pas ici.
Chapitre 18

•p. 257, les auteurs prétendent que l’énergie noire serait quelque chose de « plus mystérieux » que la théorie des cordes. Au vu de la complexité respective d ces deux entités, l’affirmation est ridiculement fausse. Du reste, le problème de l’existence et de la valeur de la constante cosmologique pourrait très bien être un sous-produit de la théorie des cordes (ou de toute autre théorie unifiant toute les interactions).

•p. 258, les auteurs prétendent qu’ils auraient été les premiers, vers 1997, à proposer une accélération de l’expansion de l’univers. Mais cette idée est à peu près aussi ancienne que la cosmologie moderne. Dans un univers en expansion, l’inverse de la constante de Hubble est proportionnel à l’âge de l’univers. Mais la constante de proportionnalité dépend du contenu matériel de l’univers (elle est d’autant plus élevée que la pression de la matière est faible, et par conséquent elle augmente avec la quantité d’énergie noire). De ce fait, chaque fois qu’on a eu des tensions entre l’âge de l’univers et la valeur alors estimée de la constante de Hubble, l’idée d’une constante cosmologique et donc d’une expansion accélérée (ou accélérée à terme) a fait ou refait surface. Indépendamment de ces considérations, on peut être sceptique quant à l’affirmation même des auteurs selon laquelle ils avaient annoncé en 1997 une quelconque prédiction à ce sujet : il n’existe aucun article scientifique signé par eux de cette époque (le premier sera publié en 2001 et ne fait de toute façon pas référence à l’expansion accélérée de l’univers), et aucun scientifique n’est venu confirmer cette version. Attendu que plusieurs fois les auteurs ont été pris sur le fait d’affirmations erronées concernant ce qu’ils avaient dit ou fait, il n’y a en effet pas de raison valable de leur accorder ici un haut degré de confiance.

•p. 258, les auteurs affirment que la mise en évidence de l’accélération de l’expansion de l’univers via la mesure de la luminosité des supernovae lointaines aurait « suscité un débat sans précédent ». Il est clair que ces résultats ont suscité un regain d’intérêt pour tout les modèles d’énergie noire (regain d’intérêt encore perceptible aujourd’hui), mais le terme de « débat » n’est pas exact ici : la fiabilité des mesures a certes fait l’objet de discussion à la hauteur de l’importance du résultat, mais celui-ci a très vite été relativement consensuel : il existait de nombreux éléments indépendants des mesures des supernovae lointaines qui pointaient vers une présence importante d’énergie noire dans l’univers. De ce fait, les résultats de l’analyse des supernovae a plus confirmé quelque chose qui était à l’époque fortement soupçonné que pris tout le monde de cours.

•p. 258, les auteurs répètent un contresens déjà fait depuis ALLB, à savoir que l’accélération de l’expansion éloignait « étoiles et constellations […] irréversiblement les unes des autres ». Répétons à nouveau qu’il n’en est rien : une constante cosmologique ne provoque pas la dislocation d’objets gravitationnellement liés préexistants, comme les galaxies. Il n’y a que certains modèles d’énergie noire, appelés énergie fantôme où cela est susceptible de se produire. Il n’existe cependant aucun élément observationnel indiquant que ces modèles correspondent à la réalité.

•Juste après, les auteurs indiquent que l’accélération de l’expansion de l’univers fera devenir le fond du ciel « noir pour toujours ». Là encore, l’affirmation est fausse :même si les galaxies lointaines s’éloignent indéfiniment de nous, il restera pendant longtemps la lumière de notre propre galaxie, et ce tant que les étoiles à plus longue durée de vie (c’est-à-dire de faible masse) n’ont pas achevé leur processus de réactions nucléaires. L’échelle de temps de ce processus, de l’ordre de 1000 milliards d’années, est largement plus longue que celle de la disparition des galaxies lointaines. De ce fait, l’assombrissement ultime du ciel ne sera pas dû à l’accélération de l’expansion, contrairement à ce qu’affirment les auteurs.

•p. 259, on pourra s’amuser à lire que les auteurs affirment gaillardement d’avoir présenté en 1999 la « prédiction » que l’énergie noire existait… alors que celle-ci avait été mise en évidence quelques mois plus tôt et rapidement acceptée par les connaisseurs du sujet. Quelle prescience !

•p. 259, les auteurs commettent un contresens au sujet de l’appellation de « quintessence » donnée à certains modèles d’énergie noire. Le terme de « quintessence » ne fait pas référence à une cinquième interaction fondamentale (en sus de la gravitation, l’électromagnétisme, l’interaction faible et l’interaction forte), mais à une cinquième composante du contenu matériel de l’univers, en sus de la matière ordinaires (dite matière baryonique), la matière noire, les photons et les neutrinos. Cette erreur dénote aussi un certain manque de culture de la part des auteurs : historiquement, le terme de « quintessence » avait été utilisé dans le contexte de la prédiction d’un élément supplémentaire à la théorie des quatre éléments de l’antiquité grecque[60].

•p. 259 encore, les auteurs commettent une bévue difficilement imaginable pour les spécialistes autoproclamés de science-fiction qu’ils affirment être : sans doute en évoquant le fameux « côté obscur de la force » de la saga Star Wars, ils font référence à un « mythique épisode VII » de la saga. La première trilogie correspond aux épisodes IV à VI et la seconde aux épisodes I à III (antérieurs aux précédents mais sortis en salle une vingtaine d’années plus tard). George Lucas a par ailleurs démenti tout projet concernant des épisodes supplémentaires, la saga s’achevant pour lui naturellement à la fin de l’épisode VI.

•p. 259 toujours revienne à des considérations plus scientifiques mais tout aussi fausses. Ils affirment que personne « n’est encore parvenu à résoudre l’énigme » de l’énergie noire. Cela est éventuellement vrai au sens où aucun scénario proposé pour l’expliquer ne fait consensus, mais il existe néanmoins pléthore de scénarios publiés dans la littérature. Il est donc parfaitement possible que la bonne explication existe déjà.

•p. 260, les auteurs poursuivent la confusion déjà évoquée au sujet de la nature physique de l’énergie noire, en utilisant le terme de « force non identifiée ». Ce terme n’est pas approprié, car l’énergie noire ne représente pas une nouvelle interaction fondamentale, mais une nouvelle forme de matière ou d’énergie (au sens large) dont les effets gravitationnels sont répulsifs. La fin de cette section voit la confusion se poursuivre. L’énergie noire, nous dit-on est une « sorte de « pression négative » », ce qui ne veut rien dire. Il eût fallu dire qu’elle « possède » une pression négative. Le terme d’ « énergie fantôme » ensuite utilisé montre à nouveau que les bases de la terminologie ne sont une fois de plus pas connues. Le terme d’ « énergie fantôme » désigne certains modèles d’énergie noire, de pression plus négative encore que la constante cosmologique, propriété qui donne lieu à un scénario catastrophique dénommé Big Rip, puisque malgré l’expansion accélérée causée par l’énergie fantôme, sa densité d’énergie croît au cours du temps, ce qui donne lieu à un effet d’emballement dramatique où toute structure quelle que soit sa taille (des amas de galaxie aux noyaux atomiques) est disloquée en un temps fini. Au-delà de ces erreurs, on reste sur sa faim, puisque aucune explication n’est donnée quant à la relation entre pression négative et expansion accélérée, alors que ce lien n’est a priori pas évident[61].

•p. 260, les auteurs s’essaient à expliquer le lien entre expansion accélérée et leur modèle. Si l’on essaie de faire l’exégèse de leur propos, il semble que leur modèle utilise un objet physique appelé champ scalaire. Un champ scalaire est une grandeur que l’on peut définir en tout point de l’espace et à laquelle peuvent être associées une densité d’énergie et une pression, celles-ci pouvant éventuellement jouer un rôle dans la dynamique de l’expansion de l’univers. Les modèles où un champ scalaire joue le rôle de l’énergie noire font partie d’une classe assez vaste appelée « quintessence » (terme employé de façon erronée par les auteurs, cf. plus haut). Le point crucial est, bien sûr, qu’il ne suffit pas d’avoir un champ scalaire dans un scénario cosmologique pour avoir une expansion accélérée. Obtenir une expansion accélérée du type de celle que l’on observe dans l’univers nécessite de supposer que pendant une large part de l’histoire de l’univers (depuis avant la nucléosynthèse jusqu’à il y a 5 milliards d’années), ce champ scalaire ne joue aucun rôle, c’est-à-dire que sa densité d’énergie soit négligeable, puis ensuite que sa densité d’énergie prenne le pas sur les autres formes de densité d’énergie présentes dans l’univers. C’est précisément la difficulté de trouver un scénario cohérent satisfaisant à ces pré-requis qui fait qu’il n’y a pas de scénario de type quintessence jugé aujourd’hui satisfaisant. Que disent les auteurs à ce sujet ? Strictement rien. Ils affirment que leur champ scalaire cause une expansion accélérée. La seule justification donnée est que ce champ scalaire s’appellerait… « dilaton ». Le propos dans ce paragraphe (p. 261) est du reste incohérent. Les auteurs mentionnent qu’ils ont eux-même donné le nom de « dilaton » à ce champ scalaire, mais ce juste après avoir mentionné que le terme de « dilaton » existe en théorie des cordes. Bref, on ne saura jamais si leur dilaton est ou non celui de la théorie des cordes, et en quoi le dilaton de la théorie des cordes devrait causer une expansion accélérée. Du reste, si ce résultat était vrai, on présume qu’il serait largement commenté par les théoriciens des cordes eux-mêmes…

•p. 261, la fin du paragraphe revoit surgir un médiocre argument d’autorité. Au motif qu’un théoricien (Andrew Taylor) aurait indiqué un lien possible entre énergie noire et « fluctuations du vide », les auteurs y voient une confirmation de leurs élucubrations concernant leur fluctuation « de l’espace-temps ». Or ce terme là n’est pas ce à quoi fait allusion A Taylor : il ne fait que répéter une chose bien connue, à savoir qu’en mécanique quantique relativiste, l’on s’attend à ce que le vide, c’est-à-dire l’état de moindre énergie de toute forme de matière, possède néanmoins une énergie non nulle. Le principal problème de cette approche est que si l’on ne peut calculer avec certitude cette énergie du vide, tout porte à croire qu’elle devrait considérablement excéder la densité d’énergie noire observée. Ainsi, avant même de se demander pourquoi la densité d’énergie sombre est non nulle, on doit faire face à un problème, à savoir pourquoi elle n’est pas immensément plus grande. Aucune personne sensée ne ferait la confusion entre cette énergie du vide et une quelconque « fluctuations de l’espace-temps » comme le disent les auteurs. Que cette confusion résulte d’une ignorance crasse ou d’un procédé plus conscient est donc malhonnête les disqualifie, dans un cas comme dans l’autre, totalement et irrémédiablement. On ne peut que déplorer cette façon pour le moins très biaisée (et selon toute vraisemblance malhonnête) des auteurs à utiliser une sorte de proximité sémantique entre des phrases émanant de gens sérieux et leur propre vocabulaire pour affirmer que les premiers s’accordent tardivement à finalement converger vers leurs idées.

•La fin du chapitre suit à nouveau sur un raisonnement fallacieux. Au motif qu’en théorie des cordes, divers champs sont utilisés pour effectuer ce que l’on appelle une réduction dimensionnelle, les auteurs affirment « quoi de plus simple de considérer qu’à l’instant zéro, le temps était naturellement soumis à une telle réduction ». Cette phrase n’a aucun sens. Il ne suffit pas d’affirmer que quelque chose est « naturel » pour qu’elle soit vraie. Le niveau de ce genre d’affirmation n’est même pas celui d’un médiocre article de physique, mais plutôt de la discussion de comptoir.

•p. 262, la conclusion du chapitre est édifiante. Alors que personne ne prétend avoir d’explication satisfaisante à la nature de l’énergie noire, les auteurs affirment gaillardement que sa présence est une preuve de leur modèle ! Même si leur modèle avait ne serait-ce qu’un semblant de cohérence interne, il serait au mieux rien d’autre qu’un modèle parmi d’autre. À ce titre, prétendre que des données observationnelles le confirme relève au mieux de l’optimisme béat. A minima, on se serait attendu à ce que les auteurs fassent ce que les gens sérieux font, c’est-à-dire des prédictions quantitatives sur, au choix, la densité d’énergie actuelle précise de l’énergie noire, le rapport de sa pression à sa densité d’énergie, et l’évolution temporelle de celui-ci : ce sont là des quantités que l’on peut espérer estimer avec une certaine précision (c’est déjà le cas de la première), et qui ne sont pas discutées par les auteurs (autant du fait de leur ignorance de ces choses-là que par leur incapacité à le faire de toute façon). Une des phrases les plus surréalistes de l’ouvrage est d’ailleurs l’affirmation que la « confirmation » de la mise en évidence de l’énergie noire (qui du reste ne nécessite guère de confirmation supplémentaire pour être considérée comme avérée) serait « donc » une confirmation… de leur « interprétation ».

•On note aussi en cette fin de chapitre une méconnaissance des aspects observationnels liés à l’énergie noire. Un satellite comme Planck ne permet guère à lui seul de bien contraindre les paramètres de l’énergie noire. C’est la combinaison de ses données avec celles des supernovae (et d’autres observations) qui le permet. Quand bien même, Planck seul en lieu et place de WMAP ne fera pas énormément progresser les contraintes sur l’énergie noire, car la plus grosse source d’incertitude réside dans les données des supernovae elles-mêmes. Bref, affirmer que Planck, sur ce point là précis, pourrait causer « une des plus grandes révolutions qui aient jamais eu lieu en physique théorique » est totalement farfelu, et on ne peut qu’être choqué de voir à quel point les auteurs font preuve d’un manque total de scrupules, qui les amène à dévoyer le travail sérieux de centaines de chercheurs pour promouvoir un point de vue personnel qui prétend être, mais n’est en aucune façon, de nature scientifique.

Chapitre 19

Introduction
Ce chapitre a semble-t-il la grotesque ambition de relier deux résultats classiques de mécanique quantique (l’intrication et l’effet tunnel) aux travaux des auteurs. Cette simple approche est des plus grandiloquentes : la mécanique quantique est une théorie parfaitement vérifiée expérimentalement, et ses équations se suffisent à elle-même pour faire quelque prédiction que ce soit. La seule question en suspens, qui n’est certes pas anodine, est de savoir quelle interprétation donner aux équations de la mécanique quantique. En effet, la mécanique quantique se distingue des autres théories physiques par le fait qu’elle repose sur une présentation essentiellement axiomatique : on affirme que certains objets physiques peuvent être décrits de telle ou telle façon par tels objets mathématiques, et c’est au final l’adéquation entre les prédictions théoriques et l’expérience qui justifie les axiomes de départ, bien plus qu’une quelconque démarche déductive. Il n’y a en effet guère de moyens simples de deviner de façon plus ou moins déductive les axiomes à utiliser en mécanique quantique, que l’on pose en l’état en mentionnant le parfait accord avec l’expérience[62]. De ce fait, le sens physique que l’on peut donner à certains objets mathématiques utilisés en mécanique quantique n’est pas évident a priori, et c’est là une situation contraire à ce qu’il se passe dans à peu près toute autre théorie physique. Par ailleurs, ces lois de la mécanique quantique donnent lieu à divers paradoxes qui à première vue semblent heurter le bon sens, et qui ont historiquement amené certains scientifiques à douter du bien fondé, et de la justesse des axiomes de départ.

Le paradoxe dit EPR (dont le nom dérive des initiales d’Einstein, Podolski et Rosen) est une des illustrations les plus simples de ces situations paradoxales. En substance, le paradoxe EPR indique qu’il peut exister une certaine forme d’intrication entre deux particules quelle que soit leur distance, pourvu que celles-ci aient été préparées de façon appropriée à l’aide d’un dispositif expérimenta, et qu’au final l’on peut avoir l’impression qu’elles sont en mesure d’échanger un forme d’information, de façon instantanée, et sur des distances arbitrairement grandes. C’est en substance ce qu’a vérifié Alain Aspect dans les années 1980. Cette situation n’est malgré tout pas en contradiction avec la relativité restreinte, et il n’y a pas d’incohérence fondamentale dans la théorie quantique elle-même ou entre celle-ci et les principes qui sous-tendant la relativité restreinte[63]. Le paradoxe EPR a été formulé par Einstein et ses deux collaborateurs au milieu des années 1930[64], soit près d’un demi-siècle avant les expériences d’Alain Aspect. L’article historique d’Einstein, Podolski et Rosen décrivait, de façon succinte mais précise les conséquences d’une expérience du type de celle réalisée plus tard par Alain Aspect. Il n’était cependant alors pas possible de la réaliser, aussi Einstein et ses collaborateurs s’étaient-ils contentés de décrire le résultat théorique de leur expérience tel que prédit par la mécanique quantique, et de supputer que celui-ci ne saurait correspondre à ce qui se passerait réellement, ou, selon leurs termes, que « la mécanique quantique n’offrait pas une description complète de la réalité »[65]. En d’autres termes, les auteurs ne croyaient pas en la capacité de la mécanique quantique à décrire les phénomènes physiques, tant les situations qu’elle prédisait apparaissaient paradoxales quoique logiquement cohérentes.

L’effet tunnel est un des autres effets paradoxaux de la mécanique quantique. En mécanique quantique, une particule ne peut parfaitement être localisée dans l’espace. Elle est décrite par une grandeur appelée fonction d’onde, qui permet de déterminer sa probabilité de présence en tout point de l’espace. La fonction d’onde n’est jamais localisée en un point unique, mais possède toujours une certaine extension spatiale, qui au mieux correspond à ce qu’on appelle la longueur d’onde de Compton de la particule considérée. Une des conséquences de cela est qu’à proximité d’un obstacle qui serait infranchissable par une particule en mécanique quantique, on peut montrer que la fonction d’onde décroît très vite, mais ne s’annule pas complètement. Elle prend ainsi des valeurs non nulles de l’autre côté de l’obstacle, ce qui signifie que la particule peut être détectée de l’autre côté de l’obstacle alors qu’on se serait attendu à ce qu’elle ne puisse pas le franchir. Cet « effet tunnel » nommé ainsi pour des raisons évidentes, est une conséquence immédiate des équations de la mécanique quantique, et est conceptuellement sans doute plus simple (ou moins contre-intuitif) que l’intrication. Une grande partie de la technologie moderne doit son essor à l’effet tunnel : le fonctionnement d’un des composants électroniques les plus élémentaires qui soient, le transistor, est en effet basé sur l’effet tunnel.

Suite du relevé d’erreurs

•p. 264, les auteurs présentent la célèbre expérience d’Aspect comme « défiant les lois de la physique connue ». Or comme dit en introduction, l’expérience d’Aspect n’est rien d’autre qu’une conformation expérimentale explicite des lois de la mécanique quantique écrites plus de 50 ans auparavant.

•p. 265, les auteurs présentent les travaux de John Bell sur les inégalités qui portent son nom comme « un édifice bourré d’équations compliquées », donc la « lecture est d’emblée difficile ». En réalité, ces travaux ne sont qu’une application extrêmement basique des postulats de la mécanique quantique. Tout étudiant de second cycle universitaire ayant eu quelques cours de mécanique quantique peut aisément suivre ces calculs. Il n’est pas clair cependant que ces calculs soient à la portée des auteurs, rien dans ce chapitre ne montre chez eux une quelconque compréhension de ces phénomènes. Du reste, ni le détail concret de l’expérience d’Aspect, ni l’interprétation de ses résultats sont explicités ici. Les termes employés par les auteurs reflètent largement plus leur incapacité à appréhender ces problématiques pourtant simples pour tout physicien.

•p. 266, les auteurs parlent du « comportement déterministe de la nature », d’une façon qui laisse entendre que la mécanique quantique n’est pas déterministe. Cette question du déterminisme en mécanique quantique a provoqué d’innombrables discussions depuis près d’un siècle, et est totalement éludée ici, ce qui est un comble[66]. Pire, aucun lien n’est fait entre l’expérience d’Aspect (qui porte sur l’intrication) et les question de déterminisme au sens large qui proviennent du fait que la quantité qui décrit une particule en mécanique quantique, la fonction d’onde, implique une nature probabiliste des résultats possibles d’une mesure.

•p. 266, les auteurs affirment que « l’existence de « variables cachées » entrait en contradiction flagrante avec la mécanique quantique ». Cette affirmation est absurde et montre sans le moindre doute que les auteurs ne savent pas de quoi ils parlent. L’existence de variables cachées n’est pas incompatible avec la mécanique quantique. On peut fabriquer une théorie quantique avec ou sans variables cachées. Par contre, leur présence implique certains résultats pour une expérience du type de celle d’Alain Aspect. C’est en réalité l’expérience d’Aspect qui s’est montrée en contradiction flagrante avec toute théorie à variables cachées.

•p. 266 encore, l’affirmation selon laquelle Bernard d’Espagnat aurait confié à Alain Aspect « la responsabilité — face au monde entier — de mener et de réussir de manière éclatante sa série d’expérience » frise le summum du ridicule. D’autres chercheurs de par le monde auraient très bien pu mener ces expériences sans attendre l’assentiment de Bernard d’Espagnat !

•p. 266, les auteurs évoquent le principe de non localité, renvoyant le lecteur au chapitre 3. Cette référence paraît erronée, le chapitre 3 de l’ouvrage ne présentant quasiment aucune considération de physique un tant soit peu évoluée.

•p. 267, les auteurs abandonnent l’expérience d’Aspect, au sujet de laquelle ils n’ont finalement rien dit, et affirment gaillardement qu’« en temps imaginaire, il n’existe plus d’échelle, plus aucune distance mesurable ». Cette affirmation est telle quelle des plus farfelues. On peut parfaitement définir le concept de distance dans une métrique purement spatiale. C’est même historiquement comme cela que le concept même de distance a été défini pendant des siècles !

•La fin de ce paragraphe p. 267 est un charabia qui n’a guère de sens. Les auteurs nous disent que les photons [de l’expérience d’Aspect, probablement, même si ça n’est pas précisé] sont « à l’échelle quantique comme liés par une sorte « d’effet tunnel » en temps imaginaire », phrase qui ne veut strictement rien dire. On retrouve ici la même rhétorique que dans les deux chapitres précédents : on part de concepts sérieux de physiques, quoique manifestement pas compris du tout, et un pseudo-lien est fait avec les travaux des auteurs par une série de phrases alambiquées comportant un maximum de terme techniques souvent non définis préalablement. Le tout est fait avec une pseudo-conclusion qui ne repose sur aucun raisonnement tangible. Ici, l’on a droit à l’affirmation aussi ronflante que vide de sens selon laquelle « Bien entendu, cela débouche sur une relation non locale entre deux phénomènes élémentaires pourtant parfaitement identifiés et localisés dans l’espace-temps ».

•Dans la dernière partie de la page 267, les auteurs réaffirment que Einstein « avait sans doute eu raison », sans que soit précisé explicitement ce à quoi se rapporte cette affirmation. L’expérience de pensée d’Einstein était bien fondée, et le résultat calculé dans le cadre de la mécanique quantique était juste. Il a de plus été confirmé par l’expérience. Par contre, en ce qui concerne le point plus psychologique de l’histoire (le pari d’Einstein que l’expérience invaliderait cette prédiction de la mécanique quantique), l’histoire lui a donné tort. Il n’en demeure pas moins que cette confusion manifeste sur qui a joué quel rôle dans la compréhension et l’étude des phénomènes d’intrication reste mineure par rapport à la totale absence de cohérence logique dans le pseudo-argumentaire qui lie le résultat d’expériences de mécanique quantique au temps imaginaire cher aux auteurs. Du reste, si par extraordinaire la mécanique quantique permettait de déduire quoique ce soit au sujet d’un hypothétique temps imaginaire, celui-ci devrait a priori être défini aujourd’hui, sans qu’on puisse en dire quoique ce soit à des époques reculées. Or c’est la situation inverse que présentent les auteurs : la mécanique quantique nous renseignerait, nous promet-on, sur l’existence à l’époque de Planck d’un temps imaginaire. Il n’y a aucune cohérence dans un tel discours.

•La fin de ce chapitre est consacrée à des considérations sans guère de rapport avec le titre du chapitre (les expériences d’Aspect). On a plutôt l’impression que les auteurs cherchent à meubler un chapitre des plus indigents et ce malgré de longs passages ne présentant guère d’intérêt (9 pages en tout, en comptant ceux-ci). Par exemple, la quasi-totalité de la page 268 est un copié-collé de la page Wikipédia consacrée à l’effet tunnel (sans que soit mentionnée la version de l’article), dont le lien avec les phénomènes d’intrication auxquels le début du chapitre est consacré est peu évident. Même en oubliant que la fin du chapitre n’a guère de rapport avec son titre, et que c’est ce dernier qui est inapproprié, le contenu est aussi médiocre que ce qui précède.

•p. 269, les auteurs se remettent à faire un lien aussi personnel que scientifiquement inepte entre des résultats standard de mécanique quantique et leurs travaux. Ils commencent par affirmer que l’effet tunnel peut être interprété comme une évolution d’une particule en temps imaginaire. Cette analogie n’est pas fondamentale pour expliquer l’effet tunnel : celui-ci n’est que la conséquence du fait qu’une particule ne peut être parfaitement localisée, et que la quantité utilisée pour la décrire possède des propriétés mathématiques simples. Ils s’essaient à démontrer une sorte de lien scientifique ente leurs travaux (reposant, disent-ils sur les groupes quantiques) et ceux d’un scientifique ayant semble-t-il évoqué ce concept d’évolution en temps imaginaire. Ils citent ainsi Yuri Manin, directeur de thèse de Vladimir Drinfeld, tous deux récompensés pour leurs travaux dans le domaine des groupes quantiques. Au motif que Yuri Manin a évoqué l’idée d’évolution en temps imaginaire, les auteurs font passer ses affirmations comme une vérité profonde mal connue de tous et qui viendrait corroborer leurs dires.

•p. 270, les auteurs ne semblent pas réaliser que l’effet Hartmann qu’ils évoquent n’est rien d’autre que ce qu’ils ont déjà évoqué au sujet de l’effet tunnel (à savoir que le temps de traverser d’un obstacle infranchissable en mécanique classique peut être arbitrairement bref). Indépendamment de cette erreur, il n’y a sans surprise aucune explication du fait qu’un quelconque effet de mécanique quantique donnerait une quelconque indication sur l’existence d’un temps imaginaire qui aurait existé non pas maintenant, mais à une époque très ancienne.

•p. 270, les auteurs présentent le prix Templeton comme une « des plus hautes distinctions existant pour un physique », ce qui est très éloigné de la réalité. Ne serait-ce que du fait des liens avérés entre la fondation Templeton et diverses organisations religieuses, il est très difficilement imaginable que le prix Templeton soit un jour d’un prestige équivalent à des prix scientifiques décernés par des institutions plus en lien avec le monde académique (Crafoord, Wolf ou Nobel, par exemple). Ceci étant, la vraie raison pour laquelle le prix Templeton se voit exagérer son importance ici est que les auteurs ont eu l’occasion, disent-ils, de dialoguer avec un de ses lauréats, Bernard d’Espagnat. Dans la suite de ce paragraphe, les auteurs se remettent à apporter à leur crédit le simple fait d’avoir dialogué avec ce physicien célèbre, ce qui n’a en soi aucune valeur. Ce n’est pas la première fois qu’ils procèdent ainsi : dès l’introduction, ils relataient avec une certaine emphase un rendez-vous qu’ils avaient réussi à obtenir auprès cette fois d’un artiste célèbre, Salvador Dali. Plus tard, ils font mention d’entretiens avec divers physiciens célèbres, de ‘t Hooft à Veneziano en passant par Witten, sans jamais qu’il n’y ait de preuve tangible que ces brillants chercheurs aient approuvé quoi que ce soit que les auteurs leur aient dit. En tout cas ces gens-là n’ont de leur côté jamais parlé en bien des auteurs.

Chapitre 20
Introduction


Dans ce chapitre, les auteurs s’efforcent de faire un lien entre l’existence des trous noirs et celle de leur temps imaginaire. Un tel lien est tout aussi farfelu que ceux des chapitres précédents, où d’autres concepts ou phénomènes physiques récurrents dans la littérature de vulgarisation se voyaient présentés comme autant de preuves (en réalité inexistantes) du temps imaginaire. Les auteurs affirment par ailleurs avoir discuté de chaque point de ce dont ils vont parler ici « avec des experts » jamais nommés. Un anonyme « astrophysicien américain » est mentionné leur ayant « livré les détails » d’une partie de leur récit. Quelles que soient les personnes qui ont le cas échéant interagi avec les auteurs, force est de constater que ces derniers se montrent incapable d’aligner deux lignes d’explication que ne souffrent pas d’erreur grave.

Suite du relevé d’erreurs

•p. 273, les auteurs disent qu’à travers le vitre de leur vaisseau futuriste, l’on voit « jusqu’aux confins de l’univers », alors que juste avant celui-ci est indiqué comme voyageant à proximité du centre galactique. Ces deux points sont incompatibles entre eux, la densité du milieu interstellaire dans cette région causant une extinction considérable empêchant de voir grand chose en dehors du bulbe galactique. Inversement, il n’est pas possible d’observer depuis la Terre et en lumière visible le centre galactique pour la même raison. L’extinction y est estimée à plus de 30 magnitudes, ce qui correspond à une diminution d’éclat des objets d’un facteur supérieur à mille milliards…

•p. 273, les auteurs commencent à décrire la formation d’un trou noir stellaire suite à l’effondrement d’une étoile massive. En principe, ce phénomène se produit quand le cœur de l’étoile massive synthétise du fer à partir de silicium et atteint une masse d’environ 1,4 masse solaire[67]. À ce moment là, les forces de pression cèdent face à la gravité et le cœur de l’étoile, alors d’une taille de quelques milliers de kilomètres, se contracte très brutalement, en quelques millièmes de seconde. Les chiffres donnés par les auteurs sont de ce fait erronés : l’effondrement dure selon eux « quelques minutes », et la taille de la région qui se contracte est estimée à plusieurs centaines de milliers de kilomètres. C’est bien plus que la taille du cœur qui s’effondre… et bien moins que la taille de l’étoile toute entière, qui, dans les phases ultimes de son existence est au stade dit de géante rouge, et où sa taille se compte en dizaines voire en centaines de millions de kilomètres.

•p. 274, au-delà des chiffres extravagants déjà mentionnés, les auteurs commettent une erreur autrement plus grave : ils indiquent très explicitement que c’est la totalité de l’étoile qui s’effondre en trou noir. Ceci est on ne peut plus faux : la contraction du cœur libère une quantité fantastique d’énergie sous forme de particules très évanescentes, les neutrinos et celles-ci déposent une faible partie de leur énergie sur les couches externes de l’étoile qui sont alors littéralement soufflées. Vu de l’extérieur, l’implosion du cœur ressemble ainsi à une explosion : c’est le phénomène de supernova, pouvant créer selon les cas soit une étoile à neutrons, soit un trou noir, la distinction entre les deux scénarios étant probablement déterminée par la masse de l’étoile au moment de l’implosion du cœur[68].

•p. 274, les auteurs, non contents d’affirmer que l’étoile disparaît totalement en trou noir, précisent que seul subsiste « son fabuleux champ gravitationnel », affirmation assez ridicule étant donné qu’à grande distance, le champ gravitationnel reste le même avant et après l’effondrement. On reste également perplexe à la mention de « houle gravitationnelle », qui n’est jamais expliquée. Le terme évoque éventuellement des ondes gravitationnelles, mais là encore les ordres de grandeur qui interviennent dans le problème ne sont pas cohérents avec le discours des auteurs. Si seul un trou noir a résulté de l’effondrement, celui-ci peut, à sa formation présenter des écart à une symétrie sphérique (ou axiale), vers laquelle il va par la suite tendre en émettant des ondes gravitationnelles, appelées dans ce contexte « modes quasinormaux ». Mais ce qui peut s’apparenter à la période caractéristique de ces modes quasi-normaux est de l’ordre du temps que mettrait la lumière à traverser une région de même extension spatiale que le trou noir, soit moins d’un millième de seconde, bien loin d’une quelconque « houle » au sens où le lecteur pourrait se la représenter. Par ailleurs, ces modes quasinormaux s’amortissent extrêmement vite au cours du temps, avec un temps caractéristique là encore de l’ordre, voire inférieur à la milliseconde. Enfin, l’amplitude de ces ondes gravitationnelles décroît comme l’inverse de la distance au trou noir, aussi est-elle déjà très faible à quelques milliards de kilomètres de celui-ci : il est difficile d’imaginer que l’on puisse ressentir quoi que ce soit, le phénomène étant à la fois trop rapide, à trop haute fréquence et de trop faible amplitude ! Si l’effondrement n’a pas donné naissance à un trou noir mais à une étoile à neutrons, celle-ci peut conserver plus longtemps sa forme non sphérique, mais alors l’amplitude des ondes gravitationnelles émise est immensément plus faible. Bref, impossible de donner un quelconque sens à la « houle gravitationnelle » mentionnée par les auteurs.

•p. 274, le auteurs évoquent la présence de ce qui est manifestement un disque d’accrétion autour du trou noir nouvellement formé : apparemment toute la matière n’a pas été engloutie (ce qui, au moins, est un peu moins faux que ce qui précède), mais le fait que le disque d’accrétion ne soit visible qu’à très courte distance est totalement ridicule : un tel disque d’accrétion est extraordinairement chaud, et même si le gros de son éclat est émis dans le domaine des rayons X, il n’en est pas moins extrêmement lumineux en lumière visible. La description faite par les auteurs n’évoque en fait pas un quelconque discours scientifique, mais plutôt une vue d’artiste à la fois fausse et obsolète, comme celle offerte par le film de Disney « Le trou noir », sorti à la fin des années 1970.

•p. 274, les auteurs affirment que les trous noirs commencent à être observés indirectement de nos jours. La phrase eût été juste… il y a vingt-cinq ou trente ans car les première observations indirectes datent de cette époque[69]. Le défi actuel est plutôt d’observer directement la silhouette du trou noir se découper sur le fond lumineux de son disque d’accrétion. Malgré la petitesse de ces objets deux d’entre eux pourraient dans les années à venir être ainsi imagés à l’aide d’une technique appelée interférométrie radio[70].

•Toujours p.&nbsp ;274, les auteurs continuent leurs énoncés de chiffres aberrants. La masse du trou noir est dite égale à deux masses solaires : c’est incohérent avec le chiffre d’une étoile présentée initialement comme « dix fois plus grosse que le Soleil » : si ce chiffre se réfère à sa masse, l’étoile et le trou noir devraient être de même masse puisque les auteurs indiquent que toute la masse s’effondre en trou noir (ce qui est idiot de toute façon), et si ce chiffre se réfère à la taille de l’étoile, il est erroné puisqu’en phase de géante rouge, l’étoile est considérablement plus grosse. Ceci dit, même en acceptant le chiffre de deux masses solaires, il est impossible de le relier au diamètre de « cinq kilomètres d’un bord à l’autre », chiffre incorrect puisque le rayon d’un trou noir[71] qui ici fait deux masses solaires est de 6 kilomètres[72], soit un diamètre de 12 kilomètres. En réalité, une étoile perd une grande partie de sa masse dans les phases qui précède la supernova. Peut-être le « dix fois plus grosse que le Soleil » fait-il allusion à la masse initiale de l’étoile, mais même dans ce cas, le chiffre annoncé est faux, car une telle masse est insuffisante pour former un trou noir (il se forme très vraisemblablement une étoile à neutrons à la place). La masse minimale initiale d’une étoile amenée à former un trou noir est plus probablement de l’ordre de 15 à 20 masses solaires.

•p. 275, les auteurs évoquent « l’image de la constellation de Magellan déformée comme par une sorte de loupe » sans plus de détail. On supposera que les auteurs parlent d’un des deux Nuages de Magellan, au vu qu’il n’existe pas de « constellation de Magellan ». De plus, on est surpris que les auteurs ne citent pas la source de leur inspiration : on trouve en libre accès sur la Toile une image du Grand Nuage déformée par un trou noir en avant-plan[73], et un minimum d’éthique et de sérieux eût voulu que les auteurs prissent la peine de créditer l’origine et/ou l’auteur de cette image.

•p. 275, les auteurs s’essaient à imaginer un pseudo-scénario dans lequel un passager de leur astronef futuriste se ferait engloutir par le trou noir. Rien dans ce qu’ils disent ne tient la route. L’environnement immédiat d’un trou noir de masse stellaire est hautement hostile pour un objet macroscopique en raison des effets de marées, c’est-à-dire des contraintes mécaniques provoquées par l’inhomogénéité du champ gravitationnel : la portion d’un objet située du côté du trou noir est plus attirée par celui-ci que son côté opposé. Cet effet, d’une ampleur considérable, va provoquer des tensions au sein de l’objet, qui va s’allonger dans le sens de la direction radiale, et si celui-ci est suffisamment près du trou noir, ces tensions vont très rapidement disloquer l’objet, dont les débris vont eux-mêmes subir le même sort, et ainsi de suite, jusqu’à ce que ce qu’il en reste soit de taille suffisamment petite pour ne plus subir l’inhomogénéité du champ. À titre d’exemple, à la surface d’un trou noir d’une masse solaire, les effets de marée atteignent en ordre de grandeur cent millions de g par mètre, c’est-à-dire qu’un être humain ressentirait à peu près la même chose que s’il était suspendu par les bras et voyait ses jambes lestées de 100 millions de fois son poids… Pour survivre aux effets de marée, il est indispensable d’être suffisamment loin de celui-ci, au minimum 300 fois son rayon[74]. Par suite, un passager tombant vers le trou noir serait déchiqueté par les effets de marée avant de pénétrer dans celui-ci. Par ailleurs, les auteurs ne détaillent guère leur scénario, mais tout porte à croire qu’ils sont fort loin du trou noir, sans quoi la période orbitale de leur trajectoire serait extrêmement élevée : même à 1000 fois le rayon d’un trou noir de deux masses solaires, celle-ci est d’à peine 5 secondes ![75]. Pour pouvoir survivre aux effets de marée a proximité d’un trou noir, il faut que celui-ci ait une masse considérable, de plusieurs milliers de masses solaires, ce qui ne correspond pas au cas étudié ici.

•Dans le scénario des auteurs, le fait que le passager soit expulsé violemment du vaisseau suite à une dépressurisation brutale suffit à ce qu’il soit happé par le trou noir. Étant donné qu’il n’est pas possible que l’astronef soit particulièrement près du trou noir, cette hypothèse n’est pas cohérente. À supposer par exemple que l’astronef soit sur une orbite circulaire suffisamment loin du trou noir pour ne pas subir de trop forts effets de marée, le chien expulsé depuis un point de l’orbite avec une vitesse relative de quelques dizaines de mètres par seconde tout au plus passerait sur une orbite légèrement elliptique et non sur une trajectoire qui plongerait directement dans le trou noir. La raison intuitive de cette situation peut se comprendre comme suit : un objet en orbite circulaire (par exemple) a une énergie totale (cinétique plus potentielle) d’autant plus négative que le rayon de son orbite est petit. Cela signifie qu’il fait déployer une énergie d’autant plus grande pour pouvoir s’échapper du trou noir que l’on en est initialement proche. Par corollaire, il faut dissiper une quantité considérable d’énergie pour diminuer le rayon de son orbite[76]. Ici, le moyen de dissiper de l’énergie est de diminuer son énergie cinétique orbitale en expulsant le passager dans la direction opposée de celle de l’orbite. À supposer que ce soit le cas, la quantité d’énergie à dissiper va être considérable, de l’ordre d’une fraction de l’énergie de masse du passager. Autrement dit, il faudrait que le passager soit expulsé du fait de la dépressurisation à plusieurs dizaines de milliers de kilomètres par seconde pour que celui-ci soit inéluctablement perdu. On est bien loin des quelques dizaines de mètres par seconde que l’on peut réalistement envisager.

•p. 276, les auteurs mentionnent la « sphère des photons » comme un lieu particulier franchi lors de la chute vers le trou noir. La région en question existe, mais ses propriétés ne sont pas comprises des auteurs (ou en tout cas mal décrites). La sphère des photons est un lieu où il existe des orbites circulaires instables pour les photons, qui peuvent en un sens orbiter autour du trou noir. Ces trajectoires sont cependant instables, c’est-à-dire que des photons possédant une orbite quasi-circulaire vont dans tous les cas assez rapidement quitter cette région (en quelques orbites tout au plus) pour soit tomber dans le trou noir, soit s’en éloigner. Pour un objet massif, par contre, cette région là ne présente aucune caractéristique notable. Le terme de « frontière » employé par les auteurs n’est guère approprié ici, puisque, comme ils le disent juste après, il reste en principe du temps pour s’échapper du trou noir. La seule caractéristique utile dans la discussion des auteurs n’est malheureusement pas mentionnée : un objet possédant une trajectoire balistique (en chute libre) va forcément finir happé par le trou noir s’il passe la sphère des photons, c’est-à-dire qu’il n’existe pas de trajectoire balistique s’approchant aussi près du trou noir et s’en éloignant ensuite. Mais c’est de toute façon l’hypothèse implicite d’une trajectoire plongeant vers le trou noir que les auteurs faisaient dès le début. Dans ce contexte là, ce point de la trajectoire ne présente pas de propriétés particulières et n’est guère identifiable.

•Les incohérence du scénario continuent dans le courant de la page 276. Les auteurs indiquent implicitement qu’il s’écoule un temps significatif à l’échelle humaine entre le passage de la sphère des photons et celui de l’horizon du trou noir. Pour un trou noir stellaire ces deux régions sont séparées de quelques kilomètres à peine. Et du fait du champ de gravité du trou noir, leur distance est parcourue à une vitesse comparable à celle de la lumière. Résultat des courses, le temps de transit entre la sphère des photons et l’horizon est très inférieur à un millième de seconde.

•p. 276 toujours, les auteurs comparent le trou noir à un « immense tourbillon gravitationnel » et un « siphon d’une puissance inouïe ». Le premier terme est sans doute recevable, quoique le l’aspect « tourbillon » n’a de sens que pour un trou noir en rotation, ce qui n’est jamais précisé[77]. Quant au second, on ne voit guère ce qu’il fait là : la physique des trous noir n’a guère de rapport direct avec la plomberie !

•p. 277, les auteurs décrivent la fin de la chute du chien de telle façon que celle-ci prend un temps non négligeable. Or il n’en est rien : de même que le temps de transit entre la sphère des photons et l’horizon est une fraction de millième de seconde, celui entre l’horizon et la singularité est lui aussi du même ordre[78].

•p. 277, la description des distorsions vues par un observateur à l’intérieur de l’horizon est fausse : les distorsions de l’image de la sphère céleste reste modérée, sauf pour la région qui est à proximité du bord de la silhouette du trou noir.

•Juste après, la mention des « constellations » qui s’estompent est peu pertinente : la région du centre de la galaxie n’offre pas le même paysage stellaire que celui qui nous est familier. Le terme de « constellation » est donc sans objet. Par ailleurs, il est assez inexact de dire que la lumière des étoiles s’estompe : cela dépend largement de la direction dans laquelle on regarde. La luminosité diminue certes un peu si l’on regarde dans la direction opposée à celle de la chute, mais augmente pour les régions qui sont proches du bord de la silhouette du trou noir, le contraste entre ces deux directions augmentant très fortement quand on approche de la singularité. De plus, les trajectoires des photons à l’intérieur de l’horizon ne présentent pas autant de distorsions que ce que les auteurs en disent. Il est faux d’affirmer que le chien verrait sa queue tout en regardant devant lui.

•p. 277, les auteurs poursuivent les incohérences de leur scénario en mentionnant que leur vaisseau est immobile au-dessus de l’horizon. Un tel vol stationnaire nécessiterait une débauche inimaginable d’énergie. Le seul moyen un tant soit peu réaliste de rester à proximité du trou noir serait de se mettre en orbite circulaire ou elliptique, quand bien même la mise en orbite nécessiterait à elle seule une énergie comparable à l’énergie de masse du vaisseau. Là encore, il est tentant de faire le parallèle entre la description que font les auteurs ici, et le film de Disney « Le trou noir » déjà évoqué, où un mécanisme aussi hypothétique que fantaisiste d’antigravité permet à un astronef de rester immobile à proximité immédiate du trou noir : on est très, très loin de ce qui pourrait s’approcher d’un discours scientifique.

•p. 278, les auteurs mentionnent la différence d’écoulement du temps entre le voisinage immédiat du trou noir, mais la raison invoquée pour l’expliquer est fausse. Ce ne sont pas les effets de marée qui la provoquent, mais la différence de potentiel gravitationnel entre la région de l’horizon et les régions plus distantes. Quelle que soit la masse du trou noir, cette différence est considérable. Par contre, à l’extérieur d’un trou noir, les effets de marée ne jouent de rôle que pour les trous noirs de petite masse, mais n’influent pas ces problématiques d’écoulement du temps.

•p. 278 toujours, les auteurs mentionnent que de façon concomitante avec le ralentissement apparent du temps, l’image d’un objet franchisant l’horizon devient de moins en moins lumineuse. L’affirmation est fausse en l’état. En réalité, l’assombrissement de l’image est bien plus visible (si l’on peut dire) que le ralentissement du temps. L’image va en réalité s’assombrir et disparaître non seulement dans un temps très bref (toujours une fraction de millième de seconde), mais avant qu’elle n’ait le temps de se figer : la baisse de luminosité augmente bien plus vite que le ralentissement apparent du temps[79]. Par ailleurs, pour être cohérent, il eût fallu dire que ces deux phénomènes s’accompagnent d’un rougissement de l’image en raison de la diminution de l’énergie des photons reçus. Mais là encore, ces phénomènes sont, à l’échelle humaine, instantannés pour un trou noir stellaire tel que celui considéré ici.

•p. 278 encore, la mention que l’ « espace et le temps sont inversés » à l’intérieur du trou noir est difficilement recevable : la franchissement de l’horizon du trou noir ne s’accompagne pas d’un quelconque effet observable, au sens où la structure locale de l’espace-temps reste la même. Une traduction mathématique de l’attraction inéluctable exercée par le trou noir est certes que ce qu’on est tenté de décrire comme la « distance » au centre du trou noir ne peut que décroître, au point que l’on peut assimiler cette distance à une coordonnée de temps, mais tout ceci mériterait bien plus de développements pour espérer que le lecteur en retire une image qui ne soit pas inexacte. Mais le plus grave reste la suite de ce paragraphe. Les auteurs y affirment que pour le chien « le temps ralentit » cette remarque ne veut rien dire : la notion de temps est, en relativité, définie par la trajectoire de l’observateur. Il n’y a pas grand chose qui traduise ce que pourrait être un « ralentissement » du temps, d’autant qu’on ne précise pas par rapport à quoi l’on détermine ce ralentissement : les auteurs veulent-ils dire par exemple que l’image du vaisseau resté à l’extérieur se fige elle aussi ? Si oui, quelles sont les conditions qu’il faudrait remplir pour que cela soit vrai ? Aucun élément de réponse n’est donné ici. Encore une fois, des nombreuses considérations élémentaires sur les trous noirs ne sont absolument pas maîtrisées.

•Plus grave encore, les auteurs affirment que la tête du chien est plus attirée que sa queue par le trou noir, au motif que cette dernière est « moins massive ». Il est difficile de faire plus absurde dans un texte parlant de relativité générale ! La relativité générale est en effet fondamentalement basée sur l’idée que tout objet, quelles que soient sa masse, sa structure, ou sa composition chimique, tombe de la même façon dans un champ gravitationnel donné. Ce qu’il se passe, c’est que la portion du corps située vers le centre est plus attirée par celui-ci que le côté opposé, parce qu’elles ne sont pas à la même distance de ce qui tient lieu de centre du trou noir. Mais dans la configuration des auteurs, il ne faudrait même pas parler de la tête et de la queue, mais du ventre et du dos, puisqu’ils ont auparavant précisé que le trou noir était sous les pattes du chien (page 275).

•Par ailleurs, la description des distorsions causées par les effets de marée est parfaitement grotesque. Aucun tissu biologique ne peut supporter un étirement d’un facteur 10 ou plus, aussi on voit mal comment l’infortuné canidé pourrait mesurer jusqu’à « un million de kilomètres ».

•Ce n’est que page 279 que les auteurs consentent enfin à mettre fin aux souffrances du chien en indiquant que celui-ci finit par être disloqué par les effets de marée. Enfin ! Mais en réalité, comme déjà dit plus haut, l’intensité de ceux-ci étaient parfaitement létaux plusieurs milliers de kilomètres avant de pénétrer dans le trou noir considéré, du fait de la faible masse de celui-ci : il n’est pas possible d’expérimenter ce qu’il se passe à l’intérieur d’un trou noir si celui-ci est de masse stellaire. Il faut pour cela un trou noir supermassif. Du reste, pour que ce dernier voyage dure un temps biologiquement sensible, il faut aussi un trou noir suffisamment gros pour que les distances en jeu soient parcourues en plusieurs minutes et non une infime fraction de seconde. Bref, tout le scénario basé sur un trou noir stellaire récemment formé est depuis le début complètement bancal. Il eût été largement plus simple de se placer d’emblée dans le cadre de la visite du trou noir supermassif de notre propre galaxie. Cela aurait du reste évité les incohérences déjà mentionnées de l’effondrement gravitationnel qui engloutit toute l’étoile. Attendu que les auteurs affirment malgré tout avoir pris le conseil d’un astrophysicien pour écrire ce début de chapitre, on frémit à l’idée du contenu qu’aurait eu celui-ci si les auteurs l’avaient fait sans filet ![80].

•Le récit romancé et farfelu des auteurs s’achève page 279, moment où ils reviennent à leur modèle, dont ils vont tenter de faire un lien avec les trous noirs. Leur rhétorique commence ainsi sur un argumentaire aussi classique que fallacieux, à savoir que le manque de certitudes sur les processus physiques au voisinage d’une singularité les autorise en quelque sorte à « proposer » leur propre hypothèse. C’est là un trait de relativisme récurrent chez les dilettantes en tout genre, qui au motif que des choses compliquées ne sont pas comprises, prétendent que toute explication personnelle, aussi farfelue soit-elle, est scientifiquement et intellectuellement tout aussi valable que les travaux sérieux des chercheurs. Rappelons simplement que les gens qui étudient de type de problématique complexe ont, eux, une bonne compréhension de ce qu’il se passe à plus grande distance de la singularité, et qu’eux-mêmes seraient donc capables de proposer une scénario largement moins irréaliste et contenant relativement peu d’erreurs par rapport à ce que les auteurs ont fait en début de chapitre…

•p. 279, les auteurs évoquent le terme de « trou noir quantique », en précisant qu’un trou noir devient quantique quand son rayon rétrécit suffisamment et atteint l’échelle de Planck. La terminologie est peu heureuse (un trou noir ne « devient » pas quantique, ce sont les effets quantiques qui le cas échéant deviennent prépondérants), et surtout la raison pour laquelle un trou noir pourrait désormais perdre de la masse n’est pas pourvue d’un embryon d’explication.

•p. 280, les auteurs utilisent une terminologie peu heureuse, en imaginant ce qu’il se passe « dans les profondeurs du trou noir, quand le rayon atteint la longueur de Planck ». Il ne s’agit manifestement pas ici du rayon de l’horizon du trou noir, mais plus probablement des régions les plus internes du trou noir, séparées de la singularité par une distance très faible, la façon dont la distance est mesurée devant du reste être précisée[81]. Dans ce contexte, il faudrait préciser ce que les auteurs entendent par « rayon ». Il est probable qu’ils aient en tête le moment où la coordonnée dite radiale r dans le système de coordonnées le plus communément utilisé pour décrire les trous noirs (système de coordonnées dit de Schwarzschild), mais il n’est même pas certain que cette idée soit pertinente. Il serait certainement plus logique de considérer le moment où l’échelle de longueur associée à certaines quantités géométriques décrivant le trou noir[82] atteint la longueur de Planck. Dans ce cas, ladite échelle de longueur est alors déterminée par une combinaison de ladite coordonnée radiale et du rayon de Schwarzschild.

•p. 280, les auteurs proposent une analogie souvent faite par les dilettantes enthousiastes fascinés par les trous noirs et la cosmologie, à savoir qu’il y aurait une sorte de correspondance avec la singularité d’un trou noir et l’éventuelle singularité d’où est issu le Big Bang. Ce type d’analogie ne présente guère d’intérêt, les deux singularités étant de nature très différente. Par exemple, la singularité du Big Bang est souvent implicitement associée à un univers homogène, pas celle d’un trou noir. D’autre part la singularité d’un trou noir est dans le futur de tout observateur ou de toute particule qui pénètre dans le trou noir, et ne possède donc a priori aucun pouvoir d’influence sur ceux-ci. À l’inverse, une singularité de type Big Bang est susceptible d’influencer tout point de l’espace-temps. Pour résumer toute pseudo-analogie entre Big Bang et trou noir représente exactement ce qu’il ne faut pas faire quand on parle de l’un ou de l’autre.

•p. 281, les auteurs évoquent le terme de « tenseur de courbure » au sujet du champ gravitationnel au voisinage d’une singularité. Le terme de tenseur de courbure a certes un sens en relativité générale, mais il n’est pas expliqué et selon toute vraisemblance, il sera totalement abscons aux yeux du lecteur. Par ailleurs, l’affirmation selon laquelle les tenseurs de courbure au voisinage d’une singularité de type trou noir et d’une autre de type Big Bang « exercent des effets inverses » mériterait pour le moins d’être précisé.

•Vers le milieu de la page 281, les auteurs affirment sans la moindre démonstration que les effets gravitationnels au voisinage d’une singularité « achève[nt] de faire basculer le temps dans la direction imaginaire ». Il n’y a aucune preuve, aucune justification de cette affirmation, qui, comme toutes celles qui décrivent le modèles des auteurs relève de l’opinion personnelle. Quel que soit le point de l’espace-temps à l’intérieur du trou noir, celui-ci possède a priori trois directions spatiales indépendantes, et une direction de genre temps. La relativité générale est en effet basée sur le fait que localement, l’espace-temps garde une structure dite minkowskienne, c’est-à-dire qu’il existe toujours des échelles suffisamment petites au niveau desquelles les effets gravitationnels peuvent être négligés, auquel cas, l’espace-temps de la relativité restreinte reste toujours localement opérationnel[83].

•p. 281, les auteurs mentionnent le fait qu’à un trou noir peut être associée une entropie, et que celle-ci est égale à « un quart de sa surface ». La phrase est certainement fausse : une entropie n’a certainement pas la même dimension qu’une surface. Il eût fallu préciser que l’on se place en unités dites naturelles[84], où elle est alors égale à un quart de la surface du trou noir exprimée en unité de Planck (c’est-à-dire à un quart de la surface du trou noir divisé par le carré de la longueur de Planck).

•p. 282, un nouvel argument fallacieux est invoqué par les auteurs pour défendre leur modèle. Après avoir mentionné que le concept d’entropie pouvait être associé aux trous noirs, ils évoquent l’idée d’une « conservation de l’information par le trou noir ». Cette phrase est ambiguë et même fausse. L’entropie d’un trou noir, que l’on peut associer à une quantité d’information engloutie par celui-ci et a priori perdue, n’est pas conservée au cours du temps : en raison d’effets quantiques, un trou noir parfaitement isolé voit sa surface émettre un très faible rayonnement[85], donc perdre de l’énergie, ce qui diminue sa taille et par suite voit son entropie diminuer au cours du temps, l’entropie manquante étant emportée par le rayonnement. Une question de première importance de la physique théorique actuelle est de comprendre si une partie de l’information perdue au sujet de ce qui est englouti par le trou noir (par exemple la composition ou la nature de la matière qui l’a formé) peut, d’une façon ou d’une autre, être restituée par celui-ci et récupérée par un observateur extérieur en étudiant le rayonnement émis. Il n’existe pas aujourd’hui de certitudes sur ce qui peut ainsi être reconstitué à partir de l’observation de l’évaporation, tout au plus a-t-on idée de certaines choses qui pourraient être effectivement récupérées en utilisant des considérations relevant de la théorie des champs. En tout état de cause, affirmer de but en blanc qu’il y a « conservation de l’information » ne veut non seulement rien dire, mais est très éloigné des connaissances et des travaux actuels sur le sujet. On a du reste du mal à imaginer quel lien concret on pourrait espérer faire entre les trous noirs et les travaux des auteurs. En particulier, les trous noirs, le fait qu’ils existent et qu’ils peuvent se former dans l’univers, sont des problématiques relevant de la physique classique et non de processus compliqué issus d’une théorie de la gravité quantique. Il ne peut donc y avoir par le seul fait de leur existence un quelconque lien entre trous noirs et des phénomènes de gravité quantique, quand bien même le bon sens paraît impliquer que des phénomènes de gravitation quantique sont indispensables pour décrire le voisinage d’une singularité.

•p. 282, les auteurs invoquent deux textes rédigés en 1999 et en 2000 par le physicien Costas Kounnas pour conforter leur point de vue. Il est assez difficile de savoir ce que M. Kounnas avait en tête quand il parle d’« implications de physique fondamentale […] dans de nombreux autres phénomènes gravitationnels tels que les trous noirs », d’autant que le sujet des trous noirs ne semble pas faire partie de l’activité scientifique de M. Kounnas[86]. Celui-ci n’est par ailleurs systématiquement refusé à commenter ces deux textes, et n’a jamais par la suite ne serait-ce que mentionné dans ses propres travaux ceux des auteurs. Les extraits présentés par les auteurs comme confortant leur point de vue ne semblent ainsi pas représenter l’opinion actuelle de M Kounnas, dont l’attitude depuis plusieurs années semble beaucoup plus facile à interpréter en terme d’une lâcheté à ne pas reconnaître une sérieuse erreur d’appréciation de sa part que d’une approbation assumée de ses propos d’il y a dix ans.

Chapitre 21

•Dans le début de ce chapitre, à partir de la page 285, les auteurs essaient d’imaginer l’évolution catastrophique qui résulterait de la disparition soudaine d’une des quatre interactions fondamentales. La tâche est certainement ambitieuse, tant il est difficile de penser à toute les conséquences de telles hypothèses. Les auteurs omettent ainsi de nombreux phénomènes qui en découleraient. En premier lieu, ils oublient de préciser que si la force de gravitation disparaissait, la Terre serait pour ainsi dire instantanément détruite, du fait de sa pression interne qui ne serait plus compensée par la gravité. Ce ne seraient pas seulement les objets posés à sa surface qui quitteraient plus ou moins rapidement la surface terrestre, mais notre planète elle-même qui serait instantanément détruite par les forces de pression considérables qui règnent sous la surface. De même, les auteurs oublient page 286 de mentionner la destruction du Soleil dont la force de gravité assurait jusqu’alors la cohésion et la forme sphérique.

•p. 287, les auteurs emploient un curieux vocabulaire au sujet des ondes « de la lumière visible » et de « celles des couleurs ». Il est difficile de savoir ce qui distinguerait en terme d’ondes électromagnétique celles qui génèrent la lumière visible et celles qui génèrent ce qui biologiquement est transcrit en terme de couleur par le cerveau humain. Du reste, parler d’onde de couleur est peu heureux, la couleur étant un phénomène essentiellement physiologique produit par les signaux reçus par le cerveau de certains cellules photosensibles de la rétine.

•p. 288, les auteurs décrivent le funeste destin qui résulterait de la disparition de la force électromagnétique. Ils parlent à raison de la dislocation des molécules, mais oublient de parlent de l’ionisation des atomes (ce qui ceci dit ne change pas grand chose à leur propos, tant les conséquences envisagées sont déjà catastrophiques).

•p. 289, les auteurs commettent une erreur moins excusable en décrivant la disparition de la force faible. Ils affirment que celle-ci causerait « l’extinction pure et simple du Soleil », au motif que la force faible intervient dans la chaîne de réactions nucléaires du cycle proton-proton, qui contribue majoritairement aux réactions nucléaires se produisant dans notre étoile. Sans entrer dans un quelconque détail de physique nucléaire, rappelons que le Soleil ne brille pas parce que des réactions nucléaires se produisent en son sein, mais uniquement parce qu’il est chaud. La chaleur du Soleil est certes aujourd’hui fournie par les réactions nucléaires, mais le Soleil possède une inertie thermique tout à fait considérable à l’échelle humaine : le temps caractéristique de diffusion des photons produits au centre du Soleil est plus de l’ordre de 100 000 ans que d’une seconde. Le Soleil brillerait bien longtemps après la fin de son cycle de combustion nucléaire. L’arrêt de ces réactions provoquerait par contre une lente réorganisation de la structure interne du Soleil, qui se contracterait pour peu à peu se transformer en naine blanche, mais là encore sur une échelle de temps très lente à l’échelle humaine. Sur le très long terme, cette situation causerait sans nul doute l’extinction de toute vie sur Terre, mais sur une échelle de temps bien plus grande que ce que les auteurs affirment. Rappelons au passage que les plus vieilles naines blanches de notre univers sont encore largement assez chaudes pour rester, malgré leur petite taille, encore observables.

•p. 290, les auteurs évoquent les bosons vecteurs des interactions comme des particules « dont nous ne soupçonnons pas l’existence ». Ils oublient manifestement que les photons font partie de ces bosons, est qu’il est difficile d’affirmer que nous n’en soupçonnons pas l’existence ! Par ailleurs, les auteurs font une confusion entre particules élémentaires et particules composites. Un neutron ou un proton sont des fermions parce qu’ils sont composés d’un nombre impair de quarks, qui sont eux-mêmes des fermions. Mais un noyau atomique peut se comporter comme un boson s’il est constitué d’un nombre pair de particules. Les propriétés de superfluidité de l’hélium-4 sont par exemple dues (entre autres choses) au fait que l’hélium-4 est un boson et non un fermion.

•p. 292, les auteurs affirment avoir été contactés par les responsables du projet Mathematical Genealogy Project. pour ajouter des informations concernant leur thèse dans la base de données du MGP. On peut légitimement douter de cette affirmation. Les Mathematical Genealogy Project s’efforce de maintenir à jour les informations au sujet des directions de thèses, afin entre autres de voir quels liens de « parenté » tel et tel chercheur d’époques différentes peuvent avoir entre eux, la « parenté » n’étant ici bien sûr pas de nature biologique, mais académique, la « filiation » étant déterminée par le fait d’avoir été l’étudiant de tel ou tel chercheur. Les auteurs figurent effectivement dans le MGP, et les informations qu’ils donnent dans l’ouvrage (le fait que Leibniz a été le directeur de thèse du directeur de thèse du directeur de thèse […] de leur directeur de thèse) semble vrai. Ceci étant, cette information ne possède guère d’intérêt. Très nombreux sont les chercheurs dans la même situation que les auteurs, et une telle « filiation » à tant de générations de distance ne préjuge guère de la valeur des uns et des autres.

•p. 292, dans leur évocation de leur « filiation » qui les lie à divers grands noms qu’ils n’ont pas la modestie de passer sous silence, les auteurs n’aident guère le lecteur en mentionnant les termes de « lagrangien » et d’ « identité d’Euler ». Ces termes semblent plus être utilisés en guise de sémantique ronflante pour impressionner le lecteur plutôt que pour l’instruire. Du reste, si on peut penser que les auteurs connaissent l’identité d’Euler, on peut d’ailleurs être plus perplexe qu’ils maîtrisent bien ce qu’est un lagrangien.

•p. 293, la façon dont les auteurs réagissent à la découverte de leur « filiation » avec Leibniz est révélatrice de bien des choses quant à leur immodestie. Ils trouvent cette filiation « curieusement juste », et cette filiation somme toute assez formelle (il n’y a guère de lien direct entre deux chercheurs séparés par plus de deux générations) est très prétentieusement décrite comme une « descendance scientifique ».

•p. 293, à partie de la citation de Leibniz « Je ne crois pas qu’il y ait d’espace sans matière », présentée sans que le contexte soit précisé, les auteurs prétendent déduire que selon Leibniz il n’y a pas de temps sans matière, et que c’est là une « idée dans le droit fil de la relativité ». Cette dernière affirmation est on ne peut plus fausse : la relativité générale admet parfaitement des solutions, parfois complexes, d’espaces-temps vides de matière. Einstein était certes peu satisfait de cette conséquence de sa théorie, qu’il aurait aimé voir plus explicitement lier l’existence de l’espace-temps à la présence de matière, mais son intuition sur ce point là précis s’est avérée inexacte. Par suite, attendu que les auteurs affirment que le fait que le temps soit lié à la présence de matière, leur argumentaire ne repose sur rien de tangible et relève de la pure opinion personnelle.

•p. 293 et suivante, les auteurs qualifient de visionnaire l’idée de Leibniz d’utiliser le système de numération en base 2, au motif que son intuition est à la base du développement de l’informatique. Ce lien fait par les auteurs reste discutable. L’informatique ne nécessite pas de façon absolue d’utiliser la base 2, et quelques solutions matérielles et logicielles ont eu été développées sans y faire appel[87]. Il se trouve qu’en pratique la base 2 présente de très nombreux avantages, mais on ne peut certainement pas affirmer que Leibniz avait plus de deux siècles avant l’apparition de l’informatique pu pressentir le rôle joué par l’utilisation de la base 2. Au delà de la méconnaissance manifeste de la chose informatique dont font preuve les auteurs, on ne peut à nouveau que condamner la présentation systématiquement biaisée qu’ils font des travaux des uns et des autres, dont le génie indiscutable est toujours mis en avant dans le seul et unique but de relier par la suite ces grands noms de la science aux travaux des auteurs. Nul doute que si ceux-ci avaient ignoré leur « filiation » avec Leibniz, celui-ci n’aurait pas eu droit à autant de prestigieux épithètes que ceux dont ils l’ont affublé. La remarque vaut pour à peu près tous les grands noms de la science qui sont à un moment ou à un autre cités tout au long de l’ouvrage, comme par exemple Gregory Chaitin quelques pages plus loin (p. 295 et suivante).

•p. 293, les auteurs confessent trouver « émouvant » de lire l’article de Leibniz sur le système de numération en base 2, et de rajouter « nous l’avons fait » (au sens de « nous avons lu cet article »). Mais à part renseigner le lecteur sur le fait que les auteurs savent lire, on ne voit guère l’intérêt d’une telle remarque. La moindre des choses que l’on est en droit d’attendre des auteurs quand ils citent un article est qu’ils l’aient effectivement lu en entier, et qu’ils aient compris son propos.

•p. 296 et suivante, les auteurs promeuvent l’idée qu’un concept qu’ils ne définissent jamais précisément, l’« information », préexisterait à la réalité physique du monde. Ils citent diverses personnes comme autant de chercheurs travaillant sur cette idée très générale, qu’ils reprennent ensuite à leur compte pour promouvoir leur propre modèle. Il est difficile de donner une cohérence logique à ce discours, ne serait-ce que parce que les noms cités n’ont guère de travaux en commun. Que l’idée qu’une structure sous-jacente à la réalité apparente du monde permette de mieux le décrire est certainement séduisante, mais ne repose guère sur autre chose que sur des argumentaires difficilement testables, voire sur des convictions personnelles. Dans ces conditions, justifier le bien fondé de l’approche que les auteurs prétendent être la leur au seul motif que tel ou tel mot qu’ils reprennent à leur compte a déjà été utilisé par ailleurs ne peut guère être pris au sérieux.

•p. 298, on a du mal à suivre les auteurs dans leur affirmation qu’au motif que « le réel est constitué de qubits il est à la fois discret et continu ». On ne voit pas vraiment à quelle discrétisation l’on fait allusion ici : ce ne peut en tout cas difficilement être la structure à petite échelle de l’espace-temps, étant donné que toutes ces approches sont vertement critiquées par Luboš Motl dans le livre qu’il consacre aux auteurs (« L’équation Bogdanov »). Bref, on est à nouveau face à un discours dont la cohérence est pour le moins difficile à établir.

•Juste après l’affirmation absconse qui précède, il est également difficile de donner un sens à l’affirmation selon laquelle « cette nouvelle dualité [entre réel discret et continu] a le mérite de résoudre l’une des impasses contre lesquelles pouvait buter jusqu’ici la physique numérique ». En particulier, le terme de « physique numérique » laisse perplexe. Parle-t-on de simulations numériques ? Si oui en quoi telle ou telle simulation numérique peut-elle être décrite comment étant en « impasse » ? Tout ceci ne veut strictement rien dire.

•p. 299, les auteurs affirment que le nombre de particules élémentaires présentes dans l’univers est de 1080. Selon toute vraisemblance parlent-ils implicitement de l’univers observable, mais même dans ce cas, le chiffre est faux. Il donne le nombre d’électrons ou de protons, mais l’un comme l’autre sont loin d’être les constituants les plus nombreux dans l’univers : les photons du fond diffus cosmologique sont plus d’un milliard de fois plus nombreux. Les neutrinos issus du Big Bang le sont également. Le chiffre exact est donc plutôt de l’ordre de 1089 ou 1090 [88].

•Peu après, les auteurs parlent de 10120, nombre jamais justifié, du reste, comme « le plus grand nombre qui ait un sens physique ». Cette affirmation est doublement critiquable, d’une part parce qu’elle n’est pas le fruit de la réflexion personnelle des auteurs, d’autre part parce que dans les faits, elle est de toute façon fausse. On trouve peu ou prou cette affirmation dans un livre de Jean-Paul Delahaye, Merveilleux nombres premiers[89]. Il est à présumer que les auteurs y ont puisé quelque inspiration, d’une part parce que le thème de ce livre a certainement de quoi les intéresser, d’autre part parce qu’ils ont déjà interagi avec ce mathématicien, qui avait du reste eu à se plaindre (une fois de plus !) de la façon extrêmement biaisée dont ses propos avaient été retranscrits[90]. La bienséance eût voulu que malgré cet incident les auteurs daignassent rendre à M. Delahaye (ou quiconque d’autre) la paternité de ce genre d’affirmation. Ceci étant, ladite affirmation est difficilement recevable, et ce pour une raison triviale : ce chiffre de 10120 intervient dans le calcul de l’hypothétique entropie associée à l’horizon de notre univers observable. De ce fait, il n’est « que » le logarithme d’un nombre décrivant l’ensemble des états possibles d’un système physique (a priori l’univers au-delà de l’horizon), nombre qui lui est presque inimaginablement plus grand (dans les 1010120, soit dans les 101000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000…). Mais plus généralement, il existe des nombres plus grands que 10120 qui apparaissent en cosmologie. En théorie des cordes, le nombre possible de vides, et donc de régions de l’univers où existent potentiellement des lois physiques différentes, se monte à un nombre estimé (quoique avec des incertitudes considérables) à 10500. Dans le cadre d’un nombre important de modèles d’inflation, la taille de la région homogène ou isotrope peut elle aussi être immensément plus grande que la taille de l’univers observable, le rapport entre les deux étant susceptible d’être immensément grand, une estimation avancée étant de 101000000[91]. Incidemment, l’affirmation que 10120 est plus grand que le nombre de particules composant l’univers est erronée. Il faudrait parler de l’univers observable, l’univers dans son ensemble étant considéré, même s’il est d’extension finie, comme potentiellement bien plus vaste.
ombre pourrait être autre chose qu’une « constante », ce terme n’ayant ceci dit que peu à avoir avec l’univers des nombres.

•À partir de la page 302, les auteurs prétendent relier l’entropie associée à l’horizon cosmologique à leur modèle. Une grande partie de leur argumentaire repose sur le fait que cette entropie, de 10120 en unités naturelles, serait d’une part une quantité fondamentale et d’autre part d’une façon ou d’une autre codée dans une grandeur physique à préciser. La première partie de ce pseudo-raisonnement est rapidement battue en brèche par le fait que cette entropie ne décrit pas l’univers observable lui-même, mais est a priori associée aux régions aujourd’hui inaccessibles à notre regard[92]. Par ailleurs, la valeur de cette entropie est directement reliée au rayon (en fait à la surface) de l’univers observable. Cette quantité change donc au cours du temps, et si elle encode une forme de méconnaissance des régions situées au-delà de nos moyens d’observation, ces régions-là ne sont pas les mêmes d’une époque à l’autre. La quantité en question n’est donc en rien intrinsèque à l’univers, ou pérenne au cours du temps. Le propos des auteurs aurait gagné cohérence (disons plutôt qu’il aurait été moins incohérent) s’il s’était référé à l’entropie classique de l’univers observable, qui est proportionnelle au nombre de ses constituants élémentaires, de l’ordre de 1090 donc (cf remarque plus haut). Mais là encore, même si ce nombre décrit des choses plus directement observables, il est comme le précédent changeant au cours du temps, le nombre de particules contenue dans l’univers observable a en général tendance à augmenter au cours du temps.

•p. 302, les auteurs prétendent que les bits d’information qui pourraient représenter l’état microscopique de l’univers et éventuellement encoder son entropie doivent être représentés par des qubits pendant l’ère de Planck. Il faudrait pour que cette phrase ait un sens a minima expliquer comment on définit le concept même d’entropie à des époques aussi reculées, ou simplement indiquer en quoi cette quantité possède encore un sens physique. Il faudrait ensuite justifier pourquoi l’on devrait passer des bits aux qubits, ce qui n’est pas fait ici. Par exemple, il n’est pas clair que les éventuels phénomènes d’intrication ne fassent que relier deux états possibles de tel ou tel sous-système de l’univers… Bref, le langage utilisé est, dans le meilleur des cas flou et inexploitable. Dans le pire des cas, il ne veut rien dire et ne possède pas l’embryon d’une traduction en termes mathématiques ou physiques concrets. Cette dernière hypothèse apparaît d’autant plus réaliste que, au-delà des carences généralisées dont font preuve les auteurs, aucun de leurs articles scientifiques publiés n’aborde de près ou de loin cette problématique.

•p. 303, la singularité initiale est présentée comme le « sommet du cône de lumière cosmologique ». Cette phrase a déjà été discutée précédemment (page 214), et ne veut rien dire. En particulier, le cône de lumière passé d’un point quelconque de l’univers à une époque quelconque n’englobe a priori pas la globalité de l’univers quand on se rapproche du temps de Planck. De même, le cône de lumière futur d’un point arbitrairement proche de la singularité n’englobe aujourd’hui qu’une région finie de l’univers. Il n’est a priori, sauf à postuler une histoire de l’expansion très particulière à l’univers, pas possible de prétendre que le cône de lumière futur d’un point englobe tout l’univers à une époque donnée, ou que la singularité est le sommet d’un quelconque cône de lumière. Quel que soit le sens que l’on essaie de donner à ce terme utilisé par les auteurs, il apparaît qu’il révèle une incompréhension générale de la structure causale d’un univers homogène et isotrope en expansion, et que le concept même de cône de lumière n’est pas compris.

•p. 303, la série d’affirmations concernant l’hypothétique singularité initiale (dont l’existence, répétons-le n’est pas prouvée) qui serait uniquement descriptible par les mathématique, qui ne posséderait « pas de contenu physique », mais qui néanmoins pourrait être « comparé à une information » (nonobstant la contradiction manifeste avec ce qui précède !) ne repose sur strictement rien. Il s’agit d’affirmations totalement vides de sens. L’association de cette singularité à un « code » (au sens informatique du terme) n’est pas étayée, et n’a, à nouveau, jamais été présentée ou même ébauchée par les auteurs dans leurs travaux publiés.

•p. 304, on apprend que la singularité initiale est un « objet classique », c’est-à-dire semble-t-il qu’il ne relève pas de la mécanique quantique. On a du mal à voir pourquoi il en serait ainsi, tout comme on a du mal à relier les affirmations avec celles, juste avant, qui déniaient toute nature physique à cet objet, et donc la possibilité d’être décrit par une quelconque théorie physique !

•Juste après, l’affirmation selon laquelle le zéro peut engendrer « tous les nombres » est vaguement recevable, mais ce suit, « par la suite, toutes les choses » ne l’est certainement pas. Même en se limitant aux objets mathématiques, il est grossièrement faux d’affirmer que tout objet mathématique peut être construit à partir de nombres. Il est d’ailleurs faux de dire qu’il n’y a pas d’objets mathématiques plus fondamentaux que les nombres : la théorie des ensembles, par exemple, ne peut être construite à partir des nombres (c’est plutôt le contraire qui se produit[93]). Le propos des auteurs est ici d’autant plus incohérent que, juste après avoir affirmé que les nombres engendraient toutes les choses possibles… ils expliquent que les nombres sont eux-mêmes construits à partir d’entités plus fondamentales, les ensemble, affirmation pour le coup recevable. Incidemment, la pseudo-construction présentée par les auteurs est techniquement très discutable. D’ordinaire, les nombres sont construits comme étant la propriété commune des ensembles qui sont en bijection, c’est-à-dire dont on peut mettre les éléments en correspondance deux à deux[94].

•Dans le second paragraphe de la page 305, les auteurs usent d’un langage tellement abscons qu’il est difficile d’en extraire le moindre sens. Ils parlent par exemple de la singularité « initiale », mais d’« information finale ». Si les auteurs ont commis une typo et entendaient « information initiale », leur propos est incohérent avec ce qu’ils disent juste après (voir ci-dessous), si ce n’est pas une faute de frappe, il manque beaucoup de choses pour affirmer que l’information « finale » vaut cela ou cela, à commencer par décrire l’époque « finale » à laquelle il est fait référence. Juste après, ils affirment sans citer de source que l’entropie initiale doivent être considérée comme étant nulle. Cette affirmation n’est pas étayée. Il y a certes des théorèmes qui stipulent que l’entropie croit au cours du temps, mais il faut alors préciser que l’on travaille dans un système fermé, ce qui n’est pas le cas de l’univers observable. Même dans ce cas, il faudrait expliquer pourquoi l’entropie serait strictement nulle et non « minimale », dans un sens d’ailleurs à préciser. L’affirmation qu’un système ne peut atteindre une entropie nulle en temps réel devrait aussi être étayée et précisée[95].

•p. 306, les auteurs prétendent semble-t-il déduire de la nullité de l’entropie initiale que « l’information initiale portée par le point 0 est nécessairement infinie ». Cette affirmation ne repose sur rien, sauf à imaginer que les auteurs définissent le terme d’« information » comme l’inverse du terme « entropie ». Mais, comme déjà dit dans l’introduction, cette terminologie est complètement fausse : l’entropie n’est rien d’autre que la mesure de la quantité d’information nécessaire pour décrire complètement un système : entropie et information sont donc la même chose et non l’inverse l’une de l’autre. Le recours à ces deux terminologies différentes prend son sens en fonction du contexte dans lequel on emploie l’une ou l’autre.

•Les pages 306 et 307 semblent être la conclusion du propos des auteurs, à savoir que (1) la singularité initiale est représentée par un nombre, pourvu que ce soit ce qu’on appelle un nombre univers (2) tout peut être décrit par un nombre (3) donc l’univers actuel est (potentiellement) déjà contenu dans la singularité initiale qui serait un nombre univers. On reste perplexe qu’il ait fallu dans les 300nbsp;pages d’âneries en tout genre pour en arriver là : cette pseudo-démonstration qui n’en est pas une tient en quelques lignes. Pire, on ne voit pas en quoi le point (3) serait une conséquence du reste, car il manque l’essentiel : d’une part pourquoi un nombre univers serait à l’œuvre à la singularité initiale (l’argumentaire de l’information infinie avancé par les auteurs ne tient pas puisque leur définition de l’information est totalement fausse, celle-ci étant à tort présentée comme infinie alors que l’entropie est nulle), et d’autre part, comment on sélectionnerait telle ou telle séquence dans ce nombre univers pour décrire le nôtre. Car après tout, en suivant la logique des auteurs, on pourrait surtout affirmer que « tous les mondes possibles » sont alors contenus dans cette information initiale, aussi le contenu prédictif de l’affirmation est strictement nul. On part en somme d’une affirmation du style « à partir de tel objet [la singularité initiale] on peut prédire l’évolution de tel autre [l’univers actuel], mais par un processus inconnu ». Au-delà du déterminisme implicite et très discutable de cette présentation, elle revient à faire faire à la physique actuelle un saut de plus de quatre siècles en arrière, à l’époque où l’on ne savait pas quelles étaient les lois qui décrivaient l’évolution de tel ou tel système physique.

http://sciences.blogs.liberation.fr/hom … C3%A9.html

Dernière modification par adidier24 (12 May 2011 20:34:49)


"On construit des prisons au lieu de bâtir des hommes" Christophe Alévêque

Hors ligne

 

Pied de page des forums

Propulsé par FluxBB
Traduction par FluxBB.fr
Adaptation graphique par FluxBinaire