Du Big Bang à la mission Planck

Publié par Publication le 23/03/2014 à 20:52
3

1 - Introduction

En mars 2013, sont rendues publiques les données provenant de la mission Planck. Lancée en 2009, la sonde Planck a été envoyée au point de Lagrange L2, à environ 1 million de kilomètres de la terre dans la direction opposée du soleil. Cette sonde a été conçue pour étudier plus précisément le rayonnement fossile cosmologique, ou CMB (Cosmologic Microwave Background). Ce rayonnement micro-onde est la lumière la plus ancienne de l'Univers, et ses caractéristiques cryptent les origines de l'Univers.

C'est la troisième sonde envoyée spécifiquement pour l'étude du CMB, la première étant COBE envoyée en 1989, et la seconde WMAP envoyée en 2001.


La sonde Planck - Illustration: JPL/NASA

La sonde Planck est équipée d'instruments plus précis que les précédents. De plus, elle mesurera pour la première fois la polarisation du rayonnement fossile, caractéristique qui permettra de confirmer certains paramètres cosmologiques, comme par exemple l'âge de l'Univers, la quantité de matière noire, l'énergie sombre, ainsi que certains modèles du Big Bang, notamment la théorie de l'inflation d'Alan Guth et d'Andréï Linde.

Mais tout d'abord qu'est-ce que le Big Bang ?
Comment en est-on arrivé là ?
Comment le Big Bang a-t-il acquis son statut de modèle dominant de l'Univers ?
Quels sont les piliers sur lesquels la théorie du Big Bang repose ?
Quelles sont les énigmes auxquelles le modèle standard de la cosmologie ne sait pas encore répondre ?

Nous répondons à ces questions dans ce dossier. Il reprend une série d'articles qui ont été publiés à intervalle régulier sur Techno-Science.net. Ce dossier est rédigé par Bongo1981 que vous pouvez retrouver sur notre forum.

2 - La relativité générale


L'espace-temps courbé par la présence d'une masse telle que la Terre.
Illustration: NASA
Le début du XXème siècle a vu la résolution du résultat négatif de l'expérience de Michelson-Morley, visant à mettre en évidence le mouvement de la Terre par rapport à l'éther. La solution de ce problème implique de revisiter des notions pourtant intuitives de l'espace et du temps, les fondant en une seule entité: l'espace-temps de Minkowski. Non content d'avoir bousculé nos concepts, Albert Einstein a montré que la théorie tricentenaire de la gravitation de Newton ne respectait pas les principes de sa nouvelle théorie. C'est pourquoi après 10 ans de travail exténuant, Einstein arrive à formuler une nouvelle théorie de la gravitation compatible avec les principes de la relativité restreinte.

En 1915, Einstein publie la théorie de la relativité générale, et l'applique au mouvement de Mercure autour du soleil. Il trouve alors une trajectoire presque elliptique, dont le grand axe tourne de 43 secondes d'arc par siècle, exactement la quantité mesurée (en prenant en compte les autres planètes du Système Solaire). Parti de ce succès, il entreprend de calculer un phénomène nouveau: la déviation des rayons lumineux par un corps massif. L'expédition d'Eddington profitant d'une éclipse totale de soleil en 1919 lui donne raison et Einstein devient alors connu du jour au lendemain du grand public.

La plus grande bêtise de sa vie

Einstein applique également sa nouvelle théorie à l'Univers entier, en le supposant homogène, et isotrope à partir d'une certaine échelle, hypothèses plutôt raisonnables selon lui. Einstein pensait à l'uniformité de la distribution des étoiles, c'était à son époque une hypothèse correcte, cependant, avec la découverte des galaxies, l'uniformité de l'Univers est bien vérifiée à plus grande échelle. Cela ne change pas la validité de la conclusion. Il arrive alors à la prédiction que l'Univers n'est pas statique, mais nécessairement dynamique. En effet, selon ses équations, l'Univers est forcément en expansion ou en contraction, mais nullement statique, tout comme une balle que l'on lance en l'air, la balle soumise à la gravité va ou bien s'élever dans les airs, ou bien tomber vers le sol. Ce résultat est bien trop révolutionnaire, même pour l'homme qui a révolutionné nos concepts d'espace et de temps, Einstein se voit obligé de modifier ses équations afin d'empêcher l'Univers d'évoluer, c'est la naissance de la constante cosmologique. Cependant la solution est instable, la moindre perturbation provoquerait une expansion ou une contraction.

La prédiction de l'expansion de l'Univers


Alexandre Friedmann
Illustration: Wikimedia Commons

Cependant, un physicien russe franchira le pas en 1922. En effet, Alexander Aleksandrovitch Friedmann exploita les équations de la relativité sans constante cosmologique et arriva naturellement à la prédiction d'un Univers en expansion. Ce résultat contredisait les conclusions d'Einstein 5 ans auparavant. Celui-ci publia un article réfutant les travaux de Friedmann, cependant après des échanges de lettres, Einstein reconnut qu'il avait fait une erreur, et admit la plausibilité des travaux de Friedmann. Cependant ses travaux n'ont eu aucun écho en occident, et l'astronome belge Georges Lemaître redécouvrit indépendamment l'expansion de l'Univers en 1927.

3 - Décalage vers le rouge ou redshift

Edwin Hubble


Edwin Hubble
Illustration: Western Washington University

Edwin Powell Hubble est né en 1889. Juriste de formation et diplômé de l'Université de Chicago en 1910, il se rend compte qu'il est passionné d'astronomie. Il obtient son doctorat en 1917 et passe alors le plus clair de son temps à l'observation. Il travaille à l'observatoire le plus puissant de l'époque: le télescope du Mont Wilson en Californie. Ce télescope, don de John D. Hooker, se trouve à 1742 mètres d'altitude, a un miroir principal de 2.5 mètres de diamètre, et fut le plus grand télescope du monde jusqu'en 1949, année où le télescope Hale le destitue avec un diamètre de 5 m.


Le télescope du Mont Wilson en Californie.
Illustration: Photograph © Andrew Dunn, 1989 - Wikipedia

Hubble était intrigué par des objets que l'on appelle des nébuleuses, dont la nature n'était pas très bien comprise. En effet, ce sont des objets répertoriés dans le catalogue de Messier, et cette catégorie était très hétérogène, l'on appelait nébuleuse aussi bien les rémanents d'une supernova (comme par exemple la nébuleuse du Crabe), qu'une galaxie (la nébuleuse d'Andromède). A l'époque, l'on ne comprenait pas ces objets. Emmanuel Kant pensait que les nébuleuses, tâches floues vues d'un télescope de l'époque, étaient des univers-îles.

Rappels de spectroscopie


Schéma de la décomposition de la lumière blanche à travers un prisme.
Illustration: Wikimedia Commons

La spectroscopie est l'étude de la lumière émise par une source lumineuse. Il suffit de mettre un prisme sur le trajet de la lumière émise et de l'observer à l'aide d'un goniomètre. Vers la fin du XIXème siècle, l'on savait qu'un élément chimique pouvait être identifié sans équivoque en observant simplement ses raies d'absorption ou d'émission. Par exemple le sodium est connu pour émettre une double raie à 5890.0 et 5895.9 Angström. De même l'on avait répertorié en long et en large les raies de l'hydrogène, observant même une certaine régularité portant des noms tels que: série de Balmer, Paschen, Lymann, etc... Ceci permit d'établir une carte d'identité des atomes et molécules. C'est d'ailleurs de cette façon que l'on a découvert l'hélium en 1868, en identifiant des raies provenant du Soleil jusqu'alors inconnues.

Au début du XXème siècle s'est développée la théorie quantique qui permettait enfin d'expliquer les raies d'absorption et d'émission des atomes. C'est alors que l'on comprit que les électrons se répartissent différemment autour d'un atome, cette répartition différente induit une énergie différente. Lorsque les électrons se réarrangent différemment, la différence d'énergie est alors prélevée, ou restituée au milieu environnant.

Le décalage vers le rouge ou redshift

L'analyse du spectre d'absorption de ces objets montrait alors qu'ils étaient tous décalés vers le rouge (à l'exception de la galaxie d'Andromède). Pourtant les astres que l'on voyait étaient composés des mêmes éléments chimiques. L'interprétation la plus simple est d'ordre cinématique, par analogie avec une sirène d'ambulance qui chante un "la" à 440 Hz, lorsque l'ambulance se rapproche de nous, le son émis semble plus aigu, et lorsque l'ambulance s'éloigne de nous, le son émis semble plus grave. De la même façon, lorsqu'une étoile se rapproche de nous, les radiations émises se trouvent dans des longueurs d'onde plus faibles, donc décalées vers le bleu, et lorsque l'étoile s'éloigne de nous, ces mêmes radiations se trouvent dans des longueurs d'onde plus grandes, donc décalées vers le rouge. La conclusion est donc que toutes les galaxies s'éloignent de nous (exceptée Andromède).


Spectres d'absorptions d'un même composant.
En haut, le composant est immobile par rapport à nous.
Au milieu, le composant s'éloigne de nous, son spectre est décalé vers le rouge (redshift).
En bas, le composant se rapproche de nous, son spectre est décalé vers le bleu (bleushift).
Illustration: http://coolcosmos.ipac.caltech.edu

Pour établir la distance des galaxies, Hubble utilise des étoiles dont on sait relier la luminosité à la période de variation de la luminosité: les Céphéides. C'est comme si l'on mesurait la luminosité d'un phare, plus l'on est près du phare, et plus il est brillant, plus on s'éloigne et plus il sera faiblement lumineux. Cependant, en mer, si nous voyons deux phares de même intensité, nous ne savons pas si nous sommes plus près de l'un ou de l'autre, puisque cela dépend de la luminosité du phare. De la même façon, connaissant la luminosité intrinsèque des Céphéides (grâce à leur période de variation), il suffit de mesurer leur luminosité, ensuite leur rapport donne la distance, puisque l'intensité de la lumière diminue avec le carré de la distance.

La loi de Hubble et l'expansion de l'Univers (1929)

Le résultat obtenu est le suivant:


La loi de Hubble
Illustration: imagine.gsfc.nasa.gov

Ces nébuleuses sont donc des objets extragalactiques, puisque leur distance se mesure en méga parsec (en millions d'années-lumière). De plus il existe une relation simple de proportionnalité entre leur décalage vers le rouge et leur distance. Hubble interprète ce décalage comme une vitesse de fuite des galaxies. Donc les galaxies s'éloignent de nous d'autant plus vite que leur distance est élevée. Cela ne fait pas de nous le centre de l'Univers, puisque si on se plaçait sur une autre galaxie, on verrait exactement la même chose.

Interprétation du décalage vers le rouge

L'interprétation de Hubble n'est pas tout à fait exacte. Si nous nous laissons guider par cette interprétation, nous arrivons rapidement à une contradiction. En effet, si la vitesse d'un objet est proportionnelle à sa distance, alors au delà d'une certaine distance, un objet se déplace plus vite que la lumière par rapport à nous, ce qui contredit la théorie de la relativité. L'expansion est en fait une expansion de l'espace lui-même, et non un déplacement des objets. En effet, les équations de Friedmann débouchent sur un facteur d'échelle, qui augmente au cours du temps, c'est l'expansion. Cela veut dire que pour une distance donnée entre deux corps célestes, après une certaine durée, la valeur de ce facteur d'échelle va doubler, ce qui veut dire que la distance entre ces objets aura également doublé.

Si l'on supprime une dimension, alors l'espace est représenté par la membrane d'un ballon de baudruche, dont les galaxies seraient sur la surface du ballon et immobiles (l'on pourrait par exemple faire une marque au feutre, marque représentant une galaxie). A mesure que le ballon gonfle, les galaxies s'éloignent les unes des autres, avec une vitesse proportionnelle à leur distance. Cette expansion de l'espace ne se fait pas à partir d'un point, elle se fait de partout. Dans l'exemple du ballon de baudruche, l'on pourrait penser que le ballon gonfle depuis le centre du ballon. Cependant, c'est une illusion d'optique due à la perspective de la représentation, puisque ce point est en dehors de la membrane du ballon et n'existe pas. (c'est comme le point vers où se rejoignent des lignes parallèles sur une photographie, ce point imaginaire est dû à la projection en 2 dimensions d'un espace en 3 dimensions).

4 - La nucléosynthèse primordiale

Abondance de l'hélium cosmique


Abondance des éléments que l'on trouve dans l'Univers
Illustration: Wikipedia

Ce graphique montre l'abondance des éléments que l'on trouve dans l'Univers. Nous observons sur ce graphe que la majeure partie de la matière (75% en masse) est formée d'hydrogène, tandis qu'une quantité respectable (25%) est constituée d'hélium. Le rapport entre le nombre de noyaux d'hydrogène et d'hélium, noté He/H vaut 0.1 environ. Le reste étant à l'état de trace, sachant que le Lithium (Li), le Béryllium (Be) et le Bore (B) pourtant plus légers que les éléments suivants sont en quantité bien moindre.

Il est naturel de supposer qu'une fraction de l'énergie du Big Bang se soit transformée en particules, notamment des baryons (particules soumises à l'interaction forte), dont le plus léger est stable: le proton. Le proton entre dans la composition de l'hydrogène, élément chimique le plus simple, le proton est la brique de base des autres éléments chimiques.

Nucléosynthèse stellaire


Chaîne proton-proton
Illustration: Wikipedia

Nous savons depuis le début du 20ème siècle que la source d'énergie des étoiles est la fusion thermonucléaire de l'hydrogène en hélium, suivant un mécanisme connu appelé chaîne proton-proton (voir schéma ci-dessus).

Dans la première réaction, un proton rencontre un autre proton, fusionnant en un noyau de deutérium (noyau composé d'un proton et d'un neutron), émettant un positron (antiparticule de l'électron) et un neutrino. Cette réaction est très lente, étant donné qu'elle se fait en deux étapes, et fait intervenir l'interaction faible.

Dans la deuxième étape, le deutérium fraîchement formé fusionne très rapidement avec un proton produisant de l'hélium 3, dont le noyau est composé de 2 protons et d'un neutron. Ensuite, deux noyaux d'hélium 3 fusionnent en hélium 4. Cette succession de réactions constitue la chaîne pp I (pour les étoiles les plus froides), et est le mode de production d'énergie pendant la phase de vie la plus longue des étoiles: la séquence principale.

L'abondance d'hélium (25% du total de tout l'Univers) est inexplicable si l'on suppose que son origine est purement stellaire, puisque la plupart des étoiles sont des naines rouges, qui en fin de vie se transforment en naines blanches sans rejeter dans le milieu interstellaire le produit de la fusion de l'hydrogène. Seule une très faible proportion d'étoiles finissent leur vie en supernova, seul mécanisme répandant l'hélium et les éléments lourds dans le milieu interstellaire. De plus, la quantité mesurée d'hélium reste sensiblement la même quel que soit l'âge de la galaxie observée. L'abondance de l'hélium n'est donc pas d'origine stellaire.

Abondance des éléments plus légers que le carbone

La physique stellaire permet de synthétiser le deutérium dans les étoiles, mais ce noyau est extrêmement réactif, ne persistant pas longtemps au coeur des étoiles, réagissant très rapidement pour former des éléments plus lourds. Il est donc assez incompréhensible de trouver cet isotope naturellement avec une telle abondance D/H = 2/100 000.

Lorsque l'hydrogène vient à manquer au coeur de l'étoile, et que celle-ci est assez massive, elle quitte la séquence principale pour fusionner l'hélium en carbone, puis en oxygène, néon, silicium, etc... Ceci explique naturellement la synthèse des éléments plus lourds que le carbone, mais laisse inexpliquée les quantités de lithium, béryllium et bore.

Il existe un phénomène: la spallation, correspondant à la collision des noyaux plus lourds (carbone, oxygène etc...) avec des particules de haute énergie (généralement des protons), brisant ces noyaux en lithium, béryllium, ou bore, mais ce phénomène est trop marginal pour pouvoir expliquer la quantité observée.

Origine cosmologique des éléments légers

D'après ce qui a été évoqué, ces éléments n'ont pas une origine stellaire, mais cosmologique. Cela montre que dans le passé, l'Univers a été bien plus dense et plus chaud, atteignant des températures suffisantes pour former les éléments légers, c'est ce que les astronomes appellent la nucléosynthèse primordiale.

Taux de baryons

L'abondance des éléments synthétisés est très sensible à la densité de protons, notée par la lettre grecque "eta", rapport entre la quantité de baryons et de photons, ce que l'on qualifie de densité de baryons.


Abondances primordiales
Illustration: in2p3

D'après la figure précédente, la quantité d'hélium 4 est peu sensible à la densité de baryons initiale. Par contre la quantité d'hélium 3 varie d'un facteur 10 à 100 et la quantité mesurée concorde très bien avec les modèles avec "eta" = 10^(-9).

Cependant, nous voyons que les courbes du Lithium 6 et 7 ne correspondent pas très bien, ce qui laisse présager des phénomènes encore mal compris, ou bien des phénomènes au delà du modèle standard, dont les détails dépassent très largement le cadre de cet article.

5 - Le rayonnement fossile

La découverte du rayonnement fossile

En 1964, Arno Penzias et Robert Wilson sont chargés par les laboratoires Bell de calibrer une antenne de télécommunication satellitaire, afin d'étudier le rayonnement radio du coeur de la Voie Lactée. Cependant, l'antenne captait un bruit quasiment constant, qui ne dépendait ni de l'heure, ni de la saison, ni de l'orientation de l'antenne. Les deux ingénieurs pensèrent qu'un couple de pigeon ayant fait leur nid dans l'antenne était la source des perturbations. Après les avoir chassés, le bruit était toujours présent. Pensant que l'origine était due à leurs déjections, ils entreprirent de nettoyer l'antenne, mais le bruit était toujours là. Après avoir exclu toutes les sources possibles, ils conclurent alors que l'origine de ce bruit était forcément cosmologique.

Les deux ingénieurs ne connaissaient pas les travaux des cosmologistes, et c'est presque par hasard que leur découverte est apprise par Dicke, Roll et Wilkinson, qui essayaient de mettre au point une expérience permettant de démontrer l'existence de ce rayonnement, prédit théoriquement par Gamow, dont la température a été calculée par Peebles (autour de 5 Kelvin).

Penzias et Wilson publièrent alors un article sur la détection de ce rayonnement à 3 Kelvin, et Dicke, Roll et Wilkinson publièrent de leur côté un autre article sur l'interprétation cosmologique de ce signal.


Représentation des différentes sphères cosmiques.
Illustration Abrams et Primack.

De nos jours il est admis que la source de ce signal est située sur une sphère centrée sur la Terre d'un rayon d'environ 45 milliards d'années lumière. Ce signal aurait été émis 380 000 ans après le Big Bang, lorsque la température du rayonnement a été trop basse pour pouvoir ioniser l'atome d'hydrogène, l'on dit alors que le rayonnement s'est découplé de la matière. Dorochkevitch et Novikov se basèrent sur le fait que le rayonnement était en équilibre thermodynamique avec la matière avant le découplage, et l'expansion a étiré le spectre. Ils en conclurent que le rayonnement fossile devait avoir un spectre de corps noir. Cependant pour expliquer l'existence des galaxies, le rayonnement ne doit pas être homogène, des grumeaux doivent forcément exister. C'est pourquoi les physiciens ont conçu un projet afin de mesurer ce rayonnement depuis l'espace.


Rayonnement du fond cosmologique.
Illustration COBE / FIRAS science team.

COBE (COsmologic Background Explorer)

Le satellite COBE a été lancé en 1989, placé à une altitude de 900 km, ce satellite devait cartographier le rayonnement fossile à plusieurs fréquences afin de vérifier si le spectre de ce rayonnement est celui d'un corps noir. L'autre objectif de la mission était de mettre en évidence ces inhomogénéités, que l'on suspecte être les embryons de la formation des grandes structures de l'Univers.

COBE était équipé des instruments suivants:

- DMR (Differential Microwave Radiometer). Etant donné qu'il fallait atteindre une précision de 1/100 000, et que les technologies de l'époque ne le permettait pas, George Smoot inventa le DMR afin de mesurer des différences de températures entre plusieurs régions du ciel. Cet appareil est constitué d'un ensemble de trois radiomètres différentiels effectuant des mesures sur des longueurs d'onde distinctes, 3,7 mm, 5,7 mm et 9,6 mm, ce qui correspond à des fréquences de 81, 52 et 31 GHz respectivement. L'observation dans 3 longueurs distinctes permet de s'affranchir des bruits d'avant plan (d'objets se trouvant entre la sonde et la zone d'émission, comme par exemple le rayonnement synchroton qui émet spécifiquement sur une seule fréquence). La corrélation entre ces 3 fréquences est précisément fournie par la loi de Planck.

- FIRAS (Far InfraRed Absolute Spectrometer) dont la fonction était de mesurer très précisément le spectre du fond diffus cosmologique en comparant celui-ci à un corps noir artificiel embarqué à bord du satellite,

- DIRBE (Diffuse InfraRed Background Experiment), dont la fonction était l'observation du ciel dans le domaine infrarouge, correspondant à des longueurs d'onde légèrement supérieures à celle du fond diffus cosmologique.


Fond cosmologique vu par COBE

Très rapidement en 1990, COBE confirme le spectre de corps noir du rayonnement fossile, précisant la température à 2.728 K. Après analyse des données, George Smoot a pu annoncer en 1992 la détection des anisotropies du rayonnement fossile (1/100 000).

La mission WMAP en 2003 (Wilkinson Microwave Anisotropy Probe)

La sonde WMAP a été lancée en 2001 pour succéder à COBE, en direction du point de Lagrange L2. Ce point a l'avantage d'être en orbite de manière synchrone avec la Terre autour du Soleil, bénéficiant donc de l'ombre partielle de la terre (vu de ce point, la Terre est un peu plus petite que le Soleil). Bien que ce point est un point d'équilibre instable, il est possible de rester en rotation autour de ce point avec un effort tout à fait modeste via les orbites de Lissajous.

Les objectifs principaux de la mission WMAP sont de:
- cartographier les fluctuations de température du rayonnement fossile
- caractériser les paramètres du contenu énergétique de l'Univers
- mesurer la courbure de l'Univers
- tester les modèles inflationnistes

Pour cela, WMAP a un pouvoir de résolution de 13 minutes d'angle et pouvait mesurer la polarisation du rayonnement fossile ( notamment le mode E).


Fond cosmologique vu par WMAP

WMAP a permis d'obtenir ce cliché connu du public, améliorant ainsi la précision de COBE. Il est possible d'extraire une autre courbe appelée spectre de puissance du rayonnement fossile à partir des données de WMAP (diagramme suivant). Ce cliché est l'équivalent en traitement du signal d'une transformée de Fourrier. Dans une transformée de Fourrier, l'on décompose un signal en la contribution des fréquences composants ce signal. Dans le spectre de puissance, la décomposition est spatiale, l'on transforme un signal cartographié dans toutes les directions en la contribution des harmoniques dites sphériques, dont la première composante est purement sphérique, la seconde est dipolaire, la troisième quadripolaire, etc...


Spectre de puissance des fluctuations primordiales.
Illustration NASA.

Le signal obtenu montre donc un premier pic, montrant que les amplitudes d'oscillations augmentent lorsque le moment multipolaire augmente. Ceci revient à dire que lorsque l'on regarde l'image de loin l'on fait une moyenne, et que plus l'on regarde de près, et plus l'on voit de détails. La taille d'un grain correspond environ à 1° (moment multipolaire autour de 180). Cette donnée permet de caractériser la platitude de l'espace. En effet, ce rayonnement a été émis 380 000 ans après le Big Bang, ceci veut dire qu'une région de température homogène ne peut excéder cette taille. Entre temps le facteur d'échelle a été multiplié par 1100. Si la courbure de l'espace-temps était positive, nous verrions un pic à une résolution angulaire plus grande (le pic serait plutôt décalée à gauche, région des faibles "l"), et si la courbure de l'espace-temps était plus négative, alors ce pic serait à un endroit plus petit que 1° (pic décalé plus à droite, dans les grands "l").

Le deuxième pic permet de voir ce que l'on appelle les ondes acoustiques des baryons. La densité de baryon pilote la vitesse de propagation des ondes de pression. Le fait de trouver le pic avec une telle amplitude et une telle résolution angulaire permet de conclure que la matière baryonique représente environ 5% de la densité critique. L'allure du troisième pic permet de déterminer assez précisément la quantité de matière noire, à environ 24%. La somme totale devant faire 100% (puisque la courbure de l'espace est nulle), le reste est composé d'énergie sombre.

Après 9 ans d'observation et d'exploitation des données de WMAP, voici donc les données que l'on a pu en extraire:


Age: 13.772 ± 0.059 milliards d'années
Constante de Hubble: 69.32 ± 0.80 km·s?1·Mpc?1
Matière baryonique: 4.628 ± 0.093%
Matière noire: 24.02 ± 0.88%
Energie sombre: 71.35 ± 0.95%
Courbure: -0.0027 ± 0.0039

La courbe mesurée coïncide le mieux avec le modèle de concordance avec les paramètres ci-dessus. Ce modèle est donc le modèle standard Lambda CDM, Lambda pour la constante cosmologique (l'énergie sombre non nulle), CDM pour "Cold Dark Matter": la matière noire froide. Le modèle est complétée par une phase d'expansion exponentielle aussi brève que rapide: l'inflation, établie par Alan Guth au début des années 80. Ce modèle prédit des caractéristiques données par la courbe rouge bien étayée par les observations de WMAP.

6 - Questions restées sans réponse

Le modèle actuel du Big Bang dit Lambda CDM laisse plusieurs questions sans réponse.


Le scénario de l'expansion de l'Univers depuis le Big Bang jusqu'à nos jours.
Illustration Wikipédia.

Horizon cosmologique

Les mesures des différentes missions spatiales ont montré que le rayonnement fossile avait une température très homogène à 2.728 K à 1/100 000 près et ce dans toutes les directions d'observations. Ceci est une grosse coïncidence. En effet, ces régions sont distantes de plus de 90 milliards d'années lumière aujourd'hui, et même si nous déroulons le film du Big Bang à l'envers, ces régions n'ont jamais pu échanger le moindre signal lumineux, et donc encore moins homogénéiser leur température. Comment se fait-il que ces régions soient aujourd'hui à la même température ?

Pourquoi l'Univers est-il plat ?

La mission WMAP a montré que la courbure de l'Univers était nulle, ou très proche de zéro. Nous comprenons bien que si la valeur ait été un peu différente de zéro, alors l'Univers aurait accéléré son expansion très rapidement, ou bien l'Univers se serait effondré des milliards d'années avant que toute vie n'ait pu émerger.

Chose encore plus étrange, quelques milliardièmes de seconde après le Big Bang, cette courbure devait être encore plus proche de zéro, sinon tout écart en serait amplifié des milliards d'années après.

Uniformité du rayonnement fossile

A grande échelle le rayonnement fossile est uniforme, cependant, il faut absolument qu'il y ait des inhomogénéités afin que les galaxies puissent se former, sinon l'Univers ressemblerait à une soupe totalement homogène sans galaxie, étoile ni planète.

Absence de monopôle magnétique et de défaut topologique

Dans la plupart des théories de la physique des particules allant au delà du modèle standard, il est prévu des particules massives stables, tels que les monopôles magnétiques, ou des cordes cosmiques (dues à des transition de phases). Leurs caractéristiques impliquent des perturbations assez spécifiques de leur environnement détectables avec nos télescopes optiques. Cependant, nous n'observons rien de tel, c'est pourquoi les modèles cosmologiques doivent pouvoir expliquer leur absence.

Où est l'antimatière ?

Dans toutes les expériences faites sur Terre de création de particules avec de l'énergie, nous observons sans la moindre exception la création d'une quantité strictement égale de matière et d'antimatière. Or si le Big Bang a commencé par une libération d'énergie pure, nous pouvons nous interroger sur la localisation spatiale de l'antimatière cosmologique. Il est impossible de distinguer la matière de l'antimatière via nos télescopes, étant données que ces deux facettes se comportent exactement de la même façon et qu'elles émettent le même type de lumière.
Cependant, lorsqu'une particule de matière rencontre de l'antimatière, cela engendre une région émettrice de rayons gammas de très grande énergie. Il est donc naturel de supposer qu'à l'interface de ces régions, il doit se produire des émissions massives de ces rayons, à des énergies caractéristiques par exemple de l'annihilation d'électron et de sa contrepartie en antimatière. Or nous n'avons pas détecté ces régions.

Il faut alors supposer que l'antimatière n'est pas présente dans l'Univers visible, dans ce cas il faut expliquer pourquoi la distribution de matière et d'antimatière n'est pas homogène. Ou bien il faut supposer que l'antimatière est tout simplement absente de l'Univers.

Le physicien russe Andréï Sakharov, père de la bombe atomique russe, montra qu'il fallait 3 conditions pour que l'Univers, originellement constitué d'un équilibre entre la matière et l'antimatière, passe à un Univers exclusivement dominé par la matière:

- Il faut une différence de loi physique régissant la matière et l'antimatière, c'est ce qui est observé en 1964 pour l'interaction faible lors de la désintégration de Kaon neutre.

- Il faut un processus violant la conservation du nombre baryonique, en d'autres termes, une réaction qui peut changer le nombre de baryons (dont une particule représentative est le proton), ce genre de réaction est prévu dans les théories unifiant les interactions électromagnétique, faible et forte, conduisant à la prédiction de l'instabilité du proton, mais les plus simples ont déjà été réfutées par l'expérience.

- Il faut une rupture de l'équilibre thermique.

Enigme du lithium

Comme évoqué plus tôt, la théorie actuelle de la nucléosynthèse primordiale n'arrive pas à rendre compte de la quantité de Lithium 6 et 7 présente dans l'Univers.

La théorie de l'inflation

La théorie de l'inflation suppose qu'il y a eu une phase d'expansion exponentielle lorsque l'Univers était beaucoup plus jeune (entre 1e-43 et 1e-35 seconde après le Big Bang) multipliant sa taille par 1e50 en ce laps de temps. La phase d'inflation ne contredit pas la relativité générale, puisque ceci correspond à une vitesse d'expansion très supérieure à la vitesse de la lumière, sachant que localement aucune particule n'a dépassé la vitesse de la lumière.

Cette théorie a été élaborée par Alan Guth au début des années 1980, puis à la suite perfectionnée par Andréï Linde, Paul Steinhardt, Andy Albrecht, etc... Elle se base sur l'existence d'un champ, qui tout en se refroidissant reste dans un état de haute énergie. Ce phénomène existe en physique du solide, plus connu sous le nom surfusion. En effet, l'on sait que l'eau gèle à 0°C dans les conditions normales de pression et de température. Cependant, de l'eau très pure peut rester liquide, même très en dessous de 0°C, jusqu'à ce qu'une petite perturbation crée les germes permettant la croissance des cristaux de glace.

Les cosmologistes pensent qu'un phénomène de ce genre aurait pu se produire. Les théories incorporant cette hypothèse arrive à expliquer naturellement les problèmes évoqués précédemment:

- L'horizon cosmologique: l'Univers était minuscule à cette époque, et a eu très largement le temps d'échanger des particules afin d'homogénéiser sa température, ensuite survint cette phase éloignant ces régions. Plusieurs milliards d'années plus tard, ces régions peuvent enfin échanger des particules, il n'est pas alors étonnant de mesurer exactement la même température.

- La platitude de l'Univers: il est facile de vérifier la courbure d'un ballon de basket, cependant si le ballon est aussi grand que la Terre, cette courbure est moins évidente. L'inflation multipliant les dimensions de l'Univers par un facteur énorme, tout écart par rapport à un espace plat est alors étiré pour se rapprocher d'un Univers plat.

- Inhomogénéité du rayonnement fossile: le rayonnement fossile est homogène à grande échelle, cependant les inhomogénéités à petite échelle correspondraient aux fluctuations quantiques microscopiques, qui auraient été amplifiées par l'inflation au niveau macroscopique.

- L'absence de monopôle magnétique: l'inflation, s'étant produite après la phase de synthèse de ces monopôles ou défaut topologique, aurait diluée ces objets de telle sorte que leur densité moyenne soit bien inférieure.

Les modèles de l'inflation doivent laisser des traces expérimentales dans le rayonnement fossile, notamment sous la forme d'ondes gravitationnelles. Ces ondes laissent des traces dans la polarisation du rayonnement fossile.

7 - La mission Planck

La sonde

La sonde Planck a été lancée le 14 mai 2009 à partir d'une fusée Ariane 5, en direction du point L2 de Lagrange, comme son prédécesseur. La sonde Planck est équipée de deux instruments principaux: High et Low Frequency Instrument: HFI et LFI. Ces instruments explorent 9 fréquences différentes (LFI: 30, 44, 70 GHz, et HFI: 100, 143, 217, 353, 545 et 857 GHz), afin de cartographier le ciel et supprimer les perturbations d'avant plan, qui peuvent être des sources de micro-ondes, comme le centre galactique, ou bien des sources de lentilles gravitationnelles, comme les amas de galaxies.


Schéma du satellite Planck.

Le système de refroidissement

Pour mesurer des températures d'environ 3 K (Kelvin) au-dessus du zéro absolu, ces instruments doivent être refroidis à une température inférieure (environ 0.1 K).

La sonde comporte de l'électronique, qui dissipe plusieurs centaines de Watts à environ 300 K par les parties noires à la base du satellite. Des ailettes sont disposées afin d'isoler la base de la sonde des instruments hautement sensibles (dissipation 2 W), permettant d'atteindre 50 K. C'est ce qui constitue le système de refroidissement passif de la sonde.

Ensuite, une machine cryogénique consommant la moitié de l'énergie disponible à bord refroidit à 20 K, elle fonctionne par détente d'hydrogène dans un cycle Joule-Thomson. Cette machine détermine la température de fonctionnement des radiomètres de l'instrument LFI et constitue le premier maillon actif de la chaîne de refroidissement de l'instrument HFI. La puissance de refroidissement est de 1 W environ.

Puis une deuxième machine cryogénique refroidit à 4 K (-269° C). C'est une pompe mécanique qui refroidit par détente Joule-Thomson d'hélium. Cette machine détermine la température de référence des radiomètres de l'instrument LFI (qui observe la différence entre le ciel et cette référence constituée par l'enveloppe de HFI). La puissance de refroidissement est de 0.015 W environ.

Le refroidissement à 0.1 K se fait en deux étapes:

- Une première partie de ce système cryogénique refroidit à 1.6 K (-271.4° C). Elle fonctionne par détente Joule-Thomson du mélange hélium 3 / hélium 4 et prérefroidit les gaz purs de la dilution ainsi que les filtres de l'instrument HFI. La puissance de refroidissement est de 0.005 W environ.

- La seconde partie de ce système refroidit à 0.1 K (-273° C). Elle fonctionne par dilution d'hélium 3 dans l'hélium 4 en circuit ouvert (le mélange est perdu dans l'espace, ce sont les réservoirs d'hélium 3 qui dimensionnent la durée de vie de la sonde). Cette machine détermine la température de fonctionnement des bolomètres de l'instrument HFI. La puissance de refroidissement est de 0.000002 W environ.

Enigmes: pourquoi l'Univers est-il plat ? Où est l'antimatière ?

Résultats du 21 mars 2013


Le 21 mars 2013 a eu lieu une série de conférences annonçant les résultats préliminaires de la sonde Planck. L'on peut voir que Planck a considérablement augmenté la résolution angulaire en étendant la courbe vers la droite. En effet, on peut distinguer jusqu'à 7 voire 8 pics, alors que WMAP n'en montrait que 5. Les résultats se sont également améliorés du côté gauche de la courbe dû au système de refroidissement de la sonde, réduisant très sensiblement les bruits de mesure.


Illustration: ESA / HFI & LFI consortia

Les résultats confirment le modèle standard de la cosmologie, en affinant l'âge de l'Univers: 13.8 Gans, la proportion de matière baryonique, le taux de matière noire, et ainsi que la densité de l'énergie sombre. Ils confirment également que l'Univers a une géométrie très proche de celle que l'on a apprise à l'école: euclidienne (courbure proche de zéro à 1% près).

Les résultats contraignent également les différents modèles d'inflation, favorisant aujourd'hui les modèles les plus simples.

Il reste une anomalie inexplicable par la théorie standard: une très faible anisotropie se trouvant dans le plan de la Voie Lactée, déjà vu avec les données de WMAP, et confirmée avec Planck.

Résultats à venir


Modes E et B de polarisation.
Illustration: Université Paris 7

En 2014 seront publiées des données sur la polarisation du rayonnement fossile. La lumière est caractérisée par:
- sa fréquence (lumière plutôt rouge ou violet pour la lumière visible),
- son spectre (quelle intensité dans quelle plage de fréquences, cela ressemble au timbre d'un instrument de musique),
- sa polarisation (la lumière étant une onde transversale, elle peut osciller selon un plan de polarisation à préciser).

Sur le trajet entre la zone d'émission du rayonnement fossile et la sonde Planck, il y a des zones où les photons subissent ce que l'on appelle une diffusion de Thomson, provoquant une polarisation de ce rayonnement.

Il est possible de décomposer la polarisation de la lumière suivant deux modes: E et B, comme le montre l'image ci-dessus. Le mode E correspond à des perturbations dites scalaires (inhomogénéité de densité), déjà détectées par WMAP. Le mode B prend sa source dans des perturbations tensorielles, comme par exemple par la présence d'ondes gravitationnelles. La détection de ce mode confirmerait certains modèles d'inflation.


Spectre de puissance attendu pour Planck.
Illustration: Université Paris 7

Selon les modèles les plus simples d'inflation, la courbe de polarisation devrait ressembler à la courbe ci-dessus. Les cosmologistes travaillant sur la sonde, les "Planckiens", espèrent que les données permettront de contraindre les modèles d'inflation.

8 - Conclusion

Depuis la découverte du rayonnement fossile, ce sujet d'étude est extrêmement riche en enseignement, permettant de contraindre un certain nombre de modèles cosmologiques. Théâtre où se rejoignent l'infiniment grand et l'infiniment petit, les énergies mises en jeu juste après le Big Bang sont colossales, de très loin au-dessus des capacités technologiques actuelles. La physique décrivant les phénomènes ne peuvent s'expliquer que par la physique des très hautes énergies. Le rayonnement fossile pourra préciser le nombre de types de neutrinos, l'existence d'un nouveau champ scalaire: l'inflation, l'existence d'une nouvelle forme d'énergie aux propriétés étranges rendant la gravitation répulsive, et également l'existence d'une matière noire, très massive, probablement supersymétrique.

L'annonce de mars 2013 ne signe que le début de l'aventure Planck, même si la mission est désormais terminée (la sonde ayant épuisé ses réserves d'hélium 3 a été éteinte) et il reste encore beaucoup de données à exploiter.
Page générée en 2.531 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales | Partenaire: HD-Numérique
Version anglaise | Version allemande | Version espagnole | Version portugaise