Le Repaire des Sciences
Sciences Physiques et Chimiques

 

 

 

 

     Glossaire d'astronomie


 



 

Dans ces pages, quelques définitions concernant l'astronomie.

 

A - B - C - D - F - G - H - I - J - K - L - M - N - O - P - Q - R - S - T - U - V - W - X - Y - Z 

 

A

Accrétion

L'accrétion est l'accumulation de masse sur un objet, produite par capture gravitationnelle de masse provenant du milieu environnant ou d'un autre objet. On estime que les étoiles se forment par accrétion progressive de masse prélevée à un nuage interstellaire parent.
Les échelles de temps mises en jeu par ce phénomène sont très variables : depuis cent millions d'années à un milliard d'années pour la capture de masse par une étoile à neutrons (pulsar*) dans un système binaire, jusqu'à moins d'un million d'années pour la formation d'une étoile. Cette échelle de temps ne peut néanmoins être inférieure au temps de chute libre
tc qui est le temps mis par la matière, distante de r, pour tomber sur le corps accrétant de masse m et dont un calcul élémentaire de dynamique donne la valeur

G étant la constante de gravitation universelle (G = 6,67.10-11 N.m2.kg-2). Si l'on considère l'implosion d'une étoile dans la phase de supernova, tc vaut quelques secondes et l'on ne parle plus, alors, d'accrétion, mais d'effondrement gravitationnel*. Puisque les temps d'accrétion dans les cas cités sont considérablement supérieurs, il doit exister de puissants mécanismes pour freiner la chute libre.
L'accrétion est un phénomène très efficace pour convertir de l'énergie potentielle* gravitationnelle en rayonnement sous forme infrarouge* : comme le marteau du forgeron chauffe la pièce de fer qu'il heurte par transformation de l'énergie cinétique* en chaleur, laquelle à son tour se transforme en lumière infrarouge rayonnée, les chocs des atomes en chute libre les uns vers les autres les échauffent et ils rayonnent dans tout l'espace. C'est pourquoi les sources les plus lumineuses connues dans l'Univers (les quasars*) résultent, pense-t-on, de l'accrétion de matière (étoile et gaz) par un trou noir* très massif et contenu dans le noyau central de certaines galaxies. De même, à une échelle plus modeste, les systèmes binaires formés d'une étoile à neutrons* et d'un compagnon normal donnent des sources galactiques très intenses de rayons X (on parle de binaires X*), le pulsar accrétant violemment la matière de son compagnon.

Accrétion sous forme de disque
Le premier modèle d'accrétion a été proposé par Pierre-Simon de Laplace en 1796 pour expliquer la formation du système solaire. Sous l'effet de la gravitation universelle, explicitée un siècle plus tôt par Newton, une nébuleuse de gaz se condensait progressivement puis formait le Soleil et les planètes. Le système solaire étant pratiquement contenu dans le plan de l'écliptique*, celui des orbites des planètes, du nuage zodiacal* et d'une majorité de comètes considérées comme un résidu du nuage primitif, la nébuleuse devait avoir la forme d'un disque.
De fait, la structure en disque est très caractéristique du phénomène d'accrétion. De telles structures sont observées directement dans des étoiles en formation ou autour d'étoiles jeunes (cf. ci-dessous) 

Images de l'étoile b-Pictoris dues à l'ESO (à gauche), à l'IAP et au BDL (à droite).

La forme de disque résulte de considérations dynamiques simples. Si un nuage est globalement en rotation même très légère autour de l'objet central accrétant, la chute libre vers celui-ci va imposer à la matière qui tombe une légère variation de son moment cinétique, alors que la chute vers le plan équatorial se fait à moment cinétique constant : cette dernière chute est donc plus "facile" ; elle enrichit en matière le plan équatorial et forme un disque. Dans ce disque, la matière orbite de manière képlerienne dans le champ gravitationnel de l'objet central et la situation pourrait être stable. Néanmoins, si la densité du disque est suffisamment élevée, des collisions entre particules orbitantes s'y produisent et dissipent de l'énergie cinétique en chaleur. Une partie du moment cinétique est également transférée vers l'extérieur du disque et l'accrétion se poursuit, cette fois-ci dans le plan du disque.
C'est donc l'existence de la viscosité qui permet les transferts de moment cinétique au sein de la matière accrétée et la formation ultime d'un disque. Dans les étoiles binaires X* galactiques, découvertes au cours des années 1970, la matière issue du compagnon tombe vers l'étoile à neutrons d'un diamètre de quelques kilomètres. Après avoir franchi le col gravitationnel qui sépare les deux masses (voir lobe de Roche), cette matière possède une grande vitesse orbitale et ne peut tomber directement sur l'étoile à neutrons : elle spirale autour de celle-ci en formant un disque et en dissipant progressivement son excès de moment angulaire par viscosité. L'une des difficultés majeures, non résolue, concerne l'origine physique de cette viscosité. Estimée à partir de l'observation des variables cataclysmiques*, étoiles binaires présentant également de l'accrétion, la viscosité cinématique est environ 1013 fois supérieure à la valeur prédite par la physique microscopique du gaz. Un tel écart, de 13 ordres de grandeur, implique d'attribuer la viscosité à un autre phénomène, tel que la turbulence* dans l'écoulement du fluide (viscosité de Shakura et Sunyaev). Il serait également possible de renoncer à l'explication du transfert de moment cinétique par viscosité, tel un transport par vent stellaire magnétisé ou par des ondes de choc.

Luminosité et taux d'accrétion
Il est possible d'estimer simplement la luminosité libérée par l'accrétion sur les objets compacts. Si la matière tombe sur l'objet central au taux d'accrétion

et dissipe son énergie gravitationnelle de chute à une distance moyenne r de l'objet de masse m, l'énergie dissipée  en chaleur est appelée luminosité d'accrétion et vaut

Pour les objets compacts, le taux d'accrétion ne peut excéder une valeur limite appelée taux d'Eddington à cause du phénomène suivant : si l'énergie libérée par chauffage est trop importante, la pression de radiation due au rayonnement de luminosité L s'échappant du disque s'exerce sur la matière en chute qui l'absorbe et ralentit, ou interdit, la chute. On conçoit qu'alors le taux d'Eddington est d'autant plus élevé qu'est petit le coefficient d'absorption massique k(lm) du rayonnement par la matière aux longueurs d'onde lm où est émis l'essentiel du rayonnement : ce taux est donné par l'expression

c étant la vitesse de la lumière qui apparaît dans la pression de radiation donnée par

Environ la moitié de l'énergie gravitationnelle est transformée en rayonnement, l'autre moitié fournissant l'énergie cinétique nécessaire pour que la matière demeure en orbite képlerienne. Bien qu'en principe le gaz puisse être accrété à des taux supérieurs à celui - notamment par un trou noir dont le rayonnement ne peut s'échapper et donc exercer une pression de rayonnement - l'observation montre que LE est une valeur bien représentative des luminosités observées, pour autant que la masse m soit bien connue, ce qui n'est pas nécessairement le cas du coeur des quasars*. Les binaires X ont une luminosité aux longueurs d'onde X (quelques nanomètres) d'environ 1031 watts, soit près de cent mille fois celle du Soleil aux longueurs d'onde du visible (vers 500 nm).

De l'accrétion à l'éjection
L'observation d'objets révèle très souvent une structure nouvelle : celle de jets de matière. Accompagnant l'accrétion, de la matière est éjectée, en général dans les deux directions perpendiculaires au disque, le long de l'axe polaire de l'objet central, avec un jet très fortement collimaté* dans l'axe. Ce phénomène est particulièrement visible dans les objets protostellaires où très jeunes, ou des flots dipolaires s'observent dans les raies de la molécule de monoxyde de carbone (CO) ou par la présence de condensations alignées sur l'axe polaire (objets de Herbig-Haro). De tels jets sont également observés dans les binaires X et à beaucoup plus grande échelle à partir des noyaux de galaxies actives (jets superluminiques*), ce qui plaide pour une origine physique liée au phénomène d'accrétion. Le champ magnétique joue sans doute un rôle important pour collimater et accélérer les jets aux grandes vitesses qui sont observées (proches de celle de la lumière pour les jets issus des noyaux actifs de galaxies ; d'environ 300 km/s pour les objets jeunes).

Galaxie M87
La galaxie M87 est l'une de celles contenant les plus massifs des trous noirs centraux (3.109 masses solaires) ; Ce jet a son origine dans une galaxie suffisamment proche (5.107 années-lumière). pour qu'il soit possible de mesurer la vitesse du gaz de part et d'autre du centre. On obtient une vitesse de 500 km/s à une distance au centre de 60 années-lumière, ce qui se voit aisément par le décalage spectral (ci-dessous).
Le centre de la galaxie active maintes fois étudiée Centaurus A se dérobe à la vue des télescopes optiques grâce à la pagaille cosmique d'étoiles de gaz et de poussière. Mais les télescopes radio tout comme les télescopes X peuvent suivre le jet remarquable de particules à haute énergie s'écoulant du coeur de la galaxie. Avec la région centrale de Cen A en bas à droite, cette image compositée en fausses couleurs montre l'émission radio en rouge et les rayons-X en bleu sur les 4000 années-lumière que mesure le jet. L'image ci-dessus, une des plus précises de ce type, montre comment les sites émettant des rayons-X et de la lumière en domaine radio correspondent tout au long du jet, ce qui fournit une carte pour comprendre l'écoulement énergétique. Tirant son énergie d'un trou noir supermassif situé au centre de la galaxie, le jet est confiné par selon un angle relativement étroit et semble produire la plupart de ses rayons-X (les teintes bleues) en haut à gauche, plus loin du coeur, là où le jet commence à entrer en collision avec les gaz plus denses de Centaurus A.


Amas de galaxies

Les galaxies sont rarement isolées : elles se rassemblent, pour la plupart, en différents groupes liés gravitationnellement qu'on appelle amas de galaxies. La taille caractéristique d'un amas est de 10 à 20 millions d'années-lumière. Le nombre de galaxies contenues dans un amas est extrêmement variable : de quelques membres à plusieurs milliers. Notre Galaxie appartient à un petit amas d'une trentaine de membres : le Groupe Local. Les amas voisins les plus proches sont l'amas de la Vierge et l'amas de Coma, situés respectivement à des distances d'environ 15 MPc (50 millions d'années-lumière) et d'environ 70 MPc (230 millions d'années-lumière). Les amas sont eux-même composés de petits groupes : les sous-amas. Les amas de galaxies font partie d'un grand complexe d'amas, les superamas galactiques, de plusieurs centaines d'années-lumière d'extension. Notre Galaxie appartient ainsi au superamas de la Vierge.

Intérêt astrophysique des amas galactiques
L'étude des amas est particulièrement précieuse, pour apprécier la structure de l'Univers à grande échelle. En effet, la luminosité des amas est telle qu'ils sont détectables, même à de grandes distances de notre Galaxie ; plus les objets observés sont éloignés, plus ils appartiennent au passé de l'Univers : les amas sont donc autant de jalons de l'évolution temporelle de la structure de notre Univers. Leur présence montre l'inhomogénéité de l'Univers à cette échelle : la formation des amas de galaxies procure des indications précieuses sur les conditions physiques de l'Univers primordial.
Par ailleurs, la densité des galaxies dans les amas denses favorise des interactions dynamiques extrêmement intéressantes, comme la fusion des galaxies, la présence de galaxies elliptiques géantes (galaxies cannibales ou cD), l'expulsion probable, dans le milieu inter-amas, de gaz et d'étoiles des galaxies en collision... Enfin, l'analyse dynamique des vitesses des galaxies en amas a mis en évidence l'un des problèmes les plus curieux de l'astronomie moderne : le problème de la masse manquante (liée à la matière noire).

Classification des amas
Plusieurs milliers d'amas ont été répertoriés (catalogue de Fritz Zwicky ou de George Abell). La multiplicité et la diversité des amas observés rendent indispensable l'élaboration de classifications, même primaires, pour établir des grandes classes de propriétés communes. Une première distinction est faite entre les amas contenant quelques dizaines de grandes galaxies brillantes (amas pauvres) et les amas contenant plusieurs centaines de ces galaxies (amas riches). La forme globale de l'amas est un autre indicateur de la spécificité de deux grands groupes d'amas : certains ont une forme régulière et symétrique (amas réguliers) ; d'autres n'ont pas vraiment de forme clairement définie (amas irréguliers). En outre, la population de galaxies réunies dans les amas distingue aussi deux grandes classes d'amas : l'une contient une majorité de galaxies elliptiques ou lenticulaires SO (amas pauvres en spirales) alors que la population de l'autre est homogène entre les galaxies de tout type (amas riches en spirales). On se reportera à la classification des galaxies selon Hubble.
Fort heureusement, ces différentes propriétés semblent corrélées : les classifications se recoupent. En effet, les amas riches tels que l'amas de Coma sont le plus souvent des amas réguliers, pauvres en spirales, alors que les amas pauvres, comme celui de la Vierge, sont souvent irréguliers et riches en spirales.

Statut dynamique des amas et masse manquante
La distribution de la densité des galaxies entre ces deux types (amas riches et pauvres) est aussi significativement différente. Dans les amas riches, il existe une condensation spectrale, prolongée par une distribution continue vers l'extérieur de l'amas ; dans les amas pauvres, la distribution des masses est loin d'être aussi régulière. Cette différence dans la distribution de masse suggère que le statut dynamique des amas réguliers a atteint un équilibre stable, alors que les amas irréguliers ne sont pas encore à l'équilibre.
Les vitesses radiales (vitesses projetées sur la ligne de visée) des galaxies d'un amas sont obtenues par la mesure du décalage spectral par effet Doppler-Fizeau des spectres qu'elles émettent. La fonction de distribution des vitesses (nombre de galaxies versus vitesse radiale) permet de définir la vitesse typique d'une galaxie dans un amas, dite vitesse de dispersion, qui est de l'ordre de 1 000 km/s. En général, la vitesse de dispersion décroît lorsque la distance des galaxies au centre de l'amas augmente. Le temps de traversée moyen d'un amas riche par une galaxie (temps dynamique de l'amas) est en moyenne d'un milliard d'années ; l'âge de l'Univers étant de l'ordre de 10 à 20 milliards d'années, les galaxies ont vraisemblablement traversé plusieurs fois l'amas. Ce qui est une autre indication de la cohésion gravitationnelle de ces galaxies ainsi que de leur équilibre dynamique. Le théorème du viriel appliqué aux amas en équilibre dynamique permet d'estimer la masse virielle Mv de l'amas,

où V est la vitesse de dispersion de l'amas, R son rayon et G la constante de gravitation ; la masse virielle ainsi obtenue est typiquement de l'ordre de 1015 masses solaires.
La valeur de la masse virielle est très différente de l'estimation obtenue en sommant la masse des galaxies visibles de l'amas ; cette différence, découverte la première fois par Zwicky vers 1937, atteint un facteur 10 : 90 % de la masse de l'amas seraient constitués d'une matière invisible (la fameuse matière noire). On ne connaît pas encore la nature de cette substance, dont seuls les effets gravitationnels sont perceptibles.

Gaz intra-amas et galaxies cannibales
L'observation des amas aux longueurs d'onde X a révélé l'existence d'un gaz intra-amas très chaud (107-108 K) qui emplit l'espace entre les galaxies d'un amas. La masse du gaz serait de l'ordre de la masse totale des galaxies de l'amas; cette grande quantité de gaz est cependant insuffisante pour fournir une explication à la masse manquante. L'analyse spectrale des rayonnements X indique que la métallicité du gaz intra-amas est très élevée. Il est probable que ce gaz soit issu des galaxies ayant subi des interactions gravitationnelles avec d'autres galaxies (lors de collisions frontales par exemple). Les observations radio, qui sont un indicateur de la quantité de gaz d'hydrogène, montrent en effet que certaines galaxies (plutôt centrales) semblent posséder moins de gaz que les galaxies périphériques.
La densité des galaxies au coeur des amas riches est dix mille fois plus grande que la densité moyenne des galaxies dans l'Univers ; la séparation entre deux galaxies d'un amas est de l'ordre de dix fois la taille d'une galaxie. ainsi, les collisions entre galaxies d'un amas sont très probables. De plus, dans les amas riches, le centre est généralement habité par une galaxie elliptique géante très lumineuse (galaxie cD, dont la taille est dix à cent fois supérieure à celle d'une galaxie normale). Il est probable que cette galaxie résulte d'absorptions successives de galaxies périphériques ; ce processus, nommé cannibalisme, semble confirmé par la présence de plusieurs noyaux au sein de ces immenses galaxies nommées galaxies cannibales. Elles sont entourées d'une enveloppe (halo) très étendue, peuplée d'étoiles peu brillantes. Il est possible que celles-ci aient été arrachées à leur galaxie d'origine lors de la rencontre frontale entre ces deux galaxies.
Notre Galaxie est « cannibale »: pour preuve, elle déchiquète une galaxie naine nommée Galaxie du Sagittaire tous les 3,5 milliards d'années, car cette galaxie fait des « orbites » autour de la nôtre. D'autre part, la collision de la Voie Lactée avec la Galaxie d'Andromède (M 31) aura lieu dans plusieurs millions d'années.


 

Amas stellaire (globulaire, ouvert)

Un ensemble d'étoiles liées gravitationnellement forme un amas stellaire. Les amas d'étoiles sont des sous-ensembles d'étoiles, situés au sein d'une galaxie, laquelle est elle-même formée d'un très grand ensemble d'étoiles, d'amas d'étoiles, de gaz et d'autres objets liés gravitationnellement. Lorsque la masse totale d'un amas est inférieure à 104 masses solaires, de quelques dizaines à quelques milliers d'étoiles au plus, il est dit ouvert. Il est dit globulaire pour des masses supérieures atteignant 106 masses solaires ou davantage (quelques millions d'étoiles).
Dans l'un et l'autre des cas, l'intérêt de l'étude des amas vient d'hypothèses solides : ils rassemblent des étoiles situées à la même distance de la Terre, donc faciles à comparer entre elles par l'éclairement. (magnitude), la couleur (indice de couleur) et le spectre). Ces étoiles  ont le même âge, celui de la formation de l'amas, ainsi que la même composition chimique initiale : leurs évolutions, par exemple selon leur masse, peuvent être facilement comparées. Cela contraste avec la difficulté d'estimation de l'âge, par exemple, d'une étoile isolée de la Galaxie ou d'une autre galaxie.

Amas globulaires
Les amas globulaires de la Galaxie (entre autres :
w Centaure, M3, M15, M22, 47 Toucan), au nombre total de 154, représentent 1% de la masse présente sous la forme d'étoiles dans le halo galactique. De forme moyenne presque parfaitement sphérique, bien que divers en masse, luminosité et composition chimique, les amas globulaires sont tous formés d'étoiles peu massives et très âgées (environ 15 milliards d'années d'après le diagramme d'évolution) dites de population II (Baade 1945), par opposition aux étoiles plus jeunes du voisinage solaire ou des amas ouverts. Les étoiles des amas ouverts  sont déficientes en éléments chimiques de numéro atomique Z > 2 (par exemple, elles possèdent en fer entre 300 et 10 fois inférieure à celle trouvée dans le Soleil), chaque amas présentant une composition chimique homogène entre toutes ses étoiles. Cette composition chimique, déterminée par les spectres stellaires produits par les atmosphères des étoiles de l'amas, et particulièrement par les géantes rouges très lumineuses, est donc celle qui prévalait dans les premières époques de la Galaxie et renseigne sur l'évolution chimique de celle-ci.
Les amas globulaires sont distribués dans une sphère d'environ 30 kiloparsecs de rayon, centrés sur le Centre galactique. Un quart d'entre eux, les plus riches en métaux, est situé dans le disque. Tous orbitent dans le potentiel gravitationnel galactique, croisant le plan de la Galaxie environ trois fois par milliard d'années et interagissant alors (par collisions gravitationnelles)  avec les étoiles et le gaz du disque. Il perdent vraisemblablement leur gaz interstellaire (éjecta d'étoile) lors de ces passages répétés, car on n'observe aucune trace de gaz interstellaire dans les amas.
Les amas ont été formés aux tout premiers âges de la Galaxie. Leur masse et le faible rendement de la formation d'étoiles à partir d'un nuage interstellaire massif (10-3 au plus) ont requis pour leur formation des masses si importantes que l'on peut supposer qu'il s'agissait non de nuages individuels mais de petites galaxies à fort taux de formation stellaire, évoluant d'abord séparément puis finalement s'accrétant à la Galaxie pour donner le halo qui contient ces amas, le tout se déroulant sur plusieurs milliards d'années, car les amas sont d'âges différents. Les étoiles massives ayant une vie courte,  les amas globulaires, à la différences des amas jeunes ouverts, n'en contiennent donc pas.


L'histoire dynamique d'un amas globulaire est particulièrement intéressante. Elle débute par un phénomène de relaxation, qui produit le bel aspect à symétrie sphérique de ces objets et s'établit en environ 109 ans : les interactions gravitationnelles à deux corps (deux étoiles s'approchant) tendent à diminuer les écarts de vitesse entre ces étoiles, jusqu'à ce que le comportement de ce "gaz d'étoiles" devienne analogue à celui d'un gaz parfait : la distribution des vitesses stellaires dans l'amas est maxwellienne. Cette distribution contient une "queue" à grandes vitesses, supérieures à la vitesse de libération de l'amas : ces étoiles s'évaporent (quittent l'amas) et, par conservation de l'énergie, le reste de l'amas se contracte lentement. La densité centrale augmente, provoquant un effondrement ou collapse du coeur, après  une douzaine de temps de relaxation (1010 ans au total). Le profil radial de densité stellaire, et donc de brillance de surface observée, est alors caractéristique : de fait, de nombreux amas sont observés avec un tel profil de brillance.
Lorsque la densité centrale est assez élevée pour produire des systèmes stellaires liés (étoiles binaires), cette formation libère de l'énergie mécanique, alors transférée au reste de l'amas et analogue à une pression, comme Michel Hénon l'a suggéré en 1961 : le collapse s'arrête. Une autre possibilité dans ce coeur, non exclusive de la précédente, est la formation de trous noir qui joueraient le même rôle stabilisateur. Le fin vraisemblable de l'évolution de l'amas est l'évaporation quasi-totale, ne laissant qu'un résidu central sous forme de trou noir ou de binaires. Le temps d'évaporation calculé est de 25 milliards d'années, supérieur à l'âge estimé de la Galaxie. On n'observe donc aujourd'hui que les amas à évaporation la plus lente, c'est-à-dire les plus denses. Ces phénomènes d'évolution d'amas peuvent être simulés numériquement par les calculs dits "à N-corps" rendus possibles par les puissants ordinateurs contemporains.
Les amas peuvent également être détruits par friction avec les étoiles de la Galaxie, notamment lors de leur traversée du disque : c'est sans doute pourquoi cexu que nous observons sont peu abondants dans le disque et concentrés à grande distance de celui-ci, qu'ils ne traversent que rarement.
La première cartographie du ciel en rayons X (par le satellite UHURU dans les années 1970) a révélé qu'une proportion importante des sources X découvertes étaient associées aux amas : pour un même nombre d'étoiles, les amas contiennent cent fois plus de sources X que les autres régions de la Galaxie, au point qu'il est possible, à partir de sources X nouvelles, de découvrir des amas inconnus, dont le rayonnement stellaire est entièrement obscurci par l'extinction galactique.
Cette richesse en sources X a été ensuite confirmée par les télescopes X plus sensibles : plus de 10% des amas contiennent des sources X. Celles-ci ont été identifiées comme des systèmes binaires très serrés (distance entre compagnons de 0,01 à 0,1 fois la distance moyenne Soleil-Mercure) formés d'une étoile normale (séquence principale du diagramme HR) et d'un compagnon (étoile à neutrons si la source X est intense ; naine blanche formant une variable cataclysmiques dans les autres cas) accrétant à sa surface la matière de l'étoile normale : on parle de binaires X. Ce sont les conditions extrêmes de densité en étoiles dans le coeur des amas, associée à la présence abondante d'étoiles évoluées, qui favorisent la formation de ces systèmes binaires. L'identité reconnue des sources X d'amas et de ces mêmes sources dans le disque permet d'estimer avec précision la luminosité des premières (entre 1029 et 1031 W, inférieure à la limite de luminosité d'Eddington), donc des secondes, puisque la distance des amas à la Terre est bien connue. Dans les amas, on a découvert avec surprise des pulsars millisecondes, ainsi nommés à cause de leur très rapide période de rotation. Leur présence surprend, car les pulsars sont généralement des objets jeunes.
Les amas contiennent aussi des étoiles variables diverses, notamment des céphéides de population II, qui sont précieuses pour estimer les dimensions du halo ou la distance des galaxies proches, mais dont la relation période-luminosité diffère de celle de la population I. Il faut rappeler ici l'erreur historique qui a fait confondre ces deux classes de Céphéides depuis 1918 (Harlow Shapley), ce qui revenait à sous-estimer la distance de la galaxie M31 (Andromède) à 300 kpc au lieu de 690 kpc ; en 1952, Walter Baade a rétabli les valeurs correctes, doublant d'un coup les dimensions de l'Univers et le temps cosmologique de Hubble ! Par ailleurs, Shapley détermina avec précision, pour la première fois, grâce à la photométrie des amas et à leur répartition sphérique dans le halo, la distance du Soleil au centre de la Galaxie.
Les autres galaxies contiennent aussi des amas globulaires. La galaxie elliptique géante M87 est aussi entourée d'amas globulaires. La luminosité importante (105 à 106 celle du Soleil) rend ces amas détectables jusque 100 Mpc de distance ; ils apparaissent comme une concentration d'objets entourant la galaxie jusqu'à plus de 100 kpc de son centre. L'observation  ne distingue les étoiles que dans les galaxies les plus proches de la nôtre, jusque quelques Mpc. Les propriétés de ces amas sont proches de celles des amas galactiques (distribution sphérique des étoiles, étoiles anciennes de faible métallicité), ce qui en fait des témoins assez uniformes des stages primitifs de l'évolution des galaxies. La mesure directe (par effet Doppler) de la vitesse de ces amas permet d'estimer la masse de la galaxie-hôte à partir du théorème du viriel, et de démontrer ainsi la présence d'une importante quantité de masse cachée (non lumineuse) dans celle-ci.

 

Amas ouverts
L'observation révèle d'autres groupements d'étoiles, moins compacts et moins riches que les amas globulaires : les amas ouverts, dont les Pléiades (M45) ou l'amas de Praesepe (M44), bien visibles à l'oeil nu, sont deux exemples connus.

La Galaxie compte plus d'un millier de tels amas identifiés (Messier en catalogua trente, visibles à l'oeil nu ou avec un petit télescope), soit une faible proportion de son contenu total, car l'extinction galactique, notamment dans le plan galactique, rend la plupart d'entre eux inobservables.
Dans un amas ouvert, les étoiles - au nombre compris entre la dizaine et le millier - sont liées gravitationnellement. Leur particularité est d'avoir toutes été formées à la même époque : l'âge d'un amas (et de toutes les étoiles qu'il contient, donc) s'étage entre quelques millions et 100 millions d'années. C'est cette particularité qui rend l'étude de ces amas si intéressante, en fournissant un test observationnel très précis de l'évolution stellaire : en effet, le seul paramètre qui distingue une étoile d'une autre au sein de l'amas est sa masse. Par ailleurs, puisque toutes les étoiles de l'amas sont à la même distance du Soleil, elles peuvent être aisément comparées en luminosité absolue. Puisque le temps d'évolution d'une étoile sur la séquence principale HR ou au-delà ne dépend que de sa masse, la distribution des étoiles en couleur et en luminosité (diagramme HR) dans un amas, observée aujourd'hui, reflète précisément l'évolution de chacune d'entre elles selon sa masse et peut être comparée aux modèles d'évolution que construit la physique stellaire : par exemple, les moins massives seront encore sur la séquence principale, les plus massives sur la branche des géantes rouges ou la branche horizontale.
L'observation des amas conduit à affiner la théorie de l'évolution stellaire. Elle confirme aussi que les étoiles se forment par groupes nombreux : à l'aide du rayonnement infrarouge qui traverse plus facilement les nuages moléculaires où se forment les étoiles, on observe des amas enfouis d'étoiles très jeunes, où même n'ayant pas encore atteint la séquence principale (étoiles T-Tauri) : c'est le cas dans le nuage moléculaire d'Orion ou dans celui du Taureau.
En observant des amas à des distances croissantes du centre de la Galaxie, on constate que leurs étoiles s'appauvrissent en éléments chimiquement lourds (métaux), une constatation liée à l'évolution chimique de la Galaxie, mais solidement assise par la connaissance précise du diagramme HR des étoiles de ces amas.
Parce qu'il est possible de parvenir à une compréhension très précise de la luminosité absolue des étoiles d'un amas ouvert, bien plus précise que s'il s'agissait d'étoiles isolées, la photométrie d'un amas (mesure de l'éclairement produit sur le télescope) permet de déterminer avec précision la distance de cet amas. L'observation d'étoiles plus lointaines utilise alors cette mesure comme un étalon de distance. C'est ainsi que, dans la chaîne d'étalonnage des mesures de distance, l'amas des Hyades, situé à 45 pc de nous, joue un rôle crucial.
Les étoiles des amas ouverts sont observables individuellement dans les galaxies les plus proches et sont pratiquement toujours à la même distance de nous, ce qui en facilite la comparaison, plus difficile dans notre Galaxie : ainsi, dans le Grand Nuage de Magellan, observe-t-on des amas en formation (R136) ou évolués.

 


Assombrissement centre-bord

Observé aux longueurs d'onde proche du visible (de 100 à 1 000 nanomètres), le flux radiatif émis par le Soleil décroît du centre du disque vers les bords ; ceux-ci apparaissent plus sombres que le centre du disque, d'où la dénomination "assombrissement centre-bord" attribué au phénomène.
Cet effet s'observe directement sur le Soleil en raison de sa proximité. Il est également présent sur les autres étoiles, pour lesquelles des techniques indirectes de mesure permettent de le déceler (étude photométrique de la courbe de lumière des binaires à éclipses, interférométrie).
Aux longueurs d'onde optiques considérées, l'essentiel du rayonnement stellaire observé est émis par la
photosphère, définie par une surface d'épaisseur optique égale à l'unité. L'assombrissement centre-bord démontre que les étoiles ne rayonnent pas comme de véritables corps noirs. Ces derniers sont caractérisés par une température unique (température de corps noir) et leur brillance de surface est uniforme. Or, les étoiles possèdent une atmosphère dont la structure (température, densité et épaisseur optique) engendre des écarts par rapport au rayonnement de corps noir.

L'effet géométrique
La variation du flux radiatif du centre vers le bord résulte d'abord d'un effet géométrique. La distance parcourue par le rayonnement pour parvenir à l'observateur n'est pas la même selon la région considérée sur le disque solaire. Considérons une surface sphérique S centrée sur le centre du Soleil. Le rayonnement émis au centre du disque solaire parcourt jusqu'à l'observateur une distance minimale en traversant perpendiculairement - selon un rayon - l'atmosphère. Cela n'est pas le cas des autres régions du disque solaire : pour parvenir à l'observateur, le rayonnement parcourt un trajet oblique (donc plus long) dans l'atmosphère. L'obliquité - et le longueur - des trajets est d'autant plus grande que les régions considérées sont éloignées du centre du disque solaire.

L'effet de profondeur optique et de structure atmosphérique
L'absorption du rayonnement par les constituants de l'atmosphère solaire dépend de la distance parcourue dans le milieu ; il en résulte que le rayonnement émis sur les bords du disque subit une plus grande absorption avant de parvenir à l'observateur. L'épaisseur optique (
t
) vers l'observateur n'est donc pas la même le long de la surface sphérique S considérée plus haut : elle augmente avec l'obliquité des rayons. Autrement dit, pour une même épaisseur optique, l'altitude accessible des bords du disque est plus élevée que celle du centre du disque.
Ainsi, la photosphère effective est située plus haut dans l'atmosphère pour les régions du bord du disque. Comme dans la basse atmosphère (
photosphère), la température décroît avec l'altitude, les bords du disque rayonnent moins.
Si
q est l'angle entre l'axe joignant l'observateur au centre O du disque solaire et l'axe reliant l'observateur à un point A quelconque du disque, l'assombrissement centre-bord est décrit, dans sa forme la plus simple, par I = Io (1 + e cos q - e) où I et Io sont respectivement l'intensité du rayonnement en O et A et e est le coefficient d'assombrissement centre-bord ; il dépend en général de la longueur d'onde (à 550 nm, e = 0,59).

On remarque que la norme de la flèche verte (vitesse radiale intégrée) augmente et se rapproche de la valeur de la vitesse radiale  « intrinsèque » lorsque l’assombrissement centre-bord augmente

L'embrillancement centre-bord
La variation centre-bord du Soleil est donc un phénomène qui résulte de la combinaison d'un effet de profondeur optique et de la structure en température de la zone atmosphérique considérée. Ainsi, la haute atmosphère (
chromosphère et couronne) observée en radio ou dans le domaine X présente un effet d'embrillancement centre-bord : les bords du disque sont plus brillants que le centre du disque. La profondeur optique des bords du disque étant plus grande que celle du centre et, dans la haute atmosphère, la température augmentant avec l'altitude, on obtient un effet inverse à celui qui est observé pour la photosphère.



C

Chaîne proton-proton

La chaîne proton-proton (ou chaîne pp) est une série de réactions nucléaires exothermiques (qui libèrent de l'énergie) au cours desquelles deux noyaux d'hydrogène (protons) fusionnent pour engendrer un noyau d'hélium.
Ce processus ne se réalise que lorsque la température atteint 107 K et que la densité est de l'ordre de 100 g.cm-3. Ces conditions étant réalisées au coeur des étoiles de masse comparable à celle du Soleil, ce processus est la source principale d'énergie dans le Soleil et dans toutes les étoiles de la séquence principale du diagramme de
Hertzsprung-Russell de type spectral tardif.
Pour les étoiles de type spectral récent, plus massives (plus de trois masses solaires), un autre processus (
cycle carbone-oxygène-azote) s'établit pour réaliser la fusion de l'hydrogène. On peut noter que le taux de réaction de la chaîne pp, par rapport au cycle CNO, est peu sensible à la température : l'énergie E libérée lors de la chaîne pp est proportionnelle à la puissance quatrième de la température (E ~ T4) alors que pour le cycle CNO elle est proportionnelle à la puissance quinzième (E ~ T15).
La chaîne pp comprend trois séquences alternatives de réactions nucléaires dénommées respectivement pp I, pp II et pp III. Elles commencent toutes trois (à 97,5%) par la fusion de deux noyaux d'hydrogène pour engendrer un noyau de deutérium (2De), qui fusionne ensuite avec un nouveau noyau d'hydrogène pour donner un noyau d'hélium à trois nucléons (3He). En adoptant les notations conventionnelles, ces deux réactions s'écrivent

où e+ e un positron, g un photon et ne un neutrino électronique.
La chaîne pp I poursuit par la fusion de deux noyaux 3He pour créer un noyau d'hélium à quatre nucléons 4He et redonner deux noyaux d'hydrogène. La majorité des réactions nucléaires (86%) se réalise en suivant la chaîne pp. Les trois chaînes pp sont décrites par les séquences de réactions suivantes.

pp I

pp II
pp III

où e- représente l'électron.
Ces réactions nucléaires ont été observées en laboratoire, à l'exception de la première, qui produit un noyau de deutérium. Elle est en effet extrêmement rare puisqu'elle ne se produit que quelques fois pour 1012 collisions entre noyaux d'hydrogène. La réaction alternative, encore plus rare, qui engendre également un noyau de deutérium, est la suivante.

Elle n'intervient que dans une infime fraction des réactions nucléaires.
Les neutrinos produits par le Soleil selon les chaînes pp II et pp III sont détectables sur Terre à l'aide des détecteurs radiochimiques (chlorine 37Cl). Cependant, il existe un désaccord entre le flux prévu par la théorie et le nombre de neutrinos qui ont été détectés ; celui-ci est quatre fois moins important que ne le prévoit le modèle solaire standard.

 


Convection

La convection est un processus de transport de chaleur qui s'établit dans un milieu fluide, lorsque les globules de matière, situés dans les régions chaudes, se déplacent vers les régions plus froides pour y dissiper leur excès relatif d'énergie. C'est ce qu'on observe dans une pièce d'habitation autour d'un radiateur (convecteur).

Instabilité convective dans les étoiles
L'instabilité convective se déclenche dans un milieu chauffé, lorsque les processus alternatifs de transport d'énergie (conduction ou rayonnement) sont inefficaces : cela engendre de forts gradients de température dans le milieu. La convection joue donc un rôle important dans la physique stellaire lorsque l'énergie nucléaire produite au coeur des étoiles ne peut être évacuée ni par la conduction ni par le rayonnement. La conduction est importante pour les étoiles très denses (naines blanches et étoiles à neutrons). Dans les autres étoiles, les deux autres processus, rayonnement et convection, entrent en compétition. Sous certaines conditions (densité d'énergie produite trop élevée ou opacité de la matière trop forte), le transport radiatif devient inefficace et l'instabilité convective se développe.
Dans les étoiles massives de la séquence principale, d'au moins trois masses solaires, la fusion de l'hydrogène s'effectue selon le
cycle carbone-oxygène-azote. La production d'énergie engendrée est telle que le rayonnement est inefficace pour évacuer vers l'extérieur cette énergie. Un coeur convectif se développe alors, pendant que le reste de l'étoile demeure en équilibre radiatif (le transport de l'énergie s'effectue par rayonnement).
Dans les étoiles de type solaire, la fusion de l'hydrogène se réalise selon la
chaîne proton-proton et l'énergie produite est suffisamment basse pour que le transport radiatif soit efficace. Cependant, dans l'enveloppe de l'étoile (qui débute à 70% du rayon pour le Soleil), l'opacité devient très forte, car la matière n'est plus totalement ionisée, et la convection se met en place. C'est ainsi que le Soleil et toutes les autres étoiles du même type possèdent une zone convective en surface (enveloppe convective).

Principe physique de la convection : transport d'énergie
La convection, ainsi que tout processus turbulent, résulte d'instabilités physiques complexes dont la modélisation demeure problématique. Cependant, alors que la turbulence engendre des déplacements chaotiques et une dissipation d'énergie aux petites échelles, la convection instaure un régime dans lequel les mouvements sont organisés à des échelles relativement grandes. Une vision simple de la convection consiste à imaginer des globules de matière chaude se déplaçant vers les régions froides puis revenant à leur lieu d'origine après que le transfert d'énergie a eu lieu : ce trajet du globule est nommé cellule convective. Le mouvement ascendant de ces cellules, des régions chaudes vers les régions froides, est déclenché par une augmentation de température du globule de matière en équilibre de pression avec son environnement initial. La pression étant conservée, cette augmentation de température entraîne la dilatation du globule et une diminution de sa densité ; la force de gravité diminuant, le globule monte vers les couches supérieures sous l'effet de la poussée d'Archimède.
Sur le Soleil, la signature de la convection se distingue tout d'abord par la
granulation qui dessine sur la photosphère les frontières des cellules convectives, puis par l'observation de l'effet Doppler-Fizeau dans les raies d'absorption photosphériques. L'analyse de ces raies indique des déplacements de matière le long de la ligne de visée à une vitesse de 2 km.s-1 pour les cellules ascendantes (décalage spectral vers le rouge) et de 4 km.s-1 pour les cellules descendantes (décalage vers le bleu). La surface des cellules ascendantes sur le disque solaire représente 80% de la surface totale. Pour les étoiles plus lointaines, cet effet ne peut être observé individuellement ; le disque n'est pas spatialement résolu et seuls des effets moyennés, telle une asymétrie du profil de rai, indiquent qu'il existe à la surface de l'étoile des mouvements ascendants et descendants dans des proportions différentes.
Le modèle convectif est utilisé dans le calcul numérique de la structure interne des étoiles. Le modèle de convection le plus commodément utilisé, appelé théorie de la longueur de mélange, introduit un coefficient a, qui paramétrise le parcours effectué par le globule dans l'étoile, avant de transférer adiabatiquement dans les couches supérieures son excès d'énergie

DQ = C r v DT

DQ est le taux de chaleur transmise par unité de surface, C la chaleur spécifique adiabatique du milieu, r la densité, v la vitesse du globule et DT la différence de température entre le globule ascendant et l'environnement qu'il atteint.
Le critère de déclenchement de l'instabilité convective a été énoncé par Karl Schwarzschild : le critère de Schwarzschild consiste à comparer au gradient adiabatique la valeur absolue du gradient radial de température qui résulte du transport radiatif. Lorsque la valeur absolue du gradient radial est plus petite, le milieu est stable vis-à-vis de la convection et le transport d'énergie se fait par le rayonnement. Au contraire, si le gradient adabatique devient plus petit en valeur absolue, le milieu est instable en regard de la convection.

Importance de la convection
La convection joue également un rôle important dans l'activité magnétique d'une étoile. En effet, les mouvements de la zone convective d'une étoile, combinés à la
rotation différentielle, engendrent un effet dynamo qui amplifie considérablement un petit champ magnétique initial. De plus, les mouvements convectifs pourraient expliquer en partie le chauffage des régions extérieures des atmosphères stellaires par la dissipation d'ondes acoustiques ou magnétohydrodynamiques engendrée par ces mouvements au sein de la zone convective.

 


Couronne

 

La couronne solaire désigne les régions situées au-dessus du disque visible du Soleil. De température élevée (1 à 3 millions de kelvins) et de faible densité, elle début à 20 000 km (0,03 rayon solaire) au dessus-de la photosphère pour se prolonger continûment en vent solaire baignant l'ensemble du système solaire. Quel que soit le domaine de longueur d'onde utilisé pour l'observer, la structure de la couronne se révèle très irrégulière et variable sur toutes les échelles de temps. Ces deux caractéristiques sont reliées à l'existence de manifestations magnétiques transitoires, parfois très puissantes et extrêmement diverses (sursauts solaires radio et gamma, boucles X, plumes et jets optiques, protubérances, trous coronaux ...).
L'étude


Corps noir

Le corps noir est un système idéal, isolé (c'est-à-dire sans échange d'énergie ni de masse avec l'extérieur), constitué d'un milieu en équilibre thermodynamique. Ce système est caractérisé par une température unique qui résulte des équilibres microscopiques nécessairement réalisés pour établir l'équilibre thermodynamique macroscopique. En particulier, le champ de rayonnement (interne au corps noir), en équilibre avec la matière, ne dépend que de cette température : il est isotrope et homogène ; ses propriétés sont indépendantes de la forme ou de la composition chimique du milieu matériel qui constitue le corps noir.

Le corps noir, un absorbant parfait
Dans un milieu en équilibre thermodynamique, le nombre d'émissions est égal au nombre d'absorptions : le couplage entre la matière et le rayonnement est parfait, tout rayonnement émis par le milieu est absorbé en de mêmes proportions. C'est pourquoi un corps noir est qualifié d'émetteur idéal et d'absorbant parfait. La distribution spectrale de l'intensité du rayonnement de corps noir est décrite par la fonction de Planck (que nous détaillerons plus tard).

Le corps noir, un concept idéal
Pour le physicien, le corps noir est un objet idéal dont la réalité n'offre jamais que des approximations : tout objet réel possède des frontières libres à travers lesquelles des échanges d'énergie (même minimes) s'établissent avec l'extérieur. Ces échanges introduisent des gradients de température au sein de l'objet ou des directions privilégiées selon lesquelles le rayonnement se propage (anisotropie). Cependant, dans de nombreuses situations astrophysiques, les écarts à l'équilibre thermodynamique sont négligeables ; c'est notamment le cas de la base des photosphères stellaires qui émettent alors un rayonnement très voisin de celui d'un corps noir dans la partie optique du spectre électromagnétique.

Réalisation expérimentale du corps noir
Une expérience réalisée en laboratoire permet de réaliser des conditions physiques proches de celles d'un corps noir et d'en observer le rayonnement : on utilise une enceinte isolée, dont les parois sont maintenues à température constante T à l'aide d'un thermostat pour réaliser les conditions de l'équilibre thermodynamique. Les parois émettent un rayonnement piégé au sein de la cavité (les parois étant
optiquement épaisses). Les photons sont donc absorbés par les parois émettrices. L'énergie des photons transmise aux parois est convertie en énergie thermique qui est ensuite restituée sous forme de rayonnement.
Ces multiples processus d'émission et d'absorption couplet étroitement le champ de rayonnement et la matière des parois à température fixée. Il s'établit un équilibre thermique entre le rayonnement et les parois : le rayonnement, qualifié de thermique, est alors celui d'un corps noir. Un petit trou percé dans l'une des parois permet alors d'observer ce rayonnement, mais il doit être suffisamment petit pour ne pas perturber l'équilibre au sein de la cavité (l'énergie radiative perdue est négligeable devant l'énergie radiative totale présente dans l'enceinte).

Rayonnement de corps noir
Un tel dispositif a permis d'obtenir des courbes expérimentales de la distribution spectrale de corps noir pour différentes températures. Les lois dérivées par Wien (1893) puis par Rayleigh et Jeans (1900) décrivent le comportement de la distribution spectrale respectivement pour les courtes et les grandes longueurs d'onde comparées à

où h est la constante de Planck, c la célérité de la lumière dans le vide et kB la constante de Boltzmann.

Il a fallu attendre la théorie quantique, élaborée en partie par le physicien allemand Max Planck, pour rendre compte théoriquement de la fonction de Planck sur l'ensemble du domaine spectral.
Le rayonnement de corps noir est un concept fondamental de la physique du rayonnement ; il est couramment utilisé en astrophysique comme concept de référence pour définir certaines notions radiatives (puissance, luminosité, ...) d'un milieu émetteur.

Conditions physiques du rayonnement de corps noir
Le rayonnement de corps noir résulte d'une succession d'absorptions et d'émissions de photons par la matière, de telle sorte que le couplage établi entre la matière et le rayonnement soit suffisamment étroit pour établir un équilibre thermodynamique macroscopique.
La surface d'un objet rayonne comme un corps noir lorsque deux conditions sont réunies : d'une part, la température des particules absorbantes doit être constante à proximité de la surface émettrice de photons ; d'autre part, la population des éléments absorbants doit être suffisamment grande pour qu'il y ait de multiples absorptions et réémissions de photons : le libre parcours moyen doit donc être très petit devant la taille de la surface émettrice.
La première condition revient à supposer un équilibre thermique de la matière ; l'énergie radiative perdue doit alors soit être compensée par une production d'énergie à l'intérieur de l'objet, soit négligeable devant l'énergie radiative totale contenue dans l'objet. Si cette condition est remplie, la surface émet un rayonnement thermique : la fonction source Sl est définie par la fonction de Planck Bl(T). La seconde condition assure que le milieu est optiquement épais : l'intensité Il émise par le milieu est alors telle que Il = Bl(T).
En résumé, un rayonnement thermique est un rayonnement émis par une matière en équilibre thermique et un rayonnement de corps noir est un rayonnement lui-même à l'équilibre thermique. Un rayonnement thermique est assez correctement décrit par un rayonnement de corps noir lorsque le milieu émetteur est optiquement épais.

Expression mathématique du rayonnement de corps noir
Pour obtenir l'expression mathématique de l'intensité de rayonnement de corps noir - c'est-à-dire la fonction de Planck -, il est nécessaire de décrire les phénomènes d'absorption et d'émission à l'aide de la physique statistique quantique. En particulier, on peut noter que les photons sont des particules de spin entier, donc des bosons, qui n'obéissent pas au principe d'exclusion de Pauli. La répartition des photons à l'équilibre dans les différents états d'énergie est alors donnée par la distribution de Bose-Einstein

où nn représente le nombre de photons par unité de fréquence n.

Démonstration : dans cette statistique, le niveau d'énergie ei est divisé en gi sous-états où se répartissent, sans règles, Ni particules : ceci équivaut donc à (gi - 1) sous-états indépendants pour Ni particules interchangeables. Il y a par conséquent (Ni + gi - 1)! permutations, mais qui ne correspondant pas toutes à des sous-états différents. En effet, nous pouvons interchanger les sous-états sans qu’il y ait de différence entre les sous-états.
Au niveau microscopique, pour vérifier les résultats expérimentaux, nous devons faire l’hypothèse de l’indiscernabilité des particules (cette hypothèse n’est pas évidente puisqu’au niveau macroscopique deux objets identiques sont reconnaissables c’est à dire discernables). Le nombre de combinaisons devient

Globalement, pour tous les sous-états énergétiques,

Pour chercher le maximum de WB-E, nous allons passer au logarithme, de sorte que la factorielle soit accessible par la formule de Stirling : si x est grand, alors Ln x! ≈ x Ln x - x. On rappelle que les gi sont fixés.

Par ailleurs,

et, en exceptant le cas des photons (qui peuvent être créés ou absorbés),

En introduisant les multiplicateurs de Lagrange a et b,

On obtient

en posant B = e-a calculé en sommant les Ni, et en identifiant

Pour les photons, les multiplicateurs de Lagrange conduisent à

soit

Dans le cas général, il convient d'introduire également le potentiel chimique µ

Dans notre cas, comme le nombre de photons contenus dans la cavité maintenue à température T est variable, il est en effet tout indiqué d'utiliser l'ensemble grand-canonique pour traiter ce problème. A l'équilibre, l'énergie libre du système - dont le volume et la température sont fixés - doit être minimum, et comme seul le nombre de particules peut varier,

ce qui signifie que le potentiel chimique du gaz de photons est nul : c'est un gaz de Bose dégénéré ; le nombre moyen de photons, < ni >, qui sont dans un sous-état d'énergie

est donné par la distribution de Bose-Einstein dans laquelle µ = 0

Associée aux photons, on appelle cette distribution loi de Planck ; le nombre de micro-états dont le module de l'impulsion, dans le volume V, est compris entre p et p + dp, est donné par

comme g = 2 (états de spin ±1). Vient ensuite

L'énergie associée à ce rayonnement, dans la gamme de pulsations comprises entre w et w + dw, s'écrit

Cette relation donne la distribution spectrale de l'énergie du corps noir, et porte le nom de formule de Planck. Ce dernier l'a obtenu de manière phénoménologique, et elle a permis, par son bon accord avec l'expérience, de préfigurer l'avènement de la mécanique quantique. Au basses fréquences,

on obtient la formule de Rayleigh-Jeans,

et en hautes fréquences,

on obtient la formule de Wien

La distribution spectrale atteint alors un maximum fonction de la température (c'est la loi de déplacement de Wien).

On écrit également

si lmax est en micromètres (µm).

L'énergie totale rayonnée par la cavité est obtenue en intégrant sur toutes les fréquences

Par changement de variable,

L'énergie est proportionnelle à T4 : c'est la loi de Stefan, démontrée initialement dans le même contexte que la loi de Wien, en volume

La constante s porte le nom de constante de Stefan. Pour une étoile sphérique, dont on suppose la surface "corps noir équivalent" de rayon R*, on a une luminosité ou puissance totale L = 4pR*²sT4.


Chromosphère

La chromosphère solaire est la région de l'atmosphère du Soleil située au-dessus de la photosphère et en-deçà de la région de transition à la base de la couronne. La proximité du Soleil permet d'analyser en détail les phénomènes dynamiques de la chromosphère et de les relier à des signatures spectrales, qui servent ainsi d'indicateurs pour l'étude des autres étoiles qui possèdent une chromosphère (étoiles de type spectral tardif). Il est donc très important de bien connaître les propriétés de la chromosphère solaire.

Propriétés physiques
Mince région de l'ordre de 5 000 km de hauteur et d'une température moyenne de 10 000 K (pouvant varier de 4 300 à 50 000 K !), la chromosphère solaire s'observe à l'oeil nu lors des éclipses totales de Soleil et se reconnaît par la lumière rosée (dominée par la forte émission de l'hydrogène dans la raie de Balmer Ha à 696,3 nm qui borde le disque photosphérique alors dissimulé. Ce rayonnement coloré lui a d'ailleurs donné son nom : en grec, chromos signifie couleur.


Réseau chromosphérique et champs magnétiques
Au début et à la fin de l'éclipse, il est possible d'observer brièvement le spectre flash chromosphérique, constitué d'une série de raies en émission. En l'absence d'éclipse totale, le spectre d'absorption photosphérique se superpose et domine le spectre d'émission chromosphérique. Néanmoins, une image de la chromosphère est obtenue en sélectionnant, grâce à l'utilisation d'un spectrographe, un rayonnement monochromatique, dont la longueur d'onde est choisie dans les raies d'émission préférentiellement formées dans la chromosphère (magnésium une fois ionisé Mg II, calcium une fois ionisé Ca II et la raie Ha). Une telle image, nommée spectrohéliogramme, montre que l'émission chromosphérique n'est pas homogène sur le disque solaire mais qu'elle se répartit sur les contours d'une mosaïque de cellules de 32 000 km de diamètre, dit réseau chromosphérique (ou réseau de super
granulation). Celui-ci prolonge les cellules du réseau de granulation photosphérique (signature de la convection subphotosphérique). De petites régions brillantes (1 000 km de diamètre) sont également observées à l'intérieur de ces cellules.
Les régions d'intense émission chromosphérique coïncident avec la présence accrue de champs magnétiques, qui émergent à la photosphère et se développent plus haut dans l'atmosphère du Soleil. Ces champs magnétiques se "matérialisent" sur les bords du disque solaire par des petits jets de matière, les
spicules.

Problème du chauffage chromosphérique
Le problème crucial à propos de la chromosphère est de comprendre pourquoi la température de l'atmosphère solaire augmente avec la hauteur, alors que la température  dans la photosphère décroît. Lorsque la température de l'atmosphère solaire dépend uniquement de l'échange d'énergie entre le flux radial de photons et le gaz atmosphérique (équilibre radiatif)., la température diminue avec la hauteur. En effet, comme le gaz de l'atmosphère est en
équilibre hydrostatique, la densité de gaz décroît avec la hauteur. Ainsi, les interactions entre le rayonnement et le gaz diminuent ; l'échange d'énergie entre photons et atomes (ou molécules) est moins efficace : le gaz est moins chauffé, ce qui se traduit par une diminution de la température. Or, l'observation montre que la température ne diminue que sur une petite fraction de l'atmosphère (dans la photosphère) et augmente par la suite. Cela signifie qu'il existe une autre source d'énergie non radiative (mécanique ou magnétique) pour chauffer la chromosphère. Pour maintenir la chromosphère en équilibre thermique, l'apport d'énergie doit suppléer aux pertes radiatives. Le calcul montre que cet apport d'énergie est de l'ordre de 4,5.15 J.kg-1. La dissipation d'ondes acoustiques et magnétohydrodynamiques, engendrées lors des mouvements turbulents de la zone convective (voir convection) située sous la photosphère, serait un processus de chauffage à même de fournir cette énergie.

Chromosphères stellaires
Le chauffage et les caractéristiques spectrales de la chromosphère solaire sont donc intimement reliés à l'existence de la zone convective sous-jacente qui est aussi le site de production de champs magnétiques (effet
dynamo). Il n'est donc pas étonnant que les étoiles chaudes, qui ne possèdent pas de zone convective en surface, ne montrent aucun indice observationnel de l'existence d'une chromosphère. En revanche, les étoiles froides, telles les supergéantes rouges, ont des chromosphères importantes qui s'étendent parfois sur plus d'un rayon stellaire. De plus, l'observation des chromosphères stellaires révèle que l'intensité des raies chromosphériques augmente avec le taux de rotation de l'étoile. C'est un indice supplémentaire d'une activité magnétique accrue dans ces étoiles.

 


Cycle carbone-oxygène-azote

Le cycle carbone-oxygène-azote (cycle CNO), aussi dénommé cycle de Bethe-von Weizsäcker, est une chaîne de réactions nucléaires produisant de l'énergie au sein des étoiles massives (deux à trois fois plus que le Soleil) de la séquence principale du diagramme HR : il décrit la fusion de deux noyaux d'hydrogène pour former un noyau d'hélium. Les réactions nucléaires qui produisent ce résultat sont les suivantes :

g est un photon, e+ un positon et ne un neutrino électronique.
Les noyaux de carbone sont essentiels car ils amorcent le cycle sans être réellement détruits puisqu'ils réapparaissent en produit final dans l'ultime réaction nucléaire de ce cycle. Le carbone ici peut être regardé comme un catalyseur du cycle CNO de la réaction globale

L'implication des noyaux d'azote (N) et d'oxygène (O) dans la chaîne de réactions a ainsi donné le nom à ce cycle.
Au cours de la fusion de deux hydrogènes, le cycle CNO produit une quantité d'énergie E égale à 26,7 MeV (méga-électronvolts), dont 1,7 MeV sont libérés par les neutrinos. Il dépend très fortement de la température (E ~ T15) : le cycle CNO s'enclenche dès que la température au coeur des étoiles excède 16 millions de kelvins ; en deçà de cette température, la fusion de l'hydrogène s'effectue selon la
chaîne proton-proton. Comme la valeur de la température centrale augmente avec la masse des étoiles, le cycle CNO s'amorce dans les étoiles massives et chaudes de type spectral O, B et A, alors que, dans les étoiles de plus faibles masses, comme le Soleil, la chaîne proton-proton prédomine.
Il existe deux variations possibles du cycle CNO, le bi-cycle CNO et le tri-cycle CNO, qui diffèrent par la dernière réaction du cycle

Bi-cycle CNO

Tri-cycle CNO


Cycle magnétique solaire

Le cycle magnétique solaire est la variation semi-régulière et périodique (environ 11 ans) de l'activité magnétique du Soleil. Il s'illustre notamment par l'augmentation du nombre des taches solaires au cours du cycle et la variation de leur localisation qui, progressivement, se rapproche de l'équateur solaire. Les taches, peu nombreuses au début du cycle, se concentrent aux latitudes 35° à 45° Nord et Sud, pour émerger à une latitude moyenne de 10° à la fin du cycle. La représentation graphique de la dérivée latitudinale des groupes de taches au cours du temps est connue sous le nom de diagramme papillon.

Le cycle solaire est contrôlé par un processus dynamo résultant des couplages entre le champ magnétique, la zone convective située sous la photosphère et la rotation différentielle du Soleil. A la fin de chaque cycle,  le champ magnétique moyen du Soleil (en forme de dipôle) s'inverse globalement (changement de polarité des pôles), ce qui donne une période totale de 22 ans (cycle de Hale) avant de retrouver un état magnétique identique.
L'amplitude du maximum de nombre de taches et la durée du cycle ne sont pas régulières. L'activité magnétique peut varier considérablement entre deux cycles consécutifs. L'exemple le plus frappant est celui du minimum de Maunder, qui fait référence au laps de temps de 70 ans (entre 1645 et 1715) pendant lequel le Soleil a connu une activité magnétique minimale. L'origine de ces irrégularités n'est pas encore bien comprise.



D

 

Décalage vers le rouge (ou redshift)

Le décalage spectral désigne le déplacement en longueur d'onde d'un spectre émis par un objet astronomique (étoile, galaxie, ...) vers des longueurs d'onde plus grandes (décalage vers le rouge) ou plus courtes (décalage vers le bleu). En notant lo la longueur d'onde propre associée à une transition observée dans un référentiel au repos ou local de l'objet astronomique étudié et l la longueur d'onde de la même transition telle qu'elle est mesurée par l'observateur, le décalage spectral est égal à la variation relative de la longueur d'onde

Plusieurs phénomènes physiques peuvent être à l'origine d'un décalage spectral. L'effet Doppler, engendré par le mouvement relatif entre l'objet émetteur et l'observateur, produit un décalage spectral fonction de cette vitesse relative de l'objet. Lorsque l'objet s'éloigne de l'observateur, le spectre est décalé vers les longueurs d'onde plus grandes, à proportion de la vitesse projetée v de l'objet

si c est la vitesse de la lumière et v << c. Lorsque l'objet se rapproche de l'observateur, le spectre est déplacé vers des longueurs d'onde plus courtes.

 

Image:Schema Redshift.png Image:Redshift.png
   

Un rayonnement soumis à l'action d'un champ de gravitation subit aussi un décalage spectral appelé décalage gravitationnel. Les photons de longueur d'onde lo se propageant à la distance R d'un objet de masse M perdent de l'énergie pour s'extraire du puits de potentiel. Cet effet, prévu par la Relativité générale, produit un décalage spectral vers le rouge (longueurs d'onde plus grandes)

où G est la constante de gravitation universelle et c la vitesse de la lumière.

Enfin, l'expansion globale de l'Univers, en dilatant les échelles de distance, dilate celle des longueurs d'onde, ce qui produit un décalage spectral cosmologique des spectres des galaxies lointaines par augmentation des longueurs d'onde.

En général, le décalage spectral d'un objet résulte de la combinaison de ces trois effets. Cependant, lorsque les objets sont proches de la Terre et loin de tout objet compact, le décalage spectral prédominant est celui dû aux vitesses particulières. Lorsque la distance de l'objet étudié (galaxies, amas de galaxies, ...) devient importante, l'effet cosmologique domine. Le décalage gravitationnel, sauf circonstances particulières, est en général négligeable devant les deux autres effets.


 

Distance (mesure)

La détermination précise des distances est fondamentale en astrophysique, comme l'illustre un simple exemple : si l'on mesure l'éclairement E (en W / m²) produit à la surface de la Terre par une étoile ou un autre objet, la connaissance de la distance D de cet objet permet de déduire la puissance de rayonnement de cet objet, c'est-à-dire sa luminosité L en watts, par la relation

L = 4p D² E

à partir d'hypothèses simples telles que l'isotropie du rayonnement produit et une absorption négligeable entre l'objet et la Terre. La luminosité est elle-même liée à la nature des processus physiques qui se déroulent dans l'objet. Depuis les Grecs et Ptolémée, auteurs des premières évaluations de distance concernant la Lune et la Soleil, en passant par Jean Dominique Cassini observant Mars en 1672, William Herschel tentant de déterminer la taille de la Galaxie dans les années 1780 et Harlow Shapley animant la grande controverse de 1920 sur la distance des nébuleuses, l'importance de la détermination des distances explique la quantité considérable d'efforts dispensés par les astronomes pour accroître sans cesse la précision de ces mesures.
Les unités de distance les plus utilisées sont l'unité astronomique (UA), qui est la distance moyenne entre la Terre et le Soleil : 1 UA = 1,495 978 70.108 ± 2 km ; le parsec (pc), qui est la distance à laquelle une unité astronomique sous-tend un angle d'une seconde (ou 4,85.10-6 rad) : 1 pc = 3.1016 m ; enfin, l'année-lumière (a.l), voisine du parsec (1 pc = 3,26 a.l), qui est la distance parcourue par la lumière dans le vide en une année. Il arrive fréquemment qu'au lieu de donner la distance d'un objet, on se contente de fournir son décalage spectral z, donnée empirique directement mesurée sur son spectre et transformable en distance par la relation

où Ho est la constante de Hubble. Cette valeur souffre des indéterminations portant sur Ho et doit être éventuellement corrigée de la vitesse propre de l'objet (par exemple, vitesse d'une galaxie par rapport au centre de masse de l'amas auquel elle appartient).

Remarque : la mesure de Ho
La construction d'une
échelle des distances de l'Univers à donc permis aux astronomes de s'attaquer à la mesure de la constante de Hubble H0. Les premières estimations vinrent avec la découverte de l'expansion elle-même. Hubble calcula alors une valeur de 500 kilomètres par seconde et par mégaparsec. Cette valeur était très élevée car Hubble ignorait qu'il existait deux types de céphéides de luminosités différentes. En mélangeant les deux types, il commettait une erreur qui surestimait H0. Ceci fut réparé dans les années 1950 par l'Allemand Walter Baade qui divisa la constante par deux.
Un peu plus tard, l'Américaine Allan Sandage, un ancien étudiant de Hubble, mit à jour un autre problème. Certains des objets brillants que Hubble avait pris pour des étoiles lumineuses dans des galaxies lointaines se révélèrent en fait être des amas ou des
régions HII. La constante fut a nouveau modifiée pour atteindre une valeur de 75. Après quelques derniers réarrangements, elle se fixa finalement à une valeur légèrement supérieure à 50 kilomètres par seconde et par mégaparsec, dix fois plus petite que l'estimation de Hubble.
Cette faible valeur fut acceptée jusqu'en 1976, lorsqu'un autre astronome américain, Gérard de Vaucouleurs, s'attaqua au problème en utilisant une plus grande variété d'indicateurs de distance. Il arriva à une valeur proche de 100 kilomètres par seconde et par mégaparsec, pratiquement deux fois supérieure à celle de Sandage. Après cette date, deux écoles s'affrontèrent, accumulant observation sur observation sans pour autant que les deux estimations ne se rapprochent.

Les mesures récentes
Grâce à sa capacité à voir des détails très fins, le
télescope spatial est en mesure d'observer des céphéides dans des galaxies lointaines où ses confrères terrestres ne peuvent plus distinguer les étoiles. Il est en particulier capable de détecter des céphéides dans les amas de la Vierge et de Fornax, deux amas de galaxies très riches situés à une soixantaine de millions d'années lumière. Jusqu'alors, la distance aux galaxies de ces amas ne pouvait être mesurée qu'indirectement en s'appuyant sur des indicateurs secondaires. Grâce au télescope spatial, il fut possible de se servir d'indicateurs primaires, les céphéides, donc d'obtenir une plus grande précision.
L'un de projets les plus importants du télescope spatial fut donc de déterminer H0. Une équipe internationale fut assemblée qui observa 18 galaxies sur une période de huit ans et découvrit près de 800 céphéides. Cette équipe publia ses résultats en 1999 et annonça sa mesure de la constante : 70 kilomètres par seconde et par mégaparsec, à 10 pour cent près. Deux ans plus tard, la valeur fut encore légèrement affinée pour atteindre 72 kilomètres par seconde et par mégaparsec.
La détermination la plus récente et la plus précise de la constante de Hubble repose sur une méthode complètement différente. Le satellite WMAP fut lancé en 2001 pour prendre des mesures très précises du
rayonnement fossile, un rayonnement qui emplit l'Univers et date de quelques centaines de milliers d'années après le Big Bang. Ce rayonnement n'est pas complètement uniforme mais varie très légèrement lorsque l'on observe des directions différentes du ciel. Les théoriciens ont montré que ces fluctuations dépendent de plusieurs paramètres, en particulier de la vitesse d'expansion de l'Univers. Les mesures extrêmement précises de WMAP ont donc permis de calculer une nouvelle valeur plus affinée de H0 : 71 kilomètres par seconde et par mégaparsec, à 5 pour cent près.

L'âge de l'Univers
Maintenant que nous connaissons à peu près la valeur de la constante de Hubble, nous pouvons essayer de l'utiliser pour estimer l'âge de l'Univers. Imaginez que vous observiez au loin une voiture qui s'éloigne et que vous soyez capable par un moyen ou un autre de mesurer sa vitesse, disons 60 kilomètres à l'heure, et sa distance, un kilomètre. En supposant que la voiture a roulé à vitesse constante, vous pouvez immédiatement calculer qu'elle roule depuis 1 minute.
Le problème est plus ou moins le même pour une galaxie lointaine. Si nous sommes capables de mesurer à la fois sa distance et sa vitesse, nous pouvons déterminer depuis combien de temps elle s'éloigne de nous, donc l'âge de l'Univers. Il suffit en fait de diviser la distance de la galaxie par sa vitesse de récession. D'après la loi de Hubble, il se trouve que le résultat sera tout simplement égal à l'inverse de H0. Ainsi, par exemple, plus la constante de Hubble est grande, plus l'Univers est jeune.
Notons que le calcul précédent n'est correct que si la vitesse d'expansion est constante. En reprenant l'exemple précédent, si la voiture qui s'éloigne a constamment décéléré, sa vitesse moyenne sur le parcours est plus grande que celle que vous mesurez maintenant. Donc la durée réelle du trajet est plus courte que ce que la vitesse actuelle de la voiture semble indiquer. De même, si l'Univers a accéléré ou décéléré lors de son expansion, les estimations doivent prendre en compte un paramètre de correction.
Finissons donc avec les résultats les plus récents. L'équipe en charge de mesurer la constante de Hubble en utilisant le télescope spatial a estimé l'âge de l'Univers à une valeur comprise entre 13 et 14 milliards d'années. Les observations du satellite WMAP estiment quant à elles la valeur à 13,7 milliards d'années avec une marge d'erreur époustouflante d'un pour cent.


Quatre échelles de distance, croissantes, sont à considérer : l'échelle interne au système solaire, l'échelle de l'environnement stellaire proche du Soleil, l'échelle interne à la Galaxie, et celle relative à l'Univers dans son ensemble, entre galaxies. A chacune des ces échelles correspondent des méthodes spécifiques de détermination et des incertitudes inégales.

Mesures directes des distances au sein du système solaire
Jusqu'au XIXème siècle, les distances au sein du système solaire étaient déterminées par les passages de Mercure et surtout de Vénus devant le disque solaire. Observés de deux points distants sur Terre et de séparation connue, ces passages permettaient par une simple mesure trigonométrique de calculer la distance Terre-Vénus, puis les lois de Kepler déterminaient la distance Soleil-Vénus d'où se déduisait la distance Terre-Soleil. L'expédition de 1874 fut ainsi l'un des premiers exemples de coopération internationale et conduisit à une estimation de l'UA comprise entre 23 200 et 23 600 rayons terrestres.
Les méthodes modernes de détermination reposent sur les échos radar (RAdio Detection and Ranging) obtenus depuis la Terre à la surface des planètes (Mercure, Vénus, Mars) ou des astéroïdes et donnent 1 UA = 23 454,8 rayons terrestres. De grandes antennes ou de grands radiotélescopes sont utilisés pour émettre et recevoir le signal radar. S'agissant d'un objet proche comme la Lune, sur la surface de laquelle les missions Apollo ont pu déposer des rétroréflecteurs (miroirs trièdres), des échos sont obtenus en les illuminant de salves laser depuis la Terre. La précision de distance obtenue est centimétrique.
Depuis les années 1960, la navigation spatiale des sondes spatiales au sein du système solaire a conduit à améliorer les déterminations de distance en combinant les mesures de temps de propagation de signaux et les lois de la mécanique céleste.

Mesures des parallaxes pour l'environnement proche du Soleil
La détermination des distances d'étoiles situées dans le voisinage solaire repose sur des mesures de la parallaxe p, définie comme l'angle dont se déplace - à cause du mouvement de la Terre sur son orbite - la position apparente de l'étoile sur le ciel, c'est-à-dire par rapport aux étoiles lointaines, à six mois d'intervalle. Cet effet, purement géométrique, ne doit pas être confondu avec l'aberration de la lumière qui produit également un déplacement de la direction apparente d'une étoile au cours de l'année.
La première mesure de la parallaxe est due à Friedrich Bessel (1838) sur l'étoile proche 61 Cyg, qui détermina p = 0,33". Les étoiles présentant généralement un mouvement propre qui déplace leur position apparente, la mesure doit se dérouler sur plusieurs années pour éliminer l'effet de ce mouvement. On notera que la distance en parsecs est, par définition du parsec, égale à l'inverse de la parallaxe mesurée en secondes d'arc. Pour des distances inférieures au kiloparsec, la mesure de p est techniquement possible, à partir d'observations effectuées soit depuis la Terre, soit à partir d'un satellite astrométrique. Les unes et les autres ont des précisions voisines, de l'ordre de 0,003" (soit 2 milli-arc-secondes ou mas).
Néanmoins, l'utilisation d'un satellite, qui n'est pas affectée par les défauts d'images créés par la turbulence atmosphérique, a permis d'obtenir plus de 120 000 parallaxes lors de la mission du satellite européen Hipparcos (1989-1993), alors que les observations au sol n'en fournissent que quelques milliers. Une nouvelle génération de télescopes astrométriques devrait voir le jour d'ici à 2010, permettant des mesures de parallaxe jusqu'à 50 kpc, couvrant ainsi l'étendue d ela Galaxie au moins pour les étoiles les plus brillantes.

Méthodes spectrophotométriques pour les étoiles de la Galaxie
La détermination simultanée de p et du type spectral d'une étoile permet de raccorder l'échelle de distance pour des objets de même type spectral pour lesquels p n'est plus mesurable (D > 1 kpc), les déterminations directes n'étant pas encore possibles au-delà de cette distance. La détermination photométrique de la distance repose sur une mesure de l'éclairement de l'étoile (magnitude apparente), si possible en plusieurs couleurs, et d'une détermination de son type spectral sur la séquence principale HR ou en dehors (naines blanches, géantes rouges ...), d'où l'on déduit sa luminosité absolue. Une estimation de l'absorption interstellaire dans la direction visée est requise afin de corriger les éclairements mesurés.
La détermination spectroscopique repose sur les mêmes principes, mais la spectroscopie permet de mieux déterminer les propriétés, le type spectral, donc la luminosité. Par abus de langage, ces deux dernières parallaxes sont qualifiées de parallaxes photométriques et spectroscopiques : on exprime ainsi que la distance, donc la parallaxe qui n'est plus directement mesurable, est déduite d'observations photométriques ou spectroscopiques.

Les distances dans la Galaxie
Les parallaxes photométriques ou spectroscopiques abordent les méthodes de détermination des distances dans le troisième ordre d'échelle : la Galaxie dans son ensemble. Les déterminations cinématiques reposent sur l'analyse de la rotation d'ensemble de la Galaxie. L'observation de galaxies spirales proches, telles M31 (galaxie d'Andromède) très semblable à la nôtre, montre que la courbe de rotation d'une spirale est bien définie mais que la vitesse des objets varie lentement en fonction de leur distance au centre galactique. En première approximation, cette vitesse, déterminée dans la Galaxie par mesure de l'effet
Doppler-Fizeau sur la raie à 21 cm de l'hydrogène atomique émise dans le milieu interstellaire, est de 220 km/s pour des rayons compris entre 2,5 et 17 kpc. Une fois déterminée cette rotation, en supposant qu'elle entraîne tous les objets (étoiles, régions H II, nuages moléculaires), la mesure depuis la Terre de l'angle entre la direction du centre galactique et celle de cet objet ainsi que la mesure par spectroscopie de la vitesse radiale de cet objet suffisent à déterminer sa distance par un simple calcul géométrique. Toute erreur sur la loi supposée de vitesse de rotation galactique rejaillit donc sur la détermination des distances cinématiques. Seuls les objets dont le mouvement relatif à la Terre est purement dirigé perpendiculairement à la direction de visée échappent à cette méthode.
Les déterminations dynamiques reposent sur une observation différente : une supernova, ou une nova, éjecte de la matière et forme une coquille observable dont il est possible de mesurer le rayon angulaire, croissant au cours du temps en quelques mois, années ou décennies. Par spectroscopie, on mesure également la vitesse radiale des éjecta. La combinaison des deux résultats (un angle et une longueur) fournit simplement la distance de l'objet. Pour des vitesses d'éjection déjà considérables de 1 000 km/s et des dimensions angulaires des coquilles supérieures à 1" - en attendant l'avènement opérationnel de méthodes d'optique adaptative (voir ce
lien) ou d'interférométrie optique qui diviseraient ce chiffre par 10 ou 100 -, il est nécessaire d'observer l'objet pendant vingt ans pour atteindre des distances de l'ordre de 10 kpc.

Les distances extragalactiques
La quatrième échelle de distance, la plus délicate, concerne le domaine extragalactique. La première détermination historique a été celle d'Edwin Hubble en 1925, lorsqu'il observa des étoiles variables périodiques, les céphéides, dans les "nébuleuses" M31 et M33. De tels objets avaient été observés par Henrietta Leavitt en 1912 dans le Petit Nuage de Magellan, galaxie irrégulière dont tous les objets sont approximativement situés à la même distance de la Terre : les éclairements et les luminosités absolues sont alors dans un rapport constant.
Ainsi fut mise en évidence une loi dite "relation période-luminosité" selon laquelle la période de variation, comprise entre quelques jours et quelques centaines de jours, est liée de façon univoque à la luminosité absolue. Celle-ci est environ vingt fois plus grande pour les longues périodes que pour les courtes. L'étalonnage absolu de la loi résulte de l'observation des Céphéides, heureusement présentes dans les amas d'étoiles galactiques, dont la distance a pu être déterminée spectroscopiquement.
L'observation individuelle de céphéides dans les galaxies du Groupe Local, c'est-à-dire à moins de 2 Mpc, la mesure de leur période et de leur éclairement après correction de l'absorption interstellaire estimée à l'aide d'une photométrie en plusieurs couleurs permettent de disposer dans ce domaine d'une échelle de distance sûre, dont l'incertitude est estimée à 10%.
L'extension de ce domaine jusqu'à 20 Mpc (amas de galaxies de la Vierge) devient possible avec les images du télescope spatial Hubble ou avec celles qui seront données par les nouvelles générations d'instruments. Ces outils donneront aussi directement une distance des Nuages de Magellan, qui contiennent des centaines de Céphéides toutes à la même distance de la Terre.

Les bougies standard
Les céphéides, ou d'autres étoiles de type RR Lyrae qui présentent des propriétés similaires, deviennent trop faibles et inobservables dans les galaxies plus lointaines. D'autres méthodes ont donc été envisagées, reposant sur diverses hypothèses : les étoiles les plus brillantes d'une galaxie seraient identiques (ie. également lumineuses) de galaxie à galaxie, ou bien les amas globulaires de vieilles étoiles auraient de même une luminosité identique entre eux.
On a également suggéré d'utiliser comme bougie standard les supernovae de type Ib. Ces événements explosifs proviennent de l'accrétion de la matière de son compagnon par une naine blanche appartenant à un système binaire, jusqu'à ce qu'elle dépasse la masse limite de Chandrasekhar (1,4 masse solaire). Il semble bien que la luminosité de la supernova à son pic de brillance, atteint pendant quelques jours, soit toujours la même. Néanmoins, l'étalonnage absolu de cette luminosité est difficile, car les supernovae de type Ib sont rares, trop rares pour être observées dans les galaxies proches dont la méthode est bien déterminée par la méthode des céphéides. L'estimation théorique, à partir de la physique de l'explosion, est évidemment possible mais semble conduire à des difficultés dans la détermination des distances.
Enfin, d'autres méthodes ont été proposées, qui recherchent toutes une propriété liant la luminosité et une distance observable, telle que la relation de Tully-Fisher, qui relie la luminosité dans le proche infrarouge (700 nm) et la dispersion des vitesses du gaz dans une galaxie.
A de très grandes distances D (100 Mpc et au-delà), la loi de Hubble relie la distance et la vitesse apparente d'expansion radiale V selon l'expression

V = Ho D

où Ho est la constante de Hubble. Si Ho était connue avec précision, ce qu'on admet aujourd'hui, D résulterait de la mesure spectroscopique de V : une même raie spectrale ayant la longueur d'onde lo sur Terre est observée avec la longueur d'onde l et on en déduit

Cette simple constatation ne pouvait être appliquée ni testée sur les galaxies proches, car les mouvements propres de ces galaxies par rapport à la Galaxie induisent des vitesses devant lesquelles la vitesse d'expansion est négligeable, et la relation de Hubble n'est plus utilisable pour des distances inférieures à quelques dizaines de Mpc. La valeur de Ho a été initialement déterminée vers 1930 comme voisine de 500 km/s/Mpc en utilisant des distances estimées par les méthodes ci-dessus, jusqu'à ce que ces méthodes soient affinées et conduisent vers 1965 à l'estimation actuelle de Ho comprise entre 50 et 100 km/s/Mpc (voir ici).
L'incertitude sur Ho n'était pas due à des erreurs de mesure, mais à des biais pouvant affecter les méthodes de détermination indépendante de D, car la spectroscopie conduit à des valeurs très précises (quelques pour cent) de V. Bien entendu, une telle indétermination était fâcheuse pour la compréhension des objets, galaxies ou quasars, dont la seule mesure de distance repose sur celle de leur décalage spectral
l - lo. Une indétermination d'un facteur de 2 sur Ho comme on l'a connu historiquement se traduit par un facteur d'indétermination de 4 sur leur luminosité déduite de la mesure de leur éclairement ou magnitude.

Une application au lycée : détermination de la distance de galaxies de l'amas de la Vierge.



Doppler-Fizeau (effet)

Observé dans le référentiel de l'observateur (O), l'effet Doppler-Fizeau (couramment appelé effet Doppler) correspond à un changement apparent de la longueur d'onde (et donc de la fréquence) d'une onde émise par une source S en mouvement relatif par rapport à O. C'est ce qu'on entend lorsqu'on voit passer un camion de pompiers toute sirènes hurlantes. Pour une source qui se rapproche de O, la longueur d'onde apparente est plus petite (le son plus aigu, la lumière plus bleue) ; inversement, pour une source qui s'éloigne de O, la longueur d'onde paraît plus grande (le son plus grave, la lumière plus rouge).
L'effet Doppler-Fizeau est largement utilisé en astrophysique comme outil de diagnostic pour l'étude des distributions des vitesses radiales des étoiles, des jets stellaires, des vents et des expansions d'enveloppes, des flots moléculaires et de la turbulence, par exemple dans les atmosphères stellaires.
Aux vitesses petites devant celle de la lumière, le décalage en longueur d'onde
Dl est donné par

où v est la vitesse projetée de la source par rapport à l'observateur immobile (v positif si la source s'éloigne), lo la longueur d'onde de la transition dans un référentiel au repos par rapport à la source et c la célérité de la lumière dans le vide. 
Aux vitesses proches de celle de la lumière (sources relativistes), le décalage
Dl est donné par


Voir ici une démonstration de l'effet par C. Magnan (Collège de France).
Une
application en lycée : la vitesse orbitale de la Terre via le spectre d'Arcturus.

 


Dynamo

A toutes les échelles, il existe des champs magnétiques dans les objets astronomiques (planètes, étoiles, milieu interstellaire, galaxies ...) dont il faut expliquer la présence par un mécanisme régénérateur. En effet, la résistivité (resp. diffusivité) des milieux astrophysiques engendre une dissipation par effet Joule (resp. dilution) de l'énergie magnétique. Si aucun mécanisme n'intervenait pour amplifier le champ magnétique, ces effets conjugués (dissipation et dilution) seraient responsables d'une disparition du champ magnétique, en contradiction avec les observations.

Conditions physiques pour le fonctionnement de la dynamo
L'effet dynamo est un processus de régénération de champs magnétiques grâce aux mouvements d'un fluide conducteur. Le processus dynamo ne crée pas de champ magnétique : il amplifie un champ magnétique initialement présent. Une fraction de l'énergie mécanique du fluide est transférée au champ magnétique (gain d'énergie magnétique), car le mouvement du fluide impose la structure du champ magnétique ; autrement dit, la diffusion de la matière à travers les lignes de champ doit être beaucoup plus petite que la vitesse du fluide : le nombre de Reynolds magnétique doit être très grand. La rétroaction du champ magnétique sur la matière n'est pas prise en compte dans les modèles dynamo actuels, du fait de la complexité du traitement requis.


Les ingrédients indispensables pour le fonctionnement d'une dynamo dans un objet sphérique requièrent l'existence d'une rotation d'ensemble (
W
parallèle à l'axe Oz, où O est le centre de l'objet) et d'une rotation différentielle (soit latitudinale dW/dq q est la latitude ; soit radiale dW/dr où r est le rayon sphérique) ainsi que la présence de mouvements turbulents ou de convection dans l'objet.

Principe de la dynamo
En effet, la rotation différentielle (radiale ou latitudinale) déforme la composante poloïdale (contenue dans un plan méridional incluant l'axe de rotation) d'un petit champ magnétique, en engendrant une composante toroïdale, c'est-à-dire une composante perpendiculaire au plan méridien. Si la rotation différentielle agissait seule, la composante poloïdale serait, à terme, entièrement dominée par la composante toroïdale.
Cependant, il résulte des mouvements convectifs en rotation une force inertielle de Coriolis qui, appliquée à la composante toroïdale, amplifie à son tour la composante poloïdale. Lorsqu'il s'agit de mouvements turbulents, la rotation des cellules turbulentes crée des forces de type cyclonique, analogues à des forces de Coriolis à petites échelles. Le processus arrive à saturation lorsque l'énergie magnétique acquise par chacune des composantes du champ magnétique devient comparable, ou supérieure, à l'énergie mécanique du fluide, car alors la dynamique du fluide ne peut plus dicter la structure du champ magnétique.
Selon les configurations physiques envisagées, les calculs montrent que le champ magnétique moyen résultant d'une dynamo est soit stationnaire, soit oscillant (régulièrement ou non). Le principe décrit précédemment est celui de la dynamo dite
a-W, où a (resp. W) représente les effets associés à la turbulence et/ou convection en rotation (resp. la rotation différentielle).

Effet dynamo a Effet dynamo W


Dynamo solaire et stellaire
Le Soleil possède une enveloppe convective, où se développent très probablement des processus de type dynamo. Par ailleurs, la rotation différentielle latitudinale (l'équateur tourne plus vite que les pôles) est observée en surface grâce aux temps de passage des taches solaires sur le disque solaire. En outre, l'analyse des modes d'oscillation solaire (héliosismologie) a montré qu'il existe une rotation différentielle radiale entre la base de la zone convective et la surface du Soleil.
Le modèle de dynamo du champ moyen (dynamo alpha-oméga) permet de reproduire dans les grandes lignes les propriétés du cycle magnétique solaire de 22 ans. L'observation de cycles magnétiques stellaires devrait permettre d'estimer l'influence et l'importance des paramètres de la dynamo (taux de rotation, rotation différentielle et degré de turbulence).


Dynamo galactique
L'observation du champ magnétique dans la Galaxie indique qu'il s'étend sur des échelles de quelques kiloparsecs et que son amplitude est de quelque 10-10 tesla (100 000 fois moins que le champ terrestre). Le disque galactique contient une grande fraction du plasma de la Galaxie ; celui-ci se trouve surtout dans les bras spiraux de notre Galaxie et possède une turbulence élevée (10 km.s-1). Le disque est en rotation différentielle. Toutes les conditions physiques sont réunies pour engendrer des processus dynamo qui seraient à l'origine du champ magnétique observé. La durée du cycle dynamo galactique serait de 500 millions d'années.

Dynamo planétaire
Le champ magnétique terrestre provient sans doute d'une dynamo localisée dans le noyau terrestre de fer liquide, convectif et en rotation différentielle avec le manteau et la croûte. La convection du noyau serait entretenue par la décroissance radioactive des éléments tels l'uranium, le thorium et le potassium. La structure du champ magnétique terrestre est correctement modélisée à l'aide d'une dynamo de ce type, sans que l'inversion de polarité, qui a lieu tous les millions d'années environ, ait encore été reproduite.

D'autres éléments ici 

 



E

Epaisseur optique

L'épaisseur optique t est une quantité sans dimension. Elle mesure l'absorption que subit un rayonnement monochromatique (à une seule longueur d'onde) lors de la traversée d'un milieu opaque d'une épaisseur géométrique donnée.
L'incrément d
t(l) de l'épaisseur optique est proportionnel au produit de la distance élémentaire dL parcourue par le rayonnement dans le milieu par le coefficient d'absorption k(l), à la longueur d'onde considérée : dt(l) = k(l
) dL.
Un milieu est qualifié d'optiquement épais à une longueur d'onde donnée lorsqu'un rayonnement émis à cette longueur d'onde par une source située en arrière-plan est presque totalement absorbé par le milieu. L'épaisseur optique du milieu est alors supérieure à l'unité. Lorsque l'épaisseur optique est très supérieure à l'unité, quelle que soit la fréquence du rayonnement, le rayonnement ne dépend plus des propriétés locales du milieu.
Par exemple, si le milieu est à l'
équilibre thermodynamique, le rayonnement dépend uniquement de la température (corps noir).
Un milieu d'extension spatiale déterminée est qualifié d'optiquement mince à une longueur d'onde donnée
l, si le rayonnement de longueur d'onde l émis par une source située en arrière-plan est peu atténué lors de la traversée du milieu. Le milieu peut alors être considéré comme quasi transparent et son épaisseur optique est alors inférieure à l'unité.
Si le coefficient d'absorption est constant dans le milieu, cette condition de minceur optique signifie que le libre parcours moyen des photons est plus grand que la dimension caractéristique du milieu - soit l'épaisseur - dans lequel se propage le rayonnement. La plupart des photons présents à la sortie du milieu proviennent directement de la source émettrice, sans avoir subi d'interaction.
Par exemple, les régions H II, observées en radio, et les anneaux planétaires, observés aux longueurs optiques, sont optiquement minces à ces longueurs d'ondes précises.

 

Equilibre hydrostatique

En Astrophysique, les fluides sont composés d'un gaz (ou liquide) très souvent en équilibre sous l'action de la gravité. Cet équilibre est qualifié d'hydrostatique.
Tout corps plongé dans un fluide subit de la part de ce fluide une pression se traduisant par une force d'ensemble qui manifeste la réaction du fluide à l'objet qui y est immergé. Cette force, opposée au poids, est analogue à la réaction de la matière solide qui supporte un objet : un livre posé sur une table ne tombe pas au sol, car la table oppose à la force de gravité une force d'origine électrostatique qui compense exactement le poids du livre. De même dans un fluide, les forces de pression exercées par l'eau se compensent le poids d'un bateau qui est ainsi maintenu à la surface. C'est encore grâce à ces forces que les montgolfières se maintiennent en équilibre dans les airs et que nous avons la sensation que notre corps est moins lourd dans l'eau que dans l'air.
La force expérimentée par Archimède (lors de son fameux bain) porte aujourd'hui son nom. Dans un fluide en équilibre hydrostatique, la variation de pression avec la hauteur (ou gradient de pression) compense exactement le poids du fluide. Un objet de moindre densité, donc à volume égal pesant moins, est soumis à une force exercée par le fluide et dirigée vers le haut : celui-ci remonte à la surface. La force ou poussée d'Archimède FA est donc égale au produit de la différence de densité
Dr entre l'objet et le fluide par le volume V occupé par l'objet que multiplie l'accélération locale g due à la gravité

FA = Dr V g

La poussée d'Archimède joue un rôle crucial dans le phénomène de convection qui transporte l'énergie des couches stellaires internes vers l'extérieur, via le mouvement ascendant des cellules de matière plus chaudes (donc moins denses) que leur environnement ambiant.
On conçoit que la base d'un fluide, placé dans un champ gravitationnel et supportant toute la masse située au-dessus, doit réagir plus fortement que la surface du fluide. Ainsi, une stratification en pression (gradient de pression) s'établit, la pression augmentant avec la profondeur.
La stratification en pression d'une atmosphère planétaire ou stellaire (ou de n'importe quel autre fluide) en équilibre hydrostatique, décrite ici pour simplifier dans le cas isotherme et isograve, est obtenue par la relation 

P = Po exp (-k / H)

où Po est la pression à hauteur nulle (h = 0) et H est l'échelle de hauteur qui désigne la distance selon laquelle la pression varie d'un facteur exponentiel, e = 2,718...

où T est la température, g la gravité, µ le poids moléculaire moyen, mH la masse de l'hydrogène et k la constante de Boltzmann. Ces expressions de la pression et de l'échelle de hauteur sont valables pour des gaz parfaits. L'échelle de hauteur est proportionnelle à la température T et inversement proportionnelle à la gravité g.
Dans la photosphère solaire, l'ordre de grandeur de H est de 200 km ; dans l'atmosphère terrestre, il est d'environ 8 km ; dans l'atmosphère d'une naine blanche, il est seulement de 50 m. La gravité d'une naine blanche est très élevée : c'est pourquoi l'échelle de hauteur y est petite. Dans le Soleil, l'échelle de hauteur est grande du fait de la forte valeur de la température.


 

Equilibre thermodynamique

L'équilibre thermodynamique décrit l'état d'équilibre macroscopique idéal d'un milieu qui a réalisé tous les équilibres microscopiques (thermique, dynamique, chimique, etc). Tous les degrés de liberté du système sont couplés : le système est dans un état d'équipartition, c'est-à-dire que la totalité de l'énergie disponible est répartie selon les degrés de liberté du système.
Un milieu en équilibre thermodynamique est homogène, isotrope et la température y est partout constante. Le couplage entre le champ de rayonnement et la matière (absorption et émission de photons) est si étroit que le rayonnement est à même température que la matière : le système rayonne comme un corps noir.
Les distributions des atomes, des molécules et des photons dans leurs différents états d'énergie sont entièrement fixées par la température du milieu. L'état macroscopique du système est défini par l'ensemble de ces distributions qui sont obtenues par les lois de la mécanique statistique.
A l'échelle microscopique, l'équilibre thermodynamique se traduit par le bilan détaillé : tous les processus observés à l'échelle d'une population de particules (analyse statistique) sont exactement compensés par les processus inverses, chaque processus étant un processus stationnaire (le taux de chaque processus est égal au taux du processus inverse).
Par exemple, pour une population d'atomes de même espèce, le nombre de transitions par unité de temps (ou le taux de transitions) du niveau d'énergie E1 vers le niveau d'énergie E2 est égal au nombre de transitions de E2 vers E1 : le rapport des nombres d'atomes dans les deux niveaux est constant au cours du temps. Autre exemple concernant le champ de rayonnement : à l'équilibre thermodynamique, le nombre par unité de temps de photons d'énergie E
n absorbés par la matière est exactement égal au nombre de photons de même énergie qu'elle émet.

Principales lois macroscopiques d'un système à l'équilibre thermodynamique
La répartition des constituants (électrons, ions, atomes, molécules, photons, ...) d'un système à l'équilibre thermodynamique dans leurs différents niveaux d'énergie est dictée par le principe de l'équipartition : celui-ci justifie l'appréciabilité des lois d'équilibre de la mécanique statistique (quantique ou classique).
Ainsi, la distribution des photons suit la statistique de Bose-Einstein (voir rayonnement de
corps noir) ; l'intensité du champ de rayonnement est donc égale à la fonction de Planck (voir corps noir) à la température de corps noir TCN, et la distribution de vitesses de chaque population de particules matérielles est égale à la distribution de Maxwell à la température cinétique Tcin.
En considérant de plus la distribution de ces mêmes particules selon leurs propriétés internes (niveaux d'énergie d'excitation et d'ionisation),  la répartition de la population d'atomes (ou d'ions) de même espèce dans leurs différents états d'excitation est obtenue par l'équation de Boltzmann à la température d'excitation Texc ; la répartition de la population d'un atome dans ses différents états d'ionisation est obtenue par l'équation de Saha à la température d'ionisation Tion. A l'équilibre thermodynamique, ces différentes températures sont égales

Tcin = Texc = Tion = TCN

Ecarts à l'équilibre thermodynamique : processus collisionnels et processus radiatifs
Les phénomènes microscopiques sont régulés selon deux processus fondamentaux : processus collisionnels et processus radiatifs. Par exemple, un atome dans son état fondamentale (énergie minimale) peut être excité (dans un niveau d'énergie Eexc) soit lors d'une collision inélastique (non conservation de l'énergie cinétique) avec un autre atome, qui lui transfère une partie de son énergie cinétique
DEcin = Eexc, soit par photoexcitation, c'est-à-dire lors de l'absorption d'un photon d'énergie En = hn = Eexc où h est la constante de Planck et n la fréquence du photon.
Lorsque les processus collisionnels dominent, l'équilibre stationnaire du phénomène considéré (par exemple, la population d'atomes dans leurs différents états d'ionisation et d'excitation) est réalisé si les particules sont en équilibre thermique (particules thermalisées) : les vitesses des particules obéissent à la distribution de Maxwell. Lorsque les processus radiatifs dominent, le phénomène est stationnaire lorsque l'intensité du rayonnement est décrite par la fonction de Planck.
Les écarts à l'équilibre thermodynamique sont donc définis, dans les processus collisionnels, lorsque le champ de rayonnement diffère de celui d'un corps noir et dans les processus radiatifs, lorsque la distribution des particules diffère d'une loi maxwellienne (c'est notamment le cas d'un faisceau de particules chargées accélérées par un champ magnétique : l'émission des particules n'est pas d'origine thermique.

Equilibre thermodynamique local
Lorsqu'il ne possède pas une température unique mais un gradient de température, le milieu n'est plus en équilibre thermodynamique parfait. Cependant, si l'échelle caractéristique de longueur L propre à la variation de la température du milieu (par exemple en symétrie sphérique, l'unique composante du gradient est radiale

la longueur caractéristique

est très grande devant le libre parcours moyen des particules, et si la matière et le rayonnement sont thermalisés à la même température T, alors le milieu est en équilibre thermodynamique local (ETL).
En chaque point du milieu, on peut alors appliquer les lois macroscopiques définies précédemment pour obtenir les distributions de la population des particules en fonction de la température et de la densité locales. Par exemple, les photosphères stellaires sont considérées comme vérifiant la condition ETL.


 

Elargissement des raies spectrales

Les raies spectrales émises par les atomes (ou molécules) ne sont pas infiniment étroites : la distribution de leur intensité en fonction de la longueur d'onde (profil de raie) couvre un intervalle spectral qui dépend, d'une part, des propriétés quantiques de l'élément considéré et, d'autre part, des propriétés macroscopiques du milieu émetteur. La largeur à mi-hauteur d'une raie est une mesure simple de l'élargissement des raies ; de telles mesures dans les spectres d'objets astronomiques procurent des informations précieuses sur les abondances des éléments chimiques et des propriétés du milieu.

Largeur naturelle et élargissements thermique et turbulent
L'élargissement naturel est une propriété intrinsèque à la nature atomique de l'élément émetteur. La largeur naturelle Dl d'une raie d'émission (profil de Lorentz) dépend des durées de vie des niveaux d'énergie entre lesquels s'opère la transition ; elle est d'autant plus grande que les durées de vie Dt des niveaux sont courtes ; on peut le comprendre intuitivement en considérant la relation d'incertitude de Heisenberg

ħ est la constante de Planck réduite (par 2p). Les photons émis lors de la transition ont donc une énergie d'autant plus dispersée que la durée de temps sur laquelle s'effectue la transition est courte. Comme DE a Dl, on retrouve bien dans ce cas que la largeur de la raie est d'autant plus grande.
Outre cet élargissement naturel, un effet dû à la température du milieu émetteur contribue à élargir les raies. L'agitation thermique augmente avec la température, ce qui signifie que la distribution des vitesses des atomes du milieu sera d'autant plus étalée. Or, la longueur d'onde des photons émis par les atomes de vitesse v diffère de la longueur d'onde d'un photon au repos (
effet Doppler). Ainsi, la distribution des photons émergeant du milieu émetteur est une convolution de la distribution des vitesses des atomes (distribution de Maxwell des vitesses si le milieu est en équilibre thermodynamique) et du profil de raie naturel. L'élargissement thermique
DlD résultant est donné par

où c est la vitesse de la lumière, lo la longueur d'onde du photon émis dans le référentiel de l'atome, et DvT l'écart-type de la distribution en vitesse des atomes (pour une distribution de Maxwell

où T est la température du milieu, kB la constante de Boltzmann et m la masse de l'atome). Lorsque, de plus, le milieu est turbulent, la vitesse quadratique moyenne de microturbulence vturb, dont on ne connaît pas la distribution, est prise en compte de façon ad hoc, en l'incorporant comme un facteur additionnel dans l'élargissement thermique

Elargissement rotationnel
Lorsque le milieu émetteur est en rotation par rapport à l'observateur, le profil de raie observé est modifié par la loi de vitesse. L'élargissement maximal Doppler dû à la rotation DlR est simplement la vitesse maximale vmax du milieu, projetée sur la ligne de visée DlR = vmax sin i si i est l'angle de visée (pour une étoile, vmax est alors la vitesse équatoriale).

Autres facteurs d'élargissement d'une raie
Les interactions entre particules du milieu peuvent modifier significativement les états quantiques des atomes. Lorsque le temps caractéristique associé aux collisions est très petit devant les durées de vie des niveaux, l'effet net de l'interaction est de favoriser les transitions sur un temps caractéristique plus court (approximation de l'impact). Ainsi, le profil de raie obtenu est élargi ; il est analogue au profil naturel de Lorentz, dans lequel le facteur d'amortissement naturel est remplacé par la somme du facteur d'amortissement intrinsèque à la transition non perturbée et du facteur d'amortissement associé à la perturbation. Tel est l'effet des forces de Van der Waals de courte portée agissant entre les constituants du milieu (potentiel d'interaction électrostatique entre les deux atomes ou molécules variant en r-6 si r est la distance entre les particules). L'élargissement des raies résultant de ce type d'interaction est nommé aussi élargissement dû à la pression.
Pour des forces à plus courte portée, le temps de la transition radiative est en général beaucoup plus court que la durée de la collision. La structure des niveaux d'énergie est altérée. Ainsi, lorsque l'atome émetteur est perturbé par un champ électrique engendré par un ion, la levée de dégénérescence des niveaux engendre un dédoublement des raies. Lorsque le potentiel perturbateur est de degré 2 (proportionnel à r-2), il s'agit de l'effet Stark linéaire. La séparation entre les deux raies est proportionnelle au champ électrique. Lorsque le potentiel perturbateur est de degré 4 (proportionnel à r-4), il s'agit de l'effet Stark quadratique.
Par ailleurs, la présence d'un champ magnétique dans le milieu lève pour certaines raies (grands facteurs de Landé des niveaux d'énergie, le facteur de Landé g intervenant dans le moment de spin des particules sous la forme µS = g (q/2m) S valant environ 2 pour l'électron ou encore 2,8 pour le proton) la dégénérescence des niveaux, ce qui se traduit par un dédoublement des raies centrées sur les longueurs d'onde voisines ; lorsque celles-ci ne sont pas résolues - séparation spectrale inférieure à la résolution du spectrographe -, cet effet se traduit par un élargissement global de la raie.



F

Facule

Les facules sont des régions brillantes de la photosphère solaire associées à la présence de forts champs magnétiques. De forme irrégulière et d'un diamètre moyen de 1 200 km, les facules ont un excès de température d'environ 1 000 K par rapport à la photosphère avoisinante et une durée de vie variant de quelques dizaines de jours à plus d'un mois.
Les facules sont observées dans le spectre de Fraunhofer où elles délimitent le réseau photosphérique, et en lumière blanche, sur les bords du disque par raison de contraste (
assombrissement centre-bord). Elle sont généralement associées à des régions photosphériques sombres (taches photosphériques froides), l'ensemble formant une région active gouvernée par l'émergence subphotosphérique de forts champs magnétiques (effet dynamo) et par le cycle magnétique solaire.
La température des facules et celle des taches sont gouvernées par deux processus différents ; pour toutes deux, un effet de pression magnétique abaisse la pression du  gaz dans les tubes de flux ; mais alors que, pour les facules, les parois de la cavité sont chauffées par conduction de l'énergie des régions intérieures plus chaudes, dans les taches l'effet de conduction est négligeable par rapport à la convection, pourtant inhibée par le champ magnétique.

 



Gaz parfait

Un gaz parfait est une conception idéalisée d'un gaz, qui serait constitué de particules n'interagissant pas entre elles (pas d'interaction électromagnétique ...) sauf lors de collisions supposées parfaitement élastiques (type boules de billard). L'équation d'état d'un tel gaz est une relation simple entre trois grandeurs macroscopiques le caractérisant : la pression P, la densité d et la température T. Un gaz réel se rapproche d'autant plus d'un gaz parfait qu'il est peu dense et de température élevée.
La plupart des gaz astrophysiques sont assimilables à des gaz parfaits : c'est le cas de la matière au sein de la plupart des étoiles, à l'exception des naines blanches et des étoiles à neutrons constituées de matière dégénérée, du milieu interstellaire et de l'Univers primordial. Un gaz constitué d'étoiles peut être, dans certains contextes (étude des amas globulaires et des galaxies), considéré comme l'analogue d'un gaz parfait. De même, en cosmologie, l'étude de l'Univers requiert parfois l'hypothèse d'un gaz parfait constitué de galaxies.

 

Granulation 

Réseau de cellules convectives de la photosphère solaire, constitué de granules brillants, observables dans le visible et l'ultraviolet, de forme irrégulière (polygonale), d'un diamètre moyen de 1 000 km et séparés les uns des autres par des frontières sombres. Leur vitesse ascendante est de 0,5 km.s-1 et la matière chaude s'écoule du centre du granule vers ses bords à une vitesse de 0,25 km.s-1. La durée moyenne de vue d'un granule est de 8 minutes. Leur présence traduit le phénomène de convection des couches sous-jacentes.
A ce réseau de granulation se superpose un autre réseau dit de supergranulation de cellules convectives (supergranules), d'un diamètre de 30 000 km, de vitesse verticale 0,1 km.s-1 et de vitesse horizontale 0,4 km.s-1. La durée de vie des supergranules est de l'ordre de la journée. Les régions intergranulaires sont le lieu d'émergence privilégié de champs magnétiques sous forme de taches solaires. Ce réseau se prolonge dans la
chromosphère solaire.

 



H

Hertzsprung-Russell (Diagramme de)

Le diagramme de Hertzsprung-Russell (HR) est la représentation graphique  d'une propriété physique fondamentale des étoiles : en première approximation, la nature d'une étoile est définie par les deux seules données de sa température effective et de sa luminosité. Ce diagramme a été établi au début du siècle par l'astronome danois Eznar Hertzsprung (1911) et par l'astronome américain Henry N. Russell (1913), indépendamment l'un de l'autre. Il procure un mode simple de classification des étoiles. Il est possible de substituer à la température effective d'autres quantités qui lui sont reliées de façon univoque (indice de couleurs ou type spectral) et, pour la même raison, de remplacer la luminosité par la magnitude visuelle absolue de l'étoile.

Température effective et luminosité
La température effective Teff d'une étoile dépend de son rayon R*, et de sa luminosité L*

s est la constante de Stefan.
A luminosité fixée, plus une étoile est froide (type spectral tardif), plus son rayon est grand. Le diamètre d'une étoile est principalement dépendant de l'équilibre hydrostatique de l'étoile (équilibre entre les forces de pression interne et la force de gravité). La puissance radiative (luminosité) d'une étoile dépend quant à elle de sa masse (relation masse-luminosité) et de son mode de production d'énergie (contraction gravitationnelle ou réactions de fusion nucléaire) qui fixe son statut évolutif. Ainsi, selon la phase de l'évolution d'une étoile, celle-ci occupe une région particulière du diagramme HR ; le diagramme HR permet donc de classer toutes les étoiles.

Phases du diagramme HR
La séquence principale regroupe les étoiles dans leur première phase de réaction thermonucléaire (fusion centrale de l'hydrogène). Dans le diagramme HR, elle forme une zone plutôt horizontale, étroite et longue, qui regroupe la majorité des étoiles (90%), puisque c'est la phase la plus longue dans l'évolution d'une étoile. La principale ressource d'énergie des étoiles préséquence principale est la contraction gravitationnelle : la température effective Teff des étoiles entièrement convectives (étoiles T Tauri) reste plus ou moins constante, alors que le rayon stellaire diminue ; la luminosité stellaire décroît selon un trajet vertical dans le diagramme HR (trajet de Hayashi), avant que l'étoile rejoigne la phase de séquence principale.
La fusion de l'hydrogène en couches autour du coeur stellaire d'hélium définit la branche des géantes. Lorsque la fusion de l'hélium se déclenche dans le coeur stellaire, l'étoile se situe dans la branche horizontale des géantes, pour rejoindre la branche asymptotique des géantes lorsque les réactions nucléaires se produisent en couches (fusion de l'hélium en couche entourée d'une couche où la fusion d'hydrogène se réalise). Les étoiles finissant leur vie en tant que naines blanches ont une très faible luminosité : elles se regroupent dans un lieu situé au-dessus de la séquence principale.

Diagramme HR et classes de luminosité.
M représente la magnitude visuelle absolue, B-V l'indice de couleurs.

Ia et Ib regroupe les étoiles supergéantes.
II concerne les géantes brillantes.
III regroupe les géantes.
IV concerne les sous-géantes.
V représente la séquence principale (naines et sous-naines, de haut en bas).
L'espace laissé vide contient les naines blanches.

 

Diagramme HR des étoiles de l'amas des Pléiades (étoiles jeunes) Diagramme HR des étoiles du catalogue réalisé par le satellite Hipparcos

 



I

Indice de couleur

L'indice de couleur d'un objet, ou simplement couleur, désigne la différence entre deux magnitudes apparentes de l'objet, mesurées dans deux bandes photométriques différentes. Par convention, la seconde bande est centrée sur une longueur d'onde supérieure. Ainsi, l'indice de couleur mpg - mphv où mpg est la magnitude apparente photographique et mphv est la magnitude apparente photovisuelle, a été introduit vers la fin du XIXème siècle pour qualifier la différence de magnitude d'une source observée à l'oeil nu (plus sensible au jaune-vert) ou à l'aide de plaques photographiques (plus sensibles au bleu).
Par la suite, grâce au développement de nouveaux détecteurs et à la définition quantitative de systèmes photométriques, dont le plus communément utilisé est le système de Johnson UBVRI, de nouveaux indices de couleur ont été définis. Dans le système de Johnson, l'équivalent de l'indice de couleur mpg - mphv est donné par B-V (B pour la bande photométrique bleue centrée sur la longueur d'onde 436 nm, V pour la bande visible centrée sur 545 nm). L'indice de couleur qui mesure la différence de magnitude entre la bande ultraviolette (U) et la bande bleue (B) est notée U-B. Aux plus grandes longueurs d'onde, les indices de couleurs sont V-R (R pour la bande rouge centrée sur 638 nm) et R-I (I pour infrarouge centrée sur 797 nm).

Indice de couleur et température de couleur de l'objet émetteur
Les indices de couleur sont des indicateurs précieux de la température de l'objet émetteur. Plus l'objet est chaud, plus le rayonnement émis aux longueurs d'onde les plus courtes est intense donc, par exemple, B petit à même V (la magnitude décroît si l'objet est plus intense). Puisqu'une étoile rayonne approximativement comme un corps noir, la distribution spectrale de l'intensité du rayonnement est donnée par la fonction de Planck. Le maximum de cette fonction se déplace vers les grandes longueurs d'onde (vers le rouge, loi de Wien) lorsque la température de l'étoile est plus faible. Une approximation de la loi de Planck permet de calculer la température de couleur Tc à l'aide de l'indice de couleur B-V et de la relation

La température de couleur est toujours supérieure à la température effective de l'étoile, la différence s'accentuant pour les étoiles de type spectral les plus récents (O, B, A ...). L'indice de couleurs B-V du Soleil (de type spectral G2 V) est égal à 0,65 ; sa température de couleur est de 5 840 K alors que sa température effective est de 5 770 K.
Par convention, la couleur B-V est nulle pour les étoiles de type spectral A0. Les étoiles plus chaudes (type spectral O, B) que les étoiles A0 possèdent donc un indice de couleur négatif (elles émettent davantage dans le bleu que dans le visible) ; en revanche, les étoiles plus froides (F, G, K, M) que les étoiles A0 ont des indices de couleur positifs.

Indices de couleur et photométrie d'un objet
En général, la photométrie d'un objet est déterminée par la magnitude visuelle et par l'ensemble des indices de couleur. Ces derniers ont l'avantage d'être, en général, des quantités intrinsèques à la source puisqu'ils ne dépendent pas explicitement de la distance d de l'objet à l'observateur (soustraction de deux magnitudes, elles-mêmes proportionnelles au logarithme de la distance). Par exemple, la couleur B-V est définie par l'expression

où M et m sont respectivement les magnitudes absolue et apparente, et d est exprimée en parsecs.
La comparaison des indices de couleur d'un objet avec ceux de sources standard répertoriées est la base de la classification photométrique. Cependant, l'extinction éventuellement subie par le rayonnement, notamment lors de la traversée du milieu interstellaire, modifie les couleurs. Mais cet effet présente les propriétés caractéristiques d'une rougissement du rayonnement et peut être corrigé. Il ne nuit donc pas à la reconnaissance des propriétés intrinsèques de la source.

 



L

 

Limite de Chandrasekhar

La limite de Chandrasekhar, du nom de l'astrophysicien Subrahmanyan Chandrasekhar (1910-1995), est la limite supérieure (1,44 masse solaire) d'une masse de gaz d'électrons dégénérés au-delà de laquelle la pression interne est insuffisante à équilibrer les forces internes de gravité.
Par exemple, l'équilibre hydrostatique d'une naine blanche est garanti par la pression exercée par les électrons du gaz dégénéré. Lorsque la masse de l'étoile est supérieure au seuil critique de 1,44 masse solaire, la densité est telle que les électrons sont forcés d'occuper des états de plus en plus forte énergie, puisqu'ils ne peuvent occuper des états quantiques similaires (en vertu du principe d'exclusion de Pauli). Les électrons deviennent alors relativistes, c'est-à-dire que leur énergie cinétique devient supérieure à leur énergie de masse au repos. Comme la pression associée à un gaz d'électrons relativistes ne peut plus compenser les forces de gravité (équation d'état), l'étoile s'effondre gravitationnellement sur elle-même pour former un objet encore plus compact (étoile à neutrons ou trou noir).

 

Luminosité

La luminosité est la puissance (quantité totale d'énergie par unité de temps) que rayonne un objet lumineux.
La luminosité L* que rayonne une étoile de température effective Teff et de rayon R* est proportionnelle à la surface émettrice ainsi qu'à la puissance quatrième de la température

où s est la constante de Stefan.
La température effective d'une étoile est généralement déduite de son spectre continu. Pour une même température effective Teff, la luminosité L* est donc d'autant plus grande que le rayon stellaire R* est grand.
A une classe spectrale donnée (donc à température effective fixée) correspondent plusieurs classes de luminosité que l'on peut porter sur le
diagramme HR. Ces classes de luminosité indiquent si l'étoile est une supergéante (classe de luminosité I), une géante (classe III), une naine de la séquence principale comme le Soleil (classe V) ou une naine blanche (classe VII). Ces désignations par ordre croissant correspondent à des étoiles de rayon de plus en plus petit. La détermination de la classe de luminosité d'une étoile procure ainsi aux astronomes une indication sur son degré d'évolution.
La luminosité est généralement exprimée sur une échelle logarithmique décimale qui définit la magnitude bolométrique, absolue ou apparente de l'étoile. La magnitude absolue bolométrique du Soleil est 4,75. Une étoile ayant une magnitude de 2,25 rayonne donc dix fois plus que le Soleil.
Pour les étoiles de la séquence principale ayant toutes la même composition chimique, une loi empirique relie la luminosité rayonnée et la masse de l'étoile. Cette loi appelée relation masse-luminosité est très utile pour obtenir un ordre de grandeur de la masse des étoiles isolées. En effet, à l'exception des étoiles binaires dont on peut mesurer le mouvement orbital, les astronomes ne disposent d'aucune autre méthode de détermination de la masse des étoiles.

 



M

Magnitude

La magnitude d'un objet céleste est une mesure de sa brillance. Elle est généralement mesurée dans un domaine restreint de longueur d'onde, dont les caractéristiques dépendent du système photométrique adopté. Pour des raisons historiques, fondées sur la sensibilité logarithmique de l'oeil humain, l'échelle des magnitudes est définie sur une échelle logarithmique inverse. La différence de magnitude absolue entre deux objets (m2 - m1) est proportionnelle au logarithme du rapport des luminosités L2/L1 des sources

un objet dix fois plus lumineux qu'un autre a une magnitude inférieure à 2,5.

Magnitude apparente et magnitude absolue
La magnitude apparente d'un objet est la mesure de l'intensité de son rayonnement reçu sur Terre (éclairement). La magnitude absolue est la magnitude qu'aurait ce même objet s'il était situé à 10 parsecs (32,6 années-lumière) de la Terre. Si la distance d entre l'objet et la Terre est connue, on obtient la magnitude absolue M à partir de la magnitude apparente m corrigée de l'extinction interstellaire

où d est exprimée en parsecs.

Systèmes de magnitude
L'astronome grec Hipparque (IIème siècle av. J-C) a été le premier à établir une classification de l'éclat des étoiles. Son échelle comportait six degrés : le premier degré comportait les étoiles les plus brillantes, le dernier degré réunissait les étoiles détectées à la limite de sensibilité de l'oeil nu.
Avec l'invention des télescopes, au XVIIIème siècle, une technique un peu moins subjective de mesure comparative des éclats des sources a été développée : elle se fondait sur la mesure du diamètre minimal d'ouverture du télescope permettant de percevoir l'étoile. Le développement des plaques photographiques au début du XXème siècle, puis celui de nouvelles techniques de détection dans les années 1960 (détecteurs CCD notamment) ont permis d'élaborer des systèmes photométriques fiables et complets.
Le système le plus utilisé est le système des bandes de longueur d'onde UBVRI élaboré par l'astronome Harald L. Johnson et ses collaborateurs ; les magnitudes mesurées dans ces bandes correspondent à l'énergie rayonnée dans des domaines étroits de longueur d'onde du spectre optique : mU pour l'ultraviolet ; mB pour le bleu ou photographique ; mV pour le vert-jaune ou visible ; mR pour le rouge ; mI pour l'infrarouge.
La sensibilité des détecteurs dans le domaine infrarouge permet d'élaborer une nomenclature analogue des magnitudes dans des domaines spectraux de plus grande longueur d'onde (infrarouge lointain). Dans le système de Johnson, ces bandes sont notées J, H, K, L, M et N.

Magnitude et correction bolométriques
La magnitude bolométrique d'un objet est la mesure de la brillance intégrée sur l'ensemble du spectre électromagnétique (en général, les domaines spectraux infrarouge, optique et infrarouge suffisent lorsque les objets étudiés émettent principalement leur rayonnement à ces longueurs d'onde). La correction bolométrique BC est la différence entre les deux magnitudes apparentes (ou absolues) suivantes : visuelle mv (MV) et bolométrique mbol (Mbol) :

Pour le Soleil, la correction bolométrique est nulle.

Etalonnage des magnitudes
Les magnitudes absolues des sources utilisées comme référence dans un système photométrique (bougies standard) servent à étalonner un dispositif instrumental quelconque. En effet, la valeur précise des magnitudes mesurées dépend de la chaîne d'instruments utilisés pour l'observation (télescope, détecteurs, filtres, ...). Cette correspondance entre les magnitudes obtenues par un dispositif particulier et les magnitudes d'un système standard sert à recaler dans le système standard la valeur de la magnitude d'un nouvel objet. Avec ces précautions, les magnitudes sont précises à 1% près.


 

Matière noire

On appelle matière noire une matière hypothétique obscure (dans le sens qu'elle n'émet aucun rayonnement électromagnétique détectable) qui représenterait la majeure partie de la masse de l'Univers. Le problème de sa nature est, on le comprend, un des grands problèmes non résolus de l'astrophysique.

Indices observationnels
Plusieurs observations tendent à suggérer l'existence d'une telle matière. La première date de 1932, lorsque Jan Oort analyse la vitesse et la masse des étoiles du voisinage solaire et s'aperçoit que la masse des étoiles visibles ne pouvait seule expliquer l'ensemble des mouvements observés perpendiculaires au disque galactique : il manquait un facteur 2.
Le même constatation fut effectuée par Fred Zwicky lorsqu'en 1933 il analysa la dynamique des galaxies dans les amas (notamment dans l'amas de la Vierge) : 90 % de la masse des amas serait sous forme de matière invisible. Ces analyses reposent sur l'utilisation du théorème du viriel, qui relie le potentiel gravitationnel (fonction de la masse) à l'énergie cinétique (fonction de la vitesse) d'un système en équilibre dynamique.
Par ailleurs, l'analyse des courbes de rotation des galaxies spirales indique que la vitesse des étoiles ne décroît pas en fonction de la distance au centre (comme ce serait le cas pour un disque confiné de gaz et d'étoiles en rotation képlerienne autour d'une masse centrale) : à une distance du centre de l'ordre de 10 kpc, la vitesse de rotation demeure constante (à une valeur de l'ordre de 220 km/s). Ce comportement persiste même pour des régions éloignées du centre et ne contenant plus de matière lumineuse (gaz sans étoile). L'hypothèse d'un halo galactique de matière noire fut alors postulée pour expliquer cet effet gravitationnel. La masse d'un tel halo pour notre Galaxie serait de 1012 masses solaires, pour une extension de 100 kpc.
Les scénarios théoriques de formation des galaxies, intervenant peu après le Big-Bang dans les modèles cosmologiques standard, invoquent la présence de matière noire pour aider l'effondrement gravitationnel des nuages de gaz primordiaux. La valeur de la densité de matière noire dans l'Univers est essentielle pour déterminer son évolution. Si l'on ne tient compte que de la matière lumineuse, la densité de l'Univers n'est égale qu'à quelques pourcents de la densité critique...

Nature de la matière noire
En ce début de XXIe siècle, aucune réponse n'est clairement apportée à la question de la nature de la matière noire. Une hypothèse est qu'elle serait composée d'objets de faible masse (inférieure à 0,08 masse solaire) ou d'objets compacts tels que les naines blanches réparties en halos autour des galaxies. Quelques objets de ce type ont été détectés dans les années 1990 par des effets de microlentilles gravitationnelles amplifiant le rayonnement des étoiles du Grand Nuage de Magellan. Cependant, leur nombre serait trop limité pour rendre compte de l'ensemble de la masse manquante.
Une autre hypothèse est que cette matière serait non baryonique, c'est-à-dire composée de particules "exotiques", les WIMPS (acronyme de Weakly Interacting Missing Particles), insensibles à l'interaction électromagnétique et à l'interaction forte, mais sensibles à l'interaction faible. Les neutrinos, si leur masse était non nulle, pourraient également contribuer à cette masse cachée.


 

Distribution de Maxwell des vitesses

Considérons un gaz parfait, monoatomique pour simplifier, enfermé dans une enceinte de volume V. Si la température n'est pas trop proche du zéro absolu, on peut utiliser la mécanique classique pour décrire ses propriétés. Comme chaque atome est discernable, on peut considérer le cas particulier d'un atome, les autres jouant le rôle de thermostat pour une description en statistique canonique.
Soit un élément de volume

tel que

Si l'atome de masse m est situé dans ce volume élémentaire, son énergie cinétique est

La probabilité pour que l'atome ait une énergie cinétique égale à E est proportionnelle à

où g(E) est la dégénérescence du niveau d'énergie E, c'est-à-dire le nombre de micro-états dN contenus dans le volume élémentaire considéré. Ce nombre est estimé de la manière suivante,

La probabilité P d'observer un atome dans l'élément de volume vaut

où Z est la fonction de partition définie, dans le cas où le spectre en énergie est continu, par

Cette intégrale est sextuple et doit être calculée sur le domaine d'intégration D où chaque variable cartésienne de l'impulsion peut varier entre -∞ et +∞, et où chaque variable cartésienne de la position varie à l'intérieur de V. Ainsi,

soit

Les trois intégrales simples étant identiques, il vient

L'intégrale présentée peut être calculée (récurrence et fonctions Gamma) :

En conclusion,

La probabilité d'observer un atome dans le volume élémentaire est donc

La probabilité de trouver un atome avec une impulsion voisine de p dans un endroit quelconque du récipient vaut

Comme p = mv, la probabilité pour qu'un atome ait une vitesse comprise entre v et  v + dv  vaut

sachant que dpx dpy dpz = m3 dvx dvy dvz. La distribution obtenue porte le nom de distribution de Maxwell ; elle permet de calculer un grand nombre de propriétés des gaz parfaits et constitue la base de la théorie cinétique des gaz. Elle s'applique uniquement aux particules classiques (ni fermions, ni bosons) : par exemple, au mouvement des grains de poussière du milieu interstellaire, ou à l'ensemble des galaxies d'un amas en interaction gravitationnelle.

 



N

 

Naine blanche

Voir mémoire pour plus de détails.
Une naine blanche est une étoile de faible masse, inférieure à 1,44 masse solaire (
limite de Chandrasekhar), en fin d'évolution stellaire et composée d'un gaz d'électrons dégénérés. Elle résulte d'une phase de contraction gravitationnelle antérieure, amorcée au terme des réactions de fusion thermonucléaire faute de combustible.
Le rayonnement d'une naine blanche provient de la fine atmosphère gazeuse qui l'entoure. Sa température de surface peut être assez élevée (10 000 K), mais comme sa surface est très petite (son rayon est comparable au rayon terrestre, soit 1 % de sa taille initiale), la luminosité rayonnée est faible (de l'ordre d'un millième de la luminosité solaire,
magnitude absolue MV de 10 à 15). Le densité moyenne d'une naine blanche est très élevée (107 à 1011 kg/m3, donc de l'ordre d'une tonne par cm3). La très forte gravité de l'étoile engendre un élargissement des raies du spectre et provoque parfois des décalages gravitationnels mesurables dans celui-ci.
Au cours du refroidissement inéluctable de la naine blanche, qui ne dispose plus de source interne d'énergie, le type spectral, récent au début (A ou F), devient tardif (M). Lors de cette étape intermédiaire, entre les naines blanches observables et les
naines brunes, trop peu lumineuses pour être discernées, les naines blanches sont parfois dénommées naines rouges.
Lorsque les naines blanches sont associées en systèmes binaires serrés à une autre étoile, des phénomènes de transfert de masse (
accrétion) peuvent donner lieu à des manifestations très énergétiques (variables cataclysmiques et binaires X).

 

Naine brune

Objet hypothétique de température de surface très basse et dont la masse est trop petite (inférieure à 0,08 masse solaire) pour que les réactions thermonucléaires de fusion de l'hydrogène puissent s'enclencher. Les naines brunes seraient formées de la même façon que les étoiles plus massives. Elles constitueraient une partie de la matière noire des galaxies.
En effet, la luminosité de ces objets est trop faible pour être généralement perceptible à l'observation ; seules de jeunes naines brunes proches, encore dans la phase de contraction gravitationnelle, rayonneraient suffisamment d'énergie dans l'infrarouge pour être détectées. Plusieurs candidates ont été sélectionnées, mais leur nature est controversée car il est difficile de les distinguer d'étoiles de masse approximativement égale à 0,08 masse solaire qui, elles, peuvent amorcer des réactions de fusion. Seule la détermination directe de leur masse, déterminée par les mouvements dynamiques d'un système binaire qui en contiendrait une, permettrait de conclure à leur existence. Une alternative consiste à effectuer des relevés systématiques des effets de
microlentilles gravitationnelles dans le halo de la Galaxie.

 



O

Optique gravitationnelle

Nouvelle discipline de l'astronomie, née dans les années 1980 et fondée sur l'utilisation des effets relativistes prédits par la Relativité générale et des principes hérités de l'optique traditionnelle. Elle étudie les images ou quasi-images d'une source (étoile, galaxie ou quasar) formées dans les domaines radio ou optique, lorsqu'une grande concentration de masse (galaxie massive ou amas de galaxies) s'interpose entre cette source et l'observateur terrestre.

Description
La théorie de la Relativité générale prédit que la présence d'un champ local de gravité courbe l'espace-temps et déforme les géodésiques (voir
relativité) : toute concentration de masse courbe donc le trajet de la lumière. Une répartition inhomogène de matière, interposée entre la source émettrice et l'observateur, modifie inégalement le temps de parcours du rayonnement en fonction de la déflexion subie par celui-ci.
Une analogie formelle et pratique consiste à considérer la masse déflectrice comme une lentille gravitationnelle d'indice de réfraction variable. Les propriétés des images ou pseudo-images formées à l'aide de cette lentille dépendent de  la géométrie du système (distances de la source à la lentille et de cette dernière à l'observateur), du potentiel gravitationnel de la lentille et de la nature ponctuelle ou étendue de la source.


Premières observations
Cette effet de lentille gravitationnel a été prévu dès 1937 par Fred Zwicky. Il montra qu'une masse ponctuelle à mi-distance de la source et de l'observateur devrait concentrer la lumière en un anneau circulaire, dit anneau d'Einstein. La trop faible sensibilité des plaques photographiques de l'époque ne permettait pas de vérifier l'existence de telles structures. La découvert en 1963 de sources très brillantes quasi ponctuelles et lointaines, les
quasars, offrit l'objet adéquat pour cette vérification.
Lorsque les trois objets (source, observateur et lentille) ne sont pas parfaitement alignés, les images de la source se dédoublent (mirages gravitationnels), voire se quadruplent (la célèbre croix d'Einstein). En 1979, la découverte en optique d'une image double du quasar Q0957+561 démontra pour la première fois l'existence de l'effet de lentille gravitationnelle : outre l'identité de leurs spectres, les fluctuations de lumière observées dans l'une des images se retrouvaient dans le spectre de la seconde image avec un retard d'environ 540 jours, traduisant la différence de chemin optique parcouru par la lumière.

Image quadruple d'un quasar distribuée le long d'un anneau allongé : la Croix d'Einstein.


En 1985, l'astronome français Bernard Fort observa dans le domaine optique le premier arc gravitationnel dans l'amas de galaxies Abell 370, dont la nature fut identifiée par l'astronome américain B. Pasczinski. Cet arc est une image déformée par un amas (situé à une distance de 5 milliards d'années-lumière de notre Galaxie) d'une galaxie située derrière lui, à 7 milliards d'années-lumière de nous. Dans ce même amas, des images en forme de mini-arcs gravitationnels d'une nombreuse population de galaxies très lointaines (une dizaine de milliards d'années-lumière de notre Galaxie) ont été abondamment observées.

Application : télescopes gravitationnels
Capables de former des images ou quasi-images d'objets situés en arrière d'eux, les amas de galaxies constituent ainsi des télescopes gravitationnels, outils privilégiés pour sonder l'Univers très lointain. Une cinquantaine d'années après la prédiction théorique de Fred Zwicky, l'anneau d'Einstein d'une source extragalactique (MG1131+0456) fut observé dans le domaine radio ; son diamètre a permis d'estimer la masse de l'amas jouant le rôle de lentille gravitationnelle : 90 % de la masse des amas serait sous forme de
matière noire.
Ces études des lentilles gravitationnelles sont cruciales pour étudier la répartition de cette matière noire au sein des amas de galaxies. On a montré que la matière noire se concentre remarquablement autour de la galaxie elliptique géante (galaxie cD) qui occupe généralement le centre des amas. En outre, les différences de la brillance des images virtuelles d'un même quasar procureraient une estimation du taux d'expansion de l'Univers (constante de Hubble), à condition de modéliser correctement le potentiel gravitationnel de l'amas déflecteur, ce qui n'est pas en général tâche facile.

Microlentille gravitationnelle
Une seconde application importante de l'optique gravitationnelle est l'effet de microlentilles gravitationnelles. Ue microlentille est un objet compact de faible masse qui s'interpose entre une source et l'observateur. Sa masse est trop faible pour engendrer la formation d'une image mais suffisante pour concentrer le rayonnement de la source en direction de l'observateur par déflexion de la lumière, ce qui conduit à une amplification apparent de la brillance de la source lointaine.
Ainsi, l'effet de la microlentille gravitationnelle est un flash de lumière qui se produit lorsqu'un objet (étoile, naine brune ...) passe exactement (à un millionième de seconde d'angle près) devant la source lointaine (autre étoile). La durée du flash lumineux dépend de la durée du passage de l'étoile et de sa masse. En surveillant de tels événements et à l'aide d'un contrôle statistique, il est possible de vérifier si tous les effets observés de microlentille sont produits par des étoiles ou par une partie de la matière noire tant recherchée.
Tel est l'objet de la recherche des machos (massive astronomical compact halo objects) dans le halo de la Galaxie. Lorsque le rayonnement  d'une galaxie voisine (Grand Nuage de Magellan) est intercepté par un objet, telle une naine brune intrinsèquement non lumineuse (ou non détectable) du halo de notre Galaxie, la luminosité de l'étoile est ponctuellement amplifiée durant l'occultation. De tels suivis ont été entrepris dès les années 1990 et ont donné lieu à quelques détections. Ces objets représenteraient une faible fraction de la matière noire de notre Galaxie.

 

Un anneau d'Einstein dans le système B1938+666. L'image du haut a été prise dans l'infrarouge par le télescope spatial. Le point lumineux au centre est la galaxie relativement proche qui provoque l'effet de lentille gravitationnelle. L'anneau tout autour est une image déformée d'une galaxie plus lointaine. L'anneau n'est pas complet car les deux galaxies ne sont pas parfaitement alignées. L'image du bas est le même objet observé dans le domaine radio par le réseau de 6 radiotélescopes MERLIN en Grande-Bretagne. Sur cette image, on aperçoit très bien l'anneau, mais la galaxie proche n'est pas visible car elle n'émet pas dans le domaine radio.

 

Une application récente
Pour la première fois, la découverte d'une planète extrasolaire est le fruit d'une collaboration entre des astronomes amateurs et professionnels. La planète a été détectée en recherchant l'influence de sa gravité sur la lumière d'une étoile plus éloignée, une technique connue sous le nom de "lentille gravitationnelle". C'est seulement la seconde planète à être découverte au moyen de cette technique à l'aide de laquelle des planètes d'une masse équivalente à celle de la Terre pourrait être détectées. Deux astronomes amateurs de Nouvelle-Zélande ont aidé à la découverte de l'objet grâce aux données cruciales obtenues à l'aide de leurs télescopes personnels.

L'étoile et sa planète passent devant une étoile lointaine (croix)
et amplifient sa luminosité

La planète et son étoile sont situées à environ 15 000 années-lumière de la Terre, faisant de ce monde un des plus éloigné jamais découvert. La planète est trois fois plus massive que Jupiter et tourne autour d'une étoile équivalente à notre Soleil. Au moment de sa découverte, elle était située à environ 3 fois la distance Terre-Soleil de son étoile mère. Bien que son orbite soit encore incertaine, la possibilité d'un "Jupiter chaud" qui tourne très près de son étoile a été écartée.

Le phénomène de "lentille gravitationnelle" se produit quand un objet massif tel qu'une étoile, ou même un trou noir, passe devant une étoile brillante se situant à l'arrière-plan. La forte gravitation de l'objet courbe les rayons lumineux de l'étoile la plus éloignée et les amplifie comme la lentille d'un appareil photo. Sur Terre, l'étoile éloignée devient plus lumineuse lorsque la lentille passe devant elle, et puis s'estompe lorsqu'elle s'éloigne ensuite. La présence d'une planète autour de l'étoile "lentille" modifie ce processus autrement sans heurt d'une façon caractéristique: une altération rapide de la luminosité, synonyme que l'étoile la plus proche possède une planète. Ce phénomène pourrait être appelé "microlentille".
La technique de la microlentille gravitationnelle offre des avantages uniques pour les astronomes chasseurs de planètes: non seulement elle permet de détecter des mondes plus éloignés qu'avec des techniques plus conventionnelles telles que la méthode de la vitesse radiale, mais elle est également plus sensible pour la découverte de plus petits objets.

"Si une planète comme la Terre avait été à la même position nous aurions pu la détecter," indique le professeur Andrew Gould de l'Université de l'Ohio, membre de l'équipe qui a fait la découverte.

L'astronome Scott Gaudi de Centre Astrophysique Harvard-Smithsonian a joué un rôle primordial en confirmant la nouvelle planète. Bien que le phénomène de lentille puisse durer des jours, la présence d'une planète n'affectera le signal que durant quelques heures. Par conséquent, les données doivent être analysées au fil des observations pour identifier les événements qui méritent une attention plus particulière.

 



P

Parallaxe

La parallaxe désigne le déplacement angulaire entre les deux directions de visée d'un objet observé simultanément en deux endroits différents, ou au même endroit à deux époques différentes. Plus la distance de l'objet est grande, plus la parallaxe est petite et plus les lieux (ou les époques) d'observation doivent être distants pour qu'elle soit mesurable aisément.
L'une des principales difficultés à laquelle l'astronomie est confrontée est la détermination de la distance des objets observés, donnée cruciale qui permet de relier les observations aux propriétés intrinsèques des sources. Seules la direction des objets vus en projection sur la "sphère céleste" est directement établie. Diverses méthodes ont été développées pour permettre l'accès à la troisième dimension spatiale : la profondeur des objets dans le ciel. L'astrométrie est déterminante car elle a développé des techniques directes de mesure des distances des objets relativement proches, techniques fondées sur l'étude des parallaxes géométriques des objets. Pour des objets plus lointains, la détermination de leur distance repose sur des méthodes indirectes, fondées sur un étalonnage préalable des magnitudes des objets proches.
La parallaxe diurne (ou parallaxe géométrique) est égale à l'angle formé entre la ligne de visée de l'objet et l'axe reliant l'objet au centre de la Terre. Elle est aussi égale au déplacement angulaire apparent de l'objet par rapport aux étoiles lointaines (fixes) du champ, lorsqu'il se déplace de l'horizon vers le zénith. Ainsi la parallaxe diurne est égale à la différence du zénith topocentrique et du zénith géocentrique. Elle atteint un maximum lorsque l'objet est à l'horizon et s'annule lorsqu'il est au zénith.

Image:Parallaxe diurne.png

Sur Terre, la plus grande ligne de base réalisable est le diamètre équatorial ; par convention, la parallaxe horizontale p désigne l'angle sous-tendu par le rayon équatorial (RT ~6 378 km). Pour un objet situé à la distance d de la Terre, il vient

et s'agissant d'un petit angle,

Cette méthode des parallaxes horizontales ne s'applique qu'aux objets du système solaire. La parallaxe de la Lune (resp. du Soleil) est égale à 57 minutes d'angles (resp. à 8,79 secondes).

Pour des objets plus éloignés (les étoiles proches), la rotation de la Terre ne suffit pas à procurer une ligne de base suffisamment grande pour résoudre la parallaxe de l'objet. La rotation terrestre est remplacée par le mouvement orbital de la Terre sur son orbite autour du Soleil. La parallaxe annuelle est donc l'angle formé entre la ligne de visée de l'objet et l'axe joignant l'objet au Soleil. La parallaxe trigonométrique p désigne l'angle sous-tendu par le rayon de l'orbite terrestre (à l'aphélie).
Autrement dit, durant le parcours annuel apparent du Soleil, la trajectoire d'une étoile sur la sphère céleste décrit en général une ellipse (un segment si l'étoile est dans le plan de l'écliptique et un cercle si elle est située aux pôles célestes) ; la parallaxe trigonométrique désigne le demi-grand axe de l'ellipse : elle définit une nouvelle unité de distance astronomique, le
parsec (pc), comme la distance nous séparant d'un objet donc la parallaxe est de 1 seconde d'angle.

Image:Parallaxe annuelle.png

L'obtention des distances par la méthode des parallaxes trigonométriques est limitée aux étoiles les plus proches. Les parallaxes sont mesurées avec fiabilité dans un rayon de 30 pc autour de la Terre ; au-delà de 100 pc, l'ellipse est trop petite pour être résolue. Cependant, grâce au satellite HIPPARCOS (HIgh Precision PARallax COllecting Satellite) lancé en 1989 par l'ESA, de nouvelles mesures astrométriques d'une précision inégalée (0,002") ont été envisageables.

Pour les amas galactiques ou groupes d'étoiles proches, le mouvement propre du Soleil est utilisé pour déterminer la parallaxe séculaire ou statistique. Le Soleil se déplace dans la Galaxie à une vitesse voisine de 20 km/s (soit 4 ua en 1 an) vers un point, nommé apex, de coordonnées équatoriales a = 18h00, d = 30° ou galactiques l = 56°, b = +23°. La parallaxe séculaire p est donc l'angle formé entre les directions de visée d'un objet situé à une distance d, possède un angle de l'apex q alors que le Soleil s'est déplacé d'une distance s

En pratique, on définit un référentiel dans lequel le Soleil est au repos (référentiel local standard au repos), et les étoiles du groupe (ou amas) sont affectées d'un mouvement apparent, engendré par le mouvement du Soleil. En supposant qu'en moyenne les mouvements propres (vitesses radiales) des étoiles du groupe sont nuls, la distance du groupe d'étoiles au Soleil peut ainsi être déterminée.

Pour résoudre la parallaxe séculaire, deux mesures séparées de 10 à 20 ans sont en général requises. Il est donc plus rapide de recourir à des déterminations indirectes de distances. Ces méthodes sont fondées sur un étalonnage de la luminosité intrinsèque (magnitude absolue visuelle, bolométrique ou luminosité) de sources proches en fonction de caractéristiques indépendantes de la distance, tels les couleurs photométriques ou le type spectral, ou encore selon des propriétés spécifiques d'étoiles, dont un exemple fameux est la relation période luminosité des céphéides. L'étalonnage des magnitudes absolues des sources proches repose bien sûr sur la détermination de leurs distances à l'aide de méthodes directes ; par exemple, la méthode des parallaxes statistiques est indispensable pour étalonner les magnitudes absolues des étoiles les plus brillantes.
L'intérêt de l'étalonnage des magnitudes absolues réside dans la donnée de la valeur probable de la magnitude absolue M d'une source lointaine, en fonction des couleurs (resp. des raies spectrales) observées. La mesure de la magnitude apparente m de la source permet de déterminer sa parallaxe p (en secondes d'angles) à l'aide de la relation

où A est l'extinction interstellaire. La parallaxe ainsi obtenue est dénommée selon la calibration utilisée : soit parallaxe photométrique, soit (resp.) parallaxe spectrométrique.

NB : historiquement, Lacaille et Lalande déterminent la distance Terre-Lune à l'aide de la parallaxe au XVIIIème siècle... méthode à creuser !


                                             

Parsec (pc)
La parallaxe trigonométrique d'un objet situé à 1 pc est égale à 1" d'arc. Le parsec définit donc la distance pour laquelle 1" sous-tend une unité astronomique (l'u.a. représente la distance moyenne entre la Terre et le Soleil, soit 149,6.106 km). Comme 1 rad vaut 206 265", le parsec équivaut à 206 265 u.a., c'est-à-dire à 3,26 années-lumière. Lorsque la parallaxe est exprimée en secondes d'arc, la distance d en parsecs de la source à la Terre vaut d = 1/p.


 

Photométrie

La photométrie est l'outil de base employé par les astronomes pour analyser le rayonnement des sources qu'ils rencontrent. Sa fonction est de reconnaître la nature et les principales propriétés de l'objet étudié à l'aide d'un ensemble de mesures simples et rapides.
Sans s'intéresser au détail fin de la distribution spectrale d'énergie, qui est le propre de la spectroscopie, la photométrie se contente de mesurer la quantité d'énergie intégrée dans quelques domaines spectraux judicieusement choisis. La comparaison de ces mesures, traditionnellement exprimées en magnitude (pour le domaine de longueur d'onde optique, infrarouge et ultraviolet proche), en densité de flux (radio et autres domaines) ou en éclairement avec celles obtenues sur des sources de référence (bougies standard) est à la base de la classification photométrique.
Celle-ci précède le plus souvent l'étude spectrale qui sert à affiner, compléter et préciser les informations obtenues à l'aide des données photométriques. Le choix des domaines spectraux (longueur d'onde effective
leff et largeur de bande Dl) et la sélection de bougies standard constituent un système photométrique. Plusieurs systèmes standard ont été développés, mais entre l'ultraviolet et l'infrarouge moyen, le système Johnson-Cousins-Grass est le plus communément utilisé. Citons aussi les systèmes de Genève ou encore de Strömgren.

Johnson-Cousin-Kron

Bandes

leff (nm)

dl (nm)


U 367 66 Domaine spectral visible
B 436 94
V 545 88
R 638 138
I 797 149

J 1 220 213 Domaine spectral infrarouge
H 1 630 307
K 2 190 390
L 3 450 472
M 4 740 460
N 10 400

Genève

U 350 47
B 424 76
B1 402 38
B2 448 41
V 551 67
V1 541 44
G 578 47

Strömgren

u 349 30
v 411 19
b 467 18
u 547 23
bw 489 15
bn 486 3

La photométrie peut être considérée comme une spectroscopie de très faible résolution spectrale (Dlphot ~ 2 nm). Or, à qualité de données égale (même rapport signal à bruit), le temps d'observation requis pour la photométrie est dix à cent fois plus court que le temps nécessaire pour la spectroscopie puisque le temps de pose augmente proportionnellement à la résolution spectrale R = l / Dl.
La photométrie est donc une méthode particulièrement adaptée pour étudier un grand nombre d'objets ou des objets peu brillants.
Elle est aussi très utile pour classer les étoiles : la calibration des données photométriques stellaires (
indices de couleur) permet de contraindre les valeurs de la température effective, la gravité et la composition chimique (abondance des métaux) des étoiles. Le report dans un diagramme, nommé diagramme de Hertzsprung-Russell, des magnitudes visuelles d'étoiles réunies en amas en fonction de leurs indices de couleur B-V, sert par exemple à déterminer l'âge et la distance des amas.
En outre, l'analyse d'une galaxie en ses différentes composantes stellaires et gazeuses est réalisée grâce aux études comparatives menées dans les différentes bandes photométriques.


 

Photosphère

La photosphère est la basse atmosphère des étoiles, c'est-à-dire l'emplacement des dernières surfaces accessibles à l'observation. Observée aux longueurs d'onde du visible ou proche infrarouge (entre 0,1 et 1 µm), la photosphère a une épaisseur optique comprise entre 1 et 10-3.
Dans le Soleil, la photosphère est une région de quelque 500 km d'épaisseur. Elle est située au-dessus de la zone de
convection interne, et à la base de la chromosphère. A la base de la photosphère, la température est de l'ordre de 6 000 K. Elle décroît en fonction de l'altitude jusqu'à une valeur de 4 000 K (nommée minimum de température) pour augmenter dans les régions définissant la chromosphère.
La quasi-totalité de la lumière émise par les étoiles est rayonnée par la surface ayant une
épaisseur optique de l'ordre de l'unité, sous la forme d'un rayonnement continu allant de l'infrarouge proche à l'ultraviolet. Ce spectre continu de radiation est suffisamment proche de celui d'un corps noir pour le caractériser par une seule température, nommée température effective.
Celle du Soleil est de 5 780 K. Le spectre solaire est donc constitué de ce rayonnement continu auquel se superposent des raies d'absorption dues au gaz photosphérique. Le spectre d'absorption solaire porte le nom de spectre de Fraunhofer en l'honneur du physicien et astronome Joseph von Fraunhofer (1787-1826) qui l'a étudié et répertorié en détail.
La présence de taches photosphériques et de facules maculant la photosphère solaire témoigne de l'activité magnétique solaire (effet dynamo). On y observe également une hiérarchie de structures signant en surface la présence de cellules convectives internes, situées dans la zone convective (granulation).


 

Poids moléculaire moyen

tg



Q

Quasar

Les quasars sont une classe importante de galaxies actives, intrinsèquement les plus lumineuses et les plus lointaines observées. Découverts lors de relevés systématiques (surveys) du ciel en radio, leur contrepartie optique est ponctuelle, d'aspect similaire à celui d'une étoile, à la différence importante près que leur spectre est d'origine non thermique et comporte de fortes raies en émission, ce qui diffère notablement d'un spectre stellaire (assimilable au rayonnement de corps noir - émission thermique - sur lequel se superposent des raies d'absorption photosphériques). C'est pourquoi on leur attribua le nom de quasar (ou QSO), contraction de l'expression QUASistellAR object.
La nature de ces objets fut élucidée lorsqu'en 1963 Marteen Schmidt mit en évidence un important décalage spectral vers le rouge dans le spectre optique d'émission du quasar radio 3C273. Interprété comme un décalage spectral dû à l'expansion globale de l'Univers (noté z), 3C273 fut le premier objet aussi lointain à être reconnu (z = 0,1578). A la fin du XXème siècle, plusieurs milliers de quasars avaient été identifiés, avec des décalages cosmologiques compris entre 0,1 et 4. Les quasars les plus lointains (z = 4) témoignent du passé de l'Univers puisque le rayonnement qui nous en parvient aujourd'hui a été émis lorsque l'Univers n'avait que 3 milliards d'années...
Résolus à l'aide d'interféromètres radio (VLA, etc...), les quasars radio ont, à ces fréquences, une structure bipolaire interprétée comme une éjection de matière issue des régions interne du noyau. Observés à de plus grandes résolutions spatiales et spectrales (VLBI), des mouvements superluminiques de matière ont été décelés. L'émission radio des quasars est donc analogue à celle des radiogalaxies, alors que le spectre de la source optique est analogue à celui des noyaux actifs des galaxies de Seyfert de type 1. Bien qu'ils aient été détectés au tout début en radio, les quasars radio ne constituent que 20 % de leur population totale. Les 80 % restants sont comparables aux noyaux des galaxies actives de type Seyfert 1, bien que leur spectre de raies en émission soit affecté du décalage vers le rouge et que leur luminosité optique soit 10 à 104 fois plus intense.
Lorsque des nuages d'hydrogène proches du quasar s'interposent sur la ligne de visée entre le quasar et l'observateur, l'absorption des photons Lyman (notamment alpha) engendre dans le spectre du quasar une série de raies d'absorption (forêt de Lyman). De la mesure du décalage spectral de ces raies d'absorption, la distance (ou la vitesse particulière) du nuage interstellaire peut alors être estimée. Lorsque la masse intervenant sur la ligne de visée est très grande, des effets de
lentilles gravitationnelles, dues à la déviation par le champ de gravitation de l'amas du rayonnement du quasar, sont observés.
Les phénomènes d'
accrétion gravitationnelle qui sont à l'origine d'une grande partie des propriétés observationnelles des quasars sont communs aux galaxies actives et source des jets ou flot de ces objets.

La raie Hb de référence se situe à 4 861,33 angströms : on peut donc calculer le décalage spectral du spectre de 3C273,

 



R

 

Relativité

 

 

Rotation différentielle

Un corps est dit en rotation différentielle lorsque sa fréquence de rotation W, ou pulsation, ou encore taux de rotation (exprimé en Hz ou s-1), dépend du point considéré. Les corps gazeux ou fluides sont rarement en rotation rigide (ie. n'ont pas même W en tout point) : sur le Soleil, le taux de rotation dépend de la latitude du point ; il est maximal à l'équateur : W = 0,251 jour-1, soit T = 2p/W = 25 jours, et décroît avec la latitude (à 60 degrés de latitude, W = 0,216 jour-1 et T = 29 jours). L'analyse des oscillations solaires (héliosismologie) démontre l'existence d'une rotation différentielle radiale, c'est-à-dire que le taux de rotation dépend aussi de la distance au centre (rayon sphérique) du point considéré.
L'analyse du taux de rotation des taches solaires indique la présence d'une rotation différentielle latitudinale, c'est-à-dire une variation de la fréquence de rotation en fonction de la latitude du point considéré à la surface du Soleil (les pôles tournent moins vite que l'équateur). Un disque galactique est en rotation différentielle : le taux de rotation dépend de la distance à l'axe (rayon cylindrique) ; ainsi, le disque galactique est aussi en rotation différentielle (on en tire une courbe de rotation galactique). La rotation différentielle joue un rôle fondamental dans l'amplification d'un champ magnétique (effet
dynamo).



S

Spectrométrie

L'importance de l'analyse spectrale en Astrophysique confère naturellement un rôle essentiel à l'outil (appelé spectromètre, spectrographe ou plus rarement spectroscope) qui forme les spectres au foyer d'un télescope. Le principe de mise en oeuvre est le même à toutes les longueurs d'onde : fournir, grâce à un élément dispersif, à la sortie du spectromètre un signal - le spectre donnant l'intensité I(l) en fonction de la longueur d'onde l - dans lequel soient distinguables et mesurables les diverses longueurs d'onde du rayonnement total reçu par le télescope.
Comme pour tout ce qui touche à l'instrumentation, les énergies si diverses des rayonnements (dans un rapport de 1021 entre les rayons
g et les radiofréquences) conduisent à des choix technologiques très différents pour réaliser un spectromètre. Un principe général est que l'on cherchera au maximum à utiliser tous les photons disponibles : l'idéal, pour chaque point d'une image (coordonnées x,y) pris dans le champ d'observation, d'obtenir tout le spectre, au moins dans un intervalle spectrale assez large [l1 ; l2]. Cela revient à obtenir un "cube" de données, avec les trois variables (x,y,l), à charge de réaliser un système physique qui puisse l'obtenir.
Le paramètre essentiel caractérisant un spectromètre est sa résolution spectrale, un nombre égal à
l/Dll est la longueur d'onde moyenne étudiée et Dl l'intervalle le plus petit séparant deux longueurs d'onde qui soient distinguables et dont les intensités soient séparément mesurables à la sortie du spectromètre.
Les résolutions spectrales s'étagent, selon les besoins, entre quelques unités (photométrie) à près de 106 pour l'étude de raies très étroites et surtout pour la détermination très précise des longueurs d'onde et des profils, notamment pour les mesures de vitesse Doppler (une résolution de 106 permet une séparation en vitesse de 300 m.s-1 entre deux composantes ou raies du spectre). Plus la résolution est élevée, moins il y a généralement de lumière disponible sur le récepteur par élément spectral Dl, et plus le temps de pose doit être élevé : les spectres très résolvants demandent souvent plusieurs dizaines d'heures de pose.

Réseaux et autres éléments dispersifs
Le prototype de l'élément dispersif, qui forme le coeur d'un spectromètre, est naturellement le prisme utilisé par Newton pour analyser la lumière solaire et par Fraunhofer (1802) pour y découvrir les raies d'absorption chromosphériques. Le prisme est aujourd'hui abandonné au profit du réseau de diffraction, utilisé depuis l'ultraviolet lointain jusqu'à l'infrarouge moyen.
Les spectromètres à réseau de type échelle se limitent à un point du champ, et utilisent volontiers une double dispersion, modérée selon un axe du capteur CCD et importante selon l'autre ; les spectromètres sont refroidis lorsqu'ils sont utilisés dans l'infrarouge afin de ne pas ajouter au signal un bruit de fond dû aux photons thermiques émis par l'instrument.
Les réseaux de diffraction sont gravés sur un substrat (verre ou métal) par des techniques de précision ou par exposition directe d'une résine photosensible à une figure d'interférence (réseau dit holographique). Aux longueurs d'onde les plus courtes des rayons X (
l ~ 1 nm), la gravure n'est plus possible et on utilise les gravures naturelles que sont les arrangements réguliers d'atomes dans les cristaux (réseaux de Bragg), lesquels diffractent les rayons X et forment de même le spectre de la lumière incidente.
Si l'on veut examiner simultanément un grand nombre de points du champ (pixels), le problème est plus difficile  :dans les spectromètres les plus modernes, le concept dit "intégral de champ" combine dispersion par un étalon de Fabry-Pérot ainsi qu'un récepteur CCD sur lequel sont formées les images de tous les points du champ à toutes les longueurs d'onde explorées. Lorsque le champ ne contient qu'un nombre limité d'objets bien séparés (étoiles, galaxies), on fera simultanément sur le récepteur le spectre de chaque objet en l'isolant de ses voisins par différentes techniques : prisme ou réseau objectif (grisme), masque focal composé d'un grand nombre de fentes qui sélectionnent et laissent passer vers le spectromètre la lumière de chaque objet, ou bien encore centaines de fibres optiques, éventuellement positionnées automatiquement par des bras robots, allant prélever la lumière de chaque objet pour la conduire sur la fente du spectromètre.
Toutes ces techniques visent évidemment à obtenir le spectre de tous les éléments d'image dans une région la plus étendue possible, afin de minimiser le temps de télescope utilisé. Elles sont précieuses pour la mesure simultanée de la vitesse d'expansion de nombreuses galaxies appartenant à un amas, ou des spectres d'objets lointains pour y discerner les quasars des galaxies, ou de toutes les étoiles d'un champ pour en déterminer le type spectral et en faire un travail d'analyse statistique, etc.
D'autres spectromètres plus spécialisés ont été mis au point et couvrent ce même domaine spectral (de l'ultraviolet à l'infrarouge) : spectromètre interférentiel de Michelson (par transformée de Fourier), spectromètre interférentiel de Fabry-Pérot. Comme le spectromètre à réseau ou le simple filtre interférentiel (d'une résolution limitée à quelques centaines), mais avec des configurations optiques différentes, ils utilisent un même principe interférentiel : l'onde interfère avec elle-même, et l'intensité de la figure d'interférence résultante dépend de la longueur d'onde, qu'elle module donc de façon mesurable en sortie du dispositif.
La construction pratique des spectromètres de ces divers types n'est pas nécessairement simple : ils sont encombrants, doivent être très stables, et dotés d'une optique qui préserve pendant leur traversée la qualité de l'image donnée par le télescope et qui finalement se formera sur le récepteur. Ils sont généralement disposés au voisinage immédiat du foyer du télescope (parfois primaire, mais surtout Cassegrain, Coudé ou Nasmyth dans les cas les plus usuels).
Le choix de la dimension du réseau (ou des autres éléments interférentiels) permet d'ajuster la résolution spectrale à la valeur recherchée, de quelques centaines au million : l'étude grossière du spectre d'une galaxie, disons pour déterminer son décalage spectral z, demandera R < 1 000 alors que la détermination de l'abondance des métaux dans un spectre d'étoile demandera, pour bien séparer les raies, R ~ 105.

Spectrométrie des radiofréquences et des hautes énergies
Passant au domaine des radiofréquences (longueurs d'onde supérieures à 0,5 mm environ), la spectrométrie procède de toute autre manière, de fait bien plus simple. La fréquence des ondes est alors suffisamment faible pour pouvoir être directement mesurable par l'équivalent, toutefois plus sophistiqué, d'un circuit électrique résonant ou plutôt d'une batterie de milliers de ceux-ci (canaux spectraux, centrés chacun sur une longueur d'onde
li différente et de largeur Dl) mis en parallèle : à la sortie de chacun, l'intensité I(li) du spectre est mesurée avec une résolution spectrale li/Dl.
De façon alternative, utilisant un théorème de mathématiques qui énonce que le spectre (rigoureusement, la densité spectrale) est la transformée de Fourier de la fonction d'autocorrélation d'une fonction (théorème de Wiener-Khintchine), il est équivalent de calculer l'autocorrélation du signal lumineux (sous sa forme de champ électrique) tel qu'il est reçu de la source et que les récepteurs de radiofréquences le détectent. On donne souvent la résolution en largeur équivalente de vitesse Doppler, puisque

Ainsi, 3 km.s-1 correspondent à une résolution spectrale de 105.
A l'autre extrémité du spectre électromagnétique se trouve le rayonnement
g, dont la spectrométrie est difficile : ce rayonnement est détecté, photon par photon, par des calorimètres dont l'échauffement est proportionnel à l'énergie E = hn du photon, d'où une détermination de sa fréquence (pour un photon g de 1 GeV d'énergie, l'énergie déposée est de l'ordre d'un millionième de millionième de joule, et néanmoins détectable !). Les rayons X peuvent également être analysés spectralement par détection à l'aide de semi-conducteurs (germanium dopé au lithium) dont l'absorption dépend de la longueur d'onde du rayonnement.
Hormis, ce dernier domaine où des progrès restent à faire, les outils de la spectrométrie astronomique ont quasiment atteint la perfection, leur résolution potentielle dépassant les besoins des spectres émis par les objets astronomiques. Le progrès porte surtout sur leur efficacité, l'idéal étant qu'ils n'absorbent aucun des photons qui les traversent, qu'ils couvrent un domaine aussi large que possible en longueurs d'onde tout en permettant de former l'image d'un champ aussi grand que possible : ce dernier point n'est pas simple, car dans l'espace ou au sol, avec l'optique adaptative sur les grands télescopes, le champ comprend facilement 40 000 sur 40 000 éléments d'images résolus (pixels), dont on peut souhaiter, pour chacun d'entre eux, mesurer plusieurs dizaines des milliers d'éléments spectraux avec une dynamique dépassant 104 : on voit que cela correspondrait à plus de 1017 bits de données !

L'un des problèmes de la spectro-imagerie contemporaine est le fantastique débit de données qu'elle peut produire, avec tous les problèmes de transport, d'archivage et de dépouillement qu'elle entraîne.

 


Spicules

Il s'agit d'un jet fin de matière, de 1 000 km de diamètre et de 10 000 km de long, issu de la chromosphère solaire. Les spicules sont notamment observés aux bords du disque solaire, dans les raies chromosphériques (raies de Balmer de l'hydrogène, Ha ; raies du calcium ionisé une fois *H et K* ainsi que les raies du magnésium ionisé une fois). Leur durée de vie est relativement courte (5 à 10 minutes), ce qui leur communique une apparence semblable à une pelouse d'herbe balayée par le vent. Les spicules sont particulièrement concentrés aux bords des cellules du réseau chromosphérique de supergranulation.


Supernova

Classement

Avec l'accroissement des statistiques, il devint très vite clair que toutes les supernovae n'étaient pas identiques: leur luminosité maximale était très différente d'une supernova à une autre, leurs courbes de lumière n'avaient pas la même allure, et surtout leurs spectres ne présentaient pas du tout les mêmes raies.

Spectres

La spectroscopie est l'analyse de la lumière envoyée par un objet suivant plusieurs longueurs d'onde. Les informations fournies sont d'une grande richesse: les raies présentes dans un spectre sont caractéristiques de tel ou tel élément chimique (hydrogène, carbone, silicium, fer, etc.). La hauteur de ces raies permet d'estimer l'abondance de l'élément correspondant, leur largeur d'en estimer la vitesse (par effet Doppler) et la température. La variation d'un spectre au cours du temps informe sur la dynamique de l'objet (on peut ainsi détecter des étoiles doubles en orbite l'une autour de l'autre), ou sur la variation de sa composition chimique.

La classification des supernovae repose essentiellement sur leur spectre, et plus précisément sur la présence ou l'absence de raies caractéristiques de certains éléments chimiques.

 

Le spectre d'une supernova de Type I est essentiellement un spectre de corps noir sur lequel se superposent les raies d'absorption du silicium ionisé (Si II), du calcium, du magnésium et du fer. La largeur des raies, apparente sur la figure précédente, témoigne de la grande vitesse d'expansion de l'enveloppe de la supernova lors de l'explosion (élargissement de raies par effet Doppler). Quelques semaines plus tard, le spectre se modifie et montre de fortes raies d'émission dues au cobalt et au fer, témoignant de la composition interne de l'étoile après son explosion (la lumière ne parvient à s'échapper de l'intérieur qu'après plusieurs semaines, quand l'opacité a suffisamment diminué en même temps que la densité).

Les courbes de lumière

La luminosité d'une supernova augmente extrêmement vite pendant la quinzaine de jours qui suit l'explosion, puis décroît plus lentement au cours des mois qui suivent (un facteur 100 en six mois). Les courbes de lumière des supernovae de Type Ia se distinguent par leur grande uniformité: elles sont pratiquement toutes superposables les unes sur les autres, tandis que les courbes de lumière des supernovae de Types Ib-c et II montrent de grandes variations d'une supernova à une autre. Certaines supernovae de Type II montrent un "plateau" au cours des 2 mois suivant l'explosion, pendant lesquels leur luminosité diminue peu, tandis que d'autres montrent au contraire une décroissance rapide (supernovae dites "linéaires" car leur luminosité décroît exponentiellement, ce qui donne une droite dans l'échelle logarithmique généralement utilisée pour les luminosités). La raison de ces différences n'est pas bien comprise.

La courbe de lumière des supernovae de Type I montre deux décroissances exponentielles successives, dont les échelles de temps de 10 jours d'abord et de 111 jours ensuite correspondent aux périodes de désintégration radioactive du nickel 56 en cobalt 56, et du cobalt 56 en fer 56. Cela est un nouvel indice sur la nature de l'explosion: elle transforme une partie au moins de l'étoile en nickel, dont la désintégration fournit l'énergie lumineuse de la supernova.

Les supernovae de Type Ia ne se contentent pas d'avoir des courbes de lumière de même forme, mais leur luminosité absolue est également très voisine d'une supernova à une autre. Le diagramme suivant montre la luminosité au maximum telle qu'elle a été mesurée pour une cinquantaine de supernovae Ia. La plupart d'entre elles ont une luminosité voisine de 2 milliards de luminosités solaires:

Dans la mesure où la lumière des supernovae peut être fortement absorbée par la poussière du milieu interstellaire, cette valeur pourrait n'être qu'une valeur minimale. Il est heureusement possible d'estimer l'ampleur de cette absorption en comparant la lumière reçue à différentes longueurs d'onde, car la poussière absorbe beaucoup plus la lumière bleue que la lumière rouge. On constate alors que les supernovae Ia les moins lumineuses sont aussi les plus fortement absorbées, et que les observations sont ainsi compatibles avec une faible dispersion intrinsèque des luminosités des supernovae de cette classe (sans doute moins de 30% de variation entre supernovae).

Cela a une conséquence très importante pour la cosmologie: si toutes les supernovae de Type Ia ont à peu près la même luminosité absolue, ce sont des "chandelles standard", des objets dont la luminosité absolue est connue avec précision et dont la distance peut donc être directement déduite de la comparaison de cette luminosité absolue avec leur luminosité apparente (voir une lumière dans la nuit ne permet pas d'en connaître la distance, mais si on sait qu'il s'agit d'un phare et non d'une bougie, on sait qu'elle est éloignée).

Une "chandelle standard" visible de très loin constitue un remarquable indicateur de distance, d'où son intérêt en cosmologie.

Fréquences d'explosion

Les fréquences des explosions de supernovae de Type I et de Type II sont du même ordre de grandeur (bien que les mécanismes soient très différents), à ceci près que les supernovae de Type II n'apparaissent que dans le disque des galaxies spirales, et jamais dans les galaxies elliptiques. La fréquence d'explosion est étroitement corrélée à la luminosité de la galaxie-hôte, ce qui n'a rien de très surprenant: plus il y a d'étoiles, plus il y a de chances que l'une d'entre elles explose en supernova. Il est donc courant d'exprimer ces fréquences en SNU (SuperNova Unit), c'est-à-dire en nombre de supernovae explosant par siècle pour 10 milliards de luminosités solaires (ce qui est l'ordre de grandeur de la luminosité d'une galaxie "moyenne").

Le tableau suivant donne ces fréquences d'explosion, telles qu'elles résultent d'une compilation récente de plusieurs séries d'observations. Cette procédure a l'avantage de fournir un échantillon riche, mais l'inconvénient de mêler des observations menées dans des conditions très différentes (et donc de nécessiter des corrections importantes pour les harmoniser).

(snu) Galaxies elliptiques Galaxies spirales
SN Ia 0.13 0.24
SN Ib-c 0.00 0.16
SN II 0.00 0.88

Ces fréquences restent encore très incertaines (d'un auteur à un autre, les chiffres peuvent différer d'un facteur 2 ou 3) car on connaît mal l'efficacité de détection des diverses recherches systématiques (autrement dit quelle fraction est détectée parmi toutes les supernovae ayant explosé dans les galaxies surveillées). Une autre différence d'un auteur à un autre vient de l'estimation de la luminosité de la galaxie-hôte de la supernova (puisque la fréquence d'explosion en SNU est proportionnelle à cette luminosité), estimation qui nécessite d'en connaître la distance D. Celle-ci est le plus souvent calculée à partir du décalage vers le rouge z par la relation de Hubble cz=H0D, et dépend donc en pratique de la valeur adoptée pour la constante de Hubble H0, valeur sur laquelle la controverse fait toujours rage.

Le tableau précédent indique que les supernovae de Type II sont bien plus fréquentes que les supernovae de Type I, dans l'absolu, mais comme elles sont généralement moins lumineuses elles sont visibles de moins loin et leur fréquence dans les tables de découverte est plus faible. Ceci est encore plus spectaculaire pour les supernovae les plus éloignées: sur 45 supernovae ayant un décalage vers le rouge z>0.2, 33 sont de Type I et 4 seulement de Type II (8 sont de Type indéterminé). De plus, les recherches sytématiques se concentrent généralement sur les amas de galaxies, pour avoir plus de galaxies dans le champ surveillé par le télescope, et il se trouve que les galaxies des amas sont le plus souvent des galaxies elliptiques dont nous venons de voir qu'elles ne produisent pas de supernovae de Type II.

Comme il est beaucoup plus difficile d'obtenir un spectre qu'une courbe de lumière d'une supernova, beaucoup de supernovae n'ont pu être classées en Types Ia, Ib/c, IIL ou IIP (plus les supernovae "particulières" qui ne rentrent dans aucune des classes précédentes, comme la supernova de 1987 dans le Grand Nuage de Magellan). Cela était plus fréquent autrefois: moins de la moitié des supernovae détectées avant 1990 sont classées (2/3 en Type I, 1/3 en Type II), tandis que 80% des supernovae le sont actuellement (à peu près autant de Type I que de Type II).

Conclusions

Les supernovae de Type Ia montrent une beaucoup plus grande uniformité que les autres: leurs spectres sont tous quasi-identiques, de même que leurs courbes de lumière, alors que les supernovae de Types Ib/c et II montrent une grande dispersion dans leurs propriétés. Mais ce n'est que dans les années 70 que ces observations ont pu être interprétées quand la nature de l'explosion a commencé à être comprise, et qu'on a su la relier aux spectres et aux courbes de lumière: il semble que le Type Ia corresponde à l'explosion d'une étoile naine blanche ayant une masse faible mais bien précise, tandis que les Types Ib/c et II correspondent à l'explosion d'étoiles de masse élevée mais variable.

La répartition différente des supernovae de Types I et II entre galaxies elliptiques et spirales fut un indice précieux dans la construction de ces modèles d'explosion. Les étoiles massives ont une durée de vie brève (à l'échelle cosmologique, c'est-à-dire quelques millions d'années) et ne se trouvent donc que dans les régions où les formations d'étoiles se continuent encore de nos jours, c'est-à-dire les disques des galaxies spirales (étoiles de Population I, dans la terminologie de Baade). Les galaxies elliptiques n'ont pas connu de formation d'étoiles depuis très longtemps et leur étoiles massives sont mortes depuis belle lurette: il ne reste que des étoiles de petite masse qui ont aujourd'hui atteint le stade de géante rouge ou de naine blanche (étoiles de Population II).
Peut-être peut-on regretter que selon cette nomenclature les étoiles de Population I donnent des supernovae de Type II, et les étoiles de Population II donnent des supernovae de Type I...

 

 



T

Tache solaire (photosphérique)

Région de la photosphère des étoiles magnétiques ou du Soleil émettant faiblement (tache sombre) et délimitant le lieu d'intenses champs magnétiques amplifiés par effet dynamo. Ces champs magnétiques émergent des régions subphotosphériques. Le champ magnétique en profondeur inhibe la convection des couches sous-jacentes. Le gaz en surface n'étant plus mélangé avec les régions internes plus chaudes, il se refroidit, donc émet moins. La température des taches est général plus de 1 000 K inférieure à celle de la photosphère avoisinante.
S'il est possible de résoudre spatialement les taches solaires, les étoiles sont trop lointaines pour que les détails de leur photosphère soient individuellement discernables. On les détecte alors par des variations périodiques de la luminosité stellaire ; l'analyse temporelle de ces variations permet de déterminer la vitesse de rotation de l'étoile sur elle-même. En outre, l'analyse de spectres de raies d'absorption relevés au cours du temps permet de reconstruire la surface de l'étoile (c'est le principe de l'imagerie Doppler) pour les étoiles très fortement magnétiques (étoiles Ap, étoiles T Tauri, étoiles de Herbig).

Le nombre de taches solaires varie en fonction du cycle magnétique solaire. Leur durée de vie est de quelques semaines, voire exceptionnellement de quelques mois. Les taches se forment individuellement, en paires de polarité magnétique opposée le plus communément, ou en groupes.
Les taches naissent aux moyenne latitudes (environ 40 degrés) lors d'activité magnétique minimale, et se situent dans les régions de plus en plus proches de l'équateur au fur et à mesure de l'évolution du cycle magnétique vers son maximum. La température des régions centrales des taches, nommées ombres, décroît jusqu'à un à deux milliers de kelvins en dessous de la température photosphérique normale (4 700 K). L'ombre est entourée d'une région moins froide, la pénombre,  de température environ 500 K inférieure à la
température effective du Soleil. La surface de la pénombre occupe près de 80 % de la surface de la tache. La direction du champ magnétique verticale dans l'ombre devient horizontale dans la pénombre.
Les tubes de flux magnétique dans les taches bipolaires photosphériques se développent plus haut dans l'atmosphère solaire en formant les "plages" de la
chromosphère et les protubérances et boucles X de la couronne.

 


Température effective

Notée Teff, c'est en fait la température Te d'un corps noir telle que la luminosité totale associée à ce corps noir soit égale à la luminosité L* de la source observée

où R* est le rayon de la source supposée sphérique et s la constante de Stefan. La température effective, encore appelée température de surface d'une étoile est considérée comme l'une de ses propriétés fondamentales, car le rayonnement stellaire diffère peu de celui d'un corps noir : elle indique la température de la photosphère stellaire.

 

 


Trou noir

Un trou noir est une région de l'espace-temps dans laquelle le champ de gravitation régnant est si important que rien, notamment la lumière, ne peut s'en échapper. Seule la relativité générale permet de décrire correctement ce couplage entre gravité et lumière. Au sein de cette théorie, la possibilité de trous noirs existe, mais la très grande vraisemblance de leur existence physique dans l'Univers peut désormais être considérée comme acquise.

La théorie du trou noir
L'existence d'une vitesse de libération (vitesse permettant de s'éloigner à l'infini) v au voisinage d'un corps sphérique, de centre O, de masse M et de rayon R

indique, classiquement, que lorsque M est grand ou R petit, v dépasserait la vitesse de la lumière c, ce qui est impossible. Cela induit l'idée d'un "horizon", valeur de la distance r à O en deçà de laquelle aucun photon ne peut s'échapper de l'objet (d'où la dénomination de "noir"). Pour M = masse solaire, le rayon de cet horizon est de l'ordre du kilomètre.
La relativité générale précise cette notion, déjà intuitive chez Laplace au XVIIIème siècle. L'horizon est une surface sphérique de non-retour : particules ou lumière peuvent le franchir en se dirigeant vers l'intérieur, mais non en sens inverse. Cette surface ne présente aucune discontinuité du champ de gravitation : si, par exemple, un observateur extérieur mesurait le rayonnement d'un atome (considéré comme un oscillateur ou une horloge) distant à O de r et s'enfonçant vers O, il constaterait une dilatation progressive et indéfinie de la période, à proportion de la quantité

donc une dilatation du temps tel qu'il l'observe au fur et à mesure à l'approche de l'horizon, lequel pour cet observateur ne sera jamais franchi (effet relativiste de dilatation du temps ou de ralentissement des horloges dans un champ de gravitation).
Le trou noir est une singularité de l'espace-temps : instable, il ne cesse de s'effondrer sur lui-même - la Physique ne sait pas décrire, dans l'intense champ de gravitation interne, le comportement quantique de la matière (théorie quantique de la gravitation) qui pourrait, le cas échéant, arrêter cet effondrement. A l'intérieur de l'horizon, il n'est donc pas possible de décrire le trou noir ; à l'extérieur, le trou ne laisse la trace de sa présence que par son champ gravitationnel (masse M), son éventuel champ électrique s'il est chargé électriquement, et sa rotation si elle existe (moment angulaire), toutes grandeurs qu'il est possible de lui assigner (par exemple, la conservation du moment angulaire avant et après l'effondrement) ; ce sont de telles traces, notamment la première et la plus simple, qui permettent de rechercher et d'identifier la présence des trous noirs.
Le rayonnement de Hawking est un phénomène quantique particulier, à savoir la possibilité pour un trou noir de rayonner très faiblement "de l'intérieur", donc de perdre de l'énergie ou de s'évaporer avec une extrême lenteur (température effective de 10-7 K, quasiment négligeable et pratiquement indétectable) : ce phénomène pourrait limiter la durée de vie des trous noirs de très faible masse (inférieure à la masse solaire) qui auraient pu se former dans la phase primordiale de l'Univers, et est donc indirectement important par ses conséquences.

Recherche des trous noirs
On sait qu'au-delà d'une masse de l'ordre de 2,4 masses solaires, une étoile à neutrons n'est pas stable et s'effondre en trou noir : la valeur précise n'est pas connue, faute d'une détermination exacte de l'équation d'état de la matière neutronique dans les conditions de température et de pression d'une étoile à neutrons.
Les systèmes binaires galactiques, émetteurs de rayons X (les "binaires X"), sont le lieu naturel de recherche de trous noirs : leur intense émission X signe l'existence d'un phénomène d'accrétion entre un objet massif et compact, au moins une étoile à neutrons, et son compagnon. La binarité permet de déterminer les masses des composantes, moyennant une incertitude sur l'inclinaison i du plan de l'orbite par rapport au plan du ciel, ce qui fournit une valeur limite inférieure de la masse, variant comme sin3 i. Si l'une des lasses dépasse la valeur critique comprise entre 1,4 et 4 masses solaires, la présence d'un trou noir devient vraisemblable.
Parmi la centaine de binaires X connues dans la Galaxie, une fraction importante contient indiscutablement une étoile à neutrons, repérée observationnellement soit par le rayonnement pulsé caractéristique d'un pulsar, soit par les intenses bouffées de rayons X émis par les flashes thermonucléaires d'accrétion à sa surface. Quelques systèmes, en revanche, conduisent à identifier le compagnon comme un trou noir : le premier candidat a été la source Cygnus X-1, et l'un des plus sûrs est l'objet A0620-00 (dans la constellation Monoceros), compagnon d'une étoile naine de type K7.
La méthode ci-dessus est la seule approche sûre pour déterminer la masse d'un objet qui serait un trou noir. Mais d'autres sites astrophysiques contiennent très vraisemblablement des trous noirs. Le premier est le centre de notre Galaxie, dans lequel se trouve une intense radiosource (Sagittarius A), qui ne peut être ni une étoile, ni un pulsar, ni un reste de supernova car elle ne présente pas de vitesse radiale significative. L'observation du gaz autour de SgrA révèle des vitesses circulaires importantes (300 km/s) que l'on peut interpréter comme un mouvement de rotation képlerien autour d'un objet massif de 106 masses solaires.

Un dossier sur les trous noirs


 

Tully-Fisher (relation de)

La relation de Tully-Fisher, du nom des deux astronomes anglais qui l'ont découverte en 1977, relie la vitesse maximale Vm de rotation d'une galaxie spirale à sa luminosité. Cette loi empirique prend la forme suivante :

M = a log Vm + b

où les coefficients a et b représentent la pente et le point-zéro de la relation. Pour la bande photométrique B, les valeurs acceptées actuellement sont a = -5,8 et b = -8,0.

La mesure du maximum de la vitesse de rotation observée permet alors d'estimer la magnitude absolue, et par comparaison avec l'éclat apparent mesuré, d'en déduire la distance. C'est une relation de type masse-luminosité qui rend compte du fait que, plus une galaxie est massive :
  1. plus elle tourne vite,
  2. et plus elle est lumineuse.
La vitesse de rotation est mesurée à partir de l'émission du gaz contenu dans le disque. Cette mesure se fait essentiellement soit à partir d'une courbe de rotation de la galaxie obtenue en spectroscopie optique (analyse de la raie Ha de l'hydrogène en émission), soit à partir du spectre radio autour de 1420 MHz (analyse de la raie à 21 cm de l'hydrogène neutre). Ce critère permet d'atteindre une précision de 15 à 25 % sur les distances.
On obtient une bonne calibration de la relation Tully-Fisher en utilisant les étoiles
céphéides qui ont été observées par le télescope spatial Hubble dans une bonne trentaine de galaxies spirales proches.

 


 

V

Viriel (théorème du)
Théorème de mécanique relatif à un système de particules en interaction gravitationnelle et en mouvement relatif les unes par rapport aux autres, lorsque le système a atteint un état d'équilibre stationnaire. Ce théorème énonce que

2 < T > + < W > = 0

où < T > et < W > sont respectivement l'énergie cinétique et potentielle moyennes de l'ensemble des particules. Il peut être généralisé à des systèmes ayant d'autres formes d'énergie interne, par exemple magnétique. Ce théorème est abondamment utilisé en astrophysique, soit que < T > et < W > soient directement mesurables (amas galactiques, amas globulaires d'étoiles) et qu'on veuille savoir si le système a atteint l'équilibre, soit qu'au contraire on suppose cet équilibre, soit qu'au contraire on suppose cet équilibre et qu'on veuille en déduire la masse totale du système (mise en évidence de la masse cachée).


 

Vide

Le vide des astrophysiciens est bien loin du néant des philosophes. Ce vide a des propriétés précises : défini comme une portion d'espace ne contenant pas de matière, il contient néanmoins l'énergie des particules dont la masse est au repos est nulle (photons) ou éventuellement nulle (neutrinos ?) et qui s'y propagent, et cette énergie peut s'échanger (matérialisation). La vitesse de la lumière y possède une valeur bien précise.
En théorie des champs, le vide représente l'état d'énergie la plus basse du système considéré, obtenue pour une valeur du champ qui n'est pas nulle, ce qui peut heurter l'intuition. Ce vide est donc un milieu doté de propriétés complexes, qui change d'état en fonction de la température du rayonnement qui le parcourt : ainsi, dans les modèles cosmologiques, 5.10-6 s après la singularité se produit une transition de phase du vide, l'Univers devient opaque aux quarks et cette transition oblige ceux-ci à se lier en nucléons pour pouvoir circuler dans le vide.
Par ailleurs, l'énergie radio est émise dans une région radio extrêmement compacte : l'interférométrie la montre d'une taille inférieure à 13 ua, soit cent fois le rayon de Schwartzschild RG d'un trou noir de masse 106 masses solaires. D'autres signes vont dans le même sens, mais l'absence de contrepartie infrarouge pour cet objet intrigue, car un intense rayonnement infrarouge devrait être produit par l'accrétion.
Les noyaux actifs des galaxies, particulièrement les quasars, ne peuvent produire ni la puissance considérable (1040 W) qu'ils émettent ni le spectre qui les caractérise à partir des réactions thermonucléaires stellaires habituelles. Cela conduit à assigner cette puissance à une transformation directe de l'énergie gravitationnelle en rayonnement dans un processus d'accrétion. La masse mise en jeu doit être considérable (jusqu'à 109 masses solaires) et compacte, ce qui conduit à considérer l'éventualité de la présence de trous noirs supermassifs au centre de ces objets.