CHAPITRE I

LA PHYSIQUE DES IONS LOURDS AUX ÉNERGIES INTERMÉDIAIRES

I.1 – Généralités

Le domaine d’énergies de bombardement que l’on dénomme intermédiaire ou de Fermi pour les collisions entre ions lourds s’étend environ de E/A = 10 MeV à 100 MeV, soit proche de l’énergie de Fermi des noyaux. C’est un carrefour où se croisent les mécanismes de réaction qu’on rencontre aux deux extrémités de l’échelle d’énergie, et qui ont des caractéristiques opposées de par les effets qui y dominent. L’étude de ce domaine requiert donc une connaissance minimale de ces mécanismes, que nous allons présenter dans les paragraphes qui suivent. Cette spécialité rentre dans le cadre plus général des phénomènes de transition caractérisés par la nécessité de mesurer beaucoup d’observables simultanément. Mais elle détient en plus l’originalité, et même l’unique opportunité à l’heure actuelle, de traiter d’un système à peu de particules avec des interactions à longue portée. C’est donc à la fois un chalenge, mais peut-être aussi une impasse, qui s’offre à nous.

I.2 – Mécanismes de réaction à basse énergie

I.2.i Caractéristiques générales

Lorsque l’énergie de bombardement est faible (< 10 MeV/nucléon,) tout en restant supérieure à la barrière Coulombienne, les noyaux en interaction sont peu affectés par leur mouvement relatif. Les processus qui se déroulent restent donc relativement simple et ne font souvent intervenir qu’un nombre restreint de degrés de libertés. Les énergies d’excitation ainsi atteintes sont forcément faibles et donc quantifiées, ce qui va jouer un rôle important dans les réactions les moins violentes. La longueur d’onde associée à un nucléon du projectile est grande par rapport à la distance moyenne entre deux nucléons de la cible, et les détails de la structure interne ne pourront donc pas se manifester. Par contre, la longueur d’onde associée au mouvement relatif des noyaux est suffisamment petite pour permettre de le décrire dans la limite classique. Ce sont les caractéristiques macroscopiques qui seront significatives pendant la réaction. Les impulsions internes des nucléons d’origine quantique — appelées les moments de Fermi — ont une valeur typique de 250 MeV/c, soit une énergie proche de 40 MeV, qui est beaucoup plus grande que l’énergie relative par nucléon des partenaires de la réaction. La matière nucléaire a donc le temps de se réarranger face aux perturbations générées par la collision. On se trouve alors à chaque instant dans un état proche de l’équilibre pour ce qui concerne les degrés de liberté intrinsèques. Tous les états en dessous du niveau de Fermi étant déjà occupés, si deux nucléons diffusent l’un sur l’autre, ils devront acquérir une énergie assez élevée pour atteindre un état libre, ce qui ne peut se produire que rarement. Les nucléons peuvent donc être considérés comme indépendants les uns des autres.

A basse énergie, on verra donc le noyau comme un objet caractérisé par sa taille, sa forme, sa densité et son spectre d’énergie.

I.2.ii Le champ self consistant de Hartree-Fock dépendant du temps (TDHF)

Les caractéristiques générales des réactions nucléaires à basse énergie justifient certaines approximations utiles à la description des réactions [NE82, DA84]. D’abord, le fait que les nucléons peuvent être considérés comme indépendants permet de ne garder que des observables à un corps — c’est-à-dire que les opérateurs qui les représentent n’agissent que sur des fonctions d’onde à une particule — et de négliger notamment les interactions résiduelles à deux corps. L’état des noyaux sera donc représenté par un déterminant de Slater d’états à une particule, vecteurs propres d’un Hamiltonien à un corps, qui contient la somme des énergies cinétiques et un champ moyen créé par tous les nucléons. Ce champ est autoconsistent au sens que la fonction d’onde qu’on en déduit en résolvant l’équation de Schrödinger donne un champ moyen — via le potentiel d’interaction entre deux nucléons — identique à celui de départ. L’évolution dans le temps est obtenue par l’équation de Schrödinger dépendante du temps déduite de l’Hamiltonien dans lequel le champ moyen varie en fonction du temps sous la condition de l’autoconsistence, utilisant ainsi le fait que la fonction d’onde varie suffisamment rapidement par rapport au champ moyen.

Les effets décrits dans cette approximation sont souvent appelés « effet de champ moyen », ce qui signifie que chaque nucléon a le temps d’interagir avec tous les autres avant que la densité nucléaire n’ait encore changé notablement. Les collisions relativement centrales sont bien reproduites par ce formalisme, bien qu’il n’apporte pas une compréhension très détaillée.

I.2.iii Les mécanismes

Les mécanismes de réaction à basse énergie se répartissent en deux classes opposées sur la base du temps d’interaction. S’il est très court par rapport au temps de traversée du noyau par un nucléon ayant l’impulsion de Fermi, c’est une réaction directe. En fait partie bien sûr la diffusion élastique, mais aussi l’excitation Coulombienne et les transferts de nucléons ou de particules plus complexes d’un noyau à l’autre.

A l’autre extrême, le temps de réaction est comparable à celui nécessaire à un noyau pour atteindre l’équilibre thermique. Un noyau composé se forme alors, constitué par tous les nucléons du projectile et de la cible [NG86]. Il se désexcite de façon pratiquement indépendante de la voie d’entrée soit par évaporation, soit par fission.

Entre ces deux limites, il y a les collisions dissipatives [KA59, KA61, ST73, SC84] où un système dinucléaire est créé, et finit par se reséparer pour donner deux noyaux qui ont une distribution de masse centrée sur celle des noyaux initiaux, et de plus en plus large à mesure que l’énergie dissipée augmente. Il se produit également un transfert de moment angulaire orbital en faveur des spins. La distribution d’énergie cinétique relative présente deux composantes : le quasi-élastique, proche de l’énergie cinétique de la voie d’entrée, et le profondément inélastique où l’énergie relative s’étend jusqu’à la valeur de la barrière Coulombienne. La fonction de déflexion dépend qualitativement du paramètre de Sommerfeld modifié [GA76] : $\eta'=Z_1Z_2e^2/h\nu'$ où $\nu'$ est la vitesse relative au sommet de la barrière. Si $\eta'$ est grand (> 250 – 300) l’angle de diffusion augmente avec l’énergie dissipée ; pour les valeurs intermédiaires, il reste proche de l’angle d’effleurement ; et si $\eta'$ est petit (< 150 – 200), il y a orbiting, c’est-à-dire qu’il diminue, passe par 0, puis prend des valeurs négatives de plus en plus grandes.

I.3 – Mécanismes de réaction à haute énergie

I.3.i Caractéristiques générales

A haute énergie (> 100 MeV/nucléon), les collisions deviennent beaucoup plus violentes ; les noyaux initiaux perdent leur structure et leur intégrité et peuvent beaucoup se déformer ou se désagréger. Les transformations deviennent si rapides qu’on se trouve la plupart du temps loin de l’équilibre, et que les perturbations n’ont pas le temps d’atteindre toutes les parties du système durant la réaction. De ce fait, certains nucléons se comportent comme des spectateurs. La longueur d’onde associée à un nucléon devient petite devant la distance moyenne entre deux nucléons. Tous les degrés de liberté intrinsèques seront donc concernés, et la limite classique ou semi-classique sera suffisante pour les décrire. Les mouvements de Fermi, qui n’ont d’ailleurs plus de sens dans un traitement classique, auront donc une influence négligeable. L’énergie de liaison devient elle aussi négligeable devant l’énergie relative des deux noyaux et l’énergie d’excitation accessible. Un noyau n’aura donc pas la possibilité de survivre et de garder son identité à une telle température, ce qui entraîne la perte du concept de noyau lié pour aboutir à la notion d’ensemble de nucléons en interaction. Lors de la collision entre deux particules constituantes, tout l’espace de phase reste disponible car on est très loin du niveau de Fermi, donc les corrélations à deux corps deviennent plus importantes.

A haute énergie, le noyau se présente donc comme un ensemble de particules classiques qui n’interagissent entre elles que deux à deux lors de collisions individuelles.

I.3.ii Le modèle de cascade intranucléaire

Les approximations applicables à la description des réactions à haute énergie sont donc évidentes [BE88]. Les nucléons seront considérés comme des particules classiques, et on suivra au cours du temps l’évolution de leur position et de leur impulsion. Ils n’interagiront que lors de collisions à deux corps et formeront une cascade à l’intérieur des noyaux. Les conditions initiales seront données par une distribution en position qui reproduit la densité du projectile et de la cible. Les impulsions sont soit prises toutes égales à l’impulsion par nucléon du noyau correspondant, soit distribuées comme dans un gaz de Fermi. Ensuite chaque particule se déplace en ligne droite jusqu’à ce qu’elle arrive à une distance d’une autre inférieure à une valeur donnée par la section efficace totale d’interaction de deux nucléons libres. Les deux trajectoires sont alors déviées d’un angle distribué selon la section efficace différentielle expérimentale [CU80, CU81].

Pour les collisions les plus centrales, ce modèle est suffisant, mais pour les périphériques, nous avons vu que certains nucléons jouaient le rôle de spectateurs. Dans ces circonstances, les approximations précédentes ne sont plus tout à fait justifiées. Cette difficulté est surmontée en ajoutant un « champ moyen » dans lequel se trouvent les nucléons avant la réaction [YA79, YA81, GU78]. Ce champ se déplace en même temps que les noyaux, et les particules qui n’ont pas encore eu de collision sont vues par les autres comme un milieu continu, défini par une densité et un libre parcours moyen.

I.3.iii Les mécanismes

A haute énergie, deux cas se présentent selon le paramètre d’impact. Pour les collisions centrales, on assiste à l’explosion complète du système, et on observe une grande multiplicité de fragments de tailles diverses. Il semble que la matière nucléaire soit compressée dans la phase initiale, puis se détende dans la direction transverse. Il a même été avancé qu’une onde de choc se forme, éjectant la matière à un angle privilégié [SC74, BA75, AM75], mais la signature expérimentale est très controversée [GU78].

Dans les collisions périphériques, les nucléons se séparent en deux classes : les participants, qui sont ceux qui se trouvent dans la région de recouvrement des deux noyaux sur une trajectoire rectiligne, et les spectateurs dont le mouvement reste inaltéré [LY87]. Le modèle d’abrasion-ablation décompose ce mécanisme en deux étapes. Pendant l’abrasion, les participants forment une boule de feu (fireball), de laquelle les particules s’échappent librement, ou excitent la matière froide environnante soit en y éjectant des nucléons, soit en y étant capturés [OL79]. Durant l’ablation, les noyaux ainsi créés évaporent encore des particules jusqu’à désexcitation complète. La zone participante est vue comme une source ponctuelle, définie par une vitesse déterminée par l’apport relatif de chacun des noyaux, et par une température effective. La déviation qu’on observe par rapport à l’isotropie est reproduite par des améliorations de ce modèle comme par exemple celui des tubes de feu (firestreak) [MY78], où chaque élément cylindrique d’axe parallèle à celui du faisceau est indépendante des autres et a une vitesse calculée comme pour la boule de feu, mais pour chaque élément séparément.

Quant aux spectateurs, ils ont une énergie d’excitation, outre celle due à l’interaction avec la zone participante, qui vient de leur excès de surface par rapport à la forme sphérique. Ils peuvent soit rester entiers dans le mécanisme de spallation, soit donner naissance à un ensemble de fragments ayant une distribution de masse en \(A^{-\tau}\) avec \(\tau\) compris entre 2 et 3 dans celui de fragmentation [HU85]. La distribution en impulsion longitudinale des produits de la fragmentation est une Gaussienne centrée sur une vitesse légèrement inférieure à la vitesse du projectile ou très proche de zéro pour la cible, et de variance obéissant à la systématique [MO89] : \[\sigma^2={A(A_0-A)\over A_0-1}\sigma_0^2\] où \(A_0\) et \(A\) sont les nombres de masse du noyau initial et du fragment. Selon le modèle de Goldhaber [GO74], \(\sigma_0^2\sim p_F^2/5\) ; \(\sigma_0\sim\) 110 MeV/c, \(p_F\) étant l’impulsion de Fermi. Expérimentalement, \(\sigma_0\sim\) 90 MeV/c, ce qui est légèrement, mais significativement inférieur à la valeur théorique, mais celle-ci suppose que les nucléons de la zone participante sont pris n’importe où dans le noyau, ce qui n’est pas très réaliste [FR83].

I.4 – Le régime intermédiaire de réaction

I.4.i Caractéristiques générales

Fatalement, les approximations présentées jusqu’ici, et qui se basaient sur des conditions extrêmes et opposées, doivent perdre leur justification lorsqu’on est dans le domaine intermédiaire, qui est par conséquent non perturbatif. Toutes les transitions sont alors concentrées dans un petit intervalle de vitesses relatives. Dans celui-ci, la longueur d’onde d’un nucléon du projectile est de l’ordre de grandeur de la distance inter-nucléonique, et sa vitesse est comparable à celle de Fermi et du son dans la matière nucléaire. Les sphères de Fermi des deux noyaux se recouvrent à peu près à moitié, réduisant d’autant le blocage de Fermi, sans le faire disparaître complètement. Enfin, l’énergie d’excitation déposée dans le noyau de fusion éventuel est très proche de son énergie de liaison, ce qui fait que le temps caractéristique d’évaporation d’un nucléon avoisine celui de la réaction. Tout cela est compris dans un domaine d’énergie incidente située approximativement à 10 – 100 MeV par nucléon, et qui contient les transitions suivantes : collectif – individuel, diabatique – adiabatique, un corps – deux corps, déterministe – statistique, cohérent – incohérent, et même transition de phase de la matière nucléaire.

Le mouvement relatif et les mouvements internes influent donc fortement l’un sur l’autre et, comme il est connu pour toutes les transitions [WI83], les degrés de liberté de toutes les échelles d’observation jouent un rôle et sont liés entre eux. Cela veut dire que, outre les noyaux en tant que tels et les nucléons, il faut encore considérer les sous-structures internes, comme par exemple les α et les particules plus complexes. Les phénomènes à un corps (ou plus exactement à A corps) et à deux corps, plutôt que d’être en compétition, ou simplement superposés, coopèrent donc étroitement pour donner naissance à une pléiade de possibilités.

Une description théorique devra donc être complète, et ne pourra s’appuyer que sur un nombre minime d’approximations.

I.4.ii Les équations de Landau-Vlasov, Boltzmann-Uehling-Uhlenbeck, etc.

Nous avons de chaque côté de l’échelle deux formalismes ne prenant en compte que deux aspects complémentaires de la dynamique. L’idée est de les réunir pour obtenir une description complète. En prenant une approximation d’ordre supérieur de l’équation de Schrödinger exacte du système, on fait entrer dans les équations TDHF décrivant la densité à un corps, des termes faisant intervenir les corrélations à deux corps, appelés termes de collision. Ces équations sont très difficiles à résoudre, surtout pour des systèmes à beaucoup de particules. A cause de cela, on utilise une approximation semi-classique, étant donné qu’elle est à peu près justifiée dans le domaine d’énergie considéré. Dans cet esprit, la fonction d’onde est remplacée par une densité dans l’espace de phase en effectuant la transformée de Wigner : $$f(\vec r,\vec p)={1\over(2\pi)^{3/2}}\sum_{i=1}^A\int e^{-i\vec p\cdot\vec x/\hbar} \Psi_i^*\left(\vec r-{\vec x\over2}\right)\Psi_i\left(\vec r+{\vec x\over2}\right)d\vec x$$

La fonction ainsi obtenue peut prendre des valeurs négatives dans le cas quantique, mais on lui impose d’être positive par les conditions initiales. L’équation de TDHF après cette transformation et élimination des termes d’ordre supérieur en $h$ devient l’équation de Vlasov, qui est une de Fokker-Plank : $$\partial_tf=\vec\nabla_p{\scr H}\cdot\vec\nabla_rf-\vec\nabla_r{\scr H}\cdot\vec\nabla_pf$$ où ${\scr H}$ est l’Hamiltonien classique de Hartree-Fock. Pour introduire les corrélations à deux corps, la transformée de Wigner du terme de collision conduit à un terme similaire qui s’ajoute à l’équation de Vlasov, devenant alors l’équation de Landau-Vlasov, encore appelée Vlasov- ou Boltzmann-Uehling-Uhlenbeck [BE88]. Afin de satisfaire au principe d’exclusion de Pauli, $f$ doit avoir une valeur toujours comprise entre 0 et 1, ce qui impose une forme particulière au terme de collision.

Ce formalisme a encore quelques inconvénients, puisqu’il ne permet pas de décrire les fluctuations statistiques, et qu’il ne fournit que la densité de particules, sans prédire si elles sont liées ou non. Néanmoins, c’est celui qui a été le plus utilisé jusqu’à maintenant.

I.4.iii Autre approches microscopiques

D’autres méthodes de calcul ont aussi été appliquées à la description des collisions nucléaires, de façon à ce qu’elles introduisent les effets les plus importants. Souvent, elles sont une amélioration ou une modification d’un formalisme déjà existant. C’est le cas de TDHF étendu, ou ETDHF [OR79, MA80, AY80, GR81, WO83, KO84]. Dans l’approximation TDHF, l’évolution d’un état à une particule, qu’il soit occupé ou non, est déterminée par l’Hamiltonien de Hartree-Fock dont le champ moyen est lié aux nombres d’occupations, qui sont des constantes puisque les nucléons sont considérés comme indépendants. Cependant, les corrélations à deux corps, qui n’ont pas encore été incluses, vont modifier les nombres d’occupation, et globalement, attirer le système vers l’équilibre thermique. On obtient donc ETDHF en ajoutant une équation maîtresse portant sur les nombres d’occupation. Le degré de complexité auquel on accède rend impératif certaines simplifications qui diffèrent suivant les implémentations. Elles reposent souvent sur le même principe qui consiste à faire évoluer le système vers l’équilibre thermique à une vitesse déterminée par une constante de temps [KO80].

A l’opposé, on a la possibilité d’adapter des formalismes valables à haute énergie, comme la dynamique des fluides (dont l’application la plus commune est tout simplement le modèle de la goutte liquide). Les équations du mouvement expriment la conservation de la masse, de l’impulsion et de l’énergie, et découlent d’une équation d’état de la matière nucléaire [GL59, AM75, AM77, BE75]. Elles sont aussi accessibles à partir de TDHF ou ETDHF [WO75, WO77a, WO77b, WO78, WO79].

Le modèle de cascade intranucléaire, après amélioration pour lui ajouter les propriétés qui deviennent nécessaires, donne la dynamique moléculaire quantique (QMD) [AI86, AI88, AI91]. Chaque nucléon est représenté par un paquet d’onde de dispersion minimale : \[\psi(\vec r,t)=\exp\left\{\alpha^2(\vec r-\vec r_0)^2/2+i\vec p_0\cdot\vec r/\hbar\right\}\] où \(\vec r_0\) et \(\vec p_0\) et sont les positions et les impulsions moyennes, et \(\alpha\) est gardé constant. La transformée de Wigner de cette fonction est une Gaussienne dans l’espace des phases. L’interaction entre les nucléons comporte trois termes : Coulombien, nucléaire, et pour tenir compte de l’exclusion de Pauli, un terme dépendant de l’impulsion pour les particules proches l’une de l’autre dans l’espace de phase. Les valeurs moyennes \(\vec r_0\) et \(\vec p_0\) sont propagées selon la dynamique classique, sauf quand deux nucléons passent suffisamment près l’un de l’autre ; ils sont alors diffusés dans une direction aléatoire et isotrope. Ce modèle permet de bien décrire la densité dans l’espace de phase, la formation de fragments et leur état d’excitation, et introduit en plus les fluctuations statistiques qui sont absentes dans les équations de Landau-Vlasov.

La dynamique des quasi-particules (QPD) [BOA88a, BOA88b] est un modèle très semblable. Il diffère uniquement dans le mode detraitement des collisions : pour chaque paire de nucléons, on choisit deux points au hasard dans l’espace de phase, selon la distribution spécifiée par la transformée de Wigner. Si la distance entre ces points est inférieure à une valeur donnée, les impulsions des nucléons sont modifiées de manière déterminée par la conservation de l’énergie et du moment angulaire.

I.5 – Nouveaux concepts impliqués

I.5.i Les noyaux chauds et l’équation d’état de la matière nucléaire

Un des principaux intérêts des réactions entre ions lourds aux énergies intermédiaires est de pouvoir créer et étudier la matière nucléaire dans des états extrêmes de température et de pression. Ceci avait déjà été tenté à haute énergie, mais sans succès car il n’a pas été possible de trouver de signature claire étant donné que le modèle de cascade intranucléaire suffisait pour reproduire toutes les observables. Dans notre cas, la production de fragments complexes apporte plus de renseignements susceptibles d’être mis à profit pour remonter à l’équation d’état de la matière nucléaire. Sa connaissance trouve beaucoup d’applications, principalement en astrophysique pour comprendre la formation et l’évolution des supernovae.

On espère former des noyaux chauds à partir des mécanismes de réaction déjà connus. D’un côté, la fusion où les collisions dissipatives pourraient les chauffer de plus en plus, alors que de l’autre, la zone participante pourrait vivre assez longtemps pour qu’il soit possible de déterminer son état. Les questions qu’on se pose au sujet de ces noyaux chauds sont s’il existe une température limite au-delà de laquelle ils ne pourraient plus exister en tant que tels, et quel est leur mode de décroissance. A partir de calcul de Thomas-Fermi et de Hartree-Fock [CH74], il a été prédit que l’équation d’état aurait des propriétés identiques à celles d’un gaz de Van der Waals, et qu’il existerait donc une transition de phase liquide-gaz en dessous d’une certaine température critique, de même qu’une zone d’instabilité, la zone spinodale, où la compressibilité est négative.

I.5.ii Les résonances géantes

Le dosage équilibré entre les effets de champ moyen et les collisions à deux corps permet d’exciter efficacement des résonances géantes [SP81] de grande amplitude, car celles-ci ont une période comparable au temps de traversée mutuelle des noyaux. Ce sont des vibrations collectives qui emmagasine de l’énergie aux dépens de modes d’excitation plus complexes. Leur existence signifie que l’équilibre thermique n’est pas atteint. Elles ne se manifestent guère à basse énergie car le temps de réaction est suffisamment grand pour qu’elles soient complètement amorties, et à haute énergie car ce sont les degrés de liberté individuels qui y sont significatifs. Elles ont une grande importance, puisqu’elles diminueraient la température du système, d’où une influence sur la détermination expérimentale de la température limite, et qu’elles induiraient des corrélations dynamiques entre les produits de désintégration du noyau.

I.5.iii Les particules de prééquilibre

Le terme de particule de prééquilibre rassemble d’une manière générale toutes les particules légères qui ont été émises avant l’équilibre thermique [GR86]. De part leur origine, leur distribution angulaire n’a aucune raison d’être isotrope, et est très souvent piquée à l’avant ou à l’arrière. Leur vitesse est proche, pour le plus grand nombre d’entre elles, de celle du noyau le plus léger, et pour les autres, de celle de son partenaire de réaction [MO84].

Divers modèles expliquent leur production. Dans celui des excitons, avant d’atteindre l’équilibre, le noyau est excité dans des états qui diffèrent du fondamental seulement par quelques nucléons ayant sauté à des nivaux plus élevés. Le nombre d’excitons est défini comme le nombre de particules et de trous au-dessus et en dessous du niveau de Fermi. L’équilibre thermique implique un très grand nombre d’excitons. Le noyau évoluera donc vers des états plus complexes, et pendant ce réarrangement, des nucléons pourront acquérir assez d’énergie pour s’échapper [BL85]. Le modèle du « Fermi jet » [RA87] décrit ce qui se passe lors du transfert d’un nucléon d’un noyau à l’autre. Si ce nucléon, dans le noyau receveur, a une énergie supérieure à celle du niveau de Fermi, il se déplace en ligne droite jusqu’à ce qu’il soit absorbé, ou qu’il rencontre la surface. Dans ce dernier cas, s’il est suffisamment rapide pour passer la barrière de Coulomb, il est émis, sinon il est capturé. les particules de prééquilibre ont aussi la possibilité d’être créées par la collision de deux nucléons, mais il s’agit plutôt d’un mécanisme similaire à la formation d’une zone participante.

I.5.iv Les nouveaux mécanismes de réaction

Tout d’abord, remarquons que la notion même de mécanisme de réaction perd beaucoup de son sens à cause du grand nombre de degrés de liberté qui sont impliqués. Toutefois, dans la limite de nos connaissances, il est possible de faire un certain classement si on se réfère aux mécanismes déjà connus aux autres énergies. Nous allons donc partir de ceux-ci pour voir comment ils évoluent [GE87].

En ce qui concerne la fusion, elle est possible en dessous d’un certain moment angulaire critique déterminé par l’équilibre entre la force nucléaire, Coulombienne et centrifuge [WI73], et indépendant de l’énergie incidente. Quand celle-ci augmente, le moment angulaire d’effleurement augmente et la fusion devient de moins en moins probable, et même si elle se réalisait, le noyau de fusion serait trop excité pour exister réellement, ou tout au moins pour qu’il fissionne [LE84, CO85]. Alors la fusion devient incomplète, avec une partie seulement du partenaire le plus léger [MO84], le reste étant émis sous forme de particules de prééquilibre emportant l’énergie excédentaire. Des études systématiques montrent que l’impulsion transférée au noyau le plus lourd est seulement fonction de l’énergie par nucléon au-dessus de la barrière Coulombienne, et plafonne à une valeur proche de 180 MeV/c par nucléon [NI85]. De même, pour les collisions moins centrales, le transfert de moment angulaire devient plus faible par rapport aux énergies plus basses, et dans les mêmes conditions [NA82].

Les collisions profondément inélastiques ont été observées jusqu’à 20 MeV par nucléon, mais deviennent elles aussi incomplètes [GA82, GO87, TE88]. La largeur de la distribution de masse augmente tellement qu’elle devient comparable à la masse totale du système [GR85], et la fission des noyaux finaux est favorisée, mais n’est plus isotrope [OL80, HA82, GL82, GL83]. Les fragments émis à petit angle, s’ils viennent de réactions quasi-élastiques, ont pour la même perte d’énergie cinétique qu’à basse énergie, une vitesse proche de celle du projectile, et ont des caractéristiques semblables à ceux observé à haute énergie. Inversement, si on part des hautes énergies et qu’on diminue l’énergie incidente, la différence entre la vitesse de ces fragments et celle du projectile augmente en moyenne, et sa distribution devient asymétrique avec une queue vers les grandes différences [DAY86, BO86, GRA88]. On a donc un amortissement de plus en plus grand, dû peut-être à des transferts ou à l’excitation de résonances géantes. La largeur de la distribution varie également, et devient subitement plus petite vers 40 MeV par nucléon [MU83, ST84], ce qui pourrait être causé par des contraintes supplémentaires sur l’espace de phase, ou plus simplement par la modification de la distribution initiale par la répulsion Coulombienne [FR83]. Plusieurs modèles ont été proposés pour reproduire toutes ces observations. On aurait par exemple formation d’une zone participante qui interagirait avec les spectateurs, soit par la force nucléaire, Coulombienne et par frottement dû aux transferts de nucléons comme dans le modèle de la boule de feu adhérente [NI85], soit par fusion suivie de reséparation ou non comme dans le modèle de caléfaction [DAL86]. Le modèle en deux étapes [BON87] constitue une alternative où la formation de la zone participante est précédée d’une phase dissipative.

Pour finir, signalons que les réactions de transfert semblent subsister aux plus grands paramètres d’impact [RA84, ST89].

I.6 – Multifragmentation et formation de fragments de masse intermédiaire

I.6.i Approches statistiques

Un noyau excité décroît en évaporant des particules qui, à mesure que la température augmente, peuvent avoir des masses de plus en plus grandes, et des temps d’émission de plus en plus courts. S’il est suffisamment chaud, deux particules qui sont émises consécutivement s’influencent réciproquement, de sorte qu’on puisse considérer qu’elles le sont simultanément. C’est dans ces conditions seulement qu’on parle de multifragmentation, dont l’existence n’a par ailleurs par encore été établie expérimentalement.

Il est possible dans un premier temps d’étendre les modèles d’évaporation valables à faible énergie d’excitation aux fragments de masse intermédiaires. En toute rigueur, on ne décrit pas ainsi la multifragmentation, quoiqu’en pratique, cela semble bien reproduire les données, tout au moins celles ayant trait aux distributions de masse. Pour la décrire, il ne faut plus procéder par étape successives, mais calculer la probabilité, déterminée par l’espace de phase disponible, pour qu’une configuration de produits de désintégration donnée soit le résultat d’une seule transition [RA81, GR82, FA82, BA85, BO85a, BO85b, BO85c, BO86, XI87a, XI87b, KO87, GR90, BE90]. Si l’on étudie par cette méthode les états finaux pour le même noyau, mais qui est de plus en plus excité, on met en évidence deux transitions de phase [GRO88]. La première est liée au passage de l’évaporation à la « fission chaude », et la deuxième de la fission à la « vraie multifragmentation » où au moins trois fragments relativement lourds subsistent. Ce sont des transitions de phase d’un type nouveau, rencontrées dans un système à peu de particules avec des interactions à longue portée.

D’autres modèles plus simples permettent de reproduire certaines propriétés de la voie de sortie [HU86]. C’est le cas par exemple si l’on ne fait intervenir que le nombre de partitions possibles d’un total de $Z$ protons et $N$ neutrons pour chaque configuration de fragments, en utilisant pour cela la statistique de Fermi-Dirac, toutes les autres quantités comme les densités de nivaux étant négligées. Les probabilités des diverses configurations possibles définissent ainsi un ensemble statistique contenant le minimum d’information, ou de manière équivalente, l’entropie maximale [AI84, SOB85, SH86, SN87]. Il n’est bien sûr possible d’obtenir de cette façon que la distribution de masse, qui est en accord satisfaisant avec l’expérience. Les notions de température et d’énergie étant totalement absentes, il peut s’agir de multifragmentation « froide », comme par exemple celle des spectateurs dans une réaction à haute énergie. On voit donc que la distribution de masse ne permet pas de faire la distinction entre ces deux types de multifragmentation.

Au lieu de partir d’un noyau qui se désintègre, il est possible au contraire d’avoir un gaz de nucléons où des fragments se condensent. Le modèle de coalescence [SC63, GU76] considère que ces fragments sont constitués par les nucléons qui ont un moment relatif inférieur au moment de Fermi. D’un autre point de vue, grâce à la ressemblance de l’équation d’état nucléaire et celle de Van der Waals, la formation de ces fragments est comparable à la formation de gouttelettes dans un gaz près de la température critique [FI82, JA83].

I.6.ii Approches dynamiques

Dans les approches dynamiques, la multifragmentation est décrite comme l’évolution de la réaction par des modèles microscopiques. Mais ces derniers doivent remplir des conditions précises assurant que certaines données nécessaires à la caractérisation de l’état final soient disponibles. De plus, les mêmes conditions initiales ne doivent pas toujours donner les mêmes voies de sortie, le formalisme doit donc traiter les fluctuations statistiques.

La dynamique moléculaire quantique répond d’ores et déjà à ces exigences pour les raisons qui ont déjà été évoquées [AI88]. L’équation de Landau-Vlasov ne possède malheureusement aucune des propriétés attendues. Pour y remédier, il existe deux possibilités. La première est de mettre à profit les informations disponibles pour obtenir la distribution de celles qui manquent : on fait d’abord évoluer le système jusqu’à ce que la densité soit suffisamment faible. Ensuite, on choisit la position des \(A\) nucléons au hasard, selon la probabilité définie par la densité. Deux nucléons sont alors considérés comme appartenant au même noyau si leur distance est inférieure à une valeur fixée ; c’est le modèle d’agrégation. A cette étape, les agrégats ont une forme très irrégulière, ils sont donc remplacés par des noyaux sphériques situés à leur centre de gravité, et qui peuvent à leur tour se toucher. La procédure est alors répétée jusqu’à ce qu’ils soient tous séparés dans l’espace ; c’est le modèle d’agrégation-restructuration [LE90]. Son principal défaut vient de ce que l’instant où cette opération est réalisée est choisi arbitrairement, et que le résultat en dépend, ce qui met en cause la cohérence même du modèle. L’autre possibilité est d’inclure les fluctuations et les corrélations [AY90, RA90]. Dans ce cas, la fonction de densité dans l’espace de phase \(f(\vec r,\vec p)\) est une valeur moyenne, et on introduit une autre fonction \(\sigma(\vec r,\vec p,\vec r', \vec p')\) qui représente les corrélations entre deux points, ou la fluctuation autour de la moyenne si \(\vec r=\vec r'\) et \(\vec p=\vec p'\) [RA90]. L’approximation semi-classique des équations TDHF exprimée avec ces fonctions conduit, en plus de l’équation déjà connue pour \(f\), à d’autres portant sur \(\sigma\). A la fin de l’intégration numérique, ces fonctions décrivent les caractéristiques statistiques des états finaux.

La formation de multifragments s’explique qualitativement à partir des propriétés de l’équation d’état [CU84]. Pendant la réaction, la matière nucléaire est chauffée et compressée, ensuite elle se détend isentropiquement. Son état peut donc atteindre la zone spinodale où, à cause de la compressibilité négative, l’expansion doit s’accompagner de condensation locale, les fluctuations étant amplifiées au lieu d’être amorties. C’est pour cela qu’un modèle dynamique de la multifragmentation devra être capable de créer et de traiter les fluctuations de manière cohérente.

Tous les modèles et expériences donnent une distribution de masse de la forme \(\sigma(A)\propto A^{-\tau}\) [FI82, CH83, HU85, HU86, TR89, MI91a, MI91b], ce qui mène à l’idée que cette loi a une origine fondamentale et commune à tous les systèmes près d’un point critique, et suggère la conjoncture suivant : l’ensemble des nucléons formerait au moment de la décroissance une structure fractale de dimension \(\delta\) dans l’espace — ce qui signifie qu’un volume de rayon \(r\) contient un nombre proportionnel à \(r^\delta\) de nucléons — et la probabilité de trouver un noyau de masse \(A\) serait inversement proportionnelle au volume qu’il occupe dans cette structure, c’est-à-dire proportionelle au nombre de fois qu’il est contenu dans le volume total. Cela nous donnerait les relations : \[r_A\propto A^{1/\delta}\] \[f(r_A)dr_A\propto r_A^{-3}dr_A\] \[f(A)dA\propto A^{-(2+\delta/\delta)}dA\] Nous obtenons donc \(\tau=(2+\delta)\delta\), et comme \(1\lt\delta\lt3\), nous trouvons \(1,67\lt\tau\lt3\), ce qui représente correctement l’intervalle des valeurs qui ont déjà été déterminées. La loi en puissance ne serait donc qu’un aspect des structures fractales associées aux phénomènes critiques.

I.7 – Un peu de philosophie...

I.7.i état des lieux

Puisqu’un problème bien posé est à moitié résolu, il convient avant de se lancer dans l’étude expérimentale, de prendre le temps de réfléchir à la situation sur la base des connaissances déjà acquises, et dont un aperçu est exposé dans ce qui précède. Il est bon ici de remarquer que pendant bien longtemps, les études de ce genre ont très rarement, sinon jamais été menées, car on s’est plutôt borné à traiter les cas du genre perturbatif, symétrique, linéaire, proche de l’équilibre, pas trop loin de zéro. C’est l’avènement de l’informatique et du calcul numérique intensif qui ouvre aujourd’hui tout un horizon inexploré en nous permettant de modéliser des processus de plus en plus complexes, c’est-à-dire en fait les plus courants, et même les seuls dignes d’intérêt. Les quelques résultats qui ont ainsi déjà été obtenus se sont d’ailleurs souvent avérés contraires au bon sens.

La physique nucléaire aux énergies intermédiaires se place bien dans ce cadre, qui comporte donc de nouvelles difficultés spécifiques qui n’ont pas encore bien été identifiées et surmontées. La principale est la confrontation entre la « force brute » et notre façon de raisonner, analytique et basée sur des concepts. Ceux-ci sont des bouées auxquelles on s’accroche désespérément pour ne pas boire la tasse de la remise en cause totale, ce qui mène à des non-sens ou à des déplacements de problème qui sont schématiquement de quatre types :

Le nombre de phénomènes possibles devenant très grand, il dépasse les limites de l’imagination, si bien que certaines choses peuvent sembler découler logiquement de faits déjà connus ou d’hypothèses, tout simplement parce que la possibilité qui servirait de contre-exemple n’a pas été envisagée.

Si on fait des mesures inclusives pour étudier un problème particulier, il devient beaucoup plus simple, mais les données ainsi recueillies ne sont pas assez complètes (on comprend tout mais on ne voit rien), tandis que les expériences exclusives deviennent très difficiles à interpréter (on voit tout mais on ne comprend rien). Si on utilise des variables plus synthétiques ou « globales » pour en diminuer le nombre, on revient au cas inclusif car on intègre sur les valeurs mesurées, alors qu’avant c’était sur les non mesurées.

La physique nucléaire, même dans les cas les plus simples se heurte déjà à de grandes difficultés. On traite d’un système à \(N\) corps alors que deux corps causent déjà de nombreux problèmes, ne serait-ce que parce qu’on ne connaît pas le potentiel d’interaction, si tant est qu’il existe au sens où il y a saturation de la force nucléaire, des interactions à trois corps… On ne sait pas non plus si les degrés de liberté à prendre en compte sont nucléoniques, ou si la structure en quarks joue un rôle.

Enfin on cherche à définir des mécanismes par rapport à ceux déjà connus à d’autres énergies, en cherchant à attribuer une des extrêmes à chaque observation, risquant ainsi d’omettre des possibilités relevant de la synergie des deux, ou complètement nouvelles.

Pour finir, un exemple emprunté à la vie quotidienne permettra de bien faire comprendre. Supposons qu’une assiette tombe et se casse, il faut alors ramasser les morceaux. Mais chacun sait que deux jours plus tard, on retrouve un fragment là où même la connaissance approfondie des lois de la mécanique ne permettrait de l’expliquer, et encore moins de le prévoir. C’est un peu la même chose quand on casse des noyaux.

I.7.ii Reparlons de la méthode

Dans une telle situation de désarroi épistémologique, il est utile de se retourner en arrière, et de s’appuyer sur une valeur sûre du passé. Plutôt que de réactualiser encore une fois l’opposition entre Platon et Aristote, référons-nous à quelqu’un de plus proche. En 1637, Descartes (1596-1650) [DE1637] publiait le bien connu « Discours de la Méthode » dont personne n’a oublié les quatre règles essentielles au bon raisonnement, mais que nous prenons quand même la peine de rappeler :

Ne recevoir jamais aucune chose pour vraie, que je ne la connusse évidemment être telle.

Diviser chacune des difficultés que j’examinerais en autant de parcelles qu’il se pourrait, et qu’il serait requis pour les mieux résoudre.

Conduire par ordre mes pensées, en commençant par les objets les plus simples et les plus aisés à connaître, pour monter peu à peu, comme par degrés, jusques à la connaissance des plus composés.

Faire partout des dénombrements si entiers et des revues si générales, que je fusse assuré de ne rien omettre.

Si on regarde les quatre types de problèmes exposés précédemment, on s’aperçoit qu’on peut associer à chacun d’eux une règle qui n’est pas ou peut difficilement être respectée. Ce n’est pas moins que les principes fondamentaux se trouvant à la base de notre façon de penser qui sont ici remis en cause, il ne faut donc pas y voir la conséquence d’un effarouchement excessif face à des difficultés somme toute habituelles. Cela se conçoit aisément pour qui prend la peine d’y réfléchir. Il faut en effet ne pas oublier que la confiance que nous avons acquise en notre faculté de comprendre la nature ne l’a été que grâce à cette discipline d’esprit. Il serait donc illusoire d’espérer s’en passer.

Étant donné cet état de fait, deux attitudes opposées sont possibles. Ou on se dit que la situation est telle qu’il n’est plus permis d’être Cartésien, on bascule alors dans un univers totalement différent, où pour qu’on considère qu’un fait est réel, il ne faudra plus qu’il soit reproductible, mais il suffira d’y croire. On pourrait quand même ainsi obtenir un certain succès après accumulation d’innombrables observations. Si on choisit cette alternative, on s’isole dans un monde à part, de sorte que les résultats qu’il est peut-être possible d’obtenir ne seront d’aucune utilité pour les applications ou pour faire avancer les autres domaines de recherche.

Ou alors on s’efforce de suivre ces principes plusieurs fois centenaires, mais dans ce cas, il faut bien se rendre compte que ce n’est pas toujours tout à fait possible, et qu’on tentera d’atteindre un idéal sans jamais y parvenir. Il faudra donc se méfier de certains réflexes, efficaces dans des circonstances convenables, mais qui risquent de ne plus être applicable ici.

D’abord, si on veut que chaque déduction soit sans faille, il est probable que bien peu résisterons à l’épreuve. Par contre si on admet le principe qu’une hypothèse est vraie tant qu’elle n’a pas été réfutée, alors leur nombre deviendrait si grand qu’on n’aurait rien gagné.

Si on cherche à étudier un aspect particulier, il ne sera pas possible de s’isoler complètement, et les conclusions auxquelles on aboutira, si tant est qu’elles ne soient pas complètement fausses, pourraient correspondre pour le problème entier à des principes triviaux, comme par exemple les lois de conservation, qui seraient les seules à se dégager.

Le seul moyen de faire des prédictions en partant des choses les plus simples est la force brute, mais les contraintes sur les ingrédients de base sont si fortes qu’il sera très difficile de reproduire acceptablement les résultats expérimentaux, qui seront pratiquement incapables de servir de guide pour cela.

Enfin il est presque impossible de classer de façon cohérente tous les événements ou tous les mécanismes qu’on observerait, d’une part à cause du grand nombre de variables caractéristiques, et d’autre part parce qu’un même effet peut se décrire de plusieurs manières équivalentes, mais qui se classeraient différemment.

I.7.iii Et concrètement ?

Les difficultés étant identifiées, cela ne dit pas comment les surmonter dans la pratique, mais on dispose de bases de réflexion plus solides, et le but à atteindre se trouve en point de mire. Nous ne pouvons ici qu’énumérer quelques débuts de solution et des pistes, mais qui sont applicables directement.

Tout d’abord, on ne peut plus accorder une grande confiance à des raisonnements qui semblent pourtant rationnels, mais il faut plutôt chercher au maximum à les mettre en échec, ce qui servirait de point de départ à de nouvelles voies ou à des investigations plus fines. En corollaire, il ne faut par rejeter des hypothèses trop rapidement, mais attendre que les données collectées soient suffisantes pour voir si elles sont impossibles.

Les observables qu’on étudiera devront être sélectionnées avec soin afin qu’elles apportent vraiment de l’information, et qu’en même temps, elles soient les plus indépendantes possible du mécanisme réel. La contradiction n’est qu’apparente, mais met quand même l’accent sur la difficulté de cette tâche, car les exemples d’observables utilisées qui ne satisfont pas à ce critère sont innombrables.

Plutôt que de foncer tête baissée et d’espérer un cadeau de la Nature, il est plus raisonnable de partir de choses connues et de s’approcher pas à pas des situations les plus difficiles. Il faut donc notamment commencer par des énergies de bombardement proches des domaines déjà explorés, et les connaissances ainsi acquises donneront la clef pour comprendre les processus plus compliqués. De même, il faut choisir des systèmes connus pour leur comportement simple, dominé par un seul mécanisme, et commencer par l’étude de celui-ci avant d’essayer d’extraire des données quantitatives.

En dernier lieu, il est vain de s’amuser à classer les scénari très divers, dont le nombre augmentera exponentiellement à mesure qu’on les comprendra mieux. Il serait sûrement plus avantageux de chercher la variable en fonction de laquelle le régime de réaction varie. Elle servirait alors d’échelle permettant de s’y retrouver un peu mieux, et surtout de bien choisir l’énergie et le système à étudier.

Certains de ces principes ont guidé le choix de l’expérience. Ainsi l’exclusivité de la mesure a été favorisée aux dépens de sa précision, avec pour conséquence la construction d’un multidétecteur 4π. Le système a été pris suffisamment lourd afin qu’il y ait peu de fusion, et donc que les collisions dissipatives constituent le seul mécanisme dominant à basse énergie. Enfin la valeur de 27 MeV par nucléon, outre celle de 43 MeV par nucléon, a été choisie pour faire le pont entre cette dernière et les basses énergies. L’examen des données lui-même doit être pensé et, en conformité avec l’option expérimentale, il a été conduit sur le mode exclusif, c’est-à-dire dans des histogrammes de grande dimensionnalité — en général à deux dimensions —, et le maximum d’information ont été corrélées, parfois sous forme qualitative pour réduire le nombre des variables.