L'UNIFORMALITE DE RENORMALISATION | ELECTRO. QUANTIQUE


De toute cette réévaluation philosophique, un nouveau concept émerge naturellement : la notion de renormalisabilité. Toutes les théories ne se prêtent pas à la renormalisation selon le schéma esquissé précédemment, avec un nombre fini de contre-termes, et toutes les quantités devenant indépendantes de la coupure à la fin du calcul. Si le lagrangien contient des combinaisons d'opérateurs de champ de dimensions trop élevées en unités d'énergie, alors les contre-termes prolifèrent jusqu'à l'infini, et à première vue, la théorie semble dépendre d'un nombre infini de paramètres libres, et par suite perdre tout pouvoir prédictif, devenant inutilisable. Ce genre de théories sont appelées non renormalisables.

Le modèle standard de la physique des particules ne contient que des opérateurs renormalisables, mais les interactions de la relativité générale deviennent non renormalisables, si l'on essaie de construire une théorie de la gravitation quantique de la façon la plus évidente. Ceci suggère que la théorie des perturbations ne peut pas être appliquée à la gravitation quantique.

Cependant, dans une théorie effective des champs, la renormalisabilité est un terme impropre. Dans une théorie effective des champs non renormalisable, les termes du lagrangien se multiplient jusqu'à l'infini, mais voient leurs coefficients divisés par des puissances croissantes de la coupure en énergie. Si cette coupure est une quantité physique réelle – c'est-à-dire si la théorie n'est une description effective de la physique que jusqu'à une énergie maximale, ou une distance minimale – alors ces termes peuvent représenter des interactions physiques réelles. En supposant que les constantes sans dimension de la théorie ne deviennent pas trop grandes, on peut regrouper les calculs par puissances inverses de la coupure et extraire des prédictions approchées à un ordre fini dans la coupure, qui dépendent encore d'un nombre fini de paramètres libres. Il peut même être utile de renormaliser ces interactions non renormalisables.

Les interactions non renormalisables des théories des champs effectives deviennent rapidement plus faibles quand l'échelle d'énergie dépasse la coupure. L'exemple classique est la théorie de Fermi de l'interaction faible, une théorie effective non renormalisable, dont la coupure est de l'ordre de la masse du boson W. Ce fait peut aussi donner une explication possible pourquoi presque toutes les interactions peuvent être décrites par des théories renormalisables. Il peut se faire que celles qui existent à d'autres échelles (GUT ou Planck) deviennent tout simplement trop faibles pour être détectées dans le domaine que nous observons, avec une exception : la gravitation, dont l'interaction excessivement faible est compensée par la présence des énormes masses des étoiles et planètes.

Schémas de renormalisation

Dans les calculs réels, les contre-termes introduits pour compenser les divergences des diagrammes de Feynman comportant des boucles doivent être définis en utilisant un ensemble de conditions de renormalisation. Les schémas de renormalisation, qui fixent ces conditions, les plus utilisés comprennent :

  • Le schéma de soustraction minimal (MS), et les schémas apparentés de soustraction minimale modifiés (MS-bar)
  • Le schéma sur couche

Applications à la physique statistique

Systèmes purs, renormalisation à la Wilson

Principe

En physique statistique des systèmes purs (ex., couplages bien déterminés entre les spins d'un réseau hypercubique), la renormalisation se rencontre dans l'étude des phénomènes critiques. À l'approche du point critique, la longueur de corrélation diverge. Comme on s'intéresse aux propriétés macroscopiques du corps, il est naturel de se concentrer sur les propriétés du système à des échelles l telles que la maille du réseau a ≪ l ≪ (longueur de corrélation).

Puisqu'on ne s'intéresse pas à ce qui se passe à des échelles plus petites que l, il est naturel de tenter de se ramener à un système présentant les mêmes propriétés à grandes distances, où l'on néglige les fluctuations plus petites que l, et de le comparer au précédent.

On ne passe pas directement de la petite échelle a à la grande échelle l, mais on décompose la démarche en plusieurs étapes appelées « itérations ». À chacune on moyenne (intègre) les fluctuations à courte échelle, obtenant ainsi un système plus simple (puisqu'on a moyenné les fluctuations à courte échelle, on n'en a plus le détail), mais aussi plus grand. On ramène alors le nouveau système à la taille du système initial à l'aide d'un changement d'échelle en s'arrangeant pour qu'il laisse invariante la forme du hamiltonien (qui peut être vu comme les quantités Pi lors d'un changement d'échelle en hydrodynamique), mais avec de nouvelles valeur des couplages (comme en hydrodynamique les nombres Pi sont inchangés, mais la vitesse par exemple doit être plus grande). Au cours de la renormalisation certains paramètres augmentent, d'autres diminuent.

Dans l'espace réel

Dans l'espace réel, on commence par opérer une décimation. Cette opération consiste à regrouper les éléments du système en petits groupes (par exemple dans une chaîne comportant un nombre pair de spins, on regroupe le premier avec le second, le troisième avec le quatrième etc.). Plusieurs décimations sont possibles. L'ordre de grandeur des blocs est de l'ordre de la maille du réseau a. Ensuite, il s'agit d'intégrer les fluctuations sur chaque bloc. Concrètement on moyenne sur chaque bloc soit en faisant une moyenne arithmétique soit en se donnant une règle raisonnable. À chaque bloc on affecte un spin ayant cette moyenne comme valeur (certains auteurs l'appellent superspin, pour montrer que c'est un spin fictif qu'on associe à un bloc). Le réseau des blocs est néanmoins plus espacé que le réseau d'origine. On effectue ensuite un changement d'échelle en veillant à ce que les propriétés à grande distance de la maquette ainsi obtenue soient les mêmes que celle du réseau d'origine. Ceci est obtenu en multipliant les couplages par un facteur d'échelle de façon que la mesure (de Boltzmann) de chaque configuration soit la même que celle associée au système de départ. Si on peut faire cela c'est que la théorie est renormalisable. Pourquoi avoir fait tout cela ? La maquette obtenue possède les mêmes propriétés à grande distance que le système d'origine, mais au contraire de celui-ci, ignore le détail des fluctuations aux petites distances (puisqu'on a moyenné à l'échelle des blocs). On obtient ainsi un système présentant la même physique à grande distance, mais plus simple, et ses couplages s'expriment en fonction des couplages d'origine et de facteurs d'échelle. Le résultat peut être vu comme un modèle plus simple qui capture toute la physique intéressante. Ceci est donc utile au voisinage des points critiques où la longueur de corrélation diverge, et où on s'intéresse par conséquent aux propriétés à grande distance. En itérant cette transformation, on se ramène à des systèmes de plus en plus essentiels. L'évolution des paramètres au cours de la renormalisation fait apparaître les paramètres essentiels. 


© Karam OUHAROU. The author grants permission to copy, distribute and display this work in unaltered form, with attribution to the author, for noncommercial purposes only. All other rights, including commercial rights, are reserved to the author.

Nous sommes ravis d'améliorer notre service pour vous!

Zadarma FacebookZadarma TwitterZadarma Youtube

© 2014 — 2020 Karam Ouharou

Comments