Formalisme: les états

Site en travaux

Contenu

Dans un grand nombre de présentations de la mécanique quantique, celle-ci diffère de la physique « classique » par:

  • la quantification des valeurs mesurées;
  • la présence de probabilités intrinsèques.

En fait, ce n’est pas toujours le cas! L’énergie n’est pas toujours quantifiée (ni les états quantiques discrets): par exemple, des électrons libres ont une énergie continue. L’aspect probabiliste est présent, mais il n’est pas nécessairement central, il peut être vu comme un effet collatéral dans la théorie quantique. La différence majeure entre physique classique et quantique est plutôt que:

  • en physique classique, l’espace des états n’a aucune structure;
  • en physique quantique, l’espace des états est un espace vectoriel complexe.

La notion d’état dans un système « classique »

La physique est avant tout l’étude du mouvement, et plus précisément l’étude des déplacements dans l’espace.

Succession de points de vue: Aristote ➛ Philoponus ➛ Oresme ➛ Galilée ➛Newton ➛Lagrange ➛ Liouville ➛ Poisson ➛ Hamilton

Mécanique du point matériel, soumis à une force (Newton) puis progressivement placé dans un champ de force. Deux points de vue possibles:

  • les points sont soumis à des forces dans un espace qui est, lui, dénué de propriétés (Démocrite, Newton)
  • les points sont soumis aux effets du lieu (= les propriétés de l’espace) où ils se trouvent (Aristote, Faraday, Einstein)

Mécanique d’un ensemble de points matériels:

  • indépendants les uns des autres ➛exemple: la thermodynamique statistique des gaz
  • indépendants les uns des autres mais placés dans un même champ de force
  • interagissant les uns avec les autres

☛ définition d’un système physique

  • isolé
  • sous-ensemble d’un système plus grand (➛interactions entre les parties de ce grand système)

Etat du système

Système décrit par un ensemble de variables, dont les valeurs définissent un des états possibles du système:

  • point matériel: position et vitesse. On peut préciser des paramètres comme la masse ou la charge éventuelle (mais celles-ci ne changent normalement pas)
  • thermodynamique: pression, volume, température, entropie, énergie (quantités qui ne sont pas indépendantes).

La liste des états possibles peut être:

  • finie (et donc dénombrable par une suite de nombres entiers)
  • infinie dénombrable
  • infinie continue

Dans une vision du monde où la matière peut être décomposée en éléments irréductibles, comme les atomes au sens de Démocrite, tout système physique est réductible à la donnée de la liste des ces éléments avec pour chacun d’eux sa position q et sa vitesse v=∂q/∂t, ou de manière équivalente son impulsion p=mv. On peut effectuer, au moins formellement, la même démarche pour une matière continue en la découpant en petits éléments (dénombrables), dont la taille tend vers zéro à la fin.

Espace de phase

Pour un système réduit à une particule unique, chaque état est défini par la donnée du couple (v,q) ou de façon équivalente (p,q). Pour un système à une dimension, le couple (p,q) définit un point dans un espace à deux dimensions, l’espace de phase. Un point matériel qui évolue dans un espace à trois dimensions nécessite trois coordonnées (x, y et z en coordonnées cartésiennes, r, θ et φ en coordonnées polaires),que l’on peut noter q et son impulsion a également trois composantes, notées p. L’espace de phase (p, q) a donc six dimensions. L’espace de phase d’un système de N points matériels aura 6N dimensions.

L’ide de représenter un système physique par un point unique dans un espace avec un grand nombre de dimensions ne s’est fait jour que lentement (cf. D.N. Nolte, Physics Today, avril 2010). D’une part imaginer un espace qui ait plus de trois dimensions n’avait rien de naturel, bien que les mathématiciens aux 17° et 18° siècles aient manipulé sans souci un grand nombre de variables simultanées, et n’est que peu à peu devenu « pensable » avec les travaux de Cayley (1843), Grassmann (1844), Plücker ou Sylvester, puis surtout avec Riemann (1854 puis 1868), avant de se généraliser avec Felix Klein et Camille Jordan.

Boltzmann utilisa implicitement la notion d’espace de phase (mais pas le terme) dès sa thèse de 1866 sur la théorie cinétique des gaz et dans son cours de dynamique (Vorlesungen über Dynamik 1866), puis dans ses articles fondamentaux de 1871. Dans l’un de ces articles, il compare la trajectoire engendrée par le mouvement à une dimension d’une particule en fonction de sa vitesse (ou son impulsion) avec la trajectoire d’une particule dans un espace à deux dimensions, et il note une analogie avec une courbe de Lissajous (sans nommer Lissajous d’ailleurs).

Courbe de Lissajous 3:2 (Wikipedia)
Courbe de Lissajous 3:2 (Wikipedia)

C’est l’origine du mot « phase »: une courbe de Lissajous est la trajectoire d’un point de coordonnées {x(t), y(t)} quand les deux fonctions x(t) et y(t) sont des fonctions périodiques. Si les périodes sont dans un rapport rationnel, la courbe est fermée (ici pour l’exemple 3:2) et elle se modifie selon la phase relative des deux fonctions (courbe ci-dessous):

Courbe de Lissajous (Wikipedia)
Courbe de Lissajous avec un déphasage variable (Wikipedia)

Dans le cas des mouvements complexes des atomes ou des molécules d’un gaz, Boltzmann distinguait le type du mouvement (Bewegungsart), par exemple un mouvement de translation ou de rotation, de la phase du mouvement (Bewegunsphase) correspondant au changement de position ou d’impulsion. Maxwell reprit en 1879 le terme de phase introduit par Boltzmann pour désigner le couple {position, impulsion} décrivant l’état d’un système à une particule, et plus généralement les N-uples {qi, pi} pour l’état d’un système de N particules. Mais ni Boltzmann ni Maxwell ne conçurent un espace de phase. Boltzmann lui-même ne réemploya pas le terme de phase avant son traité de 1896 sur la théorie cinétique des gaz (Vorlesungen über Gastheorie).

Entretemps, Henri Poincaré avait étudié le comportement de systèmes dynamiques, et en particulier la manière dont les trajectoires approchaient de solutions quasi-stables (points fixes ou cycles limites). En appliquant cette approche au problème de la stabilité du système solaire, sous la forme a priori plus simple du problème des trois corps, Poincaré découvrit à la fin de l’année 1889 que de très faibles changements des positions initiales pouvaient conduire à des très grand changements des positions finales, ce qui est point de départ des travaux contemporains sur le « chaos déterministe ». À cette occasion, Poincaré développa une approche géométrique dans laquelle il étudiait le mouvement d’un point dans un espace à 6N dimensions, l’espace de phase (mais sans lui donner ce nom).

Henri Poincaré et le chaos déterministe
Henri Poincaré et le chaos déterministe

Le terme d’espace de phase (Phasenraum) apparut finalement, sous la plume de Paul et Tatiana Ehrenfest en 1911, dans une revue de l’œuvre de Boltzmann écrite pour la grande Encyclopédie des sciences mathématiques dont Felix Klein était le moteur. L’usage du terme se généralisa progressivement.

Exemple d’un oscillateur harmonique

Un oscillateur harmonique est (dans le cas le plus simple) une masse m ponctuelle soumise à une force de rappel F = —kq proportionnelle à son déplacement q. C’est l’un des systèmes physiques le plus simple à étudier:

  • son équation du mouvement est simplement (1° loi de Newton) F = mγ
  • où l’accélération γ ≡ d2q/dt2
  • ⇒ d2q/dt2 +k/m q = 0
  • ⇒ q(t) = qmax cos[ωt]
  • où ω2=k/m et qmax est le déplacement maximal
  • et l’impulsion p(t) ≡ m dq/dt = pmax sin[ωt]

☛ au cours du temps, le point de coordonnées (p,q) décrit un cercle dans l’espace de phase.

Pendule simple

PenduleUn pendule simple est une masse m suspendue à un fil ou une tige rigide de longueur l dans le champ de pesanteur g (supposé uniforme). Sa position est repérée par l’angle θ du fil avec la verticale.

En notant θ’= dθ/dt et θ »= dmaxθ/dtmax les dérivées première et seconde de l’angle θ par rapport au temps t, l’équation du mouvement du pendule est

θ » + g/l sin θ = 0

Pour de petits angles θ, sinθ ~ θ et l’équation devient une équation harmonique de pulsation ω=√(g/l), dont la solution est

θ(t) = θ(0) cos ωt

La période T = 2π/ω = 2π√(l/g) ne dépend pas de l’amplitude initiale θ(0) mais seulement de la longueur l du pendule: c’est l’isochronisme des petites oscillations découverte par Galilée. Pour des oscillations de plus grande ampleur, sinθ ≠ θ et la période dépend de l’amplitude initiale. Enfin, pour une énergie totale (cinétique+potentielle) supérieure à 2mgl, le pendule effectue des rotations autour du point de suspension.

Une manière parlante de différencier les deux types de mouvement possibles est d’introduire la notion de puits de potentiel du pendule. L’énergie potentielle est Ep = mgl(1-cosθ) et, tracée en fonction de l’angle θ, elle a la forme d’une cuvette (ou d’un puits) de profondeur 2mgl. Si l’énergie totale est inférieure à 2mgl, il existe un angle maximal θ0 où la vitesse θ’ (et donc l’énergie cinétique) s’annule, et le pendule oscille entre θ0 et –θ0 . Si l’énergie totale est supérieure à 2mgl, la vitesse ne peut pas s’annuler et le pendule tourne en cercle autour du point de suspension.

Puits de potentiel d'un pendule
Puits de potentiel d’un pendule

D’où les deux zones de l’espace de phase d’un pendule:

Espace de phase d'un pendule
Espace de phase pour un pendule: l’angle θ est porté sur la coordonnée horizontale, la vitesse angulaire θ’ sur la coordonnée verticale, les trajectoires en noir sont les oscillations du pendule autour de sa position d’équilibre au repos (point S), les trajectoires en rouge sont les rotations autour du point de suspension du pendule (Wikipedia)

Évolution au cours du temps

L’évolution au cours du temps d’un système physique, c’est passer d’un état du système à un autre état du système. Ceci est régi par des lois du mouvement qui, en physique classique ont en général la forme d’équations différentielles. Ce n’est pas une exigence mathématique et il est possible d’imaginer des systèmes tels que le passage de l’état i à l’état j soit donné par des lois arbitraires. Par exemple le « jeu de la vie » imaginé par Conway qui conduit à des évolutions très complexes, et plus généralement toute la théorie des automates, ainsi que les machines de Turing.

Ces systèmes peuvent être déterministes (la transition i➛j de l’état i à l’état j est déterminée sans ambiguïté) ou aléatoires (l’état i peut conduire aux états j, k, l… suivant certaines lois de probabilité). Ils peuvent par ailleurs être réversibles (la succession de transitions i➛j➛k donne par renversement du temps la succession k➛j➛i) ou non. L’irréversibilité est le cas général (il suffit que l’on ait comme transitions possibles i➛j➛k et l➛j➛k pour que k➛j➛?).

Les lois d’évolution des systèmes étudiés en physique classique représentent donc un cas très particulier de toutes les lois imaginables: elles sont à la fois déterministes et réversibles.

Le second principe de la thermodynamique (l’entropie d’un système isolé ne peut que croître au cours du temps) semble une exception, et 150 ans d’efforts n’ont pas abouti à l’intégrer de façon complètement satisfaisante dans le cadre déterministe et réversible de la physique.

Manquent:

  • Newton-Lagrange-Hamilton
  • Poisson
  • Transformation de Fourier

Ensemble des états

L’ensemble de tous les états possibles est un ensemble, au sens de la théorie mathématique des ensembles, dont les états sont les éléments.

Ces éléments sont disjoints.

Ceci signifie que les états possibles sont distincts les uns des autres. Une pièce de monnaie est un système avec deux états possibles, que l’on peut noter « pile » et « face », 0 et 1, « blanc » et « noir », « + » et « – » ou tout autre notation binaire qui convient. Un pièce est nécessairement soit dans l’état « pile », soit dans l’état « face », et il n’existe aucune autre possibilité. Un éventuel observateur peut ignorer dans quel état se trouve la pièce, mais la pièce, elle, ne peut pas se trouver simultanément dans l’état « pile » ET dans l’état « face »: il n’existe pas d’état « quelque part entre les deux ».

Cela est vrai aussi des états continus: l’oscillateur harmonique se trouve à un instant donné soit dans l’état (p,q), soit dans un état différent (p’,q’), mais il ne peut pas se trouver en même temps dans l’un ET dans l’autre.

Sauf quand il s’agit d’ondes.

Il est possible de définir des sous-ensembles d’états, et de leur appliquer les opérations classiques d’union et d’intersection. Il est également possible d’énoncer des propositions portant sur ces sous-ensembles et de leur appliquer la logique classique des propositions (si A est vrai et B est vrai, alors [A et B] est vrai; si A est vrai et B est faux, alors [A ou B] est vrai…).

En physique quantique

Les notions de système physique, de sous-système, de système isolé perdurent en physique quantique, de même que la notion d’état d’un système. Mais par contre la disjonction des états disparaît en physique quantique.

L’ensemble des états possibles d’un système quantique possède une structure d’espace vectoriel.

Ceci signifie que la notion de somme de deux états a un sens, et que cette somme est aussi un état possible du même système. Les espaces vectoriels sont omniprésents en physique: l’espace euclidien a une structure d’espace vectoriel, de même que les fonctions généralement utilisées. Mais ce n’était pas le cas pour l’ensemble des états d’un système. Sauf quand il s’agit d’ondes.

C’est la structure d’espace vectoriel qui est à l’origine des « paradoxes » de la physique quantique parce qu’elle permet à un état d’être la somme de deux autres états. Ce n’est PAS un état plus ou moins intermédiaire entre ces deux états mais bien un état qui est en même temps l’un ET l’autre.

Espaces vectoriels

Un espace vectoriel E est un ensemble d’éléments (appelés « vecteurs ») doté de deux lois de composition linéaires:

  1. addition : si A est un vecteur de E et B est aussi un vecteur de E, alors A+B est un vecteur de E (l’espace E a une structure de groupe abélien pour l’addition);
  2. multiplication scalaire: si A est un vecteur de E et α un nombre (« scalaire »), alors αA est un vecteur de E.

Le nombre α peut être un nombre réel (α∈ℝ), complexe (α∈ℂ) ou plus généralement un élément d’un corps K. En mécanique quantique, c’est un nombre complexe.

La structure de groupe abélien pour l’addition signifie que

  • il existe un vecteur nul 0, tel que ajouté à tout vecteur A il redonne le vecteur A: A+0=A
  • tout vecteur A possède un opposé, noté —A tel que leur somme soit le vecteur nul: A+(—A)=0
  • l’addition est distributive: A+(B+C) = (A+B)+C = A+B+C
  • l’addition est commutative (ce qui définit un groupe abélien): A+B=B+A

La multiplication scalaire est:

  • distributive par rapport à l’addition sur l’espace E: α(A+B) = αA + αB
  • distributive par rapport à l’addition sur le corps K: (α+β)A = αA + βA
  • associative par rapport à la multiplication sur le corps K: (αβ)A = α(βA)

Par conséquent, toute combinaison linéaire de vecteurs αA+βB+γC+… de E est un vecteur de E.

Bases d’un espace vectoriel

Si toute combinaison linéaire de vecteurs αA+βB+γC+… est encore un vecteur, inversement tout vecteur peut s’écrire comme combinaison linéaire d’autres vecteurs. On peut donc naturellement se demander s’il existe un jeu de vecteurs à partir desquels on peut obtenir n’importe lequel des vecteurs de l’espace vectoriel E. Cela existe toujours (on parle de famille génératrice), et il y en même une infinité puisque n’importe quelle combinaison linéaire des vecteurs de cette famille permet d’en construire d’autres. Parmi tous les vecteurs d’une famille génératrice, on peut choisir ceux qui sont linéairement indépendants, c’est-à-dire ceux dont toute combinaison linéaire nulle a nécessairement tous ses coefficients nuls.

Un tel ensemble de vecteurs indépendants à partir desquels on peut obtenir n’importe quel vecteur par la combinaison linéaire appropriée s’appelle une base de l’espace vectoriel E. En fait il existe une infinité de bases, obtenues par combinaison linéaire les unes des autres, mais le nombre de vecteurs de base demeure toujours le même: c’est une caractéristique de l’espace vectoriel, que l’on appelle la dimension de l’espace. Cette dimension peut être infinie (dénombrable ou non).

  • Exemple: l’espace euclidien à deux dimensions.
  • Exemple: un qubit à deux états

Notation de Dirac

Les éléments d’un espace vectoriel sont appelés des « kets », et ils sont notés de la façon suivante: |Ψ>. Cette notation, due à Paul Dirac, a l’avantage de bien séparer, visuellement, un vecteur (≡élément de l’espace vectoriel E) noté |Ψ> d’un scalaire (≡élément du corps K) qui pourrait lui aussi s’appeler Ψ. Mais l’intérêt (et la puissance) de la notation de Dirac apparaîtra après l’introduction de l’espace dual E* et surtout des opérateurs linéaires agissant sur l’espace vectoriel E.

Si {|i>} est une base de l’espace vectoriel E, tout vecteur |Ψ> s’exprime comme une combinaison linéaire unique des vecteurs de la base.

|Ψ> = Σi αi |i>

Les coefficients αi sont appelés les composantes du vecteur dans la base |i>. Pour noter un vecteur, on utilise traditionnellement la notation (α1, α2, …, αn) souvent écrite sous la forme d’une colonne de nombres (un tableau à une dimension).

Dual E* d’un espace vectoriel E (espace adjoint)

Le dual E* d’un espace vectoriel E est l’espace des formes linéaires agissant sur l’espace E. Une forme linéaire sur un espace vectoriel E est une application linéaire de l’espace E sur le corps K, autrement dit une fonction Φ qui associe à tout vecteur Ψ un nombre (complexe) Φ(Ψ).

Dans la notation de Dirac, un élément du dual E* est appelé « bra » et noté <Φ|. Ce nom apparemment bizarre, et cette notation, et le nom tout aussi bizarre de « ket » pour un vecteur et sa notation, montrent l’humour de Dirac. Comme le résultat de l’application au vecteur (ket) |Ψ> de la forme linéaire (bra) <Φ| est, par définition, un scalaire, écrit <Φ|Ψ>, Dirac a utilisé le terme bracket (parenthèse) pour désigner l’ensemble <|>, d’où le terme bra pour la moitié gauche <| et le terme ket pour la moitié droite |>.

Il existe une bijection entre les éléments d’un espace vectoriel et les éléments de son dual:

  • <i| ⇌ |i>
  • <i| + <j| ⇌ |i> ± |j>
  • α* <i| ⇌ α |i>

Le dual d’un espace vectoriel est aussi un espace vectoriel, et de même dimension! Il est isomorphe à E, d’où la possibilité d’identifier chaque élément du dual à un élément précis de l’espace vectoriel, en leur donnant le même nom par exemple.

Base duale

<Ψ| = Σj αj* <j|

(avec le complexe conjugué quand le corps K est le corps des nombres complexes)

Pour noter un élément du dual, on utilise souvent la notation (α1*, α2*, …, αn*) souvent écrite sous la forme d’une ligne (un tableau à une dimension) de nombres

Produit scalaire et normes

Le produit scalaire de deux vecteurs |Ψ1> et |Ψ2> est le scalaire résultant de l’application au vecteur |Ψ1> de la forme linéaire <Ψ2| correspondant au vecteur |Ψ2>. Dans la notation de Dirac, c’est simplement le bra-ket <Ψ21>.

Attention: <Ψ12> = <Ψ21>* (complexe conjugué quand le corps K est le corps des nombres complexes).

Deux vecteurs |Ψ1> et |Ψ2> sont dits orthogonaux si leur produit scalaire est nul. Si {|i>} est une base de l’espace vectoriel E, on dit que c’est une base orthogonale si tous les vecteurs de base sont orthogonaux deux à deux.

La norme |Ψ| d’un vecteur |Ψ> est la racine carrée de son produit scalaire avec lui-même, c’est un nombre réel positif ou nul.

|Ψ| = √(<Ψ|Ψ>)

Une base est dite orthonormée si tous les vecteurs de base sont de norme égale à 1 et qu’ils sont orthogonaux deux à deux.

Si {|i>} est une base orthonormée de l’espace vectoriel E, {<j|} est une base orthonormée de l’espace dual E* et

<j|i> = δij

avec le delta de Kronecker δij défini par δii = 1 et δi≠j = 0, alors:

<Ψ|Ψ> = ΣiΣj αji <j|i> = ΣiΣj αji δij = Σi αii = Σii|2

[Théorème de Pythagore]

Remarque:

|Ψ> = Σi αi |i> ⇔ <Ψ| = Σj αj* <j|

☛ <j|Ψ> = Σi αi <j|i> = Σi αi δij = αj

☛ |Ψ> = Σi αi |i> = Σi <i|Ψ>|i> = Σi |i><i|Ψ> (car <i|Ψ> est un scalaire)

☛ Σi |i><i| = Identité

Et on voit apparaître un opérateur, un objet qui n’est pas un scalaire mais qui, appliqué à un vecteur, donne un vecteur (en termes plus mathématiques, un endomorphisme de l’espace vectoriel). L’opérateur identité, appliqué à tout vecteur, redonne le même vecteur.

Plus généralement, le produit d’un ket |Ψ1> par un bra <Ψ2| est un opérateur |Ψ1><Ψ2| qui transforme tout vecteur |Ψ3> en un vecteur proportionnel à |Ψ1>:

1><Ψ23> = a|Ψ1>

En particulier, |Ψ1><Ψ1| est un projecteur, un opérateur qui donne la projection d’un vecteur quelconque sur |Ψ1>.

Cas continu

À faire:

  • Espace de Hilbert (terme de von Neumann, qui fut l’assistant de David Hilbert en 1926),
  • Algèbre d’opérateurs etc.
  • János von Neumann (Mathematische Grundlagen der Quanten-Mechanik, 1932)
  • Biographie de von Neumann?

 

 


Contact: lettreani
Publicités

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

w

Connexion à %s