Mécanique quantique

Eveil-delaconscience - Mécanique quantique - catégories !

La mécanique quantique

est la branche de la physique qui a pour objet d’étudier et de décrire les phénomènes fondamentaux à l’œuvre dans les systèmes physiques, plus particulièrement à l’échelle atomique et subatomique.

Elle fut développée au début du xxe siècle par une dizaine de physiciens américains et européens, afin de résoudre différents problèmes que la physique classique échouait à expliquer, comme le rayonnement du corps noir, l’effet photo-électrique, ou l’existence des raies spectrales.

Mécanique quantique Théorie des CordesA

Au cours de ce développement la mécanique quantique se révéla être très féconde en résultats et en applications diverses. Elle permit notamment d’élucider le mystère de la structure de l’atome, et plus globalement elle s’avéra être le cadre général de description du comportement des particules élémentaires, jusqu’à constituer le socle de la physique moderne.

L’expression physique quantique désigne quant à elle un corpus théorique un peu plus étendu, qui s’appuie sur la mécanique quantique pour décrire des phénomènes particuliers, notamment les interactions fondamentales.

La mécanique quantique comporte de profondes difficultés conceptuelles, et son interprétation physique ne fait pas l’unanimité dans la communauté scientifique1. Parmi ces concepts, on peut citer la dualité onde corpuscule, la superposition quantique, l’intrication quantique ou encore la non-localité.

Mécanique quantique Théorie des Cordes

 

 

 

 

 

 

Panorama général :

Globalement, la mécanique quantique se démarque de la physique classique par deux aspects : des règles différentes quant à l’additivité des probabilités, et l’existence de grandeurs physiques ne pouvant se manifester que par multiples de quantités fixes, appelés quantas, qui donnent leur nom à la théorie.

Lois de probabilités :

Dans la conception classique des lois de probabilités, lorsqu’un événement peut se produire de deux façons différentes incompatibles l’une avec l’autre, les probabilités s’additionnent. Tel n’est pas le cas en mécanique quantique, où la probabilité d’un évènement est liée à une amplitude de probabilité susceptible d’interférer, y compris de façon destructive.

Cette propriété est illustrée par l’expérience des fentes de Young, considérée notamment par Richard Feynman comme la plus emblématique du comportement quantique de la matière. Dans son cours de mécanique quantique, Feynman consacre un long chapitre à son analyse détaillée. Cette expérience illustre aussi le concept de dualité onde corpuscule, à la base de l’interprétation standard de la théorie.

On considère actuellement qu’aux échelles macroscopiques, l’apparente non-observation de ce comportement probabiliste s’explique par un phénomène appelé décohérence. Cependant d’autres explications existent, mais aucune ne fait l’unanimité : elles relèvent essentiellement de différences dans l’interprétation de la mécanique quantique.

Existence des quantaLa mécanique quantique tire son nom de l’existence de grandeurs ne pouvant se manifester que par multiples de quantités fixes, souvent liées à la constante découverte par Max Planck. Ces grandeurs sont par exemple l’énergie ou le moment cinétique des particules.

L’illustration la plus manifeste et la plus riche en conséquences de ce phénomène se trouve probablement dans la structure de l’atome et plus précisément dans l’organisation des électrons autour du noyau. En effet les électrons se répartissent en occupant les places laissées libres par les valeurs possibles des nombres quantiques liés à leur énergie et leur moment cinétique. Cette organisation permet d’expliquer le comportement chimique et spectroscopique des éléments naturels.

L’existence des quanta n’est pas une propriété fondamentale de la mécanique quantique, car elle peut être démontrée à partir d’autres considérations, notamment relatives à la règle sur l’additivité des probabilités mentionnée plus haut. Cependant elle constitue certainement l’un des aspects les plus caractéristiques de la mécanique quantique, car c’est elle qui se manifeste le plus aisément dans les équations, et c’est historiquement par cet aspect que la mécanique quantique fut découverte.

_-

  1. Rayonnement du corps noir
  2. Effet photoélectrique
  3. Effet Compton
  4. Expérience de Franck-Hertz
  5. Spectroscopie
  6. Onde de de Broglie
  7. Expérience de diffraction des électrons
  8. Relations d’incertitude de Heisenberg
  9. Dualité onde-particule du rayonnement électromagnétique
  10. Equation de Schrödinger
  11. Particule libre
  12. Etats stationnaires
  13. Electron dans une boîte
  14. Etats stationnaires d’une particule dans des potentiels carrés
  15. Mécanique quantique des atomes, atome d’hydrogène

_-

1_: Rayonnement du corps noir :

MÉCANIQUE QUANTIQUE rayonnement_corps_noir

En physique, un corps noir désigne un objet idéal dont le spectre électromagnétique ne dépend que de sa température.

Le nom corps noir a été introduit par le physicien Gustav Kirchhoff en 1862. Le modèle du corps noir permit à Max Planck de découvrir la quantification des interactions électromagnétiques, qui fut un des fondements de la physique quantique

Le corps noir est un objet idéal qui absorberait toute l’énergie électromagnétique qu’il recevrait, sans en réfléchir ni en transmettre. Il n’est fait aucune autre hypothèse sur la nature de l’objet. La lumière étant un rayonnement électromagnétique, elle est absorbée totalement et l’objet devrait donc apparaître noir, d’où son nom. Cependant, compte tenu qu’un pareil corps pourrait émettre de la lumière sous l’effet d’augmentation de sa température, il n’est pas correct d’affirmer que le corps noir paraîtrait noir dans toutes les conditions.

L’objet réel qui se rapproche le plus de ce modèle est l’intérieur d’un four. Afin de pouvoir étudier le rayonnement dans cette cavité, une de ses faces est percée d’un petit trou laissant s’échapper une minuscule fraction du rayonnement interne. C’est d’ailleurs un four qui fut utilisé par Wien pour déterminer les lois d’émission électromagnétique en fonction de la température.

Les parois de l’intérieur de l’enceinte émettent un rayonnement à toutes les longueurs d’ondes : théoriquement des ondes radio aux rayons X. Cette émission est due à l’agitation des atomes.

En effet, la température mesure l’agitation des atomes (ceux-ci « oscillent » autour de leur position). Ce faisant, chaque atome se comporte comme un dipôle électrostatique vibrant (dipôle formé par le noyau et le nuage électronique), qui rayonne donc de l’énergie.

Chaque paroi du four émet et absorbe du rayonnement. Il y a ainsi échange d’énergie entre les parois, jusqu’à ce que l’objet atteigne l’équilibre thermique. La répartition de la quantité d’énergie émise, en fonction de la longueur d’onde, forme le spectre. Celui-ci est la signature d’un rayonnement purement thermique. Il s’appelle donc spectre du corps noir et ne dépend que de la température du four.

Le spectre « continu » (donc en négligeant les raies spectrales) des étoiles (ou en tous cas pour la grande majorité des étoiles ni trop froides ni trop chaudes) est un spectre de corps noir.

2_: Effet photoélectrique :

mécanique quantique effet photoelectrique

En physique, l’effet photoélectrique (EPE) désigne en premier lieu l’émission d’électrons par un matériau soumis à l’action de la lumière. Par extension, il regroupe parfois l’ensemble des phénomènes électriques d’un matériau provoqués par l’action de la lumière.

On distinguera alors deux effets : des électrons sont éjectés du matériau (émission photoélectrique) et une modification de la conductivité du matériau (photoconductivité, effet photovoltaïque lorsqu’il est en œuvre au sein d’une cellule photovoltaïque, effet photoélectrochimique, effet photorésistif).

mécanique quantique effet photoelectriquea

Lorsque l’EPE se manifeste, toute l’énergie du photon incident se transmet à l’électron périphérique pour l’extraire de son atome, et le restant se transmet sous forme d’énergie cinétique. Une absorption partielle est caractérisée par la diffusion Compton.

En 1839, Antoine Becquerel et son fils présentent pour la première fois un effet photoélectrique. Leur expérience permet d’observer le comportement électrique d’électrodes immergées dans un liquide, modifié par un éclairage.

Il a été compris et présenté en 1887 par Heinrich Rudolf Hertz qui en publia les résultats dans la revue scientifique Annalen der Physik.

Albert Einstein fut le premier, en 1905, à en proposer une explication, en utilisant le concept de particule de lumière, appelé aujourd’hui photon, et celle du quantum d’énergie initialement introduits par Max Planck dans le cadre de l’explication qu’il proposa lui-même pour l’émission du corps noir.

Einstein a expliqué que ce phénomène était provoqué par l’absorption de photons, les quanta de lumière, lors de l’interaction du matériau avec la lumière. Cette explication lui valut le prix Nobel de physique en 1921.

L’effet photoélectrique est l’émission d’électrons par un matériau, généralement métallique lorsque celui-ci est exposé à la lumière ou un rayonnement électromagnétique de fréquence suffisamment élevée, qui dépend du matériau.

Dans l’effet photoélectrique, on éclaire une plaque de métal et celle-ci émet des électrons.

Constatations expérimentales de l’émission photoélectrique :

  1. Les électrons ne sont émis que si la fréquence de la lumière est suffisamment élevée et dépasse une fréquence limite appelée fréquence seuil.
  2. Cette fréquence seuil dépend du matériau et est directement liée à l’énergie de liaison des électrons qui peuvent être émis.
  3. Le nombre d’électrons émis lors de l’exposition à la lumière, qui détermine l’intensité du courant électrique, est proportionnel à l’intensité de la source lumineuse.
  4. L’énergie cinétique des électrons émis dépend linéairement de la fréquence de la lumière incidente.
  5. Le phénomène d’émission photoélectrique se produit dans un délai extrêmement petit inférieur à 10-9 s après l’éclairage, ce qui rend le phénomène quasi instantané.

Cet effet ne peut pas être expliqué de manière satisfaisante lorsque l’on considère que la lumière est une onde, la théorie acceptée à l’époque, qui permet d’expliquer la plupart des phénomènes dans lesquels la lumière intervient, tel l’optique, et qui était traduite mathématiquement par la théorie de James Clerk Maxwell.

En effet, si l’on considère la lumière comme une onde, en augmentant son intensité et en attendant suffisamment longtemps, on devrait pouvoir fournir suffisamment d’énergie au matériau pour en libérer les électrons. L’expérience montre que l’intensité lumineuse n’est pas le seul paramètre, et que le transfert d’énergie provoquant la libération des électrons ne peut se faire qu’à partir d’une certaine fréquence.

Équation :

L’énergie d’un photon est caractérisée par la formule E = h . ν, hypothèse posée par Planck. « E » correspond à l’énergie du photon, ν (lettre grecque nu) à la fréquence et h est la constante de Planck qui vaut 6,626076×10-34 J.s. On constate que l’énergie du photon est proportionnelle à la fréquence et varie donc en fonction de la couleur3.

Applications :

– Effet photoélectrique externe : un tube photomultiplicateur (PMT en anglais) est une application directe de cet effet. L’électron créé par le rayonnement incident est ensuite multiplié grâce à un système de dynodes, à tension progressive.

– Effet photoélectrique interne : il se déroule dans un semiconducteur. C’est l’excitation d’un électron dans la bande de conduction qui donne en général lieu à un courant. Celui-ci peut être mesuré pour servir de détecteurs (photodiode, cellule photoélectrique) ou récolté pour fournir de l’électricité (cellule photovoltaïque).

3 : Effet Compton :

En physique, la diffusion Compton est la diffusion inélastique de rayonnement d’un photon sur un électron d’un atome. Au cours du processus, l’électron est éjecté de l’atome, qui est donc ionisé. Arthur Compton a, en 1923, observé l’allongement de la longueur d’onde du photon dans cette diffusion, effet auquel on a attribué son nom : l’effet Compton.

L’expérience de Compton devint l’ultime observation qui convainquit tous les physiciens que la lumière peut se comporter comme un faisceau de particules dont l’énergie est proportionnelle à la fréquence (ou inversement à la longueur d’onde). Cet effet est important en physique car il a démontré que la lumière ne peut pas être uniquement décrite comme une onde, ni comme une particule.

Carrière d’Arthur Compton :

Diffusion Compton d’un photon sur un électron lié à un noyau

C’est dans une atmosphère de très grand scepticisme au sujet de la théorie de la quantification de la lumière d’Albert Einstein qu’Arthur H. Compton débute ses travaux de thèse (Ph.D.) en 1912, thèse qu’il soutiendra à l’université de Princeton en juin 1916.

Il passe l’année suivante (1916-1917) en tant que professeur de physique à l’université du Minnesota, puis devient ingénieur de recherche pour la compagnie des lampes Westinghouse durant 2 ans (1917-1919).

Arthur Compton reçoit en 1919 une des premières bourses du conseil national de la recherches pour aller étudier en Grande-Bretagne à Cambridge, au sein du laboratoire Cavendish pour l’année universitaire 1919-1920. De retour aux États-Unis, il est nommé professeur de physique et directeur du département de physique de l’université Washington à Saint Louis, Missouri.

Il y reste jusqu’en 1923, date de la publication de sa découverte de l’effet qui porte désormais son nom.

Principe de l’expérience :

Lorsque Compton débute ses recherches à l’université du Minnesota en 1916, l’électrodynamique classique est encore acceptée par une très grande majorité des physiciens.

Compton voulait tester expérimentalement une ancienne théorie de Wilhelm Weber considérant l’atome comme l’ultime particule magnétique. Pour cette expérience, Compton fit réfléchir des rayons X sur un cristal de magnétite en ajoutant alternativement un champ magnétique extérieur. Il cherchait à observer un éventuel changement dans les figures de diffraction de Max von Laue, qui auraient dû apparaître du fait du mouvement des atomes de magnétite dans leur réseau cristallin.

Malgré de nombreuses tentatives, Compton ne vit jamais de modification des figures de diffraction. Il passe alors les cinq années suivantes à essayer de comprendre comment les rayons X étaient diffusés lorsqu’ils traversent la matière.

Lorsqu’il rejoint la compagnie Westinghouse en 1917, ces résultats l’avaient déjà convaincu que ce n’était pas l’atome qui était la particule magnétique ultime mais bien l’électron. Durant sa période industrielle, Compton continue à travailler sur des sujets théoriques concernant la dimension de l’électron. Compton réfléchit à de nouvelles idées àCavendish, non seulement grâce aux critiques nombreuses de Rutherford, mais aussi grâce aux résultats expérimentaux qu’il a pu obtenir pendant son séjour à Cavendish.

Ses expériences les plus significatives sont semblables à celles que J. A. Gray a effectuées à Cavendish avant la Première Guerre mondiale. Elles consistaient à envoyer un faisceau de rayons gamma sur des feuilles minces de diverses substances telles que le fer, l’aluminium et la paraffine, en plaçant un écran d’abord dans le faisceau primaire puis dans le faisceau secondaire, pour observer s’il y avait des différences entre les rayons gamma dans les deux faisceaux.

Observations :

Compton constate qu’en effet des différences existent. Les rayons gamma secondaires ou diffusés sont plus intenses vers l’avant que vers l’arrière. En d’autres termes ils sont « plus mous » ou d’une plus grande longueur d’onde que les rayons gamma primaires. Cette « dureté » ou longueur d’onde ne dépend pas de la nature du matériau diffuseur et elle devient « plus molle » (ou d’une plus grande longueur d’onde) lorsque l’angle de diffusion est plus grand.

Hypothèse :

Une nouvelle fois, Compton suppose que la longueur d’onde des rayons gamma ne peut pas être modifiée lors de la diffusion – conformément à la théorie classique de diffusion de Thomson.

Il a donc recherché une nouvelle explication. Compton finit par conclure que les rayons gamma primaires excitaient l’émission d’un nouveau type de rayonnement gamma de fluorescence dans le matériau diffuseur – un nouveau type parce que la seule des quatre caractéristiques que ce rayonnement avait en commun avec le rayonnement de fluorescence classique était qu’il avait une plus grande longueur d’onde que le rayonnement primaire.

Mais comment un type de rayonnement fluorescent si nouveau pouvait-il être excité dans le matériau diffuseur?

Compton proposa un mécanisme spécifique : les rayons gamma primaires frappent les électrons dans le diffuseur, qu’il considère maintenant comme des oscillateurs électriques, et sont propulsés vers l’avant à des vitesses relativistes.

Le rayonnement émis formerait un pic dans la direction vers l’avant, et lors de son observation perpendiculairement à la direction du mouvement, il subirait undécalage Doppler induisant une plus grande longueur d’onde que le rayonnement primaire. C’est ainsi que Compton expliqua les caractéristiques des rayons gamma diffusés qu’il avait observés.

Nouvelle expérience spectrométrique :

Lorsque Compton quitta le laboratoire de Cavendish à la fin de l’été 1920 pour prendre la charge de professeur à l’université Washington à Saint Louis, Missouri, il emporta avec lui un spectromètre de Bragg, dans le but de voir si les rayons X pourraient exciter le même nouveau type de rayonnement fluorescent – avec toutes ses caractéristiques peu communes qu’il avait observées pour les rayons gamma.

Son plan était d’utiliser son spectromètre de Bragg non pas comme spectromètre, mais comme « sélecteur de longueur d’onde », c’est-à-dire pour produire un faisceau monochromatique de rayons X.

En avril 1921 il obtint sa réponse : les rayons X monochromatiques excitaient en effet le même nouveau type de rayonnement fluorescent que les rayons gamma. En outre, comme il le découvrit bientôt avec Charles F. Hagenow, le nouveau rayonnement de fluorescence X est également polarisé – un nouveau comportement étonnant par rapport au rayonnement de fluorescence ordinaire.

L’Expérience de Franck et Hertz :

L’expérience de Franck et Hertz est une expérience établie pour la première fois en 1914 par James Franck et Gustav Hertz.

Elle a pour objet de prouver la quantification des niveaux d’énergie des électrons dans les atomes, ce qui en fait l’une des expériences fondamentales de la physique quantique. Elle a ainsi permis de confirmer les hypothèses du modèle de l’atome de Bohr.

En 1925, Franck et Hertz reçurent le prix Nobel de physique pour cette expérience.

En 1913, Niels Bohr proposa le modèle de l’atome de Bohr, basé sur le modèle de l’atome de Rutherford, mais y apporta deux postulats, dont celui de la quantification des orbites électronique.

Ainsi, les premières expériences consistant à mettre en évidence cette quantification utilisaient de la lumière qui, comme il était déjà connu à l’époque, était formée de « quanta d’énergie ».

La première objection émise contre l’interprétation de ces expériences par la théorie de Bohr fut donc de prétendre que la quantification des orbitesnote 2 n’était due qu’à la seule quantification des photons.

En 1914, Franck et Hertz, qui travaillaient sur les énergies d’ionisation des atomes, mirent au point une expérience faisant intervenir les niveaux d’énergie de l’atome de mercure. Leur expérience n’utilisant que des électrons et du mercure sans lumière, Bohr y trouva la preuve irréfutable de son modèle de l’atome.

Principe :

D’après la mécanique quantique, les électrons des atomes ne peuvent occuper que des niveaux d’énergie discrets. L’absorption ou l’émission d’énergie se fait alors de manière discrète par des quanta d’énergie.

Cette quantité d’énergie correspond à la transition électronique, mais aussi à l’énergie transmise à une particule s’il s’agit d’une diffusion inélastique. Afin de mettre en évidence la quantification des niveaux d’énergie, Franck et Hertz ont cherché à montrer l’absorption de certains électrons.

Pour être absorbés ces derniers doivent posséder une certaine énergie correspondant à une transition électronique, autrement dit, à la différence d’énergie \Delta E entre les niveaux d’énergie final et initial. Pour l’absorption ou l’émission d’un photon, la différence d’énergie est :

\Delta E = |E_f - E_i| = h \nu

où :

  • E_f est l’énergie de l’état final,
  • E_i l’énergie de l’état initial,
  • \nu la fréquence de raie spectrale, et
  • h la constante de Planck.

Expérience :

Principe du montage :

à gauche la cathode K,
à droite l’anode A.
Les électrons circulent de K vers A.

Dans l’expérience, Franck et Hertz ont fait circuler un faisceau d’électrons dans un tube à vide contenant du mercure gazeux. Pour y arriver, ils ont utilisé une triode, c’est-à-dire un dispositif composée d’une cathode, d’une grille polarisée et d’une anode.

Les électrons, émis de la cathode, peuvent alors entrer en collision avec des atomes de mercure durant leur course entre la cathode et l’anode. Il y a deux types de chocs :

  • des chocs élastiques où il n’y a pas de transfert d’énergie des électrons du faisceau avec les atomes de mercure percutés, et les électrons gardent donc leur énergie,
  • des chocs inélastiques, et dans ce cas, les électrons émis par la cathode vont percuter les électrons de plus basse énergie des atomes de mercure, et ceux-ci vont passer sur une orbite d’énergie supérieure, suivant l’interprétation de Bohr.

La variation de courant reçu par l’anode est mesurée en fonction de l’énergie cinétique des électrons, et il est ainsi possible d’en déduire les pertes d’énergie des électrons lors des collisions.

Détails de l’expérience :

L’ensemble de la triode est contenu à l’intérieur d’une capsule en verre qui contient le mercure. L’expérience peut être réalisée pour différentes températures, mais le mercure doit être sous forme gazeuse afin de permettre la circulation des électrons. Le mercure devient gazeux à partir de 630 K sous pression atmosphérique, mais il est possible d’éviter d’avoir à obtenir une telle température, en travaillant à pression réduite et en chauffant entre 100 °C et 200 °C.

Pour que les électrons soient arrachés et qu’ils aient une vitesse suffisamment importante, une tension d’accélération est établie entre la cathode et la grille.

La courbe représentant le courant de l’anode en fonction de la tension aux bornes de la cathode, montre qu’il y a bien des pics d’absorption. L’énergie (et alors la vitesse) des électrons est représentée par le potentiel électrique que subissent les électrons.

Cette courbe est de type pseudo-périodique de période 4,9 V et dont l’amplitude augmente en fonction de la tension d’extraction.

La température des atomes de mercure est directement reliée à l’agitation des atomes et donc à la probabilité de chocs entre les atome de mercure et les électrons extraits de la cathode.

Plus la température sera élevée, plus les atomes de mercure seront mobiles, et plus ils rencontreront un grand nombre d’électrons. En augmentant la température du mercure, la hauteur des creux diminue, ils se rapprochent alors de l’axe des abscisses.

Interprétation :

L’explication de Franck et Hertz repose sur le concept de chocs élastiques et inélastiques. En effet, selon la quantification des niveaux d’énergies, les chocs inélastiques ne sont possibles que lorsque les électrons accélérés ont l’énergie suffisante pour permettre une transition électronique.

Dans le cas de chocs élastiques, l’énergie des électrons reste inchangée. La tension d’extraction est la mesure directe de l’énergie des électrons : plus elle est forte, plus les électrons vont vite. L’intensité de l’anode mesure le nombre d’électrons arrivant.

La courbe est l’illustration que, pour un potentiel donné, les électrons cèdent une énergie de 4,9 eV à un atome de mercure, ce qui s’observe alors par un creux sur la courbe.

Ainsi, un électron ayant 5,1 eV d’énergie cinétique n’aura plus que 0,2 eV d’énergie cinétique après un choc inélastique avec un autre électron d’un atome de mercure. Cet autre électron voit alors son énergie augmenter et se retrouve, selon l’interprétation de Bohr, sur une orbite de plus haute énergie.

Pour un électron de 15,6 eV, on pourra avoir 3 chocs inélastiques. Il lui restera alors, après ces 3 chocs, une énergie de 15,6 – 3 x 4,9 = 0,9 eV.

C’est cette probabilité de faire un certain nombre de chocs dans l’enceinte qui fait que la hauteur des creux augmente, malgré les oscillations.

Articles connexes :

  • Atome de Bohr
  • Niveau d’énergie
  • Transition électronique
  • Triode

Relations d’incertitude de Heisenberg :

Le principe d’incertitude (ou principe d’indétermination) énonce que, pour une particule massive donnée, on ne peut pas connaître simultanément sa position et sa vitesse.

Ce principe fut énoncé au printemps 1927 par Heisenberg lors des balbutiements de la mécanique quantique.

Le terme « incertitude » est le terme historique pour ce principe.

Le nom de théorème d’indétermination est parfois préféré car le principe ne porte pas sur l’ignorance « subjective » de grandeurs par l’expérimentateur, mais bien sur une impossibilité fondamentale de les déterminer, et même sur le fait que le concept de grandeur précise n’a pas de sens physique. De plus, ce principe étant démontré par les équations, il devient un théorème.

Les travaux de Planck, Einstein et De Broglie avaient mis au jour que la nature quantique de la matière entraînait l’équivalence entre des propriétés ondulatoires (fréquence et vecteur d’onde) et corpusculaires (énergie et impulsion) selon les lois : E=\hbar \omega et \vec{p}=\hbar \vec{k}.

La dualité onde-corpuscule confirmée alors par de nombreuses expérimentations posait un problème de fond aux physiciens. En effet, pour posséder une fréquence et un vecteur d’onde, un objet doit avoir une certaine extension en espace et en temps. Un objet quantique ne peut donc être ni parfaitement localisé, ni avoir une énergie parfaitement définie.

De manière simplifiée, ce principe d’indétermination énonce donc que — de façon assez contre-intuitive du point de vue de la mécanique classique — pour une particule massive donnée, on ne peut pas connaître simultanément sa position et sa vitesse.

Soit on peut connaître précisément sa position (par ex: à ± 1 mm) contre une grande incertitude sur la valeur de sa vitesse (par ex: à ± 100 m/s), soit on peut connaître précisément sa vitesse (par ex: à ± 0,0001 m/s) contre une grande incertitude sur la valeur de sa position (par ex: à ± 1 km).

Cependant, si on renonce à considérer la particule en tant qu’objet corpusculaire, l’énoncé de ce principe devient plus intuitif. L’objet quantique ayant une certaine extension dans l’espace et une certaine durée de vie en temps, on le représente alors, non plus par un ensemble de valeurs scalaires (position, vitesse), mais par une fonction décrivant sa distribution spatiale.

Toute l’information relative à la particule est contenue dans cette fonction d’onde. Les mesures scalaires effectuées sur cette particule consistent à extraire seulement une partie de cette information, par l’intermédiaire d’opérateurs mathématiques.