Loi normale — Wikipédia

Loi normale
Image illustrative de l’article Loi normale
Densité de probabilité
La courbe rouge représente la fonction ,
densité de probabilité de la loi normale centrée réduite.

Image illustrative de l’article Loi normale
Fonction de répartition
La courbe rouge représente la fonction ,
fonction de répartition de la loi normale centrée réduite.

Paramètres , espérance (nombre réel)
, variance (nombre réel)
Support
Densité de probabilité
Fonction de répartition
Espérance
Médiane
Mode
Variance
Asymétrie 0
Kurtosis normalisé 0
Entropie
Fonction génératrice des moments
Fonction caractéristique

En théorie des probabilités et en statistique, les lois normales sont parmi les lois de probabilité les plus utilisées pour modéliser des phénomènes naturels issus de plusieurs événements aléatoires. Elles sont en lien avec de nombreux objets mathématiques dont le mouvement brownien, le bruit blanc gaussien ou d'autres lois de probabilité. Elles sont également appelées lois gaussiennes, lois de Gauss ou lois de Laplace-Gauss des noms de Laplace (1749-1827) et Gauss (1777-1855), deux mathématiciens, astronomes et physiciens qui les ont étudiées.

Plus formellement, une loi normale est une loi de probabilité absolument continue qui dépend de deux paramètres : son espérance, un nombre réel noté μ, et son écart type, un nombre réel positif noté σ. La densité de probabilité de la loi normale d'espérance μ et d'écart type σ est donnée par :

.

La courbe de cette densité est appelée courbe de Gauss ou courbe en cloche, entre autres. C'est la représentation la plus connue de ces lois. Lorsqu'une variable aléatoire X suit une loi normale, elle est dite gaussienne ou normale et il est habituel d'utiliser la notation avec la variance σ2 :

.

La loi normale de moyenne nulle et d'écart type unitaire, , est appelée loi normale centrée réduite ou loi normale standard.

Parmi les lois de probabilité, les lois normales prennent une place particulière grâce au théorème central limite. En effet, elles correspondent au comportement, sous certaines conditions, d'une suite d'expériences aléatoires similaires et indépendantes lorsque le nombre d'expériences est très élevé. Grâce à cette propriété, une loi normale permet d'approcher d'autres lois et ainsi de modéliser de nombreuses études scientifiques comme des mesures d'erreurs ou des tests statistiques, en utilisant par exemple les tables de la loi normale centrée réduite.

Définition et explications informelles

[modifier | modifier le code]
Cinq diagrammes en bâtons convergeant vers la densité d'une loi normale
Les diagrammes en bâtons représentent les lois discrètes de la somme de 1, 2, 3, 4 ou 5 dés. La courbe noire est la densité d'une loi normale vue comme limite des diagrammes en bâtons.

Les lois de probabilité permettent de décrire de manière théorique le caractère aléatoire d'une expérience qui est considérée comme aléatoire. Les lois normales en sont des cas particuliers. La manière historique de l'aborder est par approximation[1].

Lorsque le résultat de cette expérience aléatoire est à valeurs discrètes, par exemple la somme du lancer de deux dés vaut 2, 3… ou 12, une loi dite discrète modélise l'expérience. Les probabilités d'apparition de chaque valeur peuvent être représentées par des diagrammes en bâtons ou histogrammes (voir la figure ci-contre). Plusieurs scientifiques (voir Histoire de la loi normale) se sont intéressés à la réalisation d'un grand nombre d'expériences et au comportement de la loi de probabilité associée. Il apparaît que les fréquences d'apparition des valeurs possibles sont de plus en plus « lissées »[2] (voir la figure ci-contre). Il existe une certaine répartition autour d'une valeur centrale ; ces probabilités peuvent être alors représentées par une courbe de Gauss ou courbe en cloche obtenue par calcul ou par expérience[3]. Cette courbe est celle de la densité de probabilité d'une loi normale. Le rôle central de ces lois de probabilité vient du fait qu'elles sont la limite d'un grand nombre de lois de probabilité définies à partir de sommes, comme le montre le théorème central limite[4],[5].

Une autre manière visuelle de voir apparaître cette courbe est réalisée par la planche de Galton. Des billes sont lâchées en haut de la planche ; à chaque étage, elles ont deux possibilités : aller à droite ou aller à gauche. Après plusieurs étages, elles ont donc eu plusieurs choix aléatoires. Lorsque le nombre de billes est grand, la répartition des billes suivant leur position est approximativement une loi normale[6].

Comme pour toute loi de probabilité, plusieurs définitions équivalentes des lois normales existent : par leur densité de probabilité (la courbe de Gauss), par leur fonction de répartition, par leur fonction caractéristique, etc. Une loi normale dépend de deux paramètres : le premier donne la moyenne, c'est-à-dire la valeur « centrale » (ou « médiane ») des valeurs possibles[7] (par exemple, la moyenne de la somme de deux dés est 7) ; le deuxième paramètre renseigne sur la dispersion des valeurs autour de cette valeur centrale[7] : plus ce paramètre est faible, plus les valeurs proches de la valeur centrale auront une forte probabilité d'apparaître. Beaucoup de grandeurs physiques peuvent être représentées par ces deux paramètres[8].

Lors de l'étude statistique d'une série d'observations d'une même grandeur, la moyenne des valeurs observées peut être considérée comme une variable aléatoire suivant une loi normale. La moyenne de cette loi normale est alors considérée comme la valeur « réelle » de la grandeur observée, et la dispersion de la loi renseigne sur l'« erreur » d'observation[9]. C'est-à-dire qu'il est possible de calculer[9] une valeur approchée de la probabilité qu'une variable suivant une loi normale soit dans un intervalle [μσ, μ + σ] autour de la moyenne μ. Il s'agit de pouvoir obtenir une approximation de la grandeur observée dans l'expérience en considérant les erreurs dues aux instruments de mesure ou autres[2].

page de couverture de l'essai de Laplace
p90 de l'essai de Laplace
Le théorème central limite, Pierre-Simon de Laplace, Essai sur la philosophie des probabilités, , 6e éd., p. 90

Une des premières apparitions d'une loi normale est due[a 1] à Abraham de Moivre en 1733 en approfondissant l'étude de la factorielle n! lors de l'étude d'un jeu de pile ou face. Il publie The Doctrine of Chances en 1756 dans lequel une loi normale apparaît comme limite d'une loi binomiale, ce qui sera à l'origine du théorème central limite[a 2]. En 1777, Pierre-Simon de Laplace reprend ces travaux et obtient une bonne approximation de l'erreur entre cette loi normale et une loi binomiale grâce à la fonction gamma d'Euler[a 1]. Dans son ouvrage publié en 1781[réf. souhaitée], Laplace donne une première table de cette loi. En 1809, Carl Friedrich Gauss assimile des erreurs d'observation en astronomie à la courbe, dite des erreurs, de la densité d'une loi normale[a 2].

Une loi normale est alors pleinement définie lorsque le premier théorème central limite, alors appelé théorème de Laplace, est énoncé par Laplace en 1812[a 1]. Son nom « normale » est donné par Henri Poincaré à la fin du XIXe siècle[10]. Les lois normales portent également les noms de lois de Gauss ou lois de Laplace-Gauss[11] en fonction de l'attribution de la paternité de la création de ces lois ; la dénomination de deuxième loi de Laplace est également utilisée occasionnellement[12].

Les études sur les lois normales se poursuivent durant le XIXe siècle. Ainsi, de nouvelles tables numériques sont données en 1948 par Egon Sharpe Pearson, en 1952 par le National Bureau of Standards[13] et en 1958 par Greenwood et Hartley[14].

Loi normale centrée réduite

[modifier | modifier le code]

Une loi normale est une loi de probabilité (c'est-à-dire une mesure N de masse totale unitaire[a 3]) unidimensionnelle (c'est-à-dire à support réel ). C'est une loi absolument continue, c'est-à-dire que la mesure est absolument continue par rapport à la mesure de Lebesgue. Autrement dit, il existe une densité de probabilité, souvent notée φ pour la loi normale centrée réduite, telle que : N(dx) = φ(x) dx. Elle est généralisée par la loi normale multidimensionnelle. La loi normale centrée réduite est appelée loi normale standard[15].

Définition par la fonction de densité

[modifier | modifier le code]
Courbe de Gauss
Fonction de densité de la loi normale centrée réduite (dite courbe de Gauss ou courbe en cloche).

La loi normale centrée réduite est la loi de probabilité absolument continue dont la densité de probabilité est donnée par la fonction définie par[16] : , pour tout . Cette loi est dite centrée puisque son moment d'ordre 1 (espérance) vaut 0 et réduite puisque son moment d'ordre 2 (variance) vaut 1, tout comme son écart type. Le graphe de la densité φ est appelé fonction gaussienne, courbe de Gauss ou courbe en cloche. Cette loi est notée grâce à la première lettre de « normal », une variable aléatoire X qui suit la loi normale centrée réduite est notée : .

Quelques remarques et propriétés immédiates (voir également les propriétés ci-dessous) :

  • le calcul de l'intégrale de Gauss permet de démontrer que la fonction φ est une densité de probabilité par la formule :  ;
  • la densité φ est continue, uniformément bornée et paire[17] ;
  • cette parité fait que l'espérance et les moments d'ordres impairs sont nuls ;
  • les moments d'ordres pairs sont donnés par [18](en particulier, Var(X) = m2 = 1), d'après la relation de récurrence m2k = (2k–1)m2k–2 pour k ≥ 1, qui provient de l'intégration par parties suivante :.
  • le maximum de la fonction φ est atteint en la moyenne 0 et vaut[17]  ;
  • la fonction vérifie :  ;
  • la densité φ est infiniment dérivable ; un raisonnement par récurrence permet d'obtenir la formule[19] : Hn est le n-ième polynôme d'Hermite ;
  • la densité possède[a 3] deux points d'inflexion en 1 et en –1. Ce sont les points en lesquels la dérivée seconde φ'' s'annule et change de signe. Les deux points se situent approximativement aux trois cinquièmes de la hauteur totale.

Définition par la fonction de répartition

[modifier | modifier le code]
Fonction de répartition
Fonction de répartition de la loi normale centrée réduite.

Historiquement, une loi normale est apparue comme la loi limite dans le théorème central limite à l'aide de sa fonction de répartition. Il est alors utile de définir la loi par cette fonction. La loi normale est la loi de probabilité dont la fonction de répartition est donnée par la fonction définie par[18] : , pour tout . Elle donne la probabilité qu'une variable aléatoire de loi normale appartienne à un intervalle  : (pour plus de détails de calcul, voir la section Tables numériques et calculs).

Quelques remarques et propriétés immédiates :

  • il n'existe pas d'expression analytique de la fonction de répartition Φ, c'est-à-dire qu'elle ne s'exprime pas à partir de fonctions usuelles mais devient elle-même une fonction usuelle[20] ;
  • elle s'exprime en fonction de la fonction d'erreur grâce aux deux formules équivalentes suivantes[a 4] :
    1. ,
    2.  ;
  • elle est dérivable une infinité de fois et vérifie Φ'(x) = φ(x). L'écriture équivalente dΦ(x) = φ(x)dx permet de définir l'intégrale de Lebesgue-Stieltjes par rapport à la loi normale ;
  • elle est absolument continue et strictement croissante, c'est donc une bijection[a 5] de dans ]0 ; 1[. Sa réciproque Φ−1 existe et s'appelle la fonction probit. Cette fonction est utilisée pour le modèle probit[21] ;
  • par parité de la loi, Φ(–x) = 1 – Φ(x) et ainsi Φ(0) = 1/2. Ceci montre[a 5] que la médiane de la loi normale centrée réduite est 0 ;
  • par définition de la fonction de répartition, lorsque la variable aléatoire X suit la loi normale centrée réduite, . Pour obtenir les valeurs de cette probabilité, il faut approcher cette fonction par d'autres fonctions usuelles et il existe des tables de valeurs (voir la section Table de la loi normale ci-dessous).

Définition par la fonction caractéristique

[modifier | modifier le code]
Fonction caractéristique
Fonction caractéristique et fonction génératrice des moments de la loi normale centrée réduite.

La caractérisation d'une loi normale par sa fonction caractéristique présente un intérêt pour démontrer certaines propriétés, comme la stabilité par addition ou le théorème central limite. Cette fonction caractéristique , qui se calcule à partir de la densité de probabilité[18],[22] et caractérise la loi, est donnée par : . Cette fonction caractéristique est égale, à une constante multiplicative près, à la densité de probabilité de la loi : on dit que la fonction caractéristique d'une gaussienne est gaussienne[a 3].

Si une variable aléatoire X suit la loi normale centrée réduite de fonction caractéristique ϕ définie ci-dessus, alors[23] la transformation linéaire Y = aX+b admet pour fonction caractéristique : . C'est donc une variable aléatoire de loi normale de moyenne b et de variance a2.

Définition par la fonction génératrice des moments

[modifier | modifier le code]

Une autre manière de définir une loi normale est par l'utilisation de sa fonction génératrice des moments . Cette fonction, qui se calcule à partir de la fonction de densité[b 1] et caractérise la loi, est donnée par[24] : , pour tout . On retrouve ainsi les valeurs des moments mn (voir supra).

Loi normale générale

[modifier | modifier le code]

Définition

[modifier | modifier le code]

Plus généralement que la loi normale centrée réduite, une loi normale (non centrée et non réduite) est une loi de probabilité absolument continue dont l'un des quatre points suivants est vérifié :

  • la densité de probabilité est donnée par[16] :, pour tout  ;
  • la fonction de répartition est donnée par :, pour tout  ;
  • la fonction caractéristique est donnée par[25] :, pour tout  ;
  • la fonction génératrice des moments est donnée par[26],[27],[b 2] :, pour tout , et .

Pour le cas où σ = 0, c'est une forme dégénérée de la loi normale, parfois appelée loi normale impropre[25]. C'est alors la mesure de Dirac au point μ qui n'est pas absolument continue.

La valeur μ est la moyenne de la loi et σ est l'écart type alors que σ2 en est la variance. Cette loi est notée grâce à la première lettre de « normal ». Une variable aléatoire X qui suit une loi normale est notée de deux manières différentes suivant les auteurs[28],[15] : La deuxième notation a l'intérêt de pouvoir noter la stabilité par addition de manière simple[a 5] ; elle sera utilisée dans cet article.

Remarques et propriétés immédiates

[modifier | modifier le code]
  • Si la variable aléatoire X suit la loi normale centrée réduite , alors la variable aléatoire σX + μ suit la loi normale de moyenne μ et de variance σ2. Réciproquement, si Y suit la loi normale , alors Yμ/σ suit la loi normale centrée réduite[1]. Dit autrement, toute loi normale peut s'obtenir par translation (shifting en anglais) et par dilatation (scaling en anglais) de la loi centrée réduite.Cette première propriété permet d'obtenir la formule très utile[29] :.Il est alors possible de déduire les propriétés d'une loi normale à partir de celles de la loi normale centrée réduite, et vice versa. La variable Yμ/σ est parfois[30] appelée la « standardisation » de Y ou « variable Y centrée réduite ».
  • Plus généralement, si alors (on peut le lire sur les fonctions génératrices des moments[31], ou sur les densités).
  • La densité f est symétrique par rapport à μ[17].
  • Le maximum de la fonction f est atteint en μ et vaut[17] .
  • La décroissance de la densité à droite et à gauche de μ est surexponentielle[17].
  • Puisqu'une loi normale est une loi de probabilité absolument continue, l'événement [X = x] est négligeable, c'est-à-dire que presque sûrement une variable aléatoire de loi normale X n'est jamais égale à une valeur fixée x. Ceci se traduit mathématiquement par : .
  • La largeur à mi-hauteur permet de donner une valeur d'amplitude de la loi. C'est la largeur de la courbe à une hauteur qui vaut la moitié de la hauteur totale. Cette largeur à mi-hauteur de la loi normale est proportionnelle à l'écart type[a 6] : H = 2 2 ln (2) σ ≈ 2,3548 σ. Le facteur 2 est issu de la propriété de symétrie de la loi normale.
  • La densité possède[a 3] deux points d'inflexion en μ + σ et en μσ. Ce sont les points en lesquels la dérivée seconde f'' s'annule et change de signe. Les deux points se situent approximativement aux trois cinquièmes de la hauteur totale.
  • Les lois normales sont des lois de la famille exponentielle, c'est-à-dire que leur densité s'écrit sous la forme : ou, de manière équivalente, sous la forme[32].

Propriétés

[modifier | modifier le code]

Autres caractérisations

[modifier | modifier le code]

En addition de la densité de probabilité, de la fonction de répartition, de la fonction caractéristique et de la fonction génératrice des moments, il existe d'autres caractérisations des lois normales.

  • Caractérisation due à Georges Darmois (1951) et Sergueï Bernstein (1954)[a 2] : si deux variables aléatoires X1 et X2 sont indépendantes et de même loi et si les deux variables aléatoires X1 + X2 et X1X2 sont également indépendantes, alors la loi commune X1 et X2 est une loi normale.
  • Caractérisation due à Charles Stein (1972)[a 3] : les lois normales sont les seules lois de probabilité (mesures de probabilité) telles que, pour toute fonction g de classe C¹ (c'est-à-dire dérivable et de dérivée continue) :.

Le moment d'ordre 1 est appelé la moyenne (μ) et est donné en paramètre d'une loi normale . Le deuxième paramètre est son écart type (σ), c'est-à-dire la racine carrée de la variance qui est par définition la moyenne des carrés des écarts à la moyenne. Il est alors également intéressant d'obtenir les moments centrés d'une loi normale, ils sont donnés par[31] :

pour et X une variable aléatoire de loi normale .

Le moment ordinaire mn peut s'obtenir à partir des moments d'ordre inférieur à n – 1 et du moment centré d'ordre n, en utilisant la formule qui exprime μn en fonction de m0, m1, ..., mn. Les premiers moments d'une loi normale sont alors[33] : .

Calcul direct

[modifier | modifier le code]

Grâce à la symétrie autour de μ de la fonction de densité d'une loi normale, les moments centrés d'ordre impair sont tous nuls[31].

Des moments d'ordre pairs de la loi normale centrée réduite (voir supra), on déduit la formule des moments centrés : .

Par la fonction génératrice des moments

[modifier | modifier le code]

Les moments centrés (μn, n ≥ 0) d'une loi peuvent s'obtenir à partir de la fonction génératrice des moments centrés. Le cas particulier μ = 0 de la fonction génératrice des moments (voir supra) donne : .

Comme par ailleurs on a (pour toute loi) , on en déduit, par identification des coefficients des deux séries[31], les moments centrés d'une loi normale (voir supra).

Quant aux moments ordinaires, leur fonction génératrice permet d'établir la relation de récurrence[b 3] :

.
Densités de lois avec différents kurtosis
Densités de probabilités de lois de kurtosis différents. Loi de Laplace en rouge, loi sécante hyperbolique en orange, loi logistique en vert, loi normale en noir, loi du cosinus surélevé en cyan, loi du demi-cercle en bleu et loi uniforme en violet.

Asymétrie et aplatissement

[modifier | modifier le code]

L'asymétrie γ1, le kurtosis β2 et le kurtosis normalisé γ2 s'obtiennent à partir des formules des moments[34] :

 ;
 ;
.

Les lois normales servent de point de référence pour la comparaison des épaisseurs de traîne : si une loi possède un kurtosis normalisé γ2 > 0, alors la loi possède une traîne plus épaisse qu'une loi normale et est dite leptokurtique ; à l'inverse si γ2 < 0, la loi possède une traîne moins épaisse qu'une loi normale et est appelée platikurtique ; les lois de kurtosis normalisé nul possèdent une traîne comparable à la loi normale et sont dites mésokurtiques.

La fonction caractéristique permet d'obtenir la fonction génératrice des cumulants par la formule et permet d'obtenir les cumulants[35] : K1 = μ, K2 = σ2 et Kn = 0 pour n ≥ 3.

Théorèmes de convergence

[modifier | modifier le code]
Animation montrant la convergence d'une loi discrète vers une loi continue.
Lorsque le nombre n de variables augmente, la densité de probabilité de la variable Sn (centrée réduite) se rapproche de la courbe en cloche d'une loi normale.

La première version du théorème central limite, appelé alors théorème de Moivre-Laplace, a été énoncée dans le cas de variables aléatoires de loi de Bernoulli. De manière plus générale, si X1, X2, ..., Xn sont des variables indépendantes et identiquement distribuées de variance finie et si la somme est notée Sn = X1 + X2 + ... + Xn, alors[20] pour tout a < b φ est la densité de probabilité de la loi normale centrée réduite.

Ce théorème signifie que tout ce qui peut être considéré comme étant la somme d'une grande quantité de petites valeurs aléatoires indépendantes et identiquement distribuées est approximativement de loi normale[36]. Ceci montre le caractère central des lois normales en théorie des probabilités. Un énoncé physique de ce théorème peut être formulé[37] : Si une grandeur physique subit l'influence additive d'un nombre important de facteurs indépendants et si l'influence de chaque facteur pris séparément est petite, alors la distribution de cette grandeur est une distribution gaussienne.

Ce théorème central limite est valide pour toute loi de probabilité initiale des variables iid X1, X2, ..., Xn ayant un écart type fini, il permet d'obtenir de bonnes approximations de la somme Sn, par exemple[38] :

  • si les variables Xi sont de loi de Bernoulli , alors Sn suit approximativement une loi normale . Cette approximation est satisfaisante[39] dans le cas où np(1–p) > 10 ;
  • si les variables Xi sont de loi du χ² : χ2(1), alors Sn suit approximativement une loi normale  ;
  • si les variables Xi sont de loi exponentielle : , alors Sn suit approximativement une loi normale .

Il existe des versions plus générales de ce théorème, par exemple en considérant des variables aléatoires indépendantes, pas de même loi mais ayant des variances petites comparées à celle de leur moyenne[40]. Un théorème de Gnedenko et Kolmogorov (1954) stipule qu'une variable aléatoire normale est la somme d'un grand nombre de variables aléatoires indépendantes petites dont aucune n'est prépondérante :

Théorème — Considérons une suite de variables aléatoires (Xn, n ≥ 1) dont chacune est la somme d'un nombre fini de variables aléatoires avec .

Pour tout ε > 0, introduisons la variable aléatoire tronquée :

et supposons :

  • (en probabilité) ;
  • pour tout ε > 0, et .

Alors la loi de Xn converge vers la loi normale .

Stabilités et famille normale

[modifier | modifier le code]

Stabilité par additivité (propriété de conservation)

[modifier | modifier le code]

Les lois normales sont stables par additivité[a 2], c'est-à-dire que la somme de deux variables aléatoires indépendantes de lois normales est elle-même une variable aléatoire de loi normale. Plus explicitement : si , et X1 et X2 sont indépendantes, alors la variable aléatoire suit la loi normale .

Cette propriété se généralise pour n variables, c'est-à-dire que si pour tout , les variables aléatoires Xi suivent une loi normale et sont indépendantes, alors[41] la somme X1 + X2 + ... + Xn suit une loi normale .

Cette propriété se démontre directement au moyen des fonctions caractéristiques. La densité de probabilité de la somme de deux variables indépendantes de loi normale est donnée par la convolution des deux densités. Ceci se traduit par les formules de convolution de fonctions[25] ou de convolution de mesures normales[42] que l'on note  : et .

Il ne faut pas confondre avec la loi dont la densité est la somme de densités de lois normales (voir la section Constructions à partir de la loi normale ci-dessous).

densités de lois stables
Différentes densités de probabilité de lois stables dont la loi normale est un cas particulier : la courbe noire est la courbe en cloche.

Famille normale

[modifier | modifier le code]

L'ensemble de fonctions forme la famille dite famille normale. La famille normale est également le nom de l'ensemble des lois normales[42] . La famille de fonctions est fermée pour la convolution au sens où[43] : la fonction φ est la seule qui engendre la famille ; si la convolution de deux densités est dans la famille alors les deux fonctions sont dans la famille ; et toute densité convolée un nombre suffisamment grand de fois et convenablement renormalisée est proche d'une fonction de la famille normale. Les trois théorèmes suivants donnent plus de précisions mathématiques.

  1. Théorème[43] : si pour une fonction de densité f de moyenne 0 et d'écart type 1, il existe et satisfaisant :,alors est la densité de la loi normale centrée réduite.
  2. Théorème de Lévy-Cramér (1936) (conjecturé par Paul Lévy en 1935)[44],[a 2] : si deux fonctions de densité, f1 et f2, vérifient :,alors et avec μ1 + μ2 = μ et σ1 + σ2 = σ. Autrement dit, si la somme de deux variables aléatoires indépendantes est normale, alors les deux variables sont de lois normales.
  3. Théorème[44] : si f est la densité commune de n variables aléatoires indépendantes de moyenne 0 et d'écart type 1, alors la convolée n fois de f converge uniformément en x : (ce théorème est équivalent au théorème central limite). Il ne faut pas confondre cette famille normale avec la famille normale de fonctions holomorphes.

Stabilité par linéarité

[modifier | modifier le code]

Les lois normales sont stables par linéarité : si α ≥ 0 et β sont deux réels et , alors[45] la variable aléatoire αX + β suit la loi normale .

Grâce aux stabilités par addition et par linéarité, une loi normale est un cas particulier de loi stable[a 7] avec pour paramètre de stabilité α = 2. Parmi les lois stables, les lois normales, la loi de Lévy (α = 1/2) et la loi de Cauchy (α = 1) sont les seules à posséder une expression analytique de leur fonction de densité.

Stabilité par moyenne

[modifier | modifier le code]

Les lois normales sont stables par moyennisation, c'est-à-dire si X1, X2, ..., Xn sont des variables aléatoires indépendantes suivant respectivement les lois normales , alors la moyenne 1/n(X1 + X2 + ... + Xn) suit la loi .

Les lois normales ne sont pas convexe[46], c'est-à-dire que l'inégalité pour tous boréliens A et B n'est pas vérifiée lorsque la mesure est normale. Cependant, lorsque l'on normalise cette inégalité avec l'inverse de la fonction de répartition de la loi normale centrée réduite, on obtient le théorème suivant, analogue à l'inégalité de Brunn-Minkowski-Lusternik pour la mesure de Lebesgue dans  :

Inégalité de Ehrhard — Pour la mesure normale standard , pour tous ensembles boréliens A et B et pour tout λ ∈ ]0 ; 1[,

.

En fait, les lois normales font partie de la famille des distributions de mesures log-concaves, c'est-à-dire vérifiant pour tous boréliens A et B et tout ,

Entropie et quantité d'information

[modifier | modifier le code]

Entropie de Shannon

[modifier | modifier le code]

L'entropie de Shannon d'une loi de probabilité absolument continue de densité donnée par f permet de mesurer une quantité d'information et est définie par : . Dans l'ensemble des lois absolument continues de variance σ2 fixée, les lois normales sont d'entropie maximum[a 8]. L'entropie maximum, pour une loi normale donc, est donnée par : H = ln (σ 2πe). Ainsi la théorie de maximisation de l'entropie dit que, même si elle n'est pas la meilleure loi adaptée aux valeurs, une loi normale ajustée aux valeurs est adéquate pour prendre une décision.

Il y a également une connexion entre la convergence de suites de lois de probabilité vers une loi normale et la croissance de l'entropie, ce qui en fait un outil majeur dans la théorie de l'information[a 2].

La quantité d'information de Fisher

[modifier | modifier le code]

L'information de Fisher d'une loi à densité de probabilité est une autre notion de quantité d'information. Pour une densité f, elle est donnée par : . Pour toute densité suffisamment régulière d'une loi centrée réduite, cette information vérifie I ≥ 1. Les lois normales se distinguent des autres densités puisque l'inégalité précédente est une égalité si et seulement si la densité est celle de la loi normale centrée réduite[a 2].

Distance entre lois

[modifier | modifier le code]

La divergence de Kullback-Leibler entre deux lois permet de mesurer une distance entre les deux lois, ou une perte d'information entre les deux lois. La divergence de Kullback-Leibler entre les deux lois normales et est : . Cette divergence est nulle pour μ1 = μ2 et σ1 = σ2 ; de plus, elle croît lorsque croît[a 9].

Approximation de la fonction de répartition

[modifier | modifier le code]

Il n'existe pas d'expression analytique pour la fonction de répartition Φ de la loi normale centrée réduite, c'est-à-dire qu'il n'existe pas de formule simple entre la fonction de répartition et les fonctions classiques telles que les fonctions polynomiales, exponentielle, logarithmique, trigonométriques, etc. Cependant la fonction de répartition apparaît dans plusieurs résultats à vocation à être appliqués, il est donc important de mieux cerner cette fonction. Différentes écritures sous forme de séries ou de fractions continues généralisées sont possibles[47].

Pour les valeurs de , la fonction de répartition de la loi normale centrée réduite s'écrit sous la forme[a 10] : , ou sous la forme : .

Pour , la fonction de répartition de la loi normale centrée réduite s'écrit sous la forme[47],[a 10] : avec .

De manière plus numérique et facilement calculable, les approximations suivantes donnent des valeurs de la fonction de répartition Φ de la loi normale centrée réduite avec :

  • une erreur de l'ordre de[48] 10−5 : pour x > 0,  ;
  • une erreur de l'ordre de[48]  : pour  :  ;
  • une erreur de l'ordre de[a 10]  :

Voici un exemple d'algorithme[a 4] pour le langage C :

double Phi(double x){    long double s=x,t=0,b=x,q=x*x,i=1;     while(s!=t)       s = (t=s) + (b*=q/(i+=2));    return 0.5 + s*exp(-0.5*q - 0.91893853320467274178L); } 

Une autre écriture de la fonction de répartition de la loi normale centrée réduite utilise une fraction continue généralisée[a 4] : .

Tables numériques et calculs

[modifier | modifier le code]
Fonction quantile d'une loi normale centrée réduite.

Comme mentionné dans la section précédente, il est utile de bien connaître la fonction de répartition Φ pour les applications numériques. Des tables de valeurs ont alors été calculées pour la fonction de répartition, mais également pour son inverse, ce qui permet d'obtenir les quantiles et les intervalles de confiance pour un seuil de tolérance fixé.[réf. nécessaire]

Les tables sont données pour les valeurs positives de la loi normale centrée réduite. Grâce aux formules de la fonction de répartition, il est possible d'obtenir d'autres valeurs.

Les valeurs négatives de la fonction de répartition sont données par la formule[14] Φ(–x) = 1 – Φ(x). Par exemple : pour .

Les valeurs de la fonction de répartition de la loi générale s'obtiennent par la formule[50] . Par exemple[51] : , pour .

La table de valeurs permet également d'obtenir la probabilité qu'une variable aléatoire de loi normale appartienne à un intervalle donné [a , b] par la formule : . Par exemple :

  • pour  ;
  • pour .

Plages de normalité, intervalles de confiance

[modifier | modifier le code]

Un des intérêts de calculer des probabilités sur des intervalles est l'utilisation des intervalles de confiance pour les tests statistiques. Une loi normale est définie par deux valeurs : sa moyenne μ et son écart type σ. Ainsi il est utile de s'intéresser aux intervalles[52] du type [μ, μ + ]. pour .

boite à moustache et courbe de Gauss
Représentation d'une boîte à moustaches et le lien avec les quantiles d'une loi normale.

Cette table de valeurs des intervalles de confiance permet d'obtenir les plages de normalité pour un niveau de confiance donné. Pour , le tableau donne[9] :

  • .L'intervalle [μσ, μ + σ] est la plage de normalité au niveau de confiance 68 % ;
  • .L'intervalle [μ – 0,5H, μ + 0,5H], H étant la largeur à mi-hauteur, est la plage de normalité au niveau de confiance 76 % ;

L'intervalle [μ – 2σ, μ + 2σ] est la plage de normalité au niveau de confiance 95.4 % ;

L'intervalle [μ – 1.96σ, μ + 1.96σ] est la plage de normalité au niveau de confiance 95 % (voir 97,5ème centile)

  • L'intervalle [μ – 3σ, μ + 3σ] est la plage de normalité au niveau de confiance 99 %.

Inversement, lorsque la valeur de la probabilité α ∈ [0 ; 1] est fixée, il existe[a 5] une unique valeur telle que : . L'intervalle [μ, μ + ] est appelé plage de normalité ou intervalle de confiance au niveau de confiance α. Pour une loi normale et le seuil α donnés, la méthode pour retrouver cette valeur r consiste[53] à utiliser le tableau de valeur des quantiles (ci-dessus) pour trouver la valeur r telle que Φ(r) = α + 1/2 ; l'intervalle de confiance est alors [μ, μ + ].

Par exemple, la plage de normalité au niveau de confiance 95 % d'une loi normale est l'intervalle [10 – 2r, 10 + 2r]r vérifie Φ(r) = 0,95 + 1/2 = 0,975, soit r = q0,975 ≈ 1,96, l'intervalle est donc : [6,08 ; 13,92] aux arrondis près.

Liens avec d'autres lois

[modifier | modifier le code]

Grâce à son rôle central parmi les lois de probabilité et dans les applications, les lois normales possèdent beaucoup de liens avec les autres lois. Certaines lois sont même construites à partir d'une loi normale pour mieux correspondre aux applications.

Lois usuelles

[modifier | modifier le code]
Différentes lois du et
Lois en fonction de variables de loi normale
loi du χ²
loi du χ² non centrée
loi du χ
loi du χ non centrée

Lois unidimensionnelles

[modifier | modifier le code]
  • Si une variable aléatoire suit la loi normale , alors[54] la variable aléatoire suit la loi log-normale.
  • Si U et V sont deux variables aléatoires indépendantes de loi uniforme sur [0, 1], alors les deux variables aléatoires et sont de loi normale centrée réduite[50]. De plus X et Y sont indépendantes. Ces deux formules sont utilisées pour simuler la loi normale.
  • Si les variables