En statistiques et en théorie des probabilités , le théorème de König -Huygens est une identité remarquable reliant la variance et la moyenne .
Le théorème de König-Huygens s'énonce de la façon suivante :
Théorème — Pour toute variable aléatoire réelle X qui admet un moment d'ordre 2, on a :
Var ( X ) ≡ E [ ( X − E [ X ] ) 2 ] = E [ X 2 ] − E [ X ] 2 {\displaystyle \operatorname {Var} (X)\equiv \mathbb {E} \left[(X-\mathbb {E} [X])^{2}\right]=\mathbb {E} [X^{2}]-\mathbb {E} [X]^{2}} . Démonstration
La démonstration est relativement simple et algébrique. Trois points sont à rappeler :
le développement du binôme de Newton ; la linéarité de l'espérance en fonction de la variable aléatoire ; l'espérance d'une constante vaut cette constante. Ces trois propriétés rappelées impliquent :
E [ ( X − E [ X ] ) 2 ] = E [ X 2 − 2 X E [ X ] + E [ X ] 2 ] = E [ X 2 ] − E [ 2 X E [ X ] ] + E [ E [ X ] 2 ] = E [ X 2 ] − 2 E [ X ] E [ X ] + E [ X ] 2 = E [ X 2 ] − E [ X ] 2 {\displaystyle {\begin{aligned}\mathbb {E} \left[(X-\mathbb {E} [X])^{2}\right]&=\mathbb {E} \left[X^{2}-2X\mathbb {E} [X]+\mathbb {E} [X]^{2}\right]\\&=\mathbb {E} [X^{2}]-\mathbb {E} \left[2X\mathbb {E} [X]\right]+\mathbb {E} \left[\mathbb {E} [X]^{2}\right]\\&=\mathbb {E} [X^{2}]-2\mathbb {E} [X]\mathbb {E} [X]+\mathbb {E} [X]^{2}\\&=\mathbb {E} [X^{2}]-\mathbb {E} [X]^{2}\end{aligned}}}
Ce théorème peut également s'appliquer pour une décomposition de la formule de la variance empirique.
Théorème — On a : 1 n ∑ i = 1 n ( x i − x ¯ ) 2 = ( 1 n ∑ i = 1 n x i 2 ) − x ¯ 2 {\displaystyle {\frac {1}{n}}\sum _{i=1}^{n}\left(x_{i}-{\overline {x}}\right)^{2}=\left({\frac {1}{n}}\sum _{i=1}^{n}x_{i}^{2}\right)-{\overline {x}}^{2}}
Démonstration
1 n ∑ i = 1 n ( x i − x ¯ ) 2 = 1 n ∑ i = 1 n ( x i 2 − 2 x i x ¯ + x ¯ 2 ) = 1 n ∑ i = 1 n x i 2 − 1 n ∑ i = 1 n 2 x i x ¯ + 1 n ∑ i = 1 n x ¯ 2 = 1 n ∑ i = 1 n x i 2 − 2 x ¯ n ∑ i = 1 n x i + 1 n n x ¯ 2 = 1 n ∑ i = 1 n x i 2 − 2 x ¯ 2 + x ¯ 2 = 1 n ∑ i = 1 n x i 2 − x ¯ 2 {\displaystyle {\begin{aligned}{\frac {1}{n}}\sum _{i=1}^{n}\left(x_{i}-{\overline {x}}\right)^{2}&={\frac {1}{n}}\sum _{i=1}^{n}\left(x_{i}^{2}-2x_{i}{\bar {x}}+{\overline {x}}^{2}\right)&\\&={\frac {1}{n}}\sum _{i=1}^{n}x_{i}^{2}-{\frac {1}{n}}\sum _{i=1}^{n}2x_{i}{\bar {x}}+{\frac {1}{n}}\sum _{i=1}^{n}{\bar {x}}^{2}\\&={\frac {1}{n}}\sum _{i=1}^{n}x_{i}^{2}-{\frac {2{\bar {x}}}{n}}\sum _{i=1}^{n}x_{i}+{\frac {1}{n}}n{\bar {x}}^{2}\\&={\frac {1}{n}}\sum _{i=1}^{n}x_{i}^{2}-2{\bar {x}}^{2}+{\bar {x}}^{2}\\&={\frac {1}{n}}\sum _{i=1}^{n}x_{i}^{2}-{\bar {x}}^{2}\\\end{aligned}}}
Cette formulation est en fait un cas particulier d'une identité plus générale.
Identité — On a : 1 n ∑ i = 1 n ( X i − a ) 2 = 1 n ∑ i = 1 n ( X i − X ¯ ) 2 + ( X ¯ − a ) 2 {\displaystyle {\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-a)^{2}={\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-{\bar {X}})^{2}+({\bar {X}}-a)^{2}}
Démonstration
∑ i = 1 n ( X i − a ) 2 = ∑ i = 1 n ( X i − X ¯ + X ¯ − a ) 2 = ∑ i = 1 n ( ( X i − X ¯ ) + ( X ¯ − a ) ) 2 = ∑ i = 1 n [ ( X i − X ¯ ) 2 + 2 ( X i − X ¯ ) ( X ¯ − a ) + ( X ¯ − a ) 2 ] = ∑ ( X i − X ¯ ) 2 + 2 ( X ¯ − a ) ( ∑ X i − n X ¯ ) + n ( X ¯ − a ) 2 = ∑ ( X i − X ¯ ) 2 + 2 ( X ¯ − a ) ( ∑ X i − n 1 n ∑ X i ) + n ( X ¯ − a ) 2 = ∑ i = 1 n ( X i − X ¯ ) 2 + n ( X ¯ − a ) 2 {\displaystyle {\begin{aligned}\sum _{i=1}^{n}(X_{i}-a)^{2}&=\sum _{i=1}^{n}(X_{i}-{\bar {X}}+{\bar {X}}-a)^{2}\\&=\sum _{i=1}^{n}\left((X_{i}-{\bar {X}})+({\bar {X}}-a)\right)^{2}\\&=\sum _{i=1}^{n}\left[(X_{i}-{\bar {X}})^{2}+2(X_{i}-{\bar {X}})({\bar {X}}-a)+({\bar {X}}-a)^{2}\right]\\&=\sum (X_{i}-{\bar {X}})^{2}+2({\bar {X}}-a)(\sum X_{i}-n{\bar {X}})+n({\bar {X}}-a)^{2}\\&=\sum (X_{i}-{\bar {X}})^{2}+2({\bar {X}}-a)(\sum X_{i}-n{\frac {1}{n}}\sum X_{i})+n({\bar {X}}-a)^{2}\\&=\sum _{i=1}^{n}(X_{i}-{\bar {X}})^{2}+n({\bar {X}}-a)^{2}\end{aligned}}}
N.B. : la démonstration est tirée de Mood et al. (2001, p. 229)
Remarque : En passant le deuxième terme de droite à gauche et en prenant a = 0 on retrouve la formule de la variance montrée plus haut :
1 n ∑ i = 1 n ( X i − X ¯ ) 2 = 1 n ∑ i = 1 n ( X i − a ) 2 − ( X ¯ − a ) 2 {\displaystyle {\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-{\bar {X}})^{2}={\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-a)^{2}-({\bar {X}}-a)^{2}} Et donc si a = 0 , 1 n ∑ i = 1 n ( X i − X ¯ ) 2 = 1 n ∑ i = 1 n ( X i ) 2 − ( X ¯ ) 2 {\displaystyle {\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-{\bar {X}})^{2}={\frac {1}{n}}\sum _{i=1}^{n}(X_{i})^{2}-({\bar {X}})^{2}}
Ce théorème est un cas particulier de simplification de la fonction scalaire de Leibniz concernant des barycentres .
En effet, la moyenne m est le barycentre du système pondéré { ( x i , n i ) } i = 1... k {\displaystyle \{(x_{i},n_{i})\}_{i=1...k}} . La simplification de la fonction scalaire de Leibniz donne pour le système { ( A i , a i ) i = 1... k } {\displaystyle \{(A_{i},a_{i})_{i=1...k}\}} de barycentre G :
∑ i = 1 k a i A A i 2 = ∑ i = 1 k a i G A i 2 + ( ∑ i = 1 k a i ) G A 2 {\displaystyle \sum _{i=1}^{k}a_{i}AA_{i}^{2}=\sum _{i=1}^{k}a_{i}GA_{i}^{2}+\left(\sum _{i=1}^{k}a_{i}\right)GA^{2}} En remplaçant G par m , A par m' , ai par ni et Ai par xi , on obtient
∑ i = 1 k n i ( x i − m ′ ) 2 = ∑ i = 1 k n i ( x i − m ) 2 + n ( m ′ − m ) 2 {\displaystyle \sum _{i=1}^{k}n_{i}(x_{i}-m')^{2}=\sum _{i=1}^{k}n_{i}(x_{i}-m)^{2}+n(m'-m)^{2}} Ce qui est, à un facteur n près et à l'ordre près, la formule précédente.
Soit un système de k points matériels Ai , de masses respectives mi , de masse totale M , de centre de masse G et un point A distant de d du point G . Le théorème de transport ou théorème de Huygens ou théorème de Steiner donne JA le moment d'inertie du système par rapport à A en fonction de JG le moment d'inertie du système par rapport à G {\displaystyle G} :
J A = J G + M ⋅ d 2 {\displaystyle J_{A}=J_{G}+M\cdot d^{2}} avec
J A = ∑ i = 1 k m i A A i 2 , J G = ∑ i = 1 k m i G A i 2 , M = ∑ i = 1 k m i , d 2 = G A 2 . {\displaystyle J_{A}=\sum _{i=1}^{k}m_{i}AA_{i}^{2},\quad J_{G}=\sum _{i=1}^{k}m_{i}GA_{i}^{2},\quad M=\sum _{i=1}^{k}m_{i},\quad d^{2}=GA^{2}.} (en) Alexander M. Mood , Franklin A. Graybill et Duane C. Boes , Introduction to the Theory of Statistics , New Delhi, Tata McGraw-Hill, 2001 (ISBN 978-0-07-042864-5 , LCCN 73000292 ) , p. 564