En théorie des probabilités et en statistique , la loi de Wishart inverse , également appelée loi de Wishart inversée , est une loi de probabilité définie sur l'ensemble des matrices définies positives à coefficients réels.
Une variable qui suit une loi de Wishart inverse sera notée X ∼ W − 1 ( Ψ , ν ) {\displaystyle \mathbf {X} \sim W^{-1}({\mathbf {\Psi } },\nu )} et est définie par la loi de sa matrice inverse : X − 1 {\displaystyle \mathbf {X} ^{-1}} suit une loi de Wishart W ( Ψ − 1 , ν ) {\displaystyle W({\mathbf {\Psi } }^{-1},\nu )} .
La densité de probabilité de la loi de Wishart inverse est :
| Ψ | ν 2 2 ν p 2 Γ p ( ν 2 ) | X | − ν + p + 1 2 e − 1 2 tr ( Ψ X − 1 ) {\displaystyle {\frac {\left|{\mathbf {\Psi } }\right|^{\frac {\nu }{2}}}{2^{\frac {\nu p}{2}}\Gamma _{p}({\frac {\nu }{2}})}}\left|\mathbf {X} \right|^{-{\frac {\nu +p+1}{2}}}{\rm {e}}^{-{\frac {1}{2}}\operatorname {tr} ({\mathbf {\Psi } }\mathbf {X} ^{-1})}} où X {\displaystyle \mathbf {X} } et Ψ {\displaystyle {\mathbf {\Psi } }} sont des matrices définies positives p × p {\displaystyle p\times p} et Γ p {\displaystyle \Gamma _{p}} est la fonction gamma multidimensionnelle .
Si A ∼ W ( Σ , ν ) {\displaystyle {\mathbf {A} }\sim W({\mathbf {\Sigma } },\nu )} et Σ {\displaystyle {\mathbf {\Sigma } }} est une matrice p × p {\displaystyle p\times p} , alors X = A − 1 {\displaystyle \mathbf {X} ={\mathbf {A} }^{-1}} est de loi de Wishart inverse : X ∼ W − 1 ( Σ − 1 , ν ) {\displaystyle \mathbf {X} \sim W^{-1}({\mathbf {\Sigma } }^{-1},\nu )} [ 2] .
Supposons que A ∼ W − 1 ( Ψ , ν ) {\displaystyle {\mathbf {A} }\sim W^{-1}({\mathbf {\Psi } },\nu )} est de loi de Wishart inverse. Séparons convenablement en deux matrices A {\displaystyle {\mathbf {A} }} et Ψ {\displaystyle {\mathbf {\Psi } }} :
A = [ A 11 A 12 A 21 A 22 ] , Ψ = [ Ψ 11 Ψ 12 Ψ 21 Ψ 22 ] {\displaystyle {\mathbf {A} }={\begin{bmatrix}\mathbf {A} _{11}&\mathbf {A} _{12}\\\mathbf {A} _{21}&\mathbf {A} _{22}\end{bmatrix}},\;{\mathbf {\Psi } }={\begin{bmatrix}\mathbf {\Psi } _{11}&\mathbf {\Psi } _{12}\\\mathbf {\Psi } _{21}&\mathbf {\Psi } _{22}\end{bmatrix}}} où A i j {\displaystyle {\mathbf {A} _{ij}}} et Ψ i j {\displaystyle {\mathbf {\Psi } _{ij}}} sont des matrices p i × p j {\displaystyle p_{i}\times p_{j}} , alors on obtient
A 11 {\displaystyle {\mathbf {A} _{11}}} est indépendant de A 11 − 1 A 12 {\displaystyle {\mathbf {A} }_{11}^{-1}{\mathbf {A} }_{12}} et de A 22 ⋅ 1 {\displaystyle {\mathbf {A} }_{22\cdot 1}} , où A 22 ⋅ 1 = A 22 − A 21 A 11 − 1 A 12 {\displaystyle {\mathbf {A} _{22\cdot 1}}={\mathbf {A} }_{22}-{\mathbf {A} }_{21}{\mathbf {A} }_{11}^{-1}{\mathbf {A} }_{12}} est le complément de Schur de A 11 {\displaystyle {\mathbf {A} _{11}}} dans A {\displaystyle {\mathbf {A} }} ; A 11 ∼ W − 1 ( Ψ 11 , ν − p 2 ) {\displaystyle {\mathbf {A} _{11}}\sim W^{-1}({\mathbf {\Psi } _{11}},\nu -p_{2})} ; A 11 − 1 A 12 | A 22 ⋅ 1 ∼ M N p 1 × p 2 ( Ψ 11 − 1 Ψ 12 , A 22 ⋅ 1 ⊗ Ψ 11 − 1 ) {\displaystyle {\mathbf {A} }_{11}^{-1}{\mathbf {A} }_{12}|{\mathbf {A} }_{22\cdot 1}\sim MN_{p_{1}\times p_{2}}({\mathbf {\Psi } }_{11}^{-1}{\mathbf {\Psi } }_{12},{\mathbf {A} }_{22\cdot 1}\otimes {\mathbf {\Psi } }_{11}^{-1})} , où M N p × q ( ⋅ , ⋅ ) {\displaystyle MN_{p\times q}(\cdot ,\cdot )} est la loi normale multidimensionnelle ; A 22 ⋅ 1 ∼ W − 1 ( Ψ 22 ⋅ 1 , ν ) {\displaystyle {\mathbf {A} }_{22\cdot 1}\sim W^{-1}({\mathbf {\Psi } }_{22\cdot 1},\nu )} Cette section est basée sur l'article [Press, 1982][ 3] , après avoir reparamétré le degré de liberté pour être consistent avec la définition de la densité donnée ci-dessus.
La moyenne est[ 2] :
E ( X ) = Ψ ν − p − 1 . {\displaystyle E(\mathbf {X} )={\frac {\mathbf {\Psi } }{\nu -p-1}}.} La variance de chaque élément de X {\displaystyle \mathbf {X} } est :
Var ( x i j ) = ( ν − p + 1 ) ψ i j 2 + ( ν − p − 1 ) ψ i i ψ j j ( ν − p ) ( ν − p − 1 ) 2 ( ν − p − 3 ) {\displaystyle \operatorname {Var} (x_{ij})={\frac {(\nu -p+1)\psi _{ij}^{2}+(\nu -p-1)\psi _{ii}\psi _{jj}}{(\nu -p)(\nu -p-1)^{2}(\nu -p-3)}}} a variance de la diagonale utile la même formule que ci-dessus avec i = j {\displaystyle i=j} , ce qui se simplifie en :
Var ( x i i ) = 2 ψ i i 2 ( ν − p − 1 ) 2 ( ν − p − 3 ) . {\displaystyle \operatorname {Var} (x_{ii})={\frac {2\psi _{ii}^{2}}{(\nu -p-1)^{2}(\nu -p-3)}}.} Une version unidimensionnelle de la loi de Wishart inverse est la loi inverse-gamma . Avec p = 1 {\displaystyle p=1} , c'est-à-dire unidimensionnel, α = ν / 2 {\displaystyle \alpha =\nu /2} , β = Ψ / 2 {\displaystyle \beta =\mathbf {\Psi } /2} et x = X {\displaystyle x=\mathbf {X} } , la densité de probabilité de la loi de Wishart inverse devient
p ( x | α , β ) = β α x − α − 1 exp ( − β / x ) Γ 1 ( α ) . {\displaystyle p(x|\alpha ,\beta )={\frac {\beta ^{\alpha }\,x^{-\alpha -1}\exp(-\beta /x)}{\Gamma _{1}(\alpha )}}.} c'est-à-dire, la loi inverse-gamma où Γ 1 ( ⋅ ) {\displaystyle \Gamma _{1}(\cdot )} est la fonction gamma classique.
La loi de Wishart inverse est un cas particulier de la loi gamma inverse multidimensionnelle .
↑ A. O'Hagan, and J. J. Forster, Kendall's Advanced Theory of Statistics : Bayesian Inference , vol. 2B, Arnold, 2004 , 2e éd. (ISBN 0-340-80752-0 ) ↑ a et b Kanti V. Mardia, J. T. Kent and J. M. Bibby, Multivariate Analysis , Academic Press , 1979 (ISBN 0-12-471250-9 ) ↑ (en) S.J. Press, Applied Multivariate Analysis , New York, Dover Publications, 1982