Intervalle de confiance — Wikipédia

Série de 20 échantillons de 10 tirages suivant tous une même loi normale de moyenne μ inconnue. L'intervalle de confiance de niveau 50 % pour la moyenne de chaque échantillon est représenté par un segment de couleur bleue si l'intervalle contient μ ; rouge dans le cas contraire, ce qui arrive effectivement ici environ une fois sur deux.

En statistique, un intervalle de confiance est un intervalle censé contenir un paramètre inconnu de la loi de probabilité d’une variable quantitative, que l'on cherche à estimer à partir d’un jeu de données. On peut ainsi obtenir une fourchette d’estimation d’un indicateur numérique usuel tel que la moyenne, la médiane ou la variance à partir d’un échantillon, et dont les bornes dépendent également de la famille de lois de probabilité considérée. La notion s’applique à d’autres paramètres et peut aussi se construire à partir de données statistiques plus complexes, par exemple issues d’un processus stochastique.

La définition de l’intervalle de confiance est subtile et souvent mal comprise[1], en particulier parce que l'intervalle construit peut contenir la valeur du paramètre inconnu ou pas. En considérant que les données sont issues d’un tirage aléatoire, les bornes calculées sont aléatoires aussi tandis que le paramètre à encadrer est déterministe. On associe à l’intervalle un niveau de confiance souvent exprimé sous la forme d'un pourcentage, le plus souvent à 95 %. Cela signifie que la méthode a 95 % de chances de produire un intervalle contenant la vraie valeur du paramètre inconnu.

En particulier, cette notion permet de définir une marge d'erreur entre les résultats d'un sondage et un relevé exhaustif de la population totale. Par exemple, pour une question fermée à deux modalités (oui/non) posée à 1 000 personnes représentatives d’une population bien plus grande, il y a au moins 95 % de chances que les proportions de réponses obtenues correspondent à celles de la population totale à moins de trois points de pourcentage.

avec

Pour obtenir un intervalle plus réduit, donc plus précis, sans changer le nombre de sondés, il faut accepter un niveau plus faible, donc un plus grand risque de se tromper. Au contraire, pour réduire le risque d’erreur, on peut élargir l’intervalle.

Pour estimer simultanément plusieurs paramètres ou des paramètre vectoriels, la notion d’intervalle de confiance se généralise avec celle d’ellipsoïde de confiance.

Attention, la notion d'intervalle de confiance ne doit pas être confondue avec celle d'intervalle de fluctuation. Ce dernier est déterminé par le paramètre et encadre une variable aléatoire. Mais c’est précisément en renversant les inégalités d’un intervalle de fluctuation, issu du théorème central limite ou de l’inégalité de Bienaymé-Tchebychev, que l’on peut obtenir l’expression d’un intervalle de confiance, comme celui qui estime l’espérance d’une loi à partir de la moyenne empirique et d’une majoration de l’écart type.

La construction d’un intervalle de confiance vise en général à produire l’intervalle le plus étroit possible qui contient le paramètre au niveau de confiance donné, tandis qu’un estimateur sans biais doit faire correspondre son espérance avec le paramètre, tenant ainsi compte des valeurs extrêmes de la distribution, même improbable. Il est donc tout à fait possible qu’un estimateur classique du paramètre se retrouve extérieur à l’intervalle de confiance sur le même jeu de données.

Définition

[modifier | modifier le code]

Soit un espace de probabilités, une partie de l'ensemble des mesures de probabilités sur , une application de dans , un réel et un entier. On appelle intervalle de confiance pour le paramètre au niveau de confiance relativement à pour un échantillon de taille une fonction mesurable de l'ensemble vers l'ensemble des intervalles de vérifiant, pour tout ,

Un cas usuel est celui où est l'ensemble des lois gaussiennes réelles sur , est l'application qui à une loi gaussienne associe sa moyenne et .

À la fin du XVIIIe siècle, le mathématicien Laplace calcule le taux de natalité[2] sur quelques paroisses et en déduit la population de la France entière à partir du nombre total de naissances, consigné dans les registres de baptêmes de l'année[3]. Mais il va plus loin en joignant à cette évaluation par proportionnalité une estimation de l'erreur commise.

En effet, s'il est théoriquement possible que la valeur observée sur quelques cas particuliers corresponde exactement à la valeur sur l'ensemble de la population, il est théoriquement possible aussi que l'échantillon choisi ne soit pas du tout représentatif. Or le calcul de probabilités, qui s'est développé depuis le XVIe siècle, permet de décrire la probabilité qu'il y ait un écart donné entre ces deux valeurs. En fixant un seuil à cette probabilité, il est alors possible de majorer l'écart.

La dénomination « intervalle de confiance » est due à Jerzy Neyman[4].

Exemple introductif : encadrement d'une proportion

[modifier | modifier le code]
Pour estimer la proportion de personnes qui portent un chapeau, on sélectionne un échantillon. De cet échantillon, on calcule un intervalle de confiance (en vert). Avec une grande probabilité, la réalisation de l'intervalle de confiance contient la vraie proportion (inconnue).

Dans cette section, nous présentons l'intervalle de confiance pour un sondage. On construit d'abord un intervalle de fluctuation, puis un intervalle de confiance.

Cherchons à estimer la proportion p réelle de la population se reconnaissant dans une catégorie donnée (qu’elle soit médicale, sociale, politique...). Il n'est pas possible d'avoir l'information pour tous les individus car il y a trop d'individus dans la population. Au lieu de cela, on réalise un sondage. Ainsi, on pose la question à un nombre n d’individus (pas nécessairement différents) tirés au hasard. On calcule ensuite la proportion observée f définie comme le quotient du nombre de réponses positives par le nombre n de personnes sondées. On suppose tout de même que n est suffisamment grand pour profiter de la loi des grands nombres et du théorème central limite. La loi des grands nombres assure qu’il est très probable que la fréquence observée soit proche de la proportion p. Dans la suite, nous allons montrer la formulation suivante :

Formulation simple de l'intervalle de confiance de niveau 95%

Autrement dit, le sondage produit une estimation f (la proportion observée) et il y a (au moins) 95 % de chances que la vraie valeur p soit dans l'intervalle de confiance . Dans cette formulation simple, on voit, pour un niveau de confiance fixé (ici 95 %), quand le nombre n de personnes sondées augmente, alors l'intervalle de confiance se resserre autour de f . Avant de construire l'intervalle de confiance, construisons un intervalle de fluctuation.

Obtention de l'intervalle de fluctuation

[modifier | modifier le code]

Le nombre de réponses positives suit une loi binomiale de paramètre p. Sa moyenne est et l'écart type est . Ainsi la variable f suit une loi paramètre p et d'écart type . Grâce au théorème central limite, la loi de probabilité de f est proche d’une loi normale de moyenne p et d'écart type . Avec cette approximation, on obtient avec une certaine probabilité , un encadrement de la forme , où k est le quantile d'ordre de la loi normale centrée réduite. Plus précisément, la valeur de k provient des tables de la loi normale centrée réduite. La valeur de et qui est d’autant plus grande k que l’on souhaite un niveau de confiance élevé, ce qui dégrade la précision. En particulier[5], pour un niveau de 90 %, on a k ≈ 1,645, mais pour un niveau de 95 %, on a k ≈ 1,96. L'intervalle est appelé intervalle de fluctuation.

De l'intervalle de fluctuation vers l'intervalle de confiance

[modifier | modifier le code]

La résolution des inéquations apparaissant dans l’encadrement de f donne un encadrement[6] de p entre les bornes . Ainsi par un développement asymptotique, on retrouve l’encadrement suivant qui définit l’intervalle de confiance classique : .

La symétrie des relations entre p et f dans ce contexte ne se vérifie pas forcément dans d’autres problèmes d’estimation. En outre, l’expression obtenue repose sur deux approximations successives, de la loi binomiale par la loi normale d’abord, puis de la fraction par les premiers termes du développement asymptotique ensuite.

Les inégalités et k < 2 mènent à l’approximation par un intervalle de confiance légèrement plus grand mais à la formulation plus simple[7] .

Principe général

[modifier | modifier le code]

On considère une famille de variables aléatoires (X1, ... , Xn), dont la loi conjointe est définie par un ou plusieurs paramètres inconnus. Il s’agit souvent d’un échantillon, c’est-à-dire que les variables sont indépendantes et identiquement distribuées, mais on peut traiter également des familles de variables provenant d’un processus stochastique.

Pour obtenir un intervalle de confiance sur l’un des paramètres λ, on peut essayer de calculer une nouvelle variable aléatoire Y = f(X1, ... , Xn, λ) à partir des précédentes et du paramètre à déterminer, dont la loi soit connue et dont on puisse exprimer des quantiles k1 et k2 tels que la probabilité soit égale (ou supérieure) au niveau de confiance souhaité. La résolution algébrique des inéquations k1 < f(X1, ... , Xn, λ) < k2 peut fournir alors un encadrement de λ qui constitue un intervalle de confiance.

Intervalles de référence

[modifier | modifier le code]

La table suivante donne des intervalles de confiance de référence de niveau de confiance . On considère un échantillon (X1, ... , Xn) où les sont indépendantes et identiquement distribuées. On note μ l'espérance et σ l'écart-type communs aux . On note la moyenne empirique.

Hypothèses Asymptotique ? Paramètre estimé Intervalle Informations supplémentaires Sources
suivent une loi normale

σ connu

non μ est le quantile d'ordre de la loi normale centrée réduite [réf. nécessaire]
suivent une loi normale non μ avec la variance empirique corrigée , et est le quantile d'ordre de la loi de Student à degrés de liberté Th. 2.3, premier point, p. 38, dans [8]
σ connu oui μ est le quantile d'ordre de la loi normale centrée réduite [réf. nécessaire]
suivent une loi normale non σ avec la variance empirique corrigée, et sont les quantiles respectifs d'ordre et de la loi du chi deux à degrés de liberté Th. 2.3, deuxième point, p. 38, dans [8](voir errata du livre)
suivent une loi à densité non le quantile d'ordre p est une statistique d'ordre, et avec la probabilité d'une binômiale de paramètres n et p donne un nombre entre j et k-1 est plus grande que Th. 2.1 dans [8]

Démonstrations

[modifier | modifier le code]

Dans cette section, nous démontrons quelques résultats énoncés dans la table ci-dessus.

Loi normale

[modifier | modifier le code]

L’espérance μ et la variance d’une loi normale peuvent être estimées[9] à partir d’un échantillon (X1, ... , Xn). Dans l'échantillon (X1, ... , Xn), chaque est une variable aléatoire qui suit une loi normale de moyenne μ (ou espérance) et d'écart type σ. On suppose que les variables sont indépendantes et identiquement distribuées.

Intervalle de confiance pour la moyenne quand l'écart type est connu

[modifier | modifier le code]

On cherche l'intervalle de confiance de niveau pour la moyenne . On suppose que l'écart type est connu. La moyenne empirique suit une loi normale de même espérance μ et de variance σ2/n. Ainsi, le quotient suit la loi normale centrée réduite (loi normale de moyenne 0 et de variance 1). Utilisons maintenant un quantile d'ordre de la loi normale centrée réduite. La probabilité que vaut . Dit autrement, la probabilité que vaut . En réordonnant les inégalités, la probabilité que vaut . Autrement dit est un intervalle de confiance pour le paramètre de niveau . Comme est aléatoire, on voit que l'intervalle de confiance est également aléatoire.

Intervalle de confiance pour la moyenne quand l'écart type est inconnu

[modifier | modifier le code]

On cherche l'intervalle de confiance de niveau pour la moyenne lorsque l'écart type est inconnu. On estime par la variance empirique corrigée , et on pose . D'après le théorème de Student, suit une loi de Student à degrés de liberté. On considère le quantile d'ordre de la loi de Student à degrés de liberté. Ainsi, la probabilité d'avoir l'encadrement est . Ainsi, en réécrivant l'encadrement, on a une probabilité de d'avoir . L'intervalle de confiance de niveau est .

Intervalle de confiance pour la variance quand l'espérance est connue

[modifier | modifier le code]

On cherche l'intervalle de confiance de niveau pour la variance en supposons que l’espérance μ est connue. Pour estimer la variance , on peut calculer l’estimateur . En multipliant par , on obtient une somme de carrés de variables indépendantes qui suivent une loi normale centrée réduite. Ainsi, suit une loi du χ² (« khi-deux ») avec n degrés de liberté. L’encadrement par des quantiles k1 < nT/σ2 < k2 donne un intervalle de confiance défini par .

Intervalle de confiance pour la variance quand l'espérance est inconnue

[modifier | modifier le code]

On cherche l'intervalle de confiance de niveau pour la variance en supposons que l’espérance μ est inconnue. On calcule l’estimateur , sachant que nS2/σ2 suit une loi du χ² avec (n – 1) degrés de liberté. L’encadrement par des quantiles k1 < nS2/σ2 < k2 donne un intervalle de confiance défini par .

Loi uniforme

[modifier | modifier le code]

Pour un échantillon (X1, ... , Xn) de variables uniformes sur un intervalle [0, b], la variable M = max(X1, ... , Xn) a pour fonction de répartition F(x) = xn/bn sur le même intervalle, d’où pour c = b nα.

On obtient alors un intervalle de confiance de b défini par M < b < M α–1/n au niveau (1 – α).

Loi exponentielle

[modifier | modifier le code]
Densités de distributions exponentielles pour différentes valeurs du paramètre .

On cherche l'intervalle de confiance de niveau pour le paramètre λ > 0 inconnu d'une loi exponentielle. On note X est la moyenne empirique calculée à partir d’un échantillon (X1, ... , Xn) de variables exponentielles de paramètre λ > 0. On rappelle que la moyenne de est et sa variance . Le théorème central limite permet d’approcher la loi de par la loi normale centrée réduite, donc en considérant le quantile k d'ordre [Information douteuse] de cette loi, on obtient un intervalle de confiance défini par .

Signification

[modifier | modifier le code]

La notion d'intervalle de confiance apparaît lorsqu'on tente d'obtenir des informations synthétiques sur une population que l'on ne connaît pas entièrement. Dans le cas contraire, en statistique descriptive, le problème se résout par des méthodes purement algébriques. Ici il faut associer à la population une loi de probabilité dont la pertinence doit être justifiée. Ceci conduit à interpréter un élément de la population comme une variable aléatoire et un échantillon comme un ensemble de telles variables.

En particulier, la moyenne et la variance, dites empiriques, calculées à partir de l'échantillon selon les règles algébriques applicables en statistique descriptive, sont elles-mêmes des variables aléatoires dont il est possible de calculer la moyenne et la variance, sous réserve d'indépendance des éléments de l'échantillon. Dans certains cas il est même possible de déterminer leur loi de probabilité. C'est ce qu'on appelle l'échantillonnage.

La moyenne empirique et la variance empirique calculées à partir de réalisations d'un échantillon fournissent donc des estimations aléatoires de la moyenne et de la variance de la loi de probabilité associée à la population.

Si on connaît la loi de probabilité d'une estimation on peut donc en déduire, pour une probabilité de non-dépassement donnée, un intervalle de confiance autour de la valeur estimée, défini comme l'intervalle dans lequel la probabilité a priori de l'estimateur est supérieure à une valeur donnée si la valeur réelle se trouve dans cet intervalle.

Ces notions, présentées ici de manière élémentaire, se généralisent dans la théorie des estimateurs.

Applications

[modifier | modifier le code]

Estimation d'une moyenne

[modifier | modifier le code]

L'usage le plus simple des intervalles de confiance concerne les populations à distribution normale (en forme de cloche) dont on cherche à estimer la moyenne X. Si on connaît l'écart type σ(X) (ou si on en connaît une estimation assez fiable) de cette distribution, et si on mesure la moyenne x sur un échantillon de taille n pris au hasard, alors

  • l'intervalle est un intervalle de confiance de X à environ 68 %
  • l'intervalle est un intervalle de confiance de X à environ 95 %[10]
  • l'intervalle est un intervalle de confiance de X à environ 99,7 %

Ces formules sont valables pour des échantillons supposés infinis (n > 100). Dans le cas d'échantillon plus petit, la consultation d'une table de distribution de la loi de Student est nécessaire.

Encore faut-il connaître ou avoir une estimation de l'écart type σ(X). En pratique, on prend comme estimation de σ(X) la valeur s, l'écart-type de la série de mesures issues de l'échantillon.

Ainsi l'on voit que pour augmenter la confiance, il faut élargir l'intervalle et pour obtenir un intervalle plus fin avec même degré de confiance, il faut augmenter la taille de l'échantillon.

Sondage d'opinion

[modifier | modifier le code]

On cherche à estimer le pourcentage de personnes ayant une voiture rouge. Pour cela on effectue un sondage. Comme on ne sonde pas toute la population, on a de bonnes chances de ne pas tomber exactement sur la bonne valeur mais de faire une erreur. On veut alors donner un intervalle qui a 95 % de chances de contenir la vraie valeur.

Pour cela on effectue un sondage sur 1 000 personnes. Les résultats sont les suivants : 150 personnes ont une voiture rouge, 850 n’en ont pas.

On appelle p la « vraie » proportion de personnes dans la population totale qui ont une voiture rouge. On cherche à estimer p. On appelle N le nombre de personnes ayant été sondées, ici N = 1000. On appelle S le nombre de personnes ayant une voiture rouge parmi les N personnes sondées. L’idée est de présenter comme estimation de p la valeur S/N.

On applique le théorème central limite aux variables aléatoires X1, …, XnXi vaut 1 si la i-ème personne sondée a une voiture rouge et 0 sinon. Chaque variable Xi suit une loi de Bernoulli de moyenne p et de variance p(1–p). Ces variables aléatoires ne sont mathématiquement indépendantes que si l’on laisse la possibilité de sonder éventuellement plusieurs fois la même personne dans le sondage (ce qui s’identifie à un tirage avec remise). Compte tenu de cette remarque, on applique le théorème central limite. Alors :

tend vers une loi normale de moyenne 0 et de variance 1 (car S = X1 + … + XN et N est assez grand).

Pour une loi normale de moyenne 0 et de variance 1 on a : P(−1,96 < Z < 1,96) = 0,95. La valeur -1,96 est le quantile d’ordre 2,5 % de la loi normale. Ces valeurs peuvent se trouver dans des tables de quantiles ou être calculées à partir de la fonction d’erreur réciproque : q = 2 erf-1(P) par exemple, q = 2 erf-1(0,95) = 1,9599… (voir par exemple les quantiles de la loi de Student pour un exemple de table de quantile.)

Soit encore

En estimant par on peut alors encadrer p :

.

L’intervalle de confiance à 95 % vaut alors [0,127 ; 0,173]. On est sûr à environ 95 % qu’entre 12,7 % et 17,3 % de personnes ont une voiture rouge avec ce sondage[11].

Pour avoir une plus grande précision, il faudrait sonder plus de personnes. On remarque en effet l’existence d’un N apparaissant au dénominateur des deux racines carrées. Si on sonde plus de personnes (N plus grand), ces deux termes auront tendance à devenir plus petits et l’intervalle sera plus petit.

Remarque

À la suite des diverses approximations du raisonnement, le résultat d’une confiance à 95 % n’est pas toujours assuré. On arrive à un résultat inférieur à 95 % pour certaines valeurs de p et N. Par exemple :

si N = 100 et p = 0,5, alors  ;
si N = 100 et p = 0,37, alors  ;
si N = 150 et p = 0,4245, alors
Cas particulier où le sondage porte sur un échantillon de taille non négligeable par rapport à celle de la population totale

On effectue un sondage sur N personnes différentes, prises aléatoirement dans une population totale de M individus. On suppose que N n’est pas négligeable devant M (par exemple ), si bien que le théorème central limite ne s’applique plus vraiment (pour cause de non-indépendance des variables aléatoires décrites au-dessus). On appelle p la « vraie » proportion de personnes dans la population totale, et on appelle N le nombre de personnes ayant été sondées (par exemple ). On appelle S le nombre de personnes ayant une voiture rouge parmi les N personnes différentes. Alors S suit une loi proche de la loi normale d’espérance et, non pas de variance , mais de variance . Cette dernière est plus petite et réduit ainsi d’autant la longueur de l’intervalle de confiance, lequel est alors :

Cas particulier avec de faibles (ou fortes) probabilités

Si le résultat du sondage est qu’aucune personne n’a de voiture rouge sur les 1 000 interrogés, cela ne signifie pas qu’il n’existe aucune voiture rouge. Selon « la règle de trois (en)»[12], l’estimation de la borne supérieure de l’intervalle de confiance est de 3/n, soit 3/1 000 dans l’exemple. D’où l’estimation de 0 % de personnes possédant une voiture rouge avec un intervalle de confiance de [0 % ; 0,3 %].

Estimation de l'espérance de la loi exponentielle

[modifier | modifier le code]

On cherche à estimer l'espérance XX suit la loi exponentielle. On se fixe un niveau de confiance P ∈ ]0;1[ et on calcule q = 2 erf-1(P) (quantile d'ordre P de la loi normale). Si on mesure la moyenne x sur un échantillon de taille n pris au hasard, alors l'intervalle est un intervalle de confiance de X à un niveau de confiance proche de P, cela quels que soient le niveau P ∈ ]0;1[ et la taille de l'échantillon n > q².

Par exemple, si la moyenne d'un échantillon de taille n = 20 est x = 3, alors l'intervalle de confiance à P=95 % est . Cela étant, lorsque la taille de l'échantillon et le niveau de confiance sont fixés, on peut calculer facilement un intervalle de confiance J de longueur inférieure à celle de I(n,q) et de manière exacte : par exemple, si on fixe n = 20 et P = 95 %, alors on obtient l'intervalle de confiance (qui donne environ [1,84 ; 4,61] lorsque x = 3). Le lecteur en trouvera la preuve dans le premier exemple de la page 295 du livre de Delmas "Introduction au calcul des probabilités et à la statistique" (en référence ci-dessous).

De façon plus globale

[modifier | modifier le code]

L'intervalle de confiance mesure le degré de précision que l'on a sur les estimations issues de l'échantillon. Il y a deux sources principales de variations sur les données qui peuvent être la cause d'un manque de précision dans l'estimation d'une grandeur.

  • Un nombre insuffisant de données : par exemple, dans le cas d'un sondage, on ne sonde pas toute la population mais qu'une fraction de la population. De même, pour les mesures physiques, on n'effectue qu'un nombre fini de mesures alors qu'il faudrait souvent en théorie pouvoir en faire une infinité pour obtenir un résultat parfait.
  • Il peut également y avoir du bruit dans la mesure des données ce qui est pratiquement toujours le cas pour la mesure des grandeurs physiques.

Parmi les méthodes d'estimation, nous pouvons citer l'estimation par intervalle de confiance. Il s'agit de trouver un intervalle contenant un paramètre (inconnu) à estimer avec une probabilité ou niveau de confiance de 1–α. Pour p un paramètre (inconnu) à estimer, on souhaite déterminer a et b tels que :

ce qui est impossible. Par contre, si on appelle p la valeur exacte du paramètre, et que la valeur mesurée suit une loi de probabilité dépendant de p : , l'intervalle de confiance I(x) (au « niveau de confiance » 1–α) relatif à une observation x constatée, est l'intervalle dans lequel, pour toute valeur p,

.

Pour un p donné, c'est la probabilité d'observer une valeur x pour laquelle le paramètre à estimer soit dans l'intervalle de confiance associé à cette observation x.

Ceci ne signifie pas que « la probabilité que la valeur réelle soit dans I(x) est 1–α », ce qui n'aurait pas de sens puisque la valeur réelle n'est pas une variable aléatoire. Cela signifie que « si la valeur réelle n'est pas dans I(x), la probabilité a priori du résultat de l'observation que l'on a obtenu était inférieure à α ». Par exemple si le paramètre n'est pas dans l'intervalle, c'est que l'observation effectuée correspond à un phénomène rare dans lequel l'intervalle de confiance ne contient pas la vraie valeur.

Notes et références

[modifier | modifier le code]
  1. (en) Sander Greenland, Stephen J. Senn, Kenneth J. Rothman et John B. Carlin, « Statistical tests, P values, confidence intervals, and power: a guide to misinterpretations », European Journal of Epidemiology, vol. 31, no 4,‎ , p. 337–350 (ISSN 1573-7284, PMID 27209009, PMCID PMC4877414, DOI 10.1007/s10654-016-0149-3).
  2. Plus précisément, il calcule son inverse, appelé « multiplicateur des naissances ».
  3. Alain Desrosières, « Le nombre et la constitution », Histoire des nombres, Éditions Tallandier, Paris 2007.
  4. Georges Morlat, « Statistique », Dictionnaire des mathématiques – fondements, probabilités, applications, Encyclopædia Universalis et Albin Michel, Paris 1998.
  5. Les valeurs de k indiquées correspondent au quantile double, puisque les intervalles sont symétriques par rapport à 0.
  6. Gilles Saporta, Probabilités, analyse de données et statistique, §13.5.4 « Intervalle de confiance pour une proportion p », Éditions TECHNIP, Paris 2011
  7. Voir par exemple le document ressource pour les probabilités de la classe de terminale en France, page 32, réalisé par le Ministère de l’éducation nationale en février 2012.
  8. a b et c (en) Jean-Yves Le Boudec, Performance Evaluation of Computer and Communication Systems, Taylor & Francis Inc, (ISBN 978-1-4200-5317-3, lire en ligne)
  9. Gilles Saporta, Probabilités, analyse de données et statistique, §13.5 « L’estimation par intervalles », Éditions TECHNIP, Paris 2011
  10. l'intervalle de confiance à 95 % est plus précisément
  11. L’interprétation correcte de cette probabilité est la suivante. Si l’on prend 100 échantillons de 1 000 personnes et pour chaque échantillon on calcule un intervalle de confiance, alors dans 95 de ces intervalles on trouve p et dans 5 la proportion p est en dehors. On a donc une confiance de 95 %.
  12. Hanley JA L-HA. If nothing goes wrong, is everything all right?: Interpreting zero numerators. JAMA. avr 1983 ; 249(13):1743-1745.

Articles connexes

[modifier | modifier le code]

Liens externes

[modifier | modifier le code]

Bibliographie

[modifier | modifier le code]
  • Schenker N & Gentleman JF (2001) On judging the significance of differences by examining the overlap between confidence intervals. Am. Stat. 55, 182–186.