Loi de student — wikipédia gas city indiana car show

Soit Z une variable aléatoire de loi normale centrée et réduite et soit U une variable indépendante de Z et distribuée suivant la loi du χ² à k degrés de liberté. Par définition, la variable T = Z U / k {\displaystyle T={\frac {Z}{\sqrt {U/k}}}}

La densité de T {\displaystyle \scriptstyle T} , notée f T {\displaystyle \scriptstyle f_{T}} , est donnée par : f T ( t ) = 1 k π Γ ( k + 1 2 ) Γ ( k 2 ) ( 1 + t 2 k ) − k + 1 2 , {\displaystyle f_{T}(t)={\frac {1}{\sqrt {k\pi }}}{\frac {\Gamma ({\frac {k+1}{2}})}{\Gamma ({\frac {k}{2}})}}\left(1+{\frac {t^{2}}{k}}\right)^{-{\frac {k+1}{2}}},} pour k > 0.

Le calcul de la loi de Student a été publié en 1908 par William Gosset [1 ] pendant qu’il travaillait à la brasserie Guinness à Dublin. Il lui était interdit de publier sous son propre nom, c’est pour cette raison qu’il publia sous le pseudonyme de Student. Le test t et la théorie sont devenus célèbres grâce aux travaux de Ronald Fisher, qui a qualifié cette loi de « loi de Student » [2 ] , [3 ]. Application : intervalle de confiance associé à l’espérance d’une variable de loi normale de variance inconnue [ modifier | modifier le code ]

Remarque : ce résultat utile se démontre à partir de la propriété définissant la loi du χ² en tant que somme des carrés de variables normales centrées et réduites indépendantes 2 à 2, mais il n’en est pas pour autant la conséquence directe : en particulier les variables x 1 − x ¯ , … , x n − x ¯ {\displaystyle x_{1}-{\overline {x}},\ldots ,x_{n}-{\overline {x}}} ne sont pas indépendantes entre elles.

Pour n grand, la variance σ 2 n {\displaystyle {\frac {\sigma ^{2}}{n}}} de x ¯ {\displaystyle {\overline {x}}} tend vers 0, et la valeur d’une réalisation de x ¯ {\displaystyle {\overline {x}}} constitue ainsi une estimation de l’ espérance μ, qui est également l’ espérance de la loi normale suivie par les variables x 1, …, x n. Néanmoins, seule la connaissance préalable de la variance σ² de cette loi permet de caractériser un intervalle de confiance pour la variable x ¯ − μ {\displaystyle {\overline {x}}-\mu } .

la variable Z suit la loi normale centrée et réduite, et nous avons vu ci-dessus que la variable s suit la loi du χ² à n – 1 degrés de liberté. De plus, il est possible de démontrer que Z et s sont indépendantes. Par définition, T 0 suit donc la loi de Student à k = n – 1 degrés de liberté.

La distribution de la variable T 0 est donc connue indépendamment de σ², et par conséquent les intervalles de confiance qui lui sont associés sont également connus. Ainsi, il est possible d’obtenir un intervalle de confiance pour μ à partir d’une réalisation des variables x 1, …, x n, de laquelle on déduit des valeurs de x ¯ {\displaystyle {\overline {x}}} et S. La suite de ce chapitre détaille la procédure permettant la détermination de cet intervalle de confiance.

Ceci revient à imposer que 1-γ soit l’image de t γ k par la fonction de répartition de la loi de Student. La quantité t γ k est également appelé le quantile d’ordre 1-γ de la loi de Student à k degrés de liberté (voir tableau des valeurs de t γ k ci-dessous).

La probabilité d’obtenir x ¯ − t γ n − 1 S n < μ < x ¯ + t γ n − 1 S n {\displaystyle {\overline {x}}-t_{\gamma }^{n-1}{\sqrt {\frac {S}{n}}}<\mu <{\overline {x}}+t_{\gamma }^{n-1}{\sqrt {\frac {S}{n}}}} est elle aussi égale à 1-2γ. Le niveau de confiance α associé à cet intervalle est donc α = 1-2γ.

Le niveau de confiance α correspond à la probabilité que l’ espérance μ de la loi normale se trouve à l’intérieur de l’intervalle de confiance. Par exemple pour α = 0,95, on a un niveau de confiance de 95 %, correspondant à γ = (1-α)/2 = 0,025.

En résumé, l’intervalle de confiance de l’ espérance μ d’une loi normale de variance quelconque inconnue peut être déterminé à partir des valeurs de n variables indépendantes x 1, …, x n suivant toutes cette même loi. Pour un niveau de confiance donné α, cet intervalle est le suivant : [ x ¯ − t 1 − α / 2 n − 1 S n , x ¯ + t 1 − α / 2 n − 1 S n ] {\displaystyle \left[\,{\overline {x}}-t_{1-\alpha /2}^{n-1}{\sqrt {\frac {S}{n}}},{\overline {x}}+t_{1-\alpha /2}^{n-1}{\sqrt {\frac {S}{n}}}\,\right]} ,

• X ∼ t ( k ) {\displaystyle X\sim \mathrm {t} (k)~} a une distribution de Student si σ 2 ∼ Inv- χ 2 ( k , 1 ) {\displaystyle \sigma ^{2}\sim {\mbox{Inv-}}\chi ^{2}(k,1)\!} suit une loi inverse-χ² et X ∼ N ( 0 , σ 2 ) {\displaystyle X\sim {\mathcal {N}}(0,\sigma ^{2})\!} suit une loi normale.

Le tableau suivant fournit les valeurs de certains quantiles de la loi de Student pour différents degrés de liberté k. Pour chaque valeur de α {\displaystyle \alpha } , le quantile donné est tel que la probabilité pour qu’une variable suivant une loi de Student à k degrés de liberté lui soit inférieur est de 1 − α {\displaystyle 1-\alpha } . Ainsi, pour 1 − α = 0 , 95 {\displaystyle 1-\alpha =0,95} et k = 7 {\displaystyle k=7} , si X suit une loi de Student à 7 degrés de liberté, on lit dans la table que P ( X < 1 , 895 ) = 0 , 95. {\displaystyle P(X<1,895)=0,95.} Pour un intervalle de pari bilatéral à 95%, on prendra le quantile à 97,5% : P ( X ∈ [ − 2 , 365 , 2 , 365 ] ) = 0 , 95. {\displaystyle P(X\in [-2,365,2,365])=0,95.}

Notons également que si l’on note t k , α {\displaystyle t_{k,\alpha }} le quantile d’ordre α {\displaystyle \alpha } de la loi de Student à k degré de liberté alors on a l’égalité t k , α = − t k , 1 − α {\displaystyle t_{k,\alpha }=-t_{k,1-\alpha }} . Avec l’exemple précédent, cela se traduit par : P ( X < 1 , 895 ) = 0 , 95 {\displaystyle P(X<1,895)=0,95} est aussi P ( X < − 1.895 ) = 0.05 {\displaystyle P(X<-1.895)=0.05} 1 − α {\displaystyle 1-\alpha }

Remarque : la dernière ligne du tableau ci-dessus correspond aux grandes valeurs de k. Il s’agit d’un cas limite pour lequel la loi de Student est équivalente à la loi normale centrée et réduite. Voir aussi [ modifier | modifier le code ] Notes et références [ modifier | modifier le code ]

Une statistique · Caractère · Échantillon · Erreur type · Intervalle de confiance · Représentations de données · Histogramme · Diagramme circulaire · Boîte à moustaches · Fonction de répartition empirique · Théorème de Glivenko-Cantelli · Inférence bayésienne · Régression linéaire · Méthode des moindres carrés · Analyse des données · Corrélation

Hypothèse statistique · Hypothèse nulle · Estimateur · Signification statistique · Sensibilité et spécificité · Courbe ROC · Nombre de sujets nécessaires · Valeur p · Contraste (statistiques) · Statistique de test · Taille d’effet · Puissance statistique

Test d’hypothèse · Test de Bartlett · Test de normalité · Test de Fisher · Test d’Hausman · Test de Anderson-Darling · Test de Banerji · Test de Durbin-Watson · Test de Goldfeld et Quandt · Test de Jarque-Bera · Test de Mood · Test de Lilliefors · Test de Wald · Test T pour des échantillons indépendants · Test T pour des échantillons appariés · Test de corrélation de Pearson

Test U de Mann-Whitney · Test de Kruskal-Wallis · Test exact de Fisher · Test de Kolmogorov-Smirnov · Test de Shapiro-Wilk · Test de Chow · Test de McNemar · Test de Spearman · Tau de Kendall · Test Gamma · Test des suites de Wald-Wolfowitz · Test de la médiane · Test des signes · ANOVA de Friedman · Concordance de Kendall · Test Q de Cochran · Test T de Wilcoxon · Test de Sargan