[[statistique]] Notation :
- Moyenne \(X\) barre ou \(m\) , \(\nu\) théorique
- écart type \(s\), \(\sigma\) théorique
Résumé des tests
Calcul de p-value directement en ligne BiostaTGV Tests
- \(H_0\) : l'hypothèse la plus simple (ou contraignante). Par exemple, les moyennes sont égales.
- \(H_1\) : la négation de \(H_0\).
p-valeur probabilité d'obtenir une valeur aussi extrême sous l'hypohtèse \(H_0\). En fonction du seuil fixé, il n'est pas possible d'accepter \(H_0\) car le risque béta n'est pas estimable càd le risque de rejeté \(H_1\) sous l'hypothèse. Le résultat du test est alors :
- On ne peut pas rejeté \(H_0\).
- On rejette \(H_0\).
On parle de tests paramétriques lorsque les observations suivent une loi statistique et non paramétrique lorsque la loi de répartition n'est pas connue.
- (1) indépendance.
- (2) égalité des variances (homoscédasticité).
- (3) \(n \gt 20\).
- (4) normalité.
- (5) effectifs théoriques \(\gt 5\).
Note
Il est possible d'estimer la p-valeur d'un test en générant un grand nombre (au moins 1000) d'expériences aléatoires.
Une distribution
H0 | Test |
---|---|
Normalité | Shapiro-Wilk |
Pas de valeurs extrêmes | Dixon |
Pas de valeurs extrêmes | Grubbs |
Un échantillon et une valeur théorique
H0 | Condition | Test |
---|---|---|
Moyenne | 4 | student (appelé aussi test t) |
Médiane | Wilcoxon | |
Proportion | Khi2 | |
Variance | Khi2 |
Paramètre de plusieurs échantillons
H0 | Taille | Condition | Test |
---|---|---|---|
Egalité des moyennes | 2 | 1,2,3 | Test t |
________ | 2 | Mann-Whitney | |
________ | n | 1,2,4 ou 3 | ANOVA |
__médianes | n | Kruskal-Wallis | |
Egalité des proportions | k | 4 | Khi2 |
Egalité des variances | 2 | Fisher | |
___ | k | 4 | Bartlett |
___ | k | Test de Levene |
Deux distributions
H0 | Condition | Test |
---|---|---|
Même distribution entre une loi et un échantillon | Kolmogorov-Smirnov | |
______ | 1,2,3 ou 4 | Test t |
______ entre deux échantillons | Wilcoxon-Mann-Whitney | |
Egalités des positions (séries binaires) | Q de Cochran |
Corrélation
\(H_0\) indépendance des deux variables
Type | var | Condition | Test |
---|---|---|---|
Linéaire | 2 var quant | Pearson | |
Rang | 2 var quant | 3,4 | Spearman |
2 var quali | 1,5 | d’association du Khi2 | |
2 var quali | exact de Fisher | ||
2 var quali | Méthode de Monte Carlo | ||
1 var quali et 1 var quanti | [[ANOVA]] |
Autres tests
- Test de Tukey HSD (Honest Significant Difference), test post-hoc (analyse après avoir l'hypothèse) utilisé en statistique pour comparer toutes les paires de moyennes après une ANOVA. Il compare les paires de groupes pour savoir s'il existe une différence.
- Test de Levene pour vérifier l'homogénéité des variances.
- Test de Games Howell pour comparer les
Cours tests statistiques et interprétation
Les tests statistiques servent à vérifier si les données obtenues sont compatibles avec une propriété (par exemple, une moyenne théorique) et les différences observées dû au hasard de l'échantillonnage.
- \(H_0\) la différence vient de l'échantillonnage.
- \(H_1\) différence entre l'échantillon et la population.
Choix/Réalité | \(H_0\) | \(H_1\) |
---|---|---|
\(H_0\) | \(1 − \alpha\) | \(\alpha\) |
\(H_1\) | \(\beta\) | \(1 - \beta\) (appelé puissance du test) |
Interprétation : Au risque \(\alpha\) est accepté \(H_1\) alors que c'est faux cad que \(H_0\) est vraie ou encore au rejet à tort de l'hypothèse nulle.
Note
Le risque \(\alpha\) est généralement fixé à 5%.
Note
Danse cas de tests multiples, il faut corriger p-valeurs pour limiter le risque \(\alpha\).
Règle de décision :
- L'appartenance à intervalle de confiance.
- Par des statistiques du test soit car le seuil soit par la p-value (par comparaison du risque).
Deux types de tests :
- Unilatéral (example, à gauche), \(H_0\) : \(\mu = \mu_0\), \(H_a\) : \(\mu \lt µ_0\)
- Bilatéral \(H_0\) : \(µ = µ_{0}\), \(H_a\) : \(\mu \neq \mu_0\)
Intervalle de confiance
Exemple de comparaison d'une moyenne observée avec une moyenne de référence :
\(S = \vert \frac{x - \mu _0}{\sqrt{\frac{\sigma ^2}{n}}} \vert \lt 1.96\) avec \(\mu_0\) la moyenne théorique.
Intervalle de confiance \(\lbrack\mu_{0} \pm 1,96\sqrt{\frac{\sigma^{2}}{n}}\rbrack\)
Pour comparer la valeur de deux échantillons, il suffit de vérifier si les intervalles se chevauchent.
Présentation des différents types de tests
Hypothèse | Seuil | P-value |
---|---|---|
On ne rejete pas \(H_0\) au risque \(\beta\) inconnu | \(E_{obs} \leq E_{\alpha}\) | p-value \(\gt \alpha\) |
On accepte \(H_1\) au risque \(\alpha\) | \(E_{obs} \gt E_{\alpha}\) | p-value \(\leq \alpha\) |
Note
I y a 5 % de chances de rejeter l'hypothèse nulle par hasard.
Par exemple, au risque alpha de 5%, \(E_{\alpha} = 1,96\)
p-valeur est la probabilité d'obtenir une valeur aussi extrême sous l'hypothèse \(H_0\). Énoncer de façon différente, elle indique dans quelle mesure les données sont conformes à l'\(H_0\).
Example
On effectue des tirages de pile ou face. \(H_0\) la pièce n'est pas biaisée.
- 4 tirages et 4 piles : \(\frac{1}{2^4} = 0,0625\)% on ne rejette pas \(H_0\).
- 5 tirages et 5 piles : \(\frac{1}{2^5} = 0,03125\)% on rejette \(H_0\).
Note
Une valeur est significativement différente si l'hypothèse \(H_0\) (les valeurs sont égales) est rejetée.
Les types de tests principaux :
- Indépendance, exemple : la couleur des cheveux est-elle indépendante du sexe ?
- Homogénéité : deux séries de données sont-elles identiquement distribuées.
- Adéquation à une loi ou une famille de lois définies à priori, par exemple : la taille d'une population suit-elle une loi normale ?
Test d'homogénéité
Test | Formule | Degré de liberté |
---|---|---|
Moyenne observée et moyenne théorique | \(E_{obs} = \vert{\frac{\hat{x} - \mu}{\sqrt{\frac{s^2}{n}}}}\vert\) | |
Distribution de deux échantillons (test Student) | \(E_{obs} = \vert \frac{\hat{x_1} - \hat{x_2} }{\sqrt{(\frac{s_1^2}{n} + \frac{s_2^2}{n})}}\vert\) | \(df = n_A + n_B − 2\) |
Un échantillon et une loi de probabilité | Test du Xhi2 | |
#### Test pour comparer deux moyennes |
- Si \(n \ge 30\), loi normale.
- Si \(n \lt 30\), loi de Student.
Test indépendance (et corrélation) entre deux variables
- \(H_0\) : les variables sont indépendantes
- \(H_1\) : les variables sont liées.
Une variable quantitative et une qualitative (ANOVA)
L'ANalysis Of Variance (ANOVA) sert à savoir si une variable qualitative à une influence sur une variable quantitative.
- \(H_0\) : La moyenne des groupes est issue d'une même population.
- \(H_1\) : Les moyennes possèdent des différences significatives entre les groupes.
Degré de liberté : \(Effectif - 2\)
Note
Dans le cas où il existe plusieurs variables quantitatives à expliquer on utilise MANOVA (Multivariate analysis of variance).
\(y = \mu + f\left( x_{1},\ \ldots,x_{i} \right) + \varepsilon\)
Avec :
- \(\mu\) une constante
- \(\varepsilon\) l'erreur qui suit une loi normale \(N\left( 0,\sigma^{2} \right)\)
Note
Lorsqu'il n'y a que deux modalités, il est possible d'utiliser un test de student.
Pour comparer les groupes deux à deux, il faut utiliser un test de Tuckey.
Deux variables qualitatives
Degré de liberté : \({(modalité}_{ligne} - 1)({modalité}_{colonne} - 1)\)
Il faut faire :
- Tableau de contingence (appelé aussi effectif).
- Tableau des effectifs théoriques : \(p\left( A \middle| B \right) \cdot p\left( B \middle| A \right) \cdot eff\ tot\) ou directement \(\frac{N_{ligne\ total} \times N_{colonne\ total}}{N_{total}}\).
- Calcul du khi2 théorique pour chaque croissement de modalité : \(\frac{{(n}_{obs} - n_{theo})^2}{n_{theo}}\).
- Somme des valeurs pour chaque modalité et calcul de la statistique :
LOI.KHIDEUX.INVERSE.DROITE(proba; degré de liberté)
- P-value :
LOI.KHIDEUX.DROITE(valeur; degré de liberté)
Deux variables numériques (quantitatives)
Degré de liberté :
- Calcul du coefficient de corrélation de Pearson PEARSON()
-
Calcul de la statistique
- \(\left| \frac{R \times \sqrt{Eff - 2}}{\sqrt{1 - R^{2}}} \right|\)
- P-value : LOI.STUDENT.BILATERALE()
Kolmogorov-Smirnov
Le test Kolmogorov-Smirnov est un test qui compare la fonction de répartition. Il permet :
- de comparer la distribution de deux échantillons.
- de comparer la distribution d'un échantillon avec celui d'une loi statistique.
Correction
Lorsque plusieurs tests sont réalisés, il faut utiliser une correction l'erreur liée à la multication des erreurs. Les p valeur sont relevées pour éviter de se tromper lorsqu'il a de nombreux tests.
Le risque d'erreur augmente avec le nombre de tests. Le risque de faire une erreur est alors de \(1-\prod{1-\alpha}\).
Example
Le risque de se tromper pour 4 tests est de \(1-(1-0,05)^6 = 26\%\) de risque de se tromper au moins une fois.
Deux approches :
- Contrôle le risque alpha global de se tromper au moins une fois ; on l’appelle le “Family-wise error rate” (FEWR) en anglais.
- Contrôle du risque alpha global de se tromper au moins une fois, mais en ne considérant que les tests qui ont rejeté \(H_0\) ; On l’appelle le “False discovery rate” (FDR) en anglais.
L'idée serait de modifier les p-valeurs pour que le risque global chute à 0.05% mais les modification dépendent du nombre de tests. Ajuster les p-valeur en les augmentant.
Family wise error rate :
- méthode Bonferroni corrige toutes les p valeurs en une fois (méhtode très restrictive).
- méthode d’Holm qui corrige de façon séquentielle chaque p valeur.
Facteur de Bayes
Le facteur de Bayes est une mesure utilisée dans le cadre des statistiques bayésiennes pour comparer deux hypothèses : l'hypothèse nulle (\(H_0\)) et l'hypothèse alternative (\(H_1\)). Contrairement aux tests classiques qui reposent sur les p-valeurs, le facteur de Bayes quantifie directement les preuves en faveur de l'une ou l'autre hypothèse, en indiquant combien de fois les données sont plus probables sous une hypothèse que sous l'autre.
Interprétation du facteur de Bayes
Le facteur de Bayes, noté \(BF_{10}\), représente le rapport de vraisemblance entre \(H_1\) (hypothèse alternative) et \(H_0\) (hypothèse nulle) :
- \(BF_{10} > 1\) : Les données fournissent plus de preuves en faveur de l’hypothèse alternative \(H_1\).
- BF10<1BF_{10} < 1BF10<1 : Les données soutiennent davantage l’hypothèse nulle H0H_0H0.
- BF10≈1BF_{10} \approx 1BF10≈1 : Les données ne favorisent aucune hypothèse.
On peut aussi utiliser \(BF_{01} = \frac{1}{BF_{10}}\) pour exprimer la probabilité des données sous \(H_0\) par rapport à \(H_1\).
Guide d'interprétation du facteur de Bayes
Jeffreys (1961) a proposé une interprétation de la force des preuves fournies par le facteur de Bayes :
\(BF_{10}\) | Interprétation des preuves en faveur de \(H_1\) |
---|---|
1 à 3 | Évidence faible |
3 à 10 | Évidence modérée |
10 à 30 | Évidence forte |
30 à 100 | Évidence très forte |
> 100 | Évidence extrêmement forte |
Inversement, des valeurs de \(BF_{10}\) inférieures à 1 (par exemple, entre 0,1 et 0,33) indiquent un soutien croissant pour \(H_0\).
Avantages du facteur de Bayes
- Quantification de l’évidence : Il donne une mesure continue du soutien des données pour H0H_0H0 ou H1H_1H1, contrairement aux p-valeurs qui n'indiquent que la probabilité de voir des données aussi extrêmes si \(H_0\) est vraie.
- Comparaison d'hypothèses : Le facteur de Bayes permet une comparaison directe entre hypothèses, utile dans des contextes où on veut des preuves pour ou contre \(H_0\).
- Incorporation de l’information a priori : En utilisant des distributions a priori, le facteur de Bayes permet de prendre en compte des connaissances préalables ou des hypothèses initiales.
Exemple de calcul du facteur de Bayes avec R
Pour calculer le facteur de Bayes dans R, vous pouvez utiliser le package BayesFactor
. Voici un exemple de comparaison de moyennes de deux groupes :
# Installer et charger le package install.packages("BayesFactor")
library(BayesFactor)
# Exemples de données pour deux groupes
set.seed(42)
group_A <- rnorm(30, mean = 100, sd = 15)
group_B <- rnorm(30, mean = 110, sd = 15)
# Calculer le facteur de Bayes pour une comparaison de moyennes
bf <- ttestBF(x = group_A, y = group_B)
print(bf)`
Le résultat fournira le facteur de Bayes \(BF_{10}\) pour le test, que vous pouvez interpréter pour déterminer le soutien en faveur de l'une des hypothèses.
Résumé
Le facteur de Bayes est une approche bayésienne qui permet de comparer des hypothèses avec une quantification directe des preuves. Plus intuitif dans certaines situations que les p-valeurs, il est utile pour évaluer et interpréter la force de l’évidence fournie par les données pour ou contre une hypothèse.