Tests Statistiques

SOSstat

Introduction

Estimation

On dispose d’une information sur la loi F(X) par un échantillon \((x_{1},\ldots,x_{n})\) de la variable X. \(\mu\) est un paramètre de la loi que l’on souhaite estimer. On note \(\phi(\mu)\) une grandeur que l’on cherche à estimer. Souvent, cette grandeur n’est autre que le paramètre \(\mu\) lui-même. C’est le cas lorsque l’on cherche à estimer la moyenne d’une loi normale. On appelle estimateur ponctuel de \(\phi(\mu)\) toute statistique \(T_{n}\) construite sur l’échantillon \(X_{n}\) .

Intervalle de confiance

Un intervalle de confiance est construit de manière à couvrir une plage spécifique de résultats possibles de l’estimation. Ainsi pour le déterminer, nous avons besoin de deux informations essentielles :

  • Connaître la loi de distribution des estimations
  • Déterminer le niveau de confiance de l’intervalle, c’est à dire la proportion des résultats que l’on souhaite encadrer (par exemple 95%)

Construction d’un test d’hypothèse

Une extension intéressante de la notion d’intervalle de confiance est la prise de décision statistique par des tests. Pour réaliser un test, nous allons construire un intervalle de confiance, non pas autour d’une estimation, mais autour d’une valeur qui constitue une hypothèse statistique. Cette procédure est connue sous le nom de test d’hypothèse ou test par intervalle de confiance.

Les procédures de tests d’hypothèses ou tests par intervalle de confiance sont très utilisés dans les applications Qualité. Ils sont, en effet, à la base de la construction des cartes de contrôle et du contrôle par échantillonnage.

On peut déterminer la valeur d’hypothèse de trois façons : connaissance acquise sur des observations antérieures, théorie ou modèle mathématique.

Par la suite on compare les données recueillies lors d’une expérience à la valeur d’hypothèse. En fonction du degré de confiance que l’on attribue au test et en fonction de la loi de distribution de la statistique étudiée, on peut établir une règle de décision qui doit permettre d’accepter ou de rejeter l’hypothèse émise.

Il est habituel de formuler le problème de la manière suivante :

L’hypothèse à vérifier est appelée hypothèse nulle que l’on note \(H_{0}\). L’alternative à cette hypothèse, c’est-à-dire lorsque \(H_{0}\) est fausse, est notée \(H_{1}\). La mise en oeuvre de tests d’hypothèse engendre forcément une prise de risque.

Les tests sont dit bilatéraux lorsqu’ils mettent en jeu deux limites pour définir le domaine d’acceptation de l’hypothèse \(H_{0}\). Ce cas est le plus courant, on le retrouve généralement lorsque l’hypothèse \(H_{0}\) est formulée par une égalité, et l’objectif du test est de démontrer que cette égalité est fausse.

On peut également construire des tests unilatéraux où l’hypothèse est formulée sous forme d’une inégalité.

SOSstat permet une interprétation simple des tests en représentant graphiquement la variable de test ainsi que les limites d’acceptation de l’hypothèse \(H_{0}\). Par ailleurs les commentaires de doc stat rappellent le mécanisme du test et énoncent clairement la décision à prendre.

Les applications des tests sont multiples :

  • Comparaison de centrage ou de la variabilité de plusieurs échantillons
  • Détection de valeurs aberrantes
  • Vérification de l’adéquation d’un modèle (test de normalité par exemple)
  • D’autres tests plus complexes permettent de démontrer des équivalences sur un paramètre
Tests de normalité de Kolmogorov réalisé avec SOSstat

Tests de normalité de Kolmogorov-Smirnov réalisé avec SOSstat

Exemple de construction d’un test

Dans cet exemple, nous allons comparer la moyenne d’un échantillon à une valeur théorique \(\mu=250\). Pour réaliser ce test on suppose également que l’écart-type est connu : \(\sigma=0,1833\).

Un échantillon d’effectif n=10 permet de calculer la moyenne \(\overline{X}=249.3\).

On souhaite déterminer s’il existe un écart significatif entre \(\overline{X}\) et \(\mu\) pour un niveau de confiance \(1-\alpha\), on peut donc décrire les deux alternatives du test :

\[H_{0}:\,\mu=250 \quad H_{1}:\,\mu\neq250\]

Nous savons que la moyenne \(\overline{X}\) suit une loi normale \(\mathcal{N}(\overline{X},\frac{\sigma}{\sqrt{n}})\)

L’hypothèse \(H_{0}\) est donc valide si la moyenne de l’échantillon se trouve dans l’intervalle de confiance :

\[\mu_{0}-u_{1-\alpha/2}\cdot\frac{\sigma}{\sqrt{n}}\leq\overline{X}\leq\mu_{0}+u_{1-\alpha/2}\cdot\frac{\sigma}{\sqrt{n}}\]

En prenant un risque \(\alpha=5\%\) on peut déterminer le quantile de la loi normale \(u_{0.975}=1.96\). D’où l’encadrement :

\[\begin{split}250-1.96\cdot\frac{0,1833}{\sqrt{10}}\leq & \overline{X}\leq250+1.96\cdot\frac{0,1833}{\sqrt{10}} \\ 249,8\leq & \overline{X}\leq250,11\end{split}\]

La moyenne ne se trouvant pas dans l’intervalle de confiance, on rejette l’hypothèse \(H_{0}\) : l’écart est donc jugé significatif.

En pratique on préfère construire une variable de test, qui, dans notre cas, suit une loi Normale centrée réduite N(0,1) :

\[T=\frac{(\overline{X}-\mu) \cdot \sqrt{n}}{\sigma}=-12.07\]

Pour accepter \(H_{0}\), il faut que la variable de test soit comprise entre les quantiles \(u_{\alpha}=-1.96\) et \(u_{1-\alpha}=1.96\). On confirme donc la décision précédente : l’écart entre \(\overline{X}\) et \(\mu\) est significatif.

SOSstat représente graphiquement la situation correspondant à l’hypothèse \(H_{0}\) (courbe bleue encadrée par l’intervalle de confiance). La variable de test est représentée par la courbe rouge qui se trouve à l’extérieure de l’intervalle de confiance. On rejette donc l’hypothèse \(H_{0}\)

Tests sur 1 échantillon réalisé avec SOSstat

Tests sur 1 échantillon réalisé avec SOSstat

Tests paramétriques et non-paramétriques

On distingue généralement deux familles de tests : les tests paramétriques et non-paramétriques. Tandis que les tests paramétriques postulent la normalité de la population et s’appuient sur l’estimation de paramètres pour prendre la décision, les tests non-paramétriques ne postulent aucune loi pour représenter le comportement des données à traiter. De ce fait, la validité du résultat est indépendante de la loi postulée, on dit que le test est “ distribution-free ”. Ces tests sont particulièrement utilisés lorsque l’hypothèse de normalité des variables utilisées n’est pas satisfaite, ou bien lorsque l’on traite des variables ordinales (classement) ou des variables discrètes.

La question qui est souvent posée, est de savoir quels sont les avantages ou inconvénients des tests non-paramétriques vis-a-vis de leurs homologues paramétriques ? Nous proposons quelques éléments de réponse.

Avantages :

  • Les tests non-paramétriques posent peu d’hypothèses sur les variables utilisées, ce qu’il leur confère une certaine universalité,
  • Les tests non-paramétriques utilisent le plus souvent les rangs des variables, ce qui les rend robustes à d’éventuelles valeurs aberrantes,

Inconvénients :

  • Les tests non-paramétriques sont souvent moins performants que leurs homologues paramétriques, ce qui exige en contrepartie d’augmenter l’effectif des échantillons,
  • La construction des tests non-paramétriques, vise à démontrer des écarts mais pas à les quantifier avec précision.

SOSstat permet de réaliser de nombreux tests paramétriques et non-paramétriques :

Tests paramétriques

  • Tests sur 1 échantillon
    • Comparaison d’une moyenne à une valeur théorique (écart-type connu ou inconnu)
    • Comparaison d’une variance à une valeur théorique
  • Tests sur 2 échantillons
    • Comparaison de deux moyennes (écart-types connus, écart-types inconnus et égaux, écart-types inconnus et différents)
    • Comparaison de moyennes appariées
    • Comparaison de deux variances (test de Fisher)
  • Comparaison de n échantillons
    • Comparaison de plusieurs moyennes (ANAVAR)
    • Comparaison de plusieurs variances (test de Bartlett)
Analyse de la variance réalisée avec SOSstat

Analyse de la variance réalisée avec SOSstat

Tests non-paramétriques

  • Tests sur 2 échantillons
    • Centrage de deux échantillons : Test de Wilcoxon Mann Whitney
    • Centrage de deux échantillons appariés : Test de Signe
    • Dispersion de deux échantillons : Test de Ansari-Bradley
    • Comparaison de deux distributions : Test de Kolmogorov 2 échantillons
  • Comparaison de n échantillons
    • Centrage de n échantillons : Test de Kruskall-Wallis
    • Dispersion de n échantillons : Test de Levene
Test de Kruskal Wallis réalisée avec SOSstat

Test de Kruskal Wallis réalisé avec SOSstat