| Glossaires de termes statistique | ||
par
ANOVA (ANALYSIS
OF VARIANCE).
Ce test vérifie si la moyenne d'un groupe
diffère de manière significative de celles d'autres
groupes. Si oui, d'autres formules statistiques seront nécessaires
pour déterminer quels groupes présentent des différences
significatives. COHÉRENCE INTERNE D'UN TEST OU D'UN QUESTIONNAIRE. C'est le degré auquel tous les items d'un même test ou d'un même questionnaire mesurent la même chose. Le test statistique le plus souvent utilisé est le coefficient CORRÉLATION (CORRELATION). La corrélation indique jusqu'à quel point les valeurs d'une variable peuvent être prédites à partir des valeurs d'une autre variable. Une corrélation positive indique que si la valeur d'une variable augmente, la valeur de l'autre variable a aussi tendance à augmenter. Une valeur de +1 indique une corrélation positive parfaite. Une corrélation négative indique que si la valeur d'une variable augmente, la valeur de l'autre variable a tendance à diminuer. Une valeur de -1 indique une corrélation négative parfaite. Une valeur de 0 indique qu'il n'y a aucune corrélation, ni positive, ni négative entre les deux variables. La valeur de la corrélation peut s'étendre de +1 jusqu'à -1, selon l'importance de la relation entre les deux variables. Attention : La corrélation n'indique pas s'il existe ou non un lien de causalité entre les deux variables. CORRÉLATION MULTIPLE (MULTIPLE CORRELATION). La corrélation multiple permet de prédire la grandeur d'une variable à partir des mesures de plusieurs autres variables. CORRÉLATION PARTIELLE (PARTIAL CORRELATION). Procédure statistique qui permet d'établir la corrélation entre deux variables tout en contrôlant l'influence d'autres variables. COURBE NORMALE DE DISTRIBUTION DES FRÉQUENCES. Quand la moyenne, la médiane et le mode d'une distribution de données ou de valeurs se confondent, transposée sur un graphique, la distribution de ces données ou valeurs s'apparente à la forme d'une cloche. DÉCILE (DECILE). Une mesure de position. Les données sont hiérarchisées et séparées en dix groupes de même taille; une donnée particulière appartiendra donc à l'un ou l'autre des dix déciles. Le premier décile regroupe le dixième des données les plus basses. ÉCART MOYEN (MEAN VARIATION). Une mesure de dispersion. C'est la moyenne des écarts entre chacune des données et la moyenne. ÉCART-TYPE (STANDARD VARIATION). Une mesure de dispersion. C'est la racine carrée de la variance, la variance étant la moyenne des carrés des écarts séparant chaque donnée de la moyenne. ERREUR DE TYPE I (TYPE I ERROR). Cette erreur consiste à rejeter à tort l'hypothèse nulle, c'est-à-dire que l'on déclare que la relation ou la différence entre des variables est significative, alors que de fait la relation ou la différence ne l'est pas. ERREUR DE TYPE II (TYPE II ERROR). Cette erreur consiste à accepter à tort l'hypothèse nulle, c'est-à-dire que l'on déclare que la relation ou la différence entre des variables n'est pas significative, alors que de fait la relation ou la différence l'est. ÉTENDUE (RANGE). Une mesure de dispersion. C'est la distance entre les valeurs extrêmes observées. FIDÉLITÉ (RELIABILITY). C'est la qualité d'un test ou d'un questionnaire à produire les mêmes résultats à différentes passations pour la même personne dans les mêmes conditions. Différentes procédures statistiques existent pour mesurer cette qualité et fournissent un indice situé entre 0 et 1, la valeur 1 indiquant le plus haut degré de fidélité. HYPOTHÈSE NULLE (NULL HYPOTHESIS). Il s'agit du postulat qu'il n'existe pas de relation entre les variables. Ce sont les tests statistiques qui permettront au chercheur de vérifier si on peut rejeter cette hypothèse et avec quel degré de probabilité on pourra déclarer que la différence ou la relation entre les variables est significative. INTERPRÉTATION DE RÉSULTATS STATISTIQUES. Si les tests statistiques permettent d'observer des différences ou des relations entre des variables, ils n'expliquent toutefois pas ce qui fonde ces différences ou ces relations. C'est en se référant à une théorie ou à un ensemble de connaissances que le chercheur leur attribuera un sens, qu'il «interprétera» les résultats observés. MANOVA (MULTIVARIATE ANALYSIS OF VARIANCE). Ce test est utilisé quand on a affaire à plusieurs variables dépendantes et à plusieurs variables indépendantes. Il permet de déterminer s'il existe des différences significatives parmi les groupes de données. Le résultat d'une telle analyse s'exprime par la valeur de F qui est une valeur statistique. C'est cette valeur qui nous indiquera s'il existe ou non des différences significatives. Le chercheur doit renvoyer à une table de données pour vérifier si, étant donné la composition et la structure de ses données, le F obtenu est ou non significatif et à quel seuil de signification. MÉDIANE (MEDIAN). Une mesure de tendance centrale. C'est la valeur qui sépare l'ensemble des observations en deux parties égales. C'est en quelque sorte le point milieu d'une distribution de nombres. MESURE DE DISPERSION. Les principales mesures de dispersion sont l'étendue, l'écart moyen, l'écart type et la variance. Ces mesures nous indiquent jusqu'à quel point les données s'écartent peu ou beaucoup de la moyenne. Si les données étaient présentées sur un graphique, ces mesures indiqueraient si les données sont blotties autour de la moyenne ou s'étalent largement. MODE. Une mesure de tendance centrale. C'est la valeur qui a la plus haute fréquence dans l'ensemble des observations, c'est-à-dire la valeur qui apparaît le plus souvent. MOYENNE (MEAN). Une mesure de tendance centrale qui consiste en la somme de l'ensemble des valeurs observées divisé par le nombre d'observations. PERCENTILE. Le percentile indique quel pourcentage d'une distribution de données ou de valeurs se situe sous une donnée ou une valeur particulière. QUARTILE. Une mesure de position. Les données sont hiérarchisés et séparées en quatre groupes de même taille. Une donnée particulière appartiendra donc au premier, deuxième, troisième ou quatrième quartile. Le quart des données les plus basses appartiendront au premier quartile. QUINTILE. Une mesure de position. Les données sont hiérarchisées et séparées en cinq groupes de même taille. Une donnée particulière appartiendra donc à l'un ou l'autre des cinq quintiles. Le premier quintile regroupe le cinquième des données les plus basses. RÉGRESSION MULTIPLE (MULTIPLE REGRESSION). Cette procédure statistique nous permet d'inférer ou prédire, à partir des valeurs sur deux ou plusieurs variables, la valeur sur une autre variable, ainsi que le degré de confiance que nous pouvons accorder à notre prédiction. Cette procédure pondère, de la meilleure façon possible, le poids de chacune des variables afin d'améliorer de manière maximale la précision de la prédiction. RÉGRESSION SIMPLE (SIMPLE REGRESSION). Cette procédure statistique nous permet d'inférer ou prédire, à partir d'une valeur sur une variable, la valeur sur une autre variable, ainsi que le degré de confiance que nous pouvons accorder à notre prédiction. SEUIL DE SIGNIFICATION (aussi nommé niveau de confiance, niveau de signification ou seuil de confiance) (SIGNIFICANCE OR HYPOTHESIS TEST) Il traduit le niveau de confiance que l'on peut accorder au caractère «significatif» d'une relation ou d'une différence entre des variables. Ce seuil est présenté sous la forme d'un pourcentage. En sciences humaines, on accepte généralement un seuil de 5 %, ce qui signifie qu'il n'y a que 5 % ou moins des chances que la relation ou la différence observée entre les variables soit attribuable au hasard et donc, qu'il y a 95 % des chances ou plus qu'elle soit «significatif». Ce seuil traduit en quelque sorte le degré de crédibilité des résultats. Dans certains travaux de recherche, on n'acceptera pas de seuil inférieur à 1 %. TEST DE SIGNIFICATION OU D'HYPOTHÈSE (TEST OF SIGNIFICANCE OR HYPOTHESIS TEST). Test qui permet d'accepter ou de réfuter l'hypothèse nulle et qui indique avec quel degré de confiance on peut le faire. Le test est dit bilatéral si l'on teste l'hypothèse que l'une des variables n'est ni plus petite ni plus grande que l'autre. Le test est dit unilatéral si l'on teste l'hypothèse que l'une des variables ne se distingue pas de l'autre dans telle direction précise; dans certains cas, on voudra tester qu'elle ne se distingue pas en étant plus petite, dans d'autres cas, si elle ne se distingue pas en étant plus grande. TESTS STATISTIQUES (STATISTICAL TESTS). Procédures et formules statistiques qui permettent de juger la présence ou l'absence de différences ou de liens significatifs entre des variables. TEST T (T TEST). Ce test vérifie si la moyenne d'un groupe diffère de manière significative de celle d'un autre groupe. VARIABLE DÉPENDANTE (DEPENDANT VARIABLE). Une variable est dite dépendante lorsqu'on veut examiner la possibilité de prédire ses valeurs à partir d'une ou de plusieurs autres variables qui sont, elles, dites indépendantes. VARIABLE INDÉPENDANTE (INDEPENDANT VARIABLE). Une variable à partir de laquelle on veut examiner la possibilité de prédire les valeurs d'une autre variable, cette dernière étant alors la variable dépendante. VARIANCE. Une mesure de dispersion. C'est la moyenne des carrés des écarts séparant chaque donnée de la moyenne.
|