À PROPOS DES MOINDRES CARRÉS
S'il s'agit d'obtenir une estimation visuelle de l'adéquation entre les mesures et un modèle linéaire, alors ce moyen est utilisable : ceci correspond à un "test" du modèle ; mais l'appréciation ne peut que rester qualitative. S'il s'agit que d'une estimation rapide et approximative des valeurs des paramètres de la relation affine supposée, alors c'est souvent possible, mais il faut d'une autre manière déterminer les chiffres significatifs de chaque valeur. S'il s'agit de déterminer des paramètres de la relation affine qui décrit les mesures, alors cela suppose que le modèle est fixé et que les incertitudes des mesures respectent certaines conditions. Sinon, il faut utiliser une autre méthode (de khi-deux, par exemple) Si la relation peut être ramenée à une relation linéaire (y = a.x), et que l'objectif est de déterminer le paramètre a, alors il est préférable d'utiliser un autre protocole expérimental.
En l'absence d'information sur les incertitudes des mesures, l'application de la régression linéaire n'est pas celle d'un estimateur statistique. Elle ne fournit donc a priori qu'une indication de l'ordre de grandeur des paramètres de la fonction modélisante. Il faut d'autres informations pour estimer les chiffres significatifs. Si l'on peut faire l'hypothèse que les incertitudes sont négligeables sur la grandeur portée en abscisse et constante sur la grandeur portée en ordonnée, alors la régression fournit une estimation des paramètres a et b de la fonction affine représentative. Ces estimations sont des valeurs accompagnées d'un intervalle de confiance. Par ailleurs, le calcul retourne une estimation de l'incertitude supposée constante sur les mesures portées en ordonnées.
Pour faire cet ajustement par calcul il faut se donner une mesure de l'écart entre la droite et les points expérimentaux. La meilleure droite sera celle qui minimise cette mesure. Pour la régression linéaire, l'écart pour chaque point est la différence de coordonnées entre le point expérimental et le point théorique de même abscisse, et l'écart "total" est la somme de ces écarts élevés au carré, divisée par le nombre de mesures :
Le minimum de J défini par l'annulation des dérivées partielles conduit aisément aux expressions analytiques de a et b.
L'écart ainsi défini ne compte que les différences suivant l'axe des ordonnées. Cela sous-entend que l'incertitude sur la variable portée en abscisse est nulle ou négligeable. L'écart fait la somme de tous les termes sans pondération. Cela sous-entend que l'incertitude (absolue) sur la grandeur portée en ordonnée est constante. Ces deux points sont donc deux conditions d'utilisation de la régression linéaire en particulier en tant qu'estimateur des paramètres du modèle.
Dans de nombreuses situations, on est amené à porter sur les axes, non pas la grandeur mesurée, mais une grandeur calculée à partir de celle-ci. Il faut bien voir que ceci sous-entend que l'on connaît déjà une grandeur ou une relation pour justifier le changement de variable. L'autre point important est que, si l'incertitude sur la mesure de la grandeur de base est constante, elle ne l'est plus sur son carré, son logarithme, etc. L'utilisation de la régression linéaire en tant qu'estimateur n'est donc pas possible. La régression linéaire est l'application de la méthode générale dite des moindres carrés.
On peut prendre comme mesure de l'écart entre la courbe mathématique et les points expérimentaux, la somme moyennée sur N mesures des écarts calculés pour chaque point et élevés au carré :
Rechercher ce minimimum c'est chercher les "moindres carrés"... Le cas particulier d'une fonction affine est appelé régression linéaire. Mais on peut également utiliser des régressions polynomiales.
L'écart quadratique ainsi défini ne compte que les différences suivant l'axe des ordonnées. Cela sous-entend que l'incertitude sur la variable portée en abscisse est nulle ou négligeable. De plus, il est constitué de la somme de tous les termes sans pondération. Cela sous-entend que l'incertitude (absolue) sur la grandeur portée en ordonnée est constante. Ces deux points sont donc deux conditions d'utilisation de la méthode des moindres carrés simple (la régression linéaire en particulier) en tant qu'estimateur des paramètres du modèle. Il faut utiliser soit une méthode des moindres carrés pondérée, dite méthode du khi-deux (lorsque l'incertitude sur Y n'est pas constante) soit une méthode plus générale comme celle des ellipses (lorsque les deux variables ont des incertitudes).
Dans de nombreuses situations, on est amené à porter sur les axes, non pas la grandeur mesurée, mais une grandeur calculée à partir de celle-ci. C'est le cas lorsqu'on étudie l'énergie cinétique à partir de la mesure de la vitesse, ou lorsqu'on porte 1/p' pour l'étude des formules de conjugaison en optique. Il faut bien voir que ceci sous-entend que l'on connaît déjà une grandeur ou une relation pour justifier le changement de variable. L'autre point important est que, si l'incertitude sur la mesure de la grandeur de base est constante, elle ne l'est plus sur son carré, son logarithme, etc. L'utilisation de la méthode des moindres carrés simple en tant qu'estimateur n'est donc pas possible.
Les hypothèses sur les incertitudes permettent de minimiser l'écart quadratique compté suivant Oy. La valeur "résiduelle" est alors représentative des fluctuations aléatoires ; on obtient donc ainsi une estimation de l'incertitude sur chacune des mesures yi.Le minimum de l'écart quadratique est donc représentatif des erreurs aléatoires qui affectent les mesures.
Toute détermination par une méthode statistique portant sur un échantillon n'est qu'une estimation. Cela sous-entend que le résultat ne peut être donné qu'avec une "fourchette", un intervalle, et que la valeur cherchée appartient à cet intervalle avec un certaine probabilité. En conséquence, les paramètres déduits de ces valeurs expérimentales affectées d'une incertitude sont donc eux-mêmes calculés avec une incertitude représentée par un écart-type que l'on peut estimer.
Comme dans le cas du traitement d'une seule grandeur, les valeurs obtenues sont des estimations à partir d'un nombre fini N de couples de mesures. L'intervalle de confiance est donc fonction du taux que l'on se fixe. Si le nombre de mesures est faible, il faut tenir compte d'un terme correcteur : le coefficient de Student t{N-2},%. Ceci signifie qu'il faut prendre dans la table des coefficients de Student celui qui correspond au taux de confiance choisi et à l'indice N-2 qui représente le degré de liberté : nombre de mesures diminué de 2 du fait qu'il y a deux paramètres à déterminer (donc deux relations).
On peut se demander quelle est "l'importance" de l'écart calculé entre un point expérimental et le point théorique de même abscisse : comment dire s'il est grand, petit, raisonnable, aberrant ? L'utilisation de l'écart relatif, c'est-à-dire rapporté à la valeur elle-même n'a pas de sens en général : une translation suivant Oy change évidemment cette valeur. Et comment tenir compte de ce que, bien évidemment, il est plus important de faire passer une courbe près d'un point dont on est "sûr" que d'un point entaché d'une grande incertitude ? Ce qui a du sens pour répondre à ces questions, c'est bien de comparer l'écart à l'incertitude connue ou estimée a priori...
Cette expression est désignée généralement par le calcul du khi-deux. Derrière ce nom à la consonance abstraite se cache donc une grandeur plus "naturelle" que l'écart-quadratique simple.
Suivant les protocoles utilisés :
Pour calculer la meilleure estimation, il faut utiliser une méthode de type khi-deux généralisée qui tient compte de la relation entre y et x.
|
||||||||||||||||||||||||||||||||||
INRP - TECNE Unité Informatique et enseignement 29/02/2000 |