Physique Chimie
  | Accueil |         
  PTSI - Lycée
Raoul Follereau,
Belfort
CPGE PTSI :  |  documents cours |  Info |  TP, DS, maths... |  colles | 
Autres :           |  liens |  archives PTSI et TSI2 |  PCSI | 
Autres (hors CPGE) :  |  histoire |  divers |  actualités | 

  Incertitudes de mesure en physique-chimie/

Rubriques :

Traitements des incertitudes |

Régression linéaire et incertitudes | ← vous êtes ici

Références incertitudes |




Régression linéaire et incertitudes

Quelques mots sur la régression linéaire. Ce qui suit s'applique pour une séance de TP, ou pour un montage à l'agrégation de sciences physiques. Les premiers paragraphes sont assez généraux et donnent des conseils pratiques issus de mon expérience. Le dernier paragraphe, "des éléments théoriques...", est plus technique et vise à donner une introduction a ce qui est effectivement réalisé par les algorithmes de régression linéaire.

Plan du présent document :




Objectifs

On dispose de points de mesures, typiquement une liste de couples $(X_i,Y_i)$.

On souhaite voir si une loi affine, $y = ax+b$, peut convenir pour modéliser ces données.

Si oui, on souhaite connaître les valeurs du "meilleur" couple $(a,b)$, ainsi que les incertitudes types et élargies sur $a$ et $b$.

On peut retenir que ceci s'effectue en minimisant la fonction

\begin{equation}\label{chi2} \chi^2(a,b) = \sum_i \dfrac{[Y_i-(aX_i+b)]^2}{a^2u(X_i)^2+u(Y_i)^2} \end{equation}

par rapport à $a$ et $b$, où les $X_i$, $Y_i$ sont les points expérimentaux (les mesures), $u(X_i)$ et $u(Y_i)$ les incertitudes types associées à chaque point $(X_i,Y_i)$.

La trame principale suivante résume les étapes à suivre. Les paragraphes qui suivent fournissent des détails ou des justifications.

  • Identifier des grandeurs $X_i$ et $Y_i$ qui doivent, d'après la théorie et le modèle utilisé, suivre une loi affine $Y_i = a_\text{théo} X_i + b_\text{théo}$.

    Il est possible qu'il y ait une incertitude expérimentale sur $a_\text{théo}$ et $b_\text{théo}$ (par exemple $a_\text{théo} = RC$, les valeurs de $R$ et de $C$ sont connues à incertitude près), que l'on évalue avec les méthodes habituelles pour obtenir $\Delta a_\text{théo}$ et $\Delta b_\text{théo}$ (incertitudes élargies à 95%).

  • Réaliser les mesures $X_i$ et $Y_i$, estimer les incertitudes associées (en général on obtient des incertitudes élargies à 95%, en déduire alors les incertitudes types en divisant par 2 (voir plus bas)).

  • Tracer les points $(X_i,Y_i)$ et tenter une régression linéaire.

    Vérifier visuellement si les points sont alignés ou non, s'il y a une tendance ou non (oscillations autour de la droite, parabole, ...). Ce critère visuel reste le meilleur critère (voir paragraphe sur le chi 2 réduit plus bas). On peut s'aider en traçant les résidus, c'est-à-dire l'écart entre les données et la droite.

    Si les points ne semblent pas alignés, c'est soit que le modèle n'est pas le bon (oubli d'un effet ? mauvaises hypothèses ?), soit qu'il y a eu erreur de manipulation.

  • Si les points semblent alignés, on peut relever les valeurs $a$ et $b$ donnés par le programme. On peut les noter $a_\text{exp}$ et $b_\text{exp}$, car il s'agit des valeurs issues de l'expérience, mais on omettra ce exp pour alléger les notations.

    Le programme doit également fournir une incertitude sur $a$ et sur $b$. L'incertitude type $u(a)$ et $u(b)$ est obtenue par le logiciel sans plus d'hypothèses. Il donne également l'incertitude élargie $f_\alpha u(a)$ et $f_\alpha u(b)$ pour un degré de confiance typiquement à 95%, en multipliant $u(a)$ et $u(b)$ par un facteur d'élargissement. Ce dernier est donné par celui d'une distribution de Student, sous l'hypothèse que les $X_i$ et $Y_i$ suivent une loi normale. Il dépend du nombre de points sur lequel est effectué la régression linéaire. On peut remarquer que $f_\alpha$ est important (3 ou 4) si le nombre de points est faible (de 4 ou 5).

    On appelle $\Delta a$ et $\Delta b$ les incertitudes ainsi obtenues pour un facteur de 95%.

    Si $b_\text{théo} = 0$, et si $0\in (b\pm\Delta b)$, on peut recommencer en utilisant un modèle linéaire $y=ax$.

  • On vérifie enfin si $a\pm\Delta a$ et $a_\text{théo}\pm\Delta a_\text{théo}$ ont un intervalle de valeurs communes, et de même pour $b$.




Programmes disponibles

Différents outils pour effectuer des régressions linéaires en traitant de façon rigoureuse les incertitudes :

  • Le programme Python écrit par moi-même (lien) (qui complète celui du site www.physique-experimentales.com).

  • Le programme Reg Lin MC (lien), qui est adapté des consignes du Gum. Très complet, permet également des simulations Monte Carlo, ainsi que la visualisation des corrélations entre $a$ et $b$. Mais un peu difficile d'approche.

  • Le logiciel Régressi (lien). Rigoureux et intuitif. Très utilisé en séance de TP. Penser à cocher "prendre en compte les incertitudes" pour que celles-ci soient considérées et que les calculs de $\Delta a$ et $\Delta b$ correspondent à ce qui est expliqué ici.

Ces trois programmes retournent exactement les mêmes résultats pour les paramètres $a$ et $b$ et pour les incertitudes types ou élargies à 95% associées. Ils implémentent donc la même approche. Cette approche est détaillée dans la partie "éléments théoriques'' plus bas.




Quelles incertitudes entrer pour les données ?

Les incertitudes à entrer dans les programmes listés ci-dessus sont toujours les incertitudes types.

A contrario, on a souvent accès expérimentalement aux incertitudes élargies à 95% : c'est le genre d'incertitude fournie par les notices constructeur lorsque rien n'est précisé ; c'est aussi une incertitude élargie que l'on considère quand on dit, par exemple, qu'une règle graduée au millimètre donne un résultat à $\pm 0.5$ mm près (en toute rigueur il y a dans ce cas un intervalle de confiance de 100%), etc.

Si la variable suit une distribution normale, on repasse à l'incertitude type en divisant l'incertitude à 95% par 1.96. Si on ne connaît pas la distribution, on peut raisonnablement la diviser par 2.

On retiendra donc qu'on entre dans le logiciel des incertitudes types, obtenues en divisant par $\simeq 2$ les incertitudes élargies estimées sur les $X_i$ ou les $Y_i$.




Interprétation du $\chi^2$ réduit

On définit $\chi^2_\text{réduit} = \chi^2/(N-p)$, où $p$ est le nombre de paramètres (2 pour une régression affine, 1 pour une régression linéaire), et $\chi^2$ reste définit par l'équation (\ref{chi2}).

Il s'agit d'un paramètre donné par les logiciels de traitement de données. La question est de savoir si oui ou non il est utile, et si oui, à partir de quelles valeurs on peut considérer un modèle validé.

Le plus important est de bien comprendre ce qu'il mesure. Vu sa définition, on peut dire que :

\begin{equation} \chi^2_\text{réduit} \sim \frac{1}{\text{Nombre de points}}~\frac{\text{écart entre le modèle et les points}}{\text{valeur de l'incertitude}}. \end{equation}

Autrement dit, il s'agit de la valeur moyenne de "l'écart entre le modèle et les mesures" / "l'incertitude associée à chaque mesure".

Donc :

  • Si $\chi^2_\text{réduit} \gg 1$, alors en moyenne l'écart point-droite est beaucoup plus grand que l'incertitude, et le modèle doit être rejeté. C'est le cas sur la figure \ref{chi2} en bas à droite ou à gauche.

  • Si $\chi^2_\text{réduit} \ll 1$, alors les incertitudes sont beaucoup plus grandes que la distance entre points et modèle. On peut conclure que le modèle est validé par l'expérience. Mais attention toutefois, il faut remarquer que l'expérience n'est pas très contraignante : certes, le modèle passe par les barres d'erreur, mais beaucoup d'autres modèles pourraient également passer ! C'est le cas sur la figure \ref{chi2} en haut à droite. Si les points eux-mêmes semblent bien alignés, c'est probablement qu'on a surestimé les incertitudes et les mesures sont en fait d'une meilleure qualité. Alors les incertitudes retournées sur $a$ et $b$ seront aussi surestimées.

  • Si $\chi^2_\text{réduit} \simeq 1$, alors le modèle passe par les barres d'erreur, mais les barres d'erreur ne sont pas trop grandes non plus. On peut alors conclure que l'accord et bon, et valider le modèle. Cette validation semble alors plus "satisfaisante" que dans le cas précédent où $\chi^2_\text{réduit} \ll 1$. C'est le cas sur la figure \ref{chi2} en haut à gauche, où on voit que la droite effleure les barres d'incertitude.

Jeux de données et régression linéaire avec valeurs du chi2
Figure 1 - Exemples de jeux de données avec régression linéaire et évaluation du $\chi^2_\text{réduit}$.
Sauf en bas à droite, les données sont de la forme $y_i = 2x_i+1+w_i$ avec $w_i$ un nombre aléatoire entre -3 et 3. En bas à droite, on a $y_i = 4\sin x_i$.
Sigma est l'incertitude rentrée pour les données.

Une fois que l'on a compris ceci, on voit que la valeur du $\chi^2_\text{réduit}$ n'apporte en fait pas plus d'information qu'une inspection visuelle : on voit bien visuellement si le modèle passe par les barres d'erreur ou non (critère 1), et si les barres d'erreur sont beaucoup plus grandes que l'écart point-modèle ou non. Une inspection visuelle permet également de voir clairement s'il y a une tendance non linéaire ou non (critère 2), ou des points aberrants. On peut d'ailleurs tracer les résidus pour mieux tester le critère 2.


De plus, il faut savoir que pour n'importe quel jeux de données et n'importe quel modèle pris au hasard, on peut toujours trouver des incertitudes qui font que $\chi^2_\text{réduit}=1$ (il suffit de prendre $\sigma$ égal au $\chi^2_\text{réduit}$ calculé pour $\sigma=1$...), voir par exemple sur la figure ci-dessous.

Jeux de données et régression linéaire avec valeurs du chi2
Figure 2 - Exemples de jeux de données avec régression linéaire et évaluation du $\chi^2_\text{réduit}$.
Ici, $\sigma$ est choisi pour avoir précisément $\chi^2_\text{réduit}=1$.

On ne peut donc que conseiller de contrôler visuellement les résultats, de le dire, et ensuite, éventuellement, de commenter la valeur de $\chi^2_\text{réduit}$ (à condition de pouvoir expliquer ce qu'elle signifie).




Comment interpréter les résultats lorsqu'on ne saisit pas les incertitudes sur les données ?

Il est possible de réaliser une régression linéaire sur un ensemble de points pour lesquels on n'a pas saisi d'incertitude. Le logiciel retourne néanmoins une valeur de $u(a)$, $u(b)$, et de $\chi^2_r$. Comment fait-il ?

  • Recherche de $a$ et $b$ : le programme minimise $\chi^2(a,b)$ en supposant les $u(y_i)$ tous égaux et les $u(x_i)$ nuls. On obtient donc strictement le même résultat que si les $u(y_i)$ étaient tous égaux (car alors ils se factorisent).

  • Le programme suppose que $u(x_i)=0$, et il estime l'incertitude type sur les $y_i$ à l'aide de l'écart-type entre la loi linéaire et les données : pour tout $i$, $u(y_i) = \sqrt{\dfrac{1}{N-2}\sum_i[Y_i - (aX_i+b)]^2}$. Il procède ensuite comme d'habitude.

  • Le programme retourne parfois une valeur du $\chi^2$ réduit, mais son interprétation n'est alors pas possible, puisque les $u(y_i)$ ont été calculés à partir du $\chi^2$ ! Il ne faut pas le prendre en compte (voir paragraphe sur $\chi^2_r$ : si l'incertitude expérimentale n'est pas connue on ne peut rien dire).

    Le critère de modélisation correct ou non est alors avant tout visuel.




Faut-il imposer l'ordonnée à l'origine ?

Une question récurrente est de savoir s'il faut imposer l'ordonnée à l'origine lors d'une régression linéaire.

  • Si le modèle ne le prévoit pas, alors évidemment non. Attention, il se peut que la théorie prévoit une ordonnée à l'origine nulle, mais que la prise en compte de contraintes expérimentales la rende non nulle (par exemple le temps de réponse d'un détecteur, une position d'un détecteur mal contrôlée, ...). Il faut alors le dire, et ainsi justifier un fit affine.

  • Si au contraire le modèle prévoit une ordonnée à l'origine nulle, alors il faut d'abord effectuer un fit affine en $y=ax+b$, et voir si oui ou non le 0 est dans les barres d'erreurs de $b$.

    • S'il ne l'est pas, c'est qu'un biais expérimental non pris en compte peut rendre $b\neq0$, et on conserve donc un fit affine.

    • S'il l'est, alors on peut valider l’hypothèse d'un modèle linéaire et imposer $b=0$.

Dans le cas où $b=0$ est imposé, il faut toujours prendre garde à vérifier visuellement si cette contrainte est raisonnable (elle ne le sera pas si les données semblent clairement indiquer une pente autre que celle obtenue pour $b=0$...).




Des éléments théoriques sur l'obtention des paramètres et de leur incertitude

Dans cette partie, les url font références à l'aide du logiciel Reg Lin MC et sont disponibles lorsqu'on utilise le logiciel (donc elles ne fonctionnent pas ici en ligne).

  • Expliquons d'abord ce qu'on appelle le "maximum de vraisemblance".

    Prenons des couples $(X_i,Y_i)$ avec des incertitudes sur les $Y_i$ seulement (les $X_i$ sont certains) : chaque $Y_i$ est distribué selon une loi normale de variance $\sigma$ autour de sa valeur vraie, estimée parcelle prédite par le modèle. Ces incertitudes sont indépendantes.

    Étant donné deux paramètres $a$ et $b$ fixés, la probabilité que les mesures $(X_i,Y_i)$ obtenues avec notre expérience se soient effectivement produites est :

    \begin{equation*} P(a,b) \propto \prod_i \exp\left\{-\dfrac{1}{2}\left(\dfrac{Y_i - (aX_i+b)}{\sigma}\right)^2\right\}. \end{equation*}

    On cherche ensuite à trouver $a$ et $b$ tels que cette probabilité (que nos données soient obtenues avec le modèle en $a$,$b$) soit maximale.

    Il s'agit de la méthode du maximum de vraisemblance.

    On montre ensuite que $P(a,b)$ est maximale si l'opposé de son logarithme est minimal, donc si

    \begin{equation*} \chi^2(a,b) = \sum_i \left(\dfrac{y_i - (ax_i+b)}{\sigma}\right)^2 \end{equation*}

    est minimale. La méthode des moindres carrés maximise donc la vraisemblance des données par rapport au modèle obtenu.

  • Dans le cas où on a des incertitudes sur $X_i$ et $Y_i$, on ne connaît pas les valeurs vraies, $X_{i,\text{vrai}}$, des $X_i$. La probabilité écrite ci-dessus devient alors : \begin{equation*} P(a,b) \propto \prod_i \exp\left\{-\dfrac{1}{2}\left(\dfrac{Y_i - (aX_{i,\text{vrai}}+b)}{u(Y_i)}\right)^2\right\} \, \exp\left\{-\dfrac{1}{2}\left(\dfrac{X_i - X_{i,\text{vrai}}}{u(X_i)}\right)^2\right\} \end{equation*} et il faut trouver $a$ et $b$, mais aussi les $X_{i,\text{vrai}}$, pour maximiser $P$. On démontre alors que la fonction à minimiser est :

    \begin{equation} \chi^2(a,b) = \sum_i \dfrac{[Y_i-(aX_i+b)]^2}{a^2u(X_i)^2+u(Y_i)^2+2a\text{cov}(X_i,Y_i)}, \end{equation}

    où les $X_i$, $Y_i$ sont les points expérimentaux (les mesures), $u(X_i)$ et $u(Y_i)$ les incertitudes types associées à chaque point $(X_i,Y_i)$ et $\text{cov}(X_i,Y_i)$ la covariance associée (qu'on prend à 0 en général car on la connaît rarement).

    Dans le cas où les couples $(X_i,Y_i)$ suivent une loi binormale, avec ou sans corrélation, alors cette minimisation assure que la solution correspond au maximum de vraisemblance (voir gum_MC_reg_lin/html/principe.fr.html). Si ce n'est pas le cas, on minimise tout de même la même expression, mais elle ne correspondra pas au maximum de vraisemblance, et on ne pourra pas donner d'interprétation statistique précise aux incertitudes retournées sur $a$ et $b$ (le mieux pour cela est de passer à une simulation MC).

    La minimisation de $\chi^2(a,b)$ peut être faite analytiquement dans le cas où $u(X_i)=0$. Lorsque ce n'est pas le cas, $\chi^2(a,b)$ n'est plus une simple forme quadratique en $a$ et $b$ (à cause du $a$ au dénominateur), et il faut avoir recourt à des méthodes numériques. Par exemple :

    • L'algorithme de York (utilisé dans GUM MC reg lin, cf gum_MC_reg_lin/html/algo_york.fr.html ou article de York et al).

    • La méthode de Levenberg-Marquardt (cas du script Python donné ici, cf Press et al $\S$15.5).

    • La méthode ODR de scipy.odr. Minimise l'écart quadratique orthogonalement à la droite.

    • Etc.

    Ces méthodes retournent également les incertitudes-type sur $a$ et $b$, sous l'hypothèse de lois binormales indépendantes pour les incertitudes sur les $(X_i,Y_i)$ (cf ci-dessous). Elles donnent les mêmes résultats.

    Enfin, ces méthodes donnent les mêmes résultats si on fit $y$ en fonction de $x$ ou l'inverse.

  • La quantité $\chi^2$ définie ci-dessus peut être vue comme une variable aléatoire, car elle est définie en fonction des variables aléatoires $(X_i,Y_i)$.

    On détermine ainsi l'incertitude type de $\chi^2$ en utilisant sa définition et la formule de sommation des incertitudes types (valable quelle que soit leurs distributions, pourvue qu'elles soient indépendantes). On a donc facilement $u(\chi^2)$ dans le cas général.

    Cependant, on n'a pas en général de moyen d'obtenir l'intervalle de confiance associé à $\pm u(\chi^2)$, ni d'obtenir le facteur d'élargissement à appliquer pour un intervalle de confiance donné.

    C'est seulement dans le cas où les couples $(X_i,Y_i)$ suivent une loi binormale, que l'on connaît la distribution de probabilité de $\chi^2$ et qu'on en déduit les intervalles de confiance voulus. Reg Lin Mc fournit tout ceci (cf aussi gum_MC_reg_lin/html/qualite_renormalisation.fr.html), tout comme la méthode de Levenberg-Marquardt du script Python.

  • On détermine les incertitudes types sur $a$ et $b$ : $u(a)$, $u(b)$, et $\text{cov}(a,b)$. Même méthode que pour $\chi^2$.

    Par exemple le programme Python écrit plus haut retourne la matrice $2\times2$ de ligne 1 $u(a)^2,\text{cov}(a,b)$ et ligne 2 $\text{cov}(a,b),u(b)^2$. Reg Lin Mc fournit également ces résultats.

    Ici aussi, c'est seulement si les couples $(X_i,Y_i)$ suivent une loi binormale que l'on peut en déduire l'intervalle de confiance associé à $\pm u(a)$ et $\pm u(b)$, ou obtenir un facteur d'élargissement pour un intervalle de confiance pour $a$ et $b$. En effet dans ce cas, le facteur d'élargissement est donné par celui de la loi de Student à $N-2$ degrés de liberté ($N$ est le nombre de couples de points $(X_i,Y_i)$ sur lesquels on effectue la régression).

    Reg Lin Mc fournit ainsi différentes valeurs pour différents intervalles de confiance. Régressi fournit l'incertitude élargie à 95% seulement. Le programme Python fournit celle à 95% (ou à ce que l'on veut si on change la variable level).

    La figure ci-dessous donne le facteur d'élargissement pour différents niveaux de confiance.

    Facteur d'élargissement pour les incertitudes des coefficients d'une régression linéaire

    Facteur d'élargissement, par lequel multiplier l'incertitude type $u(a)$ ou $u(b)$ sur les paramètres $a$ et $b$ afin d'obtenir l'incertitude élargie correspondant à un niveau de confiance de 68%, 95% ou 99%.

    Ceci est dans l'hypothèse (toujours effectuée) où les couples $(X_i,Y_i)$ suivent une loi binormale.

    On peut retenir que pour un niveau à 95% le facteur est de 4, 3 ou 2.5 pour 4, 5 ou 6 points, puis entre 2.5 et 2 ensuite.

    On voit également que l'intervalle $\pm u(a)$ donne quasiment toujours une confiance à 68% (car le facteur est proche de 1 partout pour ce niveau).

  • On peut aller plus loin en prenant en compte le fait que $a$ et $b$ sont corrélés (en général si on prend une ordonnée à l'origine importante on a plutôt une pente plus faible, et vice versa).

    Reg Lin Mc permet donc de tracer les ellipses de confiance (gum_MC_reg_lin/html/ellipse_iso_densite_student_ab.fr.html) pour $a$ et $b$, qui sont des surfaces telles qu'il y ait 95\% (par exemple) des couples $(a,b)$. Si l'ellipse est inclinée c'est qu'il y a corrélation entre $a$ et $b$. Ces ellipses sont tracées en supposant que les couples $(X_i,Y_i)$ suivent une loi binormale.

  • Enfin on peut, une fois $a$ et $b$ connus, obtenir $y$ pour une valeur de $x$ donnée par la relation $y=ax+b$. L'incertitude type sur ce $y$ est alors $u(y)^2 = u(b)^2+x^2u(a)^2+u(x)^2a^2+2x\text{cov}(a,b)$.

    Si on suppose que les couples $(X_i,Y_i)$ suivent une loi binormale, alors on peut en déduire des intervalles de confiance avec un facteur d'élargissement de loi de Student à $N-2$ degrés de liberté. (Voir gum_MC_reg_lin/html/prevision.fr.html, et gum_MC_reg_lin/html/prevision_x_y.fr.html).

    On peut faire la même chose si l'on souhaite calculer $x$ pour une valeur de $y$ donnée.

    On peut aussi tracer une ellipse de confiance autour du point $(x_i,y_i)$ : voir gum_MC_reg_lin/html/ellipse_iso_densite_normale.fr.html

 

On peut aussi faire des simulations Monte Carlo, et retrouver les ellipses de confiance pour $a$ et $b$. Il faut bien sûr se donner une distribution de probabilité pour les couples $(X_i,Y_i)$. Reg Lin Mc le propose, en supposant cette distribution gaussienne (gum_MC_reg_lin/html/principe_monte_carlo.fr.html). Voir ci-dessous.




Simulations Monte Carlo

Lorsque les lois de distribution des $X_i$ et des $Y_i$ ne sont pas gaussiennes, il est courant d'utiliser tout de même la minimisation de $\chi^2(a,b)$ défini ci-dessus (même si on ne maximise alors plus la vraisemblance ; d'autre part il existe d'autres formes possibles qui peuvent être plus judicieuses si les événements rares sont fréquents, comme minimiser la somme des $|y_i - (ax_i+b)|/\sigma$, cf Press $\S$15.7).

Se pose ensuite la question de l'incertitude sur $a$ et $b$. Les $u(a)$ et $u(b)$ retournés par les méthodes de York ou de Levenberg-Marquardt n'ont pas d'interprétation en termes d'intervalle de confiance associé. Une méthode possible est d'utiliser une méthode Monte Carlo.

L'idée est de générer des couples $(X_i,Y_i)$ autour des valeurs vraies $(X_{i,\text{vrai}},Y_{i,\text{vrai}})$ selon la distribution des $X_i$ et des $Y_i$. On dispose alors d'un nouveau jeu de données, sur lequel on peut calculer des valeurs de $a$ et $b$. En répétant ceci un grand nombre de fois, on obtient une distribution de $a$ et de $b$, dont on peut tirer les informations voulues en terme d'incertitudes.

Problème : les valeurs vraies ne sont pas connues ! Solution : on les remplace par les valeurs données par la régression linéaire (celle faite sur le jeu de données initiales) (cf après).

Les étapes sont les suivantes (telles que décrites par York, Press, et la notice de Reg Lin MC) :

  • Obtenir $a$ et $b$ par la méthode habituelle (minimisation de $\chi^2(a,b)$. On conserve la pondération par les incertitudes, puisqu'elle permet de donner moins d'importance aux points incertains. Notons $a_0$ et $b_0$ les paramètres obtenus à partir du jeu $(X_i^0,Y_i^0)$ initial (celui qu'on a mesuré).

  • On génère un nouvel ensemble de points, $(X_i,Y_i)$, chacun centré sur $(X_i^0,a_0X_i^0+b_0)$ et de distribution donnée par celle des $X_i$ et $Y_i$. Ceci est répété un nombre $K\gg1$ de fois. Notons $(X_i^{(k)},Y_i^{(k)})$ le jeu numéro $k$.

  • On calcule les valeurs de $a$ et $b$ pour le jeu numéro $k$, avec la même méthode que ci-dessus (minimisation de $\chi^2$). Notons $a_k,b_k$ le couple obtenu. En répétant ceci pour les $K$ jeux de données simulées, on obtient une liste de $(a_k,b_k)$.

  • Cette liste permet d'avoir la distribution statistique des paramètres $a$ et $b$. On peut tracer des histogrammes, des ellipses de confiance dans le plan $a,b$, etc.

 

Quelques remarques :

  • La méthode MC ne sert pas à déterminer les meilleurs $a$ et $b$. Elle sert uniquement a estimer leur incertitude. En effet, $a_0$ et $b_0$ obtenus initialement sont déjà les meilleurs paramètres possibles selon notre critère.

  • Les jeux de données sont bien générés autour des points du modèle, donc autour de $(X_i^0,a_0X_i^0+b_0)$, et non pas autour des points expérimentaux $(X_i^0,Y_i^0)$. En effet ces derniers sont une réalisation particulière du processus, et ne sont pas les plus proches possibles de ce que seraient les points théoriques.

  • En réalité on ne remplace pas vraiment les $(X_{i,\text{vrai}},Y_{i,\text{vrai}})$ par les $(X_i^0,a_0X_i^0+b_0)$. L'hypothèse est plus faible : on suppose que la distribution des $a_k-a_\text{vrai}$ est de forme proche de celle des $a_k-a_0$ (et idem pour $b$). Il n'y a que cette dernière qu'on peut calculer. Comme $a_0$ n'est pas trop différent de $a_\text{vrai}$ (on l'espère), alors ces deux distributions non plus. En particulier l'écart-type, calculé comme

    \begin{equation*} \sigma_a = \sqrt{\dfrac{1}{K}\sum_{k=1}^K (a_k - a_0)^2} \end{equation*}

    sera sensiblement le même que celui de la distribution des $a_k-a_\text{vrai}$, donc de l'écart-type réel.

  • On montre que dans le cas d'incertitudes distribuées selon une loi binormale, cette procédure Monte Carlo donne les mêmes incertitudes et facteurs d'élargissement sur $a$ et $b$ que les méthodes de York ou de Levenberg-Marquardt. (Il faut calculer $\sigma_a$ et $\sigma_b$ comme ci-dessus.) La méthode MC n'est alors pas vraiment utile.




Remarque sur l'utilité du coefficient de corrélation $r^2$

La calculatrice ou les tableurs donnent parfois un coefficient $r^2$, appelé coefficient de corrélation linéaire. Ce coefficient permet de savoir si les données $x$ et $y$ dépendent linéairement l'une de l'autre : il est proche de $\pm1$ quand c'est le cas.

Cependant, il n'est pas adapté à la vérification d'une loi physique, pour essentiellement deux raisons :

  • Il ne prend pas en compte les incertitudes. Il peut donc être très proche de 1, tout en ayant une droite de régression qui ne passe pas du tout par les barres d'erreur si celles-ci sont petites. Il ne remplace donc pas le critère de validation visuel "la droite de régression passe-t-elle par les barres ?".

  • Il peut être proche de 1 dans des cas où la dépendance n'est pas linéaire. Sur les quatre exemples ci-dessous, il vaut 0,816, alors qu'il y a clairement des tendances non linéaires. Il ne remplace donc pas le critère de validation visuel "les données ne présentent pas de tendance nette".

Jeux de données et régression linéaire avec valeurs du r2
Figure - Exemples de jeux de données avec régression linéaire, possédant tous la même valeur du coefficient de corréaltion : $r=0,816$. (source : Wikipédia, quartet d'Anscombe)

On ne peut donc, encore une fois, que conseiller de contrôler visuellement les résultats.



  Site version 08/2018.
 ↑↑