Physique Chimie
  | Accueil |         
  PTSI - Lycée
Raoul Follereau,
Belfort
CPGE PTSI :  |  documents cours |  Info |  TP, DS, maths... |  colles | 
Autres :           |  liens |  archives PTSI et TSI2 |  PCSI | 
Autres (hors CPGE) :  |  histoire |  divers |  actualités | 

  Incertitudes de mesure en physique-chimie/

Rubriques :

Traitements des incertitudes | ← vous êtes ici

Régression linéaire et incertitudes |

Références incertitudes |




Traitement des incertitudes

Le traitement des incertitudes est un élément clé de la démarche scientifique. Par nature, une mesure est associée à une incertitude. C'est grâce à l'estimation de celle-ci que l'on peut dire si oui ou non les mesures expérimentales sont compatibles avec les prédictions théoriques. Sans incertitudes elles ne le seraient jamais strictement et toujours à peu près... et la science n'avancerait pas.

Comment présenter le formalisme et les outils liés aux incertitudes ? Tout dépend bien sûr du niveau visé, et on ne dira pas la même chose dans une classe de terminale, dans une CPGE, en préparation à l'agrégation ou en Master de métrologie...

Les notes qui suivent visent plutôt le niveau agrégation, niveau pour lequel les mesures effectuées ne sont pas si précises que cela, le nombre de points souvent inférieur à la dizaine, les lois de distribution des incertitudes inconnues... Un traitement rigoureux des incertitudes ne semble donc pas justifié, et serait même parfois un peu ridicule. Encore faut-il savoir en quoi consiste ou consisterait le traitement dans sa version rigoureuse, afin de pouvoir justifier pleinement une approche approchée. C'est l'objectif de ces notes.




Plan

La suite de cette page n'est pas un cours complet sur les incertitudes, elle vise plutôt à approfondir et préciser certains points. Il est donc supposé que le lecteur connait déjà les éléments de base.

On peut par ailleurs consulter le polycopié (lien) donné dans ma classe de TSI2 qui résume les points de base sur la gestion des incertitudes. Mais attention, il s'agit d'un polycopié pour des étudiants en CPGE et qui est donc de niveau introductif - certains raccourcis pourront paraître choquants.

Plan du présent document :




Généralités et recettes pratiques

Lorsque l'on donne une incertitude, il faut l'associer à un intervalle de confiance.

Par exemple on dira que nos mesures de longueur d'onde d'une raie spectrale mènent à l'estimation $\lambda = 547 \pm 3\,\mathrm{nm}$ avec un intervalle de confiance de 95%. Cela signifie que la valeur vraie a 95% de probabilité de se situer dans l'intervalle donné.

L'idée générale que l'on cherche à justifier ici est que, pour un TP dans le secondaire, en CPGE ou en préparation à l'agrégation, il suffit d'utiliser les règles suivantes :

  • L'intervalle à $\pm$ une incertitude type, $x \pm u(x)$, correspond à un intervalle de confiance de 70% environ.

  • Pour obtenir l'intervalle de confiance élargi (donc à 95%), écrit $x \pm \Delta x_{95\%}$, on peut utiliser $\Delta x_{95\%} \simeq 2u(x)$.

    Si on veut déduire $u(x)$ à partir de $\Delta x_{95\%}$, on peut utiliser de même $u(x) \simeq \Delta x_{95\%}/2$.

  • Lors du calcul d'une incertitude sur une grandeur composée, par exemple $f = f(x,y,z)$, on utilise la formule de propagation des erreurs indifféremment pour les incertitudes types (ce qui est rigoureux si les $x_i$ sont indépendants) ou pour les incertitudes élargies (ce qui n'est pas rigoureux, mais permis par le fait qu'on utilise ici $\Delta x_{95\%} \simeq 2u(x)$ pour toutes les grandeurs).

  • Lors d'une estimation d'incertitude de type A, on oublie les coefficients de Student. On estime l'incertitude type avec la formule habituelle en $u(\bar{x}) = \sigma_\text{exp}/\sqrt{N}$, et on l'élargie à 95% en multipliant là encore par 2.

  • On estime les incertitudes de type B en faisant preuve de bon sens et sans se soucier des distributions suivies : un instrument gradué à $2\delta$ près donne une incertitude élargie pour $\pm\delta$ et son écart type est de $\delta/2$, une notice constructeur indique une incertitude élargie (sauf mention contraire), etc. (voir polycopié incertitudes pour une liste).

 

Reprenons chacun de ces points dans l'ordre et expliquons pourquoi ils ne sont pas tout à fait corrects :

  • L'intervalle $x\pm u(x)$ correspond à un niveau de confiance de 68% uniquement pour une loi qui suit une distribution gaussienne. C'est différent pour une distribution uniforme, triangle, de Student, etc... Voir paragraphe sur les intervalles de confiance.

  • De même, on a la relation $\Delta x_{95\%} \simeq 2u(x)$ ($1.96u(x)$ pour être précis) pour une loi gaussienne seulement. Le coefficient d'élargissement est différent de 2 pour d'autres lois. Voir ici aussi le paragraphe sur les intervalles de confiance.

  • Si on a une fonction $f(x,y,z)$, la densité de probabilité de $f$ est en générale difficile à obtenir et n'est que rarement gaussienne (elle l'est si $f$ est la somme de variables indépendantes gaussiennes, mais c'est à peu près le seul cas). On peut donc calculer l'incertitude type $u(f)$ par la formule de propagation des incertitudes, mais on ne peut pas en déduire facilement $\Delta f_{95\%}$. On verra toutefois qu'utiliser un facteur d'élargissement de 2, que la loi soit uniforme ou triangulaire ou autre, mène à un résultat suffisamment proche du résultat rigoureux pour pouvoir être utilisé (voir paragraphe sur la propagation des incertitudes, et paragraphe d'illustration avec $f(x_1,x_2)=x_1-x_2$).

  • En toute rigueur pour une estimation de type A l'intervalle de confiance à 95% est donné par $\pm u(\bar{x})\times t_{95\%}^{N-1}$ (sous l'hypothèse de $x_i$ gaussiens). On verra dans le paragraphe sur l'incertitude de type A que le coefficient de Student $t_{95\%}^{N-1}$ est proche de 2 (2.8 pour 5 points, 2.3 pour 10 points), et on rappellera que l'incertitude sur l'incertitude type $u(\bar{x})$ est elle-même de 24% au moins pour moins de 10 points... Ce qui rend superflue l'utilisation de $t_{95\%}^{N-1}$.

  • En toute rigueur, il faudrait utiliser une loi uniforme pour un instrument gradué, une loi triangle pour estimer une plage de netteté, etc. (et encore, cela se discute...).

    On a alors des relations exactes, par exemple pour une loi uniforme $x$ de demi-largeur $\delta$ on a $u(x)=\delta/\sqrt{3}$ et $\Delta x_{95\%} = 1.6\delta/\sqrt{3}$. Mais $1.6/\sqrt{3} = 0.92$, et on comprend bien qu'on peut arrondir ceci à $\Delta x_{95\%} = \delta$, ce qui a l'avantage d'être intuitif, et n'a aucun impact sur la précision de la discussion étant donné qu'il y a toujours globalement une incertitude sur l'incertitude de l'ordre de 10% à 20%, voire plus.

Les paragraphes qui suivent permettent de justifier les approximations ci-dessus. Il faut les lire en ayant à l'esprit que l'estimation de l'incertitude est... une estimation. On peut montrer par exemple que sur une série de mesures, l'incertitude de type A obtenue possède elle-même une incertitude de l'ordre de 10% tant qu'on ne dépasse pas la vingtaine de points. C'est aussi pour cela qu'on conseille de ne garder qu'un chiffre significatif dans l'écriture de l'incertitude.




Intervalle de confiance associé aux diverses lois, facteur d'élargissement

Mesurons donc une grandeur $x$, vue comme une variable aléatoire de loi de probabilité $p(x)$. On note $u(x)$ l'écart-type de la loi, qui est aussi par définition l'incertitude type de $x$.

On souhaite déterminer un intervalle de confiance $x\pm\Delta x_\alpha$ associé à un niveau de confiance $\alpha$ donné ($\alpha = 95\%$, $99\%$, etc.). Quel est le lien entre $\Delta x_\alpha$ et $u(x)$ ?

Les définitions sont les suivantes, et tout est donc une affaire de calcul :

\begin{equation} u(x) = \sqrt{\int_{-\infty}^{+\infty} p(x) (x-\bar{x})^2 \text{d} x}, \end{equation} \begin{equation} \Delta x_\alpha~\text{est~tel~que}~ \int_{\bar{x}-\Delta x_\alpha}^{\bar{x}+\Delta x_\alpha} p(x)\text{d} x = \alpha. \end{equation}

On note $\Delta x_\alpha = f_\alpha\,u(x)$ avec $f_\alpha$ le facteur d'élargissement. Ce dernier dépend donc de la loi de probabilité $p(x)$ suivie par $x$. Et c'est là un point clé : il faut connaître cette loi, ce qui face à une expérience n'est pas évident du tout ! Le tableau ci-dessous donne quelques exemples :

\begin{array}{|c|c|c|c|c|} \text{Loi} & u(x) & f_{68\%} & f_{95\%} & f_{99\%} \\ \hline \text{Normale} & & 0.99 & 1.96 & 2.58 \\ \text{Triangle}~\text{de}~\text{demi-largeur}~\delta & \dfrac{\delta}{\sqrt{6}} & 1.1 & 1.9 & 2.2 \\ \text{Uniforme}~\text{de}~\text{demi-largeur}~\delta & \dfrac{\delta}{\sqrt{3}} & 1.2 & 1.6 & 1.7 \\ \end{array} Incertitude type (ou écart type) $u(x)$, et facteur d'élargissement $f_\alpha$ par lequel multiplier $u(x)$ pour obtenir $\Delta x_\alpha$, afin que l'intervalle $x\pm \Delta x_\alpha$ corresponde à un niveau de confiance $\alpha$ de 68%, 95% ou 99%. Pour un instrument gradué tous les $d$, on aurait $\delta=d/2$. Pour une tolérance $t$, $\delta = t$.

  • Pour la loi uniforme, la formule générale est $\Delta x_\alpha = \alpha\delta$, ce qui est plutôt logique. En particulier, une incertitude $\Delta x_\alpha = \delta$ correspond à un niveau de confiance $\alpha=100\%$, logique aussi! On a également $f_\alpha = \sqrt{3}\alpha$.

  • La loi triangle va de $-\delta$ à $\delta$, sa hauteur est $1/\delta$ afin qu'elle soit normalisée. On a $\Delta x_\alpha = \delta (1-\sqrt{1-\alpha})$. Ici aussi $\Delta x_\alpha = \delta$ correspond à $\alpha=100\%$. On a de plus $f_\alpha = \sqrt{6}(1-\sqrt{1-\alpha})$.

Pour ces deux lois, il est plus parlant de donner le "facteur d'élargissement" par lequel multiplier $\delta$, c'est-à-dire $f'_\alpha = \Delta x_\alpha / \delta$ :

\begin{array}{|c|c|c|c|} \text{Loi} & f'_{68\%} & f'_{95\%} & f'_{99\%} \\ \hline \text{Triangle}~\text{de}~\text{demi-largeur}~\delta & 0.4 & 0.8 & 0.9 \\ \text{Uniforme}~\text{de}~\text{demi-largeur}~\delta & 0.68 & 0.95 & 0.99 \\ \end{array} Facteur par lequel multiplier la demi-largeur $\delta$ pour obtenir l'incertitude $\Delta x_\alpha$, afin que que l'intervalle $x\pm \Delta x_\alpha$ corresponde à un niveau de confiance $\alpha$ de 68%, 95% ou 99%. Pour un instrument gradué tous les $d$, on aurait $\delta=d/2$. Pour une tolérance $t$, $\delta = t$.

On voit ainsi que si on veut considérer des incertitudes élargies à 95%, il faut considérer $\pm 0.8\delta$ pour une loi triangle de demi-largeur $\delta$, ou $\pm0.95\delta$ pour une loi uniforme de demi-largeur $\delta$.

On pourra donc sans mal arrondir ceci à $\pm \delta$ sans être trop imprécis.


Notons que ceci permet aussi d'éviter la situation un peu absurde, rencontrée dans certains livres trop rigoureux, où on considère pour la loi uniforme que $u(x) = \delta/\sqrt{3}$ sans approximation (ce qui est correct), puis que $\Delta x_{95\%} = 2u(x)$ (ce qui est faux car un facteur d'élargissement de 2 ne donne $\Delta x_{95\%}$ que pour la loi gaussienne), et qui aboutit à $\Delta x_{95\%} = 2\delta/\sqrt{3} = 1.2\delta$ ! Il n'y a évidemment pas de sens à dépasser $\delta$, puisque pour $\pm\delta$ l'intervalle de confiance est déjà de 100%... Soit on est rigoureux et on utilise le tableau ci-dessus, soit on est raisonnable et on utilise l'approximation de l'encadré précédent, mais on ne fait pas un entre-deux absurde.

Dernières remarques pour comprendre les $\sqrt{3}$, $\sqrt{6}$, $\sqrt{12}$ qui fleurissent parfois :

  • Pour un instrument indiquant une tolérance $\pm t$, on peut considérer qu'il s'agit de la demi-largeur de la distribution : $\delta = t$. Si on suppose que la distribution de probabilité est uniforme, alors $u(x) = \frac{t}{\sqrt{3}}$ et $\Delta x_{95\%}=0.95t$ (et non pas $\frac{2t}{\sqrt{3}} = 1.15t$ !)... mais pourquoi uniforme ? Bref, autant supposer d'emblée que $\pm t$ donne l'incertitude élargie à 95%.

  • Si on dispose d'un instrument gradué tous les $d$, alors la demi-graduation est $\delta=d/2$. L'incertitude-type est alors $u(x) = \frac{\delta}{\sqrt{3}} = \frac{d}{\sqrt{12}}$. D'où le fait qu'on trouve cette indication pour un calcul d'incertitude type avec un instrument gradué tous les $d$. On trouve ensuite fréquemment que l'incertitude élargie à 95% est $\Delta x_{95\%} = \frac{2d}{\sqrt{12}} = 0.577 d$, ce qui est faux comme nous venons de l'expliquer. En réalité, la bonne valeur s'obtient avec le tableau précédent en remplaçant $\delta$ par $d/2$ : $\Delta x_{95\%} = 0.95\delta = 0.475 d$. Ajoutons qu'il n'est pas vraiment plus légitime de prendre une loi uniforme que triangle ou gaussienne pour un instrument gradué, et on se convainc que l'estimation $\Delta x_{95\%} = 0.5 d$ est celle à adopter.

  • Pour finir, si on effectue la différence entre deux mesures sur cet instrument, pour mesurer $x=x_1-x_2$, alors on a $u(x) = \sqrt{u(x_1)^2+u(x_2)^2} = \sqrt{2}\frac{d}{\sqrt{12}} = \frac{d}{\sqrt{6}}$. Mais remarquons, puisque nous voulons être rigoureux jusqu'au bout, n'est-ce pas, que la distribution de $x$ (associée donc à la différence de deux lois uniformes) devient une loi triangle et qu'il faut utiliser le facteur d'élargissement associé. Voir partie suivante sur $f(x_1,x_2) = x_1-x_2$ où l'on montre que tout ceci n'est pas très utile...




Propagation des incertitudes sur une mesure et intervalle de confiance, facteur d'élargissement

On considère une grandeur $f$ qui dépend d'autres grandeurs $x_1$, ..., $x_n$. Peu importe les distributions.

Par exemple on mesure une distance $d$, un temps de chute $t$, et on souhaite en déduire la vitesse $f = d/t$.

Si on note $u(x_i)$ l'incertitude type de la variable $x_i$, et qu'on suppose les $x_i$ indépendants, et qu'on fait une hypothèse de linéarisation de $f$ sur le domaine où les $x_i$ prennent la plupart de leurs valeurs significatives, alors l'incertitude type sur $f$ est :

\begin{equation} u(f) = \sqrt{\sum_{i=1}^N\left(\dfrac{\partial f}{\partial x_i}\right)^2 u(x_i)^2}. \end{equation}

Diverses remarques :

  • Pour démontrer cette formule, il convient d'écrire un développement limité de $f$ à l'ordre 1 : \begin{equation} \Delta f = \sum_i \left(\dfrac{\partial f}{\partial x_i}\right) \Delta x_i, \end{equation} les dérivées partielles étant des constantes car prises en $(\bar{x}_i)_i$. Ainsi $\Delta f$ est une variable aléatoire somme de variables aléatoires indépendantes (les $\Delta x_i$). On applique la formule de sommation des variances pour obtenir le résultat voulu.
  • Si les $x_i$ ne sont pas indépendants, on doit utiliser $u(f)^2 = \sum_{i,j=1}^N\dfrac{\partial f}{\partial x_i}\dfrac{\partial f}{\partial x_j} \text{cov}(x_i,x_j)$.

  • On peut généraliser cette formule à la combinaison d'incertitudes de type A et B : ce sont bien les carrés des incertitudes types qui s'ajoutent, $u(f)^2 = u(x)_\text{type~A}^2 + u(x)_\text{type~B}^2$.

    Par exemple $u(x)_\text{type~A}$ peut être une incertitude calculée sur plusieurs réalisations d'une expérience de chute d'une réglette, et $u(x)_\text{type~B}$ l'incertitude issue de la notice constructeur du chronomètre utilisé.

  • Ce ne sont que les incertitudes types qui s'ajoutent (et certainement pas les incertitudes élargies).

    Rappelons qu'une incertitude type est définie comme l'écart type de la distribution de probabilité $p(x)$ : $u(x) = \sqrt{\int p(x) (x-\bar{x})^2}$.

    Si on veut obtenir une formule donnant l'incertitude élargie sur $f$, associée à un certain intervalle de confiance, c'est impossible en général. Idem si on veut connaître l'intervalle de confiance associé à $\pm u(f)$. La raison est que l'on ne connaît pas la distribution de probabilité de $f$.

    Il y a néanmoins plusieurs cas qui peuvent permettre d'obtenir un résultat :

    • Une somme de variables aléatoires gaussiennes indépendantes est une variable aléatoire gaussienne. Mais on rencontre rarement ce cas en pratique.

    • Une somme de $N$ variables aléatoires indépendantes est une variable aléatoire dont la distribution tend vers une gaussienne lorsque $N\gg 1$ (si les variables aléatoires sont les mêmes et de variance finie, et même si elles sont différentes sous certaines conditions). Ceci peut-être utilisé lorsque $f = \dfrac{1}{N}\sum_i x_i$ est une moyenne.

    • On peut réaliser des simulations Monte Carlo afin d'obtenir des résultats rigoureux au cas par cas si on connait les distributions de chacun des $x_i$. Le logiciel Gum MC permet de faire ceci, ou bien en ligne le logiciel du NIST.

    • Certaines fois le calcul est possible. Voir paragraphe suivant où on traite le cas $f(x_1,x_2) = x_1-x_2$.




Un exemple d'incertitude composée : $f(x_1,x_2) = x_1-x_2$

On s'intéresse au cas de $f(x_1,x_2) = x_1-x_2$. C'est un cas plutôt fréquent, car il arrive à chaque fois qu'on mesure une quantité par différence : différence de longueurs, de volumes, d'angles, etc.

On suppose qu'il y a égalité des incertitudes types : $u(x_1)=u(x_2)$, que l'on note $u(x)$.

La formule de propagation des incertitudes (types) indique que $u(f)^2 = u(x_1)^2+u(x_2)^2$, d'où ${u(f) = \sqrt{2}u(x).}$

  • Comment interpréter ce résultat ? Pourquoi n'est-ce pas $u(f) = 2\times u(x)$ ?

    Simplement, il est rare qu'une erreur sur $x_1$ et une erreur sur $x_2$ aillent dans le même sens. Si je mesure un angle $\theta_1$, puis un angle $\theta_2$, il est rare que je fasse une erreur qui surestime $\theta_1$ et en même temps une qui surestime $\theta_2$. C'est pourquoi l'incertitude type de $f$ n'est pas $2\times u(x)$, mais est plus faible.

  • Comment ensuite obtenir une incertitude élargie à 95% à partir de $u(f)$ ?

    On suppose que $x_1$ et $x_2$ sont distribués selon des loi uniformes (rectangulaires) de demi-largeurs $\delta$. Pour une règle graduée au millimètre, $2\delta = 1\,$mm.

    • Si on reste approximatif, on multiplie $u(f)$ par deux : $\Delta f_{95\%} = 2u(f)$. Comme on est aussi approximatif sur $x_1$ et $x_2$, on a $\Delta x_{95\%} = 2u(x)$, et donc $\Delta f_{95\%} = \sqrt{2}\Delta x_{95\%}$. Pour un instrument gradué tous les $2\delta$, on a $\Delta x_{95\%} \simeq \delta$, et donc $\Delta f_{95\%} = \sqrt{2}\delta$.

    • Cependant, pour être rigoureux il faut bien comprendre que la loi suivie par $f$ n'est pas gaussienne, et que le facteur d'élargissement n'est donc pas 2.

      Dans le cas présent, on peut montrer soit mathématiquement soit avec une simulation Monte Carlo via Gum MC (lien vers le logiciel) ou avec le logiciel du NIST que si $x_1$ et $x_2$ sont distribués selon des loi uniformes (rectangulaires) de demi-largeurs $\delta$, alors l'histogramme de $f$ est une distribution triangle de demi-largeur $2\delta$ (ce qui est logique si on y réfléchit).

      Le second tableau ci-dessous indique alors que $\Delta f_{95\%}$ est la demi-largeur multipliée par $0.8$, d'où $\Delta f_{95\%} = 0.8\times2\delta$.

    En conclusion, l'approche rigoureuse donne $\Delta f_{95\%} = 1.6\delta$, et l'approche approximative $\Delta f_{95\%} = 1.4\delta$. On voit qu'il n'y a pas de différence significative.

    On pourrait même d'ailleurs oublier le $\sqrt{2}$ de l'approche approximative et utiliser $\Delta f_{95\%} = 2\delta$.

En bleu, densité de probabilité pour la variable aléatoire $y=x_1-x_2$, où $x_1$ et $x_2$ suivent toutes deux une loi rectangulaire allant de -0.5 à +0.5. Effectué via le calculateur du NIST.




Incertitude de type B

C'est une incertitude associée à une seule mesure. Voir le polycopié sur les incertitudes (lien) pour des méthodes dans différents cas (règle ou autre instrument gradué tel que goniomètre, burette, banc optique ; instrument jaugé ; voltmètre ; oscilloscope ; ...).




Incertitude de type A, coefficient de Student

Voir le polycopié pour des généralités.

C'est une incertitude statistique, pour des séries de mesures répétées $N$ fois (plus de $\sim$ 5 fois pour que cela ait un sens statistique).

On a donc une série de mesures $x_1$, $x_2$, ..., $x_N$ d'un même mesurande. Par exemple, on mesure plusieurs fois le temps de chute d'un objet depuis une hauteur de 1\,m.

On peut estimer l'incertitude type de $x$ à l'aide de l'écart type de la série de données :

\begin{equation} u(x) = \sigma = \sqrt{\dfrac{1}{N-1}\sum_{i=1}^{N}(x_i-\bar{x})^2}. \end{equation}

Alors :

  • La meilleure estimation de la valeur vraie $X_\text{vraie}$ est la moyenne des mesures :

    \begin{equation} \bar{x} = \dfrac{1}{N}\sum_{i=1}^N x_i. \end{equation}
  • La meilleur estimation de l'incertitude type de $\bar{x}$, $u(\bar{x})$, est l'écart-type de la série de donnée, divisée par $\sqrt{N}$ :

    \begin{equation} \begin{split} u(\bar{x}) &= \dfrac{1}{\sqrt{N}}\times\sigma \\ & = \dfrac{1}{\sqrt{N}}\sqrt{\dfrac{1}{N-1}\sum_{i=1}^{N}(x_i-\bar{x})^2}. \end{split} \end{equation}

    On rappelle en effet que l'écart-type d'une série de données donne une idée de la dispersion ou de l'étalement des données. Le facteur $1/\sqrt{N}$ montre que plus on fait de mesures, plus l'incertitude sera faible et donc plus le résultat sera précis. Attention, il ne s'agit pas réellement de l'incertitude type de la v.a. $\bar{x}$, mais d'une estimation de celle-ci. En toute rigueur on devrait la noter autrement.

Attention, comme d'habitude : (i) on ne connaît pas le niveau de confiance $\alpha$ associé à l'intervalle $\bar{x}\pm u(\bar{x})$ et (ii) on ne connaît pas le facteur d'élargissement par lequel multiplier $u(\bar{x})$ si on veut obtenir un niveau de confiance donné (de 95% par exemple), ceci parce qu'on ne connaît pas la loi de probabilité suivie par $\bar{x}$.

Comment faire ?

Il faut au moins faire une hypothèse sur la loi suivie par les $x_i$. On suppose donc qu'il s'agit d'une loi normale. Ainsi la moyenne $\bar{x}$, qui est une somme de v.a. normale, suit une loi normale. Mais on ne connaît pas en pratique son incertitude type : on ne peut donc pas utiliser ce résultat directement. Au lieu de cela, on possède une estimation de l'incertitude type, $u(\bar{x})$ donné ci-dessus.

On peut alors démontrer que l'intervalle $\bar{x} \pm t_\alpha^{N-1} u(\bar{x})$ correspond à un niveau de confiance $\alpha$, où $t_\alpha^{N-1}$ est appelé coefficient de Student.

Précisons les valeurs de $t_\alpha^{N-1}$ :

\begin{array}{|c|c|c|} \text{Niveau de confiance} & 70\% & 95\% \\ \hline \text{Nombre de points} & & \\ 3 & 1.39 & 12.7 \\ 5 & 1.19 & 2.78 \\ 7 & 1.13 & 2.45 \\ 10 & 1.1 & 2.26 \\ 15 & 1.08 & 2.15 \\ 30 & 1.06 & 2.05 \\ \infty & 1.04 & 1.96 \\ \end{array}

Coefficient de Student $t_\alpha^{N-1}$. Il existe des tables sur internet. Attention, comme on considère un intervalle bilatéral, il faut lire dans ces tables avec le niveau $1-(1-\alpha)/2$. Cf la table du wikipédia anglais.


La question est donc de savoir si on peut utiliser la recette approximative $\Delta\bar{x}_{95\%} \simeq 2u(\bar{x})$ avec $u(\bar{x})$ estimé ci-dessus. La table nous apprend que le résultat rigoureux est $\Delta\bar{x}_{95\%} = 2.8u(\bar{x})$ pour 5 mesures, $2.3u(\bar{x})$ pour 10 mesures, etc. J'aurais donc tendance à dire que oui, on peut. D'autant plus si on se souvient que la statistique suivie par les $x_i$ n'est pas nécessairement gaussienne, et que même dans ce cas $u(\bar{x})$ est un estimateur de l'écart type de la loi, qui présente lui même une incertitude dont on montre qu'elle est de 24% pour $N=10$ et de 10% pour $N=50$, ce qui n'est pas rien.


Attention enfin, toute cette approche statistique n'a d’intérêt que si l'erreur commise lors de la lecture est aléatoire, et grossièrement gaussienne. Une condition essentielle est qu'il faut que l'instrument de mesure soit assez précis pour que l'erreur commise soit aléatoire. S'il ne l'est pas, il faut ajouter à l'incertitude de type A celle de type B, liée à l'imprécision de l'appareil, selon la formule :

\begin{equation} \delta x = \sqrt{\Delta x_\text{type~A}^2 + \Delta x_\text{type~B}^2}. \end{equation}

Ainsi si $\Delta x_\text{type~A} \ll \Delta x_\text{type~B}$ il n'est pas utile de le considérer.

Cette dernière formule est générale, et s'applique en fait dans tous les cas (voir exemples ci-dessous).




Exemples concrets pour savoir quand utiliser type A, B ou les deux

Premier exemple :

On mesure une distance avec une règle graduée au millimètre. Réaliser plusieurs mesures n'améliorera pas la précision au delà du millimètre. En effet, la mesure donnera toujours le même résultat (ou bien alternera entre deux ou trois résultats si l'opérateur à la main peu sure), l'écart type $\sigma_\text{exp}$ sera nul, et utiliser la formule $u(\bar{x}) = \sigma_\text{exp}/\sqrt{N}$ avec $N$ grand donne une incertitude non réaliste. En somme, avec ce matériel de mesure, l'erreur n'est pas aléatoire et ne se prête pas à un traitement statistique. On a alors plutôt $\Delta x = \Delta x_\text{type~B}$ (soit une demi-graduation ici).

 

Second exemple :

On mesure à l'aide d'un chronomètre le temps de chute d'une bille entre deux graduations. Il y a ici une erreur aléatoire flagrante : celle liée au temps de réaction de l'expérimentateur et au critère visuel "la bille passe devant la graduation". Un traitement de type A est donc parfaitement approprié, et multiplier les mesures doit permettre de réduire cette erreur aléatoire. Notons $\Delta T_\text{typeA}$ l'incertitude issue du traitement statistique des données d'une cinquantaine de mesures.

Mais il faut également prêter attention à la précision du chronomètre. Disons par exemple que la notice indique une incertitude $\Delta T_\text{typeB}$ de 1s. Que faire ? Faut-il l'ajouter à celle de type A pour obtenir $\Delta T = \sqrt{\Delta T_\text{typeB}^2+\Delta T_\text{typeA}^2}$ ?

Tout dépend de l'origine du $\Delta T_\text{typeB}$ de 1s de la notice. S'il s'agit d'une erreur aléatoire, alors elle est déjà capturée par et comprise dans l'incertitude de type A obtenue en répétant le mesure. L'addition ci-dessus la compte alors deux fois. Mais si cette erreur-notice est présente parce que le chronomètre commet une erreur systématique (par exemple sa base de temps est légèrement trop courte), alors elle n'est pas capturée par la répétition des mesures, et il faut bien l'additionner comme ci-dessus. Soulignons qu'en général, un appareil électronique commet une erreur avec une composante systématique et une composante aléatoire...

Conclusion ? Il faut les ajouter, même si on risque de compter deux fois la composante aléatoire, sinon on risque de ne pas tenir compte de la composante systématique.

 

Troisième exemple :

On mesure le temps de chute d'une bille dans une colonne de glycérol, en chronométrant le temps de passage entre deux graduations marquées sur la colonne. Il y a une erreur aléatoire due au temps de réaction de l'expérimentateur qui démarre et arrête le chronomètre, ainsi qu'une erreur aléatoire due aux conditions initiales (les conditions de lâcher de la bille). Ces deux erreurs influent sur le temps de chute $T$. À ceci s'ajoute une erreur non aléatoire, celle sur la connaissance de la distance $d$ entre les deux graduations qui est toujours la même. Répéter les mesures et les traiter de façon statistique permet de réduire les deux erreurs aléatoires, mais pas celle sur la distance $d$. Par exemple si $d$ est connue à $10\,\text{cm}$ près, on voit bien que cette incertitude va dominer l'erreur et qu'on ne pourra pas la réduire en répétant les mesures.

Dans cet exemple il faut donc effectuer plusieurs mesures du temps de chute $T$ et estimer l'incertitude de type A, $\Delta T_\text{typeA}$. On peut y ajouter l'incertitude de type B liée à la précision du chronomètre (cf exemple précédent). Puis mesurer du mieux possible la distance $d$ et estimer une incertitude de type B, $\Delta d_\text{typeB}$. On peut alors calculer la vitesse $v=d/T$ et l'incertitude associée, qui fait intervenir du type A et du type B.

 

Quatrième exemple :

Lors d'une séance de TP, 20 groupes ont effectué un titrage afin de déterminer la concentration $c$ d'une même solution. Chaque groupe effectue un traitement de type B des incertitudes. On met en commun les résultats. Que faire ? Tout dépend.

Supposons que les concentrations obtenues sont (en mol/L) :

\begin{array}{|c|c|c|c|c|} 20.05\pm0.01 & 23.90\pm0.01 & 19.52\pm0.02 & 24.05\pm0.01 & ... \\ \end{array}

Clairement, les différents expérimentateurs ont sous-estimé l'incertitude associée à leur mesure. Rappelons qu'il s'agit de mesurer la concentration d'une même solution, il y a donc une unique valeur vraie ! Il est donc possible ici de mettre de coté les incertitudes individuelles qui sont vraisemblablement sous-estimées, et de traiter statistiquement l'ensemble des valeurs pour obtenir un $\Delta c_\text{typeA}$ (attention, celui-ci ne rendra pas compte d'éventuelles erreurs systématiques, par exemple si la concentration de la solution titrante est fausse).

Supposons plutôt les concentrations obtenues sont (en mol/L) :

\begin{array}{|c|c|c|c|c|} 20.1\pm0.1 & 20.2\pm0.1 & 20.0\pm0.2 & 20.3\pm0.1 & ... \\ \end{array}

Ici tout va bien : les intervalles $c\pm\Delta c$ de chaque mesure se recoupent plus ou moins, et donc une évaluation de type A en traitant statistiquement toutes les mesures donnerait la même incertitude que les incertitudes individuelles. On peut donc annoncer un résultat avec l'une ou l'autre (sans sommer les deux).

Supposons enfin que les concentrations obtenues sont (en mol/L) :

\begin{array}{|c|c|c|c|c|} 20.1\pm0.6 & 20.2\pm0.8 & 20.0\pm0.7 & 20.3\pm0.9 & ... \\ \end{array}

Il est rassurant de voir que les valeurs trouvées sont très proches. Un traitement statistique donnerait une faible incertitude de type A, par exemple $\Delta c_\text{typeA} = 0.1$. Cependant, on a $\Delta c_\text{typeA}$ petit devant les $\Delta c$ individuels de chaque mesure, ce qui pose question. Les $\Delta c$ individuels ont probablement été sur-estimés, et on peut retenir une incertitude finale donnée par $\Delta c_\text{typeA} = 0.1$. Attention toutefois, il ne faut pas qu'il y ait une erreur systématique cachée quelque part...

 

En conclusion :

 

  • Lorsque les résultats ne varient pas, l'incertitude de type A n'est pas appropriée. (exemple 1)

  • Pour une même mesure, on peut combiner incertitude de type A obtenue en répétant la mesure et incertitude de type B lue dans la notice, car cette dernière peut contenir une composante systématique non détectable par la répétition des mesures. (Mais la composante aléatoire contenue dans l'incertitude de la notice est alors comptée deux fois.) (exemple 2)

  • Lorsqu'un calcul est impliqué, par exemple $v=d/T$, il est tout à fait possible d'utiliser une incertitude de type A sur certaines grandeurs et de type B sur d'autres (par exemple type A pour $T$, type B pour $d$ ). (exemple 3)

  • Lors de la mise en commun de plusieurs mesures $x_i\pm\Delta x_i$ d'une même grandeur physique (par exemple une concentration de solution), il faut voir si la dispersion des $x_i$ (évaluée à l'œil où via un traitement de type A, ce qui donne $\Delta x_\text{typeA}$) est très supérieure, comparable ou très inférieure au incertitudes individuelles $\Delta x_i$. Dans le premier cas on a sous-estimé les $\Delta x_i$ et il faut conserver $\Delta x_\text{typeA}$, dans le second tout va bien, dans le troisième on a sur-estimé les $\Delta x_i$ et on peut retenir $\Delta x_\text{typeA}$. (Attention toutefois aux éventuelles erreurs systématiques.) (exemple 4)




Des formules

Soit une loi $p(x)$.

On a $\displaystyle \int_{-\infty}^{+\infty} p(x)\text{d} x = 1$.

Valeur moyenne (ou espérance) de la loi : \begin{equation*} \bar{x} = \int_{-\infty}^{+\infty} x\, p(x)\text{d} x. \end{equation*}

Écart-type de la loi : \begin{equation*} u(x) = \sqrt{\int_{-\infty}^{+\infty} p(x) (x-\bar{x})^2 \text{d} x}. \end{equation*}

$\Delta x_\alpha$ est tel que $\displaystyle\int_{\bar{x}-\Delta x_\alpha}^{\bar{x}+\Delta x_\alpha} p(x)\text{d} x = \alpha$.



  Site version 08/2018.
 ↑↑