Physique Chimie
  | Accueil |         
  Melzani M.,
lycée Pierre de
Coubertin,
Meaux
CPGE TSI2 :  |  documents cours |  TP, DS, maths... |  colles |  cahier texte |  concours |  actualités | 
Autres :       |  plasmas |  agrégation |  archives 2016-2018 |  notes diverses |  épistémologie |  liens | 

  Autour du fonctionnement des sciences physiques/

Rubriques :

Une introduction au fonctionnement des sciences physiques |
Histoire des sciences : une chronologie |
Diagrammes des deux mondes |




L'éternel mystère du monde est sa compréhensibilité.
A. Einstein, Conceptions scientifiques



Abstract

L'objectif de cette page est de parler de la façon dont fonctionnent les sciences physiques, c'est-à-dire de décortiquer ce qu'il se passe et ce qui est en jeu lorsque l'on pratique les sciences physiques, que l'on soit un étudiant s'essayant à un problème de TD, un chercheur voulant réformer le modèle standard des particules, ou un citoyen décryptant une actualité scientifique.

Il s'agit donc de faire de l'épistémologie.




Introduction

Les programmes scolaires de physique-chimie décrivent souvent la démarche de modélisation dans leurs préambules. Le préambule du programme de 2nd de 2001 indiquait ainsi très justement :

"L'exercice de modélisation du réel est sans doute la démarche la plus importante et aussi la plus difficile dans la démarche scientifique. Passer du concret à l'abstrait, de l'observation à sa traduction formalisée, demande que l'on soit capable d'extraire du monde réel une représentation simplifiée."

De même, le préambule du programme de 1ère S de 2010 place l'acquisition de la démarche scientifique comme la première des priorités de la discipline. On peut cependant regretter que ces recommandations ne dépassent pas le cadre des préambules et ne se traduisent jamais par un enseignement explicite de rudiments d'épistémologie.

L'objectif de cet article est donc d'enseigner des bases d'épistémologie de façon simple - accessible dès la terminale - en définissant ce qu'est un modèle ou une théorie, et en expliquant la façon dont les sciences physiques permettent de comprendre le réel. Nous pensons (avec beaucoup d'autres, voir les références) que comprendre ceci est bénéfique pour les étudiants (pour la compréhension du cours ou pour traiter des exercices), mais aussi pour le citoyen qui veut avoir un regard critique sur une actualité scientifique.


Le plan de cet article est le suivant :


Nous verrons que le physicien cherche à comprendre les phénomènes - pris ici au sens étymologique de "ce qui paraît" - et doit pour cela les traduire dans le langage de la théorie : il effectue ceci via un modèle. Les parties I.1 et I.2 s'attachent à définir ces termes (théorie et modèle, phénomènes et situation réelle) et leurs articulations, notamment en présentant un outil synthétique appelé le diagramme des deux mondes. La partie I.3 présente des exemples de tels diagrammes pour les théories au programme de L1, L2 ou CPGE : optique, électromagnétisme, mécanique, thermodynamique, etc.

Puis la partie II exploite les concepts de la partie I afin de mieux comprendre divers aspects des sciences physiques : les étapes d'une démarche scientifique dans le II.1, la distinction entre physique appliquée et fondamentale dans le II.2, le caractère fini du domaine de validité d'une théorie dans le II.3, la façon dont est "validée" une théorie dans le II.4, et la mise en défaut soit du modèle soit de la théorie dans le II.5. La partie III aborde la question de la science en construction et quelques interrogations philosophiques.

Enfin, ces pages ne disent rien de vraiment nouveau : la littérature sur le sujet abonde, et philosophes des sciences comme physiciens discutent depuis longtemps de ces notions (souvent de façon plus compliquée !). Une courte bibliographie est présente en fin d'article.




I - Définitions et généralités




I.1 - Un exemple introductif

Afin d'éviter de longs discours techniques, nous commençons dans cette partie par étudier un exemple simple qui va permettre d'introduire les notions importantes. Cet exemple consiste en l'étude de la trajectoire de boulets de canon.

Nous disposons donc d'un lanceur de boulets qui permet de contrôler l'angle initial et la vitesse initiale du boulet, et nous pouvons par exemple mesurer la distance entre le point de départ et le point d'impact lors de la retombée au sol. La question que se pose le physicien est alors : "comment prédire la distance d'impact en fonction de la vitesse et de la direction de départ ?"

  • Il faut avant tout définir une théorie avec laquelle travailler. On peut définir un peu formellement ce qu'est une théorie physique, mais donnons plutôt des exemples : la théorie de la mécanique et de la gravitation de Newton, la théorie de la relativité restreinte, la théorie de la relativité générale, la thermodynamique, l'optique géométrique, l'optique ondulatoire, l'électromagnétisme de Maxwell, la théorie cinétique des gaz, la physique statistique, la mécanique quantique... sont autant d'exemples de théories.

    Ici, il semble raisonnable d'essayer la théorie de la mécanique et de la gravitation de Newton.

    Mais remarquons que le choix d'une théorie implique déjà des hypothèses : dans le cas présent que les vitesses des boulets sont petites devant celle de la lumière, sinon il faudrait utiliser la théorie de la relativité restreinte (qui permet justement de décrire le mouvement d'objets "relativistes", c'est-à-dire dont la vitesse s'approche de $c_\text{lumière}=300\,000\,\mathrm{km/s}$).

  • Il faut ensuite effectuer un modèle de la situation étudiée, c'est-à-dire qu'il faut traduire, dans le langage de la théorie, les phénomènes observés. Schématiquement, cela donne la figure suivante (où il ne s'agit pas d'un boulet de canon mais d'un ballon de basket, les images de boulets en vol étant difficiles à trouver...) :

    Le modèle permet donc de passer de la situation réelle (et compliquée) à un problème posé dans le langage de la physique (et "simple"). Il est accompagné d'hypothèses simplificatrices.

    Par exemple ici on néglige la rotation du boulet sur lui-même, on suppose le référentiel terrestre galiléen (donc on néglige les effets de la rotation de la Terre et en particulier la force de Coriolis), on prend une loi simple pour la force $\vec{f}_\text{air}$ qui décrit les frottements, etc.

  • Une fois le modèle effectué, le problème est devenu mathématique. Il faut alors le résoudre en utilisant les concepts et outils mis à disposition par la théorie. Ici, on utilise un des postulats de base de la théorie de Newton, le principe fondamental de la dynamique : \begin{equation*} \begin{split} m\dfrac{\text{d}\vec{v}}{\text{d}t} &= \sum \overrightarrow{\text{force}} \\ &= m\vec{g} + \vec{f}_\text{air} \end{split} \end{equation*} avec $m$ la masse du boulet, $\vec{v}$ sa vitesse, $\vec{g}$ le champ de pesanteur, et $\vec{f}_\text{air}$ la force de frottement de l'air. Le reste est une promenade mathématique dans le monde de la théorie : on résout cette équation en prenant en compte les conditions initiales (la vitesse $v_0$ et l'angle $\theta_0$ entre $\vec{v}_0$ et l'horizontale), on en déduit l'expression de la distance d'impact en fonction de $v_0$ et de $\theta_0$ : \begin{equation*} d = f(v_0,\theta_0) = \text{...} \end{equation*} Il peut être plus ou moins simple d'aboutir à cette expression, et il faut éventuellement utiliser des outils numériques de résolution d'équations. Mais cela ne change rien sur le principe.

  • La dernière étape est capitale : il s'agit de confronter les prédictions théoriques ($d_\text{théo}$) établies précédemment aux résultats de l'expérience ($d_\text{exp}$ mesuré sur le terrain).

    Les mesures expérimentales ne sont pas infiniment précises, et sont donc accompagnées d'une incertitude : on écrit donc la mesure sous la forme $d_\text{exp} \pm \Delta d_\text{exp}$, par exemple on a mesuré $(20.5 \pm 0.8)\,\mathrm{m}$. De même du côté de la théorie, certaines constantes comme la masse $m$, l'angle initial $\theta_0$ ou la vitesse initiale $v_0$ ne sont pas connues exactement et font que le résultat théorique (qui dépend de ces constantes) est aussi accompagné d'une incertitude : on écrit $d_\text{théo} \pm \Delta d_\text{théo}$, par exemple on calcule $(21.2 \pm 0.5)\,\mathrm{m}$.

    Ainsi, si $d_\text{théo} \pm \Delta d_\text{théo}$ et $d_\text{exp} \pm \Delta d_\text{exp}$ ont un intervalle de valeurs communes, alors on dira qu'il y a accord entre théorie et expérience, ou encore que cette série d'expériences est en accord avec les prédictions théoriques, ou encore que le couple modèle-théorie choisi permet de correctement prédire les expériences. Le physicien est satisfait.

    Dans le cas contraire, il y a désaccord. Si on suppose que l'expérimentateur et le théoricien n'ont commis aucune erreur de mesure ou de calcul, il reste alors deux origines possibles à ce désaccord :

    • C'est la théorie qui est mise en défaut. Ici il est possible que les boulets aillent trop vite et qu'il faille utiliser la théorie de la relativité restreinte.

    • C'est le modèle qui est mis en défaut : nous avons effectué des hypothèses trop simples (il ne fallait pas négliger la force de Coriolis), ou erronées (la force de frottement n'est pas en \(-\alpha\vec{v}\)), ou bien nous avons oublié de prendre en compte certains paramètres (il y avait du vent...).

    Il faut alors revoir la théorie ou le modèle, établir une nouvelle expression \(d = f(v_0,\theta_0)\), tester son accord avec l'expérience, et continuer ainsi les aller-retour entre modélisation et mesures jusqu'à aboutir à un accord satisfaisant.




I.2 - Bilan, considérations plus générales et diagramme des deux mondes

L'exemple précédent permet maintenant de tenir des propos plus généraux.

On peut d'abord proposer une définition de ce qu'est une théorie et un modèle :

  • Théorie : ensemble de concepts inventés par l'homme, reliés entre eux par des lois, certaines étant postulées, d'autres déduites de celles postulées.

    Une théorie possède toujours un domaine de validité restreint. Une "bonne" théorie permet, avec des postulats peu nombreux et "raisonnables", d'expliquer une grande classe de phénomènes avec une bonne précision.

    Exemples : la théorie de la mécanique et de la gravitation de Newton, la thermodynamique, l'optique géométrique, l'optique ondulatoire, l'électromagnétisme de Maxwell, l'électrocinétique, etc.

  • Modèle : traduction d'une situation observée en des termes physiques (qui appartiennent à une théorie choisie), accompagnée d'une simplification.

    Exemple : le vol du boulet de canon ou du ballon de basket dans l'image précédente.

    Autre exemple développé dans le II.1 : on étudie la formation des images par un appareil photographique. On utilise la théorie de l'optique géométrique. Dans ce cadre, un modèle possible est d'assimiler l'objectif à une unique lentille mince (et on peut utiliser les relations de conjugaison et les méthodes de tracé de rayons associées), et de négliger la dispersion.

La théorie est donc l'ensemble d'outils mathématiques utilisés, et le modèle est la traduction des faits réels dans ce langage. On a donc schématiquement "théorie ↔ modèle ↔ faits expérimentaux". Nous proposons ici (en suivant Coince et al., BUP 900, janv. 2008) un diagramme qui permet de résumer et de présenter tout ceci de manière imagée :


Ce diagramme comporte trois éléments principaux :

  • Le monde observé : observations, expériences, système étudié. Il s'agit de l'ensemble des phénomènes, au sens littéral de phénomène : ce qui paraît. On y accède via des mesures (accompagnées d'incertitudes).

  • Le monde de la théorie : il regroupe les concepts, grandeurs physiques, postulats, lois, théorèmes, ... appartenant à la théorie en question.

  • Le modèle : pour chaque situation d'étude particulière, les deux "mondes" précédents sont reliés par un modèle particulier de la situation étudiée. Le modèle est donc, encore une fois, la traduction d’une situation réelle en des termes physiques (qui appartiennent à une théorie choisie), accompagnée d’une nécessaire simplification.

Dans le cas de la théorie de la mécanique et de la gravitation de Newton, une proposition de diagramme serait la suivante :




I.3 - Une collection de diagrammes des deux mondes

D'autres diagrammes peuvent être construit. Ils permettent à chaque fois d'avoir une idée du champ d'application de la théorie concernée.


Et ci-dessous une proposition de schéma donnant une vision d'ensemble des théories les plus "importantes" de l'édifice que sont les sciences physiques. Nous pourrions construire un diagramme des deux mondes pour chacune !





II - Ce que permettent ces considérations




II.1 - De schématiser l'aller-retour entre les deux mondes lors de la résolution d'un problème de physique

Le programme de physique-chimie du secondaire et des classes préparatoires préconise de décomposer une résolution de problème en quatre étapes clés : s'approprier le problème, l'analyser, réaliser les calculs, puis valider les résultats. Nous abrégeons ces quatre étapes par app, ana, réa et val dans la suite. Ceci donne lieu par exemple à des grilles d'évaluation en interrogations orales (comme ici), et est largement utilisé avec plus ou moins de succès dans les manuels.

Nous pouvons mieux comprendre et décrire tout ceci schématiquement à l'aide du diagramme :

  • 1 - Modélisation : On part d'une situation concrète, réelle. Il faut traduire cette situation dans le langage mathématique de la physique : schématiser, identifier les grandeurs pertinentes et leur associer un symbole, simplifier via des hypothèses pertinentes. En un mot, il faut modéliser la situation réelle. Dans les termes du programme de physique, il s'agit de l'étape "s'approprier".

  • 2 - Résolution : Après la modélisation, le problème devient mathématique : il faut trouver les liens entre les différentes grandeurs physiques donnés par les théorèmes, relations ou principes de la théorie (étape "analyser" du programme). Une fois ces liens écrits, il faut en général un certain nombre d'étapes calculatoires (résolution de système, d'équation différentielle...) pour arriver à exprimer les quantités recherchées, et ceci se termine par une ou des applications numériques (étape "réaliser" du programme).

  • 3 - Validation : Enfin, il faut comparer avec la réalité les résultats obtenus suite à la modélisation et aux manipulations théoriques. Dans les programmes, il s'agit de l'étape "valider". Selon les données expérimentales, on peut voir si les ordres de grandeur sont raisonnables, voir si les expressions obtenues varient dans le bon sens lorsque l'on modifie un paramètre, ou vérifier précisément l'accord ou le désaccord si l'on dispose de mesures associées à une incertitude. S'il n'y a pas accord, il faut remettre en cause la modélisation (y a-t-il trop d'hypothèses ?), la théorie (y a-t-il des effets non décrits par cette théorie ?) ou bien les manipulations effectuées (y a-t-il une faute de calcul ?).


Illustrons ceci sur un exemple. On étudie un appareil photographique, muni d'un objectif de focale 50mm. Pour faire la mise au point sur un objet, il est nécessaire de changer la distance entre l'objectif et la pellicule (en tournant la bague de mise au point). On peut se demander sur quelle plage il faut faire varier cette distance si on veut pouvoir faire la mise au point sur des objets au plus loin à l'infini, et au plus proche à 50cm de l'appareil. Reprenons les étapes :

  • 1 - Modélisation : On choisit la théorie de l'optique géométrique. Le système étudié est complexe, il faut le simplifier. Le plus économe ici est de modéliser l'objectif par une lentille convergente mince de focale $f'=50\,\text{mm}$, située à une distance $d$ de la pellicule. L'objet dont on veut faire l'image est sur l'axe optique de la lentille, à une distance $D$ de celle-ci.


  • 2 - Résolution : On est alors passé dans le monde de la théorie. Quelles sont les relations fournies par la théorie de l'optique géométrique ? On a la relation de conjugaison, $\dfrac{1}{D}+\dfrac{1}{d} = \dfrac{1}{f'}$. Ici cela suffit, c'est la fin de l'étape d'analyse. On passe ensuite aux calculs, on isole $d$ dans la relation précédente : $d = \dfrac{f'D}{D-f'}$. Pour $D$ infini cela donne $d = f' = 5.0\,\mathrm{cm}$, pour $d = D_\text{min}=50\,\mathrm{cm}$ on obtient $d = 5.6\,\mathrm{cm}$. On en déduit que la course autorisée pour la pellicule doit être de $0.6\,\mathrm{cm}$.

  • 3 - Validation : On redescend ensuite dans le monde réel : il faut voir avec le vrai appareil s'il faut effectivement bouger la pellicule de $0.6\,\mathrm{cm}$ pour passer d'une mise au point à l'infini à une mise au point à $50\,\mathrm{cm}$. Si ce n'est pas le cas, c'est probablement parce que notre modèle est trop simple : un objectif d'appareil photographique ne peut pas toujours se décrire par une seule lentille mince (c'est plutôt un système optique épais, qui peut être décrit par l'optique géométrique mais avec un modèle un peu moins simple).

Cette démarche est tout à fait générale en sciences expérimentales : elle ne concerne pas uniquement l'étudiant qui résout un problème de physique ou qui vérifie une loi via des expériences en séance de TP, mais tout aussi bien le chercheur qui tente de comprendre ou de prédire le comportement d'un système complexe.

Prenons donc un exemple du côté de la recherche sur le climat. Le système observé est la planète Terre, ou plutôt son atmosphère, ses océans et sa surface. C'est un système bien compliqué, et le physicien doit le retranscrire dans le langage de la physique. Quelles théories utiliser ? La mécanique des fluides pour décrire l'écoulement de l'air et de l'eau, la thermodynamique pour décrire les changements d'état et les échanges thermiques, la chimie pour connaître le devenir des gaz dans l'atmosphère. Quels éléments retenir dans le modèle ? La circulation des océans et de l'atmosphère, la rotation de la Terre, la formation des nuages, l'éclairement solaire, l'albédo de surface... Une fois traduit en équations, le système sera en général complexe et devra être résolu numériquement. La promenade dans le monde de la théorie peut donc être particulièrement longue et ardue en recherche. Il n'en reste pas moins qu'à la fin, elle aboutit à des prédictions chiffrées qu'il faut comparer aux observations pour pouvoir valider l'ensemble de la démarche.


Nous pourrions multiplier les exemples à l'infini car cette façon d'opérer est générique en sciences. Il s'agit là de la "démarche scientifique", qui procède par allers-retours entre observations et théorie pour construire une description abstraite efficace du phénomène étudié.




II.2 - De mieux comprendre l'articulation entre physique fondamentale et physique appliquée

La partie précédente décrit principalement l'acte de construction d'un modèle qui utilise les outils d'une théorie bien établie. Ainsi le climatologue utilise les théories de la mécanique des fluides ou de la thermodynamique, mais ne va ni les remettre en cause ni les perfectionner. Cependant, au cours de l'histoire des sciences et encore actuellement, la théorie elle-même n'est pas toujours définitivement construite : il faut alors tenter de la construire pour qu'elle décrive (via un modèle également à construire) les phénomènes nouveaux observés.

On est ainsi amené à faire la distinction entre physique fondamentale et physique appliquée :

  • C'est la physique fondamentale qui s'occupe de construire, perfectionner et tester les théories.

    Ainsi, un chercheur en physique des particules s'attache à construire une théorie plus complète qui permette de répondre à des questions non encore élucidées (par exemple qu'est ce qui compose la matière noire dans l'Univers ? Qu'est-ce qui explique la masse des neutrinos ? Pourquoi trois familles de particules ? ...). Un chercheur en théorie des cordes essaie d'esquisser une théorie qui permette entre autres choses de décrire de façon unifiée la mécanique quantique et la gravitation. Tout ceci implique évidemment à un moment ou un autre de faire des expériences ou des observations afin de tester ces nouvelles théories. Le recours à l'étape de modélisation est alors essentiel.

    Si l'on regarde dans le passé, on se rend compte que les grands noms de l'histoire de la physique sont des physiciens ayant contribué à la construction de théories : Maxwell écrivant ses équations pose les bases de la théorie de l'électromagnétisme ; Newton montrant qu'une force de gravitation en \(1/r^2\) permet d'expliquer le mouvement elliptique des planètes assoit la théorie newtonienne de la gravitation ; Carnot, Joule, Clapeyron et d'autres posent les bases de la théorie thermodynamique ; Einstein étudiant théoriquement le mouvement brownien et Perrin confirmant ces résultats prouvent l'hypothèse atomique ; Planck, Heinsenberg, Dirac, Pauli... construisent la théorie de la mécanique quantique ; etc.

  • La physique appliquée utilise des théories établies.

    Un certain nombre de domaines de la physique ne cherchent pas à modifier les théories existantes ou à en créer de nouvelles : ils se servent plutôt des théories établies afin de comprendre des phénomènes naturels ou des résultats d'expériences. Par exemple un astrophysicien qui cherche à comprendre la dynamique de la magnétosphère solaire et son interaction avec celle de la Terre ne tente aucunement de modifier le corpus théorique, mais il utilise les théories de l'electromagnétisme, de la dynamique newtonienne ou d'Einstein, de la mécanique des fluides magnétisés ou de la cinétique, afin de modéliser la situation réelle, d'en comprendre les origines, et de pouvoir en prédire les conséquences. Il travaille donc surtout au niveau du modèle.

    Si l'on regarde du côté de l'histoire, les physiciens contribuant à ce que l'on appelle ici la physique appliquée sont moins connus. Ils ont pourtant souvent joué des rôles majeurs et beaucoup sont titulaires du prix Nobel. Citons Appleton (prix Nobel 1947) qui à contribué à la découverte et à l'étude de l'ionosphère terrestre, Boyle et Smith (prix Nobel 2009) qui ont contribué à l'invention du capteur CCD, Hewish (prix Nobel 1974) qui a participé à la découverte des pulsars, etc.

Comment ceci se retrouve-t-il dans l'enseignement des sciences physiques ?

Un cours de physique-chimie, que ce soit du lycée à bac+3, s'attache en général à présenter la construction d'une théorie lors du cours proprement dit. On part des principes et des concepts de base, on démontre ou on présente les théorèmes et résultats principaux de la théorie, etc. Le diagramme des deux mondes peut alors donner un aperçu global des concepts de la théorie et des phénomènes qu'ils permettent d'expliquer, et aider ainsi l'étudiant à mieux situer les choses. (Comme dans ces documents donnés en CPGE : ici page 3, ici page 4, ou ici page 2, et voir aussi I.3.)

D'autre part, dans les exercices ou TD, il est principalement demandé aux élèves de faire de la physique appliquée (telle que décrite par les étapes de résolution du II.1). Sauf bien sur lors de... questions de cours.


Enfin, soulignons qu'il n'est jamais bon de vouloir trop catégoriser. La frontière entre ce que l'on a appelé ici physique fondamentale et physique appliquée est souvent floue, et l'une et l'autre se font souvent ensemble. Ainsi le chercheur en "physique fondamentale" devra bien modéliser et connaître le système utilisé pour intuiter ou confirmer sa théorie, et le chercheur en "physique appliquée" apporte souvent des contributions nouvelles au corpus théorique lors de ses investigations. La revue Reflets de la physique de la SFP ou le Journal du CNRS illustrent régulièrement de telles interactions.

Il n'en reste pas moins que cette distinction peut être pertinente pour mieux saisir la recherche en sciences physiques.




II.3 - De comprendre la portée finie des théories

Lorsque nous avons donné la définition d'une théorie, nous avons indiqué que celle-ci possède toujours un domaine de validité restreint. Précisons ce que cela signifie en explorant deux "propriétés" des théories : le fait que l'une peut se déduire de l'autre, et le domaine de validité fini.

Déduction :

Une théorie peut être contenue dans une autre, dans le sens où la théorie "supérieure" permet de démontrer tous les résultats de la théorie "inférieure". Par exemple, la théorie de la mécanique et de la gravitation de Newton se déduit de la théorie de la relativité générale. Il y a donc une certaine hiérarchie entre certaines théories (mais pas toutes, certaines étudient des phénomènes distincts, l'électromagnétisme et la gravitation par exemple). Le diagramme de la partie I.3 propose justement un aperçu de cette hiérarchie.

Notons tout de même que la question du passage par déduction d'un champ à un autre est complexe et intéressante. Dire par exemple que la chimie se déduit de la mécanique quantique est quelque peu provocateur... Car même si en principe les équations de la mécanique quantique permettent d'expliquer les édifices atomiques et moléculaires et leurs transformations et interactions, cette explication est parfois trop complexe en pratique. La chimie développe ainsi ces propres concepts, qui sont indépendants de ceux de la mécanique quantique. Et il en va ainsi de chaque théorie moins fondamentale, qui conçoit ses propres concepts et méthodes. La chimie se déduit-t-elle réellement de la mécanique quantique ? La biologie se déduit-elle de la physique et de la chimie ? Le fonctionnement de l'esprit se déduit-il des lois de la physique ? Ces interrogations sont légitimes et complexes. Elles obligent à parler de réductionnisme, de la notion de propriété émergente, et pourraient faire l'objet d'un article à part... (voir cet article classique (More is different, de P. W. Anderson), l'article Émergence de wikipédia, ou xkcd).


Domaine de validité :

Toute théorie a un domaine de validité restreint, au sein duquel ses prédictions sont vérifiées par l'expérience avec une certaine précision. La théorie est alors pertinente dans son domaine de validité. Par exemple la théorie de la mécanique de Newton permet une description très précise des phénomènes mécaniques, à condition d'être utilisée dans son domaine de validité : pour des vitesses petites devant celle de la lumière et dans des champs de gravitation faibles.

Il est souvent difficile de prévoir les limites de validité d'une théorie et de savoir quantifier l'erreur commise sans connaître la théorie "supérieure", plus générale. Par exemple il faut utiliser les résultats de la relativité restreinte pour pouvoir prédire et chiffrer l'erreur commise lors de l'utilisation de la mécanique de Newton.

Max Planck disait que l'on a toujours assigné aux sciences "comme fin supérieure de grouper en une synthèse systématique la prodigieuse diversité des phénomènes physiques et même, si possible, de la condenser en une seule formule". Mais on ne dispose toujours pas d'une théorie du tout qui serait valable sans limites, et toutes nos théories ont des domaines de validité finis. La relativité générale n'est plus valable aux échelles microscopiques où la théorie quantique intervient ; la théorie quantique est mal comprise en champ de gravité fort ; l'électromagnétisme de Maxwell ne rend pas compte des effets dus à la nature corpusculaire de la lumière ; etc. Certains physiciens doutent d'ailleurs qu'il soit possible d'obtenir une théorie universelle et avancent qu'il n'y a aucune raison fondamentale pour que la nature soit descriptible mathématiquement à toutes les échelles.


Comment faire apparaître ceci dans le diagramme des deux mondes ?

Dans le diagramme, la bulle du "monde observé" contient les observations qui peuvent être expliquées par la théorie en question (si on utilise le modèle approprié). Il s'agit donc du domaine de validité de la théorie. Afin de souligner que ce domaine de validité possède une limite, on peut faire apparaître une autre bulle dans le domaine du monde observé, qui contient des phénomènes non expliqué par la théorie. C'est ce qui est réalisé dans les diagrammes présentés en I.3.

En particulier les trois diagrammes concernant l'optique géométrique, l'optique ondulatoire et l'électromagnétisme peuvent être mis côte à côte et fournir ainsi une belle illustration du caractère plus général d'une théorie par rapport à une autre, et du domaine de validité toujours fini.




II.4 - De comprendre la façon dont est validée une théorie

Un des objectifs de la science est de construire des théories qui permettent de comprendre une classe de plus en plus grande de phénomènes. Accepter ou refuser la validité d'une théorie n'est pas une affaire de croyance ou de mode, mais repose sur un consensus de la communauté scientifique, lui-même basé sur des critères que nous exposons dans les deux points qui suivent.

Réfutabilité :

Il suffit d'une seule expérience pour réfuter une théorie en construction.

Par exemple l'expérience de Michelson et Morley en 1887 a permis de rejeter la théorie de l'éther, parce que dans la théorie de l'éther la figure d'interférence n'aurait pas due être celle observée. Ou encore l'observation de la parallaxe des étoiles a permis de rejeter la théorie géocentrique d'une Terre immobile, parce que dans cette théorie géocentrique la parallaxe devait être nulle. L'histoire des sciences fournit d'autres exemples encore d'expériences décisives qui ont permis de réfuter des théories, et par là même permis à la science d'avancer.

La réfutabilité est une caractéristique essentielle d'une nouvelle théorie scientifique. Pour que la théorie soit considérée, il doit exister des expériences (qu'il faut mener à bien dans la suite) et qui peuvent selon leur résultat la mettre en défaut. On ajoute même qu'il faut que la théorie soit fortement réfutable, c'est-à-dire que cette mise en défaut doit complètement anéantir la théorie, sans qu'un petit ajustement puisse encore et toujours la sauver. S'il n'existe pas d'expériences permettant de tester ainsi la théorie, alors il ne s'agit pas de sciences mais de pseudo-sciences ou de théorie farfelues...

Prenons l'exemple de la théorie de la relativité générale, qui est une théorie qui permet de décrire la gravitation et la manière dont les objets ou la lumière se déplacent. Elle a passé plusieurs fois le test de la réfutabilité : elle a prédit correctement la trajectoire de la planète Mercure, qui était inexpliquée jusque là, elle prédit également que la lumière est déviée par les corps massifs, ce qui a bien été observé par Eddington lors d'une expédition en 1919 pour observer une éclipse sur le continent africain, elle prédit l'existence d'ondes gravitationnelles, qui ont enfin été observées en 2017 par les détecteurs Ligo et Virgo (soit près de 100 ans après la création de la théorie !). Elle a également passé bien d'autres tests, qui chacun aurait pu la réfuter mais ne l'a pas fait, et cet ensemble en fait une théorie largement acceptée et possédant un large domaine d'application.

Notons toutefois qu'une théorie bien établie, qui permet l'explication précise d'un grand nombre de phénomènes, ne peut plus vraiment être réfutée. Par exemple la mécanique de Newton a beau être en échec pour l'étude du mouvement de particules très rapides, elle n'en reste pas moins une théorie puissante et utile dans son domaine de validité.


Une théorie n'est jamais définitivement validée :

Ce qui précède fait bien comprendre que lorsque les résultats d'une expérience sont conformes à la prédiction de la théorie, on ne peut pas pour autant affirmer que la théorie est définitivement validée.

D'une part parce qu'il n'est jamais possible de mener toutes les expériences dans tous les domaines possibles (en terme de gamme d'énergie par exemple), et donc qu'il n'est pas possible de dire si oui ou non la théorie cesse d'être valide dans les domaines inexplorés. D'autre part parce que les mesures que l'on peut faire ont toujours une précision finie. Il y a donc toujours la possibilité pour que des mesures plus précises puissent, un jour, contredire la théorie.

Prenons deux exemples, qui représentent les tests d'une théorie les plus précis jamais réalisés à ce jour.

  • Le premier concerne encore la théorie de la relativité générale. Celle-ci postule que la masse grave (celle qui intervient dans la force de gravitation de Newton $Gm_1m_2/r^2$) et la masse inertielle (celle qui intervient dans $m\vec{a} = \sum \vec{F}$) sont égales, alors qu'il n'y a aucune raison à priori car il s'agit de deux concepts bien distincts. Il s'agit du principe d'équivalence, qui d'ailleurs est aussi postulé en mécanique newtonienne. Une conséquence est que deux objets en chute libre dans le vide subissent la même accélération, quelle que soit leur masse ou la matière dont ils sont faits. Par exemple un marteau et une plume lâchés sur la Lune (en l'absence de frottements donc) atteignent le sol en même temps. Cette prédiction de la théorie a été testée de façon de plus en plus précise depuis des décennies, et la dernière en date est l'expérience Microscope (voir lien CNRS) qui permet de dire que le principe est vérifié avec une précision de $2\times10^{-14}$ (!).

  • Le second exemple concerne la théorie de l'électrodynamique quantique, qui est la théorie décrivant l'interaction des particules chargées avec les champs électromagnétiques. Entre autres choses, cette théorie permet de donner une expression de ce que l'on appelle l'anomalie du moment magnétique de l'électron. Cette anomalie est un nombre sans dimension qui caractérise l'écart relatif à une valeur de référence. Elle peut être mesurée expérimentalement de façon très précise. Le dernier résultat est : \begin{equation*}\small a_{\text{exp}} = (1\,159\,652\,180.73\pm0.28)\cdot 10^{-12}, \end{equation*} l'incertitude étant une incertitude-type. La théorie prédit une valeur : \begin{equation*}\small a_{\text{théo}} = (1\,159\,652\,181.13\pm0.84)\cdot10^{-12}, \end{equation*} avec une incertitude car l'expression théorique fait intervenir des grandeurs obtenues via des mesures (la constante de structure fine). On voit ainsi qu'il y a, à la précision des mesures effectuées, accord entre valeur expérimentale et valeur théorique. On notera qu'il est remarquable qu'une théorie soit en accord avec l'expérience avec une précision atteignant 10 chiffres significatifs ! (les valeurs sont tirées de Bouchendira et al., 2010)

Dans les deux cas précédents, on voit bien que les prédictions théoriques sont vérifiées sans cesse plus précisément, mais que cette quête ne s'arrête jamais vraiment : peut-être va-t-il y avoir désaccord si on raffine les mesures ? D'un autre côté, un désaccord entre valeur prédite et valeur mesurée avec un écart significatif (de plusieurs écart-type) permet de dire sans aucun doute qu'il y a un problème avec la théorie ou le modèle utilisé : il y a réfutation, et il n'y a pas besoin de raffiner davantage les mesures.

Une théorie n'est ainsi jamais "validée" une fois pour toute. Elle est corroborée par un grand nombre d'expériences qui sont, pour une précision expérimentale donnée, en accord avec ses prévisions. On pourra donc affirmer que telle théorie (via tel modèle) permet de décrire telle expérience avec telle précision et s'en servir ainsi.




II.5 - De comprendre que soit le modèle soit la théorie peuvent être mis en défaut

Nous avons déjà évoqué que lorsqu'il n'y a pas accord entre prédiction théorique et mesure expérimentale, c'est qu'il s'agit d'une mise en défaut soit de la théorie (elle ne s'applique pas, on est hors de son cadre de validité), soit du modèle utilisé (trop d'hypothèses ou mauvaises hypothèses). Nous précisons ceci dans cette partie avec un exemple historique célèbre : celui des trajectoires des planètes Uranus et Mercure.

La trajectoire de la planète Uranus, planète découverte en 1781, présentait des anomalies non expliquées par la théorie de la mécanique et de la gravitation de Newton. La controverse entre physiciens fut importante, certains y voyant une réfutation de la théorie de Newton et tentant de proposer des corrections à la loi de la gravitation, d'autres y voyant un défaut du modèle du système solaire : peut-être manquait-il une planète dans la description d'alors du système, planète inconnue qui pourrait perturber la trajectoire d'Uranus. On voit bien ici que lorsqu'une observation est mal expliquée, cela peut provenir soit d'une incapacité de la théorie, soit d'un manquement du modèle. En 1846, l'astronome Le Verrier calcula, en utilisant la théorie de Newton, la position de l'éventuelle planète perturbatrice. Lorsque les astronomes observèrent le ciel là où l'avait indiqué Le Verrier, ils firent effectivement la découverte d'une nouvelle planète, qui fut baptisée Neptune. C'était donc bien le modèle qui était en tort, et la théorie newtonienne en sortit triomphante.

L'histoire recommença avec la planète Mercure. Certaines caractéristiques de sa trajectoire n'étaient pas non plus correctement prédites par la théorie newtonienne. Le Verrier tenta à nouveau d'expliquer ceci par l'existence d'une planète non découverte, que l'on baptiserait Vulcain. Les caractéristiques orbitales de cette planète furent calculées, mais elle ne fut jamais observée là où elle devait être... Il se trouve en fait que les anomalies dans la trajectoire de Mercure sont dues au fait que, étant proche du Soleil, cette planète subit un champ de gravitation assez fort pour que la théorie newtonienne soit mise en défaut. Sa trajectoire sera donc correctement prédite 50 ans plus tard par la théorie de la gravitation d'Einstein (la relativité générale). Cette fois ce n'était donc pas la modèle qui était en tort, mais bien la théorie qui n'était plus valide pour décrire les phénomènes observés.

Les programmes scolaires de physique-chimie permettent aussi de faire ce genre de distinction modèle/théorie. Par exemple en CPGE on peut comparer différents modèles de l'atmosphère (isotherme ou non) et les confronter aux mesures (c'est donc une comparaison de modèles, qui utilisent la même théorie, voir par exemple ce DM et la figure associée). On peut également mettre en évidence le fait que l'optique géométrique n'explique pas les phénomènes de diffraction ou d'interférence, alors qu'ils seront décrits correctement dans le cours d'optique ondulatoire (comparaison de théories).




III - Pour aller plus loin : ce que ces considérations ne permettent pas

Le diagramme des deux mondes ne permet pas tout... Nous illustrons dans cette partie III deux facettes importantes, mais qui ne sont pas abordée par les outils présentés dans cet article.




III.1 - De décrire la façon dont la science se construit

Le diagramme des deux mondes permet de schématiser les relations entre une théorie et la partie du monde observé qu'elle permet d'expliquer, ceci une fois que la théorie est achevée et bien établie. Il ne permet en revanche pas de décrire comment la théorie s'est construite au fur et à mesure des travaux des scientifiques. Et l'objectif du présent article n'est pas d'entrer dans cet aspect de l'histoire des sciences, qui est un sujet riche et complexe dans lequel la régularité et les règles ne sont pas de mise : les travaux scientifiques avancent tantôt progressivement, tantôt par révolutions scientifiques et changement de paradigme ; ils sont parfois motivés par la curiosité, parfois aussi par les applications technologiques, industrielles ou par la guerre ; des avancées majeures peuvent être le fruit du hasard, d'autres le fruits d'un travail méticuleux ; les erreurs sont toujours possibles... et les "méthodes" des scientifiques ne sont ni déductives ni inductives, mais toujours un peu des deux. On pourra lire Chalmer (voir références) pour une introduction.

Mais si la construction d'une théorie ne présente pas de motif systématique, c'est en revanche bien le cas du fonctionnement d'une théorie établie, et c'est ce que vise l'utilisation du diagramme présenté ici. On peut toutefois, si on souhaite introduire des éléments historiques, proposer une frise chronologique qui l'accompagne et qui montre les tâtonnements du progrès scientifique. C'est ce qui est fait sur ce site.




III.2 - De philosopher

Il est possible de discuter davantage de la division entre monde de la théorie et monde observé, et du statut que l'on donne à chacun de ces deux domaines.

Ainsi Kermen (2018) distingue "réalité idéalisée" et "réalité perçue" au sein du monde observé ; Morge et Doly (2013) parlent de "référent empirique" à la place du monde observé afin selon eux de ne pas se positionner dans le débat réaliste/antiréaliste... On peut se poser diverses questions dans le cadre de ce débat, par exemple où précisément placer des entités comme "un électron" : faut-il distinguer l'électron comme concept inventé par les scientifiques (monde de la théorie) et l'électron comme manifestation d'une entité existant réellement (monde observé) ? Faut-il distinguer réalité observée et réalité-en-soi, inatteignable complètement ? La science tend-elle à décrire de plus en plus près la réalité (approche réaliste, suivie par exemple par Einstein avec son image de la montre), où est-elle un édifice qui rend compte des observations seulement, sans garantie d'un accord de fond (ontologique) entre concepts physiques inventés par l'homme et réalité ?

La discussion devient alors philosophique ou métaphysique. Nous ne disons pas qu'elle devient inintéressante (bien au contraire), mais nous affirmons qu'elle n'est pas utile aux propos développés ici, et que le diagramme des deux mondes peut-être utilisé sans parti-pris métaphysique sur les grandes questions philosophiques. Tel que présenté ici, il est un outil pédagogique utile et assez puissant pour bien saisir la façon dont fonctionnent les sciences physiques, mais pour rester efficace il ne faut pas trop chercher à le raffiner.

Un autre exemple de tergiversation qui peut apparaître lors de la construction d'un diagramme est la question de l'emploi du vocabulaire de la théorie pour décrire les observations. Si on dit que "on observe que la force de frottement augmente avec la vitesse", on utilise les concepts de force et de vitesse, qui sont des concepts du domaine de la théorie. On est pourtant tenté de placer cette phrase dans le monde observé. Il semble que si l'on cherche à être trop rigoureux sur ce point et que l'on s'interdit toute utilisation des concepts théoriques pour décrire les observations, alors il faut les décrire avec un vocabulaire pré-scientifique... et la tâche devient particulièrement complexe et peu efficace. On s'éloigne également de la façon dont fonctionne la science, puisque les scientifiques utilisent pleinement le vocabulaire de la théorie pour "lire" les observations ou décrire et planifier les expériences : comme le soulignent Einstein, Heisenberg et d'autres, le chercheur observe le monde à travers le prisme de la théorie. Il nous semble donc qu'ici aussi, il ne faut pas être trop rigoureux pour que le diagramme des deux mondes reste un outil efficace.


Une version plus complète,
et prenant un parti pris philosophique.



Conclusion

Les sciences telles que nous les connaissons aujourd'hui sont une pratique extrêmement jeune : depuis Galilée, Newton ou Lavoisier, la physique et la chimie modernes ont environ 400 ans. Alors même que l'homme moderne arpente la Terre depuis 100 000 ans ! Les sciences donnent à l'homme un pouvoir immense et unique : celui, à travers des réalisations techniques, de contrôler la Nature. Il est facile de constater que l'avènement des sciences coïncide avec une influence grandissante de l'homme sur toute la surface du globe. La révolution industrielle, considérée comme le début de "l'anthropocène", est une fille de la mécanique et de la thermodynamique, et le rythme n'a fait que s'accélérer depuis. Cette omniprésence de la science rend essentielle une compréhension de la façon dont elle fonctionne, de ce qu'elle prétend faire et ne prétend pas faire. Nous avons ainsi vu qu'elle n'est pas la science des grecs, qui voulaient tout saisir de la Nature. Qu'elle n'aspire pas à la vérité, ou alors en un sens à préciser, en un sens qui n'est pas attaquable : celui de vérifier ses prédictions au sein des cadres qu'elle définit elle-même. Et ses réalisations, autant technologiques que prédictives, sont bien réelles.

La description simplifiée présentée ici, basée essentiellement sur la définition des concepts de théorie, modèle et monde observé et de leur articulation, schématisée via le diagramme des deux mondes, devrait permettre aux étudiants en sciences physiques :

  • D'être plus à l'aise dans la compréhension du cours, car ceci donne une vision d'ensemble des théories étudiées en listant leurs lois et concepts principaux et en balayant leur domaine d'application.

  • De mieux comprendre la démarche de résolution de problème dans les exercices (en illustrant efficacement le cheminement s'approprier-analyser-réaliser-valider), ou la démarche expérimentale en TP de "vérification" d'une loi.

  • De bien distinguer la discipline sciences physiques des mathématiques, ces derniers ne dialoguant pas entre expérience et modèle/théorie. Ceci est important pour les étudiants qui souvent reprochent leur "manque de rigueur" aux sciences physiques, alors que ce manque de rigueur n'en est pas un et est, via l'acte de modélisation, précisément au cœur du fonctionnement de notre matière.

  • De même, de distinguer sciences physiques et sciences de l'ingénieur, ces dernières ne s'attardant pas à construire l'édifice théorique.

  • De comprendre la façon dont est validée une théorie ou un modèle dans le cadre de la science, ce qui est particulièrement important à l'heure où rumeurs et pseudo-science alimentent les réseaux.

Si le dernier point concerne bien les étudiants en cours d'apprentissage, il semble clair qu'il leur sera aussi utile au delà de leurs études...

Il est ainsi regrettable qu'un enseignement explicite de ces bases d'épistémologie ne soit actuellement pas voulu par l'institution. Les choses changeront peut-être bientôt, puisque dans la résolution sur "les sciences et le progrès dans la République", adoptée par l'Assemblée nationale le 21 février 2017, on peut lire que "[l'Assemblée nationale] invite en particulier le Gouvernement à étoffer la partie du programme de philosophie consacrée aux sciences et à l’épistémologie au lycée et dans l’enseignement supérieur." Le diagramme des deux mondes sera-t-il dans le prochain programme de physique-chimie ?




Références

  • Coince D. et al., janv. 2008, "Une introduction à la nature et au fonctionnement de la physique pour des élèves de seconde", BUP 990.

    → Présente le diagramme des deux mondes, des résultats d'enquêtes auprès de professeurs, et un exemple de mise en œuvre en classe de seconde.

  • Serres M. et Farouki N., 1997, Le Trésor, dictionnaire des Sciences.

    → Voir les définitions de modèle et de théorie.

  • Morge L. et Doly A.-M., 2013, "L'enseignement de la notion de modèle, quels modèles pour faire comprendre la distinction entre modèle et réalité ?", Spirale, 52.

    → Une réflexion plus technique et philosophique.

  • Kermen I., janv. 2018 "Comment le caractère dual, macroscopique-microscopique, de la chimie s’incarne-t-il dans son enseignement ? Réflexions autour des modèles et du langage", BUP 1000.

    → Une réflexion plus spécifique à la chimie.

  • Brenasin J., fév. 2016, "Une modélisation de la démarche expérimentale pour surmonter les obstacles à l’apprentissage de la physique", BUP 981.

    Brenasin J., mars 2016, "Utilisation du « modèle de la démarche expérimentale en phase et en structure » dans l’enseignement de la physique", BUP 982.

    → Réflexions sur la démarche expérimentale, le rôle de la théorie et du modèle, et la validation de la théorie par l'expérience.

  • Sensevy G. et Santini J., 2016, "Modélisation : une approche épistémologique", revue ASTER 43 Modélisation et simulation.

    → Discute de la définition et nature de ce qu'est un modèle, et de façon plus large sur l'articulation entre modèle et théorie.

  • Chalmer, A. F., 1990, Qu'est-ce que la science ?

    → Une présentation des grands courants de l'épistémologie et des grandes thèses (Popper, Kuhn, Lakatos), et de la façon dont la science se construit.

  • Einstein A. et Infeld L., 1936, L'Évolution des idées en physique, éd. Flammarion Champs Sciences.

    → Réflexion très intéressante sur la façon dont les sciences se construisent et progressent. Écrit de façon très accessible.

    On peut prolonger la lecture par son ouvrage Conceptions scientifiques. D'autres physiciens offrent des réflexions épistémologiques ou philosophiques intéressantes, comme par exemple Heinsenberg (La partie et le tout).

  • Anderson P. W., 1972, "More Is Different", Science, Vol.177, Num.4047

    → Article parlant de la hiérarchie des théories et de la notion d'émergence.



  Site version 02/2018.