Physique Chimie
  | Accueil |         
  PTSI - Lycée
Raoul Follereau,
Belfort
CPGE PTSI :  |  documents cours |  Info |  TP, DS, maths... |  colles | 
Autres :           |  liens |  archives PTSI et TSI2 |  PCSI | 
Autres (hors CPGE) :  |  histoire |  divers |  actualités | 

  Autour du fonctionnement des sciences physiques/

Rubriques :

Une introduction au fonctionnement des sciences physiques | ← vous êtes ici

Exemples de diagrammes des deux mondes |

Histoire des sciences : une chronologie (page en construction) |


Aux lecteurs du BUP : Les parties I, II.1 et la conclusion de cette page sont parues, plus ou moins sous la même forme, dans le numéro 1007 (novembre 2018) du Bulletin de l'Union des Physiciens (BUP). Ceux qui ont lu la version papier pourront être intéressés par les autres parties (notamment II.2 à II.5), et par la page sur les exemples de diagrammes des deux mondes (second lien ci-dessus).




L'éternel mystère du monde est sa compréhensibilité.
A. Einstein, Conceptions scientifiques



Résumé

L'objectif de cette page est de parler de la façon dont fonctionnent les sciences physiques, c'est-à-dire de décortiquer ce qu'il se passe et ce qui est en jeu lorsque l'on pratique les sciences physiques, que l'on soit un étudiant s'essayant à un problème de TD, un chercheur voulant réformer le modèle standard des particules, ou un citoyen décryptant une actualité scientifique.

Il s'agit donc de faire de l'épistémologie.




Introduction


Nous verrons que le physicien cherche à comprendre les phénomènes - pris ici au sens étymologique de "ce qui paraît" - et doit pour cela les traduire dans le langage de la théorie : il effectue ceci via un modèle. Les parties I.1 et I.2 s'attachent à définir ces termes (théorie et modèle, phénomènes et situation réelle) et leurs articulations, notamment en présentant un outil synthétique appelé le diagramme des deux mondes. La partie I.3 présente des exemples de tels diagrammes pour certaines théories au programme de L1, L2 ou CPGE : optique, électromagnétisme, mécanique, thermodynamique, etc. Il peuvent être adapté à l'enseignement secondaire, et des exemples utilisés en classe de seconde sont montrés.

Puis la partie II exploite les concepts de la partie I afin de mieux comprendre divers aspects des sciences physiques : les étapes d'une démarche de modélisation dans le II.1, la distinction entre physique appliquée et fondamentale dans le II.2, le caractère fini du domaine de validité d'une théorie dans le II.3, la façon dont est "validée" une théorie dans le II.4, et la mise en défaut soit du modèle soit de la théorie dans le II.5. La partie III aborde la question de la science en construction et quelques interrogations philosophiques.

Enfin, ces pages ne disent rien de vraiment nouveau : la littérature sur le sujet abonde, et philosophes des sciences comme physiciens discutent depuis longtemps de ces notions (souvent de façon plus compliquée !). Une courte bibliographie est présente en fin d'article.




I - Des bases d'épistémologie




I.1 - Un exemple introductif

Nous commençons par étudier un exemple simple qui va permettre d'introduire les notions importantes. Cet exemple consiste en l'étude de la trajectoire d'un ballon.

Nous disposons donc d'un lanceur de ballons qui permet de contrôler l'angle initial et la vitesse initiale du ballon, et nous pouvons par exemple mesurer la distance entre le point de départ et le point d'impact lors de la retombée au sol. La question que se pose le physicien est alors : "comment prédire la distance d'impact ? Quelles sont les grandeurs qui vont influer sur cette distance et selon quelle dépendance ?"

  • Il faut avant tout choisir une théorie avec laquelle travailler. On peut définir un peu formellement ce qu'est une théorie physique, mais donnons plutôt des exemples : la théorie de la mécanique et de la gravitation de Newton, la théorie de la relativité restreinte, la théorie de la relativité générale, la thermodynamique, l'optique géométrique, l'optique ondulatoire, l'électromagnétisme de Maxwell, la théorie cinétique des gaz, la physique statistique, la mécanique quantique... sont autant d'exemples de théories.

    Ici, il semble raisonnable d'essayer la théorie de la mécanique et de la gravitation de Newton.

    Mais remarquons que le choix d'une théorie implique déjà des hypothèses issues de la connaissance du champ de validité de la théorie : dans le cas présent, que les vitesses des ballons sont petites devant celle de la lumière, sinon il faudrait utiliser la théorie de la relativité restreinte (qui permet justement de décrire le mouvement d'objets relativistes, c'est-à-dire dont la vitesse s'approche de $c_\text{lumière}=300\,000\,\mathrm{km/s}$).

  • Il faut ensuite élaborer un modèle de la situation étudiée, c'est-à-dire qu'il faut traduire dans le langage de la théorie les faits observés. Schématiquement, cela donne la figure suivante :

    Figure : Situation réelle à gauche, et traduction dans le langage de la physique à droite. Il s'agit donc de faire un modèle.

    Le modèle permet donc de passer de la situation réelle (et compliquée) à un problème posé dans le langage de la physique (et "simple"). Il est accompagné d'hypothèses simplificatrices.

    Par exemple ici on néglige la rotation du ballon sur lui-même, on suppose le référentiel terrestre galiléen (donc on néglige les effets de la rotation de la Terre et en particulier la force de Coriolis), on prend une loi simple pour la force $\vec{f}_\text{air}$ qui décrit les frottements, etc.

  • Une fois la modélisation effectuée, le problème est devenu mathématique. Il faut alors le résoudre en utilisant les concepts et outils mis à disposition par la théorie. Ici, on utilise un des postulats de base de la théorie de Newton, le principe fondamental de la dynamique : \begin{equation*} \begin{split} m\dfrac{\text{d}\vec{v}}{\text{d}t} &= \sum \overrightarrow{\text{force}} \\ &= m\vec{g} + \vec{f}_\text{air} \end{split} \end{equation*} avec $m$ la masse du ballon, $\vec{v}$ sa vitesse, $\vec{g}$ le champ de pesanteur, et $\vec{f}_\text{air}$ la force de frottement de l'air. Le reste est une promenade mathématique dans le monde de la théorie : on résout cette équation en prenant en compte les conditions initiales (la vitesse $v_0$ et l'angle $\theta_0$ entre $\vec{v}_0$ et l'horizontale), on en déduit l'expression de la distance d'impact en fonction de $v_0$ et de $\theta_0$ , et des autres paramètres intervenants comme la masse $m$ ou la valeur de $g$ : \begin{equation*} d_\text{théo} = f(v_0,\theta_0,...) = \text{...} \end{equation*} Il peut être plus ou moins simple d'aboutir à cette expression, et il faut éventuellement utiliser des outils numériques de résolution d'équations. Mais cela ne change rien sur le principe.

  • La dernière étape est capitale : il s'agit de confronter les prédictions théoriques ($d=d_\text{théo}$) établies précédemment aux résultats de l'expérience ($d_\text{exp}$ mesuré sur le terrain).

    Les mesures expérimentales ne sont pas infiniment précises, et sont donc accompagnées d'une incertitude : on écrit donc la mesure sous la forme $d_\text{exp} \pm \Delta d_\text{exp}$, par exemple on a mesuré $(20.5 \pm 0.8)\,\mathrm{m}$. De même du côté de la théorie, certaines constantes comme la masse $m$, l'angle initial $\theta_0$ ou la vitesse initiale $v_0$ ne sont pas connues exactement et font que le résultat théorique (qui dépend de ces constantes) est aussi accompagné d'une incertitude : on écrit $d_\text{théo} \pm \Delta d_\text{théo}$, par exemple on calcule $(21.2 \pm 0.5)\,\mathrm{m}$.

    Ainsi, si $d_\text{théo} \pm \Delta d_\text{théo}$ et $d_\text{exp} \pm \Delta d_\text{exp}$ ont un intervalle de valeurs communes, alors on dira qu'il y a accord entre théorie et expérience, ou encore que cette série d'expériences est en accord avec les prédictions théoriques, ou encore que le couple modèle-théorie choisi permet de correctement prédire les résultats des expériences en question. Le modèle peut être conservé car la situation décrite fait partie de son champ de validité.

    Dans le cas contraire, il y a désaccord. Si on suppose que l'expérimentateur et le théoricien n'ont commis aucune erreur de mesure ou de calcul et que les incertitudes ont été estimées correctement, il reste alors deux origines possibles à ce désaccord :

    • C'est la théorie qui est mise en défaut. Ici il est possible que les ballons aillent trop vite et qu'il faille utiliser la théorie de la relativité restreinte.

    • C'est le modèle qui est mis en défaut : nous avons effectué des hypothèses trop simples (il ne fallait pas négliger la force de Coriolis), ou erronées (la force de frottement n'est pas en $-\alpha v\vec{v}$), ou bien nous avons oublié de prendre en compte certains paramètres (il y avait du vent...). Les choix de modélisation s'avèrent dans ce cas inadaptés.

    Il faut alors revoir la théorie ou le modèle, établir une nouvelle expression $d = f(v_0,\theta_0,...)$, tester son accord avec l'expérience, et continuer ainsi les aller-retour entre modélisation et mesures jusqu'à aboutir à un accord satisfaisant.




I.2 - Bilan, considérations plus générales et diagramme des deux mondes

L'exemple précédent permet maintenant de tenir des propos plus généraux.

Nous pouvons d'abord proposer une définition de ce que sont une théorie et un modèle :

  • Théorie : ensemble de concepts inventés par l'homme, reliés entre eux par des lois, certaines étant postulées, d'autres déduites de celles postulées.

    Une théorie possède toujours un domaine de validité restreint. Une "bonne" théorie permet, avec des postulats peu nombreux et "raisonnables", d'expliquer une grande classe de phénomènes avec une bonne précision.

    Quelques exemples : la théorie de la mécanique et de la gravitation de Newton, la thermodynamique, l'optique géométrique, l'optique ondulatoire, l'électromagnétisme de Maxwell, l'électrocinétique, la mécanique quantique, l'hydrodynamique, la relativité restreinte, la relativité générale, etc.

  • Modèle : traduction d'une situation observée en des termes physiques (qui appartiennent à une théorie choisie), accompagnée d'une simplification.

    Exemple : le vol du ballon de basket dans l'image précédente.

    Autre exemple développé dans le II.1 : on étudie la formation des images par un appareil photographique. On utilise la théorie de l'optique géométrique (donc pas de diffraction). Dans ce cadre, un modèle possible est d'assimiler l'objectif à une unique lentille mince (et on peut utiliser les relations de conjugaison et les méthodes de tracé de rayons associées), et de négliger la dispersion.

La théorie contient donc l'ensemble des concepts et outils mathématiques utilisés, et le modèle est la traduction des faits observés dans ce langage. On a donc schématiquement "théorie ↔ modèle ↔ faits expérimentaux". Nous suivons ici directement l'idée de Coince et al. (BUP 900, janv. 2008) en introduisant un diagramme qui permet de résumer et de présenter tout ceci de manière imagée :


Ce diagramme comporte trois éléments principaux :

  • Le monde observé : observations, expériences, système étudié. Il s'agit de l'ensemble des évènements. On y accède via des mesures (accompagnées d'erreurs estimées par des incertitudes).

  • Le monde de la théorie : il regroupe les concepts, grandeurs physiques, postulats, lois, théorèmes, principes appartenant à la théorie en question.

  • Le modèle : pour chaque situation d'étude particulière, les deux "mondes" précédents sont reliés par un modèle particulier de la situation étudiée. Le modèle est donc, encore une fois, la traduction d’une situation réelle en des termes physiques (qui appartiennent à une théorie choisie), accompagnée d’une nécessaire simplification.

Dans le cas de la théorie de la mécanique et de la gravitation de Newton, une proposition de diagramme serait la suivante :




I.3 - Une collection de diagrammes des deux mondes

D'autres diagrammes peuvent être construit. Ils permettent à chaque fois d'avoir une idée du champ d'application de la théorie concernée.

On pourra donc consulter la page suivante pour plusieurs exemples de diagrammes.




II - Ce que permettent ces considérations




II.1 - D'expliciter la démarche de modélisation

Le formalisme du diagramme des deux mondes peut être exploité pour décortiquer les grandes étapes d'une démarche de modélisation, et c'est ce que nous faisons dans cette sous-partie.

Précisons d'abord ce que l'on entend par là. Le terme de "démarche scientifique" parfois employé possède un sens très large et, s'il est compris comme toutes les activités mises en œuvre par le scientifique pour faire progresser son travail, alors la démarche de modélisation en est une des composantes (mais une des composantes seulement, la "démarche scientifique" en comprend bien d'autres : les processus de validation de modèles ou théories, l'atteinte d'un consensus, le peer-review, les phénomènes d'orientation des programmes de recherche, le financement, etc.). La démarche de modélisation, donc, consiste à faire le cheminement entre les observations d'un système réel et leur description théorique décrit dans la partie précédente avec l'exemple du ballon de basket. Sa finalité est de fournir une interprétation des événements observés et de permettre des prédictions. Tout physicien est amené à effectuer des démarches de modélisation, qu'il soit chercheur, ingénieur ou étudiant. Ces derniers sont amenés par leurs professeurs à suivre une telle démarche en particulier lors de deux types de mises en œuvre pédagogiques : la résolution de problème (c'est-à-dire tout exercice peu guidé dans lequel on part d'un système physique à modéliser pour répondre à une question qui appelle généralement une réponse quantitative), et la démarche expérimentale en séance de TP. Ils la pratiquent également dans le cadre de projets, comme les TIPE en classe préparatoire. Nous commençons ici par le cas d'une résolution de problème.

Dans le cadre d'une résolution de problème

Une résolution de problème peut-être décomposée comme sur la figure ci-dessous :

Schématisation de la démarche de modélisation et de résolution d'un problème de physique. Nous abrégeons les quatre compétences s'approprier, analyser, réaliser, valider, par app, ana, réa et val dans les figures.

Nous en profitons ici pour situer les quatre compétences clés issues du programme de physique-chimie du secondaire et des CPGE : s'approprier le problème, l'analyser, réaliser les calculs, puis valider les résultats. Ces compétences (qui n'intéresseront que les enseignants de physique-chimie !) donnent lieu par exemple à des grilles d'évaluation en interrogations orales, et sont largement utilisées avec plus ou moins de succès dans les manuels. Nous pouvons ainsi mieux comprendre et décrire tout ceci schématiquement à l'aide du diagramme, tel que fait sur la figure ci-dessus.

Détaillons cette figure :

  • 1 - Choix de modélisation : On part d'une situation concrète, réelle. Il faut traduire cette situation dans le langage mathématique de la physique : identifier la ou les théories à utiliser, schématiser, identifier les grandeurs pertinentes et leur associer un symbole, simplifier via des hypothèses pertinentes. En un mot, il faut modéliser la situation réelle. Dans les termes du programme de physique, il s'agit de la compétence "s'approprier".

  • 2 - Utilisation de la théorie : Après la modélisation, le problème devient mathématique : il faut trouver les liens entre les différentes grandeurs physiques donnés par les théorèmes, relations ou principes de la théorie (compétence "analyser" du programme). Une fois ces liens écrits, il faut en général un certain nombre d'étapes calculatoires (résolution de systèmes, d'équations différentielles...) pour arriver à exprimer les quantités recherchées, et ceci se termine par une ou des applications numériques (compétence "réaliser" du programme).

  • 3 - Validation : Enfin, il faut comparer avec la réalité les résultats obtenus suite à la modélisation et aux manipulations théoriques. (Dans les programmes il s'agit de la compétence ``valider''.) On peut voir si les ordres de grandeur sont raisonnables, voir si les expressions obtenues varient dans le bon sens lorsque l'on modifie un paramètre, ou vérifier précisément l'accord ou le désaccord si l'on dispose de mesures associées à une incertitude. S'il n'y a pas accord, il faut remettre en cause les choix de modélisation (y a-t-il trop d'hypothèses ?), la théorie utilisée (y a-t-il des effets non décrits par cette théorie ?) ou bien les manipulations effectuées (y a-t-il une erreur de calcul ?).


Illustrons ceci sur un exemple concret. On étudie un appareil photographique, muni d'un objectif de focale 50mm. Pour faire la mise au point sur un objet, il est nécessaire de changer la distance entre l'objectif et la pellicule (en tournant la bague de mise au point). Une question possible est : sur quelle plage faut-il faire varier cette distance si on veut pouvoir faire la mise au point sur des objets au plus loin à l'infini, et au plus proche à 50cm de l'appareil ? Reprenons les étapes :

  • 1 - Choix de modélisation : On choisit la théorie de l'optique géométrique. Du côté du modèle, le système étudié est complexe et il faut le simplifier. Le plus économe ici est de modéliser l'objectif par une lentille convergente mince de focale $f'=50\,\text{mm}$, située à une distance $d$ de la pellicule. L'objet dont on veut faire l'image est sur l'axe optique de la lentille, à une distance $D$ de celle-ci.


  • 2 - Utilisation de la théorie : On est alors passé dans le monde de la théorie. Quelles sont les relations fournies par la théorie de l'optique géométrique ? On a la relation de conjugaison, $\dfrac{1}{D}+\dfrac{1}{d} = \dfrac{1}{f'}$. Ici cela suffit, c'est la fin de l'étape d'analyse. On passe ensuite aux calculs, on isole $d$ dans la relation précédente : $d = \dfrac{f'D}{D-f'}$. Pour $D$ infini cela donne $d = f' = 5.0\,\mathrm{cm}$, pour $d = D_\text{min}=50\,\mathrm{cm}$ on obtient $d = 5.6\,\mathrm{cm}$. On en déduit que la course autorisée pour la pellicule doit être $\delta d_\text{théo} = 0.6\,\mathrm{cm}$.

  • 3 - Validation : On redescend ensuite dans le monde réel : il faut voir avec le vrai appareil s'il faut effectivement bouger la pellicule de $0.6\,\mathrm{cm}$ pour passer d'une mise au point à l'infini à une mise au point à $50\,\mathrm{cm}$. Si ce n'est pas le cas, c'est probablement parce que notre modèle est trop simple : un objectif d'appareil photographique ne peut pas toujours être décrit par une seule lentille mince (c'est plutôt un système optique épais, qui peut être décrit par l'optique géométrique mais avec un modèle un peu moins simple). Les phénomènes de diffraction peuvent aussi entrer en jeu si le diaphragme est trop fermé, auquel cas il faut sortir de la théorie de l'optique géométrique et utiliser la théorie de l'optique ondulatoire.

Une résolution de problème permet donc de travailler les étapes de modélisation, d'utilisation de la théorie et de validation. Notons que les exercices ou énoncés qui partent directement d'une situation modélisée (décrite dans le langage de la physique) court-circuitent l'étape 1 de choix de modélisation et ne font pas travailler la capacité d'élaboration d'un modèle à partir d'une situation réelle.

Dans le cadre d'une démarche expérimentale

C'est un peu la même chose. L'article du BUP développe un exemple, que nous omettons ici car l'essentiel est déjà dit.

Dans un cadre plus général

Ce qui précède montre que le diagramme peut servir de guide pour résoudre un exercice ou mieux comprendre une séance de TP. Mais cette démarche va bien au delà et est tout à fait générale en sciences expérimentales : elle ne concerne pas uniquement l'étudiant qui résout un problème de physique ou qui vérifie une loi via des expériences en séance de TP, mais tout aussi bien le chercheur qui tente de comprendre ou de prédire le comportement d'un système complexe.

Prenons donc un exemple du côté de la recherche sur le climat.

Le système observé est la planète Terre, ou plutôt son atmosphère, ses océans et sa surface. C'est un système bien compliqué, et le physicien doit le retranscrire dans le langage de la physique. Quelles théories utiliser ? La mécanique des fluides pour décrire l'écoulement de l'air et de l'eau, la thermodynamique pour décrire les changements d'état et les échanges thermiques, la chimie pour connaître le devenir des gaz dans l'atmosphère. Quels éléments retenir dans le modèle ? La circulation des océans et de l'atmosphère, la rotation de la Terre, la formation des nuages, l'éclairement solaire, l'albédo de surface... À la différence de l'étudiant, le chercheur est souvent contraint d'utiliser plusieurs théories et de construire et tester plusieurs modèles. Une fois traduit en équations, le système sera en général complexe et devra être résolu numériquement. La promenade dans le monde de la théorie peut donc être particulièrement longue et ardue en recherche. Il n'en reste pas moins qu'à la fin, elle aboutit à des prédictions chiffrées qu'il faut comparer aux observations pour pouvoir valider l'ensemble de la démarche.


Nous pourrions multiplier les exemples à l'infini car cette façon d'opérer est générique en sciences. Il s'agit là de la démarche de modélisation, qui procède par allers-retours entre observations et théorie pour construire une description et une interprétation abstraite efficace du phénomène étudié.




II.2 - De saisir l'articulation entre physique fondamentale et physique appliquée

La partie précédente décrit principalement l'acte de construction d'un modèle qui utilise les outils d'une théorie bien établie. Ainsi le climatologue utilise les théories de la mécanique des fluides ou de la thermodynamique, mais ne va ni les remettre en cause ni les perfectionner. Cependant, au cours de l'histoire des sciences et encore actuellement, la théorie elle-même n'est pas toujours définitivement construite : il faut alors tenter de la construire pour qu'elle décrive (via un modèle également à construire) les faits nouveaux observés.

On est ainsi amené à faire la distinction entre physique fondamentale et physique appliquée. Même si cette distinction est parfois artificielle (nous y revenons à la fin de cette partie), elle est néanmoins utile en première approche. Développons :

  • C'est la physique fondamentale qui s'occupe de construire, perfectionner et tester les théories.

    Ainsi, un chercheur en physique des particules s'attache à construire une théorie plus complète qui permet de répondre à des questions non encore élucidées (par exemple qu'est ce qui compose la matière noire dans l'Univers ? qu'est-ce qui explique la masse des neutrinos ? pourquoi trois familles de particules ? ...). Un chercheur en théorie des cordes essaie d'esquisser une théorie qui permet entre autres choses de décrire de façon unifiée la mécanique quantique et la gravitation. Tout ceci implique évidemment à un moment ou un autre de faire des expériences ou des observations afin de tester ces nouvelles théories. Le recours à l'étape de modélisation est alors essentiel.

    Si l'on regarde dans le passé, on se rend compte que les grands noms de l'histoire de la physique sont des physiciens ayant contribué à la construction de théories : Maxwell écrivant ses équations pose les bases de la théorie de l'électromagnétisme ; Newton montrant qu'une force de gravitation en \(1/r^2\) permet d'expliquer le mouvement elliptique des planètes assoit la théorie newtonienne de la gravitation ; Carnot, Joule, Clapeyron et d'autres posent les bases de la théorie thermodynamique ; Einstein étudiant théoriquement le mouvement brownien et Perrin confirmant ces résultats prouvent l'hypothèse de la théorie atomique ; Planck, Heinsenberg, Dirac, Pauli... construisent la théorie de la mécanique quantique ; etc.


Physique fondamentale : l'objet d'étude est la théorie.

  • La physique appliquée utilise des théories établies.

    D'un autre côté, un certain nombre de domaines de la physique ne cherchent pas à modifier les théories existantes ou à en créer de nouvelles : ils se servent plutôt des théories établies afin de comprendre des faits naturels ou des résultats d'expériences. Par exemple un astrophysicien qui cherche à comprendre la dynamique de la magnétosphère solaire et son interaction avec celle de la Terre ne tente aucunement de modifier le corpus théorique, mais il utilise les théories de l'electromagnétisme, de la dynamique newtonienne ou d'Einstein, de la mécanique des fluides magnétisés ou de la cinétique, afin de modéliser la situation réelle, d'en comprendre les origines, et de pouvoir en prédire les conséquences. Il travaille donc surtout au niveau du modèle.

    Si l'on regarde du côté de l'histoire, les physiciens contribuant à ce que l'on appelle ici la physique appliquée sont moins connus. Ils ont pourtant souvent joué des rôles majeurs et beaucoup sont titulaires du prix Nobel. Citons Appleton (prix Nobel 1947) qui à contribué à la découverte et à l'étude de l'ionosphère terrestre, Boyle et Smith (prix Nobel 2009) qui ont contribué à l'invention du capteur CCD, Hewish (prix Nobel 1974) qui a participé à la découverte des pulsars, etc.


Physique appliquée : l'objet d'étude est le modèle, en utilisant une théorie bien établie.

 

Comment ces deux catégories se retrouvent-t-elles dans l'enseignement des sciences physiques ?

Un cours de physique-chimie, que ce soit du lycée à bac+3, s'attache en général à présenter la construction d'une théorie lors du cours proprement dit. On part des principes et des concepts de base, on démontre ou on présente les théorèmes et résultats principaux de la théorie, etc. Le diagramme des deux mondes peut alors donner un aperçu global des concepts de la théorie et des phénomènes qu'ils permettent d'expliquer, et aider ainsi l'étudiant à mieux situer les choses. (Comme dans ces documents donnés en CPGE : ici page 3, ici page 4, et voir aussi I.3.)

D'autre part, dans les exercices ou TD, il est principalement demandé aux élèves de faire de la physique appliquée (telle que décrite par les étapes de résolution du II.1). Sauf bien sur lors de... questions de cours.


Enfin, soulignons qu'il n'est jamais bon de vouloir trop catégoriser. La frontière entre ce que l'on a appelé ici physique fondamentale et physique appliquée est souvent floue, et l'une et l'autre se font souvent ensemble. Ainsi le chercheur en "physique fondamentale" devra bien modéliser et connaître le système utilisé pour intuiter ou confirmer sa théorie, et le chercheur en "physique appliquée" apporte souvent des contributions nouvelles au corpus théorique lors de ses investigations. La revue Reflets de la physique de la SFP ou le Journal du CNRS illustrent régulièrement de telles interactions.

Il n'en reste pas moins que cette distinction peut être pertinente pour mieux saisir la recherche en sciences physiques.




II.3 - De comprendre la portée finie des théories

Lorsque nous avons donné la définition d'une théorie, nous avons indiqué que celle-ci possède toujours un domaine de validité restreint. Précisons ce que cela signifie en explorant deux "propriétés" des théories : le fait que l'une peut se déduire de l'autre, et le domaine de validité fini.

Déduction :

Une théorie peut être contenue dans une autre, dans le sens où la théorie "supérieure" permet de démontrer tous les résultats de la théorie "inférieure". Par exemple, la théorie de la mécanique et de la gravitation de Newton se déduit de la théorie de la relativité générale. Il y a donc une certaine hiérarchie entre certaines théories (mais pas toutes, certaines étudient des phénomènes distincts, l'électromagnétisme et la gravitation par exemple). Le diagramme de la partie I.3 propose justement un aperçu de cette hiérarchie.

Notons tout de même que la question du passage par déduction d'un champ à un autre est complexe et intéressante. Dire par exemple que la chimie se déduit de la mécanique quantique est quelque peu provocateur... Car même si en principe les équations de la mécanique quantique permettent d'expliquer les édifices atomiques et moléculaires et leurs transformations et interactions, cette explication est parfois trop complexe en pratique. La chimie développe ainsi ces propres concepts, qui sont indépendants de ceux de la mécanique quantique. Et il en va ainsi de chaque théorie moins fondamentale, qui conçoit ses propres concepts et méthodes. La chimie se déduit-t-elle réellement de la mécanique quantique ? La biologie se déduit-elle de la physique et de la chimie ? Le fonctionnement de l'esprit se déduit-il des lois de la physique ? Ces interrogations sont légitimes et complexes. Elles obligent à parler de réductionnisme, de la notion de propriété émergente, et pourraient faire l'objet d'un article à part... (voir cet article classique (More is different, de P. W. Anderson), l'article Émergence de wikipédia, ou xkcd).


Domaine de validité :

Toute théorie a un domaine de validité restreint, au sein duquel ses prédictions sont vérifiées par l'expérience avec une certaine précision. La théorie est alors pertinente dans son domaine de validité. Par exemple la théorie de la mécanique de Newton permet une description très précise des phénomènes mécaniques, à condition d'être utilisée dans son domaine de validité : pour des vitesses petites devant celle de la lumière et dans des champs de gravitation faibles.

Il est souvent difficile de prévoir les limites de validité d'une théorie et de savoir quantifier l'erreur commise sans connaître la théorie "supérieure", plus générale. Par exemple il faut utiliser les résultats de la relativité restreinte pour pouvoir prédire et chiffrer l'erreur commise lors de l'utilisation de la mécanique de Newton.

Max Planck disait que l'on a toujours assigné aux sciences "comme fin supérieure de grouper en une synthèse systématique la prodigieuse diversité des phénomènes physiques et même, si possible, de la condenser en une seule formule". Mais on ne dispose toujours pas d'une théorie du tout qui serait valable sans limites, et toutes nos théories ont des domaines de validité finis. La relativité générale n'est plus valable aux échelles microscopiques où la théorie quantique intervient ; la théorie quantique est mal comprise en champ de gravité fort ; l'électromagnétisme de Maxwell ne rend pas compte des effets dus à la nature corpusculaire de la lumière ; etc. Certains physiciens doutent d'ailleurs qu'il soit possible d'obtenir une théorie universelle et avancent qu'il n'y a aucune raison fondamentale pour que la nature soit descriptible mathématiquement à toutes les échelles.


Comment ceci apparaît-il dans le diagramme des deux mondes ?

Dans le diagramme, la bulle du "monde observé" contient les observations qui peuvent être expliquées par la théorie en question (si on utilise le modèle approprié). Il s'agit donc du domaine de validité de la théorie. Afin de souligner que ce domaine de validité possède toujours une limite, il est possible de faire apparaître une autre bulle dans le domaine du monde observé, qui contient des faits non expliqués par la théorie. C'est ce qui est réalisé dans les diagrammes présentés en I.3.

En particulier les trois diagrammes concernant l'optique géométrique, l'optique ondulatoire et l'électromagnétisme peuvent être mis côte à côte et fournir ainsi une belle illustration du caractère plus général d'une théorie par rapport à une autre, et du domaine de validité toujours fini.




II.4 - De comprendre la façon dont une théorie est validée ou rejetée

Un des objectifs de la science est de construire des théories qui permettent de comprendre une classe de faits observés de plus en plus vaste. Accepter ou refuser la validité d'une théorie n'est pas une affaire de croyance ou de mode, mais repose sur un consensus de la communauté scientifique, lui-même basé sur des critères que nous essayons d'exposer dans les deux points qui suivent.


Réfutabilité :

Ce principe a été introduit par le philosophe des sciences Karl Popper. Énoncé sans nuances (et donc de façon trop simpliste pour être vrai), le principe de réfutabilité indique qu'il suffit d'une seule expérience pour réfuter une théorie en construction. Nous nuançons et discutons de cette affirmation dans la suite.

Il faut avant tout dire que ce principe ne concerne plus une théorie bien établie, qui possède un domaine de validité bien délimité. Prenons l'exemple de la théorie de la mécanique de Newton. Son domaine de validité est bien connu (phénomènes mécaniques avec des vitesses très inférieures à celles de la lumière, champs de gravité faible), et elle permet des prédictions précises au sein de ce domaine, imprécises en dehors. On sait même quantifier cette précision car des théories plus générales sont connues (relativités). Il n'est donc plus question de la réfuter ; il n'y a aucun sens à parler de réfutation. Il en est de même pour toutes les théories "bien établies" connues aujourd'hui : l'optique géométrique, ondulatoire, l'électromagnétisme, la thermodynamique, la mécanique quantique, etc., ont beau être en échec dans certains domaines, elles n'en restent pas moins des théories puissantes et utiles dans leurs domaines de validité.

La réfutation sert donc à rejeter une théorie en construction. Prenons un exemple historique.

  • Vers la fin des années 1800, les physiciens postulaient l'existence d'un fluide servant de support à la propagation de la lumière, fluide nommé l'ether. Son existence et ses propriétés étaient débattus. Michelson et Morley ont conduit une expérience en 1887 qui, si la théorie de l'éther était correcte, aurait donné un certain résultat. Or Michelson et Morley n'ont pas obtenu ce résultat. Mais ceci a-t-il permis de rejeter la théorie de l'éther ? Pas vraiment, car les choses ne sont pas si simples, comme nous l'expliquons dans la suite.

En effet, le philosophe Thomas Kuhn explique très bien que la communauté scientifique rechigne souvent à abandonner une théorie, et qu'il s'agit d'un processus long. Notamment :

  • Dans tous les cas, l'abandon n'a lieu que s'il y a une autre théorie, alternative, prête à remplacer l'ancienne et permettant d'expliquer l'expérience qui réfute l'ancienne. La nouvelle théorie doit aussi englober une bonne partie des résultats de l'ancienne théorie, tout en restant conceptuellement satisfaisante (critère de simplicité, d'élégance... qui peuvent être assez subjectifs). Les expériences cruciales de réfutation servent donc surtout pour comparer des théories en compétition.

  • Une seule réalisation de l'expérience suffit rarement. Elle doit être répétée, confirmée. Les instruments de mesure et les incertitudes doivent être maîtrisés. Selon la confiance en la théorie précédente et l'inertie de la communauté des chercheurs, il peut falloir plusieurs expériences de ce type, ou une expérience vraiment cruciale.

Si l'on revient sur notre exemple, la théorie de l'éther n'a pas été rejetée suite à l'expérience de Michelson et Morley. Il y a même eu des explications de cette expérience dans le cadre de l'éther. Elle n'a été rejetée définitivement que plus tard, lorsque dans la théorie électromagnétique de Maxwell et celle de la relativité d'Einstein sont devenues des théories robustes dans lesquelles l'éther est inutile. D'autres exemples existent : les anomalies dans les trajectoires de Mercure ou d'Uranus n'ont pas impliqué un rejet de la théorie de Newton, etc.

Le processus de choix entre deux théories est donc complexe. Il n'en reste pas moins que la réfutabilité est une caractéristique essentielle d'une nouvelle théorie scientifique. Pour que la théorie soit considérée comme scientifique, il doit exister des expériences (qu'il faut mener à bien dans la suite) qui peuvent selon leur résultat la mettre en défaut. Il faut même plus que cela : il faut que la théorie soit fortement réfutable, c'est-à-dire que cette mise en défaut doit complètement anéantir la théorie, sans qu'un petit ajustement puisse encore et toujours la sauver. S'il n'existe pas d'expériences permettant de tester ainsi la théorie, alors il ne s'agit pas de sciences mais de pseudo-sciences ou de théories farfelues...

En résumé : Une théorie bien établie, pour laquelle on connaît l'étendue du domaine de validité et sa précision au sein de ce domaine, n'est plus réfutable (exemple : la mécanique de Newton). D'un autre côté, une théorie en construction doit pouvoir être testée pour être qualifiée de scientifique : ceci passe par l'existence de prédictions qui peuvent, si elles ne sont pas réalisées, réfuter la théorie. Il doit même exister des possibilités fortes de réfutation, c'est-à-dire non ajustables. Une théorie réfutée n'est cependant pas rejetée : elle l'est à condition qu'une théorie meilleure existe, qui explique les faits non expliqués par la première.


Une théorie n'est jamais définitivement validée :

Que dire enfin des théories qui passent avec succès des tests de réfutabilité ? Chaque résultat positif permet d'augmenter la confiance qu'a la communauté en la théorie. Elle n'est jamais définitivement validée, mais elle est renforcée, et son domaine de validité se construit petit à petit. La précision minimale qu'atteint la théorie dans ce domaine devient connue. Jusqu'à ce qu'elle devienne une théorie "bien établie" comme celles citées au début de cette sous-partie.

Prenons pour cela l'exemple de la théorie de la relativité générale, qui est une théorie qui permet de décrire la gravitation et la manière dont les objets ou la lumière se déplacent. Il s'agit d'une théorie fortement réfutable car elle fait des prédictions qui peuvent être testées. Elle a passé avec succès ces tests de réfutabilité, par exemple : elle a prédit correctement la trajectoire de la planète Mercure, qui était inexpliquée jusque là, elle prédit également que la lumière est déviée par les corps massifs, ce qui a bien été observé par Eddington lors d'une expédition en 1919 pour observer une éclipse sur le continent africain. Elle prédit l'existence d'ondes gravitationnelles, qui ont enfin été observées en 2017 par les détecteurs Ligo et Virgo (soit près de 100 ans après la création de la théorie !). Plus précis encore : la relativité générale postule que la masse grave (celle qui intervient dans la force de gravitation de Newton $Gm_1m_2/r^2$) et la masse inertielle (celle qui intervient dans $m\vec{a} = \sum \vec{F}$) sont égales, alors qu'il n'y a aucune raison à priori car il s'agit de deux concepts bien distincts. Il s'agit du principe d'équivalence, qui d'ailleurs est aussi postulé en mécanique newtonienne. Une conséquence est que deux objets en chute libre dans le vide subissent la même accélération, quelle que soit leur masse ou la matière dont ils sont faits. Par exemple un marteau et une plume lâchés sur la Lune (en l'absence de frottements donc) atteignent le sol en même temps. Cette prédiction de la théorie a été testée de façon de plus en plus précise depuis des décennies, et la dernière en date est l'expérience Microscope (voir lien CNRS) qui permet de dire que le principe est vérifié avec une précision de $2\times10^{-14}$ (!). Cet ensemble en fait une théorie possédant un large domaine de validité au sein duquel nous savons avec quelle précision au minimum elle permet de prédire les faits observés.

Prenons un second exemple, qui concerne la théorie de l'électrodynamique quantique (théorie décrivant l'interaction des particules chargées avec les champs électromagnétiques). Entre autres choses, cette théorie permet de donner une expression de ce que l'on appelle l'anomalie du moment magnétique de l'électron. Cette anomalie est un nombre sans dimension qui caractérise l'écart relatif à une valeur de référence. Elle peut être mesurée expérimentalement de façon très précise. Le dernier résultat est : \begin{equation*}\small a_{\text{exp}} = (1\,159\,652\,180.73\pm0.28)\cdot 10^{-12}, \end{equation*} l'incertitude étant une incertitude-type. La théorie prédit une valeur : \begin{equation*}\small a_{\text{théo}} = (1\,159\,652\,181.13\pm0.84)\cdot10^{-12}, \end{equation*} avec une incertitude car l'expression théorique fait intervenir des grandeurs obtenues via des mesures (la constante de structure fine). On voit ainsi qu'il y a, à la précision des mesures effectuées, accord entre valeur expérimentale et valeur théorique. On notera qu'il est remarquable qu'une théorie soit en accord avec l'expérience avec une précision atteignant 10 chiffres significatifs ! (les valeurs sont tirées de Bouchendira et al., 2010)

Dans les deux cas précédents, on voit bien que les prédictions théoriques sont vérifiées sans cesse plus précisément, mais que cette quête ne s'arrête jamais vraiment : peut-être va-t-il y avoir désaccord si on raffine les mesures ? D'un autre côté, un désaccord entre valeur prédite et valeur mesurée avec un écart significatif (de plusieurs écarts-types) permet de dire sans aucun doute qu'il y a un problème avec la théorie ou le modèle utilisé : il y a anomalie, et nous retombons dans le cas du paragraphe précédent (réfutation si théorie en construction, indices vers l'édification d'une nouvelle théorie...), et il n'y a pas besoin de raffiner davantage les mesures.

Une théorie n'est ainsi jamais "validée" une fois pour toute, cette expression n'ayant pas vraiment de sens. Elle possède un domaine de validité fini. Elle est corroborée par un grand nombre d'expériences aux résultats positifs qui permettent de mieux cerner ce domaine de validité : à la fois en terme d'étendue et en terme de précision atteinte au sein du domaine (précision limitée par celle des expériences, et par les limites de la théorie elle-même). On pourra donc affirmer que telle théorie (via tel modèle) permet de décrire telle expérience avec telle précision et s'en servir ainsi.




II.5 - De comprendre que soit le modèle soit la théorie peuvent être mis en défaut

Nous avons déjà évoqué que lorsqu'il n'y a pas accord entre prédiction théorique et mesure expérimentale, c'est qu'il s'agit d'une mise en défaut soit de la théorie (elle ne s'applique pas, on est hors de son cadre de validité), soit du modèle utilisé (trop d'hypothèses ou mauvaises hypothèses). Nous précisons ceci dans cette partie avec un exemple historique célèbre : celui des trajectoires des planètes Uranus et Mercure.

La trajectoire de la planète Uranus, planète découverte en 1781, présentait des anomalies non expliquées par la théorie de la mécanique et de la gravitation de Newton. La controverse entre physiciens fut importante, certains y voyant une réfutation de la théorie de Newton et tentant de proposer des corrections à la loi de la gravitation, d'autres y voyant un défaut du modèle du système solaire : peut-être manquait-il une planète dans la description d'alors du système, planète inconnue qui pourrait perturber la trajectoire d'Uranus. On voit bien ici que lorsqu'une observation est mal expliquée, cela peut provenir soit d'une incapacité de la théorie, soit d'un manquement du modèle. En 1846, l'astronome Le Verrier calcula, en utilisant la théorie de Newton, la position de l'éventuelle planète perturbatrice. Lorsque les astronomes observèrent le ciel là où l'avait indiqué Le Verrier, ils firent effectivement la découverte d'une nouvelle planète, qui fut baptisée Neptune. C'était donc bien le modèle qui était en tort, et la théorie newtonienne en sortit triomphante.

L'histoire recommença avec la planète Mercure. Certaines caractéristiques de sa trajectoire n'étaient pas non plus correctement prédites par la théorie newtonienne. Le Verrier tenta à nouveau d'expliquer ceci par l'existence d'une planète non découverte, que l'on baptiserait Vulcain. Les caractéristiques orbitales de cette planète furent calculées, mais elle ne fut jamais observée là où elle devait être... Il se trouve en fait que les anomalies dans la trajectoire de Mercure sont dues au fait que, étant proche du Soleil, cette planète subit un champ de gravitation assez fort pour que la théorie newtonienne soit mise en défaut. Sa trajectoire sera donc correctement prédite 50 ans plus tard par la théorie de la gravitation d'Einstein (la relativité générale). Cette fois ce n'était donc pas le modèle qui était en tort, mais bien la théorie qui n'était plus valide pour décrire les phénomènes observés.

Les programmes scolaires de physique-chimie permettent aussi de faire ce genre de distinction modèle/théorie. Par exemple en CPGE il est possible de comparer différents modèles de l'atmosphère (isotherme ou non) et de les confronter aux mesures (c'est donc une comparaison de modèles, qui utilisent la même théorie, voir par exemple ce DM et la figure associée). D'un autre côté, il est possible de mettre en évidence le fait que l'optique géométrique n'explique pas les phénomènes de diffraction ou d'interférence, alors qu'ils seront décrits correctement dans le cours d'optique ondulatoire (comparaison de théories).




III - Pour aller plus loin : ce que ces considérations ne permettent pas

Le diagramme des deux mondes ne permet pas tout... Nous illustrons dans cette partie III deux facettes importantes, mais qui ne sont pas abordée par les outils présentés dans cet article.




III.1 - De décrire la façon dont la science se construit

Le diagramme des deux mondes permet de schématiser les relations entre une théorie et la partie du monde observé qu'elle permet d'interpréter, ceci une fois que la théorie est achevée et bien établie. Il ne permet en revanche pas de décrire comment la théorie s'est construite au fur et à mesure des travaux des scientifiques. Il s'agit là d'un sujet riche et complexe dans lequel la régularité et les règles ne sont pas de mise : les travaux scientifiques avancent tantôt progressivement, tantôt par révolutions scientifiques et changement de paradigme ; ils sont parfois motivés par la curiosité, parfois aussi par les applications technologiques, industrielles ou par la guerre ; des avancées majeures peuvent être le fruit du hasard, d'autres le fruit d'un travail méticuleux ; les erreurs sont toujours possibles... et les "méthodes" des scientifiques ne sont ni déductives ni inductives, mais empruntent toujours un peu aux deux démarches. Dans les termes du philosophe des sciences Thomas Kuhn, le diagramme des deux mondes permet de caractériser la "science normale", mais pas la "science extraordinaire". On pourra lire Chalmer pour une introduction ou Rovelli (2018) pour un point de vue récent, et évidemment le texte de Kuhn (voir références).

Mais si la construction d'une théorie ne présente pas de motif systématique, c'est en revanche bien le cas du fonctionnement d'une théorie établie, et c'est ce que vise l'utilisation du diagramme présenté ici. On peut toutefois, si on souhaite introduire des éléments historiques, proposer une frise chronologique qui l'accompagne et qui montre les tâtonnements du progrès scientifique.




III.2 - De philosopher

Il est possible de discuter davantage de la division entre monde de la théorie et monde observé, et du statut que l'on donne à chacun de ces deux domaines.

Ainsi Kermen (2018) distingue "réalité idéalisée" et "réalité perçue" au sein du monde observé ; Morge et Doly (2013) parlent de "référent empirique" à la place du monde observé afin selon eux de ne pas se positionner dans le débat réaliste/antiréaliste... On peut se poser diverses questions dans le cadre de ce débat, par exemple où précisément placer des entités comme "un électron" : faut-il distinguer l'électron comme concept inventé par les scientifiques (monde de la théorie) et l'électron comme manifestation d'une entité existant réellement (monde observé) ? Faut-il distinguer réalité observée et réalité-en-soi, inatteignable complètement ? La science tend-elle à décrire de plus en plus près la réalité (approche réaliste, suivie par exemple par Einstein avec son image de la montre), où est-elle un édifice qui rend compte des observations seulement, sans garantie d'un accord de fond (ontologique) entre concepts physiques inventés par l'homme et réalité ?

La discussion devient alors philosophique ou métaphysique. Nous ne disons pas qu'elle devient inintéressante (bien au contraire), mais nous affirmons qu'elle n'est pas utile aux propos développés ici, et que le diagramme des deux mondes peut-être utilisé sans parti-pris métaphysique sur les grandes questions philosophiques. Tel que présenté ici, il est un outil pédagogique utile et assez puissant pour bien saisir la façon dont fonctionnent les sciences physiques, mais pour rester efficace il ne faut pas trop chercher à le raffiner.

Un autre exemple de tergiversation qui peut apparaître lors de la construction d'un diagramme est la question de l'emploi du vocabulaire de la théorie pour décrire les observations. Si on dit que "on observe que la force de frottement augmente avec la vitesse", on utilise les concepts de force et de vitesse, qui sont des concepts du domaine de la théorie. On est pourtant tenté de placer cette phrase dans le monde observé. Il semble que si l'on cherche à être trop rigoureux sur ce point et que l'on s'interdit toute utilisation des concepts théoriques pour décrire les observations, alors il faut les décrire avec un vocabulaire pré-scientifique... et la tâche devient particulièrement complexe et peu efficace. On s'éloigne également de la façon dont fonctionne la science, puisque les scientifiques utilisent pleinement le vocabulaire de la théorie pour "lire" les observations ou décrire et planifier les expériences : comme le soulignent Einstein, Heisenberg et d'autres, le chercheur observe le monde à travers le prisme de la théorie. Il nous semble donc qu'ici aussi, il ne faut pas être trop rigoureux pour que le diagramme des deux mondes reste un outil efficace.


Une version plus complète,
et prenant un parti pris philosophique.



Conclusion

Les sciences telles que nous les connaissons aujourd'hui sont une pratique extrêmement jeune : depuis Galilée, Newton ou Lavoisier, la physique et la chimie modernes ont environ 400 ans. Alors même que l'homme moderne arpente la Terre depuis 100 000 ans ! Les sciences donnent à l'homme un pouvoir immense et unique : celui, à travers des réalisations techniques, de contrôler la Nature. Il est facile de constater que l'avènement des sciences coïncide avec une influence grandissante de l'homme sur toute la surface du globe. La révolution industrielle, considérée comme le début de "l'anthropocène", est une fille de la mécanique et de la thermodynamique, et le rythme n'a fait que s'accélérer depuis. Cette omniprésence de la science rend essentielle une compréhension de la façon dont elle fonctionne, de ce qu'elle prétend faire et ne prétend pas faire. Nous avons ainsi vu qu'elle n'est pas la science des grecs, qui voulaient tout saisir de la Nature. Qu'elle n'aspire pas à la vérité, ou alors en un sens à préciser, en un sens qui n'est pas attaquable : celui de vérifier ses prédictions au sein des cadres qu'elle définit elle-même. Et ses réalisations, autant technologiques que prédictives, sont bien réelles.

La description simplifiée présentée ici, basée essentiellement sur la définition des concepts de théorie, modèle et monde observé et de leur articulation, schématisée via le diagramme des deux mondes, devrait permettre aux étudiants en sciences physiques :

  • D'être plus à l'aise dans la compréhension du cours, car ceci donne une vision d'ensemble des théories étudiées en listant leurs lois et concepts principaux et en balayant leur domaine d'application.

  • De mieux comprendre la démarche de résolution de problème dans les exercices (en illustrant efficacement le cheminement s'approprier-analyser-réaliser-valider), ou la démarche expérimentale en TP de "vérification" d'une loi.

  • De bien distinguer la discipline sciences physiques des mathématiques, ces derniers ne dialoguant pas entre expérience et modèle/théorie. Ceci est important pour les étudiants qui souvent reprochent leur "manque de rigueur" aux sciences physiques, alors que ce manque de rigueur n'en est pas un et est, via l'acte de modélisation, précisément au cœur du fonctionnement de notre matière.

  • De même, de distinguer sciences physiques et sciences de l'ingénieur, ces dernières ne s'attardant pas à construire l'édifice théorique.

  • De comprendre la façon dont est validée une théorie ou un modèle dans le cadre de la science, ce qui est particulièrement important à l'heure où rumeurs et pseudo-science alimentent les réseaux.

Si le dernier point concerne bien les étudiants en cours d'apprentissage, il semble clair qu'il leur sera aussi utile au delà de leurs études...

Il est ainsi regrettable qu'un enseignement explicite de ces bases d'épistémologie ne soit actuellement pas voulu par l'institution. Les choses changeront peut-être bientôt, puisque dans la résolution sur "les sciences et le progrès dans la République", adoptée par l'Assemblée nationale le 21 février 2017, on peut lire que "[l'Assemblée nationale] invite en particulier le Gouvernement à étoffer la partie du programme de philosophie consacrée aux sciences et à l’épistémologie au lycée et dans l’enseignement supérieur." Le diagramme des deux mondes sera-t-il dans le prochain programme de physique-chimie ?




Références

  • Coince D. et al., janv. 2008, "Une introduction à la nature et au fonctionnement de la physique pour des élèves de seconde", BUP 990.

    → Présente le diagramme des deux mondes, des résultats d'enquêtes auprès de professeurs, et un exemple de mise en œuvre en classe de seconde.

  • Serres M. et Farouki N., 1997, Le Trésor, dictionnaire des Sciences.

    → Voir les définitions de modèle et de théorie.

  • Morge L. et Doly A.-M., 2013, "L'enseignement de la notion de modèle, quels modèles pour faire comprendre la distinction entre modèle et réalité ?", Spirale, 52.

    → Une réflexion plus technique et philosophique.

  • Kermen I., janv. 2018 "Comment le caractère dual, macroscopique-microscopique, de la chimie s’incarne-t-il dans son enseignement ? Réflexions autour des modèles et du langage", BUP 1000.

    → Une réflexion plus spécifique à la chimie.

  • Brenasin J., fév. 2016, "Une modélisation de la démarche expérimentale pour surmonter les obstacles à l’apprentissage de la physique", BUP 981.

    Brenasin J., mars 2016, "Utilisation du « modèle de la démarche expérimentale en phase et en structure » dans l’enseignement de la physique", BUP 982.

    → Réflexions sur la démarche expérimentale, le rôle de la théorie et du modèle, et la validation de la théorie par l'expérience.

  • Sensevy G. et Santini J., 2016, "Modélisation : une approche épistémologique", revue ASTER 43 Modélisation et simulation.

    → Discute de la définition et nature de ce qu'est un modèle, et de façon plus large sur l'articulation entre modèle et théorie.

  • Chalmer, A. F., 1990, Qu'est-ce que la science ?

    → Une présentation des grands courants de l'épistémologie et des grandes thèses (Popper, Kuhn, Lakatos), et de la façon dont la science se construit.

  • Kuhn, T. S., 1970, La structure des révolutions scientifiques.

    → Ouvrage de référence du philosophe des sciences Thomas Kuhn. Il y expose sa vision sur les mécanismes par lesquels la science se construit. Extrêmement intéressant.

  • Einstein A. et Infeld L., 1936, L'Évolution des idées en physique, éd. Flammarion Champs Sciences.

    → Réflexion très intéressante sur la façon dont les sciences se construisent et progressent. Écrit de façon très accessible.

    On peut prolonger la lecture par son ouvrage Conceptions scientifiques. D'autres physiciens offrent des réflexions épistémologiques ou philosophiques intéressantes, comme par exemple Heinsenberg (La partie et le tout).

  • Anderson P. W., 1972, "More Is Different", Science, Vol.177, Num.4047

    → Article parlant de la hiérarchie des théories et de la notion d'émergence.

  • Rovelli C., 2018, "Physics Needs Philosophy. Philosophy Needs Physics", lien arXiv.

    → Article parlant des liens entre physique et philosophie, écrit par un physicien théoricien travaillant notamment sur la gravité quantique.



  Site version 08/2018.
 ↑↑