0% ont trouvé ce document utile (0 vote)
13 vues41 pages

cours108-1f

Le chapitre A-VIII présente des outils mathématiques courants nécessaires en physique, en se concentrant sur les concepts essentiels sans démonstrations détaillées. Il couvre des sujets tels que l'analyse, l'algèbre linéaire et la géométrie, en supposant que le lecteur a déjà une connaissance préalable des notions de base. Le cours est mis à disposition sous une licence Creative Commons, interdisant l'utilisation commerciale et les modifications.

Transféré par

blayzy
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
13 vues41 pages

cours108-1f

Le chapitre A-VIII présente des outils mathématiques courants nécessaires en physique, en se concentrant sur les concepts essentiels sans démonstrations détaillées. Il couvre des sujets tels que l'analyse, l'algèbre linéaire et la géométrie, en supposant que le lecteur a déjà une connaissance préalable des notions de base. Le cours est mis à disposition sous une licence Creative Commons, interdisant l'utilisation commerciale et les modifications.

Transféré par

blayzy
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
Vous êtes sur la page 1/ 41

Chapitre A-VIII

Outils mathématiques courants.

Joël SORNETTE met ce cours à votre disposition selon les termes de la licence Creative Commons :
 Pas d'utilisation commerciale.
 Pas de modication, pas de coupure, pas d'intégration à un autre travail.
 Pas de communication à autrui sans citer son nom, ni en suggérant son autorisation.
Retrouvez l'intégralité du cours sur le site joelsornette.fr

1
RÉSUMÉ :

Comment résumer en quelques dizaines de pages deux à trois années de cours de ma-
thématiques, soit quelques centaines d'heures et quelques milliers de pages de notes ? En
ne choisissant que ce qui sert régulièrement en physique (ce qui sert ponctuellement sera
traité dans le chapitre concerné) et en ne donnant aucune démonstration, à la rigueur un
l conducteur montrant l'enchaînement des idées. Cela suppose que le lecteur ait déjà vu
toutes ces choses et que ce chapitre n'est là que pour lui rafraîchir la mémoire sur un point
qui s'estompe.

2
Table des matières

A-VIII Outils mathématiques courants. 1


1 Analyse. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.a Ce qui ne sera pas traité. . . . . . . . . . . . . . . . . . . . . . . . 5
1.b Séries entières. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.c Fonction exponentielle. . . . . . . . . . . . . . . . . . . . . . . . . 5
1.d Fonctions trigonométriques. . . . . . . . . . . . . . . . . . . . . . 6
1.e Fonctions hyperboliques. . . . . . . . . . . . . . . . . . . . . . . . 9
1.f Fonctions réciproques. . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.g Dérivées successives. Développement de Taylor. . . . . . . . . . . 12
1.h Fonctions composées. . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.i Primitives et intégrales dénies. . . . . . . . . . . . . . . . . . . . 13
1.j Calcul des primitives et des intégrales dénies. . . . . . . . . . . . 14
1.k Equations diérentielles. . . . . . . . . . . . . . . . . . . . . . . . 17
1.l Fonctions de plusieurs variables. . . . . . . . . . . . . . . . . . . . 19
1.m Fonctions à valeurs vectorielles. . . . . . . . . . . . . . . . . . . . 20
2 Algèbre linéaire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.a Espaces vectoriels et sous-espaces vectoriels. . . . . . . . . . . . . 20
2.b Indépendance linéaire. Bases vectorielles. Espaces vectoriels de di-
mension nie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.c Formes linéaires. Applications linéaires. Matrices. . . . . . . . . . 23
2.d Formes bilinéaires et quadratiques, sesquilinéaires et hermitiennes. 26
2.e Déterminants. Systèmes d'équations linéaires. Inversion de matrices. 27
2.f Diagonalisation. Valeurs propres et vecteurs propres. . . . . . . . 28

3
3 Géométrie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.a Espaces anes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.b Plans et droites d'un espace ane tridimensionnel . . . . . . . . . 31
3.c Barycentre. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.d Espaces anes euclidiens. . . . . . . . . . . . . . . . . . . . . . . 32
3.e La trigonométrie plane par la géométrie. . . . . . . . . . . . . . . 33
3.f Le triangle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.g Courbes planes et gauches. . . . . . . . . . . . . . . . . . . . . . . 35
3.h Surfaces. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.i Coniques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.j Angles solides. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

4
1 Analyse.

1.a Ce qui ne sera pas traité.


Nous supposerons connue la dénition d'une suite numérique de terme général noté un
qui à tout entier n positif (ou nul éventuellement) associe un nombre réel ou complexe et
supposerons maîtrisée la notion de limite d'une suite quand l'indice n tend vers l'inni.
Nous supposerons connue la dénition d'une série numérique, réelle ou complexe, de
terme général noté
P∞ un qui àPtout entier n positif (ou nul éventuellement) associe la somme
partielle Sn = 1 un (ou 0 un ) et supposerons maîtrisée la notion de limite d'une série

quand l'indice n tend vers l'inni.


Nous supposerons connue la notion de fonction à valeurs réelles ou complexes d'une
variable réelle ou complexe (la fonction f associe pour certaines valeurs de x réel ou com-
plexe qui constituent le domaine de dénition, un réel ou complexe f (x)) et supposerons
maîtrisées les notions de continuité et de dérivabilité (uniquement dans le cas de variable
réelles 1 ) ainsi que les règles classiques de dérivation. Nous croyons inutile de nous attarder
aux fonctions polynomiales ou fractions rationnelles.

1.b Séries entières.


A une suite numérique de terme général un (n positif ou nul), on peut associer la
série de terme général uP
n x (ou un z avec z complexe) et si elle existe sa limite quand n
n n

tend vers l'inni notée ∞ 0 un x qui dépend bien évidemment de x. C'est une façon très
n

courante de dénir une fonction d'une variable réelle (ou complexe).


Les mathématiciens démontrent que toute série entière a un rayon de convergence noté
R parfois inni, tel que pour tout x tel que |x| < R (ou |z| < R pour un complexe), la
série converge 2 et diverge pour r > R ou |z| > R, que, dans le cas d'une variable réelle
la fonction ainsi obtenue est dérivable, que sa dérivée est la somme de la série entière de
terme général n un xn−1 (dérivation terme à terme ) qui a le même rayon de convergence
et l'on en déduit aisément que la fonction est indéniment dérivable.

1.c Fonction exponentielle.


La plus connue des fonctions ainsi dénies est la fonction exponentielle, de rayon de
convergence inni (dénie donc pour tout x) dont la dénition est :

X xn
exp(x) =
n!
0

1. La dérivabilité de fonctions d'une variable complexe dépasse le cadre de ce cours.


2. la convergence pour |x| = R ou |z| = R se traite au cas par cas.

5
et aussi pour z complexe :

X zn
exp(z) =
n!
0

Par dérivation terme à terme suivie d'un subtil décalage d'indice, on prouve que l'ex-
ponentielle est sa propre dérivée soit :

exp0 (x) = exp(x)

Les mathématiciens démontre enn cette propriété fonctionnelle : pour tout couple de
réels ou de complexes a et b, on a :

exp(a + b) = exp(a) exp(b)

avec les corollaires suivants :


exp(n a) = exp(a)n pour n entier positif ou nul,
exp(−a) = 1
exp(a) d'où exp(n a) = exp(a)n pour n entier positif, négatif ou nul,

exp ( p x) = (avec x positif) d'où exp(n a) = exp(a)n pour n fractionnaire (et
exp(x)
p
même réel par continuité).

1.d Fonctions trigonométriques.


• Les fonctions cosinus et sinus.
A partir de la fonction exponentielle complexe, on dénit les fonctions cosinus et sinus
d'un réel x comme partie réelle et imaginaire de exp(i x) soit en pratique :


2p
p x
 X
cos(x) = (−1)


(2 p)!


0
∞ 2 p+1
p x
 X

sin(x) = (−1)
(2 p + 1)!


0

On vérie aisément que la fonction cosinus est paire et la fonction sinus impaire et que
leurs dérivées sont cos0 (x) = − sin(x) et sin0 (x) = cos(x) d'où l'on tire l'identité suivante :
cos2 (x) + sin2 (x) = 1 qui prouve à l'évidence que cos(x) et sin(x) ont des valeurs comprises
entre −1 et +1
Les mathématiciens déduisent des propriétés de l'exponentielle les séries de formules
suivantes qu'il est très rentable d'apprendre par c÷ur car elles sont d'un usage courant

6
dans tous les phénomènes vibratoires et ondulatoires :



cos(a + b) = cos(a) cos(b) − sin(a) sin(b)

cos(a − b) = cos(a) cos(b) + sin(a) sin(b)


sin(a + b) = sin(a) cos(b) + cos(a) sin(b)

sin(a − b) = sin(a) cos(b) − cos(a) sin(b)

On en déduit dans le cas particulier b = a


(
cos(2 a) = cos2 (a) − sin2 (a) = 2 cos2 (a) − 1 = 1 − 2 sin2 (a)
sin(2 a) = 2 sin(a) cos(a)

En revenant au cas général, on arrive par combinaison linéaire puis permutation des
deux membres à ces formules qui transforment les produits en somme (linéarisation) :
cos(a − b) + cos(a + b)


cos(a) cos(b) =



 2



cos(a − b) − cos(a + b)

sin(a) sin(b) = (formule piégeante)


 2



sin(a) cos(b) = sin(a − b) + sin(a + b)



2

On en déduit dans le cas particulier b = a


1 + cos(2 a)

cos2 (a) =




 2



1 − cos(2 a)

sin2 (a) =


 2



sin(2 a)



sin(a) cos(a) =
2

En revenant au cas général et en posant p = a + b et q = a − b et permutation des deux


membres, on arrive à ces formules qui transforment les sommes en produits (factorisation) :
    
p+q p−q
cos(p) + cos(q) = 2 cos cos


2  2



  
 p + q p − q
(formule piégeante)

cos(p) − cos(q) = −2 sin sin


 2  2
p + q p − q
sin(p) + sin(q) = 2 sin cos


 2   2 





 p − q p+q
sin(p) − sin(q) = 2 sin cos


2 2

7
Nous n'aborderons pas ici le développement de cos(3 a), sin(3 a), etc. ni la linéarisation
d'expression du type cos4 (x) car c'est peu fréquent en physique et que l'on peut toujours
trouver aisément un formulaire ou, si l'on s'est isolé sur une île déserte sans wi-, travailler
par étapes successives.
Si l'on dénit le nombre π comme la plus petite valeur positive non nulle dont le sinus
soit nul (le plus délicat est de montrer qu'il en existe une) donc le cosinus égal à −1 (le
plus délicat est de montrer que ce n'est pas +1), le développement de sin(a + b) avec b = π
donne sin(a + π) = − sin(a) et donc sin(a + 2 π) = sin(a) ce qui prouve que la fonction est
2 π -périodique. A partir de là, on démontre assez aisément :

cos(x + 2 π) = cos(x)

 et sin(x + 2 π) = sin(x)
cos(x
 + π) = − cos(x) et sin(x+ π) =− sin(x)
cos x + π = − sin(x) et
π

sin x + = cos(x)

2 2

• Les fonctions tangente et cotangente.


On dénit la fonction tangente par tan(x) = sin(x)
cos(x) (non dénie pour x = (2 k + 1) π2
avec k entier) et la fonction cotangente par cotan(x) = tan(x)
1
sin(x) (non dénie pour
= cos(x)
x = k π avec k entier). On déduit aisément des propriétés des fonctions cosinus et sinus
que :

1 1
= 1 + tan2 (x) et 2 = 1 + cotan2 (x)
cos2 (x) sin (x)

On montre aisément que :


1
tan0 (x) = = 1 + tan2 (x)
cos2 (x)

1
cotan0 (x) = − 2 = −[1 + cotan2 (x)]
sin (x)

Ces fonctions sont π -périodique et que cotan(x) = − tan x + π2 (en pratique on utilise


plutôt cotan(x) = tan(x)


1
et on n'utilise donc guère cette fonction).
Quelques formules utiles :

tan(a + b) = tan(a) + tan(b)

1 − tan(a) tan(b)




 tan(a) − tan(b)
tan(a − b) =

 1 + tan(a) tan(b)

 2 tan(a)
tan(2 a) =


1 − tan2 (a)

8
En posant t = tan x
, on a :

2

2t 2t 1 − t2
tan(x) = et sin(x) = et cos(x) =
1 − t2 1 + t2 1 + t2

ce qui sera fort utile pour les calculs d'intégrales.

1.e Fonctions hyperboliques.


A partir de la fonction exponentielle, on dénit les fonctions cosinus et sinus d'un réel
x comme partie paire et impaire de exp(x) soit en pratique :


 X x2 p
ch(x) =


(2 p)!


0

 X x2 p+1

sh(x) =
(2 p + 1)!


0

Leurs propriétés sont proches de celles des fonctions trigonométriques mais avec des
signes parfois diérents et apprendre par c÷ur les deux séries de formules est le plus sûr
moyen de  s'emmêler les pinceaux . Je suggère de savoir par c÷ur que ch0 (x) = sh(x),
sh0 (x) = ch(x), ch2 (x) − sh2 (x) = 1, que ces fonctions sont non périodiques, que ch(x) > 1.
Pour toutes les autres formules, on les déduira formellement des formules de trigonométrie
en remplaçant cos par ch et sin par i sh et en simpliant le cas échéant par i.
De là on déduit les formules relatives à la tangente hyperbolique th(x) = ch(x)
sh(x)
et de
son inverse la cotangente hyperbolique. Retenons que ch2 (x) = 1 − th (x) et que la dérivée
1 2

de la tangente hyperbolique est th0 (x) = ch21(x) = 1 − th2 (x)

1.f Fonctions réciproques.


• La théorie et l'exemple de la fonction logarithme népérien.
Si une fonction f continue et monotone sur un intervalle I (éventuellement R) et si
l'on note J (éventuellement R) l'ensemble des valeurs qu'elle prend, on dénit, sur J , la
fonction réciproque f −1 par :

y = f −1 (x) ⇐⇒ x = f (y)

De plus, si f est dérivable, f −1 l'est aussi (sauf l'exception mentionnée ci-dessous) et


l'on a :
0 1
f −1 (x) =
f 0 [f −1 (x)]

9
sauf pour les valeurs de x telles que le dénominateur est nul, bien entendu.
Pour l'exploitation de cette formule, il est commode de poser provisoirement y = f −1 (x)
puis de chercher à exprimer f 0 (y) en fonction de x (c'est là que réside parfois la diculté).
Dans la pratique, si f est une fonction classique, on donne à f −1 un nom particulier.
Prenons pour exemple la fonction exponentielle, monotone croissante de exp(−∞) = 0
à exp(+∞) = +∞, sa fonction inverse est la fonction logarithme népérien notée ln dénie
de 0 à +∞, croissante de ln(0) = −∞ à ln(+∞) = +∞. La formule f −1 0 (x) = f 01(y) ,
avec y = f −1 (x) équivalent à x = f (y), devient ici puisque f (y) = exp(y) et donc d'une
part f 0 (y) = exp0 (y) = exp(y) (cf supra) et d'autre part y = f −1 (x) = ln(x) équivalent à
x = exp(y) :
1 1
ln0 (x) = =
exp(y) x

Remarque : pour x négatif, on vérie aisément (dérivée de fonctions composées) qu'une


primitive de x1 est ln(−x) ; donc si l'on ne connaît pas le signe de x, une primitive est
ln(|x|).

• Fonction trigonométriques inverses.


La fonction cosinus décroît de 1 à −1 quand sa variable croît de 0 à π ; on dénit
la fonction arc-cosinus comme fonction inverse sur ces intervalles. La fonction arccos(x)
décroît donc de π à 0 quand x croît de −1 à 1. En accélérant un peu par rapport à l'exemple
précédent, sa dérivée est :
1 1 1
arccos0 (x) = − = −p = −√
sin(y) 1 − cos2 (y) 1 − x2

La fonction sinus croît de −1 à 1 quand sa variable croît de − π2 à π2 ; on dénit la


fonction arc-sinus comme fonction inverse sur ces intervalles. La fonction arcsin(x) croît
donc de − π2 à π2 quand x croît de −1 à 1. Sa dérivée est :
1 1 1
arcsin0 (x) = =p = √
cos(y) 1 − sin2 (y) 1 − x2

La fonction tangente croît de −∞ à ∞ quand sa variable croît de − π2 à π2 ; on dénit


la fonction arc-tangente comme fonction inverse sur ces intervalles. La fonction arctan(x)
croît donc de − π2 à π2 quand x croît de −∞ à ∞. Sa dérivée est :
1 1
arctan0 (x) = =
1 + tan2 (y) 1 + x2

La fonction arc-cotangente est peu employée.

10
• Fonction hyperboliques inverses.
La fonction cosinus hyperbolique croît de 1 à ∞ quand sa variable croît de 0 à ∞ ; on
dénit la fonction argument-cosinus hyperbolique comme fonction inverse sur ces intervalles.
La fonction argch(x) croît donc de 0 à ∞ quand x croît de 1 à ∞. Sa dérivée est :
1 1 1
argch0 (x) = =q =√
sh(y) 2
x −1
ch2 (y) − 1

La fonction sinus hyperbolique croît de −∞ à ∞ quand sa variable croît de −∞ à ∞ ; on


dénit la fonction argument-sinus hyperbolique comme fonction inverse sur ces intervalles.
La fonction argsh(x) croît donc de −∞ à ∞ quand x croît de −∞ à ∞. Sa dérivée est :
1 1 1
argsh0 (x) = =q =√
ch(y) 2
x +1
1 + sh2 (y)

La fonction tangente hyperbolique croît de −1 à 1 quand sa variable croît de −∞ à


∞ ; on dénit la fonction argument-tangente hyperbolique comme fonction inverse sur ces
intervalles. La fonction argth(x) croît donc de −∞ à ∞ quand x croît de −1 à 1. Sa dérivée
est :
1 1
argth0 (x) = 2 =
1 − th (y) 1 − x2

Notons cette approche variante : par construction on a exp(y) = ch(y) + sh(y) d'où
l'on tire successivement en introduisant les fonctions inverses
q
exp(y) = ch(y) + ch2 (y) − 1
q
y = ln[ch(y) + ch2 (y) − 1]
p
argch(x) = ln[x + x2 − 1]

et aussi q
exp(y) = sh(y) + sh2 (y) + 1
q
y = ln[sh(y) + sh2 (y) + 1]
p
argsh(x) = ln[x + x2 + 1]

On montre aussi aisément que :


sh(y) exp(y) − exp(−y) exp(2 y) − 1
th(y) = = =
ch(y) exp(y) − exp(−y) exp(2 y) − 1

11
d'où successivement et en utilisant la fonction inverse :
1 + th(y)
exp(2 y) =
1 − th(y)
  "s #
1 1 + th(y) 1 + th(y)
y = ln = ln
2 1 − th(y) 1 − th(y)
"r #
1+x
argth(x) = ln
1−x

1.g Dérivées successives. Développement de Taylor.


Soit une fonction de la variable x notée f (x) ou f (0) (x), supposée dérivable et de dérivée
notée f 0 (x) ou f (1) (x). Si cette dérivée est elle-même dérivable, sa dérivée est la dérivée
seconde de f et on la note f 00 (x) ou f (2) (x). Si l'on poursuit la démarche tant que l'on
peut dériver, on introduit des dérivées troisième , quatrième,..., énième, la seule notation
est alors f (3) (x), f (4) (x), ...,f (n) (x)
Pour une
P série entière f (x) = f (x) = uk xk , on a f (1) (x) = ∞ k−1 ,...,
(0)
P∞ P
0 1 k uk x
f (n) (x) = ∞ n k (k − 1) · · · (k − n + 1) uk x
k−n et en particulier f (0) (0) = u0 , f (1) (0) =
u1 ,...,f (0) = n! un , ce qui permet d'écrire :
(n)


X f (k) (0)
f (x) = xk
k!
0

que l'on appelle développement de Taylor.


On montre qu'il en est de même pour toute fonction indéniment dérivable et un
changement de variable en x = x0 + ξ conduit aisément à la généralisation, appelée déve-
loppement en x0 :

X f (k) (x0 )
f (x) = (x − x0 )k
k!
0

En physique on utilise fréquemment des formules tronquées comme approximations


d'autant meilleures qu'il y a plus de termes, on les appelle développements limités et l'on
note par exemple pour un développement à l'ordre 2 :
f 00 (0) 2
f (x) ≈ f (0) + f 0 (0) x + x + ···
2

Les mathématiciens cherchent à donner une forme au terme négligé ; nous pouvons nous
en dispenser au niveau de ce cours.
Remarque : Le premier terme à coecient non nul d'un développement de Taylor en
x0 d'une fonction est appelée (on simplie la théorie) équivalent de cette fonction en x0 .

12
1.h Fonctions composées.
Soient f et g deux fonctions, on appelle fonction composée de g par f la fonction notée
(en mathématiques) f ◦ g dénie par [f ◦ g](x) = f [g(x)] et l'on montre que :
[f ◦ g]0 (x) = f 0 [g(x)] g 0 (x)

1.i Primitives et intégrales dénies.


Imaginons le problème physique suivant : on dépose une charge Q uniformément ré-
partie sur un segment de droite de longueur L et l'on veut calculer le potentiel électrique
créé en un point particulier M en dehors de ce segment à partir de la dénition première
du potentiel : une charge q en un point P crée en un point M le potentiel q
−−→
4 π ε0 kP M k

Comment passer d'une formule valable pour un point à une formule pour une répartition
continue ? On commence par une approximation : on découpe le segment en N segments
élémentaires égaux de longueur ` = NL et portant la charge q = NQ
ou encore q = λ ` avec
λ = L . Ces segments ne sont certes toujours pas des points mais on les assimile quand
Q

même à une charge ponctuelle q placée au point milieu Pk de chaque segment élémentaire
et l'on propose l'approximation :
N
X q
V (M ) ≈ −−−→
1 4 π ε0 kPk M k

En notant a et b = a + L les abscisses des extrémités du segment, le segment de rang i


est entre les abscisses ak−1 = a + (k − 1) NL et ak = a + k NL (avec a0 = 0 et aN = b) et les
points Pk ont pour abscisses xk = ak−12+ak avec ak−1 < xk < ak et l'on peut alors noter :
N
X
V (M ) ≈ (ak − ak−1 ) f (xk )
1

avec f (x) = λ
−−−→ où Px est le point d'abscisse x. En fait l'approximation reste
4 π ε0 kPx M k
valable même avec des segments élémentaires inégaux pourvu que le plus grand d'entre eux
soit petit et même si dans chaque segment on choisit un autre point que le point milieu.
Une approximation est donc V (M ) ≈ (ak − ak−1 ) f (xk ) avec des ak choisis tels que
PN
1
a0 = a < a1 < a2 < · · · < aN −2 < aN −1 < aN = b, des xk tels que ak−1 6 xk 6 ak pour
tous les k entre 1 et N et avec supN
1 ak − ak−1 assez petit.

L'approximation est d'autant meilleure que supN 1 ak − ak−1 est plus petit et s'il tend
vers 0 (ce qui suppose que N tende vers l'inni), la limite est le potentiel recherché... à
condition que la limite soit indépendante du choix du découpage. Une condition susante
(mais non nécessaire) pour que ce soit le cas est que la fonction f soit dénie et continue,
ce qui est souvent le cas en physique classique. Il est d'usage de noter dx les ak − ak−1 et

13
de remplacer le sigma majuscule de sommation par un S minuscule allongé comme il l'était
à la Renaissance. On note donc cette limite :
Z b
V (M ) = f (x) dx
a

où le nom de la variable n'a aucune incidence sur le résultat ab f (x) dx et f (y) dy ,


R Rb
a
c'est la même chose. On l'appelle intégrale dénie de f sur le segment [a, b]
Reste à calculer cette limite. On se convainc assez aisément que pour des découpages
identiques sur la plage commune aux segments [a, x] et [a, x + Rε] et un seul segment élé-
mentaire ailleurs avec le choix du point au début du segment, a R f (ξ) dξ et a f (ξ) dξ
x+ε Rx

dièrent de ε f (x). De là on démontre que la dérivée de F (x) = ax f (ξ) dξ est f (x). La


fonction F de dérivée f est appelée primitive de f ; elle est dénie à une constante additive
près. Si F est l'une des primitives de f , on a alors (c'est assez évident) :
Z b
f (x) dx = F (b) − F (a)
a

On note souvent F (b) − F (a) = [F (x)]ba


Remarque 1 : au vu de la façon dont on a introduit les choses, on a :
Z a Z b
f (x) dx = − f (x) dx
b a

Remarque 2 : il est facile de sentir, plus délicat de démontrer proprement que :


Z c Z b Z c
f (x) dx = f (x) dx + f (x) dx
a a b

mais il faut bien laisser du travail aux mathématiciens.


Remarque 3 : Si a ou b est inni, il sut de connaître F (∞) ou F (−∞) selon le cas.
De même si F est discontinue en a ou en b, il sut de connaître la limite à droite de F
en a ou à gauche en b et si la discontinuité est en c entre a et b, on utilise au préalable la
remarque 2.
Reste à apprendre à calculer les primitives.

1.j Calcul des primitives et des intégrales dénies.


Il est toujours délicat de trouver la primitive d'une fonction qui sort un peu de l'ordi-
naire. Les logiciels de calcul formel sont d'une aide appréciable mais passent parfois à côté
d'une primitive qu'ils ne  voient  pas. Un ami mathématicien est une valeur sûre. Nous
nous contenterons ici de quelques techniques classiques.

14
• Reconnaître la dérivée d'une fonction connue.
Si dans f , on reconnaît, à une constante multiplicative près, la dérivée classique d'une
autre fonction c'est gagné. La primitive de xn est xn+1 pour n positif, négatif ou nul, entier,
n+1

fractionnaire et même réel, sauf toutefois pour n = −1 mais alors on sait que x1 a pour
primitive ln x.
On aura en tête les dérivées des fonctions trigonométriques et hyperboliques inverses
qui sont d'un précieux secours.

• Changement de variable.
Si l'on arrive à mettre f (x) sous la forme f (x) = g 0 [h(x)] h0 (x) alors une primitive est
F (x) = g[h(x)] (cf supra). Dans la pratique, on matérialise la démarche par un changement
de variable. Prenons un exemple, soit à calculer :
Z π
2 cos ϕ
I= p dϕ
0 1 + sin2 ϕ

On a bien une forme f (ϕ) = g 0 [h(ϕ)] h0 (ϕ) avec h0 (ϕ) = cos ϕ d'où h(ϕ) = sin ϕ et
g déni par g 0 (t) = √1+t
1
2
dont il faudra trouver la primitive qui n'est autre (cf supra)
que l'argument-sinus hyperbolique. Dans la pratique, on présente ainsi : on pose t = sin ϕ
d'où 3 dt = cos ϕ dϕ et on change les bornes en remplaçant les bornes relatives à ϕ par les
valeurs correspondantes de t, soit dans notre exemple :
Z 1
1
I= √ dt = [argsh(t)]10 = argsh(1)
0 1 + t2

Attention, il y a une contrainte essentielle : la nouvelle variable doit être une fonction
monotone (croissante ou décroissante) de la première dans l'intervalle d'intégration.
Un usage courant est de se ramener à des fonctions dont R on 6connaît la primitive en
escamotant les constantes multiplicatives. Pour calculer I = ab √1+4 x2
dx, on pose y = 2 x
d'où dy = 2 dx et :
Z 2b
1
I=3 p dy = 3 [argsh(2 b) − argsh(2 a)]
2a 1 + y2

Un autre usage classique permet d'éviter la linéarisation de fonctions trigonométriques.


R π2
Soit à calculer I = 0 cos (x) dx que l'on réécrit ainsi :
3

Z π Z π Z π
2 2 2
3 2
I= cos (x) dx = cos (x) cos(x) dx = [1 − sin2 (x)] cos(x) dx
0 0 0
dt
3. A partir de la dérivée dt

, les mathématiciens introduisent la diérentielle dt = dϕ et montrent

la validité de ce qui suit.

15
On pose t = sin(x) d'où dt = cos(x) dx, d'où :
1 1
t3
Z 
2 2
I= (1 − t ) dt = t − =
0 3 0 3

Cette méthode convient pour tous les monômes trigonométriques en cosp (x) sinq (x) où
au moins un des deux entiers p et q est impair (sinon, voir plus loin).

• Intégration par parties.


Si la fonction f à intégrer se factorise sous une forme f (x) = g(x) h0 (x), on utilise la
formule de dérivation du produit g h pour armer que :
Z b Z b Z b Z b
g(x) h0 (x) dx = [g(x) h(x)]0 dx − g 0 (x) h(x) dx = [g(x) h(x)]ba − h(x) g 0 (x) dx
a a a a

Avec
R 2 un peu de chance, on tombe0 sur une intégration plus aisée ; l'exemple classique
est 1 ln(x) dx où g(x) = ln(x) et h (x) = 1 d'où g (x) = x1 et h(x) = x (on choisit la
0

constante d'intégration la plus simple possible bien sûr) et l'on a :


Z 2 Z 2
1
ln(x) dx = [x ln(x)]21 − x dx = · · · = 2 ln(2) − 1
1 1 x

• Cas des fractions rationnelles.


C'est assez technique et, dans le cas le plus général, il vaut mieux se reporter à un
cours de mathématiques. Nous ne traiterons ici que le cas le plus fréquemment rencontré
en physique, des fonctions de la forme (x−α) (x−β) (on prendra par exemple Cte = 1). Il
Cte

sut de chercher les constantes A et B telles que :


1 A B
= +
(x − α) (x − β) (x − α) (x − β)

Si l'on multiplie membre à membre par (x − α) puis que l'on donne à x la valeur α on
tire successivement :
1 B (x − α)
=A+
(x − β) (x − β)
1
=A+0
(α − β)

On procède symétriquement pour calculer B et l'on a :


 
1 1 1 1
= −
(x − α) (x − β) (α − β) (x − α) (x − β)
1
dont une primitive est [ln(|x − α|) − ln(|x − β|)]
(α − β)

16
• Linéarisation de fonctions trigonométriques.
Soit à intégrer une fonction cos2 p (x) sin2 q (x) ; la méthode précedemment exposée ne
convient pas car les exposants sont tous deux pairs. On utilise les formules de trigonométrie
pour abaisser les exposants :
 p  q
2p 2q 1 + cos(2 x) 1 − cos(2 x)
cos (x) sin (x) =
2 2

et l'on développe cette expression en somme de monônes. Ceux dont au moins un des
exposants est impair sont traités aisément par la méthode précédente et pour les autres, on
réitère le processus. On peut aussi utiliser un logiciel de calcul formel qui sera plus rapide.

1.k Equations diérentielles.


Une équation diérentielle d'ordre 1 est une expression de la forme F (y 0 , y) = 0 et
l'on appelle solution de cette équation diérentielle toute fonction y telle que (on appelle
la variable x de façon arbitraire) F [y 0 (x), y(x)] est la fonction nulle (au moins sur un
intervalle de validité).
Une équation diérentielle d'ordre 2 est une expression de la forme F (y 00 , y 0 , y) = 0 et
l'on appelle solution de l'équation diérentielle toute fonction y telle que F [y 00 (x), y 0 (x), y(x)]
est la fonction nulle (au moins sur un intervalle de validité).
Sur le même principe, on dénit les équations diérentielles de tout ordre, mais en
physique, on rencontre surtout les ordres 1 et 2.
Les seules équations diérentielles qu'un physicien doive savoir absolument résoudre
sont les équations à variables séparées et les équations linéiaires (voir ci-dessous). Pour tout
autre type d'équation, il ne faut pas rougir de demander l'aide d'un 4 ami mathématicien
car, sauf rares exceptions, il sera ravi vous rendre ce service.

• Equations diérentielles d'ordre un à variables séparés.


Les équations diérentielles d'ordre 1 à variables séparées sont celles que l'on peut
mettre sous la forme f (y) dx
dy
= g(x) ou, si l'on préfère f (y) dy = g(x) dx. Si F et G sont
des primitives de f et g , on montre que les solutions vérient F (y(x)] = G(x) soit encore
en introduisant F −1 , fonction réciproque de F :

y(x) = F −1 [G(x)]

4. Le français possède un genre neutre qui se confond dans ses formes avec le masculin. Un ami ma-
thématicien peut parfaitement être une amie mathématicienne. Ce n'est pas moi qui suis sexiste, c'est la
langue.

17
Remarque 1 : F et G sont dénies à deux constantes additives près, dont seule la
diérence importe. Si l'on connaît, à un instant initial les valeurs de x et y , on peut
déterminer cette constante.

• Equations diérentielles linéaires.


Les équations diérentielles linéaires d'ordre 1 sont celles que l'on peut mettre sous la
forme (on appelle la variable x de façon arbitraire) :
dy
a(x) + b(x) y(x) = c(x)
dx

Soit yP (x) une solution particulière de cette équation ; toutes les autres solutions sont
de la forme y(x) = yP (x) + Y (x) où Y (x) est solution de l'équation dite homogène ou sans
second membre :
dY
a(x) + b(x) Y (x) = 0
dx

Celle-ci est à variables séparées ; en eet, on peut l'écrire Y1 dY


dx = − a(x) et l'on sait
b(x)

donc la résoudre (cf supra). Reste donc à savoir comment trouver une solution particulière
à la solution avec second membre. Il n'y a pas de méthode universelle pour cela et le seul
cas qu'il faille savoir traiter est celui où a(x) et b(x) sont des constantes ; on réécrit alors
l'équation ainsi :
dy
a + b y(x) = c(x)
dx
Une méthode qui convient souvent est de chercher une solution de la même forme que
la fonction c(x). Si c'est un polynôme de degré n, on cherche une solution polynomiale de
même degré, si c'est une fonction exponentielle, on on cherche une solution exponentielle
de même constante, si c'est une fonction trigonométrique, on on cherche une solution
trigonométrique de même pulsation (sous forme de combinaison de sinus et de cosinus),
etc.
Dans le dernier cas, la méthode des amplitudes complexes est très confortable ; elle est
abondamment détaillée dans le chapitre sur les oscillateurs et nous n'y reviendrons pas ici.
Pour les équations diérentielles linéaires d'ordre 2 que l'on peut mettre sous la forme :
d2 y dy
a(x) + b(x) + c(x) y(x) = d(x)
dx2 dx

la recherche d'une solution particulière se mène de la même façon quand a(x), b(x)
et c(x) sont des constantes et il n'y a pas plus de méthode générale si elles ne le sont
pas. Par contre la résolution de l'équation homogène n'est plus simple. On peut montrer
que l'ensemble des solutions est l'ensemble des combinaisons linéaires de deux solutions
non proportionnelles (c'est donc un espace vectoriel de dimension 2, voir plus loin) mais il

18
n'y a aucune méthode générale pour trouver ces deux solutions-là. Il faut toutefois savoir
que si une astuce a permis d'en trouver une, qu'on note Y1 , on est sauvé : on pose alors
Y (x) = f (x) Y1 (x) que l'on reporte dans a(x) ddxY2 + b(x) dY
dx + c(x) Y (x) = 0 pour obtenir
2

succesivement :

a(x) [f 00 Y1 + 2 f 0 Y10 + f Y100 ] + b(x) [f 0 Y1 + f Y10 ] + c(x) f Y1 = 0

a(x) Y1 f 00 + [2 a(x) Y10 + b(x) Y1 ] f 0 + [a(x) Y100 + b(x) Y10 + c(x) Y1 ] f = 0

d'où puisque Y1 est solution ce qui annule le coecient de f et en posant F = f 0 :


dF
a(x) Y1 (x) + [2 a(x) Y10 (x) + b(x) Y1 (x)] F = 0
dx

qui est une équation homogène d'ordre 1 que l'on sait résoudre par séparation des
variables.

1.l Fonctions de plusieurs variables.


Nous prendrons l'exemple de fonctions à deux variables notées ici x et y .

• Dérivées partielles.
La dérivée partielle de f (x, y) par rapport à x, notée ∂f
∂x est la dérivée de f (x, y) où
l'on considère y comme un paramètre constant. Par exemple, on n'est pas troublé par
l'armation que la dérivée de la fonction f (x) = a x2 est dfdx = 2 a x ; on ne devrait pas
plus être troublé par l'armation que la dérivée partielle de f (x, y) = y x2 est ∂f
∂x = 2 y x.
Considérer y comme une constante c'est l'assimiler à un paramètre comme l'est le a de
a x2 . On dénit de même ∂f∂y .

Si f est fonction de x et y , il en est de même pour ses dérivées partielles ∂f∂x et ∂y dont
∂f

on peut donc calculer,


  pour chacune,  les dérivées partielles
  par 2rapport aux deux
 variables.
2 ∂2f ∂2f
On note ∂∂xf2 = ∂x
∂ ∂f
∂x , ∂y 2
= ∂ ∂f
∂y ∂y , ∂x∂y = ∂
∂x ∂y
∂f
et ∂ f
∂y∂x = ∂ ∂f
∂y ∂x .
Le théorème de Schwarz, arme que sous certaines conditions, les dérivées partielles
∂2f ∂2f
croisées, c'est-à-dire ∂x∂y et ∂y∂x sont égales. C'est vrai si ces dérivées secondes sont
dérivables, mais c'est parfois vrai quand elles ne le sont pas.

• Equations aux dérivées partielles.


Il s'agit de trouver ici les solutions d'une équation diérentielle qui relie les dérivées
partielles d'une fonction de plusieurs variables. C'est un sujet mathématiquement épineux

19
et il n'y a pas grand chose de systématique pour nous aider. Les seules qu'un physicien
doive savoir gérer sont d'une part l'équation de propagation :

∂2f 2
2 ∂ f
= c
∂t2 ∂x2

qui est abondamment traitée dans le chapitre D-II sur les ondes stationnaires (solutions
factorisées) et progressives (solutions progressives) et d'autre part l'équation de diusion :

∂f ∂2f
=D 2
∂t ∂x

qui est abondamment traitée dans le chapitre E-X sur la diusion. Nous renvoyons le
lecteur à ces chapitres.

1.m Fonctions à valeurs vectorielles.


On étudie ici des fonctions dont les valeurs sont des vecteurs dans un espace vectoriel
de dimension nie, réel ou complexe.
Une fois que l'on a compris que les dérivations, intégrations, résolution d'équations
diérentielles se mènent composante 5 à composante, tout est dit.

2 Algèbre linéaire.

2.a Espaces vectoriels et sous-espaces vectoriels.


• Espaces vectoriels.
On appelle espace vectoriel sur l'ensemble des réels ou des complexes un ensemble
d'éléments appelés vecteurs, qu'on note ici →
−u, →−v et analogues, muni
 d'une loi d'addition entre vecteurs
 commutative : → −u +→ −v =→−v +→−u pour tout → −
u et tout →

v
 associative : →

u + (→−
v +→ −
w ) = (→
−u +→ −v )+→ −
w pour tout →−
u , tout →

v et tout →

w , ce

− →
− →

qui permet d'écrire u + v + w puisque l'ordre des opérations est indiérent

− →
− −
 avec un élément neutre noté 0 tel que pour tout → −v, 0 +→ v =→ −
v

− →
− →
− →
− →

 et telle que tout v ait un opposé noté − v tel que v + (− v ) = 0
 une loi de multiplication mixte entre un scalaire réel ou complexe (noté ici λ, µ et
analogues) et un vecteur
 distributive vis-à-vis du vecteur : λ · (→
−u +→−
v ) = λ·→−
u +λ·→ −v pour tout λ, tout

− →

u et tout v
5. composantes sur la base vectorielle choisie.

20
 distributive vis-à-vis du scalaire : (λ + µ) · →

u = λ·→ −u +µ·→ −
u pour tout λ, tout
µ et tout →−u
 associative vis-à-vis du scalaire : (λ µ) · →

u = λ · (µ · →
−u ) pour tout λ, tout µ et
tout u→

 et telle que l'unité scalaire (notée 1 bien sûr) en soit l'élément neutre à gauche :
1·→−u =→ −
u pour tout → −
u
On en déduit assez aisément les propriétés suivantes :


 on a 0 · →

u = 0 pour tout → −
u

− →

 on a λ · 0 = 0 pour tout λ
 on a (−λ) · →
−u = −(λ · →−
u ) pour tout scalaire λ et tout →

u
 on a λ · (−→
−u ) = −(λ · →

u ) pour tout scalaire λ et tout →

u
Cette présentation axiomatique ne doit pas cacher que les calculs se mènent exactement
comme on voudrait qu'ils le fussent.

• Exemples d'espaces vectoriels.


L'ensemble des déplacements dans un plan ou dans l'espace (un déplacement pouvant
être décrit par  1,52 m vers l'avant, 0,73 m vers la gauche et 2,01 m vers le bas ) est un
espace vectoriel.
L'ensemble de fonctions d'une variable en est un autre (la fonction f + g est telle
que pour tout x, (f + g)(x) = f (x) + g(x) et la fonction λ · f telle que pour tout x,
(λ · f )(x) = λ f (x))
L'ensemble des suites (ou des séries) numériques en est un troisième (même type de
dénition de la somme de deux suites et de son produit par un scalaire).
La vérication de ces armations est aisée à eectuer.

• Sous-espaces vectoriels.
Si E est un espace vectoriel et si F , sous-ensemble de E , est lui aussi un espace vectoriel,
on dit que E est un sous-espace vectoriel de E .
On montre (c'est assez simple) que F est sous-espace vectoriel de E si et seulement si,
pour tout couple de scalaires λ et µ et tout couple de vecteurs →

u et →

v de F , la combinaison
linéaire λ · →

u +µ·→−v appartient elle aussi à F .
Si F1 et F2 sont deux sous-espaces vectoriels de E , il en est de même pour leur intersec-
tion F1 ∩ F2 (au sens ensembliste). Cette intersection n'est jamais vide mais peut se réduire


à l'ensemble { 0 } formé par le seul vecteur nul.
Si F1 et F2 sont deux sous-espaces vectoriels de E , il en est de même pour l'ensemble


F = F1 +F2 des sommes d'un vecteur de F1 et d'un vecteur de F2 . Si de plus F1 ∩F2 = { 0 },
on dit que F est somme directe de F1 et F2 et l'on note F = F1 ⊕ F2 . Dans ce cas tout

21
vecteur de F se décompose de façon unique en somme d'un vecteur de F1 et d'un vecteur
de F2 .

• Exemples de sous-espaces vectoriels.


Dans l'espace vectoriel des suites, sont des sous-espaces vectoriels, entre autres, les
ensembles des suites bornées, des suites convergentes, des suites vériant une relation de
récurrence linéaire.
Dans l'espace vectoriel des fonctions d'un variable réelle, sont des sous-espaces vecto-
riels, entre autres, les ensembles des fonctions continues (sur R ou sur un intervalle donné),
des fonctions dérivables (idem), des solutions d'une équation linéaire homogène (cf supra).
Soit une famille nie ou innie (dénombrable ou non) de vecteurs → −v i d'un espace
vectoriel, on peut montrer (pas dicile mais très subtil) que le plus petit sous-espace
vectoriel qui les contienne tous est l'ensemble des combinaisons linéaires d'un nombre ni
de ces vecteurs.

2.b Indépendance linéaire. Bases vectorielles. Espaces vectoriels de di-


mension nie.
• Vecteurs linéairement indépendants.
Un ensemble (ou famille ) ni de vecteurs {→

u 1, →

u 2, · · · , →

u n } est dit libre ou linéai-
Pn → − →

rement indépendant si la relation 1 λi u i = 0 n'est possible que si les λi sont tous
nuls.
Si ce n'est pas le cas, au moins un des vecteurs de la famille peut s'exprimer comme
une combinaison linéaire de tous les autres.

• Famille génératrice et base d'un espace vectoriel de dimension nie.


Un ensemble (ou famille ) ni de vecteurs {→ −
u 1, →

u 2, · · · , →

u n } d'un espace vectoriel E
est dit générateur si tout vecteur de E peut s'écrire sous forme d'une combinaison linéaire
des vecteurs de cet ensemble.
Un ensemble à la fois libre et générateur est qualié de base de l'espace vectoriel. Toutes
les bases d'un espace vectoriel, s'il en existe, contiennent le même nombre qu'on appelle
alors dimension de l'espace vectoriel que l'on dit de dimension nie. Si ce n'est pas le cas,
on dit qu'il est de dimension innie et l'on est alors obligé de mélanger algèbre linéaire
et analyse (convergence de sommes innies ou d'intégrales) ; on n'aborde en physique ce
délicat problème que dans les séries de Fourier et transformations de Fourier (voir dans
les chapitres où c'est utile).

22
Dans toute la suite de cet exposé, on ne parlera plus que d'espaces vectoriels de dimen-
sion nie.
Dans un espace vectoriel de dimension nie et pour une base donnée, tout vecteur se
décompose de façon unique en une combinaison linéaire des vecteurs de la base.

2.c Formes linéaires. Applications linéaires. Matrices.


• Formes linéaires.
Soit E un espace vectoriel sur l'ensemble des réels R (ou des complexes C) ; on appelle
forme linéaire une fonction f de E sur R (ou sur Z) telle que pour tout couple de scalaires
λ et µ et pour tout couple de vecteurs → −
u et →

v , on ait :
f (λ · →

u +µ·→

v ) = λ · f (→

u ) + µ · f (→

v)

Pour tout vecteur →



u se décomposant sur une base donnée {→
− u = n1 uk →
v k } en →
− −
v k,
P
on a alors :
n n
!
f (→
− uk →
− uk f (→

X X
u) =f vk = v k)
1 1

En notant ak = f (→

v k ), on a donc f (→
− ak uk .
Pn
u) = 1

Si l'on appelle fi la forme linéaire telle que fi (→



v k ) est égal à l'unité si k = i et égal à

− →

zéro sinon, alors fi ( u ) = ui d'où, pour tout u :
n
f (→
− ak fk (→

X
u) = u)
1
.
d'où l'on peut déduire que f s'écrit comme fonction linéaire de fk sous la forme :
n
X
f= ak fk
1

ce qui prouve que l'ensemble des formes linéaire d'un espace vectoriel E est lui aussi
un espace vectoriel, appelé espace dual, noté E ∗ , de même dimension que E et dont une
base, appelée base duale est l'ensemble des fk dénis à partir de la base de E .
On peut aller plus loin, en étudiant les formes linéaires sur cet ensemble dual, pour
construire un ensemble bidual, notée E ∗∗ et dont nous noterons Φ les éléments. Mais on
peut alors créer une bijection entre E et son bidual qui à tout vecteur → −
u associe Φ−→u déni
par Φ−→ (f ) = f (→−
u ) pour toute forme linéaire f , ce qui permet d'assimiler, à une bijection
u
près, E et son bidual. Nous admettrons que, pour un espace vectoriel de dimension innie,
cette construction ne dénit plus une bijection mais une simple injection et l'on peut
trouver dans le bidual des choses étranges (voir les indications sur les distributions dans le
chapitre A-X).

23
• Applications linéaires.
Soit E et F (éventuellement égal à E ) deux espaces vectoriels ; on appelle application


linéaire 6 une fonction f de E sur F telle que pour tout couple de scalaires λ et µ et pour
tout couple de vecteurs →−u et →

v , on ait :

− →
− − →
− −
f (λ · →

u +µ·→

v ) = λ · f (→
u ) + µ · f (→
v)

Pour tout vecteur →



u de E de dimension n se décomposant sur une base donnée {→

v j}

− P j=n →

de E en u = j=1 uj v j , on a alors :
n

− → X → − −
f (−
u) = uj f (→
v j)
1


− → − →
− →
− →
Si l'on décompose chacun des f ( v j ) sur une base donnée { w i } de F en f (−
v j) =


i=1 aij w i , on a :
Pi=m
n i=m

− →
f (− uj aij →

XX
u) = wi
1 i=1


− −
Remarque : si l'on note Ui →

w i la décomposition de f (→
u ) sur la base de F , on a
Pi=m
i=1
donc :
n
X
Ui = aij uj
1

En raisonnant comme pour les forme linéaires, on en déduira que l'ensemble des appli-
cations linéaires de E dans F est un espace vectoriel de dimension égale au produit des
dimensions de E et F , soit avec nos notations n m.
L'application linéaire pourra être décrite par le tableau à m lignes et n colonnes des aij
que l'on appellera matrice associée à l'application linéaire. Nous y reviendrons sous peu.

• Noyau et image d'une application linéaire.



− →

Si f est une application linéaire de E dans F , on appelle noyau de f le sous-espace

− →
− − →

vectoriel (éventuellement réduit au seul 0 ) dans E des vecteurs tels que f (→u ) = 0 et

− →
− −
on appelle image de f le sous-espace vectoriel dans F de tous les vecteurs f (→u ).
On démontre que la somme des dimensions du noyau et de l'image est égale à celle de
l'espace vectoriel de départ (soit E ).
6. selon que E et F sont égaux ou non, que la fonction est bijective ou non, les mathématiciens la
baptise homo-, endo-, iso- ou auto-morphisme.

24
• Produit d'applications linéaires et de matrices.

− →

Soit une application linéaire f de E de base {→

e k } de dimension n dans F de base { f j }

− − →

de dimension m qui à u = k=1 uk e k fait correspondre →

− k=n →
− −v = f (→
u ) = j=mj=1 vj f j avec
P P

vj = k=1 ajk uk (cf supra).


Pk=n



Soit une application linéaire →

g de F de base { f j } de dimension m dans G de base

− →
− →
− →
− →
− →− Pi=p → −
{ g i } de dimension p qui à v = j=mj=1 vj f j fait correspondre w = g ( v ) =
P
i=1 wi g i
avec wi = j=1 bij vj (cf supra).
Pj=m

On dénit le produit de ces applications, noté g ◦ f par

g ◦ f (→

u ) = g[f (→

u )]

qui à →
− uk →

e k fait correspondre →

w =→

g (→
− Pi=p →
wi −
g i avec :
Pk=n
u = k=1 v ) = i=1

j=m k=n
!
X X
wi = bij ajk uk
j=1 k=1

Si on la considère comme une application linéaire de E dans G avec wi = uk ,


Pk=n
k=1 cik
on aura alors :
j=m
X
cik = bij ajk
j=1

Cette relation dénit le produit des matrices associées aux applications linéaires.
Remarque importante : Le produit d'applications linéaires et donc de matrices n'est
pas commutatif 7 .

• Matrice carrées.
Il s'agit de matrices telles que le nombre n de lignes et m de colonnes sont égales.
La transposée d'une matrice (M ) de coecients aij , est une matrice notée t (M ) de
coecients bij tels que bij = aji . Si M est le produit de deux matrices, que l'on note ici
(M ) = (A) (B), on a (notez l'inversion de l'ordre) :
t
(M ) = t (B) t (A)

Une matrice (M ) est dite symétrique si t (M ) = (M ) et antisymétrique si t (M ) = −(M )


(ses termes diagonaux sont alors nuls). Toute matrice est somme, d'une façon unique, d'une
matrice symétrique ( 12 [(M ) + t (M )]) et d'une matrice anti-symétrique ( 12 [(M ) − t (M )]).
7. La question ne se pose en fait que si E = F = G et donc n = m = p.

25
L'inverse d'une matrice (M ) est, si elle existe, une matrice notée M −1 telle que :
(M )−1 (M ) = (M ) (M )−1 = (Id)

Où (Id) est la matrice unité de coecients Iij nuls si i 6= j et égaux à l'unité si i = j


(c'est la matrice associée à l'application identité). Si M est le produit de deux matrices,
que l'on note encore (M ) = (A) (B), on a (notez encore l'inversion de l'ordre) :
(M )−1 = (B)−1 (A)−1

Soit une application d'un espace vectoriel E dans lui-même de matrice (M ), carrée
donc. Eectuons un changement de base passant des n vecteurs {→ −e j } aux n vecteurs

− →
− →

{ f i } dénis par f i = j=1 pij e j . Assimilons le tableau des coecients pij à une matrice
Pj=n
carrée, appelée matrice de passage. Avec cette nouvelle base, la même application a une
nouvelle matrice noté (M 0 ) telle que :
(M 0 ) = (P )−1 (M ) (P )

2.d Formes bilinéaires et quadratiques, sesquilinéaires et hermitiennes.


Dans un espace vectoriel réel, on appelle forme bilinéaire (notée f ) toute application
qui à un doublet de vecteurs associe un réel et telle que :
f (λ →

u + µ→−v ,→

w ) = λ f (→

u,→−w ) + µ f (→

v ,→−
(
w)

− →
− →
− →
− →
− →
− →

f( u , λ v + µ w ) = λ f( u , v ) + µ f( u , w )

{→
SiP−e i } est une base de l'espace vectoriel et en notant aij = f (→

e i, →

e j ), on a pour

− →
− →

u = ui e i et v =
P →

vj e j :

f (→

u,→

XX
v)= aij ui vj
i j

Une forme bilinéaire est dite symétrique si f (→



u,→

v ) = f (→

v ,→

u ) donc telle que aji = aij
et anti-symétrique si f (→
−u,→−v ) = −f (→−
v ,→

u ) donc telle que aji = −aij (en particulier
aii = 0).
On appelle forme quadratique F associée à une forme bilinéaire symétrique f l'appli-
cation (non linéaire) qui à tout vecteur associe F (→

u ) = f (→

u,→

u ).
Remarque : on montre aisément que f (→

u,→

v)= 1
2 [F (→

u +→

v ) − F (→

u ) − F (→

v )]
Dans un espace vectoriel complexe, on appelle forme sesquilinéaire 8 à droite 9 (notée f )
toute application qui à un doublet de vecteurs associe un complexe et qui soit linéaire pour
8. du suxe latin -sesqui (une fois et demie), contraction de semisque (et un demi).
9. Bien sûr, il existe des formes sesquilinéaires à gauche. Pendant mes études les mathématiciens privi-
légiaient les sesquilinéaires à droite ; désormais ce sont celles à gauche. Quand a eu lieu le changement ? Il
me plaît de croire que c'est en 1981 mais cela relève du fantasme personnel.

26
le premier vecteur et semi-linéaire pour le second, c'est-à-dire telle que :

f (λ →
−u + µ→−v ,→

w ) = λ f (→−u,→−w ) + µ f (→−v ,→−
(
w)

− →
− →
− →
− →
− →
− →

f ( u , λ v + µ w ) = λ̄ f ( u , v ) + µ̄ f ( u , w )

où λ̄ et µ̄ sont les complexes conjugués de λ et µ


{→
SiP−e i } est une base
P de→ l'espace vectoriel et en notant aij = f (→

e i, →

e j ), on a pour

− →
− →

u = ui e i et v = −
vj e j :

f (→

u,→

XX
v)= aij ui v̄j
i j

Une forme sesquilinéaire est dite à symétrie hermitienne si f (→



u,→

v ) = f (→

v ,→

u ) donc
telle que aji = āij .
On appelle forme hermitienne F associée à une forme sesquilinéaire à symétrie hermi-
tienne f l'application (non linéaire) qui à tout vecteur associe F (→

u ) = f (→

u,→

u ).
Remarque : on montre que :
1
f (→

u,→

v ) = [F (→

u +→

v ) + i F (→

u + i→

v ) − (1 + i) F (→

u ) − (1 + i) F (→

v )]
2

2.e Déterminants. Systèmes d'équations linéaires. Inversion de matrices.


• Déterminants.
Si l'on cherche à construire dans un espace vectoriel E de dimension n et de base
{→
−e i } une forme n-linéaire totalement anti-symétrique, c'est-à-dire une fonction de n vec-
teurs à valeurs scalaires, notée f (→

u 1, →

u 2, · · · , →

u n ), qui soit linéaire vis-à-vis de chacun
des vecteurs (cf forme bilinéaire) et anti-symétrique vis-vis de chaque couple de vecteurs
(autrement dit qui change de signe par toute permutation de deux vecteurs), on montre
qu'il n'existe qu'une solution à une constante multiplicative près. On appelle déterminant
celle pour laquelle on obtient l'unité en l'appliquant aux vecteurs de la base pris dans
l'ordre, soit f (→

e 1, →

e 2, · · · , →

e n ) = 1.
Il est d'usage de présenter les n vecteurs →−
u i sous forme d'un tableau assimilé à une
matrice dont les colonnes sont les coordonnées des vecteurs dans la base de E et le dé-
terminant est écrit en remplaçant les parenthèses de la notation matricielle par des barres
verticales, ce qui permet de parler du déterminant d'une matrice. Le calcul pratique de
déterminants est assez technique et il serait trop long de le développer ici, d'autant plus
que les logiciels de calcul formel nous l'épargnent. Le seul qu'il soit utile de connaître est
celui de la dimension 2 :
a11 a12
= a11 a22 − a12 a21
a21 a22

27
Une propriété à connaître : le déterminant d'un produit de deux matrices est égal au
produit des déterminants.

• Systèmes d'équations linéaires. Inversion de matrices.


Là aussi c'est un sujet très technique et très long à développer. Nous nous contenterons
d'un cas particulier dont la connaissance est un puissant outil en physique.
Un système de n équations linéaires à n inconnues notées xi s'écrit sous la forme :



a11 x1 + a12 x2 + · · · + a1n xn = b1

a x + a x + · · · + a x = b
21 1 22 2 2n n 2


· · ·

a x + a x + · · · + a x = b
n1 1 n2 2 nn n n

Si l'on introduit la matrice (A) à n lignes et n colonnes des coecients aij et les matrices
(X) et (B) à n lignes et une colonne, respectivement des inconnues xi et des paramètres
bi , on peut écrire de façon condensée (A) (X) = (B).
On montre que si le déterminant de la matrice (A) (appelé alors déterminant du sys-
tème) est non nul, elle est inversible et le système d'équations a une solution unique qui,
matriciellement, s'écrit (X) = (A)−1 (B). La résolution pratique ne pose pas de problème
majeur et est vraisemblablement déjà connue du lecteur.
En particulier si les bi sont tous nuls (on dit que le système est homogène), on ne déduit
que les inconnues sont elles aussi toutes nulles.
Un corollaire important est que si l'on veut que la résolution d'un système homogène
ne conduise pas à la solution unique où les inconnues sont toutes nulles, il faut que le déter-
minant du système soit nul. C'est ainsi que l'on trouve la plupart du temps les équations
de dispersion (voir la physique vibratoire et ondulatoire).
Si le déterminant d'un système homogène est nul, sauf cas particulier 10 , il existe une
solution dénie à une constante multiplicative près. Les xi n'ont donc pas une valeur unique
mais le rapport de deux des xi est bien déterminé et il importe de le chercher (voir toujours
en mécanique ondulatoire les notions d'impédance).

2.f Diagonalisation. Valeurs propres et vecteurs propres.


• Valeurs propres et vecteurs propres.
Soit f une application linéaire d'un espace vectoriel E de dimension n dans lui-même,
de matrice (A). On appelle vecteur propre et valeur propre associée un vecteur → −
u et un

− →

scalaire λ (réel ou complexe selon la nature de E ) tels que f ( v ) = λ v
10. Pour les spécialistes, ce n'est plus vrai si le système est de rang inférieur à n − 1

28
Si →

v est vecteur propre pour une valeur propres λ, il est aisé de vérier que tout vecteur
µ→

v est lui aussi vecteur propre pour la même valeur propre.
Matriciellement, en notant (Id) la matrice identité (cf supra), on veut :

(A) (V ) = λ (V ) = λ (Id) (V )

soit :
[(A) − λ (Id)] (V ) = (0)

ce qui impose (cf paragraphe précédent) que le déterminant de la matrice (A) − λ (Id),
appelé déterminant caractéristique, soit nul.
L'équation en λ qui exprime que ce déterminant est nul est de degré n (la dimension
de E ) appelée équation caractéristique. Si E est un espace vectoriel complexe, elle admet n
solutions, en général deux à deux distinctes. Dans ce cas, s'il l'on eectue un changement
de base tel que la nouvelle base soit formé de n vecteurs propres correspondant aux n
valeurs propres, dans cette nouvelle base, l'application linéaire a une matrice (A0 ) diagonale
(soit a0ij = 0 si i 6= j et les a0ii sont les valeurs propres). On dit qu'on a diagonalisé la
matrice, ce qui simplie son utilisation ultérieure. S'il existe au moins une racine double,
la diagonalisation n'est pas toujours possible ; on est alors bien obligé de  faire avec .
Si l'espace vectoriel est réel et que deux racines sont imaginaires conjuguées, on essaie
de leur donner un sens physique et si l'on y arrive, on considérera la matrice comme un
cas particulier de matrice à coecients complexes.
Remarque : une fois les valeurs propres trouvées, la recherche des vecteurs propres se
ramène à la résolution d'un système homogène (cf supra).

• Diagonalisation d'une forme quadratique.


Soit, dans un espace vectoriel de dimension n, une forme quadratique F associée à
une forme bilinéaire f à matrice (A) symétrique (cf supra). On peut monter que l'on
peut construire n vecteurs → −v i tels que f (→

v i, →

v j ) soit nul si i et j sont diérents. Si l'on


prend les v i ainsi construits comme vecteurs d'une nouvelle base, on obtient pour la forme
bilinéaire une nouvelle matrice diagonale dont les coecients diagonaux sont la valeurs des
f (→

v i, →

v i ).
La construction n'est pas unique ; par contre, on montre qu'on tombe toujours sur les
mêmes nombres de coecients diagonaux nuls, positifs et négatifs sur la diagonale ; c'est
ce que l'on appelle la signature de la forme quadratique ; par exemple la métrique de la
relativité restreinte dénie par le carré de l'intervalle ds2 = c2 dt2 − dx2 − d2 − dz 2 (on
trouve la convention opposée) est le résultat d'une telle diagonalisation avec une signature
 + − − − .
Remarque : il en va de même pour une forme hermitienne.

29
• Diagonalisation d'une matrice symétrique dans un espace euclidien.
On verra un peu plus loin la notion d'espace euclidien et de base orthonormée. Comme
le lecteur sait vraisemblablement de quoi il s'agit, nous pouvons traiter dès maintenant ce
troisième problème de diagonalisation.
Soit une matrice symétrique réelle (A) considérée comme plongée dans l'ensemble des
matrices complexes (cf supra). Si →
−v de composantes
P vi possiblement complexes, associée
à la valeur propre λ possiblement complexe. On a aij vj = λ vi ; en multipliant par v̄i et
en sommant, on arrive à :
X X XX
λ vi v̄i = aii vi v̄i + aij (vi v̄j + v̄i vj )
i i i j6=i

d'où l'on déduit aisément que λ est réel.




En notant f l'application linéaire associée à (A) égale à t (A) par symétrie, le produit
scalaire par un point, si →
−v et →

w sont deux vecteurs propres associés à des valeurs propres
distinctes λ et µ et (V ) et (W ) les vecteurs colonnes associés et t(V ) et t(W ) les vecteurs
lignes correspondants, on peut écrire puisqu'un scalaire assimilé à une matrice à une ligne
et une colonne est forcément une matrice symétrique :

− →
− − →
− −
v · f (→
w ) = t (V ) (A) (W ) = t t (V ) (A) (W ) = t (W ) t (A) (V ) = t (W ) (A) (V ) = →

w · f (→
 
v)

d'où successivement :

− →
− − →
− −
v · f (→
w) = →

w · f (→v)


v · µ→
−w =→−
w · λ→
−v
(µ − λ) →

v ·→

w =0

d'où, puisque λ et µ sont distincts, →



v et →

w sont orthogonaux.
A partir de là, on démontre assez facilement que l'on peut trouver une nouvelle base
orthonormée dans l'espace vectoriel et dans laquelle l'application linéaire a une matrice
diagonale. En physique dès que l'on croise une matrice diagonale, on se place dans une
base orthonormée où elle devient diagonale, ce qui simplie la suite de l'étude.
Remarque : il en est de même pour une matrice à symétrie hermitienne.

3 Géométrie.

3.a Espaces anes.


De façon parlante, un espace ane est un ensemble d'éléments appelés points tel que
l'ensemble des déplacements d'un point à un autre forme un espace vectoriel. D'un point

30
de vue axiomatique, on dit que A est un espace ane associé à l'espace vectoriel E si à
tout couple ordonné de deux points (notons-les ici M et N ) de A on associe un vecteur de
−−→
E , noté M N de façon que l'on ait les propriétés suivantes :
−−→ −−→ −−→
 pour tout triplet de points M N + N P = M P (relation de Chasles)


 pour tout point M de A et tout vecteur V de E , il y a un point N de A et un seul
−−→ → −
tel que M N = V
−−−→ → −
 pour tout point M , on a M M = 0 (c'est le cas où M et N sont confondus)
−−→ −−→
 pour tout couple de points M et N , on a N M = −M N
où en fait les deux dernières propriétés peuvent se déduire de la première.
Dans la pratique pour repérer un point de l'espace ane A, on choisit un point par-
−−→
ticulier appelé origine, en général nommé O et l'on donne la valeur du vecteur OM ; en
particulier en dimension nie, on donne de ce vecteur ses composantes dans une base de
l'espace vectoriel de E qui forme avec O un repère de A.
L'espace de la physique est ane de dimension 3. On note habituellement →

ex , →

ey et →

ez
la base vectorielle.

3.b Plans et droites d'un espace ane tridimensionnel

Dans un espace ane tridimensionnel, on dénit une droite à partir d'un point par-
ticulier (noté ici A) et d'un vecteur de E (noté ici →

v ) comme l'ensemble des points M
−−→
de A pour lesquels il existe un réel λ tel que AM = λ → −
v (il s'agit d'une représentation
paramétrique de la droite, le paramètre est λ).
Dans un espace ane tridimensionnel, on dénit un plan à partir d'un point particulier
(noté ici A) et de deux vecteurs de E (notés ici →

v et →

w ) comme l'ensemble des points M
−−→
de A pour lesquels il existe deux réels λ et µ tels que AM = λ →−
v + µ→−w (il s'agit d'une
représentation paramétrique du plan, les paramètres sont λ et µ).
On montre assez facilement que si tout point M de A est repéré par ses coordonnées
−−→
(on note par exemple OM = x → −
ex + y →

ey + z →

ez ), l'ensemble des points d'un plan vérie une
relation de la forme a x + b y + c z = d où a, b, c et d sont des constantes ; cette relation
est l'équation cartésienne du plan, ce qui est une autre façon de représenter un plan).
En général, deux plans se coupent selon une droite et les équations de ces deux plans
sont une représentation cartésiennes de la droite.
Un plan est un espace ane de dimension deux, on peut y dénir une droite de façon
paramétrique comme ci-dessus ; si l'on choisit un repère pour le plan, un droite y aura une
équation cartésienne de la forme a x + b y = c

31
3.c Barycentre.
Soient un ensemble de points Mi et un ensemble de coecients réels mi de somme non
nulle, on dénit le barycentre G des points Mi aectés des coecients mi par la relation :
X −−→ → −
mi GAi = 0

−−→ −−→ −−→


Comme la relation de Chasles permet, avec l'origine O, d'écrire GMi = OMi − OG,
on a successivement : −−→ −−→ →
X −
mi OMi − OG = 0
X −−→ X  −−→
mi OMi = mi OG
X −−→ X  −−→
mi OMi = mi OG
P −−→
−−→ mi OMi
OG = P
mi
−−→ −−→
Le barycentre existe donc et est unique. La relation mi OMi = ( mi ) OG sert
P P
parfois de dénition au barycentre.
Remarque : on montre avec le même type de calcul que si la somme de mi est nulle
−−→
l'application qui à tout point P associe mi Mi P est une fonction constante.
P

3.d Espaces anes euclidiens.


Un espace ane est dit euclidien si on munit l'espace vectoriel associé (lui aussi qualié
d'euclidien) d'une forme quadratique F à signature  + + + (cf supra). On a vu plus
haut que l'on peut choir une base vectorielle qui rende la matrice de la forme quadratique
diagonale ; en remplaçant les vecteurs de la base par des vecteurs bien choisis qui leur soient
proportionnels, on arrive aisément à rendre la matrice égale à la matrice unité. On note

− →−
désormais v · w pour F (→ −
v ,→
−w ) et l'on dit qu'il s'agit du produit scalaire des deux vecteurs ;
si ce produit est nul, on dit que les deux vecteurs sont orthogonaux ou perpendiculaires.

− →

q
On note aussi k→ −
vk= v · v , que l'on appelle norme du vecteur →−v ; si celle-ci est égale à
l'unité, on dit que le vecteur est normé. Les trois vecteurs de la base sont, par construction,
normés et deux à deux orthogonaux ; la base est dite orthonormée.
Un espace euclidien n'a pas qu'une seule base orthonormée. Dans un changement de
base orthonormée, la matrice de passage (P ) (cf supra) a ces vecteurs colonnes identiques

− → − →

aux vecteurs de la nouvelle base (on note e01 , e02 et e03 ses vecteurs). Si on la multiplie par
sa transposée t (P ), les règles de calcul du produit de matrices (cf supra) montre que le
coecient sur la ligne d'indice i et la colonne d'indice j du produit t (P ) (P ) n'est autre que

− →

le produit scalaire de e0i par e0j donc 1 si i = j et 0 sinon. Le produit est donc la matrice

32
unité ce qui prouve que la matrice inverse de (P) est sa transposée, aisée à calculer. On dit
que (P) est une matrice unitaire.
On peut montrer que le déterminant de la matrice de passage est égal à ±1 ; s'il est
égal à 1, on dit que la nouvelle base est directe, s'il est égal à −1, qu'elle est indirecte.

3.e La trigonométrie plane par la géométrie.


Soit une droite d'un plan dénie par un point et un vecteur → −
u choisi unitaire. Si le

− →

repère orthonormée du plan est notée (O, ex , ey ), on dit que l'angle que fait la droite avec

− → −
l'axe Ox ou que fait →−
u avec →

ex est l'angle ϕ déni à 2 k π près tel que u · ex = cos ϕ et

− → −
u · ey = sin ϕ. On a donc :


u = cos ϕ →

ex + sin ϕ →

ey


− →

Prenons comme nouvelle base du plan e0x = → −u et e0y = − sin ϕ →−
ex + cos ϕ →

ey ; on


vérie aisément qu'elle est orthonormée directe. Soit un vecteur unitaire v qui fait avec

−0
ex l'angle ψ ; on a successivement :


− →
− →

v = cos ψ e0x + sin ψ e0y



v = cos ψ (cos ϕ →

ex + sin ψ →

ey ) + sin ϕ (− sin ϕ →

ex + cos ϕ →

ey )


v = (cos ψ cos ϕ − sin ψ sin ϕ) →

ex + (cos ψ sin ϕ + sin ψ cos ϕ) →

ey


v = cos(ψ + ϕ) →

ex + sin(ψ + ϕ) →

ey

ce qui prouve que →


−v fait avec →

ex l'angle ψ + ϕ, somme des angles que sont →−
u avec → −
ex

− →

et v avec u ; il y a additivité des angles géométriques, avec une analogie avec la relation
de Chasles.

3.f Le triangle
La gure 1 p. 34 permet de visualiser les propriétés classiques d'un triangle de sommets
A1 , A2 et A3 :
 Les trois médianes (en rouge) qui joignent les trois sommets aux milieux I1 , I2 et
I3 des côtés opposés se coupent en un point G, appelé centre de gravité du triangle.
Le point G se trouve au tiers de chaque médiane, celui le plus éloigné du sommet.
 Les trois hauteurs (en bleu), c'est à dire les perpendiculaires aux trois côtés joignant
les sommets opposés aux pieds des hauteurs H1 , H2 et H3 se coupent en un point H ,
appelé orthocentre du triangle.
 Les trois médiatrices (en vert), c'est à dire les perpendiculaires aux trois côtés
passant par leurs milieux I1 , I2 et I3 se coupent en un point O, qui est le centre du
cercle circonscrit (en vert) au triangle passant par ses sommets.

33
 Les trois bissectrices (en orange), c'est à dire les droites issues des sommets et qui
divisent les angles en deux parties égales se coupent en un point C , qui est le centre
du cercle inscrit (en orange) au triangle tangent à ses côtés.

A1
H3
H2
H
!
I 3! I2
! C
!
G
! O !
!
A2 I1 H1 A3
!
!

! ! ! !

Figure 1  Cercle d'Euler.

On démontre en outre les propriétés suivantes 11 :


 le centre O du cercle circonscrit, le centre de gravité G et l'orthocentre H sont
alignés et l'on appelle droite d'EULER la droite qui les contient. Le point G est au
tiers de OH , celui le plus proche de O.
 le milieu du segment OH est centre d'un cercle, appelé cercle d'EULER ou cercle
de FEUERBACH, passant par les trois pieds des hauteurs, les trois milieux des côtés
et les trois milieux des segments joignant les sommets au centre de gravité, c'est
pourquoi on l'appelle plus souvent le cercle des neuf points.
 Le cercle des neuf points est tangent au cercle inscrit (théorème de Feuerbach).
Appelons, comme le montre la gure 2 p. 35, `1 la longueur du côté opposé au sommet
A1 , c'est-à-dire le côté A2 A3 , (et analogues) et ϕ1 , l'angle au sommet A1 , c'est-à-dire l'angle
entre les côtés A1 A2 et A1 A3 (et analogues).
Les deux propriétés suivantes sont intéressantes et d'un usage courant :
 Connaissant un angle et la longueur des deux côtés qui le forme, on calcule la lon-
gueur de troisième par la formule dite d'Al-Kashi 12 ou de Pythagore généralisée,

11. Je doute fort qu'elles soient utiles au physicien mais je mène un combat d'arrière garde pour la survie
de la géométrie.
12. nom apparu en France dans les années 1990, celui d'un mathématicien perse (1380 - 1429) mais le
résultat était connu d'Euclide (vers 300 avant J. C. ?), sous une forme voisine, faute de trigonométrie.

34
A1
"1

!
l3 l2
!

!" ! "3
2
A2 A3
l1

!
! Figure 2  Formule d'Al-Kashi.
!
!
!

par exemple :
`23 = `21 + `22 − 2 `1 `2 cos ϕ3
 les trois angles et les trois longueurs vérient la loi des sinus :
`1 `2 `3
= =
sin ϕ1 sin ϕ2 sin ϕ3
et même, en introduisant le rayon R du cercle circonscrit, bien que ce soit d'un
usage moins courant en physique :
`1 `2 `3
= = = 2R
sin ϕ1 sin ϕ2 sin ϕ3

3.g Courbes planes et gauches.


On peut décrire une courbe de multiples façons. Dans chaque cas, nous irons à l'essen-
tiel.

• L'ordonnée comme fonction de l'abscisse.


On décrit une courbe comme l'ensemble des points d'abscisse x et d'ordonnée y vériant
une relation de la forme y = f (x).
L'équation d'une droite est de la forme y = a x + b où a s'appelle le coecient directeur
de la droite.
Le coecient directeur de la tangente à la courbe d'équation y = f (x) au point d'abs-
cisse x0 et d'ordonnée y0 = f (x0 ) est f 0 (x0 ) (où bien sûr f 0 désigne la fonction dérivée de
f ). L'équation de la tangente est donc, de façon brute :

y − y0 = f 0 (x0 ) (x − x0 )

Si au voisinage de x0 la dérivée est une fonction croissante (décroissante), donc si f 00 (0)


est positif (négatif), la courbe tourne sa concavité vers les y croissants (décroissants).

35
L'aire comprise entre l'axe Ox et la courbe d'équation y = f (x) entre les abscisses a et
b est a f (x) dx (le résultat est algébrique en fait).
Rb

La longueur de la courbe entre ses points d'abscisses a et b est ab 1 + f 0 (x)2 dx ; sa


R p

longueur entre une abscisse origine et un point quelconque s'appelle l'abscisse curviligne
de ce point (il sut donc d'adapter les bornes de l'intégrale précédente).
Parmi tous les cercles tangents à la courbe d'équation y = f (x) au point de coordonnées
x0 et f (x0 ), celui qui  colle le plus à la courbe  13 , appelé cercle osculateur 14 , a un rayon
qu'on appelle rayon de courbure (son inverse s'appelle la courbure ) qui est donné par la
formule : 00
1 f (x0 )
= 3
R [1 + f 0 (x0 )2 ] 2

qui donne un résultat algébrique lié à la concavité de la courbe (cf supra).

• Equation paramétrique.
On décrit une courbe comme l'ensemble des points repérés par un paramètre t (en
physique, c'est souvent le temps) selon deux relations de la forme x = f (t) et y = g(t)
(pour rendre la suite plus lisible, on notera ces fonctions x(t) et y(t)).
Un vecteur tangent à la courbe au point de paramètre t0 a pour composantes x0 (t0 ) et
de sorte que l'équation de la tangente (un point de cette tangente aura des coordon-
y 0 (t0 )
nées notées X et Y ) soit :
X − x(t0 ) Y − y(t0 )
=
x0 (t0 ) y 0 (t0 )

où l'on doit comprendre que si x0 (t0 ) est nul, alors [X − x(t0 )] aussi (l'équation est
alors X = x(t0 )) et de même si y 0 (t0 ) est nul, alors [Y − y(t0 )] aussi (l'équation est alors
Y = y(t0 )). Si x0 (t0 ) et y 0 (t0 ) sont tous deux nuls, on dit qu'on a aaire à un point singulier
et on pose un joker (appel à un ami... mathématicien).
La longueur de la courbe entre ses points de paramètres a et b est ab x0 (t) + y 0 (t)2 dt ;
R p

sa longueur entre un paramètre origine et un point quelconque s'appelle là encore l'abscisse


curviligne de ce point.
Le rayon de courbure R et la courbure 1
R au point de paramètre t0 sont donnés par la
formule : 01 x (t0 ) y (t0 ) − y 0 (t0 ) x00 (t0 )
00
= 3
R [x0 (t0 ) + y 0 (t0 )2 ] 2

Pour une courbe fermée, c'est-à-dire telle que pour deux valeurs a et b du paramètre
x(b) = x(a) et y(b) = y(a), l'aire A à l'intérieur de la courbe est donnée par l'une de ces
13. A l'abscisse x voisine de x0 l'écart entre la courbe et un des cercles tangents est en général du second
ordre en (x − x0 ) ; pour le cercle osculateur, il est d'ordre 3.
14. du latin osculare, donner un baiser ; romantique, non ?

36
deux formules :
Z b Z b
0
A= y(t) x (t) dt = − x(t) y 0 (t) dt
a a

avec une valeur algébrique, positive si la courbe est décrite de a vers b dans le sens
horaire et négative dans le sens trigonométrique.
Remarque : la représentation cartésienne n'est qu'un cas particulier de la représentation
paramétrique, l'abscisse x sert de paramètre et la fonction x(t) est remplacée par la fonction
qui a x associe x, de dérivée égale à 1 pour tout x et de dérivée seconde nulle.

• Equation cartésienne.
La courbe est représentée comme un ensemble de points dont les coordonnées x et y
sont liées par une relation de la forme f (x, y) = 0
Pour passer d'une équation paramétrique à une équation cartésienne, il sut d'éliminer
le paramètre entre x(t) et y(t) mais ce n'est pas toujours possible.
Pour passer d'une équation cartésienne à une équation paramétrique, on peut essayer
de résoudre f (x, y) = 0 comme une équation en y où x est un paramètre (ou l'inverse) pour
arriver à quelque chose de la forme y = ϕ(x). Sinon, il faut essayer de se ramener à une
identité remarquable ; par exemple à l'équation cartésienne x2 + y 2 = 1, on peut proposer
l'équation paramétrique x(t) = cos(t) et y(t) = sin(t) puisque cos2 (t) + sin2 (t) = 1
On verra l'exemple le plus important (les coniques) un peu plus loin.

• Equation polaire.
Si le plan est repéré par une origine O et une base orthonormée de vecteurs → −ex et →

ey ,

− −− →
on peut repérer un point par sa distance r au point O et l'angle θ que forment ex et OM ;
−−→
il est d'usage d'associer à tout point une base locale formé du vecteur unitaire de OM noté


er et du vecteur unitaire qui lui est directement perpendiculaire → −

L'équation polaire d'une courbe consiste à considérer r comme fonction de θ ; qu'on
notera r(θ)
Un vecteur tangent à la courbe en un de ses points est r0 (θ) →

er + r(θ) →

eθ donc l'angle ϕ
−−→ r0 (θ)
que fait la tangente avec OM est tel que cotan ϕ = r(θ)
Un résultat qu'on oublie trop souvent est celui-ci : si la courbe passe par le point O, la
tangente fait avec →

ex l'angle θ qui est celui pour lequel r(θ) = 0 (correspondant donc au
point O).
Nous ne donnons pas ici la formule du rayon de courbure car je n'en ai jamais eu besoin
en physique ou alors si peu que je l'ai oublié.

37
• Remarque sur les courbes gauches.
Une courbe dans l'espace est dite courbe gauche. Sa représentation la plus aisée est la
−−→
représentation paramétrique : on donne x(t), y(t) et z(t) composantes de OM en fonction

→ −−→
du paramètre t ; pour alléger l'écriture on notera M (t) la fonction qui à t associe OM
−→
Un vecteur tangent à la courbe au point de paramètre t est M 0 (t).
Le cercle osculateur en un point de la courbe de paramètre t est contenu dans le plan
−→ −→
qui contient ce point et les vecteurs M 0 (t) et M 00 (t), appelé plan osculateur. La courbure
est donnée par la formule :
−→ −→
1 kM 00 ∧ M 0 k
= −→
R kM 0 k3

où l'on considère que le lecteur sait ce qu'est un produit vectoriel.

3.h Surfaces.
Une surface dans l'espace tridimensionnel peut être décrite soit par une équation car-
tésienne f (x, y, z) = 0 liant les coordonnées des points de la surface, en particulier des
équations de la forme z = f (x, y), soit par une équation paramétrique à deux paramètres
−−→
(disons u et v ) de la forme OM = f (u, v).
Une propriété importante en physique est celle-ci : si par un point de la surface et sa
normale en ce point, on fait passer un premier plan quelconque et un second qui lui soit
orthogonal, ces deux plans coupent la surface selon deux courbes dont les courbures en ce
point sont notées R11 et R12 , alors on montre que la somme R11 + R12 est indépendante du
choix du premier plan et on l'appelle courbure de la surface.

3.i Coniques.
Une conique est une courbe plane dont l'équation est de la forme :

A x2 + 2 B x y + C y 2 + 2 D x + 2 E y + F = 0

Un changement d'origine puis une rotation des axes permettent, sauf cas particulier,
de supprimer les termes en x, y puis en x y ; en divisant enn par le terme constant,
éventuellement changé de signe, on arrive à deux types de coniques classiques, l'ellipse
et l'hyperbole. Nous passerons sous silence le cas particulier de la parabole car c'est un
cas-charnière et les cas-charnières, qui nécessitent une valeur précise d'un paramètre, n'ont
aucun sens physique, à cause des incertitudes.

38
• Ellipse.
Une ellipse est une courbe plane d'équation :
x2 y 2
+ 2 =1
a2 b

où l'on choisit Ox de sorte que a > b


Une équation paramétrique en est x = a cos ϕ et y = b sin ϕ ; c'est donc une courbe
fermée, son intersection avec Ox est formée des points d'abscisse ± a (le grand axe ) et son
intersection avec Oy des points d'ordonnée ± b (le petit axe ).
Il existe sur le grand axe deux points F et F 0 , appelés foyers, d'abscisses ± c avec
c2 = a2 − b2 tel que la somme des distances F M et F 0 M de tout point M de l'ellipse aux
foyers soit constante et égale à 2 a.
Remarque : le cercle est une ellipse particulière avec a = b donc c = 0

• Hyperbole.
Une hyperbole est une courbe plane d'équation :
x2 y 2
− 2 =1
a2 b

Une équation paramétrique en est x = ± a ch ϕ et y = b sh ϕ ; c'est une courbe non-


fermée à deux branches selon le signe de x, son intersection avec Ox est formée des points
d'abscisse ± a et elle ne coupe pas Oy ; pour ϕ → ± ∞, x et y tendent ± ∞ avec un rapport
x = a th ϕ → ± a qui montre l'existence de deux asymptotes.
y b b

Il existe sur Ox deux points F et F 0 , appelés foyers, d'abscisses ± c avec c2 = a2 + b2


tel que la diérence des distances F M et F 0 M de tout point M de l'hyperbole aux foyers
soit constante et égale à 2 a.

• Equation polaire.
Si l'on prend une représentation polaire de l'ellipse ou de l'hyperbole avec l'origine en
l'un des foyers et avec θ = 0 dans la direction de Ox, l'équation est dans les deux cas (selon
que l'on a choisi F 0 ou F comme origine) :
p
r=
1 ± e cos θ

avec dans les deux cas e = ac (c'est l'excentricité inférieure à l'unité pour une ellipse et
supérieure à l'unité pour une hyperbole, égale à l'unité pour le cas-charnière de la parabole
et nulle pour le cas particulier du cercle) et p = ba (c'est le paramètre de la conique).
2

39
3.j Angles solides.
Dénition.
Soit un cône de sommet O s'appuyant sur une courbe fermée quelconque. La surface
interceptée sur une sphère de centre O a une taille proportionnelle par homothétie au rayon
R de la sphère et donc une aire S proportionnelle au carré de R ; on appelle donc angle
solide du cône le rapport Ω = RS2 , indépendant de R.
L'espace tout entier a donc, puisque l'aire d'une sphère est 4 π R2 , un angle solide de 4 π .

Angle solide élémentaire.


z

#
R.sin # A B
# + d# !
D C
! R #
! ! !
!
O y
! !"
! !
x " " + d"
! !
!
Figure 3  Angle solide élémentaire.
! !
!

Pour un cône découpant sur la sphère un rectangle entre les longitudes ϕ et ϕ + dϕ et


les colatitudes θ et θ + dθ de longueur AB = R sin θ dϕ et de largeur BC = R dθ, l'angle
solide élémentaire est donc (voir la gure 3 p. 40 qui rappelle les gures que j'ai jadis
tracées au tableau noir) :
dΩ = sin θ dθ dϕ

Angle solide sous lequel est vue une surface élémentaire.


Calculons maintenant sous quel angle solide est vue d'un point O une surface élémen-
taire dS , autour d'un point M , de normale M z . Il n'y a pas de problème majeur si M z
est parallèle à OM , sinon il faut projeter orthogonalement la surface dS en une surface
dΣ sur la sphère de rayon OM , comme sur la gure 4 p. 41 à gauche (où, pour améliorer
la lisibilité, M a été placé sur le bord de dS ), et l'on aura alors dΩ = dΣ
r2
où r désigne la
distance OM .
Or, comme l'indique la partie droite de la même gure, si l'on projette sur un plan
un rectangle avec un côté (la longueur) parallèle au plan et l'autre (la largeur) faisant
avec lui un angle θ, les longueurs du rectangle et de sa projection sont égales mais la

40
C

B
" !
dS = L.l
D L
z $ !
dS l
! B$
! "
M
d# ! ! A
! ! L
! !
d" ! d# = L.l.cos " !
!
! !
l.cos " !
!O D$ A$
!
!
!
Figure 4  Angle solide sous lequel
! est vue une
! surface élémentaire.

largeur de la projection, donc l'aire, a été multipliée par cos θ ; il en est de même pour
une surface quelconque, car elle peut être découpée en tas de petits rectangles. Nous avons
donc dΣ = dS cos θ et dΩ = dS rcos2
θ
où θ désigne l'angle entre OM et M z .

41

Vous aimerez peut-être aussi