cours108-1f
cours108-1f
Joël SORNETTE met ce cours à votre disposition selon les termes de la licence Creative Commons :
Pas d'utilisation commerciale.
Pas de modication, pas de coupure, pas d'intégration à un autre travail.
Pas de communication à autrui sans citer son nom, ni en suggérant son autorisation.
Retrouvez l'intégralité du cours sur le site joelsornette.fr
1
RÉSUMÉ :
Comment résumer en quelques dizaines de pages deux à trois années de cours de ma-
thématiques, soit quelques centaines d'heures et quelques milliers de pages de notes ? En
ne choisissant que ce qui sert régulièrement en physique (ce qui sert ponctuellement sera
traité dans le chapitre concerné) et en ne donnant aucune démonstration, à la rigueur un
l conducteur montrant l'enchaînement des idées. Cela suppose que le lecteur ait déjà vu
toutes ces choses et que ce chapitre n'est là que pour lui rafraîchir la mémoire sur un point
qui s'estompe.
2
Table des matières
3
3 Géométrie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.a Espaces anes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.b Plans et droites d'un espace ane tridimensionnel . . . . . . . . . 31
3.c Barycentre. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.d Espaces anes euclidiens. . . . . . . . . . . . . . . . . . . . . . . 32
3.e La trigonométrie plane par la géométrie. . . . . . . . . . . . . . . 33
3.f Le triangle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.g Courbes planes et gauches. . . . . . . . . . . . . . . . . . . . . . . 35
3.h Surfaces. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.i Coniques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.j Angles solides. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4
1 Analyse.
tend vers l'inni notée ∞ 0 un x qui dépend bien évidemment de x. C'est une façon très
n
5
et aussi pour z complexe :
∞
X zn
exp(z) =
n!
0
Par dérivation terme à terme suivie d'un subtil décalage d'indice, on prouve que l'ex-
ponentielle est sa propre dérivée soit :
Les mathématiciens démontre enn cette propriété fonctionnelle : pour tout couple de
réels ou de complexes a et b, on a :
On vérie aisément que la fonction cosinus est paire et la fonction sinus impaire et que
leurs dérivées sont cos0 (x) = − sin(x) et sin0 (x) = cos(x) d'où l'on tire l'identité suivante :
cos2 (x) + sin2 (x) = 1 qui prouve à l'évidence que cos(x) et sin(x) ont des valeurs comprises
entre −1 et +1
Les mathématiciens déduisent des propriétés de l'exponentielle les séries de formules
suivantes qu'il est très rentable d'apprendre par c÷ur car elles sont d'un usage courant
6
dans tous les phénomènes vibratoires et ondulatoires :
cos(a + b) = cos(a) cos(b) − sin(a) sin(b)
cos(a − b) = cos(a) cos(b) + sin(a) sin(b)
sin(a + b) = sin(a) cos(b) + cos(a) sin(b)
sin(a − b) = sin(a) cos(b) − cos(a) sin(b)
En revenant au cas général, on arrive par combinaison linéaire puis permutation des
deux membres à ces formules qui transforment les produits en somme (linéarisation) :
cos(a − b) + cos(a + b)
cos(a) cos(b) =
2
cos(a − b) − cos(a + b)
sin(a) sin(b) = (formule piégeante)
2
sin(a) cos(b) = sin(a − b) + sin(a + b)
2
7
Nous n'aborderons pas ici le développement de cos(3 a), sin(3 a), etc. ni la linéarisation
d'expression du type cos4 (x) car c'est peu fréquent en physique et que l'on peut toujours
trouver aisément un formulaire ou, si l'on s'est isolé sur une île déserte sans wi-, travailler
par étapes successives.
Si l'on dénit le nombre π comme la plus petite valeur positive non nulle dont le sinus
soit nul (le plus délicat est de montrer qu'il en existe une) donc le cosinus égal à −1 (le
plus délicat est de montrer que ce n'est pas +1), le développement de sin(a + b) avec b = π
donne sin(a + π) = − sin(a) et donc sin(a + 2 π) = sin(a) ce qui prouve que la fonction est
2 π -périodique. A partir de là, on démontre assez aisément :
cos(x + 2 π) = cos(x)
et sin(x + 2 π) = sin(x)
cos(x
+ π) = − cos(x) et sin(x+ π) =− sin(x)
cos x + π = − sin(x) et
π
sin x + = cos(x)
2 2
1 1
= 1 + tan2 (x) et 2 = 1 + cotan2 (x)
cos2 (x) sin (x)
1
cotan0 (x) = − 2 = −[1 + cotan2 (x)]
sin (x)
Ces fonctions sont π -périodique et que cotan(x) = − tan x + π2 (en pratique on utilise
8
En posant t = tan x
, on a :
2
2t 2t 1 − t2
tan(x) = et sin(x) = et cos(x) =
1 − t2 1 + t2 1 + t2
Leurs propriétés sont proches de celles des fonctions trigonométriques mais avec des
signes parfois diérents et apprendre par c÷ur les deux séries de formules est le plus sûr
moyen de s'emmêler les pinceaux . Je suggère de savoir par c÷ur que ch0 (x) = sh(x),
sh0 (x) = ch(x), ch2 (x) − sh2 (x) = 1, que ces fonctions sont non périodiques, que ch(x) > 1.
Pour toutes les autres formules, on les déduira formellement des formules de trigonométrie
en remplaçant cos par ch et sin par i sh et en simpliant le cas échéant par i.
De là on déduit les formules relatives à la tangente hyperbolique th(x) = ch(x)
sh(x)
et de
son inverse la cotangente hyperbolique. Retenons que ch2 (x) = 1 − th (x) et que la dérivée
1 2
y = f −1 (x) ⇐⇒ x = f (y)
9
sauf pour les valeurs de x telles que le dénominateur est nul, bien entendu.
Pour l'exploitation de cette formule, il est commode de poser provisoirement y = f −1 (x)
puis de chercher à exprimer f 0 (y) en fonction de x (c'est là que réside parfois la diculté).
Dans la pratique, si f est une fonction classique, on donne à f −1 un nom particulier.
Prenons pour exemple la fonction exponentielle, monotone croissante de exp(−∞) = 0
à exp(+∞) = +∞, sa fonction inverse est la fonction logarithme népérien notée ln dénie
de 0 à +∞, croissante de ln(0) = −∞ à ln(+∞) = +∞. La formule f −1 0 (x) = f 01(y) ,
avec y = f −1 (x) équivalent à x = f (y), devient ici puisque f (y) = exp(y) et donc d'une
part f 0 (y) = exp0 (y) = exp(y) (cf supra) et d'autre part y = f −1 (x) = ln(x) équivalent à
x = exp(y) :
1 1
ln0 (x) = =
exp(y) x
10
• Fonction hyperboliques inverses.
La fonction cosinus hyperbolique croît de 1 à ∞ quand sa variable croît de 0 à ∞ ; on
dénit la fonction argument-cosinus hyperbolique comme fonction inverse sur ces intervalles.
La fonction argch(x) croît donc de 0 à ∞ quand x croît de 1 à ∞. Sa dérivée est :
1 1 1
argch0 (x) = =q =√
sh(y) 2
x −1
ch2 (y) − 1
Notons cette approche variante : par construction on a exp(y) = ch(y) + sh(y) d'où
l'on tire successivement en introduisant les fonctions inverses
q
exp(y) = ch(y) + ch2 (y) − 1
q
y = ln[ch(y) + ch2 (y) − 1]
p
argch(x) = ln[x + x2 − 1]
et aussi q
exp(y) = sh(y) + sh2 (y) + 1
q
y = ln[sh(y) + sh2 (y) + 1]
p
argsh(x) = ln[x + x2 + 1]
11
d'où successivement et en utilisant la fonction inverse :
1 + th(y)
exp(2 y) =
1 − th(y)
"s #
1 1 + th(y) 1 + th(y)
y = ln = ln
2 1 − th(y) 1 − th(y)
"r #
1+x
argth(x) = ln
1−x
∞
X f (k) (0)
f (x) = xk
k!
0
Les mathématiciens cherchent à donner une forme au terme négligé ; nous pouvons nous
en dispenser au niveau de ce cours.
Remarque : Le premier terme à coecient non nul d'un développement de Taylor en
x0 d'une fonction est appelée (on simplie la théorie) équivalent de cette fonction en x0 .
12
1.h Fonctions composées.
Soient f et g deux fonctions, on appelle fonction composée de g par f la fonction notée
(en mathématiques) f ◦ g dénie par [f ◦ g](x) = f [g(x)] et l'on montre que :
[f ◦ g]0 (x) = f 0 [g(x)] g 0 (x)
Comment passer d'une formule valable pour un point à une formule pour une répartition
continue ? On commence par une approximation : on découpe le segment en N segments
élémentaires égaux de longueur ` = NL et portant la charge q = NQ
ou encore q = λ ` avec
λ = L . Ces segments ne sont certes toujours pas des points mais on les assimile quand
Q
même à une charge ponctuelle q placée au point milieu Pk de chaque segment élémentaire
et l'on propose l'approximation :
N
X q
V (M ) ≈ −−−→
1 4 π ε0 kPk M k
avec f (x) = λ
−−−→ où Px est le point d'abscisse x. En fait l'approximation reste
4 π ε0 kPx M k
valable même avec des segments élémentaires inégaux pourvu que le plus grand d'entre eux
soit petit et même si dans chaque segment on choisit un autre point que le point milieu.
Une approximation est donc V (M ) ≈ (ak − ak−1 ) f (xk ) avec des ak choisis tels que
PN
1
a0 = a < a1 < a2 < · · · < aN −2 < aN −1 < aN = b, des xk tels que ak−1 6 xk 6 ak pour
tous les k entre 1 et N et avec supN
1 ak − ak−1 assez petit.
L'approximation est d'autant meilleure que supN 1 ak − ak−1 est plus petit et s'il tend
vers 0 (ce qui suppose que N tende vers l'inni), la limite est le potentiel recherché... à
condition que la limite soit indépendante du choix du découpage. Une condition susante
(mais non nécessaire) pour que ce soit le cas est que la fonction f soit dénie et continue,
ce qui est souvent le cas en physique classique. Il est d'usage de noter dx les ak − ak−1 et
13
de remplacer le sigma majuscule de sommation par un S minuscule allongé comme il l'était
à la Renaissance. On note donc cette limite :
Z b
V (M ) = f (x) dx
a
14
• Reconnaître la dérivée d'une fonction connue.
Si dans f , on reconnaît, à une constante multiplicative près, la dérivée classique d'une
autre fonction c'est gagné. La primitive de xn est xn+1 pour n positif, négatif ou nul, entier,
n+1
fractionnaire et même réel, sauf toutefois pour n = −1 mais alors on sait que x1 a pour
primitive ln x.
On aura en tête les dérivées des fonctions trigonométriques et hyperboliques inverses
qui sont d'un précieux secours.
• Changement de variable.
Si l'on arrive à mettre f (x) sous la forme f (x) = g 0 [h(x)] h0 (x) alors une primitive est
F (x) = g[h(x)] (cf supra). Dans la pratique, on matérialise la démarche par un changement
de variable. Prenons un exemple, soit à calculer :
Z π
2 cos ϕ
I= p dϕ
0 1 + sin2 ϕ
On a bien une forme f (ϕ) = g 0 [h(ϕ)] h0 (ϕ) avec h0 (ϕ) = cos ϕ d'où h(ϕ) = sin ϕ et
g déni par g 0 (t) = √1+t
1
2
dont il faudra trouver la primitive qui n'est autre (cf supra)
que l'argument-sinus hyperbolique. Dans la pratique, on présente ainsi : on pose t = sin ϕ
d'où 3 dt = cos ϕ dϕ et on change les bornes en remplaçant les bornes relatives à ϕ par les
valeurs correspondantes de t, soit dans notre exemple :
Z 1
1
I= √ dt = [argsh(t)]10 = argsh(1)
0 1 + t2
Attention, il y a une contrainte essentielle : la nouvelle variable doit être une fonction
monotone (croissante ou décroissante) de la première dans l'intervalle d'intégration.
Un usage courant est de se ramener à des fonctions dont R on 6connaît la primitive en
escamotant les constantes multiplicatives. Pour calculer I = ab √1+4 x2
dx, on pose y = 2 x
d'où dy = 2 dx et :
Z 2b
1
I=3 p dy = 3 [argsh(2 b) − argsh(2 a)]
2a 1 + y2
Z π Z π Z π
2 2 2
3 2
I= cos (x) dx = cos (x) cos(x) dx = [1 − sin2 (x)] cos(x) dx
0 0 0
dt
3. A partir de la dérivée dt
dϕ
, les mathématiciens introduisent la diérentielle dt = dϕ et montrent
dϕ
la validité de ce qui suit.
15
On pose t = sin(x) d'où dt = cos(x) dx, d'où :
1 1
t3
Z
2 2
I= (1 − t ) dt = t − =
0 3 0 3
Cette méthode convient pour tous les monômes trigonométriques en cosp (x) sinq (x) où
au moins un des deux entiers p et q est impair (sinon, voir plus loin).
Avec
R 2 un peu de chance, on tombe0 sur une intégration plus aisée ; l'exemple classique
est 1 ln(x) dx où g(x) = ln(x) et h (x) = 1 d'où g (x) = x1 et h(x) = x (on choisit la
0
Si l'on multiplie membre à membre par (x − α) puis que l'on donne à x la valeur α on
tire successivement :
1 B (x − α)
=A+
(x − β) (x − β)
1
=A+0
(α − β)
16
• Linéarisation de fonctions trigonométriques.
Soit à intégrer une fonction cos2 p (x) sin2 q (x) ; la méthode précedemment exposée ne
convient pas car les exposants sont tous deux pairs. On utilise les formules de trigonométrie
pour abaisser les exposants :
p q
2p 2q 1 + cos(2 x) 1 − cos(2 x)
cos (x) sin (x) =
2 2
et l'on développe cette expression en somme de monônes. Ceux dont au moins un des
exposants est impair sont traités aisément par la méthode précédente et pour les autres, on
réitère le processus. On peut aussi utiliser un logiciel de calcul formel qui sera plus rapide.
y(x) = F −1 [G(x)]
4. Le français possède un genre neutre qui se confond dans ses formes avec le masculin. Un ami ma-
thématicien peut parfaitement être une amie mathématicienne. Ce n'est pas moi qui suis sexiste, c'est la
langue.
17
Remarque 1 : F et G sont dénies à deux constantes additives près, dont seule la
diérence importe. Si l'on connaît, à un instant initial les valeurs de x et y , on peut
déterminer cette constante.
Soit yP (x) une solution particulière de cette équation ; toutes les autres solutions sont
de la forme y(x) = yP (x) + Y (x) où Y (x) est solution de l'équation dite homogène ou sans
second membre :
dY
a(x) + b(x) Y (x) = 0
dx
donc la résoudre (cf supra). Reste donc à savoir comment trouver une solution particulière
à la solution avec second membre. Il n'y a pas de méthode universelle pour cela et le seul
cas qu'il faille savoir traiter est celui où a(x) et b(x) sont des constantes ; on réécrit alors
l'équation ainsi :
dy
a + b y(x) = c(x)
dx
Une méthode qui convient souvent est de chercher une solution de la même forme que
la fonction c(x). Si c'est un polynôme de degré n, on cherche une solution polynomiale de
même degré, si c'est une fonction exponentielle, on on cherche une solution exponentielle
de même constante, si c'est une fonction trigonométrique, on on cherche une solution
trigonométrique de même pulsation (sous forme de combinaison de sinus et de cosinus),
etc.
Dans le dernier cas, la méthode des amplitudes complexes est très confortable ; elle est
abondamment détaillée dans le chapitre sur les oscillateurs et nous n'y reviendrons pas ici.
Pour les équations diérentielles linéaires d'ordre 2 que l'on peut mettre sous la forme :
d2 y dy
a(x) + b(x) + c(x) y(x) = d(x)
dx2 dx
la recherche d'une solution particulière se mène de la même façon quand a(x), b(x)
et c(x) sont des constantes et il n'y a pas plus de méthode générale si elles ne le sont
pas. Par contre la résolution de l'équation homogène n'est plus simple. On peut montrer
que l'ensemble des solutions est l'ensemble des combinaisons linéaires de deux solutions
non proportionnelles (c'est donc un espace vectoriel de dimension 2, voir plus loin) mais il
18
n'y a aucune méthode générale pour trouver ces deux solutions-là. Il faut toutefois savoir
que si une astuce a permis d'en trouver une, qu'on note Y1 , on est sauvé : on pose alors
Y (x) = f (x) Y1 (x) que l'on reporte dans a(x) ddxY2 + b(x) dY
dx + c(x) Y (x) = 0 pour obtenir
2
succesivement :
qui est une équation homogène d'ordre 1 que l'on sait résoudre par séparation des
variables.
• Dérivées partielles.
La dérivée partielle de f (x, y) par rapport à x, notée ∂f
∂x est la dérivée de f (x, y) où
l'on considère y comme un paramètre constant. Par exemple, on n'est pas troublé par
l'armation que la dérivée de la fonction f (x) = a x2 est dfdx = 2 a x ; on ne devrait pas
plus être troublé par l'armation que la dérivée partielle de f (x, y) = y x2 est ∂f
∂x = 2 y x.
Considérer y comme une constante c'est l'assimiler à un paramètre comme l'est le a de
a x2 . On dénit de même ∂f∂y .
Si f est fonction de x et y , il en est de même pour ses dérivées partielles ∂f∂x et ∂y dont
∂f
19
et il n'y a pas grand chose de systématique pour nous aider. Les seules qu'un physicien
doive savoir gérer sont d'une part l'équation de propagation :
∂2f 2
2 ∂ f
= c
∂t2 ∂x2
qui est abondamment traitée dans le chapitre D-II sur les ondes stationnaires (solutions
factorisées) et progressives (solutions progressives) et d'autre part l'équation de diusion :
∂f ∂2f
=D 2
∂t ∂x
qui est abondamment traitée dans le chapitre E-X sur la diusion. Nous renvoyons le
lecteur à ces chapitres.
2 Algèbre linéaire.
20
distributive vis-à-vis du scalaire : (λ + µ) · →
−
u = λ·→ −u +µ·→ −
u pour tout λ, tout
µ et tout →−u
associative vis-à-vis du scalaire : (λ µ) · →
−
u = λ · (µ · →
−u ) pour tout λ, tout µ et
tout u→
−
et telle que l'unité scalaire (notée 1 bien sûr) en soit l'élément neutre à gauche :
1·→−u =→ −
u pour tout → −
u
On en déduit assez aisément les propriétés suivantes :
→
−
on a 0 · →
−
u = 0 pour tout → −
u
→
− →
−
on a λ · 0 = 0 pour tout λ
on a (−λ) · →
−u = −(λ · →−
u ) pour tout scalaire λ et tout →
−
u
on a λ · (−→
−u ) = −(λ · →
−
u ) pour tout scalaire λ et tout →
−
u
Cette présentation axiomatique ne doit pas cacher que les calculs se mènent exactement
comme on voudrait qu'ils le fussent.
• Sous-espaces vectoriels.
Si E est un espace vectoriel et si F , sous-ensemble de E , est lui aussi un espace vectoriel,
on dit que E est un sous-espace vectoriel de E .
On montre (c'est assez simple) que F est sous-espace vectoriel de E si et seulement si,
pour tout couple de scalaires λ et µ et tout couple de vecteurs →
−
u et →
−
v de F , la combinaison
linéaire λ · →
−
u +µ·→−v appartient elle aussi à F .
Si F1 et F2 sont deux sous-espaces vectoriels de E , il en est de même pour leur intersec-
tion F1 ∩ F2 (au sens ensembliste). Cette intersection n'est jamais vide mais peut se réduire
→
−
à l'ensemble { 0 } formé par le seul vecteur nul.
Si F1 et F2 sont deux sous-espaces vectoriels de E , il en est de même pour l'ensemble
→
−
F = F1 +F2 des sommes d'un vecteur de F1 et d'un vecteur de F2 . Si de plus F1 ∩F2 = { 0 },
on dit que F est somme directe de F1 et F2 et l'on note F = F1 ⊕ F2 . Dans ce cas tout
21
vecteur de F se décompose de façon unique en somme d'un vecteur de F1 et d'un vecteur
de F2 .
22
Dans toute la suite de cet exposé, on ne parlera plus que d'espaces vectoriels de dimen-
sion nie.
Dans un espace vectoriel de dimension nie et pour une base donnée, tout vecteur se
décompose de façon unique en une combinaison linéaire des vecteurs de la base.
En notant ak = f (→
−
v k ), on a donc f (→
− ak uk .
Pn
u) = 1
ce qui prouve que l'ensemble des formes linéaire d'un espace vectoriel E est lui aussi
un espace vectoriel, appelé espace dual, noté E ∗ , de même dimension que E et dont une
base, appelée base duale est l'ensemble des fk dénis à partir de la base de E .
On peut aller plus loin, en étudiant les formes linéaires sur cet ensemble dual, pour
construire un ensemble bidual, notée E ∗∗ et dont nous noterons Φ les éléments. Mais on
peut alors créer une bijection entre E et son bidual qui à tout vecteur → −
u associe Φ−→u déni
par Φ−→ (f ) = f (→−
u ) pour toute forme linéaire f , ce qui permet d'assimiler, à une bijection
u
près, E et son bidual. Nous admettrons que, pour un espace vectoriel de dimension innie,
cette construction ne dénit plus une bijection mais une simple injection et l'on peut
trouver dans le bidual des choses étranges (voir les indications sur les distributions dans le
chapitre A-X).
23
• Applications linéaires.
Soit E et F (éventuellement égal à E ) deux espaces vectoriels ; on appelle application
→
−
linéaire 6 une fonction f de E sur F telle que pour tout couple de scalaires λ et µ et pour
tout couple de vecteurs →−u et →
−
v , on ait :
→
− →
− − →
− −
f (λ · →
−
u +µ·→
−
v ) = λ · f (→
u ) + µ · f (→
v)
→
− → − →
− →
− →
Si l'on décompose chacun des f ( v j ) sur une base donnée { w i } de F en f (−
v j) =
→
−
i=1 aij w i , on a :
Pi=m
n i=m
→
− →
f (− uj aij →
−
XX
u) = wi
1 i=1
→
− −
Remarque : si l'on note Ui →
−
w i la décomposition de f (→
u ) sur la base de F , on a
Pi=m
i=1
donc :
n
X
Ui = aij uj
1
En raisonnant comme pour les forme linéaires, on en déduira que l'ensemble des appli-
cations linéaires de E dans F est un espace vectoriel de dimension égale au produit des
dimensions de E et F , soit avec nos notations n m.
L'application linéaire pourra être décrite par le tableau à m lignes et n colonnes des aij
que l'on appellera matrice associée à l'application linéaire. Nous y reviendrons sous peu.
24
• Produit d'applications linéaires et de matrices.
→
− →
−
Soit une application linéaire f de E de base {→
−
e k } de dimension n dans F de base { f j }
→
− − →
−
de dimension m qui à u = k=1 uk e k fait correspondre →
→
− k=n →
− −v = f (→
u ) = j=mj=1 vj f j avec
P P
→
−
Soit une application linéaire →
−
g de F de base { f j } de dimension m dans G de base
→
− →
− →
− →
− →
− →− Pi=p → −
{ g i } de dimension p qui à v = j=mj=1 vj f j fait correspondre w = g ( v ) =
P
i=1 wi g i
avec wi = j=1 bij vj (cf supra).
Pj=m
g ◦ f (→
−
u ) = g[f (→
−
u )]
qui à →
− uk →
−
e k fait correspondre →
−
w =→
−
g (→
− Pi=p →
wi −
g i avec :
Pk=n
u = k=1 v ) = i=1
j=m k=n
!
X X
wi = bij ajk uk
j=1 k=1
Cette relation dénit le produit des matrices associées aux applications linéaires.
Remarque importante : Le produit d'applications linéaires et donc de matrices n'est
pas commutatif 7 .
• Matrice carrées.
Il s'agit de matrices telles que le nombre n de lignes et m de colonnes sont égales.
La transposée d'une matrice (M ) de coecients aij , est une matrice notée t (M ) de
coecients bij tels que bij = aji . Si M est le produit de deux matrices, que l'on note ici
(M ) = (A) (B), on a (notez l'inversion de l'ordre) :
t
(M ) = t (B) t (A)
25
L'inverse d'une matrice (M ) est, si elle existe, une matrice notée M −1 telle que :
(M )−1 (M ) = (M ) (M )−1 = (Id)
Soit une application d'un espace vectoriel E dans lui-même de matrice (M ), carrée
donc. Eectuons un changement de base passant des n vecteurs {→ −e j } aux n vecteurs
→
− →
− →
−
{ f i } dénis par f i = j=1 pij e j . Assimilons le tableau des coecients pij à une matrice
Pj=n
carrée, appelée matrice de passage. Avec cette nouvelle base, la même application a une
nouvelle matrice noté (M 0 ) telle que :
(M 0 ) = (P )−1 (M ) (P )
{→
SiP−e i } est une base de l'espace vectoriel et en notant aij = f (→
−
e i, →
−
e j ), on a pour
→
− →
− →
−
u = ui e i et v =
P →
−
vj e j :
f (→
−
u,→
−
XX
v)= aij ui vj
i j
26
le premier vecteur et semi-linéaire pour le second, c'est-à-dire telle que :
f (λ →
−u + µ→−v ,→
−
w ) = λ f (→−u,→−w ) + µ f (→−v ,→−
(
w)
→
− →
− →
− →
− →
− →
− →
−
f ( u , λ v + µ w ) = λ̄ f ( u , v ) + µ̄ f ( u , w )
f (→
−
u,→
−
XX
v)= aij ui v̄j
i j
27
Une propriété à connaître : le déterminant d'un produit de deux matrices est égal au
produit des déterminants.
Si l'on introduit la matrice (A) à n lignes et n colonnes des coecients aij et les matrices
(X) et (B) à n lignes et une colonne, respectivement des inconnues xi et des paramètres
bi , on peut écrire de façon condensée (A) (X) = (B).
On montre que si le déterminant de la matrice (A) (appelé alors déterminant du sys-
tème) est non nul, elle est inversible et le système d'équations a une solution unique qui,
matriciellement, s'écrit (X) = (A)−1 (B). La résolution pratique ne pose pas de problème
majeur et est vraisemblablement déjà connue du lecteur.
En particulier si les bi sont tous nuls (on dit que le système est homogène), on ne déduit
que les inconnues sont elles aussi toutes nulles.
Un corollaire important est que si l'on veut que la résolution d'un système homogène
ne conduise pas à la solution unique où les inconnues sont toutes nulles, il faut que le déter-
minant du système soit nul. C'est ainsi que l'on trouve la plupart du temps les équations
de dispersion (voir la physique vibratoire et ondulatoire).
Si le déterminant d'un système homogène est nul, sauf cas particulier 10 , il existe une
solution dénie à une constante multiplicative près. Les xi n'ont donc pas une valeur unique
mais le rapport de deux des xi est bien déterminé et il importe de le chercher (voir toujours
en mécanique ondulatoire les notions d'impédance).
28
Si →
−
v est vecteur propre pour une valeur propres λ, il est aisé de vérier que tout vecteur
µ→
−
v est lui aussi vecteur propre pour la même valeur propre.
Matriciellement, en notant (Id) la matrice identité (cf supra), on veut :
(A) (V ) = λ (V ) = λ (Id) (V )
soit :
[(A) − λ (Id)] (V ) = (0)
ce qui impose (cf paragraphe précédent) que le déterminant de la matrice (A) − λ (Id),
appelé déterminant caractéristique, soit nul.
L'équation en λ qui exprime que ce déterminant est nul est de degré n (la dimension
de E ) appelée équation caractéristique. Si E est un espace vectoriel complexe, elle admet n
solutions, en général deux à deux distinctes. Dans ce cas, s'il l'on eectue un changement
de base tel que la nouvelle base soit formé de n vecteurs propres correspondant aux n
valeurs propres, dans cette nouvelle base, l'application linéaire a une matrice (A0 ) diagonale
(soit a0ij = 0 si i 6= j et les a0ii sont les valeurs propres). On dit qu'on a diagonalisé la
matrice, ce qui simplie son utilisation ultérieure. S'il existe au moins une racine double,
la diagonalisation n'est pas toujours possible ; on est alors bien obligé de faire avec .
Si l'espace vectoriel est réel et que deux racines sont imaginaires conjuguées, on essaie
de leur donner un sens physique et si l'on y arrive, on considérera la matrice comme un
cas particulier de matrice à coecients complexes.
Remarque : une fois les valeurs propres trouvées, la recherche des vecteurs propres se
ramène à la résolution d'un système homogène (cf supra).
29
• Diagonalisation d'une matrice symétrique dans un espace euclidien.
On verra un peu plus loin la notion d'espace euclidien et de base orthonormée. Comme
le lecteur sait vraisemblablement de quoi il s'agit, nous pouvons traiter dès maintenant ce
troisième problème de diagonalisation.
Soit une matrice symétrique réelle (A) considérée comme plongée dans l'ensemble des
matrices complexes (cf supra). Si →
−v de composantes
P vi possiblement complexes, associée
à la valeur propre λ possiblement complexe. On a aij vj = λ vi ; en multipliant par v̄i et
en sommant, on arrive à :
X X XX
λ vi v̄i = aii vi v̄i + aij (vi v̄j + v̄i vj )
i i i j6=i
d'où successivement :
→
− →
− − →
− −
v · f (→
w) = →
−
w · f (→v)
→
−
v · µ→
−w =→−
w · λ→
−v
(µ − λ) →
−
v ·→
−
w =0
3 Géométrie.
30
de vue axiomatique, on dit que A est un espace ane associé à l'espace vectoriel E si à
tout couple ordonné de deux points (notons-les ici M et N ) de A on associe un vecteur de
−−→
E , noté M N de façon que l'on ait les propriétés suivantes :
−−→ −−→ −−→
pour tout triplet de points M N + N P = M P (relation de Chasles)
→
−
pour tout point M de A et tout vecteur V de E , il y a un point N de A et un seul
−−→ → −
tel que M N = V
−−−→ → −
pour tout point M , on a M M = 0 (c'est le cas où M et N sont confondus)
−−→ −−→
pour tout couple de points M et N , on a N M = −M N
où en fait les deux dernières propriétés peuvent se déduire de la première.
Dans la pratique pour repérer un point de l'espace ane A, on choisit un point par-
−−→
ticulier appelé origine, en général nommé O et l'on donne la valeur du vecteur OM ; en
particulier en dimension nie, on donne de ce vecteur ses composantes dans une base de
l'espace vectoriel de E qui forme avec O un repère de A.
L'espace de la physique est ane de dimension 3. On note habituellement →
−
ex , →
−
ey et →
−
ez
la base vectorielle.
Dans un espace ane tridimensionnel, on dénit une droite à partir d'un point par-
ticulier (noté ici A) et d'un vecteur de E (noté ici →
−
v ) comme l'ensemble des points M
−−→
de A pour lesquels il existe un réel λ tel que AM = λ → −
v (il s'agit d'une représentation
paramétrique de la droite, le paramètre est λ).
Dans un espace ane tridimensionnel, on dénit un plan à partir d'un point particulier
(noté ici A) et de deux vecteurs de E (notés ici →
−
v et →
−
w ) comme l'ensemble des points M
−−→
de A pour lesquels il existe deux réels λ et µ tels que AM = λ →−
v + µ→−w (il s'agit d'une
représentation paramétrique du plan, les paramètres sont λ et µ).
On montre assez facilement que si tout point M de A est repéré par ses coordonnées
−−→
(on note par exemple OM = x → −
ex + y →
−
ey + z →
−
ez ), l'ensemble des points d'un plan vérie une
relation de la forme a x + b y + c z = d où a, b, c et d sont des constantes ; cette relation
est l'équation cartésienne du plan, ce qui est une autre façon de représenter un plan).
En général, deux plans se coupent selon une droite et les équations de ces deux plans
sont une représentation cartésiennes de la droite.
Un plan est un espace ane de dimension deux, on peut y dénir une droite de façon
paramétrique comme ci-dessus ; si l'on choisit un repère pour le plan, un droite y aura une
équation cartésienne de la forme a x + b y = c
31
3.c Barycentre.
Soient un ensemble de points Mi et un ensemble de coecients réels mi de somme non
nulle, on dénit le barycentre G des points Mi aectés des coecients mi par la relation :
X −−→ → −
mi GAi = 0
32
unité ce qui prouve que la matrice inverse de (P) est sa transposée, aisée à calculer. On dit
que (P) est une matrice unitaire.
On peut montrer que le déterminant de la matrice de passage est égal à ±1 ; s'il est
égal à 1, on dit que la nouvelle base est directe, s'il est égal à −1, qu'elle est indirecte.
→
− →
−
Prenons comme nouvelle base du plan e0x = → −u et e0y = − sin ϕ →−
ex + cos ϕ →
−
ey ; on
→
−
vérie aisément qu'elle est orthonormée directe. Soit un vecteur unitaire v qui fait avec
→
−0
ex l'angle ψ ; on a successivement :
→
− →
− →
−
v = cos ψ e0x + sin ψ e0y
→
−
v = cos ψ (cos ϕ →
−
ex + sin ψ →
−
ey ) + sin ϕ (− sin ϕ →
−
ex + cos ϕ →
−
ey )
→
−
v = (cos ψ cos ϕ − sin ψ sin ϕ) →
−
ex + (cos ψ sin ϕ + sin ψ cos ϕ) →
−
ey
→
−
v = cos(ψ + ϕ) →
−
ex + sin(ψ + ϕ) →
−
ey
3.f Le triangle
La gure 1 p. 34 permet de visualiser les propriétés classiques d'un triangle de sommets
A1 , A2 et A3 :
Les trois médianes (en rouge) qui joignent les trois sommets aux milieux I1 , I2 et
I3 des côtés opposés se coupent en un point G, appelé centre de gravité du triangle.
Le point G se trouve au tiers de chaque médiane, celui le plus éloigné du sommet.
Les trois hauteurs (en bleu), c'est à dire les perpendiculaires aux trois côtés joignant
les sommets opposés aux pieds des hauteurs H1 , H2 et H3 se coupent en un point H ,
appelé orthocentre du triangle.
Les trois médiatrices (en vert), c'est à dire les perpendiculaires aux trois côtés
passant par leurs milieux I1 , I2 et I3 se coupent en un point O, qui est le centre du
cercle circonscrit (en vert) au triangle passant par ses sommets.
33
Les trois bissectrices (en orange), c'est à dire les droites issues des sommets et qui
divisent les angles en deux parties égales se coupent en un point C , qui est le centre
du cercle inscrit (en orange) au triangle tangent à ses côtés.
A1
H3
H2
H
!
I 3! I2
! C
!
G
! O !
!
A2 I1 H1 A3
!
!
! ! ! !
11. Je doute fort qu'elles soient utiles au physicien mais je mène un combat d'arrière garde pour la survie
de la géométrie.
12. nom apparu en France dans les années 1990, celui d'un mathématicien perse (1380 - 1429) mais le
résultat était connu d'Euclide (vers 300 avant J. C. ?), sous une forme voisine, faute de trigonométrie.
34
A1
"1
!
l3 l2
!
!" ! "3
2
A2 A3
l1
!
! Figure 2 Formule d'Al-Kashi.
!
!
!
par exemple :
`23 = `21 + `22 − 2 `1 `2 cos ϕ3
les trois angles et les trois longueurs vérient la loi des sinus :
`1 `2 `3
= =
sin ϕ1 sin ϕ2 sin ϕ3
et même, en introduisant le rayon R du cercle circonscrit, bien que ce soit d'un
usage moins courant en physique :
`1 `2 `3
= = = 2R
sin ϕ1 sin ϕ2 sin ϕ3
y − y0 = f 0 (x0 ) (x − x0 )
35
L'aire comprise entre l'axe Ox et la courbe d'équation y = f (x) entre les abscisses a et
b est a f (x) dx (le résultat est algébrique en fait).
Rb
longueur entre une abscisse origine et un point quelconque s'appelle l'abscisse curviligne
de ce point (il sut donc d'adapter les bornes de l'intégrale précédente).
Parmi tous les cercles tangents à la courbe d'équation y = f (x) au point de coordonnées
x0 et f (x0 ), celui qui colle le plus à la courbe 13 , appelé cercle osculateur 14 , a un rayon
qu'on appelle rayon de courbure (son inverse s'appelle la courbure ) qui est donné par la
formule : 00
1 f (x0 )
= 3
R [1 + f 0 (x0 )2 ] 2
• Equation paramétrique.
On décrit une courbe comme l'ensemble des points repérés par un paramètre t (en
physique, c'est souvent le temps) selon deux relations de la forme x = f (t) et y = g(t)
(pour rendre la suite plus lisible, on notera ces fonctions x(t) et y(t)).
Un vecteur tangent à la courbe au point de paramètre t0 a pour composantes x0 (t0 ) et
de sorte que l'équation de la tangente (un point de cette tangente aura des coordon-
y 0 (t0 )
nées notées X et Y ) soit :
X − x(t0 ) Y − y(t0 )
=
x0 (t0 ) y 0 (t0 )
où l'on doit comprendre que si x0 (t0 ) est nul, alors [X − x(t0 )] aussi (l'équation est
alors X = x(t0 )) et de même si y 0 (t0 ) est nul, alors [Y − y(t0 )] aussi (l'équation est alors
Y = y(t0 )). Si x0 (t0 ) et y 0 (t0 ) sont tous deux nuls, on dit qu'on a aaire à un point singulier
et on pose un joker (appel à un ami... mathématicien).
La longueur de la courbe entre ses points de paramètres a et b est ab x0 (t) + y 0 (t)2 dt ;
R p
Pour une courbe fermée, c'est-à-dire telle que pour deux valeurs a et b du paramètre
x(b) = x(a) et y(b) = y(a), l'aire A à l'intérieur de la courbe est donnée par l'une de ces
13. A l'abscisse x voisine de x0 l'écart entre la courbe et un des cercles tangents est en général du second
ordre en (x − x0 ) ; pour le cercle osculateur, il est d'ordre 3.
14. du latin osculare, donner un baiser ; romantique, non ?
36
deux formules :
Z b Z b
0
A= y(t) x (t) dt = − x(t) y 0 (t) dt
a a
avec une valeur algébrique, positive si la courbe est décrite de a vers b dans le sens
horaire et négative dans le sens trigonométrique.
Remarque : la représentation cartésienne n'est qu'un cas particulier de la représentation
paramétrique, l'abscisse x sert de paramètre et la fonction x(t) est remplacée par la fonction
qui a x associe x, de dérivée égale à 1 pour tout x et de dérivée seconde nulle.
• Equation cartésienne.
La courbe est représentée comme un ensemble de points dont les coordonnées x et y
sont liées par une relation de la forme f (x, y) = 0
Pour passer d'une équation paramétrique à une équation cartésienne, il sut d'éliminer
le paramètre entre x(t) et y(t) mais ce n'est pas toujours possible.
Pour passer d'une équation cartésienne à une équation paramétrique, on peut essayer
de résoudre f (x, y) = 0 comme une équation en y où x est un paramètre (ou l'inverse) pour
arriver à quelque chose de la forme y = ϕ(x). Sinon, il faut essayer de se ramener à une
identité remarquable ; par exemple à l'équation cartésienne x2 + y 2 = 1, on peut proposer
l'équation paramétrique x(t) = cos(t) et y(t) = sin(t) puisque cos2 (t) + sin2 (t) = 1
On verra l'exemple le plus important (les coniques) un peu plus loin.
• Equation polaire.
Si le plan est repéré par une origine O et une base orthonormée de vecteurs → −ex et →
−
ey ,
→
− −− →
on peut repérer un point par sa distance r au point O et l'angle θ que forment ex et OM ;
−−→
il est d'usage d'associer à tout point une base locale formé du vecteur unitaire de OM noté
→
−
er et du vecteur unitaire qui lui est directement perpendiculaire → −
eθ
L'équation polaire d'une courbe consiste à considérer r comme fonction de θ ; qu'on
notera r(θ)
Un vecteur tangent à la courbe en un de ses points est r0 (θ) →
−
er + r(θ) →
−
eθ donc l'angle ϕ
−−→ r0 (θ)
que fait la tangente avec OM est tel que cotan ϕ = r(θ)
Un résultat qu'on oublie trop souvent est celui-ci : si la courbe passe par le point O, la
tangente fait avec →
−
ex l'angle θ qui est celui pour lequel r(θ) = 0 (correspondant donc au
point O).
Nous ne donnons pas ici la formule du rayon de courbure car je n'en ai jamais eu besoin
en physique ou alors si peu que je l'ai oublié.
37
• Remarque sur les courbes gauches.
Une courbe dans l'espace est dite courbe gauche. Sa représentation la plus aisée est la
−−→
représentation paramétrique : on donne x(t), y(t) et z(t) composantes de OM en fonction
−
→ −−→
du paramètre t ; pour alléger l'écriture on notera M (t) la fonction qui à t associe OM
−→
Un vecteur tangent à la courbe au point de paramètre t est M 0 (t).
Le cercle osculateur en un point de la courbe de paramètre t est contenu dans le plan
−→ −→
qui contient ce point et les vecteurs M 0 (t) et M 00 (t), appelé plan osculateur. La courbure
est donnée par la formule :
−→ −→
1 kM 00 ∧ M 0 k
= −→
R kM 0 k3
3.h Surfaces.
Une surface dans l'espace tridimensionnel peut être décrite soit par une équation car-
tésienne f (x, y, z) = 0 liant les coordonnées des points de la surface, en particulier des
équations de la forme z = f (x, y), soit par une équation paramétrique à deux paramètres
−−→
(disons u et v ) de la forme OM = f (u, v).
Une propriété importante en physique est celle-ci : si par un point de la surface et sa
normale en ce point, on fait passer un premier plan quelconque et un second qui lui soit
orthogonal, ces deux plans coupent la surface selon deux courbes dont les courbures en ce
point sont notées R11 et R12 , alors on montre que la somme R11 + R12 est indépendante du
choix du premier plan et on l'appelle courbure de la surface.
3.i Coniques.
Une conique est une courbe plane dont l'équation est de la forme :
A x2 + 2 B x y + C y 2 + 2 D x + 2 E y + F = 0
Un changement d'origine puis une rotation des axes permettent, sauf cas particulier,
de supprimer les termes en x, y puis en x y ; en divisant enn par le terme constant,
éventuellement changé de signe, on arrive à deux types de coniques classiques, l'ellipse
et l'hyperbole. Nous passerons sous silence le cas particulier de la parabole car c'est un
cas-charnière et les cas-charnières, qui nécessitent une valeur précise d'un paramètre, n'ont
aucun sens physique, à cause des incertitudes.
38
• Ellipse.
Une ellipse est une courbe plane d'équation :
x2 y 2
+ 2 =1
a2 b
• Hyperbole.
Une hyperbole est une courbe plane d'équation :
x2 y 2
− 2 =1
a2 b
• Equation polaire.
Si l'on prend une représentation polaire de l'ellipse ou de l'hyperbole avec l'origine en
l'un des foyers et avec θ = 0 dans la direction de Ox, l'équation est dans les deux cas (selon
que l'on a choisi F 0 ou F comme origine) :
p
r=
1 ± e cos θ
avec dans les deux cas e = ac (c'est l'excentricité inférieure à l'unité pour une ellipse et
supérieure à l'unité pour une hyperbole, égale à l'unité pour le cas-charnière de la parabole
et nulle pour le cas particulier du cercle) et p = ba (c'est le paramètre de la conique).
2
39
3.j Angles solides.
Dénition.
Soit un cône de sommet O s'appuyant sur une courbe fermée quelconque. La surface
interceptée sur une sphère de centre O a une taille proportionnelle par homothétie au rayon
R de la sphère et donc une aire S proportionnelle au carré de R ; on appelle donc angle
solide du cône le rapport Ω = RS2 , indépendant de R.
L'espace tout entier a donc, puisque l'aire d'une sphère est 4 π R2 , un angle solide de 4 π .
#
R.sin # A B
# + d# !
D C
! R #
! ! !
!
O y
! !"
! !
x " " + d"
! !
!
Figure 3 Angle solide élémentaire.
! !
!
40
C
B
" !
dS = L.l
D L
z $ !
dS l
! B$
! "
M
d# ! ! A
! ! L
! !
d" ! d# = L.l.cos " !
!
! !
l.cos " !
!O D$ A$
!
!
!
Figure 4 Angle solide sous lequel
! est vue une
! surface élémentaire.
largeur de la projection, donc l'aire, a été multipliée par cos θ ; il en est de même pour
une surface quelconque, car elle peut être découpée en tas de petits rectangles. Nous avons
donc dΣ = dS cos θ et dΩ = dS rcos2
θ
où θ désigne l'angle entre OM et M z .
41