TS Partie Analogique 241119 231154
TS Partie Analogique 241119 231154
PARTIE 1
SIGNAUX ET SYTEMES
ANALOGIQUES
Octobre 2020
\
Chapitre 1
Introduction au Traitement du Signal Analogique
I. Signal physique
Bruit
Bruit (Echo)
1
II.3 Différentes fonctions d’une chaine de TS
Analyse d’un signal : extraire les composantes utiles d’un signal complexe pour mieux
comprendre sa nature.
Mesure d’un signal : estimer les grandeurs qui le caractérisent.
Filtrage : éliminer les composantes inutiles et gênantes.
Restauration : ‶ réparation ″ des dégradations subies par le signal.
Synthèse : créer un signal par combinaison de signaux élémentaires en lui donnant une
forme appropriée.
Modulation : modifier les caractéristiques d’un signal pour l’adapter à un canal de
transmission ou à un support de stockage.
Codage : convertir le signal en code binaire pour être utilisé par les supports informatiques.
Compression : réduire l’espace mémoire occupée par le signal au cours de sa transmission
ou son stockage.
Segmentation : découpage d’un signal en segments homogènes.
III.1 Causalité
Un signal x(t) est dit causal s’il débute à une date t=0. Autrement : 𝑥(𝑡) = 0 𝑝𝑜𝑢𝑟 𝑡 < 0.
III.2 Stabilité
+∞
x(t) est un signal stable s’il vérifie la condition suivante : ∫−∞ |𝑥(𝑡)|𝑑𝑡 < +∞
Lorsque x(t) est en même temps causal et stable alors x(t) est dit réalisable.
III.3 Symétrie
2
Signaux échantillonnés dont l’amplitude continue et le temps discret.
Signaux numériques dont l’amplitude et le temps sont discrets.
Amplitude
Continue Discrete
Continu
Discret
Un signal est dit déterministe ou certain si son évolution au cours du temps peut être
parfaitement décrite par un modèle mathématique qui représente une fonction réelle ou
complexe.
𝑡
Exemple : la décharge d’un condensateur est décrite par l’équation suivante : 𝑉(𝑡) = 𝑉0 𝑒 −𝜏 .
3
Signal deterministe periodique
Signal aleatoire
4
Energie de x(t) :
𝑇
+∞ + 20
𝐸=∫ |𝑥(𝑡)|2 𝑑𝑡 𝑜𝑢 𝐸 = lim ∫ |𝑥(𝑡)|2 𝑑𝑡
−∞ 𝑇0 →+∞ −𝑇0
2
Définitions : Un signal est dit à énergie finie si : 0 < E < +∞. Ces signaux sont dits aussi de carré intégrable
ou sommable.
−1 𝑡<0 sgn(t)
𝑠𝑔𝑛(𝑡) = {
+1 𝑡>0 1
t
-1
5
Par convention on admet que sgn(t)=0 pour t=0.
𝑇
𝑡 1 |𝑡| ≤
𝑟𝑒𝑐𝑡𝑇 (𝑡) = 𝛱𝑇 (𝑡) = 𝑟𝑒𝑐𝑡 (𝑇) = { 2 1
0 𝑎𝑖𝑙𝑙𝑒𝑢𝑟𝑠
r(t)
𝑟(𝑡) = 𝑡 × 𝑢(𝑡) 1
1 t
𝑠𝑖𝑛𝜋𝑡
𝑠𝑖𝑛𝑐(𝑡) = 𝜋𝑡
Cette fonction joue un rôle très important en traitement de signal. On cite quelques-unes de ses
propriétés :
+∞ +∞
∫ 𝑠𝑖𝑛𝑐(𝑡)𝑑𝑡 = 1 𝑒𝑡 ∫ 𝑠𝑖𝑛𝑐(𝑡)2 𝑑𝑡 = 1
−∞ −∞
𝑠𝑖𝑛𝑐(t)
6
V.2. Introduction aux Distributions
𝛿 n’est pas une fonction, cependant pour des raisons de commodités on la note comme telle :
+∞
∞ 𝑠𝑖 𝑡 = 0
𝛿(𝑡) = { 𝑒𝑡 ∫ 𝛿(𝑡)𝑑𝑡 = 1
0 𝑠𝑖 𝑡 ≠ 0 −∞
L’intégral représente l’aire de cette impulsion qu’on représente par le schéma suivant:
𝛿(t)
+∞ +∞
∫ 𝛿(𝑡)𝑑𝑡 = ∫ 𝛿(𝑡 − 𝑡0 )𝑑𝑡 = 1
−∞ −∞
+∞
∫ 𝑥(𝑡)𝛿(𝑡)𝑑𝑡 = 𝑥(0)
Intégrale −∞
+∞
∫ 𝑥(𝑡)𝛿(𝑡 − 𝑡0 )𝑑𝑡 = 𝑥(𝑡0 )
−∞
7
Changement d’échelle 𝛿(𝑎𝑡) = |𝑎|−1 𝛿(𝑡)
-kT -2T -T T 2T kT t
Cette suite est appelée parfois Train d’impulsions de période T et principalement utilisée
dans l’échantillonnage (voir chapitre signal numérique).
VI.1. Définition
On appelle produit de convolution entre deux signaux x(t) et h(t), le signal s(t) défini par :
+∞
𝑠(𝑡) = 𝑥(𝑡) ∗ ℎ(𝑡) = 𝑥(𝑡) ⊗ ℎ(𝑡) = ∫ 𝑥(𝜏)ℎ(𝑡 − 𝜏)𝑑𝜏
−∞
8
𝑥(𝑡 − 𝜏) = 𝑥(𝑡) ∗ 𝛿(𝑡 − 𝜏)
Décalage
𝑥(𝑡) ∗ ℎ(𝑡 − 𝜏) = 𝑥(𝑡 − 𝜏) ∗ ℎ(𝑡)
Associativité 𝑥(𝑡) ∗ (ℎ(𝑡) ∗ 𝑔(𝑡)) = 𝑥(𝑡) ∗ (ℎ(𝑡) ∗ 𝑔(𝑡))
La corrélation est l’outil mathématique qui permet de comparer les signaux. Elle permet
de mesurer la similitude ou la ressemblance entre les signaux dans le but d’extraire des
informations.
S’il s’agit de deux signaux différents, on parle d’intercorrélation. Dans ce cas on mesure
le retard de distance et/ou de temps entre les signaux. Dans le cas d’un même signal, on parle
d’Autocorrélation.
Parmi les applications de la corrélation :
Extraction d’un signal noyé dans du bruit.
Mesure du retard apporté par le canal de propagation ou de transmission (Fibre Optique,
Transmission Hertzienne, Radars, Sonars...)
Réduction du bruit
Soit x(t) et y(t) deux signaux à énergie fini, la fonction d’intercorrélation est définie par :
+∞
𝑅𝑥𝑦 (𝜏) = ∫ 𝑥(𝑡)𝑦(𝑡 − 𝜏)𝑑𝑡
−∞
9
+∞
𝑅𝑥𝑥 (𝜏) = ∫ 𝑥(𝑡)𝑥(𝑡 − 𝜏)𝑑𝑡
−∞
Si le Décalage τ = 0, alors :
+∞
𝑅𝑥𝑥 (0) = ∫−∞ 𝑥 2 (𝑡)𝑑𝑡 = 𝐸𝑛𝑒𝑟𝑔𝑖𝑒 𝑑𝑒 𝑥(𝑡)
Remarques :
∀ 𝜏 ≥ 0 𝑎𝑙𝑜𝑟𝑠: 𝑅𝑥𝑥 (0) ≥ 𝑅𝑥𝑥 (𝜏)
𝑅𝑥𝑥 (𝜏) = 𝑅𝑥𝑥 (−𝜏) ↔ 𝑙 ′ 𝑎𝑢𝑡𝑜𝑐𝑜𝑟𝑟é𝑙𝑎𝑡𝑖𝑜𝑛 𝑒𝑠𝑡 𝑝𝑎𝑖𝑟𝑒
Si x(t) est fonction périodique alors 𝑅𝑥𝑥 (𝜏) est périodique et paire.
Si y(t) = x(t)+n(t) avec n(t) un signal bruit alors : 𝑅𝑦𝑦 (𝜏) = 𝑅𝑥𝑥 (𝜏)
Ces signaux sont permanents et possèdent une énergie très grande dans ce cas on a :
⁄2 +𝑇
1
𝑅𝑥𝑦 (𝜏) = lim ∫ 𝑥(𝑡)𝑦(𝑡 − 𝜏)𝑑𝑡
𝑇→+∞ 𝑇 −𝑇⁄
2
Et :
⁄2 +𝑇
1
𝑅𝑥𝑥 (𝜏) = lim ∫ 𝑥(𝑡)𝑥(𝑡 − 𝜏)𝑑𝑡
𝑇→+∞ 𝑇 −𝑇⁄
2
Si τ = 0, alors :
⁄2 +𝑇
1
𝑅𝑥𝑥 (0) = lim ∫ 𝑥 2 (𝑡)𝑑𝑡 = 𝑃𝑢𝑖𝑠𝑠𝑎𝑛𝑐𝑒 𝑚𝑜𝑦𝑒𝑛𝑛𝑒 𝑑𝑒 𝑥(𝑡)
𝑇→+∞ 𝑇 −𝑇⁄
2
Un signal aléatoire est un signal imprévisible qui peut être modélisé et défini par ses
caractéristiques temporelles et statistiques.
10
VIII.1.2. Autocorrélation temporelle
⁄2 +𝑇
1
𝑅𝑥𝑥 (𝜏) = lim ∫ 𝑥(𝑡)𝑥(𝑡 − 𝜏)𝑑𝑡
𝑇→+∞ 𝑇 −𝑇⁄
2
𝜎[𝑥(𝑡)] = √𝑉[𝑥(𝑡)]
VIII.2.5. Ergodicité
Un signal aléatoire est ergodique si :
11
IX. Signal bruit
SNR exprime l’effet du bruit sur le signal x(t), on peut l’exprimer aussi en décibel par la relation
suivante :
𝑃𝑥
𝑆𝑁𝑅(𝑑𝐵) = 𝑅𝑥⁄𝑏 (𝑑𝐵) = 10 𝑙𝑜𝑔10 ( )
𝑃𝑏
12
Chapitre 2
Dans ce chapitre et ceux qui vont suivre, on va s’intéresser essentiellement aux signaux
analogiques déterministes (certains) qui peuvent être parfaitement définie par des lois physiques
et qui admettent une énergie finie. L’évolution de ces signaux peut être décrite au cours du temps
autrement dit à chaque instant on s’intéresse à la valeur prise par le signal on parle de la
représentation temporelle, ou bien peut se faire en considérant sa fréquence d’apparition durant
une durée de temps il s’agit de la représentation fréquentielle. Mais les deux notions temps et
fréquence sont complémentaires et il est souvent plus facile d’interpréter l’évolution d’un signal
par sa représentation fréquentielle que celle temporelle.
Comme a été mentionné, on va considérer deux types de signaux :
Les signaux x(t) périodiques de période T, définie comme suit : ∀ 𝑡, 𝑥(𝑡) = 𝑥(𝑡 + 𝑇)
𝑥(𝑡) ≠ 0 ∀ 𝑡 ∈ [−𝑇, 𝑇]
Les signaux x(t) à temps fini, donc à support borné, tels que : {
𝑥(𝑡) = 0 𝑎𝑖𝑙𝑙𝑒𝑢𝑟𝑠
ak et bk sont les coefficients de Fourier qui sont déterminés par les relations suivantes :
𝑇
2 2
𝑎𝑘 = ∫ 𝑥(𝑡) cos(2𝜋𝑘𝑓0 𝑡) 𝑑𝑡, 𝑘≥1
𝑇 −𝑇
2
13
𝑇
2 2
𝑏𝑘 = ∫ 𝑥(𝑡) sin(2𝜋𝑘𝑓0 𝑡) 𝑑𝑡, 𝑘≥1
𝑇 −𝑇
2
𝑥(𝑡) = 𝐴0 + ∑ 𝐴𝑘 cos(2𝜋𝑘𝑓0 𝑡 + 𝛼𝑘 )
𝑘=1
𝑎0 𝑏
Avec : 𝐴0 = ; 𝐴𝑘 = √𝑎𝑘2 + 𝑏𝑘2 ; 𝛼𝑘 = 𝑎𝑟𝑐𝑡𝑎𝑛 (− 𝑎𝑘 )
2 𝑘
Cette série en cosinus est très importante car elle correspond à la description bien connue
des signaux en régime sinusoïdal permanent ou l’on représente un courant ou une tension par
leur amplitude et leur phase. D’un point de vue pratique, ceci revient à considérer que le signal
x(t) est créé de manière équivalente par une infinité de générateurs sinusoïdaux.
𝑒 𝑗𝑥 + 𝑒 −𝑗𝑥 𝑒 𝑗𝑥 + 𝑒 −𝑗𝑥
𝑐𝑜𝑠𝑥 = 𝑒𝑡 𝑠𝑖𝑛𝑥 =
2 2𝑗
Avec : 𝑒 𝑗𝑥 = 𝑐𝑜𝑠𝑥 + 𝑗𝑠𝑖𝑛𝑥
On obtient la décomposition en série de Fourier complexe de x(t) :
𝑘=+∞
14
II.4 Représentation vectorielle des trois séries de Fourier
Im
𝒂𝒌 𝒂𝒌 Donc:
Re
−𝜶𝒌 𝟐 𝑨𝒌 = 2|𝑿(𝒋𝒌)|
𝒃𝒌
𝟐 𝑿(−𝒋𝒌)
𝑥(𝑡) = 𝐴0 + ∑ 𝐴𝑘 cos(2𝜋𝑘𝑓0 𝑡 + 𝛼𝑘 )
𝑘=1
|𝑋(𝑗𝑘)| en fonction de (𝑘𝑓0 ) représente le spectre d’amplitude du signal x(t). |𝑋(𝑗𝑘)| étant le
module de 𝑋(𝑗𝑘).
∠ (𝑋(𝑗𝑘)) en fonction de (kf0) représente le spectre de phase du signal x(t) avec ∠ (X(jk)) est la
phase du complexe 𝑋(𝑗𝑘).
15
Ces deux spectres sont des spectres bilatéraux avec des fréquences qui peuvent être négatives ou
positives car le compteur k varie de - ∞ à +∞.
On peut facilement montrer que :
Le calcul des séries de Fourier est plus simple si on tient compte de la symétrie des signaux
en effet :
Un signal x(t) impair est représenté par une fonction qui ne contient uniquement que
𝜋
des sinus, donc ce cas on a : ℛe(X(jk) = 0 et 𝛼𝑘 = ± 2
Un signal x(t) pair est représenté par une fonction qui ne contient uniquement que
des cosinus, donc ce cas on a : ℑ𝑚(X(jk) = 0 et 𝛼𝑘 = 0 ou ± π
Un signal à symétrie demi-onde comme celui de la figure, est tel que X(jk)=0 pour
les k pair.
16
B
En appliquant la relation : Acos(x) + Bsin(x) = √A2 + B2 cos(x + arctan (− A))
3,464 π
on obtient : x(t) = 3 + √4 + (3,464)2 cos (2πf0 t + arctan ( )) + 2sin(4πf0 t + 4 )
2
π π π π
Or : sin (4πf0 t + 4 ) = cos (4πf0 t + 4 − 2 ) = cos(4πf0 t − 4 )
π π
Donc : x(t) = 3 + 4 cos (2πf0 t + 3 ) + 2cos(4πf0 t − 4 )
π π
x(t) = 3 + 4 cos (2πf0 t + ) + 2cos(2(2π)f0 t − )
3 4
2
x(t) = A0 + ∑ Ak cos(2πkf0 t + αk )
k=1
Avec :
π π
A0 = 3, A1 = 4, A2 = 2, α1 = et α2 =
3 4
𝑨𝒌 𝜶𝒌
4
3 𝜋
2 3
𝑓0 2𝑓0 𝒇𝟎 𝜋 𝑓0 2𝑓0 𝒇𝟎
−
4
B- Spectres bilatéraux
ejx +e−jx
On utilise la relation : cosx = , on détermine la forme complexe de x(t) :
2
π π π π
ej(2πf0 t+3 ) + e−j(2πf0 t+3 ) ej(4πf0 t−4 ) + e−j(4πf0 t−4 )
x(t) = 3 + +2
2 2
π π π π
x(t) = 3 + 2 [ej(2πf0 t) ej3 + e−j(2πf0 t) e−j3 ] + [ej(4πf0 t) e−j4 + e−j(4πf0 t) ej4 ]
π π π π
x(t) = 3ej0 + 2ej3 ej(2πf0 t) + 2e−j3 e−j(2πf0 t) + e−j4 ej(2f0 (2π)t) + ej4 e−j(2f0 (2π)t)
x(t) = 3ej0 + X(1. j)ej(2πf0 t) + X(−1. j)ej(−2πf0 t) + X(2. j)ej(2f0 (2π)t) + X(−2. j)ej(−2f0 (2π)t)
k=2
x(t) = ∑ X(jk)ej2πkf0 t
k=0
π π π π
avec : X(0j) = 3, X(1. j) = 2ej 3 , X(−j) = 2e−j 3 , X(2. j) = e−j 4 , X(−2j) = ej 4 .
17
|𝑿(𝒌𝒋)|
∠(𝑿(𝒌𝒋)
3
𝜋
3
2
𝜋
1 4
𝜋
−
3
n=+∞
18
n=+∞ n=+∞
1 1 1
D(j. k) = ∑ δ(f − nFe ) = ∑ δ(f − nFe ) = ШFe (f)
Te Te Te
n=−∞ n=−∞
𝑻𝑭 𝟏
Ш𝐓𝐞 (𝐭) ⇒ Ш (𝐟)
𝐓𝐞 𝐅𝐞
1
Te
X(f) est appelée Transformée de Fourier du signal x(t). Elle permet d’avoir des informations
fréquentielles sur x(t) en indiquant ‶la quantité de fréquences″ présentent dans le signal x(t) sur
l’intervalle ] -∞,+∞[.
x(t) est appelé Transformée de Fourier Inverse et définie par :
+∞
𝑥(𝑡) = 𝑇𝐹 −1 (𝑋(f)) = ∫ 𝑋(𝑓)𝑒 𝑗2𝜋𝑓𝑡 𝑑𝑓
−∞
Dans des cas on utilise la variable pulsation ω =2πf, au lieu de la fréquence f et on aura :
1 +∞
𝑋(ω) = 𝑇𝐹(𝑥(𝑡)) = ∫ 𝑥(𝑡)𝑒 −𝑗ω𝑡 𝑑𝑡
2𝜋 −∞
1 +∞
𝑥(𝑡) = 𝑇𝐹 −1 (𝑋(ω)) = ∫ 𝑋(ω)𝑒 𝑗ω𝑡 𝑑ω
2𝜋 −∞
Remarque
Pour un signal bidimensionnel x(t1, t2) la transformée de Fourier est définie par :
19
+∞ +∞
𝑋(𝑓1 , 𝑓2 ) = 𝑇𝐹(𝑥(𝑡1 , 𝑡2 )) = ∫ ∫ 𝑥(𝑡1 , 𝑡2 )𝑒 −𝑗2𝜋(𝑓1 𝑡1 +𝑓2𝑡2 ) 𝑑𝑡1 𝑑𝑡2
−∞ −∞
Les propriétés de la transformée de Fourier les plus utiles en traitement de signal sont
regroupées dans le tableau suivant :
20
‶La transformée de Fourier d’un produit de convolution dans le temps se transforme en produit
de transformées de Fourier dans le domaine fréquentiel et vice versa″. Soit si X(f)=TF(x(t)) et
Y(f)=TF(x(t)) alors:
C’est l’égalité de Parseval qui montre qu’un signal a la même énergie dans les domaines temporel
et fréquentiel. Donc il y’a conservation de l’énergie ce qui nous pousse à considérer la densité
spectrale d’énergie S(f) telle que :
𝑆(𝑓) = |𝑋(𝑓)|2
On peut parler de l’énergie dans une bande de largeur ∆f centrée en f0 :
𝑓0 +∆f
𝐸∆f = ∫ 𝑆(𝑓)𝑑𝑓
𝑓0 −∆f
+∞
Ou de l’énergie totale : 𝐸 = ∫−∞ 𝑆(𝑓)𝑑𝑓
A −j2πf
∆t
j2πf
∆t A ejπf∆t − e−jπf∆t A
X(f) = − [e 2 −e 2 ]= [ ] = sin(πf∆t)
j2πf πf 2j πf
A∆t sin(πf∆t)
X(f) = sin(πf∆t) = A∆t
πf∆t πf∆t
Donc :
𝐗(𝐟) = 𝐀∆𝐭 × 𝐬𝐢𝐧𝐜(𝛑𝐟∆𝐭), C′ est un réel
21
Le spectre d’amplitude d’une impulsion rectangulaire est un sinus cardinal tel que :
𝑘
∀k entier, πf∆t = kπ soit f = ∆t , on a: sinc(πf∆t) = 0
Sinc(πf∆t)
A∆t
Remarques :
22
Chapitre 3
L’étude des systèmes analogiques consiste à faire une description mathématique de leur
comportement afin d’établir une relation entre l’entrée et la sortie, ce qui revient à modéliser le
système via un modèle ou une équation mathématique en se basant sur des lois de la physique
ou de l’observation. Dans ce qui suit des exemples de systèmes analogiques :
Système électrique
R
i(t)
Système mécanique
- L’entrée est la force f(t)
- La sortie est la position x(t) par rapport à x(0)
k
- L’équation qui lie x(t) et f(t) est:
α M f(t) f(t) − kx(t) − αxሶ (t) = Mxሷ (t)
Avec : k : coefficient de frottement élastique
α : coefficient de frottement visqueux
x(0) x(t) x(0) : position d’équilibre
23
II. Système Analogique Linéaire Invariant
II.1 Définition
Un système analogique est dit linéaire invariant s’il possède les trois propriétés suivantes :
homogénéité, additivité et invariance dans le temps.
Homogénéité :
Un système est homogène s’il produit à la sortie la même variation que subit le signal
d’entré autrement si x(t) est le signal appliqué à l’entré et y(t) le signal de sortie alors une entrée
kx(t) produira ky(t) à la sortie.
Système Analogique
x(t) (S) y(t)=S(x(t))
Système Analogique
kx(t) ky(t)=S(kx(t))
(S)
Additivité :
Un système analogique possède la propriété d’additivité si on applique à son entrée la
somme de deux signaux analogiques alors il produit à la sortie la somme des sorties individuelles
de chaque signal. Si x1(t) est le signal d’entrée dont la sortie est y1(t) et x2(t) le signal d’entrée dont
la sortie est y2(t) alors si on applique simultanément x1(t) + x2(t) à l’entrée du système la sortie sera
y1(t) + y2(t).
Invariance :
Un système analogique est invariant dans le temps ou stationnaire s’il reproduit la même
sortie du signal d’entrée après un décalage temporel. Si x(t) est le signal d’entrée d’un système
analogique et y(t) la sortie de ce dernier alors x(t-t0) reproduit la sortie y(t-t0).
24
II.2 Propriétés des systèmes linéaires invariants (SLI)
II.2.1 Commutativité
Soit deux systèmes linéaires A et B montés en cascade : A suivi de B comme il est indiqué
sur la figure. Si x(t) est le signal à l’entrée de A et y(t) la sortie des deux systèmes, alors si on
inverse l’enchainement des deux systèmes on obtient la même sortie y(t) pour le même signal
d’entrée x(t).
II.2.2 La superposition
La superposition est une technique clé dans l’analyse des signaux analogiques. Elle
consiste à décomposer un signal d’entrée x(t) en plusieurs composantes simples qu’on applique
individuellement à l’entrée du système analogique, la sortie y(t) n’est autre que la somme des
sorties du système pour chaque composante.
x(t)
Décomposition
+ +
xn(t) Système S yn(t)
Synthèse
y(t)
25
III. Réponse Impulsionnelle des SLI
La réponse impulsionnelle est une caractéristique très importante des SLI et elle
représente la sortie du système lorsqu’à son entrée est appliquée une impulsion de Dirac. En
général cette réponse est désignée par h(t).
SLI
x(t) = δ(t) h(t) y(t) = h(t)
La convolution est un outil mathématique très utile pour calculer la sortie ou la réponse
y(t) d’un SLI de réponse impulsionnelle h(t), à une entrée x(t) quelconque. Dans ce cas on a:
+∞ +∞
𝑦(𝑡) = 𝑥(𝑡) ⊗ ℎ(𝑡) = ∫ ℎ(𝜏)𝑥(𝑡 − 𝜏)𝑑𝜏 = ∫ 𝑥(𝜏)ℎ(𝑡 − 𝜏)𝑑𝜏
−∞ −∞
SLI
x(t) h(t) y(t)=x(t)⊗h(t)
Dans le cas d’un système causal comme les systèmes réels on a la sortie est nulle pour t<0 donc
on peut simplifier l‘intégrale à :
+∞
𝑦(𝑡) = ∫ ℎ(𝜏)𝑥(𝑡 − 𝜏)𝑑𝜏
0
26
Cas d’un système causal
Pour un système x(t) causal on parle de la transformée de Laplace monolatérale définie par :
+∞
𝑋(𝑝) = 𝐿(𝑥(𝑡)) = ∫ 𝑥(𝑡)𝑒 −𝑝𝑡 𝑑𝑡
0
Notez bien que dans ce cas, il faut tenir en compte des conditions initiales du système.
Les propriétés les plus intéressantes de la transformée de Laplace sont regroupées dans
le tableau suivant :
27
Signal Représentation temporelle Représentation Fréquentielle
Echelon unité x(t) = Γ(t) 1
𝑋(𝑝) =
𝑝
Impulsion de Dirac x(t) = δ(t) X(p) = 1
Constante (non causale) x(t) = 1 X(p) = δ(p)
Exponentielle causale 𝑥(𝑡) = 𝑒 −𝛼𝑡 . Γ(t) 1
𝑋(𝑝) =
𝑝+𝛼
Puissance de t causale 𝑥(𝑡) = 𝑡 𝑛 . Γ(t) 𝑛!
𝑋(𝑝) = 𝑛+1
𝑝
Sinus causal 𝑥(𝑡) = 𝑠𝑖𝑛(𝜔0 𝑡). Γ(t) 𝜔0
𝑋(𝑝) = 2
𝑝 + 𝜔02
Cosinus causal 𝑥(𝑡) = 𝑐𝑜𝑠(𝜔0 𝑡). Γ(t) 𝑝
𝑋(𝑝) = 2
𝑝 + 𝜔02
1 1 𝜏
= t
+
-1
𝜏 t 𝜏 t
28
𝑅(𝑡)
τ
t
-1
On constate que R(t) = f(t) – f(t – τ) donc L(R(t)) = L(f(t)) – L(f(t – τ))
1 − e−pτ 1 − e−pτ −pτ
L(R(t)) = − e
p p
(𝟏 − 𝐞−𝐩𝛕 )𝟐
𝐋(𝐑(𝐭)) =
𝐩
IV.4.3 Cas d’un signal rectangulaire périodique
Soit g(t) est une onde rectangulaire périodique de période T :
g(t)
t
T
-1
On peut écrire :
g(t) = R(t) + R(t-T) + R(t-2T) + ……………..
L(g(t)) = L(R(t)) + L(R(t-T)) + L(R(t-2T)) + ………
Donc :
𝐋(𝐑(𝐭)) 𝟏 − 𝐞−𝐩𝐓
𝐋(𝐠(𝐭)) = =
𝟏 − 𝐞−𝐩𝐓 𝐩
29
IV.5. Fonction de Transfert
Si x(t) est un signal appliqué à l’entrée d’un système SLI de réponse impulsionnelle h(t),
alors la sortie sera y(t) = h(t) * x(t). Si on applique la transformée de Laplace à cette équation on
obtient :
𝒀(𝒑)
𝑌(𝑝) = 𝐻(𝑝) × 𝑋(𝑝) ⇒ 𝑯(𝒑) =
𝑿(𝒑)
H(p) est appelée Fonction de Transfert du système SLI appelée aussi représentation fréquentielle
généralisée.
Exemple 1
On considère le circuit de charge du condensateur suivant :
30
Représentation fréquentielle de Fourier:
On applique la transformée de Fourier à l’équation d’état ou on remplace p par j2πf dans la
fonction de transfert H(p) on obtient la représentation en fréquence du système suivante :
𝟏
𝐇(𝐟) =
𝟏 + 𝐣𝟐𝛑𝐟𝐑𝐂
Donc le gain du système est :
1
|H(f)| =
√1 + (2πRCf)2
Et son argument est : φ = - artcg(2πRCf) qui représente le déphasage entre la tension d’entrée
e(t) et la tension de sortie s(t).
Exemple 2
𝟏
𝐇 ( 𝐟) =
𝐤 + 𝐣𝟐𝛑𝛂𝐟 − 𝟒𝛑𝟐 𝐌𝐟 𝟐
31
VI. Stabilité d’un système SLI
t t
Un système SLI est stable si et seulement si tous les pôles de sa fonction de transfert
généralisée H(p) ont une partie réelle négative. Pour ce faire on peut décomposer H(p) en
éléments simples sous la forme suivante :
𝐴1 𝐴2 𝐴𝑖
𝐻(𝑝) = + +⋯=∑
𝑝 − 𝑎1 𝑝 − 𝑎2 𝑝 − 𝑎𝑖
𝑖
H(p) apparait donc comme la somme de sous-systèmes de premier ordre en p. Ainsi le système
est stable si chacun des sous-systèmes l’est.
Rq : Du point de vue physique, un système est dit stable si, après une brève perturbation, il revient
à sa position d’équilibre ou de repos.
Un système SLI de fonction de transfert H(f) est à phase linéaire si 𝜑 = 𝑎𝑟𝑔[𝐻(𝑓)] est
une fonction linéaire en fonction de la variable f soit :
𝝋 = 𝒂𝒓𝒈[𝑯(𝒇)] = 𝒌𝒇 𝑎𝑣𝑒𝑐 𝑘 𝑢𝑛𝑒 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒
Un système SLI de fonction de transfert H(p) est à phase minimale si tous les zéros de
H(p) sont à partie réelle négative.
32
VIII. Exemple de calcul de réponse d’un système SLI
Problème :
Considérons le circuit de charge du condensateur vu précédemment (il représente aussi un filtre
passe-bas qui sera traité dans le prochain chapitre).
1. Déterminer sa fonction de transfert
2. Calculer sa réponse à un signal échelon d’amplitude E.
3. Calculer sa réponse à un signal impulsion rectangulaire de longueur θ et d’amplitude E.
Réponse :
1
1. On a: e(t) = Ri(t) + s(t), Avec: s(t) = C ∫ i(t)dt (tension aux bornes de C)
Donc:
1 1 1
e(t) = Ri(t) + ∫ i(t)dt ⇒ E(p) = RI(p) + I(p), Avec: I(p) = S(p)
C PC PC
D’où :
1 1
S(p) I(p) 1
H(p) = = PC = PC =
E(p) RI(p) + 1 I(p) R + 1 1 + pRC
PC PC
2π
En posant : τ = RC = ω ,
0
On obtient :
𝟏 𝛚𝟎
𝐇(𝐩) = =
𝟏 + 𝐩𝛕 𝐩 + 𝛚𝟎
Pour la représentation fréquentielle de Fourier on a : p = j𝜔0 = 𝑗2𝜋𝑓0 donc :
𝟏 𝟏
𝐇(𝐣𝛚) = 𝐇(𝐟) = =
𝟏 + 𝐣 𝛚⁄𝛚𝟎 𝟏 + 𝐣 𝐟⁄𝐟𝟎
𝐭
𝐬(𝐭) = 𝐋−𝟏 (𝐒(𝐩)) = 𝐄(𝟏 − 𝐞− ⁄𝛕 )
3. Calculons la réponse s(t), si l’entrée e(t) est une impulsion rectangulaire de longueur θ et
d’amplitude E :
D’après l’exemple1 du calcul de la transformée de Laplace on peut écrire :
33
E(1 − e−pθ )
E(p) =
p
Donc :
1 E(1 − e−pθ )
S(p) = H(p) × E(p) = H(p) = ×
1 + pτ p
1 1 τ
S(p) = × E(1 − e−pθ ) = [ − ] × E(1 − e−pθ )
p(1 + pτ) p (1 + pτ)
1 τ 1 τ
S(p) = [ − ]×E−[ − ] E(1 − e−pθ )
p (1 + pτ) p (1 + pτ)
E e−pθ
S(p) = [ ]−[ ]
p(1 + pτ) p(1 + pτ))
Conclusion :
𝐭 (𝐭−𝛉)⁄ 𝐭−𝛉 𝐭
𝐬(𝐭) = 𝐄(𝟏 − 𝐞− ⁄𝛕 ) − 𝐄 (𝟏 − 𝐞− 𝛕) = 𝐄(𝐞− 𝛕 − 𝐞 −𝛕 )
34
Annexe
I. 1er cas :
𝑁(𝑝)
𝐻(𝑝) =
(𝑝 − 𝑎1 )(𝑝 − 𝑎2 )(𝑝 − 𝑎3 ) … (𝑝 − 𝑎𝑛 )
Dans ce cas on peut mettre H(p) sous la forme suivante:
𝐴1 𝐴2 𝐴3 𝐴𝑛
𝐻(𝑝) = + + + ⋯+
(𝑝 − 𝑎1 ) (𝑝 − 𝑎2 ) (𝑝 − 𝑎3 ) (𝑝 − 𝑎𝑛 )
Et on peut déterminer les paramètres Ai en utilisant l’une des trois méthodes suivantes :
Sachant que N(p) est aussi un polynôme en p d’ordre m alors on peut mettre au même
dénominateur et obtenir :
𝑁(𝑝)
𝐻(𝑝) =
(𝑝 − 𝑎1 )(𝑝 − 𝑎2 )(𝑝 − 𝑎3 ) … (𝑝 − 𝑎𝑛 )
𝐴1 (𝑝 − 𝑎2 ) … (𝑝 − 𝑎𝑛 ) + 𝐴2 (𝑝 − 𝑎1 ) … (𝑝 − 𝑎𝑛 ) + ⋯ + 𝐴𝑛 (𝑝 − 𝑎2 ) … (𝑝 − 𝑎𝑛−1 )
𝐻(𝑝) =
(𝑝 − 𝑎1 )(𝑝 − 𝑎2 )(𝑝 − 𝑎3 ) … (𝑝 − 𝑎𝑛 )
Donc on a :
𝑵(𝒑) = 𝑨𝟏 (𝒑 − 𝒂𝟐 ) … (𝒑 − 𝒂𝒏 ) + 𝑨𝟐 (𝒑 − 𝒂𝟏 ) … (𝒑 − 𝒂𝒏 ) + ⋯
+ 𝑨𝒏 (𝒑 − 𝒂𝟏 ) … (𝒑 − 𝒂𝒏−𝟏 )
Par identification avec les coefficients des puissances en p dans N(p) on forme un système
d’équation à n équations avec les Ai comme inconnus.
Exemple :
5𝑝2 − 3𝑝 − 11 𝐴 𝐵 𝐶
𝐻(𝑝) = = + +
(𝑝 − 1)(𝑝 + 2)(𝑝 − 3) (𝑝 − 1) (𝑝 + 2) (𝑝 − 3)
35
𝐴+𝐵+𝐶 =5 𝐴 = 3⁄2
{ −𝐴 − 4𝐵 + 𝐶 = −3 ⇒ { 𝐵=1
−6𝐴 + 3𝐵 − 2𝐶 = −11 𝑐 = 5⁄2
𝟑⁄ 𝟏 𝟓⁄
𝑯(𝒑) = 𝟐 + + 𝟐
(𝒑 − 𝟏) (𝒑 + 𝟐) (𝒑 − 𝟑)
𝐴1 𝐴2 𝐴3 𝐴𝑛
𝐻(𝑝) = + + + ⋯+
(𝑝 − 𝑎1 ) (𝑝 − 𝑎2 ) (𝑝 − 𝑎3 ) (𝑝 − 𝑎𝑛 )
On a :
𝑁(𝑝)
𝐴1 = lim (𝑝 − 𝑎1 )𝐻(𝑝) = lim
𝑝→𝑎1 𝑝→𝑎1 (𝑝 − 𝑎2 )(𝑝 − 𝑎3 ) … (𝑝 − 𝑎𝑛 )
En général on a :
𝑁(𝑝)
𝐴𝑖 = lim (𝑝 − 𝑎𝑖 )𝐻(𝑝) = lim (𝑝 − 𝑎𝑖 )
𝑝→𝑎𝑖 𝑝→𝑎𝑖 (𝑝 − 𝑎2 )(𝑝 − 𝑎3 ) … (𝑝 − 𝑎𝑖 ) … (𝑝 − 𝑎𝑛 )
𝑵(𝒑)
𝑨𝒊 = 𝒍𝒊𝒎
𝒑→𝒂𝒊 (𝒑 − 𝒂𝟐 )(𝒑 − 𝒂𝟑 ) … … (𝒑 − 𝒂𝒏 )
Exemple :
𝑁(𝑝)
𝐻(𝑝) =
(𝑝 − 𝑎1 )𝑝1 (𝑝 − 𝑎2 )𝑝2 (𝑝
− 𝑎3 )𝑝3 … (𝑝 − 𝑎𝑛 )𝑝𝑛
36
𝐴2,1 𝐴2,2 𝐴2,3 𝐴2,𝑝2
+ + 2
+ 3
+ ⋯+
(𝑝 − 𝑎2 ) (𝑝 − 𝑎2 ) (𝑝 − 𝑎2 ) (𝑝 − 𝑎2 )𝑝2
.
.
.
.
𝐴𝑛,1 𝐴𝑛,2 𝐴𝑛,3 𝐴𝑛,𝑝𝑛
+ + 2
+ 3
+ ⋯+
(𝑝 − 𝑎𝑛 ) (𝑝 − 𝑎𝑛 ) (𝑝 − 𝑎𝑛 ) (𝑝 − 𝑎𝑛 )𝑝𝑛
Et on peut utiliser les méthodes de la limite et d’identification pour calculer les paramètres𝐴𝑖,𝑝𝑖
Exemple :
7𝑝2 + 1
𝐻(𝑝) =
(𝑝 + 3)2 (𝑝 − 1)2
Donc :
𝐴 𝐵 𝐶 𝐷
𝐻(𝑝) = + 2
+ +
𝑝 + 3 (𝑝 + 3) 𝑝 − 1 (𝑝 − 1)2
On a :
7𝑝2 + 1 64
𝐵 = lim (𝑝 + 3)2 𝐻(𝑝) = lim = =4
𝑝→−3 𝑝→−3 (𝑝 − 1)2 16
7𝑝2 + 1 8 1
𝐷 = lim (𝑝 − 1)2 𝐻(𝑝) = lim = =
𝑝→1 𝑝→1 (𝑝 + 3)2 16 2
Et en mettant au même dénominateur on a :
𝐴(𝑝 + 3)(𝑝 − 1)2 + 𝐵(𝑝 − 1)2 + 𝐶(𝑝 − 1)(𝑝 + 3)2 + 𝐷(𝑝 + 3)2
𝐻(𝑝) =
(𝑝 + 3)2 (𝑝 − 1)2
Et par identification on a :
7𝑝2 + 1 = 𝐴(𝑝 + 3)(𝑝 − 1)2 + 𝐵(𝑝 − 1)2 + 𝐶(𝑝 − 1)(𝑝 + 3)2 + 𝐷(𝑝 + 3)2
Et on forme le système d’équation suivant :
𝐴 + 𝐶 = 0 ⇒ 𝐴 = −𝐶
𝐴 + 𝐵 + 𝐷 + 5𝐶 = 7
{
−5𝐴 − 2𝐵 + 6𝐷 + 3𝐶 = 0
3𝐴 + 𝐵 + 9𝐷 − 9𝐶 = 1
Conclusion :
−𝟓⁄ 𝟒 𝟓⁄ 𝟏⁄
𝑯(𝒑) = 𝟖 + + 𝟖 + 𝟐
𝒑 + 𝟑 (𝒑 + 𝟑) 𝟐 𝒑 − 𝟏 (𝒑 − 𝟏)𝟐
37
Chapitre 4
L’antenne d’un récepteur radio simple capte plusieurs signaux émis par différentes
stations (émetteurs) donc à l’entrée de l’antenne se présente le signal superposition de tous ces
signaux émis et à l’aide d’un système linéaire SLI adéquat on peut isoler le signal qui
correspond à la station choisie. Ce système est appelé un Filtre. Donc le filtrage consiste à
atténuer (empêcher) certains signaux et à laisser ‶passer″ d’autres ceci en fonction du signal de
sortie désiré et ceux en modifiant certaines parties du signal. En effet : dans le chapitre2, on a
vu, d’après Fourier, que tout signal réel peut être décomposé en une somme de signaux
sinusoïdaux (parfois infini) à des fréquences différentes ce qui implique que le filtrage d’un
signal revient à modifier l’amplitude et la phase de ces composantes.
Le filtrage peut se faire aussi bien en temps qu’en fréquence. En effet :
Un filtrage temporel permet d’atténuer ou interrompre un signal au cours du
temps.
Un filtrage fréquentiel permet de sélectionner ou atténuer certaines fréquences.
Et la bande de fréquences transmises ou sélectionnées est appelée : Bande
passante du filtre.
38
I.2 Caractéristique d’un filtre Analogique
Filtre
x(t) h(t) y(t)=h(t)*x(t)
Produit de convolution
Parfois on préfère représenter un filtre par son gain en décibel (db) défini par :
Remarques :
Exercice d’application
Soit le signal exponentiel complexe x(t) = ejω0 t appliqué à l’entrée du filtre linéaire
continu caractérisé par sa réponse en fréquence H(ω) = |H(ω)|ejargH(ω). Quelle est
l’expression de la réponse temporelle y(t) en sortie du filtre?
Solution :
On a:
39
+∞
X(ω) = X(f) = TF(ejω0 t ) = ∫ x(t)e−jωt dt
−∞
+∞ +∞
X(ω) = ∫ ejω0 t e−jωt dt = ∫ ej(ω0 −ω)t dt = δ(ω − ω0 ) = X(ω)
−∞ −∞
Donc :
Y(ω) = H(ω) × X(ω) = H(ω) × δ(ω − ω0 ) = H(ω0 ) × δ(ω − ω0 )
Par suite:
1 +∞ 1 +∞
y(t) = TF −1 (Y(ω)) = ∫ Y(ω)ejωt dω = ∫ H(ω0 ) × δ(ω − ω0 )ejωt dω
2π −∞ 2π −∞
+∞ +∞
1 jωt
1
y(t) = H(ω0 ) ∫ δ(ω − ω0 )e dω = H(ω0 ) ∫ δ(ω − ω0 )ejω0 t dω
2π −∞ 2π −∞
+∞
1
y(t) = H(ω0 ) ejω0 t ∫ δ(ω − ω0 )dω = H(ω0 ) ejω0 t
2π −∞
En plus de sa fonction de transfert en fréquence, un filtre est caractérisé aussi par sa fréquence
de coupure et sa bande passante.
𝑌(𝑓)
1. La fréquence de coupure d’un filtre caractérisé par sa fonction de transfert 𝐻(𝑓) = 𝑋(𝑓)
est la fréquence fc telle que :
𝑀𝑎𝑥|𝐻(𝑓)|
|𝐻(𝑓𝑐 )| =
√2
2. La bande passante d’un filtre analogique est l’intervalle de fréquences [𝑓𝑖𝑛𝑓 , 𝑓𝑠𝑢𝑝 ] dans
lequel le gain en décibel G(f) reste supérieur à une valeur de référence qui correspond à
une atténuation de gain de √2.
Un filtre idéal transmet le signal d’entrée x(t) sans distorsion donc il restitue en sortie
un signal y(t) de même forme que x(t) à une plage de fréquences spécifiques. Il présente :
– Un affaiblissement nul dans la bande de fréquence que l’on désire conserver
(bande passante).
– Un affaiblissement infini dans la bande qu’on désire éliminer (bande atténuée ou
rejetée).
On peut classer les filtres idéaux en quatre catégories suivant la fréquence atténuée :
40
Les filtres passe-bas qui laissent passer les basses fréquences, et coupent les
hautes,
Les filtres passe-haut qui laissent passer les hautes fréquences et coupent les
basses,
Les filtres passe-bande ne laissent passer qu’une bande limitée de fréquences,
Les filtres coupe-bande, à l’inverse, laissent passer toutes les fréquences, sauf une
bande spécifique.
C’est un filtre qui laisse passer les fréquences inférieures à sa fréquence de coupure fc
et coupe celle qui sont supérieures d’où son nom « Passe-Bas ». La représentation de ce filtre
correspond au gabarit suivant :
|H(f)|
fc f
La bande passante d’un tel filtre est l’intervalle [0, fc ] ce qui veut dire pour tout signal
sinusoïdal à l’entrée dont la fréquence se situe dans la bande passante du filtre apparaitra en
sortie alors que tout signal sinusoïdal dont la fréquence est supérieure à fc sera atténué à la sortie
du filtre. En considérant les spectres du signal d’entrée x(t) et de sortie de y(t) on a :
X(f) Y(f)
Filtre
Passe-bas
fc f fc f
41
⇒ 20 log10 √2 + 20 log10 |H(fc 20)| = log10 |H(0)|
⇒ 20 log10 |H(fc 20)| − log10 |H(0)| = −20log10 √2
⇒ 20 log10 |H(fc 20)| − log10 |H(0)| = − 10log10 2 = −3db
Conclusion :
|H(f)|
fc f
C’est un filtre qui ne laisse passer qu’une bande limitée de fréquences, donc sa bande
passante est BP = [fcinf , fcsup ]. Le gabarit d’un tel filtre est le suivant :
|H(f)|
fcinf fcsup f
C’est un filtre qui laisse passer toutes les fréquences à l’exception d’une bande limitée
spécifique, donc sa bande passante est BP =] − ∞, fcinf ] ∪ [ fcsup , +∞[. Le gabarit d’un tel
filtre est le suivant :
42
|H(f)|
fcinf fcsup f
Remarque :
Certains filtres ne sont pas conçus pour arrêter des fréquences mais de modifier
légèrement le gain (rapport sortie/entrée) à différentes fréquences.
Soit x(t) le signal d’entrée d’un filtre idéal donc la sortie y(t) sera identique en forme à
x(t) à une plage de fréquences spécifiques mais x(t) peut toujours subir une amplification
d’amplitude K et un décalage en temps T (cas général) on a alors : y(t) = Kx(t-T).
La représentation fréquentielle donne :
𝑌(𝑓) = 𝐾𝑋(𝑓)𝑒 −𝑗2𝜋𝑓𝑇 𝑜𝑢 𝑒𝑛𝑐𝑜𝑟𝑒: 𝑌(𝜔) = 𝐾𝑋(𝜔)𝑒 −𝑗𝜔𝑇
Or : 𝑌(𝜔) = 𝐻(𝜔) × 𝑋(𝜔)
Conclusions :
La réponse fréquentielle en amplitude d’un filtre idéal est une constante
La réponse fréquentielle en phase est linéaire en fonction de ω ou de f passant
par 0.
A partir de ce qui précède on peut déduire les fonctions de transfert des 4 filtres vus
précédemment à savoir :
−𝑗𝜔𝑇
Filtre Passe-bas : 𝐻(𝜔) = {𝐾𝑒 𝑝𝑜𝑢𝑟 𝜔 < 𝜔𝑐 = 2𝜋𝑓𝑐
0 𝐴𝑖𝑙𝑙𝑒𝑢𝑟𝑠
−𝑗𝜔𝑇
Filtre Passe –haut : 𝐻(𝜔) = {𝐾𝑒 𝑝𝑜𝑢𝑟 𝜔 > 𝜔𝑐 = 2𝜋𝑓𝑐
0 𝐴𝑖𝑙𝑙𝑒𝑢𝑟𝑠
𝐾𝑒 −𝑗𝜔𝑇 𝑝𝑜𝑢𝑟 𝜔𝑖𝑛𝑓 < 𝜔 < 𝜔𝑠𝑢𝑝
Filtre Passe-bande : 𝐻(𝜔) = {
0 𝐴𝑖𝑙𝑙𝑒𝑢𝑟𝑠
𝐾𝑒 −𝑗𝜔𝑇 𝑝𝑜𝑢𝑟 𝜔 < 𝜔𝑖𝑛𝑓 𝑒𝑡 𝜔 > 𝜔𝑠𝑢𝑝
Filtre Coupe-bande : 𝐻(𝜔) = {
0 𝐴𝑖𝑙𝑙𝑒𝑢𝑟𝑠
43
II.6. Filtre passe-bas d’ordre N
Un filtre passe-bas est dit d’ordre N si sa fonction de transfert est de la forme suivante :
𝟏
𝑯(𝒑) =
𝒂𝟎 + 𝒂𝟏 𝒑 + 𝒂𝟐 𝒑𝟐 + ⋯ … … . +𝒂𝑵 𝒑𝑵
avec : p = jω.
Exemple : La fonction de transfert d’un filtre passe-bas d’ordre 2 est de la forme :
1 𝑝 𝜔
𝐻(𝑠) = 𝑠 ; 𝑎𝑣𝑒𝑐: 𝑠 = =𝑗
1 + 𝑄 + 𝑠2 𝜔0 𝜔0
𝛚𝟎 : la pulsation propre.
s : la variable réduite.
Q : le coefficient de surtension tel que : |H(ω0)|=Q.
Exercice1
On considère le circuit électronique suivant :
i(t) R
ve (t) vs (t)
C
44
h(t)
|H(ω)|
1⁄ 1
𝜏
1 𝐶𝑜𝑢𝑝𝑢𝑟𝑒 à − 3𝑑𝐵
√2
t 𝜔0 ω
𝐵𝑎𝑛𝑑𝑒 𝑝𝑎𝑠𝑠𝑎𝑛𝑡𝑒 𝐵𝑎𝑛𝑑𝑒 𝑐𝑜𝑢𝑝é𝑒
Exercice 2
S(p) 1
H(p) = =
E(p) 1 + pRC
2. On pose p=jω, on obtient :
1 1 1
H(ω) = = ω , avec: ω0 =
1 + jωRC 1 + j RC
ω0
Donc c’est la fonction de transfert d’un filtre passe-bas de 1er ordre.
3. ve (t) = 2 + cos(2πf1 t) + cos(2πf2 t) = 2 cos(2πf0 t) + cos(2πf1 t) + cos(2πf2 t)
avec : f0 = 0
Sachant qu’on a : f0 = 0 < fc , f1 = 2Khz < fc 𝑒𝑡 f2 = 5Khz > fc
Donc ce filtre va laisser passer juste les harmoniques avec fi < fc ce qui implique
que : 𝐯𝐬 (𝐭) = 𝟐 + 𝐜𝐨𝐬(𝟐𝛑𝐟𝟏 𝐭).
Un filtre analogique réel est physiquement réalisable s’il respecte les deux conditions
suivantes :
Il doit être stable ce qui veut dire qu’il revient à son état initial après une excitation.
Il doit être causal ce qui veut dire que sa sortie ne se produit pas avant son entrée.
45
La conception d’un filtre réel revient à faire une approximation d’un filtre idéal qui est
pratiquement impossible à réaliser. Donc on se contente d’approcher cette réponse idéale en :
– Conservant l’atténuation au-dessous d’une valeur maximale dans la bande passante.
– Conservant l’atténuation au-dessus d’une valeur minimale dans la bande atténuée.
Cela conduit à définir un gabarit sur lequel on spécifie les points suivants :
Une zone dans laquelle se situe le graphe de la représentation fréquentielle en
amplitude du filtre.
La bande passante et la bande atténuée (ou rejetée)
L’ondulation maximale admissible dans la bande passante et l'atténuation
minimale dans la bande rejetée ou atténuée.
Ainsi le rôle du gabarit est de délimiter la réponse fréquentielle en amplitude |H(ω)|
par trois zones :
Ondulation maximale dans la bande passante.
Ondulation minimale dans la bande coupée ou atténuée.
La largeur de la bande de transition ∆𝜔 = 𝜔𝑎 − 𝜔𝑝 , qui doit être le plus faible
possible, 𝜔𝑎 représente la fréquence atténuée et 𝜔𝑝 la fréquence passante
Suivant le type de réponse que l’on désire obtenir, on est amené à définir 4 familles de
filtres dont les gabarits sont représentés par la figure suivante :
Passe - Bas Passe - Haut
|𝐇(𝛚)| |𝐇(𝛚)|
𝟎(𝐝𝐁) 𝟎(𝐝𝐁)
𝑯𝒎𝒊𝒏 𝑯𝒎𝒊𝒏
𝑯𝒎𝒂𝒙 𝑯𝒎𝒂𝒙
𝝎𝒑 𝝎𝒂 𝝎 = 𝟐𝝅𝒇 𝝎𝒂 𝝎𝒑 𝝎 = 𝟐𝝅𝒇
𝑯𝒎𝒂𝒙 𝑯𝒎𝒂𝒙
Remarque
Certains filtres ne sont pas conçus pour arrêter une fréquence, mais pour modifier
légèrement le gain à différentes fréquences. Ainsi, différentes méthodes de conception de filtres
analogiques ont été mises au point, chacune optimisant un point spécifique, comme par exemple
des filtres exhibant des caractéristiques particulières tels que :
46
– Les filtres de Butterworth,
– Les filtres de Tchebyshev,
– Les filtres de Bessel,
– Les filtres elliptiques (filtres de Cauer) etc.
En général, un filtre réel possède une réponse fréquentielle en amplitude similaire à celle
représentée par la figure suivante :
|H(ω)|
Ondulations
K dans la Bande BP
K
√2
𝝎𝒑 𝝎𝒂
ω
Bande Atténuée BA Bande Atténuée BA
Bande Passante BP
En plus des spécifications qui définissent un gabarit qui sont en général les caractéristiques du
filtre à savoir :
1. Le gain dans la bande passante qui doit être nul.
2. La fréquence de coupure (une pour filtre passe-bas et passe-haut et deux dans le
cas du filtre passe-bande et coupe bande).
On trouve aussi :
𝜔𝑝
Le rapport 𝑘 = 𝜔 qui représente la sélectivité du filtre. Elle caractérise la bande
𝑎
passante de ce dernier.
0 < k < 1 pour un filtre passe-bas puisque la fréquence atténuée est plus grande
que la fréquence passante.
47
III.3 Filtres analogiques célèbres
48
Raideur de coupure importante.
Meilleure atténuation que Butterworth.
Ils sont conçus essentiellement pour minimiser les oscillations dans la bande passante
et présentent les propriétés suivantes :
Un gain de la forme :
𝜀 𝜔
𝑃𝑛2 (𝜔 ) 𝜔 𝜔
1 − 𝜀 𝑐
|𝐻(𝜔)|2 = 𝜀 𝜔 ; 𝑃𝑛 ( ) 𝑒𝑠𝑡 𝑢𝑛 𝑝𝑜𝑙𝑦𝑛𝑜𝑚𝑒 𝑒𝑛
2
1 + 1 − 𝜀 𝑃𝑛 (𝜔 ) 𝜔𝑐 𝜔𝑐
𝑐
49