0% ont trouvé ce document utile (0 vote)
40 vues50 pages

TS Partie Analogique 241119 231154

Transféré par

hassan hajji
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
40 vues50 pages

TS Partie Analogique 241119 231154

Transféré par

hassan hajji
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
Vous êtes sur la page 1/ 50

TRAITEMENT DE SIGNAL

PARTIE 1

SIGNAUX ET SYTEMES
ANALOGIQUES

Pr. houda CHAKIB


[email protected]

Université Sultan Moulay Slimane (USMS)


Faculté des Sciences et Techniques (FST)
Département de Physique
Ingénierie Electronique- Télécommunications (IETel)
Filière Ingénierie d’Etat en Génie Physique

Octobre 2020
\
Chapitre 1
Introduction au Traitement du Signal Analogique

I. Signal physique

I.1 Définition d’un signal


C’est le support physique qui permet de véhiculer des informations concernant un
phénomène physique de la source à la destination. Autrement, c’est une représentation physique
d’une information à transmettre, en fonction d’une variable ou plusieurs.
I.2 Exemples de signaux
 Onde acoustique représentée par le courant délivré par un microphone.
 Tension aux bornes d’un condensateur en charge.
 Signaux d’images.
 Signaux de vidéo.
 Signaux géophysiques : vibrations sismiques.
 Finances : cours de la bourse.
 Signal de mesure ou de commande.

II. Système de traitement de signal : STS

II.1 Définition d’un STS


On désigne par système de traitement de signal l’ensemble de techniques permettant de
manipuler des signaux soit pour transformer un signal en un autre, soit dans le but d’extraire le
maximum d’informations utiles dans le signal perturbé par un bruit.
On désigne par bruit tout phénomène perturbant et gênant la perception ou
l’interprétation d’un signal exemple : l’écho dans un son, craquement dans un enregistrement.
II.2 Chaine de traitement d’un signal
Quel que soit le domaine dans lequel est utilisé, le processus de traitement de signal suit en général
les mêmes étapes indiquées par la figure suivante :

Bruit
Bruit (Echo)

Système physique Capteur Canal de Recepteur Traitement de


(parole) ( Microphone ) transmission (Haut parleur) Signal

Signal utile Bruit

Figure 1.1: Chaine de traitement d’un signal

1
II.3 Différentes fonctions d’une chaine de TS
Analyse d’un signal : extraire les composantes utiles d’un signal complexe pour mieux
comprendre sa nature.
Mesure d’un signal : estimer les grandeurs qui le caractérisent.
Filtrage : éliminer les composantes inutiles et gênantes.
Restauration : ‶ réparation ″ des dégradations subies par le signal.
Synthèse : créer un signal par combinaison de signaux élémentaires en lui donnant une
forme appropriée.
Modulation : modifier les caractéristiques d’un signal pour l’adapter à un canal de
transmission ou à un support de stockage.
Codage : convertir le signal en code binaire pour être utilisé par les supports informatiques.
Compression : réduire l’espace mémoire occupée par le signal au cours de sa transmission
ou son stockage.
Segmentation : découpage d’un signal en segments homogènes.

III. Propriétés des signaux

III.1 Causalité

Un signal x(t) est dit causal s’il débute à une date t=0. Autrement : 𝑥(𝑡) = 0 𝑝𝑜𝑢𝑟 𝑡 < 0.

III.2 Stabilité
+∞
x(t) est un signal stable s’il vérifie la condition suivante : ∫−∞ |𝑥(𝑡)|𝑑𝑡 < +∞

Lorsque x(t) est en même temps causal et stable alors x(t) est dit réalisable.

III.3 Symétrie

 Symétrie paire : un signal x(t) est dit pair si on a : x(t) = x(-t).


 Symétrie impaire : un signal x(t) est dit impair si on a : x(t) = - x(-t).
On peut toujours décomposer un signal x(t) en une somme d’un signal pair xp(t) et d’un signal impair
xI(t) : x(t) = xp(t) + xI(t) et ceci en utilisant les relations suivantes :
xp(t) = 0.5[x(t) + x(-t)]
xI(t) = 0.5[x(t) - x(-t)]

IV. Classification des signaux


On peut envisager plusieurs modèles de classification pour les signaux suivant leurs propriétés.

IV.1 Classification morphologique


On distingue les signaux à variable continu et ceux à variable discrète ainsi que ceux dont l’amplitude
est continue ou discrète. On obtient donc 4 classes de signaux :

 Signaux analogiques dont l’amplitude et le temps sont continus.


 Signaux quantifiés dont l’amplitude est discrète et le temps est continu.

2
 Signaux échantillonnés dont l’amplitude continue et le temps discret.
 Signaux numériques dont l’amplitude et le temps sont discrets.

Amplitude
Continue Discrete
Continu

Signal Analogique Signal Quantifié


Temps

Discret

Signal Echantillonné Signal Numérique

IV.2. Classification dimensionnelle :


 Un signal monodimensionnel 1D est représenté par une seule variable. Ex :
température, tension….
 Un signal bidimensionnel 2D est représenté par 2 variables. Ex : une image
représentée par ses niveaux de gris.
 Un signal tridimensionnel est représenté par 3 variables. Ex : une vidéo avec 2
variables spatiales et une temporelle.
 Un signal peut être multidimensionnel. Ex : l’onde électromagnétique avec 3
variables spatiales et 1 temporelle.
IV.3. Classification phénoménologique :
IV.3.1. Signal Déterministe

Un signal est dit déterministe ou certain si son évolution au cours du temps peut être
parfaitement décrite par un modèle mathématique qui représente une fonction réelle ou
complexe.
𝑡
Exemple : la décharge d’un condensateur est décrite par l’équation suivante : 𝑉(𝑡) = 𝑉0 𝑒 −𝜏 .

Ces signaux se présentent sous forme de 3 catégories :


 Les signaux déterministes périodiques de période T :

3
Signal deterministe periodique

 Les signaux déterministes apériodiques :


X(t)

Signal deterministe aperiodique

 Les signaux déterministes transitoires :

IV.3.2. Signal aléatoire ou probabiliste


Appelé aussi signal stochastique et c’est un signal dont l’évolution temporelle est
imprévisible et ne suit aucun modèle mathématique. Il faut faire appel à ses propriétés statistiques
pour le décrire comme la moyenne, la variance, loi de probabilité etc…
Exemple : le résultat d’un jet de dé lancé toutes les secondes.
Si les propriétés statistiques sont invariantes au cours du temps on dit que ces signaux sont
stationnaires, dans le cas contraire ils sont non-stationnaires.

Signal aleatoire

IV.4 Classification Energétique


IV.4.1. Energie et Puissance Moyenne d’un signal

Soit un signal x(t) défini dans l’intervalle ]- ∞ , +∞[ et T0 un intervalle de temps :

4
 Energie de x(t) :
𝑇
+∞ + 20
𝐸=∫ |𝑥(𝑡)|2 𝑑𝑡 𝑜𝑢 𝐸 = lim ∫ |𝑥(𝑡)|2 𝑑𝑡
−∞ 𝑇0 →+∞ −𝑇0
2

 Puissance moyenne de x(t) :


𝑇0
1 +2
𝑃 = lim ∫ |𝑥(𝑡)|2 𝑑𝑡
𝑇0 →+∞ 𝑇0 −𝑇0
2

Si le signal est périodique de période T alors :


𝑇
1 +2
𝑃 = ∫ |𝑥(𝑡)|2 𝑑𝑡
𝑇 −𝑇
2

Définitions : Un signal est dit à énergie finie si : 0 < E < +∞. Ces signaux sont dits aussi de carré intégrable
ou sommable.

 Un signal est dit à puissance moyenne finie si : 0 < P < +∞


Remarques :
 Un signal à énergie finie possède une puissance moyenne nulle.
 Un signal à énergie infinie possède une puissance moyenne non nulle c’est le cas des
signaux périodiques.

V. Des signaux particuliers


V.1 Signaux réels
V.1.1. Fonction d’Heaviside (échelon unité)
Cette fonction modélise l’établissement instantanée d’un signal continu et elle est définie
comme suit :
u(t)
0 𝑡<0
𝑢(𝑡) = { 𝑡>0 1
1

V.1.2. Fonction Signe


Cette fonction modélise le signe d’un signal et elle est définie par l’équation suivante :

−1 𝑡<0 sgn(t)
𝑠𝑔𝑛(𝑡) = {
+1 𝑡>0 1

t
-1

5
Par convention on admet que sgn(t)=0 pour t=0.

V.1.3. Fonction Rectangulaire


Appelée aussi porte ou créneau, elle est définie par l’équation suivante :
𝑟𝑒𝑐𝑡 𝑇 (𝑡)

𝑇
𝑡 1 |𝑡| ≤
𝑟𝑒𝑐𝑡𝑇 (𝑡) = 𝛱𝑇 (𝑡) = 𝑟𝑒𝑐𝑡 (𝑇) = { 2 1
0 𝑎𝑖𝑙𝑙𝑒𝑢𝑟𝑠

C’est une porte centrée en 0 et de largeur T. T T t


− +
2 2

V.1.4. Fonction Rampe


Fonction définie par :

r(t)

𝑟(𝑡) = 𝑡 × 𝑢(𝑡) 1

1 t

V.1.5. Fonction Sinus Cardinal


Fonction définie par :

𝑠𝑖𝑛𝜋𝑡
𝑠𝑖𝑛𝑐(𝑡) = 𝜋𝑡

Cette fonction joue un rôle très important en traitement de signal. On cite quelques-unes de ses
propriétés :
+∞ +∞
∫ 𝑠𝑖𝑛𝑐(𝑡)𝑑𝑡 = 1 𝑒𝑡 ∫ 𝑠𝑖𝑛𝑐(𝑡)2 𝑑𝑡 = 1
−∞ −∞
𝑠𝑖𝑛𝑐(t)

V.1.6. Fonction Exponentiel amorti


𝑥(𝑡) = 𝑢(𝑡) × 𝑒 −𝑎𝑡 𝑎𝑣𝑒𝑐 𝑎 > 0

6
V.2. Introduction aux Distributions

V.2.1 Distribution de Dirac


Pour des commodités mathématiques, il est parfois impossible de représenter un signal
par un modèle. Dans ce cas on fait appel aux distributions.
Si f(t) une fonction, la distribution de Dirac ou Impulsion de Dirac est définie par :
+∞
𝛿(𝑓) = ∫−∞ 𝑓(𝑡) × 𝛿(𝑡)𝑑𝑡 = 𝑓(0).

𝛿 n’est pas une fonction, cependant pour des raisons de commodités on la note comme telle :
+∞
∞ 𝑠𝑖 𝑡 = 0
𝛿(𝑡) = { 𝑒𝑡 ∫ 𝛿(𝑡)𝑑𝑡 = 1
0 𝑠𝑖 𝑡 ≠ 0 −∞

L’intégral représente l’aire de cette impulsion qu’on représente par le schéma suivant:

𝛿(t)

V.2.2. Quelques propriétés de 𝜹

+∞ +∞
∫ 𝛿(𝑡)𝑑𝑡 = ∫ 𝛿(𝑡 − 𝑡0 )𝑑𝑡 = 1
−∞ −∞
+∞
∫ 𝑥(𝑡)𝛿(𝑡)𝑑𝑡 = 𝑥(0)
Intégrale −∞
+∞
∫ 𝑥(𝑡)𝛿(𝑡 − 𝑡0 )𝑑𝑡 = 𝑥(𝑡0 )
−∞

𝑥(𝑡) × 𝛿(𝑡) = 𝑥(0) × 𝛿(𝑡) = 𝑥(0)


Produit 𝑥(𝑡)𝛿(𝑡 − 𝑡0 ) = 𝑥(𝑡0 )𝛿(𝑡 − 𝑡0 )
= 𝑥(𝑡0 )

7
Changement d’échelle 𝛿(𝑎𝑡) = |𝑎|−1 𝛿(𝑡)

Symétrie 𝛿(𝑡 − 𝑡0 ) = 𝛿(𝑡0 − 𝑡)

V.2.3 Peigne de Dirac


On appelle peigne de Dirac une succession périodique d’impulsions de Dirac de période
T définie par l’équation suivante:
𝑘=+∞

Ш 𝑇 (𝑡) = ∑ 𝛿(𝑡 − 𝑘𝑇)


𝑘=−∞
Ш𝐓 (𝐭)

-kT -2T -T T 2T kT t

Cette suite est appelée parfois Train d’impulsions de période T et principalement utilisée
dans l’échantillonnage (voir chapitre signal numérique).

VI. Produit de convolution

VI.1. Définition

On appelle produit de convolution entre deux signaux x(t) et h(t), le signal s(t) défini par :
+∞
𝑠(𝑡) = 𝑥(𝑡) ∗ ℎ(𝑡) = 𝑥(𝑡) ⊗ ℎ(𝑡) = ∫ 𝑥(𝜏)ℎ(𝑡 − 𝜏)𝑑𝜏
−∞

Ce produit de convolution exprime la quantité de recouvrement de la fonction x(t) lorsqu’on la


déplace sur la fonction h(y).

VI.2. Propriétés du produit de convolution

Identité 𝑥(𝑡) ∗ 𝛿(𝑡) = 𝑥(𝑡)


𝑘=+∞
Convolution par 𝑥(𝑡) ∗ Ш 𝑇 (𝑡) = ∑ 𝑥(𝑡 − 𝑘𝑇)
peigne de Dirac 𝑘=−∞

Commutativité 𝑥(𝑡) ∗ ℎ(𝑡) = ℎ(𝑡) ∗ 𝑥(𝑡)

Distributivité 𝑥(𝑡) ∗ (ℎ(𝑡) + 𝜆𝑔(𝑡)) = 𝑥(𝑡) ∗ ℎ(𝑡) + 𝜆𝑥(𝑡) ∗ 𝑔(𝑡)

8
𝑥(𝑡 − 𝜏) = 𝑥(𝑡) ∗ 𝛿(𝑡 − 𝜏)
Décalage
𝑥(𝑡) ∗ ℎ(𝑡 − 𝜏) = 𝑥(𝑡 − 𝜏) ∗ ℎ(𝑡)
Associativité 𝑥(𝑡) ∗ (ℎ(𝑡) ∗ 𝑔(𝑡)) = 𝑥(𝑡) ∗ (ℎ(𝑡) ∗ 𝑔(𝑡))

Dérivation (𝑥(𝑡) ∗ ℎ(𝑡))′ = 𝑥(𝑡)′ ∗ ℎ(𝑡) = 𝑥(𝑡) ∗ ℎ(𝑡)′

Intégration ∫ 𝑥(𝑡) ∗ ℎ(𝑡)𝑑𝑡 = ∫ 𝑥(𝑡)𝑑𝑡 ∗ ∫ ℎ(𝑡)𝑑𝑡

VII. Autocorrélation et Intercorrélation des signaux réels

VII.1 Définition de la corrélation

La corrélation est l’outil mathématique qui permet de comparer les signaux. Elle permet
de mesurer la similitude ou la ressemblance entre les signaux dans le but d’extraire des
informations.
S’il s’agit de deux signaux différents, on parle d’intercorrélation. Dans ce cas on mesure
le retard de distance et/ou de temps entre les signaux. Dans le cas d’un même signal, on parle
d’Autocorrélation.
Parmi les applications de la corrélation :
 Extraction d’un signal noyé dans du bruit.
 Mesure du retard apporté par le canal de propagation ou de transmission (Fibre Optique,
Transmission Hertzienne, Radars, Sonars...)
 Réduction du bruit

VII.2 Intercorrélation entre signaux à énergie finie

Soit x(t) et y(t) deux signaux à énergie fini, la fonction d’intercorrélation est définie par :
+∞
𝑅𝑥𝑦 (𝜏) = ∫ 𝑥(𝑡)𝑦(𝑡 − 𝜏)𝑑𝑡
−∞

Si Rxy ≠0 alors x(t) et y(t) sont corrélés.


Si Rxy =0 alors x(t) et y(t) sont orthogonaux ou non corrélés

Posons : t- τ = θ alors : dt =d θ et t= θ + τ = θ - (–τ).


On a :
+∞ +∞
𝑥(𝜃 − (−𝜏))𝑦(𝜃)𝑑𝜃
𝑅𝑥𝑦 (𝜏) = ∫ 𝑥(𝑡)𝑦(𝑡 − 𝜏)𝑑𝑡 = ∫
−∞ −∞

𝑹𝒙𝒚 (𝝉) = 𝑹𝒚𝒙 (−𝝉)


Autocorrélation :
Elle est définie par :

9
+∞
𝑅𝑥𝑥 (𝜏) = ∫ 𝑥(𝑡)𝑥(𝑡 − 𝜏)𝑑𝑡
−∞

Si le Décalage τ = 0, alors :
+∞
𝑅𝑥𝑥 (0) = ∫−∞ 𝑥 2 (𝑡)𝑑𝑡 = 𝐸𝑛𝑒𝑟𝑔𝑖𝑒 𝑑𝑒 𝑥(𝑡)

Remarques :
 ∀ 𝜏 ≥ 0 𝑎𝑙𝑜𝑟𝑠: 𝑅𝑥𝑥 (0) ≥ 𝑅𝑥𝑥 (𝜏)
 𝑅𝑥𝑥 (𝜏) = 𝑅𝑥𝑥 (−𝜏) ↔ 𝑙 ′ 𝑎𝑢𝑡𝑜𝑐𝑜𝑟𝑟é𝑙𝑎𝑡𝑖𝑜𝑛 𝑒𝑠𝑡 𝑝𝑎𝑖𝑟𝑒
 Si x(t) est fonction périodique alors 𝑅𝑥𝑥 (𝜏) est périodique et paire.
 Si y(t) = x(t)+n(t) avec n(t) un signal bruit alors : 𝑅𝑦𝑦 (𝜏) = 𝑅𝑥𝑥 (𝜏)

VII.3. Intercorrélation entre signaux à puissance finie

Ces signaux sont permanents et possèdent une énergie très grande dans ce cas on a :
⁄2 +𝑇
1
𝑅𝑥𝑦 (𝜏) = lim ∫ 𝑥(𝑡)𝑦(𝑡 − 𝜏)𝑑𝑡
𝑇→+∞ 𝑇 −𝑇⁄
2

Et :
⁄2 +𝑇
1
𝑅𝑥𝑥 (𝜏) = lim ∫ 𝑥(𝑡)𝑥(𝑡 − 𝜏)𝑑𝑡
𝑇→+∞ 𝑇 −𝑇⁄
2

Si τ = 0, alors :
⁄2 +𝑇
1
𝑅𝑥𝑥 (0) = lim ∫ 𝑥 2 (𝑡)𝑑𝑡 = 𝑃𝑢𝑖𝑠𝑠𝑎𝑛𝑐𝑒 𝑚𝑜𝑦𝑒𝑛𝑛𝑒 𝑑𝑒 𝑥(𝑡)
𝑇→+∞ 𝑇 −𝑇⁄
2

Relation entre Intercorrélation et Produit de Convolution


Soit x(t) et y(t) deux signaux à énergie finie, on a :
𝑅𝑥𝑦 (𝜏) = 𝑥(−𝜏) ∗ 𝑦(𝜏)

VIII. Propriétés des signaux aléatoires

Un signal aléatoire est un signal imprévisible qui peut être modélisé et défini par ses
caractéristiques temporelles et statistiques.

VIII.1. Caractéristiques temporelles

VIII.1.1. Moyenne temporelle


+𝑇
1 2
𝑥̅ (t) = lim ∫ 𝑥(𝑡)𝑑𝑡
𝑇→+∞ 𝑇 −𝑇
2

10
VIII.1.2. Autocorrélation temporelle
⁄2 +𝑇
1
𝑅𝑥𝑥 (𝜏) = lim ∫ 𝑥(𝑡)𝑥(𝑡 − 𝜏)𝑑𝑡
𝑇→+∞ 𝑇 −𝑇⁄
2

VIII.2. Caractéristiques statistiques

VIII.2.1. Moyenne ou Espérance statistique


Soit x(t) un signal aléatoire défini par sa fonction de probabilité p(x). On définit sa moyenne ou
son espérance mathématique :
+∞
𝐸[𝑥(𝑡)] = ∫ 𝑥(𝑡)𝑝(𝑥(𝑡))𝑑𝑥(𝑡)
−∞

VIII.2.2. Variance et Ecart-type


On définit la variance de x(t) par :
𝑉[𝑥(𝑡)] = 𝐸[𝑥(𝑡)2 ] − (𝐸[𝑥(𝑡)]2 )
On appelle Ecart-type de x(t) l’entité :

𝜎[𝑥(𝑡)] = √𝑉[𝑥(𝑡)]

VIII.2.3. Intercorrélation et autocorrélation statistiques


𝑅𝑥𝑦 (𝑡, 𝑡 − 𝜏) = 𝐸[𝑥(𝑡)𝑦(𝑡 − 𝜏)]

𝑅𝑥𝑥 (𝑡, 𝑡 − 𝜏) = 𝐸[𝑥(𝑡)𝑥(𝑡 − 𝜏)]


VIII.2.4. Stationnarité
Un signal aléatoire est dit stationnaire au premier ordre si sa valeur moyenne est constante :
∀ 𝑡 ∈ ℝ, 𝐸[𝑥(𝑡)] = 𝐶𝑡𝑒
Un signal est stationnaire au second ordre si sa valeur moyenne est constante et si sa fonction
d’autocorrélation est fonction du retard τ :
∀ 𝑡 ∈ ℝ, 𝐸[𝑥(𝑡)] = 𝐶𝑡𝑒
Et 𝑅𝑥𝑥 (𝑡, 𝑡 − 𝜏) = 𝑅𝑥𝑥 (𝜏)

VIII.2.5. Ergodicité
Un signal aléatoire est ergodique si :

 Ses moyennes statistiques et temporelles sont égales :


𝐸[𝑥(𝑡)] = 𝑥̅ (t)
 Ses fonctions d’autocorrélation statistiques et temporelles sont égales.

11
IX. Signal bruit

IX.1. Définition et types de bruits

On désigne par bruit tout phénomène perturbateur pouvant gêner la perception ou


l'interprétation d'un signal. C’est un signal aléatoire qu’on peut caractériser principalement par sa
puissance ou sa variance. On peut classer les bruits en 3 classes :

a. Bruit blanc à densité spectrale constante et bande infinie


Ce bruit contient toutes les fréquences de -∞ à +∞ qui sont présentes à amplitudes égales
et possède une valeur moyenne nulle. Il est représenté par :
• une densité spectrale de puissance constante : 𝑅𝑥𝑥 (𝑓) = 𝐴2 − ∞ < 𝑓 < +∞
2
• une fonction d’autocorrélation temporelle : 𝑟𝑥𝑥 (𝑡) = 𝐴 𝛿(𝑡)

b. Bruit à densité spectrale constante et bande limitée


Ce bruit contient les fréquences de –fmax à +fmax donc les composantes hautes fréquences
sont nulles. Sa puissance finie est souvent désignée par la variance statique 𝜎 2𝑥 et il est défini par :
𝜎 2𝑥
si − fmax < f < fmax
une densité spectrale de puissance: 𝑅𝑥𝑥 (𝑓) = {2𝑓𝑚𝑎𝑥
0 sinon

c. Bruit coloré à puissance finie


Il contient toutes les fréquences de -∞ à +∞ mais avec des amplitudes variables autrement
dit, son spectre diminue avec la fréquence et sa puissance est finie. Un modèle souvent utilisé est
le suivant:
𝜎 2𝑥 1
𝑅𝑥𝑥 (𝑓) = × − ∞ < 𝑓 < +∞
𝜋𝑓𝑐 𝑓
1+( )
𝑓𝑐

IX.2. Notion de rapport signal bruit


Si un signal x(t) est noyé dans un bruit b(t) alors pour mesurer la quantité du bruit contenu
dans ce signal par le rapport signal sur bruit SNR défini par :

𝑃𝑥 P est la puissance du signal x(t)


𝑆𝑁𝑅 = 𝑅𝑥⁄𝑏 = , avec: { x
𝑃𝑏 Pb est la puissance du bruit b(t)

SNR exprime l’effet du bruit sur le signal x(t), on peut l’exprimer aussi en décibel par la relation
suivante :
𝑃𝑥
𝑆𝑁𝑅(𝑑𝐵) = 𝑅𝑥⁄𝑏 (𝑑𝐵) = 10 𝑙𝑜𝑔10 ( )
𝑃𝑏

12
Chapitre 2

Analyse Harmonique des Signaux Analogiques

I. Deux représentations pour le même signal

Dans ce chapitre et ceux qui vont suivre, on va s’intéresser essentiellement aux signaux
analogiques déterministes (certains) qui peuvent être parfaitement définie par des lois physiques
et qui admettent une énergie finie. L’évolution de ces signaux peut être décrite au cours du temps
autrement dit à chaque instant on s’intéresse à la valeur prise par le signal on parle de la
représentation temporelle, ou bien peut se faire en considérant sa fréquence d’apparition durant
une durée de temps il s’agit de la représentation fréquentielle. Mais les deux notions temps et
fréquence sont complémentaires et il est souvent plus facile d’interpréter l’évolution d’un signal
par sa représentation fréquentielle que celle temporelle.
Comme a été mentionné, on va considérer deux types de signaux :

 Les signaux x(t) périodiques de période T, définie comme suit : ∀ 𝑡, 𝑥(𝑡) = 𝑥(𝑡 + 𝑇)
𝑥(𝑡) ≠ 0 ∀ 𝑡 ∈ [−𝑇, 𝑇]
 Les signaux x(t) à temps fini, donc à support borné, tels que : {
𝑥(𝑡) = 0 𝑎𝑖𝑙𝑙𝑒𝑢𝑟𝑠

II. Représentation Fréquentielle d’un signal périodique

II.1 Série de Fourier

L’analyse fréquentielle ou spectrale est un instrument majeur de la théorie des signaux.


Elle exprime la répartition de l’amplitude, de la phase, de l’énergie ou de la puissance des signaux
considérés en fonction de la fréquence de leur apparition.
Une des méthodes les plus utilisées dans l’analyse des signaux périodiques est la série de
Fourier. Son principe est de transformer un signal en une somme de sinusoïdes. Soit x(t) un
signal périodique de période T, sa décomposition en série de Fourier est :
+∞ +∞
𝑎0
𝑥(𝑡) = + ∑ 𝑎𝑘 cos(2𝜋𝑘𝑓0 𝑡) + ∑ 𝑏𝑘 sin(2𝜋𝑘𝑓0 𝑡)
2
𝑘=1 𝑘=1
𝑎0
est appelé valeur moyenne ou composante continue du signal x(t).
2
1
𝑓0 = 𝑇 C’est la fréquence fondamentale du signal.

ak et bk sont les coefficients de Fourier qui sont déterminés par les relations suivantes :
𝑇
2 2
𝑎𝑘 = ∫ 𝑥(𝑡) cos(2𝜋𝑘𝑓0 𝑡) 𝑑𝑡, 𝑘≥1
𝑇 −𝑇
2

13
𝑇
2 2
𝑏𝑘 = ∫ 𝑥(𝑡) sin(2𝜋𝑘𝑓0 𝑡) 𝑑𝑡, 𝑘≥1
𝑇 −𝑇
2

II.2 Série de Fourier en Cosinus

En se basant sur la relation suivante :


𝐵
𝐴𝑐𝑜𝑠(𝑥) + 𝐵𝑠𝑖𝑛(𝑥) = √𝐴2 + 𝐵 2 cos(𝑥 + 𝑎𝑟𝑐𝑡𝑎𝑛 (− ))
𝐴
Le développement du signal x(t) en série de Fourier devient :
+∞

𝑥(𝑡) = 𝐴0 + ∑ 𝐴𝑘 cos(2𝜋𝑘𝑓0 𝑡 + 𝛼𝑘 )
𝑘=1
𝑎0 𝑏
Avec : 𝐴0 = ; 𝐴𝑘 = √𝑎𝑘2 + 𝑏𝑘2 ; 𝛼𝑘 = 𝑎𝑟𝑐𝑡𝑎𝑛 (− 𝑎𝑘 )
2 𝑘

Cette série en cosinus est très importante car elle correspond à la description bien connue
des signaux en régime sinusoïdal permanent ou l’on représente un courant ou une tension par
leur amplitude et leur phase. D’un point de vue pratique, ceci revient à considérer que le signal
x(t) est créé de manière équivalente par une infinité de générateurs sinusoïdaux.

On peut facilement montrer que la puissance moyenne de x(t) est :


+∞
𝟏
𝑷= 𝑨𝟐𝟎 + ∑ 𝑨𝟐𝒌
𝟐
𝒌=𝟏

II.3 Série de Fourier Complexe


En considérant la relation d’Euler suivante :

𝑒 𝑗𝑥 + 𝑒 −𝑗𝑥 𝑒 𝑗𝑥 + 𝑒 −𝑗𝑥
𝑐𝑜𝑠𝑥 = 𝑒𝑡 𝑠𝑖𝑛𝑥 =
2 2𝑗
Avec : 𝑒 𝑗𝑥 = 𝑐𝑜𝑠𝑥 + 𝑗𝑠𝑖𝑛𝑥
On obtient la décomposition en série de Fourier complexe de x(t) :
𝑘=+∞

𝑥(𝑡) = ∑ 𝑋(𝑗𝑘)𝑒 𝑗2𝜋𝑘𝑓0 𝑡 ; 𝑒 𝑗2𝜋𝑘𝑓0 𝑡 𝑒𝑠𝑡 𝑎𝑝𝑝𝑒𝑙é "𝑷𝒉𝒂𝒔𝒆𝒖𝒓 "


𝑘=−∞

Les coefficients X(jk) sont alors complexes et valent :


𝑇
1 2
𝑋(𝑗𝑘) = ∫ 𝑥(𝑡)𝑒 −𝑗2𝜋𝑘𝑓0 𝑡 𝑑𝑡 𝑎𝑣𝑒𝑐: − ∞ < 𝑘 < +∞
𝑇 −𝑇
2

14
II.4 Représentation vectorielle des trois séries de Fourier

Im

−𝒃𝒌 𝐴𝑘 = ට𝑎𝑘2 + 𝑏𝑘2 𝑎𝑘2 𝑏𝑘2


|𝑋(𝑗𝑘)| = ඨ +
4 4
1
−𝒃𝒌 𝑿(𝒋𝒌) = ට𝑎𝑘2 + 𝑏𝑘2
2
𝟐 𝑏 𝐴𝑘
𝛼𝑘 =arctan(− 𝑎𝑘 ) =
𝜶𝒌 𝑘 2

𝒂𝒌 𝒂𝒌 Donc:
Re
−𝜶𝒌 𝟐 𝑨𝒌 = 2|𝑿(𝒋𝒌)|
𝒃𝒌
𝟐 𝑿(−𝒋𝒌)

II.5. Spectres d’amplitude et de phase

II.5.1. Spectres unilatéraux


La décomposition de x(t) en série de Fourier en cosinus conduit aux spectres unilatéraux
pour l’amplitude et pour la phase en effet :
+∞

𝑥(𝑡) = 𝐴0 + ∑ 𝐴𝑘 cos(2𝜋𝑘𝑓0 𝑡 + 𝛼𝑘 )
𝑘=1

𝐴𝑘 = 𝑓(𝑘𝑓0 ), Représente le spectre de l’amplitude.


𝛼𝑘 = 𝑓(𝑘𝑓0 ), Représente le spectre de la phase.
Les spectres sont dits unilatéraux car le compteur des harmoniques varie de 0 à +∞.

II.5.2. Spectres bilatéraux


La décomposition de x(t) en série de Fourier complexe conduit aux spectres bilatéraux
en effet :
𝑘=+∞

𝑥(𝑡) = ∑ 𝑋(𝑗𝑘)𝑒 𝑗2𝜋𝑘𝑓0 𝑡


𝑘=−∞

|𝑋(𝑗𝑘)| en fonction de (𝑘𝑓0 ) représente le spectre d’amplitude du signal x(t). |𝑋(𝑗𝑘)| étant le
module de 𝑋(𝑗𝑘).
∠ (𝑋(𝑗𝑘)) en fonction de (kf0) représente le spectre de phase du signal x(t) avec ∠ (X(jk)) est la
phase du complexe 𝑋(𝑗𝑘).

15
Ces deux spectres sont des spectres bilatéraux avec des fréquences qui peuvent être négatives ou
positives car le compteur k varie de - ∞ à +∞.
On peut facilement montrer que :

 Le spectre d’amplitude est une fonction paire en effet :


𝐴𝑘
|𝑋(𝑗𝑘)| = |𝑋(−𝑗𝑘)| = , 𝑘≠0
2
 Le spectre de phase est une fonction impaire en effet :

∠(X(jk)) = −∠(X(−jk)) = 𝛼𝑘 , 𝑘≠0

dans le cas k=0 on a : |𝑋(𝑗𝑘)| = 𝐴𝑜 𝑒𝑡 ∠(X(0)) = 0 𝑜𝑢 𝜋 𝑠𝑢𝑖𝑣𝑎𝑛𝑡 𝑙𝑒 𝑠𝑖𝑔𝑛𝑒 𝑑𝑒 𝐴𝑜 .

II.6. Spectres des signaux symétriques

Le calcul des séries de Fourier est plus simple si on tient compte de la symétrie des signaux
en effet :

 Un signal x(t) impair est représenté par une fonction qui ne contient uniquement que
𝜋
des sinus, donc ce cas on a : ℛe(X(jk) = 0 et 𝛼𝑘 = ± 2
 Un signal x(t) pair est représenté par une fonction qui ne contient uniquement que
des cosinus, donc ce cas on a : ℑ𝑚(X(jk) = 0 et 𝛼𝑘 = 0 ou ± π
 Un signal à symétrie demi-onde comme celui de la figure, est tel que X(jk)=0 pour
les k pair.

Symétrie par rapport à


l’axe des abscisses

Signal à symetrie demi-onde


.

II.7 Exemples de représentation spectrale d’un signal

II.7.1. Cas d’un signal périodique réel


Soit le signal x(t) définie par :
x(t) = 3 + 2cos(2πf0t) - 3,464sin(2πf0t) + 2sin(4πf0t+π/4).
Donner le spectre unilatéral et bilatéral de x(t).
A- Spectres unilatéraux

16
B
En appliquant la relation : Acos(x) + Bsin(x) = √A2 + B2 cos(x + arctan (− A))
3,464 π
on obtient : x(t) = 3 + √4 + (3,464)2 cos (2πf0 t + arctan ( )) + 2sin(4πf0 t + 4 )
2

π π π π
Or : sin (4πf0 t + 4 ) = cos (4πf0 t + 4 − 2 ) = cos(4πf0 t − 4 )
π π
Donc : x(t) = 3 + 4 cos (2πf0 t + 3 ) + 2cos(4πf0 t − 4 )
π π
x(t) = 3 + 4 cos (2πf0 t + ) + 2cos(2(2π)f0 t − )
3 4
2

x(t) = A0 + ∑ Ak cos(2πkf0 t + αk )
k=1
Avec :
π π
A0 = 3, A1 = 4, A2 = 2, α1 = et α2 =
3 4

𝑨𝒌 𝜶𝒌
4
3 𝜋
2 3

𝑓0 2𝑓0 𝒇𝟎 𝜋 𝑓0 2𝑓0 𝒇𝟎

4

B- Spectres bilatéraux
ejx +e−jx
On utilise la relation : cosx = , on détermine la forme complexe de x(t) :
2
π π π π
ej(2πf0 t+3 ) + e−j(2πf0 t+3 ) ej(4πf0 t−4 ) + e−j(4πf0 t−4 )
x(t) = 3 + +2
2 2
π π π π
x(t) = 3 + 2 [ej(2πf0 t) ej3 + e−j(2πf0 t) e−j3 ] + [ej(4πf0 t) e−j4 + e−j(4πf0 t) ej4 ]
π π π π
x(t) = 3ej0 + 2ej3 ej(2πf0 t) + 2e−j3 e−j(2πf0 t) + e−j4 ej(2f0 (2π)t) + ej4 e−j(2f0 (2π)t)

x(t) = 3ej0 + X(1. j)ej(2πf0 t) + X(−1. j)ej(−2πf0 t) + X(2. j)ej(2f0 (2π)t) + X(−2. j)ej(−2f0 (2π)t)
k=2

x(t) = ∑ X(jk)ej2πkf0 t
k=0
π π π π
avec : X(0j) = 3, X(1. j) = 2ej 3 , X(−j) = 2e−j 3 , X(2. j) = e−j 4 , X(−2j) = ej 4 .

17
|𝑿(𝒌𝒋)|
∠(𝑿(𝒌𝒋)
3
𝜋
3
2
𝜋
1 4

−𝑓0 𝑓0 2𝑓0 𝒇𝟎 −2𝑓0 −𝑓0 𝑓0 2𝑓0 𝒇𝟎


−2𝑓0 𝜋

4

𝜋

3

II.7.2. Cas de distribution : Peigne de Dirac


Soit le signal Peigne de Dirac définie par :

n=+∞

ШTe (t) = ∑ δ(t − nTe ),


n=−∞
1 t = nTe
tel que: δnTe (t) = δ(t − nTe ) = { , n etant un entier
0 t ≠ nTe

On peut considérer le peigne de Dirac comme une fonction périodique de période T e


donc sa décomposition en série de Fourier complexe est la suivante :
k=+∞
1
ШTe (t) = ∑ D(j. k)ej2πkFe t avec: Fe =
Te
k=−∞
et :
Te Te n=+∞
1 2 1 2
D(j. k) = ∫ ШTe (t)e−j2πkFe t dt = ∫ ∑ δ(t − nTe ) e−j2πkFe t dt
Te −Te Te −Te
2 2 n=−∞
n=+∞ Te n=+∞ Te
1 2 1 2
D(j. k) = ∑ ∫ δ(t − nTe )e−j2πkFe t dt = ∑ ∫ δ(t − nTe )e−j2πkFe (nTe ) dt
Te T
− e Te T
− e
n=−∞ 2 n=−∞ 2
n=+∞ Te
1 2
= ∑ e−j2πknFe Te ) ∫ δ(t − nTe )dt
Te T
− e
n=−∞ 2
Te
2
n=+∞ n=+∞ ∫ δ(t − nTe )dt = 1
1 −j2πkn 1 T
= ∑ e = ∑ δ(f − nFe ) , car: − e
2
Te Te Fe Te = 1
n=−∞ n=−∞
{ ∀k, n e−j2πnk = 1
Conclusion : La représentation fréquentielle d’un peigne de Dirac est aussi un peigne de Dirac.

18
n=+∞ n=+∞
1 1 1
D(j. k) = ∑ δ(f − nFe ) = ∑ δ(f − nFe ) = ШFe (f)
Te Te Te
n=−∞ n=−∞

𝑻𝑭 𝟏
Ш𝐓𝐞 (𝐭) ⇒ Ш (𝐟)
𝐓𝐞 𝐅𝐞

Ш𝐓𝐞 (𝐭) 𝐃(𝐣. 𝐤)

1
Te

−2Te -Te Te 2Te 3Te 𝐭 −2Fe −Fe Fe 2Fe 𝐟

III. Transformée de Fourier des signaux analogiques non périodiques

III.1 Passage de la série de Fourier à la transformée de Fourier


Dans le cas des signaux analogiques non périodiques, la transformée de Fourier
représente l’outil mathématique idéal pour effectuer leur analyse fréquentielle. Il s’agit d’une
application qui associe à un signal x(t) une fonction complexe X(f) définie par :
+∞
𝑋(𝑓) = 𝑇𝐹(𝑥(𝑡)) = ∫ 𝑥(𝑡)𝑒 −𝑗2𝜋𝑓𝑡 𝑑𝑡
−∞

X(f) est appelée Transformée de Fourier du signal x(t). Elle permet d’avoir des informations
fréquentielles sur x(t) en indiquant ‶la quantité de fréquences″ présentent dans le signal x(t) sur
l’intervalle ] -∞,+∞[.
x(t) est appelé Transformée de Fourier Inverse et définie par :
+∞
𝑥(𝑡) = 𝑇𝐹 −1 (𝑋(f)) = ∫ 𝑋(𝑓)𝑒 𝑗2𝜋𝑓𝑡 𝑑𝑓
−∞

Dans des cas on utilise la variable pulsation ω =2πf, au lieu de la fréquence f et on aura :
1 +∞
𝑋(ω) = 𝑇𝐹(𝑥(𝑡)) = ∫ 𝑥(𝑡)𝑒 −𝑗ω𝑡 𝑑𝑡
2𝜋 −∞
1 +∞
𝑥(𝑡) = 𝑇𝐹 −1 (𝑋(ω)) = ∫ 𝑋(ω)𝑒 𝑗ω𝑡 𝑑ω
2𝜋 −∞
Remarque
Pour un signal bidimensionnel x(t1, t2) la transformée de Fourier est définie par :

19
+∞ +∞
𝑋(𝑓1 , 𝑓2 ) = 𝑇𝐹(𝑥(𝑡1 , 𝑡2 )) = ∫ ∫ 𝑥(𝑡1 , 𝑡2 )𝑒 −𝑗2𝜋(𝑓1 𝑡1 +𝑓2𝑡2 ) 𝑑𝑡1 𝑑𝑡2
−∞ −∞

III.2. Spectre de x(t)

Le spectre de x(t) est composé d’un:

 Spectre d’amplitude qui représente la variation du module de X(f) en fonction de


la fréquence, soit : |𝑋(𝑓)| = √[𝑅𝑒(𝑋(𝑓))]2 + [𝐼𝑚(𝑋(𝑓))]2 = 𝑋(𝑓)
 Spectre de phase qui représente la variation de la phase de 𝑋(𝑓) en fonction de
la fréquence soit :
𝐼𝑚(𝑋(𝑓))
∠ (𝑋(𝑓)) = 𝑎𝑟𝑐𝑡𝑎𝑛 ( ) = 𝜑(𝑓)
𝑅𝑒(𝑋(𝑓))

III.3. Propriétés de la Transformée de Fourier

Les propriétés de la transformée de Fourier les plus utiles en traitement de signal sont
regroupées dans le tableau suivant :

Linéarité ax(t)+by(t) aX(f)+bY(f)


Décalage temporel (Translation) 𝑥(𝑡 − 𝑡0 ) 𝑋(𝑓)𝑒 𝑗2𝜋𝑓𝑡0
Décalage fréquentiel (Modulation) 𝑥(𝑡)𝑒 𝑗2𝜋𝑓0 𝑡 𝑋(𝑓 − 𝑓0 )
Amortissement 𝑥(𝑡)𝑒 −𝑎𝑡 𝑋(𝑗2𝜋𝑓 + 𝑎)
𝑑𝑥(𝑡)
Dérivation temporelle 𝑗2𝜋𝑓𝑋(𝑓)
𝑑𝑡
Dilatation (contraction dans le 1 𝑓
x(at) 𝑋( ⁄𝑎)
domaine temporel a ≥ 1) |𝑎|
𝑑𝑋(𝑓)
Dérivation fréquentielle −𝑗2𝜋𝑡𝑥(𝑡)
𝑑𝑓
𝑡 1 1
Intégration ∫ 𝑥(𝜏)𝑑𝜏 𝑋(𝑓) + 𝑋(0)𝛿(𝑓)
−∞ 𝑗2𝜋𝑓 2
Fonction paire x(-t) = x(t) X(f) est réel et paire
Fonction impaire x(-t) = - x(t) X(f) est imaginaire pure
Inversion temporelle x(-t) X(-f)
Conjugaison complexe x*(t) X*(f)
x(t) X(f)
Dualité
X(t) x(-f)

III.4. Théorème de Plancherel

Ce théorème met en évidence la dualité entre le temps et la fréquence et il s’énonce ainsi :

20
‶La transformée de Fourier d’un produit de convolution dans le temps se transforme en produit
de transformées de Fourier dans le domaine fréquentiel et vice versa″. Soit si X(f)=TF(x(t)) et
Y(f)=TF(x(t)) alors:

𝑻𝑭(𝒙(𝒕) ⊗ 𝒚(𝒕)) = 𝑿(𝒇) × 𝒀(𝒇)

𝑻𝑭(𝒙(𝒕) × 𝒚(𝒕)) = 𝑿(𝒇) ⊗ 𝒀(𝒇)

III.5. Egalité de Parseval


Soit x(t) un signal de transformée de Fourier X(f) alors on a :
+∞ +∞
∫ |𝑥(𝑡)|2 𝑑𝑡 = ∫ |𝑋(𝑓)|2 𝑑𝑓
−∞ −∞

C’est l’égalité de Parseval qui montre qu’un signal a la même énergie dans les domaines temporel
et fréquentiel. Donc il y’a conservation de l’énergie ce qui nous pousse à considérer la densité
spectrale d’énergie S(f) telle que :
𝑆(𝑓) = |𝑋(𝑓)|2
On peut parler de l’énergie dans une bande de largeur ∆f centrée en f0 :
𝑓0 +∆f
𝐸∆f = ∫ 𝑆(𝑓)𝑑𝑓
𝑓0 −∆f

+∞
Ou de l’énergie totale : 𝐸 = ∫−∞ 𝑆(𝑓)𝑑𝑓

III.6. Exemple de calcul de Transformée de Fourier d’un signal

Considérons une impulsion rectangulaire d’amplitude A et de largeur ∆t centrée en t=0 définie


comme suit :
x(t)
A −∆t⁄2 ≤ t ≤ ∆t⁄2
𝑥(t) = {
0 ailleurs A

Déterminons le spectre de x(t) ? ∆𝑡 ∆𝑡 t


∆t

+∞ 2 2 ∆t
−j2πft
2
−j2πft
A 2
X(f) = TF(x(t)) = ∫ x(t)e dt = ∫ A e dt = − [e−j2πft ]−∆t
−∞
−∆t j2πf 2
2

A −j2πf
∆t
j2πf
∆t A ejπf∆t − e−jπf∆t A
X(f) = − [e 2 −e 2 ]= [ ] = sin(πf∆t)
j2πf πf 2j πf
A∆t sin(πf∆t)
X(f) = sin(πf∆t) = A∆t
πf∆t πf∆t
Donc :
𝐗(𝐟) = 𝐀∆𝐭 × 𝐬𝐢𝐧𝐜(𝛑𝐟∆𝐭), C′ est un réel

21
Le spectre d’amplitude d’une impulsion rectangulaire est un sinus cardinal tel que :
𝑘
∀k entier, πf∆t = kπ soit f = ∆t , on a: sinc(πf∆t) = 0
Sinc(πf∆t)
A∆t
Remarques :

- Une impulsion de courte durée ∆𝑡 possède Bande


1 1
un spectre à large bande. −
∆𝑡 ∆𝑡
- Une impulsion de longue durée possède
un spectre étroit. f

22
Chapitre 3

Systèmes Linéaires Analogiques

I. Définition & Représentation

Un système de traitement d’un signal analogique ou système analogique, est un système à


temps continu qui reçoit à son entrée un signal analogique x(t) pour lui appliquer des
transformations pour obtenir en sortie un autre signal analogique y(t). Ces transformations
peuvent être par exemple une modulation, un filtrage etc.

Système de traitement d’un


x(t) Signal Analogique y(t)=S(x(t))
(S)

L’étude des systèmes analogiques consiste à faire une description mathématique de leur
comportement afin d’établir une relation entre l’entrée et la sortie, ce qui revient à modéliser le
système via un modèle ou une équation mathématique en se basant sur des lois de la physique
ou de l’observation. Dans ce qui suit des exemples de systèmes analogiques :
 Système électrique
R
i(t)

- L’entrée est la tension E(t)


E(t) S(t) - La sortie est la tension S(t)
- L’équation qui lie E(t) et S(t) est:
C dS(t)
RC + S(t) = E(t)
dt

 Système mécanique
- L’entrée est la force f(t)
- La sortie est la position x(t) par rapport à x(0)
k
- L’équation qui lie x(t) et f(t) est:
α M f(t) f(t) − kx(t) − αxሶ (t) = Mxሷ (t)
Avec : k : coefficient de frottement élastique
α : coefficient de frottement visqueux
x(0) x(t) x(0) : position d’équilibre

23
II. Système Analogique Linéaire Invariant

II.1 Définition

Un système analogique est dit linéaire invariant s’il possède les trois propriétés suivantes :
homogénéité, additivité et invariance dans le temps.
Homogénéité :
Un système est homogène s’il produit à la sortie la même variation que subit le signal
d’entré autrement si x(t) est le signal appliqué à l’entré et y(t) le signal de sortie alors une entrée
kx(t) produira ky(t) à la sortie.

Système Analogique
x(t) (S) y(t)=S(x(t))

Système Analogique
kx(t) ky(t)=S(kx(t))
(S)

Additivité :
Un système analogique possède la propriété d’additivité si on applique à son entrée la
somme de deux signaux analogiques alors il produit à la sortie la somme des sorties individuelles
de chaque signal. Si x1(t) est le signal d’entrée dont la sortie est y1(t) et x2(t) le signal d’entrée dont
la sortie est y2(t) alors si on applique simultanément x1(t) + x2(t) à l’entrée du système la sortie sera
y1(t) + y2(t).

x1(t) Système Analogique y1(t)

x2(t) Système Analogique y2(t)

x1(t)+x2(t) Système Analogique y1(t)+y2(t)

Invariance :
Un système analogique est invariant dans le temps ou stationnaire s’il reproduit la même
sortie du signal d’entrée après un décalage temporel. Si x(t) est le signal d’entrée d’un système
analogique et y(t) la sortie de ce dernier alors x(t-t0) reproduit la sortie y(t-t0).

x(t) Système Analogique y(t)

x(t-t0) Système Analogique y(t-t0)

24
II.2 Propriétés des systèmes linéaires invariants (SLI)

II.2.1 Commutativité
Soit deux systèmes linéaires A et B montés en cascade : A suivi de B comme il est indiqué
sur la figure. Si x(t) est le signal à l’entrée de A et y(t) la sortie des deux systèmes, alors si on
inverse l’enchainement des deux systèmes on obtient la même sortie y(t) pour le même signal
d’entrée x(t).

x(t) Système A Système B y(t)

x(t) Système B Système A y(t)

II.2.2 La superposition
La superposition est une technique clé dans l’analyse des signaux analogiques. Elle
consiste à décomposer un signal d’entrée x(t) en plusieurs composantes simples qu’on applique
individuellement à l’entrée du système analogique, la sortie y(t) n’est autre que la somme des
sorties du système pour chaque composante.

x(t)

Décomposition

x1(t) Système S y1(t)


+ +
x2(t) Système S y2(t)
+ +
x3(t) Système S y3(t)
+ +

+ +
xn(t) Système S yn(t)
Synthèse
y(t)

25
III. Réponse Impulsionnelle des SLI

III.1 Notion de réponse impulsionnelle

La réponse impulsionnelle est une caractéristique très importante des SLI et elle
représente la sortie du système lorsqu’à son entrée est appliquée une impulsion de Dirac. En
général cette réponse est désignée par h(t).

SLI
x(t) = δ(t) h(t) y(t) = h(t)

III.2 Propriété de convolution

La convolution est un outil mathématique très utile pour calculer la sortie ou la réponse
y(t) d’un SLI de réponse impulsionnelle h(t), à une entrée x(t) quelconque. Dans ce cas on a:
+∞ +∞
𝑦(𝑡) = 𝑥(𝑡) ⊗ ℎ(𝑡) = ∫ ℎ(𝜏)𝑥(𝑡 − 𝜏)𝑑𝜏 = ∫ 𝑥(𝜏)ℎ(𝑡 − 𝜏)𝑑𝜏
−∞ −∞

SLI
x(t) h(t) y(t)=x(t)⊗h(t)

Dans le cas d’un système causal comme les systèmes réels on a la sortie est nulle pour t<0 donc
on peut simplifier l‘intégrale à :
+∞
𝑦(𝑡) = ∫ ℎ(𝜏)𝑥(𝑡 − 𝜏)𝑑𝜏
0

IV. Représentation Fréquentielle

IV.1 Transformée de Laplace

Généralement cette transformée remplace la transformée de Fourier dans le cas des


signaux transitoires comme c’est le cas du signal échelon ou Heaviside qu’on ne peut pas
décomposer en série de Fourier. Elle substitue la variable fréquence réelle f de la transformée de
Fourier par une variable complexe notée p telle que : 𝒑 = 𝝈 + 𝒋𝟐𝝅𝒇
La transformée de Laplace bilatérale d’un signal x(t) est définie par :
+∞
𝑋(𝑝) = 𝐿(𝑥(𝑡)) = ∫ 𝑥(𝑡)𝑒 −𝑝𝑡 𝑑𝑡 𝑎𝑣𝑒𝑐: 𝑝 = 𝜎 + 𝑗2𝜋𝑓 = 𝜎 + 𝑗𝜔
−∞

Pour σ = 0, on retrouve la transformée de Fourier de x(t) : X(f) = X(p=j2πf)

26
Cas d’un système causal
Pour un système x(t) causal on parle de la transformée de Laplace monolatérale définie par :
+∞
𝑋(𝑝) = 𝐿(𝑥(𝑡)) = ∫ 𝑥(𝑡)𝑒 −𝑝𝑡 𝑑𝑡
0

Notez bien que dans ce cas, il faut tenir en compte des conditions initiales du système.

IV.2 Propriétés de la transformée de Laplace

Les propriétés les plus intéressantes de la transformée de Laplace sont regroupées dans
le tableau suivant :

Opération Représentation temporelle Représentation Fréquentielle


ax(t)+by(t) ; a, b sont
Linéarité aX(p) + bY(p)
complexes ou réels
Retard (τ réel) y(t) = x(t- τ) Y(p) = 𝑒 −𝜏𝑝 . X(p)
Dérivation y(t) = 𝑥ሶ (t) Y(p) = pX(p) – x(0+ )
𝑡0 +𝑡
𝑋(𝑝)
Intégration 𝑦(𝑡) = ∫ 𝑥(𝑢)𝑑𝑢
𝑡0 𝑝
𝑋(𝑝)
Intégration d’ordre n 𝑦 (𝑛) (𝑡) = 𝑥(𝑡)
𝑝𝑛
Convolution x(t)⊗y(t) X(p)×Y(p)
Corrélation x(-t)⊗y(t) X(-p)×Y(p)
Multiplication x(t)×y(t) X(p)⊗Y(p)
𝑑𝑋(𝑝)
Multiplication par t y(t) = t×x(t) 𝑌(𝑝) = −
𝑑𝑝
Multiplication par 𝑡 𝑛 𝑑𝑋(𝑝)
𝑦(𝑡) = 𝑡 𝑛 𝑥(𝑡) 𝑌(𝑝) = (−1)𝑛
n entier >0 𝑑𝑝𝑛
Décalage, translation en
fréquence (modulation 𝑦(𝑡) = 𝑒 −𝛼𝑡 𝑥(𝑡) Y(p) = X(p+α)
exponentielle)
Renversement du temps y(t) = x(-t) Y(p) = X(-p)
Théorème de la valeur finale Si F(p)=L(f(t)) alors on a :
et initiale 𝑓(0+ ) = lim 𝑝𝐹(𝑝) 𝑒𝑡 lim 𝑓(𝑡) = lim 𝑝𝐹(𝑝)
𝑝→+∞ 𝑡→+∞ 𝑝→0

IV.3 Transformées de Laplace de quelques signaux usuels


Dans le tableau suivant on représente les transformées de Laplace de quelques signaux
les plus rencontrés en traitement de signal :

27
Signal Représentation temporelle Représentation Fréquentielle
Echelon unité x(t) = Γ(t) 1
𝑋(𝑝) =
𝑝
Impulsion de Dirac x(t) = δ(t) X(p) = 1
Constante (non causale) x(t) = 1 X(p) = δ(p)
Exponentielle causale 𝑥(𝑡) = 𝑒 −𝛼𝑡 . Γ(t) 1
𝑋(𝑝) =
𝑝+𝛼
Puissance de t causale 𝑥(𝑡) = 𝑡 𝑛 . Γ(t) 𝑛!
𝑋(𝑝) = 𝑛+1
𝑝
Sinus causal 𝑥(𝑡) = 𝑠𝑖𝑛(𝜔0 𝑡). Γ(t) 𝜔0
𝑋(𝑝) = 2
𝑝 + 𝜔02
Cosinus causal 𝑥(𝑡) = 𝑐𝑜𝑠(𝜔0 𝑡). Γ(t) 𝑝
𝑋(𝑝) = 2
𝑝 + 𝜔02

IV.4 Exemples de calcul de la transformée de Laplace

IV.4.1 le signal rectangle


1 0≤t≤τ
Le signal rectangle défini par la fonction : f(t) = {
0 ailleurs
On peut remarquer que f(t) = Γ(t) + h(t) avec h(t) = - Γ(t- τ)

𝑓(𝑡) Γ(𝑡) -Γ(𝑡 − 𝜏)

1 1 𝜏
= t
+
-1
𝜏 t 𝜏 t

f(t) = Γ(t) − Γ(t − τ) donc: F(p) = L(f(t)) = L(Γ(t)) – L(Γ(t − τ))


𝟏 𝟏 −𝐩𝛕 𝟏 − 𝐞−𝐩𝛕
𝐅(𝐩) = − 𝐞 =
𝐩 𝐩 𝐩

IV.4.2 cas d’une onde rectangulaire


Soit la fonction R(t) qui représente l’onde rectangulaire suivante :

28
𝑅(𝑡)

τ
t

-1

On constate que R(t) = f(t) – f(t – τ) donc L(R(t)) = L(f(t)) – L(f(t – τ))
1 − e−pτ 1 − e−pτ −pτ
L(R(t)) = − e
p p

(𝟏 − 𝐞−𝐩𝛕 )𝟐
𝐋(𝐑(𝐭)) =
𝐩
IV.4.3 Cas d’un signal rectangulaire périodique
Soit g(t) est une onde rectangulaire périodique de période T :

g(t)

t
T
-1

On peut écrire :
g(t) = R(t) + R(t-T) + R(t-2T) + ……………..
L(g(t)) = L(R(t)) + L(R(t-T)) + L(R(t-2T)) + ………

L(g(t)) = L(R(t)) + L(R(t))e−pT + L(R(t))e−p2T + L(R(t))e−p3T + ⋯

L(g(t)) = L(R(t))[1 + e−pT + e−p2T + e−p3T + ⋯ ]


Or:
1
∑(e−pT )n = avec e−pT < 1 .
1 − e−pT
n=0

Donc :
𝐋(𝐑(𝐭)) 𝟏 − 𝐞−𝐩𝐓
𝐋(𝐠(𝐭)) = =
𝟏 − 𝐞−𝐩𝐓 𝐩

29
IV.5. Fonction de Transfert

Si x(t) est un signal appliqué à l’entrée d’un système SLI de réponse impulsionnelle h(t),
alors la sortie sera y(t) = h(t) * x(t). Si on applique la transformée de Laplace à cette équation on
obtient :
𝒀(𝒑)
𝑌(𝑝) = 𝐻(𝑝) × 𝑋(𝑝) ⇒ 𝑯(𝒑) =
𝑿(𝒑)
H(p) est appelée Fonction de Transfert du système SLI appelée aussi représentation fréquentielle
généralisée.

IV.6. Représentation Fréquentielle de Fourier

L’application de la transformée de Fourier au produit de convolution y(t) = h(t) * x(t)


donne :
𝒀(𝒇)
𝑌(𝑓) = 𝐻(𝑓) × 𝑋(𝑓) ⇒ 𝑯(𝒇) =
𝑿(𝒇)
H(f) représente la réponse en fréquence du système SLI ou réponse harmonique. Il est
caractérisé par deux paramètres :
𝑌(𝑓)
Son module |𝐻(𝑓)| = |𝑋(𝑓)| qui représente le gain du système

Son argument arg[H(f)] qui représente le déphasage entre l’entrée et la sortie.


On peut calculer la représentation fréquentielle de Fourier H(f) en remplaçant p par
‶j2πf″ ou ‶jω″ dans l’expression de H(p).

IV.7 Exemples de la représentation fréquentielle de Laplace et de Fourier

Exemple 1
On considère le circuit de charge du condensateur suivant :

i(t) R - L’entrée est la tension e(t)


- La sortie est la tension s(t)
e(t) s(t) - L’équation qui lie e(t) et s(t) est:
C
ds(t)
RC + s(t) = e(t)
dt

 Représentation fréquentielle de Laplace :


L’application de la transformée de Laplace à l’équation d’état du système et en tenant
compte des propriétés citées avant, on peut écrire :
𝐒(𝐩) 𝟏
RCpS(p) + S(p) = E(p) ⇒ 𝐇(𝐩) = =
𝐄(𝐩) 𝟏 + 𝐩𝐑𝐂

30
 Représentation fréquentielle de Fourier:
On applique la transformée de Fourier à l’équation d’état ou on remplace p par j2πf dans la
fonction de transfert H(p) on obtient la représentation en fréquence du système suivante :
𝟏
𝐇(𝐟) =
𝟏 + 𝐣𝟐𝛑𝐟𝐑𝐂
Donc le gain du système est :
1
|H(f)| =
√1 + (2πRCf)2
Et son argument est : φ = - artcg(2πRCf) qui représente le déphasage entre la tension d’entrée
e(t) et la tension de sortie s(t).

Exemple 2

On considère le système mécanique suivant :


- L’entrée est la force f(t)
- La sortie est la position x(t) par rapport à x(0)
k
- L’équation qui lie x(t) et f(t) est:
α M f(t) f(t) − kx(t) − αxሶ (t) = Mxሷ (t)
Avec : k : coefficient de frottement élastique
α : coefficient de frottement visqueux
x(0) x(t) x(0) : position d’équilibre

 Représentation fréquentielle de Laplace :


L’application de la transformation de Laplace à l’équation d’état donne la relation suivante :
𝐗(𝐩) 𝟏
F(p) − kX(p) − αpX(p) = Mp2 X(p) ⇒ 𝐇(𝐩) = =
𝐅(𝐩) 𝐤 + 𝛂𝐩 + 𝐌𝐩𝟐

 Représentation fréquentielle de Fourier:


On obtient la fonction de transfert en fréquence du système en remplaçant p par j2πf dans la
représentation fréquentielle généralisée :

𝟏
𝐇 ( 𝐟) =
𝐤 + 𝐣𝟐𝛑𝛂𝐟 − 𝟒𝛑𝟐 𝐌𝐟 𝟐

V. Ordre, Pôles et Zéros d’un système SLI

On appelle ordre d’un système SLI la différence entre le degré du polynôme du


dénominateur et celui du numérateur de la fonction de transfert. Les polynômes sont en fonction
de p dans le cas de la représentation de Laplace ou en f dans le cas de celle de Fourier.
Cet ordre n’est défini qu’en cas d’un système fractionnel, dans ce cas on appelle pôles de
la fonction de transfert les racines du polynôme du dénominateur et on appelle zéros ceux du
polynôme du numérateur.

31
VI. Stabilité d’un système SLI

VI.1 Stabilité dans le temps


Un système SLI est stable si sa réponse impulsionnelle h(t) est bornée :
+∞
∫ |ℎ(𝑡)|𝑑𝑡 < ∞
−∞

Il en découle les deux propriétés suivantes :

Pour un système causal on a: Pour un système non causal on a


lim h(t) = 0 lim h(t) = 0
t→+∞ t→−∞
h(t) h(t)

t t

VI.2 Stabilité en fréquence

Un système SLI est stable si et seulement si tous les pôles de sa fonction de transfert
généralisée H(p) ont une partie réelle négative. Pour ce faire on peut décomposer H(p) en
éléments simples sous la forme suivante :
𝐴1 𝐴2 𝐴𝑖
𝐻(𝑝) = + +⋯=∑
𝑝 − 𝑎1 𝑝 − 𝑎2 𝑝 − 𝑎𝑖
𝑖

H(p) apparait donc comme la somme de sous-systèmes de premier ordre en p. Ainsi le système
est stable si chacun des sous-systèmes l’est.
Rq : Du point de vue physique, un système est dit stable si, après une brève perturbation, il revient
à sa position d’équilibre ou de repos.

VII. Système à phase linéaire et à phase minimale

Un système SLI de fonction de transfert H(f) est à phase linéaire si 𝜑 = 𝑎𝑟𝑔[𝐻(𝑓)] est
une fonction linéaire en fonction de la variable f soit :
𝝋 = 𝒂𝒓𝒈[𝑯(𝒇)] = 𝒌𝒇 𝑎𝑣𝑒𝑐 𝑘 𝑢𝑛𝑒 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒
Un système SLI de fonction de transfert H(p) est à phase minimale si tous les zéros de
H(p) sont à partie réelle négative.

32
VIII. Exemple de calcul de réponse d’un système SLI

Problème :
Considérons le circuit de charge du condensateur vu précédemment (il représente aussi un filtre
passe-bas qui sera traité dans le prochain chapitre).
1. Déterminer sa fonction de transfert
2. Calculer sa réponse à un signal échelon d’amplitude E.
3. Calculer sa réponse à un signal impulsion rectangulaire de longueur θ et d’amplitude E.
Réponse :
1
1. On a: e(t) = Ri(t) + s(t), Avec: s(t) = C ∫ i(t)dt (tension aux bornes de C)

Donc:
1 1 1
e(t) = Ri(t) + ∫ i(t)dt ⇒ E(p) = RI(p) + I(p), Avec: I(p) = S(p)
C PC PC
D’où :
1 1
S(p) I(p) 1
H(p) = = PC = PC =
E(p) RI(p) + 1 I(p) R + 1 1 + pRC
PC PC

En posant : τ = RC = ω ,
0
On obtient :
𝟏 𝛚𝟎
𝐇(𝐩) = =
𝟏 + 𝐩𝛕 𝐩 + 𝛚𝟎
Pour la représentation fréquentielle de Fourier on a : p = j𝜔0 = 𝑗2𝜋𝑓0 donc :
𝟏 𝟏
𝐇(𝐣𝛚) = 𝐇(𝐟) = =
𝟏 + 𝐣 𝛚⁄𝛚𝟎 𝟏 + 𝐣 𝐟⁄𝐟𝟎

2. Calculons la réponse s(t) de ce système à un échelon d’amplitude E. On a :


E
e(t) = EΓ(t), Avec: Γ(t) est la fonction échelon unité. Donc: E(p) =
p
Or:
E(p) E E 1⁄ E × 1⁄τ
τ
S(p) = H(p) × E(p) = = = × =
1 + pτ p(1 + pτ) p p + 1⁄τ p(p + 1⁄τ)

𝐭
𝐬(𝐭) = 𝐋−𝟏 (𝐒(𝐩)) = 𝐄(𝟏 − 𝐞− ⁄𝛕 )

3. Calculons la réponse s(t), si l’entrée e(t) est une impulsion rectangulaire de longueur θ et
d’amplitude E :
D’après l’exemple1 du calcul de la transformée de Laplace on peut écrire :

33
E(1 − e−pθ )
E(p) =
p
Donc :
1 E(1 − e−pθ )
S(p) = H(p) × E(p) = H(p) = ×
1 + pτ p

1 1 τ
S(p) = × E(1 − e−pθ ) = [ − ] × E(1 − e−pθ )
p(1 + pτ) p (1 + pτ)

1 τ 1 τ
S(p) = [ − ]×E−[ − ] E(1 − e−pθ )
p (1 + pτ) p (1 + pτ)

E e−pθ
S(p) = [ ]−[ ]
p(1 + pτ) p(1 + pτ))
Conclusion :
𝐭 (𝐭−𝛉)⁄ 𝐭−𝛉 𝐭
𝐬(𝐭) = 𝐄(𝟏 − 𝐞− ⁄𝛕 ) − 𝐄 (𝟏 − 𝐞− 𝛕) = 𝐄(𝐞− 𝛕 − 𝐞 −𝛕 )

34
Annexe

Méthode de décomposition en éléments simples d’une fraction rationnelle

Soit la fraction rationnelle suivante :


𝑁(𝑝)
𝐻(𝑝) =
𝐷(𝑝)

I. 1er cas :

𝑁(𝑝)
𝐻(𝑝) =
(𝑝 − 𝑎1 )(𝑝 − 𝑎2 )(𝑝 − 𝑎3 ) … (𝑝 − 𝑎𝑛 )
Dans ce cas on peut mettre H(p) sous la forme suivante:
𝐴1 𝐴2 𝐴3 𝐴𝑛
𝐻(𝑝) = + + + ⋯+
(𝑝 − 𝑎1 ) (𝑝 − 𝑎2 ) (𝑝 − 𝑎3 ) (𝑝 − 𝑎𝑛 )
Et on peut déterminer les paramètres Ai en utilisant l’une des trois méthodes suivantes :

a. 1ere méthode : par identification

Sachant que N(p) est aussi un polynôme en p d’ordre m alors on peut mettre au même
dénominateur et obtenir :
𝑁(𝑝)
𝐻(𝑝) =
(𝑝 − 𝑎1 )(𝑝 − 𝑎2 )(𝑝 − 𝑎3 ) … (𝑝 − 𝑎𝑛 )

𝐴1 (𝑝 − 𝑎2 ) … (𝑝 − 𝑎𝑛 ) + 𝐴2 (𝑝 − 𝑎1 ) … (𝑝 − 𝑎𝑛 ) + ⋯ + 𝐴𝑛 (𝑝 − 𝑎2 ) … (𝑝 − 𝑎𝑛−1 )
𝐻(𝑝) =
(𝑝 − 𝑎1 )(𝑝 − 𝑎2 )(𝑝 − 𝑎3 ) … (𝑝 − 𝑎𝑛 )
Donc on a :
𝑵(𝒑) = 𝑨𝟏 (𝒑 − 𝒂𝟐 ) … (𝒑 − 𝒂𝒏 ) + 𝑨𝟐 (𝒑 − 𝒂𝟏 ) … (𝒑 − 𝒂𝒏 ) + ⋯
+ 𝑨𝒏 (𝒑 − 𝒂𝟏 ) … (𝒑 − 𝒂𝒏−𝟏 )

Par identification avec les coefficients des puissances en p dans N(p) on forme un système
d’équation à n équations avec les Ai comme inconnus.

Exemple :
5𝑝2 − 3𝑝 − 11 𝐴 𝐵 𝐶
𝐻(𝑝) = = + +
(𝑝 − 1)(𝑝 + 2)(𝑝 − 3) (𝑝 − 1) (𝑝 + 2) (𝑝 − 3)

5𝑝2 − 3𝑝 − 11 𝐴(𝑝 + 2)(𝑝 − 3) + 𝐵(𝑝 − 1)(𝑝 − 3) + 𝐶(𝑝 − 1)(𝑝 + 2)


𝐻(𝑝) = =
(𝑝 − 1)(𝑝 + 2)(𝑝 − 3) (𝑝 − 1)(𝑝 + 2)(𝑝 − 3)

5𝑝2 − 3𝑝 − 11 = 𝐴(𝑝 + 2)(𝑝 − 3) + 𝐵(𝑝 − 1)(𝑝 − 3) + 𝐶(𝑝 − 1)(𝑝 + 2)
Après développement et identification on forme le système d’équation suivant :

35
𝐴+𝐵+𝐶 =5 𝐴 = 3⁄2
{ −𝐴 − 4𝐵 + 𝐶 = −3 ⇒ { 𝐵=1
−6𝐴 + 3𝐵 − 2𝐶 = −11 𝑐 = 5⁄2
𝟑⁄ 𝟏 𝟓⁄
𝑯(𝒑) = 𝟐 + + 𝟐
(𝒑 − 𝟏) (𝒑 + 𝟐) (𝒑 − 𝟑)

b. Méthode par utilisation de la limite

𝐴1 𝐴2 𝐴3 𝐴𝑛
𝐻(𝑝) = + + + ⋯+
(𝑝 − 𝑎1 ) (𝑝 − 𝑎2 ) (𝑝 − 𝑎3 ) (𝑝 − 𝑎𝑛 )
On a :
𝑁(𝑝)
𝐴1 = lim (𝑝 − 𝑎1 )𝐻(𝑝) = lim
𝑝→𝑎1 𝑝→𝑎1 (𝑝 − 𝑎2 )(𝑝 − 𝑎3 ) … (𝑝 − 𝑎𝑛 )
En général on a :
𝑁(𝑝)
𝐴𝑖 = lim (𝑝 − 𝑎𝑖 )𝐻(𝑝) = lim (𝑝 − 𝑎𝑖 )
𝑝→𝑎𝑖 𝑝→𝑎𝑖 (𝑝 − 𝑎2 )(𝑝 − 𝑎3 ) … (𝑝 − 𝑎𝑖 ) … (𝑝 − 𝑎𝑛 )
𝑵(𝒑)
𝑨𝒊 = 𝒍𝒊𝒎
𝒑→𝒂𝒊 (𝒑 − 𝒂𝟐 )(𝒑 − 𝒂𝟑 ) … … (𝒑 − 𝒂𝒏 )

Exemple :

On considère l’exemple précèdent on a :


5𝑝2 − 3𝑝 − 11 5𝑝2 − 3𝑝 − 11
𝐴 = lim(𝑝 − 1)𝐻(𝑝) = lim (𝑝 − 1) = lim
𝑝→1 𝑝→1 (𝑝 − 1)(𝑝 + 2)(𝑝 − 3) 𝑝→1 (𝑝 + 2)(𝑝 − 3)
5𝑝2 − 3𝑝 − 11
𝐵 = lim (𝑝 + 2)𝐻(𝑝) = lim
𝑝→−2 𝑝→−2 (𝑝 − 1)(𝑝 − 3)
5𝑝2 − 3𝑝 − 11
𝐶 = lim (𝑝 − 3)𝐻(𝑝) = lim
𝑝→3 𝑝→1 (𝑝 − 1)(𝑝 + 2)

On trouve : 𝐴 = 3⁄2 , 𝐵 = 1 𝑒𝑡 𝑐 = 5⁄2

II. 2éme cas

𝑁(𝑝)
𝐻(𝑝) =
(𝑝 − 𝑎1 )𝑝1 (𝑝 − 𝑎2 )𝑝2 (𝑝
− 𝑎3 )𝑝3 … (𝑝 − 𝑎𝑛 )𝑝𝑛

H(p) peut se mettre sous la forme suivante :


𝐴1,1 𝐴1,2 𝐴1,3 𝐴1,𝑝1
𝐻(𝑝) = + 2
+ 3
+ ⋯+
(𝑝 − 𝑎1 ) (𝑝 − 𝑎1 ) (𝑝 − 𝑎1 ) (𝑝 − 𝑎1 )𝑝1

36
𝐴2,1 𝐴2,2 𝐴2,3 𝐴2,𝑝2
+ + 2
+ 3
+ ⋯+
(𝑝 − 𝑎2 ) (𝑝 − 𝑎2 ) (𝑝 − 𝑎2 ) (𝑝 − 𝑎2 )𝑝2
.
.
.
.
𝐴𝑛,1 𝐴𝑛,2 𝐴𝑛,3 𝐴𝑛,𝑝𝑛
+ + 2
+ 3
+ ⋯+
(𝑝 − 𝑎𝑛 ) (𝑝 − 𝑎𝑛 ) (𝑝 − 𝑎𝑛 ) (𝑝 − 𝑎𝑛 )𝑝𝑛
Et on peut utiliser les méthodes de la limite et d’identification pour calculer les paramètres𝐴𝑖,𝑝𝑖

Exemple :
7𝑝2 + 1
𝐻(𝑝) =
(𝑝 + 3)2 (𝑝 − 1)2
Donc :
𝐴 𝐵 𝐶 𝐷
𝐻(𝑝) = + 2
+ +
𝑝 + 3 (𝑝 + 3) 𝑝 − 1 (𝑝 − 1)2
On a :
7𝑝2 + 1 64
𝐵 = lim (𝑝 + 3)2 𝐻(𝑝) = lim = =4
𝑝→−3 𝑝→−3 (𝑝 − 1)2 16

7𝑝2 + 1 8 1
𝐷 = lim (𝑝 − 1)2 𝐻(𝑝) = lim = =
𝑝→1 𝑝→1 (𝑝 + 3)2 16 2
Et en mettant au même dénominateur on a :
𝐴(𝑝 + 3)(𝑝 − 1)2 + 𝐵(𝑝 − 1)2 + 𝐶(𝑝 − 1)(𝑝 + 3)2 + 𝐷(𝑝 + 3)2
𝐻(𝑝) =
(𝑝 + 3)2 (𝑝 − 1)2
Et par identification on a :
7𝑝2 + 1 = 𝐴(𝑝 + 3)(𝑝 − 1)2 + 𝐵(𝑝 − 1)2 + 𝐶(𝑝 − 1)(𝑝 + 3)2 + 𝐷(𝑝 + 3)2
Et on forme le système d’équation suivant :

𝐴 + 𝐶 = 0 ⇒ 𝐴 = −𝐶
𝐴 + 𝐵 + 𝐷 + 5𝐶 = 7
{
−5𝐴 − 2𝐵 + 6𝐷 + 3𝐶 = 0
3𝐴 + 𝐵 + 9𝐷 − 9𝐶 = 1

Sachant que : B=4 et D=1/2 on trouve : A=-5/8 et C=5/8

Conclusion :

−𝟓⁄ 𝟒 𝟓⁄ 𝟏⁄
𝑯(𝒑) = 𝟖 + + 𝟖 + 𝟐
𝒑 + 𝟑 (𝒑 + 𝟑) 𝟐 𝒑 − 𝟏 (𝒑 − 𝟏)𝟐

37
Chapitre 4

Filtrage des Signaux Analogiques

I. Généralités et Notion de Filtrage

I.1 Définition d’un filtre

L’antenne d’un récepteur radio simple capte plusieurs signaux émis par différentes
stations (émetteurs) donc à l’entrée de l’antenne se présente le signal superposition de tous ces
signaux émis et à l’aide d’un système linéaire SLI adéquat on peut isoler le signal qui
correspond à la station choisie. Ce système est appelé un Filtre. Donc le filtrage consiste à
atténuer (empêcher) certains signaux et à laisser ‶passer″ d’autres ceci en fonction du signal de
sortie désiré et ceux en modifiant certaines parties du signal. En effet : dans le chapitre2, on a
vu, d’après Fourier, que tout signal réel peut être décomposé en une somme de signaux
sinusoïdaux (parfois infini) à des fréquences différentes ce qui implique que le filtrage d’un
signal revient à modifier l’amplitude et la phase de ces composantes.
Le filtrage peut se faire aussi bien en temps qu’en fréquence. En effet :
 Un filtrage temporel permet d’atténuer ou interrompre un signal au cours du
temps.
 Un filtrage fréquentiel permet de sélectionner ou atténuer certaines fréquences.
Et la bande de fréquences transmises ou sélectionnées est appelée : Bande
passante du filtre.

On peut résumer le but du filtre linéaire continu aux points suivants :


 Sélectionner des parties du signal contenant une information importante comme
c’est le cas pour détecter les contours et les objets dans les images...
 Eliminer le bruit comme pour ou enlever l’Echo en téléphonie mobile …
 Adoucir un signal en éliminant des valeurs aberrantes comme c’est le cas pour
la compression des signaux ou pour régler la tonalité dans les appareils audio
(Equalizer)
 Séparer plusieurs composantes du même signal comme c’est le cas en acoustique
pour séparer les graves des aigus dans les enceintes.

On peut classer les filtres en deux grandes familles :


 Les filtres analogiques réalisés à partir de composants passifs (résistance,
inductance, condensateur…) ou actifs.
 Les filtres numériques réalisés à partir de circuits intégrés miro programmable.

38
I.2 Caractéristique d’un filtre Analogique

Le moyen le plus usuel pour caractériser un filtre analogique est sa réponse


impulsionnelle h(t) autrement sa sortie lorsqu’on applique une impulsion de Dirac δ(t) à son
1 𝑡=0
entrée définie par : 𝛿(𝑡) = { 𝑡𝑒𝑙 𝑞𝑢𝑒: 𝑇𝐹(𝛿(𝑡)) = 1
0 𝑡>0
On peut représenter un filtre par son schéma fonctionnel suivant :

Filtre
x(t) h(t) y(t)=h(t)*x(t)
Produit de convolution

On a : y(t) = h(t)*x(t) ⇒ Y(f) = H(f)×X(f) ou bien en fonction de ω on a : Y(jω) = H(jω)×X(jω).

H(f)ou bien H(jω) représente la réponse fréquentielle du filtre.


|Y(f)| |Y(jω)|
|H(f)| = ⇔ |H(jω)| = |X(jω)| : est la réponse fréquentielle en amplitude du filtre.
|X(f|

φ(H(f)) = arg(H(f)) = arg(y(f)) − arg(X(f)) : est la réponse fréquentielle en phase.

Parfois on préfère représenter un filtre par son gain en décibel (db) défini par :

𝐆(𝐟) = |𝐇(𝐟)|𝐝𝐁 = 𝟐𝟎 𝐥𝐨𝐠 𝟏𝟎 |𝐇(𝐟)|

Remarques :

 Il arrive parfois qu’on définit un filtre par rapport à l’atténuation A( ω) qu’il


provoque sur la grandeur d’entrée telle que :
𝟏
𝐀(𝐣𝛚) = : est appelée 𝐅𝐨𝐧𝐜𝐭𝐢𝐨𝐧 𝐝′ 𝐚𝐭𝐭é𝐧𝐮𝐚𝐭𝐢𝐨𝐧 𝐝𝐮 𝐟𝐢𝐥𝐭𝐫𝐞.
𝐇(𝐣𝛚)

 On définit aussi le temps de propagation de groupe au lieu du déphasage. Il


caractérise le retard apporté par le filtre sur les différents harmoniques du signal
d’entrée :
𝑑(𝑎𝑟𝑔(𝐻(𝑗𝜔))) 𝑑𝜑
𝜏= =
𝑑𝜔 𝑑𝜔

Exercice d’application

Soit le signal exponentiel complexe x(t) = ejω0 t appliqué à l’entrée du filtre linéaire
continu caractérisé par sa réponse en fréquence H(ω) = |H(ω)|ejargH(ω). Quelle est
l’expression de la réponse temporelle y(t) en sortie du filtre?
Solution :
On a:

39
+∞
X(ω) = X(f) = TF(ejω0 t ) = ∫ x(t)e−jωt dt
−∞
+∞ +∞
X(ω) = ∫ ejω0 t e−jωt dt = ∫ ej(ω0 −ω)t dt = δ(ω − ω0 ) = X(ω)
−∞ −∞
Donc :
Y(ω) = H(ω) × X(ω) = H(ω) × δ(ω − ω0 ) = H(ω0 ) × δ(ω − ω0 )
Par suite:

1 +∞ 1 +∞
y(t) = TF −1 (Y(ω)) = ∫ Y(ω)ejωt dω = ∫ H(ω0 ) × δ(ω − ω0 )ejωt dω
2π −∞ 2π −∞
+∞ +∞
1 jωt
1
y(t) = H(ω0 ) ∫ δ(ω − ω0 )e dω = H(ω0 ) ∫ δ(ω − ω0 )ejω0 t dω
2π −∞ 2π −∞
+∞
1
y(t) = H(ω0 ) ejω0 t ∫ δ(ω − ω0 )dω = H(ω0 ) ejω0 t
2π −∞

y(t) = |H(ω0 )|ejargH(ω0 ) ejω0t = |H(ω0 |ejω0 t+jargH(ω0 )

𝐲(𝐭) = |𝐇(𝛚𝟎 |𝐞𝐣𝛚𝟎𝐭+𝐣𝐚𝐫𝐠𝐇(𝛚𝟎 )

I.3. Fréquence de Coupure et Bande Passante

En plus de sa fonction de transfert en fréquence, un filtre est caractérisé aussi par sa fréquence
de coupure et sa bande passante.
𝑌(𝑓)
1. La fréquence de coupure d’un filtre caractérisé par sa fonction de transfert 𝐻(𝑓) = 𝑋(𝑓)
est la fréquence fc telle que :
𝑀𝑎𝑥|𝐻(𝑓)|
|𝐻(𝑓𝑐 )| =
√2
2. La bande passante d’un filtre analogique est l’intervalle de fréquences [𝑓𝑖𝑛𝑓 , 𝑓𝑠𝑢𝑝 ] dans
lequel le gain en décibel G(f) reste supérieur à une valeur de référence qui correspond à
une atténuation de gain de √2.

II. Filtres idéaux élémentaires

Un filtre idéal transmet le signal d’entrée x(t) sans distorsion donc il restitue en sortie
un signal y(t) de même forme que x(t) à une plage de fréquences spécifiques. Il présente :
– Un affaiblissement nul dans la bande de fréquence que l’on désire conserver
(bande passante).
– Un affaiblissement infini dans la bande qu’on désire éliminer (bande atténuée ou
rejetée).
On peut classer les filtres idéaux en quatre catégories suivant la fréquence atténuée :

40
 Les filtres passe-bas qui laissent passer les basses fréquences, et coupent les
hautes,
 Les filtres passe-haut qui laissent passer les hautes fréquences et coupent les
basses,
 Les filtres passe-bande ne laissent passer qu’une bande limitée de fréquences,
 Les filtres coupe-bande, à l’inverse, laissent passer toutes les fréquences, sauf une
bande spécifique.

II.1 Filtre passe-bas

C’est un filtre qui laisse passer les fréquences inférieures à sa fréquence de coupure fc
et coupe celle qui sont supérieures d’où son nom « Passe-Bas ». La représentation de ce filtre
correspond au gabarit suivant :
|H(f)|

fc f

Figure 4.2. Filtre Passe-bas idéal

La bande passante d’un tel filtre est l’intervalle [0, fc ] ce qui veut dire pour tout signal
sinusoïdal à l’entrée dont la fréquence se situe dans la bande passante du filtre apparaitra en
sortie alors que tout signal sinusoïdal dont la fréquence est supérieure à fc sera atténué à la sortie
du filtre. En considérant les spectres du signal d’entrée x(t) et de sortie de y(t) on a :

X(f) Y(f)

Filtre
Passe-bas

fc f fc f

Remarque : Figure 4.3. Spectres d’entrée et de sortie d’un filtre Passe-bas

Pour un filtre passe-bas |H(f)| est maximal en f = 0 donc :


|H(fc )| 1
= ⇒ |H(0)| = |H(fc )| × √2
|H(0)| √2

41
⇒ 20 log10 √2 + 20 log10 |H(fc 20)| = log10 |H(0)|
⇒ 20 log10 |H(fc 20)| − log10 |H(0)| = −20log10 √2
⇒ 20 log10 |H(fc 20)| − log10 |H(0)| = − 10log10 2 = −3db

Conclusion :

La fréquence de coupure fc est définie comme étant la fréquence pour laquelle


l’amplitude (en décibel) du signal est atténuée de (-3db)

II.2 Filtre Passe- haut


C’est un filtre qui laisse passer les fréquences supérieures à sa fréquence de coupure fc
et coupe celles qui sont inférieures, donc sa bande passante est BP = [fc, +∞ [. La représentation
de ce filtre correspond au gabarit suivant :

|H(f)|

fc f

Figure 4.4. Filtre Passe-haut idéal

II.3 Filtre Passe bande

C’est un filtre qui ne laisse passer qu’une bande limitée de fréquences, donc sa bande
passante est BP = [fcinf , fcsup ]. Le gabarit d’un tel filtre est le suivant :

|H(f)|

fcinf fcsup f

Figure 4.5. Filtre Passe-bande idéal

II.4 Filtre Coupe-bande

C’est un filtre qui laisse passer toutes les fréquences à l’exception d’une bande limitée
spécifique, donc sa bande passante est BP =] − ∞, fcinf ] ∪ [ fcsup , +∞[. Le gabarit d’un tel
filtre est le suivant :
42
|H(f)|

fcinf fcsup f

Figure 4.6. Filtre Coupe-bande idéal

Remarque :
Certains filtres ne sont pas conçus pour arrêter des fréquences mais de modifier
légèrement le gain (rapport sortie/entrée) à différentes fréquences.

II.5. Synthèse et réalisation de filtres élémentaires

Soit x(t) le signal d’entrée d’un filtre idéal donc la sortie y(t) sera identique en forme à
x(t) à une plage de fréquences spécifiques mais x(t) peut toujours subir une amplification
d’amplitude K et un décalage en temps T (cas général) on a alors : y(t) = Kx(t-T).
La représentation fréquentielle donne :
𝑌(𝑓) = 𝐾𝑋(𝑓)𝑒 −𝑗2𝜋𝑓𝑇 𝑜𝑢 𝑒𝑛𝑐𝑜𝑟𝑒: 𝑌(𝜔) = 𝐾𝑋(𝜔)𝑒 −𝑗𝜔𝑇
Or : 𝑌(𝜔) = 𝐻(𝜔) × 𝑋(𝜔)

Donc : 𝐻(𝜔) = 𝐾𝑒 −𝑗𝜔𝑇 ⇒ |𝑯(𝝎)| = 𝑲 𝒖𝒏𝒆 𝒄𝒐𝒏𝒔𝒕𝒂𝒏𝒕𝒆 𝒆𝒕 𝐚𝐫𝐠(𝑯(𝝎)) = −𝝎𝑻.

Conclusions :
 La réponse fréquentielle en amplitude d’un filtre idéal est une constante
 La réponse fréquentielle en phase est linéaire en fonction de ω ou de f passant
par 0.
A partir de ce qui précède on peut déduire les fonctions de transfert des 4 filtres vus
précédemment à savoir :
−𝑗𝜔𝑇
Filtre Passe-bas : 𝐻(𝜔) = {𝐾𝑒 𝑝𝑜𝑢𝑟 𝜔 < 𝜔𝑐 = 2𝜋𝑓𝑐
0 𝐴𝑖𝑙𝑙𝑒𝑢𝑟𝑠
−𝑗𝜔𝑇
Filtre Passe –haut : 𝐻(𝜔) = {𝐾𝑒 𝑝𝑜𝑢𝑟 𝜔 > 𝜔𝑐 = 2𝜋𝑓𝑐
0 𝐴𝑖𝑙𝑙𝑒𝑢𝑟𝑠
𝐾𝑒 −𝑗𝜔𝑇 𝑝𝑜𝑢𝑟 𝜔𝑖𝑛𝑓 < 𝜔 < 𝜔𝑠𝑢𝑝
Filtre Passe-bande : 𝐻(𝜔) = {
0 𝐴𝑖𝑙𝑙𝑒𝑢𝑟𝑠
𝐾𝑒 −𝑗𝜔𝑇 𝑝𝑜𝑢𝑟 𝜔 < 𝜔𝑖𝑛𝑓 𝑒𝑡 𝜔 > 𝜔𝑠𝑢𝑝
Filtre Coupe-bande : 𝐻(𝜔) = {
0 𝐴𝑖𝑙𝑙𝑒𝑢𝑟𝑠

43
II.6. Filtre passe-bas d’ordre N

Un filtre passe-bas est dit d’ordre N si sa fonction de transfert est de la forme suivante :
𝟏
𝑯(𝒑) =
𝒂𝟎 + 𝒂𝟏 𝒑 + 𝒂𝟐 𝒑𝟐 + ⋯ … … . +𝒂𝑵 𝒑𝑵
avec : p = jω.
Exemple : La fonction de transfert d’un filtre passe-bas d’ordre 2 est de la forme :
1 𝑝 𝜔
𝐻(𝑠) = 𝑠 ; 𝑎𝑣𝑒𝑐: 𝑠 = =𝑗
1 + 𝑄 + 𝑠2 𝜔0 𝜔0

𝛚𝟎 : la pulsation propre.
s : la variable réduite.
Q : le coefficient de surtension tel que : |H(ω0)|=Q.

II.7. Exercices d’applications

Exercice1
On considère le circuit électronique suivant :

i(t) R

ve (t) vs (t)
C

D’après le chapitre précèdent la représentation fréquentielle de ce circuit est :


1
H(f) =
1 + j2πfRC
1
En posant: τ = RC , 𝜔0 = 𝜏 𝑒𝑡 𝜔 = 2𝜋𝑓 on a :
1 −1
1 −𝑡⁄
H(ω) = 𝜏 × 𝑢(𝑡). [𝑢(𝑡) 𝑒𝑠𝑡 𝑙 ′ é𝑐ℎ𝑒𝑙𝑜𝑛 𝑢𝑛𝑖𝑡é]
𝜔 ⇒ ℎ(𝑡) = 𝑇𝐹 (𝐻(𝜔)) = 𝜏 𝑒
1 + j𝜔
0
1
La réponse fréquentielle en amplitude est : |H(ω)| = 𝜔
ට1+(𝜔 )2
0
𝜔
La réponse fréquentielle en phase est : 𝜑(𝜔) = − 𝑎𝑟𝑐𝑡𝑔(𝜔 )
0

44
h(t)
|H(ω)|

1⁄ 1
𝜏

1 𝐶𝑜𝑢𝑝𝑢𝑟𝑒 à − 3𝑑𝐵
√2
t 𝜔0 ω
𝐵𝑎𝑛𝑑𝑒 𝑝𝑎𝑠𝑠𝑎𝑛𝑡𝑒 𝐵𝑎𝑛𝑑𝑒 𝑐𝑜𝑢𝑝é𝑒

Exercice 2

On reconsidère le circuit (RC) précédent :


1. Déterminer la fonction de transfert du filtre représenté par ce circuit
2. Déduire la nature de ce filtre.
3. Déterminer la réponse vs (t) pour un signal d’entrée : ve (t) = 2 + cos(2πf1 t) +
cos(2πf2 t), sachant que : f1 = 2Khz ; f2 = 5Khz et f𝑐 = 3,14Khz.
Réponse :
1. La fonction de transfert est (d’après chapitre3) :

S(p) 1
H(p) = =
E(p) 1 + pRC
2. On pose p=jω, on obtient :
1 1 1
H(ω) = = ω , avec: ω0 =
1 + jωRC 1 + j RC
ω0
Donc c’est la fonction de transfert d’un filtre passe-bas de 1er ordre.
3. ve (t) = 2 + cos(2πf1 t) + cos(2πf2 t) = 2 cos(2πf0 t) + cos(2πf1 t) + cos(2πf2 t)
avec : f0 = 0
Sachant qu’on a : f0 = 0 < fc , f1 = 2Khz < fc 𝑒𝑡 f2 = 5Khz > fc
Donc ce filtre va laisser passer juste les harmoniques avec fi < fc ce qui implique
que : 𝐯𝐬 (𝐭) = 𝟐 + 𝐜𝐨𝐬(𝟐𝛑𝐟𝟏 𝐭).

III. Filtres réels physiquement réalisables

III.1 Notion de gabarit

Un filtre analogique réel est physiquement réalisable s’il respecte les deux conditions
suivantes :
 Il doit être stable ce qui veut dire qu’il revient à son état initial après une excitation.
 Il doit être causal ce qui veut dire que sa sortie ne se produit pas avant son entrée.

45
La conception d’un filtre réel revient à faire une approximation d’un filtre idéal qui est
pratiquement impossible à réaliser. Donc on se contente d’approcher cette réponse idéale en :
– Conservant l’atténuation au-dessous d’une valeur maximale dans la bande passante.
– Conservant l’atténuation au-dessus d’une valeur minimale dans la bande atténuée.

Cela conduit à définir un gabarit sur lequel on spécifie les points suivants :
 Une zone dans laquelle se situe le graphe de la représentation fréquentielle en
amplitude du filtre.
 La bande passante et la bande atténuée (ou rejetée)
 L’ondulation maximale admissible dans la bande passante et l'atténuation
minimale dans la bande rejetée ou atténuée.
Ainsi le rôle du gabarit est de délimiter la réponse fréquentielle en amplitude |H(ω)|
par trois zones :
 Ondulation maximale dans la bande passante.
 Ondulation minimale dans la bande coupée ou atténuée.
 La largeur de la bande de transition ∆𝜔 = 𝜔𝑎 − 𝜔𝑝 , qui doit être le plus faible
possible, 𝜔𝑎 représente la fréquence atténuée et 𝜔𝑝 la fréquence passante

Suivant le type de réponse que l’on désire obtenir, on est amené à définir 4 familles de
filtres dont les gabarits sont représentés par la figure suivante :
Passe - Bas Passe - Haut
|𝐇(𝛚)| |𝐇(𝛚)|
𝟎(𝐝𝐁) 𝟎(𝐝𝐁)
𝑯𝒎𝒊𝒏 𝑯𝒎𝒊𝒏

𝑯𝒎𝒂𝒙 𝑯𝒎𝒂𝒙

𝝎𝒑 𝝎𝒂 𝝎 = 𝟐𝝅𝒇 𝝎𝒂 𝝎𝒑 𝝎 = 𝟐𝝅𝒇

Coupe - Bande Passe - Bande


|𝐇(𝛚)| |𝐇(𝛚)|
𝟎(𝐝𝐁) 𝟎(𝐝𝐁)
𝑯𝒎𝒊𝒏 𝑯𝒎𝒊𝒏

𝑯𝒎𝒂𝒙 𝑯𝒎𝒂𝒙

𝝎𝒑𝟏 𝝎𝒂𝟏 𝝎𝒂𝟐 𝝎𝒑𝟐 𝝎 𝝎𝒂𝟏 𝝎𝒑𝟏 𝝎𝒑𝟐 𝝎𝒂𝟐 𝝎

Remarque

Certains filtres ne sont pas conçus pour arrêter une fréquence, mais pour modifier
légèrement le gain à différentes fréquences. Ainsi, différentes méthodes de conception de filtres
analogiques ont été mises au point, chacune optimisant un point spécifique, comme par exemple
des filtres exhibant des caractéristiques particulières tels que :

46
– Les filtres de Butterworth,
– Les filtres de Tchebyshev,
– Les filtres de Bessel,
– Les filtres elliptiques (filtres de Cauer) etc.

III.2 Réponse fréquentielle d’un filtre réel

En général, un filtre réel possède une réponse fréquentielle en amplitude similaire à celle
représentée par la figure suivante :

|H(ω)|

Ondulations
K dans la Bande BP

K
√2

Ondulations dans la Bande BA Ondulations dans la Bande BA

𝝎𝒑 𝝎𝒂
ω
Bande Atténuée BA Bande Atténuée BA
Bande Passante BP

Bande de transition Bande de transition

Figure 4.3. Réponse fréquentielle en amplitude d′ un filtre passe − bas

En plus des spécifications qui définissent un gabarit qui sont en général les caractéristiques du
filtre à savoir :
1. Le gain dans la bande passante qui doit être nul.
2. La fréquence de coupure (une pour filtre passe-bas et passe-haut et deux dans le
cas du filtre passe-bande et coupe bande).
On trouve aussi :
𝜔𝑝
 Le rapport 𝑘 = 𝜔 qui représente la sélectivité du filtre. Elle caractérise la bande
𝑎
passante de ce dernier.
 0 < k < 1 pour un filtre passe-bas puisque la fréquence atténuée est plus grande
que la fréquence passante.

47
III.3 Filtres analogiques célèbres

III.3.1 Famille de Filtres Butterworth


Ce sont des filtres passe-bas caractérisés par :
 Ne présentent aucune ondulation aussi bien au niveau de la bande atténuée que au niveau
de la bande passante.
 Atténuation la plus constante possible dans la bande passante ce qui correspond à une
réponse à la sortie du filtre la plus plate possible
 La forme générale du gain d’ordre n est :
1
|𝐻(𝜔)|2 = 𝜔 ; 𝑎𝑣𝑒𝑐 𝑛 > 0
1 + (𝜀 𝜔 )2𝑛
𝑐

 Pour tout n, l'atténuation asymptotique est de –20n dB/décade à partir de 𝒇𝒄 = 𝟏


comme indiqué par la figure suivante :

III.3.2 Famille de filtres TChebychev


Ils existent en deux types :

A. Filtres de Tchebytchev de type I


Ce sont des filtres conçus essentiellement pour minimiser les oscillations dans la bande
atténuée et présentent les propriétés suivantes :
 Un gain de la forme :
1 𝜔 𝜔
|𝐻(𝜔)|2 = 𝜔 ; 𝑃𝑛 ( ) 𝑒𝑠𝑡 𝑢𝑛 𝑝𝑜𝑙𝑦𝑛𝑜𝑚𝑒 𝑒𝑛
1 + 𝜀 2 𝑃𝑛2 (𝜔 ) 𝜔𝑐 𝜔𝑐
𝑐

 Des ondulations dans la bande passante réglée par ε.


 Pas d'ondulation en bande rejetée.

48
 Raideur de coupure importante.
 Meilleure atténuation que Butterworth.

B. Filtres de Tchebytchev de type II

Ils sont conçus essentiellement pour minimiser les oscillations dans la bande passante
et présentent les propriétés suivantes :
 Un gain de la forme :
𝜀 𝜔
𝑃𝑛2 (𝜔 ) 𝜔 𝜔
1 − 𝜀 𝑐
|𝐻(𝜔)|2 = 𝜀 𝜔 ; 𝑃𝑛 ( ) 𝑒𝑠𝑡 𝑢𝑛 𝑝𝑜𝑙𝑦𝑛𝑜𝑚𝑒 𝑒𝑛
2
1 + 1 − 𝜀 𝑃𝑛 (𝜔 ) 𝜔𝑐 𝜔𝑐
𝑐

 Ondulation dans la bande rejetée ou atténuée réglée par ε.


 Pas d'ondulation en bande passante.

49

Vous aimerez peut-être aussi