0% ont trouvé ce document utile (0 vote)
54 vues31 pages

TRX Chap1et2

Le document décrit les caractéristiques des réseaux de transmission d'informations et les méthodes de représentation de l'information pour la transmission, notamment le codage des données discrètes et continues. Il explique les concepts clés comme le débit binaire, le rapport signal sur bruit et les différents types de codage.

Transféré par

zolalainaorlando
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
54 vues31 pages

TRX Chap1et2

Le document décrit les caractéristiques des réseaux de transmission d'informations et les méthodes de représentation de l'information pour la transmission, notamment le codage des données discrètes et continues. Il explique les concepts clés comme le débit binaire, le rapport signal sur bruit et les différents types de codage.

Transféré par

zolalainaorlando
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
Vous êtes sur la page 1/ 31

CHAPITRE 1 : L’INFORMATION ET SA REPRESENTATION

DANS LES SYSTEMES DE TRANSMISSION

L’acheminement, dans un même réseau, d’informations aussi différentes que les données
informatiques, tel que la voix ou la vidéo implique que chacune de ces catégories d’information ait
une représentation identique vis-à-vis du système de transmission et que le réseau puisse prendre en
compte les contraintes spécifiques à chaque type de flux d’information (Fig. 1.1).

Figure 1.1 : Le réseau et les différents flux d’information

Afin de qualifier ces différents flux vis-à-vis du système de transmission, il faut définir les
caractéristiques essentielles d’un réseau de transmission et le mode de représentation des
informations.

1-1 CARACTERISTIQUES DES RESEAUX DE TRANSMISSION

Un réseau de transmission est caractérisé par plusieurs paramètres.

1-1-1 Codage

Les systèmes de traitement de l’information emploient une logique à deux états ou binaire.
Aussi, pour traduire une information en symboles compréhensibles et manipulables par ces
systèmes, il faut transformer les données en éléments binaires : c’est le codage de l’information
(Fig. 1.2).

1
Figure 1.2 : Illustration du codage d’une information

1-1-2 Débit binaire

On appelle débit binaire (D) le nombre d’éléments binaires, ou nombre de bits, émis sur le
support de transmission pendant une unité de temps. C’est l’une des caractéristiques essentielles
d’un système de transmission.
Le débit binaire s’exprime par la relation :

Avec D (débit) en bits par seconde (bit/s), V le volume à transmettre exprimé en bits et t la durée de
la transmission en seconde.

Le débit binaire mesure donc le nombre d’éléments binaires transitant sur le canal de
transmission pendant l’unité de temps (Fig. 1.3).

Figure 1.3 : Schématisation d’un système de transmission

1-1-3 Rapport signal sur bruit

Les signaux transmis sur un canal peuvent être perturbés par des phénomènes électriques ou
électromagnétiques. Le phénomène, généralement appelé bruit dénature le signal et introduit des
erreurs.

2
Le rapport entre la puissance du signal transmis et celle du signal de bruit qualifie le canal
vis-à-vis du bruit. Ce rapport, appelé rapport signal sur bruit (S/N avec N pour Noise), s’exprimeen
dB (décibel) :

1-1-4 Taux d’erreur

Les bruits perturbent le canal de transmission et peuvent affecter les informations en


modifiant un ou plusieurs bits du message transmis, introduisant ainsi des erreurs dans le message.
On appelle taux d’erreur binaire (BER ou Bit Error Rate), le rapport du nombre de bits reçus en
erreur au nombre de bits total transmis.

1-1-5 Temps de transfert

Le temps de transfert, appelé aussi temps de transit ou temps de latence, mesure le temps
entre l’émission d’un bit, à l’entrée du réseau et sa réception en sortie du réseau. Ce temps prend en
compte le temps de propagation sur le ou les supports et le temps de traitement par les éléments
actifs du réseau (nœuds). Le temps de transfert est un paramètre important à prendre en compte
lorsque la source et la destination ont des échanges interactifs.
Pour un réseau donné, le temps de transfert n’est généralement pas une constante, il varie en
fonction de la charge du réseau.

1-2 REPRÉSENTATION DE L’INFORMATION

Pour traiter les informations via des équipements informatiques, il est nécessaire de
substituer à chaque élément d’information une valeur binaire représentative de l’amplitude de celui-
ci. Cette opération porte le nom de codage de l’information (codage à la source) pour les
informations discrètes et numérisation de l’information pour les informations analogiques.

3
1-2-1 Les différents types d’information

Les informations transmises peuvent être réparties en deux grandes catégories selon ce
qu’elles représentent et les transformations qu’elles subissent pour être traitées dans les systèmes
informatiques.

a- Les données discrètes

L’information correspond à l’assemblage d’une suite d’éléments indépendants les uns des
autres (suite discontinue de valeurs) et dénombrables (ensemble fini).Par exemple, un texte est une
association de mots eux-mêmes composés de lettres (symboles élémentaires).

b- Les données continues ou analogiques

Les données continues ou analogiques résultent de la variation continue d’un phénomène


physique : température, voix, image etc. Un capteur fournit une tension électrique proportionnelle à
l’amplitude du phénomène physique analysé : signal analogique (signal qui varie de manière
analogue au phénomène physique). Un signal analogique peut prendre une infinité de valeurs dans
un intervalle déterminé.

1-2-2 Codage des informations


 Définition

Coder l’information consiste à faire correspondre à chaque symbole d’un alphabet (élément
à coder) une représentation binaire (mot code). L’ensemble des mots codes constitue le code (Fig.
1.4). Ces informations peuvent aussi bien être un ensemble de commandes d’une machine-outil que
des caractères alphanumériques.

4
Figure 1.4 :Principe du codage des données
Un code alphanumérique peut contenir :
 des chiffres de numérotation usuelle [0…9],
 des lettres de l’alphabet [a…z A…Z],
 des caractères spéciaux [[ @ à é\...],
 des symboles de ponctuation [, ; : !?],
 des commandes nécessaires au système [saut de ligne, …],
 etc.

 Les différents types de code

Le codage des différents états d’un système peut s’envisager selon deux approches. La
première, considère que chacun des états du système est équiprobable. La seconde prend en compte
la fréquence d’apparition d’un état. Cette approche conduit à définir deux types de code : les codes
de longueur fixe et les codes de longueur variable.

i) Les codes de longueur fixe

Dans le codage à longueur fixe, chaque état du système est codé par un certain nombre de
bits, appelé longueur du code, longueur du mot code ou encore code à n moments.
D’une manière générale, avec n bit, on peut coder 2 états.Autrement dit, si le nombre de
bits nécessaires pour coder P états est n, alors :

Ainsi, le nombre de bits nécessaire pour coder P symboles est donc :

𝑙𝑜𝑔(𝑃)
𝑛= = 𝑙𝑜𝑔 (𝑃) = 3,322. 𝑙𝑜𝑔(𝑃)
𝑙𝑜𝑔(2)

5
Ce nombre de bits (n) représente la quantité d’information (Q) apportée par la connaissance
d’un état du système. Lorsque dans un système, tous les états sont équiprobables, la quantité
d’information apportée par la connaissance d’un état est la même quel que soit l’état connu. Si
l’information est représentée par deux valeurs équiprobables (0 ou 1, pile ou face...), la quantité
d’information, exprimée en shannon5 ou plus simplement en bit, est :

Le bit est la quantité d’information qui correspond au lever de doute entre deux symboles
équiprobables.Lorsque tous les états ne sont pas équiprobables, la quantité d’information est
d’autant plus grande que la probabilité de réalisation de l’état est faible. Si p est la probabilité de
réalisation de l’état P, la quantité d’information apportée par la connaissance de P est :

Application:
Combien de bits sont nécessaires pour coder toutes les lettres de l’alphabet et quelle
est la quantité d’information transmise par une lettre en supposant équiprobable l’apparition
de chaque lettre ?

Réponses :
Le nombre de bits nécessaires, pour coder P valeurs, est donné par la relation :

Soit 5 bits pour coder les 26 éléments.

La quantité d’information, exprimée en bits, est donnée par la relation :

où p représente la probabilité d’apparition d’un symbole. Ici, p = 1/26.

6
ii) Les codes de longueur variable

Lorsque les états du système ne sont pas équiprobables, la quantité d’information apportée
par la connaissance d’un état est d’autant plus grande que cet état a une faible probabilité de se
réaliser. La quantité moyenne d’information apportée par la connaissance d’un état, appelée
entropie, est donnée par la relation :

où 𝑝 représente la probabilité d’apparition du symbole de rang i.


L’entropie représente la longueur optimale du codage des symboles du système.

Exemple

Déterminons la longueur optimale du code (entropie) pour le système décrit par le Tableau 1.
À des fins de simplicité, chaque état est identifié par une lettre.
Tableau 1 : Système à décoder

La longueur optimale du mot code est donnée par :

Le code optimal utile est de 1,92 bit, alors que l’utilisation d’un code à longueur fixe
nécessite 3 bits pour coder les 6 états de ce système (2 < 6 ≤ 2 ).

7
Il n’existe pas de code qui permette d’atteindre cette limite théorique. Cependant, Huffman
introduit en 1952 une méthode de codage qui prend en compte la fréquence d’occurrence des états
et qui se rapproche de cette limite théorique.

iii) Codage de Huffman

Le codage de Huffman est une méthode de compression statistique de données qui


permet de réduire la longueur du codage d'un alphabet. Le code de Huffman est un code de
longueur variable optimal, c'est-à-dire tel que la longueur moyenne d'un texte codé soit minimale.
On observe ainsi des réductions de taille de l'ordre de 20 à 90%.
L'algorithme opère sur une forêt. La forêt initiale est formée d'un arbre à un nœud pour
chaque lettre du langage-source, dont l'étiquette est la probabilité de cette lettre. La forêt finale est
formée d'un unique arbre, qui est l'arbre de décodage du code.
Pour la construction du code de Huffman :
 la lecture complète du fichier et création de la table des symboles,
 le classement des symboles par ordre des fréquences décroissantes (occurrence),
 les réductions successives en rassemblant en une nouvelle occurrence les deux
occurrences de plus petite fréquence,
 l’occurrence obtenue est insérée dans la table et celle-ci est à nouveau triée par
ordre décroissant,
 les réductions se poursuivent jusqu’à ce qu’il n’y ait plus d’élément,
 construire l’arbre binaire en reliant chaque occurrence à la racine,
 le codage consiste à lire l’arbre du sommet aux feuilles en attribuant par exemple
la valeur 0 aux branches basses (gauches) et 1 aux branches hautes (droites).

Exemple
Soit à élaborer le code de Huffman pour l'alphabet source {A, B, C, D, E, F}, avec les
probabilités P(A) = 0.10, P(B) = 0.10, P(C) = 0.25, P(D) = 0.15, P(E) = 0.35 et P(F) = 0.05.
On peut illustrer les différentes étapes à suivre comme indiquées sur la Fig. 1.5 :

8
Figure 1.5 : Exemple d’illustration de la construction d’un arbre de Huffman

Le codage se réalise facilement à l'aide d'une table associant à chaque lettre son code et le
décodage se réalise avec un arbre de décodage (Fig. 1.6).

9
Figure 1.6 : Construction du code de Huffman à partir d’un arbre

Compte tenu des probabilités, le code obtenu a une longueur moyenne de 2,4 alors que
l'entropie du langage source est 2,32 (légèrement inférieure). On montre que la longueur moyenne
d'un code de Huffman peut approcher l'entropie d'aussi près que voulu, à condition de coder non pas
des lettres, mais des blocs de lettres de longueur assez grande.

1-2-3 Numérisation des informations

a- Principe

Numériser une grandeur analogique consiste à transformer la suite continue de valeurs en


une suite discrète et finie. À cet effet, on prélève, à des instants significatifs, un échantillon du
signal et on exprime son amplitude par rapport à une échelle finie (quantification). Le récepteur, à
partir des valeurs transmises, reconstitue le signal d’origine. Une restitution fidèle du signal
nécessite que soient définis :
 l’intervalle d’échantillonnage qui doit être une constante du système (fréquence
d’échantillonnage),
 l’amplitude de l’échelle de quantification, celle-ci doit être suffisante pour
reproduire la dynamique du signal,
 que chaque valeur obtenue soit codée.

La figure 1.7 représente les différentes étapes de la numérisation du signal. À intervalle


régulier (période d’échantillonnage), on prélève une fraction du signal (échantillon). Puis, on fait
correspondre à l’amplitude de chaque échantillon une valeur (quantification), cette valeur est
ensuite transformée en valeur binaire (codification).
10
Figure 1.7 : Numérisation d’un signal analogique

b- Fréquence d’échantillonnage

Pour reproduire correctement le signal à l’arrivée, le récepteur doit disposer d’un minimum
d’échantillons. Il existe donc une relation étroite entre la fréquence maximale des variations du
signal à discrétiser et le nombre d’échantillons à prélever.
On en déduit que la fréquence minimale d’échantillonnage (fréquence de Nyquist) d’un
signal doit être le double de la fréquence maximale du signal à échantillonner, soit :

c- Quantification

La quantification est l’approximation de chaque valeur du signal 𝑠 (𝑡) par un multiple entier
d’une quantité élémentaire q, appelée échelon de quantification. Si q est constant quelle que soit
l’amplitude du signal, la quantification est dite uniforme. Cette opération revient à faire passer le
signal dans un organe qui possède une caractéristique en marche d’escalier. La figure 1.8 illustre
une opération de quantification pour q = 1, et fournit le signal 𝑠 (𝑡).

11
Figure 1.8 : Opération de quantification

La manière dont l’approximation est faite définit le centrage de cette caractéristique.


Par exemple, la Fig. 1.8 représente le cas appelé arrondi, où toute valeur du signal comprise
entre (𝑛 – 1/2)𝑞et (𝑛 + 1/2)𝑞est arrondie à 𝑛𝑞.
C’est l’approximation par défaut, qui est désignée, quand elle porte sur des nombres, par
troncation et qui consiste à approcher par 𝑛𝑞toute la valeur comprise entre𝑛𝑞et (𝑛 + 1)𝑞.La
caractéristique se déplace alors de 𝑞/2 vers la droite sur l’axedes abscisses.

d- La dynamique de codage

Le signal échantillonné et quantifié en amplitude est représenté par une suite de nombres
presque toujours sous forme binaire. Si chaque nombre compte N bits, le nombre maximum
d’amplitudes quantifiées qu’il est possible de distinguer s’élève à 2 N. Alors la gamme des
amplitudes qu’il est possible de coder est soumise à une double limitation : vers les faibles valeurs
elle se trouve limitée par l’échelon de quantification q et vers les fortes valeurs par 2𝑁. 𝑞.
Toute amplitude qui dépasse cette valeur ne peut être représentée et il y a écrêtage du signal.
Il s’en suit une dégradation, par exemple par distorsion harmonique si le signal est sinusoïdal.
Si la gamme des amplitudes à coder couvre le domaine [– 𝐴 , + 𝐴 ], il vient :

12
On appelle puissance de crête d’un codeur la puissance du signal sinusoïdal ayant
l’amplitude maximale admissible sans écrêtage, 𝐴 . Elle s’exprime par :

La figure 1.9 représente ce signal avec le pas de quantification et les amplitudes de décision.

Figure 1.9 : Puissance de crête du codeur


e- Représentations binaires

Il existe diverses façons d’établir la correspondance entre l’ensemble des amplitudes


quantifiées et l’ensemble des nombres binaires qui doivent les représenter. Les signaux à coder
ayant des amplitudes en général positives et négatives, les représentations préférées sont celles qui
conservent l’information de signe.
Les plus courantes pour les codages à échelon constant sont les suivantes :
- signe et valeur absolue
- binaire décentré
- complément à 1
- complément à 2.

Les définitions et particularités de ces représentations sont données sur le Tableau 2


(représentation binaire sur 3 bits).

13
Tableau 2 : Exemple de représentation binaire sur 3 bits

Ainsi, la structure élémentaire d’un convertisseur analogique numérique est représentée sur
la Fig. 1.10.

Figure 1.10 : Structure élémentaire d’un convertisseur analogique/numérique

1-2-4 Exemples d’application


a- Application à la voix

Un canal téléphonique utilise une bande passante allant de 300 𝐻𝑧 à 3 400 𝐻𝑧. Si on prend
4 000 𝐻𝑧 comme fréquence maximale à reproduire, la fréquence d’échantillonnage minimale est de
:

Soit 8 000 échantillons par seconde, ce qui correspond, pour chaque échantillon à une durée
de 125 µ𝑠 (1/8 000). Théoriquement, pour une restitution correcte, la voix devrait être quantifiée
sur 12 bits (4 096 niveaux).

b- Codage de l’image vidéo

L’image est interprétée globalement par l’œil alors qu’elle ne peut être transmise et
reproduite que séquentiellement.

14
La discrétisation de l’image nécessite 2 étapes :
 d’abord une transformation espace/temps qui se concrétise par une analyse de
l’image, ligne par ligne, puis une décomposition de chaque ligne en points,
 ensuite la quantification de la valeur lumineuse du point, valeur qui est ensuite
transmise.
Une image colorée peut être analysée selon 3 couleurs dites primaires de longueur d’onde
(𝝀) déterminée. Pour reconstituer l’image d’origine, il suffit de superposer les trois images, c’est la
synthèse additive.
La figure 1.11 représente le principe de la synthèse additive.

Figure 1.11 : La synthèse additive


Chaque point de l’image est représenté par deux grandeurs, la luminance et la
chrominance. La chrominance, ou information de couleur, est le résultat de la superposition de
trois couleurs dites primaires (Fig. 1.11). Ces deux grandeurs sont reliées entre elles par la relation :

L’image est dite RVB ou RGB (ROUGRE – VERT – BLEUE ou RED – GREEN – BLUE) ,
du nom des trois couleurs primaires.

15
Les différentes caractéristiques d’une image vidéo constituent un standard dont les
paramètres sont :
 le format de l’image,
 le nombre d’images par seconde déterminé en fonction de la fréquence du réseau
électrique pour éviter des effets stroboscopiques,
 le nombre de lignes, fixé, pour qu’à une distance de vision normale, deux lignes
consécutives ne soient pas distinguées (les deux lignes doivent être vues sous un
angle de moins d’une minute),
 et le nombre de points par ligne défini pour que la définition horizontale soit
identique à la définition verticale.
Le standard d’une image de télévision numérique au format européen (625 lignes, 25 Hz) est
caractérisé par :
 le nombre de lignes utiles par image fixé à 576,
 le nombre de points par ligne défini à 720,
 et le nombre d’images par seconde déterminé à 25 images (25 Hz).
Les grandeurs transmis sont la luminance (Y) et les signaux de chrominance B (Bleu) et R
(Rouge). La connaissance de ces trois grandeurs est nécessaire et suffisante pour reconstituer la
quatrième : V (Vert).

L’œil ne percevant pas la couleur dans les détails. On se satisfait donc d’une définition
moindre pour l’information couleur que pour l’information monochrome (noir et blanc).
Ainsi, on transmet :
 720 points par ligne pour le signal Y,
 360 points pour chacune des couleurs B et R.

Au total 1 440 points élémentaires par ligne sont analysés. En se contentant d’une
quantification sur 255 niveaux (8 bits), le nombre de bits nécessaires à la reconstitution de l’image
(576 lignes) est donc de :

À raison de 25 images par seconde (50 demi-images), il faut, pour transmettre une image
animée, un débit minimal de :

16
1-3 LA COMPRESSION DE DONNÉES
1-3-1 Généralités

Si on néglige le temps de propagation du message sur le support, le temps de transmission


ou temps de transfert d’un message a pour expression :

Pour un même contenu sémantique, ce temps sera d’autant plus faible que la longueur du
message sera petite ou que le débit sera élevé. L’augmentation du débit se heurte à des problèmes
technologiques et de coûts. Il peut donc être intéressant de réduire la longueur du message sans en
altérer le contenu : c’est la compression de données.
Les techniques de compression se répartissent en deux familles : les algorithmes réversibles
ou sans perte et les algorithmes irréversibles dits avec perte. Les algorithmes réversibles restituent à
l’identique les données originelles. Ils s’appliquent aux données informatiques. Le taux de
compression obtenu est voisin de 2. Les algorithmes irréversibles, dits aussi codes à réduction de
bande, autorisent des taux de compression pouvant atteindre plusieurs centaines au détriment de la
fidélité de restitution. Utilisés pour la voix et l’image, ces algorithmes s’apparentent plus à des
procédés de codage qu’à des techniques de compression.

1-3-2 Quantification de la compression

La compression se quantifie selon trois grandeurs : le quotient de compression, le taux de


compression et le gain de compression. Le quotient de compression (𝑄) exprime le rapport entre la
taille des données non compressées à la taille des données compressées.

Le taux de compression (𝑇) est l’inverse du quotient de compression.

Enfin, le gain de compression (𝐺), exprime en % la réduction de la taille des données.

17
CHAPITRE 2 : ELEMENTS DE BASE DE LA TRANSMISSION DE
DONNEES

Transporter de l’information d’un point à un autre nécessite que soit établie une série de
conventions concernant la représentation logique des données, les paramètres physiques de la
transmission et le mode de contrôle de l’échange. Cet ensemble de conventions constitue le
protocole de transmission.

2-1 CLASSIFICATION EN FONCTION DU MODE DE CONTROLE DE L’ECHANGE


2-1-1 Selon l’organisation des échanges

La transmission d’information entre deux correspondants peut être unidirectionnelle


(l’échange n’a lieu que dans une seule direction), on parle alors de liaison simplex (Fig. 2.1).
Chaque correspondant ne remplit qu’une fonction, il est émetteur (source) ou récepteur (puits ou
collecteur).
Si les correspondants peuvent, alternativement, remplir les fonctions d’émetteur et de
récepteur, la liaison est dite : liaison à l’alternat ou half duplex. Le temps mis par les systèmes pour
passer d’une fonction à l’autre est appelé temps de retournement. Ce temps peut être important,
jusqu’à 1/3 de seconde.
Lorsque l’échange peut s’effectuer simultanément dans les deux sens, sur des voies
distinctes ou sur la même voie par utilisation de techniques spécifiques comme le multiplexage
fréquentiel, la liaison est appelée bidirectionnelle intégrale ou full duplex.

Figure 2.1 : Organisation des échanges


18
2-1-2 Selon le mode de liaison
a- La liaison point à point

Dans ce mode de liaison chaque correspondant est relié par un lien dédié à un seul autre
correspondant. C’est le cas par exemple d’une liaison entre noeuds3 d’un même réseau ou entre un
ordinateur et un terminal (Fig. 2.2).

Figure 2.2 :La relation point à point

b- Les liaisons multipoints

Une liaison est dite multipoint lorsqu’un même support est partagé par plusieurs nœuds.
Dans ce cas, des conflits d’accès sont inévitables, il est nécessaire d’instaurer une politique d’accès
au support. L’ensemble des mécanismes particuliers mis en œuvre, pour assurer le partage de
l’accès au support, porte le nom de politique d’accès au canal On distingue deux modes de contrôle
de l’accès selon la manière dont est gérée la politique d’accès : le mode centralisé ou maître/esclave
et le mode décentralisé ou d’égal à égal.

i- Le mode maître/esclave

Dans le mode de relation dit maître/esclave le primaire, généralement un ordinateur


multiposte (mainframe ou mini-ordinateur) est responsable de l’initialisation du dialogue, de la
récupération des erreurs et de l’organisation des échanges (Fig. 2.3).

Figure 2.3 : La relation maître/esclave

19
Le transfert des données s’effectue selon la technique dite du « polling/selecting» (Fig. 2.4).
Le maître invite le terminal (secondaire) à émettre (polling) ou lui demande de passer en mode
réception (selecting).
Dans de grandes configurations, le polling de toutes les stations peut demander beaucoup de
temps. Pour améliorer les temps de réponse, on utilise la technique dite du polling lent et polling
rapide. À l’initialisation, toutes les stations sont interrogées. Ensuite on interroge uniquement celles
qui ont répondu (polling rapide). Périodiquement, toutes les stations sont de nouveau interrogées
(polling lent).

Figure 2.4 : Polling/Selecting

ii- Le mode d’égal à égal

Dans ce type de configuration, tous les calculateurs sont autorisés à émettre vers n’importe
quel autre calculateur et ce, à tout moment. Cet accès partagé peut donner lieu à des collisions ou
contentions de messages (deux stations transmettent en même temps). Mais contrairement à la
relation maître/esclave, ici, chaque calculateur déroule un algorithme pour assurer le partage du
support. La politique d’accès est dite décentralisée. Les réseaux locaux constituent un exemple de
ce mode de contrôle de l’accès au support.

2-1-3 Les modes de contrôle de la liaison

Pour établir une communication, l’un des correspondants doit initialiser la transmission.
Durant toute la transmission, en sus des données, des informations de contrôle sont échangées.
On distingue différents modes de contrôle de la liaison selon celui qui peut prendre
l’initiative d’une transmission et celui qui la contrôle.

20
a- La dissymétrie synchrone

La dissymétrie synchrone est utilisée dans la relation maître/esclave ou polling du primaire


vers le secondaire. Ce mode, mis en œuvre dans les liaisons multipoint, est appelé Normal Response
Mode (NRM) ou Link Access Protocol (LAP).

b- La symétrie synchrone

Dans les communications en point en point, la symétrie synchrone permet, à chaque


extrémité, d’être primaire en émission et secondaire en réception (Fig2.5).

Figure 2.5 : La symétrie synchrone

Connue sous le nom de mode équilibré ou Asynchronous Balanced Mode (ABM), elle est
employée dans les liaisons full duplex (Link Access Protocol Balanced ou LAP B) et half duplex
(LAP X, LAP semi-dupleX).

c- La dissymétrie asynchrone

Dans ce mode, le secondaire peut émettre sans y avoir été autorisé. Ce qui implique qu’un
seul secondaire puisse être actif à la fois ou qu’un algorithme de résolution des collisions soit mis
en œuvre. Ce mode est appelé Asynchronous Response Mode (ARM).

2-2 CLASSIFICATION EN FONCTION DES PARAMÈTRES PHYSIQUES


2-2-1 Transmission parallèle, transmission série

L’information élémentaire à transmettre est le mot (4, 8, 16, n bits). En interne, les
calculateurs transfèrent les données via un bus : un fil par bit. Le bus transmet simultanément tous
les bits d’un même mot machine, la transmission est dite transmission parallèle, la communication
entre machines peut se réaliser de même. La transmission parallèle soulève de nombreux problèmes
techniques. Pour des distances importantes, on lui préfère la transmission série : les bits sont
transmis successivement sur un support unique.
21
a- Transmission parallèle

La transmission parallèle est caractérisée par un transfert simultané de tous les bits d’un
même mot (Fig. 2.6). Elle nécessite autant de conducteurs qu’il y a de bits à transmettre et un
conducteur commun (liaison asymétrique) ou autant de paires de fils si la masse n’est pas commune
(liaison symétrique).

Figure 2.6 : La transmission parallèle

i- Avantages

La transmission parallèle est très performante en termes de débit. Elle est utilisée pour des
liaisons entre un calculateur, ses périphériques et ses unités de calcul esclaves. Par exemple,
l’interface HiPPI(High Performance Parallel Interface) qui définit un mode de transmission entre
un calculateur et ses périphériques offre un débit de 800 Mbit/s. Elle utilise un câble de 50 paires
dont 32 sont utilisées pour la transmission de données (transmission parallèle par mot de 32 bits).
HiPPI est limitée à 25 m.

ii- Inconvénients

La transmission parallèle pose de nombreuses difficultés dont les principales sont le


rayonnement des conducteurs l’un sur l’autre (diaphonie) et la différence de vitesse de propagation
entre les différents conducteurs (Delay Skew) qui nécessitent la réalisation d’une électronique
coûteuse. Un coût élevé (nombre de conducteurs) et une distance franchissable limitée par la
désynchronisation du train de bits (Delay Skew) réservent la transmission parallèle aux liaisons de
processeur à processeur ou d’hôte à hôte (ordinateur central). Des techniques apparentées sont
mises en œuvre dans les réseaux locaux.

22
b- Transmission série

En transmission série, tous les bits d’un mot ou d’un message sont transmis successivement
sur une même ligne (Fig. 2.7). Dans les calculateurs, les données (bits) sont traitées en parallèle
(bus). La transmission série nécessite une interface de conversion pour sérialiser les bits en
émission (conversion parallèle/série) et les désérialiser en réception (conversion série/parallèle). La
transmission série n’utilise, pour la transmission des données, que deux conducteurs. D’un coût
moins élevé, elle est adaptée aux transmissions sur des distances importantes.

Figure 2.7 : Transmission série

c- Comparaison

Si on désigne par temps bit le temps d’émission d’un bit sur le support, en considérant que
ce temps est identique pour la transmission parallèle et série de la Fig. 2.8, on constate qu’il faut
seulement 3 temps bit pour transmettre le mot « ISO » en transmission parallèle, alors que la
transmission série nécessite 8 temps bit pour transmettre la seule lettre « O ».

Figure 2.8 : Transmission parallèle – Transmission série

2-2-2 Transmission asynchrone et transmission synchrone

Les bits sont émis sur la ligne à une certaine cadence. Cette cadence est définie par une
horloge dite horloge émission.

23
a- Principe de la synchronisation

Pour décoder correctement la suite de bits reçue, le récepteur doit examiner ce qui lui arrive
à une cadence identique à celle de l’émission des bits sur le support. Les horloges récepteur et
émetteur doivent « battre » en harmonie.
Il ne suffit pas que les horloges battent au même rythme, encore faut-il que les instants
d’analyse des niveaux électriques de la ligne soient les mêmes pour les deux éléments, ils sont dits
en phase. L’opération qui consiste à asservir l’horloge de réception sur celle d’émission s’appelle la
synchronisation (Fig. 2.9).

Figure 2.9 : Principe de la synchronisation

Selon le mode de synchronisation de l’horloge du récepteur sur celle de l’émetteur, on


distingue deux types de transmission : les transmissions asynchrones et les transmissions
synchrones. Dans les transmissions asynchrones les horloges sont indépendantes. Au contraire, dans
les transmissions synchrones on maintient en permanence une relation de phase stricte entre les
horloges émission et réception.
Lorsque les systèmes terminaux sont reliés via un réseau de transport, c’est ce dernier qui
fournit les horloges de référence (Fig. 2.10).

Figure 2.10 : Synchronisation des horloges sur l’horloge réseau

24
b- Notion d’horloge

La synchronisation des différentes horloges mises en œuvre dans les systèmes de


transmission est l’une des préoccupations principales des concepteurs de systèmes de transmission.
Les dérives d’horloge et, par conséquent, les pertes de synchronisation sont, aujourd’hui, les
principales causes des pertes de données et des erreurs de transmission dans les réseaux.
Les bits sont émis au rythme de l’horloge locale de l’émetteur que nous supposons stable.
L’horloge du récepteur est supposée fonctionner à la même cadence ou fréquence. Cependant, rien
ne permet de garantir sa stabilité. Si la fréquence varie, on dit que l’horloge dérive.
En admettant que lors de la réception du premier bit, l’horloge du récepteur soit parfaitement
calée sur l’horloge d’émission (synchronisée), la dérive de l’oscillateur local du récepteur fait que
quelques bits plus tard, l’instant significatif de lecture est sur le bit suivant ou précédent selon le
sens de la dérive. En admettant (hypothèse simplificatrice), que l’instant d’interprétation du signal
reçu corresponde au front descendant de l’horloge de réception, la dérive illustrée à la Fig. 2.11
(dérive positive) montre que, du fait de cette dernière, le cinquième bit est omis. Une erreur de
transmission est apparue.

Figure 2.11 : Exemple de dérive de l’horloge (réception)

Le signal de synchronisation peut être transmis sur un lien spécifique ou déduit du train
binaire. La première méthode plus complexe et plus onéreuse est utilisée par les opérateurs de
télécommunication pour transmettre la synchronisation aux différents éléments du réseau. En
général, les équipements terminaux utilisent la seconde méthode c’est-à-dire, le signal d’horloge est
extrait du train binaire transmis.

25
La figure 2.12 montre le principe de l’extraction, à partir du train numérique reçu, d’un
signal de pilotage de l’oscillateur local (horloge locale).

Figure 2.12 : Principe d’asservissement de l’horloge du récepteur

c- Transmission asynchrone

Dans les transmissions asynchrones, les horloges émetteur et récepteur sont indépendantes.
Pour assurer la synchronisation des horloges on envoie, avant toute suite binaire significative, un
signal spécifique d’asservissement. Après cette opération, l’horloge de réception est libre, elle
dérive. L’intervalle de temps, pendant lequel la dérive est tolérable et autorise un décodage correct
de la séquence binaire, est faible. Cet intervalle de temps n’autorise que la transmission d’une
courte séquence binaire : le caractère.
En transmission asynchrone, les caractères émis sont précédés d’un signal de
synchronisation : le bit de start. Entre chaque caractère, pour garantir la détection du bit de start
suivant, la ligne est remise à l’état zéro. Ce temps de repos minimal varie de 1 à 2 temps bit, il
constitue le ou les bits de stop (Fig. 2.13).

Figure 2.13 :Principe de la synchronisation en transmission asynchrone

26
Le niveau de repos de la ligne ou niveau zéro est fixé à un certain potentiel (V) et non pas au
zéro électrique pour ne pas confondre un zéro binaire avec une rupture de la ligne. Cette tension de
repos signale aux systèmes que les terminaux sont actifs.
Le bit de start et celui ou ceux de stop servent de délimiteur de caractères (Fig. 2.14).

Figure 2.14 : Caractère asynchrone

Les transmissions asynchrones s’effectuent selon un ensemble de règles régissant les


échanges (protocole). On distingue deux types de protocoles asynchrones (Fig. 2.15) :
 le mode caractères : la transmission a lieu caractère par caractère. L’intervalle
de temps qui sépare chaque caractère peut être quelconque (multiple de la
fréquence d’horloge).
 Le mode blocs : les caractères sont rassemblés en blocs. L’intervalle de
temps entre l’émission de 2 blocs successifs peut être quelconque (multiple
de la fréquence d’horloge).

Figure 2.15 : Mode caractères et mode blocs

27
Les principaux protocoles asynchrones sont :
- XON-XOFF, protocole orienté caractères, le terminal réactive la ligne quand il est
prêt à émettre, il la désactive quand il n’a plus de données disponibles,
- X-Modem, protocole orienté blocs, les caractères sont regroupés en blocs. Ce
protocole du domaine public met en œuvre des techniques de détection et reprise sur
erreur,
- Y-Modem, protocole orienté blocs, les blocs de données sont suivis de code de
détection d’erreur. Aucune reprise sur erreur n’est assurée,
- Z-Modem, protocole orienté blocs, il met en œuvre des mécanismes de détection et
de reprise automatique sur erreur,
- SLIP (Serial Line Internet Protocol), protocole orienté blocs. Très simple, SLIP
n’effectue que la délimitation des blocs,
- PPP (Point to Point Protocol) protocole orienté blocs, PPP effectue la délimitation
des blocs et la détection d’erreur.

d- Transmission synchrone

En transmission synchrone, la synchronisation des horloges émission et réception est


maintenue durant toute la transmission par un signal particulier : le signal de synchronisation. Il est
alors possible de transmettre des blocs de taille importante. Cependant, entre chaque bloc transmis,
l’horloge réception n’est plus pilotée et dérive. Chaque bloc transmis est par conséquent précédé
d’une séquence de synchronisation qui servira aussi à délimiter le début et la fin de bloc (Fig. 2.16).

Figure 2.16 : Structure type d’un bloc de données en transmission synchrone

A la réception, le récepteur doit être capable de se positionner correctement pour la lecture


des bits. Cette opération de synchronisation des horloges est réalisée à l’aide d’une séquence de bits
contenant un grand nombre de transitions (synchronisation bit). Puis, il doit identifier les différents
caractères transmis (alignement de la lecture sur des frontières de mots ou synchronisation
caractère).

28
Les principaux protocoles synchrones sont :
- BSC, Binary Synchronous Communication (IBM),
- SDLC, Synchronous Data Link Control (IBM),
- HDLC, High Level Data Link Control (ISO),
- PPP, Protocol Point to Point, ce dernier est aussi un protocole asynchrone (IETF).

2-2-3 Selon le mode de transmission électrique

Les zéros ou les uns sont différenciés par un niveau électrique différent. On distingue deux
modes selon la manière dont sont lus les niveaux électriques.

a- Le mode dissymétrique

Dans le mode asymétrique (ou dissymétrique), l’information d’état est fournie par la
différence de potentiel entre le conducteur concerné et un conducteur de retour. Le fil de retour peut
être commun à plusieurs fonctions. Ce conducteur commun est souvent désigné sous le terme de
terre de signalisation.
La figure 2.17 représente les variations de potentiel (+V, −V) autour d’une valeur de
référence dite «zéro électrique».

Figure 2.17 : Transmission asymétrique

Ce mode de transmission est simple à réaliser au niveau de l’électronique, il ne nécessite que


2 conducteurs mais est très sensible aux parasites.

b- Le mode symétrique

Dans le mode symétrique appelé aussi transmission différentielle, l’information d’état est
déduite de la différence de potentiel entre deux conducteurs. La figure 2.18 illustre ce mode de
transmission.
29
Figure 2.18 : Transmission symétrique ou différentielle

À l’état repos, chaque conducteur est, par exemple, au potentiel + V par rapport à une
référence commune. La différence de potentiel entre ces conducteurs est nulle (repère 1). Pour
transmettre une information binaire, chacun des conducteurs voit son potentiel évoluer en sens
inverse (repère 2 et 3 de la Fig. 2.18). En 1, position de repos, la tension lue (𝑉𝑎 − 𝑉𝑏) est nulle.
En 2, l’expression 𝑉𝑎 − 𝑉𝑏 = 6 − 4 = 2 𝑉 c’est par exemple le niveau 0 ; alors qu’en 3, 𝑉𝑎 −
𝑉𝑏 = 4 − 6 = −2 𝑉pourrait représenter le 1 binaire.
Ce mode de représentation, plus complexe, nécessite plus de conducteurs mais un parasite
électrique ne modifie pas le niveau relatif. La transmission présente une certaine insensibilité aux
parasites.

2.3 PRINCIPE D’UNE LIAISON DE DONNÉES

Une transmission de données met en œuvre des calculateurs d’extrémité et des éléments
d’interconnexion dont les appellations et fonctions sont codifiées (Fig. 2.19).

On distingue :
- les équipements terminaux (End System) ou ETTD, Équipement Terminal de
Traitement de Données, appelés aussi DTE (Data Terminal Equipement)
représentant les calculateurs d’extrémité. Ces calculateurs sont dotés de circuits
particuliers pour contrôler les communications. L’ETTD réalise la fonction de
contrôle du dialogue.
- les équipements d’adaptation ou ETCD, Équipement Terminal de Circuit de
Données, ou DCE (Data Communication Equipement) réalisant l’adaptation entre
30
les calculateurs d’extrémité et le support de transmission. Cet élément remplit
essentiellement des fonctions électroniques, il assure un meilleur transport sur la
ligne de transmission. Il modifie la nature du signal, mais pas sa signification.
- la jonction constituant l’interface entre ETTD (DTE) et ETCD (DCE). Elle permet à
l’ETTD de gérer l’ETCD pour assurer le déroulement des communications
(établissement du circuit, initialisation de la transmission, échange de données et
libération du circuit).
- et le support ou ligne de transmission, un élément essentiel assurant la liaison. Les
possibilités de transmission (débit, taux d’erreur...) dépendent essentiellement des
caractéristiques physiques et de l’environnement de celui-ci.

Figure 2.19 : Constituant de base d’une liaison de données

31

Vous aimerez peut-être aussi