TRX Chap1et2
TRX Chap1et2
L’acheminement, dans un même réseau, d’informations aussi différentes que les données
informatiques, tel que la voix ou la vidéo implique que chacune de ces catégories d’information ait
une représentation identique vis-à-vis du système de transmission et que le réseau puisse prendre en
compte les contraintes spécifiques à chaque type de flux d’information (Fig. 1.1).
Afin de qualifier ces différents flux vis-à-vis du système de transmission, il faut définir les
caractéristiques essentielles d’un réseau de transmission et le mode de représentation des
informations.
1-1-1 Codage
Les systèmes de traitement de l’information emploient une logique à deux états ou binaire.
Aussi, pour traduire une information en symboles compréhensibles et manipulables par ces
systèmes, il faut transformer les données en éléments binaires : c’est le codage de l’information
(Fig. 1.2).
1
Figure 1.2 : Illustration du codage d’une information
On appelle débit binaire (D) le nombre d’éléments binaires, ou nombre de bits, émis sur le
support de transmission pendant une unité de temps. C’est l’une des caractéristiques essentielles
d’un système de transmission.
Le débit binaire s’exprime par la relation :
Avec D (débit) en bits par seconde (bit/s), V le volume à transmettre exprimé en bits et t la durée de
la transmission en seconde.
Le débit binaire mesure donc le nombre d’éléments binaires transitant sur le canal de
transmission pendant l’unité de temps (Fig. 1.3).
Les signaux transmis sur un canal peuvent être perturbés par des phénomènes électriques ou
électromagnétiques. Le phénomène, généralement appelé bruit dénature le signal et introduit des
erreurs.
2
Le rapport entre la puissance du signal transmis et celle du signal de bruit qualifie le canal
vis-à-vis du bruit. Ce rapport, appelé rapport signal sur bruit (S/N avec N pour Noise), s’exprimeen
dB (décibel) :
Le temps de transfert, appelé aussi temps de transit ou temps de latence, mesure le temps
entre l’émission d’un bit, à l’entrée du réseau et sa réception en sortie du réseau. Ce temps prend en
compte le temps de propagation sur le ou les supports et le temps de traitement par les éléments
actifs du réseau (nœuds). Le temps de transfert est un paramètre important à prendre en compte
lorsque la source et la destination ont des échanges interactifs.
Pour un réseau donné, le temps de transfert n’est généralement pas une constante, il varie en
fonction de la charge du réseau.
Pour traiter les informations via des équipements informatiques, il est nécessaire de
substituer à chaque élément d’information une valeur binaire représentative de l’amplitude de celui-
ci. Cette opération porte le nom de codage de l’information (codage à la source) pour les
informations discrètes et numérisation de l’information pour les informations analogiques.
3
1-2-1 Les différents types d’information
Les informations transmises peuvent être réparties en deux grandes catégories selon ce
qu’elles représentent et les transformations qu’elles subissent pour être traitées dans les systèmes
informatiques.
L’information correspond à l’assemblage d’une suite d’éléments indépendants les uns des
autres (suite discontinue de valeurs) et dénombrables (ensemble fini).Par exemple, un texte est une
association de mots eux-mêmes composés de lettres (symboles élémentaires).
Coder l’information consiste à faire correspondre à chaque symbole d’un alphabet (élément
à coder) une représentation binaire (mot code). L’ensemble des mots codes constitue le code (Fig.
1.4). Ces informations peuvent aussi bien être un ensemble de commandes d’une machine-outil que
des caractères alphanumériques.
4
Figure 1.4 :Principe du codage des données
Un code alphanumérique peut contenir :
des chiffres de numérotation usuelle [0…9],
des lettres de l’alphabet [a…z A…Z],
des caractères spéciaux [[ @ à é\...],
des symboles de ponctuation [, ; : !?],
des commandes nécessaires au système [saut de ligne, …],
etc.
Le codage des différents états d’un système peut s’envisager selon deux approches. La
première, considère que chacun des états du système est équiprobable. La seconde prend en compte
la fréquence d’apparition d’un état. Cette approche conduit à définir deux types de code : les codes
de longueur fixe et les codes de longueur variable.
Dans le codage à longueur fixe, chaque état du système est codé par un certain nombre de
bits, appelé longueur du code, longueur du mot code ou encore code à n moments.
D’une manière générale, avec n bit, on peut coder 2 états.Autrement dit, si le nombre de
bits nécessaires pour coder P états est n, alors :
𝑙𝑜𝑔(𝑃)
𝑛= = 𝑙𝑜𝑔 (𝑃) = 3,322. 𝑙𝑜𝑔(𝑃)
𝑙𝑜𝑔(2)
5
Ce nombre de bits (n) représente la quantité d’information (Q) apportée par la connaissance
d’un état du système. Lorsque dans un système, tous les états sont équiprobables, la quantité
d’information apportée par la connaissance d’un état est la même quel que soit l’état connu. Si
l’information est représentée par deux valeurs équiprobables (0 ou 1, pile ou face...), la quantité
d’information, exprimée en shannon5 ou plus simplement en bit, est :
Le bit est la quantité d’information qui correspond au lever de doute entre deux symboles
équiprobables.Lorsque tous les états ne sont pas équiprobables, la quantité d’information est
d’autant plus grande que la probabilité de réalisation de l’état est faible. Si p est la probabilité de
réalisation de l’état P, la quantité d’information apportée par la connaissance de P est :
Application:
Combien de bits sont nécessaires pour coder toutes les lettres de l’alphabet et quelle
est la quantité d’information transmise par une lettre en supposant équiprobable l’apparition
de chaque lettre ?
Réponses :
Le nombre de bits nécessaires, pour coder P valeurs, est donné par la relation :
6
ii) Les codes de longueur variable
Lorsque les états du système ne sont pas équiprobables, la quantité d’information apportée
par la connaissance d’un état est d’autant plus grande que cet état a une faible probabilité de se
réaliser. La quantité moyenne d’information apportée par la connaissance d’un état, appelée
entropie, est donnée par la relation :
Exemple
Déterminons la longueur optimale du code (entropie) pour le système décrit par le Tableau 1.
À des fins de simplicité, chaque état est identifié par une lettre.
Tableau 1 : Système à décoder
Le code optimal utile est de 1,92 bit, alors que l’utilisation d’un code à longueur fixe
nécessite 3 bits pour coder les 6 états de ce système (2 < 6 ≤ 2 ).
7
Il n’existe pas de code qui permette d’atteindre cette limite théorique. Cependant, Huffman
introduit en 1952 une méthode de codage qui prend en compte la fréquence d’occurrence des états
et qui se rapproche de cette limite théorique.
Exemple
Soit à élaborer le code de Huffman pour l'alphabet source {A, B, C, D, E, F}, avec les
probabilités P(A) = 0.10, P(B) = 0.10, P(C) = 0.25, P(D) = 0.15, P(E) = 0.35 et P(F) = 0.05.
On peut illustrer les différentes étapes à suivre comme indiquées sur la Fig. 1.5 :
8
Figure 1.5 : Exemple d’illustration de la construction d’un arbre de Huffman
Le codage se réalise facilement à l'aide d'une table associant à chaque lettre son code et le
décodage se réalise avec un arbre de décodage (Fig. 1.6).
9
Figure 1.6 : Construction du code de Huffman à partir d’un arbre
Compte tenu des probabilités, le code obtenu a une longueur moyenne de 2,4 alors que
l'entropie du langage source est 2,32 (légèrement inférieure). On montre que la longueur moyenne
d'un code de Huffman peut approcher l'entropie d'aussi près que voulu, à condition de coder non pas
des lettres, mais des blocs de lettres de longueur assez grande.
a- Principe
b- Fréquence d’échantillonnage
Pour reproduire correctement le signal à l’arrivée, le récepteur doit disposer d’un minimum
d’échantillons. Il existe donc une relation étroite entre la fréquence maximale des variations du
signal à discrétiser et le nombre d’échantillons à prélever.
On en déduit que la fréquence minimale d’échantillonnage (fréquence de Nyquist) d’un
signal doit être le double de la fréquence maximale du signal à échantillonner, soit :
c- Quantification
La quantification est l’approximation de chaque valeur du signal 𝑠 (𝑡) par un multiple entier
d’une quantité élémentaire q, appelée échelon de quantification. Si q est constant quelle que soit
l’amplitude du signal, la quantification est dite uniforme. Cette opération revient à faire passer le
signal dans un organe qui possède une caractéristique en marche d’escalier. La figure 1.8 illustre
une opération de quantification pour q = 1, et fournit le signal 𝑠 (𝑡).
11
Figure 1.8 : Opération de quantification
d- La dynamique de codage
Le signal échantillonné et quantifié en amplitude est représenté par une suite de nombres
presque toujours sous forme binaire. Si chaque nombre compte N bits, le nombre maximum
d’amplitudes quantifiées qu’il est possible de distinguer s’élève à 2 N. Alors la gamme des
amplitudes qu’il est possible de coder est soumise à une double limitation : vers les faibles valeurs
elle se trouve limitée par l’échelon de quantification q et vers les fortes valeurs par 2𝑁. 𝑞.
Toute amplitude qui dépasse cette valeur ne peut être représentée et il y a écrêtage du signal.
Il s’en suit une dégradation, par exemple par distorsion harmonique si le signal est sinusoïdal.
Si la gamme des amplitudes à coder couvre le domaine [– 𝐴 , + 𝐴 ], il vient :
12
On appelle puissance de crête d’un codeur la puissance du signal sinusoïdal ayant
l’amplitude maximale admissible sans écrêtage, 𝐴 . Elle s’exprime par :
La figure 1.9 représente ce signal avec le pas de quantification et les amplitudes de décision.
13
Tableau 2 : Exemple de représentation binaire sur 3 bits
Ainsi, la structure élémentaire d’un convertisseur analogique numérique est représentée sur
la Fig. 1.10.
Un canal téléphonique utilise une bande passante allant de 300 𝐻𝑧 à 3 400 𝐻𝑧. Si on prend
4 000 𝐻𝑧 comme fréquence maximale à reproduire, la fréquence d’échantillonnage minimale est de
:
Soit 8 000 échantillons par seconde, ce qui correspond, pour chaque échantillon à une durée
de 125 µ𝑠 (1/8 000). Théoriquement, pour une restitution correcte, la voix devrait être quantifiée
sur 12 bits (4 096 niveaux).
L’image est interprétée globalement par l’œil alors qu’elle ne peut être transmise et
reproduite que séquentiellement.
14
La discrétisation de l’image nécessite 2 étapes :
d’abord une transformation espace/temps qui se concrétise par une analyse de
l’image, ligne par ligne, puis une décomposition de chaque ligne en points,
ensuite la quantification de la valeur lumineuse du point, valeur qui est ensuite
transmise.
Une image colorée peut être analysée selon 3 couleurs dites primaires de longueur d’onde
(𝝀) déterminée. Pour reconstituer l’image d’origine, il suffit de superposer les trois images, c’est la
synthèse additive.
La figure 1.11 représente le principe de la synthèse additive.
L’image est dite RVB ou RGB (ROUGRE – VERT – BLEUE ou RED – GREEN – BLUE) ,
du nom des trois couleurs primaires.
15
Les différentes caractéristiques d’une image vidéo constituent un standard dont les
paramètres sont :
le format de l’image,
le nombre d’images par seconde déterminé en fonction de la fréquence du réseau
électrique pour éviter des effets stroboscopiques,
le nombre de lignes, fixé, pour qu’à une distance de vision normale, deux lignes
consécutives ne soient pas distinguées (les deux lignes doivent être vues sous un
angle de moins d’une minute),
et le nombre de points par ligne défini pour que la définition horizontale soit
identique à la définition verticale.
Le standard d’une image de télévision numérique au format européen (625 lignes, 25 Hz) est
caractérisé par :
le nombre de lignes utiles par image fixé à 576,
le nombre de points par ligne défini à 720,
et le nombre d’images par seconde déterminé à 25 images (25 Hz).
Les grandeurs transmis sont la luminance (Y) et les signaux de chrominance B (Bleu) et R
(Rouge). La connaissance de ces trois grandeurs est nécessaire et suffisante pour reconstituer la
quatrième : V (Vert).
L’œil ne percevant pas la couleur dans les détails. On se satisfait donc d’une définition
moindre pour l’information couleur que pour l’information monochrome (noir et blanc).
Ainsi, on transmet :
720 points par ligne pour le signal Y,
360 points pour chacune des couleurs B et R.
Au total 1 440 points élémentaires par ligne sont analysés. En se contentant d’une
quantification sur 255 niveaux (8 bits), le nombre de bits nécessaires à la reconstitution de l’image
(576 lignes) est donc de :
À raison de 25 images par seconde (50 demi-images), il faut, pour transmettre une image
animée, un débit minimal de :
16
1-3 LA COMPRESSION DE DONNÉES
1-3-1 Généralités
Pour un même contenu sémantique, ce temps sera d’autant plus faible que la longueur du
message sera petite ou que le débit sera élevé. L’augmentation du débit se heurte à des problèmes
technologiques et de coûts. Il peut donc être intéressant de réduire la longueur du message sans en
altérer le contenu : c’est la compression de données.
Les techniques de compression se répartissent en deux familles : les algorithmes réversibles
ou sans perte et les algorithmes irréversibles dits avec perte. Les algorithmes réversibles restituent à
l’identique les données originelles. Ils s’appliquent aux données informatiques. Le taux de
compression obtenu est voisin de 2. Les algorithmes irréversibles, dits aussi codes à réduction de
bande, autorisent des taux de compression pouvant atteindre plusieurs centaines au détriment de la
fidélité de restitution. Utilisés pour la voix et l’image, ces algorithmes s’apparentent plus à des
procédés de codage qu’à des techniques de compression.
17
CHAPITRE 2 : ELEMENTS DE BASE DE LA TRANSMISSION DE
DONNEES
Transporter de l’information d’un point à un autre nécessite que soit établie une série de
conventions concernant la représentation logique des données, les paramètres physiques de la
transmission et le mode de contrôle de l’échange. Cet ensemble de conventions constitue le
protocole de transmission.
Dans ce mode de liaison chaque correspondant est relié par un lien dédié à un seul autre
correspondant. C’est le cas par exemple d’une liaison entre noeuds3 d’un même réseau ou entre un
ordinateur et un terminal (Fig. 2.2).
Une liaison est dite multipoint lorsqu’un même support est partagé par plusieurs nœuds.
Dans ce cas, des conflits d’accès sont inévitables, il est nécessaire d’instaurer une politique d’accès
au support. L’ensemble des mécanismes particuliers mis en œuvre, pour assurer le partage de
l’accès au support, porte le nom de politique d’accès au canal On distingue deux modes de contrôle
de l’accès selon la manière dont est gérée la politique d’accès : le mode centralisé ou maître/esclave
et le mode décentralisé ou d’égal à égal.
i- Le mode maître/esclave
19
Le transfert des données s’effectue selon la technique dite du « polling/selecting» (Fig. 2.4).
Le maître invite le terminal (secondaire) à émettre (polling) ou lui demande de passer en mode
réception (selecting).
Dans de grandes configurations, le polling de toutes les stations peut demander beaucoup de
temps. Pour améliorer les temps de réponse, on utilise la technique dite du polling lent et polling
rapide. À l’initialisation, toutes les stations sont interrogées. Ensuite on interroge uniquement celles
qui ont répondu (polling rapide). Périodiquement, toutes les stations sont de nouveau interrogées
(polling lent).
Dans ce type de configuration, tous les calculateurs sont autorisés à émettre vers n’importe
quel autre calculateur et ce, à tout moment. Cet accès partagé peut donner lieu à des collisions ou
contentions de messages (deux stations transmettent en même temps). Mais contrairement à la
relation maître/esclave, ici, chaque calculateur déroule un algorithme pour assurer le partage du
support. La politique d’accès est dite décentralisée. Les réseaux locaux constituent un exemple de
ce mode de contrôle de l’accès au support.
Pour établir une communication, l’un des correspondants doit initialiser la transmission.
Durant toute la transmission, en sus des données, des informations de contrôle sont échangées.
On distingue différents modes de contrôle de la liaison selon celui qui peut prendre
l’initiative d’une transmission et celui qui la contrôle.
20
a- La dissymétrie synchrone
b- La symétrie synchrone
Connue sous le nom de mode équilibré ou Asynchronous Balanced Mode (ABM), elle est
employée dans les liaisons full duplex (Link Access Protocol Balanced ou LAP B) et half duplex
(LAP X, LAP semi-dupleX).
c- La dissymétrie asynchrone
Dans ce mode, le secondaire peut émettre sans y avoir été autorisé. Ce qui implique qu’un
seul secondaire puisse être actif à la fois ou qu’un algorithme de résolution des collisions soit mis
en œuvre. Ce mode est appelé Asynchronous Response Mode (ARM).
L’information élémentaire à transmettre est le mot (4, 8, 16, n bits). En interne, les
calculateurs transfèrent les données via un bus : un fil par bit. Le bus transmet simultanément tous
les bits d’un même mot machine, la transmission est dite transmission parallèle, la communication
entre machines peut se réaliser de même. La transmission parallèle soulève de nombreux problèmes
techniques. Pour des distances importantes, on lui préfère la transmission série : les bits sont
transmis successivement sur un support unique.
21
a- Transmission parallèle
La transmission parallèle est caractérisée par un transfert simultané de tous les bits d’un
même mot (Fig. 2.6). Elle nécessite autant de conducteurs qu’il y a de bits à transmettre et un
conducteur commun (liaison asymétrique) ou autant de paires de fils si la masse n’est pas commune
(liaison symétrique).
i- Avantages
La transmission parallèle est très performante en termes de débit. Elle est utilisée pour des
liaisons entre un calculateur, ses périphériques et ses unités de calcul esclaves. Par exemple,
l’interface HiPPI(High Performance Parallel Interface) qui définit un mode de transmission entre
un calculateur et ses périphériques offre un débit de 800 Mbit/s. Elle utilise un câble de 50 paires
dont 32 sont utilisées pour la transmission de données (transmission parallèle par mot de 32 bits).
HiPPI est limitée à 25 m.
ii- Inconvénients
22
b- Transmission série
En transmission série, tous les bits d’un mot ou d’un message sont transmis successivement
sur une même ligne (Fig. 2.7). Dans les calculateurs, les données (bits) sont traitées en parallèle
(bus). La transmission série nécessite une interface de conversion pour sérialiser les bits en
émission (conversion parallèle/série) et les désérialiser en réception (conversion série/parallèle). La
transmission série n’utilise, pour la transmission des données, que deux conducteurs. D’un coût
moins élevé, elle est adaptée aux transmissions sur des distances importantes.
c- Comparaison
Si on désigne par temps bit le temps d’émission d’un bit sur le support, en considérant que
ce temps est identique pour la transmission parallèle et série de la Fig. 2.8, on constate qu’il faut
seulement 3 temps bit pour transmettre le mot « ISO » en transmission parallèle, alors que la
transmission série nécessite 8 temps bit pour transmettre la seule lettre « O ».
Les bits sont émis sur la ligne à une certaine cadence. Cette cadence est définie par une
horloge dite horloge émission.
23
a- Principe de la synchronisation
Pour décoder correctement la suite de bits reçue, le récepteur doit examiner ce qui lui arrive
à une cadence identique à celle de l’émission des bits sur le support. Les horloges récepteur et
émetteur doivent « battre » en harmonie.
Il ne suffit pas que les horloges battent au même rythme, encore faut-il que les instants
d’analyse des niveaux électriques de la ligne soient les mêmes pour les deux éléments, ils sont dits
en phase. L’opération qui consiste à asservir l’horloge de réception sur celle d’émission s’appelle la
synchronisation (Fig. 2.9).
24
b- Notion d’horloge
Le signal de synchronisation peut être transmis sur un lien spécifique ou déduit du train
binaire. La première méthode plus complexe et plus onéreuse est utilisée par les opérateurs de
télécommunication pour transmettre la synchronisation aux différents éléments du réseau. En
général, les équipements terminaux utilisent la seconde méthode c’est-à-dire, le signal d’horloge est
extrait du train binaire transmis.
25
La figure 2.12 montre le principe de l’extraction, à partir du train numérique reçu, d’un
signal de pilotage de l’oscillateur local (horloge locale).
c- Transmission asynchrone
Dans les transmissions asynchrones, les horloges émetteur et récepteur sont indépendantes.
Pour assurer la synchronisation des horloges on envoie, avant toute suite binaire significative, un
signal spécifique d’asservissement. Après cette opération, l’horloge de réception est libre, elle
dérive. L’intervalle de temps, pendant lequel la dérive est tolérable et autorise un décodage correct
de la séquence binaire, est faible. Cet intervalle de temps n’autorise que la transmission d’une
courte séquence binaire : le caractère.
En transmission asynchrone, les caractères émis sont précédés d’un signal de
synchronisation : le bit de start. Entre chaque caractère, pour garantir la détection du bit de start
suivant, la ligne est remise à l’état zéro. Ce temps de repos minimal varie de 1 à 2 temps bit, il
constitue le ou les bits de stop (Fig. 2.13).
26
Le niveau de repos de la ligne ou niveau zéro est fixé à un certain potentiel (V) et non pas au
zéro électrique pour ne pas confondre un zéro binaire avec une rupture de la ligne. Cette tension de
repos signale aux systèmes que les terminaux sont actifs.
Le bit de start et celui ou ceux de stop servent de délimiteur de caractères (Fig. 2.14).
27
Les principaux protocoles asynchrones sont :
- XON-XOFF, protocole orienté caractères, le terminal réactive la ligne quand il est
prêt à émettre, il la désactive quand il n’a plus de données disponibles,
- X-Modem, protocole orienté blocs, les caractères sont regroupés en blocs. Ce
protocole du domaine public met en œuvre des techniques de détection et reprise sur
erreur,
- Y-Modem, protocole orienté blocs, les blocs de données sont suivis de code de
détection d’erreur. Aucune reprise sur erreur n’est assurée,
- Z-Modem, protocole orienté blocs, il met en œuvre des mécanismes de détection et
de reprise automatique sur erreur,
- SLIP (Serial Line Internet Protocol), protocole orienté blocs. Très simple, SLIP
n’effectue que la délimitation des blocs,
- PPP (Point to Point Protocol) protocole orienté blocs, PPP effectue la délimitation
des blocs et la détection d’erreur.
d- Transmission synchrone
28
Les principaux protocoles synchrones sont :
- BSC, Binary Synchronous Communication (IBM),
- SDLC, Synchronous Data Link Control (IBM),
- HDLC, High Level Data Link Control (ISO),
- PPP, Protocol Point to Point, ce dernier est aussi un protocole asynchrone (IETF).
Les zéros ou les uns sont différenciés par un niveau électrique différent. On distingue deux
modes selon la manière dont sont lus les niveaux électriques.
a- Le mode dissymétrique
Dans le mode asymétrique (ou dissymétrique), l’information d’état est fournie par la
différence de potentiel entre le conducteur concerné et un conducteur de retour. Le fil de retour peut
être commun à plusieurs fonctions. Ce conducteur commun est souvent désigné sous le terme de
terre de signalisation.
La figure 2.17 représente les variations de potentiel (+V, −V) autour d’une valeur de
référence dite «zéro électrique».
b- Le mode symétrique
Dans le mode symétrique appelé aussi transmission différentielle, l’information d’état est
déduite de la différence de potentiel entre deux conducteurs. La figure 2.18 illustre ce mode de
transmission.
29
Figure 2.18 : Transmission symétrique ou différentielle
À l’état repos, chaque conducteur est, par exemple, au potentiel + V par rapport à une
référence commune. La différence de potentiel entre ces conducteurs est nulle (repère 1). Pour
transmettre une information binaire, chacun des conducteurs voit son potentiel évoluer en sens
inverse (repère 2 et 3 de la Fig. 2.18). En 1, position de repos, la tension lue (𝑉𝑎 − 𝑉𝑏) est nulle.
En 2, l’expression 𝑉𝑎 − 𝑉𝑏 = 6 − 4 = 2 𝑉 c’est par exemple le niveau 0 ; alors qu’en 3, 𝑉𝑎 −
𝑉𝑏 = 4 − 6 = −2 𝑉pourrait représenter le 1 binaire.
Ce mode de représentation, plus complexe, nécessite plus de conducteurs mais un parasite
électrique ne modifie pas le niveau relatif. La transmission présente une certaine insensibilité aux
parasites.
Une transmission de données met en œuvre des calculateurs d’extrémité et des éléments
d’interconnexion dont les appellations et fonctions sont codifiées (Fig. 2.19).
On distingue :
- les équipements terminaux (End System) ou ETTD, Équipement Terminal de
Traitement de Données, appelés aussi DTE (Data Terminal Equipement)
représentant les calculateurs d’extrémité. Ces calculateurs sont dotés de circuits
particuliers pour contrôler les communications. L’ETTD réalise la fonction de
contrôle du dialogue.
- les équipements d’adaptation ou ETCD, Équipement Terminal de Circuit de
Données, ou DCE (Data Communication Equipement) réalisant l’adaptation entre
30
les calculateurs d’extrémité et le support de transmission. Cet élément remplit
essentiellement des fonctions électroniques, il assure un meilleur transport sur la
ligne de transmission. Il modifie la nature du signal, mais pas sa signification.
- la jonction constituant l’interface entre ETTD (DTE) et ETCD (DCE). Elle permet à
l’ETTD de gérer l’ETCD pour assurer le déroulement des communications
(établissement du circuit, initialisation de la transmission, échange de données et
libération du circuit).
- et le support ou ligne de transmission, un élément essentiel assurant la liaison. Les
possibilités de transmission (débit, taux d’erreur...) dépendent essentiellement des
caractéristiques physiques et de l’environnement de celui-ci.
31