0% ont trouvé ce document utile (0 vote)
477 vues6 pages

QCM Entropie

Ce document présente un questionnaire à choix multiples (QCM) sur le codage entropique et la théorie de l'information. Il aborde des notions clés comme l'entropie, le codage source, le codage de Huffman et explore les propriétés et applications de ces concepts.

Transféré par

nour sin
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
477 vues6 pages

QCM Entropie

Ce document présente un questionnaire à choix multiples (QCM) sur le codage entropique et la théorie de l'information. Il aborde des notions clés comme l'entropie, le codage source, le codage de Huffman et explore les propriétés et applications de ces concepts.

Transféré par

nour sin
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
Vous êtes sur la page 1/ 6

EXEMPLE DE QCM

CODAGE ENTROPIQUE

1. La théorie de l'information est une théorie :


a. Physique
b. Mathématique
c. Biologique
d. Mécanique

2. Quelles sont les opérations mathématiques utilisées dans la formule de l'entropie


a. Somme
b. Division
c. Intégrale
d. Log
e. Multiplication

3. Quelles sont les différentes sources de l'information?


a. Continue
b. Discontinue
c. Discrètes
d. Simple
e. Complexe

4. Quelles sont les propriétés de l'entropie?


a. Positive
b. Négative
c. Nulle
d. Toutes les possibilités

5. Dans le processus de transmission de l'information, le bruit est l'élément perturbateur


de quelle partie d’une chaine de transmission?
a. Source
b. Codeur
c. Utilisateur
d. Canal
e. Décodeur

6. Pour quelle valeur l'entropie est-elle maximale?


a. pi=1/n
b. pi=1
c. pi=0
d. pi=1+
e. pi=1-

1
7. Lorsque X et Y sont statistiquement indépendants, alors I(x, y) est :
a. 1
b. 0
c. Log 2
d. Ne peut être déterminé

8. Lorsque la base du logarithme est 2, l'unité de mesure d'information est :


a. Bits
b. Octets
c. Nats
d. Aucun des éléments mentionnés

9. La méthode de conversion d'un mot en flux de bits est appelée :


a. Codage binaire
b. Codage source
c. Codage binaire
d. Codage de chiffrement

10. Dans un codage source de taille variable (VLC), un symbole avec une probabilité
minimale aura le moins de bits.
a. Vrai
b. Faux

11. Lorsque la probabilité d'erreur lors de la transmission est de 0,5, cela indique que :
a. Le canal est très bruyant
b. Aucune information n'est reçue
c. Le canal est très bruyant et aucune information n'est reçue
d. Aucun des éléments mentionnés

12. L'unité d'information mutuelle moyenne est :


a. Bits
b. Octets
c. Bits par symbole
d. Octets par symbole

13. L'entropie d'une variable aléatoire est


a. 0
b. 1
c. Infini
d. Ne peut être déterminé
14. Pour quelle (s) valeur (s) de p la fonction d'entropie binaire H (p) est-elle maximisée?
a. 0
b. 0,5
c. 1
d. 1.

15. La source d'entrée d'un canal de communication bruyant est une variable aléatoire X
sur les trois symboles a, b et c. La sortie de ce canal est une variable aléatoire Y sur
ces trois mêmes symboles. La distribution conjointe de ces deux variables est la
suivante. Quelle est la valeur de H (Y/X)?

2
a. A) H(Y/X)= 1.05664
b. B) H(Y/X)= 1.52832
c. C) H(Y/X)= 2.58496
d. D) H(Y/X)= 1.75821

16. Qu'est-ce que l'entropie?

Réponse : L'entropie est également appelée information moyenne par message. C'est le
rapport entre les informations totales et le nombre de messages. c'est à dire.,

Entropie, H = informations totales / nombre de messages

17. Qu'est-ce que la redondance des canaux?

Réponse : Redondance = 1 - efficacité du code

La redondance doit être aussi faible que possible.

18. La technique de codage de Huffman est adoptée pour construire le code source avec
une redondance ________.

a. Maximale
b. Constante
c. Minimale
d. Imprévisible

3
19. Quel type de canal ne représente aucune corrélation entre les symboles d'entrée et de
sortie ?
a. Canal sans bruit
b. Canal sans perte
c. Canal inutile
d. Canal déterministe

20. La relation entre l'entropie et l'information mutuelle est


a. I(X;Y) = H(X) - H(X/Y)
b. I(X;Y) = H(X/Y) - H(Y/X)
c. I(X;Y) = H(X) - H(Y)
d. I(X;Y) = H(Y) - H(X)

21. L'entropie est :


a. Informations moyennes par message
b. Information dans un signal
c. Amplitude du signal
d. Tout ce qui précède

22. Un alphabet est composé des lettres A, B, C et D. La probabilité d'occurrence est P


(A) = 0,4, P (B) = 0,1, P (C) = 0,2 et P (D) = 0,3. Le code Huffman est :
a. A = 0, B = 111, C = 11, D = 101,
b. A = 01, B = 111, C = 110, D = 10,
c. A = 0, B = 11, C = 10, D = 111,
d. A = 0, B = 111, C = 110, D = 10

23. L'idée de base derrière le codage Huffman est de :


a) Compresser les données en utilisant moins de bits pour encoder les caractères les
plus fréquents,
b) Compresser les données en utilisant plus de bits pour encoder les caractères les
plus fréquents
c) Compresser les données en utilisant moins de bits pour encoder moins de
caractères fréquents
d) Étendre les données en utilisant moins de bits pour encoder les caractères les plus
fréquents

24. Le codage Huffman est un algorithme d'encodage utilisé pour :


a) Systèmes à large bande,
b) Compression de données avec perte,
c) Fichiers supérieurs à 1 Mbit,
d) Compression de données sans perte

25. Un encodeur Huffman prend un ensemble de caractères de longueur fixe et produit un


ensemble de caractères de :
a) Longueur variable,
b) Longueur aléatoire,
c) Longueur fixe,
d) Longueur constante

4
26. Un code de Huffman produit le codage suivant A = 1, B = 000, C = 001, D = 01 où P
(A) = 0,4, P (B) = 0,1, P (C) = 0,2, P (D) = 0,3. Le nombre moyen de bits par lettre est
alors :
a) 8,0 bits
b) 1,9 bits
c) 2,1 bits
d) 2,0 bits

27. Le nombre de bits dans un message est réduit de 560 bits à 440 bits. La redondance
est :
a. 0,27
b. 0,21
c. 0,37
d. 0,11

28. Le contenu informatif de l'écriture anglaise est de 4,1 bits par lettre. Si 100 lettres
doivent être transmises toutes les secondes, le débit binaire BR est :
a. 24,4 bits / s
b. 410 bits / s
c. 4100 bits / s
d. 100 bits / s

29. Il n'est possible de compresser sans perte que si la redondance est :


a. > 0
b. <0
c. = 0
d. = 1

30. La taille d'un fichier vidéo original non compressé est de 3,4 Mbit. Par compression, le
fichier est réduit à 600 kbit. Le taux de compression est :
a. 7,7
b. 5,7
c. 6,7
d. 4.7

31. Lorsque les données sont compressées, l'objectif est de réduire :


a. Bruit,
b. Redondance,
c. Information,
d. Capacité de canal

32. Un fichier ASCII original est de 196 kbit. L'encodage Huffman produit un fichier
compressé dont la taille est de 100 kbit. La redondance est :
a. 69%
b. 59%
c. 39%
d. 49%

5
33. L'œil humain est moins sensible à :
a. Les composantes de fréquence spatiale moyennes
b. Composants DC
c. Les composantes de fréquence spatiale inférieures
d. Les composantes de fréquence spatiale supérieures

34. Il est indispensable d'utiliser la compression sans perte pour :


a. Audio numérique
b. Documents médicaux
c. Vidéo numérique
d. Jeux

35. Le composant DC dans la matrice DCT (matrice transformée) est la :


a. Moyenne des 64 valeurs de la matrice 8×8
b. Valeur du pixel le plus lumineux de la matrice 8×8
c. Moyenne de toutes les couleurs
d. Valeur du pixel le plus sombre de la matrice DCT 8×8

39. Codage Huffman :


a. Peut être sans perte ou avec perte
b. Est avec perte
c. Réduire le bruit
d. Est sans perte.

40. Le logiciel ou le composant matériel utilisé pour traduire la vidéo ou l'audio entre sa
forme non compressée et la forme compressée et vice versa est appelé un :
a. Compresseur
b. Codec
c. Decca
d. Décco

41. Que peut on dire des codes suivantes?


a. C1={0; 11; 101}
b. C2={00; 01; 001}
c. C3={0; 01; 10}
d. C4={000; 001; 01; 1}
e. C5={000100; 100101; 010101; 111000}
f. C6={0; 01; 11}.
g. C7={0; 10; 110; 1110}.
h. C8={0; 10; 110; 1111}.
i. C9={0; 01; 011; 0111}.
j. C10={0,10,101,0101}.
k. C11={0,10,110,111}.

42. A partir de l’inégalité de Kraft, que pouvez-vous dire à propos des codes suivants:
• C1 = {00, 01, 10, 11}.
• C2 = {0, 100, 110, 111}.
• C3 = {0, 10, 110, 11}.

Vous aimerez peut-être aussi