La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

- Le signal vidéo numérique représente des volumes dinformation énormes: TV numérique ordinaire (4/3) 576x720 CCIR601 4:2:2, 25:2 ips composante de luminance.

Présentations similaires


Présentation au sujet: "- Le signal vidéo numérique représente des volumes dinformation énormes: TV numérique ordinaire (4/3) 576x720 CCIR601 4:2:2, 25:2 ips composante de luminance."— Transcription de la présentation:

1 - Le signal vidéo numérique représente des volumes dinformation énormes: TV numérique ordinaire (4/3) 576x720 CCIR601 4:2:2, 25:2 ips composante de luminance Y, Fe = 13,5 MHz composantes de chrominance Cr, Cb Fe= MHz profondeur : 8bits par pixel/composante volume dinformation 216Mbit/s TV numérique HD (aspect 16/9 = (4/3) 2 ) 50 ips, (1080p) 1920x1080 volume dinformation Gbit/sec (1 tera!) WEB TVHD, TV ANYTIME ???? - Pour économiser les ressources de stockage et réduire la bande passante requise lors de la transmission on cherche à comprimer le signal vidéo. 4. Notions de la théorie de linformation

2 Soit S une source d informations et x i (symboles dun alphabet) les valeurs possibles de linformation. On peut la modéliser par une variable aléatoire X dont les réalisations sont x i avec une loi de probabilité Lentropie de la variable aléatoire : Quantité dinformation associée au symbole x i : Ainsi lentropie représente linformation propre moyenne associée à un processus (source). Quantité dinformation

3 Propriétés : * alors *supposons que lalphabet est fini et contient K symboles alors Légalité étant obtenue si la variable aléatoire X est équiprobable Propriétés de lEntropie

4 Distribution équiprobable :. Propriétés de lEntropie

5 5. Codage sans pertes dinformations multimédia Taux de compression - Lopération de numérisation et de compression du signal est aussi appelée « codage de source ». - Le codage des signaux multimédia nécessite de connaître les limites atteignables des taux de compression. - Taux de compression : Limites atteignables Le théorème de codage de la source établit quil existe un débit binaire (quantité dinformation) vers laquelle on peut tendre sans pouvoir comprimer la source davantage. Dans le cas dun codage sans perte cette limite est donnée par lentropie de la source.

6 Codage Entropique Codage de la source : la source X prend ses valeurs dans le dictionnaire C. On appelle codage de la source X une application de C dans lensemble des suites finies de lalphabet {0,1}. Le code : Le mot de code : La longueur moyenne : Théorème : pour toute source discrète sans mémoire, il existe un code instantané représentant exactement la source et uniquement décodable vérifiant Où H(X) est lentropie de la source et est la longueur moyenne du code, exprimés en bit par symbole.

7 5. Codage sans pertes des informations multimédia Codage entropique (statistique) La source S discrète dinformations est caractérisée par son entropie H - Codage de Shannon-Fano - Codage de Huffman - Codage arithmétique Codage par comptage (RLC) Codage avec dictionnaire (LZSS,LZW)

8 Codage Entropique de Shannon-Fano (I) 1)Pour tous les symboles du message développer une liste correspondante des probabilité expérimentales (occurrences) 2)Trier la liste dans lordre décroissant des probabilités expérimentales (occurrences) Exemple : Message ABEABABABCDCDBAEAAAEAAAABAA CACDBDEEDCCDE Liste triée Symbole A BCDE Occurrences

9 Codage Entropique de Shannon-Fano (II) 3)Diviser la liste en deux parties, le total des compteurs doccurrence de la moitié supérieure devant être aussi proche que possible du total de al moitié inférieure 4)Affecter le chiffre binaire 0 à la moitié supérieure de la liste, et le chiffre 1 à la moitié inférieure de la liste SymboleOccurrenceSommeCode A150 B C61 D61 E5 171

10 Codage Entropique de Shannon-Fano (III) 5)Appliquer de façon récursive les étapes 3 et 4 à chacune des deux moitiés, jusquà ce que chaque symbole soit devenu une feuille SymboleOccurrenceSommeCode A II B I C III D IV E

11 Codage Entropique de Shannon-Fano (IV) Représentation sous forme darbre binaire AB C DE Racine SymboleOccurrenceQuantité infBits TotalTaille Sh-FBits Sh-F A151,3820,7230 B72,4817,36214 C62,7016,20212 D62,7016,20318 E52,9614,8315

12 Codage Entropique de Huffmann (I) Algorithme optimal pour construire un code entropique. On peut montrer quil nexiste pas dautre code uniquement décodable de longueur moyenne inférieure pour une source discrète sans mémoire. Principe : construire progressivement larbre binaire en partant des feuilles de larbre précédent. Initialisation de larbre : -Tous les symboles sont les nœuds-feuilles -Chaque noeud a comme poids la probabilité du symbole (occurrence). -Liste des nœuds libres contient tous les nœuds

13 Codage Entropique de Huffmann (II) Construction de larbre : 1)Sélectionner les deux symboles-noeuds les moins probables. 2)Créer le père de ces deux nœuds. Poids(père) :=Poids(FilsGauche)+Poids(FilsDroit) 3)Ajouter le nœud-père dans la liste des nœuds libres et supprimer les nœuds-fils de la Liste. 4)Étiquetage. Un des fils reçoit 0, lautre 1 5)Si card(Liste)=1 alors arrêt. Le seul noeud devient la racine

14 Exemple : 1) A BCDE 2) A B CDE … Codage Entropique de Huffmann (III)

15 A B CDE … Codage Entropique de Huffmann (IV)

16 Codage Entropique de Huffmann (V) Comparaison avec le codage de Shannon-Fano Quantité dinformation théorique NbrBits SFNbrBits H 82, Nécessite la transmission de la table des codes

17 Codage Arithmétique Rissanen 1976 Principe : un code nest plus associé à chaque symbole constituant le message, mais plutôt au message constitué de la suite des différents symboles. Soit lensemble des messages pouvant être émis par la source avec les lois de probabilité dapparition. On peut définir une suite dintervalles recouvrant lintervalle et ayant les longueurs respectives Le principe de codeur arithmétique : définir pour chaque intervalle un nombre compris entre 0 et 1 et ayant une représentation binaire finie

18 tombe sans ambiguïté dans lintervalle soit, et« code » la source. On peut trouver une famille de valeurs avec des longueurs de représentation binaire vérifiant (propriété de quasi optimalité du code). Alors plus le message est long, plus la performance du codage est grande. Codage Arithmétique (II)

19 Codage Arithmétique Algorithme du Codeur (I) Codage : Soit les limites hautes et basses du message à la j-ème itération. SymboleP(s)Intervalle l(s) h(s) E1/50.00<=r<0.20 J1/50.20<=r<0.40 N2/50.40<=r<0.80 Y1/50.80<=r<1.00 Jenny

20 Codage Arithmétique Algorithme du Codeur (II) Codage : J alors Jenny Nouveau Symbole Limite basse Limite haute J E N N Y

21 Codage Arithmétique Algorithmes du Décodeur (I) Décodage : (1)Trouver le symbole qui possède lintervalle de message : J (2)Soustraire la limite basse : (3)Diviser par la longueur de r(s) : (4)Aller à (1) jusquà atteindre 0 Réalisation pratique : utilisation de larithmétique binaire (sur 32 bits par exemple)

22 Codage par plages (RLC) Principe : (1) Comptage du nombre dapparitions consécutives dun mot de message à coder. (2) Codage à longueur fixe de la valeur des mots et de nombre dapparitions (3) Variante : introduction de bit-flag « codé-non-codé ». Exemple : Message : Code : Débit initial : 15 *8 =120 bits Débit final : * = 64 bits Adapté aux images sans bruit ou aux valeurs quantifiées grossièrement.


Télécharger ppt "- Le signal vidéo numérique représente des volumes dinformation énormes: TV numérique ordinaire (4/3) 576x720 CCIR601 4:2:2, 25:2 ips composante de luminance."

Présentations similaires


Annonces Google