4. Notions de la théorie de l’information

Slides:



Advertisements
Présentations similaires
Chap. 4 Recherche en Table
Advertisements

Architecture de machines Codage des informations
Chapitre 3 Les arbres binaires
La théorie du monde est petit
3. Notions de la théorie de l’information
Classification et prédiction
Classification et prédiction
Regroupement (clustering)
Fonctions & procédures
Regroupement (clustering)
PRINCIPE SIMPLIFIE DE LA COMPRESSION MP3
a CODAGE DE HUFFMAN 0.40 Objectif : coder les lettres
Du signal continu au numérique
Modulation numérique.
Inférence statistique
1 UMLV Optimalité des tris par comparaisons : O(n logn) Classements linéaires Tris lexicographiques Tri lexicographique.
1. Les caractéristiques de dispersion. 11. Utilité.
Les TESTS STATISTIQUES
2. Echantillonnage et interpolation des signaux vidéo
Codage par transformées(1)
6. Quantification des signaux visuels. Codage prédictif (MICD)
Dpt. Télécommunications, Services & Usages Théorie de l information H. Benoit-Cattin Introduction 2. Vue densemble 3. Sources discrètes & Entropie.
Système formel Nous avons introduit : signes de variables (x, y, z, …), de constantes (0, 1), d’opérations (+, ), de relations (=, ) Axiomes : ce sont.
Codage et compression de données
I CRYPTOLOGIE traditionnelle Sommaire 1.Les fondements p. 9 2.Confusion & Diffusion p Cryptages composés p. 39.
variable aléatoire Discrète
Le codage des nombres en informatique
Améliorer les performances du chiffrage à flot SYND
2. Expériences aléatoires et modélisation
Traitement de données socio-économiques et techniques d’analyse :
Conception et analyse des algorithmes
Les structures de données arborescentes
Nature, numération, code
3 - Compression des images.
Codage et Protection contre les Erreurs
TRANSMISSION DES DONNEES.
Le codage des nombres en informatique
Théorie de l’Information et Codage
RAPPORT PROJET 2 Xavier Garcia 1 A12. Table des matières 03/11/12 2 Curriculum vitae Résolution du problème Démarche liste 1 Démarche liste 2 Démarche.
Groupe 1: Classes de même intervalle
S.S.I.I., , cours n°8 : Compresser avec un banc de filtres Page 1 Compresser avec un banc de filtres Le contenu de ce cours : T.D. n° 8 : simulation.
Gestion de Fichiers Arbres B.
Modèle Logique de Données
Les fichiers indexés (Les B-arbres)
LES ARBRES IUP 2 Génie Informatique
II- L’algorithme du recuit simulé (pseudo-code)
IFT Complexité et NP-complétude
Compression des Données
Gestion de Fichiers Indexes basés sur les structures d’arbres binaires et indexes à niveaux multiples.
Gestion de Fichiers Hachage Extensible.
Algorithmes d ’approximation
Institut Supérieur des Etudes Technologiques de Djerba Exposé du Traitement de Données Réalisé par: Khalifa Marwa Magroun Amira Jawadi Souad L2MDW.
2. Optimisation sans contrainte Fonctions à une seule variable
La théorie de la communication de C. Shannon
E 1 Rénovation STMG : programme dEconomie RUPTURE ET CONTINUITE Claude NAVA Inspecteur général de lEducation nationale.
AGIR : Défis du XXIème Siècle.
Images télés Format JPEG Format MPEG
Arbres binaires et tables de hachage
REPRESENTATION DE L’INFORMATION
STATISTIQUES DESCRIPTIVES
STATISTIQUES – PROBABILITÉS
Intervalles de confiance pour des proportions L’inférence statistique
Exploration systématique de graphes
Chapitre 3: Variables aléatoires réelles continues
TNS et Analyse Spectrale
Algorithme de Huffman Mis au point en 1952 par David Huffman
DU TRAITEMENT DU SIGNAL
Chapitre 4 Variables aléatoires discrètes
1 Objectifs Apprendre la structure de quelques circuits combinatoires souvent utilisés ( demi additionneur, additionneur complet,……..). Apprendre comment.
La compression de données
Transcription de la présentation:

4. Notions de la théorie de l’information Le signal vidéo numérique représente des volumes d’information énormes: TV numérique ordinaire (4/3) 576x720 CCIR601 4:2:2, 25:2 ips composante de luminance Y, Fe = 13,5 MHz composantes de chrominance Cr, Cb Fe= 6.675 MHz profondeur : 8bits par pixel/composante volume d’information 216Mbit/s TV numérique HD (aspect 16/9 = (4/3)2) 50 ips, (1080p) 1920x1080 volume d’information 1. 658 Gbit/sec (1 tera!) WEB TVHD, TV ANYTIME ???? Pour économiser les ressources de stockage et réduire la bande passante requise lors de la transmission on cherche à comprimer le signal vidéo.

Quantité d’information Soit S une source d ’informations et xi (symboles d’un alphabet) les valeurs possibles de l’information. On peut la modéliser par une variable aléatoire X dont les réalisations sont xi avec une loi de probabilité L’entropie de la variable aléatoire : Quantité d’information associée au symbole xi : Ainsi l’entropie représente l’information propre moyenne associée à un processus (source).

Propriétés de l’Entropie * alors *supposons que l’alphabet est fini et contient K symboles alors L’égalité étant obtenue si la variable aléatoire X est équiprobable

Propriétés de l’Entropie Distribution équiprobable : .

5. Codage sans pertes d’informations multimédia Taux de compression L’opération de numérisation et de compression du signal est aussi appelée « codage de source ». Le codage des signaux multimédia nécessite de connaître les limites atteignables des taux de compression. Taux de compression : Limites atteignables Le théorème de codage de la source établit qu’il existe un débit binaire (quantité d’information) vers laquelle on peut tendre sans pouvoir comprimer la source d’avantage. Dans le cas d’un codage sans perte cette limite est donnée par l’entropie de la source.

Codage Entropique Codage de la source : la source X prend ses valeurs dans le dictionnaire C. On appelle codage de la source X une application de C dans l’ensemble des suites finies de l’alphabet {0,1}. Le code : Le mot de code : La longueur moyenne : Théorème : pour toute source discrète sans mémoire, il existe un code instantané représentant exactement la source et uniquement décodable vérifiant Où H(X) est l’entropie de la source et est la longueur moyenne du code, exprimés en bit par symbole.

5. Codage sans pertes des informations multimédia Codage entropique (statistique) La source S discrète d’informations est caractérisée par son entropie H - Codage de Shannon-Fano - Codage de Huffman - Codage arithmétique Codage par comptage (RLC) Codage avec dictionnaire (LZSS,LZW)

Codage Entropique de Shannon-Fano (I) Pour tous les symboles du message développer une liste correspondante des probabilité expérimentales (occurrences) 2) Trier la liste dans l’ordre décroissant des probabilités expérimentales (occurrences) Exemple : Message ABEABABABCDCDBAEAAAEAAAABAACACDBDEEDCCDE Liste triée Symbole A B C D E Occurrences 15 7 6 6 5

Codage Entropique de Shannon-Fano (II) 3) Diviser la liste en deux parties, le total des compteurs d’occurrence de la moitié supérieure devant être aussi proche que possible du total de al moitié inférieure 4) Affecter le chiffre binaire 0 à la moitié supérieure de la liste, et le chiffre 1 à la moitié inférieure de la liste Symbole Occurrence Somme Code A 15 0 B 7 22 0 ------------------------------------------------------------- C 6 1 D 6 1 E 5 17 1

Codage Entropique de Shannon-Fano (III) 5) Appliquer de façon récursive les étapes 3 et 4 à chacune des deux moitiés, jusqu’à ce que chaque symbole soit devenu une feuille Symbole Occurrence Somme Code A 15 00 -------------------------------------------------------- II B 7 22 01 --------------------------------------------------------- I C 6 10 -------------------------------------------------------- III D 6 110 -------------------------------------------------------- IV E 5 17 111

Codage Entropique de Shannon-Fano (IV) Représentation sous forme d’arbre binaire A B C D E Racine 1 Symbole Occurrence Quantité inf Bits Total Taille Sh-F Bits Sh-F A 15 1,38 20,7 2 30 B 7 2,48 17,36 14 C 6 2,70 16,20 12 D 3 18 E 5 2,96 14,8

Codage Entropique de Huffmann (I) 1952. Algorithme optimal pour construire un code entropique. On peut montrer qu’il n’existe pas d’autre code uniquement décodable de longueur moyenne inférieure pour une source discrète sans mémoire. Principe : construire progressivement l’arbre binaire en partant des feuilles de l’arbre précédent. Initialisation de l’arbre : - Tous les symboles sont les nœuds-feuilles Chaque noeud a comme poids la probabilité du symbole (occurrence). Liste des nœuds libres contient tous les nœuds

Codage Entropique de Huffmann (II) Construction de l’arbre : Sélectionner les deux symboles-noeuds les moins probables. Créer le père de ces deux nœuds. Poids(père) :=Poids(FilsGauche)+Poids(FilsDroit) Ajouter le nœud-père dans la liste des nœuds libres et supprimer les nœuds-fils de la Liste. Étiquetage. Un des fils reçoit 0, l’autre 1 Si card(Liste)=1 alors arrêt. Le seul noeud devient la racine

Codage Entropique de Huffmann (III) 1 Exemple : 1)15 7 6 6 5 A B C D E 2) 15 7 6 6 5 A B C D E … 11 1 1 13 11

Codage Entropique de Huffmann (IV) 24 1 11 13 39 15 7 6 6 5 A B C D E 0 100 101 110 111 …

Codage Entropique de Huffmann (V) Comparaison avec le codage de Shannon-Fano Quantité d’information théorique NbrBits SF NbrBits H 82,25 89 87 Nécessite la transmission de la table des codes

Codage Arithmétique Rissanen 1976 Principe : un code n’est plus associé à chaque symbole constituant le message, mais plutôt au message constitué de la suite des différents symboles. Soit l’ensemble des messages pouvant être émis par la source avec les lois de probabilité d’apparition . On peut définir une suite d’intervalles recouvrant l’intervalle et ayant les longueurs respectives Le principe de codeur arithmétique : définir pour chaque intervalle un nombre compris entre 0 et 1 et ayant une représentation binaire finie

Codage Arithmétique (II) tombe sans ambiguïté dans l’intervalle soit , et« code » la source. On peut trouver une famille de valeurs avec des longueurs de représentation binaire vérifiant (propriété de quasi optimalité du code). Alors plus le message est long, plus la performance du codage est grande.

Codage Arithmétique Algorithme du Codeur (I) Soit les limites hautes et basses du message à la j-ème itération. Symbole P(s) Intervalle l(s) h(s) E 1/5 0.00<=r<0.20 J 0.20<=r<0.40 N 2/5 0.40<=r<0.80 Y 0.80<=r<1.00 Jenny

Codage Arithmétique Algorithme du Codeur (II) J alors Jenny Nouveau Symbole Limite basse Limite haute 0.00 1.00 J 0.2 0.4 E 0.20 0.24 N 0.216 0.232 0.2224 0.2288 Y 0.22752 0.22880

Codage Arithmétique Algorithmes du Décodeur (I) Décodage : Trouver le symbole qui possède l’intervalle de message : J Soustraire la limite basse :0.02752 Diviser par la longueur de r(s) : 0.1376 Aller à (1) jusqu’à atteindre 0 Réalisation pratique : utilisation de l’arithmétique binaire (sur 32 bits par exemple)

Codage par plages (RLC) Principe : (1) Comptage du nombre d’apparitions consécutives d’un mot de message à coder. (2) Codage à longueur fixe de la valeur des mots et de nombre d’apparitions (3) Variante : introduction de bit-flag « codé-non-codé ». Exemple : Message : 1 1 1 1 7 7 7 7 7 255 7 1 8 8 8 Code : 1 4 1 1 5 7 0 3 255 7 1 1 3 8 Débit initial : 15 *8 =120 bits Débit final : 1 + 3 + 8 + 1 + 3+ 8+1 + 3 + 3*8 + 1 + 3 + 8 = 64 bits Adapté aux images sans bruit ou aux valeurs quantifiées grossièrement.