Codes Correcteurs d’Erreurs

Slides:



Advertisements
Présentations similaires
Chapitre IV Protection contre les erreurs
Advertisements

La Méthode de Simplexe Standardisation
Algorithmes et structures de données avancés
VII) Formalisme Quantique
PRINCIPE SIMPLIFIE DE LA COMPRESSION MP3
Notion de probabilité.
Statistique et probabilité Série n° 1
Le codage de l ’information
L’élasticité prix de la demande
variable aléatoire Discrète
Transmission fiable et codes correcteurs
Génération de colonnes
Représentation numérique de l’information
Il n’est pas demandé d’effectuer ou de réduire
Lois de la statique Equilibre des solides.
Probabilités.
Algorithmes sur les images dans Excel
Révision des systèmes LIT, convolution et série de Fourier
Une nouvelle manière de noter
Le codage des images Une image peut-être aquise (appareil photo, scanner) ou créée avec un programme Puis elle peut être traitée : filtres, retouches...
Le codage des nombres en informatique
Fonction COMMUNIQUER les liaisons série
A B LE BUT TIRÉ EN A EST DEVIÉ PAR UN JOUEUR AVANT DE SIMMOBILISER EN B. QUE SE PASSE-T-IL ? LE BUT N ÉTAIT PAS MARQUÉ IL RESTE EN PLACE (EN B) LE BUT.
Calcul de probabilités
Bon Anniversaire ! Dans notre classe, il y a 26 élèves.
La naissance des probabilités
Rappel... Solution itérative de systèmes linéaires (suite et fin).
Introduction aux probabilités
Gestion de Fichiers Arbres B.
Introduction aux Probabilités
Expression littérale  1) Définition
IFT Complexité et NP-complétude
Michel Waldschmidt Université P. et M. Curie - Paris VI
Lycée Jules Verne, Limours
Institut Supérieur des Etudes Technologiques de Djerba Exposé du Traitement de Données Réalisé par: Khalifa Marwa Magroun Amira Jawadi Souad L2MDW.
Les formats Débutant – Semaine 4.
La théorie de la communication de C. Shannon
Dilatation du temps en Relativité Générale
Déterminer la probabilité pour que chacun des événements suivants soit réalisé. Le résultat sera donné sous la forme d’une fraction irréductible ou d’un.
Probabilités Série n°1.
Création JJ Pellé le 11 octobre 2009
AGIR : Défis du XXIème Siècle.
Au Scrabble, tu disposes des 5 lettres suivantes.
Algorithmes sur les images dans Excel
Cours n° 2 Liaison de données et trames
TRANSMISSION D’INFORMATION PAR FIBRE OPTIQUE
Equations du premier degré à une inconnue (rappel)
REPRESENTATION DE L’INFORMATION
Hier, vous avez fait des exercices de votre plan de travail.
D.E ZEGOUR Ecole Supérieure d’Informatique. Problèmes de décision Concepts de base Expressions régulières Notation particulière pour exprimer certaines.
Fabienne BUSSAC PROBABILITÉS 1. VOCABULAIRE
Algorithme de Huffman Mis au point en 1952 par David Huffman
Cours 8 La transmission.
CHAPITRE 3. Acquisition d’information et révision des croyances
Réalisation d’un logiciel de Chiffrement RSA.
Thème 4 : Les éléments naturels. Cours 2 : L’eau dans la nature et chez les êtres vivants. Mathématiques Guide du Maître Thème : Numération. Cours 17 :
Chapitre 4 Variables aléatoires discrètes
Pierre Malenfant Technologie 9 École du Carrefour
Chapitre 4 La représentation des nombres.
Terminologie liée aux mesures
P ROBABILITÉS S ÉRIE N °3. Déterminer la probabilité pour que chacun des événements suivants soit réalisé. Le résultat sera donné sous la forme d’une.
Blaise Pascal XIIème partie. L’obligation de choisir Il est impossible de déterminer si Dieu est ou n’est pas. Il nous faut donc choisir l’une ou l’autre.
La NUMERISATION de l’information
Plan 1. Probabilités conditionnelles 2. Indépendance en probabilité
Principe de la numération en une base donnée
Résolutions et réponses
Famille A La famille A a cinq enfants – Patricia – Mary – Susan – Helen – Kathleen – Quelle est la probabilité que le prochain enfant soit un garçon ?
Département Informatique Codage de l’information Laurent JEANPIERRE IUT de CAEN – Campus 3.
Résolutions et réponses Epreuve n°4 – CP Résolutions et réponses Epreuve n°4 – CP RALLYE MATH 92 2 ème Édition RALLYE MATH 92 2 ème Édition
Transcription de la présentation:

Codes Correcteurs d’Erreurs Lycée Jules Verne Codes Correcteurs d’Erreurs Limours, 19 Novembre 2003 Michel Waldschmidt

Applications des codes correcteurs d’erreurs Télévision, Cd, CdRom, minitel, DVD, ordinateurs, internet,… Transmissions dans l’espace : Voyager 1 et 2, satellites, sondes spatiales, … Téléphonie, téléphonie mobile, …

Ecouter un CD rayé Sur un disque compact comme sur un ordinateur, chaque son est codé par une suite de 0 et de 1, regroupés par paquets (les octets). Pour garantir la fidélité de l’enregistrement, on rajoute d’autres octets qui permettent de repérer et de corriger les petites erreurs dues aux poussières et aux rayures.

Un disque compact de bonne qualité contient facilement 500 000 erreurs! 1 seconde de signal audio = 1 411 200 bits. La théorie mathématique des codes correcteurs d’erreur permet d’augmenter la fiabilité du son tout en diminuant le coût du codage. Elle s’applique aussi à la transmission des informations par internet ou satellites.

Codage du son sur un CD En utilisant un corps fini à 256 éléments, on peut corriger 2 erreurs sur chaque mot de 32 octets avec 4 octets de contrôle pour 28 octets d’information.

Image obtenue par la sonde spatiale Mariner 2 en 1971. Olympus Mons sur la planète Mars Image obtenue par la sonde spatiale Mariner 2 en 1971.

La sonde envoyait à la terre ses informations en utilisant un code correcteur d’erreurs capable de corriger jusqu’à 7 bits erronés sur 32. Dans chaque groupe de 32 bits, 26 étaient des bits de contrôle et les 6 autres constituaient l’information nette.

Voyager 1 et 2 (1977) Itinéraire: Cap Canaveral, Jupiter, Saturne, Uranus, Neptune. Envoyait les informations en utilisant un code binaire permettant de corriger 3 erreurs sur des mots de longueur 24.

Codes et Maths Algèbre (mathématiques discrètes, corps finis, algèbre linéaire,…) Géométrie Probabilités et statistiques

Construire des codes qui détectent et corrigent le plus grand nombre possible d’erreurs, tout en allongeant le moins possible les messages, et qui soient faciles à décoder.

Transmission de données Source But

Transmission d’un message codé Source Texte codé But

Transmission imparfaite d’un message codé Source Texte codé Bruit But

Détecter une erreur Envoyer deux fois le même message 2 mots autorisés sur 4=22 (1 lettre utile sur 2) Mots autorisés (deux lettres) 0 0 1 1 Taux: 1/2

Principe du codage : on autorise seulement certains « mots » (code = dictionnaire des mots autorisés). Les lettres « utiles » sont celles qui portent l’information, les autres (bits de contrôle, clefs) permettent de détecter des erreurs. Taux: nombre de lettres utiles / nombre total de lettres

Principe du codage permettant de détecter une erreur: deux mots autorisés distincts ont au moins deux lettres différentes

Corriger une erreur Envoyer trois fois le même message 2 mots autorisés sur 8=23 (1 lettre utile sur 3) Mots autorisés (trois lettres) 0 0 0 1 1 1 Taux: 1/3

On corrige 0 0 1 en 0 0 0 0 1 0 en 0 0 0 1 0 0 en 0 0 0 et 1 1 0 en 1 1 1 1 0 1 en 1 1 1 0 1 1 en 1 1 1

deux mots distincts autorisés ont au moins trois lettres différentes Principe du codage permettant de corriger une erreur: deux mots distincts autorisés ont au moins trois lettres différentes S’il y a une erreur et une seule, il y a exactement un mot du code qui la corrige.

Un autre code détectant une erreur Améliorer le taux 1/2 du code {(0,0), (1,1)} Mots autorisés (trois lettres): 0 0 0 0 1 1 1 0 1 1 1 0 bit de parité: (x y z) avec z=x+y modulo 2. 4=22=22 mots autorisés sur 8=2 2 2=23 (2 lettres utiles sur 3). Taux: 2/3

Mots autorisés Mots Interdits 0 0 0 0 1 1 1 0 1 1 1 0 0 0 1 0 1 0 1 0 0 1 1 1 Deux mots autorisés distincts ont au moins deux lettres différentes.

Un autre code corrigeant une erreur Améliorer le taux 1/3 du code {(0,0,0), (1,1,1)} Mots de 7 lettres Mots autorisés: (16=24 sur 128=27) (a b c d e f g) Avec (modulo 2) e=a+b+d f=a+c+d g=a+b+c Taux: 4/7

Deux mots distincts ont au moins trois lettres différentes. Le code binaire de Hamming et Shannon (1948) 16 mots de 7 lettres autorisés 0 0 0 0 0 0 0 0 0 0 1 1 1 0 0 0 1 0 0 1 1 0 0 1 1 1 0 1 0 1 0 0 1 0 1 0 1 0 1 0 1 1 0 1 1 0 1 1 0 0 1 1 1 0 0 0 1 0 0 0 1 1 1 1 0 0 1 0 0 1 1 0 1 0 1 0 0 1 0 1 1 0 1 0 1 1 0 0 0 1 0 1 1 0 1 1 0 0 1 1 1 0 0 0 1 1 1 1 1 1 1 1 Deux mots distincts ont au moins trois lettres différentes.

Distance de Hamming Richard W. Hamming (1915-1998) La distance de Hamming de deux mots est le nombre de lettres différentes. Un code permettant de détecter n erreurs est un code dont la distance de Hamming entre deux mots distincts est au moins n+1. Un code permettant de corriger n erreurs est un code dont la distance de Hamming minimale est au moins 2n+1.

But: décrire des codes dont les mots ont des distances de Hamming mutuelles grandes, avec un taux maximal. Cela revient à trouver des « points » dont les distances mutuelles sont aussi grandes que possible.

Outils mathématiques Algèbre linéaire: les bits de contrôle sont déterminés par des équations linéaires. Théorie des corps finis (Evariste Galois, 1811-1832). Résolution des équations algébriques par radicaux. Géométrie algébrique, codes géométriques.

Le code binaire de Hamming et Shannon C’est un code linéaire (la somme de deux mots du code est un mot du code) et les 16=24 boules de rayon 1 centrées aux mots du code recouvrent l’espace formé par les 128=27 mots binaires de longueur 7=23-1 (chaque mot a 7 voisins, et (7+1)16= 256).

Empilement de sphères

Empilement de sphères Problème de Kepler: densité maximale d'empilement de sphères identiques:   p / Ö 18= 0,740 480 49… Conjecturé en 1611. Démontré en 1999 par Thomas Hales. Liens avec la cristallographie.

Le problème des chapeaux Trois personnes ont chacune un chapeau, blanc ou noir, sur la tête. Les couleurs sont choisies au hasard. Chacun voit la couleur du chapeau sur la tête des deux autres, mais ne connaît pas la couleur de son propre chapeau. Ils ne communiquent pas. Chacun écrit sur un papier la couleur qu’il devine pour son propre chapeau: blanc, noir, ou bien il s’abstient.

L’équipe gagne si une au moins des trois personnes ne s’est pas abstenue, et tout ceux qui ne se sont pas abstenus ont donné une réponse correcte.

Stratégie simple: ils conviennent à l’avance que deux d’entre eux s’abstiennent, le troisième donne une réponse au hasard. La probabilité qu’ils gagnent est : 1/2. Peut-on améliorer cette probabilité?

Indication: Améliorer les chances en utilisant l’information disponible: chacun connaît la couleur des deux autres.

Meilleure stratégie: si l’un des trois voit deux chapeaux (sur la tête des autres) de la même couleur, il parie que son chapeau est de l’autre couleur. S’il voit deux chapeaux de couleurs distinctes, il s’abstient.

Gagné!

Perdu!

Gagnant:

Perdant:

L’équipe gagne exactement quand les trois chapeaux ne sont pas tous de la même couleur, c’est-à-dire dans 6 cas sur 8 Probabilité de gagner: 3/4.

Y a-t-il de meilleures stratégies? Réponse: NON! Y a-t-il d’autres stratégies donnant la probabilité de gagner 3/4? Réponse: OUI!

Pile ou Face Lancer une pièce de monnaie trois fois de suite Il y a 8 résultats possibles: (0,0,0), (0,0,1), (0,1,0), (0,1,1), (1,0,0), (1,0,1), (1,1,0), (1,1,1).

Si vous pariez que le résultat sera (0,1,0), vous avez : Les trois valeurs justes si la suite est (0,1,0). Exactement deux bonnes valeurs si c’est (0,1,1), (0,0,0) ou (1,1,0), Exactement une bonne valeur si c’est (0,0,1), (1,1,1) ou (1,0,0), Aucune bonne valeur pour (1,0,1).

Quelque soit le résultat final (8 possibilités), chaque pari a les trois valeurs justes dans 1 cas a exactement deux valeurs justes dans 3 cas a exactement une valeur juste dans 3 cas has zéro valeur juste dans 1 cas

But: être sûr d’avoir au moins deux valeurs justes Évidemment, un seul pari ne suffit pas Suffit-il de deux paris? On rappelle qu’il y a 8 résultats possibles et que chaque pari a au moins 2 réponses justes dans 4 cas.

Réponse: OUI, deux paris suffisent! Par exemple si on parie (0,0,0) et (1,1,1) dans tous les cas, l’un des deux chiffres 0 et 1 sortira plus d’une fois. Donc un (et seulement un) des deux paris aura deux ou trois résultats justes.

Autres solutions: On choisit deux tickets n’ayant pas de chiffre commun, comme (0 0 1) et (1 1 0) Ou bien le résultat est l’un de ces deux, ou bien il a exactement un chiffre au même endroit en commun avec l’un des deux et deux en commun avec l’autre.

Revenons au cas de (0,0,0) et (1,1,1) Les 8 mots formées de 3 lettres 0 et 1 Se répartissent en deux groupes: celles qui ont deux ou trois 0 et celles qui ont deux ou trois 1

(0,0,1) (0,0,0) (0,1,0) (1,0,0) (1,1,0) (1,1,1) (1,0,1) (0,1,1)

Distance de Hamming entre deux mots: = nombre de places où les deux mots n’ont pas la même lettre Exemples: (0,0,1) et (0,0,0) sont à distance 1 (1,0,1) et (1,1,0) sont à distance 2 (0,0,1) et (1,1,0) sont à distance 3 Richard W. Hamming (1915-1998)

L’ensemble des huit mots de trois lettres se réparti en deux boules Les centres sont (0,0,0) et (1,1,1) Chacune des deux boules est formée des mots dont la distance est au plus 1 du centre.

Retour au problème des chapeaux On remplace blanc par 0 et noir par 1 Ainsi la répartition des couleurs devient un mot à trois lettres sur l’alphabet {0 , 1} On considère les centres des boules (0,0,0) et (1,1,1). L’équipe parie que le résultat ne correspond pas à un des centres des boules.

Si la répartition des couleurs ne correspond pas à un des centres des boules (0, 0, 0) et (1, 1, 1). alors: Une couleur intervient exactement deux fois (le mot comporte les deux chiffres 0 et 1). Un et un seul des membres de l’équipe voit deux fois la même couleur: 0 0 s’il voit deux chapeaux blancs, 1 1 s’il voit deux chapeaux noirs. Il connaît le centre de la boule: (0, 0, 0) dans le premier cas, (1, 1, 1) dans le second. Il parie donc que le chiffre qu’il ne connaît pas est celui qui ne produit pas le centre de la boule.

Les deux autres voient deux couleurs différentes, ils ne connaissent pas le centre de la boule, ils s’abstiennent (accessoirement ils savent que l’équipe va gagner). Ainsi l’équipe gagne quand la répartition des couleurs ne correspond pas à l’un des deux centres.. C’est pourquoi l’équipe gagne dans 6 cas.

Maintenant si la répartition des couleurs (le mot de trois lettres) correspond à un des centres, chacun des membres de l’équipe donne la mauvaise réponse! Ils perdent dans 2 cas.

Autre stratégie: On choisit deux mots dont la distance de Hamming est 3 - c’est-à-dire deux mots n’ayant pas de même lettre à la même place, comme (0,0,1) et (1,1,0) On considère les deux boules, centrées en ces deux mots, formées des éléments à distance au plus 1 du centre.

(0,0,0) (0,0,1) (0,1,1) (1,0,1) (1,1,1) (1,1,0) (1,0,0) (0,1,0)

L’équipe parie que la distribution des couleurs ne correspond pas à l’un des deux centres (0,0,1), (1,1,0) . Un mot qui n’est pas au centre a exactement une lettre distincte du mot du centre, et deux différentes de l’autre centre.

Si le mot correspondant à la répartition des couleurs n’est pas un des deux centres, alors: Exactement un des membres de l’équipe connaît le centre, il sait donc quoi parier. Les autres ne connaissent pas le centre, ils s’abstiennent. Dans ce cas l’équipe gagne.

Si le mot correspondant à la répartition des couleurs est un des deux centres, alors: Chacun des membres de l’équipe parie le mauvais résultat. Ainsi l’équipe perd dans 2 cas sur 8.

Le problème des chapeaux avec 7 personnes L’équipe parie que la répartition des couleurs ne correspond pas aux 16 éléments du code de Hamming. L’équipe perd dans 16 cas (ils se trompent tous!) Elle gagne dans 128-16=112 cas (un seul donne la réponse, les 6 autres s’abstiennent) Probabilité de gagner: 112/128=7/8

Pile ou face 7 fois Il y a 27=128 résultats possibles Chaque pari est un mot de 7 lettres sur l’alphabet {0, 1} Combien de pari faut-il faire pour être sûr d’avoir au moins 6 résultats corrects?

Chacun des 16 mots du code de Hamming a 7 voisins (à distance 1), la boule dont il est le centre a 8 éléments. Chacun des 128 mots est dans une et une seule de ces boules.

Faire 16 paris correspondant aux 16 mots du code: dans tous les cas exactement un des paris aura au moins 6 réponses justes.

SPORT TOTO Un match entre deux adversaires a trois issues possibles: ou bien le joueur 1 gagne, ou bien le 2, ou sinon il y a match nul (x). Comment parier sur les résultats de 4 matches en étant sûr d’avoir au moins 3 réponses justes?

Pour 4 matches, il y a 3 = 81 possibilités. Un pari sur 4 matches est un mot de 4 lettres sur l’alphabet {1, 2, x}. Un mot a 8 voisins (à distance 1). Par exemple les 8 voisins de (1, 2, x, 1) sont (2, 2, x, 1), (1, 1, x, 1), (1, 2, 1, 1), (1, 2, x, 2) (x, 2, x, 1), (1, x, x, 1), (1, 2, 2, 1), (1, 2, x, x)

Comment choisir ces 9 paris? Chaque pari donne 4 réponses justes dans 1 cas et 3 réponses justes dans 8 cas, donc au moins 3 réponses justes dans 9 cas. Il faut donc faire au moins 9 paris pour être sûr d’avoir au moins 3 réponses justes. Comment choisir ces 9 paris?

9 mots de 4 lettres (en colonnes) x x x 1 1 1 2 2 2 x 1 2 x 1 2 x 1 2 x 1 2 1 2 x 2 x 1 x 1 2 2 x 1 1 2 x ce code corrige une erreur Taux: 1/2