Transmission fiable et codes correcteurs

Slides:



Advertisements
Présentations similaires
de l’algorithme de Viterbi
Advertisements

Chapitre IV Protection contre les erreurs
Chapitre IV Protection contre les erreurs
La théorie de l’information
L’électronique numérique
Architecture de machines Codage des informations
Les formats Stage – Semaine 4.
a CODAGE DE HUFFMAN 0.40 Objectif : coder les lettres
LES SCIENCES APPLIQUEES A L’ENVIRONNEMENT PROFESSIONNEL
La couche physique.
Quelle heure est-il?. Il est … Trois heures Quelle heure est-il? Il est … Deux heures.
LA COMMUNICATION.
ASR4 - Mars 2006Notions de codes1 Détection et correction derreurs… … au sein de la couche 2 : liaison de données.
Le codage de l ’information
Samedi 6 septembre 2008matériel informatique1 Codage de linformation.
Dpt. Télécommunications, Services & Usages Théorie de l information H. Benoit-Cattin Introduction 2. Sources discrètes & Entropie 3. Canaux discrets.
Dpt. Télécommunications, Services & Usages Théorie de l information H. Benoit-Cattin Introduction 2. Vue densemble 3. Sources discrètes & Entropie.
Dpt. Télécommunications, Services & Usages Théorie de l information H. Benoit-Cattin 1 Théorie de linformation Hugues BENOIT-CATTIN.
SEMESTRE 1 Licences Sciences et Technologie :
TECHNIQUES MIMO.
1 cours réseaux chapitre 3 la couche liaison. 2 La couche liaison Objectifs, la détection et la correction d'erreurs, le contrôle de flux, les protocoles.
Entropie mutuelle I(X;X) = H(X) H(X|Y) = H(Y|X). Entropie mutuelle I(X;X) = H(X) VRAI I(X;Y) = H(Y) – H(Y|X) I(X;X) = H(X) – H(X|X) = H(X) H(X|Y) = H(Y|X)
La Culture Scientifique et le Traitement de l’Information en SRC
Introduction à la Théorie de l’Information
CORRESPONDANCE DES VUES
MODULE ER13 PROJET INFORMATIQUE DEVELOPPEMENT en EQUIPE
Catherine Douillard Département Électronique
Toute utilisation à but non lucratif doit faire référence à Toute utilisation partielle ou totale à but lucratif est interdite. - Fédération.
Chaîne de Transmission
Transmissions Numériques
Quels sont les différents modèles ?
Codes Correcteurs d’Erreurs
Codage et Protection contre les Erreurs
TRANSMISSION DES DONNEES.
Théorie de l’Information et Codage
Théorie dinformation ELG3575 Introduction aux systèmes de télécommunication.
Projet d’électronique numérique
LIAISON MODBUS.
DEA Perception et Traitement de l’Information
DEA Perception et Traitement de l’Information
Codage convolutif Les codeurs convolutifs génèrent un mot de code de longueur n à partir de plusieurs messages de longueurs k. La valeur du mot de code.
Implémentation analogique de décodeurs correcteurs d’erreurs
Chapitre 4 L’information
INFORMATION ET DONNEE COURS 2. ACTIVITE HUMAINE Recherche scientifique MédecineInformatique OBSERVATION Mesures Rassemblement de données de patients Introduction.
Compression des Données
Michel Waldschmidt Université P. et M. Curie - Paris VI
Lycée Jules Verne, Limours
INF4420: Sécurité Informatique
Position en fonction du temps
Carrières et débouchés en mathématiques
La théorie de la communication de C. Shannon
1 clic sur le personnage confirme/infirme la réponse.
Controlled and secure direct communication using GHZ state and teleportation – Ting Gao Estelle GILET M2R III 21/03/06.
AGIR : Défis du XXIème Siècle.
Outils mathématiques pour le datamining
Le codage des nombres binaires
Les Codes Spatio-Temporels Correcteurs d’Erreurs
Cours n° 2 Liaison de données et trames
Détection multi-utilisateurs pour un réseau de modems sous- marins discrets Karim Ouertani Département Signal et Communications Séminaire des doctorants.
Option Télécommunications
Décodage souple de l’image binaire des codes de Reed-Solomon
CODES CORRECTEURS D’ERREUR
Algorithme de Huffman Mis au point en 1952 par David Huffman
Codes cycliques Hypothèse sur V = vocabulaire source Code linéaire - caractérisation Codage et décodage d’un code linéaire Code cyclique – caractérisation.
Codage de l’information
Mohamed ET-TOLBA et Samir SAOUDI Département Signal & Communications
Département Informatique Codage de l’information Laurent JEANPIERRE IUT de CAEN – Campus 3.
Psychologie sociale de la communication C. van de Leemput 16 février 2004.
Psychologie sociale de la communication
Information et complexité. Un jeu de boîtes Un objet est déposé dans une parmi N boîtes. L’individu V est prêt à le vendre un certain prix à l’individu.
Transcription de la présentation:

Transmission fiable et codes correcteurs Marc Lelarge (INRIA-ENS) Olympiades de mathématiques - Sorbonne 2010.

Canal Binaire Symétrique (CBS)

Code à répétition R3 Bit d’information Mot code transmis Bruit Message reçu

Décodage de R3 Erreurs corrigées Erreurs détectées

Code à répétition Canal Encodage Décodage Taux du code 1/3

Code de Hamming (7,4) t5 s1 s3 s2 t7 t6 s4

Code de Hamming (7,4) 1

Code de Hamming (7,4) 1 1

Code de Hamming (7,4) 1 1 1

Code de Hamming (7,4) Encodage: Taux du code = 4/7 s=(s1,s2,s3,s4) -> t=(s1,s2,s3,s4,t5,t6,t7) Example: 1000 -> 1000101 Taux du code = 4/7 t5 s1 s3 s2 t7 t6 s4

Décodage par syndrome Message reçu: r = 1000101 + 0100000 = 1100101 1 1

Décodage par syndrome Message reçu: r = 1100101 1 1 1 1

Décodage par syndrome Message reçu: r = 1100101 L’erreur est détectée. 1

Décodage par syndrome Message reçu: r = 1100101 1 1 1 1

Décodage par syndrome Message reçu: r = 1100101 1 1 1

Décodage par syndrome Message reçu: r = 1100101 Message décodé: 1000101 L’erreur est corrigée! 1 1 1

Décodage par syndrome Autres cas possibles avec une erreur: On peut toujours corriger une erreur! 1 1

Décodage par syndrome Avec deux erreurs: On obtient un mot code avec 3 erreurs… 1 1

Codes de Hamming Codes redondants: bits de parité (t5,t6,t7) fonction des bits d’information (s1,s2,s3,s4). Taux du code < 1. Ces codes détectent et corrigent une erreur. Avec deux erreurs, le décodage introduit une erreur supplémentaire.

Codes de Hamming et CBS Encodage Canal Décodage

Hamming vs R3 pour le CBS Encodage Décodage Canal

Performances pour un CBS Claude Shannon Richard Hamming

Probabilité d’erreur pour le CBS Code à répétition R3: mots code: 000; 111. Canal binaire symétrique: faute avec proba. f. Pour des entrées équiprobables, si 1 est reçu alors: - 1 a été envoyé avec proba. 1-f - 0 a été envoyé avec proba. f Example: si 110 est reçu alors: proba. (1-f)(1-f)f pour 111 transmis proba. ff(1-f) pour 000 transmis Donc 111 plus probable.

Un modèle graphique pour R3 1 1 1

Un modèle graphique pour R3 1 1 1

Un modèle graphique pour R3 1 1

Décodage itératif ? ? ? 1 1

Décodage itératif ? ? ? 1 1

Décodage itératif ? ? ? 1 1

Décodage itératif ? ? ? 1 1

Décodage itératif ? ? ? 1 1

Décodage itératif ? ? ? 1 1

Décodage itératif ? ? ? 1 1

Décodage itératif 1 1 1

Décodage itératif 1 1 1 1

Décodage itératif 1 1 1 1 1

Codes LDPC Robert Gallager

Performances des codes LDPC Taux ½; bruit f=7,5%

Performances des codes LDPC Taux 1/4

Analyse des LDPC

Turbo codes Claude Berrou

Théorie de l’information et codage Une nouvelle science informatique… qui se base sur les mathématiques (probabilité et algèbre)… qui a des applications pour l’Internet, les communications spatiales, les disques compacts, les téléphones mobiles… qui pose de nouveaux défis!

Une devinette pour finir! Un groupe de 7 joueurs entrent dans une salle. A chacun est mis un chapeau bleu ou rouge sur la tête avec probabilité 1/2. Chaque joueur voit les autres chapeaux. Les joueurs peuvent mettre au point une stratégie avant d’entrer. Un joueur peut parler ou se taire. Le groupe gagne si au moins un joueur parle et ceux qui parlent ont bien deviné leur couleur. Quelle est la stratégie optimale?

Merci! http://www.di.ens.fr/~lelarge/talks.html Merci à David MacKay pour les illustrations