Entropie mutuelle I(X;X) = H(X) H(X|Y) = H(Y|X). Entropie mutuelle I(X;X) = H(X) VRAI I(X;Y) = H(Y) – H(Y|X) I(X;X) = H(X) – H(X|X) = H(X) H(X|Y) = H(Y|X)

Slides:



Advertisements
Présentations similaires
GESTION DE PORTEFEUILLE 3bis Catherine Bruneau RISQUE & PROBABILITE.
Advertisements

Risques d’erreur statistique et test statistique
Test statistique : principe
Modulation numérique.
La couche physique.
Inférence statistique
1. L’ADN et l’information génétique
MESURES ET INSTRUMENTATION
4. Notions de la théorie de l’information

Dpt. Télécommunications, Services & Usages Théorie de l information H. Benoit-Cattin Introduction 2. Sources discrètes & Entropie 3. Canaux discrets.
Dpt. Télécommunications, Services & Usages Théorie de l information H. Benoit-Cattin 1 Théorie de linformation Hugues BENOIT-CATTIN.
Les Tests dhypothèses. 1)Définition Un test cest une méthode qui permet de prendre une décision à partir des résultats dun échantillon.
Les tests d’hypothèses
Maria-João Rendas CNRS – I3S Novembre 2006
Cours analyse spectrale Part I
Partage de ressources par codes CDMA pseudo- aléatoires pour les réseaux ad-hoc Nicolas MARECHAL ème année Master ISSI INSA Lyon Encadrants : Jean-Marie.
1 cours réseaux chapitre 3 la couche liaison. 2 La couche liaison Objectifs, la détection et la correction d'erreurs, le contrôle de flux, les protocoles.
Introduction à la Théorie de l’Information
Transmission fiable et codes correcteurs
6. Introduction à la modulation d’amplitude
Communications numériques: conversion A/N, PAM, PWM et PCM
Systèmes de radiocommunication de 3ème génération - UMTS
Modulation d’impulsions binaire et M-aire
TRANSMISSION PAR COURANT PORTEUR
Révision des systèmes LIT, convolution et série de Fourier
Chaîne de Transmission
1. L’ADN et l’information génétique
Codage et Protection contre les Erreurs
Théorie de l’Information et Codage
Canaux de transmission bruités
DEA Perception et Traitement de l’Information
Signaux aléatoires.
Dépannage du 20 février Intra H04 no 4 On définit la distribution de probabilité d'une variable aléatoire X comme suit : a)Déterminer la valeur.
Conception et analyse des algorithmes Les algorithmes probabilistes
Contrôle « rapide » Indiquer votre série GAUCHE ou DROITE
Échantillonnage (STT-2000) Section 2 Tirage aléatoire simple (plan SI). Version: 22 août 2003.
Analyse statistique des données expérimentales
ÉCHANTILLONNAGE AU FIL DES PROGRAMMES Stage : nouveaux programmes de première Novembre 2011.
Texture 2D en PGC++.
La théorie de la communication de C. Shannon
FILTRAGE - R.WEBER - POLYTECH'ORLEANS
Matériel de formation pour les formateurs du sans fil Les bases des télécommunications.
Déroulement du projet Projet composé de 5 étapes permettant de simuler une chaîne de transmission. De la transmission idéale à la transmission réelle.
Télécommunications numériques
Chapitre 1 : Transmission numérique en bande de base
Tutorat 4 – Techniques d’encodage.  Encodez la séquence de 10 zéros avec les méthodes d’encodage suivantes, c’est-à-dire dessinez les signaux numériques.
Cours n° 2 Liaison de données et trames
TRANSMISSION D’INFORMATION PAR FIBRE OPTIQUE
Micro-intro aux stats.

Vers une loi à densité. Masse en gEffectifFréquence % [600,800[1162,32 [800,900[3957,9 [900,1000[91818,36 [1000,1100[124824,96 [1100,1200[121824,36 [1200,1300[71514,3.
Activités mentales rapides
Équations de plans.
TNS et Analyse Spectrale
MODULATION I - Définitions et généralités s(t)
LOIS DE PROBABILITE Variables aléatoires Lois discrètes Lois continues
Fonction carré.
Recherche de motifs par projections aléatoires
A D S L.
1.  On souhaite comparer deux traitements dans le cadre d’un essai randomisé sur les lombosciatiques :  corticoïdes par infiltrations  placebo  Critère.
Les techniques de transmission
Mesures, erreurs de mesure et incertitudes
Séquence Chaîne de base Episode 5 « Pour aller plus loin »
CHAPITRE 2 La couche physique.
Transmission, stockage d'information
1_Introduction Toute mesure est entachée d’erreur. Il est impossible d’effectuer des mesures rigoureusement exactes. Pour rendre compte du degré d’approximation.
Académie européenne des patients sur l'innovation thérapeutique Rôle et notions élémentaires des statistiques dans les essais cliniques.
    Type de signal, valence, débit symbole, débit source, fréquence de Nyquist, efficacité spectrale, bande passante nécessaire (a = 0,3), représentation.
Psychologie sociale de la communication
Transcription de la présentation:

Entropie mutuelle I(X;X) = H(X) H(X|Y) = H(Y|X)

Entropie mutuelle I(X;X) = H(X) VRAI I(X;Y) = H(Y) – H(Y|X) I(X;X) = H(X) – H(X|X) = H(X) H(X|Y) = H(Y|X) FAUX, en général

Entropie mutuelle On considère les variables discrètes aléatoires X et Y. Y = f (X) avec f une fonction déterministe. I(X;Y) = H(Y)

Entropie mutuelle On considère les variables discrètes aléatoires X et Y. Y = f (X) avec f une fonction déterministe. I(X;Y) = H(Y) VRAI I(X;Y) = H(Y) – H(Y|X) = H(Y) – H(f (X)|X) = H(Y)

Capacité de canal Soit C la capacité dun canal en bits/seconde. Il nest pas possible de transmettre des données à un débit supérieur à R, avec R = C bits/s.

Capacité de canal Soit C la capacité dun canal en bits/seconde. Il nest pas possible de transmettre des données à un débit supérieur à R, avec R = C bits/s. FAUX R > C est possible mais avec erreurs R = C est la limite garantissant une transmission sans erreur.

Capacité de canal Soit C( ) la capacité dun canal BSC, avec désignant la probabilité derreur. Alors C(1) < C(0.5)

Capacité de canal Soit C( ) la capacité dun canal BSC, avec désignant la probabilité derreur. Alors C(1) < C(0.5) FAUX C( ) = 1 – H( ) H( ) = - log( ) – (1- )log(1- ) H(0.5) = 1 C(0.5) = 0 H(1) = 0 C(1) = 1

Capacité de canal Soit C1 un canal AWGN de largeur de bande W, avec une puissance émise P et une dsp de bruit N 0 /2. Soit C2 un canal AWGN avec la même largeur de bande et pour la même puissance que C1, mais une dsp de bruit valant S n (f). La puissance totale de bruit pour les 2 canaux est la même. Le capacité de C2 est supérieure à celle de C1.

Capacité de canal Soit C1 un canal AWGN de largeur de bande W, avec une puissance émise P et une dsp de bruit N 0 /2. Soit C2 un canal AWGN avec la même largeur de bande et pour la même puissance que C1, mais une dsp de bruit valant S n (f). La puissance totale de bruit pour les 2 canaux est la même. Le capacité de C2 est supérieure à celle de C1. FAUX Le bruit blanc est le pire cas.

Capacité de canal Soit X n {0,1} avec Pr(X n =1) = 0.4, et produisant 1 bit/seconde. {X n } ne peut pas être transmis sans erreur sur un canal BSC dont la probabilité derreur vaut = 0.05.

Capacité de canal Soit X n {0,1} avec Pr(X n =1) = 0.4, et produisant 1 bit/seconde. {X n } ne peut pas être transmis sans erreur sur un canal BSC dont la probabilité derreur vaut = VRAI Entropie de la source: H Source = 0.97 Débit pour la source : H = 0.97 bits/seconde Capacité du canal : C bits/seconde H > C