La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Transmissions Numériques

Présentations similaires


Présentation au sujet: "Transmissions Numériques"— Transcription de la présentation:

1 Transmissions Numériques

2 Plan 1. Un exemple de système de télécommunication évolué
2. Théorie de l’information 3. Codage correcteur d’erreurs 4. Les modulations numériques 5. Techniques avancées

3 1. La mission Cassini-Huygens

4 1. La mission Cassini-Huygens
Question : quelles doivent être les caractéristiques d’un système de télécommunication numérique pour permettre la réception d’images sans erreurs depuis un point situé à 1,25milliards de kms de la terre ?

5 1. La mission Cassini-Huygens
Le sous-système de télécommunication de la sonde :

6 1. La mission Cassini-Huygens
Le sous-système de télécommunication de la sonde : Trois antennes : deux LGA et une HGA de 4m de diamètre avec G = 48dB Emission et réception en bande X (8,4GHz/E et 7.2GHz/R). Puissance d’émission = 20W ! Débit en réception : 1kbits/s. Débit en émission variable de 14,22 à 165,9kbits/s Les données recueillies sont enregistrées à raison de 15h/jours puis transmises pendant 9h/jour. La station DSN de Goldstone reçoit ainsi 1Go/jour sur une antenne de 34m ou jusqu’à 4Go/jour sur une antenne de 70m.

7 1. La mission Cassini-Huygens
Exercice : Quelle est la densité de puissance rayonnée au niveau de la Terre ? Calculer l’affaiblissement de la liaison : L’antenne de réception possède un gain Gr = 74dB, son facteur de gain est de fgr = 0,66. En déduire le diamètre de l’antenne.

8 1. La mission Cassini-Huygens
Un réseau de « grandes oreilles » : le Deep Space Network (DSN) :

9 1. La mission Cassini-Huygens

10 1. La mission Cassini-Huygens
Exercice : déterminer le rapport signal sur bruit d’une transmission de la sonde Cassini. G/T = 62dB, rb =100kbits/s, Lo = 1,6dB, k =1,38e-23. CCE ? les liens intéressants

11 2. Théorie de l’information
Les bases sont posées par C. Shannon en 1948 « A Mathematical Theory of Communication » :

12 2. Théorie de l’information
Définition de l’information : L’information envoyée par une source numérique X lorsque le jième message est transmis est : Définition de l’entropie ou information mutuelle moyenne : H(X) s’exprime en bits (binary units)

13 2. Théorie de l’information
Comment s'assurer de l'efficacité de la représentation des données émises par une source ? Longueur moyenne d’un code : Le premier théorème de Shannon : La longueur moyenne d'un code quelque soit le procédé d'encodage de source possède la limite suivante :

14 2. Théorie de l’information
On peut alors définir le critère d'efficacité suivant : Il existe plusieurs procédés permettant de s’approcher de la limite théorique : Huffmann, Lempel-Ziv… Le 2ème théorème de Shannon : codage de canal : Soit une source X d’entropie H(X) qui émet des symboles chaque Ts secondes sur un canal de transmission de capacité C utilisé chaque Tc secondes. Si :

15 2. Théorie de l’information
Il existe une possibilité de codage pour laquelle les données de la source peuvent être transmises sur le canal et reconstituées avec une très faible probabilité d'erreur. Le paramètre C/Tc est appelé le débit critique. Rem : Ce théorème ne donne pas d'indication pour construire le code idéal ni de résultat précis quant à la probabilité d'erreur. 3ème théorème de Shannon : capacité d’un canal BBAG de bande passante limitée B :

16 2. Théorie de l’information

17 2. Théorie de l’information
Exercice : Une image de télévision noir et blanc est constituée de pixels, chacun de ces pixels peuvent prendre un niveau de luminosité parmi 10 avec la même probabilité. On suppose que le rythme de transmission est de 30 images par secondes et que SNR = 30dB. Déterminer la BP requise pour la transmission de ce signal. H(X) = log2(10) = 3,32bits RB = H(X) = 29,9Mbits/s B = RB/log2(1001)  3MHz

18 3.CCE Gain de codage :

19 3.CCE Historique des CCE 1950 1960 1970 Shannon’s Paper 1948 Hamming
defines basic binary codes Gallager’s Thesis On LDPCs Berlekamp and Massey rediscover Euclid’s polynomial technique and enable practical algebraic decoding BCH codes Proposed Viterbi’s Paper On Decoding Convolutional Codes Reed and Solomon define ECC Technique Forney suggests concatenated codes

20 3.CCE Historique des CCE (suite) 1980 1990 2000 LDPC beats Turbo Codes
For DVB-S2 Standard RS codes appear in CD players Berrou’s Turbo Code Paper Renewed interest in LDPCs due to TC Research Turbo Codes Adopted into Standards (DVB-RCS, 3GPP, etc.) TCM Heavily Adopted into Standards

21 3.CCE On peut classer les CCE en fonction de leur structure. On a deux grandes familles : Les codes en blocs linéaires : Définition (Code en blocs) : Un code en blocs de taille M et de longueur n, défini sur un alphabet de q symboles, est un ensemble de M séquences q-aires de longueur n appelées mots de code. Si q=2, les symboles sont des bits. Généralement, M=qk, k étant un entier. Le code sera désigné par la paire (n,k). Chaque séquence de k symboles d'information est codée en un mot de code constitué de n symboles. k est appelé dimension du code. Un code en blocs associe donc aux k symboles d'information un mot de code de n symboles.

22 3.CCE Définition : (Rendement) : Le rendement R d’un code en blocs (n,k) est : La théorie de l'information indique que les très longs codes en blocs sont les plus puissants. De tels codes sont difficiles à chercher théoriquement et nécessitent des circuits compliqués pour réaliser les opérations de codage et de décodage. Les codes en blocs sont caractérisés par trois paramètres : leur longueur n, leur dimension k et leur distance minimale dmin La distance minimale mesure la différence entre les deux mots de code les plus similaires.

23 3.CCE Définition (Distance de Hamming) : Soient x et y deux séquences q-aires de longueur n. La distance de Hamming entre x et y, notée dH(x,y), est le nombre de symboles différents entre les deux séquences. Exemple : Considérons deux séquences binaires x=10101 et y= La distance de Hamming dH(x,y) est égale à 3. Définition (Distance minimale) : Soit C={ci,i=1,…,M} un code en bloc. La distance minimale dmin du code C est la distance de Hamming entre les deux mots de code les plus proches :

24 3.CCE Définition (Capacité de correction) : La capacité de correction d’un code en blocs est donnée par : Un code en blocs linéaire est facilement décrit par sa matrice génératrice G. Ainsi la méthode de codage s’écrit-elle : c=i.G Tout code en blocs admet une matrice de test de parité telle que : G.HT=0 Définition (code systématique) : Un code systématique est un code dans lequel un mot de n symboles contient les k symboles d'information non modifiés. Les n-k symboles restant sont appelés symboles de parité. G est équivalente à une matrice de la forme :

25 3.CCE Exemple : code de Hamming (7,4) :
Quels sont les mots du code ? Ce code est-il systématique ? Donner dmin et en déduire la capacité de correction de ce code Calculer H Soit r =( ) un mot reçu. Montrer qu’il contient une erreur et que le récepteur peut la localiser et la corriger.

26 3.CCE Les codes en blocs performants :
BCH : Bose, Chaudhuri, Hocquenghem Reed-Muller Reed-Solomon (GF2^N) : lecteurs de CD/DVD, Cassini (255,223)

27 3.CCE Les codes convolutifs : ils forment une classe extrêmement souple et efficace de CCE. Ce sont les codes les plus utilisés dans les systèmes de télécommunications fixes et mobiles. Contrairement aux codes en blocs chaque mot du code dépend du message à l’instant t mais aussi des messages précédents  longueur de contrainte . Exemple d’encodeur (2,1,2) :

28 3.CCE Définition (longueur de contrainte) : La longueur de contrainte  d’un code convolutif est égale au nombre d’éléments retard de son encodeur. =2 dans l’exemple précédent. Un code convolutif peut être décrit soit par sa matrice génératrice G, soit par sa matrice de test de parité H. La représentation de ces matrices se fait soit en utilisant la transformée en D, soit en par des nombres en base 8. Elle permet la construction de l’encodeur. Définition (Transformée en D) : Une séquence de bits, {am} peut être représentée par sa transformée en D :

29 3.CCE Exemple : Déterminer G pour le codeur de l’exemple précédent
Encoder la séquence suivante : u = ( ) en utilisant la transformée en D. Mettre G sous forme systématique et en déduire une nouvelle représentation de l’encodeur. Tables de codes : La détermination de « bons » codes convolutifs à fait l’objet de nombreuses recherches et le concepteur a à sa disposition des tables de codes.

30 3.CCE 2m g11(D) g12(D) dfree 4 7 5 8 17 13 6 16 23 35 (GSM) 16 31 33 32 77 51 64 163 135 10 (802.11a) 64 155 117 (802.11b) 64 133 175 9 128 323 275 256 457 755 12 (IS-95) 256 657 435 Codes de rendement ½ de distance libre maximale Exemple : Construire l’encodeur associé au code (2,1,3) de la table.

31 3.CCE Définition : (distance libre) : La distance libre dfree d’un code convolutif est égale à la plus petite distance de Hamming qui existe entre deux séquences qui divergent puis convergent de nouveau : où v’ et v’’ sont les mots du code correspondant aux séquences u’ et u’’. C’est cette distance qui affecte les performances asymptotiques d’un code.

32 3.CCE Représentations graphiques de l’encodeur convolutif :
Le graphe d’état :

33 3.CCE Représentations graphiques de l’encodeur convolutif :
Le treillis : Exemple : A l’aide de Matlab, afficher le treillis du code (2,1,3) de l’exemple précédent. Retrouver les résultats de l’exemple de la diapo 25

34 3.CCE Décodage selon le critère du maximum de vraisemblance : l’algorithme de Viterbi : A partir du trellis du code convolutif, on réalise les étapes suivantes : On démarre le treillis à l’état 0, On calcule le métrique de branche k de toutes les branches et pour chaque état du treillis , Pour chaque branche, on additionne le métrique de branche k au métrique d’état précédent ce qui donne le métrique cumulé, Pour chaque état, on sélectionne le chemin qui possède le métrique cumulé le plus faible (appelé survivant) et on élimine les autres chemins. En cas d’égalité, on tire au sort le survivant, On revient à l’étape 2 jusqu’à la fin de la séquence à décoder. A la fin du treillis, on sélectionne la branche de plus faible métrique et on remonte le treillis en passant par le chemin de plus faible métrique ; chaque branche traversée donne la valeur des bits d’information (1 bit dans le cas de l’exemple).

35 3.CCE Exemple : Pour illustrer simplement les capacités de correction des erreurs de l’algorithme nous décodons la séquence v = [ ] qui contient une erreur en position 1 :

36 3.CCE Techniques d’implémentation : Profondeur du treillis p  6
Décision dure/décision souple :

37 3.CCE Performances des codes convolutifs :
Influence de la longueur de contrainte :

38 3.CCE Performances des codes convolutifs : influence du rendement :
Et si on revenait à CASSINI ?

39 3.CCE Les CCE approchant la capacité de Shannon :

40 3.CCE Les Turbo-Codes : 1993 Berrou, Glavieux Turbo codeur :
Codeurs de type RSC, Entrelaceur pseudo-aléatoire Décodeur MAP trop complexe  décodage itératif Encoder #1 #2 Interleaver MUX Input Parity Output Systematic Output puncturing

41 3.CCE Turbo-Codes (suite) : Décodeur itératif : Decoder #1 Decoder #2
Deinterleaver EI EI APR APR Interleaver systematic data Decoder #1 Decoder #2 hard bit decisions parity data APP APP DeMUX Interleaver

42 3.CCE Turbo-Codes (suite) : Performances :

43 3.CCE Les LDPC (Low Density Parity-check Codes) :
Gallager 1962, redécouverts par McKay en 1996. Codes en blocs, matrice G creuse, décodage itératif Bonnes performances pour blocs courts Très proches de la capacité de Shannon pour blocs longs : Chung, et al, “On the design of low-density parity-check codes within dB of the Shannon limit”, IEEE Comm. Lett., Feb. 2001 Complexité au niveau encodeur Bonne alternative aux TC : adoptés dans les normes DVB-S2 et n D2

44 4. Les modulations numériques
Quand il s'agit de transmettre des données numériques sur un canal passe-bande, il est nécessaire de moduler les données autour d'une porteuse. Il existe quatre techniques principales de modulation numérique selon que le message fait varier l'amplitude, la phase ou la fréquence de la porteuse. Ces techniques sont : ASK (Amplitude Shift Keying) : modulation d’amplitude FSK (Frequency Shift Keying) : modulation de fréquence PSK (Phase Shift Keying) : modulation de phase QAM (Quadrature Amplitude modulation) : modulation d’amplitude sur deux porteuses en quadrature. Dans tous les cas, le principe consiste à utiliser des symboles binaires pour modifier les caractéristiques d’une ou plusieurs porteuses.

45 4. Les modulations numériques
L’exemple de la modulation QPSK : Dans ce cas, la phase de la porteuse prend 4 valeurs différentes correspondant au « transport » de deux bits par symbole. Chaque signal de durée Ts s’écrit : Es est l’énergie du symbole et fc = nc/Ts est la fréquence de la porteuse. La durée d’un symbole est égale à Ts = Tb.log2(4)=2.Tb. Exercice : Montrer que le signal QPSK peut s’écrire sous la forme suivante :

46 4. Les modulations numériques
Exercice (suite) : En déduire la structure du modulateur QPSK. Représenter sur un graphique à deux dimensions les 4 vecteurs suivants : Cette représentation graphique s’appelle une constellation. Montrer que les 4 points s’inscrivent sur un cercle de rayon Calculer la distance Euclidienne entre les points de la constellation. En déduire la distance Euclidienne minimale entre les points de cette constellation. Démo MATLAB sur QPSK

47 4. Les modulations numériques
Quelques exemples de constellations :

48 4. Les modulations numériques
Critères de performance : Probabilité d’Erreur et Taux d’erreur binaire sur canal à BBAG  Etude du cas de la modulation BPSK : Le récepteur reçoit :

49 4. Les modulations numériques
n représente un bruit blanc de moyenne nulle et de Densité Spectrale de Puissance N0/2 W/Hz. Le seuil de décision du récepteur est fixé à 0. Les densités de probabilités exprimant l’envoi respectivement d’un 1 (s1) ou d’un 0 (s2) s’écrivent :

50 4. Les modulations numériques
Supposons l’émission de s2 (0), la probabilité d’erreur est simplement la probabilité que r > 0 : erfc(u) représente la fonction d’erreur complémentaire :

51 4. Les modulations numériques
Les signaux étant symétriques, P(e|s1)=P(e|s2). De plus, comme les deux signaux s1 et s2 sont équiprobables, la probabilité d’erreur totale s’écrit : Remarque : ce résultat peut également s’exprimer en fonction de la distance Euclidienne entre les deux points s1 et s2, :

52 4. Les modulations numériques
Alors à quoi ça sert toutes ces formules ? A obtenir des courbes de TEB !

53 4. Les modulations numériques
Encombrement spectral, efficacité spectrale : Pour limiter la bande passante de transmission, on a recours au filtrage des impulsions associées aux symboles. Nyquist à montré que l’optimum est B = 1/TS Hz.

54 4. Les modulations numériques
Comme Ts = Tb.log2(M) et que rb = 1/Tb, l’efficacité spectrale s’écrit alors : =rb/B = log2(M) (bits/s/Hz) En résumé : A retenir : a rythme binaire égal une modulation de grande efficacité spectrale utilisera moins de bande qu’une modulation de faible efficacité spectrale. Modulation BPSK QPSK 8PSK QAM  (bits/s/Hz) 1 2 3 4

55 4. Les modulations numériques
Conclusion : diagramme d’efficacité spectrale à Pe = 10-5 :

56 5. Techniques avancées Le canal AWGN est un cas simple :
Caractéristiques du canal à évanouissement : Considérons la transmission du signal :

57 5. Techniques avancées Si l’on suppose que le canal est constitué de N trajets, alors le signal reçu et son enveloppe complexe peuvent s’écrire  : avec k(t) = atténuation de trajet k, k(t) = retard du trajet k et k(t) = 2fkt + ’k(t) avec fk = fréquence Doppler du trajet k et ’k(t) = déphasage du trajet k causé par le retard.

58 5. Techniques avancées On montre que le canal peut être caractérisé par deux grandeurs principales : L’étalement temporel d qui représente le retard maximum parmi tous les trajets. Définition (Bande de cohérence) : La bande de cohérence Bd d’un canal est égale à : Bd  1/5d Soit Bs la bande de fréquence occupée par le signal à transmettre alors : si Bs << Bd la fonction de transfert du canal est considérée comme constante et les différentes composantes fréquentielles du signal à transmettre sont affectées par le même type de fading. On dit que le canal est non sélectif en fréquence, si Bs  Bd les différents trajets se chevauchent causant de l’interférence entre symboles. On dit que le canal est sélectif en fréquence.

59 5. Techniques avancées L’étalement fréquentiel dû à l’effet Doppler : lorsque l’émetteur et le récepteur sont en mouvement relatif à vitesse constante, le signal reçu est sujet à un décalage fréquentiel égal à : avec fc = fréquence de la porteuse,  = vitesse du véhicule, c célérité de la lumière = m/sec. L’étalement Doppler fd est alors défini comme le décalage maximal en fréquence parmi tous les trajets.

60 5. Techniques avancées Exemple :
On considère un émetteur sur la bande des 1850MHz. Pour un véhicule roulant à 100km/h, donner la fréquence de réception si : Le véhicule se dirige vers l’émetteur Le véhicule s’éloigne de l’émetteur Le véhicule se dirige perpendiculairement à l’axe de l’émetteur

61 5. Techniques avancées Définition (Temps de cohérence) : Le temps de cohérence Td d’un canal est égal à : Td = 1/fd C’est une mesure de la durée du signal à partir de laquelle la sélectivité temporelle du canal est effective. Ainsi : si Ts << Td le canal ne change pas de manière significative pendant la transmission et les différentes composantes temporelles du signal sont affectées par le même type de fading, le canal est dit non sélectif en temps Ts >> Td le canal est dit sélectif en temps.

62 5. Techniques avancées Le graphe suivant résume l’ensemble des effets que nous venons de voir :

63 5. Techniques avancées La simulation suivante montre l’évolution de l’amplitude du signal (t) sur un canal à évanouissement de Rayleigh : Les variations de l’amplitude du signal se combinent aux effets du canal BBAG, ce qui se traduit par une dégradation significative du TEB.

64 5. Techniques avancées Illustration : cas de la modulation BPSK :
Exemple : à l’aide de MATLAB, obtenir le graphe précédent grâce à une simulation par la méthode de Monte-Carlo

65 5. Techniques avancées Comment combattre les effets du fading ?
Egalisation : compensation de l’IES Le rôle d’un égaliseur est de compenser les variations d’amplitude et de phase dues au fading Lorsque les caractéristiques du canal varient rapidement on a recours à un égaliseur adaptatif qui envoie des séquences de test à intervalles réguliers. Dans le cas d’un canal sélectif en temps, l’égaliseur réalise la fonction de transfert inverse du canal Dans le cas d’un canal sélectif en fréquence, il amplifie les composantes fréquentielles de faible amplitude et atténue les composantes de forte amplitude

66 5. Techniques avancées Techniques de la diversité : Principe :
Fournir au récepteur plusieurs versions du même signal sur des canaux indépendants plusieurs copies du même signal ont peu de chance de s’évanouir simultanément : Diversité fréquentielle : on utilise plusieurs porteuses séparées par un f > à la bande de cohérence du canal Diversité temporelle : on utilise plusieurs time slots séparés par un t > que le temps de cohérence du canal. Exemple : codage + entrelacement. Diversité spatiale : on utilise plusieurs antennes séparées par plusieurs multiples de la longueur d’onde à transmettre.

67 5. Techniques avancées Qu’est-ce que la modulation multiporteuses ?
On divise la trame binaire en N sous-trames On module chaque sous-trame avec la largeur de bande B/N Sous-porteuses séparées B/N < Bd Bande de cohérence du canal  pas d’IES Le multiplexage fréquentiel (FDM) permet des sous-trames séparées Le multiplexage fréquentiel orthogonal (OFDM) a une meilleure efficacité spectrale On peut l’implémenter facilement par FFT

68 5. Techniques avancées Modulation à une porteuse/Modulation Multiporteuses

69 5. Techniques avancées Orthogonalité : Chaque porteuse modulant une donnée pendant une fenêtre de durée TS, son spectre est la transformée de Fourier de la fenêtre…

70 5. Techniques avancées Avantage ?

71 5. Techniques avancées Sur le canal de transmission : canal Amplitude
porteuse Amplitude sous-canal Pour a et HyperLAN II les sous-canaux ont une largeur de 312kHz

72 quadrature amplitude modulation (QAM) encoder
5. Techniques avancées Réalisation pratique : le modem OFDM N subchannels 2N real samples S/P quadrature amplitude modulation (QAM) encoder N-IFFT add cyclic prefix P/S D/A + transmit filter Bits 00110 TRANSMITTER multipath channel RECEIVER N subchannels 2N real samples P/S QAM demod decoder invert channel = frequency domain equalizer N-FFT S/P remove cyclic prefix Receive filter + A/D


Télécharger ppt "Transmissions Numériques"

Présentations similaires


Annonces Google