Télédétection de la surface terrestre par un radiomètre imageur à synthèse d’ouverture : principes de mesure, traitements des données interférométriques.

Slides:



Advertisements
Présentations similaires
Introduction à l’analyse
Advertisements

FORMATION DE FAISCEAU.
Fabrice Lauri, François Charpillet, Daniel Szer
BioIMAGe Partenaires : TIMC-IMAG, Unité INSERM 438, RMN Bioclinique, Laboratoire de Biologie des Populations d'Altitude Thématiques BioInformatique Modélisation.
E. A NTERRIEU (OMP-LAT 2 ) 14, avenue Edouard Belin T OULOUSE - F RANCE Atelier «Imagerie Multidimensionnelle & Observatoire.
La mesure du rayon du bord interne dune enveloppe de poussière par interférométrie Sacuto S. (OCA, laboratoire Gemini, France) Directeur de thèse : Pierre.
Analyse temps-fréquence
Page 1 Activités centrées autour de SMOS Eric A NTERRIEU et Bruno P ICARD PLAN La synthèse douverture Léquation de base Les méthodes de régularisation.
1 Programme scientifique et date de lancement par Le Comité scientifique CoRoT, 29 Aout 2006.
SMOS : une mission vitale > Tour d’horizon scientifique
Le Centre dEtudes Spatiales de la BIOsphère SMOS : une mission vitale Tour dhorizon scientifique > Objectifs scientifiques Préparation de la mission SMOS.
SMOS : une mission vitale Tour d’horizon scientifique
Le Centre dEtudes Spatiales de la BIOsphère SMOS : une mission vitale Tour dhorizon scientifique Objectifs scientifiques Préparation de la mission SMOS.
Sébastien Moreau, Jérôme Daniel
Mesures dans le domaine fréquentiel
Illustration satellite
MODULE - METHODES POTENTIELLES Contenu du cours (par J.B. Edel & P. Sailhac) : I. Propriétés physiques des roches : densités, aimantations induites et.
Codage par transformées(1)

A Pyramid Approach to Subpixel Registration Based on Intensity
1 Intégration numérique garantie de systèmes décrits par des équations différentielles non-linéaires Application à l'estimation garantie d'état et de paramètres.
TECHNIQUES D’ANTENNES POUR LES TELECOMMUNICATIONS
ANTENNES COMPACTES POUR TÉLÉCOMMUNICATIONS (DOMAINE DÉCIMÉTRIQUE)
LES ANTENNES LARGES BANDES
Modélisation et commande hybrides d’un onduleur multiniveaux monophasé
CPMOH, Université Bordeaux 1
Jean Paul CHAMBARET STAGE LASERS INTENSES
Progrès de la technique de mesure PLIF à deux couleurs
Etienne Bertaud du Chazaud
Pour le moment dans notre cours:
Application des algorithmes génétiques
Polarisation et Directionnalité
Système coopératif pour l'aide à la conduite
Classification Multi Source En Intégrant La Texture
ANALYSE CROISEE ANTENNES/SCINTILLATEURS
Pourquoi les réseaux de neurones de type « perceptron multicouche » conviennent-ils à l’apprentissage Stéphane Canu, INSA de Rouen , PSI André Elisseeff,
1- Université Paul Sabatier, AD2M
Réalisateur : PHAM TRONG TÔN Tuteur : Dr. NGUYEN DINH THUC
Couche limite atmosphérique
Concepts avancés en mathématiques et informatique appliquées
Télédétection des Océans : quels défis pour le futur ?
La mesure des champs forts Présentation prévue initialement par Xavier SCHMITT - APAVE Lyonnaise AEMC RF & HYPER 2004.
Forcalquier, 2-6 Septembre 2002Ecole dété du GRGS – La poursuite de satellie par satellite La poursuite de satellite par satellite (Satellite-to-Satellite.
Partie 1: Ondes et Particules.
1.Un rang de données multicolores 2. Deux permutations des n premiers entiers 3. b permutations des k premiers entiers 4. Choix de n points dans [0,1]
Journées de Rencontre Jeune Chercheurs
3ème partie: les filtres
Equations pour les mesures gradiométriques (GOCE)
1 TR: Pour commencer, je vais vous enoncer qq informations generales sur els aér ainsi que leurs origines Modélisation et analyse de l'évolution des aérosols.
électroencéphalographie Estimation des conductivités in vivo
Résolution des équations de Maxwell en 2D Simulations de propagation d’ondes électromagnétiques à travers un noyau de comète. Conseil Scientifique Projet.
Modélisation d’un radar UHF pour l’exploration de Mars
Polytech'Orléans Filtrage Multicadence Filière ESI
Soutenance de stage 16 Mai au 5 Août 2011
Antennes-BIE à surface combinée
Calcul d ’interactions Antenne/Structure par FMM
Caractérisation inverse de sources pour l'interaction du champ électromagnétique avec l'environnement Azeddine GATI Y. ADANE, M.F. Wong, J. Wiart, V. Fouad.
Institut de Recherche en Communications et Cybernétique de Nantes 1 Implémentation en précision finie modélisation et recherche de réalisations optimales.
Prospection Gravimétrique
Reconstruction de paramètres environnementaux à l’aide des GNSS: une opportunité pour les entreprises ? R. Warnant Professeur Université de Liège Géodésie.
Monitoring Détection de séquences vidéo en temps réel dans une grande base de données Julien Law-to 23/07/2004.
Electrostatique- Chap.2 CHAPITRE 2 CHAMP ELECTROSTATIQUE Objectif :
Tolérance de parallélisme
Etude et test des algorithmes d'estimation de mouvement en MPEG
DU TRAITEMENT DU SIGNAL
L’INTÉGRATION DE RESEAUX DE CAPTEURS DANS LES RÉSAUX AD HOCS Régis LECOGE - 29 Mai
Galileo ? Bien plus qu’un système de navigation ! R. Warnant Professeur Université de Liège Géodésie et positionnement par satellites Chef de section ff.
Atelier ADOMOCA-2 Les Lecques, oct Assimilation haute résolution IASI-Valentina Benjamin Pajot S. Massart, D. Cariolle, A. Piacentini CERFACS.
Alan Gabriel GOLF Orsay, avril Célébration des 10 ans de SOHO “Global oscillations at Low Frequencies” (GOLF) Alan Gabriel Instrument réalisé en.
De la Terre à la carte: Projections et Géoréférencement
Transcription de la présentation:

Télédétection de la surface terrestre par un radiomètre imageur à synthèse d’ouverture : principes de mesure, traitements des données interférométriques et méthode de reconstructions régularisées Bruno PICARD Ecole doctorale des sciences de l’environnement Méthodes Physiques en Télédétection Université de Versailles - St Quentin Bonjour ! Cette thèse a pour titre Télédétection de la surface terrestre par un radiomètre imageur à synthèse d’ouverture : principes de mesure, traitements des données interférométriques et méthode de reconstructions régularisées Elle a été réalisée au Centre Européen de Recherche et de Formation Avancée en Calcul Scientifique, le CERFACS, à Toulouse, au sein de l’équipe Global Change. Elle a été dirigée par Eric Anterrieu et Gérard Caudal et a bénéficié des conseils avisés de Philippe Waldteufel.

I - Principe instrumental 1. Enjeux PLAN I - Principe instrumental 1. Enjeux 2. Théorème de Van Cittert – Zernike 3. Configuration et maillage II - Fenêtrage 1. Apodisation 2. Multi-fenêtrage – Rééchantillonnage III - Méthodes de Reconstruction 1. Problème direct – Problème inverse 2. G n’est pas un opérateur de TF 3. Méthodes Régularisées IV - Auto-caractérisation des paramètres instrumentaux V - Erreur systématique 1. Qualité de l’instrument 2. Caractéristique de la scène 3. Repliement VI - Applications 1. Le rayonnement solaire 2. Le mode de polarisation totale Cette soutenance se déroulera ainsi : Après avoir présenté le principe instrumentale, je m’intéresserai au fenêtrage, terme générique regroupant l’apodisation et le multi-fenêtrage Puis je présenterai les méthodes de reconstruction régularisées qui ont constitué le cœur de ma thèse. Ensuite, je décrirai les résultats de l’auto-caractérisation des paramètres de modélisation de l’instrument, et je caractériserai l’erreur systématique propre aux radiomètres à synthèse d’ouverture. Enfin, je présenterai deux applications : l’impact du rayonnement solaire et la reconstruction en mode de polarisation total. Bruno PICARD 2 Vendredi 19 Novembre 2004

Contraintes instrumentales Salinité des océans Contraintes instrumentales sensibilité stabilité étalonnage Humidité des sols mesure multi-angulaire sensibilité  1 K résolution  50 km Salinité des océans Difficultés mesure de surface 20 psu  SSS  40 psu  précision 0.1 psu problème direct Humidité des sols mesure de surface 0 m3/m3  ws  0.5 m3/m3  précision 0.04 m3/m3 couverture végétale Salinité des océans Enjeux détermine la densité (+SST) circulation générale Humidité des sols échange d’énergie sol/atm développement des végétaux ressources en eau douce vout  Vkl TF Température de brillance [K] La mission spatiale SMOS, pour Soil Moisture and Ocean Salinity, dont le lancement est prévue début 2007 contribuera a une meilleure compréhension du cycle de l’eau, à travers la mesure globale de deux paramètres géophysiques importants, dont on ne dispose jusqu’à présent que de mesures éparses sur le globe : l’humidité des sols et la salinité des océans. La mesure de l’humidité des sols permettra une meilleure contrainte des échanges d’énergie entre le sol et l’atmosphère tandis que la salinité permet une meilleure définition de la densité. On s’est heurté jusqu’à présent aux difficultés de la mesure de ces paramètres depuis l’espace, puisque cette mesure exige une résolution spatiale fine, une bonne sensibilité radiométrique, ainsi qu’une bonne stabilité de l’instrument dans le temps. Une mission spatiale classique, basée sur un dispositif à antenne réelle, permet de mesurer la température de brillance de la scène observée et qui dépend de la quantité d’humidité sur les continents et de salinité sur les océans. L’instrument fournit une tension proportionnelle à la température de brillance de laquelle on déduit la valeur des paramètres géophysiques. Cependant, un tel dispositif n’est pas vraiment envisageable, les contraintes sur la résolution spatiale, par exemple, exigeraient une antenne d’environ 4 m de diamètre. C’est pourquoi, l’ESA a décidé d’utiliser une technologie initialement développée en radioastronomie, la synthèse d’ouverture. Au lieu d’utiliser une antenne de 4 m, on utilise un réseau d’antenne fonctionnant en mode interférométrique qui synthétise une antenne unique d’un diamètre égale à la plus grande distance entre 2 antennes du réseau. En contrepartie, la sensibilité est inférieure celle qu’aurait l’antenne réelle puisqu’elle est celle de d’une antenne dont la surface est égale la surface collectrice des antennes du réseau. l’instrument ne fournit pas une tension proportionnelle à la température de brillance mais un échantillonnage de la fonction de cohérence spatiale de la scène observée, c’est-à-dire un ensemble de mesure, les visibilités, proche de la transformée de Fourier de la scène observée. Humidité des sols [m3/m3] Salinité des océans [psu = g (de sel) / kg]

Théorème de Van Cittert - Zernike I- Principe instrumental 1. Enjeux 2. Théorème de Van Cittert Zernike 3. Configuration et Maillage visibilités Théorème de Van Cittert - Zernike filtres des récepteurs fonction de décorrélation antennes k & l On retrouve cette relation de quasi transformée de Fourier à deux dimension dans l’ expression du théorème de Van Cittert-Zernicke qui fait le lien entre les mesures instrumentales, les visibilités, en rouge, et la carte de température de brillance que l’on cherche à obtenir, en vert. Je vais maintenant détailler les caractéristiques instrumentales que l’on voit apparaître ici, et là : On cherche donc à mesurer T de xi et eta, xi et eta étant les cosinus directeurs, directement liés à la colatitude et à l’azimut du point observé. Pour chaque couple d’antenne du réseau, on va obtenir une mesure, une visibilité, à la fréquence spatiale angulaire définit par la distance entre ces deux antennes, normalisée par la longueur d’onde d’observation. Les signaux issus de ces antennes sont ensuite filtrés, ce qui va avoir pour conséquence l’apparition de ce terme dit de brouillage de frange ou fringe wash, et qui va jouer le rôle d’un coefficient atténuant d’autant plus le signal, que le point considéré est situé au bord du champ de vue et que la distance entre les antennes est grande. Les signaux issus des antennes sont ensuite corrélés pour obtenir une visibilité complexe à la fréquence u v. ligne de base scène observée cosinus directeurs Bruno PICARD 4 Vendredi 19 Novembre 2004

Domaine de Fourier Domaine spatial I- Principe instrumental 1. Enjeux 2. Théorème de Van Cittert Zernike 3. Configuration et Maillage Domaine de Fourier Domaine spatial Voici un réseau composé en Y, comportant 3 antennes par bras. A chaque couple d’antenne, correspond une fréquence dans le domaine de Fourier. L’ensemble des couples possibles pour un réseau donné va conduire à l’échantillonnage des données sur un maillage particulier, ici hexagonale. De plus, les dimensions finies de l’instrument vont confiner ces données à l’intérieur d’une d’étoile. On peut tout de suite remarquer que le nombre Nb de mesure instrumentales est supérieur au nombre de points dans l’étoile à cause des redondances presentes dans le réseau : ainsi, ces trois couples d’antennes vont fournir 3 mesures distinctes mais à la même fréquence. Afin de réaliser la synthèse de Fourier, on va étendre cette bande passante à une maille élémentaire hexagonal, contenant un nombre de pixels respectant le critère de Shannon, soit 2 fois la fréquence max dans la bande passante. L’échantillonnage et la périodisation du domaine de Fourier vont conduire à une périodisation et à un échantillonnage du domaine spatiale dans lequel on va cherche à estimer la température de brillance. Le maillage dans le domaine spatiale et dans le domaine de Fourier sont réciproques l’un de l’autre et la synthèse de Fourier impose les relations suivantes entre les caractéristiques de ces maillages. M’espace entre les antennes contrôle le pas d’échantillonnage dans le domaine de Fourier et l’étendue du champ de vue dans le domaine spatiale tandis que le nombre d’antennes détermine la fréquence la plus grande dans la bande passante et donc fixe l’échelle de résolution dxi. Bruno PICARD 5 Vendredi 19 Novembre 2004

 sensibilité radiométrique dégradée Instrument à bande passante limitée  sensibilité radiométrique dégradée I- Principe instrumental II- Fenêtrage 1. Apodisation 2. Multi-fenêtrage Rééchantillonnage  apodisation  sensibilité radiométrique améliorée  résolution spatiale dégradée Domaine de Fourier Domaine spatial On a déjà remarqué que les radiomètre à synthèse d’ouverture sont des instruments à bande passante limitée. Pour un signal donné, et le spectre correspondant, limiter la bande passante disponible est équivalent à multiplier le signal dans le domaine de Fourier par une fenêtre rectangle et donc à convoluer par un sinus cardinal dans le domaine spatial, d’où l’apparition de ces oscillations de Gibbs et une dégradation de la sensibilité radiométrique. L’apodisation consiste à utiliser des fenêtres provoquant une coupure moins brusque au bord de la bande passante pour diminuer l’amplitude des oscillations. Toutefois, l’amélioration de la sensibilité radiométrique est toujours suivie d’une dégradation de la résolution spatiale. Bruno PICARD 6 Vendredi 19 Novembre 2004

Généralisation à 2 dimensions CAUCHY BARTLETT WELCH CONNES 1 / (1 + () 2) 1 -  1 -  2 (1 -  2 ) 2 I- Principe instrumental II- Fenêtrage 1. Apodisation 2. Multi-fenêtrage Rééchantillonnage Le concept de fenêtre à 1 dimension est simplement généralisé à 2 dimensions grâce à la variable radiale rho, normalisé le paramètre rhomax qui représente la plus grande fréquence dans la bande passante. Bruno PICARD 7 Vendredi 19 Novembre 2004

Facteur de mérites hauteur des lobes secondaires largeur à mi-hauteur I- Principe instrumental II- Fenêtrage 1. Apodisation 2. Multi-fenêtrage Rééchantillonnage largeur à mi-hauteur Afin de caractériser le comportement des fenêtres, on utilise les facteurs de mérites traditionnels que sont la largeur à mi-hauteur et la hauteurs des lobes secondaires liés respectivement à la résolution spatiale et à la sensibilité radiométrique. Toutefois, ils ne permettent pas un choix objectif parmi toutes les fenêtres disponibles, ce que permet en revanche la distance de plus courte approche développées par Eric Anterrieu et Philippe Waldteudel. Pour une marche donnée en température, comme au bord des côtes, la distance de plus courte approche est la distance au-delà de laquelle, l’énergie située dans les oscillations est inférieure à seuil donné. Facteur de mérites Distance de plus courte approche Bruno PICARD 8 Vendredi 19 Novembre 2004

 adaptation progressive paramétrée par Adaptation à la forme de la bande passante avec , il subsiste des valeurs non nulles au bord de la bande passante I- Principe instrumental II- Fenêtrage 1. Apodisation 2. Multi-fenêtrage Rééchantillonnage avec , les valeurs sont nulles au bord de la bande passante  adaptation progressive paramétrée par valeurs nulles valeurs non nulles I II L’utilisation du paramètre rhomax impose un support centro-symétrique à la fenêtre et il subsiste alors des valeurs non nulles au bord de la bande passante. En imposant une dépendance angulaire à rhomax, il est possible des faire disparaître ces valeurs non nulles en adaptant complètement la forme de la fenêtre à la forme de la bande passante. Il est même possible de réaliser cette adaptation de façon progressive en la confinant à l’intérieur d’une zone définie par la valeur d’un paramètre ttalim variant entre 0 et 30°. I : II : Bruno PICARD 9 Vendredi 19 Novembre 2004

dégradation de la résolution spatiale Largeur à mi-hauteur Hauteur des lobes I- Principe instrumental II- Fenêtrage 1. Apodisation 2. Multi-fenêtrage Rééchantillonnage Fenêtre de BLACKMAN amélioration de la sensibilité radiométrique dégradation de la résolution spatiale Il existe une valeur optimale pour tta lim à laquelle la sensibilité radiométrique est améliorée. Toutefois, la résolution spatiale et la distance de plus courte approche sont nettement dégradées. Dist. + courte approche l’amélioration ne compense pas la dégradation Bruno PICARD 10 Vendredi 19 Novembre 2004

I : II : Adaptation à la forme de la bande passante avec , il subsiste des valeurs non nulles au bord de la bande passante I- Principe instrumental II- Fenêtrage 1. Apodisation 2. Multi-fenêtrage Rééchantillonnage avec , les valeurs sont nulles au bord de la bande passante avec , on souhaite limiter la dégradation de la résolution spatiale I II II I Pour limiter la dégradation de la résolution spatiale, on limite de nouveau l’adaptation de la forme de la fenêtre en introduisant une dépendance radiale dans le calcul de rhomax. L’adaptation ne se fait alors qu’au-delà d’une distance limite rholim. I : II : Bruno PICARD 11 Vendredi 19 Novembre 2004

l’amélioration ne compense pas la dégradation Hauteur des lobes I- Principe instrumental II- Fenêtrage 1. Apodisation 2. Multi-fenêtrage Rééchantillonnage nouvelle amélioration de la sennsibilité radiométrique Fenêtre de BLACKMAN Fenêtre de KAISER fenêtres « simples » : = 0 = 5 l’amélioration ne compense pas la dégradation Même si ainsi on améliore de nouveau la sensibilité radiométrique, la distance de plus courte approche reste dégradée. Toutefois, pour les familles de fenêtre, qui dépendent d’un paramètre, il existe un triplet optimal paramètre, ttalim et rholim pour lequel la distance de plus courte approche est améliorée. Dist. + courte approche familles de fenêtres : compensation possible Bruno PICARD 12 Vendredi 19 Novembre 2004

Adaptation à la forme de la bande passante : CONCLUSION bilan partagé : - dépendance angulaire de - amélioration de la sensibilité radiométrique - dégradation de la résolution spatiale - dépendance angulaire ET radiale de - nouvelle amélioration de la sensibilité radiométrique - compensation possible perspectives : - en jouant sur le paramétrage de , on joue finement sur les caractéristiques de la fenêtre I- Principe instrumental II- Fenêtrage 1. Apodisation 2. Multi-fenêtrage Rééchantillonnage Bruno PICARD 13 Vendredi 19 Novembre 2004

composition du champ de vue repliement : compromis entre résolution spatiale et étendue du champ de vue exploitable I- Principe instrumental II- Fenêtrage 1. Apodisation 2. Multi-fenêtrage Rééchantillonnage =1/3 On a vu que l’espacement entre les antennes conditionnait l’étendue du champ de vue. Or, pour l’instrument MIRAS de la mission SMOS, l’espacement retenu est un compromis entre une résolution satisfaisante et un champ de vue exploitable suffisamment étendue. Dans le repère des antennes, le demi espace devant l’instrument est représenté par un cercle de rayon 1, le cercle unité, et l’instrument étant incliné, la terre apparaît non pas comme un cercle mais comme une ellipse. Le champ observé couvre 120° environ. Pour un écartement respectant le critère de Shannon, l’intégralité de la distribution contenue sur terre peut être recouvré mais pour une résolution spatiale moindre. En augmentant delta u pour améliorer la résolution, on va voir apparaître à l’intérieur du champ de vue reconstruit des répliques provenant des 6 cellules voisines. Bruno PICARD 14 Vendredi 19 Novembre 2004

composition du champ de vue passage au repère terrestre :  grille irrégulière  résolution anisotrope I- Principe instrumental II- Fenêtrage 1. Apodisation 2. Multi-fenêtrage Rééchantillonnage rééchantillonnage rmulti-fenêtrage Cellule de reconstruction Cercle unité Ciel Repère terrestre Repère des antennes Horizon terrestre Repliements La reconstruction se fait à l’intérieur de la maille élémentaire, ici en rouge. On retrouve le cercle unité et l’horizon terrestre. Cette portion située au dessus de l’horizon est l’espace profond qui rayonne à quelque kelvin. On distingue aussi en pointillé, les répliques du cercle unité et de l’horizon terrestre qui empiète sur le champ de vue. La reconstruction n’est donc exploitable que dans cette zone exempte de repliement, et dans celle-ci qui ne contient que le repliement du ciel dont on peut retirer la contribution. Les paramètres géophysiques seront estimés dans le repère terrestre. Alors que la grille est régulière et la résolution isotrope dans le repère des antennes le passage au repère terrestre déforme la grille et dégrade la résolution au fur et à mesure que l’on se rapproche du bord du champ de vue. Si l’on veut traiter les données sur une grille régulière dans le repère terrestre, il faut rééchantillonner la reconstruction dans le repère des antennes. Et si l’on désire une résolution isotrope dans le repère terrestre, il faut faire appel au multi-fenêtrage. Zone non aliasée Zone non aliasée « étendue » Bruno PICARD 15 Vendredi 19 Novembre 2004

Rééchantillonnage hexagonal cartésien interpolation « classique » I- Principe instrumental II- Fenêtrage 1. Apodisation 2. Multi-fenêtrage Rééchantillonnage Rééchantillonnage hexagonal cartésien interpolation « classique » interpolation de Fourier : Pour illustrer le rééchantillonnage, prenons l’exemple du passage de la grille hexagonale à une grille cartésienne. Avec un rééchantillonnage classique de type bilinéaire il subsiste des artefacts dus au maillage hexagonal. Or, puisque l’instrument est à bande passante limité, il est possible d’utiliser une interpolation de Fourier. A l’aide d’une simple transformée de Fourier rapide, on calcule les composantes de Fourier de la scène. Avec une TF discrète, on calcule les valeurs en les pixels xi tilde de la grille cartésienne. la somme ne se faisant ici que sur les composantes contenue dans la bande passante. Comme on peut le voir, cette méthode est particulièrement adaptée. On peut même vérifier qu’elle est translation indépendante au contraire de l’interpolation bilinéaire. FFT Bruno PICARD 16 Vendredi 19 Novembre 2004

Apodisation : une fenêtre d’apodisation pour l’ensemble de la scène reconstruite Multi-fenêtrage : une fenêtre d’apodisation appliquée séparément à chacun pixel I- Principe instrumental II- Fenêtrage 1. Apodisation 2. Multi-fenêtrage Rééchantillonnage Passons à la problématique de la résolution non isotrope dans le repère terrestre. L’apodisation consiste a appliquer une seule fenêtre à l’ensemble de la scène reconstruite. Or, on peut le voir sur les cotes des îles britannique, la résolution varie dans le champ. Pour obtenir une résolution isotrope, on va utiliser la technique de multi fenêtrage qui consiste à appliquer une fenêtre différente à chacun des pixels On va pour cela partir d’une fenêtre de Kaiser, définie à partir des fonctions de Bessel et qui dépend d’un paramètre alpha. Bruno PICARD 17 Vendredi 19 Novembre 2004

Pour une résolution D donnée, on minimise : I- Principe instrumental II- Fenêtrage 1. Apodisation 2. Multi-fenêtrage Rééchantillonnage Pour une résolution D donnée, on minimise : 0° 3 10 30° 3 10 Ce paramètre contrôle notamment l’ellipticité de la fenêtre. En introduisant les paramètres alpha1, 2 phi1 et 2 dans le calcul de alpha, il est alors possible d’obtenir des déformation et des orientations différentes de l’ellipse pour des valeurs différentes du triple a1 a2 et phi. On va jouer sur la valeurs de ces paramètres pour que l’ellipse devienne un cercle. Pour chaque pixel du champ exploitable, on va donc rechercher le triplet a1 a 2 et phi pour lequel la résolution est isotrope dans le champs en minimisant ce critère où D est la résolution que l’on souhaite obtenir et a et b le petit est le grand axe de du contour à -3dB de la fonction de transfert dans le repère terrestre. Bruno PICARD 18 Vendredi 19 Novembre 2004

Hauteur des lobes secondaires I- Principe instrumental II- Fenêtrage 1. Apodisation 2. Multi-fenêtrage Rééchantillonnage Hauteur des lobes secondaires Résolution isotrope 55 km (Blackman = -13 dB) Il est alors possible d’obtenir une résolution isotrope dans le repère terrestre pour les valeurs optimales des paramètres présentées ici. Toutefois, comme on peut le voir, le multi-fenêtrage réduit l’étendue du champ reconstruit exploitable et dégrade la sensibilité radiométrique au centre du champ. Bruno PICARD 19 Vendredi 19 Novembre 2004

Rééchantillonnage / Multi-fenêtrage : CONCLUSION bilan : - la propriété « à bande passante limitée » permet d’utiliser l’interpolation de Fourier : rapidité / efficacité - il est possible d’obtenir une résolution uniforme dans le repère terrestre grâce au multi-fenêtrage - calcul chronophage - dégradation de la sensibilité radiométrique perspectives : - utilisation d’une autre famille de fenêtre? I- Principe instrumental II- Fenêtrage 1. Apodisation 2. Multi-fenêtrage Rééchantillonnage Bruno PICARD 20 Vendredi 19 Novembre 2004

Problème direct – Problème inverse I- Principe instrumental II- Fenêtrage III - Reconstruction 1. Problème direct Problème inverse 2. G = TF ? 3. Méthodes Régularisées n’est pas un opérateur de transformée de Fourier Domaine de Fourier Domaine spatial La reconstruction d’image a été au cœur de mes travaux de thèse. On rappelle ici la relation entre les mesures instrumentales et la température que l’on cherche à estimer. Cette relation est discrétisée sous cette forme, où G est l’opérateur de modélisation de l’instrument. Dans un premier temps, je vais insister sur le fait que G n’est pas un opérateur de TF et qu’il n’est donc pas recommandé de baser une méthode de reconstruction uniquement sur une TF. Bruno PICARD 21 Vendredi 19 Novembre 2004

scène haute résolution I- Principe instrumental II- Fenêtrage III - Reconstruction 1. Problème direct Problème inverse 2. G = TF ? 3. Méthodes Régularisées scène haute résolution Il est toujours possible de décomposer une scène en sa valeur moyenne, une contribution basse fréquence et une contribution haute fréquence C’est ce que je vais présenter ici. Voici une scène à son plus haut de niveau de résolution, en haut à droite, son spectre et en bas à droite les visibilités mesurées. Bruno PICARD 22 Vendredi 19 Novembre 2004

scène « basse fréquence » I- Principe instrumental II- Fenêtrage III - Reconstruction 1. Problème direct Problème inverse 2. G = TF ? 3. Méthodes Régularisées scène « basse fréquence » Voici maintenant la composante basse fréquence de cette scène : on peut d’ors et déjà remarquer que ces composantes sont sensiblement différentes des visibilités. Bruno PICARD 23 Vendredi 19 Novembre 2004

scène « haute fréquence » I- Principe instrumental II- Fenêtrage III - Reconstruction 1. Problème direct Problème inverse 2. G = TF ? 3. Méthodes Régularisées scène « haute fréquence »  n’est pas un opérateur de transformée de Fourier Et même en l’absence d’énergie dans l’étoile, l’instrument mesures des visibilités aux fréquences situées dans l’étoile. G n’est donc pas un l’opérateur de transformée de Fourier puisqu’en contradiction avec théorème de Parseval, l’énergie n’est pas conservée. Bruno PICARD 24 Vendredi 19 Novembre 2004

Problème direct – Problème inverse I- Principe instrumental II- Fenêtrage III - Reconstruction 1. Problème direct Problème inverse 2. G = TF ? 3. Méthodes Régularisées critères de HADAMARD : existence unicité continuité Ici, problème sous-contraint : 4693 données 128x128 inconnues Lors d’une approche standard pour estimer la distribution de température de brillance, on va chercher minimiser l’écart aux données en résolvant ce problème de moindre carré, dont la solution est aussi solution de cette équation. Or ce problème est dit mal posé : d’après la définition de Hadamard, pour qu’un problème soit bien posé, il doit satisfaire ces trois critères. Or le problème sous contraint : pour un instrument de type MIRAS, la reconstruction se fait sur une grille de 128x128 pixels, afin de respecter Shannon ce qui impose de retrouver environ 17000 inconnues à partir de seulement 5000 données instrumentales. La matrice G*G est alors singulière, le problème a une infinité de solution et il est donc bien mal posé.  singulière  infinité de solutions / Problème inverse mal posé Bruno PICARD 25 Vendredi 19 Novembre 2004

Solution de moindre norme I- Principe instrumental II- Fenêtrage III - Reconstruction 1. Problème direct Problème inverse 2. G = TF ? 3. Méthodes Régularisées  où Or l’opérateur est mal conditionné : idéal : rang = réaliste : mal conditionnée Une méthode régularisation est de trouver parmi toutes les solutions possibles, la solution de moindre norme OO l’opérateur G est mal conditionné. Voici les valeurs prises par l’opérateur G. On trouve autant de colonnes que de pixels dans le domaine spatial et le nombre de lignes est proportionnel au nombre de visibilités complexes. Plus précisément, la matrice est à valeur réelle et le nombre de lignes correspond au nombre de mesures réelles. Une ligne représente la contribution d’un pixel à l’ensemble des visibilités. Pour s’assurer d’obtenir une solution réelle, la matrice G est réelle, elle aussi, la moitié supérieure représentant la contribution de la scène à la partie réelle des visibilités et la partie inférieure la contribution à la partie imaginaire. Or, considérons ces trois couples d’antennes, auxquelles correspondent ces trois lignes. Si l’instrument est idéal, ie toutes les antennes sont identiques, ces trois lignes sont égales. Le rang de la matrice est alors égal aux nombre de fréquences dans la bande passante et l’inversion se fait naturellement en ne retenant qu’unes seule ligne. Mais si l’instrument est réaliste, les lignes sont numériques proches sans toutefois être rigoureusement égales, ce qui va conduire le rang numérique de la matrice à être compris entre le rang plein et le rang idéal. Bruno PICARD 26 Vendredi 19 Novembre 2004

Solution de moindre norme I- Principe instrumental II- Fenêtrage III - Reconstruction 1. Problème direct Problème inverse 2. G = TF ? 3. Méthodes Régularisées  où Or l’opérateur est mal conditionné : existence unicité continuité idéal : rang = réaliste : mal conditionnée  Ce mauvais conditionnement est clairement illustré par la décomposition en valeur singulière de G. Les valeurs les plus petites sont à l’origine d’une amplification du bruit de l’ordre ici de 10^3 comme le montre ce facteur en 1/sigma dans le calcul de g+. Elle vont contredire ce critère de Hadamard. Une régularisation consiste alors à tronquer ces valeurs les plus petites pour ne conserver que les plus grandes. Le nombre de degrés de liberté est lié aux fréquences dans la BP.  régularisation : SVD tronquée Bruno PICARD 27 Vendredi 19 Novembre 2004

Régularisation « SVD tronquée » I- Principe instrumental II- Fenêtrage III - Reconstruction 1. Problème direct Problème inverse 2. G = TF ? 3. Méthodes Régularisées  où Bruno PICARD 28 Vendredi 19 Novembre 2004

Régularisation au sens de Tikhonov I- Principe instrumental II- Fenêtrage III - Reconstruction 1. Problème direct Problème inverse 2. G = TF ? 3. Méthodes Régularisées or singulière  où Une approche standard en reconstruction est la régularisation de Tikhonov. On vu précédemment que la matrice G*G était singulière. En minimisant dans le même temps l’écart aux données et la norme de la solution « pondérée » par un paramètre de régularisation mu, on va régulariser l’opérateur G*G par la diagonale. Je reviendrai par la suite sur les caractéristiques de cette approche. Bruno PICARD 29 Vendredi 19 Novembre 2004

= << >> Régularisation physique problème inverse mal posé I- Principe instrumental II- Fenêtrage III - Reconstruction 1. Problème direct Problème inverse 2. G = TF ? 3. Méthodes Régularisées problème inverse mal posé sous la contrainte perte d’information au-delà de la bande passante  régularisation : apport d’information physique << >> Domaine de Fourier Domaine de Fourier Domaine spatial = Alors que jusqu’à présent l’information est apportée sous une forme mathématique, il est possible de régulariser le problème en tenant compte des caractéristiques intrinsèque de l’instrument. ,En tenant compte d’une propriété importante de l’instrument, à savoir qu’il est à bande passante limité. Ainsi, il est équivalent de retrouver les N^2 valeurs dans le domaines spatial ou les 2Nf-1 composantes de Fourier. Cette approche est plus satisfaisante d’un point de vue physique en raison de la perte d’information au delà de la BP. On se retrouve alors avec plus de données que d’inconnues en raison des redondances. Cette contrainte est imposée par le projecteur Ph sur les solutions a bande passante limitée. C’est la matrice résolvante égale a GUZ qui fait le lien entre les visibilités et les composantes T chapeau. Bruno PICARD 30 Vendredi 19 Novembre 2004

Régularisation physique I- Principe instrumental II- Fenêtrage III - Reconstruction 1. Problème direct Problème inverse 2. G = TF ? 3. Méthodes Régularisées sous la contrainte  où  Et l’opérateur A+, que l’on obtient facilement puisque le problème est sur contraint, permet de retrouver les composantes minimisant ce critère. Le passage au domaine spatiale se fait alors simplement à l’aide des opérateur Z et U*. Bruno PICARD 31 Vendredi 19 Novembre 2004

10-1 4700 Tikhonov 4400 10-2 SVD tronquée Physique 10-3 2900 10-4 1908 I- Principe instrumental II- Fenêtrage III - Reconstruction 1. Problème direct Problème inverse 2. G = TF ? 3. Méthodes Régularisées 10-3 2900 10-4 1908 1700 3.7 10-7 10-7 10-8 Revenons à la méthode de Tikhonov qui offre un nouvel éclairage sur les méthodes régularisées On ne peut comparer que deux scène à la même résolution. Etant donné que l’on cherche à minimiser dans le même temps l’écart aux données la norme de T, on trouve la valeur optimale du paramètre mu, au creux de la courbe en L obtenue en reportant les variations de ces deux quantités. Pour une valeur trop importante, la solution est dite sur régularisée et on privilégie l’écart aux données. Au contraire, pour une valeur trop faible, la solution est dite sous régularisée et l’on privilégie la minimisation de la norme. Il est possible de tracer la même courbe pour la régularisation SVD tronquée et c’est alors le nombre de valeurs propres écartées qui joue le rôle de paramètres de régularisation. La valeur optimale est fixée par le nombre de redondances dans le réseau et on observe que la solution est proche de la solution de Tikhonov. De même que précédemment, il est possible de sur ou sous régulariser le problème. Enfin, la régularisation ne dépend pas d’un paramètre de régularisation mais la solution ainsi obtenue et de nouveau très proche des précédentes. solution idéale observation reconstruction Bruno PICARD 32 Vendredi 19 Novembre 2004

lien entre les méthodes de régularisation Tikhonov lien entre les méthodes de régularisation variation continue du paramètre de régularisation opt (scène) et difficile à fixer I- Principe instrumental II- Fenêtrage III - Reconstruction 1. Problème direct Problème inverse 2. G = TF ? 3. Méthodes Régularisées SVD tronquée valeur optimale fixée par les redondances variation discrète du paramètre de régularisation dimensions de l’opérateur / apodisation ? Physique dimension de l’opérateur / résolution dans Fourier pas de paramètre de régularisation La dimension de l’opérateur A+ a été réduite au strict minimum ie au nbre de d° de liberté du pb. Bruno PICARD 33 Vendredi 19 Novembre 2004

Mathématique VS Physique I- Principe instrumental II- Fenêtrage III - Reconstruction 1. Problème direct Problème inverse 2. G = TF ? 3. Méthodes Régularisées Dimensions Taille Matrice Opérateurs 100 reconstructions 4693x16384 590 Mo 15 s 90 + 3 min 3 min 4693x2785 100 Mo 10 min 30 + 0.5 min < 5 s reconstruction dans le domaine de Fourier : apodisation + rééchantillonnage Bruno PICARD 34 Vendredi 19 Novembre 2004

Mission SMOS / Instrument MIRAS : 21 +2 antennes par bras = 69 antennes I- Principe instrumental II- Fenêtrage III - Reconstruction IV – Auto- caractérisation Modélisation de l’instrument : 6 paramètres d’antennes 4 paramètres pour les filtres 2 largeurs à mi hauteur + 4 erreurs d’orientation fréquence centrale + largeur de bande + phase (retard et origine) 690 paramètres 4693 mesures instrumentales Les méthodes régularisées reposant toute sur la matrice de modélisation, il est important de disposer d’une méthode permettant d’estimer les paramètres de cette modélisation une fois l’instrument en orbite. L’instrument MIRAS de la mission SMOS compte 69 antennes et la paramétrisation choisie pour les antennes et les filtres est la suivante. En supposant connue la carte des températures de brillance, soit à partir d’une précédente reconstruction, soit à l’aide de mesures au sol, il s’agit donc, par la minimisation de ce critère, d’estimer 690 paramètres à partir de 4700 mesures, ce qui est représente un problème sur contraint. Bruno PICARD 35 Vendredi 19 Novembre 2004

Etude de faisabilité pour un instrument réaliste : I- Principe instrumental II- Fenêtrage III - Reconstruction IV – Auto- caractérisation Une étude de faisabilité pour un instrument aux dimensions réalistes a consisté à estimer uniquement les paramètres d’antennes. les diagrammes de rayonnement des antennes sont modélisés ainsi : l’amplitude suit cette loi et la phase celle ci Bruno PICARD 36 Vendredi 19 Novembre 2004

Amplitude Phase Erreur biais RMS largeur -3dB 1.16/0.80 ° +0.175 K orient. trans 1.0/1.1 mm +0.226 K 0.735 K orient. long. 4.9/5.0 mm +0.278 K 0.613 K Amplitude 2% +0.342 K 1.246 K Phase 1.5° +0.171 K 1.087 K I- Principe instrumental II- Fenêtrage III - Reconstruction IV – Auto- caractérisation Amplitude Phase La première conclusion de ce travail est que l’approche qui avait été validée avec succès pour un petit instrument est chronophage. La convergence est lente, compte tenu que les codes utilisés ne sont pas encore optimisés. A ce stade de l’estimation, l’erreur sur l’estimation des paramètres entraîne une erreur de 2% sur l’amplitude et de 1.5° sur la phase. Bruno PICARD 37 Vendredi 19 Novembre 2004

Auto-caractérisation CONCLUSION I- Principe instrumental II- Fenêtrage III - Reconstruction IV – Auto- caractérisation application à un instrument réaliste chronophage perspectives : amélioration des algorithmes pas de connaissance a priori de la scène AUTO CALIBRATION Bruno PICARD 38 Vendredi 19 Novembre 2004

la méthode de reconstruction la scène la fenêtre Erreur systématique Dépendance en : l’instrument la méthode de reconstruction la scène la fenêtre I- Principe instrumental II- Fenêtrage III- Reconstruction IV - Auto- caractérisation V- Erreur Systématique 1. Qualité instrumentale 2. Caractéristique de la scène 3. Repliement Biais : 0.009 K Erreur RMS : 0.11 K Biais : 0.002 K Erreur RMS : 0.07 K - Cette erreur est ici caractérisée par un biais et une déviation standard calculés à partir de la différence entre la scène reconstruite et la scène idéal. Or, même en l’absence d’erreur de modélisation et d’erreur sur les données, il existe une erreur dite systématique. Les causes de cette erreur sont difficiles à cerner mais on sait qu’elle est sensible à plusieurs paramètres, et notamment la qualité de l’instrument. Bruno PICARD 39 Vendredi 19 Novembre 2004

Interféromètre imageur = 2 instruments : nominale 66° I- Principe instrumental II- Fenêtrage III- Reconstruction IV - Auto- caractérisation V- Erreur Systématique 1. Qualité instrumentale 2. Caractéristique de la scène 3. Repliement perturbée 56°-76° perturbée 76° Interféromètre imageur = 2 instruments : Hub, basse résolution proche des caractéristiques nominales + Bras, haute résolution Biais VS gain Biais VS position Erreur RMS VS gain Erreur RMS VS position En ce qui concerne la qualité de l’instrument, on calcule l’erreur systématique pour un instrument dont une seule antenne est différente des autres que l’on a déplacée le long d’un bras. Comme on peut le voir sur ces graphes, tant le biais que l’erreur RMS diminue lorsque l’on déplace l’antenne On a aussi calculé celle-ci pour une antenne donnée mais lorsque sa largeur à mi-hauteur varie. On peut voir que plus la largeur à mi hauteur s’éloigne des caractérisitques moyennes des autres antennes, plus l’err syst augmente. La conclusion est la suivante : on sait que la qualité instrumentale va jouer sur l’importance de cette erreur systématique. Il faut bien avoir conscience que un réseau en Y doit être considéré comme la somme de 2 instruments : un instrument basse fréquence constitué par la juxtaposition des antennes situées sur le hub et qui devra être connu avec le plus de précision possible. Un instrument haute résolution constitué des antennes situées sur les bras. Puisqu’il est clair que les erreurs se propagent depuis les basses fréquences vers les hautes fréquences, la reconstruction est améliorée si les basse fréquences sont connues avec suffisamment de précision. Bruno PICARD 40 Vendredi 19 Novembre 2004

1 2 I- Principe instrumental II- Fenêtrage III- Reconstruction IV - Auto- caractérisation V- Erreur Systématique 1. Qualité instrumentale 2. Caractéristique de la scène 3. Repliement Erreur RMS 3 0.322 0.116 0.118 0.383 0.101 0.108 Moy 98% 88% 94% BF 1.33% 8.60% 6.29% HF 2 10-3% 4 10-4% 6 10-5% 1 2 3 L’erreur systématique semble avoir sa source dans la pollution des visibilités par des hautes fréquences qui ne sont pas accessibles à la reconstruction ainsi que le montre l’étude suivante. Pour chacune des trois scène suivantes, on calcule la fraction de l’énergie contenue dans les la valeurs moyenne, les basses fréquences et les hautes fréquences. La reconstruction est effectuée à l’aide de l’opérateur G+m. L’erreur systématiques est clairement dépendante des caractéristique de la scène. On peut remarquer qu’elle est d’autant plus élevée qu la scène est à basse fréquence. Il en est de même pour la reconstruction avec l’opérateur A+. On peut voir que la reconstruction à l’aide de l’opérateur A+ est plus sensible au HF, ce qui parait normal puisque rien n’impose la solution à être à BP limitée pour G+m. Bruno PICARD 41 Vendredi 19 Novembre 2004

I- Principe instrumental II- Fenêtrage III- Reconstruction IV - Auto- caractérisation V- Erreur Systématique 1. Qualité instrumentale 2. Caractéristique de la scène 3. Repliement 0.499 K / 0.694 K 0.448 K / 0.379 K 4x10-5 K / 0.007 K 0.895 K / 0.790 K On sait que les scènes réalistes qui seront observées par un instrument en orbite contiendront des hautes fréquences dues à la transition entre la terre et le ciel. Ainsi pour un instrument réaliste, l’erreur de reconstruction bien plus grande que pour un instrument idéal. La transition entre le ciel e la terre semble jour un rôle important ainsi que le montre ces deux distributions qui illustrent une même scène uniforme à 100K vue en polarisation verticale, TV et horizontale TH. Pour TV, la température augmente avec l’angle d’incidence, alors qu’elle diminue pour TH Et on peut alors remarquer que l’erreur systématique est plus élevée pour TV. Bruno PICARD 42 Vendredi 19 Novembre 2004

- To  Vobs moy(To) = Tunif  Vunif  Tro + Tunif  Tr I- Principe instrumental II- Fenêtrage III- Reconstruction IV - Auto- caractérisation V- Erreur Systématique 1. Qualité instrumentale 2. Caractéristique de la scène 3. Repliement To  Vobs moy(To) = Tunif  Vunif -  Tro + Tunif  Tr Partant de ce constat, la variation de l’erreur systématique pour différentes valeurs d’une distribution uniforme sur terre a été calculée. En reportant les erreur calculées précédemment, on peut voir que l’erreur RMS semble particulièrement bien expliqué par la valeur moyenne de la scène observée. Ainsi, des reconstruction ont été effectuée à partir de visibilités auxquelles on a retranché la contribution d’une terre à la température uniforme égale à la température moyenne dans la scène observée. Après la reconstruction, on réinjecte cette valeur moyenne. Bruno PICARD 43 Vendredi 19 Novembre 2004

0.895 K / 0.790 K 0.195 K / 0.305 K I- Principe instrumental II- Fenêtrage III- Reconstruction IV - Auto- caractérisation V- Erreur Systématique 1. Qualité instrumentale 2. Caractéristique de la scène 3. Repliement 0.895 K / 0.790 K 0.195 K / 0.305 K L’erreur systématique est alors clairement diminuée Bruno PICARD 44 Vendredi 19 Novembre 2004

I- Principe instrumental II- Fenêtrage III- Reconstruction IV - Auto- caractérisation V- Erreur Systématique 1. Qualité instrumentale 2. Caractéristique de la scène 3. Repliement 0.106 K / 0.122 K 0.499 K / 0.694 K 0.094 K / 0.084 K 0.448 K / 0.379 K Bruno PICARD 45 Vendredi 19 Novembre 2004

importance de la bonne connaissance de l’instrument basse résolution Erreur systématique CONCLUSION I- Principe instrumental II- Fenêtrage III- Reconstruction IV - Auto- caractérisation V- Erreur Systématique 1. Qualité instrumentale 2. Caractéristique de la scène 3. Repliement importance de la bonne connaissance de l’instrument basse résolution dépendance en la nature de la scène amélioration de la qualité de la reconstruction en travaillant sur des visibilités modifiées autres sources d’erreurs : modélisation propagation du bruit radiométrique perspectives simulations 1D Tunif ? Bruno PICARD 46 Vendredi 19 Novembre 2004

I- Principe instrumental II- Fenêtrage III- Reconstruction IV - Auto- caractérisation V- Erreur Systématique VI - Applications 1. Le rayonnement solaire 2. Polarisation totale Il existe de nombreuses source secondaires de rayonnement qui peuvent venir polluer les données instrumentales. Citons le soleil, la lune, le rayonnement galactique et le fond cosmologique. J’ai mené une étude en collaboration avec N. Reul de l’IFREMER sur l’impact du rayonnement solaire sur la télédétection de la surface océanique. Bruno PICARD 47 Vendredi 19 Novembre 2004

 Tobs = Tgéo + Tsoleil + Tdif Tgéo : distribution en l’absence de pollution  I- Principe instrumental II- Fenêtrage III- Reconstruction IV - Auto- caractérisation V- Erreur Systématique VI - Applications 1. Le rayonnement solaire 2. Polarisation totale 1x105 K < Tsoleil < 7x105 K Vobs + T Tdif : diffusion par la surface -Vsoleil -Vdif Tr - Ti fréquence d’occurrence de pollution par les alias Les points représentent la position su soleil dans le champ de vue de l’instrument : en vert, le soleil est éclipsé par la terre en jaunes, le soleil est éclipsé par MIRAS en rouge, le soleil se trouve effectivement dans le champ de vue de l’instrument On remarque alors que la présence de réplique du soleil dans le champ de reconstruction exploitable à cause des repliements. En bleu sont notés les points de réflexion spéculaire : pour une mer idéalement plate, on n’observerais pas de pollution par le reflet du soleil mais en tenant compte de la rugosité, on va voir qu’il aura pollution du champ de vue par ce reflet. Les simulations ont été effectué en ajoutant les contributions : de la scène observée du soleil direct dont la température varie au cours du cycle solaire de 11 ans de la diffusion par la surface en faisant intervenir les coefficient de réflexion bistatique qui caractérisent la rugosité. On simule les visibilités à partir de Tobs. Sur cette carte des erreurs on peut voir ici la contribution de l’alias d’environ 30K et la contribution du reflet d’une dizaine de K. Bruno PICARD 48 Vendredi 19 Novembre 2004

 Tobs = Tgéo + Tsoleil + Tdif Vobs + T -Vsoleil -Vdif I- Principe instrumental II- Fenêtrage III- Reconstruction IV - Auto- caractérisation V- Erreur Systématique VI - Applications 1. Le rayonnement solaire 2. Polarisation totale Vobs + T -Vsoleil -Vdif cas de référence : 1 2 0.210 K / 0.081 K 0.190 K / 0.331 K Erreur sur Tdif : erreur sur le vent (1.5 m/s,±20°) Des reconstructions ont été réalisées pour voir s’il était possible de retirer la contribution du soleil et de la diffusion. Pour cela, on simule des visibilités Vsoleil et Vdif à partir des distribution Tsoleil et Tdif. Pour le cas de référence ou l’on ne comment aucune erreur sur ces distributions, si ce n’est celle de la propagation du bruit radiométrique, il est possible de retirer complètement les contributions. Si une erreur est introduite dans le calcul de Tdif, en tenant compte d’une erreur typique de mesure du vent, l’erreur est légèrement augmentée dans la zone 2. 0.210 K / 0.105 K 0.190 K / 0.333 K Bruno PICARD 49 Vendredi 19 Novembre 2004

 Tobs = Tgéo + Tsoleil + Tdif Vobs + T -Vsoleil -Vdif I- Principe instrumental II- Fenêtrage III- Reconstruction IV - Auto- caractérisation V- Erreur Systématique VI - Applications 1. Le rayonnement solaire 2. Polarisation totale Vobs + T -Vsoleil -Vdif cas de référence : 1 2 0.210 K / 0.081 K 0.190 K / 0.331 K Erreur sur Tsoleil : Tsoleil + 10000 K (10%) Toutefois, lorsqu’une erreur de seulement 10% est commise sur l’estimation de Tsoleil, l’erreur de reconstruction est considérablement augmentée. 0.605 K / 0.880 K 0.814 K / 0.421 K Bruno PICARD 50 Vendredi 19 Novembre 2004

4 composantes de Stokes de la scène observée I- Principe instrumental II- Fenêtrage III- Reconstruction IV - Auto- caractérisation V- Erreur Systématique VI - Applications 1. Le rayonnement solaire 2. Polarisation totale 4 jeux de mesures instrumentales Passons maintenant à la reconstruction en mode de polarisation totale : jusqu’à présent, la température était reconstruite pour une polarisation donnée. Toutefois, lors de séquence déterminée à l’avance, il est possible de retrouver les 4 composantes de Stokes de la température de brillance d’après un jeu de 4 visibilités polarimétriques. Bruno PICARD 51 Vendredi 19 Novembre 2004

Rx Ry Cx Cy I- Principe instrumental II- Fenêtrage III- Reconstruction IV - Auto- caractérisation V- Erreur Systématique VI - Applications 1. Le rayonnement solaire 2. Polarisation totale Rx Ry Cx Cy Les dimensions du problèmes sont alors considérablement augmentées et à la place des gains d’antennes, on retrouve cette matrice qui fait intervenir les gain copolaires les gains crosspolaires. Comme on peut le voir, ces derniers sont d’un ordre de grandeur plus faibles que les gain copolaires, le couplage étant de l’ordre de -25dB. La matrice de modélisation a maintenant une allure majoritairement bloc diagonale. Pour juger de l’importance de ces élément hors diagonaux, des reconstructions ont été effectuées en considérant l’intégralité de la matrice G ou seulement ces 4 blocs diagonaux. Bruno PICARD 52 Vendredi 19 Novembre 2004

I- Principe instrumental II- Fenêtrage III- Reconstruction IV - Auto- caractérisation V- Erreur Systématique VI - Applications 1. Le rayonnement solaire 2. Polarisation totale Bruno PICARD 53 Vendredi 19 Novembre 2004

I- Principe instrumental II- Fenêtrage III- Reconstruction IV - Auto- caractérisation V- Erreur Systématique VI - Applications 1. Le rayonnement solaire 2. Polarisation totale 0.496 K 0.043 K 0.546 K 0.301 K 1.255 K 0.859 K 0.992 K 2.918 K On retrouve ici la carte des erreurs pour les 4 composantes et pour une reconstruction avec l’ensemble de la matrice. Lorsqu’on néglige les bloc hors diagonaux, l’erreur est considérablement augmentée. Bruno PICARD 54 Vendredi 19 Novembre 2004

Rx Ry Cx Cy I- Principe instrumental II- Fenêtrage III- Reconstruction IV - Auto- caractérisation V- Erreur Systématique VI - Applications 1. Le rayonnement solaire 2. Polarisation totale Rx Ry Cx Cy Les valeurs des gains cross polaire, et donc, les valeurs des blocs diagonaux dépendent de la qualité de l’isolation des éléments de l’antennes. On a cherché à estimer l’impact du relâchement la qualité de cette isolation, faisant passer le couplage de -25 à -10dB, + couplage = moins d’isolation = gain en masse Bruno PICARD 55 Vendredi 19 Novembre 2004

I- Principe instrumental II- Fenêtrage III- Reconstruction IV - Auto- caractérisation V- Erreur Systématique VI - Applications 1. Le rayonnement solaire 2. Polarisation totale 0.496 K 0.043 K 0.546 K 0.301 K 0.486 K 0.102 K 0.946 K 0.638 K La robustesse des méthodes régularisées font que, même si l’erreur de reconstruction augmente, elle reste sous contrôle lorsque couplage passe de -25 à -10 db. Bruno PICARD 56 Vendredi 19 Novembre 2004

Impact du rayonnement solaire Applications CONCLUSION Impact du rayonnement solaire pollution dues au repliement et au reflet première quantification des effets perspectives : caractérisation de l’étendue des zones polluées I- Principe instrumental II- Fenêtrage III- Reconstruction IV - Auto- caractérisation V- Erreur Systématique VI - Applications 1. Le rayonnement solaire 2. Polarisation totale Mode de polarisation totale importance des éléments bloc-diagonaux robustesse des méthodes régularisées perspective : instrument aux dimensions réalistes Bruno PICARD 57 Vendredi 19 Novembre 2004

amélioration possible des performances des fenêtres Conclusion amélioration possible des performances des fenêtres I- Principe instrumental II- Fenêtrage III- Reconstruction IV - Auto- caractérisation V- Erreur Systématique VI - Applications Conclusion importance de la régularisation implémentation pour un instrument réaliste comparaison des méthodes participation au groupe de travail ESA faisabilité pour un instrument réaliste caractérisation de l’erreur systématique proposition d’une méthode diminuant cette erreur étude de l’impact du rayonnement solaire faisabilité de la reconstruction full-pol Bruno PICARD 58 Vendredi 19 Novembre 2004

traitement de données réelles comparaison des méthodes Perspectives traitement de données réelles comparaison des méthodes lancement en 2007 I- Principe instrumental II- Fenêtrage III- Reconstruction IV - Auto- caractérisation V- Erreur Systématique VI - Applications Conclusion Bruno PICARD 59 Vendredi 19 Novembre 2004