La grande combinaison: problèmes et solutions Pourquoi les combinaisons ? Comment combiner ? Les problèmes techniques ? Les solutions possibles Prospectives.

Slides:



Advertisements
Présentations similaires
Corrélation Position du problème Définition covariance (X,Y) r =
Advertisements

Traitement d’images : concepts avancés
« Systèmes électroniques »
Gestion de portefeuille
Gestion de portefeuille
1 Modèles Economiques en Informatique Michel de Rougemont Université Paris II.
Cours 8 Problèmes de dynamiques : techniques de résolution pas-à-pas
Un exemple de système EDA d'index supérieur distillation réactive avec réactions chimiques instantanément équilibrées Dr. Karim Alloula (ingénieur informatique.
Inférence statistique
Les TESTS STATISTIQUES
Régression ou corrélation
Unité #2 Analyse numérique matricielle Giansalvo EXIN Cirrincione.
MODULE - METHODES POTENTIELLES Contenu du cours (par J.B. Edel & P. Sailhac) : I. Propriétés physiques des roches : densités, aimantations induites et.
Les TESTS STATISTIQUES
A Pyramid Approach to Subpixel Registration Based on Intensity
M. EL Adel & M. Ouladsine LSIS – UMR-CNRS 6168 Marseille - France
Connaissances Logiciel de géométrie dynamique Epreuve Expérimentale Série S 2007/08.
Modélisation des systèmes non linéaires par des SIFs
1 Analyse de la variance multivariée Michel Tenenhaus.
Problèmes aux limites Généralités
Chapitre VII :Commande par retour d’état
Application à la méthode des
L’objectif est de présenter
Un neurone élémentaire
Chapitre 2 Les indices.
Chaire UNESCO - Calcul numérique intensif
Journée thématique du GDR IFS « Réduction de modèle en IFS » ENSAM – Jeudi 18 mai 2006 Validation de l’approche de la réduction a priori - POD sur l'équation.
La Régression Multiple
Résolution des Équations Différentielles
Concepts avancés en mathématiques et informatique appliquées
Séminaire de lobjectif « forage et production » Beaune, les 26,27 et 28 Avril 2000 Outils danalyse statistiques « programmation par lexemple » S. Canu,
Régression linéaire simple
Rappel... Solution itérative de systèmes linéaires (suite et fin).
Optimisation non linéaire sans contraintes Recherche opérationnelle GC-SIE.
Optimisation-Identification et Cast3M
RECONNAISSANCE DE FORMES
Les analyses multivariées
La régression multiple
04/09/2002école d'été du GRGS1 LES EQUATIONS VARIATIONNELLLES Jean-Charles MARTY CNES/GRGS.
Régression linéaire (STT-2400)
L’adaptativité pour un solveur de l’équation de Vlasov
1 Une méthode itérative pour l'unfolding des données expérimentales, stabilisée dynamiquement(*) Bogdan MALAESCU LAL LLR 28/09/2009 (*arxiv: )
ASI 3 Méthodes numériques pour l’ingénieur
LA REGRESSION LINEAIRE
Probabilités et Statistiques Année 2010/2011
Extraction des paramètres cosmologiques par une approche multisonde
Chapitre 1 - Introduction.
Outils d’analyse: la méthode des moindres carrées
ASI 3 Méthodes numériques pour l’ingénieur
Localisation et identification des interactions neutrinos dans le détecteur OPERA. Carole HERITIER Journées Jeunes Chercheurs 2003 Directeurs de thèse.
1/16 Chapitre 3: Représentation des systèmes par la notion de variables d’état Contenu du chapitre 3.1. Introduction 3.2. Les variables d’état d’un système.
Méthode des moindres carrés (1)
Chapitre 7 Les équations différentielles d’ordre 1
Chapitre 7 Les équations différentielles d’ordre 1
Résolution des équations différentielles
Échantillonnage (STT-2000) Section 5 Types d’erreur de sondage. Version: 22 août 2003.
Régression linéaire (STT-2400)
Analyse des données. Plan Lien entre les statistiques et l’analyse des données Propagation des erreurs Ajustement de fonctions.
M.D., PNC, paramètres cosmo 18/01/ Paramètres cosmologiques par Combinaisons Marian Douspis (IAS), Alain Blanchard (LATT) Nabila Aghanim (IAS), Jim.
1 La mesure de l’énergie noire par les supernovae groupe RENOIR.
François Couchot, CPE-Lyon, 17 mai Masse des Neutrinos et CMB Extraits de la thèse d’Alexandre Bourrachot (sept. 2004) Problématique de la vraisemblance.
Julien Lesgourgues, LAPTH IAP, janvier 2006 accélération décélération lente décélération rapide inflationradiationmatièreénergie noire temps Extraction.
1 1 Licence Stat-info CM6 b 2004 V1Christophe Genolini Régression linéaire : problème On a les notes math et français suivantes : Un élève a 10 en math,
1_Introduction Toute mesure est entachée d’erreur. Il est impossible d’effectuer des mesures rigoureusement exactes. Pour rendre compte du degré d’approximation.
Tests relatifs aux variables qualitatives: Tests du Chi-deux.
Présentation de Séminaire
Tests relatifs aux variables qualitatives: Tests du Chi-deux.
Chapitre 4 Equations différentielles ordinaires à n variables.
Gestion de portefeuille Chapitre 5: Portefeuille efficient au sens de Markovitz.
Matlab (Matrix Laboratory) Langage de programmation évolué. Traitement direct d’opérations matricielles, dont l’inversion et l’analyse d’opérateurs ou.
Transcription de la présentation:

La grande combinaison: problèmes et solutions Pourquoi les combinaisons ? Comment combiner ? Les problèmes techniques ? Les solutions possibles Prospectives à Marseille et recommandations A. Tilquin/CPPM

Les problèmes de l'analyse multi-sondes et une ébauche de solutions Pourquoi une analyse multi-sondes? Dégénérescence des paramètres. Solutions usuelles: Réduction de l’espace des paramètres: Biais, car hypothèses nécessaires sur la valeur des paramètres fixés ou les modèles. Contraintes externes sur un paramètre (ou un couple):prior Perte d’information: corrélations. Biais: homogénéité des hypothèses.

Pourquoi une analyse multi-sondes?(2) Amélioration des erreurs statistiques Plus d’informations.  1/  N Corrélations orthogonales. Erreur plus faible que la simple section commune des ellipses (attention a la marginalisation) Control des erreurs systématiques (non statistique): Différentes suivant les sondes: systématiques expérimentales Cohérences des combinaisons: Systématiques théoriques. D’ou l’intérêt de combiner des sondes géométriques avec des sondes dynamiques Solution=combinaison

Comment combiner (1) Cas lineaire : Analyse de Fisher Calcul des erreurs: Définition: matrice de Fisher= dérivée seconde du  2, indépendante des points de mesure, car chi2 est toujours une forme quadratique:  2 =(x-x m ) 2 /  2 Erreur totale s’obtiens par la somme directe des matrices de covariance ou Fisher pour chaque sonde. Par définition, les erreurs sont gaussiennes et symétriques. La matrice de Fisher peut se calculer, soit par n(n+1)/2 dérivées seconde (nécessite  2 ), soit par n dérivées première (nécessite V -1,Jacobien)

Comment combiner (2) Contour et marginalisation Contour calculé par l’inverse de la sous matrice d’erreur. La marginalisation est par construction automatique et correspond soit a l’intégration, soit a la minimisation du chi2 sur les variables cachées Le contour est rigoureusement une ellipse Seulement valide quand le modèle théorique est linéaire. Ce qui n’est pas le cas en cosmologie.

Comment combiner (3) Recherche du minimum. La chaîne de Markoff: L’espace des paramètres est exploré sur une grille à pas variable, fonction de la probabilité de l’événement. Le minimum est trouve par interpolation. La taille de la chaîne de Markoff dépend de manière exponentiel du nombre de paramètres (max 7 ou 8) Le minimum est obtenu en résolvant   2 /   i =0 Équation matricielle. Calcul de Jacobien ou dérivée seconde du  2 Méthode itérative nécessitant une vingtaine d’itérations Évolution du nb d’itération%nb de paramètres Analyse rigoureuse: Methode frequentist ou Bayesian Basee sur le likelihood ou le  2 :

Comment combiner (4) Calcul des erreurs, contours et marginalisation: Résolution de l’équation  2 =  2 min +s 2 La marginalisation du  2 est obtenue soit par: Intégration du  2 sur les variables cachées: erreur ou contour moyen (prévision, MC) Minimisation sur les variables cachées: Erreur ou contour le plus probable (mesure). Rem: On peut montrer que les 2 méthodes sont équivalentes si on n’utilise pas de randomisation expérimentale. On choisira donc la méthode de minimisation qui est numériquement moins lourde que l’intégration. Habituellement le contour est construit en calculant le  2 sur une grille de points (minimum 20*20) et les iso-  2 sont obtenu par interpolation ou fit d’un polynôme.

Le problème principal Estimation des temps calcul en unité de temps calcul de  2 (t c =10s pour CMB, CPU= 1Ghz) pour n paramètres. Calcul de la matrice d’erreur: n(n+1)/2 dérivées seconde= 3n(n+1)/2 chi2 Pour 8 paramètres ->T = 1/4 heure Calcul du minimum: n(n+1)/2 dérivées seconde=3n(n+1)/2 chi2 20 itérations: T=30n(n+1) t c Pour 8 paramètres -> T=6 heures Contour: 20*20 minimisation sur n-2 paramètres: T=400*20*3(n-2)(n-1)/2*t c Pour 8 paramètres ->T=1400 heures =58 jours !!! Sur un processeur. Tous les contours = 8*9/2*58 = 6 ans !!!!

Les problèmes secondaires Chaque sonde est une analyse en soit et nécessite (au moins) un expert: Compréhension de la physique. Choix du modèle théorique. Compréhension des paramètres de mesure lies aux paramètres cosmologiques Extraction des observables physiques (Hubble, Cl, pk..) Erreur statistique et systématique expérimental Chaque sonde a ses propres conventions, hypothèses, langages.. Il semble actuellement difficile, au vue de toute les communautés en présence, de trouver un standard !!

Solutions possibles(1) Minimisation et calcul des erreurs gaussienne: Méthode directe (dérivée seconde du  2 numérique) : pas de parallélisme. Minimum en 1minute -> 360 processeurs Méthode des gradients (Jacobien) : pas de parallélisme. Minimum en 1minute -> 40 processeurs NN interpolation (ou autre): semi-parallélisme Étude en cours…Facteur 5 en nb chi2 semble possible Construction d’un contour: Parallélisme : (unité = calcul du chi2) Contour en 1 heure -> 1400 processeur ! (DATA GRID) Réseau de neurones: interpolation Facteur 10 et parallélisable ->140 processeur (PC cluster) Méthode des gradients Contour en quelques minutes avec 100 PC à 3 Ghz.

Inhomogénéité des programmes: Utilisation des soft publics (sans modification) Option minimum : paramètres cosmologiques ->  2 Option optimum : paramètres cosmologiques ->  2, Jacobien,données (Cl) expérimentales et erreur. Interface graphique kosmoshow like pour chaque sonde Modifications des paramètres/erreurs/simulation etc.. Solutions possible(2)

Solution graphique

Example d’application (si  2 ok) ii Minimum finder kk ContourPlot  2 CMB SN WL MPI PC clusterData GRID Plot Monitor BO

Organigrame general. Modèle Cosmologique (  k ) Analyse, de convolution Observables Physique C l (  k ) Observables Physique(C l,P k,m) Erreurs expérimentales Simulation, Résolution numérique Observation C l,J ClCl V -1 NON 22

Conclusions et perspectives Combinaisons nécessaires pour répondre a la question de l’énergie noire. Problèmes techniques important (temps calcul) Solutions existent, mais important travail nécessaire Chaque sonde doit essayer: Donner le chi2 (L), le Jacobien, les données mesurées. Éviter d’utiliser les paramètres cosmologique dans l’extraction des paramètres physiques. Il est nécessaire de convenir assez vite d’une stratégie commune.

La methode generale Methode du  2 : Tant que les erreurs de mesure sont gaussiennes, le  2 est un bon estimateur, meme si le modele cosmologique n’est pas lineaire (a la condition de se ramener a la definition du  2 comme forme quadratique des mesures experimentales). Requierement: Chaque sonde, doit au minimum donner un  2 (  i ). Pour chaque sonde, le chi2 est obtenu soit par simulation, soit par resolution numerique d’equation differentiel couplee, soit par multiple integration: temps calcul Le chi2 total est la somme des chi2 individuels Le minimum est obtenu en resolvant numeriquement d(chi2)/d(omega_i)=0 (methode des gradiants) L’erreur est calculee au minimun soit par: Analyse de Fisher (erreur approximative) Resolution de l’equation chi2 = chi2_min+s2