Jérémie Mary Mail : Independant Component Analysis Problème : On observe grâce à plusieurs capteurs des sources qui sont « mélangées ». Le.

Slides:



Advertisements
Présentations similaires
Corrélation Position du problème Définition covariance (X,Y) r =
Advertisements

Cours d‘Analyse de Données
Traitement d’images : concepts avancés
Analyse en composante indépendante
Comment décimer les sons numériques
Soizic Geslin Samy Fouilleux Minh Le Hoai Maxime Chambreuil
C1 Bio-statistiques F. KOHLER
Comparaison de deux moyennes observées
Inférence statistique
Les TESTS STATISTIQUES
Unité #2 Analyse numérique matricielle Giansalvo EXIN Cirrincione.
Les TESTS STATISTIQUES
3. Analyse et estimation du mouvement dans la vidéo
Les Tests dhypothèses. 1)Définition Un test cest une méthode qui permet de prendre une décision à partir des résultats dun échantillon.
Échantillonnage-Estimation
Corrélations et ajustements linéaires.
M. EL Adel & M. Ouladsine LSIS – UMR-CNRS 6168 Marseille - France
Les tests d’hypothèses
Régression -corrélation
Modélisation des systèmes non linéaires par des SIFs
Présenté par : MOHSEN BEN HASSINE
Chapitre VII :Commande par retour d’état
Chapitre 2 Les indices.
QTLmap et les données ayant une distribution non gaussienne
Septième étape : travailler avec des graphes probabilistes
Les lois des probabilités
ASI 3 Méthodes numériques pour l’ingénieur
Concepts avancés en mathématiques et informatique appliquées
Régression linéaire simple
La segmentation
Plan d’expérience dynamique pour la maximisation
Optimisation non linéaire sans contraintes
DEA Perception et Traitement de l’Information
Fonction exponentielle: enchaînement de théorèmes
Méthode des Ensembles de Niveaux par Eléments Finis P1
Modeles non-lineaires
Courbes de Bézier.
La corrélation et la régression multiple
La corrélation et la régression
Prédiction multi-step de la volatilité : le modèle ARIMA-GARCH appliqué aux séries temporelles d’affaiblissement par la pluie sur les liaisons Terre-Satellite.
Optimisation-Identification et Cast3M
RECONNAISSANCE DE FORMES
Extraction Automatique de formes complexes : Application à la création de modèle anatomique de la tête J. Piovano, T. Papadopoulo Séminaire Odyssee 9,
Filtrage de Kalman et aperçu probabiliste
Régression linéaire (STT-2400)
ASI 3 Méthodes numériques pour l’ingénieur
La décomposition en valeurs singulières: un outil fort utile
ASI 3 Méthodes numériques pour l’ingénieur
Rappel... Valeurs propres et vecteurs propres. Définitions;
Electrostatique- Chap.2 CHAPITRE 2 CHAMP ELECTROSTATIQUE Objectif :
ESTIMATION 1. Principe 2. Estimateur 3. Distribution d’échantillonnage
STATISTIQUES – PROBABILITÉS
Probabilités et Statistiques Année 2010/2011
Chapitre 3: Variables aléatoires réelles continues
TNS et Analyse Spectrale
Probabilités et Statistiques
Étude de l’écoulement moyen
Chapitre 1 - Introduction.
Probabilités et Statistiques Année 2009/2010
Recherche de motifs par projections aléatoires
Méthode des moindres carrés (1)
Rappels sur les fonctions et les suites aléatoires
Mais quel est donc le taux d’inflation actuel ? J.C. Lambelet et D. Nilles Catherine Roux Alvaro Aparicio Gregor Banzer Daniel Cavallaro.
Chapitre 4 Variables aléatoires discrètes
Rappel de statistiques
Concepts avancés en mathématiques et informatique appliquées MAP-6014.
Pierre Joli Cours de Mathématique Pierre Joli
ECHANTILLONAGE ET ESTIMATION
UED SIM – Département OLCI Année Arts & Métiers ParisTech CER ANGERS Probabilités et statistiques Cours n° 2.
TP1: Statistique application chapitre 2. Le tableau suivant reprend le taux d'intérêt (en %) payé par 20 banques sur les dépôts d'épargne de leurs clients.
Transcription de la présentation:

Jérémie Mary Mail :

Independant Component Analysis Problème : On observe grâce à plusieurs capteurs des sources qui sont « mélangées ». Le mélange à lieu par lintermédiaire dune matrice inconnue : la matrice de mélange.

Exemple dacquisition Problème : Deux micros enregistrant une personne parlant dans la rue. Objectif : isoler la parole des sons parasites.

Signal après Traitement Utilisation de FastICA And taken by light in her arms at long and dear last I may without fail Suffer the first vision that set fire to the stars. Dylan Thomas – Deaths and Entrances

Indépendance Deux variables aléatoires X et Y sont indépendantes ssi : P(X=x et Y=y) = P(X=x). P(Y=y) définition inutilisable directement Des variables indépendantes sont toujours décorrélées (covariance nulle) attention, l'inverse n'est pas toujours vrai : E(XY) – E(X) E(Y) = 0 => Permet une simplification de la recherche des composantes mais peu intéressante en pratique car il existe trop de possibilités de décorréler des variables.

Theorem Central Limit Soit (X n ) une suite de variables aléatoires indépendantes identiquement distribuées, appartenant à L² (i.e. possédant une variance finie). On pose : Alors la suite (Y n ) converge en loi vers une variable aléatoire de loi N(0,1) (la loi normale centrée réduite). En d'autres termes :

ICA : Principe Les sommes de variables aléatoires indépendantes ont tendance à devenir gaussiennes (cf TCL). Lidée est de rechercher des sources les moins gaussiennes possibles. En effet un mélange étant une combinaison de plusieurs sources supposées indépendantes, le mélange à tendance à être plus proche dune gaussienne que les sources. Il faut donc un critère pour mesurer la « gaussiannité » dune variable aléatoire. Tests dadéquation Kurtosis Negentropie Minimisation de linformation mutuelle Attention, dans le cas ou les sources sont elles mêmes gaussiennes cette technique est complètement inadaptée (à lheure actuelle avec lICA, ont sait traiter les cas ou une seule des sources est gaussienne)

Kurtosis Le kurtosis dune variable aléatoire X est défini par : Kurt(X)=E(X 4 ) - 3E(Y²) 2 Si X et Y v.a. indépendantes, Kurt(X+Y) = Kurt(X)+Kurt(Y) Kurt(α X) = α 4 Kurt(X) Le kutosis dune variable gaussienne est 0. Kurt > 0 : supergaussian Kurt < 0 : subgaussian

Kurtosis en pratique Le but est de trouver linverse de la matrice de mélange pour identifier les sources. On procède source par source. On note x le vecteur des observations (micros) On cherche un vecteur w tel que : s=w T x ait le kurtosis le plus différent de 0 possible On part dun vecteur w pris au hasard On calcule la direction ou le kurtosis croit le plus vite sil est positif ou décroit le plus vite sil est négatif. Par des technique de type « gradient », on peut trouver un optimum local. On a alors identifié une source. On recommence… Problème lestimateur du kurtosis sur un échantillon est très sensible aux points aberrants, ce qui en fait une mesure peu robuste de la non- gaussianité

Negentropie Lentropie (mesure du bordel) dune variable aléatoire est définie par : Une variable aléatoire gaussienne à lentropie la plus grande parmis toutes les variables aléatoires possédant la même variance. On définit donc la negentropie pour caractériser le caractère non gaussien dune variable par : ou y gauss est une variable gaussienne de même covariance que y. Difficile a estimer (il faut une estimation de la fonction de répartition)

Estimation de la Negentropie Classiquement (Jones et Sibson, 1987) : J(y) 1/12 E(y 3 ) 2 + 1/48 kurt(y) 2 => mêmes problèmes que le kurtosis Existe des estimateurs robustes (Hyvarinen 1998) : J(y) (E[G(y)] - E[G(υ)] ) 2 avec υ suivant une N(0,1) et G une fonction bien choisie : G 1 (y) = y 4 on retrouve lestimateur classique G 2 (y) = 1/a log ( cosh (a y)) avec 1 < a < 2 G 3 (y) = - exp(-y²/2)

Préprocessing Centrage des données (pour simplifier lécriture des algorithmes), consiste simplement à soustraire aux données leur moyenne aux données (composante par composante). Whitening (blanchiment), il sagit dune transformation linéaire des données acquises x pour obtenir un vecteur de données x non corrélées et de variance 1. i.e. E(xx T ) = I Une technique possible est décrire la matrice de covariance E(xx T ) et de la diagonaliser. E(xx T ) =EDE T avec E matrice orthonormale et D diagonale. On prend alors x=E D -1/2 E T x Lintérêt est que la matrice de mélange dans le nouvel espace est forcément orthogonale (seulement n(n-1)/2 degrés de liberté ). On peut également en profiter pour supprimer les petites valeurs propres, ce qui réduit souvent le bruit dans les données. Application de filtres… Très important si on a des idées sur ce que lon cherche. En particulier penser à utiliser des filtres passe bande si on a affaire à des signaux temporels pour les quels on a une idée de la fréquence des sources.

FastICA pour une seule source But : trouver s=w T x soit le moins gaussien possible. La mesure utilisée est lapproximation de la negentropie avec une fonction G. On note g la dérivée de G. Choisir un vecteur w (par exemple au hasard) Poser w + = E(x g(w T x) ) – E(g(w T x)) w Poser w = w + / || w + || Convergence ? non oui fin

FastICA pour lidentification de plusieurs sources Si on se contente de lancer plusieurs fois loptimisation a partir de positions aléatoires de w, on risque de trouver plusieurs fois la même source. Pour éviter cela, on décorrèle les w i pendant leur recherche. Approche par déflation ci contre Existe une méthode symétrique qui ne privilégie pas les premiers vecteurs Choisir les w i (par exemple au hasard) Poser w i + = E(x g(w i T x) ) – E(g(w i T x)) w i Poser w i = w i + / || w i + || Convergence ? non oui fin Poser w i+1 = w i+1 – Σ j=1..p w T i+1 w j w j Normaliser wi

Analyse du cerveau Données brutes :

Débruitage dimages On découpe limage en série de petites fenêtres qui seront considérées comme étant les observations. On extrait les composantes indépendantes puis on procède par seuillage (on enlève ainsi les bruits gaussiens) : Image initialeImage bruitée Débruitage ICADébruitage « standard »

Limitations actuelles Il faut a peu près autant de capteurs que de sources dans les données. Impossible à partir dun seul capteur. Ne sert à rien si les données sont constituées de mélanges de gaussiennes. (dans de cas utiliser EM) Grosses difficultés si le mélange nest pas linéaire ou que la matrice de mélange est dynamique (évolue au cours du temps)

Main Sources FastICA home page Vigário, R., Jousmäki, V., Hämäläinen, M., Hari, R., and Oja, E. (1998). Independent component analysis, for identification of artifacts in magnetoencephalographic recordings. In Advances in Neural Information, Processing Systems, volume 10, pages 229–235.MIT Press. Aapo Hyvärinen and Erkki Oja, Independent Component Analysis:Algorithms and Applications, Neural Networks, 13(4-5): , 2000 Hyvärinen, A. (1999d). Sparse code shrinkage: Denoising of nongaussian data by maximum likelihood estimation.Neural Computation, 11(7):1739–1768.