RECONNAISSANCE DE FORMES

Slides:



Advertisements
Présentations similaires
Valeurs Propres et Vecteurs Propres
Advertisements

3. Variantes de l’algorithme
Cours 5-b Problèmes spatio-temporels d’ordre 1 en temps
Soizic Geslin Samy Fouilleux Minh Le Hoai Maxime Chambreuil
C1 Bio-statistiques F. KOHLER
1 Réunion biblio 13/12/00 Support Vectors Présentation générale SSS Maintaining Algorithm.
M. EL Adel & M. Ouladsine LSIS – UMR-CNRS 6168 Marseille - France
Chapitre VII :Commande par retour d’état
PROGRAMMATION SCIENTIFIQUE EN C
Analyse en Composantes Principales
PROGRAMMATION SCIENTIFIQUE EN C
Rappel... Sous-espaces de Rn: Définition;
Les principaux résumés de la statistique
ASI 3 Méthodes numériques pour l’ingénieur
Programmation linéaire
Concepts avancés en mathématiques et informatique appliquées
Chapitre 2 : Filtrage Professeur. Mohammed Talibi Alaoui
Examen partiel #2 Mercredi le 15 novembre de 13h30 à 15h20
Rappel... Solution itérative de systèmes linéaires (suite et fin).
RECONNAISSANCE DE FORMES
DEA Perception et Traitement de l’Information
RECONNAISSANCE DE FORMES
Examen partiel #3 Mercredi le 15 décembre de 15h30 à 17h20
Courbes de Bézier.
La corrélation et la régression multiple
RECONNAISSANCE DE FORMES
PROGRAMMATION SCIENTIFIQUE EN C
PROGRAMMATION SCIENTIFIQUE EN C
PROGRAMMATION SCIENTIFIQUE EN C
PIF-6003 Sujets spéciaux en informatique I
Pr. M. Talibi Alaoui Département Mathématique et Informatique
Régression linéaire (STT-2400)
Technique de points de contrôle: Formes de Bézier
Régression linéaire (STT-2400)
Méthodes de prévision (STT-3220)
l’algorithme du simplexe
Cours du 25 octobre Mardi le 24 octobre
Rappel... Diagonalisation. Transformations linéaires.
La décomposition en valeurs singulières: un outil fort utile
Méthodes de Biostatistique
ASI 3 Méthodes numériques pour l’ingénieur
Rappel... Valeurs propres et vecteurs propres. Définitions;
L’endomorphisme le plus simple est l’ homothétie
ASI 3 Méthodes numériques pour l’ingénieur
Programmation linéaire en nombres entiers
STATISTIQUES DESCRIPTIVES
Micro-intro aux stats.
Intervalles de confiance pour des proportions L’inférence statistique
TNS et Analyse Spectrale
7.4 VECTEURS PROPRES Cours 22. Au dernier cours nous avons vus ✓ Les cisaillements ✓ Les projections orthogonales ✓ Les projections obliques.
Sujets spéciaux en informatique I
Chapitre 1 - Introduction.
PROGRAMMATION SCIENTIFIQUE EN C PRO Résolution de système d’équations non- linéaires (racines d’équations) u Méthode de la bissection u Analyse.
Méthode des moindres carrés (1)
Rappels sur les fonctions et les suites aléatoires
Analyse de données Cours 3 Analyse en composantes principales (ACP)
Structure de groupe Def: un groupe est un ensemble (G,*) où
PROGRAMMATION SCIENTIFIQUE EN C PRO Approximation de fonctions et régression u Introduction –Analyse de la corrélation –Régression et méthode des.
Systèmes formels 1. Définition d'un SF Morphologie Théorie propre
2. Méthode du simplexe et son analyse.
Concepts avancés en mathématiques et informatique appliquées MAP-6014.
STT-3220 Méthodes de prévision Section 1 Évaluation des prévisions: Coefficient de Theil Version: 9 septembre 2004.
STATISTIQUES.
PROGRAMMATION SCIENTIFIQUE EN C PRO Approximation de fonctions et régression u Approximation linéaire –Méthode du moindre carré u Exemple.
3. Variantes de l’algorithme
1. Méthode du simplexe et son analyse.
PROGRAMMATION SCIENTIFIQUE EN C
LES POSTULATS DE LA MÉCANIQUE QUANTIQUE
Chapitre 4 Equations différentielles ordinaires à n variables.
Transcription de la présentation:

RECONNAISSANCE DE FORMES IAR-6002

Extraction des caractéristiques Introduction Extraction des caractéristiques

Introduction L’extraction consiste à trouver un espace des caractéristiques de dimension d à partir d’un espace original de D caractéristiques La compression de l’information est accomplie par la projection des caractéristiques originales dans un espace de dimension inférieure et ce en éliminant la redondance de l’information Cette projection prend la forme: x = A(y)

Introduction Processus de projection de l’ensemble des caractéristiques originales dans un autre espace de caractéristiques de dimension inférieure

Introduction Si la fonction de projection A est linéaire, nous cherchons alors un extracteur de caractéristiques où A est une matrice D X d, permettant la projec-tion d’un vecteur y (dimension D) sur un vecteur x (dimension d) et dont la forme est:

Extraction des caractéristiques Analyse en composante principale Ce type de méthode est aussi appelée Transformée discrète de Karhunen-Loève Transformée de Hotelling Transformée en vecteurs propres Cette méthode permet de déduire une transforma-tion linéaire permettant d’éliminer la corrélation entre les composantes d’un vecteur de variables aléatoires

Extraction des caractéristiques Analyse en composante principale Si nous avons une population (n observations) de vecteurs aléatoires (D dimensions) de la forme: Avec comme vecteur moyenne Avec une matrice de covariance

Extraction des caractéristiques Analyse en composante principale Si nous avons une matrice A définissant une trans-formation linéaire pouvant générer un nouveau vecteur x à partir d’un vecteur y par: A est construite de telle façon que ses rangées sont les vecteurs propres de Cy

Extraction des caractéristiques Analyse en composante principale Le vecteur x est aléatoire de moyenne 0 (mx = 0) La matrice de covariance de x découle de: Le vecteur x est donc composé de variables aléatoires non corrélées k est la variance de xk La transformation A élimine donc la corrélation entre les composantes du vecteur y

Extraction des caractéristiques Analyse en composante principale Cette transformation est aussi réversible: A est symétrique

Extraction des caractéristiques Diminution de la dimension du vecteur y Nous pouvons réduire la dimension du vecteur y de D-M (nombre de caractéristiques) en ignorant les vecteurs propres correspondant aux D-M plus faibles valeurs propres Si nous avons la matrice B de M X D (M < D) découlant de l’élimination des D-M rangées inféri-eures (classée en ordre croissant d’importance) de A

Extraction des caractéristiques Réduction de la dimension du vecteur y En guise de simplification nous supposons que m = 0 Le vecteur x transformé est alors donné par: Le vecteur y est reconstitué approximativement par:

Extraction des caractéristiques Réduction de la dimension du vecteur y L’erreur quadratique moyenne de l’approximation est:

Extraction des caractéristiques Recherche des valeurs et vecteurs propres Cherchons les valeurs et les vecteurs propres associés à une matrice Cy (matrice variance-covariance) Si nous avons une matrice Cy de D x D nous pouvons écrire Où v est un vecteur propre de Cy et  une valeur propre de Cy

Extraction des caractéristiques Recherche des valeurs et vecteurs propres Si nous avons une matrice Cy de D x D nous pouvons écrire Par définition, pour que  soit une valeur propre il faut que la solution v de la dernière équation soit non nulle. Pour que v soit non nulle il faut que

Extraction des caractéristiques Recherche des valeurs et vecteurs propres Si nous considérons un cas d’ordre 3, nous obtenons Le déterminant donne

Extraction des caractéristiques Recherche des valeurs et vecteurs propres Lorsque nous avons les valeurs propres, nous les substituons une à une dans (Cy-I) v = 0 pour trouver les vecteurs propres v

Extraction des caractéristiques Recherche des valeurs et vecteurs propres Exemple

Extraction des caractéristiques (principes)

Extraction des caractéristiques (exemple en télédétection)

Extraction des caractéristiques (exemple en télédétection)

Extraction des caractéristiques (exemple en télédétection) Les 2 premières composan- tes contribuent pour 94 % de la variance totale