INTELLIGENCE ARTIFICIELLE

Slides:



Advertisements
Présentations similaires
RECONNAISSANCE DE FORMES
Advertisements

Sujets spéciaux en informatique I PIF Approches non-paramétriques u Technique de classification NN u Technique de classification k-NN u Erreurs.
Concepts avancés en mathématiques et informatique appliquées MAP-6014.
Atelier 1 Le problème du surpoids sur géogébra. Etude de la prévalence du surpoids: (document Ressources pour la classe de terminale) Situation: On souhaite.
TP 7 : UNE PROPRIÉTÉ DES ONDES, LA DIFFRACTION BUSQUET Stéphane LENNE Karl-Eric TS Physique-Chimie.
Comparing color edge detection and segmentation methods Projet TIM.
I) mesure et erreurs de mesure 1) le vocabulaire à connaitre
Chapitre 6. Introduction à l’échantillonnage Les sondages Notions fondamentales Fluctuations d’échantillonnage d’une moyenne Théorème central limite C6-1.
Présentation  Objectif : Une initiation au « Machine learning ».  Comprendre et assimiler les différentes techniques permettant d’indexer ou de classifier.
Les rprésentation des signaux dans le cadre décisionnel de Bayes Jorge F. Silva Shrikanth S. Narayanan.
Outils de Recherche Opérationnelle en Génie MTH 8414
Chapitre 4 : Masse et volume
Analyse, Classification,Indexation des Données ACID
COMPLÉMENTS SUR LES MARÉES
Pas de variable globale
Les notions de classe et d'objet
Chapitre 4: Variation dans le temps
Entraînement et évaluation d’une méthode de régression
Détermination des propriétés texturales d’un solide poreux par traçage
Université Abou Bakr Belkaid Faculté des Sciences Département d’informatique Algorithmique Avancée et Complexité Chap5: Les méthodes de résolution exactes.
Évaluation 2010 des acquis des élèves de CM2 en français et en mathématiques Claude MOINE Chargé de mission SI1D 01/10.
Le point de partage d’un segment
Technologies de l’intelligence d’affaires Séance 11
Université Abou Bakr Belkaid Faculté des Sciences Département d’informatique Algorithmique Avancée et Complexité Chap7: Les méthodes de résolution exactes.
Technologies de l’intelligence d’affaires Séance 12
République Algérienne Démocratique et Populaire Ministère de l'Enseignement Supérieur et de la Recherche Scientifique Université Saad.
Techniques du Data Mining
Concepts avancés en mathématiques et informatique appliquées
INTELLIGENCE ARTIFICIELLE
INTELLIGENCE ARTIFICIELLE
Chapitre 6: Réduction de dimensionnalité paramétrique
INTELLIGENCE ARTIFICIELLE
La méthode du simplexe. 1) Algorithme du simplexe  Cet algorithme permet de déterminer la solution optimale, si elle existe, d’un problème de programmation.
ACP Analyse en Composantes Principales
Pierre Dumouchel 20 juillet 2009
Techniques du Data Mining
Calculs des incertitudes Lundi 30 Avril 2018 Master de Management de la Qualité, de la Sécurité et de l’Environnement.
Royaume de Maroc Université Hassan Premier Settat Faculté des Sciences et Techniques de Settat LA CLASSIFICATION K-MEANS SOUS R /MATLAB Master :Automatique.
Activités Mentales Classe 5e Test n°2.
Les méthodes non paramétriques
CHAPTER 2: Apprentissage supervisé
Arbres de décision.
CHAPITRE 5: Méthodes multivariables
CHAPTER 10: Discrimination Linéaire
La construction de l’espace chez l’enfant
Présentation 3 : Sondage aléatoire simple
Centre d’études et de recherches sur les qualifications
Sujets Spéciaux en informatique II
Reconnaissance de formes: lettres/chiffres
Contribution du LHyGeS
Moteurs de recherches Data mining Nizar Jegham.
CSI 3505 Algorithmes Voraces
Les erreurs de mesure Projet d’Appui au renforcement des capacités
INTELLIGENCE ARTIFICIELLE
Programme d’appui à la gestion publique et aux statistiques
Introduction à Python.
INTELLIGENCE ARTIFICIELLE
PROGRAMMATION SCIENTIFIQUE EN C
INTELLIGENCE ARTIFICIELLE
Tableau de bord d’un système de recommandation
Contenu Introduction à Python
INTELLIGENCE ARTIFICIELLE
PROGRAMMATION SCIENTIFIQUE EN C
Laboratoire 3 Implémentation d’un classifieur bayésien
INTELLIGENCE ARTIFICIELLE
Système de Numération : Décimal, Binaire, Octal et Hexadécimal
Codification et représentation de l’information Enseignant: Mahseur mohammed Groupe FB: mi2016ua1 Chaine YT: Cours informatique.
STATISTIQUE INFERENTIELLE LES TESTS STATISTIQUES.
Outils de Recherche Opérationnelle en Génie MTH 8414
Transcription de la présentation:

INTELLIGENCE ARTIFICIELLE IAR-1001

Approches d’apprentissage non-paramétriques (supervisées) Technique de classification NN Technique de classification k-NN Exemple d’implémentation en python (voir le site: https://machinelearningmastery.com/tutorial-to-implement-k-nearest-neighbors-in-python-from-scratch/ ) LECTURES: Chapitres 18 Russell & Norvig Notes de cours (site ftp UQTR)

Technique de classification NN La technique du voisin le plus proche nous permet d’éviter le problème de calcul des probabilités En fait, nous classons une observation x inconnue dans la classe la plus proche (NN), ou à l’observation la plus proche dans les données d’entraînement Chaque donnée d’entraînement (exemple) est représentée par un vecteur de caractéristiques xi et une étiquette yi, donc l’ensemble des n données d’entraînement est représenté par: {(x1, y1), (x2, y2), …. (xn, yn)}

Technique de classification NN Nous devons alors déterminer l’observation de référence la plus proche. La distance Euclidienne permet de déterminer la distance entre une observation à classer et l’observation de référence la plus proche et est donnée par:

Technique de classification NN Autres distances Différence absolue Distance maximale Minkowski

Technique de classification NN Exemple de classification NN NN 3-NN

Technique de classification k-NN Une généralisation de la technique NN consiste à associer la classe Ci à une observation x dont font partie une majorité des k voisins les plus proches de x Si nous utilisons 3 voisins, l’observation de l’exemple précédent sera classée dans B puisque 2/3 voisins appartiennent à B 

Technique de classification k-NN Algorithme K-NN Étant donnée une entrée inconnue x 

Technique de classification k-NN Exemple d’utilisation de l’algorithme 3-NN Classification de caractères "e" et "o" Représentation des données d’entraînement sous forme de vecteur correspondant à l’image binaire linéarisée d’un exemple de caractère (ex:   "e")

Technique de classification k-NN Exemple d’utilisation de l’algorithme 3-NN Classification de caractères "e" et "o": Données d’entraînement (100/classe) Classe "o" Classe "e"

Technique de classification k-NN Exemple d’utilisation de l’algorithme 3-NN Classification de caractères "e" et "o": exemple de classification d’un "o" 3/3 "o" "o" "o" "o" "o" 3 plus proches voisins Nouvelle donnée

Technique de classification k-NN Exemple d’utilisation de l’algorithme 3-NN Classification de caractères "e" et "o": exemple de classification d’un "e" 2/3 "o" ? "o" "e" "o" "o" 3 plus proches voisins Nouvelle donnée

Technique de classification k-NN Exemple d’utilisation de l’algorithme 3-NN Classification de caractères "e" et "o": exemple de classification d’un "e" après avoir ajouté d’autres exemples de "e" et "o" 2/3 "e" "e" "e" "e" "o" 3 plus proches voisins Nouvelle donnée

Technique de classification k-NN Comportement de l’erreur de classification (ex: 2 classes) en comparaison avec l’approche de Bayes Plus le nombre de voisins k est grand plus le taux d’erreur s’approche de celui de l’approche de Bayes Donc pour améliorer le taux de bonnes classifications Choisir un k plus grand Augmenter le nombre d’exemples

Exemple d’implémentation en Python Classification de 3 espèces d’iris (setosa, versicolor, virginica) basée sur la largeur (cm) et longueur (cm) des pétales et sépales donc 4 caractéristiques

Exemple d’implémentation en Python Classification de 3 espèces d’iris (jeu de données)

Exemple d’implémentation en Python Étapes d’implémentation: Traitement des données: Accéder au jeu de données (fichier CSV) et séparation des données en deux sous-ensembles: données d’entraînement et données de test Calcul de similarité: Calcule la distance entre 2 instances (2 vecteurs de 4 composantes) de données. Voisins: Localisation de k instances les plus proches dans l’espace des données d’entraînement Réponse: Générer une réponse (classe d’appartenance) à partir des k plus proches voisins trouvés Précision: Estimation de la précision de la prédiction. Main(): Réunir ces composantes

Exemple d’implémentation en Python Traitement des données: Lecture des données et création des ensembles de données d’entraînement et de test

Exemple d’implémentation en Python Traitement des données: Lecture des données et création des ensembles de données d’entraînement et de test

Exemple d’implémentation en Python Calcul de la similarité: Pour déterminer la classe d’appartenance d’une observation inconnue de l’ensemble des données de test, nous devons calculer la similarité de cette observation avec les k instances les plus proches dans les données d’entraînement et ensuite déterminer la classe d’appartenance majoritaire des k instances les plus proches (distances) Sachant que les 4 mesures utilisées pour caractériser les fleurs sont numériques et de même unité (cm), la distance Euclidienne peut alors être utilisée directement

Exemple d’implémentation en Python Calcul de la similarité: Exemple d’appel (dimension 3)

Exemple d’implémentation en Python Voisins: La measure de distance permet de sélectionner les k instances (ensemble d’entraînement) les plus similaires à une instance inconnue (ensemble de test) En calculant la distance entre l’instance inconnue et celles de l’ensemble d’entraînement il est ensuite possible de sélectionner un sous-ensemble de k instances les plus proches dans l’espace d’entraînement La fonction getNeighbors  retoune k voisins les plus proches (similaires) dans l’ensemble d’entraînement d’une instance inconnue dans l’ensemble de test (utilisant la fonction euclideanDistance)

Exemple d’implémentation en Python Voisins: La fonction getNeighbors: Exemple d’appel

Exemple d’implémentation en Python Réponse Après avoir trouver les voisins d’une observation inconnue, il faut déterminer la classe d’appartenance majoritaire de ces k voisins Chaque voisin est alors classé selon sa classe d’appartenance, la classe majoritaire devient donc la réponse, la prédiction La fonction getResponse(neighbors) détermine la classe majoritaire des k voisins. Cette fonction considère que la classe est le dernier attribut de chaque voisin

Exemple d’implémentation en Python Réponse

Exemple d’implémentation en Python Précision L’évaluation de la précision du modèle est basée sur le calcule du ratio du total de prédictions correctes/total des prédictions faites: la précision de la classification La fonction getAccuracy fait la somme du nombre total de bonnes prédictions et retourne le % de bonnes classifications

Exemple d’implémentation en Python Main()

Exemple d’implémentation en Python Main() ….

Exemple d’implémentation en Python Main() ….

Exemple d’implémentation en Python Main() ….