Réseaux bayésiens pour la recommandation au sein d’un configurateur Anr BR4CP Mathieu Serrurier IRIT.

Slides:



Advertisements
Présentations similaires
STATISTIQUE INFERENTIELLE L ’ESTIMATION
Advertisements

Recherche de motifs par méthodes exploratoires: Comparaisons de performances et statistiques sur le score.
Apprentissage supervisé à partir de séquences
Localisation fine de QTL par déséquilibre de liaison Simon BOITARD Durée : octobre 2003-septembre 2006 Laboratoire : BIA (biométrie et intelligence artificielle)
Chapitre 5. Description numérique d’une variable statistique.
TER Visualisation 3D de calculs électromagnétiques Production : Sébastien JOB Jean-Christophe LARRE Cédric PIOVANO Encadrement : Fabrice HUET.
Inférence statistique
Echantillonnage Professeur Francis GUILLEMIN > Ecole de santé publique - Faculté de Médecine.
Les TESTS STATISTIQUES
Les K plus proches voisins
Les TESTS STATISTIQUES
3. Analyse et estimation du mouvement dans la vidéo
Échantillonnage-Estimation
Complexité et Classification
Maria-João Rendas CNRS – I3S Novembre 2006
Statistique descriptive
R. Saint-Paul, G. Raschia and N. Mouaddib IRIN, Nantes (France)
Modélisation des systèmes non linéaires par des SIFs
                                        République Algérienne Démocratique et Populaire Ministère de l’Enseignement Supérieur et de la Recherche Scientifique.
1 ARCHITECTURE DACCÈS la méthode générale modèle de données définitions module daccès / modules métiers construction des modèles les modules daccès, les.
To Tune or not to Tune? To Tune or not to Tune? A Lightweight Physical Design Alerter Costa Jean-Denis Le Yaouanc Aurélie Mécanismes de SGBD 2007.
Apprendre à partir des observations
5. Algorithme à estimation de distribution
Aide à la décision et à la négociation dans un problème de gestion de production distribuée Jean-Pierre Camalot et Patrick Esquirol LAAS-CNRS 7, avenue.
RECONNAISSANCE DE FORMES
Pourquoi les réseaux de neurones de type « perceptron multicouche » conviennent-ils à l’apprentissage Stéphane Canu, INSA de Rouen , PSI André Elisseeff,
Développement d’un modèle de dynamique des populations structuré en longueur – Application au merlu de l’Atlantique Nord-Est Hilaire Drouineau (EMH)‏ Directrice:
Séminaire de lobjectif « forage et production » Beaune, les 26,27 et 28 Avril 2000 Outils danalyse statistiques « programmation par lexemple » S. Canu,
Échantillonnage (STT-2000)
Groupe 1: Classes de même intervalle
Construction de modèles visuels
Plan d’expérience dynamique pour la maximisation
Quizz rdf Dess IE. La RDF globale: 1.Quand il y a 2 classes seulement 2.Quand on fait un apprentissage 3.Quand les formes sont représentées par des vecteurs.
Commentaires sur les biais écologiques et les échelles non emboîtées
Révisions - IA Généralité: problèmes de lIA Recherche Logique Traitement de lincertitude Apprentissage Langue naturelle.
Le forage de données ou data mining
LES ERREURS DE PRÉVISION e t = X t - P t X1X2X3X4 X5 X6…X1X2X3X4 X5 X6…X1X2X3X4 X5 X6…X1X2X3X4 X5 X6… P5P6P5P6P5P6P5P6 e5e6e5e6e5e6e5e6.
Partie 2 : programmation stochastique
Mise en oeuvre des MMCs L'utilisation des MMCs en reconnaissance des formes s'effectue en trois étapes : définition de la topologie de la chaîne de Markov,
Approches non intrusives des éléments finis stochastiques
Mécanique Statistique
1 Workshop : modelling relationships between agriculture and environment - Brussels - 15/02/2001 Séminaire LISC Vendredi 29 Juin 2001 Transmission de linformation.
GPA750 – Gestion de Projets
La théorie de la communication de C. Shannon
Filtrage de Kalman et aperçu probabiliste
Distribution géographique d’un réseau de relations interpersonnelles. Pauline Dedeurwaerder Promoteur : V. Blondel MAP22.
Amélioration de la simulation stochastique
Ministère de l’Enseignement Supérieur et de la Recherche Scientifique
1 Alain Casali Christian Ernst Extraction de Règles de Corrélation Décisionnelles 29 Janvier 2009.
STATISTIQUES DESCRIPTIVES
Apprentissage pour les jeux d’arcade
Apparence globale 1 image = 1 vecteur Base apprentissage Rotation –capture les variabilités Troncature –Quelques coefficients Représentation linéaire Espace.
Recherches locales et méta-heuristiques
Fusion de paramètres en classification Parole/Musique Julie Mauclair – Equipe Parole Julien Pinquier – Equipe SAMoVA.
Optimisation pour la Conception de Systèmes Embarqués
GRAPHISME PAR ORDINATEUR SIF Contenu du cours 13 Introduction à l’intelligence artificielle dans les environnements de jeux 3D –Notions d’agents.
Décision incertaine et logistique : Grille typologique
Méthode des moindres carrés (1)
Evaluation des performances des tests diagnostiques en absence de Gold Standard Christophe Combescure Laboratoire de Biostatistique, IURC.
PROJET L’EGION D’HONNEUR MONTOIS MONEL PERRAUT. SOMMAIRE I/LES BESOINS II/CHOIX D’UN CMS.
Échantillonnage (STT-2000)
Régression linéaire (STT-2400)
Concepts avancés en mathématiques et informatique appliquées
Bus de terrain Can Open.
Statistique Descriptive Les Paramètres de Tendance Centrale
ECHANTILLONAGE ET ESTIMATION
la reconnaissance de visages
© Promaintech Novaxa – Tous droits d’utilisation réservés D MAIC Représentations graphiques Formation Black Belt Lean Six Sigma.
Processus ponctuels Caractéristiques et Modèles de répartitions spatiales.
Compilation & Apprentissage dans les Réseaux de Contraintes Hervé Cros Directeurs :Frédéric Koriche Joël Quinqueton.
Transcription de la présentation:

Réseaux bayésiens pour la recommandation au sein d’un configurateur Anr BR4CP Mathieu Serrurier IRIT

 Apprentissage et configuration  Réseaux bayésiens  Apprentissage de structure de réseaux bayésiens  Upper confidence interval entropy  Apprentissage incrémental de structure  Expérimentations Sommaire

Contexte

Apprentissage dans un configurateur

 Historique uniquement :  Pas d’information sur l’utilisateur  Uniquement basé sur les choix précédents (exemples positifs seulements)  Historique sur une ou une plusieurs configurations ?  Historique + extérieur  Description de l’utilisateur : utilisation des résultats pour les utilisateurs proches  Ensemble de choix fixes données avant la configuration Variables

 Variables renseignées dans l’ordre :  Pb1 : apprentissage de n modèles  Pb2 et Pb3 : problème d’utilisation en cascade d’un modèle  Variables renseignées dans un ordre indéterminé :  Pb1 : un seul modèle : apprentissage avec variables manquantes. Sélection dynamique de variables  Pb2 et Pb3 : pas de problème d’utilisation en cascade d’un modèle Ordre fixe ou ordre aléatoire

 On suppose les contraintes connues ?  Est-ce que le modèle apprends automatiquement les contraintes ? A priori non (contraintes->bruits)  Apprentissage de modèle prenant en compte les contraintes :  Contraintes présentes dans le background (ILP, contrainte sur le réseau de dépendance, ect …)  Biais sur la sélection des modèles  Apprentissage puis propagation des contraintes :  Plus facile, mais peut engendrer des modèles d’apprentissage incohérents  SAT ? Apprentissage et contraintes

 Apprentissage de réseaux bayésien sur les variables de la configuration  Avantages :  Apprentissage à partir d’exemples positifs (historique de vente)  Calcul de probabilité  Gestion des variables manquantes  Représentation compact graphique du modèle  Limites  Inférence Recommandation avec des réseaux Bayésiens

Réseaux bayésiens

 Structure connue  Observations complètes : estimation des probabilités par des fréquences  Observations incomplètes : estimation par maximum de vraisemblance  Structure inconnue données complète  Optimisation du réseau par fonction de score Apprentissage de réseaux bayésiens

 But : prendre en compte les incertitudes sur l’estimation d’une distribution de probabilité dans le calcul d’entropy  Approche Calcul Hup  Calcul des intervales de confiance de la distribution de probabilité (fréquence -> )  Calcul d’une distribution de possibilité encodant l’ensemble de ces distributions de probabilité (borne sup sur la cumulée la plus spécifique)  Calcul de l’entropie relative de la distribution de possibilité Upper confidence interval entropy

Hup : propriétés  Conservation de l’ordre de l’entropie à incertitude égale  A entropie égale, favorise la distribution avec le moins d’incertitude

 Optimisation par fonction de score  Log : H(D,B)  AIC : H(D,B) +Dim(B)  MDL (ou BIC) : H(D,B) +0.5*Dim(B)Log(|D|)  Hup : Hup(D,B)  AIC et MDL ->Entropie et structure géré spéparement  Hup->incertitude sur l’entropie induite par la structure géré directement Apprentissage de la structure d’un réseau bayésien

 Pour chaque nouvelle exemple  Mettre à jour le score du modèle  Mettre à jour les scores avec l’ajout d’une dépendance  S’il existe des dépendances qui améliorent le score  Ajouter la meilleure Apprentissage incrémentale

DbHAICHMDLHHup winenominal77.5[2.2]77.3[2.4] 78.2[2.4] diabetesnominal 65.7[2.4]65.8[2.3]66.3[2.5] breastnominal 79.6[1.9]79.9[1.7]80.0[1.6] vehiclenominal82.7[1.6]80.9[1.4]90.2[2.2] zoo290.0[2.2] 88.8[2.2] 90.0[2.2] soy 85.7[0.8] 84.3[0.7] 88.6[0.5] segmentnominal74.1[1.0]70.9[1.0]76.6[0.6] glassnominal79.0[3.1]78.1[2.8] 83.7[2.2] yeastnominal79.1[1.3] 78.6[1.4]79.2[1.4] blocksnominal 81.0[0.7] 78.3[0.8] 83.4[0.7] Expé : accuracy offline

DbHAICHMDLHHup winenominal75.4[2.1]73.7[3.5] 78.1[2.2] diabetesnominal64.3[2.6]65.3[1.6]66.1[1.7] breastnominal 78.9[2.4]79.4[2.0] 79.7[1.7] vehiclenominal81.2[1.3] 78.5[1.5]82.3[1.1] zoo287.6[3.4] 85.2[3.6] 90.6[1.7] soy 84.2[0.8] 82.1[0.7] 87.6[0.4] segmentnominal73.7[0.9] 59.1[1.4]76.6[0.6] glassnominal75.7[2.3]74.7[2.7]82.0[3.4] yeastnominal 78.5[1.3] 76.3[1.3]78.8[1.2] blocksnominal 79.1[0.6] 78.3[0.5] 81.3[0.4] Expé : accuracy online

 Offline  AIC :93.7  MDL :93.5  Hu :94.7  Online  AIC: 92.8  BIC: 90.8  Hu: 94.2  Temps :  Offline : 16s  Online : 18s  Avgupdate : 39ms  Max update : 48ms BD Renault (500 ex)