Active Learning for Natural Language Parsing and Information Extraction, de Cynthia A. Thompson, Mary Elaine Califf et Raymond J. Mooney Philippe Gambette.

Slides:



Advertisements
Présentations similaires
Gestion de la concurrence avec Entity Framework Développement d’application avec base de données Chapitre 23 Hugo St-Louis – Automne 2015.
Advertisements

CINI – Li115 1 Semaine 9 Algorithmes de tri ● Introduction ● Tri à bulle ● - principe ● - algorithme ● - efficacité ● Tri par sélection ● - principe, algorithme,
Courbes d'Interpolation Interpolation de Lagrange, et Interpolation B-spline.
Chapitre 4: Variation dans le temps  Les données : audience totale en milliers (tableau 4.1, p. 47, extrait) o Origine : enquête sur les habitudes d’écoute.
Présentation  Objectif : Une initiation au « Machine learning ».  Comprendre et assimiler les différentes techniques permettant d’indexer ou de classifier.
L’étiquetage nutritionnel en pratique. Quelles valeurs étiquetées ?
1. Introduction.
Initiation à la conception des systèmes d'informations
Suites ordonnées ou mettre de l’ordre
Outils de Recherche Opérationnelle en Génie MTH 8414
Analyse, Classification,Indexation des Données ACID
Les Instructions Itératives (Les Boucles)
Construire des requêtes
Intégration du P7 dans l’épreuve E41
Initiation aux bases de données et à la programmation événementielle
Techniques de décomposition
Algorithmique Avancée et Complexité Chap2:Complexité et Optimalité
Forum des Industries de la Langue, 17 mars 2010
Université Abou Bakr Belkaid Faculté des Sciences Département d’informatique Algorithmique Avancée et Complexité Chap5: Les méthodes de résolution exactes.
L’Instruction de Test Alternatif
Routage S 3 - Questionnaire N°1
Rapports et proportions
Exo 5 : Placements bancaires.
Commande show ip eigrp topology
Technologies de l’intelligence d’affaires Séance 13
Acquisition et apprentissage du français langue étrangère
Cyber-Sphinx Séance 2.
Technologies de l’intelligence d’affaires
Les plans de mélange Les plans d’expérience : Présentée par :
Plans d’expériences: Plans de mélanges
Techniques d’Optimisation Chapitre 3: Programmation en 0-1 (bivalente)
Technologies de l’intelligence d’affaires Séance 14
Plans d’experiences : plans de melanges
Cyber-Sphinx Séance 2.
Routage S 3 - Questionnaire N°1
Technologies de l’intelligence d’affaires Séance 11
Université Abou Bakr Belkaid Faculté des Sciences Département d’informatique Algorithmique Avancée et Complexité Chap7: Les méthodes de résolution exactes.
République Algérienne Démocratique et Populaire Ministère de l'Enseignement Supérieur et de la Recherche Scientifique Université Saad.
PROGRAMMATION INFORMATIQUE D’INGÉNIERIE II
L’I NSTRUCTION DE T EST A LTERNATIF Réalisé par : OUZEGGANE Redouane Département de Technologie Faculté de Technologie – Université A.Mira, Bejaia Année.
L ES I NSTRUCTIONS I TÉRATIVES (L ES B OUCLES ) Réalisé par : OUZEGGANE Redouane Département de Technologie Faculté de Technologie – Université A.Mira,
Cyber-Sphinx Séance 2.
La méthode du simplexe. 1) Algorithme du simplexe  Cet algorithme permet de déterminer la solution optimale, si elle existe, d’un problème de programmation.
Branch-and-price algorithms for the solution of the multi-trip vehicle routing problem with time windows (MTVRPTW) 1.
Incertitudes.
1. Introduction.
A T Training On Line « 1.2. Notion de système » Les automates programmables.
La démarche d’investigation se définit en 7 étapes 1.La situation problème 2.L’appropriation du problème 3.La formulation d’hypothèses 4.La résolution.
Calculs des incertitudes Lundi 30 Avril 2018 Master de Management de la Qualité, de la Sécurité et de l’Environnement.
Présentation de la base Frantext
Les méthodes non paramétriques
CHAPTER 2: Apprentissage supervisé
Valeurs et enseignement
CHAPTER 2: Apprentissage supervisé
Arbres de décision.
Kit de formation multimedia
RECAR – Recueil de cas pratiques pour les conseillers à l’emploi auprès des personnes en situation de handicap Projet N°  FR01-KA
SUJET : E C L A T UNIVERSITE GASTON BERGER DE SAINT LOUIS UFR DES SCIENCES APPLIQUEES ET DE TECHNOLOGIE MASTER PROFESSIONNEL EN DÉVELOPPEMENT DE SYSTÈMES.
Transition vers l’assignation automatique des stages à la résidence
Chapitre 1 Formulation d’un programme linéaire (PL) Georges Abboudeh BUST 347.
Contribution du LHyGeS
CSI 3505 Algorithmes Voraces
RABAH M ed Ali 2018/2019
Chapter 11: Récursivité Java Software Solutions Second Edition
Introduction à L’Informatique
INTELLIGENCE ARTIFICIELLE
STATISTIQUE INFERENTIELLE LES TESTS STATISTIQUES.
SE FIXER DES OBJECTIFS Progresser grâce à tes objectifs.
Outils de Recherche Opérationnelle en Génie MTH 8414
Transcription de la présentation:

Active Learning for Natural Language Parsing and Information Extraction, de Cynthia A. Thompson, Mary Elaine Califf et Raymond J. Mooney Philippe Gambette f

Introduction  En traitement automatique des langues naturelles : - beaucoup de données non étiquetées disponibles - coût de l'étiquetage important

Introduction  En traitement automatique des langues naturelles : - beaucoup de données non étiquetées disponibles - coût de l'étiquetage important ↳ étiqueter le minimum de données, seulement celles utiles pour l'apprentissage

Introduction  En traitement automatique des langues naturelles : - beaucoup de données non étiquetées disponibles - coût de l'étiquetage important ↳ étiqueter le minimum de données, seulement celles utiles pour l'apprentissage ↳ apprentissage actif !

Introduction  En traitement automatique des langues naturelles : - beaucoup de données non étiquetées disponibles - coût de l'étiquetage important ↳ étiqueter le minimum de données, seulement celles utiles pour l'apprentissage ↳ apprentissage actif !  Tâches plus complexes qu'un simple étiquetage : - apprentissage de règles de parsing sémantique - extraction d'informations

Apprentissage actif Initialisation : Ensemble d'exemples non étiquetés : U Ensemble d'exemples étiquetés : L = ∅ Etiquetage de n exemples (passent de U à L) Boucle d'ajout d'exemples : Tant que NONSTOP, Entraîner le classifieur sur L, Pour tout exemple x de U : Etiqueter x avec le classifieur entraîné sur L, Calculer l'incertitude de cette étiquette, Choisir les k exemples avec la plus grande incertitude

Apprentissage actif Initialisation : Ensemble d'exemples non étiquetés : U Ensemble d'exemples étiquetés : L = ∅ Etiquetage de n exemples (passent de U à L) Boucle d'ajout d'exemples : Tant que NONSTOP, Entraîner le classifieur sur L, Pour tout exemple x de U : Etiqueter x avec le classifieur entraîné sur L, Calculer l'incertitude de cette étiquette, Choisir les k exemples avec la plus grande incertitude Paramètres à régler ! Formule à choisir, adaptée au type de problème !

Apprentissage actif Initialisation : Ensemble d'exemples non étiquetés : U Ensemble d'exemples étiquetés : L = ∅ Etiquetage de n exemples (passent de U à L) Boucle d'ajout d'exemples : Tant que NONSTOP, Entraîner le classifieur sur L, Pour tout exemple x de U : Etiqueter x avec le classifieur entraîné sur L, Calculer l'incertitude de cette étiquette, Choisir les k exemples avec la plus grande incertitude VARIANTES choix de l'exemple minimisant l'erreur attendue

Apprentissage actif Initialisation : Ensemble d'exemples non étiquetés : U Ensemble d'exemples étiquetés : L = ∅ Etiquetage de n exemples (passent de U à L) Boucle d'ajout d'exemples : Tant que NONSTOP, Entraîner le classifieur sur L, Pour tout exemple x de U : Etiqueter x avec le classifieur entraîné sur L, Calculer l'incertitude de cette étiquette, Choisir les k exemples avec la plus grande incertitude VARIANTES choix de l'exemple minimisant l'erreur attendue évaluation de l'incertitude par comités

CHILL Exemples de couples (phrase,parsing sémantique) Thèse de John Zelle : Using Inductive Logic Programming to Automate the Construction of Natural Language Parsers, (1995) Création pour chaque étape de parsing d'exemples positifs et négatifs Apprentissage de règles par l'algorithme d'induction CHILLIN Parser (“What is the capital of Texas ?”,answer(A, (capital(B,A), equal(B,stateid(texas)))) (ensemble de règles)

CHILL + Active Learning Certitude du parsing sémantique d'une phrase ?  La phrase n'a pas pu être parsée : exemple très incertain certitude = « profondeur » de parsing  La phrase a pu être parsée : certitude = moyenne sur toutes les règles utilisées de la certitude de chaque règle. règle incertaine = vérifiée par peu d'exemples.

CHILL + Active Learning Evaluation de l'algorithme ?  Comparer CHILL + Active Learning à CHILL + random  Efficacité : - domaine de 250 questions parsées par un expert - efficacité = pourcentage de réponses correctes après requête à la base de données  Apprentissage des règles meilleur que l'expert  Bon niveau d'efficacité atteint avec moins d'exemples  Efficacité tout de même limitée...

RAPIER Identifier dans des offres d'emplois plusieurs champs prédéfinis : salaire, ville, type d'emploi → formulaire Exemples de couples (annonce,formulaire) Ensemble de règles : motifs 3 blocs : termes avant + cible + termes après avec pour chacun des 3 blocs, contraintes sémantiques ou de syntaxe Apprentissage de règles par un algorithme d'apprentissage relationnel de bas en haut : trouver des règles de plus en plus générales Mary Elaine Califf, Raymond J. Mooney : Bottom-Up Relational Learning of Pattern Matching Rules for Information Extraction, (2003)

RAPIER + Active Learning Certitude d'un formulaire ?  Somme des certitudes de chaque champ.  Certitude d'un champ : - Soit le champ est vide : incertitude liée au taux de remplissage du champ (champ souvent rempli → très incertain) - Soit il est plein : certitude = certitude de la règle appliquée (ou min si plusieurs valeurs du champ) certitude d'une règle = nombre d'exemples positifs – 5 nombre d'exemples négatifs pour la règle Quelle formule exactement ?? Remarque : utilisation d'un algorithme incrémental

RAPIER + Active Learning Evaluation de l'algorithme ?  Comparer RAPIER + Active à RAPIER + random  Efficacité : posts annotés, validation croisée à 10 plis - bruit et couverture sur tous les champs - efficacité = F-measure  Bon niveau d'efficacité atteint avec moins d'exemples  Efficacité un peu meilleure qu'avec le problème précédent, mais toujours pas ahurissante

Mon avis  Article clair, apparemment pas ambigu. Bons exemples (indispensables), exemples de règles ?  Apport de l'apprentissage actif : 50 % d'exemples en moins, pas très impressionnant  Quelques mystères d'implémentation : - condition d'arrêt ? - influence du choix des paramètres ? - temps de calcul ?  Passage à l'échelle et utilité : - parsing sémantique de corpus uniquement spécialisés, - intérêt devant la théorie sens-texte ? Quelles étaient les règles trouvées automatiquement mieux que l'expert pour GeoBase?