Systeme Question-Reponse SQR Presente par Abdul Kader Hamdo Tayeb Zebiche
Plan de la presentation Intoduction Historique Architecture générique de SQR Presentation de QUANTUM Presentation de Tequesta Travaux futures Conclusion References
Systeme Question-reponse Jean aime Marie. Mais, elle ne veut pas de lui. Un jour le dragon est venu et a enlevé Marie. Jean, est monte sur son cheval, a tué le dragon et, a délivré Marie accepte de se marier avec Jean. Ils ont eu beaucoup d’enfants. Question: Pourquoi Marie a accepté de se marier avec Jean? Réponse: parce que elle est endettée envers lui.
Problematique de la question-reponse Systeme Question-reponse Problematique de la question-reponse “we have information, how can we better serve it” Plutot que “we have a query, how can we answer it” [Loucopoulos and Zicari 1992]
Les Conferences TREC-Track Il s'agit de questions pour lesquelles il n'est pas necessaire de faire appel a des capacites de jugement pour produire la reponse, ni de la deduire a partir de plusieurs faits enonces dans le corpus.
The Performance of TREC Systems
Architecture générique d’un SQR Analyse de la Question Contexte de dialogue Documents pretraites Collection de documents Modele Usager Pretraitement de collection de documents Selection de documents candidats Extraction de Reponse Generation de reponse Usager Analyse de documents candidats
Analyse de la question How many people die from snakebite poisoning in the USA per year Mot-question focus descriminent About ten people die a year from snakebites in the USA candidat Une variante de discriminant Decomposition d’une question et sa reponse selon TREC
Extraction de passages Passages de longueur déterminée (n caracteres) + représentation de vecteur pour chaque passage Paragraphes ou phrases Text classique avec: A chaque phrase est assignée un score Les passages recherchés sont formés en prennant les phrases de scores élevés Extraction de passage basé non seulement sur les mots mais encore sur d’autres caractéristique (ex. construction syntaxiques) Passages de longueur particulière (n caracteres) + représentation de vecteur pour chaque passage
Extraction de Réponse Deux techniques principales pour l’extraction de la réponse sont: 1.Arbre de dépendance syntaxico-sémantique 2. Patrons de surface <Name> (<Answer> -) <Name> was born on <Answer> Bons patrons exigent une classification détaillée Par exemple une question telle que “When was Mozart born?” génère une liste de patrons similaire à: <NAME> ( <ANSWER> - ) <NAME> was born on <ANSWER> , born in <ANSWER> , <NAME> <ANSWER> <NAME> was born
Presentation de Quantum C'est un SQR dont le but est de trouver dans une grande collection une réponse à une question posée en LN en utilisant une combinaison de RI et analyse linguistique
Presentation de Quantum
Presentation de Quantum
Presentation de Quantum Resultats Erreurs de classification par fonction d'extraction, pour les 492 questions de TREC-X. Les fonctions raison, manière et objet sont traitées comme inconnu dans la version courante de QUANTUM
Architecture du système TEQUESTA Presentation de Tequesta Architecture du système TEQUESTA
Tequesta: Analyse de documents Exemple de représentation abstrète d’un texte: Teachers in Oklahoma City and some other districts said they feared reprisals if they took part in the strike. Il y a trois structures de dépendance : a. head: say arg(l,1): teacher arg(l,2): in Oklahoma City arg(l,3): some other district b. head: fear arg(r,4): reprisal c. head: take-part arg(r,5): in the strike
Entités nommées dans TEQUESTA
Evaluation des SQR Les Systèmes Futures de QR doivent être: Opportuns : répondre à la question en temps réel, incorporer immédiatement les nouveaux sources de données Exacts : ne détecte pas de réponse si aucune disponible. Rentables : les réponses correctes indépendamment des sources de données fournissent des réponses dans n'importe quel format. Perfectionnés : fournir des réponses logiques, complètes, permettre la fusion de données, incorporez les possibilités du raisonnement. Pertinents : fournir des réponses appropriées dans un contexte interactif pour soutenir les dialogues des utilisateurs. “QA Roadmap” – TREC-10 à -14
Conclusions