Grammaires de dépendance et théorie Sens-Texte (4) Sylvain Kahane Lattice, Université Paris 7 TALN, 5 juillet 2001, Tours
Sylvain Kahane, EHESS, 30 mars Plan du tutoriel (rappel) Séance 1. Dépendance et fonction syntaxiques Séance 2. Théorie Sens-Texte Séance 3. Gramm. d'Unification Sens-Texte Séance 4. Analyse en gramm. de dépendance
Sylvain Kahane, EHESS, 30 mars Séance 4. Analyse en grammaire de dépendance
Sylvain Kahane, EHESS, 30 mars Plan de la 4ème séance n Analyse par contraintes n Analyse CKY –comparaison avec HPSG n Analyse incrémentale –garden-path et cognition –analyseur à pile –ambiguïtés –limitation du flux n Conclusion
Sylvain Kahane, EHESS, 30 mars Analyse par contraintes
Sylvain Kahane, EHESS, 30 mars Analyse par contraintes le boucher sale la tranche A/V N/V D/Cl/ND/Cl mod› obj› ‹obj det ‹suj ‹mod obj ‹det obj ‹det ‹obj det déclencher toutes les règles filtrer
Sylvain Kahane, EHESS, 30 mars Analyse par contraintes le boucher sale la tranche A V NClD mod› ‹suj ‹det‹obj déclencher toutes les règles filtrer
Sylvain Kahane, EHESS, 30 mars Analyse par contraintes le boucher sale la tranche V N NDD obj› ‹suj ‹det déclencher toutes les règles filtrer
Sylvain Kahane, EHESS, 30 mars Analyse par contraintes n Maruyama 1990, Duchier 1999, Blache 1998 n Avantage des grammaires de dépendance : on peut considérer une structure qui contient toutes les structures acceptables après filtrage
Sylvain Kahane, EHESS, 30 mars Méthodes probabilistes n Règles pondérées : poids entre 0.1 et 1 n Chaque dépendance reçoit le poids de la règle qui la valide n Score d'un arbre = produit du poids des dépendances n Menzel & Schröder 1998 n Eisner 1996, Collins 1997
Sylvain Kahane, EHESS, 30 mars Analyse CKY
Sylvain Kahane, EHESS, 30 mars Cocke-Kasami-Younger le boucher sale la tranche n Kasami 1963, Younger 1967 n Analyse montante : identifier les segments analysable en allant des plus petits aux plus grands Temps en O( n 3 )
Sylvain Kahane, EHESS, 30 mars Analyse CKY (1) le boucher sale la tranche [ i, j,X] : segment du i -ème au j -ième mot de tête X n Segments de longueur 1 : [1,1,D], [1,1,Cl], [2,2,N], [2,2,V] …, [5,5,N], [5,5,V] n Segments de longueur 2 : [1,2,N], [1,2,V], [2,3,N], [2,3,V] …, [4,5,N], [4,5,V]
Sylvain Kahane, EHESS, 30 mars Analyse CKY (2) n [1,1,D] + [2,2,N] + [1,2,N] [ i, j,X] + [ j+1, k,Y] + [ i, k,X] [ i, j,X] + [ j+1, k,Y] + [ i, k,Y] Une phrase de longueur n est reconnue si on obtient [1, n,V] (N) (D) -10 dét (Y) (X) + r (Y) (X) - r
Sylvain Kahane, EHESS, 30 mars Complexité en temps Construire les segments de longueur k : C 2 ( n-k ) k couples ( [ i, j,X], [ j+1, i+k-1,Y] ) R règles pour les combiner Construire tous les segments : somme sur k = O( n 3 C 2 R)
Sylvain Kahane, EHESS, 30 mars Améliorations de l'algorithme n 3 améliorations : –placement des co-dépendants –prise en compte de la sous-catégorisation (+ comparaison avec HPSG) –non-projectivité
Sylvain Kahane, EHESS, 30 mars Placement des co-dépendants n Le placement des co-dépendants est géré par le trait de position dans les règles Remplacer [ i, j,X] par [ i, j,X, p, q ] avec : –p position du dernier dépendant à gauche –q position du dernier dépendant à droite Ex : la tranche [4,4,Cl, 0, 0 ] + [5,5,V, 0, 0 ] + [4,5,V, -4, 0 ] (V) (Cl) -4 dobj
Sylvain Kahane, EHESS, 30 mars Sous-catégorisation (1) n Ajouter la liste de sous-catégorisation Ex : la tranche [4,4,Cl, Ø ] + [5,5,V, {suj,dobj} ] + [4,5,V, {suj} ] (comparer avec Head-Daughter Schema d'HPSG) Une phrase de longueur n est reconnue si on obtient [1, n,V, Ø ] n On peut voir HPSG comme une version procédurale orientée vers l'analyse CKY d'une grammaire de dépendance (V) (Cl) -4 dobj
Sylvain Kahane, EHESS, 30 mars Sous-catégorisation (2) n Remplacer la liste de sous-cat par la règle lexicalisée Ex : la tranche [4,4, ] + [5,5, ] + [4,5, ] n Principe de localité TRANCHER (V)present suj dobj (N) LUI (N,pro)acc (N) TRANCHER (V)present suj (N) (V) (N,pro)acc -4 dobj
Sylvain Kahane, EHESS, 30 mars Non projectivité n Règles de "lifting" permettant de remonter un élément sur un ancêtre de son gouverneur : ajouter la liste des éléments liftés (cf. Slash en HPSG) n Variante : garder en mémoire la description de d'autres nœuds que la tête n Si le nombre d'éléments mémorisables est borné, l'algo reste polynomial
Sylvain Kahane, EHESS, 30 mars CKY et incrémentalité n CKY est strictement montant : une fois qu'un élément a été combiné avec son gouverneur, on ne peut plus le combiner avec un dépendant Ex : Le garçon que j'ai rencontré la semaine dernière est étudiant n Conclusion : CKY est simple, mais psycholinguistiquement non motivé
Sylvain Kahane, EHESS, 30 mars Algorithme d'Earley n Earley 1970, Lombardo 1996 Algorithme descendant en O( n 3 ) n Plutôt incrémental, mais oblige à anticiper, dès le premier mot, sur la chaîne complète de ses ancêtres dans l'arbre n Pas adapté aux langages ambigus et donc aux langues naturelles Ex : Où penses-tu que Marie a l'intention d'aller ? (un V peut subordonnner un V qui peut subordonner un V qui …)
Sylvain Kahane, EHESS, 30 mars Analyse incrémentale
Sylvain Kahane, EHESS, 30 mars Analyse incrémentale et choix (1) n Analyse incrémentale = analyse qui se développe au fur et à mesure de la lecture n Traitement de l'ambiguïté : lorsqu'on a le choix entre deux regles, on peut –choisir une des deux règles et revenir en arrière en cas d'échec –mener en parallèle les deux analyses n Analyse incrémentale stricte = analyse incrémentale sans retours en arrière
Sylvain Kahane, EHESS, 30 mars Modèle cognitif n Les humains analysent au fur et à mesure de la réception n Dans certains cas d'ambiguïté, les humains font des retours en arrière (garden-paths) (i) Le diplomate russe reconduit à la frontière un espion international (ii) Le diplomate russe reconduit à la frontière est un espion international Objectif : simuler l'analyse humaine et faire des choix quand un humain en fait ( reconduit : ambiguïté structurale majeure)
Sylvain Kahane, EHESS, 30 mars Analyseur à pile On laisse de côté la question de l'ambiguïté pour l'instant Garder en mémoire dans une pile les descriptions de mots Symboles de pile : [X, ±, p, q] –X = catégorie du mot –± = ± gouverné –p = position du dernier dépendant à gauche –q = position du dernier dépendant à droite (pas de sous-catégorisation pour l'instant) n Relier les mots par des opérations sur la pile
Sylvain Kahane, EHESS, 30 mars Analyseur à pile n Etape 0 : initialisation –curseur à gauche –pile vide le boucher sale la tranche
Sylvain Kahane, EHESS, 30 mars Analyseur à pile n Etape 1 le boucher sale la tranche [D ] Règle : le LE (D)masc,sg D
Sylvain Kahane, EHESS, 30 mars Analyseur à pile n Etape 2 le boucher sale la tranche D [D ] N [N ] Règle : boucher BOUCHER (N,masc)sg
Sylvain Kahane, EHESS, 30 mars Analyseur à pile n Etape 3 le boucher sale la tranche ND ‹det Règle : (N) (D) -10 dét [D ] [N ]
Sylvain Kahane, EHESS, 30 mars Analyseur à pile n Etape 3 le boucher sale la tranche ND ‹det Règle : (N) (D) -10 dét [N ]
Sylvain Kahane, EHESS, 30 mars Analyseur à pile n Etape 4 le boucher sale la tranche ND ‹det [N ] A [A ] Règle : sale SALE (Adj)masc,sg
Sylvain Kahane, EHESS, 30 mars Analyseur à pile n Etape 5 le boucher sale la tranche AND mod› ‹det Règle : (A) (N) +5 mod [N ] [A ]
Sylvain Kahane, EHESS, 30 mars Analyseur à pile n Etape 5 le boucher sale la tranche AND mod› ‹det [N ] Règle : (A) (N) +5 mod [A ]
Sylvain Kahane, EHESS, 30 mars Analyseur à pile n Etape 6 le boucher sale la tranche AND mod› ‹det [Cl ] Règle : la LUI (Cl)acc,fém,sg Cl [N ] [A ]
Sylvain Kahane, EHESS, 30 mars Analyseur à pile n Etape 7 le boucher sale la tranche ANClD mod› ‹det Règle : tranche TRANCHER (V)ind,prés,3,sg V [Cl ] [N ] [A ] [V ]
Sylvain Kahane, EHESS, 30 mars Analyseur à pile n Etape 8 le boucher sale la tranche A V NClD mod› ‹det ‹obj [Cl ] [N ] [A ] [V ] Règle : (V) (Cl) -4 obj
Sylvain Kahane, EHESS, 30 mars Analyseur à pile n Etape 8 le boucher sale la tranche A V NClD mod› ‹det ‹obj [N ] [A ] [V ] Règle : (V) (Cl) -4 obj
Sylvain Kahane, EHESS, 30 mars Analyseur à pile n Etape 9 le boucher sale la tranche A V NClD mod› ‹det ‹obj [N ] [A ] Règle : dépilement d'un élément gouverné [V ]
Sylvain Kahane, EHESS, 30 mars Analyseur à pile n Etape 9 le boucher sale la tranche A V NClD mod› ‹det ‹obj [N ] Règle : dépilement d'un élément gouverné [V ]
Sylvain Kahane, EHESS, 30 mars Analyseur à pile n Etape 10 le boucher sale la tranche A V NClD mod› ‹suj ‹det ‹obj Règle : (V) (N) -10 suj [N ] [V ]
Sylvain Kahane, EHESS, 30 mars YES Analyseur à pile n Etape 10 le boucher sale la tranche A V NClD mod› ‹suj ‹det ‹obj Règle : (V) (N) -10 suj [V ]
Sylvain Kahane, EHESS, 30 mars Transitions de l'analyseur (1) (V) (N) -10 suj Transition: n Ne rien lire n Remplacer par n Produire suj [V q ] [N - p' q' ] [V - p q ]
Sylvain Kahane, EHESS, 30 mars Transitions de l'analyseur (2) n Quatre types de transition –Transition de stockage : lire un nœud, l'empiler et le produire –Transition de liage : produire une dépendance < Poids négatif (gouverneur à droite) : supprimer la deuxième case de la pile < Poids positif (gouverneur à gauche) : indiquer que le nœud de la première case est gouverné –Transition de déstockage : supprimer la première case si le nœud est gouverné
Sylvain Kahane, EHESS, 30 mars Transducteur n L'analyseur construit un arbre projectif –tous les nœuds sont gouvernés sauf un –le dernier nœud entré est le premier sorti ( projectivité + acyclicité) n Beaucoup plus simple de verifier qu'un graphe est un arbre projectif que de vérifier que c'est un arbre
Sylvain Kahane, EHESS, 30 mars Variantes et améliorations (1) n Mettre dans chaque case un chunk (analyseur en flux de Vergne) n Prendre en compte la sous-catégorisation –mettre dans chaque case un nœud et sa valence (Nasr 1995, 96 ; Kahane 2000 ; grammaires catégorielles Adjukiewicz-Bar-Hillel) –mettre un lien potentiel dans chaque case (Link Grammars, Sleator & Temperley 1993) (pas de distinction entre actants et modifieurs)
Sylvain Kahane, EHESS, 30 mars Variantes et améliorations (2) n Traitement de la non-projectivité –garder plus d'un mot en mémoire dans une case (Nasr 1996 ; Kahane 2000) –autoriser des règles de transition permettant d'accéder à des cases plus profondes (Kahane 1996) –ajouter un trait slash la personne à qui je veux parler
Sylvain Kahane, EHESS, 30 mars Ambiguïtés (1) n Ambiguïté (locale) = plusieurs règles peuvent s'appliquer n 1ère technique : choisir une règle et revenir en arrière en cas d'échec et choisir une autre règle exponentiel dans le pire des cas Pour éviter le problème : –faire un seul choix (traitement linéaire) –mémoïsation : conserver en mémoire les analyses déjà faite pour ne pas les refaire (Link Grammars : compléxité en O( n 3 ))
Sylvain Kahane, EHESS, 30 mars Ambiguïtés (2) n 2ème technique : mener en parallèle les différents choix exponentiel dans le pire des cas Pour éviter le problème : –dupliquer la pile à chaque ambiguïté et factoriser les opérations effectuées plusieurs fois (pile à structure de graphe : Tomita 1988, Nasr 1996) n “3ème technique” : éviter de proposer des choix inutiles
Sylvain Kahane, EHESS, 30 mars Ambiguïté (3) n Point de vue linguistique et cognitif : il existe des situation où un locuteur fait des choix (garden-path) et d'autres où il n'en fait pas –parler à Marie, parler de Jean, parler à Marie de Jean –Le diplomate reconduit à la frontière …. Conséquence : il faut travailler au niveau de la grammaire et pas seulement au niveau des algos d'analyse
Sylvain Kahane, EHESS, 30 mars Flux et complexité n Flux = nombre de dépendances liant un mot à gauche à un mot à droite n Le flux des phrases d'un langue naturelle est borné (limitations mémorielles) Le nombre de cases dans la pile est borné Le nombre de contenu de pile est fini Equivalence avec un automate fini Analyse en temps linéaire
Sylvain Kahane, EHESS, 30 mars Conclusion n La dépendance est présente dans tous les formalismes contemporains, mais elle est souvent cachée n Séparation entre dépendance syntaxique et sémantique n Intérêt d'une représentation syntaxique qui ne présuppose pas l'ordre linéaire et le regroupement en syntagme
Sylvain Kahane, EHESS, 30 mars Conclusion n On peut réduire certains problème algorithmique en écrivant mieux les grammaires (et éviter l'explosion combinatoire du nombre de règles lors d'un analyse verticale ou d'un lexicalisation de la grammaire) n Pradoxalement, les grammaires syntagma- tiques présupposent une analyse trop basée sur la dépendance (les seuls syntagmes considérés sont des projections des têtes) (cf. comparaison entre analyse CKY et HPSG)
Sylvain Kahane, EHESS, 30 mars Conclusion n Rôle primordiale de structure communicative: –ordre des mots –prosodie –constructions particulières : clivage, dislocation, … n Les syntagmes (constituants morphologiques) dépendent de la structure de dépendance, de la structure communicative et de la structure topologique (Gerdes & Kahane, ACL 2001) n Synthèse de la prosodie (basée sur les constitunats morphologiques, chunks et autres) : Mertens 1997, Vergne 2000
MERCI