La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Grammaires de dépendance et théorie Sens-Texte (4) Sylvain Kahane Lattice, Université Paris 7 TALN, 5 juillet 2001, Tours.

Présentations similaires


Présentation au sujet: "Grammaires de dépendance et théorie Sens-Texte (4) Sylvain Kahane Lattice, Université Paris 7 TALN, 5 juillet 2001, Tours."— Transcription de la présentation:

1

2 Grammaires de dépendance et théorie Sens-Texte (4) Sylvain Kahane Lattice, Université Paris 7 TALN, 5 juillet 2001, Tours

3 Sylvain Kahane, EHESS, 30 mars 20012 Plan du tutoriel (rappel) Séance 1. Dépendance et fonction syntaxiques Séance 2. Théorie Sens-Texte Séance 3. Gramm. d'Unification Sens-Texte Séance 4. Analyse en gramm. de dépendance

4 Sylvain Kahane, EHESS, 30 mars 20013 Séance 4. Analyse en grammaire de dépendance

5 Sylvain Kahane, EHESS, 30 mars 20014 Plan de la 4ème séance n Analyse par contraintes n Analyse CKY –comparaison avec HPSG n Analyse incrémentale –garden-path et cognition –analyseur à pile –ambiguïtés –limitation du flux n Conclusion

6 Sylvain Kahane, EHESS, 30 mars 20015 4.1 Analyse par contraintes

7 Sylvain Kahane, EHESS, 30 mars 20016 Analyse par contraintes le boucher sale la tranche A/V N/V D/Cl/ND/Cl mod› obj› ‹obj det ‹suj ‹mod obj ‹det obj ‹det ‹obj det déclencher toutes les règles filtrer

8 Sylvain Kahane, EHESS, 30 mars 20017 Analyse par contraintes le boucher sale la tranche A V NClD mod› ‹suj ‹det‹obj déclencher toutes les règles filtrer

9 Sylvain Kahane, EHESS, 30 mars 20018 Analyse par contraintes le boucher sale la tranche V N NDD obj› ‹suj ‹det déclencher toutes les règles filtrer

10 Sylvain Kahane, EHESS, 30 mars 20019 Analyse par contraintes n Maruyama 1990, Duchier 1999, Blache 1998 n Avantage des grammaires de dépendance : on peut considérer une structure qui contient toutes les structures acceptables après filtrage

11 Sylvain Kahane, EHESS, 30 mars 200110 Méthodes probabilistes n Règles pondérées : poids entre 0.1 et 1 n Chaque dépendance reçoit le poids de la règle qui la valide n Score d'un arbre = produit du poids des dépendances n Menzel & Schröder 1998 n Eisner 1996, Collins 1997

12 Sylvain Kahane, EHESS, 30 mars 200111 4.2 Analyse CKY

13 Sylvain Kahane, EHESS, 30 mars 200112 Cocke-Kasami-Younger le boucher sale la tranche n Kasami 1963, Younger 1967 n Analyse montante : identifier les segments analysable en allant des plus petits aux plus grands Temps en O( n 3 )

14 Sylvain Kahane, EHESS, 30 mars 200113 Analyse CKY (1) le boucher sale la tranche [ i, j,X] : segment du i -ème au j -ième mot de tête X n Segments de longueur 1 : [1,1,D], [1,1,Cl], [2,2,N], [2,2,V] …, [5,5,N], [5,5,V] 1 2 3 4 5 n Segments de longueur 2 : [1,2,N], [1,2,V], [2,3,N], [2,3,V] …, [4,5,N], [4,5,V]

15 Sylvain Kahane, EHESS, 30 mars 200114 Analyse CKY (2) n [1,1,D] + [2,2,N] +  [1,2,N] [ i, j,X] + [ j+1, k,Y] +  [ i, k,X] [ i, j,X] + [ j+1, k,Y] +  [ i, k,Y] Une phrase de longueur n est reconnue si on obtient [1, n,V] (N) (D) -10 dét (Y) (X) + r (Y) (X) - r

16 Sylvain Kahane, EHESS, 30 mars 200115 Complexité en temps Construire les segments de longueur k : C 2 ( n-k ) k couples ( [ i, j,X], [ j+1, i+k-1,Y] ) R règles pour les combiner Construire tous les segments : somme sur k = O( n 3 C 2 R)

17 Sylvain Kahane, EHESS, 30 mars 200116 Améliorations de l'algorithme n 3 améliorations : –placement des co-dépendants –prise en compte de la sous-catégorisation (+ comparaison avec HPSG) –non-projectivité

18 Sylvain Kahane, EHESS, 30 mars 200117 Placement des co-dépendants n Le placement des co-dépendants est géré par le trait de position dans les règles Remplacer [ i, j,X] par [ i, j,X, p, q ] avec : –p position du dernier dépendant à gauche –q position du dernier dépendant à droite Ex : la tranche [4,4,Cl, 0, 0 ] + [5,5,V, 0, 0 ] +  [4,5,V, -4, 0 ] (V) (Cl) -4 dobj

19 Sylvain Kahane, EHESS, 30 mars 200118 Sous-catégorisation (1) n Ajouter la liste de sous-catégorisation Ex : la tranche [4,4,Cl, Ø ] + [5,5,V, {suj,dobj} ] +  [4,5,V, {suj} ] (comparer avec Head-Daughter Schema d'HPSG) Une phrase de longueur n est reconnue si on obtient [1, n,V, Ø ] n On peut voir HPSG comme une version procédurale orientée vers l'analyse CKY d'une grammaire de dépendance (V) (Cl) -4 dobj

20 Sylvain Kahane, EHESS, 30 mars 200119 Sous-catégorisation (2) n Remplacer la liste de sous-cat par la règle lexicalisée Ex : la tranche [4,4, ] + [5,5, ] +  [4,5, ] n Principe de localité TRANCHER (V)present suj dobj (N) LUI (N,pro)acc (N) TRANCHER (V)present suj (N) (V) (N,pro)acc -4 dobj

21 Sylvain Kahane, EHESS, 30 mars 200120 Non projectivité n Règles de "lifting" permettant de remonter un élément sur un ancêtre de son gouverneur : ajouter la liste des éléments liftés (cf. Slash en HPSG) n Variante : garder en mémoire la description de d'autres nœuds que la tête n Si le nombre d'éléments mémorisables est borné, l'algo reste polynomial

22 Sylvain Kahane, EHESS, 30 mars 200121 CKY et incrémentalité n CKY est strictement montant : une fois qu'un élément a été combiné avec son gouverneur, on ne peut plus le combiner avec un dépendant Ex : Le garçon que j'ai rencontré la semaine dernière est étudiant n Conclusion : CKY est simple, mais psycholinguistiquement non motivé

23 Sylvain Kahane, EHESS, 30 mars 200122 Algorithme d'Earley n Earley 1970, Lombardo 1996 Algorithme descendant en O( n 3 ) n Plutôt incrémental, mais oblige à anticiper, dès le premier mot, sur la chaîne complète de ses ancêtres dans l'arbre n Pas adapté aux langages ambigus et donc aux langues naturelles Ex : Où penses-tu que Marie a l'intention d'aller ? (un V peut subordonnner un V qui peut subordonner un V qui …)

24 Sylvain Kahane, EHESS, 30 mars 200123 4.3 Analyse incrémentale

25 Sylvain Kahane, EHESS, 30 mars 200124 Analyse incrémentale et choix (1) n Analyse incrémentale = analyse qui se développe au fur et à mesure de la lecture n Traitement de l'ambiguïté : lorsqu'on a le choix entre deux regles, on peut –choisir une des deux règles et revenir en arrière en cas d'échec –mener en parallèle les deux analyses n Analyse incrémentale stricte = analyse incrémentale sans retours en arrière

26 Sylvain Kahane, EHESS, 30 mars 200125 Modèle cognitif n Les humains analysent au fur et à mesure de la réception n Dans certains cas d'ambiguïté, les humains font des retours en arrière (garden-paths) (i) Le diplomate russe reconduit à la frontière un espion international (ii) Le diplomate russe reconduit à la frontière est un espion international Objectif : simuler l'analyse humaine et faire des choix quand un humain en fait ( reconduit : ambiguïté structurale majeure)

27 Sylvain Kahane, EHESS, 30 mars 200126 Analyseur à pile On laisse de côté la question de l'ambiguïté pour l'instant Garder en mémoire dans une pile les descriptions de mots Symboles de pile : [X, ±, p, q] –X = catégorie du mot –± = ± gouverné –p = position du dernier dépendant à gauche –q = position du dernier dépendant à droite (pas de sous-catégorisation pour l'instant) n Relier les mots par des opérations sur la pile

28 Sylvain Kahane, EHESS, 30 mars 200127 Analyseur à pile n Etape 0 : initialisation –curseur à gauche –pile vide le boucher sale la tranche

29 Sylvain Kahane, EHESS, 30 mars 200128 Analyseur à pile n Etape 1 le boucher sale la tranche [D - 0 0 ] Règle : le  LE (D)masc,sg D

30 Sylvain Kahane, EHESS, 30 mars 200129 Analyseur à pile n Etape 2 le boucher sale la tranche D [D - 0 0 ] N [N - 0 0 ] Règle : boucher  BOUCHER (N,masc)sg

31 Sylvain Kahane, EHESS, 30 mars 200130 Analyseur à pile n Etape 3 le boucher sale la tranche ND ‹det Règle : (N) (D) -10 dét [D - 0 0 ] [N - 0 0 ]

32 Sylvain Kahane, EHESS, 30 mars 200131 Analyseur à pile n Etape 3 le boucher sale la tranche ND ‹det Règle : (N) (D) -10 dét [N - -10 0 ]

33 Sylvain Kahane, EHESS, 30 mars 200132 Analyseur à pile n Etape 4 le boucher sale la tranche ND ‹det [N - -10 0 ] A [A - 0 0 ] Règle : sale  SALE (Adj)masc,sg

34 Sylvain Kahane, EHESS, 30 mars 200133 Analyseur à pile n Etape 5 le boucher sale la tranche AND mod› ‹det Règle : (A) (N) +5 mod [N - -10 0 ] [A - 0 0 ]

35 Sylvain Kahane, EHESS, 30 mars 200134 Analyseur à pile n Etape 5 le boucher sale la tranche AND mod› ‹det [N - -10 +5 ] Règle : (A) (N) +5 mod [A + 0 0 ]

36 Sylvain Kahane, EHESS, 30 mars 200135 Analyseur à pile n Etape 6 le boucher sale la tranche AND mod› ‹det [Cl - 0 0 ] Règle : la  LUI (Cl)acc,fém,sg Cl [N - -10 +5 ] [A + 0 0 ]

37 Sylvain Kahane, EHESS, 30 mars 200136 Analyseur à pile n Etape 7 le boucher sale la tranche ANClD mod› ‹det Règle : tranche  TRANCHER (V)ind,prés,3,sg V [Cl - 0 0 ] [N - -10 +5 ] [A + 0 0 ] [V - 0 0 ]

38 Sylvain Kahane, EHESS, 30 mars 200137 Analyseur à pile n Etape 8 le boucher sale la tranche A V NClD mod› ‹det ‹obj [Cl - 0 0 ] [N - -10 +5 ] [A + 0 0 ] [V - 0 0 ] Règle : (V) (Cl) -4 obj

39 Sylvain Kahane, EHESS, 30 mars 200138 Analyseur à pile n Etape 8 le boucher sale la tranche A V NClD mod› ‹det ‹obj [N - -10 +5 ] [A + 0 0 ] [V - -4 0 ] Règle : (V) (Cl) -4 obj

40 Sylvain Kahane, EHESS, 30 mars 200139 Analyseur à pile n Etape 9 le boucher sale la tranche A V NClD mod› ‹det ‹obj [N - -10 +5 ] [A + 0 0 ] Règle : dépilement d'un élément gouverné [V - -4 0 ]

41 Sylvain Kahane, EHESS, 30 mars 200140 Analyseur à pile n Etape 9 le boucher sale la tranche A V NClD mod› ‹det ‹obj [N - -10 +5 ] Règle : dépilement d'un élément gouverné [V - -4 0 ]

42 Sylvain Kahane, EHESS, 30 mars 200141 Analyseur à pile n Etape 10 le boucher sale la tranche A V NClD mod› ‹suj ‹det ‹obj Règle : (V) (N) -10 suj [N - -10 +5 ] [V - -4 0 ]

43 Sylvain Kahane, EHESS, 30 mars 200142 YES Analyseur à pile n Etape 10 le boucher sale la tranche A V NClD mod› ‹suj ‹det ‹obj Règle : (V) (N) -10 suj [V - -10 0 ]

44 Sylvain Kahane, EHESS, 30 mars 200143 Transitions de l'analyseur (1) (V) (N) -10 suj Transition: n Ne rien lire n Remplacer par n Produire suj [V - -10 q ] [N - p' q' ] [V - p q ]

45 Sylvain Kahane, EHESS, 30 mars 200144 Transitions de l'analyseur (2) n Quatre types de transition –Transition de stockage : lire un nœud, l'empiler et le produire –Transition de liage : produire une dépendance < Poids négatif (gouverneur à droite) : supprimer la deuxième case de la pile < Poids positif (gouverneur à gauche) : indiquer que le nœud de la première case est gouverné –Transition de déstockage : supprimer la première case si le nœud est gouverné

46 Sylvain Kahane, EHESS, 30 mars 200145 Transducteur n L'analyseur construit un arbre projectif –tous les nœuds sont gouvernés sauf un –le dernier nœud entré est le premier sorti (  projectivité + acyclicité) n Beaucoup plus simple de verifier qu'un graphe est un arbre projectif que de vérifier que c'est un arbre

47 Sylvain Kahane, EHESS, 30 mars 200146 Variantes et améliorations (1) n Mettre dans chaque case un chunk (analyseur en flux de Vergne) n Prendre en compte la sous-catégorisation –mettre dans chaque case un nœud et sa valence (Nasr 1995, 96 ; Kahane 2000 ; grammaires catégorielles Adjukiewicz-Bar-Hillel) –mettre un lien potentiel dans chaque case (Link Grammars, Sleator & Temperley 1993) (pas de distinction entre actants et modifieurs)

48 Sylvain Kahane, EHESS, 30 mars 200147 Variantes et améliorations (2) n Traitement de la non-projectivité –garder plus d'un mot en mémoire dans une case (Nasr 1996 ; Kahane 2000) –autoriser des règles de transition permettant d'accéder à des cases plus profondes (Kahane 1996) –ajouter un trait slash la personne à qui je veux parler

49 Sylvain Kahane, EHESS, 30 mars 200148 Ambiguïtés (1) n Ambiguïté (locale) = plusieurs règles peuvent s'appliquer n 1ère technique : choisir une règle et revenir en arrière en cas d'échec et choisir une autre règle  exponentiel dans le pire des cas Pour éviter le problème : –faire un seul choix (traitement linéaire) –mémoïsation : conserver en mémoire les analyses déjà faite pour ne pas les refaire (Link Grammars : compléxité en O( n 3 ))

50 Sylvain Kahane, EHESS, 30 mars 200149 Ambiguïtés (2) n 2ème technique : mener en parallèle les différents choix  exponentiel dans le pire des cas Pour éviter le problème : –dupliquer la pile à chaque ambiguïté et factoriser les opérations effectuées plusieurs fois (pile à structure de graphe : Tomita 1988, Nasr 1996) n “3ème technique” : éviter de proposer des choix inutiles

51 Sylvain Kahane, EHESS, 30 mars 200150 Ambiguïté (3) n Point de vue linguistique et cognitif : il existe des situation où un locuteur fait des choix (garden-path) et d'autres où il n'en fait pas –parler à Marie, parler de Jean, parler à Marie de Jean –Le diplomate reconduit à la frontière …. Conséquence : il faut travailler au niveau de la grammaire et pas seulement au niveau des algos d'analyse

52 Sylvain Kahane, EHESS, 30 mars 200151 Flux et complexité n Flux = nombre de dépendances liant un mot à gauche à un mot à droite n Le flux des phrases d'un langue naturelle est borné (limitations mémorielles)  Le nombre de cases dans la pile est borné  Le nombre de contenu de pile est fini  Equivalence avec un automate fini  Analyse en temps linéaire 012120

53 Sylvain Kahane, EHESS, 30 mars 200152 Conclusion n La dépendance est présente dans tous les formalismes contemporains, mais elle est souvent cachée n Séparation entre dépendance syntaxique et sémantique n Intérêt d'une représentation syntaxique qui ne présuppose pas l'ordre linéaire et le regroupement en syntagme

54 Sylvain Kahane, EHESS, 30 mars 200153 Conclusion n On peut réduire certains problème algorithmique en écrivant mieux les grammaires (et éviter l'explosion combinatoire du nombre de règles lors d'un analyse verticale ou d'un lexicalisation de la grammaire) n Pradoxalement, les grammaires syntagma- tiques présupposent une analyse trop basée sur la dépendance (les seuls syntagmes considérés sont des projections des têtes) (cf. comparaison entre analyse CKY et HPSG)

55 Sylvain Kahane, EHESS, 30 mars 200154 Conclusion n Rôle primordiale de structure communicative: –ordre des mots –prosodie –constructions particulières : clivage, dislocation, … n Les syntagmes (constituants morphologiques) dépendent de la structure de dépendance, de la structure communicative et de la structure topologique (Gerdes & Kahane, ACL 2001) n Synthèse de la prosodie (basée sur les constitunats morphologiques, chunks et autres) : Mertens 1997, Vergne 2000

56 MERCI


Télécharger ppt "Grammaires de dépendance et théorie Sens-Texte (4) Sylvain Kahane Lattice, Université Paris 7 TALN, 5 juillet 2001, Tours."

Présentations similaires


Annonces Google