Week 9: Probabilistische Grammatica's Jurafsky & Martin (ed. 1), Hoofdstuk 12: Lexicalized and Probabilistic Parsing) Taaltheorie en Taalverwerking Remko.

Slides:



Advertisements
Verwante presentaties
Statistische uitspraken over onbekende populatiegemiddelden
Advertisements

Tevredenheid met behandelaar en behandeling.
Inleiding in de statistiek voor de gedragswetenschappen Met ondersteuning van SPSS Guido Valkeneers.
Gelijkmatige toename en afname
Uitleg meewerkend voorwerp (mv)
Vanaf oktober verkrijgbaar: Muiswerk Uitdrukkingen 1
Taaltheorie en Taalverwerking Week 4: Parseer-algoritmes.
Taaltheorie en Taalverwerking Week 3: Syntax van Natuurlijke Taal.
Bayesiaanse Netwerken
Compositionaliteit, bereik en lambda’s
Grammaticale modellen
Het CE wiskunde C Ruud Stolwijk Toetsdeskundige wiskunde bij Cito
Visibility-based Probabilistic Roadmaps for Motion Planning Tim Schlechter 13 februari 2003.
vwo C Samenvatting Hoofdstuk 14
Differentieer regels De afgeleide van een functie f is volgens de limietdefinitie: Meestal bepaal je de afgeleide niet met deze limietdefinitie, maar.
Differentieer regels De afgeleide van een functie f is volgens de limietdefinitie: Meestal bepaal je de afgeleide niet met deze limietdefinitie, maar.
Deze les wordt verzorgd door de Kansrekening en statistiekgroep Faculteit W&I TU/e.
Definite Clause Grammar
1. Parsing (epsilon’s, tabellen) 2. Unificatie grammatica Natuurlijke taalverwerking week 7.
Natuurlijke Taalverwerking
Categoriale Grammatica
Natuurlijke taalverwerking week 4
AI91  Het Probleem  Grammatica’s  Transitie netwerken Leeswijzer: Hoofdstuk AI Kaleidoscoop College 9: Natuurlijke taal.
Bayesiaanse Netwerken
Meetonzekerheden In de natuurkunde moet je vaak een grootheid meten
Parsing: Top-down en bottom-up
Grammar Chapter 4 – G2 If + past simple. Je wist al dat je voor het woordje als in het Engels if kunt gebuiken. We gaan hier even mee verder. Het kan.
Woordvolgorde met woorden van tijd
ANother Tool for Language Recognition
Liesbeth Van Raemdonck
Inhoud Korte inleiding Kwantitatieve- en kwalitatieve krimp Krimp en ruimte Conclusie * Vragen na de presentatie svp.
Chapter 5 Hit the road Grammar Stepping Stones 2 kgt.
Gebiedende wijs 1.Cross Victoria Street. 2.Sit still, please. 3.Read the article on this page. 4.Watch out! Als je tegen iemand wilt zeggen dat hij/zij.
Taaltheorie en Taalverwerking Week 5: – Natuurlijke Taal Syntax. (Uitbreiding op CFG: Features.) – Human Parsing: Center-Embedding.
Semantische Interpretatie Jurafsky & Martin (Ed. 1): Hoofdstuk 15
The Passive Voice de lijdende vorm.
Lesson 9.
HISPARC HISPARC: Onderzoek van kosmische straling in een samenwerking tussen universiteiten en middelbare scholen Wetenschap Techniek Educatie Outreach.
Three steps to success Foutloos zinnen vertalen in drie stappen
MET DANK AAN COLLEGA’S IN DEN LANDE ! vee 2012
Grammatica Nederlands
Taaltheorie en Taalverwerking Parsing Continued. Totnutoe: Top-Down-Parser.
Lesson 8. Today’s lesson  Exam material  Check homework  Grammar: the passive voice.
Reguliere talen nReguliere grammatica: versimpelde Contextvrije grammatica nFinite-state Automaton: andere manier om een taal te beschrijven nReguliere.
POL (MO)-methode  Dit is de kapstok waar je de rest van de zin aan op kunt hangen.  Vervolgens kijk je of er eventueel een meewerkend voorwerp in.
Kunstmatige Intelligentie, 2009/2010, 2e semester Taaltheorie en Taalverwerking Remko Scha Week 11 Discourse.
Deel 2: Onzekerheid in redeneren
Inleiding in de statistiek voor de gedragswetenschappen
Parsing 1. Situering Contextvrije grammatica’s Predictive (of recursive-descent) parsing LR-parsing Parser generator: Yacc Error recovery 2.
Deltion College Engels B2 Lezen [Edu/004] thema: Scanning, a race against the time can-do: kan snel belangrijke detailinformatie vinden in lange en complexe.
Stage: Basisschool de Klingerberg
Syntaxis 1. Inleiding: Combinaties Combinaties op verschillende niveaus: Lettergrepen als combinaties van fonemen. (College 3,4) Woorden als combinaties.
Zinnen 1 Henriëtte de Swart.
Tentamen vraag 1 nElke reguliere zin is ook contextvrij nElke reguliere taal is ook contextvrij nElke contextvrije grammatica is ook regulier nonsens “regulier”
Deltion College Engels A1 Lezen [Edu/003] thema: simple stories can-do : kan specifieke informatie vinden en begrijpen in eenvoudig, alledaags materiaal.
Het werkwoord ontleed(t)
Mavo 4.  Goal(s)  Letter Puzzle  Write a letter  Check the letters  Do assignments 4A, 5A, 6A & 7 in Student Book page 50  Evaluation.
Automatisch Vertalen SMT Lieve Macken Vakgroep Vertalen, Tolken en Communicatie.
VISUALISATIE Rogier van der Linde & Davy De Winne, 2014.
Brainstorming Rogier van der Linde, WAT & WAAROM BRAINSTORMEN 2 Genereren van ideeën of oplossingen voor één of meerdere problemen waar je normaal.
Grammatica zinsdelen H1 t/m H6
Possessive forms of nouns
Woordvolgorde in Engelse bevestigende en vragende zinnen.
Today: Chapter 2 Discuss SO 2 What to study for your test?
Possessive forms of nouns
Video and Radio NU Engels unit 5.1.
Unit 2: LESSON 2 practicing the grammar: betrekkelijke voornaamwoorden
Reading strategies 2 Meaning of words, fixed expressions, multiple choice questions, open questions, article.
Chapter 3 Who dares? Grammar Stepping Stones 3 havo
Transcript van de presentatie:

Week 9: Probabilistische Grammatica's Jurafsky & Martin (ed. 1), Hoofdstuk 12: Lexicalized and Probabilistic Parsing) Taaltheorie en Taalverwerking Remko Scha, ILLC Opleiding Kunstmatige Intelligentie

Ambiguïteit

Cf.: Can you book me a flight? Can you book Mr. Jones some flights?

Syntactische Ambiguïteit Wat voor redenen zijn er om Can you [book [TWA flights]]? te verkiezen boven Can you [book TWA flights]? 1. Pragmatisch: Men vraagt niet vaak of je voor een specifiek iemand vluchten kunt boeken. Of: men vraagt niet vaak over vluchten zonder verdere specificaties. 2. Semantisch: Vluchten boeken voor een vliegmaatschappij is onzinnig in dit domein. 3. Syntactisch: Werkwoorden worden meestal zonder meewerkend voorwerp gebruikt; of: "to book" wordt meestal zonder meewerkend voorwerp gebruikt; of: "flights" wordt vaak met een modifier gebruikt; etc.

Syntactische Ambiguïteit Disambiguërings-methodes: 1./2. Pragmatisch/Semantisch: Bepaal betekenis-representaties voor elk van de mogelijke interpretaties. Redeneer over wat iemand kan willen weten en over wat zinnig is in dit domein. [Ouderwetse symbolische A.I.]

Syntactische Ambiguïteit Disambiguërings-methodes: 1./2. Pragmatisch/Semantisch: Bepaal betekenis-representaties voor elk van de mogelijke interpretaties. Redeneer over wat iemand kan willen weten en over wat zinnig is in dit domein. 2. Syntactisch: Doe statistiek over syntactische structuren.

Syntactische Ambiguïteit Disambiguërings-methodes: 1./2. Pragmatisch/Semantisch: Bepaal betekenis-representaties voor elk van de mogelijke interpretaties. Redeneer over wat iemand kan willen weten en over wat zinnig is in dit domein. 2. Syntactisch: Doe statistiek over syntactische structuren. Merk op: distributie van syntactische structuren kan correleren met pragmatisch/semantische regelmatigheden

Syntactische Ambiguïteit Disambiguërings-methodes: 1./2. Pragmatisch/Semantisch: Bepaal betekenis-representaties voor elk van de mogelijke interpretaties. Redeneer over wat iemand kan willen weten en over wat zinnig is in dit domein. 2. Syntactisch: Doe statistiek over syntactische structuren. Merk op: distributie van syntactische structuren correleert met pragmatisch/semantische regelmatigheden, vooral als we ook informatie over specifieke lexicale items meenemen.

Kansrekening: Basics. [Russell & Norvig, pp ]

Kansrekening: Basics. Het begrip kans veronderstelt een partitie van een ruimte van mogelijkheden. Een kans beschrijft de relatieve grootte van een deel van die ruimte. B.v.: een meting met k mogelijke uitkomsten: P(1) + P(2) P(k) = 1.

Kansrekening: Basics. Joint probabilities. Als A en B uitkomsten zijn van 2 verschillende onafhankelijke metingen, dan is de kans op A en B: P(A & B) = P(A)  P(B)

Kansrekening: Basics. Conditionele waarschijnlijkheden. De kans op A gegeven B schrijven we als: P(A|B)

Kansrekening: Basics. Algemeen geldt: P(A & B) = P(A|B)  P(B) P(A & B) = P(B|A)  P(A) Als A en B onafhankelijk zijn, dan is P(A|B) = P(A) P(B|A) = P(B) dus P(A & B) = P(A)  P(B)

Statistische syntactische desambiguëring.

Eenvoudigste idee: Probabilistische Contextvrije Grammatica (PCFG)

Voeg aan elke herschrijfregel (A   ) een conditionele kans toe: P(A   | A)

Probabilistische Contextvrije Grammatica (PCFG) Voeg aan elke herschrijfregel (A   ) een conditionele kans toe: P(A   | A) Eis:   P(A  ) = 1

CFG: 4-tupel N: eindige verzameling non-terminale symbolen (b.v.: {S, NP, VP, noun, article,...})  : eindige verzameling terminale symbolen (b.v.: {the, a, boy, wumpus,...}) N   =  S: startsymbool; S  N P: eindige verzameling herschrijfregels { A ,.....} A  N,   (N   )* Cf. Jurafsky & Martin: Hoofdstuk 9 (Context-Free Grammars for English), p. 331

PCFG: 5-tupel N: eindige verzameling non-terminale symbolen (b.v.: {S, NP, VP, noun, article,...})  : eindige verzameling terminale symbolen (b.v.: {the, a, boy, wumpus,...}) N   =  S: startsymbool; S  N P: eindige verzameling herschrijfregels { A ,.....} A  N,   (N   )* D: functie die aan elke regel p  P een getal tussen 0 en 1 toekent.  A  N   P(A  ) = 1 Cf. Jurafsky & Martin: Hoofdstuk 12, pp. 448/449

PCFG Kans op een parse-tree = Product van de kansen van alle toegepaste regels

Example PCFG

P =.15 *.40 *.05 *.05 *.35 *.75 *.40 *.40 *.40 *.30 *.40 *.50 = 1.5 * P =.15 *.40 *.40 *.05 *.05 *.75 *.40 *.40 *.40 *.30 *.40 *.50 = 1.7 * Statistische Desambiguëring: Kies de boom met de hoogste waarschijnlijkheid

Kans op een zin = Som van de kansen van de verschillende bomen van die zin. (Toepassing: Spraakherkenning.)

Hoe bepaal je de kansen van de CFG-regels? • Schatting op basis van de relatieve frequenties in een "treebank" (syntactisch geannoteerd corpus). • "Expectation Maximization": Gegeven een "plat" corpus (collectie zinnen): stel de waarschijnlijkheden zodanig in, dat de kans om dat corpus te genereren zo groot mogelijk is.

Beperking van PCFG's: De toepassingen van de herschrijfregels worden behandeld als statistisch onafhankelijk.

Een PCFG kent aan deze beide analyses altijd dezelfde waarschijnlijkheid toe!

Oplossing: • PCFG's met verrijkte labels die niet-locale informatie coderen • Stochastic Tree Substitution Grammars

Lexicalized PCFG's: Head-features (Collins et al.)

Lexicalized PCFG's: Head-features VP(dumped)  VBD(dumped) NP(sacks) PP(into) waarschijnlijk NP(sacks)  NP(sacks) PP(into) onwaarschijnlijk VP(dumped)  VBD(dumped) NP(sacks) PP(with) niet heel waarschijnlijk NP(sacks)  NP(sacks) PP(with) heel waarschijnlijk

Data-Oriented Parsing (DOP) (Scha, Bod, Sima'an) Gebruik een geannoteerd corpus ("treebank"). Lees een Stochastic Tree Substitution Grammar rechtstreeks af uit het corpus. (PPT-presentatie van Guy De Pauw, Universiteit Antwerpen)

Data-Oriented Parsing (DOP) Gebruik een geannoteerd corpus. Gebruik een Stochastic Tree Substitution Grammar Lees deze STSG rechtstreeks af uit het corpus (PPT van Guy De Pauw, Universiteit Antwerpen)

Treebank

Sentence to be parsed: Peter killed the bear 1 parse-tree; meerdere afleidingen Data-Oriented Parsing

An annotated corpus defines a Stochastic Tree Substitution Grammar Probability of a Derivation: Product of the Probabilities of the Subtrees

Probability of a Derivation: Product of the Probabilities of the Subtrees Probability of a Parse: Sum of the Probabilities of its Derivations An annotated corpus defines a Stochastic Tree Substitution Grammar

Probability of a Derivation: Product of the Probabilities of the Subtrees Probability of a Parse: Sum of the Probabilities of its Derivations Disambiguation: Choose the Most Probable Parse An annotated corpus defines a Stochastic Tree Substitution Grammar

Human parsing continued.

•Center-embedding (J&M, § 13.4)

Human parsing continued. •Center-embedding (J&M, § 13.4) •Garden-path sentences (J&M, § 12.5)

Garden-path sentences "The horse raced past the barn

Garden-path sentences "The horse raced past the barn fell."

Garden-path sentences "The complex houses

Garden-path sentences "The complex houses graduate students."

Garden-path sentences "The student forgot the solution

Garden-path sentences "The student forgot the solution was in the back of the book."

Garden-path sentences •Desambiguëring gebeurt incrementeel. •Desambiguëringsbeslissing kan te vroeg genomen worden.

Opgave: (1) Gebruik waarschijnlijkheden aan toe aan je CFG. (2) Zorg dat je parser alle mogelijke analyses van de input-zin oplevert. (3) Zorg dat je parser de waarschijnlijkheden van alle analyses berekent, en de meest waarschijnlijke boom als output geeft.

Spraak & Taal: "Language Modelling" Spraak: Giswerk. Corpus-gebaseerde aanpak: Sla heel veel geluiden op en kijk waar het input-signaal het meest op lijkt. Men doet dit met statistiek: Men schat de kans dat aan een stukje input-signaal een bepaald foneem ten grondslag ligt.

Spraak & Taal: "Language Modelling" De spraakherkennings-technologie stelt ons in staat om voor elk kandidaat-woord W en elk input-signaal te schatten: de kans dat iemand W uitspreekt als S: P(S | W)

Spraak & Taal: "Language Modelling" De spraakherkennings-technologie stelt ons in staat om voor elk kandidaat-woord W en elk input-signaal te schatten: de kans dat iemand W uitspreekt als S: P(S | W) Wat we willen weten is: De kans dat aan het gegeven input-signaal S een kandidaat-woord W ten grondslag ligt: P(W | S)

Spraak & Taal: "Language Modelling" De spraakherkennings-technologie stelt ons in staat om voor elk kandidaat-woord W en elk input-signaal te schatten: de kans dat iemand W uitspreekt als S: P(S | W) Wat we willen weten is: De kans dat aan het gegeven input-signaal S een kandidaat-woord W ten grondslag ligt: P(W | S) Wat nu?

Elementaire kansrekening: de regel van Bayes

P(W & S) = P(W|S)  P(S) P(W & S) = P(S|W)  P(W)

Elementaire kansrekening: de regel van Bayes P(W & S) = P(W|S)  P(S) P(W & S) = P(S|W)  P(W) P(W|S)  P(S) = P(S|W)  P(W)

Elementaire kansrekening: de regel van Bayes P(W & S) = P(W|S)  P(S) P(W & S) = P(S|W)  P(W) P(W|S)  P(S) = P(S|W)  P(W) P(W|S) = P(S|W)  P(W) / P(S)

Elementaire kansrekening: de regel van Bayes P(W & S) = P(W|S)  P(S) P(W & S) = P(S|W)  P(W) P(W|S)  P(S) = P(S|W)  P(W) P(W|S) = P(S|W)  P(W) / P(S) P(W|S) ≈ P(S|W)  P(W) P(W) is de a priori kans op woord W

Spraak & Taal: "Language Modelling" Voor de spraakherkenning willen we weten: de a priori kansen op alle mogelijke woorden.

Spraak & Taal: "Language Modelling" Voor de spraakherkenning willen we weten: de a priori kansen op alle mogelijke woorden. Hoe komen we daar achter? Tellen in een representatief corpus.

Statistical Language Model P(the cat is on the mat) = P(the | ) * P(cat | the) * P(is | the cat) * P(on | the cat is) * P(the | the cat is on) * P (mat | the cat is on the) * P( | the cat is on the mat)

P(W 1,…,W N ) =

Bigram models P(the cat is on the mat) = P(the | ) * P(cat | the) * P(is | cat) * P(on | is) * P(the | on) * P (mat | the) * P( | mat)

Example: Bigrams

Example: Bigrams (continued) P(I want to eat British food) = P(I| )P(want|I)P(to|want)P(eat|to)P(British|eat) P(food|British) =.25 *.32 *.65 *.26 *.002 *.60 =

Trigram models P(the cat is on the mat) = P(the | ) * P(cat | the) * P(is | the cat) * P(on | cat is) * P(the | is on) * P (mat | on the) * P( | the mat)

Estimating bigram probabilities e.g. P (book | the) =C(the,book) C(the)