Machine Comprehension with Discourse Relations Karthik Narasimhan - - PowerPoint PPT Presentation

machine comprehension with discourse relations
SMART_READER_LITE
LIVE PREVIEW

Machine Comprehension with Discourse Relations Karthik Narasimhan - - PowerPoint PPT Presentation

Machine Comprehension with Discourse Relations Karthik Narasimhan Regina Barzilay CSAIL, Massachusetts Institute of Technology 1 Sally liked going outside. She put on her shoes. She went outside to walk. [...]


slide-1
SLIDE 1

Machine Comprehension with Discourse Relations

Karthik Narasimhan Regina Barzilay CSAIL, Massachusetts Institute of Technology

1

slide-2
SLIDE 2

Sally ¡liked ¡going ¡outside. ¡She ¡put ¡on ¡her ¡shoes. ¡She ¡went ¡

  • utside ¡to ¡walk. ¡[...] ¡Missy ¡the ¡cat ¡meowed ¡to ¡Sally. ¡Sally ¡waved ¡

to ¡Missy ¡the ¡cat. ¡[...] ¡Sally ¡hears ¡her ¡name. ¡”Sally, ¡Sally, ¡come ¡ home”, ¡Sally’s ¡mom ¡calls ¡out. ¡Sally ¡runs ¡home ¡to ¡her ¡Mom. ¡ Sally ¡liked ¡going ¡outside. ¡ ¡ ¡ Why ¡did ¡Sally ¡put ¡on ¡her ¡shoes?
 A) ¡To ¡wave ¡to ¡Missy ¡the ¡cat
 B) ¡To ¡hear ¡her ¡name
 C) ¡Because ¡she ¡wanted ¡to ¡go ¡outside ¡ ¡ D) ¡To ¡come ¡home ¡

Sample passage excerpt and question in a Machine Comprehension task

2

slide-3
SLIDE 3

Reasoning over multiple sentences

3

Multi-sentential questions are significantly harder than single sentence ones

Accuracy of baseline systems

  • n MC500-test

20 40 60 80 SWD RTE RTE+SWD

Single Multi

We focus on modeling multi-sentence relations to improve Q&A performance.

slide-4
SLIDE 4

Is there only a single relation?

She put on her shoes She went outside to walk

Causality

Why did Sally put on her shoes? When did Sally put on her shoes?

4

Relation between two clauses is question- dependent.

Temporality

slide-5
SLIDE 5

Key idea: Learn relations

  • ptimized for MC

5

Sally ¡liked ¡going ¡outside. ¡[…] ¡ Why ¡did ¡Sally ¡put ¡on ¡her ¡shoes?
 C) ¡Because ¡she ¡wanted ¡to ¡go ¡

  • utside ¡✓

Training data: Q&A pairs

Hypothesis: Task-based discourse relations can facilitate better Comprehension Q&A

Traditional approach: Use off-the-shelf discourse analyzers

(Source: Feng and Hirst, 2012)

slide-6
SLIDE 6

Why ¡did ¡Sally ¡put ¡on ¡her ¡shoes?
 A) ¡To ¡wave ¡to ¡Missy ¡the ¡cat
 B) ¡To ¡hear ¡her ¡name
 C) ¡Because ¡she ¡wanted ¡to ¡go ¡outside ¡✓ ¡ D) ¡To ¡come ¡home ¡

She went outside to walk She put on her shoes

Causality

6

Fully supervised case

slide-7
SLIDE 7

Why ¡did ¡Sally ¡put ¡on ¡her ¡shoes?
 A) ¡To ¡wave ¡to ¡Missy ¡the ¡cat
 B) ¡To ¡hear ¡her ¡name
 C) ¡Because ¡she ¡wanted ¡to ¡go ¡outside ¡✓ ¡ D) ¡To ¡come ¡home ¡

She went outside to walk She put on her shoes

7

slide-8
SLIDE 8

Why ¡did ¡Sally ¡put ¡on ¡her ¡shoes?
 A) ¡To ¡wave ¡to ¡Missy ¡the ¡cat
 B) ¡To ¡hear ¡her ¡name
 C) ¡Because ¡she ¡wanted ¡to ¡go ¡outside ¡✓ ¡ D) ¡To ¡come ¡home ¡

8

Sally ¡liked ¡going ¡outside. ¡She ¡put ¡on ¡her ¡shoes. ¡She ¡went ¡outside ¡to ¡

  • walk. ¡[...] ¡Missy ¡the ¡cat ¡meowed ¡to ¡Sally. ¡Sally ¡waved ¡to ¡Missy ¡the ¡
  • cat. ¡[...] ¡Sally ¡hears ¡her ¡name. ¡”Sally, ¡Sally, ¡come ¡home”, ¡Sally’s ¡mom ¡

calls ¡out. ¡Sally ¡runs ¡home ¡to ¡her ¡Mom. ¡Sally ¡liked ¡going ¡outside. ¡

slide-9
SLIDE 9

Why ¡did ¡Sally ¡put ¡on ¡her ¡shoes?


She went outside to walk She put on her shoes

Causality

9

Identify relevant sentences Infer correct relation Select correct answer

Key Steps

C) ¡Because ¡she ¡wanted ¡to ¡go ¡outside ¡✓

slide-10
SLIDE 10

Three models

10

Identify most relevant sentence from passage Expand to a set of sentences Infer inter-sentential relations

slide-11
SLIDE 11

11

Question - q Answer - a Sentence - z

Sally ¡liked ¡going ¡outside. ¡She ¡put ¡on ¡her ¡shoes. ¡She ¡went ¡

  • utside ¡to ¡walk. ¡[...] ¡Missy ¡the ¡cat ¡meowed ¡to ¡Sally. ¡Sally ¡waved ¡

to ¡Missy ¡the ¡cat. ¡[...] ¡Sally ¡hears ¡her ¡name. ¡”Sally, ¡Sally, ¡come ¡ home”, ¡Sally’s ¡mom ¡calls ¡out. ¡Sally ¡runs ¡home ¡to ¡her ¡Mom. ¡ Sally ¡liked ¡going ¡outside. ¡ ¡ ¡ Why ¡did ¡Sally ¡put ¡on ¡her ¡shoes?
 A) ¡To ¡wave ¡to ¡Missy ¡the ¡cat
 B) ¡To ¡hear ¡her ¡name
 C) ¡Because ¡she ¡wanted ¡to ¡go ¡outside ¡ ¡ D) ¡To ¡come ¡home ¡

slide-12
SLIDE 12

Identifying a relevant sentence (Model 1)

  • Retrieve a single relevant sentence from passage.
  • Joint model over sentence z and answer choice a,

given question q.

12

P(a, z | q) = P(z | q) · P(a | z, q)

slide-13
SLIDE 13

Identifying a relevant sentence set (Model 2)

Extends model 1 to select a pair of relevant sentences from passage.

  • Retrieve a second sentence z2 conditioned on

both question q and the first retrieved sentence z1. P(a, z1, z2 | q) = P(z1 | q) · P(z2 | z1, q) · P(a | z1, z2, q)

13

slide-14
SLIDE 14

Incorporating Relations (Model 3)

Capture inter-sentential relations, modeled as hidden variables. P(a, r, z1, z2 | q) = P(z1 | q) · P(r | q) ·P(z2 | z1, r, q) · P(a | z1, z2, r, q)

14

Flexibility to induce relations between sentences conditioned on the question.

slide-15
SLIDE 15

Learning

  • Supervision: question-answer pairs.
  • Marginalize over hidden variables z and r to get

P(a | q).

  • Maximize the following objective (model 3):

L3(θ; Ptrain) = log X

i,j,m,r∈R

X

n∈[m−k,m+k]

P(a∗

ij, zim, zin, r | qij) − λ||θ||2

15

slide-16
SLIDE 16

Prediction

For a given question q, simply choose answer with highest P(a | q).

  • Marginalize over all hidden variables z and r.

ˆ aj = argmax

k

P(ajk|qj)

16

slide-17
SLIDE 17

Lexical Features

Type 1 (q, z):

  • Unigram and bigram matches + entity and

action matches Type 2 (q, a, z1, [z2]):

  • Capture interactions between a, q and

sentence(s) (z1, z2).

17

slide-18
SLIDE 18

Relational Features

Type 3 (q, r, z1, z3) and Type 4 (q, r):

  • Inter-sentence distance, presence of relation-

specific markers (small seed list) in sentences.

  • Second-order: cross of above features with

entity and action match counts.

  • Connect question word with relation type (Ex.

why and Causality)

18

slide-19
SLIDE 19

Discourse in Q&A

Prior work has shown value of domain-independent discourse relations in Q&A.

  • Chai and Jin (2004) incorporate discourse

processing into context Q&A.

  • Verberne et al. (2007) use Rhetorical Structure

Theory (RST) to relate question topics and answers.

  • Jansen et al. (2014) use discourse information to

improve answer re-ranking for non-factoid Q&A.

19

slide-20
SLIDE 20

Experiments

  • Data: MCTest (Richardson et al., 2013)
  • > 50% of questions require information from multiple

sentences.

  • Evaluation: Answering accuracy with partial credit for

ties (as previously used).

Split& MC160& MC500& Passages& Ques4ons& Passages& Ques4ons& Train& 70& 280& 300& 1200& Dev& 30& 120& 50& 200& Test& 60& 240& 150& 600&

20

slide-21
SLIDE 21

Baselines

Systems from Richardson et al. (2013)

  • SWD: uses sliding window to count matches

between passage words and words in answer.

  • RTE: utilizes a textual entailment system to

determine if answer is entailed by passage.

  • RTE+SWD: weighted combination of systems

above

21

slide-22
SLIDE 22

Comprehension Accuracy

50# 55# 60# 65# 70# 75# MC160#test# MC500#test# Accuracy'

Accuracy'of'baselines'compared'to'our'model'

SWD# RTE# SWD+RTE# Model#3#

22

slide-23
SLIDE 23

Accuracy by Question Type

55" 57" 59" 61" 63" 65" 67" 69" 71" Single" Mul0" Overall" Accuracy' MC500'test'

Comparison'of'our'different'model'variants'

Model"1" Model"2" Model"3"

23

slide-24
SLIDE 24

50# 52# 54# 56# 58# 60# 62# 64# 66# 68# 70# Single# Mul1# Overall# Accuracy' MC500'test'

RST'augmented'model'2'vs'Model'3'

Model#2#+#RST# Model#3#

24

Task-based discourse relations can facilitate better Comprehension Q&A

77% of the predicted RST relations are Elaboration!

slide-25
SLIDE 25

Evaluation using Human judgements

We annotated 240 questions from MC160 test set with most relevant sentence(s) in passage, and relations between sentence pairs.

  • 103 sentence pairs with annotated relations
  • 34% of these have relevant discourse

markers occurring anywhere in sentences.

  • Only 9% of sentences have a marker at an

end.

25

slide-26
SLIDE 26

Sentence Retrieval

Table: Recall (@5) of relevant sentences retrieved by different models compared to human judgements.

22.5 45 67.5 90 Single Multi Overall

Freq Model 1 Model 2 Model 3

26

slide-27
SLIDE 27

Relation Prediction

Table: Recall of annotated relations at various thresholds in ranking produced by Model 3

27

Relation R @ 1 R @ 2 Causal 56.25 75.00 Temporal 27.27 54.54 Explanation 16.66 33.33 Other 57.40 64.81 Overall 51.45 65.04

slide-28
SLIDE 28

Conclusions

  • Discourse relations help in the task of machine

comprehension Q&A involving multiple sentences.

  • A task-specific approach of incorporating

discourse information does better than using off- the-shelf analyzers.

28

Code and data will be available at: http://people.csail.mit.edu/karthikn/mcdr/

slide-29
SLIDE 29

29