Crea%ng Consistent Scene Graphs Using a Probabilis%c Grammar - - PowerPoint PPT Presentation

crea ng consistent scene graphs using a probabilis c
SMART_READER_LITE
LIVE PREVIEW

Crea%ng Consistent Scene Graphs Using a Probabilis%c Grammar - - PowerPoint PPT Presentation

Crea%ng Consistent Scene Graphs Using a Probabilis%c Grammar 1 1,2 3 Tianqiang Liu Siddhartha Chaudhuri Vladimir G. Kim 3,4 5 1 Qi-Xing


slide-1
SLIDE 1

Crea%ng ¡Consistent ¡Scene ¡Graphs ¡ Using ¡a ¡Probabilis%c ¡Grammar ¡

Tianqiang ¡Liu ¡ Siddhartha ¡Chaudhuri ¡ ¡ Vladimir ¡G. ¡Kim ¡ Qi-­‑Xing ¡Huang ¡ Niloy ¡J. ¡Mitra ¡ Thomas ¡Funkhouser ¡

1 1,2 ¡ 3 ¡ 3,4 ¡ 5 ¡ 1 ¡ 1 2 3 4 5

Princeton ¡ University ¡ Cornell ¡ University ¡ Stanford ¡ University ¡ TTIC ¡ UCL ¡

slide-2
SLIDE 2

Mo%va%on ¡

Growing ¡number ¡of ¡3D ¡scenes ¡online. ¡

Google ¡3D ¡warehouse ¡

slide-3
SLIDE 3

Mo%va%on ¡

Synthesis ¡[Fisher ¡et ¡al ¡2012, ¡Xu ¡et ¡al ¡2013] ¡ Understanding ¡[Xu ¡et ¡al ¡2014, ¡Song ¡et ¡al ¡2014] ¡

slide-4
SLIDE 4

Goal ¡

Input: ¡A ¡scene ¡from ¡Trimble ¡3D ¡Warehouse ¡

slide-5
SLIDE 5

Goal ¡

Output ¡1: ¡Seman%c ¡segmenta%ons ¡

slide-6
SLIDE 6

Goal ¡

Output ¡2: ¡Category ¡labels. ¡

Door ¡ Nightstand ¡ Window ¡ Ma1ress ¡ Bed ¡frame ¡ Pillow ¡ Dresser ¡ Mirror ¡ Heater ¡ Ar:fact ¡

slide-7
SLIDE 7

Goal ¡

Output ¡2: ¡Category ¡labels ¡at ¡different ¡levels. ¡

Bed ¡& ¡supported ¡ Dresser ¡& ¡supported ¡

slide-8
SLIDE 8

Goal ¡

Sleeping ¡area ¡ Vanity ¡area ¡ Door ¡set ¡

Output ¡2: ¡Category ¡labels ¡at ¡different ¡levels. ¡

slide-9
SLIDE 9

Challenges ¡

Shape ¡is ¡not ¡dis%nc%ve. ¡ ¡

Night ¡table ¡ Console ¡table ¡

slide-10
SLIDE 10

Challenges ¡

Contextual ¡informa%on ¡

Mee:ng ¡chair ¡ Mee:ng ¡table ¡ Study ¡desk ¡ Study ¡chair ¡

slide-11
SLIDE 11

Challenges ¡

0 ¡ 5 ¡ 10 ¡ 0 ¡ 2 ¡ 4 ¡ 6 ¡

Study ¡chair ¡vs ¡Study ¡chair ¡

All-­‑pair ¡contextual ¡informa%on ¡is ¡not ¡dis%nc%ve. ¡

#pairs ¡ feet ¡ #pairs ¡ feet ¡ 0 ¡ 5 ¡ 10 ¡ 15 ¡ 0 ¡ 1 ¡ 2 ¡ 3 ¡ 4 ¡ 5 ¡ 6 ¡

Mee:ng ¡chair ¡vs ¡Mee:ng ¡chair ¡

slide-12
SLIDE 12

Challenges ¡

slide-13
SLIDE 13

Challenges ¡

slide-14
SLIDE 14

Challenges ¡

slide-15
SLIDE 15

0 ¡ 5 ¡ 10 ¡ 15 ¡ 0 ¡ 1 ¡ 2 ¡ 3 ¡ 4 ¡ 5 ¡ 6 ¡

Mee:ng ¡chair ¡vs ¡Mee:ng ¡chair ¡

Challenges ¡

All-­‑pair ¡contextual ¡informa%on ¡is ¡not ¡dis%nc%ve. ¡

0 ¡ 5 ¡ 10 ¡ 0 ¡ 2 ¡ 4 ¡ 6 ¡

Study ¡chair ¡vs ¡Study ¡chair ¡

#pairs ¡ feet ¡ #pairs ¡ feet ¡

slide-16
SLIDE 16

Key ¡Idea ¡

Seman%c ¡groups ¡ Seman%c ¡hierarchy ¡

slide-17
SLIDE 17

Key ¡Idea ¡

0 ¡ 1 ¡ 2 ¡ 0 ¡ 1 ¡ 2 ¡ 3 ¡ 4 ¡

Mee:ng ¡chair ¡vs ¡Mee:ng ¡chair ¡

0 ¡ 0.5 ¡ 1 ¡ 0 ¡ 1 ¡ 2 ¡ 3 ¡ 4 ¡

Study ¡chair ¡vs ¡Study ¡chair ¡

#pairs ¡ feet ¡ #pairs ¡ feet ¡

slide-18
SLIDE 18

Pipeline ¡

Probabilis%c ¡ grammar ¡

slide-19
SLIDE 19

Related ¡Work ¡

Van ¡Kaick ¡et ¡al. ¡2013 ¡

slide-20
SLIDE 20

Related ¡Work ¡

Van ¡Kaick ¡et ¡al. ¡2013 ¡ Boulch ¡et ¡al. ¡2013 ¡

slide-21
SLIDE 21

Overview ¡

Grammar ¡Structure ¡ ¡ ¡ Learning ¡a ¡Probabilis%c ¡Grammar ¡ ¡ ¡ Scene ¡Parsing ¡ ¡ Results ¡

slide-22
SLIDE 22

Probabilis%c ¡Grammar ¡

Labels ¡ ¡ ¡ ¡ Rules ¡ ¡ Probabili%es ¡

slide-23
SLIDE 23

Labels ¡

bed, ¡night ¡table, ¡sleeping ¡area ¡ Examples: ¡

slide-24
SLIDE 24

Rules ¡

sleeping ¡area ¡ bed, ¡night ¡table ¡ Example: ¡

slide-25
SLIDE 25

Probabili%es ¡

Deriva%on ¡probabili%es ¡ ¡ Cardinality ¡probabili%es ¡ ¡ Geometry ¡probabili%es ¡ ¡ Spa%al ¡probabili%es ¡

slide-26
SLIDE 26

Deriva%on ¡probability ¡ ¡ ¡

bed ¡ bed ¡frame, ¡mabress ¡

0.6 P = 0.4 P = 0.6

P

nt

slide-27
SLIDE 27

Cardinality ¡probability ¡

sleeping ¡area ¡ bed, ¡night ¡table ¡

0 ¡ 0.5 ¡ 1 ¡ 0 ¡ 1 ¡ 2 ¡ 3 ¡ 4+ ¡ 0 ¡ 0.5 ¡ 1 ¡ 0 ¡ 1 ¡ 2 ¡ 3 ¡ 4+ ¡

P

card(bed | sleepingarea) P card(nighttable | sleepingarea)

P

card

slide-28
SLIDE 28

Geometry ¡probability ¡

P

g(x | bedframe) > P g(y | bedframe)

x y

P

g

slide-29
SLIDE 29

Spa%al ¡probability ¡

x

P

s(x, y | desk,chair,studyarea) > P s(z, y | desk,chair,studyarea)

y

P

s

z

slide-30
SLIDE 30

Overview ¡

Grammar ¡Structure ¡ ¡ ¡ Learning ¡a ¡Probabilis%c ¡Grammar ¡ ¡ ¡ Scene ¡Parsing ¡ ¡ Results ¡

slide-31
SLIDE 31

Pipeline ¡

Probabilis%c ¡ grammar ¡

slide-32
SLIDE 32

Learning ¡a ¡Probabilis%c ¡Grammar ¡

Iden%fy ¡objects ¡

Speed ¡X ¡5 ¡

slide-33
SLIDE 33

Learning ¡a ¡Probabilis%c ¡Grammar ¡

Label ¡objects ¡

Speed ¡X ¡5 ¡

slide-34
SLIDE 34

Learning ¡a ¡Probabilis%c ¡Grammar ¡

Group ¡objects ¡

Speed ¡X ¡5 ¡

slide-35
SLIDE 35

Learning ¡a ¡Probabilis%c ¡Grammar ¡

Grammar ¡genera%on ¡

¡Labels ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡all ¡unique ¡labels ¡ ¡Rules ¡ ¡ ¡ ¡ ¡ ¡Probabili%es ¡ ¡

slide-36
SLIDE 36

Learning ¡a ¡Probabilis%c ¡Grammar ¡

Grammar ¡genera%on ¡

¡Labels ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡Rules ¡ ¡ ¡ ¡ ¡ ¡ ¡concatena%ng ¡all ¡children ¡for ¡each ¡label ¡ ¡Probabili%es ¡ ¡

Nightstand ¡& ¡ supported ¡ Nightstand ¡ Table ¡lamp ¡ Nightstand ¡& ¡ supported ¡ Nightstand ¡ Plant ¡ Nightstand ¡& ¡ supported ¡ Nightstand ¡ Table ¡lamp ¡ Plant ¡

Training ¡example ¡1: ¡ Training ¡example ¡2: ¡

slide-37
SLIDE 37

Learning ¡a ¡Probabilis%c ¡Grammar ¡

Grammar ¡genera%on ¡

¡Labels ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡Rules ¡ ¡ ¡ ¡ ¡Probabili%es ¡ ¡

P

nt, P card

P

g

P

s

: ¡learning ¡from ¡occurrence ¡sta%s%cs ¡ : ¡es%ma%ng ¡Gaussian ¡kernels ¡ : ¡kernel ¡density ¡es%ma%on ¡ ¡

slide-38
SLIDE 38

Overview ¡

Grammar ¡Structure ¡ ¡ ¡ Learning ¡a ¡Probabilis%c ¡Grammar ¡ ¡ Scene ¡Parsing ¡ ¡ Results ¡

slide-39
SLIDE 39

Pipeline ¡

Probabilis%c ¡ grammar ¡

slide-40
SLIDE 40

Pipeline ¡

Probabilis%c ¡ grammar ¡

slide-41
SLIDE 41

Scene ¡parsing ¡

Objec%ve ¡func%on ¡ ¡ ¡

  • ¡ ¡ ¡ ¡ ¡ ¡is ¡the ¡unknown ¡hierarchy ¡
  • ¡ ¡ ¡ ¡ ¡ ¡is ¡the ¡input ¡scene ¡
  • ¡ ¡ ¡ ¡ ¡ ¡is ¡the ¡probabilis%c ¡grammar ¡

¡

H * = argmaxH P(H | S,G) H S G

slide-42
SLIDE 42

Scene ¡parsing ¡

Ader ¡applying ¡Bayes’ ¡rule ¡ ¡ ¡

H * = argmaxH P(H |G)P(S | H,G)

slide-43
SLIDE 43

Scene ¡parsing ¡

Ader ¡applying ¡Bayes’ ¡rule ¡ ¡ ¡

H * = argmaxH P(H |G)P(S | H,G)

Prior ¡of ¡hierarchy ¡

P(H |G) P(H |G) = P

prod(x)T (x) x∈H

slide-44
SLIDE 44

Scene ¡parsing ¡

Ader ¡applying ¡Bayes’ ¡rule ¡ ¡ ¡

H * = argmaxH P(H |G)P(S | H,G)

Prior ¡of ¡hierarchy ¡

P(H |G) P(H |G) = P

prod(x)T (x) x∈H

∏ P

prod(x)

: ¡probability ¡of ¡a ¡single ¡deriva%on ¡

P

prod(x)

formulated ¡using ¡ ¡ P

nt, P card

slide-45
SLIDE 45

Scene ¡parsing ¡

Ader ¡applying ¡Bayes’ ¡rule ¡ ¡ ¡

H * = argmaxH P(H |G)P(S | H,G)

Prior ¡of ¡hierarchy ¡

P(H |G) P(H |G) = P

prod(x)T (x) x∈H

T(x)

compensates ¡for ¡decreasing ¡probability ¡as ¡ ¡ ¡ ¡ ¡ ¡ ¡has ¡ more ¡internal ¡nodes. ¡ ¡

T(x) H

slide-46
SLIDE 46

Scene ¡parsing ¡

Ader ¡applying ¡Bayes’ ¡rule ¡ ¡ ¡

H * = argmaxH P(H |G)P(S | H,G)

Likelihood ¡of ¡scene ¡

P(S | H,G) P(S | H,G) = P

g(x)T (x)P s *(x)T (x) x∈H

slide-47
SLIDE 47

Scene ¡parsing ¡

Ader ¡applying ¡Bayes’ ¡rule ¡ ¡ ¡

H * = argmaxH P(H |G)P(S | H,G)

Likelihood ¡of ¡scene ¡

P(S | H,G) P(S | H,G) = P

g(x)T (x)P s *(x)T (x) x∈H

∏P

g(x)

P

g(x) : ¡geometry ¡probability ¡ ¡

slide-48
SLIDE 48

Scene ¡parsing ¡

Ader ¡applying ¡Bayes’ ¡rule ¡ ¡ ¡

H * = argmaxH P(H |G)P(S | H,G)

Likelihood ¡of ¡scene ¡

P(S | H,G) P(S | H,G) = P

g(x)T (x)P s *(x)T (x) x∈H

P

s *(x)

: ¡sum ¡of ¡all ¡pairwise ¡spa%al ¡probabili%es ¡

P

s *(x)

P

s(x)

slide-49
SLIDE 49

Scene ¡parsing ¡

We ¡work ¡in ¡the ¡nega%ve ¡logarithm ¡space ¡ ¡ ¡

E(H) = logP(H |G)P(S | H,G) = − T(x)log P

prod(x)P g(x)P s *(x)

( )

x∈H

slide-50
SLIDE 50

Scene ¡parsing ¡

Rewrite ¡the ¡objec%ve ¡func%on ¡recursively ¡ ¡ ¡

E(H) = E(R) E(x) = E(x)+ E(y)

y∈x.children

where ¡ ¡ ¡ ¡ ¡ ¡is ¡the ¡root ¡of ¡ ¡ ¡ ¡ ¡ ¡, ¡ ¡ ¡ ¡ ¡ ¡ ¡is ¡the ¡energy ¡of ¡a ¡sub-­‑tree. ¡ ¡

R H E

X ¡ X ¡

E(x) E(x)

slide-51
SLIDE 51

Scene ¡parsing ¡

The ¡search ¡space ¡is ¡prohibi%vely ¡large ¡… ¡ ¡

  • Problem ¡1: ¡#possible ¡groups ¡is ¡exponen%al. ¡
  • Problem ¡2: ¡#label ¡assignments ¡is ¡exponen%al. ¡

¡

¡ ¡ ¡ ¡

slide-52
SLIDE 52

Scene ¡parsing ¡

Problem ¡1: ¡#possible ¡groups ¡is ¡exponen%al. ¡ ¡ ¡

… ¡ … ¡ … ¡ … ¡ … ¡ … ¡

slide-53
SLIDE 53

Problem ¡1: ¡#possible ¡groups ¡is ¡exponen%al. ¡ Solu%on: ¡proposing ¡candidate ¡groups. ¡ ¡ ¡

Scene ¡parsing ¡

… ¡ … ¡ … ¡ … ¡ … ¡ … ¡

slide-54
SLIDE 54

Scene ¡parsing ¡

Rule:

a ¡ c ¡ d b ¡ a ¡ d ¡ b c ¡ b ¡ d ¡ a ¡ c ¡ c ¡ a ¡ d b ¡

… ¡

r → a,b,c,d

Problem ¡2: ¡#label ¡assignments ¡is ¡exponen%al. ¡ ¡ ¡

slide-55
SLIDE 55

Scene ¡parsing ¡

Problem ¡2: ¡#label ¡assignments ¡is ¡exponen%al. ¡ Solu%on: ¡bounding ¡#RHS ¡by ¡grammar ¡binariza%on ¡

… ¡ … ¡

a1 a2 an x x x x' x' x' x' k k k k k ∈ {a1,a2,...,an}

where ¡x'is ¡par%al ¡label ¡of ¡ ¡x,

slide-56
SLIDE 56

Scene ¡parsing ¡

Problem ¡2: ¡#label ¡assignments ¡is ¡exponen%al. ¡ Solu%on: ¡bounding ¡#RHS ¡by ¡grammar ¡binariza%on ¡

… ¡

k ∈ {a1,a2,...,an}

where ¡ … ¡

a1 a2 an x x x x' x' x' x' k k k k

Now ¡#rules ¡and ¡#assignments ¡are ¡both ¡polynomial. ¡ The ¡problem ¡can ¡be ¡solved ¡by ¡dynamic ¡programming. ¡

x'is ¡par%al ¡label ¡of ¡ ¡x,

slide-57
SLIDE 57

Scene ¡parsing ¡

Problem ¡2: ¡#label ¡assignments ¡is ¡exponen%al. ¡ Solu%on: ¡bounding ¡#RHS ¡by ¡grammar ¡binariza%on ¡

Convert ¡the ¡result ¡to ¡a ¡parse ¡tree ¡of ¡the ¡original ¡grammar ¡

a1 x x' a3 x' a4 a5 x a1 a3 a4 a5

slide-58
SLIDE 58

Overview ¡

Grammar ¡Structure ¡ ¡ ¡ Learning ¡a ¡Probabilis%c ¡Grammar ¡ ¡ Scene ¡Parsing ¡ ¡ Results ¡

slide-59
SLIDE 59

Benefit ¡of ¡hierarchy ¡

Mee:ng ¡table ¡

Shape ¡only ¡

Study ¡chair ¡

slide-60
SLIDE 60

Benefit ¡of ¡hierarchy ¡

Shape ¡only ¡ Flat ¡grammar ¡

Mee:ng ¡chair ¡ Mee:ng ¡table ¡ Mee:ng ¡table ¡ Study ¡chair ¡

slide-61
SLIDE 61

Benefit ¡of ¡hierarchy ¡

Shape ¡only ¡ Flat ¡grammar ¡

Study ¡chair ¡ Study ¡desk ¡ Mee:ng ¡chair ¡ Mee:ng ¡table ¡

Ours ¡

Mee:ng ¡table ¡ Study ¡chair ¡

slide-62
SLIDE 62

Benefit ¡of ¡hierarchy ¡

Shape ¡only ¡ Flat ¡grammar ¡

Mee:ng ¡chair ¡ Mee:ng ¡table ¡

Ours ¡

Study ¡area ¡ Mee:ng ¡area ¡ Mee:ng ¡table ¡ Study ¡chair ¡

slide-63
SLIDE 63

Benefit ¡of ¡hierarchy ¡

Shape ¡only ¡ Chair ¡ ¡ Ma1ress ¡ Console ¡table ¡

slide-64
SLIDE 64

Benefit ¡of ¡hierarchy ¡

Shape ¡only ¡ Flat ¡grammar ¡ Chair ¡ ¡ Nightstand ¡ ¡ Console ¡table ¡ Ma1ress ¡ Ma1ress ¡ Console ¡table ¡

slide-65
SLIDE 65

Benefit ¡of ¡hierarchy ¡

Shape ¡only ¡ Flat ¡grammar ¡ Ours ¡ Chair ¡ ¡ Nightstand ¡ ¡ Console ¡table ¡ Ma1ress ¡ Ma1ress ¡ Console ¡table ¡ Chair ¡ ¡ Desk ¡

slide-66
SLIDE 66

Benefit ¡of ¡hierarchy ¡

Shape ¡only ¡ Flat ¡grammar ¡ Ours ¡ Chair ¡ ¡ Nightstand ¡ ¡ Console ¡table ¡ Ma1ress ¡ Ma1ress ¡ Console ¡table ¡ Study ¡area ¡ Sleep ¡area ¡

slide-67
SLIDE 67

Datasets ¡

77 ¡bedrooms ¡ 30 ¡classrooms ¡ 8 ¡libraries ¡ 17 ¡small ¡bedrooms ¡ 8 ¡small ¡libraries ¡

slide-68
SLIDE 68

Benefit ¡of ¡hierarchy ¡

Object ¡classifica%on ¡ ¡

slide-69
SLIDE 69

Generaliza%on ¡of ¡our ¡method ¡

Parsing ¡Sketch2Scene ¡data ¡set ¡

slide-70
SLIDE 70

Take-­‑away ¡message ¡

  • Modeling ¡hierarchy ¡improves ¡scene ¡understanding. ¡
slide-71
SLIDE 71

Limita%on ¡and ¡Future ¡Work ¡

  • Modeling ¡correla%on ¡in ¡probabilis%c ¡grammar. ¡
slide-72
SLIDE 72

Limita%on ¡and ¡Future ¡Work ¡

  • Modeling ¡correla%on ¡in ¡probabilis%c ¡grammar. ¡
  • Grammar ¡learning ¡from ¡noisy ¡data. ¡

Sleep ¡ area ¡ bed ¡ Nightstand ¡ & ¡supported ¡ Nightstand ¡ Table ¡ lamp ¡

Input ¡scene ¡graphs ¡ Grammar ¡

slide-73
SLIDE 73

Limita%on ¡and ¡Future ¡Work ¡

  • Applica%ons ¡in ¡other ¡fields. ¡
  • Modeling ¡correla%on ¡in ¡probabilis%c ¡grammar. ¡
  • Grammar ¡learning ¡from ¡noisy ¡data. ¡

Modeling ¡from ¡RGB-­‑D ¡data ¡[Chen ¡et ¡al. ¡2014] ¡

slide-74
SLIDE 74

Acknowledgement ¡

Data ¡

  • Kun ¡Xu ¡

Discussion ¡

  • Chris%ane ¡Fellbaum, ¡Stephen ¡DiVerdi ¡

Funding ¡

  • NSF, ¡ERC ¡Star%ng ¡Grant, ¡Intel, ¡Google, ¡Adobe ¡
slide-75
SLIDE 75

Code ¡and ¡Data ¡

¡ ¡ ¡ hbp://www.cs.princeton.edu/~%anqian/projects/hierarchy/ ¡