Image Classifica-on Professor Fei-Fei Li Stanford Vision - - PowerPoint PPT Presentation

image classifica on
SMART_READER_LITE
LIVE PREVIEW

Image Classifica-on Professor Fei-Fei Li Stanford Vision - - PowerPoint PPT Presentation

Image Classifica-on Professor Fei-Fei Li Stanford Vision Lab 1 15-May-13 Lecture 14 - Fei-Fei Li What we will learn today? Introduc-on Bag


slide-1
SLIDE 1

Lecture 14 -

  • Fei-Fei Li

Image ¡Classifica-on ¡

Professor ¡Fei-­‑Fei ¡Li ¡ Stanford ¡Vision ¡Lab ¡

15-­‑May-­‑13 ¡ 1 ¡

slide-2
SLIDE 2

Lecture 14 -

  • Fei-Fei Li

What ¡we ¡will ¡learn ¡today? ¡

  • Introduc-on ¡
  • Bag ¡of ¡words ¡representa-on ¡
  • Discrimina-ve ¡model: ¡

– Case ¡study: ¡Spa-al ¡Pyramid ¡Matching ¡

  • Genera-ve ¡mode: ¡

– Case ¡study: ¡topic ¡model ¡ ¡

¡ ¡ ¡ ¡ ¡ ¡

15-­‑May-­‑13 ¡ 2 ¡

slide-3
SLIDE 3

Lecture 14 -

  • Fei-Fei Li

Image ¡Classifica-on: ¡ ¡ a ¡fundamental ¡vision ¡task ¡

  • A ¡scene ¡containing ¡

people ¡

  • An ¡outdoor ¡scene ¡
  • A ¡riverbank ¡scene ¡
  • f ¡people ¡siNng ¡

and ¡walking ¡

  • “Sunday ¡aPernoon ¡
  • n ¡the ¡island ¡of ¡

Grand ¡JaRe” ¡

15-­‑May-­‑13 ¡ 3 ¡ Seurat, ¡1884-­‑5 ¡

slide-4
SLIDE 4

Lecture 14 -

  • Fei-Fei Li

15-­‑May-­‑13 ¡ 4 ¡

slide-5
SLIDE 5

Lecture 14 -

  • Fei-Fei Li

Project ¡3 ¡– ¡Image ¡Classifica-on ¡

15-­‑May-­‑13 ¡ 5 ¡

Classifying ¡objects ¡ Classifying ¡natural ¡ scenes ¡ Classifying ¡human ¡ ac-ons ¡

slide-6
SLIDE 6

Lecture 14 -

  • Fei-Fei Li

What ¡we ¡will ¡learn ¡today? ¡

  • Introduc-on ¡

– Studies ¡from ¡human ¡vision ¡

  • Bag ¡of ¡words ¡representa-on ¡
  • Discrimina-ve ¡model: ¡

– Case ¡study: ¡Spa-al ¡Pyramid ¡Matching ¡

  • Genera-ve ¡mode: ¡

– Case ¡study: ¡topic ¡model ¡ ¡

¡ ¡ ¡ ¡ ¡ ¡

15-­‑May-­‑13 ¡ 6 ¡

slide-7
SLIDE 7

Lecture 14 -

  • Fei-Fei Li
  • S. ¡Lumet, ¡1965 ¡

15-­‑May-­‑13 ¡ 7 ¡

slide-8
SLIDE 8

Lecture 14 -

  • Fei-Fei Li

Biederman, ¡Science, ¡1973 ¡

15-­‑May-­‑13 ¡ 8 ¡

slide-9
SLIDE 9

Lecture 14 -

  • Fei-Fei Li

Biederman, ¡Science, ¡1973 ¡

15-­‑May-­‑13 ¡ 9 ¡

slide-10
SLIDE 10

Lecture 14 -

  • Fei-Fei Li

Thorpe, ¡et ¡al. ¡ ¡Nature, ¡1996 ¡ 15-­‑May-­‑13 ¡ 10 ¡

slide-11
SLIDE 11

Lecture 14 -

  • Fei-Fei Li

Thorpe, ¡et ¡al. ¡ ¡Nature, ¡1996 ¡

150 ¡ms ¡!! ¡

15-­‑May-­‑13 ¡ 11 ¡

slide-12
SLIDE 12

Lecture 14 -

  • Fei-Fei Li

Neural ¡correlates? ¡

?

15-­‑May-­‑13 ¡ 12 ¡

slide-13
SLIDE 13

Lecture 14 -

  • Fei-Fei Li

Neural ¡correlates ¡from ¡fMRI ¡PaRern ¡Recogni-on ¡

Guess “beach” Test Image Training Images

Pattern
 Recognition Alg.
 (SVM)

Train

Walther, ¡Caddigan, ¡Fei-­‑Fei, ¡Beck, ¡J. ¡Neurosci. ¡2009 ¡ 15-­‑May-­‑13 ¡ 13 ¡

slide-14
SLIDE 14

Lecture 14 -

  • Fei-Fei Li

¡* ¡p ¡< ¡0.05 ¡ ** ¡p ¡< ¡0.01 ¡

Neural ¡correlates ¡of ¡scenes ¡

15-­‑May-­‑13 ¡ 14 ¡

PPA ¡

slide-15
SLIDE 15

Lecture 14 -

  • Fei-Fei Li

What ¡we ¡will ¡learn ¡today? ¡

  • Introduc-on ¡
  • Bag ¡of ¡words ¡representa-on ¡
  • Discrimina-ve ¡model: ¡

– Case ¡study: ¡Spa-al ¡Pyramid ¡Matching ¡

  • Genera-ve ¡mode: ¡

– Case ¡study: ¡topic ¡model ¡ ¡

¡ ¡ ¡ ¡ ¡ ¡

15-­‑May-­‑13 ¡ 15 ¡

slide-16
SLIDE 16

Lecture 14 -

  • Fei-Fei Li

Part ¡1: ¡Bag-­‑of-­‑words ¡models ¡

This ¡segment ¡is ¡based ¡on ¡the ¡tutorial ¡“Recognizing ¡and ¡Learning ¡ ¡

Object ¡Categories: ¡Year ¡2007”, ¡by ¡Prof ¡L. ¡Fei-­‑Fei, ¡A. ¡Torralba, ¡and ¡R. ¡Fergus ¡

15-­‑May-­‑13 ¡ 16 ¡

slide-17
SLIDE 17

Lecture 14 -

  • Fei-Fei Li

Object Bag of ‘words’

15-­‑May-­‑13 ¡ 17 ¡

slide-18
SLIDE 18

Lecture 14 -

  • Fei-Fei Li

Analogy ¡to ¡documents ¡

Of all the sensory impressions proceeding to the brain, the visual experiences are the dominant ones. Our perception of the world around us is based essentially on the messages that reach the brain from our eyes. For a long time it was thought that the retinal image was transmitted point by point to visual centers in the brain; the cerebral cortex was a movie screen, so to speak, upon which the image in the eye was projected. Through the discoveries of Hubel and Wiesel we now know that behind the origin of the visual perception in the brain there is a considerably more complicated course of events. By following the visual impulses along their path to the various cell layers of the optical cortex, Hubel and Wiesel have been able to demonstrate that the message about the image falling on the retina undergoes a step- wise analysis in a system of nerve cells stored in columns. In this system each cell has its specific function and is responsible for a specific detail in the pattern of the retinal image.

sensory, brain, visual, perception, retinal, cerebral cortex, eye, cell, optical nerve, image Hubel, Wiesel

China is forecasting a trade surplus of $90bn (£51bn) to $100bn this year, a threefold increase on 2004's $32bn. The Commerce Ministry said the surplus would be created by a predicted 30% jump in exports to $750bn, compared with a 18% rise in imports to $660bn. The figures are likely to further annoy the US, which has long argued that China's exports are unfairly helped by a deliberately undervalued yuan. Beijing agrees the surplus is too high, but says the yuan is only one factor. Bank of China governor Zhou Xiaochuan said the country also needed to do more to boost domestic demand so more goods stayed within the

  • country. China increased the value of the

yuan against the dollar by 2.1% in July and permitted it to trade within a narrow band, but the US wants the yuan to be allowed to trade

  • freely. However, Beijing has made it clear that

it will take its time and tread carefully before allowing the yuan to rise further in value.

China, trade, surplus, commerce, exports, imports, US, yuan, bank, domestic, foreign, increase, trade, value

15-­‑May-­‑13 ¡ 18 ¡

slide-19
SLIDE 19

Lecture 14 -

  • Fei-Fei Li

– Independent ¡features ¡ ¡

defini-on ¡of ¡“BoW” ¡

face ¡ bike ¡ violin ¡ 15-­‑May-­‑13 ¡ 19 ¡

slide-20
SLIDE 20

Lecture 14 -

  • Fei-Fei Li

defini-on ¡of ¡“BoW” ¡

– Independent ¡features ¡ ¡ – histogram ¡representa-on ¡

codewords ¡dic-onary ¡

15-­‑May-­‑13 ¡ 20 ¡

slide-21
SLIDE 21

Lecture 14 -

  • Fei-Fei Li

category decision

Representation

feature detection & representation

codewords dictionary

image representation

category models (and/or) classifiers recognition learning

15-­‑May-­‑13 ¡ 21 ¡

slide-22
SLIDE 22

Lecture 14 -

  • Fei-Fei Li
  • 1. ¡Feature ¡extrac8on ¡
  • Regular ¡grid ¡or ¡interest ¡regions ¡

15-­‑May-­‑13 ¡ 22 ¡

slide-23
SLIDE 23

Lecture 14 -

  • Fei-Fei Li

Normalize ¡patch ¡

Detect ¡patches ¡

Compute ¡ descriptor ¡ (e.g. ¡SIFT) ¡

Slide ¡credit: ¡Josef ¡Sivic ¡

  • 1. ¡Feature ¡extrac8on ¡

15-­‑May-­‑13 ¡ 23 ¡

slide-24
SLIDE 24

Lecture 14 -

  • Fei-Fei Li

… ¡

  • 1. ¡Feature ¡extrac8on ¡

Slide ¡credit: ¡Josef ¡Sivic ¡

15-­‑May-­‑13 ¡ 24 ¡

slide-25
SLIDE 25

Lecture 14 -

  • Fei-Fei Li
  • 2. ¡Learning ¡the ¡visual ¡vocabulary ¡

… ¡

Slide ¡credit: ¡Josef ¡Sivic ¡

15-­‑May-­‑13 ¡ 25 ¡

slide-26
SLIDE 26

Lecture 14 -

  • Fei-Fei Li
  • 2. ¡Learning ¡the ¡visual ¡vocabulary ¡

Clustering ¡(e.g. ¡k-­‑means) ¡

… ¡

Slide ¡credit: ¡Josef ¡Sivic ¡

15-­‑May-­‑13 ¡ 26 ¡

slide-27
SLIDE 27

Lecture 14 -

  • Fei-Fei Li
  • 2. ¡Learning ¡the ¡visual ¡vocabulary ¡

Clustering ¡(e.g. ¡K-­‑means) ¡

… ¡

Slide ¡credit: ¡Josef ¡Sivic ¡

Visual ¡vocabulary ¡ 15-­‑May-­‑13 ¡ 27 ¡

slide-28
SLIDE 28

Lecture 14 -

  • Fei-Fei Li

Clustering ¡and ¡vector ¡quan-za-on ¡

  • Clustering ¡is ¡a ¡common ¡method ¡for ¡learning ¡a ¡visual ¡

vocabulary ¡or ¡codebook ¡

– Unsupervised ¡learning ¡process ¡ – Each ¡cluster ¡center ¡produced ¡by ¡k-­‑means ¡becomes ¡a ¡ codevector ¡ – Codebook ¡can ¡be ¡learned ¡on ¡separate ¡training ¡set ¡ – Provided ¡the ¡training ¡set ¡is ¡sufficiently ¡representa-ve, ¡ the ¡codebook ¡will ¡be ¡“universal” ¡ ¡

  • The ¡codebook ¡is ¡used ¡for ¡quan-zing ¡features ¡

– A ¡vector ¡quanBzer ¡takes ¡a ¡feature ¡vector ¡and ¡maps ¡it ¡ to ¡the ¡index ¡of ¡the ¡nearest ¡codevector ¡in ¡a ¡codebook ¡ – Codebook ¡= ¡visual ¡vocabulary ¡ – Codevector ¡= ¡visual ¡word ¡ ¡

15-­‑May-­‑13 ¡ 28 ¡

slide-29
SLIDE 29

Lecture 14 -

  • Fei-Fei Li

Example ¡codebook ¡

Source: ¡B. ¡Leibe ¡

Appearance ¡codebook ¡

15-­‑May-­‑13 ¡ 29 ¡

slide-30
SLIDE 30

Lecture 14 -

  • Fei-Fei Li

Another ¡codebook ¡

Appearance ¡codebook ¡

… … … … …

Source: ¡B. ¡Leibe ¡

15-­‑May-­‑13 ¡ 30 ¡

slide-31
SLIDE 31

Lecture 14 -

  • Fei-Fei Li

Yet ¡another ¡codebook ¡

Fei-­‑Fei ¡et ¡al. ¡2005 ¡

15-­‑May-­‑13 ¡ 31 ¡

slide-32
SLIDE 32

Lecture 14 -

  • Fei-Fei Li

Visual ¡vocabularies: ¡Issues ¡

  • How ¡to ¡choose ¡vocabulary ¡size? ¡

– Too ¡small: ¡visual ¡words ¡not ¡representa-ve ¡of ¡all ¡ patches ¡ – Too ¡large: ¡quan-za-on ¡ar-facts, ¡overfiNng ¡

  • Computa-onal ¡efficiency ¡

– Vocabulary ¡trees ¡ ¡ (Nister ¡& ¡Stewenius, ¡2006) ¡

15-­‑May-­‑13 ¡ 32 ¡

slide-33
SLIDE 33

Lecture 14 -

  • Fei-Fei Li
  • 3. ¡Bag ¡of ¡word ¡representa8on ¡

Codewords ¡dic8onary ¡ ¡

  • ¡Nearest ¡neighbors ¡assignment ¡
  • ¡K-­‑D ¡tree ¡search ¡strategy ¡

15-­‑May-­‑13 ¡ 33 ¡

slide-34
SLIDE 34

Lecture 14 -

  • Fei-Fei Li
  • 3. ¡Bag ¡of ¡word ¡representa8on ¡

Codewords ¡dic8onary ¡ ¡

codewords

frequency

…. ¡ 15-­‑May-­‑13 ¡ 34 ¡

slide-35
SLIDE 35

Lecture 14 -

  • Fei-Fei Li

feature detection & representation

codewords dictionary

image representation

Representation

1. 2. 3.

15-­‑May-­‑13 ¡ 35 ¡

slide-36
SLIDE 36

Lecture 14 -

  • Fei-Fei Li

category decision

codewords dictionary

category models (and/or) classifiers Learning and Recognition

15-­‑May-­‑13 ¡ 36 ¡

slide-37
SLIDE 37

Lecture 14 -

  • Fei-Fei Li

What ¡we ¡will ¡learn ¡today? ¡

  • Introduc-on ¡
  • Bag ¡of ¡words ¡representa-on ¡
  • Discrimina-ve ¡model: ¡

– Case ¡study: ¡Spa-al ¡Pyramid ¡Matching ¡

  • Genera-ve ¡mode: ¡

– Case ¡study: ¡topic ¡model ¡ ¡

¡ ¡ ¡ ¡ ¡ ¡

15-­‑May-­‑13 ¡ 37 ¡

slide-38
SLIDE 38

Lecture 14 -

  • Fei-Fei Li

Discriminative classifiers (linear classifier)

Model ¡space ¡

category models

Class ¡1 ¡ Class ¡N ¡

… ¡ … ¡ … ¡

15-­‑May-­‑13 ¡ 38 ¡

slide-39
SLIDE 39

Lecture 14 -

  • Fei-Fei Li

Linear ¡classifiers ¡

  • Find ¡linear ¡func-on ¡(hyperplane) ¡to ¡separate ¡posi-ve ¡

and ¡nega-ve ¡examples ¡

: negative : positive < + ⋅ ≥ + ⋅ b b

i i i i

w x x w x x Which hyperplane is best?

w, b 15-­‑May-­‑13 ¡ 39 ¡

slide-40
SLIDE 40

Lecture 14 -

  • Fei-Fei Li

Support ¡vector ¡machines ¡

  • Find ¡hyperplane ¡that ¡maximizes ¡the ¡margin ¡between ¡the ¡posi-ve ¡and ¡

nega-ve ¡examples ¡ Margin Support vectors Distance between point and hyperplane:

|| || | | w w x b

i

+ ⋅

Support vectors:

1 ± = + ⋅ b

i w

x

Margin = 2 / ||w||

Credit ¡slide: ¡S. ¡Lazebnik ¡

=

i i i i y x

w α

b y b

i i i i

+ ⋅ = + ⋅

x x x w α

Classifica-on ¡func-on ¡ ¡(decision ¡boundary): ¡ ¡

Solution: ¡

15-­‑May-­‑13 ¡ 40 ¡

slide-41
SLIDE 41

Lecture 14 -

  • Fei-Fei Li

Support ¡vector ¡machines ¡

  • Classifica-on ¡

Margin

b y b

i i i i

+ ⋅ = + ⋅

x x x w α

2 1 class b if class b if → < + ⋅ → ≥ + ⋅ w x w x

Test ¡point ¡

  • C. Burges, A Tutorial on Support Vector Machines for Pattern Recognition, Data Mining and Knowledge Discovery, 1998

15-­‑May-­‑13 ¡ 41 ¡

slide-42
SLIDE 42

Lecture 14 -

  • Fei-Fei Li

Finding ¡the ¡maximum ¡margin ¡hyperplane ¡

  • 1. Maximize ¡margin ¡2/||w||
  • 2. Correctly ¡classify ¡all ¡training ¡data: ¡

¡

  • QuadraBc ¡opBmizaBon ¡problem: ¡

¡

  • ¡

¡ Minimize ¡ ¡ ¡Subject ¡to ¡ ¡yi(w·xi+b) ≥ 1 ¡

1 : 1) ( negative 1 : 1) ( positive − ≤ + ⋅ − = ≥ + ⋅ = b y b y

i i i i i i

w x x w x x

Credit ¡slide: ¡S. ¡Lazebnik ¡

15-­‑May-­‑13 ¡ 42 ¡

slide-43
SLIDE 43

Lecture 14 -

  • Fei-Fei Li
  • Datasets ¡that ¡are ¡linearly ¡separable ¡work ¡out ¡great: ¡

¡

  • ¡

¡ ¡

  • ¡

¡

  • But ¡what ¡if ¡the ¡dataset ¡is ¡just ¡too ¡hard? ¡ ¡

¡

  • We ¡can ¡map ¡it ¡to ¡a ¡higher-­‑dimensional ¡space: ¡

x x x x2

Nonlinear ¡SVMs ¡

Slide credit: Andrew Moore

15-­‑May-­‑13 ¡ 43 ¡

slide-44
SLIDE 44

Lecture 14 -

  • Fei-Fei Li

Φ: x → φ(x)

Nonlinear ¡SVMs ¡

  • General ¡idea: ¡the ¡original ¡input ¡space ¡can ¡always ¡be ¡mapped ¡

to ¡some ¡higher-­‑dimensional ¡feature ¡space ¡where ¡the ¡ training ¡set ¡is ¡separable: ¡

Slide credit: Andrew Moore

liPing ¡transforma-on ¡ 15-­‑May-­‑13 ¡ 44 ¡

slide-45
SLIDE 45

Lecture 14 -

  • Fei-Fei Li

Nonlinear ¡SVMs ¡

  • Nonlinear ¡decision ¡boundary ¡in ¡the ¡original ¡feature ¡

space: ¡ b K y

i i i i

+

) , ( x x α

  • C. Burges, A Tutorial on Support Vector Machines for Pattern Recognition, Data Mining and Knowledge Discovery, 1998
  • The ¡kernel ¡K ¡= ¡product ¡of ¡the ¡liPing ¡transforma-on ¡φ(x): ¡

¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡K(xi

, xj j) = φ(xi ) · φ(xj)

NOTE: ¡

  • ¡ ¡It ¡is ¡not ¡required ¡to ¡compute ¡φ(x) ¡explicitly: ¡
  • ¡ ¡The ¡kernel ¡must ¡sa-sfy ¡the ¡“Mercer ¡inequality” ¡ ¡

¡ 15-­‑May-­‑13 ¡ 45 ¡

slide-46
SLIDE 46

Lecture 14 -

  • Fei-Fei Li

Kernels ¡for ¡bags ¡of ¡features ¡

  • Histogram ¡intersec-on ¡kernel: ¡

¡ ¡ ¡

  • Generalized ¡Gaussian ¡kernel: ¡

¡ ¡ ¡

  • D ¡can ¡be ¡Euclidean ¡distance, ¡χ2 distance ¡etc… ¡

=

=

N i

i h i h h h I

1 2 1 2 1

)) ( ), ( min( ) , (

⎟ ⎠ ⎞ ⎜ ⎝ ⎛− =

2 2 1 2 1

) , ( 1 exp ) , ( h h D A h h K

  • J. Zhang, M. Marszalek, S. Lazebnik, and C. Schmid,

Local Features and Kernels for Classifcation of Texture and Object Categories: A Comprehensive Study, IJCV 2007

15-­‑May-­‑13 ¡ 46 ¡

slide-47
SLIDE 47

Lecture 14 -

  • Fei-Fei Li

Pyramid ¡match ¡kernel ¡

  • Fast ¡approxima-on ¡of ¡Earth ¡Mover’s ¡Distance ¡
  • Weighted ¡sum ¡of ¡histogram ¡intersec-ons ¡at ¡mutliple ¡resolu-ons ¡(linear ¡in ¡

the ¡number ¡of ¡features ¡instead ¡of ¡cubic) ¡

  • K. Grauman and T. Darrell. The Pyramid Match Kernel: Discriminative Classification with Sets of Image Features, ICCV 2005.

15-­‑May-­‑13 ¡ 47 ¡

slide-48
SLIDE 48

Lecture 14 -

  • Fei-Fei Li

Spa-al ¡Pyramid ¡Matching ¡

Beyond ¡Bags ¡of ¡Features: ¡Spa8al ¡Pyramid ¡Matching ¡for ¡Recognizing ¡Natural ¡Scene ¡Categories. ¡ ¡S. ¡Lazebnik, ¡C. ¡Schmid, ¡and ¡J. ¡Ponce. ¡CVPR ¡2006 ¡

15-­‑May-­‑13 ¡ 48 ¡

slide-49
SLIDE 49

Lecture 14 -

  • Fei-Fei Li

Scene ¡Category ¡Dataset ¡

15-­‑May-­‑13 ¡ 49 ¡

slide-50
SLIDE 50

Lecture 14 -

  • Fei-Fei Li

Scene ¡Category ¡Results ¡

Fei-­‑Fei ¡& ¡Perona: ¡65.2% ¡ 15-­‑May-­‑13 ¡ 50 ¡

slide-51
SLIDE 51

Lecture 14 -

  • Fei-Fei Li

Retrieval ¡Examples ¡

Query ¡

15-­‑May-­‑13 ¡ 51 ¡

slide-52
SLIDE 52

Lecture 14 -

  • Fei-Fei Li

What ¡we ¡will ¡learn ¡today? ¡

  • Introduc-on ¡
  • Bag ¡of ¡words ¡representa-on ¡
  • Discrimina-ve ¡model: ¡

– Case ¡study: ¡Spa-al ¡Pyramid ¡Matching ¡

  • Genera-ve ¡mode: ¡

– Case ¡study: ¡topic ¡model ¡ ¡

¡ ¡ ¡ ¡ ¡ ¡

15-­‑May-­‑13 ¡ 52 ¡

slide-53
SLIDE 53

Lecture 14 -

  • A ¡Genera8ve ¡

Model ¡

scene ¡category ¡

) ( ~ η c p c

discrete ¡variable: ¡

forest ¡ coast ¡ kitchen ¡ mountain ¡ c ¡

p(c|η) ¡

Fei-­‑Fei ¡& ¡Perona ¡(CVPR ¡2005) ¡

15-­‑May-­‑13 ¡ 53 ¡

slide-54
SLIDE 54

Lecture 14 -

  • A ¡Genera8ve ¡

Model ¡

mixing ¡parameter ¡for ¡ the ¡latent ¡topics ¡

) , ( ~ θ π π c p

) , ( ~ θ π c Dir

1

1

=

= K k k

π

where ¡

topic ¡#13 ¡ topic ¡#15 ¡

topics ¡ ¡ propor8on ¡of ¡themes ¡ ¡

15-­‑May-­‑13 ¡

Fei-­‑Fei ¡& ¡Perona ¡(CVPR ¡2005) ¡

54 ¡

slide-55
SLIDE 55

Lecture 14 -

  • A ¡Genera8ve ¡

Model ¡

) ( ~ π z Mult

) ( ~ π z p z

topic ¡label ¡

discrete ¡variable: ¡

topic ¡#13 ¡ topic ¡#15 ¡

topics ¡ ¡ propor8on ¡of ¡themes ¡ ¡

15-­‑May-­‑13 ¡

Fei-­‑Fei ¡& ¡Perona ¡(CVPR ¡2005) ¡

55 ¡

slide-56
SLIDE 56

Lecture 14 -

  • codewords ¡

expected ¡value ¡of ¡β ¡given ¡‘z=13’ ¡

A ¡Genera8ve ¡ Model ¡

patch ¡label ¡

codeword ¡#265 ¡

) , ( ~ β z x Mult

) , ( ~ β z x p x

discrete ¡variable: ¡

15-­‑May-­‑13 ¡

Fei-­‑Fei ¡& ¡Perona ¡(CVPR ¡2005) ¡

56 ¡

slide-57
SLIDE 57

Lecture 14 -

  • codewords ¡

expected ¡value ¡of ¡β ¡given ¡‘z=15’ ¡

A ¡Genera8ve ¡ Model ¡

patch ¡label ¡

) , ( ~ β z x Mult

) , ( ~ β z x p x

discrete ¡variable: ¡

15-­‑May-­‑13 ¡

Fei-­‑Fei ¡& ¡Perona ¡(CVPR ¡2005) ¡

57 ¡

slide-58
SLIDE 58

Lecture 14 -

  • Fei-Fei Li

A ¡Genera8ve ¡ Model ¡

Find ¡the ¡‘best’ ¡ θ ¡and ¡β ¡

learning ¡

  • ¡exact ¡inference ¡is ¡intractable ¡
  • ¡use ¡Varia-onal ¡Inference ¡

( ) ( ) ( ) ( )

π β π θ π β θ d z x p z p c p c x p

n n z n N n

n

⎟ ⎟ ⎠ ⎞ ⎜ ⎜ ⎝ ⎛∏ =

∑ ∫

, , , ,

( ) ( ) ( ) ( )

β π θ π β θ π , , , , , ,

n n n N n

z x p z p c p c z x p ∏ =

joint ¡probability ¡

15-­‑May-­‑13 ¡ 58 ¡

Fei-­‑Fei ¡& ¡Perona ¡(CVPR ¡2005) ¡

slide-59
SLIDE 59

Lecture 14 -

  • Fei-Fei Li

A ¡Genera8ve ¡ Model ¡

( )

= + =

N n k n ck ck

z 1 δ θ γ ( )

⎟ ⎠ ⎞ ⎜ ⎝ ⎛ Ψ − Ψ =

k ck ck ck

γ γ π log

( ) ( )

⎭ ⎬ ⎫ ⎩ ⎨ ⎧ = + = =

T t t n kt ck k n

x z 1 log log exp 1 δ β π δ

( ) ( )

∑∑

= = + =

I i N n t n i k n i kt

x z 1 1

, ,

δ δ ζ ξ ( )

⎟ ⎠ ⎞ ⎜ ⎝ ⎛ Ψ − Ψ =

t kt kt kt

ξ ξ β log

Maximum ¡Likelihood ¡es-ma-on ¡(Minka ¡2000) ¡ ¡

Varia8onal ¡Inference ¡

15-­‑May-­‑13 ¡ 59 ¡

Fei-­‑Fei ¡& ¡Perona ¡(CVPR ¡2005) ¡

slide-60
SLIDE 60

Lecture 14 -

  • Fei-Fei Li

category ¡models ¡ (and/or) ¡classifiers ¡

category ¡ decision ¡

codewords ¡dic8onary ¡

Recogni8on ¡

15-­‑May-­‑13 ¡ 60 ¡

slide-61
SLIDE 61

Lecture 14 -

  • Fei-Fei Li

A ¡Genera8ve ¡ Model ¡

tes8ng ¡(inference) ¡

( )

β θ, , max arg c x p c

c

=

15-­‑May-­‑13 ¡ 61 ¡

Fei-­‑Fei ¡& ¡Perona ¡(CVPR ¡2005) ¡

slide-62
SLIDE 62

Lecture 14 -

  • Fei-Fei Li

13 Natural Scene Categories 4 indoor + 9 outdoor

Fei-­‑Fei ¡& ¡Perona ¡(CVPR ¡2005) ¡

15-­‑May-­‑13 ¡ 62 ¡

slide-63
SLIDE 63

Lecture 14 -

  • Fei-Fei Li

15-­‑May-­‑13 ¡ 63 ¡

slide-64
SLIDE 64

Lecture 14 -

  • Fei-Fei Li

15-­‑May-­‑13 ¡ 64 ¡

slide-65
SLIDE 65

Lecture 14 -

  • Fei-Fei Li

15-­‑May-­‑13 ¡ 65 ¡

slide-66
SLIDE 66

Lecture 14 -

  • Fei-Fei Li

15-­‑May-­‑13 ¡ 66 ¡

slide-67
SLIDE 67

Lecture 14 -

  • Fei-Fei Li

model ¡distance ¡based ¡on ¡topic ¡distribu8on ¡

Fei-­‑Fei ¡& ¡Perona ¡(CVPR ¡2005) ¡

15-­‑May-­‑13 ¡ 67 ¡

slide-68
SLIDE 68

Lecture 14 -

  • Fei-Fei Li

What ¡we ¡have ¡learned ¡today ¡

  • Introduc-on ¡
  • Bag ¡of ¡words ¡representa-on ¡
  • Discrimina-ve ¡model: ¡

– Case ¡study: ¡Spa-al ¡Pyramid ¡Matching ¡

  • Genera-ve ¡mode: ¡

– Case ¡study: ¡topic ¡model ¡ ¡

¡ ¡ ¡ ¡ ¡ ¡

15-­‑May-­‑13 ¡ 68 ¡