lecture 2 object detec on
play

Lecture 2: Object Detec.on Professor Fei-Fei Li - PowerPoint PPT Presentation

Lecture 2: Object Detec.on Professor Fei-Fei Li Stanford Vision Lab 1 8-Apr-13 Lecture 2 - Fei-Fei Li What we will learn today?


  1. Discrimina.ve ¡models ¡ Neural ¡networks ¡ Nearest ¡neighbor ¡ 10 6 examples LeCun, ¡Bobou, ¡Bengio, ¡Haffner ¡1998 ¡ Shakhnarovich, ¡Viola, ¡Darrell ¡2003 ¡ Rowley, ¡Baluja, ¡Kanade ¡1998 ¡ Berg, ¡Berg, ¡Malik ¡2005... ¡ … ¡ ¡ ¡ Latent ¡SVM ¡ Support ¡Vector ¡Machines ¡ Boos*ng ¡ Structural ¡ ¡SVM ¡ Guyon, ¡Vapnik, ¡ ¡Heisele, ¡ Viola, ¡Jones ¡2001, ¡ Serre, ¡Poggio… ¡ Felzenszwalb 00 Torralba ¡et ¡al. ¡2004, ¡ ¡ Ramanan 03 … ¡ Opelt ¡et ¡al. ¡2006,… ¡ ¡ Source: ¡Viborio ¡Ferrari, ¡Kristen ¡Grauman, ¡Antonio ¡Torralba ¡ 38 ¡ 8-­‑Apr-­‑13 ¡ Fei-Fei Li � Lecture 2 - � �

  2. Genera.ve ¡models ¡ • Modeling ¡the ¡likelihood ¡ra.o: ¡ ¡ p ( image | zebra ) p ( image | no zebra ) 39 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  3. Genera.ve ¡models ¡ p ( image | zebra ) p ( image | no zebra ) High ¡ Low ¡ Low ¡ ¡ High ¡ 40 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � �

  4. Genera.ve ¡models Naïve ¡Bayes ¡classifier ¡ • Csurka ¡Bray, ¡Dance ¡& ¡Fan, ¡2004 ¡ – Hierarchical ¡Bayesian ¡topic ¡models ¡ ¡(e.g. ¡pLSA ¡ • and ¡LDA) ¡ Object ¡categoriza.on: ¡Sivic ¡et ¡al. ¡2005, ¡Sudderth ¡et ¡al. ¡2005 ¡ – Natural ¡scene ¡categoriza.on: ¡Fei-­‑Fei ¡et ¡al. ¡2005 ¡ – ¡ 2D ¡Part ¡based ¡models ¡ • -­‑ Constella.on ¡models: ¡Weber ¡et ¡al ¡2000; ¡Fergus ¡et ¡al ¡200 ¡ -­‑ Star ¡models: ¡ ISM (Leibe et al 05) 3D ¡part ¡based ¡models: ¡ ¡ • ¡-­‑ ¡mul.-­‑aspects: ¡Sun, ¡et ¡al, ¡2009 ¡ ¡ 41 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  5. Basic ¡issues ¡ • Representa.on ¡ – How ¡to ¡represent ¡an ¡object ¡category; ¡which ¡ classifica.on ¡scheme? ¡ ¡ • Learning ¡ – How ¡to ¡learn ¡the ¡classifier, ¡given ¡training ¡data ¡ ¡ • Recogni.on ¡ – How ¡the ¡classifier ¡is ¡to ¡be ¡used ¡on ¡novel ¡data ¡ 42 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  6. Learning ¡ • Learning ¡parameters: ¡What ¡are ¡you ¡maximizing? ¡ Likelihood ¡(Gen.) ¡or ¡performances ¡on ¡train/ valida.on ¡set ¡(Disc.) ¡ ¡ 43 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  7. Learning ¡ • Learning ¡parameters: ¡What ¡are ¡you ¡maximizing? ¡ Likelihood ¡(Gen.) ¡or ¡performances ¡on ¡train/ valida.on ¡set ¡(Disc.) ¡ ¡ • Level ¡of ¡supervision ¡ • Manual ¡segmenta.on; ¡bounding ¡box; ¡image ¡labels; ¡ noisy ¡labels ¡ • ¡ ¡Batch/incremental ¡ ¡ • ¡ ¡Priors ¡ 44 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  8. Learning ¡ • Learning ¡parameters: ¡What ¡are ¡you ¡maximizing? ¡ Likelihood ¡(Gen.) ¡or ¡performances ¡on ¡train/ valida.on ¡set ¡(Disc.) ¡ ¡ • Level ¡of ¡supervision ¡ • Manual ¡segmenta.on; ¡bounding ¡box; ¡image ¡labels; ¡ noisy ¡labels ¡ • ¡ ¡Batch/incremental ¡ ¡ • ¡ ¡Priors ¡ • ¡Training ¡images: ¡ • Issue ¡of ¡overfiqng ¡ • Nega.ve ¡images ¡for ¡ discrimina.ve ¡methods ¡ 45 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  9. Basic ¡issues ¡ • Representa.on ¡ – How ¡to ¡represent ¡an ¡object ¡category; ¡which ¡ classifica.on ¡scheme? ¡ ¡ • Learning ¡ – How ¡to ¡learn ¡the ¡classifier, ¡given ¡training ¡data ¡ ¡ • Recogni.on ¡ – How ¡the ¡classifier ¡is ¡to ¡be ¡used ¡on ¡novel ¡data ¡ 46 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  10. Recogni*on ¡ – Recogni.on ¡task: ¡classifica.on, ¡detec.on, ¡etc.. ¡ ¡ 47 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  11. Recogni*on ¡ – Recogni.on ¡task ¡ – Search ¡strategy: ¡Sliding ¡Windows ¡ Viola, ¡Jones ¡2001, ¡ ¡ • Simple ¡ • Computa.onal ¡complexity ¡(x,y, ¡S, ¡ θ , ¡N ¡of ¡classes) ¡ ¡-­‑ ¡BSW ¡by ¡Lampert ¡et ¡al ¡08 ¡ -­‑ ¡Also, ¡Alexe, ¡et ¡al ¡10 ¡ ¡ ¡ ¡ ¡ 48 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  12. Recogni*on ¡ – Recogni.on ¡task ¡ – Search ¡strategy: ¡Sliding ¡Windows ¡ Viola, ¡Jones ¡2001, ¡ ¡ • Simple ¡ • Computa.onal ¡complexity ¡(x,y, ¡S, ¡ θ , ¡N ¡of ¡classes) ¡ ¡-­‑ ¡BSW ¡by ¡Lampert ¡et ¡al ¡08 ¡ -­‑ ¡Also, ¡Alexe, ¡et ¡al ¡10 ¡ • Localiza.on ¡ • Objects ¡are ¡not ¡boxes ¡ ¡ ¡ ¡ ¡ 49 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  13. Recogni*on ¡ – Recogni.on ¡task ¡ – Search ¡strategy: ¡Sliding ¡Windows ¡ Viola, ¡Jones ¡2001, ¡ ¡ • Simple ¡ • Computa.onal ¡complexity ¡(x,y, ¡S, ¡ θ , ¡N ¡of ¡classes) ¡ ¡-­‑ ¡BSW ¡by ¡Lampert ¡et ¡al ¡08 ¡ -­‑ ¡Also, ¡Alexe, ¡et ¡al ¡10 ¡ • Localiza.on ¡ • Objects ¡are ¡not ¡boxes ¡ • Prone ¡to ¡false ¡posi.ve ¡ ¡ ¡ ¡ Non ¡max ¡suppression: ¡ ¡ ¡ Canny ¡’86 ¡ …. ¡ Desai ¡et ¡al ¡, ¡2009 ¡ 50 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  14. Successful ¡methods ¡using ¡sliding ¡ windows ¡ • ¡Subdivide ¡scanning ¡window ¡ ¡ • In ¡each ¡cell ¡compute ¡histogram ¡of ¡gradients ¡ orienta.on. ¡ Code ¡available: ¡hbp://pascal.inrialpes.fr/sos/olt/ ¡ [Dalal ¡& ¡Triggs, ¡CVPR ¡2005] ¡ -­‑ ¡Subdivide ¡scanning ¡window ¡ ¡ -­‑ ¡In ¡each ¡cell ¡compute ¡histogram ¡of ¡ codewords ¡of ¡adjacent ¡segments ¡ Code ¡available: ¡hbp://www.vision.ee.ethz.ch/~calvin ¡ [Ferrari ¡& ¡al, ¡PAMI ¡2008] ¡ 51 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  15. Recogni*on ¡ – Recogni.on ¡task ¡ – Search ¡strategy ¡: ¡Probabilis.c ¡“heat ¡maps” ¡ • ¡Fergus ¡et ¡al ¡03 ¡ • ¡Leibe ¡et ¡al ¡04 ¡ Matched ¡patches ¡ Interest ¡ Original ¡ 52 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � points ¡ image ¡ �

  16. Recogni*on ¡ – Recogni.on ¡task ¡ – Search ¡strategy ¡: ¡ ¡ • Hypothesis ¡genera.on ¡+ ¡verifica.on ¡ ¡ 53 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  17. Recogni*on ¡ • Savarese, ¡2007 ¡ ¡ – Recogni.on ¡task ¡ • Sun ¡et ¡al ¡2009 ¡ • ¡Liebelt ¡et ¡al., ¡’08, ¡10 ¡ – Search ¡strategy ¡ • Farhadi ¡et ¡al ¡09 ¡ – Abributes ¡ Category: ¡ ¡car ¡ Azimuth ¡= ¡225º ¡ Zenith ¡= ¡30 º ¡ -­‑ ¡It ¡has ¡metal ¡ -­‑ ¡it ¡is ¡glossy ¡ -­‑ ¡has ¡wheels ¡ • Farhadi ¡et ¡al ¡09 ¡ ¡ • ¡Lampert ¡ ¡et ¡al ¡09 ¡ • ¡Wang ¡& ¡Forsyth ¡09 ¡ ¡ 54 ¡ 8-­‑Apr-­‑13 ¡ Fei-Fei Li � Lecture 2 - � �

  18. Recogni*on ¡ – Recogni.on ¡task ¡ – Search ¡strategy ¡ – Abributes ¡ – Context ¡ Seman*c: ¡ • Torralba ¡et ¡al ¡03 ¡ • ¡Rabinovich ¡et ¡al ¡07 ¡ • ¡Gupta ¡& ¡Davis ¡08 ¡ • ¡Heitz ¡& ¡Koller ¡08 ¡ • ¡L-­‑J ¡Li ¡et ¡al ¡08 ¡ • ¡Yao ¡& ¡Fei-­‑Fei ¡10 ¡ ¡ Geometric ¡ • ¡ Hoiem, ¡et ¡al ¡ ¡06 ¡ • ¡Gould ¡et ¡al ¡09 ¡ • ¡Bao, ¡Sun, ¡Savarese ¡10 ¡ 55 ¡ 8-­‑Apr-­‑13 ¡ Fei-Fei Li � Lecture 2 - � �

  19. Basic ¡issues ¡ • Representa.on ¡ – How ¡to ¡represent ¡an ¡object ¡category; ¡which ¡ classifica.on ¡scheme? ¡ ¡ • Learning ¡ – How ¡to ¡learn ¡the ¡classifier, ¡given ¡training ¡data ¡ ¡ • Recogni.on ¡ – How ¡the ¡classifier ¡is ¡to ¡be ¡used ¡on ¡novel ¡data ¡ 56 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  20. What ¡we ¡will ¡learn ¡today? ¡ • Visual ¡recogni.on ¡overview ¡ – Representa.on ¡ – Learning ¡ – Recogni.on ¡ • Implicit ¡Shape ¡Model ¡ – Representa.on ¡ – Recogni.on ¡ – Experiments ¡and ¡results ¡ ¡ 57 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  21. Implicit ¡Shape ¡Model ¡(ISM) ¡ • Basic ¡ideas ¡ x 1 – Learn ¡an ¡appearance ¡codebook ¡ x 6 x 2 – Learn ¡a ¡star-­‑topology ¡structural ¡model ¡ x 5 x 3 x 4 • Features ¡are ¡considered ¡independent ¡given ¡obj. ¡center ¡ • Algorithm: ¡probabilis.c ¡Gen. ¡Hough ¡Transform ¡ – Exact ¡correspondences ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ → ¡ ¡Prob. ¡match ¡to ¡object ¡part ¡ – NN ¡matching ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ → ¡ ¡Sos ¡matching ¡ – Feature ¡loca.on ¡on ¡obj. ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ → ¡ ¡ ¡Part ¡loca.on ¡distribu.on ¡ – Uniform ¡votes ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ → ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡Probabilis.c ¡vote ¡weigh.ng ¡ – Quan.zed ¡Hough ¡array ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ → ¡ ¡ ¡ ¡ ¡ ¡ ¡Con.nuous ¡Hough ¡space ¡ Source: ¡Bas.an ¡Leibe ¡ 58 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  22. Implicit ¡Shape ¡Model: ¡Basic ¡Idea ¡ • Visual ¡vocabulary ¡is ¡used ¡to ¡index ¡votes ¡for ¡object ¡ posi.on ¡[a ¡visual ¡word ¡= ¡“part”]. ¡ Visual ¡codeword ¡with ¡ displacement ¡vectors ¡ Training ¡image ¡ B. ¡Leibe, ¡A. ¡Leonardis, ¡and ¡B. ¡Schiele, ¡ Robust ¡Object ¡Detec.on ¡with ¡Interleaved ¡Categoriza.on ¡and ¡Segmenta.on, ¡Interna.onal ¡Journal ¡of ¡ Source: ¡Bas.an ¡Leibe ¡ Computer ¡Vision, ¡Vol. ¡77(1-­‑3), ¡2008. ¡ 59 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  23. Implicit ¡Shape ¡Model: ¡Basic ¡Idea ¡ • Objects ¡are ¡detected ¡as ¡consistent ¡configura.ons ¡of ¡ the ¡observed ¡parts ¡(visual ¡words). ¡ Test ¡image ¡ B. ¡Leibe, ¡A. ¡Leonardis, ¡and ¡B. ¡Schiele, ¡ Robust ¡Object ¡Detec.on ¡with ¡Interleaved ¡Categoriza.on ¡and ¡Segmenta.on, ¡Interna.onal ¡Journal ¡of ¡ Source: ¡Bas.an ¡Leibe ¡ Computer ¡Vision, ¡Vol. ¡77(1-­‑3), ¡2008. ¡ 60 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  24. Implicit ¡Shape ¡Model ¡-­‑ ¡Representa.on ¡ … … … … Training images (+reference segmentation) … Appearance codebook y y Learn ¡appearance ¡codebook ¡ • – Extract ¡local ¡features ¡at ¡interest ¡points ¡ – Agglomera.ve ¡clustering ¡ ⇒ ¡codebook ¡ s s x x y y Learn ¡spa.al ¡distribu.ons ¡ • – Match ¡codebook ¡to ¡training ¡images ¡ – Record ¡matching ¡posi.ons ¡on ¡object ¡ s s x x Spatial occurrence distributions Source: ¡Bas.an ¡Leibe ¡ + local figure-ground labels 61 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  25. Implicit ¡Shape ¡Model ¡-­‑ ¡Recogni.on ¡ Matched Codebook Probabilistic Interest Points Entries Voting y Object Interpretation Image Feature [Leibe, Leonardis, Schiele, SLCV’04; IJCV’08] Position (Codebook match) s x 3D Voting Space (continuous) f o,x C i p ( C f ) p ( o , x C ,  ) i n i Probabilistic vote weighting (will be explained later in detail) 62 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  26. Implicit ¡Shape ¡Model ¡-­‑ ¡Recogni.on ¡ Matched Codebook Probabilistic Interest Points Entries Voting y [Leibe, Leonardis, Schiele, SLCV’04; IJCV’08] s x 3D Voting Space (continuous) Backprojected Backprojection Hypotheses of Maxima 63 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  27. Example: ¡Results ¡on ¡Cows ¡ Original image Source: ¡Bas.an ¡Leibe ¡ 64 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  28. Example: ¡Results ¡on ¡Cows ¡ Interest points Original image Source: ¡Bas.an ¡Leibe ¡ 65 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  29. Example: ¡Results ¡on ¡Cows ¡ Interest points Original image Matched patches Source: ¡Bas.an ¡Leibe ¡ 66 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  30. Example: ¡Results ¡on ¡Cows ¡ Prob. Votes Source: ¡Bas.an ¡Leibe ¡ 67 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  31. Example: ¡Results ¡on ¡Cows ¡ Prob. Votes Source: ¡Bas.an ¡Leibe ¡ 68 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  32. Example: ¡Results ¡on ¡Cows ¡ Source: ¡K. ¡Grauman ¡& ¡B. ¡Leibe ¡ 1 st hypothesis 69 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  33. Example: ¡Results ¡on ¡Cows ¡ 2 nd hypothesis Source: ¡Bas.an ¡Leibe ¡ 70 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  34. Example: ¡Results ¡on ¡Cows ¡ 3 rd hypothesis Source: ¡Bas.an ¡Leibe ¡ 71 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  35. Scale ¡Invariant ¡Vo.ng ¡ • Scale-­‑invariant ¡feature ¡selec.on ¡ – Scale-­‑invariant ¡interest ¡points ¡ – Rescale ¡extracted ¡patches ¡ – Match ¡to ¡constant-­‑size ¡codebook ¡ • Generate ¡scale ¡votes ¡ – Scale ¡as ¡3 rd ¡dimension ¡in ¡vo.ng ¡space ¡ s Search window – Search ¡for ¡maxima ¡in ¡3D ¡vo.ng ¡space ¡ y x Source: ¡Bas.an ¡Leibe ¡ 72 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  36. Scale ¡Vo.ng: ¡Efficient ¡Computa.on ¡ s s s s y y y y x x x x Binned Scale votes Candidate Refinement accum. array maxima (Mean-Shift) • Con.nuous ¡Generalized ¡Hough ¡Transform ¡ Ø Binned ¡accumulator ¡array ¡similar ¡to ¡standard ¡Gen. ¡Hough ¡Transf. ¡ Ø Quickly ¡iden.fy ¡candidate ¡maxima ¡loca.ons ¡ Ø Refine ¡loca.ons ¡by ¡Mean-­‑Shis ¡search ¡only ¡around ¡those ¡points ¡ ⇒ ¡Avoid ¡quan.za.on ¡effects ¡by ¡keeping ¡exact ¡vote ¡loca.ons. ¡ ⇒ ¡Mean-­‑shis ¡interpreta.on ¡as ¡kernel ¡prob. ¡density ¡es.ma.on. ¡ Source: ¡Bas.an ¡Leibe ¡ 73 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  37. Scale ¡Vo.ng: ¡Efficient ¡Computa.on ¡ s s s s y y y y x x x x Binned Scale votes Candidate Refinement accum. array maxima (Mean-Shift) • Scale-­‑adap.ve ¡Mean-­‑Shis ¡search ¡for ¡refinement ¡ – Increase ¡search ¡window ¡size ¡with ¡hypothesis ¡scale ¡ – Scale-­‑adap.ve ¡ balloon ¡density ¡es-mator ¡ Source: ¡Bas.an ¡Leibe ¡ 74 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  38. Detec.on ¡Results ¡ • Qualita.ve ¡Performance ¡ – Recognizes ¡different ¡kinds ¡of ¡objects ¡ – Robust ¡to ¡cluber, ¡occlusion, ¡noise, ¡low ¡contrast ¡ Source: ¡Bas.an ¡Leibe ¡ 75 ¡ Lecture 2 - � �

  39. Figure-­‑Ground ¡Segrega.on ¡ • What ¡happens ¡first ¡– ¡segmenta.on ¡or ¡recogni.on? ¡ • Problem ¡extensively ¡studied ¡in ¡ ¡ Psychophysics ¡ • Experiments ¡with ¡ambiguous ¡ figure-­‑ground ¡s.muli ¡ • Results: ¡ – Evidence ¡that ¡object ¡recogni.on ¡can ¡ and ¡does ¡operate ¡before ¡figure-­‑ground ¡ ¡ organiza.on ¡ – Interpreted ¡as ¡Gestalt ¡cue ¡ familiarity . ¡ M.A. Peterson, “Object Recognition Processes Can and Do Operate Before Figure- Ground Organization”, Cur. Dir. in Psych. Sc. , 3:105-111, 1994. 76 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  40. ISM ¡– ¡Top-­‑Down ¡Segmenta.on ¡ Matched Codebook Probabilistic Interest Points Entries Voting y s x 3D Voting Space Segmentation (continuous) p(figure) Backprojected Backprojection Probabilities Hypotheses of Maxima [Leibe, Leonardis, Schiele, SLCV’04; IJCV’08] 77 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  41. Top-­‑Down ¡Segmenta.on: ¡Mo.va.on ¡ • Secondary ¡hypotheses ¡(“mixtures ¡of ¡cars/cows/etc.”) ¡ – Desired ¡property ¡of ¡algorithm! ¡ ¡ ⇒ ¡robustness ¡to ¡occlusion ¡ – Standard ¡solu.on: ¡reject ¡based ¡on ¡bounding ¡box ¡overlap ¡ ¡ ⇒ ¡Problema.c ¡-­‑ ¡may ¡lead ¡to ¡missing ¡detec.ons! ¡ ¡ ¡ ¡ ¡ ⇒ ¡Use ¡segmenta.ons ¡to ¡resolve ¡ambigui.es ¡instead. ¡ ¡ – Basic ¡idea: ¡each ¡observed ¡pixel ¡can ¡only ¡be ¡explained ¡by ¡ ¡ (at ¡most) ¡one ¡detec.on. ¡ Source: ¡Bas.an ¡Leibe ¡ 78 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  42. Top-­‑Down ¡Segmenta.on: ¡Mo.va.on ¡ • Secondary ¡hypotheses ¡(“mixtures ¡of ¡cars/cows/etc.”) ¡ – Desired ¡property ¡of ¡algorithm! ¡ ¡ ⇒ ¡robustness ¡to ¡occlusion ¡ – Standard ¡solu.on: ¡reject ¡based ¡on ¡bounding ¡box ¡overlap ¡ ¡ ⇒ ¡Problema.c ¡-­‑ ¡may ¡lead ¡to ¡missing ¡detec.ons! ¡ ¡ ¡ ¡ ¡ ⇒ ¡Use ¡segmenta.ons ¡to ¡resolve ¡ambigui.es ¡instead. ¡ ¡ – Basic ¡idea: ¡each ¡observed ¡pixel ¡can ¡only ¡be ¡explained ¡by ¡ ¡ (at ¡most) ¡one ¡detec.on. ¡ Source: ¡Bas.an ¡Leibe ¡ 79 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  43. Segmenta.on: ¡Probabilis.c ¡Formula.on ¡ • Influence ¡of ¡patch ¡on ¡object ¡hypothesis ¡(vote ¡weight) ¡ ( ) ( ) ( ) p o , x | C p C | f p f,  ∑ n i i ( ) p f ,  o , x i = n ( ) p o , x n • ¡ ¡Backprojec*on ¡to ¡features ¡ f ¡and ¡pixels ¡p: ¡ ( ) ( ) ( ) p p figure | o , x p p figure | f ,  , o , x p f ,  | o , x ∑ = = = n n n p ( f ,  ) ∈ Segmentation Influence on information object hypothesis [Leibe, Leonardis, Schiele, SLCV’04; IJCV’08] 80 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  44. Segmenta.on ¡ p(figure) [Leibe, Leonardis, Schiele, SLCV’04; IJCV’08] Original image Segmentation p(figure) p(ground) p(ground) • Interpreta.on ¡of ¡ p(figure) ¡map ¡ Ø per-­‑pixel ¡confidence ¡in ¡object ¡hypothesis ¡ Ø Use ¡for ¡hypothesis ¡verifica.on ¡ 81 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  45. Deriva.on: ¡ISM ¡Recogni.on ¡ • Algorithm ¡stages ¡ 1. Vo.ng ¡ 2. Mean-­‑shis ¡search ¡ Backprojec.on ¡ 3. [Leibe, Leonardis, Schiele, SLCV’04; IJCV’08] • Vote ¡weights: ¡contribu.on ¡of ¡a ¡single ¡feature ¡ f ¡ Image Feature f Codebook matches Object location at location � o n ,x f C i p ( C f ) p ( o , x C ,  ) i n i Matching Occurrence probability distribution 82 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  46. Deriva.on: ¡ISM ¡Recogni.on ¡ • Algorithm ¡stages ¡ 1. Vo.ng ¡ 2. Mean-­‑shis ¡search ¡ Backprojec.on ¡ 3. • Vote ¡weights: ¡contribu.on ¡of ¡a ¡single ¡feature ¡ f ¡ [Leibe, Leonardis, Schiele, SLCV’04; IJCV’08] Probability ¡that ¡object ¡ o n ¡occurs ¡at ¡loca.on ¡ x ¡given ¡ ( f,  ) Ø l p o x f ( , , ) p ( C f ) p ( o , x C ,  ) = ∑ i n n i i Matching Occurrence probability distribution  p ( C f ) p ( o , x C , ) i n i Matching Occurrence probability distribution 83 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  47. Deriva.on: ¡ISM ¡Recogni.on ¡ • Algorithm ¡stages ¡ 1. Vo.ng ¡ 2. Mean-­‑shis ¡search ¡ Backprojec.on ¡ 3. • Vote ¡weights: ¡contribu.on ¡of ¡a ¡single ¡feature ¡ f ¡ [Leibe, Leonardis, Schiele, SLCV’04; IJCV’08] Probability ¡that ¡object ¡ o n ¡occurs ¡at ¡loca.on ¡ x ¡given ¡ ( f,  ) Ø l p o x f ( , , ) p ( C f ) p ( o , x C ,  ) = ∑ ¡ i n n i i How ¡to ¡measure ¡those ¡probabili.es? ¡ Ø ¡ θ f 1 p C f ( ) , where C C d C f | ( , ) { } = = ≤ θ i i i | C | 1 l Activated p o x C ( , , ) = n i # occurrences C ( ) codebook entries i 84 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  48. Deriva.on: ¡ISM ¡Recogni.on ¡ • Algorithm ¡stages ¡ 1. Vo.ng ¡ 2. Mean-­‑shis ¡search ¡ Backprojec.on ¡ 3. • Vote ¡weights: ¡contribu.on ¡of ¡a ¡single ¡feature ¡ f ¡ [Leibe, Leonardis, Schiele, SLCV’04; IJCV’08] Probability ¡that ¡object ¡ o n ¡occurs ¡at ¡loca.on ¡ x ¡given ¡ ( f,  ) Ø l p o x f ( , , ) p ( C f ) p ( o , x C ,  ) = ∑ i n n i i Likelihood ¡of ¡the ¡observed ¡features ¡given ¡the ¡object ¡hypothesis ¡ Ø l l p o x C , | , p C | f p f, l l ( ) ( ) ( ) p o x f, , | p f, = ∑ ( ) ( ) n i i n l p f, | o x , i ( ) = n p o x , p o x , ( ) ( ) n n p f, l : Indicator variable for p o x : Prior for the object location , ( ) ( ) n sampled features 85 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  49. Deriva.on: ¡ISM ¡Recogni.on ¡ • Algorithm ¡stages ¡ 1. Vo.ng ¡ 2. Mean-­‑shis ¡search ¡ Backprojec.on ¡ 3. • Vote ¡weights: ¡contribu.on ¡of ¡a ¡single ¡feature ¡ f ¡ [Leibe, Leonardis, Schiele, SLCV’04; IJCV’08] l l l l p o x C , | , p C | f p f, p o x f, , | p f, = ∑ ( ) ( ) ( ) ( ) ( ) n i i n l p f, | o x , i ( ) = n p o x , p o x , ( ) ( ) n n l l p o x C , | , p C | f p f, l l ( ) ( ) ( ) p o x f, , | p f, = ∑ ( ) ( ) n i i n l p f, | o x , i ( ) = n p o x , p o x , ( ) ( ) n n 86 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  50. Deriva.on: ¡ISM ¡Recogni.on ¡ • Algorithm ¡stages ¡ 1. Vo.ng ¡ 2. Mean-­‑shis ¡search ¡ Backprojec.on ¡ 3. • Vote ¡weights: ¡contribu.on ¡of ¡a ¡single ¡feature ¡ f ¡ [Leibe, Leonardis, Schiele, SLCV’04; IJCV’08] l l l l p o x C , | , p C | f p f, p o x f, , | p f, = ∑ ( ) ( ) ( ) ( ) ( ) n i i n l p f, | o x , i ( ) = n p o x , p o x , ( ) ( ) n n 87 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  51. Deriva.on: ¡ISM ¡Recogni.on ¡ • Algorithm ¡stages ¡ y 1. Vo.ng ¡ s 2. Mean-­‑shis ¡search ¡ x Backprojec.on ¡ 3. [Leibe, Leonardis, Schiele, SLCV’04; IJCV’08] • Vote ¡weights: ¡contribu.on ¡of ¡a ¡single ¡feature ¡ f ¡ l l l l p o x C , | , p C | f p f, = ∑ ( ) ( ) ( ) p o x f, , | p f, ( ) ( ) n i i l n p f, | o x , i ( ) = n p o x , p o x , ( ) ( ) n n 88 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  52. Deriva.on: ¡ISM ¡Top-­‑Down ¡Segmenta.on ¡ • Algorithm ¡stages ¡ 1. Vo.ng ¡ 2. Mean-­‑shis ¡search ¡ Backprojec.on ¡ 3. • Vote ¡weights: ¡contribu.on ¡of ¡a ¡single ¡feature ¡ f ¡ [Leibe, Leonardis, Schiele, SLCV’04; IJCV’08] l l p o x C , | , p C | f p f, l l ( ) ( ) ( ) p o x f, , | p f, = ∑ ( ) ( ) n i i l n p f, | o x , i ( ) = n p o x , p o x , ( ) ( ) n n • Figure-­‑ground ¡backprojec.on ¡ ) ( ) ( ) ( ) p o , x | C ,  p C | f p f,  ( ( ) = p p fig. | o , x , C ,  n i i p p figure | o , x , f , C ∑ ∑ ,  = = = n i n i ( ) p o , x p ( f,  ) i n ∈ Fig./Gnd. label Influence on for each occurrence object hypothesis 89 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  53. Deriva.on: ¡ISM ¡Top-­‑Down ¡Segmenta.on ¡ • Algorithm ¡stages ¡ 1. Vo.ng ¡ 2. Mean-­‑shis ¡search ¡ Backprojec.on ¡ 3. • Vote ¡weights: ¡contribu.on ¡of ¡a ¡single ¡feature ¡ f ¡ [Leibe, Leonardis, Schiele, SLCV’04; IJCV’08] l l p o x C , | , p C | f p f, l l ( ) ( ) ( ) p o x f, , | p f, = ∑ ( ) ( ) n i i l n p f, | o x , i ( ) = n p o x , p o x , ( ) ( ) n n • Figure-­‑ground ¡backprojec.on ¡ ) ( ) ( ) ( ) p o , x | C ,  p C | f p f,  ) ∑ p ( p figure | o , x , f ,  ( p p fig. | o , x , C ,  n i i ∑ ∑ = = = = n n i ( ) p o , x p ( f,  ) i i n ∈ Marginalize over Fig./Gnd. label Influence on all codebook entries for each occurrence object hypothesis matched to f 90 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  54. Deriva.on: ¡ISM ¡Top-­‑Down ¡Segmenta.on ¡ • Algorithm ¡stages ¡ 1. Vo.ng ¡ 2. Mean-­‑shis ¡search ¡ Backprojec.on ¡ 3. • Vote ¡weights: ¡contribu.on ¡of ¡a ¡single ¡feature ¡ f ¡ [Leibe, Leonardis, Schiele, SLCV’04; IJCV’08] l l p o x C , | , p C | f p f, l l ( ) ( ) ( ) p o x f, , | p f, = ∑ ( ) ( ) n i i l n p f, | o x , i ( ) = n p o x , p o x , ( ) ( ) n n • Figure-­‑ground ¡backprojec.on ¡ ) ( ) ( ) ( ) p o , x | C ,  p C | f p f,  ( ) ( p p figure | o n x , p p fig. | o , x , C ,  n i i ∑ ∑ ∑ ∑ = = = = n i ( ) p o , x p ( f,  ) i p ( f ,  ) i n ∈ ∈ Marginalize over Fig./Gnd. label Influence on all features contai- for each occurrence object hypothesis ning pixel p 91 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  55. Top-­‑Down ¡Segmenta.on ¡Algorithm ¡ [Leibe, Leonardis, Schiele, SLCV’04; IJCV’08] • This ¡may ¡sound ¡quite ¡complicated, ¡but ¡it ¡boils ¡down ¡to ¡a ¡ very ¡simple ¡algorithm… ¡ 92 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  56. Example ¡Results: ¡Motorbikes ¡ [Leibe, Leonardis, Schiele, SLCV’04; IJCV’08] 93 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  57. Example ¡Results: ¡Cows ¡ • Training ¡ – 112 ¡hand-­‑segmented ¡images ¡ • Results ¡on ¡novel ¡sequences: ¡ [Leibe, Leonardis, Schiele, SLCV’04; IJCV’08] Single-­‑frame ¡recogni.on ¡-­‑ ¡No ¡temporal ¡con.nuity ¡used! ¡ 94 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  58. Example ¡Results: ¡Chairs ¡ Dining room chairs Office chairs Source: ¡Bas.an ¡Leibe ¡ 95 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  59. Detec.ons ¡Using ¡Ground ¡Plane ¡Constraints ¡ left camera 1175 frames Battery of 5 ISM detectors [Leibe, Leonardis, Schiele, SLCV’04; IJCV’08] for different car views 96 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  60. Inferring ¡Other ¡Informa.on: ¡Part ¡Labels ¡(1) ¡ [Thomas, Ferrari, Tuytelaars, Leibe, Van Gool, 3DRR’07; RSS’08] Training ¡ Test ¡ Output ¡ 97 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  61. Inferring ¡Other ¡Informa.on: ¡Part ¡Labels ¡(2) ¡ [Thomas, Ferrari, Tuytelaars, Leibe, Van Gool, 3DRR’07; RSS’08] 98 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  62. Inferring ¡Other ¡Informa.on: ¡Depth ¡Maps ¡ [Thomas, Ferrari, Tuytelaars, Leibe, Van Gool, 3DRR’07; RSS’08] “Depth from a single image” 99 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

  63. Extension: ¡Es.ma.ng ¡Ar.cula.on ¡ • Try ¡to ¡fit ¡silhouebe ¡to ¡detected ¡person ¡ • Basic ¡idea ¡ – Search ¡for ¡the ¡silhouebe ¡that ¡simultaneously ¡op.mizes ¡the ¡ • Chamfer ¡match ¡to ¡the ¡distance-­‑transformed ¡edge ¡image ¡ • Overlap ¡with ¡the ¡top-­‑down ¡segmenta.on ¡ – Enforces ¡global ¡consistency ¡ – Caveat: ¡introduces ¡again ¡reliance ¡on ¡global ¡model ¡ [Leibe, Seemann, Schiele, CVPR’05] 100 ¡ 8-­‑Apr-­‑13 ¡ Lecture 2 - � Fei-Fei Li � �

Download Presentation
Download Policy: The content available on the website is offered to you 'AS IS' for your personal information and use only. It cannot be commercialized, licensed, or distributed on other websites without prior consent from the author. To download a presentation, simply click this link. If you encounter any difficulties during the download process, it's possible that the publisher has removed the file from their server.

Recommend


More recommend