exploring the design space of deep convolu onal neural
play

Exploring the Design Space of Deep Convolu(onal Neural - PowerPoint PPT Presentation

Disserta(on Talk: Exploring the Design Space of Deep Convolu(onal Neural Networks at Large Scale Forrest Iandola forresti@eecs.berkeley.edu 1 Machine Learning in


  1. Disserta(on ¡Talk: ¡ Exploring ¡the ¡Design ¡Space ¡of ¡ ¡ Deep ¡Convolu(onal ¡Neural ¡Networks ¡at ¡Large ¡Scale ¡ Forrest ¡Iandola ¡ forresti@eecs.berkeley.edu 1 ¡

  2. Machine ¡Learning ¡in ¡2012 ¡ Object ¡Detec(on ¡ Sen(ment ¡Analysis ¡ Deformable ¡Parts ¡Model ¡ LDA ¡ Text ¡ Computer ¡ Analysis ¡ Vision ¡ Seman(c ¡Segmenta(on ¡ segDPM ¡ Audio ¡ Word ¡Predic(on ¡ Analysis ¡ Linear ¡InterpolaFon ¡ + ¡N-­‑Gram ¡ Audio ¡Concept ¡ ¡ Speech ¡Recogni(on ¡ Image ¡Classifica(on ¡ Recogni(on ¡ Hidden ¡Markov ¡ ¡ Feature ¡Engineering ¡ Model ¡ + ¡SVMs ¡ i-­‑Vector ¡+ ¡HMM ¡ We ¡have ¡10 ¡years ¡of ¡experience ¡in ¡a ¡broad ¡variety ¡of ¡ML ¡approaches ¡… ¡ [1] ¡B. ¡Catanzaro, ¡N. ¡Sundaram, ¡ K. ¡Keutzer. ¡Fast ¡support ¡vector ¡machine ¡training ¡and ¡classificaFon ¡on ¡graphics ¡processors. ¡InternaFonal ¡ Conference ¡on ¡Machine ¡Learning ¡(ICML), ¡2008. ¡ [2] ¡Y. ¡Yi, ¡C.Y. ¡Lai, ¡S. ¡Petrov, ¡ K. ¡Keutzer . ¡Efficient ¡parallel ¡CKY ¡parsing ¡on ¡GPUs. ¡InternaFonal ¡Conference ¡on ¡Parsing ¡Technologies, ¡2011. ¡ [3] ¡K. ¡You, ¡J. ¡Chong, ¡Y. ¡Yi, ¡E. ¡Gonina, ¡C.J. ¡Hughes, ¡Y. ¡Chen, ¡K. ¡Keutzer . ¡Parallel ¡scalability ¡in ¡speech ¡recogniFon. ¡ IEEE ¡Signal ¡Processing ¡ Magazine , ¡2009. ¡ [4] ¡ F. ¡Iandola , ¡M. ¡ Moskewicz , ¡K. ¡ Keutzer . ¡libHOG: ¡Energy-­‑Efficient ¡Histogram ¡of ¡Oriented ¡Gradient ¡ComputaFon. ¡ITSC, ¡2015. ¡ [5] ¡N. ¡Zhang, ¡R. ¡Farrell, ¡ F. ¡Iandola , ¡and ¡T. ¡Darrell. ¡Deformable ¡Part ¡Descriptors ¡for ¡Fine-­‑grained ¡RecogniFon ¡and ¡Acribute ¡PredicFon. ¡ICCV, ¡ 2013. ¡ ¡ [6] ¡M. ¡Kamali, ¡I. ¡Omer, ¡ F. ¡Iandola , ¡E. ¡Ofek, ¡and ¡J.C. ¡Hart. ¡Linear ¡Clucer ¡Removal ¡from ¡Urban ¡Panoramas ¡ ¡InternaFonal ¡Symposium ¡on ¡ Visual ¡CompuFng. ¡ISVC, ¡2011. ¡ 2 ¡ ¡ ¡

  3. By ¡2016, ¡Deep ¡Neural ¡Networks ¡Give ¡ ¡ Superior ¡Solu(ons ¡in ¡Many ¡Areas ¡ Object ¡DetecFon ¡ SenFment ¡Analysis ¡ 3-­‑layer ¡RNN ¡ 16-­‑layer ¡DCNN ¡ CNN/ Text ¡ Computer ¡ Analysis ¡ DNN ¡ Vision ¡ SemanFc ¡SegmentaFon ¡ Word ¡PredicFon ¡ 19-­‑layer ¡FCN ¡ word2vec ¡NN ¡ Audio ¡ Speech ¡RecogniFon ¡ Analysis ¡ Audio ¡Concept ¡ ¡ Image ¡ClassificaFon ¡ RecogniFon ¡ LSTM ¡NN ¡ GoogLeNet-­‑v3 ¡DCNN ¡ 4-­‑layer ¡DNN ¡ Finding ¡the ¡"right" ¡DNN ¡architecture ¡is ¡replacing ¡broad ¡ ¡ algorithmic ¡exploraFon ¡for ¡many ¡problems. ¡ ¡ [7] ¡K. ¡Ashraf, ¡B. ¡Elizalde, ¡F. ¡ Iandola , ¡M. ¡ Moskewicz , ¡J. ¡Bernd, ¡G. ¡Friedland, ¡K. ¡ Keutzer . ¡Audio-­‑Based ¡MulFmedia ¡Event ¡DetecFon ¡with ¡Deep ¡Neural ¡Nets ¡ and ¡Sparse ¡Sampling. ¡ACM ¡ICMR, ¡2015. ¡ [8] ¡F. ¡ Iandola , ¡A. ¡ Shen , ¡P. ¡Gao, ¡K. ¡ Keutzer . ¡DeepLogo: ¡Himng ¡logo ¡recogniFon ¡with ¡the ¡deep ¡neural ¡network ¡hammer. ¡arXiv:1510.02131, ¡2015. ¡ [9] ¡F. ¡ Iandola , ¡M. ¡ Moskewicz , ¡S. ¡Karayev, ¡R. ¡Girshick, ¡T. ¡Darrell, ¡K. ¡ Keutzer . ¡DenseNet: ¡ImplemenFng ¡Efficient ¡ConvNet ¡Descriptor ¡Pyramids. ¡arXiv: ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡1404.1869, ¡2014. ¡ [10] ¡R. ¡Girshick, ¡F. ¡ Iandola , ¡T. ¡Darrell, ¡J. ¡Malik. ¡Deformable ¡Part ¡Models ¡are ¡ConvoluFonal ¡Neural ¡Networks. ¡CVPR, ¡2015. ¡ [11] ¡ F. ¡Iandola , ¡K. ¡Ashraf, ¡ M.W. ¡Moskewicz , ¡ K. ¡Keutzer . ¡FireCaffe: ¡near-­‑linear ¡acceleraFon ¡of ¡ ¡deep ¡neural ¡network ¡training ¡on ¡compute ¡clusters. ¡arXiv: 3 ¡ 1511.00175, ¡2015. ¡Also, ¡CVPR ¡2016, ¡pp. ¡2592–2600. ¡ ¡ ¡ [12] ¡K. ¡Ashraf, ¡B. ¡Wu, ¡ F.N. ¡Iandola , ¡ M.W. ¡Moskewicz , ¡ K. ¡Keutzer . ¡Shallow ¡Networks ¡for ¡High-­‑Accuracy ¡Road ¡Object-­‑DetecFon. ¡arXiv:1606.01561, ¡2016. ¡ ¡ ¡

  4. The ¡MESCAL ¡Methodology ¡for ¡exploring ¡ the ¡design ¡space ¡of ¡computer ¡hardware ¡ The ¡methodology ¡includes ¡a ¡ number ¡of ¡themes, ¡such ¡as… ¡ ¡ • Judiciously ¡using ¡ benchmarking ¡ • Efficiently ¡evaluate ¡points ¡in ¡ the ¡design ¡space ¡ • Inclusively ¡idenFfy ¡the ¡ architectural ¡space ¡ • Comprehensively ¡explore ¡ the ¡design ¡space ¡ 4 ¡

  5. Outline ¡of ¡our ¡approach ¡to ¡exploring ¡the ¡ design ¡space ¡of ¡CNN/DNN ¡architectures ¡ • Theme ¡1: ¡Defining ¡benchmarks ¡and ¡metrics ¡to ¡evaluate ¡CNN/ DNNs ¡ • Theme ¡2: ¡Rapidly ¡training ¡CNN/DNNs ¡ • Theme ¡3: ¡Defining ¡and ¡describing ¡the ¡CNN/DNN ¡design ¡space ¡ • Theme ¡4: ¡Exploring ¡the ¡design ¡space ¡of ¡CNN/DNN ¡architectures ¡ 5 ¡

  6. Theme ¡1: ¡Defining ¡benchmarks ¡and ¡ metrics ¡to ¡evaluate ¡CNN/DNNs ¡ What ¡ exactly ¡would ¡we ¡like ¡our ¡neural ¡network ¡to ¡accomplish? ¡ 6 ¡

  7. Key ¡benchmarks ¡used ¡in ¡four ¡ ¡ deep ¡learning ¡problem ¡areas ¡ Size of Type of data Problem CNN/DNN Hardware Training benchmark's area architecture time training set text [1] word prediction 100 billion words 2-layer skip 1 NVIDIA 6.2 hours (word2vec) (Wikipedia) gram Titan X GPU audio [2] speech 2000 hours (Fisher 11-layer RNN 1 NVIDIA 3.5 days recognition Corpus) K1200 GPU images [3] image 1 million images 22-layer CNN 1 NVIDIA K20 3 weeks classification (ImageNet) GPU activity 1 million videos 8-layer CNN 10 NVIDIA video [4] 1 month recognition (Sports-1M) GPUs • High-­‑dimensional ¡data ¡(e.g. ¡images ¡and ¡video) ¡tends ¡to ¡require ¡more ¡processing ¡ during ¡both ¡training ¡and ¡inference. ¡ ¡ ¡ • One ¡of ¡our ¡goals ¡was ¡to ¡find ¡the ¡most ¡computaFonally-­‑intensive ¡CNN/DNN ¡ benchmarks, ¡and ¡then ¡go ¡to ¡work ¡on ¡acceleraFng ¡these ¡applicaFons ¡ • Image/Video ¡benchmarks ¡meet ¡these ¡criteria ¡ • Convolu8onal ¡Neural ¡Networks ¡(CNNs) ¡are ¡commonly ¡applied ¡to ¡Image/Video ¡data ¡ [1] ¡John ¡Canny, ¡et ¡al., ¡"Machine ¡learning ¡at ¡the ¡limit," ¡IEEE ¡InternaFonal ¡Conference ¡on ¡Big ¡Data, ¡2015. ¡ ¡ [2] ¡Dario ¡Amodei, ¡et ¡al., ¡"Deep ¡speech ¡2: ¡End-­‑to-­‑end ¡speech ¡recogniFon ¡in ¡english ¡and ¡mandarin," ¡arXiv:1512.02595, ¡2015. ¡ [3] ¡Sergio ¡Guadarrama, ¡"BVLC ¡googlenet," ¡hcps://github.com/BVLC/caffe/tree/master/ ¡models/bvlc_googlenet, ¡2015. ¡ [4] ¡A. ¡Karpathy, ¡et ¡al., ¡"Large-­‑scale ¡video ¡classificaFon ¡with ¡convoluFonal ¡neural ¡networks," ¡CVPR, ¡2014. ¡ 7 ¡ ¡ ¡

  8. Key ¡metrics ¡for ¡specifying ¡CNN/DNN ¡ design ¡goals ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡Energy ¡Efficiency ¡ Training ¡Speed ¡ Accuracy ¡ To ¡achieve ¡the ¡opFmal ¡results ¡on ¡these ¡metrics, ¡it's ¡important ¡to ¡design ¡and/or ¡evaluate: ¡ • CNN ¡architectures ¡ • Sovware/Libraries ¡ • Hardware ¡architectures ¡ 8 ¡ ¡

  9. Strategies ¡for ¡evalua(ng ¡team ¡progress ¡on ¡ ¡ full-­‑stack ¡CNN/DNN ¡system ¡development ¡ Evalua(ng ¡individual ¡ ¡ Evalua(ng ¡the ¡ ¡ contribu(ons ¡ overall ¡system ¡ CNN ¡Team ¡ • Accuracy ¡ • QuanFty ¡of ¡computaFon ¡ & global&avgpool & maxpool/2 & maxpool/2 1000 & 128 & 384 & maxpool/2 & 512 & conv10& so4max& 128 & 256 & & 256 & 384 & 512 conv1& & 96 fire4& fire6& fire9& fire2& fire3& fire5& fire7& fire8& • Model ¡Size ¡ Sovware/Libraries ¡ ¡ • Percent ¡of ¡peak ¡ throughput ¡achieved ¡on ¡ • Energy ¡per ¡frame ¡ Team ¡ appropriate ¡hardware ¡ • Inference ¡speed ¡per ¡frame ¡ kernel<<< >>> Hardware ¡Team ¡ • Power ¡envelope ¡ • Peak ¡achievable ¡ throughput ¡ 9 ¡

  10. Theme ¡2: ¡Rapidly ¡training ¡CNN ¡models ¡ Without ¡exaggeraFon, ¡training ¡a ¡CNN ¡can ¡take ¡weeks ¡ ¡ Train ¡rapidly ¡ à ¡More ¡producFvely ¡explore ¡the ¡design ¡space ¡ 10 ¡

Download Presentation
Download Policy: The content available on the website is offered to you 'AS IS' for your personal information and use only. It cannot be commercialized, licensed, or distributed on other websites without prior consent from the author. To download a presentation, simply click this link. If you encounter any difficulties during the download process, it's possible that the publisher has removed the file from their server.

Recommend


More recommend