greedy deep disaggregating sparse coding
play

Greedy Deep Disaggregating Sparse Coding Authors: Shikha Singh - PowerPoint PPT Presentation

Greedy Deep Disaggregating Sparse Coding Authors: Shikha Singh and Angshul Majumdar Presenter: Manoj Gula8 Sparse coding - Training 2 = + X D Z min X D Z Z dishwasher 1 1


  1. Greedy Deep Disaggregating Sparse Coding Authors: ¡Shikha ¡Singh ¡and ¡Angshul ¡Majumdar ¡ Presenter: ¡Manoj ¡Gula8 ¡

  2. Sparse coding - Training 2 = ≡ − + λ X D Z min X D Z Z dishwasher 1 1 dishwasher 1 1 1 1 F D Z 1 1 2 = ≡ − + λ X D Z min X D Z Z washer 2 2 washer 2 2 2 1 F D Z 2 2 2 = ≡ − + λ X D Z min X D Z Z desktop 3 3 desktop 3 3 3 1 F D Z 3 3

  3. Sparse Coding - Disaggregation + ¡ + ¡ + + = X X X X dishwasher washer desktop + + = D Z D Z D Z X 1 1 2 2 3 3 Dic8onaries ¡are ¡already ¡learnt ¡in ¡the ¡training ¡phase ¡ 2 ⎡ ⎤ ⎡ ⎤ Z Z 1 1 ⎢ ⎥ ⎢ ⎥ [ ] − + λ min X D | D | D Z Z ⎢ ⎥ ⎢ ⎥ 1 2 3 2 2 Z Z , , Z 1 2 3 ⎢ ⎥ ⎢ ⎥ Z Z ⎣ ⎦ ⎣ ⎦ 3 3 F 1 ˆ ˆ ˆ = = = X D Z X ; D Z ; X D Z dishwasher 1 1 washer 2 2 desktop 2 2

  4. Dictionary Learning Interpretation – Given ¡a ¡dataset ¡X, ¡can ¡we ¡learn ¡a ¡basis ¡D ¡so ¡that ¡ the ¡data ¡can ¡be ¡represented ¡in ¡terms ¡of ¡sparse ¡ features ¡Z? ¡ x ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡D ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡z = X DZ 2 − + λ min X DZ Z F 1 DZ = …

  5. Neural Network Representation Representation Target Input Target Input – This ¡can ¡be ¡segregated ¡into ¡two ¡parts ¡ – Input ¡to ¡representa8on ¡ – Representa8on ¡to ¡target ¡ – The ¡second ¡part ¡is ¡trivial! ¡ – Learning ¡the ¡first ¡part ¡– ¡Representa8on ¡Learning ¡

  6. RL – Restricted Boltzmann Machine Network ¡D Representation ¡(Z) Boltzmann Function Input ¡(X) T e − = Z DX p D Z ( , ) – Maximizes ¡similarity ¡between ¡the ¡projec8on ¡of ¡the ¡ input ¡(DX) ¡and ¡the ¡representa8on ¡(Z). ¡ – AQer ¡training ¡RBM, ¡for ¡representa8on, ¡the ¡Targets ¡ are ¡aSached ¡to ¡form ¡the ¡neural ¡net. ¡ ¡

  7. RL – Autoencoder Representation Euclidean Mismatch Output=Input Input 2 W , W ' X − W ' φ ( WX ) min F Encoder Decoder – Encodes ¡the ¡input ¡to ¡the ¡representa8on ¡and ¡then ¡ decodes ¡the ¡representa8on ¡to ¡form ¡the ¡input ¡/ ¡ output ¡such ¡that ¡the ¡cost ¡func8on ¡is ¡minimized. ¡ ¡ – AQer ¡training, ¡decoder ¡is ¡deleted ¡and ¡the ¡Targets ¡ aSached ¡to ¡form ¡the ¡neural ¡net. ¡ ¡

  8. Stacked Autoencoders T W W 1 1 T W W Hidden ¡Layer ¡2 Hidden ¡Layer ¡3 2 2 Output Input – To ¡learn ¡deeper ¡architectures, ¡autoencoders ¡are ¡ nested ¡inside ¡each ¡other. ¡ ¡ 2 X − g ! f ( X ) argmin F W 1 ... W L − 1 , W ' 1 ... W ' L Difficult ¡beast ¡to ¡ ( ) ( ) where g = W 1 ' φ W 2 '... W L ' f ( X ) op0mize ¡ ¡ ( ) ( ) and f = φ W L − 1 φ W L − 2 ... φ ( W 1 X )

  9. Greedy Learning T W W T W W 1 1 1 T 1 W W Input Virtual ¡Output Hidden ¡Layer ¡2 Hidden ¡Layer ¡3 2 2 Hidden ¡Layer ¡2 Output Input Input W T W Hidden ¡Layer ¡3 2 Virtual ¡Output Hidden ¡Layer ¡1 2 Virtual ¡Input Hidden ¡Layer ¡1/3 – First ¡the ¡outermost ¡layer ¡is ¡learnt. ¡ ¡ – The ¡features ¡from ¡the ¡outermost ¡layer ¡now ¡act ¡as ¡ inputs ¡for ¡the ¡nested ¡layer. ¡ – This ¡con8nues ¡8ll ¡the ¡deepest ¡layer. ¡ ¡ – Deep ¡/ ¡boSleneck ¡layer ¡is ¡used. ¡ ¡

  10. Deep Belief Network – A ¡DBN ¡is ¡a ¡cascade ¡of ¡ RBMs. ¡ – Can ¡be ¡used ¡for ¡feature ¡ extrac8on. ¡ – Can ¡be ¡converted ¡to ¡a ¡ deep ¡neural ¡network ¡ with ¡targets ¡at ¡the ¡ output. ¡ G. ¡E. ¡Hinton, ¡S. ¡Osindero ¡and ¡Y. ¡W. ¡Teh, ¡“A ¡fast ¡learning ¡algorithm ¡for ¡deep ¡ belief ¡nets”, ¡Neural ¡Computa8on, ¡Vol. ¡18, ¡pp. ¡1527-­‑1554, ¡2006. ¡

  11. Sparse Coding Alternate Look x ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡D ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡z x ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡D ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡z = … . . . – The ¡basis ¡can ¡be ¡interpreted ¡as ¡connec8ons ¡ between ¡the ¡feature ¡/ ¡represen8on ¡to ¡the ¡input. ¡ – It ¡is ¡‘synthesis ¡learning’ ¡since ¡the ¡dic8onary ¡is ¡ synthesizing ¡the ¡input ¡from ¡the ¡features. ¡ ¡ ¡

  12. Deep Sparse Coding – Layers ¡can ¡be ¡appended ¡one ¡aQer ¡the ¡other ¡to ¡ form ¡deeper ¡architecture. ¡ ¡ – The ¡features ¡from ¡the ¡deepest ¡layer ¡will ¡be ¡used ¡ for ¡the ¡task. ¡ – Features ¡from ¡shallower ¡layer ¡acts ¡as ¡input ¡for ¡ deeper ¡layer. ¡

  13. Formulation – This ¡is ¡the ¡exact ¡formula8on ¡ 2 − + λ min Z X D D ... D Z Z 1 2 N F 1 D D , ,..., D , 1 2 N – Solving ¡this ¡is ¡as ¡complex ¡as ¡the ¡stacked ¡ autoencoder. ¡ – One ¡can ¡use ¡Bregman ¡Splikng ¡… ¡ ¡ 2 2 − + µ − − min X DY Y D Y B 1 1 1 1 2 2 1 F F D D , ,..., D , , Z Y Y , ,..., Y 1 2 N 1 2 N 2 + + µ − − + λ ... Y D Z B Z − − − N 1 N 1 N N 1 F 1 – But ¡needs ¡tuning ¡of ¡too ¡many ¡hyper-­‑parameters ¡

  14. Greedy Learning ¡ ¡ 2 = − + λ Substitute Y D ... D Z in min X D D ... D Z Z 1 2 N 1 2 N F 1 D D , ,..., D , Z 1 2 N 2 − Greedily learn:min X DY 1 1 F D Y , 1 1 = = Then substitute Y D ... D Z in Y D ... D Z 2 3 N 1 2 N 2 − Greedily learn:min Y D Y 1 2 2 F D Y , 2 2 Continue ... Till penultimate leve l = In the last level you have Y D Z − N 1 N 2 − + λ Solve:min Y D Z Z − N 1 N F 1 D , Z N Doesn't introduce any extra hyper-parameter

  15. Current Work – Greedy ¡learning ¡offers ¡plug ¡and ¡play ¡op8ons. ¡ – One ¡can ¡use ¡any ¡type ¡of ¡dic8onary ¡learning ¡in ¡any ¡ layer. ¡ ¡ – This ¡work ¡uses ¡Kolter’s ¡formula8on ¡in ¡first ¡layer. ¡ – Following ¡layers ¡use ¡simple ¡sparse ¡coding. ¡ ¡ – Tested ¡on ¡Pecan ¡Street ¡

  16. Results No. ¡of ¡ Sparse ¡ 1 st ¡Layer ¡ 2 nd ¡Layer ¡ 3rd ¡Layer ¡ Houses ¡ Coding ¡ (DDSC) ¡ (SC) ¡ (SC) ¡ (SC) ¡ ¡ 72 ¡ 63.13 ¡ 67.25 ¡ 69.34 ¡ 69.45 ¡ *Disaggrega8ng ¡Discrimina8ve ¡Sparse ¡Coding ¡

  17. Conclusion – New ¡framework ¡for ¡representa8on ¡learning. ¡ ¡ – NILM ¡– ¡serves ¡as ¡a ¡nice ¡applica8on. ¡ – For ¡NILM, ¡deep ¡sparse ¡coding ¡will ¡be ¡coupled ¡with ¡ our ¡associated ¡work ¡on ¡robust ¡learning. ¡

Download Presentation
Download Policy: The content available on the website is offered to you 'AS IS' for your personal information and use only. It cannot be commercialized, licensed, or distributed on other websites without prior consent from the author. To download a presentation, simply click this link. If you encounter any difficulties during the download process, it's possible that the publisher has removed the file from their server.

Recommend


More recommend