handling imperfections in energy disaggregation
play

Handling Imperfections in Energy Disaggregation Authors: Angshul - PowerPoint PPT Presentation

Handling Imperfections in Energy Disaggregation Authors: Angshul Majumdar, Megha Gupta Presenter: Manoj Gula7 Spikes or Surges Short-term increases in the electrical supply


  1. Handling Imperfections in Energy Disaggregation Authors: ¡Angshul ¡Majumdar, ¡Megha ¡Gupta ¡ ¡ Presenter: ¡Manoj ¡Gula7 ¡

  2. Spikes or Surges Short-­‑term ¡increases ¡in ¡the ¡electrical ¡supply ¡ voltage, ¡or ¡current ¡or ¡both, ¡are ¡called ¡ ‘spikes’ ¡(also ¡ ¡called ¡‘surges’) ¡

  3. Spikes or Surges – They ¡are ¡inevitable. ¡ ¡ – Why? ¡ – Lightning ¡strikes ¡& ¡Power ¡outages ¡ – Tripped ¡circuit ¡breakers ¡& ¡Short ¡circuits ¡ – Power ¡transi7ons ¡in ¡other ¡large ¡equipment ¡on ¡the ¡ same ¡power ¡line ¡ – Malfunc7ons ¡caused ¡by ¡the ¡power ¡company ¡ – Electromagne7c ¡pulses ¡(EMP) ¡ with ¡electromagne7c ¡energy ¡distributed ¡typically ¡up ¡to ¡ the ¡100 ¡kHz ¡and ¡1 ¡MHz ¡frequency ¡range. ¡

  4. Missing Data – Power-­‑meter ¡acquires ¡data, ¡but ¡cannot ¡be ¡ transmiRed. ¡ ¡ – (If ¡there ¡is ¡any ¡other ¡reason ¡– ¡add) ¡

  5. Sparse coding - Training 2 + λ Z 1 1 X dishwasher = D 1 Z 1 ≡ min D 1 Z 1 X dishwasher − D 1 Z 1 F 2 + λ Z 2 1 X washer = D 2 Z 2 ≡ min D 2 Z 2 X washer − D 2 Z 2 F 2 X desktop = D 3 Z 3 ≡ min D 3 Z 3 X desktop − D 3 Z 3 F + λ Z 3 1

  6. Sparse Coding - Disaggregation + ¡ + ¡ X dishwasher + X washer + X desktop = X D 1 Z 1 + D 2 Z 2 + D 3 Z 3 = X Dic7onaries ¡are ¡already ¡learnt ¡in ¡the ¡training ¡phase ¡ 2 ⎡ ⎤ ⎡ ⎤ Z 1 Z 1 ⎢ ⎥ ⎢ ⎥ ⎡ ⎤ Z 1 , Z 2 , Z 3 X − D 1 | D 2 | D 3 + λ ⎢ ⎥ ⎢ ⎥ min Z 2 Z 2 ⎣ ⎦ ⎢ ⎥ ⎢ ⎥ Z 3 Z 3 ⎢ ⎥ F ⎢ ⎥ 1 ⎣ ⎦ ⎣ ⎦ X dishwasher = D 1 Z 1 ; ˆ ˆ X washer = D 2 Z 2 ; ˆ X desktop = D 2 Z 2

  7. Gaussianity & Mean Squared Error Smooth ¡cost ¡func7on ¡– ¡easy ¡to ¡ op7mize ¡ Perfect ¡to ¡use ¡when ¡error ¡is ¡small ¡/ ¡ probability ¡of ¡large ¡error ¡is ¡negligible ¡ But ¡not ¡for ¡large ¡outliers! ¡

  8. Line-fitting – with outliers FiZng ¡a ¡line ¡in ¡presence ¡of ¡outliers ¡ FiZng ¡a ¡line ¡in ¡presence ¡of ¡noise ¡ (large ¡errors) ¡with ¡least ¡squares ¡ (small ¡errors) ¡with ¡least ¡squares ¡

  9. Outliers – Heavy Tailed Distribution – Heavy ¡tails ¡– ¡probability ¡of ¡large ¡values ¡are ¡not ¡ small, ¡e.g. ¡Cauchy ¡ ¡ – Used ¡for ¡modelling ¡outliers ¡(Cauchy, ¡Exponen7al, ¡ etc.) ¡

  10. Robust Estimation – Huber ¡func7on ¡– ¡have ¡been ¡ widely ¡used ¡for ¡robust ¡ es7ma7on. ¡ ¡ – But ¡more ¡recently ¡absolute ¡ devia7ons ¡are ¡being ¡ minimized. ¡ ¡ • P. ¡J. ¡Huber, ¡“Robust ¡Es7ma7on ¡of ¡a ¡Loca7on ¡Parameter”, ¡The ¡Annals ¡of ¡Mathema7cal ¡ Sta7s7cs, ¡Vol. ¡35 ¡(1), ¡pp. ¡73-­‑101, ¡1964. ¡ • R. ¡L. ¡Branham ¡Jr., ¡"Alterna7ves ¡to ¡least ¡squares", ¡Astronomical ¡Journal ¡87, ¡pp. ¡928–937, ¡ 1982. ¡ • M. ¡Shi ¡and ¡M. ¡A. ¡Lukas, ¡"An ¡L1 ¡es7ma7on ¡algorithm ¡with ¡degeneracy ¡and ¡linear ¡ constraints". ¡Computa7onal ¡Sta7s7cs ¡& ¡Data ¡Analysis, ¡Vol. ¡39 ¡(1), ¡pp. ¡35–55, ¡2002. ¡ • L. ¡Wang, ¡M. ¡D. ¡Gordon ¡and ¡J. ¡Zhu, ¡"Regularized ¡Least ¡Absolute ¡Devia7ons ¡Regression ¡ and ¡an ¡Efficient ¡Algorithm ¡for ¡Parameter ¡Tuning". ¡IEEE ¡ICDM. ¡pp. ¡690–700, ¡2006. ¡ ¡

  11. Robust Dictionary Learning - NILM – Change ¡all ¡the ¡cost ¡func7on ¡from ¡l2-­‑norm ¡to ¡l1-­‑ norm. ¡ – During ¡training ¡– ¡ ¡ ¡ D i Z i X i − D i Z i 1 + λ Z i 1 min – During ¡Disaggrega7on ¡– ¡ ¡ ⎡ ⎤ ⎡ ⎤ Z 1 Z 1 ⎢ ⎥ ⎢ ⎥ Z 1 ,..., Z 3 X − D 1 |...| D N ⎡ ⎤ + λ ⎢ ⎥ ⎢ ⎥ min ... ... ⎣ ⎦ ⎢ ⎥ ⎢ ⎥ Z N Z N ⎢ ⎥ 1 ⎢ ⎥ 1 ⎣ ⎦ ⎣ ⎦ A. ¡Majumdar ¡and ¡R. ¡K. ¡Ward ¡“Robust ¡Dic7onary ¡Learning: ¡Applica7on ¡to ¡Signal ¡ Disaggrega7on”, ¡ICASSP ¡2016 ¡

  12. Modelling Missing Data – Prior ¡techniques ¡were ¡based ¡on ¡interpola7on ¡ – Nearest ¡neighbor ¡ – Previous ¡value ¡ – Bicubic ¡ – Interpola7ng ¡leads ¡to ¡‘errors’. ¡ – Mathema7cally, ¡a ¡more ¡op7mal ¡way ¡would ¡be ¡to ¡ simply ¡model ¡the ¡missing ¡values, ¡i.e. ¡ ¡ ¡ Y = R ⊙ X X − actual data collected by meter Y − data received R − binary sampling mask

  13. Training and Disaggregation – Blind ¡Compressed ¡Sensing ¡(BCS) ¡for ¡training ¡– ¡ ¡ Y i = R i ⊙ X i = R i ⊙ D i Z i 2 + λ Z i 1 D i , Z i Y i − R i ⊙ D i Z i F ¡ BCS :min – Simple ¡Compressed ¡Sensing ¡type ¡for ¡ Disaggrega7on ¡ ¡ ⎡ ⎤ Z 1 ⎢ ⎥ Y = R ⊙ X = R ⊙ D 1 |...| D N ⎡ ⎤ ⎢ ⎥ ... ⎣ ⎦ ⎢ ⎥ Z N ⎢ ⎥ ⎣ ⎦ 2 ⎡ ⎤ ⎡ ⎤ Z 1 Z 1 ⎢ ⎥ ⎢ ⎥ Z 1 ,...,Z N Y − R ⊙ D 1 |...| D N ⎡ ⎤ + λ ⎢ ⎥ ⎢ ⎥ BCS : min ... ... ⎣ ⎦ ⎢ ⎥ ⎢ ⎥ Z N Z N ⎢ ⎥ F ⎢ ⎥ 1 ⎣ ⎦ ⎣ ⎦

  14. Handling Both – Training ¡ D i , Z i Y i − R i ⊙ D i Z i 1 + λ Z i 1 min Missing ¡Data ¡ Surges ¡/ ¡Spikes ¡ – Disaggrega7on ¡ ⎡ ⎤ ⎡ ⎤ Z 1 Z 1 ⎢ ⎥ ⎢ ⎥ ⎡ ⎤ Z 1 ,...,Z N Y − R ⊙ D 1 |...| D N + λ ⎢ ⎥ ⎢ ⎥ min ... ... ⎣ ⎦ ⎢ ⎥ ⎢ ⎥ Z N Z N ⎢ ⎥ 1 ⎢ ⎥ 1 ⎣ ⎦ ⎣ ⎦

  15. Results REDD ¡Dataset: ¡Standard ¡Protocol ¡ House Training ¡Accuracy Tes1ng ¡Accuracy ¡ Robust ¡DL Powerlet Proposed Robust Powerlet Proposed 1 75.5 81.6 77.0 53.0 46.0 54.5 2 66.7 79.0 69.1 56.3 49.2 58.0 3 65.2 61.8 67.0 43.9 31.7 45.7 4 63.7 58.5 65.9 60.1 50.9 61.6 6 68.5 79.1 70.2 60.2 54.5 62.0

  16. Future Work ¡ – We ¡proposed ¡‘deep ¡sparse ¡coding’ ¡ – Instead ¡of ¡learning ¡a ¡single ¡level ¡of ¡dic7onary, ¡we ¡learn ¡ deeper ¡representa7ons. ¡ – In ¡future, ¡we ¡will ¡combine ¡the ¡proposed ¡work ¡with ¡ deep ¡sparse ¡coding. ¡

Download Presentation
Download Policy: The content available on the website is offered to you 'AS IS' for your personal information and use only. It cannot be commercialized, licensed, or distributed on other websites without prior consent from the author. To download a presentation, simply click this link. If you encounter any difficulties during the download process, it's possible that the publisher has removed the file from their server.

Recommend


More recommend