Handling Imperfections in Energy Disaggregation Authors: Angshul - - PowerPoint PPT Presentation

handling imperfections in energy disaggregation
SMART_READER_LITE
LIVE PREVIEW

Handling Imperfections in Energy Disaggregation Authors: Angshul - - PowerPoint PPT Presentation

Handling Imperfections in Energy Disaggregation Authors: Angshul Majumdar, Megha Gupta Presenter: Manoj Gula7 Spikes or Surges Short-term increases in the electrical supply


slide-1
SLIDE 1

Handling Imperfections in Energy Disaggregation

Authors: ¡Angshul ¡Majumdar, ¡Megha ¡Gupta ¡ ¡ Presenter: ¡Manoj ¡Gula7 ¡

slide-2
SLIDE 2

Spikes or Surges

Short-­‑term ¡increases ¡in ¡the ¡electrical ¡supply ¡ voltage, ¡or ¡current ¡or ¡both, ¡are ¡called ¡ ‘spikes’ ¡(also ¡ ¡called ¡‘surges’) ¡

slide-3
SLIDE 3

Spikes or Surges

– They ¡are ¡inevitable. ¡ ¡ – Why? ¡

– Lightning ¡strikes ¡& ¡Power ¡outages ¡ – Tripped ¡circuit ¡breakers ¡& ¡Short ¡circuits ¡ – Power ¡transi7ons ¡in ¡other ¡large ¡equipment ¡on ¡the ¡ same ¡power ¡line ¡ – Malfunc7ons ¡caused ¡by ¡the ¡power ¡company ¡ – Electromagne7c ¡pulses ¡(EMP) ¡ with ¡electromagne7c ¡energy ¡distributed ¡typically ¡up ¡to ¡ the ¡100 ¡kHz ¡and ¡1 ¡MHz ¡frequency ¡range. ¡

slide-4
SLIDE 4

Missing Data

– Power-­‑meter ¡acquires ¡data, ¡but ¡cannot ¡be ¡

  • transmiRed. ¡ ¡

– (If ¡there ¡is ¡any ¡other ¡reason ¡– ¡add) ¡

slide-5
SLIDE 5

Sparse coding - Training

X washer = D2Z2 ≡ min

D2Z2 X washer − D2Z2 F 2 + λ Z2 1

X desktop = D3Z3 ≡ min

D3Z3 X desktop − D3Z3 F 2

+ λ Z3 1 X dishwasher = D1Z1 ≡ min

D1Z1 X dishwasher − D1Z1 F 2 + λ Z1 1

slide-6
SLIDE 6

Sparse Coding - Disaggregation

+ ¡ + ¡

X dishwasher + X washer + X desktop = X D1Z1 + D2Z2 + D3Z3 = X min

Z1,Z2,Z3 X − D1 | D2 | D3

⎡ ⎣ ⎤ ⎦ Z1 Z2 Z3 ⎡ ⎣ ⎢ ⎢ ⎢ ⎢ ⎤ ⎦ ⎥ ⎥ ⎥ ⎥ F

2

+ λ Z1 Z2 Z3 ⎡ ⎣ ⎢ ⎢ ⎢ ⎢ ⎤ ⎦ ⎥ ⎥ ⎥ ⎥ 1 ˆ X dishwasher = D1Z1; ˆ X washer = D2Z2; ˆ X desktop = D2Z2

Dic7onaries ¡are ¡already ¡learnt ¡in ¡the ¡training ¡phase ¡

slide-7
SLIDE 7
slide-8
SLIDE 8

Gaussianity & Mean Squared Error

Smooth ¡cost ¡func7on ¡– ¡easy ¡to ¡

  • p7mize ¡

Perfect ¡to ¡use ¡when ¡error ¡is ¡small ¡/ ¡ probability ¡of ¡large ¡error ¡is ¡negligible ¡ But ¡not ¡for ¡large ¡outliers! ¡

slide-9
SLIDE 9

Line-fitting – with outliers

FiZng ¡a ¡line ¡in ¡presence ¡of ¡noise ¡ (small ¡errors) ¡with ¡least ¡squares ¡ FiZng ¡a ¡line ¡in ¡presence ¡of ¡outliers ¡ (large ¡errors) ¡with ¡least ¡squares ¡

slide-10
SLIDE 10

Outliers – Heavy Tailed Distribution

– Heavy ¡tails ¡– ¡probability ¡of ¡large ¡values ¡are ¡not ¡ small, ¡e.g. ¡Cauchy ¡ ¡ – Used ¡for ¡modelling ¡outliers ¡(Cauchy, ¡Exponen7al, ¡ etc.) ¡

slide-11
SLIDE 11

Robust Estimation

– Huber ¡func7on ¡– ¡have ¡been ¡ widely ¡used ¡for ¡robust ¡

  • es7ma7on. ¡ ¡

– But ¡more ¡recently ¡absolute ¡ devia7ons ¡are ¡being ¡

  • minimized. ¡ ¡
  • P. ¡J. ¡Huber, ¡“Robust ¡Es7ma7on ¡of ¡a ¡Loca7on ¡Parameter”, ¡The ¡Annals ¡of ¡Mathema7cal ¡

Sta7s7cs, ¡Vol. ¡35 ¡(1), ¡pp. ¡73-­‑101, ¡1964. ¡

  • R. ¡L. ¡Branham ¡Jr., ¡"Alterna7ves ¡to ¡least ¡squares", ¡Astronomical ¡Journal ¡87, ¡pp. ¡928–937, ¡
  • 1982. ¡
  • M. ¡Shi ¡and ¡M. ¡A. ¡Lukas, ¡"An ¡L1 ¡es7ma7on ¡algorithm ¡with ¡degeneracy ¡and ¡linear ¡

constraints". ¡Computa7onal ¡Sta7s7cs ¡& ¡Data ¡Analysis, ¡Vol. ¡39 ¡(1), ¡pp. ¡35–55, ¡2002. ¡

  • L. ¡Wang, ¡M. ¡D. ¡Gordon ¡and ¡J. ¡Zhu, ¡"Regularized ¡Least ¡Absolute ¡Devia7ons ¡Regression ¡

and ¡an ¡Efficient ¡Algorithm ¡for ¡Parameter ¡Tuning". ¡IEEE ¡ICDM. ¡pp. ¡690–700, ¡2006. ¡ ¡

slide-12
SLIDE 12

Robust Dictionary Learning - NILM

– Change ¡all ¡the ¡cost ¡func7on ¡from ¡l2-­‑norm ¡to ¡l1-­‑

  • norm. ¡

– During ¡training ¡– ¡ ¡ ¡ – During ¡Disaggrega7on ¡– ¡ ¡

min

DiZi Xi − DiZi 1 + λ Zi 1

min

Z1,...,Z3 X − D1 |...| DN

⎡ ⎣ ⎤ ⎦ Z1 ... ZN ⎡ ⎣ ⎢ ⎢ ⎢ ⎢ ⎤ ⎦ ⎥ ⎥ ⎥ ⎥ 1 + λ Z1 ... ZN ⎡ ⎣ ⎢ ⎢ ⎢ ⎢ ⎤ ⎦ ⎥ ⎥ ⎥ ⎥ 1

  • A. ¡Majumdar ¡and ¡R. ¡K. ¡Ward ¡“Robust ¡Dic7onary ¡Learning: ¡Applica7on ¡to ¡Signal ¡

Disaggrega7on”, ¡ICASSP ¡2016 ¡

slide-13
SLIDE 13
slide-14
SLIDE 14

Modelling Missing Data

– Prior ¡techniques ¡were ¡based ¡on ¡interpola7on ¡

– Nearest ¡neighbor ¡ – Previous ¡value ¡ – Bicubic ¡

– Interpola7ng ¡leads ¡to ¡‘errors’. ¡ – Mathema7cally, ¡a ¡more ¡op7mal ¡way ¡would ¡be ¡to ¡ simply ¡model ¡the ¡missing ¡values, ¡i.e. ¡ ¡ ¡

Y = R⊙ X X − actual data collected by meter Y − data received R − binary sampling mask

slide-15
SLIDE 15

Training and Disaggregation

– Blind ¡Compressed ¡Sensing ¡(BCS) ¡for ¡training ¡– ¡ ¡ ¡ – Simple ¡Compressed ¡Sensing ¡type ¡for ¡ Disaggrega7on ¡ ¡

Yi = Ri ⊙ Xi = Ri ⊙ DiZi BCS :min

Di,Zi Yi − Ri ⊙ DiZi F 2 + λ Zi 1

Y = R⊙ X = R⊙ D1 |...| DN ⎡ ⎣ ⎤ ⎦ Z1 ... ZN ⎡ ⎣ ⎢ ⎢ ⎢ ⎢ ⎤ ⎦ ⎥ ⎥ ⎥ ⎥ BCS : min

Z1,...,ZN Y − R⊙ D1 |...| DN

⎡ ⎣ ⎤ ⎦ Z1 ... ZN ⎡ ⎣ ⎢ ⎢ ⎢ ⎢ ⎤ ⎦ ⎥ ⎥ ⎥ ⎥ F

2

+ λ Z1 ... ZN ⎡ ⎣ ⎢ ⎢ ⎢ ⎢ ⎤ ⎦ ⎥ ⎥ ⎥ ⎥ 1

slide-16
SLIDE 16
slide-17
SLIDE 17

Handling Both

– Training ¡ – Disaggrega7on ¡

min

Z1,...,ZN Y − R⊙ D1 |...| DN

⎡ ⎣ ⎤ ⎦ Z1 ... ZN ⎡ ⎣ ⎢ ⎢ ⎢ ⎢ ⎤ ⎦ ⎥ ⎥ ⎥ ⎥ 1 + λ Z1 ... ZN ⎡ ⎣ ⎢ ⎢ ⎢ ⎢ ⎤ ⎦ ⎥ ⎥ ⎥ ⎥ 1 min

Di,Zi Yi − Ri ⊙ DiZi 1 + λ Zi 1

Surges ¡/ ¡Spikes ¡ Missing ¡Data ¡

slide-18
SLIDE 18

Results

House Training ¡Accuracy Tes1ng ¡Accuracy ¡ Robust ¡DL Powerlet Proposed Robust Powerlet Proposed 1 75.5 81.6 77.0 53.0 46.0 54.5 2 66.7 79.0 69.1 56.3 49.2 58.0 3 65.2 61.8 67.0 43.9 31.7 45.7 4 63.7 58.5 65.9 60.1 50.9 61.6 6 68.5 79.1 70.2 60.2 54.5 62.0

REDD ¡Dataset: ¡Standard ¡Protocol ¡

slide-19
SLIDE 19

Future Work

¡ – We ¡proposed ¡‘deep ¡sparse ¡coding’ ¡

– Instead ¡of ¡learning ¡a ¡single ¡level ¡of ¡dic7onary, ¡we ¡learn ¡ deeper ¡representa7ons. ¡

– In ¡future, ¡we ¡will ¡combine ¡the ¡proposed ¡work ¡with ¡ deep ¡sparse ¡coding. ¡

slide-20
SLIDE 20