Distributed State Es.ma.on Algorithms for Electric Power - - PowerPoint PPT Presentation

distributed state es ma on algorithms for electric power
SMART_READER_LITE
LIVE PREVIEW

Distributed State Es.ma.on Algorithms for Electric Power - - PowerPoint PPT Presentation

Distributed State Es.ma.on Algorithms for Electric Power Systems Ariana Minot, Blue Waters Graduate Fellow Professor Na Li, Professor Yue M. Lu Harvard


slide-1
SLIDE 1

Distributed ¡State ¡Es.ma.on ¡Algorithms ¡ for ¡Electric ¡Power ¡Systems ¡ ¡

Ariana ¡Minot, ¡Blue ¡Waters ¡Graduate ¡Fellow ¡ Professor ¡Na ¡Li, ¡Professor ¡Yue ¡M. ¡Lu ¡ Harvard ¡University, ¡School ¡of ¡Engineering ¡and ¡Applied ¡Sciences ¡ ¡ Blue ¡Waters ¡Symposium ¡2015 ¡

1 ¡

slide-2
SLIDE 2

Outline ¡

  • Mo.va.on ¡
  • Problem ¡Statement ¡
  • Method ¡
  • Results ¡
  • Conclusions ¡

2 ¡

slide-3
SLIDE 3

Outline ¡

  • Mo.va.on ¡
  • Problem ¡Statement ¡
  • Method ¡
  • Results ¡
  • Conclusions ¡

3 ¡

slide-4
SLIDE 4 Source: ¡mapoRheweek.blogspot.com ¡

Source: ¡hTp://www.eia.gov ¡ Source: ¡hTp://www.ornl.gov ¡

Source: ¡hTp://www.dnvkema.com ¡ Source: ¡ROBERT ¡GIROUX/ ¡Time ¡

Mo.va.on: ¡why ¡we ¡need ¡to ¡improve ¡the ¡ electric ¡power ¡grid. ¡

  • Support ¡for ¡cri.cal ¡infrastructure: ¡
  • Communica.on ¡networks ¡and ¡fuel ¡and ¡water ¡supply ¡systems ¡
  • Prevent ¡blackouts ¡
  • Realize ¡a ¡robust ¡efficient ¡grid ¡under ¡increased ¡renewable ¡energy ¡produc.on ¡

Communica.on ¡ Networks ¡ Fuel ¡supply ¡

4 ¡

slide-5
SLIDE 5

Op#miza#on*&*Control**

  • Op#mal*Power*Flow*
  • Economic*Dispatch*
  • Demand*Response*
  • Wide*–*Area*Control*

Es#ma#on*&*Detec#on*

  • State*Es#ma#on*
  • Bad*Data*Detec#on*
  • Decision*Making*Under*Uncertainty*
  • Line*Outage*Iden#fica#on*

Scien#fic*Compu#ng*

  • Distributed*Algorithms*
  • Scalable*with*respect*to*size*of*:*
  • Network**
  • Data*
  • Asynchronous*SeMng*
  • Simula#on*of*complex,*dynamic*systems*

Challenge:*coordinate*control,* sensing,*and*op#miza#on*in*a* decentralized*way.*

Scien.fic ¡Mo.va.on: ¡beTer ¡understand ¡ large, ¡complex ¡interconnected ¡systems. ¡

5 ¡

slide-6
SLIDE 6

Improving ¡power ¡grid ¡opera.ons ¡via ¡High ¡ Performance ¡Compu.ng ¡

Source: ¡hTp://engineering.illinois.edu ¡ Source: ¡hTp://www.caiso.com ¡

Power ¡Grid ¡ Control ¡Room ¡ (California) ¡ Blue ¡Waters ¡ ¡ Supercomputer ¡ ¡ (NCSA ¡& ¡UIUC) ¡

Source: ¡Franz ¡Franchea, ¡CMU ¡

Por.on ¡of ¡ ¡ Power ¡Grids ¡ Midwest ¡ Poland ¡ ¡ Europe ¡ # ¡ver.ces ¡N ¡ 118 ¡ 3375 ¡ 9241 ¡ # ¡edges ¡ ¡ 186 ¡ 4161 ¡ 16049 ¡ # ¡generators ¡ ¡ 54 ¡ 596 ¡ 1445 ¡

  • Efficient ¡matrix ¡inversion ¡for ¡real-­‑.me ¡

applica.ons ¡

  • New ¡sensing ¡technology ¡(PMUs) ¡produces ¡a ¡lot ¡
  • f ¡data ¡
  • 30 ¡samples/sec ¡-­‑> ¡2 ¡million ¡samples/day ¡ ¡
  • For ¡~100 ¡sensors, ¡~2*108 ¡samples/day ¡

6 ¡

slide-7
SLIDE 7

Outline ¡

  • Mo.va.on ¡
  • Problem ¡Statement ¡
  • Method ¡
  • Results ¡
  • Conclusions ¡

7 ¡

slide-8
SLIDE 8
  • Monitor ¡the ¡electric ¡grid ¡in ¡real-­‑.me ¡
  • State ¡ Es.ma.on ¡ task: ¡ Given ¡ noisy ¡ system ¡

measurements, ¡infer ¡the ¡state ¡of ¡the ¡system. ¡

  • Reference ¡: ¡[Schweppe ¡1970] ¡
  • Measurements ¡consist ¡of ¡subset ¡of: ¡
  • Power ¡flows ¡along ¡transmission ¡lines ¡

(edges). ¡

  • Power ¡ injec.ons ¡ and ¡ voltage ¡ at ¡

ver.ces. ¡

  • State ¡ is ¡ the ¡ voltage ¡ (phase ¡ angle ¡ and ¡

magnitude) ¡ at ¡ each ¡ vertex ¡ in ¡ the ¡

  • network. ¡
  • Non-­‑linear ¡measurement ¡model ¡
  • Distributed ¡vs. ¡centralized ¡ ¡
  • Advantages ¡of ¡distributed ¡approaches: ¡
  • 1) ¡avoid ¡communica.on ¡boTleneck ¡
  • 2) ¡reduc.on ¡in ¡computa.on ¡and ¡memory ¡

requirements ¡per ¡area. ¡

State ¡Es.ma.on ¡& ¡Distributed ¡Algorithms ¡

Central(Coordinator( Node(1( Node(2( Node(3( Hierarchical(Communica5on(Scheme( Fully(Distributed(Communica5on(Scheme( (

8 ¡

slide-9
SLIDE 9

Mathema.cal ¡Problem ¡Statement ¡

  • Goal: ¡From ¡noisy ¡system ¡measurements ¡ ¡ ¡ ¡, ¡determine ¡state, ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡, ¡at ¡every ¡

vertex ¡in ¡the ¡power ¡network. ¡

Weighted ¡non-­‑linear ¡least ¡squares ¡

  • p3miza3on ¡

Itera3ve ¡solu3on ¡using ¡Newton’s ¡ method ¡ ¡

min

x f(x) ≡ (z − h(x))T W (z − h(x))

x(k+1) = x(k) [r2f(x(k))]−1rf(x(k))

  • Main ¡challenge ¡: ¡Matrix ¡inversion ¡requires ¡full, ¡global ¡knowledge ¡of ¡matrix ¡entries. ¡How ¡to ¡

calculate ¡inverse ¡in ¡a ¡fully ¡distributed ¡fashion? ¡

  • Idea ¡: ¡use ¡matrix ¡spliang ¡techniques ¡(R. ¡Varga) ¡
  • In ¡general, ¡matrix ¡spliang ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡provides ¡an ¡itera.ve ¡approach ¡to ¡solve ¡the ¡linear ¡

system, ¡

  • The ¡sequence ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡converges ¡to ¡its ¡limit ¡ ¡ ¡ ¡ ¡ ¡ ¡as ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡if ¡and ¡only ¡if ¡the ¡spectral ¡radius ¡of ¡

the ¡matrix ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡is ¡strictly ¡less ¡than ¡1. ¡

A = M + N

Ax = y

xt+1 = −M−1Nxt + M−1y

{xt}

x∗

t → ∞ M−1N

9 ¡

z x = [θ V ]

slide-10
SLIDE 10

Outline ¡

  • Mo.va.on ¡
  • Problem ¡Statement ¡
  • Method ¡
  • Results ¡
  • Conclusions ¡

10 ¡

slide-11
SLIDE 11

Matrix-­‑Spliang ¡for ¡Distributed ¡State ¡Es.ma.on ¡

  • Let ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡and ¡ ¡ ¯

Eii ≡ α

n

X

j=1,j6=i

|Aij|

["""]"="["""]"+"["""]"

A" D" E"

="(D"+"E)"+"(E"–"E)"

"

}" }"

M" N"

Then, for α ≥ 1

2, ρ(M−1N) < 1.

Proposition: Let M = D + ¯ E and N = E − ¯ E.

11 ¡

A ⌘ r2f(x(k)) 0

slide-12
SLIDE 12

U.lizing ¡Sparsity ¡to ¡Enable ¡Distribu.on ¡

  • M ¡ is ¡ diagonal ¡ and ¡ easy ¡ to ¡ invert ¡ distributedly. ¡ Each ¡ vertex ¡ needs ¡ only ¡ its ¡ local ¡

informa.on. ¡

  • Power ¡systems ¡follow ¡Kirchoff’s ¡current ¡& ¡voltage ¡laws ¡è ¡N ¡has ¡a ¡dis.nct ¡sparsity ¡

paTern ¡related ¡to ¡the ¡power ¡network ¡topology. ¡

12 ¡

a ¡ b ¡ c ¡ a ¡ b ¡ c ¡ a ¡ b ¡ c ¡

Voltage ¡measurement ¡ θb ¡and ¡Vb ¡ Power ¡flow ¡ ¡measurement ¡Pab ¡ Power ¡injec.on ¡ ¡measurement ¡Pb ¡

d ¡ d ¡ d ¡

  • This ¡sparsity ¡in ¡N ¡is ¡what ¡allows ¡for ¡distribu.on ¡with ¡limited ¡communica.on. ¡
  • At ¡most ¡need ¡to ¡communicate ¡2-­‑hop ¡neighbor ¡informa.on. ¡
slide-13
SLIDE 13

13 ¡

Distributed ¡Newton ¡Method ¡for ¡DSE ¡

  • Each ¡vertex ¡is ¡assigned ¡an ¡MPI ¡process. ¡
  • MPI ¡Graph ¡Communicator ¡(MPI_Graph_create) ¡used ¡to ¡mimic ¡structure ¡of ¡power ¡
  • network. ¡

a ¡ b ¡ c ¡

Power ¡injec.on ¡ measurement ¡at ¡ vertex ¡b ¡ :{θa ¡, ¡Va} ¡

Icon ¡Source: ¡hTp://icons8.com/license/ ¡ ¡

slide-14
SLIDE 14

14 ¡

Distributed ¡Newton ¡Method ¡for ¡DSE ¡

:{θb ¡, ¡Vb} ¡

¡

a ¡ b ¡ c ¡

:{θb ¡, ¡Vb} ¡

¡

Power ¡injec.on ¡ measurement ¡at ¡ vertex ¡b ¡

  • Each ¡vertex ¡is ¡assigned ¡an ¡MPI ¡process. ¡
  • MPI ¡Graph ¡Communicator ¡(MPI_Graph_create) ¡used ¡to ¡mimic ¡structure ¡of ¡power ¡
  • network. ¡

Icon ¡Source: ¡hTp://icons8.com/license/ ¡ ¡

slide-15
SLIDE 15

15 ¡

Distributed ¡Newton ¡Method ¡for ¡DSE ¡

a ¡ b ¡ c ¡

:{θc, ¡Vc} ¡

¡

Power ¡injec.on ¡ measurement ¡at ¡ vertex ¡b ¡

  • Each ¡vertex ¡is ¡assigned ¡an ¡MPI ¡process. ¡
  • MPI ¡Graph ¡Communicator ¡(MPI_Graph_create) ¡used ¡to ¡mimic ¡structure ¡of ¡power ¡
  • network. ¡

Icon ¡Source: ¡hTp://icons8.com/license/ ¡ ¡

slide-16
SLIDE 16

16 ¡

Distributed ¡Newton ¡Method ¡for ¡DSE ¡

a ¡ b ¡ c ¡

:{θc ¡, ¡Vc} ¡ :{θa, ¡Va} ¡

¡

Power ¡injec.on ¡ measurement ¡at ¡ vertex ¡b ¡

  • Each ¡vertex ¡is ¡assigned ¡an ¡MPI ¡process. ¡
  • MPI ¡Graph ¡Communicator ¡(MPI_Graph_create) ¡used ¡to ¡mimic ¡structure ¡of ¡power ¡
  • network. ¡

Icon ¡Source: ¡hTp://icons8.com/license/ ¡ ¡

slide-17
SLIDE 17

Outline ¡

  • Mo.va.on ¡
  • Problem ¡Statement ¡
  • Method ¡
  • Results ¡
  • Conclusions ¡

17 ¡

slide-18
SLIDE 18

Results: ¡Accuracy ¡Performance ¡I ¡

  • Each ¡uses ¡15 ¡matrix-­‑spliang ¡itera.ons. ¡Number ¡of ¡Newton ¡itera.ons ¡needed ¡

for ¡convergence ¡depends ¡on ¡power ¡network ¡size. ¡ ¡

18 ¡

20 40 10

−5

10 10

5

Newton Iterations Objective Function

14 Vertex Network

20 40 10

−5

10 10

5

Newton Iterations Objective Function

118 Vertex Network

20 40 10 10

5

10

10

Newton Iterations Objective Function

1354 Vertex Network

20 40 10 10

5

10

10

Newton Iterations Objective Function

3374 Vertex Network

slide-19
SLIDE 19

10 20 30 40 50 60 70 10 10

1

10

2

10

3

10

4

10

5

10

6

10

7

10

8

Newton Iterations Objective Function

3374 Vertex Network

Matrix−Splitting Iterations: 100 Matrix−Splitting Iterations: 200 Matrix−Splitting Iterations: 400 Matrix−Splitting Iterations: 600

Results: ¡Accuracy ¡Performance ¡II ¡

  • Tradeoff ¡between ¡convergence ¡and ¡run.me ¡for ¡different ¡number ¡of ¡matrix-­‑spliang ¡ ¡

itera.ons. ¡

# ¡Matrix-­‑ Spli?ng ¡ Itera3ons ¡ Run3me ¡ (minutes) ¡ 100 ¡ 1.4 ¡ 200 ¡ 2.8 ¡ 400 ¡ 5.7 ¡ 600 ¡ 8.5 ¡

19 ¡

slide-20
SLIDE 20

Results: ¡Accuracy ¡Performance ¡III ¡

  • Convergence ¡of ¡matrix-­‑spliang ¡itera.ve ¡scheme ¡varies ¡between ¡different ¡ver.ces ¡in ¡

the ¡power ¡network. ¡

20 ¡ 100 200 300 400 500 600 0.005 0.01 0.015 0.02 0.025

Matrix−Splitting Iterations Absolute Error

Matrix−Splitting Convergence: 3374 Vertex Network

Vertex 254 Vertex 316 Vertex 791

10 20 0.01 0.02

Zoom Inner−Loop Iterations Absolute Error

slide-21
SLIDE 21

Results: ¡Timing ¡Performance ¡I ¡

  • Using ¡same ¡number ¡of ¡itera.ons ¡(15 ¡matrix-­‑spliang, ¡40 ¡Newton), ¡compare ¡how ¡

computa.on ¡and ¡communica.on ¡scale ¡with ¡power ¡network ¡size. ¡

21 ¡ 14 118 1354 3374 2 4 6 8 10 12 14 16 18

Network Size

Runtime (s)

  • Misc. Setup

Matrix−Splitting Communication Matrix−Splitting Computation Outer−Loop (Newton Update)

slide-22
SLIDE 22

Results: ¡Timing ¡Performance ¡II ¡

  • For ¡14-­‑vertex ¡power ¡network, ¡study ¡how ¡.me ¡spent ¡on ¡communica.on ¡and ¡

computa.on ¡varies ¡among ¡different ¡ver.ces. ¡

12 ¡ 13 ¡ 6 ¡ 11 ¡ 10 ¡ 14 ¡ 9 ¡ 1 ¡ 5 ¡ 2 ¡ 8 ¡ 4 ¡ 7 ¡ 3 ¡ 22 ¡ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6

Process or Vertex Number

Runtime (s)

  • Misc. Setup

Matrix−Splitting Communication Matrix−Splitting Computation Outer−Loop (Newton Update)

slide-23
SLIDE 23

Outline ¡

  • Mo.va.on ¡
  • Problem ¡Statement ¡
  • Method ¡
  • Results ¡
  • Conclusions ¡

23 ¡

slide-24
SLIDE 24

Conclusions ¡

Acknowledgement: ¡This ¡research ¡is ¡part ¡of ¡the ¡Blue ¡Waters ¡sustained-­‑petascale ¡compu.ng ¡project, ¡ which ¡is ¡supported ¡by ¡the ¡Na.onal ¡Science ¡Founda.on ¡(awards ¡OCI-­‑0725070 ¡and ¡ACI-­‑1238993) ¡and ¡ the ¡state ¡of ¡Illinois. ¡Blue ¡Waters ¡is ¡a ¡joint ¡effort ¡of ¡the ¡University ¡of ¡Illinois ¡at ¡Urbana-­‑Champaign ¡and ¡ its ¡Na.onal ¡Center ¡for ¡Supercompu.ng ¡Applica.ons. ¡

  • Use ¡of ¡Blue ¡Waters ¡
  • Allows ¡tes.ng ¡of ¡algorithms ¡on ¡large-­‑scale, ¡realis.c ¡systems. ¡ ¡
  • Each ¡vertex ¡in ¡the ¡power ¡grid ¡is ¡assigned ¡an ¡MPI ¡process. ¡

¡

24 ¡

slide-25
SLIDE 25

Conclusions ¡

  • Main ¡result ¡
  • Developed ¡a ¡new ¡fully ¡distributed ¡state ¡es.ma.on ¡algorithm ¡using ¡matrix-­‑

spliang ¡techniques. ¡

  • Requires ¡limited ¡sharing ¡of ¡informa.on ¡between ¡neighboring ¡ver.ces. ¡
  • Saves ¡memory ¡resources. ¡
  • Implementa.on ¡available ¡in ¡C++ ¡using ¡MPI. ¡
  • Future ¡Work ¡
  • Develop ¡ new ¡ local ¡ pre-­‑processing ¡ and ¡ asynchronous ¡ communica.on ¡
  • schemes. ¡ ¡
  • Improve ¡ the ¡ robustness ¡ of ¡ state ¡ es.ma.on ¡ with ¡ respect ¡ to ¡ imperfect ¡

communica.on ¡as ¡well ¡as ¡reduce ¡network ¡traffic. ¡ ¡ ¡ ¡

  • Thank ¡ you ¡ to ¡ the ¡ Blue ¡ Waters ¡ Graduate ¡ Fellowship ¡ Program ¡ and ¡ NSF ¡ for ¡

suppor.ng ¡ this ¡ work, ¡ as ¡ well ¡ as ¡ to ¡ the ¡ NCSA ¡ staff ¡ and ¡ point ¡ of ¡ contact ¡ Craig ¡ Steffen, ¡for ¡their ¡help ¡in ¡working ¡with ¡Blue ¡Waters. ¡

25 ¡

slide-26
SLIDE 26

References ¡

  • F. ¡C. ¡Schweppe ¡and ¡J. ¡Wildes ¡ ¡"Power ¡system ¡sta.c-­‑state ¡es.ma.on, ¡pt. ¡I: ¡exact ¡

model", ¡ ¡IEEE ¡Trans. ¡Power ¡Apparatus ¡and ¡Systems, ¡ ¡vol. ¡PAS-­‑89, ¡ ¡pp.120 ¡-­‑125 ¡

  • 1970. ¡ ¡
  • A. ¡Minot, ¡N. ¡Li, ¡and ¡Y. ¡Lu, ¡“A ¡Distributed ¡Newton ¡Method ¡for ¡Power ¡System ¡State ¡

Es.ma.on,” ¡SubmiTed ¡to ¡Trans. ¡on ¡Power ¡Systems ¡, ¡2015, ¡ hTp://scholar.harvard.edu/files/aminot/files/distr_se_ ¡tpsv1.2.pdf ¡

  • A. ¡Minot ¡and ¡N. ¡Li, ¡“A ¡Fully ¡Distributed ¡State ¡Es.ma.on ¡Using ¡Matrix ¡Spliang ¡

Methods,” ¡American ¡Control ¡Conference, ¡2015. ¡

  • A. ¡Abur ¡and ¡A. ¡G. ¡Exposito, ¡Power ¡System ¡State ¡Es.ma.on: ¡Theory ¡and ¡

Implementa.on. ¡CRC ¡Press, ¡2004. ¡

  • L. ¡Xie, ¡D.-­‑H. ¡Choi, ¡S. ¡Kar, ¡and ¡H. ¡V. ¡Poor, ¡“Fully ¡Distributed ¡State ¡Es.ma.on ¡for ¡

Wide-­‑Area ¡Monitoring ¡Systems,” ¡IEEE ¡Trans. ¡Smart ¡Grid, ¡vol. ¡3, ¡no. ¡3, ¡pp. ¡1154– 1169, ¡2012. ¡

  • V. ¡Kekatos ¡and ¡G. ¡Giannakis, ¡“Distributed ¡Robust ¡Power ¡System ¡State ¡Es.ma.on,” ¡

IEEE ¡Trans. ¡Power ¡Systems, ¡vol. ¡28, ¡no. ¡2, ¡pp. ¡1617–1626, ¡May ¡2013. ¡

  • R. ¡Varga, ¡Matrix ¡Itera.ve ¡Analysis. ¡Springer ¡Series ¡in ¡Computa.onal ¡Mathema.cs, ¡
  • 2000. ¡
  • E. ¡Wei, ¡A. ¡E. ¡Ozdaglar, ¡and ¡A. ¡Jadbabaie, ¡“A ¡Distributed ¡Newton ¡Method ¡for ¡

Network ¡U.lity ¡Maximiza.on,” ¡Conference ¡on ¡Decision ¡and ¡Control, ¡pp. ¡1816– 1821, ¡2010. ¡

  • D. ¡P. ¡Bertsekas ¡and ¡J. ¡Tsitsiklis ¡ ¡Parallel ¡and ¡Distributed ¡Computa;on ¡-­‑ ¡Numerical ¡

Methods, ¡ ¡1989 ¡:Pren.ce ¡Hall ¡ ¡ ¡

26 ¡

slide-27
SLIDE 27

27 ¡

Backup ¡Slides ¡

slide-28
SLIDE 28

Kirchoff’s ¡Voltage ¡and ¡Current ¡Law ¡

28 ¡

Total ¡voltage ¡around ¡a ¡closed ¡loop ¡Σ ¡V ¡= ¡0 ¡ ¡

¡ ¡

¡ Sum ¡of ¡all ¡currents ¡leaving ¡and ¡ entering ¡a ¡node ¡Σ ¡I ¡= ¡0 ¡ ¡

¡ ¡

slide-29
SLIDE 29

Measurement ¡Model ¡

29 ¡

Reference: ¡[Wood ¡& ¡ Wollenberg] ¡ Bab ¡: ¡susceptance ¡of ¡ transmission ¡line ¡b/t ¡ver.ces ¡ a ¡and ¡b ¡ Gab ¡: ¡conductance ¡of ¡ transmission ¡line ¡b/t ¡ver.ces ¡ a ¡and ¡b ¡ ¡

slide-30
SLIDE 30

Measurement ¡Model ¡

30 ¡