online convex optimization using predictions
play

Online Convex Optimization Using Predictions Niangjun Chen - PowerPoint PPT Presentation

Online Convex Optimization Using Predictions Niangjun Chen Joint work with Anish Agarwal, Lachlan Andrew, Siddharth Barman, and Adam Wierman 1 " " ( "


  1. Online ¡Convex ¡Optimization ¡ Using ¡Predictions Niangjun ¡Chen ¡ Joint ¡work ¡with ¡Anish ¡Agarwal, ¡Lachlan ¡Andrew, ¡Siddharth Barman, ¡and ¡Adam ¡Wierman 1

  2. 𝑑 " 𝑑 " (𝑦 " ) 𝑦 " 𝐺 2

  3. 𝑑 ) 𝑑 ) 𝑦 ) 𝑦 " 𝑦 ) 𝐺 𝛾‖𝑦 ) − 𝑦 " ‖ 3

  4. � 𝑑 + 𝑑 + (𝑦 + ) 𝑦 " , 𝑑 " , 𝑦 ) , 𝑑 ) , 𝑦 + , 𝑑 + … online min / 0 ∈2 ¡4 ¡𝑑 5 𝑦 5 + 𝛾‖𝑦 5 − 𝑦 58" ‖ ¡ 5 convex switching ¡cost Goal: ¡ ¡Algorithms ¡to ¡minimize ¡cost 𝑦 " 𝑦 + 𝑦 ) 𝐺 𝛾‖𝑦 + − 𝑦 ) ‖ 4

  5. Lots ¡of ¡applications ¡… Dynamic ¡capacity ¡management ¡in ¡data ¡centers ¡[Tu et ¡al. ¡2013] Power ¡system ¡generation/load ¡scheduling[Lu ¡et ¡al. ¡ ¡2013] ¡ Portfolio ¡management ¡[Cover ¡1991][Boyd ¡et ¡al. ¡2012] Video ¡streaming ¡[Sen ¡et ¡al. ¡2000][Liu ¡et ¡al. ¡2008] Network ¡routing ¡[Bansal ¡et ¡al. ¡2003][Kodialam et ¡al. ¡2003] Geographical ¡load ¡balancing ¡[Hindman et ¡al. ¡2011] ¡[Lin ¡et ¡al. ¡2012] … ¡ 5

  6. In ¡most ¡applications, ¡predictions ¡are ¡crucial But ¡we ¡do ¡not ¡have ¡a ¡good ¡understanding ¡about ¡how ¡(imperfect) ¡predictions impact ¡online ¡algorithm ¡design 6

  7. This ¡talk: ¡Online ¡Convex ¡Optimization ¡Using ¡Predictions 7

  8. 𝑑 "|< 𝑑 +|< 𝑑 )|< 𝑑 " 𝑑 " (𝑦 " ) 𝑦 " 𝐺 8

  9. 𝑑 ) 𝑑 )|" 𝑑 =|" 𝑑 +|" 𝑑 ) 𝑦 ) 𝑦 " 𝑦 ) 𝐺 𝛾‖𝑦 ) − 𝑦 " ‖ 9

  10. 𝑑 >|) 𝑑 =|) 𝑑 + 𝑑 +|) 𝑑 + (𝑦 + ) 𝑦 " 𝑦 + 𝑦 ) 𝐺 𝛾‖𝑦 + − 𝑦 ) ‖ 10

  11. � Online ¡convex ¡optimization ¡using ¡predictions 𝑦 " , 𝑧 " , 𝑦 ) , 𝑧 ) , 𝑦 + , 𝑧 + … online min / 0 ∈2 4 𝑑 𝑦 5 , 𝑧 5 + 𝛾‖𝑦 5 − 𝑦 58" ‖ ¡ 5 switching ¡cost convex e.g. ¡online ¡tracking ¡cost 𝑑(𝑦 5 , 𝑧 5 ) = 1 ) 𝑧 5 − 𝐿𝑦 5 2 Time Information ¡Available Decision Given ¡ ¡ prediction ¡of ¡ 𝑧 5 ¡ at ¡time ¡ 𝜐, 𝑧 5|E 1 𝑧 "|< 𝑧 )|< 𝑧 +|< … ¡ 𝑦 " 2 𝑧 " 𝑧 )|" 𝑧 +|" … 𝑦 ) 3 𝑧 " 𝑧 ) 𝑧 +|) … 𝑦 + 4 𝑧 " 𝑧 ) 𝑧 + … 𝑦 = ¡ 11

  12. How ¡do ¡algorithms ¡model ¡prediction ¡noise? Ø Learning ¡and ¡Algorithms: Perfect ¡lookahead model ¡ Worst ¡case ¡analysis (Near) ¡perfect ¡lookahead for ¡ 𝑥 time ¡steps ¡and ¡then ¡adversarial Both ¡too ¡optimistic ¡and ¡pessimistic Ø Control ¡and ¡Signal ¡Processing: Stochastic ¡model Assume ¡a ¡stochastic ¡process ¡and ¡derive ¡optimal ¡predictor Too ¡sensitive ¡to ¡assumptions Average ¡case ¡analysis Ø Systems ¡Design: ¡Numeric ¡evaluation ¡ Test ¡predictor ¡given ¡historic ¡traces No ¡guarantee ¡for ¡performance 12

  13. ¡contribution : ¡ ¡ a ¡ Ou Our ¡ a ¡gen ener eral ¡ al ¡an and ¡ ¡tr trac actab able ¡ le ¡ mo model ¡ ¡for ¡ r ¡prediction ¡ ¡ Key ¡message: ¡prediction ¡allows 1. Overcoming ¡“impossibility” ¡results ¡for ¡OCO ¡with ¡minimal ¡structural ¡ assumption 2. Mixture ¡of ¡average ¡case ¡and ¡worst ¡case ¡analysis 13

  14. Outline 1. Background ¡: ¡regret ¡and ¡competitive ¡ratio OCO ¡without ¡prediction OCO ¡with ¡worst ¡case ¡prediction 2. Our ¡prediction ¡noise ¡model 3. Algorithm ¡design 4. OCO ¡with ¡stochastic ¡prediction ¡noise ¡ 14

  15. Two ¡communities, ¡two ¡metrics ¡ Online ¡Learning Regret(Alg) = ¡ sup y [ Cost(Alg) ¡– ¡Cost(STA) ] Goal: ¡sublinear ¡regret Real ¡applications ¡want ¡both Online ¡Algorithm Cost Alg Competitive ¡ratio(Alg) = ¡sup y Cost OPT Goal: ¡constant ¡competitive ¡ratio 15

  16. Guarantees ¡without ¡prediction Ø Sublinear regret? Yes, ¡[Kivinen & ¡Vempala 2002] ¡[Bansal ¡et ¡al. ¡2003] [Zinkevich 2003] ¡[Hazan et ¡al. ¡2007] ¡[Lin ¡et ¡al. ¡2012] ¡… Ø Constant ¡CR? Yes, ¡but ¡only ¡for ¡scalar ¡case ¡ [Blum ¡et ¡al. ¡1992] ¡[Borodin ¡et ¡al. ¡1992][Blum ¡& ¡Burch ¡2000] [Lin ¡et ¡al. ¡2011][Lin ¡et ¡al. ¡2012] ¡… Ø Sublinear regret ¡ and ¡ constant ¡CR? Not ¡even ¡in ¡scalar ¡case! ¡[Andrew ¡et ¡al. ¡2013] 16

  17. Guarantees ¡with ¡prediction 1 st cut, ¡perfect ¡lookahead: ¡ 𝑧 5|E = 𝑧 5 for ¡any ¡time ¡ 𝑢 ≤ 𝜐 + 𝑥 ¡ Ø Sublinear ¡regret? Yes, ¡[Kivinen & ¡Vempala 2002] ¡[Bansal ¡et ¡al. ¡2003] ¡ [Zinkevich 2003] ¡[Hazan et ¡al. ¡2007] ¡[Lin ¡et ¡al. ¡2012] ¡… Ø Constant ¡CR? Yes ¡in ¡general [Lin ¡et ¡al. ¡2013] Ø Sublinear regret ¡ and ¡ constant ¡CR? Not ¡without ¡a ¡lot ¡of ¡prediction ¡[Chen ¡et ¡al. ¡2015] 17

  18. Theorem: ¡ An ¡online ¡algorithm ¡with ¡perfect ¡lookahead requires ¡unbounded ¡lookahead window ¡ 𝑥 to ¡simultaneously ¡achieve ¡sublinear ¡regret ¡and a ¡constant ¡competitive ¡ratio. 𝑥 = 𝜕 1 as ¡ 𝑈 grows We ¡may ¡be ¡using ¡the ¡wrong ¡prediction ¡model 18

  19. Outline 1. Background ¡: ¡regret ¡and ¡competitive ¡ratio OCO ¡without ¡prediction OCO ¡with ¡worst ¡case ¡prediction 2. Our ¡prediction ¡noise ¡model 3. Algorithm ¡design 4. OCO ¡with ¡stochastic ¡prediction ¡noise ¡ 19

  20. What ¡do ¡we ¡want ¡in ¡a ¡prediction ¡noise ¡model? Ø Predictions ¡are ¡“refined” ¡as ¡time ¡goes ¡forward Ø Predictions ¡are ¡more ¡noisy ¡as ¡you ¡look ¡ further ¡ahead Ø Prediction ¡errors ¡can ¡be ¡correlated Ø Should ¡be ¡general ¡enough ¡to ¡incorporate detailed ¡models 20

  21. A ¡more ¡realistic ¡prediction ¡noise ¡model 5 𝑧 5 = 𝑧 5|E + 4 𝑔 𝑢 − 𝑡 𝑓(𝑡) Z[E\" Realization ¡that ¡algorithm ¡is ¡trying ¡to ¡track prediction ¡error Prediction ¡for ¡time ¡ 𝑢 given ¡to ¡ algorithm ¡at ¡time ¡ 𝜐 21

  22. A ¡more ¡realistic ¡prediction ¡noise ¡model Per-­‑step ¡noise 5 𝑧 5 = 𝑧 5|E + 4 𝑔 𝑢 − 𝑡 𝑓(𝑡) Z[E\" 22

  23. A ¡more ¡realistic ¡prediction ¡noise ¡model Weighting ¡factor 5 𝑧 5 = 𝑧 5|E + 4 𝑔 𝑢 − 𝑡 𝑓(𝑡) Z[E\" How ¡important ¡is ¡the ¡noise ¡at ¡time ¡ ¡ 𝑢 − 𝑡 for ¡the ¡prediction ¡of ¡ 𝑢 ? 23

  24. A ¡more ¡realistic ¡prediction ¡noise ¡model 5 𝑧 5 = 𝑧 5|E + 4 𝑔 𝑢 − 𝑡 𝑓(𝑡) Z[E\" prediction ¡error • Predictions ¡are ¡“refined” ¡as ¡time ¡goes ¡forward • Predictions ¡are ¡more ¡noisy ¡as ¡you ¡look ¡further ¡ahead 58E8" ) ) = 𝜏 ) 4 𝔽 𝑧 5 − 𝑧 5|E 𝑔 𝑡 Z[< • Prediction ¡errors ¡can ¡be ¡correlated • Form ¡of ¡errors ¡matches ¡many ¡classic ¡models 24

  25. A ¡more ¡realistic ¡prediction ¡noise ¡model 5 𝑧 5 = 𝑧 5|E + 4 𝑔 𝑢 − 𝑡 𝑓(𝑡) Z[E\" prediction ¡error This ¡form ¡of ¡prediction ¡error ¡matches ¡what ¡occurs ¡in Prediction ¡of ¡a ¡wide-­‑sense ¡stationary ¡ ¡process ¡using ¡a ¡Weiner ¡filter • Prediction ¡of ¡a ¡linear ¡dynamical ¡system ¡using ¡a ¡Kalman filter • 25

  26. A ¡more ¡realistic ¡prediction ¡noise ¡model 5 𝑧 5 = 𝑧 5|E + 4 𝑔 𝑢 − 𝑡 𝑓(𝑡) Z[E\" Key ¡observation: ¡No ¡assumption ¡about ¡ 𝑧 5 ¡ or ¡ how ¡predictions ¡are ¡made Allows ¡adversarial ¡analysis using ¡stochastic ¡prediction ¡noise 𝐒𝐟𝐡𝐬𝐟𝐮 𝐁𝐦𝐡 = sup 𝔽 i ¡cost(Alg) − cost(STA) h cost(Alg) 𝐃𝐩𝐧𝐪𝐟𝐮𝐣𝐮𝐣𝐰𝐟 ¡𝐒𝐛𝐮𝐣𝐩 𝐁𝐦𝐡 = sup 𝔽 i cost(Opt) r 26

  27. Outline 1. Background ¡: ¡regret ¡and ¡competitive ¡ratio OCO ¡without ¡prediction OCO ¡with ¡worst ¡case ¡prediction 2. Our ¡prediction ¡noise ¡model 3. Algorithm ¡design 4. OCO ¡with ¡stochastic ¡prediction ¡noise ¡ 27

  28. A ¡natural ¡suggestion: ¡ Model ¡Predictive ¡Control ¡(MPC) 𝑧 5\"|5 , 𝑧 5\)|5 , … , 𝑧 5\s|5 , 𝑧 5\s\"|5 , 𝑧 5\s\)|5 , … 5\s 4 1 ) 𝑦 5\" , 𝑦 5\) , … , 𝑦 5\s = argmin 𝑧 Z|5 − 𝐿𝑦 5 + 𝛾 𝑦 5 − 𝑦 58" 2 " Z[5\" 28

Download Presentation
Download Policy: The content available on the website is offered to you 'AS IS' for your personal information and use only. It cannot be commercialized, licensed, or distributed on other websites without prior consent from the author. To download a presentation, simply click this link. If you encounter any difficulties during the download process, it's possible that the publisher has removed the file from their server.

Recommend


More recommend