Caching: A Feedback Perspec4ve Mohammad Ali Maddah-Ali - - PowerPoint PPT Presentation

caching a feedback perspec4ve
SMART_READER_LITE
LIVE PREVIEW

Caching: A Feedback Perspec4ve Mohammad Ali Maddah-Ali - - PowerPoint PPT Presentation

Caching: A Feedback Perspec4ve Mohammad Ali Maddah-Ali Bell Labs, Alcatel-Lucent joint work with Urs Niesen Communica4on Theory Workshop


slide-1
SLIDE 1

Caching: ¡A ¡Feedback ¡Perspec4ve ¡

Mohammad ¡Ali ¡Maddah-­‑Ali ¡ Bell ¡Labs, ¡Alcatel-­‑Lucent ¡ ¡joint ¡work ¡with ¡ Urs ¡Niesen ¡ ¡ ¡

Communica4on ¡Theory ¡Workshop ¡ ¡ June ¡2013 ¡

slide-2
SLIDE 2

Video ¡on ¡Demand ¡

  • Video ¡on ¡Demand ¡is ¡geNng ¡increasingly ¡popular ¡

– NeOlix ¡Streaming ¡Service ¡ – Amazon ¡Instant ¡Video ¡ – Hulu ¡ – Verizon/Comcast ¡on ¡Demand ¡

– … ¡

Place ¡Significant ¡Stress ¡on ¡Service ¡Providers ¡Network. ¡ Prefetching ¡can ¡be ¡used ¡to ¡mi4gate ¡this ¡stress. ¡ ¡

slide-3
SLIDE 3

Temporal ¡Behavior ¡

0 ¡ 20 ¡ 40 ¡ 60 ¡ 80 ¡ 100 ¡ 0 ¡ 2 ¡ 4 ¡ 6 ¡ 8 ¡ 10 ¡ 12 ¡ 14 ¡ 16 ¡ 18 ¡ 20 ¡ 22 ¡ Normalized ¡Demand ¡ Time ¡

  • High ¡temporal ¡ ¡traffic ¡variability ¡
  • Caching ¡(Prefetching) ¡can ¡help ¡to ¡smooth ¡traffic ¡ ¡
slide-4
SLIDE 4

Caching ¡(Prefetching) ¡ ¡

  • Placement ¡Phase: ¡Populate ¡caches ¡
  • Delivery ¡Phase: ¡Deliver ¡Content ¡

Server ¡

slide-5
SLIDE 5

What ¡Should ¡We ¡Cache? ¡

  • Early ¡feedback ¡(demands) ¡from ¡users ¡ ¡
  • Demands ¡known ¡BEFORE ¡prefetching ¡
  • Cache ¡the ¡requested ¡demand ¡in ¡nearby ¡memory ¡
  • Role ¡of ¡Cache: ¡To ¡deliver ¡part ¡of ¡data ¡locally. ¡ ¡
  • Late ¡feedback ¡from ¡users ¡(instantaneous ¡demand) ¡
  • Demands ¡are ¡known ¡AFTER ¡prefetching ¡
  • What ¡Should ¡be ¡cached? ¡
  • What ¡is ¡the ¡role ¡of ¡caching? ¡
slide-6
SLIDE 6

Server ¡ K ¡Users ¡ Cache ¡ ¡ Contents ¡ ¡ Shared ¡ ¡Link ¡

Problem ¡SeNng ¡

N ¡Files ¡ Size ¡M ¡ ¡

Placement: ¡-­‑ ¡Cache ¡arbitrary ¡func4on ¡of ¡the ¡files ¡(linear, ¡nonlinear, ¡…) ¡ Delivery: ¡ ¡-­‑Requests ¡are ¡revealed ¡to ¡the ¡server ¡ ¡

  • ­‑ ¡Server ¡sends ¡a ¡func4on ¡of ¡the ¡files ¡ ¡

Ques:on: ¡Smallest ¡worst-­‑case ¡rate ¡R(M) ¡needed ¡in ¡delivery ¡phase? ¡ How ¡to ¡choose ¡(1) ¡caching ¡func4ons, ¡(2) ¡ ¡delivery ¡func4ons ¡

slide-7
SLIDE 7

Conven4onal ¡Caching ¡

N ¡Files ¡ Size ¡M ¡ ¡

Delayed ¡Feedback ¡(Conven:onal) ¡ Gain ¡of ¡Caching: ¡Func4on ¡(normalized) ¡local ¡cache ¡size ¡ Basic ¡Role ¡of ¡Caching: ¡ ¡Part ¡of ¡the ¡file ¡is ¡delivered ¡locally ¡

slide-8
SLIDE 8

Rate ¡(Early ¡Feedback) ¡

Comparison ¡

¡

N ¡Files, ¡K ¡Users, ¡Cache ¡Size ¡M ¡

32 32 M R conventional scheme 32 32 M R conventional scheme early feedback

Delayed ¡Feedback ¡(Conven:onal) ¡

slide-9
SLIDE 9

Rate ¡(Early ¡Feedback) ¡

Comparison ¡

¡

N ¡Files, ¡K ¡Users, ¡Cache ¡Size ¡M ¡

32 32 M R conventional scheme early feedback

Delayed ¡Feedback ¡(Proposed) ¡

32 32 M R conventional scheme early feedback proposed scheme

Delayed ¡Feedback ¡(Conven:onal) ¡

slide-10
SLIDE 10

Conven4onal ¡Scheme ¡(Recall) ¡

¡

N=2 ¡Files, ¡K=2 ¡Users, ¡Cache ¡Size ¡M=1 ¡ A1 ¡ A2 ¡ B1 ¡ B2 ¡ A1 ¡ B1 ¡ A1 ¡ B1 ¡ A2 ¡ A1 ¡ B1 ¡ A2 ¡ B2 ¡ A1 ¡ B1 ¡ A1 ¡ B1 ¡ A2 ¡ B2 ¡

Mul4cas4ng ¡opportunity ¡only ¡possible ¡for ¡users ¡with ¡the ¡same ¡demand ¡

slide-11
SLIDE 11

Proposed ¡Scheme ¡

¡

N=2 ¡Files, ¡K=2 ¡Users, ¡Cache ¡Size ¡M=1 ¡ A1 ¡ B1 ¡ A2 ¡ B2 ¡ A1 ¡ B1 ¡ A2 ¡ B1 ¡

Mul4cas4ng ¡opportunity ¡for ¡users ¡with ¡different ¡demand ¡

A2 ¡ B2 ¡

A2⊕B1 ¡

slide-12
SLIDE 12

Proposed ¡Scheme ¡

¡

N=2 ¡Files, ¡K=2 ¡Users, ¡Cache ¡Size ¡M=1 ¡

Simultaneous ¡Mul4cas4ng ¡Opportunity ¡ ¡

slide-13
SLIDE 13

Proposed ¡Scheme ¡

¡

N=3 ¡Files, ¡K=3 ¡Users, ¡Cache ¡Size ¡M=1 ¡ A1 ¡ A2 ¡ A3 ¡ B1 ¡ B2 ¡ B3 ¡ C1 ¡ C2 ¡ C3 ¡ A1 ¡ B1 ¡ C1 ¡ A2 ¡ B2 ¡ C2 ¡ A3 ¡ B3 ¡ C3 ¡ A2⊕B1 ¡ A3⊕C1 ¡ B3⊕C2 ¡

Mul4cas4ng ¡Opportunity ¡between ¡two ¡users ¡with ¡different ¡demands ¡

slide-14
SLIDE 14

Proposed ¡Scheme ¡

¡

N=3 ¡Files, ¡K=3 ¡Users, ¡Cache ¡Size ¡M=2 ¡

A12 ¡ A13 ¡ A23 ¡

B12 ¡ B13 ¡ B23 ¡ C12 ¡ C13 ¡ C23 ¡ A23⊕B13⊕C12 ¡

Mul4cas4ng ¡Opportunity ¡between ¡two ¡users ¡with ¡different ¡demands ¡

A12 ¡ B12 ¡

C12 ¡

A13 ¡ B13 ¡

C13 ¡

A12 ¡ B12 ¡

C12 ¡

A23 ¡ B23 ¡

C23 ¡

A13 ¡ B13 ¡

C13 ¡

A23 ¡ B23 ¡

C23 ¡

slide-15
SLIDE 15

Proposed ¡Scheme ¡

K=N ¡Files ¡and ¡Users, ¡Cache ¡Size ¡M ¡

Objec:ve: ¡Mul4cast ¡to ¡M+1 ¡users ¡with ¡different ¡demands ¡ ¡ Need ¡to ¡place ¡the ¡content ¡such ¡that: ¡

  • ­‑ for ¡every ¡possible ¡set ¡of ¡demands, ¡ ¡
  • ­‑ and ¡for ¡every ¡subset ¡S of ¡M+1 ¡users, ¡
  • ­‑ and ¡for ¡every ¡subset ¡T ¡of ¡S with ¡M ¡users, ¡
  • ­‑ users ¡in ¡T ¡share ¡a ¡content ¡required ¡by ¡user ¡S\T ¡ ¡

⊕ ¡ ⊕ ¡ ⊕ ¡ ⊕ ¡ S ¡ T

slide-16
SLIDE 16

Proposed ¡Scheme ¡

N=K ¡Files ¡and ¡Users, ¡Cache ¡Size ¡M ¡

  • ­‑ ¡Split ¡each ¡file ¡into ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡parts ¡
  • ­‑N ¡files: ¡ ¡W1 ¡, ¡W2 ¡, ¡…, ¡WN ¡ ¡ ¡
  • ­‑ ¡Cache ¡k: ¡

Cache ¡1=(A12, ¡A13, ¡B12, ¡B13, ¡C12, ¡C13 ¡) ¡

Example: ¡K=N=3, ¡M=2 ¡

slide-17
SLIDE 17

Proposed ¡Scheme ¡

N=K ¡Files ¡and ¡Users, ¡Cache ¡Size ¡M ¡

  • ­‑ ¡Assume ¡user ¡k ¡asks ¡for ¡

For ¡demands ¡of ¡(A,B,C) ¡ {1,2} ¡ ¡ ¡ ¡è ¡ ¡ ¡(A2 ¡⊕ ¡B1 ¡) ¡ {1,3} ¡ ¡ ¡ ¡è ¡ ¡ ¡(A3 ¡⊕ ¡C1 ¡) ¡ {2,3} ¡ ¡ ¡ ¡è ¡ ¡ ¡(B3 ¡⊕ ¡C2 ¡) ¡ Example: ¡K=N=3, ¡M=1 ¡

slide-18
SLIDE 18

Comparison ¡ ¡

¡

N ¡Files, ¡K ¡Users, ¡Cache ¡Size ¡M ¡

  • Conven4onal ¡scheme: ¡ ¡ ¡R(M)=K(1-­‑M/N) ¡
  • Proposed ¡scheme: ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡R(M)=K(1-­‑M/N) ¡(1+KM/N)-­‑1 ¡
  • Rate ¡without ¡caching: ¡K ¡
  • Local ¡caching ¡gain: ¡1-­‑M/N ¡
  • Significant ¡when ¡local ¡cache ¡size ¡M ¡is ¡in ¡the ¡order ¡of ¡N ¡
  • Global ¡caching ¡gain: ¡(1+KM/N)-­‑1 ¡
  • Significant ¡when ¡global ¡cache ¡size ¡KM ¡is ¡in ¡the ¡order ¡of ¡N ¡

¡ Reduc4on ¡in ¡rate ¡is ¡in ¡the ¡order ¡of ¡number ¡of ¡users. ¡

slide-19
SLIDE 19

Comparison ¡ ¡

¡ N=50 ¡Files, ¡K=50 ¡Users, ¡Cache ¡Size ¡M=10 ¡

  • Conven4onal ¡Scheme: ¡ ¡ ¡ ¡

¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡R(M) ¡= ¡K(1-­‑M/N) ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡= ¡50 ¡x ¡0.8 ¡= ¡ ¡40 ¡

  • Proposed ¡scheme: ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡

¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡R(M) ¡= ¡K(1-­‑M/N) ¡(1+KM/N)-­‑1 ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡= ¡50 ¡x ¡0.8 ¡x ¡0.09 ¡= ¡3.6 ¡

  • Factor ¡of ¡11 ¡4mes ¡improvement ¡ ¡
  • In ¡the ¡proposed ¡scheme, ¡there ¡is ¡mul4cas4ng ¡among ¡11 ¡users ¡ ¡
slide-20
SLIDE 20

Can ¡We ¡Do ¡Bemer? ¡

The ¡proposed ¡scheme ¡is ¡op4mum ¡within ¡a ¡constant ¡factor ¡in ¡rate. ¡

Theorem: ¡ ¡

  • ­‑ Informa4on ¡Theore4c ¡Bound. ¡
  • ­‑ The ¡constant ¡gap ¡is ¡independent ¡of ¡the ¡parameters ¡of ¡the ¡
  • problem. ¡ ¡
  • ­‑ No ¡significant ¡gain ¡beside ¡local ¡and ¡global ¡gains. ¡ ¡
slide-21
SLIDE 21

Outer-­‑Bound ¡

¡

N=4 ¡Files, ¡K=4 ¡Users, ¡Cache ¡Size ¡M ¡

slide-22
SLIDE 22

Outer-­‑Bound ¡

¡

N=4 ¡Files, ¡K=4 ¡Users, ¡Cache ¡Size ¡M ¡

User ¡1 ¡ User ¡1 ¡ User ¡1 ¡ User ¡1 ¡

slide-23
SLIDE 23

Outer-­‑Bound ¡

¡

N=4 ¡Files, ¡K=4 ¡Users, ¡Cache ¡Size ¡M ¡

User ¡1 ¡ User ¡2 ¡ User ¡1 ¡ User ¡2 ¡

slide-24
SLIDE 24

Outer-­‑Bound ¡

For ¡general ¡K ¡and ¡N, ¡ ¡

slide-25
SLIDE 25

Further ¡Ques4ons ¡

  • Do ¡we ¡need ¡to ¡coordinate ¡in ¡the ¡placement ¡phase? ¡ ¡
  • Do ¡users’ ¡request ¡need ¡to ¡be ¡synchronized? ¡
  • ¡Is ¡caching ¡random ¡linear ¡combina4ons ¡efficient? ¡ ¡
  • Do ¡we ¡need ¡to ¡coordinate ¡in ¡the ¡placement ¡phase? ¡No ¡ ¡
  • Do ¡users’ ¡request ¡need ¡to ¡be ¡synchronized? ¡No ¡
  • ¡Is ¡caching ¡random ¡linear ¡combina4ons ¡efficient? ¡No ¡ ¡
slide-26
SLIDE 26

Conclusion ¡

  • In ¡early ¡feedback ¡(demands ¡known ¡before ¡prefetching), ¡ ¡

– the ¡main ¡gain ¡of ¡caching ¡is ¡local. ¡ ¡

  • In ¡late ¡feedback ¡(demands ¡are ¡known ¡aper ¡prefetching): ¡ ¡

– The ¡main ¡gain ¡in ¡caching ¡is ¡global. ¡ – Enabled ¡by ¡Simultaneous ¡mul4cas4ng ¡gain ¡among ¡users ¡with ¡different ¡ ¡ demands, ¡no ¡mamer ¡what ¡the ¡demands ¡are. ¡ ¡ – Global ¡cache ¡size ¡mamers, ¡even ¡though ¡memories ¡are ¡isolated. ¡ ¡

  • Papers ¡available ¡on ¡arxiv: ¡

– Maddah-­‑Ali, ¡Niesen, ¡Fundamental ¡Limits ¡of ¡Caching ¡ – Maddah-­‑Ali, ¡Niesen: ¡Decentralized ¡caching ¡aQains ¡order-­‑opSmal ¡memory-­‑rate ¡trade-­‑off ¡