Separa&ng Fact from Fic&on Kushagra Vaid Principal - - PowerPoint PPT Presentation

separa ng fact from fic on
SMART_READER_LITE
LIVE PREVIEW

Separa&ng Fact from Fic&on Kushagra Vaid Principal - - PowerPoint PPT Presentation

Datacenter Power Efficiency: Separa&ng Fact from Fic&on Kushagra Vaid Principal Architect, Datacenter Infrastructure Microso> Online Services Division


slide-1
SLIDE 1

Datacenter ¡Power ¡Efficiency: ¡ Separa&ng ¡Fact ¡from ¡Fic&on ¡

Kushagra ¡Vaid ¡ Principal ¡Architect, ¡Datacenter ¡Infrastructure ¡ Microso> ¡Online ¡Services ¡Division ¡ kvaid@microso>.com ¡

slide-2
SLIDE 2

Overview – Microsoft Online Services

Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 2 ¡

200 ¡+ ¡Sites ¡and ¡Services ¡

slide-3
SLIDE 3

Microsoft Datacenters: Providing services 24x7

Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 3 ¡

400 ¡million ¡ ac>ve ¡ ¡ accounts ¡ More ¡than ¡1 ¡billion ¡ authen>ca>ons ¡per ¡day ¡ More ¡than ¡2 ¡billion ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ queries ¡per ¡month ¡ 320 ¡million ¡ ac>ve ¡ ¡ accounts ¡ 550 ¡million ¡ unique ¡visitors ¡ monthly ¡ Processes ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ 2–4 ¡billion ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ e-­‑mails ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ per ¡day ¡

slide-4
SLIDE 4

MicrosoH ¡Datacenters ¡– ¡Global ¡scaling! ¡

Chicago ¡ Quincy ¡ Dublin ¡ Amsterdam ¡ Hong ¡Kong ¡ Singapore ¡ Japan ¡

"Datacenters ¡have ¡become ¡as ¡vital ¡to ¡the ¡func>oning ¡ ¡

  • f ¡society ¡as ¡power ¡sta>ons." ¡-­‑-­‑ ¡The ¡Economist ¡

San ¡ Antonio ¡

Mul>ple ¡global ¡CDN ¡loca>ons ¡ ¡ in ¡the ¡Americas, ¡Europe ¡and ¡

  • APAC. ¡ ¡

Kushagra ¡Vaid, ¡HotPower'10 ¡ 4 ¡ Oct ¡3, ¡2010 ¡

slide-5
SLIDE 5

What's ¡a ¡Data ¡Center ¡

slide-6
SLIDE 6

Quick cost and efficiency facts

For ¡a ¡typical ¡large ¡mega-­‑datacenter… ¡

Building ¡costs ¡are ¡between ¡$10M ¡to ¡$15M ¡per ¡MegaWa[ ¡ Typical ¡industry ¡PUE ¡ranges ¡from ¡1.5-­‑2.0 ¡ Energy ¡Consump>on: ¡US ¡power ¡rate ¡10.27 ¡cents ¡per ¡Kilowa[ ¡hour) ¡according ¡ to ¡DOE/eia ¡(h[p://www.eia.doe.gov/cneaf/electricity/epm/table5_3.html) ¡

Power ¡(Switch Gear, UPS, Battery backup, etc) Cooling ¡(Chillers, CRACs, etc)

Building load

Demand ¡from ¡grid ¡

IT load

Demand from servers, storage, telco equipment, etc

PUE ¡= ¡ ¡Total ¡Facility ¡Power/IT ¡Equipment ¡Power ¡

Kushagra ¡Vaid, ¡HotPower'10 ¡ 6 ¡ Oct ¡3, ¡2010 ¡ More ¡about ¡PUE: ¡hJp://thegreengrid.org/en/Global/Content/white-­‑papers/The-­‑Green-­‑Grid-­‑Data-­‑Center-­‑Power-­‑Efficiency-­‑Metrics-­‑PUE-­‑and-­‑DCiE ¡

slide-7
SLIDE 7

Datacenter TCO breakdown

  • Power ¡consump>on ¡cost ¡is ¡only ¡16%! ¡

– Reduc>on ¡in ¡dynamic ¡power ¡usage ¡and ¡energy ¡propor>onal ¡compu>ng ¡are ¡ important ¡but ¡have ¡limited ¡benefits ¡

  • Server ¡capex ¡accounts ¡for ¡largest ¡por>on ¡of ¡TCO ¡(61%) ¡

– Invest ¡in ¡mechanisms ¡to ¡improve ¡work ¡done ¡per ¡wa[ ¡ – Improve ¡performance ¡and ¡reduce ¡power ¡at ¡cluster ¡and ¡datacenter ¡level ¡(not ¡ just ¡single ¡server) ¡

Assump<ons: ¡ 10MW ¡facility ¡ PUE ¡1.25 ¡ $10/W ¡construc>on ¡costs ¡ $0.10c/KWhr ¡power ¡costs ¡ Server: ¡$2000, ¡200W ¡ 3yr ¡server ¡amor>za>on ¡ 15yr ¡datacenter ¡amor>za>on ¡

61% ¡ 6% ¡ 14% ¡ 3% ¡ 16% ¡ Servers ¡ Networking ¡Equipment ¡ Power ¡Distribu<on ¡& ¡Cooling ¡ Other ¡Infrastructure ¡ Power ¡

Kushagra ¡Vaid, ¡HotPower'10 ¡ 7 ¡ Oct ¡3, ¡2010 ¡ Source: ¡James ¡Hamilton ¡(hJp://mvdirona.com/jrh/TalksAndPapers/Perspec&vesDataCenterCostAndPower.xls) ¡

slide-8
SLIDE 8

Perspective on Datacenter power efficiency

61% ¡ 6% ¡ 14% ¡ 3% ¡ 16% ¡ Servers ¡ Networking ¡Equipment ¡ Power ¡Distribu<on ¡& ¡Cooling ¡ Other ¡Infrastructure ¡ Power ¡

Kushagra ¡Vaid, ¡HotPower'10 ¡ 8 ¡ Oct ¡3, ¡2010 ¡

Minimize ¡cost ¡of ¡provisioning ¡power ¡

  • ­‑ ¡Construc>on ¡and ¡cooling ¡infrastructure ¡

Maximize ¡work ¡done ¡per ¡Wa[ ¡

  • ­‑ ¡Maximize ¡compute ¡density ¡in ¡power ¡budget ¡
  • ­‑ ¡Maximize ¡perf, ¡minimize ¡power ¡consump>on ¡

Maximize ¡power ¡to ¡IT ¡load ¡(improved ¡PUE) ¡

  • ­‑ ¡Minimize ¡losses ¡and ¡thermal/cooling ¡overheads ¡
slide-9
SLIDE 9

Datacenter Power Efficiency

Minimize ¡cost ¡of ¡provisioning ¡power ¡

– construc<on ¡and ¡cooling ¡infrastructure ¡

Maximize ¡power ¡available ¡to ¡IT-­‑load ¡(improved ¡PUE) ¡

– Minimize ¡losses ¡and ¡thermal/cooling ¡overheads ¡

Maximize ¡work ¡done ¡per ¡wa[ ¡

– Maximize ¡compute ¡density ¡in ¡power ¡budget ¡ – Maximize ¡performance, ¡minimize ¡power ¡consump>on ¡

Kushagra ¡Vaid, ¡HotPower'10 ¡ 9 ¡ Oct ¡3, ¡2010 ¡

slide-10
SLIDE 10

Microsoft’s Chicago Data Center

Kushagra ¡Vaid, ¡HotPower'10 ¡ 10 ¡ Oct ¡3, ¡2010 ¡

slide-11
SLIDE 11

Chicago Datacenter

  • Two-­‑story ¡datacenter ¡

– First ¡floor: ¡container ¡bay ¡ ¡ medium ¡reliability ¡ – Second ¡floor: ¡high-­‑reliability ¡ ¡ tradi>onal ¡co-­‑loca>on ¡ rooms ¡

  • Can ¡deploy ¡at ¡scale ¡
  • Op>mized ¡energy ¡and ¡

cooling ¡efficiency ¡ ¡

  • Allows ¡OEMs ¡to ¡build ¡

customized ¡solu>ons ¡ based ¡on ¡MicrosoH ¡ specifica>ons ¡

Kushagra ¡Vaid, ¡HotPower'10 ¡ 11 ¡ Oct ¡3, ¡2010 ¡

slide-12
SLIDE 12

Microsoft’s Datacenter Evolution

Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 12 ¡

Datacenter ¡Coloca>on ¡ Genera>on ¡1 ¡ San ¡Antonio ¡& ¡Quincy ¡ Genera>on ¡2 ¡ Chicago ¡& ¡Dublin ¡ Genera>on ¡3 ¡

EFFICIENT ¡RESOURCE ¡USAGE ¡

D E P L O Y M E N T S C A L E U N I T

slide-13
SLIDE 13

Microsoft’s Modular Datacenters

Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 13 ¡

  • No ¡mechanical ¡cooling! ¡
  • Ultra-­‑efficient ¡water ¡u>liza>on ¡
  • Focus ¡on ¡renewable ¡materials ¡
  • 30-­‑50 ¡% ¡more ¡cost ¡effec>ve ¡
  • 1.05 ¡– ¡1.15 ¡PUE ¡ ¡
  • ITPAC ¡is ¡the ¡“datacenter-­‑in-­‑a-­‑box” ¡
slide-14
SLIDE 14

ITPAC ¡design ¡overview ¡

slide-15
SLIDE 15
slide-16
SLIDE 16

Datacenter Power Efficiency

Minimize ¡cost ¡of ¡provisioning ¡power ¡

– construc>on ¡and ¡cooling ¡infrastructure ¡

Maximize ¡power ¡available ¡to ¡IT-­‑load ¡(improved ¡PUE) ¡

– Minimize ¡transmission/conversion ¡losses ¡and ¡thermal/cooling ¡

  • verheads ¡

Maximize ¡work ¡done ¡per ¡wa[ ¡

– Maximize ¡compute ¡density ¡in ¡power ¡budget ¡ – Maximize ¡performance, ¡minimize ¡power ¡consump>on ¡

Kushagra ¡Vaid, ¡HotPower'10 ¡ 16 ¡ Oct ¡3, ¡2010 ¡

slide-17
SLIDE 17

Facility level distribution: AC or DC?

Consider ¡the ¡following ¡common ¡topologies ¡… ¡

¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡UPS ¡ Double ¡ conversion ¡or ¡ Line ¡interac>ve ¡

AC ¡ AC ¡ PDU/ ¡ Xfmr ¡ PSU ¡ AC ¡ DC ¡

¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡UPS ¡ Double ¡ conversion ¡or ¡ Line ¡interac>ve ¡

AC ¡ DC ¡ PSU ¡ DC ¡ Server ¡

480Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡480Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡208Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡12Vdc ¡ 480/277Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡415/240Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡240Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡12Vdc ¡ 480/277Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡480/277Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡277Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡12Vdc ¡ 600Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡600Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡208Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡12Vdc ¡

DC ¡ Server ¡

480Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡575Vdc ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡48Vdc ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡12Vdc ¡ 480Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡380Vdc ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡380Vdc ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡12Vdc ¡ 480/277Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡48Vdc ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡48Vdc ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡12Vdc ¡

PDU ¡

Kushagra ¡Vaid, ¡HotPower'10 ¡ 17 ¡ Oct ¡3, ¡2010 ¡

slide-18
SLIDE 18

Facility level distribution: AC or DC?

Source: ¡Green ¡Grid ¡(hJp://www.thegreengrid.org/~/media/WhitePapers/White_Paper_16_-­‑_Quan&ta&ve_Efficiency_Analysis_30DEC08.ashx) ¡

Which ¡topology ¡is ¡the ¡most ¡efficient ¡(lowest ¡PUE)? ¡

No ¡clear ¡answer ¡– ¡efficiency ¡depends ¡on ¡config ¡type ¡AND ¡Load ¡level ¡ DC ¡configs ¡prevail ¡at ¡low ¡loads, ¡AC ¡configs ¡prevail ¡at ¡high ¡loads ¡ Highest ¡efficiency ¡AC ¡and ¡DC ¡configs ¡are ¡within ¡1-­‑2% ¡of ¡each ¡other ¡

Kushagra ¡Vaid, ¡HotPower'10 ¡ 18 ¡ Oct ¡3, ¡2010 ¡

slide-19
SLIDE 19

AC vs DC PSU efficiency

Which ¡PSU ¡is ¡the ¡most ¡efficient? ¡

Source: ¡Green ¡Grid ¡(hJp://www.thegreengrid.org/~/media/WhitePapers/White_Paper_16_-­‑_Quan&ta&ve_Efficiency_Analysis_30DEC08.ashx) ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 19 ¡ Oct ¡3, ¡2010 ¡

The ¡highest ¡efficiency ¡AC ¡and ¡DC ¡PSUs ¡are ¡within ¡1.5% ¡of ¡ ¡ each ¡other ¡across ¡the ¡load ¡range, ¡peaking ¡at ¡~94% ¡

slide-20
SLIDE 20

Other ways to remove losses

Phase ¡balance ¡

  • 3ф ¡power ¡supplies ¡ ¡minimize ¡losses ¡from ¡phase ¡imbalance ¡

Improve ¡efficiency ¡by ¡elimina>ng ¡conversions ¡

  • 480Vac-­‑12Vdc ¡direct ¡conversion ¡(no ¡Xfmr) ¡topologies ¡
  • Move ¡UPS ¡closer ¡to ¡IT ¡load, ¡preferably ¡within ¡the ¡server/rack ¡

¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡UPS ¡ Double ¡ conversion ¡or ¡ Line ¡interac>ve ¡

480Vac ¡ PDU/ ¡ Xfmr ¡

480Vac ¡/ ¡ ¡ 12Vdc ¡3ф ¡ PSU ¡

12Vdc ¡ Server ¡ ¡ + ¡UPS ¡

Kushagra ¡Vaid, ¡HotPower'10 ¡ 20 ¡ Oct ¡3, ¡2010 ¡

slide-21
SLIDE 21

Datacenter Power Efficiency

Minimize ¡cost ¡of ¡provisioning ¡power ¡

– construc>on ¡and ¡cooling ¡infrastructure ¡

Maximize ¡power ¡available ¡to ¡IT-­‑load ¡(improved ¡PUE) ¡

– Minimize ¡losses ¡and ¡thermal/cooling ¡overheads ¡

Maximize ¡work ¡done ¡per ¡wa[ ¡

– Maximize ¡compute ¡density ¡in ¡power ¡budget ¡ – Maximize ¡performance, ¡minimize ¡power ¡consump>on ¡

Kushagra ¡Vaid, ¡HotPower'10 ¡ 21 ¡ Oct ¡3, ¡2010 ¡

slide-22
SLIDE 22

Minimize thermal/cooling overheads

  • For ¡legacy ¡datacenters ¡… ¡

– Ensure ¡be[er ¡hot/cold ¡aisle ¡isola>on ¡ ¡lower ¡PUE ¡

  • Improved ¡server ¡chassis ¡designs ¡

– Component ¡placement ¡for ¡streamlined ¡airflow ¡ – Shared ¡fans ¡across ¡mul>ple ¡chassis ¡

  • Expanded ¡environmental ¡range ¡– ¡High ¡temp ¡
  • pera>on ¡(more ¡on ¡next ¡slide) ¡

– Allows ¡for ¡servers ¡to ¡operate ¡with ¡reduced ¡airflow ¡and ¡s>ll ¡ deal ¡with ¡temperature ¡hotspots ¡

Kushagra ¡Vaid, ¡HotPower'10 ¡ 22 ¡ Oct ¡3, ¡2010 ¡

slide-23
SLIDE 23

High Temperature Server Operation

ASHRAE ¡recommended ¡range: ¡64F-­‑81F, ¡max ¡60% ¡RH ¡ However, ¡most ¡Server ¡vendors ¡specify ¡50F-­‑95F, ¡max ¡90%RH ¡ Higher ¡temps ¡ ¡Lower ¡fan ¡speeds ¡to ¡cool ¡servers ¡ ¡Improved ¡PUE ¡

Kushagra ¡Vaid, ¡HotPower'10 ¡ 23 ¡ Oct ¡3, ¡2010 ¡

Source: ¡hJp://media.techtarget.com/digitalguide/images/Misc/temp_hr.gif ¡

DRY ¡BULB ¡

slide-24
SLIDE 24

Datacenter Power Efficiency

Minimize ¡cost ¡of ¡provisioning ¡power ¡

– construc>on ¡and ¡cooling ¡infrastructure ¡

Maximize ¡power ¡available ¡to ¡IT-­‑load ¡(improved ¡PUE) ¡

– Minimize ¡losses ¡and ¡thermal/cooling ¡overheads ¡

Maximize ¡work ¡done ¡per ¡wa] ¡

– Maximize ¡compute ¡density ¡in ¡power ¡budget ¡ – Maximize ¡performance, ¡minimize ¡power ¡consump>on ¡

Kushagra ¡Vaid, ¡HotPower'10 ¡ 24 ¡ Oct ¡3, ¡2010 ¡

slide-25
SLIDE 25

Power capping for improving server density

  • Study ¡shows ¡that ¡for ¡a ¡server ¡that ¡operates ¡at ¡300W ¡max ¡consumed ¡power, ¡a ¡se{ng ¡of ¡230W ¡

provides ¡acceptable ¡query ¡response ¡latencies ¡

  • Allows ¡for ¡15% ¡higher ¡server ¡density ¡in ¡same ¡power ¡envelope ¡
  • Study ¡doesn’t ¡account ¡for ¡QPS ¡(bandwidth) ¡maximiza>on ¡in ¡given ¡power ¡budget ¡– ¡that ¡

aspect ¡may ¡disallow ¡latency ¡flexibility ¡and ¡affect ¡SLAs ¡

Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 25 ¡ Source: ¡Intel/Baidu ¡whitepaper ¡(hJp://communi&es.intel.com/docs/DOC-­‑1492) ¡ ¡

  • Power ¡capping ¡uses ¡duty ¡cycling ¡based ¡on ¡P-­‑states ¡for ¡ensuring ¡target ¡power ¡level ¡
slide-26
SLIDE 26

But does power capping scale to datacenter level?

Provision ¡servers ¡in ¡ datacenter ¡for ¡peak ¡ load ¡or ¡nominal ¡load? ¡

Power ¡spikes ¡

RED ¡ ¡ ¡= ¡avg ¡KW ¡ BLUE ¡= ¡peak ¡KW ¡

  • Short ¡dura>on ¡power ¡spikes ¡from ¡sudden ¡load ¡increases ¡occur ¡in ¡reality ¡
  • Server ¡heterogeneity ¡and ¡app ¡power ¡profile ¡changes ¡also ¡need ¡to ¡be ¡considered ¡
  • Power ¡Capping ¡may ¡be ¡used, ¡but ¡requires ¡understanding ¡tradeoff ¡to ¡performance ¡

SLAs ¡and ¡may ¡require ¡sophis&cated ¡policy ¡management ¡

Kushagra ¡Vaid, ¡HotPower'10 ¡ 26 ¡ Oct ¡3, ¡2010 ¡

slide-27
SLIDE 27

Server rightsizing for density improvements

Kushagra ¡Vaid, ¡HotPower'10 ¡ 27 ¡ Oct ¡3, ¡2010 ¡

1.0 ¡ 1.07 ¡ 1.18 ¡ 1.0 ¡ 1.10 ¡ 1.6 ¡ 1.0 ¡ 1.24 ¡ 1.56 ¡ 1.0 ¡ 0.87 ¡ 0.76 ¡ 1.0 ¡ 0.79 ¡ 0.46 ¡ 2.33 ¡GHz ¡(50W) ¡ 2.67 ¡GHz ¡(80W) ¡ 3.167 ¡GHz ¡(120W) ¡ Performance ¡ System ¡Price ¡ System ¡Power ¡ Perf/W ¡ Perf/W/$ ¡

  • Characterize ¡workloads ¡for ¡performance/power ¡sensi>vity ¡
  • Select ¡power ¡efficient ¡components ¡either ¡by ¡selec>ng ¡low-­‑voltage ¡variants ¡ ¡

(e.g. ¡LV ¡CPUs/DIMMs) ¡or ¡lower ¡performance ¡variants ¡(e.g. ¡800Mhz ¡DIMMs ¡or ¡ 5400rpm ¡HDDs) ¡

  • E.g. ¡shown ¡below ¡for ¡CPU ¡criteria ¡for ¡Internet ¡Search ¡app ¡
slide-28
SLIDE 28
  • E.g. ¡above ¡shows ¡how ¡in-­‑depth ¡storage ¡trace ¡analysis ¡can ¡be ¡used ¡to ¡

understand ¡I/O ¡workload ¡pa[erns ¡and ¡IOPS ¡rates ¡

  • HDD ¡power ¡models ¡can ¡then ¡be ¡used ¡to ¡determine ¡op>mal ¡power ¡provisioning ¡

values ¡– ¡minimizing ¡stranded ¡power ¡and ¡allowing ¡higher ¡density ¡

Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 28 ¡ Sankar ¡et ¡al, ¡“Storage ¡Characteriza&on ¡for ¡Unstructured ¡Data ¡in ¡Online ¡Services ¡Applica&ons”, ¡IISWC ¡2009 ¡ Sankar ¡et ¡al, ¡“Addressing ¡the ¡Stranded ¡Power ¡Problem ¡in ¡Datacenters ¡Using ¡Storage ¡Workload ¡Characteriza&on, ¡WOSP-­‑SIPEW ¡2010 ¡

Storage ¡rightsizing ¡for ¡power ¡provisioning ¡efficiency ¡

slide-29
SLIDE 29

Datacenter Power Efficiency

Minimize ¡cost ¡of ¡provisioning ¡power ¡

– construc>on ¡and ¡cooling ¡infrastructure ¡

Maximize ¡power ¡available ¡to ¡IT-­‑load ¡(improved ¡PUE) ¡

– Minimize ¡losses ¡and ¡thermal/cooling ¡overheads ¡

Maximize ¡work ¡done ¡per ¡wa] ¡

– Maximize ¡compute ¡density ¡in ¡power ¡budget ¡ – Maximize ¡performance, ¡minimize ¡power ¡consump<on ¡

Kushagra ¡Vaid, ¡HotPower'10 ¡ 29 ¡ Oct ¡3, ¡2010 ¡

slide-30
SLIDE 30

Improving Perf/W

  • Seek ¡architectural ¡opportuni>es ¡for ¡dramaNc ¡Perf/W ¡improvements ¡
  • E.g. ¡shown ¡below ¡for ¡SSD ¡caching ¡solu>ons ¡implemented ¡in ¡HW ¡RAID ¡

controllers ¡and ¡in ¡SW ¡buffer ¡pool ¡management ¡algorithms ¡

  • Upto ¡~3x ¡server ¡consolida>on ¡opportunity ¡for ¡DB ¡workloads ¡

Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 30 ¡ Khessib ¡et ¡al, ¡“Using ¡Solid ¡State ¡Drives ¡as ¡a ¡Mid-­‑Tier ¡Cache ¡in ¡Enterprise ¡OLTP ¡applica&ons”, ¡TPC ¡Technology ¡Conference ¡on ¡ Performance ¡Evalua&on ¡and ¡Benchmarking ¡(TPC-­‑TC), ¡Sept ¡2010 ¡

slide-31
SLIDE 31

Are C and P-states really effective?

Kushagra ¡Vaid, ¡HotPower'10 ¡ 31 ¡ Oct ¡3, ¡2010 ¡

0% ¡ 20% ¡ 40% ¡ 60% ¡ 80% ¡ 100% ¡ 120% ¡ IDLE ¡ 10% ¡ 20% ¡ 30% ¡ 40% ¡ 50% ¡ 60% ¡ 70% ¡ 80% ¡ 90% ¡ 100% ¡ % ¡of ¡LOAD ¡(PERF) ¡ C-­‑OFF, ¡P-­‑OFF ¡ C-­‑OFF, ¡P-­‑ON ¡ C-­‑ON, ¡P-­‑OFF ¡ C-­‑ON, ¡P-­‑ON ¡

  • Workload ¡power ¡profile ¡shown ¡with ¡different ¡C/P ¡state ¡combina>ons ¡
  • When ¡C-­‑states ¡are ¡enabled, ¡P-­‑states ¡have ¡no ¡impact ¡on ¡power ¡consumpNon ¡ ¡
  • C-­‑state ¡savings ¡vary ¡from ¡0-­‑40% ¡of ¡max ¡power; ¡C6 ¡state ¡helpful ¡for ¡idle ¡load ¡
  • Effec>veness ¡of ¡P-­‑state ¡depends ¡on ¡CPU ¡SKU ¡selec>on ¡and ¡workload ¡profiles ¡

System ¡ 2S ¡L5520/4c ¡CPUs ¡ LV ¡DIMMs ¡(32GB) ¡

slide-32
SLIDE 32

Improvements in the power load curve

  • With ¡C6 ¡power ¡savings ¡and ¡OS ¡feature ¡support, ¡idle ¡power ¡is ¡now ¡

~30% ¡of ¡max ¡power ¡

– Not ¡50-­‑60% ¡as ¡typically ¡quoted ¡in ¡publica>ons ¡

  • Expect ¡significant ¡future ¡improvements ¡in ¡idle ¡power ¡

– Windows ¡Core ¡Parking, ¡Deeper ¡CPU ¡sleep ¡states, ¡Memory ¡power ¡states ¡

SPECpower2008 ¡benchmark ¡ 2 ¡x ¡Intel ¡L5640/6c/2.26Ghz ¡ 16GB ¡DDR3 ¡ 1x160GB ¡SSD ¡ Windows ¡Server ¡2008 ¡R2 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 32 ¡ Oct ¡3, ¡2010 ¡

hJp://www.spec.org/power_ssj2008/results/res2010q3/power_ssj2008-­‑20100714-­‑00275.html ¡ 31% ¡ 49% ¡ 55% ¡ 60% ¡ 65% ¡ 69% ¡ 74% ¡ 79% ¡ 86% ¡ 93% ¡ 100% ¡ 0% ¡ 10% ¡ 20% ¡ 30% ¡ 40% ¡ 50% ¡ 60% ¡ 70% ¡ 80% ¡ 90% ¡ 100% ¡ 0% ¡ 10% ¡ 20% ¡ 30% ¡ 40% ¡ 50% ¡ 60% ¡ 70% ¡ 89% ¡ 90% ¡ 100% ¡ % ¡of ¡Max ¡Power ¡ Load ¡Level ¡

Power ¡vs ¡Load ¡curve ¡

slide-33
SLIDE 33

Research areas

  • Op>mal ¡Power ¡provisioning ¡for ¡high ¡dynamic ¡range ¡workloads ¡

(idle ¡at ¡night, ¡peak ¡load ¡during ¡day) ¡

  • Addressing ¡Energy ¡propor>onality ¡via ¡system ¡architecture ¡

innova>ons ¡

  • Power ¡aware ¡task ¡scheduling ¡on ¡large ¡clusters ¡
  • Energy ¡conscious ¡programming ¡using ¡controlled ¡

approxima>on ¡(ref: ¡ h[p://research.microsoH.com/en-­‑us/um/people/trishulc/ papers/green.pdf) ¡

  • Several ¡others… ¡

Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 33 ¡

slide-34
SLIDE 34

Summary

  • Take ¡a ¡holis>c ¡view ¡when ¡considering ¡power ¡

efficiency ¡opportuni>es ¡

– Minimize ¡cost ¡of ¡provisioning ¡power ¡(datacenter ¡design) ¡ – Maximize ¡power ¡available ¡to ¡IT-­‑load ¡(datacenter/server) ¡ – Maximize ¡work ¡done ¡per ¡wa[ ¡(pla•orm/OS/apps) ¡

  • Conven>onal ¡wisdom ¡on ¡power ¡efficiency ¡is ¡
  • Hen ¡incorrect ¡(several ¡examples ¡in ¡this ¡talk) ¡
  • Workloads…workloads…workloads… ¡Op>mize ¡

for ¡applica>on ¡specific ¡scenarios ¡

Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 34 ¡

slide-35
SLIDE 35

Q ¡& ¡A ¡