Day in a Life of a Datacenter Architect Kushagra Vaid - - PowerPoint PPT Presentation

day in a life of a datacenter architect
SMART_READER_LITE
LIVE PREVIEW

Day in a Life of a Datacenter Architect Kushagra Vaid - - PowerPoint PPT Presentation

QPS,KW-hr,MTBF,T,PUE,IOPS,DB/RH: A Day in a Life of a Datacenter Architect Kushagra Vaid Principal Architect, Datacenter Infrastructure Microso: Online Services


slide-1
SLIDE 1

QPS,KW-­‑hr,MTBF,∆T,PUE,IOPS,DB/RH: ¡A ¡ Day ¡in ¡a ¡Life ¡of ¡a ¡Datacenter ¡Architect ¡

Kushagra ¡Vaid ¡ Principal ¡Architect, ¡Datacenter ¡Infrastructure ¡ Microso: ¡Online ¡Services ¡Division ¡ kvaid@microso:.com ¡

slide-2
SLIDE 2

First… lets explain the lingo in the talk title…

Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡SLAML'10 ¡ 2 ¡

Metric ¡ Defini?on ¡ Usage ¡ QPS ¡ Queries ¡per ¡second ¡ ¡ Performance ¡of ¡Index-­‑serving ¡engine ¡ KW-­‑hr ¡ KilowaH-­‑hr: ¡Energy ¡consumpLon ¡ metric ¡ EffecLveness ¡of ¡power ¡conservaLon ¡ schemes ¡ MTBF ¡ Mean ¡Time ¡Between ¡Failures ¡ Understanding ¡component ¡reliability ¡ ∆T ¡ Temperature ¡delta ¡between ¡front ¡and ¡ rear ¡of ¡server ¡ Server ¡chassis ¡design ¡and ¡airflow ¡CFD ¡ analysis ¡ PUE ¡ Power ¡Usage ¡EffecLveness ¡ Measure ¡of ¡datacenter ¡power ¡ efficiency ¡ IOPS ¡ Disk ¡Input/Output ¡OperaLons ¡per ¡ second ¡ Storage ¡subsystem ¡performance ¡ analysis ¡ DB/RH ¡ Dry ¡Bulb: ¡Air ¡temperature ¡ Wet ¡Bulb: ¡Temperature ¡indicaLng ¡ amount ¡of ¡moisture ¡in ¡the ¡air ¡ Determining ¡server ¡operaLng ¡range ¡ and ¡acceptable ¡environmental ¡specs ¡

slide-3
SLIDE 3

Microsoft Datacenters: Providing services 24x7

Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡SLAML'10 ¡ 3 ¡

400 ¡million ¡ acLve ¡ ¡ accounts ¡ More ¡than ¡1 ¡billion ¡ authenLcaLons ¡per ¡day ¡ More ¡than ¡2 ¡billion ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ queries ¡per ¡month ¡ 320 ¡million ¡ acLve ¡ ¡ accounts ¡ 550 ¡million ¡ unique ¡visitors ¡ monthly ¡ Processes ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ 2–4 ¡billion ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ e-­‑mails ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ per ¡day ¡

slide-4
SLIDE 4

Microso` ¡Datacenters ¡– ¡Global ¡scaling! ¡

Chicago ¡ Quincy ¡ Dublin ¡ Amsterdam ¡ Hong ¡Kong ¡ Singapore ¡ Japan ¡

"Datacenters ¡have ¡become ¡as ¡vital ¡to ¡the ¡funcLoning ¡ ¡

  • f ¡society ¡as ¡power ¡staLons." ¡-­‑-­‑ ¡The ¡Economist ¡

San ¡ Antonio ¡

MulLple ¡global ¡CDN ¡locaLons ¡ ¡ in ¡the ¡Americas, ¡Europe ¡and ¡

  • APAC. ¡ ¡

Kushagra ¡Vaid, ¡SLAML'10 ¡ 4 ¡ Oct ¡3, ¡2010 ¡

slide-5
SLIDE 5

What's ¡a ¡Data ¡Center ¡

slide-6
SLIDE 6

Design factors for Datacenter Infrastructure

Datacenter ¡and ¡Server ¡architecture ¡

– Power ¡distribuLon ¡efficiency ¡ – Cost ¡efficiency ¡ – Thermal ¡design ¡analysis ¡

Plagorm ¡architecture ¡

– ApplicaLon ¡performance ¡analysis ¡ – New ¡plagorm ¡architecture ¡exploraLon ¡

Reliability ¡analysis ¡

– Environmental ¡operaLng ¡ranges ¡and ¡impact ¡on ¡MTBF ¡

Bringing ¡it ¡all ¡together ¡– ¡HolisLc ¡Systems ¡Design ¡

Kushagra ¡Vaid, ¡SLAML'10 ¡ 6 ¡ Oct ¡3, ¡2010 ¡

slide-7
SLIDE 7

Design factors for Datacenter Infrastructure

Datacenter ¡architecture ¡

– Power ¡distribu?on ¡efficiency ¡ – Cost ¡efficiency ¡ – Thermal ¡design ¡analysis ¡

Plagorm ¡architecture ¡

– ApplicaLon ¡performance ¡analysis ¡ – New ¡plagorm ¡architecture ¡exploraLon ¡

Reliability ¡analysis ¡

– Environmental ¡operaLng ¡ranges ¡and ¡impact ¡on ¡MTBF ¡

Bringing ¡it ¡all ¡together ¡– ¡HolisLc ¡Systems ¡Design ¡

Kushagra ¡Vaid, ¡SLAML'10 ¡ 7 ¡ Oct ¡3, ¡2010 ¡

slide-8
SLIDE 8

Cost and efficiency facts

For ¡a ¡typical ¡large ¡mega-­‑datacenter… ¡

Building ¡costs ¡are ¡between ¡$10M ¡to ¡$15M ¡per ¡MegaWaH ¡ Typical ¡industry ¡PUE ¡ranges ¡from ¡1.5-­‑2.0 ¡ Energy ¡ConsumpLon: ¡US ¡power ¡rate ¡10.27 ¡cents ¡per ¡KilowaH ¡hour) ¡according ¡ to ¡DOE/eia ¡(hHp://www.eia.doe.gov/cneaf/electricity/epm/table5_3.html) ¡

Power ¡(Switch Gear, UPS, Battery backup, etc) Cooling ¡(Chillers, CRACs, etc)

Building load

Demand ¡from ¡grid ¡

IT load

Demand from servers, storage, telco equipment, etc

PUE ¡= ¡ ¡Total ¡Facility ¡Power/IT ¡Equipment ¡Power ¡

Kushagra ¡Vaid, ¡SLAML'10 ¡ 8 ¡ Oct ¡3, ¡2010 ¡ More ¡about ¡PUE: ¡hHp://thegreengrid.org/en/Global/Content/white-­‑papers/The-­‑Green-­‑Grid-­‑Data-­‑Center-­‑Power-­‑Efficiency-­‑Metrics-­‑PUE-­‑and-­‑DCiE ¡

slide-9
SLIDE 9

Facility level distribution options

Consider ¡the ¡following ¡common ¡topologies ¡… ¡

¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡UPS ¡ Double ¡ conversion ¡or ¡ Line ¡interacLve ¡

AC ¡ AC ¡ PDU/ ¡ Xfmr ¡ PSU ¡ AC ¡ DC ¡

¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡UPS ¡ Double ¡ conversion ¡or ¡ Line ¡interacLve ¡

AC ¡ DC ¡ PSU ¡ DC ¡ Server ¡

480Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡480Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡208Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡12Vdc ¡ 480/277Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡415/240Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡240Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡12Vdc ¡ 480/277Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡480/277Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡277Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡12Vdc ¡ 600Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡600Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡208Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡12Vdc ¡

DC ¡ Server ¡

480Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡575Vdc ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡48Vdc ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡12Vdc ¡ 480Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡380Vdc ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡380Vdc ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡12Vdc ¡ 480/277Vac ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡48Vdc ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡48Vdc ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡12Vdc ¡

PDU ¡

Kushagra ¡Vaid, ¡SLAML'10 ¡ 9 ¡ Oct ¡3, ¡2010 ¡

slide-10
SLIDE 10

Analyzing Facility level distribution efficiency

Source: ¡Green ¡Grid ¡(hHp://www.thegreengrid.org/~/media/WhitePapers/White_Paper_16_-­‑_QuanVtaVve_Efficiency_Analysis_30DEC08.ashx) ¡

Which ¡topology ¡is ¡the ¡most ¡efficient ¡(lowest ¡PUE)? ¡

Efficiency ¡depends ¡on ¡config ¡type ¡AND ¡Load ¡level ¡ DC ¡configs ¡prevail ¡at ¡low ¡loads, ¡AC ¡configs ¡prevail ¡at ¡high ¡loads ¡ Highest ¡efficiency ¡AC ¡and ¡DC ¡configs ¡are ¡within ¡1-­‑2% ¡of ¡each ¡other ¡

Kushagra ¡Vaid, ¡SLAML'10 ¡ 10 ¡ Oct ¡3, ¡2010 ¡

slide-11
SLIDE 11

Challenges with datacenter power allocation

  • Problem ¡statement: ¡Given ¡the ¡above ¡power ¡load ¡curve, ¡how ¡would ¡you ¡

maximize ¡server ¡density ¡for ¡the ¡datacenter ¡power ¡envelope ¡

  • Tradeoffs: ¡

– Provision ¡based ¡on ¡peak ¡load ¡stranded ¡power ¡from ¡variable ¡load ¡ ¡traffic ¡paHerns ¡ – Provision ¡based ¡on ¡average ¡load ¡ ¡risk ¡of ¡tripping ¡circuit ¡breakers ¡at ¡higher ¡load ¡levels ¡

Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡SLAML'10 ¡ 11 ¡ SPECpower2008 ¡benchmark ¡ 2 ¡x ¡Intel ¡L5640/6c/2.26Ghz ¡ 16GB ¡DDR3 ¡ 1x160GB ¡SSD ¡ Windows ¡Server ¡2008 ¡R2 ¡

hHp://www.spec.org/power_ssj2008/results/res2010q3/power_ssj2008-­‑20100714-­‑00275.html ¡ 31% ¡ 49% ¡ 55% ¡ 60% ¡ 65% ¡ 69% ¡ 74% ¡ 79% ¡ 86% ¡ 93% ¡ 100% ¡ 0% ¡ 10% ¡ 20% ¡ 30% ¡ 40% ¡ 50% ¡ 60% ¡ 70% ¡ 80% ¡ 90% ¡ 100% ¡ 0% ¡ 10% ¡ 20% ¡ 30% ¡ 40% ¡ 50% ¡ 60% ¡ 70% ¡ 89% ¡ 90% ¡ 100% ¡ % ¡of ¡Max ¡Power ¡ Load ¡Level ¡

Power ¡vs ¡Load ¡curve ¡

slide-12
SLIDE 12

Challenges with datacenter power allocation

Output ¡of ¡datacenter ¡ power ¡meter ¡

Power ¡spikes ¡

RED ¡ ¡ ¡= ¡avg ¡KW ¡ BLUE ¡= ¡peak ¡KW ¡

  • Short ¡duraLon ¡power ¡spikes ¡from ¡sudden ¡load ¡increases ¡occur ¡in ¡reality ¡
  • Server ¡heterogeneity ¡and ¡app ¡power ¡profile ¡changes ¡also ¡need ¡to ¡be ¡considered ¡
  • Power ¡Capping ¡can ¡be ¡used, ¡but ¡requires ¡understanding ¡tradeoff ¡to ¡performance ¡

SLAs ¡and ¡may ¡require ¡sophisLcated ¡policy ¡management ¡

  • The ¡eventual ¡allocaLon ¡is ¡a ¡calculated ¡risk ¡to ¡maximize ¡server ¡density ¡without ¡

stranding ¡power, ¡taking ¡load ¡paHerns ¡into ¡consideraLon ¡ ¡ ¡

Kushagra ¡Vaid, ¡HotPower'10 ¡ 12 ¡ Oct ¡3, ¡2010 ¡

slide-13
SLIDE 13

Design factors for Datacenter Infrastructure

Datacenter ¡architecture ¡

– Power ¡distribuLon ¡efficiency ¡ – Cost ¡efficiency ¡ – Thermal ¡design ¡analysis ¡

Plagorm ¡architecture ¡

– ApplicaLon ¡performance ¡analysis ¡ – New ¡plagorm ¡architecture ¡exploraLon ¡

Reliability ¡analysis ¡

– Environmental ¡operaLng ¡ranges ¡and ¡impact ¡on ¡MTBF ¡

Bringing ¡it ¡all ¡together ¡– ¡HolisLc ¡Systems ¡Design ¡

Kushagra ¡Vaid, ¡SLAML'10 ¡ 13 ¡ Oct ¡3, ¡2010 ¡

slide-14
SLIDE 14

Datacenter TCO breakdown

  • Datacenter ¡build ¡costs ¡are ¡17% ¡of ¡TCO ¡
  • Energy ¡usage ¡costs ¡are ¡16% ¡of ¡TCO ¡
  • Server ¡capex ¡accounts ¡for ¡largest ¡porLon ¡of ¡TCO ¡(61%) ¡

– Invest ¡in ¡mechanisms ¡to ¡improve ¡work ¡done ¡per ¡waH ¡

Assump?ons: ¡ 10MW ¡facility ¡ PUE ¡1.25 ¡ $10/W ¡construcLon ¡costs ¡ $0.10c/KWhr ¡power ¡costs ¡ Server: ¡$2000, ¡200W ¡ 3yr ¡server ¡amorLzaLon ¡ 15yr ¡datacenter ¡amorLzaLon ¡

61% ¡ 6% ¡ 14% ¡ 3% ¡ 16% ¡ Servers ¡ Networking ¡Equipment ¡ Power ¡Distribu?on ¡& ¡Cooling ¡ Other ¡Infrastructure ¡ Power ¡

Kushagra ¡Vaid, ¡SLAML'10 ¡ 14 ¡ Oct ¡3, ¡2010 ¡ Source: ¡James ¡Hamilton ¡(hHp://mvdirona.com/jrh/TalksAndPapers/PerspecVvesDataCenterCostAndPower.xls) ¡

slide-15
SLIDE 15

Microsoft’s Datacenter Evolution

Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡SLAML'10 ¡ 15 ¡

Datacenter ¡ColocaLon ¡ GeneraLon ¡1 ¡ San ¡Antonio ¡& ¡Quincy ¡ GeneraLon ¡2 ¡ Chicago ¡& ¡Dublin ¡ GeneraLon ¡3 ¡

EFFICIENT ¡RESOURCE ¡USAGE ¡

D E P L O Y M E N T S C A L E U N I T

slide-16
SLIDE 16

Microsoft’s Chicago Data Center

Kushagra ¡Vaid, ¡SLAML'10 ¡ 16 ¡ Oct ¡3, ¡2010 ¡

slide-17
SLIDE 17

Microsoft’s Modular Datacenters

Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡SLAML'10 ¡ 17 ¡

  • Airside ¡economizaDon ¡– ¡outside ¡

air ¡cooling! ¡

  • Ultra-­‑efficient ¡water ¡uLlizaLon ¡
  • Focus ¡on ¡renewable ¡materials ¡
  • 30-­‑50 ¡% ¡more ¡cost ¡effecLve ¡
  • 1.05 ¡– ¡1.15 ¡PUE ¡ ¡
  • ITPAC ¡is ¡the ¡“datacenter-­‑in-­‑a-­‑box” ¡
slide-18
SLIDE 18

Design factors for Datacenter Infrastructure

Datacenter ¡architecture ¡

– Cost ¡efficiency ¡ – Power ¡distribuLon ¡efficiency ¡ – Thermal ¡design ¡analysis ¡(CFD ¡modeling) ¡

Plagorm ¡architecture ¡

– ApplicaLon ¡performance ¡analysis ¡ – New ¡plagorm ¡architecture ¡exploraLon ¡

Reliability ¡analysis ¡

– Environmental ¡operaLng ¡ranges ¡and ¡impact ¡on ¡MTBF ¡

Bringing ¡it ¡all ¡together ¡– ¡HolisLc ¡Systems ¡Design ¡

Kushagra ¡Vaid, ¡SLAML'10 ¡ 18 ¡ Oct ¡3, ¡2010 ¡

slide-19
SLIDE 19

ITPAC ¡design ¡overview ¡ (showing ¡thermal ¡modeling ¡and ¡ construcLon) ¡

slide-20
SLIDE 20
slide-21
SLIDE 21

Design factors for Datacenter Infrastructure

Datacenter ¡architecture ¡

– Cost ¡efficiency ¡ – Power ¡distribuLon ¡efficiency ¡ – Thermal ¡design ¡analysis ¡

Pla^orm ¡architecture ¡

– Applica?on ¡performance ¡analysis ¡ – New ¡plagorm ¡architecture ¡exploraLon ¡

Reliability ¡analysis ¡

– Environmental ¡operaLng ¡ranges ¡and ¡impact ¡on ¡MTBF ¡

Bringing ¡it ¡all ¡together ¡– ¡HolisLc ¡Systems ¡Design ¡

Kushagra ¡Vaid, ¡SLAML'10 ¡ 21 ¡ Oct ¡3, ¡2010 ¡

slide-22
SLIDE 22

CPU pipeline analysis

Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡SLAML'10 ¡ 22 ¡

  • Bing ¡is ¡computaLonally ¡intensive ¡and ¡exhibits ¡good ¡instrucLon ¡level ¡parallelism ¡
  • Most ¡memory ¡operaLons ¡are ¡loads ¡(as ¡expected) ¡for ¡index ¡reads ¡
  • Pipeline ¡stalls ¡due ¡to ¡cache ¡misses ¡are ¡small ¡(~7%) ¡relaLve ¡to ¡other ¡stall ¡events ¡
  • Analysis ¡helps ¡understand ¡how ¡to ¡opLmize ¡code ¡for ¡maximizing ¡QPS ¡(Queries ¡per ¡

Second) ¡

0.0 ¡ 0.5 ¡ 1.0 ¡ 1.5 ¡ 2.0 ¡ 2.5 ¡ 3.0 ¡ Normalized ¡CPI ¡

Bing ¡CPI ¡comparisons ¡

Stall cycle breakdown Instruction Mix Sources of cache access

Source: ¡Reddi ¡et ¡al, ¡“Web ¡Search ¡using ¡Mobile ¡Cores: ¡QuanVfying ¡the ¡Price ¡of ¡Efficiency, ¡ISCA ¡2010 ¡

slide-23
SLIDE 23

Workload scalability analysis

  • How ¡does ¡the ¡mulLcore ¡trend ¡affect ¡online ¡workloads? ¡
  • IdenLfy ¡workload ¡scalability ¡boHlenecks ¡if ¡any ¡
  • What ¡is ¡the ¡tradeoff ¡for ¡different ¡frequency ¡offerings ¡in ¡commodity ¡CPUs? ¡

Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡SLAML'10 ¡ 23 ¡ Source: ¡Kozyrakis ¡et ¡al, ¡“Server ¡Engineering ¡Insights ¡for ¡Online ¡Services, ¡IEEE ¡Micro, ¡July ¡2010 ¡

slide-24
SLIDE 24
  • E.g. ¡above ¡shows ¡how ¡in-­‑depth ¡storage ¡trace ¡analysis ¡can ¡be ¡used ¡to ¡

understand ¡I/O ¡workload ¡paHerns ¡and ¡IOPS ¡rates ¡

  • HDD ¡power ¡models ¡can ¡then ¡be ¡used ¡to ¡determine ¡opLmal ¡power ¡provisioning ¡

values ¡– ¡minimizing ¡stranded ¡power ¡and ¡allowing ¡higher ¡density ¡

Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡SLAML'10 ¡ 24 ¡ Sankar ¡et ¡al, ¡“Storage ¡CharacterizaVon ¡for ¡Unstructured ¡Data ¡in ¡Online ¡Services ¡ApplicaVons”, ¡IISWC ¡2009 ¡ Sankar ¡et ¡al, ¡“Addressing ¡the ¡Stranded ¡Power ¡Problem ¡in ¡Datacenters ¡Using ¡Storage ¡Workload ¡CharacterizaVon”, ¡WOSP-­‑SIPEW ¡2010 ¡

Storage ¡rightsizing ¡for ¡power ¡provisioning ¡efficiency ¡

slide-25
SLIDE 25

Design factors for Datacenter Infrastructure

Datacenter ¡architecture ¡

– Cost ¡efficiency ¡ – Power ¡distribuLon ¡efficiency ¡ – Thermal ¡design ¡analysis ¡

Pla^orm ¡architecture ¡

– ApplicaLon ¡performance ¡analysis ¡ – New ¡pla^orm ¡architecture ¡explora?on ¡

Reliability ¡analysis ¡

– Environmental ¡operaLng ¡ranges ¡and ¡impact ¡on ¡MTBF ¡

Bringing ¡it ¡all ¡together ¡– ¡HolisLc ¡Systems ¡Design ¡

Kushagra ¡Vaid, ¡SLAML'10 ¡ 25 ¡ Oct ¡3, ¡2010 ¡

slide-26
SLIDE 26

Evaluating mobile CPUs (Atom) for Bing

  • Concept: ¡Scale ¡down ¡the ¡Bing ¡plagorm ¡to ¡use ¡ultra-­‑low ¡power ¡mobile ¡CPUs ¡

– Advantages: ¡Low ¡cost ¡and ¡power ¡ – Disadvantages: ¡Performance, ¡Significant ¡tuning ¡

  • Results ¡below ¡show ¡how ¡the ¡current ¡systems ¡compare ¡

– Overall, ¡Xeon ¡systems ¡are ¡currently ¡2.3x ¡beHer ¡than ¡Atom ¡on ¡a ¡Perf/W/$ ¡basis ¡ – Atom ¡system ¡power ¡is ¡high, ¡even ¡though ¡CPU ¡power ¡is ¡low ¡(few ¡waHs) ¡ – However, ¡significant ¡room ¡for ¡improvements ¡as ¡Atom-­‑based ¡servers ¡are ¡opLmized ¡in ¡the ¡future ¡

26 ¡

88 ¡ 3.6 ¡ 10.6 ¡ 2.3 ¡ 0 ¡ 10 ¡ 20 ¡ 30 ¡ 40 ¡ 50 ¡ 60 ¡ 70 ¡ 80 ¡ 90 ¡ 100 ¡ DQ ¡ Power ¡ Price ¡ Perf/W/$ ¡

Xeon ¡vs ¡Atom ¡

Perf ¡

slide-27
SLIDE 27

CPU pipeline analysis for Atom

27 ¡

  • Atom ¡CPU ¡weak ¡on ¡Branches, ¡FP ¡and ¡

caches ¡ ¡3x ¡worse ¡CPI ¡

  • Overall ¡TCO ¡is ¡2.5x ¡worse ¡on ¡both ¡Perf/

$ ¡and ¡Perf/WaH ¡

  • Need ¡future ¡Atom ¡CPUs ¡to ¡either ¡

provide ¡improved ¡perf ¡or ¡much ¡lower ¡ power ¡

  • Source: ¡“Web ¡Search ¡Using ¡Mobile ¡

Cores”, ¡ISCA ¡2010 ¡

slide-28
SLIDE 28

Improving Perf/W for SQL workloads

  • Seek ¡architectural ¡opportuniLes ¡for ¡dramaDc ¡Perf/W ¡improvements ¡
  • E.g. ¡shown ¡below ¡for ¡SSD ¡caching ¡soluLons ¡implemented ¡in ¡HW ¡RAID ¡

controllers ¡and ¡in ¡SW ¡buffer ¡pool ¡management ¡algorithms ¡

  • Upto ¡~3x ¡server ¡consolidaLon ¡possibility ¡for ¡database ¡workloads ¡

Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡SLAML'10 ¡ 28 ¡ Khessib ¡et ¡al, ¡“Using ¡Solid ¡State ¡Drives ¡as ¡a ¡Mid-­‑Tier ¡Cache ¡in ¡Enterprise ¡OLTP ¡applicaVons”, ¡TPC ¡Technology ¡Conference ¡on ¡ Performance ¡EvaluaVon ¡and ¡Benchmarking ¡(TPC-­‑TC), ¡Sept ¡2010 ¡

slide-29
SLIDE 29

Design factors for Datacenter Infrastructure

Datacenter ¡architecture ¡

– Cost ¡efficiency ¡ – Power ¡distribuLon ¡efficiency ¡ – Thermal ¡design ¡analysis ¡

Plagorm ¡architecture ¡

– ApplicaLon ¡performance ¡analysis ¡ – New ¡plagorm ¡architecture ¡exploraLon ¡

Reliability ¡analysis ¡

– Environmental ¡opera?ng ¡ranges ¡and ¡impact ¡on ¡MTBF ¡

Bringing ¡it ¡all ¡together ¡– ¡HolisLc ¡Systems ¡Design ¡

Kushagra ¡Vaid, ¡SLAML'10 ¡ 29 ¡ Oct ¡3, ¡2010 ¡

slide-30
SLIDE 30

Server operating range specification

ASHRAE ¡recommended ¡range: ¡64F-­‑81F ¡Drybulb, ¡max ¡60% ¡RH ¡ However, ¡most ¡server ¡vendors ¡specify ¡50F-­‑95F, ¡max ¡90%RH ¡ Higher ¡temperature ¡operaLon ¡ ¡Lower ¡fan ¡speeds ¡to ¡cool ¡servers ¡ ¡Improved ¡PUE ¡ However, ¡need ¡to ¡take ¡into ¡account ¡reliability ¡aspects ¡for ¡server ¡components ¡

Kushagra ¡Vaid, ¡SLAML'10 ¡ 30 ¡ Oct ¡3, ¡2010 ¡

Source: ¡hHp://media.techtarget.com/digitalguide/images/Misc/temp_hr.gif ¡

DRY ¡BULB ¡

slide-31
SLIDE 31

Temperature sensitivity analysis

  • HDD ¡case ¡temp ¡distribuLon ¡shown ¡for ¡a ¡35-­‑bay ¡JBOD ¡array ¡(over ¡3 ¡months) ¡

for ¡fixed ¡server ¡inlet ¡temperature ¡(25C) ¡

  • Note ¡increase ¡in ¡∆T ¡for ¡inner ¡drive ¡bays ¡
  • Airside ¡economizaLon ¡scenarios ¡may ¡imply ¡higher ¡inlet ¡temperatures ¡-­‑ ¡What ¡

are ¡implica?ons ¡to ¡HDD ¡MTBF? ¡

Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡SLAML'10 ¡ 31 ¡

slide-32
SLIDE 32

Modeling HDD AFR sensitivity to temperature

  • Model ¡the ¡HDD ¡Failure ¡AcceleraLon ¡

Factor, ¡adjusted ¡for ¡producLon ¡failure ¡ data ¡(le` ¡figure) ¡

  • Create ¡mapping ¡based ¡on ¡temperature ¡

distribuLon ¡data ¡(figure ¡below) ¡

  • Calculate ¡overall ¡AFR ¡for ¡a ¡given ¡input ¡

server ¡inlet ¡temperature ¡

Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡SLAML'10 ¡ 32 ¡

0% ¡ 50% ¡ 100% ¡ 150% ¡ 200% ¡ 250% ¡

40 ¡ 41 ¡ 42 ¡ 43 ¡ 44 ¡ 45 ¡ 46 ¡ 47 ¡ 48 ¡ 49 ¡ 50 ¡ 51 ¡ 52 ¡ 53 ¡ 54 ¡ 55 ¡ Failure ¡Accelera?on ¡Factor ¡(norm. ¡ to ¡40C, ¡100% ¡dutycycle) ¡

HDD ¡temperature ¡(C) ¡

slide-33
SLIDE 33

Design factors for Datacenter Infrastructure

Datacenter ¡architecture ¡

– Cost ¡efficiency ¡ – Power ¡distribuLon ¡efficiency ¡ – Thermal ¡design ¡analysis ¡

Plagorm ¡architecture ¡

– ApplicaLon ¡performance ¡analysis ¡ – New ¡plagorm ¡architecture ¡exploraLon ¡

Reliability ¡analysis ¡

– Environmental ¡operaLng ¡ranges ¡and ¡impact ¡on ¡MTBF ¡

Bringing ¡it ¡all ¡together ¡– ¡Holis?c ¡Systems ¡Design ¡

Kushagra ¡Vaid, ¡SLAML'10 ¡ 33 ¡ Oct ¡3, ¡2010 ¡

slide-34
SLIDE 34

Optimal systems design (Infrastructure perspective) MulL-­‑dimensional ¡opLmizaLon ¡problem ¡

Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡SLAML'10 ¡ 34 ¡

OpLmized ¡ System ¡ ApplicaLon ¡architecture ¡ Power ¡Budget ¡ Perf ¡Requirements ¡ ¡ Site-­‑specific ¡environmentals ¡ Cost ¡tradeoffs ¡ Reliability/Availability ¡ OperaLonal ¡requirements ¡

Various ¡other ¡ requirements ¡

Management/Provisioning ¡

slide-35
SLIDE 35

Research areas

  • OpLmal ¡Power ¡provisioning ¡for ¡high ¡dynamic ¡range ¡workloads ¡

(idle ¡at ¡night, ¡peak ¡load ¡during ¡day) ¡

  • Power ¡aware ¡task ¡scheduling ¡on ¡large ¡clusters ¡
  • Energy ¡proporLonality ¡via ¡system ¡architecture ¡innovaLons ¡
  • Reliability ¡model ¡for ¡enLre ¡datacenter, ¡correlated ¡for ¡

parameters ¡such ¡as ¡temperature, ¡humidity, ¡load ¡levels ¡

  • Failure ¡predicLon ¡opportuniLes ¡based ¡on ¡log ¡analysis ¡of ¡

conLnuous ¡feeds ¡from ¡management ¡consoles ¡

  • Several ¡others… ¡

Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 35 ¡

slide-36
SLIDE 36

Summary

  • Datacenter ¡design ¡and ¡opLmizaLon ¡for ¡various ¡applicaLon ¡

scenarios ¡involves ¡several ¡disciplines ¡with ¡complex ¡ interacLons ¡

  • An ¡opLmal ¡design ¡is ¡usually ¡a ¡delicate ¡balance ¡between ¡

various ¡tradeoffs ¡– ¡no ¡easy ¡answers ¡ ¡

  • Extensive ¡data ¡analysis ¡is ¡the ¡key ¡to ¡making ¡effecLve ¡design ¡

choices ¡

  • Several ¡areas ¡for ¡improved ¡design ¡and ¡reliability ¡via ¡data ¡

mining ¡and ¡predicLve ¡analysis ¡

Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡SLAML'10 ¡ 36 ¡

slide-37
SLIDE 37

Q ¡& ¡A ¡