separa ng fact from fic on
play

Separa&ng Fact from Fic&on Kushagra Vaid Principal - PowerPoint PPT Presentation

Datacenter Power Efficiency: Separa&ng Fact from Fic&on Kushagra Vaid Principal Architect, Datacenter Infrastructure Microso> Online Services Division


  1. Datacenter ¡Power ¡Efficiency: ¡ Separa&ng ¡Fact ¡from ¡Fic&on ¡ Kushagra ¡Vaid ¡ Principal ¡Architect, ¡Datacenter ¡Infrastructure ¡ Microso> ¡Online ¡Services ¡Division ¡ kvaid@microso>.com ¡

  2. Overview – Microsoft Online Services 200 ¡+ ¡Sites ¡and ¡Services ¡ Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 2 ¡

  3. Microsoft Datacenters: Providing services 24x7 More ¡than ¡2 ¡billion ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ More ¡than ¡1 ¡billion ¡ queries ¡per ¡month ¡ authen>ca>ons ¡per ¡day ¡ Processes ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ 320 ¡million ¡ 2–4 ¡billion ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ac>ve ¡ ¡ e-­‑mails ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ accounts ¡ per ¡day ¡ 400 ¡million ¡ 550 ¡million ¡ ac>ve ¡ ¡ unique ¡visitors ¡ accounts ¡ monthly ¡ Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 3 ¡

  4. MicrosoH ¡Datacenters ¡– ¡Global ¡scaling! ¡ Mul>ple ¡global ¡CDN ¡loca>ons ¡ ¡ in ¡the ¡Americas, ¡Europe ¡and ¡ APAC. ¡ ¡ Dublin ¡ Chicago ¡ Quincy ¡ Japan ¡ Hong ¡Kong ¡ Amsterdam ¡ San ¡ Antonio ¡ Singapore ¡ "Datacenters ¡have ¡become ¡as ¡vital ¡to ¡the ¡func>oning ¡ ¡ of ¡society ¡as ¡power ¡sta>ons." ¡-­‑-­‑ ¡ The ¡Economist ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 4 ¡ Oct ¡3, ¡2010 ¡

  5. What's ¡a ¡Data ¡Center ¡

  6. Quick cost and efficiency facts For ¡a ¡typical ¡large ¡mega-­‑datacenter… ¡ Building ¡costs ¡are ¡between ¡$10M ¡to ¡$15M ¡per ¡MegaWa[ ¡ PUE ¡ = ¡ ¡ Total ¡Facility ¡Power / IT ¡Equipment ¡Power ¡ Building load Demand ¡from ¡grid ¡ IT load Demand from servers, Power ¡ (Switch Gear, UPS, storage, telco equipment, Battery backup, etc) etc Cooling ¡ (Chillers, CRACs, etc) More ¡about ¡PUE: ¡hJp://thegreengrid.org/en/Global/Content/white-­‑papers/The-­‑Green-­‑Grid-­‑Data-­‑Center-­‑Power-­‑Efficiency-­‑Metrics-­‑PUE-­‑and-­‑DCiE ¡ Typical ¡industry ¡PUE ¡ranges ¡from ¡1.5-­‑2.0 ¡ Energy ¡Consump>on: ¡US ¡power ¡rate ¡10.27 ¡cents ¡per ¡Kilowa[ ¡hour) ¡according ¡ to ¡DOE/eia ¡ (h[p://www.eia.doe.gov/cneaf/electricity/epm/table5_3.html ) ¡ Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 6 ¡

  7. Datacenter TCO breakdown Servers ¡ 16% ¡ Assump<ons: ¡ 3% ¡ 10MW ¡facility ¡ Networking ¡Equipment ¡ PUE ¡1.25 ¡ $10/W ¡construc>on ¡costs ¡ $0.10c/KWhr ¡power ¡costs ¡ 14% ¡ Power ¡Distribu<on ¡& ¡Cooling ¡ Server: ¡$2000, ¡200W ¡ 3yr ¡server ¡amor>za>on ¡ 61% ¡ 15yr ¡datacenter ¡amor>za>on ¡ Other ¡Infrastructure ¡ 6% ¡ Power ¡ Source: ¡James ¡Hamilton ¡(hJp://mvdirona.com/jrh/TalksAndPapers/Perspec&vesDataCenterCostAndPower.xls) ¡ • Power ¡consump>on ¡ cost ¡is ¡only ¡16%! ¡ – Reduc>on ¡in ¡dynamic ¡power ¡usage ¡and ¡energy ¡propor>onal ¡compu>ng ¡are ¡ important ¡but ¡have ¡limited ¡benefits ¡ • Server ¡capex ¡accounts ¡for ¡largest ¡por>on ¡of ¡TCO ¡(61%) ¡ – Invest ¡in ¡mechanisms ¡to ¡improve ¡work ¡done ¡per ¡wa[ ¡ – Improve ¡performance ¡and ¡reduce ¡power ¡at ¡cluster ¡and ¡datacenter ¡level ¡(not ¡ just ¡single ¡server) ¡ Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 7 ¡

  8. Perspective on Datacenter power efficiency Maximize ¡work ¡done ¡per ¡Wa[ ¡ Maximize ¡power ¡to ¡IT ¡load ¡(improved ¡PUE) ¡ -­‑ ¡Maximize ¡compute ¡density ¡in ¡power ¡budget ¡ -­‑ ¡Minimize ¡losses ¡and ¡thermal/cooling ¡overheads ¡ -­‑ ¡Maximize ¡perf, ¡minimize ¡power ¡consump>on ¡ Servers ¡ 16% ¡ 3% ¡ Networking ¡Equipment ¡ 14% ¡ Power ¡Distribu<on ¡& ¡Cooling ¡ 61% ¡ Other ¡Infrastructure ¡ 6% ¡ Power ¡ Minimize ¡cost ¡of ¡provisioning ¡power ¡ -­‑ ¡Construc>on ¡and ¡cooling ¡infrastructure ¡ Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 8 ¡

  9. Datacenter Power Efficiency Minimize ¡cost ¡of ¡provisioning ¡power ¡ – construc<on ¡and ¡cooling ¡infrastructure ¡ Maximize ¡power ¡available ¡to ¡IT-­‑load ¡(improved ¡PUE) ¡ – Minimize ¡losses ¡and ¡thermal/cooling ¡overheads ¡ Maximize ¡work ¡done ¡per ¡wa[ ¡ – Maximize ¡compute ¡density ¡in ¡power ¡budget ¡ – Maximize ¡performance, ¡minimize ¡power ¡consump>on ¡ Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 9 ¡

  10. Microsoft’s Chicago Data Center Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 10 ¡

  11. Chicago Datacenter • Two-­‑story ¡datacenter ¡ – First ¡floor: ¡container ¡bay ¡ ¡ medium ¡reliability ¡ – Second ¡floor: ¡high-­‑reliability ¡ ¡ tradi>onal ¡co-­‑loca>on ¡ rooms ¡ • Can ¡deploy ¡at ¡scale ¡ • Op>mized ¡energy ¡and ¡ cooling ¡efficiency ¡ ¡ • Allows ¡OEMs ¡to ¡build ¡ customized ¡solu>ons ¡ based ¡on ¡MicrosoH ¡ specifica>ons ¡ Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 11 ¡

  12. Microsoft’s Datacenter Evolution Chicago ¡& ¡Dublin ¡ Datacenter ¡Coloca>on ¡ San ¡Antonio ¡& ¡Quincy ¡ Genera>on ¡3 ¡ Genera>on ¡1 ¡ Genera>on ¡2 ¡ D E P L O Y M E N T S C A L E U N I T EFFICIENT ¡RESOURCE ¡USAGE ¡ Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 12 ¡

  13. Microsoft’s Modular Datacenters • No ¡mechanical ¡cooling! ¡ • Ultra-­‑efficient ¡water ¡u>liza>on ¡ • Focus ¡on ¡renewable ¡materials ¡ • 30-­‑50 ¡% ¡more ¡cost ¡effec>ve ¡ • 1.05 ¡– ¡1.15 ¡PUE ¡ ¡ • ITPAC ¡is ¡the ¡“datacenter-­‑in-­‑a-­‑box” ¡ Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 13 ¡

  14. ITPAC ¡design ¡overview ¡

  15. Datacenter Power Efficiency Minimize ¡cost ¡of ¡provisioning ¡power ¡ – construc>on ¡and ¡cooling ¡infrastructure ¡ Maximize ¡power ¡available ¡to ¡IT-­‑load ¡(improved ¡PUE) ¡ – Minimize ¡transmission/conversion ¡losses ¡ and ¡thermal/cooling ¡ overheads ¡ Maximize ¡work ¡done ¡per ¡wa[ ¡ – Maximize ¡compute ¡density ¡in ¡power ¡budget ¡ – Maximize ¡performance, ¡minimize ¡power ¡consump>on ¡ Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 16 ¡

Download Presentation
Download Policy: The content available on the website is offered to you 'AS IS' for your personal information and use only. It cannot be commercialized, licensed, or distributed on other websites without prior consent from the author. To download a presentation, simply click this link. If you encounter any difficulties during the download process, it's possible that the publisher has removed the file from their server.

Recommend


More recommend