The Value of HPC for Scientific Research and the Roles - - PowerPoint PPT Presentation

the value of hpc for scientific research and the roles of
SMART_READER_LITE
LIVE PREVIEW

The Value of HPC for Scientific Research and the Roles - - PowerPoint PPT Presentation

The Value of HPC for Scientific Research and the Roles of NSF and NIST Rudi Eigenmann , Program Director Division of Advanced Cyberinfrastructure (ACI)


slide-1
SLIDE 1

The ¡Value ¡of ¡HPC ¡for ¡ Scientific ¡Research ¡and ¡the ¡ Roles ¡of ¡NSF ¡and ¡NIST ¡

Rudi ¡Eigenmann, ¡Program ¡Director ¡ Division ¡of ¡Advanced ¡Cyberinfrastructure ¡(ACI) ¡ NSF ¡CISE ¡ June ¡30, ¡2015 ¡

slide-2
SLIDE 2

Computational ¡Science ¡Success ¡Stories ¡ ¡

Thanks ¡to ¡computational ¡methods ¡and ¡resources ¡we ¡can ¡now ¡better ¡ understand ¡… ¡

2 ¡ why ¡there ¡are ¡stellar ¡gas ¡clouds ¡ how ¡humans ¡developed ¡ how ¡the ¡influenza ¡virus ¡behaves ¡ If ¡gravitational ¡waves ¡exist ¡ in ¡what ¡way ¡windfarms ¡impact ¡the ¡environment ¡ how ¡dementia ¡forms ¡

slide-3
SLIDE 3

Computational ¡Research ¡has ¡higher ¡impact ¡across ¡sciences ¡

Analyzed ¡all ¡journals ¡with ¡>10 ¡XD ¡publications ¡since ¡2005 ¡ ¡

3 ¡

60% ¡of ¡XD-­‑related ¡publications ¡are ¡in ¡the ¡top-­‑25% ¡by ¡citation ¡count ¡ Showing ¡ ¡average ¡citation ¡rank ¡(ACR) ¡of ¡all ¡ ¡XD-­‑related ¡papers ¡for ¡a ¡ given ¡journal ¡ +1: ¡highest ¡rank ¡(most ¡citations) ¡

  • ­‑1: ¡lowest ¡rank ¡(fewest ¡citations) ¡

=> ¡Computational ¡science, ¡as ¡represented ¡by ¡XD ¡publications, ¡shows ¡ above ¡average ¡ACR ¡in ¡58 ¡of ¡66 ¡journals ¡

(Courtesy ¡of ¡Gregor ¡von ¡Laszewski, ¡publication ¡in ¡preparation) ¡

slide-4
SLIDE 4

NSF ¡HPC ¡Infrastructure ¡ ¡

4 ¡

slide-5
SLIDE 5

Blacklight ¡

Shared ¡Memory ¡ 4k ¡Xeon ¡cores ¡ ¡

Darter ¡ 24k ¡cores ¡ ¡ Nautilus ¡

Visualization ¡ Data ¡Analytics ¡

Stampede ¡

460K ¡cores ¡

  • w. ¡Xeon ¡Phi ¡

>1000 ¡users ¡ ¡ Wrangler ¡(new) ¡ Date ¡Analytics ¡ ¡

Maverick ¡

Visualization ¡ Data ¡Analytics ¡

Comet ¡(new) ¡

“Long ¡Tail ¡Science” ¡ 47k ¡cores/2 ¡PF ¡ High ¡throughput ¡ ¡

Gordon ¡ ¡ ¡

Data ¡intensive ¡ 64 ¡TB ¡memory ¡ 300 ¡TB ¡Flash ¡Mem ¡

Open ¡Science ¡Grid ¡

High ¡throughput ¡

SuperMIC ¡

380 ¡nodes ¡– ¡1PF ¡ (Ivy ¡bridge, ¡Xeon ¡Phi, ¡GPU) ¡

Blue ¡Waters ¡

Leadership ¡Class ¡

¡

Yellowstone ¡

Geosciences ¡ 5 ¡

XD ¡Network ¡of ¡Computational ¡Resources ¡and ¡Services ¡

Coordination ¡though ¡XSEDE ¡

  • Resource ¡Allocation ¡
  • Advanced ¡User ¡Support ¡
  • Education ¡and ¡Outreach ¡
  • Digital ¡Services ¡Architecture ¡ ¡

Jetstream ¡(2016) ¡ Cloud-­‑based ¡ Bridges ¡(2016) ¡ large, ¡coherent ¡ shared-­‑memory ¡ ¡

slide-6
SLIDE 6

6 ¡

Bridges ¡– ¡Large-­‑Memory ¡Compute ¡Resource ¡

Pittsburgh ¡Supercomputing ¡Center ¡-­‑ ¡2016 ¡

Data-­‑intensive ¡computation ¡

  • 3 ¡tiers ¡of ¡node ¡types ¡from ¡HP ¡
  • Latest ¡Intel ¡Xeon ¡CPUs ¡
  • NVIDIA ¡Tesla ¡K80 ¡dual-­‑GPUs ¡

and ¡next-­‑generation ¡Tesla ¡

Data ¡manag. ¡& ¡movement ¡

  • Database ¡nodes ¡with ¡fast ¡local ¡

storage ¡

  • Web ¡and ¡data ¡transfer ¡nodes ¡

with ¡fast ¡networking ¡

  • Shared, ¡parallel, ¡high-­‑

performance ¡Project ¡File ¡System ¡

  • Intel ¡Omni-­‑Path ¡Architecture ¡

fabric ¡

slide-7
SLIDE 7

— NSF’s first cloud for science and engineering research — Interactive computing and data analysis “on demand.” — User-selectable library of virtual machines — Customizable virtual machines – build your “private computing system” within Jetstream — Broad support across disciplines including biology, atmospheric science, economics, network science, observational astronomy, and social sciences. — Special support for the iPlant and Galaxy platforms

Jetstream ¡– ¡cloud ¡computing ¡resource ¡Indiana ¡

University ¡-­‑ ¡2016 ¡

slide-8
SLIDE 8

Network ¡ Billion ¡CPU-­‑Hours ¡ provided ¡in ¡2014 ¡ XDNet ¡ 1.4 ¡ BlueWaters ¡ 2.3 ¡ NCAR ¡ 0.57 ¡ OSG ¡ 0.8 ¡

Note: ¡different ¡providers ¡may ¡define ¡CPU-­‑hours ¡differently ¡

Total ¡Computer ¡Power ¡Provided ¡

8 ¡

slide-9
SLIDE 9

9 ¡

Compute ¡Power ¡Usage ¡Trends ¡by ¡Discipline ¡

slide-10
SLIDE 10

10 ¡Year ¡trend ¡in ¡# ¡of ¡Institutions ¡Represented ¡in ¡XDNet ¡

0 ¡ 100 ¡ 200 ¡ 300 ¡ 400 ¡ 500 ¡ 600 ¡ 2005 ¡ 2006 ¡ 2007 ¡ 2008 ¡ 2009 ¡ 2010 ¡ 2011 ¡ 2012 ¡ 2013 ¡ 2014 ¡

Number ¡of ¡User ¡Institutions ¡

10 ¡

slide-11
SLIDE 11

By ¡comparison ¡(approximate): ¡ ¡

  • Total ¡open ¡XSEDE ¡user ¡accounts: ¡8,000 ¡ ¡

¡=> ¡45% ¡

  • Total ¡SUs ¡used ¡in ¡XDNet: ¡ ¡1B ¡ ¡

¡ ¡=> ¡ ¡ ¡3% ¡

11 ¡

slide-12
SLIDE 12

Performance ¡Monitoring, ¡ Metrics ¡(XDMoD) ¡

Community ¡ ¡ building ¡ Productivity ¡ enhancement ¡

XD ¡Integrative ¡Services ¡

Projects: ¡XSEDE, ¡TAS(XMS) ¡ ¡ ¡

12 ¡

Community ¡building ¡

  • Developing ¡the ¡workforce ¡
  • Engaging ¡new ¡science ¡

communities ¡

  • Broadening ¡participation ¡
  • Connecting ¡to ¡other ¡CI ¡
  • rganizations/projects ¡

Productivity ¡enhancement ¡

  • Coordinating ¡resource ¡

providers ¡

  • Creating ¡uniform ¡user ¡

experience, ¡one-­‑stop ¡shop ¡

  • Providing ¡expertise ¡

Performance ¡Monitoring, ¡Metrics ¡(XDMoD) ¡

  • Operational ¡Metrics ¡on ¡XDNet ¡
  • Job ¡performance ¡viewer ¡
  • Scientific ¡impact ¡metrics ¡
slide-13
SLIDE 13

Stakeholder ¡group: ¡

Users ¡

Stakeholder ¡group: ¡

Resource ¡ Providers ¡

Savings ¡and ¡enhanced ¡productivity ¡for ¡user ¡ community: ¡

  • Uniformity ¡across ¡sites ¡and ¡one-­‑stop ¡

shop ¡for ¡users ¡

  • Coordinated ¡education ¡and ¡training ¡
  • Better ¡balancing ¡of ¡human ¡and ¡digital ¡

resources ¡

  • Better ¡decision ¡making ¡based ¡on ¡

information ¡from ¡across ¡the ¡entire ¡ network ¡

  • Reduced ¡duplication ¡of ¡effort ¡
  • Enabled ¡multi-­‑site ¡science ¡

Cost ¡savings ¡to ¡resource ¡ providers: ¡

  • Approx. ¡40% ¡of ¡XD ¡

investment, ¡according ¡to ¡a ¡ recent ¡analysis ¡by ¡Stewart ¡et. ¡

  • al. ¡ ¡

Value ¡of ¡Integrative ¡Services ¡ ¡

Investment ¡in ¡integrative ¡services ¡is ¡large: ¡ ¡ ¡ ¡about ¡1/3 ¡of ¡ACI’s ¡HPC ¡budget ¡ ¡-­‑> ¡ ¡~ ¡$30M/year ¡ ¡

13 ¡

slide-14
SLIDE 14

Evolving ¡XD ¡Services ¡

Ê Current ¡Human ¡Services ¡ Ê Current ¡Digital ¡services ¡ Ê What ¡is ¡needed ¡in ¡the ¡future? ¡

14 ¡

— Resource ¡Allocation ¡(XRAC) ¡ — Computational ¡Experts ¡(ECSS) ¡ — Educational ¡Services ¡ — Compute ¡cycles ¡and ¡storage ¡ — XDMoD ¡metrics ¡tool ¡ — File ¡transfer ¡ — Common ¡web ¡portal ¡ — Authentication ¡services ¡ — New ¡machine ¡access ¡methods ¡(non-­‑ batch, ¡interactive, ¡real-­‑time, ¡Data ¡ streaming ¡?) ¡ — New ¡workflows ¡? ¡ — New ¡architectures ¡in ¡support ¡of ¡non-­‑ traditional ¡science? ¡

slide-15
SLIDE 15

Oversubscription ¡of ¡XDNet ¡?

¡ ¡

15 ¡

June ¡2015, ¡SDSC ¡COMET ¡online ¡

slide-16
SLIDE 16

Blue ¡Waters, ¡Leadership-­‑Class ¡ Computational ¡Resource ¡

Ê Continues ¡to ¡award ¡allocations ¡for ¡breakthrough ¡science ¡

projects ¡that ¡need ¡petascale ¡resources. ¡

Ê PRAC ¡November ¡2014 ¡proposal ¡close ¡to ¡being ¡awarded ¡ Ê Next ¡PRAC ¡deadline: ¡November ¡2015 ¡

16 ¡

Christian ¡Ott, ¡Caltech: ¡ First ¡set ¡of ¡full ¡3D, ¡dynamical-­‑spacetime ¡GR-­‑ magnetohydrodynamic ¡simulations ¡of ¡ magnetorotational ¡core-­‑collapse ¡supernovae. ¡

slide-17
SLIDE 17

Complementing ¡Programs ¡ in ¡NSF/ACI ¡

17 ¡

slide-18
SLIDE 18

Benchmarking ¡Program ¡

PD ¡15-­‑7685 ¡

Ê BENCHMARKS ¡OF ¡REALISTIC ¡SCIENTIFIC ¡APPLICATION ¡

PERFORMANCE ¡OF ¡LARGE-­‑SCALE ¡COMPUTING ¡SYSTEMS ¡ (BRAP) ¡

Ê How ¡to ¡truly ¡measure ¡an ¡HPC ¡system’s ¡capability ¡in ¡

executing ¡realistic ¡applications? ¡

Ê Deadline ¡was ¡Feb ¡2, ¡2015 ¡– ¡proposals ¡currently ¡under ¡review. ¡

18 ¡

slide-19
SLIDE 19

Scientific ¡Visualization ¡

CADENS ¡– ¡Donna ¡Cox, ¡U. ¡Illinois: ¡

Ê “increase ¡digital ¡literacy ¡and ¡inform ¡the ¡general ¡public ¡about ¡

computational ¡and ¡data-­‑enabled ¡scientific ¡discovery.” ¡

Ê Three ¡full-­‑dome ¡(IMAX) ¡shows ¡+ ¡12 ¡4k ¡videos ¡ Ê First ¡full-­‑dome ¡show ¡in ¡production: ¡Solar ¡Superstorms ¡

Ê Trailer ¡at ¡ ¡

¡ ¡https://vimeo.com/127872610 ¡

19 ¡

slide-20
SLIDE 20

Data ¡

Ê 4-­‑th ¡Paradigm ¡and ¡hot ¡topic ¡ Ê Observation ¡vs. ¡modeling ¡– ¡combination? ¡ Ê Observation ¡is ¡old; ¡what’s ¡new? ¡ ¡

Ê scale ¡ Ê diverse, ¡ ¡interconnected ¡data ¡sources ¡

Ê Merger ¡of ¡data ¡and ¡compute ¡? ¡

20 ¡

slide-21
SLIDE 21

Other ¡“Clusters” ¡in ¡NSF/ACI ¡

HPC

Cyber- security Software Networking

HPC

Learning & Workforce Development

NSF ¡Division ¡for ¡ ¡ Advanced ¡ ¡Cyberinfrastructure ¡

Data

slide-22
SLIDE 22

NSF’s ¡Role: ¡ ¡Future ¡Directions ¡for ¡NSF ¡ ¡ Advanced ¡Computing ¡Infrastructure ¡

Ê NAS ¡study: ¡

Ê received ¡over ¡60 ¡comments ¡(some ¡from ¡groups) ¡on ¡interim ¡

report ¡

Ê currently ¡preparing ¡final ¡report, ¡to ¡be ¡released ¡this ¡summer ¡ ¡

Ê Dear ¡Colleague ¡Letter ¡NSF ¡DCL ¡15-­‑053 ¡solicits ¡proposal ¡for ¡

community ¡workshops ¡to ¡

Ê identify ¡needs ¡for ¡advanced ¡computing ¡infrastructure ¡in ¡support ¡

  • f ¡future ¡computational ¡research ¡

Ê NSF’s ¡role ¡ Ê Broad ¡range ¡of ¡topics ¡possible ¡

22 ¡

slide-23
SLIDE 23

NIST’s ¡Role ¡? ¡

Ê Metrics ¡

Ê XDMoD ¡– ¡XD ¡Metrics ¡on ¡Demand, ¡xdmod.ccr.buffalo.edu ¡

Ê Benchmarks ¡

Ê Measuring ¡HPC ¡system ¡performance ¡

Ê Standards ¡for ¡Data ¡and ¡Computation ¡

Ê Metadata ¡ Ê Increasing ¡interconnection ¡

23 ¡

slide-24
SLIDE 24

Thank ¡you! ¡ ¡

Contact ¡Information: ¡ reigenma@nsf.gov ¡ +1 ¡703 ¡292 ¡2598 ¡

24 ¡