Breakthrough Science on GPU clusters John Taylor , Tomasz - - PowerPoint PPT Presentation

breakthrough science on gpu clusters
SMART_READER_LITE
LIVE PREVIEW

Breakthrough Science on GPU clusters John Taylor , Tomasz - - PowerPoint PPT Presentation

Breakthrough Science on GPU clusters John Taylor , Tomasz Bednarz, Steve McMahon - CSIRO March 2015 CSS Darwin About CSIRO Cairns Atherton


slide-1
SLIDE 1

CSS ¡

Breakthrough ¡Science ¡on ¡GPU ¡clusters ¡

John ¡Taylor ¡, ¡Tomasz ¡Bednarz, ¡Steve ¡McMahon ¡-­‑ ¡ ¡CSIRO ¡ ¡ March ¡2015 ¡

slide-2
SLIDE 2

62% ¡of ¡our ¡people ¡hold ¡

university ¡degrees ¡ ¡

2000 ¡doctorates ¡ ¡ ¡ 500 ¡masters ¡

In ¡partnership ¡with ¡ universi@es, ¡we ¡ ¡ develop ¡650 ¡ postgraduate ¡ research ¡students ¡

Top ¡1% ¡of ¡global ¡research ¡

ins@tu@ons ¡in ¡14 ¡of ¡22 ¡research ¡ fields ¡ ¡ ¡

Top ¡0.1% ¡in ¡4 ¡research ¡fields ¡ ¡

About ¡CSIRO ¡

Darwin ¡

Alice ¡Springs ¡ Geraldton ¡ ¡

2 ¡sites ¡

Atherton ¡ Townsville ¡

2 ¡sites ¡

Rockhampton ¡ Toowoomba ¡ GaIon ¡ Myall ¡Vale ¡ Narrabri ¡ Mopra ¡ Parkes ¡ Griffith ¡ Belmont ¡ Geelong ¡ Hobart ¡ Sandy ¡Bay ¡ Wodonga ¡ Newcastle ¡ Armidale ¡ ¡2 ¡sites ¡

Perth ¡

3 ¡sites ¡

Adelaide ¡

2 ¡sites ¡

Sydney ¡ ¡5 ¡sites ¡ Canberra ¡ ¡7 ¡sites ¡

Murchison ¡ Cairns ¡ Irymple ¡

Melbourne ¡5 ¡sites ¡ ¡

Werribee ¡2 ¡sites ¡

Brisbane ¡

6 ¡sites ¡ ¡

Bribie ¡ ¡ Island ¡

People ¡ LocaPons ¡ Flagships ¡ Budget ¡ 5000 ¡ 58 ¡ 9 ¡ $1.3B+ ¡

slide-3
SLIDE 3

CSIRO ¡Computa@onal ¡and ¡Simula@on ¡Sciences ¡

2009: ¡CSIRO ¡Bragg ¡Cluster ¡ Launch, ¡first ¡of ¡its ¡kind ¡in ¡AU ¡ 2013: ¡Bragg ¡upgrade ¡-­‑ ¡384 ¡ Kepler ¡K20M ¡GPUs ¡ November ¡2014: ¡ #154 ¡TOP500 ¡List ¡ #11 ¡Green500 ¡List ¡

slide-4
SLIDE 4

CSIRO ¡Bragg ¡GPU ¡Cluster ¡

TOP500 ¡and ¡Green500 ¡Rankings ¡

0 ¡ 50 ¡ 100 ¡ 150 ¡ 200 ¡ 250 ¡ 300 ¡ 350 ¡ TOP500 ¡Rank ¡ Green500 ¡rank ¡

CSIRO ¡Computa@onal ¡and ¡Simula@on ¡Sciences ¡

slide-5
SLIDE 5

CSIRO ¡Bragg ¡GPU ¡Cluster ¡

TOP500 ¡Performance ¡

0 ¡ 100 ¡ 200 ¡ 300 ¡ 400 ¡ 500 ¡ Rmax ¡(TFlops) ¡ Rpeak ¡(Tflops) ¡

CSIRO ¡Computa@onal ¡and ¡Simula@on ¡Sciences ¡

slide-6
SLIDE 6

CSIRO ¡Bragg ¡GPU ¡Cluster ¡

TOP500 ¡Performance ¡-­‑ ¡Efficiency ¡

0 ¡ 0.1 ¡ 0.2 ¡ 0.3 ¡ 0.4 ¡ 0.5 ¡ 0.6 ¡ 0.7 ¡ 0.8 ¡ 0.9 ¡ Rmax/Rpeak ¡

CSIRO ¡Computa@onal ¡and ¡Simula@on ¡Sciences ¡

slide-7
SLIDE 7

CSIRO ¡Bragg ¡GPU ¡Cluster ¡– ¡The ¡Future ¡

TOP500 ¡Performance ¡

0 ¡ 200 ¡ 400 ¡ 600 ¡ 800 ¡ 1000 ¡ 1200 ¡ Rmax ¡(TFlops) ¡ Rpeak ¡(Tflops) ¡

ESTIMATES ¡

CSIRO ¡Computa@onal ¡and ¡Simula@on ¡Sciences ¡

slide-8
SLIDE 8

CSIRO ¡Bragg ¡GPU ¡Cluster ¡ ¡

Peak ¡performance ¡from ¡CPU ¡and ¡GPU ¡

0 ¡ 100 ¡ 200 ¡ 300 ¡ 400 ¡ 500 ¡ CPU ¡(Tflops) ¡ GPU ¡(Tflops) ¡ CPU+GPU ¡(TFlops) ¡

CSIRO ¡Computa@onal ¡and ¡Simula@on ¡Sciences ¡

slide-9
SLIDE 9

CSIRO ¡Bragg ¡GPU ¡Cluster ¡ ¡

Peak ¡performance ¡from ¡CPU ¡and ¡GPU ¡

0 ¡ 5 ¡ 10 ¡ 15 ¡ 2010/11 ¡2011/6 ¡2011/11 ¡2012/6 ¡2012/11 ¡2013/6 ¡2013/11 ¡2014/6 ¡2014/11 ¡

RaPo ¡of ¡GPU/CPU ¡Flops ¡

ra@o ¡

CSIRO ¡Computa@onal ¡and ¡Simula@on ¡Sciences ¡

2xCPU ¡

slide-10
SLIDE 10

More ¡compute ¡power ¡means ¡

¡

Greater ¡accuracy ¡ Larger ¡problem ¡domains ¡ Shorter ¡compute ¡Pmes ¡

¡ ¡

Large ¡problem/parameter ¡ spaces ¡can ¡be ¡explored ¡

¡ ¡

More ¡breakthrough ¡science ¡done ¡ ¡

slide-11
SLIDE 11

CSIRO ¡Computa@onal ¡and ¡Simula@on ¡Sciences ¡

CSS ¡Capability ¡Development ¡Placorms ¡

Imaging Processing & Visualisation Data Constrained Materials Modelling Model Data Fusion & Spatial Modelling Computational Material Design

CSIRO ¡Computa@onal ¡& ¡Simula@on ¡Sciences ¡

  • Developing ¡core, ¡domain ¡specific, ¡computa@onal ¡capability ¡
  • Developing ¡generic ¡computa@onal ¡tools ¡to ¡aid ¡domain ¡work ¡across ¡CSIRO ¡
  • Deploying ¡GPU ¡capability/tools ¡back ¡into ¡Flagships ¡
slide-12
SLIDE 12
  • Typical ¡experimental ¡ ¡

set-­‑up ¡involves ¡an ¡X-­‑ray ¡ source, ¡a ¡sample ¡on ¡a ¡ rota@on ¡stage ¡and ¡a ¡2D ¡ posi@on-­‑sensi@ve ¡detector ¡

  • Images ¡of ¡the ¡sample ¡are ¡

collected ¡at ¡many ¡different ¡ rota@on ¡angles ¡spanning ¡180 ¡

  • r ¡360 ¡degrees ¡
  • Acquired ¡images ¡are ¡

processed ¡in ¡a ¡computer ¡to ¡ produce ¡a ¡3D ¡representa@on ¡

  • f ¡the ¡internal ¡structure ¡of ¡

the ¡sample ¡

Principles ¡of ¡X-­‑ray ¡Computed ¡Tomography ¡(CT) ¡

X-­‑ray ¡source ¡ Detector ¡ Object ¡

slide-13
SLIDE 13

Insect CT scan, rendered using Drishti (http://anusf.anu.edu.au/Vizlab/drishti/) by Sherry Mayo (CSIRO)

slide-14
SLIDE 14

¡CSIRO ¡X-­‑TRACT ¡synchrotron ¡map ¡

slide-15
SLIDE 15

Cloud ¡Based ¡Image ¡Analysis ¡and ¡Processing ¡Toolbox ¡

Available ¡now ¡à à ¡www.cloudimaging.net.au ¡ ¡

Cloud ¡Based ¡Image ¡Analysis ¡and ¡Processing ¡Toolbox ¡ ¡| ¡ ¡Contact: ¡Tomasz ¡Bednarz ¡ ¡

+ ¡ + ¡

HCA-­‑Vision ¡ X-­‑TRACT ¡ MILXView ¡

Workflows ¡in ¡acPon ¡

Create ¡and ¡Share ¡your ¡imaging ¡workflows ¡with ¡

  • ther ¡scien@sts. ¡

Connect ¡various ¡imaging ¡func@ons ¡to ¡create ¡more ¡ complex ¡imaging ¡algorithms. ¡ Visualise ¡the ¡results. ¡ Reuse ¡the ¡workflows ¡on ¡different ¡datasets. ¡ Adjust ¡the ¡parameters ¡whenever ¡required. ¡ Open ¡for ¡Australian ¡scien@sts. ¡

slide-16
SLIDE 16

RadiaPon ¡therapy ¡applicaPons ¡

Modern ¡radia@on ¡therapy ¡is ¡to ¡a ¡large ¡extent ¡a ¡computa@onal ¡discipline ¡and ¡can ¡greatly ¡benefit ¡from ¡use ¡of ¡task-­‑ ¡ and ¡data-­‑parallelism. ¡Some ¡applica@ons ¡were ¡demonstrated ¡on ¡GPUs ¡already: ¡

  • CT ¡reconstruc@ons ¡
  • Image ¡registra@ons ¡
  • Treatment ¡planning ¡
  • Dose ¡computa@ons ¡(e.g. ¡X ¡Gu, ¡U ¡Jelen ¡et ¡al ¡2011 ¡PMB ¡56) ¡

Need ¡for ¡speed: ¡imaging ¡and ¡treatment ¡verifica@on ¡can ¡be ¡used ¡as ¡feedback ¡to ¡improve ¡the ¡treatment ¡(adap@ve ¡ radiotherapy), ¡currently ¡offline ¡(mostly ¡popula@on-­‑based), ¡one ¡day ¡online. ¡ Par@cle ¡(proton/carbon ¡ion) ¡therapy ¡with ¡raster ¡scanning ¡@ ¡University ¡of ¡Marburg: ¡

  • most ¡precise ¡external ¡beam ¡technique ¡(only ¡5 ¡centers ¡worldwide: ¡3 ¡ac@ve, ¡2 ¡to ¡start) ¡
  • increased ¡precision ¡= ¡increased ¡need ¡for ¡verifica@on ¡(more ¡computa@ons) ¡
  • longer ¡computa@onal ¡@mes ¡(small ¡head ¡case: ¡1 ¡hour ¡on ¡single-­‑thread) ¡

Collabora@ve ¡project ¡between ¡CSIRO ¡and ¡University ¡of ¡Marburg ¡ ¡ Ammazzalorso, ¡Bednarz, ¡Jelen ¡

slide-17
SLIDE 17

Plan ¡robustness ¡in ¡radiaPon ¡therapy ¡

Automa@c ¡discovery ¡of ¡robust ¡beam ¡setups. ¡ Results ¡(mean ¡and ¡sd ¡for ¡a ¡single ¡beam): ¡

  • 4-­‑core ¡Intel ¡Xeon ¡W3530 ¡2.8GHz ¡12GB ¡RAM ¡+ ¡NVIDIA ¡Tesla ¡C2050 ¡3GB ¡RAM ¡
  • 10 ¡skull ¡base ¡cases, ¡42 ¡beams ¡direc@ons ¡(10 ¡runs ¡each ¡for ¡@ming ¡stats) ¡
  • 4k-­‑40k ¡pencils ¡of ¡120-­‑350 ¡samples, ¡2 ¡mm ¡analysis ¡radius ¡(0.5 ¡mm ¡step) ¡
  • Single-­‑precision ¡floa@ng-­‑point ¡opera@ons ¡only ¡(sufficient ¡precision) ¡

mean(sd) ms P1 P2 P3 P4 P5 P6 P7 P8 P9 P10 Pool Native (1 thread) 21299 (6628) 9891 (2837) 6258 (1485) 15768 (4959) 4342 (1136) 10888 (3179) 10117 (2849) 5464 (1470) 8155 (2195) 11388 (3936) 10357 (5941) GPU OpenCL 219 (109) 122 (51) 88 (38) 148 (56) 61 (24) 160 (65) 151 (64) 52 (22) 109 (46) 126 (61) 124 (75) Gain 119 x (36) 98 x (34) 87 x (30) 123 x (36) 83 x (25) 81 x (24) 82 x (30) 124 x (42) 90 x (31) 106 x (29) 99 x (36) CPU OpenCL 6498 (1996) 2552 (615) 1898 (438) 4810 (1495) 1324 (331) 3280 (944) 3051 (841) 1396 (310) 2481 (649) 2935 (818) 3022 (1798) Gain 3.3 x (0.0) 3.8 x (0.4) 3.3 x (0.0) 3.3 x (0.0) 3.3 x (0.0) 3.3 x (0.0) 3.3 x (0.0) 3.9 x (0.4) 3.3 x (0.0) 3.8 x (0.4) 3.5 x (0.3)

  • F. Ammazzalorso (Uni-Marburg), T. Bednarz (CSIRO) and U. Jelen (Uni-Marburg)
  • Accepted for journal publication in IOP JPCS (upcoming)
slide-18
SLIDE 18

Modelling ¡Sudden ¡Cardiac ¡Arrest ¡

  • In ¡a ¡world ¡first, ¡doctors ¡at ¡the ¡Victor ¡Chang ¡Cardiac ¡Research ¡Ins@tute ¡have ¡used ¡the ¡

CSIRO ¡GPU ¡cluster ¡to ¡help ¡beIer ¡diagnose ¡pa@ents ¡suffering ¡from ¡a ¡heart ¡rhythm ¡

  • disease. ¡
  • This ¡life ¡threatening, ¡electrical ¡disorder ¡kills ¡around ¡12% ¡of ¡Australians ¡by ¡stopping ¡the ¡

heart ¡from ¡pumping ¡blood ¡effec@vely ¡-­‑ ¡causing ¡sudden ¡death. ¡

  • Using ¡Bragg ¡cluster ¡simulated ¡100,000s ¡beats ¡of ¡human ¡heart ¡incorpora@ng ¡realis@c ¡

structure ¡and ¡electrical ¡proper@es ¡

  • Scien@sts ¡then ¡screened ¡all ¡of ¡those ¡heart ¡beats ¡searching ¡for ¡abnormali@es. ¡ ¡
  • The ¡OpenCL ¡code ¡running ¡on ¡the ¡CSIRO ¡GPU ¡cluster ¡shortened ¡the ¡model ¡run ¡@me ¡from ¡

21 ¡years ¡to ¡10 ¡days ¡ ¡ ¡

CSIRO ¡Computa@onal ¡and ¡Simula@on ¡Sciences ¡

slide-19
SLIDE 19

Modelling ¡Sudden ¡Cardiac ¡Arrest ¡

slide-20
SLIDE 20

Porous ¡Cages ¡ Mega-­‑clusters ¡

GPU-­‑Accelerated ¡Molecular ¡Dynamics ¡

“We ¡performed ¡the ¡largest ¡self-­‑assembly ¡simula@on ¡of ¡organic ¡cages” ¡

Evans ¡et ¡al. ¡Journal ¡of ¡Physical ¡Chemistry ¡C, ¡2015, ¡DOI:101.1021/jp512944r ¡ ¡

  • ¡424,000 ¡atoms ¡
  • ¡47,000 ¡bonds ¡
  • ¡786,000 ¡angles ¡
  • ¡126,000 ¡dihedrals ¡
  • ¡2 ¡million ¡molecular ¡dynamics ¡steps ¡
  • ¡Pairwise ¡interac@ons ¡
  • ¡Long-­‑range ¡coulombic ¡interac@ons ¡
  • ¡Periodic ¡boundary ¡condi@ons ¡

Wall ¡Pme ¡reduced ¡from ¡ 100 ¡to ¡15 ¡hours ¡using ¡ GPUs ¡

slide-21
SLIDE 21

1980 1990 2000 2010 20 30 40 50 60 70

Field 1

Y ear Soil Carbon (t/ha)

  • A

Wheat−Wheat Wheat−Wheat 1980 1990 2000 2010 20 30 40 50 60 70

Field 2

Y ear Soil Carbon (t/ha)

  • B

Wheat−Fallow Wheat−Fallow 1980 1990 2000 2010 20 30 40 50 60 70

Field 3

Y ear Soil Carbon (t/ha)

  • C

Wheat−Pasture Wheat−Pasture

QuanPfying ¡Uncertainty ¡and ¡in ¡Soil ¡Carbon ¡Dynamics ¡

slide-22
SLIDE 22

QuanPfying ¡sediment ¡Loads ¡to ¡the ¡Great ¡Barrier ¡Reef ¡

slide-23
SLIDE 23

Nanopar@cle ¡assembly ¡modelling ¡

  • Mesoscale ¡par@cle ¡descrip@ons ¡(~100 ¡-­‑ ¡1000 ¡nm) ¡
  • Original ¡serial ¡code ¡had ¡performance ¡limita@ons ¡

One ¡project ¡developed ¡a ¡GPU ¡port ¡of ¡SNAP ¡

  • 3 ¡to ¡5x ¡speedup ¡over ¡original ¡code ¡
  • Limited ¡GPU ¡memory ¡was ¡restric@ng ¡the ¡number ¡of ¡par@cles ¡in ¡a ¡

simula@on ¡

A ¡follow-­‑up ¡project ¡addressed ¡the ¡simula@on ¡size ¡ limita@ons ¡

  • Op@misa@on ¡of ¡GPU ¡memory ¡layout ¡

– Enables ¡simula@ons ¡25 ¡@mes ¡larger ¡on ¡each ¡GPU ¡

  • MPI ¡used ¡to ¡distribute ¡the ¡simula@on ¡over ¡mul@ple ¡compute ¡nodes ¡

for ¡tackling ¡even ¡larger ¡problems ¡

  • GPU/GPU-­‑MPI ¡versions ¡implemented ¡by ¡Maciej ¡Golebiewski ¡

Simulated ¡Nanostructure ¡Assembly ¡(SNAP) ¡

Adding ¡Distributed ¡Parallelism ¡to ¡Support ¡Larger ¡SimulaPons ¡

slide-24
SLIDE 24

CSIRO VisLab

Goal:

  • Fluid flow
  • Interactive
  • Parallel (GPU)
  • DOME display
slide-25
SLIDE 25

DOME twisting

¡ * ¡the ¡Lance ¡Boltzmann ¡Model ¡ * ¡based ¡on ¡kinePc ¡theory ¡of ¡gases ¡ * ¡massless ¡parPcles ¡advected ¡on ¡top ¡of ¡the ¡velocity ¡field ¡ * ¡accelerated ¡with ¡OpenCL ¡

Lance ¡Boltzmann ¡Fluid ¡Flow ¡Modeling ¡

slide-26
SLIDE 26
slide-27
SLIDE 27

CSIRO’s ¡Workspace ¡Framework ¡ coordinates ¡distributed ¡execu@on ¡

  • f ¡OpenCL-­‑based ¡meshing ¡
  • pera@ons ¡

www.csiro.au/workspace ¡

GPU ¡Accelerated ¡Meshing ¡Workflow ¡

Workspace ¡UI ¡ IM&T ¡Remove ¡Viz ¡ ¡ CSIRO ¡GPU ¡Cluster ¡ Workspace ¡ Distributed ¡ Execu@on ¡ ¡

(Via ¡PBS ¡Job ¡System) ¡

OpenCL ¡GPU ¡ Accelerated ¡Workspace ¡ OperaPons ¡ Researcher ¡ VNC ¡with ¡ ¡ VirtualGL ¡ ¡

slide-28
SLIDE 28

3D ¡fluid ¡dynamics ¡par@cle ¡simula@ons ¡

  • Simula@ons ¡approaching ¡100 ¡million ¡par@cles ¡

Changed ¡to ¡per-­‑par@cle ¡volumetric ¡calcula@ons ¡ New ¡OpenCL ¡atomic ¡opera@ons ¡were ¡effec@ve ¡ ¡

  • Integer ¡based ¡atomic_max() ¡used ¡with ¡floa@ng ¡point ¡

data ¡ ¡

  • ~10x ¡faster ¡than ¡memory ¡area ¡locking ¡code ¡
  • ~5x ¡speedup ¡overall ¡

Future ¡Work ¡-­‑ ¡Should ¡be ¡scalable ¡to ¡mul@ple ¡ GPUs ¡ Implemented ¡on ¡GPUs ¡by ¡Josh ¡Bowden ¡ ¡

Surface ¡Mesh ¡GeneraPon ¡for ¡ParPcle ¡SimulaPons ¡

Improving ¡Performance ¡with ¡OpenCL ¡and ¡GPUs ¡

slide-29
SLIDE 29

AWRA ¡Requirements: ¡

  • C# ¡ ¡codebase ¡
  • AWRAkernel ¡– ¡independent ¡computa@ons ¡on ¡a ¡per ¡pixel ¡basis, ¡with ¡lots ¡
  • f ¡computa@on ¡

– Indicated ¡GPUs ¡should ¡be ¡useful ¡for ¡calcula@ons ¡

  • Required ¡max() ¡min() ¡and ¡exp()/log() ¡transcendental ¡func@ons ¡to ¡be ¡

available ¡

  • Able ¡to ¡be ¡run ¡on ¡CPU ¡for ¡Bureau ¡of ¡Meteorology ¡implementa@on ¡
  • Possibility ¡of ¡integra@on ¡with ¡R ¡research ¡code ¡base. ¡
  • OpenCL ¡meets ¡these ¡requirements ¡

¡ ¡

OpenCL ¡AWRA ¡DA ¡code ¡| ¡ ¡Josh ¡Bowden ¡

slide-30
SLIDE 30

Timing ¡-­‑ ¡Data ¡movements ¡and ¡Kernel ¡computaPon ¡ ¡

OpenCL ¡based ¡AWRA ¡DA ¡code ¡

  • AWRA ¡DA ¡kernels ¡

computa@on ¡and ¡data ¡ transfer ¡

  • Three ¡kernel ¡computa@ons ¡

required ¡per ¡@me ¡step ¡taking ¡

  • approx. ¡45% ¡of ¡original ¡@me. ¡
  • Murrumbidgee ¡catchment ¡

dataset, ¡single ¡precision. ¡

  • Original ¡C# ¡single ¡core ¡

implementa@on ¡of ¡“Kernel ¡ Computa@on” ¡takes ¡around ¡ 1.5 ¡seconds ¡using ¡W5590 ¡

  • CPU. ¡

0 ¡ 200 ¡ 400 ¡ 600 ¡ 800 ¡ 1000 ¡

AMD ¡ 6950 ¡ GPU ¡/ ¡ 3.3GHz ¡ CPU ¡ NVidia ¡ C1070 ¡ GPU ¡/ ¡ 3.3 ¡GHz ¡ CPU ¡ NVidia ¡ K20m ¡ GPU ¡/ ¡ 2GHz ¡ CPU ¡ Intel ¡ HD4400 ¡ GPU ¡/ ¡ 1.9GHz ¡ CPU ¡ CPU ¡ W5590 ¡ 4 ¡cores ¡ 3.3GHz ¡ (OpenCL ) ¡ Inflate, ¡transfer ¡and ¡compute ¡kernel ¡ 90 ¡ 160 ¡ 93 ¡ 300 ¡ 445 ¡ Kernel ¡Computa@on ¡ 24 ¡ 42 ¡ 37 ¡ 170 ¡ 364 ¡ Upload ¡Model ¡Data ¡To ¡Device ¡ ¡ 50 ¡ 90 ¡ 30 ¡ 210 ¡ 14 ¡

Pme ¡/ ¡ms ¡

slide-31
SLIDE 31

Infrastructure ¡/ ¡Sopware ¡

  • Increase ¡uptake ¡of ¡Workspace ¡and ¡Galaxy ¡
  • U@lise ¡CSIRO’s ¡supercomputers ¡and ¡Cloud ¡for ¡beIer ¡

turnaround ¡– ¡increased ¡produc@vity ¡

Outreach ¡

  • Training ¡and ¡documenta@on ¡
  • Promote ¡and ¡develop ¡culture ¡around ¡workflow ¡

management ¡and ¡data ¡provenance ¡

Project ¡Work ¡

  • Use ¡exis@ng ¡eResearch ¡Project ¡biannual ¡RFP ¡
  • Assist ¡researchers ¡to ¡build ¡high ¡quality ¡workflows ¡

Leverage ¡exisPng ¡capabiliPes ¡

  • Compute, ¡data, ¡visualisa@on, ¡CCI, ¡Bioinforma@cs ¡Core ¡
  • Partners ¡

Workflow ¡Services ¡

slide-32
SLIDE 32

CSIRO ¡CollaboraPon ¡Placorm ¡

The ¡CCP ¡has ¡been ¡successfully ¡ licensed ¡to ¡Corporate ¡ IniPaPves ¡in ¡August ¡2013 ¡

slide-33
SLIDE 33

Presenta@on ¡@tle ¡ ¡| ¡ ¡Presenter ¡name ¡ ¡| ¡ ¡Page ¡33 ¡

Pulsar ¡data ¡from ¡CSIRO's ¡ ¡ Parkes ¡telescope ¡

slide-34
SLIDE 34

Opportunity? ¡Providing ¡external ¡collaborators ¡access ¡to ¡ internaPonally ¡significant ¡ ¡science ¡data ¡+ ¡compute ¡to ¡process ¡= ¡ “Science ¡as ¡a ¡Service” ¡

PPTA-­‑HPC ¡progress ¡to ¡date ¡

DAP ¡pulsar ¡repository ¡ Compute ¡on ¡Bragg ¡Cluster ¡

slide-35
SLIDE 35

Data ¡Source: ¡SilviScan ¡3 ¡wood ¡properPes ¡analysis ¡

  • Diffractometer ¡provides ¡microfibril ¡angle, ¡fiber ¡angular ¡informa@on, ¡

crystalinity ¡and ¡cellulose ¡crystal ¡width ¡(work ¡in ¡progress). ¡

  • Data ¡requirements ¡
  • High ¡spa@al ¡resolu@on ¡imaging ¡at ¡200 ¡um ¡steps ¡
  • Can ¡collect ¡~2000-­‑8000 ¡images ¡per ¡day ¡up ¡to ¡16 ¡GB ¡uncompressed ¡
slide-36
SLIDE 36

CSIRO ¡Applica@on ¡of ¡the ¡OpenCL ¡API ¡for ¡implementa@on ¡of ¡the ¡NIPALS ¡algorithm ¡for ¡principal ¡component ¡analysis ¡of ¡large ¡data ¡

  • sets. ¡ ¡

PCA ¡of ¡larger ¡data ¡sets ¡– ¡Requires ¡mulPple ¡distributed ¡GPUs ¡

Sta@s@cal ¡methods ¡for ¡interroga@ng ¡large ¡data ¡sets ¡

  • Principal ¡component ¡analysis ¡(PCA): ¡

– Useful ¡for ¡preliminary ¡and ¡exploratory ¡data ¡analysis ¡ – Also ¡used ¡in ¡machine ¡learning, ¡outlier ¡detec@on, ¡regression ¡and ¡predic@on ¡procedures ¡

  • NIPALS: ¡An ¡itera@ve ¡method ¡for ¡finding ¡principle ¡components ¡

– Developed ¡in ¡1960’s ¡by ¡H. ¡Wold ¡ ¡

n m n c c m PCA n m , , , ,

R T P M + × ⎯ ⎯→ ⎯

slide-37
SLIDE 37

CSIRO ¡Applica@on ¡of ¡the ¡OpenCL ¡API ¡for ¡implementa@on ¡of ¡the ¡NIPALS ¡algorithm ¡for ¡principal ¡component ¡analysis ¡of ¡large ¡data ¡

  • sets. ¡ ¡

Principal ¡Component ¡Analysis ¡with ¡NIPALS ¡ using ¡GPU ¡clusters ¡ ¡

slide-38
SLIDE 38
slide-39
SLIDE 39

Instrument ¡Design ¡

Instrument design

CSIRO ¡Computa@onal ¡and ¡Simula@on ¡Sciences ¡

“We’ve ¡started ¡to ¡use ¡the ¡GPU ¡cluster ¡to ¡ speed ¡up ¡modelling ¡of ¡nuclear ¡analysers ¡ such ¡as ¡CSIRO’s ¡air ¡cargo ¡scanner. ¡ ¡ The ¡speed ¡is ¡up ¡to ¡5,000 ¡to ¡10,000 ¡@mes ¡ that ¡of ¡a ¡normal ¡desktop ¡computer ¡if ¡we ¡ use ¡most ¡of ¡the ¡cluster. ¡With ¡this ¡ performance ¡increase, ¡simula@ons ¡that ¡ normally ¡take ¡hours ¡can ¡be ¡run ¡ interac@vely ¡in ¡real-­‑@me. ¡ ¡ We ¡expect ¡this ¡interac@vity ¡to ¡ significantly ¡benefit ¡the ¡design ¡and ¡

  • p@misa@on ¡of ¡new ¡nuclear ¡

instruments.” ¡ ¡

slide-40
SLIDE 40

Future ¡of ¡HPC ¡

“The ¡exci)ng ¡part ¡is ¡that ¡MIC ¡and ¡GPU ¡foreshadow ¡what ¡will ¡be ¡on ¡ the ¡CPU ¡in ¡the ¡future. ¡The ¡work ¡that ¡scien)sts ¡are ¡pu@ng ¡in ¡now ¡ to ¡op)mize ¡codes ¡for ¡these ¡processors ¡will ¡pay ¡off. ¡It’s ¡not ¡whether ¡ you ¡should ¡adopt ¡them; ¡it’s ¡whether ¡you ¡want ¡to ¡get ¡a ¡jump ¡on ¡ the ¡future. ¡” ¡ ¡ ¡ ¡ Dan ¡Stanzione, ¡Texas ¡Advanced ¡Compu@ng ¡Center ¡(TACC) ¡funded ¡by ¡ the ¡Na@onal ¡Science ¡Founda@on ¡(NSF) ¡to ¡build ¡Stampede. ¡

CSIRO ¡Computa@onal ¡and ¡Simula@on ¡Sciences ¡

slide-41
SLIDE 41

CSS ¡& ¡ERESEARCH ¡

Thank ¡you ¡

CSIRO ¡Digital ¡ProducPvity ¡and ¡ Services ¡Flagship ¡ ¡ t ¡+61 ¡2 ¡ ¡6216 ¡7077 ¡ E ¡John.A.Taylor@csiro.au ¡ w ¡www.csiro.au ¡