Comparison of Cloud Middleware Protocols and Subscrip7on - - PowerPoint PPT Presentation

comparison of cloud middleware protocols and subscrip7on
SMART_READER_LITE
LIVE PREVIEW

Comparison of Cloud Middleware Protocols and Subscrip7on - - PowerPoint PPT Presentation

Comparison of Cloud Middleware Protocols and Subscrip7on Network Topologies using CReST, the Cloud Research Simula7on Toolkit John Cartlidge & Dave Cliff


slide-1
SLIDE 1

Comparison ¡of ¡Cloud ¡Middleware ¡Protocols ¡ and ¡Subscrip7on ¡Network ¡Topologies ¡using ¡ CReST, ¡the ¡Cloud ¡Research ¡Simula7on ¡Toolkit ¡ ¡ John ¡Cartlidge ¡& ¡Dave ¡Cliff ¡ University ¡of ¡Bristol, ¡UK ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 1 ¡

slide-2
SLIDE 2

Outline ¡

  • 1. Frame ¡the ¡problem ¡with ¡a ¡real-­‑world ¡example ¡of ¡

cascading ¡middleware ¡failure ¡

  • 2. Review ¡simula7on ¡tools ¡for ¡modelling ¡cloud ¡provision ¡
  • 3. Introduce ¡and ¡situate ¡CReST ¡– ¡a ¡new ¡simula7on ¡tool ¡
  • 4. Problem: ¡Comparison ¡of ¡middleware ¡subscrip7on ¡

topologies ¡and ¡communica7on ¡protocols ¡

  • 5. Review ¡previous ¡findings ¡published ¡in ¡the ¡literature ¡
  • 6. Experiment: ¡Use ¡CReST ¡to ¡test ¡the ¡published ¡findings ¡ ¡
  • 7. Results: ¡Revision, ¡rejec7on, ¡& ¡extension ¡of ¡findings ¡
  • 8. Summary ¡& ¡Conclusion ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 2 ¡

slide-3
SLIDE 3

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 3 ¡

“The ¡three ¡truths ¡of ¡cloud ¡compu1ng ¡are: ¡ Hardware ¡fails, ¡so:ware ¡has ¡bugs, ¡and ¡ people ¡make ¡mistakes” ¡

Windows ¡Azure ¡Team, ¡2012 ¡

Laing, ¡B. ¡(2012). ¡Summary ¡of ¡Windows ¡Azure ¡service ¡disrup7on ¡on ¡Feb ¡29th, ¡2012. ¡ MSDN ¡Windows ¡Azure ¡Team ¡Blog, ¡09/03/12. ¡hep://bit.ly/AfdqyL ¡ ¡

slide-4
SLIDE 4

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 4 ¡

MicroSog ¡disabled ¡ service ¡management ¡ func7onality ¡in ¡all ¡ clusters ¡worldwide ¡for ¡ more ¡than ¡10 ¡hours ¡ A ¡subsequent ¡series ¡

  • f ¡human ¡errors ¡

meant ¡it ¡was ¡more ¡ than ¡34 ¡hours ¡ before ¡Azure ¡was ¡ running ¡at ¡full ¡ service ¡availability ¡ One ¡year ¡ cer7ficate ¡ ¡ valid-­‑to ¡ ‘29-­‑02-­‑13’ ¡ 25’ ¡7meout ¡

  • reboot. ¡ ¡

Try ¡3 ¡7mes ¡ Cost: ¡~3% ¡annual ¡revenue! ¡(Azure ¡issued ¡a ¡33% ¡refund ¡to ¡all ¡customers ¡for ¡Feb ¡2012). ¡ ¡ Solu3on: ¡A ¡consistent ¡Date ¡class! ¡

slide-5
SLIDE 5

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 5 ¡

Simula7on? ¡

slide-6
SLIDE 6

Fujitsu ¡Labs ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 6 ¡

2011, ¡Fujitsu ¡Laboratories ¡developed ¡a ¡proprietary ¡CFD ¡data ¡centre ¡simula3on ¡tool ¡ “It ¡is ¡impossible ¡to ¡directly ¡perform ¡tests…using ¡an ¡actual ¡data ¡centre. ¡A ¡promising ¡ ¡ alterna1ve ¡is ¡to ¡employ ¡computer ¡simula1ons ¡to ¡check ¡the ¡impact ¡of ¡control ¡measures” ¡ Results: ¡linking ¡together ¡the ¡control ¡of ¡servers ¡and ¡AC ¡equipment ¡may ¡cut ¡overall ¡ datacenter ¡power ¡consump7on ¡by ¡as ¡much ¡as ¡40% ¡

slide-7
SLIDE 7

CoolSim ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 7 ¡

Applied ¡Math ¡Modelling ¡Inc., ¡founded ¡2008, ¡offer ¡CoolSim, ¡a ¡CFD ¡data ¡centre ¡ simula3on ¡tool ¡with ¡a ¡SaaS ¡delivery ¡model. ¡Subscrip7ons ¡start ¡at ¡$10,000 ¡/ ¡year ¡ ¡ Use ¡cases: ¡“predict ¡cost ¡savings ¡results ¡from ¡DC ¡modifica1ons; ¡determine ¡maximum ¡IT ¡ load ¡and ¡placement ¡for ¡a ¡given ¡DC; ¡perform ¡a ¡compara1ve ¡analysis ¡of ¡cooling ¡system ¡ failure ¡models; ¡and ¡op1mise ¡the ¡design ¡of ¡a ¡new ¡or ¡exis1ng ¡DC.” ¡

slide-8
SLIDE 8

CloudSim ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 8 ¡

  • Developed ¡at ¡University ¡of ¡Melbourne ¡

– Open-­‑source ¡Java ¡library/API ¡ – Leverages ¡BRITE ¡to ¡model ¡network ¡topology ¡

  • A ¡framework ¡for ¡modelling ¡and ¡simula7on ¡of ¡cloud ¡

compu7ng ¡infrastructures ¡and ¡services ¡ ¡

– Models ¡data ¡centres ¡at ¡the ¡level ¡of ¡networking ¡and ¡ virtualisa7on ¡rather ¡than ¡at ¡the ¡physical ¡level ¡ – Has ¡been ¡used ¡in ¡at ¡least ¡8 ¡(correct ¡Dec, ¡2012) ¡academic ¡ publica7ons ¡ ¡ ¡

slide-9
SLIDE 9

SimGrid ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 9 ¡

  • First ¡released ¡in ¡1999; ¡developed ¡and ¡maintained ¡at ¡INRIA ¡

– Open-­‑source ¡C ¡library/API ¡(Java, ¡Liu ¡and ¡Ruby ¡bindings) ¡

  • Models ¡data ¡centres ¡at ¡the ¡level ¡of ¡networking ¡and ¡

virtualisa7on ¡rather ¡than ¡at ¡the ¡physical ¡level ¡

  • Designed ¡to ¡simulate ¡grid ¡environments, ¡recently ¡extended ¡

to ¡accommodate ¡cloud ¡compu7ng ¡framework ¡

– Documenta7on ¡of ¡virtual ¡machine ¡typedef ¡states: ¡“all ¡this ¡is ¡ highly ¡experimental ¡and ¡the ¡interface ¡will ¡probably ¡change” ¡

  • Used ¡in ¡119 ¡journal, ¡conference ¡and ¡PhD ¡theses ¡

– Only ¡1 ¡conference ¡paper ¡ostensibly ¡related ¡to ¡cloud ¡compu7ng ¡

slide-10
SLIDE 10

Summary ¡of ¡Cloud ¡Simula7on ¡Tools ¡

Name ¡ Type ¡ ¡ VM ¡ Network ¡ Physical ¡ GUI ¡ License ¡ Fujitsu ¡ Laboratories ¡ App ¡ No ¡ No ¡ Yes ¡ ¡ (CFD) ¡ Yes ¡

  • Prop. ¡

CoolSim ¡ AMM ¡Inc. ¡ SaaS ¡ No ¡ No ¡ Yes ¡ (CFD) ¡ Yes ¡

  • Subs. ¡

CloudSim ¡ UoMelbourne ¡ Java ¡ ¡ Lib/API ¡ Yes ¡ Yes ¡ No ¡ No ¡ Open ¡ Source ¡ SimGrid ¡ Inria ¡ C ¡ Lib/API ¡ Yes ¡ Yes ¡ No ¡ No ¡ Open ¡ Source ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 10 ¡

CReST ¡ UoBristol ¡ Java ¡ App ¡ Yes ¡ Yes ¡ ¡ Yes ¡ (Simple) ¡ Yes ¡ Open ¡ Source ¡

slide-11
SLIDE 11

CReST ¡– ¡A ¡modular ¡design ¡

  • Open-­‑source ¡applica7on ¡designed ¡for ¡research ¡and ¡teaching ¡

– hep://sourceforge.net/projects/cloudresearch ¡ – 230+ ¡downloads ¡in ¡first ¡year ¡since ¡release ¡in ¡Apr ¡2012 ¡(44% ¡in ¡India) ¡

  • Designed ¡as ¡a ¡set ¡of ¡coupled ¡modules ¡that ¡can ¡be ¡independently ¡switched ¡
  • n ¡or ¡off ¡depending ¡upon ¡the ¡level ¡of ¡abstrac7on ¡required, ¡including: ¡

– Thermal ¡– ¡Heat ¡genera7on, ¡propaga7on ¡and ¡extrac7on ¡ – Energy ¡– ¡Energy ¡used ¡by ¡hardware ¡ – Failures ¡– ¡Permanent ¡and ¡temporary ¡hardware ¡failures ¡ – Services ¡– ¡Scheduling ¡and ¡alloca7on ¡of ¡VMs ¡ – Demand ¡– ¡User ¡demand ¡and ¡market ¡supply ¡ – Subscrip3ons ¡– ¡Middleware ¡(plasorm) ¡subscrip7on ¡network ¡

  • Extensible: ¡new ¡modules ¡can ¡be ¡added ¡and ¡current ¡modules ¡extended ¡
  • Interac7on ¡between ¡modules ¡produces ¡complex ¡behaviours ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 11 ¡

slide-12
SLIDE 12

CReST ¡Module ¡Architecture ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 12 ¡

slide-13
SLIDE 13

CReST ¡Architecture ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 13 ¡

slide-14
SLIDE 14

Run ¡Simula7ons ¡in ¡Parallel ¡on ¡AWS ¡

Django/Python ¡on ¡BitNami ¡instance, ¡with ¡MySQL ¡DB, ¡using ¡boto ¡AWS ¡interface ¡ Admin ¡web ¡page: ¡Upload ¡config-­‑params ¡files, ¡launch ¡simula7ons, ¡& ¡download ¡results ¡files ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 14 ¡

slide-15
SLIDE 15

CReST ¡– ¡GUI ¡Screenshot ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 15 ¡

Aerial ¡view ¡of ¡DC ¡rack ¡layout ¡ Failed ¡servers ¡highlighted ¡in ¡red ¡ Thermal ¡view ¡of ¡DC ¡ Hoeer ¡regions ¡red, ¡colder ¡regions ¡blue ¡

slide-16
SLIDE 16

Middleware ¡subscrip7on ¡module ¡

  • Describes ¡a ¡communica7ons ¡network ¡(a ¡directed ¡graph), ¡with ¡each ¡

node ¡corresponding ¡to ¡an ¡individual ¡server ¡

– E.g., ¡MS’s ¡Autopilot, ¡used ¡for ¡Index ¡Serving ¡for ¡Windows ¡Live ¡Search ¡

  • Nodes ¡subscribe ¡to ¡other ¡nodes ¡and ¡periodically ¡query ¡for ¡status ¡
  • Middleware ¡can ¡be ¡centralised ¡or ¡distributed ¡

– Consistency ¡is ¡not ¡guaranteed ¡in ¡distributed ¡systems ¡ – Nodes ¡may ¡form ¡an ¡inconsistent ¡view ¡of ¡other ¡nodes ¡ – E.g., ¡If ¡node ¡A ¡thinks ¡node ¡B ¡is ¡working, ¡when ¡it ¡has ¡failed ¡

  • The ¡percola7on ¡of ¡inconsistencies ¡is ¡determined ¡by: ¡

– the ¡network ¡topology; ¡and ¡ ¡ – the ¡communica3ons ¡protocol ¡

  • We ¡use ¡CReST’s ¡subscrip7on ¡module ¡to ¡test ¡and ¡extend ¡some ¡

findings ¡that ¡have ¡been ¡presented ¡in ¡the ¡literature ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 16 ¡

slide-17
SLIDE 17

Central/Hierarchical ¡Protocol ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 17 ¡

1 ¡ 2 ¡ 3 ¡ 2 ¡ 1 ¡ 4 ¡ 3 ¡ 1 ¡ 4 ¡ 4 ¡ 2 ¡ 3 ¡ C ¡ 1 ¡ 2 ¡ 3 ¡ 4 ¡ 2 ¡ 2 ¡ 1 ¡ 2 ¡ 4 ¡ 2 ¡ C ¡ Node ¡C: ¡Subscrip7ons ¡Registry ¡

Node ¡1 ¡Registry ¡ Node ¡2 ¡Registry ¡ Node ¡3 ¡Registry ¡ Node ¡4 ¡Registry ¡

A ¡central ¡node ¡periodically ¡requests ¡status ¡info ¡from ¡other ¡nodes ¡in ¡the ¡network. ¡ Nodes ¡query ¡the ¡central ¡node ¡for ¡status ¡informa7on ¡of ¡other ¡nodes ¡

slide-18
SLIDE 18

P2P ¡Protocol ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 18 ¡

1 ¡ 2 ¡ 3 ¡ 2 ¡ 1 ¡ 4 ¡ 3 ¡ 1 ¡ 2 ¡ 4 ¡ 2 ¡ 3 ¡ 2 ¡ 4 ¡ 2 ¡ 1 ¡ 3 ¡ 2 ¡ 4 ¡ 2 ¡

Node ¡2 ¡Registry ¡ Node ¡1 ¡Registry ¡ Node ¡4 ¡Registry ¡ Node ¡3 ¡Registry ¡

Nodes ¡directly ¡request ¡status ¡informa7on ¡of ¡other ¡nodes ¡ ¡ they ¡are ¡subscribed ¡to ¡

slide-19
SLIDE 19

TP2P ¡protocol ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 19 ¡

1 ¡ 2 ¡ 3 ¡ 2 ¡ 1 ¡ 4 ¡ 3 ¡ 1 ¡ 2 ¡ 4 ¡ 2 ¡ 3 ¡ 2 ¡ 4 ¡ 2 ¡ 1 ¡ 3 ¡ 2 ¡ 4 ¡ 2 ¡

Node ¡2 ¡Registry ¡ Node ¡1 ¡Registry ¡ Node ¡4 ¡Registry ¡ Node ¡3 ¡Registry ¡

Nodes ¡directly ¡request ¡status ¡informa7on ¡of ¡other ¡nodes ¡ and ¡also ¡pass ¡on ¡informa7on ¡about ¡other ¡mutually ¡subscribed ¡nodes ¡

slide-20
SLIDE 20

Network ¡Topologies ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 20 ¡

Pajek

Small ¡World ¡

Pajek

Grid ¡LaUce ¡

Pajek

Scale ¡free ¡

Pajek

Nearest ¡ ¡ Neighbour ¡

Pajek

Random ¡

Pajek

Klemm-­‑Eguíluz ¡ Example ¡topologies: ¡N=30, ¡K=3 ¡

slide-21
SLIDE 21

Random ¡Network ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 21 ¡

Pajek
  • ¡nodes ¡randomly ¡connected ¡

to ¡exactly ¡K ¡other ¡nodes ¡

  • ¡small ¡clustering/transi3vity ¡

coefficient ¡(i.e., ¡very ¡few ¡ neighbours ¡of ¡a ¡node ¡are ¡ themselves ¡neighbours) ¡ ¡

  • ¡small ¡diameter ¡(i.e., ¡

average ¡path ¡length ¡between ¡ any ¡two ¡nodes ¡is ¡very ¡small) ¡

slide-22
SLIDE 22

Nearest ¡Neighbours ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 22 ¡

Pajek
  • ¡nodes ¡arranged ¡in ¡a ¡1D ¡

circular ¡array, ¡each ¡aeached ¡to ¡ K ¡nearest ¡neighbours ¡

  • ¡very ¡large ¡clustering/

transi3vity ¡ ¡

  • ¡very ¡large ¡diameter/ ¡average ¡

path ¡length ¡

slide-23
SLIDE 23

Regular ¡Grid ¡Lawce ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 23 ¡

Pajek
  • ¡nodes ¡arranged ¡on ¡a ¡toroidal ¡

grid/lawce ¡and ¡connected ¡to ¡K ¡ nearest ¡neighbours ¡

  • ¡large ¡clustering ¡coefficient ¡ ¡
  • ¡large ¡diameter ¡(but ¡smaller ¡

than ¡Nearest ¡Neighbours) ¡

slide-24
SLIDE 24

Waes-­‑Strogatz ¡ (Small ¡World) ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 24 ¡

Pajek
  • ¡nodes ¡connected ¡using ¡

Waes-­‑Strogatz ¡algorithm ¡

  • ¡large ¡clustering ¡coefficient ¡ ¡
  • ¡rela3vely ¡small ¡diameter ¡ ¡
  • ¡degree ¡distribu7on ¡sharply ¡

peaked ¡around ¡the ¡mean ¡ value, ¡K ¡

slide-25
SLIDE 25

Barabási-­‑Albert ¡ (Scale ¡Free) ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 25 ¡

Pajek
  • ¡nodes ¡connected ¡using ¡

Barabási-­‑Albert ¡algorithm ¡

  • ¡small ¡clustering ¡coefficient ¡
  • ¡small ¡diameter ¡
  • ¡distribu3on ¡of ¡the ¡node ¡

degree ¡is ¡scale-­‑free ¡(i.e., ¡it ¡ decays ¡as ¡a ¡power ¡law), ¡ producing ¡a ¡hierarchical ¡ network ¡organisa7on ¡ ¡

slide-26
SLIDE 26

Klemm-­‑Eguíluz ¡ ¡ (Scale ¡Free ¡/ ¡Small ¡World) ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 26 ¡

Pajek
  • ¡nodes ¡connected ¡using ¡

Klemm-­‑Eguíluz ¡algorithm. ¡A ¡ “mixing” ¡parameter, ¡0<μ<1, ¡ varies ¡network ¡proper7es ¡ between ¡Small ¡World ¡(μ=0) ¡ and ¡Scale ¡Free ¡(μ=1) ¡

  • ¡At ¡intermediate ¡values, ¡e.g., ¡

μ=0.15, ¡the ¡network ¡has ¡a ¡ rela7vely ¡large ¡clustering ¡ coefficient ¡and ¡small ¡ diameter, ¡while ¡maintaining ¡a ¡ scale-­‑free ¡distribu3on ¡of ¡ node ¡degrees ¡

slide-27
SLIDE 27

Findings ¡in ¡the ¡literature ¡to ¡use ¡as ¡ hypothesis ¡tests ¡

Published ¡findings ¡that ¡we ¡shall ¡test: ¡ 1. Inconsistencies ¡grow ¡with ¡DC ¡size ¡[1]; ¡ ¡ 2. Subscrip7on ¡topology ¡has ¡no ¡significant ¡effect ¡on ¡P2P ¡and ¡ hierarchical ¡protocols ¡[1]; ¡ ¡ ¡ 3. Under ¡TP2P ¡protocol, ¡there ¡is ¡a ¡direct ¡rela7on ¡between ¡network ¡ transi7vity ¡and ¡inconsistency ¡[1]; ¡ 4. Under ¡TP2P ¡protocol, ¡inconsistencies ¡fall ¡as ¡path ¡lengths ¡drop ¡[2]. ¡ ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 27 ¡

[1] ¡I. ¡Sriram ¡& ¡D. ¡Cliff ¡(2010) ¡“Effects ¡of ¡component-­‑subscrip7on ¡network ¡topology ¡

  • n ¡large-­‑scale ¡data ¡centre ¡performance ¡scaling.” ¡hep://bit.ly/10IxfEs ¡ ¡

[2] ¡I. ¡Sriram ¡& ¡D. ¡Cliff ¡(2010) ¡“Hybrid ¡complex ¡network ¡topologies ¡are ¡preferred ¡for ¡ component-­‑subscrip7on ¡in ¡large-­‑scale ¡data-­‑centres.” ¡hep://bit.ly/TA5rQU ¡

slide-28
SLIDE 28

Experimental ¡Design ¡

  • Configure ¡a ¡network. ¡Repeat ¡the ¡following: ¡

– Ini7ally ¡set ¡all ¡server ¡nodes ¡to ¡working ¡ – Ager ¡a ¡short ¡random ¡7me ¡period, ¡fail ¡a ¡subset ¡of ¡servers ¡

  • Fail ¡servers ¡randomly ¡
  • Fail ¡servers ¡correlated ¡with ¡geographic ¡loca7on ¡(e.g., ¡full ¡rack ¡failure) ¡

– Calculate ¡the ¡maximum ¡number ¡of ¡nodes ¡in ¡the ¡network ¡ that ¡become ¡inconsistent ¡ – Calculate ¡the ¡7me ¡un7l ¡the ¡network ¡becomes ¡consistent ¡ – Calculate ¡the ¡load ¡(in ¡network ¡hops) ¡to ¡become ¡consistent ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 28 ¡

slide-29
SLIDE 29

1,000 ¡nodes ¡

Test ¡1: ¡“inconsistencies ¡grow ¡with ¡DC ¡size” ¡

The ¡Effects ¡of ¡Scaling ¡(n) ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 29 ¡

  • ¡Central ¡& ¡P2P, ¡inconsistencies ¡do ¡not ¡increase ¡significantly ¡with ¡network ¡size ¡
  • ¡TP2P, ¡inconsistencies ¡only ¡increase ¡when ¡the ¡network ¡is ¡highly ¡clustered, ¡

since ¡“stale” ¡informa7on ¡is ¡more ¡likely ¡to ¡be ¡passed ¡on ¡

10,000 ¡nodes ¡

slide-30
SLIDE 30

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 30 ¡

For ¡all ¡topologies ¡and ¡protocols, ¡inconsistencies ¡increase ¡with ¡K ¡ ¡

K=10 ¡ K=30 ¡

10,000 ¡nodes, ¡random ¡failure ¡

K=100 ¡

Test ¡1: ¡“inconsistencies ¡grow ¡with ¡DC ¡size” ¡

The ¡Effects ¡of ¡Network ¡Density ¡(K) ¡

slide-31
SLIDE 31

Test ¡1: ¡“inconsistencies ¡grow ¡with ¡DC ¡size” ¡

  • Central/P2P: ¡n ¡has ¡no ¡effect ¡on ¡inconsistency ¡
  • TP2P: ¡inconsistencies ¡only ¡increase ¡with ¡n ¡when ¡the ¡

network ¡topology ¡has ¡a ¡high ¡clustering ¡coefficient ¡

  • For ¡all ¡topologies ¡and ¡protocols, ¡inconsistency ¡

increases ¡with ¡network ¡density, ¡K ¡

  • Conclusion: ¡finding ¡1 ¡is ¡incorrect ¡

– Inconsistencies ¡grow ¡with ¡subscrip7ons, ¡K, ¡not ¡DC ¡size, ¡n. ¡

  • In ¡the ¡original ¡work, ¡K=√n ¡and ¡thus ¡automa7cally ¡

scales ¡with ¡DC ¡size, ¡n. ¡ ¡

– Therefore, ¡the ¡original ¡finding ¡is ¡an ¡experimental ¡ar7fact! ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 31 ¡

slide-32
SLIDE 32

Test ¡2: ¡“Topology ¡has ¡no ¡effect ¡on ¡P2P ¡and ¡ ¡ hierarchical ¡protocols” ¡ ¡

  • Results ¡show ¡that ¡topology ¡has ¡a ¡significant ¡effect ¡
  • n ¡the ¡network ¡load ¡of ¡P2P ¡

– Load ¡decreases ¡as ¡clustering ¡and ¡average ¡path ¡length ¡ between ¡two ¡nodes ¡increases ¡ ¡

  • Conclusion: ¡ ¡finding ¡2 ¡needs ¡to ¡be ¡refined ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 32 ¡

slide-33
SLIDE 33

Test ¡3: ¡“Under ¡a ¡TP2P ¡protocol, ¡there ¡is ¡a ¡direct ¡rela1on ¡between ¡ ¡ network ¡transi1vity ¡and ¡inconsistency” ¡ ¡

  • Under ¡correlated ¡failure, ¡topologies ¡with ¡higher ¡

clustering ¡remain ¡more ¡consistent ¡

– Reason: ¡in ¡highly ¡clustered ¡networks, ¡localized ¡ failure ¡is ¡less ¡likely ¡to ¡percolate ¡the ¡network ¡ ¡

  • Conclusion: ¡finding ¡3 ¡has ¡been ¡extended ¡

– The ¡original ¡work ¡considered ¡only ¡random ¡failures ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 33 ¡

slide-34
SLIDE 34

Test ¡4: ¡“Under ¡a ¡TP2P ¡protocol, ¡inconsistency ¡falls ¡ ¡ as ¡path ¡lengths ¡drop” ¡

  • Inconsistency ¡is ¡sensi7ve ¡to ¡K ¡

– E.g., ¡TP2P: ¡when ¡n=10000 ¡& ¡K=100, ¡SF ¡networks ¡ take ¡longer ¡to ¡become ¡consistent ¡than ¡NN ¡ networks, ¡despite ¡a ¡shorter ¡average ¡path ¡length ¡

  • Conclusion: ¡ ¡finding ¡4 ¡needs ¡to ¡be ¡refined ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 34 ¡

slide-35
SLIDE 35

Summary ¡& ¡Conclusions ¡

  • We ¡have ¡introduced ¡CReST, ¡a ¡new ¡open-­‑source ¡cloud ¡simula7on ¡tool ¡ ¡
  • We ¡have ¡used ¡CReST ¡to ¡test ¡4 ¡findings ¡in ¡the ¡published ¡literature ¡

– 1 ¡was ¡rejected ¡ – 2 ¡were ¡extended ¡ – 1 ¡was ¡refined ¡ ¡

  • In ¡future, ¡we ¡hope ¡to ¡run ¡further ¡experiments ¡to ¡tease ¡out ¡the ¡

detailed ¡rela7onships ¡hinted ¡at ¡in ¡these ¡results ¡

  • Also, ¡we ¡would ¡like ¡to ¡simulate ¡more ¡real-­‑world ¡scenarios, ¡such ¡as ¡

Azure’s ¡Leap ¡Day ¡Bug ¡

  • Finally, ¡we ¡aim ¡to ¡use ¡CReST ¡in ¡different ¡problem ¡areas: ¡(brokerage ¡

models, ¡markets ¡of ¡compe7ng ¡providers, ¡market ¡based ¡alloca7on ¡of ¡ resources, ¡…) ¡

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 35 ¡

slide-36
SLIDE 36

John ¡Cartlidge, ¡CLOSER-­‑2013, ¡Aachen, ¡ Germany, ¡May ¡2013 ¡ 36 ¡

Ques7ons? ¡

Dr ¡John ¡Cartlidge, ¡Research ¡Associate, ¡ University ¡of ¡Bristol, ¡BS8 ¡1UB, ¡UK ¡ Email: ¡john@john-­‑cartlidge.co.uk ¡ Web: ¡hep://www.cs.bris.ac.uk/~cszjpc ¡