I don't need that much performance and other fables from the - - PowerPoint PPT Presentation

i don t need that much performance
SMART_READER_LITE
LIVE PREVIEW

I don't need that much performance and other fables from the - - PowerPoint PPT Presentation

I don't need that much performance and other fables from the world of storage Jon Bennett Kevin Rowett Founder and CTO SVP of Violin Memory Engineering A supercomputer is a device


slide-1
SLIDE 1

I don't need that much performance

and ¡other ¡fables ¡from ¡the ¡world ¡of ¡ storage Jon Bennett Founder and CTO Violin Memory Kevin Rowett SVP of Engineering

slide-2
SLIDE 2

¡ ¡ ¡A ¡supercomputer ¡is ¡a ¡

device ¡for ¡turning ¡ compute-­‑bound ¡problems ¡ into ¡I/O-­‑bound ¡problems ¡

¡ – Ken ¡Batcher ¡

slide-3
SLIDE 3

¡ ¡ ¡ ¡What ¡is ¡a ¡supercomputer? ¡

Linpack ¡Score ¡ ¡ ¡ Cray ¡1 ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡= ¡12 ¡Mflops ¡ My ¡Phone ¡= ¡20 ¡Mflops ¡

slide-4
SLIDE 4

Feed ¡me ¡Seymour ¡

slide-5
SLIDE 5

3/14/12

No ¡no, ¡the ¡other ¡Seymour ¡

slide-6
SLIDE 6

¡ ¡ ¡ ¡ ¡ ¡ ¡Feed ¡me ¡Jon ¡

¡For ¡a ¡liOle ¡guy ¡I ¡am ¡very ¡hungry….. ¡ ¡ ¡4GB/s ¡@ ¡1 ¡Million ¡IOPs ¡please…. ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡random ¡not ¡sequenVal ¡

slide-7
SLIDE 7

3/14/12

¡4GB/s ¡& ¡500K ¡IOPs ¡looks ¡like ¡this ¡ ¡

slide-8
SLIDE 8

4GB/s ¡& ¡1M ¡IOPs ¡looks ¡like ¡this ¡ ¡

¡64 ¡-­‑-­‑ ¡256GB ¡SLC, ¡VMC2 ¡VIMMs ¡

slide-9
SLIDE 9

High ¡availability ¡memory ¡array ¡

Memory ¡Gateway ¡x2 ¡ Network ¡Interface ¡x4 ¡ Array ¡Controller ¡x2 ¡ Power ¡Controller ¡x2 ¡ VIMMs ¡x64 ¡ vRAID ¡ Controller ¡x4 ¡ Power ¡Supplies ¡x2 ¡ Fans ¡3x2 ¡

2/28/2012 ¡

slide-10
SLIDE 10

40 ¡Racks ¡ ¡ Or ¡One ¡With ¡Ten ¡Times ¡the ¡Performance? ¡

3/14/12

Best ¡the ¡industry ¡can ¡offer ¡

40 ¡racks ¡/ ¡9,600 ¡disks ¡ EMC ¡Symmetrix* ¡

*EMC ¡1 ¡million ¡IOPS ¡benchmark ¡ VMworld ¡2011 ¡

Today’s Data Center

10 ¡Million ¡IOPS ¡ 40 ¡GB/sec ¡ 1 ¡rack ¡– ¡10 ¡Violin ¡Arrays ¡

slide-11
SLIDE 11
slide-12
SLIDE 12

I don't need that much performance

and ¡other ¡fables ¡from ¡the ¡world ¡of ¡ storage Jon Bennett Founder and CTO Violin Memory Kevin Rowett SVP of Engineering

slide-13
SLIDE 13
  • Paradigm ¡Shid ¡
  • Metrics ¡
  • Performance ¡comparisons ¡ ¡
  • VXM ¡Architecture ¡
  • vRAID ¡
  • Flash ¡realiVes ¡
  • Comments ¡

Outline ¡

slide-14
SLIDE 14

– Management ¡APIs ¡ – ApplicaVon ¡Plugins ¡ – Snapshots ¡ – Clones ¡ – ReplicaVon ¡ – DeduplicaVon ¡ – Backup ¡ – EncrypVon ¡ ¡ – TRIM ¡ – VAAI ¡ – VSA ¡ – Thin ¡Provisioning ¡ – MigraVon ¡ – Live ¡Maintenance ¡ – Non-­‑disrupVve ¡Upgrades ¡ – Space ¡Heater ¡ – Air ¡Ship ¡Ballast ¡ – Etc ¡ ¡

The ¡Woes ¡of ¡RevoluVonary ¡Technology ¡

Hard ¡to ¡displace ¡a ¡mature ¡incumbent ¡technology ¡

slide-15
SLIDE 15

All ¡those ¡features………….. ¡

slide-16
SLIDE 16

Paradigm ¡Shid ¡

slide-17
SLIDE 17

¡In ¡the ¡enterprise ¡disk ¡is ¡dead. ¡

2/28/2012 ¡

slide-18
SLIDE 18

$/GB ¡the ¡wrong ¡metric ¡

. ¡

  • hOp://silvertonconsulVng.com/blog/2012/01/19/latest-­‑spc-­‑1-­‑results-­‑iops-­‑vs-­‑drive-­‑counts-­‑chart-­‑of-­‑the-­‑month/ ¡ ¡
slide-19
SLIDE 19

Challenge

  • Classroom training with 700 workstations
  • Slow boot and application load time
  • Boot > 180 sec, load several minutes
  • Audio / video streaming jittery
  • FC SAN w/ 300 short-stroked 15K rpm HDD

Solution

  • Violin flash Memory Arrays
  • Repurpose SAN array for archive

Benefits

  • Higher end-user productivity
  • Boot time reduced to 9 sec.
  • Application load to under 30 sec
  • Smooth audio/video streaming

Violin Memory Inc. Proprietary

  • Reduced boot time from 180+ sec.

to 9 sec.

¡

  • Reduced application load time

from minutes to under 30 sec.

¡

  • Repurposed SAN for archive

Federal Customer

Using ¡the ¡wrong ¡metric ¡is ¡bad ¡

slide-20
SLIDE 20
  • Lies, ¡Damn ¡Lies ¡and ¡Benchmarks ¡

– Exploitable ¡benchmarks, ¡compression, ¡dedupe, ¡ limited ¡address ¡range, ¡too ¡much ¡sequenVal ¡access. ¡

  • New ¡Benchmarks ¡may ¡be ¡(are) ¡wrong ¡
  • The ¡best ¡benchmark ¡is ¡applicaVon ¡itself ¡

– What ¡happens ¡when ¡the ¡app ¡is ¡wrong? ¡

Metrics ¡and ¡models ¡that ¡don't ¡apply ¡

slide-21
SLIDE 21

Current ¡SPC-­‑1 ¡#2 ¡

slide-22
SLIDE 22

Latency ¡

slide-23
SLIDE 23

Latency ¡

slide-24
SLIDE 24

– Worst ¡case, ¡not ¡average ¡ – Its ¡all ¡random, ¡anything ¡trying ¡to ¡exploit ¡access ¡ paOerns ¡is ¡doomed ¡to ¡fail ¡ – Except ¡when ¡it ¡isn’t ¡

  • databases ¡

The ¡“I/O ¡Blender” ¡

slide-25
SLIDE 25

Hybrid ¡HDD/SSD ¡system ¡

slide-26
SLIDE 26

Lat…… ¡????? ¡

slide-27
SLIDE 27

Something ¡hidden ¡in ¡the ¡corner ¡

slide-28
SLIDE 28

I ¡see ¡what ¡you ¡did ¡there… ¡

slide-29
SLIDE 29

– Garbage ¡collecVon ¡ – Write ¡cliff ¡ – Have ¡to ¡update ¡the ¡meta ¡data ¡too ¡

  • this ¡maOers ¡a ¡lot ¡if ¡there ¡is ¡no ¡locality ¡of ¡access ¡

– Too ¡many ¡constraints ¡

  • Protocols ¡
  • Form ¡factors ¡
  • Power ¡(Loss) ¡
  • General ¡purpose ¡
  • Cooling ¡
  • Stand ¡Alone ¡OperaVon ¡

Just ¡use ¡SSDs ¡

slide-30
SLIDE 30

Pure ¡SSD ¡system ¡

slide-31
SLIDE 31

Latency ¡

slide-32
SLIDE 32

Nothing ¡hiding ¡this ¡Vme ¡

slide-33
SLIDE 33

VXM ¡Architecture ¡ ¡

slide-34
SLIDE 34

VXM ¡Architecture ¡ ¡

slide-35
SLIDE 35

VXM ¡Architecture ¡ ¡

VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡

VCM ¡

slide-36
SLIDE 36

VXM ¡Architecture ¡ ¡

VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡

VCM ¡ VCM ¡ VCM ¡ VCM ¡

VM ¡ VM ¡ VM ¡ VM ¡

slide-37
SLIDE 37

VXM ¡Architecture ¡ ¡

VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡

ACM ¡

VM ¡ VM ¡ VM ¡ VM ¡

VCM ¡ VCM ¡ VCM ¡ VCM ¡

slide-38
SLIDE 38

VXM ¡Architecture ¡ ¡

Management ¡ Ports ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡

ACM ¡

¡ ¡ ¡

MG ¡(DB ¡Server) ¡ HBA ¡

DB ¡Clients ¡

HBA ¡ VCM ¡ VCM ¡ VCM ¡ VCM ¡

VM ¡ VM ¡ VM ¡ VM ¡

slide-39
SLIDE 39

VXM ¡Architecture ¡ ¡

Management ¡ Ports ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡ VM ¡

ACM ¡

¡ ¡ ¡ ¡ ¡ ¡

MG ¡(DB ¡Server) ¡ HBA ¡

DB ¡Clients ¡

HBA ¡ ACM ¡

¡ ¡ ¡ ¡ ¡ ¡ ¡

MG ¡(DB ¡Server) ¡ HBA ¡

DB ¡Clients ¡

HBA ¡ VCM ¡ VCM ¡ VCM ¡ VCM ¡

VM ¡ VM ¡ VM ¡ VM ¡

Fan ¡x ¡6 ¡

Full ¡HW ¡ Redundancy ¡

PSM ¡x ¡2 ¡ PCM ¡x ¡2 ¡

slide-40
SLIDE 40

The ¡power ¡supply ¡

slide-41
SLIDE 41

vRAID ¡

So ¡how ¡does ¡it ¡work? ¡

slide-42
SLIDE 42

vRAID ¡

slide-43
SLIDE 43

How ¡can ¡it ¡keep ¡up ¡while ¡only ¡wriVng ¡one ¡column ¡at ¡a ¡Vme? ¡

slide-44
SLIDE 44

3/14/12 ¡ Violin ¡Memory ¡Inc. ¡Proprietary ¡ 44 ¡

Fusion-­‑io ¡160GB ¡SLC ¡card ¡drops ¡from ¡700 ¡MB/s ¡to ¡ 100MB/s ¡with ¡128KB ¡blocks. ¡ Ø ¡Garbage ¡collecVon ¡in ¡sodware ¡(host ¡CPU) ¡ Ø ¡Tests ¡at ¡<50% ¡usable ¡capacity. ¡ ¡ Ø ¡10K ¡IOPS ¡at ¡4K ¡block. ¡ ¡ Ø ¡MLC ¡cards ¡are ¡70% ¡worse. ¡

The ¡write ¡cliff ¡

slide-45
SLIDE 45

3/14/12 ¡ Violin ¡Memory ¡Inc. ¡Proprietary ¡ 45 ¡

RAMSAN ¡SLC ¡card ¡drops ¡from ¡700 ¡MB/s ¡to ¡240MB/s ¡ with ¡128KB ¡blocks. ¡ Ø Tests ¡at ¡<50% ¡usable ¡capacity. ¡ ¡ Ø ¡<25K ¡IOPS ¡at ¡4K ¡block. ¡ ¡

The ¡write ¡cliff ¡

slide-46
SLIDE 46

3/14/12 ¡ Violin ¡Memory, ¡Inc. ¡Proprietary: ¡Presented ¡ ¡ to ¡HP ¡ 46 ¡

slide-47
SLIDE 47
  • ­‑

200,000 ¡ 400,000 ¡ 600,000 ¡ 800,000 ¡ 1,000,000 ¡ 1,200,000 ¡ 1,400,000 ¡ 10 20 30 40 50 60 70 80 90 100

Total ¡Transactions ¡(IOPS)

% ¡Read

V-­‑6616 ¡IOPS ¡(4K)

  • vs. ¡Read/Write ¡Mix ¡
  • Max. ¡Random ¡ ¡IOPS

Sustained ¡Random ¡IOPS

Sustained ¡Random ¡IOPS ¡with ¡RAID ¡

V6000: ¡Sustained ¡IOPS ¡

3/14/12 ¡ 47 ¡

  • V6616 ¡
  • Hardware-­‑based ¡GC ¡
  • Distributed ¡operaVon ¡
  • vRAID: ¡4+1P ¡
  • Striping ¡across ¡64 ¡Modules ¡
  • ¡256GB ¡SLC ¡Modules ¡

ü 900K ¡Sustained ¡Write ¡IOPS ¡

  • PCIe ¡card ¡
  • Sodware-­‑based ¡GC ¡
  • No ¡RAID ¡across ¡modules ¡

× 10K ¡Sustained ¡Write ¡IOPS ¡

  • Disk ¡Array ¡(4 ¡racks) ¡
  • 1000 ¡15Krpm ¡HDDs ¡ ¡
  • RAID-­‑1 ¡

× 200K ¡Sustained ¡IOPS ¡

slide-48
SLIDE 48
  • ­‑

200,000 ¡ 400,000 ¡ 600,000 ¡ 800,000 ¡ 1,000,000 ¡ 1,200,000 ¡ 10 20 30 40 50 60 70 80 90 100

Total ¡Transactions ¡(IOPS)

% ¡Read

V-­‑6232 ¡IOPS ¡(4K)

  • vs. ¡Read/Write ¡Mix ¡
  • Max. ¡Random ¡ ¡IOPS

Sustained ¡Random ¡IOPS

Sustained ¡Random ¡IOPS ¡with ¡RAID ¡

3/14/12 ¡ 48 ¡

  • V6232 ¡
  • Hardware-­‑based ¡GC ¡
  • Distributed ¡operaVon ¡
  • vRAID: ¡4+1P ¡
  • Striping ¡across ¡64 ¡Modules ¡
  • ¡512GB ¡MLC ¡Modules ¡

ü 500K ¡Sustained ¡Write ¡IOPS ¡

  • PCIe ¡card ¡
  • Sodware-­‑based ¡GC ¡
  • No ¡RAID ¡across ¡modules ¡

× 10K ¡Sustained ¡Write ¡IOPS ¡

  • Disk ¡Array ¡
  • 1000 ¡15Krpm ¡HDDs ¡ ¡
  • RAID-­‑1 ¡

× 200K ¡Sustained ¡IOPS ¡

¡V6000: ¡Sustained ¡IOPS ¡(MLC) ¡

slide-49
SLIDE 49

3/14/12

SLC ¡

slide-50
SLIDE 50

3/14/12

MLC ¡

slide-51
SLIDE 51

3/14/12

945 950 955 960 965 970 1200 2400 3600 4800 6000 7200 8400 9600 10800 12000 13200 Series2

Sustained ¡random ¡write ¡ ¡ 4 ¡hour ¡test ¡(962MBps ¡+/-­‑ ¡2%) ¡

slide-52
SLIDE 52

3/14/12 ¡ Violin ¡Memory, ¡Inc. ¡ ¡ 52 ¡

Total 200 400 600 800 1000 1200 1400 10 20 30 40 50 60 70 80 90 100 Total Sum of For Pivot - average MBps # Col13: Read weight (percentage)

Read ¡% ¡

Ave ¡Bandwidth ¡vs ¡R/W ¡mix ¡

slide-53
SLIDE 53

3/14/12 ¡ Violin ¡Memory, ¡Inc. ¡ ¡ 53 ¡

MBps 200 400 600 800 1000 1200 1400 1600 5 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 100 MBps

Bandwidth ¡vs. ¡R/W ¡mix ¡ ¡

  • Random ¡workload, ¡256 ¡threads, ¡4KB ¡
  • 1 ¡hour, ¡40 ¡minute ¡(60 ¡secs ¡per ¡%) ¡
  • Performance ¡ ¡

– Over ¡1GBps ¡for ¡most ¡workload ¡mixes ¡ – Variability ¡@ ¡high ¡read ¡% ¡is ¡due ¡to ¡aggressive ¡ preventaVve ¡read-­‑disturb ¡data ¡movement ¡

Read ¡% ¡

slide-54
SLIDE 54

¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡Flash ¡wears ¡out ¡ ¡

24nm ¡MLC ¡@10K ¡accelerated ¡P/E ¡cycles ¡

Recommended ¡ ECC ¡of ¡40 ¡bits ¡@ ¡ 3K ¡P/E ¡cycles ¡

slide-55
SLIDE 55

– “SSD” ¡requirements ¡are ¡meaningless ¡in ¡the ¡ datacenter ¡ – What ¡does ¡wear ¡out ¡really ¡mean? ¡ – Who ¡cares ¡about ¡the ¡data ¡sheet? ¡ – Don’t ¡need ¡1 ¡year, ¡1 ¡month ¡or ¡even ¡1 ¡week ¡ retenVon ¡in ¡the ¡enterprise ¡ ¡ – Enterprise ¡scale ¡flash ¡doesn’t ¡wear ¡out ¡

  • But ¡PCIe ¡cards ¡used ¡for ¡swap ¡space ¡will. ¡

Flash ¡RealiVes ¡

slide-56
SLIDE 56

MLC ¡vs ¡eMLC ¡

  • Binned ¡parts ¡
  • Architecture ¡changes ¡
  • More ¡ECC ¡
  • Slower ¡P/E ¡
  • FAB ¡Experience ¡
  • Nothing ¡at ¡all ¡
slide-57
SLIDE 57

We ¡“manage” ¡the ¡SSDs ¡

slide-58
SLIDE 58

3/14/12

It ¡is ¡memory ¡not ¡disk, ¡use ¡it ¡as ¡such ¡

  • A ¡file ¡system ¡to ¡named ¡later ¡

– 30K ¡untuned ¡ ¡ – 240K ¡remove ¡disk ¡layout ¡code ¡ – 500K ¡change ¡locking ¡ – 900K ¡remove/relax ¡ordering ¡requirements ¡ – Hadoop ¡needs ¡to ¡learn ¡from ¡this ¡ ¡

slide-59
SLIDE 59

From: ¡?????????????????????????? ¡1/21/11 ¡ ¡ Ricardo ¡B ¡(ricardo.b@xxxxx.xx) ¡on ¡1/21/11 ¡wrote: ¡ > ¡ >Can ¡*anyone* ¡point ¡out ¡those ¡mythical ¡SSDs ¡ > ¡ >-­‑ ¡for ¡which ¡TRIM ¡reduces ¡performance, ¡either ¡in ¡the ¡short ¡or ¡long ¡term. ¡ ¡

  • Umm. ¡It's ¡more ¡like ¡the ¡reverse. ¡

¡ The ¡_common_ ¡case ¡is ¡that ¡trim ¡reduces ¡performance, ¡because ¡it ¡makes ¡file ¡delete ¡

  • slower. ¡

¡ Yes, ¡yes, ¡so ¡people ¡are ¡trying ¡to ¡come ¡up ¡with ¡beOer ¡ways, ¡where ¡you ¡discard ¡in ¡batches, ¡ and ¡where ¡you ¡just ¡discard ¡enVrely ¡off-­‑line. ¡As ¡menVoned, ¡my ¡personal ¡opinion ¡is ¡that ¡on-­‑ line ¡trim ¡is ¡just ¡stupid, ¡and ¡doing ¡it ¡offline ¡(when ¡the ¡system ¡is ¡quieter ¡-­‑ ¡so ¡not ¡necessarily ¡ _totally_ ¡offline, ¡but ¡basically ¡not ¡during ¡real ¡ops) ¡is ¡the ¡only ¡sane ¡approach. ¡

¡ ¡ ¡ ¡ ¡ ¡ ¡Some ¡people ¡do ¡get ¡it…. ¡

slide-60
SLIDE 60

¡ ¡ ¡ ¡ ¡ ¡But ¡dammit, ¡can ¡you ¡guys ¡shut ¡the ¡f*ck ¡up ¡already? ¡Admit ¡ that ¡you ¡were ¡wrong, ¡and ¡trim ¡isn't ¡fast, ¡and ¡isn't ¡a ¡simple ¡

  • thing. ¡Because ¡IO ¡paOerns ¡maOer, ¡and ¡without ¡ESP ¡you ¡can ¡

never ¡know ¡when ¡it's ¡a ¡good ¡idea ¡to ¡TRIM. ¡ ¡

Tell ¡us ¡how ¡you ¡really ¡feel ¡

¡ ¡ ¡ ¡99% ¡of ¡the ¡Vme, ¡you're ¡probably ¡much ¡beOer ¡just ¡reusing ¡ the ¡block ¡and ¡le|ng ¡the ¡normal ¡write ¡acVvity ¡be ¡the ¡"trim ¡ and ¡overwrite“. ¡ ¡

¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡Linus. ¡ ¡ ¡ ¡ ¡

¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡I'm ¡done ¡arguing. ¡Come ¡back ¡when ¡you ¡have ¡re-­‑acquainted ¡ yourself ¡with ¡reality. ¡As ¡it ¡is, ¡I'm ¡just ¡seeing ¡a ¡lot ¡of ¡"TRIM ¡ should ¡be ¡fast" ¡noise, ¡with ¡no ¡f*cking ¡clue. ¡ ¡

Linus ¡

slide-61
SLIDE 61

– Just ¡assume ¡you ¡are ¡doing ¡everything ¡wrong ¡ – “Incremental” ¡improvements ¡not ¡going ¡to ¡cut ¡it. ¡ – “best ¡pracVces” ¡that ¡no ¡longer ¡are. ¡ – Even ¡legal ¡issues ¡need ¡examinaVon ¡

Need ¡to ¡revisit ¡your ¡assumpVons ¡

slide-62
SLIDE 62
  • OS ¡stacks ¡
  • File ¡Systems ¡
  • Databases ¡
  • Cloud-­‑like ¡systems ¡
  • Big ¡Data ¡

¡ ¡

InteresVng ¡areas ¡

slide-63
SLIDE 63

“Will ¡no ¡one ¡rid ¡me ¡of ¡this ¡turbulent ¡protocol?” ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡-­‑ ¡Jon ¡

SCSI ¡