Op#mizing u#lity: Postprocessing to ensure constraints - - PowerPoint PPT Presentation

op mizing u lity
SMART_READER_LITE
LIVE PREVIEW

Op#mizing u#lity: Postprocessing to ensure constraints - - PowerPoint PPT Presentation

Op#mizing u#lity: Postprocessing to ensure constraints CompSci 590.03 Instructor: Ashwin Machanavajjhala Lecture 13: 590.03 Fall 13 1 Recap: Differen#al


slide-1
SLIDE 1

Op#mizing ¡u#lity: ¡ ¡ Postprocessing ¡to ¡ensure ¡constraints ¡

CompSci ¡590.03 ¡ Instructor: ¡Ashwin ¡Machanavajjhala ¡

1 ¡ Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡

slide-2
SLIDE 2

Recap: ¡Differen#al ¡Privacy ¡

An ¡algorithm ¡A ¡satis.ies ¡ε-­‑differential ¡privacy ¡if: ¡ ¡ ¡ ¡For ¡every ¡pa every ¡pair ¡ ir ¡of ¡neighboring ¡tables ¡D1, ¡D2(differ ¡in ¡one ¡individual) ¡ ¡ ¡For ¡every ¡out every ¡output put ¡ ¡O

Pr[A(D1) ¡= ¡O] ¡≤ ¡eε ¡Pr[A(D2) ¡= ¡O]

Neighboring ¡tables ¡differ ¡in: ¡

  • Presence ¡or ¡absence ¡of ¡a ¡tuple ¡– ¡ ¡D2 ¡= ¡D1 ¡– ¡{t}
  • Value ¡of ¡a ¡tuple ¡– ¡ ¡D1 ¡= ¡D ¡U ¡{x} ¡and ¡D2 ¡= ¡D ¡U ¡{y}

Lecture ¡12 ¡: ¡590.03 ¡Fall ¡13 ¡ 2 ¡

slide-3
SLIDE 3

Recap: ¡Laplace ¡Mechanism ¡

Thm: ¡If ¡sensi(vity ¡of ¡the ¡query ¡is ¡S, ¡then ¡the ¡following ¡guarantees ¡ε-­‑ differen#al ¡privacy. ¡ ¡

λ ¡= ¡S/ε ¡

Sensi(vity: ¡Smallest ¡number ¡s.t. ¡for ¡any ¡d, ¡d’ ¡differing ¡in ¡one ¡entry, ¡ ¡ || ¡q(d) ¡– ¡q(d’) ¡|| ¡ ¡≤ ¡ ¡S(q) ¡ ¡ ¡ Histogram ¡query: ¡Sensi#vity ¡= ¡2 ¡

  • Variance ¡/ ¡error ¡on ¡each ¡entry ¡= ¡2x4/ε2 ¡= ¡ ¡O(1/ε2) ¡

3 ¡ Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡

slide-4
SLIDE 4

Next ¡2 ¡classes ¡

  • How ¡to ¡answer ¡a ¡workload ¡of ¡queries ¡with ¡the ¡least ¡error? ¡ ¡

Two ¡Approaches: ¡ ¡

  • Constrained ¡inference: ¡ ¡

– Ensure ¡the ¡query ¡answers ¡are ¡consistent ¡with ¡each ¡other ¡ ¡ – Order ¡constraints ¡ – Sum ¡constraints ¡

Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 4 ¡

slide-5
SLIDE 5

Example ¡1: ¡Enforcing ¡Constraints ¡

  • Database ¡of ¡values ¡{x1, ¡x2, ¡…, ¡xk} ¡
  • Query ¡Set: ¡ ¡

– Value ¡of ¡x1 ¡ ¡η1 ¡= ¡x1 ¡+ ¡δ1 ¡ – Value ¡of ¡x2 ¡η2 ¡= ¡x2 ¡+ ¡δ2 ¡ – Value ¡of ¡x1 ¡+ ¡x2 ¡η3 ¡= ¡x1 ¡+ ¡x2 ¡+ ¡δ3 ¡

  • But ¡we ¡know ¡that ¡ ¡
  • ­‑ ¡ ¡η1 ¡and ¡η2 ¡should ¡sum ¡up ¡to ¡η3 ¡
  • ­‑ ¡ ¡η1 ¡<= ¡η3 ¡ ¡ ¡AND ¡ ¡ ¡η2 ¡<= ¡η3 ¡

¡

Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 5 ¡

slide-6
SLIDE 6

Next ¡2 ¡classes ¡

  • How ¡to ¡answer ¡a ¡workload ¡of ¡queries ¡with ¡the ¡least ¡error? ¡ ¡
  • Constrained ¡inference: ¡ ¡

– Ensure ¡the ¡query ¡answers ¡are ¡consistent ¡with ¡each ¡other ¡ ¡ – Order ¡constraints ¡ – Sum ¡constraints ¡

Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 6 ¡

slide-7
SLIDE 7

Example ¡2: ¡Query ¡Strategy ¡

  • Query ¡Set: ¡ ¡

– Value ¡of ¡x1 ¡ ¡ ¡ – Value ¡of ¡x2 ¡ ¡ – Value ¡of ¡x1 ¡+ ¡x2 ¡ ¡

  • Strategy ¡1: ¡Answer ¡all ¡queries ¡ ¡

– Sensi#vity ¡= ¡2; ¡Error ¡in ¡each ¡query ¡is ¡8/ε2. ¡

  • Strategy ¡2: ¡Answer ¡query ¡1 ¡and ¡query ¡2. ¡ ¡

¡ ¡Query ¡3 ¡= ¡query ¡1 ¡+ ¡query ¡2 ¡

– Sensi#vity ¡= ¡1 ¡ – Error ¡in ¡query ¡1 ¡and ¡query ¡2: ¡2/ε2. ¡ – Error ¡in ¡query ¡3: ¡4/ε2. ¡

Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 7 ¡

slide-8
SLIDE 8

Next ¡2 ¡classes ¡

  • How ¡to ¡answer ¡a ¡workload ¡of ¡queries ¡with ¡the ¡least ¡error? ¡ ¡
  • Constrained ¡inference: ¡ ¡

– Ensure ¡the ¡query ¡answers ¡are ¡consistent ¡with ¡each ¡other ¡ ¡ – Order ¡constraints ¡ – Sum ¡constraints ¡

  • Query ¡Strategy: ¡

– A ¡workload ¡W ¡may ¡be ¡best ¡answered ¡by ¡answering ¡a ¡different ¡query ¡set ¡A, ¡ and ¡then ¡compu#ng ¡W ¡from ¡A ¡ – Hierarchical, ¡Wavelet ¡and ¡Matrix ¡Mechanism ¡for ¡linear ¡queries. ¡

Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 8 ¡

slide-9
SLIDE 9

Next ¡2 ¡classes ¡

  • How ¡to ¡answer ¡a ¡workload ¡of ¡queries ¡with ¡the ¡least ¡error? ¡ ¡
  • Constrained ¡inference: ¡ ¡

– Ensure ¡the ¡query ¡answers ¡are ¡consistent ¡with ¡each ¡other ¡ ¡ – Order ¡constraints ¡ – Sum ¡constraints ¡

  • Query ¡Strategy: ¡

– A ¡workload ¡W ¡may ¡be ¡best ¡answered ¡by ¡answering ¡a ¡different ¡query ¡set ¡A, ¡ and ¡then ¡compu#ng ¡W ¡from ¡A ¡ – Hierarchical, ¡Wavelet ¡and ¡Matrix ¡Mechanism ¡for ¡linear ¡queries. ¡

Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 9 ¡

slide-10
SLIDE 10

Constrained ¡Inference ¡

Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 10 ¡

slide-11
SLIDE 11

Constrained ¡Inference ¡

  • Let ¡x1 ¡and ¡x2 ¡be ¡the ¡original ¡values. ¡We ¡observe ¡noisy ¡values ¡η1, ¡

η2 ¡and ¡η3 ¡

  • We ¡would ¡like ¡to ¡reconstruct ¡the ¡best ¡es#mators ¡y1 ¡(for ¡x1) ¡and ¡

y2 ¡(for ¡x2) ¡from ¡the ¡noisy ¡values. ¡ ¡

  • That ¡is, ¡we ¡want ¡to ¡find ¡the ¡values ¡of ¡y1, ¡y2 ¡such ¡that: ¡ ¡

¡ ¡ min ¡(y1-­‑η1)2 ¡ ¡+ ¡ ¡(y2 ¡– ¡η2)2 ¡+ ¡(y3 ¡– ¡η3)2 ¡ s.t., ¡y1 ¡+ ¡y2 ¡= ¡y3 ¡

Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 11 ¡

slide-12
SLIDE 12

Constrained ¡Inference ¡[Hay ¡et ¡al ¡VLDB ¡10] ¡

Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 12 ¡

slide-13
SLIDE 13

Case ¡1: ¡Sorted ¡Histograms ¡

  • Sorted ¡Unatributed ¡Histograms ¡

– Counts ¡of ¡values ¡in ¡the ¡domain ¡(Without ¡releasing ¡which ¡count ¡ corresponds ¡to ¡which ¡value) ¡

  • Degree ¡sequence: ¡List ¡of ¡node ¡degrees ¡ ¡

– (without ¡associa#ng ¡a ¡degree ¡to ¡a ¡par#cular ¡node) ¡ ¡

  • Cumula#ve ¡Histograms ¡

– CDF ¡if ¡the ¡counts ¡add ¡up ¡to ¡1 ¡ ¡

  • Constraint: ¡The ¡values ¡are ¡sorted ¡

¡

Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 13 ¡

slide-14
SLIDE 14

Sorted ¡Unatributed ¡Histograms ¡

Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 14 ¡

slide-15
SLIDE 15

Isotonic ¡Regression ¡

Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 15 ¡

slide-16
SLIDE 16

DP ¡Algorithm ¡

¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡

Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 16 ¡

¡

¡

¡

slide-17
SLIDE 17

Sorted ¡Unatributed ¡Histograms ¡

  • ¡n: ¡number ¡of ¡values ¡in ¡the ¡histogram ¡
  • ¡d: ¡number ¡of ¡dis#nct ¡values ¡in ¡the ¡histogram ¡
  • ¡ni: ¡number ¡of ¡#mes ¡ith ¡dis#nct ¡value ¡appears ¡in ¡the ¡histogram. ¡ ¡

Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 17 ¡

slide-18
SLIDE 18

Case ¡2: ¡Linear ¡Dependency ¡Constraints ¡

  • Queries ¡may ¡be ¡linearly ¡dependent ¡

Examples ¡

  • k-­‑gram ¡counts ¡in ¡sequen#al ¡data ¡

Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 18 ¡

slide-19
SLIDE 19

Sequen#al ¡Data ¡

  • Suppose ¡you ¡have ¡data ¡where ¡each ¡tuple ¡is ¡a ¡sequence ¡from ¡an ¡

alphabet ¡Σ ¡

– Loca#on ¡trajectory ¡(Σ ¡is ¡a ¡set ¡of ¡loca#ons) ¡ – Text ¡or ¡search ¡logs ¡(Σ ¡is ¡a ¡set ¡of ¡words) ¡ – Browsing ¡history ¡(Σ ¡is ¡a ¡set ¡of ¡web ¡pages) ¡ ¡ – … ¡

  • Want ¡to ¡learn ¡a ¡predic#ve ¡model ¡for ¡the ¡next ¡value ¡given ¡the ¡last ¡

k ¡values ¡(semi-­‑Markov ¡Model) ¡

Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 19 ¡

slide-20
SLIDE 20

K-­‑Gram ¡model ¡

  • Given ¡data ¡about ¡sequences, ¡ ¡
  • K-­‑gram ¡is ¡a ¡sequence ¡of ¡K ¡symbols ¡x ¡= ¡(a1, ¡a2, ¡…, ¡ak) ¡from ¡the ¡

alphabet ¡

  • Denote ¡by ¡c(x) ¡as ¡the ¡number ¡of ¡#mes ¡the ¡k-­‑gram ¡occurs ¡

Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 20 ¡

slide-21
SLIDE 21

Private ¡Predic#on ¡Model ¡

  • Compute ¡all ¡the ¡k-­‑gram ¡counts ¡and ¡(k+1)-­‑gram ¡counts ¡
  • Add ¡noise ¡to ¡all ¡these ¡counts ¡ ¡

– What ¡is ¡the ¡sensi#vity? ¡ ¡

  • Build ¡the ¡semi-­‑Markov ¡model ¡using ¡the ¡noisy ¡counts ¡
  • Problem? ¡ ¡

Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 21 ¡

slide-22
SLIDE 22

Noisy ¡(k+1)-­‑gram ¡counts ¡don’t ¡sum ¡up ¡to ¡ ¡k-­‑gram ¡counts ¡

  • Prefix ¡consistency ¡

– Needed ¡to ¡compute ¡the ¡ ¡ probabili#es. ¡ ¡

¡

  • Suffix ¡consistency ¡

Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 22 ¡

slide-23
SLIDE 23

Case ¡2: ¡Linear ¡Dependency ¡Constraints ¡

  • Queries ¡may ¡be ¡linearly ¡dependent ¡

Examples ¡

  • k-­‑gram ¡counts ¡in ¡sequen#al ¡data ¡
  • Range ¡Queries ¡(next ¡class) ¡and ¡other ¡hierarchical ¡index ¡structures ¡

Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 23 ¡

slide-24
SLIDE 24

Handling ¡linear ¡dependency ¡constraints ¡ ¡

  • n ¡a ¡tree ¡
  • Consider ¡a ¡set ¡of ¡counts ¡on ¡a ¡tree ¡such ¡that ¡count ¡at ¡a ¡parent ¡

must ¡equal ¡the ¡sum ¡of ¡the ¡counts ¡of ¡its ¡children ¡

– Example: ¡prefix ¡consistency ¡for ¡k-­‑grams. ¡ ¡

  • Given ¡noisy ¡counts ¡at ¡each ¡node ¡in ¡the ¡tree ¡we ¡want ¡a ¡new ¡set ¡of ¡

counts ¡such ¡that: ¡ ¡

Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 24 ¡

slide-25
SLIDE 25

Constrained ¡Inference ¡

  • 2 ¡Pass ¡linear ¡#me ¡algorithm: ¡ ¡
  • Pass ¡1: ¡(Botom ¡Up, ¡k ¡= ¡0 ¡for ¡leaf, ¡height ¡for ¡root) ¡

¡

  • Pass ¡2: ¡(Top ¡down) ¡ ¡

Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 25 ¡

[Hay ¡et ¡al ¡VLDB ¡2010] ¡

slide-26
SLIDE 26

Constrained ¡Inference ¡for ¡hierarchical ¡ counts ¡

  • Resul#ng ¡consistent ¡counts ¡ ¡

– Have ¡lower ¡error ¡than ¡noisy ¡counts ¡(upto ¡10 ¡#mes ¡smaller ¡in ¡some ¡cases) ¡ – Unbiased ¡es#mators ¡ ¡ – Have ¡the ¡least ¡error ¡amongst ¡all ¡unbiased ¡es#mators ¡ ¡

Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 26 ¡

slide-27
SLIDE 27

Summary ¡of ¡constrained ¡inference ¡

  • Complex ¡algorithm ¡for ¡differen#al ¡privacy ¡may ¡require ¡answering ¡

a ¡set ¡of ¡queries ¡privately ¡

  • Answers ¡to ¡a ¡set ¡of ¡queries ¡may ¡exhibit ¡constraints ¡and ¡

correla#ons ¡

– Note ¡the ¡constraints ¡are ¡on ¡the ¡queries ¡and ¡are ¡not ¡the ¡input ¡database ¡

  • We ¡can ¡use ¡postprocessing ¡to ¡ensure ¡the ¡resul#ng ¡counts ¡sa#sfy ¡

the ¡constraints ¡(and ¡in ¡some ¡cases ¡reduce ¡noise) ¡

– Postprocessing ¡=> ¡no ¡impact ¡on ¡privacy ¡

Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 27 ¡

slide-28
SLIDE 28

Next ¡class ¡

  • How ¡to ¡answer ¡a ¡workload ¡of ¡queries ¡with ¡the ¡least ¡error? ¡ ¡
  • Constrained ¡inference: ¡ ¡

– Ensure ¡the ¡query ¡answers ¡are ¡consistent ¡with ¡each ¡other ¡ ¡ – Order ¡constraints ¡ – Sum ¡constraints ¡

  • Query ¡Strategy: ¡

– A ¡workload ¡W ¡may ¡be ¡best ¡answered ¡by ¡answering ¡a ¡different ¡query ¡set ¡A, ¡ and ¡then ¡compu#ng ¡W ¡from ¡A ¡ – Hierarchical, ¡Wavelet ¡and ¡Matrix ¡Mechanism ¡for ¡linear ¡queries. ¡

Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 28 ¡