meanings of privacy in privacy enhancing technologies
play

Meanings of "Privacy" in Privacy Enhancing - PowerPoint PPT Presentation

Meanings of "Privacy" in Privacy Enhancing Technologies Claudia Diaz KU Leuven COSIC Digital IdenBty Management (DIM) November 8, 2013 Claudia


  1. Meanings ¡of ¡"Privacy" ¡in ¡Privacy ¡ Enhancing ¡Technologies ¡ Claudia ¡Diaz ¡ KU ¡Leuven ¡– ¡COSIC ¡ Digital ¡IdenBty ¡Management ¡(DIM) ¡ November ¡8, ¡2013 ¡ Claudia ¡Diaz ¡(KU ¡Leuven) ¡ 1 ¡

  2. Overview ¡ • Review ¡of ¡(three) ¡different ¡families ¡of ¡privacy ¡ technologies ¡focusing ¡on: ¡ – the ¡concept ¡of ¡“privacy” ¡they ¡embed ¡ – their ¡goals ¡ – their ¡challenges ¡and ¡limitaBons ¡ – incenBves/obstacles ¡for ¡deployment ¡ ¡ • Content ¡based ¡on ¡ongoing ¡work ¡with ¡Seda ¡Gürses ¡(NYU) ¡ on ¡Privacy ¡Research ¡Paradigms ¡in ¡CS ¡ Claudia ¡Diaz ¡(KU ¡Leuven) ¡ 2 ¡

  3. “Social ¡privacy”: ¡Privacy ¡concerns ¡ Technology ¡mediaBon ¡of ¡social ¡interacBons ¡leads ¡to ¡problems ¡in ¡the ¡immediate ¡ • social ¡context ¡of ¡the ¡user ¡ Examples: ¡ ¡ – • “My ¡parents ¡discovered ¡I’m ¡gay” ¡ • “My ¡boss ¡found ¡out ¡that ¡I ¡hate ¡him” ¡ • “My ¡friends ¡saw ¡my ¡naked ¡pictures ¡OMG!” ¡ Self-­‑presentaBon ¡and ¡idenBty ¡construcBon ¡towards ¡friends, ¡family, ¡colleagues ¡ • ParBcularly ¡relevant ¡in ¡social ¡media ¡applicaBons ¡ ¡ – Tension ¡between ¡privacy ¡and ¡publicity ¡ – Decision ¡making: ¡cogniBve ¡overload, ¡bounded ¡raBonality, ¡immediate ¡graBficaBon, ¡ • hyperbolic ¡discounBng, ¡behavioral ¡biases ¡ Who ¡ defines ¡the ¡privacy ¡problem: ¡ • Users ¡ – Claudia ¡Diaz ¡(KU ¡Leuven) ¡ 3 ¡

  4. “Social ¡privacy”: ¡Goals ¡ • Meet ¡ privacy ¡expecta/ons : ¡system ¡behaves ¡as ¡expected ¡by ¡the ¡ user: ¡ ¡ – “don’t ¡surprise ¡the ¡user!” ¡ • Make ¡ privacy ¡controls ¡ (e.g., ¡se`ngs) ¡visible ¡and ¡easy ¡to ¡use ¡ • Assist ¡users ¡in ¡privacy-­‑relevant ¡ decision ¡making : ¡ ¡ – users ¡can ¡predict ¡the ¡outcomes ¡of ¡their ¡acBons, ¡such ¡that ¡they ¡do ¡not ¡ regret ¡ their ¡acBons ¡aber ¡the ¡fact ¡ • Help ¡users ¡develop ¡appropriate ¡ privacy ¡prac/ces ¡ ¡ – e.g., ¡eBqueee: ¡use ¡“Bcc:” ¡instead ¡of ¡“Cc:” ¡when ¡sending ¡email ¡to ¡a ¡ large ¡number ¡of ¡people ¡ Claudia ¡Diaz ¡(KU ¡Leuven) ¡ 4 ¡

  5. “Social ¡privacy”: ¡Examples ¡ • Appropriate ¡defaults ¡ – “only ¡friends” ¡ • Usable ¡privacy ¡se`ngs, ¡tools ¡for ¡audience ¡segregaBon ¡ ¡ – automated ¡grouping ¡of ¡friends ¡ • Contextual ¡feedback ¡mechanisms ¡ ¡ – “how ¡others ¡see ¡my ¡profile” ¡ • Privacy ¡nudges ¡ ¡ – Bmer ¡nudge, ¡audience ¡visualizaBon ¡nudge, ¡content ¡analysis ¡ nudge ¡ Claudia ¡Diaz ¡(KU ¡Leuven) ¡ 5 ¡

  6. Social ¡privacy ¡technologies: ¡challenges ¡and ¡ limitaBons ¡ Focus ¡on ¡voliBonal ¡acBons ¡(e.g., ¡user-­‑generated ¡content) ¡ • Concerns ¡relate ¡to ¡harms ¡that ¡are ¡ direct ¡ consequences ¡of ¡user ¡acBons ¡ – Typically ¡leaving ¡out ¡implicit ¡data, ¡more ¡abstract ¡privacy ¡risks ¡ ¡ – Focus ¡on ¡the ¡front-­‑end ¡ • Making ¡abstracBon ¡of: ¡how ¡the ¡back-­‑end ¡is ¡implemented, ¡what ¡informaBon ¡is ¡disclosed ¡to ¡the ¡ – service ¡provider, ¡how ¡it ¡can ¡be ¡(stealthily) ¡used ¡by ¡the ¡provider ¡ Research ¡methodology: ¡user ¡studies ¡ ¡ • Mostly ¡conducted ¡in ¡Europe ¡and ¡North ¡America ¡ – Focus ¡on ¡the ¡“average ¡consumer” ¡ – Limited ¡by ¡users’ ¡understanding ¡and ¡percepBon ¡of ¡the ¡system ¡ – Focus ¡on ¡“privacy ¡expectaBons” ¡ • Slippery ¡slope ¡if ¡expectaBons ¡erode ¡ – • Example: ¡prisoners ¡in ¡the ¡PanopBcon ¡have ¡no ¡expectaBon ¡of ¡privacy, ¡thus, ¡the ¡system ¡design ¡perfectly ¡ meets ¡their ¡privacy ¡expectaBons ¡ Paradox ¡of ¡control ¡(affects ¡all ¡types ¡of ¡privacy ¡technologies) ¡ • IncenBves ¡for ¡deployment: ¡strong ¡ • Aligned ¡with ¡industry’s ¡interests: ¡make ¡users ¡comfortable ¡with ¡sharing ¡informaBon ¡in ¡their ¡ – systems ¡ ¡ Claudia ¡Diaz ¡(KU ¡Leuven) ¡ 6 ¡

  7. “InsBtuBonal ¡privacy”: ¡Privacy ¡concerns ¡ • Data ¡collecBon ¡without ¡user ¡awareness ¡or ¡ informed ¡consent ¡ • Use ¡ of ¡data ¡for ¡illegiBmate ¡purposes ¡ • Data ¡security: ¡ – InformaBon ¡becoming ¡public ¡(or ¡widely ¡available ¡to ¡third ¡parBes) ¡ – Safety, ¡protecBon ¡from ¡crime: ¡idenBty ¡theb, ¡stalking, ¡etc. ¡ • Data ¡correctness, ¡integrity, ¡deleBon ¡ • Who ¡ defines ¡the ¡privacy ¡problem: ¡ – LegislaBon, ¡organizaBons ¡(through ¡policies) ¡ Claudia ¡Diaz ¡(KU ¡Leuven) ¡ 7 ¡

  8. “InsBtuBonal ¡privacy”: ¡Goals ¡ • Ensure ¡compliance ¡with ¡data ¡protecBon ¡ principles: ¡ ¡ – informed ¡consent, ¡purpose ¡limitaBon, ¡data ¡ minimizaBon, ¡data ¡security ¡obligaBons, ¡subject ¡access ¡ rights ¡ • Data ¡security: ¡ ¡ – prevent ¡(or ¡miBgate ¡the ¡consequences ¡of) ¡data ¡ breaches ¡ • Auditability ¡and ¡accountability ¡ Claudia ¡Diaz ¡(KU ¡Leuven) ¡ 8 ¡

  9. “InsBtuBonal ¡privacy”: ¡Examples ¡ • appropriate ¡defaults ¡and ¡privacy ¡controls ¡ ¡ – again, ¡but ¡here ¡towards ¡organizaBons ¡instead ¡of ¡peers ¡ • tools ¡to ¡make ¡privacy ¡policies ¡easier ¡to ¡understand ¡and ¡ negoBate ¡ ¡ – P3P, ¡DNT ¡ • tools ¡help ¡organizaBons ¡define ¡and ¡enforce ¡access ¡ control ¡policies ¡ ¡ – purpose-­‑based ¡access ¡control ¡ • audiBng ¡systems ¡ • database ¡privacy ¡technologies ¡ ¡ – data ¡anonymizaBon ¡and ¡differenBal ¡privacy ¡techniques ¡ Claudia ¡Diaz ¡(KU ¡Leuven) ¡ 9 ¡

  10. InsBtuBonal ¡privacy ¡technologies: ¡challenges ¡ and ¡limitaBons ¡ Assumes ¡the ¡collecBon ¡and ¡processing ¡of ¡personal ¡informaBon ¡by ¡organizaBons ¡is ¡ • good ¡and ¡necessary ¡ ¡ The ¡organizaBon ¡is ¡(semi-­‑)trusted ¡to ¡be ¡honest, ¡competent, ¡and ¡act ¡in ¡the ¡best ¡ • interest ¡of ¡the ¡user ¡ ¡ Reliance ¡on ¡the ¡legal ¡system ¡to ¡punish ¡lack ¡of ¡compliance ¡ – No ¡(technical) ¡protecBon ¡guarantees ¡towards ¡organizaBons ¡that ¡want ¡to ¡violate ¡user ¡privacy ¡ – by ¡stealthily ¡abusing ¡the ¡data ¡that ¡they ¡hold ¡ Focus ¡on ¡limiBng ¡(mis)use ¡of ¡personal ¡data, ¡rather ¡than ¡collecBon ¡ • In ¡spite ¡of ¡data ¡minimizaBon ¡principles ¡in ¡data ¡protecBon, ¡it ¡is ¡easy ¡to ¡jusBfy ¡mass ¡collecBon ¡ – and/or ¡obtain ¡consent ¡for ¡it: ¡does ¡not ¡preempt ¡the ¡creaBon ¡of ¡large ¡databases ¡ AudiBng ¡and ¡legal ¡compliance ¡mechanisms ¡may ¡result ¡in ¡more ¡data ¡being ¡recorded ¡ – Who ¡has ¡the ¡power ¡to ¡define ¡and ¡enforce ¡the ¡policies ¡on ¡data ¡use? ¡ • Do ¡whatever ¡we ¡wanted ¡to ¡do ¡with ¡the ¡data ¡while ¡being ¡compliant ¡ – Focus ¡on ¡“personal ¡data” ¡ ¡ • Does ¡not ¡address ¡inferences ¡from ¡anonymized ¡or ¡aggregated ¡data ¡(discriminaBon ¡concerns) ¡ – Limits ¡on ¡transparency ¡posed ¡by ¡IP ¡(proprietary ¡sobware, ¡algorithms, ¡databases) ¡ • IncenBves ¡for ¡deployment: ¡strong ¡ • Legal ¡compliance ¡is ¡a ¡very ¡strong ¡driver ¡ ¡ – Claudia ¡Diaz ¡(KU ¡Leuven) ¡ 10 ¡

Download Presentation
Download Policy: The content available on the website is offered to you 'AS IS' for your personal information and use only. It cannot be commercialized, licensed, or distributed on other websites without prior consent from the author. To download a presentation, simply click this link. If you encounter any difficulties during the download process, it's possible that the publisher has removed the file from their server.

Recommend


More recommend