network economics lecture 4 incen5ves and games in
play

Network Economics -- Lecture 4: Incen5ves and games - PowerPoint PPT Presentation

Network Economics -- Lecture 4: Incen5ves and games in security Patrick Loiseau EURECOM Fall 2015 1 References J. Walrand. Economics


  1. Network ¡Economics ¡ -­‑-­‑ ¡ Lecture ¡4: ¡Incen5ves ¡and ¡games ¡in ¡ security ¡ Patrick ¡Loiseau ¡ EURECOM ¡ Fall ¡2015 ¡ 1 ¡

  2. References ¡ • J. ¡Walrand. ¡“Economics ¡Models ¡of ¡Communica5on ¡ Networks”, ¡in ¡Performance ¡Modeling ¡and ¡Engineering, ¡ Zhen ¡Liu, ¡Cathy ¡H. ¡Xia ¡(Eds), ¡Springer ¡2008. ¡(Tutorial ¡ given ¡at ¡SIGMETRICS ¡2008). ¡ ¡ – Available ¡online: ¡ h[p://robo5cs.eecs.berkeley.edu/~wlr/Papers/ EconomicModels_Sigmetrics.pdf ¡ • N. ¡Nisam, ¡T. ¡Roughgarden, ¡E. ¡Tardos ¡and ¡V. ¡Vazirani ¡ (Eds). ¡“Algorithmic ¡Game ¡Theory”, ¡CUP ¡2007. ¡Chapter ¡ 17, ¡18, ¡19, ¡etc. ¡ ¡ – Available ¡online: ¡ h[p://www.cambridge.org/journals/nisan/downloads/ Nisan_Non-­‑printable.pdf ¡ ¡ 2 ¡

  3. Outline ¡ 1. Interdependence: ¡investment ¡and ¡free ¡riding ¡ 2. Informa5on ¡asymmetry ¡ 3. A[acker ¡ versus ¡defender ¡games ¡ – Classifica5on ¡games ¡ 3 ¡

  4. Outline ¡ 1. Interdependence: ¡investment ¡and ¡free ¡riding ¡ 2. Informa5on ¡asymmetry ¡ 3. A[acker ¡ versus ¡defender ¡games ¡ – Classifica5on ¡games ¡ 4 ¡

  5. Incen5ve ¡issues ¡in ¡security ¡ • Plenty ¡of ¡security ¡solu5ons… ¡ – Cryptographic ¡tools ¡ – Key ¡distribu5on ¡mechanisms ¡ – etc. ¡ ¡ • …useless ¡if ¡users ¡do ¡not ¡install ¡them ¡ • Examples: ¡ – Soiware ¡not ¡patched ¡ – Private ¡data ¡not ¡encrypted ¡ ¡ • Ac5ons ¡of ¡a ¡user ¡affects ¡others! ¡ à ¡game ¡ 5 ¡

  6. A ¡model ¡of ¡investment ¡ • Jiang, ¡Anantharam ¡and ¡Walrand, ¡“How ¡bad ¡are ¡ selfish ¡investments ¡in ¡network ¡security”, ¡IEEE/ ACM ¡ToN ¡2011 ¡ • Set ¡of ¡users ¡N ¡= ¡{1, ¡…, ¡n} ¡ • User ¡i ¡invests ¡x i ¡≥ ¡0 ¡in ¡security ¡ • U5lity: ¡ ¡ # & ∑ % ( u i ( x ) = u 0 − d i ( x ) where d i ( x ) = g i α ji x j ( + x i % $ ' j • Assump5ons: ¡ ¡ 6 ¡

  7. Free-­‑riding ¡ • Posi5ve ¡externality ¡ à ¡we ¡expect ¡free-­‑riding ¡ • Nash ¡equilibrium ¡x NE ¡ • Social ¡op5mum ¡x SO ¡ ∑ d i ( x NE ) • We ¡look ¡at ¡the ¡ra5o: ¡ ¡ i ρ = ∑ d i ( x SO ) i • Characterizes ¡the ¡‘price ¡of ¡anarchy’ ¡ 7 ¡

  8. Remarks ¡ • Interdependence ¡of ¡security ¡investments ¡ • Examples: ¡ ¡ – DoS ¡a[acks ¡ – Virus ¡infec5on ¡ • Asymmetry ¡of ¡investment ¡importance ¡ – Simpler ¡model ¡in ¡Varian, ¡“System ¡reliability ¡and ¡free ¡ riding”, ¡in ¡Economics ¡of ¡Informa5on ¡Security, ¡2004 ¡ 8 ¡

  9. Price ¡of ¡anarchy ¡ • Theorem: ¡ ¡ $ ( & & β ji = α ji ∑ ρ ≤ max j 1 + where β ji % ) α ii & & ' * i ≠ j ¡ ¡ ¡ ¡and ¡the ¡bound ¡is ¡5ght ¡ ¡ 9 ¡

  10. Comments ¡ • There ¡exist ¡pure ¡strategy ¡NE ¡ • ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡is ¡player ¡j’s ¡importance ¡to ¡the ¡ ∑ ∑ 1 + β ji = β ji i ≠ j i society ¡ • PoA ¡bounded ¡by ¡the ¡player ¡having ¡the ¡most ¡ importance ¡on ¡society, ¡regardless ¡of ¡g i (.) ¡ 10 ¡

  11. Examples ¡ 11 ¡

  12. Bound ¡5ghtness ¡ ¡ 12 ¡

  13. Investment ¡costs ¡ • Modify ¡the ¡u5lity ¡to ¡ ¡ # & ∑ u i ( x ) = u 0 − d i ( x ) where d i ( x ) = g i % α ji x j ( + c i x i ( % $ ' j • The ¡result ¡becomes ¡ $ ( & & β ji = α ji c i ∑ ρ ≤ max j 1 + where β ji % ) c j α ii & & ' * i ≠ j 13 ¡

  14. Outline ¡ 1. Interdependence: ¡investment ¡and ¡free ¡riding ¡ 2. Informa5on ¡asymmetry ¡ 3. A[acker ¡ versus ¡defender ¡games ¡ – Classifica5on ¡games ¡ 14 ¡

  15. Informa5on ¡asymmetry ¡ • Hidden ¡ac5ons ¡ – See ¡previous ¡lecture ¡ • Hidden ¡informa5on ¡ – Market ¡for ¡lemons ¡ – Example: ¡soiware ¡security ¡ 15 ¡

  16. Market ¡for ¡lemons ¡ • Akerlof, ¡1970 ¡ – Nobel ¡prize ¡in ¡2001 ¡ • 100 ¡car ¡sellers ¡ – 50 ¡have ¡bad ¡cars ¡(lemons), ¡willing ¡to ¡sell ¡at ¡$1k ¡ – 50 ¡have ¡good ¡cars, ¡willing ¡to ¡sell ¡at ¡$2k ¡ – Each ¡knows ¡its ¡car ¡quality ¡ • 100 ¡car ¡buyers ¡ – Willing ¡to ¡buy ¡bad ¡cars ¡for ¡$1.2k ¡ – Willing ¡to ¡buy ¡good ¡cars ¡for ¡$2.4k ¡ – Cannot ¡observe ¡the ¡car ¡quality ¡ 16 ¡

  17. Market ¡for ¡lemons ¡(2) ¡ • What ¡happens? ¡What ¡is ¡the ¡clearing ¡price? ¡ • ¡Buyer ¡only ¡knows ¡average ¡quality ¡ – Willing ¡to ¡pay ¡$1.8k ¡ • But ¡at ¡that ¡price, ¡no ¡good ¡car ¡seller ¡sells ¡ • Therefore, ¡buyer ¡knows ¡he ¡will ¡buy ¡a ¡lemon ¡ – Pay ¡max ¡$1.2k ¡ • No ¡good ¡car ¡is ¡sold ¡ 17 ¡

  18. Market ¡for ¡lemon ¡(3) ¡ • This ¡is ¡a ¡market ¡failure ¡ – Created ¡by ¡externali5es: ¡bad ¡car ¡sellers ¡imposes ¡ an ¡externality ¡on ¡good ¡car ¡sellers ¡buy ¡decreasing ¡ the ¡average ¡quality ¡of ¡cars ¡on ¡the ¡market ¡ • Soiware ¡security: ¡ ¡ – Vendor ¡can ¡know ¡the ¡security ¡ – Buyers ¡have ¡no ¡reason ¡to ¡trust ¡them ¡ • So ¡they ¡won’t ¡pay ¡a ¡premium ¡ ¡ • Insurance ¡for ¡older ¡people ¡ 18 ¡

  19. Outline ¡ 1. Interdependence: ¡investment ¡and ¡free ¡riding ¡ 2. Informa5on ¡asymmetry ¡ 3. A[acker ¡ versus ¡defender ¡games ¡ – Classifica5on ¡games ¡ 19 ¡

  20. Network ¡security ¡ [Symantec ¡2011] ¡ • Security ¡threats ¡increase ¡due ¡to ¡technology ¡evolu5on ¡ ¡ – Mobile ¡devices, ¡social ¡networks, ¡virtualiza5on ¡ • Cybera[acks ¡is ¡the ¡first ¡risk ¡of ¡businesses ¡ – 71% ¡had ¡at ¡least ¡one ¡in ¡the ¡last ¡year ¡ • Top ¡3 ¡losses ¡due ¡to ¡cybera[acks ¡ – Down5me, ¡employee ¡iden5ty ¡thei, ¡thei ¡of ¡intellectual ¡ property ¡ • Losses ¡are ¡substan5al ¡ – 20% ¡of ¡businesses ¡lost ¡> ¡$195k ¡ à Tendency ¡to ¡start ¡using ¡analy5cal ¡models ¡to ¡op5mize ¡ response ¡to ¡security ¡threats ¡ à Use ¡of ¡machine ¡learning ¡(classifica5on) ¡ 20 ¡

  21. Learning with strategic agents: from adversarial learning to game-theoretic statistics Patrick Patrick Loiseau Loiseau, EURECOM (Sophia- , EURECOM (Sophia-Antipolis Antipolis) ) Graduate Summer School: Games and Contracts for Cyber-Physical Security Graduate Summer School: Games and Contracts for Cyber-Physical Security IPAM, UCLA, July 2015 IPAM, UCLA, July 2015

  22. Supervised machine learning Cats Dogs Cat or dog? § Supervised learning has many applications Supervised learning has many applications – Computer vision, medicine, economics § Numerous successful algorithms Numerous successful algorithms – GLS, logistic regression, SVM, Naïve Bayes, etc. 22

  23. Learning from data generated by strategic agents § Standard machine learning algorithms are based on the Standard machine learning algorithms are based on the “iid iid assumption” assumption” § The The iid iid assumption fails assumption fails in some contexts in some contexts – Security: data is generated by an adversary h Spam detection, detection of malicious behavior in online systems, malware detection, fraud detection – Privacy: data is strategically obfuscated by users h Learning from online users personal data, recommendation, reviews à à where where data is generated/provided by strategic agents data is generated/provided by strategic agents in reaction to the learning algorithm in reaction to the learning algorithm à à How to learn in these situations? How to learn in these situations? 23

  24. Content Main objective: illustrate what game theory brings to the Main objective: illustrate what game theory brings to the question “how to learn?” on the example of: question “how to learn?” on the example of: Classification from strategic data Classification from strategic data 1. 1. Problem formulation Problem formulation 2. 2. The adversarial learning approach The adversarial learning approach 3. 3. The game-theoretic approach The game-theoretic approach a. Intrusion detection games b. Classification games 24

Download Presentation
Download Policy: The content available on the website is offered to you 'AS IS' for your personal information and use only. It cannot be commercialized, licensed, or distributed on other websites without prior consent from the author. To download a presentation, simply click this link. If you encounter any difficulties during the download process, it's possible that the publisher has removed the file from their server.

Recommend


More recommend