Network Economics -- Lecture 3: Incen5ves in online - - PowerPoint PPT Presentation

network economics lecture 3 incen5ves in online systems
SMART_READER_LITE
LIVE PREVIEW

Network Economics -- Lecture 3: Incen5ves in online - - PowerPoint PPT Presentation

Network Economics -- Lecture 3: Incen5ves in online systems II: robust reputa5on systems and informa5on elicita5on Patrick Loiseau EURECOM Fall


slide-1
SLIDE 1

Network ¡Economics ¡

  • ­‑-­‑ ¡

Lecture ¡3: ¡Incen5ves ¡in ¡online ¡ systems ¡II: ¡robust ¡reputa5on ¡ systems ¡and ¡informa5on ¡elicita5on ¡

Patrick ¡Loiseau ¡ EURECOM ¡ Fall ¡2015 ¡

1 ¡

slide-2
SLIDE 2

References ¡

  • Main: ¡ ¡

– N. ¡Nisam, ¡T. ¡Roughgarden, ¡E. ¡Tardos ¡and ¡V. ¡Vazirani ¡(Eds). ¡ “Algorithmic ¡Game ¡Theory”, ¡CUP ¡2007. ¡Chapters ¡27. ¡ ¡

  • Available ¡online: ¡

hWp://www.cambridge.org/journals/nisan/downloads/Nisan_Non-­‑ printable.pdf ¡ ¡

  • Addi5onal: ¡ ¡

– Yiling ¡Chen ¡and ¡Arpita ¡Gosh, ¡“Social ¡Compu5ng ¡and ¡User ¡ Generated ¡Content,” ¡EC’13 ¡tutorial ¡

  • Slides ¡at ¡

hWp://www.arpitaghosh.com/papers/ec13_tutorialSCUGC.pdf ¡and ¡ hWp://yiling.seas.harvard.edu/wp-­‑content/uploads/ SCUGC_tutorial_2013_Chen.pdf ¡ ¡

– M. ¡Chiang. ¡“Networked ¡Life, ¡20 ¡Ques5ons ¡and ¡Answers”, ¡CUP ¡

  • 2012. ¡Chapters ¡3-­‑5. ¡
  • See ¡the ¡videos ¡on ¡www.coursera.org ¡ ¡

2 ¡

slide-3
SLIDE 3

Outline ¡

  • 1. Introduc5on ¡
  • 2. Elici5ng ¡effort ¡and ¡honest ¡feedback ¡
  • 3. Reputa5on ¡based ¡on ¡transi5ve ¡trust ¡

3 ¡

slide-4
SLIDE 4

Outline ¡

  • 1. Introduc5on ¡
  • 2. Elici5ng ¡effort ¡and ¡honest ¡feedback ¡
  • 3. Reputa5on ¡based ¡on ¡transi5ve ¡trust ¡

4 ¡

slide-5
SLIDE 5

Importance ¡of ¡reputa5on ¡systems ¡

  • Internet ¡enables ¡interac5ons ¡between ¡en55es ¡
  • Benefit ¡depends ¡on ¡the ¡en55es ¡ability ¡and ¡

reliability ¡

  • Revealing ¡history ¡of ¡previous ¡interac5on: ¡

– Informs ¡on ¡abili5es ¡ – Deter ¡moral ¡hazard ¡

  • Reputa5on: ¡numerical ¡summary ¡of ¡previous ¡

interac5ons ¡records ¡

– Across ¡users ¡– ¡can ¡be ¡weighted ¡by ¡reputa5on ¡ (transi5vity ¡of ¡trust) ¡ – Across ¡5me ¡

5 ¡

slide-6
SLIDE 6

Reputa5on ¡systems ¡opera5on ¡

6 ¡

slide-7
SLIDE 7

AWacks ¡on ¡reputa5on ¡systems ¡

  • Whitewashing ¡
  • Incorrect ¡feedback ¡
  • Sybil ¡aWack ¡

7 ¡

slide-8
SLIDE 8

A ¡simplis5c ¡model ¡

  • Prisoner’s ¡dilemma ¡again! ¡ ¡
  • One ¡shot ¡

– (D, ¡D) ¡dominant ¡

  • Infinitely ¡repeated ¡ ¡

– Discount ¡factor ¡δ ¡

C ¡ D ¡ C ¡ D ¡ 1, ¡1 ¡

  • ­‑1, ¡2 ¡

0, ¡0 ¡ 2, ¡-­‑1 ¡

8 ¡

slide-9
SLIDE 9

Equilibrium ¡with ¡2 ¡players ¡

  • Grim ¡= ¡Cooperate ¡unless ¡the ¡other ¡player ¡

defected ¡in ¡the ¡previous ¡round ¡

  • (Grim, ¡Grim) ¡is ¡a ¡subgame ¡perfect ¡Nash ¡

equilibrium ¡if ¡δ≥1/2 ¡

– We ¡only ¡need ¡to ¡consider ¡single ¡devia5ons ¡

  • à ¡If ¡users ¡do ¡not ¡value ¡future ¡enough, ¡they ¡

don’t ¡cooperate ¡

9 ¡

slide-10
SLIDE 10

Game ¡with ¡N+1 ¡Players ¡(N ¡odd) ¡

  • Each ¡round: ¡players ¡paired ¡randomly ¡
  • With ¡reputa5on ¡(reputa5on-­‑grim): ¡agents ¡

begin ¡with ¡good ¡reputa5on ¡and ¡keep ¡it ¡as ¡long ¡ as ¡they ¡play ¡C ¡against ¡players ¡with ¡good ¡ reputa5on ¡and ¡D ¡against ¡those ¡with ¡bad ¡ones ¡

– SPNE ¡if ¡δ ¡≥ ¡1/2 ¡ ¡

  • Without ¡reputa5on ¡(personalized-­‑grim): ¡keep ¡

track ¡of ¡previous ¡interac5on ¡with ¡same ¡agent ¡

– SPNE ¡if ¡δ ¡≥ ¡1-­‑1/(2N) ¡ ¡

10 ¡

slide-11
SLIDE 11

Whitewashing ¡

  • Play ¡D ¡and ¡come ¡back ¡as ¡new ¡user! ¡
  • Possible ¡to ¡avoid ¡this ¡with ¡entry ¡fee ¡f ¡

11 ¡

slide-12
SLIDE 12

Outline ¡

  • 1. Introduc5on ¡
  • 2. Elici5ng ¡effort ¡and ¡honest ¡feedback ¡
  • 3. Reputa5on ¡based ¡on ¡transi5ve ¡trust ¡

12 ¡

slide-13
SLIDE 13

Different ¡seongs ¡

  • How ¡to ¡enforce ¡honest ¡repor5ng ¡of ¡interac5on ¡

experience? ¡ ¡

  • 1. Objec5ve ¡informa5on ¡publicly ¡revealed: ¡can ¡just ¡

compare ¡report ¡to ¡real ¡outcome ¡

– E.g., ¡weather ¡predic5on ¡

  • 2. No ¡objec5ve ¡outcome ¡is ¡available ¡

– E.g., ¡product ¡quality ¡– ¡not ¡objec5ve ¡ – E.g., ¡product ¡breakdown ¡frequency ¡– ¡objec5ve ¡but ¡no ¡ revealed ¡

13 ¡

slide-14
SLIDE 14

The ¡Brier ¡scoring ¡rule ¡

  • Expert ¡has ¡belief ¡q: ¡

– Sunny ¡with ¡proba ¡q, ¡rainy ¡with ¡proba ¡1-­‑q ¡

  • Announces ¡predic5on ¡p ¡(proba ¡of ¡sunny) ¡
  • How ¡to ¡incen5vize ¡honest ¡predic5on? ¡

– Give ¡him ¡“score” ¡ ¡

  • S(p, ¡sunny) ¡= ¡1 ¡-­‑ ¡(1-­‑p)2 ¡
  • S(p, ¡rainy) ¡= ¡1 ¡-­‑ ¡p2 ¡
  • Expected ¡score ¡S(p, ¡q) ¡= ¡1-­‑q+q2-­‑(p-­‑q)2 ¡

– Maximized ¡at ¡p=q ¡

14 ¡

slide-15
SLIDE 15

Proper ¡scoring ¡rules ¡

  • Defini5on: ¡a ¡scoring ¡rule ¡is ¡proper ¡if ¡ ¡

¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡S(q, ¡q) ¡≥ ¡S(p, ¡q) ¡for ¡all ¡p ¡

  • It ¡is ¡strictly ¡proper ¡if ¡the ¡inequality ¡is ¡strict ¡for ¡all ¡

p≠q ¡

  • Brier ¡rule ¡is ¡strictly ¡proper ¡
  • Other ¡strictly ¡proper ¡scoring ¡rule: ¡ ¡

– S(p, ¡state) ¡= ¡log ¡pstate ¡

15 ¡

slide-16
SLIDE 16

Different ¡seongs ¡

  • How ¡to ¡enforce ¡honest ¡repor5ng ¡of ¡interac5on ¡

experience? ¡ ¡

  • 1. Objec5ve ¡informa5on ¡publicly ¡revealed: ¡can ¡just ¡

compare ¡report ¡to ¡real ¡outcome ¡

– E.g., ¡weather ¡predic5on ¡

  • 2. No ¡objec5ve ¡outcome ¡is ¡available ¡

– E.g., ¡product ¡quality ¡– ¡not ¡objec5ve ¡ – E.g., ¡product ¡breakdown ¡frequency ¡– ¡objec5ve ¡but ¡no ¡ revealed ¡

16 ¡

slide-17
SLIDE 17

Peering ¡agreement ¡rewarding ¡

  • Rewarding ¡agreement ¡is ¡not ¡good ¡
  • If ¡a ¡good ¡outcome ¡is ¡likely ¡(e.g., ¡because ¡of ¡well ¡

noted ¡seller), ¡a ¡customer ¡will ¡not ¡report ¡a ¡bad ¡ experience ¡ à peer-­‑predic5on ¡method ¡

– Use ¡report ¡to ¡update ¡a ¡reference ¡distribu5on ¡of ¡ ra5ngs ¡(prior ¡distribu5on) ¡ – Reward ¡based ¡on ¡comparison ¡of ¡probabili5es ¡of ¡the ¡ reference ¡ra5ng ¡and ¡the ¡actual ¡reference ¡report ¡

17 ¡

slide-18
SLIDE 18

Model ¡

  • Product ¡of ¡given ¡quality ¡(called ¡type) ¡observed ¡

with ¡errors ¡

  • Each ¡rater ¡sends ¡feedback ¡to ¡central ¡

processing ¡center ¡

  • Center ¡computes ¡rewards ¡based ¡exclusively ¡
  • n ¡raters ¡indica5ons ¡(no ¡independent ¡

informa5on) ¡

18 ¡

slide-19
SLIDE 19

Model ¡(2) ¡

  • Finite ¡number ¡of ¡types ¡t=1, ¡…, ¡T ¡
  • Commonly ¡known ¡prior ¡Pr0 ¡
  • Set ¡of ¡raters ¡I ¡

– Each ¡gets ¡a ¡‘signal’ ¡ – S={s1, ¡…, ¡sM}: ¡set ¡of ¡signals ¡ – Si: ¡signal ¡received ¡by ¡i, ¡distributed ¡as ¡f(.|t) ¡

19 ¡

slide-20
SLIDE 20

Example ¡

  • Two ¡types: ¡H ¡(high) ¡and ¡L ¡(low) ¡

– Pr0(H)=.5, ¡Pr0(L)=.5 ¡

  • Two ¡possible ¡signals: ¡h ¡or ¡l ¡
  • f(h|H)=.85, ¡f(l|H)=.15, ¡f(h|L)=.45, ¡f(l|L)=.55 ¡ ¡

– Pr(h)=.65, ¡Pr(l)=.35 ¡

20 ¡

slide-21
SLIDE 21

Game ¡

  • Rewards/others ¡ra5ngs ¡revealed ¡only ¡ayer ¡

receiving ¡all ¡reports ¡from ¡all ¡raters ¡

  • à ¡simultaneous ¡game ¡
  • xi: ¡i’s ¡report, ¡x ¡= ¡(x1, ¡…, ¡xI): ¡vector ¡of ¡

announcements ¡

  • xi

m: ¡i’s ¡report ¡if ¡signal ¡sm ¡

  • i’s ¡strategy: ¡ ¡
  • τi(x): ¡payment ¡to ¡i ¡if ¡vector ¡of ¡announcement ¡x ¡

21 ¡

slide-22
SLIDE 22

Best ¡Response ¡

  • Best ¡response ¡
  • Truthful ¡revela5on ¡is ¡a ¡Nash ¡equilibrium ¡if ¡this ¡

holds ¡for ¡all ¡i ¡when ¡xi

m=sm ¡ ¡

22 ¡

slide-23
SLIDE 23

Example ¡

23 ¡

slide-24
SLIDE 24

Scoring ¡rules ¡

  • How ¡to ¡assign ¡points ¡to ¡rater ¡i ¡based ¡on ¡his ¡

report ¡and ¡that ¡of ¡j? ¡

  • Def: ¡a ¡scoring ¡rule ¡is ¡a ¡func5on ¡that, ¡for ¡each ¡

possible ¡announcement ¡assigns ¡a ¡score ¡to ¡each ¡ possible ¡value ¡s ¡in ¡S ¡

  • We ¡cannot ¡access ¡sj, ¡but ¡in ¡a ¡truthful ¡equilibrium, ¡

we ¡can ¡use ¡j’s ¡report ¡

  • Def: ¡A ¡scoring ¡rule ¡is ¡strictly ¡proper ¡if ¡the ¡rater ¡

maximizes ¡his ¡expected ¡score ¡by ¡announcing ¡his ¡ true ¡belief ¡

24 ¡

slide-25
SLIDE 25

Logarithmic ¡scoring ¡rule ¡

  • Ask ¡belief ¡on ¡the ¡probability ¡of ¡an ¡event ¡
  • A ¡proper ¡scoring ¡rule ¡is ¡the ¡Logarithmic ¡

scoring ¡rule: ¡Penalize ¡a ¡user ¡the ¡log ¡of ¡the ¡ probability ¡that ¡he ¡assigns ¡to ¡the ¡event ¡that ¡ actually ¡occurred ¡

25 ¡

slide-26
SLIDE 26

Peer-­‑predic5on ¡method ¡

  • Choose ¡a ¡reference ¡rater ¡r(i) ¡ ¡
  • The ¡outcome ¡to ¡be ¡predicted ¡is ¡xr(i) ¡
  • Player ¡i ¡does ¡not ¡report ¡a ¡distribu5on, ¡but ¡
  • nly ¡his ¡signal ¡

– The ¡distribu5on ¡is ¡inferred ¡from ¡the ¡prior ¡

  • Result: ¡For ¡any ¡mapping ¡r, ¡truthful ¡repor5ng ¡is ¡

a ¡Nash ¡equilibrium ¡under ¡the ¡logarithmic ¡ scoring ¡rule ¡

26 ¡

slide-27
SLIDE 27

Proof ¡

27 ¡

slide-28
SLIDE 28

Example ¡

28 ¡

slide-29
SLIDE 29

Remarks ¡

  • Two ¡other ¡equilibria: ¡always ¡report ¡h, ¡always ¡

report ¡l ¡

– Less ¡likely ¡

  • See ¡other ¡applica5ons ¡of ¡Bayesian ¡es5ma5on ¡

by ¡Amazon ¡reviews ¡in ¡M. ¡Chiang. ¡“Networked ¡ Life, ¡20 ¡Ques5ons ¡and ¡Answers”, ¡CUP ¡2012. ¡ Chapters ¡5. ¡

29 ¡

slide-30
SLIDE 30

Outline ¡

  • 1. Introduc5on ¡
  • 2. Elici5ng ¡effort ¡and ¡honest ¡feedback ¡
  • 3. Reputa5on ¡based ¡on ¡transi5ve ¡trust ¡

30 ¡

slide-31
SLIDE 31

Transi5ve ¡trust ¡approach ¡

  • Assign ¡trust ¡values ¡to ¡agents ¡that ¡aggregate ¡

local ¡trust ¡given ¡by ¡others ¡

  • t(i, ¡j): ¡trust ¡that ¡i ¡reports ¡on ¡j ¡
  • Graph ¡
  • Reputa5on ¡values ¡
  • Determine ¡a ¡ranking ¡of ¡ver5ces ¡

31 ¡

slide-32
SLIDE 32

Example: ¡PageRank ¡

32 ¡

slide-33
SLIDE 33

Example ¡2: ¡max-­‑flow ¡algorithm ¡

33 ¡

slide-34
SLIDE 34

Slide ¡in ¡case ¡you ¡are ¡ignorant ¡about ¡ max-­‑flow ¡min-­‑cut ¡theorem ¡

34 ¡

slide-35
SLIDE 35

Example ¡3: ¡the ¡PathRank ¡algorithm ¡

35 ¡

slide-36
SLIDE 36

Defini5ons ¡

  • Monotonic: ¡if ¡adding ¡an ¡incoming ¡edge ¡to ¡v ¡

never ¡reduces ¡the ¡ranking ¡of ¡v ¡

– PageRank, ¡max-­‑flow, ¡PathRank ¡

  • Symmetric ¡if ¡the ¡reputa5on ¡F ¡commutes ¡with ¡the ¡

permuta5on ¡of ¡the ¡nodes ¡

– PageRank ¡ – Not ¡max-­‑flow, ¡not ¡PathRank ¡

36 ¡

slide-37
SLIDE 37

Incen5ves ¡for ¡honest ¡repor5ng ¡

  • Incen5ve ¡issue: ¡an ¡agent ¡may ¡improve ¡their ¡

ranking ¡by ¡incorrectly ¡repor5ng ¡their ¡trust ¡of ¡

  • ther ¡agents ¡
  • Defini5on: ¡A ¡reputa5on ¡func5on ¡F ¡is ¡rank-­‑

strategyproof ¡if ¡for ¡every ¡graph ¡G, ¡no ¡agent ¡v ¡can ¡ improve ¡his ¡ranking ¡by ¡strategic ¡ra5ng ¡of ¡others ¡

  • Result: ¡No ¡monotonic ¡reputa5on ¡system ¡that ¡is ¡

symmetric ¡can ¡be ¡rank-­‑strategyproof ¡

– PageRank ¡is ¡not ¡ – But ¡PathRank ¡is ¡

37 ¡

slide-38
SLIDE 38

Robustness ¡to ¡sybil ¡aWacks ¡

  • Suppose ¡a ¡node ¡can ¡create ¡several ¡nodes ¡and ¡

divide ¡the ¡incoming ¡trust ¡in ¡any ¡way ¡that ¡ preserves ¡the ¡total ¡incoming ¡trust ¡

  • Defini5on: ¡ ¡

– sybil ¡strategy ¡ – Value-­‑sybilproof ¡ – Rank-­‑sybilproof ¡

38 ¡

slide-39
SLIDE 39

Robustness ¡to ¡sybil ¡aWacks: ¡results ¡

  • Theorem: ¡There ¡is ¡no ¡symmetric ¡rank-­‑

sybilproof ¡func5on ¡

  • Theorem ¡(stronger): ¡There ¡is ¡no ¡symmetric ¡

rank-­‑sybilproof ¡func5on ¡even ¡if ¡we ¡limit ¡sybil ¡ strategies ¡to ¡adding ¡only ¡one ¡extra ¡node ¡

  • à ¡PageRank ¡is ¡not ¡rank-­‑sybilproof ¡

39 ¡

slide-40
SLIDE 40

Robustness ¡to ¡sybil ¡aWacks: ¡results ¡(2) ¡

  • Theorem: ¡The ¡max-­‑flow ¡based ¡ranking ¡

algorithm ¡is ¡value-­‑sybilproof ¡

– But ¡it ¡is ¡not ¡rank-­‑sybilproof ¡

  • Theorem: ¡The ¡PathRank ¡based ¡ranking ¡

algorithm ¡is ¡value-­‑sybilproof ¡and ¡rank-­‑ sybilproof ¡

40 ¡