a theory of the learnable l g valiant
play

A THEORY OF THE LEARNABLE (L.G. VALIANT) Theory Lunch Presentation - PowerPoint PPT Presentation

A THEORY OF THE LEARNABLE (L.G. VALIANT) Theory Lunch Presentation Claire Le Goues 05/20/10 1 2 HOW DO YOU KNOW THAT? 3 HOW DO YOU KNOW THAT? bool is_a_duck() { return (walks_like_a_duck() && quacks_like_a_duck()); }


  1. t boolean variables p 1 ,…,p t : ✦ Vectors assign variables to one of {0,1,*} . ✦ Concept F maps vectors to {0,1} . ✦ ✦ Assume D , a ¡ probability ¡ distribution ¡ over ¡ all ¡ vectors v which F evaluates ¡ to ¡ 1. ✦ D is ¡ meant ¡ to ¡ describe ¡ the ¡ relative ¡ natural ¡ frequency ¡ of ¡ positive ¡ examples ¡ of ¡ whatever ¡  Probability distribution D over all true vectors v . we ʼ‚ re ¡ trying ¡ to ¡ learn. ✦ If ¡ we ¡ have ¡ a ¡ vector ¡ v ¡ that ¡ describes ¡ a ¡ mallard, ¡ then ¡ D ( v ) = relative ¡ frequency ¡ of ¡ mallards ¡ in ¡ the ¡ universe. ¡ 17

  2. t boolean variables p 1 ,…,p t :  Vectors assign variables to one of {0,1,*} .  Concept F mapping vectors to {0,1} .  Probability distribution D over all true v .  18

  3. t boolean variables p 1 ,…,p t :  Vectors assign variables to one of {0,1,*} .  Concept F mapping vectors to {0,1} .  Probability distribution D over all true v .  19

  4. High-level Definitions. 20

  5. High-level Definitions. ✦ A ¡ learning ¡ machine ¡ has ¡ two ¡ components: 20

  6. High-level Definitions. ✦ A ¡ learning ¡ machine ¡ has ¡ two ¡ components: • A ¡ learning ¡ protocol, ¡ or ¡ the ¡ method ¡ by ¡ which ¡ information ¡ is ¡ gathered ¡ from ¡ the ¡ world. 20

  7. High-level Definitions. ✦ A ¡ learning ¡ machine ¡ has ¡ two ¡ components: • A ¡ learning ¡ protocol, ¡ or ¡ the ¡ method ¡ by ¡ which ¡ information ¡ is ¡ gathered ¡ from ¡ the ¡ world. • A ¡ deduction ¡ procedure, ¡ or ¡ the ¡ mechanism ¡ for ¡ learning ¡ new ¡ concepts ¡ from ¡ gathered ¡ information. 20

  8. VALIANT’S LEARNING PROTOCOL 21

  9. t boolean variables p 1 ,…,p t :  Vectors assign variables to one of {0,1,*} .  Concept F mapping vectors to {0,1} .  Probability distribution D over all true v .  VALIANT’S LEARNING PROTOCOL 22

  10. t boolean variables p 1 ,…,p t :  Vectors assign variables to one of {0,1,*} .  Concept F mapping vectors to {0,1} .  Probability distribution D over all true v .  23

  11. t boolean variables p 1 ,…,p t :  Vectors assign variables to one of {0,1,*} .  Concept F mapping vectors to {0,1} .  Probability distribution D over all true v .  ✦ Learner has access to two routines (or teachers): 23

  12. t boolean variables p 1 ,…,p t :  Vectors assign variables to one of {0,1,*} .  Concept F mapping vectors to {0,1} .  Probability distribution D over all true v .  ✦ Learner has access to two routines (or teachers): 1.EXAMPLE: takes no input, returns a vector v such that F ( v ) = 1 . ✦ Probability that EXAMPLE returns any particular v is D ( v ). 23

  13. t boolean variables p 1 ,…,p t :  Vectors assign variables to one of {0,1,*} .  Concept F mapping vectors to {0,1} .  Probability distribution D over all true v .  ✦ Learner has access to two routines (or teachers): 1.EXAMPLE: takes no input, returns a vector v such that F ( v ) = 1 . ✦ Probability that EXAMPLE returns any particular v is D ( v ). 2.ORACLE: takes as input a vector v , returns F ( v ). 23

  14. Duck ¡ Example ¡ of ¡ Protocol ¡ Functions 24 24

  15. Duck ¡ Example ¡ of ¡ Protocol ¡ Functions F ( v ) ¡ = ¡ is_a_duck( v ) EXAMPLE() ¡ ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ TRUE ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ FALSE 24 24

  16. Duck ¡ Example ¡ of ¡ Protocol ¡ Functions F ( v ) ¡ = ¡ is_a_duck( v ) EXAMPLE() ¡ ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ TRUE ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ FALSE 24 24

  17. Duck ¡ Example ¡ of ¡ Protocol ¡ Functions F ( v ) ¡ = ¡ is_a_duck( v ) EXAMPLE() ¡ ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ TRUE ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ FALSE 24 24

  18. Duck ¡ Example ¡ of ¡ Protocol ¡ Functions F ( v ) ¡ = ¡ is_a_duck( v ) EXAMPLE() ¡ ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ TRUE ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ FALSE 24 24

  19. Duck ¡ Example ¡ of ¡ Protocol ¡ Functions F ( v ) ¡ = ¡ is_a_duck( v ) EXAMPLE() ¡ ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ TRUE ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ FALSE 24 24

  20. Duck ¡ Example ¡ of ¡ Protocol ¡ Functions F ( v ) ¡ = ¡ is_a_duck( v ) EXAMPLE() ¡ ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ TRUE ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ FALSE 24 24

  21. Duck ¡ Example ¡ of ¡ Protocol ¡ Functions F ( v ) ¡ = ¡ is_a_duck( v ) EXAMPLE() ¡ ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ TRUE ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ FALSE 24 24

  22. Realistic ¡ Example ¡ of ¡ Protocol ¡ Functions 25 25

  23. Realistic ¡ Example ¡ of ¡ Protocol ¡ Functions F ¡ = (a1 ∨ a2) ∧ (a4 ∨ a1) ¡ EXAMPLE() ¡ ¡ EXAMPLE() ¡ FALSE ORACLE( ) 25 25

  24. Realistic ¡ Example ¡ of ¡ Protocol ¡ Functions F ¡ = (a1 ∨ a2) ∧ (a4 ∨ a1) ¡ EXAMPLE() ¡ ¡ {a1=1, a2=0, a3=*} EXAMPLE() ¡ FALSE ORACLE( ) 25 25

  25. Realistic ¡ Example ¡ of ¡ Protocol ¡ Functions F ¡ = (a1 ∨ a2) ∧ (a4 ∨ a1) ¡ EXAMPLE() ¡ ¡ {a1=1, a2=0, a3=*} EXAMPLE() ¡ FALSE ORACLE( ) 25 25

  26. Realistic ¡ Example ¡ of ¡ Protocol ¡ Functions F ¡ = (a1 ∨ a2) ∧ (a4 ∨ a1) ¡ EXAMPLE() ¡ ¡ {a1=1, a2=0, a3=*} EXAMPLE() ¡ FALSE ORACLE( ) 25 25

  27. Realistic ¡ Example ¡ of ¡ Protocol ¡ Functions F ¡ = (a1 ∨ a2) ∧ (a4 ∨ a1) ¡ EXAMPLE() ¡ ¡ {a1=1, a2=0, a3=*} EXAMPLE() ¡ {a1=0, a2=1, a3=*, a4=1} FALSE ORACLE( ) 25 25

  28. Realistic ¡ Example ¡ of ¡ Protocol ¡ Functions F ¡ = (a1 ∨ a2) ∧ (a4 ∨ a1) ¡ EXAMPLE() ¡ ¡ {a1=1, a2=0, a3=*} EXAMPLE() ¡ {a1=0, a2=1, a3=*, a4=1} FALSE ORACLE( {a1=0,a2=0,a3=*,a4=1} ) 25 25

  29. Realistic ¡ Example ¡ of ¡ Protocol ¡ Functions F ¡ = (a1 ∨ a2) ∧ (a4 ∨ a1) ¡ EXAMPLE() ¡ ¡ {a1=1, a2=0, a3=*} EXAMPLE() ¡ {a1=0, a2=1, a3=*, a4=1} FALSE ORACLE( {a1=0,a2=0,a3=*,a4=1} ) 25 25

  30. Probably Approximately Learnable 26

  31. Probably Approximately Learnable ✦ A ¡ class ¡ of ¡ problems ¡ is ¡ Probably ¡ Approximately ¡ Learnable ¡ if ¡ instances ¡ of ¡ the ¡ problem ¡ can ¡ be ¡ learned ¡ by ¡ a ¡ deduction ¡ algorithm ¡ that: 26

  32. Probably Approximately Learnable ✦ A ¡ class ¡ of ¡ problems ¡ is ¡ Probably ¡ Approximately ¡ Learnable ¡ if ¡ instances ¡ of ¡ the ¡ problem ¡ can ¡ be ¡ learned ¡ by ¡ a ¡ deduction ¡ algorithm ¡ that: Uses ¡ this ¡ protocol. • 26

  33. Probably Approximately Learnable ✦ A ¡ class ¡ of ¡ problems ¡ is ¡ Probably ¡ Approximately ¡ Learnable ¡ if ¡ instances ¡ of ¡ the ¡ problem ¡ can ¡ be ¡ learned ¡ by ¡ a ¡ deduction ¡ algorithm ¡ that: Uses ¡ this ¡ protocol. • Runs ¡ in ¡ reasonable ¡ time: ¡ polynomial ¡ by ¡ adjustable ¡ • parameter ¡ h, ¡ size ¡ of ¡ learned ¡ program, ¡ and ¡ number ¡ of ¡ variables ¡ determined ¡ in ¡ the ¡ learned ¡ formula. 26

  34. Probably Approximately Learnable ✦ A ¡ class ¡ of ¡ problems ¡ is ¡ Probably ¡ Approximately ¡ Learnable ¡ if ¡ instances ¡ of ¡ the ¡ problem ¡ can ¡ be ¡ learned ¡ by ¡ a ¡ deduction ¡ algorithm ¡ that: Uses ¡ this ¡ protocol. • Runs ¡ in ¡ reasonable ¡ time: ¡ polynomial ¡ by ¡ adjustable ¡ • parameter ¡ h, ¡ size ¡ of ¡ learned ¡ program, ¡ and ¡ number ¡ of ¡ variables ¡ determined ¡ in ¡ the ¡ learned ¡ formula. Produces ¡ a ¡ program ¡ that ¡ says ¡ something ¡ is ¡ false ¡ when ¡ • it ʼ‚ s ¡ true ¡ with ¡ probability ¡ no ¡ greater ¡ than ¡ (1-h -1 ) ; ¡ never ¡ says ¡ that ¡ ¡ something ¡ is ¡ true ¡ when ¡ it ʼ‚ s ¡ false. 26

  35. A ¡ Summary, ¡ in ¡ English 27 27

  36. A ¡ Summary, ¡ in ¡ English ✦ We ¡ are ¡ trying ¡ to ¡ make ¡ a ¡ program ¡ (learning ¡ machine) ¡ that ¡ can ¡ learn, ¡ in ¡ polynomial ¡ time, ¡ another ¡ program ¡ (the ¡ learned ¡ program) ¡ that ¡ recognizes ¡ whether ¡ a ¡ boolean ¡ formula ¡ (concept) ¡ is ¡ true ¡ for ¡ any ¡ set ¡ of ¡ boolean ¡ data. ¡ 27 27

  37. A ¡ Summary, ¡ in ¡ English ✦ We ¡ are ¡ trying ¡ to ¡ make ¡ a ¡ program ¡ (learning ¡ machine) ¡ that ¡ can ¡ learn, ¡ in ¡ polynomial ¡ time, ¡ another ¡ program ¡ (the ¡ learned ¡ program) ¡ that ¡ recognizes ¡ whether ¡ a ¡ boolean ¡ formula ¡ (concept) ¡ is ¡ true ¡ for ¡ any ¡ set ¡ of ¡ boolean ¡ data. ¡ ✦ The ¡ learning ¡ program ¡ has ¡ access ¡ to ¡ a ¡ function ¡ that ¡ will ¡ give ¡ it ¡ a ¡ bunch ¡ of ¡ examples, ¡ as ¡ well ¡ as ¡ a ¡ function ¡ that ¡ will ¡ check ¡ its ¡ work. 27 27

  38. A ¡ Summary, ¡ in ¡ English ✦ We ¡ are ¡ trying ¡ to ¡ make ¡ a ¡ program ¡ (learning ¡ machine) ¡ that ¡ can ¡ learn, ¡ in ¡ polynomial ¡ time, ¡ another ¡ program ¡ (the ¡ learned ¡ program) ¡ that ¡ recognizes ¡ whether ¡ a ¡ boolean ¡ formula ¡ (concept) ¡ is ¡ true ¡ for ¡ any ¡ set ¡ of ¡ boolean ¡ data. ¡ ✦ The ¡ learning ¡ program ¡ has ¡ access ¡ to ¡ a ¡ function ¡ that ¡ will ¡ give ¡ it ¡ a ¡ bunch ¡ of ¡ examples, ¡ as ¡ well ¡ as ¡ a ¡ function ¡ that ¡ will ¡ check ¡ its ¡ work. ✦ The ¡ learning ¡ machine ¡ can ¡ learn ¡ a ¡ program ¡ that ¡ is ¡ sometimes ¡ wrong, ¡ so ¡ long ¡ as ¡ the ¡ probability ¡ that ¡ the ¡ learned ¡ program ¡ is ¡ ever ¡ wrong ¡ is ¡ adjustable. 27 27

  39. Outline 1. General ¡ framework ¡ for ¡ defining ¡ Learning ¡ Machines, ¡ or ¡ programs ¡ that ¡ can ¡ learn/write/produce ¡ other ¡ programs ¡ of ¡ a ¡ particular ¡ type. • A ¡ Learning ¡ Machine ¡ for ¡ animal ¡ recognition, ¡ for ¡ example, ¡ might ¡ learn ¡ to ¡ write ¡ a ¡ program ¡ that ¡ recognizes ¡ whether ¡ a ¡ given ¡ animal ¡ is ¡ a ¡ duck. 2. Definition ¡ of ¡ a ¡ particular ¡ learning ¡ protocol. 3. Definition ¡ of ¡ when ¡ a ¡ program ¡ class ¡ is ¡ reasonably- learnable. 4. Definition/proofs ¡ of ¡ reasonably-learnable ¡ program ¡ classes. 28 28

  40. Outline 1. General ¡ framework ¡ for ¡ defining ¡ Learning ¡ Machines, ¡ or ¡ programs ¡ that ¡ can ¡ learn/write/produce ¡ other ¡ programs ¡ of ¡ a ¡ particular ¡ type. • A ¡ Learning ¡ Machine ¡ for ¡ animal ¡ recognition, ¡ for ¡ example, ¡ might ¡ learn ¡ to ¡ write ¡ a ¡ program ¡ that ¡ recognizes ¡ whether ¡ a ¡ given ¡ animal ¡ is ¡ a ¡ duck. 2. Definition ¡ of ¡ a ¡ particular ¡ learning ¡ protocol. 3. Definition ¡ of ¡ when ¡ a ¡ program ¡ class ¡ is ¡ reasonably- learnable. 4. Definition/proofs ¡ of ¡ reasonably-learnable ¡ program ¡ classes. 29 29

  41. Outline 1. General ¡ framework ¡ for ¡ defining ¡ Learning ¡ Machines, ¡ or ¡ programs ¡ that ¡ can ¡ learn/write/produce ¡ other ¡ ✦ The ¡ paper ¡ proves ¡ three ¡ di ff erent ¡ program ¡ classes ¡ programs ¡ of ¡ a ¡ particular ¡ type. probably-approximately-learnable. • A ¡ Learning ¡ Machine ¡ for ¡ animal ¡ recognition, ¡ for ¡ example, ¡ might ¡ learn ¡ to ¡ write ¡ a ¡ program ¡ that ¡ recognizes ¡ whether ¡ a ¡ given ¡ animal ¡ is ¡ a ¡ duck. 2. Definition ¡ of ¡ a ¡ particular ¡ learning ¡ protocol. 3. Definition ¡ of ¡ when ¡ a ¡ program ¡ class ¡ is ¡ reasonably- learnable. 4. Definition/proofs ¡ of ¡ reasonably-learnable ¡ program ¡ classes. 29 29

  42. Outline 1. General ¡ framework ¡ for ¡ defining ¡ Learning ¡ Machines, ¡ or ¡ programs ¡ that ¡ can ¡ learn/write/produce ¡ other ¡ ✦ The ¡ paper ¡ proves ¡ three ¡ di ff erent ¡ program ¡ classes ¡ programs ¡ of ¡ a ¡ particular ¡ type. probably-approximately-learnable. • ✦ I ¡ am ¡ not ¡ going ¡ to ¡ walk ¡ through ¡ the ¡ proofs; ¡ they ¡ are ¡ A ¡ Learning ¡ Machine ¡ for ¡ animal ¡ recognition, ¡ for ¡ example, ¡ might ¡ learn ¡ to ¡ write ¡ a ¡ program ¡ that ¡ recognizes ¡ whether ¡ a ¡ by ¡ construction ¡ of ¡ deduction ¡ algorithms ¡ that ¡ can ¡ learn ¡ given ¡ animal ¡ is ¡ a ¡ duck. the ¡ given ¡ programs ¡ and ¡ proofs ¡ of ¡ their ¡ bounds. 2. Definition ¡ of ¡ a ¡ particular ¡ learning ¡ protocol. 3. Definition ¡ of ¡ when ¡ a ¡ program ¡ class ¡ is ¡ reasonably- learnable. 4. Definition/proofs ¡ of ¡ reasonably-learnable ¡ program ¡ classes. 29 29

  43. Outline 1. General ¡ framework ¡ for ¡ defining ¡ Learning ¡ Machines, ¡ or ¡ programs ¡ that ¡ can ¡ learn/write/produce ¡ other ¡ ✦ The ¡ paper ¡ proves ¡ three ¡ di ff erent ¡ program ¡ classes ¡ programs ¡ of ¡ a ¡ particular ¡ type. probably-approximately-learnable. • ✦ I ¡ am ¡ not ¡ going ¡ to ¡ walk ¡ through ¡ the ¡ proofs; ¡ they ¡ are ¡ A ¡ Learning ¡ Machine ¡ for ¡ animal ¡ recognition, ¡ for ¡ example, ¡ might ¡ learn ¡ to ¡ write ¡ a ¡ program ¡ that ¡ recognizes ¡ whether ¡ a ¡ by ¡ construction ¡ of ¡ deduction ¡ algorithms ¡ that ¡ can ¡ learn ¡ given ¡ animal ¡ is ¡ a ¡ duck. the ¡ given ¡ programs ¡ and ¡ proofs ¡ of ¡ their ¡ bounds. ✦ I ¡ am ¡ going ¡ to ¡ give ¡ the ¡ upper ¡ bounds ¡ of ¡ the ¡ 2. Definition ¡ of ¡ a ¡ particular ¡ learning ¡ protocol. algorithms. ¡ This ¡ requires ¡ a ¡ definition ¡ of ¡ a ¡ function. 3. Definition ¡ of ¡ when ¡ a ¡ program ¡ class ¡ is ¡ reasonably- learnable. 4. Definition/proofs ¡ of ¡ reasonably-learnable ¡ program ¡ classes. 29 29

  44. Outline 1. General ¡ framework ¡ for ¡ defining ¡ Learning ¡ Machines, ¡ or ¡ programs ¡ that ¡ can ¡ learn/write/produce ¡ other ¡ ✦ The ¡ paper ¡ proves ¡ three ¡ di ff erent ¡ program ¡ classes ¡ programs ¡ of ¡ a ¡ particular ¡ type. probably-approximately-learnable. • ✦ I ¡ am ¡ not ¡ going ¡ to ¡ walk ¡ through ¡ the ¡ proofs; ¡ they ¡ are ¡ A ¡ Learning ¡ Machine ¡ for ¡ animal ¡ recognition, ¡ for ¡ example, ¡ might ¡ learn ¡ to ¡ write ¡ a ¡ program ¡ that ¡ recognizes ¡ whether ¡ a ¡ by ¡ construction ¡ of ¡ deduction ¡ algorithms ¡ that ¡ can ¡ learn ¡ given ¡ animal ¡ is ¡ a ¡ duck. the ¡ given ¡ programs ¡ and ¡ proofs ¡ of ¡ their ¡ bounds. ✦ I ¡ am ¡ going ¡ to ¡ give ¡ the ¡ upper ¡ bounds ¡ of ¡ the ¡ 2. Definition ¡ of ¡ a ¡ particular ¡ learning ¡ protocol. algorithms. ¡ This ¡ requires ¡ a ¡ definition ¡ of ¡ a ¡ function. 3. Definition ¡ of ¡ when ¡ a ¡ program ¡ class ¡ is ¡ reasonably- ✦ The ¡ proof ¡ of ¡ that ¡ function ʼ‚ s ¡ upper ¡ bound ¡ is ¡ the ¡ major ¡ learnable. lemma ¡ in ¡ all ¡ three ¡ proofs, ¡ so ¡ I ¡ will ¡ outline ¡ it. 4. Definition/proofs ¡ of ¡ reasonably-learnable ¡ program ¡ classes. 29 29

  45. Outline 1. General ¡ framework ¡ for ¡ defining ¡ Learning ¡ Machines, ¡ or ¡ programs ¡ that ¡ can ¡ learn/write/produce ¡ other ¡ ✦ The ¡ paper ¡ proves ¡ three ¡ di ff erent ¡ program ¡ classes ¡ programs ¡ of ¡ a ¡ particular ¡ type. probably-approximately-learnable. • ✦ I ¡ am ¡ not ¡ going ¡ to ¡ walk ¡ through ¡ the ¡ proofs; ¡ they ¡ are ¡ A ¡ Learning ¡ Machine ¡ for ¡ animal ¡ recognition, ¡ for ¡ example, ¡ might ¡ learn ¡ to ¡ write ¡ a ¡ program ¡ that ¡ recognizes ¡ whether ¡ a ¡ by ¡ construction ¡ of ¡ deduction ¡ algorithms ¡ that ¡ can ¡ learn ¡ given ¡ animal ¡ is ¡ a ¡ duck. the ¡ given ¡ programs ¡ and ¡ proofs ¡ of ¡ their ¡ bounds. ✦ I ¡ am ¡ going ¡ to ¡ give ¡ the ¡ upper ¡ bounds ¡ of ¡ the ¡ 2. Definition ¡ of ¡ a ¡ particular ¡ learning ¡ protocol. algorithms. ¡ This ¡ requires ¡ a ¡ definition ¡ of ¡ a ¡ function. 3. Definition ¡ of ¡ when ¡ a ¡ program ¡ class ¡ is ¡ reasonably- ✦ The ¡ proof ¡ of ¡ that ¡ function ʼ‚ s ¡ upper ¡ bound ¡ is ¡ the ¡ major ¡ learnable. lemma ¡ in ¡ all ¡ three ¡ proofs, ¡ so ¡ I ¡ will ¡ outline ¡ it. ✦ This ¡ means ¡ the ¡ next ¡ 3 ¡ slides ¡ are ¡ mathy. ¡ 4. Definition/proofs ¡ of ¡ reasonably-learnable ¡ program ¡ classes. 29 29

  46. A Combinatorial Bound 30

  47. A Combinatorial Bound ✦ L( h , S ) is ¡ a ¡ function ¡ defined ¡ for ¡ all ¡ real ¡ numbers ¡ h > 1 and ¡ integers ¡ S > 1 . ¡ 30

  48. A Combinatorial Bound ✦ L( h , S ) is ¡ a ¡ function ¡ defined ¡ for ¡ all ¡ real ¡ numbers ¡ h > 1 and ¡ integers ¡ S > 1 . ¡ ✦ Returns ¡ smallest ¡ integer ¡ n ¡ such ¡ that ¡ in ¡ n ¡ independent ¡ Bernoulli ¡ trials, ¡ each ¡ with ¡ probability ¡ at ¡ least ¡ h -1 ¡ of ¡ success, ¡ P (< ¡ S ¡ successes) ¡ < ¡ h -1 Bernoulli ¡ trial: ¡ an ¡ experiment ¡ whose ¡ outcomes ¡ • are ¡ either ¡ “success” ¡ or ¡ “failure”; ¡ randomly ¡ distributed ¡ by ¡ some ¡ probability ¡ function. 30

  49. Upper Bound on L( h , S ) 31

  50. Upper Bound on L( h , S ) L( h , S ) ≤ 2 h ( S + log e h ) 31

  51. Upper Bound on L( h , S ) L( h , S ) ≤ 2 h ( S + log e h ) Proof ¡ by ¡ algebraic ¡ substitution ¡ of ¡ well-known ¡ inequalities: 31

  52. Upper Bound on L( h , S ) L( h , S ) ≤ 2 h ( S + log e h ) Proof ¡ by ¡ algebraic ¡ substitution ¡ of ¡ well-known ¡ inequalities: 1. ∀ x > 0, (1 + x -1 ) x < e 31

  53. Upper Bound on L( h , S ) L( h , S ) ≤ 2 h ( S + log e h ) Proof ¡ by ¡ algebraic ¡ substitution ¡ of ¡ well-known ¡ inequalities: 1. ∀ x > 0, (1 + x -1 ) x < e 2. ∀ x > 0, (1 - x -1 ) x < e -1 31

  54. Upper Bound on L( h , S ) L( h , S ) ≤ 2 h ( S + log e h ) Proof ¡ by ¡ algebraic ¡ substitution ¡ of ¡ well-known ¡ inequalities: 1. ∀ x > 0, (1 + x -1 ) x < e 2. ∀ x > 0, (1 - x -1 ) x < e -1 3. In ¡ m ¡ independent ¡ trials, ¡ each ¡ with ¡ success ¡ m-k ) probability ¡ ≥ ¡ p : ¡ ( m-k ) ( k mp m-mp ¡ P (successes ¡ at ¡ most ¡ k ) ¡ ≤ ¡ k ¡ 31

  55. So? 32

  56. So? ✦ L( h , S ) is ¡ basically ¡ linear ¡ in ¡ both ¡ h ¡ and ¡ S . 32

  57. So? ✦ L( h , S ) is ¡ basically ¡ linear ¡ in ¡ both ¡ h ¡ and ¡ S . ✦ Applies ¡ to ¡ using ¡ EXAMPLEs ¡ and ¡ ORACLE ¡ to ¡ determine ¡ vectors. ¡ 32

  58. So? ✦ L( h , S ) is ¡ basically ¡ linear ¡ in ¡ both ¡ h ¡ and ¡ S . ✦ Applies ¡ to ¡ using ¡ EXAMPLEs ¡ and ¡ ORACLE ¡ to ¡ determine ¡ vectors. ¡ ✦ An ¡ algorithm ¡ can ¡ approximate ¡ the ¡ set ¡ of ¡ determined ¡ variables ¡ in ¡ natural ¡ EXAMPLEs ¡ of ¡ F in ¡ runtime ¡ independent ¡ of ¡ total ¡ number ¡ of ¡ variables ¡ in ¡ the ¡ world. 32

  59. So? ✦ L( h , S ) is ¡ basically ¡ linear ¡ in ¡ both ¡ h ¡ and ¡ S . ✦ Applies ¡ to ¡ using ¡ EXAMPLEs ¡ and ¡ ORACLE ¡ to ¡ determine ¡ vectors. ¡ ✦ An ¡ algorithm ¡ can ¡ approximate ¡ the ¡ set ¡ of ¡ determined ¡ variables ¡ in ¡ natural ¡ EXAMPLEs ¡ of ¡ F in ¡ runtime ¡ independent ¡ of ¡ total ¡ number ¡ of ¡ variables ¡ in ¡ the ¡ world. • Dependent ¡ only ¡ the ¡ number ¡ of ¡ variables ¡ that ¡ are ¡ determined ¡ in ¡ F. 32

  60. Remaining Question Given ¡ that ¡ learning ¡ protocol, ¡ what ¡ classes ¡ of ¡ tasks ¡ are ¡ learnable ¡ in ¡ polynomial ¡ time? ¡ 33

  61. Answer: At Least 3 Classes of Programs 34

  62. Answer: At Least 3 Classes of Programs 1. k -CNF ¡ expressions 34

  63. Answer: At Least 3 Classes of Programs 1. k -CNF ¡ expressions 2. Monotone ¡ DNF ¡ expressions 34

  64. Answer: At Least 3 Classes of Programs 1. k -CNF ¡ expressions 2. Monotone ¡ DNF ¡ expressions 3. μ-expressions 34

  65. k -CNF Expressions 35

  66. k -CNF Expressions ✦ Conjunctive ¡ Normal ¡ form ¡ (CNF): ¡ (a 1 ∨ a 2 ∨ a 3 ) ∧ (a 4 ∨ a 1 ) … 35

  67. k -CNF Expressions ✦ Conjunctive ¡ Normal ¡ form ¡ (CNF): ¡ (a 1 ∨ a 2 ∨ a 3 ) ∧ (a 4 ∨ a 1 ) … ✦ k -CNF ¡ expression: ¡ a ¡ CNF ¡ expression ¡ where ¡ each ¡ internal ¡ clause ¡ is ¡ composed ¡ of ¡ ≤ ¡ k ¡ literals. ¡ 35

  68. k -CNF Expressions ✦ Conjunctive ¡ Normal ¡ form ¡ (CNF): ¡ (a 1 ∨ a 2 ∨ a 3 ) ∧ (a 4 ∨ a 1 ) … ✦ k -CNF ¡ expression: ¡ a ¡ CNF ¡ expression ¡ where ¡ each ¡ internal ¡ clause ¡ is ¡ composed ¡ of ¡ ≤ ¡ k ¡ literals. ¡ ✦ Learnable ¡ with ¡ an ¡ algorithm ¡ that ¡ does ¡ not ¡ call ¡ ORACLE, ¡ and ¡ calls ¡ EXAMPLE ¡ ≤ L( h , 2 t k +1 ) times. ¡ ( t ¡ is ¡ the ¡ number ¡ of ¡ variables) 35

  69. Monotone DNF Expressions 36

  70. Monotone DNF Expressions ✦ Disjunctive ¡ Normal ¡ Form ¡ (DNF): (a 1 ∧ a 2 ∧ a 3 ) ∨ (a 1 ∧ a 4 ) … 36

Download Presentation
Download Policy: The content available on the website is offered to you 'AS IS' for your personal information and use only. It cannot be commercialized, licensed, or distributed on other websites without prior consent from the author. To download a presentation, simply click this link. If you encounter any difficulties during the download process, it's possible that the publisher has removed the file from their server.

Recommend


More recommend