Probability and Statistics for Computer Science - - PowerPoint PPT Presentation

probability and statistics
SMART_READER_LITE
LIVE PREVIEW

Probability and Statistics for Computer Science - - PowerPoint PPT Presentation

Probability and Statistics for Computer Science many problems are naturally classifica4on problems---Prof. Forsyth Credit: wikipedia Hongye


slide-1
SLIDE 1

ì ¡

Probability ¡and ¡Statistics ¡ for ¡Computer ¡Science ¡ ¡

“…many ¡problems ¡are ¡naturally ¡ classifica4on ¡problems”-­‑-­‑-­‑Prof. ¡ Forsyth ¡

Hongye ¡Liu, ¡Teaching ¡Assistant ¡Prof, ¡CS361, ¡UIUC, ¡11.5.2019 ¡ Credit: ¡wikipedia ¡

slide-2
SLIDE 2

Last ¡time ¡

✺ Demo ¡of ¡Principal ¡Component ¡

Analysis ¡

✺ Introduc4on ¡to ¡classifica4on ¡

slide-3
SLIDE 3

Content ¡

✺ Decision ¡tree ¡ ✺ Random ¡forest ¡

slide-4
SLIDE 4

Learning ¡to ¡classify ¡

✺ Given ¡a ¡set ¡of ¡feature ¡vectors ¡xi, ¡where ¡each ¡has ¡a ¡class ¡

label ¡yi, ¡we ¡want ¡to ¡train ¡a ¡classifier ¡that ¡maps ¡ ¡ unlabeled ¡data ¡with ¡the ¡same ¡features ¡to ¡its ¡label. ¡

CD45 ¡ CD19 ¡ CD11b ¡ CD3e ¡ Type ¡

6.59564671 ¡ 1.297765164 ¡ 7.073280884 ¡ 1.155202366 ¡

1 ¡

6.742586812 ¡ 4.692018952 ¡ 3.145976639 ¡ 1.572686963 ¡

4 ¡

6.300680301 ¡ 1.20613983 ¡ 6.393630905 ¡ 1.424572629 ¡

2 ¡

5.455310882 ¡ 0.958837541 ¡ 6.149306002 ¡ 1.493503124 ¡

1 ¡

5.725565772 ¡ 1.719787885 ¡ 5.998232014 ¡ 1.310208305 ¡

1 ¡

5.552847151 ¡ 0.881373587 ¡ 6.02155471 ¡ 0.881373587 ¡

3 ¡

{

slide-5
SLIDE 5

Binary ¡classifiers ¡

✺ A ¡binary ¡classifier ¡maps ¡each ¡feature ¡vector ¡to ¡one ¡of ¡

two ¡classes. ¡

✺ For ¡example, ¡you ¡can ¡train ¡the ¡classifier ¡to: ¡

✺ Predict ¡a ¡gain ¡or ¡loss ¡of ¡an ¡investment ¡ ✺ Predict ¡if ¡a ¡gene ¡is ¡beneficial ¡to ¡survival ¡or ¡not ¡ ✺ … ¡

slide-6
SLIDE 6

Multiclass ¡classifiers ¡

✺ A ¡mul4class ¡classifier ¡maps ¡each ¡feature ¡vector ¡to ¡one ¡

  • f ¡three ¡or ¡more ¡classes. ¡

✺ For ¡example, ¡you ¡can ¡train ¡the ¡classifier ¡to: ¡

✺ Predict ¡the ¡cell ¡type ¡given ¡cells’ ¡measurement ¡ ✺ Predict ¡if ¡an ¡image ¡is ¡showing ¡tree, ¡or ¡flower ¡or ¡car, ¡etc ¡ ✺ ... ¡

slide-7
SLIDE 7

Performance ¡of ¡a ¡binary ¡classifier ¡

✺ A ¡binary ¡classifier ¡can ¡make ¡two ¡types ¡of ¡errors ¡

✺ False ¡posi4ve ¡(FP) ¡ ✺ False ¡nega4ve ¡(FN) ¡

✺ Some4mes ¡one ¡type ¡

  • f ¡error ¡is ¡more ¡costly ¡

✺ Drug ¡effect ¡test ¡ ✺ Crime ¡detec4on ¡ ✺ We ¡can ¡tabulate ¡the ¡performance ¡

in ¡a ¡class ¡confusion ¡matrix ¡

15 ¡ 3 ¡ 7 ¡ 25 ¡ FP ¡ TP ¡ TN ¡ FN ¡

slide-8
SLIDE 8

Performance ¡of ¡a ¡binary ¡classifier ¡

✺ A ¡loss ¡func4on ¡assigns ¡costs ¡to ¡mistakes ¡ ✺ The ¡0-­‑1 ¡loss ¡func4on ¡treats ¡

FPs ¡and ¡FNs ¡the ¡same ¡

✺ Assigns ¡loss ¡1 ¡to ¡every ¡

mistake ¡

✺ Assigns ¡loss ¡0 ¡to ¡every ¡

correct ¡decision ¡

✺ Under ¡the ¡0-­‑1 ¡loss ¡func4on ¡ ✺ accuracy= ¡ ✺ The ¡baseline ¡is ¡50% ¡which ¡we ¡get ¡by ¡

random ¡decision. ¡

TP + TN TP + TN + FP + FN

slide-9
SLIDE 9

Performance ¡of ¡a ¡multiclass ¡classifier ¡

✺ Assuming ¡there ¡are ¡c ¡classes: ¡ ✺ The ¡class ¡confusion ¡matrix ¡is ¡

c ¡× ¡c ¡

✺ Under ¡the ¡0-­‑1 ¡loss ¡func4on ¡

accuracy= ¡

  • ie. ¡in ¡the ¡right ¡example, ¡accuracy ¡= ¡

32/38=84% ¡ ✺ The ¡baseline ¡accuracy ¡is ¡1/c. ¡

sum of diagonal terms sum of all terms

Source: ¡scikit-­‑learn ¡

slide-10
SLIDE 10

Cross-­‑validation ¡

✺ If ¡we ¡don’t ¡want ¡to ¡“waste” ¡labeled ¡data ¡on ¡valida4on, ¡ ¡we ¡

can ¡use ¡cross-­‑validaBon ¡to ¡see ¡if ¡our ¡training ¡method ¡is ¡

  • sound. ¡

✺ Split ¡the ¡labeled ¡data ¡into ¡training ¡and ¡valida4on ¡sets ¡in ¡

mul4ple ¡ways ¡

✺ For ¡each ¡split ¡(called ¡a ¡fold) ¡

Train ¡a ¡classifier ¡on ¡the ¡training ¡set ¡

Evaluate ¡its ¡accuracy ¡on ¡the ¡valida4on ¡set ¡ ✺ Average ¡the ¡accuracy ¡to ¡evaluate ¡the ¡training ¡

methodology ¡

slide-11
SLIDE 11

How ¡many ¡trained ¡models ¡can ¡I ¡have ¡with ¡ this ¡cross-­‑validation? ¡

If ¡I ¡have ¡a ¡data ¡set ¡that ¡has ¡51 ¡labeled ¡data ¡entries, ¡I ¡ divide ¡them ¡into ¡three ¡folds ¡(17,17,17). ¡How ¡many ¡ trained ¡models ¡can ¡I ¡have? ¡

*This ¡is ¡changed ¡from ¡the ¡class ¡slide. ¡The ¡common ¡pracBce ¡of ¡using ¡fold ¡is ¡to ¡divide ¡ the ¡samples ¡into ¡equal ¡sized ¡k ¡groups ¡and ¡reserve ¡one ¡of ¡the ¡group ¡as ¡the ¡test ¡data ¡

  • set. ¡
slide-12
SLIDE 12

How ¡many ¡trained ¡models ¡can ¡I ¡have ¡with ¡ this ¡cross-­‑validation? ¡

If ¡I ¡have ¡a ¡data ¡set ¡that ¡has ¡51 ¡labeled ¡data ¡entries, ¡I ¡ divide ¡them ¡into ¡three ¡folds ¡(17,17,17). ¡How ¡many ¡ trained ¡models ¡can ¡I ¡have? ¡

51 17

slide-13
SLIDE 13

Decision ¡tree: ¡object ¡classification ¡

✺ The ¡object ¡classifica4on ¡decision ¡tree ¡can ¡classify ¡

  • bjects ¡into ¡mul4ple ¡classes ¡using ¡sequence ¡of ¡

simple ¡tests. ¡It ¡will ¡naturally ¡grow ¡into ¡a ¡tree. ¡

Cat ¡ toddler ¡ dog ¡ chair ¡leg ¡ sofa ¡ box ¡

slide-14
SLIDE 14

Training ¡a ¡decision ¡tree: ¡example ¡

✺ The ¡“Iris” ¡data ¡set ¡

Setosa ¡ Versicolor ¡ Virginica ¡ 1? ¡Where? ¡

slide-15
SLIDE 15

Q: ¡What ¡is ¡accuracy ¡of ¡this ¡decision ¡tree ¡ given ¡the ¡confusion ¡matrix ¡? ¡

  50 49 5 1 45  

  • A. ¡6/150 ¡
  • B. ¡144/150 ¡
  • C. ¡145/150 ¡
slide-16
SLIDE 16
slide-17
SLIDE 17

Q: ¡What ¡is ¡accuracy ¡of ¡this ¡decision ¡tree ¡ given ¡the ¡confusion ¡matrix ¡? ¡

  50 49 5 1 45  

  • A. ¡6/150 ¡
  • B. ¡144/150 ¡
  • C. ¡145/150 ¡
slide-18
SLIDE 18

Decision ¡Boundary ¡

1.75 ¡ 2.45 ¡

slide-19
SLIDE 19

Another ¡Decision ¡Boundary ¡

Credit: ¡Kelvin ¡Murphy, ¡“Machine ¡Learning: ¡A ¡Probabilis4c ¡Perspec4ve”, ¡2012 ¡

slide-20
SLIDE 20

Training ¡a ¡decision ¡tree ¡

✺ Choose ¡a ¡dimension/feature ¡and ¡a ¡split ¡

slide-21
SLIDE 21

Training ¡a ¡decision ¡tree ¡

✺ Choose ¡a ¡dimension/feature ¡and ¡a ¡split ¡ ✺ Split ¡the ¡training ¡Data ¡into ¡leM-­‑ ¡and ¡right-­‑ ¡

child ¡subsets ¡Dl ¡and ¡Dr ¡

slide-22
SLIDE 22

Training ¡a ¡decision ¡tree ¡

✺ Choose ¡a ¡dimension/feature ¡and ¡a ¡split ¡ ✺ Split ¡the ¡training ¡Data ¡into ¡lel-­‑ ¡and ¡right-­‑ ¡

child ¡subsets ¡Dl ¡and ¡Dr ¡

✺ Repeat ¡the ¡two ¡steps ¡above ¡recursively ¡on ¡

each ¡child ¡

slide-23
SLIDE 23

Training ¡a ¡decision ¡tree ¡

✺ Choose ¡a ¡dimension/feature ¡and ¡a ¡split ¡ ✺ Split ¡the ¡training ¡Data ¡into ¡lel-­‑ ¡and ¡right-­‑ ¡

child ¡subsets ¡Dl ¡and ¡Dr ¡

✺ Repeat ¡the ¡two ¡steps ¡above ¡recursively ¡on ¡

each ¡child ¡

✺ Stop ¡the ¡recursion ¡based ¡on ¡some ¡condiBons ¡

slide-24
SLIDE 24

Training ¡a ¡decision ¡tree ¡

✺ Choose ¡a ¡dimension/feature ¡and ¡a ¡split ¡ ✺ Split ¡the ¡training ¡Data ¡into ¡lel-­‑ ¡and ¡right-­‑ ¡

child ¡subsets ¡Dl ¡and ¡Dr ¡

✺ Repeat ¡the ¡two ¡steps ¡above ¡recursively ¡on ¡

each ¡child ¡

✺ Stop ¡the ¡recursion ¡based ¡on ¡some ¡condi4ons ¡ ✺ Label ¡the ¡leaves ¡with ¡class ¡labels ¡

slide-25
SLIDE 25

Classifying ¡with ¡a ¡decision ¡tree: ¡example ¡

✺ The ¡“Iris” ¡data ¡set ¡

Setosa ¡ Versicolor ¡ Virginica ¡

slide-26
SLIDE 26

Choosing ¡a ¡split ¡

✺ An ¡informa4ve ¡split ¡

makes ¡the ¡subsets ¡ more ¡concentrated ¡ and ¡reduces ¡ uncertainty ¡about ¡ class ¡labels ¡

¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡

slide-27
SLIDE 27

Choosing ¡a ¡split ¡

✺ An ¡informa4ve ¡split ¡

makes ¡the ¡subsets ¡ more ¡concentrated ¡ and ¡reduces ¡ uncertainty ¡about ¡ class ¡labels ¡

¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡

slide-28
SLIDE 28

Choosing ¡a ¡split ¡

✺ An ¡informa4ve ¡split ¡

makes ¡the ¡subsets ¡ more ¡concentrated ¡ and ¡reduces ¡ uncertainty ¡about ¡ class ¡labels ¡

¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ✔ ¡ ✖ ¡

slide-29
SLIDE 29

Which ¡is ¡more ¡informative? ¡

slide-30
SLIDE 30

Quantifying ¡uncertainty ¡using ¡entropy ¡

✺ We ¡can ¡measure ¡uncertainty ¡as ¡the ¡

number ¡of ¡bits ¡of ¡informa4on ¡needed ¡ to ¡dis4nguish ¡between ¡classes ¡in ¡a ¡ dataset ¡(first ¡introduced ¡by ¡Claude ¡ Shannon) ¡

✺ We ¡need ¡Log2 ¡2 ¡=1 ¡bit ¡to ¡

dis4nguish ¡2 ¡equal ¡classes ¡

✺ We ¡need ¡Log2 ¡4 ¡=2 ¡bit ¡to ¡

dis4nguish ¡4 ¡equal ¡classes ¡

Claude ¡Shannon ¡(1916-­‑2001) ¡

slide-31
SLIDE 31

Quantifying ¡uncertainty ¡using ¡entropy ¡

✺ Entropy ¡(Shannon ¡entropy) ¡is ¡the ¡measure ¡of ¡

uncertainty ¡for ¡a ¡general ¡distribu4on ¡

✺ If ¡class ¡i ¡contains ¡a ¡frac4on ¡P(i) ¡of ¡the ¡data, ¡we ¡need ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡

bits ¡for ¡that ¡class ¡

✺ The ¡entropy ¡H(D) ¡of ¡a ¡dataset ¡is ¡defined ¡as ¡the ¡weighted ¡

mean ¡of ¡entropy ¡for ¡every ¡class: ¡

H(D) =

c

  • i=1

P(i)log2 1 P(i)

log2 1 P(i)

slide-32
SLIDE 32

Entropy: ¡before ¡the ¡split ¡

¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡

= 0.971 bits

H(D) = −3 5log2 3 5 − 2 5log2 2 5

slide-33
SLIDE 33

Entropy: ¡examples ¡

¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡

= 0.971 bits

H(D) = −3 5log2 3 5 − 2 5log2 2 5

H(Dl) = −1 log21 = 0 bits

slide-34
SLIDE 34

Entropy: ¡examples ¡

¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡

= 0.971 bits

H(D) = −3 5log2 3 5 − 2 5log2 2 5

H(Dl) = −1 log21 = 0 bits

H(Dr) = −1 3log2 1 3 − 2 3log2 2 3 = 0.918 bits

slide-35
SLIDE 35

Information ¡gain ¡of ¡a ¡split ¡ ¡

✺ The ¡informa4on ¡gain ¡of ¡a ¡split ¡is ¡the ¡amount ¡of ¡

entropy ¡that ¡was ¡reduced ¡on ¡average ¡aler ¡the ¡split ¡ ¡

✺ where ¡

✺ ND ¡is ¡the ¡number ¡of ¡items ¡in ¡the ¡dataset ¡D ¡ ✺ NDl ¡is ¡the ¡number ¡of ¡items ¡in ¡the ¡lel-­‑child ¡dataset ¡Dl ¡ ✺ NDr ¡is ¡the ¡number ¡of ¡items ¡in ¡the ¡lel-­‑child ¡dataset ¡Dr ¡

I = H(D) − (NDl ND H(Dl) + NDr ND H(Dr))

slide-36
SLIDE 36

Information ¡gain: ¡examples ¡

¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡

I = H(D) − (NDl ND H(Dl) + NDr ND H(Dr)) = 0.971 − (24 60 × 0 + 36 60 × 0.918) = 0.420 bits

slide-37
SLIDE 37
  • Q. ¡Is ¡the ¡splitting ¡method ¡ ¡global ¡
  • ptimum? ¡
  • A. ¡ ¡Yes ¡
  • B. ¡ ¡No ¡
slide-38
SLIDE 38
slide-39
SLIDE 39
  • Q. ¡Is ¡the ¡splitting ¡method ¡ ¡global ¡
  • ptimum? ¡
  • A. ¡ ¡Yes ¡
  • B. ¡ ¡No ¡
slide-40
SLIDE 40

How ¡to ¡choose ¡a ¡dimension ¡and ¡split ¡

✺ If ¡there ¡are ¡d ¡dimensions, ¡choose ¡approximately ¡ ¡ ¡ ¡ ¡ ¡

  • f ¡them ¡as ¡candidates ¡at ¡random ¡

✺ For ¡each ¡candidate, ¡find ¡the ¡split ¡that ¡maximizes ¡the ¡

informa4on ¡gain ¡

✺ Choose ¡the ¡best ¡overall ¡dimension ¡and ¡split ¡ ✺ Note ¡that ¡spliong ¡can ¡be ¡generalized ¡to ¡categorical ¡

features ¡for ¡which ¡there ¡is ¡no ¡natural ¡ordering ¡of ¡the ¡ data ¡

√ d

slide-41
SLIDE 41

When ¡to ¡stop ¡growing ¡the ¡decision ¡tree? ¡

✺ Growing ¡the ¡tree ¡too ¡deep ¡can ¡lead ¡to ¡

  • verfiong ¡to ¡the ¡training ¡data ¡

✺ Stop ¡recursion ¡on ¡a ¡data ¡subset ¡if ¡any ¡of ¡the ¡

following ¡occurs: ¡

✺ All ¡items ¡in ¡the ¡data ¡subset ¡are ¡in ¡the ¡same ¡class ¡ ✺ The ¡data ¡subset ¡becomes ¡smaller ¡than ¡a ¡predetermined ¡

size ¡

✺ A ¡predetermined ¡maximum ¡tree ¡depth ¡has ¡been ¡reached. ¡

slide-42
SLIDE 42

How ¡to ¡label ¡the ¡leaves ¡of ¡a ¡decision ¡tree ¡

✺ A ¡leaf ¡will ¡usually ¡have ¡a ¡data ¡subset ¡containing ¡

many ¡class ¡labels ¡ ¡

✺ Choose ¡the ¡class ¡that ¡has ¡the ¡most ¡items ¡in ¡the ¡

subset ¡

✺ Alterna4vely, ¡label ¡the ¡leaf ¡with ¡the ¡number ¡it ¡

contains ¡in ¡each ¡class ¡for ¡a ¡probabilis4c ¡“sol” ¡

  • classifica4on. ¡
slide-43
SLIDE 43

Pros ¡and ¡Cons ¡of ¡a ¡decision ¡tree ¡

✺ Pros: ¡

✺ Easy ¡to ¡interpret. ¡ ✺ Handles ¡both ¡discrete ¡and ¡con4nuous ¡inputs ¡ ✺ Insensi4ve ¡to ¡scaling ¡ ✺ Fast ¡running ¡4me ¡

✺ Cons: ¡

✺ Accuracy ¡is ¡not ¡great, ¡due ¡to ¡the ¡greedy ¡algorithm ¡ ✺ Tends ¡to ¡be ¡unstable ¡(high ¡variance) ¡

slide-44
SLIDE 44

From ¡decision ¡trees ¡to ¡random ¡forest ¡

✺ Decision ¡trees ¡have ¡some ¡drawbacks ¡

✺ May ¡not ¡perform ¡well ¡on ¡training ¡data ¡because ¡its ¡

simplis4c ¡random ¡training ¡

✺ May ¡not ¡perform ¡well ¡on ¡test ¡data ¡because ¡of ¡

  • verfiong ¡

✺ A ¡random ¡forest ¡is ¡a ¡randomly ¡generated ¡ensemble ¡

  • f ¡decision ¡trees ¡that ¡avoids ¡both ¡of ¡the ¡above ¡

problems ¡by ¡merging ¡the ¡classifica4ons ¡of ¡the ¡ individual ¡trees. ¡

slide-45
SLIDE 45

Training, ¡evaluation ¡and ¡classification ¡

✺ Build ¡the ¡random ¡forest ¡by ¡training ¡each ¡decision ¡tree ¡on ¡a ¡

random ¡subset ¡with ¡replacement ¡from ¡the ¡training ¡data ¡and ¡ subset ¡of ¡features ¡are ¡also ¡randomly ¡selected-­‑-­‑-­‑ ¡“Bagging” ¡

✺ Evaluate ¡the ¡random ¡forest ¡by ¡tes4ng ¡on ¡its ¡out-­‑of-­‑bag ¡

items ¡

✺ Classify ¡by ¡merging ¡the ¡classifica4ons ¡of ¡individual ¡decision ¡

trees ¡

✺ By ¡simple ¡vote ¡ ✺ Or ¡by ¡adding ¡sol ¡classifica4ons ¡together ¡and ¡then ¡take ¡a ¡

vote ¡

slide-46
SLIDE 46

An ¡example ¡of ¡bagging ¡

Drawing ¡random ¡samples ¡ from ¡our ¡training ¡set ¡with ¡

  • replacement. ¡E.g., ¡if ¡our ¡

training ¡set ¡consists ¡of ¡7 ¡ training ¡samples, ¡our ¡ bootstrap ¡samples ¡(here: ¡ n=7) ¡can ¡look ¡as ¡follows, ¡ where ¡C1, ¡C2, ¡… ¡Cm ¡shall ¡ symbolize ¡the ¡decision ¡ tree ¡classifiers. ¡

Sample ¡ indices ¡ Bagging ¡ Round ¡1 ¡ Bagging ¡ Round ¡2 ¡ … ¡ Bagging ¡ Round ¡M ¡ 1 ¡ 2 ¡ 7 ¡ 2 ¡ 2 ¡ 3 ¡ 3 ¡ 1 ¡ 2 ¡ 4 ¡ 3 ¡ 1 ¡ 5 ¡ 4 ¡ 1 ¡ 6 ¡ 7 ¡ 7 ¡ 7 ¡ 2 ¡ 1 ¡ C1 ¡ C2 ¡

slide-47
SLIDE 47

Pros ¡and ¡Cons ¡of ¡Random ¡forest ¡

✺ Pros: ¡

✺ Mul4ple ¡trees ¡are ¡de-­‑correlated, ¡so ¡ensemble ¡

predic4on ¡is ¡more ¡accurate ¡

✺ Less ¡prone ¡to ¡overfiong ¡ ✺ Fast ¡running ¡4me ¡

✺ Cons: ¡

✺ ¡Difficult ¡to ¡interpret ¡

slide-48
SLIDE 48
  • Q. ¡Do ¡you ¡think ¡random ¡forest ¡will ¡always ¡
  • utperform ¡simple ¡decision ¡tree? ¡ ¡
  • A. ¡ ¡Yes ¡
  • B. ¡ ¡No ¡
slide-49
SLIDE 49
slide-50
SLIDE 50
  • Q. ¡Do ¡you ¡think ¡random ¡forest ¡will ¡always ¡
  • utperform ¡simple ¡decision ¡tree? ¡ ¡
  • A. ¡ ¡Yes ¡
  • B. ¡ ¡No ¡
slide-51
SLIDE 51

Assignments ¡

✺ Read ¡Chapter ¡11 ¡of ¡the ¡textbook ¡ ✺ Next ¡4me: ¡Naïve ¡Bayesisan ¡ ✺ Prepare ¡for ¡midterm2 ¡exam ¡on ¡11/12 ¡

Lec ¡11-­‑Lec ¡18, ¡Chapter ¡6-­‑10, ¡HW5-­‑9 ¡ ✺ Next ¡Mon. ¡in ¡discussion ¡we ¡will ¡do ¡more ¡review ¡ ¡

slide-52
SLIDE 52

Additional ¡References ¡

✺ Peter ¡Dalgaard ¡"Introductory ¡Sta4s4cs" ¡

with ¡R ¡

✺ Robert ¡V. ¡Hogg, ¡Elliot ¡A. ¡Tanis ¡and ¡Dale ¡L. ¡

  • Zimmerman. ¡“Probability ¡and ¡Sta4s4cal ¡

Inference” ¡ ¡

✺ Morris ¡H. ¡Degroot ¡and ¡Mark ¡J. ¡Schervish ¡

"Probability ¡and ¡Sta4s4cs” ¡

slide-53
SLIDE 53

Acknowledgement ¡

Thank You!