predic ng als progression with bayesian addi ve
play

Predic'ng ALS Progression with Bayesian Addi've Regression - PowerPoint PPT Presentation

Predic'ng ALS Progression with Bayesian Addi've Regression Trees Lilly Fang and Lester Mackey November 13, 2012 RECOMB Conference on Regulatory and Systems


  1. Predic'ng ¡ALS ¡Progression ¡with ¡ Bayesian ¡Addi've ¡Regression ¡Trees ¡ Lilly ¡Fang ¡and ¡Lester ¡Mackey ¡ November ¡13, ¡2012 ¡ RECOMB ¡Conference ¡on ¡Regulatory ¡and ¡Systems ¡Genomics ¡

  2. The ¡ALS ¡Predic'on ¡Prize ¡ § Challenge: ¡ Predict ¡progression ¡of ¡ALS ¡over ¡'me ¡ • Dis'nguish ¡fast ¡from ¡slow ¡progressors ¡ § Measure: ¡ ALS ¡Func'onal ¡Ra'ng ¡Scale ¡(ALSFRS) ¡ • Score ¡ranges ¡from ¡0-­‑40 ¡ • Based ¡on ¡10 ¡ques'ons ¡(Speech, ¡Dressing, ¡Handwri'ng, ¡…) ¡ • Rate ¡of ¡progression ¡= ¡slope ¡of ¡ALSFRS ¡score ¡ § The ¡Data ¡ • 918 ¡training ¡+ ¡279 ¡test ¡pa'ents ¡ § 12 ¡months ¡of ¡data ¡(demographic, ¡ALSFRS, ¡vital ¡sta's'cs, ¡lab ¡tests) ¡ § Time ¡series: ¡roughly ¡monthly ¡measurements ¡ • 625 ¡valida'on ¡pa'ents ¡ § Given ¡first ¡3 ¡months ¡of ¡data ¡ § Goal: ¡ Predict ¡future ¡ALSFRS ¡slopes ¡for ¡valida'on ¡pa'ents ¡ • Error ¡metric: ¡Root ¡mean ¡squared ¡devia'on ¡(RMSD) ¡

  3. Outline ¡ § Featuriza6on ¡ • Sta'c ¡Data ¡ • Temporal ¡Data ¡ § Modeling ¡and ¡Inference ¡ • Bayesian ¡Addi've ¡Regression ¡Trees ¡ § Evalua6on ¡ • BART ¡Performance ¡ • Feature ¡Selec'on ¡ • Model ¡Comparison ¡

  4. Featuriza'on ¡ § Goal: ¡ Compact ¡numeric ¡representa'on ¡of ¡each ¡pa'ent ¡ • Features ¡will ¡serve ¡as ¡covariates ¡in ¡a ¡regression ¡model ¡ • Most ¡extracted ¡features ¡will ¡be ¡irrelevant ¡ • Rely ¡on ¡model ¡selec'on ¡/ ¡methods ¡robust ¡to ¡irrelevant ¡features ¡ ¡ ¡

  5. Featuriza'on ¡ § Goal: ¡ Compact ¡numeric ¡representa'on ¡of ¡each ¡pa'ent ¡ • Features ¡will ¡serve ¡as ¡covariates ¡in ¡a ¡regression ¡model ¡ • Most ¡extracted ¡features ¡will ¡be ¡irrelevant ¡ • Rely ¡on ¡model ¡selec'on ¡/ ¡methods ¡robust ¡to ¡irrelevant ¡features ¡ § Sta6c ¡Data ¡ ¡ Demographics ¡ ¡Age, ¡ ¡Race, ¡ ¡Sex ¡ ¡ ALS ¡History ¡ ¡Time ¡from ¡onset, ¡ ¡Site ¡of ¡onset ¡ ¡ Family ¡History ¡Mother, ¡Father, ¡Grandmother, ¡Uncle… ¡ ¡ 49 ¡ …………………… ¡ ¡ …………………… ¡ ¡ ¡ Categorical ¡variables ¡encoded ¡as ¡binary ¡indicators ¡ ¡

  6. Featuriza'on ¡ § Goal: ¡ Compact ¡numeric ¡representa'on ¡of ¡each ¡pa'ent ¡ • Features ¡will ¡serve ¡as ¡covariates ¡in ¡a ¡regression ¡model ¡ • Most ¡extracted ¡features ¡will ¡be ¡irrelevant ¡ • Rely ¡on ¡model ¡selec'on ¡/ ¡methods ¡robust ¡to ¡irrelevant ¡features ¡ § Time ¡Series ¡Data ¡ • Repeated ¡measurements ¡of ¡variables ¡over ¡'me ¡ § ALSFRS ¡ques'on ¡scores ¡ § Alterna've ¡ALS ¡measures ¡(forced ¡and ¡slow ¡vital ¡capacity) ¡ § Vital ¡signs ¡(weight, ¡height, ¡blood ¡pressure, ¡respiratory ¡rate) ¡ § Lab ¡tests ¡( blood ¡chemistry, ¡hematology, ¡urinalysis ) ¡ • Number ¡and ¡frequency ¡of ¡measurements ¡vary ¡across ¡ pa'ents ¡

  7. Featuriza'on ¡ § Goal: ¡ Compact ¡numeric ¡representa'on ¡of ¡each ¡pa'ent ¡ • Features ¡will ¡serve ¡as ¡covariates ¡in ¡a ¡regression ¡model ¡ • Most ¡extracted ¡features ¡will ¡be ¡irrelevant ¡ • Rely ¡on ¡model ¡selec'on ¡/ ¡methods ¡robust ¡to ¡irrelevant ¡features ¡ § Time ¡Series ¡Data ¡ • Compute ¡summary ¡sta's'cs ¡from ¡each ¡'me ¡series ¡ § Mean ¡value, ¡standard ¡devia'on, ¡slope, ¡last ¡recorded ¡value, ¡ maximum ¡value… ¡ • Compute ¡pairwise ¡slopes ¡(difference ¡quo'ents ¡ between ¡adjacent ¡measurements) ¡ § Induces ¡a ¡deriva've ¡'me ¡series ¡ § Extract ¡same ¡summary ¡sta's'cs ¡ ¡

  8. Featurizing ¡Time ¡Series ¡Data ¡ ALSFRS ¡ ¡ Score ¡ 40 ¡ 39 ¡ 38 ¡ 37 ¡ 36 ¡ 0 ¡ 0.5 ¡ 1 ¡ 1.5 ¡ 2 ¡ 2.5 ¡ 3 ¡ 3.5 ¡ Months ¡

  9. Featurizing ¡Time ¡Series ¡Data ¡ ALSFRS ¡ ¡ Score ¡ 40 ¡ Features ¡extracted ¡ • Mean ¡= ¡38.75 ¡ 39 ¡ • SD ¡= ¡0.816 ¡ • Max ¡= ¡40 ¡ 38 ¡ • Min ¡= ¡37 ¡ • Last ¡= ¡37 ¡ 37 ¡ • etc. ¡ ¡ 36 ¡ 0 ¡ 0.5 ¡ 1 ¡ 1.5 ¡ 2 ¡ 2.5 ¡ 3 ¡ 3.5 ¡ Months ¡

  10. Featurizing ¡Time ¡Series ¡Data ¡ ALSFRS ¡ ¡ Score ¡ 40 ¡ Features ¡extracted ¡ • Mean ¡= ¡38.75 ¡ 39 ¡ • SD ¡= ¡0.816 ¡ • Max ¡= ¡40 ¡ 38 ¡ • Min ¡= ¡37 ¡ • Last ¡= ¡37 ¡ 37 ¡ • Slope ¡= ¡-­‑1 ¡ • etc. ¡ ¡ 36 ¡ 0 ¡ 0.5 ¡ 1 ¡ 1.5 ¡ 2 ¡ 2.5 ¡ 3 ¡ 3.5 ¡ Months ¡

  11. Featurizing ¡Time ¡Series ¡Data ¡ ALSFRS ¡ ¡ Score ¡ 40 ¡ slope ¡ ¡ ¡0 ¡ slope ¡ ¡ ¡-­‑1 ¡ 39 ¡ 38 ¡ slope ¡ ¡ ¡-­‑2 ¡ 37 ¡ 36 ¡ 0 ¡ 0.5 ¡ 1 ¡ 1.5 ¡ 2 ¡ 2.5 ¡ 3 ¡ 3.5 ¡ Months ¡

  12. Featurizing ¡Time ¡Series ¡Data ¡ Deriva6ve ¡6me ¡series ¡ ALSFRS ¡ ¡ ALSFRS ¡ ¡ Score ¡ Slope ¡ 40 ¡ 0 ¡ slope ¡ ¡ ¡0 ¡ -­‑0.5 ¡ slope ¡ ¡ ¡-­‑1 ¡ 39 ¡ -­‑1 ¡ 38 ¡ -­‑1.5 ¡ slope ¡ ¡ ¡-­‑2 ¡ 37 ¡ -­‑2 ¡ 36 ¡ -­‑2.5 ¡ 0 ¡ 0.5 ¡ 1 ¡ 1.5 ¡ 2 ¡ 2.5 ¡ 3 ¡ 3.5 ¡ Months ¡

  13. Featurizing ¡Time ¡Series ¡Data ¡ Deriva6ve ¡6me ¡series ¡ ALSFRS ¡ ¡ ALSFRS ¡ ¡ Score ¡ Slope ¡ 40 ¡ 0 ¡ slope ¡ ¡ ¡0 ¡ -­‑0.5 ¡ slope ¡ ¡ ¡-­‑1 ¡ 39 ¡ -­‑1 ¡ 38 ¡ -­‑1.5 ¡ slope ¡ ¡ ¡-­‑2 ¡ 37 ¡ -­‑2 ¡ 36 ¡ -­‑2.5 ¡ 0 ¡ 0.5 ¡ 1 ¡ 1.5 ¡ 2 ¡ 2.5 ¡ 3 ¡ 3.5 ¡ Months ¡

  14. Featurizing ¡Time ¡Series ¡Data ¡ ALSFRS ¡ ¡ Deriva6ve ¡6me ¡series ¡ ALSFRS ¡ ¡ Score ¡ Slope ¡ 40 ¡ 0 ¡ Features ¡ extracted ¡ -­‑0.5 ¡ 39 ¡ Mean ¡= ¡-­‑1 ¡ SD ¡= ¡1 ¡ -­‑1 ¡ Max ¡= ¡0 ¡ 38 ¡ Min ¡= ¡-­‑2 ¡ -­‑1.5 ¡ Last ¡= ¡-­‑2 ¡ Slope ¡= ¡-­‑0.5 ¡ 37 ¡ -­‑2 ¡ etc. ¡ ¡ 36 ¡ -­‑2.5 ¡ 0 ¡ 0.5 ¡ 1 ¡ 1.5 ¡ 2 ¡ 2.5 ¡ 3 ¡ 3.5 ¡ Months ¡

  15. Featurizing ¡Time ¡Series ¡Data ¡ § 435 ¡temporal ¡features ¡extracted ¡ § Problem: ¡ Missing ¡data ¡ • Average ¡pa'ent ¡missing ¡10% ¡of ¡features ¡ • One ¡pa'ent ¡missing ¡55% ¡of ¡features! ¡ • Missing ¡values ¡imputed ¡using ¡median ¡heuris'c ¡ § Problem: ¡ Outliers ¡ • Nonsense ¡values: ¡Number ¡of ¡liters ¡recorded ¡as ¡ MDMD ¡ • Units ¡incorrectly ¡recorded ¡ ⇒ ¡Wrong ¡conversions ¡ • Extreme ¡values ¡ § Treated ¡as ¡missing ¡if ¡> ¡4 ¡standard ¡devia'ons ¡from ¡mean ¡ ¡

  16. Modeling ¡and ¡Inference ¡ § Regression ¡model ¡ Future ¡ALSFRS ¡Slope ¡= ¡f(features) ¡+ ¡noise ¡ ¡ Unknown ¡regression ¡func'on ¡ § Goal: ¡ infer ¡f ¡ from ¡data ¡ • Bayesian: ¡Place ¡a ¡prior ¡on ¡ f , ¡infer ¡its ¡posterior ¡ • Bonus: ¡Uncertainty ¡es'mates ¡for ¡each ¡predic'on ¡ § What ¡prior? ¡ • Flexible ¡and ¡nonparametric ¡ ¡ § Avoid ¡restric've ¡assump'ons ¡about ¡func'onal ¡form ¡ • Favor ¡simple, ¡sparse ¡models ¡ § Avoid ¡overfijng ¡to ¡irrelevant ¡features ¡

  17. Bayesian ¡Addi've ¡Regression ¡Trees * ¡ § f ( features ) ¡= ¡sum ¡of ¡ “simple” ¡ decision ¡trees ¡ … ¡ Days ¡since ¡ Past ¡ALSFRS ¡ + ¡ + ¡ onset ¡> ¡705 ¡ slope ¡> ¡-­‑0.6 ¡ … ¡ -­‑0.5 ¡ -­‑0.83 ¡ 0.06 ¡ -­‑0.08 ¡ • Simplicity ¡= ¡tree ¡depends ¡on ¡few ¡features ¡ § Irrelevant ¡features ¡seldom ¡selected ¡ • Similar ¡to ¡frequen'st ¡ensemble ¡methods ¡ § Boosted ¡decision ¡trees, ¡random ¡forests ¡ * Chipman, ¡George, ¡and ¡McCulloch ¡(2010) ¡

Download Presentation
Download Policy: The content available on the website is offered to you 'AS IS' for your personal information and use only. It cannot be commercialized, licensed, or distributed on other websites without prior consent from the author. To download a presentation, simply click this link. If you encounter any difficulties during the download process, it's possible that the publisher has removed the file from their server.

Recommend


More recommend