tni computa onal neuroscience
play

TNI: - PowerPoint PPT Presentation

TNI: Computa-onal Neuroscience Instructors: Peter Latham Maneesh Sahani Peter Dayan TAs:


  1. ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡TNI: ¡Computa-onal ¡Neuroscience ¡ ¡ Instructors: ¡Peter ¡Latham ¡ ¡ ¡Maneesh ¡Sahani ¡ ¡ ¡Peter ¡Dayan ¡ ¡ TAs: ¡ ¡Loic ¡Ma=hey, ¡loic.ma=hey@gatsby.ucl.ac.uk ¡ ¡ ¡Ritwik ¡Niyogi, ¡ritwik.niyogi@gatsby.ucl.ac.uk ¡ Website: ¡ ¡ ¡ www.gatsby.ucl.ac.uk/~lma=hey/teaching/tn1/ ¡ ¡ Lectures: ¡Tuesday/Friday, ¡11:00-­‑1:00. ¡ Review: ¡Tuesday, ¡4:30-­‑6:30. ¡ ¡ Homework: ¡Assigned ¡Friday, ¡due ¡Friday ¡(1 ¡week ¡later). ¡ ¡ ¡first ¡homework: ¡assigned ¡Oct. ¡8, ¡due ¡Oct. ¡15. ¡

  2. Theoretical Neuroscience • neuroscience: – how does the brain work? • theoretical neuroscience: – data analysis: • how can we extract; characterize spikes/anatomy? – mathematical neuroscience: • reductive modeling of a natural phenomenon – computational neuroscience: • the brain computes...

  3. There ¡are ¡about ¡150 ¡trillion ¡cubes ¡of ¡ this ¡size ¡in ¡your ¡brain! ¡ 0.46 µ m

  4. Levels of Reduction

  5. Reductive Models • descriptive: – characterize as a cubic spline • mechanistic: – characterise in terms of gating: • explanatory model of spike, from • descriptive model of the gate • now: do a better job:

  6. Marrian Analysis • interpretive patina around reductive model – computation • goal; intent • logic of the strategy – algorithm • effective procedure for realizing computation • representations (coding) – implementation • neural substrate

  7. Example ¡#1: ¡memory. ¡ ¡ the ¡problem: ¡ ¡recall ¡events, ¡typically ¡based ¡on ¡par-al ¡informa-on. ¡

  8. Example ¡#1: ¡memory. ¡ ¡ the ¡problem: ¡ ¡recall ¡events, ¡typically ¡based ¡on ¡par-al ¡informa-on. ¡ ¡associa-ve ¡or ¡content-­‑addressable ¡memory. ¡ ¡ ¡ an ¡algorithm: ¡ ¡dynamical ¡systems ¡with ¡fixed ¡points. ¡ r 3 ¡ r 2 ¡ r 1 ¡ ac-vity ¡space ¡

  9. Example ¡#1: ¡memory. ¡ ¡ the ¡problem: ¡ ¡recall ¡events, ¡typically ¡based ¡on ¡par-al ¡informa-on. ¡ ¡associa-ve ¡or ¡content-­‑addressable ¡memory. ¡ ¡BUT: ¡which ¡one ¡to ¡recall ¡(depends ¡on ¡environment) ¡ ¡ an ¡algorithm: ¡ ¡dynamical ¡systems ¡with ¡fixed ¡points. ¡ ¡ neural ¡implementa-on: ¡ ¡Hopfield ¡networks. ¡ ¡ ¡ ¡ x i ¡= ¡sign(∑ j ¡J ij ¡x j ) ¡

  10. Example ¡#2: ¡vision. ¡ ¡ the ¡problem ¡(Marr): ¡ ¡2-­‑D ¡image ¡on ¡re-na ¡→ ¡ ¡ ¡3-­‑D ¡reconstruc-on ¡of ¡a ¡visual ¡scene. ¡

  11. Example ¡#2: ¡vision. ¡ ¡ the ¡problem ¡(modern ¡version): ¡ ¡2-­‑D ¡image ¡on ¡re-na ¡→ ¡ ¡ ¡recover ¡the ¡latent ¡variables. ¡ house ¡ sun ¡ tree ¡ Rembrandt ¡

  12. Example ¡#2: ¡vision. ¡ ¡ the ¡problem ¡(modern ¡version): ¡ ¡2-­‑D ¡image ¡on ¡re-na ¡→ ¡ ¡ ¡recover ¡the ¡latent ¡variables. ¡ house ¡ sun ¡ tree ¡ Rembrandt ¡ cloud ¡

  13. Example ¡#2: ¡vision. ¡ ¡ the ¡problem ¡(modern ¡version): ¡ ¡2-­‑D ¡image ¡on ¡re-na ¡→ ¡ ¡ ¡reconstruc-on ¡of ¡latent ¡variables. ¡ ¡ an ¡algorithm: ¡ ¡graphical ¡models. ¡ x 1 ¡ x 2 ¡ x 3 ¡ latent ¡variables ¡ r 1 ¡ r 2 ¡ r 3 ¡ r 4 ¡ low ¡level ¡representa-on ¡

  14. Example ¡#2: ¡vision. ¡ ¡ the ¡problem ¡(modern ¡version): ¡ ¡2-­‑D ¡image ¡on ¡re-na ¡→ ¡ ¡ ¡reconstruc-on ¡of ¡latent ¡variables. ¡ ¡ an ¡algorithm: ¡ ¡graphical ¡models. ¡ x 1 ¡ x 2 ¡ x 3 ¡ latent ¡variables ¡ inference ¡ r 1 ¡ r 2 ¡ r 3 ¡ r 4 ¡ low ¡level ¡representa-on ¡

  15. Example ¡#2: ¡vision. ¡ ¡ the ¡problem ¡(modern ¡version): ¡ ¡2-­‑D ¡image ¡on ¡re-na ¡→ ¡ ¡ ¡reconstruc-on ¡of ¡latent ¡variables. ¡ ¡ an ¡algorithm: ¡ ¡graphical ¡models. ¡ ¡ implementa-on ¡in ¡networks ¡of ¡neurons: ¡ ¡li=le ¡clue. ¡

  16. Comment ¡#1: ¡ ¡ the ¡problem: ¡ the ¡algorithm: ¡ neural ¡implementa-on: ¡

  17. Comment ¡#1: ¡ ¡ the ¡problem: ¡ ¡ ¡ ¡easier ¡ the ¡algorithm: ¡ ¡ ¡ ¡harder ¡ neural ¡implementa-on: ¡ ¡harder ¡ oeen ¡ignored!!! ¡

  18. Comment ¡#1: ¡ ¡ the ¡problem: ¡ ¡ ¡ ¡easier ¡ the ¡algorithm: ¡ ¡ ¡ ¡harder ¡ neural ¡implementa-on: ¡ ¡harder ¡ ¡ A ¡common ¡approach: ¡ ¡ ¡Experimental ¡observa-on ¡ ¡→ ¡ ¡model ¡ ¡ Usually ¡very ¡underconstrained!!!! ¡

  19. Comment ¡#1: ¡ ¡ the ¡problem: ¡ ¡ ¡ ¡easier ¡ the ¡algorithm: ¡ ¡ ¡ ¡harder ¡ neural ¡implementa-on: ¡ ¡harder ¡ ¡ Example ¡ i : ¡CPGs ¡(central ¡pa=ern ¡generators) ¡ rate ¡ rate ¡ Too ¡easy!!! ¡

  20. Comment ¡#1: ¡ ¡ the ¡problem: ¡ ¡ ¡ ¡easier ¡ the ¡algorithm: ¡ ¡ ¡ ¡harder ¡ neural ¡implementa-on: ¡ ¡harder ¡ ¡ Example ¡ ii : ¡single ¡cell ¡modeling ¡ C ¡ dV / dt ¡= ¡-­‑ g L ( V ¡– ¡ V L ) ¡– ¡ n 4 ( V ¡– ¡ V K ) ¡… ¡ ¡ dn / dt ¡= ¡… ¡ ¡ … ¡ lots ¡and ¡lots ¡of ¡parameters ¡… ¡which ¡ones ¡should ¡you ¡use? ¡

  21. Comment ¡#1: ¡ ¡ the ¡problem: ¡ ¡ ¡ ¡easier ¡ the ¡algorithm: ¡ ¡ ¡ ¡harder ¡ neural ¡implementa-on: ¡ ¡harder ¡ ¡ Example ¡ iii : ¡network ¡modeling ¡ lots ¡and ¡lots ¡of ¡parameters ¡× ¡thousands ¡

  22. Comment ¡#2: ¡ ¡ the ¡problem: ¡ ¡ ¡ ¡easier ¡ the ¡algorithm: ¡ ¡ ¡ ¡harder ¡ neural ¡implementa-on: ¡ ¡harder ¡ ¡ ¡ You ¡need ¡to ¡know ¡a ¡lot ¡of ¡maths ¡ r 3 ¡ x 1 ¡ x 2 ¡ x 3 ¡ r 2 ¡ r 1 ¡ r 2 ¡ r 3 ¡ r 4 ¡ r 1 ¡ ac-vity ¡space ¡

  23. Marrian ¡Condi*oning ¡ predic-on: ¡of ¡important ¡events ¡ control: ¡ ¡ ¡ ¡ ¡ ¡in ¡the ¡light ¡of ¡those ¡predic-ons ¡ • Ethology ¡ • Computa*on ¡ – op*mality ¡ – dynamic ¡progr. ¡ – appropriateness ¡ – Kalman ¡filtering ¡ • Psychology ¡ • Algorithm ¡ – classical/operant ¡ – TD/delta ¡rules ¡ ¡ ¡ ¡condi*oning ¡ – simple ¡weights ¡ • ¡ Neurobiology ¡ ¡ neuromodulators; ¡midbrain; ¡sub-­‑cor*cal; ¡ cor*cal ¡structures ¡ 23

  24. Comment ¡#3: ¡ ¡ the ¡problem: ¡ ¡ ¡ ¡easier ¡ the ¡algorithm: ¡ ¡ ¡ ¡harder ¡ neural ¡implementa-on: ¡ ¡harder ¡ ¡ This ¡is ¡a ¡good ¡goal, ¡but ¡it’s ¡hard ¡to ¡do ¡in ¡prac-ce. ¡ ¡ Our ¡actual ¡bread ¡and ¡bu=er: ¡ ¡ ¡ ¡ ¡ ¡ ¡1. ¡Explaining ¡observa-ons ¡(mathema-cally) ¡ ¡ ¡ ¡ ¡ ¡ ¡2. ¡Using ¡sophis-cated ¡analysis ¡to ¡design ¡simple ¡experiments ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡that ¡test ¡hypotheses. ¡ two ¡experiments: ¡RL ¡and ¡visual ¡salience ¡

  25. Temporal ¡Difference ¡Predic-on ¡Error ¡ TD ¡error ¡ δ (t)=r(t)+V(t+1)-V(t) Value ¡ Predic-on ¡error ¡ High ¡ 0.8 ¡ 1.0 ¡ Pain ¡ 0.2 ¡ 0.2 ¡ Low ¡ Pain ¡ 0.8 ¡ 1.0 ¡ 25

  26. ¡ ¡ ¡ ¡ ¡ TD ¡predic-on ¡error: ¡ ¡ ¡ ¡ ¡ ¡ventral ¡striatum ¡ Z=-­‑4 ¡ R ¡ 26

  27. Visual Salience (Li/Zhaoping) • problem: – segmentation without classification • algorithm: – interacting neural elements with a connection field • implementation: – horizontal connections in V1!

  28. Monocular Popout

  29. Comment ¡#4: ¡ ¡ the ¡problem: ¡ ¡ ¡ ¡easier ¡ the ¡algorithm: ¡ ¡ ¡ ¡harder ¡ neural ¡implementa-on: ¡ ¡harder ¡ ¡ ¡ these ¡are ¡linked!!! ¡ ¡ ¡ ¡ some ¡algorithms ¡are ¡easy ¡to ¡implement ¡on ¡a ¡computer ¡ but ¡hard ¡in ¡a ¡brain, ¡and ¡vice-­‑versa. ¡

  30. Comment ¡#4: ¡ ¡ ¡ ¡hard ¡for ¡a ¡brain, ¡easy ¡for ¡a ¡computer: ¡ ¡ ¡ ¡ ¡A -­‑1 ¡ ¡ ¡ ¡ z = x + y ¡ ¡ ¡∫ dx ¡... ¡ ¡ ¡ op-mal ¡draught s ¡ ¡ ¡ ¡easy ¡for ¡a ¡brain, ¡hard ¡for ¡a ¡computer: ¡ ¡ ¡ ¡speech ¡recogni-on ¡ ¡ ¡go ¡ ¡ ¡inference ¡from ¡diverse, ¡weak, ¡hierarchical ¡ ¡ ¡ ¡ ¡sta-s-cal ¡constraints ¡

Download Presentation
Download Policy: The content available on the website is offered to you 'AS IS' for your personal information and use only. It cannot be commercialized, licensed, or distributed on other websites without prior consent from the author. To download a presentation, simply click this link. If you encounter any difficulties during the download process, it's possible that the publisher has removed the file from their server.

Recommend


More recommend