TNI: - - PowerPoint PPT Presentation

tni computa onal neuroscience
SMART_READER_LITE
LIVE PREVIEW

TNI: - - PowerPoint PPT Presentation

TNI: Computa-onal Neuroscience Instructors: Peter Latham Maneesh Sahani Peter Dayan TAs:


slide-1
SLIDE 1

¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡TNI: ¡Computa-onal ¡Neuroscience ¡ ¡ Instructors: ¡Peter ¡Latham ¡ ¡ ¡Maneesh ¡Sahani ¡ ¡ ¡Peter ¡Dayan ¡ ¡ TAs: ¡ ¡Loic ¡Ma=hey, ¡loic.ma=hey@gatsby.ucl.ac.uk ¡ ¡ ¡Ritwik ¡Niyogi, ¡ritwik.niyogi@gatsby.ucl.ac.uk ¡ Website: ¡ ¡ ¡www.gatsby.ucl.ac.uk/~lma=hey/teaching/tn1/ ¡ ¡ Lectures: ¡Tuesday/Friday, ¡11:00-­‑1:00. ¡ Review: ¡Tuesday, ¡4:30-­‑6:30. ¡ ¡ Homework: ¡Assigned ¡Friday, ¡due ¡Friday ¡(1 ¡week ¡later). ¡ ¡ ¡first ¡homework: ¡assigned ¡Oct. ¡8, ¡due ¡Oct. ¡15. ¡

slide-2
SLIDE 2

Theoretical Neuroscience

  • neuroscience:

– how does the brain work?

  • theoretical neuroscience:

– data analysis:

  • how can we extract; characterize spikes/anatomy?

– mathematical neuroscience:

  • reductive modeling of a natural phenomenon

– computational neuroscience:

  • the brain computes...
slide-3
SLIDE 3

There ¡are ¡about ¡150 ¡trillion ¡cubes ¡of ¡ this ¡size ¡in ¡your ¡brain! ¡

0.46µm

slide-4
SLIDE 4

Levels of Reduction

slide-5
SLIDE 5

Reductive Models

  • descriptive:

– characterize as a cubic spline

  • mechanistic:

– characterise in terms of gating:

  • explanatory model of spike, from
  • descriptive model of the gate
  • now: do a better job:
slide-6
SLIDE 6

Marrian Analysis

  • interpretive patina around reductive model

– computation

  • goal; intent
  • logic of the strategy

– algorithm

  • effective procedure for realizing computation
  • representations (coding)

– implementation

  • neural substrate
slide-7
SLIDE 7

Example ¡#1: ¡memory. ¡ ¡ the ¡problem: ¡ ¡recall ¡events, ¡typically ¡based ¡on ¡par-al ¡informa-on. ¡

slide-8
SLIDE 8

Example ¡#1: ¡memory. ¡ ¡ the ¡problem: ¡ ¡recall ¡events, ¡typically ¡based ¡on ¡par-al ¡informa-on. ¡ ¡associa-ve ¡or ¡content-­‑addressable ¡memory. ¡ ¡ ¡ an ¡algorithm: ¡ ¡dynamical ¡systems ¡with ¡fixed ¡points. ¡ r3 ¡ r2 ¡ r1 ¡ ac-vity ¡space ¡

slide-9
SLIDE 9

Example ¡#1: ¡memory. ¡ ¡ the ¡problem: ¡ ¡recall ¡events, ¡typically ¡based ¡on ¡par-al ¡informa-on. ¡ ¡associa-ve ¡or ¡content-­‑addressable ¡memory. ¡ ¡BUT: ¡which ¡one ¡to ¡recall ¡(depends ¡on ¡environment) ¡ ¡ an ¡algorithm: ¡ ¡dynamical ¡systems ¡with ¡fixed ¡points. ¡ ¡ neural ¡implementa-on: ¡ ¡Hopfield ¡networks. ¡ ¡ ¡ ¡xi ¡= ¡sign(∑j ¡Jij ¡xj) ¡

slide-10
SLIDE 10

Example ¡#2: ¡vision. ¡ ¡ the ¡problem ¡(Marr): ¡ ¡2-­‑D ¡image ¡on ¡re-na ¡→ ¡ ¡ ¡3-­‑D ¡reconstruc-on ¡of ¡a ¡visual ¡scene. ¡

slide-11
SLIDE 11

Example ¡#2: ¡vision. ¡ ¡ the ¡problem ¡(modern ¡version): ¡ ¡2-­‑D ¡image ¡on ¡re-na ¡→ ¡ ¡ ¡recover ¡the ¡latent ¡variables. ¡ house ¡ sun ¡ tree ¡ Rembrandt ¡

slide-12
SLIDE 12

Example ¡#2: ¡vision. ¡ ¡ the ¡problem ¡(modern ¡version): ¡ ¡2-­‑D ¡image ¡on ¡re-na ¡→ ¡ ¡ ¡recover ¡the ¡latent ¡variables. ¡ house ¡ sun ¡ tree ¡ Rembrandt ¡ cloud ¡

slide-13
SLIDE 13

Example ¡#2: ¡vision. ¡ ¡ the ¡problem ¡(modern ¡version): ¡ ¡2-­‑D ¡image ¡on ¡re-na ¡→ ¡ ¡ ¡reconstruc-on ¡of ¡latent ¡variables. ¡ ¡ an ¡algorithm: ¡ ¡graphical ¡models. ¡ x1 ¡ x2 ¡ x3 ¡ r1 ¡ r2 ¡ r3 ¡ r4 ¡ latent ¡variables ¡ low ¡level ¡representa-on ¡

slide-14
SLIDE 14

Example ¡#2: ¡vision. ¡ ¡ the ¡problem ¡(modern ¡version): ¡ ¡2-­‑D ¡image ¡on ¡re-na ¡→ ¡ ¡ ¡reconstruc-on ¡of ¡latent ¡variables. ¡ ¡ an ¡algorithm: ¡ ¡graphical ¡models. ¡ x1 ¡ x2 ¡ x3 ¡ r1 ¡ r2 ¡ r3 ¡ r4 ¡ latent ¡variables ¡ low ¡level ¡representa-on ¡ inference ¡

slide-15
SLIDE 15

Example ¡#2: ¡vision. ¡ ¡ the ¡problem ¡(modern ¡version): ¡ ¡2-­‑D ¡image ¡on ¡re-na ¡→ ¡ ¡ ¡reconstruc-on ¡of ¡latent ¡variables. ¡ ¡ an ¡algorithm: ¡ ¡graphical ¡models. ¡ ¡ implementa-on ¡in ¡networks ¡of ¡neurons: ¡ ¡li=le ¡clue. ¡

slide-16
SLIDE 16

Comment ¡#1: ¡ ¡ the ¡problem: ¡ the ¡algorithm: ¡ neural ¡implementa-on: ¡

slide-17
SLIDE 17

Comment ¡#1: ¡ ¡ the ¡problem: ¡ ¡ ¡ ¡easier ¡ the ¡algorithm: ¡ ¡ ¡ ¡harder ¡ neural ¡implementa-on: ¡ ¡harder ¡

  • een ¡ignored!!! ¡
slide-18
SLIDE 18

Comment ¡#1: ¡ ¡ the ¡problem: ¡ ¡ ¡ ¡easier ¡ the ¡algorithm: ¡ ¡ ¡ ¡harder ¡ neural ¡implementa-on: ¡ ¡harder ¡ ¡ A ¡common ¡approach: ¡ ¡ ¡Experimental ¡observa-on ¡ ¡→ ¡ ¡model ¡ ¡ Usually ¡very ¡underconstrained!!!! ¡

slide-19
SLIDE 19

Comment ¡#1: ¡ ¡ the ¡problem: ¡ ¡ ¡ ¡easier ¡ the ¡algorithm: ¡ ¡ ¡ ¡harder ¡ neural ¡implementa-on: ¡ ¡harder ¡ ¡ Example ¡i: ¡CPGs ¡(central ¡pa=ern ¡generators) ¡ rate ¡ rate ¡ Too ¡easy!!! ¡

slide-20
SLIDE 20

Comment ¡#1: ¡ ¡ the ¡problem: ¡ ¡ ¡ ¡easier ¡ the ¡algorithm: ¡ ¡ ¡ ¡harder ¡ neural ¡implementa-on: ¡ ¡harder ¡ ¡ Example ¡ii: ¡single ¡cell ¡modeling ¡ C ¡dV/dt ¡= ¡-­‑gL(V ¡– ¡VL) ¡– ¡n4(V ¡– ¡VK) ¡… ¡ ¡ dn/dt ¡= ¡… ¡ ¡ … ¡ lots ¡and ¡lots ¡of ¡parameters ¡… ¡which ¡ones ¡should ¡you ¡use? ¡

slide-21
SLIDE 21

Comment ¡#1: ¡ ¡ the ¡problem: ¡ ¡ ¡ ¡easier ¡ the ¡algorithm: ¡ ¡ ¡ ¡harder ¡ neural ¡implementa-on: ¡ ¡harder ¡ ¡ Example ¡iii: ¡network ¡modeling ¡ lots ¡and ¡lots ¡of ¡parameters ¡× ¡thousands ¡

slide-22
SLIDE 22

Comment ¡#2: ¡ ¡ the ¡problem: ¡ ¡ ¡ ¡easier ¡ the ¡algorithm: ¡ ¡ ¡ ¡harder ¡ neural ¡implementa-on: ¡ ¡harder ¡ ¡ ¡ You ¡need ¡to ¡know ¡a ¡lot ¡of ¡maths ¡ r3 ¡ r2 ¡ r1 ¡ ac-vity ¡space ¡ x1 ¡ x2 ¡ x3 ¡ r1 ¡ r2 ¡ r3 ¡ r4 ¡

slide-23
SLIDE 23

23

Marrian ¡Condi*oning ¡

  • Ethology ¡

– op*mality ¡ – appropriateness ¡

  • Psychology ¡

– classical/operant ¡ ¡ ¡ ¡condi*oning ¡

¡

  • Computa*on ¡

– dynamic ¡progr. ¡ – Kalman ¡filtering ¡

  • Algorithm ¡

– TD/delta ¡rules ¡ – simple ¡weights ¡

  • ¡Neurobiology ¡

neuromodulators; ¡midbrain; ¡sub-­‑cor*cal; ¡ cor*cal ¡structures ¡

predic-on: ¡of ¡important ¡events ¡ control: ¡ ¡ ¡ ¡ ¡ ¡in ¡the ¡light ¡of ¡those ¡predic-ons ¡

slide-24
SLIDE 24

Comment ¡#3: ¡ ¡ the ¡problem: ¡ ¡ ¡ ¡easier ¡ the ¡algorithm: ¡ ¡ ¡ ¡harder ¡ neural ¡implementa-on: ¡ ¡harder ¡ ¡ This ¡is ¡a ¡good ¡goal, ¡but ¡it’s ¡hard ¡to ¡do ¡in ¡prac-ce. ¡ ¡ Our ¡actual ¡bread ¡and ¡bu=er: ¡ ¡ ¡ ¡ ¡ ¡ ¡1. ¡Explaining ¡observa-ons ¡(mathema-cally) ¡ ¡ ¡ ¡ ¡ ¡ ¡2. ¡Using ¡sophis-cated ¡analysis ¡to ¡design ¡simple ¡experiments ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡that ¡test ¡hypotheses. ¡ two ¡experiments: ¡RL ¡and ¡visual ¡salience ¡

slide-25
SLIDE 25

25

High ¡ Pain ¡ Low ¡ Pain ¡

0.8 ¡ 1.0 ¡ 0.8 ¡ 1.0 ¡ 0.2 ¡ 0.2 ¡

Predic-on ¡error ¡

δ(t)=r(t)+V(t+1)-V(t)

TD ¡error ¡

Temporal ¡Difference ¡Predic-on ¡Error ¡

Value ¡

slide-26
SLIDE 26

26

¡ ¡ ¡ ¡ ¡

TD ¡predic-on ¡error: ¡ ¡ ¡ ¡ ¡ ¡ventral ¡striatum ¡

Z=-­‑4 ¡ R ¡

slide-27
SLIDE 27

Visual Salience (Li/Zhaoping)

  • problem:

– segmentation without classification

  • algorithm:

– interacting neural elements with a connection field

  • implementation:

– horizontal connections in V1!

slide-28
SLIDE 28

Monocular Popout

slide-29
SLIDE 29

Comment ¡#4: ¡ ¡ the ¡problem: ¡ ¡ ¡ ¡easier ¡ the ¡algorithm: ¡ ¡ ¡ ¡harder ¡ neural ¡implementa-on: ¡ ¡harder ¡ ¡ ¡ ¡ ¡ ¡ some ¡algorithms ¡are ¡easy ¡to ¡implement ¡on ¡a ¡computer ¡ but ¡hard ¡in ¡a ¡brain, ¡and ¡vice-­‑versa. ¡ these ¡are ¡linked!!! ¡

slide-30
SLIDE 30

Comment ¡#4: ¡ ¡ ¡ ¡hard ¡for ¡a ¡brain, ¡easy ¡for ¡a ¡computer: ¡ ¡ ¡ ¡ ¡A-­‑1 ¡ ¡ ¡ ¡z=x+y ¡ ¡ ¡∫dx ¡... ¡ ¡ ¡op-mal ¡draughts ¡ ¡ ¡ ¡easy ¡for ¡a ¡brain, ¡hard ¡for ¡a ¡computer: ¡ ¡ ¡ ¡speech ¡recogni-on ¡ ¡ ¡go ¡ ¡ ¡inference ¡from ¡diverse, ¡weak, ¡hierarchical ¡ ¡ ¡ ¡ ¡sta-s-cal ¡constraints ¡

slide-31
SLIDE 31

Comment ¡#4: ¡ ¡ the ¡problem: ¡ ¡ ¡ ¡easier ¡ the ¡algorithm: ¡ ¡ ¡ ¡harder ¡ neural ¡implementa-on: ¡ ¡harder ¡ ¡ ¡ ¡ ¡ ¡ some ¡algorithms ¡are ¡easy ¡to ¡implement ¡on ¡a ¡computer ¡ but ¡hard ¡in ¡a ¡brain, ¡and ¡vice-­‑versa. ¡ ¡ we ¡should ¡be ¡looking ¡for ¡the ¡vice-­‑versa ¡ones. ¡ ¡ it ¡can ¡be ¡hard ¡to ¡tell ¡which ¡is ¡which. ¡ these ¡are ¡linked!!! ¡

slide-32
SLIDE 32

Basic ¡facts ¡about ¡the ¡brain ¡

slide-33
SLIDE 33

Your ¡brain ¡

slide-34
SLIDE 34

Your ¡cortex ¡unfolded ¡

~30 ¡cm ¡ ~0.5 ¡cm ¡ neocortex ¡(cogni-on) ¡ subcor-cal ¡structures ¡ (emo-ons, ¡reward, ¡ homeostasis, ¡much ¡much ¡ more) ¡ 6 ¡layers ¡

slide-35
SLIDE 35

Your ¡cortex ¡unfolded ¡

1 ¡cubic ¡millimeter, ¡ ~3*10-­‑5 ¡oz ¡

slide-36
SLIDE 36

1 ¡mm3 ¡of ¡cortex: ¡ ¡ 50,000 ¡neurons ¡ 10000 ¡connec-ons/neuron ¡ (=> ¡500 ¡million ¡connec-ons) ¡ 4 ¡km ¡of ¡axons ¡

slide-37
SLIDE 37

1 ¡mm3 ¡of ¡cortex: ¡ ¡ 50,000 ¡neurons ¡ 10000 ¡connec-ons/neuron ¡ (=> ¡500 ¡million ¡connec-ons) ¡ 4 ¡km ¡of ¡axons ¡ 1 ¡mm2 ¡of ¡a ¡CPU: ¡ ¡ 1 ¡million ¡transistors ¡ 2 ¡connec-ons/transistor ¡ (=> ¡2 ¡million ¡connec-ons) ¡ .002 ¡km ¡of ¡wire ¡

slide-38
SLIDE 38

1 ¡mm3 ¡of ¡cortex: ¡ ¡ 50,000 ¡neurons ¡ 10000 ¡connec-ons/neuron ¡ (=> ¡500 ¡million ¡connec-ons) ¡ 4 ¡km ¡of ¡axons ¡ ¡ ¡ whole ¡brain ¡ ¡(2 ¡kg): ¡ ¡ 1011 ¡neurons ¡ 1015 ¡connec-ons ¡ 8 ¡million ¡km ¡of ¡axons ¡ 1 ¡mm2 ¡of ¡a ¡CPU: ¡ ¡ 1 ¡million ¡transistors ¡ 2 ¡connec-ons/transistor ¡ (=> ¡2 ¡million ¡connec-ons) ¡ .002 ¡km ¡of ¡wire ¡ ¡ ¡ whole ¡CPU: ¡ ¡ 109 ¡transistors ¡ 2*109 ¡connec-ons ¡ 2 ¡km ¡of ¡wire ¡

slide-39
SLIDE 39

1 ¡mm3 ¡of ¡cortex: ¡ ¡ 50,000 ¡neurons ¡ 10000 ¡connec-ons/neuron ¡ (=> ¡500 ¡million ¡connec-ons) ¡ 4 ¡km ¡of ¡axons ¡ ¡ ¡ whole ¡brain ¡ ¡(2 ¡kg): ¡ ¡ 1011 ¡neurons ¡ 1015 ¡connec-ons ¡ 8 ¡million ¡km ¡of ¡axons ¡ 1 ¡mm2 ¡of ¡a ¡CPU: ¡ ¡ 1 ¡million ¡transistors ¡ 2 ¡connec-ons/transistor ¡ (=> ¡2 ¡million ¡connec-ons) ¡ .002 ¡km ¡of ¡wire ¡ ¡ ¡ whole ¡CPU: ¡ ¡ 109 ¡transistors ¡ 2*109 ¡connec-ons ¡ 2 ¡km ¡of ¡wire ¡

slide-40
SLIDE 40

What ¡do ¡we ¡know ¡about ¡the ¡brain? ¡

slide-41
SLIDE 41

voltage ¡ 100 ¡ms ¡

  • me ¡
  • ­‑50 ¡mV ¡

+40 ¡mV ¡ dendrites ¡(input) ¡ soma ¡(spike ¡genera-on) ¡ axon ¡(output) ¡ 1 ¡ms ¡

slide-42
SLIDE 42
slide-43
SLIDE 43

current ¡flow ¡ synapse ¡

slide-44
SLIDE 44

current ¡flow ¡ synapse ¡

slide-45
SLIDE 45

voltage ¡ 100 ¡ms ¡

  • me ¡
  • ­‑50 ¡mV ¡

+40 ¡mV ¡

slide-46
SLIDE 46

neuron ¡j ¡ neuron ¡i ¡ neuron ¡j ¡emits ¡a ¡spike: ¡ V ¡on ¡neuron ¡i ¡ t ¡ 10 ¡ms ¡ EPSP ¡

slide-47
SLIDE 47

neuron ¡j ¡ neuron ¡i ¡ neuron ¡j ¡emits ¡a ¡spike: ¡ V ¡on ¡neuron ¡i ¡ t ¡ 10 ¡ms ¡ IPSP ¡

slide-48
SLIDE 48

neuron ¡j ¡ neuron ¡i ¡ neuron ¡j ¡emits ¡a ¡spike: ¡ V ¡on ¡neuron ¡i ¡ t ¡ 10 ¡ms ¡ IPSP ¡ amplitude ¡= ¡wij ¡

slide-49
SLIDE 49

neuron ¡j ¡ neuron ¡i ¡ neuron ¡j ¡emits ¡a ¡spike: ¡ V ¡on ¡neuron ¡i ¡ t ¡ 10 ¡ms ¡ IPSP ¡ amplitude ¡= ¡wij ¡ changes ¡with ¡ learning ¡

slide-50
SLIDE 50

current ¡flow ¡ wij ¡

slide-51
SLIDE 51

Real Dendrites

slide-52
SLIDE 52
  • a. ¡Anatomy. ¡We ¡know ¡a ¡lot ¡about ¡what ¡is ¡where. ¡But ¡be ¡

¡careful ¡about ¡labels: ¡neurons ¡in ¡motor ¡cortex ¡some-mes ¡ ¡ ¡ ¡ ¡respond ¡to ¡color. ¡ ¡ ¡ ¡

slide-53
SLIDE 53
  • a. ¡Anatomy. ¡We ¡know ¡a ¡lot ¡about ¡what ¡is ¡where. ¡But ¡be ¡

¡careful ¡about ¡labels: ¡neurons ¡in ¡motor ¡cortex ¡some-mes ¡ ¡ ¡ ¡ ¡respond ¡to ¡color. ¡ ¡ ¡Connec-vity. ¡We ¡know ¡(more ¡or ¡less) ¡which ¡area ¡ ¡is ¡connected ¡to ¡which. ¡

slide-54
SLIDE 54

The ¡van ¡Essen ¡diagram ¡

slide-55
SLIDE 55
  • a. ¡Anatomy. ¡We ¡know ¡a ¡lot ¡about ¡what ¡is ¡where. ¡But ¡be ¡

¡careful ¡about ¡labels: ¡neurons ¡in ¡motor ¡cortex ¡some-mes ¡ ¡ ¡ ¡ ¡respond ¡to ¡color. ¡ ¡ ¡Connec-vity. ¡We ¡know ¡(more ¡or ¡less) ¡which ¡area ¡ ¡is ¡connected ¡to ¡which. ¡

slide-56
SLIDE 56

wij ¡

  • a. ¡Anatomy. ¡We ¡know ¡a ¡lot ¡about ¡what ¡is ¡where. ¡But ¡be ¡

¡careful ¡about ¡labels: ¡neurons ¡in ¡motor ¡cortex ¡some-mes ¡ ¡ ¡ ¡ ¡respond ¡to ¡color. ¡ ¡ ¡Connec-vity. ¡We ¡know ¡(more ¡or ¡less) ¡which ¡area ¡ ¡is ¡connected ¡to ¡which. ¡We ¡don’t ¡know ¡the ¡wiring ¡diagram ¡ ¡at ¡the ¡microscopic ¡level. ¡

slide-57
SLIDE 57

wij ¡

  • a. ¡Anatomy. ¡We ¡know ¡a ¡lot ¡about ¡what ¡is ¡where. ¡But ¡be ¡

¡careful ¡about ¡labels: ¡neurons ¡in ¡motor ¡cortex ¡some-mes ¡ ¡ ¡ ¡ ¡respond ¡to ¡color. ¡ ¡ ¡Connec-vity. ¡We ¡know ¡(more ¡or ¡less) ¡which ¡area ¡ ¡is ¡connected ¡to ¡which. ¡We ¡don’t ¡know ¡the ¡wiring ¡diagram ¡ ¡at ¡the ¡microscopic ¡level. ¡But ¡we ¡might ¡in ¡a ¡few ¡decades! ¡

slide-58
SLIDE 58

Brainbow; Retina

slide-59
SLIDE 59
  • b. ¡Single ¡neurons. ¡We ¡know ¡very ¡well ¡how ¡point ¡neurons ¡work ¡

¡(think ¡Hodgkin ¡Huxley). ¡ ¡ ¡Dendrites. ¡Lots ¡of ¡poten-al ¡for ¡incredibly ¡complex ¡ ¡processing. ¡ ¡ ¡ ¡ ¡ ¡ ¡My ¡guess: ¡all ¡they ¡do ¡make ¡neurons ¡bigger ¡and ¡reduce ¡ ¡ ¡ ¡ ¡ ¡wiring ¡length ¡(see ¡the ¡work ¡of ¡Mitya ¡Chklovskii). ¡

slide-60
SLIDE 60

m ¡neurons ¡ n ¡neurons ¡ L ¡ L ¡ total ¡wire ¡length ¡without ¡dendrites: ¡~nmL ¡

slide-61
SLIDE 61

m ¡neurons ¡ n ¡neurons ¡ L ¡ L ¡ total ¡length ¡= ¡mL ¡ total ¡length ¡= ¡nL ¡ total ¡wire ¡length ¡without ¡dendrites: ¡~nmL ¡ total ¡wire ¡length ¡with ¡dendrites: ¡~(n+m)L ¡

slide-62
SLIDE 62
  • b. ¡Single ¡neurons. ¡We ¡know ¡very ¡well ¡how ¡point ¡neurons ¡work ¡

¡(think ¡Hodgkin ¡Huxley). ¡ ¡ ¡Dendrites. ¡Lots ¡of ¡poten-al ¡for ¡incredibly ¡complex ¡ ¡processing. ¡ ¡ ¡ ¡ ¡ ¡ ¡His ¡guess: ¡all ¡they ¡do ¡is ¡make ¡neurons ¡bigger ¡and ¡reduce ¡ ¡ ¡ ¡ ¡ ¡wiring ¡length ¡(see ¡the ¡work ¡of ¡Mitya ¡Chklovskii). ¡ ¡ ¡Requires: ¡dendri-c ¡democracy... ¡ ¡ ¡ ¡ ¡ ¡ ¡How ¡much ¡PEL ¡would ¡bet ¡that: ¡20 ¡p. ¡

slide-63
SLIDE 63
  • c. ¡The ¡neural ¡code. ¡ ¡

¡ ¡ ¡ ¡ ¡ ¡His ¡guess: ¡once ¡you ¡get ¡away ¡from ¡periphery, ¡it’s ¡mainly ¡ ¡ ¡ ¡ ¡ ¡firing ¡rate: ¡an ¡inhomogeneous ¡Poisson ¡process ¡with ¡ ¡ ¡ ¡ ¡ ¡a ¡refractory ¡period ¡is ¡a ¡good ¡model ¡of ¡spike ¡trains. ¡ ¡ ¡How ¡much ¡PEL ¡would ¡bet: ¡£100. ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡The ¡role ¡of ¡correla-ons. ¡S-ll ¡unknown. ¡ ¡ ¡ ¡ ¡ ¡ ¡His ¡guess: ¡don’t ¡have ¡one. ¡ ¡ ¡The ¡roles ¡of ¡oscilla-ons. ¡ ¡Much ¡more ¡complicated ¡

slide-64
SLIDE 64
  • d. Networks ¡of ¡neurons. ¡ ¡

¡

  • feedforward ¡
  • many ¡computa-ons ¡
  • kernel-­‑universality ¡
  • recurrent: ¡
  • `rate-­‑based’ ¡neural ¡dynamics ¡
  • few ¡key ¡algorithms: ¡

¡associa-ve ¡memory ¡ selec-ve ¡amplifica-on ¡ resonance ¡

  • spike-­‑based ¡neural ¡dynamics ¡
  • balanced ¡networks ¡

associa-ve ¡memory ¡

slide-65
SLIDE 65
  • e. Learning. ¡We ¡know ¡a ¡lot ¡of ¡facts ¡(LTP, ¡LTD, ¡STDP). ¡

¡ ¡ ¡ ¡ ¡• ¡it’s ¡not ¡clear ¡which, ¡if ¡any, ¡are ¡relevant. ¡ ¡ ¡ ¡ ¡• ¡the ¡rela-onship ¡between ¡learning ¡rules ¡and ¡computa-on ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡is ¡essen-ally ¡unknown. ¡ ¡ ¡

  • ¡supervised ¡learning ¡ ¡

¡(cerebellum) ¡

  • ¡unsupervised ¡learning ¡

¡(neocortex) ¡

  • ¡reinforcement ¡learning ¡

¡(basal ¡ganglia) ¡

slide-66
SLIDE 66

A ¡word ¡about ¡learning ¡(remember ¡these ¡numbers!!!): ¡ ¡ You ¡have ¡about ¡1015 ¡synapses. ¡ ¡ If ¡it ¡takes ¡1 ¡bit ¡of ¡informa-on ¡to ¡set ¡a ¡synapse, ¡ you ¡need ¡1015 ¡bits ¡to ¡set ¡all ¡of ¡them. ¡ ¡ 30 ¡years ¡≈ ¡109 ¡seconds. ¡ ¡ To ¡set ¡1/10 ¡of ¡your ¡synapses ¡in ¡30 ¡years, ¡ ¡ ¡you ¡must ¡absorb ¡100,000 ¡bits/second. ¡ ¡ ¡ Learning ¡in ¡the ¡brain ¡is ¡almost ¡completely ¡unsupervised!!! ¡

slide-67
SLIDE 67
  • f. ¡Where ¡we ¡know ¡algorithms ¡we ¡know ¡the ¡neural ¡

¡implementa-on ¡(sort ¡of): ¡ ¡ sound ¡localiza-on, ¡addi-on, ¡reward ¡learning ¡ ¡ ¡ ¡ ¡ ¡This ¡is ¡not ¡a ¡coincidence... ¡ ¡ ¡ ¡ ¡ ¡Remember ¡David ¡Marr: ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡1. ¡the ¡problem ¡(computa-onal ¡level) ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡2. ¡the ¡strategy ¡(algorithmic ¡level) ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡3. ¡how ¡it’s ¡actually ¡done ¡by ¡networks ¡of ¡neurons ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡(implementa-onal ¡level) ¡

slide-68
SLIDE 68

What ¡we ¡know: ¡PEL’s ¡score ¡(1-­‑10). ¡

  • a. Anatomy.

¡ ¡ ¡ ¡ ¡ ¡5 ¡

  • b. Single ¡neurons.

¡ ¡ ¡ ¡ ¡6 ¡

  • c. The ¡neural ¡code.

¡ ¡ ¡ ¡ ¡6 ¡

  • d. Recurrent ¡networks ¡of ¡neurons. ¡

¡ ¡3 ¡

  • e. Learning.

¡ ¡ ¡ ¡ ¡ ¡2 ¡ The ¡hard ¡problems: ¡

  • 1. How ¡does ¡the ¡brain ¡extract ¡latent ¡variables?

¡ ¡1.001 ¡

  • 2. How ¡does ¡it ¡manipulate ¡latent ¡variables?

¡ ¡1.002 ¡

  • 3. How ¡does ¡it ¡learn ¡to ¡do ¡both?

¡ ¡ ¡ ¡1.001 ¡

slide-69
SLIDE 69

Percep-on ¡Ac-on ¡Cycle ¡

slide-70
SLIDE 70

x ¡ r ¡

sensory ¡processing ¡ motor ¡processing ¡

x' ¡ r' ¡

cogni-on ¡ memory ¡ ac-on ¡selec-on ¡ peripheral ¡spikes ¡ latent ¡variables ¡ motor ¡ac-ons ¡ peripheral ¡spikes ¡ brain ¡

r ¡ ^ ¡

“direct” ¡code ¡for ¡ latent ¡variables ¡

r' ¡ ^ ¡

“direct” ¡code ¡for ¡ motor ¡ac-ons ¡

slide-71
SLIDE 71

versus ¡weakly ¡-ckled ¡internal ¡processing? ¡ autopoiesis ¡

slide-72
SLIDE 72

Outline: ¡ ¡

  • 1. Systems ¡neuroscience

¡ ¡ ¡ ¡ ¡Dayan ¡

  • 2. Language ¡of ¡neurons: ¡neural ¡coding.

¡ ¡ ¡Sahani ¡

  • 3. Basics: ¡single ¡neurons/axons/dendrites/synapses.

¡Latham ¡

  • 4. Learning ¡at ¡the ¡network ¡and ¡behavioral ¡level.

¡ ¡Dayan ¡ ¡

  • 5. What ¡we ¡know ¡about ¡networks ¡(very ¡li=le). ¡

¡ ¡Latham ¡

  • 6. Uncertainty ¡

¡ ¡ ¡ ¡ ¡Dayan ¡