zeit - neuro.uni-bremen.deeurich/publications/eurich_dpg... · bremen euric h@ph ysik.uni-bremen.de...
Post on 17-Sep-2018
245 Views
Preview:
TRANSCRIPT
Die Ratte im Labyrinth | Repr�asentation und
Lernen aus neurowissenschaftlicher Sicht
Christian W. Eurich
Institut f�ur Theoretische Neurophysik, Universit�at Bremen,
Kufsteiner Str., D-28359 Bremeneurich@physik.uni-bremen.de
In den letzten Jahren sind in den experimentellen und theore-
tischen Neurowissenschaften erhebliche Fortschritte auf den Ge-
bieten der Signalverarbeitung durch Nervenzellverb�ande und der
Plastizit�at im Nervensystem in Verbindung mit Lernen erzielt
worden.
So l�a�t sich die Repr�asentation sensorischer oder motorischer
Signale durch Gruppen von Neuronen mittels der statistischen
Sch�atztheorie quantitativ charakterisieren. Ein Ansatz besteht
darin, ein Versuchstier einer Reizsituation auszusetzen und aus
den neuronalen Antworten den Reiz zu rekonstruieren. Beispiels-
weise kann durch Messung und Analyse der Antworten von Ner-
venzellen im Hippocampus einer Ratte rekonstruiert werden, in
welchem Teil seiner Umgebung sich das Tier jeweils aufh�alt. Der-
artige Methoden geben Hinweise auf allgemeine Prinzipien neuro-
naler Signalverarbeitung und erlauben R�uckschl�usse auf die Art
des verwendeten Codes.
Auf dem Gebiet der Plastizit�at lassen sich pr�azise Bedingun-
gen f�ur den Signal u� auf zellul�arer und subzellul�arer Ebene an-
geben, unter denen sich synaptische �Ubertragungseigenschaften
selbstorganisiert �andern (Hebbsches Lernen). Obendrein ist erst
in j�ungster Zeit nachgewiesen worden, da� die Hebbsche Plasti-
zit�at tats�achlich mit Lernvorg�angen einhergeht.
1 Einleitung
Im folgenden sollen schlaglichtartig
zwei wichtige Entwicklungen in den
Neurowissenschaften beschrieben wer-
den: Das Studium der Verarbeitung
von sensorischen Reizen durch Ner-
venzellverb�ande und die Charakterisie-
rung selbstorganisierter Hebbscher Pla-
stizit�at. Dabei wird besonderer Wert
auf die Frage gelegt, wie Theorie und
Experiment ineinandergreifen, um zu
einem Verst�andnis wesentlicher Prinzi-
pien zentralnerv�oser Signalverarbeitung
zu gelangen.
In Kapitel 2 werden einige Grundla-
gen der Neurobiologie wiederholt und
g�angige Modelle von Nervenzellen be-
schrieben. Kapitel 3 besch�aftigt sich
mit der Repr�asentation von Reizen
durch Gruppen von Nervenzellen. Kapi-
tel 4 schlie�lich behandelt neue Aspekte
Hebbschen Lernens.
2 Grundlagen der
Neurobiologie und
neuronale Modelle
Die Nervenzelle. Biologische Ner-
venzellen (Neuronen) dienen der Auf-
nahme, Verarbeitung undWeiterleitung
von Signalen (Abbildungen 1 und 2).
Diese Signale haben die Form raumzeit-
licher Spannungs�anderungen (Potenti-
al�anderungen) �uber der Zellmembran.
Im Ruhezustand ist das Zellinnere ne-
gativ gegen�uber dem Au�enraum, und
die Spannung betr�agt ca. �70 mV (so-
genanntes Ruhepotential).
Die Dendriten stellen die Eingangs-
fasern des Neurons dar. Sie sind be-
Zellkern
Soma
Axon
Dendriten
AxonaleEndigungen
Myelin-hülle
Abbildung 1: Schematische Darstellung
eines biologischen Neurons. Abbildung
aus [6].
setzt mit bis zu 105 Kontaktstellen, den
Synapsen, �uber die das Neuron Signa-
le von anderen Nervenzellen empf�angt.
Die Signale breiten sich im Dendriten-
baum und bis zum Zellk�orper (Soma)
aus. �Uberschreitet durch Depolarisation
der Membran die Spannung am Soma
einen Schwellenwert von ca.�40 mV, so
wird am Ansatzpunkt der Nervenfaser
(dem Axonh�ugel) eine pulsf�ormige elek-
trische Welle (Aktionspotential , Spike)
ausgel�ost, die entlang der Nervenfaser
(Axon) zu den axonalen Endigungen
l�auft: das Neuron feuert . Zur Erh�ohung
der Signalgeschwindigkeit sind manche
Axone von einer isolierenden Protein-
schicht, der Myelinh�ulle, umgeben. An
Abbildung 2: Querschnitt durch das
Mittelhirn eines Schleuderzungensa-
lamanders. Einige Nervenzellen sind
schwarz angef�arbt; diese Nervenzellen
reagieren auf visuelle Eingaben und
projizieren in den Hirnstamm, wo sie
nachgeschaltete Nervenzellen erregen,
die die am Beutefang beteiligten Mus-
keln ansteuern. Foto: U. Dicke.
den axonalen Endigungen schlie�lich
wird das elektrische Signal �uber Synap-
sen an nachgeschaltete Neuronen oder
Muskelfasern �ubertragen.
Die synaptische Signal�ubertragung
erfolgt entweder durch direkte elektri-
sche Kopplung oder auf chemischem
Wege. Bei der chemischen Synapse be-
wirkt ein ankommendes Aktionspoten-
tial in der vorgeschalteten Zelle die
Aussch�uttung von Transmittersto�en,
die zur nachgeschalteten Zelle di�undie-
ren und dort aufgenommen werden. Als
Folge davon kommt es in der nachge-
schalteten Zelle zu einer �Anderung der
Membranspannung, zu einem postsyn-
aptischen Potential . Chemische Syn-
apsen k�onnen erregend (exzitatorisch)
oder hemmend (inhibitorisch) wirken,
je nach Vorzeichen des postsynapti-
schen Potentials.
Wird eine Nervenzelle erregt, so
antwortet sie im allgemeinen mit ei-
ner Serie von Aktionspotentialen, ei-
nem Spiketrain; Abbildung 3 zeigt ein
Beispiel. Der Abstand zweier Spikes
kann dabei nicht beliebig klein sein,
da die Zelle nach der Erzeugung ei-
nes Spikes f�ur eine kurze Zeit, die Re-
frakt�arzeit , in eine Regenerationsphase
geht. Spiketrains wie der in Abbildung
Zeit
Abbildung 3: Spiketrain eines Mittel-
hirnneurons eines Salamanders als Ant-
wort auf ein schwarzes bewegtes Recht-
eck, das dem Tier pr�asentiert wird.
Die Aktionspotentiale sind als Striche
dargestellt. Skala: 500 ms. Daten mit
freundlicher Genehmigung von B. Lien-
st�adt. Abbildung aus [6].
3 gezeigte werden gemessen, indem eine
Me�elektrode entweder in das Nerven-
zellgewebe zwischen die Neuronen ge-
setzt oder in eine Nervenzelle eingesto-
chen wird (extrazellul�are bzw. intrazel-
lul�are Ableitung). Mit einer Einzelelek-
trode kann die Aktivit�at einzelner oder
mehrerer Neuronen aufgezeichnet wer-
den. In den letzten Jahren werden ver-
mehrt Multielektroden verwendet, um
gleichzeitig die Aktivit�at vieler Nerven-
zellen zu registrieren und auf diese Wei-
se Aussagen �uber die gemeinsame Ver-
arbeitung von Signalen zu tre�en.
Neuronenmodelle. F�ur das Studi-
um neuronaler Netze und die Model-
lierung biologischer Nervennetze wird
unterschiedlich stark von den komple-
xen Eigenschaften biologischer Neuro-
nen abstrahiert.
In Netzen mit diskreter Zeitstruktur
verwendet man das in Abbildung 4 dar-
gestellte, stark vereinfachte Neuronen-
modell. Das Neuron bekommt Eingaben
�
f
y1y1
w1w1
y
w2w2 wnwn
y2y2
ynyn
0
ymax
h0
Aktivierung h
(b)
Feuerr
ate
f
Abbildung 4: Modellneuron f�ur Netze
mit zeitdiskreter Dynamik. f ist das
Symbol f�ur die Ausgabefunktion.
y1; : : : ; yn, die entweder von anderen
Neuronen stammen oder �au�ere Ein-
gaben in das Netzwerk darstellen. Die
Eingaben werden durch Multiplikation
mit den Synapsenst�arken w1; : : : ; wn ge-
wichtet. Die Aktivierung h des Neurons
betr�agt
h =nXi=1
wiyi :
F�ur wi > 0 wirkt die Eingabe yi des
vorgeschalteten Neurons i exzitatorisch,
f�ur wi < 0 inhibitorisch (i = 1; : : : ; n).
Die Ausgabe y des Neurons wird durch
Anwendung einer Ausgabefunktion f
berechnet: y = f(h). Im einfach-
sten Fall, dem sog. McCulloch-Pitts-
Neuron, sind die Eingaben und die
Ausgabe bin�ar (y1; : : : ; yn; y 2 f0; 1g)
und werden als"Feuern\ bzw.
"Nicht-
Feuern\ interpretiert. F�ur McCulloch-
Pitts-Neuronen stellt f die Heaviside-
Funktion � dar,
f(h) = �(h� �0) ;
wobei �0 der Schwellenwert f�ur das
Feuern des Neurons ist. Nehmen die
y1; : : : ; yn; y kontinuierliche Werte an,
spricht man von einem Analogneuron,
und die Ausgabe y wird als mittlere An-
zahl von Spikes interpretiert, die das
Neuron pro Zeiteinheit erzeugt (Feu-
errate). F�ur Analogneuronen verwen-
det man eine sigmoide Ausgabefunk-
tion, d.h. eine stetige und monotone
Funktion, die von Null auf einen Maxi-
malwert ymax ansteigt. Als Beispiel sei
die Fermi-Funktion
f(h) =ymax
1 + e�(h�h0)(1)
genannt, wobei h0 die Aktivierung an-
gibt, bei der das Neuron mit der Rate
ymax=2 feuert (Abb. 4).
Das gebr�auchlichste Neuronenmodell
f�ur Netzwerke mit zeitkontinuierlicher
Dynamik ist das Integrate-and-Fire-
Neuron. Die dynamische Variable ist
das Membranpotential V = V (t), wo-
bei das Ruhepotential zumeist auf Null
gesetzt wird. Abbildung 5 zeigt das Er-
satzschaltbild des Neurons, das g�ultig
ist, solange das Membranpotential so
klein ist, da� das Neuron nicht feuert.
R ist der Widerstand und C die Kapa-
I(t)V(t)C R
Abbildung 5: Ersatzschaltbild f�ur ein
Integrate-and-Fire-Neuron unterhalb
der Feuerschwelle.
zit�at der Zellmembran; die Stromquelle
I(t) modelliert die Eingabe des Neurons
aufgrund der Spikeaktivit�aten der ande-
ren Neuronen im Netzwerk. F�ur V < �0gilt die lineare Gleichung
CdV
dt+V
R= I(t)
mit einer Anfangsbedingung V (t0) =
V0. Erreicht das Membranpotential zu
einer Zeit t1 eine Feuerschwelle �0,
V (t1) = �0, so gibt das Neuron
einen Spike ab, der selber nicht model-
liert wird, und das Membranpotential
wird auf Null gesetzt: limt!t
+
1V (t) =
0. Refrakt�arzeiten k�onnen durch ei-
ne zeitabh�angige Feuerschwelle, �0 =
�0(t), ber�ucksichtigt werden. F�ur die
auftretenden Str�ome I(t) w�ahlt man
gem�a� dem Pulscharakter der Spikes
die Delta-Funktion, oder man ber�uck-
sichtigt postsynaptische Potentiale in
Form einer Alpha-Funktion:
I(t) = ce��t ; � > 0
mit c > 0 f�ur Exzitation und c < 0 f�ur
Inhibition.
Neben den beschriebenen gibt es wei-
tere, insbesondere komplexere Neuro-
nenmodelle, die die r�aumliche Struk-
tur des in Abb. 1 dargestellten Neurons
ber�ucksichtigen. Zur Simulation gr�o�e-
rer Netzwerke verwendet man wegen
des geringeren Rechenaufwandes jedoch
zumeist die genannten einfacheren Mo-
delle.
Das Gehirn. Das menschliche Ge-
hirn besteht aus mehr als 200 Milliarden
Nervenzellen, und im Durchschnitt hat
jedes Neuron 1000 Kontaktstellen (Syn-
apsen) mit anderen Neuronen. Eine ein-
gehendere Beschreibung des Gehirns,
seiner Anatomie und Physiologie w�urde
den Rahmen dieses Beitrags bei wei-
tem sprengen; stattdessen sei auf einen
Punkt hingewiesen, der die Komplexit�at
der neuronalen Verarbeitung verdeutli-
chen soll. Die klassische Sicht auf die
Signalverarbeitung im Gehirn ist in Ab-
bildung 6 dargestellt. Demnach ist der
sensorische Eingaben
interne Verarbeitung
Motorische Reaktionen
?
Abbildung 6: Schematische Darstellung
der herk�ommlichen Sicht auf die Signal-
verarbeitung im Nervensystem.
Signal u� im Nervensystem im wesent-
lichen folgenderma�en charakterisiert:
Durch unsere Sinnesorgane bekommen
wir sensorische (visuelle, auditorische
usw.) Eingaben; diese werden intern
verarbeitet und resultieren schlie�lich in
einer Antwort in Form von motorischer
Aktivit�at. An dieser Sichtweise sind
zwei Punkte irref�uhrend: Erstens wird
der Ein u� der sensorischen Eingaben
auf die zentralnerv�ose Aktivit�at �uber-
betont. Zweitens ist die mittlere Stufe
der internen Verarbeitung nicht n�aher
spezi�ziert und suggeriert damit ins-
gesamt eine im wesentlichen vorw�arts-
gerichtete Signalverarbeitung im Ner-
vensystem. Zur Unterstreichung dieser
Aussagen zeigt Abbildung 7 ein von
Felleman und van Essen aus verschie-
denen anatomischen Studien zusam-
mengestelltes Diagramm von bis da-
to bekannten anatomischen Verbindun-
gen innerhalb des visuellen Systems
von Primaten [11]. Jedes K�astchen ent-
spricht einem Gehirnareal (zumeist in
der Gro�hirnrinde), in dem sich Neu-
ronen be�nden, die auf visuelle Ein-
gaben reagieren. Die Abbildung ver-
anschaulicht, da� die weitaus meisten
Nervenzellen (es sind �uber 95%) kei-
nen direkten Kontakt zur sensorischen
Ober �ache haben, sondern ihre Einga-
ben ausschlie�lich von anderen Nerven-
zellen bekommen. Gleiches gilt f�ur die
Schnittstelle zu den Muskeln: nur we-
nige Prozent der Nervenzellen erregen
nachgeschaltete Muskelfasern; die �ubri-
gen geben ihre Signale an andere Ner-
venzellen weiter. Des weiteren ist das in
Abbildung 7 dargestellte System mas-
siv r�uckgekoppelt, was einer einfachen
Charakterisierung der Verhaltensweisen
und der Aufgaben der einzelnen Areale
entgegensteht.
Aus theoretischer Sicht kann man das
Gehirn somit als ein komplexes dyna-
Abbildung 7: Anatomische Verbindun-
gen innerhalb des visuellen Systems ei-
nes Primaten. Abbildung nach [11].
misches System charakterisieren, des-
sen Aktivit�at wesentlich seiner internen
Dynamik entspringt und das durch sen-
sorische Eingaben (\Inputs\) lediglich
gest�ort wird. Dieses Bild ist deutlich
verschieden von der Vorstellung, da�
das Gehirn ma�geblich dadurch zu cha-
rakterisieren sei, da� es externe Signale
aufnimmt und verarbeitet.
3 Neuronale Repr�a-
sentation
Wie im vorigen Abschnitt angedeutet,
sind im Nervensystem stets sehr viele
Neuronen aktiv, von denen ein gro�er
Anteil nicht in direktem Kontakt mit
den Umweltreizen steht. Eine �au�erst
komplexe Signalverarbeitung innerhalb
des Nervensystems geht einher mit der
bewu�ten oder unbewu�ten Wahrneh-
mung der Welt; wir sagen, die Umwelt
sei im Gehirn repr�asentiert .
Diese Betrachtung f�uhrt unmittelbar
zu der Frage nach der G�ute der Re-
pr�asentation von Umweltreizen in ei-
ner Gruppe (Population) von Neuro-
nen. Ein experimenteller Zugang be-
steht darin, einem Tier Reize zu pr�asen-
tieren und die durch Einzel- oder Mul-
tizellableitungen gewonnenen Antwor-
ten der Nervenzellen zu charakterisieren
und auf �Aquivalenz mit den Reizen zu
testen. Ein entsprechendes Vorgehen ist
auch auf der motorischen Seite m�oglich;
hier stellt sich die Frage nach der Be-
ziehung zwischen den motorischen Ak-
tionen des Organismus und einer ent-
sprechenden Aktivit�at von Nervenzel-
len, beispielsweise im Motorcortex.
Ein geeignetes Werkzeug zur Be-
stimmung der �Aquivalenz von neuro-
naler Aktivit�at und sensorischen bzw.
motorischen Signalen ist die informa-
tionstheoretische Methode: der klassi-
sche Informationsbegri� nach Shannon
(die Transinformation) quanti�ziert die�Ubereinstimmung zweier Wahrschein-
lichkeitsverteilungen; in diesem Fall
handelt es sich um die Verteilung der
dargebotenen Reize und die Verteilung
der Antworten der Neuronenpopulati-
on. Als Standardwerk f�ur diese Metho-
de sei das Buch von Rieke et al. [17]
empfohlen.
Eine alternative Methode der Da-
tenauswertung besteht darin, mit Hil-
fe der Signale der Neuronenpopulati-
on den Reiz zu rekonstruieren oder
mehrere Reize zu diskriminieren. Bei
der Rekonstruktion wird �ublicherwei-
se der Sch�atzfehler ermittelt, der sich
aufgrund der beschr�ankten Anzahl der
beteiligten Neuronen oder der Stocha-
stizit�at der Neuronenantwort ergibt.
Die Sch�atzung eines Reizes mu� hinrei-
chend genau sein, um dem Organismus
ein ad�aquates Agieren und Reagieren
zu erm�oglichen. Eine Methode, die sehr
gute Ergebnisse erzielt, ist die Rekon-
struktion mittels Bayesscher Sch�atzver-
fahren; diese wird im n�achsten Ab-
schnitt n�aher erl�autert und anschlie-
�end auf die Selbstlokalisation einer
Ratte in einem Labyrinth angewendet.
Bayessche Rekonstruktion. Gege-
ben seien N Neuronen, die auf die
Pr�asentation eines Reizes reagieren, der
sich an einer Stelle x in einem Reizraum
X be�ndet. Es kann sich bei x beispiels-
weise um einen Winkel im Ortsraum, ei-
ne Frequenz auf der Frequenzachse oder
die Orientierung eines Balkes im Inter-
vall [0�; 180�] handeln. Der Einfachheit
halber wird X hier als eindimensional
angenommen, und die m�oglichen Reize
x aus X nehmen kontinuierliche Werte
an.
Gemessen werden die Spikezahlen
k1; : : : ; kN , die in einem Zeitintervall �
nach Pr�asentation des Reizes x in der
Population auftreten. Durch wiederhol-
te Darbietung des Reizes gewinnt man
eine Verteilung der Spikezahlen, die sich
als bedingte Wahrscheinlichkeit schrei-
ben l�a�t: P (k1; : : : kN jx). Liegt diese
Verteilung vor, so kann man mittels ei-
ner Einzelmessung, die die Spikezahlen
k1; : : : ; kN zum Ergebnis habe, den Rei-
zort absch�atzen.
F�ur diese Sch�atzung wird die
bedingte Wahrscheinlichkeitsdich-
te p(xjk1; : : : kN) ben�otigt, also die
Wahrscheinlichkeitsdichte daf�ur, da�
sich der Reiz am Ort x be�ndet,
wenn bei einmaliger Pr�asentation
in der Population k1; : : : ; kN Spikes
gez�ahlt werden. P (k1; : : : kN jx) und
p(xjk1; : : : kN) h�angen �uber den Satz
von Bayes zusammen:
p(xjk1; : : : kN) =P (k1; : : : kN jx)p(x)
P (k1; : : : ; kN):
(2)
p(x) beschreibt die H�au�gkeitsver-
teilung f�ur das Auftreten des Rei-
zes am Ort x; diese Gr�o�e ist un-
abh�angig vom neuronalen System und
wird als A-Priori-Wahrscheinlichkeit
(engl. prior) bezeichnet. Sie wird
vom Experimentator vorgegeben oder
entspricht einer nat�urlichen Statistik
des Auftretens der Reize. Man nennt
p(xjk1; : : : kN) entsprechend die A-
Posteriori-Wahrscheinlichkeit , da sie
die Verteilung von x nach der Messung
des neuronalen Systems darstellt. Der
Nenner P (k1; : : : ; kN) in Gleichung (2)
hat die Bedeutung einer Normierung
und kann �uber den Satz von der totalen
Wahrscheinlichkeit berechnet werden:
P (k1; : : : ; kN) =RX
P (k1; : : : ; kN jx)p(x) dx : (3)
Mittels eines geeigneten Verfahrens
mu� zuletzt ein gesch�atzter Ort x̂
aus der A-Posteriori-Verteilung ermit-
telt werden. Der optimale Sch�atzwert
(im Sinne eines quadratischen Feh-
lers) ist derMittelwert der A-Posteriori-
Verteilung [14]. Da dieser zumeist nur
unter gro�em Rechenaufwand ermit-
telt werden kann, wird der aufgrund
der Messung gesch�atzte Ort x̂ �ublicher-
weise als die Stelle gew�ahlt, an der
p(xjk1; : : : kN) maximal ist:
x̂ = argmaxx2X
p(xjk1; : : : ; kN) : (4)
In der Regel wird es bei Experi-
menten aufgrund der begrenzten Me�-
zeit nicht m�oglich sein, die Wahrschein-
lichkeit P (k1; : : : kN jx) zu ermitteln, da
es sich i. a. um multivariate Verteilun-
gen in hochdimensionalen R�aumen han-
delt. In diesem Fall kann man unter
Zuhilfenahme von zus�atzlichen Annah-
men P (k1; : : : kN jx) aus einem Modell
bestimmen. Eine bei der Modellierung
h�au�g verwendete Annahme ist, da� die
Neuronen ihre Spikes unabh�angig von-
einander erzeugen. Mathematisch zer-
f�allt P (k1; : : : kN jx) dann in ein Produkt
von Verteilungen f�ur die einzelnen Neu-
ronen:
P (k1; : : : kN jx) =NYi=1
P (kijx) : (5)
Zur Ermittlung der P (kijx) (i =
1; : : : ; N) werden die mittleren Feuer-
raten fi(x), mit der das Neuron i auf
die Pr�asentation des Reizes x antwor-
tet, als Funktion des Ortes x des Rei-
zes gemessen. Man nennt fi(x) die Tu-
ningkurve des i-ten Neurons. �fi(x) ist
dann die im Zeitintervall � im Mittel
erzeugte Anzahl von Spikes des Neu-
rons i. F�ur P (kijx) w�ahlt man nun eine
passende Statistik mit dem Mittelwert
�fi(x). Das einfachste Modell beruht
auf der Annahme, da� das Auftreten ei-
nes Spikes zu einer Zeit tj unabh�angig
ist von den fr�uheren Spikezeitpunkten
tj�1; tj�2; : : : des Neurons; die Abfolge
von Spikes stellt dann einen Poisson-
Proze� dar. Die Wahrscheinlichkeit f�ur
das Auftreten von genau ki Spikes bei
Neuron i w�ahrend eines Beobachtungs-
zeitraums � betr�agt in diesem Fall
P (kijx) =(�fi(x))
ki
ki!e��fi(x) : (6)
Setzt man die Gleichungen (5) und
(6) in den Satz von Bayes (2) ein, so
l�a�t sich der Ort des Reizes als Mittel-
wert der A-Posteriori-Verteilung oder
mit dem Kriterium (4) absch�atzen.
Die Ratte im Labyrinth. Im Hip-
pocampus von Ratten existieren Zellen,
die aktiv werden, wenn sich der Kopf
des Tiers in einem bestimmten Raum-
bereich seiner Umwelt be�ndet; die-
se Raumbereiche werden Place Fields
genannt. Abbildung 8 zeigt die Place
Fields von 25 Zellen; diese sind symbo-
lisch auf ein Labyrinth gelegt, durch das
die Ratte sich bewegt. Die Farbe kodiert
die Feuerrate, die das jeweilige Neuron
hat, wenn sich die Ratte am entspre-
chenden Ort be�ndet. Durch Registrie-
rung des von einer Ratte in einem Laby-
rinth zur�uckgelegten Weges und gleich-
zeitige Multizellableitungen l�a�t sich
die Hypothese �uberpr�ufen, da� die Ak-
tivit�at der Hippocampusneuronen hin-
reichend f�ur eine Selbstlokalisation der
Ratte in dem Labyrinth ist. Mit Hil-
fe der oben beschriebenen (und weite-
rer) Rekonstruktionsverfahren wird der
Weg der Ratte aus den Spikedaten von
25 Neuronen gesch�atzt und mit dem
tats�achlichen Weg verglichen.
Das Ergebnis einer Bayesschen Re-
konstruktionen ist in Abb. 9 dargestellt.
Die obere Zeile zeigt den tats�achlichen
Weg und die dritte Zeile das Ergebnis
der Bayesschen Rekonstruktion, wie sie
im vorigen Abschnitt beschrieben wur-
Abbildung 8: Falschfarbendarstellung
von 25 Place�elds einer Ratte. Abbil-
dung aus [21].
de. Als ein noch besseres Verfahren er-
weist sich eine Bayessche Rekonstrukti-
on, die zwei Zeitschritte und eine Ste-
tigkeit des Weges der Ratte einbezieht
(zweite Zeile). Die Resultate zeigen, da�
eine kleine Population von Hippocam-
pusneuronen hinreichend f�ur die Selbst-
lokalisation der Ratte in ihrem Laby-
rinth ist: bereits bei Ber�ucksichtigung
von 25 Nervenzellen f�allt die Genauig-
keit der Rekonstruktion unter die Ge-
nauigkeit, mit der im Experiment die
tats�achliche Position der Ratte gemes-
sen wurde.
Eine ernstzunehmende Kritik an
Bayesschen Rekonstruktionsverfahren
ist die Tatsache, da� viel Vorwissen in
die Rekonstruktion eingeht: die Moda-
lit�at der Sensorik, die Dimensionalit�at
des Reizes (d. h. die Anzahl der re-
Abbildung 9: Resultat der Bayesschen
Rekonstruktion. Die obere Zeile zeigt
die wahre Bahn der Ratte, die untere
Zeile die aus der Aktivit�at von 25 Neu-
ronen mittels des beschriebenen Ver-
fahrens rekonstruierte Bahn. Die mitt-
lere Zeile schlie�lich resultiert aus ei-
nem Bayesschen Verfahren, das jeweils
zwei aufeinanderfolgende Zeitabschnit-
te ber�ucksichtigt und die Stetigkeit der
Bahn der Ratte voraussetzt. Abbildung
aus [21].
gistrierten Reizeigenschaften) usw. Ei-
ne"absolute\ Rekonstruktion neuro-
naler Aktivit�at ohne jegliche Annah-
men ist nicht m�oglich. Gem�a� dieser
abgeschw�achten Au�assung kann man
Rekonstruktionsmethoden als (zumeist
einfache) mathematische Verfahren an-
sehen, die die simultane Aktivit�at meh-
rerer Neuronen quantitativ charakteri-
sieren.
Fisher-Information und neurona-
le Kodierungsstrategien. Bei Be-
trachtung der rekonstruierten Wege in
Abb. 9 stellt sich die Frage, ob es nicht
weitere Rekonstruktionsmethoden gibt,
die aus dem Feuerverhalten der Neuro-
nenpopulation den Weg der Ratte noch
besser sch�atzen k�onnen. Oder anders
ausgedr�uckt: gibt es eine untere Gren-
ze f�ur den Fehler einer Rekonstruktion?
Die Antwort lautet ja; eine solche un-
tere Grenze existiert, und sie ist i. a.
aufgrund der Stochastizit�at der ausge-
werteten Signale gr�o�er als Null. Inter-
essant ist, da� sich der minimal m�ogli-
che Fehler { ohne die Ber�ucksichtigung
eines konkreten Rekonstruktionsverfah-
rens { berechnen l�a�t, und zwar mit Hil-
fe der Fisher-Information.
Gegeben seien N Neuronen, die
bei wiederholter Pr�asentation eines
Reizes am Ort x im Reizraum X
mit einer Wahrscheinlichkeitsverteilung
P (k1; : : : ; kN ; x) reagieren. Aus einer
Einzelmessung der Spikezahlen der Po-
pulation gewinnt man mit einem ge-
gebenen Sch�atzverfahren S (beispiels-
weise der Bayesschen Methode) eine
Sch�atzung x̂ f�ur x; bei T Messun-
gen desselben Reizes die Sch�atzungen
x̂1; : : : ; x̂T . Als Bias bS des Sch�atzers
S bezeichnet man die mittlere Abwei-
chung von wahrem und gesch�atztem
Ort:
bS = limT�!1
1
T
TXt=1
x̂t � x � hx̂� xi :
(7)
Ein erwartungstreuer Sch�atzer (engl.
unbiased estimator) ist ein Sch�atzer, f�ur
den bS = 0 gilt, der also im Mittel
den korrekten Ort liefert. Alle weiteren�Uberlegungen dieses Abschnitts bezie-
hen sich auf erwartungstreue Sch�atzer.
Der mittlere quadratische Fehler des
Sch�atzers S ist de�niert als
(�x)2 = limT�!11T
TPt=1
(x̂t � x)2
� h(x̂� x)2i : (8)
Die Fisher-Information der neurona-
len Population bzgl. des Reizes x ist de-
�niert als
J(x) :=
* @ lnP (k1; : : : ; kN ; x)
@x
!2+
(9)
[14]; h: : :i bezeichnet wiederum den Er-
wartungswert �uber die Wahrscheinlich-
keitsverteilung P (k1; : : : ; kN ; x), und
ln : : : ist der nat�urliche Logarithmus.
Die Cram�er-Rao-Ungleichung gibt
nun einen Zusammenhang zwischen der
Fisher-Information und dem mittleren
quadratischen Sch�atzfehler:
h(x̂� x)2i �1
J(x): (10)
Gleichung (10) besagt, da� der mitt-
lere quadratische Fehler eines beliebi-
gen erwartungstreuen Sch�atzers stets
gr�o�er oder gleich dem Kehrwert der
Fisher-Information ist. Das ist eine
weitreichende Aussage! Das Inverse der
Fisher-Information wird als minima-
ler Sch�atzfehler bezeichnet. Bei Vorlie-
gen eines konkretes Sch�atzproblems hat
man stets zwei Dinge im Auge zu be-
halten: erstens k�onnen Sch�atzer mit Bi-
as existieren, deren Fehler noch unter-
halb des minimalen Sch�atzfehlers lie-
gen. Zweitens ist es m�oglich, da� s�amt-
liche Sch�atzer die untere Grenze der in-
versen Fisher-Information gar nicht er-
reichen, sondern stets dar�uber liegen.
Mit Hilfe der Fisher-Information (9)
und der Cram�er-Rao-Ungleichung (10)
lassen sich nun Kodierungsstrategien
f�ur neuronale Populationen untersu-
chen (z. B. [16, 22, 9, 10]). Dabei stellt
sich die Frage, wie neuronale Popu-
lationen reagieren m�ussen, um eine
m�oglichst gro�e Fisher-Information, al-
so einen m�oglichst kleinen minimalen
Sch�atzfehler, zu erzielen. Paradiso [16]
betrachtet ein Modell f�ur eine Popula-
tion von Nervenzellen in einem visuel-
len Areal der Gro�hirnrinde und leitet
die Genauigkeit her, mit der die Orien-
tierung von bewegten Balken repr�asen-
tiert ist. Zhang und Sejnowski [22]
beweisen, da� identische Nervenzellen,
die unspezi�sch auf gro�e Bereiche im
Reizraum reagieren (beipielsweise gro�e
Place Fields wie die in Abbildung 8 ge-
zeigten), ein hohes Au �osungsverm�ogen
liefern, falls mehr als zwei Reizeigen-
schaften (Ort, Geschwindigkeit, Hellig-
keit usw.) kodiert werden. Eurich und
Wilke [9, 10] machen eine Reihe von
realistischeren Annahmen �uber neuro-
nale Populationen und ermitteln die
sich jeweils ergebende Repr�asentations-
genauigkeit. Untersucht werden unter
anderem Populationen von Neuronen,
die eine Variabilit�at in ihren Antwort-
eigenschaften aufweisen, sowie verschie-
dene Arten der Korrelation in den Ant-
worten der Neuronen. Es stellt sich da-
bei stets heraus, da� gerade diejenigen
neuronalen Eigenschaften, die auch em-
pirisch gefunden werden, eine genaue
Repr�asentation von sensorischen Reizen
erm�oglichen.
4 Hebbsches Lernen
Das Hebbsche Postulat. Im Jahre
1949 schlug der kanadische Psychologe
Donald Hebb in seinem richtung-
weisenden Buch"The Organization
of Behavior\ eine Hypothese �uber
einen Mechanismus vor, wie Lernen
im Nervensystem auf zellul�arer Ebene
ablaufen k�onnte [13]:
"When an axon of cell A is near
enough to excite a cell B and
repeatedly or persistently ta-
kes part in firing it, some grow-
th process or metabolic change
takes place in one or both cells
such that A's efficiency, as one
of the cells firing B, is increa-
sed.\Die Hypothese beinhaltet zwei wesent-
liche Punkte: Erstens entsprechen
Lernprozesse anatomischen oder
physiologischen Ver�anderungen auf
zellul�arer oder subzellul�arer Ebene;
zweitens beruht diese Plastizit�at auf
der Aktivit�at der Nervenzellen und
�ndet somit selbstorganisiert statt.
Demnach gibt es also dynamische Pro-
zesse auf mindestens zwei Zeitskalen:
eine schnelle Dynamik der neuronalen
Erregung und Signalproduktion und
eine langsame Dynamik strukturel-
ler �Anderungen. Bez�uglich letzteren
erw�ahnt Hebb in seinem Buch die
M�oglichkeit gerichteter Wachstumsbe-
wegungen, konzentriert sich dann aber
auf den Vorschlag, da� die Synapse der
Ort der plastischen �Anderungen sei.
Obwohl es in den 40er Jahren noch
keine empirischen Hinweise auf die
Hypothese von Hebb gab, war sein
Buch der Auftakt f�ur ein gigantisches
neurowissenschaftliches Forschungspro-
gramm, das bis heute andauert.
LTP und LTD. Der Nachweis selbst-
organisierter Plastizit�at im Nervensy-
stem begann in den 80er Jahren mit
der Entdeckung der Long-Term Poten-
tiation (LTP) [3]. Es konnte nachgewie-
sen werden, da� die gleichzeitige, wie-
derholte starke elektrische Reizung ei-
ner vor- und einer nachgeschalteten Zel-
le dazu f�uhrt, da� die nachfolgende Zel-
le �uber l�angere Zeit hinweg st�arker auf
Reizung durch die vorgeschaltete Zel-
le reagiert, d. h. ein gr�o�eres postsyn-
aptisches Potential entwickelt. Nachge-
wiesen wurde auch der umgekehrte Ef-
fekt der Long-Term Depression (LTD),
eine Abschw�achung der Synapse, eben-
falls bedingt durch wiederholte gepaar-
te Reizung eines vor- und eines nachge-
schalteten Neurons. LTP und LTD tre-
ten in vielen Hirngebieten auf, sind aber
im Hippocampus, einem Teil des Vor-
derhirns, besonders pronounciert. Der
Hippocampus steht vermutlich im Zu-
sammenhang mit der Einspeicherung
neu erworbenen Wissens.
Auf theoretischer Seite wurden ein-
fache, auf wechselseitiger Aktivit�at von
Neuronen beruhende Lernregeln f�ur
neuronale Netze mit diskreter Zeit-
struktur (t = 1; 2; : : :) entwickelt [4].
Die einfachste Variante solcher Hebb-
Regeln lautet
wij(t+ 1) = wij(t) + �yj(t)hi(t) ; (11)
wobei wij(t) die St�arke der Synapse ist,
mit der Neuron j zur Zeit t auf Neu-
ron i einwirkt; � stellt eine Lernrate
dar, hi ist die Aktivierung des nach-
geschalteten Neurons i, und yj ist die
Feuerrate des vorgeschalteten Neurons
j. Die �Anderung der Synapsenst�arke
wij(t+ 1)�wij(t) ist proportional zum
Produkt yjhi. Ein Problem der Lernre-
gel (11) besteht darin, da� sie zu Insta-
bilit�aten in Netzwerken f�uhrt: eine be-
reits gro�e Synapsenst�arke bewirkt ei-
ne starke Aktivierung des nachgeschal-
teten Neurons und damit eine weite-
re Erh�ohung der Synapsenst�arke. Ab-
hilfe scha�en hier eine Begrenzung des
Wertes von Synapsenst�arken nach oben
oder die Einf�uhrung einer Normierung
aller an einem Neuron sitzenden Syn-
apsen; letzteres f�uhrt zu einem Wettbe-
werb zwischen den Synapsen.
Zeitabh�angiges Hebbsches Lernen
Seit 1994 sind auf dem Gebiet des
Hebbschen Lernens sowohl experimen-
tell als auch theoretisch gro�e Fort-
schritte erzielt worden. Ein bis dato un-
gel�ostes Problem bezieht sich auf Lo-
kalit�at der Hebbschen Lernregel: die an
der Synapse beobachteten Ver�anderun-
gen werden hervorgerufen aufgrund der
korrelierten Aktivit�at des vor- und des
nachgeschalteten Neurons. Woher aber
"wei� \ die Synapse, da� das nachge-
schaltete Neuron gefeuert hat? Es mu�
ein Signal geben, da� diese Informati-
on vom Axonh�ugel, wo die Aktionspo-
tentiale entstehen, zur Synapse tr�agt.
In der Tat entdeckten Stuart und Sak-
mann 1994, da� Aktionspotentiale nicht
nur entlang des Axons laufen wie bisher
angenommen, sondern auch in den Den-
dritenbaum zur�uckpropagieren, wo sich
die meisten Synapsen be�nden [20]. Ein
solches r�uckpropagierendes Aktionspo-
tential ist ein perfekter Kandidat f�ur
das gesuchte Signal.
Die exakten zeitlichen Bedingungen
f�ur das Auftreten von LTP und LTD
wurden seit 1997 in der Reihe von Arti-
keln aufgekl�art [15, 1, 23, 2]. Markram
et al. [15] wiesen nach, da� eine
Verst�arkung der Synapse durch LTP
statt�ndet, wenn die vorgeschaltete Zel-
le wenige Millisekunden vor der nach-
geschalteten Zelle ein Aktionspotenti-
al produziert, wenn es also eine kau-
sale Einwirkung der vor- auf die nach-
geschaltete Zelle gibt. Ist hingegen das
Signal der vorgeschalteten Zelle ver-
sp�atet, so �ndet LTD statt: die zeit-
liche Korrelation der Signale kann in
diesem Fall nur zuf�allig sein. Die kor-
relierten Aktivit�aten m�ussen innerhalb
eines Zeitraums von 100 ms statt�n-
den, ansonsten �ndet keine Ver�ande-
rung statt. Bi et al. [1] und Zhang et
al. [23] schlie�lich haben die St�arke von
LTP bzw. LTD als Funktion des zeitli-
chen Abstandes zwischen der Aktivit�at
der vor- und der nachgeschalteten Zel-
le, das sog. Lernfenster , exakt vermes-
sen (siehe Abbildung 10). Das Lernfen-
ster zeigt, da� die zeitliche Abfolge der
Aktionspotentiale im Nervensystem ei-
ne gro�e Rolle f�ur plastische Ver�ande-
rungen spielt.
Eine komplexere neuronale Verschal-
tung wurde von Bi et al. [2] unter-
sucht: Zwei Nervenzellen, die �uber meh-
rere parallele Leitungen durch ande-
re Nervenzellen miteinander verschal-
tet waren, wurden zeitlich gepaart elek-
trisch gereizt. Die unterschiedlichen
Zeitverz�ogerungen der parallelen Lei-
tungen bewirkten in Kombination mit
der Struktur des Lernfensters, da� ein
Teil der beteiligten Synapsen verst�arkt
und ein anderer Teil abgeschw�acht wur-
de: die Hebbsche Lernregel f�uhrt in
komplexeren Netzwerken zur Ausbil-
dung charakteristischer raumzeitlicher
Strukturen.
Mittlerweile existiert eine Reihe
von theoretischen Arbeiten, die das
zeitabh�angige Hebbsche Lernen in
Netzwerken aus spikenden Neuronen
untersuchen (z. B. [12, 7, 8, 19]).
Eine typische Lernregel sieht folgen-
derma�en aus: Betrachtet man eine
Synapse, mit der Neuron j auf Neuron
i einwirkt, dann wird aufgrund eines
Abbildung 10: Hebbsches Lernfenster
f�ur Mittelhirnneuronen einer Kaulquap-
pe, die Eingaben von Retinagangli-
enzellen bekommen. Auf der Abszis-
se ist die Zeitdi�erenz zwischen den
Aktivit�aten der vor- und der nachge-
schalteten Zelle aufgetragen, die Or-
dinate zeigt die �Anderung des in
die nachgeschaltete Zelle ein ie�enden
Stroms (Excitatory PostSynaptic Cur-
rent, EPSC) aufgrund von 100 elektri-
schen Stimulationen. In den Gebieten I
und II wirkt das vorgeschaltete Neuron
kausal auf das nachgeschaltete Neuron
ein, und die Synapse wird verst�arkt; in
Gebiet III ist die Wechselwirkung akau-
sal (zuf�allig), und die Synapse wird ab-
geschw�acht. Abbildung aus [23].
Spikes zur Zeit tj im vorgeschalteten
Neuron und eines Spikes zur Zeit ti im
nachgeschalteten Neuron die Synapse
wie folgt ver�andert:
wneuij
= waltij
+W (tj � ti) ; (12)
wobei W beispielsweise das in Abbil-
dung 10 dargestellte Lernfenster ist.
Lernen erfolgt in einem Netzwerk aus
spikenden Neuronen dann zwischen al-
len Spikepaaren von miteinander ver-
schalteten Neuronen.
Gerstner et al. [12] verwenden eine
zeitsensitive Lernregel, um eine Serie
von Zeitverz�ogerungsstrecken (realisiert
durch unterschiedliche Signallaufzeiten
in den Axonen verschiedener Neuronen)
selbstorganisiert entstehen zu lassen.
Das verwendete Netzwerk steht modell-
haft f�ur eine Struktur im Mittelhirn der
Eule, wo fein abgestimmte Zeitverz�oge-
rungsstrecken zur auditorischen Loka-
lisation von Beute herangezogen wer-
den [5]. Eurich et al. [7, 8] besch�afti-
gen sich ebenfalls mit der Adaptivit�at
von Zeitverz�ogerungen und leiten Be-
dingungen an das Hebbsche Lernfenster
her, die dazu f�uhren, da� raumzeitli-
che Spikemuster stabil in einem neuro-
nalen Netz gespeichert werden k�onnen;
solche stabilen Spikesequenzen k�onnen
gezielt nachgeschaltete Neuronen anre-
gen, und die auf diese Weise etablier-
ten Schaltkreise haben m�oglicherweise
eine Funktion im Zusammenhang mit
dem Ged�achtnis. Song et al. [19] schlie�-
lich zeigen unter anderem, da� Instabi-
lit�aten wie die oben im Zusammenhang
mit der alten Lernregel (11) beschriebe-
nen bei der neuen, zeitsensitiven Lern-
regel (12) nicht auftreten.
Synaptische Plastizit�at und Ler-
nen. Obwohl Neurowissenschaftler
seit der Entdeckung von LTP und LTD
daran geglaubt haben, da� synaptische
Plastizit�at ein neuronales Korrelat von
Lernvorg�angen darstellt, ist dies erst
vor wenigen Monaten (im Oktober
2000) demonstriert worden. Rioult-
Pedotti et al. [18] trainierten Ratten
auf eine motorische Aufgabe, dem Her-
ausangeln von kleinen Futterkugeln aus
einer Box mit Hilfe einer Vorderpfote.
Anschlie�end wurde nachgewiesen,
da� bei den trainierten Tieren | im
Vergleich zu einer Kontrollgruppe |
LTP im motorischen Cortex, der f�ur die
Steuerung von Bewegungen zust�andig
ist, stattgefunden hatte. Mit diesem
Nachweis haben sich die Hebbschen
Ideen �uber Lernen und Plastizit�at im
Nervensystem mehr als 50 Jahre nach
ihrer Formulierung g�anzlich best�atigt.
Literatur
[1] G.-q. Bi und M.-m. Poo, Synap-
tic modi�cations in cultured hip-
pocampal neurons: dependence on
spike timing, synaptic strength,
and postsynaptic cell type, J. Neu-
rosci. 18 (1998) 10464{10472.
[2] G.-q. Bi und M.-m. Poo, Distribu-
ted synaptic modi�cation in neural
networks induced by patterned sti-
mulation, Nature 401 (1999) 792{
796.
[3] T. H. Brown, P. F. Chapmann,
E. W. Kairiss und C. L. Keenan,
Long-term synaptic potentiation,
Science 242 (1988) 724{728.
[4] T. H. Brown, E. W. Kairiss und
C. L. Keenan, Hebbian synapses:
biophysical mechanisms and algo-
rithms, Annu. Rev. Neurosci. 13
(1990) 475{511.
[5] C. E. Carr und M. Konishi, A cir-
cuit for detection of interaural time
di�erences in the brain stem of the
barn owl, J. Neurosci. 10 (1990)
3227{3246.
[6] C. W. Eurich, Neuronale Netze,
in: Lexikon der Physik, Spektrum,
Heidelberg (2000), 81{86.
[7] C. W. Eurich, J. D. Cowan und
J. G. Milton, Hebbian delay ad-
aptation in a network of integrate-
and-�re neurons, in: W. Gerstner,
A. Germond, M. Hasler und J.-
D. Nicoud (eds), Arti�cial Neural
Networks { ICANN '97, Springer-
Verlag, Berlin (1997), 157{162.
[8] C. W. Eurich, K. Pawelzik,
U. Ernst, J. D. Cowan und J. G.
Milton, Dynamics of self-organized
delay adaptation, Phys. Rev. Lett.
82 (1999) 1594{1597.
[9] C. W. Eurich und S. D. Wilke,
Multi-dimensional encoding stra-
tegy of spiking neurons, Neural
Comp. 12 (2000) 1519{1529.
[10] C. W. Eurich, S. D. Wilke und
H. Schwegler, Neural representa-
tion of multi-dimensional stimuli,
in: S. A. Solla, T. K. Leen und
K.-R. M�uller (eds), Advances in
Neural Information Processing Sy-
stems 12, MIT Press, Cambridge
MA (2000), 115{121.
[11] D. Felleman und D. C. van Essen,
Distributed hierarchical processing
in the primate cerebral cortex, Ce-
rebral Cortex 1 (1991) 1{47.
[12] W. Gerstner, R. Kempter, J. L.
van Hemmen und H. Wagner, A
neuronal learning rule for sub-
millisecond temporal coding , Na-
ture 383 (1996) 76{78.
[13] D. O. Hebb, The Organization of
Behavior, Wiley, New York (1949).
[14] S. M. Kay, Fundamentals of Stati-
stical Signal Processing. Volume I:
Estimation Theory , Prentice Hall,
Upper Saddle River, NJ (1993).
[15] H. Markram, J. L�ubke, M. Frot-
scher und B. Sakmann, Regulation
of synaptic e�cacy by coincidence
of postsynaptic APs and EPSPs,
Science 275 (1997) 213{215.
[16] M. A. Paradiso, A theory for the
use of visual orientation informa-
tion which exploits the columnar
structure of striate cortex, Biol.
Cybern. 58 (1988) 35{49.
[17] F. Rieke, D. Warland, R. de Ruy-
ter van Steveninck und W. Bia-
lek, Spikes - Exploring the Neural
Code, MIT Press, Cambridge, MA
(1997).
[18] M.-S. Rioult-Pedotti, D. Friedman
und J. P. Donoghue, Learning-
induced LTP in neocortex, Science
290 (2000) 533{536.
[19] S. Song, K. D. Miller und L. F.
Abbott, Competitive Hebbian
learning through spike-timing-
dependent synaptic plasticity ,
Nature Neurosci. 3 (2000) 919{
926.
[20] G. J. Stuart und B. Sakmann, Ac-
tive propagation of somatic acti-
on potentials into neocortical py-
ramidal cell dendrites, Nature 367
(1994) 69{72.
[21] K. Zhang, I. Ginzburg, B. L. McN-
aughton und T. J. Sejnowski, In-
terpreting neuronal population ac-
tivity by reconstruction: a uni�ed
framework with application to hip-
pocampal place cells, J. Neurophy-
siol. 79 (1998) 1017{1044.
[22] K. Zhang und T. J. Sejnowski,
Neuronal tuning: to sharpen or
broaden? , Neural Comp. 11 (1999)
75{84.
[23] L. I. Zhang, H. W. Tao, C. E.
Holt, W. A. Harris und M.-m. Poo,
A critical window for cooperation
and competition among developing
retinotectal synapses, Nature 395
(1998) 37{44.
top related