zeit - neuro.uni-bremen.deeurich/publications/eurich_dpg... · bremen euric h@ph ysik.uni-bremen.de...

16

Upload: lamduong

Post on 17-Sep-2018

244 views

Category:

Documents


0 download

TRANSCRIPT

Die Ratte im Labyrinth | Repr�asentation und

Lernen aus neurowissenschaftlicher Sicht

Christian W. Eurich

Institut f�ur Theoretische Neurophysik, Universit�at Bremen,

Kufsteiner Str., D-28359 [email protected]

In den letzten Jahren sind in den experimentellen und theore-

tischen Neurowissenschaften erhebliche Fortschritte auf den Ge-

bieten der Signalverarbeitung durch Nervenzellverb�ande und der

Plastizit�at im Nervensystem in Verbindung mit Lernen erzielt

worden.

So l�a�t sich die Repr�asentation sensorischer oder motorischer

Signale durch Gruppen von Neuronen mittels der statistischen

Sch�atztheorie quantitativ charakterisieren. Ein Ansatz besteht

darin, ein Versuchstier einer Reizsituation auszusetzen und aus

den neuronalen Antworten den Reiz zu rekonstruieren. Beispiels-

weise kann durch Messung und Analyse der Antworten von Ner-

venzellen im Hippocampus einer Ratte rekonstruiert werden, in

welchem Teil seiner Umgebung sich das Tier jeweils aufh�alt. Der-

artige Methoden geben Hinweise auf allgemeine Prinzipien neuro-

naler Signalverarbeitung und erlauben R�uckschl�usse auf die Art

des verwendeten Codes.

Auf dem Gebiet der Plastizit�at lassen sich pr�azise Bedingun-

gen f�ur den Signal u� auf zellul�arer und subzellul�arer Ebene an-

geben, unter denen sich synaptische �Ubertragungseigenschaften

selbstorganisiert �andern (Hebbsches Lernen). Obendrein ist erst

in j�ungster Zeit nachgewiesen worden, da� die Hebbsche Plasti-

zit�at tats�achlich mit Lernvorg�angen einhergeht.

1 Einleitung

Im folgenden sollen schlaglichtartig

zwei wichtige Entwicklungen in den

Neurowissenschaften beschrieben wer-

den: Das Studium der Verarbeitung

von sensorischen Reizen durch Ner-

venzellverb�ande und die Charakterisie-

rung selbstorganisierter Hebbscher Pla-

stizit�at. Dabei wird besonderer Wert

auf die Frage gelegt, wie Theorie und

Experiment ineinandergreifen, um zu

einem Verst�andnis wesentlicher Prinzi-

pien zentralnerv�oser Signalverarbeitung

zu gelangen.

In Kapitel 2 werden einige Grundla-

gen der Neurobiologie wiederholt und

g�angige Modelle von Nervenzellen be-

schrieben. Kapitel 3 besch�aftigt sich

mit der Repr�asentation von Reizen

durch Gruppen von Nervenzellen. Kapi-

tel 4 schlie�lich behandelt neue Aspekte

Hebbschen Lernens.

2 Grundlagen der

Neurobiologie und

neuronale Modelle

Die Nervenzelle. Biologische Ner-

venzellen (Neuronen) dienen der Auf-

nahme, Verarbeitung undWeiterleitung

von Signalen (Abbildungen 1 und 2).

Diese Signale haben die Form raumzeit-

licher Spannungs�anderungen (Potenti-

al�anderungen) �uber der Zellmembran.

Im Ruhezustand ist das Zellinnere ne-

gativ gegen�uber dem Au�enraum, und

die Spannung betr�agt ca. �70 mV (so-

genanntes Ruhepotential).

Die Dendriten stellen die Eingangs-

fasern des Neurons dar. Sie sind be-

Zellkern

Soma

Axon

Dendriten

AxonaleEndigungen

Myelin-hülle

Abbildung 1: Schematische Darstellung

eines biologischen Neurons. Abbildung

aus [6].

setzt mit bis zu 105 Kontaktstellen, den

Synapsen, �uber die das Neuron Signa-

le von anderen Nervenzellen empf�angt.

Die Signale breiten sich im Dendriten-

baum und bis zum Zellk�orper (Soma)

aus. �Uberschreitet durch Depolarisation

der Membran die Spannung am Soma

einen Schwellenwert von ca.�40 mV, so

wird am Ansatzpunkt der Nervenfaser

(dem Axonh�ugel) eine pulsf�ormige elek-

trische Welle (Aktionspotential , Spike)

ausgel�ost, die entlang der Nervenfaser

(Axon) zu den axonalen Endigungen

l�auft: das Neuron feuert . Zur Erh�ohung

der Signalgeschwindigkeit sind manche

Axone von einer isolierenden Protein-

schicht, der Myelinh�ulle, umgeben. An

Abbildung 2: Querschnitt durch das

Mittelhirn eines Schleuderzungensa-

lamanders. Einige Nervenzellen sind

schwarz angef�arbt; diese Nervenzellen

reagieren auf visuelle Eingaben und

projizieren in den Hirnstamm, wo sie

nachgeschaltete Nervenzellen erregen,

die die am Beutefang beteiligten Mus-

keln ansteuern. Foto: U. Dicke.

den axonalen Endigungen schlie�lich

wird das elektrische Signal �uber Synap-

sen an nachgeschaltete Neuronen oder

Muskelfasern �ubertragen.

Die synaptische Signal�ubertragung

erfolgt entweder durch direkte elektri-

sche Kopplung oder auf chemischem

Wege. Bei der chemischen Synapse be-

wirkt ein ankommendes Aktionspoten-

tial in der vorgeschalteten Zelle die

Aussch�uttung von Transmittersto�en,

die zur nachgeschalteten Zelle di�undie-

ren und dort aufgenommen werden. Als

Folge davon kommt es in der nachge-

schalteten Zelle zu einer �Anderung der

Membranspannung, zu einem postsyn-

aptischen Potential . Chemische Syn-

apsen k�onnen erregend (exzitatorisch)

oder hemmend (inhibitorisch) wirken,

je nach Vorzeichen des postsynapti-

schen Potentials.

Wird eine Nervenzelle erregt, so

antwortet sie im allgemeinen mit ei-

ner Serie von Aktionspotentialen, ei-

nem Spiketrain; Abbildung 3 zeigt ein

Beispiel. Der Abstand zweier Spikes

kann dabei nicht beliebig klein sein,

da die Zelle nach der Erzeugung ei-

nes Spikes f�ur eine kurze Zeit, die Re-

frakt�arzeit , in eine Regenerationsphase

geht. Spiketrains wie der in Abbildung

Zeit

Abbildung 3: Spiketrain eines Mittel-

hirnneurons eines Salamanders als Ant-

wort auf ein schwarzes bewegtes Recht-

eck, das dem Tier pr�asentiert wird.

Die Aktionspotentiale sind als Striche

dargestellt. Skala: 500 ms. Daten mit

freundlicher Genehmigung von B. Lien-

st�adt. Abbildung aus [6].

3 gezeigte werden gemessen, indem eine

Me�elektrode entweder in das Nerven-

zellgewebe zwischen die Neuronen ge-

setzt oder in eine Nervenzelle eingesto-

chen wird (extrazellul�are bzw. intrazel-

lul�are Ableitung). Mit einer Einzelelek-

trode kann die Aktivit�at einzelner oder

mehrerer Neuronen aufgezeichnet wer-

den. In den letzten Jahren werden ver-

mehrt Multielektroden verwendet, um

gleichzeitig die Aktivit�at vieler Nerven-

zellen zu registrieren und auf diese Wei-

se Aussagen �uber die gemeinsame Ver-

arbeitung von Signalen zu tre�en.

Neuronenmodelle. F�ur das Studi-

um neuronaler Netze und die Model-

lierung biologischer Nervennetze wird

unterschiedlich stark von den komple-

xen Eigenschaften biologischer Neuro-

nen abstrahiert.

In Netzen mit diskreter Zeitstruktur

verwendet man das in Abbildung 4 dar-

gestellte, stark vereinfachte Neuronen-

modell. Das Neuron bekommt Eingaben

f

y1y1

w1w1

y

w2w2 wnwn

y2y2

ynyn

0

ymax

h0

Aktivierung h

(b)

Feuerr

ate

f

Abbildung 4: Modellneuron f�ur Netze

mit zeitdiskreter Dynamik. f ist das

Symbol f�ur die Ausgabefunktion.

y1; : : : ; yn, die entweder von anderen

Neuronen stammen oder �au�ere Ein-

gaben in das Netzwerk darstellen. Die

Eingaben werden durch Multiplikation

mit den Synapsenst�arken w1; : : : ; wn ge-

wichtet. Die Aktivierung h des Neurons

betr�agt

h =nXi=1

wiyi :

F�ur wi > 0 wirkt die Eingabe yi des

vorgeschalteten Neurons i exzitatorisch,

f�ur wi < 0 inhibitorisch (i = 1; : : : ; n).

Die Ausgabe y des Neurons wird durch

Anwendung einer Ausgabefunktion f

berechnet: y = f(h). Im einfach-

sten Fall, dem sog. McCulloch-Pitts-

Neuron, sind die Eingaben und die

Ausgabe bin�ar (y1; : : : ; yn; y 2 f0; 1g)

und werden als"Feuern\ bzw.

"Nicht-

Feuern\ interpretiert. F�ur McCulloch-

Pitts-Neuronen stellt f die Heaviside-

Funktion � dar,

f(h) = �(h� �0) ;

wobei �0 der Schwellenwert f�ur das

Feuern des Neurons ist. Nehmen die

y1; : : : ; yn; y kontinuierliche Werte an,

spricht man von einem Analogneuron,

und die Ausgabe y wird als mittlere An-

zahl von Spikes interpretiert, die das

Neuron pro Zeiteinheit erzeugt (Feu-

errate). F�ur Analogneuronen verwen-

det man eine sigmoide Ausgabefunk-

tion, d.h. eine stetige und monotone

Funktion, die von Null auf einen Maxi-

malwert ymax ansteigt. Als Beispiel sei

die Fermi-Funktion

f(h) =ymax

1 + e�(h�h0)(1)

genannt, wobei h0 die Aktivierung an-

gibt, bei der das Neuron mit der Rate

ymax=2 feuert (Abb. 4).

Das gebr�auchlichste Neuronenmodell

f�ur Netzwerke mit zeitkontinuierlicher

Dynamik ist das Integrate-and-Fire-

Neuron. Die dynamische Variable ist

das Membranpotential V = V (t), wo-

bei das Ruhepotential zumeist auf Null

gesetzt wird. Abbildung 5 zeigt das Er-

satzschaltbild des Neurons, das g�ultig

ist, solange das Membranpotential so

klein ist, da� das Neuron nicht feuert.

R ist der Widerstand und C die Kapa-

I(t)V(t)C R

Abbildung 5: Ersatzschaltbild f�ur ein

Integrate-and-Fire-Neuron unterhalb

der Feuerschwelle.

zit�at der Zellmembran; die Stromquelle

I(t) modelliert die Eingabe des Neurons

aufgrund der Spikeaktivit�aten der ande-

ren Neuronen im Netzwerk. F�ur V < �0gilt die lineare Gleichung

CdV

dt+V

R= I(t)

mit einer Anfangsbedingung V (t0) =

V0. Erreicht das Membranpotential zu

einer Zeit t1 eine Feuerschwelle �0,

V (t1) = �0, so gibt das Neuron

einen Spike ab, der selber nicht model-

liert wird, und das Membranpotential

wird auf Null gesetzt: limt!t

+

1V (t) =

0. Refrakt�arzeiten k�onnen durch ei-

ne zeitabh�angige Feuerschwelle, �0 =

�0(t), ber�ucksichtigt werden. F�ur die

auftretenden Str�ome I(t) w�ahlt man

gem�a� dem Pulscharakter der Spikes

die Delta-Funktion, oder man ber�uck-

sichtigt postsynaptische Potentiale in

Form einer Alpha-Funktion:

I(t) = ce��t ; � > 0

mit c > 0 f�ur Exzitation und c < 0 f�ur

Inhibition.

Neben den beschriebenen gibt es wei-

tere, insbesondere komplexere Neuro-

nenmodelle, die die r�aumliche Struk-

tur des in Abb. 1 dargestellten Neurons

ber�ucksichtigen. Zur Simulation gr�o�e-

rer Netzwerke verwendet man wegen

des geringeren Rechenaufwandes jedoch

zumeist die genannten einfacheren Mo-

delle.

Das Gehirn. Das menschliche Ge-

hirn besteht aus mehr als 200 Milliarden

Nervenzellen, und im Durchschnitt hat

jedes Neuron 1000 Kontaktstellen (Syn-

apsen) mit anderen Neuronen. Eine ein-

gehendere Beschreibung des Gehirns,

seiner Anatomie und Physiologie w�urde

den Rahmen dieses Beitrags bei wei-

tem sprengen; stattdessen sei auf einen

Punkt hingewiesen, der die Komplexit�at

der neuronalen Verarbeitung verdeutli-

chen soll. Die klassische Sicht auf die

Signalverarbeitung im Gehirn ist in Ab-

bildung 6 dargestellt. Demnach ist der

sensorische Eingaben

interne Verarbeitung

Motorische Reaktionen

?

Abbildung 6: Schematische Darstellung

der herk�ommlichen Sicht auf die Signal-

verarbeitung im Nervensystem.

Signal u� im Nervensystem im wesent-

lichen folgenderma�en charakterisiert:

Durch unsere Sinnesorgane bekommen

wir sensorische (visuelle, auditorische

usw.) Eingaben; diese werden intern

verarbeitet und resultieren schlie�lich in

einer Antwort in Form von motorischer

Aktivit�at. An dieser Sichtweise sind

zwei Punkte irref�uhrend: Erstens wird

der Ein u� der sensorischen Eingaben

auf die zentralnerv�ose Aktivit�at �uber-

betont. Zweitens ist die mittlere Stufe

der internen Verarbeitung nicht n�aher

spezi�ziert und suggeriert damit ins-

gesamt eine im wesentlichen vorw�arts-

gerichtete Signalverarbeitung im Ner-

vensystem. Zur Unterstreichung dieser

Aussagen zeigt Abbildung 7 ein von

Felleman und van Essen aus verschie-

denen anatomischen Studien zusam-

mengestelltes Diagramm von bis da-

to bekannten anatomischen Verbindun-

gen innerhalb des visuellen Systems

von Primaten [11]. Jedes K�astchen ent-

spricht einem Gehirnareal (zumeist in

der Gro�hirnrinde), in dem sich Neu-

ronen be�nden, die auf visuelle Ein-

gaben reagieren. Die Abbildung ver-

anschaulicht, da� die weitaus meisten

Nervenzellen (es sind �uber 95%) kei-

nen direkten Kontakt zur sensorischen

Ober �ache haben, sondern ihre Einga-

ben ausschlie�lich von anderen Nerven-

zellen bekommen. Gleiches gilt f�ur die

Schnittstelle zu den Muskeln: nur we-

nige Prozent der Nervenzellen erregen

nachgeschaltete Muskelfasern; die �ubri-

gen geben ihre Signale an andere Ner-

venzellen weiter. Des weiteren ist das in

Abbildung 7 dargestellte System mas-

siv r�uckgekoppelt, was einer einfachen

Charakterisierung der Verhaltensweisen

und der Aufgaben der einzelnen Areale

entgegensteht.

Aus theoretischer Sicht kann man das

Gehirn somit als ein komplexes dyna-

Abbildung 7: Anatomische Verbindun-

gen innerhalb des visuellen Systems ei-

nes Primaten. Abbildung nach [11].

misches System charakterisieren, des-

sen Aktivit�at wesentlich seiner internen

Dynamik entspringt und das durch sen-

sorische Eingaben (\Inputs\) lediglich

gest�ort wird. Dieses Bild ist deutlich

verschieden von der Vorstellung, da�

das Gehirn ma�geblich dadurch zu cha-

rakterisieren sei, da� es externe Signale

aufnimmt und verarbeitet.

3 Neuronale Repr�a-

sentation

Wie im vorigen Abschnitt angedeutet,

sind im Nervensystem stets sehr viele

Neuronen aktiv, von denen ein gro�er

Anteil nicht in direktem Kontakt mit

den Umweltreizen steht. Eine �au�erst

komplexe Signalverarbeitung innerhalb

des Nervensystems geht einher mit der

bewu�ten oder unbewu�ten Wahrneh-

mung der Welt; wir sagen, die Umwelt

sei im Gehirn repr�asentiert .

Diese Betrachtung f�uhrt unmittelbar

zu der Frage nach der G�ute der Re-

pr�asentation von Umweltreizen in ei-

ner Gruppe (Population) von Neuro-

nen. Ein experimenteller Zugang be-

steht darin, einem Tier Reize zu pr�asen-

tieren und die durch Einzel- oder Mul-

tizellableitungen gewonnenen Antwor-

ten der Nervenzellen zu charakterisieren

und auf �Aquivalenz mit den Reizen zu

testen. Ein entsprechendes Vorgehen ist

auch auf der motorischen Seite m�oglich;

hier stellt sich die Frage nach der Be-

ziehung zwischen den motorischen Ak-

tionen des Organismus und einer ent-

sprechenden Aktivit�at von Nervenzel-

len, beispielsweise im Motorcortex.

Ein geeignetes Werkzeug zur Be-

stimmung der �Aquivalenz von neuro-

naler Aktivit�at und sensorischen bzw.

motorischen Signalen ist die informa-

tionstheoretische Methode: der klassi-

sche Informationsbegri� nach Shannon

(die Transinformation) quanti�ziert die�Ubereinstimmung zweier Wahrschein-

lichkeitsverteilungen; in diesem Fall

handelt es sich um die Verteilung der

dargebotenen Reize und die Verteilung

der Antworten der Neuronenpopulati-

on. Als Standardwerk f�ur diese Metho-

de sei das Buch von Rieke et al. [17]

empfohlen.

Eine alternative Methode der Da-

tenauswertung besteht darin, mit Hil-

fe der Signale der Neuronenpopulati-

on den Reiz zu rekonstruieren oder

mehrere Reize zu diskriminieren. Bei

der Rekonstruktion wird �ublicherwei-

se der Sch�atzfehler ermittelt, der sich

aufgrund der beschr�ankten Anzahl der

beteiligten Neuronen oder der Stocha-

stizit�at der Neuronenantwort ergibt.

Die Sch�atzung eines Reizes mu� hinrei-

chend genau sein, um dem Organismus

ein ad�aquates Agieren und Reagieren

zu erm�oglichen. Eine Methode, die sehr

gute Ergebnisse erzielt, ist die Rekon-

struktion mittels Bayesscher Sch�atzver-

fahren; diese wird im n�achsten Ab-

schnitt n�aher erl�autert und anschlie-

�end auf die Selbstlokalisation einer

Ratte in einem Labyrinth angewendet.

Bayessche Rekonstruktion. Gege-

ben seien N Neuronen, die auf die

Pr�asentation eines Reizes reagieren, der

sich an einer Stelle x in einem Reizraum

X be�ndet. Es kann sich bei x beispiels-

weise um einen Winkel im Ortsraum, ei-

ne Frequenz auf der Frequenzachse oder

die Orientierung eines Balkes im Inter-

vall [0�; 180�] handeln. Der Einfachheit

halber wird X hier als eindimensional

angenommen, und die m�oglichen Reize

x aus X nehmen kontinuierliche Werte

an.

Gemessen werden die Spikezahlen

k1; : : : ; kN , die in einem Zeitintervall �

nach Pr�asentation des Reizes x in der

Population auftreten. Durch wiederhol-

te Darbietung des Reizes gewinnt man

eine Verteilung der Spikezahlen, die sich

als bedingte Wahrscheinlichkeit schrei-

ben l�a�t: P (k1; : : : kN jx). Liegt diese

Verteilung vor, so kann man mittels ei-

ner Einzelmessung, die die Spikezahlen

k1; : : : ; kN zum Ergebnis habe, den Rei-

zort absch�atzen.

F�ur diese Sch�atzung wird die

bedingte Wahrscheinlichkeitsdich-

te p(xjk1; : : : kN) ben�otigt, also die

Wahrscheinlichkeitsdichte daf�ur, da�

sich der Reiz am Ort x be�ndet,

wenn bei einmaliger Pr�asentation

in der Population k1; : : : ; kN Spikes

gez�ahlt werden. P (k1; : : : kN jx) und

p(xjk1; : : : kN) h�angen �uber den Satz

von Bayes zusammen:

p(xjk1; : : : kN) =P (k1; : : : kN jx)p(x)

P (k1; : : : ; kN):

(2)

p(x) beschreibt die H�au�gkeitsver-

teilung f�ur das Auftreten des Rei-

zes am Ort x; diese Gr�o�e ist un-

abh�angig vom neuronalen System und

wird als A-Priori-Wahrscheinlichkeit

(engl. prior) bezeichnet. Sie wird

vom Experimentator vorgegeben oder

entspricht einer nat�urlichen Statistik

des Auftretens der Reize. Man nennt

p(xjk1; : : : kN) entsprechend die A-

Posteriori-Wahrscheinlichkeit , da sie

die Verteilung von x nach der Messung

des neuronalen Systems darstellt. Der

Nenner P (k1; : : : ; kN) in Gleichung (2)

hat die Bedeutung einer Normierung

und kann �uber den Satz von der totalen

Wahrscheinlichkeit berechnet werden:

P (k1; : : : ; kN) =RX

P (k1; : : : ; kN jx)p(x) dx : (3)

Mittels eines geeigneten Verfahrens

mu� zuletzt ein gesch�atzter Ort x̂

aus der A-Posteriori-Verteilung ermit-

telt werden. Der optimale Sch�atzwert

(im Sinne eines quadratischen Feh-

lers) ist derMittelwert der A-Posteriori-

Verteilung [14]. Da dieser zumeist nur

unter gro�em Rechenaufwand ermit-

telt werden kann, wird der aufgrund

der Messung gesch�atzte Ort x̂ �ublicher-

weise als die Stelle gew�ahlt, an der

p(xjk1; : : : kN) maximal ist:

x̂ = argmaxx2X

p(xjk1; : : : ; kN) : (4)

In der Regel wird es bei Experi-

menten aufgrund der begrenzten Me�-

zeit nicht m�oglich sein, die Wahrschein-

lichkeit P (k1; : : : kN jx) zu ermitteln, da

es sich i. a. um multivariate Verteilun-

gen in hochdimensionalen R�aumen han-

delt. In diesem Fall kann man unter

Zuhilfenahme von zus�atzlichen Annah-

men P (k1; : : : kN jx) aus einem Modell

bestimmen. Eine bei der Modellierung

h�au�g verwendete Annahme ist, da� die

Neuronen ihre Spikes unabh�angig von-

einander erzeugen. Mathematisch zer-

f�allt P (k1; : : : kN jx) dann in ein Produkt

von Verteilungen f�ur die einzelnen Neu-

ronen:

P (k1; : : : kN jx) =NYi=1

P (kijx) : (5)

Zur Ermittlung der P (kijx) (i =

1; : : : ; N) werden die mittleren Feuer-

raten fi(x), mit der das Neuron i auf

die Pr�asentation des Reizes x antwor-

tet, als Funktion des Ortes x des Rei-

zes gemessen. Man nennt fi(x) die Tu-

ningkurve des i-ten Neurons. �fi(x) ist

dann die im Zeitintervall � im Mittel

erzeugte Anzahl von Spikes des Neu-

rons i. F�ur P (kijx) w�ahlt man nun eine

passende Statistik mit dem Mittelwert

�fi(x). Das einfachste Modell beruht

auf der Annahme, da� das Auftreten ei-

nes Spikes zu einer Zeit tj unabh�angig

ist von den fr�uheren Spikezeitpunkten

tj�1; tj�2; : : : des Neurons; die Abfolge

von Spikes stellt dann einen Poisson-

Proze� dar. Die Wahrscheinlichkeit f�ur

das Auftreten von genau ki Spikes bei

Neuron i w�ahrend eines Beobachtungs-

zeitraums � betr�agt in diesem Fall

P (kijx) =(�fi(x))

ki

ki!e��fi(x) : (6)

Setzt man die Gleichungen (5) und

(6) in den Satz von Bayes (2) ein, so

l�a�t sich der Ort des Reizes als Mittel-

wert der A-Posteriori-Verteilung oder

mit dem Kriterium (4) absch�atzen.

Die Ratte im Labyrinth. Im Hip-

pocampus von Ratten existieren Zellen,

die aktiv werden, wenn sich der Kopf

des Tiers in einem bestimmten Raum-

bereich seiner Umwelt be�ndet; die-

se Raumbereiche werden Place Fields

genannt. Abbildung 8 zeigt die Place

Fields von 25 Zellen; diese sind symbo-

lisch auf ein Labyrinth gelegt, durch das

die Ratte sich bewegt. Die Farbe kodiert

die Feuerrate, die das jeweilige Neuron

hat, wenn sich die Ratte am entspre-

chenden Ort be�ndet. Durch Registrie-

rung des von einer Ratte in einem Laby-

rinth zur�uckgelegten Weges und gleich-

zeitige Multizellableitungen l�a�t sich

die Hypothese �uberpr�ufen, da� die Ak-

tivit�at der Hippocampusneuronen hin-

reichend f�ur eine Selbstlokalisation der

Ratte in dem Labyrinth ist. Mit Hil-

fe der oben beschriebenen (und weite-

rer) Rekonstruktionsverfahren wird der

Weg der Ratte aus den Spikedaten von

25 Neuronen gesch�atzt und mit dem

tats�achlichen Weg verglichen.

Das Ergebnis einer Bayesschen Re-

konstruktionen ist in Abb. 9 dargestellt.

Die obere Zeile zeigt den tats�achlichen

Weg und die dritte Zeile das Ergebnis

der Bayesschen Rekonstruktion, wie sie

im vorigen Abschnitt beschrieben wur-

Abbildung 8: Falschfarbendarstellung

von 25 Place�elds einer Ratte. Abbil-

dung aus [21].

de. Als ein noch besseres Verfahren er-

weist sich eine Bayessche Rekonstrukti-

on, die zwei Zeitschritte und eine Ste-

tigkeit des Weges der Ratte einbezieht

(zweite Zeile). Die Resultate zeigen, da�

eine kleine Population von Hippocam-

pusneuronen hinreichend f�ur die Selbst-

lokalisation der Ratte in ihrem Laby-

rinth ist: bereits bei Ber�ucksichtigung

von 25 Nervenzellen f�allt die Genauig-

keit der Rekonstruktion unter die Ge-

nauigkeit, mit der im Experiment die

tats�achliche Position der Ratte gemes-

sen wurde.

Eine ernstzunehmende Kritik an

Bayesschen Rekonstruktionsverfahren

ist die Tatsache, da� viel Vorwissen in

die Rekonstruktion eingeht: die Moda-

lit�at der Sensorik, die Dimensionalit�at

des Reizes (d. h. die Anzahl der re-

Abbildung 9: Resultat der Bayesschen

Rekonstruktion. Die obere Zeile zeigt

die wahre Bahn der Ratte, die untere

Zeile die aus der Aktivit�at von 25 Neu-

ronen mittels des beschriebenen Ver-

fahrens rekonstruierte Bahn. Die mitt-

lere Zeile schlie�lich resultiert aus ei-

nem Bayesschen Verfahren, das jeweils

zwei aufeinanderfolgende Zeitabschnit-

te ber�ucksichtigt und die Stetigkeit der

Bahn der Ratte voraussetzt. Abbildung

aus [21].

gistrierten Reizeigenschaften) usw. Ei-

ne"absolute\ Rekonstruktion neuro-

naler Aktivit�at ohne jegliche Annah-

men ist nicht m�oglich. Gem�a� dieser

abgeschw�achten Au�assung kann man

Rekonstruktionsmethoden als (zumeist

einfache) mathematische Verfahren an-

sehen, die die simultane Aktivit�at meh-

rerer Neuronen quantitativ charakteri-

sieren.

Fisher-Information und neurona-

le Kodierungsstrategien. Bei Be-

trachtung der rekonstruierten Wege in

Abb. 9 stellt sich die Frage, ob es nicht

weitere Rekonstruktionsmethoden gibt,

die aus dem Feuerverhalten der Neuro-

nenpopulation den Weg der Ratte noch

besser sch�atzen k�onnen. Oder anders

ausgedr�uckt: gibt es eine untere Gren-

ze f�ur den Fehler einer Rekonstruktion?

Die Antwort lautet ja; eine solche un-

tere Grenze existiert, und sie ist i. a.

aufgrund der Stochastizit�at der ausge-

werteten Signale gr�o�er als Null. Inter-

essant ist, da� sich der minimal m�ogli-

che Fehler { ohne die Ber�ucksichtigung

eines konkreten Rekonstruktionsverfah-

rens { berechnen l�a�t, und zwar mit Hil-

fe der Fisher-Information.

Gegeben seien N Neuronen, die

bei wiederholter Pr�asentation eines

Reizes am Ort x im Reizraum X

mit einer Wahrscheinlichkeitsverteilung

P (k1; : : : ; kN ; x) reagieren. Aus einer

Einzelmessung der Spikezahlen der Po-

pulation gewinnt man mit einem ge-

gebenen Sch�atzverfahren S (beispiels-

weise der Bayesschen Methode) eine

Sch�atzung x̂ f�ur x; bei T Messun-

gen desselben Reizes die Sch�atzungen

x̂1; : : : ; x̂T . Als Bias bS des Sch�atzers

S bezeichnet man die mittlere Abwei-

chung von wahrem und gesch�atztem

Ort:

bS = limT�!1

1

T

TXt=1

x̂t � x � hx̂� xi :

(7)

Ein erwartungstreuer Sch�atzer (engl.

unbiased estimator) ist ein Sch�atzer, f�ur

den bS = 0 gilt, der also im Mittel

den korrekten Ort liefert. Alle weiteren�Uberlegungen dieses Abschnitts bezie-

hen sich auf erwartungstreue Sch�atzer.

Der mittlere quadratische Fehler des

Sch�atzers S ist de�niert als

(�x)2 = limT�!11T

TPt=1

(x̂t � x)2

� h(x̂� x)2i : (8)

Die Fisher-Information der neurona-

len Population bzgl. des Reizes x ist de-

�niert als

J(x) :=

* @ lnP (k1; : : : ; kN ; x)

@x

!2+

(9)

[14]; h: : :i bezeichnet wiederum den Er-

wartungswert �uber die Wahrscheinlich-

keitsverteilung P (k1; : : : ; kN ; x), und

ln : : : ist der nat�urliche Logarithmus.

Die Cram�er-Rao-Ungleichung gibt

nun einen Zusammenhang zwischen der

Fisher-Information und dem mittleren

quadratischen Sch�atzfehler:

h(x̂� x)2i �1

J(x): (10)

Gleichung (10) besagt, da� der mitt-

lere quadratische Fehler eines beliebi-

gen erwartungstreuen Sch�atzers stets

gr�o�er oder gleich dem Kehrwert der

Fisher-Information ist. Das ist eine

weitreichende Aussage! Das Inverse der

Fisher-Information wird als minima-

ler Sch�atzfehler bezeichnet. Bei Vorlie-

gen eines konkretes Sch�atzproblems hat

man stets zwei Dinge im Auge zu be-

halten: erstens k�onnen Sch�atzer mit Bi-

as existieren, deren Fehler noch unter-

halb des minimalen Sch�atzfehlers lie-

gen. Zweitens ist es m�oglich, da� s�amt-

liche Sch�atzer die untere Grenze der in-

versen Fisher-Information gar nicht er-

reichen, sondern stets dar�uber liegen.

Mit Hilfe der Fisher-Information (9)

und der Cram�er-Rao-Ungleichung (10)

lassen sich nun Kodierungsstrategien

f�ur neuronale Populationen untersu-

chen (z. B. [16, 22, 9, 10]). Dabei stellt

sich die Frage, wie neuronale Popu-

lationen reagieren m�ussen, um eine

m�oglichst gro�e Fisher-Information, al-

so einen m�oglichst kleinen minimalen

Sch�atzfehler, zu erzielen. Paradiso [16]

betrachtet ein Modell f�ur eine Popula-

tion von Nervenzellen in einem visuel-

len Areal der Gro�hirnrinde und leitet

die Genauigkeit her, mit der die Orien-

tierung von bewegten Balken repr�asen-

tiert ist. Zhang und Sejnowski [22]

beweisen, da� identische Nervenzellen,

die unspezi�sch auf gro�e Bereiche im

Reizraum reagieren (beipielsweise gro�e

Place Fields wie die in Abbildung 8 ge-

zeigten), ein hohes Au �osungsverm�ogen

liefern, falls mehr als zwei Reizeigen-

schaften (Ort, Geschwindigkeit, Hellig-

keit usw.) kodiert werden. Eurich und

Wilke [9, 10] machen eine Reihe von

realistischeren Annahmen �uber neuro-

nale Populationen und ermitteln die

sich jeweils ergebende Repr�asentations-

genauigkeit. Untersucht werden unter

anderem Populationen von Neuronen,

die eine Variabilit�at in ihren Antwort-

eigenschaften aufweisen, sowie verschie-

dene Arten der Korrelation in den Ant-

worten der Neuronen. Es stellt sich da-

bei stets heraus, da� gerade diejenigen

neuronalen Eigenschaften, die auch em-

pirisch gefunden werden, eine genaue

Repr�asentation von sensorischen Reizen

erm�oglichen.

4 Hebbsches Lernen

Das Hebbsche Postulat. Im Jahre

1949 schlug der kanadische Psychologe

Donald Hebb in seinem richtung-

weisenden Buch"The Organization

of Behavior\ eine Hypothese �uber

einen Mechanismus vor, wie Lernen

im Nervensystem auf zellul�arer Ebene

ablaufen k�onnte [13]:

"When an axon of cell A is near

enough to excite a cell B and

repeatedly or persistently ta-

kes part in firing it, some grow-

th process or metabolic change

takes place in one or both cells

such that A's efficiency, as one

of the cells firing B, is increa-

sed.\Die Hypothese beinhaltet zwei wesent-

liche Punkte: Erstens entsprechen

Lernprozesse anatomischen oder

physiologischen Ver�anderungen auf

zellul�arer oder subzellul�arer Ebene;

zweitens beruht diese Plastizit�at auf

der Aktivit�at der Nervenzellen und

�ndet somit selbstorganisiert statt.

Demnach gibt es also dynamische Pro-

zesse auf mindestens zwei Zeitskalen:

eine schnelle Dynamik der neuronalen

Erregung und Signalproduktion und

eine langsame Dynamik strukturel-

ler �Anderungen. Bez�uglich letzteren

erw�ahnt Hebb in seinem Buch die

M�oglichkeit gerichteter Wachstumsbe-

wegungen, konzentriert sich dann aber

auf den Vorschlag, da� die Synapse der

Ort der plastischen �Anderungen sei.

Obwohl es in den 40er Jahren noch

keine empirischen Hinweise auf die

Hypothese von Hebb gab, war sein

Buch der Auftakt f�ur ein gigantisches

neurowissenschaftliches Forschungspro-

gramm, das bis heute andauert.

LTP und LTD. Der Nachweis selbst-

organisierter Plastizit�at im Nervensy-

stem begann in den 80er Jahren mit

der Entdeckung der Long-Term Poten-

tiation (LTP) [3]. Es konnte nachgewie-

sen werden, da� die gleichzeitige, wie-

derholte starke elektrische Reizung ei-

ner vor- und einer nachgeschalteten Zel-

le dazu f�uhrt, da� die nachfolgende Zel-

le �uber l�angere Zeit hinweg st�arker auf

Reizung durch die vorgeschaltete Zel-

le reagiert, d. h. ein gr�o�eres postsyn-

aptisches Potential entwickelt. Nachge-

wiesen wurde auch der umgekehrte Ef-

fekt der Long-Term Depression (LTD),

eine Abschw�achung der Synapse, eben-

falls bedingt durch wiederholte gepaar-

te Reizung eines vor- und eines nachge-

schalteten Neurons. LTP und LTD tre-

ten in vielen Hirngebieten auf, sind aber

im Hippocampus, einem Teil des Vor-

derhirns, besonders pronounciert. Der

Hippocampus steht vermutlich im Zu-

sammenhang mit der Einspeicherung

neu erworbenen Wissens.

Auf theoretischer Seite wurden ein-

fache, auf wechselseitiger Aktivit�at von

Neuronen beruhende Lernregeln f�ur

neuronale Netze mit diskreter Zeit-

struktur (t = 1; 2; : : :) entwickelt [4].

Die einfachste Variante solcher Hebb-

Regeln lautet

wij(t+ 1) = wij(t) + �yj(t)hi(t) ; (11)

wobei wij(t) die St�arke der Synapse ist,

mit der Neuron j zur Zeit t auf Neu-

ron i einwirkt; � stellt eine Lernrate

dar, hi ist die Aktivierung des nach-

geschalteten Neurons i, und yj ist die

Feuerrate des vorgeschalteten Neurons

j. Die �Anderung der Synapsenst�arke

wij(t+ 1)�wij(t) ist proportional zum

Produkt yjhi. Ein Problem der Lernre-

gel (11) besteht darin, da� sie zu Insta-

bilit�aten in Netzwerken f�uhrt: eine be-

reits gro�e Synapsenst�arke bewirkt ei-

ne starke Aktivierung des nachgeschal-

teten Neurons und damit eine weite-

re Erh�ohung der Synapsenst�arke. Ab-

hilfe scha�en hier eine Begrenzung des

Wertes von Synapsenst�arken nach oben

oder die Einf�uhrung einer Normierung

aller an einem Neuron sitzenden Syn-

apsen; letzteres f�uhrt zu einem Wettbe-

werb zwischen den Synapsen.

Zeitabh�angiges Hebbsches Lernen

Seit 1994 sind auf dem Gebiet des

Hebbschen Lernens sowohl experimen-

tell als auch theoretisch gro�e Fort-

schritte erzielt worden. Ein bis dato un-

gel�ostes Problem bezieht sich auf Lo-

kalit�at der Hebbschen Lernregel: die an

der Synapse beobachteten Ver�anderun-

gen werden hervorgerufen aufgrund der

korrelierten Aktivit�at des vor- und des

nachgeschalteten Neurons. Woher aber

"wei� \ die Synapse, da� das nachge-

schaltete Neuron gefeuert hat? Es mu�

ein Signal geben, da� diese Informati-

on vom Axonh�ugel, wo die Aktionspo-

tentiale entstehen, zur Synapse tr�agt.

In der Tat entdeckten Stuart und Sak-

mann 1994, da� Aktionspotentiale nicht

nur entlang des Axons laufen wie bisher

angenommen, sondern auch in den Den-

dritenbaum zur�uckpropagieren, wo sich

die meisten Synapsen be�nden [20]. Ein

solches r�uckpropagierendes Aktionspo-

tential ist ein perfekter Kandidat f�ur

das gesuchte Signal.

Die exakten zeitlichen Bedingungen

f�ur das Auftreten von LTP und LTD

wurden seit 1997 in der Reihe von Arti-

keln aufgekl�art [15, 1, 23, 2]. Markram

et al. [15] wiesen nach, da� eine

Verst�arkung der Synapse durch LTP

statt�ndet, wenn die vorgeschaltete Zel-

le wenige Millisekunden vor der nach-

geschalteten Zelle ein Aktionspotenti-

al produziert, wenn es also eine kau-

sale Einwirkung der vor- auf die nach-

geschaltete Zelle gibt. Ist hingegen das

Signal der vorgeschalteten Zelle ver-

sp�atet, so �ndet LTD statt: die zeit-

liche Korrelation der Signale kann in

diesem Fall nur zuf�allig sein. Die kor-

relierten Aktivit�aten m�ussen innerhalb

eines Zeitraums von 100 ms statt�n-

den, ansonsten �ndet keine Ver�ande-

rung statt. Bi et al. [1] und Zhang et

al. [23] schlie�lich haben die St�arke von

LTP bzw. LTD als Funktion des zeitli-

chen Abstandes zwischen der Aktivit�at

der vor- und der nachgeschalteten Zel-

le, das sog. Lernfenster , exakt vermes-

sen (siehe Abbildung 10). Das Lernfen-

ster zeigt, da� die zeitliche Abfolge der

Aktionspotentiale im Nervensystem ei-

ne gro�e Rolle f�ur plastische Ver�ande-

rungen spielt.

Eine komplexere neuronale Verschal-

tung wurde von Bi et al. [2] unter-

sucht: Zwei Nervenzellen, die �uber meh-

rere parallele Leitungen durch ande-

re Nervenzellen miteinander verschal-

tet waren, wurden zeitlich gepaart elek-

trisch gereizt. Die unterschiedlichen

Zeitverz�ogerungen der parallelen Lei-

tungen bewirkten in Kombination mit

der Struktur des Lernfensters, da� ein

Teil der beteiligten Synapsen verst�arkt

und ein anderer Teil abgeschw�acht wur-

de: die Hebbsche Lernregel f�uhrt in

komplexeren Netzwerken zur Ausbil-

dung charakteristischer raumzeitlicher

Strukturen.

Mittlerweile existiert eine Reihe

von theoretischen Arbeiten, die das

zeitabh�angige Hebbsche Lernen in

Netzwerken aus spikenden Neuronen

untersuchen (z. B. [12, 7, 8, 19]).

Eine typische Lernregel sieht folgen-

derma�en aus: Betrachtet man eine

Synapse, mit der Neuron j auf Neuron

i einwirkt, dann wird aufgrund eines

Abbildung 10: Hebbsches Lernfenster

f�ur Mittelhirnneuronen einer Kaulquap-

pe, die Eingaben von Retinagangli-

enzellen bekommen. Auf der Abszis-

se ist die Zeitdi�erenz zwischen den

Aktivit�aten der vor- und der nachge-

schalteten Zelle aufgetragen, die Or-

dinate zeigt die �Anderung des in

die nachgeschaltete Zelle ein ie�enden

Stroms (Excitatory PostSynaptic Cur-

rent, EPSC) aufgrund von 100 elektri-

schen Stimulationen. In den Gebieten I

und II wirkt das vorgeschaltete Neuron

kausal auf das nachgeschaltete Neuron

ein, und die Synapse wird verst�arkt; in

Gebiet III ist die Wechselwirkung akau-

sal (zuf�allig), und die Synapse wird ab-

geschw�acht. Abbildung aus [23].

Spikes zur Zeit tj im vorgeschalteten

Neuron und eines Spikes zur Zeit ti im

nachgeschalteten Neuron die Synapse

wie folgt ver�andert:

wneuij

= waltij

+W (tj � ti) ; (12)

wobei W beispielsweise das in Abbil-

dung 10 dargestellte Lernfenster ist.

Lernen erfolgt in einem Netzwerk aus

spikenden Neuronen dann zwischen al-

len Spikepaaren von miteinander ver-

schalteten Neuronen.

Gerstner et al. [12] verwenden eine

zeitsensitive Lernregel, um eine Serie

von Zeitverz�ogerungsstrecken (realisiert

durch unterschiedliche Signallaufzeiten

in den Axonen verschiedener Neuronen)

selbstorganisiert entstehen zu lassen.

Das verwendete Netzwerk steht modell-

haft f�ur eine Struktur im Mittelhirn der

Eule, wo fein abgestimmte Zeitverz�oge-

rungsstrecken zur auditorischen Loka-

lisation von Beute herangezogen wer-

den [5]. Eurich et al. [7, 8] besch�afti-

gen sich ebenfalls mit der Adaptivit�at

von Zeitverz�ogerungen und leiten Be-

dingungen an das Hebbsche Lernfenster

her, die dazu f�uhren, da� raumzeitli-

che Spikemuster stabil in einem neuro-

nalen Netz gespeichert werden k�onnen;

solche stabilen Spikesequenzen k�onnen

gezielt nachgeschaltete Neuronen anre-

gen, und die auf diese Weise etablier-

ten Schaltkreise haben m�oglicherweise

eine Funktion im Zusammenhang mit

dem Ged�achtnis. Song et al. [19] schlie�-

lich zeigen unter anderem, da� Instabi-

lit�aten wie die oben im Zusammenhang

mit der alten Lernregel (11) beschriebe-

nen bei der neuen, zeitsensitiven Lern-

regel (12) nicht auftreten.

Synaptische Plastizit�at und Ler-

nen. Obwohl Neurowissenschaftler

seit der Entdeckung von LTP und LTD

daran geglaubt haben, da� synaptische

Plastizit�at ein neuronales Korrelat von

Lernvorg�angen darstellt, ist dies erst

vor wenigen Monaten (im Oktober

2000) demonstriert worden. Rioult-

Pedotti et al. [18] trainierten Ratten

auf eine motorische Aufgabe, dem Her-

ausangeln von kleinen Futterkugeln aus

einer Box mit Hilfe einer Vorderpfote.

Anschlie�end wurde nachgewiesen,

da� bei den trainierten Tieren | im

Vergleich zu einer Kontrollgruppe |

LTP im motorischen Cortex, der f�ur die

Steuerung von Bewegungen zust�andig

ist, stattgefunden hatte. Mit diesem

Nachweis haben sich die Hebbschen

Ideen �uber Lernen und Plastizit�at im

Nervensystem mehr als 50 Jahre nach

ihrer Formulierung g�anzlich best�atigt.

Literatur

[1] G.-q. Bi und M.-m. Poo, Synap-

tic modi�cations in cultured hip-

pocampal neurons: dependence on

spike timing, synaptic strength,

and postsynaptic cell type, J. Neu-

rosci. 18 (1998) 10464{10472.

[2] G.-q. Bi und M.-m. Poo, Distribu-

ted synaptic modi�cation in neural

networks induced by patterned sti-

mulation, Nature 401 (1999) 792{

796.

[3] T. H. Brown, P. F. Chapmann,

E. W. Kairiss und C. L. Keenan,

Long-term synaptic potentiation,

Science 242 (1988) 724{728.

[4] T. H. Brown, E. W. Kairiss und

C. L. Keenan, Hebbian synapses:

biophysical mechanisms and algo-

rithms, Annu. Rev. Neurosci. 13

(1990) 475{511.

[5] C. E. Carr und M. Konishi, A cir-

cuit for detection of interaural time

di�erences in the brain stem of the

barn owl, J. Neurosci. 10 (1990)

3227{3246.

[6] C. W. Eurich, Neuronale Netze,

in: Lexikon der Physik, Spektrum,

Heidelberg (2000), 81{86.

[7] C. W. Eurich, J. D. Cowan und

J. G. Milton, Hebbian delay ad-

aptation in a network of integrate-

and-�re neurons, in: W. Gerstner,

A. Germond, M. Hasler und J.-

D. Nicoud (eds), Arti�cial Neural

Networks { ICANN '97, Springer-

Verlag, Berlin (1997), 157{162.

[8] C. W. Eurich, K. Pawelzik,

U. Ernst, J. D. Cowan und J. G.

Milton, Dynamics of self-organized

delay adaptation, Phys. Rev. Lett.

82 (1999) 1594{1597.

[9] C. W. Eurich und S. D. Wilke,

Multi-dimensional encoding stra-

tegy of spiking neurons, Neural

Comp. 12 (2000) 1519{1529.

[10] C. W. Eurich, S. D. Wilke und

H. Schwegler, Neural representa-

tion of multi-dimensional stimuli,

in: S. A. Solla, T. K. Leen und

K.-R. M�uller (eds), Advances in

Neural Information Processing Sy-

stems 12, MIT Press, Cambridge

MA (2000), 115{121.

[11] D. Felleman und D. C. van Essen,

Distributed hierarchical processing

in the primate cerebral cortex, Ce-

rebral Cortex 1 (1991) 1{47.

[12] W. Gerstner, R. Kempter, J. L.

van Hemmen und H. Wagner, A

neuronal learning rule for sub-

millisecond temporal coding , Na-

ture 383 (1996) 76{78.

[13] D. O. Hebb, The Organization of

Behavior, Wiley, New York (1949).

[14] S. M. Kay, Fundamentals of Stati-

stical Signal Processing. Volume I:

Estimation Theory , Prentice Hall,

Upper Saddle River, NJ (1993).

[15] H. Markram, J. L�ubke, M. Frot-

scher und B. Sakmann, Regulation

of synaptic e�cacy by coincidence

of postsynaptic APs and EPSPs,

Science 275 (1997) 213{215.

[16] M. A. Paradiso, A theory for the

use of visual orientation informa-

tion which exploits the columnar

structure of striate cortex, Biol.

Cybern. 58 (1988) 35{49.

[17] F. Rieke, D. Warland, R. de Ruy-

ter van Steveninck und W. Bia-

lek, Spikes - Exploring the Neural

Code, MIT Press, Cambridge, MA

(1997).

[18] M.-S. Rioult-Pedotti, D. Friedman

und J. P. Donoghue, Learning-

induced LTP in neocortex, Science

290 (2000) 533{536.

[19] S. Song, K. D. Miller und L. F.

Abbott, Competitive Hebbian

learning through spike-timing-

dependent synaptic plasticity ,

Nature Neurosci. 3 (2000) 919{

926.

[20] G. J. Stuart und B. Sakmann, Ac-

tive propagation of somatic acti-

on potentials into neocortical py-

ramidal cell dendrites, Nature 367

(1994) 69{72.

[21] K. Zhang, I. Ginzburg, B. L. McN-

aughton und T. J. Sejnowski, In-

terpreting neuronal population ac-

tivity by reconstruction: a uni�ed

framework with application to hip-

pocampal place cells, J. Neurophy-

siol. 79 (1998) 1017{1044.

[22] K. Zhang und T. J. Sejnowski,

Neuronal tuning: to sharpen or

broaden? , Neural Comp. 11 (1999)

75{84.

[23] L. I. Zhang, H. W. Tao, C. E.

Holt, W. A. Harris und M.-m. Poo,

A critical window for cooperation

and competition among developing

retinotectal synapses, Nature 395

(1998) 37{44.