coerenza – complessità –creatività · - appendice - sherlock holmes, padre brown e maigret:...
TRANSCRIPT
F. Tito Arecchi
Coerenza – Complessità –Creatività
2
( Paul Cezanne, Natura morta, Los Angeles County Museum of Art)
- Indice - Prefazione
- Premessa:perché Coerenza- Complessità- Creatività
- Qualche nota biografica
- Quattro significati di Ottica
- I primi passi nella ricerca
- Intermezzo quantistico
- L’Ottica al CISE: la Coerenza
- L’Ottica all’INO: Caos e Complessità
- Fisica della cognizione, e Creatività : un elogio dell’oblio
- La scienza moderna e la complessità: certezza e verità
- Appendice - Sherlock Holmes, Padre Brown e Maigret:
tre stili di indagine
3
Prefazione
(da una conversazione con il filosofo Emanuele Samek Lodovici, che mi costringeva a chiarirmi perché mai io avessi deciso di dedicare la mia vita alla scienza) Mi è stato chiesto di raccontare la mia vita professionale e confesso di essere rimasto
alquanto perplesso per due ragioni. Innanzitutto, sono abituato a scrivere solo sullo stato
di una ricerca, senza discutere la cornice entro cui quei fatti sono avvenuti. E poi mi
ricordo sempre di quello che Lev Landau aveva detto a un collaboratore che durante una
presentazione si riferiva spesso a se stesso: “La Sua biografia interesserà al massimo Sua
moglie”.
Comunque, considerando le caratteristiche dei libri di questa collana, ben volentieri ho
acconsentito alla redazione di questo testo, augurandomi che possa essere di qualche
utilità al lettore che si senta attratto dall’avventura della scienza.
4
L’osservazione su riportata del mio amico Emanuele pone in luce la frattura che è nata con
la scienza moderna: essa estrae dettagli misurabili e le misurazioni sono ripetibili e non
lasciano adito ad incertezze, ma la collezione delle misure fatte o pensabili non dà la
“costruzione logica del mondo”. L’uomo è un animale semiotico , cerca nell’esperienza dei
significati globali, e questi non sono del tutto ripetibili,dipendono dal contesto, le
condizioni ambientali di luce e suoni o dal nostro umore .Questo aspetto semiotico è
considerato la peculiarità di un essere vivente rispetto a un oggetto non vivente (
T.A. Sebeok, “Biosemiotics: its roots, proliferation, and prospects”, Semiotica, 1341/4,
2001, pp. 61-78). Sappiamo dalla dinamica newtoniana che l’evoluzione di un sistema
fisico è completamente determinata una volta fissate le leggi di forza e le condizioni iniziali
(posizione e velocità) di ciascuno degli atomi elementari che compongono il sistema.
Ma l’essere semiotico aggiunge con operazioni di feedback delle variabili ulteriori (pescate
dal proprio bagaglio di memorie) ,per cui l’evoluzione newtoniana riguarda un sistema più
esteso di quello misurato in partenza:non è la caduta di un sasso ,ma un dialogo fra due
attori in cui anche il secondo mette qualcosa di suo.
Il resoconto della mia vita scientifica tende a mostrare come dalla fisica della coerenza e
complessità si finisca con il formulare una fisica della cognizione, con un recupero dei
significati globali al di là dei dettagli misurati dagli strumenti: è questo che chiamiamo
creatività e non credo che ci sia differenza fra creatività scientifica e creatività artistica o
nelle decisioni etiche.
Nel mio percorso scientifico ho avuto collaboratori che hanno cominciato la loro vita
professionale con me. Molti di essi hanno sviluppato proprie linee di ricerca originali e
occupano posizioni di prestigio in sedi universitarie o centri di ricerca in molti Paesi .I più
hanno lasciato l’Italia, che non offre opportunità favorevoli di ricerca: cambierà questa
situazione entro un tempo ragionevole?
Il testo è accompagnato da molte figure, che ne sono parte integrante e non aggiunte di
comodo; le figure sono accompagnate da lunghe didascalie:buona parte dei concetti
cruciali qui discussi è concentrata nelle didascalie, in modo da appoggiarsi all’immagine
corrispondente.
Prima della rivoluzione di Gutenberg della stampa a caratteri mobili, i testi manoscritti
erano chiosati da figure al margine. Il campo semantico di una immagine può essere molto
più esteso di quello di una o più parole, pertanto le immagini non solo condensano un
5
lungo discorso verbale ma hanno una carica euristica, sono cioè in grado di evocare flussi
simbolici ben al di là del testo verbale. Ritengo che le nuove tecnologie di scrittura di un
testo, con l’ausilio di immagini , permettano oggi il recupero di questa carica euristica che
il solo testo stampato non ha. Di conseguenza, le figure e le relative didascalie sono parte
essenziale, non un semplice complemento, di questa presentazione.
Un lettore può in prima lettura ,limitarsi alla collezione delle figure e didascalie, ma non
vale il contrario: non è consigliabile limitarsi al testo trascurando le figure.
Anzitutto,che significa il titolo? Cerchiamo di chiarire questo nella Premessa che segue;
molte delle cose qui dette in modo sintetico appariranno esplicitate nel resto del testo.
Premessa:
perché Coerenza- Complessità- Creatività
- Coerenza
Chiunque abbia riflettuto sulla nascita della curiosità scientifica, da Platone a Victor
Weisskopf, ha considerato la sorpresa di fronte a una novità non aspettata come la radice
della curiosità umana. Il ruolo di questa curiosità come stimolo al progresso è presentato
in un libretto umoristico (Roy Lewis, Il più grande uomo scimmia del Pleistocene,1960;
trad.it.: Adelphi ,Milano 1992) come una impazienza a fuoriuscire da schemi abitudinari,
in cui tutto sia già immagazzinato nella memoria senza alcun rischio di irruzione del
nuovo. Se ogni nuova esperienza deve confermare stereotipi già presenti in memoria,
allora non c’è novità, e dunque non c’è evoluzione culturale, che è invece la caratteristica
precipua della specie umana.
D’altronde, se nell’esperienza tutto fosse nuovo, non avremmo punti di riferimento
familiari cui ancorarci: quel che ci tiene allerta non è un diluvio di nuovo, né l’assenza del
nuovo, ma una irruzione controllata di nuovo, che ci permetta di confrontare la nuova
esperienza con una visione del mondo già acquisita e arricchirla senza sconvolgerla.
6
Chiamiamo coerenza questo arricchimento graduale che ci permette di restare “noi stessi”,
pur crescendo. Possiamo leggere in questo modo non solo la scoperta scientifica (si pensi ai
resoconti di Galileo e Darwin) ma qualunque forma di esperienza che mettiamo in
connessione col nostro passato ( si pensi all’Ulisse del Foscolo che torna dopo venti anni di
peregrinazione alla sua terra: “per cui bello di fama e di sventura, baciò la sua petrosa Itaca
Ulisse”).
Viene spontaneo di associare immediatamente alla coerenza il terzo termine, la creatività:
con questo intendiamo la capacità di tornare a una situazione già sperimentata (l’Itaca di
Ulisse) ma cogliendovi qualcosa di nuovo che fino ad allora ci era sfuggito. Senza
impegnarci in una filosofia del conoscere, possiamo concordare che ogni nostra
conoscenza è parziale, da un certo “punto di vista” (E. Agazzi Temi e problemi di filosofia
della fisica, Ed.Abete,Roma ,1972). Non catturiamo mai “il tutto”, perciò ogni ritorno a una
situazione cognitiva ci prospetta qualche dettaglio nuovo. Con buona pace di Platone,
conoscere non è semplicemente ricordare; in effetti, qualunque pezzo di conosciuto ci si
ripresenta sempre sotto aspetti nuovi, sia perché esso è immerso nel resto del mondo che
gli dà aspetti cangianti, sia perché il nostro punto di vista è cambiato, si è arricchito del
nostro “vissuto” (il viaggiare dell’Ulisse foscoliano).
A forza di tornare ad una situazione, finiremo con il catturarne il nucleo profondo; ci
sembrerà allora che ogni altro punto di vista si limiti ad aggiungere dettagli irrilevanti.
Sperimentiamo uno stato siffatto nella creazione artistica. In una natura morta di Cezanne
(vedi immagine in copertina), il tovagliolo sotto i due piatti di frutta ha raggiunto una
perfezione nelle pieghe , una consistenza che sa di eternità; solo Giotto e Masaccio avevano
piegato un tessuto in modo così “assoluto”; altri grandi (Raffaello,Michelangelo) hanno
lasciato il sospetto di una compiacenza manieristica, di una ridondanza compatibile con
altre configurazioni; nel caso di Cezanne, qualunque variante renderebbe banale quel
tovagliolo. La stessa impressione di assoluto danno dei pezzi di musica apparentemente
semplici: si pensi a un Improvviso di Chopin interpretato da Arturo Benedetti
Michelangeli .
Malgrado il conclamato “gap” fra scienze della natura e scienze umane, quanto detto può
spiegare anche la creatività scientifica. Si prenda ad esempio la Tavola di Mendeleev con le
correlazioni fra le proprietà dei 92 elementi chimici: si tratta di una stupendo edificio che
corona tutto un secolo di esplorazioni sugli elementi, fissando l’insieme delle regole
sufficienti a farci avere previsioni sulla chimica dei composti. Ebbene, sappiamo che
l’ipotesi di “quantizzazione delle orbite elettroniche” di N. Bohr , unita con il “principio di
esclusione” di W.Pauli , permettono di spiegare tutti i dettagli della Tavola di Mendeleev.
7
Risultano allora chiare le relazioni fra coerenza e creatività: le varie coerenze che
sperimentiamo nella esplorazione del mondo possono ricevere giustificazioni parziali;
diremo creativa quella ipotesi che giustifica il massimo numero di coerenze; spiega il
trapasso dall’una all’altra coerenza, e si configura pertanto come una interpretazione
globale del pezzo di mondo che stiamo esplorando. Ovviamente,si tratta di concetti non
assoluti, ma relativi a un certo contesto culturale .
Torniamo un po’ indietro. Prima di battezzare la creatività come interpretazione del più
gran numero di coerenze, dobbiamo esplorare come nascono le coerenze e come si legano
fra di loro.
Ogni nostra indagine sul mondo è un po’ prevenuta, preparata.
Il naturalista ha una vasta scelta di classi di simmetria da esplorare; però queste si
intrecciano in relazioni di causa ed effetto che rendono le spiegazioni non univoche.
Esemplifico la ricerca delle coerenze con la ricerca degli indizi in un caso poliziesco. Tre
esempi ben noti sono Sherlok Holmes di Conan Doyle,Padre Brown di Chesterton e il
commissario Maigret di Simenon. Sappiamo come le ricerche siano guidate nei tre casi da
sottostanti “visioni del mondo”, che suggeriscono procedure diverse.
In fisica, il modo più semplice di esplorare le coerenze consiste nel misurare le relazioni
spazio-temporali fra le ampiezze di un’onda che si propaga. Riferendosi alle onde ottiche,
sono stati realizzati nell’800 vari dispositivi interferometrici, che misurano il grado di
correlazione delle onde in posizioni distinte nello spazio o nel tempo, e la coerenza è stata
definita come questo grado di correlazione.
Il problema è che l’onda pura, che si mantiene uguale a se stessa come un’ onda oceanica e
che pertanto dia luogo a coerenze su scale lunghe, è un evento da dover isolare
accuratamente. In genere, si è in presenza di onde coesistenti, di ampiezza e frequenza
diversa, eccitate da qualche sorgente di energia non controllabile e che chiameremo
“bagno termico”, sia esso il sole, oppure una fiamma.
Se vogliamo isolare un’onda quasi-pura che garantisca una coerenza vistosa, dobbiamo
filtrare da un mucchio disordinato di onde ed estrarne una sola selezionando una singola
lunghezza d’onda e una singola direzione di propagazione. Se usassimo dei filtri molto
stretti, avremmo un’ onda quasi perfetta, ma con intensità trascurabile. E’ perciò che
ricorriamo a compromessi, facendo filtri un po’ “laschi” che lascino passare tutto un
pacchetto d’onde e pagando di conseguenza un prezzo corrispondente a una perdita
graduale di coerenza, perché le varie onde del pacchetto sono leggermente diverse una
dall’altra.
8
Facciamo lo stesso nel classificare le varie regolarità naturali che abbiamo genericamente
chiamato “coerenze” : ad ogni proprietà osservata,assegneremo non un numero preciso ,
ma un intervallo di valori; ad esempio nel classificare le stature di una popolazione umana
adulta, non diremo di aver osservato una percentuale di individui alti 1,75 metri, ma una
percentuale compresa fra 1,70 e 1,80 metri.
E’ qui opportuna una considerazione su coerenza e “scale”. La statura media degli
europei adulti è 1,70 metri; se rappresentiamo il numero di individui in funzione
dell’altezza in metri, abbiamo una curva a campana , con massimo a 1,70, e che scende
rapidamente a meno della metà, da una parte a 1,60 e dall’altra a 1,80; è praticamente
nullo il numero di individui di altezza la metà (0,85) o il doppio (3,40) della media.
Diremo che la statura ha una scala definita, con un piccolo scarto attorno alla media; la
curva a campana che scende rapidamente si chiama gaussiana, dal matematico tedesco
Carl Gauss; in gergo, la statura ha una distribuzione gaussiana. Ogni volta che osserviamo
un fenomeno all’equilibrio ( cioè che in media non si sta spostando: si pensi all’aria in una
stanza chiusa a temperatura costante) le misure associate, temperatura, pressione, umidità,
avranno distribuzioni gaussiane, cioè con piccoli scarti rispetto alla media fra misure
diverse della stessa variabile.
Se invece esploriamo la distribuzione dei redditi in una popolazione, ci è ben noto che è
facile trovare persone con redditi ben al disotto della media ( e non la metà, ma anche un
decimo o meno) o ben al di sopra. La curva corrispondente è molto larga e sempre in
discesa: ahimè , i poveri con redditi al disotto della media sono più numerosi dei pochi
ricconi che si collocano molto al disopra. La curva si chiama distribuzione di Pareto,
dall’economista italiano Vilfredo Pareto, fine ‘800. Il reddito è dunque un fenomeno privo
di scala ( scale free), cioè fra due misure diverse possiamo avere scarti molto più grandi
della media.
Distribuzioni prive di scala sono osservate in altri fenomeni non vincolati da un equilibrio.
Due esempi sono le parole di una lingua o la popolazione di una città: si tratta in ambo i
casi di fenomeni in rapida evoluzione, per cui non si può fissare un
equilibrio.
Nel primo caso, il linguista Zipf nel 1949 mostrò che, rappresentando la frequenza di una
parola in un testo in funzione del rango , si ha una distribuzione priva di scala . Il rango di
una parola è l’ordine gerarchico che assegniamo a quella parola in base a quante volte è
ripetuta: ad esempio in un testo italiano daremo un rango 1,2,3,4 a ”e”, “di” , “che”,”a” e
un rango altissimo a “precipitevolissimevolmente”. La legge di Zipf è verificata in
qualunque lingua parlata.
9
Lo stesso vale per le grandi città; riportando il numero di abitanti per città in funzione
del rango della città, si ottiene una distribuzione priva di scala. In questo caso, il rango
indica l’ordine delle città , in base alla sua popolazione; nel 2000, , il rango 1 spetta a Città
del Messico, il rango 2 a San Paolo e il rango 3 a Tokyo; se andiamo al 1900, troviamo
invece ai primi ranghi le capitali dell’Occidente; nell’ordine: Londra,New York, Parigi e
Berlino Come si vede, l’urbanizzazione è un fenomeno fuori dall’equilibrio.
Perché l’equilibrio è caratterizzato da distribuzioni gaussiane? Perché una grandezza
all’equilibrio deve essere assestata a un valore preciso, a cui ritorna se perturbata ;il mondo
attorno agisce come un disturbo (noise) che sposta la grandezza dal valore nominale, ma
questa vi torna sempre stabilmente . Invece fuori dall’equilibrio la grandezza si può
assestare provvisoriamente attorno a un valore, da cui poi “scappa” per non tornarvi: è
questa la mancanza di scala dei redditi e delle popolazioni delle città.
Un apparato di misura certifica un valore misurato senza commentarlo: ci dà quel che
chiamiamo una “certezza”. Invece un essere umano confronta una osservazione con la
memoria di esperienze passate; per decidere , deve “ancorarsi” a una scala definita. In
presenza di un fenomeno senza scala, si “adegua” temporaneamente al valore osservato e
– se (come accade per i redditi e le città) – il tempo di variazione è lungo rispetto al tempo
di decisione umano, attribuisce provvisoriamente “quella scala”,come se stesse osservando
delle familiari gaussiane assestate lì , e decide in corrispondenza. Questa adattabilità
rappresenta un criterio di verità come “adaequatio intellectus et rei” (adeguamento
dell’osservatore alla cosa osservata), cioè annette una realtà a quanto osservato anche se
poi questo non si ripete più su tempi lunghi. Un confronto approfondito fra certezza e
verità è sviluppato nell’ultimo capitolo.
Quanto detto è in nuce la base della coerenza : siamo attratti e incuriositi dal fatto che
- dopo esserci adeguati a una certa scala- questa muti, mostrando altri aspetti del
mondo. Se il cambiamento di scala è più rapido dei nostri tempi di decisione (frazioni di
secondo) allora siamo disorientati e riterremmo la cosa non interessante; è perciò che
abbiamo inventato degli apparati di misura ad alta risoluzione temporale che riescono
anche ad osservare su un intervallo temporale di un miliardesimo di miliardesimo di
secondo (detto attosecondo ) e correlare l’osservazione con quelle a intervalli vicini.
Intermedi fra fenomeni con scala fissata, corrispondenti a equilibri, e fenomeni senza scala,
come i redditi e le parole di un testo, ci sono fenomeni che “esplorano” una intervallo largo
di scale. Ad esempio il battito cardiaco, da una media di 65 pulsazioni al minuto da svegli,
scende a 40 quando si dorme e sale a 180 sotto sforzo: un intervallo di variazione largo
10
rispetto alla media, ma non privo di scala come i redditi! I sistemi biologici, per adattarsi
alle variazioni ambientali , sono genericamente di questo tipo.
Torniamo a fenomeni che possiamo studiare in modo controllato in laboratorio; cioè
torniamo alle onde, e in particolare alle onde ottiche, la cui coerenza è misurabile con
interferometri.
Dato che le sorgenti “naturali” di onde sono deboli e affette da imprecisione, abbiamo
cercato di realizzare sorgenti artificiali a grande coerenza. Si costruisca una zona di spazio
che chiameremo cavità che accetta una sola onda elettromagnetica e rifiuta tutte le altre;
se le forniamo una fonte adeguata di cariche elettriche (sotto forma di elettroni liberi o
legati ad atomi) ,queste in genere avranno scambi con l’onda selezionata e a seconda dello
stato in cui si trovano potranno assorbire energia dall’onda in cavità oppure cedere
propria energia, facendo crescere l’onda. Sia l’assorbimento sia l’emissione hanno luogo
con una velocità che cresce con l’energia già accumulata nell’onda. Ovviamente, per fare
osservazioni, occorre che la cavità non sia del tutto chiusa ma lasci sfuggire un a parte
dell’onda immagazzinata . Se riusciamo a controllare lo stato delle cariche elettriche
facendo in modo che gli assorbitori siano meno degli emettitori, al di sopra di una soglia
avverrà una transizione da cavità che attenua l’onda a cavità che la amplifica,
raggiungendo un equilibrio fra amplificazione e perdite per contributi verso il mondo
esterno, cioè diventando un utile sorgente che si automantiene : abbiamo così costruito
un generatore di onde pure , e pertanto di grande coerenza. Questi dispositivi sono stati
sviluppati a partire dagli anni 20 del secolo scorso alle radio-frequenze e sono stati la base
dello sviluppo delle tecniche a frequenze radio.
A partire dagli anni 60, il principio è stato esteso da Charles Townres alle onde ottiche e
sono stati chiamati LASER (light amplification by stimulated emission of radiation) ed
entro la fine del secolo passato laser erano disponibili su una vasta gamma dello spettro
elettromagnetico dagli IR(infrarossi) ai raggi X.
I laser hanno permesso una accuratezza estrema nelle misure di coerenza ottica, utilizzata
per misure di precisione delle lunghezze e degli intervalli temporali.
A partire dal 1995, i cosiddetti BEC (condensati di Bose-Einstein) hanno dato luogo ad
aggregati atomici di grande coerenza, da cui si possono estrarre laser atomici, cioè sorgenti
di atomi con proprietà analoghe alle onde elettromagnetiche dei laser.
Gli anni 60-90 sono stati da me dedicati allo studio della coerenza laser: come questa
nasce a partire da una sorgente di luce naturale e pertanto “disordinata” o incoerente,
11
come si deteriora nel passaggio attraverso la materia, lasciando peraltro una traccia che
permette di ricostruire lo stato della materia. Inoltre il laser , per le sua caratteristiche
dinamiche, può essere assoggettato a “caos deterministico” (si veda la fig.1 più avanti) pur
mantenendo la coerenza.
E’ questo un ampio discorso di confronto con altri sistemi suscettibili di caos,dai sistemi
planetari agli ecosistemi agli organi biologici; e in questo studio il laser si è dimostrato un
conveniente simulatore analogico di situazioni sperimentali altrimenti più difficili da
realizzare o controllare.
Sia la perdita di coerenza sia l’innesco del caos implicano un “dialogo” fra il laser ed altri
pezzi di mondo.
Vogliamo ora considerare cosa accade quando molti laser praticamente identici si trovano
in mutua interazione in un ambiente chiuso. La regione di spazio che racchiude il laser
(cioè la cavità ottica) piuttosto che selezionare una singola onda ne può ospitare
simultaneamente un gran numero; ciascuna di esse può diventare un laser e i diversi
individui laser - a parte la coerenza individuale di ciascuno con se stesso-possono dar luogo
a fenomeni di mutua coerenza non facilmente interpretabili. Diremo complessa una
situazione in cui le varie coerenze, pur essendo misurabili separatamente, crescono in
numero molto più rapidamente del numero degli oggetti sorgente (i laser nel nostro caso).
Abbiamo finora visto come oggetti distinti (le varie onde di una sorgente di luce filtrata da
un filtro lasco)possono dar luogo a classi di coerenza che sono proprie di ciascuno e che
non si intersecano se non casualmente. In una folla di oggetti distinti cercheremo di
mettere in luce le coerenze individuali e chiameremo disturbo o noise (rumore, ma
useremo il termine inglese che ha acquisito una valenza universale) le perturbazioni
indotte globalmente dalla presenza di altri individui. Ammetteremo che abbia senso
isolare il comportamento del singolo individuo e che i vari individui non si influenzino
reciprocamente, limitandosi a sommare in uscita i propri effetti.
Se però gli oggetti singoli sono praticamente uguali l’uno all’altro, e inoltre in grado di
influenzarsi mutuamente, allora è difficile attribuire una certa coerenza a un oggetto
piuttosto che all’effetto combinato di molti.
Tutto ciò ha portato a tre livelli di indagine del mondo:
i) descrivere i comportamenti ordinati e ripetitivi (coerenze) dovuti a un solo
individuo isolato (un laser di laboratorio,un pulsar in astronomia, un singolo
neurone del cervello isolato dai legami con gli altri). Lo studio del singolo
individuo stimola la speranza riduzionistica che il mondo sia spiegabile come
12
l’azione combinata di individui ben caratterizzati, una versione aggiornata degli
atomi di Democrito. Sul piano tecnologico, si può pensare ad applicazioni
svariate dei singoli dispositivi, ne indichiamo tre esempi: la metrologia con laser,
il sistema di localizzazione GPS che opera correlando i segnali in arrivo da più
satelliti in orbita attorno alla Terra, la tomografia a raggi X che fornisce
immagini tridimensionali di organi interni correlando le misure di assorbimento
di un fascio di X a diverse direzioni.
ii) studiare come le coerenze emergano dinamicamente a partire da una situazione
in cui non ci sono; e come- una volta emerse- si degradano per effetto
dell’accoppiamento dell’ individuo col resto del mondo (noise); questa linea-
chiamata sinergetica da Hermann Haken-ha avuto una verifica sperimentale in
studi accurati dello sviluppo della coerenza in un singolo sistema in contatto col
resto del mondo.
iii) se l’individuo fa parte di una rete di individui identici e con dei mutui
accoppiamenti, si sperimenta un moltiplicarsi delle coerenze non proporzionale,
ma esponenziale con il numero di individui interagenti; in tal caso parleremo di
complessità ed esploreremo le regole generali che la
governano,indipendentemente dalla natura degli individui interagenti; dunque
la complessità diventa un paradigma interpretativo di molte situazioni
biologiche,sociologiche,ecc.
Complessità
Storicamente, il termine Complessità è stato introdotto in scienza dei calcolatori; la
complessità algoritmica di un problema è stata definita ( G Chaitin) come la lunghezza
in bit della istruzione più corta che risolve il problema.
In fisica, un approccio paradigmatico alla complessità consiste nel considerare un
numero grande N di oggetti identici, ciascuno a pochi gradi di libertà (al limite solo due,
come un ago orientato che possa stare solo a punta in su o in giù: ha solo due gradi di
libertà ,come lo spin di un elettrone; chiameremo per convenzione spin il singolo
oggetto binario). Gli N oggetti hanno mutui accoppiamenti che possono essere di un
segno(tendono ad allineare gli spin) o dell’altro (spin vicini tendono ad anti-allinearsi).
13
In una folla di N oggetti, se i mutui accoppiamenti sono fissati a caso da un agente
esterno, possono portare a incompatibilità (lo stesso spin dovrebbe allinearsi alla destra
ma anti-allinearsi alla sinistra) e ciò implica una frustrazione , nel senso che entrambe
le soluzioni sono insoddisfacenti.
. Chiameremo ”vetro di spin” una collezione di oggetti i cui mutui accoppiamenti siano
fissati a caso. Ad alte temperature ambientali,l’agitazione termica maschera queste
frustrazioni. Se ora si abbassa la temperatura,si raggiunge non un unico stato di
equilibrio ma un numero M di possibili stati di equilibrio, con M che cresce
esponenzialmente con N. Se volessimo esplorare tutti gli stati di equilibrio,avremmo un
problema complesso nel senso computazionale.
Per caratterizzare le coerenze di un vetro di spin, dobbiamo fissare anzitutto una
replica, cioè un insieme di accoppiamenti mutui. Una descrizione completa richiede sia
medie sul bagno termico sia medie sulle repliche.
Ho insistito su questa situazione apparentemente artificiale perché essa è il prototipo di
molte situazioni fisicamente rilevanti: si pensi a tutti i problemi di ottimizzazione su
una rete, ma si pensi soprattutto alla rete intricata dei neuroni cerebrali che approdano
a uno stato collettivo (percezione coerente) in poche centinaia di millisecondi o ad una
proteina appena sintetizzata come struttura lineare a partire dai componenti e che
rapidamente ( in tempi di secondi) acquisisce una specifica configurazione spaziale a
cui deve la sua attività biologica, pur essendo questa configurazione una fra le molte
compatibili con la dinamica e pertanto trattandosi di un problema complesso che
dovrebbe richiedere tempi corrispondentemente lunghi.
Riassumiamo quanto detto finora.
In assenza di disturbi esterni,effetti di contatti mutui fra oggetti uguali inducono una
complessità; a partire da un modello astratto (vetri di spin) si evincono dei
comportamenti universali che sembrano dar corpo al sogno riduzionistico di capire un
pezzo di mondo (modulo cerebrale, conformazione di una proteina, sistema
immunitario, problema di ottimizzazione di decisioni ) come interazione fra
componenti identici ma con mutui accoppiamenti variabili da replica a replica; una
media sulle repliche fornisce il risultato voluto. Il problema è che i tempi di soluzione
del problema complesso sono estremamente lunghi. Invece le decisioni corrispondenti
hanno luogo su tempi finiti e piuttosto limitati.
Si sta violando la procedura di calcolo ipotizzata: chiameremo Creatività questa
esplorazione di uno spazio di possibilità che non segue le regole previste dai nostri
schemi teorici.
14
Anticipiamo un esempio legato al nostro sistema percettivo. Un modulo cerebrale
arriva ad una percezione coerente (cui associamo una consapevolezza, che
operativamente si traduce nel fatto che su quella percezione elaboriamo una decisione
motoria: sfuggiamo a un pericolo,catturiamo una preda, o esprimiamo in termini
linguistici il grado di piacere estetico associato alla percezione) in qualche centinaio di
millisecondi. Ma oltre allo stimolo esterno,che diremo bottom-up, la memoria di
esperienze pregresse introduce dei segnali di controllo top-down che combinandosi con
lo stimolo bottom-up inducono uno stato di sincronizzazione collettiva dei neuroni del
modulo: questi si comporta allora come un singolo individuo coerente ; tentativamente,
questo stato di coerenza è associato alla consapevolezza, e –a seconda dell’area corticale
che si è “coerentizzata”- parleremo di coscienze locali ,di forma, moto, ecc (
- S. Zeki, La visione dall’interno. Arte e cervello, Bollati Boringhieri, Torino, 2003).
Dunque,il dialogo con la memoria ha fornito non un unico sistema dinamico ma una
pluralità fra cui la scelta è stata operata in tempi piccoli.
La Creatività sembra la risposta alla Complessità: cercheremo di elaborare questa
ipotesi e di trarne alcune possibili conseguenze
Complessità o Complicazione?
La complessità di un modello dinamico di un sistema può essere vista come una ambiguità nella predizione dello stato raggiunto a partire da una certa condizione
iniziale. Introduciamo il concetto di “stabilità” di una traiettoria. Se ad esempio ci
muoviamo in bicicletta in un fondo valle, il percorso è unico. Se però il paesaggio
cambia e il fondo valle si trasforma in un colle con due valli laterali, posto che la strada
debba seguire il fondo valle, a questo punto avremo due strade, una a destra e l’altra a
sinistra. Questa duplicazione è detta “biforcazione”. La bicicletta che corre sul fondo
valle è una metafora della dinamica di un sistema. Il sistema è matematicamente
rappresentato da un punto in uno spazio a n dimensioni, dove n è il numero delle
misure diverse che dobbiamo eseguire per caratterizzare il sistema (ad esempio per
una particella puntiforme, avremo bisogno di tre coordinate di posizione e tre di
velocità, quindi n=6; per un sistema di N particelle sarà n=6 N). In questo spazio la
biforcazione corrisponde alla transizione da un modo con una sola branca di
comportamento stabile ad uno qualitativamente diverso dove c’è da scegliere fra due
stati stabili diversi.
15
Peraltro, la sola descrizione della topografia non ci permette di stabilire se andare a
destra o a sinistra. Se ciascuno dei percorsi separati a sua volta biforca, e così ancora, si
instaura un meccanismo in cui l’incertezza cresce in maniera esponenziale: due
possibilità dopo la prima biforcazione, quattro dopo la seconda, otto dopo la terza e
così via [una metafora di questo ventaglio di possibilità è “Il giardino dei sentieri che si
biforcano” di J.L. Borges]. Se chiamiamo “sintassi” l’assegnazione della topografia,
vediamo che, per risolvere l’ambiguità e seguire una strada precisa fra molte, ad ogni
nodo di biforcazione dobbiamo aggiungere informazione esterna alla sintassi;
dobbiamo cioè ricorrere ad una “semantica” non solo a inizio d’opera, per stabilire
quali sono gli aspetti del mondo osservato che vogliamo includere nel modello, cioè
nella costruzione della topografia, ma ad ogni biforcazione, per stabilire su quale ramo
della biforcazione proseguire e così rendere unica la procedura deduttiva.
Per riassumere, oggi nella scienza si parla di complessità per intendere due cose
differenti. Finché ci si riferisce a una parte di mondo “chiusa” cioè sottratta a influssi
esterni, allora - una volta scelti gli aspetti essenziali da fare interagire attraverso leggi -
la macchina deduttiva ci dà tutto un ventaglio di possibili soluzioni, tutte ugualmente
verificabili; in tal caso la complessità è sintattica, intrinseca al linguaggio formale
stesso, e consiste nello sviluppo dei possibili cammini alternativi. Possiamo introdurre
come indicatore quantitativo di complessità l’ammontare di risorse di calcolo che
dobbiamo investire per risolvere il problema.
Questo tipo di complessità, considerata nella scienza dei computer, sarà piuttosto
chiamata da noi complicazione, la indicheremo con C.
Più realisticamente, dobbiamo prendere atto che un modello di mondo chiuso non è
molto fecondo, e che è più utile limitarsi a modellizzare alcuni aspetti salienti, sui quali
abbiamo informazione dettagliata, considerando il sistema che stiamo studiando come “aperto” al resto del mondo. Questa apertura si manifesterà con opportune
“condizioni al contorno” che dobbiamo applicare ad ogni biforcazione, ogni volta che si
manifesta una instabilità nella traiettoria, per decidere da che lato proseguire.
La strategia adattiva non sceglie le regole di biforcazione (la sintassi) apriori, una
volta per tutte, ma le riaggiusta nel corso dell'osservazione. Cambiare scala, cioè infittire
o diradare le biforcazioni, vuol dire cambiare le regole linguistiche, variare il codice
descrittivo. La procedura adattiva non lavora con regole fisse, ma con regole
16
modificabili nel corso dell'osservazione per ottimizzare il compromesso fra efficacia ed
economia della descrizione, cioè fra precisione del risultato e rapidità nel suo
raggiungimento.
L'adattività introduce un elemento rivoluzionario: ogni "esperimento sensato"
(uso la dizione galileiana) non è del tutto formalizzabile, ma si avvale di elementi non
considerati nella formalizzazione e che guidano la scelta delle scale risolutive. Come a
dire che la scala è suggerita dal mondo, cioè dalla realtà stessa, e non imposta con una
procedura aprioristica.
La strategia adattiva corrisponde ad osservare lo stesso evento da punti di vista
differenti invece che da un punto di vista unico. Ciò mostra come l'aggiustamento sia
progressivo, non dato una volta per tutte; esso non coglie tutta la realtà, ma ne mette a
fuoco con successive approssimazioni un "punto di vista"; quello rispetto a cui
abbiamo orientato la nostra attenzione, rinunciando alla totalità dei punti di vista, che
ci avrebbe dato un albero di biforcazioni intrattabile e quindi una certezza illusoria.
L'essere vera da un certo "punto di vista" dà un carattere di stabilità storica a una
teoria scientifica, e ne permette il confronto con le altre teorie. Ad esempio, la teoria
della gravitazione di Einstein non ha reso non vera la teoria di Newton, ma ne ha
delimitato l'ambito di validità, mostrando che è vera solo da un certo "punto di vista".
Se prendiamo questo metodo adattivo come il processo conoscitivo che reintroduce
il senso della verità nelle scienze fisico-matematiche, dobbiamo recuperare il ruolo del
linguaggio naturale, o a regole adattabili, ma anche riconsiderare il problema della
verità non come un problema interno di auto-consistenza di regole (il criterio delle
idee chiare e distinte di Cartesio) ma come una riscoperta di una gerarchia degli ordini
che regola la realtà.
Creatività come variazione di codice:il ruolo del caos deterministico
Con la scienza moderna, stiamo tentando di ripulire ogni resoconto sul
mondo da quelle ambiguità che richiedono una interpretazione; evitando
17
quest’ ultima, essa tenta di fuoriuscire dal soggettivo e approdare a
descrizioni valide per tutti.
La complessità nasce dal tentativo di una costruzione logica del mondo a
partire dalle “affezioni quantitative” in cui frantumiamo un oggetto di
esperienza, piuttosto che “tentarne l ’essenza” (G.Galilei, Lettera a
Marco Welser, 1610) .
Fig.1- Caos deterministico -La traiettoria (linea spessa con freccia) calcolata con una certa legge dinamica è unica per una condizione iniziale assegnata, qui indicata da una stella. Le coordinate del punto iniziale sono in genere dei numeri reali che noi tronchiamo a un numero finito di cifre; pertanto la condizione iniziale non è un punto euclideo, ma un segmento. Condizioni iniziali a destra o sinistra di quella ideale convergono verso la traiettoria calcolata o ne divergono a seconda che la stabilità trasversale sia di tipo valle (a sinistra) o colle (a destra). Poincaré fece vedere che a partire dal problema a 3 corpi (ricordiamo che Newton aveva risolto solo quello a 2 corpi !) può accadere genericamente la situazione di destra, che oggi chiamiamo caos deterministico, con perdita di informazione sulla scelta iniziale che sarà più o meno rapida a seconda della ripidità del colle. La ripidità è proporzionale alla entropia K definita nel testo.
18
Nell’ambito di una formulazione dinamica, genericamente è presente
caos deterministico. Se prepariamo il sistema in uno stato iniziale,
l ' informazione corrispondente si perde nel corso del tempo.
L’informazione persa per unità di tempo è un invariante dinamico , cioè
una caratteristica intrinseca non legata a un cambiamento di
rappresentazione; essa è detta entropia metrica , o entropia di
Kolmogorov K .
K risponde alla domanda: se osserviamo il sistema per un tempo così
lungo che l ' informazione per unità di tempo diventi invariante, che
informazione abbiamo sul futuro? Orbene, la risposta è:
(a) K = O per un sistema ordinato; infatti, in un sistema deterministico,
una volta esauriti i transitori, non si ha un extra d'informazione per un
extra di osservazione;
(b)K tende all ’infinito per un sistema disordinato; infatti, per quanto a
lungo si osservi un moto browniano, non si sa mai dove il sistema andrà
a un istante successivo;
(c) K è finito per un sistema caotico: l ’ informazione si consuma
gradualmente.
Nel 1990 tre fisici ,E.Ott, C. Grebogi e J. Yorke,introducevano un metodo per controllare
il caos,cioè per ridurre l’instabilità traversa senza perturbare la traiettoria
longitudinale. La procedura è rappresentata euristicamente in fig.2.Essa richiede una
ri-codifica del sistema dinamico, per aggiungere quelle variabili che controllano il
caos.
Orbene, la creatività scientifica è legata a un cambiamento di codice
rispetto al programma riduzionistico, di assegnare posizione e velocità
di ogni componente elementare. Si tratta di introdurre nuove variabili
legate da nuove leggi. Ipotizzando nuove variabili che controllano il
caos riducendo K , si introduce una teoria efficace che trascura le
variabili veloci e descrive solo le variabili lente
In ciò si è guidati dalla nostra interpretazione dei segni (SEMIOSI)
ben al di là delle poche affezioni quantitative isolate dagli apparati di
misura.
19
Fig. 2- Controllo del caos- Il caos può essere controllato dall’esterno,aggiungendo altre azioni dinamiche che- senza perturbare la traiettoria longitudinale - alterino la pendenza del colle. Nel caso percettivo, è plausibile pensare che i segnali top-down più opportuni siano quelli che assicurano una vita lunga alla dinamica collettiva dei neuroni. La selezione fra le possibili percezioni è perciò legata al loro tempo di conservazione dell’informazione.
Uno dei padri dell ’Intelligenza Artificiale (IA), Herbert Simon, aveva
ideato un programma di computer, chiamato BACON , che, alimentato
con i dati astronomici noti alla fine del 1500, estraeva le tre leggi di
Keplero. Il successo sembrava fare dell ’IA la spiegazione dei processi
mentali.
In effetti, BACON funziona solo perché si è nell ’ambito di un codice
unico. Appena K>0 , cioè si perde l ’ informazione dei dati iniziali entro
un tempo dell ’ordine di 1/K , occorre rimpiazzare l ’ informazione
mancante con dati ulteriori.
20
Fig.3- Diagramma C-K :Confronto fra i modi di procedere di un computer e di un essere umano.
Restando dentro un unico codice, come fa il computer, C cresce con K. Invece lo scienziato è opportunista, e cerca il codice migliore per ridurre C. Ipotizzando nuove variabili che controllano il caos riducendo K ,si introduce una teoria efficace che trascura le variabili veloci e descrive solo le variabili lente
Ci sono due modi per ovviare:
1. approccio riduzionistico: si mantiene il piacere estetico delle
leggi semplici (Keplero, Newton), ma trattando di oggetti a molti
componenti, si aumenta C proporzionalmente a K , cioè occorre
21
aumentare massicciamente il numero di cifre con cui si assegnano le
condizioni iniziali (aumentando sia la risoluzione dell ’apparato di
misura, sia la memoria che immagazzina i dati), per ovviare alla
erosione di informazione dovuta a K>0 , oppure occorre ri-aggiornare le
condizioni iniziali con nuove misure, come si fa con le previsioni
meteorologiche, con i modelli finanziari, ecc.
2. teoria efficace: si utilizza la perdita di informazione per introdurre
nuove variabili legate da nuove leggi, per contenere la crescita di C ,
cioè si formula una nuova teoria, come è avvenuto per la
termodinamica; si può chiamare l ’operazione una variazione di codice.
E’ questo secondo approccio che chiamiamo creatività e che riteniamo
alla base di qualunque atto cognitivo sensato. Come vedremo in dettaglio
nel testo, la dinamica caotica legata al singolo impulso neuronale ha una
perdita di informazione entro qualche millisecondo: troppo poco per farsi
un’immagine del mondo e agire di conseguenza; sappiamo dalla
neurofisiologia che occorrono alcune centinaia di millisecondi di durata
per una percezione affinché questa stimoli una decisione(sfuggire a un
pericolo,afferrare una preda,fare un resoconto linguistica) : ciò significa
che tutto il repertorio di memorie accumulate aiuta a modificare la
stabilità trasversa di una traiettoria neuronale (ovviamente conservando
l ’informazione contenuta nella traiettoria longitudinale) fino a far sì che
la perdita di informazione si riduca per dare alla dinamica una stabilità
sufficientemente lunga, secondo la strategia illustrata in fig.2.
E qui si giocano diversi aspetti della creatività:se uno è troppo
impaziente,rischia di troncare rapidamente l ’ informazione prima di
essere in grado di decidere al riguardo; se è troppo prudente e allunga
eccessivamente la permanenza di una percezione, non è pronto a reagire
con prontezza a uno stimolo successivo.
Si è dunque introdotto un ambito di variabilità che ognuno si gestisce
liberamente in proprio: è perciò che non siamo tutti uguali!
22
Questa breve premessa sarà sviluppata nel testo per mostrare come sul
trinomio coerenza- complessità-creatività si sviluppi un programma
scientifico sensato .
Semiosi e libertà
Come fisico credo nel determinismo,cioè nella evoluzione univoca di un sistema
soggetto a forze note a partire da assegnate condizioni iniziali (come asseriva Simon
de Laplace a Napoleone che avanzava dubbi sul potere di previsione della scienza); ma
il sistema da cui parto non è fissato dal mondo entro cui sono immerso come oggetto
fisico ,bensì quello arricchito aggiungendo da parte della mia memoria quelle variabili
che controllano il caos; posso fare questa stabilizzazione – che chiamerò omeo-
dinamica in analogia con l’aggiustamento omeostatico di un vivente alle condizioni
ambientali - in misura maggiore o minore (cooptando più o meno variabili aggiuntive
dal mio bagaglio di memoria) a seconda che stabilizzi il caos per un secondo o un
giorno o un anno.
Questa ambiguità nel risultato ,che svincola l’attore dal determinismo Laplaceano, è
compatibile con le leggi fisiche : essa è la base non solo della creatività scientifica ma
anche della libertà etica.
E' per questo che ci sono sfumature varie fra genio e cretino, fra santo e peccatore
incallito: tutte categorie che non valgono per la macchina di Turing.
Kant non ci era arrivato perché sapeva di Newton ma non di Poincaré: è per questo che
ha introdotto un gap epistemologico fra ragion pura e ragion pratica.
- Qualche nota biografica
Sono nato a Reggio Calabria l’11 dicembre del 1933 e vi ho vissuto l’infanzia. La ricordo
come una città tranquilla. Nei primi anni della Seconda guerra mondiale guardavamo, al
di là dello stretto di mare,Messina spesso bombardata da aerei nemici,in quanto
23
militarmente ricca di attrezzature. Per noi bimbi era quasi uno spettacolo: nessuno
sciupava bombe per una città come Reggio, priva di obbiettivi militari o insediamenti
industriali . Le cose cambiarono nel 1943 : in vista dello sbarco in Sicilia, gli alleati
usarono il bombardamento aereo non più per distruggere obbiettivi, ma per terrorizzare la
popolazione inerme e persuaderla a “preferire” l’invasione.
Oggi ci viene presentata una lettura retorica della “liberazione”, ma posso assicurare che il
punto di vista di un bimbo di nove anni poteva cogliere il cuore dei fatti senza rivestirlo di
motivazioni che non reggono. Suppongo lo stesso sia avvenuto in questi 60 anni per tanti
bimbi del mondo, dal Medio Oriente al Vietnam , dall’ ’Africa all’ America
Centromeridionale.
Mio padre era funzionario statale e pertanto dovevamo considerare frequenti trasferimenti.
Dal 1947 al 1953 abbiamo abitato a Messina, dove ho fatto il liceo e i primi due anni di
università. Dal 1953 la mia famiglia si trasferì a Pavia dove tuttora vivono mio fratello e le
mie due sorelle, e dove c’è la casa di famiglia .Le mie sorelle hanno insegnato in liceo e
sono attive nella vita culturale di questa città che ha conservato una vivacità intellettuale
legata alla tradizione della sua Università.
Per mio fratello, architetto-urbanista con lunga esperienza , negli anni fra il 1975 e il 1985,
di realizzazioni di insediamenti abitativi nell’ Africa povera o poverissima, lavoro fatto con
la forte carica ideale di chi aveva studiato nello spirito “del ’68” , il ritorno in Italia è stato
un risveglio duro: gli ideali per cui la sua generazione aveva lottato erano stati convertiti in
solide posizioni di potere politico o accademico; lui che era stato fuori da questa
evoluzione-involuzione era visto come uno scomodo ricordo di ideali non più attuali. Si è
salvato come scrittore e curatore di una casa editrice, Liutprand ,dedicata all’archeologia
medievale: dai Longobardi a Pavia, alle vie dei grandi pellegrinaggi, con la corona di chiese
e rifugi tuttora esistenti sull’asse della via francigena.
Per quanto riguarda me , Pavia è stata la città dove passeggiavo nelle nebbie invernali o
preparavo gli esami,ma dal 1953 ho studiato al Politecnico di Milano.
Laureato,sono entrato come ricercatore nucleare al CISE; dal 1960 al ’62 ho fatto il
ricercatore all’Università di Stanford, specializzandomi in fisica quantistica e in particolare
nell’ottica dei laser.
Tornato in Italia,costituivo un gruppo laser al CISE e mi sposavo. Gli anni seguenti sono
stati dedicati alla statistica dei fotoni e alla coerenza del laser,ottenendo risultati
sperimentali che rispecchiavano i lavori dei teorici (Glauber,Haken Lamb),.
24
Tra il ’69 e il ’70 sono stato Visiting Professor al MIT, ma avendo vinto una cattedra in
Italia, all’Università di Pavia, ho deciso di tornare nel mio paese.
All’epoca avevo due figli piccini e come professore del MIT li avevo mandati al
kindergarten dello staff MIT. Dopo il primo giorno , il maggiore tornò piangendo. “Non
capisco niente!” lamentava, “voglio tornare in Italia.” La seconda , molto più solida
psicologicamente, scuotendo la testa disse: “Poverini, non mi capiscono.” Il risultato fu
che fecero un sacco di amicizie con scambi linguistici reciproci: loro imparavano l’Inglese e
gli altri l’Italiano. E’ stata la più importante lezione di psicologia della mia vita: il registrare
il bicchiere riempito a metà come “mezzo pieno” o “mezzo vuoto” non è solo un punto di
vista prospettico ma denota una disposizione attiva o rinunciataria di fronte a una
difficoltà.
Mia moglie voleva che restassimo negli Stati Uniti; io invece volevo che i miei figli
crescessero in un ambiente protetto e che assicurasse una identità culturale precisa quale
sembrava garantire l’Italia di allora e sono tornato.
Dopo di che è stato una continua lotta con le difficoltà di andare avanti a fare ricerca in un
paese come il nostro,dove l’interesse per la ricerca è a dir poco scarso.
Questi problemi li ho parzialmente risolti negli anni che vanno dal 1975 al 2000,
combinando la cattedra universitaria di fisica con la gestione di un istituto di ricerca di
monografico (l’Istituto nazionale di Ottica o INO) con sede sulla collina di Arcetri a
Firenze. Naturalmente ,per garantire una presenza continua all’INO, trasferivo la cattedra
da Pavia a Firenze e da allora sono diventato fiorentino, con i pregi e difetti che
quest’appartenenza comporta.
L’INO mi assicurava la completa autonomia delle linee decisionali. Ho potuto quindi
controllare tutti i processi di scelta e svolgimento delle linee di ricerca, assicurando una
gestione molto scientifica e poco burocratica. La cosa sembrava funzionare : in termini di
prodotto scientifico per unità di personale o di risorse finanziarie investite l’istituto è
stato veramente competitivo sul piano internazionale.
Purtroppo ,a partire dal 2003 , per decisione politica non concordata con il mondo della
ricerca, l’ istituto è stato accorpato al CNR (consiglio nazionale delle ricerche), una
enorme organizzazione distribuita su tutta l’Italia e senza identità precisa ,in quanto
dovrebbe coprire tutte le linee di ricerca,senza però avere fino ad oggi (2007) una direzione
scientifica. Organismi centrali consimili esistono con nomi diversi in altri Paesi (ad
esempio, in Francia,Germania, Regno Unito, Stati Uniti ) ma la gestione è in mano agli
stessi attori scientifici,che si coordinano attraverso organi di controllo che operano sotto
gli occhi di tutti. Invece in Italia, per una involuzione da cui spero usciremo , la
25
responsabilità è stata monopolizzata dai politici, e ne è emersa una struttura al cui vertice
sono state collocate persone del tutto digiune di ricerca. Tutto il mondo scientifico ne
soffre, ma i vecchi istituti del CNR si salvano , in quanto avevano imparato a
“barcamenarsi” in un ambiente fortemente burocratizzato e poco adeguato agli standard
internazionali; invece gli istituti accorpati di recente al CNR sono in piena crisi ,
ignorando i “trucchi” della sopravvivenza in un ambiente non adatto.
Ho sempre mantenuto il vecchio amore per la filosofia, che man mano che cresceva il mio
impegno in fisica ,diventava sempre più una esplorazione sulla frontiera fra epistemologia
e ontologia. In che misura il linguaggio della fisica era autonomo, chiuso e limitato a
garantire la ripetibilità dei risultati scientifici, o invece aperto,intenzionalmente proteso ad
aprire finestre su una realtà che rimane tale indipendentemente dalle nostre manipolazioni?
Per molto tempo ho pudicamente distinto nel mio elenco di pubblicazioni fra un gruppo A-
Lavori di fisica e un gruppo B-Epistemologia,per evitare che i colleghi con cui mi
confrontavo prendessero troppo sul serio le mie escursioni fuori campo.
Con mia moglie Iva, teologa di laurea e docente di religione, ho scritto anche un libro, I
simboli e la realtà, nel quale abbiamo cercato di confrontare il linguaggio ordinario con
quello scientifico.
A partire dal 2000, ho scoperto che un tipo di caos che avevo studiato nel laser a CO2, e
chiamato HC,era un possibile modello di comportamento dinamico dei neuroni corticali, in
grado di spiegare il cosiddetto feature binding, che illustrerò per esteso più in là, introdotto
da Wolf Singer (io ne appresi il potere esplicativo dei fenomeni percettivi a una
presentazione da lui fatta all’Assemblea Plenaria 1992 della Pontificia Accademia delle
Scienze , a cui io stesso ero stato invitato a parlare sulla Complessità).Da allora ho seguito
anche la letteratura neuroscientifica, cercando di ritagliare argomenti di tipo fisico ,meglio
ancora ,dinamico ,escludendo cioè gli approcci computazionali o legati alla chimica dei
neurotrasmettitori.
Negli ultimi anni, classifico le pubblicazioni tutte in A, in quanto anche se parlo di un modello
cognitivo con implicazioni epistemologiche, ne sto isolando gli aspetti fisici, quindi sono nel
mio “orto”.
Se si va alla mia homepage www.inoa.it/home/arecchi si vede che ho catalogato la mia produzione scientifica sotto cinque titoli.
26
Precisamente l’elenco comprende: #1-Effetti cooperativi in ottica quantistica, #2-Statistica dei fotoni e fluttuazioni laser #3-Caos deterministico in ottica #4-Nascita di forme in mezzi estesi #5-Fenomeni complessi e processi cognitivi Qualche collega mi ha rimproverato di aver spesso “cambiato mestiere”. Il resto di questo libro espliciterà la logica interna che collega i cinque filoni, alla luce della triade Coerenza-Complessità.-Creatività. Essi non sono peraltro successivi nel tempo; se guardiamo le date di pubblicazione, #1 si estende dal 1965 al 2002, trasferendo ai BEC ( condensati di Bose-Einstein) argomenti sviluppati per i laser, #2 va dal 1965 al 2003 , estendendo a stati entangled gli argomenti sviluppati per la luce coerente del singolo laser , #3 va dal 1982 ,quando fornimmo la prima evidenza di caos deterministico nei laser, ad oggi , studiando la sincronizzazione del caos in laser accoppiati, #4 va dal 1990 ad oggi con il nuovo oscillatore fotorifrattivo a molti modi , #5 si apre nel 1987, con lo studio del caos omoclinico in un laser a CO2 e continua oggi, utilizzando metodi teorici e sperimentali nati nel campo dei laser per sviluppare una fisica dei processi percettivi e- più in generale-cognitivi
27
- Quattro significati di Ottica Prima di entrare nei dettagli della mia avventura scientifica, ritengo opportuno definire il
concetto di ottica e le sue diverse accezioni.
Il termine Ottica è polisemico e indica molte cose alquanto diverse, anche se legate da
sottili correlazioni.
Vorrei caratterizzare quattro accezioni, attorno a cui si è organizzata la mia vita di ricerca.
La prima, O1tica Classica, è rappresentata dall’ingegneria degli strumenti ottici e dalle
tecniche di osservazione sempre più accurate per caratterizzarne la resa.
Essa è stata la base di tutta la strumentazione di ricerca industriale a cavallo tra ’800
e ’900.
La seconda , Ottica Quantistica, è legata all’introduzione del laser (C.H. Townes, 1958,
Premio Nobel 1964) e all’interpretazione delle proprietà laser in termini di stati coerenti,
sviluppata a partire dal 1963 da R.J. Glauber (Premio Nobel 2005) e da me verificata
sperimentalmente a partire dal 1965.
Nello sviluppo dell’elettronica, i laboratori e l’ingegneria delle comunicazioni si dovevano
confrontare con il deterioramento del segnale dovuto alle fluttuazioni statistiche introdotte
dall’ambiente circostante e che chiamiamo noise ( “rumore”). Nella misura in cui un
segnale è sporcato dal rumore si perde la capacità di fare previsioni. Ora in Ottica classica,
a parte il disturbo indotto dall’ambiente, già una qualunque sorgente luminosa, il sole o
una lampada, è puro rumore, in quanto la radiazione è costituita dal contributo di miriadi
di atomi mutamente indipendenti. L’Ottica pertanto cercava di far buon uso del rumore
28
nella misura in cui estraeva fasci approssimativamente collimati o monocromatici. Ben
diversa era la situazione in elettronica, dove nei primi decenni del secolo scorso erano stati
sviluppati oscillatori coerenti che permettevano di manipolare il segnale in modo
affidabile , isolandolo dal rumore dell’ambiente.
Tale affidabilità in ottica era solo un’approssimazione concettuale, utile per sviluppare
modelli semplici.
Invece con il laser si ha il generatore coerente di radiazione ottica e questo ha rivoluzionato
sia la trasmissione dei segnali sia le tecniche applicative: oggi il laser è ingrediente
essenziale, dai lettori di dischi alla telemetria da satellite, dalle comunicazioni alle
operazioni chirurgiche, dai controlli di processi industriali alle reazioni chimiche.
La terza accezione , Ottica Statistica, è legata a quei fenomeni di folla che implicano molti
individui che si collegano, a differenza degli atomi di una lampadina che irraggiano
indipendentemente l’uno dall’altro. Questo estendersi di uno stato di mutuo legame è la
ragione profonda per cui nasce il laser, come si può evincere studiandone la regione di
soglia, cioè la regione in cui il guadagno fornito da una sorgente di energia esterna, ad
esempio una scarica elettrica, supera le perdite dovute alla fuoriuscita di luce. Questa
organizzazione collettiva è comune a molti fenomeni, incluse la biologia e la sociologia.
Quando si è passato un punto critico per cui i mutui legami prevalgono sui comportamenti
individuali, la folla si comporta come un singolo individuo e la lampadina diventa un laser.
Dunque mentre l’Ottica quantistica definisce la coerenza del laser e ne stabilisce le
proprietà misurabili, l’ Ottica statistica studia il costituirsi della coerenza a partire da uno
stato disordinato; cioè il passaggio da una sorgente naturale al laser. La dinamica non
lineare fra la materia che genera la luce e il campo è determinante per indurre una
variazione qualitativa (biforcazione) fra lo stato disordinato ,da cui possiamo filtrare una
luce approssimativamente coerente, e lo stato ordinato laser, che è naturalmente coerente.
Un successivo stadio di fenomeni, detto caos deterministico, è legato all’interazione
dinamica fra pochi individui, al limite solo tre. Il caos deterministico, pur somigliando
superficialmente al rumore, ha un aspetto interessante in quanto in esso l’informazione si
consuma gradualmente, così che si può intervenire sia formulando previsioni a tempo
limitato (come accade in meteorologia), sia introducendo meccanismi di controllo che lo
regolarizzano, come abbiamo mostrato nelle fig .1 e 2.
Oggi l’Ottica dei fenomeni caotici e del loro controllo è la base di tutte le applicazioni legate
alle comunicazioni.
29
Se si hanno reti spaziali di molte sorgenti coerenti-caotiche, si possono formare regioni
spaziali correlate, cioè entro cui tutti gli individui si comportano in modo uguale, ma
questo comportamento differisce da una all’ altra regione:si è per così dire in presenza di
super-individui,ciascuno dei quali non è un singolo atomo ma ha anche una struttura
interna. Se i vari individui sono scorrelati, si ha una versione ulteriore della perdita di
coerenza già esplorata con le sorgenti naturali di luce. Se invece hanno dei mutui
accoppiamenti,questi sono così intricati che il loro numero cresce non proporzionalmente
ma esponenzialmente col numero di individui. È questa l’accezione di Ottica Complessa.
A differenza dei canali elettronici, dove il segnale evolve solo nel tempo e l’informazione è
elaborata in modo sequenziale, in Ottica Complessa si è in presenza di domini (come in
una cartina geografica, i vari paesi rappresentati da colori diversi) che un lettore può
codificare in modo parallelo.
E qui nasce una domanda che attende risposta nel prossimo futuro: l’Ottica Complessa è
un utile modello dei nostri processi cerebrali? Il singolo neurone come oggetto dinamico,
sembra essere come un singolo laser; un modulo cerebrale, entro cui si organizzano gruppi
correlati di neuroni, sembra come una rete spaziale di laser; allora la lettura fatta da un
modulo successivo avverrebbe in parallelo, con notevole risparmio di tempo rispetto ai
processi sequenziali delle macchine elettroniche di calcolo.
Ma qui l’ Ottica Complessa apre un territorio che si sta appena cominciando a esplorare:
quello di una fisica dei processi cerebrali che vada oltre sia le descrizioni parziali della
neuroscienza (legate alla chimica dei neurotrasmettitori o alle tecniche di visualizzazione
come f-MRI) sia le insufficienti analogie con i computer. Voglio indicare due promettenti
applicazioni in corso di sviluppo.
Se un neurone isolato ha una dinamica caotica di tipo HC (definita e descritta in seguito),
da noi studiata nei laser, e consideriamo una rete di neuroni accoppiati, per opportuni
parametri di accoppiamento uno stimolo esterno induce uno stato di sincronizzazione
collettiva ; secondo recenti approcci (F.Crick e C.Koch, G.Edelman,S. Zeki) possiamo
considerare questo stato collettivo come una coscienza locale raggiunta da un modulo
cerebrale (di forma,moto,ecc) coscienza trasferita poi ad altre aree associative per essere
combinata in decisioni motorie.
A parte le lunghe simulazioni al computer,un simulatore analogico conveniente di un
modulo cerebrale è costituito da una rete di laser in regime HC accoppiati.
Sul piano osservativo, oggi i metodi di indagine dell’attività corticale sono o a bassa
risoluzione (EEG, fMRI) cioè non sono in grado di individuare il singolo neurone, o
invasivi, cioè possono misurare il singolo potenziale neuronale ma con microelettrodi
30
intrusivi che raggiungono il singolo assone e che sono usati in animali di laboratorio ma
non in soggetti umani. L’idea a cui stiamo lavorando è la seguente : una spike (impulso) di
100 millivolt, 1 millisecondo che si propaga su un assone dà luogo a una guaina di
molecole della membrana assonica che sono fortemente orientate e pertanto danno luogo a
una anisotropia dell’indice di rifrazione. Questa può essere misurata con metodi olografici.
In tal modo si riesce a localizzare la spike nello spazio e nel tempo.
Dunque, l’ Ottica Complessa ha gli strumenti per esplorare la nascita della coerenza nei
processi percettivi, come vedremo in Fisica della cognizione.
E’ storicamente rilevante ricordare che già l’ Ottica classica, dopo aver ottimizzato i
percorsi della radiazione attraverso i vari strumenti, si domandava : come vediamo?
Mentre in Ottica quantistica e statistica i segnali arrivano a fotorivelatori e la
strumentazione a valle ne elabora le correlazioni di intensità, in ottica classica il rivelatore
è in genere l’occhio dell’osservatore e l’elaborazione avviene nel suo cervello.
C’è una vasta area interdisciplinare, che va dall’Ottica fisiologica in cui si esplora l’occhio
come strumento di visione, alla psicologia sperimentale , che esplora sia la globalità della
visione sia le cosiddette illusioni ottiche. Varie scuole e approcci si sono susseguiti nel
secolo scorso, a cominciare dal comportamentismo negli Stati Uniti e dalla psicologia della
Gestalt in Germania. Le ricerche nel settore sono distribuite su numerosi giornali;
peraltro , da una parte l’interesse dei medici oculisti, dall’altra quello degli ingegneri
illumino-tecnici o del colore che curano le presentazioni in musei o negozi, hanno creato
dei forti interessi in conflitto, con approcci settoriali che spesso trascurano contributi di
campi affini.
Il campo di indagine sembra oggi più omogeneo per i seguenti motivi : i) la scoperta delle
risposte dei singoli neuroni ,a partire da D.Hubel e T.Wiesel (si veda : D.Hubel , “Occhio,
cervello e visione, Zanichelli, 1989); ii) l’uso massiccio di modelli computazionali; iii)la
rete Internet che permette un agevole accesso alla letteratura scientifica di tutti i campi,
assicurando fecondi scambi interdisciplinari.
Vedremo più in là che gli argomenti di coerenza esplorati in questo libro stabiliscono una
base fisica per spiegare quei fenomeni collettivi che trasformano una percezione in una
decisione motoria o linguistica.
31
- I primi passi nella ricerca Come ho già detto, mi sono laureato in ingegneria al Politecnico di Milano. Ho fatto un
biennio di matematica e fisica, come si diceva allora, senza avere idea di come fosse
l’ingegneria. Nel 1951, quando finivo il Liceo,l’Italia uscita dalle distruzioni della guerra
non aveva organizzato un sistema di ricerca competitivo con gli standards internazionali.
Io ero interessato a chiarirmi le domande sugli aspetti della natura che mi erano state
poste dagli studi di filosofia e scienze; ma mentre la filosofia cercava risposte globali e si
poneva le stesse questioni da millenni,le scienze puntavano più modestamente a risposte
settoriali, ma in compenso fornivano risultati incontrovertibili. Scelsi la fisica ,ma qui
nasceva il confronto con le potenzialità legate a studi di ingegneria. Nella famiglia borghese
italiana esisteva infatti il vecchio pregiudizio che l’ingegnere trovasse lavoro in qualunque
tipo di impresa, mentre il fisico dovesse limitarsi a fare l’insegnante. Per tranquillizzare i
miei genitori, mi iscrissi a ingegneria. Nei primi due anni,all’Università di Messina, fisica e
ingegneria avevano i corsi in comune. Non ricordo grandi maestri,ma sfruttavo la libertà di
scelta dei temi di indagine e dei testi su cui approfondirli per farmi un quadro della fisica e
delle direzioni interessanti al suo interno.
Nel 1953 la mia famiglia si trasferiva a Pavia e io proseguivo gli studi al Politecnico di
Milano. Inizialmente fu una delusione: essendo una facoltà fortemente orientata alla
professione, i grandi temi di ricerca erano del tutto trascurati e il tempo di lezioni ed
esercitazioni esauriva tutta la giornata:avevo perso quella libertà che il pigro biennio
messinese mi permetteva; in compenso , mi rendevo sempre più conto di come fosse
cruciale capire come funzionano gli oggetti artificiali (le macchine) che cercavano di
catturare operazioni della natura.
Ho avuto il privilegio di studiare Ingegneria Elettrotecnica tra il 1953 e 1957, avendo come
maestro Ercole Bottani che mi presentò i segreti di questo capitolo della scienza applicata,
mostrando come un’euristica colga il nucleo di una teoria, stimolando la creatività ben più
che un’elegante presentazione formale. L’ingegneria elettrotecnica a cavallo tra ’800 e ’900,
con Galileo Ferraris, Antonio Pacinotti e Giovanni Giorgi, aveva rappresentato il
contributo italiano alla fisica dell’Elettromagnetismo, visualizzando in circuiti elettrici
quelle relazioni su cui si basa la geniale unificazione di Maxwell dei fenomeni elettrici,
magnetici e ottici.
32
Mi accorsi però che l’ ingegneria elettrotecnica non mi interessava: appariva come una
applicazione, localmente brillante, di principi generali ormai privi di mistero, e senza
misteri da esplorare si perdeva il fascino per cui mi ero orientato su studi scientifici.
Per fortuna il professore di elettronica,Emilio Gatti, una persona veramente geniale, che
ha trasformato in un arte la strumentazione per la fisica nucleare, e che fu anche il mio
relatore di laurea, mi fece cambiare idea.
Avevo comunque deciso di fare il ricercatore di fisica e non l’ingegnere; cominciai allora a
frequentare i laboratori di Fisica nucleare delle basse energie al CISE, dove si misuravano
le sezioni d’urto dei processi nucleari in vista della realizzazione di un reattore di fissione
nazionale; era lì che Gatti sviluppava ricerche strumentali. Era un’epoca pionieristica in
quanto le sezioni d’urto dei processi nucleari erano mantenute segrete
(tecnicamente:classified) dalle potenze nucleari, e il CISE ,con le sue pubblicazioni , ebbe il
merito di costringere i detentori dei segreti a rendere pubblici i loro dati; qui però mi
accorsi che la sistematica dei decadimenti nucleari, la classificazione paziente con contatori
e cronometri, era per me noiosa. Preferivo l’inventiva di Emilio Gatti, realizzatore di
innovativa strumentazione elettronica. Gatti partiva da componenti elettronici
commerciali (i tubi a vuoto, poi i transistor) e li combinava in modo creativo realizzando
configurazioni in grado di effettuare operazioni logiche anche molto complesse, con in
vista la fisica del processo di misura da ottimizzare. Tentai anch’io di fare della
strumentazione innovativa e di investire le mie idee in questo campo, ma mi accorsi che i
colleghi, che poi usavano questa strumentazione, facevano il loro resoconto su quello che
avevano osservato dimenticando di citare il contributo strumentale che avevano ricevuto.
Insomma fare solo strumentazione non paga in Fisica; vi si può costruire un impero
industriale come la RCA o la EMI, ma se scorriamo i Nobel per la Fisica, vediamo che gli
strumentisti (a parte qualche eccezione come Gabriel Lippmann, Frits Zernike e Georges
Charpak) sono per lo più trascurati.
Per questo nel 1960 approfittai di una borsa G.B Pirelli e andai al laboratorio di ricerche
elettroniche dell’Università di Stanford in California a lavorare sui Maser, le sorgenti a
microonda inventate da Charles Townes e che generavano radiazione coerente per il
principio di emissione stimolata di Einstein. Nei giorni in cui arrivavo a Stanford,
Theodore Maiman dei Laboratori Hughes aveva appena esteso il principio Maser al
visibile realizzando il primo laser a cristallo di rubino e poco dopo Ali Javan dei Bell
Telephone Laboratories realizzava il primo laser a gas.
33
Scoppiò la moda del laser. Con tutto il gruppo di Stanford lasciammo i maser per i laser. E
qui nasceva un problema: come riqualificarci da esperti elettronici a esperti ottici?
L’ottica era stata importante nella strumentazione di ricerca fisica nei primi decenni del
Novecento, ma era stata poi trascurata quando all’inizio degli anni ’30 - per esempio con
la scuola di Fermi - si passò dalla spettroscopia atomica alla spettroscopia nucleare, da
fenomeni che si potevano osservare per via ottica, facendo delle fotografie, a fenomeni che
bisognava registrare esclusivamente per via elettronica,attraverso le risposte di opportuni
rivelatori. Proprio ad Arcetri, sulle colline intorno a Firenze, alcuni pionieri come Bruno
Rossi avevano realizzato la famosa coincidenza che permetteva di correlare i segnali
registrati da rivelatori distinti,”visualizzando” in tal modo il percorso della particella
ionizzante. Erano gli anni ’30 ed ebbe così inizio una filiera di strumenti innovativi che
permettevano di classificare gli eventi nucleari attraverso le risposte elettroniche di
adeguati rivelatori.
D'altronde, nel campo delle osservazioni militari o topografiche l’ottica serviva a localizzare
gli oggetti e a misurarne la distanza. Tutti noi abbiamo visto questi film in cui c’è il
valoroso guardiamarina sulla torretta di una nave da guerra che misura la distanza della
nave avversaria con il telemetro. A partire dagli anni 40 del secolo scorso, il telemetro
ottico è stato rimpiazzato dal radar, e noi abbiamo perso buona parte della nostra flotta
proprio perché il radar non ce l’avevamo. Il radar manda degli impulsi elettronici, ne riceve
la risposta e la codifica in distanze degli oggetti permettendo di localizzarne la posizione.
Sembrava dunque che l’elettronica avesse soppiantato l’ottica e in effetti questa è la
ragione di fondo: l’elettronica si serve di segnali coerenti cioè generati da oscillatori - allora
alimentati da tubi elettronici, successivamente da transistor, in ogni caso, generando onde
elettromagnetiche coerenti per cessione di energia da elettroni liberi. L’onda coerente può
confrontarsi con se stessa dopo un percorso di una certa distanza misurando le fasi del
segnale raccolto in posizioni diverse. Una cosa simile non si può fare in ottica, perché la
luce che ci è stata fornita dai tempi di Adamo ed Eva è la luce del sole, delle fiaccole, di
tutte le sorgenti che noi conosciamo; sono in definitiva, per dirla con il linguaggio degli
elettronici, sorgenti di rumore, perché sono sorgenti in cui l’informazione di fase si perde
rapidamente su un tempo microscopico dell’ordine del picosecondo (corrispondente a un
percorso del segnale luminoso di 0,3 millimetri) o al massimo del nanosecondo (percorso
corrispondente 30 centimetri).
L’innovazione del laser stava proprio nel fatto che il laser diventava una sorgente ottica
controllabile, come le sorgenti elettroniche. Quando nacque, il laser fu motivo di grosso
34
imbarazzo. Veniva definito una soluzione in cerca di problemi, anziché un problema in
cerca di soluzioni. Non si sapeva cosa farsene, anche perché mancando l’educazione ottica
da decenni, nessuno sapeva come utilizzare la strumentazione ottica.
L’Ottica non era stata di moda nei miei anni di studio; mi accorsi di questa carenza
quando arrivai al corso di Topografia con relativa strumentazione;allora per farmi una
base ricorsi all’esposizione di Ottica nel Trattato di Fisica di Eligio Perucca: molto formale
ma poco utile per acquisire idee pratiche sui poteri e limiti strumentali.
A Stanford fu ripescato un vecchio pensionato dai capelli bianchi - allora mi sembrava
vecchio perché io ero un ragazzino - che ci insegnò a lavorare e controllare le superfici
ottiche e cominciammo a imparare quelle tecniche di ottica di laboratorio che da decenni
nessuno più praticava: come fare gli specchi, come fare le lenti e come montare un sistema
ottico controllandone l’accuratezza.
Inoltre ,furono anni di forte impegno culturale:da elettronico,avevo dovuto valutare
dinamiche di elettroni liberi in un campo elettromagnetico classico; da cultore di laser,
dovetti imparare la meccanica quantistica degli stati atomici legati e saper valutare
l’eccitazione del campo a partire dal suo stato di vuoto, cioè maneggiare l’elettrodinamica
quantistica. I maestri di Stanford che mi convertirono da ingegnere a fisico erano ottimi:
ricordo ad esempio Felix Bloch sui momenti nucleari (il migliore docente che io abbia
avuto in vita mia, in grado di rendere intuitivi e pratici gli astratti concetti quantistici, il
tutto detto con molta affabilità rallegrata da un forte accento tedesco dopo 30 anni di
esilio) , un giovane Jim Bjorken che dava le basi della meccanica quantistica (e in modo
invero creativo: veniva in aula senza ricordare su che cosa doveva far lezione e costruiva
per tentativi la lezione sotto i nostri occhi, con gran profitto nostro perché andavamo ben
oltre un “testo scritto”); l’elettrodinamica quantistica mi fu insegnata da Leonard Schiff, di
cui conoscevo già il testo di Meccanica quantistica: era un docente meticoloso ma senza i
salti di fantasia di Bjorken.
35
- Intermezzo quantistico Non è mia intenzione trasformare queste note in un libro di scuola, ma dovremo far uso di
concetti introduttivi di fisica quantistica e che qui presenteremo in maniera
euristica,appoggiandoci ad alcune figure.
A fine ‘800 sembrava che la combinazione dell’elettromagnetismo di Maxwell e della
dinamica di Newton avesse esaurito il ruolo della fisica: tutto il resto (dalla chimica alla
biologia)sembrava una applicazione, anche se ancora remota. Cariche elettriche accelerate
generano un campo elettromagnetico, il quale a sua volta esercita azioni dinamiche sulle
cariche: l’elettrodinamica era mediata dalle cosiddette forze di Lorentz.
Questo approccio generava due paradossi, la cui soluzione nei primi decenni del ‘900
segnava la nascita della meccanica quantistica.
Il primo riguardava il corpo nero, cioè una cavità a temperatura costante che contiene
atomi e campo, dove si è creato un equilibrio fra processi di emissione e di assorbimento.
Assegnato un certo contenitore, che chiameremo cavità, dato che le equazioni
dell’elettromagnetismo sono lineari (cioè i campi elettrico e magnetico vi entrano alla
prima potenza) vale la sovrapposizione degli effetti. Pertanto, il campo può essere
sviluppato in soluzioni mutuamente indipendenti, detti modi da Lord Rayleigh, che aveva
introdotto questa terminologia per le diverse configurazioni di un risonatore acustico; si
tratta sempre di onde, sia nel caso acustico come in quello ottico. Dal punto di vista
dinamico, ogni modo si comporta come un oscillatore armonico (cioè come una particella
soggetta a una forza elastica), a cui il teorema di equipartizione attribuisce all’equilibrio
una energia proporzionale alla temperatura e indipendente dalla frequenza del modo.
Questo dà luogo a un assurdo: siccome la densità dei modi cresce con il quadrato della
frequenza (là dove c’è posto per un’onda lunga , si possono mettere anche molte onde corte,
perciò - man mano che diminuisce la lunghezza d’onda λ ,cioè che aumenta la frequenza
ω - cresce la densità dei modi contenuti in cavità; ma allora la densità di energia dovrebbe
continuare a crescere alle alte frequenze, e tendere all’infinito per frequenze altissime .
Sperimentalmente, si osserva invece una troncatura drastica( in gergo tecnico, un taglio
esponenziale) della densità di energia alle alte frequenze. Nel 1900 M. Planck risolse il
problema postulando che la crescita di energia in ogni modo del campo non avvenga in
modo continuo ma per salti discreti, o quanti (in seguito chiamati fotoni), ciascuno con
una energia 1E proporzionale alla frequenza ω attraverso la costante di Planck
ondijoule sec.10 34−≈h ; con questi salti discreti, l’energia media non è più
36
proporzionale alla temperatura, ma vi è legata da una relazione che implica anche la
frequenza dell’onda, e che spiega il taglio alle alte frequenze.
Dunque ad un’onda si associa un aspetto discreto,di particella.
L’altro paradosso riguardava il modello planetario introdotto per un atomo da E.
Rutherford. Se l’elettrone orbita come un pianeta in un sistema solare, avrà una continua
accelerazione. Ora, una carica accelerata è come un’antenna con corrente variabile, e
perciò irraggia un campo: quindi l’elettrone dovrebbe progressivamente perdere energia
fino a cadere nel nucleo.
Nel 1913 N. Bohr introdusse stati atomici stabili che obbediscono a una condizione di
quantizzazione: ciò accade solo se la velocità dell’elettrone che orbita attorno al nucleo sta
in un rapporto preciso con il raggio dell’orbita corrispondente. Nel 1918 L. De Broglie
mostrò che ciò equivaleva ad associare un’onda di lunghezza λ alla particella di impulso
mv, con una relazione di proporzionalità inversa (a velocità maggiori corrispondono
lunghezze d’onda più piccole); anche qui c’è di mezzo la costante di Planck.
Le due relazioni di Planck e De Broglie hanno risolto i paradossi della fisica classica,
introducendo però la dualità onda-particella : ogni onda ha anche un aspetto corpuscolare
( la sua energia varia di grani discreti, o quanti) e ad ogni particella è associata un’onda.
L’onda associata a una particella va vista come un’entità astratta che si concreta in due casi:
1) il quadrato della sua ampiezza in un punto dà la probabilità di localizzare ivi la particella
(regola di M.Born); 2) quando interferisce con un'altra onda si può sommare o sottrarre
(interferenza). Interferenza è la somma in un punto di due onde; tale somma dipende da
come si incontrano creste e valli (le cosiddette fasi) delle onde. Mentre se sommiamo una
particella con un’altra abbiamo sempre due particelle, se sommiamo un’onda con un’altra
possiamo avere un valore positivo o negativo o nullo, a seconda delle fasi reciproche. Il
fenomeno era ben noto per le onde materiali dell’acqua in un lago, e per luce fu
evidenziato da Young all’inizio del 1800, fornendo così la prova delle onde luminose.
Nel caso di particelle microscopiche, l’ipotesi di De Broglie fu confermata direttamente da
esperimenti di interferenza fra fasci di elettroni; una evidenza indiretta era peraltro il
modello atomico di Bohr, che permette solo quelle orbite in cui, dopo un giro , l’onda
dell’elettrone torna a sommarsi, invece che cancellarsi.
37
E’ qui opportuna qualche considerazione numerica. Abbiamo detto che la costante di
Planck vale ondijoule sec.10 34−≈h ; le frequenze delle onde a cui è sensibile il nostro
occhio sono attorno a 1015 periodi al secondo ,cioè (secondi)-1; facendo il prodotto della
costante di Planck per la frequenza, avremo che ogni quanto o fotone visibile ha una
energia attorno a 10-34+15=10-19 joule.
Ricordiamo che 1 joule è il lavoro che ci tocca fare per spostare un libro di uno scaffale. Su
questa scala,un fotone è proprio piccolo, e ciò spiega perché la fisica classica , che
considera variazioni continue di energia, sia stata una buona approssimazione per secoli.
Se peraltro consideriamo la carica di un elettrone che “cade” dal polo negativo al polo
positivo di una batteria da 1 volt, il lavoro corrispondente che esso fa (ad esempio
accendendo una lampada) è pari proprio a 10-19 joule, e lo indicheremo come 1 eV
(elettrone-volt). Così come, nella vita di tutti i giorni, conviene misurare l’energia in joule,
nel mondo degli atomi e molecole conviene riferirci allo eV come unità di energia.
Tutte le molecole della vita hanno energie di legame in un intervallo ristretto fra un po’
meno di 1 e 10 eV. Per energie più alte si dissociano in atomi separati; per energie più
basse, rimangono congelate in un certo stato e non riescono a fare quelle transizioni
molecolari verso altri stati da cui dipende la vita. Il motore universale delle cellule viventi
è la transizione da ATP (adenosin tri-fosfato) ad ADP (adenosin –difosfato) che rilascia P
(fosforo libero) e una energia di circa 0.3 eV.
Dunque, mentre gli atomi e le loro varianti ionizzate sono distribuiti su intervalli di
energia di migliaia di eV, le molecole della vita sono concentrate nel piccolo intervallo di 10
eV.
Ma perché ricorrere alle molecole? Non è già sufficientemente ricco un mondo di soli
atomi?
Con i 92 atomi della tavola di Mendeleev non si può immagazzinare molta informazione;
invece le varianti molecolari costruite con pochi tipi (meno di 10) di atomi permettono
milioni di molecole diverse ( si pensi alle proteine) ; su questo si basa la ricchezza della vita.
Si noti che questo “uso illimitato di un numero finito di risorse , mediante le loro
combinazioni” è quanto facciamo nel linguaggio, combinando con la sintassi le parole di
una lingua, o nel far musica combinando le note.
Il nostro sole emette quanti (fotoni) addensati nell’intervallo 1-3 eV; essi sono la nostra
fonte di energia. Se il sole fosse stato più caldo, le molecole sulla Terra si sarebbero
dissociate, se più freddo non ci sarebbero state reazioni molecolari (infatti nei gas
38
Fig.4- La diffrazione è comprensibile osservando quel che accade alle onde che si propagano in uno stagno a valle di un ostacolo: a) se l’ostacolo è molto piccolo rispetto alla lunghezza d’onda(separazione fra due creste successive), non lascia nessuna impronta; b) se è più grosso ,lascia un’impronta non fedele ;c) se invece è molto maggiore della lunghezza d’onda,lascia a valle un’ombra da cui si può risalire alla forma dell’ostacolo; d) a parità di ostacolo, se si aumenta la lunghezza d’onda, ci si ritrova nella situazione b).
Fig.5-Il nostro occhio è sensibile a lunghezze d’onda fra 0.8 e 0.4 micrometri. Possiamo vedere senza distorsioni diffrattive oggetti più grossi di queste lunghezze d’onda (o direttamente o attraverso strumenti ottici). Al di sotto, dobbiamo ricorrere alla visione indiretta (figura successiva)
39
interstellari troviamo molecole ”congelate”). E’ perciò che dobbiamo cercare la vita in
sistemi stellari il cui sole somigli al nostro.
Vediamo le conseguenze quantistiche in ottica.
In fig.4 si mostra come,misurando le dimensioni di un oggetto mediante onde,si incorra in
un limite di risoluzione quando la lunghezza d’onda è confrontabile con l’estensione
dell’oggetto.
Tenuto pertanto conto dello spettro di sensibilità della retina dell’occhio,al di sotto di una
certa lunghezza ( fig.5) dovremo ricorrere a misure indirette . La misura indiretta
implica(fig.6) l’uso di proiettili con lunghezza d’onda sempre più piccola, cioè - per la
relazione di De Broglie - con impulso sempre più grosso: ne consegue il principio di
indeterminazione di W. Heisenberg.
Fig.6- Nella visione diretta, catturiamo sulla retina sezioni bidimensionali (2D) dell’onda emessa o diffusa dall’oggetto; abbiamo appreso a collegare sezioni 2D osservate da angoli diversi per fare mentalmente ricostruzioni tri-dimensionali. Nella visione indiretta, ”illuminiamo” l’oggetto con proiettili sonda ; registriamo la distribuzione angolare dei proiettili deviati dall’oggetto e da questa ricostruiamo la forma dell’oggetto. Per la relazione di De Broglie, l’onda associata al proiettile è tanto più piccola quanto maggiore ne è l’impulso; pertanto per aumentare la risoluzione dobbiamo aumentare la velocità, ma con ciò induciamo un disturbo tanto maggiore nella posizione. La relazione di indeterminazione di Heisenberg dice che il prodotto delle due indeterminazioni è maggiore della costante universale di Planck. Se indichiamo con ∆ le incertezze, con x la posizione del proiettile e con mv il suo
impulso ( prodotto di massa per velocità),scriviamo: h>∆•∆ )(mvx
40
Nel piano posizione-impulso non riusciremo a localizzare punti precisi, come invece
richiede la dinamica classica per valutare l’evoluzione a partire da una determinata
condizione iniziale (fig.7).D’altronde una delocalizzazione consimile ha luogo nel piano
frequenza-tempo di un segnale acustico, come già espresso dalla usuale notazione musicale
(Fig.8).
Fig.7- Mentre nella fisica classica presumiamo di poter misurare con precisione la posizione e la velocità di una particella (probabilità di localizzazione data dalla linea verticale con freccia, che identifica un punto preciso del piano posizione-velocità),sappiamo dalla figura precedente che avremo una curva di delocalizzazione.Per il principio di Heisenberg, aumentando la precisione in una direzione, aumenta l’incertezza nell’altra.
41
Fig.8- La scrittura musicale ci offre un esempio di delocalizzazione legato all’indeterminazione frequenza-tempo. Indichiamo sullo spartito la frequenza centrale di una nota ; ma quanto più breve è la nota,tanto più largo ne sarà lo spettro. Avremo un colore puro (singola frequenza) solo se eseguiamo la nota per un tempo lungo: è quel che fa la sirena dell’autoambulanza!
Passiamo a considerare un singolo modo di campo ,che dinamicamente equivale a un
oscillatore armonico. Esso è come una particella confinata dentro una buca parabolica di
energia: per ogni valore di energia (riportata in fig 9 sull’asse verticale), la coordinata q
della particella (asse orizzontale) può oscillare entro l’intervallo delimitato dalla parabola.
Un oscillatore classico può assumere qualunque valore di energia. Invece, per Planck, i
livelli energetici permessi sono quantizzati, e si passa da uno all’altro con un salto pari al
prodotto ωh della costante universale di Planck per la frequenza(fig.9).
Se, a partire dallo stato di vuoto, riusciamo a depositare entro il modo un fotone per
volta,percorriamo in salita una scaletta di stati a numero di fotoni determinati, detti stati
di Fock, per i quali l’indeterminazione posizione-impulso (cfr fig.7) cresce col numero di
fotoni.
42
Fig.9- In un oscillatore armonico le vibrazioni sono confinate entro un potenziale parabolico nella coordinata q. Se consideriamo stati a numero n di quanti fisso(0,1,2 ecc) ognuno di essi è delocalizzato in base a un principio di indeterminazione che dà un’incertezza crescente con n ; precisamente, se indichiamo con p=mv l’impulso,si ha:
h)2/1( +=∆∆ npq . Lo stato di vuoto, con n=0, ha la minima indeterminazione:
h2/1=∆∆ pq .
Se ora consideriamo una versione dello stato di vuoto traslata di α, (dove α è proporzionale a q) avremo uno stato quantico ancora a minima indeterminazione
(stato coerente) , con un numero medio di fotoni pari al modulo quadrato 2α . Lo
stato coerente oscilla a frequenza ottica nella zona permessa dal potenziale (l’esempio in figura si riferisce a n=5) mantenendosi localizzato, a differenza dello stato a numero determinato di fotoni n=5, la cui funzione d’onda è delocalizzata (tratteggiata). Lo stato coerente paga la localizzazione in coordinata con uno
sparpagliamento nel numero di fotoni attorno al valor medio 2α con una statistica
di Poisson.
Nel trattare un modo di campo come un oscillatore di campo ,il piano di appoggio ,che in
fig. 7 è stato indicato come posizione-velocità, sarà il piano su cui rappresentiamo ogni
valore E di campo come un vettore. Il piano ha come assi la parte reale e la parte
immaginaria dell’ampiezza E del campo, che denotiamo come ).(),( EmEe ℑℜ
43
Nel seguito ,passeremo spesso dalla rappresentazione ad assi ortogonali alla
rappresentazione “polare”, denotando il vettore E non più con le sue componenti
ortogonali ).(),( EmEe ℑℜ , ma con il modulo E e l’angolo di fase φ rispetto all’asse
reale. In questa notazione , in alternativa a dare modulo e fase, spesso considereremo la
coppia di vettori ),( *EE , dove E* è il vettore complesso coniugato di E . E* ha
parte immaginaria cambiata di segno rispetto ad E , cioè ha un angolo di fase φ− .
Nel 1937 ,con l’introduzione dei sincrotroni (macchine ad anello sotto vuoto in cui
circolano elettroni portati a una grande energia cinetica) nacque un problema in un certo
senso opposto a quello del corpo nero. Nel moto circolare nel sincrotrone gli elettroni sono
accelerati per cui irraggiano uno spettro elettromagnetico che è piatto a basse frequenze:
quindi c’è emissione anche a frequenze vicino a zero. Ma se gli elettroni emettessero
numeri di fotoni precisi (stati di Fock) la convergenza a zero della frequenza dovrebbe
comportare una corrispondente divergenza del numero di fotoni, per mantenere costante
l’energia . In effetti, F Bloch e A. Nordsieck dimostrarono che si può trascurare la
reazione di radiazione e il fascio di elettroni si comporta come una corrente classica.
Questa, applicata al vuoto del campo, lo trasla ad uno stato di minima incertezza .
Nel 1963, Roy Glauber , idealizzando l’emissione collettiva degli atomi eccitati di un laser
come una corrente classica, stabilì che un laser ideale è in uno stato di campo a minima
incertezza, che chiamò “stato coerente”. In tale stato, una misura di numero di fotoni non
dà un valore preciso ma una distribuzione statistica di Poisson.
44
- L’Ottica al CISE: la coerenza Forte di quello che avevo imparato a Stanford, nel 1962 tornai al CISE di Milano, la mia
alma mater, con il compito di aprire un laboratorio laser. Questo centro di ricerche
nucleari accettò infatti in modo lungimirante di ospitare ricerche di ottica che non avevano
niente a che vedere con il nucleare, dando vita così a un laboratorio di ricerca sui laser.
Date le difficoltà italiane di acquisire cristalli di alta qualità ottica puntai sui laser a gas,
che potevamo costruirci in casa: il CISE aveva infatti una consolidata tradizione di
costruzione di contatori nucleari (Geiger o proporzionali) e pertanto ottimi tecnici che
sapevano lavorare il vetro, fare dei tubi a vuoto e riempirli di gas speciali.
Invece per i laser a stato solido o a semiconduttore eravamo costretti a comprare
materiale di cui non riuscivamo a controllare la qualità. Oggi la qualità è ottima perché c’è
una forte concorrenza e una fitta rete di fornitori, ma all’epoca era tutto agli inizi e ciò che
riusciva ad uscire dagli Stati Uniti era materiale di scarto (fra l’altro,era considerato
materiale strategico e –in clima di guerra fredda- dovevamo impegnarci a non fare
trasferimenti ai Paesi del blocco sovietico).
A questo punto si poneva il problema: che tipo di ricerca fare con i laser. Competere sul
piano dell’ Ottica strumentale con laboratori di metrologia o spettroscopia ottica che
praticavano le tecniche ottiche da decenni era temerario; ricorsi allora alla mia formazione
di strumentista nucleare e mi proposi di caratterizzare la radiazione laser con metodi
statistici.
Il gruppo laser era fatto da me, dal mio collega Alberto Sona, e da qualche laureando oltre
a colleghi in visita da altri laboratori; usufruivamo delle competenze strumentali che
avevano fatto del CISE un centro di eccellenza .
Realizzammo il primo laser a Elio-Neon,e il fatto che funzionasse ci creò il problema: che
cosa farcene? Costruimmo un interferometro di Michelson, con il quale, confrontando le
fasi del segnale di interferenza fra i due fasci riflessi da due specchi posti in posizioni
ortogonali, si può misurare una distanza con una precisione di una frazione di lunghezza
d’onda. Un normale interferometro di Michelson alimentato da una lampada ha una
differenza fra i due bracci di qualche metro,in quanto la lampada contiene nel suo spettro
differenti componenti monocromatiche e le mutue interferenze si distruggono a vicenda
oltre una certa separazione fra gli specchi. Il nostro interferometro a laser aveva una
differenza di lunghezza tra i bracci di 120 metri. Il laboratorio del CISE era in campagna e
riuscimmo a misurare variazioni periodiche di cammino fra i due bracci dell’ordine di
45
qualche lunghezza d’onda e con periodo attorno alle diecine di secondi: esse si rilevarono
come dovute ai colpi di maglio delle Officine Innocenti, dove, a distanza di qualche
chilometro dal CISE, si costruivano allora gli scooter Lambretta e le auto Mini italiane.
Questa nostra strumentazione piacque tanto che un geofisico di Trieste , A. Marussi, ci
chiese di poterla utilizzare per studiare una sua congettura. Egli riteneva infatti che così
come nel mare, per effetto della attrazione luni-solare, hanno luogo le maree, potrebbero
esserci anche delle maree terrestri, impercettibili variazioni della crosta terrestre, che
potevano però essere rivelate con uno strumento di precisione. Nel ’64 abbiamo montato la
nostra strumentazione nella Grotta del Gigante, vicino Trieste, e con estremo piacere
abbiamo rilevato l’esistenza di oscillazioni diurne. Si stabilì però che il fenomeno era molto
meno rivoluzionario di quel che ci si aspettava: era l’acqua dell’Adriatico che spingendo
contro lo spessore di roccia di qualche chilometro che separava la grotta dal mare finiva
col modulare le distanze; quindi il nostro laser registrava una normale marea marina.
Sona ed io eravamo ben esperti della strumentazione che c’era nel laboratorio di Gatti:
analizzatori multicanali, classificatori, dispositivi non lineari, misure di segnali a tempi
brevi, ecc. e iniziammo a chiederci come riuscire a trasformare questa nostra formazione
culturale in qualcosa di innovativo, come ad esempio sposare la strumentazione di
elettronica nucleare con l’ottica, escludendo la spettroscopia perché non era nel nostro
bagaglio di competenze
Avendo una sorgente nuova di luce - il laser - senza sapere cosa farne, abbiamo pensato di
contare i fotoni per vedere se uscivano fuori ordinati o a pacchetti, e dato che ogni fotone
veniva visto in un rivelatore di singoli fotoni come un pacchetto - un segnale di tensione di
durata attorno al nanosecondo - prima di impegnare una strumentazione così sofisticata,
cominciammo a registrare i segnali di singolo fotone su un film, proiettando poi i dati e
classificandoli a mano. Infatti non potevamo contare sui computer, era solo il 1963 e in
giro non ce n’erano molti.
Proprio nell’estate del1963, la Società Italiana di Fisica organizzò una scuola internazionale
sui laser, affidandone la direzione a Charles Townes, che ne era stato l’inventore e che
l’anno dopo avrebbe preso il Nobel.
In quella occasione gli mostrai i nostri dati e gli chiesi cosa ne pensasse, ma lui rispose con
sufficienza che ormai si sapeva tutto sulla statistica della luce dei laser . Mi consigliò di
cambiare linea di ricerca e io, timidamente, misi i nostri dati da parte e non ne feci più
niente.
46
L’anno dopo uscì il primo lavoro di Glauber. Prima di lui, la congettura corrente era che
essendo le particelle di luce, cioè i fotoni, delle particelle di Bose, dovessero venire dalla
statistica di Bose-Einstein. Se in un certo lasso di tempo ci aspettiamo, in media, un certo
numero di particelle, le fluttuazioni statistiche intorno a questo numero sono giganti
perché non si scalano con il numero medio ma con il quadrato del numero medio. Quindi
sembrava che fosse una misura priva di significato, misurare per esempio 100 oggetti e
avere intorno delle fluttuazioni dell’ordine del 1002 , cioè diecimila.
Invece Glauber propose una nuova congettura riprendendo il lavoro di Bloch e Nordsieck
del 1937 e mostrando che una corrente classica, irraggiando dentro un singolo modo ,
genera un campo elettromagnetico in una situazione particolare, molto ordinata, di quelle
che poi furono definiti gli stati coerenti.
Nel 1963 Roy Glauber iniziava il suo gruppo di lavori sulla teoria della coerenza laser,
criticando la nozione di coerenza dell’ Ottica classica legata alla visibilità delle frange in
un esperimento interferometrico. In effetti, sviluppando il campo in una somma di onde
piane monocromatiche, un’alta visibilità delle frange indica che si è riusciti a isolare con
filtri un solo termine di quella somma (come mostreremo in dettaglio più in là,
presentando gli interferometri) , ma non dice niente sulle fluttuazioni statistiche della
ampiezza della singola onda isolata. La nuova definizione di coerenza è la seguente: si
parte dalla stato quantistico di campo che ha la minima incertezza, cioè lo stato di vuoto, e
invece di riempirlo di un numero finito di fotoni ci si limita a traslarlo a valori alti delle
variabili del campo, conservandone la minima incertezza.
In un caso ideale ciò si realizza alimentando un campo vuoto con una antenna (cioè con
una corrente elettrica) classica, in modo che non risenta la reazione del campo quantistico.
Ciò avviene con buona approssimazione nei tubi elettronici alle radiofrequenze e nel caso
laser quando l’emissione stimolata coordina un gran numero di atomi. La nuova misura di
coerenza è pertanto legata alla statistica dei fotoni di un singolo modo di un campo di
radiazione, in pratica alla statistica dei fotoconteggi misurati con alta efficienza.
- La coerenza prima del laser
Vediamo che vuol dire praticamente isolare un singolo modo.In fig.10 mostriamo
l’interferometro che permise a Young , all’inizio del 1800,di dimostrare la natura
ondulatoria della luce.
47
Fig.10- Interferometro di Young.Una sorgente di luce con apertura ∆x illumina uno schermo con due fori A e B (che possiamo spostare in A’ e B’). Supponiamo che la sorgente sia costituita da onde piane indipendenti senza mutue relazioni di fase. Ognuna di queste onde (modi) , uscendo da ∆x , si allarga per diffrazione in un cono di apertura x∆= /λθ . A valle dello schermo, la luce dai fori A e B viene raccolta su un rivelatore la cui corrente è proporzionale al modulo quadrato del campo in arrivo. Il campo è la somma dei campi dai due fori,diciamo 1E ed 2E . Il modulo andrà mediato sul tempo di osservazione, che-data la risoluzione del rivelatore -è molto più
lungo del periodo ottico : indichiamo la media con .221 >+< EE
Il risultato sarà la somma delle due intensità separate 2
11 EI = ed 2
22 EI = più i
termini misti con fase >< 21* EE + >< 12* EE . A seconda dei valori della fase relativa,
questi si sommano o sottraggono a 21 II + ,dando luogo a frange di interferenza. Quanto detto presuppone che la differenza di fase fra i due campi si mantenga per tutto il tempo della media <…>, cioè che i due campi intercettati dai fori appartengano allo stesso modo,ovvero che l’angolo di osservazione,pari alla distanza AB diviso la separazione r dalla sorgente,sia minore dell’angolo di diffrazione
x∆= /λθ .Se invece esso è maggiore, raccoglieremo contributi da modi separati ,le cui fasi fluttuano su un tempo più corto del tempo su cui si fa la media <…>; pertanto in posizione A’ e B’ non osserviamo frange. Chiamiamo “area di coerenza” l’area SAB sullo schermo che include tutte le coppie di punti A,B tali che l’angolo geometrico uguagli l’angolo di diffrazione Risulta che SAB sottende un angolo solido pari al quadrato dell’angolo di diffrazione,cioè:
2
22
)( xrS AB ∆
⋅=
λ.
All’interno della sorgente di cui ∆x è l’apertura d’uscita si hanno onde “lineari”: con questa
parola tecnica indichiamo che le equazioni di evoluzione hanno solo termini lineari (come
nella legge di un corpo elastico, per cui diciamo che la forza è proporzionale allo
48
spostamento e non, ad esempio,al suo quadrato); le onde sono mutuamente indipendenti
e un’onda qualunque si può esprimere come somma di onde base, che per semplicità
consideriamo come onde piane,cioè ciascuna con una precisa direzione di propagazione .
Ciascuna di esse, fuoriuscendo dall’apertura ∆x, si allarga per diffrazione in un ventaglio
di onde. Nella didascalia di fig.10 abbiamo introdotto il concetto di area di coerenza ,che
rappresenta la massima apertura entro cui si possono osservare frange.
Fig.11 – Interferometro di Michelson.E’ costituito da un asse longitudinale (al cui ingresso si colloca una sorgente collimata), e da uno specchio inclinato che divide il fascio fra due cammini confinati dagli specchi A e B; i fasci di ritorno si ricombinano e sono raccolti da un rivelatore. Come nel caso di Young, misuriamo un’intensità media e attorno a questa delle frange dovute alla differenza di fase fra i due cammini,
che è data dalla frequenza ottica ω per la differenza temporale τ fra i due percorsi ,
cAB /22 ∆= ωτω .Per piccoli valori di τ ,possiamo misurare la separazione AB∆
fra i due cammini entro una frazione di lunghezza d’onda. Man mano che τ aumenta , le frange si attenuano fino a scomparire. Scambiando spazio con tempo , sviluppiamo una spiegazione come nella figura precedente. Longitudinalmente,tutti i modi hanno la stessa direzione,però avremo pacchetti longitudinali che si mantengono in fase per un tempo t∆ pari al reciproco della larghezza di riga ν∆ della sorgente ν∆≈∆ /1t . Chiameremo tempo di coerenza questo tempo di riduzione delle frange
Scambiando tempo con spazio, in fig.11 mostriamo l’interferometro di Michelson e
l’associato tempo di coerenza.Il prodotto dell’area di coerenza per il cammino percorso
dalla luce entro un tempo di coerenza definisce un volume di coerenza, cioè il volume
entro cui occorre fare due misure per osservare quelle coerenze che abbiamo associato alle
frange .
Forniamo un esempio pratico:se abbiamo una lampada ad arco con estensione mmx 5.0≈∆
e la osserviamo a distanza r=1 metro, risulta21mmS AB ≈ ;se filtriamo un colore a banda
stretta,possiamo avere .10 10 st −≈∆
49
Abbiamo così descritto interferometri di campo, in cui i due fori (Young) o i due specchi
(Michelson) selezionano i campi da spedire a un solo rivelatore.
La correlazione fra due campi in posizione 1 e 2 è indicata da una media su tutti le possibili
misure (indicata dalle parentesi<>) del prodotto di un’ampiezza di campo per la complessa
coniugata dell’altro (indicata dalla stellina *). In tal modo si cancellano le banali
oscillazioni a frequenza ottica e restano solo le correlazioni di ampiezza che dipendono
dalla distanza fra 1 e 2 e che possiamo collegare alla differenza di angolo di osservazione
stellare fra le due posizioni. Scriveremo:
>=< 21*)1( )2,1( EEG
E’ questa la misura di coerenza che ci aspettiamo fra due posizioni 1 e 2 che differiscano
nello spazio (come nell’interferometro di Young) o nel tempo (come nell’interferometro di
Michelson). )2,1()1(G denota la correlazione al prim’ ordine fra le posizioni 1 e 2.
Ricordo che l’espressione >< 21* EE significa che ad ogni misura noi facciamo il
prodotto di 1*E per 2E e sommiamo i vari prodotti. Le ampiezze complesse vanno
visualizzate come vettori su un piano; sarà cruciale l’angolo della fase relativa fra i due
vettori. Dunque, anche nel caso di moduli di campo costanti, le fluttuazioni di fase fanno sì
che i vari contributi della somma in >< 21* EE siano di segno diverso e finiscano con
l’elidersi vicendevolmente dando un risultato nullo. Abbiamo già visto ciò nelle fig 10 e 11,
dove abbiamo introdotto i concetti di area e tempo di coerenza.
Nel 1956, i due astronomi Hanbury-Brown e Twiss, cercando di risolvere dettagli stellari
(il diametro di una stella,la separazione fra due stelle doppie) mediante interferometria,
ricorsero all’ interferometro di intensità, che correla due intensità invece di due campi. Già
Michelson aveva proposto un interferometro stellare consistente nel confronto su un
rivelatore dei campi raccolti da due specchi distanti( e che pertanto vedono la stella sotto
angolazione un po’ diversa: tanto più diversa quanto maggiore è la separazione fra gli
specchi, come nel telemetro da marina).
Il problema era che il segnale dopo aver viaggiato pulito in verticale, si sporcava se la
distanza orizzontale fra i due specchi era di diecine di metri, per effetto della forte
50
turbolenza atmosferica dovuta a correnti termiche vicino al suolo. L’idea di Hanbury-
Brown e Twiss fu: mettiamo due rivelatori al posto dei due specchi , e correliamo
elettronicamente le due intensità proporzionali alle correnti di uscita, che ovviamente,
viaggiando in cavo, non saranno affette dalla turbolenza orizzontale.
Si rimpiazzava una correlazione fra due valori di campo con una correlazione fra due
intensità.
Nel caso dell’interferometro stellare,i due campi che correliamo non sono quelli in arrivo
agli specchi e che hanno pertanto fatto un percorso praticamente verticale, ma quelli che –
riflessi dagli specchi distanti - si sono propagati orizzontalmente per raggiungere l’ unico
rivelatore , e pertanto sono stati sporcati dalla turbolenza , che è forte a livello del suolo.
Se invece rimpiazziamo i due specchi con due rivelatori e ne correliamo le correnti,
ciascuna proporzionale al modulo quadrato del campo sul rivelatore, avremo:
2)1(21
22
21
)2( )2,1( GIIEEG +>==<
dove 2EI = è l’intensità su un rivelatore, proporzionale al modulo quadro del campo
corrispondente. Abbiamo dunque il prodotto delle due intensità più un termine aggiuntivo
che è il modulo quadro della coerenza che avremmo misurato con un interferometro di
campo.
Nello scrivere questa formula abbiamo utilizzato una proprietà esclusiva dei processi
stocastici gaussiani. In effetti , la luce proveniente dal una stella è la somma di moltissimi
contributi scorrelati, e perciò dobbiamo aspettarci una statistica gaussiana, come già
discusso nella Premessa.
Il secondo termine è il modulo quadrato della coerenza prima considerata con Young ;
pertanto il suo decrescere al variare della separazione fra 1 e 2 ci dà quella informazione
sull’area di coerenza e pertanto sul diametro stellare che un normale interferometro di
campo avrebbe perso per via dei disturbi turbolenti incorsi fra 1 e 2.
Se ora la separazione fra 1 e 2 non è spaziale ma temporale, possiamo confrontare segnali
sullo stesso rivelatore separati anche di frazioni di secondo (che in un interferometro di
Michelson avrebbero implicato una separazione di migliaia di kilometri fra i due specchi ! )
e così evidenziare fluttuazioni lente in un materiale che diffonde in modo disordinato ( e
pertanto gaussiano) la luce di un laser stabilizzato.
51
E’ così che oggi si misurano le dimensioni di macromolecole o la mobilità di microrganismi
in acqua.
Qui dobbiamo fare un excursus sui processi gaussiani. Il teorema del limite centrale dice
che un effetto risultante dalla somma lineare di più cause scorrelate è gaussiano,quale che
sia la distribuzione statistica delle cause.
Ora la luce di una sorgente naturale (stella,fiamma) è somma di emissioni spontanee di
quanti di luce da atomi separati,perciò dobbiamo aspettarci che una qualunque sorgente
ottica sia gaussiana, mostri cioè l’effetto Hanbury-Brown e Twiss in )2(G ; invece
)1(G
ci dice quanto a lungo nel tempo e nello spazio si mantengano le coerenze, cioè quanto è
stato efficace il nostro processo di filtraggio per isolare da una sorgente naturale un’onda
quasi-pura.
Le considerazioni gaussiane che abbiamo esposto sono tipiche di un qualunque effetto che
risulti come somma lineare di più cause; pertanto la statistica gaussiana è tipica di
qualunque processo vicino all’equilibrio termico, in cui le fluttuazioni fuori dall’equilibrio
siano sufficientemente piccole da sommarsi linearmente.
Queste considerazioni vengono meno quando c’è di mezzo una dinamica non lineare;
vedremo che per un laser viene meno l’ipotesi gaussiana, in quanto il confinamento del
campo fra gli specchi permette alti valori di campo, che influenzano la dinamica laser –
Statistica dei fotoni e soglia laser
La rivoluzione introdotta da Glauber era che una sorgente coerente è tale a qualunque
ordine statistico e non deve avere alcun residuo gaussiano. Si può vedere immediatamente
che per un campo coerente,come definito in fig.9,l’ampiezza è costante e proporzionale alla
coordinata dell’oscillatore armonico corrispondente che in fig.9 abbiamo chiamato α .Per
un campo coerente non c’è effetto Hanbury-Brown e Twiss:si verifica subito che
[ ] ,2)1()2( GG = e generalizzando [ ] ,)1()( nn GG = per qualunque n.
52
Piuttosto che ricorrere a interferometri generalizzati (n=1: Young e Michlelson; n=2:
Hanbury-Brown e Twiss ;n>2 : schemi complicati ), conviene misurare direttamente la
distribuzione statistica dei fotoconteggi su un rivelatore, cioè misurare quante volte P(n)
compare il numero n di fotoni quando in media si misura <n>: abbiamo visto in fig.9 che
per uno stato coerente si deve trovare la statistica di Poisson.
Nel 1965, grazie alla nostra sofisticata strumentazione, fornivo l’evidenza sperimentale che
la statistica dei fotoni in un laser a singolo modo era di tipo Poisson, cioè con una varianza
pari al numero medio; il cuore dell’apparato di misura era un rivelatore di singoli fotoni e
un analizzatore multicanale che classificava i conteggi accumulati entro un certo intervallo
di tempo. Per mostrare la differenza con una lampada all’equilibrio termico (il cosiddetto
corpo nero) occorreva isolare dalla lampada un singolo modo di emissione, osservandone
la radiazione entro un tempo ed un’area di coerenza. Ma sappiamo dalla formula di Planck
che il numero medio di fotoni in un singolo modo di corpo nero, alle normali temperature
delle lampade, è molto minore di uno; quindi qualunque deviazione da Poisson, espressa
da correzioni al numero medio che contengano il quadrato del numero medio sono del
tutto irrilevanti ( faccio un esempio : se il numero medio di fotoni è 1/100, il suo quadrato,
1/10000, è trascurabile in confronto, laddove se è 2 ,il quadrato,4, è ben evidente).
Se analizziamo il nucleo concettuale della sorgente in equilibrio, vediamo che per il
campo,essendo rifornito dalle emissioni spontanee dei vari atomi,senza peraltro
correlazioni mutue, deve valere il teorema del limite centrale. Dunque il campo di un modo
di corpo nero è come una particella browniana disturbata da un rumore a distribuzione
gaussiana. Per assicurare questo comportamento, basta sparpagliare la luce di un laser
sulle piccole irregolarità casuali di un vetro smerigliato, ottenendo un ventaglio di fascetti
non equivalenti, e poi muovendo il vetro far entrare nell’apertura del fotorivelatore un
fascetto per volta, per un intervallo di tempo sufficiente a raccogliere alcuni fotoni; al
passare del tempo si raccolgono fascetti diversi e si costruisce un insieme statistico
gaussiano. Il numero medio di fotoni per ogni prova si può fare maggiore di 1 dosando
l’intensità del laser di illuminazione, e pertanto le correzioni rispetto alla Poisson sono ben
misurabili.
53
Fig.12 Distribuzioni statistiche dei fotoconteggi(asse verticale) in funzione del numero di conteggi (asse orizzontale); se il fotorivelatore ha alta efficienza, esse rappresentano fedelmente le probabilità dei fotoni della sorgente osservata. L=luce laser; G= luce gaussiana; S= sovrapposizione dei due campi che hanno dato separatamente L e G. Il tempo di osservazione T di ogni misura è molto piccolo rispetto al tempo di coerenza della sorgente gaussiana; in tal modo ogni misura si può ritenere “istantanea”.
La fig.12 mostra la prima evidenza sperimentale della statistica dei fotoni per un laser e per
una sorgente gaussiana ottenuta facendo diffrangere un fascio laser da un vetrino
smerigliato rotante e raccogliendo la luce entro un’area di coerenza e un tempo di coerenza.
Si riporta anche la statistica del campo risultante dalla sovrapposizione lineare del campo
laser e del campo gaussiano.I punti sperimentali e le distribuzioni teoriche sono in ottimo
accordo.
Le curve teoriche emergono dalle seguenti considerazioni. Partiamo dalle distribuzioni
statistiche che ci si aspetta per un modo di campo, in funzione dell’ampiezza complessa del
campo. Avremo per i tre casi considerati: i) una distribuzione statistica concentrata su un
unico valore per il campo coerente; ii) una gaussiana a media nulla per il campo
gaussiano; iii) una gaussiana centrata attorno al campo coerente per la sovrapposizione dei
due campi.
In corrispondenza risulterà per i fotoni: i) una distribuzione di Poisson , come spiegato in
fig.9; ii) se affettiamo la gaussiana in piccole porzioni centrate su valori diversi di campo,a
ciascuna spetterà una Poisson ma con diverso numero medio, la somma risultante di tutte
54
queste Poisson dà la cosiddetta distribuzione di Bose-Einstein, teoricamente prevista nel
1925 e mai prima osservata in un sistema sperimentale; iii) con lo stesso metodo di somma
dei vari contributi calcoliamo la statistica dei fotoni della sovrapposizione.
Un primo indicatore della differenza fra le tre statistiche è dato dalla varianza (scarto
quadratico medio attorno al centro >< n della distribuzione) >∆< 2n del numero di fotoni:
i) nel caso coerente essa è pari al numero medio >< n ; ii) nel caso gaussiano , essa è il
numero medio più il quadrato del numero medio ;iii) nella sovrapposizione,si ha una
specie di interferenza statistica:oltre alle somme delle due varianze dei campi componenti
si ha il doppio del prodotto dei due valori medi.
Queste aspettative sono verificate con estrema accuratezza dalle misure di fig.12
In poche parole, avevamo fornito la prima evidenza del fatto che un laser genera degli
stati coerenti laddove una sorgente naturale, quelle con cui abbiamo che fare tutti i giorni,
genera la statistica di Bose-Einstein .
Ulteriore evidenza: valutiamo l’effetto Hanbury Brown e Twiss temporale , confrontando
due valori di intensità misurati a tempi diversi con un unico rivelatoremi: per luce laser
non c’è niente ,come ci si aspetta per un campo coerente per cui abbiamo visto che
[ ] ,2)1()2( GG = invece per una sorgente gaussiana c’è a tempi brevi il contributo extra ,
che decade con il tempo di coerenza della sorgente. La nostra misura mostra che il tempo
di coerenza della sorgente gaussiana sintetica è circa 1 millisecondo per una velocità
periferica del disco smerigliato di 1.25 cm/s. Dunque un laser ,illuminando
uno ”sparpagliatore” casuale di luce ,può misurare per effetto Hanbury Brown e Twiss
temporale tempi di correlazione lunghi rispetto a quelli accessibili a un interferometro di
Michelson (alla velocità della luce,avremmo dovuto posizionarne gli specchi a una distanza
di 150 km ! ). Questoa misura è diventata di routine nell’indagine sulla mobilità di
sparpagliatori microscopici, da molecole a batteri.
Prima della nostra misura, molti si aspettavano per il laser una distribuzione di Bose
Einstein. Allora l’errore quale era ? Quello di attribuire al laser una configurazione di
equilibrio termodinamico (cui sono associate fluttuazioni gaussiane). Il laser è fuori
equilibrio termico. Qui è opportuna un’ulteriore considerazione: tutto quello che è
interessante è fuori dall’equilibrio;altrimenti è banalmente sotto il dominio del teorema del
limite centrale.
55
Questa situazione di non-equilibrio fu esplorata teoricamente negli anni seguenti da molti
gruppi; in particolare da Willy Lamb e Marlan Scully a Yale negli Stati Uniti e da
Hermann Haken e collaboratori a Stoccarda .
La trattazione di Haken era la più abbordabile e la possiamo descrivere intuitivamente così:
sappiamo di avere una certa folla di atomi e cerchiamo di convincere questi atomi a
mettersi insieme. Finché le perdite verso l’esterno sono molto alte, questi atomi non hanno
un segnale di ritorno, il cosiddetto feedback, da parte degli specchi che stanno confinando
il campo, in modo tale da solidarizzarsi. Se mettiamo degli specchi intorno a questa folla di
atomi, questi specchi rimandano parte del segnale; quando la quantità di segnale
rimandato è sufficiente, obbliga gli atomi a mettersi tutti insieme. Da una situazione in cui
la perdita, la fuoriuscita di fotoni, prevale sul guadagno legato a questi comportamento
solidale o una situazione dove il guadagno prevale sulle perdite nasce la soglia, e allora
abbiamo la vera e propria azione laser.
La spiegazione intuitiva è in fig.13 e si basa sulle considerazioni euristiche sviluppate nel
1937 da Lev Landau per spiegare i comportamenti che si osservano vicino al punto critico
di una transizione di fase termodinamica. In quel caso , il parametro che si varia per
effettuare la transizione è la temperatura .Il laser ,a differenza delle sorgenti normali ,non è
in equilibrio termico, ma - come una macchina- preleva energia dagli stati eccitati degli
atomi emettitori e la cede sotto forma di fotoni all’ambiente circostante,attraverso gli
specchi.
Nella fig.13 rappresentiamo un atomo come un sistema a due livelli, che assorbe fotoni se
si trova nello stato basso (figura in alto) ed emette fotoni se si trova nello stato
eccitato,dove può essere collocato da un meccanismo che in gergo si chiama “pompa”
(figure nel mezzo e in basso).Nel primo caso,la polarizzazione indotta è proporzionale al
campo cambiato di segno.L’energia di scambio è il prodotto di polarizzazione per campo
con un segno meno;quindi al variare del campo sarà rappresentata dalla parabola in alto a
destra. La corrispondente probabilità del campo ha un massimo nel minimo di energia;
essa è la gaussiana a media nulla disegnata sotto la parabola. Dunque un sistema atomico
che sia nello stato basso (cioè in equilibrio a una temperatura molto inferiore all’energia
della transizione, che peraltro nel caso ottico corrisponde a diecine di migliaia di gradi
Kelvin) interagendo con un campo,gli dà la probabilità gaussiana discussa un po’ prima.
56
Fig.13 Se un atomo a due livelli è nello stato basso, in presenza di un campo E risonante ne assorbe un fotone e si comporta da assorbitore, dando una polarizzazione P negativa nel campo E. L’energia di interazione è –P.E è pertanto una parabola convessa . All’equilibrio, la distribuzione del campo è un esponenziale nell’energia, e perciò una gaussiana in E, con un massimo a E=0.Intuitivamente, il campo è come una particella confinata entro la parabola:può fluttuare all’interno ma non uscirne. Se ora portiamo l’atomo nello stato alto (riga intermedia) ,esso diventa un emettitore . Rispetto al caso precedente, la polarizzazione ha segno opposto, e pertanto la corrispondente curva di energia è una parabola capovolta, che non può più confinare il campo: non si ha per E una probabilità definita. Se l’emissione ha luogo in cavità , allora il campo E intrappolato diventa molto alto e occorre considerare una correzione alla polarizzazione (riga in basso) .In altre parole, l’atomo arrivato in basso può assorbire un fotone e poi riemetterne un altro: abbiamo impegnato tre fotoni per estrarne uno solo: si tratta di una riduzione del guadagno di cui teniamo conto con un termine negativo in P cubico in E. La corrispondente energia è quartica, con la parte vicino all’origine che è praticamente la parabola capovolta . Dunque, sopra la soglia laser, si hanno due picchi di probabilità stretti attorno ai minimi. I due campi corrispondenti hanno lo stesso modulo, ma fase opposta.
57
Se ora l’atomo è nello stato alto, emette un fotone,ma con ciò cambia segno sia la
polarizzazione sia la curva di energia,che presenta una instabilità:un campo inizialmente
nello stato di vuoto(che parte cioè da zero) diverge a sinistra o destra verso valori sempre
maggiori.
Non abbiamo però tenuto in conto che ,per effetto degli specchi, nella cavità si accumula
un alto valore di campo, per cui lo stesso atomo che aveva emesso un fotone ne assorbe un
altro per poi ri-emetterne un terzo(vedi in basso) il processo rallenta la crescita esplosiva
del numero di fotoni emessi,ed equivale a una correzione nella polarizzazione: se il termine
a un fotone è lineare nel campo, questa correzione è cubica. L’energia associata è una curva
con due minimi:vicino all’origine,abbiamo la parabola capovolta che dà luogo all’instabilità
su descritta; ma in corrispondenza dei minimi si hanno due massimi di probabilità nel
campo . Essi corrispondono a due campi coerenti con la stessa ampiezza ma con fasi
opposte. Dunque ,il vincolo considerato fissa l’ampiezza laser ma lascia libera la fase.
Come aveva detto Einstein nel 1915, l’emissione di un atomo può essere stimolata dalla
presenza di una folla N di fotoni,o spontanea cioè in assenza di fotoni. Nel primo
caso,l’ulteriore fotone si adegua alla folla N cui appartiene e ne ha la stessa fase. Nel
secondo caso, la fase è a caso,anche se rimane il vincolo di concentrarsi del modulo appena
visto. A differenza di una lampada,dove ogni emissione è spontanea,qui solo una frazione
1/N sarà spontanea;pertanto la perdita di fase,e il conseguente allargamento spettrale della
riga emessa, è rallentato come 1/N e diviene molto piccolo per grandi N (formula di
Schawlow e Townes).
In effetti ,nelle misure di statistica dei fotoni il rivelatore è sensibile al modulo quadrato
del campo, quindi non abbiamo informazione di fase; per ricuperarla,dobbiamo ricorrere
ad esempio a un interferometro di campo, per esempio a un Michelson.
Calibrando gradualmente lo scarto fra guadagno e perdite del laser, tra il ’66 e il ’67
abbiamo esplorato la zona di soglia, cioè il trapasso da una lampada convenzionale
(emissione da atomi scorrelati) al laser (emissione collettiva) verificando la teoria al
riguardo formulata da Hermann Haken e che Glauber aveva semplificato limitandosi ad
attribuire alle sorgenti di campo un comportamento classico. Si era così passati dall’Ottica
quantistica all’Ottica statistica.
58
Fig.14- Al variare della pompa o delle perdite in cavità (cioè della differenza fra guadagno e perdite) si passa da sotto-soglia =assorbitore (1) a moloto sopra-soglia = laser coerente (3). Nel mezzo,quando guadagno=perdite, si ha la soglia per cui scompare la parabola e resta solo il fondo piatto della parte quartica dell’energia(2).Con l’analogia di una particella confinata, vediamo subito che le fluttuazioni del campo sono ampie e lente:parleremo di fluttuazioni critiche e rallentamento critico.
La fig. 14 intercala fra le situazioni (1)(lampada naturale che dà campo gaussiano) e ( 3 )
(laser che dà stati coerenti) la cosiddetta soglia (2) in cui c’è bilanciamento fra guadagno
laser e perdite, e scompare il termine parabolico dalla curva di energia. Restano le code
confinanti,di conseguenza la distribuzione di probabilità è piatta.Ciò dovrebbe avere due
conseguenze: le fluttuazioni sono molto ampie e siccome il confinamento è lasco sono
anche molto lente. Dovremmo trovare una divergenza critica nell’ampiezza delle
fluttuazioni e nel loro tempo di correlazione, come mostrato da Landau per le transizioni
di fase termodinamiche.In effetti,date le nonlinearità peculiari delle equazioni laser, non si
hanno divergenze.Le fig.15 riporta le nostre misure di H2, che è una combinazione di
momenti statistici che va da 1 a 0 passando da un campo gaussiano a un campo coerente.
Come si vede ,l’accordo fra teoria e punti sperimentali è molto buono.
59
Per variare la differenza fra guadagno e perdite, non modifichiamo la pompa,per evitare
effetti lenti associati (ad esempio, variazioni termiche) , ma facciamo “scivolare” la
posizione in frequenza di un modo (cioè la sua posizione rispetto al centro della riga
atomica) variando la lunghezza della cavità ottica mediante un cristallo piezoelettrico.Per
dare l’idea della delicatezza dell’esperimento,due punti contigui vicino a soglia
corrispondono a variare la lunghezza della cavità di meno di un raggio di Bohr (0.05
nanometri) su 1 metro.
Fig.15- Misura della statistica dei fotoni attorno alla soglia laser,sull’asse verticale riportiamo una opportuna combinazione H2 dei momenti primo e secondo,che vale 1 per un campo gaussiano e 0 per un campo coerente. Sull’asse orizzontale ,riportiamo il momento primo M1 della distribuzione dei fotoni (cioè l’intensità di luce) normalizzato al valore M10 che assuma alla soglia.Si noti che la scala orizzontale logaritmica copre oltre tre decadi. I punti sperimentali,in buon accordo con la curva teorica di Haken, indicano che le fluttuazioni critiche che ci aspettavamo dalla fig.14 sono smorzate dai termini di ordine superiore .
In fig.16 mostriamo il rallentamento critico misurando non il tempo di correlazione ma il
suo inverso ,cioè la larghezza della riga spettrale. L’esperimento mostra come una teoria
semplificata ( con un'unica costante di decadimento)darebbe risultati in contrasto con le
misure,che invece confermano la teoria completa.
60
Queste serie di misure hanno rappresentato la trasformazione di quella che veniva
chiamata elettronica quantistica ( ingegneria dei dispositivi laser) in ottica quantistica,
Quest’ottica quantistica non si limitava a vedere gli stati limite, gli stati coerenti e dunque a
descrivere soltanto la situazione finale del campo, ma anche la transizione di fase, il
passaggio graduale da una situazione disordinata a una coerente.
Tutti questi fenomeni(effetto Hanbury Brown e Twiss, distribuzioni statistiche)sono stati
recentemente verificati per “laser atomici”,ottenuti estraendo fasci atomici coerenti da una
trappola dove è confinato un condensato di Bose-Einstein
Fig.16 _Larghezza di riga del campo laser (reciproco del tempo di correlazione delle fluttuazioni del campo) in funzione della differenza fra guadagno e perdite, proporzionale al parametro a. L’asse orizzontale, è anche calibrato, come nella figura precedente , dal rapporto I/I0 fra l’intensità locale I e quella a soglia I0. In alto,riportiamo una taratura in numero medio di fotoni, tenuto conto dei vari parametri della misura (trasmissione dello specchio di uscita dal laser,efficienza del rivelatore,attenuazione dei filtri ottici inseriti nel cammino): nel nostro caso, a soglia il laser ha 1700 fotoni. Un rallentamento critico dovrebbe dare a soglia un valore nullo alla larghezza di riga; invece si ha un minimo a 1400 Hz. Si riportano due curve teoriche: la prima è una approssimazione a una sola costante di tempo; la seconda è un calcolo esatto; l’esperimento conferma la seconda.
61
- Laser in transitorio
Inserendo nella cavità laser un otturatore,si oscura uno specchio e si hanno forti perdite; se
anche si aumenta il guadagno, non si riesce a portare il laser sopra soglia e si è nella
situazione (1) di fig.14. Se l’otturatore viene aperto in un tempo brevissimo (circa 1
nanosecondo) il laser si trova ad avere una curva di energia come (3), ma la sua statistica è
ancora quella di (1). In fig.14 avevamo stabilito una corrispondenza fra curve di energia e
statistiche di campo in quanto i passaggi da (1) a (3) erano graduali e per ogni situazione si
era raggiunto lo stato di equilibrio.
Qui invece il campo si trova in cima alla parabola capovolta di (3), e deve “cadere” verso la
buca di destra o di sinistra a seconda che esso sia a destra o sinistra dell’origine nella
gaussiana (1). Se osserviamo con un rivelatore di fotoni veloce ,che estrae una singola
misura in 50 nanosecondi, e per vari ritardi a partire dal tempo t=0 in cui abbiamo aperto
l’otturatore, costruiamo un insieme di misure. Dopo ogni singola misura,riportiamo il
sistema alla condizione iniziale e ri-apriamo l’otturatore per raccogliere un altro campione
dell’insieme . Per un ritardo fisso ,avremo “congelato” la statistica dei fotoni in una
situazione intermedia fra l’iniziale (1) (otturatore chiuso ;sotto soglia,Bose-Einstein) e la
finale (3) (laser in equilibrio sopra soglia; Poisson). In fig.17 vediamo che fra la situazione
iniziale e quella finale (separate da circa 8.8 microsecondi), le statistiche intermedie sono
alquanto “larghe”.
La fig.18 mostra che , mentre il valor medio >< n sale dal valore sottosoglia a quello
finale in modo regolare, le fluttuazioni-misurate dalla varianza >∆< 2n ,passano per un
picco anomalo che non ha equivalente nelle misure stazionarie (si confronti con
l’andamento di H2 in fig. 15). Questo effetto,osservato qui per la prima volta sembrava
alquanto anomalo:Spedii i miei dati sperimentali al mio amico Hannes Risken, del gruppo
di Haken, ed egli elaborò un calcolo di transitorio sull’equazione statistica del laser;ebbene,
l’effetto veniva confermato.
Successivamente, esso veniva ritrovato nei passaggi rapidi attraverso altri cambiamenti di
fase in fisica degli stati condensati. La spiegazione è semplice:la gaussiana iniziale è un
insieme di condizioni iniziali sparpagliato :i campi più alti cadranno più rapidamente
rispetto a quelli attorno allo zero lungo la parabola capovolta. Dunque ,finché non
interviene la saturazione dovuta alla buca confinante, abbiamo una amplificazione
anomala delle fluttuazioni iniziali.
62
Fig.17 Sei distribuzioni di fotoni , misurate ciascuna impostando un ritardo fisso fra il tempo in cui si apre l’otturatore e il tempo di osservazione. I valori dei ritardi sono elencati in figura. Dopo ogni singola misura, il laser viene riportato allo stato iniziale sotto soglia (otturatore chiuso) e quindi si ripete il ciclo finché si sia raccolto un insieme di dati che permetta di costruire la corrispondente distribuzione. Le curve sono normalizzate ad area uguale. La prima ha ancora un profilo di Bose-Einstein, mentre l’ultima è quasi una Poisson. Nel mezzo si hanno distribuzioni molto allargate.
Vedremo nel seguito che ,se effettuiamo un transitorio in una transizione di fase in un
sistema esteso (come a dire : un laser a molti modi invece che a singolo modo) osserviamo
fenomeni analoghi a quelli che si aspettano i cosmologi come “traccia” del Big-bang.
63
Fig.18 - Statistica dei fotoni di un laser in transitorio. Il numero medio di fotoni sale in
modo monotono al crescere del tempo, invece le fluttuazioni salgono a un massimo e poi
decrescono. Ai tempi iniziali, le fluttuazioni sono basse perché è anche molto basso il
numero di fotoni; a tempi lunghi,ci sono molti fotoni,ma il regime coerente ha basse
fluttuazioni; a tempi intermedi il sistema è “incerto” su come organizzarsi e ciò provoca
variazioni da una osservazione all’altra : quindi qui la curva delle fluttuazioni ha un
massimo. Si noti che,se invece si va lentamente da sotto a sopra soglia, il picco
scompare,in quanto di volta in volta il laser ha il tempo per adeguarsi alla nuova situazione.
Nel ’68 fui invitato a parlare di questo filone di statistica dei fotoni da Prigogine a Bruxelles
e lui intuì immediatamente che tutto questo era il segreto che spiegava il perché esistevano
certe instabilità chimiche che erano state osservate, ma non ancora capite, dai chimici russi
Belousov e Zhabotinski. Immediatamente costruì una teoria delle oscillazioni chimiche
coerenti a partire da una situazione chimica disordinata, in cui c’erano tutti gli ingredienti
del laser , e questa teoria fu uno dei suoi risultati per cui nel 1977 gli fu assegnato il Nobel
per la chimica. Come osservazione storica ,nel presentare le instabilità chimiche non si
fece mai nessuna menzione del fatto che queste cose erano già state viste e spiegate nei
laser.
Fu a questo punto, nel ’69, che venni chiamato al MIT come visiting professor, e vi rimasi
per un anno accademico. . In questo periodo ho introdotto gli stati atomici coerenti,
64
estendendo le proprietà di coerenza che Glauber aveva dimostrato per gli oscillatori
armonici del campo di radiazione ad altri sistemi fisici come gli atomi.
Nel frattempo avevo vinto una cattedra di fisica a Pavia e sono tornato in Italia. A questo
punto mi sono trovato in una situazione di un qualche disagio, perché da una parte avevo
l’obbligo di insegnamento e di costituire un gruppo di lavoro, dall’altra il mio gruppo di
ricerca, colleghi di lavoro e strumentazione, restava al CISE. Rischiavo di non concludere
niente né da una parte né dall’altra.
L’ottica all’INO: Caos e Complessità
Nel 1975 il Ministro della Pubblica Istruzione mi propose di esplorare le possibilità di
rilancio in direzione moderna dell’Istituto Nazionale di Ottica (INO). L’INO era nato nel
1927 sotto la guida di Vasco Ronchi, un ottico classico che aveva introdotto un metodo di
ispezione delle aberrazioni di una lente così semplice che lo stesso tecnico esecutore della
lavorazione poteva controllare in situ la qualità del suo operato, senza demandare il
controllo a un laboratorio specializzato.
Negli anni fra il 1927 e il 1945 l’INO assicurava la progettazione e il collaudo del dispositivi
ottici, fomentando inoltre lo sviluppo di un’industria nazionale del vetro ottico e formando
personale specializzato per l’industria e per le forze armate; in tal modo si eliminava la
dipendenza dall’estero nelle tecnologie ottiche
La fine della Seconda Guerra Mondiale aveva visto l’ottica rimpiazzata in molti settori
dall’elettronica (ad esempio il RADAR in telemetria). Inoltre si riduceva l’esigenza di
formazione e progettazione industriale, in quanto l’industria italiana post-bellica aveva
rinunciato ad esser presente nell’ottica.
65
Peraltro, come anticipato parlando dei Quattro significati dell’ottica, dopo aver
ottimizzato i percorsi della radiazione luminosa, va affrontato il problema: come vediamo?
Abbiamo accennato prima al conflitto fra comportamentismo e Gestalt. Senza entrare nel
merito del conflitto, negli anni ’50 Ronchi esplorava alcuni degli inganni in cui incorre il
nostro sistema visivo nella elaborazione dei segnali in arrivo sulla retina. Nasceva allora
all’INO una scuola di giovani fisici che- in controtendenza col trend corrente in quegli anni,
in cui era di moda il nucleare- elaborava metodi di laboratorio per valutare le risposte
visive a stimoli precisi. Col senno di poi, se fosse già stata attivata la rete www, l’attività di
questo gruppo avrebbe avuto una visibilità internazionale sufficiente a garantirne la
stabilità. Nel frattempo Ronchi curava le ricadute didattiche, creando una scuola per
optometristi, cioè per quei tecnici della visione che risolvono i problemi visivi non legati a
patologie ( in tal caso,si ricorre al medico).
Nel campo puramente strumentale l’’INO sembrava aver esaurito la sua funzione , ma
l’introduzione dei laser e dei dispositivi opto-elettronici poteva restituire all’ottica il ruolo
preminente che essa aveva avuto nei decenni precedenti.
Ronchi nel frattempo aveva raggiunto l’età del pensionamento e il Ministero ripensò al
ruolo da affidare all’Istituto, proponendomi di assumerne la responsabilità; ciò voleva dire
una cosa precisa: si privilegiava la fisica e ingegneria di laboratorio rispetto all’ottica della
visione. All’inizio ero molto incerto, ma dopo aver valutato la possibile autonomia da
comitati di finanziamento (ahimè, i meccanismi di assegnazione delle commesse di ricerca
erano allora,in Italia, ben lontani dagli standard degli altri paesi; c’è da aggiungere che
poco è cambiato ad oggi,2007 !) e visto la bellezza del posto, mi convinsi che poteva
trattarsi di un’esperienza interessante.
Mi ci impegnai ,e ne è nata - nel mio settore di competenza- una attività di risonanza
internazionale. Questa scelta sacrificava un po’ l’area di scienza della visione; ricordo che
nei miei colloqui di inizio 1975 con Ronchi, di cui conservo un vivo e gradito ricordo, alle
sue spiegazioni su come vediamo gli obbiettavo riduzionisticamente che le correlazioni
interessanti in un campo di radiazione luminosa potevano essere estratte da foto-rivelatori
ed elaborate da un computer. Oggi , dopo aver esplorato la complessità, sto rivisitando i
problemi che Ronchi mi presentava, ma con un apparato strumentale e concettuale che
allora non era ancora emerso nella scienza.
66
Focalizzandoci sui settori di fisica e ingegneria dei sistemi ottici, l’INO ha espresso negli
ultimi decenni dei picchi di eccellenza in tre settori, denominati Ottica quantistica,
Metrologia ottica e Opto elettronica.
Nel settore Ottica quantistica, i risultati scientifici conseguiti hanno riguardato la
dinamica delle sorgenti laser, la nascita del caos deterministico, il suo controllo e
sincronizzazione, la nascita e competizione di forme (pattern) in sistemi ottici estesi, gli
effetti ottici non lineari (generazione di frequenze ottiche somma e differenza),
spettroscopia ad alta risoluzione. All’ interno di questo settore mi sono ritagliato il mio
campo specifico di ricerca , che ha riguardato i primi punti (dinamica caotiche,pattern in
sistemi estesi. Il bello di un Istituto piccolo consiste nel fatto che il responsabile non fa solo
il manager, ma ha anche tempo per fare ricerca; nel mio caso ho avuto la fortuna di
stabilire una diarchia con un direttore generale , Chiara Burlamacchi, che, conoscendo i
“pallini” dei fisici (lei stessa ne ha sposato uno), si preoccupava di farsi carico di molti dei
problemi di governo, lasciandomi tempo e spazio per continuare a far fisica.
Nel settore Metrologia ottica, i ricercatori hanno realizzato sistemi interferometrici ad
alta risoluzione, tecniche olografiche innovative; sono stati messi a punto metodi non
invasivi per l’analisi delle opere d’arte (dipinti, sculture); sono stati realizzati sistemi di
microscopia ad alta risoluzione; è stato attivato un laboratorio metrologico che fornisce
certificazioni sulla qualità di prodotti ottici.
Infine, in Opto-lettronica si sono sviluppati metodi e dispositivi per il controllo di qualità e
di processo in campo industriale e per l’analisi biomedica. In questo settore sono stati
ideati e brevettati numerosi sistemi optoelettronici. Nell’ambito di reti di collaborazione
europee, sono stati progettati e realizzati sistemi ottici per una vasta gamma di
applicazioni (energia solare, identificazione di difetti strutturali, controllo di deformazioni,
controllo di superficie meccaniche ecc.).
A partire dal 2000 la responsabilità dell’INO è passata ad altri, ed io sono tornato
completamente all’Università; rimangono attive alcune delle mie collaborazioni
scientifiche con miei vecchi allievi, oggi ricercatori maturi.
A parte la mia linea di ricerca personale, sono molto orgoglioso per le brillanti persone che
sono riuscito a motivare nel corso della mia vita, trasferendo loro il mio entusiasmo; alcuni
sono in cattedra in università italiane, altri hanno posizioni di prestigio in università e
istituti di ricerca all’estero; altri sono rimasti negli Istituti fiorentini e sono divenuti figure
ben note nel contesto scientifico internazionale.
67
Una volta insediato all’Istituto, fui messo di fronte ad una scelta. Per portare la statistica
dei fotoni oltre il punto raccontato nel capitolo precedente, si doveva esplorare non più gli
stati coerenti, che ormai avevo sviscerato, ma stati non classici, quindi non creati dal
meccanismo della corrente classica di Glauber, ma generati da meccanismi quantistici
legati a singoli eventi atomici . Questo richiedeva un tipo di strumentazione sofisticata che
non credevo di poter importare all’istituto, per questioni di denaro e di risorse umane.
- Come nasce il caos
C’era peraltro un’altra linea di indagine: tutte le implicazioni legate alla dinamica non
lineare.
La dinamica lineare è quella delle molle elastiche : ut tensio sic vis diceva Hooke nel ‘600;
cioè la forza elastica è proporzionale allo spostamento, perciò nell’equazione degli
spostamenti compaiono solo termini lineari. La dinamica lineare è semplice:primo vale la
sovrapposizione degli effetti, cioè qualunque variabile può essere espressa come somma di
variabili mutuamente indipendenti; secondo, ognuno di questi oggetti indipendenti si può
allungare o accorciare ad infinitum senza che ci sia un salto (detto biforcazione) verso un
comportamento qualitativamente differente.
Abbiamo visto che il cuore del laser è l’emissione stimolata , la cui velocità è proporzionale
al prodotto x.y del numero di fotoni x in cavità per il numero di atomi y nello stato
eccitato. Questo termine, essendo un prodotto , è non-lineare; esso va inserito nelle due
equazioni che regolano l’evoluzione di x e y :dunque per il laser non valgono le due
proprietà dei sistemi lineari.
Quando in dinamica non lineare c’è una biforcazione da una situazione ad un’altra è come
aprire un vaso di Pandora, perché un po’ più in là c’è un’altra biforcazione, e poi un’altra
ancora e così via. È come un albero che sta ramificando: se abbiamo sviscerato il modo in
cui è avvenuta la prima biforcazione (quella che ha portato da luce disordinata a luce laser
e che abbiamo già descritto) , non ci si stupisce che ne possano avvenire delle altre. Allora,
se la prima biforcazione è stata il passaggio dal disordine all’ ordine, che succede
andando un pochino più in là? Succede che questa cascata di biforcazioni multiple porta al
caos deterministico, che ha la peculiarità di essere retto da poche equazioni, a differenza
del disordine statistico in situazioni di massima entropia,che invece richiede al limite un
numero infinito di variabili interagenti.
Il caos deterministico era nato con Poincaré intorno al 1890. Il re di Norvegia aveva
messo in palio un premio per chi fosse riuscito a risolvere il problema dinamico a 3 corpi.
Ricordo che da Newton in poi si calcolavano le orbite dei pianeti fermandosi a problemi a
68
2 corpi : un centro di attrazione, e un corpo che si muove attorno ad esso. Il problema a 2
corpi è facilmente risolvibile: la Terra orbita intorno al Sole, la Luna orbita intorno alla
Terra, e così via. Il problema di fondo è che la Terra non si limita ad orbitare intorno al
Sole ma è anche perturbata dagli altri corpi del sistema solare. Supponiamo di prenderne
soltanto 3. Che succede quando passiamo da 2 a 3 corpi? Poincaré osservò che nasceva una
situazione, che abbiamo già illustrato in Premessa (fig.1). Pur essendo le equazioni
dinamiche in numero limitato, si doveva considerare un elemento nuovo. La soluzione era
sempre quella delle equazioni di Newton e potentissimi teoremi dimostrano che a
partire da una certa condizione iniziale la soluzione esiste ed è unica. Il problema non
affrontato era quello non della traiettoria, che è unica, ma della sensibilità di questa
traiettoria alle condizioni iniziali. È’ il problema della stabilità trasversa. Guardiamo
trasversalmente rispetto alla traiettoria; la traiettoria, rispetto a un piccolo spostamento
della condizione iniziale , può essere stabile oppure no. Se lo è , allora la soluzione
perturbata deve tendere di nuovo verso la traiettoria di partenza (fig.1 a sinistra).
Ogni perturbazione traversa si muove in un potenziale ,che se è confinante, mantiene la
traiettoria in un fondovalle; se invece è la cima di un colle, allora , appena si sposta la
condizione iniziale di una piccola quantità, la traiettoria che ne emerge scivola a destra o
a sinistra (fig.1 a destra) . Quello che Poincaré stabilì è che appena si passava da 2 corpi a 3
corpi questo comportamento era generico, non una eccezione.
Nelle osservazioni sul sistema solare, ci pare di osservare orbite stabili perché
confrontiamo osservazioni raccolte a distanze di centinaia di anni, mentre i tempi
caratteristici di “scivolamento” lungo il declivio instabile sono dell’ordine di centinaia di
migliaia di anni.
Perché la dinamica lineare non è affetta da caos? Perché, anche se abbiamo un problema a
1000 variabili, esso è equivalente a 1000 sistemi indipendenti, ciascuno che evolve
separatamente. Se invece c’è una non-linearità, la separazione in variabili indipendenti
non è più fattibile , e dobbiamo affrontare il problema globalmente.
- Il Caos nei laser
Per osservare questi moti in maniera controllata dobbiamo realizzare situazioni di
laboratorio,in cui i tempi siano accessibili ai nostri apparati di misura. Prendiamo un
sistema come il laser, e le equazioni che lo descrivono. Per tener conto della emissione
stimolata, c’è un equazione che ci dice come va il numero x di fotoni e una che ci dice
come va il numero y di atomi eccitati; in ciascuna delle due equazioni figura il termine
proporzionale al prodotto x.y, ( col segno + per i fotoni e – per gli atomi) che dice a che
69
velocità si amplifica il numero x di fotoni, a spese del numero y di atomi . Sono dunque 2
equazioni accoppiate, pertanto non ci può essere caos.
Introduciamo un terza variabile z che vada a disturbare x (ad esempio,pilotando un
modulatore di perdite inserito fra i due specchi della cavità laser) oppure y (perturbando la
pompa che fornisce gli atomi eccitati) . La z può essere variabile in vari modi, ne illustro
due : fissiamo una dipendenza temporale per z , prelevandola all’uscita di un generatore
di frequenze, oppure chiamiamo z l’uscita da un rivelatore dell’intensità di luce x in
uscita dal laser: diremo che abbiamo un feedback , cioè un ritorno da x a se stesso per il
tramite di z.
Avendo introdotto una legge di variazione per z, siamo passati da 2 a 3 equazioni e in
condizioni opportune dovremmo osservare caos.
Per primi abbiamo dato evidenza di comportamento caotico in un laser, utilizzando laser a
CO2 costruiti all’INO e pertanto controllabili. Per anni abbiamo esplorato tutti gli
scenari che conducevano al caos, alla ricerca dell’elemento che trasformava un laser da
stabile a caotico. Quando si compra un laser, chi lo vende non fa altro che esaltarne
l’affidabilità , garantendo che è in grado di eseguire misure in un laboratorio biologico,
farmacologico, industriale, o misure da campo topografiche o ambientali, o di fare da
sorgente controllata per manipolazioni chimiche o mediche o telecomunicazioni, insomma
tutto quello che richiede una stabilità. In realtà basta un piccolissimo disturbo esterno per
trasformarlo in un sistema caotico.
Ricapitolando, se- oltre al feedback che viene dai due specchi che confinano il laser e di cui
teniamo conto nell’equazione per x- rimandiamo indietro un po’ della luce in uscita con
un feedback ottico( mediante un terzo specchio) o con un feedback elettronico, questo
segnale di feedback rappresenta la terza variabile z che può indurre caos
Un particolare tipo di caos: HC
Il caos indotto da feedback ha una regione di comportamento particolare. In un segnale
caotico, ci aspettiamo che la regione di spazio che ospita le traiettorie venga riempita in
maniera quasi uniforme da una matassa di segnali che vanno in tutte le direzioni (tutte le
orbite che si allargano in fig.1 a sinistra). Ora, per certi valori dei parametri di controllo
( quelli che aggiustiamo noi in laboratorio:pompa, amplificazione sul cammino di feedback,
ecc)questa regione può essere visitata soltanto da un orbita molto regolare e pur tuttavia
70
quest’orbita incorpora in maniera criptica il caos che non è più evidenziato dalla geometria
delle orbite, ma da irregolarità temporali.
Avere un’orbita regolare vuol dire partire da un punto A, fare un giro completo e tornare
ad A. Il problema è dopo quanto tempo si torna in A: se si torna in A dopo un tempo più o
meno lungo, allora si ha un caos temporale, quello che abbiamo scoperto nei laser con
feedback. Si esce dalla condizione di laser spento, con un grosso impulso di luce che
chiamiamo spike, dopo di che si va ad una piattaforma e la permanenza su questa
piattaforma è più o meno lunga. C’è infine un ritorno alla situazione di laser spento, ma
dopo tempi più o meno lunghi.
Ora, questa situazione è caratterizzata da 3 aspetti: un grosso impulso di luce, una sosta (di
durata fissa) nel punto che corrisponde al laser spento e un a sosta (di durata variabile )
nella zona di sella che corrisponde al laser in condizione vulnerabile. La sella infatti, se
osservata nella direzione longitudinale del cavallo, sembra un oggetto stabile, perché se
una pallina che rotoli in questa direzione, va sul punto di minimo. Ma se la osserviamo a
90°, vediamo che questo punto è instabile, perché la pallina può scappare
L’arrivo ad un punto di sella, la dipartita da un punto di sella, il percorso fuori e il ritorno
al punto di sella è quella che si chiama un orbita omoclinica. Se si considera che la sella
non è il solo punto di ritorno delle orbite,ma che queste vanno dalla sella al punto in cui il
laser si spegne per poi tornare alla sella,diremo l’orbita con due punti visitati eteroclinica,
e il corrispondente caos HC (heteroclinic chaos).
71
4
Fig.19- Segnale sperimentale di intensità di uscita da un laser a CO2 con feedback in regime HC (caos eteroclinico). (a):Sequenza di impulsi (spike) quasi identici, separati da intervalli (ISI= interspike intervals) erratici, indicazione di caos, come d’altronde si può vedere dai piccoli segnali non ripetitivi nell’intervallo inter-spike. (b):zoom di due impulsi successivi (si veda la magnificazione della scala temporale) per mostrare la ripetibilità dei segnali alti, le spikes. Si noti che se introduciamo una soglia possiamo isolare le spikes cancellando i segnali bassi caotici. (c): riportando su tre assi il valore I(t) dell’intensità al tempo t e i due valori dopo piccoli ritardi τ e 2τ (metodo di embedding) si costruisce uno spazio delle fasi tri-dimensionale che ci mostra come l’orbita si chiuda ad ogni giro (più o meno lungo a seconda del valore di ISI).La figura è ottenuta su molte spikes successive. La parte della spirale percorsa da un sola linea corrisponde agli impulsi alti ripetitivi; la matassa caotica verso il centro corrisponde agli impulsi bassi non ripetitivi.
Queste cose risultano più chiare se ispezioniamo i risultati sperimentali (fig. 19). Il segnale
di intensità in uscita dal laser consiste in un treno di impulsi geometricamente uguali
(come si può veder meglio nello zoom intermedio su due impulsi successivi).La parte piatta
in alto corrisponde a zero intensità e il segnale si sviluppa verso il basso. Ogni grosso
impulso ( che d’ora in poi chiameremo spike) è seguito da una oscillazione smorzata verso
72
una regione di intensità non nulla,su cui il segnale permane per un tempo più o meno a
lungo; in quest’ultima regione si possono osservare piccole oscillazioni irregolari.
Da questa regione l’intensità passa alla piattaforma di valore zero,dove permane un tempo
fisso per poi intraprendere un’altra orbita.In basso abbiamo ricostruita l’orbita
tridimensionale.
Caos omoclinico=ritorno a sella S in 3D
Caos:α < γ
Oscillazione periodica : α = γ
Suscettibilità χ = risposta/stimolo
Fig.20 - Caos omoclinico Traiettoria nello spazio delle fasi di un sistema caotico che
torna allo stesso punto di sella S attraverso un ramo stabile e ne fuoriesce attraverso un
ramo instabile (caos omoclinico). Rappresentando il segnale in funzione del tempo,si
hanno impulsi (spike) P di forma uguale ma che si ripetono a tempi caotici, in quanto il
punto rappresentativo sosta più o meno a lungo in S. Vicino ad S il sistema rallenta ed è
molto sensibile a un disturbo esterno (suscettibilità alta) .
La parte cruciale di HC è il ritorno a l punto di sella dove la permanenza è più o meno
lunga (fig.20).Nell’intorno del punto di sella ,il sistema HC è molto sensibile a un piccolo
stimolo esterno; sfruttiamo questa proprietà per sincronizzare il laser in regime HC a un
segnale esterno (fig.21) . Quando la frequenza esterna è vicina alla frequenza “naturale” di
HC (ci si riferisce alla frequenza media degli ISI = interspike intervals, i quali per quanto
visto non hanno una frequenza fissa) allora si un bloccaggio 1:1.
73
13
Fig.21- Sincronizzazione dell’intensità laser rispetto ad una modulante esterna dell’ordine dell’1% applicata a un parametro di controllo.(a): Se la frequenza è vicina alla frequenza interna dello HC si ha un locking 1:1; (b)e (c): a più basse frequenze,si hanno locking 1:2 e 1:3; (d): a più alta frequenza,si ha locking 2:1(si denota con locking un bloccaggio delle posizioni temporali)
Data la genericità di HC (esso non è limitato al laser a CO2 con feedback, ma è comune a
molti modelli dinamici ) e alla sua adattabilità per sincronizzazione a stimoli esterni ,si può
congetturare che un orologio biologico,per essere “elastico” e adattabile a varie situazioni
ambientali, operi con questa dinamica.
Diamo in Tabella un elenco di orologi biologici.
Dedicheremo il capitolo seguente allo studio dei ritmi neuronali e alle implicazioni
percettive e cognitive.
74
Tabella : Orologi biologici
Ritmi neuronali 0.01-10 s
Ritmo cardiaco 1 s
Oscillazioni Calcio 1 s a parecchi minuti
Oscillazioni biochimiche 1-20 min
Ciclo mitotico 10 min a 24 h
Ritmi ormonali 10 min a parecchie ore
Ritmi circadiani 24 h
Ciclo ovario 28 d (umano)
Ritmi annuali 1 anno
Oscillazioni ecologiche anni ( )
- Nascita di forme (patterns) in sistemi ottici estesi Finora abbiamo considerato laser a singolo modo. Riferendoci alla notazione introdotta in
fig. 10 per l’interferometro di Young, possiamo dire che abbiamo costruito una cavità fatta
di due specchi affacciati di diametro d , separati di L ,in modo che l’angolo geometrico d/L
accetti un solo angolo di diffrazione λ/d.
Chiamiamo numero di Fresnel F il rapporto fra angolo geometrico e angolo di diffrazione.
Risulta dunque )/(2 λLdF = . Finché F=1,avremo un solo modo. Se ora F>>1, la cavità
potrà accettare N1=F >>1 onde piane distinte. Fin qui abbiamo sviluppato un argomento
75
unidimensionale.In 2D ,dobbiamo tener conto che lo specchio ha area 2d e che ogni
angolo solido di diffrazione vale ( )2/ dλ . Perciò il numero di modi distinti che possiamo
vedere sarà dato dal quadrato di F: 2
12
2 FNN == .
Di questo ci rendiamo conto se allarghiamo un fascio laser e lo inviamo contro una parete
non liscia, ma con piccole rugosità. Vedremo una granulosità (speckle) perché la nostra
pupilla sta accettando molti angoli di diffrazione riflessi dalle rugosità.
Se variamo di poco l’orientazione, le speckles cambiano posizione.
Data la casualità delle rugosità, le relazioni di fase fra le varie onde piane variano
irregolarmente. Muovendo la visuale,possiamo dire che raccogliamo un campo gaussiano,
come succedeva col vetro smerigliato ruotante con cui abbiamo sintetizzato la luce
gaussiana in fig.12.
Quando le onde sono in fase, avremo un picco di intensità. I picchi saranno separati in
media di una distanza ξ data dal diametro d dello specchio diviso il numero N1 di modi in
una dimensione.
Questa ξ è dunque la separazione media fra due domini distinti in un campo di
fluttuazioni gaussiane.
Fra un picco e l’altro , ci sarà un punto in cui le fasi cancellano il campo totale , sia la parte
reale sia l’immaginaria, e avremo 0=ℑ=ℜ EE .In questi punti (fig.22) la fase è
indefinita (la fase è l’angolo che ha per tangente il rapporto EE ℑℜ / , che in tal caso dà
0/0); nasce una singolarità di fase , che si evidenzia perché sommando attorno a quel
punto le velocità spaziali delle variazioni di fase si ottiene un valore non nullo pari a π2±
(che chiamiamo carica topologica).Siccome queste singolarità sono separate di ξ ,ne
avremo su tutta l’area osservata un numero pari al numero dei picchi, cioè N2. Le
singolarità di fase sono un aspetto topologico di un campo d’onde e possono essere
osservate anche nelle onde del mare come vortici.
76
Fig.22 – Singolarità di fase in campo d’onde 2D con molti domini correlati.Il fatto che la
somma dei gradienti di fase attorno a una singolarità dia un valore non nullo ci autorizza a
chiamare vortici queste singolarità, in analogia ad un campo di velocità in un fluido.
In laboratorio, abbiamo realizzato oscillatori ottici ad alto numero di Fresnel F inserendo
in una cavità un piccolo cristallo fotorifrattivo, che –illuminato da un laser ( inclinato
rispetto agli specchi,per non restare intrappolato) - ne “sparpaglia” la luce sui modi della
cavità contribuendo con un forte guadagno sufficiente a superare le perdite e superare la
soglia di oscillazione per i vari modi.
Siccome un fotorivelatore sente il modulo quadrato del campo,non può registrare
direttamente l’informazione di fase, come già discusso per il laser. Se però sommiamo sul
rivelatore il campo con singolarità di fase più un’onda piana proveniente da un laser di
riferimento, facendo il modulo quadrato,il doppio prodotto riporta la differenza di fase fra i
due campi.
77
Fig.23A- Singolarità di fase in un oscillatore fororifrattivo, visualizzata per battimento con
un’onda piana di riferimento co-direzionale fornita da un laser.
Fig. 23B- Inclinando il fascio di riferimento, si ottengono frange a fase uguale,con
interruzioni in corrispondenza alle singolarità. La visualizzazione mostra una somiglianza
con un cristallo periodico interrotto da difetti.
78
In tal modo ,possiamo ricostruire la fase attorno a una singolarità di fase e evidenziare
dopo un giro un salto pari a π2± ( fig.23 A), Se ora il fascio laser di riferimento ,invece di
essere coassiale al campo di cui vogliamo evidenziare i difetti, è inclinato di un certo angolo,
otterremo per interferenza delle frange quasi parallele, che si interrompono su una
singolarità (fig.23 B); questa è visualizzata come un difetto in un reticolo
cristallino,pertanto d’ora in poi la chiameremo difetto. A un difetto attribuiamo un segno
+ o – a seconda di come è orientata l’interruzione. Le interruzioni +/- corrispondono
rispettivamente alle cariche topologiche π2± .
Dallo schizzo di fig 22 a) ci aspettiamo in media un ugual numero di “ +” e “-“. Invece fig.
23 B riporta un caso sperimentale con 6 “+” e 1 “-“ . In effetti finché siamo a basso F (pochi
modi : N2=F2= 7 quindi F è fra 2 e 3) non vale la parità, perché il campo continua fuori dal
contorno delimitato dallo specchio e le linee di fig. 22 si chiudono fuori dalla regione
osservata. Senza appesantire con una ulteriore figura, diciamo che appena F è
sufficientemente alto (maggiore di circa 10) i difetti di segno opposto si compensano in
numero.
Abbiamo usato sistemi ottici ad alto F per esplorare la nascita di forme (pattern) in sistemi
ottici.
Finora abbiamo discusso le relazioni di fase a caso fra un numero grande di modi
indipendenti. Se il guadagno fotorifrattivo, e di conseguenza la non linearità, aumenta, i
modi si comporteranno come individui con mutui accoppiamenti e avremo una situazione
complessa, come discussa : è quanto stiamo esplorando in questo momento ; al riguardo si
veda la fig.29.
Negli anni ’90 abbiamo esplorato in sistemi passivi (cosiddette valvole a cristalli liquidi)
tutte le simmetrie imposte da vincoli esterni ; in tal caso non si hanno oscillatori ,ma per
effetto di vincoli di simmetria imposti dall’esterno, una particolare forma (pattern) può
essere stabilizzata attraverso una biforcazione .Questo tipo di biforcazioni verso una
specifica forma era stato descritto teoricamente da Alan Turing nel 1952 con riferimento
alle non linearità delle reazioni chimiche in un mezzo esteso ,e chiamato morfogenesi
79
chimica; essa può spiegare la strutturazione degli organi a partire dall’uovo nella vita
embrionale.
Un resoconto dettagliato sulle forme in ottica è dato in F.T.Arecchi, S. Boccaletti e
P.L.Ramazza "Pattern formation and competition in nonlinear optics", Physics Reports,
318,pp.1-83 (1999).
Dunque, anche nel caso passivo, la nascita di un pattern definito è un processo non lineare
a soglia. Una volta stabilita la configurazione coerente, le relazioni di fase sono fisse e i
difetti scompaiono.
Se ora si induce in un sistema esteso un transitorio come quello studiato prima nel laser a
singolo modo,dovremmo partire da N2 difetti e arrivare a un pattern coerente; i difetti si
distruggono per mutue collisioni : è come se in fig. 22 a) spostiamo la linea tratteggiata
finché essa non interseca più la linea intera.
Facciamo in modo che il transitorio abbia luogo con una salita graduale , non
istantaneamente, ma in un tempo qτ (che chiamiamo quench time), del parametro di
controllo che pilota da sotto a soprasoglia; quando si è vicino alla soglia si ha un
rallentamento critico come discusso in fig. 14 e 16, e il numero di difetti si “congela” finché
la salita non abbia portato lontano dalla regione di soglia. Se pertanto osserviamo il
sistema alla fine della salita, prima che comincino le mutue collisioni,osserveremo un
numero di difetti iniziale tanto più alto quanto più ripida è la rampa. Nell’esperimento del
1998 riportato in fig. 24 misuriamo un dipendenza del numero di difetti dal reciproco
della radice quadrata di qτ . Si noti che i solchi osservati e i corrispondenti difetti sono
intrinseci del pattern generato, cioè sono già osservabili come variazioni di intensità, senza
bisogno di aggiungere un laser esterno di riferimento come nel caso delle singolarità di fase.
Nel 1976 Tom Kibble aveva ipotizzato che, essendo il Big-bang una transizione di fase
avvenuta in un certo lasso di tempo, potevano essere ancora presenti nel cosmo difetti
residui. Negli anni successivi, Wojtek Zurek estese la nozione a molti fenomeni a soglia in
materia condensata,valutando la legge di scala che noi abbiamo verificato in un sistema
ottico non lineare esteso. Un racconto affascinante di come si possa fare una cosmologia
sperimentale con delle osservazioni di laboratorio è stato dato da Tom Kibble su Physics
Today del settembre 2007.
80
Fig.24- Difetti in transitorio in una transizione di fase relativa a un sistema ottico nonlineare esteso;in a),il cerchietto localizza uno dei difetti presenti; in b)mostriamo l’accordo fra i punti sperimentali e la relazione di scala di Zurek.
81
- Fisica della cognizione e Creatività : un
elogio dell’oblio
Il titolo può sembrare strano: a parte quanto già discusso nella premessa , perché si parla
di oblio, anzi, se ne fa l’elogio?
Per rispondere a questa domanda, dobbiamo inoltrarci in un territorio inter-disciplinare.
L’approccio è quello di un fisico, quindi ci porremo da questo punto di vista per affrontare
questioni che sono ritenute piuttosto di competenza delle neuroscienze e delle scienze
cognitive.
Cercheremo di formulare risposte soddisfacenti alle seguenti domande:
-come vediamo?
-come trasformiamo le percezioni visive in messaggi carichi di significato?
A questo punto scopriremo delle ambiguità non eludibili: nella misura in cui ci poniamo
domande di senso, ci accorgiamo che possiamo arrivare alla stessa risposta partendo da
percezioni diverse; viceversa, possiamo attribuire significati differenti allo stesso oggetto
percepito, senza variarne la descrizione fenomenica; c’è una specie di complementarità fra
fenomenologia e significati.
Nasce allora il terzo problema:
-come delimitiamo l’ambito dei significati per avere descrizioni fenomeniche
obiettive,cioè invarianti per tutti?
La discussione che segue è divisa in due parti. Anzitutto affrontiamo la prima e seconda
domanda, descrivendo il processo della visione e come da percezioni di oggetti e delle loro
relazioni spaziali e temporali passiamo a una ricerca di significati. Quindi parliamo della
visione scientifica e della sua obiettività, raggiunta rinunciando a domande di significato.
L’ideale sarebbe un unico codice di lettura del mondo. Se tutto fosse riconducibile entro
questo unico codice, qualunque problema potrebbe essere risolto da un computer
sufficientemente potente. D’ora in poi designeremo come macchina di Turing tale
computer; i suoi algoritmi dovrebbero farci risolvere qualunque problema; la complessità
(algoritmica) di un problema sarà allora definita come la lunghezza in bit della sequenza
di istruzioni più corta che risolve il problema. Vedremo come le molteplici definizioni di
uso corrente siano varianti di questa definizione fondamentale. Chiameremo
complicazione una misura di complessità relativa a un preciso codice descrittivo.
82
Qui però interviene un fatto cruciale, di cui abbiamo preso atto solo da alcuni decenni. I
processi dinamici che implicano il caos deterministico, pur essendo descritti da un codice
relativamente semplice (un numero piccolo di equazioni non lineari accoppiate), perdono
in maniera non sanabile l’informazione sullo stato iniziale da cui erano partiti, e pertanto
possono approdare a tutto un ventaglio di possibili scenari. L’incertezza che avevamo
esorcizzato rinunciando ai significati riemerge. Rimpiazzando l’informazione persa con
nuova informazione proveniente dalle osservazioni, può essere opportuno ridefinire nuove
variabili e regole di mutuo accoppiamento, cioè cambiare codice di descrizione.
Nell’ambito di un codice unico, la complessità-complicazione cresce al crescere della
velocità di perdita dell’informazione(fig 3 in Premessa,linea retta che parte dall’origine)
Invece, il cambiamento di codice può portare a una nuova descrizione a bassa complessità:
è questo l’aspetto saliente della creatività scientifica. Siccome è stata essenziale la perdita
di informazione propria dei processi caotici, abbiamo aggiunto nel titolo un elogio
dell’oblio.
Quando un fenomeno è descrivibile da codici diversi, parleremo di complessità semantica
distinta dalla complessità algoritmica definita in precedenza. E’ opportuno annettere un
valore, o significato, a un codice nella misura in cui esso sia associato a gradi diversi di
complicazione. Vediamo dunque che una pluralità di codici equivale a quella pluralità di
significati che avevamo creduto di eliminare dal discorso scientifico.
Nel cambiare codice, cioè nel formulare un nuovo modello, dobbiamo introdurre nuove
ipotesi. Partendo da un certo gruppo di ipotesi, a ciascuna delle quali assegniamo con
argomenti di plausibilità un certo grado di probabilità a-priori, il confronto con i dati
sperimentali privilegerà una di queste ipotesi rispetto alle altre; avremo cioè probabilità a-
posteriori più aderenti alla situazione da descrivere. E’ questo il teorema di Bayes, che è la
base dell’inferenza scientifica, e che si è creduto di poter automatizzare dotando un
computer di un programma corrispondente e facendone così un sistema esperto, cioè un
sistema che elaborando un pacchetto di dati sia in grado di elaborare una diagnosi su un
certo fenomeno.
La probabilità a-posteriori sceglie l’ipotesi più opportuna per costruire un modello
procedurale. La ripetizione sequenziale di: formulazione di ipotesi − confronto con
l’esperienza − selezione dell’ipotesi con probabilità a-posteriori massima sembra
assicurare una procedura scientifica ottimale. Tale è in definitiva la strategia darwiniana di
mutazione e selezione del carattere che meglio si adatta all’ambiente: l’adattamento
(fitness) rappresenta la scalata del monte delle probabilità, verso valori sempre maggiori.
83
Vedremo però che la strategia bayesiana funziona solo in uno scenario con un singolo picco
di probabilità. In presenza di picchi multipli − come peraltro accade in situazioni
sufficientemente “complesse” (e qui usiamo il termine in senso qualitativo) − occorre
fuoriuscire dall’automatismo del teorema di Bayes e avere il coraggio e la fantasia di
inventare ipotesi non immediatamente in linea con la situazione finora osservata e
spiegata, cioè apprestarsi a scalare un monte di probabilità diverso da quello fino ad allora
seguito. Questa cesura con la procedura precedente rappresenta un cambiamento di codice
descrittivo, e – se confortata dai dati sperimentali – è la base per la formulazione di una
nuova teoria. Abbiamo dunque indicato dei salti discontinui non delegabili al computer:
essi sono la base della creatività scientifica, e rappresentano una scelta libera, non
determinata dalla situazione precedente, la guida sottostante è il controllo del caos già
anticipato in fig.2 ,e legato alla necessità di mantenere stabile una percezione per un tempo
sufficiente a decidere al riguardo.Si tratta di un atto squisitamente umano, che non ha un
equivalente nelle procedure di una macchina di calcolo.
Avendo dovuto introdurre uno scenario con molti picchi di probabilità, sembrerebbe
naturale associare il termine informazione (che nella definizione di Shannon è una misura
di probabilità) ai vari punti che si inerpicano su un picco particolare, e invece di chiamare
significato il paesaggio complessivo con una molteplicità di picchi.
Allora la complessità semantica può essere misurata dal numero di picchi distinti cui
corrispondono descrizioni scientifiche diverse.
Finora ci siamo mossi su un terreno puramente epistemologico, descrivendo nostri
procedimenti cognitivi che ci permettono di affrontare situazioni disparate. Che valore
ontologico dobbiamo attribuire al paesaggio a molti picchi di probabilità? Se l’immagine
rappresentasse il mondo come esso è, indipendentemente da noi, avremmo allora trovato
uno strumento per descrivere tutte le possibili teorie e quantificare la complessità
semantica. Vediamo però subito che non è così. Noi siamo simultaneamente spettatori ed
attori, e le nostre azioni conseguenti alle nostre valutazioni cognitive modificano lo spazio
delle probabilità prima vigente, in modo tale da dover considerare il nostro modello come
descrittivo di un passato che ormai non esiste più.
Consideriamo ad esempio uno studioso di econo-fisica, che formula descrizioni dinamiche
dei mercati finanziari. Se lo studioso ha elaborato una descrizione soddisfacente e ne
informa altri agenti o se ne vuole servire per giocare in borsa, immediatamente il suo
intervento causa reazioni multiple da parte degli altri agenti che alterano il paesaggio di
probabilità.
84
Si potrebbe obiettare che in molte situazioni l’atto di misura dell’osservatore non altera
sostanzialmente lo stato di fatto: se uno osserva le stelle non ne altera il moto. Ciò non è
più vero nel mondo quantistico, dove, per effetto dell’entanglement, una perturbazione
localizzata altera globalmente tutto il sistema. Effetti visibili di tal fatta sono oggetto di
sperimentazione fra chi sta cercando di realizzare computer quantistici; ma tutto ciò va al
di là di quanto si prefigge questa presentazione, che
si limita ad esplorare le implicazioni di complessità e creatività nell’ambito della fisica
classica, senza invocare effetti quantistici.
- Come vediamo
Fra i vari canali percettivi, scegliamo quello visivo per esplorare il passaggio da stimoli
esterni a percezioni e l’organizzarsi di queste in cognizioni significative. Le operazioni di
cui parleremo hanno luogo nella corteccia cerebrale, cioè nello strato esterno del nostro
cervello che ha uno spessore fra i 2 e i 6 mm. La parte interna del cervello contiene sia le
connessioni fra neuroni della corteccia, sia organi cerebrali dove si conservano le memorie
di esperienze precedenti o che sono responsabili delle emozioni. Questi organi interni sono
accoppiati alla corteccia cognitiva da reti di feedback;ogni nuova percezione è pertanto
influenzata dalla nostra vita precedente e a sua volta arricchisce i nostri organi di memoria
ed emozioni.
A partire dal tempo t=0 a cui si presenta una immagine all’occhio,dopo circa 200 msec si
attivano i neuroni della corteccia visiva primaria,detta V1, e quelli delle aere visive
secondarie. Precisamente l’informazione viene separata su due percorsi diversi, che
rispondono alle domande: CHE COSA? e DOVE?, elaborando rispettivamente
l’informazione di forma-colore e di moto-relazioni spaziali e trasferendola alla PFC
(corteccia pre-frontale).
Nella PFC, l’informazione viene elaborata per circa 600 msec e poi trasferita alle aree
corticali motorie, che includono le aree linguistiche. In corrispondenza del valore che si
attribuisce a un segnale visivo, si attivano delle azioni (ad esempio, fuggire da un pericolo,
afferrare un utensile o del cibo, e in genere parlare di quel che si è visto).
85
La generalizzazione da percezioni a concetti corrisponde a mettere in connessione aree
corticali separate con l’aiuto di memorie. Le connessioni fra i due blocchi sono in ambo i
sensi, cioè la formulazione del concetto dà un feedback che riaggiusta i dettagli della
percezione. Invece la canalizzazione dai concetti agli spazi esecutivi procede a senso unico.
Le azioni possono influenzare i concetti non con un canale diretto di feedback ma
dall’esterno, in quanto osservate. Forse qui si attivano i neuroni specchio, recentemente
studiati da G. Rizzolatti a Parma. Questo neuroni si possono egualmente attivare se
l’azione viene compiuta da un altro agente.
In un vivente pluricellulare,cellule contigue comunicano mediante messaggi chimici. Un
neurone è una cellula cerebrale che in genere comunica per messaggi chimici
(neurotrasmettitori); ma nella sua struttura, oltre a un soma(corpo cellulare che svolge le
funzionidi metabolismo cellulare ed elaborazione dei segnali di ingresso per trasformarli in
segnali di uscita) ha dei canali di ingresso (dendriti) su cui raccoglie i neurotrasmettitori
da altri neuroni e dei canali di uscita (sinapsi)da cui trasmette segnali ad altri neuroni.
L’innovazione rispetto alle altre cellule è che il segnale elaborato nel soma viene codificato
in sequenze di impulsi elettrici stereotipati, o spikes (altezza circa 70 millivolt, durata circa
1msec) che si susseguono a distanze variabili. L’informazione chimica di ingresso viene
codificata nei tempi di arrivo degli spikes.Queste a loro volta scatenano alle sinapsi una
quantità di neurotrasmettitori che dipende dalla densità temporale degli spikes.
La trasmissione ha luogo in una linea elettrica (l’ assone) in cui lo spike si propaga con
forma costante a una velocità di circa v=102 cm/sec.
Siccome gli assoni hanno lunghezze che vanno da qualche micrometro fino al metro
(assoni dei nervi della spina dorsale), solo la propagazione elettrica assicura tempi di
trasmissione di frazioni di secondo.
Finora era stato ipotizzato che ogni neurone si comportasse come un circuito a soglia, che
si “accende” quando la somma algebrica dei segnali di ingresso (indicando con + i segnali
eccitatori e con – i segnali inibitori) supera un certo valore.In effetti,è più compatibile con
la codifica temporale fra neuroni diversi richiesta dal feature binding che ogni neurone
abbia già –in assenza di stimoli- un’attività spontanea di tipo caotico. Dato il carattere
stereotipato delle spikes,il caos è legato alla posizione temporale delle spikes, cioè il caos è
HC e la presenza di stimoli all’ingressso sposta la posizione temporale delle spikes.
86
L’area della retina che influenza una sola fibra del nervo ottico ha tipicamente dimensioni
di circa un millimetro di diametro. Questa regione è chiamata “campo ricettivo” della
cellula. Essa corrisponde ad un oggetto di circa 1 cm di diametro alla distanza di 2 metri.
- Feature binding (legame di configurazione)
L’integrazione neuronale consiste nell’instaurarsi di un legame fra neuroni anche distanti i
cui campi ricettivi hanno estratto dettagli diversi della stessa figura. Tale legame (feature
binding) rappresenta uno stato collettivo caratterizzato da tutti quei neuroni, anche
distanti, i cui treni di impulsi si sincronizzino. Studi psicofisici hanno mostrato che l’analisi
di scene visuali implica almeno due fasi. Nella prima, le strutture elementari degli oggetti,
il colore, il movimento e l’orientazione dei contorni, sono rivelate in maniera locale e
parallela. Successivamente, questi componenti sono connessi in unità organizzate per
fornire la base di una rappresentazione coerente degli oggetti. Come già mostrato dagli
studi degli psicologi della Gestalt, questo processo segue certi criteri che includono per
esempio la prossimità o la somiglianza delle strutture.
Un meccanismo per l’integrazione è necessario per molte ragioni. Per prima cosa, i campi
ricettivi dei singoli neuroni sono piccoli rispetto alle dimensioni tipiche degli oggetti. In
secondo luogo, il meccanismo deve agire su distanze considerevoli per permettere il
legame tra differenti aree visive. E’ oramai accettato che differenti classi di strutture di
oggetti siano elaborate in distinte aree corticali servendosi di “mappe di struttura” .
Quindi, l’attività neuronale di diverse aree deve essere integrata per stabilire una
rappresentazione degli oggetti complessi. Inoltre, un meccanismo di legame è necessario,
dal momento che sono spesso presenti nel campo visivo molti oggetti che attivano neuroni
in un grande numero di aree corticali. Allora si deve poter selezionare la struttura
corrispondente a un determinato oggetto, separando le risposte relative ad esso da quelle
dei neuroni attivati da altri oggetti per evitare un’illusoria identità di strutture.
E’stato suggerito che il problema del legame possa essere risolto da un meccanismo di
integrazione temporale consistente nella connessione in insiemi coerenti di neuroni
corticali grazie alla sincronizzazione delle loro scariche (il testo più aggiornato al riguardo
è dello stesso neuroscienziato che dagli anni 1990 ha guidato con i suoi collaboratori
questa linea di indagine e si trova in rete: W. Singer, Binding by synchrony,
Scholarpedia,2007) . L’assenza di sincronizzazione tra differenti insiemi potrebbe essere
utilizzata per isolare lo sfondo e ottenere una segmentazione delle scene visive ( fig. 25).
87
Feature binding (legame di configurazione)
Ogni cerchietto rappresenta un campo ricettivo che isola dettagli specifici (ad es. barra verticale).
Fig.25- Feature binding. Nella visione, ogni fibra ha un campo ricettivo limitato; quindi una figura estesa non è un continuum ma è dissezionata su molti canali, come un mosaico. Una percezione olistica emerge combinando gli stimoli separati su diversi campi recettivi attraverso una sincronizzazione dei treni di impulsi dei neuroni corrispondenti. La comunicazione neurale è basata su un codice per cui aree corticali diverse che devono contribuire alla stessa percezione sincronizzano i propri impulsi. L’emissione di impulsi da un sistema dinamico non lineare è un accordo fra stimoli bottom-up dai trasduttori (input ) e riaggiustamento dei parametri di ciascun neurone pilotato top-down (controllo)
Questo meccanismo di legame temporale evita i tranelli di precedenti modelli. Era stato
suggerito che oggetti complessi potessero essere rappresentati dall’attività di un numero
molto piccolo di neuroni o addirittura da uno solo. Un grave difetto di questa teoria del
neurone singolo o “neurone della nonna” è che ogni nuovo oggetto richiederebbe l’
“arruolamento” di nuove cellule dedicate nella corteccia visiva. Quindi il numero di
neuroni richiesto per un’adeguata rappresentazione di un ambiente visivo realistico
crescerebbe oltre ogni plausibile stima. Il legame temporale evita questa limitazione, dal
88
momento che gli stessi neuroni possono essere ricombinati in nuove strutture
semplicemente cambiando la loro relazione temporale.
L’assunto principale del feature binding è che la sincronizzazione stabilisca legami che non
sarebbero possibili se le uniche dimensioni di codifica fossero la frequenza degli impulsi e i
livelli di attivazione.
Infine, l’influsso top-down, dovuto a memorie già presenti che stabiliscono aspettazioni e
che riaggiustano le soglie di scarica dei vari neuroni in modo da sincronizzarli (tema che
riprenderemo parlando di ART), gioca un ruolo importante per la segmentazione di una
scena e l’isolamento dello sfondo.
- ART (Teoria della Risonanza Adattiva) e controllo del caos
L’apparente singolarità e coerenza di un’esperienza dipende da come il cervello esamina gli
eventi ambientali. Una tale elaborazione si concentra sul contesto. Se si guarda a
un’immagine complessa, come la fotografia di un volto noto, si è in grado di riconoscerla
all’istante, mentre è estremamente difficile individuarla guardandola pezzo per pezzo. Una
tale elaborazione dipendente dal contesto emerge a causa del fatto che il cervello opera sui
dati sensoriali in parallelo piuttosto che in sequenza.
Normalmente i segnali visivi provenienti da una certa scena raggiungono i nostri occhi
contemporaneamente. Per elaborare l’insieme come un intero, esso deve essere
ricodificato. Una tale operazione di ricodifica è detta “working memory”, e registra le
tracce di memoria a breve termine. Per identificare eventi familiari, il cervello confronta le
tracce a breve termine con le categorie che ha immagazzinato. A queste categorie si accede
usando le tracce della memoria a lungo termine, che rappresenta le esperienze precedenti
che sono state acquisite grazie ad un processo di apprendimento.
In qualche modo noi siamo in grado di apprendere rapidamente nuovi fatti, senza essere
costretti a dimenticarne altri. Come fa il cervello a conservare memoria stabile degli
avvenimenti precedenti, mantenendo allo stesso modo la plasticità necessaria per imparare
nuove cose?
E’ il dilemma stabilità-plasticità. Vi sono molti interessanti esempi che mostrano come il cervello potrebbe risolvere tale dilemma, grazie ad un approccio chiamato ART (Adaptive Resonance Theory) da Steve Grossberg. (S. Grossberg “The attentive brain” The American Scientist, 83, 439, (1995)).
I processi neurali sembrano basarsi su una caratteristica fondamentale: le nostre
percezioni vengono confrontate con precedenti percezioni. L’ART include due tipi di
memoria: quella a breve e quella a lungo termine. La memoria a breve raccoglie gli stimoli,
89
mentre quella a lungo cataloga le informazioni acquisite. Nell’ART l’informazione può
passare dalla memoria a breve a quella a lungo durante l’apprendimento, e fare il percorso
inverso durante il processo di richiamo.
Cooperazione fra stimoli e categorie memorizzate per formare una percezione
Fig.26- ART( adaptive resonance theory): cooperazione fra stimoli e memorie pregresse per formare una percezione: la nuvoletta centrale rappresenta gli stadi corticali alti dove ha luogo la sincronizzazione. Vi sono due tipi di stimolo. Uno (bottom-up) viene dagli stadi preliminari della visione; questo stimolo provvede indifferentemente lo stesso segnale, ad esempio, per barre orizzontali che provengano sia dalla donna sia dal gatto; la perturbazione top-down corrisponde a congetture interpretative formulate dalla memoria semantica. In altre parole la percezione non è impressione passiva, ma un processo attivo in cui gli stimoli esterni sono interpretati in termini di memorie passate. Un meccanismo di attenzione focale assicura che sia raggiunta una armonizzazione fra bottom-up e top-down; esso è stata chiamato ART da S. Grossberg.
90
Un processo top-down amplifica selettivamente alcuni aspetti di uno stimolo e ne
sopprime altri, aiutando ad accentrare l’attenzione su informazioni che corrispondono alle
nostre attese. (vedi Fig.26). Questo processo ci aiuta a filtrare alcune parti del segnale
sensorio, che rischierebbe altrimenti di essere incomprensibile, evitando in questo modo di
destabilizzare le categorie memorizzate precedentemente. Il meccanismo top-down può
risolvere il dilemma stabilità-plasticità, evitando che segnali spuri possano erodere le
categorie già memorizzate.
D’altro canto, se un’aspettazione top-down è in grado di influenzare uno stimolo bottom-
up, nulla impedisce che il segnale bottom-up così modificato possa riattivare le
aspettazioni top-down, innescando così un ciclo di feedback. Quando questo ciclo
raggiunge l’equilibrio, i segnali bloccano le attivazioni in uno stato risonante. Per spiegare
più chiaramente questa risonanza, richiamiamo (Fig. 25) che gruppi di neuroni devono
sincronizzare le loro scariche per dare l’idea del gatto. Ma i campi ricettivi corrispondenti
ai vari elementi del gruppo possono avere più o meno luminosità, contrasto, colore, e
pertanto dare luogo localmente a sequenze di impulsi diverse. Per raggiungere il “feature
binding”, bisogna che dall’alto (memorie pregresse) arrivi un’ipotesi interpretativa in
modo da creare il legame collettivo. Se la percezione è quella aspettata si crea una
risonanza tra top-down e bottom-up per cui la percezione viene confermata: abbiamo
visto giusto!
La risonanza tra top-down e bottom-up può essere vista come un controllo del caos ( si
veda fig.2), che allunga a sufficienza la permanenza di una certa informazione , fino a
permettere allo spazio esecutivo di decidere (azioni motorie o linguistiche). ( F.Tito
Arecchi, Complexity , Information Loss and Model Building: from neuro- to cognitive
dynamics, SPIE Noise and Fluctuation in Biological, Biophysical, and Biomedical Systems ,
Paper 6602-36(2007))
Un’area cerebrale percettiva fornisce un riconoscimento quando lo stato collettivo di
sincronizzazione vive sufficientemente a lungo (200 msec?). Plausibilmente, è a questo
punto che scatta la consapevolezza di un fenomeno percepito. Al riguardo, Semir Zeki ha
ipotizzato micro-coscienze separate sui canali di forma e di movimento, e ne ha tratto delle
implicazioni estetiche nella valutazione di un’opera d’arte figurativa ( S. Zeki, La visione
dall’interno. Arte e cervello, Bollati Boringhieri, Torino, 2003 ).
In conclusione, una percezione diventa significativa per effetto dell’esperienza pregressa. Il
bagaglio del già vissuto fornisce schemi interpretativi che forgiano la percezione in un
91
oggetto del mondo: si pensi a don Chisciotte che vedeva un gigante là dove il saggio Sancho
Panza vedeva un mulino a vento…
Se però siamo equilibrati psicologicamente, ripetiamo l’atto del vedere, ma con una
angolatura diversa, in modo da integrare diversi punti di vista ed eliminare, o almeno
ridurre, le ambiguità, non ci limitiamo a esplorare diverse interpretazioni, ma variamo
anche l’informazione di ingresso.
Nel mito della caverna di Platone, siamo come prigionieri incatenati in una grotta che
vedono del mondo solo le ombre proiettate sul fondo. Rispetto a Platone, abbiamo
imparato in secoli di attività scientifica a vedere le ombre sotto angolazioni diverse
(manipolando le stesse sorgenti di luce) e a connettere le varie memorie, in modo da poter
fare ricostruzioni tomografiche che ci danno gli aspetti tridimensionali, invece di limitarci
a una sola proiezione bi-dimensionale.
- Complessità e creatività scientifica- Il ruolo della mente
Gli aspetti salienti legati alla percezione sono riducibili a problemi di laboratorio
affrontabili mediante le accurate tecniche oggi sviluppate nell’ambito della neuroscienza.
Se tutta l’attività cognitiva umana consistesse in tali compiti, allora sarebbe giustificato
interpretare e prevedere qualunque comportamento in termini di macchina di Turing. Era
stata questa la domanda che Alan Turing si era posto nel 1950 e a cui i cultori della
cosiddetta “Intelligenza Artificiale forte” avevano dato una risposta affermativa.
Invece una riflessione sulla complessità e sulla differenza fra complessità algoritmica
(detta complicazione) e la complessità semantica ha evidenziato che esistono aspetti
creativi dell’attività cognitiva che implicano “salti” non alla portata del computer.
Chiameremo atti mentali i prodotti di un atto creativo, che esploriamo di seguito sia nel
caso scientifico sia nella poiesi artistica.
92
- Il teorema di Bayes – Informazione e significato
Bayes amava giocare d’azzardo; pertanto elaborò una procedura per fare buon uso delle
esperienze pregresse. In formula, il teorema di Bayes è così espresso( Thomas Bayes, An
Essay Toward Solving a Problem in the Doctrine of Chances, Philosophical Transactions of
the Royal Society of London 53, 370-418 (1763)):
).().()|.()|.(
datoprobipotesiprobipotesidatoprobdatoipotesiprob •
=
Spieghiamone il significato. Esso dice che la probabilità
prob.(ipotesi | dato)
di una ipotesi, condizionata da (è questo il significato della barra | ) un dato osservato, e
che chiameremo probabilità a-posteriori, è data dal prodotto della probabilità
prob. (dato | ipotesi )
che si verifichi il dato a partire da (condizionato da: | ) una certa ipotesi (e che chiamiamo
il modello) per la probabilità
prob.(ipotesi)
della ipotesi (probabilità a-priori: ci siamo inventati un pacchetto di possibili ipotesi a
ciascuna delle quali annettiamo una probabilità a-priori), diviso per la probabilità di
accadimento del dato sperimentalmente verificato
93
prob.(dato)
(dobbiamo ripetere la misura su tutta una classe di dati per riuscire ad assegnare quest’ultima).
Fitness= monte della probabilità
condizione iniziale
condizione finale
Prob. a-posteriori
Prob. a-priori
INFORMAZIONE
Darwin = strategia bayesiana
BAYES
Fig.27- Teorema di Bayes -Costruzione di modelli scientifici vieppiù adeguati agli esperimenti, per applicazione successiva del teorema di Bayes.La procedura è una scalata del monte della probabilità. Ad ogni punto sulla curva che porta al picco, il contenuto di informazione dipende dal valore locale di probabilità. Si noti che la strategia darwiniana di selezionare la massima fitness dopo una mutazione è una implementazione sequenziale del teorema di Bayes. Come mostrato in Fig. 27, se partiamo dalla condizione iniziale e formuliamo un ventaglio
di ipotesi, il verificarsi di un certo dato ci farà scegliere quella ipotesi che massimizza
l’espressione su riportata. Successive applicazioni del teorema equivalgono a una ascesa di
un monte delle probabilità secondo la direzione di massima pendenza, finché si raggiunge
il massimo.
La strategia evolutiva postulata da Darwin, come sequenze di mutazione e selezione del
mutante che meglio si adatta all’ambiente (cioè che ottimizza la fitness), è una applicazione
del teorema di Bayes, chiamando fitness il monte di probabilità da scalare.
94
Questa procedura può essere formalizzata in un programma. Si può realizzare un sistema
esperto, che elabori dati sperimentali estraendone una diagnosi; sarebbe utile in medicina,
gestione aziendale,ecc.
La procedura è a-semiotica, cioè è agnostica rispetto ai significati; alcuni cultori di IA
(intelligenza artificiale) ne hanno fatto un paradigma del modo di operare della nostra
mente.
C’è però un limite di fondo che blocca l’automatismo. Una volta raggiunto il picco, il
programma si ferma; qualunque insistere sarebbe una catastrofica caduta in basso. Forse è
quel che accade nelle estinzioni di massa di specie biologiche, senza bisogno di invocare il
meteorite che estingue i dinosauri.
STOP!!! Bayes senza semiosi
SIGNIFICATO
INFORMAZIONE
complessità
complicazione
Fig.28- Complessità semantica -Spazio delle probabilità con più massimi. L’ascesa verso un picco può essere automatizzata da un programma di scalata secondo il massimo gradiente. Una volta raggiunto il picco,il programma si ferma; qualunque insistere sarebbe una catastrofica caduta in basso. Il prendere atto che esistono altri monti, e si può ricominciare la scalata altrove, è un atto di creatività, corrispondente a una comprensione dei segni del mondo (semiosi) guidata da tutto il retroterra culturale e umano dello scienziato: operazione non delegabile a un computer. Chiameremo significato il fatto che esistano più picchi; esso va ben al di là dell’informazione. Possiamo identificare la complessità semantica con il numero di picchi,cioè di strategie di Bayes distinte che possiamo intraprendere; si tratta di un concetto non ben definito, in quanto il paesaggio a molti picchi varia man mano che varia il nostro grado di comprensione.
95
Il prendere atto che esistono altri monti (fig.28),e si può ricominciare la scalata altrove, è
un atto di creatività, corrispondente a una comprensione dei segni del mondo (semiosi)
guidata da tutto il retroterra culturale e umano dello scienziato: operazione non delegabile
a un computer. Quando si siano esaurite le possibilità legate alla scalata di un picco, il
sistema esperto non sa come continuare, invece l’agente umano può intraprendere un’
altra scalata, facendo un salto discontinuo rispetto alla procedura graduale prevista dalla
formula di Bayes.
Chiameremo significato il fatto che esistano più picchi; esso va ben al di là
dell’informazione, che nella definizione di Shannon, quantifica l’evoluzione della
probabilità nella salita su un versante. Possiamo identificare la complessità semantica con
il numero di picchi, cioè di strategie di Bayes distinte che possiamo intraprendere; si tratta
di un concetto non ben definito, in quanto il paesaggio a molti picchi varia man mano che
varia il nostro grado di comprensione; la fig. 28 è puramente indicativa: in genere,
operiamo in uno spazio con molte più di 2 dimensioni, e abbiamo molti più di 3 picchi.
Inoltre, la nostra interazione intenzionale col mondo entro cui siamo immersi ne altera il
numero di picchi.
- Da complicazione a complessità
In un universo chiuso, dove tutti gli oggetti sono già assegnati, non si ha complessità ma
complicazione, nel senso che:
- ogni problema è puramente sintattico, cioè implica la scelta e connessione di simboli
già fissati;
- le risorse necessarie per risolvere il problema possono crescere in modo patologico con
il numero di dati del problema.
Se invece siamo aperti all’irruzione di elementi nuovi, non preventivati nel costruire un
repertorio cognitivo, non possiamo ovviamente pretendere da demiurghi di conoscere il
nostro mondo e l’altro (che d’ora in poi chiameremo l’ambiente), ma dobbiamo limitarci a
registrare quali modifiche l’interazione con l’ambiente induca nel nostro mondo.
Un approccio di compromesso, che possiamo chiamare statistico, consiste nel ritenere
l’ambiente come un disturbo (noise) su cui siamo ignoranti; esprimeremo questa nostra
ignoranza prendendolo a massima entropia, cioè all’equilibrio termico, e caratterizzandolo
con una temperatura. All’interno del nostro sistema (quello su cui possiamo fare misure)
96
l’accoppiamento con l’ambiente a una certa temperatura (che diremo bagno termico)
provoca due conseguenze:
-dissipazione, cioè uno smorzamento della velocità iniziale;
-fluttuazione, cioè oscillazioni permanenti a media nulla attorno al punto raggiunto di
velocità nulla.
Su questa falsariga si è costituita una strategia di Intelligenza Artificiale che possiamo
chiamare la oracle machine. La macchina di Turing deterministica svolge solo operazioni
sintattiche, all’interno di un codice. Essa pertanto è limitata dal teorema di Gödel che pone
un limite alla procedura deduttiva a partire da un corpo di assiomi; la versione per
macchina del teorema di Gödel ,indicata da Alan Turing nel 1936, è che un computer
equipaggiato con un gruppo di programmi non sa quando fermarsi per un generico
pacchetto di ingresso. Se aggiungiamo a una macchina di Turing un noise, si fuoriescee dal
limite suddetto; questo trucco di sporcare un calcolo deterministico con un disturbo
permette di esplorare situazioni altrimenti non accessibili ed ha diversi nomi (annealing
simulato, macchine di Boltzmann).
Un approccio consiste nel riconoscere la struttura ricca dell’ambiente e nel porci il
problema semantico: possiamo dire cose significative del mondo esterno attraverso le
nostre acquisizioni percettive e cognitive? E’ questo il problema cruciale della creatività
scientifica .
Elenchiamo qui di seguito quattro esempi di come scienza creativa voglia dire introduzione
di un nuovo codice
Tabella- Da complicazione a complessità: quattro teorie recenti
1 - elettricità - magnetismo – ottica
equazioni elettromagnetismo
(Maxwell)
2- tavola di Mendeleev atomo quantistico
(Bohr,Pauli)
3 - zoo di 100 particelle elementari quarks (M Gell Mann)
4 - leggi di scala in transizioni di fase gruppo di ri-normalizzazione
(K.Wilson)
97
- La complessità in ottica
Quando abbiamo parlato di ottica dei sistemi a grande numero di Fresnel,abbiamo
considerato la coesistenza di più modi,separati da difetti, ma senza interazioni mutue.
Recentemente,amplificando l’effetto fotorifrattivo in cristalli liquidi, siamo riusciti a
creare un grosso guadagno in una cavità ottica ad alto numero di Fresnel.
Fig.29 Ottica complessa: diverse configurazioni di campo sopra soglia , in oscillatore
fotorifrattivo ad alto guadagno e alto numero di Fresnel. a) configurazioni istantanee di
intensità corrispondenti a differenti parametri di controllo; b) profilo spazio temporale di
intensità osservato a una certa sezione della cavità; taglio longitudinale fatto secondo la
congiungente due impulsi: dipendenza temporale.
98
In tal modo abbiamo molti modi simultaneamente sopra soglia ,come mostrato sulla
Physical Review Letters del 17 luglio 2007 , da cui abbiamo estratto la Fig29.
I picchi che vediamo non sono mutuamente indipendenti come i picchi delle speckles, ma
interagiscono attraverso termini che dipendono dalle fasi dei campi ,e che pertanto
possono avere valori diversi da sito a sito. Una configurazione come fig.29 rimane
“congelata” per un tempo dell’ordine di un decimo di secondo (tempo di rilassamento dei
cristallo liquido) che è molto lungo rispetto ai tempi di decadimento del campo ottico
confinato in cavità, che sono dell’ordine di 10-7 secondi. Dunque ,fra questi due tempi
abbiamo una situazione che somiglia ai vetri di spin; con il vantaggio che dopo un decimo
di secondo passiamo a un’altra replica,senza dover attendere i tempi astronomici di un
vetro.
Contiamo pertanto che questa configurazione ci dia una possibile simulazione analogica di
sistemi complessi .
Circolo e spirale ermeneutica
Un processo cognitivo attinge a un repertorio pre-costituito oppure si arricchisce di novità?
Risposta: lo spazio semantico non è precostituito ma si rinnova ad ogni esperienza. Il gioco
dinamico fra bottom-up e top-down nel cervello fa sì che a pari stimolo esterno non
corrisponda la stessa sequenza di spike (cioè lo stesso treno di impulsi neuronali) ; la
sequenza pertanto non è come il codice a barre dei prodotti al negozio, fissato a-priori; e
non ci sarà un futuro “grande inquisitore”, cioè un chip impiantato nel cervello che possa
leggere nel nostro privato e decodificare i nostri pensieri.
Illustriamo con due esempi recenti dalla neuroscienza. Inserendo elettrodi nei neuroni
olfattivi di una locusta (Gill Laurent, Caltech) , si è verificato che la sequenza temporale di
spikes che codifica un certo odore non varia in successive presentazioni dello stesso
oggetto odoroso all’animale: questo sembra avere un repertorio limitato, che non evolve.
Invece nel caso di un coniglio (Walter Freeman, Berkeley) la successiva esposizione
dell’animale allo stesso odore stimola distribuzioni di spikes differenti. Il coniglio si dirige
in ogni caso verso l’oggetto odoroso (si tratta di una banana), ma la seconda volta aggiunge
un elemento cognitivo in più: si tratta di qualcosa che ha già sperimentato!
99
A
A
B
B
Circolo ermeneutico :
senza perdita di informazione
Spirale ermeneutica(oltre Turing ):
rimpiazzo di informazione
es. locusta (G. Laurent)
es. coniglio (W. Freeman)
Fig.30- Circolo ermeneutico e spirale ermeneutica. Il primo concetto, usato nelle scienze umane da H.Gadamer (Verità e metodo,1960), riceve qui una formulazione precisa. Supponiamo di operare in uno spazio semantico finito. Scelta una connotazione A1 per la parola A, un’opportuna connessione sintattica mappa A1 su un particolare significato di B. L’operazione inversa riporta ad A1, per cui si parla di circolo. Se ora i significati non sono congelati a-priori,ma evolvono nella interazione con l’agente cognitivo, il ritorno avverrà su A2 differente da A1,in quanto nel frattempo l’agente ha vissuto una nuova esperienza: dobbiamo rappresentare i significati con un insieme non finito, ma suscettibile di essere accresciuto nel tempo; la sequenza di operazioni cognitive si presenta ora come una spirale ermeneutica non chiusa come il circolo.
Se rappresentiamo i vari significati come punti di uno spazio semantico (fig.30), per la
locusta, come per un robot, parleremo di “circolo ermeneutico”, cioè di connessione
(linguistica o percettiva) fra elementi pre-assegnati e invariabili a cui si ritorna
ineluttabilmente, per ricco che sia il repertorio accumulato. Invece per un coniglio (e a-
fortiori per un essere umano) parleremo di “spirale ermeneutica” cioè di crescita cognitiva
con l’esperienza. Si tratta di un programma non finitistico, in quanto non siamo confinati
entro un insieme a numero di elementi finito: il ripresentarsi di un’esperienza non è mai
uno stereotipo come per la locusta, ma ritorna arricchito dal nostro vissuto; come ben
100
sappiamo quando rileggiamo un poeta o riascoltiamo un pezzo di musica a noi caro dopo
molto tempo.
Il fatto che la spirale sia innescata da stimoli significativi (quelli per intenderci che
stimolano gruppi di neuroni a organizzarsi in una rete sincronizzata) dà un solido
fondamento realistico al nostro rapporto col mondo, escludendo il sospetto di relativismo.
- La scienza moderna e la complessità:
certezza e verità
Oggi all’indagine della natura si prospettano tre frontiere:
- il molto grande (il cosmo,la sua genesi e il suo futuro);
- il molto piccolo ( i costituenti ultimi della materia);
- la complessità, cioè l’organizzazione di enti con una propria individualità, se pur
costituiti da componenti noti separatamente: le mutue correlazioni fra i componenti
creano novità, cioè permettono all’ente composto dei comportamenti non
prevedibili( perlomeno:sulla scala temporale su cui prendiamo decisioni e su sui
pertanto ha senso fare previsioni) dalla conoscenza separata dei singoli
componenti.
Abbiamo parlato della terza frontiera, in quanto in essa si recupera anche la ricchezza e
l’articolazione dei nostri processi cognitivi e decisionali che abbiamo associati alla
creatività, cioè alla capacità di mutare codice descrittivo,perturbando una situazione
cognitiva con ulteriori variabili estratte da memorie pregresse,e arrivando così a un
controllo del caos, nel senso che si ha un rallentamento della perdita di informazione che ci
permette di intervenire, e decidere, in un contesto sufficientemente stabile.
Questi processi erano stati semplificati nel dibattito scientifico , al punto che l’attività
mentale si prospettava riducibile a operazioni computazionali.
101
Siamo in presenza di una rivoluzione nella nostra descrizione del mondo: sia il vecchio
approccio cognitivo, sia il vecchio programma scientifico, vengono meno in presenza della
complessità.
L’irruzione della complessità si riflette nella formulazione dei programmi di ricerca con la
nascita di ponti inter-disciplinari con nomi ibridi. Quando la scienza era semplice, si
articolava in discipline separate ,ognuna con un proprio campo di pertinenza; ad esempio,
si elencano le coppie: sociologia-comunità, fisiologia-organi, citologia-cellule, chimica-
molecole. Se prendiamo tre scienze separate, fisica, neurologia ed economia, oggi si parla
di tre attività ponte, ciascuna con propri apparati e un proprio protocollo operativo,
rispettivamente, neuro-fisica, neuro-economia e econo-fisica.
Tali sono le bio-tecnologie, con le loro implicazioni per l’ambiente,la salute e le ricadute
industriali; qui abbiamo la confluenza di molte discipline, quali biologia, informatica,
fisica.
La scienza moderna nasce con il programma galileiano di non tentare le “essenze” ma
contentarsi delle “affezioni quantitative” (Galilei, 1612) cioè ridurre la presa di conoscenza
del mondo a un numero limitato di connotazioni, estratte da apparati di misura ognuno
con una propria scala di sensibilità, e pertanto codificate in numeri su ciascuna di quelle
scale .
Il risultato di questa attitudine è il ruolo attribuito a un sistema esperto, cioè a un
computer dotato di un archivio, archivio costituito con il collezionare misure in circostanze
diverse e correlabili. La speranza che il sistema esperto possa rimpiazzare l’uomo nella
diagnosi medica o nella previsione economica è fondata sulle presunzione cartesiana per
cui l’uomo si riduce a un gruppo di apparati (i sensi) più un computer che usa le uscite dei
sensi per attivare programmi di calcolo basati su algoritmi corrispondenti a modelli di
mondo.
Entro questo orizzonte, il programma scientifico consiste nel caratterizzare un evento
con un numero n di misure. La collezione ordinata degli n numeri rappresenta lo stato del
sistema come un punto in uno spazio a n dimensioni. Quindi la dinamica diventa
l’evoluzione temporale di quel punto, una traiettoria in questo spazio. Tutto il problema
della scoperta scientifica si riduce a stabilire quali sono le n dimensioni essenziali: n e non
102
più di n, in base al rasoio di Occam; esse sono dette i “gradi di libertà” del sistema in
osservazione.
Finché la scienza ha fornito risultati univoci, si poteva alimentare la fede galileiana che
essa leggesse nel libro della natura scoprendo le stesse parole con cui vi aveva scritto Dio.
L'autolimitazione ai soli aspetti quantitativi, estraibili con opportuni apparati di misura, il
cui uso corretto eliminava ogni ambiguità, dava alla scienza un potere di penetrazione
sconosciuto alla filosofia. L'autolimitazione appariva come una procedura che
"comprimeva" l'informazione importante in formule compatte, trascurando gli aspetti
irrilevanti , e pertanto assicurando una predizione del futuro che ha rappresentato
l'aspetto più appariscente della scienza.
Donde la convinzione che qualunque discorso sensato andasse formulato con le regole
del linguaggio scientifico, evitando cioè le "insensatezze" del linguaggio ordinario. Questa
convinzione, fu formalizzata dal Circolo di Vienna in una “costruzione logica del mondo”,
fatta su un gruppo iniziale di concetti e relazioni verificabili, e di tutte le conseguenze
deducibili. Qualunque problema che fuoriuscisse da questo schema era ritenuto
irrilevante .
In questi anni però, con i tentativi di descrizione scientifica dei sistemi complessi,
dobbiamo fronteggiare situazioni non previste nei primi tre secoli della scienza.
Precisamente, la procedura sintattica ci porta alla predizione di un numero, che in molti
casi può essere altissimo, di possibili situazioni finali con probabilità di accadimento
confrontabili. Invece l'esperienza ci mostra che solo uno, o pochi, fra gli stati previsti dalla
teoria acquista un significato,cattura il nostro interesse. Nasce così un conflitto fra sintassi
e semantica, fra certezza e verità, per cui sembra che il criterio interno al discorso
scientifico vada integrato con elementi di realtà non inclusi in quel pacchetto iniziale di
leggi, o assiomi, che hanno caratterizzato una certa teoria scientifica dandole una specifica
connotazione.
La ricostruzione a partire dagli elementi porta a risultati semplici solo in casi particolari,
mentre in generale approda a un ventaglio di possibili soluzioni, il cui numero cresce
esponenzialmente con il numero dei componenti elementari. Se si dovessero descrivere
tutti i possibili stati finali di una dinamica siffatta, si avrebbe da affrontare un problema
"intrattabile", cioè un problema il cui tempo di calcolo è di gran lunga superiore
103
all'effettivo tempo necessario a quel pezzo di mondo per organizzarsi in una situazione
finale.
Tanto vale allora sedersi e stare a vedere come vanno a finire le cose, rinunciando alla
predicibilità. Ovviamente, ciò sarebbe altamente insoddisfacente, perché vorrebbe dire
riconoscere il fallimento del programma scientifico.
In condizioni ideali, si può risolvere un problema anche in un tempo lunghissimo. Ma nel
vissuto, ognuno è immerso in un mondo che cambia e le decisioni vitali (come adattarsi
all’ambiente, come reagire a un pericolo, come classificare i fenomeni) vanno prese su un
“taglio” di mondo che sta mutando, quindi sono rilevanti solo se il tempo di decisione è
inferiore al tempo medio di persistenza dei connotati dell’ambiente.
Prima di proporre una cura, il cui senso consiste nel re-introdurre nel discorso
scientifico il criterio di verità-"adaequatio", é opportuno premettere alcune considerazioni
su come sia nato il problema della complessità.
La parola del linguaggio ordinario é polisemica, in quanto non denota un oggetto isolato.
Un oggetto non é mai isolabile da un contesto, ma si trova immerso nel resto del mondo
che gli attribuisce connotazioni, sfumature diverse. Chiamando "evento" l'oggetto più il
contesto, la stessa parola é usata, in modo piuttosto ambiguo, per designare tutto un
ambito di eventi. La collezione di tutti gli eventi associata ad una parola ne rappresenta
il campo di significati, o spazio semantico. In un vocabolario storico questa pluralità di
significati é "finitizzata" in un numero piccolo di possibili connotazioni, usate con
frequenza diversa dagli autori della lingua.
Un discorso appare come un vasto alveo che raccorda i vari spazi semantici e
all'interno del quale si possono ritagliare interpretazioni diverse. Come ben si sa, un certo
discorso non ammette in genere un'unica lettura, e occorre ricorrere ad elementi estranei
al testo per ridurre il campo di possibili interpretazioni. Una lettura autoconsistente di un
testo, in cui ogni parola sia unicamente specificata dalle correlazioni con le altre, é
alquanto illusoria.
Per chiarire questo discorso generale, ci riferiamo ad un esempio concreto.
Consideriamo 14 parole della lingua italiana. Il vocabolario ne definisce i significati
individuali, ma nessuno aveva immaginato, prima che G. Leopardi scrivesse “La sera del dì
di festa”, che si potessero collegare nei seguenti versi:
104
Tutto è pace e silenzio, e tutto posa
il mondo e più di lor non si ragiona.
Il “di più” rispetto al puro elenco delle parole è dovuto alle relazioni mutue che danno
un senso al discorso, all’incastonamento nell’ambiente del verso, al fascino musicale che
emerge dalla sequenza, e infine alla memoria dei versi che precedono e seguono e che ci
collocano in una storia.
Una conseguenza della complessità è il fatto che l’informazione globale dei due
versi (uso “informazione” nel senso comune, senza definirla rigorosamente) non è solo la
somma delle informazioni che il vocabolario attribuisce alle singole parole, ma in più c’è
una mutua informazione che finisce con lo scegliere tra tutti i possibili significati delle 14
parole quelli che più si adattano a dare un senso ai due versi. Resta ovviamente un
margine di polisemia che richiede ulteriormente un’interpretazione: di chi i versi li recita e
di chi li ascolta; come ricordava Wittgenstein, la parola parlata è ben più ricca della parola
scritta.
Tutte queste ambiguità sembrano superate dal programma di Galileo, di non tentare
le essenze ma di contentarsi delle "affezioni quantitative". Ciò equivale ad applicare un
apparato di misura M con una precisa regola d'uso. Il numero di uscita da M rappresenta
una connotazione unica. Le parole-numeri sono collegate da una nuova grammatica che é
la matematica, e questa assicura connessioni prive di ambiguità.
Dunque la scienza é fatta di termini univoci, collegati da regole, o leggi, necessarie.
Una volta assegnato un numero sufficiente di osservazioni iniziali (cioè le "leggi" fisiche),
si possono estrarre per via deduttiva tutte le conseguenze, anticipando eventi che hanno
ancora da verificarsi: donde la predicibilità della scienza, assente nel linguaggio ordinario.
Nella scienza di Galileo e Newton, c'é una precisa corrispondenza fra questa
procedura mentale e quanto avviene nel mondo, in quanto M ha estratto le cose importanti
trascurando le "qualità secondarie", cioè quegli aspetti soggettivi del contesto che servono
a fare poesia, ma non previsioni scientifiche. Allora, certezza (cioè correttezza sintattica) e
verità (cioè adeguamento alla realtà) sembrano coincidere.
Nell’ambito del metodo cartesiano, la res cogitans è l’agente che categorizza le
impressioni dei sensi e le organizza in pensieri pensati; ma nasce il problema della
105
corrispondenza fra due insiemi, quello degli eventi mondani (la res extensa) e quello
delle nostre costruzioni mentali. Da ciò scaturiscono delle conseguenze fra loro
concatenate:
i) la conoscenza non è creazione di qualcosa di nuovo, ma solo corrispondenza fra due
insiemi dati ab aeterno; Dio si riduce a un ispettore che assicura il buon
ordinamento fra i due insiemi; tale è il “Deus sive Natura” di Spinoza;
ii) il criterio di verità come adaequatio intellectus et rei viene rimpiazzato dal criterio
delle “idee chiare e distinte”, cioè da un requisito di auto-consistenza delle nostre
procedure mentali;
iii) quando l’intelligenza artificiale propone una macchina equipaggiata da un
numero sufficiente di “routines” da poter ricorrere ai propri archivi per ovviare a
qualunque problema, si è in pieno solipsismo: si veda D. Hofstadter (Goedel,Escher
e Bach, una eterna ghirlanda aurea, Adelphi,Milano,1979) per il quale la
“ghirlanda aurea” indica l’intreccio delle routines che permettono alla macchina di
essere autosufficiente.
In un modo simile, un programma scientifico è visto come la sequenza di due fasi: nella
prima si collezionano dati attraverso apparati di misura, organizzandone le relazioni in
una rete di assiomi; nella seconda si deducono tutte le conseguenze. Se la prima fase ha
catturato le caratteristiche rilevanti, la seconda fase darà una predizione di tutto il futuro .
Invece, la strategia adattiva non sceglie le regole di biforcazione (la sintassi) apriori,
una volta per tutte, ma le riaggiusta nel corso dell'osservazione. Cambiare scala, cioè
infittire o diradare le biforcazioni, vuol dire cambiare le regole . La procedura adattiva non
lavora con regole fisse, ma con regole modificabili nel corso dell'osservazione per
ottimizzare il compromesso fra efficacia ed economia della descrizione, cioè fra precisione
del risultato e rapidità nel suo raggiungimento.;il metodo di controllo del caos illustrato in
fig 2 in Premessa spiega come adattività equivale a creatività
L'adattività introduce un elemento rivoluzionario: ogni "esperimento sensato" (uso
la dizione galileiana) non è del tutto formalizzabile, ma si avvale di elementi non
considerati nella formalizzazione e che guidano la scelta delle scale risolutive. Come a dire
che la scala è suggerita dal mondo, cioè dalla realtà stessa, e non imposta con una
procedura aprioristica.
106
La strategia adattiva corrisponde ad osservare lo stesso evento da punti di vista differenti
invece che da un punto di vista unico. Ciò mostra come l'adaequatio sia progressiva, non
data una volta per tutte; essa non coglie tutta la realtà, ma ne mette a fuoco con successive
approssimazioni un "punto di vista"; quello rispetto a cui abbiamo ritagliato la nostra
attenzione, rinunciando alla totalità dei punti di vista, che ci avrebbe dato un albero di
biforcazioni intrattabile e quindi una certezza illusoria. L'essere vera da un certo "punto di
vista" dà un carattere di stabilità storica a una teoria scientifica, e ne permette il confronto
con le altre teorie. Ad esempio, la teoria della gravitazione di Einstein non ha reso non vera
la teoria di Newton, ma ne ha delimitato l'ambito di validità, mostrando che è vera solo da
un certo "punto di vista".
Se prendiamo questo metodo adattivo come il processo conoscitivo che reintroduce
il senso della verità nelle scienze, dobbiamo riconsiderare il problema della verità non
come un problema interno di auto-consistenza di regole ma come una riscoperta di una
gerarchia degli ordini che regola la realtà.
In conclusione la scienza oggi riscopre il senso della verità come "adaequatio",
laddove il criterio cartesiano suggeriva la matematica come unico campo in cui gli
enunciati hanno l'evidenza del "Cogito", e pertanto faceva ritenere che la matematizzazione
di una scienza fosse sufficiente per dare certezza. Dato il carattere adattivo della ricerca
della verità, questa si presenta come un programma asintotico, che richiede continui
riaggiustamenti, si presenta cioè come "work in progress".
Appendice - Sherlock Holmes,Padre Brown e
Maigret: tre stili di indagine
Nell’indagine di casi criminali c’è una logica procedurale molto simile a quella che guida
l’indagine scientifica; pertanto anche qui possiamo individuare il ruolo della creatività.
Confrontiamo gli stili di indagine di tre famosi investigatori :Sherlock Holmes di Conan
Doyle, Padre Brown di Gilbert Chesterton e il commissario Maigret di George Simenon.
107
Il primo opera secondo il teorema di Bayes: connette i dati acquisiti nell’ambito di un
modello formulato, e accumula un aumento della probabilità a-posteriori ,continuando a
inserire dati per lui significativi e per altri irrilevanti. Lo schema procedurale è quello di un
expert system. Tant’è vero che serie poliziesche televisive che vengono dagli Stati Uniti
integrano la procedura di Sherlock con l’uso massiccio di computers,sia come magazzini di
dati ,sia come elaboratori bayesiani. Sherlock punta a una certezza sintattica.
Il secondo punta invece alla verità, cui cerca di adeguarsi integrando i dati disponibili con
una visione teologica dell’uomo, con i suoi peccati e virtù che spesso producono
conseguenze non spiegabili all’interno di un unico modello interpretativo, ma che
richiedono salti creativi come indicato in fig.28; Chesterton, da buon cultore di Tommaso
d’Aquino, ha considerato la verità come una adaequatio intellectus et rei.
Quanto a Maigret, accumula pazientemente dati senza inquadrarli dall’inizio entro un
modello. Gruppi di questi dati appaiono mutuamente in conflitto e sembrano suggerire
modelli diversi. Verso la fine della storia, un dato prima non disponibile finisce con
l’organizzare in un insieme coerente tutti gli altri: come un elemento cruciale di un
puzzle ,senza il quale gli altri tasselli non si connettevano. Sembra una esemplificazione
della procedura fenomenologica di E. Husserl, a cui era contiguo- nella Francia di Simenon
– M. Merleau-Ponty.
108
- Riferimenti bibliografici
Dato il carattere di questa presentazione, non è sembrato opportuno appesantirla con un apparato bibliografico ; alcuni articoli o libri sono stati citati nel testo; per quanto riguarda la figure ,esse sono estratte da miei lavori .
Uno li può trovare sulla mia homepage: www.inoa.it/home/arecchi