governo dell’universitÀ, un prerequisito ...valmon.ds.unifi.it/docpub/volume2...
TRANSCRIPT
DECISIONI RAZIONALI PER IL
GOVERNO DELL’UNIVERSITÀ,
UN PREREQUISITO ESSENZIALE:
LA TEORIA DELL’UTILITÀ
Università degli Studi di Firenze
D IPARTIMENTO S TATISTIC “ G. Parenti ”
V ALUTAZIONE E M ONITORAGGIO DEI P ROCESSI F ORMATIVI
2
F IRENZE, OTTOBRE 2004
B RUNO C HIANDOTTO S ILVIA B ACCI
PRESENTAZIONE1
L’Ateneo fiorentino da diversi anni dedica particolare attenzione all’attività di
valutazione e monitoraggio dei processi formativi grazie anche al notevole impulso
dato dal Progetto CampusOne.
La partecipazione dell’Università di Firenze al Progetto CampusOne ha permesso
negli ultimi tre anni il perseguimento pressoché completo di alcuni obiettivi ritenuti
fondamentali in un’ottica tesa all’innalzamento del livello qualitativo della propria
attività formativa. Infatti, in connessione con le attività svolte nel contesto delle Azioni
di Ateneo relative al Management didattico (Azione 3), ai Tirocini e collocamento nel
mondo del lavoro (Azione 4) e alla Valutazione della qualità della didattica (Azione 5),
sono state programmate e portate a termine indagini il cui obiettivo era quello di
acquisire elementi informativi che consentissero di pervenire ad una misura della
qualità dei processi formativi offerti dall’Ateneo fiorentino.
L’attività svolta è consistita nella:
a) raccolta dell’opinione degli studenti frequentanti sulla didattica svolta negli
a.a. 2001/02, 2002/03 e 2003/04;
b) valutazione della didattica, delle strutture e dei servizi di supporto alla
didattica da parte degli studenti frequentanti e non frequentanti iscritti
nell’a.a. 2001/02;
c) misura del carico didattico e valutazione delle modalità di svolgimento delle
prove d’esame anche in relazione ai programmi previsti per l’a.a. 2001/02;
d) valutazione ed autovalutazione dei docenti sulla didattica svolta nell’a.a.
2001/02;
1 Questo lavoro si è avvalso dei contributi previsti nel progetto CAMPUSONE e nel Progetto di Ricerca di
Interesse Nazionale (PRIN) “Valutazione del processo di formazione universitaria, sbocchi professionali e pianificazione dei percorsi formativi”, anno 2002.
e) valutazione delle possibili determinanti degli abbandoni e dei tempi di
conseguimento del titolo universitario a partire dall’a.a. 1980/81
focalizzando l’attenzione sui laureati dell’anno solare 2000;
f) valutazione delle possibili determinanti degli abbandoni degli studi e dei
trasferimenti ad altro corso da parte degli studenti immatricolati nell’a.a.
2001/02;
g) valutazione della situazione occupazionale dei laureati e diplomati
dell’ateneo negli anni solari 1999, 2000, 2001 e 2002;
h) indagine sulla condizione occupazionale dei laureati dell’anno solare 1998
a cinque anni dal conseguimento del titolo.
Il ricco materiale informativo acquisito ha suggerito l’ipotesi di raccogliere il
frutto della ricerca del Gruppo VALMON2 in un’apposita collana al fine di mettere a
disposizione di chi opera nel mondo universitario e di chi ne è comunque interessato
(giovani, famiglie, mondo del lavoro,…) i risultati di una esperienza che mi auguro
possa rivelarsi di qualche utilità.
Questo volume è il n. 2 della Collana VALMON. Essendo la tiratura dei volumi
limitata a 500 copie, gli stessi saranno resi disponibili sul sito di Ateneo in formato
elettronico in modo da facilitarne la consultazione da parte di tutti gli interessati.
Bruno Chiandotto
Delegato per la Valutazione della Didattica ed il Monitoraggio dei Processi
Formativi
Referente di Ateneo per gli Sbocchi Occupazionali e le Attività di Tirocinio
2 Il gruppo VALMON (Valutazione e Monitoraggio), coordinato da B. Chiandotto e composto da
laureandi, dottorandi e docenti del Dipartimento di Statistica dell’Università degli Studi di Firenze, da diversi anni svolge attività di studio e ricerca nel contesto della valutazione e del monitoraggio dei processi formativi che si svolgono nell’Ateneo fiorentino.
i
SOMMARIO
INDICE DELLE TABELLE iii
INDICE DELLE FIGURE v
PREMESSA vii
1. TEORIA DELLE DECISIONI 1 1.1 INTRODUZIONE 1
1.2 CONTESTO DECISIONALE 3
1.3 TEORIA DEL VALORE 7
2. TEORIA DELL’UTILITÀ 23 2.1 INTRODUZIONE 23
2.2 LA FUNZIONE DI UTILITÀ 27
2.3 ATTEGGIAMENTO VERSO IL RISCHIO E FORMA DELLA FUNZIONE D’UTILITÀ 34
2.4 LA FUNZIONE DI UTILITÀ SECONDO FRIEDMAN E SAVAGE 38
2.5 LA FUNZIONE DI UTILITÀ SECONDO MARKOWITZ 41
2.6 LA FUNZIONE DI UTILITÀ SECONDO KAHNEMAN E TVERSKY 45
2.7 L’ESPERIMENTO DI FISHBURN E KOCHENBERGER 50
2.8 L’ESPERIMENTO DI FENNEMA E VAN ASSEN 54
2.9 L’ESPERIMENTO DI ABDELLAOUI 59
2.10 MISURA DELL’AVVERSIONE AL RISCHIO 60
3. TEORIE GENERALIZZATE DELL’UTILITÀ 65 3.1 INTRODUZIONE 65
3.2 VIOLAZIONI DELLA TEORIA DELL’UTILITÀ ATTESA 67 3.2.1 Violazione della transitività 67 3.2.2 Effetto certezza 68 3.2.3 Effetto pseudo-certezza o effetto isolamento 70 3.2.4 Sovrastima dei bassi livelli di probabilità e sottostima di quelli alti 71 3.2.5 Avversione all’ambiguità 72 3.2.6 Effetto contesto 73 3.2.7 Effetto inerzia 75
ii
3.2.8 Influenza del dominio delle lotterie 75
3.3 TEORIA DELL’UTILITÀ DIPENDENTE DAL RANGO 76
3.4 TEORIA DEL PROSPETTO 78
4. ELICITAZIONE DELLA FUNZIONE DI UTILITÀ 83 4.1 INTRODUZIONE 83
4.2 METODI STANDARD DI ELICITAZIONE 86 4.2.1 Confronti tra preferenze 86 4.2.2 Lotterie equivalenti (LE) 87 4.2.3 Equivalenti certi (CE) 88 4.2.4 Probabilità equivalenti (PE) 91
4.3 METODI BASATI SU COPPIE DI LOTTERIE (PAIRED GAMBLE) E ALTRI METODI 92 4.3.1 Analog (o Direct) Scaling (AS) 95 4.3.2 Stima della Grandezza (Magnitude Estimation, ME) 95 4.3.3 Person Trade Off (PTO) 96 4.3.4 Time Trade Off (TTO) 96 4.3.5 Trade Off (TO) 97
4.4 ESPERIMENTI PER LA VERIFICA DEI METODI DI ELICITAZIONE 101 4.4.1 Verifica dei metodi PE e CE 101 4.4.2 Verifica del metodo TTO 109 4.4.3 Verifica dei metodi AS, ME e PTO 110 4.4.4 Verifica del metodo TO e confronto con i metodi CE e PE 113
4.5 UN NUOVO APPROCCIO ALL’ANALISI DECISIONALE 133
5. STRUTTURA DI PREFERENZA E DECISIONI RAZIONALI: UN CASO DI STUDIO 139 5.1 INTRODUZIONE 139
5.2 ATTEGGIAMENTO VERSO IL RISCHIO DELLE FONDAZIONI BANCARIE 141
5.3 ELICITAZIONE DELLE FUNZIONI DI UTILITÀ 143
5.4 ANALISI DELLE FUNZIONI DI UTILITÀ E COERENZA DI COMPORTAMENTO 155 5.4.1 Fondazione Monte dei Paschi di Siena 158 5.4.2 Ente Cassa di Risparmio di Firenze 160
APPENDICE A 163
APPENDICE B 169
BIBLIOGRAFIA 171
iii
INDICE DELLE TABELLE
Tab. 1.1 - Tavola di decisione--------------------------------------------------------------------5
Tab. 1.2 - Tavola di decisione con conseguenze monetarie ----------------------------------7
Tab. 1.3 - Tavola di decisione in situazioni di certezza con conseguenze di qualunque natura ------------------------------------------------------------------------------------------8
Tab. 2.1 - Tavola di decisione in situazioni di incertezza con conseguenze di qualsiasi natura ---------------------------------------------------------------------------------------- 25
Tab. 2.2 - Risultati dell’esperimento di Kahneman e Tversky----------------------------- 45
Tab. 2.3 - Risultati dell’analisi di Fishburn e Kochenberger------------------------------- 51
Tab. 2.4- Distribuzione di frequenza del parametro b della curva di potenza P = a xb --------------------------------------------------------------------------- 51
Tab. 2.5 - Percentuale di parti convesse, concave e lineari per perdite e vincite -------- 56
Tab. 2.6 - Numero di soggetti classificati secondo la tipologia della funzione di utilità (test non parametrico) --------------------------------------------------------------------- 57
Tab. 2.7 - Numero di soggetti classificati secondo la tipologia della funzione di utilità (test parametrico) -------------------------------------------------------------------------- 58
Tab. 2.8 - Classificazione dei soggetti (esperimento di Abdellaoui)---------------------- 60
Tab. 2.9 - Percentuale di ricchezza investita in attività rischiose ------------------------- 64
Tab. 3.1 - Risultati dell’esperimento di Hershey, Kunreuther e Schoemaker------------ 76
Tab. 4.1 - Classificazione delle funzioni di utilità per metodo di elicitazione impiegato ----------------------------------------------------------------------------------101
Tab. 4.2 - Risultati dell’esperimento di Hershey, Kunreuther, Schoemaker ------------103
Tab. 4.3 - Incoerenze nelle risposte date al secondo round -------------------------------105
Tab. 4.4 - Effetti della traslazione di lotterie di pure vincite in lotterie miste ----------108
Tab. 4.5 – Asimmetria delle preferenze------------------------------------------------------108
Tab. 4.6 – Utilità medie------------------------------------------------------------------------110
Tab. 4.7 - Risultati dell’esperimento di Baron e altri (2001)------------------------------112
Tab. 4.8 - Risultati medi dell’esperimento sulla durata di vita ---------------------------116
Tab. 4.9 - Risultati medi normalizzati dell’esperimento monetario ----------------------117
Tab. 4.10 - Confronti dei due esperimenti con dati normalizzati -------------------------118
Tab. 4.11 - Utilità PE corrette in funzione di p per p = 0.00,…..0.99--------------------123
iv
Tab. 4.12 - Utilità CE corrette ----------------------------------------------------------------123
Tab. 4.13 - Confronti tra i tre metodi sotto l’assunzione dell’utilità attesa classica----125
Tab. 4.14 - Confronti tra i tre metodi sotto la trasformazione di probabilità (γ+ = 0.61, γ- = 0.69) e l’avversione alle perdite (λ = 2.25) -------------------------125
Tab. 5.1 – Risultati normalizzati distinti per soggetto e per metodo con indicazione del corrispondente atteggiamento individuale verso il rischio (OUT sta per metodo outward TO e IN sta per metodo inward TO) ----------------------------------------149
Tab. 5.2 – Risultati medi normalizzati distinti per fondazione e per metodo con indicazione del corrispondente atteggiamento verso il rischio----------------------149
Tab. 5.3 – Differenze medie normalizzate osservate tra metodi (tra parentesi valori del test t per dati appaiati)--------------------------------------------------------------------154
v
INDICE DELLE FIGURE
Fig. 1.1 – Unicità della funzione di valore --------------------------------------------------- 15
Fig. 2.1 - Illustrazione della dimostrazione del teorema 7---------------------------------- 34
Fig. 2.2. Forme possibili di una funzione di utilità ------------------------------------------ 35
Fig. 2.3 - Funzione di utilità concava --------------------------------------------------------- 37
Fig. 2.4 - Funzione di utilità convessa -------------------------------------------------------- 38
Fig. 2.5 - Funzione di utilità secondo Friedman e Savage (individui a basso reddito) - 40
Fig. 2.6 - La funzione di utilità secondo Friedman e Savage (individui a reddito elevato)----------------------------------------------------------------------------------------------- 41
Fig. 2.7 - La funzione di utilità secondo Markowitz ---------------------------------------- 44
Fig. 2.8 - La funzione di utilità secondo Kahneman e Tversky---------------------------- 49
Fig. 3.1 – Teoria dell’utilità dipendente dal rango ------------------------------------------ 77
Fig. 3.2 - Funzione di ponderazione (teoria del prospetto) --------------------------------- 80
Fig. 4.1 - Curve di utilità relative all’esperimento monetario ($) e all’esperimento sugli anni di vita -------------------------------------------------------119
Fig. 4.2 - Differenze tra utilità prima e dopo le correzioni --------------------------------124
Fig. 4.3 - Esempio di applicazione della procedura outward TO per le perdite -------127
Fig. 4.4 - Esempio di applicazione della procedura inward TO per le perdite ---------128
Fig. 4.5 - Esempio di procedura outward TO e inward TO-------------------------------129
Fig. 4.6 - Valori mediani dei metodi TO e CE per le perdite, convertiti in funzioni di utilità-----------------------------------------------------------------------130
Fig. 5.1 – Funzioni di utilità relative alla fondazione Monte dei Paschi di Siena ------150
Fig. 5.2 – Funzioni di utilità relative alla fondazione Ente Cassa di Risparmio di Firenze ---------------------------------------------------------------------151
vii
Premessa La valutazione del sistema universitario ha assunto in questi ultimi anni, sia a
livello nazionale che internazionale, importanza fondamentale per le sue vaste
implicazioni operative.
Valutazioni e giudizi con riferimento a persone, imprese e istituzioni, a processi e
a risultati, costituiscono un’attività che è sempre stata svolta anche se con modalità
spesso informali e non basate su “elementi oggettivi”; l'attività di valutazione
formalizzata, cioè basata su approcci sistematici, si è invece molto sviluppata solo negli
ultimi anni - e ciò è spesso dovuto alle molte leggi e normative che la impongono
divenendo uno strumento irrinunciabile dei programmi e delle politiche di intervento in
campo economico e sociale delle amministrazioni pubbliche, soprattutto laddove si
producono servizi alla persona di pubblica utilità (Gori, Vittadini, 1999; Bini,
Chiandotto, 2003).
La valutazione assume veste di attività strategica a tutti i livelli quale strumento di
sostegno, scientifico, dei processi decisionali; per la verifica, ex-ante delle possibilità, in
itinere (in corso di realizzazione), conclusiva (a conclusione dei programmi) ed ex-post
(quando si osservano i frutti delle attività implementate) dell’effettiva realizzazione
degli obiettivi programmati. Valutazione intesa quindi non più come semplice attività di
ricerca, controllo e giudizio, ma come esercizio finalizzato a supportare decisioni,
strategie e eventuali azioni future: “valutare per decidere” (Chiandotto, 2002) un
processo dinamico e continuo il cui scopo ultimo è finalizzato al perseguimento di
specifici obiettivi.
Ovviamente ogni processo di valutazione presenta connotazioni diverse a seconda
del contesto di riferimento ed al momento in cui viene svolto, ma la finalità che si vuol
perseguire attraverso il processo è sempre la stessa ed è quella di innescare, anche
attraverso strategie d’incentivazione basate sui risultati della valutazione, un sistema di
azioni e retroazioni teso all’innalzamento del livello qualitativo generale delle attività
svolte.
viii
Come è noto, la nozione di qualità3 intesa come il grado con cui un prodotto (o un
servizio) soddisfa determinati requisiti, nasce nel mondo della produzione dei beni e, in
particolare, nell’ambito dei sistemi d’organizzazione aziendale e successivamente si
diffonde nell’ambito dei servizi anche di pubblica utilità. In quest’ultimo contesto i
criteri di valutazione cui usualmente si fa riferimento riguardano l’efficacia (grado di
raggiungimento degli obiettivi), l’efficienza (grado di ottimizzazione nell’uso delle
risorse) e l’equità rispetto all’accesso ai beni e servizi pubblici.
I termini “efficacia” ed “efficienza”, che sono ormai entrati nel linguaggio
comune, vengono, purtroppo, spesso scambiati e adattati ai vari contesti senza una
definizione precisa, creando sovente, specialmente negli interlocutori meno esperti,
confusione e qualche perplessità.
Riguardo l’efficacia, le definizioni sono molteplici e variegate: efficacia interna,
vista come confronto tra risultati e obiettivi relativi a un singolo servizio e alla sua
azione; efficacia esterna, analizzata tramite la relazione tra obiettivi assegnati e
domanda sociale; efficacia come impatto, ovvero come confronto tra risultati ottenuti
con l’azione e risultati ottenibili senza l’azione; efficacia come valore aggiunto
derivante del raffronto tra le prestazioni degli agenti, rapporto tra domanda soddisfatta e
domanda potenziale, grado di soddisfazione dei bisogni, ecc..
Un altro aspetto fondamentale della qualità misurata in termini di efficienza ed
efficacia è la diversa connotazione che può assumere in relazione al tipo di soggetto
interessato. Nel caso della formazione universitaria, in quanto servizio pubblico, i
soggetti coinvolti hanno interessi ed aspettative diverse e, talvolta, in conflitto: questi
sono gli studenti, il personale docente e non docente, l’ateneo come istituzione nelle sue
3 Negli ultimi anni il concetto di qualità si è notevolmente trasformato ed arricchito. Esistono quattro principali tipi di approcci (Gori e Vittadini, 1999) al problema della qualità che, nel tempo, si sono modificati. L’approccio tradizionale, secondo cui la qualità è concepita come esclusività, prestigio e posizione di vantaggio nei confronti dei “concorrenti”. Successivamente si è assistito ad un impegno da parte degli esperti alla definizione di un approccio al problema di tipo scientifico-razionalista, in cui le caratteristiche dei prodotti e dei servizi venivano definite da studiosi, da esperti esterni o professionisti. In tale concezione la qualità era legata al raffronto con degli obiettivi, utilizzando metodi razionali d’analisi dei risultati, senza però impiegare il punto di vista degli utenti. Nell’approccio manageriale, la qualità è definita dal grado di soddisfazione dell’utente/cliente, che assume un ruolo centrale nell’analisi, in un ambito competitivo. Per contentare il cliente si rinforzano le posizioni di base con lo scopo di essere più attenti ai bisogni dell’utente. L’utenza può esprimere il grado di soddisfazione rispetto ai servizi erogati, ma non può partecipare attivamente al processo di definizione dei servizi. L’approccio consumistico infine considera la partecipazione attiva da parte dell’utente/cliente nel disegno e nella erogazione dei servizi.
ix
varie articolazioni (rettorato, facoltà, corsi di studio), il sistema universitario nel suo
complesso, e infine la società (le famiglie, il mondo del lavoro e gli enti che a vario
titolo promuovono e/o finanziano interventi sulla formazione universitaria).
Il termine “qualità” per uno studente può assumere connotazioni diverse: può, ad
esempio, essere collegato al soddisfacimento di bisogni immediati quali il superamento
dell’esame, oppure riferito a bisogni futuri quali l’inserimento adeguato nel mondo del
lavoro.
Anche per gli erogatori dei servizi formativi il termine “qualità” può assumere
connotazioni diverse ma, trattandosi di un servizio pubblico, qualità deve significare,
soprattutto, capacità di fornire una risposta complessivamente soddisfacente per la
società. Un ateneo efficace e di qualità sarà perciò quell’istituzione capace di garantire
ai gestori/erogatori (personale docente e non docente) ed ai fruitori dei servizi formativi
(gli studenti) e alle parti interessate (mondo del lavoro e, più in generale, all’intera
società), certezze riguardo alle proprie capacità di ottenere risultati adeguati agli
obiettivi dichiarati e promessi.
Ma le università sono strutture organizzative complesse, la cui gestione si svolge a
diversi livelli; di conseguenza, la qualità del sistema universitario deve essere anche
verificata ai diversi livelli decisionali.
L’attività di valutazione della formazione universitaria, come d’altronde ogni
attività di valutazione, è scandita da un complesso sistema di azioni-decisioni e
retroazioni, atte a fornire risposte esaurienti ai seguenti quesiti:
• perché valutare?
• chi deve valutare?
• cosa valutare?
• come valutare?
Non vi è dubbio che alla prima domanda corrisponde l’attività di verifica
dell’esistenza o meno di problemi emergenti che interessano i processi formativi.
Con i due interrogativi successivi, invece, si intendono definire i contenuti della
valutazione che riflettono, in questo ambito, rispettivamente i soggetti e gli aspetti della
formazione; mentre il quarto identifica gli strumenti (principalmente rappresentati da
indicatori) per il processo valutativo.
x
Se si considera l’attività di formazione svolta dagli atenei, risulta facile procedere
all’individuazione dei soggetti interessati al processo di valutazione, nonché delle loro
interrelazioni: il Ministero dell’Istruzione, dell’Università e della Ricerca (MIUR), gli
atenei, le facoltà e i corsi di studio che assieme alla classe dei docenti assumono la
duplice veste di soggetti valutati e valutatori; gli studenti, le famiglie e i datori di lavoro,
questi ultimi interessati alle capacità acquisite durante il periodo della formazione
universitaria.
Riguardo al cosa valutare, bisogna considerare la molteplicità di aspetti che
caratterizzano il sistema universitario; ciascun aspetto (didattica e ricerca, strutture e
servizi di supporto, apprendimento ed efficacia esterna della formazione, ecc.) dovrebbe
costituire oggetto di una specifica attività di valutazione.
Le università analizzano i bisogni della società e degli utenti? Come si decidono a
livello di governo del rettorato gli obiettivi da realizzare? Quali sono le priorità da
tenere presenti? Quali le risorse stanziate? Come si valutano i risultati? Chi sono i
soggetti che governano? Questi sono i quesiti su cui attivare una valutazione delle
politiche di governo. Il “governo” dell'università, e in particolare il rettore, gioca un
ruolo chiave nello sviluppo delle valutazioni potendo addirittura escludere determinati
argomenti dalla valutazione o rifiutare la valutazione stessa.
Una conseguenza che può derivare dalla valutazione è l’istaurarsi o il consolidarsi
di un governo “presidenziale” o meglio “manager-presidenziale”: rettore forte e linea
gerarchica amministrativa forte che funziona secondo criteri imprenditoriali. Un tale
governo, comunque, non è esente dagli usuali condizionamenti (alleanze e
compromessi) che hanno caratterizzato e caratterizzano ancora i governi tradizionali
dell'università, quello collegiale (non si può abolire l'influenza dei corpi accademici) e
quello burocratico (con una gerarchia amministrativa che controlla l'esecuzione delle
regole installate dal servizio pubblico).
Tutti questi aspetti (e molti altri) che risultano fondamentali nel “governo
dell’università”, hanno un’estrema rilevanza e complessità ed hanno meritato la grande
attenzione che è stata loro dedicata negli ultimi anni; attenzione che si è soffermata, in
modo particolare, sulla individuazione e definizione di indicatori adeguati cui fare
riferimento nella programmazione e gestione dell’attività didattica e di ricerca che si
svolge nelle università.
xi
In merito a questo tema, deve essere segnalato il recente testo predisposto dalla
CRUI nell’ambito del progetto CampusOne “Guida alla valutazione dei Corsi di Studio
(Fondazione CRUI 2003)” http://www.campusone.it/link/?ID=429. L’obiettivo del
documento riguarda la possibilità di fornire alle unità che offrono il servizio degli
elementi e indicazioni necessari per svolgere un’attività sia di valutazione di efficacia
interna, quindi di confronto tra gli obiettivi dichiarati (in seno ai propri programmi) e
quelli conseguiti; sia anche di valutazione di efficacia esterna, cioè di analisi tra
obiettivi assegnati e domanda sociale (in particolare, esigenze delle famiglie e del
mondo del lavoro), in seguito alle quali si individuano gli strumenti necessari per
modificare i programmi e le prestazioni per una migliore qualità del servizio offerto.
Come più volte sottolineato, l’attività di valutazione nasce dall’esigenza di fornire
agli organi decisionali informazioni utili e il più possibile tempestive, in modo da
consentire lo svolgimento di un processo decisionale razionale.
In termini generali, le attività decisionali degli organi accademici vertono su
innumerevoli aree d’intervento fortemente interrelate: infatti, da una parte, l’efficace ed
efficiente gestione dei servizi è elemento indispensabile per consentire il concreto
svolgimento dell’attività didattica e di quella di ricerca; dall’altra parte, l’attività
didattica rispecchia il risultato dell’attività di ricerca. Questa correlazione spiega come
mai non esista una ripartizione netta per area delle competenze decisionali, ma, anzi,
tutti gli organi di decisione, pur se in misura differente, sono coinvolti nelle
problematiche di ciascuna area.
Ovviamente, come già sottolineato, il centro di decisione più importante in ogni
ateneo è il rettore, organo unipersonale, che esplica parte della sua attività in veste di
presidente del Consiglio di Amministrazione e del Senato Accademico, i due organi
collegiali di vertice più importanti. Tali organi hanno il compito fondamentale di
coordinare tutte le attività svolte all’interno dell’Ateneo, in particolare modo ai livelli
inferiori della “piramide”. Le attività didattiche o di ricerca sono infatti suddivise, a
seconda della materia, tra le diverse facoltà; a sua volta, ogni facoltà organizza la
didattica nei corsi di studi a vari livelli e la ricerca nei dipartimenti. In realtà, benché i
dipartimenti afferiscano nella generalità dei casi a specifiche facoltà, sarebbe forse più
corretto porre le due tipologie di organi in posizione parallela, piuttosto che subordinare
i primi ai secondi: non è infatti raro che docenti di un certo dipartimento svolgano
xii
attività didattica in una facoltà diversa da quella di appartenenza. Alla base della
piramide si trovano i singoli docenti e ricercatori che esplicano in modo concreto sia la
didattica che la ricerca.
Infine, per completare il quadro, è necessario accennare all’esistenza di una
molteplicità di altri organi, che si pongono fondamentalmente in una posizione di
“staff” rispetto agli organi di vertice, svolgendo funzioni di supporto in vari campi. Tra
questi si ricordano: il Nucleo di Valutazione Interna; il Comitato Consultivo Tecnico-
Amministrativo; il Comitato Pari Opportunità; i Prorettori, i Delegati dal Rettore a
occuparsi di specifiche problematiche; le Commissioni Istruttorie, che lavorano su
tematiche estremamente circoscritte, ecc..
La differenza fondamentale tra il primo tipo di organi e il secondo risiede nel fatto
che tutti gli organi del primo tipo concorrono a formare quella che è la struttura portante
dell’ateneo, struttura che non può prescindere dagli stessi, se non modificandosi
profondamente. Invece, il secondo tipo di organi affianca tale struttura, avendo il
compito di consentirle di funzionare al meglio; proprio per questo, al variare dei
problemi e delle esigenze dell’ateneo o dell’intero sistema universitario italiano tali
organi possono essere modificati, aboliti, incrementati, senza che con ciò la struttura
fondamentale cambi.
Individuati i centri di decisione occorre procedere alla elencazione delle attività di
competenza degli stessi; in questa sede l’elenco si limita a considerare le attività di
Competenza del Senato Accademico e del Consiglio di Amministrazione (facendo
riferimento allo Statuto dell’Ateneo fiorentino).
Il Senato Accademico:
1) delibera il regolamento didattico di Ateneo
2) delibera il piano pluriennale delle attività didattiche e di ricerca
3) formula proposte sui criteri per la ripartizione delle risorse finanziarie e di
personale tecnico-amministrativo tra le strutture didattiche e di ricerca
4) esprime parere su bilanci annuali e pluriennali di previsione
5) coordina le attività didattiche e scientifiche
6) determina i criteri per la ripartizione dei posti di ruolo di docenti e ricercatori
e ne delibera la ripartizione tra le facoltà
xiii
7) valuta l'efficienza e l'efficacia nell'organizzazione della didattica e della
ricerca
Il Consiglio di Amministrazione:
1) delibera il regolamento di ateneo per l'amministrazione, la finanza, la
contabilità
2) delibera i bilanci di previsione annuali e pluriennali
3) delibera le piante organiche del personale tecnico e amministrativo
4) delibera i criteri per l'assegnazione delle unità di personale tecnico-
amministrativo e delle risorse finanziarie alle varie unità amministrative
5) controlla la funzionalità della gestione tecnico-amministrativa dell'Ateneo
6) delibera il piano di sviluppo edilizio di Ateneo
7) determina l'importo di tasse e contributi dovuto dagli studenti
Quanto previsto dallo Statuto consente di avere un’idea generale della ripartizione
delle competenze, ma non è sufficiente per comprendere cosa concretamente venga
deciso all’interno di ciascun centro di decisione, né quanto le decisioni prese consentano
il perseguimento degli obiettivi prioritari di ateneo. Per perseguire quest’ultimo scopo
occorrerebbe analizzare le delibere assunte dai singoli organi valutandone
successivamente l’impatto. Ma non è questo il tema che s’intende trattare in questa
sede; la finalità è, più semplicemente, quella di procedere ad una discussione del tutto
teorica sui fondamenti che sono alla base dei processi di scelta razionale assumendo che
l’obiettivo prioritario dei due organi citati sia il perseguimento di livelli qualitativi
sempre più elevati dei servizi formativi offerti.
I problemi decisionali nei quali, in corrispondenza di ciascuna azione, sono
possibili conseguenze diverse (ed è questo il caso in esame), e nei quali sono note le
probabilità ad esse associate (decisioni in situazioni di rischio e/o incertezza), possono
essere risolti, quantomeno a livello teorico, in modo soddisfacente poiché si dimostra
(French, 1986) che, se un decisore agisce conformandosi ad un certo insieme di
postulati di comportamento razionale, allora esiste una funzione a valori reali (funzione
di utilità) definita sull’insieme delle conseguenze e se il decisore sceglie l’azione cui
corrisponde il massimo dell’utilità attesa egli agisce in modo conforme al proprio
xiv
schema di preferenze massimizzando il beneficio. Pertanto, il criterio ottimale di scelta
in situazioni di rischio o incertezza è quello della massimizzazione dell’utilità attesa.
E’ noto, e ne sono esempio i numerosi paradossi presenti in letteratura, come i
comportamenti dei decisori non siano spesso in accordo con i principi di razionalità sui
quali si basa il modello classico dell'utilità attesa. Questo aspetto ha indotto molti autori
a considerare tale modello inadeguato come strumento operativo; in particolare, il
divario che spesso si osserva fra il comportamento ideale ipotizzato in un modello
normativo e il comportamento effettivo dei decisori è stato il motivo principale di
rivisitazioni e critiche, nonché la base per lo sviluppo di teorie delle decisioni che si
discostano da quella classica. I modelli decisionali normativi, infatti, pur traendo origine
da comportamenti reali, si discostano dai comportamenti stessi proprio per la loro
idealizzazione e astrazione dalle situazioni reali. Tuttavia, ciò non deve necessariamente
indurre al rifiuto dei modelli normativi e all'accettazione di quelli descrittivi, il cui
scopo è quello della identificazione della natura e struttura delle preferenze degli
individui dai quali trarre indicazioni che permettano di configurare preferenze e
decisioni non ancora manifestate.
La semplice descrizione dei comportamenti individuali o di organi decisionali,
infatti, risulta in alcuni contesti altrettanto insoddisfacente, in quanto, se posti di fronte
alle proprie incoerenze, molti decisori cercano di ovviare alle incoerenze stesse proprio
attraverso una rivisitazione e sistemazione delle scelte in accordo con quanto previsto
dai metodi normativi. A questo proposito, alcuni autori hanno evidenziato il fatto che
l'analisi delle decisioni dovrebbe indirizzarsi sempre più verso una risposta alla
domanda: è possibile per i decisori operare in modo tale da non contraddire il proprio
schema di preferenze? Dovrebbe, cioè, suggerire comportamenti ottimali, senza però
fare troppa violenza sulle attitudini più profonde del decisore. In tale ottica si colloca
l'approccio prescrittivo alla teoria delle decisioni: un'analisi prescrittiva dovrebbe
sviluppare procedure volte ad eliminare o ridurre violazioni dei principi cardine delle
scelte razionali.
I modelli prescrittivi sono dunque orientati ad avvicinare i comportamenti degli
agenti a schemi decisionali razionalmente coerenti; tali modelli contemplano
solitamente assiomi più deboli rispetto a quelli classici o, addirittura, possono anche non
trovare inizialmente una giustificazione su base assiomatica.
xv
Il presente contributo s’inserisce in quest’ultimo filone di ricerca seguendo anche
il suggerimento di Bell, Raiffa e Tversky (1988) che hanno sottolineato la necessità, per
la teoria delle decisioni, di indirizzarsi sempre di più per fornire una risposta alla
domanda: “How can real people,…., make better choice in a way that does not violence
to their deep cognitive concerns?”.
Comunque, le considerazioni che verranno svolte hanno, come già sottolineato,
natura teorico-metodologica; ovviamente, per poter fornire strumenti direttamente
operativi si dovrebbe procedere ad una elicitazione della funzione di utilità dei due
organi per poi passare all’esame delle decisioni assunte verificandone la razionalità.
Dall’esame comparativo tra comportamento decisionale ottimale e comportamento
decisionale effettivo si può esprimere un giudizio sulla razionalità e la coerenza dei
comportamenti reali (analisi ex post)4.
Naturalmente, nell’effettuare l’analisi comparativa si dovrà tenere nel debito conto
della peculiarità dei due organi e della natura delle decisioni adottate; ad esempio, si
dovrà tener conto del fatto che moltissime decisioni assunte in sede di Senato
accademico sono semplici ratifiche di delibere o, comunque, pareri positivi riguardo
iniziative, adottate precedentemente in altro luogo, soprattutto in consiglio di facoltà, di
corso di studi o di dipartimento. Questo significa che sono questi ultimi i “veri” organi
decisionali, che dovrebbero avere a disposizione le informazioni utili per giungere a una
decisione razionale, mentre il Senato accademico ricopre un ruolo di “supervisore”,
dando il proprio beneplacito all’attività svolta nelle varie facoltà e dipartimenti.
4 A conclusione del volume, viene presentato un caso di applicazione della teoria dell’utilità alle fondazioni di origine bancaria. L’analisi si è focalizzata sull’elicitazione della funzione di utilità della Fondazione Monte dei Paschi di Siena (MPS) e dell’Ente Cassa di Risparmio di Firenze (CRF), allo scopo di individuare la struttura di preferenze e, quindi, le linee di comportamento ottimale (analisi ex ante) che ciascuna delle due fondazioni dovrebbe seguire nella scelta e nella selezione dei progetti da finanziare. Successivamente, si è proceduto (analisi ex post) ad un esame comparativo tra comportamento decisionale ottimale e comportamento decisionale effettivo, in modo da esprimere un giudizio sulla razionalità e la coerenza dei comportamenti reali.
1
Capitolo 1 TEORIA DELLE DECISIONI
1.1 INTRODUZIONE
Oggetto di studio della teoria delle decisioni è il processo decisionale. Attraverso
l’analisi del comportamento degli agenti (individui o gruppi) coinvolti nel processo si
procede, cioè, all’esame di come i decisori prendono o dovrebbero prendere delle
decisioni.
Allo sviluppo della teoria delle decisioni hanno contribuito cultori di discipline
diverse: filosofi e logici, matematici e statistici, psicologi e sociologi, economisti, ecc.
Le applicazioni della teoria spaziano dalle speculazioni astratte, relative ad agenti
idealmente razionali, ai suggerimenti pratici per la risoluzione di specifici problemi
decisionali. I teorici della decisione indagano sulle conseguenze logiche di differenti
regole decisionali o esplorano gli aspetti logico-matematici di diverse descrizioni di
comportamento razionale; gli applicati sono invece interessati all’esame dei processi
decisionali così come gli stessi si svolgono nella realtà.
In questa ottica si è soliti distinguere la teoria delle decisioni in due filoni
principali: teoria normativa e teoria descrittiva. Chi si occupa di teoria descrittiva
cerca di scoprire come le decisioni vengono prese nei diversi contesti operativi; chi si
occupa di teoria normativa analizza il modo con cui le decisioni dovrebbero essere prese
facendo riferimento ad agenti idealmente razionali. Questa distinzione è utile ma
alquanto artificiale, essendo l’informazione sul modo effettivo di prendere decisioni,
certamente rilevante ai fini della fissazione di regole su come le decisioni devono essere
prese, ma, d’altro lato, nessuno studio sul comportamento effettivo di agenti può
consentire il conseguimento di risultati soddisfacenti se lo stesso non viene, in qualche
modo, posto a confronto con una sorta di comportamento ideale.
2
La teoria descrittiva delle decisioni non interessa in questa sede essendo oggetto di
discipline specifiche quali la psicologia, la sociologia e, per alcuni aspetti, l’economia.
Qui verranno presentati gli elementi essenziali della teoria normativa delle decisioni: ci
si occuperà, cioè, di come le decisioni dovrebbero essere prese per massimizzare il
proprio benessere e non di come le decisioni sono effettivamente prese focalizzando, in
particolare, l’attenzione sulla teoria dell’utilità.
Ma, come già sottolineato, il riferimento alla teoria normativa non può essere
assoluto, si deve, infatti, tenere conto di tutta una serie di vincoli e di condizionamenti
che emergono dall’analisi dei processi reali affinché le regole di comportamento
razionale possono tradursi in comportamenti effettivi.
Per caratterizzare e distinguere questo specifico sviluppo della teoria normativa
delle decisioni alcuni autori hanno suggerito la dizione teoria prescrittiva che si
caratterizza, appunto per il fatto che le regole ideali di comportamento razionale
analizzate devono poter essere tradotte in comportamenti reali.
Un’altra importante distinzione operata all’interno della teoria delle decisioni è
quella tra decisioni individuali e decisioni di gruppo. Da sottolineare che ai fini di
questa distinzione una decisione individuale non deve necessariamente riferirsi ad un
singolo individuo, anche le imprese, le associazioni, i partiti, le nazioni, le regioni, le
università, ecc., quando mirano al conseguimento di un obiettivo comune della
organizzazione, prendono decisioni individuali. Si parla, invece, di decisioni di gruppo
quando gli individui che appartengono alla stessa organizzazione manifestano opinioni
diverse rispetto ai fini o alle priorità del gruppo.
La parte più rilevante della ricerca relativa alla teoria delle decisioni di gruppo è
stata rivolta allo sviluppo di strategie comuni per governare i vari componenti del
gruppo e alla distribuzione delle risorse all’interno del gruppo stesso ed in questo
ambito assumono, spesso, grande rilevanza aspetti etici e morali. All’opposto, nella
teoria delle decisioni individuali ci si concentra sul problema di come gli individui
possono favorire i propri interessi, qualunque sia la loro natura, non riconoscendo
alcuna rilevanza ad aspetti etici e/o morali; potrebbe essere pertanto possibile per un
agente idealmente razionale trovarsi in condizioni migliori violando la strategia comune
del gruppo di appartenenza.
3
Risulta chiaro ormai perché alcuni filosofi siano rimasti affascinati dalla teoria
delle decisioni; la teoria non si limita alle applicazioni in problemi filosofici tradizionali
ma è la teoria stessa che è intrisa di problemi filosofici. Comunque i filosofi sono più
interessati all’applicazione della teoria delle decisioni ai problemi filosofici piuttosto
che all’analisi dei problemi filosofici ad essa interni.
La nozione di agente razionale risulta di fondamentale importanza in filosofia. Le
azioni morali sono azioni razionali? Gli agenti razionali costruiscono società giuste? A
questi interrogativi, i filosofi non sono riusciti a fornire una risposta soddisfacente
finché, nell’ambito della moderna teoria delle decisioni, non sono stati sviluppati
modelli specifici di razionalità e principi specifici di scelta sociale. E’ certamente vero
che le risposte fornite non sono ancora conclusive, ma è anche vero che le
argomentazioni avanzate sono oggi molto meno vaghe di quelle svolte in passato.
Dunque la teoria delle decisioni è di per sé filosoficamente importante, ma gli
aspetti filosofici verranno trascurati in questa sede, così come verrà trascurata tutta la
problematica relativa alle decisioni di gruppo.
1.2 CONTESTO DECISIONALE
Qualunque decisione, sia essa individuale o di gruppo, comporta una scelta tra più
alternative, o azioni, o atti, ciascuna delle quali produrrà una tra più conseguenze che
dipenderà dalle condizioni del contesto, stato di natura, nel quale il processo
decisionale si svolge. Le decisioni, sono, pertanto, costituite da azioni, stati e
conseguenze, con le ultime che dipendono, nella generalità dei casi, dall’azione e dallo
stato in cui l’azione si verifica.
Quando si analizza un problema di decisione, l’analista, che può essere lo stesso
soggetto che prende la decisione, deve individuare l’insieme rilevante delle azioni, degli
stati e delle conseguenze per caratterizzare in modo adeguato il problema stesso.
Attraverso l’individuazione di azioni, stati e conseguenze e costruendo, eventualmente,
una tavola o un albero di decisione, si procede alla specificazione del problema
decisionale.
4
Alcune interessanti questioni sono legate alla specificazione di un problema
decisionale. La prima riguarda la descrizione appropriata degli stati di natura. Ogni
problema decisionale implica delle conseguenze che il soggetto della decisione
considera migliori di altre, altrimenti non sussisterebbe un problema di scelta. In questo
ambito assume particolare rilevanza il principio della dominanza che dice di escludere
tutte le alternative che comportano conseguenze peggiori, qualunque sia lo stato di
natura, di una qualche specifica alternativa. Se c’è un’alternativa che domina tutte le
altre, il principio di dominanza porta a scegliere tale alternativa ed il problema
decisionale è risolto in modo ottimale. Sfortunatamente casi del genere si riscontrano
molto raramente nelle situazioni reali.
Una seconda interessante questione legata alla specificazione del problema
decisionale è quella relativa alla distinzione tra decisione giusta e decisione razionale.
La decisione di chi agisce è giusta se si risolve in esiti ottimali; se si disponesse di una
conoscenza completa del futuro basterebbe, pertanto, fare riferimento al solo principio:
prendi la decisione giusta. Purtroppo la maggior parte delle decisioni è basata su ciò
che si ritiene possa accadere e non su quello che accadrà realmente. Nella quasi totalità
dei casi risulta quindi impossibile prendere una decisione giusta, si dovrà allora
prendere una decisione razionale, valutando al meglio l’insieme parziale di informazioni
a disposizione riguardo al vero stato del mondo, e non è affatto scontata l’equivalenza:
decisione razionale = decisione giusta.
Da quanto sopra detto emerge implicitamente una diversificazione tra situazioni
decisionali.
Usualmente si distinguono le decisioni, a seconda del contesto informativo in cui
l’agente opera, in:
1. decisioni in situazioni di certezza
2. “ “ “ “ rischio
3. “ “ “ “ incertezza
Se con { }1 2, ,..., ,...,i mA a a a a= ⋅ si indica l’insieme delle decisioni (azioni)
alternative possibili, con { }1 2, ,..., ,...,j nθ θ θ θΘ = ⋅ l’insieme dei possibili stati di natura e
5
con { }11 12, ,..., ,...,ij mnC c c c c= ⋅ l’insieme delle conseguenze, dove le conseguenze ijc
sono funzione dell’azione ia e dello stato jθ
),a(fc jiij θ= per i=1, 2, ..., m ; j=1, 2, ..., n
si può rappresentare il processo decisionale (dove è stato ipotizzato un numero discreto
di alternative ed un numero discreto di stati di natura) in modo appropriato facendo
ricorso alla tavola di decisione:
Tab. 1.1 - Tavola di decisione
Se l’agente, il decisore, conoscesse lo stato di natura, ad es.: jθ , il problema di
scelta si ridurrebbe al confronto tra m conseguenze (nell’es. mjijjj c,...,c,...,c,c 21 ) e la
scelta razionale equivarrebbe alla scelta giusta, sempre che siano note le conseguenze ed
il decisore sia in grado di esprimere, in modo razionale, le sue preferenze riguardo alle
conseguenze stesse. Il comportamento razionale consente, in altre parole,
l’individuazione dell’alternativa ottimale che comporta il conseguimento del massimo
beneficio.
Se lo stato di natura non è noto ma si dispone di una misura della probabilità dei
vari stati di natura, si parla di decisioni in situazioni di rischio. Se non si dispone di
alcuna informazione sulla probabilità dei vari stati di natura, si parla di decisioni in
situazioni di incertezza.
mnmj2m1mm
inij2i1ii
n2j222212
n1j112111
nj21
cccca
cccca
ccccacccca
Azioni
θθθθnatura
di Stato
LL
MMMMM
LL
MMMMM
LLLL
LL
6
Alcuni autori, quelli che si richiamano alla Scuola bayesiana-soggettivista, non
accettano la tripartizione sopra richiamata in quanto ritengono, non solo possibile, ma
anche necessario, per una risoluzione ottimale dei problemi decisionali, procedere
all’introduzione di una misura della plausibilità (probabilità soggettiva) dei vari stati di
natura facendo così cadere la distinzione tra situazioni di rischio e situazioni di
incertezza.
Si supponga ora che le conseguenze siano esattamente definite, che siano, ad es.,
espresse in termini monetari
),a(fcy jiijij θ== per i=1, 2, ..., m ; j=1, 2, ..., n
e che il beneficio per il decisore sia rappresentato esclusivamente dal valore monetario
assumendo, ragionevolmente, che un valore monetario più elevato sia preferito ad un
valore monetario più basso. L’azione ottima è, pertanto, quella cui corrisponde il valore
monetario più elevato. Quindi, nel caso in cui il decisore si trova ad operare in
situazioni di certezza, di conoscenza, in altre parole, dello stato di natura, il problema
decisionale è praticamente risolto: basterà, infatti, scorrere la colonna dei valori
monetari, individuare il più elevato e scegliere l'azione corrispondente a tale valore.
Molto più problematico è il caso in cui il decisore si trova ad operare in situazioni
di rischio o incertezza. Infatti, se si guarda alla Tab. 1.2, dove ai simboli algebrici ijc
sono stati sostituiti i simboli ijy , che rappresentano valori monetari, si vede chiaramente
come, non essendo noto lo stato di natura, non sia possibile operare il confronto tra i
valori numerici riportati nella Tavola a meno che non ci si riconduca ad una situazione
analoga a quella prospettata in precedenza (situazione di certezza) dove ad ogni azione
diversa corrisponde un solo valore numerico; si tratta, in altre parole, di passare, in
qualche modo, da n colonne ad una sola colonna. Ma sui problemi di scelta in tali
situazioni si avrà modo di soffermare l’attenzione successivamente dopo aver esaminato
il caso delle decisioni in situazioni di certezza quando le conseguenze non sono espresse
in termini monetari.
7
Tab. 1.2 - Tavola di decisione con conseguenze monetarie
1.3 TEORIA DEL VALORE
I fondamenti della moderna teoria delle decisioni o, com’è ormai usuale dire, della
teoria del valore o, più in generale, dell’utilità, si trovano nell’opera di Von Neumann e
Morgenstern.(1953). I due autori mostrano come, sulla base di certi postulati o assiomi
di comportamento razionale di colui che deve prendere una decisione, sia possibile
introdurre una funzione a valori reali detta, a seconda del contesto in cui si opera, di
valore o di utilità, per cui una decisione fondata unicamente su tale funzione si riduce in
effetti ad una scelta fatta seguendo il proprio schema di preferenze.
Critiche di varia natura sono state rivolte al criterio dell’utilità. Esse possono
essere comunque ridotte e sintetizzate nei due punti seguenti:
• quelle rivolte all’evidenza empirica degli assiomi di comportamento razionale
che sono alla base della moderna teoria dell’utilità;
• quelle che sottolineano l’impossibilità pratica di derivare una funzione di valore
o di utilità significativa.
Per quanto riguarda la prima serie di critiche si può rispondere che esse hanno, ma
non sempre, una certa rilevanza quando si considera il comportamento di un agente e si
voglia poi accertare fino a che punto egli segue le linee di comportamento razionale
attribuitegli. Quando però dal piano di verifica empirica di una teoria, intesa in senso
unicamente descrittivo, si passa al piano operativo, e quindi normativo della stessa, tali
critiche perdono, almeno in parte, di significato.
mnmj2m1mm
inij2i1ii
n2j222212
n1j112111
nj21
yyyya
yyyya
yyyyayyyya
Azioni
θθθθnatura
di Stato
LL
MMMMM
LL
MMMMM
LLLL
LL
8
Il problema della rilevanza degli assiomi sul comportamento del decisore, va visto,
non nel senso di buona descrizione ma in quello di buona norma. Un tale problema
risulta però estremamente delicato in quanto, come già sottolineato, le implicazioni
normative degli assiomi, e quindi la bontà degli stessi, vanno giudicate in funzione dei
risultati cui conduce la teoria che su di essi è fondata.
Il caso relativamente più semplice da affrontare è quello delle decisioni in
condizioni di certezza; in una tale situazione il soggetto decisore deve effettuare una
scelta tra m azioni alternative possibili, a ciascuna delle quali è associata una ed una sola
conseguenza di natura qualsiasi. Il problema di decisione può essere rappresentato
secondo il seguente schema:
Tab. 1.3 - Tavola di decisione in situazioni di certezza con conseguenze di qualunque natura
Azioni Conseguenze 1a 1c
2a 2c . . . . . .
ia ic . . . . . . ma mc
dove ai ∈ A (spazio o insieme delle azioni), ic ∈ C (spazio o insieme delle conseguenze).
Prima di procedere nell’esposizione degli assiomi di comportamento razionale, si
sottolinea che l’approccio adottato in questa sede non è quello originario di Von
Neumann e Morgestern. Infatti, la presentazione non troppo chiara della teoria da parte
dei due autori (per esempio, i due non fanno mai uso della relazione di indifferenza) ha
spinto altri studiosi (tra cui, Marschak, Friedman e Savage, Samuelson, Herstein e
Milnor, Cramer, Jensen) a formulare assiomatizzazioni alternative, in grado di condurre
in modo più semplice alle medesime conclusioni della teoria originaria. L’approccio
9
adottato in questa sede si basa sulle relazioni di preferenza5 e su un numero di assiomi
considerevolmente più numeroso di molti altri approcci alternativi: normalmente (cfr.,
per es., Herstein e Milnor 1998), si parte da tre assiomi di base, deducendo da questi,
tramite dimostrazioni, dei lemmi, molti dei quali vengono qui assunti direttamente come
assiomi.
Si procede ora all’elencazione degli assiomi di comportamento razionale per
passare poi alla enunciazione e dimostrazione dei teoremi relativi all’esistenza e
all’unicità di una funzione di valore ordinale e di una funzione di valore misurabile.
Nel paragrafi successivi verrà abbandonata l’ipotesi limitante di contesto di
certezza per passare al caso più generale di decisioni in condizioni di rischio. In tale
sede, tramite l’introduzione di ulteriori assiomi di comportamento razionale, si
dimostrerà l’esistenza e l’unicità della funzione di utilità.
5 Per facilitare la comprensione dei postulati o assiomi di comportamento razionale si riportano di seguito alcuni concetti di base relativi alle relazioni binarie e, in particolare, alle relazioni di preferenza.
Dato un insieme A = {a, b, c, ... } di elementi, una relazione binaria R sugli elementi di A sta a significare che se si prendono due elementi (a, b) qualsiasi dell'insieme A, o tra gli stessi esiste la relazione R (a R b) oppure la relazione stessa non sussiste (a R b), cioè non è vero che a R b.
Una qualunque relazione binaria R tra gli elementi {a, b, c, ... } di un insieme A può soddisfare o meno le proprietà sotto elencate: Transitività: R è transitiva se, ∀ a, b, c ∈ A tali che a R b e b R c, è anche vero a R c. Asimmetria: R è asimmetrica se, ∀ a, b∈ A, a R b e b R a non sono entrambe vere. Equivalentemente,
∀ a, b ∈ A, a R b⇒ b R a. Simmetria: R è simmetrica se, ∀ a, b ∈ A, se a R b allora necessariamente b R a. Equivalentemente,
∀ a, b ∈ A, a R b ⇒ b R a. Riflessività: R è riflessiva se, ∀ a ∈ A, a R a. Confrontabilità: R è confrontabile se, ∀ a, b ∈ A, a R b o b R a oppure valgono entrambe.
Equivalentemente, ∀ a, b ∈ A o a R b o b R a oppure valgono entrambe le relazioni.
Transitività negativa: R è negativamente transitiva se, ∀ a, b, c ∈ A tali che a R b, b R c è anche vero che a R c.
Antisimmetria: R è antisimmetrica se, ∀ a, b ∈ A, (a R b e b R a)⇒ a = b. In questa sede interessano la relazione di preferenza forte f (a f b sta a significare che l'agente -
il decisore - preferisce strettamente l'alternativa a all'alternativa b); la relazione di preferenza debole f
(a f b sta a significare che l'agente - il decisore - preferisce debolmente l'alternativa a all'alternativa b); la relazione di indifferenza ∼ (a ∼ b sta a significare che le due alternative forniscono all'agente - il decisore - esattamente lo stesso beneficio); la relazione di scambio ← (a ← b sta ad indicare la cessione di b per avere in cambio a; da sottolineare che sugli scambi l'agente - il decisore - dovrà esprimere le proprie preferenze).
10
Assiomi di comportamento razionale (parte I)
Dato l’insieme di conseguenze di natura qualsiasi X ≡ ( )1 2, ,.... mx x x e le relazioni
di f , ∼, f , si possono definire i seguenti assiomi, esplicativi di un comportamento
razionale:
Assioma 1: Comparabilità
, ,i j i jx x X x x∀ ∈ ⋅ ⋅f oppure j ix x⋅ ⋅f oppure sono vere entrambe
Questo assioma indica che non può esistere incertezza: il decisore è sempre in
grado di esprimere le sue preferenze sulle conseguenze, al massimo può essere
indifferente tra due conseguenze, ma non può mai dichiararsi incapace di rispondere.
Assioma 2: Transitività
Xxxx kji ∈∀ ., , se i jx x⋅ ⋅f e j k i kx x x x⋅ ⋅ ⇒ ⋅ ⋅f f
Assioma 3: Coerenza tra indifferenza e preferenza debole
Per ogni coppia di oggetti xi, xj ∈ X:
xi ∼ xj ⇔ (xi f xj e xj f xi)
Assioma 4: Coerenza tra preferenza forte e preferenza debole Per ogni coppia di oggetti xi, xj ∈ X:
⇔ji xx f non è vero che xj f xi
Da questi primi quattro assiomi si può dimostrare il seguente teorema:
Teorema 1 - Se gli assiomi 1 – 4 vengono rispettati, allora:
a) f è transitiva e asimmetrica
b) ∼ è transitiva, riflessiva e simmetrica
c) ∀ xi, xj, xk ∈ X, (xi ∼ xj e xj f xk)⇒ xi f xk
11
d) ∀ xi, xj,∈ X, vale una ed una sola delle seguenti relazioni: xi f xj, xi ∼ xj, xj f xi.
Dimostrazione:
• Si dimostra che la relazione di preferenza forte f è transitiva
Si supponga, per assurdo, che xi f xj, xj f xk e xk f xi. Allora:
xj f xk ⇔ xk f xj dall’assioma 4
j kx x⇒ ⋅ ⋅f dall’assioma 1
,j k k i j ix x x x x x⋅ ⋅ ⋅ ⋅ ⇒ ⋅ ⋅f f f dall’assioma 2
ma i j jx x x⇔ ⋅f f ix⋅ dall’assioma 4
Come si può osservare le ultime due relazioni sono tra loro in contraddizione: si
deve pertanto concludere che l’ipotesi iniziale non è ammissibile, cioè xi f xj, xj f xk e
xk f xi non possono essere simultaneamente vere.
• Si dimostra che la relazione di preferenza forte f è asimmetrica
Si supponga, per assurdo, che f non sia asimmetrica. Allora, esistono un xi e xj ∈
X tali che xi f xj e xj f xi.
xi f xj ⇒ non è vero che xj f xi dall’assioma 4
xj f xi ⇒ non è vero che xi f xj dall’assioma 4
Ma, per l’assioma 1 della confrontabilità, queste due ultime relazioni non possono
sussistere contemporaneamente. Quindi, f è asimmetrica.
• Si dimostra che la relazione di indifferenza ∼ è transitiva
12
Si supponga che xi ∼ xj e che xj ∼ xk.
xi ∼ xj ⇒ xi f xj e xj f xi per l’assioma 3
xj ∼ xk ⇒ xj f xk e xk f xj per l’assioma 3
Per l’assioma 2 (transitività della relazione di preferenza debole), si ha che xi f xk
e xk f xi (dall’assioma 3) e, quindi, ∼ è transitiva.
La dimostrazione che ∼ è riflessiva e simmetrica è simile a quella appena esposta.
• Si dimostra che ∀ xi, xj, xk ∈ X, (xi ∼ xj e xj f xk)⇒ xi f xk
Si supponga che xi ∼ xj, xj f xk e ki xx f/ . Allora:
i k k ix x x x⇒ ⋅/f f per l’assioma 4
xi ∼ j i jx x x⇒ ⋅f per l’assioma 3
Quindi, k jx x⋅f per l’assioma 2 (transitività).
Ma j k kx x x⇒f f jx⋅ . Segue, dunque, che: (xi ∼ xj e xj f xk)⇒ xi f xk
• Si dimostra che )∀ xi, xj,∈ X, vale una ed una sola delle seguenti relazioni:
xi f xj, xi ∼ xj, xj f xi
Ignorando i 4 assiomi di base, per ogni coppia di oggetti xi e xj sussiste una delle
seguenti quattro possibili alternative:
I) ji xx f e jx ⋅f ix
II) i jx x⋅f e j ix x⋅f
III) ix ⋅f jx e j ix x⋅f
IV) ix ⋅f jx e jx ⋅f ix
Per l’assioma 4, la I) implica che ji xx f e la III) implica che ij xx f ; per
l’assioma 3, la II) implica che xi ∼ xj; infine, per l’assioma 1, la IV) risulta impossibile.
13
Se i quattro assiomi sono soddisfatti, valgono i due teoremi sotto riportati.
Teorema 2 - (Esistenza della funzione di valore). Per ogni insieme finito di
oggetti (conseguenze) X={ x1,x2, ...,xm} sul quale viene introdotta una relazione f che
soddisfa gli assiomi [1- 4] esiste, e può essere costruita, una funzione a valori reali
espressi in scala ordinale V(⋅) tale da soddisfare la relazione
xi f xj ⇔ V(xi) ≥ V(xj).
Il teorema 2 stabilisce l'esistenza di una funzione a valori reali perfettamente
equivalente allo schema di preferenze del decisore.
Dimostrazione:
Sia V(xi) il numero di oggetti xi ∈ X tali che xi f xj. Si vuol dimostrare che:
xi f xj ⇔ V(xi) ≥ V(xj).
Innanzitutto, si dimostra che xi f xj ⇒ V(xi) ≥ V(xj). Sia xk ogni oggetto tale che xj
f xk. Se xi f xj, allora, per la transitività xi f xk.. Così ogni oggetto considerato in
V(xj) è considerato anche in V(xi). Quindi, xi f xj ⇒ V(xi) ≥ V(xj).
Si dimostra ora che
xi f xj ⇒ V(xi) > V(xj).
Da quanto dimostrato al punto precedente risulta che xi f xj ⇒ xi f xj ⇒ V(xi) ≥
V(xj). Ma se
xi f xj,
14
allora
jx ⋅f ix .
Così esiste almeno un oggetto xi considerato in V(xi) (poiché xi f xi) ma non
considerato in V(xj). Quindi
xi f xj ⇒ V(xi) ≥ V(xj) + 1 > V(xi).
Infine, si dimostra che
V(xi) ≥ V(xj) ⇒ xi f xj.
Si supponga, per assurdo, che questo non sia vero: esistono allora un xk e un xl ∈ X
tali che
V(xk) ≥ V(xl) e kx f lx
Ma:
kx ⋅f
( ) ( )( ) ( )
l l k
l k
k l
x x x
V x V x
V x V x
⇒
⇒ >
⇒ ≥/
f
Quest’ultima relazione è in contraddizione con l’ipotesi formulata, quindi tali xk ed
xl non possono esistere e risulta dimostrato il risultato richiesto.
Teorema 3 - (Unicità della funzione di valore). Per ogni insieme finito di oggetti
(conseguenze) X = {x1,x2, ...,xm} sul quale viene introdotta una relazione f che soddisfa
gli assiomi [1- 4], esistono due funzioni di valore V(⋅) e W(⋅) che soddisfano le relazioni
15
xi f xj ⇔ V(xi) ≥ V(xj) e xi f xj ⇔ W(xi) ≥ W(xj)
se e solo se V(⋅) = h(W(⋅)) dove h(⋅) è una funzione monotona crescente.
Il teorema 3 stabilisce che la funzione a valori reali espressi in scala ordinale è
unica a meno di una trasformazione monotona crescente.
Dimostrazione:
Si supponga che W(.) sia una funzione a valori ordinali per la quale vale la
relazione di preferenza debole e che h(.) sia una funzione strettamente crescente. Allora
( ) ( )i j i jx x W x W x⋅ ⇔ ≥ ⋅f poiché W(.) è una funzione a valori ordinali,
( )( ) ( )( )i jh W x h W x⇔ ≥ ⋅ , poiché h(.) è una funzione strettamente crescente,
( ) ( )ji xVxV ≥⇔ .
Quindi, V(.) è una funzione di valore espressa in scala ordinale per la quale vale la
stessa relazione di preferenza debole che vale per W(.).
Si dimostra ora che, se V(.) e W(.) sono entrambe funzioni di valore espresse in
scala ordinale coerenti con la stessa struttura di preferenze, allora esiste una funzione
monotona crescente h(.) tale che V(⋅)=h(W(⋅)).
Si consideri il grafico seguente
Fig. 1.1 – Unicità della funzione di valore
V(xi) V
W(xj) W(xi)
V(xj)
W
16
Poiché V(.) e W(.) rappresentano le stesse preferenze, si ha:
( ) ( ) ( ) ( )i j i j i jV x V x x x W x W x≥ ⇔ ⋅ ⋅ ⇔ ⋅ ≥ ⋅f
Congiungendo i punti, come mostra il grafico, si ottiene una funzione strettamente
crescente h(.) tale che V(.) = h(W(.)).
La funzione a valori reali espressi in scala ordinale, pur fornendo una prima
quantificazione delle preferenze non consente di esprimerne le intensità; non consente,
cioè, di trattare algebricamente i suoi valori, prerogativa questa propria delle funzioni
espresse in scala di intervallo o di rapporto. Per derivare una tale funzione, in cui abbia
quindi senso parlare anche di distanza tra preferenze, occorre introdurre il concetto di
scambio tra oggetti e una relazione di preferenza sugli scambi. Una generica relazione
di scambio si indica con (xi ← xj) e si legge: “lo scambio di xj con xi, vale a dire la
cessione di xj per ottenere xi”. Anche sulle relazioni di scambio ha senso introdurre le
relazioni di preferenza forte, di preferenza debole e di indifferenza (per distinguerle
dalle analoghe relazioni sugli oggetti saranno indicate con una “s” come pedice), anzi,
l’introduzione di queste relazioni è fondamentale per poter costruire gli intervalli di
preferenza e, quindi, misurare l’intensità delle preferenze tra i vari oggetti. Quindi, data
una relazione di scambio e le relazioni di preferenza suddette sugli oggetti e sugli
scambi, si possono definire i seguenti assiomi:
Assiomi di comportamento razionale (parte II)
Assioma 5: Ordinamento debole
Sia la relazione f che la relazione sf soddisfano gli assiomi 1 – 4
Assioma 6: Coerenza tra f e sf e coerenza interna della relazione di scambio
∀ xi, xj, xk ∈ X:
xi f xj ⇔ (xi ← xj) sf (xk ← xk) ∀ xk ∈ X,
17
cioè la relazione di preferenza tra due oggetti deve permanere anche quando si
confronta lo scambio tra questi due oggetti con lo scambio di un oggetto con se stesso,
che, di fatto, è analogo ad un “non scambio”. Questo assioma implica, a sua volta, due
ulteriori relazioni:
a) (xi ← xj) sf (xk ← xz) ⇔ (xz ← xk) sf (xj ← xi), cioè quando esiste una
relazione di preferenza tra scambi, la stessa si inverte quando si inverte lo scambio.
b) (xi ← xj) sf (xk ← xz) e (xj ← xl) sf (xz ← xy) ⇔ (xi ← xl) sf (xk ← xy),
cioè la stessa relazione di preferenza permane sia quando lo scambio è diretto che
quando avviene tramite un terzo oggetto.
Assioma 7: Solvibilità
Questo assioma afferma che il decisore è sempre in grado di rispondere a domande
del tipo: dati xi, xj, xk qual è la vincita monetaria y tale che (y← xi) ∼s (xj ← xk)?
Oppure: dati xi, xj, qual’è la vincita monetaria y tale che (xi← y) ∼s (y ← xj)? Questo
assioma è detto di solvibilità, poiché assume che dall’interazione con il decisore,
l’analista possa sempre determinare il risultato incognito in una relazione di indifferenza
tra lotterie. Si noti che, al contrario di tutti gli altri assiomi, qui non si fa nessuna
assunzione sulle preferenze dell’individuo, ma si assume, piuttosto, che l’insieme X
degli oggetti è “ricco abbastanza” da far sì che sia sempre individuabile un y che
soddisfi il requisito di indifferenza. In termini formali, l’assioma può essere scritto nel
modo seguente:
∀ xi, xj, xk ∈ X ∃ y ∈ X tale che: (y← xi) ∼s (xj ← xk)
e
∀ xi, xj ∈ X ∃ y ∈ X tale che: (xi← y) ∼s (y ← xj)
Assioma 8: Proprietà Archimedea
Ogni sequenza standard strettamente limitata è finita.
Una sequenza standard strettamente limitata è definita nel seguente modo:
18
{ ( )1; −← nnnn xxxyx f ∼s ( ) }01 xx ← ,
dove | indica il condizionamento alle relazioni che lo seguono; nel caso particolare che
si sta trattando y f xn significa che la sequenza è strettamente limitata e (xn ← x(n-1)) ∼s
(x1 ← x0) implica che (x1 ← x0) ∼s (x2 ← x1) ∼s (x3 ← x2) ∼s … ∼s (xn ← x(n-1)), ossia che
la sequenza è standard.
Sulla base degli ultimi 4 assiomi introdotti, si possono dimostrare i due seguenti
teoremi.
Teorema 4 - Esistenza della funzione di valore misurabile - Per ogni insieme
finito di oggetti (conseguenze) X = { x1,x2,...,xm} sul quale vengono introdotte le
relazioni f e sf che soddisfano gli assiomi {5-8} esiste, e può essere costruita, una
funzione misurabile a valori reali espressi in scala di intervallo V(⋅) tale da soddisfare le
relazioni
xi f xj ⇔ V(xi) ≥ V(xj);
(xi ← xj ) sf (xh ← xk ) ⇔ V(xi) - V(xj) ≥ V(xh) - V(xk).
Il teorema 4 stabilisce l'esistenza di una funzione di valore misurabile
perfettamente equivalente allo schema di preferenze del decisore.
Dimostrazione:
Se si riesce a costruire una funzione di valore misurabile V(.), allora si è
dimostrata la sua esistenza.
Si Supponga che un soggetto decisore debba scegliere tra diverse somme di
denaro positive che gli vengono offerte per incrementare le sue attività: naturalmente
quanto più alta è la somma offerta e tanto più questa è preferita dal soggetto.
Innanzitutto, nel costruire V(.), deve essere definita una unità di misura: presa una
somma di denaro positiva arbitraria xj, si ponga V(0) = 0 e V(xj) = 1, dove 0 = 0x .
19
Per l’assioma di solvibilità, il decisore è sempre in grado di determinare una
somma di denaro 2x in modo tale che:
( )12 xx ← ∼ ( )01 xx ←
Tale relazione implica che
( ) ( ) ( ) ( )( ) 22
0112
=⇒−=−
xVxVxVxVxV
Una volta identificato 2x , con meccanismo analogo il soggetto è chiamato a
determinare 3x in modo tale che
( )23 xx ← ∼ ( )12 xx ←
e così via… In questo modo si arriva ad identificare una sequenza di somme di denaro
0x , 1x , 2x , 3x , …, tale che
( )01 xx ← ∼ ( )12 xx ← ∼ …. ∼ ( )1−← nn xx ∼ ….
e dove, ad ogni xi, corrispondono i seguenti valori di V(.):
V( 0x ) = 0, V( 1x ) = 1, V( 2x ) = 2, ………., V( nx ) = n, ………
Dato un x generico è possibile determinare con la massima accuratezza V(x)
dividendo gli intervalli di preferenza ( )1−← nn xx in metà successive. Infatti, se x = xn
per un qualche n, allora V(x) = n, per quanto detto poco sopra. Se, invece, x ≠ xn, si
procede come segue: per la proprietà Archimedea esiste un generico n per cui
20
( )1 nnx x x+ ⋅ ⋅ ⋅ ⋅f f
Quindi,
( ) nxVn ≥≥+1
A questo punto il decisore è chiamato a determinare x(n+1/2) tale che
( ) ( )( )2/11 ++ ← nn xx ∼ ( )( )nn xx ←+ 2/1
Questo implica che V(x(n+1/2)) = n + ½.
Essendo nnn xxx ff 2/11 ++ , la somma x sarà sicuramente contenuta in uno dei due
intervalli
1 1/ 2n nx x x+ +⋅ ⋅ ⋅ ⋅f f oppure 1/ 2n nx x x+ ⋅ ⋅ ⋅ ⋅f f
Supponendo che x sia contenuto nel primo dei due intervalli, questo può essere
ulteriormente suddiviso in due sub – intervalli tramite la determinazione di un xn+3/4 che
renda il decisore indifferente. Continuando secondo questa procedura si può restringere
l’intervallo contenente x in modo da arrivare ad una determinazione di V(x) accurata
quanto si vuole.
Riportando su un sistema di assi cartesiani le coppie (xi, V(xi)), si ottiene proprio la
funzione che esprime e misura le preferenze del soggetto decisore rispetto agli oggetti xi
(in questo esempio somme di denaro, ma qualunque altro oggetto condurrebbe a risultati
analoghi).
Si è, quindi, dimostrato che è possibile costruire una funzione di valore misurabile
per l’insieme di oggetti xi ∈ X, qualunque sia il valore assunto da xi.
21
Teorema 5 - Unicità della funzione di valore misurabile - Per ogni insieme
finito di oggetti (conseguenze) X = { x1,x2,...,xm} sul quale vengono introdotte le
relazioni f e sf che soddisfano gli assiomi {5 - 8}, esistono due funzioni espresse su
scala di intervallo V(⋅) e W(⋅) che soddisfano le relazioni
xi f xj ⇔ V(xi) ≥ V(xj);
(xi ← xj ) sf (xh ← xk )⇔ V(xi) - V(xj) ≥ V(xh) - V(xk);
xi f xj ⇔ W(xi) ≥ W(xj);
(xi ← xj ) sf (xh ← xk )⇔ W(xi) - W(xj) ≥ W(xh) - W(xk),
se e solo se V(⋅ ) = α + β W(⋅) per β > 0.
Il teorema 5 stabilisce che la funzione di valore misurabile è unica a meno di una
trasformazione lineare positiva.
Dimostrazione:
Si supponga che V(⋅ ) = α + β W(⋅) con β > 0, allora:
( ) ( )( ) ( )
( ) ( )0
i j i j
i j
i j
x x W x W x
W x W x per
V x V x
α β α β β
⋅ ⋅ ⇔ ⋅ ≥ ⋅
⇔ + ⋅ ⋅ ≥ ⋅ + ⋅ >
⇔ ⋅ ≥ ⋅
f
Inoltre,
22
( ) ( ) ( ) ( ) ( ) ( )
( ) ( ) ( ) ( )
( ) ( ) ( ) ( ) ( ) ( )
( ) ( ) ( ) ( )
, 0
,
si j h k i j h k
i j h k
i j h k
i j h k
x x x x W x W x W x W x
W x W x W x W x poiché
W x W x W x W x
V x V x V x V x
β β β
β α α β α α
← ⋅ ⋅ ← ⇔ ⋅−⋅ ⋅ ≥ ⋅ ⋅−⋅
⎡ ⎤ ⎡ ⎤⇔ ⋅ ⋅−⋅ ⋅ ≥ ⋅ ⋅ ⋅−⋅ >⎣ ⎦⎣ ⎦⎡ ⎤ ⎡ ⎤⇔ ⋅ ⋅−⋅ ⋅+ ⋅ − ⋅ ≥ ⋅ ⋅ ⋅−⋅ ⋅+ ⋅ −⎣ ⎦⎣ ⎦
⇔ ⋅−⋅ ⋅ ≥ ⋅ ⋅−⋅
f
Quindi, V(⋅ ) = α + β W(⋅ ) è una funzione di valore misurabile coerente con la
stessa struttura di preferenze rappresentata da W(⋅ ).
23
Capitolo 2 TEORIA DELL’UTILITÀ
2.1 INTRODUZIONE
Dopo aver trattato la teoria del valore, che si occupa della costruzione di una funzione
(di valore appunto) coerente con lo schema di preferenze del soggetto decisore in un
contesto di certezza, si estende l’analisi al caso più interessante delle decisioni in
condizioni di rischio passando, quindi, alla teoria dell’utilità.
Nei problemi decisionali relativi a contesti rischiosi, la conoscenza della
distribuzione di probabilità degli stati di natura ha tipicamente sempre portato a
considerare come azione ottimale quella che presenta il maggior valore monetario
atteso, ritenendo, dunque, il criterio della speranza matematica come il criterio
fondamentale di scelta. In realtà, già Bernoulli nel 1738 si accorse che gli individui
spesso non scelgono l’azione che comporta il risultato atteso maggiore, bensì sembrano
scegliere l’azione che determina il risultato avente il “valore morale” atteso più elevato.
Il valore morale di un risultato non è altro che ciò che Von Neumann e Morgenstern nel
1944 chiamano utilità6. Nell’opera “Theory of games and economic behavior” i due
autori presentano una trattazione sistematica della teoria dell’utilità: partendo dalla
relazione di preferenza stretta e da alcuni assiomi di base, che riflettono un
comportamento razionale, essi dimostrano che è possibile costruire una funzione, detta
funzione di utilità, che rappresenti fedelmente la struttura di preferenze di un individuo.
La conoscenza della funzione di utilità di un soggetto consente di identificare l’azione
migliore che è quella cui corrisponde la massima utilità attesa dei risultati da essa
generati a seconda degli stati di natura. Inoltre, dall’analisi della forma e dell’andamento
della funzione di utilità si possono ricavare determinate caratteristiche comportamentali
di un soggetto, fondamentalmente in termini di atteggiamento verso il rischio.
6 In realtà, già nel 1926 Ramsey sviluppa una teoria generale dell’utilità, ma il suo lavoro viene per lo più ignorato.
24
Quanto appena detto può essere chiarito tramite un semplice esempio. Si supponga
che ad un agente (decisore) sia proposta la scelta tra due ipotetiche lotterie, ciascuna
basata sul lancio di una moneta. Egli deve accettare una delle due.
• Lotteria A: si ha una probabilità di ½ di vincere 100 € e una probabilità di ½ di
perderne 60.
• Lotteria B: si ha una probabilità di ½ di vincere 1000 € e una probabilità di ½ di
perderne 500.
Se il decisore confronta le due lotterie in termini di valore monetario atteso egli
sceglierà la lotteria B, infatti:
• ( ) 1/ 2 100 1/ 2 ( 60) 20 €E A = ⋅ + ⋅ − = ⋅
• ( ) 1/ 2 1000 1/ 2 ( 500) 250 €E B = ⋅ + ⋅ − = ⋅ La lotteria B ha un valore monetario atteso maggiore della lotteria A: quindi,
secondo tale criterio decisionale, la scelta ottimale per qualunque decisore dovrebbe
essere sempre B. In realtà, è molto probabile che la maggior parte delle persone poste
davanti alla scelta delle due lotterie scelga la lotteria A. Infatti, la perdita a cui l’agente
potrebbe incorrere scegliendo A è considerevolmente inferiore a quella in cui
incorrerebbe scegliendo B. Questo è l’atteggiamento tipico di soggetti avversi al rischio,
che, in quanto tali, attribuiscono un “valore morale”, cioè un’utilità, maggiore alla
lotteria (in termini più generali all’azione) avente una perdita inferiore. Naturalmente, la
scelta di A non è la scelta migliore in assoluto: altri agenti potrebbero comunque
preferire B, in quanto, essendo maggiormente propensi a rischiare, preferiscono l’azione
che fornisce (con una certa probabilità) la vincita più alta. Quindi, mentre il criterio del
valore monetario atteso individua a priori, tra le azioni alternative possibili, quella
migliore per chiunque, la teoria dell’utilità afferma che per ciascun decisore è possibile
costruire una funzione (di utilità) esplicativa della sua struttura di preferenze in un
particolare contesto. Con riferimento al precedente esempio, per un particolare soggetto
interpellato si può avere la seguente situazione (u indica l’utilità e EU il suo valore
atteso):
25
00,1)500(10,0)60(
20,0)100(00,1)1000(
−=−−=−
==
uuuu
Da questi dati si ottengono le seguenti utilità attese per le due lotterie:
00,0)00,1(2/100,12/1)(05,0)10,0(2/120,02/1)(
=−⋅+⋅==−⋅+⋅=
BEUAEU
La funzione u così costruita è tale che l’ordinamento delle due lotterie da essa
individuato è coerente con la preferenza di A rispetto a B (infatti, EU(A) > EU(B)).
La situazione decisionale in cui per ogni azione alternativa possibile è noto
l’insieme delle conseguenze che potrebbero manifestarsi e la probabilità che ha ogni
stato di natura di verificarsi può essere rappresentata nel seguente modo:
Tab. 2.1 - Tavola di decisione in situazioni di incertezza con conseguenze di qualsiasi natura
Probabilità
Azioni ( )1θP ( )2θP ..... ( )mP θ
1a 11x 12x ..... mx1
2a 21x 22x ..... mx2
.... ..... ..... ..... .....
.... ..... ..... ..... .....
na 1nx 2nx ..... nmx
In alternativa alla rappresentazione tabellare, in questa sede si farà uso soprattutto
dello schema delle lotterie in cui le azioni, e le conseguenze ad esse associate, sono,
appunto, espresse come lotterie. Infatti, tale tipo di rappresentazione si rivela
particolarmente utile nella esplicitazione degli assiomi di comportamento razionale e
26
nella dimostrazione dei teoremi, in quanto il riferimento alle lotterie evidenzia in modo
immediato sia il contenuto sintattico degli assiomi sia la loro valenza semantica.
Prima di proseguire si ricorda che una lotteria semplice è rappresentata nel
seguente modo:
( )nniii xpxpxpxpl ,;......;,;......;,;, 2211=
che può essere messa in corrispondenza alle diverse azioni stabilendo una
relazione di equivalenza tra azioni stesse e lotterie nel senso che se si sceglie l’azione ai
è come scegliere la partecipazione alla lotteria li dove si ha la possibilità di ricevere il
premio xij con probabilità p(θj ).
Una lotteria composta è, invece, rappresentata nel modo seguente:
)l,q;;.........l,q;l,q(l innii i2211=
dove ini lll ,,........., i21 rappresentano le lotterie e nqqq ,,........., 21 r
i ii 1
0, 1q q=
⎛ ⎞≥ =⎜ ⎟
⎝ ⎠∑
rappresentano le probabilità di partecipare a tali lotterie.
Il risultato di una lotteria può consistere, quindi, nella partecipazione ad un’altra
lotteria od anche nel conseguimento di un premio finale; in questa sede si assume che il
numero di passaggi necessari per il conseguimento del premio finale (conseguenza) sia
finito.
Ovviamente, il decisore che è in grado di esprimere le proprie preferenze nei
confronti di lotterie semplici è anche in grado di esprimere le proprie preferenze nei
confronti delle cosiddette lotterie di riferimento. Le lotterie di riferimento sono
espresse nella forma
( )( )1 1 2 31 , ;0, ;0, ;..........; ,r rx p x p x x x p x⋅ ⋅ = −
dove 1x è la conseguenza meno preferita e rx è la conseguenza preferita a tutte le
altre; affinché il problema risulti non banale deve essere 1r xx f .
27
Si può osservare come le singole conseguenze possono essere interpretate come
lotterie degeneri7, infatti:
( )r1ii1i21 ;0,;.........;0,;1,;0,;.........;0,0, xxxxxxxi +−=
2.2 LA FUNZIONE DI UTILITÀ
A questo punto si può procedere nella descrizione della base assiomatica della teoria
delle decisioni in situazioni di rischio o incertezza trattando il problema di scelta
facendo riferimento alle lotterie anziché alle azioni. Quindi, agli otto assiomi di
comportamento razionale descritti nel precedente paragrafo si aggiungono i seguenti.
Assiomi di comportamento razionale (parte III)
Assioma 9: Ordinamento debole
Ribadisce semplicemente che le preferenze del decisore sull’insieme delle lotterie
L obbediscono agli assiomi 1 – 4.
Assioma 10: Continuità
∀ l1, l2, l3 ∈ L, se l1 f l2 f l3 ⇒ ∃ p (con 0 ≤ p ≤ 1) tale che
l2 ∼ p l1 + (1-p) l3
o, con scrittura più compatta,
l2 ∼ (l1 p l3).
Il presente assioma risponde ad un’esigenza di continuità nelle preferenze. Ad
esso sono state mosse varie critiche di carattere logico: per es., alcuni autori affermano
che esistono “premi” per cui nessun valore di p è tale, per il decisore, da consentire il
7 Una lotteria è detta degenere quando la probabilità di ottenere un risultato x è pari ad 1, quindi quando si ottiene x con certezza.
28
rispetto della relazione di indifferenza. Per esempio, se la lotteria l3 ha come risultato
unico possibile la morte del decisore, questi preferirà sempre e comunque la lotteria l2.
In realtà questa critica può essere superata riconoscendo che ognuno di noi, ogni giorno,
compie tante semplici azioni che comportano pur sempre una possibilità di morire (per
es., attraversare la strada).
Assioma 11: Monotonia
Date due lotterie l1 e l2 ∈ L e tali che l1 f l2 e due probabilità p e p’, allora
(l1 p l2) f (l1 p’ l2) ⇔ p ≥ p’
In altre parole, il decisore sceglierà sempre quella lotteria che gli dà la probabilità
più alta di ottenere il risultato preferito.
Assioma 12: Riduzione delle lotterie composte
Sia data la lotteria composta l = (q1, l1; q2, l2; …..; qs, ls), avente, quindi, come
premi le lotterie semplici l1, l2, …., ls e dove lj = (pj1, x1; pj2, x2;…..; pjr, xr) con j = 1,
2, …, s è la generica lotteria premio.
Sia, poi, l’ la lotteria semplice (p1, x1; p2, x2; ….; pr, xr), dove pi = q1p1i + q2 p2i
+ …..+ qs psi per i = 1, 2, …r.
Allora l∼ l’.
L’ultimo assioma sta ad indicare che le preferenze di un individuo dipendono
unicamente dai premi finali e dalle probabilità con cui questi sono ottenuti: il numero di
passaggi per giungere a tali premi e il meccanismo che porta alla determinazione delle
probabilità è del tutto irrilevante. In altri termini, il decisore non considera
minimamente il piacere che può derivare dal partecipare ad un gioco piuttosto che ad un
altro. Nella realtà gli individui si appassionano alle lotterie o, viceversa, si rifiutano di
parteciparvi per motivi morali: in questa sede, però, tali considerazioni possono essere
ignorate, in quanto non interessa descrivere i comportamenti effettivi, ma dare delle
indicazioni di carattere normativo per razionalizzare al meglio il problema decisionale.
L’assioma risponde al più generale principio di invarianza, secondo il quale
rappresentazioni differenti di uno stesso problema di scelta devono produrre le stesse
preferenze: quindi, le preferenze sono indipendenti dal modo in cui vengono presentate.
29
Assioma 13: Sostituzione o cancellazione
Siano z e y ∈ X tali che z∼ y; siano, poi, l ed l’ due lotterie, semplici o composte,
tali che
l = (…..; q, z;……)
l’ = (……; q, y; ….)
allora l∼ l’
Assioma 14: Indipendenza
Dati y, z, w ∈ X tali che z∼ y ⇒ (z p w) ∼ (y p w)
In altre parole, l’ordinamento delle preferenze viene mantenuto in presenza di
trasformazioni equivalenti negli elementi che compongono le lotterie. Questo assioma
comprende quello della riduzione delle lotterie composte e quello di sostituzione. Tra
tutti gli assiomi fin qui presentati è forse quello più significativo, in quanto oggetto delle
più frequenti violazioni empiriche, tanto che le teorie alternative all’utilità attesa (come
si avrà modo di verificare in seguito) si basano su versioni più deboli di tale assioma.
Come caso particolare dell’assioma di indipendenza si ha l’assioma di
interrelazione, che afferma che se l f l’ ⇒ l f p l + (1-p)l’ f l’.
Dagli assiomi appena descritti si ricavano altre due condizioni che dovrebbero
essere rispettate dal soggetto decisore: la coerenza dinamica e il consequenzialismo. La
coerenza dinamica richiede che le scelte fatte dall’individuo al tempo 0 siano coerenti
con quelle fatte al tempo 1; in altre parole, posto davanti a due scelte identiche in due
tempi diversi, il soggetto deve sempre effettuare la medesima scelta. Si consideri, ad es.,
una lotteria composta C, proposta al soggetto al tempo 0, che dà il 90% di probabilità di
non vincere niente e il 10% di scegliere, al tempo 1, tra due lotterie semplici A’ e B’; si
considerino poi due lotterie semplici D ed E, proposte al soggetto al tempo 0, dove D è
identica ad A’ ed E è identica a B’. Dunque, se il soggetto al tempo 0 preferisce D ad E,
allora al tempo 1 dovrà preferire A’ a B’, altrimenti si dice che viola la coerenza
dinamica. Connesso a questo concetto è quello di consequenzialismo, sviluppato da
30
Machina e Hammond (Keller 1992): il consequanzialismo richiede che, in ogni punto
del tempo, il decisore si focalizzi solo sul sotto-gioco che si trova davanti, ignorando le
scelte già fatte e i risultati precedentemente ottenuti. Cioè, il soggetto non deve lasciarsi
influenzare dal passato, ma guardare solo al futuro. Se una tale condizione è rispettata,
allora ogni decisore, in un problema a più stadi, può scegliere la decisione ottimale
percorrendo a ritroso l’albero delle decisioni. Un esempio tipico di consequenzialismo
si ha in quei contesti di scelte aziendali, in cui si deve decidere se continuare a portare
avanti un certo progetto o abbandonarlo, alla luce dei primi esiti negativi riscontrati.
Spesso si tende a portare ugualmente avanti progetti di questo tipo, adducendo come
giustificazione il fatto che “ormai è stato speso tanto su quel progetto che
l’abbandonarlo comporterebbe una perdita maggiore che non il portarlo a termine”: in
realtà questo ragionamento non è molto razionale, dal momento che ciò che è stato
speso fino a questo momento sul progetto rimane tale sia che si scelga di abbandonare il
progetto che di terminarlo. Certo è che se le condizioni del contesto sono mutate in
modo tale da far pensare che gli esiti finali del progetto saranno peggiori di quelli
previsti inizialmente, allora conviene abbandonare lo stesso, evitando così ulteriori costi
e ulteriori perdite, indipendentemente dall’entità degli investimenti già effettuati.
L’impiego degli assiomi di comportamento razionale appena descritti ci consente
di dimostrare l’esistenza e l’unicità della funzione di utilità di un generico soggetto. Qui
di seguito vengono enunciati e dimostrati i due teoremi relativi.
Teorema 6 - (Teorema dell’utilità attesa): esistenza della funzione di utilità.
Se le preferenze di un individuo sull’insieme X obbediscono agli assiomi 1 – 14, allora
esiste una funzione di utilità u su X tale che:
a) xi f xj ⇔ u(xi) ≥ u(xj) ∀ xi, xj ∈ X Proprietà di ordinabilità
b) (p1, x1; p2, x2; ….; pr, xr) ≥p (p’1, x1; p’2, x2; ….; p’r, xr)
⇔ u(p1, x1; p2, x2; ….; pr, xr) ≥ u(p’1, x1; p’2, x2; ….; p’r, xr)
31
⇔ p1u(x1) + p2 u(x2) + …..+ pr u(xr) ≥ p’1u(x1) + p’2 u(x2) + …..+ p’r u(xr)
⇔ ( ) ( )i
r
iii
r
ii xupxup ∑∑
==
⋅≥⋅1
'
1 Proprietà di linearità
Dal teorema appena enunciato risulta, dunque, che un individuo razionale secondo
gli assiomi 1 – 14 sceglierà l’azione a cui egli associa, in base al suo schema di
preferenze, l’utilità attesa maggiore.
Dimostrazione:
Si consideri la lotteria semplice
l = (p1, x1; p2, x2; ….; pr, xr)
Per l’assioma di continuità, ogni premio xi è indifferente ad una lotteria di
riferimento 1 i rx u x⋅ ⋅ , con i = 1, 2,…, r e ui = u(xi) = pi. Si ponga u(x1) = u1 = 1 e u(xr)
= ur = 0. Quindi, per l’assioma di sostituzione e per la proprietà di transitività
dell’indifferenza (Teorema 1) si ha:
l = (p1, x1; p2, x2; ….; pr, xr)
∼ [p1, (x1 u1 xr); p2, x2; ….; pr, xr]
∼ [p1, (x1 u1 xr); p2, (x1 u2 xr); ….; pr, xr]
∼ [p1, (x1 u1 xr); p2, (x1 u2 xr); ….; pr, (x1 ur xr)]
Per l’assioma di riduzione delle lotterie composte, si deduce
l ∼ [(p1u1 + p2 u2 + …..+ pr ur), x1; 0, x2; …; 0, xr-1; (p1 (1-u1) + p2 (1-u2) + …..+
pr (1-ur)), xr] = 11
r
i i ri
x p u x=
⎛ ⎞⋅ ⋅ ⋅⎜ ⎟⎝ ⎠∑
32
cioè, la lotteria semplice l è indifferente ad una lotteria di riferimento che dà una
probabilità pari a 1
r
i ii
p u=
⋅∑ di ricevere x1.
Tramite un procedimento analogo si ottiene che, dato l’ = (p’1, x1; p’2, x2; ….; p’r,
xr), allora
l’ ∼ '1
1
r
i i ri
x p u x=
⎛ ⎞⋅ ⋅ ⋅⎜ ⎟⎝ ⎠∑ .
Dall’assioma di ordinamento e dall’assioma di monotonia, segue che
l f l’
⇔ 11
r
i i ri
x p u x=
⎛ ⎞⋅ ⋅ ⋅⎜ ⎟⎝ ⎠∑ f '
11
r
i i ri
x p u x=
⎛ ⎞⋅ ⋅ ⋅⎜ ⎟⎝ ⎠∑
⇔ i
r
iii
r
ii upup ∑∑
==
≥⋅1
'
1.
A questo punto, sostituendo u(xi) = ui si ottiene esattamente la relazione espressa
al punto b) del Teorema. La dimostrazione della lettera a) del Teorema è ancora più
semplice. Dagli assiomi di ordinamento, continuità e monotonia segue che
xi f xj
⇔ (x1 ui xr) f (x1 uj xr)
⇔ ui ≥ uj.
Teorema 7 - Unicità della funzione di utilità. Se u è una funzione di utilità su X,
allora ( ) ( )w uα β⋅ ⋅ = ⋅ ⋅ ⋅ ⋅ + ⋅ con α > 0 è anch’essa una funzione di utilità che
rappresenta lo stesso schema di preferenze. Analogamente, se u e w sono due funzioni
33
di utilità su X che rappresentano lo stesso schema di preferenze, allora esistono un α > 0
e un β tali che ( ) ( )w uα β⋅ ⋅ = ⋅ ⋅ ⋅ ⋅ + ⋅ .
Tale teorema afferma, dunque, che per ogni individuo esiste una ed una sola
funzione di utilità a meno di trasformazioni lineari positive.
Dimostrazione:
Sia u una funzione di utilità su X e sia ( ) ( ) βα +⋅=⋅ uw con α > 0:
( ) ( ) ( ) ( )ii
r
ii
r
ii xwxpxwxp ⋅≥⋅ ∑∑
== 1
'
1
( ) ( ) ≥+⎟⎠
⎞⎜⎝
⎛⋅⇔ ∑
=
βαr
iii xuxp
1
( ) ( ) βα +⎟⎠
⎞⎜⎝
⎛⋅∑
=
r
iii xuxp
1
'
⇔ ( ) ( ) ( ) ( )ii
r
ii
r
ii xuxpxuxp ⋅≥⋅ ∑∑
== 1
'
1
Quindi, il valore atteso di w dà lo stesso ordinamento di lotterie del valore atteso
di u, ciò significa che w è una funzione di utilità.
Si dimostra adesso la seconda parte del Teorema. Siano u e w funzioni di utilità
che rappresentano le stesse preferenze. Si supponga, per assurdo, che
( ) ( )w uα β⋅ ≠ ⋅ ⋅ +
Per ogni punto xi ∈X, si definisca un punto di coordinate (ui, wi) sul piano uw (cfr.
Fig. 2.1), dove ui = u(xi) e wi = w(xi); se la relazione sopra scritta è vera, allora ∃ x1, x2,
x3 ∈X i punti (u1, w1), (u2, w2), (u3, w3) non giacciono sulla stessa retta (non linearità). Si
supponga, ora che u1 < u2 < u3, sia p = (u2 – u1)/(u3 – u1) e si consideri la lotteria
3 1x p x⋅ ⋅ . In termini della funzione u, la lotteria 3 1x p x⋅ ⋅ ha utilità attesa pari a:
( )( )13 1 xpxpu ⋅−+⋅
( ) ( ) ( )13 1 xupxup ⋅−+⋅=
34
113
233
13
12 uuuuuu
uuuu
−−
+−−
=
= u2.
Quindi, sotto u, x2 ∼ (x3 p x1). Ma semplici considerazioni geometriche mostrano
che l’assunzione di non linearità implica che
( )2 3 11w p w p w≠ ⋅ + − ⋅ .
Quindi, sotto la funzione di utilità w, non è vero che x2 ∼ 3 1x p x⋅ ⋅ . Dunque,
l’assunzione che u e w rappresentano le stesse preferenze è contraddetta e questo porta a
concludere che ( ) ( )w uα β⋅ = ⋅ ⋅ + .
Fig. 2.1 - Illustrazione della dimostrazione del teorema 7
2.3 ATTEGGIAMENTO VERSO IL RISCHIO E FORMA DELLA FUNZIONE D’UTILITÀ
L’atteggiamento verso il rischio è sicuramente una delle informazioni più importanti
che consente di interpretare il comportamento decisionale degli individui; in generale,
un soggetto potrà manifestare avversione, propensione o neutralità nei confronti del
w
u u1 u2 u3
w3
pw3 + (1-p) w1
w2
w1
35
rischio. Si ha avversione al rischio quando l’individuo rifiuta un gioco equo8 o, in altri
termini, quando tra due alternative, l’una consistente in una scommessa avente valore
atteso pari ad EV1 e l’altra consistente in una vincita certa di EV1, sceglie la vincita
certa. Si ha propensione al rischio nel caso opposto, cioè ogni volta che un soggetto
accetta un gioco equo o, tra le due suddette alternative, accetta la prima; infine, si dice
che l’individuo ha un atteggiamento neutrale nei confronti del rischio quando per lui è
indifferente accettare o rifiutare un gioco equo o, comunque, due alternative aventi lo
stesso valore atteso. Tali atteggiamenti nei confronti del rischio trovano un’agevole
spiegazione nella teoria dell’utilità attesa: gli individui, infatti, quando devono scegliere
tra due (o più) alternative non decidono semplicemente sulla base dei valori attesi, ma
piuttosto sceglieranno quell’alternativa che presenta la massima utilità attesa. Quindi, il
soggetto avverso al rischio rinuncerà al gioco, optando per la vincita certa, poiché
quest’ultima, a parità di valore atteso, presenta, per lui, un’utilità maggiore; viceversa
per il soggetto propenso al rischio.
L’atteggiamento nei confronti del rischio9 si riflette molto chiaramente nella forma
assunta dalla funzione di utilità. In particolare, una forma concava (u’’(x) < 0) indica
avversione al rischio, una forma convessa (u’’(x) > 0) indica propensione e una forma
lineare indica indifferenza (cfr. Fig. 2.2).
Fig. 2.2. Forme possibili di una funzione di utilità
8 Un gioco si dice equo quando ha un valore atteso pari a 0, cioè E(V) = 0. 9 Per trattare degli atteggiamenti nei confronti del rischio si farà ricorso a rappresentazioni grafiche pertanto, senza perdere in generalità, si ipotizza che le conseguenze x siano valori numerici (es. monetari).
avversione
neutralità
propensione
x
U(x)
36
Per comprendere meglio il motivo di tale conclusione si osservi la Fig. 2.3, che
mostra una funzione di utilità concava. In essa, E(x) rappresenta il valore atteso che
deriva dall’accettare la lotteria x = 1 2x p x⋅ ⋅ , con x1 e x2 valori positivi. L’utilità attesa
derivante dall’accettare la lotteria, indicata con E[u(x)], è data dalla combinazione
lineare dell’utilità di x1 e dell’utilità di x2:
E[u(x)] = p u(x1) + (1 – p) u(x2)
e giace sulla retta che congiunge i punti (x1, u(x1)) e (x2, u(x2)). Si può dimostrare che
per una funzione concava tale retta giace al di sotto della funzione stessa
(disuguaglianza di Jensen)10, il che comporta che l’utilità della somma certa E(x), cioè
u[E(x)], sarà sicuramente maggiore dell’utilità attesa della lotteria, quindi il soggetto,
potendo scegliere tra partecipare alla lotteria o accettare direttamente la somma certa
E(x), accetterà la somma certa, rifiutando la lotteria:
u[E(x)] > p u(x1) + (1 – p) u(x2).
Detto in altri termini, il decisore avverso al rischio assegna un’utilità al valore
atteso della lotteria maggiore dell’utilità attesa della stessa.
Inoltre, risulta chiaro dal grafico che un individuo avverso al rischio non solo
rifiuterà lotterie del tipo 1 2x p x⋅ ⋅ , quando in alternativa può scegliere di ricevere una
somma certa pari al valore atteso della lotteria, ma continuerà a rifiutare la stessa
lotteria anche per alcune opzioni alternative sicure di importo inferiore al suo valore
atteso. Si tratta di tutte quelle somme certe comprese tra ce(x) e E(x), dove ce(x) è
l’equivalente certo della lotteria x, cioè quel valore avente la stessa utilità della lotteria
x e che, quindi, genera indifferenza nel decisore rispetto alla scelta della stessa lotteria.
La differenza tra E(x) e ce(x) è detta premio di rischio e indica quel qualcosa in meno
che il decisore avverso al rischio è disposto a ricevere con certezza pur di non
partecipare alla lotteria.
37
Fig. 2.3 - Funzione di utilità concava
Il caso in cui i possibili risultati della lotteria rappresentano perdite anziché
guadagni permette di capire il motivo per cui la maggioranza degli individui conclude
contratti di assicurazione. In tal caso, x2 rappresenta la ricchezza attuale del soggetto e
x1 la ricchezza che gli rimarrebbe nel caso in cui si verificasse un danno di importo pari
a x2 – x1 con probabilità p. L’individuo sarà disposto a pagare qualcosa pur di evitare la
possibilità, seppur bassa, di incorrere nel danno: il premio di assicurazione massimo che
sarà disposto a pagare è dato da x2 – ce(x). Verosimilmente, il premio di assicurazione
che la compagnia assicuratrice fisserà sarà compreso tra x2 – E(x) e x2 – ce(x), in modo
da consentirle di coprire l’importo atteso del danno e i costi di gestione della compagnia
stessa. L’acquisto dell’assicurazione significa preferire la certezza di una ricchezza
inferiore al valore atteso della stessa in caso di mancata sottoscrizione piuttosto che
sottoporsi al rischio di incorrere in una perdita considerevole.
Le interpretazioni geometriche della propensione e della neutralità al rischio sono
del tutto analoghe a quella dell’avversione. Nel caso di una funzione di utilità convessa
(cfr. Fig. 2.4), il segmento che congiunge i punti corrispondenti agli esiti della lotteria
10 La disuguaglianza di Jensen afferma che (Teorema): se una funzione f( ) è concava: ⇒ f[kx1 + (1-k)x2] > kf(x1) + (1-k)f(x2).
x
x2 E(x)ce(x)
u(x)
u(x2)
u[E(x)]
E[u(x)]
u(x1)
x1
38
giace sempre al di sopra della funzione stessa, determinando così una maggiore utilità
della lotteria rispetto all’utilità di importi certi pari al suo valore atteso o, anche, in
certi casi, superiori. Infine, il caso della funzione di utilità lineare è palese.
Fig. 2.4 - Funzione di utilità convessa
2.4 LA FUNZIONE DI UTILITÀ SECONDO FRIEDMAN E SAVAGE
Friedman e Savage (1948) hanno cercato di individuare una funzione di utilità che fosse
in grado di spiegare contemporaneamente tutti i principali comportamenti degli
individui nei diversi contesti decisionali: dalla scelta del lavoro, che può essere più o
meno rischioso, alla scelta della composizione del portafoglio di investimento (in che
misura investire in titoli risk – free, come i titoli di Stato, o in titoli via via più rischiosi,
come le azioni delle società?). In particolare, essi hanno osservato come i più
interessanti comportamenti di scelta possano essere ben rappresentati dall’acquisto di
assicurazioni e dall’acquisto di biglietti della lotteria, là dove l’acquisto di assicurazioni
è indice di un atteggiamento di avversione al rischio e l’acquisto di biglietti della
lotteria, invece, è indice di propensione al rischio.
Nella spiegazione di tali comportamenti i due autori accolgono interamente le
premesse teoriche di Von Neuman e Morgestern, ipotizzando, quindi, che ogni “unità di
x x2 E(x)x1
E[u(x)]
u[E(x)]
u(x)
39
consumo” (un individuo o una famiglia) agisce come se: 1) avesse un ordinamento di
preferenze; 2) attribuisse ad ogni preferenza un valore numerico che ne indichi l'utilità;
3) scegliesse infine quell’opzione che gli consente di massimizzare l’utilità attesa.
L’unica restrizione imposta inizialmente alla funzione di utilità è che essa sia crescente
al crescere del reddito monetario del soggetto. Le osservazioni empiriche che la
funzione deve essere in grado di conciliare sono legate al fatto che: 1) gli individui
preferiscono redditi certi più alti a redditi certi più bassi; 2) gli individui a basso reddito
acquistano assicurazioni; 3) gli individui a basso reddito acquistano biglietti della
lotteria; 4) molti individui a basso reddito acquistano sia assicurazioni che biglietti della
lotteria.
Se la funzione di utilità fosse ovunque concava, il che equivale a dire che l’utilità
marginale del denaro è decrescente per ogni livello di reddito, allora l’individuo sarebbe
propenso a sottoscrivere assicurazioni, ma non sarebbe mai disposto a pagare un
qualcosa in eccesso rispetto al valore atteso per un biglietto della lotteria. Viceversa, se
la funzione di utilità fosse ovunque convessa, l’individuo sarebbe propenso a pagare per
partecipare alle lotterie, ma non sarebbe disposto a sottoscrivere piani assicurativi.
Quindi, l’affermazione 2), acquisto di assicurazioni, è coerente con una funzione di
utilità concava e l’affermazione 3), partecipazione a lotterie, è coerente con una
funzione convessa: per spiegare l’affermazione 4), acquisto sia di assicurazioni che di
lotterie, si deve concludere che la funzione di utilità di un soggetto a basso reddito non
sarà ovunque concava né convessa. La funzione di utilità più semplice sarà costituita da
un segmento concavo seguito da un segmento convesso (cfr. Fig. 2.5): in tal modo, un
segmento che va dal reddito presente del soggetto a un reddito più basso si trova al di
sotto della funzione di utilità, spiegando così l’acquisto di un’assicurazione contro il
rischio di incorrere in una perdita che ridurrebbe drasticamente il reddito attuale del
soggetto; invece, un segmento che unisce il reddito attuale con un reddito più elevato si
trova al di sopra della funzione di utilità, spiegando così l’acquisto per una piccola
somma di una bassa probabilità di ottenere una grande vincita. La Fig. 2.5 presenta una
funzione di utilità che soddisfa tali requisiti: x0 rappresenta il reddito corrente del
soggetto, x1 la perdita in cui potrebbe incorrere in caso di mancata assicurazione, x2 e x3
rappresentano, infine, rispettivamente, la grande vincita e la piccola perdita che
potrebbe ottenere partecipando alla lotteria. Come si può vedere, il soggetto sarà
40
propenso a partecipare a giochi che danno una piccola probabilità di una grande vincita,
ma non sarà disposto a partecipare a giochi che, invece, danno un’alta probabilità di una
piccola vincita.
Fig. 2.5 - Funzione di utilità secondo Friedman e Savage (individui a basso reddito)
Tale analisi è relativa a decisori con reddito basso o, comunque, modesto:
successivamente Friedman e Savage hanno esteso l’analisi al caso di persone dotate di
reddito elevato e hanno concluso che, per poter spiegare il loro comportamento
decisionale, è necessario aggiungere un terzo segmento concavo dopo quello convesso
(cfr. Fig. 2.6). In questo modo la funzione di utilità viene ad essere costituita da tre
segmenti in successione: concavo – convesso – concavo. Una possibile interpretazione
di tale funzione di utilità è che i due segmenti concavi corrispondono a classi
socioeconomiche qualitativamente differenti e il segmento convesso rappresenta la
transizione tra una classe e l’altra. Così, un incremento del reddito che consente di
migliorare la posizione relativa occupata all’interno della propria classe sociale, ma non
consente di effettuare il passaggio alla classe superiore, genera un’utilità marginale
decrescente, mentre un incremento reddituale di consistenza tale da consentire l’accesso
ad un nuovo status economico e sociale genera un’utilità marginale crescente. Questo fa
sì che un individuo, per es., a basso reddito preferirà la certezza del suo reddito,
piuttosto che rischiare in un “gioco” che, al meglio, gli consentirà di divenire più ricco,
x x2 x0 x3 x1
u(x)
41
ma rimanendo sostanzialmente nella fascia sociale attuale, e, al peggio, lo farà diventare
il più povero della propria classe sociale. Lo stesso soggetto sarà invece propenso a
rischiare il suo reddito attuale in un “gioco” che potrebbe sì fargli perdere tutto, ma gli
consentirebbe anche, in caso di vittoria, di elevarsi alla classe sociale superiore.
Fig. 2.6 - La funzione di utilità secondo Friedman e Savage (individui a reddito elevato)
2.5 LA FUNZIONE DI UTILITÀ SECONDO MARKOWITZ
Markowitz (1952) propone una diversa configurazione della funzione di utilità,
partendo da una critica dello studio di Friedman e Savage. Egli osserva, infatti, che la
funzione proposta dai due autori non è in grado di spiegare certi comportamenti
osservati empiricamente, in particolare essa fallisce quando fa riferimento a soggetti con
reddito “intermedio”, che, quindi, si collocano in corrispondenza del segmento
convesso. A tali soggetti, infatti, che si collocano a metà del segmento convesso
dovrebbero piacere scommesse ampiamente simmetriche che diano loro il 50% di
probabilità di una grande vincita e il 50% di una grande perdita. E anche a soggetti che
si trovano quasi all’altezza del secondo tratto concavo dovrebbero piacere scommesse
eque che li portino fino a quel punto, oppure che li abbassino al livello del primo tratto
concavo. Infine, ulteriore osservazione tratta dalla funzione di Friedman e Savage, è che
coloro che si trovano alla fine del primo tratto concavo o all’inizio del secondo
x
u(x)
42
dovrebbero rifiutare scommesse eque di piccolo importo. In realtà, tali comportamenti
non sono riscontrati nella pratica. Da qui Markowitz ha condotto un esperimento per
arrivare a definire meglio la forma della funzione di utilità. Il merito di Markowitz
consiste soprattutto nel fatto che egli ha posto il problema delle differenze che possono
incidere nella funzione di utilità a seconda che si considerino lotterie con domini
positivi o negativi. Egli ha posto una serie di domande del tipo: “Preferisci 10 cents con
certezza oppure partecipare a un gioco che ti dà una probabilità su 10 di vincere 1$ e
9/10 di probabilità di non vincere niente?”; in modo simile l’esperimento è proseguito
chiedendo in successione la preferenza tra 1$ con certezza o 1/10 di possibilità di
vincerne 10; tra 10$ con certezza o 1/10 di possibilità di vincerne 100; tra 100$ con
certezza o 1/10 di possibilità di vincerne 1000 e così via per somme sempre più
consistenti. La seconda parte dell’esperimento è stata strutturata in maniera analoga,
coinvolgendo però perdite; quindi le domande sono state del tipo: “Preferisci pagare con
certezza 10 cents o partecipare a un gioco che ti dà 1/10 di probabilità di pagare 1$ e
9/10 di non pagare niente?”.
Per quanto riguarda il questionario coinvolgente vincite, la maggior parte dei
soggetti ha mostrato di preferire la partecipazione alla lotteria finché le somme in gioco
si sono mantenute basse; per vincite intermedie (tra i 100$ e i 10000$) le risposte sono
state, invece, più distribuite tra la preferenza per la scommessa e la preferenza per il
rischio; infine, per somme superiori si è manifestata una netta preferenza per l’opzione
certa. Si è passati, quindi, da un atteggiamento di fondamentale propensione a rischiare,
finché ci si è mantenuti su importi bassi, a una sostanziale avversione al rischio, nel
momento in cui gli importi sono diventati consistenti. Tale condotta è coerente con una
funzione di utilità che, per livelli di ricchezza superiori alla ricchezza presente (quindi,
per domini positivi)11, presenta prima un tratto convesso e poi un tratto concavo.
Osservazioni speculari sono state raccolte riguardo al questionario relativo alle
perdite: le persone indicano una generale preferenza per pagare la somma certa anziché
rischiare una possibilità su dieci di pagare una somma superiore, ma solo finché le
somme in gioco si mantengono a livelli bassi; già per somme superiori ai 100$ gli
11 Si noti che Markowitz prende a riferimento la ricchezza presente, vale a dire lo status quo di un soggetto, considerando le vincite e le perdite rispetto a tale posizione, come verrà poi formalizzato da Kahneman e Tversky (1979) nell’esposizione della teoria del prospetto.
43
individui mostrano generalmente una maggiore propensione a rischiare una piccola
probabilità (1/10) di dover pagare molto di più, piuttosto che scegliere di pagare una
somma sicura che, seppur più bassa, è comunque consistente. Quindi, per domini
negativi, si manifesta prima una certa avversione a rischiare e successivamente, quando
la somma da pagare con certezza diviene di importo consistente, si sviluppa una
propensione al rischio. Tutto ciò può essere spiegato assumendo che la funzione di
utilità nel tratto inferiore alla ricchezza presente è prima concava e poi convessa.
Mettendo insieme le conclusioni a cui si è giunti separatamente per domini
positivi e per domini negativi si ottiene una funzione di utilità come quella riportata
nella Fig. 2.7, costituita da quattro tratti alternativamente convesso – concavo –
convesso – concavo e da tre punti di flesso. Il punto di flesso intermedio (x0)
rappresenta la ricchezza presente o, meglio, la ricchezza “abituale” del soggetto12. Gli
altri due punti di flesso si pongono l’uno al di sopra e l’altro al di sotto della ricchezza
abituale e la loro distanza da questa dipende dallo status economico dell’individuo
considerato: chi è più ricco svilupperà una maggiore sensibilità al denaro per importi
più elevati e, quindi, i suoi due punti di flesso, cioè di inversione dell’atteggiamento
verso il rischio, si collocheranno più lontano dal punto x0; viceversa, per individui più
poveri la sensibilità al denaro si sviluppa molto prima e, quindi, il primo e terzo punto
di inflessione saranno più vicini a x0. Altra importante osservazione è che, normalmente,
le persone rifiutano scommesse eque, scommesse che presentano, cioè, la stessa
probabilità di vincere o perdere la medesima somma. Questo fatto è dovuto a una
maggiore sensibilità alle perdite piuttosto che alle vincite e comporta, quindi, che
U(x) < |U(-x)|,
con x > 0. Il che si riflette in una funzione di utilità che è più inclinata nel dominio
negativo e meno inclinata nel dominio positivo13.
12 Markowitz distingue tra ricchezza presente e ricchezza abituale, dove la prima differisce dalla seconda nell’eventualità in cui il decisore ottenga, contestualmente alla sottoposizione del questionario, una sopravvenienza attiva o passiva, che potrebbe alterare (a seconda dell’importo) la sua percezione del denaro. 13 Altra osservazione fatta dall’autore concerne il fatto che, di norma, non si considera il “divertimento dato dalla partecipazione al gioco”. Se, invece, si considerasse anche questo, allora l’utilità della lotteria
44
Fig. 2.7 - La funzione di utilità secondo Markowitz
Tale funzione di utilità consente, altresì, di prevedere il comportamento che il
decisore adotterà a seguito di una serie di giochi: i risultati finora conseguiti come
influenzano le preferenze successive del soggetto? A tale proposito, possiamo prevedere
che un individuo che finora ha vinto moderatamente, in modo tale da trovarsi,
attualmente, tra il secondo e il terzo punto di flesso, mostrerà propensione al rischio e
continuerà a giocare. Un individuo che, invece, ha già vinto molto e si trova, quindi,
oltre il terzo punto di flesso, mostrerà avversione al rischio e smetterà di giocare o,
comunque, effettuerà puntate più basse. Analogamente, possiamo prevedere che un
soggetto che finora è incorso in perdite di scarso importo sarà avverso a rischiare
ulteriormente e, quindi, o non giocherà più o limiterà la consistenza delle puntate.
Infine, colui che ha subito pesanti perdite (e si trova, quindi, prima del primo punto di
flesso) continuerà a giocare (nell’idea che peggio di così non può andare).
sarebbe data dalla somma dell’utilità dei singoli risultati (ponderata con le relative probabilità) più l’utilità derivante dal gioco in sé. Ciò determinerebbe uno spostamento della funzione verso l’alto.
x
u(x)
45
2.6 LA FUNZIONE DI UTILITÀ SECONDO KAHNEMAN E
TVERSKY
Come si avrà modo di chiarire meglio parlando delle critiche mosse alla teoria
dell’utilità attesa di Von Neuman e Morgestern, nel corso degli anni sono state proposte
varie teorie alternative, tra cui la teoria del prospetto di Kahneman e Tversky (1979).
Nel loro lavoro i due autori affrontano, tra le varie cose, anche il problema della forma
della funzione di utilità, giungendo a conclusioni che riprendono in parte le conclusioni
di Markowitz e che saranno poi confermate anche dagli studi successivi. Una premessa
molto importante da fare è che essi, nella costruzione della funzione di utilità, non
prendono a riferimento il valore assoluto della ricchezza degli individui, bensì il loro
status quo, vale a dire la loro ricchezza attuale, misurando, quindi, l’utilità data dai
cambiamenti in positivo (vincite) o in negativo (perdite) rispetto a tale situazione
iniziale (che viene quindi contrassegnata con 0). I due autori hanno proposto una serie
di scelte tra lotterie concernenti sia risultati positivi che risultati negativi a studenti
dell’Università di Stoccolma e dell’Università del Michigan. I risultati ottenuti sono
riportati nella Tab. 2.2.
Tab. 2.2 - Risultati dell’esperimento di Kahneman e Tversky Dominio positivo Dominio negativo
Problema 1 N = 95
(4000, .8) < (3000) 20% 80%
Problema 1’ N = 95
(-4000, .80) > (-3000) 92% 8%
Problema 2 N = 95
(4000, .20) > (3000, .25) 65% 35%
Problema 2’ N = 95
(-4000, .20) < (-3000, .25) 42% 58%
Problema 3 N = 66
(3000, .90) > (6000, .45) 86% 14%
Problema 3’ N = 66
(-3000, .90) < (-6000, .45) 8% 92%
Problema 4 N = 66
(3000, .002) < (6000, .001) 27% 73%
Problema 4’ N = 66
(-3000, .002) > (-6000, .001) 70% 30%
Con N viene indicato il numero di studenti a cui è stato sottoposto quel dato
problema; con > e < viene indicata la lotteria preferita dalla maggior parte degli
intervistati tra le due proposte di volta in volta; infine, i valori riportati sotto ogni
lotteria indicano la percentuale di soggetti che ha mostrato preferenza per essa.
46
Dall’osservazione dei dati si possono trarre due conclusioni molto importanti.
Innanzitutto, si rileva che le preferenze espresse relativamente alle lotterie con domini
negativi sono perfettamente speculari rispetto alle preferenze relative alle lotterie con
domini positivi: tale fenomeno va sotto il nome di effetto riflessione. Quindi, la
riflessione delle lotterie intorno allo 0 determina un ribaltamento nelle preferenze e, di
conseguenza, dovremo attenderci una funzione di utilità per le perdite speculare a quella
delle vincite (se l’una è concava l’altra sarà convessa e viceversa).
Un altro elemento di rilievo emerge osservando, in particolare, i problemi 1, 1’ e
3, 3’. Si consideri, ad esempio, il problema 1: in questo caso, l’80% degli intervistati
mostra di preferire la lotteria che garantisce una vincita certa di 3000$ rispetto alla
lotteria che dà un 80% di probabilità di vincere 4000$, benché in quest’ultimo caso il
valore atteso sia maggiore. Si può, dunque, affermare che gli individui mostrano
tendenzialmente avversione al rischio, nel caso in cui siano in gioco valori positivi.
Coerentemente a quanto affermato riguardo all’effetto riflessione, nel caso del problema
1’, invece, il 92% degli intervistati dichiara la propria preferenza per la lotteria che dà
l’80% di probabilità di perdere 4000$, rispetto alla perdita certa di 3000$, sebbene
anche in tal caso la scelta cada sulla lotteria avente il valore atteso più basso. Si può,
quindi, concludere che l’avversione al rischio nel dominio positivo è accompagnata da
propensione al rischio nel dominio negativo: graficamente, questo corrisponde ad una
funzione di utilità che presenta un tratto concavo per i guadagni e un tratto convesso per
le perdite14. Tale tendenza viene rafforzata dal cosiddetto effetto certezza, cioè
quell’effetto per cui le persone, inconsciamente, tendono a dare un peso maggiore ai
risultati certi o, che, comunque, hanno un’elevata probabilità di verificarsi: questo fa sì
che, nel dominio delle vincite venga accentuata l’avversione al rischio e nel dominio
delle perdite, invece, venga accentuata la propensione al rischio.
Un ulteriore argomento a favore della concavità per domini positivi e della
convessità per domini negativi è offerto dall’osservazione di come le persone
percepiscono in modo differente cambiamenti di pari entità nel loro status economico e
sociale. Ad es., la differenza tra una vincita di 100$ e una vincita di 200$ appare più
14 A conclusioni simili giunge anche Williams (1966). Egli fa vedere come una traslazione degli esiti di una lotteria determini uno slittamento da un atteggiamento di avversione al rischio ad uno di propensione:
47
consistente rispetto alla differenza tra una vincita di 1100$ e una vincita di 1200$.
Analogamente, appare più rilevante una perdita che riduce la ricchezza da 200$ a 100$,
piuttosto che una perdita che riduce la ricchezza da 1200$ a 1100$. Un tale fenomeno è
stato osservato per la prima volta da Savage, il quale descrive (Kahneman e Tversky
1979) il comportamento di un individuo che deve comprare un’auto. L’auto che l’uomo
vorrebbe acquistare costa $2134,56 ed è tentato di comprarla con la radio già installata,
pagando in tal caso un prezzo di $ 2228,48, ritenendo la differenza insignificante. Ma,
riflettendo sul fatto che se egli avesse già la macchina non sarebbe mai disposto a
pagare $ 93,85 per la radio, alla fine decide di non acquistare la radio. Questo
cambiamento nelle preferenze non può essere spiegato razionalmente in termini di
ricchezza finale; piuttosto, esso mostra che la differenza percepita tra 0$ e 93,85$ è
maggiore di quella percepita tra 2134,56$ e 2228,41$. Quindi, si può concludere che
man mano che ci si allontana dalla situazione abituale si tende a perdere sensibilità
relativamente alla percezione della ricchezza. Tutto ciò equivale ad affermare che la
funzione di utilità per le vincite è concava (a parità di importo vinto, all’aumentare della
ricchezza, l’incremento di utilità, pur rimanendo positivo, si riduce progressivamente);
mentre per le perdite è convessa (a parità di importo perso, al ridursi della ricchezza,
l’incremento di disutilità si riduce anch’esso).
Il ragionamento appena svolto concerne un contesto privo di rischio, ma può
essere esteso anche a contesti rischiosi. Kahneman e Tversky hanno proposto i seguenti
problemi di scelta ottenendo le risposte indicate in percentuale:
• N = 68: (6000, 0.25) oppure (4000, 0.25; 2000, 0.25)
18% 82%
• N = 64: (-6000, 0.25) oppure (-4000, 0.25; -2000, 0.25)
70% 30%
In termini di utilità si ricava, rispettivamente dal primo e secondo problema di
scelta:
per es., gli individui intervistati sono indifferenti tra (100, 0.65; -100, 0.35) e (0), indicando avversione al
48
u(6000) < u(4000) + u(2000) e u(-6000) > u(-4000) + u(-2000),
confermando, dunque, l’ipotesi di concavità per le vincite e di convessità per le perdite.
In realtà, però, sulla forma della funzione di utilità possono influire pesantemente
circostanze particolari. Per esempio, se un individuo necessita di X $ urgentemente per
acquistare una casa, in prossimità di tale cifra, egli sarà disposto a rischiare pur di
ottenere una piccola probabilità di conseguire la somma necessaria: quindi, la sua
funzione di utilità diventerà improvvisamente convessa. Analogamente, quando
l’individuo arriva al punto che il rischio di “giocare” potrebbe comportare la perdita di
tutte le sue ricchezze, è normale attendersi un atteggiamento di avversione a rischiare
ulteriormente e, quindi, la sua funzione di utilità presenterà, per livelli elevati di perdite,
un tratto finale concavo. Quest’ultimo caso, peraltro, è più comune del primo, perché
pesanti perdite spesso comportano cambiamenti nello stile di vita.
Un’altra saliente caratteristica dell’atteggiamento degli individui è che,
normalmente, le perdite appaiono sempre più grandi delle vincite aventi lo stesso valore
assoluto: il dispiacere che genera la perdita di una somma di denaro appare maggiore
del piacere generato dalla vincita della stessa somma. Coerentemente a ciò, infatti,
molte persone provano scarsa attrazione per lotterie simmetriche del tipo (x, 0.50; -x,
0.50). Inoltre, l’avversione per lotterie simmetriche generalmente cresce con le
dimensioni degli importi in gioco: cioè, se x > y > 0, allora (y, 0.50; -y, 0.50) è preferito
a (x, 0.50; -x, 0.50). In termini di utilità questo comporta che:
u(y) + u(-y) > u(x) + u(-x)
e
u(-y) – u(-x) > u(x) – u(y)
Ponendo y = 0, si ha :
u(x) < - u(-x)
e
rischio; ma sono anche indifferenti tra (-200, 0.80) e (-100), indicando propensione al rischio.
49
u’(x) < u’(-x).
Tutto ciò significa che la funzione di utilità per le perdite è più inclinata della
funzione di utilità per le vincite. Wakker (2000) ha dimostrato tale fatto, facendo
proprio riferimento alla funzione di utilità sviluppata da Kahneman e Tversky,
calcolando un “indice di avversione alle perdite” definito come:
'
0 '
(0)(0)
uIu
+
−
= ,
cioè come il rapporto tra derivata prima sinistra e derivata prima destra presso l’origine,
dove la funzione presenta un punto angoloso, dovuto proprio alla diversa inclinazione
del tratto destro (vincite) rispetto al tratto sinistro (perdite).
Riassumendo: I) la funzione di utilità è definita in base alle deviazioni dal punto di
riferimento; II) generalmente presenta una concavità per i guadagni e una convessità per
le perdite; III) è più inclinata per le perdite anziché per le vincite. Quindi, la funzione di
utilità secondo Kahneman e Tversky assume una forma ad S analoga a quella mostrata
in Fig. 2.8.
Fig. 2.8 - La funzione di utilità secondo Kahneman e Tversky
0 x
u(x)
50
2.7 L’ESPERIMENTO DI FISHBURN E KOCHENBERGER
Contemporaneamente a Kahneman e Tversky, Fishburn e Kochenberger (1979)
conducono uno studio sulle funzioni di utilità. Il loro lavoro si basa sull’analisi di 30
funzioni di utilità stimate empiricamente da altri studiosi: Swalm (13 casi), Halter e
Dean (2 casi), Grayson (10 casi), Green (3 casi), Barnes e Reinmuth (2 casi)15. I dati
analizzati sono stati trasformati linearmente in modo che il punto di riferimento coincida
sempre con x = 0 e che l’utilità presso l’origine sia 0. Dai dati a disposizione sono state
tratte tre semplici forme della funzione di utilità, separatamente per x > 0 e per x < 0: la
forma lineare (L), quella di potenza (P) e quella esponenziale (E). Per domini positivi, la
funzione lineare è L+ = c x con c > 0; la funzione di potenza è P+ = a xb con a e b
positivi e la funzione esponenziale è E+ = d (1 – e-fx) con fd ⋅ > 0. Le corrispondenti
funzioni per domini negativi sono ottenute da queste sostituendo x con –x e
moltiplicando tutto per –1. Quindi, lo studio è stato condotto separatamente per le
perdite e per i guadagni.
Dall’analisi delle 28 funzioni a disposizione si sono ottenuti i risultati riportati
nella Tab.2.3. Questi dati mostrano la predominanza della forma convessa – concava,
seguita dalla forma concava – convessa. Queste due forme composite coprono il 70%
dei casi, confermando sostanzialmente la presenza dell’effetto riflessione rilevata da
Kahneman e Tversky. Gli stessi dati rivelano anche avversione al rischio sia per perdite
che per guadagni in soli tre dei 28 casi esaminati. Questo suggerisce una generale
inattendibilità della convinzione comunemente diffusa che gli individui siano ovunque
avversi al rischio. Considerando separatamente i casi con dominio positivo da quelli con
dominio negativo, si osserva che circa il 64% delle curve di utilità per le perdite sono
convesse, mentre circa il 57% delle curve relative alle vincite sono concave. Quindi, la
maggioranza degli individui tende a mostrare propensione al rischio per domini negativi
e avversione per domini positivi (è interessante osservare che il primo fatto è
leggermente più diffuso del secondo). Nel complesso, però, la forma convessa –
concava, benché sia la più diffusa, comprende pur sempre meno del 50% dei casi (13 su
28), delineando una tendenza non netta negli atteggiamenti degli individui.
15 In realtà, per il dominio negativo le funzioni effettivamente analizzate sono 28, a causa dei risultati ambigui ottenuti in due casi.
51
Tab. 2.3 - Risultati dell’analisi di Fishburn e Kochenberger Dominio positivo
Concavità Convessità Totale Convessità 13 5 18 Dominio
negativo Concavità 3 7 10 Totale 16 12 28
L’analisi dei parametri delle curve, per es. b per P ed f per E, consente di trarre
ulteriori conclusioni riguardo alla forma assunta dalla funzione di utilità in termini di
maggiore o minore tendenza alla linearità. Nella Tab. 2.4 sono riportati gli intervalli dei
valori assunti dal parametro b della funzione di potenza P = a xb, distinguendo sempre
tra dominio positivo e dominio negativo.
Tab. 2.4- Distribuzione di frequenza del parametro b della curva di potenza P = a xb
Intervallo del parametro b Dominio negativo Dominio positivo
[0, ½] [½, 4/5] [4/5, 1]
8 4 Propensione al rischio 6
3 10 Avversione al rischio 4
[1, 5/4] [5/4, 2] [2, ∞]
1 2 Avversione al rischio 7
3 7 Propensione al rischio 3
Totale 28 30
Come si può notare dai dati riportati relativi al dominio negativo, 7 valori di b
eccedono 2, 8 sono inferiori a ½ e i rimanenti 13 cadono tra 1/2 e 2. In altre parole,
meno del 50% delle funzioni con domini negativi ha valori di b compresi tra ½ e 2. Al
contrario, l’80% dei valori di b per domini positivi ricade tra ½ e 2; l’altro 20% è o
maggiore di 2 oppure inferiore ad ½. L’implicazione di queste osservazioni è che la
funzione di utilità per perdite tende a esibire una maggior curvatura rispetto alla
funzione di utilità per le vincite; il che equivale a dire che quest’ultima ha una forma
maggiormente orientata verso una funzione lineare rispetto alla prima16. Osservazioni
16 Se, infatti, b = 1, allora P = ax, cioè proprio una retta.
52
simili valgono anche per le funzioni esponenziali E = d (1 – e f x ); in tal caso il
parametro considerato è f e i valori di discriminazione sono – ¼ e ¼.
Per confermare o contraddire l’affermazione di Kahneman e Tversky riguardo alla
supposta maggior inclinazione della funzione di utilità nel tratto negativo rispetto a
quello positivo, Fishburn e Kochenberger hanno pensato di utilizzare un indice R(t),
definito nel seguente modo. Si indichino con (t, u0), rispettivamente, il punto di
riferimento e la sua utilità nei dati originari e con (x, y) i dati trasformati corrispondenti
ai dati originari (x0, y0). Inoltre, u(x) sia la funzione di utilità dei dati trasformati e u(x0)
quella relativa ai dati originari e corrispondente a x0. La trasformazione lineare applicata
per x0 > t è data da:
x = k1 (x0 – t), y = k2 (y0 – x0)
con k1, k2 > 0. Attraverso facili passaggi si arriva a stabilire che:
u(x0) = u0 + u [ k1 (x0 – t)] / k2,
con derivata u’ (x0) = (k1/k2) u’(x). Nel caso di una funzione lineare o esponenziale,
tale derivata, presso il punto t, assumerà, rispettivamente, i seguenti valori: u’(t) =
(k1/k2) c e U’(t) = (k1/k2) d f. Seguendo un ragionamento analogo per x0 < t, si
ottengono le seguenti derivate, rispettivamente, per la funzione lineare e per quella
esponenziale, nel punto t: U’(t) = (k3/k4) c e U’(t) = (k3/k4) d f. Praticamente, è stato
calcolato il valore della derivata destra e della derivata sinistra nel punto indicante lo
status quo del soggetto; il rapporto tra derivata sinistra e derivata destra fornisce l’indice
R(t). Valori di R(t) > 1 suggeriscono che l’utilità cresce più rapidamente per le perdite
anziché per le vincite; valori di R(t) < 1 suggeriscono, al contrario, che l’utilità cresce
più rapidamente per le vincite anziché per le perdite17. Fishburn e Kochenberger hanno
calcolato l’indice R(t) per tutte le funzioni analizzate, sia per la forma algebrica lineare
17 Infatti, se R(t) > 1 vuol dire che la derivata sinistra (numeratore) è maggiore della derivata destra (denominatore), quindi la curva è più inclinata nel tratto a sinistra dell’origine (dominio negativo appunto) rispetto al tratto a destra (dominio positivo).
53
che per quella esponenziale. Per la forma lineare solo in un caso si è ottenuto un R(t)
inferiore a 1; per la forma esponenziale solo in 4 casi sui 28 totali si è ottenuto un valore
di R(t) inferiore all’unità. In conclusione, queste osservazioni supportano a pieno la
proposizione che la funzione di utilità sia più inclinata per i domini negativi piuttosto
che per i domini positivi. Tale affermazione ha delle conseguenze immediate in termini
di condotta adottata dai decisori: se, ad es., si pone nell’origine lo status quo del
soggetto e, dunque, l’opzione di “non far niente”, allora ogni lotteria non degenere
simmetrica rispetto a 0 sarà sempre rifiutata. Inoltre, l’attrazione per una lotteria
simmetrica tenderà a diminuire mano a mano che la distanza tra i risultati aumenta.
Così, un soggetto che preferisce lo status quo alla lotteria (1000, 0.50; -1000, 0.50),
preferirà a sua volta quest’ultima rispetto alla lotteria (2000, 0.50; -2000, 0.50), e così
via. Se, invece, u fosse più inclinata per le vincite allora le preferenze risulterebbero
ribaltate.
A seconda della forma specifica assunta dalla funzione di utilità, davanti ad uno
stesso problema decisionale il soggetto assumerà scelte differenti. Si supponga che
questi abbia 10000$ da investire e che gli si presentino 4 possibili impieghi:
Investimenti -10.000 $ -5.000 $ 0 +10.000 $ +20.000 $ A 0,4 0,6 B 0,2 0,2 0,6 C 0,4 0,3 0,3 D 0,2 0,5 0,3
Per esempio, nell’investimento B, l’investitore ha una probabilità del 20% di
perdere il capitale investito, una probabilità del 20% di andare in pareggio e una
probabilità del 60% di raddoppiare quanto investito. Ogni investimento presenta un
profitto netto atteso di 4.000$. Negli investimenti B e D, la probabilità del 40% di
perdere 5.000 $ è distribuita tra –10.000$ e 0$; in C e D, la probabilità del 60% di
vincere 10.000$ è distribuita tra 0$ e 20.000 $. E’ quindi facile vedere che il preferito
tra i quattro investimenti è:
A se u è concava – concava
B se u è convessa – concava
C se u è concava – convessa
54
D se u è convessa – convessa.
Infatti, se, per es., u è convessa – concava, allora B sarà preferito ad A e D sarà
preferito a C a causa della distribuzione delle perdite; inoltre, B sarà preferito a D ed A a
C a causa della distribuzione delle vincite. Dunque, B risulta l’investimento più
preferito e C il meno preferito.
Fishburn e Kochenberger giungono, quindi, tramite considerazioni differenti, alle
stesse conclusioni di Kahneman e Tversky, fornendo anche utili indicazioni per
interpretare e prevedere la condotta dei soggetti partendo dalla costruzione della loro
funzione di utilità.
2.8 L’ESPERIMENTO DI FENNEMA E VAN ASSEN
Fennema e Van Assen (1999) conducono un esperimento avente un duplice scopo: da
una parte indagare sulla forma della funzione di utilità per le perdite, dall’altra applicare
il metodo di elicitazione del trade-off in due sue varianti per arrivare ad una costruzione
più precisa della funzione stessa. Questo secondo scopo verrà analizzato
successivamente, quando si tratteranno nel dettaglio i possibili metodi di elicitazione
della funzione di utilità. Adesso si considera, invece, il primo scopo.
I due autori riprendono le osservazioni effettuate da Kahneman e Tversky in tema
di diminuzione della sensibilità, sia per le vincite che per le perdite. A partire dagli studi
più classici sull’utilità (Samuelson 1937) si è sempre dato per scontato che l’utilità fosse
una grandezza marginalmente decrescente con l’incremento della ricchezza, il che si
accompagna ad una funzione di utilità concava. La considerazione, da una parte, di
un’utilità marginalmente decrescente e, dall’altra, della diminuzione di sensibilità al
crescere della ricchezza, sono coerenti ambedue con una funzione di utilità concava per
domini positivi18. I problemi si pongono, invece, quando si considerano domini
negativi: in tal caso, infatti, il decrescere dell’utilità marginale comporterebbe una
funzione concava, mentre la diminuzione della sensibilità sarebbe coerente con una
funzione convessa, come è stato ben argomentato da Kahneman e Tversky (1979).
Diventa, dunque, naturale chiedersi: la funzione di utilità delle perdite è concava come
18 Tra l’altro, questo fatto consente di spiegare l’assurdo a cui giunge il paradosso di San Pietroburgo.
55
deriva dalla diminuzione dell’utilità marginale oppure è convessa come deriva dalla
diminuzione della sensibilità? L’evidenza empirica di cui si dispone presenta risultati
spesso ambigui; inoltre, molti esperimenti utilizzano come metodi di elicitazione della
funzione di utilità o il metodo degli equivalenti certi o quello delle probabilità
equivalenti, che, come si avrà modo di meglio chiarire in seguito, risentono di effetti
distorsivi e, quindi, tendono ad alterare i risultati ottenuti. Proprio per ottenere stime che
siano le più affidabili possibile, Fennema e Van Assen strutturano l’esperimento in una
procedura di elicitazione per i guadagni e in una per le perdite, in sessioni separate;
ciascuna sessione è costituita da tre parti: nella prima viene applicata una procedura di
outward trade-off; nella seconda viene applicato il metodo degli equivalenti certi;
infine, la terza e ultima parte di ciascuna sessione consta di una procedura di inward
trade-off (la descrizione dettagliata delle procedure di elicitazione, nonché del presente
esperimento saranno trattate nel capitolo 4). L’esperimento è stato condotto su 68
studenti di psicologia dell’Università di Nijmegen. I risultati utili ottenuti sono stati 64,
poiché le risposte di tre soggetti hanno mostrato chiaramente che non avevano capito le
istruzioni per rispondere correttamente, mentre un quarto non è stato in grado di
completare il questionario. Le domande poste sono state strutturate ponendo, di volta in
volta, una scelta tra due diverse lotterie aventi come esiti possibili dei valori monetari
(perdite o guadagni). Sono stati utilizzati pagamenti ipotetici, perché non si è voluto che
le risposte venissero influenzate dalla ricompensa ricevuta per la partecipazione.
L’analisi è stata condotta separatamente per le perdite e per i guadagni e si è
sviluppata in due fasi: prima è stato utilizzato un test non parametrico per ottenere
conclusioni che fossero estensibili all’intera popolazione di origine; in un secondo
momento si è, invece, fatto ricorso ad un test parametrico, in modo da avere un termine
di confronto per i risultati ottenuti19.
19 Per inciso, si ricorda la differenza tra un test parametrico e un test non parametrico. I test parametrici, come il test t di Student, il test Z, il test F, possono essere utilizzati solo se è valido il presupposto che i campioni sono tratti da una popolazione distribuita normalmente, una popolazione, cioè, che è completamente descritta dalla media e dalla deviazione standard. In questo caso i test parametrici sono i più affidabili. Quando, invece, la popolazione oggetto di studio non è distribuita normalmente e, quindi, la media e la deviazione standard non sono più sufficienti a darne una descrizione completa, o quando la distribuzione d’origine non è nota si può ricorrere a test non parametrici, i quali non richiedono nessuna assunzione riguardo alla forma della distribuzione della popolazione da cui è tratto il campione. In questi casi si utilizza, al posto dei valori delle osservazioni, il numero d’ordine delle stesse nella verifica dell’ipotesi nulla.
56
Come si avrà modo di chiarire in seguito, il metodo del trade-off genera intervalli
che producono le stesse differenze nella scala di utilità. Una funzione di utilità lineare
implica, dunque, che tutti gli intervalli siano uguali; una funzione di utilità convessa
implica che, quando le quantità sono sempre più grandi, anche gli intervalli devono
essere più grandi, in modo che le differenze di utilità si mantengano costanti. Viceversa,
nel caso di una funzione di utilità concava, gli intervalli saranno sempre più piccoli al
crescere delle quantità. Formalmente, una zona circostante un valore xi è lineare se:
( )1 112i i ix x x− += ⋅ +
Una zona circostante un valore xi è convessa se:
( )1 112i i ix x x− +< ⋅ +
Infine, una zona circostante xi è detta concava se:
( )1 112i i ix x x− +> ⋅ + .
Per il metodo degli equivalenti certi il criterio di classificazione è analogo.
Nella Tab. 2.5 sono riportate le percentuali di parti convesse, concave e lineari
ottenute, separatamente per vincite e perdite, per tutti i soggetti.
Tab. 2.5 - Percentuale di parti convesse, concave e lineari per perdite e vincite Perdite Vincite
Outward Inward CE Outward Inward CE Convessa 47% 65% 66% 14% 10% 20% Concava 34% 10% 17% 79% 85% 73% Lineare 19% 25% 17% 7% 5% 7%
57
Per tutti i metodi, in corrispondenza di ciascun soggetto si possono individuare tre
possibili comportamenti diversi che si riflettono sulla forma della funzione che può
risultare concava, convessa o lineare. Se un soggetto ha mostrato due o tre parti
concave, allora la sua funzione di utilità è stata classificata come concava;
analogamente è stata fatta la classificazione per le funzioni convesse o lineari. Se un
soggetto ha mostrato una parte concava, una convessa e una lineare, allora non è stato
classificato in nessun modo. Nella Tab. 2.6 viene indicato il numero di soggetti la cui
funzione è stata classificata come concava, convessa o lineare, in base ad un test non
parametrico, la cui ipotesi nulla è che la classificazione concava sia probabile tanto
quanto la classificazione convessa. Si può osservare come ci sia un numero
significativamente maggiore di soggetti classificati come convessi (per le perdite) per
tutti e tre i metodi di elicitazione impiegati, anche se per la procedura outward trade-off
tale proporzione è meno pronunciata.
Tab. 2.6 - Numero di soggetti classificati secondo la tipologia della funzione di utilità (test non parametrico)
Perdite Vincite Outward Inward CE Outward Inward CE
Convessa 33 41 52 7 3 9 Concava 19 1 4 55 51 51 Lineare 2 2 3 1 0 0
A risultati analoghi, sia per le perdite che per le vincite si perviene anche con il
test parametrico. Per verificare le ipotesi tramite test parametrico è stata impiegata una
funzione di potenza (per approfondimenti vedi Kahneman e Tversky, 1979):
⎪⎩
⎪⎨⎧
<−⋅−
≥=
0)(0
)(xsex
xsexxu
β
α
λ
Per verificare le ipotesi sono stati considerati i valori mediani dei parametri α e β,
perché ritenuti, in questo caso, più appropriati rispetto alle medie. La Tab. 2.7 riporta il
numero di soggetti la cui funzione di utilità è stata classificata come convessa, concava
o lineare. In particolare, un soggetto è stato classificato come avente una funzione
convessa, concava o lineare per le perdite, quando è risultato, rispettivamente, β > 1, β
58
< 1, β = 1 e per le vincite quando è risultato, rispettivamente, α < 1, α > 1, α =1.
Come si può osservare, la classificazione basata sui risultati del test parametrico è molto
simile a quella basata sul test non parametrico. Quindi, le conclusioni a cui si giunge
sono analoghe: la maggior parte dei soggetti esibisce una funzione di utilità convessa
per le perdite.
Anche i risultati dei due test, parametrico e non parametrico, per le vincite
mostrano risultati coerenti: la maggior parte dei soggetti mostra una funzione di utilità
concava (test binomiale con livello di significatività α = 0,001), come implicato, d’altra
parte, sia dall’utilità marginale decrescente sia dalla riduzione della sensibilità.
Tab. 2.7 - Numero di soggetti classificati secondo la tipologia della funzione di utilità (test parametrico)
Perdite Vincite Outward Inward CE Outward Inward CE
Forma della funzione
Convessa 39 45 58 5 1 11 Concava 23 3 3 58 54 52 Lineare 2 2 3 1 0 0
A questo punto si può fornire risposta alla domanda posta inizialmente: la
funzione di utilità per le perdite è concava come risulta dalla diminuzione della utilità
marginale oppure convessa come risulta dalla diminuzione della sensibilità? Le prove
empiriche mostrano che la maggior parte degli individui presenta una convessità per le
perdite: questo può, dunque, essere spiegato tramite la reattività alla diminuzione di
sensibilità. Il che non implica affatto che i soggetti siano insensibili alla diminuzione
dell’utilità marginale del denaro in caso di perdite, significa solamente che questo
effetto è più che compensato dall’effetto della diminuzione di sensibilità, che genera,
quindi, una maggiore propensione a rischiare. Come conferma che i soggetti reagiscono
anche a diminuzioni dell’utilità marginale, si può osservare che quando le perdite si
approssimano ad una situazione di fallimento del soggetto, gli effetti della diminuzione
dell’utilità marginale prendono il sopravvento sugli effetti della diminuzione di
sensibilità a incrementi di perdite e la funzione, quindi, assume un tratto finale concavo
(vedi Kahneman e Tversky, 1979).
59
2.9 L’ESPERIMENTO DI ABDELLAOUI
Un ulteriore esperimento che conduce a conclusioni analoghe a quelle appena viste è
stato condotto da Abdellaoui (2000). Egli applica il metodo del trade-off, variandolo
leggermente rispetto alla versione originaria di Wakker e Deneffe. L’esperimento è
rivolto a individui che lavorano presso l’Ecole Normale Supérieure de Cachan
(Dipartimento di economia e management) e consiste in più problemi di scelta tra
coppie di lotterie.
Data la sequenza standard di risultati elicitati x0, ….., x6, si calcola la differenza tra
valori consecutivi, cioè '1i i ix x −∆ = − , con i = 1,…,6 e, quindi, si calcola poi la
differenza tra ∆i’ consecutivi, ottenendo '' ' '1j j j+∆ = ∆ − ∆ , con j = 1,…..,5. La forma
della corrispondente funzione di utilità dipende dal segno di ''j∆ al variare di j. Così,
quando la sequenza standard di risultati si riferisce a dei guadagni (rispettivamente
perdite), allora la funzione di utilità è concava (rispettivamente convessa) se e solo se ''j∆ è positivo (rispettivamente negativo) per j = 1,….,5. In modo simile all’esperimento
condotto da Fennema e Van Assen, ogni soggetto è stato classificato come avverso al
rischio se presenta almeno tre su cinque ''j∆ positivi; in modo analogo è stato classificato
come propenso o neutrale al rischio se presenta, rispettivamente, tre su cinque ''j∆ negativi o uguali a zero. Nel caso in cui un soggetto non possa essere classificato in
modo netto in base a tale criterio, allora gli viene attribuita una forma mista della
funzione di utilità. Nella Tab. 2.8 sono riportati i risultati ottenuti. Per i guadagni, si
può notare che questi risultati sono coerenti con il principio della sensibilità
decrescente: 21 funzioni su 40 stimate risultano concave, 8 convesse e 7 lineari; 4
presentano una forma mista. Se consideriamo solo le forme concava e convessa, allora
possiamo concludere che c’è un numero significativamente (p = 0,01, test binomiale ad
una coda) maggiore di funzioni concave piuttosto che convesse. Per le perdite, invece,
17 soggetti su 40 presentano utilità convesse e 8 concave (le rimanenti sono 7 lineari e 4
miste). Il numero di casi di funzioni convesse è significativamente (p = 0,025, test
binomiale ad una coda) più alto del numero di funzioni concave. Si consideri, infine,
contemporaneamente il dominio positivo e quello negativo: risulta che solo 13 funzioni
60
su 40 presentano la forma convessa – concava teorizzata come la più diffusa da
Kahneman e Tversky: si può, quindi, concludere che questo basso tasso di coerenza con
l’ipotesi della diminuzione della sensibilità sia dovuto, almeno in parte, al numero
relativamente elevato di casi lineari, numero che potrebbe ridursi incrementando
l’importo delle somme in gioco, in modo da sviluppare una maggiore sensibilità.
Tab. 2.8 - Classificazione dei soggetti (esperimento di Abdellaoui) Perdite Concavo Convesso Lineare Misto Totale
Guadagni Concavo 4 13 4 0 21 Convesso 1 0 3 4 8 Lineare 3 4 0 0 7 Misto 0 0 3 1 4 Totale 8 17 10 5 40
In conclusione i risultati di questo esperimento tendono a confermare l’ipotesi
della diminuzione della sensibilità per domini positivi e negativi e, dunque, sostengono
la tesi di una funzione di utilità comunemente a forma di S: convessa per le perdite e
concava per le vincite.
2.10 MISURA DELL’AVVERSIONE AL RISCHIO
Pratt (1964) e Arrow (1965) hanno elaborato, autonomamente l’uno dall’altro, un indice
per misurare l’atteggiamento verso il rischio e per rendere possibili confronti tra più
soggetti. In particolare, la misura proposta da Pratt è definita nel seguente modo:
)(')('')(
xuxuxr −= ,
cioè come rapporto tra la derivata seconda della funzione di utilità col segno meno e la
derivata prima della stessa funzione. Dal momento che u’(x) è sempre positiva a causa
della non decrescenza di u e che una derivata seconda negativa indica una funzione
convessa, mentre una derivata seconda positiva indica una funzione concava, possiamo
61
dedurre che il segno di r(x) individua l’atteggiamento del soggetto nei confronti del
rischio:
• Se r(x) > 0 allora il soggetto è avverso al rischio
• Se r(x) < 0 allora il soggetto è propenso al rischio
• Se r(x) = 0 allora il soggetto è neutrale rispetto al rischio.
Tale indice è indicato con il nome di “misura locale di avversione al rischio” o
anche “indice assoluto di avversione al rischio di Arrow – Pratt”. Il vantaggio di questo
indice è quello di consentire confronti tra l’atteggiamento al rischio di due soggetti
diversi; infatti, il fatto che la funzione di utilità sia definita per trasformazioni affini fa sì
che né la comparazione tra i valori assunti dalle derivate seconde, né la comparazione
grafica tra le curvature delle varie funzioni di utilità siano misure soddisfacenti per
determinare la differenza nell’intensità dell’atteggiamento verso il rischio di persone
diverse. Il pregio dell’indice di Pratt è, infatti, quello di non risentire delle
trasformazioni di u(x)20. Quindi, date u1 e u2 le funzioni di utilità dei soggetti 1 e 2 e r1,
r2 le rispettive funzioni che misurano l’avversione locale al rischio, se, per un certo x,
r1(x) > r2(x), allora u1 è localmente più avversa al rischio di u2 nel punto x. Se poi la
relazione è vera per ogni x, allora si dice che u1 è globalmente più avverso al rischio di
u2. Formalmente, si ha che:
Teorema: Siano u1 e u2 due funzioni di utilità di due soggetti diversi. Sia πi il
premio di rischio dato da ui, con i = 1, 2, allora:
( ) ( ) xxrxr ∀>⇒> 2121 ππ .
Detto in altri termini, se l’avversione locale al rischio di un decisore è
uniformemente più grande di quella di un secondo soggetto, allora al primo sarà sempre
associato un più alto premio di rischio rispetto al secondo: quindi, il primo è più avverso
al rischio del secondo.
Anche Yaari (1969) si occupa del problema di confrontare l’atteggiamento verso
il rischio di due soggetti. Un decisore risulta più avverso al rischio di un altro se il
20 Prendiamo, ad es., u° (x) = a u(x) + b. L’indice di Pratt rimane comunque invariato: r°(x) = r(x).
62
gruppo di lotterie che egli sceglierebbe di giocare piuttosto che ricevere un risultato
certo, è contenuto nel corrispondente gruppo di lotterie del secondo soggetto.
L’indice r(x) ha il difetto di dipendere dal livello di ricchezza x; per ovviare a
questo inconveniente, Pratt ha proposto un “indice relativo di avversione al rischio”,
definito come:
)(')('')()(*
xuxuxxrxxr −=⋅=
questo indice si può rivelare particolarmente utile nei problemi di scelta i cui risultati
sono espressi come proporzione del livello di ricchezza x.
Altro aspetto interessante da osservare è l’andamento dell’atteggiamento verso il
rischio: come variano r(x) e r*(x) al variare di x? L’andamento può essere, in entrambi i
casi, costante, decrescente o crescente: nella teoria dell’utilità l’ipotesi più
comunemente accettata è che i soggetti presentino un’avversione assoluta al rischio che
decresce con l’aumentare della ricchezza, cosa che si correla direttamente con la
riduzione di sensibilità trattata in precedenza. A tale proposito Cohn, Lewellen, Lease e
Schlarbaum (1975) hanno condotto un esperimento volto a indagare l’andamento
dell’indice di avversione relativa; esperimento che ha portato alla conferma dell’ipotesi
di una relazione decrescente tra r*(x) ed x.
In particolare, l’esperimento investiga empiricamente l’effetto dell’incremento di
ricchezza (quindi, l’attenzione è volta al dominio dei guadagni) sulla proporzione di
attività rischiose presenti nel portafoglio titoli di un investitore. I quattro autori hanno
sottoposto un questionario postale a più di 2500 persone degli Stati Uniti, mediamente
più ricche, più anziane e più istruite della popolazione media. L’indagine ha incluso,
oltre alle informazioni su come la ricchezza dei soggetti viene diversificata tra attività
rischiose e attività prive di rischio, anche informazioni di carattere personale, come età,
sesso, stato civile, reddito, occupazione, educazione ecc. La definizione di ricchezza che
è stata impiegata per realizzare l’indagine coincide con la ricchezza totale di un
soggetto, cioè include, oltre alla tipica ricchezza finanziaria (titoli), anche altre attività,
quali le proprietà immobiliari. Un problema di più difficile soluzione è, invece, quello
relativo alla definizione di “attività priva di rischio”: gli autori hanno deciso di
63
comprendere in tale categoria, conformemente ai più diffusi principi di finanza, le varie
tipologie di titoli di stato (ignorando, quindi, sia l’incertezza dei rendimenti connessa
con l’inflazione, sia il rischio paese) e le proprietà immobili personali.
Una prima metodologia applicata per individuare la relazione esistente tra
percentuale del portafoglio investita in attività rischiose e le altre variabili è stata
l’analisi di regressione lineare, tramite la quale si è dedotta la seguente equazione:
1 2 333.5 0.20 0.36 11.2y x x x= + ⋅ + ⋅ − ⋅ ,
dove y è la percentuale del portafoglio individuale investito in attività rischiose; x1
indica il reddito in migliaia di $ (tale valore può essere sostituito con la ricchezza, senza
per questo intaccare i risultati ottenuti); x2 è l’età espressa in anni; x3 è una variabile
binaria che indica lo stato civile, attribuendo valore 0 se l’individuo è single e valore 1
se è sposato. I risultati della regressione indicano che la frazione di attività rischiose del
portafoglio è positivamente correlata con il reddito e con l’età ed è, invece,
negativamente correlata con lo stato civile, nel senso che le persone sposate investono
una più piccola proporzione del loro portafoglio in attività rischiose, rispetto ai single.
Un’analisi più dettagliata è stata svolta ricorrendo ad un test 2χ . I risultati
conseguiti sono riportati nella Tab. 2.9, che mostra come varia la percentuale di attività
rischiose presenti nel portafoglio titoli al variare della ricchezza totale del soggetto.
Risulta evidente come, al crescere della ricchezza totale, anche la proporzione investita
in attività rischiose tende a crescere: per es. si rileva che, tra i soggetti aventi meno di
100.000 $, il 55% ha meno del 40% della propria ricchezza investito in attività
rischiose, mentre solo il 10% ha più del 75% della propria ricchezza investito in questo
modo. Per i soggetti più ricchi si rileva esattamente il contrario: l’11% possiede meno
del 40% di asset rischiosi, mentre il 43% ne possiede più del 75%. Possiamo, dunque,
accettare come conclusiva l’ipotesi di un’avversione al rischio relativamente
decrescente. Affermazione questa che trova conferma nel proseguimento dell’indagine,
dove si analizza l’effetto delle variazioni di ricchezza, dividendo gli investitori per
classi di età, per stato civile e per sesso.
64
Tab. 2.9 - Percentuale di ricchezza investita in attività rischiose Percentuale di attività rischiose
0 – 40% 40% - 60% 60 – 75% 75 – 100% Totale Ricchezza totale
[0, 100000] 0,55 0,27 0,08 0,10 1,00 ]100000, 175000] 0,42 0,28 0,21 0,09 1,00 ]175000, 350000] 0,19 0,33 0,29 0,19 1,00 ]350000, ∞] 0,11 0,20 0,26 0,43 1,00
A una conclusione diversa giunge, invece, Szpiro (1986) che effettua un’analisi su
serie storiche di dati relative agli importi assicurati tra il 1951 e il 1975 presso un
gruppo di compagnie di assicurazione statunitensi, assumendo una funzione di
avversione al rischio della forma: r(W) = c/Wh, dove r(W) è l’indice di avversione
assoluta al rischio di Pratt e W (wealth) è la ricchezza del soggetto. Il valore di h indica
la direzione del cambiamento della funzione di avversione al rischio rispetto alla
ricchezza: valori di h positivi indicano un’avversione assoluta al rischio decrescente; se,
poi, h è anche maggiore di 1, questo implica un’avversione relativa al rischio
decrescente (come mostrato, appunto, da Cohn, Lewellen, Lease e Schlarbaum 1975);
valori di h inferiori a 1 determinano un’avversione relativamente crescente; infine, se h
è uguale ad 1, allora si può concludere per un’avversione relativa al rischio costante al
variare della ricchezza. In quest’ultimo caso, c indica proprio la misura di avversione al
rischio relativa21. Applicando il metodo dei minimi quadrati22 per la determinazione del
parametro h, risulta h=1,17, valore che non è significativamente diverso da 1 (a tale
proposito è stato impiegato un test d’ipotesi F di Fisher con un livello di significatività
del 10%). Quindi, diversamente dalle conclusioni precedenti, lo studio di Szpiro giunge
a individuare un’avversione relativa al rischio costante al variare della ricchezza.
21 Se h=1 ⇒ r(W) = c/W ⇒ c = W r(W), cioè proprio l’indice di avversione relativa al rischio definito da Pratt. 22 Per i dettagli dei passaggi matematici si veda Szpiro (1986).
65
Capitolo 3 TEORIE GENERALIZZATE DELL’UTILITÀ
3.1 INTRODUZIONE
Dopo aver analizzato i concetti di base della teoria dell’utilità attesa di Von Neumann e
Morgenstern, si soffermerà l’attenzione su come diverse osservazioni empiriche
evidenzino spesso una violazione degli assiomi di razionalità su cui la teoria stessa si
fonda. Queste violazioni minano la validità descrittiva della teoria, ma non la sua
validità normativa: esse indicano che non sempre gli individui adottano quel
comportamento “idealmente razionale” ipotizzato da Von Neumann e Morgenstern, e
ciò porta a concludere che le persone si rivelano meno razionali rispetto a quanto
ipotizzato dai due autori. Per questo motivo, nel corso degli anni sono state sviluppate
delle teorie alternative all’utilità attesa, che fanno uso di forme più deboli degli assiomi
di razionalità, proprio nel tentativo di formalizzare regole decisionali maggiormente in
linea con i comportamenti effettivamente osservati nella realtà.
Nel paragrafo successivo vengono presentati alcuni esempi di violazioni
dell’utilità attesa23, mentre i paragrafi seguenti sono dedicati ad una sintetica descrizione
delle teorie generalizzate dell’utilità. In proposito, si sottolinea che con la dizione teorie
generalizzate dell’utilità, si vuole indicare che ciò su cui gli individui si basano per
prendere decisioni non è semplicemente l’utilità attesa del problema di scelta postogli
(cioè la somma delle utilità dei singoli risultati ponderati con le rispettive probabilità),
ma che a questa si aggiungono altri elementi, quali la certezza del risultato, il modo in
cui il problema viene presentato ecc. Proprio per rendere possibile un maggior
adattamento ai comportamenti effettivi, le teorie generalizzate adottano una base
assiomatica meno rigida rispetto a quella relativa all’utilità attesa. In particolare,
66
essendo l’assioma d’indipendenza quello più frequentemente violato, le nuove teorie
impiegano forme più deboli di tale assioma, come l’interrelazione, che portano
all’abbandono della proprietà di linearità nelle probabilità. Machina (1982), addirittura,
sviluppa una teoria dell’utilità abolendo del tutto l’assioma d’indipendenza. Altre teorie,
invece, rivolgono l’attenzione al non rispetto della proprietà di transitività (Fishburn
1988a).
Siccome non rientra tra gli scopi del presente contributo approfondire le teorie
generalizzate dell’utilità, si procederà ad una sintetica illustrazione delle sole due teorie
generalizzate più rilevanti, vale a dire la teoria dell’utilità dipendente dal rango
(Quiggin 1993) e la teoria del prospetto (Kahneman e Tversky 1979). Alcuni accenni
riguarderanno anche le teorie dell’utilità dipendenti dal rango e dal segno (Luce e
Fishburn 1991), essendo il risultato della fusione delle prime due e la base della teoria
cumulata del prospetto proposta da Tversky e Kahneman nel 1992.
Come premessa generale al capitolo è necessario puntualizzare che con
( ) ( ),V a V x p=
si indica la generica funzione di valutazione applicata ad un’azione a, intesa, dunque,
come funzione dei risultati monetari ( )rxxxx ,....,, 21≡ e delle probabilità
( )rpppp ,....,, 21≡ , in modo che:
( ) ( )bVaVba >⇔f
Così, nel caso in cui il criterio di decisione impiegato sia il valore atteso si ha:
( ) )( ii
i pxaV ⋅= ∑ ,
23 Tra i fenomeni analizzati nelle pagine successive non viene trattata l’influenza esercitata dal metodo di elicitazione impiegato, poiché l’argomento viene svolto approfonditamente nel capitolo 4.
67
cioè linearità nei risultati e nelle probabilità. Nel caso in cui il criterio di selezione sia
l’utilità attesa si ha invece:
( ) ( )i ii
V a u x p⎡ ⎤= ⋅⎣ ⎦∑ ,
cioè non si presume più la linearità nei risultati, che ora vengono pesati in modo
soggettivamente diverso tramite il concetto di utilità, ma viene mantenuta la linearità
nelle probabilità. Infine, nel caso in cui si introduca l’utilità generalizzata, si perde
anche la linearità nelle probabilità:
( ) ( ) ( )[ ]∑ ⋅=i
ii pfxuaV .
3.2 VIOLAZIONI DELLA TEORIA DELL’UTILITÀ ATTESA
3.2.1 Violazione della transitività
Una proprietà di base delle relazioni di preferenza è la transitività, per cui se x f y e y
f z si richiede che x f z. Invece, nella pratica non sempre questa proprietà risulta
rispettata: è il caso delle preferenze cicliche e del ribaltamento delle preferenze.
May (1954) ha condotto un esperimento tra 62 studenti chiedendo di scegliere il
futuro partner tra tre “candidati”, x, y, z, caratterizzati da tre diversi livelli di
intelligenza, bellezza e ricchezza. In 17 casi sono risultate preferenze cicliche, cioè del
tipo: x f y, y f z e z f x. La spiegazione di questo fenomeno apparentemente
contraddittorio è stata individuata come semplice conseguenza del risultato di scegliere
l’alternativa che è superiore alle altre per due dei tre criteri.
Ulteriori manifestazioni di intransitività sono state rilevate da altri autori (Fishburn
1988b): si è osservato frequentemente che quando una lotteria monetaria p è preferita ad
una lotteria monetaria q, l’individuo in possesso dell’una o dell’altra venderebbe p ad
un prezzo inferiore a q. Per es., sia p($30) = 0,9, p($0) = 0,1, q($100) = 0,3 e q($0) =
0,7, sia pf q e sia, infine, il prezzo di vendita di p pari a $25 e quello di q pari a $27.
Sotto l’usuale assunzione che più denaro è preferito a meno e che il minimo prezzo di
68
vendita di una lotteria (cioè il suo equivalente certo) è indifferente rispetto alla stessa,
ribaltamenti nelle preferenze del tipo appena presentato contraddicono l’assioma di
ordinamento di Von Neumann e Morgenstern.
Un altro esempio classico di violazione del principio della transitività è il
seguente. Per ogni temperatura x C° si può assumere che un soggetto sia indifferente tra
il trovarsi in una stanza con x C° e il trovarsi in una stanza con (x + 0,001) C°, in quanto
egli non è in grado di percepire la differenza. Quindi:
20 C° ∼ 20,001 C°
20,001 C° ∼ 20,002 C°
….
99.999 C° ∼ 100 C°
Se le preferenze del decisore fossero veramente transitive risulterebbe che
20 C° ∼ 100 C°
ma ciò è ovviamente assurdo!
3.2.2 Effetto certezza
Un principio base della teoria dell’utilità attesa è rappresentato dalla proprietà di
linearità delle probabilità: cioè a tutte le probabilità il soggetto dà sempre lo stesso peso,
la stessa importanza. Molti esempi, invece, mostrano che gli individui tendono a dare
maggior peso ai risultati certi rispetto a risultati probabili: questo fenomeno va sotto il
nome di effetto certezza. Il più tipico esempio di effetto certezza è rappresentato dal
cosiddetto paradosso di Allais (Allais, 1953). Si considerino due ipotetiche situazioni di
scelta:
a) Preferisci la situazione A o la situazione B?
Situazione A: certezza di ricevere 100 milioni
Situazione B: 500 milioni con probabilità del 10%; 100 milioni con probabilità del
89% e niente con probabilità 1%
69
b) Preferisci la situazione C o la D?
Situazione C: 100 milioni con probabilità del 11%, niente altrimenti (p=89%)
Situazione D: 500 milioni con probabilità del 10%, niente altrimenti (p=90%)
Spesso la maggior parte degli intervistati ha mostrato di preferire A a B e D a C.
Queste due scelte considerate singolarmente sono pienamente razionali, ma considerate
insieme violano la teoria dell’utilità attesa. Infatti, dalla prima preferenza risulta:
( ) ( ) ( ) ( )001,010089,050010,0100 uuuu ⋅+⋅+⋅>
( ) ( )50010,010011,0 uu ⋅>⋅⇒
Dalla seconda preferenza risulta, invece:
( ) ( )50010,010011,0 uu ⋅<⋅
E’ evidente che le due preferenze non possono coesistere contemporaneamente,
almeno in base alla teoria dell’utilità attesa. Questo fenomeno viene spiegato
(Kahneman e Tversky, 1979) proprio tramite il fatto che gli individui non danno lo
stesso peso alle probabilità, ma le pesano in maniera differente, sovrastimando gli
eventi certi. Questo fenomeno è molto importante, perché, come si è visto parlando
della forma assunta dalla funzione di utilità, tende ad accentuare l’avversione al rischio
nei domini positivi e la propensione in quelli negativi.
L’effetto certezza è un esempio di violazione dell’assioma di indipendenza. Infatti,
se si considera la lotteria Q = (500 10/11 0) e suppone che sia AfQ. Per l’assioma di
indipendenza, introducendo una qualunque lotteria Q*, vale l’equivalenza AfQ ⇔ (A
0,11 Q*) f (Q 0,11 Q*). Ponendo Q* = A, allora risulta AfQ ⇔ A f (Q 0,11 A).
Poiché (Q 0,11 A) ∼ (500 0,10; 100 0,89; 0 0,01) = B, allora si ha: AfQ ⇔ A f (Q
0,11 A) ∼ (500 0,10; 100 0,89; 0 0,01) = B , cioè: AfQ ⇔ A fB. Ponendo, invece di
Q* = A, Q* = 0, si trova nello stesso modo: AfQ ⇔ CfD, da cui risulta: AfB⇔
CfD. Si tratta di un’ulteriore verifica della necessaria corrispondenza tra AfB e
CfD; inoltre, essendo stato impiegato, durante l’elaborazione, solo l’assioma di
70
indipendenza, il mancato rispetto di questa corrispondenza implica una diretta
violazione di quest’ultimo.
3.2.3 Effetto pseudo-certezza o effetto isolamento
Non solo la certezza di un risultato provoca distorsioni nel modo in cui i soggetti
percepiscono le probabilità, ma anche la pseudo-certezza, vale a dire la presunta
certezza di un risultato, ha lo stesso effetto. Per capire meglio, si consideri il seguente
esperimento condotto da Kahneman e Tversky (1979). A 141 soggetti sono stati
proposti due diversi problemi di scelta:
Problema 1: Si consideri un gioco in due stadi. Il gioco consiste in una probabilità
di 0,75 di concludersi senza aver vinto niente e in una probabilità di 0,25 di accedere
alla seconda fase in cui si può scegliere tra (A) ricevere una somma certa di 3.000 $
oppure (B) partecipare ad una lotteria che ti dà una probabilità di 0.80 di vincere 4.000 $
(altrimenti niente). La scelta deve avvenire anteriormente alla prima fase del gioco.
Problema 2: Preferisci ricevere (C) 3.000 $ con probabilità 0.25 oppure (B) 4.000
$ con probabilità 0,20?
I due problemi, benché apparentemente diversi, sono in realtà identici, in quanto il
problema 2 risulta dall’applicazione dell’assioma di riduzione delle lotterie composte al
problema 1: infatti, il problema 1 dà una probabilità di 0,25 x 0,80 = 0,20 di vincere
4.000 $ e una probabilità di 0,25 x 1 = 0,25 di vincere 3.000 $, proprio come nel
problema 2. Il rispetto della teoria dell’utilità attesa vorrebbe che i soggetti non si
lasciassero influenzare dal diverso modo di presentazione di uno stesso problema di
scelta e, quindi, se preferiscono A a B, coerentemente dovrebbero preferire anche C a D.
Invece, il 78% degli intervistati ha dato risposte incoerenti, preferendo A a B e D a C.
Tale fenomeno può essere spiegato tramite la tendenza delle persone a disaggregare
problemi complessi e a concentrarsi su aspetti isolati, perdendo di vista la problematica
nel suo insieme (da qui il nome di effetto isolamento): nell’esempio riportato, questo fa
sì che il risultato di 3.000 $ nel problema 1 sia trattato come se fosse certo, quando in
realtà non lo è.
71
L’esperimento condotto da Kahneman e Tversky risulta interessante, perché
presenta contemporaneamente più fenomeni che contraddicono l’utilità attesa: esso è,
infatti, esplicativo della violazione dell’assioma di riduzione delle lotterie composte (e,
quindi, dell’assioma di indipendenza), nonché della presenza di un effetto pseudo-
certezza, che conferma di nuovo la tendenza delle persone ad attribuire pesi diversi alle
probabilità e, infine, mostra la presenza di un effetto di contesto, che genera una diversa
sensibilità degli individui a seconda del diverso modo in cui vengono presentati i
problemi di scelta.
3.2.4 Sovrastima dei bassi livelli di probabilità e sottostima di quelli alti
La tendenza rilevata negli individui a dare maggiore importanza a risultati certi o
presunti tali rientra in un fenomeno più generale di percezione distorta dei vari livelli di
probabilità, in particolare di quelli estremi (vicini a 0 e ad 1). Kahneman e Tversky
(1979) hanno, infatti, concluso che i soggetti tendono a sovrastimare i bassi livelli di
probabilità e a sottostimare quelli alti24. Questa conclusione emerge dall’esperimento
svolto dai due autori che viene qui sinteticamente richiamato.
A 66 individui sono stati proposti due problemi di scelta:
Problema 1: Si scelga tra le due seguenti lotterie la preferita:
A: (6.000 $ 0,45 0) oppure B: (3.000 $ 0,90 0)
Problema 2: Si scelga tra le due seguenti lotterie la preferita:
C: (6.000 $ 0,001 0) oppure D: (3.000 $ 0,002 0)
Nel primo problema la maggior parte delle preferenze (86%) sono andate alla
lotteria B, mentre nel secondo problema il 73% degli intervistati ha preferito la lotteria
C.
24 Le osservazioni raccolte da Kahneman e Tversky riguardo alla percezione distorta delle probabilità
forniscono la base per l’introduzione di una funzione di trasformazione delle probabilità nella teoria del prospetto.
72
Questa divergenza nelle risposte può essere spiegata proprio con una diversa
percezione dei livelli di probabilità: nel problema 1 i soggetti si concentrano sugli alti
livelli di probabilità (0,45 e 0,90) e scelgono l’alternativa con probabilità più elevata,
senza riguardo per l’ammontare in gioco; invece, nel problema 2 i soggetti si
concentrano sugli importi, dal momento che le probabilità sono molto basse (0,001 e
0,002) e, quindi, vengono percepite come equivalenti, e questo li porta a scegliere
l’alternativa con vincita più elevata. Questo fenomeno è stato osservato anche da
Hershey, Kunreuther e Schoemaker (1982), i quali affermano che gli individui hanno
difficoltà nel combinare informazioni di differenti dimensioni. Quindi, essi
tenderebbero a focalizzarsi su una dimensione per volta: probabilità o risultati.
3.2.5 Avversione all’ambiguità
Sempre nell’ambito della percezione distorta dei livelli di probabilità si può far rientrare
il fenomeno osservato da Ellsberg (1961) che va sotto il nome di avversione
all’ambiguità. L’ambiguità può essere definita come l’incertezza parziale sulla
distribuzione di probabilità degli stati di natura relativi ad un certo fenomeno: gli
individui sembrano avversi a situazioni ambigue. Tra una situazione di cui conoscono le
probabilità dei vari stati di natura e un’altra in cui la stessa non è nota, preferiscono la
prima: questo atteggiamento porta ad una violazione dell’utilità attesa.
Ellsberg ha proposto ad un gruppo di soggetti la seguente questione:
Si hanno due urne: l’urna 1 contiene 50 palline rosse e 50 nere; l’urna due
contiene 100 tra palline rosse e palline nere, ma non si conosce l’esatta proporzione.
A Preferisci scommettere che venga estratta una pallina rossa dall’urna 1 o dalla 2?
B Preferisci scommettere che venga estratta una pallina nera dall’urna 1 o dalla 2?
La maggior parte degli individui di solito risponde di preferire scommettere
sull’urna 1 sia nella prima che nella seconda domanda: ma questo genera una violazione
dell’utilità attesa. Infatti, scommettere sull’urna 1 nella prima domanda significa
attribuire una probabilità soggettiva al numero di palline rosse presenti nell’urna 2
inferiore al 50% (pr< 0,50); d’altra parte scommettere sull’urna 1 anche nella seconda
domanda significa attribuire alla presenza di palline nere nell’urna 2 una probabilità
73
inferiore al 50% (pn<0,50). Quindi, si avrà: (pr + pn) < 1, fatto questo che contraddice la
necessaria coerenza richiesta nella valutazione delle probabilità. Tale fenomeno viene
spiegato proprio con l’avversione dei soggetti per situazioni ambigue, atteggiamento
che genera uno slittamento delle preferenze per quelle situazioni che appaiono più
sicure (in analogia con l’effetto certezza).
3.2.6 Effetto contesto
Secondo la teoria dell’utilità attesa, e, in particolare, secondo l’assioma di indipendenza,
il diverso modo in cui viene presentato uno stesso problema di scelta non dovrebbe
influenzare la decisione da parte del soggetto. Molte osservazioni empiriche mostrano
invece che le persone sono particolarmente sensibili al modo in cui un problema è
presentato. Si riportano di seguito due esperimenti che mostrano chiaramente il
fenomeno.
Il primo esperimento (svolto sia da Hershey, Kunrether e Schoemaker, 1982 che
da Slovic, Fischhoff e Lichtenstien, 1988) consiste nel presentare ai soggetti decisori la
stessa scelta inserendola in contesti diversi:
Problema 1: Contesto assicurativo:
A) Hai una possibilità di 0,001 di perdere 5.000 $
B) Ti puoi assicurare, pagando 5 $, contro la suddetta perdita
Problema 2: Contesto della lotteria:
C) Hai una possibilità di 0,001 di perdere 5.000 $
D) Puoi scegliere di perdere con certezza 5 $, piuttosto che partecipare alla
lotteria.
E’ evidente che i due problemi sono identici, quindi, sotto l’utilità attesa, la
percentuale di avversi al rischio (cioè coloro che scelgono la perdita certa) nei due
problemi dovrebbe essere identica: invece, i risultati contraddicono tale ipotesi,
mostrando una maggior avversione al rischio nel contesto assicurativo. In particolare,
nell’esperimento svolto da Slovic, Fischhoff e Lichtenstein il 66% degli intervistati
sceglie B nel primo problema e solo il 39% sceglie D nel secondo. Questo fenomeno
viene spiegato tramite il fatto che pagare un premio di assicurazione non è ritenuto
74
psicologicamente equivalente a scegliere una perdita certa. Il contesto assicurativo
costringe l’individuo a riconoscere di essere sottoposto ad un rischio: il premio di
assicurazione è lo strumento necessario per eliminare il rischio. Al contrario, accettare
una perdita certa non è percepito come un mezzo per salvarsi da una lotteria non
attraente.
Un altro esperimento che conduce a risultati analoghi, mostrando la sensibilità
delle persone al modo in cui uno stesso problema viene presentato, è stato condotto da
Tversky e Kahneman (1986). Ad un campione di soggetti è stato presentato il seguente
problema di scelta con i risultati espressi in termini di tasso di sopravvivenza:
Problema A: (Tasso di sopravvivenza)
Preferisci essere sottoposto al trattamento X o al trattamento Y, dove:
- Il trattamento X dà un tasso di sopravvivenza del 90% subito dopo
l’operazione, del 68% al termine del primo anno e del 34% al termine di
cinque anni.
- Il trattamento Y, invece, dà un tasso di sopravvivenza del 100% subito dopo
l’operazione, del 77% al termine del primo anno e del 22% al termine dei
primi cinque anni.
Problema B: (Tasso di mortalità)
Ad un altro campione di soggetti è stato presentato lo stesso problema, facendo
però riferimento alla mortalità anziché alla sopravvivenza; quindi, i due trattamenti sono
stati presentati nel seguente modo:
- il trattamento X dà un tasso di mortalità del 10% subito dopo l’operazione,
del 32% dopo un anno e del 66% dopo cinque anni.
- Il trattamento Y dà un tasso di mortalità pari a 0 subito dopo l’operazione,
pari al 23% dopo un anno e al 78% dopo cinque.
La terapia Y è stata preferita dal 18% degli intervistati nel primo problema e da
ben il 44% nel secondo: questo mostra come i soggetti siano più sensibili a percepire la
riduzione del rischio di morte immediata dal 10% allo 0% piuttosto che l’incremento del
tasso di sopravvivenza dal 90% al 100%. Se interpretiamo la morte come una perdita e
la sopravvivenza come un guadagno, questo esempio conferma la maggior sensibilità
delle persone alle perdite piuttosto che ai guadagni, fatto questo che si sostanzia in una
75
funzione di utilità più inclinata per domini negativi anziché per domini positivi, come
già osservato abbondantemente discutendo della forma della funzione di utilità.
3.2.7 Effetto inerzia
Un caso particolare di effetto di contesto è rappresentato dall’effetto inerzia (Hershey,
Kunrether e Schoemaker, 1982). L’effetto inerzia concerne la tendenza delle persone a
rimanere ancorate alla loro posizione di ricchezza corrente, a meno che non gli si
presentino alternative palesemente favorevoli. Questo fa sì che quando un rischio è già
presente nella situazione dell’individuo è più difficile che lo stesso venga rifiutato
rispetto a quando viene inserito nello status quo del soggetto, modificandolo. Per es., si
considerino i due seguenti problemi:
1) Tu puoi scegliere di essere in una situazione in cui c’è il 50% di probabilità
di vincere 100 $ e il 50% di perderne 100. Accetteresti questa situazione se
non ti costasse niente?
2) Tu sei in una situazione in cui al 50% vinci 100 $ e al 50% ne perdi 100.
Saresti disposto a trasferire questo rischio a qualcun altro se non ti costasse
niente?
Questo esperimento è stato sottoposto a 35 studenti, variando via via i valori delle
probabilità e dei risultati: in tre casi su dieci ripetizioni è risultato un significativo
effetto inerzia, cioè gli studenti hanno dato risposte differenti alle due domande.
3.2.8 Influenza del dominio delle lotterie
Analizzando le possibili forme che può assumere la funzione di utilità è stato
sottolineato come questa si mostri, normalmente, convessa per domini negativi e
concava per domini positivi: tale fatto suggerisce, dunque, che la dimensione del
dominio dei risultati delle lotterie impiegate per individuare la struttura di preferenze di
un soggetto influenza l’atteggiamento nei confronti del rischio. Di seguito si riporta
l’esperimento svolto da Hershey, Kunreuther e Schoemaker (1982) che evidenzia questo
fenomeno. Il pregio di tale esperimento è che esso mantiene costante il metodo di
76
elicitazione impiegato, consentendo così di isolare le variazioni dovute al solo effetto
delle dimensioni del dominio delle lotterie. A 26 studenti vengono sottoposti due
questionari, a distanza di una settimana l’uno dall’altro: il primo contiene solo scelte tra
10 lotterie di pure perdite e la perdita di una somma certa; il secondo, invece, contiene
le stesse 10 lotterie proposte nel primo, con l’eccezione che sono state tutte traslate in
lotterie miste, aggiungendo una somma tale da rendere il valore atteso di ogni lotteria
pari a zero. Inoltre, ad altri 45 studenti sono state poste solo le domande del primo
questionario e ad altri 9 solo quelle del secondo. La Tab. 3.1 riporta i risultati ottenuti.
Un test χ2 ha mostrato che la traslazione da lotterie di pure perdite a lotterie miste
incrementa significativamente la percentuale di avversi al rischio, confermando così
l’influenza delle dimensioni del dominio delle lotterie scelto per determinare la funzione
di utilità di un soggetto.
Tab. 3.1 - Risultati dell’esperimento di Hershey, Kunreuther e Schoemaker Lotterie di pure perdite Lotterie miste N° di soggetti più
avversi con:
N° Avverso %
Neutrale %
Propenso %
Avverso %
Neutrale %
Propenso %
Lott. mista
Lott. pura
1 11 21 67 53 26 21 14 2 2 23 32 45 77 14 9 17 1 3 24 20 56 74 14 11 17 3 4 6 21 73 26 34 40 14 3 5 17 27 56 71 20 9 19 2 6 18 24 58 46 14 40 10 5 7 21 28 51 60 20 20 13 2 8 39 24 37 66 29 6 8 4 9 27 28 45 71 26 3 11 5 10 15 32 32 40 26 34 11 4
3.3 TEORIA DELL’UTILITÀ DIPENDENTE DAL RANGO
Quiggin (1993) propone una teoria nel cui contesto il decisore massimizza l’utilità
attesa dell’insieme dei risultati in base alla trasformazione della distribuzione di
probabilità e non in base alla trasformazione delle singole probabilità. Ciò significa che
ad ogni risultato di una lotteria la misura trasformata assegna un peso decisionale
dipendente da tutta la lotteria, cioè i pesi decisionali attribuiti ai risultati dipendono dal
77
loro ordinamento nello spazio delle conseguenze. In tal senso la funzione di preferenza
assume la seguente forma:
( ) ( ) ( ) ( )[ ] ( )[ ]{ }111
1
11−
==
−
==
−⋅=⎥⎥⎦
⎤
⎢⎢⎣
⎡⎟⎟⎠
⎞⎜⎜⎝
⎛−⎟⎟
⎠
⎞⎜⎜⎝
⎛/⋅= ∑∑ ∑∑ ii
r
ii
r
i
i
jj
i
jji xFqxFqxupqpqxuFV ,
dove q: P → [0, 1] è una funzione di trasformazione strettamente crescente. La
funzione q assume forme diverse a seconda del comportamento del decisore. Per es., il
primo grafico in Fig. 3.1 mostra la forma di q in caso di percezione distorta delle
probabilità (cioè sovrastima delle probabilità basse e sottostima delle alte); mentre il
secondo grafico in Fig. 3.1 mostra la forma di q in caso il soggetto dia una maggiore
importanza ai risultati peggiori.
Fig. 3.1 – Teoria dell’utilità dipendente dal rango
Nella versione originaria, Quiggin assume una forma debole dell’assioma di
indipendenza:
- Sostituzione debole dell’equivalente certo:
Siano F = (x1, p1;….; xr, pr) e G = (y1, p1;….;yr, pr) due lotterie discrete e sia K =
(c1, p1;….; cr, pr) la lotteria i cui elementi sono gli equivalenti certi delle lotterie ci = ce
e (xi, 0,5; yi, 0,5), allora
K ∼ (ce(F) 0,5; ce(G) 0,5).
p 0
q
0.5
1
0.5
1 0 p
q
1
1
78
Con l’ulteriore ipotesi che q(1/2) = ½, questo assioma consente una
rappresentazione di q come quella di Fig. 3.1.
Altre forme deboli dell’assioma di indipendenza, coerenti con la teoria in discorso,
sono state proposte successivamente da, rispettivamente, Puppe (1991) e Wakker, Erev,
Weber (1994):
- Indipendenza ordinale:
Per ogni lotteria F, F’, G, G’ e ∀ x∈ X = [0, M], se F = F’ e G = G’ in [0, x)
e F = G, F’ = G’ in [x, M] ⇒ Ff G ⇔ F’f G’.
- Indipendenza comonotona:
Siano F e G due lotterie comonotone, cioè due lotterie che inducono lo stesso
ordinamento nei risultati, e sia xi il risultato comune; siano, poi, F’ e G’ le lotterie
ottenute sostituendo al risultato comune un altro che lasci invariato l’ordinamento,
allora se F f G ⇒ F’f G’.
3.4 TEORIA DEL PROSPETTO
La teoria del prospetto (Kahneman e Tversky 1979) distingue due fasi nel processo di
scelta: la fase di editing e quella di valutazione. La fase di editing consiste in un’analisi
preliminare delle lotterie offerte, in modo da giungere ad una rappresentazione più
semplice, tramite una riorganizzazione e riformulazione delle opzioni. Le principali
operazioni svolte in tale fase sono le seguenti:
- Codificazione: le persone normalmente percepiscono i risultati come vincite e
perdite rispetto ad un punto di riferimento e non come stato finale della loro ricchezza.
Il punto di riferimento viene, usualmente, identificato con la ricchezza corrente del
soggetto.
- Combinazione: le lotterie vengono semplificate combinando le probabilità
associate ai risultati identici. Per es., la lotteria (200 0,25; 200 0,25) sarà ridotta a (200
0,50 0).
79
- Segregazione: la componente priva di rischio, eventualmente contenuta nella
lotteria, viene separata dalla componente rischiosa. Per es., la lotteria (300 0,80; 200
0,25) viene scomposta nella vincita certa di 200 e nella lotteria rischiosa (100 0,80).
- Cancellazione: consiste nel cancellare gli elementi comuni a più lotterie.
- Semplificazione: è l’arrotondamento di probabilità o risultati. Per es., la lotteria
(101 0,49) diventa (100 0,50).
- Infine, le alternative dominate vengono eliminate.
Una volta svolte queste operazioni, il decisore passa alla fase di valutazione: sarà
scelta la lotteria con valore più alto. Il valore complessivo di una lotteria, indicato con
V, dipende da due elementi: v, cioè il valore del singolo risultato (in altre parole, la sua
utilità) e π(p), cioè il peso che il decisore attribuisce alla probabilità p di ciascun
risultato. In particolare, il valore di una lotteria regolare, cioè con x ≥ 0 ≥ y oppure x ≤ 0
≤ y è dato da:
( ) ( ) ( ) ( ) ( )yvqxvpqypxV ⋅+⋅= ππ,;,
dove v(0) = 0, π(0) = 0 e π(1) = 1.
Se, invece, la lotteria è strettamente positiva o negativa, cioè x > y > 0 oppure x <
y < 0 si ha:
( ) ( ) ( ) ( ) ( )[ ]yvxvpyvqypxV −+= π,;, ,
cioè il valore della lotteria è dato dal valore della componente priva di rischio più la
differenza di valore tra i risultati, che rappresenta, quindi, la componente rischiosa,
moltiplicata per il peso associato al risultato più estremo.
Sulla funzione di valore o utilità v si è avuto modo di soffermare l’attenzione nelle
pagine precedenti, conviene ora svolgere qualche ulteriore considerazione sulla
funzione di ponderazione delle probabilità, π(p).
Così come gli individui assegnano un valore soggettivo ad un certo risultato
(l’utilità, appunto), i numerosi esempi riportati al paragrafo precedente (primo tra tutti il
paradosso di Allais) fanno presupporre che anche alle probabilità venga attribuita
80
un’importanza soggettiva da parte del decisore, così che ogni risultato è moltiplicato
non per la rispettiva probabilità, ma per il peso decisionale ad essa dato. I pesi
decisionali non sono probabilità.
Le principali proprietà della funzione di ponderazione delle probabilità sono
quelle sotto riportate:
1. π(p) è funzione crescente di p, con π(0) = 0, cioè al risultato impossibile
viene attribuito un valore nullo, e π(1) = 1.
2. Subadditività: per bassi valori di p, si ha che π(rp) > rπ(p) per 0 < r < 1.
3. Sovrastima delle basse probabilità: per piccoli valori di p, π(p) > p
4. Subcertezza: π(p) + π(1-p) < 1 ∀ 0 < p < 1, cioè le probabilità elevate
(escluso l’evento certo) tendono ad essere sottostimate.
Tali proprietà giustificano una forma della funzione di ponderazione, quale quella
mostrata nella Fig. 3.2:
Fig. 3.2 - Funzione di ponderazione (teoria del prospetto)
La linea retta indica che π(p)= p, cioè la proprietà di linearità delle probabilità,
come nel caso della teoria dell’utilità attesa; mentre, i punti di discontinuità in
corrispondenza degli estremi indicano la difficoltà di valutare probabilità molto vicine a
0 o ad 1.
Le idee di base delle due teorie appena descritte, cioè assegnazione dell’utilità in
base all’ordine dei risultati (teoria dell’utilità dipendente dal rango) e assegnazione di
utilità diverse a risultati negativi e positivi e loro dipendenza dallo status quo (teoria del
0
p
π(p)
1
1
81
prospetto), possono essere combinate in una nuova tipologia di teorie: le Teorie
dell’utilità dipendente dal rango e dal segno. Un esempio di tale tipo di teorie è la
Teoria del prospetto cumulata (Tversky e Kahneman 1992), che viene proposta a
ragione di alcuni difetti riscontrati nella teoria del prospetto, quali il fatto che non
sempre viene rispettato il principio della dominanza stocastica e la difficoltà di
applicazione a lotterie che prevedono un gran numero di risultati. Nella nuova
formulazione i due autori, invece di prevedere la trasformazione di ogni probabilità
separatamente, propongono la trasformazione dell’intera funzione di distribuzione
cumulata, indipendentemente per vincite e perdite. Formalmente:
( ) ( ) ( )−+ += FVFVFV ,
dove F+ ed F- indicano, rispettivamente, le componenti associate a guadagni e perdite; a
sua volta:
( ) ( )∑=
++ ⋅=n
iii xvFV
0π e ( ) ( )∑
−=
−− ⋅=0
miii xvFV π .
I pesi decisionali ( ) ( )++++ = nF πππ ,.....,0 e ( ) ( )−−−
−− = 0,.....,πππ mF sono definiti
tramite una nuova funzione w: P→ [0, 1], detta funzione di capacità, tale che:
w(0) = 0, w(1) = 1 e w+(p)≠ w-(p),
cioè allo stesso livello p di probabilità viene attribuito un peso diverso a seconda
che ad esso sia associato un guadagno o una perdita. Quindi, i pesi decisionali sono
definiti tramite le cumulate delle capacità:
( ) ( )ninii ppwppw ++−++= ++++ .......... 1π con 0 ≤ i ≤ 1
( ) ( )1........... −−−
−−− ++−++= imimi ppwppwπ con –m ≤ i ≤ 0
82
Le teorie generalizzate qui presentate, così come molte altre non trattate,
forniscono un notevole contributo alla soluzione dei “fallimenti empirici” evidenziati
dalla teoria dell’utilità attesa. In realtà, però, neanche esse sono in grado di spiegare in
modo del tutto adeguato i comportamenti degli individui25.
25 Si vedano a tal proposito gli esprimenti svolti da Camerer (1989).
83
Capitolo 4 ELICITAZIONE DELLA FUNZIONE DI UTILITÀ
4.1 INTRODUZIONE
Nella pagine precedenti si è trattato dei fondamenti assiomatici della teoria dell’utilità
attesa di Von Neumann e Morgenstern, arrivando così a stabilire l’esistenza e la
possibilità di costruire una funzione, detta funzione di utilità, che sia esplicativa della
struttura di preferenze di un individuo. La possibilità di costruire una tale funzione
consente di individuare nella massimizzazione dell’utilità attesa il criterio che ciascun
individuo razionale dovrebbe seguire per selezionare l’azione ottimale, cioè quella
conforme al suo schema di preferenze. Inoltre, è stata dedicata particolare attenzione
all’analisi delle informazioni che possono essere ricavate dalla forma della funzione di
utilità in materia di atteggiamento verso il rischio da parte del decisore; in particolare,
sono stati richiamati vari studi di diversi autori relativi alle possibili forme della
funzione di utilità, introducendo l’importante distinzione tra atteggiamento verso il
rischio per le vincite e per le perdite; sono stati illustrati, inoltre, alcuni esempi empirici
di violazione degli assiomi di razionalità su cui si fonda la teoria dell’utilità attesa e,
infine, si è accennato alle teorie generalizzate dell’utilità, che rappresentano un
interessante tentativo di ovviare a tali limiti. In realtà, la conclusione cui si è pervenuti è
che le teorie generalizzate non rappresentano la soluzione definitiva, poiché anche esse
mostrano delle carenze da un punto di vista descrittivo.
Il problema che verrà analizzato nei paragrafi successivi è di ordine
essenzialmente pratico: in concreto, come è possibile costruire una funzione di utilità?
Prima di passare ad un’analisi dettagliata di alcuni tra i principali metodi proposti
in letteratura, si deve premettere che gli stessi sono basati su procedure sperimentali,
che si sviluppano in più livelli: 1) individuazione di soggetti disposti a partecipare
all’esperimento; 2) sottoposizione di tale gruppo di soggetti all’esperimento, che
84
consiste nella scelta tra più opzioni, rappresentate normalmente tramite lotterie; 3)
deduzione della curva di utilità di ogni singolo soggetto dalla condotta da questi tenuta
durante l’esperimento; 4) utilizzo della curva così costruita per fare previsioni sulla
condotta futura del soggetto stesso; 5) verifica della correttezza delle previsioni
effettuate.
Lo scopo dei problemi di scelta proposti ai soggetti “intervistati” è quello di
cogliere il loro ordinamento di preferenze rispetto ai possibili risultati originati dalle
lotterie, nonché le utilità attribuite ai risultati stessi, cioè l’intensità di ogni preferenza.
Di norma, quindi, si costruisce il questionario contenente le scelte da effettuare,
individuando uno o due risultati “di riferimento” a cui si attribuiscono utilità arbitrarie,
per es. al risultato più basso si può attribuire un’utilità nulla e a quello più alto un’utilità
pari ad 1 (ma qualunque altro valore va ugualmente bene, basta che sia rispettato il
principio dell’incremento dell’utilità al crescere dei risultati). Dopodiché a tutti gli altri
risultati sarà attribuita un’utilità numerica compresa tra 0 e 1, a seconda delle scelte
effettuate dal decisore nella compilazione del questionario. Per es., si supponga di voler
determinare l’utilità che un individuo attribuisce al denaro e si considerino due somme
di denaro, 500 € e 1000 € per le quali u(500 €) = 0 e u(1000 €) = 1; a questo punto è
lecito chiedersi quale sia l’utilità che il soggetto attribuisce a 600 €. Si può dare una
risposta a questa domanda proponendo al soggetto di scegliere il valore di p che lo
renda indifferente tra ricevere una somma certa di 600€ oppure partecipare ad una
lotteria che assegna una probabilità p di vincere 1000 € e una probabilità (1-p) di
vincerne solo 500. Formalmente si ha:
600 ~ (1000 p 500).
Una volta che il soggetto ha individuato il valore di p, si può determinare l’utilità
attribuita a 600 €:
)500()1()1000()600( UppUU −+=
cioè,
pppU =⋅−+⋅= 0)1(1)600( .
85
Naturalmente, spesso si ha a che fare con eventi non monetari. In tali casi è
necessario esprimere i risultati qualitativi in termini quantitativi, individuando
opportune unità di misura. A titolo puramente esemplificativo, si possono individuare
unità di misura diverse a seconda del contesto in cui il decisore agisce: nel settore
sanitario, assume rilievo il numero di anni di vita salvati oppure le spese sanitarie
risparmiate grazie a diagnosi precoci; nel settore della cultura si può fare riferimento al
numero di visitatori atteso ad una mostra, al numero o al valore delle opere esposte; nel
campo dell’istruzione si può utilizzare il tasso di assunzione dei partecipanti ad un corso
di formazione o ai livelli di carriera raggiunti dopo un certo numero di anni; nel campo
della ricerca scientifica variabili indicative dei risultati conseguiti e conseguibili da un
certo gruppo di ricercatori possono essere il numero di pubblicazioni, il numero di
citazioni ricevute ecc. In campo aziendale, invece, il fatto che l’obiettivo principale di
qualunque decisione sia la massimizzazione del profitto, fa sì che spesso il decisore
abbia a che fare proprio con eventi monetari: in tal caso l’uso di unità di misura
monetarie è sicuramente appropriato. Merita, comunque, osservare che un contesto in
cui sempre maggiore è l’attenzione agli impatti ecologici, sociali, umani, politici delle
scelte operative delle aziende, dovrebbe esortare i manager aziendali a ponderare le
azioni alternative possibili tenendo altresì conto di questi elementi, piuttosto che
limitarsi ai soli aspetti monetari.
Dopo aver accennato al problema della scelta dell’unità di misura più opportuna
per quantificare i risultati di un’azione, si possono analizzare alcuni tra i metodi di
elicitazione proposti in letteratura e che possono essere distinti (Farquhar 1984) in due
grandi tipologie:
1. Metodi “standard gamble”, che pongono a confronto due lotterie di cui
una degenere. La formulazione generica della scelta sarà dunque del tipo:
x ~ (xa p xb)
Da tale relazione si ricava l’equazione:
u(x) = p u(xa) + (1-p) u(xb)
86
Di volta in volta, si tratterà di fissare tre dei quattro valori che compaiono
nell’espressione e di far elicitare il quarto al soggetto decisore. In questa tipologia si
collocano: il metodo dei confronti tra preferenze; i metodi degli equivalenti certi; i
metodi delle probabilità equivalenti; i metodi delle lotterie equivalenti.
2. Metodi “paired gamble”: in questo caso si pongono a confronto due
lotterie, di cui nessuna delle due degenera mai in un risultato certo:
(x p y) ~ (w q z).
Anche in tal caso possiamo individuare diversi metodi rientranti in questa
tipologia, quale il metodo del trade off.
4.2 METODI STANDARD DI ELICITAZIONE
4.2.1 Confronti tra preferenze
Il metodo consiste nel proporre al soggetto una sequenza di n confronti tra una lotteria
(xai p xbi) e un risultato certo xi, con i = 1, 2,…, n, chiedendogli qual è la relazione di
preferenza che sussiste tra i due: la lotteria è preferita allo standard x oppure è vero il
contrario, o il soggetto è indifferente tra i due?
xi ? (xai p xbi)
Questo metodo, benché non molto diffuso, è impiegato per due usi principali.
Innanzitutto viene spesso usato come strumento di analisi preliminare per investigare
sull’attitudine al rischio di un soggetto e per procedere a verifiche di coerenza di una
funzione di utilità già stimata tramite altri metodi. In secondo luogo, questa tecnica
viene, talvolta, impiegata come tecnica iterativa, cioè i confronti vengono ripetuti
aggiustando di volta in volta i termini delle lotterie a confronto, finché si giunge ad
ottenere una relazione di indifferenza, da cui, quindi, trarre informazioni sulle utilità.
87
4.2.2 Lotterie equivalenti (LE)
Nei metodi delle lotterie equivalenti, l’analista fissa i valori di x, di p e di xb, facendo
determinare al soggetto decisore il valore di xa, per cui sussista la seguente relazione di
indifferenza:
x ~ (xa p xb), con xa = ?.
Normalmente si assume che p = ½, dal momento che studi empirici hanno
mostrato differenze nelle funzioni di utilità elicitate al variare sistematico di p; inoltre,
supponendo che xb sia il risultato peggiore tra quelli disponibili, si può porre porre u(xb)
= 0, ottenendo:
( ) ( )aa xuxuxu ⇒=21)( = ( )xu2 .
In una procedura iterativa si può partire con il confronto tra x1 ~ (x2 0.5 x0), con x0
< x1 < x2 e x2 = ? ottenendo:
u(x2) = 2 u(x1) .
Attribuendo un valore arbitrario c a u(x1), si ha:
u(x2) = 2c.
e la scelta successiva diventa:
x2 ~ (x3 0,5 x1),
da cui:
u(x2) = 0,5 u(x3) + 0,5 u(x1)
2c = 0,5 u(x3) + 0,5 c
⇒ u(x3) = 3c.
In generale, l’utilità del j-esimo valore elicitato dal decisore sarà pari a :
88
( ) cjxu j ⋅= .
Il valore attribuito a c è arbitrario: normalmente si pone c = 1/n, dove n indica
l’indice dell’ultimo risultato.
Esistono diverse varianti (Farquhar 1984) del metodo delle lotterie equivalenti: la
più usata è quella appena descritta, che va sotto il nome di “equisezione” e consiste nel
far determinare i valori x2, x3,…..xn tali che xi ∼ (xi+1 0,5 xi-1), con i = 1, 2, …, n. In
pratica, le risposte date dal soggetto non fanno altro che dividere l’intervallo [x0, xn] in n
sezioni uguali. Normalmente si assume n = 4; in tal caso, si hanno 5 valori della
funzione di utilità; cioè, i punti x0, x1, x2, x3, x4, con utilità rispettivamente pari a: u(x0) =
0, u(x1) = ¼, u(x2) = ½, u(x3) = ¾, u(x4) = 1 (per n =4, infatti, c è uguale a 1/4).
Vantaggi e svantaggi del metodo delle lotterie equivalenti: riguardo ai vantaggi di
questo metodo merita evidenziare il fatto che esso non risente dell’elevata ampiezza
dell’intervallo di riferimento, come invece accade per i metodi degli equivalenti certi e
delle probabilità equivalenti, dal momento che il valore massimo dell’intervallo è
direttamente stabilito dal decisore. In merito agli svantaggi, è necessario osservare che
la sequenzialità delle risposte (per determinare xi occorre aver prima determinato xi-1)
può comportare un ampliamento di eventuali errori di risposta iniziali e, inoltre, il
decisore può essere indotto a rispondere mantenendo costanti le differenze xi-xi-1. Un
ulteriore svantaggio, comune a tutti i metodi del tipo standard gamble, è rappresentato
dall’effetto certezza, che, come già sottolineato, determina un ampliamento
dell’avversione al rischio e, quindi, una preferenza per il valore certo, quando si ha a
che fare con guadagni; mentre, per domini negativi (perdite), tende ad accentuare la
propensione al rischio e, dunque, la preferenza per la lotteria non degenere.
4.2.3 Equivalenti certi (CE)
I metodi degli equivalenti certi sono di gran lunga i più utilizzati a causa della loro
semplicità: l’analista fissa i valori di p, xa, xb, mentre spetta al decisore determinare il
valore di x, che è, appunto, l’equivalente certo, in modo che sussista indifferenza tra x
89
stesso e la lotteria (xa p xb). Esistono due varianti principali di questa tipologia di
metodi: il metodo “classico” e il metodo bisettivo.
Il metodo degli equivalenti certi di tipo classico consiste nell’effettuare confronti
del genere:
xi ∼ (M pi m),
dove: u(M) = 1 e u(m) = 0 per i = 1, 2,…, n. Si avrà:
u(xi) = pi.
La procedura viene ripetuta tante volte quanti sono i punti della funzione di utilità
che si vogliono elicitare (cioè n volte); ad ogni confronto l’analista lascia fissi m ed M e
fa variare solamente p. Il maggior difetto di questo metodo è che può dare origine a
funzioni di utilità distorte quando i valori di p sono vicini a 0 e ad 1, a causa del
fenomeno già richiamato in precedenza di sopravvalutazione delle basse probabilità e di
sottovalutazione delle alte probabilità.
Per ovviare a questo difetto normalmente si ricorre alla variante bisettiva, cioè si
fissa il livello di probabilità ad ½; si procede, quindi, con un sistema di confronti
“concatenati”, cioè per determinare il valore di xi il soggetto deve aver prima
determinato xi-1. Il primo confronto richiede che il soggetto determini x0.5 in modo tale
che:
x0.5 ∼ (M 0,5 m)
il che comporta l’uguaglianza
u(x0.5) = 0,5.
Per il secondo confronto si sostituisce M con x0.5 così trovato e si determina x0.25:
x0,25 ∼ (x0,5 0,5 m)
⇒ u(x0,25) = 0,25.
90
Per trovare x0,75:
x0,75 ∼ (M 0,5 x0,5)
⇒ u(x0,75) = 0,75.
La procedura viene ripetuta il numero di volte ritenuto necessario.
Vantaggi e svantaggi dei metodi degli equivalenti certi: il maggiore vantaggio di
questi metodi è la loro semplicità di applicazione, dal momento che, in genere, i soggetti
intervistati non incontrano grandi difficoltà a determinare gli equivalenti certi. La
variante bisettiva ha l’ulteriore vantaggio di evitare distorsioni dovute a probabilità
molto alte o molto basse. In compenso, però, la variante bisettiva, essendo una
procedura sequenziale, in cui le risposte sono tra loro concatenate, può portare ad una
propagazione degli errori, analogamente a quanto già osservato per le lotterie
equivalenti. Infine, oltre a ricordare la sensibilità di tali metodi all’effetto certezza, è
importante sottolineare che è stata empiricamente osservata un’incongruenza tra le due
forme qui presentate del metodo degli equivalenti certi: in teoria, il valore x’ elicitato
tramite l’indifferenza (metodo classico)
x’ ∼ (M 0,75 m)
dovrebbe essere uguale a x0,.75, elicitato tramite l’indifferenza (metodo bisettivo)
x0,75 ∼ (M 0,5 x0,5),
dal momento che
u(x’) = 0,75 = u(x0,75).
Contrariamente alle aspettative, invece, spesso l’esperienza empirica mostra valori
diversi per x’ e per x0.75, confermando così l’influenza che esercita il contesto e il modo
in cui viene presentato un problema di scelta.
91
4.2.4 Probabilità equivalenti (PE)
L’ultimo dei metodi standard cui si da conto è il metodo delle probabilità equivalenti:
l’analista fissa xa, xb e lo standard x, chiedendo al decisore di determinare il valore della
probabilità p affinché sia soddisfatta la relazione:
x ~ (xa p xb)
Anche per il metodo delle probabilità equivalenti, analogamente al metodo degli
equivalenti certi, si possono individuare due varianti principali: il metodo delle lotterie
estreme e il metodo delle lotterie adiacenti.
Nel primo caso ad ogni i-esimo confronto si chiede al soggetto di determinare il
valore pi per il quale:
xi ∼ (M pi m).
Ponendo u(M) = 1 e u(m) = 0, si ha u(xi) = pi. Quindi, questo metodo è molto
semplice; inoltre, siccome la risposta i-esima non dipende dalla risposta (i-1)-esima, non
si corre il pericolo della propagazione degli errori, problema tipico di tutti i metodi
“concatenati”. Uno svantaggio può invece essere rappresentato dall’ampiezza
dell’intervallo [m, M], che, se troppo grande, può creare difficoltà al soggetto nello
stabilire la probabilità che lo rende indifferente tra le due lotterie.
Il metodo delle lotterie adiacenti presenta vantaggi e svantaggi speculari al metodo
delle lotterie estreme. Infatti, questa volta i confronti sono del tipo:
xi ∼ (xi-1 pi xi+1),
cioè, invece di fare sempre riferimento ai valori estremi m ed M, ci si riferisce ai valori
“localmente” migliori e peggiori rispetto ad ogni valore xi, sviluppando così sequenze
concatenate di confronti26.
26 Si noti la somiglianza tra queste due varianti del metodo delle probabilità equivalenti e le due varianti, prima analizzate, del metodo degli equivalenti certi.
92
Vantaggi e svantaggi del metodo delle probabilità equivalenti: il metodo in
discorso presenta i vantaggi e gli svantaggi già rilevati per il metodo degli equivalenti
certi; in più si deve rilevare un ulteriore svantaggio rappresentato dalla necessità per i
soggetti decisori di possedere conoscenze probabilistiche: questo rende più difficoltoso
l’intero processo di elicitazione e spiega come mai questo metodo sia meno impiegato.
French (1986) propone di facilitare la procedura di elicitazione ricorrendo ad una
rappresentazione della lotteria di riferimento tramite una circonferenza, in modo che il
decisore possa visualizzare meglio il problema di scelta.
In particolare, anziché esprimere direttamente il valore p, il soggetto deve bipartire
la circonferenza, indicando quanto deve essere grande, in termini di ampiezza angolare,
l’area che esprime la probabilità di vincere M (l’area complementare indica la
probabilità di ricevere m). Quindi, una volta che il soggetto ha espresso la sua scelta
indicando l’ampiezza α dell’angolo relativa ad M, basterà fare una proporzione per
riportare tale valore in termini di probabilità: α:360° = p:1
Benché questa soluzione riduca le difficoltà riscontrabili dai soggetti decisori, un
limite è rappresentato dalla tendenza delle persone a concentrarsi sulle “cifre tonde”,
fatto che determina un addensamento delle utilità su certi valori.
4.3 METODI BASATI SU COPPIE DI LOTTERIE (PAIRED GAMBLE) E ALTRI METODI
Sicuramente il difetto più rilevante comune a tutti i metodi standard di elicitazione della
funzione di utilità è rappresentato dall’effetto certezza, quell’effetto, cioè, che determina
una valutazione dei risultati maggiore quando questi sono presentati con certezza
piuttosto che quando appaiono in una situazione meramente probabilistica. Questo
effetto induce errori sistematici nella costruzione della funzione di utilità in ogni metodo
basato su lotterie degeneri: l’effetto indotto è un incremento dell’avversione al rischio
per i guadagni e della propensione per le perdite, determinando una curvatura più
accentuata della funzione di utilità. L’effetto certezza può essere evitato solamente
sostituendo il confronto con la lotteria degenere con il confronto con una lotteria non
93
degenere: questo è proprio quanto viene fatto con i metodi basati su coppie di lotterie.
La scelta generica che viene di volta in volta proposta al decisore è del tipo:
(xa p xb) R (xc q xd),
con R che indica la relazione di preferenza o indifferenza che sussiste tra le due lotterie.
Fissando di volta in volta sei dei sette valori che compaiono nel confronto, si ottengono
tipi di metodi analoghi a quelli già visti trattando dei metodi standard.
Si avrà, dunque, il metodo basato sul confronto di preferenza, in cui al soggetto
viene chiesto di esplicitare la relazione R di preferenza che, secondo lui, sussiste tra le
due lotterie proposte. Spesso, per rendere più semplice il confronto, le probabilità p e q
vengono poste uguali a ½.
Considerazioni analoghe valgono per il metodo delle probabilità equivalenti nel
quale il soggetto decisore deve determinare il valore di p che lo rende indifferente tra le
due lotterie. Come visto per la versione standard delle probabilità equivalenti, anche in
questo caso possono essere previste diverse varianti del metodo, quali le lotterie estreme
e le lotterie adiacenti. Inoltre, per semplificare i confronti, la probabilità q può essere
posta sempre uguale ad ½ oppure può essere posta uguale a p.
Una versione semplificata del metodo delle probabilità equivalenti è stata proposta
da McCord e Deufville (1986). Il loro metodo richiede che il soggetto determini la
probabilità pi che lo rende indifferente tra due lotterie, in cui xb e xd sono posti uguali a
0, q viene mantenuto fisso (per es. uguale ad ½) in tutte le ripetizioni dell’esperimento e
xa rappresenta il miglior risultato ottenibile (M). Formalmente, il confronto può essere
espresso dalla relazione:
(M pi 0) ∼ (xi q 0),
dove la lotteria (xi q 0) è chiamata “lotteria di stima”. Dal momento che xi è sempre
minore di M, allora pi dovrà essere sempre minore di q, affinché sussista la relazione di
indifferenza. L’utilità di xi è data da:
pi u(M) + (1-pi) u(0) = q u(xi) + (1-q) u(0)
94
⇒ pi 1 = q u(xi)
⇒ u(xi) = pi/q
Per ottenere l’intera funzione di utilità del soggetto sull’intervallo [0, M] si
procede fissando innanzitutto il valore di q; quindi, si divide l’intervallo in n punti xi
con i = 1, 2, …n; si ottengono le probabilità pi per ogni lotteria di stima (xi q 0); infine,
si rappresenta la funzione di utilità individuata dai punti (xi, pi/q). Come si può rilevare,
la procedura non comporta un concatenamento nelle risposte, evitando così la
possibilità del propagarsi di eventuali errori. Un esperimento condotto dai due autori su
9 soggetti applicando il metodo standard CE e il metodo appena descritto e impiegando
due diversi livelli di q, 0,50 e 0,75, mostra che, mentre si riscontrano differenze
statisticamente significative tra le funzioni elicitate tramite il metodo CE e quelle
elicitate tramite gli altri due metodi, non si rileva nessuna differenza significativa tra le
due varianti del metodo delle probabilità equivalenti.
Infine, tra i metodi basati su coppie di lotterie, si colloca il metodo delle lotterie
equivalenti: in questo caso, compito del decisore è determinare uno dei risultati di una
delle due lotterie poste a confronto, cioè xa, xb, xc, xd. In questa categoria di metodi
rientra il metodo del trade off, al quale, per la sua rilevanza, verrà dedicato maggiore
spazio. Altre procedure di elicitazione possono prevedere una combinazione dei metodi
già visti, originando così metodi “ibridi”, in modo da combinare la semplicità operativa
di certi metodi con la relativa mancanza di fattori di distorsione di altri, oppure possono
essere previsti approcci che si avvalgono dell’uso del computer. Rientra in quest’ultimo
caso il metodo della coerenza locale (Farquhar 1984), che combina in un unico formato
una procedura standard con una basata su coppie di lotterie:
(x p y) ∼ w ⇔ (x q1 y) ∼ (w q2 y),
dove x < w < y. Al decisore viene chiesto di determinare il valore di p, in modo che
sussista indifferenza nel confronto di tipo standard; dopodiché un software specifico
determina le probabilità q1 e q2, che vengono comunicate al decisore. Se questi ritiene
che la relazione tra le due coppie di lotterie che si è così venuta a creare non rispecchi le
sue effettive preferenze, modificherà p di conseguenza.
95
Recentemente, sono stati svolti una serie di esperimenti riguardo ad altri metodi
(Jansen e altri 1998; Baron e altri 2001), che finora hanno trovato applicazione
soprattutto in ambito medico, ma il cui uso è estendibile anche ad altri settori.
4.3.1 Analog (o Direct) Scaling (AS)
Assunta una scala numerica, che attribuisce valore 0 al risultato migliore e valore 100 al
peggiore (oppure al contrario), al soggetto decisore viene chiesto di collocare su questa
scala alcuni eventi, attribuendogli un punteggio che rifletta la loro posizione relativa
rispetto ai due estremi. In pratica, al soggetto viene posta una domanda del tipo:
“Quanto peggiore è l’evento x in confronto all’evento y, dove l’evento y è il risultato
peggiore a cui si può andare incontro?”. Di conseguenza la risposta del soggetto dovrà
essere un valore inferiore a 100 (di quanto inferiore dipende dalla struttura di preferenze
dell’individuo).
4.3.2 Stima della Grandezza (Magnitude Estimation, ME)
Questo metodo è simile al precedente, con la differenza che, mentre nel metodo AS si
confrontano le diverse situazioni con uno standard che è sicuramente meno desiderabile,
in questo caso lo standard è dato da un risultato migliore (o meno peggiore) rispetto agli
altri eventi da classificare. Così, se si attribuisce valore 0 al risultato migliore in
assoluto e valore 10 allo standard preso come riferimento, essendo tutte le situazioni
prospettate al decisore peggiori dello standard, le risposte da questi date saranno
maggiori di 10.
96
4.3.3 Person Trade Off (PTO)
Questo metodo è stato proposto per essere applicato a decisioni di carattere
medico; la domanda che, infatti, viene posta ai soggetti intervistati è del tipo: “Quante
persone devono essere curate della malattia x, affinché si ottenga un beneficio sociale
pari a curare 10 persone affette dalla malattia y?”. Supponendo che x sia una malattia
oggettivamente meno dannosa di y, le risposte date dagli intervistati dovranno essere
maggiori di 10. Tale metodo appare particolarmente utile quando si tratta di decidere
come distribuire risorse finanziarie limitate a favore della ricerca medica o, comunque,
all’acquisto di strutture mediche (ospedali, macchinari di cura…) che si occupano di
specifiche malattie.
4.3.4 Time Trade Off (TTO)
Anche questo metodo appare particolarmente adatto ad essere applicato al settore
medico; il suo scopo, infatti, è misurare l’utilità che potenziali pazienti attribuiscono a
diversi trattamenti terapeutici, tutti ugualmente validi da un punto di vista di efficacia
medica, ma comportanti differenze nella durata dei tempi di applicazione e nella
tipologia di effetti collaterali negativi che possono indurre27. E’, quindi, importante
capire la funzione di utilità del malato per sottoporlo alla terapia per lui più idonea. La
versione più tradizionale del TTO consiste nel chiedere al paziente (vero o potenziale)
di determinare il valore di x per cui egli è indifferente tra sottoporsi per t mesi alla
terapia di cui si vuole misurare l’utilità (che comporterà un certo stato di salute Q),
seguendo, dopo i t mesi, la morte, oppure godere di ottima salute per un periodo più
breve x (quindi x < t), seguendo anche in tal caso la morte. In realtà, il fatto di far
confrontare l’intervistato con una situazione in cui egli dopo un po’ dovrà morire non
rende molto piacevole la compilazione di un questionario simile; per ovviare a tale
problema si ricorre più volentieri ad una variante del metodo in cui lo stato di salute
derivante dal sottoporsi al trattamento terapeutico da valutare (Q) non è confrontato
27 Tale criterio riceve particolare attenzione quando si tratta di valutare l’opportunità di sottoporre un malato di tumore ad una terapia piuttosto che ad un’altra, considerando che la maggior parte delle terapie antitumorali presentano effetti collaterali più o meno gravosi per il malato.
97
direttamente con i due stati di salute estremi, cioè salute perfetta e morte, ma è, invece,
confrontato tramite l’aiuto di uno stato di salute “di riferimento” (A), peggiore di Q, ma,
comunque, migliore della morte. In questo caso, dunque, il problema di scelta si
presenta in modo un po’ diverso. La prima alternativa prevede che il paziente si trovi
nello stato di salute Q per t mesi, seguiti da ottima salute per il resto della vita: in questo
caso il paziente va incontro ad una perdita di salute, rispetto al caso di ottima salute
nell’intervallo di tempo [0, t], pari a t (1-uQ), dove uQ indica l’utilità attribuita allo stato
di salute temporaneo Q e l’ottima salute ha utilità 1. La seconda alternativa offerta al
paziente è uno stato di salute A di riferimento (per es., grave incidente che determina il
ricovero in ospedale e l’impossibilità di svolgere le attività più abituali) per una durata
pari ad x mesi più breve di t, seguito da ottima salute: in questo caso il paziente
andrebbe incontro ad una perdita di salute pari a t (1-uA), dove uA è l’utilità attribuita ad
A. Il decisore deve, quindi, variare x finché sussista indifferenza tra le due alternative; a
questo punto si può ricavare l’utilità del trattamento terapeutico in discorso in funzione
di uA:
t (1-uQ) = t (1-uA)
⇒ uQ = 1 – (1-uA) x/t
Ad uA può essere attribuito un valore arbitrario oppure il valore derivante
dall’applicazione del TTO tradizionale.
4.3.5 Trade Off (TO)
Wakker e Deneffe (1996), notando i numerosi difetti caratterizzanti i metodi standard,
soprattutto per quanto riguarda il ricorrere costante dell’effetto certezza, propongono un
nuovo metodo di elicitazione: il metodo del trade off. Questo metodo rientra, come già
accennato, tra i metodi basati su coppie di lotterie e segue, comunque, la stessa logica
del metodo standard delle lotterie equivalenti (LE). Il maggior pregio del metodo in
discorso consiste nel fatto che esso mantiene la sua validità anche in assenza di una
esplicitazione delle probabilità. Al decisore vengono proposti confronti tra coppie di
98
lotterie non degeneri del tipo (x p r) e (y p R). In pratica, l’analista sceglie prima i due
risultati di riferimento r < R28 e specifica un risultato minimo x0, a cui attribuisce utilità
nulla, u(x0) = 0; quindi, presenta al soggetto il seguente confronto:
(x1 p r) ∼ (x0 p R),
dove x1 deve essere determinato dal soggetto stesso in modo che sussista la
relazione di indifferenza. Da questo primo confronto non può essere tratta nessuna
informazione in termini di utilità di x1; è possibile, però, ricavare una relazione di
differenze tra utilità:
( ) ( ) ( ) ( ) ( ) ( )Rupxuprupxup ⋅−+⋅=⋅−+⋅ 11 01
( ) ( )[ ] ( ) ( ) ( )[ ]ruRupxuxup −⋅−=−⋅⇒ 101
A questo punto, al decisore viene proposto un secondo confronto, derivante dalla
sostituzione di x0 con x1:
(x2 p r) ∼ (x1 p R);
egli determinerà, quindi, il valore di x2 che lo rende indifferente tra le due lotterie.
Seguendo un ragionamento analogo al precedente, si ottiene la seguente relazione tra
differenze di utilità:
( ) ( )[ ] ( ) ( ) ( )[ ]ruRupxuxup −⋅−=−⋅ 112 .
Dalle uguaglianze sopra riportate si ottiene:
( ) ( )[ ] ( ) ( )[ ]0112 xuxupxuxup −⋅=−⋅
( ) ( )12 2 xuxu ⋅=⇒
28 I risultati di riferimento r ed R sono scelti in modo che siano abbastanza vicini l’uno all’altro, così che la sequenza di valori elicitata x1, ……, xn risulti sufficientemente ristretta e, di conseguenza, le utilità relative sufficientemente accurate.
99
Per ogni generico xj definito in modo tale che il decisore sia indifferente tra (xj p r)
e (xj-1 p R), si ottiene:
( ) cjxu j ⋅= ,
con c = u(x1).
Come si può osservare, la probabilità p non influenza minimamente il risultato
finale, cioè il valore attribuito all’utilità di ogni xj; di conseguenza, questo fatto consente
di estendere il metodo del trade off a problemi decisionali relativi ad eventi
caratterizzati da probabilità sconosciute. Dal momento che, nella realtà, normalmente si
ha a che fare con eventi incerti, una procedura che fa uso di tali eventi apparirà
senz’altro più realistica ai soggetti decisori, rispetto a procedure che si richiamano a
valori definiti di probabilità. L’unico vincolo è che la probabilità, anche se ignota, si
mantenga costante durante tutta la procedura di elicitazione. Detto questo, le lotterie di
confronto possono essere riformulate come: (x A r), dove A indica un evento non
controllabile di probabilità ignota, il cui verificarsi determina il risultato x, ottenendo r
in caso contrario. In una situazione del genere sarà il decisore ad attribuire una
probabilità soggettiva all’evento A, in base alle sue esperienze. Naturalmente, a
probabilità soggettive differenti corrisponderanno valori di xj differenti, ma questo non
influenza la correttezza dell’uguaglianza delle differenze di utilità.
Si osservi che, siccome il valore dato alla probabilità p non assume rilievo nel
metodo in discorso, tale metodo si rivela perfettamente applicabile al caso di
elicitazione di funzioni di utilità sotto le teorie generalizzate, quali la teoria del
prospetto o la teoria del prospetto cumulata. Nel contesto di tali teorie, la probabilità p
viene sostituita da una funzione di trasformazione delle probabilità w+(p) e w-(p)
(rispettivamente, per domini positivi e negativi). Se si applica il criterio del trade off per
determinare la funzione di utilità del soggetto non ci sarà nessun bisogno di procedere
alla determinazione della forma della funzione di trasformazione delle probabilità,
poiché questa viene eliminata nel processo di stima, così come sotto la teoria classica
dell’utilità viene eliminata p, conducendo sempre alla formula finale: u(xj) = j c (la
100
verifica è immediata: basta sostituire nelle equazioni sopra riportate la probabilità p con
la funzione di trasformazione delle probabilità w(p)).
La forma della funzione di utilità può essere dedotta immediatamente tramite il
calcolo delle differenze tra i valori elicitati in successione. Così, se
34231201 xxxxxxxx −=−=−=− ,
si ha a che fare con una funzione di utilità lineare, che implica indifferenza verso il
rischio. Se, invece,
34231201 xxxxxxxx −<−<−<−
allora la funzione di utilità risulta marginalmente decrescente, cioè concava,
implicando avversione al rischio. Nell’ipotesi, infine, in cui le differenze tra i risultati
siano decrescenti, allora risulterà una funzione convessa, indicante propensione al
rischio.
Vantaggi e svantaggi del metodo del trade off: riassumendo quanto detto fin qui, il
metodo del trade off può essere considerato il metodo di elicitazione migliore tra quelli
finora presentati grazie, soprattutto, a due vantaggi principali. Innanzitutto, esso
consente di eliminare l’effetto certezza, nonché tutte le distorsioni implicate da cattive
interpretazioni dei livelli di probabilità, grazie all’impiego di problemi di scelta tra due
lotterie, piuttosto che tra una lotteria ed un risultato certo. In secondo luogo, il fatto che
esso non richieda necessariamente l’esplicitazione del livello della probabilità rende più
realistico il contesto di scelta presentato al soggetto decisore e non richiede allo stesso
nessun tipo di conoscenza in tema probabilità.
Il metodo del trade off presenta, però, anche degli svantaggi. In primo luogo, esso
appare più laborioso degli altri metodi, poiché confronta due lotterie, anziché una
lotteria e un risultato certo e questo si riflette, tra l’altro, in una maggiore difficoltà da
parte degli intervistati a rispondere ai quesiti posti. La maggiore laboriosità si riscontra
anche nel fatto che, per elicitare n valori di utilità, è necessario effettuare n+1 confronti,
al contrario dei metodi CE e PE che, invece, richiedono un confronto in meno. Questo
101
avviene in quanto i metodi PE e CE utilizzano un parametro aggiuntivo: la probabilità,
appunto. Un ulteriore aspetto negativo è dovuto al fatto che si tratta di un metodo
“concatenato” e, quindi, avrà tutti i difetti comuni a questo tipo di metodi, come già
discusso parlando dei metodi PE e CE concatenati. Infine, mentre i metodi PE e CE
hanno lo svantaggio di indurre i soggetti a calcolare il valore atteso delle lotterie, il
metodo del trade off, al pari del metodo standard LE, tende a far mantenere costanti le
differenze xj – xj-1.
4.4 ESPERIMENTI PER LA VERIFICA DEI METODI DI ELICITAZIONE
4.4.1 Verifica dei metodi PE e CE
Nelle pagine precedenti è stata descritta l’analisi condotta da Fishburn e Kochenberger
su 30 funzioni di utilità precedentemente elicitate da altri studiosi. I due metodi usati per
la costruzione di queste funzioni sono stati il metodo degli equivalenti certi e quello
delle probabilità equivalenti: è interessante classificare la forma risultante di ciascuna
funzione di utilità in base al criterio di elicitazione impiegato. In particolare, il metodo
CE è stato utilizzato per determinare 17 delle 30 funzioni studiate, dando come risultato
16 (94%) funzioni convesse nel dominio negativo e 13 (76%) concave nel dominio
positivo; il metodo PE è stato, invece, impiegato per stimare le rimanenti 11 funzioni,
generando 9 (82%) funzioni concave per il dominio negativo e 8 (73%) convesse per il
dominio positivo. Guardando poi le sole funzioni che hanno presentato una forma
composita (convessa – concava o concava – convessa) si ottiene la seguente
classificazione (Tab. 4.1):
Tab. 4.1 - Classificazione delle funzioni di utilità per metodo di elicitazione impiegato
Metodo CE Metodo PE Forma della funzione: Convessa – concava 12 1 Concava - convessa 0 7
102
E’, quindi, evidente dai risultati riportati nella Tab. 4.1, che il metodo CE tende ad
accentuare l’avversione al rischio rispetto al metodo PE, generando un maggior numero
di funzioni convesse per scelte che concernono perdite e un maggior numero di funzioni
concave per scelte che concernono guadagni. Tale risultato induce a concludere che, da
una parte il metodo di elicitazione impiegato può influenzare i risultati ottenuti,
manifestando così una violazione dell’utilità attesa, dall’altra la forma composita
convessa – concava che si riscontra in maniera predominante in natura potrebbe essere
semplicemente dovuta ad un maggior uso del metodo CE (di più semplice impiego)
rispetto al metodo PE.
Uno studio analogo è stato svolto da Hershey, Kunreuther, Schoemaker (1982). I
tre autori hanno voluto verificare le conclusioni a cui erano giunti Fishburn e
Kochenberger conducendo un esperimento su 64 studenti, tutti in possesso di
conoscenze generali in merito alla teoria dell’utilità di Von Neumann e Morgenstern.
Gli studenti sono stati suddivisi in due gruppi: al primo sono state sottoposte 10
domande relative al metodo CE; al secondo gruppo sono state sottoposte le stesse
domande, ma ricorrendo al metodo PE. Più precisamente le domande sottoposte al
primo gruppo sono state del tipo: “Tu sei in una situazione in cui hai il 50% di
probabilità di perdere $ 200. Pagheresti $ 100 per evitare questa situazione?”;
dopodiché è stato chiesto ad ogni soggetto di aggiustare la perdita certa di $ 100 fino ad
ottenere indifferenza tra le due scelte. Le domande sottoposte al secondo gruppo sono,
invece, state del tipo:” Tu puoi pagare $ 100 per evitare una situazione in cui puoi
perdere $ 200. Pagheresti i 100$ se la probabilità di perdere fosse del 50%?”. Anche in
tal caso, è stato successivamente chiesto ai soggetti di aggiustare la probabilità del 50%
fino ad ottenere indifferenza. Come si può osservare tutte le questioni concernono
perdite. I risultati ottenuti sono riassunti nella Tab. 4.2:
Dall’esame dei dati riportati nella tabella risulta evidente che il metodo CE
comporta una maggiore propensione al rischio rispetto al metodo PE: in particolare, il
90% dei soggetti del gruppo CE (29 su 32) mostra propensione al rischio per la
maggioranza delle questioni, contro appena il 50% dei soggetti del gruppo PE (16 su
32). Sono stati altresì condotti dei test d’ipotesi χ2 che hanno confermato la
significatività dei risultati ottenuti (i livelli di significatività usati sono stati pari a 0,05
oppure 0,01) in 6 delle 10 domande. I risultati di questo esperimento confermano le
103
conclusioni di Fishburn e Kochenberger in merito all’esistenza di un’effettiva influenza
del metodo di elicitazione usato sulle funzioni di utilità ottenute, almeno per quanto
riguarda scelte che generano risultati negativi29.
Tab. 4.2 - Risultati dell’esperimento di Hershey, Kunreuther, Schoemaker lotteria Metodo CE Metodo PE
Perdita certa $ probabilità Perdita$ avverso neutro propenso avverso neutro propenso
Domanda 1 100 0,5 200 6 % 28 % 66 % 32 % 23 % 45 % 2 900 0,9 1000 9 % 13 % 78 % 44 % 13 % 44 % 3 100 0,05 2000 19 % 13 % 69 % 41 % 13 % 47 % 4 10 0,5 20 0 % 13 % 88 % 6 % 38 % 56 % 5 100 0,1 1000 16 % 28 % 56 % 32 % 13 % 55 % 6 90 0,9 100 3 % 16 % 82 % 35 % 29 % 35 % 7 1900 0,95 2000 19 % 31 % 50 % 47 % 25 % 28 % 8 10 0,05 200 34 % 22 % 44 % 31 % 13 % 56 % 9 10 0,1 100 22 % 28 % 50 % 38 % 22 % 41 %
10 190 0,95 200 3 % 31 % 66 % 38 % 22 % 41 %
Un esperimento piuttosto articolato è stato svolto da Hershey e Schoemaker
(1985), sempre allo scopo di verificare la coerenza nei risultati ottenuti dai metodi CE e
PE. Anche questo esperimento ha confermato le discrepanze riscontrabili tra i due
metodi; in particolare, il metodo delle probabilità equivalenti sembra accentuare la
propensione al rischio nei domini negativi e l’avversione in quelli positivi rispetto al
metodo degli equivalenti certi. L’esperimento svolto sottolinea che la consistenza di
queste differenze dipende fortemente dal dominio (positivo o negativo) e
dall’atteggiamento iniziale del soggetto verso il rischio. I due autori hanno, infine,
individuato nel verificarsi di errori casuali, ma ancor più in un atteggiamento
psicologico dei soggetti che li porterebbe a “ricostruire” in modo alterato le questioni
presentate con il metodo PE, le principali fonti delle differenze rilevate.
Il test di coerenza utilizzato consiste nel sottoporre ai soggetti intervistati prima
una domanda relativa all’applicazione del metodo CE (o PE) e, successivamente (dopo
circa una settimana per evitare effetti di memoria), una domanda relativa
all’applicazione del metodo PE (o CE). A chiarimento di quanto detto si supponga che
al decisore venga proposta una scelta tra una somma certa pari a S e una lotteria
29 Hershey, Kunrether e Schoemaker, nel medesimo lavoro, citano una studio analogo condotto da Wehrung, in cui si pongono a confronto il metodo CE e il metodo LE; in questo caso, però, i due metodi
104
semplice: per es., 100 $ per certo contro una lotteria che dà il 50% di probabilità di non
vincere niente o di vincere 200 $. Se il soggetto è avverso al rischio, sceglierà la somma
certa di 100 $. A questo punto gli viene chiesto per quale valore (< 100 $) egli è
indifferente tra le due scelte propostegli: si supponga che dica 70 $. Dopo una
settimana, allo stesso soggetto viene presentata la seguente scelta: 70 $ per certi contro
una lotteria che dà il 35% di probabilità di vincere 200 $ e il 65% di non vincere niente.
Questa seconda scelta è stata derivata direttamente dalla prima ponendo come standard
l’equivalente certo determinato dal soggetto (70 $) e modificando le probabilità della
lotteria in modo da ottenere un gioco equo. Se il soggetto è coerente (la funzione di
utilità è sempre la stessa!) la sua scelta dovrà di nuovo cadere sulla vincita certa. A
questo punto gli viene chiesto di incrementare la probabilità del 35% di vincere i 200 $
fino ad ottenere una situazione di indifferenza. Di nuovo, se la persona è perfettamente
coerente, nel senso dell’utilità attesa, l’indifferenza sarà raggiunta per p = 50%, come
implicato dalla prima preferenza espressa:
u(70) = 0,5 u(200) + 0,5 u(0)
Questa è la logica dell’esperimento che è stato condotto su 4 gruppi distinti di
soggetti: a 2 gruppi sono state sottoposte scelte concernenti solo vincite e agli altri due
solo perdite; inoltre, in due casi si è iniziato con il metodo CE, proseguendo, alla
seconda domanda, con il metodo PE; negli altri due casi si è proceduto in modo
speculare. I 4 gruppi possono, quindi, essere brevemente indicati nel seguente modo:
CE – PE guadagni, PE – CE guadagni, CE – PE perdite, PE – CE perdite.
L’esperimento è stato svolto su 83 studenti di economia, divisi uniformemente tra i 4
gruppi; ogni gruppo consta di 4 domande: le somme certe nel primo round sono state
poste uguali a 100 $, 500 $, 1.000 $, 5.000 $, mentre il livello del risultato diverso da
zero della corrispondente lotteria è stato fissato a, rispettivamente, 200 $, 1.000 $, 2.000
$, 10.000 $.
Nella Tab. 4.3 sono indicati, per ogni gruppo e domanda, quanti soggetti hanno
dato risposte al secondo round inferiori, uguali o superiori ai livelli relativi alla
non evidenziano differenze significative nelle funzioni di utilità ottenute.
105
situazione di coerenza perfetta (si contano, cioè, i soggetti che al secondo round hanno
risposto con una probabilità inferiore, uguale o superiore al 50%). Circa i 2/3 di tutti i
soggetti hanno dato risposte incoerenti. Per le vincite sono stati svolti test binomiali ad
una coda che mostrano che le risposte al di sopra del livello di coerenza perfetta sono
significativamente (i livelli di significatività sono contrassegnati con * quando sono pari
a 0,05 oppure con ** quando sono pari a 0,01) più numerose delle risposte al di sotto di
tale livello di riferimento per sei degli otto giudizi di indifferenza dati al secondo round.
Dal lato delle perdite, invece, i test d’ipotesi danno risultati ribaltati, mostrando una
significativa distorsione verso il basso per sette delle otto questioni. Ciò sta a significare
che, per domini positivi, si registra, nel passare dalla prima alla seconda fase, un
incremento dell’avversione al rischio, mentre, per domini negativi, si registra un
incremento della propensione. Infine, le ultime due colonne della tabella riportano i
valori “ideali” previsti dalla perfetta coerenza con la teoria dell’utilità attesa e i valori
medi ottenuti per ogni domanda posta: test d’ipotesi svolti su queste coppie di valori
mostrano che i valori medi delle risposte date al secondo round si discostano
significativamente (p < 0,05) dai loro livelli “ideali” in 14 casi su 16, essendo troppo alti
per le vincite e troppo bassi per le perdite (in termini assoluti).
Per verificare se le asimmetrie e discrepanze riscontrate nei risultati aggregati
siano influenzate dall’atteggiamento verso il rischio manifestato inizialmente dai
soggetti, è stata svolta un’analisi analoga alla precedente distinguendo, però, i soggetti
inizialmente avversi, neutrali e propensi al rischio. I risultati ottenuti sono di un certo
interesse; quando la prima domanda comporta l’applicazione del metodo CE, solo
coloro che inizialmente erano propensi al rischio mostrano una distorsione sistematica:
per le vincite, la probabilità media equivalente è significativamente più alta del 50%;
per le perdite è significativamente più bassa.
Tab. 4.3 - Incoerenze nelle risposte date al secondo round Deviazione dal valore di coerenza perfetta (sotto EU)
Inferiore Uguale Superiore Valore coerente
secondo EU Valore medio
Gruppo CE-PE 1 gains 11 12 18 50 % 55,2 % CE-PE 2 gains 6 18 17 * 50 % 56,1 % ** CE-PE 3 gains 9 11 21 * 50 % 57,4 % ** CE-PE4 gains 9 13 19 * 50 % 56,1 % *
106
PE-CE 1 gains 9 15 18 100 $ 110 $ * PE-CE 2 gains 8 14 20 * 500 $ 566 $ * PE-CE 3 gains 8 14 20 * 1.000 $ 1.146 $ ** PE-CE 4 gains 7 13 22 ** 5.000 $ 5.925 $ ** CE-PE 1 losses 15 * 12 5 50 % 42,7 % * CE-PE 2 losses 15 9 8 50 % 44,6 % CE-PE 3 losses 16 * 10 6 50 % 42,7 % * CE-PE 4 losses 19 ** 7 6 50 % 40,4 % ** PE-CE 1 losses 17 ** 10 5 -100 $ -88,6 $ * PE-CE 2 losses 18 ** 10 4 -500 $ -415 $ ** PE-CE 3 losses 17 ** 11 4 -1.000 $ -849 $ ** PE-CE 4 losses 20 ** 10 2 -5.000 $ -3.708 $**
*= livello di significatività del test svolto pari al 5% **= livello di significatività del test svolto pari all’1%
Questo indica che sia per le vincite che per le perdite, i soggetti dei gruppi CE –
PE mostrano maggiore avversione al rischio nel metodo PE rispetto al metodo CE.
Quando, invece, il primo giudizio è una probabilità equivalente, solo coloro che
inizialmente risultavano avversi al rischio mostrano una distorsione sistematica: per le
vincite, l’equivalente certo medio è troppo grande, per le perdite è troppo piccolo.
Questo significa che, sia per le vincite che per le perdite, i soggetti dei gruppi PE – CE
sono meno avversi al rischio nel metodo CE rispetto al PE.
Un’ultima osservazione riguarda il fatto che in molti casi i soggetti non solo, nel
passare dalla prima alla seconda fase, accentuano, in più o in meno, l’atteggiamento
iniziale verso il rischio, ma, addirittura, presentano un ribaltamento del proprio
atteggiamento: così soggetti inizialmente avversi diventano propensi e viceversa.
Questo fenomeno si manifesta in maniera asimmetrica nei diversi gruppi: per es. nel
gruppo CE – PE guadagni, il 57% dei soggetti inizialmente propensi diventa avverso,
mentre solo il 10% dei soggetti inizialmente avversi diventa propenso. Questa
asimmetria nel ribaltamento delle preferenze risulta significativa (p < 0.001).
Riassumendo, i due tipi di analisi svolte confermano quanto già detto: la
maggioranza dei soggetti presenta sistematiche violazioni dell’utilità attesa, che si
manifestano in direzioni opposte a seconda del dominio (positivo o negativo) e
dell’atteggiamento iniziale del soggetto verso il rischio: infatti, il metodo delle
probabilità equivalenti sembra accentuare la propensione al rischio nei domini negativi
e la propensione in quelli positivi rispetto al metodo degli equivalenti certi. Questo
contraddice quanto rilevato dai due esperimenti precedentemente descritti, ma è
confermato dall’esperimento condotto da Wakker e Deneffe (1996), dove si mostrano
107
graficamente le curve di utilità elicitate ricorrendo a questi due metodi e si vede come le
curve derivanti dall’applicazione del metodo PE abbiano una curvatura più accentuata
di quelle derivanti dal metodo CE30.
Hershey e Schoemaker (1985) hanno tentato di individuare le cause di quanto
osservato. Una prima fonte di influenza si è ipotizzato che potesse essere la presenza di
errori di risposta casuali, per cui un soggetto coerente con la teoria dell’utilità attesa
potrebbe ugualmente commettere degli errori casuali nel rispondere a specifiche
domande. Formalmente, indicando con CEv e PEv le risposte “vere” secondo EU e con
CE0 e PE0 le risposte osservate, si otterrebbe: CE0 = CEv + εc e PE0 = PEv + εp, con εc e
εp che indicano gli errori casuali commessi. Tramite semplici passaggi sono stati
calcolati i valori medi delle risposte che si sarebbero ottenuti assumendo come valido
questo fattore di influenza e sono stati poi confrontati con i valori effettivamente
osservati: in realtà, si è visto che il modello dell’errore casuale prevede distorsioni che
sono molto più piccole di quelle osservate e, in secondo luogo, non è in grado di
prevedere la pronunciata asimmetria rilevata tra soggetti inizialmente propensi e
soggetti inizialmente avversi al rischio.
Una spiegazione più soddisfacente delle differenze osservate è, invece,
rappresentata dal fenomeno di “ricostruzione” delle questioni concernenti il metodo PE.
Secondo i due autori, quando un soggetto ha a che fare con il metodo delle probabilità
equivalenti può essere portato a “ricostruire” implicitamente le domande postigli come
se il punto di riferimento venisse fatto slittare di un importo pari al risultato S assicurato
dalla lotteria degenere. In altri termini, lotterie di pure vincite o di pure perdite
sarebbero interpretate come lotterie miste, generando così uno slittamento
nell’atteggiamento verso il rischio: maggiore propensione per le perdite e maggiore
avversione per i guadagni. Perché dovrebbe avvenire un fenomeno del genere? Nel
metodo PE tutti gli importi di denaro vengono mantenuti costanti: ciò che varia è il
valore della probabilità. Di conseguenza, i risultati della lotteria possono essere
“codificati” come vincite o perdite relativamente all’importo fisso S, che funge così da
nuovo punto di riferimento; in questo modo la lotteria risulta traslata verso l’alto (per le
perdite) o verso il basso (per le vincite) di un importo pari ad S. Per es., la scelta iniziale
30 L’analisi dettagliata dell’esperimento di Wakker e Deneffe verrà illustrata, al par. 4.4.4.
108
tra 100 $ per certo e il partecipare ad una lotteria che offre pari probabilità di vincere
200 $ o niente, può essere vista come la scelta tra non vincere né perdere niente con
certezza oppure partecipare ad una lotteria con risultati pari a +100 $ e –100 $. Tale
fenomeno non sarebbe riscontrabile nel metodo CE, dove il risultato certo varia di
continuo e, quindi, lo 0 rimane il più naturale punto di riferimento. Questo fenomeno
sembra fornire una spiegazione soddisfacente a quanto precedentemente osservato.
Quale ulteriore verifica di quanto sopra osservato è stato condotto un esperimento
su 75 soggetti a cui sono state proposte tre lotterie di pure vincite e tre lotterie miste
ottenute dalle prime sottraendo l’ammontare certo. I risultati sono riportati nella Tab.
4.4:
Tab. 4.4 - Effetti della traslazione di lotterie di pure vincite in lotterie miste Somme
certe Lotterie di sole
vincite % di avversi al
rischio Corrispondenti lotterie miste
% di avversi al rischio
Domande 1 50$ (200 0,25 0) 55% (150 0,25 –50) 79% 2 100$ (200 0,50 0) 60% (100 0,50 –100) 77% 3 150$ 200 0,75 0) 63% (50 0,75 –150) 72%
Come si può osservare, si registra un incremento dell’avversione al rischio
passando dalle lotterie di sole vincite a quelle miste (il fenomeno è risultato
statisticamente significativo in due dei tre casi esaminati).
Lo slittamento da lotterie pure a lotterie miste indotto dal metodo PE consente
anche di spiegare l’asimmetria riscontrata nei ribaltamenti di preferenze (da avversione
a propensione o viceversa). Si indichi con f la proporzione di soggetti che è portata a
“ricostruire” le lotterie sotto il metodo PE, con ac la proporzione di soggetti che sono
avversi sotto CE, con ap la proporzione di soggetti avversi sotto PE, con α la
proporzione di soggetti avversi per una lotteria di sole vincite e che diventano propensi
sotto la corrispondente lotteria mista e con β i soggetti propensi nel primo caso e avversi
nel secondo (sulla base dell’esperimento appena descritto si può ragionevolmente
assumere che β >α) il che consente di costruire la tabella seguente:
Tab. 4.5 – Asimmetria delle preferenze Avversi con PE Propensi con PE Totale
109
Avversi con CE f α ac Propensi con CE f β 1-ac Totale ap 1-ap
Nel gruppo CE – PE, la probabilità di trovare soggetti propensi al rischio sotto PE,
data la loro avversione sotto CE, è data, dunque, da fα/ac; invece, la probabilità opposta
di incontrare soggetti avversi sotto PE, data la loro propensione sotto CE, è pari a fβ/(1-
ac). Quest’ultima probabilità è più grande della prima (essendo più grande il numeratore
e più piccolo il denominatore): quanto previsto da questo modello è coerente con
l’asimmetria empiricamente osservata nel ribaltamento di preferenze all’interno dei vari
gruppi (per es. nel gruppo CE – PE guadagni la prima probabilità è pari al 10% contro il
57% della seconda).
In conclusione, l’ipotesi che un sottoinsieme di soggetti ricostruisca le questioni
del metodo PE come fossero lotterie miste consente di spiegare le differenze riscontrate
nei due metodi di elicitazione più usati in pratica: il metodo degli equivalenti certi e
quello delle probabilità equivalenti.
4.4.2 Verifica del metodo TTO
Jansen e altri (1998) hanno condotto un esperimento con lo scopo di valutare la
fattibilità del metodo TTO. L’analisi ha coinvolto 70 donne affette da cancro al seno ad
uno stadio iniziale e lo scopo è stato quello di valutare la terapia preferibile per ogni
paziente, considerando che i due trattamenti più impiegati, cioè la chemioterapia e la
radioterapia, pur allungando l’aspettativa di vita del paziente, comportano anche effetti
collaterali spiacevoli che tendono a ridurre, per tempi più o meno lunghi, la qualità di
vita. E’, quindi, importante capire quale utilità il paziente attribuisca ad ogni
trattamento, in modo da sottoporlo alla cura più coerente con le sue preferenze (nei
limiti di quanto consentito dalle sue condizioni fisiche). I metodi impiegati sono stati
quello del time trade off (descritto sopra) e il metodo standard delle probabilità
equivalenti. In entrambi i casi, per non affliggere troppo il paziente, l’utilità di ogni
trattamento è stata stimata effettuando un confronto con uno stato di salute intermedio
110
di riferimento, anziché con la prospettiva della morte, e ipotizzando ottima salute per il
periodo post – terapia. I risultati medi ottenuti sono riportati nella Tab. 4.6:
Tab. 4.6 - Utilità medie Utilità medie TTO Utilità medie PE
Radioterapia 0,89 0,87 Chemioterapia 0,74 0,75
Il test d’ipotesi t ha rivelato che non esiste nessuna differenza significativa tra i
due metodi adottati. L’impiego del metodo del time trade off appare, quindi, positivo,
considerando, inoltre, che solo 2 pazienti si sono rifiutate di concludere l’intervista e
che su 560 domande solo 39 (7%) non hanno ricevuto risposta. Ulteriore osservazione
riguarda il fatto che, siccome tutti gli scenari di salute prospettati comportano l’ottima
salute dopo il periodo di trattamento, lo stato di ottima salute è percepito dalle pazienti
come status quo; di conseguenza, tutti gli altri stati considerati sono percepiti come
situazioni di perdita. In questo modo, non essendoci nessun risultato che sia percepito
come guadagno rispetto allo status quo, si evita il fenomeno dell’avversione alle perdite,
cioè di sovrastima dei risultati peggiori, che porta ad un incremento dell’avversione al
rischio.
4.4.3 Verifica dei metodi AS, ME e PTO
I metodi AS, ME e PTO sono stati oggetto di un esperimento svolto da Baron e altri
(2001): tale esperimento aveva il duplice scopo di individuare eventuali incoerenze tra i
metodi nella misura dell’utilità e di correggere tali incoerenze durante il processo di
elicitazione. I soggetti intervistati sono stati 20 studenti dell’Università della
Pennsylvania. Il questionario proposto consta di domande che comportano il confronto
tra disfunzioni fisiche differenti (cecità e sordità), in modo da capire in quali ambiti è
socialmente più utile allocare maggiori risorse finanziarie per sostenere le cure mediche.
Le condizioni tra cui si propongono confronti sono: cecità da un occhio (B), cecità da
due occhi (BB), sordità da un orecchio (D), sordità da due orecchi (DD), cecità da un
occhio e sordità da un orecchio (BD), cecità e sordità totali (BBDD). Per ogni metodo
111
preso in considerazione si effettuano confronti tra i vari tipi di disfunzioni, in modo da
capire la loro importanza sociale. I risultati ottenuti in un primo momento hanno
evidenziato notevoli incoerenze tra i vari metodi applicati; per cercare di eliminare le
distorsioni riscontrate gli autori dell’esperimento hanno allora riproposto ai medesimi
soggetti le stesse domande, cercando di fargli comprendere gli errori logici commessi,
così da indurli a rispondere in maniera razionale. Gli effetti di queste correzioni sono
stati piuttosto soddisfacenti, tanto da consentire di esprimere un giudizio positivo sulla
validità d’impiego dei metodi AS, PTO e ME.
Di seguito si riportano alcuni esempi di domande poste per ogni metodo. Per il
metodo AS si chiede a ciascun decisore di attribuire un numero da 0 (= salute perfetta) a
100 (= cecità e sordità totali) ad ogni condizione BB, DD, B, D, BD, in modo da
riflettere la diversa gravità di ognuna. Per il metodo ME si chiede di dire quanto ogni
disfunzione è peggiore rispetto ad una condizione scelta come standard (cecità da un
occhio). Per il metodo PTO si chiede di dire quante persone dovrebbero essere curate di
una specifica disfunzione, per es. cecità da un occhio (B), affinché si ottenga un
beneficio sociale analogo a curare 10 persone che sono cieche da ambedue gli occhi
(BB). Per approfondire meglio l’analisi, inoltre, vengono poste altre domande relative
all’applicazione di varianti di questi tre metodi: per es., si applica il PTO negativo, cioè
si chiede quante persone cieche da un occhio lasciate senza cure sono equivalenti, in
termini di danni sociali, a 10 persone cieche da entrambi gli occhi lasciate senza cure.
Viene poi applicata anche una variante del metodo AS (indicato con AS-CompDiff), in
cui si chiede ai soggetti di fare confronti tra differenze di utilità del tipo: “la persona A è
normale e poi diventa sorda; la persona B è cieca e poi diventa sorda. Per chi è peggio
diventare sordo? Oppure l’effetto è uguale per tutti e due?”. Le risposte date a questa
variante vengono poi confrontate con le differenze di punteggio risultanti dal metodo
AS (in teoria i valori riscontrati dovrebbero essere uguali). Un ultimo criterio applicato
consiste nell’alternare il metodo PTO con il metodo ME. Ricapitolando, l’esperimento
consiste nell’applicare i seguenti criteri: PTO, PTO negativo, AS, ASCompDiff, ME,
PTO-ME.
La Tab. 4.7 mostra le (dis)utilità ottenute per ogni metodo e per ogni tipo di
confronto (per es., 0.38 per il confronto BB/BBDD con il metodo PTO significa che i
112
soggetti pensano che, in media, curare 26 persone di BB è equivalente a curarne 10 di
BBDD, infatti 10/26 = 0,38):
Tab. 4.7 - Risultati dell’esperimento di Baron e altri (2001) PTO PTO negat. AS ME PTO-ME ASCompDiff
BB/BBDD 0,38 0,36 0,78 0,17 0,26 0,75 DD/BBDD 0,35 0,37 0,66 0,15 0,25 0,73 B/BBDD 0,24 0,22 0,34 0,11 0,17 0,33 D/BBDD 0,21 0,20 0,23 0,09 0,14 0,24 BD/BBDD 0,31 0,28 0,52 0,12 0,13 0,48 B/BB 0,31 0,32 0,14 0,23 D/DD 0,33 0,32 0,15 0,25 BD/BB 0,44 0,45 0,29 0,34 BD/DD 0,43 0,43 0,28 0,32
I risultati ottenuti evidenziano notevoli incoerenze sia tra i diversi metodi che
all’interno di ciascun metodo. Test d’ipotesi svolti evidenziano che le disutilità ottenute
con il metodo AS sono significativamente più grandi di quelle ottenute (ovviamente per
confronti analoghi) con i metodi PTO e ME: più precisamente, le prime appaiono
troppo elevate, cioè troppo spostate verso il limite peggiore della scala di valori. A loro
volta, le disutilità elicitate col metodo ME risultano significativamente più piccole di
quelle elicitate con il metodo PTO. Non sono state rilevate, invece, differenze
significative tra i metodi PTO e PTO negativo e tra AS e ASCompDiff. Oltre a ciò,
sono state rilevate delle incoerenze all’interno dei singoli metodi, incoerenze che vanno
sotto il nome di incoerenze di rapporto: in particolare, quando un soggetto confronta le
condizioni di salute B e A e le condizioni C e B, il confronto tra C ed A dovrebbe
scaturire dal semplice prodotto delle prime due disutilità. Per es., adottando il metodo
PTO, se curare 20 persone affette da B equivale a curarne 10 affette da A e curarne 30
affette da C equivale a curarne 10 affette da B, allora curare 60 malati di C dovrebbe
equivalere a curarne 10 di A. Invece, i dati empirici mostrano risultati sistematicamente
più bassi di quanto sarebbe stato logico attendersi.
Per cercare di eliminare le distorsioni sopra evidenziate, gli autori
dell’esperimento hanno pensato di adottare delle correzioni, in modo da ridurre il grado
di incoerenza all’interno di ogni singolo rapporto e, quindi, da incrementare la
113
concordanza tra metodi di elicitazione diversi. Il meccanismo di correzione adottato è
piuttosto semplice e consiste nel far notare e comprendere ai soggetti intervistati gli
sbagli logici presenti nelle loro risposte, così da indurli ad effettuare le dovute
correzioni. Per es., per le incoerenze riscontrate nel metodo AS la questione è stata
posta nel seguente modo: “Dalle tue risposte possiamo concludere che la situazione BB
è A% peggiore di BBDD e B è C% peggiore che BB. Quindi, possiamo dedurre che la
disutilità di B rispetto a BBDD è il C% di A%, cioè CA%. Ma tu ci dici che invece è
E%! Cerca di rendere coerente la tua risposta.”
Come accennato inizialmente, gli effetti di questi incoraggiamenti ad effettuare
correzioni sono stati piuttosto soddisfacenti: le incoerenze interne ai metodi sono state
significativamente ridotte e si è registrata una maggiore coerenza e vicinanza tra le
utilità risultanti dai diversi metodi. Questi risultati hanno consentito di esprimere un
giudizio positivo sulla validità d’impiego dei metodi AS, PTO ed ME, dal momento che
le incoerenze inizialmente rilevate erano dovute essenzialmente ad una scarsa
comprensione dei problemi di scelta da parte dei soggetti intervistati e non ad una
imprecisione di fondo dei metodi stessi.
4.4.4 Verifica del metodo TO e confronto con i metodi CE e PE
Si procede ora alla illustrazione di tre serie di esperimenti relativi all’applicazione dei
metodi di elicitazione del trade off, degli equivalenti certi e delle probabilità equivalenti.
Il primo esperimento è stato condotto da Wakker e Deneffe (1996) al duplice scopo di
sperimentare l’applicazione del metodo TO e, contemporaneamente, confrontare i
risultati ottenuti con tale metodo con quelli ottenuti dai metodi CE e PE. Il secondo
esperimento è, invece, stato svolto da Bleichrodt, Pinto e Wakker (2001) allo scopo di
cercare di correggere le differenze riscontrate tra i tre metodi suddetti, ricorrendo alle
ipotesi della teoria del prospetto. Nel terzo esperimento Fennema e Van Assen (1999)
considerano due varianti nell’applicazione del metodo TO confrontando i risultati con
quelli derivanti dall’applicazione del metodo CE.
Esperimenti di Wakker e Deneffe (1996)
114
Wakker e Deneffe hanno condotto due esperimenti, uno concernente l’utilità degli
anni attesi di vita e l’altro relativo all’utilità di risultati monetari. In ambedue i casi
vengono applicati i metodi TO, CE bisettivo e PE.
L’esperimento relativo agli anni di vita ha coinvolto 54 soggetti (15 studenti di
economia, 15 di psicologia e 24 medici); ai soggetti viene detto di immaginare di avere
sintomi comuni a due malattie: non si è in grado di sapere da quale malattia sia affetto
l’individuo, ma, nonostante ciò, egli deve decidere immediatamente a quale operazione
sottoporsi, tra due possibili. L’esito di ogni operazione è espresso in numero di anni che
il soggetto potrà continuare a vivere dopo l’intervento (la qualità della vita durante
questi anni è normale). I primi quattro confronti proposti concernono il metodo TO; la
prima questione sottoposta è stata la seguente:
per cui al soggetto è stato chiesto di elicitare il valore TO1 per cui sussista
indifferenza tra la scelta delle due operazioni, dove a seguito dell’operazione A il
paziente ha 5 anni di vita attesa se è affetto dalla malattia 1 e 6 anni se è affetto dalla
malattia 2, mentre a seguito dell’operazione B il paziente ha 2 anni di vita attesa se
affetto dalla malattia 1, TO1 altrimenti. Il procedimento prosegue in modo da
determinare i valori TO2, TO3, TO4.
Stabiliti i valori TO0, TO1, TO2, TO3, TO4, è stato applicato il metodo CE bisettivo
(ponendo, quindi, la probabilità di avere una malattia piuttosto che l’altra pari al 50%).
Il primo confronto presentato è stato il seguente:
Operazione A
Operazione B
Malattia 1
Malattia 2
Malattia 1
Malattia 2
5
2
6 = TO0
TO1
115
In questo caso, al decisore viene chiesto di specificare per quale valore di CE(1/2)
egli è indifferente tra le due operazioni. Proseguendo, quindi, con bisezioni successive,
sono stati determinati i valori CE(1/4) e CE(3/4).
Infine, a 20 dei 54 soggetti iniziali è stato applicato anche il metodo PE. E’ stato
chiesto il valore della probabilità p del verificarsi della malattia 1, in modo da essere
indifferenti tra le due operazioni. Ogni confronto è avvenuto tra un risultato certo dato
dall’operazione B e posto uguale ai valori elicitati tramite il trade off e la lotteria (TO4 p
6); ad es., il primo confronto ha assunto la seguente forma:
Operazione A
Operazione B
Malattia 1
Malattia 2 6
CE(1/2)
TO4 50%
50%
Operazione A
Operazione B
Malattia 1
Malattia 2 6
TO1
TO4
p
(1-p)
116
Prima di procedere alla illustrazione dei risultati ottenuti da questo primo
esperimento, si segnala che una percentuale piuttosto alta (16,7%) di soggetti è stata
scartata (quindi, le risposte utili sono state quelle di 41 individui), non avendo rispettato
la condizione di monotonicità delle risposte o non essendo stata in grado di completare
il questionario, il che dà conferma delle difficoltà che gli intervistati possono incontrare.
Inoltre, non sono state riscontrate differenze significative tra i tre gruppi di individui
intervistati, probabilmente a causa del basso numero di soggetti.
L’analisi dei risultati porta a concludere che, relativamente al metodo TO, 9
soggetti su 41 risultano neutrali al rischio, mentre i valori medi (riportati in Tab. 4.8)
rivelano un’utilità marginale decrescente e, quindi, avversione al rischio, essendo le
differenze tra i valori consecutivi crescenti. Anche le risposte relative al metodo CE
individuano 9 soggetti neutrali, di cui 6 sono gli stessi risultati indifferenti al rischio
sotto il trade off; i valori medi, anche in questo caso, indicano un’utilità marginale
decrescente. Riguardo ai risultati del metodo PE, i valori medi delle probabilità elicitate
mostrano, di nuovo, un’utilità marginale decrescente, ma in questa circostanza non
risulta nessun soggetto neutrale al rischio.
Tab. 4.8 - Risultati medi dell’esperimento sulla durata di vita J=1 J=2 J=3
TOj 11,3 17,0 23,1 CE(j/4) 10,1 15,2 21,4 PEj 0,535 0,698 0,875
La conclusione cui si perviene è che tutti e tre i metodi considerati individuano
funzioni di utilità concave: ci si può domandare,a questo punto, se tali funzioni
presentano lo stesso grado di concavità o meno. Per un soggetto perfettamente coerente
secondo la teoria dell’utilità attesa, data l’utilità pari a j/4, dovrebbero sempre essere
rispettate le uguaglianze TOj = CE(j/4), per tutti i j. Test t d’ipotesi condotti ponendo
tali uguaglianze come ipotesi nulle hanno portato al rifiuto (p< 0.05 oppure p < 0.01)
delle stesse e all’accettazione delle seguenti ipotesi alternative: TO1 > CE(1/4); TO2 >
CE(1/2); TO3 > CE(3/4). In altri termini, si può concludere che le funzioni di utilità
derivanti dall’applicazione del metodo CE sono significativamente più concave di
117
quelle ottenute con il metodo TO. Questo risultato è coerente con quanto detto
precedentemente riguardo al fatto che il metodo TO non risente dell’effetto certezza al
contrario del metodo CE bisettivo e, quindi, presenta una minore avversione al rischio.
Un risultato analogo è stato osservato anche dal confronto tra il metodo TO e il metodo
PE: se una persona soddisfa a pieno la teoria dell’utilità attesa, allora le uguaglianze
u(TOj) = j/4 implicano che PEj = j/4. Invece, test d’ipotesi hanno portato al rifiuto di
questa ipotesi, evidenziando valori di PEj sistematicamente maggiori di j/4. Questo
conferma che le utilità elicitate tramite il metodo PE risultano caratterizzate da una
maggiore avversione al rischio di quelle elicitate tramite TO.
Il secondo esperimento svolto dai due autori considera risultati monetari. I soggetti
intervistati sono stati 42 (14 ricercatori di finanza e 28 studenti di economia) e ad
ognuno è stata presentata la possibilità di investire una stessa somma di denaro in due
diversi tipi di titoli, titolo A e titolo B, il cui rendimento dipende dall’esito delle elezioni
presidenziali. Anche in questo caso sono stati applicati in successione il metodo TO, CE
bisettivo e il metodo PE, seguendo la procedura già descritta per l’esperimento
precedente. La Tab. 4.9 riporta i risultati medi normalizzati ottenuti.
Tab. 4.9 - Risultati medi normalizzati dell’esperimento monetario J=1 J=2 J=3
TOj 0,238 0,475 0,730 CE(j/4) 0,216 0,462 0,697 PEj 0,358 0,563 0,793
Relativamente al metodo TO, 7 soggetti hanno mostrato funzioni di utilità lineari,
cioè TO1=0.25, TO2=0.50, TO3=0.75, mentre i valori medi sono coerenti con funzioni di
utilità concave. Relativamente al metodo CE, 11 soggetti, 6 dei quali sono gli stessi del
metodo TO, hanno manifestato indifferenza al rischio, mentre, di nuovo, i valori medi
denotano avversione. Infine, nel metodo PE, tutti i soggetti hanno presentato valori di
PEj maggiori dei rispettivi quartili (0,25, 0,50, 0,75), confermando l’avversione al
rischio.
118
Confrontando le funzioni di utilità ottenute con i tre metodi attraverso un test
d’ipotesi, risulta che le differenze nella curvatura delle funzioni sotto TO e CE non sono
statisticamente significative e, quindi, in questo caso, non si ha nessuna violazione
dell’utilità attesa. Invece, le differenze tra le funzioni determinate tramite i metodi TO e
PE risultano significative, analogamente al precedente esperimento.
A questo punto è interessante fare un confronto tra i due esperimenti; naturalmente
il confronto avverrà tra dati normalizzati, visto che le unità di misura dei risultati sono
diverse (Tab. 4.10). I valori medi del TO nell’esperimento sugli anni di vita sono più
bassi (maggiore avversione) rispetto a quelli dell’esperimento monetario, ma la
differenza non risulta significativa. Anche i valori medi del CE sono più bassi nel primo
esperimento, ma stavolta la differenza risulta significativa, suggerendo, quindi, una
maggior avversione al rischio per la scelta tra operazioni chirurgiche rispetto alla scelta
tra investimenti. Infine, anche i dati medi del metodo PE confermano un’avversione al
rischio significativamente maggiore nel primo caso anziché nel secondo.
Tab. 4.10 - Confronti dei due esperimenti con dati normalizzati TO1 TO2 TO3 CE(1/4) CE(1/2) CE(3/4) PE1 PE2 PE3
Anni ,227NS ,458NS ,695NS ,177* ,392* ,630* ,535*** ,698** ,875* Denaro ,238 ,475 ,730 ,216 ,462 ,679 ,358 ,562 ,793
NS= non significativo per α = 0,05; *=p < 0,05; **= p< 0,01; ***= p< 0,001
Riassumendo: entrambi gli esperimenti mostrano utilità concave, ma, mentre sotto
l’utilità attesa le curve elicitate con i tre metodi dovrebbero coincidere, in questo caso le
curve elicitate col metodo CE risultano più concave di quelle derivanti dal metodo TO e
le curve elicitate col metodo PE risultano più concave di quelle derivanti dal metodo
CE. Nell’esperimento monetario le differenze tra TO e CE non sono significative e,
quindi, non si dovrebbe rifiutare la teoria dell’utilità attesa; in tutti gli altri casi, invece,
le differenze sono significative, portando, dunque, ad una violazione dell’utilità attesa.
Il motivo per cui le utilità derivanti dai metodi CE e PE comportano maggiore
avversione delle utilità risultanti dal metodo TO è da individuarsi nell’effetto certezza
che incrementa l’attrazione per i risultati certi; il motivo per cui il metodo PE induce
un’avversione al rischio ancora più elevata rispetto al metodo CE risiede nella maggiore
119
attenzione rivolta alle probabilità nel metodo PE, fatto questo che induce ad una
maggiore “antipatia” per le scelte rischiose31.
Quindi, considerando che il metodo degli equivalenti certi risente dell’effetto
certezza e che il metodo delle probabilità equivalenti risente, oltre a questo, anche
dell’effetto dovuto alla focalizzazione sulle probabilità, effetti questi che comportano
violazioni sistematiche nell’utilità attesa, si può concludere che il metodo del trade off è
quello più idoneo (tra i metodi finora sviluppati) ad elicitare funzioni di utilità, in
quanto meno sensibile a effetti distorsivi.
Nella Fig. 4.1 sono rappresentate le curve risultanti dai due esperimenti.
Fig. 4.1 - Curve di utilità relative all’esperimento monetario ($) e all’esperimento sugli anni di vita
Esperimento di Bleichrodt, Pinto e Wakker (2001)
L’esperimento di Bleichrodt, Pinto e Wakker (2001) può essere visto come la
logica prosecuzione del lavoro appena analizzato svolto da Wakker e Deneffe: infatti, si
riprendono di nuovo in considerazione i tre metodi TO, CE e PE e li si applicano prima
sotto le tradizionali ipotesi della teoria dell’utilità attesa (EU).
31 Si noti che queste osservazioni e spiegazioni sono coerenti con quanto osservato da Hershey e Schoemaker (1985).
0
0,25
0,5
0,75
1
0 0,25 0,5 0,75 1
PE($)PE(#)CE($)CE(#)TO($)TO(#)
120
Quindi, constatate le differenze tra le funzioni di utilità elicitate con i diversi
metodi, si cerca di apportare delle correzioni quantitative, adottando le ipotesi della
teoria del prospetto (PT). La novità dell’approccio consiste, dunque, nel proporre un
modo quantitativo per correggere le distorsioni, quando queste non possono essere
evitate. Quindi, la domanda centrale da porsi è: quali influenze e deviazioni dall’utilità
attesa prendere in considerazione? E come correggerle? Poiché l’analisi si basa sulla
teoria del prospetto, le deviazioni dall’utilità attesa considerate sono proprio quegli
elementi che distinguono la teoria del prospetto dalla teoria dell’utilità attesa:
a) la trasformazione delle probabilità:
La teoria dell’utilità attesa classica assume la linearità nelle probabilità, cioè ogni
soggetto dà uno stesso peso a probabilità differenti. In realtà, spesso non è così (l’effetto
certezza è l’esempio più lampante): di norma, le probabilità basse vengono
sopravalutate e quelle alte vengono, invece, sottovalutate. Detto in altri termini, le
probabilità non hanno un andamento lineare, ma vengono pesate in modo diverso
(quindi, trasformate) dal decisore. E’ possibile individuare una funzione di
trasformazione delle probabilità, avente la forma di una S “rovesciata”. Tversky e
Kahneman (1992) propongono la seguente forma funzionale per la funzione di
trasformazione delle probabilità:
( )[ ]γγγ
γ
1
1)(
pp
ppw−+
= ,
avente proprio una forma ad S rovesciata per 0.27 < γ < 1. Essi hanno sperimentalmente
trovato un valore mediano per γ+ (cioè per le vincite) uguale a 0.61 e per γ- (per le
perdite) uguale a 0.69.
b) l’avversione alle perdite:
La teoria dell’utilità attesa classica assume che a vincite e perdite uguali in valore
assoluto sia dato lo stesso peso: di nuovo, esperienze empiriche mostrano che non è
così. Le persone tendono a dare un peso maggiore ai risultati percepiti come perdite,
rispetto a quelli percepiti come vincite. La teoria del prospetto tiene conto di questo
fenomeno individuando un parametro positivo di avversione alle perdite: λ. Tversky e
121
Kahneman (1992) hanno stimato un valore mediano di λ pari a 2,25. Sotto le ipotesi
dell’utilità attesa, si ha: w+(p) = w-(p) = p e λ = 1.
Supponendo di avere a una lotteria mista del tipo (x p y), la sua utilità attesa sarà
data da:
( ) ( ) ( ) ( ) ( ) ( ) ( )1u r w p u x u r w p u r u yλ+ −⎡ ⎤ ⎡ ⎤+ − − − ⋅ −⎣ ⎦ ⎣ ⎦
dove r è lo status quo. I risultati vengono, quindi, valutati come deviazione dal punto di
riferimento, così da combinare la logica della teoria del prospetto con la funzione di
utilità della teoria dell’utilità classica.
Analogamente, avendo una lotteria di sole vincite, l’utilità della stessa è pari a:
( ) ( ) ( ) ( )[ ] ( )[ ] ( ) ( )[ ] ( ) ( ) ( )[ ] ( )yupwxupwruyupwruxupwru ⋅−+⋅=−⋅−+−⋅+ ++++ 11
E avendo una lotteria di sole perdite:
( ) ( ) ( )( ) ( ) ( ) ( )[ ]{ }yupwxupwruru ⋅−+⋅−−−⋅− −− 11*1λ
L’esperimento svolto dai tre autori consiste nel calcolare l’utilità dei risultati
elicitati tramite i tre metodi (TO, CE, PE), applicando prima la formula dell’utilità attesa
classica e poi la formula derivante dalla teoria del prospetto, che quindi tiene conto dei
due fattori di distorsione: la trasformazione delle probabilità e l’avversione alle perdite.
Per es., per il metodo PE, l’utilità di un certo x è pari a:
( ) ( )( ) ( )pwpw
pwxu−+
= −+
+
1λ
mentre per il metodo CE si ha:
( ) ( )qwxu += .
122
Si noti che nella formula sopra riportta non compare il parametro di avversione
alle perdite (λ), il che comporta che il metodo CE non risente di tale fenomeno
distorsivo, benché sia comunque influenzato dagli effetti dovuti alla trasformazione di
probabilità.
I tre autori dimostrano, infine, che la relazione che fornisce l’utilità di un certo x
per il metodo TO rimane invariata nel passare dalla teoria dell’utilità attesa classica alla
teoria del prospetto, cioè u(xj) = j/n, con j = 1, …, n . In altre parole, questo significa che
il metodo TO non risente degli effetti dovuti all’avversione alle perdite e alla
trasformazione delle probabilità, confermandosi così come il metodo di elicitazione più
soddisfacente.
Nella Tab. 4.11 sono riportate le utilità corrette per il metodo PE basandosi
sull’equazione sopra riportata: le utilità qui presentate sono espresse in funzione del
livello di probabilità p (0 < p <1) e sono normalizzate nell’intervallo [0, 1]. A confronto
con la teoria dell’utilità attesa si riscontra una correzione verso l’alto da p = 0 fino a p =
0.09 e una correzione verso il basso da p = 0,10 a p = 1. Mano a mano che ci si avvicina
a p = 1 le correzioni sono molto forti: per es., il ristretto intervallo di probabilità [0,97,
1] serve per misurare tutti i livelli di probabilità tra 0,82 e 1. Questo mostra che il
metodo PE è particolarmente insensibile, cioè ha scarso potere di discriminazione per
livelli di utilità maggiori di 0,80. Questo fenomeno è fastidioso soprattutto quando
siamo davanti a contesti decisionali che originano risultati solo leggermente peggiori del
risultato massimo ottenibile. Uno stesso fenomeno si registra anche per il metodo CE
(cfr. Tab. 4.12, in cui sono riportate le utilità corrette per il metodo CE solo per alcuni
livelli di probabilità, quelli impiegati nell’esperimento svolto): in questo caso, però, la
questione viene risolta facilmente impiegando il metodo CE bisettivo, cioè ponendo q =
½. In particolare, per il metodo CE si registrano correzioni verso l’alto per q = 0,10 e q
= 0,25 e verso il basso per q = 0,50, q = 0,75 e q = 0,90.
La struttura delle questioni poste nell’esperimento svolto dai tre autori ricalca il
primo esperimento sugli anni di vita svolto da Wakker e Deneffe, quindi i risultati
trovati sono misurati in termini di anni attesi di vita; i partecipanti sono 51 studenti di
economia di Barcellona. L’esperimento prevede due sessioni da svolgersi a distanza di
una settimana l’una dall’altra: nella prima sessione, ai partecipanti viene chiesto di
rispondere alle questioni che comportano l’applicazione del metodo TO e a questioni
123
concernenti l’applicazione di CE oppure di PE; nella seconda sessione, ai partecipanti
vengono poste le domande inerenti il metodo rimanente (PE se nella prima sessione è
stato sperimentato il CE o viceversa) e vengono riproposte alcune questioni già
affrontate nella prima sessione per testare l’affidabilità degli intervistati.
Tab. 4.11 - Utilità PE corrette in funzione di p per p = 0,00,…,0,99 (per es., l’utilità PE corretta per p = 0,15 è 0,123)
,00 ,01 ,02 ,03 ,04 ,05 ,06 ,07 ,08 ,09 ,0 0,000 0,025 0,038 0,048 0,057 0,064 0,072 0,078 0,085 0,091 ,1 0,097 0,102 0,108 0,113 0,118 0,123 0,128 0,133 0,138 0,143 ,2 0,148 0,152 0,157 0,162 0,166 0,171 0,176 0,180 0,185 0,189 ,3 0,194 0,199 0,203 0,208 0,213 0,217 0,222 0,227 0,231 0,236 ,4 0,241 0,246 0,251 0,256 0,261 0,266 0,271 0,276 0,281 0,286 ,5 0,292 0,297 0,303 0,308 0,314 0,320 0,325 0,331 0,337 0,343 ,6 0,350 0,356 0,363 0,369 0,376 0,383 0,390 0,397 0,405 0,412 ,7 0,420 0,428 0,436 0,445 0,454 0,463 0,472 0,481 0,491 0,502 ,8 0,512 0,523 0,535 0,547 0,560 0,573 0,587 0,601 0,617 0,633 ,9 0,650 0,669 0,689 0,710 0,734 0,760 0,789 0,822 0,861 0,911
Tab. 4.12 - Utilità CE corrette
Probabilità q 0,10 0,25 0,50 0,75 0,90 Utilità CE 0,186 0,291 0,421 0,568 0,712
I dati sono analizzati prima sotto la teoria dell’utilità attesa classica e,
successivamente, si considerano le correzioni per la trasformazione delle probabilità e
per l’avversione alle perdite. UTO, UCE, UPE indicano le utilità risultanti, rispettivamente,
dai metodi TO, CE e PE. Le risposte di tre studenti sono state escluse perché non
complete. Per poter fare un confronto tra le varie curve di utilità è necessario che queste
siano definite su uno stesso dominio: quindi, prima di procedere al confronto, i limiti
massimo e minimo degli intervalli delle funzioni ottenute per ognuno dei tre metodi
sono stati ridefiniti, assegnando 0 al risultato minimo e 1 a quello massimo. A questo
punto è stato possibile effettuare dei test t d’ipotesi per verificare se le differenze
rilevate, prima sotto EU e, poi, sotto PT, fossero dovute semplicemente al caso, e quindi
si potevano considerare le funzioni di utilità ottenute con i diversi metodi come
sostanzialmente uguali, oppure se tali differenze fossero significative, indicando
sistematiche divergenze tra i diversi metodi e, dunque, un fallimento nel tentativo di
correzione adottato. La Fig. 4.2 illustra graficamente le differenze tra le utilità con e
124
senza le correzioni; i dati relativi sono riportati nel dettaglio nelle due tabelle successive
(Tabb. 4.13 e 4.14). Osservando la figura si vede chiaramente come le differenze tra le
utilità dopo le correzioni risultino notevolmente ridotte rispetto a quelle precedenti le
correzioni effettuate.
Fig. 4.2 - Differenze tra utilità prima e dopo le correzioni
Prima delle correzioni Dopo le correzioni
UPE - UCE
UPE - UTO
UCE – UTO
La Tab. 4.13 mostra i confronti tra le utilità elicitate sotto la teoria dell’utilità
attesa classica: si rilevano differenze sistematiche e significative tra tutti e tre i metodi
di elicitazione. In particolare, UPE eccede UCE e UTO e, a sua volta, UTO eccede UCE.
Questi risultati sono fondamentalmente coerenti con quelli trovati da Wakker e Deneffe
(1996): anche in tal caso, infatti si ha una decisa violazione dell’utilità attesa classica e
il metodo PE è quello che genera le funzioni maggiormente concave. L’unica differenza
si riscontra tra i metodi CE e TO che, nel presente esperimento, si influenzano in modo
-0,15
-0,1
-0,05
0
0,05
0,1
0,15
0,2
0,25
0 1 2 3 4 5
125
opposto rispetto agli esperimenti di Wakker e Deneffe. In questi ultimi, infatti, UCE
eccede UTO, qui, invece, avviene l’opposto.
Tab. 4.13 - Confronti tra i tre metodi sotto l’assunzione dell’utilità attesa classica UPE – UCE (st.dev.) UPE – UTO (st.dev.) UCE– UTO (st.dev.)
Domanda
1 0,215***(6,97) 0,043*(2,37) -0,075***(-9,47) 2 0,241***(7,41) 0,108**(3,31) -0,107***(-5,36) 3 0,130***(4,13) 0,099**(3,17) -0,108***(-3,83) 4 0,023 (0,94) 0,077**(3,23) -0,070*(-2,61) 5 -0,005(-0,31) 0,041**(2,70) -0,030 (-1,70) Totale 0,121 0,074 -0,078 (Differenze da zero)*: α = 0,05; **: α = 0,01; ***: α = 0,001
Nella Tab. 4.14, sono riportati i risultati dei test d’ipotesi per i confronti tra le
funzioni di utilità dopo aver proceduto alle correzioni previste. I parametri assunti sono
stati quelli calcolati da Kahneman e Tversky (1992), cioè γ+ = 0,61, γ- = 0,69 e λ = 2,25.
Si può osservare che le differenze sistematiche tra UTO, UCE e UPE svaniscono (solo in
un caso la differenza tra UPE e UTO continua a mantenersi significativa).
Tab. 4.14 - Confronti tra i tre metodi sotto la trasformazione di probabilità (γ+ = 0,61, γ- = 0,69) e l’avversione alle perdite (λ = 2,25)
UPE – UCE (st.dev.) UPE – UTO (st.dev.) UCE – UTO (st.dev.) Domanda 1 0,015 (0,79) 0,018 (1,37) 0,022 (1,62) 2 0,019 (0,93) 0,054* (2,41) 0,013 (0,74) 3 -0,011 (-0,46) 0,030 (1,27) -0,004 (-0,24) 4 -0,020 (-0,80) 0,001 (0,03) -0,011 (-0,64) 5 -0,004 (-0,17) -0,015 (-0,95) -0,019 (-0,13) Totale -0,000 0,018 0,000 Differenze da zero *: α = 0,05
Gli esempi illustrati nelle righe precedenti forniscono utili indicazioni a sostegno
della possibilità di impiego dei principi base della teoria del prospetto per sviluppare
applicazioni prescrittive dell’utilità attesa. In particolare, si è visto che la trasformazione
delle probabilità e l’avversione alle perdite, due deviazioni molto comuni dall’utilità
attesa, possono essere individuate e corrette per ottenere una elicitazione della funzione
di utilità il più affidabile possibile. Operazione questa effettuata tramite l’impiego di
126
parametri (w, λ e γ), esplicitamente considerati nella formula dell’utilità attesa, il cui
valore è basato sulle stime effettuate da Kahneman e Tversky (1992). Benché l’analisi
abbia rilevato una sostanziale coerenza tra i metodi TO, PE e CE, una volta proceduto
alle correzioni, ha anche rilevato un’elevata insensibilità del metodo PE per livelli alti di
utilità, fatto questo che rende sconsigliabile comunque l’uso di tale metodo, considerato
anche che il metodo stesso risente sia dell’avversione alle perdite che della
trasformazione delle probabilità. Più preciso del metodo PE risulta il metodo CE, che,
infatti, non risente del fenomeno di avversione alle perdite e l’elevata insensibilità
incontrata per alti livelli di utilità viene facilmente evitata ricorrendo alla versione
bisettiva; malgrado ciò permane la sensibilità alla trasformazione delle probabilità. In
definitiva, l’esperimento qui discusso conferma la superiorità del metodo del trade off.
Esperimento di Fennema e Van Assen (1999)
Fennema e Van Assen hanno proposto due possibili varianti del metodo del trade
off: la variante outward, che non è altro che la versione presentata originariamente da
Wakker e Deneffe (1996), e la variante inward. Le due varianti sono state impiegate,
insieme al metodo CE, nell’esperimento descritto in precedenza, avente come scopo
principale l’analisi della forma della funzione di utilità per le perdite.
Si procederà ora alla descrizione delle due varianti e all’analisi delle eventuali
differenze empiriche riscontrate sia tra di esse che rispetto al metodo CE.
• Outward trade off:
Non è altro che la versione originaria del trade off illustrata nelle pagine
precedenti. Il soggetto decisore è chiamato a determinare una serie di valori di
indifferenza concatenati che diventano via via più grandi, per le vincite, o via via più
piccoli, per le perdite, rispetto al valore iniziale x0. In questo modo si generano intervalli
tra i vari risultati sempre più lontani dal punto di riferimento. Si supponga che al
soggetto sia proposta la scelta tra due lotterie alternative (cfr. Fig. 4.3): la lotteria A dà
una probabilità p di vincere 1500 $ e una probabilità (1-p) di perderne 25; la lotteria B
127
dà, invece, una probabilità p di vincere 2000 $ e una probabilità (1-p) di perdere una
somma x1 superiore a 25 $, ma non meglio definita.
Fig. 4.3 - Esempio di applicazione della procedura outward TO per le perdite
Il decisore deve stabilire qual è il valore di x1 che lo rende indifferente tra le due
lotterie. E’ evidente che il valore stabilito dal soggetto sarà necessariamente minore di –
25 $ (cioè maggiore in valore assoluto), altrimenti la lotteria B si configurerebbe come
lotteria dominante e, quindi, non potrebbe mai risultare indifferente rispetto alla lotteria
A. Si supponga che il soggetto determini un valore di –60 $, a questo punto si
sostituisce il valore –25 $ con –60 $ e si ripropone al soggetto la stessa questione, in
modo da definire il valore x2 che generi indifferenza tra A e B. Per lo stesso motivo di
prima, x2 sarà minore di –60 $ (cioè maggiore in valore assoluto): per es., potrebbe
essere uguale a –150 $. La procedura prosegue in questo modo per un numero n di
volte. Si ottengono, dunque, risultati monotonicamente crescenti (in valore assoluto),
cioè risultati che si allontanano sempre più dal punto di riferimento 0. Il discorso è
analogo per valori da elicitare positivi, anziché negativi; per es., si consideri il seguente
confronto:
(200 $ p –75 $) ∼ (x1 p –275 $).
Il valore x1 determinato dal soggetto sarà positivo e maggiore di 200 $;
sostituendo al posto di 200 $ questo nuovo valore, il decisore determinerà un nuovo
risultato x2 maggiore di x1 e così via, ottenendo sempre risultati crescenti.
p
1-p
1500$
-25$
A
p
1-p
2000$
x1=?
B
128
• Inward Trade Off:
La presentazione del problema di scelta può essere modificata in modo tale che il
decisore sia portato a determinare risultati monotonicamente decrescenti (in valore
assoluto), cioè che si avvicinano sempre di più al punto di riferimento 0. Praticamente,
riprendendo la scelta prima presentata tra la lotteria A e la lotteria B (cfr. Fig. 4.3), per
applicare la variante in discorso basterà fissare i risultati della lotteria B e far variare la
perdita nella lotteria A; per es. (cfr. Fig. 4.4), si può decidere che la lotteria B offra una
probabilità p di vincere 2000 $ contro una probabilità (1-p) di perderne 150, mentre la
lotteria A offre una probabilità p di vincere 1500 $ contro una probabilità (1-p) di
perderne xn. Il valore di xn, sempre per lo stesso motivo di coerenza logica, sarà
maggiore di –150 $ (cioè minore se si considerano i valori assoluti).
Fig. 4.4 - Esempio di applicazione della procedura inward TO per le perdite
Il procedimento prosegue, quindi, sostituendo xn a –150 $, in modo da determinare
xn-1; l’operazione viene ripetuta tante volte quanti sono i punti della funzione che
interessa determinare.
Per poter agevolare il confronto tra le due varianti del TO, Fennema e Van Assen,
nel loro esperimento, hanno deciso di concatenare l’ultima richiesta dell’outward TO
con la prima dell’inward TO, ponendo l’ultimo risultato (x4) determinato dal soggetto
decisore durante la procedura outward come primo risultato fisso (x4’) nella prima
richiesta della procedura inward, come illustrato nella Fig. 4.5 (x4 è stato posto uguale a
–160 $).
p
1-p
1500$
xn=?
A
p
1-p
2000$
-150$
B
129
Fig. 4.5 - Esempio di procedura outward TO e inward TO
E’ evidente che si sta affrontando lo stesso problema di scelta, benché presentato
in due modi diversi: è, quindi, logico attendersi gli stessi valori di x1, x2, x3, x4 sia per la
procedura outward che per quella inward. Invece, i risultati sperimentali contraddicono
questa affermazione, come si può immediatamente constatare osservando le curve di
utilità risultanti dall’esperimento svolto dai due autori e rappresentate nelle Figg. 4.6 e
4.7. In particolare, la Fig. 4.6 riporta le funzioni di utilità elicitate con tre metodi, CE,
inward TO e outward TO, per le perdite, mentre la Fig. 4.7 riporta le stesse funzioni
elicitate però nel dominio positivo.
Se si procede al confronto tra outward TO e inward TO: l’elemento più evidente è
che il vincolo di invarianza tra risultati corrispondenti non è rispettato, dal momento
che le curve relative ai due criteri hanno curvature differenti. E questo è vero sia per le
perdite che per le vincite. Considerando, ad es., il confronto tra l’ampiezza dell’ultimo
intervallo di risultati determinato con la procedura outward (x4-x3) e l’ampiezza del
primo intervallo determinato con la procedura inward: per le perdite, risultano 47
intervalli più ampi nel secondo caso e 10 più piccoli; per le vincite, analogamente,
risultano 39 intervalli più ampi per la variante inward contro 16 più piccoli.
A
-110$
1500$
B
2000$
(-160$)
Outward TO
A
?
1500$
B
2000$
(-160$)
Inward TO
130
L’esperimento mostra, quindi, che la procedura inward TO produce utilità con
curvature più accentuate rispetto alle utilità misurate con la procedura outward TO e,
infatti, le curve di utilità basate sui valori medi riportate nelle Figg. 4.6 e 4.7
confermano tale fatto. In particolare, ciò sta a significare che, per le perdite, la maggior
parte dei soggetti mostra una maggior propensione al rischio per la variante inward che
non per la variante outward; analogamente, per le vincite, la maggior parte dei soggetti
rivela maggior avversione al rischio per la prima variante che non per la seconda.
Fortunatamente, le due procedure sono coerenti per quanto riguarda l’orientamento
dell’atteggiamento verso il rischio (propensione per le perdite e avversione per le
vincite).
Fig. 4.6 - Valori mediani dei metodi TO e CE per le perdite, convertiti in funzioni di utilità
-5
-4
-3
-2
-1
0-150 -100 -50 0
Denaro $
utilit
à Outward TOInward TOCE
131
Fig. 4.7 - Valori mediani TO e CE per le vincite convertiti in funzioni di utilità
Fennema e Van Assen hanno cercato di fornire una spiegazione al fenomeno
osservato: in particolare, si sono chiesti come mai il primo intervallo della procedura
inward ecceda sistematicamente l’ultimo intervallo della procedura outward. Essi
ipotizzano che la spiegazione sia da ricercarsi in un fenomeno analogo alla diminuzione
di sensibilità. Un esempio può facilitare la comprensione delle loro argomentazioni. Se
si fa riferimento alla Fig. 4.6, nella procedura outward l’attenzione è focalizzata sulla
perdita di 110 $ nella lotteria A. Se il soggetto considera una perdita di 160 $ nella
lotteria B come il valore che lo rende indifferente tra le due lotterie, questo significa
che per lui un incremento di poco inferiore al 50% rispetto alla perdita nella lotteria A
(cioè 110 $ + 50 $ = 160$) lo compenserebbe a pieno della maggiore vincita (2000 $
contro 1500 $) che otterrebbe, scegliendo la lotteria B, se si verificasse l’evento
vincolante avente probabilità p. D’altra parte, se si considera la procedura inward,
l’attenzione è focalizzata sulla perdita di 160 $: quindi, considerare la perdita di 110 $
come punto di indifferenza tra le due lotterie, sarebbe equivalente a dire che il soggetto
si accontenta di una riduzione della perdita di solo il 30% per compensare la minore
vincita offerta dalla lotteria A. Quindi, la stessa identica differenza appare più o meno
grande a seconda del punto su cui è focalizzata l’attenzione, giustificando così le
0
1
2
3
4
5
6
0 2000 4000 6000 8000 10000 12000 14000 16000
Denaro $
utili
tà Outw ard TO
Inw ard TO
CE
132
differenze riscontrate tra le due procedure del TO; in altre parole, il fenomeno è simile
a quello della diminuzione di sensibilità, per cui la stessa differenza di 10 $ tra 100 $ e
110 $ è percepita come se fosse più piccola rispetto alla differenza tra 10 $ e 20 $.
Questa ipotesi interpretativa consente anche di capire perché le funzioni elicitate
tramite la procedura inward TO abbiano la curvatura più accentuata di quelle elicitate
tramite la procedura outward TO. Normalizzando, infatti, i risultati ottenuti
nell’intervallo [0, 1] per rendere possibili i confronti, x0 e x4 dovranno necessariamente
coincidere nelle due procedure; questo comporta che, essendo i primi intervalli
determinati con la procedura inward più ampi, le ultime richieste faranno uso di valori
fissi più piccoli, che, per la stessa logica, condurranno a intervalli più piccoli. Il
risultato finale sarà proprio una maggior curvatura, sia per perdite che per guadagni,
delle utilità derivanti dalla procedura inward TO.
Le differenze rilevate tra le due varianti del TO si riflettono, ovviamente, anche
nel confronto con i risultati relativi al metodo CE.
Confrontando prima il metodo CE con il metodo outward TO, si osservano
risultati coerenti con i confronti effettuati negli esperimenti precedentemente analizzati
(Wakker e Deneffe 1996; Bleichrodt, Pinto, Wakker 2001): infatti, risulta per il metodo
CE una maggior propensione al rischio per le perdite ed una maggiore avversione per i
guadagni, a causa del manifestarsi dell’effetto certezza. Invece, passando al confronto
tra inward TO e CE, i risultati non sono come quelli previsti dall’effetto certezza: per le
perdite, non è stata trovata nessuna differenza significativa tra le utilità derivanti dalle
due procedure di elicitazione; per le vincite, addirittura le utilità derivanti dal metodo
inward TO deviano ancora di più dalla linearità rispetto a quelle derivanti dal metodo
CE, cioè mostrano una maggiore avversione al rischio.
In conclusione, l’esperimento condotto da Fennema e Van Assen investiga sulle
proprietà del metodo del TO. Il risultato più interessante conseguito è che le utilità delle
procedure inward ed outward TO differiscono in modo marcato nella misura della
deviazione dalla linearità, considerando che entrambi sono essenzialmente lo stesso
metodo (dal momento che presentano lo stesso problema da due punti di vista
differenti). La conclusione che se ne trae è che violazioni e distorsioni nella
determinazione della funzione di utilità sono difficilmente eliminabili: si deve, quindi,
accettare il fatto che la misura dell’utilità dipende dal metodo di stima adottato.
133
Fenomeno, questo, che apre la strada ad una visione costruttiva della stima dell’utilità:
differenti metodi di stima facilitano l’uso di differenti strategie di risposta, che
conducono a utilità differenti.
4.5 UN NUOVO APPROCCIO ALL’ANALISI DECISIONALE
Tutti i criteri di elicitazione trattati finora permettono di determinare, in modo completo,
la funzione di utilità per ogni soggetto considerato. Come osservato, però, il processo di
elicitazione è piuttosto lungo; inoltre, spesso, i soggetti intervistati incontrano difficoltà
a rispondere ai quesiti posti. La questione si complica se si considerano quei processi
decisionali in cui non è sufficiente elicitare una sola funzione di utilità una volta per
tutte, ma è necessario elicitare tante funzioni quanti sono i soggetti rispetto a cui
prendere la decisione (per es., negli esperimenti precedentemente considerati applicati al
settore medico è importante conoscere l’utilità che ogni singolo paziente attribuisce ai
vari trattamenti terapeutici possibili). Per rendere più semplice l’intero processo
decisionale, quindi, Chajewska, Getoor, Norman e Shahar (1998) hanno pensato di
adottare un approccio alternativo per individuare la migliore strategia possibile, tra
quelle disponibili, in modo da rispettare la struttura di preferenze del soggetto. Tale
approccio prevede il ricorso all’analisi dei gruppi (cluster analysis); in pratica, invece
di procedere, ogni volta che si presenta un nuovo soggetto, all’elicitazione completa
della sua funzione di utilità, tramite i criteri fin qui analizzati, si tenta di identificare tale
funzione basandosi su una classificazione relativa ad un insieme di funzioni di utilità,
appartenenti ad altri soggetti, precedentemente raccolte.
Si tratta, quindi, di identificare gruppi che riuniscono funzioni di utilità molto
simili tra loro; una volta identificati tali gruppi, si sottopone al nuovo soggetto un
questionario, molto più semplice di quelli richiesti per processi di elicitazione completi,
in modo da capire a quale dei gruppi individuati appartiene la sua funzione di utilità.
Le fasi della procedura proposta sono le seguenti:
1. si inizia con un insieme di n funzioni di utilità completamente specificate
tramite precedenti processi di elicitazione “classici”;
134
2. queste n funzioni vengono suddivise in k (k < n) gruppi, in modo che in ogni
gruppo convergano le funzioni più simili tra loro. E’, dunque, necessario
definire una misura di distanza tra funzioni per procedere al
raggruppamento;
3. una volta individuati i k gruppi, per ogni gruppo i-esimo si individua una
funzione prototipo upi, cioè quella funzione ritenuta più rappresentativa del
gruppo e che, quindi, identifica il gruppo stesso;
4. si determina, dunque, la strategia ottimale di ogni funzione di utilità
prototipo, che corrisponderà alla strategia ottimale di tutte le funzioni di
utilità rientranti nel medesimo gruppo;
5. si costruisce uno schema di classificazione che consente di individuare il
gruppo di appartenenza della funzione di utilità di ogni nuovo soggetto che
si presenta;
6. infine, individuato il gruppo di appartenenza del nuovo soggetto, si può
concludere che la strategia per lui ottimale è proprio quella identificata
precedentemente come ottimale per la funzione prototipo dello stesso
gruppo.
La problematica affrontata dai quattro autori per illustrare il loro approccio è
quella relativa ai test prenatali32. La scelta per una donna di decidere se sottoporsi o
meno ad un test prenatale, a quale test sottoporsi, se sottoporsi a più di un test o fidarsi
dei risultati del primo effettuato ecc. sono tutte decisioni molto difficili da prendere, dal
momento che questi test non sono molto precisi e comportano rischi per la salute della
donna, nonché rischi di aborto se non vengono effettuati in maniera accurata. Bisogna,
inoltre, considerare, che il rischio di avere un bambino affetto da malattie dipende da
molteplici fattori, quali l’età della donna, il sesso del bambino, la razza, la storia della
famiglia in tema di malattie. Di conseguenza, diventa importante conoscere la funzione
di utilità della donna, specialmente il suo atteggiamento verso il rischio di avere un
bambino con una seria malattia e verso il rischio di aborto, in modo da definire la
strategia di azione ottimale.
32 In particolare questi autori hanno fatto riferimento ad una versione semplificata del modello sviluppato dal progetto PANDA (Prenatal Testing Decision Analysis) presso lo Stanford Medical Informatics,
135
Sia X l’insieme dei possibili risultati ottenibili (x1, x2,…, xn) ed S l’insieme delle
possibili strategie (s1, s2,…., sm). Ogni strategia si presenta in una forma del tipo: ”fare
CVS; se il risultato è negativo, non fare nessun altro test; altrimenti, fare AMNIO; se il
risultato è negativo, continuare la gravidanza; altrimenti, abortire”. Sia, poi, hk una
variabile che riassume l’intera storia della paziente: età, sesso del bambino, razza,
malattie familiari ecc. Data una strategia decisionale si e la storia hk della paziente, si
ottiene una distribuzione di probabilità sull’insieme dei risultati: P(x/h, s). Quindi, data
una distribuzione di probabilità P e la funzione di utilità del soggetto definita su X, U(x),
si può calcolare l’utilità attesa per una certa paziente e per la strategia scelta:
( ) ( ) ( )xUshxPhsEUX
⋅= ∑ , .
Tutte le n funzioni di utilità impiegate sono normalizzate per permettere i
confronti reciproci e, definite su X, esse sono rappresentate come vettori di valori, un
valore per ogni risultato, ( ) ( ) ( ){ }1 2, ,....., nu x u x u x⋅ ⋅ .
Per identificare i k gruppi è necessario definire un algoritmo di raggruppamento e,
per fare questo, è necessario, innanzitutto, definire una nozione di distanza tra punti (i
punti sono le n funzioni di utilità). Esistono varie definizioni di distanza; la più usata
nelle applicazioni di analisi dei gruppi è la distanza euclidea, definita come la radice
quadrata della somma delle differenze di due punti al quadrato:
( )2
21∑ −j
jj uu .
Il vantaggio di questa misura di distanza risiede nel fatto che essa dà uguale peso
ad ogni risultato. Ma nel caso qui considerato sarebbe un errore ricorrere a tale misura,
proprio perché non tutti i risultati hanno uguale probabilità e, quindi, sarebbe un errore
attribuirgli lo stesso peso, dal momento che contribuiscono in modo differente al valore
dell’utilità attesa (per es., la probabilità di avere un aborto è molto più bassa rispetto alla
considerando due dei quattro possibili test prenatali, amniocentesi (AMNIO) e prelievo dei villi coriali
136
probabilità di avere un bambino sano). Si deve, quindi, ricorrere ad un’altra misura di
distanza. La quantità che interessa minimizzare è la differenza tra l’utilità attesa di una
strategia scelta per il paziente se venisse elicitata la sua funzione di utilità
completamente (in modo classico) e l’utilità attesa della strategia scelta per lui
basandosi sull’algoritmo. Formalmente, si può iniziare definendo l’utilità attesa di una
strategia s rispetto ad una particolare funzione di utilità ui e ad una particolare storia hk:
( ) ( ) ( )lix
klku xuhsxPhsEUl
i⋅= ∑ , ,
dove xl indica l’intervallo dei possibili risultati. La miglior strategia (s*) per una
particolare funzione di utilità e per una particolare storia sarà quella che massimizza tale
utilità attesa (con *kp hus si indica la strategia ottimale della funzione di utilità prototipo
del gruppo k).
Quello che interessa è che non risultino differenze significative tra ciò che il
soggetto sceglierebbe se venisse elicitata completamente la sua funzione di utilità e
quello che deriva dal riferimento alla funzione di utilità del gruppo. Si considerino,
quindi, due differenti strategie: la strategia scelta per il soggetto basata su up, cioè *kp hus ,
e la strategia scelta per il soggetto basata sulla sua funzione di utilità u^, cioè *^ khus . Si
calcola, quindi, la differenza tra i valori attesi delle due strategie in discorso, ottenendo,
così, la perdita di utilità (UL-Utility Loss) a cui si va incontro sostituendo u^ con up:
( ) ( ) ( )*^
*^^,^
kpk huuhuukp sEUsEUhuuUL −= 33.
Questa è proprio la misura che interessa minimizzare; quindi, in base a tale misura
della perdita di utilità, si può definire la distanza tra due funzioni di utilità ui ed uj,
rispetto ad una storia hk come
(CVS), e una delle sei possibili malattie che possono essere diagnosticate, la sindrome di Down. 33 Si noti che questa misura non è simmetrica, per cui la UL di una funzione ui rispetto ad un’altra funzione uj sarà differente da UL di uj rispetto ad ui.
137
( ) ( ) ( )2
,,, kijkji
kji
huuULhuuULhuud
+= .
I gruppi vengono creati basandosi sulla minimizzazione di tale misura di distanza.
Ha e Haddawy (1998) hanno proposto una diversa misura di distanza, detta
distanza probabilistica, basata sulla probabilità che due soggetti abbiano strutture di
preferenze diverse tali da generare un disaccordo tra l’ordinamento di due diverse
alternative. In particolare, i due autori impiegano una funzione c12 che assume valore 1
in caso di disaccordo tra i due soggetti e valore 0 in caso di accordo, definendo la
probabilità che i soggetti 1 e 2 ordinino le alternative xi e xj in modo diverso, come:
( ) ( )∑≤<≤−⋅ nji
ji xxcnn 1
12 ,1
2 .
Una volta definita la distanza da minimizzare, si tratta di scegliere l’algoritmo di
raggruppamento, cioè si tratta di decidere come procedere materialmente
all’individuazione dei gruppi.
Nell’analisi dei gruppi esistono due principali tipi di algoritmi: l’algoritmo
gerarchico e quello non gerarchico; l’algoritmo gerarchico, a sua volta, può essere
divisivo o agglomerativo. Nel caso in discorso è stato scelto un algoritmo gerarchico di
tipo agglomerativo. Si inizia ponendo ciascun punto ui in un gruppo distinto Ci; quindi,
si calcola la distanza per ogni coppia di gruppi Ci e Cj. Si individuano i due gruppi Cr e
Cs più simili che si fondono in un unico gruppo Ct; quindi si calcola di nuovo la distanza
tra Ct ed ogni singolo Ci. Si continua, dunque, a fondere i gruppi via via più vicini,
finché non si giunge ad ottenere il numero k di gruppi desiderato.
Il passo successivo consiste nello scegliere, per ogni gruppo, una funzione di
utilità prototipo up, che sia rappresentativa dello stesso. Si prende come prototipo di
ciascun gruppo la funzione per la quale è minimo il seguente punteggio, tra tutte le
funzioni appartenenti a quel dato gruppo:
( ) ( )∑∈
=gruppou
kjiij
huuULuScore ,
138
Infine, per ogni funzione prototipo si individua la strategia ottimale.
A questo punto, ogni volta che si presenta una nuova paziente si procede
all’identificazione del gruppo di appartenenza della sua funzione di utilità e, dunque,
della strategia ottimale; si tratta, in sostanza, di risolvere un problema di classificazione.
Per classificare la funzione di utilità del soggetto si impiegano quesiti di facile
compilazione, volti a raccogliere la sua storia hk, in modo da individuare il gruppo più
appropriato per quella storia. I quesiti posti sono del tipo: “Preferisci il risultato xi o il
risultato xj?” oppure “Preferisci il risultato xi o la lotteria standard (M p m), dove M
indica il miglior risultato ottenibile (cioè nascita di un bambino sano a seguito di una
gravidanza tranquilla) e m indica il peggiore risultato ottenibile (cioè morte della donna
in gravidanza)?”. Come si può notare, questi quesiti sono molto più semplici rispetto a
quelli richiesti da una procedura di elicitazione classica, dove il soggetto deve
rispondere a domande del tipo: “Per quale valore di p sei indifferente tra il risultato xi
oppure la lotteria (M p m)?”.
Una serie di quesiti del tipo appena descritto consente di individuare il gruppo di
appartenenza della funzione di utilità del nuovo soggetto e, quindi, di individuare la
funzione prototipo che più di tutte si avvicina alla funzione vera. La strategia ottimale
scelta per la funzione prototipo sarà, quindi, applicata al nuovo soggetto. L’esperimento
condotto da Chajewska, Getoor, Norman, Shahar, partendo da 70 funzioni di utilità
completamente definite, ha dato buoni risultati: esso ha mostrato che, con un piccolo
numero di semplici quesiti, si riesce a classificare la funzione di utilità di nuovi soggetti
e a prevedere, così, la loro strategia ottimale, compiendo un errore minimale, dovuto
all’impiego di una funzione prototipo anziché della vera funzione del soggetto.
La conclusione che si può trarre riguardo a questo nuovo approccio ai problemi
decisionali è che tale approccio consente una notevole riduzione dei tempi di stima
delle funzioni di utilità; naturalmente, la fase iniziale richiede ugualmente una serie di
stime complete di funzioni di utilità di numerosi soggetti, per poter procedere alla stima
delle funzioni di utilità caratteristiche dei diversi gruppi.
139
Capitolo 5 STRUTTURA DI PREFERENZA E DECISIONI RAZIONALI: UN CASO DI STUDIO
5.1 INTRODUZIONE
In questo capitolo conclusivo viene presentato un caso di applicazione della teoria
dell’utilità ad una particolare tipologia di soggetti: le fondazioni di origine bancaria.
L’analisi è focalizzata sull’elicitazione della funzione di utilità per due diverse
fondazioni bancarie, la Fondazione Monte dei Paschi di Siena (MPS) e l’Ente Cassa di
Risparmio di Firenze (CRF), allo scopo di individuare la loro struttura di preferenze e,
quindi, le linee di comportamento ottimale (analisi ex ante) che ciascuna delle due
fondazioni dovrebbe seguire nella scelta e nella selezione dei progetti da finanziare. Si
procede successivamente (analisi ex post) ad un esame comparativo tra comportamento
decisionale ottimale e comportamento decisionale effettivo, per pervenire, infine, alla
formulazione di un giudizio sulla razionalità e la coerenza dei comportamenti reali.
Le fondazioni bancarie, nate nel 1990 come soggetti conferenti le aziende bancarie
nell’ambito della riforma del sistema bancario italiano (Legge 218/1990, cosiddetta
legge Amato), sono state configurate dal legislatore come nuove figure del non profit,
con l’obiettivo di fungere da stimolo per lo sviluppo del terzo settore. Esse sono infatti
definite (art. 2, c. 1, D. Lgs. 153/1999) “persone giuridiche private senza fine di lucro
che perseguono esclusivamente scopi di utilità sociale e di promozione dello sviluppo
economico…”. L’attività di questi soggetti deve, dunque, sostanziarsi nell’erogazione
dei frutti degli investimenti dei loro ingenti capitali (derivanti dallo scorporo con le
rispettive aziende bancarie e dalla cessione dei pacchetti azionari di maggioranza delle
stesse) per il finanziamento di progetti ad utilità sociale, cioè progetti che si pongono
quale scopo principale l’incremento del benessere della collettività.
Proprio per la natura della sua attività, ogni fondazione bancaria è continuamente
chiamata ad affrontare problemi di scelta del tipo: ”Quali progetti sostenere tra le
140
numerose richieste di finanziamento pervenute?”. La scelta per il sostegno di una certa
tipologia di progetti (annuali o pluriennali, proposti da terzi o promossi da essa stessa,
rivolti alla tutela delle tradizioni del territorio o rivolti piuttosto all’innovazione ecc.)
dipende dalle specifiche preferenze della fondazione e segue come scopo fondamentale,
non tanto la massimizzazione del profitto, quanto la massimizzazione del benessere
sociale. In tale ottica assume particolare rilevanza il processo decisionale che una
specifica fondazione adotta nel risolvere il proprio problema di scelta e selezione dei
progetti da finanziare.
La costruzione della funzione di utilità per le due fondazioni ha consentito, da una
parte, di individuare l’atteggiamento verso il rischio che le fondazioni stesse dovrebbero
assumere nella fase di valutazione e selezione dei progetti per essere coerenti con la
propria struttura di preferenze e, dall’altra, di esprimere un giudizio sulla razionalità del
comportamento di scelta adottato. I risultati ottenuti si sono rivelati nel complesso
soddisfacenti; infatti, l'analisi delle informazioni fornite in merito all’attività svolta e
alle scelte effettuate evidenzia, per entrambe le fondazioni, un quadro sostanzialmente
coerente con quanto deducibile dalla funzione di utilità.
In proposito si deve anche sottolineare che la conoscenza della funzione di utilità
risulta utile non soltanto per le fondazioni bancarie, ma anche per coloro che si
rivolgono alle stesse per ottenere finanziamenti a favore della propria attività e di propri
specifici progetti. Ad una organizzazione interessata a progetti particolarmente rischiosi
converrà rivolgersi a fondazioni che presentano una spiccata propensione al rischio;
viceversa, per quelle interessate a progetti poco rischiosi sarà più conveniente rivolgersi
a fondazioni che presentano funzioni di utilità concave.
141
5.2 ATTEGGIAMENTO VERSO IL RISCHIO DELLE FONDAZIONI BANCARIE
Si può ora focalizzare l’attenzione sullo specifico soggetto decisore che interessa in
questa sede: le fondazioni bancarie (Bacci e Chiandotto, 2002); più in particolare, quali
informazioni si possono trarre dall’analisi della forma della funzione di utilità per una
specifica fondazione? O, in altri termini, che cosa si intende, esattamente, per
fondazione bancaria avversa, propensa o indifferente al rischio?
Dal momento che l’attività tipica di una fondazione bancaria consiste, nella
generalità dei casi, nello scegliere quali progetti finanziare tra le numerose richieste che
le pervengono, il suo atteggiamento verso il rischio può essere definito in relazione alla
tipologia di progetti più o meno rischiosi che la stessa mostra di preferire. In particolare,
quindi, una fondazione bancaria che presenta una funzione di utilità convessa dovrebbe
privilegiare il finanziamento e il sostegno di progetti maggiormente rischiosi, mentre
una fondazione bancaria con funzione concava dovrebbe mostrare una preferenza per
progetti meno rischiosi. Naturalmente, la fondazione potrebbe presentare una funzione
ad “S”, per esempio prima convessa e poi concava o, viceversa, prima concava e poi
convessa. In tali situazioni l’atteggiamento verso il rischio si modifica in base alle
dimensioni dei potenziali progetti: nel caso di una funzione convessa – concava la
fondazione privilegerà, tra i progetti di piccole dimensioni, quelli più rischiosi, mentre
tra i progetti di grandi dimensioni mostrerà preferenza per quelli meno rischiosi; in
modo speculare si comporterà la fondazione che presenta una funzione concava –
convessa.
Ma che cosa s’intende esattamente per rischiosità di un progetto? In generale, la
rischiosità di un progetto è strettamente connessa con la sua incertezza: quanto più un
progetto è incerto nei risultati, nei tempi e nei costi di realizzazione, tanto più lo stesso è
rischioso. In particolare, è possibile individuare una serie di elementi in grado di
influenzare, in senso negativo o positivo, il livello di incertezza di un progetto; i più
significativi possono essere identificati:
• nel carattere: quanto più un progetto ha caratteristiche di innovazione
quanto più lo stesso è incerto nei risultati finali effettivamente conseguibili; al
142
contrario, un progetto tradizionale è, per sua stessa natura, già definito nei suoi
elementi principali;
• nella durata: quanto più un progetto richiede tempi lunghi per la sua
completa realizzazione, tanto meno facile è prevedere l’esito finale;
• nel territorio d’interesse: più ci si allontana dalla propria zona
d’intervento “tradizionale” e più diventa difficile riuscire a mantenere il controllo
sulla realizzazione del progetto, anche a causa delle minori conoscenze che la
fondazione finanziatrice ha delle condizioni e bisogni dei territori di nuova
operatività;
• nel grado di partecipazione da parte della fondazione: è questo il tipico
dilemma “attività grant o attività operating ?”. L’influenza di tale elemento sul
grado di rischiosità di un progetto non è unidirezionale, dipendendo
fondamentalmente dalle caratteristiche della specifica fondazione. Infatti, per certe
fondazioni il portare avanti in prima persona un progetto può comportare rischi
maggiori che non il limitarsi ad erogare finanziamenti a favore di progetti altrui,
soprattutto nel caso in cui la fondazione non abbia molte esperienze in materia e non
possegga conoscenze specialistiche approfondite. Invece, per altre fondazioni, può
valere il ragionamento opposto: laddove il coinvolgimento del soggetto finanziatore
è maggiore, più facilmente questi riuscirà a tenere sotto controllo e a gestire le fasi
del progetto e i suoi eventuali partner, comportando tutto ciò una riduzione della
rischiosità del progetto stesso.
• nel settore di competenza del progetto stesso: al di là degli elementi
appena citati, non si può negare che, per loro natura, certi settori d’intervento siano
più rischiosi rispetto ad altri. Tipico esempio è da individuarsi nel settore della
ricerca scientifica: l’esito di progetti relativi a tale ambito è, infatti, caratterizzato
dall’incertezza nei tempi di realizzazione, nei costi da sostenere e negli obiettivi alla
fine effettivamente raggiungibili. Settori, invece, più tradizionali, quali l’arte,
presentano generalmente una maggiore prevedibilità e sicurezza dei tempi, dei costi,
dei risultati;
• nella natura del soggetto proponente, dove per natura si intende l’insieme
degli elementi che caratterizzano quest’ultimo, quali le dimensioni, le risorse
143
economiche a disposizione, la tipologia di esperienze ecc. Infatti, i progetti proposti
da organismi di grandi dimensioni, dotati di ingenti risorse e di notevoli esperienze,
presentano maggiori margini di sicurezza nei risultati conseguibili e maggiori
garanzie di successo rispetto a progetti proposti da organismi più piccoli, dotati di
risorse inferiori e più giovani, privi, quindi, di una lunga esperienza alle spalle.
Questi elementi si collegano anche al tipo di rapporti che la fondazione ha avuto nel
passato con l’organismo proponente. Infatti, si può considerare un sintomo di
avversione al rischio la preferenza per l’erogazione di finanziamenti a favore di
soggetti con cui la fondazione ha già instaurato rapporti di collaborazione e sostegno
nel passato; viceversa, la preferenza per progetti di soggetti che non hanno mai
ricevuto finanziamenti dalla fondazione stessa e rispetto ai quali, dunque, si hanno
minori informazioni in termini di affidabilità, è maggiormente coerente con un
atteggiamento di propensione al rischio.
Oltre agli elementi sopra richiamati, e che consentono di classificare un progetto
per la sua maggiore o minore rischiosità, bisogna altresì considerare che un sintomo di
avversione al rischio è individuabile nella preferenza per erogazioni “a pioggia”, cioè
erogazioni di piccolo importo distribuite più o meno casualmente tra una molteplicità di
progetti senza preoccuparsi per l’uso che ne verrà fatto: è questo un modo per ripartire il
rischio tra più iniziative, anziché concentrarlo solo su poche, evitando un’eccessiva
esposizione nel caso in cui certi progetti finanziati non vadano a buon fine.
5.3 ELICITAZIONE DELLE FUNZIONI DI UTILITÀ
Lo strumento impiegato per la raccolta dei dati necessari al processo di elicitazione è un
questionario, il cui testo è riportato in appendice al presente capitolo (Appendice A).
Dal momento che la volontà dell’agente “fondazione bancaria” in materia di selezione
dei progetti da finanziare scaturisce dalle scelte fatte, in ultima istanza, in sede di
consiglio di amministrazione dai relativi membri, destinatari del questionario sono stati
proprio questi ultimi34.
34 Si segnala che nel caso del Monte dei Paschi alla compilazione del questionario hanno provveduto funzionari della Fondazione e non i membri del CdA.
144
Il questionario somministrato ha lo scopo di individuare alcuni punti della
funzione di utilità dei singoli soggetti intervistati. Il metodo di elicitazione impiegato è
il metodo del trade off nelle sue due varianti inward e outward. I motivi che hanno
consigliato di scegliere questo metodo, tra i numerosi proposti in letteratura, risiedono
negli indiscutibili vantaggi che presenta che sono già stati illustrati e che vengono qui,
molto sommariamente, richiamati. Innanzitutto, diversamente dai metodi standard, il
trade off, essendo un metodo basato su confronti tra coppie di lotterie non degeneri, non
risente dell’effetto certezza, uno dei maggiori fattori di distorsione che si riscontrano
nell’elicitazione della funzione di utilità e che altera l’atteggiamento verso il rischio dei
soggetti nel senso di una maggiore avversione per domini positivi e maggiore
propensione al rischio per domini negativi. In secondo luogo, questo metodo non
richiede nessuna assunzione sui livelli di probabilità degli eventi vincolanti considerati.
Questo è un elemento molto importante in quanto rende più realistica la situazione di
scelta proposta: normalmente è noto che un certo evento potrebbe verificarsi, ma
difficilmente se ne conosce la probabilità. Il fatto di aver esplicitato un livello di
probabilità del 50% in entrambe le domande poste è dovuto solamente alla necessità di
dare una qualche risposta alla prevedibile richiesta da parte degli intervistati di quale
fosse la possibilità che l’evento vincolante effettivamente si verificasse, ma qualunque
altro valore diverso dal 50% sarebbe andato bene. Infine, il fatto che il metodo in
discorso non risenta affatto né dell’avversione alle perdite né del fenomeno di
trasformazione delle probabilità (proprio perché le assunzioni sulle probabilità sono
irrilevanti) fa sì che, sia sotto la teoria dell’utilità attesa classica che sotto le teorie
generalizzate, le utilità elicitate siano sempre le stesse. In altre parole non è necessario
ricorrere a nessuna correzione quantitativa per ovviare ai fallimenti dell'utilità attesa35.
Il questionario consta di due domande principali: la prima domanda rappresenta
un’applicazione del metodo outward trade off, mentre la seconda rappresenta
un’applicazione del metodo inward trade off. Infatti, la prima domanda è stata
formulata in modo tale che i soggetti intervistati devono rispondere con valori
monotonicamente crescenti (cioè maggiori di 5000 e via via crescenti), altrimenti il
progetto relativo al centro di cura A darebbe sempre risultati migliori del progetto
35 Si veda l’esperimento condotto da Bleichrodt, Pinto e Wakker (2001).
145
relativo al centro di cura B. Analogamente, la seconda domanda è stata formulata in
modo tale che il decisore debba rispondere con valori monotonicamente decrescenti
(cioè minori di 20000 e via via decrescenti), in caso contrario la mostra B sarebbe
sempre preferita alla mostra A. L’applicazione di entrambe le varianti del trade off
consente di svolgere un’analisi sulla loro validità, in modo da confermare o meno i
risultati ottenuti da Fennema e Van Assen (1999) nel loro esperimento36.
Per ciascuna domanda sono stati richiesti quattro confronti di lotterie (quindi ogni
soggetto intervistato è stato chiamato a svolgere otto confronti) tramite una procedura
concatenata: posto nella prima domanda 5000 = x0, con il primo confronto il soggetto ha
individuato x1; quindi, sostituito x1 a x0, è stato individuato x2 e così via; in modo
analogo si è proceduto per la seconda domanda. Naturalmente se si fossero considerati
un numero maggiore di punti, si sarebbero ottenute funzioni di utilità più accurate, ma il
processo sarebbe diventato troppo lungo e noioso per gli intervistati e, inoltre, sarebbero
aumentate le difficoltà, soprattutto per la variante inward.
Per quanto concerne la formulazione specifica delle due domande. L’idea iniziale
è stata quella di riproporre ai soggetti intervistati gli stessi quesiti usati da Wakker e
Deneffe (1996), ma in seguito tale possibilità è stata scartata poiché l’atteggiamento
verso il rischio di un individuo può variare a seconda del contesto in cui si muove. Si è,
pertanto preferito procedere alla formulazione di quesiti di scelta ad hoc che ricreassero,
pur con le dovute semplificazioni richieste dall’applicazione del metodo impiegato,
ipotetici problemi di scelta tra due richieste di finanziamento rivolte alla fondazione
bancaria da parte di due diversi proponenti. Si è trattato, a questo punto, di definire il
settore di competenza dei progetti proposti, il tipo di progetti proposti, l’evento esterno
vincolante e l’unità di misura tale da esprimere i possibili risultati di ogni progetto.
Come settori sono stati scelti la sanità per la prima domanda e l’arte per la
seconda, in quanto hanno consentito di formulare ipotesi di scelta piuttosto tipiche37:
infatti, nel primo caso è stato posto il problema della scelta tra finanziare un centro di
36Affinché l’analisi potesse essere la più accurata possibile sarebbe stato meglio applicare le due varianti del trade off a ciascuna delle due domande, ma in tal caso sarebbe stato indispensabile, per evitare effetti di memoria, sottoporre la seconda variante applicata ad ogni domanda a distanza di qualche giorno. A causa della lunghezza dei tempi di contatto con i singoli soggetti intervistati, nonché delle difficoltà dagli stessi incontrate nel fornire delle risposte, non è stato possibile procedere in tal senso. 37 Infatti, i progetti su cui sono state sviluppate le domande sono ispirati a progetti effettivamente realizzati da fondazioni bancarie, individuati sui siti Internet delle stesse.
146
cura per malati di sclerosi multipla o un centro di cura per malati di distrofia
muscolare38; nel secondo caso, invece, il problema presentato concerne la scelta tra
finanziare una mostra di quadri (mostra A) o un’altra (mostra B). Quindi, come negli
esperimenti di Wakker e Deneffe la scelta cadeva tra il generico investimento 1 e il
generico investimento 2 o tra l’operazione chirurgica 1 e l’operazione chirurgica 2 senza
ulteriori specificazioni, anche nel caso qui trattato la scelta cade su progetti che non
presentano differenze sostanziali: l’unico elemento di distinzione è rappresentato dai
risultati finali che ogni progetto è in grado di dare o, visto da un altro punto di vista, si
può anche affermare che tutte le differenze tra i due progetti posti a confronto sono
inglobate nei risultati finali.
I risultati finali di ciascun progetto proposto sono influenzati dal verificarsi o
meno di uno stesso evento esterno non controllabile dalla fondazione: per la prima
domanda l’evento esterno è stato individuato nell’approvazione di una legge; per la
seconda domanda si è scelto come evento vincolante il restauro per tempo di un quadro
di particolare notorietà.
La decisione più importante è stata quella relativa a quale unità di misura adottare
per specificare gli esiti di ciascun progetto. Dal momento che la fondazione bancaria, in
quanto ente non profit, dovrebbe selezionare i progetti da finanziare sulla base sì delle
proprie preferenze, ma tenendo presenti i benefici sociali che ogni progetto è in grado di
produrre ed essendo questi ultimi di natura fondamentalmente qualitativa, è emersa la
necessità di individuare una unità di misura che consentisse allo stesso tempo di
rappresentare e di tradurre in termini quantitativi tutti i benefici sociali che lo specifico
progetto è in grado di produrre. Quindi, sulla base di queste riflessioni, è stata scelta
come unità di misura dei risultati nella prima domanda il numero di cicli di terapia
effettuabili dal centro di cura in un anno e per la seconda domanda il numero di
visitatori atteso alla mostra. Riguardo al valore effettivo da attribuire ai termini r, R, x0
(con r < x0 < R), considerato che il dominio delle lotterie è uno dei principali elementi
di influenza nell’elicitazione della funzione di utilità, sono stati scelti valori realistici,
basandosi su dati concreti (per es., per la domanda sulle mostre è stato fatto riferimento
38 La specificazione dei due tipi di malattie è irrilevante, avendo solo lo scopo di sottolineare l’oggettiva analoga importanza dei due progetti: l’ipotesi sottostante è, infatti, quella di considerare due malattie ugualmente gravi, diffuse e, dunque, meritevoli di attenzione.
147
al numero di visitatori raggiunto dalla “Biennale dell’Antiquariato” tenutasi a Firenze
nell’autunno del 2001). In ogni modo, sono stati privilegiati valori piuttosto elevati, così
da rendere più difficile per i soggetti intervistati procedere a calcoli mentali.
A questo punto, prima di passare all’analisi dei dati raccolti, merita accennare alle
difficoltà maggiormente riscontrate dagli intervistati. Coerentemente a quanto già
osservato da Wakker e Deneffe nei loro esperimenti, infatti, la maggior parte dei
soggetti interpellati ha incontrato una certa difficoltà a comprendere la logica delle
domande e, quindi, a dare delle risposte. Questo ha fatto sì che fosse necessaria la
presenza personale per dare, volta per volta, tutte le spiegazioni del caso e consentire la
correzione degli errori di risposta commessi dagli intervistati (soprattutto riguardo al
mancato rispetto della condizione di monotonia). Più specificamente, i soggetti hanno
incontrato le maggiori difficoltà nella comprensione del vincolo di monotonia (crescente
nella prima domanda e decrescente nella seconda), nella comprensione del significato
delle unità di misura come unico parametro di riferimento per la scelta e nella
comprensione del ruolo dell’evento esterno vincolante e non influenzabile. Inoltre, si è
rilevata una certa tendenza a cercare di rispondere mantenendo costanti le differenze xj
– xj-1, tendenza questa osservata anche da Wakker e Deneffe: proprio per attenuare
questa tendenza a procedere tramite calcoli numerici, che infatti non sono assolutamente
richiesti, i risultati dei vari progetti sono stati espressi tramite numeri piuttosto elevati e
non arrotondati. Infine, si è potuto osservare che le maggiori difficoltà sono state
riscontrate nel rispondere alla domanda relativa all’applicazione della variante inward
trade off, benché coinvolgente un problema di scelta (il finanziamento di mostre)
teoricamente più semplice da trattare in quanto più facile da incontrarsi (praticamente
tutte le fondazioni bancarie finanziano mostre). La causa di ciò risiede probabilmente in
una maggiore difficoltà a percepire differenze decrescenti rispetto alle differenze
crescenti con cui si ha a che fare nel metodo outward.
La costruzione e l’analisi delle funzioni di utilità si basano non sui dati
originariamente raccolti tramite il questionario, ma sui valori normalizzati degli stessi,
accorgimento questo indispensabile per poter operare prescindendo dalle unità di misura
impiegate e dalle loro dimensioni specifiche e, dunque, per rendere possibile il
confronto tra le due varianti del trade off applicate. I dati originari sono riportati
148
nell’Appendice B al presente capitolo, mentre i dati normalizzati sono riportati nella
Tab. 5.1. La formula di normalizzazione impiegata è la seguente:
04
0
xxxx
x jj −
−= ,
dove jx è il j-esimo risultato normalizzato e xj è il corrispondente valore originario (j =
0, 1, 2, 3, 4).
Procedendo in questo modo l’intervallo di variazione dei risultati viene
normalizzato tra 0 ed 1. Ponendo, come viene fatto normalmente, u(0) = 0 e u(1) = 1 si
ottiene una suddivisione dell’intervallo di variazione delle utilità in quartili; infatti, per
una funzione di utilità che esprime indifferenza verso il rischio, dunque lineare, si ha:
u(0,25) = 0,25, u(0,50) = 0,50 e u(0,75) = 0,75. In termini più generali, un soggetto è
avverso al rischio quando jx = j/4 con j = 0, 1, 2, 3, 4. Se, invece, i valori normalizzati
sono inferiori al corrispondente quartile (che esprime, appunto, l’utilità), cioè jx ≤ j/4,
allora il soggetto presenterà una funzione concava; viceversa, se jx ≥ j/4, si ottiene una
funzione convessa. Nei casi in cui l’individuo ha un atteggiamento misto nei confronti
del rischio, alcuni jx saranno maggiori di j/4 e altri inferiori.
Poiché le decisioni del soggetto “fondazione bancaria” scaturiscono dalle decisioni
dei singoli membri del suo consiglio di amministrazione, i punti Xj corrispondenti alla
sua funzione di utilità sono stati calcolati attraverso il semplice computo della media
aritmetica dei relativi valori normalizzati jx . La media in discorso è una media
aritmetica semplice, in quanto, almeno ufficialmente, i diversi membri di un consiglio di
amministrazione hanno lo stesso peso decisionale e, quindi, è logico attribuire la stessa
importanza alle preferenze di ciascuno39. Nella Tab. 5.2 sono riportati i valori ottenuti
(in ogni caso sono omessi i valori per j = 0 e j =1 in quanto sono sempre uguali a 0 e ad
1) mentre nelle Figg. 5.1 e 5.2 è riportato il grafico delle funzioni di utilità,
39 Alternativamente si sarebbe potuto attribuire un peso diverso ai diversi consiglieri a seconda della maggiore o minore influenza che sono in grado di esercitare (spesso il presidente del CdA ha, infatti, un’influenza particolare sulle decisioni che devono essere prese. Inoltre, si poteva utilizzare un diverso indice di posizione quale la mediana.
149
rispettivamente, per la fondazione Monte dei Paschi e per l’Ente Cassa di Risparmio di
Firenze.
Tab. 5.1 – Risultati normalizzati distinti per soggetto e per metodo con indicazione del corrispondente atteggiamento individuale verso il rischio (OUT sta per metodo outward TO e IN sta per metodo inward TO)
OUTx1 OUTx2
OUTx3 rischio INx1
INx2 INx3
rischio
Soggetti MPS1 ,257 ,476 ,710 Misto* ,382 ,526 ,688 Misto* MPS2 ,250 ,500 ,750 Neutro ,250 ,500 ,750 Neutro MPS3 ,500 ,750 ,900 Propenso ,280 ,600 ,760 Propenso MPS4 ,250 ,500 ,750 Neutro ,250 ,500 ,750 Neutro MPS5 ,143 ,429 ,714 Avverso ,131 ,400 ,703 Avverso CRF1 ,273 ,727 ,909 Propenso ,133 ,466 ,800 Misto** CRF2 ,100 ,300 ,600 Avverso ,286 ,500 ,714 Misto* CRF3 ,250 ,500 ,750 Neutro ,167 ,375 ,667 Avverso CRF4 ,250 ,500 ,750 Neutro ,250 ,500 ,750 Neutro CRF5 ,200 ,433 ,667 Avverso ,028 ,055 ,278 Avverso CRF6 ,357 ,643 ,857 Propenso ,100 ,300 ,600 Avverso CRF7 ,217 ,435 ,652 Avverso ,133 ,333 ,666 Avverso CRF8 ,423 ,538 ,769 Propenso ,062 ,323 ,635 Avverso
* Le funzioni risultano prima convesse e poi concave ** La funzione risulta prima concava e poi convessa
Tab. 5.2 – Risultati medi normalizzati distinti per fondazione e per metodo con indicazione del corrispondente atteggiamento verso il rischio
X1OUT X2
OUT X3OUT rischio X1
IN X2IN X3
IN rischio Fondaz. bancarie MPS 0,280 0,531 0,765 Propensa 0,258 0,505 0,730 Mista* CRF 0,259 0,509 0,744 Mista* 0,145 0,356 0,639 Avversa
* In entrambi questi casi le funzioni risultano prima convesse e poi concave.
Si può chiaramente osservare che la curvatura delle funzioni ottenute non è mai
troppo accentuata, a causa del fatto che i valori Xj non sono altro che una media di
valori, alcuni dei quali maggiori, altri inferiori e altri esattamente uguali a j/4, perciò il
risultato è dato da funzioni piuttosto “schiacciate” verso la linearità. In termini più
concreti, questo equivale a dire che i membri dei consigli di amministrazione, proprio in
quanto appartenenti ad un organo collegiale, non possono imporre il proprio punto di
vista nelle decisioni da prendere, ma devono necessariamente trovare dei punti
d’incontro gli uni con gli altri, punti d’incontro che tenderanno a mediare le posizioni
150
0
0,25
0,5
0,75
1
0 0,25 0,5 0,75 1
x
u(x) outw ard TO
inw ard TO
lineare
più estreme di certi individui a favore di scelte che soddisfino tutti. Tutto ciò ci porta a
sottolineare il fatto che non avrebbe molto senso dare eccessivo peso al grado di
curvatura delle funzioni di utilità delle fondazioni bancarie, magari effettuando un
confronto tra fondazioni proprio sulla base del diverso grado di curvatura che le loro
funzioni di utilità presentano. E’ molto più significativo analizzare le informazioni che
possiamo trarre dalla forma delle funzioni stesse. Si noti, inoltre, che i valori ottenuti
con il metodo outward vengono sempre tenuti separati dai valori ottenuti con il metodo
inward, questo fa sì che per ogni soggetto intervistato e, dunque, per ogni fondazione si
ottengono due funzioni di utilità. In teoria queste due funzioni dovrebbero risultare
identiche, dal momento che le due varianti del trade off impiegate sono sostanzialmente
lo stesso metodo: invece, si vede subito come le funzioni risultanti dai due metodi siano
diverse, coerentemente a quanto osservato da Fennema e Van Assen (1999).
Considerando sia le funzioni dei singoli intervistati che le funzioni relative alle
fondazioni, solamente tre dei quattro soggetti risultanti neutri al rischio sotto il metodo
outward TO rimangono tali sotto il metodo inward TO.
Fig. 5.1 – Funzioni di utilità relative alla fondazione Monte dei Paschi di Siena
151
Fig. 5.2 – Funzioni di utilità relative alla fondazione Ente Cassa di Risparmio di Firenze
A questo punto, prima di procedere nell’analisi e nel commento delle specifiche
funzioni è, dunque, necessario approfondire il confronto tra i due metodi per capire se le
differenze così riscontrate siano statisticamente significative o meno e per decidere
quale dei due metodi sia più affidabile.
Come si è già avuto modo di sottolineare, Fennema e Van Assen, attraverso
l’esperimento relativo all’applicazione delle due varianti del metodo del TO, hanno
riscontrato delle differenze sistematiche nei risultati ottenuti con i due metodi. In
particolare, con riferimento a domini positivi40, è risultato che il metodo inward TO
produce funzioni di utilità coerenti con un atteggiamento di maggiore avversione al
rischio rispetto alla variante outward TO. I due autori attribuiscono tale risultato ad una
diminuzione di sensibilità e concludono che differenti metodi di stima facilitano l’uso di
differenti strategie di risposta e questo conduce inevitabilmente a utilità differenti.
Dall’analisi dei risultati ottenuti si vede che, nel contesto specifico qui analizzato,
si perviene a conclusioni analoghe. Ponendo a confronto ogni singolo OUTjx con il
40 S focalizza l’attenzione solo sui domini positivi, poiché è in questo ambito che si muovono le problematiche di scelta delle fondazioni bancarie.
0
0,25
0,5
0,75
1
0 0,25 0,5 0,75 1
x
u(x)
outward TOinwrd TOlineare
152
rispettivo INjx (j = 1, 2, 3) si può osservare che per 30 coppie su 39 risulta OUT
jx ≠ INjx ,
mentre solo per 9 coppie su 39 risulta che OUTjx = IN
jx 41. Più in particolare, in 24 casi il
metodo outward TO conduce a valori maggiori del metodo inward TO, mentre nei
rimanenti 6 casi conduce a valori inferiori: in altre parole, nei due terzi dei casi il
metodo inward TO determina un atteggiamento verso il rischio maggiormente spostato
verso l’avversione (o meno orientato alla propensione) rispetto al metodo outward TO,
sembrando così confermare quanto osservato da Fennema e Van Assen. Infatti, per 3
(MPS5, CRF5, CRF7) dei 4 soggetti risultanti avversi sotto outward TO si ottiene una
funzione di utilità ancora più concava sotto inward TO; dei 4 soggetti propensi sotto
outward TO, col passare a inward TO, 2 (CRF6, CRF8) diventano avversi, 1 (CRF1)
diventa misto e 1 (MPS3) rimane propenso ma la sua funzione presenta una curvatura
meno accentuata; infine, il soggetto CRF3 da neutro diventa misto. Si osservi, inoltre,
che, diversamente da quanto emerso dall’esperimento dei due autori, nel caso in esame
si registrano anche cambiamenti nella forma della funzione di utilità e, dunque,
nell’atteggiamento verso il rischio, fenomeno questo non nuovo in quanto già
manifestatosi nell’esperimento di Hershey e Schoemaker (1985) relativo
all’applicazione dei due metodi CE e PE.
A questo punto ha senso chiedersi se le differenze riscontrate sono semplicemente
casuali oppure se sono, invece, sistematiche: cioè, è possibile concludere, con un certo
livello di significatività, che i due metodi portano, malgrado i risultati empirici ottenuti,
alle stesse funzioni di utilità oppure si deve concludere che effettivamente il metodo
inward conduce a valori inferiori al metodo outward, determinando così una maggiore
avversione al rischio? Per rispondere a questa domanda sono stati svolti dei test
d’ipotesi: in particolare, avendo a disposizione coppie di valori (per ogni soggetto e per
ogni j = 1, 2, 3 si ha il risultato elicitato prima con il metodo outward e poi con il
metodo inward) si è fatto ricorso a dei test t per dati appaiati. Più precisamente, è stato
svolto un test t per ogni punto elicitato sia considerando insieme tutti i soggetti
41 Tra l’altro, si noti che queste 9 coppie corrispondono sempre ad un atteggiamento di neutralità verso il rischio.
153
indipendentemente dalla fondazione bancaria di provenienza sia considerando
separatamente le fondazioni trattate42. Formalizzando, si ha:
H0: 0=⇔= jINj
OUTj δµµ
H1: INj
OUTj µµ > ,
con α = 0,05 e δj = µjOUT- µj
IN. Quindi, è stato scelto un livello di significatività del 5%
per verificare se le differenze riscontrate sono da attribuire a fattori accidentali e,
dunque, non significative (cioè non si rifiuta l’ipotesi nulla H0) oppure se tali differenze
sono, invece, sistematiche e, dunque, statisticamente significative (cioè si rifiuta
l’ipotesi H0). E’ stata scelta un’ipotesi alternativa unidirezionale anziché bidirezionale a
ragione dell’evidenza empirica disponibile.
La statistica T impiegata, avente distribuzione del tipo t di Student con n-1 gradi di
libertà, è stata calcolata nel seguente modo:
nsdTd /
δ−= ,
dove: δ = 0 (ipotesi nulla);
n = numero di soggetti
∑=
⋅=n
iid
nd
1
1 con INji
OUTjii xxd −= ;
( )2
12
1−
−=
∑=
n
dds
n
ii
d .
42 Si sottolinea che i risultati dei test vanno interpretati con estrema cautela avendo gli stessi natura puramente indicativa non essendo basati su un’analisi preliminare di verifica della normalità dei modelli probabilistici di riferimento.
154
Dai risultati dei test t svolti (cfr. Tab. 5.3), le differenze empiricamente riscontrate
risultano significative ad un livello del 5% per i primi due punti elicitati dai soggetti
dell’Ente CRF e per tutti e tre i punti elicitati considerando la generalità dei soggetti
indipendentemente dalla fondazione di provenienza; nei casi rimanenti le differenze non
risultano statisticamente significative, ma comunque sono tutte positive. Si può, quindi,
concludere che con il metodo inward TO gli individui sono spinti ad adottare una
strategia di risposta che li induce ad elicitare valori più bassi di quanto non succeda con
il metodo outward TO. Questo significa che il metodo inward trade off determina una
maggiore avversione al rischio (o una minore propensione).
Tab. 5.3 – Differenze medie normalizzate osservate tra metodi (tra parentesi valori del test t per dati appaiati)
INOUT xx 111 −=δ
INOUT xx 222 −=δ
INOUT xx 333 −=δ
t critico
Fondaz. bancaria
MPS 0,021 (0,385)
0,026 (0,769)
0,035 (1,298) 2,132
CRF 0,114 (1,953) *
0,153 (2,273) *
0,105 (1,870) 1,894
Totale 0,078 (1,853) *
0,104 (2,769) *
0,078 (2,143) * 1,782
* = differenze significative per α = 0,05
A questo punto, confermato che i due metodi conducono a funzioni di utilità
diverse, quale dei due può essere ritenuto più affidabile? In altri termini, delle due
funzioni di utilità individuate per ciascuna fondazione, quale delle due si può ritenere
che rispecchi meglio il suo schema di preferenze? Per rispondere a questa domanda
consideriamo alcuni fattori. Innanzitutto è di rilievo il fatto che le maggiori difficoltà a
rispondere al questionario abbiano riguardato la domanda relativa al metodo inward
TO, benché questa sia stata posta per seconda e, dunque, non avrebbe dovuto presentare
difficoltà aggiuntive e richiedere ulteriori spiegazioni rispetto alla prima. In particolare,
diversi intervistati hanno incontrato delle difficoltà ad effettuare confronti tra lotterie
implicanti valori decrescenti. Un secondo elemento da considerare è relativo al fatto che
il metodo inward TO comporta un ulteriore vincolo da rispettare nell’elicitazione dei
risultati, oltre a quello di monotonia: infatti, i valori determinati dagli intervistati non
possono essere inferiori a 0. Questo ovvio elemento fa sì che il decisore possa essere
155
obbligato a rivedere la propria strategia di decisione se arriva ad elicitare risultati molto
bassi; inoltre, se si fosse deciso di far elicitare 8 valori anziché 4 (o un numero
maggiore) i primi 4 valori individuati da ciascun soggetto sarebbero stati
inevitabilmente diversi da quelli effettivamente trovati, proprio per la necessità di
rimanere comunque all’interno di un intervallo predeterminato (da 20000 a 0). Problemi
di questo genere non si verificano, invece, con il metodo outward TO. Infine, un’ultima
considerazione rimanda all’esperimento di Fennema e Van Assen, dove viene applicato
anche il metodo degli equivalenti certi. In tale esperimento si osserva, infatti, come il
metodo outward TO (quello originariamente sperimentato da Wakker e Deneffe)
produca funzioni di utilità meno avverse al rischio del metodo CE, proprio perché,
trattandosi di un metodo basato su confronti tra coppie di lotterie, non risente
dell’effetto certezza. Quindi, sarebbe stato logico attednersi risultati analoghi anche per
il metodo inward TO, dal momento che anche questo è basato sul confronto tra coppie
di lotterie: invece, tale variante del trade off conduce a funzioni ancora più avverse di
quelle relative al metodo CE. Così, in un confronto tra il metodo inward TO e il metodo
CE, il primo non solo risulta più complesso del secondo, ma non sembra nemmeno
eliminare le distorsioni dovute all’effetto certezza.
Si può, dunque, concludere che a) il metodo outward trade off appare più
affidabile del metodo inward trade off; b) la distorsione delle utilità dovuta al metodo di
elicitazione impiegato rimane uno dei principali fattori di fallimento della teoria
dell’utilità.
5.4 ANALISI DELLE FUNZIONI DI UTILITÀ E COERENZA DI COMPORTAMENTO
Per quanto detto in chiusura del paragrafo precedente, si è deciso di analizzare le sole
funzioni di utilità elicitate tramite il metodo outward trade off.
Prima di procedere nell’analisi delle specifiche funzioni di utilità individuate per
le fondazioni oggetto dello studio, risulta utile qualche ulteriore puntualizzazione
riguardo al tipo di funzione attesa per una generica fondazione bancaria. Le opinioni
riportate sono del tutto personali e possono quindi non essere condivise; in proposito si
156
segnala che il pluriennale acceso dibattito sulle fondazioni non sembra destinato ad
esaurirsi in tempi brevi.
I problemi di scelta delle fondazioni bancarie si muovono su domini positivi (in
quanto i singoli progetti finanziabili sono volti ad incrementare il benessere sociale),
ma, contrariamente a quanto rilevato per la generalità dei soggetti (si vedano in
proposito i numerosi esperimenti riportati in letteratura: Hershey, Kunreuther e
Schoemaker, 1982; Hershey e Schoemaker, 1985; Camerer, 1989; Keller, 1992) in
questo caso non sono ipotizzabili funzioni di utilità concave, bensì funzioni convesse.
Infatti, le fondazioni bancarie sono soggetti dotati di grandi patrimoni per l’impiego dei
quali manca, però, un efficace meccanismo di responsabilizzazione: non essendo,
infatti, possibile individuare alcun proprietario ben definito, se si fa eccezione per il
generico soggetto “società civile”, il consiglio di amministrazione di una fondazione
bancaria, in pratica, non deve rispondere a nessuno in particolare del proprio operato.
Tutto ciò dovrebbe stimolare un atteggiamento di maggiore propensione al rischio,
considerando anche che progetti più rischiosi, se vanno a buon fine, si accompagnano
ad un maggior ritorno di immagine; sostanziale propensione al rischio da ascrivere
anche alla natura stessa di tali soggetti e al ruolo loro affidato nella società. Infatti, le
fondazioni bancarie, in quanto terze rispetto sia allo Stato che al privato, dovrebbero
farsi sostenitrici di progetti innovativi a vantaggio del benessere sociale, adottando
logiche di azione di lungo periodo e puntando a interventi a redditività sociale differita:
in breve, dovrebbero arrivare a coprire il ruolo di venture capitalist del settore non
profit. Ciò equivale ad affermare l’aspettativa di un atteggiamento di fondamentale
propensione al rischio da parte delle fondazioni bancarie o, perlomeno, da parte di
quelle fondazioni bancarie che sono consapevoli del proprio ruolo e che lo condividono.
Questo non significa affatto che le fondazioni, in quanto proiettate all’innovazione e al
futuro, debbano dimenticare o ignorare la memoria storico–culturale della società civile
a cui si rivolgono; anzi, la consapevolezza delle proprie radici storiche e
dell’importanza che l’arte e la cultura hanno per la nostra società tenderanno ad
influenzare le preferenze delle fondazioni verso attività più tipicamente tradizionali
(restauri, mostre), volte proprio alla conservazione nel tempo del bagaglio culturale.
Tali attività, proprio per la loro natura fondamentalmente tradizionalista, presentano, di
per sé, minori elementi di rischiosità e, quindi, favoriscono un atteggiamento di
157
maggiore avversione al rischio. Partendo dal presupposto che preferenze di questo
genere sono non solo inevitabili in un Paese come l’Italia, ma anche giuste, si tratterà di
vedere come le singole fondazioni bancarie decideranno di conciliare queste due diverse
tendenze (propensione/avversione): se l’una viene privilegiata rispetto all’altra,
determinando una funzione di utilità convessa nel primo caso e concava nel secondo,
oppure se si cerca un perfetto equilibrio tra le due, determinando una funzione di utilità
lineare.
L’atteggiamento nei confronti del rischio dipende, comunque, dalla natura dello
spazio delle conseguenze, che può essere molto diversa e complessa per i progetti
oggetto delle scelte delle fondazioni bancarie. Nelle sperimentazioni di cui si riferisce,
si è cercato, pertanto, di valutare il “generale” atteggiamento nei confronti del rischio
del consiglio di amministrazione delle fondazioni, aggregando opportunamente le
funzioni di utilità dei rispettivi membri, funzioni di utilità definite su spazi delle
conseguenze specificamente individuati in: numero di cicli di terapia effettuabili in un
anno, relativamente alla scelta di finanziare progetti afferenti al settore della sanità
(creazione di centri di cura per malattie particolarmente gravi) e numero di visitatori
attesi in un anno, relativamente al finanziamento di progetti afferenti al settore artistico
(realizzazione di mostre di opere d’arte). Naturalmente si sarebbero potuti scegliere
anche altri spazi di conseguenze per misurare l’atteggiamento nei confronti del rischio:
la scelta è caduta sugli elementi maggiormente rappresentativi del livello di benessere
sociale ottenibile con l’attuazione degli stessi progetti.
Si può adesso procedere all’analisi delle funzioni di utilità ottenute (con il metodo
Outward trade off) per ciascuna delle due fondazioni considerate. In particolare,
separatamente per ciascuna fondazione si procede, in primo luogo, all’interpretazione
della rispettiva funzione di utilità così da individuare l’atteggiamento ottimale verso il
rischio che la stessa dovrebbe adottare per essere coerente con le proprie preferenze; in
secondo luogo, si procede con un confronto con l’effettivo comportamento di scelta
adottato negli ultimi anni, in modo da esprimere un giudizio di razionalità e coerenza.
158
5.4.1 Fondazione Monte dei Paschi di Siena
Come risulta dalla Fig. 5.1, la funzione di utilità della fondazione MPS risulta ovunque
convessa. Sulla base di quanto appena detto relativamente alle informazioni che
possiamo trarre dalla forma della funzione di utilità, una fondazione bancaria che, come
il Monte dei Paschi, presenta una funzione di utilità convessa, dovrebbe privilegiare
progetti propri, a carattere pluriennale, relativi a zone territoriali d’intervento al di fuori
delle zone più “tradizionali” e relativi a settori d’intervento maggiormente rivolti
all’innovazione; in generale, posta davanti alla scelta tra due progetti dovrebbe preferire
quello più rischioso, cioè con maggiori elementi di innovazione e di incertezza. Inoltre,
il fatto che la funzione di utilità si presenti convessa ovunque, fa sì che tale
atteggiamento di propensione al rischio caratterizzi sia progetti di dimensioni modeste
che progetti di dimensioni considerevoli. Inoltre, è necessario considerare quanto
accentuata è la sua propensione a rischiare. La scarsa accentuazione della curvatura
della funzione di utilità della fondazione MPS, dovuta al fatto che tale funzione
scaturisce dalla media delle funzioni di cinque soggetti di cui 2 neutri ed 1 avverso,
consente, infatti, di fare l’ulteriore affermazione che la preferenza per progetti rischiosi
dovrebbe essere affiancata da finanziamenti di progetti più sicuri (sempre nel senso
inteso in questo contesto, quindi si tratterà di progetti di durata annuale, relativi alle
zone territoriali di finanziamento più tipiche della fondazione ecc.), da oculati
investimenti per la conservazione nel tempo del patrimonio e da procedure di
monitoraggio adeguate dei progetti in corso di realizzazione.
Cosa si può dire riguardo al comportamento effettivo tenuto dalla fondazione
Monte dei Paschi? E’ coerente con il comportamento ottimale suggerito dall’analisi
della sua funzione di utilità? In base ai dati forniti dalla stessa fondazione in tema di
attività svolta nel biennio 1998 - 200043, può essere espresso un giudizio
fondamentalmente positivo. La fondazione Monte dei Paschi, infatti, pone tra i suoi
principali obiettivi l’innovazione al servizio dello sviluppo sociale e delle “generazioni
future”. Nel giro di due soli anni, dal 1998 al 2000, ha avviato un’attività che si
distingue sempre più dall’attività svolta durante gli anni precedenti. Si affermano,
infatti, come tendenze innovative e destinate a consolidarsi nel futuro, l’orientamento
159
verso la riduzione dei contributi a pioggia, la maggior attenzione posta agli interventi di
carattere pluriennale, nonché agli interventi coinvolgenti aree diverse rispetto a quella di
tradizionale operatività, cioè la Provincia di Siena (per es., province di Firenze, Parma,
Grosseto). I dati a disposizione, infatti, mostrano, da una parte, un incremento, dal 1998
al 2000, di circa il 53,8% degli interventi a carattere pluriennale; dall’altra parte, si
rileva come la percentuale di contributi assegnati al di fuori della provincia di Siena,
benché ancora modesta, sia passata dall’1,5% del 1999 al 4,5% del 2000.
Oltre a questo assume particolare rilievo il crescente interesse per lo sviluppo di
una progettualità propria, che ha raggiunto la sua espressione più interessante con la
creazione e il controllo della Siena Biotech S.p.a., uno dei primi e rari esempi di
“impresa strumentale” che opera nel settore delle biotecnologie. La fondazione è,
inoltre, attualmente impegnata in altri progetti propri che prevedono un impegno sia
finanziario che temporale considerevole.
Inoltre, è da considerare positivamente il fatto che la fondazione ha posto tra i
settori rilevanti anche la ricerca scientifica e la sanità, settori spesso sottofinanziati
proprio per la loro maggiore rischiosità: non a caso, infatti, la percentuale di importi
erogati nel 2000 a favore della ricerca scientifica da parte della fondazione MPS è pari
all’11,22% contro il 6,50% destinato a tale settore dalla media delle fondazioni bancarie
come risulta dai dati ACRI (Associazione Casse di Risparmio Italiane).
I suddetti elementi, a cui si possono aggiungere, a scopo esemplificativo,
finanziamenti a favore dell’applicazione dell’informatica e della robotica in ambito
chirurgico o a favore di terapie di cura alternative per malati Down, evidenziano un
chiaro atteggiamento di propensione al rischio, cioè di preferenza per progetti
maggiormente orientati all’innovazione (innovazione intesa non solo in termini
tecnologici, ma più in generale in termini di “ricerca del nuovo”, dove il nuovo
comprende tutto ciò che di diverso c’è rispetto all’attività tradizionale svolta dalla
totalità delle fondazioni).
43 Le informazioni riportate di seguito sono contenute nel Bilancio Sociale del 2000 della fondazione MPS.
160
5.4.2 Ente Cassa di Risparmio di Firenze
La funzione di utilità (metodo outward TO) per l’Ente CRF presenta una forma ad “S”,
denotando, quindi, un atteggiamento misto nei confronti del rischio. In particolare, essa
mostra la tipica curvatura prima convessa e poi concava che normalmente viene rilevata
per la generalità dei soggetti decisori. Dunque, il comportamento di scelta più razionale
e più coerente con una funzione di utilità così fatta è quello che privilegia, tra i progetti
di importo più modesto (relativi al medesimo settore d’intervento), quelli maggiormente
rischiosi, che hanno maggiori margini di incertezza e, quindi, maggior contenuto
innovativo; mentre tra i progetti di grandi dimensioni (sempre relativi ad uno stesso
settore), che richiedono un impegno finanziario considerevole, la preferenza dovrebbe
andare a quelli che presentano una maggiore sicurezza nei risultati ottenibili, nei tempi e
nei costi complessivi di realizzazione. Guardando, invece che a progetti appartenenti ad
uno stesso settore, a diversi settori d’intervento, la funzione di utilità suggerisce una
preferenza per sostegni finanziari di dimensioni rilevanti a settori più tipicamente
tradizionali quali l’arte e, invece, una preferenza per sostegni finanziari più contenuti a
settori maggiormente orientati all’innovazione, quali la ricerca scientifica. Quindi, la
fondazione non dovrebbe evidenziare un atteggiamento netto e costante di propensione
o avversione al rischio, piuttosto dovrebbe mostrare un comportamento che tenda a
conciliare queste due opposte tendenze, finanziando progetti di dimensioni piccolo –
medie più rischiosi e progetti di grandi dimensioni meno rischiosi.
Cosa si può dire riguardo alla coerenza del comportamento adottato e delle scelte
effettuate dall’Ente CRF? In base ai dati messi a disposizione dalla fondazione CRF
può essere rilevata una certa tendenza a conciliare i due opposti atteggiamenti di
avversione e propensione al rischio, cercando un equilibrio tra i due. In altre parole non
sembra emergere nessuna preferenza netta per una tipologia di progetti o per un’altra.
Da una parte, infatti, si rileva una serie di elementi che possono essere considerati tipici
sintomi di un atteggiamento di fondamentale propensione al rischio: in primo luogo si
nota un crescente interesse per la ricerca scientifica con particolare riguardo per la
ricerca in campo sanitario che è andata a sostituire i più tipici contributi per l’acquisto
di macchinari e attrezzature per gli ospedali privilegiati in passato. Facendo un
confronto con i dati Acri del 2001, infatti, risulta che l’8,0% degli interventi dell’Ente
161
CRF è rivolto al settore della ricerca scientifica, là dove il dato nazionale è di appena il
3,8%; inoltre, anche considerando la percentuale di importi erogati (sempre per il 2001)
risulta un quadro analogo: 18,7% è la percentuale di contributi distribuita dall’Ente
contro il 7,8% del dato nazionale. Inoltre, non solo l’interesse volto alla ricerca
scientifica è maggiore rispetto alla media delle altre casse di risparmio, ma ha subito,
all’interno della stessa CRF, un incremento considerevole: dall’esercizio 1999/2000 al
2001 gli importi deliberati a suo favore sono aumentati del 10,8%.
Sono, inoltre, da considerare, sempre in un’ottica di propensione al rischio, la
decisione di abbandonare la logica degli interventi a pioggia a favore di interventi
pluriennali di importi più considerevoli. A questo proposito merita evidenziare come i
finanziamenti di piccolo importo (inferiori a 5.164 €) siano diminuiti, dal 1994 al 2000,
del 42,0%, mentre i finanziamenti di importo più consistente (superiori a 51.645€) sono
aumentati, nello stesso periodo di tempo, dell’11,0%.
Altro elemento di rilievo è la presa di coscienza dell’Ente come potenziale
promotore di iniziative, fatto che si sta traducendo in una sempre maggiore attenzione
volta ai progetti propri, concretizzatasi nella costituzione di importanti fondazioni, tra
cui la fondazione Progettare per Firenze, che porta avanti progetti di ricerca per
risolvere i problemi infrastrutturali della città. In particolare, nel 1999/2000, la
percentuale di importi erogati a favore di progetti propri ha raggiunto poco meno del
50% del totale degli importi erogati (percentuale che nel 1994 era di appena il 20,0%).
Si noti che tutti questi elementi apparirebbero irrazionali alla luce della funzione di
utilità risultante dal metodo inward TO: essa è, infatti, ovunque concava, suggerendo
così un atteggiamento di generale avversione al rischio.
Dall’altra parte, accanto a questi fattori, se ne rilevano altri che sono
maggiormente coerenti con un atteggiamento di avversione al rischio: tra questi emerge
la concentrazione dell’attività sui territori che si rifanno alla tradizione dell’originaria
Cassa di Risparmio (aree di Firenze, Arezzo, Empoli e Grosseto), tanto che i progetti
finanziati al di fuori di queste zone sono inesistenti; ma, soprattutto, si rileva che oltre
l’80,0% degli interventi si concentra nei settori più tradizionali dell’arte, della
conservazione e della beneficenza, sostanziandosi quasi esclusivamente in attività di
conservazione e restauro o di allestimenti di mostre. In particolare, il 42,0% degli
interventi deliberati nel 2001 coinvolgono i tradizionali settori dell’arte e della
162
conservazione dei beni artistici e ambientali, percentuale questa più elevata di quanto
risulta dai dati Acri per lo scenario nazionale: secondo questi ultimi, infatti, il settore
arte e cultura raccoglie il 28,9% degli interventi totali. Anche considerando la
percentuale di importi distribuiti abbiamo un quadro analogo: 46,0% gli importi erogati
dall’Ente a favore di arte e conservazione contro il 35,8% dei dati nazionali. E d’altra
parte è per espressa previsione dello Statuto che l’Ente include tra i propri scopi
principali la “rivalutazione delle specificità storicamente acquisite dalle antiche
comunità toscane”.
In conclusione, che cosa risulta dal quadro delineato? Come anticipato sopra, la
fondazione CRF cerca un equilibrio tra i due opposti atteggiamenti in modo
consapevole, infatti comprende tra i criteri di valutazione e selezione dei progetti il
valore tradizionale oppure innovativo degli stessi: quindi, entrambi gli elementi sono
presi in considerazione e gli viene attribuito uno stesso peso. Almeno in base ai dati a
disposizione (avere avuto il dettaglio degli importi investiti in ogni singolo progetto
avrebbe consentito un giudizio più completo) sembra, dunque, individuabile la ricerca
di un sostanziale equilibrio tra progetti più rischiosi e progetti meno rischiosi,
indipendentemente dalla classe dimensionale in cui gli stessi si collocano,
configurandosi, così, un atteggiamento di neutralità verso il rischio. Il giudizio finale
non è comunque negativo: la fondazione, coerentemente alla sua funzione di utilità, ha
cercato un equilibrio tra propensione e avversione al rischio, equilibrio che anziché
tradursi per una preferenza per progetti più rischiosi a livello di piccole dimensioni e
progetti meno rischiosi a livello di grandi dimensioni, si è tradotta nel cercare di
equidistribuire, ad ogni livello dimensionale, le risorse disponibili tra progetti più o
meno rischiosi. Quindi, la funzione di utilità risulta solo in parte contraddetta; il
suggerimento che può essere formulato per raggiungere una coerenza perfetta con la
propria struttura di preferenze è quello di cercare di raggiungere il suddetto equilibrio
accentuando i due diversi atteggiamenti verso il rischio a seconda delle dimensioni dei
progetti, nel senso indicato dalla funzione di utilità.
163
APPENDICE A
TESTO DEL QUESTIONARIO
164
Quesito 1)
Supponete di ricevere due diverse richieste da parte di due diversi gruppi di medici
per finanziare la costruzione di due distinti centri di cura: il primo (centro A) si
occuperà della cura di malati di sclerosi multipla, il secondo (centro B) della cura di
malati di distrofia muscolare. Il vostro interesse sta nel finanziare il centro di cura che
potrà realizzare il maggior numero di cicli di terapia nell’arco di un anno. Il numero di
cicli di terapia realizzabili dipende però da una legge, al momento ancora in
discussione, che se approvata, consentirà di incrementare il numero di malati che
possono essere accolti in una stessa stanza. Le forze politiche che si confrontano
sull’approvazione della legge sono sostanzialmente equilibrate, quindi può essere
attribuita una probabilità di circa il 50% al fatto che la legge venga approvata. Dite
quanti cicli di terapia devono essere svolti nel centro di cura B in caso di approvazione
della legge (valore di X1), affinché siate indifferenti tra finanziare la realizzazione di un
centro di cura piuttosto che l’altro.
N.B. Non esistono risposte “giuste” o “sbagliate”, la valutazione richiesta è di
carattere puramente soggettivo. L’unico vincolo è che i valori di X1, X2, X3, X4 siano
maggiori di 5000 e via via crescenti (quindi, dovrà risultare 5000 < X1 < X2 < X3 < X4),
perché in caso contrario il progetto del centro A presenterebbe risultati comunque
migliori di quelli del centro B e, quindi, non potremmo avere indifferenza tra i due
progetti.
LEGGE NON APPROVATA
LEGGE APPROVATA
CENTRO A
3519 5000 (=X0)
CENTRO B
847 X1
Sostituendo adesso X1 a 5000, dite quale deve essere il valore di X2 affinché voi
siate indifferenti tra i due diversi progetti di finanziamento:
165
LEGGE NON
APPROVATA LEGGE
APPROVATA CENTRO A
3519 X1
CENTRO B
847 X2
Sostituite adesso X2 ad X1, dicendo quale deve essere il valore di X3, affinché
rimaniate indifferenti tra i due progetti di finanziamento:
LEGGE NON
APPROVATA LEGGE
APPROVATA CENTRO A
3519 X2
CENTRO B
847 X3
Si sostituisca, infine, X3 a X2 e si determini il valore di X4 che rende indifferente la
scelta tra i due progetti di finanziamento:
LEGGE NON
APPROVATA LEGGE
APPROVATA
CENTRO A
3519 X3
CENTRO B
847 X4
166
Quesito 2)
Supponete di ricevere due distinte richieste da parte di due musei (A e B) per
finanziare, o comunque essere tra i maggiori sponsor, mostre di noti artisti. Voi avete
interesse a finanziare la mostra che ha il maggior numero di visitatori atteso. In
ambedue i casi le mostre avranno un maggior successo se ciascuna riuscirà ad esporre
un quadro attualmente in restauro. Sapendo che la probabilità che i restauri dei due
quadri (uno per mostra) siano completati in tempo per l’inizio delle due mostre è del
50% circa, dite quanti visitatori devono esserci alla mostra B, nel caso di mancato
restauro (valore X3), affinché per voi sia indifferente finanziare una mostra o l’altra.
N.B. Non esistono risposte “giuste” o “sbagliate”, la valutazione richiesta è di
carattere puramente soggettivo. L’unico vincolo è che i valori di X0, X1, X2, X3 siano
minori di 20000 e via via decrescenti (quindi, dovrà risultare 20000 > X3 > X2 > X1 >
X0), perché in caso contrario il progetto del museo A presenterebbe risultati comunque
peggiori di quelli del museo B e, quindi, non potremmo avere indifferenza tra i due
progetti.
RESTAURO
COMPLETATO RESTAURO NON COMPLETATO
MOSTRA A
26915 20000 (= X4)
MOSTRA B
33511 X3
Sostituendo X3 a 20000, si determini il valore di X2, affinché permanga
l’indifferenza tra il finanziamento di una mostra o dell’altra:
RESTAURO
COMPLETATO RESTAURO NON COMPLETATO
MOSTRA A
26915 X3
MOSTRA B
33511 X2
167
Si prosegua sostituendo X2 a X3 e determinando X1 e, quindi, sostituendo X1 a X2 e
determinando X0, in modo che, ogni volta, continui a rimanere per voi indifferente la
scelta tra finanziare una mostra o l’altra:
RESTAURO
COMPLETATO RESTAURO NON COMPLETATO
MOSTRA A
26915 X2
MOSTRA B
33511 X1
RESTAURO
COMPLETATO RESTAURO NON COMPLETATO
MOSTRA A
26915 X1
MOSTRA B
33511 X0
168
169
APPENDICE B
RISULTATI DEL QUESTIONARIO DIVISI PER METODO E PER SOGGETTO
170
METODO OUTWARD TRADE OFF
x0
OUT x1OUT x2
OUT x3OUT x4
OUT
Soggetto MPS1 5000 8395 11289 14370 18200 MPS2 5000 5001 5002 5003 5004 MPS3 5000 6000 6500 6800 7000 MPS4 5000 7700 10400 13100 15800 MPS5 5000 10000 20000 30000 40000 CRF1 5000 8000 13000 15000 16000 CRF2 5000 6000 8000 11000 15000 CRF3 5000 7000 9000 11000 13000 CRF4 5000 5001 5002 5003 5004 CRF5 5000 8000 11500 15000 20000 CRF6 5000 7500 9500 11000 12000 CRF7 5000 10000 15000 20000 28000 CRF8 5000 10500 12000 15000 18000
METODO INWARD TRADE OFF
x0
IN x1IN x2
IN x3IN x4
IN
Soggetto MPS1 12360 15280 16380 17613 20000 MPS2 19996 19997 19998 19999 20000 MPS3 17500 18200 19000 19400 20000 MPS4 10000 12500 15000 17500 20000 MPS5 2500 4800 9500 14800 20000 CRF1 5000 7000 12000 17000 20000 CRF2 13000 15000 16500 18000 20000 CRF3 8000 10000 12500 16000 20000 CRF4 19996 19997 19998 19999 20000 CRF5 2000 2500 3000 7000 20000 CRF6 10000 11000 13000 16000 20000 CRF7 5000 7000 10000 15000 20000 CRF8 800 2000 7000 13000 20000
171
Bibliografia
Acri (2001). Sesto rapporto sulle fondazioni bancarie. Roma.
Abdellaoui M. (2000). Parameter-free elicitation of utility and probability weighting
functions. Management Science, 46(11), 1497 – 1512.
Allais M. (1953). Le comportament de l’homme rationel devant le risque: critique des
axiom et postulates de l’ecole americane. Econometrica, 21(4), 503 – 546.
Arrow K.J. (1965). Aspects of the Theory of Risk-Bearing. Helsinki. Yrjö Hahnsson Foundation.
Bacci S., Chiandotto B. (2002) – Struttura di preferenze e decisioni razionali nelle
fondazioni bancarie. Studi e Note di Economia, n. 2.
Baron J., Brennan D.J., Ubel P.A., Weeks C., Wu Z. (2001). Analog scale, magnitude
estimation, and person trade-off as measures of health utility: biases and their
correction. www.sas.upenn.edu/˜baron/medu.htm.
Bell D.E., Raiffa H., Tversky A. (1988). Decision Making. Cambridge University Press.
Bini M., Chiandotto B. (2003). La valutazione del sistema universitario italiano alla
luce della riforma dei cicli e degli ordinamenti didattici. In Studi e Note di Economia, 2,
29-61.
Bleichrodt H., Pinto J.L., Wakker P. (2001). Making descriptive use of prospect theory
to improve the prescriptive use of expected utility.
www.fee.uva.nl/creed/wakker/pcf/corrsg.pdf.
172
Camerer C. (1989). An experimental test of several generalized utility theories. Journal
of risk and uncertainty, n° 2, pagg. 61 – 104.
Chajewska U., Getoor L., Norman J., Shahar Y. (1998). Utility elicitation as a
classification problem. www.sis.pitt.edu/∼dsl/UAI/UAI98/chajewska.UAI98.html.
Chiandotto B. (2002). Valutazione dei processi formativi: cosa, come e perché, in
D’Esposito M.R. (a cura di). Valutazione della Didattica e dei Servizi nel Sistema
Università. CUSL, Salerno.
Cohn R.A., Lewellen W.G., Lease R.C., Schlarbaum G.G. (1975). Individual investor
risk aversion and investment portfolio composition. The Journal of Finance, 30(2), 605
– 619.
Ellsberg D. (1961). Risk, ambiguity, and the Savage axioms. Quarterly Journal of
Economics, 75, 643 – 669.
Farquhar P.H. (1984). Utility assessment methods. Management Science, 30(11), 1283
– 1296.
Fennema H., Van Assen M. (1999). Measuring the utility of losses by means of the
tradeoff method. Journal of Risk and Uncertainty, 17(3), 277 – 295.
Fishburn P. (1988 a). Normative theories of decision making under risk and under
uncertainty. In Bell D.E., Raiffa H., Tversky A. Decision Making. Cambridge
University Press.
Fishburn P. (1988 b). Expected utility: an anniversary and a new era. Journal of Risk
and Uncertainty, 1, 267 – 283.
Fishburn P., Kochenberger G. A. (1979). Two-piece Von Neumann – Morgenstern
utility functions. Decision Sciences, 10, 503 – 518.
173
French S. (1986). Decision theory: an introduction to the mathematics and rationality.
Ellis Horwood Limited.
Friedman M., Savage L.J. (1948). The utility analysis of choices involving risk. The
Journal of Political Economy, 56(4), 279 – 304.
Gori E., Vittadini G. (1999). La valutazione dell’efficienza ed efficacia dei servizi alla
persona. Impostazioni e metodi. In (a cura di Gori E., Vittadini G.) Qualità e
valutazione nei servizi di pubblica utilità, ed. ETAS Libri, 121-241.
Ha V., Haddaway P. (1998). Toward case-based preference elicitation: similarity
mesures on preference structures. www.cs.uwm.edu/public/vu/papers/uai98.htm.
Hershey J.C., Kunreuther H.C., Schoemaker P.J.H. (1982). Sources of bias in
assessment procedures for utility functions. Management Science, 28, 936 – 953.
Hershey J.C., Schoemaker P.J.H. (1985). Probability versus certainty equivalence
methods in utility measurement: are they equivalent?. Management Science, 31(10),
1213 – 1231.
Herstein I.N., Milnor J. (1998). An axiomatic approach to measurable utility.
Econometrica, 21, 291 – 297.
Jansen S.J.T., Stiggelbout A.M., Wakker P., Vlieland T., Leer J.H., Nooy M.A., Kievit
J. (1998). Patiens’ utilities for cancer treatments. Medical Decision Making, 18, 391 –
399.
Kahneman D., Tversky A. (1979). Prospect theory: an analysis of decision under risk.
Econometrica, 47(2), 263 – 293.
174
Keller L.R. (1992). Properties of utility theories and related empirical phenomena. In
Edwards W. Utility theories: measurements and applications. Kluwer Academic
publishers.
Luce R.D., Fishburn P.C. (1991). Rank and sign dependent linear utility models for
finite first order gambles. Journal of Risk and Uncertainty, 4, 29–59.
Machina M.J. (1982). Expected utility analysis without the independence axiom. In
Econometrica, 50, n° 2, 227 – 323.
Markowitz H. (1952) - The utility of wealth. The Journal of Political Economy, 60,
151–158.
May K.O. (1954). Intransitivity, utility, and the aggregation of preference patterns.
Econometrica, 22, 1–13.
McCord M., De Neufville R. (1986). Lottery equivalents: reduction of the certainty
effect problem in utility assessment. Management Science, 32(1), 56–60.
Pratt J.W. (1964). Risk aversion in the small and in the large. Econometrica, 32(1–2),
122–136.
Puppe C. (1991). Distorted probabilities and choice under risk. Springer Verlag, Berlin.
Quiggin J. (1993). Generalized expected utility (the rank-dependent model). Kluwer
Academic Publishers.
Samuelson P. (1937). A note on measurement of utility. In review of Economic studies.
4(2), 155-161.
175
Slovic P., Fischhoff B., Lichtenstein S. (1988). Response mode, framing, and
information-processing effects in risk assessment. In Bell D.E., Raiffa H., Tversky A.
Decision Making. Cambridge University Press.
Szpiro G. (1986). Measuring risk aversion: an alternative approach. The Review of
Economics and Statistics, 68, 156–159.
Tversky A., Kahneman D. (1986). Rational choice and the framing of decisions.
Journal of Business, 59, 167–191.
Tversky A., Kahneman D. (1992). Advances in prospect theory: cumulative
representation of uncertainty. Journal of Risk and Uncertainty, 5, 297–323.
Von Neumann J., Morgenstern O. (1953). Theory of games and economic behavior.
Princeton University Press.
Wakker P., Deneffe D. (1996). Eliciting Von Neumann-Morgenstern utilities when
probabilities are distorted or unknown. Management Science, 42(8), 1131–1150.
Wakker P., Erev I., Weber E.U. (1994). Comonotic indipendence: the critical test
between classical and rank-dependent utility theories. In Journal of risk and
uncertainty, 8, 191 – 230.
Wakker P., Köbberling V. (2000). An index of loss aversion.
www.fee.uva.nl/creed/wakker/pdf/indexlav.pdf .
Williams A.C. (1966). Attitudes toward speculative risks as an indicator of attitudes
toward risks. In Journal of risk and insurance, 33, 577 – 586.
Yaari M. (1969). Some remarks on measures of risk aversion studies and their uses. In
Journal of Economic Theory, 1, 315-329.
176
177
PROGETTO CAMPUSONE - Rapporti di ricerca
Collana VALMON
La tiratura prevista per ciascuno degli 12 volumi della collana è di 500 copie, gli
stessi vengono resi disponibili sul sito di Ateneo e sul sito VALMON in formato
elettronico in modo da facilitarne la consultazione da parte di tutti gli interessati.
1. I laureati e diplomati dell’Ateneo fiorentino dell’anno 1999: profilo e sbocchi occupazionali.
2. Decisioni razionali per il governo dell’Università, un prerequisito essenziale: la teoria dell’utilità.
3. Valutazione ed autovalutazione dei docenti, valutazione delle modalità di svolgimento delle prove d’esame e misura del carico didattico.
4. I laureati e diplomati dell’Ateneo fiorentino dell’anno 2000: profilo e sbocchi occupazionali.
5. Valutazione dei processi formativi di terzo livello: il caso dell’Università di Firenze.
6. Abbandono degli studi nell’Ateneo fiorentino durante il periodo 1980-2001.
7. Tempi di conseguimento del titolo nell’Ateneo fiorentino durante il periodo 1980-2000.
8. L’opinione degli studenti frequentanti sulla didattica svolta nell’Ateneo fiorentino negli a.a. 2001/02, 2002/03 e 2003/04.
9. Valutazione della didattica, delle strutture e dei servizi di supporto alla didattica da parte degli studenti frequentanti e non frequentanti iscritti nell’a.a. 2001/02.
10. I laureati e diplomati dell’Ateneo fiorentino dell’anno 2001: profilo e sbocchi occupazionali.
11. I laureati e diplomati dell’Ateneo fiorentino dell’anno 2002: profilo e sbocchi occupazionali.
12. Valutazione dei processi formativi di terzo livello:contributi metodologici.