dipartimento di fisica e astronomia - …caratteristiche associate a grandezze misurabili. – p....
TRANSCRIPT
POPOLAZIONE E CAMPIONI
POPOLAZIONE insieme di tutti quegli elementi chehanno almeno una caratteristica comune (persone,oggetti,misure, osservazioni). Consideriamo il caso dicaratteristiche associate a grandezze misurabili.
– p. 1/24
POPOLAZIONE E CAMPIONI
POPOLAZIONE insieme di tutti quegli elementi chehanno almeno una caratteristica comune (persone,oggetti,misure, osservazioni). Consideriamo il caso dicaratteristiche associate a grandezze misurabili.
CAMPIONE sottoinsieme finito di elementi estratti acaso dalla popolazione.
– p. 1/24
POPOLAZIONE E CAMPIONI
POPOLAZIONE insieme di tutti quegli elementi chehanno almeno una caratteristica comune (persone,oggetti,misure, osservazioni). Consideriamo il caso dicaratteristiche associate a grandezze misurabili.
CAMPIONE sottoinsieme finito di elementi estratti acaso dalla popolazione.
VARIABILE CASUALE X: funzione che associa inmodo univoco ad ogni elemento del campione unnumero reale.
– p. 1/24
POPOLAZIONE E CAMPIONI
– p. 2/24
VARIABILI CASUALI
variabile casuale o aleatoria: grandezza che può assumere nel corsodi una prova un valore sconosciuto a priori. Legata al verificarsi di unevento casuale.
– p. 3/24
VARIABILI CASUALI
variabile casuale o aleatoria: grandezza che può assumere nel corsodi una prova un valore sconosciuto a priori. Legata al verificarsi di unevento casuale.
Funzione X che associa ad ogni elemento dello spazio dei risultati(popolazione) S = {E1, E2, · · · · · ·} uno e un solo numero reale:X(Ei) = xi
– p. 3/24
VARIABILI CASUALI
variabile casuale o aleatoria: grandezza che può assumere nel corsodi una prova un valore sconosciuto a priori. Legata al verificarsi di unevento casuale.
Funzione X che associa ad ogni elemento dello spazio dei risultati(popolazione) S = {E1, E2, · · · · · ·} uno e un solo numero reale:X(Ei) = xi
variabile casuale discreta: assume valori entro un insieme finito onumerabile (corrispondenza univoca con i numeri naturali)
– p. 3/24
VARIABILI CASUALI
variabile casuale o aleatoria: grandezza che può assumere nel corsodi una prova un valore sconosciuto a priori. Legata al verificarsi di unevento casuale.
Funzione X che associa ad ogni elemento dello spazio dei risultati(popolazione) S = {E1, E2, · · · · · ·} uno e un solo numero reale:X(Ei) = xi
variabile casuale discreta: assume valori entro un insieme finito onumerabile (corrispondenza univoca con i numeri naturali)
variabile casuale continua: assume valori entro un insieme nonnumerabile (corrispondenza univoca con i numeri reali).
– p. 3/24
VARIABILI CASUALI ↔ MISURE
Un insieme finito di operazioni di misura può esserepensato come un campione, cioè un particolaresottoinsieme formato da elementi estratti a casodall’insieme di tutte le infinite possibili operazioni dimisura (popolazione) che potrebbero essere effettuatesulla stessa grandezza fisica, eseguite col medesimostrumento e sfruttando le medesime procedure.
– p. 4/24
VARIABILI CASUALI ↔ MISURE
Un insieme finito di operazioni di misura può esserepensato come un campione, cioè un particolaresottoinsieme formato da elementi estratti a casodall’insieme di tutte le infinite possibili operazioni dimisura (popolazione) che potrebbero essere effettuatesulla stessa grandezza fisica, eseguite col medesimostrumento e sfruttando le medesime procedure.
Il risultato numerico di una misura affetta da erroricasuali è una variabile casuale.
– p. 4/24
VARIABILI CASUALI DISCRETE
Hp: Ogni evento Ei abbia una probabilità pi di verificarsi
– p. 5/24
VARIABILI CASUALI DISCRETE
Hp: Ogni evento Ei abbia una probabilità pi di verificarsi
Gli elementi di S = {E1, E2, · · · · · ·} sono incompatibili edefiniscano l’intero spazio dei risultati →
∑
i=1pi = 1
(probabilità totale).
– p. 5/24
VARIABILI CASUALI DISCRETE
Hp: Ogni evento Ei abbia una probabilità pi di verificarsi
Gli elementi di S = {E1, E2, · · · · · ·} sono incompatibili edefiniscano l’intero spazio dei risultati →
∑
i=1pi = 1
(probabilità totale).
Analogia con il caso di una serie di N misure ripetute.Infatti, i risultati possono essere raggruppati in M classidi frequenza relativa fi = ni/N tali che∑
M
i=1fi = 1 e
∑
M
i=1ni = N .
– p. 5/24
VARIABILI CASUALI DISCRETE
Hp: Ogni evento Ei abbia una probabilità pi di verificarsi
Gli elementi di S = {E1, E2, · · · · · ·} sono incompatibili edefiniscano l’intero spazio dei risultati →
∑
i=1pi = 1
(probabilità totale).
Analogia con il caso di una serie di N misure ripetute.Infatti, i risultati possono essere raggruppati in M classidi frequenza relativa fi = ni/N tali che∑
M
i=1fi = 1 e
∑
M
i=1ni = N .
Dal teorema di Bernoulli sappiamo che se N → ∞allora f → p, per cui ritroviamo la relazione precedente.
– p. 5/24
VARIABILI CASUALI DISCRETE
Hp: Ogni evento Ei abbia una probabilità pi di verificarsi
Gli elementi di S = {E1, E2, · · · · · ·} sono incompatibili edefiniscano l’intero spazio dei risultati →
∑
i=1pi = 1
(probabilità totale).
Analogia con il caso di una serie di N misure ripetute.Infatti, i risultati possono essere raggruppati in M classidi frequenza relativa fi = ni/N tali che∑
M
i=1fi = 1 e
∑
M
i=1ni = N .
Dal teorema di Bernoulli sappiamo che se N → ∞allora f → p, per cui ritroviamo la relazione precedente.
Un campione di misure ripetute in identiche condizionidella stessa grandezza corrisponde ad eventiincompatibili. Se N è molto grande, vale la condizionedi normalizzazione delle frequenze relative.
– p. 5/24
DISTRIBUZIONI DI PROBABILITÀ
Distribuzione di probabilità P (X) di una variabilecasuale X:relazione che stabilisce una corrispondenza univoca tra ivalori di tale variabile e la loro probabilità.
– p. 6/24
DISTRIBUZIONI DI PROBABILITÀ
Distribuzione di probabilità P (X) di una variabilecasuale X:relazione che stabilisce una corrispondenza univoca tra ivalori di tale variabile e la loro probabilità.
– p. 6/24
DISTRIBUZIONI DI PROBABILITÀ
Prova o esperimento: lancio di un dado
– p. 7/24
DISTRIBUZIONI DI PROBABILITÀ
Prova o esperimento: lancio di un dado
Variabile casuale: numero uscitoX = {1, 2, 3, 4, 5, 6}
– p. 7/24
DISTRIBUZIONI DI PROBABILITÀ
Prova o esperimento: lancio di un dado
Variabile casuale: numero uscitoX = {1, 2, 3, 4, 5, 6}
Distribuzione di probabilità:P (X) = {1/6, 1/6, 1/6, 1/6, 1/6, 1/6}
– p. 7/24
DISTRIBUZIONI DI PROBABILITÀ
Prova o esperimento: lancio di 2 dadi
– p. 8/24
DISTRIBUZIONI DI PROBABILITÀ
Prova o esperimento: lancio di 2 dadi
Variabile casuale: somma dei punteggi X = 2, 3, 4, · · · 12
undici elementi → Xi = i + 1; i = 1, 2, 3, ...11
– p. 8/24
DISTRIBUZIONI DI PROBABILITÀ
Prova o esperimento: lancio di 2 dadi
Variabile casuale: somma dei punteggi X = 2, 3, 4, · · · 12
undici elementi → Xi = i + 1; i = 1, 2, 3, ...11
Il numero di possibili coppie è 62. Dobbiamo considerarele combinazioni che corrispondono alla stessa sommadei punteggi, e.g. 4 = 1 + 3 = 2 + 2 = 3 + 1, 3 eventiincompatibili (probabilità totale).
– p. 8/24
DISTRIBUZIONI DI PROBABILITÀ
Prova o esperimento: lancio di 2 dadi
Variabile casuale: somma dei punteggi X = 2, 3, 4, · · · 12
undici elementi → Xi = i + 1; i = 1, 2, 3, ...11
Il numero di possibili coppie è 62. Dobbiamo considerarele combinazioni che corrispondono alla stessa sommadei punteggi, e.g. 4 = 1 + 3 = 2 + 2 = 3 + 1, 3 eventiincompatibili (probabilità totale).
Si noti che nel lancio di due dadi, l’uscita di due numericorrisponde a 2 eventi compatibili indipendenti(probabilità composta).
– p. 8/24
DISTRIBUZIONI DI PROBABILITÀ
Prova o esperimento: lancio di 2 dadi
Variabile casuale: somma dei punteggi X = 2, 3, 4, · · · 12
undici elementi → Xi = i + 1; i = 1, 2, 3, ...11
Il numero di possibili coppie è 62. Dobbiamo considerarele combinazioni che corrispondono alla stessa sommadei punteggi, e.g. 4 = 1 + 3 = 2 + 2 = 3 + 1, 3 eventiincompatibili (probabilità totale).
Si noti che nel lancio di due dadi, l’uscita di due numericorrisponde a 2 eventi compatibili indipendenti(probabilità composta).
Quindi P (4) = P (1, 3) + P (2, 2) + P (3, 1) =
1/6 · 1/6 + 1/6 · 1/6 + 1/6 · 1/6 = 3/36– p. 8/24
DISTRIBUZIONI DI PROBABILITÀ
La distribuzione di probabilità risultante è:
– p. 9/24
DISTRIBUZIONI DI PROBABILITÀ
– p. 10/24
DISTRIBUZIONI DI PROBABILITÀ
– p. 11/24
FUNZIONE DI DISTRIBUZIONE CUMULATIVA
La funzione di distribuzione cumulativa associa ad ogni valore x dellavariabile casuale X la somma delle probabilità che la stessa assumavalori ≤ x.
F (x) = P (X, x) =∑
xi≤x
p(xi)
– p. 12/24
FUNZIONE DI DISTRIBUZIONE CUMULATIVA
La funzione di distribuzione cumulativa associa ad ogni valore x dellavariabile casuale X la somma delle probabilità che la stessa assumavalori ≤ x.
F (x) = P (X, x) =∑
xi≤x
p(xi)
Nel caso del lancio di un dado si avra’
– p. 12/24
FUNZIONE DI DISTRIBUZIONE CUMULATIVA
La funzione di distribuzione cumulativa associa ad ogni valore x dellavariabile casuale X la somma delle probabilità che la stessa assumavalori ≤ x.
F (x) = P (X, x) =∑
xi≤x
p(xi)
Nel caso del lancio di un dado si avra’
Nel caso di variabili discrete è rappresentata da una funzione agradini, non decrescente, che raggiunge il massimo a 1.
– p. 12/24
VALORE DI ASPETTAZIONE
Il valore di aspettazione o speranza matematica di una variabilecasuale discreta X è
E(x) =∑
i pixi
– p. 13/24
VALORE DI ASPETTAZIONE
Il valore di aspettazione o speranza matematica di una variabilecasuale discreta X è
E(x) =∑
i pixi
Terminologia inglese: expected value
– p. 13/24
VALORE DI ASPETTAZIONE
Il valore di aspettazione o speranza matematica di una variabilecasuale discreta X è
E(x) =∑
i pixi
Terminologia inglese: expected value
Il valore medio della variabile X su un campione finito di dimensioneN , suddiviso in M gruppi è
x̄ =∑M
i=1fixi
Sappiamo che fi → pi per N → +∞ (Th. di Bernoulli).
– p. 13/24
VALORE DI ASPETTAZIONE
Il valore di aspettazione o speranza matematica di una variabilecasuale discreta X è
E(x) =∑
i pixi
Terminologia inglese: expected value
Il valore medio della variabile X su un campione finito di dimensioneN , suddiviso in M gruppi è
x̄ =∑M
i=1fixi
Sappiamo che fi → pi per N → +∞ (Th. di Bernoulli).
x̄ → E(x) per N → ∞: importante, abbiamo collegato la mediaaritmetica osservata alla distribuzione teorica!!!
– p. 13/24
VALORE DI ASPETTAZIONE
Il valore di aspettazione o speranza matematica di una variabilecasuale discreta X è
E(x) =∑
i pixi
Terminologia inglese: expected value
Il valore medio della variabile X su un campione finito di dimensioneN , suddiviso in M gruppi è
x̄ =∑M
i=1fixi
Sappiamo che fi → pi per N → +∞ (Th. di Bernoulli).
x̄ → E(x) per N → ∞: importante, abbiamo collegato la mediaaritmetica osservata alla distribuzione teorica!!!
E(x) può non esistere, la serie non converge; E(x) può nonappartenere al dominio di X .
– p. 13/24
VALORE DI ASPETTAZIONE (caso discreto)
Lancio del dado (uscita di una faccia)E(x) = 1/6 · 1 + 1/6 · 2...1/6 · 6 = 21
6= 3.5
– p. 14/24
VALORE DI ASPETTAZIONE (caso discreto)
Lancio del dado (uscita di una faccia)E(x) = 1/6 · 1 + 1/6 · 2...1/6 · 6 = 21
6= 3.5
Lancio di 2 dadi (somma dei punteggi)E(x) = 1·2+2·3+3·4+4·5+5·6+6·7+5·8+4·9+3·10+2·11+1·12
36= 7
– p. 14/24
INFORMAZIONI
Prossime lezioniGiorno Ora Dove17/02 14:30 P5019/02 14:30 LABORATORIO (Via Loredan)24/02 14:30 P50 ? da definirsi26/02 14:30 Aula informatica (6 gruppi)03/03 14:30 P5005/03 14:30 Aula informatica (6 gruppi)
– p. 15/24
INFORMAZIONI
Prossime lezioniGiorno Ora Dove17/02 14:30 P5019/02 14:30 LABORATORIO (Via Loredan)24/02 14:30 P50 ? da definirsi26/02 14:30 Aula informatica (6 gruppi)03/03 14:30 P5005/03 14:30 Aula informatica (6 gruppi)
Decidere la spartizione tra i 2 due turni per l’aula inform.
– p. 15/24
VALORE DI ASPETTAZIONE
Il valore di aspettazione o speranza matematica di una variabilecasuale discreta X è
E(x) =∑
i pixi
– p. 16/24
VALORE DI ASPETTAZIONE
Il valore di aspettazione o speranza matematica di una variabilecasuale discreta X è
E(x) =∑
i pixi
Terminologia inglese: expected value
– p. 16/24
VALORE DI ASPETTAZIONE
Il valore di aspettazione o speranza matematica di una variabilecasuale discreta X è
E(x) =∑
i pixi
Terminologia inglese: expected value
Il valore medio della variabile X su un campione finito di dimensioneN , suddiviso in M gruppi è
x̄ =∑M
i=1fixi
Sappiamo che fi → pi per N → +∞ (Th. di Bernoulli).
– p. 16/24
VALORE DI ASPETTAZIONE
Il valore di aspettazione o speranza matematica di una variabilecasuale discreta X è
E(x) =∑
i pixi
Terminologia inglese: expected value
Il valore medio della variabile X su un campione finito di dimensioneN , suddiviso in M gruppi è
x̄ =∑M
i=1fixi
Sappiamo che fi → pi per N → +∞ (Th. di Bernoulli).
x̄ → E(x) per N → ∞: importante, abbiamo collegato la mediaaritmetica osservata alla distribuzione teorica!!!
– p. 16/24
VALORE DI ASPETTAZIONE
Il valore di aspettazione o speranza matematica di una variabilecasuale discreta X è
E(x) =∑
i pixi
Terminologia inglese: expected value
Il valore medio della variabile X su un campione finito di dimensioneN , suddiviso in M gruppi è
x̄ =∑M
i=1fixi
Sappiamo che fi → pi per N → +∞ (Th. di Bernoulli).
x̄ → E(x) per N → ∞: importante, abbiamo collegato la mediaaritmetica osservata alla distribuzione teorica!!!
E(x) può non esistere, la serie non converge; E(x) può nonappartenere al dominio di X .
– p. 16/24
VARIANZA DI UNA DISTRIBUZIONE DISCRETA
Errore di una variabile casuale: x − E(x)
– p. 17/24
VARIANZA DI UNA DISTRIBUZIONE DISCRETA
Errore di una variabile casuale: x − E(x)
Varianza: definita come il valore di aspettazione dellavariabile casuale [x − E(x)]2
V ar(x) = σ2x= E
{
[x − E(x)]2}
=∑
ipi[xi − E(x)]2
– p. 17/24
VARIANZA DI UNA DISTRIBUZIONE DISCRETA
Errore di una variabile casuale: x − E(x)
Varianza: definita come il valore di aspettazione dellavariabile casuale [x − E(x)]2
V ar(x) = σ2x= E
{
[x − E(x)]2}
=∑
ipi[xi − E(x)]2
Si dimostra che:σ2
x= E(x2) − [E(x)]2
– p. 17/24
VARIANZA DI UNA DISTRIBUZIONE DISCRETA
Errore di una variabile casuale: x − E(x)
Varianza: definita come il valore di aspettazione dellavariabile casuale [x − E(x)]2
V ar(x) = σ2x= E
{
[x − E(x)]2}
=∑
ipi[xi − E(x)]2
Si dimostra che:σ2
x= E(x2) − [E(x)]2
Deviazione standard o errore quadratico medio σx:radice quadrata della varianza.
– p. 17/24
COMBINAZIONI LINEARI: VALORE DI ASPETTAZIONE
Sia f = ax + by + cz · · ·, con a, b, c coefficienti costanti
– p. 18/24
COMBINAZIONI LINEARI: VALORE DI ASPETTAZIONE
Sia f = ax + by + cz · · ·, con a, b, c coefficienti costanti
Siano E(x), E(y), E(z), · · · i valori di aspettazione
– p. 18/24
COMBINAZIONI LINEARI: VALORE DI ASPETTAZIONE
Sia f = ax + by + cz · · ·, con a, b, c coefficienti costanti
Siano E(x), E(y), E(z), · · · i valori di aspettazione
Si dimostra che:
– p. 18/24
COMBINAZIONI LINEARI: VALORE DI ASPETTAZIONE
Sia f = ax + by + cz · · ·, con a, b, c coefficienti costanti
Siano E(x), E(y), E(z), · · · i valori di aspettazione
Si dimostra che:
E(f) = aE(x) + bE(y) + cE(z) · · ·
– p. 18/24
COMBINAZIONI LINEARI: VALORE DI ASPETTAZIONE
Sia f = ax + by + cz · · ·, con a, b, c coefficienti costanti
Siano E(x), E(y), E(z), · · · i valori di aspettazione
Si dimostra che:
E(f) = aE(x) + bE(y) + cE(z) · · ·
La media aritmetica può essere vista come combinazionelineare delle N misure, con coefficienti tutti uguali a 1/N .
– p. 18/24
COMBINAZIONI LINEARI: VALORE DI ASPETTAZIONE
Sia f = ax + by + cz · · ·, con a, b, c coefficienti costanti
Siano E(x), E(y), E(z), · · · i valori di aspettazione
Si dimostra che:
E(f) = aE(x) + bE(y) + cE(z) · · ·
La media aritmetica può essere vista come combinazionelineare delle N misure, con coefficienti tutti uguali a 1/N .
Applicando il teorema si ottiene E(x̄) = E(x)
– p. 18/24
COMBINAZIONI LINEARI: VALORE DI ASPETTAZIONE
Sia f = ax + by + cz · · ·, con a, b, c coefficienti costanti
Siano E(x), E(y), E(z), · · · i valori di aspettazione
Si dimostra che:
E(f) = aE(x) + bE(y) + cE(z) · · ·
La media aritmetica può essere vista come combinazionelineare delle N misure, con coefficienti tutti uguali a 1/N .
Applicando il teorema si ottiene E(x̄) = E(x)
Il valore di aspettazione della popolazione delle mediearitmetiche dei campioni di dimensione finita N coincidecon il valore di aspettazione della popolazione stessa.
– p. 18/24
COMBINAZIONI LINEARI: VARIANZA
Hp: le variabili x,y, z siano statisticamente indipendenti, cioècorrispondenti ad eventi compatibili indipendenti.
– p. 19/24
COMBINAZIONI LINEARI: VARIANZA
Hp: le variabili x,y, z siano statisticamente indipendenti, cioècorrispondenti ad eventi compatibili indipendenti.
Si dimostra che:σf
2 = a2σx2 + b2σy
2 + c2σz2 + · · ·
– p. 19/24
COMBINAZIONI LINEARI: VARIANZA
Hp: le variabili x,y, z siano statisticamente indipendenti, cioècorrispondenti ad eventi compatibili indipendenti.
Si dimostra che:σf
2 = a2σx2 + b2σy
2 + c2σz2 + · · ·
Una combinazione lineare, a coefficienti costanti, di due variabilicasuali statisticamente indipendenti ha varianza uguale allacombinazione lineare delle rispettive varianze, con coefficienti pari aiquadrati dei coefficienti rispettivi.
– p. 19/24
COMBINAZIONI LINEARI: VARIANZA
Hp: le variabili x,y, z siano statisticamente indipendenti, cioècorrispondenti ad eventi compatibili indipendenti.
Si dimostra che:σf
2 = a2σx2 + b2σy
2 + c2σz2 + · · ·
Una combinazione lineare, a coefficienti costanti, di due variabilicasuali statisticamente indipendenti ha varianza uguale allacombinazione lineare delle rispettive varianze, con coefficienti pari aiquadrati dei coefficienti rispettivi.
Ritrovere questo risultato nell’ambito della propagazione degli errorinelle misure effettuate con metodi indiretti.
– p. 19/24
COMBINAZIONI LINEARI: VARIANZA
Hp: le variabili x,y, z siano statisticamente indipendenti, cioècorrispondenti ad eventi compatibili indipendenti.
Si dimostra che:σf
2 = a2σx2 + b2σy
2 + c2σz2 + · · ·
Una combinazione lineare, a coefficienti costanti, di due variabilicasuali statisticamente indipendenti ha varianza uguale allacombinazione lineare delle rispettive varianze, con coefficienti pari aiquadrati dei coefficienti rispettivi.
Ritrovere questo risultato nell’ambito della propagazione degli errorinelle misure effettuate con metodi indiretti.
Due variabili casuali che differiscano per una quantità costantehanno la stessa varianza.t = x + cost. → σ2
t = σ2x (→...gli errori sistematici non alterano la
precisione dei dati...)
– p. 19/24
L’ERRORE QUADRATICO MEDIO DELLA MEDIA
Variabile casuale: media aritmetica x̄ = 1N
∑
N
i=1 xi:combinazione lineare delle N misure con coefficientiuguali a 1/N
– p. 20/24
L’ERRORE QUADRATICO MEDIO DELLA MEDIA
Variabile casuale: media aritmetica x̄ = 1N
∑
N
i=1 xi:combinazione lineare delle N misure con coefficientiuguali a 1/N
Varianza σx̄2 =
1
N 2
N∑
i=1
σxi
2 =1
N 2· Nσx
2
σx̄2 =
σx2
N
– p. 20/24
L’ERRORE QUADRATICO MEDIO DELLA MEDIA
Variabile casuale: media aritmetica x̄ = 1N
∑
N
i=1 xi:combinazione lineare delle N misure con coefficientiuguali a 1/N
Varianza σx̄2 =
1
N 2
N∑
i=1
σxi
2 =1
N 2· Nσx
2
σx̄2 =
σx2
N
IMPLICAZIONI: L’errore quadratico medio della media diun campione
– p. 20/24
L’ERRORE QUADRATICO MEDIO DELLA MEDIA
Variabile casuale: media aritmetica x̄ = 1N
∑
N
i=1 xi:combinazione lineare delle N misure con coefficientiuguali a 1/N
Varianza σx̄2 =
1
N 2
N∑
i=1
σxi
2 =1
N 2· Nσx
2
σx̄2 =
σx2
N
IMPLICAZIONI: L’errore quadratico medio della media diun campione
è minore dell’analogo errore delle singole misure.
– p. 20/24
L’ERRORE QUADRATICO MEDIO DELLA MEDIA
Variabile casuale: media aritmetica x̄ = 1N
∑
N
i=1 xi:combinazione lineare delle N misure con coefficientiuguali a 1/N
Varianza σx̄2 =
1
N 2
N∑
i=1
σxi
2 =1
N 2· Nσx
2
σx̄2 =
σx2
N
IMPLICAZIONI: L’errore quadratico medio della media diun campione
è minore dell’analogo errore delle singole misure.
tende a zero al crescere del numero di misure effettuato.
– p. 20/24
DISTRIBUZIONE UNIFORME DISCRETALa funzione di distribuzione di probabilità assume lo stesso valoreper tutti i valori della variabile casuale: p(x) = p per ogni x = 1, · · ·n
– p. 21/24
DISTRIBUZIONE UNIFORME DISCRETALa funzione di distribuzione di probabilità assume lo stesso valoreper tutti i valori della variabile casuale: p(x) = p per ogni x = 1, · · ·n
Dalla condizione di normalizzazione: → pi = 1/n
– p. 21/24
DISTRIBUZIONE UNIFORME DISCRETALa funzione di distribuzione di probabilità assume lo stesso valoreper tutti i valori della variabile casuale: p(x) = p per ogni x = 1, · · ·n
Dalla condizione di normalizzazione: → pi = 1/n
Valore si aspettazione
E(x) = 1·1/n+2·1/n · · ·n·1/n = 1/n =1
n
n∑
i=1
i =1
n
n(n + 1)
2=
n + 1
2
(Si è usata la relazionen
X
i=1
i =n(n + 1)
2dalla teoria delle progressioni aritmetiche )
– p. 21/24
DISTRIBUZIONE UNIFORME DISCRETALa funzione di distribuzione di probabilità assume lo stesso valoreper tutti i valori della variabile casuale: p(x) = p per ogni x = 1, · · ·n
Dalla condizione di normalizzazione: → pi = 1/n
Valore si aspettazione
E(x) = 1·1/n+2·1/n · · ·n·1/n = 1/n =1
n
n∑
i=1
i =1
n
n(n + 1)
2=
n + 1
2
(Si è usata la relazionen
X
i=1
i =n(n + 1)
2dalla teoria delle progressioni aritmetiche )
Varianza:
σ2 =
∑n
i=1i2
n−
(∑n
i=1i
n
)2
=(n + 1)(2n + 1)
6−
(n + 1)2
4=
n + 1
2
(
2n + 1
3−
n + 1
2
)
=n + 1
2·4n + 2 − 3n − 3
6=
n2 − 1
12
(Si è usata la relazioneP
n
i=1 i2 =
n(n+1)(2n+1)6
)
– p. 21/24
DISTRIBUZIONE UNIFORME DISCRETALa funzione di distribuzione di probabilità assume lo stesso valoreper tutti i valori della variabile casuale: p(x) = p per ogni x = 1, · · ·n
Dalla condizione di normalizzazione: → pi = 1/n
Valore si aspettazione
E(x) = 1·1/n+2·1/n · · ·n·1/n = 1/n =1
n
n∑
i=1
i =1
n
n(n + 1)
2=
n + 1
2
(Si è usata la relazionen
X
i=1
i =n(n + 1)
2dalla teoria delle progressioni aritmetiche )
Varianza:
σ2 =
∑n
i=1i2
n−
(∑n
i=1i
n
)2
=(n + 1)(2n + 1)
6−
(n + 1)2
4=
n + 1
2
(
2n + 1
3−
n + 1
2
)
=n + 1
2·4n + 2 − 3n − 3
6=
n2 − 1
12
(Si è usata la relazioneP
n
i=1 i2 =
n(n+1)(2n+1)6
)
Il valore di aspettazione e la varianza del punteggio associato allancio di un dado sono : E(x) = 6+1
2= 3.5 e σ2 = 36−1
12∼ 2.92
– p. 21/24
ESERCIZI
Data una serie di n misure {mi}, come cambiano mediaaritmetica e scarto quadratico medio se ogni misura
è moltiplicata per 2: yi = 2 · xi ?è incrementata di 2: yi = 2 + xi ?
– p. 22/24
ESERCIZI
Considera la seguente distribuzione di frequenza. Qualè la frequenza mancante nella posizione occupatadall’asterisco?
Classi Freq. ass. Freq. cumulata in %
fino a 584 1 4.00%
584 − |1774.4 * 64.00%
1774.4 − |2964.8 4 80.00%
2964.8 − |4155.2 3 92.00%
4155.2 − |5345.6 1 92.00%
più di 5345.6 1 100.00%
A)25 B)15 C)16 D)3
– p. 23/24
ESERCIZI
Data la seguente distribuzione di probabilità:x 0 1 2 3 4 5 6
P (x) 0.17 0.19 0.23 0.16 0.14 0.14 0.07
Quale delle seguenti affermazioni è vera?
A)P (X > 3) = 0.51 B)P (X ≤ 3) = 0.65
C)P (2 ≤ X ≤ 5) = 0.33 D)P (X < 6) = 1
– p. 24/24