Anteprima
Vedrai una selezione di 19 pagine su 90
Probabilità e Statistica Pag. 1 Probabilità e Statistica Pag. 2
Anteprima di 19 pagg. su 90.
Scarica il documento per vederlo tutto.
Probabilità e Statistica Pag. 6
Anteprima di 19 pagg. su 90.
Scarica il documento per vederlo tutto.
Probabilità e Statistica Pag. 11
Anteprima di 19 pagg. su 90.
Scarica il documento per vederlo tutto.
Probabilità e Statistica Pag. 16
Anteprima di 19 pagg. su 90.
Scarica il documento per vederlo tutto.
Probabilità e Statistica Pag. 21
Anteprima di 19 pagg. su 90.
Scarica il documento per vederlo tutto.
Probabilità e Statistica Pag. 26
Anteprima di 19 pagg. su 90.
Scarica il documento per vederlo tutto.
Probabilità e Statistica Pag. 31
Anteprima di 19 pagg. su 90.
Scarica il documento per vederlo tutto.
Probabilità e Statistica Pag. 36
Anteprima di 19 pagg. su 90.
Scarica il documento per vederlo tutto.
Probabilità e Statistica Pag. 41
Anteprima di 19 pagg. su 90.
Scarica il documento per vederlo tutto.
Probabilità e Statistica Pag. 46
Anteprima di 19 pagg. su 90.
Scarica il documento per vederlo tutto.
Probabilità e Statistica Pag. 51
Anteprima di 19 pagg. su 90.
Scarica il documento per vederlo tutto.
Probabilità e Statistica Pag. 56
Anteprima di 19 pagg. su 90.
Scarica il documento per vederlo tutto.
Probabilità e Statistica Pag. 61
Anteprima di 19 pagg. su 90.
Scarica il documento per vederlo tutto.
Probabilità e Statistica Pag. 66
Anteprima di 19 pagg. su 90.
Scarica il documento per vederlo tutto.
Probabilità e Statistica Pag. 71
Anteprima di 19 pagg. su 90.
Scarica il documento per vederlo tutto.
Probabilità e Statistica Pag. 76
Anteprima di 19 pagg. su 90.
Scarica il documento per vederlo tutto.
Probabilità e Statistica Pag. 81
Anteprima di 19 pagg. su 90.
Scarica il documento per vederlo tutto.
Probabilità e Statistica Pag. 86
1 su 90
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Formattazione del testo

X,Yx→−∞lim F (x, y) = 0 ∀x .X,Yy→−∞lim F (x, y) = 1 .X,Yx→+∞,y→+∞x < x ∧ y < y ⇒Se 1 2 1 2P[x < X ≤ x , y < Y ≤ y ] = F (x , y ) + F (x , y ) − F (x , y ) − F (x , y ) ≥ 01 2 1 2 X,Y 2 2 X,Y 1 1 X,Y 1 2 X,Y 2 1lim F (x + h, y) = lim F (x, y + h) = lim F (x, y) continuità a destra.X,Y X,Y X,Y+ + +h→0 h→0 h→0Funzioni di densità marginaliX, Y variabili casuali congiunte discreteDate ∑ ∑F (x̄, ȳ) = f (x , y )X,Y X,Y i ix ≤ x̄ y ≤ ȳi ix , y X, Ydove sono i punti massa delle variabili casuali congiunte .i i F (x, y)Dalla funzione di densità congiunta delle variabili casuali discrete congiunteX,YX, Y f ( ⋅ ) X f ( ⋅ ) Y funzioni diè possibile ricavare le funzioni di densità di e di , dettex Ydensità marginali. ∑f (x ) = f (x , y )X k X,Y k jj∑f (y ) = f (x , y )Y k X,Y j kjNB: dalla funzione di

la formattazione del testo utilizzando tag html sarebbe la seguente:

La densità congiunta è possibile sempre ricavare le funzioni di densità marginali, ma non vale il viceversa P[A ∩ B]|P[A ∪ B] = , P[B] > 0

Ricordando la definizione di probabilità condizionata ,P[B|A] = P[A ∩ B] / P[A]

se ora è l'evento definito da A e B è l'evento definito da B, allora P[A ∩ B|A] = P[A ∩ B] / P[A]

Martina contestabile Ingegneria informatica - comune a-l A.a. 2020/21

P[X = x, Y = y|P[X = x ∩ Y = y] = , P[Y = y] > 0

P[Y = y] ed è possibile dare la definizione formale di funzione di densità condizionata.

Funzione di densità condizionata X, Y f variabili casuali congiunte discrete

Date con funzione di densità congiunta ,X,Y P(X,Y) = P(X = x ∩ Y = y)

chiamiamo funzione di densità condizionata di , dato , la funzione F(x, y) = P(X,Y|f(x,y)) = P(X = x ∩ Y = y) / P(Y = y)

Analogamente, si definisce la funzione di densità condizionata di , dato , la funzione F(x, y) = P(X,Y|f(y,x)) = P(X = x ∩ Y = y) / P(X = x)

Conseguentemente,

È possibile definire le funzioni di ripartizione condizionate di X dato Y = y e di Y dato X = x, utilizzando i seguenti tag HTML: è per rappresentare il simbolo "è" per rappresentare il simbolo di sommatoria "∑" | per rappresentare il simbolo di condizionale "|" per rappresentare il simbolo "≤" > per rappresentare il simbolo ">" per rappresentare il simbolo di moltiplicazione "⋅" Le funzioni di ripartizione condizionate possono essere rappresentate come segue: f(y|x) = P(Y ≤ y | X = x) = f(y|x) f(x|y) = P(X ≤ x | Y = y) = f(x|y) f(x,y) = f(x|y) ⋅ f(y) ∧ f(x,y) = f(y|x) ⋅ f(x) NB: .X,Y X|Y Y X,Y Y|X X Pagina 60 fi fi fi Martina contestabile Ingegneria informatica - comune a-l A.a. 2020/21 Osservazione: Le densità marginali si calcolano più facilmente sommando per righe o per colonne i valori della tabella a doppia entrata. Vogliamo ora calcolare le funzioni di densità condizionate di X dato Y = 2 e di Y dato X = 3. Indipendenza X = (X1, . . . , Xn) n-variabile casuale -dimensionale continua) Data (discreta o con1 n fX1, . . . , Xn variabili casuali funzione di densità congiunta , diciamo che sono X1, ..., Xn 1 n ⟺ f(x1, . . . , xn) = fX1(x1) . . . fXn(xn) indipendenti funzione di densità.cioè laX ,...,X 1 n X 1 n n1 n 1congiunta funzioni di densità marginali.si scrive come prodotto delleX, Y ⟺ f (x, y) = f (x) · f (y)Nel caso 2-D si ha quindi che sono indipendenti .X,Y X Y|f (x, y) = f (y | x) · f (x)Dalla definizione di densità condizionata si ha , quindiX,Y Y|X X|f (y | x) = f (y) Y X = x, cioè la densità condizionata di Y dato X è la densità nonY|X Y Ycondizionata di Y . Pagina 61fi Martina contestabile Ingegneria informatica - comune a-l A.a. 2020/21Per mostrare che due variabili casuali non sono indipendenti basta mostrare che|f (y | x) xdipende da X .Y|XOsservazione: X , . . . , X g , . . . , gSi può provare che se sono variabili casuali indipendenti e se1 n 1 nn Y = g (X ) k = 1,...,nsono funzioni tali che ), con , sono variabili casuali, allorak k kY , . . . , Y sono indipendenti.1 n X, YNell’esempio del lancio dei due tetraedri, alla domanda “Le variabili casuali sono indipendenti?”, laLa risposta è NO! Basta infatti trovare una coppia di valori (X, Y) per i quali f(y|x) ≠ f(y). Per esempio, se Y < X, poiché Y|X = 0 ma Y|X = 3|2 = P(Y = 2|X = 3) = 0, quindi f(2) ≠ P(Y = 2) = f(2|3). Modello di variabile casuale -dimensionale discreta Distribuzione multinomiale Tale distribuzione è associata a prove ripetute e indipendenti, che generalizzano il caso delle prove di Bernoulli a 2 esiti a quello con più di due esiti. Supponiamo che esistano k + 1 esiti possibili distinti di un tentativo. Siano tali esiti. ∑ p = P(s_i) i = 1,...,k + 1 ⇒ p = 1 - (p_1 + . . . + p_k+1) p_1 = 1 Sia X_1, ..., X_k+1 una variabile casuale -dimensionale discreta. Ripetiamo le prove n volte. Se le prove sono ripetute e indipendenti si ha n! f(x_1, ..., x_k+1) = ∑ ∑ ... ∑ x_1! ... x_k+1! p_1^x_1 ... p_k+1^x_k+1 i=1 i=1 ... i=k+1 Pertanto,cerco la probabilità che da prove si abbiano esattamente esiti del tipo ,1 1x s x sesiti del tipo e ... esiti del tipo .2 2 k+1 k+1 xxp . . . p k+11Un particolare ordinamento ha probabilità e di ordinamenti ne esistono1 k+1n! .x ! . . . x !1 k+1 Lunedì 10 Maggio 20211 - DVogliamo ora estendere il concetto di valore atteso di una variabile casuale al caso n-dimensionale. Ci limitiamo ad analizzare il caso discreto.Valore attesoX = (X1, ..., Xn)Sia una variabile casuale n-dimensionale con funzione di densità1 n nf(x1, ..., xn) g : ℝ → ℝ X1, ..., Xncongiunta e sia una funzione definita su ℝn, cioèX1,...,Xn 1 n 1 n1 ng = g(X1, ..., Xn) (a sua volta è una variabile casuale).1 n gvalore attesoDefiniamo il valore atteso di g(X1, ..., Xn) come la quantità∑E[g(X1, ..., Xn)] = g(x1, ..., xn)f(x1, ..., xn)1 n 1 n X1,...,Xn 1 n1 nCasi particolari:g(X1, ..., Xn) = X ⇒ E[g] = E[X] = μ1 n i i Xi2 2g(X1, ..., Xn) = (X -μ ) ⇒ E[g] = var[X ] = σ , qui ci limitiamo al caso1 n i X i Xi in = 2bidimensionale, dove .g(X, Y ) = (X − μ )(Y − μ ) ⇒ E[g] = E[(X − μ )(Y − μ )]X Y x YCovarianza X Y X YcovarianzaDate le variabili casuali e , de niamo di e la quantitàσ = cov[X, Y ] = E[(X − μ )(Y − μ )]X,Y X Y Pagina 63fi fi fiMartina contestabile Ingegneria informatica - comune a-l A.a. 2020/21Proprietà della covarianzacov[X, Y ] = E[XY ] − μ μ1. . Dalla de nizione,X Ycov[X, Y ] = E[(X − μ )(Y − μ )] = E[XY − μ X − μ Y + μ μ ] =X Y Y X X Y= E[XY ] − μ E[X ] − μ E[Y ] + μ μ = E[XY ] − μ μY X x Y x Ycov[a X, bY ] = ab ⋅ cov[X, Y ] a, b ∈ ℝ2. , concov[a X, bY ] = E[(a X − aμ )(bY − bμ )] = ab ⋅ cov[X, Y ]X Ycov[X, Y ] = cov[Y, X ]3. 2cov[X, X ] = var[X ] cov[X, X ] = E[(X − μ ) ] = var[X ]4. ,

Perché Xcov[X + Y, Z ] = cov[X, Z ] + cov[Y, Z ]

cov[X + Y, Z ] = E[(X + Y )Z ] - E[X + Y ]E[Z ] per la proprietà 1.

= E[XZ + Y Z ] - (E[X ] + E[Y ])E[Z ] = E[XZ ] + E[Y Z ] - E[X ]E[Z ] - E[Y ]E[Z ]

= cov[X, Z ] + cov[Y, Z ]

La covarianza tra due variabili casuali descrive la possibilità che tra le due variabili possa esistere una relazione di tipo lineare.

Se la covarianza è nulla, tra X e Y è possibile che esista una relazione di tipo nonlineare. La covarianza dipende dall'unità di misura utilizzata per misurare X e Y; perciò si preferisce usare un altro indice, indipendente dall'unità di misura.

Coefficiente di correlazione

Date le variabili casuali X e Y con covarianza cov[X, Y ] e deviazioni standard σX e σY, definiamo ρ il numero

ρ = cov[X, Y ] / (σX * σY)

Proprietà del coefficiente di correlazione

correlazione: ρ ≤ 11. X,Yρ = 0 cov[X, Y ] = 0 2. se X,Yρ = 1, m > 0{ X,Y} = m X + q ⇒ 3. Se (dipendenza lineare) . Infatti, ρ = -1, m < 0 X,Ycov[X, Y ] = cov[X, m X + q] = cov[X, m X ] + cov[X, q] = 2 = m cov[X, X ] = m · var[X ] = mσ ≠ 0 m ≠ 0, se eX Pagina 64ffi ffi fi ffi fiMartina contestabile Ingegneria informatica - comune a-l A.a. 2020/212var[Y ] = var[m X + q] = m var[X ] ⇒ σ = mσ > 0 per definizione diY X2mσ X = 1, m > 0σ mσX Xρ =deviazione standard. Quindi, .X,Y 2| |- mσ X = -1, m < 0| |σ mσX X+∀a, b ∈ ℝ ρ = ρ 4. , infatti,aX,bY X,Ycov[a X, bY ] = ab · cov[X, Y ]ρ = = = ρ .aX,bY X,Yσ σ abσ σaX bY x Y2var[a X ] = a var[X ] ⇒ σ = aσ > 0aX X2var[bY ] = b var[X ] ⇒ σ = bσ > 0bY XValore atteso condizionatoX Y g(X, Y ) valore attesoDate le variabili casuali e e la

funzione , de niamog X = xcondizionato di , dato , la quantità∑| |E[g(X, Y ) X = x] = g(x, y)f (y x)Y|Xy ∑| | |g(X, Y ) = Y E[Y X = x] = E[Y X ] = yf (y x)Se , Y|Xg(X, Y ) = XYg(X, Y ) = X Pagina 65fi fiMartina contestabile Ingegneria informatica - comune a-l A.a. 2020/21g(X, Y ) = Y Pagina 66Martina contestabile Ingegneria informatica - comune a-l A.a. 2020/21Martedì 11 Maggio 2021Pagina 67Martina contestabile Ingegneria informatica - comune a-l A.a. 2020/21Teorema 1.X, Y g , g g = g (X )Siano

Dettagli
A.A. 2020-2021
90 pagine
1 download
SSD Scienze matematiche e informatiche MAT/06 Probabilità e statistica matematica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher martina.contestabile01 di informazioni apprese con la frequenza delle lezioni di Probabilità e statistica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Brescia o del prof Zullo Federico.