Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Formattazione del testo
X,Yx→−∞lim F (x, y) = 0 ∀x .X,Yy→−∞lim F (x, y) = 1 .X,Yx→+∞,y→+∞x < x ∧ y < y ⇒Se 1 2 1 2P[x < X ≤ x , y < Y ≤ y ] = F (x , y ) + F (x , y ) − F (x , y ) − F (x , y ) ≥ 01 2 1 2 X,Y 2 2 X,Y 1 1 X,Y 1 2 X,Y 2 1lim F (x + h, y) = lim F (x, y + h) = lim F (x, y) continuità a destra.X,Y X,Y X,Y+ + +h→0 h→0 h→0Funzioni di densità marginaliX, Y variabili casuali congiunte discreteDate ∑ ∑F (x̄, ȳ) = f (x , y )X,Y X,Y i ix ≤ x̄ y ≤ ȳi ix , y X, Ydove sono i punti massa delle variabili casuali congiunte .i i F (x, y)Dalla funzione di densità congiunta delle variabili casuali discrete congiunteX,YX, Y f ( ⋅ ) X f ( ⋅ ) Y funzioni diè possibile ricavare le funzioni di densità di e di , dettex Ydensità marginali. ∑f (x ) = f (x , y )X k X,Y k jj∑f (y ) = f (x , y )Y k X,Y j kjNB: dalla funzione di
la formattazione del testo utilizzando tag html sarebbe la seguente:La densità congiunta è possibile sempre ricavare le funzioni di densità marginali, ma non vale il viceversa P[A ∩ B]|P[A ∪ B] = , P[B] > 0
Ricordando la definizione di probabilità condizionata ,P[B|A] = P[A ∩ B] / P[A]
se ora è l'evento definito da A e B è l'evento definito da B, allora P[A ∩ B|A] = P[A ∩ B] / P[A]
Martina contestabile Ingegneria informatica - comune a-l A.a. 2020/21
P[X = x, Y = y|P[X = x ∩ Y = y] = , P[Y = y] > 0
P[Y = y] ed è possibile dare la definizione formale di funzione di densità condizionata.
Funzione di densità condizionata X, Y f variabili casuali congiunte discrete
Date con funzione di densità congiunta ,X,Y P(X,Y) = P(X = x ∩ Y = y)
chiamiamo funzione di densità condizionata di , dato , la funzione F(x, y) = P(X,Y|f(x,y)) = P(X = x ∩ Y = y) / P(Y = y)
Analogamente, si definisce la funzione di densità condizionata di , dato , la funzione F(x, y) = P(X,Y|f(y,x)) = P(X = x ∩ Y = y) / P(X = x)
Conseguentemente,
È possibile definire le funzioni di ripartizione condizionate di X dato Y = y e di Y dato X = x, utilizzando i seguenti tag HTML: è per rappresentare il simbolo "è" ∑ per rappresentare il simbolo di sommatoria "∑" | per rappresentare il simbolo di condizionale "|" ≤ per rappresentare il simbolo "≤" > per rappresentare il simbolo ">" ⋅ per rappresentare il simbolo di moltiplicazione "⋅" Le funzioni di ripartizione condizionate possono essere rappresentate come segue: f(y|x) = P(Y ≤ y | X = x) = f(y|x) f(x|y) = P(X ≤ x | Y = y) = f(x|y) f(x,y) = f(x|y) ⋅ f(y) ∧ f(x,y) = f(y|x) ⋅ f(x) NB: .X,Y X|Y Y X,Y Y|X X Pagina 60 fi fi fi Martina contestabile Ingegneria informatica - comune a-l A.a. 2020/21 Osservazione: Le densità marginali si calcolano più facilmente sommando per righe o per colonne i valori della tabella a doppia entrata. Vogliamo ora calcolare le funzioni di densità condizionate di X dato Y = 2 e di Y dato X = 3. Indipendenza X = (X1, . . . , Xn) n-variabile casuale -dimensionale continua) Data (discreta o con1 n fX1, . . . , Xn variabili casuali funzione di densità congiunta , diciamo che sono X1, ..., Xn 1 n ⟺ f(x1, . . . , xn) = fX1(x1) . . . fXn(xn) indipendenti funzione di densità.cioè laX ,...,X 1 n X 1 n n1 n 1congiunta funzioni di densità marginali.si scrive come prodotto delleX, Y ⟺ f (x, y) = f (x) · f (y)Nel caso 2-D si ha quindi che sono indipendenti .X,Y X Y|f (x, y) = f (y | x) · f (x)Dalla definizione di densità condizionata si ha , quindiX,Y Y|X X|f (y | x) = f (y) Y X = x, cioè la densità condizionata di Y dato X è la densità nonY|X Y Ycondizionata di Y . Pagina 61fi Martina contestabile Ingegneria informatica - comune a-l A.a. 2020/21Per mostrare che due variabili casuali non sono indipendenti basta mostrare che|f (y | x) xdipende da X .Y|XOsservazione: X , . . . , X g , . . . , gSi può provare che se sono variabili casuali indipendenti e se1 n 1 nn Y = g (X ) k = 1,...,nsono funzioni tali che ), con , sono variabili casuali, allorak k kY , . . . , Y sono indipendenti.1 n X, YNell’esempio del lancio dei due tetraedri, alla domanda “Le variabili casuali sono indipendenti?”, laLa risposta è NO! Basta infatti trovare una coppia di valori (X, Y) per i quali f(y|x) ≠ f(y). Per esempio, se Y < X, poiché Y|X = 0 ma Y|X = 3|2 = P(Y = 2|X = 3) = 0, quindi f(2) ≠ P(Y = 2) = f(2|3). Modello di variabile casuale -dimensionale discreta Distribuzione multinomiale Tale distribuzione è associata a prove ripetute e indipendenti, che generalizzano il caso delle prove di Bernoulli a 2 esiti a quello con più di due esiti. Supponiamo che esistano k + 1 esiti possibili distinti di un tentativo. Siano tali esiti. ∑ p = P(s_i) i = 1,...,k + 1 ⇒ p = 1 - (p_1 + . . . + p_k+1) p_1 = 1 Sia X_1, ..., X_k+1 una variabile casuale -dimensionale discreta. Ripetiamo le prove n volte. Se le prove sono ripetute e indipendenti si ha n! f(x_1, ..., x_k+1) = ∑ ∑ ... ∑ x_1! ... x_k+1! p_1^x_1 ... p_k+1^x_k+1 i=1 i=1 ... i=k+1 Pertanto,cerco la probabilità che da prove si abbiano esattamente esiti del tipo ,1 1x s x sesiti del tipo e ... esiti del tipo .2 2 k+1 k+1 xxp . . . p k+11Un particolare ordinamento ha probabilità e di ordinamenti ne esistono1 k+1n! .x ! . . . x !1 k+1 Lunedì 10 Maggio 20211 - DVogliamo ora estendere il concetto di valore atteso di una variabile casuale al caso n-dimensionale. Ci limitiamo ad analizzare il caso discreto.Valore attesoX = (X1, ..., Xn)Sia una variabile casuale n-dimensionale con funzione di densità1 n nf(x1, ..., xn) g : ℝ → ℝ X1, ..., Xncongiunta e sia una funzione definita su ℝn, cioèX1,...,Xn 1 n 1 n1 ng = g(X1, ..., Xn) (a sua volta è una variabile casuale).1 n gvalore attesoDefiniamo il valore atteso di g(X1, ..., Xn) come la quantità∑E[g(X1, ..., Xn)] = g(x1, ..., xn)f(x1, ..., xn)1 n 1 n X1,...,Xn 1 n1 nCasi particolari:g(X1, ..., Xn) = X ⇒ E[g] = E[X] = μ1 n i i Xi2 2g(X1, ..., Xn) = (X -μ ) ⇒ E[g] = var[X ] = σ , qui ci limitiamo al caso1 n i X i Xi in = 2bidimensionale, dove .g(X, Y ) = (X − μ )(Y − μ ) ⇒ E[g] = E[(X − μ )(Y − μ )]X Y x YCovarianza X Y X YcovarianzaDate le variabili casuali e , de niamo di e la quantitàσ = cov[X, Y ] = E[(X − μ )(Y − μ )]X,Y X Y Pagina 63fi fi fiMartina contestabile Ingegneria informatica - comune a-l A.a. 2020/21Proprietà della covarianzacov[X, Y ] = E[XY ] − μ μ1. . Dalla de nizione,X Ycov[X, Y ] = E[(X − μ )(Y − μ )] = E[XY − μ X − μ Y + μ μ ] =X Y Y X X Y= E[XY ] − μ E[X ] − μ E[Y ] + μ μ = E[XY ] − μ μY X x Y x Ycov[a X, bY ] = ab ⋅ cov[X, Y ] a, b ∈ ℝ2. , concov[a X, bY ] = E[(a X − aμ )(bY − bμ )] = ab ⋅ cov[X, Y ]X Ycov[X, Y ] = cov[Y, X ]3. 2cov[X, X ] = var[X ] cov[X, X ] = E[(X − μ ) ] = var[X ]4. ,Perché Xcov[X + Y, Z ] = cov[X, Z ] + cov[Y, Z ]
cov[X + Y, Z ] = E[(X + Y )Z ] - E[X + Y ]E[Z ] per la proprietà 1.
= E[XZ + Y Z ] - (E[X ] + E[Y ])E[Z ] = E[XZ ] + E[Y Z ] - E[X ]E[Z ] - E[Y ]E[Z ]
= cov[X, Z ] + cov[Y, Z ]
La covarianza tra due variabili casuali descrive la possibilità che tra le due variabili possa esistere una relazione di tipo lineare.
Se la covarianza è nulla, tra X e Y è possibile che esista una relazione di tipo nonlineare. La covarianza dipende dall'unità di misura utilizzata per misurare X e Y; perciò si preferisce usare un altro indice, indipendente dall'unità di misura.
Coefficiente di correlazione
Date le variabili casuali X e Y con covarianza cov[X, Y ] e deviazioni standard σX e σY, definiamo ρ il numero
ρ = cov[X, Y ] / (σX * σY)
Proprietà del coefficiente di correlazione
correlazione: ρ ≤ 11. X,Yρ = 0 cov[X, Y ] = 0 2. se X,Yρ = 1, m > 0{ X,Y} = m X + q ⇒ 3. Se (dipendenza lineare) . Infatti, ρ = -1, m < 0 X,Ycov[X, Y ] = cov[X, m X + q] = cov[X, m X ] + cov[X, q] = 2 = m cov[X, X ] = m · var[X ] = mσ ≠ 0 m ≠ 0, se eX Pagina 64ffi ffi fi ffi fiMartina contestabile Ingegneria informatica - comune a-l A.a. 2020/212var[Y ] = var[m X + q] = m var[X ] ⇒ σ = mσ > 0 per definizione diY X2mσ X = 1, m > 0σ mσX Xρ =deviazione standard. Quindi, .X,Y 2| |- mσ X = -1, m < 0| |σ mσX X+∀a, b ∈ ℝ ρ = ρ 4. , infatti,aX,bY X,Ycov[a X, bY ] = ab · cov[X, Y ]ρ = = = ρ .aX,bY X,Yσ σ abσ σaX bY x Y2var[a X ] = a var[X ] ⇒ σ = aσ > 0aX X2var[bY ] = b var[X ] ⇒ σ = bσ > 0bY XValore atteso condizionatoX Y g(X, Y ) valore attesoDate le variabili casuali e e lafunzione , de niamog X = xcondizionato di , dato , la quantità∑| |E[g(X, Y ) X = x] = g(x, y)f (y x)Y|Xy ∑| | |g(X, Y ) = Y E[Y X = x] = E[Y X ] = yf (y x)Se , Y|Xg(X, Y ) = XYg(X, Y ) = X Pagina 65fi fiMartina contestabile Ingegneria informatica - comune a-l A.a. 2020/21g(X, Y ) = Y Pagina 66Martina contestabile Ingegneria informatica - comune a-l A.a. 2020/21Martedì 11 Maggio 2021Pagina 67Martina contestabile Ingegneria informatica - comune a-l A.a. 2020/21Teorema 1.X, Y g , g g = g (X )Siano