Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Richiami di insiemistica
Insieme -> collezione di oggetti (che possano avere o meno una certa caratteristica).
Es. { x ∈ R | x < 1/2 } è l'insieme dei numeri reali minori di 1/2
Le operazioni che si possono fare sugli insiemi sono principalmente unioni e intersezioni.
Definizioni
Prendiamo tre insiemi A, B e C.
A si dice sottoinsieme di B (A ⊆ B) se tutti gli elementi di A sono contenuti anche in B.
La unione di A e B è l'insieme dei numeri contenuti in A o in B o in entrambi. Si indica con ∪
C è l'intersezione di A e B se contiene tutti gli elementi che appartengono sia ad A che a B. Si indica con ∩
Diagramma di Eulero-Venn
- A ∪ B S A ∩ B S (A)' • A
È detto complementare l'insieme che contiene tutti gli elementi eccetto quelli contenuti nell'insieme.
Insieme numerabile: È un insieme tra cui gli elementi si possono mettere in corrispondenza biunivoca con i numeri reali.
Proprietà insiemi
- A ∪ ∅ = A
- A ∪ S = S
- A ∩ S = A
- A ∩ A = A
- A ∪ A = A
- A ∩ ∅ = ∅
- A ∪ (B ∪ C) = (A ∪ B) ∪ C
- A ∩ (B ∩ C) = (A ∩ B) ∩ C
- A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
- A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
Probabilità
La probabilità è uno strumento metodologico che ci permette di prendere delle decisioni in momenti di indecisione/incertezza.
Si tratta di una teoria assiomatica basata su 3 regole fondamentali:
- P(A) ≥ 0 → probabilità di un evento ≥ 0
- P(S) = 1 → probabilità dello spazio campione = 1
- A ∩ B = Ø ⇒ P(A ∪ B) = P(A) + P(B)
Definizione
La probabilità è un numero compreso tra 0 e 1. È una funzione che ha come dominio lo spazio campione e come codominio tutti i numeri tra lo 0 e 1 e che gode dei 3 assiomi precedentemente elencati.
Concetti
Evento elementare → elemento indivisibile
Es. Lancio un dado, voglio prevedere la faccia esce (l'elemento è una faccia → evento elementare); esistono delle 6 facce.
Evento certo (lo spazio campione) = si verifica sicuramente
Es. Lancia un dado → Lo spazio campione è l'insieme delle 6 facceLancia una moneta → Lo spazio campione sono le due facce
Due eventi si dicono mutuamente esclusivi se al verificarsi di uno automaticamente è impossibile che da verificarsi l'altro (A ∩ B = Ø).
La probabilità di un insieme vuoto (Ø) = 0
Dim. A ∩ Ø = Ø --> per il 1° assioma P(A ∪ Ø) = P(A)A ∪ Ø = A ⇒ P(A ∪ Ø) = P(A)
P(A) = P(A) + P(Ø) ⇒ P(Ø) = 0 ✓cvd
In generale: P(A ∪ B) = P(A) + P(B) - P(A ∩ B)
Dim. ScriviamoA ∪ B = A ∪ (A ∩ B) ∪ (B ∩ A')
Sostituendo otteniamoP(B) = P(A ∩ B) ∪ (A ∩ B') ∪ assioma
dalle seconda fila cheP(A ∩ B') = P(B) - P(A ∩ B)
e sostituendo alla primaP(A ∪ B) = P(A) + P(B) - P(A ∩ B) ✓cvd
Esperimenti indipendenti
Due esperimenti si dicono indipendenti se
P(A ∩ A1) = P(A) ∙ P(A1)
Tale espressione può essere generalizzata anche ad m eventi:
P(A1 ∩ A2 ∩ ... ∩ Am) = P(A1) ∙ P(A2) ∙ ... ∙ P(Am)
ovvero la probabilità dell'evento composto è data dal prodotto delle probabilità dei singoli eventi.
Esercizio: Esperimento composto
Ipotesiamo di avere un collegamento tra due punti A e B composto da n links collegamenti.
A - L1 - L2 - L3 - ... - Lm-1 - Lm - B
I = Link i-esimo guasto
Gj = Link j-intero
- Collegamento AB interrotto
Qual è la probabilità che uno di questi link in questo segmento sia non guasto sapendo che il collegamento è interrotto?
P(Gj | I) = ?
Dati: P(Gj) = p ∈ [0,1]
Per il teorema di Bayes possiamo dire che:
P(Gj | I) = [P(I | Gj) ∙ P(Gj)] / P(I)
P(I) = P(1 almeno 1 link è guasto) = 1 - P(T tutti non guasti)
P(T) = P(G1 ∩ G2 ∩ ... ∩ Gm) = (Assumo eventi indipendenti = P(G1) ∙ P(G2) ∙ ... ∙ P(Gm))
P(Gj | I) = [pj] / [1-(1-p)ⁿ]
p = 1/nm => P(Gj | I) ≈ p/np = 1/n
(escludo 1-pm O escludo 1-p < 1)
Attenzione: la media di una variabile aleatoria corrisponde alla media aritmetica. Se la variabile è discreta e si somma tutti i valori che possono essere associati.
Possiamo sempre associare ad una certa variabile aleatoria una funzione g(X) che ci permette di costruire una nuova variabile aleatoria Y.
- Esempio: lancio di un dado
- X
- 1 1/6
- 2 1/6
- 3 1/6
- 4 1/6
- 5 1/6
- 6 1/6
quindi
Y = X2
Y = g (X)
Se ho una certa X discreta e definisco una certa Y, ho la possibilità di calcolare la media in 2 modi:
(1) Trovo tutti i valori di Y : applico la formula E(Y) = Σj yj · pY (yj)
(2) Sapendo che Y = g(X) posso scrivere che:
Teorema: TEOREMA FONDAMENTALE DEL CALCOLO DELLA MEDIA
- se X e Y sono discrete ⇒ E (Y) = Σ xi g(xi) pX (xi)
- se X e Y sono continue ⇒ E (Y) = ∫-∞∞g(x) pX(x) dx
La media è un operatore lineare
Dim se Y = g(X) = a X + b
E(Y) = ∫-∞∞ (a x + b) pX (x) dx = ∫-∞∞ (a x + b) pX (x) dx =
= a ∫-∞∞ x pX (x) dx + b ∫-∞∞ pX(x) dx = a E(X) + b
C.V.D.
P(X = x) = ?
x = {0, 1, ..., N}
X ~ B(n, p)
P{x} = P(X = x) = ?
Eseguo l'esperimento e ottengo i seguenti risultati:
000 -> X: 0
010 -> X: 1
110 -> X: 2
011 -> X: 3
P(0010) = P(0) P(0) P(1) P(0) P(1) P(0) = q q p q q = q3 p2
P(0101) = q2 p3
P(X = x) := P(# successi in N prove t.q.) = ?
se N=3 P(0 succ. in N prove | q3)
in N prove avremo che
{ P(0 succ. in N prove) qN
{ P(1 succ. in N prove) pN
P(1 succ. in N prove) = P( {100} ∪ {010} ∪ {001})
x N=3
= P({100}) + P({010}) + P({001}) =
= pq2 + pq2 + pq2 = 3pq2
P(x succ. in N prove) =
(xCn) px qN-x dove
(NCx) = N! / x!(N-x)!
Variabile Aleatoria Gaussiana (o Normale)
Si indica con X ~ N(μ, σ2)
Una variabile aleatoria è detta Gaussiana se la sua densità di probabilità è la seguente:
fX(x) = (1 / √(2πσ2)) e- (x - μ)2 / 2σ2
in cui x ∈ ℝ
μ ∈ ℝ
σ > 0
parametri
ℰ[X] = ∫ x fX(x) dx = μ
VAR[X] = ∫ (x - μ)2 fX(x) dx = σ2
In un grafico le Px di una Gaussiana
sono rappresentate da una campana gaussiana
con punto di max in μ e ampiezza σ
cov ( X̄_1, X̄_2 ) = θ_12
se prendiamo come numero di elementi del vettore X̄ n = 2 si ha
Σ = (σ^2_1 0)(0 σ^2_2)
Z = (√σ^2_1 0)(0 √σ^2_2)
Σ = |Σ| + σ_1 σ_2 θ^2_12
( X̄_1 - μ_1 ) Σ⁻¹ ( X̄_1 - μ_1 ) X̄_1 - μ_1 ( σ^-1)
( X_1 - μ_1 )^2σ_1^2
( X_1 - μ_1 )^2σ_2^2
C exp ( X_1 - μ_1)^2σ_1^2
exp -( X_1 - μ_1)^22σ_1
( X_1 - μ_1 )^2σ_1^2
C exp ( X_1 - μ_1)^2σ_1^2
( X_1 - μ_1 )^2σ_2^2
σ_1^2( ( X_1 - μ_1)^2 )
( X_1 - μ_1 )^2σ_1^2
p ( x_1 ) = 1σ √2σ_1 exp -( X_1 - μ_1 )²2σ_1|;
p ( x_2 ) = 1σ √2σ_1 exp -( X_1 - μ_1 )²2σ_1|
X_1 e X_2 sono indipendenti
se X̄ è un vettore di Gaussiano incorrelazione e indipendenza sono la stessa cosa
e quindi incorrelazione ↔ indipendenza
Trasformazioni di variabile aleatoria
Esempio 1:
X → X = g(X) = 2X + 3
x̄ = {-1,0,1}
Ȳ = g(X⫠) = {1 3 5}
p(X = -1 ) = 1/4
p(Y = 3) = p(X = 0 ) = 1/2
p(Y = 5) = p(X = 1 ) = 1/4
Attraverso tale trasformazione abbiamo ottenuto una nuova variabile aleatoria con la stessa PPF di quella di partenza.