Estratto del documento

Richiami di insiemistica

Insieme -> collezione di oggetti (che possano avere o meno una certa caratteristica).

Es. { x ∈ R | x < 1/2 } è l'insieme dei numeri reali minori di 1/2

Le operazioni che si possono fare sugli insiemi sono principalmente unioni e intersezioni.

Definizioni

Prendiamo tre insiemi A, B e C.

A si dice sottoinsieme di B (A ⊆ B) se tutti gli elementi di A sono contenuti anche in B.

La unione di A e B è l'insieme dei numeri contenuti in A o in B o in entrambi. Si indica con ∪

C è l'intersezione di A e B se contiene tutti gli elementi che appartengono sia ad A che a B. Si indica con ∩

Diagramma di Eulero-Venn

  • A ∪ B   S   A ∩ B   S   (A)' • A

È detto complementare l'insieme che contiene tutti gli elementi eccetto quelli contenuti nell'insieme.

Insieme numerabile: È un insieme tra cui gli elementi si possono mettere in corrispondenza biunivoca con i numeri reali.

Proprietà insiemi

  • A ∪ ∅ = A
  • A ∪ S = S
  • A ∩ S = A
  • A ∩ A = A
  • A ∪ A = A
  • A ∩ ∅ = ∅
  • A ∪ (B ∪ C) = (A ∪ B) ∪ C
  • A ∩ (B ∩ C) = (A ∩ B) ∩ C
  • A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
  • A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)

Probabilità

La probabilità è uno strumento metodologico che ci permette di prendere delle decisioni in momenti di indecisione/incertezza.

Si tratta di una teoria assiomatica basata su 3 regole fondamentali:

  • P(A) ≥ 0 → probabilità di un evento ≥ 0
  • P(S) = 1 → probabilità dello spazio campione = 1
  • A ∩ B = Ø ⇒ P(A ∪ B) = P(A) + P(B)

Definizione

La probabilità è un numero compreso tra 0 e 1. È una funzione che ha come dominio lo spazio campione e come codominio tutti i numeri tra lo 0 e 1 e che gode dei 3 assiomi precedentemente elencati.

Concetti

Evento elementare → elemento indivisibile

Es. Lancio un dado, voglio prevedere la faccia esce (l'elemento è una faccia → evento elementare); esistono delle 6 facce.

Evento certo (lo spazio campione) = si verifica sicuramente

Es. Lancia un dado → Lo spazio campione è l'insieme delle 6 facceLancia una moneta → Lo spazio campione sono le due facce

Due eventi si dicono mutuamente esclusivi se al verificarsi di uno automaticamente è impossibile che da verificarsi l'altro (A ∩ B = Ø).

La probabilità di un insieme vuoto (Ø) = 0

Dim. A ∩ Ø = Ø --> per il 1° assioma P(A ∪ Ø) = P(A)A ∪ Ø = A ⇒ P(A ∪ Ø) = P(A)

P(A) = P(A) + P(Ø) ⇒ P(Ø) = 0 ✓cvd

In generale: P(A ∪ B) = P(A) + P(B) - P(A ∩ B)

Dim. ScriviamoA ∪ B = A ∪ (A ∩ B) ∪ (B ∩ A')

Sostituendo otteniamoP(B) = P(A ∩ B) ∪ (A ∩ B') ∪ assioma

dalle seconda fila cheP(A ∩ B') = P(B) - P(A ∩ B)

e sostituendo alla primaP(A ∪ B) = P(A) + P(B) - P(A ∩ B) ✓cvd

Esperimenti indipendenti

Due esperimenti si dicono indipendenti se

P(A ∩ A1) = P(A) ∙ P(A1)

Tale espressione può essere generalizzata anche ad m eventi:

P(A1 ∩ A2 ∩ ... ∩ Am) = P(A1) ∙ P(A2) ∙ ... ∙ P(Am)

ovvero la probabilità dell'evento composto è data dal prodotto delle probabilità dei singoli eventi.

Esercizio: Esperimento composto

Ipotesiamo di avere un collegamento tra due punti A e B composto da n links collegamenti.

A - L1 - L2 - L3 - ... - Lm-1 - Lm - B

I = Link i-esimo guasto

Gj = Link j-intero

  1. Collegamento AB interrotto

Qual è la probabilità che uno di questi link in questo segmento sia non guasto sapendo che il collegamento è interrotto?

P(Gj | I) = ?

Dati: P(Gj) = p ∈ [0,1]

Per il teorema di Bayes possiamo dire che:

P(Gj | I) = [P(I | Gj) ∙ P(Gj)] / P(I)

P(I) = P(1 almeno 1 link è guasto) = 1 - P(T tutti non guasti)

P(T) = P(G1 ∩ G2 ∩ ... ∩ Gm) = (Assumo eventi indipendenti = P(G1) ∙ P(G2) ∙ ... ∙ P(Gm))

P(Gj | I) = [pj] / [1-(1-p)ⁿ]

p = 1/nm => P(Gj | I) ≈ p/np = 1/n

(escludo 1-pm O escludo 1-p < 1)

Attenzione: la media di una variabile aleatoria corrisponde alla media aritmetica. Se la variabile è discreta e si somma tutti i valori che possono essere associati.

Possiamo sempre associare ad una certa variabile aleatoria una funzione g(X) che ci permette di costruire una nuova variabile aleatoria Y.

- Esempio: lancio di un dado

  • X
    • 1 1/6
    • 2 1/6
    • 3 1/6
    • 4 1/6
    • 5 1/6
    • 6 1/6

quindi

Y = X2

Y = g (X)

Se ho una certa X discreta e definisco una certa Y, ho la possibilità di calcolare la media in 2 modi:

(1) Trovo tutti i valori di Y : applico la formula E(Y) = Σj yj · pY (yj)

(2) Sapendo che Y = g(X) posso scrivere che:

Teorema: TEOREMA FONDAMENTALE DEL CALCOLO DELLA MEDIA

  • se X e Y sono discrete ⇒ E (Y) = Σ xi g(xi) pX (xi)
  • se X e Y sono continue ⇒ E (Y) = ∫-∞g(x) pX(x) dx

La media è un operatore lineare

Dim se Y = g(X) = a X + b

E(Y) = ∫-∞ (a x + b) pX (x) dx = ∫-∞ (a x + b) pX (x) dx =

= a ∫-∞ x pX (x) dx + b ∫-∞ pX(x) dx = a E(X) + b

C.V.D.

P(X = x) = ?

x = {0, 1, ..., N}

X ~ B(n, p)

P{x} = P(X = x) = ?

Eseguo l'esperimento e ottengo i seguenti risultati:

000 -> X: 0

010 -> X: 1

110 -> X: 2

011 -> X: 3

P(0010) = P(0) P(0) P(1) P(0) P(1) P(0) = q q p q q = q3 p2

P(0101) = q2 p3

P(X = x) := P(# successi in N prove t.q.) = ?

se N=3 P(0 succ. in N prove | q3)

in N prove avremo che

{ P(0 succ. in N prove) qN

{ P(1 succ. in N prove) pN

P(1 succ. in N prove) = P( {100} ∪ {010} ∪ {001})

x N=3

= P({100}) + P({010}) + P({001}) =

= pq2 + pq2 + pq2 = 3pq2

P(x succ. in N prove) =

(xCn) px qN-x dove

(NCx) = N! / x!(N-x)!

Variabile Aleatoria Gaussiana (o Normale)

Si indica con X ~ N(μ, σ2)

Una variabile aleatoria è detta Gaussiana se la sua densità di probabilità è la seguente:

fX(x) = (1 / √(2πσ2)) e- (x - μ)2 / 2σ2

in cui x ∈ ℝ

μ ∈ ℝ

σ > 0

parametri

ℰ[X] = ∫ x fX(x) dx = μ

VAR[X] = ∫ (x - μ)2 fX(x) dx = σ2

In un grafico le Px di una Gaussiana

sono rappresentate da una campana gaussiana

con punto di max in μ e ampiezza σ

cov ( X̄_1, X̄_2 ) = θ_12

se prendiamo come numero di elementi del vettore X̄ n = 2 si ha

Σ = (σ^2_1 0)(0 σ^2_2)

Z = (√σ^2_1 0)(0 √σ^2_2)

Σ = |Σ| + σ_1 σ_2 θ^2_12

( X̄_1 - μ_1 ) Σ⁻¹ ( X̄_1 - μ_1 ) X̄_1 - μ_1 ( σ^-1)

( X_1 - μ_1 )^2σ_1^2

( X_1 - μ_1 )^2σ_2^2

C exp ( X_1 - μ_1)^2σ_1^2

exp -( X_1 - μ_1)^22σ_1

( X_1 - μ_1 )^2σ_1^2

C exp ( X_1 - μ_1)^2σ_1^2

( X_1 - μ_1 )^2σ_2^2

σ_1^2( ( X_1 - μ_1)^2 )

( X_1 - μ_1 )^2σ_1^2

p ( x_1 ) = 1σ √2σ_1 exp -( X_1 - μ_1 )²2σ_1|;

p ( x_2 ) = 1σ √2σ_1 exp -( X_1 - μ_1 )²2σ_1|

X_1 e X_2 sono indipendenti

se X̄ è un vettore di Gaussiano incorrelazione e indipendenza sono la stessa cosa

e quindi incorrelazione ↔ indipendenza

Trasformazioni di variabile aleatoria

Esempio 1:

X → X = g(X) = 2X + 3

x̄ = {-1,0,1}

Ȳ = g(X⫠) = {1 3 5}

p(X = -1 ) = 1/4

p(Y = 3) = p(X = 0 ) = 1/2

p(Y = 5) = p(X = 1 ) = 1/4

Attraverso tale trasformazione abbiamo ottenuto una nuova variabile aleatoria con la stessa PPF di quella di partenza.

Anteprima
Vedrai una selezione di 10 pagine su 45
Il contenuto si trova sul sito dell’università.
Probabilità - Appunti di Teoria, Esercizi e Prove d'Esame Pag. 1 Probabilità - Appunti di Teoria, Esercizi e Prove d'Esame Pag. 2
Anteprima di 10 pagg. su 45.
Scarica il documento per vederlo tutto.
Probabilità - Appunti di Teoria, Esercizi e Prove d'Esame Pag. 6
Anteprima di 10 pagg. su 45.
Scarica il documento per vederlo tutto.
Probabilità - Appunti di Teoria, Esercizi e Prove d'Esame Pag. 11
Anteprima di 10 pagg. su 45.
Scarica il documento per vederlo tutto.
Probabilità - Appunti di Teoria, Esercizi e Prove d'Esame Pag. 16
Anteprima di 10 pagg. su 45.
Scarica il documento per vederlo tutto.
Probabilità - Appunti di Teoria, Esercizi e Prove d'Esame Pag. 21
Anteprima di 10 pagg. su 45.
Scarica il documento per vederlo tutto.
Probabilità - Appunti di Teoria, Esercizi e Prove d'Esame Pag. 26
Anteprima di 10 pagg. su 45.
Scarica il documento per vederlo tutto.
Probabilità - Appunti di Teoria, Esercizi e Prove d'Esame Pag. 31
Anteprima di 10 pagg. su 45.
Scarica il documento per vederlo tutto.
Probabilità - Appunti di Teoria, Esercizi e Prove d'Esame Pag. 36
Anteprima di 10 pagg. su 45.
Scarica il documento per vederlo tutto.
Probabilità - Appunti di Teoria, Esercizi e Prove d'Esame Pag. 41
1 su 45
D/illustrazione/soddisfatti o rimborsati
Acquista con carta o PayPal
Scarica i documenti tutte le volte che vuoi
Dettagli
SSD
Ingegneria industriale e dell'informazione ING-INF/06 Bioingegneria elettronica e informatica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher p.dinapoli0 di informazioni apprese con la frequenza delle lezioni di Teoria della probabilità e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Salerno o del prof Marano Stefano.
Appunti correlati Invia appunti e guadagna

Domande e risposte

Hai bisogno di aiuto?
Chiedi alla community