Anteprima
Vedrai una selezione di 10 pagine su 45
Probabilità - Appunti di Teoria, Esercizi e Prove d'Esame Pag. 1 Probabilità - Appunti di Teoria, Esercizi e Prove d'Esame Pag. 2
Anteprima di 10 pagg. su 45.
Scarica il documento per vederlo tutto.
Probabilità - Appunti di Teoria, Esercizi e Prove d'Esame Pag. 6
Anteprima di 10 pagg. su 45.
Scarica il documento per vederlo tutto.
Probabilità - Appunti di Teoria, Esercizi e Prove d'Esame Pag. 11
Anteprima di 10 pagg. su 45.
Scarica il documento per vederlo tutto.
Probabilità - Appunti di Teoria, Esercizi e Prove d'Esame Pag. 16
Anteprima di 10 pagg. su 45.
Scarica il documento per vederlo tutto.
Probabilità - Appunti di Teoria, Esercizi e Prove d'Esame Pag. 21
Anteprima di 10 pagg. su 45.
Scarica il documento per vederlo tutto.
Probabilità - Appunti di Teoria, Esercizi e Prove d'Esame Pag. 26
Anteprima di 10 pagg. su 45.
Scarica il documento per vederlo tutto.
Probabilità - Appunti di Teoria, Esercizi e Prove d'Esame Pag. 31
Anteprima di 10 pagg. su 45.
Scarica il documento per vederlo tutto.
Probabilità - Appunti di Teoria, Esercizi e Prove d'Esame Pag. 36
Anteprima di 10 pagg. su 45.
Scarica il documento per vederlo tutto.
Probabilità - Appunti di Teoria, Esercizi e Prove d'Esame Pag. 41
1 su 45
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Richiami di insiemistica

Insieme -> collezione di oggetti (che possano avere o meno una certa caratteristica).

Es. { x ∈ R | x < 1/2 } è l'insieme dei numeri reali minori di 1/2

Le operazioni che si possono fare sugli insiemi sono principalmente unioni e intersezioni.

Definizioni

Prendiamo tre insiemi A, B e C.

A si dice sottoinsieme di B (A ⊆ B) se tutti gli elementi di A sono contenuti anche in B.

La unione di A e B è l'insieme dei numeri contenuti in A o in B o in entrambi. Si indica con ∪

C è l'intersezione di A e B se contiene tutti gli elementi che appartengono sia ad A che a B. Si indica con ∩

Diagramma di Eulero-Venn

  • A ∪ B   S   A ∩ B   S   (A)' • A

È detto complementare l'insieme che contiene tutti gli elementi eccetto quelli contenuti nell'insieme.

Insieme numerabile: È un insieme tra cui gli elementi si possono mettere in corrispondenza biunivoca con i numeri reali.

Proprietà insiemi

  • A ∪ ∅ = A
  • A ∪ S = S
  • A ∩ S = A
  • A ∩ A = A
  • A ∪ A = A
  • A ∩ ∅ = ∅
  • A ∪ (B ∪ C) = (A ∪ B) ∪ C
  • A ∩ (B ∩ C) = (A ∩ B) ∩ C
  • A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
  • A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)

Probabilità

La probabilità è uno strumento metodologico che ci permette di prendere delle decisioni in momenti di indecisione/incertezza.

Si tratta di una teoria assiomatica basata su 3 regole fondamentali:

  • P(A) ≥ 0 → probabilità di un evento ≥ 0
  • P(S) = 1 → probabilità dello spazio campione = 1
  • A ∩ B = Ø ⇒ P(A ∪ B) = P(A) + P(B)

Definizione

La probabilità è un numero compreso tra 0 e 1. È una funzione che ha come dominio lo spazio campione e come codominio tutti i numeri tra lo 0 e 1 e che gode dei 3 assiomi precedentemente elencati.

Concetti

Evento elementare → elemento indivisibile

Es. Lancio un dado, voglio prevedere la faccia esce (l'elemento è una faccia → evento elementare); esistono delle 6 facce.

Evento certo (lo spazio campione) = si verifica sicuramente

Es. Lancia un dado → Lo spazio campione è l'insieme delle 6 facceLancia una moneta → Lo spazio campione sono le due facce

Due eventi si dicono mutuamente esclusivi se al verificarsi di uno automaticamente è impossibile che da verificarsi l'altro (A ∩ B = Ø).

La probabilità di un insieme vuoto (Ø) = 0

Dim. A ∩ Ø = Ø --> per il 1° assioma P(A ∪ Ø) = P(A)A ∪ Ø = A ⇒ P(A ∪ Ø) = P(A)

P(A) = P(A) + P(Ø) ⇒ P(Ø) = 0 ✓cvd

In generale: P(A ∪ B) = P(A) + P(B) - P(A ∩ B)

Dim. ScriviamoA ∪ B = A ∪ (A ∩ B) ∪ (B ∩ A')

Sostituendo otteniamoP(B) = P(A ∩ B) ∪ (A ∩ B') ∪ assioma

dalle seconda fila cheP(A ∩ B') = P(B) - P(A ∩ B)

e sostituendo alla primaP(A ∪ B) = P(A) + P(B) - P(A ∩ B) ✓cvd

Esperimenti indipendenti

Due esperimenti si dicono indipendenti se

P(A ∩ A1) = P(A) ∙ P(A1)

Tale espressione può essere generalizzata anche ad m eventi:

P(A1 ∩ A2 ∩ ... ∩ Am) = P(A1) ∙ P(A2) ∙ ... ∙ P(Am)

ovvero la probabilità dell'evento composto è data dal prodotto delle probabilità dei singoli eventi.

Esercizio: Esperimento composto

Ipotesiamo di avere un collegamento tra due punti A e B composto da n links collegamenti.

A - L1 - L2 - L3 - ... - Lm-1 - Lm - B

I = Link i-esimo guasto

Gj = Link j-intero

  1. Collegamento AB interrotto

Qual è la probabilità che uno di questi link in questo segmento sia non guasto sapendo che il collegamento è interrotto?

P(Gj | I) = ?

Dati: P(Gj) = p ∈ [0,1]

Per il teorema di Bayes possiamo dire che:

P(Gj | I) = [P(I | Gj) ∙ P(Gj)] / P(I)

P(I) = P(1 almeno 1 link è guasto) = 1 - P(T tutti non guasti)

P(T) = P(G1 ∩ G2 ∩ ... ∩ Gm) = (Assumo eventi indipendenti = P(G1) ∙ P(G2) ∙ ... ∙ P(Gm))

P(Gj | I) = [pj] / [1-(1-p)ⁿ]

p = 1/nm => P(Gj | I) ≈ p/np = 1/n

(escludo 1-pm O escludo 1-p < 1)

Attenzione: la media di una variabile aleatoria corrisponde alla media aritmetica. Se la variabile è discreta e si somma tutti i valori che possono essere associati.

Possiamo sempre associare ad una certa variabile aleatoria una funzione g(X) che ci permette di costruire una nuova variabile aleatoria Y.

- Esempio: lancio di un dado

  • X
    • 1 1/6
    • 2 1/6
    • 3 1/6
    • 4 1/6
    • 5 1/6
    • 6 1/6

quindi

Y = X2

Y = g (X)

Se ho una certa X discreta e definisco una certa Y, ho la possibilità di calcolare la media in 2 modi:

(1) Trovo tutti i valori di Y : applico la formula E(Y) = Σj yj · pY (yj)

(2) Sapendo che Y = g(X) posso scrivere che:

Teorema: TEOREMA FONDAMENTALE DEL CALCOLO DELLA MEDIA

  • se X e Y sono discrete ⇒ E (Y) = Σ xi g(xi) pX (xi)
  • se X e Y sono continue ⇒ E (Y) = ∫-∞g(x) pX(x) dx

La media è un operatore lineare

Dim se Y = g(X) = a X + b

E(Y) = ∫-∞ (a x + b) pX (x) dx = ∫-∞ (a x + b) pX (x) dx =

= a ∫-∞ x pX (x) dx + b ∫-∞ pX(x) dx = a E(X) + b

C.V.D.

P(X = x) = ?

x = {0, 1, ..., N}

X ~ B(n, p)

P{x} = P(X = x) = ?

Eseguo l'esperimento e ottengo i seguenti risultati:

000 -> X: 0

010 -> X: 1

110 -> X: 2

011 -> X: 3

P(0010) = P(0) P(0) P(1) P(0) P(1) P(0) = q q p q q = q3 p2

P(0101) = q2 p3

P(X = x) := P(# successi in N prove t.q.) = ?

se N=3 P(0 succ. in N prove | q3)

in N prove avremo che

{ P(0 succ. in N prove) qN

{ P(1 succ. in N prove) pN

P(1 succ. in N prove) = P( {100} ∪ {010} ∪ {001})

x N=3

= P({100}) + P({010}) + P({001}) =

= pq2 + pq2 + pq2 = 3pq2

P(x succ. in N prove) =

(xCn) px qN-x dove

(NCx) = N! / x!(N-x)!

Variabile Aleatoria Gaussiana (o Normale)

Si indica con X ~ N(μ, σ2)

Una variabile aleatoria è detta Gaussiana se la sua densità di probabilità è la seguente:

fX(x) = (1 / √(2πσ2)) e- (x - μ)2 / 2σ2

in cui x ∈ ℝ

μ ∈ ℝ

σ > 0

parametri

ℰ[X] = ∫ x fX(x) dx = μ

VAR[X] = ∫ (x - μ)2 fX(x) dx = σ2

In un grafico le Px di una Gaussiana

sono rappresentate da una campana gaussiana

con punto di max in μ e ampiezza σ

cov ( X̄_1, X̄_2 ) = θ_12

se prendiamo come numero di elementi del vettore X̄ n = 2 si ha

Σ = (σ^2_1 0)(0 σ^2_2)

Z = (√σ^2_1 0)(0 √σ^2_2)

Σ = |Σ| + σ_1 σ_2 θ^2_12

( X̄_1 - μ_1 ) Σ⁻¹ ( X̄_1 - μ_1 ) X̄_1 - μ_1 ( σ^-1)

( X_1 - μ_1 )^2σ_1^2

( X_1 - μ_1 )^2σ_2^2

C exp ( X_1 - μ_1)^2σ_1^2

exp -( X_1 - μ_1)^22σ_1

( X_1 - μ_1 )^2σ_1^2

C exp ( X_1 - μ_1)^2σ_1^2

( X_1 - μ_1 )^2σ_2^2

σ_1^2( ( X_1 - μ_1)^2 )

( X_1 - μ_1 )^2σ_1^2

p ( x_1 ) = 1σ √2σ_1 exp -( X_1 - μ_1 )²2σ_1|;

p ( x_2 ) = 1σ √2σ_1 exp -( X_1 - μ_1 )²2σ_1|

X_1 e X_2 sono indipendenti

se X̄ è un vettore di Gaussiano incorrelazione e indipendenza sono la stessa cosa

e quindi incorrelazione ↔ indipendenza

Trasformazioni di variabile aleatoria

Esempio 1:

X → X = g(X) = 2X + 3

x̄ = {-1,0,1}

Ȳ = g(X⫠) = {1 3 5}

p(X = -1 ) = 1/4

p(Y = 3) = p(X = 0 ) = 1/2

p(Y = 5) = p(X = 1 ) = 1/4

Attraverso tale trasformazione abbiamo ottenuto una nuova variabile aleatoria con la stessa PPF di quella di partenza.

Dettagli
Publisher
A.A. 2020-2021
45 pagine
SSD Ingegneria industriale e dell'informazione ING-INF/06 Bioingegneria elettronica e informatica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher p.dinapoli0 di informazioni apprese con la frequenza delle lezioni di Teoria della probabilità e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Salerno o del prof Marano Stefano.