Anteprima
Vedrai una selezione di 6 pagine su 22
Teoria e esempi variabili aleatorie Pag. 1 Teoria e esempi variabili aleatorie Pag. 2
Anteprima di 6 pagg. su 22.
Scarica il documento per vederlo tutto.
Teoria e esempi variabili aleatorie Pag. 6
Anteprima di 6 pagg. su 22.
Scarica il documento per vederlo tutto.
Teoria e esempi variabili aleatorie Pag. 11
Anteprima di 6 pagg. su 22.
Scarica il documento per vederlo tutto.
Teoria e esempi variabili aleatorie Pag. 16
Anteprima di 6 pagg. su 22.
Scarica il documento per vederlo tutto.
Teoria e esempi variabili aleatorie Pag. 21
1 su 22
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Un esperimento aleatorio è un esperimento che non

convoca è ripetibile a piacere.

  • Spazio campione: Ω (insieme di tutti i possibili risultati),
  • Classe degli eventi: S (insieme di tutti i possibili eventi),
  • Un evento è un sottoinsieme dello spazio campione A⊆Ω
  • Evento impossibile: Ω={∅, {1}, {2}, Ω}
  • ∅ evento impossibile
  • Leggi di probabilità: definisce agli elementi e non ai risultati.

Pr: 1.3: S→[0,1], ∀A∈S Pr(A)∈[0,1]

Pr({A’}) = limN→∞ NA’/N legge probabilistica

∀A∈S Pr(A) ≥ 0 sopra! Pr(2.2):1

∀A,B∈S A∩B= ∅ ⇒ Pr(A∪B)= Pr(A)+Pr(B)= Pr(A∪B)

A’= Ω-A ∀A∈S ⇒ Pr(A’)= 1-Pr(A)

∀A∈S ∅ ≤ Pr(A) ≤ 1

Pr(∅)=0

∀A,B∈S Pr(A∪B)= Pr(A)+Pr(B)-Pr(A∩B)

Per convenienza si scrive Pr(A∩B)= Pr(A,B)

A e B sono indipendenti se Pr(A∩B) = Pr(A)Pr(B)

Se A e B non sono indipendenti ⇒ Pr(A|B) si può calco

lare solo superficialmente

Pr(A|B)= def. Pr(A∩B)

Pr(B)

⇒ Pr(A|B)= Pr(A∩B)/Pr(B)

Teorema di Bayes

∀A,B∈S

PrA(B|A)= PrB(B|A)PrA

Pr(B)

3o. Che probabilità ho di avere un tris durante una partita di poker?

P(A∪B) = P(A) + P(B) - P(A∩B) = P(A) + P(B) - 2P(A)P(B)

µ = µ₀(1 - e-sμ)

= 13-10 (

Teorema di probabilità totale

18/03/2014

Sia A∈S e B₁, B₂,... Bₙ una partizione dello spazio campione Ω.

∀Bi, Bj, i≠j ⇒ Bi∩Bj = ∅

P(A)= σP(A|Bi)P(Bi)

Nel teorema di Bayes ho bisogno di P(Bi|A) che non essendo a priori me la posso calcolare:

P⊂(B|A), P⊂(B|A)σ / P⊂Pr(A) = λPr(B|A) + Bj⊂(Pr(B|A)

dif.

Nota che A lo posso considerare come fatto a posta.

P(A|B) = C₁∩B₃ A∩B

Pr(A|B) =

Facciamo un esperimento e lanciamo una moneta con due facce {"HT"}, ("T", "C"), (

Le classi: configurazione la faccia volta ⊂3= Ω x Ω x Ω

In generale, Ω ⊂ Ω x Ω x Ω x Ω

Se lancio 10 volte una probabilità che sia 10 volte T o 10 volte C?

3.

x < x0 ➔ Fx(x) = 0 ➔ fx(x) = 0

x ∈ <x0, x> ➔ Fx(x) = 12 ➔ fx(x) = 0

x > x1 ➔ Fx(x) = 1 ➔ fx(x) = 0

➜ ma va bene

Impulso di Dirac

δ(x) = {

  • 1 x ∈ [-2, 2]
  • 0 altrove

lim∆→0 f(x) ➔ l'intervallo [-2, 2] ➔ 0 e il valore 1 ➔ ∞

δ(x) = 0 x ≠ 0

-∞ f(x) dx = 1

P(x)

f(x) = 12 f(x) + 12 (x - 1)

Proprietà di f(x):

  • ∀ x ∈ ℝ ➔ f(x) ≥ 0
  • limx→ ∞ f(x) = 0
  • -∞ f(x) dx = 1

H(X) = 3/4 log2(2/3) + 1/4 log2 1/4 log2 4/2 log2 = 1/2 + 3/4 = 1,25

  • L’entropia è il numero di bit che normalmente un
  • servono per rappresentare un’informazione
  • L’algoritmo per comprimere file usa l’entropia per lavorare

1.

A causa del traffico quando piove la probabilità che l'auto

arrivi in ritardo del 40%, se invece non piove del

5%. Sapendo che piove il 40%, in un giorno l'auto

arriva in ritardo, qual è la probabilità che stia piovendo?

Definisco X : pioggia e Y : ritardo

Si deve calcolare P(X | Y) = P(X ∩ Y) / P(Y) = 0.45 / 365 ⇒ 0.17

Applico il teorema della probabilità totale

P(X | Y) = P(X ∩ Y) / P(Y) = 0.45 \+ 0.2 + 0.05 \* 0.8 = 0.31

2.

Mario e Francesco sono fratelli gemelli. Mario sbaglia

una domanda con probabilità 0.1, Francesco con pro

babilità 0.4.

Si prende un fratello a caso, gli penso io domanda.

Se lui risponde c'è probabilità che sia stato Mario!?

Definisco M : Mario e F : Francesco

P(X ∈ M | ?) = 0.1

P(X ∈ F | ?) = 0.4

Devo calcolare P(X | 2).9 = 1.0

0.9

FY(y) = P(X ≤ y) = P(x + g(x) ≤ y)

Ay = {ω ∈ Ω : g(x(ω)) ≤ y}

⇒ FY(y) = P(Ay) = ∫{x:y-fX(x) dx = ∫-∞ fX(x) dx = FX (y)   x(y or y ≠

  •   y ≤ 0

  •   0 < y < 1

  •   y ≥ 1

fY(y) = FY(y):        se   y ≤ 0

0    0 < y < 1

1    y ≥ 1

η = ∫+∞ y fY(y) dy = ∫1 y 1/2 1/y dy =

» ½ [2 − ⅔] − 0 1/3

 

3) Sia X una variabile aleatoria con la sua relataria fX(x) ≤ sia y = g(x) ≈ ² g(x) ≈

Se g'(x) ≠ 0 ∨ 0    gY(y) = ∑ fX(x)

x1, ... xn ∈ | xi :

P(y) = P(X ≤ x)

Supponiamo ... g(y) monotona decrescente

g'(x) ≤ 0

FY(y) = P({X ≤ X ≤ y}) = P(y ≥ g(x)) ≤ y

P({X ≤ x ≤ FY) FX = X :

FY(y + Δy) = P({X ≤ X ≤ x}) = FX (x > x) - FX

fY(y) = FY(y) = &big=line y → 0

lim&sub2;y→1> y

lim ∑Δx − ∑Δx = limit = ⌋

Adesso supponiamo di avere la variabile aleatoria monotona decrescente.

Tutto ciò si può applicare alle doppie variabili?

  • 0 < Fxy(x,y) < 1
  • limx→-∞ Fxy(x,y) = 0
  • limy→+∞ Fxy(x,y) = (∀t∈ℝ | ∃y0Fxy≤Fy) e siccome limy→+∞ Fy(y) = 1
  • ⇒ limx→+∞ Fxy(x,y) = 1
  • ∀(xy,y1), (xy,y2) ∈ℝ2 con x1
Dettagli
Publisher
A.A. 2013-2014
22 pagine
SSD Ingegneria industriale e dell'informazione ING-INF/03 Telecomunicazioni

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Manu2405 di informazioni apprese con la frequenza delle lezioni di Teoria dei segnali e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Catania o del prof Morabito Giacomo.