vuoi
o PayPal
tutte le volte che vuoi
spazio degli esiti:
Ω = un insieme i cui elementi si interpretano come possibili esiti di un esperimento
spazio degli eventi:
A(Ω) = un insieme di sottoinsiemi di Ω. A(Ω) = P(Ω), A(Ω) ha le seguenti proprietá:
- Ω ∈ A(Ω)
- Se A ⊆ A(Ω) allora A' = Ω \ A ∈ A(Ω)
- ∀Ai ∈ A(Ω), ∪Ai ∈ A(Ω) e ⋂Ai ∈ A(Ω)
processo di Bernoulli:
p(B) = un triplo (Ω, A(Ω), ρ: A(Ω) → ℝ) dove
- A una numerabilitá di intersezione numerabili di Ti: 0:Ti
- T: t ≠ 0, s ∈ ai : ai ∈ β
- p(A(Ω) → ℝ)
eventi elementari di Bernoulli:
T1 = {x ∈ Ω | x = 1} = "al lancio è uscita testa"
T2 = {x ∈ Ω | x = 0} = "al lancio è uscita croce"
probabilitá:
P: A(Ω) → ℝ t.c. ∀P ∈ 1 e che
- p(Ω) = 1
- p(A) ≥ 0 ∀A ∈ A(Ω)
- p(∪Ai) = p(Ai) + p(Aj) − ⋃ p(Ai) se Ai e Aj sono eventi disgiunti (i ≠ j) (Ai ⋀ Aj = ∅)
eventi indipendenti:
A e B si dicono indipendenti se p(A ⋀ B) = p(A) ⋅ p(B)
Se A e B sono disgiunti, A e B sono indipendenti se p(A) = 0 o se p(B) = 0
processo probabilistico Finito:
è un Teorema (Ω, A(Ω), ρ) dove
- Ω è un insieme finito di esiti possibili di un esperimento
- A(Ω) = P(Ω)
- Gli eventi sono tutti i sottoinsiemi di Ω
- p: P(Ω) → ℝ è una misura di prob.
probabilitá uniforme:
p: P(x) = → ℝ c. uniforme se p è l'unica misura di prob.
- p({x}) = 1/ ∀ x ∈ Ω Quindi, per un generico evento A ∈ P(Ω), si ha t.c. che p(A) = 1/nmod n
Principio di inclusione/esclusione
ρ(A₁ ∪ ... ∪ Ah) = ∑i=1h (-1)i-1 ∑j=1 ρ(Aj₁ ∩ ... ∩ Ajm)
(Asu insiemi):
ρ(A₁ ∪ A₂) = ρ(A₁) + ρ(A₂) - ρ(A₁ ∩ A₂)
ρ(A₁ ∪ A₂ ∪ A₃) = ρ(A₁) + ρ(A₂) + ρ(A₃) - ρ(A₁ ∩ A₂) - ρ(A₁ ∩ A₃) - ρ(A₂ ∩ A₃) + ρ(A₁ ∩ A₂ ∩ A₃)
(Per esteso ρ(A₁ ∪ ... ∪ Ak) = ρ(A₁) + ... + ρ(Ak) - ∑i≠j ρ(Ai ∩ Aj)
numero esiti di 6 lanci data. 6n
- #k-uple con ripetizioni con numeri da 1 a n: nk
- #k-uple senza ripetizioni con num da 1 a n: (n)k = ∏i=0k-1 (n-i)
- #sottomultimi di k elemtiti da un insieme di n elementi: (k)n = (n!)/(k!(n-k)!) = (nn)/k!
Formula di Stirling:
n! ≈ nⁿ e-n √2πn è la formula approssimativa
n molto bene già per n>10
Formula di Stirling logaritmica: log(n!) ≈ log(nⁿ e-n √2πn) = nlog(n) - n + 1/2 log(2πn)
da cui segue che log(n!) ≈ 1 + 1/2 log(2πn) ≈ 1 per h→+∞
- #di disposizioni di k palle indistinguibili in n cindrici: { n } = ( n )k = (n+k-1)! / k! = (n-1)! / k!(n-k)! = [n-helperk]
coefficiente multinomiale ( n ) = n / k₁! ... km-1!
dove k₁+...+km=n
proprietà coefficienti binomiali e di multinomiale:
- ( n ) = ( n-1 ) + ( n-1 )
- ( n ) = n / ( i )2 = n
- { n } = { ( n ) }2
- = ki+1 [ { ( n ) } ]
- = k { ( n ) } = Σ { ( n ) }
- { ( n ) }n ~ n + 1
partizione condizionata: Sia π una partizione e A un evento, allora π|A = {πi ∩ A | πi ∈ π} limitav. p(πi|A) = p(πi ∩ A) / p(A)
entropia condizionata di partizioni: Siano π e σ due partizioni. Allora H(π|σ) = Σσ p(σj) H(π|σj)
entropia condizionata di eventi: Sia π una partizione e A un evento. Allora H(π|A) = Σi p(πi|A) ln [1 / p(πi|A)]
entropia condizionata: H(X,Y|Y) = H(π|σ) = Σj p(y) p(x|y) ln [1 / p(x|y)]
entropia congiunta: H(X, Y) = H(π ∧ σ) = Σi j ρ(x = xi ∧ y = yj) ln 1 / p(x = i, y = j)
H(X, Y) = Σx y p(x) p(y) ln 1 / [p(x) p(y)] sse X e Y sono indip. = H(X) + H(Y)
proprietà dell’entropia: 1) H(p1, ..., pn) = H(p1, ..., pn + 0)
2) H(p1, ..., pn) con Σ pi = 1 non dipende dell’ordine delle pi.
3) H(p1, ..., pn) è continua
4) H(π|σ) = H(π) - H(σ) sse π è più fine di σ
teorema di unicità di H: H(p1, ..., pn) = Σpi ln 1 / pi
è l’unica funzione a meno di costanti moltiplicative, che soddisfa le n proprietà dell’entropia.
c.a. sufficiente con confidenza: S1 ... Sm congiunzione di v.a. è sufficiente per X
per X = (X ... Xn) congiunzione di v.a. con confidenza 1 - ε sse ∃ A ⊆ Ω t.c.:
1) p(A) = 1 - ε
2) S1 | A, ..., Sm | A è sufficiente per (X1 | A, ..., Xn | A)
decodifica per sindromi. Sia y ∈ F2m, e palla: z = (y0)
inducono di y abbiamo a disposizione un DB di parole
di Fn: {x2, x2 ∈ F2} t.c. ∀x∈Fn, d(x2, 0) = peso
min{d(x,ρ)∣ H(x, z) = 1} Allora ydec = y + xz ∈ C
distanza minima = d(C) = min{d(x, x1) ∣ x ≠ 0 e x ∈ C} ovvero
è minima distanza di 2 parole tra il codice C.
peso minimo = w(C) = peso minimo di C
- w(C) = min{d(x,ρ) ∣ x ≠ 0 e x ∈ C}
- se C è lineare allora d(C) = w(C)
massima numero di errori corretti con certezza: un dec.
corregge al massimo └──────────────┘ errori
distanza minima nel cubo di Hamming: d(C)(4,7,2)≥3, quindi
corregge al massimo 1 errore.
entropia condizionata (formule nuove): H(X∣Y) = H(X, Y) - H(Y)
H(Y∣X) = H(Y, X) - H(X)
da cui si ricava che H(XY) = H(Y) + H(X∣Y)
= H(X) + H(Y∣X)
interferenze di mutua informazione: I(X∣Y) = H(X) - H(X∣Y) =
H(Y) - H(Y∣X)
che è la misura di indecisione di
incertezza da X ad Y sapendo Y