Anteprima
Vedrai una selezione di 4 pagine su 13
Informazione, Trasmissione e Codici a Protezione d'Errore - Formulario completo Pag. 1 Informazione, Trasmissione e Codici a Protezione d'Errore - Formulario completo Pag. 2
Anteprima di 4 pagg. su 13.
Scarica il documento per vederlo tutto.
Informazione, Trasmissione e Codici a Protezione d'Errore - Formulario completo Pag. 6
Anteprima di 4 pagg. su 13.
Scarica il documento per vederlo tutto.
Informazione, Trasmissione e Codici a Protezione d'Errore - Formulario completo Pag. 11
1 su 13
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

spazio degli esiti:

Ω = un insieme i cui elementi si interpretano come possibili esiti di un esperimento

spazio degli eventi:

A(Ω) = un insieme di sottoinsiemi di Ω. A(Ω) = P(Ω), A(Ω) ha le seguenti proprietá:

  1. Ω ∈ A(Ω)
  2. Se A ⊆ A(Ω) allora A' = Ω \ A ∈ A(Ω)
  3. ∀Ai ∈ A(Ω), ∪Ai ∈ A(Ω) e ⋂Ai ∈ A(Ω)

processo di Bernoulli:

p(B) = un triplo (Ω, A(Ω), ρ: A(Ω) → ℝ) dove

  • A una numerabilitá di intersezione numerabili di Ti: 0:Ti
  • T: t ≠ 0, s ∈ ai : ai ∈ β
  • p(A(Ω) → ℝ)

eventi elementari di Bernoulli:

T1 = {x ∈ Ω | x = 1} = "al lancio è uscita testa"

T2 = {x ∈ Ω | x = 0} = "al lancio è uscita croce"

probabilitá:

P: A(Ω) → ℝ t.c. ∀P ∈ 1 e che

  1. p(Ω) = 1
  2. p(A) ≥ 0 ∀A ∈ A(Ω)
  3. p(∪Ai) = p(Ai) + p(Aj) − ⋃ p(Ai) se Ai e Aj sono eventi disgiunti (i ≠ j) (Ai ⋀ Aj = ∅)

eventi indipendenti:

A e B si dicono indipendenti se p(A ⋀ B) = p(A) ⋅ p(B)

Se A e B sono disgiunti, A e B sono indipendenti se p(A) = 0 o se p(B) = 0

processo probabilistico Finito:

è un Teorema (Ω, A(Ω), ρ) dove

  • Ω è un insieme finito di esiti possibili di un esperimento
  • A(Ω) = P(Ω)
  • Gli eventi sono tutti i sottoinsiemi di Ω
  • p: P(Ω) → ℝ è una misura di prob.

probabilitá uniforme:

p: P(x) = → ℝ c. uniforme se p è l'unica misura di prob.

  • p({x}) = 1/ ∀ x ∈ Ω Quindi, per un generico evento A ∈ P(Ω), si ha t.c. che p(A) = 1/nmod n

Principio di inclusione/esclusione

ρ(A₁ ∪ ... ∪ Ah) = ∑i=1h (-1)i-1j=1 ρ(Aj₁ ∩ ... ∩ Ajm)

(Asu insiemi):

ρ(A₁ ∪ A₂) = ρ(A₁) + ρ(A₂) - ρ(A₁ ∩ A₂)

ρ(A₁ ∪ A₂ ∪ A₃) = ρ(A₁) + ρ(A₂) + ρ(A₃) - ρ(A₁ ∩ A₂) - ρ(A₁ ∩ A₃) - ρ(A₂ ∩ A₃) + ρ(A₁ ∩ A₂ ∩ A₃)

(Per esteso ρ(A₁ ∪ ... ∪ Ak) = ρ(A₁) + ... + ρ(Ak) - ∑i≠j ρ(Ai ∩ Aj)

numero esiti di 6 lanci data. 6n

  • #k-uple con ripetizioni con numeri da 1 a n: nk
  • #k-uple senza ripetizioni con num da 1 a n: (n)k = ∏i=0k-1 (n-i)
  • #sottomultimi di k elemtiti da un insieme di n elementi: (k)n = (n!)/(k!(n-k)!) = (nn)/k!

Formula di Stirling:

n! ≈ nⁿ e-n √2πn è la formula approssimativa

n molto bene già per n>10

Formula di Stirling logaritmica: log(n!) ≈ log(nⁿ e-n √2πn) = nlog(n) - n + 1/2 log(2πn)

da cui segue che log(n!) ≈ 1 + 1/2 log(2πn) ≈ 1 per h→+∞

  • #di disposizioni di k palle indistinguibili in n cindrici: { n } = ( n )k = (n+k-1)! / k! = (n-1)! / k!(n-k)! = [n-helperk]

coefficiente multinomiale ( n ) = n / k₁! ... km-1!

dove k₁+...+km=n

proprietà coefficienti binomiali e di multinomiale:

  • ( n ) = ( n-1 ) + ( n-1 )
  • ( n ) = n / ( i )2 = n
  • { n } = { ( n ) }2
  • = ki+1 [ { ( n ) } ]
  • = k { ( n ) } = Σ { ( n ) }
  • { ( n ) }n ~ n + 1

partizione condizionata: Sia π una partizione e A un evento, allora π|A = {πi ∩ A | πi ∈ π} limitav. p(πi|A) = p(πi ∩ A) / p(A)

entropia condizionata di partizioni: Siano π e σ due partizioni. Allora H(π|σ) = Σσ p(σj) H(π|σj)

entropia condizionata di eventi: Sia π una partizione e A un evento. Allora H(π|A) = Σi p(πi|A) ln [1 / p(πi|A)]

entropia condizionata: H(X,Y|Y) = H(π|σ) = Σj p(y) p(x|y) ln [1 / p(x|y)]

entropia congiunta: H(X, Y) = H(π ∧ σ) = Σi j ρ(x = xi ∧ y = yj) ln 1 / p(x = i, y = j)

H(X, Y) = Σx y p(x) p(y) ln 1 / [p(x) p(y)] sse X e Y sono indip. = H(X) + H(Y)

proprietà dell’entropia: 1) H(p1, ..., pn) = H(p1, ..., pn + 0)

2) H(p1, ..., pn) con Σ pi = 1 non dipende dell’ordine delle pi.

3) H(p1, ..., pn) è continua

4) H(π|σ) = H(π) - H(σ) sse π è più fine di σ

teorema di unicità di H: H(p1, ..., pn) = Σpi ln 1 / pi

è l’unica funzione a meno di costanti moltiplicative, che soddisfa le n proprietà dell’entropia.

c.a. sufficiente con confidenza: S1 ... Sm congiunzione di v.a. è sufficiente per X

per X = (X ... Xn) congiunzione di v.a. con confidenza 1 - ε sse ∃ A ⊆ Ω t.c.:

1) p(A) = 1 - ε

2) S1 | A, ..., Sm | A è sufficiente per (X1 | A, ..., Xn | A)

decodifica per sindromi. Sia y ∈ F2m, e palla: z = (y0)

inducono di y abbiamo a disposizione un DB di parole

di Fn: {x2, x2 ∈ F2} t.c. ∀x∈Fn, d(x2, 0) = peso

min{d(x,ρ)∣ H(x, z) = 1} Allora ydec = y + xz ∈ C

distanza minima = d(C) = min{d(x, x1) ∣ x ≠ 0 e x ∈ C} ovvero

è minima distanza di 2 parole tra il codice C.

peso minimo = w(C) = peso minimo di C

  • w(C) = min{d(x,ρ) ∣ x ≠ 0 e x ∈ C}
  • se C è lineare allora d(C) = w(C)

massima numero di errori corretti con certezza: un dec.

corregge al massimo └──────────────┘ errori

distanza minima nel cubo di Hamming: d(C)(4,7,2)≥3, quindi

corregge al massimo 1 errore.

entropia condizionata (formule nuove): H(X∣Y) = H(X, Y) - H(Y)

H(Y∣X) = H(Y, X) - H(X)

da cui si ricava che H(XY) = H(Y) + H(X∣Y)

= H(X) + H(Y∣X)

interferenze di mutua informazione: I(X∣Y) = H(X) - H(X∣Y) =

H(Y) - H(Y∣X)

che è la misura di indecisione di

incertezza da X ad Y sapendo Y

Dettagli
Publisher
A.A. 2018-2019
13 pagine
1 download
SSD Scienze matematiche e informatiche INF/01 Informatica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher tovy97 di informazioni apprese con la frequenza delle lezioni di Informazione, Trasmissione e Codici a Protezione d'Errore e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi dell' Insubria o del prof Re Riccardo.