Anteprima
Vedrai una selezione di 12 pagine su 55
Probabilità e Statistica Pag. 1 Probabilità e Statistica Pag. 2
Anteprima di 12 pagg. su 55.
Scarica il documento per vederlo tutto.
Probabilità e Statistica Pag. 6
Anteprima di 12 pagg. su 55.
Scarica il documento per vederlo tutto.
Probabilità e Statistica Pag. 11
Anteprima di 12 pagg. su 55.
Scarica il documento per vederlo tutto.
Probabilità e Statistica Pag. 16
Anteprima di 12 pagg. su 55.
Scarica il documento per vederlo tutto.
Probabilità e Statistica Pag. 21
Anteprima di 12 pagg. su 55.
Scarica il documento per vederlo tutto.
Probabilità e Statistica Pag. 26
Anteprima di 12 pagg. su 55.
Scarica il documento per vederlo tutto.
Probabilità e Statistica Pag. 31
Anteprima di 12 pagg. su 55.
Scarica il documento per vederlo tutto.
Probabilità e Statistica Pag. 36
Anteprima di 12 pagg. su 55.
Scarica il documento per vederlo tutto.
Probabilità e Statistica Pag. 41
Anteprima di 12 pagg. su 55.
Scarica il documento per vederlo tutto.
Probabilità e Statistica Pag. 46
Anteprima di 12 pagg. su 55.
Scarica il documento per vederlo tutto.
Probabilità e Statistica Pag. 51
1 su 55
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Distribuzione binomiale

Y X  /730−N−− = exp 1 e= exp =⇒ 1 ee .P P ≈ −≈ − − ≈ −365 730 N N 365 730  k=1 k=1p(x) = 30, = 0.3n p0.4 n = 30, = 0.7n px n−x= (1p(x) p p)· · −p = 30, = 0.9n p= 10, = 0.3n p0.20.0 0 5 10 15 20 25 30 xPDF della distribuzione binomiale. Si osservi come si allarghi la distribuzione all’aumentare delFigura 7:numero di campioni (a parità di probabilità).n2.3.1 Distribuzione binomialeAlcuni esperimenti consistono nell’eseguire ripetutamente una data operazione, come lanciare più volte unamoneta o un dado. In qualche modo, la probabilità non varierà da una prova all’altra per via dell’indipendenzadi queste.La distribuzione binomiale è quella distribuzione che descrive problemi in cui abbiamo più estrazioni conrimpiazzo di un certo evento. Se le estrazioni sono fatte senza rimpiazzo, queste non

Sono indipendenti e si ottiene la distribuzione ipergeometrica. In ogni caso, se il numero di estrazioni, la binomiale resta una buona approssimazione. Supponiamo di tirare un certo numero di dadi, facciamo dieci. Qual è la probabilità di avere due volte 6? La probabilità che esca 6 è 1/6, mentre p = 1-p = 5/6. Perché escano due 6 su 10 tiri la probabilità è data da (1-p)^2 * p^8, ma questo non basta, perché dobbiamo considerare tutti i possibili scambi con cui possiamo estrarre i due risultati vincenti su un totale di 10. Questo viene dato dal coefficiente binomiale, 10C2. Questa è la distribuzione binomiale. Generalizzando il risultato di prima per k successi in n eventi, se p è la probabilità di successo e q = 1-p la probabilità che l'evento desiderato non avvenga, la probabilità che l'evento avvenga k volte è data da nCk * p^k * q^(n-k).

n−k(k) = (1p p) .B −p k Come ci mostra la Fig. 7, la binomiale è una distribuzione discreta (la distribuzione "continua" è un limite pered è normalizzata, cioè n → ∞), nX n (k) = 1Bpk=0 ;8<© Matteo Tajana, Università degli Studi di MilanoøProbabilità e Statistica 13per via del teorema del binomio di Newton n !nXn k n−k n(x + = = (p + 1 = 1,y) x y p)−kk=0dove i due termini elevati alla sono le rispettive probabilità di successo e insuccesso. Ovviamente la sommandi questi due esempi esclusivi restituisce lo spazio intero della probabilità. Quali sono i momenti? In teoriadovremmo applicare la formula n !nX n−kk (1= p)k p ,−hki kk=0ma il modo più efficiente di ottenerli è quello di sfruttare la funzione caratteristica, visto che calcolare esplicitamente tale sommatoria è un compito complesso. Questa era definita per una distribuzione

discreta come laserie di Fourier della distribuzione stessa: n nn ! !n nX XX ikt itikt k n−k k n−kn (k) = e (1 = (e (1= e p p) p) p)φ(t) − −B p k kk=0 k=0k=0 n it= e +1p p ,− itdove per passare dalla prima alla seconda riga abbiamo sfruttato il teorema del binomio di Newton con = ex pe = (1 Di conseguenza il primo momento sarày p).− dφ n−1h iit it= e 1 + e 1 == = np p np.µ −−ihki dt t=0 t=0Derivando un’altra volta rispetto a questa espressione si trova il secondo momento:t2d φ n−1 n−2D E h i h iit it 2 it it 22 it= = e 1 + 1) + e e 1 + e 1 = + 1)pk np p(e np p np n(n .− − − −2dt t=0 t=0t=0Per la varianza si ha di conseguenza che per la binomiale valeD E 22 2 2 2 2= 1)p + = =k n(n np n p np(1 p) σ .− − − −hkiC’è anche un’alternativa per calcolare questi momenti, sfruttando il teorema di Newton per cuin !nXn k

n−k(p + = (p,q) p q f q).Ckk=0

Osserviamo che (p, 1 = 1 per via della binomiale. Inoltre f p)− !∂f nX k n−k= kp q .p ≡ hki∂p kq=1−p k

Stessa cosa poi per il secondo momento in cui ∂∂D E2 = (p,k p p f q) .∂p ∂p q=1−p2.

3.2 Distribuzione multinomiale

La generalizzazione della distribuzione binomiale è la distribuzione multinomiale, utile nel caso ci siano più risultati possibili, in generale con probabilità diverse non avremo binomi ma multinomi, e rimpiazzeremo→ il coefficiente binomiale con quello multinomiale, dato dal numero di partizioni in classi (la distribuzione kbinomiale era = 2 e 1, per = 2 e = 1 si ottiene la distribuzione di Bernoulli) di dimensionek n > k n n , n , . . . , n1 2 kki=1Ptali che = . Questo numero (n ) = !/n !n ! !. Anche qui vale un teorema simile a quellon N N , . . . , n N . . . n1 1 2i k kdi Newton ma per il multinomio: !NX nnN k1(a )+ + + =a a a a .· ·

  • · · · ·1 2 k 1 kQ !niin ,...,n1 k;8<© Matteo Tajana, Università degli Studi di Milanoø14 Probabilità e Statistica
  • Dalla PDF della distribuzione binomiale passiamo facilmente a quella multinomiale, che èk kp!N Ynn ik1) = = !p(n , . . . , n p .p N· · ·1 k 1 k! ! !n n n· · ·1 k ii=1
  • La possiamo vedere come una specie di binomiale in cui ci sono più di due probabilità. Un esempio di appli-cazione della multinomiale è studiare un campione di 10 persone e vederne il gruppo sanguigno. Supponendoche il gruppo 0 si presenti statisticamente nella popolazione con il 10% di probabilità, quelli A e B con il 35%l’uno e quello AB con il restante 20%, con quale probabilità avremo 3 persone con gruppo 0, 2 con A, 4 conB e 1 con AB? Per rispondere a questa domanda si sfrutta appunto il coefficiente multinomiale. La distribu-zione multinomiale ha diverse proprietà.
Il primo momento è simile a quello della binomiale, e lo si ottiene sfruttando il teorema multinomiale: N!X X= 1 = ) = (p ).p p(n , . . . , n f , . . . , p1 1i k kn ,...,ni 1 k Facendo la derivata e sommandola su otteniamo quindi il primo momento p i-esimo N −1!∂ X= = == f N p p N p .p hn ihn i i i i ii i ∂p i i P =1pi La covarianza si ottiene a partire da N!∂ ∂ ∂ ∂ XED = =pn n p f p p pii j j i j j∂p ∂p ∂p ∂pi j i j j N −1!∂ X .= derivata prodotto, =N pp p ∂p ∂p δji j j i ij∂pi j N N−1 −2! !X X= + (N 1)p N δ p N p p p−i ij j i j jj j= + (N 1)p nella multinomiale la covarianza ha N p δ N p i j− ,i ij i j= (N 1)pN p− i je quindi D EED = ( 1)p =Cov(n ) = N N p Np N p p p .n, n n n − − × −N− hn i i j i j i ji j i j i j Vogliamo calcolare la varianza della multinomiale imponendo = . Calcoliamo come prima cosa il secondo momento p i

jmomento per indici uguali: N N N−1 −1 −2! ! !∂ ∂ ∂ X X XD E2 = = = + (N 1)pn p p f p N p p p N p p N p−i i i i i i i i i ii ∂p ∂p ∂pi i i i i i2= + (N 1)p N p N −i i D E2 2 2= + (1 ) =p N N p p n .−i ii iDi conseguenza, ricordando che = , la varianza si ottiene comeN phn ii i D E 22Var = Cov = = (1 ).n N p p− −hn ii=j i i iiDi conseguenza Cov = .p p−Ni,j i j2.4 Distribuzione di PoissonLa distribuzione di Poisson è una distribuzione di probabilità che esprime la probabilità che un dato numerodi eventi occorrano ad intervalli temporali fissati. Questo processo avviene con un rate perλ—probabilità;8<© Matteo Tajana, Università degli Studi di MilanoøProbabilità e Statistica 15unità di tempo—indipendentemente dalla scala di tempo considerata. Qual è la probabilità che avvengano inquesta unità di tempo eventi?

In generale questa probabilità è data dalla distribuzione di Poisson, cioè λ^n * e^(-λ) / n!, dove λ è il parametro della distribuzione. Possiamo anche vederla come limite continuo della distribuzione binomiale, cioè N! / (n! * (N-n)!) * p^n * (1-p)^(N-n), dove N è il numero totale di eventi, p è la probabilità di successo di un singolo evento e n è il numero di successi desiderati. Adesso il numero di eventi non è su un tempo discreto ma su un intervallo di tempo continuo. Questo si può vedere in vari modi. Il primo è fare il limite della binomiale sfruttando Stirling, i limiti N->∞, n->∞ e la condizione p=λ/N->0: lim (n) = λ^n * e^(-λ) / n! = λ^λ * e^(-λ) / λ!
Dettagli
Publisher
A.A. 2020-2021
55 pagine
SSD Scienze matematiche e informatiche MAT/06 Probabilità e statistica matematica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher tajana.matteo di informazioni apprese con la frequenza delle lezioni di Probabilità e statistica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Milano o del prof Zapperi Stefano.