Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Teoria della Probabilità e della Misurazione (TPM) AA 2012–13
Docente: Prof. Paolo Carbone, email: paolo.carbone@unipg.it Tel: 075 5853629
Docente: Prof. Antonio Moschitta, email: moschitta@diei.unipg.it Tel: 075 5853933
Orario di ricevimento (Carbone): Lunedì 10:30-11:30 e su appuntamento
Libri di testo (in alternativa):
- Dispense a cura del docente e – a complemento –:
- "Probability and Stochastic Processes," 2nd ed. Roy. D. Yates, David J. Goodman o
- "N. A. Weiss "Calcolo delle probabilità", Pearson-Addison Wesley, 2008
Prerequisiti: Analisi I
Programma:
- Elementi di teoria degli insiemi. Campi e σ-algebra di Borel. Spazi campione ed eventi aleatori. Assegnazione di probabilità: approccio classico, empirico, soggettivo. Probabilità condizionata, teorema della probabilità totale. Teorema di Bayes. Esempi ed esercizi.
- Elementi di calcolo combinatorio: disposizione, permutazioni, combinazioni. Prove ripetute: formula di Bernoulli. Esempi ed esercizi.
- Concetto di variabile aleatoria. Funzione di ripartizione, di densità di probabilità. Variabili aleatorie continue, discrete, miste. Momenti di variabili aleatorie: centrati e non centrati. Valor medio. varianza. Disuguaglianza di Chebyshev. Variabili aleatorie uniformi, Gaussiane, esponenziali. Esempi ed esercizi.
- Trasformazioni di variabile aleatoria. Determinazione della funzione di ripartizione. Trasformazioni lineari di variabili aleatorie. Esempi ed esercizi.
- Coppie di variabili aleatorie. Densità di probabilità congiunta e marginale. Variabili aleatorie indipendenti. Momenti di coppie di variabili aleatorie. Funzioni di ripartizione e di densità di probabilità condizionata. Esempi ed esercizi.
- Funzioni di due variabili aleatorie. Variabili aleatorie n-dimensionali. Proprietà della variabili aleatorie Gaussiane. Teorema limite centrale. Esempi ed esercizi.
- Processi aleatori. Momenti di un processo aleatorio. Processi aleatori stazionari in senso stretto e lato. Ergodicità. Transito di processi aleatori in sistemi istantanei. Esempi ed esercizi.
- Teoria della misurazione. Fondamenti di metrologia. Modello del processo di misurazione. Valutazione dell’errore dell’incertezza di misura. Legge di propagazione delle incertezze. Esempi ed esercizi.
- Esame: prova scritta e prova orale. La prova scritta consiste in 2 esercizi (uno da 7 punti e uno da 8 punti) e in 15 quiz con 4 possibili risposte, delle quali solo una è corretta (1 punto per ogni risposta corretta, -0.5 pt per ogni risposta errata, 0 punti per ogni mancata risposta). Durante il corso verranno risolti in aula alcuni esercizi e alcune prove di esame.
Probabilità
Definita u struttura matematica di base si deve scegliere il modo in cui assegnare le probabilità nel rispetto degli assiomi. Per fare ciò si hanno a disposizione diversi approcci:
Base empirica: si valuta la probabilità in base alle frequenze di occorrenza di un fenomeno.
Base classica: si valuta la probabilità in base al rapporto N(E)/N(Ω) assunto che tutti gli eventi siano equiprobabili.
Base geometrica: (teoria della misura) usata nel caso in cui lo spazio campione è continuo. Si considera la σ-algebra di Borel dell'asse reale e si assegna la probabilità alle semirette del tipo [s,+∞) tramite una funzione integrale f(x):
- ∫-∞tf(x)dx = t
Legge delle partizioni
Gli eventi A1, A2, A3,... formano una partizione dello spazio campionario Ω se sono incompatibili ed esaustivi, ovvero
- Am∩An=∅ ∪ m≠n
- ∪ Am = Ω
Se A1, A2,... sono una partizione dello spazio campionario Ω contenente N eventi, per ogni evento B si ha
P(B)=∑m=1N P(Am∩B)
In particolare se E è un evento allora E ed Ec sono una partizione in Ω dalla legge quindi la prob. che accada un evento B è data da:
P(B)=B(B∩E) + P(B∩Ec)
FAMIGLIE DI VARIABILI ALEATORIE DISCRETE
IN MOLTI CASI PRATICI CERTI COMPORTAMENTI PROBABILISTICI DI VARIABILI ALEATORIE SI PRESENTANO PIÙ E PIÙ VOLTE.
VARIABILI ALEATORIE BINOMIALI: B(m, p)
TALE MODELLO SI APPLICA NEL CASO IN CUI:
- SI EFFETTUINO PROVE IN SEQUENZA INDIPENDENTI L'UNA DALL'ALTRA
- IN OGNI PROVA CI SONO 2 POSSIBILI ESITI (SUCCESSO O INSUCCESSO)
- LA PROBABILITÀ DI SUCCESSO P NON CAMBIA TRA UNA PROVA E L'ALTRA
X = N° PROB. DI SUCCESSO NELLA SINGOLA PROVA m = NUMERO DI PROVE EFFETTUATE X = VARIABILE ALEATORIA CHE ESPRIME IL m° DI SUCCESSI IN m PROVE
PX(x) = \(\binom{m}{x}\) px(1-p)m-x 0 < p < 1, m ≥ 1
- SE m = 1 IL MODELLO PRENDE IL NOME DI VARIABILE ALEATORIA DI BERNOULLI: PX(x) =
- P(m insuccessi) = (1-p)m ; P(m successi) = pm
- ESEMPIO: SOPRAVVIVENZA FINO A 70 ANNI m = 3 PERSONE p = PROB. DI SOPRAVVIVENZA p = 0,8 X = n° DI PERSONE VIVE A 70 ANNI
P(X=2) = \(\binom{3}{2}\) 0,82 (1-0,8)3-2 P(X ≤ 1) = PX(0) + PX(1) P(X ≥ 1) = PX(1) + PX(2) + PX(3) = 1 - PX(0)
VARIABILI ALEATORIE DI POISSON
X È V.A. DI POISSON SE LA SUA PDF SI PUÒ ESPRIMERE
PX(x) = \(\frac{\alpha^x e^{-\alpha}}{X!}\) X = 0,1,2, ... α > 0
LA V.A. DI POISSON DESCRIVE FENOMENI DI ARRIVO, IN PARTICOLARE SI SPECIFICA UN TASSO MEDIO DI ARRIVI AL SECONDO = λ E UN INTERVALLO TEMPORALE = T
IL m° DI ARRIVI NELL'INTERVALLO T HA UNA DISTRIBUZIONE DI POISSON CON PARAMETRO α = λ T
- ESEMPIO: SITO WEB CON λ = 2 ACCESSI: P(ANCHE 2 ACCESSI IN 0,25s) = PX(0) = 0,5 = 0,057 P(NON AVERE PIÙ DI 2 ACCESSI IN 1s) = P(X ≤ 2) = P[T(X=0)+P(T=1)+P=2]
VARIABILE ALEATORIA UNIFORME DISCRETA
UNA V.A. È UNIFORME DISCRETA SE LA SUA PDF È UNA FUNZIONE COSTANTE RISP. A X
PX(x) = \(\frac{1}{e-k+1}\) X = k, k+1,... e
ATTRIBUISCE LA STESSA PROBABILITÀ AD OGNI ELEMENTO DELL'INSIEME
Nel caso in cui si analizzino esperimenti che producono 2 variabili
aleatorie discrete X e Y la caratterizzazione probabilistica completa
avviene assegnando funzioni di 2 variabili.
In particolare si definisce f. di distribuzione cumulativa congiunta
FX,Y(x, y) = P(X ≤ x, Y ≤ y)
Teorema (Proprietà della funzione di distribuzione cumulativa congiunta)
- 0 ≤ FX,Y(x, y) ≤ 1
- FX,Y(x, ∞) = FX(x)
- FX,Y(∞, y) = FY(y)
- FX,Y(-∞, y) = FX,Y(x, -∞) = 0
- Se x ≤ x1
- y ≤ y1 allora FX,Y(x, y) ≤ FX,Y(x1, y1)
Funzione di probabilità di massa congiunta
P(X, Y) = P(X = x, Y = y)
La coppia (X, Y) prende valori in SX,Y = {(x, y) | PX,Y(x, y) > 0}
* Esempio
- 0,84 (2,2)
- 0,09 (1,1)
- 0,06 (1,0)
- 0,01 (0,0)
- 0 altrove
Funzioni di distribuzione di massa marginali
Data la PDF congiunta PX,Y(x, y) si vogliono determinare le PDF marginali PX(x) e PY(y).
Ciò è sempre possibile in quanto la congiunta contiene in sé le informazioni per le marginali (non è vero il viceversa).
Esiste un teorema che ci permette di ricavare le marginali dalla congiunta
- PX(x) = Σ PX,Y(x, Y)
- PY(y) = Σ PX,Y(X, y)