Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
PROBABILITÀ
DEFINIZIONE DI LAPLACE
LA PROBABILITÀ DI UN PARTICOLARE RISULTATO È DEFINITA DAL RAPPORTO:
(P(evento)) = NUMERO DI CASI FAVOREVOLI / NUMERO DI CASI POSSIBILI
DEFINIZIONE DI VON MISES
- SI BASA SULLA RIPETIZIONE DELL'ESPERIMENTO CHE FORNISCE UNA SERIE DI RISULTATI (EVENTI)
(
SV
1
2N RIPETIZIONI
)
EVENTI
- E1 m2E2 m. ..
m1 + m2 + m3 = N
IL NUMERO DI VOLTE CHE SI PRESENTA L'EVENTO E1 ( mi) È DETTOFREQUENZA ASSOLUTA DELL'EVENTO - E=
MENTRE:
pi = mi / N È LA FREQUENZA RELATIVA
- LA FREQUENZA RELATIVA SI STABILIZZA ALL'AUMENTARE DI N TENDENDO A VALORI VISTI NELLA DEFINIZIONE DI LAPLACE
- LA PROBABILITÀ VIENE DEFINITA COME IL VALORE CUI TENDE LA FREQUENZA RELATIVA ALL'AUMENTARE DEL NUMERO DI RIPETIZIONI P = limit ( mi / N→∞ )
- LA PROBABILITÀ DI NON OTTENERE ALCUN RISULTATO È NULLA
- LA PROBABILITÀ DI OTTENERE UNO QUALUNQUE DEI RISULTATI POSSIBILI È UGUALE A 1
- LA PROBABILITÀ DI OTTENERE CIASCUNO DI DUE EVENTI È NON INFERIORE ALLA PROBABILITÀ DI OTTENERE UNO SOLO DEI DUE
Definizione Assiomatica
U indica un evento o l'insieme∩ indica l'equiprobabilità contemporanea di due eventiEi generico eventoØ l'assenza di risultati{E1, E2, E3, ..., Eu} insieme di tutti i possibili eventi.
La probabilità è una funzione per cui valgono le seguenti proprietà:
- 0 ≤ P(Ei) ≤ 1
- P(Ø)=0
- P(Ω)=1 [Ω=U ∪ Ei, ...]
- P(Ei ∪ Ej) = P(Ei) + P(Ej) ≥ P(Ei)
Eventi stocasticamente indipendenti
Se il verificarsi dell’uno non influenza la probabilità di verificarsi dell’altro
Eventi mutuamente esclusivi
Se il realizzarsi di uno impedisce il realizzarsi dell’altro
Si definisce funzione di distribuzione congiunta nella v.a. bidimensionale (X,Y)
nel punto (x,y) la probabilità che si verifichi contemporaneamente
che X ≤ x e Y ≤ y
F(x,y) = P ( X ≤ x e Y ≤ y )
Ciascuna componente della coppia (X,Y) è una v.a. monodimensionale e quindi descritta da una sua funzione di distribuzione chiamata marginale.
FX(x) = P ( X ≤ x )FY(y) = P ( Y ≤ y )
FX(x) non è altro che la probabilità che X ≤ x qualunque sia y
FX(x) = P ( X ≤ x e Y ≤ ∞) calcolabile tramite:FX(x) = ∫ f(x,y) dy
Se i valori delle componenti X e Y della v.a. bidimensionale sono indipendenti, la funzione di distribuzione è data dal prodotto delle due marginali:
F(x,y) = FX(x) FY(y)
Si definisce funzione densità di probabilità congiunta la f(x,y)
data dalla probabilità che si realizzi un valore compreso negli intervalli
x → x+dx e y → y+dy
f(x,y) dx dy = P ( x ≤ X ≤ x+dx e y ≤ y+dy )= ∫ ∫ f(x,y) dx dy
x la probabilità su un intervallo finito: P(a ≤ X ≤ b e c ≤ y ≤ d)= ∫ab ∫cd f(X,y) dx dy
Le densità di probabilità marginali sono quelle delle singole componenti
fX(x) e fY(y)
fX(x) = ∫ f(x,y) dyfY(x) = ∫ f(x,y) dx
Esercizio Esempio:
La misura di distanza è stata di 102,123 m.E = 0,005 m. Quale intervallo contiene il 90% di avere il risultato?
90% = scrivania 90%
Guard in tabella la colonna Z conseguentemente
Esercizio Esempio:
Distanza misurata 532,260 ± 0,00025 m. Sapendo che la probabilità di ottenere un determinato valore entro ±5 mm dal valore medio è del 68%.
L EN (μ,σ2)
LEn (532,260, 0,000025)
p(532,23 < X < 532,25)?
Distribuzione normale avente media 0 var. 1
I valori estremi standardizzati sono:
1
Entro un tag.
Differenza tra probabilità e frequenza
Probabilità: definita a priori, stima in modo quantitativo la possibilità che un certo risultato si verifichi.
Frequenza: definita a posteriori, misura risultati empiri di esperimenti già effettuati.
Campionamento e inferenza
X: variabile aleatoria rappresentativa di una grandezza misurabile.
Popolazione della v.a.: l'insieme di valori che la variabile può assumere.
Campione della v.a.: insieme finito di osservazioni della variabile.
Potenza del campione: numero di elementi estratti che costituiscono il campione.
Con i valori campionari si possono calcolare delle nuove variabili di tipo aleatorio che prendono il nome di statistiche (una x le stime dei parametri ignoti):
ΣX : 1/m ∑mi=1Si
S2X : 1/(m-1) ∑mi=1 (xi-X)2
S2y : 1/(m-1) ∑mj=1 (xi-SX) (yi-Sy)
ΣX = S/√m = √(1/(m(m-1)) ∑mi=1 (xi-X)2)
Media campionaria
Varianza campionaria
Covarianza campionaria
Scarto quadratico medio della media
EQUAZIONE DELLE DISTANZE INCLINATE
(es. calcoli in 3D...)
(xg - xa)2 + (yB - yA)2 + (zB - zA)2 = duAB VAB
EQUAZIONE DELLE DIFFERENZE DI COORDINATE
(es. vettori GPS)
- XA = xa - Δxga - VGA/B
- YA = ya - Δyga - dyga
- ZA = za - Δzga - dyga
EQUAZIONE DELL'ANGOLO ZENITALE
arcφ (SAB / HB - HA) - ZAB = VZAB
(ψ + ϕ) 2 = γ cos-1 (q)k+1 / (k-1)
(ψ + ϕ) 1 = γ cos-1 (q)k+1 / (k-1)
ψ = 2β - 2BAC
ϕ = 4ψ arccos 1k-1
ϕ + ψ = AQ + N
ψ = N - m
NOTO
ϕ
θAP = θAC + ϕ
AP = AB / sinα sin(π-α-ϕ)
XP = XA + AP sin θAP
YP = YA + AP cos θAP
Differenze Triple
2 ricevitori (1, 2) 2 satelliti (j, k) 2 epoche di misura (t1 e t2)
Φjk12(t2) - Φjk12(t1) = ρjk12(t2) - ρjk12(t1) + Njk12
Facendo la differenza:
δ(Φjk12(t2) - Φjk12(t1)) = 1/λ (δρjk12(t2) - δρjk12(t1))
Scorporare il termine legato alle ambiguità di fase,
DI = δΦjk12(t2) - 1/λ δρjk12(t1)