Anteprima
Vedrai una selezione di 4 pagine su 11
Lezioni, Topografia e cartografia Pag. 1 Lezioni, Topografia e cartografia Pag. 2
Anteprima di 4 pagg. su 11.
Scarica il documento per vederlo tutto.
Lezioni, Topografia e cartografia Pag. 6
Anteprima di 4 pagg. su 11.
Scarica il documento per vederlo tutto.
Lezioni, Topografia e cartografia Pag. 11
1 su 11
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

 TRATTAMENTO DEI DATI DI RILIEVO

Nel descrivere i fenomeni, occorre elaborare dei modelli e verificare il grado di approssimazione di queste

elaborazioni, essenzialmente misurando grandezze. Il concetto di misura non può prescindere dalla

considerazione delle caratteristiche dello strumento con cui la si effettua, delle sue interazioni con

l’ambiente e con la definizione di un modello della grandezza stessa, che viene assunto come soddisfacente

agli scopi del procedimento di misura; da queste nasce una variabilità dei risultati dell’operazione di misura.

L’esigenza di introdurre l’incertezza nasce dalla osservazione sperimentale che la ripetizione della misura di

una medesima grandezza in talune condizioni porta a risultati diversi. In ogni ripetizione del processo i

riporti e la stima sono soggetti a fluttuazioni “accidentali” che generano piccole variazioni nel valore finale

stimato della lunghezza. Tanto maggiore è il numero di riporti, tanto maggiori saranno le discordanze fra le

ripetizioni della misura. Qualsiasi strumento/metodo di misura ha una propria incertezza. Dovremo sempre

esprimere il risultato di ogni operazione di misura associando al valore numerico la valutazione

dell’incertezza con cui esso è stato ricavato. Esistono, accanto alle fluttuazioni accidentali, anche le

cosiddette cause sistematiche di errore, la cui natura emerge chiaramente considerando il modello usato

per descrivere il fenomeno. Ogni descrizione matematica di un fenomeno fisico, utilizzata per esprimere il

valore di una data grandezza in funzione di altre grandezze o parametri, deve ricorrere a semplificazioni.

Il modello deve essere perciò: il più semplice possibile, perché sia utilizzabile facilmente e complicato

quanto necessario, in relazione alla approssimazione che si richiede ai valori predetti dal modello stesso.

Nel modello si distinguono una componente funzionale ed una stocastica, che sono strettamente connesse.

La componente funzionale descrive analiticamente la relazione fra la grandezza osservabile ed i parametri

che sono ad essa collegati. Questi parametri devono essere valutati in relazione alla incertezza da ottenere

nella stima della osservazione. La componente stocastica del modello è invece legata al complesso delle

cause di variabilità del valore osservato che non si includono esplicitamente nel modello funzionale: essa

tiene conto cioè della dispersione delle misure dovuta a cause accidentali, che sfuggono ad una

modellizzazione analitica.

dove L rappresenta la stima di L, cioè la valutazione della lunghezza ottenuta in base alle misure fatte. Vi

oss

sono, inoltre, due effetti sistematici (la dilatazione termica e l’allungamento dovuto alla forza applicata)

richiedono di conoscere i valori di b ed a, oltre alla misura di T ed F. Questo per ottenere una corretta

valutazione della distanza. Supponiamo di voler misurare una lunghezza per cui sia necessario il riporto;

eseguiamo diverse serie di misure senza correggere le osservazioni. Ottengo allora una dispersione di

risultati assai maggiore rispetto al caso precedente, in cui i valori osservati sono divisi in tanti gruppetti,

ciascuno corrispondente ad una serie di misura. Ci sono fenomeni il cui esito non è prevedibile a priori;

studiando questi fenomeni ci accorgiamo che siamo in grado evidenziare delle regolarità, di descrivere un

comportamento “in media”. La descrizione passa attraverso l’assegnazione di probabilità agli eventi ed

implica l’assunzione che la variabilità (ovvero l’incertezza) di misura di tipo accidentale possa essere

descritta a priori da un meccanismo di tipo probabilistico, cioè che le oscillazioni dei valori osservati siano

rappresentabili come estrazioni da una variabile casuale. Le discipline che studiano come descrivere e

interpretare i fenomeni aleatori (o stocastici o casuali che sono sinonimi) sono la teoria della probabilità e

la statistica. La prima, essenzialmente deduttiva, insegna a costruire le probabilità di eventi complessi a

partire da un modello stocastico noto. La seconda, di tipo induttivo, cerca di ricostruire un modello

stocastico a partire da eventi già realizzati. Una serie di misure affette da soli errori di tipo accidentale

rappresentano i dati originali di una serie di misure vengono detti parametri statistici della serie.

Nel campo delle misurazioni i parametri statistici più efficaci sono: La media aritmetica è il valore centrale

attorno a cui si distribuiscono i dati. Lo scarto è la differenza fra un generico valore della serie e il valore

medio. Lo scarto medio si ottiene facendo la media dei valori assoluti degli scarti ed è di facile

comprensione. La varianza , che misura la dispersione dei valori attorno alla media, corrisponde al

2

momento d’inerzia; si indica generalmente con la σ ed è definita come la somma dei quadrati degli scarti

divisi per il numero dei gradi di libertà. I gradi di libertà sono la differenza tra il numero di dati disponibili

ed il numero di relazioni che li vincolano. La deviazione standard è la radice σ della varianza. Il coefficiente

di variazione è: ; mentre l' errore standard della media è: .

La serie di misure è un campione estratto dalla popolazione delle misure possibili di quella grandezza, che

sono infinite. In una popolazione normalmente distribuita uno dei valori apparirà con frequenza massima, e

i valori più bassi o più alti di questo compariranno con una frequenza tanto minore quanto si allontanano

dal valore più frequente. La curva ha una forma a campana ed è simmetrica rispetto al valore di massima

frequenza. La curva normale, detta curva o distribuzione di Gauss è compiutamente nota quando si

conoscono l’ascissa della sommità della curva, che è il valore medio, e la distanza da questo dei punti di

flesso della curva, simmetrici a destra e a sinistra della media, che altri non sono che la deviazione 2

standard. Dunque, quando abbiamo una serie di misure dobbiamo calcolare la media e la varianza S o la

sua radice S (deviazione standard) dopo aver appurato che nella serie di misure non vi siano errori

 

grossolani o sistematici. I parametri veri e non possono essere determinati con esattezza a partire dal

2

campione, ma le migliori stime che si possono avere sonoe S (o S); e partendo da un solo campione di n

individui si può ottenere una stima del vero errore standard con la formula .

- La propagazione dell’errore medio per le funzioni lineari di grandezze indipendenti:

Consideriamo la funzione lineare:

Gli errori della funzione sono:

- La propagazione dell’errore medio per le funzioni non lineari di grandezze indipendenti:

 2

Se la funzione non è lineare l'espressione della varianza della funzione f è analoga a quella sopra

scritta, ove si pongano, al posto dei coefficienti a, b, c, i quadrati delle derivate parziali di f rispetto

alle grandezze osservabili X, Y, Z,

- La propagazione dell’errore medio per le funzioni lineari di grandezze dipendenti:

Consiste in una espressione simile alla precedente, ma con un termine in più; pertanto quando si

passa alle varianze:

- La propagazione dell’errore medio per le funzioni lineari di grandezze dipendenti:

Consiste in una espressione simile alla precedente, ma con un termine in più; pertanto quando si

passa alle varianze:

, equivalente a , si trova spesso scritta nella forma ->

Esempio:

L’errore è la differenza fra valore misurato e valore reale dell’oggetto in esame. L’incertezza è la

quantificazione del dubbio sul risultato della misurazione. Questa definizione di incertezza coincide con la

definizione data di deviazione standard σ. L'accuratezza non è sinonimo di precisione:la precisione, infatti, è

la minor distanza tra dei punti, mentre l'accuratezza è la minor distanza tra i punti ed un obiettivo

prefissato.

media coniugata di A e di B: (misura cerchio sx + misura cerchio dx - 200)/2

ai = media coniugata B - media coniugata A

am = media degli alfa i

ai am

Vi = - -> scarti

d = -> varianza

2

d= -> deviazione standard

 PARTE NUOVA (fuck! -.-)

Nella creazione di un modello 3D, il filtraggio dei dati ottenuti tramite il laser scanner può avvenire

attraverso quattro modalità:

- Filter noise: rimuove i punti sparsi (outliers);

- Filter redunancy: rimuove i punti che si sovrappongono (ridondanti)

- Sampling Points: elimina una certa percentuale di punti della nuvola, può essere uniform (porta ad un

campionamento di punti uniforme) o curvature (tiene conto della curvatura dell'oggetto)

- Smooth Points: rimuove la rugosità della superficie senza ridurre il numero di punti.

La registrazione dei punti consiste nell'unione di due o più nuvole di punti attraverso tre metodi:

- Rototraslazione nuvola su nuvola tramite dei target acquisiti automaticamente dal laser scanner;

- Rototraslazione nuvola su nuvola tramite dei punti omologhi scelti manualmente su due superfici

(raw registration);

- Metodo di matching superficiale (fine registration).

Il problema della segmentazione dei dati può essere risolto tramite due metodi:

- knowledge driven methods (TOP-DOWN): l'algoritmo tenta l'estrazione dei dati di un modello dell'oggetto

cercando i parametri di migliore corrispondenza tra dati e

modello, fornisce i migliori risultati a livello locale e conosciamo

a priori ciò che vogliamo estrarre dai dati;

- data driven methods (BOTTOM-UP): i segmenti, generati sulla base di un insieme di metodi e parametri

statistici, acquistano il significato di oggetto solo dopo un'analisi di

tipo semantico, fornisce una soluzione globale.

La tiangolazione è la creazione di una mesh a partire da una matrice di punti. L'inviluppo convesso (o

convex hull) nel piano è il più piccolo poligono convesso che contiene tutti i punti di un dato insieme. Dati n

punti, la soluzione può essere trovata usando l'algoritmo di Graham: O(nlogn) + O(n).

La partizione del piano in regioni tramite il diagramma di Voronoi, consente di individuare qual'é il luogo

dei punti nel piano che sono più vicini ad un punto prestabilito. La regione di spazio Vi associata ad ogni

punto Pi è il luogo dei punti Xi tali che: d(Xi,Pi)<d(Xi,Pj). L'unione dei dati di contorno delle regioni di Vi è

detto diagramma di Voronoi. Il lato del diagramma di Voronoi appartenente a due regioni giace sull'asse del

segmento che connette i due punti delle regioni. Il vertice del diagramma di Voronoi appartenente a tre

regioni coincide con il centro del cerchio passante per i tre punti delle regioni. Due punti si dicono contigui

se le loro due regioni hanno un lato di contorno in comune. La triangolazione di Delaunay si ottiene

connettend

Dettagli
Publisher
A.A. 2010-2011
11 pagine
SSD Ingegneria civile e Architettura ICAR/06 Topografia e cartografia

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher sgri90 di informazioni apprese con la frequenza delle lezioni di Topografia e cartografia e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Politecnico di Milano o del prof Fregonese Luigi.