Anteprima
Vedrai una selezione di 6 pagine su 21
Fotogrammetria e georeferenziazione  Pag. 1 Fotogrammetria e georeferenziazione  Pag. 2
Anteprima di 6 pagg. su 21.
Scarica il documento per vederlo tutto.
Fotogrammetria e georeferenziazione  Pag. 6
Anteprima di 6 pagg. su 21.
Scarica il documento per vederlo tutto.
Fotogrammetria e georeferenziazione  Pag. 11
Anteprima di 6 pagg. su 21.
Scarica il documento per vederlo tutto.
Fotogrammetria e georeferenziazione  Pag. 16
Anteprima di 6 pagg. su 21.
Scarica il documento per vederlo tutto.
Fotogrammetria e georeferenziazione  Pag. 21
1 su 21
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

RANSAC

L’obiettivo del è in realtà duplice:

1. Stimare approssimativamente la geometria (epipolare) che lega le due immagini

di volta in volta considerate

outlier, accoppiamenti precedentemente

2. Rilevare e rimuovere gli cioè gli

sbagliati

La geometria epipolare è un concetto fondamentale nella visione computazionale e

nella fotogrammetria, che descrive la relazione geometrica tra due immagini di una

stessa scena catturate da due punti di vista distinti. Si basa sulla proiezione di punti

3D nello spazio su due piani immagine attraverso una coppia di telecamere o sensori.

Elementi chiave della geometria epipolare:

1. Punto epipolare

È la proiezione del centro ottico di una telecamera sul piano immagine

o dell'altra telecamera. Ogni telecamera ha un punto epipolare

corrispondente sull'immagine catturata dall'altra.

2. Linea epipolare

Quando un punto nello spazio 3D viene osservato in un'immagine, il suo

o corrispondente sull'altra immagine deve trovarsi su una linea specifica

chiamata linea epipolare. Questa linea è il risultato della proiezione del

raggio ottico 3D nello spazio sull'immagine.

3. Piano epipolare

È il piano che passa attraverso i due centri ottici delle telecamere e il

o punto nello spazio 3D. Questo piano interseca i due piani immagine,

generando le linee epipolari.

4. Matrice fondamentale o matrice essenziale

È una matrice matematica che descrive la relazione epipolare tra due

o immagini. Permette di calcolare le linee epipolari date le coordinate di un

punto in una delle due immagini.

Proprietà principali:

La geometria epipolare è indipendente dalla struttura 3D della scena e dipende

 unicamente dalla configurazione geometrica delle telecamere (posizione e

orientamento).

Riduce il problema della ricerca di corrispondenze tra due immagini da 2D

 (piano immagine completo) a 1D (lungo la linea epipolare).

Applicazioni:

1. Fotogrammetria

Utilizzata per allineare immagini aeree o terrestri e ottenere una

o ricostruzione accurata della scena 3D.

2. Visione stereo

Nella triangolazione stereo, la geometria epipolare aiuta a identificare

o corrispondenze tra immagini e a calcolare la profondità.

3. Computer Vision

Impiegata per risolvere problemi di calibrazione della telecamera,

o ricostruzione 3D e navigazione autonoma.

4. Rettificazione delle immagini stereo

La geometria epipolare viene utilizzata per trasformare le immagini in

o modo che le linee epipolari siano orizzontali, semplificando

l'individuazione delle corrispondenze.

Esempio intuitivo

Immagina di osservare un oggetto con entrambe le mani che formano un triangolo con

l'oggetto come vertice. Le tue mani rappresentano i centri ottici delle telecamere, e il

triangolo è il piano epipolare che collega l'oggetto alle immagini catturate. Le linee dei

lati del triangolo sul piano immagine sono le linee epipolari.

Questo principio permette di limitare la ricerca delle corrispondenze tra due immagini

e semplifica notevolmente la ricostruzione 3D della scena.

Problemi principali nell’accoppiamento di punti di immagini differenti:

Alcuni problemi che possono rendere più complesso l’accoppiamento di punti sono:

(Notevoli) differenze di scala tra le due immagini.

 Immagini acquisite da punti di vista molto diversi (differenti orientamenti delle

 immagini, in particolare non lungo l’asse ottico).

«foreshortening».

Superfici non parallele al piano immagine,

 Occlusioni.

 (relief displacement).

Background del feature differenti

 Condizioni di illuminazione molto differenti

 Pattern ripetitivi.

Georeferenziazione:

Si definisce come un processo che permette di determinare la posizione e

l’orientamento di un punto di un’immagine o una nuvola di punti (nel NOSTO CASO

della fotocamera mentre scatta la foto) all’interno di un sistema i riferimento globale.

Tradizionalmente la <georeferenziazione> viene effettuata attraverso l’uso di punti di

controllo a terra (GCP). Essa può essere:

1. Diretta: permette di raccogliere le coordinate geografiche al momento della

raccolta dati, col GNSS (“Global Navigation Satellite System”, o IMU, montati sui

droni. NON richiede GCP* e la sua qualità dipende dal GNSS.

Applicazioni: fotogrammetria aerea DRONI; Cartografia rapida, Rilievi dinamici

(NB. Richiede apparecchiature costose)

2. Indiretta: le coordinate geografiche delle immagini o dei punti vengono

GCP tie points,

raccolte posizionando all’interno di un’area di interesse i o i

rilevati separatamente con stazioni totali (teodolite elettronico) o GNSS, La

posizione delle immagini viene acquisiste poi con tecniche di triangolazione. La

precisione è molto elevata, millimetrica a seconda della qualità dei punti di

controllo. Però richiede una fase di rilevamento in campo (più GCP più

precisa)>>si può usare in contesti dove il GNSS è limitato

I GCP vengono identificati mediante target. Essi sono utili sia per la

georeferenziazione sia per migliorare la stima dei parametri interni alla fotocamera.

Il rilevamento automatico dei marcatori produce un set di punti, visibili nella scheda

Riferimento, in un elenco ordinato in ordine decrescente di numero di proiezioni (ad

esempio, il numero di proiezioni corrisponde al numero di immagini in cui è

visibile un punto rilevato)

Software fotogrammetrico: “Agisoft Metashape” (VEDERE APPUNTI QUADERNO)

• Quindi ottimizzare le informazioni geometriche stimate utilizzando: Strumenti –

Ottimizza telecamere

• Questo in genere consente di ridurre l'errore sui GCP

• L'errore sui punti di controllo deve essere utilizzato per la convalida (di solito è

maggiore di quello sui GCP)

georeferenziazione diretta

Oggigiorno la è possibile grazie all’integrazione

DGPS/INS. La posizione e l’orientamento di ciascuna immagine si ottiene direttamente

dalle informazioni fornite dai sensori a bordo del veicolo, senza necessitare l’utilizzo di

GCP*. – Ciò è chiaramente vantaggioso in particolare in caso di aree di interesse di

difficile accesso a terra da parte degli operatori.

Precauzioni : – I sensori coinvolti vanno opportunamente calibrati (anche tra loro) e

sincronizzati.

“Errore di ricostruzione, fotogrammetria da drone, piano di volo, progettazione

dell’acquisizione delle foto”:

Il committente fornirà come specifiche tipiche del rilievo fotogrammetrico l’area

 di interesse e l’errore di ricostruzione desiderato o, equivalentemente, la scala

nominale della mappa richiesta

L'occhio umano può distinguere linee a distanze superiori a circa 0,2-0,3 mm

 Quando si ricava una vista 2D su un foglio di carta a una certa scala da una

 ricostruzione 3D, l'effetto dell'errore di rilevamento sulla vista 2D dovrebbe

 essere al massimo uguale a 0,2 mm

Ad esempio, nel caso 1:100, il livello più alto di un errore di rilevamento

ammissibile è 0,2 mm ×100 = 2 cm.

In fotogrammetria e visione computazionale, i parametri IOP (Intrinsi Optical

Parameters) e EOP (Exterior Orientation Parameters) descrivono

rispettivamente le caratteristiche interne e l'orientamento esterno della fotocamera

o del sensore utilizzato per l'acquisizione delle immagini. Questi parametri sono

fondamentali per collegare le immagini bidimensionali al mondo tridimensionale.

1. Parametri IOP (Intrinse Optical Parameters)

I parametri intrinseci descrivono le caratteristiche geometriche e ottiche della

fotocamera, indipendentemente dal suo posizionamento o orientamento nello

spazio.

Componenti principali

1. Focale (f):

La lunghezza focale della fotocamera, che definisce la distanza tra il

o centro ottico e il piano immagine.

2. Punto principale (x0,y0 ):

La posizione del centro ottico proiettata sul piano immagine,

o generalmente vicino al centro del sensore.

3. Fattori di scala:

Eventuali differenze tra le dimensioni dei pixel lungo le direzioni xxx e

o yyy.

4. Distorsione radiale:

Effetti di distorsione dovuti alla lente (es. effetto a barilotto o a

o cuscinetto).

5. Distorsione tangenziale:

Distorsioni introdotte dall'allineamento non perfetto delle lenti rispetto al

o piano sensore.

Come si ottengono:

I parametri IOP sono determinati attraverso calibrazione della fotocamera.

 Questo processo consiste nell'acquisire immagini di un oggetto noto (come una

griglia di punti o un target calibrato) e nell'analizzare come l'ottica trasforma

queste immagini.

2. Parametri EOP (Exterior Orientation Parameters)

I parametri di orientamento esterno descrivono la posizione e l'orientamento della

fotocamera o del sensore rispetto a un sistema di riferimento globale (ad esempio,

un sistema cartografico).

Componenti principali

1. Coordinate del centro di proiezione (X0,Y0,Z0)

La posizione del centro ottico della fotocamera nel sistema di riferimento

o globale.

2. Angoli di orientamento (ω,ϕ,κ)

Descrivono la rotazione della fotocamera rispetto agli assi del sistema di

o riferimento globale:

ω\omegaω: Rotazione intorno all'asse xxx (rollio).

 ϕ\phiϕ: Rotazione intorno all'asse yyy (beccheggio).

 κ\kappaκ: Rotazione intorno all'asse zzz (imbardata).

Come si ottengono:

I parametri EOP sono calcolati attraverso il processo di triangolazione o

 mediante sistemi di georeferenziazione diretta (GNSS/IMU). Le coordinate

spaziali dei punti immagine vengono correlate con i punti di controllo al suolo o

con altri punti noti.

Utilizzo combinato di IOP ed EOP

Parametri IOP: Utilizzati per correggere distorsioni interne e ottenere

 coordinate immagine accurate.

Parametri EOP: Utilizzati per posizionare l'immagine nello spazio

 tridimensionale in relazione a un sistema di riferimento.

Questi parametri sono essenziali per:

La creazione di ortofoto.

 Il calcolo di modelli 3D da immagini (SfM).

 La triangolazione aerea.

 L'analisi metrica di immagini fotogrammetriche.

In sintesi, i parametri IOP descrivono come la fotocamera cattura l'immagine,

mentre i parametri EOP definiscono dove e come questa fotocamera è

posizionata nello spazio.

LOGICAMENTE più foto scatto (n viste), più l’errore diminuisce. Questo errore è

correlato col problema geometrico della triangolazione (MA vanno considerati anche

quelli relativi ai parametri della fotocamera).>>E e GSD sono correlati

-configurazioni delle prese (si riferisce alla disposizione delle immagini acquisite

da una fotocamera (o da un sensore) durante un'operazione

Dettagli
Publisher
A.A. 2024-2025
21 pagine
SSD Ingegneria civile e Architettura ICAR/06 Topografia e cartografia

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Gab_0503 di informazioni apprese con la frequenza delle lezioni di Droni per il rilievo georeferenziato e territoriale e analisi di dati spaziali e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Firenze o del prof Mugnai Francesco.