Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
CARATTERISTICHE DELLE IMMAGINI SATELLITARI: LE QUATTRO RISOLUZIONI
L’immagine dipende da quelle che sono le caratteristiche della ripresa, ovvero dalla
tipologia di sensore che caratterizza il satellite. In particolare, per la scelta della tipologia di
immagine teniamo in considerazione:
Caratteristiche del sensore
• Caratteristiche tecniche del sistema di acquisizione
• Caratteristiche spettrali
• Caratteristiche geometriche
• Tipo di visione
Caratteristiche della piattaforma
• Caratteristiche tecniche
• Orbita
L’immagine, quindi, è sempre la combinazione del sensore che è montato sul satellite e del
satellite stesso che caratterizza l’orbita che descrive (geostazionario o polare eliosincrona). In
conclusione, le caratteristiche del Sensore + le caratteristiche della piattaforma determinano
le caratteristiche dell’immagine. Le caratteristiche dell’immagine le riassumiamo in quattro
risoluzioni: Spettrale, Radiometrica, Geometrica, Temporale.
Risoluzione Temporale La risoluzione temporale è la frequenza di acquisizione
dell’immagine da parte del sensore (vedi appunti
precedenti) quindi il periodo di tempo che intercorre tra
due immagini successive. La risoluzione temporale dipende
dal tipo di piattaforma e quindi dall’orbita che descrive.
L’Orbita polare eliosincrona passa in prossimità dei poli e
attraversa ciascun punto della superficie terrestre sempre
alla stessa ora (sincronizzata con il sole) perché nel
momento in cui percorre l’orbita e risale nel lato opposto
(zona di buio) la terra ha compiuto una rotazione, una
caratteristica importante è anche legata allo SWATH perché
quanto più è larga la striscia che il satellite riprende minore
sarà il numero di giorni per avere la sovrapposizione.
L’orbita geostazionaria invece, ha inclinazione uguale a zero
e ruota alla stessa velocità della terra. Riprende sempre la
stessa area, quindi abbiamo immagini più frequenti.
Risoluzione Geometrica o spaziale La distanza del sensore della
superficie terrestre determina la
dimensione più piccola
dell’oggetto che possiamo
vedere; quanto più sarà lontano
più l’immagine sarà grande, la
dimensione del pixel è la
risoluzione geometrica, ed è
definita come la dimensione
dell’area elementare al suolo di
cui si rileva l’energia
elettromagnetica (pixel
quadrato).
La risoluzione del pixel in orbita eliosincrona oggi è inferiore al metro, mentre per l’orbita
stazionaria la risoluzione migliore che riusciamo ad avere 500 m/1 km però abbiamo
immagini più frequenti. Va da sé che ancora oggi non riusciamo ad avere
contemporaneamente risoluzione temporanea e geometrica.
N.B. il pixel proiettato è un cerchio, del quale si prende la misura centrale e si attribuisce la
dimensione al pixel.
Dipende dalla distanza H e dall’angolo di vista che determina la distanza tra la lente e la
superficie osservata. Nella figura che
segue si noti la
differenza tra
un’immagine 0,5 m *
0,5 m di risoluzione
spaziale e una con
risoluzione 20 * 20 m
(Sentinel).
Nel corso degli anni si è cercato di
migliorare la risoluzione spaziale; si noti,
infatti, la differenza tra le due immagini che
seguono che rappresentano la stessa area
agricola a 30m del Landsat e Spots 10 m
(risoluzione a cui arriva anche Sentinel), e
infine, la risoluzione a 2,8 m del Quick Bird.
I satelliti che portano i sensori in grado di
dare immagini con questa risoluzione sono
immagini scaricabili a pagamento previo
prenotazione e contratto, definito in
relazione al periodo di passaggio del
satellite richiesto esclusivamente
dall’acquirente.
Risoluzione spettrale Indica il numero di bande di acquisizione e la loro
ampiezza, che dipende dalla tipologia di filtro di
cui è munito il sensore. Un’ immagine
pancromatica è un’immagine che riprende con
un’unica banda tutto lo spettro del visibile. I sensori
hyperspettrali producono la curva di riflettanza, che
misura con continuità l’energia riflessa nello spettro
che stiamo considerando o solo in alcuni pezzi.
Nel primo caso abbiamo un esempio di un sensore
che ha una sola banda nel visibile (0.4 -0.7) sarà
un’immagine bianco e nero (in quanto misura dal
bianco al nero la quantità di energia riflessa). Nel
secondo caso invece, come accade nella maggior
parte dei sensori anche in quelli di non recente
sviluppo, abbiamo tre filtri in quanto è il numero
minimo di bande per produrre un’immagine a
colori. Le tre bande sono divise nelle tre regioni
fondamentali Blu, Verde, Rosso. Avremo tre
immagini ciascuna corrispondente a queste bande.
Nella terza invece abbiamo un’ulteriore divisione.
Aumentano il numero di bande e quindi il numero
di filtri aumentiamo il livello di informazione e più
strati. La risoluzione multispettrale o hyperspettrale
sono importanti perché permettono di riconoscere
meglio gli oggetti.
Infatti, considerando l’immagine che segue,
abbiamo due pixel A e B che andiamo a fotografe
entrambi due volte. La prima volta con un’unica
banda da 0.4 a 0.6 micron e per entrambi i pixel
abbiamo lo stesso segnale che non permette di
distinguere A da B; utilizzando, invece, un sensore
che due bande nello stesso intervallo si nota che,
mentre il pixel A ha una risposta più alta nella
banda 2 e più bassa nella banda 3, nel caso del
pixel b è più bassa la banda 2 e più alta la banda 3.
Quindi Il concetto di risoluzione spettrale è
legato alla maniera in cui viene scomposto lo
spettro nella tecnica di misura utilizzata, e ci
consente di avere delle maggiori informazioni.
La maggior parte dei sensori, (nel caso
dell’immagine seguente è quello del Landsat)
ha tre bande nel visibile e due o più bande
nell’infrarosso. Le bande man mano che
aumenta la lunghezza d’onda diventano più
larghe perché l’energia a disposizione del
sensore è sempre minore.
Infatti, con la legge di Wien abbiamo visto che lo spettro solare è distribuito secondo una
distribuzione gaussiana asimmetrica e che la max energia si ha ad una lunghezza d’onda
0,483 micron, man mano che si va verso l’infrarosso l’energia diminuisce, per questo bisogna
allargare la finestra spettrale per raccogliere sufficiente energia da poter generare
l’immagine. Quindi bisogna aumentare il range in cui si racchiude la banda
Risoluzione radiometrica
È definita come la sensibilità del sensore o, meglio, la sensibilità del rivelatore di un certo
sensore nel percepire e codificare il segnale delle differenze di energia radiante (la neve
riflette molto energia, il mare ne riflette poca quindi in termini di livelli energetici avremmo
che la neve riflette il 100% il mare lo 0%), tra questi due livelli estremi di energia riflessa
avremo dei livelli di energia intermedia riflessi dalle superfici che caratterizzano la terra.
In pratica la risoluzione radiometrica
rappresenta il numero di livelli in cui può essere
scomposto il segnale originale. I sensori
reagiscono con un impulso elettrico alla
quantità di luce che arriva, la luce in una certa
quantità determina la loro accensione.
Abbiamo, dunque due condizioni (acceso e
spento) 0 e 1, questa condizione caratterizza
quello che in informatica è chiamato sistema
binario. Avremo quindi 1 bit (2 livelli) e
un’immagine bianca e nero.
Per avere la sfumatura dei grigi bisogna porre più detrattori vicini che vanno a costituire più
livelli 2 bit (4 livelli); 8 bit 255 (livelli); 10 bit 1023 livelli. Il numero di combinazione, infatti, è
dato dal numero degli status fondamentali (acceso e spento) quindi 2^ al numero di bit. 8 bit
corrispondono 1 bite. A 8 bit abbiamo quindi 256 livelli di grigio (radianza).
In particolare, nell’immagine che segue abbiamo un’immagine ottenuta da un sensore con
un unico filtro nello spettro del visibile (ad un’unica banda) ripresa una volta a 2 bit = 4 livelli
di radianza (bianco nero e due livelli di grigi), la stessa immagine a 8 bit ha 256 livelli di
grigio avendo più sfumature si riescono a distinguere meglio gli oggetti dell’immagine. I
livelli di grigio che otteniamo sono praticamente i livelli di energia in cui può essere
scomposta l’energia riflessa al sensore.
1000 righe e 1000 colonne = 100000000 di pixel, immaginando di avere una banda e una
risoluzione di 8 bit, l’immagine occupa il numero di bit * il numero di pixel = 10000000 di
pixel ovvero 1 MB
Il numero (DN) nasce dalla rilevazione elettronica del segnale, proporzionale alla quantità di
energia elettromagnetica che arriva al detrattore del sensore, viene generata un’immagine
costruendo così una griglia dovuta al movimento di scansione del sensore e dell’orbita.
Ricapitolando tutto il processo,
schematizzato nell’immagine che
segue, abbiamo che: la luce arriva
al filtro, vengono selezionate le
bande spettrali che arrivano al
detector. Il detector determina la
risoluzione radiometrica, ossia in
quanti livelli è scomponibile
l’energia. L’energia viene
convertita in un segnale numerico
detto Digital Number, ovvero
quel numero che varia tra 0 ad un
valore massimo che dipende
dalla risoluzione radiometrica
ovvero dai bit.
Il digital number è proporzionale alla quantità di energia che è arrivata al sensore in
corrispondenza del pixel che ci dà il digital number; quindi, l’immagine è una griglia di
numeri, il numero dipende dalla risoluzione radiometrica.
Conversione inversa da Digital Number a radianza
Sappiamo che tramite il telerilevamento e QGIS, noi andiamo a costruire delle mappe
tematiche da cui trarre informazioni. Il digital number è perciò fondamentale perché
rappresenta ciò da cui si parte per ottenere un’informazione quantitativa (stato nutrizionale
della pianta, stato vegetativo ecc…). A tal proposito, abbiamo visto, come si parte dall’
energia per arrivare al digital number e quindi all’immagine digitale, ma per poter ottenere
l’informazione quantitativa bisogna effettuare il processo inverso. Si effettua quindi, una
calibrazione, in molti casi viene effettuata dal sistema satellitare (sia Landsat che Sentinel
provvedono ad effettuarla) e in altri casi no. Risulta quindi, fondamentale conoscere anche il
processo di calibrazione: premettendo che l’energia che arriva al sensore è definita radianza
e