Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
IMMAGINI: CENNI SULL'ACQUISIZIONE E SULL'ELABORAZIONE
I due principali vantaggi della tecnologia digitale sono:
- La registrazione dell'immagine non degrada nel tempo (perché dati numerici).
- Le matrici risultanti possono essere elaborate numericamente mediante software dedicati.
IL SENSORE CCD
Il componente di base dei dispositivi digitali è il CCD (charged Coupled device) array.
Il CCD è costituito da una serie (scacchiera) di diodi foto-sensibili (photosites) che convertono i fotoni luminosi in elettroni ossia in carica elettrica.
Il funzionamento del CCD si basa sull'effetto fotoelettrico ossia sull'emissione di elettroni di un catodo che sia bombardato da fotoni.
Un'alternativa è il sensore CMOS (molto più comune nelle fotocamere commerciali) che sono più economici ma, che però hanno una resa inferiore perché nel singolo diodo del sensore CMOS c'è solo una porzione centrale che cattura la luce.
la converte in segnale elettrico a differenza dellCCD nel quale l’intera superficie del diodo cattura la luce.
Quando noi schiacciamo l’otturatore si apre l’obiettivo, il quale fa passare la luce attraverso il sistema di ottiche, dopodiche la luce viene raccolta dai diodi foto-sensibili del sensore che viene convertita in carica elettrica. Chiaramente più luce va ad impattare sul diodo e più questo produce carica. Dopo che la luce è andata a colpire i diodi si chiude l’otturatore e la carica accumulata da ciascun diodo viene letta, cioè cioè vine quantificata la quantità di carica che ogni diodo ha raccolto, chiaramente la carica sarà proporzionale alla quantità di luce che ha ricevuto.
Il CCD (o CMOS) è esposto alla luce, in base alla quantità di luce da cui sono stati colpiti i diodi la convertono in carica elettrica e l’informazione accumulata contemporaneamente su tutta
l'areasensibile (cioè l'array di diodi) viene poi letta sequenzialmente riga per riga. Il risultato è un'immagine, con una risoluzione completa sia verticale che orizzontale, catturata con un'unica apertura e chiusura dell'otturatore della macchina fotografica.
Linearità del CCD: la funzione di trasferimento tra il segnale fotonico in ingresso e il segnale digitalizzato in uscita dovrebbe variare linearmente con la quantità di luce che incide sul CCD, secondo la relazione:
Segnale digitale = Costante x Quantità di luce incidente
In realtà la funzione di trasferimento non è lineare ma, per produrre un'immagine corretta, deve almeno essere nota.
PROBLEMA DELLA SATURAZIONE:
Si può immaginare ogni singolo sensore come un bacino che si riempie di carica elettrica (dielettroni) quando vengono colpiti dalla luce, il problema sta nel fatto che questi recipienti non possono immagazzinare una quantità di carica infinita.
quindi quando arrivano al loro massimo smettono di accumulare carica. Questo problema è il problema corrispondente alla saturazione che si riferisce alla condizione di recipiente pieno, che corrisponde ad avere delle zone completamente bianche nell'immagine, in quanto in tali zone del sensore CCD i diodi sono stati saturati, cioè hanno immagazzinato la carica massima possibile. RISOLUZIONE: Numero fisico di elementi presenti nel dispositivo di acquisizione dell'immagine, cioè la matrice di foto-diodi presenti sul sensore (PIXEL). NOTA: perché per una macchina fotografica non si parla di pixel per unità di lunghezza (per mm o dpi) ma si parla solo di numero di pixel (megapixel)? Perché mentre negli scanner piani sappiamo il numero di pixel presenti nel sensore lineare e il numero di pixel sulla superficie di acquisizione, nelle macchine fotografiche si sa il numero di pixel del sensore ma non sappiamo le dimensioni dell'oggetto che sistaacquisendo (cioè su che superficie stiamo spalmando il n° di pixel disponibili) quindi la risoluzionevaria in basa all’oggetto che si sta fotografando. Quindi quando si parla di risoluzione per scanner3D ottici si trova il n° di pixel per millimetro a una certa distanza, ad esempio 100 punti per mm a1m, il che siginifica che a 10m è un decimo a 100m è un centesimo.
PROBLEMA DEI COLORI: Il sensore CCD (e il CMOS) non è in grado di effetturare il riconoscimento colorimetrico in quanto è sensibile alle sole variazioni di luminosità (ossia all’energia dei fotoni che impattano sui sensori), ma non alla lunghezza d’onda dei fotoni. In sostanza il sensore CCD acquisiscono solo la quantità di luce, cioè la luminosità (comportamento corpuscolare della luce) e quindi restituiscono un’immagine in tono di grigio in cui tanto più è chiaro un punto tanto più è luminoso.
indipendentemente dal colore della luce. Pertanto sono necessari dei filtri che permettano la selezione dellaluce ad alcune lunghezze d'onda tipiche. Se si utilizzano i tre colori RGB si ottengono tre immagini che devonosuccessivamente essere assemblate per ottenere l'immagine full-color. Esistono diversi metodi per la memorizzazione dei tre canali dell'immagine (come si fa a realizzareil colore nell'immagine con dei sensori "cechi" al colore?)
- Utilizzo del divisore di raggio (beam splitter)
- Utilizzo del filtro a rotazione
- Utilizzo del filtro di Bayer
BEAM SPLITTER è un insieme di prismi che riescono a scomporre la luce bianca che contiene tutte le lunghezzad'onda nelle tre componenti fondamentali. Ognuna delle tre componenti fondamentali in cui il beam splitter scompone la luce, viene inviata a un diverso sensore quindi in realtà si hanno 3 diverse matrici di sensori CCD specifiche per ogni colore primario.
SVANTAGGI: E' un
Il sistema è ingombrante e abbastanza costoso e non è molto accurato, perché nel processo di scomposizione della luce si ha una distorsione ottica. Quindi le diverse immagini composte nei colori primari non sono perfettamente identiche all'una all'altra ma sono un po' distorte una rispetto all'altra.
VANTAGGI:
- Ogni singola matrice di sensori riceve un unico tipo di colore primario
ROTAZONE DEI FILTRI (TECNICA ROTANTE)
Un metodo più economico consiste in un unico "disco" che dispone di una serie di filtri RGB. Questo disco viene ruotato di fronte ad un singolo sensore in modo tale che per ogni delle 3 acquisizioni la luce passi attraverso uno dei 3 filtri. Il sensore memorizza così le 3 immagini in rapida successione ed assegna, anche in questo caso, le 3 bande per ciascun pixel.
Le immagini non sono però catturate dal sensore nello stesso istante e dunque la macchina e anche il soggetto devono rimanere stazionari per il tempo (seppur molto breve) necessario alla rotazione del disco.
SVANTAGGI: Il tempo di acquisizione viene triplicato perché devono essere catturate in successione 3 immagini, e questo può essere un problema perché le foto possono venire mosse.
FILTRO DI BAYER
Un metodo più pratico ed economico per acquisire l'immagine a colori consiste nel piazzare, permanentemente e su ciascun sensore, un filtro che è costituito da un certo numero di tasselli rossi, verdi e blu ciascuno dei quali va a sovrapporsi a un singolo foto-diodo. In particolare, il filtro di bayer prevede che la prima riga di filtri che si sovrappone all'array di diodi sia una sequenza verde-rosso (GRGRGR), la seconda blu-verde (BGBGBG) e così via. Questa particolare sequenza è denominata sequential RGB. I pixel non sono equamente divisi, ma si ha una maggiore presenza di verde. Questo è dovuto al fatto che l'occhio non è egualmente sensibile ai tre colori fondamentali ma è
più sensibile alla luce verde, di conseguenza per replicare meglio la visione umana, cioè per riprodurre immagini più fedeli a quelle viste dall'occhio, si usa questa predominanza di verde. Chiaramente poiché a ciascun diodo è sovrapposto un particolare filtro che fa passare solo la luce della lunghezza d'onda che corrisponde al suo colore, ogni diodo acquisisce solamente la luce che il rispettivo filtro fa passare. Però nell'immagine si deve avere il colore in tutti i pixel e non solo il blu in alcuni pixel, il rosso in altri e il verde in altri ancora, ma si devono trovare le componenti di colore primario in tutti i fotosensori. Questo problema viene risolto interpolando, cioè la generazione dell'immagine avviene per interpolazione, perché le informazioni non si hanno in tutti i pixel ma in pixel diversi a seconda del colore del filtro. Il fatto che le informazioni relative ai colori mancanti nei pixel debbanoessere desunte dalle informazioni dei pixel contigui, cioè debbano essere interpolate, comporta una qualità peggiore dell'immagine. NOTA: Per questo motivo (il fatto che la generazione dell'immagine a colori tramite filtro di Bayer avvenga per interpolazione sui colori) è il motivo per cui negli scanner e nei dispositivi fotogrammetrici si utilizzano di più sensori CCD o CMOS senza filtri, per avere un'immagine più corretta e priva di artefatti o sbavature dovute all'interpolazione. Sensore CCd (oppure CMOS): la risoluzione del sensore CCD determina la dimensione massima dell'immagine acquisita ed è molto importante. In commercio esistono sensori che superano i 12 megapixel. Abbiamo visto come si acquisisce l'immagine sia nel caso di immagine monocromatica sia nel caso di immagine a colori, ma come viene rappresentata?? Cioè ogni diodo acquisice una carica, e quindi ad ognuno di questi deve essere associata unaquantità di carica cioè gli deve essere associato un numero. Pertanto un immagine nel formato digitale diventa una matrice di numeri corrispondenti ai diodi, dove il numero è proporzionale alla luminosità acquisita dal diodo.
FORMATO DELL'IMMAGINE:
Sulla base di quanto detto ogni immagine in bianco e nero (scala di grigi) è una sola matrice di X * Y elementi.
Ogni immagine a colori è costituita da 3 matrici di X * Y elementi (una per ogni canale R G B).
Le matrici contengono elementi che generalmente possono assumere valori interi da 0 a 255 (a 8 bit per pixel, per canale).
Quindi un immagine in scala di grigi è una matrice composta da elementi a 8 bit, mentre un immagine a colori è a 24 bit, cioè per ogni pixel dell'immagine si hanno 3 numeri ciascuno a 8 bit.
Se l'immagine è monocromatica: 0 significa nero (assenza di luce), 255 significa bianco.
Se l'immagine è nel colore rosso: 0 significa nero,
255 rosso puro
Nel mezzo fra 0 e 255 ci stanno t