Elaborazione delle immagini A.A. 2008 - 2009
Informazioni generiche sul corso
Docente: Dott.ssa Binaghi
Elearning informatica
Utente: STU.F52
Password: 67xa26
Lezioni frontali + operative
Programma: ImageJHIPR2 (link): praticamente è quello che verrà spiegato a lezione, in inglese
Testo consigliato: Marini, Bertolo, Rizzi, Comunicazione Visiva Digitale, 2001
Modalità d'esame
- Analisi ragionata delle immagini, non memorizzazione “a macchinetta” dei concetti
- Analisi di un istogramma di un'immagine e scelta del filtro migliore
Lezione 1: 04 marzo 2009
Lezione 1, slides 1 – 53
Competenze matematiche: operatori (come influiscono sull'immagine), funzioni, sommatoria, revisioni, moltiplicazioni.
Un'immagine può essere elaborata per fini ultimi o per essere ulteriormente elaborata da algoritmi più complessi e magari automatici.
Segmentazione di un'immagine: separazione di un soggetto dallo sfondo → selezione primitiva della percezione visiva umana → è la premessa al riconoscimento automatico (da parte del programma grafico) dell'oggetto distinto dallo sfondo.
Immagine: una distribuzione (bi- o tridimensionale) di un’entità fisica che contiene informazioni descrittive riferite all'oggetto, alla scena che l’immagine rappresenta.
Sensore che cattura l'energia irradiata su una determinata scena.
Acquisizione → teoremi per ridurre al minimo la perdita di informazioni; in caso di evidente degrado (l'immagine non viene visualizzata distintamente, per esempio per un'eccessiva compressione del range dei valori relativi al colore) è possibile effettuare un'operazione di miglioramento per recuperare le informazioni senza dover acquisire di nuovo l'immagine [Jet Propulsion Laboratory (laboratorio NASA)].
Fino alla segmentazione l'immagine resta tale; dalla rappresentazione/descrizione in poi l'immagine viene “smontata” in elementi analizzabili secondo parametri matematici da parte di un algoritmo; il riconoscimento automatico è utile su grandi moli di dati (medicina, sicurezza...).
A parità di scena, una risoluzione maggiore consente la rappresentazione di più elementi. La risoluzione migliora, ad esempio, restringendo il range di colori acquisiti (da un'immagine a colori a una in scala di grigi).
Restauro dell'immagine per recuperare informazioni, migliorandone la rappresentazione (blurring, stretching del contrasto, aggiungere del “rumore”, colorazione dei livelli di grigio...).
Lezione 2: 05 marzo 2009
Laboratorio HIPR2; Lezioni 7 e 8 (cenni)
Se l'immagine è in scala di grigi, il valore che indica ogni pixel è unico, ed esprime l'intensità del grigio; in caso di immagini a colori devono essere indicati valori molteplici: la più usata è la scala RGB (ogni pixel è indicato da tre valori).
Operatori sulle immagini
- Addizione (link): L'addizione consente di sommare i valori di pixel di immagini differenti o di una costante per migliorare l'effetto visivo → evidenziare dei contorni, migliore nitidezza, riduzione del rumore (il segnale si rafforza, mentre il rumore, che è casuale, viene perso poco per volta). La somma deve essere normalizzata affinché il valore del risultato si collochi tra 0 e 255. Infatti, se in un'immagine in scala di grigi la somma dei valori raggiunge il valore 255 si ha il bianco; se tale valore viene superato, si ha comunque 255 come valore massimo → saturazione (da evitare) → è necessaria la normalizzazione per risistemare i valori dei pixel entro il range 0 – 255.
- Sottrazione (link): La sottrazione è un'operazione più complessa dell'addizione. Essa considera i valori possibili di un pixel dell'immagine finale compresi tra -255 (ovvero I = 0 e I = 255) e +255 (ovvero I = 255 e I1 2 1 2= 0). Per effettuare una sottrazione si devono seguire i seguenti step:
- Sottrarre il valore del pixel dell'I1 dal corrispondente dell'I2.
- Sommare il negativo del minimo dell'immagine differenza al valore del pixel considerato.
- Moltiplicare il valore così ottenuto per 255/MAX, dove MAX è il valore massimo dell'immagine ottenuta al punto 2.
Lezione 2, slides 1 – 18; 24 - 38
Anni '20: trasmissione con cavi sottomarini
Anni '60: viaggio nello spazio; elaborazione immagini della Luna
Anni '70: invenzione della TAC; elaborazione immagini dell'apparecchio
Immagini classificate in base alla sorgente:
- Radiazione elettromagnetica
- Ultrasuoni (radar, GPR...)
- Elettroni
- Generazione di distribuzione di luminosità al computer (immagini grafiche)
L'uomo vede solo lo spettro tra il rosso e il violetto (e non UV o Ir) perché il “segnale” luminoso del Sole ha il picco di intensità proprio in quella porzione dello spettro. Il colore è un fenomeno psico-visuale legato all'osservatore.
L'infrarosso vicino e medio rileva il segnale infrarosso riflesso; l'infrarosso termico considera quello emesso direttamente dall'oggetto.
Radar: sensore attivo → produce un segnale e lo raccoglie.
Nell'immagine a ultrasuoni è difficile effettuare un'operazione di elaborazione dell'immagine per via del forte disturbo.
Nell'immagine ottenuta dall'emissione di elettroni si ha un ingrandimento notevole, ma l'oggetto viene spesso danneggiato (il materiale biologico viene sempre distrutto).
Lezione 3: 10 marzo 2009
Lezione 3, slide 1 – 26
L'immagine catturata dal sensore è relativa all'energia riflessa dalla superficie del corpo osservato. Il valore di intensità si determina dalla quantità di energia irradiata, dalla proporzione tra energia riflessa e non, sensibilità del sensore... → determinazione in scala di grigio dell'intensità energetica.
Legge di Plank → applicata sul modello di un “corpo nero” utilizzato come standard per elaborare la legge; conoscendo la natura chimico-fisica dell'oggetto osservato e l'intensità energetica irradiata, posso calcolare l'energia riflessa e quindi l'intensità di grigio dell'immagine finale; nei corpi reali (non ideali) si aggiunge alla legge di Plank un coefficiente di riflessione.
Ogni oggetto ha una propria firma spettrale, ovvero un determinato insieme di valori di energia luminosa riflessa.
Radianza = coefficiente di energia incidente * coefficiente di riflessione
Luminanza = energia elettromagnetica nello spettro del visibile.
Lezione 4, slide 1 - 52
Coni: visione completa; bastoncelli: visione acromatica.
Il contrast stretching è necessario per migliorare il contrasto di elementi di un'immagine vicini tra loro. Infatti l'occhio umano percepisce la differenza cromatica solo se il Δ raggiunge un determinato valore.
Le nostre percezioni prospettiche sono intermedie tra le dimensioni prospettiche e le dimensioni effettive dell'oggetto → nell'immagine del porticato ad archi, gli archi in fondo hanno un'altezza visibile di circa la metà di quelli iniziali, mentre in realtà sono alti uguali → li percepiamo come alti all'incirca i 2/3.
Presentazione di un progetto svolto: la percezione.
Lezione 5, slide 3 – 10; 15 – 21; 24 - 34
Discretizzazione (digitalizzazione) = Campionamento + Quantizzazione
Campionamento: relazione tra il pixel dell'immagine (con valore uniforme) e una griglia regolare; gli conferisce un valore discreto che varia a seconda della scala utilizzata (1 bit: bianco e nero; 8 bit: scala di grigi...).
Nella digitalizzazione dell'immagine, il piano cartesiano che definisce la matrice viene ruotato: infatti, l'origine nella matrice deve essere in alto a sinistra, mentre nel piano cartesiano normale essa si trova in basso a sinistra.
Dimensione = Grandezza * Risoluzione
Lezione 4: 11 marzo 2009
Lezione 5, slide 9 – 13; 35 - 48
Frequenza di campionamento: frequenza con cui viene catturata l'immagine.
Per ottenere un segnale uniforme e con minima perdita di informazione, la frequenza di campionamento deve essere almeno 2 volte maggiore della frequenza massima del segnale stesso.
Teorema di Fourier: per quanto un segnale sia complesso, esso può essere percepito come l'insieme di onde di segnale semplici combinate tra loro; questo consente di individuare molto facilmente la frequenza massima.
Con un'immagine ricca di dettagli (ad alta frequenza) è possibile risparmiare sui bit dei livelli di grigio; in un'immagine a bassa frequenza, invece, è preferita una maggiore gradualità nella sfumatura.
Modifica di N (grandezza): zooming (ingrandimento, aggiunta di righe/colonne, interpolazione dei livelli di grigio in modo automatico per creare livelli intermedi) o shrinking (riduzione, interpolazione dei toni di grigio in modo automatico per uniformare i livelli intermedi).
Due tipi di interpolazione: nearest neighbor (→ effetto scacchiera) o bilinear (→ smoothing dell'immagine).
Criterio di vicinanza: due tipologie di individuazione dei punti vicini al punto di coordinate (x, y)
- A 4 punti: le coordinate dei punti vicini sono (x+1, y), (x-1, y), (x, y+1), (x, y-1)
-
Appunti Elaborazione delle Immagini
-
Elaborazione delle immagini
-
Elaborazione delle immagini - Algoritmi
-
Elaborazione delle immagini - Appunti