Estratto del documento

Elaborazione delle immagini A.A. 2008 - 2009

Informazioni generiche sul corso

Docente: Dott.ssa Binaghi

Elearning informatica

Utente: STU.F52

Password: 67xa26

Lezioni frontali + operative

Programma: ImageJHIPR2 (link): praticamente è quello che verrà spiegato a lezione, in inglese

Testo consigliato: Marini, Bertolo, Rizzi, Comunicazione Visiva Digitale, 2001

Modalità d'esame

  • Analisi ragionata delle immagini, non memorizzazione “a macchinetta” dei concetti
  • Analisi di un istogramma di un'immagine e scelta del filtro migliore

Lezione 1: 04 marzo 2009

Lezione 1, slides 1 – 53

Competenze matematiche: operatori (come influiscono sull'immagine), funzioni, sommatoria, revisioni, moltiplicazioni.

Un'immagine può essere elaborata per fini ultimi o per essere ulteriormente elaborata da algoritmi più complessi e magari automatici.

Segmentazione di un'immagine: separazione di un soggetto dallo sfondo → selezione primitiva della percezione visiva umana → è la premessa al riconoscimento automatico (da parte del programma grafico) dell'oggetto distinto dallo sfondo.

Immagine: una distribuzione (bi- o tridimensionale) di un’entità fisica che contiene informazioni descrittive riferite all'oggetto, alla scena che l’immagine rappresenta.

Sensore che cattura l'energia irradiata su una determinata scena.

Acquisizione → teoremi per ridurre al minimo la perdita di informazioni; in caso di evidente degrado (l'immagine non viene visualizzata distintamente, per esempio per un'eccessiva compressione del range dei valori relativi al colore) è possibile effettuare un'operazione di miglioramento per recuperare le informazioni senza dover acquisire di nuovo l'immagine [Jet Propulsion Laboratory (laboratorio NASA)].

Fino alla segmentazione l'immagine resta tale; dalla rappresentazione/descrizione in poi l'immagine viene “smontata” in elementi analizzabili secondo parametri matematici da parte di un algoritmo; il riconoscimento automatico è utile su grandi moli di dati (medicina, sicurezza...).

A parità di scena, una risoluzione maggiore consente la rappresentazione di più elementi. La risoluzione migliora, ad esempio, restringendo il range di colori acquisiti (da un'immagine a colori a una in scala di grigi).

Restauro dell'immagine per recuperare informazioni, migliorandone la rappresentazione (blurring, stretching del contrasto, aggiungere del “rumore”, colorazione dei livelli di grigio...).

Lezione 2: 05 marzo 2009

Laboratorio HIPR2; Lezioni 7 e 8 (cenni)

Se l'immagine è in scala di grigi, il valore che indica ogni pixel è unico, ed esprime l'intensità del grigio; in caso di immagini a colori devono essere indicati valori molteplici: la più usata è la scala RGB (ogni pixel è indicato da tre valori).

Operatori sulle immagini

  • Addizione (link): L'addizione consente di sommare i valori di pixel di immagini differenti o di una costante per migliorare l'effetto visivo → evidenziare dei contorni, migliore nitidezza, riduzione del rumore (il segnale si rafforza, mentre il rumore, che è casuale, viene perso poco per volta). La somma deve essere normalizzata affinché il valore del risultato si collochi tra 0 e 255. Infatti, se in un'immagine in scala di grigi la somma dei valori raggiunge il valore 255 si ha il bianco; se tale valore viene superato, si ha comunque 255 come valore massimo → saturazione (da evitare) → è necessaria la normalizzazione per risistemare i valori dei pixel entro il range 0 – 255.
  • Sottrazione (link): La sottrazione è un'operazione più complessa dell'addizione. Essa considera i valori possibili di un pixel dell'immagine finale compresi tra -255 (ovvero I = 0 e I = 255) e +255 (ovvero I = 255 e I1 2 1 2= 0). Per effettuare una sottrazione si devono seguire i seguenti step:
    • Sottrarre il valore del pixel dell'I1 dal corrispondente dell'I2.
    • Sommare il negativo del minimo dell'immagine differenza al valore del pixel considerato.
    • Moltiplicare il valore così ottenuto per 255/MAX, dove MAX è il valore massimo dell'immagine ottenuta al punto 2.

Lezione 2, slides 1 – 18; 24 - 38

Anni '20: trasmissione con cavi sottomarini

Anni '60: viaggio nello spazio; elaborazione immagini della Luna

Anni '70: invenzione della TAC; elaborazione immagini dell'apparecchio

Immagini classificate in base alla sorgente:

  • Radiazione elettromagnetica
  • Ultrasuoni (radar, GPR...)
  • Elettroni
  • Generazione di distribuzione di luminosità al computer (immagini grafiche)

L'uomo vede solo lo spettro tra il rosso e il violetto (e non UV o Ir) perché il “segnale” luminoso del Sole ha il picco di intensità proprio in quella porzione dello spettro. Il colore è un fenomeno psico-visuale legato all'osservatore.

L'infrarosso vicino e medio rileva il segnale infrarosso riflesso; l'infrarosso termico considera quello emesso direttamente dall'oggetto.

Radar: sensore attivo → produce un segnale e lo raccoglie.

Nell'immagine a ultrasuoni è difficile effettuare un'operazione di elaborazione dell'immagine per via del forte disturbo.

Nell'immagine ottenuta dall'emissione di elettroni si ha un ingrandimento notevole, ma l'oggetto viene spesso danneggiato (il materiale biologico viene sempre distrutto).

Lezione 3: 10 marzo 2009

Lezione 3, slide 1 – 26

L'immagine catturata dal sensore è relativa all'energia riflessa dalla superficie del corpo osservato. Il valore di intensità si determina dalla quantità di energia irradiata, dalla proporzione tra energia riflessa e non, sensibilità del sensore... → determinazione in scala di grigio dell'intensità energetica.

Legge di Plank → applicata sul modello di un “corpo nero” utilizzato come standard per elaborare la legge; conoscendo la natura chimico-fisica dell'oggetto osservato e l'intensità energetica irradiata, posso calcolare l'energia riflessa e quindi l'intensità di grigio dell'immagine finale; nei corpi reali (non ideali) si aggiunge alla legge di Plank un coefficiente di riflessione.

Ogni oggetto ha una propria firma spettrale, ovvero un determinato insieme di valori di energia luminosa riflessa.

Radianza = coefficiente di energia incidente * coefficiente di riflessione

Luminanza = energia elettromagnetica nello spettro del visibile.

Lezione 4, slide 1 - 52

Coni: visione completa; bastoncelli: visione acromatica.

Il contrast stretching è necessario per migliorare il contrasto di elementi di un'immagine vicini tra loro. Infatti l'occhio umano percepisce la differenza cromatica solo se il Δ raggiunge un determinato valore.

Le nostre percezioni prospettiche sono intermedie tra le dimensioni prospettiche e le dimensioni effettive dell'oggetto → nell'immagine del porticato ad archi, gli archi in fondo hanno un'altezza visibile di circa la metà di quelli iniziali, mentre in realtà sono alti uguali → li percepiamo come alti all'incirca i 2/3.

Presentazione di un progetto svolto: la percezione.

Lezione 5, slide 3 – 10; 15 – 21; 24 - 34

Discretizzazione (digitalizzazione) = Campionamento + Quantizzazione

Campionamento: relazione tra il pixel dell'immagine (con valore uniforme) e una griglia regolare; gli conferisce un valore discreto che varia a seconda della scala utilizzata (1 bit: bianco e nero; 8 bit: scala di grigi...).

Nella digitalizzazione dell'immagine, il piano cartesiano che definisce la matrice viene ruotato: infatti, l'origine nella matrice deve essere in alto a sinistra, mentre nel piano cartesiano normale essa si trova in basso a sinistra.

Dimensione = Grandezza * Risoluzione

Lezione 4: 11 marzo 2009

Lezione 5, slide 9 – 13; 35 - 48

Frequenza di campionamento: frequenza con cui viene catturata l'immagine.

Per ottenere un segnale uniforme e con minima perdita di informazione, la frequenza di campionamento deve essere almeno 2 volte maggiore della frequenza massima del segnale stesso.

Teorema di Fourier: per quanto un segnale sia complesso, esso può essere percepito come l'insieme di onde di segnale semplici combinate tra loro; questo consente di individuare molto facilmente la frequenza massima.

Con un'immagine ricca di dettagli (ad alta frequenza) è possibile risparmiare sui bit dei livelli di grigio; in un'immagine a bassa frequenza, invece, è preferita una maggiore gradualità nella sfumatura.

Modifica di N (grandezza): zooming (ingrandimento, aggiunta di righe/colonne, interpolazione dei livelli di grigio in modo automatico per creare livelli intermedi) o shrinking (riduzione, interpolazione dei toni di grigio in modo automatico per uniformare i livelli intermedi).

Due tipi di interpolazione: nearest neighbor (→ effetto scacchiera) o bilinear (→ smoothing dell'immagine).

Criterio di vicinanza: due tipologie di individuazione dei punti vicini al punto di coordinate (x, y)

  • A 4 punti: le coordinate dei punti vicini sono (x+1, y), (x-1, y), (x, y+1), (x, y-1)
Anteprima
Vedrai una selezione di 5 pagine su 19
Elaborazione delle immagini - appunti dettagliati corso Pag. 1 Elaborazione delle immagini - appunti dettagliati corso Pag. 2
Anteprima di 5 pagg. su 19.
Scarica il documento per vederlo tutto.
Elaborazione delle immagini - appunti dettagliati corso Pag. 6
Anteprima di 5 pagg. su 19.
Scarica il documento per vederlo tutto.
Elaborazione delle immagini - appunti dettagliati corso Pag. 11
Anteprima di 5 pagg. su 19.
Scarica il documento per vederlo tutto.
Elaborazione delle immagini - appunti dettagliati corso Pag. 16
1 su 19
D/illustrazione/soddisfatti o rimborsati
Acquista con carta o PayPal
Scarica i documenti tutte le volte che vuoi
Dettagli
SSD
Ingegneria industriale e dell'informazione ING-INF/05 Sistemi di elaborazione delle informazioni

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Menzo di informazioni apprese con la frequenza delle lezioni di Elaborazione delle immagini e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi dell' Insubria o del prof Binaghi Elisabetta.
Appunti correlati Invia appunti e guadagna

Domande e risposte

Hai bisogno di aiuto?
Chiedi alla community