Estratto del documento

Informatica

Disciplina

Disciplina che studia il trattamento automatico dell'informazione.

Gestione

Raccogliere i dati e ricondurli a un valore informazione.

Trasmettere

Per fare questo l'informazione deve essere codificata, ovvero l'informazione espressa attraverso un sistema simbolico e trasformata in un messaggio. Quando il messaggio viene decodificato, esso diventa di nuovo informazione.

Messaggio

Lo stesso messaggio può rappresentare più informazioni codificate (15:40 può indicare un orario o un punteggio tennistico) o ambiguo un'informazione può essere codificata in più modi (“Le ore quindici e quaranta” possono essere scritte “15:40”; “3:40pm”).

Obiettivo della codifica

Creare un messaggio non ambiguo.

Livelli di codifica

La stessa informazione può essere codificata più volte: informazione (Le ore quindici e quaranta) → messaggio (15:40) → segnale fisico (accensione dei LED sulla sveglia).

Codifica

Non è utile solo alla trasmissione dell'informazione, ma anche alla sua manipolazione. Ad esempio, un criterio per scegliere un codice piuttosto che un altro è che esso si adatti allo strumento fisico, come il codice Morse si adatta al telegrafo.

Messaggio

Una successione ordinata di simboli, dove l'ordine è importante.

Codice

È un insieme di simboli (detto anche alfabeto):

  • Un insieme di regole con cui combinare i simboli in messaggi validi.

Se ho esigenza di spazio, mi inventerò un codice che comprime il messaggio aumentando i simboli: accorciare messaggio → sistema simbolico più ricco.

Aumentare l'espressività del codice

Aumentare i simboli e aumentare la lunghezza del messaggio.

Espressività del codice

Abbiamo un codice di N simboli e messaggi di lunghezza L: possiamo calcolare il numero I di informazioni diverse che possiamo esprimere combinando fra loro gli N simboli L volte.

Formula generale: I = NL

Informazione

Ciò che produce una variazione nella nostra conoscenza.

Idea di Shannon

Quando è massima la probabilità che ci sia nota la situazione che osserviamo, allora è nulla la quantità di informazione prodotta dall'osservazione. Se è bassa la probabilità che ci sia nota l'informazione, allora la quantità di informazione è elevata.

Teoria dell'informazione

Spiega quanto sia informativa un'informazione. La quantità di informazione è inversamente proporzionale alla probabilità che si verifichi il fatto che osserviamo.

Quantità minima di informazione

Quella che si ottiene selezionando una configurazione minima da un insieme che ne contiene due equiprobabili → detta bit.

Bit

Unità minima che misura l'informazione, esprimibile utilizzando due simboli: 0;1.

Codici binari

In informatica se ne adottano molti:

  • Alfabeto → 0;1
  • Regole → cambiano a seconda dell'informazione da codificare.

Tipologie di informazione sottoposte a codifica

  • Testo → tutto ciò riconducibile a un testo alfabetico + testi ideogrammatici.
  • Numeri
  • Immagini → visiva
  • Audio → sonora
  • Video → visiva + sonora

Come costruire un sistema di codifica

  • Individuazione dell'insieme di informazioni da codificare
  • Calcolo del numero di bit (attraverso la formula I = NL) necessario per codificare le informazioni (di fatto N è fisso perché è sempre 2, dobbiamo calcolare L)
  • Associazione di ogni informazione a una specifica composizione di Bit
  • Interpretazione del messaggio

L'associazione messaggio e informazione è arbitraria e quindi indipendente dal significato dell'informazione trasmessa. Inoltre, per decodificare è necessario conoscere il codice.

Codifica testuale

  • Insieme di informazioni da codificare → circa 120 caratteri
  • Contando che N=2 (fisso) e che I=120, non resta che applicare la formula L = log2I → L=7.

Codice ASCII

Questo vuol dire che ogni carattere è rappresentato da 7 bit. Il codice ASCII è basato appunto sull'uso di 7 bit per ogni carattere.

Codice ASCII esteso

Il codice ASCII peró mancava di certi caratteri (come quelli accentati), quindi è aumentata la quantità di informazione da trasmettere e quindi il messaggio si è allungato di un Bit. Il codice ASCII esteso è composto da 8 bit (1 byte) per ogni carattere.

Codice UNICODE

L'ASCII non basta per codificare anche gli ideogrammi, e quindi è stato inventato il codice UNICODE, composto da 16 bit per ciascun carattere (2 byte).

Codifica di dati numerici

  • Codifica in base 10 (10 simboli: 0,1,2,3,4,5,6,7,8,9) → ogni cifra assume un significato diverso in base alla posizione che assume nel messaggio. Individuo prima i gruppi da 10 e poi quanta avanza.

In generale la scelta della base è arbitraria.

Notazione posizionale

  • Un numero espresso in notazione posizionale si legge da destra a sinistra
  • Si moltiplica ogni cifra per una potenza crescente della base

In questo modo posso scrivere qualsiasi numero in base 10:

  • 542 da base 6 a base 10: 5×62 + 4×61 + 2×60 = 180 + 24 + 2 = 206

Operazione inversa della notazione posizionale

  • Partendo da una certa quantità, occorre capire come scriverla in una certa base.
  • Quante volte la base rientra nella quantità e capire se abbiamo abbastanza simboli per scrivere tale informazione.
  • Dividere il numero originario per la base e memorizzare i resti, fino a non poter più procedere con la divisione.
  • Leggere i resti in senso inverso.

23 da base 10 a base 2:

  • 23/2=11 → R=1
  • 11/2=5 → R=1
  • 5/2=2 → R=1
  • 2/2=1 → R=0
  • 1/2=0 → R=1

23 in base 2 è 10111.

Codifica dell'immagine

La codifica è discreta (ovvero distinta in piccole porzioni): bisogna quindi individuare delle unità delle immagine: prendo l'immagine di partenza e la suddivido in tanti minuscoli quadratini chiamati pixel.

Immagini in bianco e nero

  • Bianco → 0
  • Nero → 1

Quindi la decodifica è facile perché a ciascun colore corrisponde un numero (in questo caso o 0 o 1). Ma quando nel quadratino ci sono entrambi i colori si deve approssimare: se nella casellina c'è più bianco essa sarà tutta bianca e viceversa. La conseguenza di questo è un'immagine sgranata. Per evitarlo, basta aumentare il numero di quadratini (si dice "aumentare la risoluzione"). Più la risoluzione è alta, più l'immagine sarà definita, ma sarà anche maggiore il numero di bit. Per queste immagini mi serve un solo bit per ogni pixel.

Immagini a colori

Ogni pixel può avere uno dei 16 milioni di colori → dobbiamo aumentare i bit.

  • 16 milioni = 224 → ma è impossibile!
  • Si usa la proprietà dei colori in base alla quale essi si possono ottenere combinando 3 colori: Rosso, Verde e Blu.

Per ottenere 16 milioni di colori il numero di gradazioni deve essere 256×256×256 → al posto di rappresentare il singolo colore do un codice solo ai tre principali, indicando solo quante parti dell'uno e dell'altro mi servono.

Quanti bit mi servono quindi per comunicare 256 valori? L = log2256 = 8 bit (1 byte). Mi servono 3 byte per ogni pixel.

Anteprima
Vedrai una selezione di 4 pagine su 13
Informatica per Scienze umanistiche - Appunti Pag. 1 Informatica per Scienze umanistiche - Appunti Pag. 2
Anteprima di 4 pagg. su 13.
Scarica il documento per vederlo tutto.
Informatica per Scienze umanistiche - Appunti Pag. 6
Anteprima di 4 pagg. su 13.
Scarica il documento per vederlo tutto.
Informatica per Scienze umanistiche - Appunti Pag. 11
1 su 13
D/illustrazione/soddisfatti o rimborsati
Acquista con carta o PayPal
Scarica i documenti tutte le volte che vuoi
Dettagli
SSD
Scienze matematiche e informatiche INF/01 Informatica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher valsfm di informazioni apprese con la frequenza delle lezioni di Fondamenti di Informatica per Scienze umanistiche e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Milano o del prof Ferrara Alfio.
Appunti correlati Invia appunti e guadagna

Domande e risposte

Hai bisogno di aiuto?
Chiedi alla community