Che materia stai cercando?

Informatica di base - Riassunto esame Appunti scolastici Premium

Riassunto del testo di Informatica di base. Nello specifico gli argomenti trattati sono i seguenti: computer, architettura di von Neumann, hardware, software, programmazione, la macchina di Turing, tipi di computer, mainframe, minicomputer, microcomputer. Vedi di più

Esame di Informatica docente Prof. P. Scienze matematiche

Anteprima

ESTRATTO DOCUMENTO

italiano Gestione risorse), caratterizzata in particolare dalla Barra delle applicazioni e dal Menu di avvio. Era

inoltre presente un moderno Desktop, come quello presente da anni in altri sistemi operativi.

Spesso il precursore di Explorer è considerata la shell di Acorn Archimedes del 1987, che disponeva di un componente

simile alla Barra delle applicazioni. In realtà qualcosa di simile era presente già in Windows 1.0, nel 1985. In

ogni caso concetti quali il desktop, il cestino e la navigazione del file system per finestre erano presenti da anni,

in varie forme, in altri sistemi operativi. Tuttavia Explorer fu il frutto di una lunga ricerca di ergonomia da parte di

Microsoft, che studiò con l'ausilio di esperti il modo in cui gli utenti interagivano con il computer.

La diffusione dell'uso del desktop nei personal computer, favorita almeno in parte dalla vasta diffusione di Windows, ha

causato un cambiamento significativo nell'interazione tra computer e utente: con esso è possibile svolgere molti

compiti (task in inglese) comuni e complessi con una minima conoscenza del computer. D'altro canto,

l'interfaccia isola l'utente dai processi interni del sistema.

______________________________________________________________________________________

Algebra di Boole In matematica ed informatica, le algebre booleane, o reticoli booleani, sono strutture algebriche che

rivestono una notevole importanza per varie ragioni:

1. "catturano l'essenza" degli operatori logici AND, OR e NOT

2. consentono di trattare in termini esclusivamente algebrici le operazioni insiemistiche dell'intersezione,

dell'unione e della complementazione

3. permettono di trattare in termini algebrici questioni riguardanti singoli bit (0 e 1), sequenze binarie, matrici

binarie (e di conseguenza, attraverso le loro matrici di incidenza i digrafi) e altre funzioni binarie (si tenga

presente anche la nozione di funzione indicatrice)

4. ogni algebra booleana, in quanto reticolo dotato di particolari proprietà, risulta criptomorfa (cioè associata

biunivocamente e in modo da risultare logicamente equivalente) ad un insieme parzialmente ordinato reticolato.

Inoltre ogni algebra booleana risulta criptomorfa ad un particolare tipo di anello, chiamato anello booleano.

Questi collegamenti per criptomorfismo fra reticoli booleani, posets reticolati e anelli booleani è opportuno siano chiariti

in modo completo: solo in questo modo si può avere un controllo completo di tutte le applicazioni delle algebre

booleane (e delle strutture relazionali e di anello associate).

Sono state definite da George Boole, un matematico inglese dell'University College di Cork, che per primo, verso la metà

del XIX secolo le ha definite come componenti di un sistema logico. In particolare, l'algebra booleana era un

tentativo di usare le tecniche algebriche per elaborare le espressioni nel calcolo proposizionale. Oggi, le

algebre booleane trovano molte applicazioni, tra le quali la progettazione dei circuiti elettronici. In primo luogo

sono state applicate alla commutazione da Claude Shannon negli anni intorno al 1940.

Gli operatori dell'algebra booleana possono essere rappresentati in vari modi. Spesso sono scritti semplicemente come

AND, OR e NOT. Nella descrizione dei circuiti, possono anche essere usati NAND (NOT AND), NOR (NOT OR)

e XOR (OR esclusivo). In matematica spesso si usa + per OR e per AND (poiché per alcuni versi queste

operazioni sono analoghe alla somma ed al prodotto in altre strutture algebriche), mentre si rappresenta il NOT

con una barra segnata sopra l'espressione che viene negata.

Qui useremo alternativamente la notazione "a parole" e quella comune (o ^ per i browsers che non supportano il

precedente carattere) per AND, (o v) per OR ed (o ~) per NOT.

Simbologia

Gli operatori dell'algebra booleana possono essere rappresentati in vari modi, oltre a quello adottato in precedenza

consistente nel servirsi dei loro nomi AND, OR, NOT. Le diverse simbologie sono scelte in base al campo in cui

si lavora.

I matematici usano spesso il simbolo + per l'OR, e × per l'AND, in quanto per alcuni versi questi operatori lavorano in

modo analogo alla somma e alla moltiplicazione. La negazione NOT viene rappresentata spesso da una linea

disegnata sopra l'argomento della negazione, cioè dell'espressione che deve essere negata.

Nella progettazione di circuiti elettronici, vengono utilizzati anche gli operatori brevi NAND (AND negato), NOR (OR

negato) e XNOR (XOR negato); questi operatori, come XOR, sono delle combinazioni dei tre operatori base e

quindi non costituiscono un arricchimento della specie di strutture, vengono usati solo per rendere la notazione

più semplice.

Operatori:

▪ NOT - simboli alternativi: x, ~, ¬, !

▪ AND - simboli alternativi: AND: *, AND, ^, BUT (usato nella logica booleana insieme al NOT)

▪ OR - simboli alternativi: OR: +, OR, v

▪ XOR - simboli alternativi: XOR: +, ^, EOR, orr

⊕, ∨,

▪ ↑

NAND - simboli alternativi: NAND,

▪ ↓

NOR - simboli alternativi: NOR,

▪ XNOR

Valori:

▪ vero - simboli alternativi: true, 1, ON, SI (YES)

▪ falso - simboli alternativi: false, 0, OFF, NO

INFORMATICA - Prof.ssa GALASSO

Un diagramma di Eulero-Venn (o semplicemente diagramma di Venn) è la rappresentazione grafica di un insieme che

consiste nel racchiuderne gli elementi allʼinterno di una linea chiusa non intrecciata.

Gli elementi dell'insieme vengono evidenziati con punti interni alla linea, gli elementi che non appartengono allʼinsieme

con punti esterni ad essa.

Più precisamente possiamo asserire che un "diagramma di Venn" è un particolare tipo di grafico utilizzato per

rappresentare un'algebra degli insiemi.

Seguendo regole specifiche, in questo tipo di grafico possiamo presentare degli elementi, degli insiemi, l'universo

algebrico e le eventuali relazioni che possono esistere fra elementi o fra insiemi:

▪ gli elementi sono rappresentati sotto forma di punti affiancati da una lettera alfabetica minuscola per associarvi

un nome simbolico

▪ per rappresentare un insieme si usa una linea chiusa affiancata da una lettera alfabetica maiuscola che denota

il nome di quell'"insieme"

▪ ogni possibile relazione tra elementi dello stesso insieme o di insiemi diversi verrà indicata tramite un archetto

che indica fra quali elementi sussiste la relazione.

L'informazione è ciò che, per un osservatore o un recettore posto in una situazione in cui si hanno almeno due

occorrenze possibili, supera un'incertezza e risolve un'alternativa, cioè sostituisce il noto all'ignoto, il certo

all'incerto.

In altre parole, essa riguarda il contesto in cui i dati sono raccolti, la loro codifica in forma intelligibile ed in definitiva il

significato attribuito a tali dati.

La parola deriva dal sostantivo latino informatione(m) (confronta il verbo informare, nel significato di "dare forma alla

mente", "disciplinare", "istruire", "insegnare"). Già in latino la parola veniva usata per indicare un "concetto" o

un'"idea", ma non è chiaro se questa parola possa avere influenzato lo sviluppo della parola informazione.

Inoltre la parola greca corrispondente era "μορφή" (morfè, da cui il latino forma per metatesi), oppure "εἶδος" (éidos, da

cui il latino idea), cioè "idea", "concetto" o "forma", "immagine"; la seconda parola fu notoriamente usata

tecnicamente in ambito filosofico da Platone e Aristotele per indicare l'identità ideale o essenza di qualcosa

(vedi Teoria delle idee). Eidos si può anche associare a "pensiero", "asserzione" o "concetto".[1]

Misura dell'informazione

In una comunicazione, che avviene attraverso un dato alfabeto di simboli, l'informazione viene associata a ciascun

simbolo trasmesso e viene definita come la riduzione di incertezza che si poteva avere a priori sul simbolo

trasmesso.

In particolare, l'informazione collegata ad un simbolo è definita come

dove Pi è la probabilità di trasmissione di quel simbolo. La quantità di informazione associata ad un simbolo è misurata

in bit. La quantità di informazione così definita è una variabile aleatoria discreta, il cui valor medio, tipicamente

riferito alla sorgente di simboli, è detto entropia della sorgente, misurata in bit/simbolo. La velocità di

informazione di una sorgente, che non coincide con la frequenza di emissione dei simboli, dato che non è detto

che ogni simbolo trasporti un bit di informazione "utile", è il prodotto dell'entropia dei simboli emessi dalla

sorgente per la frequenza di emissione di tali simboli (velocità di segnalazione). Quanto sopra può essere

generalizzato considerando che non è assolutamente obbligatorio che ogni simbolo sia codificato in maniera

binaria (anche se questo è ciò che accade più spesso). Quindi l'informazione collegata ad un simbolo codificato

in base a è per definizione pari a

con Pi pari alla probabilità di trasmissione associata a quel simbolo. L'entropia della sorgente è per definizione

pari alla sommatoria, estesa a tutti i simboli della sorgente, dei prodotti tra la probabilità di ciascun simbolo e il

suo contenuto informativo. Nei casi particolari in cui a sia 10 l'entropia della sorgente è misurata in hartley, se

invece a è pari al Numero di Eulero e si misura in nat.

Codifica dell'informazione La codifica dell'informazione consiste nel trasformare una informazione generica in una

informazione comprensibile da un dispositivo o che sia adatta alla successiva elaborazione.

Il primo problema da affrontare nei processi di elaborazione dell'informazione è la rappresentazione dell'informazione.

L'informazione consiste nella ricezione di un messaggio tra un insieme di possibili messaggi. La definizione

esatta è che l'informazione si rappresenta usando un numero finito di simboli affidabili e facilmente distinguibili.

All'interno delle apparecchiature digitali l'informazione è rappresentata mediante livelli di tensione o mediante

magnetizzazione di dispositivi appropriati. Le richieste di affidabilità ci impongono che tali simboli per una

maggiore efficienza siano due o al massimo tre: nel primo caso si hanno solo 0 e 1, corrispondenti a 2 livelli di

tensione (standard TTL: 0/5 V; standard RS-232: +12 / -12 V) che vanno a formare la numerazione binaria; nel

secondo caso si ha un terzo stadio che è indicato come HZ (alta impedenza) che non è altro che un livello

indeterminato causato dal filo "scollegato".

BIT - In informatica ed in teoria dell'informazione, la parola bit ha due significati molto diversi, a seconda del contesto in

cui rispettivamente la si usa:

▪ un bit è l'unità di misura dell'informazione (dall'inglese "binary unit"), definita come la quantità minima di

informazione che serve a discernere tra due possibili alternative equiprobabili.

▪ un bit è una cifra binaria, (in inglese "binary digit") ovvero uno dei due simboli del sistema numerico binario,

classicamente chiamati zero (0) e uno (1);

La differenza di significato tra le due definizioni, può riassumersi con una frase come: "la ricezione degli ultimi 100 bit

(simboli binari) di messaggio ha aumentato la nostra informazione di 40 bit (quantità di informazione)" (la

quantità di informazione portata da un simbolo dipende dalla probabilità a priori che si ha di riceverlo).

Il bit come quantità di informazione [modifica]

In questo contesto, un bit rappresenta l'unità di misura della quantità d'informazione.

Questo concetto di bit è stato introdotto dalla teoria dell'informazione di Claude Shannon nel 1948, ed è usato nel campo

della compressione dati e delle trasmissioni numeriche.

INFORMATICA - Prof.ssa GALASSO

Intuitivamente, equivale alla scelta tra due valori (sì/no, vero/falso, acceso/spento), quando questi hanno la stessa

probabilità di essere scelti. In generale, per eventi non necessariamente equiprobabili, la quantità

d'informazione di un evento rappresenta la "sorpresa" nel constatare il verificarsi di tale evento; per esempio, se

un evento è certo, il suo verificarsi non sorprende nessuno, quindi il suo contenuto informativo è nullo; se

invece un evento è raro, il suo verificarsi è sorprendente, quindi il suo contenuto informativo è alto.

Matematicamente, la quantità d'informazione in bit di un evento è l'opposto del logaritmo in base due della probabilità di

tale evento. La scelta del numero 2 come base del logaritmo è particolarmente significativa nel caso elementare

di scelta tra due alternative (informazione di un bit), ma è possibile usare anche e (numero di Nepero), usando

dunque il logaritmo naturale; in tal caso l'unità di misura dell'informazione si dice "Nat".

Nel caso di due eventi equiprobabili, ognuno ha probabilità 0,5, e quindi la loro quantità di informazione è -log2(0,5) = 1

bit. Se la probabilità di un evento è zero, cioè l'evento è praticamente impossibile, la sua quantità di

informazione è infinita. Se la probabilità di un evento è uno, cioè l'evento è praticamente certo, la sua quantità

di informazione è -log2(1) = 0 bit. Se ci sono due possibili eventi, uno con probabilità 25% e l'altro con

probabilità 75%, il verificarsi del primo evento convoglia l'informazione di -log2(0,25) = 2 bit, mentre il verificarsi

del secondo evento convoglia l'informazione di -log2(0,75) =~ 0,415 bit.

Il contenuto informativo (o entropia) di un generatore di eventi (detto "sorgente") è la media statistica dei contenuti

informativi di ogni possibile valore, ovvero la somma delle informazioni pesate per la probabilità del

corrispondente valore.

Il bit come numero binario

In questo contesto il bit rappresenta l'unità di definizione di uno stato logico. Definito anche unità elementare

dell'informazione trattata da un elaboratore. La rappresentazione logica del bit è rappresentata dai soli valori {0,

1}. Ai fini della programmazione è comune raggruppare sequenze di bit in entità più vaste che possono

assumere valori in intervalli assai più ampi di quello consentito da un singolo bit. Questi raggruppamenti

contengono generalmente un numero di stringhe binarie pari ad una potenza binaria, pari cioè a 2n; il più noto è

il byte (chiamato anche ottetto), corrispondente ad 8 bit, che costituisce l'unità di misura più utilizzata in campo

informatico.

Un byte, il cui nome deriva dalla parola inglese "bite" (boccone)[1], è una sequenza di bit, il cui numero dipende

dall'implementazione fisica della macchina sottostante. Per convenzione negli ultimi anni lo si intende formato

da 8 bit, ed è pertanto in grado di assumere 28 = 256 possibili valori. Gli informatici di lingua francese utilizzano

il più preciso termine octet (ovvero ottetto): distinzione utile soprattutto quando erano ancora diffusi computer

con byte di dimensione diversa.

I valori dei multipli del Byte rispetto ad esso

Bit (b): 1 bit (=1/8 B)

Byte (B): 8 bit

Kilobyte (KB): 1024 B

Megabyte (MB): 1024 KB, 1048576 B

Gigabyte (GB): 1024 MB, 1048576 KB, 1073741824 B

Terabyte (TB): 1024 GB, 1048576 MB, 1073741824 KB, 1099511627776 B

Petabyte (PB): 1024 TB, 1048576 GB, 1073741824 MB, 1099511627776 KB, 1125899906842624 B

Il sistema numerico binario è un sistema numerico posizionale in base 2, cioè che utilizza 2 simboli, tipicamente 0 e 1,

invece dei 10 del sistema numerico decimale tradizionale. Di conseguenza, la cifra in posizione n (da destra) si

considera moltiplicata per 2(n − 1) anziché per 10(n − 1) come avviene nella numerazione decimale. Il sistema

numerico binario è usato in informatica per la rappresentazione interna dei numeri, grazie alla semplicità di

realizzare fisicamente un elemento con due stati anziché un numero di stati superiore, ma anche per la

corrispondenza con i valori logici di vero e falso.

Il sistema numerico esadecimale (spesso abbreviato come esa o hex) è un sistema numerico posizionale in base 16,

cioè che utilizza 16 simboli invece dei 10 del sistema numerico decimale tradizionale. Per l'esadecimale si

usano in genere simboli da 0 a 9 e poi le lettere da A a F, per un totale di 16 simboli.

ASCII è l'acronimo di American Standard Code for Information Interchange (ovvero Codice Standard Americano per lo

Scambio di Informazioni), pronunciato in inglese askey /ˈæski/, mentre in italiano è comunemente pronunciato

asci /ˈaʃʃi/.

È un sistema di codifica dei caratteri a 7 bit[1] comunemente utilizzato nei calcolatori.

PROGRAMMI ED ISTRUZIONI

Nell'informatica, un programma per calcolatore, o semplicemente programma, è la descrizione di un algoritmo in un

linguaggio adatto a essere eseguito da un computer o da una macchina virtuale. È una sequenza logicamente

ordinata di operazioni o comandi di istruzioni, un insieme di istruzioni che produce soluzioni per una data classe

di problemi.

Un programma scritto in linguaggio macchina, e direttamente eseguibile da un computer (normalmente inteso come

unione di hardware e sistema operativo), è detto anche programma eseguibile o programma binario. Un

programma scritto in linguaggio assembly o in un linguaggio di programmazione ad alto livello, per contro, può

essere eseguito solo utilizzando un compilatore o un interprete e viene detto programma sorgente.

In informatica, una funzione (detta anche subroutine, routine, procedura o sottoprogramma) è un costrutto che permette

di raggruppare una sequenza di istruzioni che fanno parte di un programma. Una funzione può essere

"chiamata" ("richiamata", "invocata", "attivata") in diversi punti del programma di cui fa parte come se fosse una

singola istruzione.

Una funzione dovrebbe eseguire una determinata operazione o risolvere un determinato problema, e contribuire alla

fattorizzazione del software. Ad esempio, una subroutine progettata per disporre in ordine crescente un insieme

di numeri interi può essere richiamata in tutti i contesti in cui questa operazione sia utile o necessaria, e

supplisce alla mancanza di una vera e propria "istruzione" dedicata allo scopo, consentendo al contempo di

descrivere il corrispondente algoritmo di ordinamento in un unico punto del programma.

Le subroutine sono spesso raccolte in librerie.

Nei diversi linguaggi di programmazione, le funzioni vengono realizzate in modi e con terminologie parzialmente diverse.

▪ il termine subroutine è stato usato fino dagli albori della programmazione per riferirsi a sezioni di codice

assembly o in linguaggio macchina (e viene usato per estensione in altri contesti ad esempio nelle prime

versioni del Basic);

▪ i termini procedura e funzione vengono generalmente usati nel contesto dei linguaggi di programmazione ad

alto livello; laddove non siano considerati sinonimi per funzione si intende un sottoprogramma il cui scopo

principale sia quello di produrre un valore a partire da determinati dati di ingresso (cosa che stabilisce

un'analogia con l'omonimo concetto della matematica), mentre una procedura è un sottoprogramma che non

"produce" alcun particolare valore. Alcuni linguaggi (per esempio il C) adottano come modello "standard" quello

della funzione, e considerano le procedure come caso particolare di funzione che ritorna un valore

appartenente all'insieme vuoto.

▪ il termine sottoprogramma è anch'esso tipico dei linguaggi di programmazione ad alto livello, ed è talvolta usato

come termine generale per riferirsi sia a procedure che a funzioni nel senso descritto sopra.

▪ Nella programmazione orientata agli oggetti, il ruolo della funzione è assunto dal metodo.

In tutti i paradigmi di programmazione imperativa, le strutture di controllo sono costrutti sintattici di un linguaggio di

programmazione la cui semantica afferisce al controllo del flusso di esecuzione di un programma, ovvero che

servono a specificare se, quando, in quale ordine e quante volte devono essere eseguite le istruzioni che lo

compongono.

Alternativa

Le strutture di controllo "alternative" consentono di specificare che una data istruzione o un dato blocco di istruzioni

devono essere eseguiti "(solo) se" vale una certa condizione.

Alternativa if-then e if-then-else [modifica]

L'alternativa if-then (se-allora) è la più semplice forma di alternativa. Il suo significato può essere parafrasato con la frase

"se vale la condizione C, esegui l'istruzione (blocco) I". La maggior parte dei linguaggi di programmazione

ammette anche (come variante) la forma più articolata if-then-else (se-allora-altrimenti), che si può parafrasare

come: "se vale la condizione C esegui l'istruzione (blocco) I1; altrimenti esegui l'istruzione (blocco) I2".

Iterazione

Le strutture di controllo "iterative" consentono di specificare che una data istruzione o un dato blocco di istruzioni devono

essere eseguiti ripetutamente. Esse vengono anche dette cicli. Ogni struttura di controllo di questo tipo deve

consentire di specificare sotto quali condizioni l'iterazione (ripetizione) di tali istruzioni debba terminare, ovvero

la condizione di terminazione del ciclo oppure, equivalentemente, la condizione di permanenza nel ciclo. Di

seguito si esaminano le strutture di controllo più note di questa categoria.

Nella programmazione dei computer, l'iterazione, chiamata anche ciclo o con il termine inglese loop, è una struttura di

controllo che ordina all'elaboratore di eseguire una sequenza di istruzioni ripetutamente, solitamente fino al

verificarsi di particolari condizioni.

INFORMATICA - Prof.ssa GALASSO

Esistono varie forme di iterazione; le più conosciute sono il MENTRE (in inglese: while..do), il RIPETI (in inglese:

repeat..until o do..while), ed il PER (comunemente detto Ciclo for).

Il "ciclo infinito", o "loop infinito", è spesso dovuto ad un errore di programmazione, mentre alcune tecniche di

programmazione soprattutto con microcontrollori è utilizzato per iterare infinitamente all'interno del programma.

Editor è il termine inglese utilizzato per indicare i programmi di composizione di testi. Dunque una traduzione non

letterale in italiano potrebbe essere compositore.

Un semplice editor è generalmente incluso in ogni sistema operativo.

Scopo di un editor è facilitare la scrittura di un testo.

Poiché la scrittura di un testo è pratica comune a parecchie attività, esistono editor di ogni sorta: dai semplici editor di

testo (come ad esempio il Notepad di Microsoft) che consentono di scrivere testo puro, ovvero senza

formattazione alcuna, ai più complessi programmi di videoscrittura (come ad esempio Word sempre di

Microsoft) che, oltre alla battitura del testo, consentono di formattare, inserire immagini, produrre documenti,

pagine web, opuscoli, articoli, eccetera e vengono propriamente chiamati elaboratori di testo.

Vi sono poi molte altre situazioni in cui è necessario scrivere e per le quali i due strumenti (editor di testo e programma di

videoscrittura) risultano inadeguati. Ad esempio nella programmazione alcuni editor suggeriscono la sintassi e

aiutano nel debug

La catalogazione consiste nella classificazione, registrazione e descrizione di un bene culturale; lʼinsieme delle schede

di catalogazione costituiscono un catalogo.

Per catalogare vengono utilizzati degli standard specifici per ogni tipologia di bene catalogato: patrimonio archeologico,

architettonico, storico artistico, librario, etnoantropologico.

Il catalogo è un elenco ordinato e sistematico di più oggetti della stessa specie, come per esempio libri, opere d'arte,

prodotti artigiani o industriali, con le indicazioni atte a individuarli e talora, come nei cataloghi di vendita, con il

prezzo segnato.

La Classificazione decimale Dewey (anche DDC, acronimo dalla dizione inglese Dewey Decimal Classification o

Dewey Decimal System) è uno schema di classificazione, inizialmente rivolto all'ambiente bibliotecario,

sviluppato da Melvil Dewey (1851-1931) nel 1876, da allora più volte modificato ed espanso in occasione delle

ventidue revisioni principali di cui è stato oggetto fino al 2004. Nelle biblioteche pubbliche si utilizza

frequentemente un'edizione ridotta, dal momento che non servono notazioni molto specifiche.

Punto di rilievo del sistema è la scelta di un impiego intelligente delle cifre decimali per le sue categorie. Ciò permette di

mantenere puramente numerica la classificazione, facilitando la possibilità di ordinare e gerarchizzare in più

modi le informazioni. Vi è anche la possibilità di realizzare una classificazione su più fronti diversi (faceted

classification), combinando elementi da parti diverse della struttura e costruendo un numero che rappresenta

nell'insieme un contenuto oggettivo (spesso a sua volta ottenuto combinando due argomenti collegando i

numeri degli elementi geografici e temporali) e gli elementi formali di un oggetto. Questo tipo di classificazione è

più efficiente rispetto all'uso di liste contenenti ogni singola classificazione e il relativo significato.

Il tipo di classificazione, ad esclusione delle opere generali e della narrativa, è basato principalmente sull'argomento, con

estensioni per le correlazioni, luoghi, tempo, tipo di opera, dando così luogo a classificazioni mai più brevi di tre

cifre, ma di lunghezza indeterminata, con un punto che precede la quarta cifra, quando questa è presente. Per

esempio 330 indica l'economia + 94 per l'Europa = 330.94 Economia europea; 973 per gli Stati Uniti + 005 che

contraddistingue i periodici = 973.005, pubblicazioni periodiche in genere relative agli Stati Uniti; le

classificazioni devono essere lette e ordinate come numeri: 050, 220, 330.973, 331 e così via. Il sistema utilizza

dieci classi fondamentali, che a loro volta hanno ulteriori suddivisioni. Spesso si pensa erroneamente che tutti i

libri possano essere classificati con il sistema Dewey tranne quelli di narrativa, mentre in realtà l'utilizzo di una

sezione separata in molte biblioteche risponde ad esigenze di altro tipo. Se le regole di classificazione Dewey

venissero seguite, la narrativa italiana, ad esempio, dovrebbe essere classificata come 853 (quella

contemporanea con 853.914): la maggior parte delle biblioteche creano una sezione separata per la narrativa,

dal momento che la presenza e la richiesta di libri al riguardo è numericamente molto elevata.

La classificazione decimale Dewey è molto utilizzata nel sistema bibliotecario pubblico ed anche nelle librerie scolastiche

in tutto il mondo, specialmente negli Stati Uniti, ma anche in Italia, dove è stata adottata dall'Istituto Centrale per

il Catalogo Unico delle Biblioteche Italiane e per le Informazioni Bibliografiche per la classificazione

centralizzata SBN. La classificazione ha sicuramente degli squilibri di ordine geografico che sono in qualche

modo dovute alle origini del XIX secolo: Il solo Nord Africa, per esempio è classificato nell'intervallo 961-965,

mentre il resto del continente ha solo 966-969. La copertura è largamente sbilanciata verso la religione cristiana

a scapito delle altre religioni, dal momento che la prima copre le posizioni numeriche 200-289, mentre alle

rimanenti rimane l'intervallo 290-299. Versioni recenti permettono ad un'altra religione di occupare le posizioni

200-289, relegando le pubblicazioni sulla religione cristiana all'ultimo intervallo della classe 200: 290-299,

questa facoltà viene utilizzata prevalentemente per le biblioteche allestite da gruppi di religione non cristiana,

spesso ad esempio nelle biblioteche ebraiche.

I numeri utilizzati per il sistema di classificazione decimale Dewey hanno costituito la base per il sistema di

Classificazione Decimale Universale, sviluppato da Paul Otlet e Henri La Fontaine, senz'altro più completo ma

anche molto più difficile da utilizzare e che prevede, tra l'altro, la combinazione del sistema di base Dewey con

della punteggiatura predefinita (virgole, punti, parentesi etc.). Nonostante le frequenti revisioni, il sistema

Dewey viene classificato teoricamente inferiore rispetto ad altri sistemi più moderni che fanno uso dei caratteri

alfanumerici, ma la diffusione e l'espressività del formato decimale ne fanno uno strumento molto utilizzato,

anche rispetto a sistemi alternativi, anche sviluppati in periodi successivi, come ad esempio la Classificazione

della Library of Congress in uso presso la Biblioteca del Congresso negli Stati Uniti d'America.

Il Codice ISBN (International Standard Book Number) è un codice numerico (salvo l'ultima cifra che può anche

essere una lettera X) usato internazionalmente per la classificazione dei libri. È definito da uno standard ISO,

derivato dallo standard SBN inglese del 1967.

Ogni codice ISBN identifica un'edizione di un libro (escluse le semplici ristampe).

Il codice ISBN è formato da una stringa di 13 cifre, divise in 5 settori:

1. Gruppo EAN - sono tre cifre introdotte nell'ISBN-13 per ampliarne i numeri usufruibili

2. Gruppo - identificativo del paese, dell'area o del linguaggio, composto da 1 a 5 cifre

3. Editore - identificativo della casa editrice, composto da 1 a 7 cifre

4. Titolo - identificativo del libro, composto da 1 a 6 cifre

5. Controllo - una cifra da 0 a 10 (quest'ultimo indicato però dalla cifra romana "X") utilizzata per verificare che il

codice non sia stato letto o trascritto erroneamente (cosa che può accadere specialmente quando si usano

strumenti automatici come i lettori di codici a barre).

La lunghezza delle prime due stringhe è inversamente proporzionale al numero di pubblicazioni, rispettivamente nel

paese e dell'editore, mentre la terza è tanto più grande quanti più libri si pubblicano. Ovviamente, la somma

delle prime tre parti deve essere di 9 cifre. Ad esempio, il primo campo è 0 oppure 1 per la lingua inglese, 3 per

gli editori tedeschi, 982 per l'area Sud Pacifico; il prefisso corrispondente ai libri in lingua italiana è 88.

L'ISSN (International Standard Serial Number) è il numero internazionale che identifica pubblicazioni in serie come

quotidiani e periodici stampati o elettronici, e permette di standardizzare le classificazioni, ad esempio nelle

biblioteche. L'ISSN si differenzia dall'ISBN dei libri ed è attribuito da specifici organismi.

L'ISSN è regolato dal testo ISO 3297 (ICS n° 01.140.20) del 1975.

Un ipertesto è un insieme di documenti messi in relazione tra loro tramite parole chiave. Può essere visto come una

rete; i documenti ne costituiscono i nodi. La caratteristica principale di un ipertesto è che la lettura può svolgersi

in maniera non lineare: qualsiasi documento della rete può essere "il successivo", in base alla scelta del lettore

di quale parola chiave usare come collegamento.

È possibile, infatti, leggere all'interno di un ipertesto tutti i documenti collegati dalla medesima parola chiave. La

scelta di una parola chiave diversa porta all'apertura di un documento diverso: all'interno dell'ipertesto sono

possibili praticamente infiniti percorsi di lettura.

L'ipertesto informatico è la versione di ipertesto più usata e più diffusa oggi. Il computer ha automatizzato il passaggio da

un documento all'altro. I documenti sono leggibili a video grazie a un'interfaccia elettronica, le parole chiave in

esso contenute appaiono marcate (sottolineate oppure evidenziate, ecc) in maniera da renderle riconoscibili.

L'azione del clic con il mouse su una parola chiave ha come conseguenza l'apertura di un altro documento.

Quindi le parole chiave funzionano come collegamenti ipertestuali (hyperlink in inglese).

Il memex è un calcolatore analogico dotato di un sistema di archiviazione, ideato dallo scienziato e tecnologo

statunitense Vannevar Bush negli anni trenta e mai realizzato, da molti considerato il precursore del personal

computer e degli ipertesti.

As We May Think (lett. "Come potremmo pensare"

Il progetto Xanadu (in onore del poema Kubla Khan di Samuel Taylor Coleridge) è stato il primo progetto di ipertesto.

Fondato nel 1960 da Ted Nelson, il progetto, secondo il suo sito web, è in contrasto con la concezione di

ipertesto cartaceo: "I software più utilizzati di oggi simulano i supporti cartacei. Il World Wide Web (un'altra

imitazione cartacea) banalizza il nostro modello di ipertesto originale con collegamenti monodirezionali in

continua interruzione e senza possibilità di gestione della versione o dei contenuti." La Wired lo ha definito la

"più lunga storia di vaporware nella storia dell'industria informatica". Il primo tentativo di implementazione è

iniziato nel 1960, ma il software completo fu rilasciato soltanto nel 1998.

Il World Wide Web (nome di origine inglese), in sigla WWW, più spesso abbreviato in Web,[3] anche conosciuto come

Grande Ragnatela Mondiale,[4] è un servizio di Internet[5] consistente in un insieme vastissimo di contenuti

multimediali e di servizi accessibili a tutti o ad una parte selezionata degli utenti di Internet.

Caratteristica principale del Web è che i suoi contenuti e i suoi servizi possono essere resi disponibili dagli stessi utenti di

Internet.[6] Per quanto riguarda i contenuti quindi, essendo Internet una rete di computer ad accesso pubblico, il

Web possiede la straordinaria peculiarità di offrire a chiunque la possibilità di diventare editore e, con una spesa

estremamente esigua, di raggiungere un pubblico vastissimo distribuito in tutto il mondo.[7]


PAGINE

16

PESO

674.08 KB

AUTORE

flaviael

PUBBLICATO

+1 anno fa


DESCRIZIONE APPUNTO

Riassunto del testo di Informatica di base. Nello specifico gli argomenti trattati sono i seguenti: computer, architettura di von Neumann, hardware, software, programmazione, la macchina di Turing, tipi di computer, mainframe, minicomputer, microcomputer.


DETTAGLI
Esame: Informatica
Corso di laurea: Corso di laurea in informatica
SSD:
A.A.: 2012-2013

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher flaviael di informazioni apprese con la frequenza delle lezioni di Informatica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università La Sapienza - Uniroma1 o del prof Scienze matematiche Prof.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Informatica

Fondamenti di informatica 1 - Esercizi
Esercitazione
Informatica di base - nozioni generali
Appunto
Informatica di base - Appunti
Appunto
Informatica - Appunti
Appunto