Informatica di base - Riassunto esame
Anteprima
ESTRATTO DOCUMENTO
italiano Gestione risorse), caratterizzata in particolare dalla Barra delle applicazioni e dal Menu di avvio. Era
inoltre presente un moderno Desktop, come quello presente da anni in altri sistemi operativi.
Spesso il precursore di Explorer è considerata la shell di Acorn Archimedes del 1987, che disponeva di un componente
simile alla Barra delle applicazioni. In realtà qualcosa di simile era presente già in Windows 1.0, nel 1985. In
ogni caso concetti quali il desktop, il cestino e la navigazione del file system per finestre erano presenti da anni,
in varie forme, in altri sistemi operativi. Tuttavia Explorer fu il frutto di una lunga ricerca di ergonomia da parte di
Microsoft, che studiò con l'ausilio di esperti il modo in cui gli utenti interagivano con il computer.
La diffusione dell'uso del desktop nei personal computer, favorita almeno in parte dalla vasta diffusione di Windows, ha
causato un cambiamento significativo nell'interazione tra computer e utente: con esso è possibile svolgere molti
compiti (task in inglese) comuni e complessi con una minima conoscenza del computer. D'altro canto,
l'interfaccia isola l'utente dai processi interni del sistema.
______________________________________________________________________________________
Algebra di Boole In matematica ed informatica, le algebre booleane, o reticoli booleani, sono strutture algebriche che
rivestono una notevole importanza per varie ragioni:
1. "catturano l'essenza" degli operatori logici AND, OR e NOT
2. consentono di trattare in termini esclusivamente algebrici le operazioni insiemistiche dell'intersezione,
dell'unione e della complementazione
3. permettono di trattare in termini algebrici questioni riguardanti singoli bit (0 e 1), sequenze binarie, matrici
binarie (e di conseguenza, attraverso le loro matrici di incidenza i digrafi) e altre funzioni binarie (si tenga
presente anche la nozione di funzione indicatrice)
4. ogni algebra booleana, in quanto reticolo dotato di particolari proprietà, risulta criptomorfa (cioè associata
biunivocamente e in modo da risultare logicamente equivalente) ad un insieme parzialmente ordinato reticolato.
Inoltre ogni algebra booleana risulta criptomorfa ad un particolare tipo di anello, chiamato anello booleano.
Questi collegamenti per criptomorfismo fra reticoli booleani, posets reticolati e anelli booleani è opportuno siano chiariti
in modo completo: solo in questo modo si può avere un controllo completo di tutte le applicazioni delle algebre
booleane (e delle strutture relazionali e di anello associate).
Sono state definite da George Boole, un matematico inglese dell'University College di Cork, che per primo, verso la metà
del XIX secolo le ha definite come componenti di un sistema logico. In particolare, l'algebra booleana era un
tentativo di usare le tecniche algebriche per elaborare le espressioni nel calcolo proposizionale. Oggi, le
algebre booleane trovano molte applicazioni, tra le quali la progettazione dei circuiti elettronici. In primo luogo
sono state applicate alla commutazione da Claude Shannon negli anni intorno al 1940.
Gli operatori dell'algebra booleana possono essere rappresentati in vari modi. Spesso sono scritti semplicemente come
AND, OR e NOT. Nella descrizione dei circuiti, possono anche essere usati NAND (NOT AND), NOR (NOT OR)
e XOR (OR esclusivo). In matematica spesso si usa + per OR e per AND (poiché per alcuni versi queste
operazioni sono analoghe alla somma ed al prodotto in altre strutture algebriche), mentre si rappresenta il NOT
con una barra segnata sopra l'espressione che viene negata.
Qui useremo alternativamente la notazione "a parole" e quella comune (o ^ per i browsers che non supportano il
precedente carattere) per AND, (o v) per OR ed (o ~) per NOT.
Simbologia
Gli operatori dell'algebra booleana possono essere rappresentati in vari modi, oltre a quello adottato in precedenza
consistente nel servirsi dei loro nomi AND, OR, NOT. Le diverse simbologie sono scelte in base al campo in cui
si lavora.
I matematici usano spesso il simbolo + per l'OR, e × per l'AND, in quanto per alcuni versi questi operatori lavorano in
modo analogo alla somma e alla moltiplicazione. La negazione NOT viene rappresentata spesso da una linea
disegnata sopra l'argomento della negazione, cioè dell'espressione che deve essere negata.
Nella progettazione di circuiti elettronici, vengono utilizzati anche gli operatori brevi NAND (AND negato), NOR (OR
negato) e XNOR (XOR negato); questi operatori, come XOR, sono delle combinazioni dei tre operatori base e
quindi non costituiscono un arricchimento della specie di strutture, vengono usati solo per rendere la notazione
più semplice.
Operatori:
▪ NOT - simboli alternativi: x, ~, ¬, !
▪ AND - simboli alternativi: AND: *, AND, ^, BUT (usato nella logica booleana insieme al NOT)
▪ OR - simboli alternativi: OR: +, OR, v
▪ XOR - simboli alternativi: XOR: +, ^, EOR, orr
⊕, ∨,
▪ ↑
NAND - simboli alternativi: NAND,
▪ ↓
NOR - simboli alternativi: NOR,
▪ XNOR
Valori:
▪ vero - simboli alternativi: true, 1, ON, SI (YES)
▪ falso - simboli alternativi: false, 0, OFF, NO
INFORMATICA - Prof.ssa GALASSO
Un diagramma di Eulero-Venn (o semplicemente diagramma di Venn) è la rappresentazione grafica di un insieme che
consiste nel racchiuderne gli elementi allʼinterno di una linea chiusa non intrecciata.
Gli elementi dell'insieme vengono evidenziati con punti interni alla linea, gli elementi che non appartengono allʼinsieme
con punti esterni ad essa.
Più precisamente possiamo asserire che un "diagramma di Venn" è un particolare tipo di grafico utilizzato per
rappresentare un'algebra degli insiemi.
Seguendo regole specifiche, in questo tipo di grafico possiamo presentare degli elementi, degli insiemi, l'universo
algebrico e le eventuali relazioni che possono esistere fra elementi o fra insiemi:
▪ gli elementi sono rappresentati sotto forma di punti affiancati da una lettera alfabetica minuscola per associarvi
un nome simbolico
▪ per rappresentare un insieme si usa una linea chiusa affiancata da una lettera alfabetica maiuscola che denota
il nome di quell'"insieme"
▪ ogni possibile relazione tra elementi dello stesso insieme o di insiemi diversi verrà indicata tramite un archetto
che indica fra quali elementi sussiste la relazione.
L'informazione è ciò che, per un osservatore o un recettore posto in una situazione in cui si hanno almeno due
occorrenze possibili, supera un'incertezza e risolve un'alternativa, cioè sostituisce il noto all'ignoto, il certo
all'incerto.
In altre parole, essa riguarda il contesto in cui i dati sono raccolti, la loro codifica in forma intelligibile ed in definitiva il
significato attribuito a tali dati.
La parola deriva dal sostantivo latino informatione(m) (confronta il verbo informare, nel significato di "dare forma alla
mente", "disciplinare", "istruire", "insegnare"). Già in latino la parola veniva usata per indicare un "concetto" o
un'"idea", ma non è chiaro se questa parola possa avere influenzato lo sviluppo della parola informazione.
Inoltre la parola greca corrispondente era "μορφή" (morfè, da cui il latino forma per metatesi), oppure "εἶδος" (éidos, da
cui il latino idea), cioè "idea", "concetto" o "forma", "immagine"; la seconda parola fu notoriamente usata
tecnicamente in ambito filosofico da Platone e Aristotele per indicare l'identità ideale o essenza di qualcosa
(vedi Teoria delle idee). Eidos si può anche associare a "pensiero", "asserzione" o "concetto".[1]
Misura dell'informazione
In una comunicazione, che avviene attraverso un dato alfabeto di simboli, l'informazione viene associata a ciascun
simbolo trasmesso e viene definita come la riduzione di incertezza che si poteva avere a priori sul simbolo
trasmesso.
In particolare, l'informazione collegata ad un simbolo è definita come
dove Pi è la probabilità di trasmissione di quel simbolo. La quantità di informazione associata ad un simbolo è misurata
in bit. La quantità di informazione così definita è una variabile aleatoria discreta, il cui valor medio, tipicamente
riferito alla sorgente di simboli, è detto entropia della sorgente, misurata in bit/simbolo. La velocità di
informazione di una sorgente, che non coincide con la frequenza di emissione dei simboli, dato che non è detto
che ogni simbolo trasporti un bit di informazione "utile", è il prodotto dell'entropia dei simboli emessi dalla
sorgente per la frequenza di emissione di tali simboli (velocità di segnalazione). Quanto sopra può essere
generalizzato considerando che non è assolutamente obbligatorio che ogni simbolo sia codificato in maniera
binaria (anche se questo è ciò che accade più spesso). Quindi l'informazione collegata ad un simbolo codificato
in base a è per definizione pari a
con Pi pari alla probabilità di trasmissione associata a quel simbolo. L'entropia della sorgente è per definizione
pari alla sommatoria, estesa a tutti i simboli della sorgente, dei prodotti tra la probabilità di ciascun simbolo e il
suo contenuto informativo. Nei casi particolari in cui a sia 10 l'entropia della sorgente è misurata in hartley, se
invece a è pari al Numero di Eulero e si misura in nat.
Codifica dell'informazione La codifica dell'informazione consiste nel trasformare una informazione generica in una
informazione comprensibile da un dispositivo o che sia adatta alla successiva elaborazione.
Il primo problema da affrontare nei processi di elaborazione dell'informazione è la rappresentazione dell'informazione.
L'informazione consiste nella ricezione di un messaggio tra un insieme di possibili messaggi. La definizione
esatta è che l'informazione si rappresenta usando un numero finito di simboli affidabili e facilmente distinguibili.
All'interno delle apparecchiature digitali l'informazione è rappresentata mediante livelli di tensione o mediante
magnetizzazione di dispositivi appropriati. Le richieste di affidabilità ci impongono che tali simboli per una
maggiore efficienza siano due o al massimo tre: nel primo caso si hanno solo 0 e 1, corrispondenti a 2 livelli di
tensione (standard TTL: 0/5 V; standard RS-232: +12 / -12 V) che vanno a formare la numerazione binaria; nel
secondo caso si ha un terzo stadio che è indicato come HZ (alta impedenza) che non è altro che un livello
indeterminato causato dal filo "scollegato".
BIT - In informatica ed in teoria dell'informazione, la parola bit ha due significati molto diversi, a seconda del contesto in
cui rispettivamente la si usa:
▪ un bit è l'unità di misura dell'informazione (dall'inglese "binary unit"), definita come la quantità minima di
informazione che serve a discernere tra due possibili alternative equiprobabili.
▪ un bit è una cifra binaria, (in inglese "binary digit") ovvero uno dei due simboli del sistema numerico binario,
classicamente chiamati zero (0) e uno (1);
La differenza di significato tra le due definizioni, può riassumersi con una frase come: "la ricezione degli ultimi 100 bit
(simboli binari) di messaggio ha aumentato la nostra informazione di 40 bit (quantità di informazione)" (la
quantità di informazione portata da un simbolo dipende dalla probabilità a priori che si ha di riceverlo).
Il bit come quantità di informazione [modifica]
In questo contesto, un bit rappresenta l'unità di misura della quantità d'informazione.
Questo concetto di bit è stato introdotto dalla teoria dell'informazione di Claude Shannon nel 1948, ed è usato nel campo
della compressione dati e delle trasmissioni numeriche.
INFORMATICA - Prof.ssa GALASSO
Intuitivamente, equivale alla scelta tra due valori (sì/no, vero/falso, acceso/spento), quando questi hanno la stessa
probabilità di essere scelti. In generale, per eventi non necessariamente equiprobabili, la quantità
d'informazione di un evento rappresenta la "sorpresa" nel constatare il verificarsi di tale evento; per esempio, se
un evento è certo, il suo verificarsi non sorprende nessuno, quindi il suo contenuto informativo è nullo; se
invece un evento è raro, il suo verificarsi è sorprendente, quindi il suo contenuto informativo è alto.
Matematicamente, la quantità d'informazione in bit di un evento è l'opposto del logaritmo in base due della probabilità di
tale evento. La scelta del numero 2 come base del logaritmo è particolarmente significativa nel caso elementare
di scelta tra due alternative (informazione di un bit), ma è possibile usare anche e (numero di Nepero), usando
dunque il logaritmo naturale; in tal caso l'unità di misura dell'informazione si dice "Nat".
Nel caso di due eventi equiprobabili, ognuno ha probabilità 0,5, e quindi la loro quantità di informazione è -log2(0,5) = 1
bit. Se la probabilità di un evento è zero, cioè l'evento è praticamente impossibile, la sua quantità di
informazione è infinita. Se la probabilità di un evento è uno, cioè l'evento è praticamente certo, la sua quantità
di informazione è -log2(1) = 0 bit. Se ci sono due possibili eventi, uno con probabilità 25% e l'altro con
probabilità 75%, il verificarsi del primo evento convoglia l'informazione di -log2(0,25) = 2 bit, mentre il verificarsi
del secondo evento convoglia l'informazione di -log2(0,75) =~ 0,415 bit.
Il contenuto informativo (o entropia) di un generatore di eventi (detto "sorgente") è la media statistica dei contenuti
informativi di ogni possibile valore, ovvero la somma delle informazioni pesate per la probabilità del
corrispondente valore.
Il bit come numero binario
In questo contesto il bit rappresenta l'unità di definizione di uno stato logico. Definito anche unità elementare
dell'informazione trattata da un elaboratore. La rappresentazione logica del bit è rappresentata dai soli valori {0,
1}. Ai fini della programmazione è comune raggruppare sequenze di bit in entità più vaste che possono
assumere valori in intervalli assai più ampi di quello consentito da un singolo bit. Questi raggruppamenti
contengono generalmente un numero di stringhe binarie pari ad una potenza binaria, pari cioè a 2n; il più noto è
il byte (chiamato anche ottetto), corrispondente ad 8 bit, che costituisce l'unità di misura più utilizzata in campo
informatico.
Un byte, il cui nome deriva dalla parola inglese "bite" (boccone)[1], è una sequenza di bit, il cui numero dipende
dall'implementazione fisica della macchina sottostante. Per convenzione negli ultimi anni lo si intende formato
da 8 bit, ed è pertanto in grado di assumere 28 = 256 possibili valori. Gli informatici di lingua francese utilizzano
il più preciso termine octet (ovvero ottetto): distinzione utile soprattutto quando erano ancora diffusi computer
con byte di dimensione diversa.
I valori dei multipli del Byte rispetto ad esso
Bit (b): 1 bit (=1/8 B)
Byte (B): 8 bit
Kilobyte (KB): 1024 B
Megabyte (MB): 1024 KB, 1048576 B
Gigabyte (GB): 1024 MB, 1048576 KB, 1073741824 B
Terabyte (TB): 1024 GB, 1048576 MB, 1073741824 KB, 1099511627776 B
Petabyte (PB): 1024 TB, 1048576 GB, 1073741824 MB, 1099511627776 KB, 1125899906842624 B
Il sistema numerico binario è un sistema numerico posizionale in base 2, cioè che utilizza 2 simboli, tipicamente 0 e 1,
invece dei 10 del sistema numerico decimale tradizionale. Di conseguenza, la cifra in posizione n (da destra) si
considera moltiplicata per 2(n − 1) anziché per 10(n − 1) come avviene nella numerazione decimale. Il sistema
numerico binario è usato in informatica per la rappresentazione interna dei numeri, grazie alla semplicità di
realizzare fisicamente un elemento con due stati anziché un numero di stati superiore, ma anche per la
corrispondenza con i valori logici di vero e falso.
Il sistema numerico esadecimale (spesso abbreviato come esa o hex) è un sistema numerico posizionale in base 16,
cioè che utilizza 16 simboli invece dei 10 del sistema numerico decimale tradizionale. Per l'esadecimale si
usano in genere simboli da 0 a 9 e poi le lettere da A a F, per un totale di 16 simboli.
ASCII è l'acronimo di American Standard Code for Information Interchange (ovvero Codice Standard Americano per lo
Scambio di Informazioni), pronunciato in inglese askey /ˈæski/, mentre in italiano è comunemente pronunciato
asci /ˈaʃʃi/.
È un sistema di codifica dei caratteri a 7 bit[1] comunemente utilizzato nei calcolatori.
PROGRAMMI ED ISTRUZIONI
Nell'informatica, un programma per calcolatore, o semplicemente programma, è la descrizione di un algoritmo in un
linguaggio adatto a essere eseguito da un computer o da una macchina virtuale. È una sequenza logicamente
ordinata di operazioni o comandi di istruzioni, un insieme di istruzioni che produce soluzioni per una data classe
di problemi.
Un programma scritto in linguaggio macchina, e direttamente eseguibile da un computer (normalmente inteso come
unione di hardware e sistema operativo), è detto anche programma eseguibile o programma binario. Un
programma scritto in linguaggio assembly o in un linguaggio di programmazione ad alto livello, per contro, può
essere eseguito solo utilizzando un compilatore o un interprete e viene detto programma sorgente.
In informatica, una funzione (detta anche subroutine, routine, procedura o sottoprogramma) è un costrutto che permette
di raggruppare una sequenza di istruzioni che fanno parte di un programma. Una funzione può essere
"chiamata" ("richiamata", "invocata", "attivata") in diversi punti del programma di cui fa parte come se fosse una
singola istruzione.
Una funzione dovrebbe eseguire una determinata operazione o risolvere un determinato problema, e contribuire alla
fattorizzazione del software. Ad esempio, una subroutine progettata per disporre in ordine crescente un insieme
di numeri interi può essere richiamata in tutti i contesti in cui questa operazione sia utile o necessaria, e
supplisce alla mancanza di una vera e propria "istruzione" dedicata allo scopo, consentendo al contempo di
descrivere il corrispondente algoritmo di ordinamento in un unico punto del programma.
Le subroutine sono spesso raccolte in librerie.
Nei diversi linguaggi di programmazione, le funzioni vengono realizzate in modi e con terminologie parzialmente diverse.
▪ il termine subroutine è stato usato fino dagli albori della programmazione per riferirsi a sezioni di codice
assembly o in linguaggio macchina (e viene usato per estensione in altri contesti ad esempio nelle prime
versioni del Basic);
▪ i termini procedura e funzione vengono generalmente usati nel contesto dei linguaggi di programmazione ad
alto livello; laddove non siano considerati sinonimi per funzione si intende un sottoprogramma il cui scopo
principale sia quello di produrre un valore a partire da determinati dati di ingresso (cosa che stabilisce
un'analogia con l'omonimo concetto della matematica), mentre una procedura è un sottoprogramma che non
"produce" alcun particolare valore. Alcuni linguaggi (per esempio il C) adottano come modello "standard" quello
della funzione, e considerano le procedure come caso particolare di funzione che ritorna un valore
appartenente all'insieme vuoto.
▪ il termine sottoprogramma è anch'esso tipico dei linguaggi di programmazione ad alto livello, ed è talvolta usato
come termine generale per riferirsi sia a procedure che a funzioni nel senso descritto sopra.
▪ Nella programmazione orientata agli oggetti, il ruolo della funzione è assunto dal metodo.
In tutti i paradigmi di programmazione imperativa, le strutture di controllo sono costrutti sintattici di un linguaggio di
programmazione la cui semantica afferisce al controllo del flusso di esecuzione di un programma, ovvero che
servono a specificare se, quando, in quale ordine e quante volte devono essere eseguite le istruzioni che lo
compongono.
Alternativa
Le strutture di controllo "alternative" consentono di specificare che una data istruzione o un dato blocco di istruzioni
devono essere eseguiti "(solo) se" vale una certa condizione.
Alternativa if-then e if-then-else [modifica]
L'alternativa if-then (se-allora) è la più semplice forma di alternativa. Il suo significato può essere parafrasato con la frase
"se vale la condizione C, esegui l'istruzione (blocco) I". La maggior parte dei linguaggi di programmazione
ammette anche (come variante) la forma più articolata if-then-else (se-allora-altrimenti), che si può parafrasare
come: "se vale la condizione C esegui l'istruzione (blocco) I1; altrimenti esegui l'istruzione (blocco) I2".
Iterazione
Le strutture di controllo "iterative" consentono di specificare che una data istruzione o un dato blocco di istruzioni devono
essere eseguiti ripetutamente. Esse vengono anche dette cicli. Ogni struttura di controllo di questo tipo deve
consentire di specificare sotto quali condizioni l'iterazione (ripetizione) di tali istruzioni debba terminare, ovvero
la condizione di terminazione del ciclo oppure, equivalentemente, la condizione di permanenza nel ciclo. Di
seguito si esaminano le strutture di controllo più note di questa categoria.
Nella programmazione dei computer, l'iterazione, chiamata anche ciclo o con il termine inglese loop, è una struttura di
controllo che ordina all'elaboratore di eseguire una sequenza di istruzioni ripetutamente, solitamente fino al
verificarsi di particolari condizioni.
INFORMATICA - Prof.ssa GALASSO
Esistono varie forme di iterazione; le più conosciute sono il MENTRE (in inglese: while..do), il RIPETI (in inglese:
repeat..until o do..while), ed il PER (comunemente detto Ciclo for).
Il "ciclo infinito", o "loop infinito", è spesso dovuto ad un errore di programmazione, mentre alcune tecniche di
programmazione soprattutto con microcontrollori è utilizzato per iterare infinitamente all'interno del programma.
Editor è il termine inglese utilizzato per indicare i programmi di composizione di testi. Dunque una traduzione non
letterale in italiano potrebbe essere compositore.
Un semplice editor è generalmente incluso in ogni sistema operativo.
Scopo di un editor è facilitare la scrittura di un testo.
Poiché la scrittura di un testo è pratica comune a parecchie attività, esistono editor di ogni sorta: dai semplici editor di
testo (come ad esempio il Notepad di Microsoft) che consentono di scrivere testo puro, ovvero senza
formattazione alcuna, ai più complessi programmi di videoscrittura (come ad esempio Word sempre di
Microsoft) che, oltre alla battitura del testo, consentono di formattare, inserire immagini, produrre documenti,
pagine web, opuscoli, articoli, eccetera e vengono propriamente chiamati elaboratori di testo.
Vi sono poi molte altre situazioni in cui è necessario scrivere e per le quali i due strumenti (editor di testo e programma di
videoscrittura) risultano inadeguati. Ad esempio nella programmazione alcuni editor suggeriscono la sintassi e
aiutano nel debug
La catalogazione consiste nella classificazione, registrazione e descrizione di un bene culturale; lʼinsieme delle schede
di catalogazione costituiscono un catalogo.
Per catalogare vengono utilizzati degli standard specifici per ogni tipologia di bene catalogato: patrimonio archeologico,
architettonico, storico artistico, librario, etnoantropologico.
Il catalogo è un elenco ordinato e sistematico di più oggetti della stessa specie, come per esempio libri, opere d'arte,
prodotti artigiani o industriali, con le indicazioni atte a individuarli e talora, come nei cataloghi di vendita, con il
prezzo segnato.
La Classificazione decimale Dewey (anche DDC, acronimo dalla dizione inglese Dewey Decimal Classification o
Dewey Decimal System) è uno schema di classificazione, inizialmente rivolto all'ambiente bibliotecario,
sviluppato da Melvil Dewey (1851-1931) nel 1876, da allora più volte modificato ed espanso in occasione delle
ventidue revisioni principali di cui è stato oggetto fino al 2004. Nelle biblioteche pubbliche si utilizza
frequentemente un'edizione ridotta, dal momento che non servono notazioni molto specifiche.
Punto di rilievo del sistema è la scelta di un impiego intelligente delle cifre decimali per le sue categorie. Ciò permette di
mantenere puramente numerica la classificazione, facilitando la possibilità di ordinare e gerarchizzare in più
modi le informazioni. Vi è anche la possibilità di realizzare una classificazione su più fronti diversi (faceted
classification), combinando elementi da parti diverse della struttura e costruendo un numero che rappresenta
nell'insieme un contenuto oggettivo (spesso a sua volta ottenuto combinando due argomenti collegando i
numeri degli elementi geografici e temporali) e gli elementi formali di un oggetto. Questo tipo di classificazione è
più efficiente rispetto all'uso di liste contenenti ogni singola classificazione e il relativo significato.
Il tipo di classificazione, ad esclusione delle opere generali e della narrativa, è basato principalmente sull'argomento, con
estensioni per le correlazioni, luoghi, tempo, tipo di opera, dando così luogo a classificazioni mai più brevi di tre
cifre, ma di lunghezza indeterminata, con un punto che precede la quarta cifra, quando questa è presente. Per
esempio 330 indica l'economia + 94 per l'Europa = 330.94 Economia europea; 973 per gli Stati Uniti + 005 che
contraddistingue i periodici = 973.005, pubblicazioni periodiche in genere relative agli Stati Uniti; le
classificazioni devono essere lette e ordinate come numeri: 050, 220, 330.973, 331 e così via. Il sistema utilizza
dieci classi fondamentali, che a loro volta hanno ulteriori suddivisioni. Spesso si pensa erroneamente che tutti i
libri possano essere classificati con il sistema Dewey tranne quelli di narrativa, mentre in realtà l'utilizzo di una
sezione separata in molte biblioteche risponde ad esigenze di altro tipo. Se le regole di classificazione Dewey
venissero seguite, la narrativa italiana, ad esempio, dovrebbe essere classificata come 853 (quella
contemporanea con 853.914): la maggior parte delle biblioteche creano una sezione separata per la narrativa,
dal momento che la presenza e la richiesta di libri al riguardo è numericamente molto elevata.
La classificazione decimale Dewey è molto utilizzata nel sistema bibliotecario pubblico ed anche nelle librerie scolastiche
in tutto il mondo, specialmente negli Stati Uniti, ma anche in Italia, dove è stata adottata dall'Istituto Centrale per
il Catalogo Unico delle Biblioteche Italiane e per le Informazioni Bibliografiche per la classificazione
centralizzata SBN. La classificazione ha sicuramente degli squilibri di ordine geografico che sono in qualche
modo dovute alle origini del XIX secolo: Il solo Nord Africa, per esempio è classificato nell'intervallo 961-965,
mentre il resto del continente ha solo 966-969. La copertura è largamente sbilanciata verso la religione cristiana
a scapito delle altre religioni, dal momento che la prima copre le posizioni numeriche 200-289, mentre alle
rimanenti rimane l'intervallo 290-299. Versioni recenti permettono ad un'altra religione di occupare le posizioni
200-289, relegando le pubblicazioni sulla religione cristiana all'ultimo intervallo della classe 200: 290-299,
questa facoltà viene utilizzata prevalentemente per le biblioteche allestite da gruppi di religione non cristiana,
spesso ad esempio nelle biblioteche ebraiche.
I numeri utilizzati per il sistema di classificazione decimale Dewey hanno costituito la base per il sistema di
Classificazione Decimale Universale, sviluppato da Paul Otlet e Henri La Fontaine, senz'altro più completo ma
anche molto più difficile da utilizzare e che prevede, tra l'altro, la combinazione del sistema di base Dewey con
della punteggiatura predefinita (virgole, punti, parentesi etc.). Nonostante le frequenti revisioni, il sistema
Dewey viene classificato teoricamente inferiore rispetto ad altri sistemi più moderni che fanno uso dei caratteri
alfanumerici, ma la diffusione e l'espressività del formato decimale ne fanno uno strumento molto utilizzato,
anche rispetto a sistemi alternativi, anche sviluppati in periodi successivi, come ad esempio la Classificazione
della Library of Congress in uso presso la Biblioteca del Congresso negli Stati Uniti d'America.
Il Codice ISBN (International Standard Book Number) è un codice numerico (salvo l'ultima cifra che può anche
essere una lettera X) usato internazionalmente per la classificazione dei libri. È definito da uno standard ISO,
derivato dallo standard SBN inglese del 1967.
Ogni codice ISBN identifica un'edizione di un libro (escluse le semplici ristampe).
Il codice ISBN è formato da una stringa di 13 cifre, divise in 5 settori:
1. Gruppo EAN - sono tre cifre introdotte nell'ISBN-13 per ampliarne i numeri usufruibili
2. Gruppo - identificativo del paese, dell'area o del linguaggio, composto da 1 a 5 cifre
3. Editore - identificativo della casa editrice, composto da 1 a 7 cifre
4. Titolo - identificativo del libro, composto da 1 a 6 cifre
5. Controllo - una cifra da 0 a 10 (quest'ultimo indicato però dalla cifra romana "X") utilizzata per verificare che il
codice non sia stato letto o trascritto erroneamente (cosa che può accadere specialmente quando si usano
strumenti automatici come i lettori di codici a barre).
La lunghezza delle prime due stringhe è inversamente proporzionale al numero di pubblicazioni, rispettivamente nel
paese e dell'editore, mentre la terza è tanto più grande quanti più libri si pubblicano. Ovviamente, la somma
delle prime tre parti deve essere di 9 cifre. Ad esempio, il primo campo è 0 oppure 1 per la lingua inglese, 3 per
gli editori tedeschi, 982 per l'area Sud Pacifico; il prefisso corrispondente ai libri in lingua italiana è 88.
L'ISSN (International Standard Serial Number) è il numero internazionale che identifica pubblicazioni in serie come
quotidiani e periodici stampati o elettronici, e permette di standardizzare le classificazioni, ad esempio nelle
biblioteche. L'ISSN si differenzia dall'ISBN dei libri ed è attribuito da specifici organismi.
L'ISSN è regolato dal testo ISO 3297 (ICS n° 01.140.20) del 1975.
Un ipertesto è un insieme di documenti messi in relazione tra loro tramite parole chiave. Può essere visto come una
rete; i documenti ne costituiscono i nodi. La caratteristica principale di un ipertesto è che la lettura può svolgersi
in maniera non lineare: qualsiasi documento della rete può essere "il successivo", in base alla scelta del lettore
di quale parola chiave usare come collegamento.
È possibile, infatti, leggere all'interno di un ipertesto tutti i documenti collegati dalla medesima parola chiave. La
scelta di una parola chiave diversa porta all'apertura di un documento diverso: all'interno dell'ipertesto sono
possibili praticamente infiniti percorsi di lettura.
L'ipertesto informatico è la versione di ipertesto più usata e più diffusa oggi. Il computer ha automatizzato il passaggio da
un documento all'altro. I documenti sono leggibili a video grazie a un'interfaccia elettronica, le parole chiave in
esso contenute appaiono marcate (sottolineate oppure evidenziate, ecc) in maniera da renderle riconoscibili.
L'azione del clic con il mouse su una parola chiave ha come conseguenza l'apertura di un altro documento.
Quindi le parole chiave funzionano come collegamenti ipertestuali (hyperlink in inglese).
Il memex è un calcolatore analogico dotato di un sistema di archiviazione, ideato dallo scienziato e tecnologo
statunitense Vannevar Bush negli anni trenta e mai realizzato, da molti considerato il precursore del personal
computer e degli ipertesti.
As We May Think (lett. "Come potremmo pensare"
Il progetto Xanadu (in onore del poema Kubla Khan di Samuel Taylor Coleridge) è stato il primo progetto di ipertesto.
Fondato nel 1960 da Ted Nelson, il progetto, secondo il suo sito web, è in contrasto con la concezione di
ipertesto cartaceo: "I software più utilizzati di oggi simulano i supporti cartacei. Il World Wide Web (un'altra
imitazione cartacea) banalizza il nostro modello di ipertesto originale con collegamenti monodirezionali in
continua interruzione e senza possibilità di gestione della versione o dei contenuti." La Wired lo ha definito la
"più lunga storia di vaporware nella storia dell'industria informatica". Il primo tentativo di implementazione è
iniziato nel 1960, ma il software completo fu rilasciato soltanto nel 1998.
Il World Wide Web (nome di origine inglese), in sigla WWW, più spesso abbreviato in Web,[3] anche conosciuto come
Grande Ragnatela Mondiale,[4] è un servizio di Internet[5] consistente in un insieme vastissimo di contenuti
multimediali e di servizi accessibili a tutti o ad una parte selezionata degli utenti di Internet.
Caratteristica principale del Web è che i suoi contenuti e i suoi servizi possono essere resi disponibili dagli stessi utenti di
Internet.[6] Per quanto riguarda i contenuti quindi, essendo Internet una rete di computer ad accesso pubblico, il
Web possiede la straordinaria peculiarità di offrire a chiunque la possibilità di diventare editore e, con una spesa
estremamente esigua, di raggiungere un pubblico vastissimo distribuito in tutto il mondo.[7]
DESCRIZIONE APPUNTO
Riassunto del testo di Informatica di base. Nello specifico gli argomenti trattati sono i seguenti: computer, architettura di von Neumann, hardware, software, programmazione, la macchina di Turing, tipi di computer, mainframe, minicomputer, microcomputer.
I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher flaviael di informazioni apprese con la frequenza delle lezioni di Informatica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università La Sapienza - Uniroma1 o del prof Scienze matematiche Prof.
Acquista con carta o conto PayPal
Scarica il file tutte le volte che vuoi
Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato