Estratto del documento

Fondamenti di informatica per le scienze umanistiche

15 febbraio 2012

sito ufficiale corso

Fasi diverse del corso

Il corso è diviso in due parti, indipendenti. È un corso da 6 crediti da integrare. Include due moduli:

  • Gestione dell’informazione: basi di dati
  • Pubblicazione di contenuti sul web: un’attività da informatici?

Primo modulo

In questo modulo, si ordinano le informazioni e le si archivia. Si specifica teoria: basi di dati relazionali. Due operazioni fondamentali: da un lato, capire cosa sono e come le informazioni che gestiamo vanno concettualizzate e rese comprensibili alla macchina e funzionali al progetto.

Secondo modulo

Capire come i dati possano essere trasformati e resi funzionali per l’applicazione web. Include un elemento di programmazione per comprendere come le idee stanno dietro ai programmi. Si utilizza un linguaggio che viene letto da tutti i browser. Programmazione in generale e qualcosa di più specifico.

Informatica e PC

L'informatica ha un rapporto con il PC, ma non è basilare. La prova scritta è in itinere:

  • Solo a termine corso
  • Domande a risposta chiusa e esercizi
  • Verbalizzazione avviene iscrivendosi al successivo appello

Prova scritta

Puoi fare l’esame attraverso SIFA più generale, o attraverso il sito del corso che è più specifico su cosa hai fatto durante il corso.

L'uso dell'informatica

L’uso dell’informatica ha provenienze diverse, non solo da informatici. Una delle più recenti, storia breve. La cultura dell’informatica si fonde con altri metodi e altre materie (biotecnologia informatica, fisici).

Definizione di informatica

L’informatica è la disciplina che si occupa della raccolta e del trattamento automatico delle informazioni - e più in particolare della sua rappresentazione, conservazione e trasmissione - o, più specificatamente, dell’elaboratore di dati per mezzo di calcolatori elettronici. L’informatica è una disciplina al tempo stesso teorica e tecnica. È una disciplina inter-disciplinare.

Calcolatori e informatica

Senza l’informatica lo strumento non funziona, e l’informatica non sarebbe diventata applicabile senza i calcolatori. Il calcolatore è la realizzazione concreta di un istituto ontologico nuovo, come ad esempio i software, che sono immateriali ed hanno un’esistenza questionabile.

Teoria e pratica

L’informatica è teoria dell’informazione tradotta in oggetto del consumo e in metafora del mondo reale, perché ciò che è calcolo in teoria diviene mondo in pratica. Oggetto virtuale: non riscontrabile nella realtà.

Informatica e comunicazione

  • Ma per limitarsi ad esempi non troppo remoti si pensi a Pascal, al telaio Jacquard, o alle macchine di Babbage;
  • L’idea forse più importante per la nascita dell’informatica si deve però agli studi teorici sul problema della decidibilità;
  • In particolare alla macchina di Alan Turing (meccanismo di una teoria che consente di formalizzare il calcolo con macchine teoriche, cioè stupide);

Calcolatori moderni

Un ulteriore passo verso i calcolatori moderni si deve alla macchina di John Von Neumann (1945).

Evoluzione delle tecnologie

La storia iniziale dell’informatica è fatta anche di scoperte tecnologiche:

  • 1936: Konrad Zuse costruì in casa lo Z1 usando i relè;
  • 1942: macchina per il computo elettronico (Satanasso Berry-Computer);
  • 1943: (segreto fino al 1970) Colossus;
  • 1944: MARK1 realizzata nell’ambito progetto Manhattan;
  • 1946: ENIAC (Electronic Numerical Integrator and Computer) ritenuto il primo calcolatore elettronico programmabile;
  • 1968: nasce Intel;
  • 1969: commissionata ARPANET;
  • 1970: Ken Thompson e Dennis Ritchie, inventori di UNIX, scrivono il linguaggio B, diretto antenato del C;
  • 1970: Ted Codd presenta la teoria delle basi di dati relazionali;
  • 1971: Intel 4004, il primo chip;
  • 1971: viene spedita via rete la prima email;
  • 1975: ALTAIR 8800, inizia l’era del personal computer;
  • 1976: Steve Jobs e Steve Wozniak costruiscono APPLE I;
  • 1977: Bill Gates e Paul Allen fondano Microsoft;
  • 1983: viene completato TCP/IP;
  • 1984: Apple presenta Macintosh e la prima interfaccia grafica per l’utente;
  • 1985: Windows 1.0;
  • 1985: Richard M. Stallman pubblica il manifesto GNU, nasce l’idea del free software;
  • 1989: Tim Berners-Lee propone il progetto World Wide Web (WWW) al CERN;
  • 1991: Linus Benedict Torvalds crea LINUX;
  • 1994: Netscape crea il primo browser;
  • 1995: nasce Java;

Importanza dell'informazione

L'informazione è un elemento centrale di tutto il sapere umano. L’informatica si occupa anche di comunicazione e entra in contatto con la rappresentazione e la gestione dei contenuti in molte forme. È legata a materie storiche, teoriche, sociologiche e politiche. Negli ultimi anni, l’informatica ha prodotto fenomeni di portata globale (internet ad esempio) che hanno investito tutti i campi di attività umana, lavorativa e di studio.

Digital divide

È un fenomeno sociale e culturale caratterizzato dal divario esistente fra chi ha accesso alle tecnologie dell’informazione e della comunicazione e chi ne è escluso. Il divario descritto dal digital divide è dovuto al fatto che le condizioni di competizione e accesso ai beni nelle società tecnologicamente avanzate è condizionato dalla possibilità di accedere alle tecnologie.

Due approcci alla conoscenza informatica

  • Conoscenza dei metodi e degli strumenti informatici per come essi si applicano e agiscono nel contesto delle discipline umanistiche.
  • Conoscenza dell’informatica in sé, come problema culturale e teorico, alla luce però degli strumenti interpretativi e conoscitivi propri della tradizione delle discipline umanistiche.

Informatica umanistica

L’informatica umanistica studia gli strumenti dell’informatica nella loro applicazione ai contenuti considerati tradizionalmente umanistici. L’obbiettivo dell’informatizzazione degli umanisti è in primo luogo un problema culturale e scientifico. Ampia conoscenza del Web, dai blog al social networking, devono possedere gli strumenti informatici necessari a comprendere come si possono organizzare i contenuti e diffonderli. Coinvolgono gli strumenti linguistici e interpretativi di molte discipline umanistiche. Approccio nuovo all’insegnamento con e-learning, formazione a distanza. Gestione della conoscenza o knowledge management.

Figure storiche dell'informatica

  • Alan Turing: padre informatica.
  • Dijkstra: inventore all’interno dell’informatica di algoritmi complicati.
  • Codd: inventore delle basi relazionali.
  • Minsky: inventore dell’intelligenza artificiale.
  • Knuth: famoso informatico.
  • Berners-Lee: co-inventore del WWW.

16 febbraio 2012

Informazione e codici

Concetto di informazione, legato necessità, con la capacità di trasmettere un contenuto. Cos’è l’informazione e come si rappresenta. Ci sono vari tipi di segnali, vocali, elettronici, magnetici...

Il trasmettitore è un mezzo fisico, che serve per far transitare il messaggio. Ad esempio in un dialogo è l’aria, ma può essere il trasmettitore elettronico come il cellulare. Il segnale fisico viene interpretato come messaggio.

Trasmissione dell'informazione

Per essere trasmessa e trattata, l’informazione necessita di essere codificata, ovvero espressa attraverso un sistema simbolico e trasformata in messaggio. Come si trasforma il messaggio che voglio trasmettere in parola, e il ricevente trasforma il messaggio codificato in informazione.

Processo di codifica e decodifica

  • Codifica: Trasformazione del messaggio in un sistema simbolico adeguato alla comprensione dell’utente.
  • Decodifica: Trasforma il sistema simbolico in messaggio.

Un sistema simbolico è un insieme di simboli, come qualcosa che si scrive o si dice. La stessa informazione può essere codificata in più modi, come la stessa codifica può rappresentare informazioni diverse. Uno stesso messaggio può essere interpretato in più modi, o scritto in più modi.

Importanza della codifica

La stessa informazione può essere codificata più volte. Quantità di mezzi fisici utilizzabili diversi. La codifica è un passaggio importante. Ogni codifica può essere fatta in maniera diversa. La codifica è funzionale al mezzo che vogliamo utilizzare.

Ad esempio, si può prima trasformare l’informazione in messaggio e successivamente il messaggio in segnale fisico. Esempio: Aritmetica: decodifica delle operazioni umane, più comodo per rappresentare la realtà. Il concetto della somma è mettere insieme, così come la trasformazione è il risultato.

È possibile codificare delle operazioni su questi oggetti, le trasformazioni che possiamo operare su queste informazioni. Un sistema simbolico molto versatile ci può semplificare la vita e può essere manipolabile. Si può trasmettere l’informazione ma anche manipolarla.

La codifica non è utile solo alla trasmissione dell’informazione ma anche alla sua manipolazione. Per esempio, è possibile fare somme senza conoscere l’addizione, purché codifichiamo tale operazione in modo adeguato e manipoliamo l’informazione.

Esempio di codifica

Esempio: 2 + 4 = 6. 2 e 4 → codifica dei dati: mettere il numero corrispondente di sassi in una scatola. + → codifica dell’operazione.

Messaggi e codici

Un messaggio è una successione ordinata di simboli. E l’ordine di esso è importante. Un codice è fatto da:

  • Un insieme di simboli (detto anche alfabeto).
  • Un insieme di regole con cui combinare i simboli in messaggi validi.

Simboli: è come li usiamo. Se il codice è costruito, e per comunicare con qualcun altro basta dare l’altro codice al ricevente.

Esempio di codice: GINO

Esempio di codice GINO:

  • Alfabeto: G, I, N, O.
  • Regole: qualsiasi successione di 3 simboli è valida (ma ogni messaggio deve essere composto da 3 simboli).

Regola di un codice = quali combinazioni di quei simboli sono validi e chi no. Il codice dev’essere costruito per i significati che io devo trasmettere.

GINO può creare fino a 64 messaggi diversi. Perché per trasmettere le informazioni servono 3 spazi quindi 4x4= 16x4= 64. La quantità di informazione dipende dal numero di simboli dell’alfabeto e dalla lunghezza dei messaggi.

  • Più simboli, lunghezza inferiore.
  • Meno simboli, lunghezza maggiore.

Se n è il numero dei nostri simboli, bisogna moltiplicarlo per se stesso ad ogni spazio che posso utilizzare per il messaggio. I = nl dove l è il numero degli spazi.

L’informazione in qualche modo è quantificabile, con i codici. Per informazione intendiamo ciò che è al di là di quello che vogliamo osservare. Trascrizione simbolica dell’osservazione. Trascrizione = dato. L’informazione è un dato che cambia ciò che sappiamo, modifica. Qualcosa che aumenta il nostro patrimonio conoscitivo.

Shannon e l'informazione

Intendendo per informazione ciò che produce una variazione nella nostra conoscenza della realtà, l’idea di fondo di Shannon (1948) è che quando è massima la probabilità che ci sia nota la situazione che osserviamo allora è nulla la quantità di informazione prodotta dall’osservazione. Al contrario, se è bassa la probabilità che sia nota la situazione che osserviamo allora è elevata la quantità di informazione prodotta dall’osservazione.

Quindi bisogna stabilire un’unità di misura, sulla base in cui misuro l’importanza dell’informazione. Il discrimine minimo è o succederà o no. Sì o no = BIT, l’unità minima che misura l’informazione, quantità minima di informazione, chiede uno spazio solo, con due simboli (0/1).

La quantità di informazione di ogni osservazione è inversamente proporzionale alla probabilità che si verifichi il fatto previsto. La minima quantità di informazione è quella che si ottiene selezionando una configurazione da un insieme che ne contiene due equiprobabili.

Si può costruire un intero sistema simbolico con un interruttore della luce. Si può tradurre l’informazione interpretabile da una macchina.

22 febbraio 2012

Il BIT

Il BIT (Binary digIT), essendo un’unità di misura binaria, è esprimibile facilmente utilizzando due simboli (0, 1). L’adozione di due soli simboli permette di mettere facilmente in corrispondenza ogni bit di informazione con uno stato fisico, come ad esempio la presenza o assenza di corrente in un circuito elettrico. Per tradurre quindi una qualsiasi informazione in impulsi elettrici è sufficiente dunque tradurla in un insieme di BIT.

Vantaggio: uso una serie di simboli molto piccoli, l’alfabeto più piccolo possibile. Non ho bisogno di un mezzo fisico molto complesso, basta un circuito elettrico quando passa o no la corrente. L’uso del codice morse è diverso dall’uso del codice binario. Il codice morse è la traduzione del messaggio in parole, primo livello di codifica (codice alfabeto) e poi nel linguaggio morse.

Per poter dire una lettera dell’alfabeto ho bisogno di più simboli, e questo succede anche nel codice binario. La dimensione dei file è strettamente connessa con la quantità di informazione che può contenere. In informatica si adottano dunque diversi codici binari:

  • Alfabeto: 0,1
  • Regole: le regole di composizione dei messaggi cambiano a seconda del tipo di informazione da codificare
  • Tipologie di informazione sottoposte a codifica → Testo (dati non numerici), numeri, immagini, audio, video.

Un certo istituto decide ai codici di bit ai simboli e i produttori di software ne seguono le direttive, ovviamente non tutti i file possono essere letti, se la traduzione non è stata fatta a monte. Il programma che fa la codifica conosce il codice, e per decodificare serve lo stesso codice.

Il programma per aprire un file prima deve capire quanto è lungo il bit, e esegue il file.

Esempio di traduzione in codice binario

Supponiamo di dover tradurre in un opportuno codice binario che chiameremo TEMPO le condizioni atmosferiche della settimana.

  • Passo 1: quali informazioni dobbiamo codificare? Assumiamo che gli stati meteorologici possibili siano: Soleggiato, Nuvoloso, Piovoso, Nevosso, Nebbioso, Variabile.
  • Passo 2: di quanti BIT abbiamo bisogno per esprimere la condizione di uno specifico giorno? Gli stati atmosferici nel nostro caso sono 6. I simboli a disposizione sono 2 (0 o 1).

Quindi: I = Nl ovvero 6 = 2l ovvero L = log262

Un modo semplice per risolvere l’equazione è procedere per tentativi. In questo caso è facile vedere che 22 = 4 è troppo poco. Dobbiamo quindi ricorrere a 3 bit.

Passo 3: associamo le informazioni da codificare e arbitrarie combinazioni di 3 bit. Si noti che la logica di associazione fra stringhe di BIT e condizioni meteorologiche è del tutto arbitraria e convenzionale.

Problema: definire un codice binario per rappresentare l'informazione testuale

Quantità di informazione da rappresentare (considerando l’alfabeto inglese): 26 lettere + le 26 lettere maiuscole + 10 cifre decimali + 30 caratteri circa di uso comune (., *, %, ecc) + alcuni caratteri di controllo (spazi, interruzione di riga) ovvero 120 caratteri circa.

  • Numero di BIT necessari: bastano 7 bit poiché 27 = 128 > 120

Su questa base è stato creato il codice ASCII, basato appunto sull’uso di 7 bit per ogni carattere.

  • Esempi: A diventa 1000001...

Ora esiste anche l’ASCII esteso, con 8 bit aggiungendo gli accenti. UNICODE invece serve per le lingue con alfabeti diversi come il russo.

Codifica numerica

Codificato l’alfabeto, il problema passa alle cifre decimali. Per i numeri intesi come quantità ho bisogno di un'altra codifica, ma non che codifichi solamente ma che rispetti la quantità dello stesso, perché il problema per le operazioni si presenta.

La numerazione araba è una codifica, e segue una successione ordinata di simboli, che si estende verso sinistra, quindi ogni cifra assume un significato diverso in base alla posizione che assume nel messaggio. La numerazione araba ha una regola posizionale, perché la sua posizione indica blocchi di oggetti (decine, migliaia) il blocco può avere quantità più minime.

Un numero espresso tramite notazione posizionale si legge da destra a sinistra moltiplicando ogni cifra per una potenza crescente della base. Se i numeri naturali sono infiniti allora dovremmo creare un codice infinito. Quando si codificano dati numerici si traducono delle quantità in successioni ordinate di simboli.

Il codice più noto per la rappresentazione dei numeri è la numerazione araba in base 10.

  • Alfabeto: i 10 simboli 0, 1, 2, 3, 4, 5, 6, 7, 8, 9.
  • Regole: notazione posizionale.

In questa numerazione ogni cifra assume un significato diverso in base alla posizione che assume nel messaggio (decine, unità...).

Per scrivere 6 in base 2 dobbiamo dividerlo:

  1. 6 : 2 = 3. Me ne rimangono 0 quindi il primo numero che scrivo è 0.
  2. Ma 3 non posso scriverlo (gli unici simboli che posso scrivere sono 0 e 1), quindi divido ancora per 2; 3 : 2 = 1 con il resto di 1.
Anteprima
Vedrai una selezione di 9 pagine su 37
Fondamenti di Informatica per Le Scienze Umanistiche - Appunti Pag. 1 Fondamenti di Informatica per Le Scienze Umanistiche - Appunti Pag. 2
Anteprima di 9 pagg. su 37.
Scarica il documento per vederlo tutto.
Fondamenti di Informatica per Le Scienze Umanistiche - Appunti Pag. 6
Anteprima di 9 pagg. su 37.
Scarica il documento per vederlo tutto.
Fondamenti di Informatica per Le Scienze Umanistiche - Appunti Pag. 11
Anteprima di 9 pagg. su 37.
Scarica il documento per vederlo tutto.
Fondamenti di Informatica per Le Scienze Umanistiche - Appunti Pag. 16
Anteprima di 9 pagg. su 37.
Scarica il documento per vederlo tutto.
Fondamenti di Informatica per Le Scienze Umanistiche - Appunti Pag. 21
Anteprima di 9 pagg. su 37.
Scarica il documento per vederlo tutto.
Fondamenti di Informatica per Le Scienze Umanistiche - Appunti Pag. 26
Anteprima di 9 pagg. su 37.
Scarica il documento per vederlo tutto.
Fondamenti di Informatica per Le Scienze Umanistiche - Appunti Pag. 31
Anteprima di 9 pagg. su 37.
Scarica il documento per vederlo tutto.
Fondamenti di Informatica per Le Scienze Umanistiche - Appunti Pag. 36
1 su 37
D/illustrazione/soddisfatti o rimborsati
Acquista con carta o PayPal
Scarica i documenti tutte le volte che vuoi
Dettagli
SSD
Scienze matematiche e informatiche INF/01 Informatica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher elis.santoro di informazioni apprese con la frequenza delle lezioni di Fondamenti di informatica per scienze umanistiche e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Milano o del prof Ferrara Alfio.
Appunti correlati Invia appunti e guadagna

Domande e risposte

Hai bisogno di aiuto?
Chiedi alla community