Anteprima
Vedrai una selezione di 3 pagine su 6
Fondamenti di Informatica per Umanisti Pag. 1 Fondamenti di Informatica per Umanisti Pag. 2
Anteprima di 3 pagg. su 6.
Scarica il documento per vederlo tutto.
Fondamenti di Informatica per Umanisti Pag. 6
1 su 6
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

STRATEGIE DI RAPPRESENTAZIONE DIGITALE:

Alfabeti più complessi: combinatoria di simboli fenomeni continui nello spazio: quantizzazione fenomeni

continui nel tempo: campionamento.

Il computer è una macchina in grado di elaborare e gestire velocemente una grande quantità di

informazioni (in formato digitale) in modo automatico, senza l’intervento intelligente esterno. Lavora

partendo da un informazione in ingresso (INPUT), la elabora in base a una serie di regole (programma) e

restituisce l’informazione in uscita (OUTPUT). La CPU (Central Processing Unit) è la componente

demandata all’elaborazione dei dati.

La macchina di Turing, ideata dal matematico inglese Alan Turing (1912 – 1954), è composta da un nastro

di lunghezza indefinita, suddivisa in cellette che contengono simboli (ad es.0,1), una testina, che si trova, in

ogni momento, in uno fra un insieme limitato di stati interni (e che si muove sul nastro), leggendo e, se del

caso, modificando il contenuto delle cellette, e un insieme di regole che determinano il comportamento

della testina, a partire dal suo stato e dal simbolo letto. Programmata adeguatamente, la macchina di

Turing è in grado di compiere operazioni varie, anche molto complesse; E’ in grado di calcolare il valore di

qualsiasi funzione, per la quale si dispone di procedure effettive di computazione. Essa manipola

informazioni in base a un programma, solo leggendo e scrivendo (0,1).

Il passo di avvicinamento successivo al computer è la macchina di Von Neumann, il quale modello influenzò

la realizzazione dell’ENIAC ( Electronic Numerical Integrator and Computer) e dell’ EDVAC (Electronic

Discrete Variable Automatic Computer); essa è basata su di una CPU (unità di elaborazione centrale), in

grado di eseguire sequenzialmente (uno dopo l’altro) le istruzioni di un programma e di inviare e ricevere

dati da e verso un deposito di memoria (RAM). La CPU elabora l’informazione utilizzando i registri (porzioni

di memoria di lavoro), simili a piccole porzioni di nastro della macchina di Turing. All’interno della CPU, la

ALU (unità aritmetico logica) si occupa dello svolgimento delle operazioni aritmetiche e logiche; il clock di

sistema “segna il tempo di lavoro” all’interno dell CPU.

Le componenti fisiche del computer vengono chiamate hardware, i programmi che il computer è in grado

di eseguire vengono chiamati software. 

La parola algoritmo deriva dal matematico Al Khuwarizmi (algorismo algoritmo). Quest’ultima è una

sequenza di operazioni che devono essere eseguite per compiere un lavoro preciso. Tali operazioni devono

garantire l’arresto dell’algoritmo dopo un numero finito di passi, devono essere ben descritte e specificate,

senza ambiguità, e devono poter essere effettivamente eseguite. Un algoritmo deve avere finitezza di

calcolo (definite le condizioni dell’arresto, dopo un numero finito di passi), finitezza di espressioni

(sequenza finita di istruzioni), effettività (deve poter essere effettivamente eseguibile), determinismo (a

ogni passo viene definita un’unica operazione da eseguire al passo successivo e al verificarsi di certe

condizioni). LE DIGITAL HUMANITIES

Nel corso degli ultimi 15 anni, il campo multiforme di studi, noto come Digital Humanities (DH) è divenuto

un fenomeno di primaria importanza, sia nel campo della ricerca e della didattica universitaria come,

soprattutto, nel dibattito culturale, talmente vasto da trovare difficile l’individuazione di un fondamento

epistemico unitario e condiviso, così come la condivisione di assunti metodologici, oggetti di ricerca,

protocolli e metodi di ricerca. Sin dalle sue origini, quando era chiamata Humanities Computing o

Informatica Umanistica (HC/IU), questo campo è stato caratterizzato da una forte rilevanza di temi

metodologici: le Digital Humanities sono più simili a una prospettiva metodologica comune che a un

investimento in una serie specifica di testi o persino di tecnologie. Nel 2004, a seguito della pubblicazione

del “Companion” (Blackwell), le DH vedono una forte espansione socio – culturale, di diffusione e di status,

superando parzialmente il paradigma (modello) metodologico, per dare spazio a visioni alternative,

pragmatiste o sociologiche dei fondamenti delle DH; la metafora “ Big Tent Digital Humanities” offre una

visione più ampia, diversificata e inclusiva di questo campo di studi e di chi si occupa dell’intersezione tra

digitale e scienze umane. La versione di DH, fondata su basi sociologiche, fa leva sulla nozione di

“community of practice”( produrre conoscenza organizzata e di qualità, in cui gli individui di una comunità

mirano a un apprendimento continuo, attraverso la consapevolezza delle proprie conoscenze e di quelle

degli altri) proposta da Ray Siemens; quella fondata su basi pragmatistiche e strumentalistiche di Ramsey

individua lo specifico delle DH nella costruzione di artefatti computazionali (making and coding), mentre

Patrick Svensson parla di “Big DH”, una piattaforma infrastrutturale e intellettuale per svolgere lavori

collocati tra le discipline umanistiche e il digitale, attraverso complessi collegamenti tra di loro.

MODELLIZZAZIONE: McCarthy ne dà due definizioni:

1 - è un processo euristico di costruzione e manipolazione dei modelli;

2 – Rappresentazione di un qualcosa per scopi di studio o progetto.

Tali definizioni seguono la distinzione analitica di Clifford Geertz tra un modello denotativo (grammatica di

una lingua) e un modello esemplare (piano architettonico). Per McCarthy, i modelli si realizzano, “per dirci

ciò che non conosciamo e per ciò che non abbiamo ancora”. Le tipologie di modello sono: modelli

materiali, modelli matematici e logici, simulazioni e modelli computazionali, modelli dei dati, modelli dei

processi, visualizzazione e rappresentazioni grafiche funzionali.

La nozione di modellizzazione è connessa a quella di formalizzazione (set di pratiche semiotiche [dei segni]

e rappresentazionali, che rendono un fenomeno accessibile e parzialmente e processabile con metodi

computazionali). Precisamente, per formalizzazione si intende: assiomatizzazione delle ontologie, network

analysis, codifica dei dati, computazionalizzazione (dati del modello + algoritmo). Nelle Digital Humanities

si hanno due fasi di modellazione: la prima incorre durante la creazione di un data set (collezione di dati), la

seconda durante l’analisi.

TEXT ENCODING INITIATIVE, XML, RAPPRESENTAZIONE

DIGITALE DEL TESTO. EDIZIONI SCIENTIFICHE DIGITALI E ARCHIVI

TESTUALI

Negli ultimi anni le iniziative di digitalizzazione sono aumentate, anche se l’aspetto qualitativo lascia a

desiderare, sia a livello di accessibilità (illimitata nello spazio e nel tempo) che di integrità. Un’edizione

scientifica digitale, corredata da un appropriato software, può offrire una serie di strumenti analitici e

apparati che la rendono utilizzabile sia da specialisti che da utentistica comune, in equilibrio tra le necessità

/ vincoli imposti dal medium digitale e l’integrità intellettuale:

- Annotazioni editoriali che indichino al lettore come utilizzare un testo;

- Rappresentazione esplicita di un’opera attraverso apparati di varianti selettivo o esaustivo;

- Specificazione delle fonti primarie utilizzate nel testo e trascrizione di tutti i dati relativi al loro stato

(cancellazioni, omissioni, lacune etc.);

- Indicazione di correzioni e congetture interpretative effettuate dall’editore nel testo, con specificazione

del livello di certezza che l’editore assegna a ciascuna di esse.

Un’edizione scientifica digitale, priva dei punti sopra elencati, non può ritenersi utile al fine di condurre un

lavoro di ricerca serio; essa deve essere accessibile al maggior numero di utenti possibile e deve godere di

una sufficiente longevità, almeno pari alla sua controparte cartacea. La base per la creazione di un’edizione

scientifica digitale non può in nessun modo essere il software, poichè disadatto (quest’ultimo) ad ogni

genere di utilizzazione, non gradito da tutti gli utilizzatori di una risorsa testuale digitalizzata. Per di più

hanno un ciclo di vita estremamente ridotto e sono legati intrinsecamente a una piattaforma. Bisogna

quantomai adottare un sistema ottimale di codifica standard, per la rappresentazione delle informazioni

contenute in una fonte testuale, attraverso un formato utilizzabile da un elaboratore (Machine Readable

Form). Occorre utilizzare un linguaggio informatico che risponda ai vincoli imposti dalla elaborazione

automatica e che sia sufficientemente espressiva nell’esprimere la complessità dell’oggetto “testo”.

Codifica = rappresentazione formale di un testo, ad un qualche livello descrittivo, mediante un linguaggio

informatico, che implica una serie di operazioni di selezione e classificazione degli elementi rilevanti in

funzione di un determinato punto di vista.

Markup Language = linguaggi di marcatura o codifica del testo, costituiti da una serie di istruzioni (ciascuna

dotata di particolari funzioni). Le istruzioni sono costituite da stringhe di caratteri visibili e delimitate da

caratteri speciali (tag), inserite all’interno della sequenza di caratteri del testo, accanto ai segmenti di testo

a cui si riferiscono; una sintassi regola l’uso, la forma e i rapporti tra i tag. I ML dichiarativi dichiarano

l’appartenenza di un dato segmento testuale ad una determinata classe di strutture testuali; rappresenta

le caratteristiche di un testo in modo indipendente da particolari finalità di trattamento e da forme di

presentazione grafica su un qualsiasi supporto fisico.

XML (Extensible Markup Language) = Linguaggio che consente la rappresentazione di documenti e dati

strutturati su supporto digitale. Permette la creazione, archiviazione, preservazione e disseminazione di

documenti digitali, la cui rigorosa sintassi ne rende possibile l’applicazione anche nella rappresentazione dei

dati strutturati, in alternativa ai sistemi DBMS relazionali. Sviluppato dal W3C (World Wide Web

Consortium), nasce come un sottoinsieme semplificato dell’ SGML (linguaggio di mark-up dichiarativo,

sviluppato dalla ISO e pubblicato nel 1986 con la sigla ISO 8879), orientato all’utilizzazione su World Wide

Web (autonomizzandosi successivamente). E’ un metalinguaggio, che definisce sintatticamente linguaggi

di markup; permette di esplicitare le strutture di un testo mediante marcatori (markup) che vanno inclusi

all’interno di un testo (character data). Adotta un formato di file di tipo testuale (leggibile da un utente

umano senza mediazione di software specifico), in cui markup e testo sono stringhe di caratteri e si basa sul

sistema di codifica dei caratteri ISO 10646 / UNICODE. E’ indipendente dal tipo di piattaforma hardware /

software su cui viene utilizzato, per

Dettagli
Publisher
A.A. 2018-2019
6 pagine
2 download
SSD Scienze matematiche e informatiche INF/01 Informatica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher sab.bo di informazioni apprese con la frequenza delle lezioni di Fondamenti di informatica per umanisti e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Roma Tor Vergata o del prof Ciotti Fabio.