Anteprima
Vedrai una selezione di 5 pagine su 17
Lezioni, Information and communication technology Pag. 1 Lezioni, Information and communication technology Pag. 2
Anteprima di 5 pagg. su 17.
Scarica il documento per vederlo tutto.
Lezioni, Information and communication technology Pag. 6
Anteprima di 5 pagg. su 17.
Scarica il documento per vederlo tutto.
Lezioni, Information and communication technology Pag. 11
Anteprima di 5 pagg. su 17.
Scarica il documento per vederlo tutto.
Lezioni, Information and communication technology Pag. 16
1 su 17
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

UNIVERSITÀ CATTOLICA DEL SACRO CUORE - Facoltà di Economia

INFORMATICA GENERALE - Primo Semestre A.A. 2013/2014 - Prof.ssa Vanessa Gemmo

3. Classificazione ed architettura dei PC

!

Il secondo step di un sistema informatico è l'elaborazione dei dati che

avviene nell'unita centrale del PC formata da due macrosezioni: la

memoria centrale RAM e la CPU, il processore, a sua volta formato da

registri, un'unità di controllo ed un’ALU (unità aritmetica e logica).

La CPU è formata da transistor ed elabora tutti gli input immessi nel PC,

è un elemento essenziale dell’elaboratore ed i suoi transistor sono

stampati elettronicamente su un chip comunemente di silicio. La memoria

centrale detta RAM (random access memory) è una memoria di lavoro che

consente di memorizzare in via temporanea i dati elaborati e riporta le

modalità di esecuzione. I registri sono invece sotto-aree di memoria che

supportano l'elaborazione, la CU svolge attività di “sorveglianza” mentre

l'unità aritmetico logica ALU svolge il lavoro vero e proprio. RAM e CPU

devono evolversi di pari passo per migliorare le performance di

elaborazione di un qualsiasi device. Gordon Moore, fondatore di intel ha

stabilito una legge per cui a parità di costi ogni 18 mesi raddoppiano i

numeri di transistor stampati sul microchip, oggi parliamo di miliardi di

transistor contro le migliaia degli anni passati. Analogamente, procede

sempre più la miniaturizzazione dei chip che arrivano oggi a misurare

meno di 20 nanometri contro gli 800 dello spessore di un capello. La

ricerca procede anche sui nuovi materiali sostitutivi al silicio come il

grafene che è trasparente, flessibile, conduttore e resistente al pari

dell'acciaio. L’obiettivo è quello di poter gestire sempre più cose in

meno tempo, file pesanti e di alta qualità in pochi istanti. La memoria

ROM è di sola lettura e gestisce il BIOS (basic input basic output).

!

Corrispondente delle periferiche di input sono le periferiche di output

come stampanti, schermo, casse. La stampante la si valuta in base alla

risoluzione di stampa che si misura in dpi (dots per inch) la qualità

invece di un monitor si misura in ppi (pixel per inch e dot pitch),

distanza tra un pixel e l'altro. Ultima fase è la distribuzione dei dati

che avviene attraverso supporti fisici (hard disk, CD, DVD) o mezzi

virtuali (rete, infrastrutture cloud).

!

L’elaborazione, step intermedio del funzionamento di un elaboratore,

passa attraverso le sue componenti di hardware interno sopracitate ed

avviene grazie all’utilizzo combinato con esse di software diversi: un

software è un programma, un’insieme di istruzioni per permettere al

computer di compiere determinate operazioni. Esistono software di sistema

per la gestione di operazioni di base e sono lo stesso sistema operativo

di un computer, le sue utilities ed i drivers; ma anche software

applicativi per la gestione di operazioni specifiche (es. suite Office).

Il sistema operativo (OS) di un PC si occupa del boot - accensione -

della gestione della CP, della gestione dei files e delle attività

(tasks). Parliamo di software open source quando questo è scaricabile e

fruibile senza costi di licenza (Linux e tutte le sue versioni p.e.

Ubuntu) a carico dell’user ed è ampiamente adattabile e personalizzabile

in relazione alle sue necessità. In genere, un qualsiasi software è

dotato di un codice oggetto o codice sorgente che deve essere

! 3

UNIVERSITÀ CATTOLICA DEL SACRO CUORE - Facoltà di Economia

INFORMATICA GENERALE - Primo Semestre A.A. 2013/2014 - Prof.ssa Vanessa Gemmo

interpretato da un programma traduttore solitamente di pertinenza del

sistema operativo perché questo possa funzionare correttamente, il codice

oggetto non è in alcun modo modificabile al fine di non compromettere il

funzionamento. I programmi traduttori possono essere:

a) compilatori: traducono dopo aver corretto eventuali bug per

garantire funzionamento fluido e corretto

b) interpreti: traducono non generando un codice oggetto

archiviabile bensì un nuovo codice sorgente ad ogni lancio del programma.

Eventuali errori vengono corretti di volta in volta quindi è un metodo

più efficace ma meno efficiente in termini di tempo rispetto ai

compilatori.

!

5. Reti di computer

!

L’utilità di un solo computer è limitata, per questo di pari passo allo

sviluppo del PC troviamo quello delle reti informatiche, reti di computer

in comunicazione e collaborazione tra loro attraverso un mezzo

trasmittente che permetta lo scambio di dati. Gli elementi costitutivi di

una rete di computer sono allora gli elaboratori, le linee di

trasmissione cablate o wireless unitamente a protocolli di comunicazione

a definire le norme di scambio tra PC. La rivoluzione nel networking è

dettata dal protocollo TCP/IP che permette la trasmissione di dati tra

CPU diverse; in generale i vantaggi della rete possono essere migliorie

in termini di comunicazioni a lunga distanza, la possibilità di

condividere tra più PC una periferica (p.e. stampanti in rete) ma anche

di dati e programmi applicativi facendo capo ad un server e ad un

database al fine di avere una continua integrazione delle informazioni e

dei dati sempre corretti ed aggiornati. Esistono diversi tipi di rete che

distinguiamo per estensione:

a) WAN: copertura globale (internet)

b) MAN: copertura locale (qualche km)

c) LAN: copertura poco più che domestica (centinaia di metri)

Alternativamente, possiamo distinguere per architettura:

a) Client - Server: impostazione gerarchica dove un server che fa

capo alla rete rilascia dati ai tanti e sottomessi client che ne fanno

richiesta (funzionamento p.e. di un sito internet cui ci si connette)

b) Peer to peer: ogni elaboratore è contemporaneamente client di

altri e server per altri, logica del funzionamento di reti e programmi

per il download di files .torrrent come eMule.

!

In azienda è essenziale possedere un’efficiente rete di computer al fine

di automatizzare e facilitare attività una volta manuali come p.e. la

consultazione di un estratto conto. Il progresso ha permesso che

un’attività come questa fosse dapprima (anni ’50-’70) gestita da

elaboratori batch a lotti, mainframe che supporranno il lavoro di

backoffice delle filiali. Un’ulteriore evoluzione è rappresentata dal

real time, i terminali stupidi permettono di leggere ed inserire dati

restituendoli come output. Tutte le suddette tecnologie hanno un forte

legame con l’host che va diminuendo con l’introduzione dei PC ad ARC

distribuita che possono effettuare un buon numero di operazioni lasciando

! 4

UNIVERSITÀ CATTOLICA DEL SACRO CUORE - Facoltà di Economia

INFORMATICA GENERALE - Primo Semestre A.A. 2013/2014 - Prof.ssa Vanessa Gemmo

al mainframe solo le più complesse, il rischio è che una rete così

strutturata sia “fat” (fatclient) pesante e di lenta gestibilità. La

soluzione è quella di ricorrere ai thin client, piccoli e leggeri

elaboratori che sfruttano logiche client - server così da richiedere i

dati solo quando necessario.

!

!

4. Cloud computing

!

1. Host centric computing 2. Server computing 3. Network computing (Cloud

computing). Sostanzialmente il termine “cloud” rimanda al concetto di

internet: il cloud computing prevede di affidare dati ed attività a

macchine di terzi attraverso le quali siamo connessi tramite la rete

internet, il cloud permette di liberarsi dalle spese di gestione ed altri

oneri (p.e. bisogno di spazi ah hoc in azienda) per software ed hardware

fisico. Sono previste offerte di “noleggio” in base all'utilizzo che se

ne deve fare secondo il principio di "software as a service", servizio

fornito da terzi cui paghiamo il solo utilizzo reale ed effettivo

abbattendo costi di gestione, aggiornamento, licenza e simili. Vengono

così proposte alle aziende delle soluzioni IT su misura che fanno capo a

data center immensi e delocalizzati per la gestione dei dati (vedi

articolo “Amazon, active in cloud”). Quali sono i vantaggi del cloud

computing? Anzitutto la possibilità di immagazzinare ed accedere ad

immense quantità di dati in remoto ed addirittura utilizzare software in

remoto (anche consumer, si pensi alla suite office online di Microsoft

Skydrive o all’analogo servizio proposto da Google Drive). Tutti questi

sono servizi on demand che permettono mobilità assoluta, scalabilità

stagionale e tariffazioni pay-per-use. Classici rischi del clouding

possono essere mancanza di privacy, eventuali od accidentali

discontinuità di servizio (viene meno la business continuity in caso di

fault di un sistema a monte). Altre tendenze possono essere:

a) On demand computing: contenuti scaricabili a richiesta

b) Utility computing: elaboratori programmati e progettati ad hoc

per il core business dell’azienda in questione.

c) Grid computing: rete a griglia dove si condividono le capacità

di calcolo di ogni singolo elaboratore al fine di ottenere una grande

potenza collettiva.

d) Green computing: utilizzo delle tecnologie in condivisione ed in

maniera efficiente tale da ridurre l’impatto ambientale, si riferisce ad

un'informatica ecologicamente sostenibile. Si occupa dello studio e della

messa in pratica di tecniche di progettazione e realizzazione di

computer, server, e sistemi connessi come ad esempio monitor, stampanti,

dispositivi di archiviazione e reti e sistemi di comunicazione efficienti

con impatti ambientali limitati o nulli.

!

6. Internet e World-Wide-Web

!

Internet è una rete di reti anch'essa costituita da elaboratori quali

computer, linee di trasmissione che possono essere cablate o wireless e

protocolli a definire le regole per lo scambio di dati; parliamo in

! 5

UNIVERSITÀ CATTOLICA DEL SACRO CUORE - Facoltà di Economia

INFORMATICA GENERALE - Primo Semestre A.A. 2013/2014 - Prof.ssa Vanessa Gemmo

questo caso del protocollo TCP/IP. Una breve analisi storica dello

sviluppo della rete internet, la più sfruttata rete di comunicazione

internazionale, ci porta ad individuare alcuni passaggi importanti della

sua storia: nel 1869 nasce ARPANET per la gestione delle comunicazioni

militari statunitensi, nel 1972 ARPANET viene esteso all'utilizzo civile

e verso gli anni ’80 attraverso il protocollo TCP/IP arriviamo nel 1983

ad avere INTERNET che nel 1991 si declina nel WWW, worldwide web, un

servizio di internet che permette di navigare ed usufruire di un insieme

vastissimo di contenuti di ogni tipo collegati

Dettagli
A.A. 2014-2015
17 pagine
SSD Scienze matematiche e informatiche INF/01 Informatica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher iuffmannghezzi.alessandro di informazioni apprese con la frequenza delle lezioni di Information and communication technology e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università Cattolica del "Sacro Cuore" o del prof Gemmo Vanessa.