vuoi
o PayPal
tutte le volte che vuoi
UNIVERSITÀ CATTOLICA DEL SACRO CUORE - Facoltà di Economia
INFORMATICA GENERALE - Primo Semestre A.A. 2013/2014 - Prof.ssa Vanessa Gemmo
3. Classificazione ed architettura dei PC
!
Il secondo step di un sistema informatico è l'elaborazione dei dati che
avviene nell'unita centrale del PC formata da due macrosezioni: la
memoria centrale RAM e la CPU, il processore, a sua volta formato da
registri, un'unità di controllo ed un’ALU (unità aritmetica e logica).
La CPU è formata da transistor ed elabora tutti gli input immessi nel PC,
è un elemento essenziale dell’elaboratore ed i suoi transistor sono
stampati elettronicamente su un chip comunemente di silicio. La memoria
centrale detta RAM (random access memory) è una memoria di lavoro che
consente di memorizzare in via temporanea i dati elaborati e riporta le
modalità di esecuzione. I registri sono invece sotto-aree di memoria che
supportano l'elaborazione, la CU svolge attività di “sorveglianza” mentre
l'unità aritmetico logica ALU svolge il lavoro vero e proprio. RAM e CPU
devono evolversi di pari passo per migliorare le performance di
elaborazione di un qualsiasi device. Gordon Moore, fondatore di intel ha
stabilito una legge per cui a parità di costi ogni 18 mesi raddoppiano i
numeri di transistor stampati sul microchip, oggi parliamo di miliardi di
transistor contro le migliaia degli anni passati. Analogamente, procede
sempre più la miniaturizzazione dei chip che arrivano oggi a misurare
meno di 20 nanometri contro gli 800 dello spessore di un capello. La
ricerca procede anche sui nuovi materiali sostitutivi al silicio come il
grafene che è trasparente, flessibile, conduttore e resistente al pari
dell'acciaio. L’obiettivo è quello di poter gestire sempre più cose in
meno tempo, file pesanti e di alta qualità in pochi istanti. La memoria
ROM è di sola lettura e gestisce il BIOS (basic input basic output).
!
Corrispondente delle periferiche di input sono le periferiche di output
come stampanti, schermo, casse. La stampante la si valuta in base alla
risoluzione di stampa che si misura in dpi (dots per inch) la qualità
invece di un monitor si misura in ppi (pixel per inch e dot pitch),
distanza tra un pixel e l'altro. Ultima fase è la distribuzione dei dati
che avviene attraverso supporti fisici (hard disk, CD, DVD) o mezzi
virtuali (rete, infrastrutture cloud).
!
L’elaborazione, step intermedio del funzionamento di un elaboratore,
passa attraverso le sue componenti di hardware interno sopracitate ed
avviene grazie all’utilizzo combinato con esse di software diversi: un
software è un programma, un’insieme di istruzioni per permettere al
computer di compiere determinate operazioni. Esistono software di sistema
per la gestione di operazioni di base e sono lo stesso sistema operativo
di un computer, le sue utilities ed i drivers; ma anche software
applicativi per la gestione di operazioni specifiche (es. suite Office).
Il sistema operativo (OS) di un PC si occupa del boot - accensione -
della gestione della CP, della gestione dei files e delle attività
(tasks). Parliamo di software open source quando questo è scaricabile e
fruibile senza costi di licenza (Linux e tutte le sue versioni p.e.
Ubuntu) a carico dell’user ed è ampiamente adattabile e personalizzabile
in relazione alle sue necessità. In genere, un qualsiasi software è
dotato di un codice oggetto o codice sorgente che deve essere
! 3
UNIVERSITÀ CATTOLICA DEL SACRO CUORE - Facoltà di Economia
INFORMATICA GENERALE - Primo Semestre A.A. 2013/2014 - Prof.ssa Vanessa Gemmo
interpretato da un programma traduttore solitamente di pertinenza del
sistema operativo perché questo possa funzionare correttamente, il codice
oggetto non è in alcun modo modificabile al fine di non compromettere il
funzionamento. I programmi traduttori possono essere:
a) compilatori: traducono dopo aver corretto eventuali bug per
garantire funzionamento fluido e corretto
b) interpreti: traducono non generando un codice oggetto
archiviabile bensì un nuovo codice sorgente ad ogni lancio del programma.
Eventuali errori vengono corretti di volta in volta quindi è un metodo
più efficace ma meno efficiente in termini di tempo rispetto ai
compilatori.
!
5. Reti di computer
!
L’utilità di un solo computer è limitata, per questo di pari passo allo
sviluppo del PC troviamo quello delle reti informatiche, reti di computer
in comunicazione e collaborazione tra loro attraverso un mezzo
trasmittente che permetta lo scambio di dati. Gli elementi costitutivi di
una rete di computer sono allora gli elaboratori, le linee di
trasmissione cablate o wireless unitamente a protocolli di comunicazione
a definire le norme di scambio tra PC. La rivoluzione nel networking è
dettata dal protocollo TCP/IP che permette la trasmissione di dati tra
CPU diverse; in generale i vantaggi della rete possono essere migliorie
in termini di comunicazioni a lunga distanza, la possibilità di
condividere tra più PC una periferica (p.e. stampanti in rete) ma anche
di dati e programmi applicativi facendo capo ad un server e ad un
database al fine di avere una continua integrazione delle informazioni e
dei dati sempre corretti ed aggiornati. Esistono diversi tipi di rete che
distinguiamo per estensione:
a) WAN: copertura globale (internet)
b) MAN: copertura locale (qualche km)
c) LAN: copertura poco più che domestica (centinaia di metri)
Alternativamente, possiamo distinguere per architettura:
a) Client - Server: impostazione gerarchica dove un server che fa
capo alla rete rilascia dati ai tanti e sottomessi client che ne fanno
richiesta (funzionamento p.e. di un sito internet cui ci si connette)
b) Peer to peer: ogni elaboratore è contemporaneamente client di
altri e server per altri, logica del funzionamento di reti e programmi
per il download di files .torrrent come eMule.
!
In azienda è essenziale possedere un’efficiente rete di computer al fine
di automatizzare e facilitare attività una volta manuali come p.e. la
consultazione di un estratto conto. Il progresso ha permesso che
un’attività come questa fosse dapprima (anni ’50-’70) gestita da
elaboratori batch a lotti, mainframe che supporranno il lavoro di
backoffice delle filiali. Un’ulteriore evoluzione è rappresentata dal
real time, i terminali stupidi permettono di leggere ed inserire dati
restituendoli come output. Tutte le suddette tecnologie hanno un forte
legame con l’host che va diminuendo con l’introduzione dei PC ad ARC
distribuita che possono effettuare un buon numero di operazioni lasciando
! 4
UNIVERSITÀ CATTOLICA DEL SACRO CUORE - Facoltà di Economia
INFORMATICA GENERALE - Primo Semestre A.A. 2013/2014 - Prof.ssa Vanessa Gemmo
al mainframe solo le più complesse, il rischio è che una rete così
strutturata sia “fat” (fatclient) pesante e di lenta gestibilità. La
soluzione è quella di ricorrere ai thin client, piccoli e leggeri
elaboratori che sfruttano logiche client - server così da richiedere i
dati solo quando necessario.
!
!
4. Cloud computing
!
1. Host centric computing 2. Server computing 3. Network computing (Cloud
computing). Sostanzialmente il termine “cloud” rimanda al concetto di
internet: il cloud computing prevede di affidare dati ed attività a
macchine di terzi attraverso le quali siamo connessi tramite la rete
internet, il cloud permette di liberarsi dalle spese di gestione ed altri
oneri (p.e. bisogno di spazi ah hoc in azienda) per software ed hardware
fisico. Sono previste offerte di “noleggio” in base all'utilizzo che se
ne deve fare secondo il principio di "software as a service", servizio
fornito da terzi cui paghiamo il solo utilizzo reale ed effettivo
abbattendo costi di gestione, aggiornamento, licenza e simili. Vengono
così proposte alle aziende delle soluzioni IT su misura che fanno capo a
data center immensi e delocalizzati per la gestione dei dati (vedi
articolo “Amazon, active in cloud”). Quali sono i vantaggi del cloud
computing? Anzitutto la possibilità di immagazzinare ed accedere ad
immense quantità di dati in remoto ed addirittura utilizzare software in
remoto (anche consumer, si pensi alla suite office online di Microsoft
Skydrive o all’analogo servizio proposto da Google Drive). Tutti questi
sono servizi on demand che permettono mobilità assoluta, scalabilità
stagionale e tariffazioni pay-per-use. Classici rischi del clouding
possono essere mancanza di privacy, eventuali od accidentali
discontinuità di servizio (viene meno la business continuity in caso di
fault di un sistema a monte). Altre tendenze possono essere:
a) On demand computing: contenuti scaricabili a richiesta
b) Utility computing: elaboratori programmati e progettati ad hoc
per il core business dell’azienda in questione.
c) Grid computing: rete a griglia dove si condividono le capacità
di calcolo di ogni singolo elaboratore al fine di ottenere una grande
potenza collettiva.
d) Green computing: utilizzo delle tecnologie in condivisione ed in
maniera efficiente tale da ridurre l’impatto ambientale, si riferisce ad
un'informatica ecologicamente sostenibile. Si occupa dello studio e della
messa in pratica di tecniche di progettazione e realizzazione di
computer, server, e sistemi connessi come ad esempio monitor, stampanti,
dispositivi di archiviazione e reti e sistemi di comunicazione efficienti
con impatti ambientali limitati o nulli.
!
6. Internet e World-Wide-Web
!
Internet è una rete di reti anch'essa costituita da elaboratori quali
computer, linee di trasmissione che possono essere cablate o wireless e
protocolli a definire le regole per lo scambio di dati; parliamo in
! 5
UNIVERSITÀ CATTOLICA DEL SACRO CUORE - Facoltà di Economia
INFORMATICA GENERALE - Primo Semestre A.A. 2013/2014 - Prof.ssa Vanessa Gemmo
questo caso del protocollo TCP/IP. Una breve analisi storica dello
sviluppo della rete internet, la più sfruttata rete di comunicazione
internazionale, ci porta ad individuare alcuni passaggi importanti della
sua storia: nel 1869 nasce ARPANET per la gestione delle comunicazioni
militari statunitensi, nel 1972 ARPANET viene esteso all'utilizzo civile
e verso gli anni ’80 attraverso il protocollo TCP/IP arriviamo nel 1983
ad avere INTERNET che nel 1991 si declina nel WWW, worldwide web, un
servizio di internet che permette di navigare ed usufruire di un insieme
vastissimo di contenuti di ogni tipo collegati