Che materia stai cercando?

Appunti Informatica Appunti scolastici Premium

Appunti elaborati a partire dalle lezioni svolte in classe, con l'aggiunta delle informazioni ricavate dai file distribuiti dal professore e dal libro di testo. A tutto ciò sono integrate, ove necessario, ricerche da me svolte in rete, al fine di completare definizioni poco esaustive.

Esame di Idoneità di informatica docente Prof. F. Peluso

Anteprima

ESTRATTO DOCUMENTO

S P S L

OFTWARE ROPRIETARI VS OFTWARE IBERI

Qualsiasi software viene creato utilizzando un determinato linguaggio di

programmazione che consente la creazione del codice-sorgente, ossia l’insieme delle

istruzioni non ancora interpretabili dal computer ma scritte già in un linguaggio

formale che comprende variabili e complesse funzioni algoritmiche.

Per far sì che il computer comprenda le istruzioni scritte in linguaggio di

programmazione, è necessario che queste siano convertite in linguaggio macchina,

generando così il codice-macchina.

Per poter modifcare un software è necessario avere accesso alle istruzioni del codice-

sorgente. A questo riguardo sono individuabili 2 macro-categorie di software

contrapposte:

software proprietari, che rispondono alla logica del prodotto sottoposto al diritto

 di proprietà; in questo modello, non è disponibile il codice-sorgente e pertanto è

impossibile eseguire la semplice lettura o efettuare modifche; tale possibilità è

riservata al solo proprietario, unico possessore del codice-sorgente; questi può

però stabilire delle limitazioni all’utilizzo o alla difusione del prodotto, basandosi

sul concetto del contratto di licenza o del brevetto;

software liberi, che non hanno limiti al loro utilizzo.

Il primo progetto di software libero risale al sistema operativo Gnu’s Not Unix (GNU)

e alla creazione della Free Software Foundation (FSF), risalente al 1985. Questa

organizzazione aveva lo scopo di difondere la cultura del software libero con l’utopico

obiettivo di debellare i software proprietari. Il suo ideatore riteneva fondamentale

l’esistenza di 4 libertà fondamentali che ogni software doveva avere afnché potesse

essere considerato pienamente libero:

1. libertà di eseguire il software, per qualsiasi scopo;

2. libertà di poter studiare e modifcare il software, così da consentire all’utente di

adattarlo alle proprie esigenze;

3. libertà di poter liberamente ridistribuire il software a chiunque ne abbia

necessità, sia a titolo gratuito che a pagamento;

4. libertà di apportare migliorie al software e di rendere disponibile a chiunque la

versione contenente tali modifche, anche qualora queste dovessero dimostrarsi

irrilevanti o addirittura dannose.

O S

PEN OURCE

Si defnisce Open Source quella tipologia di software i cui detentori dei diritti di

sfruttamento economico decidono di rendere pubblico il codice sorgente.

Questi software si basano su alcuni principi fondamentali:

libertà di redistribuzione ;

 libertà di consultare il codice-sorgente ;

 necessità di approvazione per i prodotti derivati ;

 integrità del codice-sorgente dell’autore ;

 distribuibilità della licenza ;

 generalità della licenza dei prodotti ;

 non-contaminazione della licenza da parte di altri software ;

 neutralità tecnologica della licenza .

La distinzione tra open source e software libero è incentrata principalmente su ragioni

etiche ed ideologiche: mentre il software libero si basa sulle quattro libertà, il software

open source riconosce la possibilità di ottenere una copia del codice-sorgente ma

alcune licenze regolano ciò che è permesso fare. Inoltre, un software open source

necessita di approvazione per i prodotti da esso derivati.

Un software open source può essere rilasciato gratuitamente ma può contenere

servizi aggiuntivi o upgrade a pagamento. Il ritorno economico è infatti ritenuto

ammissibile e considerato come un valore aggiunto in grado di incentivare l’interesse

per lo sviluppo e il supporto del software.

Sostanzialmente, un software open source costituisce un compromesso tra software

proprietario e software libero. S HAREWARE

I software shareware, detti anche trial, rispondono a una flosofa che fa riferimento

a una modalità di licenza d’uso che permette di provare gratuitamente il prodotto

senza alcun impegno per l’acquisto. Mettendo temporaneamente a disposizione il

prodotto, talvolta con potenzialità limitate, si permette all’utente di familiarizzare con

lo stesso e stabilirne l’utilità.

È possibile distinguere 2 modalità di prospettazione di prodotti shareware:

demo, che consentono di utilizzare senza limiti temporali una versione

 semplifcata priva di alcune capacità rilevanti presenti nella versione a pagamento;

trial, che consentono di utilizzare tutte le potenzialità della versione completa ma

 per un tempo limitato, al termine del quale sarà possibile scegliere di acquistare il

prodotto o meno. F REEWARE

I freeware rientrano nell’ambito dei software proprietari, distribuiti però in modo

gratuito. A diferenza degli shareware, non hanno limiti temporali d’uso e non hanno

limiti alla facoltà di redistribuzione in favore di terzi.

Rientrano in questa categoria gli abandonware (software obsoleti che hanno perso

interesse commerciale), i software pubblici e gli adware (software con contenuti

pubblicitari, spesso in pop-up). R ETE

Una rete è un insieme di computer e dispositivi periferici collegati tra loro. Il

collegamento in rete permette ai computer di scambiarsi dati e di condividere risorse

hardware e applicazioni.

Il tipo di rete più difuso è la Local Area Network (LAN), nella quale i computer sono

collegati mediante cavi. Quando il collegamento avviene senza fli si parla invece di

Wireless LAN (WLAN). Si parla invece di Wide Area Network (WAN) quando la rete

collega reti di computer distribuite su una vasta area geografca.

Le reti di computer possono essere strutturate in 2 modi diferenti:

client/server, caratterizzate dalla presenza di un potente “server” che mette

 risorse a disposizione di altri computer, denominati “client”; questi ultimi, costituiti

dai semplici PC, comunicano con il server trasmettendo le richieste dell’utente e

ricevendo le informazioni; afnché possa avvenire questa comunicazione è

necessario che entrambi i dispositivi utilizzino un linguaggio comune e dispongano

di un software specifco;

peer-to-peer, caratterizzate da numerosi computer che operano “tra pari”,

 disponendo di uno stesso tipo di software e di potenze di calcolo equiparabili, e

mettono a disposizione le proprie risorse potendo accedere a quelle altrui.

Con opportuni accorgimenti, è possibile collegare più reti locali, anche molto distanti

tra loro. Ciascun utente può così accedere ai dati e alle risorse di tutte le reti collegate.

Internet non è altro che una grande rete che mette a disposizione innumerevoli servizi

dedicati principalmente alla comunicazione.

I NTERNET

Internet è una delle più grandi e rivoluzionarie innovazioni della storia umana, nata

attraverso un progetto militare che doveva costituire una contromisura americana

all’imporsi della potenza russa. Le sue origini risalgono agli anni ‘60, quando

un’agenzia americana creò una rete di computer per contrastare il superamento

tecnologico dell’Unione Sovietica.

Nel 1965, l’Advanced Research Projects Agency (ARPA) iniziò ad avere enormi

problemi legati al trasferimento dei dati: i numerosi computer già esistenti erano

dislocati in posti molto lontani e non vi era alcun modo di trasmettere dati (nemmeno

tra computer nella stessa stanza). Lo scambio dati era infatti un’operazione molto

complessa, soprattutto perché non vi erano formati standard né strumenti di

archiviazione universali. Ancor più complesso era tradurre il linguaggio di

programmazione di un computer nel linguaggio accettato da una macchina con

modalità radicalmente diverse.

Occorreva quindi una metodologia di trasmissione dei dati che consentisse, senza

troppi sforzi, la condivisione di dati da un computer all’altro.

La soluzione venne trovata sotto forma di sistema di telecomunicazione in

commutazione di pacchetto, l’ARPANET, che consentiva l’accesso multiplo alle risorse

che passano in un canale. L’idea di base era la suddivisione dell’informazione in

stringhe di dati che potevano essere divise, inviate e ricomposte facilmente. Ciò

consentiva di suddividere le informazioni in parti più piccole (e quindi più facili da

trasferire) e inviarle in tempi anche diversi, ri-assemblandole poi nelle giuste posizioni.

I S P

NTERNET ERVICE ROVIDER

I fornitori di servizi internet (ISP) dispongono di una propria struttura per il

trasporto delle reti. Non tutti gli ISP sono identici dal punto di vista della capillarità,

per cui esistono 3 livelli diversi:

1. ISP di 1° livello, che costituiscono le dorsali principali a livello internazionale;

comunicano tra loro in posizione di parità;

2. ISP di 2° livello, che costituiscono le dorsali a livello nazionale o distrettuale;

possono comunicare con gli ISP di 2° livello appartenenti allo stesso ISP di 1° livello

e con tutti gli ISP di 1° livello (cui paga il servizio);

3. ISP di 3° livello, che costituiscono le dorsali a livello locale; sono connessi

unicamente agli ISP di 2° livello, da cui dipendono.

La connessione può essere efettuata attraverso 2 sistemi diferenti:

dialup, che costituiscono connessioni molto lente attraverso la linea telefonica

 analogica;

broadband, che costituiscono connessioni con prestazioni e costi molto elevati

 attraverso reti via cavo, ADSL, wireless o in fbra ottica.

TCP/IP

La trasmissione dei dati a pacchetti su internet si basa su una serie di regole standard

che tutti i computer collegati alla rete devono utilizzare. I 2 principali protocolli sono:

Trasmission Control Protocol (TCP), che specifca come suddividere in pacchetti

 le informazioni, così che possano essere inviate sulle connessioni tra i nodi del

web, e come rimettere insieme i pacchetti quando arrivano al computer

destinatario;

Internet Protocol (IP), che specifca come trasmettere le informazioni e identifca

 l’itinerario più efciente tra mittente e destinatario.

W W W

ORLD IDE EB

Spesso si identifca internet con il web ma ciò non è esattamente corretto: il web o,

per meglio dire, il World Wide Web (WWW) è il più difuso servizio di internet, in cui

tutti gli utenti comunicano tra loro usando un particolare protocollo chiamato Hyper

Text Transfer Protocol (HTTP).

Le informazioni condivise da tutte le reti del web sono gestite da speciali computer

chiamati “web server”, all’interno dei quali sono memorizzate le pagine web a cui i “web

client” possono accedere.

Le pagine web possono essere consultate attraverso programmi detti “browser”.

Nel web sono presenti milioni di siti internet che possono essere facilmente raggiunti

e che possono essere di grande utilità. Fra tutte le innumerevoli attività svolte nella

rete, una consistente parte è di natura illecita e criminale.

Un utente medio ha buone probabilità di fnire, almeno una volta, all’interno di pagine

riservate, non-indicizzate o illecite.

A seconda della natura delle attività che vi vengono svolte, è possibile suddividere il

web in 3 categorie:

surface web, attinente a tutte quelle attività che, indipendentemente dalla loro

 liceità, possono essere facilmente raggiungibili attraverso l’indicizzazione nei

motori di ricerca;

deep web, rappresentato da tutte quelle attività svolte su internet che risultano

 non-indicizzate dai motori di ricerca, oltre che da tutti quei siti con accesso

limitato;

dark web, in cui l’illiceità è la regola e non l’eccezione, a cui si accede unicamente

 attraverso appositi strumenti utilizzando dei protocolli ben precisi.

D W

EEP EB

Nel deep web è stimato che vi siano dalle 400 alle 500 volte il numero di fle che è

possibile trovare nel surfce web.

I fattori che rendono tanto intensa l’attività svolta nel deep web (con un giro di afari

di oltre il 3% del PIL mondiale) sono:

dinamicità dei contenuti, che sono inaccessibili a soggetti terzi grazie alla loro

 natura che fa sì che si generino di volta in volta sul server in base alle specifche

richieste dell’utente;

assenza di collegamenti, che rende le pagine web accessibili solo digitando

 manualmente l’URL corrispondente;

accessibilità limitata, che richiede una registrazione per l’accesso a determinate

 aree;

script, che rende le pagine raggiungibili solo attraverso l’utilizzo di link realizzati

 nel linguaggio di scrittura Javascript o Flash, necessitando quindi di procedure

peculiari;

non-testualità dei contenuti, scritti attraverso un linguaggio di programmazione

 che non sia l’HTML. D W

ARK EB

Il dark web è la parte più impalpabile del web ed è accessibile solo a coloro che

possiedono software particolari e conoscenze approfondite dei meccanismi del

sistema. In questa parte della rete sono presenti le più disparate attività legate alla

criminalità, con siti spesso somiglianti a quelli utilizzati dalla gente comune ma

presentanti contenuti ben diversi.

Esistono diversi browser che agevolano la navigazione anonima, quali per esempio:

The Onion Project (TOR), il cui nome richiama l’azione crittografca a strati che

 viene operata sull’attività del router; il segnale iniziale, attraversando una

moltitudine di nodi prima di giungere al server di destinazione, diviene non più

identifcabile; in aggiunta, le informazioni vengono cifrate attraverso un

meccanismo di criptazione dinamica a più strati con codice-hash;

Invisible Internet Project (I2P), sistema non ancora defnitivo molto complesso,

 che prevede, oltre a nodi di trasmissione, anche l’uso di una crittografa

asimmetrica e dei tunnel di criptaggio dei dati dei proxy.

C C

LOUD OMPUTING

Il Cloud Computing è un sistema di erogazione di risorse informatiche che consente

di ricevere servizi e archiviare dati su dei server. Ciò permette l’accessibilità dei dati da

qualunque dispositivo e in qualunque luogo, purché si disponga di una connessione

internet. Caratteristica fondamentale è la possibilità di svolgere operazioni self-service

che permettono all’utente di richiedere servizi in totale autonomia, senza necessità

dell’intervento dei gestori dell’infrastruttura o del service provider.

S N

OCIAL ETWORK

Il primo servizio di social network venne lanciato nel 1997 sul sito Six Degrees, che

conteneva una serie di funzioni che permettevano, in un’unica piattaforma digitale, la

creazione di profli personali e liste di amici con altri utenti già registrati sul medesimo

sito. Il sito funzionava sulla scorta dell’omonima teoria dei 6 gradi di separazione.

Nel 1999, venne creato un nuovo sito, Live Jurnal, che si caratterizzava per alcuni

aspetti peculiari: consentiva di dichiarare il proprio apprezzamento per ciò che un

blogger scriveva, consentendo così di accedere a particolari contenuti fruibili solo a

una ristretta cerchia di soggetti. Ciò consentiva di creare delle “friends page”

diferenziate per tipologie di utenti. Ciascun utente aveva inoltre a disposizione un

proprio diario personale e la possibilità di lasciare commenti, impressioni o

suggerimenti sui diari degli altri utenti.

Sempre nel 1999, si sviluppò la piattaforma Blackplanet, che conquista l’Africa

permettendo di collegare l’oferta e la domanda di lavoro, oltre che ofrendo spazi di

discussione simili a veri forum.

Nel 2000, venne lanciato un nuovo social network basato sulla lingua ispanica,

Migente, che introduceva un’interfaccia particolarmente innovativa, basata sul

meccanismo delle amicizie con implementazione di chat e tag.

Nel 2001, con il progetto Cyword, nacque il primo social network con elementi tipici

della vita reale, quale per esempio l’acquisto di beni per il proprio avatar.

Nel 2003, si difuse un social network, noto come MySpace, che consentiva ampie

possibilità di personalizzazione.

Sempre nello stesso anno, nacque LinkedIN, basato sulla creazione di reti di

professionisti interconnessi.

Nel 2004, venne agli onori della cronaca Flicker, un social network che si

caratterizzava per la sua natura di sito di photosharing.

Sempre nel 2004, prese forma il progetto di Facebook, che di lì a poco sarebbe

diventato uno dei social network più importanti al mondo. Inizialmente, il sito doveva

essere riservato agli utenti dell’ateneo del suo fondatore, ma ben presto si difuse

prima nelle altre università e in seguito anche al di fuori di queste.

Nel 2006, si difuse Twetter, un social network che presentava un’interfaccia semplice

e intuitiva unita a un sistema comunicavo molto particolare: basandosi su una

struttura di tipo messaggistico, consentiva l’invio di messaggi di lunghezza massima di

140 caratteri (microblogging). F F

ATTORE IDUCIA

Il fattore fducia e la reputazione sono fondamentali nella comunicazione digitale:

guadagnare credibilità comporta la possibilità di divenire una fonte attendibile e

aumentare quindi l’autorevolezza delle proprie informazioni.

I sistemi pay-to-click permettono di ottenere piccoli guadagni in base al numero di

click sugli annunci pubblicitari o al numero di visualizzazioni delle proprie pagine web.

In questa ottica, non importa dare informazioni giuste poiché l’obiettivo è ottenere

click e guadagni.

Al tempo stesso, però, un click porta un guadagno in fatto di immagine e avere una

buona reputazione genera un circolo virtuoso capace di aumentare esponenzialmente

la propria difusione. S N A

OCIAL ETWORK NALYSIS

La social network analysis è una teoria secondo cui la struttura della società è

equiparabile a una rete di relazioni estremamente ramifcata che crea un ftto

intreccio di contatti, amicizie e conoscenze. Il presupposto è che ogni singolo

individuo ha una propria rete di relazioni, di natura diversifcata, che viene a mutare in

base al comportamento delle parti con cui viene a contatto.

L’obiettivo centrale dell’analisi delle reti sociali è lo studio dei legami e la

comprensione delle relazioni che si sviluppano tra i vari soggetti.

Ulteriore base per la comprensione della social network analysis è il presupposto che i

legami di ciascun soggetto abbiano la forza di modifcare i comportamenti e le

relazioni stesse. Ciò signifca che a ogni azioni verrebbe a corrispondere una risposta

nelle relazioni della rete sociale del soggetto sollecitato.

In questo ambito, con il termine “nodo” si indica un soggetto che interagisce all’interno

della propria comunità sociale di riferimento. Pertanto, ogni individuo con relazioni

sociali può essere defnito come un nodo.

Con “grado” del nodo ci si riferisce al numero di nodi che hanno una qualche

connessione con il nodo di partenza: maggiore è il numero di relazioni che il soggetto

riesce a mantenere all’interno della comunità, maggiore sarà il grado del suo nodo.

La “centralità” esprime l’infuenza del nodo nei rapporti con gli altri soggetti di

riferimento.

La “centralità di grado” valuta il numero di connessioni tra il nodo e la rete.

La “between centrality” misura l’infuenza del singolo nodo contemplando la capacità di

quest’ultimo nel mantenere attive le relazioni fra nodi che non hanno connessioni tra

loro.

La “cloeseness centrality” misura la velocità di trasmissione dei nodi basandosi sulla

posizione all’interno della rete sociale.


PAGINE

19

PESO

143.99 KB

PUBBLICATO

+1 anno fa


DETTAGLI
Corso di laurea: Corso di laurea in economia aziendale
SSD:
Università: Tuscia - Unitus
A.A.: 2017-2018

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher federicogiordano1995 di informazioni apprese con la frequenza delle lezioni di Idoneità di informatica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Tuscia - Unitus o del prof Peluso Flaviano.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!