Informatica giuridica
Controllo sull'accesso e utilizzo delle informazioni
Definizioni di dati
Dato personale: qualunque informazione relativa a persona fisica, persona giuridica, ente o associazione.
Dati sensibili: i dati personali idonei a rivelare l'origine razziale ed etnica, le convinzioni religiose, filosofiche, le opinioni politiche, l'adesione a partiti, sindacati, associazioni o organizzazioni a carattere religioso, filosofico, politico o sindacale, nonché i dati personali idonei a rivelare lo stato di salute e la vita sessuale.
Dati anonimi: dati che non possono essere associati a un interessato identificato o identificabile.
Concetti e termini rilevanti
- Cybersquatting: registrazione di nomi di domini corrispondenti a marchi o nomi altrui effettuata da chi non ha il diritto.
- Mtp: misure di protezione.
- Copyright: istituto giuridico che governa le problematiche inerenti il controllo e diffusione delle credenziali intellettuali.
La condivisione dell'informazione in internet
- Una verticale: da uno verso molti.
- Una orizzontale: da molti verso molti.
Storia dell'informatica
Generazione zero (i computer meccanici)
La prima persona che costruì una macchina calcolatrice funzionante fu lo scienziato francese Blaise Pascal (1623-1662), in onore del quale è stato chiamato l'omonimo linguaggio di programmazione. Pascal progettò e costruì questo dispositivo nel 1642, a 19 anni, per aiutare suo padre, un esattore delle tasse del governo francese. La macchina era interamente meccanica, costituita da ingranaggi e veniva azionata a mano con una manovella. La macchina di Pascal era in grado di compiere solamente somme e sottrazioni.
Sistemi di traduzione
- Compilatore: è un programma che traduce quanto realizzato in linguaggio procedurale, in linguaggio macchina, quindi comprensibile al computer. La compilazione produce come risultato un file eseguibile che, lanciato sulla macchina, viene direttamente eseguito dal computer. Il codice sorgente deve essere necessariamente compatibile con l'hardware in uso.
- Interprete: è un programma che legge le istruzioni (codice) del programma scritto in linguaggio procedurale e lo trasforma in tempo reale in codice macchina, che viene eseguito direttamente dal computer. Il codice sorgente viene letto direttamente poiché scritto nel linguaggio macchina.
Moderne memorie dinamiche (DRAM)
John Atanasoff e George Stibitz dei Bell Labs si dedicarono alla progettazione di calcolatori. La macchina di Atanasoff era incredibilmente avanzata per l'epoca: era basata sull'aritmetica binaria e utilizzava dei condensatori per la memoria.
Difference engine
Il difference engine influenzò maggiormente la moderna concezione di PC. Charles Babbage (1792-1871), inventore tra l'altro del tachimetro, progettò e costruì una macchina chiamata difference engine ("macchina differenziale"). Questo dispositivo meccanico, capace come quello di Pascal soltanto di sommare e sottrarre, fu progettato per calcolare tabelle di numeri utili per la navigazione. L'intera costruzione della macchina fu pensata per eseguire un solo algoritmo, il metodo matematico delle differenze finite.
Evoluzione delle generazioni dei computer
Prima generazione: valvole
All'inizio della guerra, lo spionaggio britannico riuscì a procurarsi una macchina ENIGMA grazie all'aiuto dei servizi segreti polacchi che erano riusciti a rubarla ai tedeschi. Tuttavia, per poter decifrare un messaggio codificato, occorreva svolgere un'enorme quantità di calcoli ed era necessario poterlo fare molto velocemente, non appena il comando veniva intercettato, affinché ciò potesse essere di una qualche utilità. Per decodificare questi messaggi, il governo britannico creò un laboratorio segretissimo per la costruzione di un computer chiamato COLOSSUS. Il famoso matematico inglese Alan Turing contribuì alla creazione del COLOSSUS, il primo elaboratore della storia.
Seconda generazione: la nascita dei transistor
Il transistor fu inventato nel 1948 presso i Bell Labs da John Bardeen, Walter H. Brattain e William Shockley. Per questa scoperta ricevettero nel 1956 il premio Nobel per la fisica. In 10 anni il transistor rivoluzionò i computer al punto che nei tardi anni '50 i computer a valvole divennero obsoleti.
Il primo computer a transistor fu costruito presso il Lincoln Laboratory del MIT. Il PDP-1 della DEC (primo videogame) ci fu dovuto principalmente al fatto che i finanziatori che avevano fondato la DEC erano fermamente convinti che non vi fosse mercato per i computer. Infatti, si affermò principalmente per la vendita di schede di circuiti di piccole dimensioni. PDP-1 era costituito da un display visuale e dalla capacità di disegnare punti in qualsiasi zona dello schermo, per poter giocare a Spacewar, facendo così conoscere al mondo il primo videogame della storia.
Terza generazione: la nascita dei circuiti integrati
Nel 1958, l'invenzione dei circuiti integrati su silicio da parte di Robert Noyce permise di realizzare su un unico chip decine di transistor. Questo metodo di assemblaggio rese possibile la costruzione di computer più piccoli, più veloci e più economici rispetto ai loro predecessori basati su transistor.
Quarta generazione: tecnologia VLSI
La tecnologia VLSI (Very Large Scale Integration, "integrazione a larghissima scala") permise di inserire in un unico chip decine di migliaia, poi centinaia di migliaia e infine milioni di transistor. Questo sviluppo portò velocemente alla realizzazione di computer più piccoli e più veloci.
Quinta generazione: ubiquitous computing
Questo modello, ideato dallo scomparso Mark Weiser, venne originariamente chiamato ubiquitous computing ("computazione onnipresente"), anche se spesso ci si riferisce a esso con il termine pervasive computing.
I primi albori di internet
Vinton Cerf, uno dei padri fondatori di Internet, contribuì significativamente allo sviluppo della rete. Nel 1972, Ray Tomlinson inviò il primo messaggio di posta elettronica sulla rete ArpaNet. Gli anni '70 videro una forte espansione della rete ARPAnet, grazie alla facilità con la quale si aggiungono nuovi host o computer.
Nella rete vengono utilizzati i protocolli TCP e IP, che permettono la comunicazione tra i sistemi informatici diversi: il TCP si occupa della 'pacchettizzazione' e assemblamento dei pacchetti mentre l'IP si occupa dell'instradamento; la stessa struttura logica che ancora oggi si usa.
Il Gopher, primo link, introdusse nelle pagine anche altri elementi come fotografie, disegni, suoni, filmati, e tutto ciò che è rappresentabile in file; anche questi possono essere o rappresentare link, secondo il paradigma dell'ipertesto che già nel 1965 Theodor Nelson aveva predisposto.
Mosaic, il primo software client a supportare HTTP, fu sviluppato con il contributo dello studente Marc Andresseen. Questo software rivoluzionò la navigazione sul web, permettendo la visualizzazione di pagine HTTP.
UseNet, uno dei primi importanti sistemi di messaggistica distribuiti, fu l'Unix User Network o Usenet, che implementava il protocollo UUCP per trasportare messaggi e notizie. Nel 1990, la nascita di Internet coincise con la dismissione di Arpa-net.
Netscape, con supporto di tutti i protocolli, era in grado di visualizzare pagine HTML, inviare posta e trasferire file. Inoltre, a tale navigatore potevano essere aggiunti degli external viewer, ovvero sottoprogrammi in grado di eseguire funzioni che non poteva svolgere il programma principale. La Netscape Corporation fu fondata con Jim Clark, fondatore a sua volta nell'82 di Silicon Graphics; la società ebbe il più veloce sviluppo che la storia della borsa americana ricordi. Da allora, la Netscape ha proposto il proprio software, Navigator, come browser (ovvero sfogliatore) di pagine Internet.
Internet addiction disorder (IAD)
Chiacchieriamo in chat, mandiamo e-mail, scambiamo e condividiamo file, conosciamo persone che non abbiamo mai visto, parliamo con amici di cui non abbiamo mai sentito la voce, avviamo e gestiamo rapporti di lavoro online; non tutti e non ovunque.
Dalle reti neurali alla robotica
Intelligenza artificiale (IA)
Si intende generalmente l'abilità di un computer di svolgere funzioni e ragionamenti tipici della mente umana. Nell'ambito dell'informatica, essa comprende la teoria e le tecniche per lo sviluppo di algoritmi che consentano alle macchine di mostrare un'abilità o un'attività intelligente, almeno in ambiti specifici.
Sistemi esperti
Un sistema esperto è un programma che cerca di riprodurre le prestazioni di una o più persone esperte in un determinato campo di attività. Al contrario dei tradizionali sistemi algoritmici, la cui conoscenza è direttamente implementata nel procedimento di risoluzione, la conoscenza rappresentata in un sistema esperto è dinamica, può crescere, il che significa anche che essa può all'inizio essere incompleta e persino contraddittoria.
Human Information Processing (HIP)
L'HIP è la teoria che senza alcun dubbio rappresenta meglio le modalità di acquisizione e conservazione delle informazioni sia dell'uomo che successivamente dell'elaboratore. I progressi tecnologici in ambito informatico entrarono a far parte della vita degli psicologi già negli anni '40 e '50. Molti ricercatori iniziarono ad utilizzare il calcolatore come prototipo di cervello meccanico da relazione con il cervello umano.
Informatica nei disturbi dell'apprendimento
L'approccio ai disturbi dell'apprendimento si rapporta alle nuove tecnologie informatiche grazie in particolare all'uso degli ipertesti che favoriscono la progettazione di percorsi di studio personalizzati alle diverse esigenze.
Linguaggio Lisp
Il linguaggio di programmazione Lisp è stato inventato nel 1960 da John McCarthy ed è di gran lunga il linguaggio più utilizzato nel campo dell'intelligenza artificiale e dell'elaborazione simbolica in generale. Il Lisp è un linguaggio funzionale per l'elaborazione di strutture simboliche, dove per struttura simbolica si intende una struttura dati adatta a rappresentare espressioni formali, come ad esempio le formule della matematica e della logica simbolica.
Reti neurali
A partire dalla seconda metà del secolo scorso, attraverso l'introduzione di reti di unità logiche elementari (drastiche semplificazioni del neurone biologico proposte dal neurofisiologo W.S. McCulloch e dal logico W.H. Pitts nel 1943), si è tentato di realizzare artefatti intelligenti.
-
Appunti Informatica
-
Appunti Informatica
-
Appunti Fondamenti di Informatica
-
Appunti Fondamenti di informatica