Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

comportamento.

Non tiene in considerazione il ruolo della memoria quando la riposta appare tempo dopo

• lo stimoli.

Accelerazione nello sviluppo tecnologico, come ad esempio l'invenzione del computer

• digitale, ad opera di Johann Von Neumann nel 1944. I primi studi a riguardo risalgono al

'600 grazie a Leibnitz e Pascal, in seguito si aggiunsero scienziati come Babbage,

Hollerith e Zuse. L'accelerazione maggiore nella nascita del computer risale alla seconda

guerra mondiale nella progettazione di armi come la bomba atomica.

L'affacciarsi di nuove discipline, tra le quali:

• Teoria matematica della computazione: Alan Turing 1936

▪ Cibernetica: Norbert Wiener 1943

▪ Teoria dell'informazione: Claude Shannon 1948

▪ Intelligenza artificiale: Alan turing 1950, gruppo del Darthmouth

▪ College 1956

Il computer digitale

L'architettura di Von Neumann, descrive la composizione di un computer digitale, le componenti

sono:

1. Unità aritmetico-logica: Esegue operazioni su quantità rappresentate da cifre binarie pari

a 0 o 1

2. Unità di controllo: Stabilisce quali operazione deve compiere l'unità aritmetico-logica, in

accordo a quanto stabilito da un programma

3. Memoria

Questo sistema può essere definito come un manipolatore simbolico universale, ovvero, è in

grado di manipolare qualsiasi tipo di simboli. Questo per i seguenti motivi:

La manipolazione di simboli è sempre basata su regole, le quali stabiliscono come una

• sequenza di simboli può sostituire un'altra sequenza di simboli, come ad esempio la somma

aritmetica, oppure il modus ponens in logica.

Una regola di manipolazione su simboli può esser tradotta in regola di manipolazione su

• dei numeri

Una regola di manipolazione può essere espressa in operazioni su dei numeri binari

Lo svantaggio del sistema binario è che richiedono un aumento dello spazio in memoria, numeri

decimali di poche cifre, in binario risultano composti da molte più cifre, questo svantaggio viene

comunque colmato dalla velocità e dalla memoria elevata dei computer moderni.

Dal momento che i dati di un'operazione e le istruzioni di un programma sono indistinguibili

all'interno di una memoria di un computer, il computer è un sistema flessibile, imprevedibile e

capace di auto-organizzarsi, infatti un programma può agire su un altro programma modificandolo

o addirittura modificando se stesso, l'unico limite è dato dalla memoria del computer. Con queste

premesse, ci si chiede se il comportamento di un computer può essere imprevedibile come quello

umano, e il funzionamento del computer può aiutare a comprendere il funzionamento della mente

umana. Esempi di primi computer sono:

MARK I: Costruito dall'università di Harvard nel 1944

• ENIAC: Usat da Von Neumann per costruire la bomba atomica nel 1944

Lo sviluppo tecnologico del computer vide le seguenti tappe:

Gottfried Wilhelm von Leibnitz fu l'inventore della prima macchina calcolatrice della

• storia

Charles Babbage e la contessa Ada Lovelace crearono il progetto software ed hardware

• del primo computer

George Boole scoprì le leggi matematiche che governano l'elaborazione digitale simbolica

• Alan Mathison Turing nel 1936 creò la teoria matematica della computazione e propose

• un modello astratto di macchina calcolatrice, ovvero la macchina di turing

Herman Hollerith imprenditore che nel 1889 ebbe l'idea di utilizzare schede perforate per

• costruire la prima macchina calcolatrice elettromeccanica. Dall'azienda da lui fondata ebbe

origine l'odierna IBM.

Teoria matematica della computazione

Iniziata nel 1936 dal matematico Alan Turing, si occupa dello studio astratto degli aspetti logici

che sottostanno all'attività di calcolo. Secondo turing il calcolo è composto dalle seguenti

caratteristiche:

E' composto da passi discreti ed agisce su simboli.

• Richiede una memoria in cui leggere i dati ed immagazzinare risultati temporanei prodotti

• ad ogni passo di calcolo, in questo senso la porzione di memoria che esso deve occupare

deve essere determinata in anticipo.

Il passo di calcolo richiede tre operazioni:

• 1. Lettura: I simboli contenuti nella porzione di memoria esaminata vengono letti

2. Cancellazione: Il simbolo viene cancellato e sostituito con uno nuovo, sulla

base delle regole che dipendono dal calcolo che si sta effettuando

3. Spostamento: Dalla porzione di memoria considerata, ci si sposta verso una

nuova porzione di memoria.

Sulla base di queste caratteristiche Turing, ha inventato un prototipo di qualsiasi dispositivo di

calcolo, sia esso una macchina, un animale o un essere umana. Questo dispositivo è chiamato la

macchina di turing. È composto da:

Regole di calcolo: Definiscono le operazioni che guidano i passi di calcolo

• Apparato di lettura e scrittura: Effettua le operazioni di calcolo

• Nastro: Rappresenta la memoria infinita del calcolatore

Dai suoi studi turing formula il :

Teorema della fermata: Le macchine di turing sono progettate in modo che una volta che

• ha inizio un processo di calcolo, risulta impossibile determinare a priori quando e se il

cacolo si arresterà, di conseguenza potrebbe continuare all'infinito. Questo spiega come

un dispositivo deterministico come un computer può essere imprevedibile. Questo teorema

è in linea con il il funzionamento degli esseri umani e l'imprevedibilità dei loro

comportamenti. Tuttavia i computer attuali non sono macchine di turing, questo perché la

loro memoria è limitata, anche se dal punto di vista pratico una memoria molto grande può

non distinguere il suo funzionamento da quello di una macchina di turing.

Nella teoria matematica della computazione si distinguono 2 tipi di macchine:

1. Automi finiti: Posseggono un numero finito di ingressi, uscite e stati interni, ad esempio

una calcolatrice digitale

2. Automi infiniti: Almeno uno degli aspetti degli automi finiti possiede infinite possibilità,

ad esempio il cervello umano, o il sistema costituito da un computer e l'uomo che lo

programma. Si possono ulteriormente suddividere in

Macchine digitali: Le infinite possibilità possono essere contate

▪ nell'insieme dei numeri naturali. La macchina di turing rientra in questo

genere e può essere costruita connettendo un computer digitale, con una

memoria infinita. Questa condizione può esser ricreata attraverso

l'interazione tra un soggetto umano ed un computer. Quest'ultima

concezione a portato molti ricercatori a definire la mente come una

macchina di turing, questa ipotesi è stata giustificata dai primi successi

nella progettazione di programmi per computer che svolgono compiti

intelligenti.

Macchine analogiche: Le infinite possibilità appartengono ad un insieme

▪ continuo come quello dei punti di un segmento, perciò non possono

essere contate. Il cervello rientra tra queste macchine.

La teoria della computazione di Turing, ha portato alla realizzazione di computer digitali che

generarono la convinzione che funzionassero come il cervello umano, da qui nasce il termine

cervelli elettronici. Questa concezione oggi è largamente superata.

Cibernetica

Proposta nel 1943 dal matematico Norbert Wiener, il cui scopo è lo studio unificato, dei processi

di controllo e comunicazione che accomunano gli esseri umani, gli animali e le macchine.

Wiener propone questa questa nuova disciplina in quanto scopre che vi sono dei principi generali

comuni che regolano il funzionamento dei sistemi biologici e quelli delle macchine. Egli fu

contattato nel periodo dal 1940/1942, ovvero all'inizio della seconda guerra mondiale dalle

autorità militari per realizzare un sistema di puntamento antiaereo, basato sulla previsione del

movimento dell'aereo nemico. Questa circostanza lo portò ad interessarsi sia del processo di

retroazione sia dello studio del comportamento diretto ad uno scopo. In quello stesso periodo

iniziò una collaborazione con i fisiologici Cannon e Rosenblueth, il cui scopo era modellizzare il

comportamento del cuore. Wiener nel corso di queste ricerche implementò gli stessi concetti che

aveva introdotto nella progettazione del sistema di puntamento antiaereo. Questa circostanza lo

convinse che questi concetti avessero un valore universale e che potessero permettere la

descrizione di qualunque processo di controllo e comunicazione sia di esseri viventi che di

dispositivi artificiali.

Teoria dell'informazione

Teoria proposta nel 1948 da Claude Shannon in un celebre articolo intitolato A mathematical

Theory of Communication. Essa si occupa di descrivere quantitativamente la situazione in cui

un emettitore trasmette un segnale ad un ricevitore. Questa situazione deve avere opportune

condizione:

Ogni segnale è costituito da una sequenza finita di simboli elementari

• Ogni simbolo elementare ha una precisa probabilità a priori di essere emesso

• dall'emettitore.

L'informazione associata ad un segnale si identifica con una misura della sorpresa provata dal

ricevitore quando riceve il segnale. Quando il dato ottenuto è predeterminato e non genera una

sorpresa, esso non viene inteso come informazione.

Nel dettaglio la sorpresa viene calcolata a partire dalla conoscenza del ricevitore riguardo la

probabilità a priori che venga emesso un determinato simbolo elementare. Se un segnale è

composto da un singolo simbolo elementare, la cui probabilità di emissione è pari a P,

l'informazione è data dalla formula -log in base 2 di P. Questo ragionamento rapportato ad un

segnale binario che può essere 0 oppure 1, porta alla conclusione che l'informazione da lui veicolata

data la sua probabilità di 0,5, sarà uguale ad 1, di conseguenza, ogni singola cifra binaria è

associata all'informazione di 1 BIT.

Nel dettaglio l'informazione emessa dall'emettitore, passa attraverso un canale di trasmissione, in

questa fase di trasmissione il messaggio può essere influenzato dal rumore, la presenza di

quest'ultimo fa si che il segnale che arriva al ricevitore non sia identico a quello inviato

dall'emettitore.

Il concetto di informazione è in contrapposizione con quello di entropia, il secondo principio della

termodinamica postula che ad un aumento dell'entropia, aumenta il disordine dell'interno

universo, di conseguenza, un aumento dei valori e dei dati porta ad un elevato disordine e quindi

alla fine. L'informazione invece aumenta l'organizzazione e diminuisce il disordine, perciò essa

può esser definita come il contrario dell'entropia. Si può affermare che la vita e la ricerca delle

informazioni diminuisce l'entropia.

Questa teoria ha mostrato che è possibile costruire una teoria matematica su qualcosa di

inosservabile come l'informazione, senza ricorrere a metodi adoperati dalla fisica o dalla biologia,

questo segna il distacco dal comportamentismo che ometteva l'esistenza dell'informazione.


ACQUISTATO

1 volte

PAGINE

8

PESO

41.71 KB

AUTORE

Lavir

PUBBLICATO

+1 anno fa


DESCRIZIONE APPUNTO

Riassunto per l'esame di Psicologia generale, basato su appunti personali e studio autonomo dei testi consigliato dal docente Eliano Pessa:
"Manuale di scienza cognitiva", Eliano Pessa, M. Petronilla Penna.
"Psicologia Generale", Luigi Anolli, Paolo Legrenzi.
Gli argomenti principali trattati sono i seguenti:
Studio della conoscenza
Intelligenza artificiale
Teoria matematica computazione
Cibernetica
Approccio computazionale simbolico
Approccio computazionale sub-simbolico


DETTAGLI
Corso di laurea: Corso di laurea in scienze e tecniche psicologiche
SSD:
Università: Pavia - Unipv
A.A.: 2016-2017

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Lavir di informazioni apprese con la frequenza delle lezioni di Psicologia generale e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Pavia - Unipv o del prof Pessa Eliano.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Psicologia generale

Riassunto esame Psicologia generale della sezione Attenzione, Docente Eliano Pessa
Appunto
Riassunto esame Psicologia generale della sezione Percezione, Docente Eliano Pessa
Appunto
Riassunto esame Psicologia generale della sezione Immagini mentali, Docente Eliano Pessa
Appunto
Riassunto esame Psicologia generale della sezione Logica e ragionamento, Docente Eliano Pessa
Appunto