Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

centralizzata come quella esposta da Atkinson e Shiffrin, non era possibile perdere

alcune funzioni della MLT senza danneggiare la MBT, perché le due erano collegate

in maniera strettamente consequenziale.

Nonostante il modello di Atkison e Shiffrin presenti un’eccessiva enfasi

sull’importanza della reiterazione, questo processo è sicuramente una delle principali

vie di trasferimento dell’informazione dalla MBT alla MLT. Una volta codificati nel

magazzino, i ricordi della memoria a lungo termine affrontano un processo di

consolidamento legato principalmente al lavoro dell’ippocampo e alla formazione

degli engrammi, aggregazioni di assemblamenti cellulari fra neuroni occupati alla

formazione di legami sinaptici al fine di collegare esperienze passate a

comportamenti attuali relativi ad un dato ricordo. Secondo la teoria di apprendimento

mnemonico di Donald Hebb, se due neuroni si attivano contemporaneamente, la loro

interconnessione sinaptica viene rafforzata e permette la consolidazione di tracce

mnestiche conservate al fine di rappresentare entità mnemoniche esterne ed interne. I

processi di consolidamento ippocampale hanno genericamente una durata di poche

settimane, al seguito delle quali il ricordo in questione subisce una seconda fase di

consolidamento più stabile, nella quale l’ippocampo collabora con alcune aree

corticali. Il lavoro dei processi di codifica e consolidamento nella MLT si basa sul

significato dei ricordi, quanto più un ricordo è stato codificato con una solida

consapevolezza a livello del suo intrinseco significato, quanto più tale ricordo si

stabilizza nel magazzino della MLT durante il consolidamento. Di conseguenza,

organizzare le informazioni percepite consciamente e legarle fra loro con connessioni

significative (anche attraverso rievocazione mnestica di elementi da collegare; oppure

attraverso pratica di rievocazione durante la codifica delle informazioni nella MLT)

contribuisce a rendere più stabile il consolidamento dei ricordi derivanti da tali

informazioni, e, di conseguenza, a rendere più probabile la loro futura rievocazione.

Anche i fattori emozionali influiscono sui processi di recupero delle informazioni

mnemoniche. I pensieri ansiogeni influiscono negativamente sulla rievocazione dei

ricordi, probabilmente perché causano lo scatenarsi di una quantità di pensieri tale da

interferire con l’attivazione mnemonica relativa al recupero delle informazioni

desiderate; in altri casi, se la codifica dell’informazione è avvenuta in uno forte stato

emozionale, la traccia mnestica derivante da tale codifica risulta più stabile e

facilmente recuperabile secondo un processo flashlub; nel caso di ricordi che

implicano stati emozionali traumatici, invece, la psicoanalisi freudiana ha ipotizzato

che tali ricordi possono risultare molto difficili da rievocare a causa della loro

rimozione tramite processi inconsci di autodifesa da sentimenti di sofferenza. Il

contesto del luogo di percezione e codifica è un altro elemento fondamentale che, se

rievocato durante il recupero, ne accelera il processo. Si è dimostrato che la fragilità

di un ricordo a livello di suscettibilità a interferenze e fallimenti di rievocazione

dipende strettamente dalla fase temporale del suo consolidamento. Quanto più la data

di immagazzinamento di un ricordo è lontana dal presente, tanto più quel ricordo è

difficile da ricordare, ma quasi impossibile da modificare o dimenticare del tutto.

Apprendimento e condizionamento

Si definisce apprendimento un cambiamento al comportamento relativamente

permanente, che si verifica in risposta all’esperienza. L’apprendimento non

associativo si riferisce ad un solo stimolo che provoca cambiamenti comportamentali

relativi alla sensibilizzazione (aumento di risposta comportamentale in relazione ad

uno stimolo tipicamente assunto come minaccioso) e all’abituazione (riduzione di

una risposta comportamentale in relazione ad uno stimolo tipicamente innocuo). Per

studiare questo tipo di apprendimento a livello di plasticità neurale, il Nobel Kandel

e il suo gruppo di ricerca hanno lavorato sperimentalmente con Aplysia

californica,una lumaca marina con un sistema nervoso semplice e accessibile. La

stimolazione del tessuto branchiale di questo animale produce come risposta

comportamentale la secrezione di neurotrasmettitori dei neuroni sensoriali che

attivano un motoneurone responsabile della ritrazione della branchia: se la lumaca è

soggetta ad una lieve stimolazione, il processo di abituazione è accompagnato da una

progressiva diminuzione della quantità di neurotrasmettitori secreti; se invece la

branchia è stimolata mediante una scarica elettrica abbastanza intensa, il processo di

sensibilizzazione fa sì che ogni stimolazione successiva a quella intensa produca una

forte secrezione di neurotrasmettitori finalizzata alla ritrazione branchiale.

L’apprendimento associativo implica l’apprendimento delle relazioni che legano più

eventi, di conseguenza la sua complessità necessita un maggior impiego di risorse

cognitive e mnemoniche ed una maggiore diversificazione:

• Nel condizionamento classico, uno stimolo condizionato (SC) che precede

consistentemente uno stimolo incondizionato (SI), diventa un segnale per lo stimolo

incondizionato ed elicita una risposta condizionata (RC), che spesso somiglia alla

risposta incondizionata (RI). Nonostante il comportamentismo abbia prodotto teorie

distruttive riguardo all’oggettività del metodo di studio psicologico, gli studi

comportamentisti hanno prodotto studi molto significativi riguardo al

condizionamento classico. L’etologo Ivan Pavlov, attraverso i suoi studi sugli

animali, non solo dimostrò l’esistenza di riflessi incondizionati ed innati in reazione a

stimoli primari, ma riuscì anche a rendere esplicita la teoria secondo la quale uno SC

può condizionatamente essere messo in relazione con uno SI e con una RI. Nel

processo di acquisizione del condizionamento, ripetuti abbinamenti fra SC e SI

rafforzano l’associazione tra i due, ma se lo SI è ripetutamente omesso, la RC

diminuisce gradualmente fino all’estinzione. Tuttavia, una nuova somministrazione

di abbinamento fra SC e SI sollecita i processi mnestici e produce un veloce

recupero spontaneo del condizionamento precedentemente appreso. E`stato

dimostrato che la corteccia cerebellare possiede alcune funzioni relative alla RI

dell’ammiccamento delle palpebre in relazione allo SI di un soffio nei pressi degli

occhi: uno SC, come ad esempio un suono, può essere appreso associativamente allo

SI e provocare anche abituazione espressa da una depressione a lungo termine della

trasmissione sinaptica a livello della corteccia cerebellare; analogamente, si registra

un potenziamento a lungo termine della trasmissione sinaptica nelle vie neurali

dell’amigdala, in relazione ad uno stimolo condizionato allo SI della paura. Inoltre,

data la natura adattativa di tutti gli esseri viventi, è ragionevole che sia stata

sperimentata la tendenza animale ed umana a generalizzare i condizionamenti appresi

e a discriminarli mediante condizionamento eccitatorio o inibitorio in funzione

della loro valenza adattativa. Ciò che i comportamentisti non furono in grado di

notare, è il fatto che anche i meccanismi di apprendimento sono limitati a vincoli di

natura cognitiva e biologica: uno SC, per essere appreso, deve presentare una

contingenza di condizione con lo SI oltre che una contiguità temporale; inoltre, la

predisposizione genica di ogni soggetto gioca un ruolo fondamentale

nell’apprendimento dei condizionamenti, ad esempio, nei gatti la RC ad uno SC che

implica il disgusto o il rigetto di alcuni cibi è appresa in modo molto più veloce

rispetto ad altri SC o ad altri animali a causa di una chiara predisposizione biologica

ad un adattamento specifico. Il condizionamento classico spiega anche il fenomeno

della tolleranza alla droga, infatti, dopo aver assunto una dose di una sostanza

psicoattiva, il soggetto apprende i condizionamenti relativi a quell’evento e nella

seguente assunzione di quel tipo di droga nelle medesime circostanze, è più preparato

a garantire l’omeostasi e a ridurre l’effetto psicoattivo della sostanza.

• Nel condizionamento operante, gli organismi apprendono le conseguenze

condizionate dai propri comportamenti, esplorando come le proprie azioni possano

risultare fondamentali nell’interazione nell’ambiente e nell’apprendimento di

continue novità. Thorndike e Skinner, con i loro esperimenti, dimostrarono che i

processi di apprendimento animale consistono nella continua valutazione operante di

prove ed errori di generazione casuale, selezionando, mediante la legge dell’effetto,

solo le risposte che provocano conseguenze positive. Come il condizionamento

classico, anche il condizionamento operante è soggetto ad acquisizione; estinzione;

generalizzazione; discriminazione; dipendenza dalla contingenza (in questo caso la

contingenza dei condizionamenti è assunta dalla consapevolezza del controllo delle

conseguenze mediante i propri comportamenti) e dai vincoli biologici (ad esempio le

fobie per situazioni dannose per lo sviluppo adattativo si sviluppano più facilmente di

altre). Tuttavia, in questo caso questi meccanismi sono dettati da componenti di

rinforzo e punizione nell’interazione con l’ambiente: se ad una data azione

corrisponde un rinforzo relativo ad una ricompensa, quell’azione verrà generalizzata

con più facilità; se ad un comportamento corrisponde una punizione, l’apprendimento

relativo a quel comportamento avrà una natura inibitoria. Questi fenomeni sono alla

base dei programmi di rinforzo utilizzati nel modellaggio (addestramento) e nel

condizionamento animale ed umano. E`stato dimostrato che i programmi di

rinforzo a rapporto variabile (rinforzo presente dopo un numero imprevedibile di

risposte) sono i meccanismi di condizionamento operante che assicurano una

maggiore quantità di RC, la dipendenza dal gioco d’azzardo spesso è strettamente

correlata a questa componente del condizionamento operante. Tuttavia, è stato

appurato che l’apprendimento derivante da meccanismi di punizione si rivela spesso

poco efficace, in quanto in questi casi i soggetti spesso si trovano in uno stato di

disagio che non permette un lucido apprendimento della valenza delle interazioni fra

sé e l’ambiente.

• L’apprendimento complesso è un tipo di apprendimento che si basa su importanti

componenti mnemoniche e cognitive. Negli anni 30’ lo psicologo Edwuard C.

Tolman dimostrò l’esistenza di un apprendimento latente indipendente dal rinforzo,

il quale è messo in pratica solo davanti alla comparsa del rinforzo. Gli esseri umani

sviluppano dei processi complessi di apprendimento osservativo (spesso grazie ai

neuroni specchio), nei quali il rinforzo è indiretto ed è correlato alla stregua di un

modello osservato (questo meccanismo è alla base della possibilità che programmi

televisivi violenti possano influire a comportamenti violenti negli osservatori

influenzati, spesso nei bambini). I processi di apprendimento complesso dipendono

strettamente dal senso di efficacia personale relativo all’autostima di ogni individuo

e alle credenze preesistenti che influiscono l’apprendimento della realtà mediante

processi di tipo top-down e associazioni spurie.

Ogni tipo di condizionamento ben appreso corrisponde ad un equilibrio

motivazionale adeguato: la diretta associazione fra apprendimento e rinforzo esterno

può portare ad un effetto di ipergiustificazione, nel quale la ricompensa diventa il

fine ultimo di un comportamento. In questo caso, l’ apprendimento perde motivazione

intrinseca e, di conseguenza, consapevolezza di controllo, senso di efficacia personale

ed efficienza.

Rappresentazioni mentali e ragionamento

Ogni tipo di rappresentazione mentale umana è un tipo di rappresentazione soggettiva

e parziale della realtà, tuttavia è possibile definire le modalità principali con le quali i

processi di rappresentazione mentale agiscono per conferire ai soggetti le conoscenze

di cui hanno bisogno nel loro sviluppo adattativo.

• Le rappresentazioni esterne possono esprimersi mediante notazioni linguistiche

(simboli discreti elementari espliciti, regolamentati sintatticamente; producono

informazioni aspecifiche astratte) e rappresentazioni pittoriche (unità di relazioni

spaziali implicite non discretamente regolamentate; producono informazioni concrete

polisensoriali).

• Le rappresentazioni mentali interne sono molto studiate in letteratura e presentano

una diatriba concettuale tutt’ora non completamente risolta: L’uomo si rappresenta

mentalmente la realtà mediante immagini mentali (Kosslyn sosteneva che l’uomo si

rappresentasse mentalmente la realtà mediante rappresentazioni analogiche, ovvero

parallelamente al mantenimento della dimensione sensoriale implicita analogamente

riguardante la percezione degli elementi da immaginare o rappresentare) o

rappresentazioni proposizionali (Pylyshyn sosteneva che le immagini mentali

fossero degli epifenomeni, ovvero delle conseguenze prive di causalità adattativa

derivanti dalla fondamentale rappresentazione proposizionale del mondo,

un’elaborazione sequenziale avente una natura astratta ed esplicita)? La

dimostrazione del potere causale delle immagini mentali è stata ricercata più volte da

Kosslyn con esperimenti riguardanti la scansione mentale di immagini (mappa

memorizzata e immaginata: spostarsi mentalmente da un punto ad un altro è in

proporzione analogo allo spostamento percettivo sull’immagine, ma l’esperimento

non è per certo attendibile data l’influenza del “come se” al soggetto sperimentato); la

rotazione mentale (lettera R memorizzata, presentata lettera R ruotata e richiesta al

soggetto: la lettera è spazialmente speculare a quella memorizzata?: rotazione

mentale analogamente in proporzione con rotazione percettiva, ma la proporzione

non è mantenuta con aumento di complessità delle immagini) e l’immage tracing

(analogia fra acuità visiva percettiva e mentale, relazioni analogiche del medium

spaziale di oggetti percepiti ed immaginati). Oggi l’importanza causale delle

rappresentazioni analogiche è stata dimostrata grazie ad esperimenti di trans

cranical magnetical stimulation (TMS), nei quali l’inibizione di aree visive

primarie dei soggetti ne rallentava o ne impediva i compiti di immaginazione (inoltre,

anche i pazienti affetti da neglect presentano grandi difficoltà nell’immaginare oggetti

percepiti dalla parte contro laterale a quella danneggiata). In

funzione di un’economia cognitiva adattativa, la mente umana rappresenta la realtà

mediante categorizzazione in concetti. Un concetto rappresenta l’insieme delle

caratteristiche relative a più oggetti osservabili, la quale categorizzazione in unità

generali fondamentali riduce la complessità della realtà, facilita l’identificazione

rappresentativa e permette di effettuare previsioni top down più o meno certe sugli

oggetti da rappresentare mentalmente. Ogni concetto è formato da prototipi

(caratteristiche del concetto assunte mediante la strategia degli esemplari

principalmente in età non adulta e utilizzabili nella rappresentazione di concetti

fuzzy scarsamente definiti) e nuclei (caratteristiche fondamentali per l’esistenza e l’

unicità di un concetto, sviluppabili con la strategia della verifica delle ipotesi, la

quale è neurotipicamente eseguibile con la crescita da dopo l’infanzia). Si può inoltre

affermare che i processi di categorizzazione hanno natura gerarchica. Eleanor Rosch,

con la sua teoria dei prototipi, divide la categorizzazione dei concetti in tre livelli

gerarchici principali: la categoria sopraordinata, la categoria di base e la categoria

subordinata. La categoria sopraordinata rappresenta la massima generalizzazione di

un concetto e tutti i suoi sottolivelli presentano delle precisazioni che identificano

oggetti specifici del concetto. Tuttavia, il livello della categoria di base è definito

come il principale livello gerarchico di rappresentazione mentale al quale per primo

l’essere umano categorizza i concetti che si rappresenta. E` dimostrato che mentre la

rappresentazione mentale per somiglianza necessita totalmente del recupero di

informazioni dalla MLT, la rappresentazione per categorizzazione presenta una

specializzazione diversificata che permette un’importante economia delle risorse. I

processi di costruzione categorica dei concetti e delle loro rappresentazioni mentali si

servono di molte aree celebrali (aree percettive per gli animali ed aree funzionali per

gli oggetti; living/non living…) e i loro processi mnemonici di immagazzinamento e

recupero dipendono dal rapporto fra memoria episodica e semantica.

Le rappresentazioni mentali, organizzate in modo contingente e sequenziale nel

pensiero, danno forma al ragionamento. Nel ragionare, l’essere umano utilizza

concetti logici appresi in forma deduttiva (neuro biologicamente attivanti aree

cerebrali dell’emisfero destro, specie posteriori perché relative a compiti di tipo

spaziale) e concetti induttivi appresi in forma intuitiva (neuro biologicamente

attivanti aree dell’emisfero sinistro, specie nella regione della corteccia frontale dove

risiedono strutture neurali con funzioni di stima). Tuttavia, nel corso dello sviluppo

ontogenetico, l’adattamento alla risoluzione dei problemi quotidiani ha portato alla

strutturazione di strategie di ragionamento complesse e non dipendenti

esclusivamente dalla logica o dal pragmatismo. La scuola della psicologia della

Gestalt fu la prima ad ammettere che la risoluzione dei problemi negli animali, e

analogamente negli esseri umani, non si fonda esclusivamente sugli apprendimenti

prova-errore; essi infatti attribuiscono una finalità intrinseca ai loro comportamenti e,

oltre all’utilizzo mnemonico – cognitivo dell’associazionismo con esperienze

pregresse nei problem solving riproduttivi, sono capaci di servirsi di processi di

intuizione repentina (insight) sulla struttura e sulla ristrutturazione di un probelm

solving produttivo. La tipica difficoltà nel passare da una risoluzione riproduttiva ad

una produttiva si spiega con il concetto di fissità funzionale basata

sull’enistellung(atteggiamento/disposizione) verso la riproduttività delle soluzioni ai

problemi. La scuola della Gestalt ha fornito importanti nozioni sul problem solving,

ma non ne ha specificato le circostanze e le condizioni. Nel 1972, i due esponenti

della scienza cognitiva Newell e Simon hanno enunciato la teoria da Nobel dello

spazio problemico: la soluzione di un problema può essere vista come l’esplorazione

dei diversi percorsi che portano alla soluzione (torre di Hanoi) e lo spazio del

problema consiste nell’insieme di tutti i possibili percorsi di ragionamento finalizzati

alla risoluzione del problema. La struttura di un qualsiasi problema può essere

descritta come un insieme fra stato iniziale, stato intermedio e stato finale; il

passaggio da uno stato all’altro è permesso dall’applicazione di alcuni operatori di

ragionamento. In una pura logica computazionale gli algoritmi analizzano tutte le

possibili procedure applicabili per la risoluzione di ogni problema che ammetta una

soluzione, ma i bisogni adattativi animali hanno portato allo sviluppo di alcuni

metodi euristici finalizzati alla riduzione dello spazio problemico ed alla veloce

risoluzione dei problemi, pur non assicurando la certezza algoritmica: l’euristica

dell’analisi dei mezzi fini riducono la distanza fra stato iniziale e stato finale del

ragionamento ponendo dei sotto obiettivi da raggiungere per gradi e con mezzi

appropriati; l’euristica del ragionamento all’indietro velocizza il problem solving

individuando lo stato finale del ragionamento e, di conseguenza, gli steps necessari

per la risoluzione del problema. Dal momento che l’euristica corrisponde ad una

naturale acquisizione animale, essa si basa sui primitivi concetti di apprendimento e

pensiero (somiglianza; causalità; reperibilità; rappresentatività; conferma relative alle

conoscenze pregresse) e, di conseguenza, spesso la complessità di un problema trae

in inganno il ragionamento euristico portando ad ignorare l’influenza di alcuni

fondamentali concetti puramente razionali (probabilità; congiunzione …). Spesso

abbiamo difficoltà a cambiare strategia di risoluzione in uno stesso ragionamento ed è

dimostrato che l’utilizzo di impulsività inconscia nel problem solving rispetto al puro

ragionamento presenta più efficacia nei problemi complessi che in quelli semplici.

L’effetto framing dimostra la tendenza umana ad essere influenzati nella risposta ad

un problema dal modo in cui viene posto tale problema, che sollecita le nostre

conoscenze pregresse e i nostri concetti di apprendimento primari. Il GPS (general

problem solving) consiste in una generale definizione delle rappresentazioni esplicite

nei comportamenti di problem solving, mediante la simulazione su calcolatore di tali

comportamenti. Questa teoria scientifico-cognitiva consente di osservare in maniera

chiara e specifica le strutture e le funzioni comportamentali del ragionamento nel

problem solving; tuttavia, spesso, si presenta come un’insieme di regole astratte

indipendenti dal dominio ecologico del problema, scontrandosi imprescindibilmente e

concettualmente con la visione evoluzionistica dello sviluppo psicologico.

Si definisce expertìse l’insieme delle capacità che rendono un individuo più abile

rispetto ad altri nell’eseguire compiti di problem solving in un dato dominio.

Attraverso lo studio dell’expertìse negli scacchi, si è arrivati alla conclusione che gli

esperti non effettuano un approccio alla risoluzione di tipo bruto (logaritmico), bensì

utilizzano strategie euristiche più specializzate e mirate rispetto a quelle dei novizi.

Inoltre, i novizi dimostrano una tendenza al ragionamento all’indietro maggiore di

quella degli esperti. L’esperienza di interazione con problemi dello stesso dominio

fornisce maggiore conoscenza mnemonica del dominio, l’ampliamento dei chuncks

relativi alle mosse utili da effettuare nella scacchiera permette all’esperto una

migliore rappresentazione del problema, e, di conseguenza, una maggiore praticità

nell’esercizio di problem solving per il dominio di interesse. E`

neuropsicologicamente dimostrato che abilità di alto livello relative al ragionamento,

al problem solving e alla pianificazione e previsione futura risiedono nella corteccia

cerebrale prefrontale. Soggetti con lesioni nella corteccia prefrontale mostrano

difficoltà nel gestire attività quotidiane, prendere decisioni e programmare eventi

futuri. In particolare, i lobi frontali sono coinvolti nella capacità di integrare

rappresentazioni complesse.

Intelligenza

Il concetto di intelligenza è uno dei più controversi dell’intera storia della psicologia,

la quale è piena di teorie sulla sua definizione e sulle sue particolarità. I test

sull’intelligenza sono alla base di questo percorso di comprensione concettuale e sono

utilizzati in tutto il mondo anche a scopo selettivo; tuttavia, essi si basano sulla

possibilità di misurare con certezza l’intelligenza basandosi su di una solida teoria,

ma questo prerequisito fondamentale è ancora lontano dall’essere definito parte della

concreta realtà. I primi test sul’intelligenza vennero svolti da Francis Galton, cugino

di Charles Darwin, il quale, basandosi sul concetto di ereditarietà dell’intelligenza,

effettuò alcuni studi statistici su criteri di intelligenza definiti, al fine di dar vita ad un

processo di eugenetica umana. Con suo grande disappunto, Galton scoprì che i suoi

test non differenziavano i più eminenti scienziati britannici dal resto della

popolazione. Nel 1881 il governo francese incaricò Alfred Binet di costituire un test

di intelligenza che dividesse le capacità dei bambini in modo da indirizzarli verso

programmi scolastici adeguati. Binet introdusse il concetto di età mentale, creando

una scala di intelligenze che confrontasse l’età biologica di un bambino con la sua età

relativa alle sue capacità intellettive. Nel 1916 questo test venne integrato creando la

scala di intelligenza Standford – Binet (QI = EM/EC ∙ 100), la quale ancora adesso

è considerata per misurare il QI umano. Un’altra scala di intelligenza fondata su

quella di Standford – Binet è la scala di intelligenza Wechsler per adulti, la quale

valuta molte sotto – abilità correlate con la Standford Binet e le integra in un unico

punteggio. Sia la WAIS che la Standford – Binet rappresentano dei buoni predittori

del rendimento scolastico. Charles Spearman, basandosi sull’idea dei suoi

predecessori che esistesse un’intelligenza generale che si manifesta in vari modi,

introdusse il metodo di misurazione dell’intelligenza mediante analisi fattoriale, che

esamina le correlazione fra più test di intelligenza e li riduce ad un fattore di

dimensioni indipendenti. Spearman definì g il valore di intelligenza generale di ogni

persona e s ogni fattore posseduto da quella persona. Ricerche conseguenti hanno

dimostrato l’instabile dipendenza di questa teoria dagli item di analisi, ciò nonostante,

l’analisi fattoriale rimane una tecnica importante per lo studio del rendimento

intellettivo. D’altra parte, a ridosso degli anni 2000 è sorta la concezione

dell’intelligenza come un’insieme di capacità a sé stanti: Rymond Cattel aveva già

suddiviso l’intelligenza generale in intelligenza fluida (ragionamento produttivo) e

cristallizzata (ragionamento riproduttivo) e nel 2004 Gardner enunciò la teoria delle

intelligenza multiple di Gardner. Lo psicologo analizzò ogni tipo di intelligenza da

vari punti, compresi gli individui superdotati e quelli con danno cerebrale, arrivando

a definire sette tipi di intelligenza (linguistica; musicale; logico – matematica;

spaziale; somato – cinestesica; intrapersonale; interpersonale). Questa teoria fornì

importantissime implicazioni nella predizione di successi e insuccessi di individui al

di fuori del sistema scolastico, ma venne criticata a causa della sua scarsa coerenza di

definizione delle intelligenze. Si notava una certa correlazione fra i livelli di abilità

nei vari tipi di intelligenza e Mike Anderson, con la sua teoria, suggerì che le

differenze nell’intelligenza sono dovute a diversità nel meccanismo di elaborazione

di base, che implementa il pensiero e produce conoscenza.

Nel classico dibattito natura – ambiente, lo studio sull’intelligenza riveste un ruolo

molto importante, anche per la sua complessità. L’ereditabilità di un tratto (es.

altezza) può essere definita mediante analisi della varianza delle caratteristiche

genetiche di quel tratto su definiti e testati campioni probabilistici, ma l’unico metodo

utile per mettere in relazione caratteristiche intellettive comparabili in senso genetico

è lo studio dell’intelligenza su gemelli omozigoti. Con questi studi, si è arrivati alla

conclusione che, nonostante la grande influenza esperienziale e ambientale

sull’intelligenza, essa ha anche una natura ereditaria.

Le difficoltà generalizzate di apprendimento vengono definite come un

funzionamento intellettivo al di sotto della media, indicato con punteggi di QI

inferiori a 70 e deficit nel funzionamento comportamentale adattativo; la gravità di

questi disturbi è un continuum che va da livelli di difficoltà lievi a molto gravi.

Questi disturbi possono essere biologicamente causati da disordini metabolici

(fenilchetonuria, malattia di Tay – Sachs), disordini cromosomici (sindrome di Down,

X fragile, trisomia 13 e trisomia 18) ed esposizioni prenatali a rosolia, herpes, sifilide

e droghe (molto influente la sindrome alcolica fetale). Esistono evidenze sperimentali

a sostegno del fatto che interventi educativi precoci intensivi e comprensivi possono

aiutare a ridurre il livello di gravità delle difficoltà generalizzate di apprendimento.

Personalità

Si definisce personalità l’insieme distintivo e caratteristico di pensieri, emozioni e

comportamenti con i quali l’individuo interagisce con l’ambiente fisico e sociale. Nel

corso della storia, gli psicologi della personalità hanno tentato di ridurre l’enorme

numero di caratteristiche che possono essere considerati tratti di personalità ad un

insieme maneggevole che comprenda la diversità della personalità umana. Dopo

numerosi test e metodi di analisi fattoriale, Hans Esyenck formulò una valida teoria

che includeva tutti i fattori di personalità in due principali spettri di instabilità –

stabilità e introversione – estroversione, gettando le basi per l’attuale concezione dei

Big five tratti di personalità (apertura; coscienziosità; estroversione; gradevolezza;

nevroticismo). I test di personalità più utilizzati sono inventari di personalità che

pongono ad ogni persona le stesse domande relative a specializzati item di personalità

progettati per far sì che le risposte conferiscano punteggi nella scala dei Big five, i

quali vengono poi sottoposti ad analisi fattoriale e a test di correlazione. Nella

maggior parte degli inventari gli item sono composti sulla base di una teoria, tuttavia,

esistono inventari costruiti in relazione a specifici criteri esterni: Il Minnesota

Multiphasic Personality Inventory (MMPI) si compone di 550 affermazioni su

reazioni, sentimenti ed esperienze emotive e psicologiche, non fornisce un’analisi

dettagliata e precisa dei tratti di personalità, ma è molto valido nella distinzione fra

soggetti patologici e non; il Q-sort consiste nell’ordinare cartoncini con aggettivi di

personalità in nove pile, attuando descrizioni di personalità esternamente valutative

ed auto valutative, le quali correlazioni attribuiscono utili punteggi di definizione di

personalità. In realtà, le informazioni fornite dai test sulla personalità non sono

sufficientemente complete per essere prese in considerazione scientificamente, né si

costituiscono di una complessità tale da permettere la sintesi dei processi che

influenzano le interazioni individuali con gli ambienti fisici e sociali. Gli studi e le

analisi dei tratti di personalità sono utili in quanto consentono un orientamento

generale nella valutazione delle caratteristiche stabili degli individui, ma la psicologia

della personalità abbraccia diversi tipi di approcci scientifici atti ad un’analisi

integrata della persona nella sua totalità (biologia, sviluppo, apprendimento, pensiero,

emozione, motivazione, interazione sociale).

• L’approccio psicoanalitico si fonda sulla teoria psicoanalitica di Fred sulla

struttura della personalità (Es, Io, Super Io), sulla sua dinamicità (libido inconscia

repressa mediante meccanismi di difesa quali rimozione; repressione;

razionalizzazione; formazione reattiva; proiezione; intellettualizzazione; negazione;

spostamento ed espressa mediante sfoghi e ansia), sul suo sviluppo (stadi

psicosessuali orale; anale; fallico; del complesso di Edipo; del periodo di latenza e

genitale), ma ne riconosce i limiti scientifici e storici. Anna Freud (meccanismi di

difesa) e Carl Gustav Jung (inconscio collettivo) furono i primi importanti

perfezionatori delle teorie psicoanalitiche e nel corso della storia le assunzioni di

Freud sono state ripetutamente analizzate. Nonostante le numerose inadeguatezze

della psicoanalisi freudiana, il suo impatto sulla storia della psicologia ha gettato luce

su elementi fondamentali della personalità umana, soprattutto in relazione

all’esistenza e all’influenza dei processi inconsci e della psicoterapia. Gli psicologi

aderenti all’approccio psicoanalitico talvolta aderiscono a test della personalità di

tipo proiettivo, i quali forniscono stimoli la quale ambiguità permette ai soggetti

testati la libera associazione con proiezioni della propria personalità: il test di

Rorschach consiste nel fornire al soggetto testato una serie di 10 tavole che

rappresentano ciascuna una complessa macchia di inchiostro e ad istruire tale

soggetto a guardare una tavola alla volta e riferire ciò che la macchia gli fa venire in

mente, questo test fornisce valutazioni approssimative e non statisticamente predittive

sullo stato di personalità dell’individuo; il Thematic Apperception Test (TAT)

consiste nel mostrare al partecipante 20 immagini ambigue di persone e scene e

nell’incoraggiare l’individuo a dare libero sfogo alla sua immaginazione relativa ad

ogni immagine, questo test fornisce informazioni relativamente valide riguardo la

rivelazione di bisogni e motivazioni individuali e la predizione di alcuni

comportamenti caratteristici.

• l’approccio comportamentale sottolinea l’influenza ambientale nella formazione

della personalità e nei processi individuali, evolvendo le prime teorie

comportamentiste in uno studio integrato di maggiore validità psicologica. La teoria

comportamentale spiega come le differenze di personalità dipendano dai processi

individuali di apprendimento e condizionamento. Ad esempio, l’ansia è un tratto di

personalità influenzato maggiormente dall’associazione a condizionamenti di tipo

prevalentemente inibitorio.

• l’approccio cognitivo si basa sull’idea che le differenze di personalità originano dal

modo diverso in cui gli individui si rappresentano mentalmente le informazioni,

secondo la teoria dell’apprendimento sociale i processi di apprendimento

consistono in un’integrazione fra processi cognitivi interni e condizionamento. Nel

1986 Albert Bandura ha sviluppato la teoria socio-cognitiva, la quale enfatizza il

determinismo reciproco fra determinanti top down e bottom up nel sistema di

influenze interagenti che hanno effetto sulla personalità individuale. Nella teoria dei

costrutti personali di Kelly si spiega come gli individui costruiscano schemi

concettuali nell’interpretazione di sé stessi e del loro mondo sociale. Nel complesso,

l’approccio cognitivo alla personalità ne enfatizza la fondamentale componente di

agentività, che plasma ed è plasmata dalle influenze ambientali e genetiche.

• l’approccio umanistico definisce gli individui come fondamentalmente buoni e

aspiranti alla crescita e all’autorealizzazione, la quale personalità è modificabile e

attiva nell’esperienza. La salute psicologica dipende da ampi e complessi meccanismi

che non si possono ridurre alla contrapposizione fra Es e Super Io o fra punizione e

rinforzo, per cui ogni cosa che ritardi la piena realizzazione del potenziale individuale

dev’essere messa in attenta discussione. Carl Rogers, basandosi sulla sua esperienza

clinica, elaborò la teoria umanistica secondo la quale l’essere umano possiede una

tendenza attualizzante verso il compimento o la realizzazione di tutte le capacità

dell’organismo, entro i limiti del proprio patrimonio ereditario. Tuttavia, la

complessità del prodotto natura ambiente fa sì che ogni soggetto si costruisca un

proprio concetto di sé più o meno distante dal sé reale e dal proprio sé ideale. La

correlazione fra sé ideale e concetto di sé può essere misurata con il Q- sort e dipende

largamente dall’educazione genitoriale. Una considerazione positiva

incondizionata, affiancata ad una ragionevolezza nell’educazione, riduce

grandemente nell’educato la distorsione del suo concetto di sé e, di conseguenza, la

sua predisposizione all’ansia. Inoltre, il contributo di Abraham Maslow ha consentito

la composizione di una generale gerarchia dei bisogni secondo la quale un soggetto

non può dedicarsi a complessi processi di autorealizzazione senza essere almeno

parzialmente soddisfatto nei bisogni primari (quelli fondamentali sono biologici)

della propria personalità.

• l’approccio evoluzionistico fornisce un’ampia spiegazione di moltissime

caratteristiche biologiche e comportamentali. Basandosi sulla fondamentale teoria

darwiniana, la psicologia evoluzionistica offre enormi possibilità di analisi delle

caratteristiche della personalità, i quali risultati concettuali, però, presentano

importanti limiti nella verificabilità e nella falsificabilità.

• la genetica della personalità studia l’interazione natura-ambiente a livello della

formazione della personalità individuale (interazione reattiva, interazione

evocativa, interazione proattiva). Le prove empiriche emergenti dagli studi sui

gemelli suggeriscono non solo che i fattori genetici influenzano sostanzialmente i

tratti di personalità, ma anche che, eliminando virtualmente le differenze geniche, i

bambini della stessa famiglia sembrano non essere più simili dei bambini presi a caso

nella popolazione.

Comunicazione e linguaggio

⁻ Si definisce indicatore un attributo fenotipico sempre attivo che un individuo

esibisce e da cui gli altri individui possono inferire qualcosa.

⁻ Si definisce segno un parametro separato che l’individuo produce, talvolta con un

preciso obiettivo, ma senza alcuna finalità comunicativa.

⁻ Si definisce segnale un atto comunicativo rivolto dall’individuo ad altri individui,

privo di alcuna natura simbolica in quanto fortemente legato ad aspetti genetici.

⁻ Si definisce simbolo un concetto utilizzato a scopo comunicativo avente una natura

convenzionale in virtù di una convenzione sociale condivisa a carattere

intersoggettivo.

• Avviene un’estrazione di informazioni quando un individuo influenza mediante

indicatori, segni o con il proprio comportamento gli stati mentali altrui ma senza

alcuna intenzione di farlo.

• Si definisce comunicazione un’attività sociale e congiunta di due o più individui

che intenzionalmente cooperano per costruire insieme significati della propria

interazione.

Paul Watzlawick, nel primo assioma della Pragmatica della comunicazione umana

afferma che non si può non comunicare. Watzlawick nega l’esistenza dei processi di

estrazione, formulando una teoria che attribuisce intenzionalità comunicativa ad ogni

azione umana e che viola il bisogno del paziente di non essere sconvolto con

inferenze soggettive riguardanti i suoi indicatori ed i suoi segni. Questo assioma è

stato superato da teorie sulla comunicazione più prudenti, come quella di Paul Grice,

un filosofo del linguaggio inglese che, con il suo principio di cooperazione, ha

sviluppato dei criteri basati sulle rappresentazioni kantiane della realtà e finalizzati

alla costruzione di catene inferenziali che, a partire dall’enunciato del parlante,

giungano deliberatamente fino alla comprensione dell’ascoltatore. Inizialmente la

comunicazione umana veniva distinta in comunicazione verbale (linguaggio parlato

e scritto) e comunicazione non verbale (qualunque segnale comunicativo che non

riguardi la comunicazione verbale), tuttavia, l’insorgenza di alcune discordanze

concettuali e sperimentali ha spinto verso una ridefinizione delle tipologie di

comunicazione. Il linguaggio dei segni (ASL), ad esempio, è da considerarsi una

lingua a tutti gli effetti come il linguaggio verbale, per cui non avrebbe senso

etichettarla come un tipo di comunicazione non verbale; vi è discordanza fra i modi

di percepire visivamente la scrittura e i gesti, o acusticamente la prosodia, o in modo

tattile il Braille. Per questi motivi, è stato ritenuto più opportuno distinguere la

comunicazione in due componenti principali: la comunicazione linguistica utilizza

sistemi di simboli di natura composizionale regolati da strutture sintattiche; la

comunicazione extralinguistica si serve di sistemi di simboli legati per

accostamento (pidgin). La comunicazione extralinguistica è da considerarsi come la

forma di comunicazione più implicita ed ancestrale, la quale immediata e

parzialmente innata disponibilità ontogenetica dipende dalla forte correlazione con

componenti emozionali e comportamentali. In ogni caso, il linguaggio è il principale

mezzo utilizzato dagli esseri umani per comunicare i pensieri, ed è strutturabile in tre

livelli fondamentali: i fonemi sono le categorie sonore elementari che, combinandosi

fra loro secondo specifiche regole idiomatiche, compongono le unità linguistiche; le

parole sono i primi elementi portatori di significato linguistico e la più piccola unità

linguistica o parola è il morfema; più unità linguistiche sintatticamente correlate

formano le unità sintattiche e le frasi. Lo sviluppo del linguaggio nell’essere umano

inizia con la distinzione fonemica che si verifica nei primi mesi di vita. I neonati

imparano quali dei fonemi che riconoscono in maniera innata corrispondono a quelli

del proprio idioma, tuttavia la riproduzione di tali suoni in unità linguistiche procede

più lentamente. A seguito del processo di lallazione (primi 6 mesi) i bambini

iniziano a riprodurre linguisticamente i concetti appresi o conosciuti in maniera

innata, ma, a causa della povertà del loro vocabolario, nei primi due anni e mezzo

sono soggetti al processo di iperestensione linguistica. I bambini apprendono le

nozioni linguistiche di comprensione e riproduzione del linguaggio mediante

imitazione e condizionamento nei legami relazionali con gli adulti, ma soprattutto per

mezzo di processi di verifica delle ipotesi. Il periodo critico di apprendimento

linguistico si aggira intorno ai due anni di vita: è questo il periodo in cui avviene il

fast mapping, esplosione di apprendimento linguistico oltre il quale spazio critico

temporale qualsiasi essere umano ha difficoltà ad apprendere con naturalezza nozioni

linguistiche. Intorno ai 3 anni l’apprendimento sintattico porta ad una iper-

regolarizzazione della lingua che esclude le irregolarità e le eccezioni, apprendibili

in seguito La complessità di produzione linguistica aumenta con l’età fino ad

un’approssimativa stabilizzazione intorno ai 5 anni di vita, con conseguente

istruzione scolastica e consapevolezza metalinguistica della propria sintassi.

L’apprendimento linguistico ed ogni processo di comprensione e produzione

linguistica, dunque, è il risultato di un prodotto fra fattori innati e fattori relativi

all’esperienza, la considerazione del contesto in un’interazione comunicativa è

fondamentale. Nel corso della storia della psicologia ci si è chiesto se la capacità

linguistica sia una proprietà unicamente della specie umana o meno. Gli esperimenti

su Gua (femmina di scimpanzé fatta crescere dai coniugi Kellog insieme al figlio,

immersa nello stesso ambiente linguistico e sottoposta agli stessi stimoli ed alle

medesime condizioni di vita); su Vicky (femmina scimpanzé accudita dai coniugi

Hays, inserita in un ambiente sociale umano e stimolata all’apprendimento

linguistico); su Washoe (femmina di scimpanzé stimolata dai coniugi Gardner

all’apprendimento del linguaggio dei segni) e su Sarah (femmina di scimpanzé

severamente addestrata dai coniugi Premack in laboratorio al fine di un

apprendimento linguistico basato su associazioni di simboli a oggetti raffigurati su di

una lavagnetta) hanno dimostrato che seppur gli scimpanzé abbiano una discreta

capacità di apprendimento linguistico, non sono ad attivamente predisposti alla

produzione linguistica vocale ed all’uso di segni comunicativi linguistici a scopo

convenzionale ed intenzionale. L’essere umano ha sviluppato a scopo adattativo-

cooperativo un’importante funzionalità linguistico -comunicativa, le quali aree

celebrali sono studiate neuro scientificamente mediante brain immaging, brain

stimulation e processi neuropsicologici. Il primo processo neuropsicologico di

ricostruzione delle strutture cerebrali a partire da deficit associati a lesioni cerebrali è

avvenuto a metà del 1800, quando gli studi di Paul Broca sul suo celeberrimo

paziente “Tan tan” hanno prodotto risultati stupefacenti. Lebrogne era un uomo di 21

anni che presentava una perdita quasi totale dell’uso del linguaggio, del braccio

destro e in seguito anche della gamba destra; il paziente era in grado di pronunciare

solo una sillaba (tan), intercalata da bestemmie. Dopo la morte giovane di Lebrogne,

Paul Broca per mezzo dell’autopsia si accorse che il paziente accusava un’ampia

lesione del lobo frontale sinistro; la lesione si presentava in maniera più acuta nel

giro frontale inferiore per poi affievolirsi nelle zone limitrofe. La scoperta di Broca

diede vita a nuovi frontiere della neuropsicologia e l’area dell’emisfero sinistro

lesionata in Lebrogne venne chiamata “area di Broca”. Oggi sappiamo che

Lebrogne era affetto da afasia, una disabilità non primariamente motoria o percettiva

(disartria), caratterizzata da deficit nella comprensione o produzione linguistica a

seguito di lesioni o malfunzionamenti (il 40 per cento dei soggetti di ictus presenta

afasia) relativi ad aree deputate a funzioni linguistiche; esistono due tipi principali di

questo disturbo:

• L’afasia di Broca colpisce l’area di Broca e altre strutture più complesse a seconda

della gravità del disturbo. Questo tipo di afasia consiste nell’incapacità di elaborare e

gli aspetti sintattico - grammaticali del linguaggio, compromette la produzione

linguistica e provoca grandi difficoltà nella vocalizzazione di un discorso fluido.

• L’afasia di Wernicke o afasia fluente colpisce la cosiddetta area di Wernicke

(corteccia temporale prevalentemente dell’emisfero sinistro) e consiste

nell’incapacità relativa alla comprensione linguistica. Un soggetto affetto da questo

tipo di afasia può produrre un linguaggio fluente, ma ha moltissima difficoltà nel

dotare di senso e significato le sue unità sintattiche.

Secondo il modello diffuso le aree linguistiche principali sono situate nell’emisfero

sinistro del cervello, il destro si occupa per lo più di funzioni di accompagnamento a

livello linguistico che non rivestono un ruolo centrale nei processi di apprendimento,

comprensione e produzione del linguaggio (aspetti metaforici, prosodici, emotivi e

gestuali; linguaggio figurato; espressioni idiomatiche fortemente convenzionali).

Tuttavia, l’asimmetria linguistica cerebrale umana non si presenta in maniera identica

per tutti gli individui, in particolare sembra esserci una forte relazione fra

disposizione delle aree linguistiche cerebrali e mancinismo. Circa il 90 per cento

della popolazione mondiale è destrimano e circa il 98 per cento di essi presenta le

aree di Broca e di Wernicke nell’emisfero sinistro, il restante 2 per cento

nell’emisfero destro; il 70 per cento dei mancini ha i centri del linguaggio

nell’emisfero sinistro, il 30 si divide in parti uguali fra emisfero destro ed

organizzazione bilaterale. Il test di Wada di inibizione funzionale, seppur invasivo

per il paziente, è uno dei metodi più adatti a capire la localizzazione dei centri

cerebrali del linguaggio. In ogni caso, l’architettura funzionale del linguaggio è molto

più complessa e distribuita di come appare superficialmente, e presenta una natura

elastica e sensibile a modifiche relative ad adattamenti riguardanti l’ambiente

circostante e l’esperienza.

Emozioni

Lo studio delle emozioni ha incontrato molte difficoltà nel corso della storia della

psicologia. Sebbene il funzionamento dell’organo cervello sia strettamente

dipendente con la soggettività individuale, il carico soggettivo delle emozioni è molto

influente ed è difficile trovare delle descrizioni uniformanti ed oggettive riguardo ad

un argomento con così tante componenti ambigue. Tra l’altro, gli esperimenti in

laboratorio in questo campo spesso vanno incontro a limiti etici e ad oggi la

letteratura non è fornita di tesi indiscutibili e scientificamente articolate riguardo

l’argomento. Tuttavia, possiamo definire l’emozione come una breve e

multicomponenziale reazione ad alcuni cambiamenti nel modo in cui le persone

interpretano le circostanze in cui si trovano. Tipicamente, l’emozione necessita di una

valutazione cognitiva, che funga da interpretazione soggettiva delle circostanze

esterne ed interne e che solleciti una cascata di risposte parzialmente o direttamente

correlate con il processo emotivo. La risposta che riconosciamo con maggiore

frequenza è quella dell’esperienza soggettiva, lo stato affettivo e il tono sentimentale

legato all’emozione provata. Il sistema nervoso autonomo gestisce le reazioni

corporee interne (esperimenti su soggetti con lesioni al midollo spinale dimostrano

che tali soggetti provavano emozioni meno intense) e prima di generare una concreta

e consapevole risposta all’emozione, il soggetto sviluppa le componenti del

movimento muscolare facciale e posturale e della tendenza al pensiero e

all’azione. Comunemente si pensa che la sensazione emozionale sia la conseguenza

della percezione di una situazione, seguita da modificazioni fisiologiche esterne ed

interne. Nonostante questa teoria del senso comune sia una sommaria descrizione

riguardante lo sviluppo dei processi emotivi, esistono varie teorie psicologiche che

trattano di come si attui la comparsa e l’evoluzione dell’emozione nell’uomo. Nel

1922 la James – Lange theory affermava che l’esperienza emozionale fosse causata

direttamente dall’attività biologica del sistema nervoso autonomo stimolato. Qualche

anno dopo, la teoria Cannon – Bard smontò le ipotesi secondo le quali fosse

possibile che l’attivazione fisiologica, avente lo stesso processo per più emozioni,

scateni specifiche reazioni emotive. Il sistema nervoso autonomo sviluppa i suoi

processi troppo lentamente per essere causa di un’esperienza emozionale ed inoltre i

soggetti non sono mai totalmente consapevoli delle modifiche fisiologiche che

avvengono nel loro corpo e nel loro cervello. Alcuni esperimenti hanno dimostrato

che l’induzione artificiale dei cambiamenti corporei non causa l‘esperienza di

un’emozione e che la scarica talamica produce simultaneamente esperienza

emozionale e modificazioni fisiologiche. La Cannon – Bard theory enuncia che gli

stimoli vengono elaborati da strutture sottocorticali, le quali sviluppano

simultaneamente l’attività del SNA e l’esperienza emozionale soggettiva. Tempo

dopo, nel 1962, Schachter e Singer tentano una generalizzazione della James – Lange

theory ed enunciano la teoria dei due fattori, secondo la quale le emozioni sono il

prodotto di differenti inferenze (appraisal) dipendenti da processi di percezione

viscerale sulle cause di specifiche attivazioni biologiche indifferenziate. I due

psicologi effettuano un geniale esperimento nel quale due diversi gruppi di pazienti

vengono informati diversamente riguardo ad un’iniezione artificiale di adrenalina e

dimostrano che diverse valutazioni cognitive dello stesso stimolo generano differenti

reazioni emotive a livello sia fisiologico che comportamentale. Intorno al 1980

Robert Plutchik ha prodotto una teoria psicoevoluzionistica che tentasse un grande

riassunto delle teorie fino ad allora enunciate. Plutchik afferma che le emozioni sono

meccanismi di comunicazione e sopravvivenza adattativi evolutivi ultraconservativi,

aventi una base genica e dipendenti da esperienza soggettiva; sono catene complesse

di eventi che tendono a produrre un’omeostasi comportamentale, possono essere

rappresentate con un modello tridimensionale e il loro modello è legato ad altri

modelli comportamentali derivati. Russel, Watson e Tellegen elaborarono un modello

multidimensionale delle emozioni che ne evidenziasse i livelli possibili di

coinvolgimento (un’emozione può coinvolgere tutte le componenti emotive o

rimanere in uno stato di preparazione all’azione).

E` stato dimostrato che le emozioni a valenza negativa causano dei processi

intercerebrali che spingono il sistema nervoso autonomo ad un iperattivazione in

preparazione ad un immediata risposta a problemi adattativi. Al contrario,

l’esposizione cerebrale ad un’emozione di valenza positiva produce rilassamento

omeostatico ed attivazione del sistema nervoso autonomo legata con un ampliamento

delle capacità e del benessere fisico e mentale (teoria di ampliamento e

costruzione). La neurobiologia delle emozioni studia le componenti biologiche

cerebrali correlate allo sviluppo dei processi emotivi. Un’emozione intensa con un

alto livello di aurosal attiva il sistema nervoso autonomo simpatico nella produzione

e consumo di energia, mentre le emozioni a basso livello di aurosal provocano la

deattivazione del sistema nervoso autonomo parasimpatico con conseguente

conservazione dell’energia. La sindrome di klüver – bucy presenta un incapacità

emozionale correlata alla paura ed è causata da una lesione dell’amigdala.

L’amigdala è un insieme di microstrutture del sistema limbico e svolge la funzione di

elaborare gli stimoli e attribuire loro una valenza emozionale mediante

interconnessione con altre aree. Lo stimolo con carica emozionale arriva al talamo,

che invia un primo microsegnale diretto all’amigdala, la quale si prepara a ricevere il

segnale completo dello stimolo elaborato dalle strutture corticali e a produrre il

responso emozionale finale. Il sistema limbico è dunque legato con la neocorteccia

ed oltre ad elaborare le informazioni, le modifiche e i comportamenti con

connotazione emotiva, è coinvolto nei processi correlati con le emozioni, come quelli

mnestici e olfattivi; la motivazione; l’appetito; i ritmi circadiani e il desiderio

sessuale. Anche il sistema neurotrasmettitoriale svolge compiti di natura

emozionale: alcuni amminoacidi come il glutammato (neurotrasmettitore eccitatorio

che favorisce lo stimolo di propagazione nel neurone postsinaptico, responsabile di

ipereccitazione, insonnia e cefalee), il GABA (sopprime l’attività del SNC e calma il

sistema quando è sovraeccitato) effettuano inibizione o attivazione di funzionalità a

livello emotivo; alcune amine come la serotonina (legata alla regolazione del’umore,

del sonno e della temperatura corporea), la noradrenalina (si occupa di attenzione e

delle reazioni di attivazione del sistema nervoso autonomo simpatico) e la dopamina

(regola comportamenti primari come mangiare, bere e riprodursi e prepara alla lotta,

alla competizione ed alla fuga) lavorano in sistemi a proiezione diffusa e peptidi

come la sostanza P (legata a dolore e vomito) e la neurotensina (neuromoduatore

della dopamina) supportano il sistema con i loro compiti di regolazione emotiva.

Nelle funzioni di riconoscimento delle espressioni facciali di emozioni base gioca un

ruolo chiave il circuito cerebrale dei neuroni specchio, presente nella corteccia

premotoria ventrale, nell’amigdala e nell’insula (connette il sistema dei neuroni

specchio al sistema limbico). I neuroni specchio dimostrano che vi è una solida base

comune fra percezione e produzione delle manifestazioni espressive emozionali. In

effetti, la componente espressiva dei processi emozionali svolge un ruolo

fondamentale nella comunicazione sociale intersoggettiva. Gli psicologi Paul Ekman

e Wallace Friesen hanno dedicato anni a catalogare i movimenti muscolari di cui è

capace il volto umano, essi hanno isolato 46 movimenti unici che hanno definito

unità di azione ed hanno assegnato a ciascuno un numero ed un nome. Questo

improvviso carico di informazioni ha dato contributi eccezionali nella distinzione fra

emozioni naturali e forzate e nella valorizzazione delle emozioni come mezzi

comunicativi di natura innata (still face e visual cliff experiments) ed universale

(esperimenti su tribù isolate come la tribù del Fore in Papua Nuova Guinea; su

espressioni facciali in non vedenti, non udenti e neonati). Inoltre, le espressioni del

viso contribuiscono anche alle esperienze emozionali soggettive, l’ipotesi del

feedback facciale riguarda la possibilità che le espressioni facciali e posturali siano

capaci di mettere in moto l’intero processo emotivo soggettivo, causando le

esperienze emozionali di cui sono il segno; il famoso esperimento della biro è una

dimostrazione pratica di questa teoria. Tuttavia, nonostante l’universalità delle unità

d’azione, il processo di risposta all’emozione e di esibizione emozionale rimane un

fatto interamente soggettivo e dipendente da contesti sociali e culturali (esperimento

con disgusto su ragazzi cinesi e americani di fronte ad un’autorità). E`dimostrato che

la capacità di regolazione emozionale infantile è un buon indice premonitore di

successo sociale.

Mentalizzazione e autismo

Un’area cerebrale che ha destato particolare interessa nella neurobiologia

comunicativa ed emozionale è la corteccia mediale prefrontale. Quest’area sembra

particolarmente attiva nei processi di intercomunicazione di stati mentali in contesti

sociali e presenta forti legami con aree cerebrali deputate a funzioni di tipo affettivo.

In realtà, molti studi dimostrano che la corteccia mediale prefrontale nell’uomo abbia

evoluzionisticamente subito intensificazioni dimensionali e funzionali rispetto alle

altre specie. Data la natura cooperativa della specie umana, è ragionevole ed

opportuno pensare che l’uomo nel corso del suo sviluppo ontogenetico abbia favorito

per selezione naturale la formazione di processi di condivisione di stati mentali con i

suoi simili. Si definisce mentalizzazione l’insieme dei processi espliciti (teoria della

mente) ed impliciti che permettono di assegnare un contenuto mentalistico al

comportamento altrui, osservato o immaginato. E`stato sperimentato (esperimento

orsacchiotto - palla) che i neonati dai 5 ai 9 mesi di vita apprendono implicitamente la

condizione di agentività che distingue i processi umani intenzionali da quelli non

intenzionali. Inoltre, nel loro sviluppo ontogenetico preverbale dai 10 ai 12 mesi, i

bambini apprendono la condizione causale soggiacente l’agentività (esperimento

della mano che lancia la palla nel teatrino) e già a 15 mesi possono comprendere la

natura delle false credenze, capendo che gli esseri mentali possiedono pensieri, stati

d’animo e credenze soggettive e inter differenti (Baillargeon). In realtà, un

esperimento eseguito da Wimmer e Perner (cioccolata nascosta) sembrava suggerire

che i bambini potessero dimostrare di riconoscere le false credenze solo a 4 anni di

vita, ma questa incongruenza è stata colmata dalla spiegazione secondo la quale quel

tipo di esperimento richiedeva una maturazione del sistema nervoso del bambino,

legata allo sviluppo della working memory e delle aree cerebrali con funzioni

linguistiche. Lo sviluppo di mentalizzazione umano, infatti, richiede una complessa

specializzazione ed è continuamente soggetto a miglioramenti e modifiche: solo dai 9

agli 11 anni di vita i bambini sono in grado di superare correttamente il test di feaux-

pas, relativo ad una complessa attribuzione di stati mentali ai soggetti esposti al

gruppo sperimentato. Mediante neuroimaging, Mauro Adenzato ha sperimentato dei

soggetti sottoposti ad osservare situazioni di intenzionalità privata e comunicativa; i

risultati hanno dimostrato una forte attivazione della corteccia mediale prefrontale

nell’osservazione di situazioni in cui i soggetti osservati presentavano intenzionalità

comunicativa intersoggettiva. La funzionalità della corteccia mediale prefrontale è

evidenziata dal disturbo di demenza frontotemporale (FTD), la quale si sviluppa

intorno ai 40 – 50 anni ed è il secondo tipo di demenza più frequente nell’essere

umano dopo l’alzheimer. Questo tipo di demenza presenta delle disfunzioni lungo la

MPTC (corteccia mediale prefrontale), e, di conseguenza, i pazienti affetti da FTD

hanno problemi nella comprensione di intenzioni comunicative. Anche nella SLA

(sclerosi laterale amiotrofica), inoltre, è stata registrata una diminuzione delle

capacità di mentalizzazione. Esistono diversi test per misurare la capacità di

mentalizzare di un essere umano:

• il reading in the eyes of the mind (RME) è il test di mentalizzazione più famoso e

consiste di 36 immagini di espressioni facciali da codificare. Il soggetto testato otterrà

un punteggio pari al numero di immagini correttamente interpretate, con un cut off di

17 immagini;

• il sub test go/no go del Frontal Assessment Battery (FAB) consiste

nell’assegnare segnali di attivazione e disattivazione al soggetto testato, che, se neuro

tipico, risponde con comportamenti coerenti con le richieste dello sperimentatore;

• il lowa Gambling Task (IGT) consiste in un gioco d’azzardo con un mazzo

“buono” ed uno “cattivo”. Un soggetto neuro tipico presenta una netta preferenza nel

giocare con il mazzo buono, mentre un soggetto psicopatico preferisce scegliere di

utilizzare il mazzo cattivo, nonostante sia più consapevolmente sconveniente;

• il test di Ekman consiste nel somministrare immagini analoghe a quelle del RME

test, ma legate a stati mentali di base che in un soggetto neuro tipico sono facilmente

distinguibili.

• Nel discriminare alterazioni della MPFC nei pazienti con FTD e Alzheimer è più

opportuno utilizzare il mini sea test, un test prettamente di cognizione sociale che si

compone di un’integrazione fra il test di Ekman e il feux-pas test.

Un sorprendente esperimento ha testato 4150 persone sulle loro capacità di

mentalizzazione e sui loro livelli di salute mentale. Il follow up di due anni dopo ha


ACQUISTATO

1 volte

PAGINE

49

PESO

198.00 KB

PUBBLICATO

6 mesi fa


DESCRIZIONE APPUNTO

Ho costruito questo documento giorno dopo giorno, integrando lezioni del prof e nozioni basate sui libri in un colpo solo. Studiare da qui è stato un piacere e non ho avuto bisogno d'altro, è tutto completo e scorrevole! Con pochi giorni di studio queste pagine mi hanno fruttato un bel 30 in psicologia generale e un sacco di interesse per la psicologia. Vi auguro di poterle sfruttare al meglio!


DETTAGLI
Corso di laurea: Corso di laurea in scienze e tecniche psicologiche
SSD:
Università: Torino - Unito
A.A.: 2018-2019

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher gerardo.qui di informazioni apprese con la frequenza delle lezioni di Psicologia generale e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Torino - Unito o del prof Adenzato Mauro.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Psicologia generale

Riassunto esame Psicologia generale, prof. Del Giudice, libro consigliato Atkinson Hilgard s Introduzione alla Psicologia
Appunto
Riassunto esame Psicologia Generale, prof. Bosco, libro consigliato La Teoria della Mente, Camaioni
Appunto
Riassunto esame Psicologia Generale, prof. Del Giudice, libro consigliato Inventare la Mente, Frith Come il cervello crea la nostra vita mentale, Frith
Appunto
Riassunto esame Psicologia generale, prof. Adenzato, libro consigliato Il metodo della scienza cognitiva, Bara
Appunto