Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

cellule granulari del cervelletto. Lì l’oscillazione tende a rimanere sotto soglia.

Questo vuol dire che la cellula potrà essere sincronizzata con queste

 oscillazioni quando riceverà una qualche forma di input.

Ci saranno alcune fasi del ciclo in cui è più facile eccitare la cellula.

 Aumenta la probabilità che la cellula venga eccitata in fase

positiva col ciclo.

Prendete per esempio le cellule del Golgi, qui l’oscillazione è accoppiata alla soglia.

Le oscillazioni ci sono ma si fondono con la scarica della cellula. In un altro sistema

le oscillazioni possono arrivare fino a 15mV di ampiezza e quando sono così grosse

si trascinano dietro lo spike.

L’oscillazione sintonizza il sistema verso una determinata fase di attivazione.

Quando il sistema è in fase col picco dell’oscillazione è per eccitarsi maggiormente.

L’oscillazione di prima del nucleo talamico parte da -70mV e arriva alla soglia degli

spike, non è paragonabile come dimensioni a quella sodio/potassio. Ci sono cellule

pacemaker che trascinano il ritmo, sono talmente enormi nelle oscillazioni che

trascinano il ritmo (talamo). Ci sono invece cellule fatte per venir trascinate dal ritmo,

non per imporlo (sodio/potassio). Questa proprietà può essere utilizzata all’interno di

circuiti neurali che le sfruttano per generare cicli di attività. Si ha la convinzione che

queste oscillazioni sono fondamentali per collegare tra loro l’attività di popolazioni di

neuroni.

Possiamo iniziare a guardare cosa succede quando le cellule comunicano tra loro,

cominciamo l’analisi delle reti neurali. Iniziamo a studiare come i neuroni

comunicano tra di loro. Devo fare una premessa. Avete sentito parlare di reti neurali

artificiali. Avrete sentito parlare di vari sistemi di modellizzazione. Ci sono tanti tipi

di modelli e tanti tipi di reti neurali. A seconda di quello che volete studiare può

convenire l’utilizzo di un approccio piuttosto che un altro. Se volete studiare i

principi che emergono dalla connettività, conviene usare reti neurali semplici dal

punto di vista della struttura e dei proteomi. Più è semplice più è comprensibile.

Quando volete studiare un fenomeno dinamico che somiglia ai fenomeni biologici, le

reti semplici sono inutilizzabili e conviene usare reti più simili a quelle biologiche

dette anche biologicamente realistiche . Ricoprono una quantità di dettagli biologici

elevata. Facciamo un esempio. Consideriamo una rete costituita da tanti tipi di

neuroni diversi, ognuna con modalità di scarica specifiche. Se ho cellule così

specifiche devo usare una modellazione realistica, altrimenti non capisco niente con

quella semplificata. Se volete però capire il principio fondamentale di connettività

delle cellule, questi dettagli ci danno fastidio, confondono le idee. Devo individuare il

succo della faccenda. In questo tipo di ragionamenti ha dato adito a diatribe

scientifiche. Chi fa modelli semplici sottovaluta quelle complesse e chi fa quelli

complessi sottovaluta quelli semplici. Non è vero che un modello è giusto e l’altro

sbagliato, bisogna solo sapere cosa si cerca.

Costruzione di una rete neurale. Caratteristiche:

Innanzitutto deve sapere codificare l’informazione.

1) Deve essere in grado di modificare la sua struttura interna, deve saper

2) apprendere e memorizzare l’informazione.

Il terzo elemento chiave è organizzazione e struttura della rete, come la rete è

3) organizzata anatomicamente.

Sono i 3 elementi che governano la costruzione del SN. Ovviamente questo ha grossi

riscontri a tutti i livelli. I geni non specificano il cervello ma specificano come

costruire un cervello. Gli date le regole per codificare l’informazione e le regole per

memorizzare le informazioni, dopo di ché il sistema evolve da solo tramite

l’interazione con l’esterno e l’interno. Le informazioni genetiche sono dotate di

regole per definire come i neuroni codificheranno, apprenderanno, memorizzeranno e

si organizzeranno. Questo diventa economico dal punto di vista genetico. In secondo

luogo come questa macchina biologica dovrà funzionare alla fine delle sue operazioni

di interazione col mondo esterno. Questo non è altro che il gioco generale

dell’evoluzione biologica. Se il mondo esterno non cambia, la macchina biologica sta

adattata al mondo che non cambia ma se il mondo cambia il sistema deve adattarsi e

usa l’adattamento immediato oppure per selezione naturale gli organismi esistenti

vengono messi di fronte a grossi cambiamenti del mondo esterno. Il cervello prende

parte allo schema evolutivo. Si può dire che la rete neurale nasce con regole di base

che ne specificano l’organizzazione e la struttura. Poi danno ai neuroni delle

specifiche, qualcuno sarà eccitatorio e qualcuno inibitorio. Specifica anche chi deve

influenzare chi. Viene specificato come ognuno dei neuroni codifica il segnale.

Apprendimento e memoria riescono a portar via la codificazione della trasmissione

degli impulsi. È la biologia che si trasforma in un’operazione computazionale. Hanno

regole ma non hanno memoria a priori. Creano regole di condizionamento

estraendole dalla realtà. Mentre una rete neurale non istruita non ha regole interne di

funzionamento, nel momento in cui inizia ad imparare a interagire con l’ambiente,

trova le regole di funzionamento. Non abbiamo regole precisa ma meccanismi per

mettere in relazione la luce con alto e basso. Immaginate di camminare sulla terra e di

cadere. Altro esempio è quello dell’uomo sulla luna. La massa rimane 70 kg ma la

forza di Archimede aumenta tantissimo sulla luna. Si può imparare a interagire con

ambienti diversi velocemente, riconfigurando le connessioni neurali. Immaginate di

creare la categoria degli uomini, sono tutti con gambe, braccia, stazione eretta. Se voi

prendere esempi di esseri umani cresciuti con animali invece che con uomini, la loro

categoria di riferimento sarà l’animale. Il cane è abituato a crescere con l’uomo e lui

cane si sente parte di un corpo di uomo, per lui fa parte della stessa categoria. Il

cervello usa le strutture intorno per generare schemi cognitivi che poi utilizza per

gestire la sua esistenza.

Quali sono le relazioni fondamentali dei circuiti neurali? Riescono a fare 4 operazioni

di base:

apprendimento (immagazzinano informazioni in modo ordinato e utilizzabile)

1) riconoscimento (sanno usare le informazioni acquisite per riconoscere dei

2) pattern)

categorizzazione (cose che si assomigliano vengono messe insieme e

3) raggruppate in categorie, dice molto sul modo in cui viene organizzata la

memoria, sono un tentativo di mettere insieme cose che si somigliano e che

hanno aspetti comuni, sono oggetti dinamici che possono essere modificati)

astrazione-generalizzazione (se tutti gli oggetti con 4 ruote e una carrozzeria

4) sono macchine, arriva un altro oggetto con forma diversa ma con 4 ruote e

carrozzeria è sempre una macchina). L’astrazione deriva da tutto questo, è la

capacità di creare concetti che non sussistono come realtà materiale. Un

concetto astratto è quello di rotondità, altezza, lunghezza, profondità. Queste

astrazioni sono possibili sfruttando le caratteristiche dei neuroni.

Stiamo andando a dire che nella rete neurale sta il segreto per capire come funziona il

cervello. Combinando in vario modo queste proprietà è possibile creare le funzioni

nervose. Questi sono elementi di funzioni nervose. Usando questi mattoni si

costruiscono le funzioni nervose.

Perché queste cose le fanno le reti e non i neuroni da soli? Perché non hanno uno

spazio computazionale sufficientemente grande. Queste proprietà emergono dalla

dimensione dello spazio computazionale del sistema. Lo spazio è il numero di

possibili interazioni del sistema. Se separate gli elementi, non emerge un bel niente.

Tanti elementi fanno una funzione complessa se interagiscono tra di loro. Gli effetti

complessi sconfinano nella sfera cognitiva, anzi sono della sfera cognitiva. Visto che

le proprietà di cui parliamo sono comuni a tutti i SN conosciuti fino ad ora,

soprattutto quelli dei Vertebrati, tutti gli animali sono dotati di capacità cognitive.

Quello che differenzia in modo cognitivo gli animali diversi dipende da come il SN

di questi animali sviluppa certi dettagli e certe caratteristiche specifiche ma non nella

natura di base dei circuiti. Quello che cambia è come i circuiti vengono associati tra

di loro, come si collegano tra di loro a formare complessi.

Andiamo a vedere caratteristiche importanti del processo di modellizzazione dei

circuiti. Per capire come funziona una rete neurale bisogna usare il modello, senza

modello non ci riuscite perché misurare l’attività di tutti i neuroni che ci interessano è

impossibile. Anche se foste capaci di misurare l’attività di questi neuroni non sapreste

in che modo studiarla. L’unica cosa che potete fare è ricostituire il sistema

artificialmente e poi semplificarlo al massimo per poter estrarre dei risultati

comprensibili. Se volete è una procedura logica che serve a capire come i neuroni che

interagiscono generano qualcosa che va al di là delle semplici interazioni. Ogni

neurone può essere concepito come una funzione probabilistica che genera PdA.

Invece di rappresentare tutti i meccanismi ionici che generano i PdA stabilite

 con che probabilità il neurone genera PdA.

Tutti gli input al neurone possono essere positivi o negativi e a seconda se sono

eccitatori o inibitori il neurone ha una certa probabilità di scaricare. La funzione ha la

forma di una sigmoide. Queste sigmoidi derivano dalla curva di Boltzmann che è la

distribuzione di probabilità più importante. Abbiamo una funzione di Boltzmann che

è la distribuzione di probabilità del sistema. La costante di probabilità è quella delle

funzioni termodinamiche. Gli input sono input sinaptici e li possiamo trattare come

dei numeri. Ad ogni sinapsi attribuiamo un valore numerico. L’input eccitatorio va

da 0 a 1 e idem quello inibitorio. Questi input hanno un valore numerico che viene

chiamato peso o weight. In una scala da 0 a 1, una sinapsi con peso 0 è una sinapsi

che non funziona. Una con peso 0.5 sta usando metà della sua potenza massima.

Questa definizione di peso consente di arrivare alla forza sinaptica , sfruttando il

concetto di plasticità. Se una sinapsi eccitatoria normale ha peso 0.5, se la fate andare

in potenziamento si avvicinerà a 1, se la fate andare in depressione sinaptica va sotto

0.5 quindi potete regolare in forza la sinapsi con la plasticità. Il neurone è

rappresentato formalmente come elemento dinamico che fa spikes. Fa lo spike

quando viene raggiunta la soglia, la probabilità è definita dalla funzione matematica.

Questi sono i concetti di base che stanno alla base delle reti neurali artificiali.

La rete è costituita da un numero di elementi compatibile con i micro-circuiti

biologici. Se prendete una micro-colonna corticale sono 30 mila neuroni. Questi

neuroni fanno spikes. E’ rappresentato il concetto di soglia: ogni spike ha una soglia.

È rappresentato il concetto di probabilità di risposta del neurone, ogni spike è una

funzione probabilistica. Le sinapsi possono cambiare la loro forza simulando la

plasticità sinaptica. L’attività di neurone dipende dal contenuto di tutte le sinapsi.

I neuroni hanno meccanismi ionici simili alla biologia in questi modelli? No. Le

sinapsi hanno meccanismi di rilascio quantale e natura probabilistica? Assolutamente

no. Hanno short-term plasticity? No. Quello che manca in questi modelli sono i

dettagli sulla dinamica dei circuiti. Non hanno la dinamica giusta, possono essere

utilizzati in assenza di dinamica intrinseca. Queste reti non devono affrontare, non

devono interagire con qualcosa che si sta sviluppando nel tempo, non hanno bisogno

di sviluppare il tempo, di generare un oscillatore nel tempo. Non hanno bisogno di

comunicare con parti diverse del cervello, non hanno bisogno di comunicare tramite

sistemi di oscillazione. Non stanno facendo niente di ciò che deve fare un cervello

vero per mettere insieme l’attività dei suoi miliardi di neuroni. Però stanno facendo

operazioni di base che viste così non funzionerebbero mai dentro a un cervello,

perché non riesce a governare l’attività delle sue reti dentro a un sistema. Ma se le

uso in esperimento ci danno informazioni più che utili.

Andiamo a vedere come queste reti messe insieme generano qualcosa di sensato. La

madre di tutte le reti neurali è qualcosa di banalissimo. La rete più semplice si chiama

simple perceptron. Si pone il problema radicale di rappresentare l’input e genera la

cosiddetta funzione di mappatura dell’output sull’input. Vuol dire che la rete deve

acquisire le informazioni necessarie per poter rappresentare l’input in modo univoco.

Per poter generare l’output deve farsi una rappresentazione interna dell’input. Gli

input che vengono proiettati per esempio su una retina. Questa rete così semplice è

formata dalla retina e da uno strato di neuroni che sta dietro la retina. Immaginiamo

che gli input siano rappresentati da una serie di pallini. Se la rete trasforma la realtà

esterna in un solo codice interno, deve trasformare i pallini in qualcosa di suo cioè in

attivazioni/inattivazioni di pallini suoi. La seconda cosa importante è non confondere

tra di loro gli input. A un certo input corrisponde un certo output della rete che sarà

diverso dagli altri. Questa operazione si chiama operazione di mappatura . La

mappatura può avvenire tramite l’acquisizione di memoria che nel caso più semplice

si manifesta nel calcolo di input sinaptici, di pesi sinaptici. In effetti i pattern

dell’output del secondo strato sono tutti diversi tra loro e se sono tutti diversi, la

mappatura è univoca, non c’è pericolo di confusione. Questo output corrisponde in

modo univoco a un input. L’altro output corrisponde in modo univoco a un altro

input. Posso avere una rappresentazione univoca del mondo esterno.

Come fa la rete a caricare questa mappatura al suo interno? Questo è l’esempio che vi

posso fare. Chi ha costruito la rete, per risolvere il problema ha semplificato la

situazione generando l’idea del template (-> modello, riferimento). Immaginate che la

rete sappia già qual è la mappa finale della rete che vuole costruire. Qui vedete che la

mappa finale sia nero-bianco-bianco. L’ingresso era nero-bianco-nero. Dobbiamo

passare da input a output regolando i pesi sinaptici che collegano lo strato di input

con lo strato di output. All’inizio i pesi sinaptici sono messi a casaccio, io li devo

regolare. Gli abbiamo dato delle regole per imparare. Le dite qual è l’obiettivo che

deve raggiungere. Fate un paragone: quanto somiglia l’output casuale con quello da

raggiungere? La cellula in cima ha una soglia di 0.8 e per fare PdA deve raggiungere

0.8 sommando tutti i pesi sinaptici. Se io faccio 0.3 la soglia non si raggiunge e non

scarica. A questo punto esiste una differenza tra l’output effettivo e quello desiderato.

Quello che manca tra 0.3 e 0.8 è 0.5 e si usa in processo che si chiama feedback

propagation o propagazione a marcia indietro del neurone. Per eleminare questo

errore provo ad aumentare i pesi sinaptici. Qui sta facendo apprendimento. Mi sta

aumentando i pesi. Facciamo un altro controllo, siamo a 0.6 ma non è ancora 0.8 così

aumento nuovamente i pesi. Stavolta facciamo 0.6 e 0.4, 0,6+0,4=1 e quindi

superiamo il valore che volevo. Siamo riusciti ad avere l’output corrispondente

all’output desiderato. Avete imparato a riconoscere in modo univoco quell’input. In

questo modo, il sistema riesce a mantenere memoria depositandola come pesi

sinaptici e creando una mappatura dell’output sull’input. Avete dotato questa rete

della capacità di riconoscimento di pattern complessi. Però c’è un problema:

occorrono migliaia di presentazioni per aggiustare i pesi sinaptici progressivamente.

Occorrono migliaia di cicli di aggiustamento. Altra cosa interessante è che

difficilmente possiamo immaginare che la rete neurale abbia già il template. Dal

punto di vista genetico non esiste nemmeno lontanamente la possibilità di codificare

un possibile output sotto forma di template.

Stavamo facendo considerazioni sulle reti neurali artificiali. Il problema di queste reti

è che sono tremendamente semplificate dal punto di vista biologico. Uno che guarda

gli esperimenti resta con amaro in bocca perché capisce che dietro alla questione di

organizzazione strutturale e plasticità sta qualcosa di grosso. È sufficiente avere delle

regole di connessione per far emergere funzioni molto importanti. Possono dare due

tipi di risposte. Una risposta è puramente di tipo procedurale teorico. Se volete capire

come funziona un sistema non dovete riprodurlo, dovete trovarne l’essenza. Fatto che

non è troppo difficile se il sistema che studiate è semplice ma che diventa

macchinoso se il sistema è complicato. Vi faccio un esempio. Prendete lo studio del

sistema solare. Ad un certo punto si arriva a capire che si va per modelli. Prima tutto

gira intorno alla Terra e poi si capisce che è la Terra che gira intorno al Sole. Tutto

questo va avanti con l’evoluzione delle tecniche di misura. Si comincia a capire

com’è organizzato. Ad un certo punto i modelli da concettuali diventano quantitativi,

quando si passa da Galileo (primo modello di organizzazione del sistema solare ma le

sue equazioni sono scarse perché non conosce il calcolo differenziale) a Newton

(conosce il calcolo differenziale e lo utilizza). Con gli strumenti di Galileo e il calcolo

differenziale risolve il problema della gravitazione universale. Tutto si spiega col

fatto che tutte le masse si attirano e ce n’è una più grossa che le attira tutte e le fa

muovere. Un modello complesso e integrato viene utilizzato per spiegare

quantitativamente dei fenomeni. Se voi prendere il problema da un punto di vista

puramente formale e generale, il problema non è molto diverso dal problema che

dobbiamo affrontare per studiare il comportamento del potenziale elettrico dei

neuroni. Abbiamo questa traccia di potenziale in funzione del tempo lineare. Se

avessimo un tempo ciclico invece che lineare, avremmo un’orbita. Con un tempo

oscillatorio si passa da alcune fasi e il potenziale orbita a seconda delle traiettorie

cicliche. Il problema concettualmente alla radice non è tanto diverso. Nel caso dei

pianeti abbiamo a che fare con masse, forze e velocità. Si riconduce tutto alla

meccanica classica. Abbiamo tanti oggetti, ogni oggetto ha la sua equazione

differenziale. Ognuno di questi oggetti è soggetto alla massa e alle forze generate da

tutti gli altri oggetti. Col neurone avete un’equazione generale che è quella di

membrana. A valle di quella abbiamo un oggetto che è il canale ionico. Ogni canale

ionico ha una sua equazione descrittiva o più di una. Si costruisce un sistema di

equazioni differenziali in cui ognuno di questi oggetti influenza il comportamento di

tutto l’insieme della membrana. Quello che dovete fare è passare da una

rappresentazione fatta per elementi espliciti ad un sistema di equazioni differenziali.

Mentre un equazione matematica se sapete leggerla sapete cosa fa in ogni punto, se vi

do un’equazione differenziale non ci capite niente perché è implicita. Deve passare da

una contro-trasformazione prima di essere capita. Si perde l’intuizione quantitativa e

non va più avanti. Serve il formalismo matematico completo. Da un punto di vista

operativo risolvere un’equazione è una banalità, risolvere un sistema di equazioni

differenziali non è mai una banalità, è una cosa complicata. Facendolo in via

computazionale si possono risolvere ma servono computer molto grossi. Ragionare su

un circuito neurale che avesse incorporate proprietà di membrana era impossibile

prima. Adesso si possono incorporare le proprietà complesse della materia organica a

livello molecolare all’interno di modelli che sono biofisicamente dettagliati. In questi

modelli possono essere incorporati grosse reti e farle funzionare.

Organizzazione delle reti neurali.

Il punto critico su cui lavorare è quello dei micro-circuiti. È il punto più difficile da

superare. Il micro-circuito sta a metà tra la complessità dei neuroni e quella dei

tessuti. È come se il micro-circuito fosse l’elemento che fa i calcoli nel cervello. A

questa idea ci siamo arrivati perché qui riusciamo a far emergere operazioni logiche

piuttosto complicate che i neuroni non fanno perché non hanno la complessità

sufficiente. Nel micro-circuito sta l’essenza e non è facile da studiare. Questo micro-

circuito è un’unità funzionale costituita da alcune decine di migliaia di neuroni. Il

tempo necessario a mettere un elettrodo in un neurone è considerevole, quando

mettete il secondo il primo non funziona più. Non potete studiare un circuito

mettendo un mare di elettrodi nei neuroni del circuito. In generale di elettrodi

extracellulari ne potete mettere tantissimi ma dipende dove stanno rispetto al circuito.

Non c’è problema di numero. Ci sono tecniche molto avanzate di micro-elettrodi che

consentono di generare una registrazione multisito del tessuto. Cosa vi aspettate di

vedere da un singolo elettrodo? Potenziali extracellulari che riflettono la

combinazione delle attività dei neuroni. Come fate a dirmi cosa fa il singolo neurone

in quella combinazione da 100? Se noi abbiamo tanti elettrodi e tante sorgenti,

possiamo utilizzare una tecnica di analisi detta Independent Component Analysis ,

queste tecniche consentono di separare tra di loro le sorgenti del segnale partendo

dall’osservazione multipla dei segnali stessi. C’è di mezzo l’elaborazione tramite gli

algoritmi. Se si arriva a padroneggiare questa tecnica si può arrivare a capire come si

organizza l’attività dei neuroni. L’altro processo che si può implementare è quello di

riconvoluzione . Questo usa un modello delle sorgenti a priori, tramite la procedura

inversa potete ricostruire il segnale finale. Chiaramente sono due tecniche che

possono dare risultati molto belli. Noi possiamo cercare di capire cosa stanno facendo

gli elementi della rete guardando gli ensemble signals che sono i potenziali di campo.

Altre tecniche che adesso stanno avendo una risonanza fortissima e uno sviluppo

fortissimo sono le tecniche di imaging che sono talmente raffinate da consentire

un’analisi della rete neurone per neurone. Con queste tecniche si può iniziare a

studiare i micro-circuiti. Poi bisognerà disporre tecniche di analisi per comprendere i

meccanismi funzionali delle abilità del circuito. Sono le cosiddette tecniche di

Parallel Spike Trains Analysis . Vediamo treni di spike che viaggiano paralleli e che

costituiscono l’abilità del circuito. Consentono di studiare come le varie attività dei

vari neuroni si correlano. Se non sblocchiamo questo punto critico non andiamo

avanti.

Il livello più alto è l’integrazione tra micro-circuiti. Dobbiamo confrontarci con 2

problemi:

Il primo è come collaborano i micro-circuiti nella stessa struttura (x es

1) corteccia cerebrale dove i micro-circuiti sono le colonne corticali). Quanti

neuroni costituiscono una colonna corticale? Sono circa 30mila neuroni per

11

colonna. Nel cervello dell’uomo quanti neuroni ci sono? Circa 10 . Se

11 4 7

facciamo 10 /10 = 10 quindi nella corteccia cerebrale umana ci sono circa 10

milioni di neuroni collegati tra loro quindi 10 milioni di micro-circuiti. Nel

cervelletto ci sono anche qui 10 milioni di neuroni che sono organizzati in

moduli (microzones). I moduli sono collegati tra loro.

Il secondo problema è che questi parti, questi micro-circuiti sono collegati tra

2) aree diverse (corteccia collegata al talamo che è collegato ai gangli della base e

al cervelletto).

Vi faccio un esempio relativo a una rete specifica che è quella del cervelletto. Il

cervelletto si divide a microzone che sono i micro-circuiti. Il problema è capire

questo micro-circuito che forma la microzone. Le microzone si possono associare tra

di loro a formare moduli (multizonal macro-complex). Questo modulo si collegherà

in qualche modo ad aree esterne al cervelletto. Vedete tutti i neuroni della corteccia

cerebellare organizzati secondo una certa geometria. Dobbiamo studiare i neuroni,

conoscere l’organizzazione strutturale e capire come funzionano le sinapsi. La

procedura di analisi di un sistema così è tremendamente complicata. Le idee stanno

cominciando a convergere. Occorrono modelli dettagliati. Bisogna trovare il sistema

modellistico che mette in grado il modellista di affrontare il problema teorico su una

base biologica e il biologo di produrre dati biologici che stiano nella teoria, altrimenti

produco dati che non servono alla teoria sul sistema o a elaborare teorie che non

stanno in piedi dal punto di vista biologico. Ci sono alcuni elementi che costruiscono

il sistema integrato biologico modellistico. Vedete un’idea di come questa rete è

localizzata all’interno del cervello. Tutti i puntini si somiglieranno, non saranno

identici ma saranno molto simili.

La modellistica neuronale prende le mosse dalla capacità di rappresentare i neuroni

mediante equazioni matematiche. Qui vedete un canale ionico, un gate. Chi ha

sviluppato la teoria del gating? Hodgkin e Huxley. La teoria stabilisce con chiarezza

che il processo di funzionamento della membrana cellulare è basato sulla presenza di

entità che sono i canali ionici. Questa entità deve essere dotata di una proprietà di

gating, cioè si devono aprire e chiudere secondo delle leggi cinetiche speciali. La

teoria di H&H non è l’unica, non è forse esatta dal punto di vista molecolare ma è il

punto di partenza di tutti gli studi sul gating. Se noi applichiamo la teoria H&H

possiamo spiegare il fenomeno dell’elettrogenesi della membrana cellulare con delle

equazioni relativamente semplici. Occorre un’equazione generale di membrana che è

quella che deriva dal modello elettrico della membrana cellulare. I=δV/δT*C che si

somma a una serie di termini lineari che sono le correnti ioniche. Le correnti ioniche

rappresentano il flusso di ioni all’interno dei canali ionici. Ognuno dei canali ionici

potete scriverlo in questi termini I= g*ΔV (dove ΔV è la driving force cioè la

differenza tra potenziale che la membrana ha in quell’istante e il potenziale di

equilibrio della membrana). Questa è l’equazione generale della membrana cellulare.

Per ognuno dei processi di gating avete un’equazione differenziale per le particelle di

gating. Tutte le equazioni differenziali devono essere risolte. Questo è il sistema di

equazioni che governa il funzionamento. Se lo sapete scrivere correlato di una

descrizione analitica di tutti i termini di gating e siete capaci di risolverlo, voi avete

risolto il problema matematico della funzione del neurone.

Un neurone contiene una decina di correnti ioniche fondamentali. In questo neurone

sono presenti le correnti che generano il PdA quindi la corrente di sodio e di potassio

delayed rectifier. C’è poi tutta una serie di canali ionici che controllano l’andamento

della scarica del PdA quindi i canali del calcio HVA, canali del calcio LVA, canali del

potassio calcio-dipendenti (SK e BK), le correnti I , le correnti I e le correnti I . Poi

A M H

troviamo almeno una corrente di leakage. Ogni corrente è descritta da almeno 4

equazioni differenziali. Il sistema è enorme ma costruisco un modello che descrive

l’attività della cellula neuronale in maniera precisa. Il modello può essere utilizzato

per predire l’attività della cellula addirittura in vivo. Il modello è stato connesso a

quello delle altre cellule del cervelletto. La rete viene costruita con modelli precisi

delle singole cellule. Il risultato è che si ottiene alla fine una rete. La rete si comporta

esattamente come il tessuto vero, sottoposta a degli input genera un PdA a seconda

dell’organizzazione spazio-temporale che riproduce esattamente quello che gli

esperimenti mostrano. A questo punto siamo in grado di riprodurre un sistema micro-

circuitale costituito da decine di migliaia di neuroni in modo preciso. Vi farò poi

vedere come funzionano questi micro-circuiti e come questi possono essere integrati

in un sistema di controllo.

Per poter studiare le reti neurali bisogna costruire dei sistemi semplificati in cui le

caratteristiche salienti che vengono mantenute sono poche. Queste sono la

connettività e/o la topologia. Una regola di trasmissione molto semplificata si rifà

all’idea che ogni sinapsi abbia un peso e che il neurone possa generare delle risposte

basandosi sulla probabilità di emettere PdA ogni volta che viene raggiunta una certa

soglia. Questa impostazione è stata pionierizzata da due ricercatori che si chiamano

… e il neurone che ne deriva è detto neurone di … . La regola di Hebb ci consente di

modificare il peso delle sinapsi. È una regola di apprendimento biologico che è stata

teorizzata da Hebb, uno dei padri delle neuroscienze teoriche e computazionali. La

regola di Hebb dice che quando un neurone lavora insieme ripetutamente e

intensamente, una qualche modifica biochimica prenderà luogo secondo la quale la

connessione tra i due neuroni si rinforza. Esistono veramente casi che si rifanno a

questa idea teorica generale ed esistono anche condizioni opposte (due neuroni

lavorano in modo disaccoppiato e la forza di connessione cambia). Sono i principi

della plasticità sinaptica. È una rete fatta da 2 strati, uno con neuroni in ingresso che

contattano tutti i neuroni in uscita. Non si va al contrario, solo da ingresso a uscita.

Tutte le sinapsi sono dotate di modifica dei pesi di tipo hebbiano. Se fate funzionare

la rete, vedete che è capace di riconoscere dei pattern, occorre che vengano matchati

con un template con un processo di ripropagazione dell’errore. Altre reti sono in

grado di rendere questa operazione efficiente. Nessuno nota i micro-circuiti di

memoria a priori. Quello che succede è che nella realtà non esistono i template. Voi

sapete che il genoma umano ha un contenuto di informazione che è simile a quello di

un vecchio copy disc. Con questi 750 MB non potete rappresentare nemmeno tutte le

sinapsi del cervello. Questo template sarebbe assurdo nella sua essenza. Non potete

immaginare che esista un template per tutto quello che esiste o che potrebbe esistere.

L’operazione template è artificio matematico che va bene per far funzionare la

 rete nel computer ma non nella realtà.

Il problema del template è un problema mal posto che però ha dato dei suggerimenti.

Quello che le reti hanno della biologia è solo la struttura e le regole di apprendimento

cioè il genoma coi suoi 30 mila geni non sta lì a codificare per forza delle sinapsi, le

mette a casaccio. Dota le reti di una struttura e le sinapsi di regole di apprendimento

codificando certi assemblaggi di proteine e tutte queste cose finiscono col generare

delle regole di plasticità. La rete che non sa niente, a mano a mano che cominciate a

usarla impara, si forma la plasticità . L’apprendimento è una proprietà emergente

delle reti, come anche la memoria. Il template non può funzionare ed è anche

concettualmente erroneo. Dovete trovare un modello alternativo, un modo per le

cellule di imparare da sole. È quello che si chiama apprendimento autonomo

(autonomous learning). Sono stati creati le reti auto-organizzanti, autonome, si auto-

organizzano. Per creare una rete auto-organizzante non si può avere una rete (?), non

si può organizzare, non ha abbastanza strutture e regole interne per organizzarsi.

Occorre qualcosa di più complicato. La prima idea è imitiamo la natura, estraiamo un

principio di auto-organizzazione. Guardiamo se nei principi organizzativi dei micro-

circuiti ci sono anche le basi per generare la self-organization. L’idea è partire dalla

struttura auto-organizzante che è la corteccia cerebrale. La prima considerazione è

che nella corteccia cerebrale l’organizzazione circuitale è fatta a colonne. Queste

micro-colonne che sono le unità fondamentali della corteccia sono aggregati di circa

30 mila neuroni, con diametro 300 µm, sono di forma cilindroide o esagonale e ce ne

stanno tantissime una vicina all’altra. La corteccia cerebrale contiene quasi metà dei

7

neuroni del cervello. Le micro-colonne sono qualcosa come 10 . Le micro-colonne

non funzionano da sole ma parlandosi una con l’altra. Per funzionare insieme hanno

delle regole. Quando eccitate una colonna, questa colonna fa tre cose:

Si auto-rieccita da sola con meccanismi interni che la potenziano.

1) Eccita debolmente le colonne vicine.

2) Inibisce le colonne lontane.

3)

Praticamente la colonna che si eccita genera tantissimo eccitamento, si circonda di un

debole alone di eccitamento e di un alone lontano di inibizione. Se andate ancora più

lontano, questa colonna non fa niente. Le connessioni a lungo raggio sono un’altra

cosa. Se volete connettere una zona con un’altra zona servono connessioni a lungo

raggio. Un macro-assembramento di colonne ha la sua autonomia. Qual è il profilo di

risposta spaziale di questa struttura? Ha la forma di un cappello messicano (mexican

hat o sombrero). La zona centrale si eccita pesantemente, tutto intorno è più debole.

Questa struttura non viene a generarsi solamente nella corteccia cerebrale ma anche

in altre regioni del cervello, per esempio nel cervelletto che ha struttura organizzativa

completamente diversa ma il mexican si forma lo stesso perché sfrutta processi di

inibizione laterale. Il ricercatore che ha sviluppato questa idea si chiama Kohonen.

Queste sono le reti di Kohonen. La rete riproduce uno strato di ingresso che è uguale

al … mentre lo strato di uscita ha delle connessioni interne ai neuroni che rispondono

alla regola di prima cioè un elemento eccita debolmente quelli vicini e inibisce quelli

lontani. Le connessioni tra lo strato di ingresso e quello di uscita (di Kohonen) sono

dotati di plasticità sinaptica. Se voi avete un neurone dello strato di Kohonen che si

eccita fortemente, finirà con eccitare debolmente quello intorno e inibire quelli

lontani. Se l’input va sui neuroni vicini, quelli appena vicini sono debolmente eccitati

quindi magari riescono a fare plasticità sinaptica, quelli più lontani limitano

assolutamente il passaggio del segnale.

La regola di Hebb estesa spazialmente dice che posso controllare la

 distribuzione della forza sinaptica.

Immaginate che il pattern sensoriale sia caratterizzato da una stella. Se la mandate su

questa via e il sistema si eccita più degli altri, questa stella finirà per attivare molto

bene questa sinapsi ma qui non succederà quasi nulla. Adesso immaginate di far

vedere qualcosa di simile a questa stella o qualcosa di diverso. Se fate vedere a

questo sistema un triangolo capovolto, questo sistema non capisce. Questo segnale

dovrà essere convogliato su altre vie, su questa non fa nulla e su altre agisce. Se

prendete un segnale che ci assomiglia (stella con 4 punte) il segnale verrà

parzialmente convogliato di qua. I simili finiscono vicini, i dissimili vengono

separati. Questo è lo strato d’ingresso su cui è stata stampata una lettera. Nello strato

che c’è sopra, fate vedere a turno le lettere dell’alfabeto al sistema e quindi sullo

strato d’ingresso si attivano palline diverse, una per ogni lettera. All’inizio i pesi

sinaptici sono messi tutti a caso, poi per caso la lettera A attiva una certa colonna

perché è quella che si è attivata di più e ha potenziato sé stessa e inibito quelle di

fianco. Le lettere simili finiscono tutte nella stessa zona, perché il simile finisce

vicino al simile. Dopo un po’ di prove, la U e la B sono finite insieme nella stessa

colonna. La X e la Z sono vicine. La E, la F, la B e la H sono tutte lettere che si

assomigliano. Vengono convogliate tutte vicine perché gli aloni di eccitamento fanno

in modo di portarle nella stessa zona.

Questo vuol dire che la rete si è auto-organizzata. All’inizio non sapeva dove

 doveva mettere le lettere ma aveva delle regole per organizzarsi, l’ha fatto e si

è auto-organizzata.

Quello che è successo è che ha scoperto dei concetti astratti. Ha creato

dei concetti astratti.

Come ha fatto? Secondo le sue regole interne di auto-organizzazione. La rete

individua dei concetti astratti come la spigolosità verso l’alto. La rete non solo sa

creare concetti astratti ma anche generalizzazioni (generalizzazioni perché estende il

concetto astratto). Un singolo neurone queste cose non sa farle, non è capace di

arrivare a questo livello perché le sue interazioni interne non sono sufficienti a creare

questo tipo di interazione. Voi non dovete cercare una risposta all’emergenza di

risposte complesse solo nel neurone. Il neurone è la base ma dovete cercare nelle reti.

C’è una corsa all’individuazione di tecniche che consentano di misurare le reti

neurali. Questo è un punto critico. Sostanzialmente una rete auto-organizzante tipo

Kohonen crea categorie astratte e le generalizza. Il nostro pensiero è fatto di strutture

logiche che procedono per categorizzazione, definizione di simboli astratti e

generalizzazioni di questi oggetti. Reti di questo tipo hanno la potenzialità di creare il

mondo logico che sta sotto il nostro pensiero. Questo è un sistema molto semplice ma

se voi lo complicate a sufficienza potete creare delle logiche di complessità superiore

fino ad arrivare alla logica che governa il pensiero superiore.

Mano a mano che le cose sono state studiate, ci si è posti problemi nuovi. Nella rete

che avete visto prima avete solo 2 strati, lo strato di ingresso e lo strato di Kohonen.

Sapete che le cose non sono mai così semplici. Saprete che c’è molta confusione su

come è fatto un circuito. Alcuni capisaldi si possono individuare nel cervelletto.

Avete strato di ingresso che sono i granuli e uno di uscita che sono le cellule di

Purkinje. Tra entrata e uscita sono sparpagliati neuroni inibitori di vario tipo che

riescono a modificare la funzione delle altre cellule. Di certo c’è strato di ingresso e

di uscita. Lo strato intermedio di cellule inibitorie esiste oppure no? Potete

immaginare che il sistema si organizzi un po’ come nella figura in basso a destra.

Questi qua sono i granuli, questo più a destra sia la cellula del Purkinje e quella lì un

interneurone inibitorio attivato dai granuli. Questo è un sistema a 3 strati. Possiamo

immaginare che le cellule inibitorie dello strato molecolare nella realtà, nella

organizzazione architettonica finiscano per generare un terzo strato, lo strato

intermedio. Quello che succede è che dobbiamo sistematizzare questa idea. Quando

cominciano a comparire questi strati? Negli organismi pluricellulari si cominciano

subito a formare gli strati. Andando avanti con l’evoluzione questi strati si

modificano. In un Vertebrato, provate a contare le fibre di ingresso dei sistemi

sensoriali. Siamo nell’ordine dei 2 milioni di fibre sensoriali afferenti, quasi tutte dei

nervi ottici. Poi contate le fibre di out, quante sono quelle contenute nei nervi motori

che vanno ai muscoli? Sono circa 2 milioni, quindi abbiamo 2 milioni di unità

12

muscolari nel corpo. Quanti sono i neuroni in totale? Sono 10 . Qui parliamo di

6

4*10 neuroni. Dove sono finiti tutti gli altri neuroni? Negli strati intermedi. Questi si

organizzano variamente all’interno dei circuiti. In generale gli strati intermedi sono

uno o due, oltre questi diventa difficilmente gestibile. Oltre il 99% dei neuroni forma

strati intermedi.

Cosa succede quando strati intermedi diventano funzionali? Vi faccio vedere un

problema risolto che è quello del X-OR. Avete mai sentito parlare di operatori logici?

Sono operatori matematici (funzioni che trasformano un oggetto in un altro) che

valutano la verità o falsità di un postulato. A seconda che sia vero o falso emettono un

risultato. Nel caso semplice possono essere binari, cioè valutano 2 funzioni

alternative (vero o falso). Rispondono ad una logica matematica semplice che viene

chiamata logica di Boole che nasce col calcolo automatico (sviluppo processori dei

pc). L’operatore AND si applica a due oggetti A e B per verificare se sono veri

insieme. Se avete A ma non avete B, A AND B sarà falso. Se A vale 1 e B vale 0, A

AND B vale 0. Se A vale 0 e B vale 1 allora A AND B vale ancora 0. Se A e B sono

entrambi veri e valgono 1, allora A AND B vale 1. Se invece A e B entrambi falsi e

valgono 0, A AND B vale 0. Immaginate di avere A, B e A AND B.

Una logica più complicata è l’X-OR che vuole dire O esclusiva. Per essere vera basta

che ci sia A o B. Se non c’è neanche uno dei due è falso. Se li avete tutti e due veri, se

è un OR è un 1 ma se è esclusivo è uno 0. L’OR è esclusivo quando ce n’è uno solo.

Immaginate di avere la rete a due strati fatta prima. Se avete che un input è sufficiente

a far scaricare l’output, a maggior ragione tutti e due gli input insieme fanno scaricare

l’output. Diventa un OR esclusivo. Con una rete a due strati non ci riuscirete mai ad

avere un OR esclusivo ma con una a 3 strati sì. Nello strato intermedio mettete un

interneurone inibitorio talmente forte che se si attiva spegne l’output. Se funziona A

l’output c’è, se funziona B anche, se funzionano A e B insieme si attiva

l’interneurone inibitorio che spegne l’output.

Usando gli interneuroni inibitori si può ricostruire la logica di Boole.

Dal punto di vista operativo cosa ci guadagnate? Prendete una storia come quella di

cappuccetto rosso. Si usa per far imparare ai bambini a usare i prototipi. Servono

prototipi per emozionarli. Avete le qualifiche di base, gli A e B dell’operatore logico

che sono le orecchie grandi, gli occhi grandi e poi dei prototipi che sono il

taglialegna, la nonna e il lupo. Poi avete le reazioni che sono gli output. Se c’è il lupo

deve scappare, se è la nonna deve andare dalla nonna. Potete cercare di risolvere il

problema in una rete a 3 strati ma arrivano errori perché manca la rete intermedia. I

neuroni inibitori implementano la categoria. Quando si attivano hanno definito di

cosa stiamo parlando. Avete modificato il problema attribuendo delle categorie

intermedie allo stato intermedio costituito dagli interneuroni. Espande la capacità del

cervello a risolvere operazioni logiche.

Altro fatto che avrete notato studiando l’anatomia, è che le reti neurali tendono ad

essere ricorrenti. Il talamo manda connessioni alla corteccia motoria e la corteccia al

talamo. La prima idea che si ha dallo studio dei circuiti è che siano pieni di vie

ricorrenti. Se non servissero, la biologia li eliminerebbe. Invece sono stati mantenuti

dalla selezione naturale e sono presenti in più animali perché sono un elemento base.

L’idea su come risolvere il problema è venuta a un ricercatore che ha costruito le reti

di Hopfield. Cerchiamo prima di quantificare il problema della ricorrenza delle

4

sinapsi. Ogni neurone fa con gli altri neuroni circa 10 sinapsi. il numero totale di

12

neuroni del cervello è 10 . Nel giro di 3 contatti sinaptici l’info si perde nel vuoto o

torna indietro. La ricorrenza non solo è una caratteristica tipica del SN di organismi

viventi ma è anche rapidissima. Nel giro di 3 contatti sinaptici l’informazione è

costretta a tornare a casa sua. Implementando questa idea, Hopfield comincia a

connettere tutti i neuroni tra loro a marcia indietro. Fa delle connessioni reciproche

per ognuno dei neuroni. Ovviamente su questi neuroni le sinapsi godono di proprietà

hebbiane, quindi possono generare plasticità sinaptica. Questa rete può essere istruita

ad apprendere dei pattern. Il fatto interessante è che una volta appresi i pattern questa

rete mostra una nuova proprietà emergente che deriva proprio dal fatto che è

ricorrente. Normalmente per arrivare a farle riconoscere qualcosa dovete darle delle

informazioni. Per esempio prendete il perceptron che deve riconoscere una banana.

Se manca solo un pallino, il perceptron non riconosce più niente. Non può lavorare su

una banana incompleta, è costruito per lavorare su una banana perfetta e ideale.

Quello che succede qui è che se fate vedere questa figura in mezzo alla nebbia alla

fine la rete la riconosce lo stesso. Altro fatto molto comune è che se vedo uno di voi

a metà invece che tutto intero io lo riconosco lo stesso perché nonostante ne veda

metà so com’è tutto il resto. Questo fatto è molto comune, noi non vediamo quasi mai

immagini intere ma pezzi di immagini. La stessa cosa si applica in mondo biologico,

immaginate il predatore che vede la preda in mezzo agli alberi. Se tutte le volte che

vede qualcosa di sfumato non capisce che c’è la preda non mangia più. Bisogna che

questo meccanismo sia implementato. Il sistema dev’essere in grado di ricostruire

dalla rappresentazione parziale che vede l’oggetto reale. È una tecnica di tipo

olografico, voi eccitate alcuni punti dell’ologramma e l’ologramma si attiva tutto.

Questa rete oltre a fare tutte le cose che abbiamo già detto prima è in grado di

riconoscere pattern rumorosi e incompleti. È in grado di riconoscere anche la

somiglianza tra due pattern non uguali. Basta che si assomiglino a sufficienza. Viene

generalizzata l’idea del pattern proiettata dentro a tanti sub-pattern. Se mettete una

rete simile in un input layer e poi lo collegate con un hidden layer o un Kohonen

layer fate un mezzo cervello.

L’ultimo problema che vi propongo è quello delle reti ricorrenti. Abbiamo per adesso

considerato strutture semplici dal punto di vista dell’organizzazione circuitale. Può

succedere che una rete a hidden layer si colleghi con un’altra. Questo fatto è

importante. C’è una struttura del cervello che funziona in questo modo generando un

contex layer che è la corteccia prefrontale . Lui pensa che si possa riprodurre una

qualche caratteristica della corteccia prefrontale considerandolo un contex layer.

Sapete che nella corteccia prefrontale esistono i neuroni a scarica persistente. Sono

quelli che continuano a scaricare indipendentemente dalla presenza dello stimolo,

sono una manifestazione di instabilità neuronale. Vanno avanti a scaricare finché non

vengono messi fuori uso. Vengono messi in funzione per mantenere la working

memory. Sono tipici dell’uomo. La presenza di questi neuroni è abbondante.

Immaginate di avere la frase “io mangio la mela”. Le parole vi arrivano una dopo

l’altra. Quando dico “io” voi non sapete cosa viene dopo ma se non la tenete in

memoria non capite la frase. Quindi il neurone della parola “io” va avanti a scaricare

finché non sente la parola dopo. Idem gli altri. Questi neuroni devono mantenere la

loro scarica a lungo. Questi neuroni sono nella corteccia prefrontale. Elman pensa

che questa sia una caratteristica che può essere incorporata in modo ideale in una rete

neurale stabile. Inventa una rete a 3 strati e collega l’hidden layer con un contex layer

che fa quell’operazione lì. Il contex layer contiene i neuroni che fanno memoria e la

plasticità dura per un certo tempo. Ciò che entra nella rete viene ributtato nella rete.

In questo modo si crea il contesto ed è possibile processare la working memory.

Questa rete viene dotata di rappresentazione del tempo. Quello che viene fuori è un

insieme di capacità computazionali e logiche interessanti.

Per mettere la biologia dentro queste reti oltre il limite che abbiamo definito,

dobbiamo fare un salto di qualità gigantesco. Il problema diventa complicato quando

volete dotare il modello di capacità computazionali realistiche (per esempio con

canali ionici). La biologia doveva usare le molecole, doveva usare quello che aveva a

disposizione e ha costruito qualcosa che funziona. Quello che abbiamo studiato è un

prezzo che la biologia paga per fare queste cose qua? Noi sappiamo che ci deve

essere qualcosa in più perché la biologia scarta quello che non serve. Il sistema

biologico si confronta con una variabile che in questi modelli c’è molto poco: il

tempo. Il problema del tempo è drammatico per le operazioni di calcolo. I neuroni

perdono tempo a fare i calcoli. Gli elaboratori elettronici non perdono tempo a fare i

calcoli, il cervello sì. Questo problema si riflette in tutta l’organizzazione neurale.

Costringe la biologia a dotarsi di soluzioni complicate per trattare il problema tempo.

Il cervello si evolve negli organismi per farli muovere. Quello che succede è che il

cervello dev’essere in grado di garantire un movimento in tempo reale, nonostante il

calcolo neuronale perda un sacco di tempo. Logicamente per generare un preset

cognitivo il cervello ci mette almeno 100 ms. Per generare un movimento il cervello

ci mette qualcosa tra i 500 e i 1000 ms. Ci sono problemi organizzativi che

costringono i neuroni a fare i salti mortali per generare codici complicatissimi. Il

sistema va incontro alla selezione per utilizzazione. Codici che rimangono sono quelli

che funzionano meglio e che consentono la sopravvivenza della specie. Bisogna

generare dei modelli che non sono così ma incorporano i neuroni veri.

Considerazioni:

Il moto fisico si sviluppa nel tempo, che è una variante fisica imprescindibile. La

modellistica che è stata fatta sui circuiti neurali invece prescinde dal tempo, vede il

modello come una serie di stati successivi che si sviluppano indipendentemente dal

tempo. Gli stati sono successivi, ma indipendenti dal tempo fisico che sta fuori. Il

sistema non sta processando il tempo, ma gli stati. Cosa vuol dire? Che è un sistema

inadatto a confrontarsi con un sistema biologico, ma allora a cosa servono? Servono a

farmi vedere come si arriva a un risultato, ma non a livello temporale. Questa è una

delle due critiche che vengono mosse alle reti neurali:

E’ tutto sbagliato perché non c’è il tempo

1) Sì, va bene lo steady state, ma poi dobbiamo capire cosa succede se inseriamo

2) la variabile tempo.

Chiaramente quale modello viene utilizzato dipende da dove voglio arrivare, se

vogliamo fare una constatazione di cosa può fare la rete allora va benissimo non

includere la variabile tempo, se vogliamo studiare dal punto di vista biologico che

cosa succede nel cervello allora dobbiamo rigettare i principi costitutivi delle reti

neurali artificiali. La verità è che da un punto di vista operativo questi sistemi

permettono di capire molte cose, ma che non venga mai in mente di dire che abbiamo

capito un microcircuito. Allora il problema è di riprodurre le reti neurali artificiali a

una modalità fisiologica, però qui si arriva a una serie di complicazioni. Anzitutto,

non sappiamo tutto quello che serve per ricostruire una rete neurale artificiale che

contenga dettagli biologici sufficienti a generare un sistema biologico artificiale. La

seconda critica è che una volta che l’ho fatto ho ricostruito la biologia in un sistema

artificiale, ma è una cosa inutile perché già esiste; in realtà non è inutile perché se

voglio dare una logica al sistema biologico bisogna che questa logica vada a cercare

in quello schema di convenzioni che vanno a pescare nel mondo fisico, chimico, non

posso prescindere dall’analisi precisa dei principi, non posso dire: “va così perché va

così”. Se io so che la cellula fa gli spike non posso dire di aver capito come funziona

un neurone, bisogna capirne le ragioni. Allora se noi vogliamo inglobare le

caratteristiche realistiche dei neuroni nelle reti bisogna fare uno sforzo di costruzione

imponente, dobbiamo avere una quantità di dati imponente e dobbiamo avere la

capacità di legare i nostri modelli con un sistema di riferimento coerente, che deriverà

da fisica, biofisica, informatica, da tutti quei linguaggi che sono stati costruiti per

analizzare il mondo fisico.

Dove comincia la strada per ricostruire i sistemi biologici in modo realistico? Dalla

teoria di H&H, che sintetizzano le conoscenze disponibili sul funzionamento delle

membrane cellulari generando la loro teoria del gating, che ha il vantaggio di legare il

comportamento molecolare al comportamento della membrana neuronale, le leggi

che li legano sono leggi cinetiche; le leggi cinetiche sono equazioni differenziali di

primo ordine di cui ogni proteina ne usa più di una, quindi si genera un sistema di

equazioni differenziali di primo ordine. Quello che vedete nella figura è uno schema

di come questo sistema viene generato. Ogni canale ionico è caratterizzato da un

certo numero di parti, c’è una conduttanza massima per quel canale ionico che

significa la conduttanza che si avrebbe se tutti i canali ionici di quel tipo sulla

membrana fossero aperti. Le cose non sono così semplici: ogni canale dipende dal

voltaggio e dal tempo e proprio qui entra in gioco il sistema di equazioni

differenziali, perché il sistema di H&H descrive un insieme di leggi che governano il

gating. Guardate quest’equazione: la particella di gating viene chiamata Yi, dove i è il

canale ionico, t è il tempo e dy/dt è la variazione della quantità della particella di

gating y nello stato permissivo nel tempo.

Abbiamo una quantità di una particella che può cambiare nel tempo.

Da cosa dipende? Da alfa, che è la velocità con la quale la particella compare, e da

beta che è la velocità con cui scompare secondo la struttura del gating. In sostanza la

velocità di modifica di questa particella dipende dalla quantità di questa particella

presente nel tempo, è la risoluzione di un’equazione cinetica di primo ordine. Per

ogni canale del sodio ci sono 3 particelle di gating di attivazione, che hanno

un’equazione sola perché sono uguali, e poi c’è quella di inattivazione che ha una sua

equazione differenziale.

Il canale del sodio viene descritto matematicamente da queste due equazioni

 differenziali più la conduttanza massima.

Con questi tre elementi costruite un canale del sodio. Si può fare con ogni tipo

 di canale ionico

Per risolvere il sistema bisogna utilizzare l’equazione generale della membrana

cellulare, dove avete che la corrente totale che scorre attraverso la membrana è

uguale alla somma della corrente capacitiva più tutte le correnti ioniche, ognuna delle

quali può essere espressa come il prodotto di una conduttanza per una forza

elettronmotrice. Quello che succede alla fine è che voi potete avere una descrizione di

questo sistema risolto, se lo risolvete ottenete un analogo modellizzato del neurone.

Questo neurone è stato costruito con una procedura che prende lo spunto dall’idea

che vi ho presentato. Fa potenziali d’azione e fluttuazioni elettriche che sono

perfettamente uguali a quelle misurabili in un neurone studiato in vitro.

Avete trasferito la biologia in un modello.

Quanto può durare una procedura di questo tipo? Una volta che tutto è messo a punto,

sviluppare un modello di questo tipo può richiedere un paio d’anni.

Nella procedura di modellizzazione si distinguono 3 fasi:

Costruzione , la costruzione del modello partendo da: tipologia del neurone,

1) proprietà passive del neurone e proprietà attive del neurone. Sullo sfondo c’è lo

schema matematico che abbiamo visto prima

Validazione . Il modello se viene costruito in modo corretto deve riprodurre dei

2) dati che non sono stati usati per costruirlo, altrimenti il ragionamento diventa

circolare. Ad esempio se voi sapete che dando un bloccante dei canali del

calcio il neurone cambia modo di funzionare, se nel modello spengo la

conduttanza al calcio deve cambiare nello stesso modo. Chiaramente se la

validazione fallisce bisogna tornare alla fase di costruzione.

Predizione . Il modello può predire degli stati funzionali del sistema che non

3) sono mai stati misurati. Questo modello è stato inserito all’interno di un

circuito neurale fatto di tanti neuroni collegati secondo le regole di connessione

che abbiamo visto. Nessuno può sapere come si comporterà questo neurone in

un circuito. Quello che succede è che questo modello messo in un circuito

prevedrà come si comporta un neurone sottoposto a stimoli arbitrari nel suo

circuito, predicendo il vero modo di lavorare di un neurone. A un certo punto le

tecniche avanzano ed è possibile vedere come si comporta davvero quel

neurone in quel circuito e a quel punto si può scoprire se la predizione è giusta

oppure no.

Quindi avete in mano un nuovo strumento per capire il nostro sistema biologico che

non è solo un metodo osservativo ma è una teoria, quindi avete in mano un metodo

per testare concretamente delle ipotesi. Perché fare un esempio con un modello di

neurone che viene posto in una rete? Se voi prendete un neurone e fate delle

misurazioni vedete come si comporta, per esempio se fa da pacemaker, ma non sapete

perché lo fa! Se voi prendete un modello che sapete che non è un pacemaker e

quando lo mettete nel circuito comincia a farlo è perché è stato indotto dalla rete a

comportarsi come tale.

Queste reti come sono fatte? Rispettando la geometria e la statistica delle connessioni

dei tessuti biologici, che vengono studiati tramite tecniche di imaging ed istologiche

di varia natura e complessità, che stanno evolvendo molto velocemente grazie allo

sviluppo di nuovi tipi di microscopi. Una volta che questo viene fatto si riescono ad

implementare dei microcircuiti simulati molto precisi.

Questo ad esempio è un circuito del cervelletto che contiene la cellula di prima e che

sta generando un’attività ritmica di fondo che sta per generare dei potenziali d’azione,

dovuti al fatto che un input sta entrando nel circuito. Questo è un circuito piccolo, di

10.000 neuroni, perciò questi microcircuiti possono iniziare a dirci come funzionano

le strutture interne del sistema nervoso. Chiaramente qui sono state incluse le

dinamiche temporali, torniamo al discorso iniziale, quindi arriviamo alla vera natura

del calcolo neurale. Ad esempio in questo esempio le cellule fanno spike nel tempo e

nello spazio e sono in grado di regolare il tempo di innesco del PdA. Questo è il

codice neurale. Il centro genera il potenziale d’azione in anticipo e in numero

maggiore rispetto alla periferia. Quindi quello che succede è che si seleziona un

canale di trasmissione che è più potente e più veloce circondato da un canale che

non lo è altrettanto, in questo modo i segnali vengono convogliati ai neuroni che

stanno sopra, che selezionano il tipo di segnale che viene dagli strati che stanno sotto.

In questo modo si crea un sistema di ricezione del segnale che è costituiti da due

stadi: Stadio di condizionamento , nel quale si selezionano i due canali

1) Stadio di ricezione

2)

In questo modo i microcircuiti elaborano i segnali. I segnali vengono condizionati nel

tempo e nello spazio e poi vengono convogliati, generati, ritardati, addensati… e poi

vengono convogliati a quello che sta sopra, tipicamente qui i neuroni sono le cellule

del Purkinje, che saranno contattate da un canale ad alta frequenza, ad alta velocità,

circondato da un canale a bassa velocità. Presumibilmente questo: c’è un core, ci

sono alcune cellule del Purkinje che scaricheranno più intensamente circondate da un

sistema di inibizione. Visto su un’altra scala si genera una sorta di pattern di attività

che decide alla fine quella che deve essere la risposta, quindi c’è una connessione

spazio-temporale dei segnali che è la base. Tutto questo se non ci fossero i modelli

non si potrebbe fare.

Ora introduciamo questi modelli in un sistema operativo. Questo schema è lo schema

del sistema sensorimotorio, in cui il cervelletto gioca un ruolo. Quello che succede

qui è che il circuito che abbiamo visto prima è stato incorporato nel sistema di

controllo, alla fine del quale c’è il sistema muscoloscheletrico, che può essere

simulato dall’equazione oppure può essere vero: voi potete costruire il cervello

mettendogli dentro la rete neurale che avete appena visto, che deriva da risultati

biologici. Il risultato è quello che vediamo in un video con un robot che ha quel

circuito incastonato nel sistema di controllo sensorimotorio, questa rete controlla il

comportamento del robot. Quello che succede è che questo robot deve imparare ad

evitare un ostacolo: tutte le volte che sbatte riceve un segnale che lo costringe a

imparare, a modificare la traiettoria del braccio meccanico per evitare l’ostacolo.

Essendo un sistema semplice, con solo due gradi di libertà, il compito in teoria non è

molto complicato, può solo andare più avanti o più in alto, quello che deve imparare è

la coordinazione tra l’avanzamento e il sollevamento del braccio, deve imparare che

per evitare l’ostacolo deve anticiparlo e scavalcarlo. Come fa a fare questo? Utilizza i

circuiti del cervelletto, che è dotato anche di memoria e di apprendimento, cioè è

stato messo uno schema in bianco di apprendimento nelle sue sinapsi . Quello che

succede è che deve memorizzare la posizione dell’ostacolo per prevederne la

presenza e prevedere le dinamiche del suo circuito meccanico, ma soprattutto deve

farlo al momento giusto! Deve farlo usando il circuito del cervelletto, i sistemi

cellulari che gli abbiamo messo noi e quindi sostanzialmente deve riprodurre un

comportamento biologico : stiamo costruendo un biorobot. La cosa singolare è che il

biorobot impara a fare quello che deve fare, nessuno gliel’ha detto, lui

semplicemente riceve un segnale di errore quando sbaglia e questo segnale scatena

l’apprendimento. Visto che noi non abbiamo imposto niente al circuito, abbiamo

semplicemente messo dentro un circuito biologico, quello che lui fa è portarsi dietro

la storia evolutiva e applicarla.

Qui vediamo tutti i tipi di neuroni cosa fanno. L’oliva inferiore trasporta il segnale di

errore, le cellule di DCN generano l’output, le cellule di Purkinje sono quelle che

rilevano e sintetizzano il segnale di errore. Le cellule del Purkinje (GABAergiche)

scaricano sempre, quando scaricano meno lui sta imparando, sta facendo long term

depression sulle Purkinje; le Purkinje attivandosi meno deinattivano le DCN, che

lavorano di più e attivano il braccio meccanico per alzarsi. Si ottiene l’80% di

riuscita dell’evitamento dell’ostacolo, che è anche il livello biologico di successo.

Questo significa che il meccanismo che gli abbiamo messo dentro è

 compatibile con la biologia e che analizzando gli spike pattern dovremmo

essere in grado di capire come funziona il sistema biologico.

A questo punto vi faccio vedere un’ultima figura. Cosa succede dentro nel neurone?

Nel simulatore? Essendo stato costruito dal modellista, il modello è esplicito, non c’è

niente che non sia controllabile, posso monitorare tutti i parametri di tutti i neuroni

(chiaramente poi c’è un problema di storage dei dati, di memoria). Qui vedete il

potenziale di membrana e il comportamento delle particelle di gating, qui sotto vedete

le correnti ioniche. Per esempio prendete le particelle di gating del sodio, vediamo

tutte le probabilità di apertura di ogni singola particella al variare del potenziale.

Possiamo vedere le correnti di sodio, potassio, calcio… Si studia molto bene il

comportamento della corrente IA per esempio. Noi in ogni momento possiamo andare

a controllare e regolare ogni parametro del funzionamento del nostro neurone.

Quindi tutto quello che stiamo facendo e vedendo ci aiuta a spiegare quello che

succede nel cervello dell’uomo? Fino a che punto ci aiuta? Questo approccio fornisce

uno schema logico particolare. Quello che succede e che abbiamo studiato in questo

momento siamo arrivati a questo robot, che non ha ricevuto programmazione: timing,

prediction e development sono proprietà emergenti del sistema , noi gli abbiamo

semplicemente detto: “Tu sei dotato di questi circuiti, questi neuroni e queste regole

di plasticità”, abbiamo seguito la stessa strategia delle reti neurali artificiali ma in più

gli abbiamo inserito dei neuroni realistici, dei sistemi biologici realistici e gli

abbiamo dato il concetto di tempo.

Quindi il sistema a questo punto ha queste proprietà emergenti che troviamo

 anche nell’uomo. Se noi facciamo dei test psicologici sull’uomo scopriamo che

quei circuiti che abbiamo analizzato fanno esattamente timing, prediction e

development.

Ci sono vari tipi di test che si possono fare, anche banali, nei quali si vedono bene

queste proprietà. Se queste proprietà vengono usate per operazioni un po’ più

complesse possiamo trovare la detenzione degli errori e della novità . Perché

immaginate di aver costruito un sistema che arriva a fare timing, prediction e

development, ad esempio il braccio meccanico che deve evitare l’ostacolo: se noi

dotiamo il sistema di un error tracking allora timing, prediction e development

permettono la detenzione degli errori oppure della novità. Anche questo si vede in

test psicologici. A questo punto cosa può fare il soggetto con questo error tracker? Se

noi lo sovrastrutturiamo ancora di più possiamo fare attention switching , cioè se c’è

una novità o un errore la prima cosa da fare è focalizzare l’attenzione sull’oggetto

nuovo o sbagliato che sia. Dov’è che si implementa questo meccanismo? Se io sto

guardando il prof e ad un certo punto gli si accende una lampadina di fianco faccio

delle saccadi. Quando c’è un errore, qualcosa che va contro la nostra prediction,

allora faccio una saccade e lo vedo. Questo succede ad esempio quando si guida:

guardiamo davanti, ma nel momento in cui qualcuno lampeggia vediamo lo

specchietto che si illumina.

L’altra cosa interessante è che con questo sistema di timing, prediction e development

potete alimentare la working memory . Cosa vuol dire? La working memory non è

altro che mantenere attiva la conoscenza di qualcosa che c’è da un certo tempo. La

mia conoscenza dello specchietto dell’auto è che non è illuminato, la mia working

memory trattiene questa conoscenza e quando lo specchietto cambia e si illumina

noto il cambiamento, se non ci fosse la working memory non lo noterei. Allo stesso

modo potete fare la cosiddetta mental manipulation : se ho un oggetto in memoria

posso modificarlo, manipolarlo in prospettiva e tramite il sistema di prediction potete

prevedere come sarà in un’altra prospettiva.

Quindi tutte queste operazioni discendono da timing, prediction e

 development.

Sono ancora funzioni nascoste, noi non sappiamo che le stiamo usando, a meno che

non andiamo a studiarle. Cosa emerge a livello di comportamento? Delle cose molto

macroscopiche? Ad esempio il controllo motorio: se uno è ubriaco non ha un buon

controllo motorio e noi ce ne accorgiamo subito; un altro esempio è l’attenzione: se

uno guarda fisso e non si cura di quel che ha intorno capiamo subito che non sta

indirizzando l’attenzione correttamente. Se uno sbaglia a parlare lo capite subito. Poi

c’è l’imagery e visual spatial processing: possiamo elaborare le immagini a livello

interno generando la cosiddetta immaginazione, anche lì se c’è qualcosa che non va


ACQUISTATO

3 volte

PAGINE

44

PESO

131.38 KB

PUBBLICATO

+1 anno fa


DETTAGLI
Corso di laurea: Corso di laurea magistrale in neurobiologia
SSD:
Università: Pavia - Unipv
A.A.: 2016-2017

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher helektron89 di informazioni apprese con la frequenza delle lezioni di Neurofisiologia dei sistemi integrati e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Pavia - Unipv o del prof D'Angelo Egidio.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Corso di laurea magistrale in neurobiologia

Appunti di Biofisica di membrana ed elettrofisiologia
Appunto
Appunti di neurochimica
Appunto
Fisiologia generale - componenti del filtro glomerulare
Appunto