Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
PCA e ICA nelle neuroimmagini
PCA.Infatti, tipicamente nelle neuroimmagini ad oggi si usa ICA.Sostanzialmente la differenza è che nelle mappe cerebrali della PCA e dell'ICA i voxel non possono andare a costituire un'altra mappa cerebrale, ma mentre nell'ICA sono anche temporalmente indipendenti, nella PCA no.Il passo successivo è andare a vedere la causazione, quello che abbiamo visto è il livello più semplice, quello correlazionale, stabilire se simultaneamente in maniera sincrona ci sono delle aree che esprimono la stessa attività nel corso del tempo.Con la causazione, con la cosiddetta connettività effettiva cerchiamo di stabilire se l'attività all'interno di questo network e di aree si muova con una certa direzione; quindi, se sia il segnale in un'area a creare il segnale in un'altra area e come prima abbiamo visto che la connettività funzionale si può fare con la PPI, con ICA con PCA, ovviamente ci sono anche
delle tipologie specifiche di analisi per creare, per cercare di capire, per studiare la connettività effettiva. Abbiamo principalmente due tipologie di analisi possibile: il SEM cioè i modelli di equazioni strutturali e poi vedremo dopo i modelli causali dinamici ICM che sono molto più usati, di fatto concettualmente quello che cercano di fare è una cosa analoga, tipicamente sia il SEM che ICM fanno delle analisi su delle ROI, su delle regioni di interesse perché è molto complesso cercare di trovare una causazione tra i segnali cerebrali, e quindi utilizzando delle ROI, cioè avendo delle aree più piccine rispetto a tutto il cervello è molto più facile studiare quali segnali influenzano quali altri. Quindi tipicamente si parte dalla definizione di un insieme di ROI che possono anche in questo caso derivare da uno studio di specializzazione funzionale fatto in precedenza, quindi mettiamo che lo studio tradizionale, alla fine mitira fuori un' unica area specializzata per quella funzione, allora se è un' unica area mi viene spontaneo dire, per fare qualcosa in più vediamo come questa area è funzionalmente connessa e allora lo facciamo con le PPI, quello che abbiamo visto prima, però mettiamo che invece da questa analisi tradizionale mi escono fuori tre aree: un' area frontale, un' area temporale e un' area parietale e allora la domanda può essere in questo caso: queste tre aree che ci sono già per il fatto che rimangono, che sopravvivono dalla sottrazione saranno di per sé funzionalmente connesse, quindi se vado a misurare la funzionalità, se vado a correlare le serie temporali di queste tre aree quasi sicuramente mi trovo che sono funzionalmente connesse, allora potrei dire: vediamo però se tra queste tre aree riusciamo a stabilire una connettività effettiva, cioè dire se è l' area frontale che manda il
segnale alla temporale e alla parietale o viceversa, oppure tutto parte dalla parietale e così via. Quindi a seconda della situazione, dei dati che io ho posso pormi delle domande, dei quesiti di ricerca differenti, tipicamente qui c'è bisogno di un set, di un insieme di regioni di interesse che deve essere di una certa numerosità ma neanche troppo grande perché altrimenti interpretare quello che accade diventa troppo complesso, non basta lo sperimentatore in questo tipo di analisi deve anche ipotizzare un modello di funzionamento, cioè deve dire secondo me in base alla letteratura che conosco è più probabile che sia questa specifica area che va ad influenzare queste altre aree, e a quel punto quello che fanno questi algoritmi, questi modelli è vedere se effettivamente i dati corrispondono alla tua ipotesi andando a non creare una pura e semplice matrice di covarianza ma andandola a vedere nel tempo, il segnale all'istante 1.che producono nell'altra area rispetto all'istante successivo? All'istante 2? e quindi capire se c'è una covarianza ma non sullo stesso istante temporale, ma su istanti temporali differenti tra queste diverse aree. Se c'è questo posso dire con buona probabilità che il segnale viaggia come avevo ipotizzato, quindi dalla mia area frontale, ad esempio va ad influenzare l'attività dell'area temporale o parietale, quindi essenzialmente il ricercatore deve ipotizzare che ci sia una certa via di queste connessioni e quello che fa il modello è darti la stima che la tua previsione è accurata o meno, quindi il modello regge o non regge rispetto a come l'hai pensato. Concettualmente è la stessa cosa che accade nel DCM, che è più utilizzata, anche in questo caso come prima bisogna partire da un insieme di ROI, di regioni di interesse, e andare ad ipotizzare quale è la loro relazione.causale. Se parliamo di connettività, abbiamo da una parte la connettività anatomica e funzionale dall'altra parte, la connettività funzionale si divide in funzionale vera e propria, siamo sul piano correlazionale o connettività effettiva e quindi cerchiamo di stabilire un flusso, una direzione di flusso nel modo in cui viaggiano questi segnali che tra di loro vanno ad influenzarsi. Un'altra tipologia di tecniche di analisi molto moderne soprattutto in questi ultimi anni hanno preso particolarmente piede, sono i cosiddetti CLASSIFICATORI; sono appunto tecniche molto potenti, sono comunque tecniche multivariate, quindi se dovessimo avvicinarle di più all'approccio di specializzazione o di integrazione, sicuramente sono più simili a quest'ultimo approccio perché sono di natura multivariata e il loro scopo è: capire come lavora la corteccia in riferimento sia degli stimoli ma può essere anche in riferimento al.segnale spontaneo e come questo segnale può essere classificabile, si parla addirittura del cosiddetto "brain-reading" in quanto utilizzando questi classificatori, se ben addestrati possiamo inferire cosa sta facendo il soggetto in quel momento, quale è il suo stato mentale, se sta mettendo in atto un determinato processo, un determinato compito cognitivo, e sono metodi che sfruttano degli algoritmi matematici, anche in questo caso, non è che questi algoritmi sono stati necessariamente creati per dati di neuroimmagini, ma è stata ad un certo punto un intersezione di conoscenze da parte di matematici che hanno iniziato a lavorare in ambito di neuroscienze e hanno detto perché non applicare questo tipi di algoritmi a dei dati molto molto grandi, come sono appunto quelli anche di un singolo cervello. Tutto parte da una prima dimostrazione del 2001 da parte di Haxby e colleghi che presentavano una categoria di oggetti molto molto semplice, un
esperimento di natura percettiva, in cui presentavano differenti categorie di oggetti al soggetto, immaginate, erano dei frutti, delle mele, pere, banane, fotografie differenti e poi altri tipi di oggetti, strumenti da lavoro: martello, cacciavite, chiave inglese, etc. in blocchetti differenti separati, quindi prima un blocco di frutta, poi un blocco di strumenti da lavoro, poi ancora un blocco di strumenti di lavoro, poi un blocco di frutta, in maniera così randomizzata, e andavano a monitorare quello che succedeva a livello della corteccia cerebrale, ma non solo a monitorare, cioè utilizzando i dati di funzionamento di questi voxel per addestrare dei classificatori, cioè degli algoritmi matematici che in qualche modo andavano a generalizzare l‘attività tipica neurale in risposta a una categoria di stimolo oppure ad un'altra categoria di stimolo, un po’ come se fanno una sorta di media; cioè questo è il segnale che vedi in risposta al
primo frutto, questo è il secondo segnale in risposta al secondo frutto, e via dicendo. Cercando in qualche modo di memorizzare, di trovare in questa attività neurale in risposta, e così via per l'altra categoria. A quel punto quando il classificatore è addestrato quello che si può fare è cercare di classificare l'attività neurale del soggetto senza sapere quello che il soggetto in quel momento sta guardando, quindi immaginate che ad un certo punto, il classificatore una volta che viene addestrato, riceve in input questo segnale neurale e dice: il soggetto sta guardando un frutto, oppure il soggetto sta guardando uno strumento, e già nel 2001 questo primo algoritmo Haxby dimostrò un'accuratezza del 96%, quindi sbagliando solo 4 volte su 100 il classificatore diceva quale attività neurale corrisponde alla visione di quale oggetto rispetto ad un altro oggetto, in questo si senso si parla di "brain-reading".
ovvero di capacità di lettura del segnale cerebrale. Questa tecnica ci permette di andare più nel dettaglio e chiarire meglio se una determinata zona cerebrale è connessa, è capace di elaborare certi stimoli e va nel dettaglio; da un certo punto di vista anche questa è una tecnica ibrida perché alla fine ci permette di studiare meglio la specializzazione funzionale di una determinata area, però a partire da una tecnica che non è più univariata ma è multivariata perché tiene in considerazione una configurazione spaziale di tanti segnali differenti. Dopo aver citato più volte il segnale Bold, che è in generale il segnale di risonanza magnetica iniziamo ad introdurre i principi di funzionamento di queste tecniche, possibili domande d'esame in merito all'argomento possono essere: come viene generato il segnale Bold; quali sono i principi di funzionamento della risonanza magnetica. La nostraconoscenza non deve essere tale da saper modificare le sequenze di risonanza magnetica come fanno i fisici che si specializzano in questo ambito, è capire un po' meglio i principi di funzionamento per collegare questo a tutto il resto e avere una visione più solida di queste tecniche. Prima di arrivare a parlare dell'effetto Bold è importante capire i principi di funzionamento della risonanza magnetica di per sé, l'effetto bold è un qualcosa che poi si innesta su questo, cioè lo studio, il monitoraggio dell'attività emodinamica è qualcosa che è uno step successivo rispetto alla risonanza magnetica, cioè quella tecnica che ci permette di ricostruire in vivo i tessuti cerebrali; quindi l'aspetto anatomico, l'aspetto strutturale, che una volta si poteva vedere solo tramite l'esame post mortem. Facciamo questa sorta di ricapitolazione dal punto di vista storico per capire gli albori diQuestatecnica si ritrovano in scoperte che sono arrivate decenni prima alla costruzione della tecnica dellarisonanza stessa e tutto si può far risalire a Wolfang Pauli, è un fisico austriaco che per primoscopre che i nuclei