Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
PRODOTTI DI MATRICI
AxB può essere fatto solo se le dimensioni delle due matrici (mxm kxl) sono tali che m
coincide a k ciò che il numero di colonne della matrice nel primo pezzo della moltiplicazione
coincide al numero di righe del secondo pezzo.
(i numeri esterni cerchiati in rosso sono quelli che definiranno le dimensioni del prodotto)
- Prodotto righe per colonne→può essere applicato solo per vettori e matrici che
condividono il numero di righe o di colonne
E.g. faccio (0x1)+(-1x1)=-1 e poi passo alla riga
sotto→(1x1)+(0x1)=1 quindi come risultato avrò
MATRICI DELLE ROTAZIONI per qualsiasi valore α è in grado di ruotare un qualsiasi
valore di α gradi in direzione antioraria
Geometricamente, le matrici rappresentano operazioni di deformazione di vettori.
In prodotti tra due matrici 2x2*2x2 con prodotto 2x2 a1,1 sarà il prodotto scalare tra la prima
riga della prima matrice e la prima colonna della seconda matrice. a1,2 sarà il prodotto
scalare della prima riga della prima matrice con la seconda colonna della seconda matrice e
così via.
Matrice identità= elemento neutro nel prodotto di matrici, tutte le matrici che hanno 1 sulla
diagonale principale e 0 per tutti gli altri valori
Matrice simmetrica= una matrice è detta simmetrica se è solo se essa coincide con la sua
trasposta
La traccia di una matrice è un numero pari alla somma degli elementi sulla sua diagonale.
→
() = ∑ + +... +
11 22
=1
Determinante di una matrice= il determinante di una matrice quadrata A è un valore
numerico associato ai prodotti delle entrate della matrice stessa. Geometricamente, il
determinante può essere interpretato come l'area di un parallelogramma generato dalle
colonne della matrice. Tuttavia, è importante notare che questa analogia è valida solo
quando entrambi i vettori colonna della matrice cadono nel primo quadrante del piano
cartesiano. In caso contrario, se almeno uno dei vettori colonna cade in un quadrante
diverso, il determinante può risultare negativo.
Matrici inverse= data una matrice quadrata A, la sua inversa è quella matrice che annulla la
trasformazione geometrica A. L’inversa è dunque una “ricetta” per annullare la
trasformazione geometrica codificata in una matrice.
L’inversa di una matrice 2x2 è→
Per verificare se una matrice è invertibile, dobbiamo calcolarne il determinante, se il
determinante è diverso da 0 allora è invertibile.
????????
DA INTEGRARE
Utilizzi
Una matrice è un modo utile per rappresentare la relazione di dati.
Le matrici quadrate e simmetriche vengono mappate in grafi semplici dove contano solo la
struttura e la connessione tra i nodi (ogni riga della matrice originale=1 nodo). Queste matrici
sono usate in Cognitive Network Science.
Le matrici reali quadrate ma non simmetriche vengono mappate in grafi diretti e pesati, dove
le connessioni hanno una direzione e un peso. Queste matrici vengono usate in Network
Psychometrics.
Semantic priming→matrici di adiacenza (vedi video matrici 2 min 39:45)
Una matrice è un modo di rappresentare una struttura di connessioni tra nodi.
Collins e Loftus proposero un modello data-driven della memoria semantica dove i concetti
fossero rappresentati dai nodi connessi da associazioni semantiche. I concetti più vicini
semanticamente si raggruppano sulla rete spiegando quindi il fenomeno di semantic
priming. Le matrici possono testare questi modelli in termini matematici.
Epskamp e colleghi hanno costruito un nuovo tipo di modelli, detti psychometric networks,
dove i nodi rappresentano item di scale psicometriche e le connessioni indicano correlazioni
positive o negative tra item. Poiché gli item codificano esperienze, una psychometric
network identifica come i vari sintomi osservabili di costrutti psicometrici invisibili/latenti
tendono a raggrupparsi e concorrere tra di loro. La matematica di questi modelli psicologici
si basa su matrici reali quadrate ma non simmetriche.
Analisi fattoriale
È una tecnica di riduzione dimensionale di dati vettoriali. Mira a costruire variabili sintetiche
come combinazioni lineari di dati misurabili e queste variabili sono dette fattori latenti e non
possono essere misurate direttamente.
Il punto di partenza dell’analisi fattoriale è l’equazione
Quindi (matrice dei dati osservati)=(matrice dei fattori
latenti)x(matrice dell'errore)
Dove:
Уp è un vettore colonna che contiene la lista di k responsi dati dal soggetto P
Ηp è un vettore colonna con m entrate con valori dei fattori latenti
Λ è una matrice kxm che trasforma i valori dei fattori latenti in responsi agli item a meno che
non ci sia un termine di errore in ∈p.
Risolvere un modello fattoriale vuol dire trovare le allocazioni degli item sulle variabili latenti
tali da ottimizzare una certa quantità.
Autovalori e autovettori
Esistono dei vettori speciali che non cambiano nè direzione nè verso ma solo modulo se
trasformati da una matrice. Questi autovettori sono tali da trasformarsi in loro stessi, a
meno di un fattore scalare, quando trasformati in una matrice.
Autovettore=data una matrice quadrata A, un autovettore di A è un vettore x tale che
ovvero tale da trasformarsi in sè stesso a meno di uno scalare sotto l’azione di A.
= λ λ
Il fattore scalare è detto autovalore.
Per calcolare autovalori e autovettori per una matrice 2x2 possiamo usare le regole
algebriche dei vettori, ricordando che abbiamo due quantità vettoriali in ciascun membro,
sottraendo la medesima quantità vettoriale ci riportiamo a:
= λ → − λ = λ − λ → ( − λ) = 0
Consideriamo una matrice 2x2 generica:
λ
1. Calcolo degli Autovalori ( ): λ
Gli autovalori sono le soluzioni dell'equazione caratteristica, che è data da (detA - I)=0,
λ
dove è l'autovalore e I è la matrice identità. Quindi, risolvi l'equazione:
Trova i valori di λ che soddisfano questa equazione. Questi saranno gli autovalori della
matrice.
2. Calcolo degli Autovettori (v):
Per ogni autovalore trovato, risolvi il sistema di equazioni lineari (A - I)=0, dove v è
λ λ
l'autovettore. Quindi, risolvi:
Risolvi il sistema di equazioni per trovare i valori di x e y. L'autovettore sarà dato da
L’equazione det ( − = 0 è detta equazione caratteristica e permette di trovare gli
)
autovalori di una matrice quadrata A.
L’identificazione di autovettori e autovalori dai dati può essere utile per semplificare la
trattazione dei dati.
La Principal Component Analysis (PCA) è una tecnica statistica in grado di identificare delle
«dimensioni di massima escursione» nei dati. Note queste dimensioni, si può avere
informazione sulla variabilità dei dati.
Nell’esempio accanto, identificare i due vettori
e vuol dire identificare due direzioni
1 2
principali sulle quali crescono o si
distribuiscono i dati. Avere queste dimensioni
vuol dire costruire un sistema di riferimento
dove si possono mappare i dati, e.g. in alto a
destra, in basso a sinistra, etc. In generale,
l’obiettivo della PCA è trovare una matrice
tale da trasformare i dati in input altamente
,
correlati e complessi, in dati di output che
appartengano in un certo modo alle dimensioni di massima escursione (e.g. in termini di
proiezioni) e che possano quindi essere facilmente raggruppati.
La PCA mira a trovare la matrice V tale che:
=
Trovare V passa proprio dall’identificazione di autovettori e autovalori in un gruppo di dati.
La PCA è utilizzata in molti contesti psicologici, ad esempio, l’analisi delle emozioni a partire
dalle espressioni facciali.
Mappando delle foto ad alta risoluzione in texture 2D, è possibile mappare centinaia di foto
di volti con emozioni diverse in un problema matematico alla PCA.
Gli autovettori rappresentano delle espressioni archetipiche, che sono riportate da persone
diverse. Queste expressioni prendono il nome di eigenfaces (dall’inglese eigenvector per
autovettore). Queste facce rappresentano dei «vettori» di una base in grado di ricostruire
per combinazione lineare gran parte di tutte le altre facce e sono 8.
Correlazioni
Vettori e matrici possono essere usati per rappresentare dati psicologici . multidimensionali e
identificare correlazioni tra di essi.
Due set di dati psicologici = {} e = {} sono detti direttamente proporzionali se il
rapporto / è una costante k per ogni punto considerato. Se ciò accade, si dice che la
grandezza X è direttamente proporzionale a Y e la loro costante di diretta proporzionalità è
K. Si scrive poi che: =
.
e.g.: Dei partecipanti ad un esperimento psicologico vengono pagati 5 EUR all’ora.
Un partecipante lavora per 1h. Un altro partecipante lavora per 2h e un terzo per 4h. Dunque
il loro orario lavorativo è = {1,2,4} e i rispettivi pagamenti sono = {5,10,20}. Le grandezze
«ore lavorate» e «pagamento» sono direttamente proporzionali e infatti Y = = 5.
La diretta proporzionalità richiede che i punti siano allineati lungo una retta, ma questa
condizione raramente si verifica a causa delle inevitabili incertezze associate alle
misurazioni. Ogni dato, essendo una misurazione, è soggetto a margini di incertezza che
possono influenzarne il valore. Anche se le grandezze fossero direttamente proporzionali nei
loro valori reali, i valori misurati (ovvero il valore vero ± margine di incertezza) sarebbero
soggetti a rumore e potenzialmente disallineati.
In psicologia si introduce allora il concetto di correlazione come versione più rilassata
della diretta proporzionalità. Nella diretta proporzionalità, all’aumentare di una grandezza
anche l’altra deve aumentare mantenendosi il loro rapporto costante. Nella correlazione,
all’aumentare di una grandezza l’altra può aumentare o diminuire ma senza che il loro
rapporto debba per forza mantenersi costante. In questo senso la correlazione è una
versione più generale di diretta proporzionalità e può anche essere legata ad aumenti o
decrementi.
Correlazione di Pearson
Dati due set di dati = {} e = {} , il coefficiente di correlazione di Pearson è dato d