Che materia stai cercando?

Econometria - l'algebra delle matrici

Appunti di Econometria per l'esame del professor Carlucci sull'algebra delle matrici. Gli argomenti trattati sono i seguenti: i vettori, le matrici, le operazioni tra matrici, la matrice inversa, l'indipendenza lineare di vettori, il rango di una matrice e alcune proprietà dei determinanti, i sistemi di equazioni,... Vedi di più

Esame di Econometria docente Prof. F. Carlucci

Anteprima

ESTRATTO DOCUMENTO

Modulo IV – Algebra delle matrici

linearmente indipendenti è uguale al massimo numero di colonne linearmente

indipendenti, generalmente si potrà parlare senza ambiguità di rango pieno senza

specificare se sia di riga o di colonna.

Se il rango è zero è ovviamente la matrice nulla.

A

Se il rango è allora può essere conveniente riordinare la matrice in

r < min(n,m)

modo che le prime colonne e righe siano linearmente indipendenti. Usando la

r

notazione della matrice partizionata (1.2.5) avremo allora

 

A A

11 12

 

( ) (1.5.4)

× × −

= r r r n r

A  

A A

21 22

 

( ) ( ) ( )

− × − × −

m r r m r n r

dove la matrice è di rango pieno.

A

11

Si possono dimostrare i seguenti teoremi:

Teorema 1.3 - Se una matrice di ordine ha rango , anche la matrice ha

A m×n k A′A

rango .

k

Teorema 1.4 - Condizione necessaria e sufficiente affinché una matrice quadrata A

di ordine sia non singolare è che sia di rango (massimo) .

n n

Teorema 1.5 - Se e sono due matrici quadrate dello stesso ordine, allora

A B (1.5.5)

det(AB)=detA⋅detB

Sono utili, inoltre, le seguenti osservazioni sui determinanti di una matrice A

quadrata. Osservazione 1.5 - Una matrice e la sua trasposta posseggono lo

A A′

stesso determinante. Infatti gli elementi della sommatoria (1.4.6) sono

uguali.

Osservazione 1.6 - Nel caso di una matrice triangolare, inferiore o

superiore, tutti i termini della sommatoria (1.4.6) sono nulli poiché

contengono un fattore nullo, tranne il termine formato da tutti e soli gli

elementi diagonali. Il prodotto di questi elementi costituisce allora il

determinante della matrice triangolare. In particolare, il determinante

di una matrice diagonale è dato dal prodotto degli elementi diagonali, ed

il determinante della matrice unitaria vale uno. 1-17

Modulo IV – Algebra delle matrici

1.6 Sistemi di equazioni

Equazioni omogenee

Consideriamo il seguente sistema di equazioni lineari in incognite

m n

+ + + =

 a x a x ... a x 0

11 1 12 2 1 n n

 + + + =

 a x a x ... a x 0 (1.6.1)

 21 1 22 2 2 n n

...

 + + + =

 a x a x ... a x 0

m 1 1 m 2 2 mn n

Le equazioni (1.6.1) sono omogenee perché in esse non compare un termine noto.

m

Le (1.6.1) possono essere scritte in notazione matriciale come segue (1.6.2)

Ax = 0

dove è la matrice dei coefficienti

A m×n

 

L

a a a

11 12 1 n

 

L

a a a [ ]

  (1.6.3)

= =

21 22 2 n L

A a a a

  1 2 n

M M M

 

 

a a a

m 1 m 2 mn

mentre è il vettore delle incognite e un vettore di zeri, oppure anche nel

x n 0 m

modo seguente (1.6.4)

+ + + =

a x a x ... a x 0

1 1 2 2 n n

Supponiamo che la matrice dei coefficienti abbia rango . In tal caso possiamo

r

partizionare il sistema di equazioni utilizzando la (1.5.4) come segue

   

A A x =

11 12 1

    0 (1.6.5)

 A A x

21 22 2

dove il vettore contiene le prime incognite e il vettore le ultime .

x r x n-r

1 2

Per risolvere il sistema eliminiamo le ultime righe, mantenendo solo le

m-r r

equazioni linearmente indipendenti nelle quali figurano incognite.

n > r

+ = (1.6.6)

A x A x 0

11 1 12 2 ×

r 1

Dato che la matrice è non singolare possiamo invertirla ottenendo

A

11 = − − (1.6.7)

1

x A A x

1 11 12 2

Usando la (1.6.7) la soluzione generale del sistema (1.6.2) può essere scritta nel

modo seguente 1-18

Modulo IV – Algebra delle matrici

 

  − 1

x A A (1.6.8)

 

= =

1  

11 12

x x

  2

   

x I −

2 n r

(il lettore può verificare direttamente usando la regole del prodotto di matrici

partizionate (1.3.11) che la (1.6.8) risolve il sistema (1.6.2)).

Nella (1.6.8) gli elementi di possono essere specificati arbitrariamente. La

n-r x 2

matrice che compare al membro di destra ha colonne linearmente indipendenti

n-r

e quindi possiamo affermare che il vettore , soluzione del sistema (1.6.2), è una

x

combinazione lineare degli vettori colonna della matrice che figura nella (1.6.8)

n-r

con pesi arbitrari dati dagli elementi del vettore .

n-r x 2

Equazioni non omogenee

Consideriamo ora il sistema di equazioni non omogenee in incognite

n n

+ + + =

 a x a x ... a x b

11 1 12 2 1 n n 1

 + + + =

 a x a x ... a x b (1.6.9)

 21 1 22 2 2 n n 2

...

 + + + =

 a x a x ... a x b

n 1 1 n 2 2 nn n n

Nella (1.6.9) ogni equazioni comprende un termine noto costante. La (1.6.9) può

essere scritta in termini matriciali come (1.6.10)

Ax = b

dove ora la matrice dei coefficienti è quadrata e è il vettore dei termini noti.

b

Il sistema (1.6.10) ammette soluzioni se la matrice dei coefficienti è di rango

pieno, cioè non singolare, nel qual caso sarà

-1 (1.6.11)

x = A b 1-19

Modulo IV – Algebra delle matrici

1.7 Autovalori e autovettori

Equazione caratteristica di una matrice e sue soluzioni

Consideriamo un sistema di equazioni lineari del tipo

λx (1.7.1)

Ax = λ

dove è una matrice quadrata nota di ordine , un vettore di incognite e uno

A n x n

scalare incognito. Nella (1.7.1) figurano due incognite: un vettore e uno scalare.

Raccogliendo tutti i termini a sinistra possiamo esprimere la (1.7.1) in una

forma analoga alla (1.6.2)

λx λIx λI) (1.7.2)

Ax - = Ax - = (A - x = 0

λI

λ

Se è tale che la matrice sia non singolare, allora l’unica soluzione

A -

possibile sarà quella banale , perché l’unica combinazione lineare delle colonne

x = 0

λI

di uguale al vettore nullo sarà quella con coefficienti tutti nulli ( ;

A - x i = 1, …, n

i

vedi la (1.6.4). λ

Di conseguenza per ottenere soluzioni non banali occorre che sia tale da

rendere singolare la matrice dei coefficienti del sistema (1.7.2). Sappiamo che una

matrice è singolare se il suo determinante è uguale a zero, e quindi possiamo

scrivere questa condizione nel modo seguente:

λI) 0 (1.7.3)

det(A - =

L’equazione (1.7.3) è detta equazione caratteristica della matrice . Sviluppando il

A

determinante si dimostra che l’equazione caratteristica è un’equazione di grado n

λ λ

in le cui radici (che possono essere reali o complesse coniugate) sono dette

n i

autovalori o radici caratteristiche della matrice . Sostituendo uno alla volta gli

A

autovalori nel sistema (1.7.2) esso diventa risolvibile e la soluzione che viene

x i

λ

trovata sostituendo nella (1.7.2) l’autovalore viene detta autovettore, o vettore

i

λ

caratteristico, associato all’autovalore .

i

Esempio 1.13 – Si consideri ad esempio la matrice

 

2 1

B =  

 

1 2

Per trovarne autovalori e autovettori scriviamo

(B -λI) x = 0

e la condizione sul determinante della matrice dei coefficienti può essere

espressa come 1-20

Modulo IV – Algebra delle matrici

 λ  − λ

     

2 1 0 2 1

 

− =

(B -λI)= =

     

det  

λ − λ

    

 

1 2 0 1 2

λ

= (2-λ) – 1 = - 4λ + 3 = 0

2 2

L’equazione caratteristica è un’equazione di secondo grado e le sue

radici, cioè gli autovalori di , possono essere trovati con la nota

B

formula ± −

4 16 12

λ λ = λ λ

; = 3, = 1

, 1 2

1 2 2

Per trovare gli autovettori sostituiamo gli autovalori nel sistema e lo

risolviamo rispetto a . Sostituendo il primo otteniamo

x

  −

         

2 1 3 0 x 1 1 x

 

− = =

(B -λI) x = 1 1

          0

  −

         

 

1 2 0 3 x 1 1 x

2 2

Applicando il procedimento di soluzione dell’equazione omogenea

delineato nella (1.6.8) troviamo che le coordinate del primo autovettore

sono legate dalla relazione x = x , dove può assumere un valore

x

1 2 2

arbitrario. In altre parole, il primo autovettore è un qualsiasi vettore del

tipo x = [ a, a ]' con a∈R. Per dare un valore definito agli elementi di un

autovettore normalmente si usa imporre la condizione che l’autovettore

abbia lunghezza unitaria. In questo caso, ponendo la lunghezza

a = 1

dell’autovettore è pari a (si veda la (1.1.5)) e quindi il primo

2 −

autovettore normalizzato sarà pari a = (1, 1)'.

1 2

x 2

1

Il lettore può trovare il secondo autovettore normalizzato per esercizio.

Proprietà degli autovalori e autovettori

Questo esempio presenta due caratteristiche che si estendono al caso generale di

matrici di ordine . Definendo traccia della matrice quadrata , in simboli ), la

n A tr(A

somma degli elementi diagonali della matrice, cioè

∑ (1.7.4)

n

tr(A) = a ii

=

i 1

abbiamo che

1) la traccia di una matrice è uguale alla somma dei suoi autovalori

∑ (1.7.5)

λ

n

tr(A) = i

=

i 1

2) il determinante di una matrice è uguale al prodotto dei suoi autovalori

1-21

Modulo IV – Algebra delle matrici (1.7.6)

n

∏ λ

det(A) = i

=

i 1

3) il rango di una matrice è uguale al numero di autovalori non nulli

Nel caso della matrice dell’esempio precedente si ha, infatti

B λ λ

tr(B) = b + b = 2 + 2 = + = 3 + 1 = 4

11 22 1 2

e λ λ

det(B) = b b – b b = 4 – 1 = = 3×1 = 3

11 22 12 21 1 2

Inoltre, la matrice è di rango pieno e quindi il suo rango è uguale al numero dei

B

suoi autovalori non nulli. Queste proprietà, come abbiamo detto, sono valide in

generale.

Gli autovalori e gli autovettori presentano altre proprietà utili per le

applicazioni economiche e statistiche. In particolare, nelle applicazioni statistiche

si ha spesso a che fare con matrici simmetriche i cui elementi sono numeri reali.

Sono tali, ad esempio, le matrici di varianze e covarianze, dato che Cov(y , y ) =

i j

e che le covarianze sono numeri reali. Gli autovalori e autovettori delle

Cov(y , y )

j i

matrici reali simmetriche godono di proprietà particolari. Se è una matrice

Z

simmetrica, allora

1) I suoi autovalori sono reali. 4

2) Gli autovettori corrispondenti ad autovalori distinti sono ortogonali

′ (1.7.7)

= ≠

x x 0 i j

i j

3) Di conseguenza, gli autovettori normalizzati costituiscono un insieme

ortonormale di vettori, cioè un insieme di vettori di lunghezza unitaria

mutuamente ortogonali, e la matrice che raccoglie gli autovettori

X

normalizzati è ortogonale (si veda la (1.3.9)).

4) La matrice ortogonale degli autovettori diagonalizza la matrice , cioè vale

Z

la relazione Λ (1.7.8)

X'Z X =

Si noti che gli autovalori non sono necessariamente tutti distinti: l’equazione

4

caratteristica, cioè, potrebbe avere delle radici di molteplicità superiore a uno, Tuttavia

questo caso è raro nelle applicazioni che ci interessano e quindi lo trascuriamo per

semplicità, rinviando il lettore interessato a un testo di algebra delle matrici. 1-22

Modulo IV – Algebra delle matrici

Λ

dove è la matrice diagonale che raccoglie gli autovalori di Z

Λ λ λ

= <λ >

1 2 … n

Queste proprietà sono dimostrate nei testi di algebra delle matrici e qui ci

limitiamo a esemplificarle.

La matrice considerata nell’esempio precedente è simmetrica e abbiamo visto

B

che i suoi autovalori sono reali. Gli autovettori normalizzati corrispondenti a

autovalori distinti sono rispettivamente −

  

1 1

1 1

= =

and

   

x x

1 2

   

1 1

2 2

e si verifica subito che sono ortogonali:

  −

1

[ ]

1 1 1

′ = = =

 

x x 1 1 0

1 2  

1

2 2

Ne consegue che la matrice formata con gli autovettori

 

1 1

1

=  

X  

1 1

2

è ortogonale, cioè ’ . Si verifica, infine, che questa matrice diagonalizza la

X X = I

matrice , perché è:

B X'BX =

− −

             

1 1 2 1 1 1 1 1 3 1 6 0 3 0

1 1 1

= = =

             

= − −

1 1 1 2 1 1 1 1 3 1 0 2 0 1

2 2 2 1-23

Modulo IV – Algebra delle matrici

1.8 Forme quadratiche e matrici definite positive e

negative

Una forma quadratica è l'espressione , dove è una matrice simmetrica di

v′Av A

ordine e è un vettore di dimensione . Se la forma quadratica è

n v n n=2

′ = + +

2 2

v Av a v 2 a v v a v

11 1 12 1 2 22 2

mentre se si ha

n=3

′ = + + + + + +

2 2 2

v Av a v a v a v 2 a v v 2 a v v 2 a v v

11 1 22 2 33 3 12 1 2 13 1 3 23 2 3

Se per ogni la forma quadratica è detta definita positiva e la matrice

v′Av>0 v≠0 A

definita positiva. Se per ogni la forma e la matrice corrispondente sono

v′Av≥0 v≠0

dette semidefinite positive.

Se oppure per ogni la forma e la matrice sono dette definite

v′Av<0 v′Av≤0 v≠0

negative oppure semidefinite negative, rispettivamente.

Se chiamiamo minori principali della matrice i determinanti delle seguenti

A

sottomatrici estratte da in modo che le loro diagonali principali siano costituite

A

da elementi della diagonale principale di A

a a a

11 12 13

a a 

, , , …,

11 12 (1.8.1)

a a a

a A

11 21 22 23

a a

21 22 a a a

31 32 33

vale il seguente

Teorema 1.6 - Condizione necessaria e sufficiente affinché la matrice quadrata

simmetrica con elementi reali sia definita positiva è che i minori principali (1.8.1)

A

siano tutti positivi.

Una condizione equivalente può essere espressa in termini degli autovalori della

matrice come segue:

Teorema 1.7 - Condizione necessaria e sufficiente affinché la matrice quadrata

simmetrica con elementi reali sia definita positiva è che i suoi autovalori siano

A

tutti positivi.

Sulle matrici definite positive valgono, inoltre, anche gli ulteriori teoremi:

Teorema 1.8 - Se è una matrice di ordine con rango

A n×m m<n (rango pieno di

, allora è definita positiva e è semidefinita positiva

colonna) A′A AA′

dal quale discende il seguente

Corollario 1.1. – Data una matrice di ordine n×k, la condizione

X 1-24

Modulo IV – Algebra delle matrici

det( ’ ) 0 (1.8.2)

X X

oppure l’altra n>k, r( ) = k (1.8.3)

X

sono equivalenti alla terza seguente

’ definita positiva (1.8.4)

X X

Infatti, se valgono la (1.8.2) oppure la (1.8.3) la matrice è di rango massimo k<n e

X

’ è definita positiva per il teorema 1.7. Se, viceversa, vale la (1.8.4), per il

X X

teorema 1.6 il determinante di ’ è diverso da zero e vale la (1.8.2) oppure la

X X

(1.8.3). Osservazione 1.7 - L'ipotesi che nella forma quadratica la matrice

v′Av

sia simmetrica non è restrittiva: infatti, se non lo fosse, ci si potrebbe

A

ricondurre al caso simmetrico considerando che

= + =

v′Av v′Av/2 v′ A′v/2 v′(A+A′)v/2

e che è una matrice simmetrica.

A+A′

Teorema 1.9 - Se è una matrice quadrata di ordine definita positiva e se è una

A n B

matrice di ordine , , con , allora la matrice è definita positiva.

m×n m≤n r(B)=m BAB′

Teorema 1.10 - Se è una matrice simmetrica e definita positiva, esiste una matrice

A

non singolare tale che

P = (1.8.5)

A PP′

La (1.8.2) esprime la fattorizzazione di nel prodotto di per la sua trasposta.

A P

Per calcolarla si ricordi che alla matrice , essendo simmetrica, può essere

A

diagonalizzata applicando la (1.7.8), per cui possiamo scrivere

Λ

X'AX = Λ

dove è la matrice ortogonale contenente gli autovettori normalizzati di e la

X n A

matrice diagonale dei suoi autovalori. Per l’ortogonalità di abbiamo, applicando

X

la (1.3.9) Λ

A = X X' Λ

Ma per il teorema 1.8 tutti gli elementi diagonali di sono positivi, e quindi questa

matrice può essere a sua volta fattorizzata come

   

λ λ λ

     

1 1 1 1 1

  = = Λ Λ

O O O

    2 2

     

 

λ λ λ

     

n n n 1-25

Modulo IV – Algebra delle matrici

1

= Λ

da cui, ponendo , si ricava la (1.8.5).

2

P X

Matrici idempotenti

Data la matrice , la proprietà

A = (1.8.6)

AA A

è chiamata idempotenza per , che viene detta idempotente. La matrice

A

−1 è idempotente, come facilmente si verifica. Un altro esempio è

M=[I−X(X′X) X′]

costituito dalla (1.8.7)

1 ′

I i i

n n

dove è la matrice identica di ordine e la è la matrice quadrata di ordine i cui

I n ii′ n

elementi sono tutti uguali ad uno; infatti

    ( )( )

1 1 1 1 1

′ ′ ′ ′ ′ ′

− − = − − + =

I i

i I i i I i i i

i i

i i

i

   

n n n 2

n n n n n (1.8.8)

2 n 1

′ ′ ′

= − + = −

I i i i

i I i

i

n n

2

n n

n

Per le matrici idempotenti vale il seguente

Teorema 1.11 - Se una matrice è simmetrica ed idempotente, è anche semidefinita

A

positiva. 1-26

Modulo IV – Algebra delle matrici

1.9 Derivazione vettoriale

Introduciamo ora alcuni concetti di calcolo matriciale che ci permettono di definire

il criterio dei minimi quadrati con l'uso della teoria dei massimi e minimi.

Iniziamo con la definizione della derivata vettoriale di una funzione degli

S(b)

elementi del vettore , che può essere rappresentata, ad esempio, dalla devianza

b

(II-1.4.5); derivando parzialmente rispetto a ciascuno dei elementi di si

S(b) k b

ottiene il vettore derivata

 

∂ ∂ ∂ ∂

S (

b ) S (

b ) S (

b ) S (

b )

= (1.9.1)

 

...

∂ ∂ ∂ ∂

b b b b

1 2 k

+a +…+a

Esempio 1.14 - Se dove le sono costanti

S(b)=a′b=a b b b a

1 1 2 2 k k

reali, il vettore derivata è ′

∂ ∂

S (

b ) S (

a b ) ′

= = a (1.9.2)

∂ ∂

b b

ma poiché è uno scalare, uguale quindi al suo trasposto , si ha

a′b b′a

anche  

a 1

 

∂ ∂ (1.9.3)

a

S (

b ) S (

b a )  

= = =

2 a

′  

∂ ∂

b b ...

 

 

a k

La scelta tra la (1.9.2) e la (1.9.3) dipende dalla sua utilità nel contesto

della derivazione.

La forma quadratica , dove è una matrice quadrata simmetrica di

S(b)=b′Ab A

ordine e è un vettore di dimensione , è una funzione scalare poiché consiste nel

k b k

prodotto scalare tra il vettore riga ed il vettore colonna (oppure del vettore

b′ Ab

riga ed il vettore colonna ) e quindi si può calcolare su di essa il vettore

b′A b

derivata come fatto nell'esempio precedente, ottenendosi il risultato

∂ ∂ [ ]

S (

b ) b Ab ′ ′

= = = (1.9.4)

2 b a a ... a 2 b A

∂ ∂ 1 2 k

b b

che è un vettore riga se chiamiamo con , , le colonne della matrice .

a i=1,2,…,k A

i

Alternativamente, come nell'esempio 1.14, si può avere 1-27

Modulo IV – Algebra delle matrici

 

a .

1

 

∂ ∂ (1.9.5)

a .

S (

b ) b Ab  

= = =

2

2 b 2 Ab

′  

∂ ∂

b b ...

 

 

a .

k ′

che è un vettore colonna se chiamiamo le righe della matrice .

a A

i

Esempio 1.15 - Nel caso della forma quadratica costruita con la matrice

simmetrica di ordine 2

 

a a

= 11 12

 

A  a a

12 22

si ha che    

[ ] a a b

= = + +

11 12 1 2 2

   

S (

b ) b b b a 2 b b a b a

1 2 1 11 1 2 12 2 22

   

a a b

12 22 2

e le due derivate parziali valgono

∂ ∂

S (

b ) S (

b )

= + = +

, (1.9.6)

2 (

b a b a ) 2

( b a b a )

∂ ∂

1 11 2 12 1 12 2 22

b b

1 2

D'altro canto la (1.9.5) vale +

∂      

a a b b a b a

S (

b ) = =

11 12 1 1 11 2 12

     

2 2

∂ +

     

b a a b b a b a

12 22 2 1 12 2 22

vettore colonna equivalente alle (1.9.6).

Più in generale si verifica facilmente che, date le funzioni scalari e , si

b′Ac c′Ab

ha ′ ′

∂ ∂

b Ac c Ab ′

= =

, (1.9.7)

Ac c A

∂ ∂

b b

Osservazione 1.8 - Anche la devianza , del tipo (1.1.4) è una forma

u′u

=

quadratica, con .

A I 1-28

Modulo IV – Algebra delle matrici

1.10 Proprietà della traccia

Riprendiamo ora l'operatore traccia definito dalla (1.7.4) ed indichiamone alcune

utili proprietà.

La traccia di dove è una matrice di ordine è uguale alla somma dei

BB′ B n×m

quadrati di tutti gli elementi di , come immediatamente si verifica. Se è una

B B

matrice di ordine e di ordine , vale la seguente proprietà

m×n C n×m

m n n m

∑ ∑ ∑ ∑

= = = (1.10.1)

tr (

BC

) b c c b tr (

CB )

ij ji ji ij

= = = =

i 1 j 1 j 1 i 1

facilmente generalizzabile al caso di tre o più matrici, e dalla quale si trae il

seguente risultato, considerando che gli operatori valor medio e traccia sono

E tr

~

intercambiabili : dati un vettore di variabili aleatorie per il quale

5 n u

~ ~ ~

= = σ e una matrice quadrata , di ordine , costituita da

2

Cov ( u ) E (

u u ) I M n

costanti, allora è

′ ′ ′ ′

~ ~ ~ ~ ~ ~ ~ ~

= = = = σ = σ (1.10.2)

2 2

E (

u M

u ) E [

tr (

u M

u )] E

[ tr

( u u M

)] tr

[ E ( u u M

)] tr

( M

) tr

M ′

~ ~

dove nel primo passaggio è stato considerato che la forma quadratica è uno

u M

u

scalare, uguale quindi alla sua traccia, e nell'ultimo che, dato il fattore ,

a

tr(aM)=a⋅trM ≠

  

m m 0 i j

~ ~

= ⋅ =

Esempio 1.16 - Se e per , si

11 12 

 

M E (

u u ) i,j=1,2

σ =

i j 2

  

m m i j

21 22

ha ~ ~

   

     

m m u u

[ ] [ ]

~ ~ ~ ~ ~ ~

= + + =

   

11 12 1 1

     

E u u E u m u m , u m u m

~ ~

1 2 1 11 2 21 1 12 2 22

  

   

m m u u

21 22 2 2

( )

~ ~ ~ ~ ~ ~

= + + + =

2 2

E u m u u m u u m u m

1 11 2 1 21 1 2 12 2 22

( )

= σ + = σ

2 2

m m tr

M

11 22

dove è esemplificato il fatto che una forma quadratica è uno scalare.

Si verifica facilmente che per la traccia vale la proprietà additiva, cioè, con e

A

matrici quadrate dello stesso ordine,

B (1.10.3)

tr(A+B)=trA+trB

Nel modulo II utilizziamo il seguente

Il valor medio della somma degli elementi aleatori diagonali di una matrice quadrata è

5

uguale alla somma dei valori medi di tali elementi. 1-29

Modulo IV – Algebra delle matrici

Teorema 1.12 - Se è una matrice simmetrica ed idempotente di ordine , il suo

M n

rango è uguale alla sua traccia; inoltre esiste una matrice ortogonale tale che

r≤n P (1.10.4)

P′MP=E

r

dove è una matrice diagonale con unità ed zeri nella diagonale principale

E r n−r

r =< >

E 1 1 1 ... 1 0 0 0 ... 0

1

4

4

4

2

4

4

4

3 1

4

4

4

2

4

4

4

3

r −

r elementi n r elementi 1-30


PAGINE

33

PESO

113.43 KB

PUBBLICATO

+1 anno fa


DESCRIZIONE APPUNTO

Appunti di Econometria per l'esame del professor Carlucci sull'algebra delle matrici. Gli argomenti trattati sono i seguenti: i vettori, le matrici, le operazioni tra matrici, la matrice inversa, l'indipendenza lineare di vettori, il rango di una matrice e alcune proprietà dei determinanti, i sistemi di equazioni, gli autovalori e gli autovettori, le forme quadratiche e matrici definite positive e negative, la derivazione vettoriale, le proprietà della traccia, le distribuzioni di forme quadratiche aleatorie.


DETTAGLI
Esame: Econometria
Corso di laurea: Corso di laurea in economia
SSD:
A.A.: 2013-2014

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher valeria0186 di informazioni apprese con la frequenza delle lezioni di Econometria e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università La Sapienza - Uniroma1 o del prof Carlucci Francesco.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Econometria

Modelli autoregressivi vettoriali
Dispensa
VAR di cointegrazione
Dispensa
Inferenza statistica
Dispensa
Identificazione e VAR strutturali
Dispensa