MOLTEPLICITA’ ALGEBRICA DI UN AUTOVALORE
Sia A una matrice quadrata di ordine n e sia ( 0) un suo autovalore. Si dice molteplicità algebrica
di un autovalore ( 0) il numero che esprime quante volte appare l’autovalore.
MOLTEPLICITA’ GEOMETRICA DI UN AUTOVALORE
Data una matrice quadrata A di ordine n e detto 0 un suo autovalore, si de nisce molteplicità
geometrica di 0 la dimensione dell’autospazio relativo all’autovalore, cioè il numero di elementi di
una base qualsiasi dell’autospazio relativo 0.
In termini pratici la molteplicità dell’autovalore 0 si calcola con: ( 0) = − ( − 0 )
SISTEMI LINEARI
Un sistema lineare di m equazioni in n incognite si può scrivere in forma matriciale come
= . La matrice è la matrice dei coe cienti del sistema, x è il vettore delle incognite e b è il
vettore dei termini noti del sistema.
Un sistema lineare può essere:
- compatibile (consistente): se ammette una soluzione
- determinato: se ammette una soluzione unica
- indeterminato: se ammette in nite soluzioni
- impossibile (inconsistente): se non ammette alcuna soluzione 5
fi ffi ff fi
TEOREMA ROUCHE CAPELLI
È un teorema che ci permette di stabilire se un sistema lineare ammette soluzioni ed
eventualmente quanti carle attraverso lo studio del rango di due matrici associate al sistema.
Si consideri un sistema lineare di m equazioni e n incognite e con coe cienti in un campo K. Tale
sistema in forma matriciale appare come Ax=b. A è la matrice incompleta associata al sistema.
Completa cioè che comprende anche i termini senza incognite mentre incompleta che comprende
tutti i termini delle incognite (lettere)
Tale teorema stabilisce che:
- se e solo se il rango della matrice incompleta è minore del rango della matrice completa, allora il
sistema è impossibile, cioè non ammette soluzioni
- se e solo se il rango della matrice incompleta coincide con il rango della matrice completa, allora
il sistema è compatibile (ammette una o in nite soluzioni)
Bisogna tenere però in considerazione che n è il numero di incognite, quindi:
- se rk(A)=rk(A|b)=n (numero incognite) allora avremo una e una sola soluzione
- se rk(A)=rk(A|b)<n (numero incognite) allora il sistema ammette in nite soluzioni che dipendono
da in niti parametri
VETTORI LINEARMENTE DIPENDENTI
Si consideri uno spazio vettoriale V su un campo K e ci siano n vettori. Gli n vettori sono
linearmente indipendenti tra loro se, prendendo n scalari a1, a2, ..., an appartenenti a K e
imponendo→a1v1+a2v2+....+anvn=0 risulta vera se e solo se gli scalari a1,a2,....,an sono uguali a
zero.
Al contrario si dice che un vettore è linearmente dipendente se tra gli scalari nulli esistono almeno
scalari non tutti nulli che annullano la combinazione lineare.
TEOREMA DI CRAMER
Il teorema permette di risolvere un sistema di equazioni lineari supposto possibile.
Il teorema di Cramer a erma che un sistema di equazioni lineari algebriche in n incognite, dove la
matrice del coe ciente è non singolare, ammette una e una sola soluzione.
Tesi: otterremo il rapporto tra il determinante della matrice dei coe cienti e il determinante ovvero
Xi= (DET (Ai)) / (DET (A)) dove Ai è la matrice di partenza in cui la i-esima colonna è sostituita con
la colonna dei termini noti.
Supponiamo che Ax=b , dove A è una quadratica di ordine n.
X appartenente all’insieme elevato alla N e B appartenente all’insieme I R elevato alla N.
Il sistema è consistente (rango A = rango(A;B)). Dunque il rango A è uguale a n→rango(A)=n
= det( ) dove Ai è la matrice di partenza in cui la i-esima colonna è sostituita con la colonna
dei termini noti.
Dalle ipotesi si deduce che il detA è diverso da zero, quindi la matrice A è invertibile. Sia −1 la
sua inversa.
Per riscrivere Ax = b moltiplico ambo i membri a sinistra per −1. −1 = −1 = −1
∗
= −1 6
fi ffi fi ff fi
ffi fi ffi
APPLICAZIONI LINEARI
Dati due spazi lineari U e V, l’applicazione F : U —> V si dice lineare se vengono veri cate due
condizioni:
1) l’immagine della somma di L e di V è la somma delle immagini di F( w + x) = F(w) + F(X) con W
e X appartenenti ad U
2) L’immagine del prodotto di un elemento di U per uno scalare R è il prodotto dello scalare per
l’immagine di tale elemento F(R W) = R*F(w)
MATRICE JACOBIANA
La Jacobiana di una funzione (in generale vettoriale) di più variabili reali è una matrice i cui
elementi sono le derivate parziali prime della funzione nel punto X0 rispetto a X
MATRICE HESSIANA L’hessiana di una funzione reali di più variabili è una matrice
quadrata i cui elementi sono le derivate parziali seconde della
funzione f.
FUNZIONI COMPOSTE DIFFERENZIABILITA’
Date due funzioni F(x) e G(x) tali che f è di erenziabile (derivabile) nel punto g(x) e g è
di erenziabile in x, allora la funzione composta è de nita se esiste F(x)= f(g(x)) risulta essere
di erenziabile in x e si ha che F'(x)= f '(g(x))g'(x). 7
ff
ff ff fi fi
Una funzione g si dice di erenziabile in x0 punto interno di A, se esiste un matrice J g ( x0 ) detta
matrice jacobiana (di dimensione n×m) tale che con h→0 si ha che g(x0 +h)
∀h∈Rm
−g(x0)=Jg(x0)h+ο(h)
RELAZIONI FUNZIONI PSEUDO CONVESSE E QUASI CONVESSE
quasi convessa se
Data una funzione F diciamo che f è per ogni k reale gli insiemi = { : ( )
≤ } sono convessi.
Esiste un altro modo per caratterizzare le funzioni quasi convesse. ∀
→
Teorema: una funzione : è quasi convessa se e solo se , [0,1]
∀ ∈ ∈
Dunque secondo le dimostrazioni se f è convessa allora è quasi convessa (il viceversa non è
vero). Esempio: f(x,y)= x^4 + 3y pseudo
→
Data una funzione : dove è un insieme convesso. Diciamo che f è
⊆
convessa quando , ( ) < ( ) si ottiene [0,1] ( + (1 − ) ) ≤ −
∀ ∈ ∀ ∈
( , ) dove a è una funzione positiva di (x,y). Diciamo che f è pseudo concava quando ,
∀ ∈
con f(x)>f(y) si ottiene [0,1] ( + (1 − ) ) ≥ ( ) + ( , ) dove b è una funzione positiva di
∀ ∈
(x,y)
Da questa de nizione risulta facile vedere che se f è pseudo convessa allora per ogni x/y
appartenente a C con f(X) minore di f(Y) ( + (1 − ) ) ≤ ( ) − ( , ) ≤ ( ) = max( ( ), ( )) allora
è quasi convessa.
È facile osservare che se f è convessa allora è pseudo convessa.
Qui esiste una classe che ci permette di garantire di avere un minimo o un massimo assoluto?
I punti stazionari risultano dei minimi assoluti, massimi assoluti (pseudo concave).
OTTIMIZZAZIONE LIBERA
→
Data : cerchiamo di risolvere il problema di massimo o minimo della funzione di x.
Ovvero cerchiamo un punto tale che:
∈
- Se la funzione di X è maggiore o uguale alla funzione di Y è un massimo assoluto, si ottiene un
minimo assoluto se la funzione di x è minore dell’altra
- Se la funzione di X è maggiore o uguale alla funzione di Y massimo relativo si ottiene un minimo
relativo se la funzione di X è minore dell’altra funzione
Ci sono due teoremi applicabili e sono:
1) Se f è una funzione di erenziabile in un intorno di e x è estremamente relativo si
∈
deve avere ( ) = ∇ ( ) = 0 ovvero ( ) per ogni i=1,...,n. Il fatto che
( ) = ∇ ( ) = 0 non è in generale su ciente a garantire che x sia estremamente relativo.
Quando si veri ca parliamo di punti stazionari o critici della funzione (GRADIENTE=0)
→
2) Sia x un punto stazionario di : e sia 2 in un intorno . Allora se 2 ( ) è
∈ ∈
de nita abbiamo un estremante in x mentre se 2 ( ) è inde nita, x non è estremante.
OTTIMIZZAZIONE CON VINCOLI DI UGUAGLIANZA
Il problema di ottimizzazione con vincoli di uguaglianza si può vedere come un problema di
ottimizzazione implicita dove i vincoli si ottengono alcune variabili in funzioni di altre che vengono
poi sostituite nelle funzioni da ottimizzare, riducendo cosi la dipendenza ad un numero inferiore di
variabili.
Teorema 1 Sia x0 soluzione locale di un problema di ottimizzazione vincolato e siano soddisfatte
le seguenti condizioni:
- F è di erenziabile in x0
- Le funzioni hj(x)=0, j=1,....,r sono di classe C1 in x0 e la matrice jacobiana associata al
vettore funzionale vincoli, ha rango massimo ovvero i vettori gradienti sono linearmente
indipendenti. 8
fi ff fi
fi
ff ff
ffi
fi
Si de nisce punto regolare un punto soddisfacente la condizione di quali cazione dei vincoli
sopra ovvero x0 è regolare per i vincoli se i vettori gradienti dei vincoli sono linearmente
indipendenti.
Teorema 2
Considerato un problema di ottimizzazione vincolato f soggetta ai vincoli delle funzioni
di erenziabili due volte in x0, punto ammissibile. Se esiste un vettore tale per cui sono soddisfatte
le condizioni allora x0 è massimo locale per f soggetta ai vincoli hj(x)=0
TEOREMA DI DINI
OTTIMIZZAZIONE VINCOLATA
Ipotesi
Data l’equazione f(x,y)=0 e un punto (x0, y0) appartenente all’insieme A; sia A un insieme A aperto
di R^2 e sia G tale che A appartiene a R una funzione C^1(A) (ovvero derivabiile e continua su A).
Supponiamo che:
1) g(X0, Y0)=0
2) g’(x0, y0) 0
Esistono due intervalli reali I e J che contengono x0 e y0
Noi dobbiamo avere una funzione che risulti - gx(x0, yo) / g’(x0, y0)
Il teorema dice che sotto opportune ipotesi una curva de nita in modo implicito, ovvero mediante
un luogo di zeri g(x, y)=0 ammette localmente un intervallo I a cui è possi
-
Complementi di analisi matematica
-
Formulario complementi di matematica
-
Appunti Complementi di Matematica
-
Domandario complementi di matematica