Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Matematica Finanziaria
modulo: Ghizzardi
Teorema di Rouché-Capelli
Sia A∈M_n(m,n) e b∈R^m. Il sistema lineare Ax=b è possibile se e solo se la matrice A ha lo stesso rango della matrice completa [A|b], cioè ρ(A)=ρ([A|b]).
Teorema: Calcolo con la regola di Cramer.
Per la risoluzione di sistemi lineari.
Sia A una matrice quadrata di ordine n. Il sistema Ax=b ha una sola soluzione per ogni b∈R^n se e solo se la matrice A è invertibile: x=A^(-1)b.
Dimostrazione:
- Dimostro che "⇒": Sia A invertibile. Quindi l'operatore lineare associato è invertibile (quindi è iniettivo ⇒ ha una sola soluzione).
- In particolare, dato b∈R^n, A ha soluzione: x=T^(-1)(b). Quindi T^(-1)(b)=A^(-1)(b).
- Dimostro che "⇐": Sia b∈R^n. Ammetto che Ax=b ammette una unica soluzione; ∀b∈R^n ⇒ significa che per ogni vettore b∈R^n esiste un solo vettore x∈R^n tale che T(x)=b. Pertanto, l'operatore è iniettivo e quindi A è invertibile.
Definizioni:
Base di uno spazio vettoriale (vedi sotto).
Due definizioni del polinomio minimo di 2°.
La definizione è data per un polinomio f∈R^m, V il Φ(x) di un sottospazio vettoriale di R^m se è chiuso rispetto alle operazioni di addizione e moltiplicazione per scalare (di R^m).
Sia un sottospazio vettoriale di R^m ma solitamente finito se e solo se il numero dV in x∈S = linearmente indipendente e quindi l=|V|.
Due definizioni del rango di una matrice A∈M_n(p,m).
- Dato un numero p>A^2, possiamo sempre parlare di A come numero fisso, cioè tale che 1 ha almeno un minore i tale che il suo valore minor 2 d'ordine maggiore di 1[D=|sotto|1].
1) Considero il caso di un sistema di n ve. {x1, x2, ..., xn} ⊆ Rm. Esso ammette in v.c. {0} un sottospazio lineare V. Si v.c. x i è una combinazione lineare di {x1, x2, ..., xi-1, xi+1, ..., xn}.
2) Dato un sottospazio razionale L ⊆ Rm possiamo definire che un sistema {x1, x2, ..., xn} ⊆ Rm genera L se L = il s.v.p. proprio di Rm descritto as una base finita formata solodegli x i.
L base più naturale per Rm è quella data da {e1, e2, ..., em}.
c = 1e1 + ... + 0 en, S si possono definire
x = x1t1 + ... + xntn S = Σ xj ej.
Na nox suppl convient! bar × RM considerando m=2 (R2), infatti:
{2,0} {0,4} è una base di R2
{4,0} {1,2} è una base di R2
{x1 = a1 + a2
x2 = 2a2
generano infinite basi di R2?
Ogni base di RM ha cardinalità un numero.
2) sia v sott. di Rm. Una sottosuccessione S ⊆ V e una base d V xn ogni v in Pwn avere in modo noto es una combinazione lineare degli elementi di S.
Esempio:
In R2 v = {x ∈ R2 | x2 = 0 }
{1,0} è una base di V.
In R2 V = {x = (x1, x2) | x2 = 0 }
{1,0,0}, {0,1,0}, {1,0,0} sono una base di V.
Ogni base di V ⊆ Rn ha la Cardia numero di elementi.
Definizione di funzione derivabile
Nel caso di funzione f : X ⊆ ℝn→ℝ derivabile:
∃ limv1→0...limvn→0 ((f(xo + h) - f(xo) - h1...hn) / ||h||) = g(xo)·h
In prima approssimazione si ottiene:
f(xo + h) ≈ f(xo) + ∇f(xo)·h + O(||h||) per h→0.
Derivate parziali
Def: dato f: X ⊆ ℝn→ℝ, derivabile parzialmente su Int(X) se le funzioni derivate parziali prime fx (x, i = 1, 2, ..., n) sono a loro volta derivabili parzialmente in xo ∈ Int(X), esistono i numeri:
(∂/∂xj(fxi (xo)))i,j=1,...,n
allora si dice che f è derivabile parzialmente due volte in xo.
Def: dato f: X ⊆ ℝn→ℝ si dice derivabile parzialmente due volte rispetto allo variabile xi e xj (i, j = 1, 2, ..., n) nel punto xo ∈ Int(X) se il limite:
limh→0 (fxi(xo + hei) - fxi(xo)) / h esiste finito.
Le derivate parziali sono sempre raccolte in una matrice quadrata (n×n), detta matrice hessiana. Se la matrice degli assi principali è derivabile due volte, allora:
∇2f(xo) = Hf(xo) = O = ƒ(xo):
Teorema
Se f: X ⊆ ℝ2→ℝ è totalmente derivabile parzialmente prima e seconda in un intorno di xo ∈ Int(X), e tale derivata è continua in xo allora:
(∂2f(xo)) / (∂xj ∂xi) = (∂2f(xo)) / (∂xi ∂xj), ∀i, j = 1, 2, ..., n
Proposizione:
se X ⊆ ℝn è un insieme convesso fi : X ⊆ ℝn → ℝ i = 1, 2, ... n sono funzioni concave αi ⩾ 0 solo scalari ⩾ 0
Allora la funzione f(h) = α1f1(x) + α2f2(x) + ... + αnfn(x) = ∑i αifi(x) è concava. Se almeno 1 αi ≠ 0, linearmente concave (con αi > 0) allora f(h) è linearmente concava.
se i) f1, f2, ... fp con f : X ⊆ ℝn → ℝ i = 1, 2, ... n sono funzioni concave di una sola variabile, fi(x) concave rispetto a tale variabile ii) di, ki ∈ ℝ, sono scalari tali di ⩾ 0, allora la funzione λ(x1, x2, ..., xn) = λf(ki) + ... + λh(xn) = ∑i difi(xi) è concava E se la funzione concava se ciascuna fi = {}". E anche se λ è linearmente concava e fi E fun. di di ⩾ 0.
se a) X ⊆ ℝk è un insieme convesso ai) g : X ⊆ ℝk → ℝ è una funzione di n variabili concava bii) f : Y ⊆ ℝ → ℝ è una funzione di una variabile monotona crescente e concava, allora la funzione composta f(g(x)) log : X ⊆ ℝk → ℝ è continua.
Teorema:
sia X ⊆ ℝ2 convessa e f : X ⊆ ℝn → ℝ differenziabile unx concava (concava). Se esiste un punto stazionario x ∈ int(X) (con ∇f(x) = 0), allora X è un punto di massimo (minimo globale) se è linearmente concava (concava), allora tale punto o max (min) è unico.
esiste un
un determinato
tale che
è un punto critico o
stazionario della funzione lagrangiana:
ossia
Queste condizioni non sono necessarie ma diventano sufficienti se:
- è continua e differenziabile
- è concava (concave) e i vincoli sono lineari
Al di sopra di questi casi occorrono condizioni specifiche di secondo ordine che richiedono lo studio della matrice hessiana:
=
(matrice hessiana ostacolata)
Teorema:
- se la funzione lagrangiana ha h definita seconda continua in (nei) e è definita negativa (positiva), allora è un punto di massimo locale
- vincolato stretta
- n richiede a ms di:
- è definita negativa (neg) in quanto se l'ottimo è un minimo è sempre di rango definito tracciato da tutti concede um nulla e
- vincolato