Anteprima
Vedrai una selezione di 7 pagine su 27
Schemi, teoremi fondamentali e dimostrazioni di Analisi 2 Pag. 1 Schemi, teoremi fondamentali e dimostrazioni di Analisi 2 Pag. 2
Anteprima di 7 pagg. su 27.
Scarica il documento per vederlo tutto.
Schemi, teoremi fondamentali e dimostrazioni di Analisi 2 Pag. 6
Anteprima di 7 pagg. su 27.
Scarica il documento per vederlo tutto.
Schemi, teoremi fondamentali e dimostrazioni di Analisi 2 Pag. 11
Anteprima di 7 pagg. su 27.
Scarica il documento per vederlo tutto.
Schemi, teoremi fondamentali e dimostrazioni di Analisi 2 Pag. 16
Anteprima di 7 pagg. su 27.
Scarica il documento per vederlo tutto.
Schemi, teoremi fondamentali e dimostrazioni di Analisi 2 Pag. 21
Anteprima di 7 pagg. su 27.
Scarica il documento per vederlo tutto.
Schemi, teoremi fondamentali e dimostrazioni di Analisi 2 Pag. 26
1 su 27
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Prodotto di scalare per vettore

Siano scalari gli elementi del campo K e siano vettori gli elementi del gruppo abeliano A.

Si definisce prodotto di scalare per vettore una funzione K × A → A che soddisfa le condizioni che:

  • 1) α ⊗ (a ⊕ b) = (α ⊗ a) ⊕ (α ⊗ b)
  • 2) (α + β) ⊗ a = (α ⊗ a) ⊕ (β ⊗ a)
  • 3) α ⊗ (β ⊗ a) = (αβ) ⊗ a
  • 4) 1 ⊗ a = a

Spazio vettoriale su campo K

Sia (K, +, *) un campo e sia (A, ⊕) un gruppo abeliano, si dice che A è spazio vettoriale su campo K se esiste una funzione ⊗ di prodotto di scalare per vettore. Si scrive (A, ⊕, ⊗).

1) Se K = ℝ e se A = ℝ2, si definisce come segue, R2, la funzione prodotto di scalare per vettore

⟶ ℝ × ℝ2 → ℝ2, cioè:

  • ∀ α ∈ ℝ, ∀ (α1, α2) ∈ ℝ2 pongo ⊗(α1, α2) det= (α α1, α α2)

Si ammette per semplicità ⊗ = omotetia, ottoeni d(α1, α2) det(αα1, αα2).

  • con α > 1 le coordinate si distaccano
  • con 0 < α < 1 si contraggono
  • con α < 0 si ribaltano

Estensione

⟶ ℝ × ℝn → ℝn

Per rappresentare qualsiasi vettore di ℝn ... ... (Riu. Conoripulorial). Prevoloro le nome di base di Rn.

{e1, e2, ..., en} = le BASE VONONIA di Rn. Questo osr vetore fa dell'essere settilo come

...

...

Lineare Dipendenza/Indipendenza

Sia V uno spazio vettoriale sul campo K. Siano x1, x2, ... , xn n vettori di V.

  • Si dice che i vettori x1, x2, ... , xn sono linearmente dipendenti se almeno uno di essi può essere scritto come combinazione lineare dei rimanenti.
  • Si dice che y ∈ V è una combinazione lineare di x1, x2, ... , xn, se esistono k1, k2, ... , kn ∈ K tali per cui il vettore y è dato da:

y = k1 x1 + k2 x2 + ... + kn xn.

  • Si dice che i vettori x1, x2, ... , xn sono linearmente indipendenti se nessuno può essere scritto come combinazione lineare dei rimanenti.

Funzioni lineari tra spazi vettoriali con campo K in comune.

Siano U e W due spazi vettoriali su campo k.

Sia f: U → W. Si dice f lineare se gode delle seguenti proprietà:

  • ∀x,y ∈ U si ha f(x + y) = f(x) + f(y)
  • f(αx) = αf(x) ∀ α scalare reale su x ∈ V o vettore su W

f = A matrice, fdd corrispondenza direzione per voi, W

  • (αx + βy) = αf(x) + βf(y),\n

γ(x)(i) = f(φ)[x(i)], secondo gli reali x1, x2, ... xn, dei vettori a colonne di A.

Sottospazi - Immagine o Im={f}

Sia f: ℝⁿ → ℝᵐ una funzione lineare. Si dice Sottospazio immagine di f, indicato con Im{f}, il sottospazio di ℝᵐ generato da vettori f(e1), f(e2),...

  • f(ℝⁿ) o equivalentemente: Im{f}det = {y ∈ ℝᵐ: x1f(e1) + x2f(e2) + ... + xnf(en)}

Nucleo di f o Ker{f}

Sia f: ℝⁿ → ℝᵐ una funzione lineare. Si definisce nucleo di f, indicato con Ker{f}, il sottospazio di ℝⁿ dato da:

  • Ker{f}det = {x ∈ ℝⁿ: f(x) = Oℝᵐ}

La base di Im{f} si trova definendo le colonne di A che sono linearmente indipendenti, il cui numero ≡ r(A).

Derivata

Derivata parziale prima

Sia \( f: X \subseteq \mathbb{R}^n \rightarrow \mathbb{R} \) e sia \( x_0 \) un punto interno ad \( X \).

Si dice derivata parziale prima di \( f \) rispetto a \( x_i \) nel punto \( x_0 \), e si denota \( \frac{\partial f}{\partial x_i}(x_0) \) oppure \( f'_{x_i}(x_0) \), il limite, se esso esiste ed è finito,

\(\lim_{h \to 0} \frac{f(x_0 + h e_i) - f(x_0)}{h} \in \mathbb{R}\)

Gradiente

Sia \( f: X \subseteq \mathbb{R}^n \rightarrow \mathbb{R} \) e sia \( x_0 \) un punto interno di \( X \). Se f ammette derivata parziale prima rispetto a \( x_i \), \( i = 1, 2, \ldots, n \) in \( x_0 \), allora si dice gradiente di \( f \) in \( x_0 \) il vettore dato dalle n derivate prime in \( x_0 \), cioè

\(\nabla f(x_0) = \mathrm{def} \left[ \begin{array}{c} f'_{x_1}(x_0) \\ f'_{x_2}(x_0) \\ \vdots \\ f'_{x_n}(x_0) \end{array} \right]\in \mathbb{R}^n\)

Funzione derivabile

Si dice che se funzione reale di n variabili, \( f: X \subseteq \mathbb{R}^n \to \mathbb{R} \), è derivabile nel punto interno \( x_0 \) di \( X \) se \(\Rightarrow \nabla f(x_0)\), cioè se esistono e sono finite tutte le derivate parziali di \( f \) in \( x_0 \).

Derivata parziale prima di funzioni composte

Sia \( f: X \subseteq \mathbb{R}^n \to \mathbb{R}\), quindi \( \forall x \subseteq X \), \( f(x) \in \mathbb{R} \).

Sia \( g:\mathbb{R} \to \mathbb{R}\) e considero la funzione composta \( g \circ f: X \to \mathbb{R}\), definita ponendo \( g \circ f (x) \mathrm{def} = g(f(x)) \in \mathbb{R} \quad \forall x \in X \)

Alcune regole pratiche di derivazione

  • Prodotto = deriv. del primo fattore · secondo fattore non derivato + deriv. del secondo fattore · primo fattore non derivato
  • Rapporto = (derivata del numeratore · denominatore non derivato - derivata del denominatore · numeratore non derivato) / denominatore non derivato
  • Composte = derivata della funzione esterna · derivata parziale dell'interna (derivata
  • Es.: \( g' \cdot f'_{x}^{t} \), \( f(x, y) \)
  • \((x, y) = (x_0, y_0) \)
  • Esponenziale = esponenziale invariato per derivata dell’argomento
  • Logaritmo = reciproco del prodotto tra base del logaritmo e il suo argomento. \(\frac{d}{dx}(\log(e)) = 1 \).
  • \(\sqrt{}\) radice = si riconduce a esponente frazione

Si ha che

  • det (H (x*, y*)) > 0 ⇒ (x*, y*) è punto di max vincolato per f su g
  • det (H (x*, y*)) < 0 ⇒ (x*, y*) è punto di min vincolato per f su g
  • det (H (x*, y*)) = 0 ⇒ il criterio è inconclusivo

Ker(f) è un sottospazio vettoriale?

Sia f:RN → RM e il pui sodisfa assiomi

(i) x, y ∈ Ker(f) ⇒ fx + y ∈ Ker(f)

Dim (i)

x, y ∈ Ker(f) ⇒ f(x) = ORM

∴ f(x+y) = f(x) + f(y) = ORM + ORM = ORM

Chiusiò

Dim (ii)

x ∈ Ker(f) ⇒ f(x) = ORM

f(αx) = αf(x) = α • ORM = ORM

unicità

Storico

  • Sottospazio vettoriale

Dim

Df(0)def = limh→0+ f(0+hw̅) - f(0) / h = limh→0+ f(0+hw̅) - f(0) - ̅·hw̅ / h + limh→0+ ∥ hw̅ ∥ / h

hw̅ =

Dettagli
Publisher
A.A. 2021-2022
27 pagine
3 download
SSD Scienze economiche e statistiche SECS-S/06 Metodi matematici dell'economia e delle scienze attuariali e finanziarie

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Glad_21 di informazioni apprese con la frequenza delle lezioni di Matematica per le applicazioni economiche e finanziarie e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università del Salento o del prof Chiarolla Maria.