Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Derivate Parziali, Gradienti, Differenziali
Dato un insieme aperto A ⊆ ℝm, f: A → ℝm con x0 ∈ A
Dato x ∈ ℝm si ha:
∂f / ∂xr(x0) = limh→0 (f(x0 + hrℊr) - f(x0)) / h
Osservazione Poiché A è aperto, si ha che:
∃ε > 0 | B(x0,ε) ⊆ A. Inoltre,
|h| < ε ⟹ |h| = |h|⋅|x ⟹ x0 + h⋅x |∈ B(x0,ε) ⊆ A
Osservazione
Se f(x) =
( f1 (x) )
( fn (x) )
___
df / dx([icionado(x0) =
( ∂f1 / ∂x{r}(x{0}) )
( ∂fm / ∂x{r}(x{0}) )
___
Def. Graduente:
Se α = (1, 0,...,0), si ha che: ∂f / ∂xr(x0) si denota con:
∂f / ∂xr(x0)
Se α = (0,...0, 1, 0,...0), si ha che: ∂f / ∂xr si denota con:
∂f / ∂xi
Def:
Se \(f: A \rightarrow \mathbb{R}\) con \(A \) aperto con \(x_0 \in A\), si ha:
\(\triangledown f(x_0)= \left( \frac{\partial f}{\partial x_1} (x_0), \frac{\partial f}{\partial x_2} (x_0), \ldots , \frac{\partial f}{\partial x_n} (x_0) \right)\)
Def:
Se \(f: A \rightarrow \mathbb{R}^n\), \(A \subseteq \mathbb{R}^n\) aperto con \(x_0 \in A\), si def. matrice jacobiana:
\(J_f (x_0)= \begin{pmatrix} \frac{\partial f_1}{\partial x_1}(x_0) & \frac{\partial f_1}{\partial x_2}(x_0) & \ldots & \frac{\partial f_1}{\partial x_m}(x_0)\\ \frac{\partial f_2}{\partial x_1}(x_0) & \frac{\partial f_2}{\partial x_2}(x_0) & \ldots & \frac{\partial f_2}{\partial x_m}(x_0)\\ \vdots & \vdots & \ddots & \vdots\\ \frac{\partial f_n}{\partial x_1}(x_0) & \frac{\partial f_n}{\partial x_2}(x_0) & \ldots & \frac{\partial f_n}{\partial x_m} (x_0) \end{pmatrix}= \begin{pmatrix} \triangledown f_1(x_0)\\ \triangledown f_2(x_0)\\ \vdots\\ \triangledown f_m (x_0) \end{pmatrix}= \begin{pmatrix} \frac{\partial f}{\partial x_1}\\ \frac{\partial f}{\partial x_2}\\ \vdots \\ \frac{\partial f_m}{\partial x_l} \end{pmatrix}\)
Se \(x_0 \in A = x=(x_1, \ldots , x_n)\)
\(e_j = e_j \text{ con: } e_j =(0, \ldots ,0,1,0,\ldots,0)\)
\(\frac{\partial f}{\partial x_j}= \lim_{h \rightarrow 0} \frac{f(x+h \cdot e_j)- f(x)}{h}= \lim_h{h \rightarrow 0} \frac{f(x_1 , \ldots , x_j + h , \ldots , x_n)- f(-)}{h}\)
Es:
Calcoliamo il gradiente di: \(f(x,y)= x \cdot \cos(y) + \frac{y^4}{x}+ y \cdot e^x\)
- \(\frac{\partial f}{\partial x}= \lim_{h \rightarrow 0} \frac{f(x+h, y)- f(x,y)}{h}= \cos y + e^x \cdot y \cdot \log e^x \cdot \frac{1}{x^2} \cdot y^4= \cos y + y \cdot e^x- y^4\)
Considero \(y\) come un parametro e derivio la funzione come se fosse una funzione nella sola variabile \(x\)
- \(\frac{\partial f }{\partial y} (x,y)=- x \cdot nel y + \log x \cdot y^4