Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Introduzione
L'analisi numerica è una branca della matematica che si occupa di fare svilurire calcolo numerico (di quantità continue) efficienti, per teoriche verificazioni e pratici algoritmi.
Le quattro continue che andremo a calcolare sono:
- Soluzioni di sistemi: inversa determinante rango, autovalori/autovettori, nucleo rango di una matrice.
- Zero di polinomi e di un intero algebrico.
- Approssimazione di funzioni con funzioni più semplici (tipo polinomi).
- Soluzioni di EDI in ordine a 2 a derivate parziali.
Di questi problemi ci occuperemo in un prossimo abbastanza lungo UTE OPCSA
in un sub classico. La cui forma è in un algoritmo evidentemente ben goduto.
Esempi
- x2 = 2 sol subloca SOL “NUMERICA”xk+1 = xk - P(xk) / P'(xk)
- x3 + x2 – x + x = 0
- x5 + x4 – x + 1 = 0
Teorema di Ruffini-Abel (1800)
Una formula che permette di trovare soluzioni a eq. di 5o grado usando solo operazioni elementari e radici.
GNO DIM. Una sol. approssimata è necessaria per risolvere normalmente problemi.
=> cn cd cn cn => il grado massimo di eq. risolv. in generale (secondo Haruhiah, Cardano, Ferrari) per quelle lineari indicente è di grado quadrato massimo.
C. sono diversi algoritmi di soluzione che si servono di diverse teorie matematiche.
Teorema dell'Esistenza (Metodo di Bisezione)
f: [a,b] → R continua ⇒ ∃x∈[a,b] t.c. f(x)=0
f(a)f(b)<0
Nella dimostrazione si varia il metodo di bisezione. a0=a b0=b c0=\( \frac{a_{0}+b_{0}}{2} \)
- Se f(c0)=0 => x= c0
- Se (f(c0)f(a0)<0) => a1=a0 b1=c0 c1=\( \frac{a_{1}+c_{0}}{2} \)
- altrimenti c0 = a0 b0 c1 = b0 c0 = \( \frac{b_{0}+c_{0}}{2} \)
Così definiscono ai ai bi ai bi : t.c. di ai bi= \( \frac{f}{2^{i}} \)
- Ej: monotona non crescente e limitata & Bdj: monotona non crescente e limitata
lim ai= aii, lim bi=bii con ai<bico => d!=0 e f(ai)=0 infiniti.
b2-a2, bi-ai ≤\( \frac{b-a}{2^{i}} \) => b2-a2 ≤ 2ti
# f(ai)=0, ai>p>0 yεxε[0: q, ai f(a())2≤b(x)≥0 ∉
Teorema di Cartan-Dieudonné (Metodo di House Holder)
∀ isometria lineare dello spazio euclideo espresse in funzione di m riflessioni rispetto ad un iperpiano vettoriale.
Teorema di Weierstrass
f ∈C0[a,b] ⇒∃ε 1∃ polinomio | max [p(x)-f(x)] ≤ ε
Nella dimostrazione consideri [a,b]=[a,b]. B1[x]=\[ \frac{\sum_{k=0}^{n} f(a+k k_{=}(b-a){n}){n}x_{k_{=}} a_{nk_{k}} } \]
- Considerare la digit representation
- Fissata una base β≥2 vi è una corrispondenza fra [0,R) e il segmento di curve via non sui punti pollici e i possibili che vengono rappresentano lo stesso numero (0,d1,d2,...)
R =∑(di·β^(-i))
con di ∈ {0,...,β-1} con d1 ≠ 0
- fissato un punto X ∈ {0,d1,d2,...} vi è una curva in virgola mobile X ∈ {0,d1d2d3...}^β
Teorema
Teorema sulla base di rappresentazione
Se β≥2 base ∃ univ. scompos. {di} i=1 t.c.
1) di∈{0,...,β-1}
2) d1 ≠ 0
3) di non esistono uguali a β-1 (cos, K in vineto insiemi ordinati dip β=1 vecK)
X=∑(i ≥ log(n)(β)^p/pi)d
Mantissa (serie origine di)
(No due)
- Si può usare per selezionare un insieme finito di numeri, cioè trovare un numero con mantissa M finita per fare ciò introduciamo numeri macchina
½(β+1,m,t)∈{0}/{± β^p} β^p
dʲ ≤ m ≤ P+1 ok sci-o interf ℓz, t(a,t+o})
con mᵢ∈ℕ, t;>0 (# o cifre nella mantissa) R > 2 (base)
Ho un numero con 0 chi t+1 posto n di. (0,d1d2...dʲ/β^eP∃) floating number x∈R e ∃ un insieme finito con geom m(a/x,t l+1/2(m+1+5) (β-1)
x=∑{β^P} β^(-1)(β-1)∑_jβ^(-1) β^(μ-1) + 2 il più grande numero n ^β 3 pollici pv1 e le cifre sono β-1
ω=β^P β^(p-1)= n il più piccolo numero di β>1 positivo ottimale le cifre sono ten. o rimane l'uno che è 1
Se x ≥ ω non riesco a rappresentarlo
Se 0 < x < ω trovi un grande errore relativo per rappresentarlo
Inoltre, quando valuto f(x) con x∈Rm non è detto che xe∉numeri macchina che danno valore g(x) con x̅=f(x̅) con errore relativo.
εr= ̅− /
Detto errore imponente che abbattuto stesso ̅−/ con valore considerando sapere x∈R.
Ma in realtà non valuto f(x) tramite operazioni attive che da real ma valuto di ciò esempio ottengo sostenendo le cose autentiche con valore a macchina, si dice errore algoritmico.
Da studiatore valutato di errore:
- Errore Analitico
Soltanto che si studia a parte è sovvia aderente da modello, e che quando approssimo qualcosa con una funzione particolare.
- A) Esordio: I Restodi (Lagrange)
Devo valutare f(x)=ex ma non posso con operazioni a macchina.
Quindi considero φ(x)=1+x+ x2/2!... Funzione razionale che approssima f in un intorno 0.
L'errore analitico è dato con teorema di Reste di Lagrange che dice:
εa(x)=f(x)−φ(x)= f(m+1)*ε/(m+1)! ξc∈(x,0) dove (0, x)∈Rm convesso, m= Σ i=0x, 0≤k C=[C11]
- Le pertubazioni alle colonne sono quelle delle colonne o righe
B = [b1 b2 ... bm] ∈ Kkm
A = [at]mxn ∈ Kkn
=> AB = [Ab1] | AB2 = [a1 B]
[r1b1...r1bm]
[a1a1...ambm]
Def
T ∈ Kmxn (cioè m = 1 = m)
- Si dice triangolare superiore = tij = 0 ∀ i > j
- Si dice triangolare inferiore = tij = 0 ∀ i < j
Prop
Le matrici triangolari superiori con dimensione m sono una sottodivisione di Kmm
Dim
- ∀ T tri sup => T ∈ Kmm ✓
- L'associatività e distributiva alle matrici vale Kamxn