1.2 metodi delle approssimazioni successive (metodo del punto fisso)
Questi metodi generano un procedimento iterativo al fine di trovare la soluzione. Difatti il problema di
determinare lo zero di una funzione in genere non si risolve in un numero finito di passi e questo
comporta:
Problema di punto fisso
Il problema di cercare una radice di f (x) = 0 (pertanto trovare un zero) è strettamente connesso
al problema di determinare la soluzione dell’equazione x = g(x) ossia il valore x∗ per cui
il
punto della
valore
x∗= g(x∗). Quando esiste, il punto x∗ si dice proprio punto fisso di g(x). cui
in
funzione uguale a quella
e
punto
del
m
Limitata
Non si deve annullare nell’intervallo in cui studio la funzione poiché garantisce l’equivalenza tra
l’equazione non lineare e l’equazione del punto fisso -O
Teorema di esistenza e unicità del punto fisso
costante Lipschitz
di
Esempio: >
Dimostrazione del teorema : esistenza e unicità
Funzionamento del metodo iterativo
Convergenza globale del metodo delle approssimazioni successive
all'intervallo b
qualsiasi
garantita e
sia Xo
convergenza a
, ,
Dimostrazione
Teorema di convergenza locale
Spesso è difficile verificare la condizione che per x si abbia g(x) condizione
∈[a,b] ∈[a,b],
essenziale nel Teorema di convergenza globale. In tali casi, è utile un teorema di convergenza
locale che assicura la convergenza di {xk } a un punto fisso x∗di g(x) se x0 è sufficientemente
vicino a x∗. È necessario sapere a priori che x∗è un punto fisso di g(x), ossia che g(x) ha un
punto fisso. Interno x*
del punto
~
L’ intorno del punto fisso Ip è un intorno teorico in quanto x* non è noto, essere trovato tramite metodi
preliminari come il metodo di bisezione.
Propagazione degli errori nel metodo delle approssimazioni successive
vaxX degli iterati finiti
successione
~
L’errore sarà maggiorato da
dove δ è una maggiorazione dell’errore di calcolo. Questo implica che la differenza tra due iterati
successivi non può essere più piccola di 2δ/(1−L).
Criteri di arresto per il metodo delle approssimazioni successive
Ordine di convergenza l'errore
Ad iterazione riduce
si
ogni P
/1 f(Xx
+ *1
| xk x
1 x
-
+ Convergenza
quadratica
1.3 Metodi a convergenza super lineare - metodo di Newton Raphson -
Questi metodi sono versioni specifiche del metodo delle approssimazioni successive che mirano ad una
convergenza più rapida.
Allora si pone:
Se x∗`e uno zero semplice (cio`e f(x∗) = 0 e f′(x∗) ̸= 0), il metodo di Newton ha convergenza quadratica.
La costante asintotica di errore: