Anteprima
Vedrai una selezione di 4 pagine su 13
Riassunto "Calcolo numerico e programmazione" Pag. 1 Riassunto "Calcolo numerico e programmazione" Pag. 2
Anteprima di 4 pagg. su 13.
Scarica il documento per vederlo tutto.
Riassunto "Calcolo numerico e programmazione" Pag. 6
Anteprima di 4 pagg. su 13.
Scarica il documento per vederlo tutto.
Riassunto "Calcolo numerico e programmazione" Pag. 11
1 su 13
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Modello numerico

Si utilizza quando un problema non può essere risolto (o è difficile da risolvere) tramite metodi analitici.Il modello numerico consiste nel discretizzare il modello matematico (continuo).Discretizzazione: consiste nel generare un numero finito di numeri. Ciò comporta che la soluzione non sarà esatta ma approssimata e si può stimare l'errore.

Algoritmo

È un numero finito di operazioni logiche che consentono di ottenere da un numero iniziale di dati un numero finito di risultati.Serve a cercare le soluzioni approssimate partendo dal modello numerico.

Metodo numerico

Un modello numerico è l'algoritmo per la sua risoluzione. Deve avere:1) Accuratezza: precisione del risultato ed errore limitato;2) Efficienza: velocità di calcolo;3) Stabilità: risultati simili in corrispondenza a dati iniziali simili.

Analisi degli errori

Nel calcolo numerico si commettono sempre due tipi di errori:1) Errori di arrotondamento dovuti all'utilizzo del calcolatore (essendo una macchina finita non può fare operazioni all'infinito ma solo discrete);2) Errori di troncamento: le approssimazioni che ci afflitta sempre un'approssimazione rispetto al metodo analitico.

  • Errore computazionale = arrotondamento + troncamenti
  • Errore computazionale assoluto: εa = x - x̃ (x = soluzione esatta, x̃ = sol. approssimata)
  • Errore computazionale relativo: εrel = εa / x (rapporto alla grandezza della soluzione esatta)

Sistema Floating-point

Sistema col quale il calcolatore rappresenta i numeri reali:x = (-1)S (0, a1, a2 ... as) ⋅ BF

  • S:
    • da segno
  • 0 positivo
  • 1 negativo
  • an: cifre presenti nel numero
  • B: base (d; norma B = 10)
  • F: esponente, numero di cifre prima della virgola
  • α1Bϒ + α2Bϒ-1 + α3Bϒ-2 = mantissa

Epsilon di macchina

εm = Β1-t (t: numero di cifre della mantissa)Rappresenta la distanza tra 1 e il numero maggiore di 1 più vicino ad esso rappresentabile col sistema floating-point: εm ≈ 2 ⋅ 10-16 circa

Precisione di macchina

u = ΣziBi-t massimo errore che la macchina commette quando rappresenta un numero col sistema floating-point. Quindi l'errore di arrotondamento è sempre di u: |x - R(x)| ≤ u

Condizionamento

Un problema è ben condizionato quando la soluzione non diffresce molto dalla soluzione esatta per piccole variazioni in ingresso ed è mal condizionato quando e non sensibile alle soluzioni simili in ingresso. Se R(x rosso) < εrelEs: errore nel metodo numerico si propaga. Nel calcolo numerico si risolve: E1, Et → EfStima errore di troncamento: εt ≈ c ⋅ hϒ

Algebra matriciale

Particolari matrici:

  • simmmetrica: \(A^T = A\)
  • ortogonale: \(A^T A = AA^T = I\)
  • hermitiana: \(A^N = A\) \( (A^* =\) trasposta coniugata di \(A) \)
  • diagonale se \(a_{ij} = 0\) per \(i \neq j\)
  • triangolare superiore se \(a_{ij} = 0\) per \(i > j\)
  • triangolare inferiore se \(a_{ij} = 0\) per \(i < j\)
  • invertibile se \(\det A \neq 0 \Rightarrow A^{-1} A = AA^{-1} = I\)
  • definita positiva: \( x^* Ax > 0\)
    • \(x\) vettore orizzontale
    • \(\bar{x}\) vettore verticale

Criterio di Sylvester: una matrice Hermitiana è definita positiva se e solo se tutti i suoi minori principali di testa (determinator della sottomatrice formata con i primi k elementi di A) sono positivi.

  • convergente: \(\lim_{k \to \infty} A^k = 0\), matrice nulla

Autovalori: \(\lambda\) è autovalore della matrice \(A\) se il sistema \(Ax = \lambda x\) ammette soluzioni \(\neq 0\).

In questo caso x è autovettore associato a \(\lambda\). \(\lambda\) è autovalore di \(A\) se e solo se il polinomio caratteristico è zero: \(\det(A - \lambda I) = 0\). Spettro: insieme di tutti gli autovalori di A.

Raggio spettrale: è il maggiore autovalore in modulo: \(\rho(A) = \max |\lambda|\).

\(A^k\) è convergente se e solo se \(\rho(A) < 1\).

Gli autovalori di una matrice hermitiana sono tutti reali.

DIM. Da \(Ax = \lambda x\) si moltiplica per \(x^*\), \(x^* Ax = \lambda x^* x \Rightarrow x^* Ax = \lambda x^* x\). Dove \(x^* x\) = reale positivo in quanto prodotto di un vettore per il suo trasposto

\(x^* Ax\) = reale positivo poiché \((x^*) x)\) \(x^* Ax = x^* Ax\)

\(\Rightarrow \lambda \in \mathbb{R}\).

Se \(A\) è definita positiva i suoi autovalori sono positivi (e viceversa).

Norma: è una funzione \(\|.\| : \mathbb{C}^m \to \mathbb{R}\) tale che:

  1. \(\|x\| \geq 0\), \(\|x\| = 0\) solo per \(x = 0\)
  2. \(\|c x\| = |c| \cdot \|x\|\)
  3. \(\|x + y\| \leq \|x\| + \|y\|\)

La norma di una matrice è \(\|.\| : \mathbb{C}^{m \times n} \to \mathbb{R}\) e richiede due ulteriori condizioni:

  1. \(\|AB\| \leq \|A\| \cdot \|B\|\) submoltiplacità
  2. \(\|A I\| = \|A\| \cdot \|I\|\) compatibilità

Norma indotta o norma matriciale ricavata da una norma vettoriale.

TR. Per ogni norma matriciale indotta vale la relazione \(\rho(A) \leq \|A\|\).

DIM. Sia \(\lambda\) un generico autovalore. Si ha da \(A x = \lambda x => |\lambda| = \|Ax\|/\|x\| \leq \|A\| \cdot \|x\|/\|x\|\leq \|A\|\) quindi \(|\lambda| \leq \|A\|\), il che vale anche per l’autovalore di modulo massimo \(\rho(A)\leq \|A\|\).

Dato ciò se \(\|A\| \leq r < 1 => \rho(A) < 1 \Rightarrow\)se \(\|A\| < 1\) allora \(A\) è convergente.

TR. Se \(A\) è hermitiana il raggio spettarale corrisponde con la norma 2 di \(A\).

DIM. \(\|A\|_2 = \rho(A^*A) = \rho(A^*) \cdot \rho(A) = \rho(A)\)

Metodo di Richardson

Generalizzazione dei metodi iterativi, serve a far convergere più velocemente il metodo introducendo ad ogni iterazione il parametro αk. quindi le iterate successive si calcolano come: x(k+1) = x(k) + αk r(k)

Stazionario: fai il parametro αk costante.

Il metodo di Richardson stazionario converge se ∃ β 0<α>β<2λmax (2: autovalori di P-1A)La velocità di convergenza è massima nel valore ottimale: αopt = λminmax

Dinamico: hai il parametro αk variabile ad ogni iterazione. Il metodo converge se A, P sono simmetriche definite positive e r(k) r(k)>z(k) Az(k) In questo caso il metodo è detto del gradiente precondizionato; se P=I è detto metodo del gradiente.

Metodi di rilassamento

Servono ad avere tecniche di risoluzione più rapide.Si ha: P = 1ωD - E con {ω<2αk = 1

Equazioni non lineari

Determinare le radici di un’equazione equivale a trovare gli zeri di una funzione.Tutti i metodi numerici per la ricerca degli zeri sono iterativi.Un metodo iterativo è convergente se la successione da esso generata converge alla soluzione esatta: lim k→∞ x(k) = x* dove x*: &betta;(x*) = 0.

Ordine di convergenza: determina la velocità di convergenza del metodo. Un metodo ha ordine di convergenza p se esiste una costante c: lim k→∞ |x(k+1) - x*||x(k) - x*|p= c

All’aumentare di p l’errore diminuisce più velocemente e quindiil metodo converge più velocemente.

Metodo di bisezione

Consiste nel dimezzare sempre l’intervallo all’interno del quale si annulla la funzione in modo da arrivare iterativamente nel punto in cui f(x)=0. Per applicare il metodo bisogna:1) Scomporre l’intervallo iniziale in due sottointervalli;2) Si sceglie l’intervallo in cui la funzione ammette almeno uno zero;3) In tale intervallo si approssima la soluzione col punto medio f;4) Si ripete da punto 2).In questo modo l’errore è sempre massimo la metà dell’iterazione precedente quindi il metodo è convergente. La velocità di convergenza è lenta (p=1; c= 1/2).

Metodo di Newton-Raphson

Si sceglie un punto a caso x(0) e si traccia la tangente alla funzionecorrispondente al punto x(0). All’intersezione tra la tangente e l’assedelle x si ha il punto x(1). Si traccia la tangente alla funzione in corrispondenza di x(1) ecc. Si ottiene il metodo iterativo: xn+1 = xn -f(xn)f’(xn)

Questo metodo è sempre convergente e converge velocemente. Il metodo di Newton-Raphson non garantiscela soluzione di due estremi medi; se la pendenza è prossima a zero converge in modo non incrementale.

Dettagli
A.A. 2012-2013
13 pagine
SSD Scienze matematiche e informatiche INF/01 Informatica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Riassuntingegneria di informazioni apprese con la frequenza delle lezioni di Calcolo numerico e programmazione e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli studi Mediterranea di Reggio Calabria o del prof Cotronei Mariantonia.