Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
I formula di De Moivre
Quando il prodotto tra due numeri complessi in forma trigonometrica :
z1 = p1(cosΘ1 + isinΘ1) z2 = p2(cosΘ2 + isinΘ2)
z1z2 = p1p2(cosΘ1 + isinΘ1)(cosΘ2 + isinΘ2) =
= p1p2[cosΘ1cosΘ2 - i2senΘ1senΘ2 + i(cosΘ2senΘ1 + senΘ1senΘ2cosΘ2)] =
= p1p2[cosΘ1cosΘ2 - senΘ1senΘ2 + i(cosΘ2senΘ1 + senΘ1senΘ2cosΘ2)] =
= p1p2[cos(Θ1 + Θ2) + isin(Θ1 + Θ2)]
= p1p2[cos(Θ1 + Θ2) + isin(Θ1 + Θ2)]
II formula di De Moivre
È una generalizzazione della I formula di De Moivre:
z1z2....zm = p1p2...pm [cos(Θ1 + Θ2 +.... + Θm) + isin(Θ1 + Θ2 +.... + Θm)]
Se I fattori sono tutti uguali :
z1 = z2 = .... = zm p1 = p2 = .... = pm Θ1 = Θ2 = .... = Θm
Allora
zm = pm[cos(mΘ) + isin(mΘ)]
III formula di De Moivre
(Resto uguale)
z1 ---------- = z2
p1(cosΘ1 + isinΘ1 ------------- ⋅ cosΘ2 - isinΘ2 p2(cosΘ2 + isinΘ2
[cosΘ1cosΘ2 + isinΘ1sinΘ2 + isinΘ1cosΘ2 - isinΘ2cosΘ1]
=[cosΘ1cosΘ2 + sinΘ1sinΘ2 + isinΘ1sinΘ2 - isinΘ2cosΘ1]
[cos2Θ2 - i2sin2Θ2]
=[cosΘ1cosΘ2 + isinΘ2][cosΘ1 + Θ2 + isinΘ1cosΘ2....]..
cos2Θ2+ sinΘ1 and ..]
....
ط बनMetodo di Riduzione di Gauss
(Metodo di risoluzione di sistemi lineari)
Un sistema lineare è costituito da un certo numero di righe e ciascuna di esse porto una combinazione lineare delle variabili ≥ al membro il termine noto.
Operazioni ammesse:
- Moltiplicare per un moltiplicatore ≠0 ogni riga
- Sommare le righe
Si possono quindi combinare linearmente le righe e sostituire poi uno dei due righe con la combinazione ottenuta.
- I
- II
- I → αI + βII
Portare progressivamente il sistema in una forma a scala.
- αx + βy + ... =d1 pivot, coefficiente che appare sulla scala
- 0x + βy + ... =d2
- 0x + 0y + γz + ... =d3
In questo modo nell’ultima riga rimane solo l’ultima variabile = termine ≠0, me si fa la sostituzione (retrograda) in questa riga e nelle variabili.
Se esce tutti di 0=6 (b≠0), ossia impossibile, allora il sistema è impossibile.
Se appare un’ultimo uguale a un valore (b=0), un di =0 (pivot), una riga può essere eliminata.
→ La variabile senza pivot diventa parametro (è libera), e risolvendo partendo a destra i valori con un parametro.
Teorema di Cramer
Sia Ax = b un sistema lineare quadrato di m equazioni in m incognite. Se V(A)=m, il sistema ammette una unica soluzione, qualunque sia b ∈ ℜm.
Dato un sistema lineare quadrato e non singolare det(A)≠0
- a11x1 + a12x2 + ... + a1mxm=b1
- a21x1 + a21x2 + ... + a2mxm=b2
- ...
- am1x1 + am2x2 + ... + ammxm=bm
A x = b A = [
- a11', n',
- a1m', m
- ..
- 'am1''
- 'amm'
- x1/l1
- 'converter'
- '..'
- 'converter'
- b1''
- b'1''
- '..''
- 'bm'''
Insieme di vettori linearmente indipendenti
{v1, v2,..., vk}
Gli elementi sono linearmente indipendenti se l'unica combinazione lineare che dà zero è quella con tutti i coefficienti pari a zero.
αv1 + β v2 + ... + γ vk = 0 ↔ α = β = ... = γ = 0
|λ| ≠ 0
Conseguenze della l.i.
Nessun dei vettori può essere scritto come combinazione lineare di altri.
Insieme di vettori linearmente dipendenti
{v1, v2, ..., vk}
Gli elementi sono linearmente dipendenti se esiste una combinazione lineare, con alcuni coefficienti ≠0, che dà 0.
|λ| = 0
αv1 + β v2 + ... + γ vk = 0 ∃ α ≠ 0
Compriendo un coefficiente non nullo α ≠ 0.
Conseguenze della l.d.
Almeno un vettore può essere scrito come combinazione lineare degli altri (quella con coefficiente non nullo).
αv1 + β v2 + ... + γ vk = 0 ∃ α ≠ 0
αv1 = -βv2 - ... - γ vk
v1 = -β/α v2 - ... - γ/α vk
Oss: Il vettore nullo 0 è sempre l.d.
Sottospazi vettoriali.
W ⊆ V W è un sottospazio vettoriale dello spazio vettoriale V se:
- È un sottospazio
- È chiuso rispetto alle combinazioni lineari (di suoi elementi)
⇒ È uno spazio vettoriale.
Il vettore nullo 0 appartiente a V
Sottospazi vettoriali di R2
- Origine
- Rette per l'origine
- Tutto R2
Sottospazi vettoriali di R3
- Origine
- Rette per l'origine
- Piani per l'origine
- Tutto R3
dim Ker(f) è un sottospazio vettoriale di V
Dimostrazione: due elementi del Ker si ottiene ancora un elemento del Ker!
f: V → W u → w = f(u)1 con lineare
Sia u1, u2 ∈ Ker(f) → f(u1) = 0W e f(u2) = 0W
per la linearità di f: f(αu1 + βu2) = αf(u1) + βf(u2) = α0W + β0W = 0W
c.v.d. ∈ Ker(f)
dim Im(f) è un sottospazio vettoriale di W
Dimostrazione: con lineare f: V → W u → w = f(u)1
preso w1, w2 ∈ Im(f) ∃ u1, u2 | f(u1) = w1 ^ f(u2) = w2
αw1 + βw2 ∈ Im(f)? f( αu1 + βu2) = f(u1) + βf(u2) = αw1 + βw2 ∴ ∈ Im(f) c.v.d.
per la linearità
Teorema (im)
f lineare: V = Rm’m = W u → w = f(u)
f è lineare se Ker(f) = {0v}
Dim. per assurdo
ip. f1 ∈ Ker(f) ts. Ker(f) = {0v}
Leggo la tesi, suppongo che un elemento f diverso da 0v stia nel Ker(f), quindi il Ker(f) contiene almeno 2 elementi.
Si conclude il Ker(f) è il sottinsieme degli elementi di V che si trasformano nella origine di W.
Se f ≠ 0v ∈ Ker(f) contraddizione linearità perchè: f(u) = 0w = f(v) (I 2 elementi hanno la stessa immagine u1 ≠ u2 ∈ f(u1) ≠ f(u2)
→ Assurdo