vuoi
o PayPal
tutte le volte che vuoi
Indice matrice unità e prodotto tra matrici
Si indica con n*A Bvii il prodotto tra due matrici:
* | A | B | |
1 | ... | ... | |
... | ... | ... | |
1 | s* | A | B |
... | ... | ... | |
1 | s* | A | B |
... | ... | ... | |
1 | m | A | B |
m | ... | ... |
AB = BA = Iviii
A si dice invertibile se esiste una matrice B tale che nB è la matrice inversa di A
Gruppi, spazi e sottospazi vettoriali
Un insieme G forma un gruppo rispetto ad un'operazione se:
- gode della proprietà associativa
- G è chiuso rispetto all'operazione
- esiste l'elemento neutro
- esiste l'inverso di ogni elemento
Uno spazio vettoriale V è un insieme chiuso per somma e prodotto tale che:
- gli elementi neutri 0 (per la somma) e 1 (per il prodotto) appartengono a V
- esiste l'opposto -v di ogni elemento v in V
- il prodotto per scalari è sia associativo, sia distributivo
Un sottospazio vettoriale S di V è un insieme che è sia un sottogruppo di V rispetto alla somma, sia chiuso rispetto al prodotto per scalari.
zero di V appartiene adS ed è chiuso rispetto alla somma e al prodotto per scalare rispetto al campoVdi .4 Riduzione di Gauss (senza il concetto di rango)Ad ogni sistema lineare si associa la matrice formata dai coecienti delleincognite e dei termini noti (che solitamente vengono preceduti da un trat-teggio). Il metodo di riduzione di Gauss ha lo scopo di ottenere una nuovamatrice in cui sotto il primo termine non nullo di ogni riga si trovino tutti0. tali termini sono detti pivot. Una volta ultimata la riduzione si risolveil sistema. Nel trasformare il sistema sono consentite solo alcune operazioni:
- scambio di due righe (due colonne)
- sostituire una riga con un suo multiplo non nullo (una colonna)
- sostituire una riga con la sua somma con un'altra riga (una colonnacon la sua somma con un'altra colonna)
Notare che le operazioni sulle colonne influenzeranno il calcolo del determinante.le soluzioni di un sistema formano uno spazio vettoriale se e solo se
Il sistema è omogeneo. Inoltre, le colonne pivot originali danno origine ad un insieme minimale che parametrizzano l'insieme delle soluzioni.
4.1 Indipendenza lineare senza il concetto di rango: i vettori sono linearmente indipendenti se x1v1 + x2v2 + ... + xnvn = 0 implica x1 = x2 = ... = xn = 0. In caso contrario, sono detti linearmente dipendenti, ovvero w è combinazione lineare di n vettori se w ∈ x1v1 + x2v2 + ... + xnvn = w implica x1 = x2 = ... = xn = 0.
4.5 Rango: Rouché-Capelli, dimensioni, basi di spazi vettoriali
5.1 Rango: Il rango si calcola tramite alcune proprietà:
- il rango corrisponde al numero dei pivot, una volta ridotta a scala
- il rango è uguale al numero di righe/colonne linearmente indipendenti
- rg(A) ≤ min{n, m}
Come conseguenza si ha che una matrice ha rg(A) ≤ n×m
5.2 Rouché-Capelli: Ax = b, un sistema di equazioni ammette soluzioni se e solo se il rango di A è uguale al rango della matrice completa: rg(A) =
r(A|b)
Inoltre il sistema• ammette soluzione unica se rg(A)=rg(A|b)= numero delle incognite• ammette infinite soluzioni se rg(A) = rg(A|b) < numero delle incognite
5.3 Dipendenza lineare
Sia V uno spazio vettoriale, e vettori di V.R ivx è combinazione lineare dei se e solo se i|...|v |...|v |x)rg(v ) = rg(v1 n 1 nvmentre i sono linearmente indipendenti sei |...|vrg(v ) = n1 n
5.4 Basi e dimensioni; teorema di Grassmannv , ..., vsia B = { } un sottoinsieme di V. B è base di V se:1 n• S è un insieme di generatori, ovvero ogni elemento di V si può scrivere come combinazione lineare degli elementi di S;• gli elementi di S sono linearmente indipendenti.La dimensione di uno spazio vettoriale corrisponde al numero di elementi della base. nRagionando sui ranghi, n vettori di formano una base se e solo se la matrice associata ha rango n. teorema di GrassmannUn importante risultato sulla dimensione è il :− ∩dim(V ) + dim(W ) =
dim(V + W) dim(V ∩ W) = 56
Determinante
Il determinante è una funzione lineare delle colonne di una matrice. Gode di alcune proprietà:
- d(A) = 0 se la matrice A ha una colonna nulla
- è possibile operare sulle colonne, ma se si ottiene una nuova matrice σ operando scambi di colonne allora risulta: 0 σ d(A) = (-1) d(A)
- se A' è triagolare (possibilmente superiore) allora d(A) = (-1) an
- d(A) = 0 se le colonne di A sono linearmente dipendenti
6.1 Calcolo del determinante; sviluppo di Laplace
Il determinante di una matrice può essere scritto equivalentemente secondo uno sviluppo per righe o per colonne. Se è una qualsiasi colonna della matrice A = [aij] si ha:
d(A) = (-1)1+j a1j d(A1j) + ... + (-1)n+j anj d(Anj)
6.2 Metodo di Cramer
Consente di risolvere un sistema di equazioni lineari.
Siano vettori colonna A1, ..., An e D = [d(A1), ..., d(An)] = 0
Sia una1 nx , ..., xn A + ... + xn A = B altro vettore colonna e n-scalari tali che ;n1 n1j = 1, ..., n allora per ogni si ha 1 nd(A , ..., B, ..., A )x =j D jA dove il vettore B sostituisce il vettore nella posizione j-esima. (nota: j è il numero delle soluzioni da trovare). 6.3 Altre Proprietà i) se la matrice dei coecienti di un sistema lineare in n-incognite ha determinante diverso da 0, ammette risoluzione tramite il metodo di Cramer; **A B d(A B) = d(A) d(B) ii) date due matrici e , si ha 6A d(A) = 0 A iii) si dice invertibile se e solo se ; se è invertibile allora -1 -1 d(A ) = d(A) tA nxn d(A) = d(A ) iv)se è una matrice quadrata ( ) allora 66.4 Inversa di una matrice L'inversa di una matrice, se esiste, è unica; se il determinante è diverso da 0, la matrice è non-singolare e possiede un'inversa. -1 Ala matrice inversa si determina tramite il metodo di Cramer ed ha componenti : a ... 0 ... a 11 1n...... ... ... ...fl fi ff 龎 齃 𧻓 𥳐 𥉉 䀹 䀘 㮝 𣏕 𢡄 𢡊 龜 鬒 頻 頋 響 韛 靖 難 陼 鉶 醙 遲 輸 贈 變 謹 諭 諾 謁 請 諸 調 視 覆 襁 蝹 華 荒 者 缾 練 絛 类 節 窱 磌 着 睊 直 盛 益 瘟 瘝 画 甆 瑱 猪 犯 爵 瞧 煮 瀞 漢 滋 滛 流 殺 歹 杖 望 朗 晴 敖 摒 搜 揄 戴 懲 慠 憎 愈 慎 惘 徭 彩 廙 廒 嬨 婢 奔 奄 墳 塚 嗢 喙 啕 喝 勺 勇 冀 充 侀 全 况 並 舘 𤋮 恵 頻 響 難 逸 辶 贈 賓 謹 謁 視 褐 著 艹 艹 臭 者 署 繁 縉 練 節 突 穀 禎 禍 祝 祖 祐 祈 祉 社 碑 琢 爫 煮 漢 渚 海 梅 暑 既 敏 懲 憎 慨 悔 屮 層 墨 塀 器 嘆 喝 卑 勤 勉 免 僧 侮 隷 郞 鶴 館 飼 飯 﨩 﨨 﨧 都 逸 﨤 﨣 諸 﨡 蘒 﨟 羽 精 靖 福 祥 神 礼 益 猪 凞 﨔 﨓 晴 﨑 塚 﨏 﨎 嗀 兀 廓 見 降 行 輻 暴 洞 宅 糖 拓 度 切 刺 茶 什 識 炙 狀 粒 笠 立 臨 淋 林 麟 鱗 隣 藺 璘 燐 吝 溺 匿 離 里 裡 裏 罹 痢 理 泥 梨 李 易 履 吏 利 隆 率 栗 慄 律 輪 淪 崙 倫 陸 戮 六 類 紐 硫 留 琉 溜 流 柳 杻 劉 阮 暈 龍 遼 蓼 療 燎 樂 料 尿 寮 僚 了 惡 隸 醴 禮 例 領 靈 零 鈴 聆 羚 瑩 玲 怜 嶺 寧 囹 令 獵 簾 殮 捻 念 廉 說 裂 烈 咽 劣 列 鍊 連 蓮 輦 聯 練 秊 璉 煉 漣 撚 戀 憐 年 轢 歷 曆 力 黎 麗 驪 閭 礪 濾 旅 廬 女 呂 勵 量 諒 良 糧 梁 凉 兩 亮 略 掠 若 拾 沈 辰 殺 說 葉 省 塞 參 索 數 泌 不 復 便 磻 北 異 率 怒 寧 丹 諾 樂 拏 讀 陵 菱 綾 稜 凌 凜 肋 勒 陋 縷 累 漏 淚 樓 屢 壘 雷 賂 磊 牢 聾 籠 弄 壟 論 鹿 錄 菉 綠 祿 碌 鷺 魯 露 路 虜 蘆 老 盧 爐 櫓 擄 勞 冷 來 郎 狼 浪 朗 廊 蠟 臘 拉 襤 藍 濫 嵐 鸞 蘭 爛 欄 卵 亂 駱 酪 落 珞 烙 洛 樂 邏 裸 螺 蘿 羅 癩 懶 奈 喇 金 契 龜 龜 句 串 滑 賈 車 更 豈
applicazione lineare → F : V → W
Siano V e W spazi vettoriali e applicazione lineare.
Si denisce nucleo di F l'insieme di tutti gli elementi p: {p ∈ |Ker(F) := V F(p) = 0} {0} Ker(F) = v , ..., v
Se risulta e sono linearmente indipendenti in V, allora solo linearmente indipendenti in W.
1 n → F : V → W
Sia ; l'insieme degli elementi w in W per cui esiste un elemento v in V tale che è detto immagine dell'applicazione F, Im(F)denotata .
Risulta, data F su V,W esserci la relazione: dim(V) = dim(Ker(F)) + dim(Im(F))
• Ker(F) = 0 F si dice iniettiva quando
• F(v) = Im(F) = W F si dice suriettiva quando
• F è biiettiva quando è sia iniettiva che suriettiva
7.2 Inversa, composizione, denizione di isomorsmo → −→ F : U → V G : V → W
Siano U,V,W spazi vettoriali su K e siano e due applicazioni lineari. Allora l'applicazione → → G F : U → W
lineare. Un'applicazione suriettiva il cui nucleo è banale, ammette una inversa lineare. Un'applicazione che possiede una inversa lineare è chiamata isomorfismo.
7.3 Applicazioni multilineari
Una applicazione è bilineare se è lineare per entrambe le entrate; una applicazione è multilineare se è lineare per ogni entrata. Proprietà:
- f (λv; µu) = λµf (v; u)
- f (ax + by; z) = af (x; z) + bf (y; z)
n m →g : K xK K
Data una forma bilineare , esiste una unica matrice A tale g = g che , cioè:
a tg(x, y) = x Ay →A g
In particolare l'applicazione è un isomorfismo lineare tra lo spazio delle matrici e lo spazio delle applicazioni bilineari.
8 Applicazioni lineari e matrici n m−→L : K K
Ad ogni matrice A, si associa una applicazione lineare : Adenita:
L (v) = Av
A 8Due matrici che deniscono la stessa applicazione lineare sono uguali.
Esiste una unica matrice A tale chen
m−→L : KK = L Tale matrice si chiama matrice associata alla applicazione L. ASe A è una matrice del tipo , sono i suoi vettori colonna, allora A ènniAinvertibile se e solo se gli sono linearmente indipendenti. 8.1 Basi, matrici, applicazioni lineari Al fine di osservare la relazione tra applicazioni e matrici, siano V e W due spazi vettoriali e rispettivamente le loro basi {v1, ..., vn} e {w1, ..., wm}. Sia ora una applicazione F : V −→ W. Considerando gli isomorfismi trai vettori delle basi e i vettori delle rispettive coordinate, si associa a F la matrice denotata: BM(F )0 La matrice ora introdotta è l'unica che g