Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
INIE'ITTIVITA’
ALLA FUNZIONE VENGONO ASSOCIATI ELEMENTI DISTINTI DEL DOMINIO RISPETTO A ELEMENTI DISTINTI DEL CODOMINIO.
GRAFICO: OGNI X AVENTE PIU’ DI UN PUNTO RETTE SULL’ASSE X; SE LE RETTE INTERSECHIAMO UNA SOLA VOLTA LA FUNZIONE =>
LA FUNZIONE E’ INIETTIVA
SU'RIETTIVITA’
ALLA FUNZIONE OGNI ELEMENTO DEL CODOMINIO CORRISPONDONO ALMENO UN ELEMENTO DEL DOMINIO.
GRUPPO (G,*
G E’ UN INSIEME DOVE E’ CONFERMATA LA CONDIZIONE
° OPERAZIONE ASSOCIATIVA*
° ESISTENZA ELEMENTO NEUTRO E INVERSIBILE
SE VALE LA
° PROPRIETA’ COMMUTATIVA
IL GRUPPO SI DICE ABELIANO
ANELLO (A, +, ·)
INSIEME DOVE SONO CONFERMATE:
° LE PROPRIETA' DI GRUPPO ABELIANO
° OPERAZIONE ASSOCIATIVA^
PER OGNI ELEMENTO DI A SI HA CHE:
(a+b)+c=a+(b+c)
(a·b)·c=a·b·c
SE VALE ° PROPRIETA' COMMUTATIVA DI (A, ·)
L’ANELLO SI DICE COM MUTATIVO
CAMPO SE L'ELEMENTO NULLO E’ INVEDITILE.
L'ANELLO E’ COM MUTATIVO E PRESENTA L'ELEMENTO NEUTRO 1 RISPETTO ALL’OPERAZIONE ‘·’.
ALLORA L’ANELLO COMMUTATIVO E’ CAMPO SE L’ELEMENTO NULLO E’ INVEDITILE.
MATRICI
SONO DELLE STRUTTURE ALGEBRICHE COMPOSTE DA RIGHE E COLONNE ALL'INTERNO DELLE QUALI SONO PRESENTI ELEMENTI DI UN GENERICO CAMPO K
.
SONO QUADRATE SE: HANNO LO STESSO N DI RIGHE E COLONNE
SONO SIMMETRICHE SE:
LA LORO MATRICE TRASPOSTA E’ UGUALE A QUELLA DIAGONALE.
SONO ANTISIM METRICHE SE:
LA LORO MATRICE TRASPOSTA E’ DIVERSA DA QUELLA ORIGINALE.
SI DEFINISCE MATRICE TRASPOSTA
VENGONO INVERTITE LE COLONNE CON LE RIGHE.
OPERA ZIONI TRA MATRICE
SOMMA
POSSIBILE SE 2 O PIU’ MATRICI SONO DELLO STESSO TIPO
(STESSO NUMERO DI RIGHE E COLONNE), GODE DELLE PROPRIETA’ DEL GRUPPO ABELIANO.
PRODOTTO PER UNO SCALARE
PRODOTTO TRA MATRICE O RIGHE PER COLONNE
POSSIBILE SOLO SE LEMATRICI IN QUESTIONE HANNO UNA N RIGHE E L’ALTRA M COLONNE
ESEMPI
A=( a11 a12 a13
a21 a22 23
a21 a22 a23
B= a11 a13
MATICE
|
|
QUADRATA
Matrici Particolari
- Matrici nulla: matrice composta da elementi tutti uguali a zero.
- Matrici riga: matrice formata da 1 sola riga chiamata anche vettore riga.
- Matrici colonna: matrice formata da 1 sola colonna chiamata anche vettore colonna.
Confronto tra matrici
Due matrici sono uguali quando:
- Uguali: tutti gli elementi nella posizione originale sono tra loro uguali.
- Opposte: tutti gli elementi nella posizione originale hanno stesso valore assoluto e di segno opposto.
Determinante
È un numero che si definisce solo per le matrici quadrate.
È possibile calcolarlo con:
- Metodo diagonale (ordine 2).
- Metodo Sarrus (ordine 3).
- Metodo del completamento algebrico (ordine > 3).
Ordine di una matrice
Il numero di righe e colonne della stessa può anche essere chiamato dimensione di una matrice.
Primo teorema di Laplace
È applicato a qualsiasi matrice quadrata di ordine n. La somma del prodotto degli elementi di una riga (o colonna) per i corrispettivi complementi algebrici è uguale al determinante della matrice. Il risultato è indipendente dalla riga (o colonna) scelta. Generalmente si applica a matrici di ordine ≥3.
a11C11 + a12C12 + ... + a1nC1n = detA = |A|
Secondo teorema di Laplace
Fornisce una proprietà delle matrici, applicabile a qualsiasi matrice quadrata di ordine n. La somma dei prodotti segli elementi di una riga (o colonna) per i complementi algebrici di un'altra riga (o colonna) è uguale a zero. Il prodotto va fatto solo con elementi e complementi della stessa provenienza (riga e riga opposta, colonna e colonna).
a11C31 + a12C32 + (a32 + a13C33 + ... + a1nC3n = 0
Vettori
I vettori sono degli elementi dello spazio ordinandoli con punto iniziale, uno finale, di lunghezza AB, direzione e verso.
Si dicono equivalenti due vettori paralleli, quindi di verso e modulo uguali.
Vettore nullo caratterizzato da punti (iniziali e finali) coincidenti, di modulo zero con direzione e verso indeterminati. Il punto finale può essere omesso nella notazione.
Somma
- Commutatività
- Associativa
- Inverso
- Opposto
Risultato vettore
Vettore scalare
- Distributiva
- Associativa
Risultato vettore
Condizioni
- Ortogonalità ⊥ → ∙=0
- Parallelismo ⊥
- Complanarità ∙(∧)=0
- Unitarietà ∙=1
Coseni Direttori
Angolo vettore asse x
cosαˆvx=Vx/√(Vx2+Vy2+Vz2)
Angolo vettore asse y
cosαˆvy=Vy/√(Vx2+Vy2+Vz2)
Angolo vettore asse z
cosαˆvz=Vz/√(Vx2+Vy2+Vz2)
Spazi Vettoriali
Sia K un campo e V un insieme, si definisce V un K-spazio vettoriale se sono definite su V le operazioni di somma e prodotto esterno:
- somma: V×V→V
- prodotto esterno: K×V→V
Tali che (V,+) sia un gruppo abeliano e il prodotto esterno sia commutativo rispetto all’elemento neutro:
- (a·b)v=(b·a)v → pseudo associativa
- (a+b) v=av+bv distributiva nello spazio vettoriale V
- (a·v)w=av+aw distributiva nel campo K
- 1·v=V elemento neutro rispetto al prodotto
Teorema di equipotenza di una base
Sia un k-s-v e sia V = <v1, ..., vn> e siano u1, ..., ur vettori l.i.
- Allora esiste una base che contiene u1...ur
Dimostrazione
- Ovviamente v1, ..., vn generano V.
- Si applica il metodo degli scarti successivi.
- Si scartano i generatori se sono solo u1, ..., ur
- L'ultimo è del'iperc. Ha solo il primo appartenuto più volte il metodo di ottenere una base togliendo gli elementi di v1 rimasti (anche nessuno) e i generatori di u1, ..., ur.
Teorema di equipotenza delle basi
Sia V un k-s-v e siano V1, ..., Vn e U1, ..., Um due basi di V. M = n.
Tutte le basi di un k-s-v hanno gli stessi elementi.
Dimostrazione
La base contenente V1, ..., Vn è F
La base contenente U1, ..., Um è E
Considerando F insieme di vettori l.i. allora per il lemma di Steiniz m ≥ n
Considerando E insieme di vettori l.i. allora per il lemma di Steiniz n ≥ m
- Per confermare la dimostrazione M = n
Dimensione di uno spazio vettoriale
Sia V un k-s-v che ha dimensione n
- dimkV = V
- Una base di V è formata da n vettori per una dimensione n si ha:
- v1, ..., vn vettori l.i. → base di V
- u1, ..., ur vetti generazioni → base di V
- v1, ..., vn con m > n → l.i.
- u1, ..., un con m > n → non sono generatori di V
Si definisce sottospazio nullo l'unico sottospazio/spazio vettoriale di dimensione 0
Sia V un k-s-v di dimensione n sia W ≤ V un suo sottospazio
- dim(V) = 0 ↔ f ⊆ V
- dim(W) ≤ n ↔ W = V
Teorema o formula di Grassman
Siano un k-s-v, siano U, W ≤ V sottospazi
- dim(U + W) = dim(U) + dim(W) - dim(U ∩ W) somma
- dim(U ∪ W) = dim(U) + dim(W) somma diretta (dove dim(U ∩ W) = 0)