Anteprima
Vedrai una selezione di 1 pagina su 5
Risposta a domande poste durante la prova orale di Algebra lineare Pag. 1
1 su 5
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Le ultime tre sono proprietà delle forme bilineari: la simmetria pone v * w pari a w * v, la proprietà

di essere non degenere comporta che il risultato del prodotto scalare è diverso da zero per ogni

vettore diverso da zero; per il concetto di definita e di semi definita è legato al fatto di una forma

bilineare simmetrica.

Il prodotto scalare può essere calcolato tramite le identità di polarizzazione con l’utilizzo delle

norme, ossia la lunghezza di un vettore.

Partendo dalla disuguaglianza di Cauchy – Schwarz ed eliminandone il modulo al primo membro

( cosicché varia in un intervallo pari al codominio del coseno ), ci permette di definire l’angolo fra

due vettori: con un angolo acuto il prodotto scalare sarà compreso tra 0 e il prodotto tra le norme,

con un angolo ottuso sarà compreso tra il negativo del prodotto tra le norme e 0, infine nel caso in

cui siano ortogonali il prodotto sarà pari a 0.

Inoltre il prodotto scalare è il modello base delle forme bilineari, una applicazione lineare che

rispetta la linearità sia nel primo che nel secondo fattore.

Anche le forme bilineari hanno delle matrici particolari in grado di rappresentarle rispetto a delle

basi.

3) Dati due sottospazi vettoriali, cioè dei sottoinsiemi chiusi rispetto a somme e prodotto per scalari e

che contengano lo zero, si può ipotizzare operazioni di unione e intersezione fra di essi:

l’unione pur rispettando le condizione dello zero e della chiusura rispetto il prodotto, non è un

sottospazio perché, nel caso in cui i due vettori non appartengano allo stesso sottospazio, la loro

somma non è sempre verificato che appartenga all’unione.

Invece l’intersezione è un sottospazio vettoriale (è anche il più grande) perché nel caso della

chiusura rispetto la somma, a differenza dell’unione, entrambi i vettori appartengono allo stesso

sottospazio.

4) Due matrici( aggregato rettangolare di numeri racchiuso entro parentesi) sono idonee al prodotto se e

solo se il numero di colonne della prima è apri al numero di righe della seconda, infatti questo

prodotto si definisce come la somma dei prodotti tra la i riga e la j colonna e gode di diverse

proprietà:

- Associatività

- Se si considerano due matrici diagonali, il prodotto è dato dal prodotto termine e termine degli

elementi sulla diagonale.

- Proprietà distributiva.

- La trasposta( matrice ottenuta scambiando righe e colonne ) di una matrice AB è pari al prodotto

tra le trasposte delle due matrici.

- Il prodotto tra una qualsiasi matrice con la matrice identità quadrata restituisce la matrice di

partenza.

5) Data una matrice 2X2 è possibile interpretare le due colonne( ma è analogo se si prendono le righe)

come coordinate di vettori col determinante che sarà l’area del parallelogramma tra di essi.

Passando a matrice 3X3 le tre colonne descrivono un parallelepipedo il cui volume avrà valore pari

al determinante

6) Le proprietà del determinante sono:

- Il determinante di una matrice è pari a quello della sua trasposta.

- Il determinante della matrice identità è pari a 1.

- Gode di multilinearità, cioè rispetta la somma e il prodotto in ciascuna riga e colonna

Teorema di binet: il determinante di due matrice uniti è uguale al prodotto tra i determinanti

delle singole matrici.

- Il determinante del prodotto tra due matrici, una l’inversa dell’altra, sarà pari alla matrice

identità; inoltre per il teorema di binet il prodotto tra il determinante di una matrice e il

determinante del suo inverso sarà pari a 1. Da ciò deriva il fatto che una matrice è invertibile

solo se ha determinante non nullo.

7) Il metodo di eliminazione di Gauss è una procedura che trasforma, tramite operazioni elementari, un

sistema lineare quadrato in un sistema triangolare superiore con esattamente le stesse soluzioni.

Risolvendo quest’ultimo con una risoluzione all’indietro, otteniamo la soluzione del sistema di

partenza.

Inoltre consente di trovare l’inversa di una matrice A attraverso il seguente procedimento: data una

matrice controllo la sua invertibilità con il determinante o col numero di pivot pari a n; se invertibile

colloco la matrice identità accanto di essa per poi iniziare ad eseguire Gauss. Una volta trovato il

rango dobbiamo ottenere a sinistra la matrice identità attraverso due fasi: prima dividiamo ogni riga

per il proprio pivot e successivamente azzeriamo gli elementi che si trovano sopra ai pivot.

Abbiamo così ottenuto sulla sinistra la matrice identità e sulla destra la matrice inversa della matrice

di partenza.

8) Definita un’applicazione lineare tra due insiemi, definiti come dominio e codominio, tale che ad ogni

elemento del primo insieme corrisponde uno e un solo elemento del codominio, tuttavia è possibile

che ad un elemento del codominio corrisponda più di un elemento del dominio, da questo punto di

vista la definizione di applicazione è asimmetrica.

Inoltre un’applicazione lineare deve rispettare le seguenti condizioni: l’applicazione manda lo zero

del dominio nello zero del codominio, additività e omogeneità.

Da ciò si osserva che la condizione di linearità è molto restrittiva, pochi elementi del dominio

determinano l’intera applicazione.

Definito come combinazione lineare il vettore sommatoria tra i prodotti dei k vettori coi k

coefficienti e definito il sottospazio generato come l’insieme di tutte le possibili combinazioni

lineari, un’applicazione è lineare se e solo se rispetta le combinazioni lineari.

Oltre che essere visti come immagini dei vettori del dominio, i vettori del codominio possono essere

visti come combinazione lineare degli elementi della base del codominio. Ora la matrice associata

ad un’applicazione lineare non è altro quella matrice che ha per j esima colonna il vettore delle

coordinate delle immagini del vettore v di j.

Questa j esima colonna sarà l’immagine del vettore della base del dominio in funzione però dell’altra

base, quella del codominio.

9) Data un’applicazione lineare, definiamo come nucleo del dominio tutti gli elementi di esso che

hanno un’immagine nel vettore nullo, mentre come immagine del codominio tutti gli elementi di

esso che sono in funzione del dominio.

Da ciò si definisce un’applicazione iniettiva se ogni elemento del codominio è associato al massimo

ad un elemento del dominio, suriettiva se ad ogni elemento del codominio è associato almeno un

elemento del dominio e se un’applicazione rispetta entrambi si dice biiettiva, condizione essenziale

per essere invertibile.

10) Per dimostrare che il nucleo sia sottospazio vettoriale del dominio deve rispettare le 3 condizioni:

- l’elemento nullo appartiene al nucleo poiché essendo lineare l’immagine del vettore nullo è il

vettore nullo.

- Dati due vettori appartenenti al nucleo, la loro somma appartiene a loro volta al nucleo

sfruttando la proprietà di additività.

- Dato un vettore appartenente al nucleo, il prodotto con un parametro kappa appartiene a loro

volta al nucleo sfruttando le proprietà di omogeneità.

Per dimostrare che l’immagine sia sottospazio vettoriale del codominio deve rispettare le tre

condizioni:

- L’elemento nullo appartiene all’immagine poiché essendo lineare almeno un’immagine di un

vettore( quella del vettore nullo) va a finire nel vettore nullo.

- Dati due vettori del codominio appartenenti all’immagine e dati i loro corrispettivi vettori del

dominio, si sa che la somma dell’immagini dei vettori del dominio debbano appartenere

all’immagine, ciò porta per linearità a trovare quel vettore la cui immagine è la somma tra i due

vettori del codominio.

- Dato un vettore del codominio appartenente all’immagine e dato il suo corrispettivo vettore del

dominio, si sa che il prodotto tra un parametro k e l’immagine del vettore del dominio appartiene

all’immagine, ciò porta per linearità a trovare quel vettore la cui immagine è il prodotto tra il

coefficiente e il vettore del codominio

11) - Dati k vettori appartenenti ad un sottospazio e generatori di esso, ovvero se esistono dei

coefficienti tali che ogni vettore del sottospazio può essere scritto in funzione di essi, anche se ad

essi viene aggiunto un vettore rimarranno comunque generatori; semplicemente perché la

sommatoria di j che va da 1 a k+1 si può scomporre nella sommatoria che va da 1 a k più il

vettore k+1 moltiplicato per 0.

- Dati k vettori linearmente indipendenti ad un sottospazio, ovvero se l’annullamento della loro

combinazione lineare si ottiene se e solo se vengano posti tutti i coefficienti nulli, anche se ad

essi viene tolto un vettore rimarranno comunque indipendenti; semplicemente perché la

sommatoria di j che va da 1 a k si può vedere come sommatoria che va da 1 a k-1 più il vettore k

moltiplicato , per rispettare la condizione di indipendenza, per un coefficiente nullo.

12) TEREOMA DEL COMPLETAMENTO:

data una base del sottospazio e dati un insieme di vettori del sottospazio, indipendenti fra di loro e di

numero inferiore rispetto alla base; per completarli ad una base basta aggiungervi, ai vettori che

fanno parte del minore di ordine massimo con determinate non nullo, i vettori della base canonica

quanta la differenza tra il numero di vettori della base e il numero di vettori dell’insieme

indipendente.

La dimostrazione di esso è per assurdo, infatti si ipotizzi di avere due basi di numerosità diversa:

quindi esistono dei vettori che aggiunti alla seconda base diano una nuova base, tuttavia qui si cade

in una contraddizione per il fatto che la base di partenza è un insieme massimale di vettori

indipendenti.

13) Per ogni vettore facente parte della base di uno spazio i coefficienti tali che ogni vettore sia

esprimibile come combinazione lineare sono unici, infatti essi in qualità di base sono anche

generatori.

La dimostrazione di esso è per assurdo, supponiamo che un vettore si possa esprimere con due

combinazioni lineari, ciò porta a dire che la differenza tra di loro sia nulla: applicando a questo punto

l’indipendenza lineare di questo vettore si ha che la differenza tra i due coefficienti debba essere

nulla per ciascun j esimo coefficiente, discende che i due coefficienti siano uguali per ciascun j.

14) Consideriamo l’applicazione identità che mandi un vettore in se stesso con una base diversa, la

matrice quadrata a cui viene associata questa applicazione trasforma le coordinate del vettore da una

base ad un’altra; per determinare ta

Dettagli
Publisher
A.A. 2021-2022
5 pagine
SSD Scienze matematiche e informatiche MAT/02 Algebra

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Dinamo02 di informazioni apprese con la frequenza delle lezioni di Algebra lineare e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Roma La Sapienza o del prof Rotundo Giulia.