Ha senso solamente parlare di autovettori quando si ha una applicazione lineare con stesso dominio e stesso codominio.
Vorremmo trovare una buona matrice che sia diagonale.
6.1 Diagonalizzabilità
6.1.1 Definizione per funzione e matrice
Questo perché vorrei una base in cui si abbia un matrice diagonale. (quindi probabilmente P è una matrice identità).
Perché ci piacciono le matrici diagonali
Se ho una matrice diagonale, si ha che l’applicazione lineare è un semplice scaling dei vettori della base.
6.1.2 Matrici simili
Date due matrici in uno spazio vetoriale con le matrici, allora se esiste un P nello stesso spazio tale che $B = P^{-1}AP$ si dicono simili (in pratica fare uno scambio di base).
Osservazione 1
Posso dimostrare che la matrice $A_{ee'} \sim A_{bb'}$ associata a una funzione, sono simili per il teorema del cambio di base di sopra
Osservazione 2
La simile, è una relazione di equivalenza (riflessività, simmetria e transitività)
6.1.3 Diagonalizabilità di una matrice quadrata
Si può dire che una matrice quadrata A è diagonalizzabile se è simile a una matrice diagonale
(Anche la definizione di sopra è uguale (equivalente).
6.1.4 Equivalenza della diagonalizzabilità funzionale e matriciale (9.1.4)(!!!)
Si ha che una funzione F e la sua matrice associata.
Allora F diagonalizzabile SSE la sua matrice associata è diagonalizzabile.
-
Dimostrazione
$\implies$Supponiamo che la funzione sia diagonalizzabile, allora ho una base per cui si ha una matrice diagonale.
A questo punto utilizzo il teorema del cambio di base per costruirmi la P voluta per la diagonalizzabilità (o avere una matrice simile) e ciò finisce.
$\impliedby$ Supponiamo che si abbia una matrice diagonalizzabile, allora abbiamo una matrice P che mi dia una matrice diagonale.
Lemma: le righe di P sono linearmente indipendenti. Si dimostra per il teoremone (l’esistenza dell’inversa, implica che è associata a una funzione bigettiva, che implica che le colonne sono indipendenti).
Considero le colonne di P, queste sono N vettori indipendenti che fanno quindi span sullo spazio vettoriale Rn. Ma allora P è proprio $I_{be}$ con b la base definita dalle colonne!
E quindi ho trovato la base per la funzione tale che sia diagonale, quindi la funzione è diagonalizzabile.
6.1.5 Condizione di diagonalizzabilità (!!!!) ⭐
Si può dire che una funzione F sia diagonalizzabile sse esiste una base di Rn costituita da autovettori di F
La dimensione delle due frecce è identica (almeno le tecniche lo sono)
-
Dimostrazione
$\impliedby$Sia una base di Rn costituita da autovettori della F. Allora la matrice associata a questa funzione è una matrice diagonale per questa base (bisogna fare un pò di conti).
$\implies$Sia b una base tale che la matrice associata alla funzione sia diagonalizzabile, allora ho una base per cui la funzione è diagonale. Elimino questo esiste con la base beta, voglio dimostrare che siano autovettori.
6.2 Calcolo degli autovettori e autovalori
6.2.1 Autovalore 0 e kernel (!)
$Ker F \neq 0_v \iff F$ ha autovalore $0$
-
Dimostrazione
$\implies$ supponiamo che $v \neq 0_v, v \in Ker F$ allora $F(v) = 0\cdot v = 0$, ossia 0 è un autovalore.
$\impliedby$Supponiamo che 0 sia un autovalore, allora esiste un autovettore (per definizione diverso da 0) allora esiste un elemento diverso da 0 nel kernel, e quindi non è iniettiva per una proposizione precedente
6.2.2 Polinomio caratteristico
Nota: si ha che se ho una matrice n x n il polinomio caratteristico ha grado n.
6.2.3 Autospazio e Polinomio caratteristico (!!!)
L’autospazio per un certo autovalore è questo insieme
$V_\lambda = \{v \in \R^n | F(v) = \lambda v\}$, ossia è l’unione dei autovettori con lo zero.
Proposizione:
$V_\lambda = Ker(A - \lambda I)$, con il kernel della matrice definita come le soluzioni del sistema lineare omogoneo associato ala matrice (che poi è uguale al concetto della funzione).
-
Dimostrazione
$\implies$Sappiamo che $V_y$ è l’insieme degli $x \in R^n| Ax = \lambda x$ con A la matrice associata la nostra funzione. Vogliamo dimostrare che se $x \in V_\lambda$ allora appartiene al kernel, il che è abbastanza ovvio per la proprietà distributiva della moltiplicazione matriciale.
$\impliedby$Se si ha un v appartenente al kernel, allora poi si ricava (aggiungendo e sottraendo una parte) che $Ax = \lambda x$ che è proprio la condizione sufficiente per appartenere all’autospazio
6.2.4 Polinomio car per Matrici simili (no chiede)
Matrici simili hanno lo stesso polinomio caratteristico, questo si dimostra con distributività e associatività della moltiplicazione matriciale.
-
Dimo
$A - \lambda I = P^{-1}BP - \lambda I = P^{-1}BP - P^{-1}P\lambda I = P^{-1}(B - \lambda I) P$
6.2.5 Condizione dell’autovalore (!!!)
-
Dimostrazione
$\iff$Se $\lambda$ è un autovalore, allora ho un autovettore che appartiene all’autospazio relativo.
Vogliamo che l’autospazio è diverso da 0, questo è vero sse il sistema lineare (A - lambdaI)x = 0 ha una soluzione non nulla, allora per il teoremone, questo è vero sse il determinante della matrice è uguale a 0. quindi sse lambda è uno zero della nostra matrice.
6.3 Molteplicità e autov{ettori, alori}
6.3.1 Autovalori diverse fanno autovettori indipendenti (no chiede)
Si dimostra in modo induttivo, partendo da un unico vettore che è necessariamente indipendente, saltando per il passo induttivo e finire.
6.3.2 Molteplicità geometrica ed algebrica
-
DOmanda da fare alla marta
Il fatto che la moltiplicità geometrica è minore o uguale alla molteplicità geometrica potrebbe essere insito nel polinomio caratteristico.
Perché al massimo (è da dimostrare) che il grado del polinomio caratteristico è N, che è anche la dimensione della molteplicità geometrica???
6.3.3 Moltiplicità geometrica ≤ Molteplicità algebrica (no chiede)
6.3.4 Diagonalizzabilità per somma di M-algebrica (no chiede)
Si può dimostrare che è un sse. e deve essere che le molteplicità algebriche e geometriche siano entrambi uguali.
-
Dim-libro
!
Autovettori
gli autovettori sono i vettori di Ax che sono nella stessa direzione di x.
Possiamo scriverlo come $Ax = \lambda x$ e ho che lambda è un autovalore
Sembra che
- La somma degli autovalori è uguale alla somma delle diagonali
- Una matrice di dimensioni n n ha n autovettori
Autovettori e autovalori di proiezione
Nell’esempio di una proiezione, un autovettore sarebbe stato $x_{a}$ in quanto sarebbe già nello spazio colonna in arrivo, quindi non viene proprio modificato.
Ma non solo questi sono degli autovettori, ma anche i vettori che sono perpendicolari (hanno autovalore 0, perché vengono totalmente distrutti).
Così abbiamo trovato gli autovalori per una matrice di proiezione che sono 0 e 1
La ricerca di autovettori: equazione dell’autovalore
Possiamo riscrivere l’equazione in questo modo:
$$ (A - I\lambda)x = 0 $$Quindi stiamo cercando soluzioni nello spazio nullo di una nuova matrice, che è interessante solamente se questa matrice è singolare, ossia che abbia una determinante uguale a 0
Cerchiamo le soluzioni di $\det (A - I\lambda) = 0$ per lambda i una nuova matrice, che è interessante solamente se questa matrice è singolare, ossia che abbia una determinante uguale a 0
Cerchiamo le soluzioni di $\det (A - I\lambda) = 0$ per lambda
This theorem is also sometimes called the Caley-Hamilton Theorem. See this chatgpt response.