Ha senso solamente parlare di autovettori quando si ha una applicazione lineare con stesso dominio e stesso codominio.

Vorremmo trovare una buona matrice che sia diagonale.

6.1 Diagonalizzabilità

6.1.1 Definizione per funzione e matrice

image/universita/ex-notion/Cambio di Base e Autovalori/Untitled 3 image/universita/ex-notion/Cambio di Base e Autovalori/Untitled 4

Questo perché vorrei una base in cui si abbia un matrice diagonale. (quindi probabilmente P è una matrice identità).

Perché ci piacciono le matrici diagonali

Se ho una matrice diagonale, si ha che l’applicazione lineare è un semplice scaling dei vettori della base.

6.1.2 Matrici simili

Date due matrici in uno spazio vetoriale con le matrici, allora se esiste un P nello stesso spazio tale che $B = P^{-1}AP$ si dicono simili (in pratica fare uno scambio di base).

Osservazione 1

Posso dimostrare che la matrice $A_{ee'} \sim A_{bb'}$ associata a una funzione, sono simili per il teorema del cambio di base di sopra

Osservazione 2

La simile, è una relazione di equivalenza (riflessività, simmetria e transitività)

6.1.3 Diagonalizabilità di una matrice quadrata

Si può dire che una matrice quadrata A è diagonalizzabile se è simile a una matrice diagonale

(Anche la definizione di sopra è uguale (equivalente).

6.1.4 Equivalenza della diagonalizzabilità funzionale e matriciale (9.1.4)(!!!)

Si ha che una funzione F e la sua matrice associata.

Allora F diagonalizzabile SSE la sua matrice associata è diagonalizzabile.

  • Dimostrazione

    $\implies$Supponiamo che la funzione sia diagonalizzabile, allora ho una base per cui si ha una matrice diagonale.

    A questo punto utilizzo il teorema del cambio di base per costruirmi la P voluta per la diagonalizzabilità (o avere una matrice simile) e ciò finisce.

    $\impliedby$ Supponiamo che si abbia una matrice diagonalizzabile, allora abbiamo una matrice P che mi dia una matrice diagonale.

    Lemma: le righe di P sono linearmente indipendenti. Si dimostra per il teoremone (l’esistenza dell’inversa, implica che è associata a una funzione bigettiva, che implica che le colonne sono indipendenti).

    Considero le colonne di P, queste sono N vettori indipendenti che fanno quindi span sullo spazio vettoriale Rn. Ma allora P è proprio $I_{be}$ con b la base definita dalle colonne!

    E quindi ho trovato la base per la funzione tale che sia diagonale, quindi la funzione è diagonalizzabile.

6.1.5 Condizione di diagonalizzabilità (!!!!) ⭐

Si può dire che una funzione F sia diagonalizzabile sse esiste una base di Rn costituita da autovettori di F

La dimensione delle due frecce è identica (almeno le tecniche lo sono)

  • Dimostrazione

    $\impliedby$Sia una base di Rn costituita da autovettori della F. Allora la matrice associata a questa funzione è una matrice diagonale per questa base (bisogna fare un pò di conti).

    $\implies$Sia b una base tale che la matrice associata alla funzione sia diagonalizzabile, allora ho una base per cui la funzione è diagonale. Elimino questo esiste con la base beta, voglio dimostrare che siano autovettori.

6.2 Calcolo degli autovettori e autovalori

6.2.1 Autovalore 0 e kernel (!)

$Ker F \neq 0_v \iff F$ ha autovalore $0$

  • Dimostrazione

    $\implies$ supponiamo che $v \neq 0_v, v \in Ker F$ allora $F(v) = 0\cdot v = 0$, ossia 0 è un autovalore.

    $\impliedby$Supponiamo che 0 sia un autovalore, allora esiste un autovettore (per definizione diverso da 0) allora esiste un elemento diverso da 0 nel kernel, e quindi non è iniettiva per una proposizione precedente

6.2.2 Polinomio caratteristico

image/universita/ex-notion/Cambio di Base e Autovalori/Untitled 5

Nota: si ha che se ho una matrice n x n il polinomio caratteristico ha grado n.

6.2.3 Autospazio e Polinomio caratteristico (!!!)

L’autospazio per un certo autovalore è questo insieme

$V_\lambda = \{v \in \R^n | F(v) = \lambda v\}$, ossia è l’unione dei autovettori con lo zero.

Proposizione:

$V_\lambda = Ker(A - \lambda I)$, con il kernel della matrice definita come le soluzioni del sistema lineare omogoneo associato ala matrice (che poi è uguale al concetto della funzione).

  • Dimostrazione

    $\implies$Sappiamo che $V_y$ è l’insieme degli $x \in R^n| Ax = \lambda x$ con A la matrice associata la nostra funzione. Vogliamo dimostrare che se $x \in V_\lambda$ allora appartiene al kernel, il che è abbastanza ovvio per la proprietà distributiva della moltiplicazione matriciale.

    $\impliedby$Se si ha un v appartenente al kernel, allora poi si ricava (aggiungendo e sottraendo una parte) che $Ax = \lambda x$ che è proprio la condizione sufficiente per appartenere all’autospazio

6.2.4 Polinomio car per Matrici simili (no chiede)

Matrici simili hanno lo stesso polinomio caratteristico, questo si dimostra con distributività e associatività della moltiplicazione matriciale.

  • Dimo

    $A - \lambda I = P^{-1}BP - \lambda I = P^{-1}BP - P^{-1}P\lambda I = P^{-1}(B - \lambda I) P$

6.2.5 Condizione dell’autovalore (!!!)

image/universita/ex-notion/Cambio di Base e Autovalori/Untitled 6
  • Dimostrazione

    $\iff$Se $\lambda$ è un autovalore, allora ho un autovettore che appartiene all’autospazio relativo.

    Vogliamo che l’autospazio è diverso da 0, questo è vero sse il sistema lineare (A - lambdaI)x = 0 ha una soluzione non nulla, allora per il teoremone, questo è vero sse il determinante della matrice è uguale a 0. quindi sse lambda è uno zero della nostra matrice.

6.3 Molteplicità e autov{ettori, alori}

6.3.1 Autovalori diverse fanno autovettori indipendenti (no chiede)

Si dimostra in modo induttivo, partendo da un unico vettore che è necessariamente indipendente, saltando per il passo induttivo e finire.

6.3.2 Molteplicità geometrica ed algebrica

image/universita/ex-notion/Cambio di Base e Autovalori/Untitled 7
  • DOmanda da fare alla marta

    Il fatto che la moltiplicità geometrica è minore o uguale alla molteplicità geometrica potrebbe essere insito nel polinomio caratteristico.

    Perché al massimo (è da dimostrare) che il grado del polinomio caratteristico è N, che è anche la dimensione della molteplicità geometrica???

6.3.3 Moltiplicità geometrica ≤ Molteplicità algebrica (no chiede)

image/universita/ex-notion/Cambio di Base e Autovalori/Untitled 8

6.3.4 Diagonalizzabilità per somma di M-algebrica (no chiede)

image/universita/ex-notion/Cambio di Base e Autovalori/Untitled 9

Si può dimostrare che è un sse. e deve essere che le molteplicità algebriche e geometriche siano entrambi uguali.

  • Dim-libro

    !image/universita/ex-notion/Cambio di Base e Autovalori/Untitled 10

Autovettori

gli autovettori sono i vettori di Ax che sono nella stessa direzione di x.

Possiamo scriverlo come $Ax = \lambda x$ e ho che lambda è un autovalore

Sembra che

  1. La somma degli autovalori è uguale alla somma delle diagonali
  2. Una matrice di dimensioni n n ha n autovettori

Autovettori e autovalori di proiezione

Nell’esempio di una proiezione, un autovettore sarebbe stato $x_{a}$ in quanto sarebbe già nello spazio colonna in arrivo, quindi non viene proprio modificato.

Ma non solo questi sono degli autovettori, ma anche i vettori che sono perpendicolari (hanno autovalore 0, perché vengono totalmente distrutti).

Così abbiamo trovato gli autovalori per una matrice di proiezione che sono 0 e 1

La ricerca di autovettori: equazione dell’autovalore

Possiamo riscrivere l’equazione in questo modo:

$$ (A - I\lambda)x = 0 $$

Quindi stiamo cercando soluzioni nello spazio nullo di una nuova matrice, che è interessante solamente se questa matrice è singolare, ossia che abbia una determinante uguale a 0

Cerchiamo le soluzioni di $\det (A - I\lambda) = 0$ per lambda i una nuova matrice, che è interessante solamente se questa matrice è singolare, ossia che abbia una determinante uguale a 0

Cerchiamo le soluzioni di $\det (A - I\lambda) = 0$ per lambda

This theorem is also sometimes called the Caley-Hamilton Theorem. See this chatgpt response.

Gershgorin Circle Theorem

Let $A$ be a square matrix with $n$ rows and columns. The theorem states that each eigenvalue of $A$ lies within at least one of the Gershgorin discs, which are defined as follows:

$$ D_{i} = \left\{ z \in \mathbb{C} : \lvert z - a_{ii} \rvert \leq \sum_{j \neq i} \lvert a_{ij} \rvert \right\} $$

The eigenvalues then lie within the union of these discs.

Proof of the Theorem

Consider the matrix $A$ and its eigenvalue $\lambda$. Then it is true that for some vectors $Ax = \lambda x$. If we consider the $i$-th entry, then we have:

$$ \begin{align} \lambda x_{i} = \sum_{j = 1}^{n}A_{ij}x_{j} &\implies (\lambda - A_{ii})x_{i} = \sum_{j \neq i}A_{ij}x_{j} \\ &\implies \lvert \lambda - A_{ii} \rvert \lvert x_{i} \rvert \leq \sum_{j \neq i} \lvert A_{ij} \rvert \lvert x_{j} \rvert \\ \text{Pick } i = \arg \max_{i} \lvert x_{i} \rvert &\implies \lvert \lambda - A_{ii} \rvert \leq \sum_{j \neq i} \lvert A_{ij} \rvert \end{align} $$

We have exactly the Gershgorin disc, which finishes the proof $\square$.

Some trivia on the theorem

The theorem becomes useful if the circles have some nice bounds:

  1. If every circle does not touch the zero, then we know that the matrix is invertible, because there is no zero eigenvalue.
  2. If every circle has positive points, and the matrix is symmetric, then it is easy to see that the matrix is positive definite.
  3. Bounds on the maximum eigenvalue can be found by looking at the maximum distance from the diagonal.
  4. Same thing with the minimum eigenvalue.