Diagonalisering

Diagonalisere matriser

Å diagonalisere en matrise er å gjøre om en matrise til en diagonal matrise med liknende egenskaper. Dette er praktisk i veldig mange tilfeller, fordi det er lettere gjøre utregninger med en diagonal matrise.

For å diagonalisere en matrise \(A\), finner man først egenverdiene til matrisen. Deretter setter man egenverdiene inn langs diagonalen til en tom matrise med samme størrelse som \(A\). En tredimensjonal matrise \(A\) med egenverdier \(\lambda_1\), \(\lambda_2\) og \(\lambda_3\), kan diagonaliseres slik:

\( \begin{bmatrix}\lambda_1 & 0 & 0 \\0 & \lambda_2 & 0 \\0 & 0 & \lambda_3\end{bmatrix} \)

Og en fire-dimensjonal matrise B med egenverdier \(\lambda_1\), \(\lambda_2\), \(\lambda_3\) og \(\lambda_4\) kan diagonaliseres slik:

\(D = \begin{bmatrix}\lambda_1 & 0 & 0 & 0 \\0 & \lambda_2 & 0 & 0 \\0 & 0 & \lambda_3 & 0 \\0 & 0 & 0 & \lambda_4 \end{bmatrix}\)

Dersom en matrise ikke har like mange egenverdier som dimensjoner, går det ikke an å diagonalisere matrisen, og vi sier at matrisen ikke er diagonaliserbar. Dersom radene i en \(n\times n\) matrise er lineært avhengige, vil ikke matrisen være diagonaliserbar.

Hvorfor opfyller diagonaliserte matriser likningen \(A = PDP^{-1}\)?

Vi vil forsøke å vise dette med et eksempel. I eksempelet vil vi bruke en \(2\times2\) matrise, men det samme gjelder også for større matriser.

La A være følgende \(2\times2\) matrise

\(A = \begin{bmatrix}a_{11} & a_{12} \\a_{21} & a_{22}\end{bmatrix} \)

med egenvektorer \(v_1\) og \(v_2\), med korresponderende egenverdier \(\lambda_1\) og \(\lambda_2\).

Da er diagonalmatrisen til a

\(D = \begin{bmatrix} \lambda_1 & 0\\ 0& \lambda_2 \end{bmatrix}\)

Vi kan også finne matrisen \(P\) ved å sette inn egenvektorene til \(A\) som kolonner i en ny matrise:

\(P = \begin{bmatrix}v_1 & v_2\end{bmatrix} \)

(det er kanskje litt rart å se matrisen skrevet opp på denne måten, fordi det ser ut som om det er en \(1\times2\) matrise når det egentlig er en \(2\times2\) matrise)

For å vise at matrisene vi nå har oppfyller \(A = PDP^{-1}\) starter vi med å regne ut \(PD\):

\(PD = \begin{bmatrix}v_1 & v_2\end{bmatrix}\begin{bmatrix} \lambda_1 & 0\\ 0& \lambda_2 \end{bmatrix} = \begin{bmatrix}\lambda_1 v_1 & \lambda_2 v_2\end{bmatrix} \)

Deretter regner vi ut \(AP\):

\(AP = \begin{bmatrix}a_{11} & a_{12} \\a_{21} & a_{22}\end{bmatrix}\begin{bmatrix}v_1 & v_2\end{bmatrix} = \begin{bmatrix} \begin{bmatrix}a_{11} & a_{12} \\a_{21} & a_{22}\end{bmatrix} v_1 & \begin{bmatrix}a_{11} & a_{12} \\a_{21} & a_{22}\end{bmatrix} v_2\end{bmatrix}\)

Fordi \(v_1\) og \(v_2\) er egenvektorene til \(A\), vet vi at \(Av_1 = \lambda_1v_1\) og \(Av_2 = \lambda_2v_2\) (Se temaside om egenvektorer). Dette kan vi bruke til å forenkle det som står over:

\( \begin{bmatrix} \begin{bmatrix}a_{11} & a_{12} \\a_{21} & a_{22}\end{bmatrix} v_1 & \begin{bmatrix}a_{11} & a_{12} \\a_{21} & a_{22}\end{bmatrix} v_2\end{bmatrix} = \begin{bmatrix}\lambda_1 v_1 & \lambda_2 v_2\end{bmatrix} \)

Som du kanskje har lagt merke til, gir utregningen av \(PD\) og \(AP\) samme svar! Derfor er

\(AP = PD\)

Ved å gange med inversmatrisen til \(P\) på begge sider, kan dette skrives om til

\(A = PDP^{-1}\)