Lineær uavhengighet

For å forklare lineær uavhengighet, vil vi først starte med et eksempel på vektorer som er lineært avhengige. Vi lar \(\textbf{x}\), \(\textbf{y}\) og \(\textbf{z}\) være følgende vektorer:

\(\textbf{x}= \begin{bmatrix} 3 \\ 4 \\ 1 \end{bmatrix} \space\space\space \textbf{y}= \begin{bmatrix}1 \\0 \\4 \end{bmatrix} \space\space\space \textbf{z}= \begin{bmatrix} 5 \\ 4 \\ 9 \end{bmatrix} \)

Hvis du ser veldig nøye på vektorene, kan du se at \(\textbf{z}\) kan utrykkes som en lineærkombinasjon av \(\textbf{x}\) og \(\textbf{y}\). Det vil si at det er mulig å få \(\textbf{z}\) ved å summere sammen \(\textbf{x}\) og \(\textbf{y}\) slik som dette:

\(\textbf{x}\) + 2\(\textbf{y}\) = \(\textbf{z}\)

En slik lineær likhet som knytter sammen vektorer tenker vi på som en avhengighet mellom vektorene, og vi sier at vektorene \(\textbf{x}\), \(\textbf{y}\) og \(\textbf{z}\) er lineært avhengige fordi det finnes en slik sammenheng mellom dem.

Vi kan også skrive om denne likningen slik at alle vektorene står på samme side av likhetstegnet. Dette viser at nullvektoren kan skrives som en lineærkombinasjon av de tre vektorene.

\( \textbf{x}+2\textbf{y}- \textbf{z}=0\)

Dersom man har tre vilkårlige vektorer \(v_1\), \(v_2\) og \(v_3\), er det alltid mulig å utrykke nullvektoren som en lineærkombinasjon av vektorene ved å gange alle vektorene med 0:

\( 0\textbf{v}_1 + 0\textbf{v}_2 + 0\textbf{v}_3 = 0 \)

Men det er kun hvis vektorene er lineært avhengige, at man kan utrykke nullvektoren som en sum av vektorene der ikke alle koeffisientene er 0. Dette gir grunnlaget for definisjonen av lineær uavhengighet.

Hvordan sjekke om vektorer er lineært avhengige

For å sjekke om vektorer er lineært avhengige, må vi sjekke om det finnes ikke-trivielle løsninger til likningen \(\textbf{v}_1 \cdot x_1 + \textbf{v}_2 \cdot x_2 + \cdots + \textbf{v}_n \cdot x_n = 0\). La oss si at vi har følgende vektorer:

\(\textbf{u} = \begin{bmatrix}1 \\2 \\3\end{bmatrix} \), \(\textbf{v} = \begin{bmatrix}2 \\-1 \\4\end{bmatrix} \), \(\textbf{w} = \begin{bmatrix}3 \\1 \\4\end{bmatrix} \),

Vi setter inn vektorene i likningen:

\( \begin{bmatrix}1 \\2 \\3\end{bmatrix} \cdot x_1 + \begin{bmatrix}2 \\-1 \\4\end{bmatrix} \cdot x_2 + \begin{bmatrix}3 \\1 \\4\end{bmatrix} \cdot x_3 = 0\)

Ved å gjøre matrise-vektor multiplikasjon «omvendt vei» kan vi skrive om denne likningen til matriselikningen:

\( \begin{bmatrix}1 & 2 & 3 \\2 & -1 & 1 \\3 & 4 & 4\end{bmatrix} \begin{bmatrix}x_1 \\x_2 \\x_3 \end{bmatrix} = \begin{bmatrix}0 \\0 \\0\end{bmatrix} \)

Vi prøver å løse denne likningen med Gauss-eliminasjon. Når vi løser med Gauss-eliminasjon får vi at den eneste løsningen på likningen er:

\(\begin{bmatrix}x_1 \\x_2 \\x_3\end{bmatrix} = \begin{bmatrix}0 \\0 \\0\end{bmatrix} \)

Derfor er den eneste løsningen på likningen triviell, og vi kan konkludere med at vektorene er lineært uavhengige.