\( \newcommand{\br}[1]{\left( #1\right)} \newcommand{\logpar}[1]{\log\left( #1\right)} \newcommand{\cospar}[1]{\cos\left( #1\right)} \newcommand{\sinpar}[1]{\sin\left( #1\right)} \newcommand{\tanpar}[1]{\tan\left( #1\right)} \newcommand{\arcsinpar}[1]{\sin^{-1}\!\left( #1\right)} \newcommand{\arccospar}[1]{\cos^{-1}\!\left( #1\right)} \newcommand{\arctanpar}[1]{\tan^{-1}\!\left( #1\right)} \newcommand{\asin}[1]{\sin^{-1}\! #1} \newcommand{\acos}[1]{\cos^{-1}\! #1} \newcommand{\atan}[1]{\tan^{-1}\! #1} \newcommand{\asinh}[1]{\sinh^{-1}\! #1} \newcommand{\acosh}[1]{\cosh^{-1}\! #1} \newcommand{\atanh}[1]{\tanh^{-1}\! #1} \newcommand{\logten}[1]{\log_{10}\! #1} \definecolor{explaination}{RGB}{0, 166, 226} \newcommand{\ubrace}[2][u]{ { \color{explaination}{\underbrace{ {\color{black}{#2}} }_{#1}} } } \newcommand{\obrace}[2][u]{ { \color{explaination}{\overbrace{ {\color{black}{#2}} }^{#1}} } } \definecolor{highlight}{RGB}{181, 41, 118} \newcommand{\xplain}[1]{{ \textcolor{explaination} { \footnotesize{ #1 \newline}}}} \newcommand{\hilite}[1]{{ \textcolor{highlight} { { #1 }}}} \definecolor{lightergray}{gray}{.675} \newcommand{\hide}[1]{{ \textcolor{lightergray} { \footnotesize{ #1 \newline}}}} \newcommand{\mth}[1]{ { \textcolor{black} { { \small #1 } } } } \)

Lineare Abhängigkeit, lineare Unabhängigkeit

Lineare Unabhängigkeit bzw. lineare Abhängigkeit macht eine Aussage darüber, ob ein Vektor als lineare Kombination einer der anderen ausgedrückt werden kann.

Definition

Sei S eine Menge von Vektoren im Vektorraum V

\( \large{ S = \left \{ \vec{\textbf{v}}_1, \vec{\textbf{v}}_2, …\,, \vec{\textbf{v}}_k\right \} } \)

dann hat die Vektorgleichung

\( \large{ c_1\cdot \vec{\textbf{v}}_1 + c_2\cdot \vec{\textbf{v}}_2+\cdots +c_k\cdot \vec{\textbf{v}}_k = 0 } \)

immer die triviale Lösung (daher: alle Koeffizienten sind Null; damit ist die Summe der Produkte auch Null)

c1 = 0, c2 = 0, … , ck = 0

Allerdings existieren auch oft nicht triviale Lösungen, daher Lösungen, bei denen nicht alle Koeffizienten gleich Null sind. Eine Vektorgleichung, die mehr als nur die triviale Lösung hat, ist linear abhängig. Hat eine Vektorgleichung hingegen nur die eine triviale Lösung (bei der alle Koeffizienten Null sind), so ist sie linear unabhängig.

Beispiel

Ist die folgende Menge an Vektoren linear unabhängig?

\( S = \Big \{ \ubrace[\vec{\textbf{v}}_1]{(3,2,1)},\, \ubrace[\vec{\textbf{v}}_2]{(0,1,2)},\, \ubrace[\vec{\textbf{v}}_3]{(3,0,-5)} \Big \} \)

Da der Vektor v1 als lineare Kombination der anderen beiden Vektoren geschrieben werden kann, sind die Vektoren nicht linear abhängig, also linear unabhängig.

\( \textbf{v}_1 = 3\cdot \textbf{v}_2+\textbf{v}_3 \)

Geometrische Betrachtung

Zwei Vektoren

Beispiele für zwei linear abhängige Vektoren
Zwei Vektoren sind linear abhängig wenn sie parallel, also koplanar, verlaufen. Alle gleichfarbigen Vektoren in dem Beispiel oben verlaufen parallel und sind damit linear abhängig.
Beispiel für zwei linear unabhängige Vektoren
Die beiden Vektoren s und t hingegen verlaufen nicht parallel bzw. koplanar. Sie sind daher auch nicht linear anhängig, sondern linear unabhängig.

Drei Vektoren

Auch für drei Vektoren gilt: sind sie koplanar, dann sind sie auch linear abhängig. Zusätzlich sind drei Vektoren allerdings auch linear abhängig, wenn durch Strecken bzw. Stauchen (also durch Verlängern oder Verkürzen der Vektoren) eine Vektorkette gebildet werden kann.

 

Beispiel für drei linear unabhängige Vektoren in R³
In dem Beispiel oben (zum Abspielen anklicken), sehen wir, wie drei koplanere Vektoren so gestreckt bzw. gestaucht werden können, um eine Vektorkette zu bilden Die oberen drei Vektoren sind in \( \mathbb{R}^3 \) linear unabhängig: sie sind weder koplanar, noch lässt sich aus ihnen eine Vektorkette bilden

Daraus folgt auch, dass drei Vektoren in \( \mathbb{R}^2 \) immer linear abhängig sein werden. Allgemeiner gesagt: mehr als n Vektoren in \( \mathbb{R}^n \) sind immer linear abhängig. Die rechnerische Erklärung hierfür findet sich in dem Abschnitt unten.

Determinante zur Bestimmung linearer Unabhängigkeit

Eine weitere Möglichkeit, lineare Unabhängigkeit zu überprüfen, gibt uns die Determinante. Konfiguriert man eine Matrix entsprechend mit den Komponenten der Vektoren, wie unten beschrieben, dann ist die Determinante eine einfache und elegante Möglichkeit, lineare Unabhängigkeit zu bestimmen. Eine Determinante verschieden von Null würde lineare Unabhängigkeit bedeuten. Ansonsten wären die Vektoren linear abhängig.

Die Beziehung zwischen linearer Unabhängigkeit und der Determinante wird auch in der Cramerschen Regel deutlich.

Hat man drei Vektoren

\( \vec{\mathbf{v}}_1 = \begin{bmatrix}x_1\\ y_1\\ z_1\end{bmatrix}, \quad \vec{\mathbf{v}}_2 = \begin{bmatrix}x_2\\ y_2\\ z_2\end{bmatrix}, \quad\vec{\mathbf{v}}_3 = \begin{bmatrix}x_3\\ y_3\\ z_3\end{bmatrix} \)

Eine entsprechend konfigurierte Matrix A würde so aussehen:

\( \mathbf{A} = \begin{bmatrix}x_1 & x_2 & x_3 \\[1ex] y_1 & y_2 & y_3 \\[1ex] z_1 & z_2 & z_3\end{bmatrix} \)

Ist die Determinante der Matrix det(A) = 0, wären die Vektoren linear abhängig. Bei det(A) ≠ 0 hingegen linear unabhängig.

Anstatt einer 3×3-Matrix, könnte man auch eine 2×2- oder allgemein, eine n×n-Matrix nehmen, die entsprechend dem Beispiel konfiguriert ist.

Mit der Determinante kann man auch verstehen, weshalb drei Vektoren in \( \mathbb{R}^2 \) immer linear unabhängig sind. Betrachten wir dazu eine entsprechend konfigurierte Matrix B:

\( \mathbf{B} = \begin{bmatrix}x_1 & x_2 & x_3 \\[1ex] y_1 & y_2 & y_3 \\[1ex] 0 & 0 & 0\end{bmatrix} \)

Da wir für die Berechnung der Determinante immer eine quadratische Matrix n×n benötigen, aber drei Vektoren aus dem 2-dimensionalen Vektorraum haben, müssen wir die letzte Reihe mit Nullen auffüllen. Eine der Eigenschaften der Determinante ist allerdings, dass sie immer Null ist, wenn eine Reihe (oder eine Spalte) der Matrix vollständig aus Nullen besteht (siehe dazu auch den Artikel Determinante). Daraus folgt, dass die Determinante auch hier Null sein muss.

Die Determinante kann dabei auch verwendet werden, um die lineare Unabhängigkeit im beliebigen n-dimensionalen Raum zu überprüfen. Dazu muss lediglich die Matrix entsprechend angepasst werden. Die Aussage der Determinante bleibt dieselbe.

Beispiel

Sind die folgenden drei Vektoren linear abhängig?

\( \vec{\mathbf{a}}=\begin{bmatrix}2\\ -4\\ 5\end{bmatrix},\;\vec{\mathbf{b}}=\begin{bmatrix}-4\\ 8\\ -10\end{bmatrix},\;\vec{\mathbf{c}}=\begin{bmatrix}3\\ -4\\ 5\end{bmatrix} \)

Durch Berechnung der Determinante erhalten wir:

\( \mathbf{A} = \begin{bmatrix}\vec{\mathbf{a}}_x & \vec{\mathbf{b}}_x & \vec{\mathbf{c}}_x \\[1ex]\vec{\mathbf{a}}_y & \vec{\mathbf{b}}_y & \vec{\mathbf{c}}_y \\[1ex]\vec{\mathbf{a}}_z & \vec{\mathbf{b}}_z & \vec{\mathbf{c}}_z \\\end{bmatrix} \;=\; \begin{bmatrix}2 & -4 & 3\\[1ex]-4 & 8 & -4\\[1ex]5 & -10 & 5\end{bmatrix} \;\Rightarrow \; \operatorname{det}(\mathbf{A}) = 0 \)

Da die Determinante Null ist, sind die drei Vektoren linear abhängig (also nicht linear unabhängig).