Mo Logo [Home] [Lexikon] [Aufgaben] [Tests] [Kurse] [Begleitmaterial] [Hinweise] [Mitwirkende] [Publikationen]

Mathematik-Online:

Hermitesch, unitär, normal


A B C D E F G H I J K L M N O P Q R S T U V W X Y Z Übersicht

Begriffe.

Sei $ n\geq 1$ , sei $ A\in\mathbb{C}^{n\times n}$ . Schreiben wir $ A = (a_{i,j})_{i,j}$ , so sei $ \bar{A} := (\bar{a}_{i,j})_{i,j} \in\mathbb{C}^{n\times n}$ .

Ist $ A$ unitär, so ist $ A$ normal. Ist $ A$ hermitesch, so ist $ A$ normal.

Es ist $ A$ unitär genau dann, wenn die Spalten von $ A$ eine Orthonormalbasis von $ \mathbb{C}^n$ bilden.

Es ist $ A$ hermitesch genau dann, wenn die Einträge an den bezüglich der Hauptdiagonalen gespiegelten Positionen bis auf Konjugation übereinstimmen. Insbesondere, ist $ A$ hermitesch, so hat $ A$ auf der Diagonalen reelle Einträge.

Es heißt $ A$ unitär diagonalisierbar, wenn es eine unitäre Matrix $ U\in\mathbb{C}^{n\times n}$ gibt mit $ \bar U^\mathrm{t} A U = D$ diagonal.

Ist $ A$ unitär diagonalisierbar, so ist $ A$ insbesondere diagonalisierbar.

Der Beweis von ersterer Aussage benötigt die folgenden beiden Aussagen, die auch für sich genommen von Interesse sein können.

Unitäres Diagonalisieren.

Sei $ A\in\mathbb{C}^{n\times n}$ normal. Um eine unitäre Matrix $ U\in\mathbb{C}^{n\times n}$ so zu finden, daß $ \bar U^\mathrm{t} A U = D$ diagonal ist, verfahren wir wie folgt.

(1)
Bestimme das charakteristische Polynom in der Form $ \chi_A(X) = (X-\lambda_1)^{m_1}\cdots(X-\lambda_r)^{m_r}$ , wobei $ \lambda_1, \ldots, \lambda_r$ die paarweise verschiedenen Eigenwerte der Matrix $ A$ sind.
(2)
Führe die Schritte (3), (4) und (5) für jedes $ i\in\{1,\ldots,r\}$ durch.
(3)
Berechne eine Basis $ (y_1,\dots,y_{m_i})$ von $ \mathrm{E}_A(\lambda_i) = \operatorname{Kern }(A - \lambda_i E)$ .
(4)
Wende Gram-Schmidt an, um aus $ (y_1,\dots,y_{m_i})$ eine Orthonormalbasis $ (x_1,\dots,x_{m_i})$ von $ \operatorname{Kern }(A - \lambda_i E)$ zu gewinnen.
(5)
Trage das Tupel $ (x_1,\dots,x_{m_i})$ als Spalten in die Matrix $ U$ ein.

Zur Probe verifizieren wir $ UD=AU$ sowie $ U$ unitär. Insbesondere ist es eine oft aufschlußreiche Probe, zu verifizieren, daß Eigenvektoren verschiedener Eigenräume zueinander orthogonal sind; dies ist bei normalen Matrizen nämlich stets der Fall.

Definitheit.

Sei $ A\in\mathbb{C}^{n\times n}$ . Sei $ \mathrm{q}_A:\mathbb{C}^n\longrightarrow\mathbb{R}$ , $ x\mapsto\mathrm{q}_A(x) := \bar x^\mathrm{t} A x$ die zu $ A$ gehörige quadratische Form.

Sei nun $ A$ hermitesch.

Kurz, $ A$ ist negativ (semi-)definit genau dann, wenn $ -A$ positiv (semi-)definit ist. Und es ist $ A$ indefinit genau dann, wenn $ A$ weder positiv semidefinit noch negativ semidefinit ist.

Anwendung der Definition auf die Standardbasisvektoren $ e_i$ zeigt, daß eine positiv definite Matrix positive Hauptdiagonaleinträge, und eine negativ definite Matrix negative Hauptdiagonaleinträge aufweist.

Aber Vorsicht, es ist z.B. $ \begin{pmatrix}1&2\\ 2&1\end{pmatrix}$ trotz positiver Hauptdiagonaleinträge nicht positiv definit, sondern vielmehr indefinit (warum?).

Umgekehrt aber, gibt es einen positiven und einen negativen Hauptdiagonaleintrag in $ A$ , so ist $ A$ indefinit.

Wir erinnern daran, daß eine hermitesche Matrix ausschließlich reelle Eigenwerte besitzt.

Das folgende Eigenwertkriterium kann alle Fälle unterscheiden.

Stehen die Eigenwerte nicht zur Verfügung, so kann man stattdessen das charakteristische Polynom $ \chi_A(X) = X^n + h_{n-1} X^{n-1} + \cdots + h_0 X^0\in\mathbb{R}[X]$ heranziehen.

Sei $ 1\leq k\leq n$ . Schreiben wir $ A = (a_{i,j})_{1\leq i\leq n,1\leq j\leq n}$ , so sei

$\displaystyle A_k \; :=\; (a_{i,j})_{1\leq i\leq k,1\leq j\leq k} \;\in\; \mathbb{C}^{k\times k}
$

die $ k\times k$ -Matrix im linken oberen Eck von $ A$ . Es heißt $ \det A_k$ der $ k$ -te Hauptminor von $ A$ .

Das folgende Hauptminorenkriterium erkennt nur Definitheit, nicht Semidefinitheit.

Das Hauptminorenkriterium für die negative Definitheit besagt also, daß die Vorzeichen der Hauptminoren alternieren, angefangen mit einem negativen Vorzeichen.

Signatur.

Sei $ \mathrm{pos}(A)$ die Anzahl der positiven Eigenwerte von $ A$ , sei $ \mathrm{neg}(A)$ die Anzahl der negativen Eigenwerte von $ A$ , jeweils gezählt mit algebraischer Vielfachheit. Unter der Signatur von $ A$ versteht man das Paar $ (\mathrm{pos}(A),\mathrm{neg}(A))$ .

Die hermitesche Matrix $ A\in\mathbb{C}^{n\times n}$ ist positiv definit genau dann, wenn ihre Signatur gleich $ (n,0)$ ist; sie ist positiv semidefinit genau dann, wenn ihre Signatur von der Form $ (k,0)$ ist mit $ 0\leq k\leq n$ ; sie ist negativ definit genau dann, wenn ihre Signatur gleich $ (0,n)$ ist; sie ist negativ semidefinit genau dann, wenn ihre Signatur von der Form $ (0,k)$ ist mit $ 0\leq k\leq n$ ; sie ist indefinit, wenn ihre Signatur von der Form $ (k,l)$ ist mit $ k,\, l\,\geq\, 1$ .

Sei $ S\in\mathrm{GL}_n(\mathbb{C})$ . Der Sylvestersche Trägheitssatz besagt, daß $ A$ und $ \bar S^\mathrm{t} A S$ dieselbe Signatur haben. Dies ermöglicht es uns, die Signatur von $ A$ mit folgendem beidseitigen Gaußalgorithmus zu berechnen.

Zunächst formen wir mit folgenden Schritten $ A$ um zu einer Matrix der Gestalt $ \begin{pmatrix}b&0\\ 0&B\end{pmatrix}$ , mit $ b\in\mathbb{C}$ und $ B\in\mathbb{C}^{(n-1)\times (n-1)}$ .

(1)
Ist der Eintrag an Position $ (j,1)$ gleich Null für $ j\in\{2,\dots,n\}$ , so sind wir fertig.
(2)
Ist der Eintrag an Position $ (1,1)$ ungleich Null, so gehe zu (4).
(3)
Bestimme ein $ j\in\{2,\dots,n\}$ mit einem Eintrag an Position $ (j,1)$ ungleich Null und addiere die $ j$ -te Zeile zur ersten Zeile, und die $ j$ -te Spalte zur ersten Spalte.
(4)
Addiere für alle $ j\in\{2,\dots,n\}$ ein Vielfaches der ersten Zeile auf die $ j$ -te Zeile so, daß der Eintrag an Position $ (j,1)$ annulliert wird.
(5)
Trage für alle $ j\in\{2,\dots,n\}$ eine 0 an der Position $ (1,j)$ ein.

Diese Prozedur führe man nun erneut für die hermitesche Matrix $ B$ durch, usf. Die schließlich resultierende Diagonalmatrix hat dieselbe Signatur wie $ A$ .

Quadriken in $ \mathbb{R}^2$ .

Hermitesche Matrizen mit reellen Einträgen heißen auch symmetrisch.

Unitäre Matrizen mit reellen Einträgen heißen auch orthogonal.

Wir bemerken hier, daß eine symmetrische Matrix $ A$ auch orthogonal diagonalisierbar ist, d.h. es gibt eine orthogonale Matrix $ U$ so, daß $ U^\mathrm{t} AU=\mathrm{E}$ .

Sei $ A = \begin{pmatrix}a&b\\ b&c\end{pmatrix}\in\mathbb{R}^{2\times 2}\setminus\{0\}$ symmetrisch.

Seien ferner $ d,\, e,\, f,\,\in\, \mathbb{R}$ beliebig. Wir betrachten die Quadrik

$\displaystyle Q \; := \; \left\{\left. \begin{pmatrix}\xi \\ \eta\end{pmatrix}\...
...b\xi\eta + c\eta^2 + d\xi + e\eta + f = 0\right\} \;\subseteq\;\mathbb{R}^2\;,
$

definiert durch die Gleichung

$\displaystyle a\xi^2 + 2b\xi\eta + c\eta^2 + d\xi + e\eta + f \;=\; 0\;,
$

welche wir vereinfachen wollen.

Das folgende Verfahren liefert die Gestalt der Quadrik $ Q$ ; einen Mittelpunkt oder einen Scheitelpunkt von $ Q$ ; eine orthogonale Matrix, deren Spalten die Hauptachsen von $ Q$ sind; sowie gegebenenfalls die Halbachsen von $ Q$ .

Zur Illustration diene die Ellipse mit der Gleichung $ x^2+xy+y^2+y-x-1=0$ .

\includegraphics[width = 15cm,height = 15cm]{ellipse.eps}

Reguläre Quadriken in $ \mathbb{R}^n$ .

Sei $ n\geq 1$ und sei $ A\in\mathbb{R}^{n\times n}$ eine reguläre symmetrische Matrix. Sei $ b\in\mathbb{R}^n$ und sei $ c\in\mathbb{R}$ .

Wir betrachten die Quadrik

$\displaystyle Q \; := \; \{ x\in\mathbb{R}^n\; \vert\; x^\mathrm{t} A x + b^\mathrm{t} x + c = 0\} \;\subseteq\;\mathbb{R}^n\;,
$

definiert durch die Gleichung

$\displaystyle x^\mathrm{t} A x + b^\mathrm{t} x + c \;=\; 0\;,
$

welche wir vereinfachen wollen. Wegen $ A$ regulär heißt auch $ Q$ regulär.

Das folgende Verfahren liefert den Mittelpunkt von $ Q$ ; eine orthogonale Matrix, deren Spalten die Hauptachsen von $ Q$ sind; die Form und gegebenenfalls die Halbachsen von $ Q$ .

(Autoren: Künzer/Martin/Tentler/Wahrheit)

Beispiele:


[Verweise]

  automatisch erstellt am 22.  8. 2006