Seite 1 von 1

Orthogonalität und Vollständigkeit

Verfasst: 22.02.2007, 15:39
von summentier
Liebe Leute, eine Grundsatzfrage: Was genau versteht man unter Vollständigkeit? Also soweit ich das mitbekommen habe, ist Orthogonalität ja nichts anderes als das Verschwinden verschiedenartiger Vektoren im inneren Produkt, also:
\vec e_i\cdot\vec e_j = e_{i,a} e_{j,a}= \delta_{ij}
Anders ausgedrückt (wenn man die Basis als Matrix B = (\vec e_1, \vec e_2, \vec e_3)) schreibt:
(\vec e_1, \vec e_2, \vec e_3)^T (\vec e_1, \vec e_2, \vec e_3) = B^T B = I

Vollständigkeit ist jetzt folgendermaßen kryptisch definiert:
e_{i,a} e_{i,b} = \delta_{ab}
So in der Matrixschreibweise wäre das aber (gesetzt der Fall, ich hab mich nicht verrechnet):
(\vec e_1, \vec e_2, \vec e_3)(\vec e_1, \vec e_2, \vec e_3)^T = B B^T = I

Damit unterscheiden sich beide Bedingungen aber nur unwesentlich, oder? Sichert die Erfüllung beide Bedingungen sichert, dass B regulär ist? Und warum ist gerade die zweite die "Vollständigkeit"?

Mit der Bitte um tiefere Einsichten...

Verfasst: 22.02.2007, 15:59
von bone
Bei e_i_,_a und e_i_,_b handelt es sich ja um denselben Basisvektor, aber eben die verschiedenen Komponenten (x,y,z), nicht um die Vektoren als ganzes. Hoffe, das is irgendwie hilfreich...

Verfasst: 22.02.2007, 18:30
von rfc822
http://de.wikipedia.org/wiki/Glossar_ma ... ttribute#V

Hier gibt's ein paar Erklärungen zu "vollständig"... die für die ONS scheint gut zu passen?

Re: Orthogonalität und Vollständigkeit

Verfasst: 22.02.2007, 23:05
von themel
Grob gesagt bedeutet Vollständigkeit, dass sich jeder Vektor als Linearkombination von Basisvektoren schreiben lässt.

In endlichdimensionalen Vektorräumen ist der Unterschied zur Orthogonalität nicht so offensichtlich, weil ein System aus n orthogonalen Vektoren in einem n-dimensionalen Raum durch die Dimension automatisch vollständig ist.

In etwas exakterer Formulierung findet sich das Ganze wohl in den hinteren Kapitel von Analysis 2 oder in der Wikipedia zB hier.

Verfasst: 23.02.2007, 01:07
von summentier
ja, ja, was vollständigkeit prinzipiell bedeutet ist klar: Vollständig heißt eine Basis dann, wenn Sie eben eine Basis ist (also jeder Vektor Linearkombination etc. etc.)...

Aber wieso bitte ist gerade das:
e_{i,a}e_{i,b} = \delta_{ab}
die bedingung für die vollständigkeit? Das will mir einfach nicht in den sinn...

[EDIT:] nur kurz den gröbsten semantischen schwachsinn korrigiert

Verfasst: 23.02.2007, 12:33
von themel
Für Vollständigkeit müssen wir fordern, dass \forall x_j \in \mathcal{V}\qquad \exists \left{\alpha_i\right} \in \mathbb{K}\qquad x_j = \alpha_i e_{i,j}. Sind die Basisvektoren orthogonal, dann sind die \alpha_i einfach Fourierkoeffizienten. Man multipliziert also obiges mit dem jeweiligen Einheitsvektor und kriegt

x_j \cdot e_{k,j} = \alpha_i \underbrace{e_{i,j} \cdot e_{k,j}}_{\delta_{ik}}=\alpha_k

Berechnet man
x_j \cdot x_j = \alpha_i e_{i,j} \cdot \alpha_k e_{k,j} = x_l \cdot e_{i,l}\cdot e_{i,j} x_m \cdot e_{k,m} \cdot e_{k,j} = x_l \cdot x_m \cdot e_{i,l}\cdot e_{i,j} \cdot e_{k,m} \cdot e_{k,j}

Gleichzeitig aber klarerweise:

x_j \cdot x_j  = x_l \cdot x_m \delta_{jl} \delta_{jm}

Daher also die Vollständigkeitsrelation. Siehe auch: Parsevalsche Gleichung

Verfasst: 23.02.2007, 19:57
von summentier
ich danke!
jetzt isses mir klar.

Verfasst: 22.03.2007, 15:55
von rfc822
Kann's sein, dass diese Vollständigskeitsrelation nur gilt, wenn man sie mit Fourier-Koeffizienten multipliziert und so alle Werte vom ersten Index addiert?
Weil zB für \vec e_1=\left(\sin\theta~\cos\varphi,~\cos\theta~\sin\varphi,~\cos\theta\right)^T
wäre ja
e_{1,2}\cdot e_{1,3} = \cos^2\theta~\sin\varphi {\buildrel{\rm i.A.}\over\ne} (\delta_{23} = 0)

Verfasst: 22.03.2007, 18:34
von themel
rfc822 hat geschrieben:Kann's sein, dass diese Vollständigskeitsrelation nur gilt, wenn man sie mit Fourier-Koeffizienten multipliziert und so alle Werte vom ersten Index addiert?
Weil zB für \vec e_1=\left(\sin\theta~\cos\varphi,~\cos\theta~\sin\varphi,~\cos\theta\right)^T
wäre ja
e_{1,2}\cdot _{1,3} = \cos^2\theta~\sin\varphi {\buildrel{\rm i.A.}\over\ne} (\delta_{23} = 0)
Achtung, Summenkonvention! Im dreidimensionalen Fall also:

e_{i,a}\cdot e_{i,b} = e_{1,a}\cdot e_{1,b}+e_{2,a}\cdot e_{2,b}+e_{3,a}\cdot e_{3,b}

Für gewöhnliche Kugelkoordinaten (was du da beschreibst ist irgendwas anderes) sind das also
e_{1,i} = (\cos\varphi \sin\theta, \sin\varphi\sin\theta,\cos\theta)^T, e_{2,i}=(\cos\varphi\cos\theta,\sin\varphi\cos\theta,-\sin\theta)^T, e^{3,i} = (-\sin\varphi,\cos\varphi,0)

e_{i,2}\cdot e_{i,3} = \sin\varphi\sin\theta \cdot \cos\theta + \sin\varphi\cos\theta \cdot -\sin\theta +\cos\varphi \cdot 0 = 0 = \delta_{23}

Verfasst: 22.03.2007, 21:46
von rfc822
Wahnsinn wie kann man sowas übersehen... ich hasse die Indexschreibweise, bin einfach zu blöd dafür

Danke jedenfalls

Verfasst: 23.03.2007, 16:28
von ManuelO
dir isses eh schon klar, aber kurz gesagt bezieht sich die summe bei der orthogonalität bzw. vollständigkeit über unterschiedliche indizes...

einmal wird über die namen (vor dem ,) summiert und einmal über die komponenten...

Dann bekommt man entweder einen Skalar bzw die Einheitsmatrix raus...

Wenn man sichs aufschreibt wirds klar..

(Falls jetzt alles schon in den vorigen Antworten gstanden is einfach den Post ignorieren;))