Orthogonalität und Vollständigkeit

Antworten
Benutzeravatar
summentier
Emax
Beiträge: 36
Registriert: 19.10.2006, 19:48

Orthogonalität und Vollständigkeit

Beitrag von summentier »

Liebe Leute, eine Grundsatzfrage: Was genau versteht man unter Vollständigkeit? Also soweit ich das mitbekommen habe, ist Orthogonalität ja nichts anderes als das Verschwinden verschiedenartiger Vektoren im inneren Produkt, also:
\vec e_i\cdot\vec e_j = e_{i,a} e_{j,a}= \delta_{ij}
Anders ausgedrückt (wenn man die Basis als Matrix B = (\vec e_1, \vec e_2, \vec e_3)) schreibt:
(\vec e_1, \vec e_2, \vec e_3)^T (\vec e_1, \vec e_2, \vec e_3) = B^T B = I

Vollständigkeit ist jetzt folgendermaßen kryptisch definiert:
e_{i,a} e_{i,b} = \delta_{ab}
So in der Matrixschreibweise wäre das aber (gesetzt der Fall, ich hab mich nicht verrechnet):
(\vec e_1, \vec e_2, \vec e_3)(\vec e_1, \vec e_2, \vec e_3)^T = B B^T = I

Damit unterscheiden sich beide Bedingungen aber nur unwesentlich, oder? Sichert die Erfüllung beide Bedingungen sichert, dass B regulär ist? Und warum ist gerade die zweite die "Vollständigkeit"?

Mit der Bitte um tiefere Einsichten...

bone
Beiträge: 61
Registriert: 08.01.2007, 16:45

Beitrag von bone »

Bei e_i_,_a und e_i_,_b handelt es sich ja um denselben Basisvektor, aber eben die verschiedenen Komponenten (x,y,z), nicht um die Vektoren als ganzes. Hoffe, das is irgendwie hilfreich...

rfc822
Beiträge: 232
Registriert: 05.01.2007, 20:22

Beitrag von rfc822 »

http://de.wikipedia.org/wiki/Glossar_ma ... ttribute#V

Hier gibt's ein paar Erklärungen zu "vollständig"... die für die ONS scheint gut zu passen?

Benutzeravatar
themel
Beiträge: 327
Registriert: 12.11.2006, 00:11

Re: Orthogonalität und Vollständigkeit

Beitrag von themel »

Grob gesagt bedeutet Vollständigkeit, dass sich jeder Vektor als Linearkombination von Basisvektoren schreiben lässt.

In endlichdimensionalen Vektorräumen ist der Unterschied zur Orthogonalität nicht so offensichtlich, weil ein System aus n orthogonalen Vektoren in einem n-dimensionalen Raum durch die Dimension automatisch vollständig ist.

In etwas exakterer Formulierung findet sich das Ganze wohl in den hinteren Kapitel von Analysis 2 oder in der Wikipedia zB hier.

Benutzeravatar
summentier
Emax
Beiträge: 36
Registriert: 19.10.2006, 19:48

Beitrag von summentier »

ja, ja, was vollständigkeit prinzipiell bedeutet ist klar: Vollständig heißt eine Basis dann, wenn Sie eben eine Basis ist (also jeder Vektor Linearkombination etc. etc.)...

Aber wieso bitte ist gerade das:
e_{i,a}e_{i,b} = \delta_{ab}
die bedingung für die vollständigkeit? Das will mir einfach nicht in den sinn...

[EDIT:] nur kurz den gröbsten semantischen schwachsinn korrigiert

Benutzeravatar
themel
Beiträge: 327
Registriert: 12.11.2006, 00:11

Beitrag von themel »

Für Vollständigkeit müssen wir fordern, dass \forall x_j \in \mathcal{V}\qquad \exists \left{\alpha_i\right} \in \mathbb{K}\qquad x_j = \alpha_i e_{i,j}. Sind die Basisvektoren orthogonal, dann sind die \alpha_i einfach Fourierkoeffizienten. Man multipliziert also obiges mit dem jeweiligen Einheitsvektor und kriegt

x_j \cdot e_{k,j} = \alpha_i \underbrace{e_{i,j} \cdot e_{k,j}}_{\delta_{ik}}=\alpha_k

Berechnet man
x_j \cdot x_j = \alpha_i e_{i,j} \cdot \alpha_k e_{k,j} = x_l \cdot e_{i,l}\cdot e_{i,j} x_m \cdot e_{k,m} \cdot e_{k,j} = x_l \cdot x_m \cdot e_{i,l}\cdot e_{i,j} \cdot e_{k,m} \cdot e_{k,j}

Gleichzeitig aber klarerweise:

x_j \cdot x_j  = x_l \cdot x_m \delta_{jl} \delta_{jm}

Daher also die Vollständigkeitsrelation. Siehe auch: Parsevalsche Gleichung

Benutzeravatar
summentier
Emax
Beiträge: 36
Registriert: 19.10.2006, 19:48

Beitrag von summentier »

ich danke!
jetzt isses mir klar.

rfc822
Beiträge: 232
Registriert: 05.01.2007, 20:22

Beitrag von rfc822 »

Kann's sein, dass diese Vollständigskeitsrelation nur gilt, wenn man sie mit Fourier-Koeffizienten multipliziert und so alle Werte vom ersten Index addiert?
Weil zB für \vec e_1=\left(\sin\theta~\cos\varphi,~\cos\theta~\sin\varphi,~\cos\theta\right)^T
wäre ja
e_{1,2}\cdot e_{1,3} = \cos^2\theta~\sin\varphi {\buildrel{\rm i.A.}\over\ne} (\delta_{23} = 0)

Benutzeravatar
themel
Beiträge: 327
Registriert: 12.11.2006, 00:11

Beitrag von themel »

rfc822 hat geschrieben:Kann's sein, dass diese Vollständigskeitsrelation nur gilt, wenn man sie mit Fourier-Koeffizienten multipliziert und so alle Werte vom ersten Index addiert?
Weil zB für \vec e_1=\left(\sin\theta~\cos\varphi,~\cos\theta~\sin\varphi,~\cos\theta\right)^T
wäre ja
e_{1,2}\cdot _{1,3} = \cos^2\theta~\sin\varphi {\buildrel{\rm i.A.}\over\ne} (\delta_{23} = 0)
Achtung, Summenkonvention! Im dreidimensionalen Fall also:

e_{i,a}\cdot e_{i,b} = e_{1,a}\cdot e_{1,b}+e_{2,a}\cdot e_{2,b}+e_{3,a}\cdot e_{3,b}

Für gewöhnliche Kugelkoordinaten (was du da beschreibst ist irgendwas anderes) sind das also
e_{1,i} = (\cos\varphi \sin\theta, \sin\varphi\sin\theta,\cos\theta)^T, e_{2,i}=(\cos\varphi\cos\theta,\sin\varphi\cos\theta,-\sin\theta)^T, e^{3,i} = (-\sin\varphi,\cos\varphi,0)

e_{i,2}\cdot e_{i,3} = \sin\varphi\sin\theta \cdot \cos\theta + \sin\varphi\cos\theta \cdot -\sin\theta +\cos\varphi \cdot 0 = 0 = \delta_{23}

rfc822
Beiträge: 232
Registriert: 05.01.2007, 20:22

Beitrag von rfc822 »

Wahnsinn wie kann man sowas übersehen... ich hasse die Indexschreibweise, bin einfach zu blöd dafür

Danke jedenfalls

Benutzeravatar
ManuelO
Beiträge: 118
Registriert: 09.10.2006, 16:07

Beitrag von ManuelO »

dir isses eh schon klar, aber kurz gesagt bezieht sich die summe bei der orthogonalität bzw. vollständigkeit über unterschiedliche indizes...

einmal wird über die namen (vor dem ,) summiert und einmal über die komponenten...

Dann bekommt man entweder einen Skalar bzw die Einheitsmatrix raus...

Wenn man sichs aufschreibt wirds klar..

(Falls jetzt alles schon in den vorigen Antworten gstanden is einfach den Post ignorieren;))

Antworten

Zurück zu „Mathematische Methoden der Physik“