Rzut
T
{\displaystyle \mathrm {T} }
wzdłuż prostej
k
{\displaystyle k}
na prostą
m
.
{\displaystyle m.}
Niech dana będzie przestrzeń liniowa
V
{\displaystyle V}
(nad ustalonym ciałem ). Przekształcenie liniowe
P
:
V
→
V
{\displaystyle \mathrm {P} \colon V\to V}
tej przestrzeni w siebie spełniające warunek idempotentności
P
2
=
P
,
{\displaystyle \mathrm {P} ^{2}=\mathrm {P} ,}
czyli
P
(
P
(
v
)
)
=
P
(
v
)
{\displaystyle \mathrm {P} {\big (}\mathrm {P} (\mathbf {v} ){\big )}=\mathrm {P} (\mathbf {v} )}
dla każdego
v
∈
V
{\displaystyle \mathbf {v} \in V}
nazywa się rzutem (ukośnym) lub projekcją .
Odwzorowanie
P
{\displaystyle \mathrm {P} }
można scharakteryzować w następujący sposób: dowolny wektor
v
∈
V
{\displaystyle \mathbf {v} \in V}
można przedstawić w jednoznaczny sposób w postaci sumy
v
=
w
+
u
,
{\displaystyle \mathbf {v} =\mathbf {w} +\mathbf {u} ,}
gdzie
w
∈
ker
P
{\displaystyle \mathbf {w} \in \ker \mathrm {P} }
oraz
u
∈
i
m
P
{\displaystyle \mathbf {u} \in \mathrm {im\;P} }
[b] . Oznacza to, że
V
=
ker
P
⊕
i
m
P
,
{\displaystyle V=\ker \mathrm {P} \oplus \mathrm {im\;P} ,}
czyli
V
{\displaystyle V}
jest sumą prostą jądra i obrazu
P
.
{\displaystyle \mathrm {P} .}
Jeżeli
V
{\displaystyle V}
jest skończeniewymiarowa, zaś
U
{\displaystyle U}
jest jej podprzestrzenią liniową , to na mocy twierdzenia o rzędzie istnieje rzut
P
,
{\displaystyle \mathrm {P} ,}
dla którego
i
m
P
=
U
{\displaystyle \mathrm {im\;P} =U}
(jeśli
0
<
dim
U
<
dim
V
,
{\displaystyle 0<\dim U<\dim V,}
to rzutów określonych na
V
{\displaystyle V}
o obrazie
U
{\displaystyle U}
jest nieskończenie wiele).
Dla danych podprzestrzeni
W
,
U
{\displaystyle W,U}
przestrzeni
V
{\displaystyle V}
spełniających
V
=
W
⊕
U
{\displaystyle V=W\oplus U}
przekształcenie
P
:
V
→
V
{\displaystyle \mathrm {P} \colon V\to V}
nazywa się rzutem na
U
{\displaystyle U}
wzdłuż
W
,
{\displaystyle W,}
jeśli dla każdego
v
∈
V
{\displaystyle \mathbf {v} \in V}
zachodzi
P
(
v
)
∈
U
{\displaystyle \mathrm {P} (\mathbf {v} )\in U}
oraz
v
−
P
(
v
)
∈
W
.
{\displaystyle \mathbf {v} -\mathrm {P} (\mathbf {v} )\in W.}
Jedynymi wartościami własnymi rzutu są zero i jedynka, tzn. widmo rzutu
P
{\displaystyle \mathrm {P} }
jest równe
σ
(
P
)
=
{
0
,
1
}
{\displaystyle \sigma (\mathrm {P} )=\{0,1\}}
[c] ; ponadto rzut jest diagonalizowalny i w szczególności (w ciele charakterystyki zerowej) jego ślad jest równy wymiarowi obrazu [d] . Z drugiej strony, jeśli przekształcenie
A
{\displaystyle \mathrm {A} }
ma widmo
σ
(
A
)
=
{
0
,
1
}
{\displaystyle \sigma (\mathrm {A} )=\{0,1\}}
i jest diagonalizowalne, to
A
{\displaystyle \mathrm {A} }
jest rzutem[e] .
Jeśli
P
{\displaystyle \mathrm {P} }
jest rzutem na
U
{\displaystyle U}
wzdłuż
W
,
{\displaystyle W,}
to przekształcenie
Q
=
I
−
P
:
V
→
V
{\displaystyle \mathrm {Q} =\mathrm {I} -\mathrm {P} \colon V\to V}
dane wzorem
Q
(
v
)
=
v
−
P
(
v
)
{\displaystyle \mathrm {Q} (\mathbf {v} )=\mathbf {v} -\mathrm {P} (\mathbf {v} )}
jest rzutem na
W
{\displaystyle W}
wzdłuż
U
{\displaystyle U}
[f] . Tym samym rozkładowi
V
=
U
⊕
W
{\displaystyle V=U\oplus W}
odpowiada para rzutów
P
,
Q
.
{\displaystyle \mathrm {P} ,\mathrm {Q} .}
Rzut ortogonalny
P
{\displaystyle \mathrm {P} }
na prostą
m
.
{\displaystyle m.}
Jeżeli
P
{\displaystyle \mathrm {P} }
jest rzutem (ukośnym) na
U
{\displaystyle U}
wzdłuż
W
{\displaystyle W}
oraz
V
=
W
⊥
U
{\displaystyle V=W\perp U}
jest ortogonalną sumą prostą , to
P
{\displaystyle \mathrm {P} }
nazywa się rzutem ortogonalnym (na
U
{\displaystyle U}
wzdłuż
W
{\displaystyle W}
). Wówczas
W
=
U
⊥
{\displaystyle W=U^{\perp }}
jest dopełnieniem ortogonalnym
U
,
{\displaystyle U,}
czyli zachodzi
V
=
U
⊥
⊕
U
,
{\displaystyle V=U^{\perp }\oplus U,}
a więc
V
=
(
i
m
P
)
⊥
⊕
i
m
P
,
{\displaystyle V=(\mathrm {im\;P} )^{\perp }\oplus \mathrm {im\;P} ,}
gdyż wtedy
ker
P
=
(
i
m
P
)
⊥
,
{\displaystyle \ker P=(\mathrm {im\;P} )^{\perp },}
gdzie
i
m
P
{\displaystyle \mathrm {im\;P} }
oraz
ker
P
{\displaystyle \ker \mathrm {P} }
oznaczają odpowiednio obraz i jądro rzutu
P
.
{\displaystyle \mathrm {P} .}
Konstrukcja ortogonalnej sumy prostej wymaga istnienia (niezdegenerowanej) symetrycznej formy dwuliniowej określonej na przestrzeni (tzw. przestrzeń ortogonalna ): zwykle rozważa się przestrzenie z iloczynem skalarnym (tzw. przestrzenie unitarne ); w przypadku przestrzeni nieskończonego wymiaru zakłada się dodatkowo zupełność , co sprawia, że przestrzeń unitarna
V
{\displaystyle V}
staje się przestrzenią Hilberta – istnienie zapewnia wtedy twierdzenie o rzucie ortogonalnym . W tym kontekście rzut ukośny nazywa się operatorem idempotentnym , a rzut ortogonalny znany jest jako operator rzutowy .
Rzut jest ortogonalny wtedy i tylko wtedy, gdy jest i) samosprzężony [g] lub ii) normalny lub iii) dodatni (dodatnio określony) lub iv) izometryczny . Rzuty ortogonalne są operatorami ograniczonymi (czyli ciągłymi ), a gdy są nietrywialne: o jednostkowej normie operatorowej [h] ; z drugiej strony ograniczony (równoważnie: ciągły) operator liniowy
A
{\displaystyle \mathrm {A} }
na przestrzeni Hilberta jest rzutem ortogonalnym wtedy i tylko wtedy, gdy
A
∗
A
=
A
.
{\displaystyle \mathrm {A} ^{*}\mathrm {A} =\mathrm {A} .}
Gdy rozważana przestrzeń jest zespolona , gwiazdkę przy oznaczeniu macierzy należy interpretować jako sprzężenie hermitowskie , w pozostałych przypadkach – jako transpozycję ; w przypadku przekształceń gwiazdka oznacza (antyliniowe ) przekształcenie sprzężone do danego.
Jeśli
u
1
,
…
,
u
k
{\displaystyle \mathbf {u} _{1},\dots ,\mathbf {u} _{k}}
jest bazą ortonormalną podprzestrzeni
U
{\displaystyle U}
zaś
A
{\displaystyle \mathbf {A} }
oznacza macierz typu
n
×
k
,
{\displaystyle n\times k,}
której kolumnami są
u
1
,
…
,
u
k
,
{\displaystyle \mathbf {u} _{1},\dots ,\mathbf {u} _{k},}
to macierz rzutu ortogonalnego dana jest wzorem
P
A
=
A
A
∗
{\displaystyle \mathbf {P} _{\mathbf {A} }=\mathbf {AA} ^{*}}
i reprezentuje ona przekształcenie, które można zapisać jako[i]
P
A
(
⋅
)
=
∑
i
=
1
k
u
i
⟨
u
i
,
⋅
⟩
.
{\displaystyle \mathrm {P} _{\mathrm {A} }(\cdot )=\sum _{i=1}^{k}\mathbf {u} _{i}\langle \mathbf {u} _{i},\cdot \rangle .}
W szczególności rzut na prostą (przestrzeń jednowymiarową) rozpinaną przez wektor jednostkowy
u
{\displaystyle \mathbf {u} }
dany jest wzorem
P
u
(
⋅
)
=
u
⟨
u
,
⋅
⟩
,
{\displaystyle \mathrm {P} _{\mathbf {u} }(\cdot )=\mathbf {u} \langle \mathbf {u} ,\cdot \rangle ,}
a jego macierz ma postać
P
u
=
u
u
∗
{\displaystyle \mathbf {P} _{\mathbf {u} }=\mathbf {uu} ^{*}}
[j] .
Macierz
A
∗
{\displaystyle \mathbf {A} ^{*}}
reprezentuje izometrię częściową
A
∗
,
{\displaystyle \mathrm {A} ^{*},}
która znika na dopełnieniu ortogonalnym podprzestrzeni
U
,
{\displaystyle U,}
zaś
A
{\displaystyle \mathrm {A} }
jest izometrią , która zanurza
U
{\displaystyle U}
w przestrzeń
V
.
{\displaystyle V.}
Warunek ortonormalności można opuścić; jeżeli
u
1
,
…
,
u
k
{\displaystyle \mathbf {u} _{1},\dots ,\mathbf {u} _{k}}
jest bazą (niekoniecznie ortonormalną), a macierz
A
{\displaystyle \mathbf {A} }
zawiera te wektory jako kolumny, to rzut ma postać[k]
P
A
=
A
(
A
∗
A
)
−
1
A
∗
.
{\displaystyle \mathbf {P} _{\mathbf {A} }=\mathbf {A} (\mathbf {A} ^{*}\mathbf {A} )^{-1}\mathbf {A} ^{*}.}
Reprezentowane przez tę macierz przekształcenie nadal zanurza
U
{\displaystyle U}
w przestrzeń
V
,
{\displaystyle V,}
jednak nie musi być już izometrią.
Przekształcenie liniowe , którego macierz ma postać
[
1
0
0
0
]
,
{\displaystyle \left[{\begin{smallmatrix}1&0\\0&0\end{smallmatrix}}\right],}
jest rzutem ortogonalnym, podczas gdy zadane macierzą
[
0
1
0
1
]
{\displaystyle \left[{\begin{smallmatrix}0&1\\0&1\end{smallmatrix}}\right]}
jest rzutem (ukośnym), ale nie ortogonalnym (pierwsza macierz opisuje operator rzutowy, druga – tylko idempotentny).
Przestrzeń
L
2
(
R
)
{\displaystyle \mathrm {L} ^{2}(\mathbb {R} )}
funkcji rzeczywistych całkowalnych z kwadratem (w sensie Lebesgue’a ) jest ortogonalną sumą prostą przestrzeni
M
,
N
{\displaystyle M,N}
funkcji parzystych i nieparzystych ; rzuty
P
M
,
P
N
{\displaystyle \mathrm {P} _{M},\mathrm {P} _{N}}
odpowiednio na
M
,
N
{\displaystyle M,N}
dane są wzorami[l]
P
M
f
(
x
)
=
f
(
x
)
+
f
(
−
x
)
2
oraz
P
N
f
(
x
)
=
f
(
x
)
−
f
(
−
x
)
2
,
{\displaystyle \mathrm {P} _{M}f(x)={\tfrac {f(x)+f(-x)}{2}}\qquad {\text{ oraz }}\qquad \mathrm {P} _{N}f(x)={\tfrac {f(x)-f(-x)}{2}},}
przy czym
I
−
P
M
=
P
N
.
{\displaystyle \mathrm {I} -\mathrm {P} _{M}=\mathrm {P} _{N}.}
Niech
A
{\displaystyle A}
będzie zbiorem mierzalnym
R
,
{\displaystyle \mathbb {R} ,}
np. przedziałem , z funkcją charakterystyczną
χ
A
.
{\displaystyle \chi _{A}.}
Wówczas[l]
P
A
f
(
x
)
=
χ
A
(
x
)
f
(
x
)
{\displaystyle \mathrm {P} _{A}f(x)=\chi _{A}(x)f(x)}
jest rzutem ortogonalnym
L
2
(
R
)
{\displaystyle \mathrm {L} ^{2}(\mathbb {R} )}
na podprzestrzeń funkcji o nośniku zawartym w domknięciu
A
¯
.
{\displaystyle {\overline {A}}.}
Zamiast wspomnianej wcześniej przestrzeni Hilberta
R
n
{\displaystyle \mathbb {R} ^{n}}
z operatorem
P
u
(
x
)
=
u
u
∗
x
{\displaystyle \mathrm {P} _{\mathbf {u} }(\mathbf {x} )=\mathbf {uu} ^{*}\mathbf {x} }
można rozważać inne: w przypadku przestrzeni ciągów
ℓ
2
(
Z
)
,
{\displaystyle \ell ^{2}(\mathbb {Z} ),}
gdy
u
=
e
n
,
{\displaystyle \mathbf {u} =\mathbf {e} _{n},}
gdzie
e
n
=
(
δ
k
,
n
)
k
=
−
∞
+
∞
{\displaystyle \mathbf {e} _{n}=\left(\delta _{k,n}\right)_{k=-\infty }^{+\infty }}
[m] , oraz
x
=
(
x
k
)
,
{\displaystyle \mathbf {x} =(x_{k}),}
to rzut przyjmuje postać
P
e
n
(
x
)
=
x
n
e
n
.
{\displaystyle \mathrm {P} _{\mathbf {e} _{n}}(\mathbf {x} )=x_{n}\mathbf {e} _{n}.}
Jeśli z kolei dana jest przestrzeń
L
2
(
T
)
{\displaystyle \mathrm {L} ^{2}(\mathbb {T} )}
jest przestrzenią funkcji o okresie
2
π
{\displaystyle 2\pi }
[n] , a
u
=
1
/
2
π
{\displaystyle u=1/{\sqrt {2\pi }}}
jest funkcją stałą o jednostkowej normie, to rzut ortogonalny
P
u
{\displaystyle \mathrm {P} _{u}}
przekształca funkcję
f
{\displaystyle f}
w jej średnią
⟨
f
⟩
,
{\displaystyle \langle f\rangle ,}
gdzie
⟨
f
⟩
=
1
2
π
∫
0
2
π
f
(
x
)
d
x
.
{\displaystyle \langle f\rangle ={\frac {1}{2\pi }}\int _{0}^{2\pi }\!\!f(x)\ \mathrm {d} x.}
Odpowiadający temu rzutowi rozkład ortogonalny,
f
(
x
)
=
⟨
f
⟩
+
f
′
(
x
)
,
{\displaystyle f(x)=\langle f\rangle +f'(x),}
rozbija funkcję na stałą część średnią
⟨
f
⟩
{\displaystyle \langle f\rangle }
i zmienną część
f
′
{\displaystyle f'}
o zerowej średniej.
↑ Etymologia w artykule projekcja .
↑ Wystarczy przyjąć
u
=
P
(
v
)
{\displaystyle \mathbf {u} =\mathrm {P} (\mathbf {v} )}
oraz
w
=
v
−
u
,
{\displaystyle \mathbf {w} =\mathbf {v} -\mathbf {u} ,}
wtedy
P
(
w
)
=
P
(
v
−
P
(
v
)
)
=
P
(
v
)
−
P
2
(
v
)
=
P
(
v
)
−
P
(
v
)
=
0
.
{\displaystyle {\begin{aligned}\mathrm {P} (\mathbf {w} )&=\mathrm {P} {\big (}\mathbf {v} -\mathrm {P} (\mathbf {v} ){\big )}=\mathrm {P} (\mathbf {v} )-\mathrm {P} ^{2}(\mathbf {v} )\\&=\mathrm {P} (\mathbf {v} )-\mathrm {P} (\mathbf {v} )=\mathbf {0} .\end{aligned}}}
Jedyność tego przedstawienia wynika z obserwacji działania
P
{\displaystyle \mathrm {P} }
na
v
,
{\displaystyle \mathbf {v} ,}
mianowicie
P
(
v
)
=
P
(
w
+
u
)
=
P
(
w
)
+
P
(
u
)
=
0
+
u
=
u
.
{\displaystyle \mathrm {P} (\mathbf {v} )=\mathrm {P} (\mathbf {w} +\mathbf {u} )=\mathrm {P} (\mathbf {w} )+\mathrm {P} (\mathbf {u} )=\mathbf {0} +\mathbf {u} =\mathbf {u} .}
↑ Niech
v
{\displaystyle \mathbf {v} }
będzie wektorem własnym stowarzyszonym z wartością własną
λ
{\displaystyle \lambda }
rzutu
P
.
{\displaystyle \mathrm {P} .}
Wówczas
λ
u
=
P
(
u
)
=
P
(
P
(
u
)
)
=
P
(
λ
u
)
=
λ
2
u
,
{\displaystyle \lambda \mathbf {u} =\mathrm {P} (\mathbf {u} )=\mathrm {P} {\big (}\mathrm {P} (\mathbf {u} ){\big )}=\mathrm {P} (\lambda \mathbf {u} )=\lambda ^{2}\mathbf {u} ,}
a ponieważ
u
≠
0
,
{\displaystyle \mathbf {u} \neq \mathbf {0} ,}
to
λ
=
λ
2
,
{\displaystyle \lambda =\lambda ^{2},}
czyli
λ
(
λ
−
1
)
=
0
,
{\displaystyle \lambda (\lambda -1)=0,}
skąd
λ
=
0
{\displaystyle \lambda =0}
lub
λ
=
1.
{\displaystyle \lambda =1.}
↑ Niech
u
1
,
…
,
u
k
{\displaystyle \mathbf {u} _{1},\dots ,\mathbf {u} _{k}}
będą bazą
U
.
{\displaystyle U.}
Wówczas zakładając, że
u
i
=
P
(
v
i
)
,
{\displaystyle \mathbf {u} _{i}=\mathrm {P} (\mathbf {v} _{i}),}
otrzymuje się
P
(
u
i
)
=
P
2
(
v
i
)
=
P
(
v
i
)
=
u
i
{\displaystyle \mathrm {P} (\mathbf {u} _{i})=\mathrm {P} ^{2}(\mathbf {v} _{i})=\mathrm {P} (\mathbf {v} _{i})=\mathbf {u} _{i}}
(
i
=
1
,
…
,
k
)
,
{\displaystyle (i=1,\dots ,k),}
zatem dowolny niezerowy wektor w obrazie
P
{\displaystyle P}
jest wektorem własnym z wartością własną
λ
=
1.
{\displaystyle \lambda =1.}
W ten sposób wymiar przestrzeni własnej
P
{\displaystyle \mathrm {P} }
dla wartości własnej
λ
=
1
{\displaystyle \lambda =1}
jest niemniejszy niż rząd
P
.
{\displaystyle \mathrm {P} .}
Z twierdzenia o rzędzie wynika jednak, że
dim
i
m
P
+
dim
ker
P
=
dim
V
1
(
P
)
+
dim
V
0
(
P
)
=
dim
V
{\displaystyle \dim \mathrm {im\;P} +\dim \ker \mathrm {P} =\dim V_{1}(\mathrm {P} )+\dim V_{0}(\mathrm {P} )=\dim V}
(gdyż
ker
P
=
dim
V
0
(
P
)
{\displaystyle \ker \mathrm {P} =\dim V_{0}(\mathrm {P} )}
) dlatego suma wymiarów dwóch podprzestrzeni jest równa wymiarowi całej przestrzeni
V
.
{\displaystyle V.}
Bazy obrazu i jądra tworzą razem bazę wektorów własnych
V
,
{\displaystyle V,}
tzn.
V
=
i
m
P
⊕
ker
P
,
{\displaystyle V=\mathrm {im\;P} \oplus \ker \mathrm {P} ,}
stąd
P
{\displaystyle \mathrm {P} }
jest diagonalizowalny i wymiar przestrzeni własnej
P
{\displaystyle \mathrm {P} }
dla wartości własnej
λ
=
1
{\displaystyle \lambda =1}
jest równy rzędowi
P
.
{\displaystyle \mathrm {P} .}
Ponieważ ślad jest sumą wartości własnych (w ciele charakterystyki 0), to
r
a
n
k
P
=
dim
i
m
P
=
dim
V
1
(
P
)
=
t
r
P
.
{\displaystyle \mathrm {rank\;P} =\dim \mathrm {im\;P} =\dim V_{1}(\mathrm {P} )=\mathrm {tr\;P} .}
↑ Jeśli
A
=
B
D
B
−
1
,
{\displaystyle \mathrm {A} =\mathrm {BDB} ^{-1},}
gdzie
D
{\displaystyle \mathrm {D} }
jest jednokładnością (tj. przekształceniem, którego macierz jest macierzą diagonalną ) wyłącznie z wartościami własnymi równymi zeru lub jedynce (na przekątnej głównej), to
A
2
=
B
D
B
−
1
B
D
B
−
1
=
B
D
2
B
−
1
=
B
D
B
−
1
=
A
,
{\displaystyle \mathrm {A} ^{2}=\mathrm {BDB} ^{-1}\mathrm {BDB} ^{-1}=\mathrm {B} \mathrm {D} ^{2}\mathrm {B} ^{-1}=\mathrm {B} \mathrm {D} \mathrm {B} ^{-1}=\mathrm {A} ,}
gdyż
D
2
=
D
,
{\displaystyle \mathrm {D} ^{2}=\mathrm {D} ,}
zatem
A
2
=
A
,
{\displaystyle \mathrm {A} ^{2}=\mathrm {A} ,}
a więc
A
{\displaystyle \mathrm {A} }
jest idempotentne, czyli jest rzutem.
↑ Z bezpośredniego rachunku wynika, że
Q
2
=
(
I
−
P
)
2
=
(
I
−
P
)
(
I
−
P
)
=
I
2
−
P
I
−
I
P
+
P
2
=
I
−
2
P
+
P
=
I
−
P
=
Q
,
{\displaystyle {\begin{aligned}\mathrm {Q} ^{2}&=(\mathrm {I} -\mathrm {P} )^{2}=(\mathrm {I} -\mathrm {P} )(\mathrm {I} -\mathrm {P} )\\&=\mathrm {I} ^{2}-\mathrm {PI} -\mathrm {IP} +\mathrm {P} ^{2}\\&=\mathrm {I} -2\mathrm {P} +\mathrm {P} =\mathrm {I} -\mathrm {P} =\mathrm {Q} \end{aligned}},}
czyli
Q
2
=
Q
.
{\displaystyle \mathrm {Q} ^{2}=\mathrm {Q} .}
↑ Wychodząc od samosprzężoności i idempotentności
P
{\displaystyle \mathrm {P} }
oraz dowolnych wektorów
u
,
v
∈
V
{\displaystyle \mathbf {u} ,\mathbf {v} \in V}
otrzymuje się
P
(
u
)
∈
U
,
{\displaystyle \mathrm {P} (\mathbf {u} )\in U,}
v
−
P
(
v
)
∈
W
{\displaystyle \mathbf {v} -\mathrm {P} (\mathbf {v} )\in W}
oraz
⟨
P
(
u
)
,
v
−
P
(
v
)
⟩
=
⟨
P
2
(
u
)
,
v
−
P
(
v
)
⟩
=
⟨
P
(
u
)
,
P
(
I
−
P
)
(
v
)
⟩
=
⟨
P
(
u
)
,
(
P
−
P
2
)
(
v
)
⟩
=
⟨
P
(
u
)
,
0
⟩
=
0
,
{\displaystyle {\begin{aligned}&{\big \langle }\mathrm {P} (\mathbf {u} ),\mathbf {v} -\mathrm {P} (\mathbf {v} ){\big \rangle }\\&={\big \langle }\mathrm {P} ^{2}(\mathbf {u} ),\mathbf {v} -\mathrm {P} (\mathbf {v} ){\big \rangle }\\&={\big \langle }\mathrm {P} (\mathbf {u} ),\mathrm {P} (\mathrm {I} -\mathrm {P} )(\mathbf {v} ){\big \rangle }={\big \langle }\mathrm {P} (\mathbf {u} ),(\mathrm {P} -\mathrm {P} ^{2})(\mathbf {v} ){\big \rangle }\\&={\big \langle }\mathrm {P} (\mathbf {u} ),\mathbf {0} {\big \rangle }=0\end{aligned}},}
gdzie
⟨
⋅
,
⋅
⟩
{\displaystyle \langle \cdot ,\cdot \rangle }
oznacza iloczyn skalarny przestrzeni
V
,
{\displaystyle V,}
a
I
{\displaystyle \mathrm {I} }
to operator tożsamościowy . Stąd
P
(
v
)
{\displaystyle \mathrm {P} (\mathbf {v} )}
oraz
v
−
P
(
v
)
{\displaystyle \mathbf {v} -\mathrm {P} (\mathbf {v} )}
są ortogonalne.
W drugą stronę, z ortogonalności rzutu
P
{\displaystyle \mathrm {P} }
wynika jego samosprzężoność, gdyż
⟨
u
,
P
(
v
)
⟩
=
⟨
P
(
u
)
,
v
⟩
=
⟨
u
,
P
∗
(
v
)
⟩
{\displaystyle {\big \langle }\mathbf {u} ,\mathrm {P} (\mathbf {v} ){\big \rangle }={\big \langle }\mathrm {P} (\mathbf {u} ),\mathbf {v} {\big \rangle }={\big \langle }\mathbf {u} ,\mathrm {P} ^{*}(\mathbf {v} ){\big \rangle }}
dla dowolnych
u
,
v
∈
V
;
{\displaystyle \mathbf {u} ,\mathbf {v} \in V;}
zatem istotnie
P
=
P
∗
.
{\displaystyle \mathrm {P} =\mathrm {P} ^{*}.}
↑ Dla dowolnego wektora
v
∈
V
{\displaystyle \mathbf {v} \in V}
z nierówności Cauchy’ego–Schwarza jest
‖
P
(
v
)
‖
2
=
⟨
P
(
v
)
,
P
(
v
)
⟩
=
⟨
P
(
v
)
,
v
⟩
⩽
‖
P
(
v
)
‖
‖
v
‖
,
{\displaystyle {\big \|}\mathrm {P} (\mathbf {v} ){\big \|}^{2}={\big \langle }\mathrm {P} (\mathbf {v} ),\mathrm {P} (\mathbf {v} ){\big \rangle }={\big \langle }\mathrm {P} (\mathbf {v} ),\mathbf {v} {\big \rangle }\leqslant {\big \|}\mathrm {P} (\mathbf {v} ){\big \|}\ \|\mathbf {v} \|,}
czyli
‖
P
(
v
)
‖
⩽
‖
v
‖
,
{\displaystyle {\big \|}\mathrm {P} (\mathbf {v} ){\big \|}\leqslant \|\mathbf {v} \|,}
co oznacza, że
P
{\displaystyle \mathrm {P} }
jest ograniczony, przy czym norma operatorowa
‖
P
‖
⩽
1.
{\displaystyle \|\mathrm {P} \|\leqslant 1.}
Jeśli
P
≠
θ
,
{\displaystyle \mathrm {P} \neq \mathrm {\theta } ,}
to istnieje
v
,
{\displaystyle \mathbf {v} ,}
dla którego
P
(
v
)
≠
0
{\displaystyle \mathrm {P} (\mathbf {v} )\neq \mathbf {0} }
oraz
‖
P
2
(
v
)
‖
=
‖
P
(
v
)
‖
,
{\displaystyle {\big \|}\mathrm {P} ^{2}(\mathbf {v} ){\big \|}={\big \|}\mathrm {P} (\mathbf {v} ){\big \|},}
a więc
‖
P
‖
⩾
1.
{\displaystyle \|\mathrm {P} \|\geqslant 1.}
Dlatego ostatecznie
‖
P
‖
=
1.
{\displaystyle \|\mathrm {P} \|=1.}
↑ W notacji Diraca jest
P
A
=
∑
i
=
1
k
|
u
i
⟩
⟨
u
i
|
.
{\displaystyle \mathrm {P} _{\mathrm {A} }=\sum _{i=1}^{k}|\mathbf {u} _{i}\rangle \langle \mathbf {u} _{i}|.}
↑ Wtedy
P
u
(
x
)
=
u
u
∗
x
.
{\displaystyle \mathbf {P} _{\mathbf {u} }(\mathbf {x} )=\mathbf {uu} ^{*}\mathbf {x} .}
W stosowanej głównie w fizyce notacji Diraca jest
P
u
=
|
u
⟩
⟨
u
|
;
{\displaystyle \mathrm {P} _{\mathbf {u} }=|\mathbf {u} \rangle \langle \mathbf {u} |;}
wówczas
P
u
(
x
)
=
|
u
⟩
⟨
u
|
x
⟩
.
{\displaystyle \mathrm {P} _{\mathbf {u} }(\mathbf {x} )=|\mathbf {u} \rangle \ \langle \mathbf {u} |\mathbf {x} \rangle .}
W matematyce zwykle zapisuje się
P
u
=
u
⊗
u
{\displaystyle \mathrm {P} _{\mathbf {u} }=\mathbf {u} \otimes \mathbf {u} }
za pomocą iloczynu tensorowego (a dokładnie: iloczynu diadycznego ).
↑ Macierz
(
A
∗
A
)
−
1
{\displaystyle (\mathbf {A} ^{*}\mathbf {A} )^{-1}}
jest „czynnikiem normującym”, który odzyskuje normę: operator pierwszego rzędu
u
u
∗
{\displaystyle \mathbf {uu} ^{*}}
jest rzutem, tylko gdy
‖
u
‖
=
1
;
{\displaystyle \|\mathbf {u} \|=1;}
dzieląc przez
u
∗
u
=
‖
u
‖
2
{\displaystyle \mathbf {u} ^{*}\mathbf {u} =\|\mathbf {u} \|^{2}}
otrzymuje się rzut
u
(
u
∗
u
)
−
1
u
∗
=
u
u
∗
/
‖
u
‖
2
{\displaystyle \mathbf {u} (\mathbf {u} ^{*}\mathbf {u} )^{-1}\mathbf {u} ^{*}=\mathbf {uu} ^{*}/\|\mathbf {u} \|^{2}}
na podprzestrzeń
s
p
a
n
u
.
{\displaystyle \mathrm {span\;} \mathbf {u} .}
↑ a b Oznaczenia
P
X
f
(
x
)
{\displaystyle \mathrm {P} _{X}f(x)}
należy rozumieć jako
(
P
X
(
f
)
)
(
x
)
,
{\displaystyle {\big (}\mathrm {P} _{X}(f){\big )}(x),}
gdzie
P
X
(
f
)
{\displaystyle \mathrm {P} _{X}(f)}
jest operatorem, którego argumenty i wartości są funkcjami z przestrzeni
L
2
(
R
)
,
{\displaystyle \mathrm {L} ^{2}(\mathbb {R} ),}
tzn.
P
X
:
L
2
(
R
)
→
L
2
(
R
)
{\displaystyle \mathrm {P} _{X}\colon \mathrm {L} ^{2}(\mathbb {R} )\to \mathrm {L} ^{2}(\mathbb {R} )}
dla pewnej podprzestrzeni
X
{\displaystyle X}
przestrzeni
L
2
(
R
)
.
{\displaystyle \mathrm {L} ^{2}(\mathbb {R} ).}
↑ Zob. delta Kroneckera
δ
k
,
n
.
{\displaystyle \delta _{k,n}.}
↑ Por. grupa okręgu
T
.
{\displaystyle \mathbb {T} .}
F.W. Gehring, P.R. Halmos, C.C Moore: A Course in Functional Analysis . Nowy Jork: Springer-Verlag, 1985. Brak numerów stron w książce