Determinant

$\textbf{A}$ 가 N차원 벡터공간 $\mathcal{V}$ 의 linear operator 이고, 항등적으로 0 이 아닌 determinant function $\Delta$ 와 basis $\{\vert v_i \rangle\}_{i=1}^{N}$ 에 대해 $\Delta_A$ 를 $$\Delta_A \left(\vert v_1 \rangle, \cdots, \vert v_N \rangle \right)= \Delta \left(\textbf{A}\vert v_1 \rangle, \cdots, \textbf{A}\vert v_N \rangle\right)$$ 처럼 정의하겠습니다.

 

그러면 $\Delta_A$ 도 자명하게 determinant function 이고, 이는 $\Delta$ 의 상수배가 되므로 $\Delta_A = \alpha \Delta$ 처럼 쓸 수 있습니다. 그러면 또 다른 항등적으로 0이 아닌 determinant function $\Delta'$ 에 대해 $$\Delta_A' = \lambda \Delta_A = \lambda\alpha \Delta = \alpha \Delta'$$ 처럼 쓸 수 있고, 이는 곧 $\alpha$ 가 오직 $\textbf{A}$ 에만 의존함을 의미합니다.

 

$\textbf{A}\in\text{End}\left(\mathcal{V}\right)$ 에 대해 $\Delta$ 가 항등적으로 0이 아닌 $\mathcal{V}$ 의 determinant function 이고 $\Delta_A$ 를 위처럼 정의하면, $$\Delta_A = \det \textbf{A}\cdot \Delta$$ 처럼 $\textbf{A}$ 의 determinant 를 정의합니다.

 

Theorem

$\textbf{A}$ 의 determinant 에 대해 다음 성질이 성립합니다.

 

(1) $\textbf{A} = \lambda \textbf{1}$ 이면 $\det \textbf{A} = \lambda^N$

(2) $\textbf{A}$ 가 invertible 함과 $\det\textbf{A}\neq 0$ 은 동치입니다.

(3) $\det \left(\textbf{A} \circ \textbf{B}\right) = \det \textbf{A} \det \textbf{B}$

 

$\mathcal{V}$ 를 N 차원 벡터공간이라 하고 $\Delta$ 가 $\mathcal{V}$ 의 determinant function 이면서 $\textbf{A} \in \text{End}\left(\mathcal{V}\right)$ 일 때, $\vert v \rangle, \vert v_i \rangle \in \mathcal{V}$ 에 대하여 $\Phi : \mathcal{V}^N \to \text{end}\left(\mathcal{V}\right)$ 를 $$\Phi \left(\vert v_1 \rangle, \cdots, \vert v_N\rangle\right)\vert v\rangle \\ = \sum_{j=1}^{N} (-1)^{j-1}\Delta \left(\vert v\rangle, \textbf{A}\vert v_1 \rangle, \cdots, \widehat{\textbf{A}\vert v_j \rangle}, \cdots, \textbf{A}\vert v_N \rangle\right)\cdot \vert v_j \rangle$$ 로 정의합니다. 여기서 $\widehat{\textbf{A}\vert v_j\rangle}$ 은 그 부분을 없애고 생각한다는 뜻입니다. 그러면 자명하게 $\Phi$ 는 skew-symmetric 입니다. 따라서 다음 조건을 만족하는 linear operator 가 유일하게 존재하고, 이를 $\text{ad}\left(\textbf{A}\right)$ 처럼 쓰겠습니다. $$\Phi \left(\vert v_1 \rangle, \cdots, \vert v_N \rangle \right) = \Delta \left(\vert v_1 \rangle, \cdots, \vert v_N \rangle \right) \cdot \text{ad}\left(\textbf{A}\right)$$ 그러면 $\text{ad}\left(\textbf{A}\right)$ 는 determinant function 과 무관하게 결정되고, 이를 $\textbf{A}$ 의 classical adjoint 라 합니다.

 

Proposition

Classical adjoint 에 대해 다음 식이 성립합니다. $$\text{ad}\left(\textbf{A}\right) \circ \textbf{A} = \det \textbf{A} \cdot \textbf{1} = \textbf{A}\circ \text{ad}\left(\textbf{A}\right)$$

Proof

$\vert v \rangle$ 자리에 $\textbf{A}\vert v\rangle$ 을 대입하면 $$\sum_{j=1}^{N} (-1)^{j-1}\Delta\left(\textbf{A}\vert v\rangle, \textbf{A}\vert v_1\rangle, \cdots, \widehat{\textbf{A}\vert v_j \rangle}, \cdots, \textbf{A}\vert v_N\rangle\right)\cdot \vert v_j\rangle \\ = \Delta\left(\vert v_1 \rangle, \cdots, \vert v_N \rangle\right) \text{ad}\left(\textbf{A}\right)\circ \textbf{A}\vert v\rangle$$ 여기서 좌변을 정리하면 $$\det \textbf{A} \cdot \sum_{j=1}^{N} (-1)^{j-1}\Delta \left(\vert v\rangle, \vert v_1 \rangle, \cdots, \widehat{\vert v_j \rangle}, \cdots, \vert v_N \rangle \right) \cdot \vert v_j \rangle \\ = \det \textbf{A} \cdot \Delta\left(\vert v_1 \rangle, \cdots, \vert v_N \rangle \right)\cdot \vert v\rangle$$ 이 되고, $\vert v \rangle$ 이 임의의 벡터이므로 위 등식이 증명됩니다.

 

Corollary

$\det \textbf{A}\neq 0$ 이면 $\textbf{A}$ 는 invertible 하고 $$\textbf{A}^{-1}=\dfrac{1}{\det \textbf{A}}\cdot \text{ad}\left(\textbf{A}\right)$$ 가 성립합니다.

'물리학 > 수리물리학' 카테고리의 다른 글

Multilinear Map  (0) 2021.08.03
Linear Functional  (0) 2021.08.03
Complex Structure  (0) 2021.08.03
Linear Isomorphism  (0) 2021.08.03
Dimension theorem  (0) 2021.08.03

댓글()

Multilinear Map

$\mathcal{V}, \mathcal{U}$ 가 벡터공간이고 $\mathcal{V}^p$ 가 $\mathcal{V}$ 의 Cartesian product 라 하겠습니다. 그러면 p-linear map $\theta : \mathcal{V}^p \to \mathcal{U}$ 는 $$\theta \left(\vert a_1 \rangle, \cdots, \alpha \vert a_j \rangle + \beta \vert b_j \rangle, \cdots, \vert a_p \rangle \right) \\ = \alpha \theta \left(\vert a_1 \rangle, \cdots, \vert a_j \rangle, \cdots, \vert a_p \rangle \right) + \beta \theta \left(\vert a_1 \rangle, \cdots, \vert b_j , \cdots, \vert a_p \rangle \right)$$ 를 만족합니다. 그리고 $\mathcal{V}$ 에서 $\mathbb{C}$ 또는 $\mathbb{R}$ 로 가는 p-linear map 을 p-linear function 이라 합니다.

 

$\sigma$ 를 $1, 2, \cdots, p$ 의 permutation 이라 할 때 만약 $\mathcal{V}$ 에서 $\mathcal{U}$ 로 가는 p-linear map $\omega$ 가 $$\omega\left(\vert a_{\sigma(1)}\rangle, \cdots, \vert a_{\sigma(p)}\rangle \right) = \epsilon_{\sigma}\omega \left(\vert a_1 \rangle, \cdots, \vert a_p \rangle\right)$$ 을 만족한다면, $\omega$ 를 skew-symmetric 이라고 합니다. 여기서 $\epsilon_{\sigma}$ 는 $\sigma$ 가 even 이면 $+1$, odd 이면 $-1$ 의 값을 갖는 변수입니다. $\mathcal{V}$ 에서 $\mathcal{U}$ 로 가는 p-linear skew-symmetric funciton 의 집합을 $\Lambda^p \left(\mathcal{V}, \mathcal{U}\right)$ 처럼 씁니다.

 

임의의 p-linear mpa $\theta$ 에 대해, $$\omega = \sum_{\pi}\epsilon_{\pi}\cdot\pi\theta$$ 처럼 정의하면, $$\begin{align*}\sigma\omega &= \sigma\sum_{\pi}\epsilon_{\pi}\cdot \pi\theta = \sum_{\pi}\epsilon_{\pi}\cdot \left(\sigma\pi\right) \theta = \left(\epsilon_{\sigma}\right)^2 \sum_{\pi}\epsilon_{\pi}\epsilon_{\pi}\cdot \left(\sigma\pi\right)\theta \\ &= \epsilon_{\sigma}\sum_{\pi}\left(\epsilon_{\sigma}\epsilon_{\pi}\right) \cdot \left(\sigma \pi\right)\theta = \epsilon_{\sigma}\sum_{\sigma\pi}\epsilon_{\sigma\pi}\cdot \left(\sigma\pi\right)\theta = \epsilon_{\sigma}\cdot \omega\end{align*}$$ 가 되어 $\omega$ 는 skew-symmetric 합니다.

 

Theorem

$\omega \in \Lambda^{p}\left(\mathcal{V}, \mathcal{U}\right)$ 에 대해 다음이 동치입니다.

 

(1) $i\neq j$ 에 대해 $\vert a_i \rangle =\vert a_j \rangle$ 이면 $\omega\left(\vert a_1 \rangle, \cdots, \vert a_p\rangle \right) = 0$

(2) 임의의 permutation $\sigma$ 와 $\vert a_1 \rangle, \cdots, \vert a_p \rangle \in \mathcal{V}$ 에 대해 $\omega \left(\vert a_{\sigma(1)}\rangle, \cdots, \vert a_{\sigma(p)}\rangle \right) = \epsilon_{\sigma}\omega\left(\vert a_1 \rangle, \cdots, \vert a_p \rangle \right)$

(3) $\{\vert a_k \rangle\}_{k=1}^{p}$ 가 linearly dependent 하면 $\omega \left(\vert a_1 \rangle, \cdots, \vert a_p \rangle \right) = 0$

 

Proposition

$\dim \mathcal{V} = N$ 과 $\omega \in \Lambda^{N}\left(\mathcal{V}, \mathcal{U}\right)$ 에 대해, $\mathcal{V}$ 의 basis 에 대한 $\omega$ 의 함숫값으로 $\omega$ 를 유일하게 결정할 수 있습니다.

 

Proof

$\{\vert e_k \rangle \}_{k=1}^{N}$ 이 $\mathcal{V}$ 의 basis 이고 $\{\vert a_j \rangle\}_{j=1}^N$ 이 $\mathcal{V}$ 의 원소인 임의의 $N$ 개 벡터이고 $\vert a_j \rangle = \sum_{k=1}^{N} \alpha_{jk}\vert e_k \rangle$ 로 쓸 수 있다면 $$\begin{align*}\omega\left(\vert a_1 \rangle, \cdots, \vert a_N \rangle \right) &= \sum_{k_1, \cdots, k_N = 1}^{N}\alpha_{1k_1}\cdots \alpha_{Nk_N}\omega\left(\vert e_{k_1}\rangle, \cdots, \vert e_{k_N}\rangle \right) \\ &= \sum_{\pi}\alpha_{1\pi(1)}\cdots \alpha_{N\pi(N)}\omega\left(\vert e_{\pi(1)}\rangle, \cdots, \vert e_{\pi(N)}\rangle \right) \\ &= \left(\sum_{\pi}\epsilon_{\pi}\alpha_{1\pi(1)}\cdots\alpha_{N\pi (N)}\right) \omega\left(\vert e_1 \rangle, \cdots, \vert e_N\rangle \right)\end{align*}$$ 가 되어, basis 에 대한 $\omega$ 의 값으로 유일하게 결정됩니다.

 

$\mathcal{V}$ 에 대한 skew symmetric N-linear function 을 determinant function 이라고 부릅니다.

 

$\mathcal{B} = \{\vert e_k\rangle \}_{k=1}^{N}$ 이 $\mathcal{V}$ 의 basis 이고 $\mathcal{B}^* = \{ \epsilon_j\}_{j=1}^{N}$ 이 $\mathcal{B}$ 의 dual 인 $\mathcal{V}^*$ 의 basis 라 하겠습니다. $\mathcal{V}$ 안의 $N$ 개 벡터 집합 $\{\vert a_k \rangle\}_{k=1}^{N}$ 에 대해 N-linear function 을 $$\theta\left(\vert a_1 \rangle, \cdots, \vert a_N\rangle \right) = \epsilon_1 \left(\vert a_1 \rangle \right) \cdots \epsilon_N \left \vert a_N\rangle \right)$$ 라 두겠습니다. 이 때 $\Delta = \sum_{\pi}\epsilon_{\pi}\cdot \pi\theta$ 라 정의했을 때 $\Delta \in \Lambda^N \left(\mathcal{V}\right)$ 임은 자명하므로 determinant function 이고, $$\Delta \left(\vert e_1 \rangle, \cdots, \vert e_N \rangle\right) = \sum_{\pi}\epsilon_{\pi}\cdot \pi\theta\left(\vert e_1 \rangle, \cdots, \vert e_N \rangle \right) = \sum_{\pi}\epsilon_{\pi}\delta_{\eta\pi}=\epsilon_{\eta}=1$$ 이 되므로, 임의의 유한차원 벡터공간에 대해 항등적으로 0이 아닌 determinant function 이 존재함을 알 수 있습니다.

 

Proposition

$\omega \in \Lambda^N \left(\mathcal{V}, \mathcal{U}\right)$ 에 대해, $\Delta$ 가 항등적으로 0 이 아닌  $\mathcal{V}$ 의 determinant function 이라고 하겠습니다. 그러면 $\omega$ 는 다음 조건을 만족하는 유일한 $\vert u_{\Delta}\rangle \in\mathcal{U}$ 를 결정합니다. $$\omega \left(\vert v_1\rangle, \cdots, \vert u_N \rangle \right) = \Delta \left(\vert v_1 \rangle, \cdots, \vert v_N \rangle \right)\cdot \vert u_{\Delta}\rangle$$

 

Proof

$\{\vert v_k \rangle\}_{k=1}^{N}$ 이 $\mathcal{V}$ 의 basis 이고 $\Delta \left(\vert v_1 \rangle, \cdots, \vert v_N \rangle \right) \neq 0$ 이라 하겠습니다. 그러면 벡터의 크기를 조절하여 $\Delta \left(\vert v_1 \rangle, \cdots, \vert v_N \rangle \right) = 1$ 이 되도록 할 수 있습니다. 그 때 $\omega \left(\vert v_1\rangle, \cdots, \vert v_N\rangle \right) = \vert u_{\Delta }\rangle$ 이라 하면 $\omega - \Delta \cdot \vert u_{\Delta }\rangle $ 는 $\{\vert u_k \rangle\}_{k=1}^{N}$ 에 대해 사라지므로, basis 에 대해 $0$ 이 되어 항등적으로 $0$ 이 되고 증명이 완성됩니다.

'물리학 > 수리물리학' 카테고리의 다른 글

Determinant  (0) 2021.08.04
Linear Functional  (0) 2021.08.03
Complex Structure  (0) 2021.08.03
Linear Isomorphism  (0) 2021.08.03
Dimension theorem  (0) 2021.08.03

댓글()

Linear Functional

linear transformation 의 중요한 예시는, $\mathcal{V}$ 에서 $\mathbb{C}$ 또는 $\mathbb{R}$ 로 향하는 linear transformation 입니다. 이는 linear functional 이라고 부르고 $\mathcal{L}\left(\mathcal{V}, \mathbb{C}\right), \mathcal{L}\left(\mathcal{V}, \mathbb{R}\right)$ 처럼 씁니다. 만약 $\mathcal{V}$ 가 실벡터공간이라면 이들은 $\mathcal{V}^*$ 이라 쓰고, $\mathcal{V}$ 의 dual space 라 부릅니다.

 

$N$ 차원 벡터공간의 basis 가 $\mathcal{B} = \{\vert a_1 \rangle, \vert a_2 \rangle, \cdots, \vert a_N \rangle\}$ 이고, $N$ 개의 scalar $\{\alpha_1, \alpha_2, \cdots, \alpha_N\}$ 이라 할 때 linear functional $\phi_a$ 를 $\phi_a \vert a_i \rangle = \alpha_i$ 로 정의하겠습니다. 그러면 $$\phi_a \vert b\rangle = \phi_a \left(\sum_{i=1}^{N}\beta_i \vert a_i \rangle\right) = \sum_{i=1}^{N}\beta_i \phi_a \vert a_i \rangle = \sum_{i=1}^{N} \beta_i a_i$$ 가 되고, 따라서 $\phi_a$ 는 $\{\alpha_1, \alpha_2, \cdots, \alpha_N\}$ 에 의해 유일하게 결정됩니다.

 

그러면 $\phi_1, \phi_2, \cdots, \phi_N$ 을 각각 $\{1, 0, \cdots, 0\}, \{0, 1, 0, \cdots, 0\}, \cdots, \{0, \cdots, 0, 1\}$ 에 대응되는 함수라고 했을 때, 즉 $$\phi_i \vert a_j \rangle = \delta_{ij}$$ 라 했을 때, 이들은 $\mathcal{V}^*$ 의 basis 로 작동합니다. 임의의 $\gamma \in \mathcal{V}^*$ 에 대하여, $$\gamma \vert a \rangle = \gamma \left(\sum_{i=1}^{N} \alpha_i \vert a_i\rangle \right) = \sum_{i=1}^{N} \alpha_i \gamma \vert a_i \rangle = \sum_{i=1}^{N} \alpha_i \gamma_i$$ 가 되고, $$\begin{align*}\left(\sum_{i=1}^{N} \gamma_i \phi_i \right)\vert a \rangle &= \left(\sum_{i=1}^{N} \gamma_i \phi_i \right)\left(\sum_{j=1}^{N} \alpha_j \vert a_j \rangle \right) \\ &= \sum_{i=1}^{N} \gamma_i \sum_{i=1}^{N}\alpha_j \phi_i \vert a_j \rangle = \sum_{i=1}^{N} \gamma_i \alpha_i\end{align*}$$ 가 되므로, $\gamma = \sum_{i=1}^{N} \gamma_i \phi_i$ 를 얻어 $\{\phi_i\}_{i=1}^{N}$ 이 $\mathcal{V}^*$ 를 span 함을 알 수 있고, 선형독립임은 쉽게 보여집니다.

 

Theorem

$\mathcal{B} = \{\vert a_j \rangle \}_{j=1}^{N}$ 이 $\mathcal{V}$ 의 basis 일 때, $\mathcal{B}^* = \{\phi_i \}_{i=1}^{N}$ 을 $\phi_i \vert a_j \rangle = \delta_{ij}$ 가 성립하도록 잡으면 $\mathcal{B}^*$ 가 $\mathcal{V}^*$ 의 basis 가 됩니다.

 

이 때 $\mathcal{B}^*$ 를 $\mathcal{B}$ 의 dual basis 라고 합니다.

 

$\vert a\rangle \in \mathcal{V}$ 의 annihilator 란, linear function $\phi \in \mathcal{V}^*$ 가 $\phi\vert a\rangle = 0$ 을 만족하는 것입니다. $\mathcal{W}$ 가 $\mathcal{V}$ 의 subspace 라면 $\mathcal{V}^*$ 의 linear functional 중 $\mathcal{W}$ 의 모든 벡터를 annihilate 하는 것의 집합을 $\mathcal{W}^0$ 처럼 씁니다.

 

여기서 $\mathcal{W}^0$ 이 $\mathcal{V}^*$ 의 subspace 임을 쉽게 확인할 수 있습니다. 또 만약 $\{\vert a_i \rangle \}_{i=1}^{k}$ 가 $\mathcal{W}$ 의 basis 고 이를 확장해 $\mathcal{V}$ 의 basis $\mathcal{B} = \{\vert a_i \rangle \}_{i=1}^{N}$ 를 얻었다면, $\mathcal{B}^* = \{\phi_j \}_{j=1}^{N}$ 의 부분집합 $\{\phi_j \}_{j=k+1}^{N}$ 이 $\mathcal{W}^0$ 를 span 하고, 따라서 $$\dim \mathcal{V} = \dim \mathcal{W} + \dim \mathcal{W}^0$$ 이 됨을 알 수 있습니다.

 

선형변환 $\textbf{T} : \mathcal{V} \to \mathcal{U}$ 에 대해 $\textbf{T}^*: \mathcal{U}^* \to \mathcal{V}^*$ 를 $$[\textbf{T}^*\left(\gamma\right)\vert a\rangle = \gamma \left(\textbf{T}\vert a\rangle \right)\quad \forall \vert a\rangle \in \mathcal{V}, \gamma \in \mathcal{U}^*$$ 처럼 정의하면, $\textbf{T}^*$ 은 $\textbf{T}$ 의 dual 또는 pullback 이라 불립니다.

 

이 때 $\textbf{T}^* \in \mathcal{L}\left(\mathcal{U}^*, \mathcal{V}^* \right)$ 가 됨을 쉽게 보일 수 있고, $\text{ker}\textbf{T}^*$ 는 $\textbf{T}\vert a\rangle$ 을 모두 annihilate 하는 $\gamma$ 의 집합이 됩니다. 또 만약 $\textbf{T}$ 가 surjective 하다면 $\text{ker}\textbf{T}^* = \{0\}$ 이 되고, $\textbf{T}^*$ 는 injective 함을 알 수 있습니다. 반대로 $\textbf{T}$ 가 injective 하면 $\textbf{T}^*$ 는 surjective 합니다.

 

Proposition

$\textbf{T}$ 가 linear transformation 이고 $\textbf{T}^*$ 가 pullback 이면, $\text{ker}\textbf{T}^* = T\left(\mathcal{V}\right)^0$ 이고, $\textbf{T}$ 가 surjective(injective) 하면 $\textbf{T}^*$ 은 injective(surjective) 합니다. 따라서 $\textbf{T}$ 가 isomorphism 이면 $\textbf{T}^*$ 도 isomorphism 입니다.

 

Inner product 와 linear functional 사이의 관계를 살피는 것은 큰 도움이 됩니다. 이를 위해 basis $\{\vert a_i \rangle \}_{i=1}^{N}$ 을 잡고, $\alpha_i = \langle a \vert a_i \rangle$ 이라 하면, $\{\alpha_i\}_{i=1}^{N}$ 이  linear functional $\gamma_a$ 를 유일하게 결정하고 $\gamma_a \vert a_i \rangle = \alpha_i$ 이므로 $\gamma_a = \langle a \vert$ 처럼 쓸 수 있고, $$\left(\vert a\rangle\right)^{\dagger} = \langle a \vert$$ 와 같은 기호 $\dagger$ 를 도입하면, (이는 dagger 라 불립니다.) $$\left(\alpha\vert a \rangle + \beta \vert b \rangle \right)^{\dagger}=\alpha^* \langle a \vert + \beta^* \langle b \vert$$ 가 되고, 그러므로 $$\gamma_{\alpha a + \beta b} \mapsto \alpha^* \langle a \vert + \beta^* \langle b \vert$$ 가 됩니다. 그리고 $\vert a \rangle \in \mathbb{C}^n$ 을 $$\vert a \rangle = \begin{pmatrix}\alpha_1 \\ \alpha_2 \\ \vdots \\ \alpha_n \end{pmatrix}$$ 처럼 쓰면, $$\langle a\vert = \begin{pmatrix}\alpha_1^* & \alpha_2^* & \cdots & \alpha_n^* \end{pmatrix}$$ 가 되고 $$\langle a \vert b \rangle = \sum_{i=1}^{n}\alpha_i^* \beta_i$$ 가 됩니다.

'물리학 > 수리물리학' 카테고리의 다른 글

Determinant  (0) 2021.08.04
Multilinear Map  (0) 2021.08.03
Complex Structure  (0) 2021.08.03
Linear Isomorphism  (0) 2021.08.03
Dimension theorem  (0) 2021.08.03

댓글()

Complex Structure

이전까지 벡터 공간을 다루면서, 스칼라의 성질을 바꾸는 것은 피했습니다. 벡터 공간이 복소수라고 선언한 순간 스칼라는 계속해서 복소수였고, 실수라고 선언하면 스칼라는 계속해서 실수였습니다. 이 글에서는 스칼라를 바꾸는 경우와, 그 때 벡터 공간의 구조가 어떻게 변하는지를 알아보려고 합니다.

 

$\mathbb{F}$ 를 $\mathbb{C}$ 또는 $\mathbb{R}$ 이라 할때, $\mathbb{F}$-linear space $\mathcal{V}$ 의 inner product 는 다음 조건을 만족하는 $g : \mathcal{V} \times \mathcal{V} \to \mathbb{F}$ 를 의미합니다

 

(1) $g\left(\vert a \rangle, \vert b \rangle\right) = g\left(\vert b \rangle, \vert a \rangle\right)$

(2) $\begin{align*} g\left(\vert x \rangle, \alpha\vert a \rangle + \beta \vert b \rangle\right) &= \alpha g\left(\vert x \rangle, \vert a \rangle\right) + \beta g\left(\vert x \rangle, \vert b \rangle\right) \\ g\left(\alpha\vert a \rangle + \beta \vert b \rangle, \vert x \rangle\right) &= \alpha g\left(\vert a \rangle, \vert x \rangle\right) + \beta g\left(\vert b \rangle, \vert x \rangle\right)\end{align*}$

(3) $g\left(\vert x \rangle, \vert a \rangle\right) = 0\quad\forall \vert x \rangle \in \mathcal{V} \quad \Rightarrow\quad \vert a \rangle = \vert 0 \rangle$

 

위 조건을 bra 와 ket 을 모두 사용하여 나타내면, 다음처럼 쓸 수 있습니다.

 

(1) $\langle a \vert b \rangle_{\mathbb{F}} = \langle b \vert a \rangle_{\mathbb{F}}$

(2) $\begin{align*}\langle x \vert \alpha a + \beta b \rangle_{\mathbb{F}} &= \alpha \langle x \vert a \rangle_{\mathbb{F}} + \beta \langle x\vert b \rangle_{\mathbb{F}} \\ \langle \alpha a + \beta b \vert x \rangle_{\mathbb{F}} &= \alpha \langle a \vert x \rangle_{\mathbb{F}} + \beta\langle b\vert x \rangle_{\mathbb{F}}\end{align*}$

(3) $\langle x \vert a \rangle_{\mathbb{F}} = 0\quad \forall \vert x \rangle \in \mathcal{V}\quad\Rightarrow\quad \vert a \rangle = \vert 0 \rangle$

 

어떤 연산자 $\textbf{A} \in\text{End}\left(\mathcal{V}\right)$ 의 adjoint 는 $\textbf{A}^{T}$ 로 표시하고, $$\langle \textbf{A}a\vert b\rangle_{\mathbb{F}} = \langle a \vert \textbf{A}^T b\rangle_{\mathbb{F}}\quad \text{ or }\quad \langle a\vert \textbf{A}^T \vert b \rangle_{\mathbb{F}} = \langle b \vert \textbf{A} \vert a\rangle_{\mathbb{F}}$$ 로 정의합니다. 이 때 $\textbf{A}^T = \textbf{A}$ 라면 self-adjoint 하다고 하고, $\textbf{A}^T = -\textbf{A}$ 이면 skew 라고 합니다. 그리고 정의에 의해 $\left(\textbf{A}^T\right)^T = \textbf{A}$ 가 됩니다.

 

Proposition

연산자 $\textbf{A}\in\text{End}\left(\mathcal{V}\right)$ 가 skew 인 것은 $\forall \vert x \rangle \in \mathcal{V}$ 에 대해 $\langle x \vert \textbf{A}x \rangle_{\mathbb{F}} = \langle x \vert \textbf{A}\vert x\rangle_{\mathbb{F}} = 0$ 인 것과 동치입니다.

 

Proof

만약 $\textbf{A}$ 가 skew 라면, $$\langle x \vert \textbf{A} \vert x\rangle_{\mathbb{F}} = \langle x \vert \textbf{A}^T \vert x\rangle_{\mathbb{F}} = -\langle x \vert \textbf{A} \vert x\rangle_{\mathbb{F}} \quad \Rightarrow\quad \langle x \vert \textbf{A}\vert x\rangle_{\mathbb{F}}=0$$ 이 성립합니다. 반대로 모든 $\vert x \rangle \in \mathcal{V}$ 에 대해 $\langle x \vert \textbf{A}\vert x \rangle_{\mathbb{F}}=0$ 이라 하면 $\alpha, \beta \in \mathbb{F}$ 와 $\vert a \rangle, \vert b \rangle \in \mathcal{V}$ 가 모두 $0$ 이 아닐 때 $$\begin{align*}0 &= \langle \alpha a + \beta b \vert \textbf{A} \vert \alpha a + \beta b \rangle_{\mathbb{F}} \\ &= \alpha^2 \langle a \vert \textbf{A}\vert a \rangle_{\mathbb{F}} + \alpha \beta \langle a \vert \textbf{A} \vert b \rangle_{\mathbb{F}} + \alpha \beta \langle b \vert \textbf{A}\vert a \rangle_{\mathbb{F}} + \beta^2 \langle b\vert \textbf{A}\vert b \rangle_{\mathbb{F}} \\ &= \alpha \beta \left(\langle b \vert \textbf{A} \vert a \rangle_{\mathbb{F}} + \langle b \vert \textbf{A}^T \vert a\rangle_{\mathbb{F}}\right)\end{align*}$$ 인데 $\alpha\beta \neq 0$ 이므로 $\langle b \vert \textbf{A}+\textbf{A}^T\vert a\rangle_{\mathbb{F}} = 0$ 을 얻고, 따라서 $\left(\textbf{A} + \textbf{A}^T\right)\vert a \rangle = \vert 0 \rangle$ 이어야 하며 이는 곧 $\textbf{A}^T = -\textbf{A}$ 를 의미합니다.

 

실벡터공간 $\mathcal{V}$ 에 대해 complex structure $\textbf{J}$ 는 $\textbf{J}^2 = -\textbf{1}$ 이고, $\langle \textbf{J}a \vert \textbf{J}b\rangle = \langle a \vert b \rangle$ 이 모든 $\vert a\rangle, \vert b\rangle \in \mathcal{V}$ 에 대해 성립하는 것입니다.

 

Proposition

complex structure $\textbf{J}$ 는 skew 이다.

 

Proof

$\vert a \rangle \in \mathcal{V}$ 와 $\vert b\rangle = \textbf{J}\vert a\rangle$ 에 대해 $$\langle a \vert \textbf{J}a \rangle = \langle a\vert b \rangle = \langle \textbf{J}a \vert \textbf{J}b \rangle = \langle \textbf{J}a \vert \textbf{J}^2 a \rangle = -\langle \textbf{J}a \vert a \rangle$$ 이고, $$\langle a \vert \textbf{J}a \rangle = \langle a \vert b\rangle = \langle b \vert a\rangle = \langle \textbf{J}a\vert a\rangle$$ 이므로 $\langle a\vert \textbf{J}a \rangle = 0$ 이고, 따라서 $\textbf{J}$ 는 skew 입니다.

 

$\vert a\rangle$ 이 $N$ 차원 실내적공간의 원소라고 하고, $\vert a\rangle$ 을 normalize 하여 $\vert e_1 \rangle$ 이 되었다고 하겠습니다. 그러면 $\textbf{J}\vert e_1\rangle$ 은 $\vert e_1 \rangle$ 과 orthogonal 하고, $\textbf{J}\vert e_1 \rangle$ 을 normalize 하면 $\vert e_2 \rangle$ 을 얻습니다. $N > 2$ 이면, $\vert e_3 \rangle$ 이 $\vert e_1\rangle, \vert e_2 \rangle$ 과 수직인 unit vector 라 할 때 $\vert a_3 \rangle = \textbf{J}\vert e_3 \rangle$ 은 자명하게 $\vert e_3 \rangle$ 과 orthogonal 하고, $$\begin{align*}\langle e_1 \vert a_3 \rangle &= \langle \textbf{J}e_1 \vert \textbf{J}a_3 \rangle = \langle \textbf{J}e_1 \vert \textbf{J}^2 e_3 \rangle \\ &= -\langle \textbf{J}e_1 \vert e_3 \rangle = -\langle e_2 \vert e_3\rangle = 0 \\ \langle e_2 \vert a_3 \rangle &= \langle \textbf{J}e_1 \vert \textbf{J}e_3\rangle = \langle e_1 \vert e_3 \rangle = 0\end{align*}$$ 이 됩니다. 이런 과정을 반복하면 다음 정리를 얻습니다.

 

Theorem

$\{\vert e_i \rangle, \textbf{J}\vert e_i \rangle\}_{i=1}^{m}$ 은 $N = 2m$ 에 대해 $N$ 차원 실벡터공간 $\mathcal{V}$ 의 orthonormal basis 가 되고, inner product 는 $\langle\vert\rangle_{\mathbb{R}} = \langle\vert\rangle$ 입니다. 그리고, $\mathcal{V}$ 가 complex structure $\textbf{J}$ 를 가지려면 반드시 짝수 차원이어야 합니다.

 

실벡터공간 $\mathcal{V}$ 에 대해 $\mathbb{C}\otimes \mathcal{V}$ 와 그 곱셈 $$\alpha \left(\beta \otimes \vert a \rangle \right) = \left(\alpha \beta \rangle \right)\otimes \vert a\rangle\qquad \alpha, \beta \in \mathbb{C}$$ 는 complex vector space 가 되고, $\mathcal{V}$ 의 complexification 이라 불리며 $\mathcal{V}^{\mathbb{C}}$ 처럼 씁니다. 그리고 $$\left(\mathbb{R}^n\right)^{\mathbb{C}} = \mathbb{C}\otimes \mathbb{R}^n \cong \mathbb{C}^n$$ 입니다.

 

여기서 $\dim_{\mathbb{C}}\mathcal{V}^{\mathbb{C}} = \dim_{\mathbb{R}}\mathcal{V}$ 이고, $\dim_{\mathbb{R}}\mathcal{V}^{\mathbb{C}} = 2\dim_{\mathbb{R}}\mathcal{V}$ 가 됨을 기억하면 좋습니다. 만약 $\{\vert a_k \rangle\}_{k=1}^{N}$ 이 $\mathcal{V}$ 의 basis 라면, complex vector space $\mathcal{V}^{\mathbb{C}}$ 의 basis 로도 작동하며, $\{\vert a_k \rangle, i\vert a_k \rangle\}_{k=1}^{N}$ 은 real vector space $\mathcal{V}^\mathbb{C}$ 의 basis 로 작동합니다.

 

그리고 $\mathcal{V}$ 를 inner product $\langle \vert \rangle_{\mathbb{R}}=\langle \vert \rangle$ 과 함께 complexifying 했다면, 다음처럼 inner product 를 sesquilinear 하게 정의할 수 있습니다.$$\langle \alpha\otimes a \vert \beta \otimes b\rangle = \alpha^* \beta \langle a \vert b \rangle$$

 

실벡터공간 $\mathcal{V}$ 를 complexify 하기 위해서는 $\mathcal{V}^{\mathbb{C}} = \mathbb{C} \otimes \mathcal{V}$ 처럼 복소수를 곱해야 하고, 그 결과로 원래 벡터공간의 두 배 차원을 얻게 됩니다. 그렇다면 역과정으로, 짝수차원 벡터공간을 나눌 수 있을지 생각해보겠습니다.

 

$\mathcal{V}$ 가 $2m$ 차원 실벡터공간이고 $\textbf{J}$ 가 그 complex structure 라 하겠습니다. 그리고 $\{\vert e_i \rangle, \textbf{J}\vert e_i \rangle\}_{i=1}^{m}$ 이 $\mathcal{V}$ 의 basis 라면, $\mathcal{V}_1 = \text{span}\{\vert e_i \rangle\}_{i=1}^{m}$ 은 $$\left( \alpha + i\beta \right)\otimes \vert v_1 \rangle = \left(a\textbf{1} + \beta \textbf{J}\right) \vert v_1 \rangle\qquad \alpha, \beta \in \mathbb{R}, \vert v_1 \rangle \in \mathcal{V}_1$$ 처럼 정의된 곱셈에 대해 $\mathcal{V}_1^{\mathbb{C}} = \mathcal{V}$ 가 됩니다.

'물리학 > 수리물리학' 카테고리의 다른 글

Multilinear Map  (0) 2021.08.03
Linear Functional  (0) 2021.08.03
Linear Isomorphism  (0) 2021.08.03
Dimension theorem  (0) 2021.08.03
Linear map  (0) 2021.08.03

댓글()

Linear Isomorphism

벡터공간 $\mathcal{V}$ 와 $\mathcal{W}$ 가 isomorphic 하다는 것은 $\mathcal{V}\cong \mathcal{W}$ 처럼 쓰고, $\textbf{T} : \mathcal{V} \to \mathcal{W}$ 인 bijective linear transformation 이 존재함을 의미합니다. 이 때 $\textbf{T}$ 를 isomorphism 이라 부릅니다. 만약 $\textbf{T} : \mathcal{V} \to \mathcal{V}$ 가 isomorphism 이라면, 이는 automorphism, 혹은 invertible linear map 처럼 불리기도 합니다. 그리고 $\mathcal{V}$ 의 automorphism 의 집합을 $\text{GL}\left(\mathcal{V}\right)$ 처럼 씁니다.

 

Proposition

유한차원 벡터공간의 isometry 는 automorphism 입니다.

 

실용적인 목적에서, 두 isomorphic 한 벡터공간은 '동일한' 벡터공간의 서로 다른 표현입니다. 예를 들어, $\textbf{T} : \mathbb{C} \to \mathbb{R}^2$ 을 $\textbf{T}(x + iy) = (x, y)$ 처럼 정의하면 이는 isomorphism 이 되고, 이는 즉 $\mathcal{C}$ 와 $\mathcal{R}^2$ 이 정확히 동일한 수학적 구조를 가지도록 연산을 정의할 수 있다는 뜻입니다.

 

Theorem

Linear surjective map $\textbf{T} : \mathcal{V} \to \mathcal{W}$ 가 isomorphism 임과 nullity 가 $0$ 인 것은 동치입니다.

 

Theorem

Linear injective map $\textbf{T} : \mathcal{V} \to \mathcal{W}$ 은 linearly independent 한 벡터의 집합을 linearly independent 한 벡터의 집합으로 대응시킵니다.

 

Theorem

두 유한차원 벡터공간이 isomorphic 함은 두 벡터공간의 차원이 같음과 동치입니다.

 

위 세 가지 정리의 증명은 어렵지 않으므로 생략하겠습니다. 그리고 위 정리의 의미는 곧 모든 $N$ 차원 실벡터공간은 $\mathbb{R}^n$ 과 isomorphic 하고, 복소벡터공간은 $\mathbb{C}^n$ 과 isomorphic 하다는 데에 있습니다.

 

$\mathcal{V} = \mathcal{V}_1 \oplus \mathcal{V}_2$ 라 할 때, $\mathcal{V}$ 의 automorphism $\textbf{T}$ 에 대해 만약 $\textbf{T}\left(\mathcal{V}_1\right)= \mathcal{V}_1$ 이라면 $\textbf{T} \left(\mathcal{V}_2 \right) = \mathcal{V}_2$ 가 됩니다. 이를 보기 위해서는 우선 $\mathcal{V} = \mathcal{V}_1 \oplus \mathcal{V}_2 = \mathcal{V}_1 \oplus \mathcal{V}_2'$ 일 때 $\mathcal{V}_2 = \mathcal{V}_2'$ 임을 알아야합니다. 이는 $\mathcal{V}$ 의 basis 를 $\mathcal{V}_1$ 의 basis 로부터 확장해서 만드는 과정에서 자명합니다. 이제 $\textbf{T}\left(\mathcal{V}\right) = \mathcal{V}, \textbf{T}\left(\mathcal{V}_1 \right) = \mathcal{V}_1$ 이므로 $$\mathcal{V}_1 \oplus \mathcal{V}_2 = \mathcal{V} = \textbf{T}\left(\mathcal{V}\right) = \textbf{T}\left(\mathcal{V}_1 \oplus \mathcal{V}_2 \right) = \textbf{T}\left(\mathcal{V}_1 \right) \oplus \textbf{T}\left(\mathcal{V}_2\right) = \mathcal{V}_1 \oplus \textbf{T}\left(\mathcal{V}_2\right)$$ 가 되어 $\mathcal{V}_2 = \textbf{T}\left(\mathcal{V}_2\right)$ 가 참입니다.

 

Theorem

$\mathcal{V}, \mathcal{W}$ 가 벡터공간이고 $\textbf{T} : \mathcal{V} \to \mathcal{W}$ 가 linear transformation 이라 하겠습니다. $\mathcal{U}$ 가 $\mathcal{V}$ 의 subspace 일 때, $\textbf{T}' : \mathcal{V}/\mathcal{U} \to \textbf{T}\left(\mathcal{V}\right)$ 를 $\textbf{T}'\left([\![ a]\!]\right) = \textbf{T}\vert a \rangle$ 로 정의하면, $\textbf{T}'$ 은 isomorphsim 입니다.

 

Dimension theorem 의 또 다른 증명

 

$\textbf{T} : \mathcal {V} \to \mathcal{W}$ 가 linear map 이고, $\textbf{T}' : \mathcal{V} /\text{ker}\textbf{T} \to \textbf{T}\left(\mathcal{V}\right)$ 를 $\textbf{T}' \left([\![! a]\!]\right) = \textbf{T}\vert a \rangle$ 처럼 정의하겠습니다. 우선 map 이 well defined 임을 보이기 위해 $[\![a']\!] = [\![a]\!]$ 라 두면 $\vert k \rangle \in \text{ker}\textbf{T}$ 가 존재하여 $\vert a' \rangle = \vert a \rangle + \vert k \rangle$ 이 되고, 따라서 $$\textbf{T}'\left([\![a']\!]\right) = \textbf{T}\vert a'\rangle = \textbf{T} \vert a \rangle + \textbf{T} \vert k \rangle = \textbf{T} \vert a \rangle$$ 이 되어 well defined 이고, $\textbf{T}'$ 이 선형임은 쉽게 보일 수 있습니다. $\textbf{T}$ 이 isomorphism 임을 보이기 위해 $\vert x \rangle \in \textbf{T}\left(\mathcal{V}\right)$ 을 잡으면 $\vert x \rangle = \textbf{T}\vert y \rangle = \textbf{T}' \left([\![y]\!]\right)$ 인 $\vert y \rangle \in \mathcal{V}$ 가 성립하므로 $\textbf{T}'$ 은 surjective 입니다. 그리고 $\textbf{T}'\left([\![x]\!]\right) = \textbf{T}'\left([\![y]\!]\right)$ 이면 $\textbf{T}\vert y \rangle = \textbf{T} \vert x \rangle$ 에서 $\vert y \rangle - \vert x \rangle \in \text{ker}\textbf{T}$ 이고, 이는 곧 $[\![y ]\!] = [\![x]\!]$ 를 의미합니다. 따라서 $\textbf{T}'$ 은 isormophism 이고, $\dim \left(\mathcal{V}/\text{ker}\textbf{T}\right) = \dim \textbf{T}\left(\mathcal{V}\right)$ 이므로 $$\dim \mathcal{V} = \dim \textbf{T}\left(\mathcal{V}\right) +\dim \text{ker}\textbf{T} = \text{rank}\textbf{T} + \text{nullity}\textbf{T}$$ 가 됩니다.

 

$\mathcal{U}, \mathcal{V}, \mathcal{W}$ 가 복소벡터공간이라 할 때, linear map $$\textbf{T} : \left(\mathcal{U} \oplus \mathcal{V}\right) \otimes \mathcal{W} \to \left(\mathcal{U} \otimes \mathcal{W} \right) \oplus \left(\mathcal{V} \otimes \mathcal{W}\right)$$ 를 $$\textbf{T}\left(\left(\vert u \rangle + \vert v \rangle \right) \otimes \vert w \rangle \right) = \vert u \rangle \otimes \vert w \rangle + \vert v \rangle \otimes \vert w \rangle$$ 처럼 정의하면, $\textbf{T}$ 가 isomorphism 이 됨을 보이는 것은 어렵지 않습니다. 그러므로 $$\left(\mathcal{U} \oplus \mathcal{V}\right)\otimes \mathcal{W} \cong \left(\mathcal{U} \otimes \mathcal{W} \right) \oplus \left(\mathcal{V}\otimes \mathcal{W}\right)$$ 가 되고, $\dim \left(\mathcal{U}\otimes \mathcal{V}\right) = \dim\mathcal{U}\dim \mathcal{V}$ 이므로 $$\mathcal{U} \otimes \mathcal{V}\cong \mathcal{V} \otimes \mathcal{U}$$ 를 얻고, $\dim \mathbb{C} = 1$ 이므로 $$\mathbb{C} \otimes \mathcal{V} \cong \mathcal{V} \otimes \mathbb{C} \cong \mathcal{V}$$ 가 성립합니다.

'물리학 > 수리물리학' 카테고리의 다른 글

Linear Functional  (0) 2021.08.03
Complex Structure  (0) 2021.08.03
Dimension theorem  (0) 2021.08.03
Linear map  (0) 2021.08.03
Gram-Schmidt Process  (0) 2021.08.03

댓글()

Dimension theorem

Linear transformation 의 정의에서 $\mathcal{V}$ 의 영벡터는 $\mathcal{W}$ 의 영벡터에 대응됨을 알 수 있습니다. 다른 벡터가 어떻게 행동하는지는 다음 정리를 통해 알 수 있습니다.

 

Theorem

$\mathcal{V}$ 의 원소 중 $\textbf{T} : \mathcal{V} \to \mathcal{W}$ 에 의해 $\mathcal{W}$ 의 영벡터로 대응되는 것의 집합을 $\text{ker}\text{T}$ 라 하면, 이는 $\mathcal{V}$ 의 subspace 입니다. $\text{ker}\textbf{T}$ 는 kernel 혹은 null space 라고 부릅니다.

 

Proof

subspace 의 정의에 대입하면 어렵지 않게 보일 수 있습니다.

 

이 때 $\text{ker}\textbf{T}$ 의 dimension 을 nullity 라 부르기도 합니다.

 

Theorem

Linear transformation $\textbf{T} : \mathcal{V} \to \mathcal{W}$ 에 대해, range $\textbf{T}\left(\mathcal{V}\right)$ 는 $\mathcal{W}$ 의 subspace 가 됩니다. $\textbf{T}\left(\mathcal{V}\right)$ 의 dimension 은 $\textbf{T}$ 의 rank 라 불립니다.

 

Proof

subspace 의 정의에 대입하면 어렵지 않게 보일 수 있습니다.

 

Theorem

Linear transformation 이 injective 함과 그 kernel 이 $\{0\}$ 임은 동치입니다.

 

Proof

injective 할 때 kernel 이 $\{0\}$ 임은 정의에 의해 자명합니다. 역방향을 보이려면 $$\textbf{T}\vert a_1 \rangle = \textbf{T} \vert a_2 \rangle \quad \Leftrightarrow \quad \textbf{T}\left(\vert a_1 \rangle - \vert a_2 \rangle\right) = 0$$ 이므로, $\text{ker}\textbf{T} = 0$ 에 의해 $\vert a_1 \rangle = \vert a_2 \rangle$ 이 되어 증명이 완성됩니다.

 

Theorem

linear isometric transformation 은 injective 합니다.

 

Proof

$\textbf{T} : \textbf{T} \to \textbf{U}$ 가 linear isometry 라면, $\vert a \rangle \in \text{ker}\textbf{T}$ 에 대해 $$\langle a \vert a \rangle = \langle \textbf{T}a \vert \textbf{T}a \rangle = \langle 0 \vert 0 \rangle = 0$$ 이 되므로 $\vert a \rangle = \vert 0 \rangle$ 이 되고, 그러므로 $\textbf{T}$ 는 injective 합니다.

 

$\text{ker}\textbf{T}$ 의 basis 를 $\mathcal{B}' = \{\vert a_1 \rangle, \vert a_2 \rangle, \cdots, \vert a_n \rangle \}$ 라 두면, 적절히 벡터를 추가하여 이를 $\mathcal{V}$ 의 basis $\mathcal{B} = \{\vert a_1 \rangle, \vert a_2 \rangle, \cdots, \vert a_N \rangle \}$ 으로 만들 수 있습니다. 그러면 $N = \dim \mathcal{V}$ 이고 $n = \dim \text{ker} \textbf{T}$ 가 되고, $\textbf{T}\left(\mathcal{V}\right)$ 의 basis 가 $\{\textbf{T} \vert a_{n+1}\rangle, \cdots, \textbf{T}\vert a_N \rangle\}$ 이 됨은 쉽게 보일 수 있습니다. 그를 통해 다음 결과를 얻습니다.

 

Theorem(dimension theorem)

$\textbf{T} : \mathcal{V} \to \mathcal{W}$ 에 대해 $$\dim \mathcal{V} = \dim \text{ker} \textbf{T} + \dim \textbf{T}\left(\mathcal{V}\right)$$ 가 성립합니다.

 

Proposition

유한차원 벡터공간의 endomorphism 이 injective 하거나 surjective 하면 bijective 합니다.

 

예시를 하나 보면서 글을 마치도록 하겠습니다.

 

$\textbf{T} : \mathbb{R}^4 \to \mathbb{R}^3$ 을 $$\textbf{T}(x_1, x_2, x_3, x_4) \\ = (2x_1 + x_2 + x_3 - x_4, x_1 + x_2 + 2x_3 +2x_4, x_1 - x_3 - 3x_4)$$ 처럼 정의하겠습니다. 이에 대해 $\textbf{T}(x_1, x_2, x_3, x_4) = (0, 0, 0)$ 인 $\textbf{T}$ 의 kernel 을 찾으면, $$\begin{align*}2x_1 + x_2 + x_3 - x_4 &= 0 \\ x_1 + x_2 + 2x_3 + 2x_4 &= 0 \\ x_1 - x_3 - 3x_4 &= 0\end{align*}$$ 을 풀어서 $x_1 = x_3 + 3x_4$ 와 $x_2 = -3x_3 - 5x_4$ 를 얻을 수 있습니다. 그러면 $\text{ker}\textbf{T}$ 는 $$(x_3 + 3x_4, - 3x_3 - 5x_4, x_3, x_4) = x_3 (1, -3, 1, 0) + x_4 (3, -5, 0, 1)$$ 이 되므로, $\dim \text{ker}\textbf{T} =2$ 입니다. [$(1, -3, 1, 0), (3, -5, 0, 1)$ 의 선형결합입니다.] 그리고 $\textbf{T}$ 의 range 는 $$\textbf{T}(x_1, x_2, x_3, x_4) \\ = (2x_1 + x_2 + x_3 - x_4)(1, 0, 1) + (x_1 + x_2 + 2x_3 + 2x_4)(0, 1, -1)$$ 이므로 $\text{rank}\textbf{T} = 2$ 입니다. [$(1, 0, 1), (0, 1, -1)$ 의 선형결합입니다.] 그리고 정의역의 차원은 $4$ 이므로 $$\dim \mathcal{V} = 4 = 2+ 2= \dim \text{ker} \textbf{T} + \dim \textbf{T}\left(\mathcal{V}\right)$$ 가 성립함을 알 수 있습니다.

'물리학 > 수리물리학' 카테고리의 다른 글

Complex Structure  (0) 2021.08.03
Linear Isomorphism  (0) 2021.08.03
Linear map  (0) 2021.08.03
Gram-Schmidt Process  (0) 2021.08.03
Inner Product  (0) 2021.08.03

댓글()

Linear map

복소벡터공간 $\mathcal{V}, \mathcal{W}$ 에 대해 $\textbf{T} : \mathcal{V} \to \mathcal{W}$ 가 $$\textbf{T}\left(\alpha \vert a \rangle + \beta \vert b \rangle \right) = \alpha \textbf{T} \left(\vert a \rangle \right) + \beta \mathbf{T} \left(\vert b \rangle \right) \quad \forall \vert a \rangle, \vert b \rangle \in \mathcal{V} \text{ and } \alpha, \beta \in \mathbb{C}$$ 를 만족하는 것을 선형변환(linear transformation)이라고 합니다. 또, $\textbf{T} : \mathcal{V} \to \mathcal{V}$ 인 선형변환을 $\mathcal{V}$ 의 endomorphism 혹은 linear operator 라 합니다. 그리고 $\textbf{T} \left(\vert a \rangle \right) = \textbf{T} \vert a \rangle$ 처럼 쓰기도 합니다.

 

같은 방식으로 실벡터공간에서도 정의할 수 있으며, 스칼라가 $\mathbb{R}$ 이 되는 것 뿐입니다.

 

$\mathcal{V}$ 에서 $\mathcal{W}$ 에서 가는 linear tranformation 의 집합을 $\mathcal{L}\left(\mathcal{V}, \mathcal{W}\right)$ 처럼 씁니다. 이 때 zero transformation $\text{0}$ 은 $\mathcal{V}$ 의 모든 벡터를 $\mathcal{W}$ 의 영벡터로 대응시킵니다. 그리고 $\textbf{T}, \textbf{U}$ 의 합과 스칼라곱을 $$\begin{align*}\left(\textbf{T} + \textbf{U} \right) \vert a \rangle &= \textbf{T} \vert a \rangle + \textbf{U} \vert a \rangle \\ \left(\alpha \text{T}\right) \vert a \rangle &= \alpha \textbf{T}\vert a \rangle\end{align*}$$ 처럼 정의하면, $\mathcal{L}\left(\mathcal{V}, \mathcal{W}\right)$ 는 벡터공간이 됩니다. $\mathcal{V}$ 의 endomorphism 의 집합은 $\mathcal{L}\left(\mathcal{V}\right)$ 혹은 $\text{End}\left(\mathcal{V}\right)$ 처럼 씁니다.

 

Inner product space $\mathcal{V}, \mathcal{U}$ 에 대해 linear tranformation $\textbf{T} : \mathcal{V} \to \mathcal{U}$ 가 $$\langle \textbf{T} a \vert \textbf{T} b \rangle = \langle a \vert b \rangle \quad \forall \vert a \rangle, \vert b \rangle \in \mathcal{V}$$ 를 만족하면, isometric 하다고 부릅니다. 만약 $\mathcal{U} = \mathcal{V}$ 이면 $\textbf{T}$ 는 $\mathcal{V}$ 의 isometry 라고 부릅니다. 그리고 $\mathcal{V}$ 의 isometry 는 unitary(orthogonal) operator 라 부르기도 합니다.

 

예를 들어, $\vert x \rangle \in \mathcal{P}^c [t]$ 가 $x(t) =\sum_{k=0}^{n}\alpha_k t^k$ 처럼 써질 때, $\vert y \rangle = \textbf{D} \vert x \rangle $ 에 대해 $y(t) = \sum_{k=1}^{n}k\alpha_k t^{k-1}$ 이 성립한다면, $\textbf{D}$ 는 linear operator 이고, derivative operator 라고 불립니다. 또한 $y(t) = \sum_{k=0}^{n}[\alpha / (k+1)] t^{k+1}$ 처럼 써지는 $\vert y \rangle = \textbf{S} \vert x \rangle$ 에 대해 $\textbf{S}$ 를 integration operator 라 부릅니다.

 

두 선형변환 $\textbf{T} : \mathcal{V} \to \mathcal{W}$ 와 $\textbf{U} : \mathcal{V} \to \mathcal{W}$ 가 같다는 것은, $\textbf{T} \vert a_i \rangle = \textbf{U} \vert a_i \rangle$ 이 $\mathcal{V}$ 의 basis 의 원소 $\vert a_i \rangle$ 에 대해 성립함을 의미합니다. 즉, linear transformation 이 basis 를 어디에 대응시키는지만 결정하면 벡터공간 전체에 대해 선형변환이 유일하게 결정됩니다.

 

Theorem

Inner product space 의 endomorphism $\textbf{T}$ 가 $\textbf{0}$ 라는 것은, $\langle b \vert \textbf{T} \vert a \rangle = \langle b \vert \textbf{T} a \rangle = 0$ 이 모든 $\vert a \rangle, \vert b \rangle$ 에 대해 성립하는 것과 동치입니다.

 

Proof

$\textbf{T} = \textbf{0}$ 이라면 자명하게 $\langle b \vert \textbf{T} \vert a \rangle = 0$ 입니다. 반대로 $\langle b \vert \textbf{T} \vert a\rangle = 0$ 이라면, $\vert b \rangle = \textbf{T} \vert a \rangle = \vert \textbf{T} a\rangle$ 라 둘 때 $$\langle \textbf{T} a \vert \textbf{T} a \rangle = 0 \quad \forall \vert a \rangle \quad \Leftrightarrow \quad \textbf{T} \vert a \rangle = 0 \quad \forall \vert a \rangle \quad \Leftrightarrow \quad \textbf{T} = \textbf{0}$$ 이 되어 증명이 완성됩니다.

 

Theorem

Inner product space 의 linear opartor $\textbf{T}$ 가 $\textbf{0}$ 인 것은 $\langle a \vert \textbf{T} \vert a \rangle = 0$ 이 모든 $\vert a\rangle$ 에 대해 성립하는 것과 동치입니다.

 

Proof

$\textbf{T} = \textbf{0}$ 이면 자명하게 $\langle a \vert \textbf{T} \vert a \rangle = 0$ 이 됩니다. 반대 경우에는 $\alpha \vert a\rangle + \beta \vert b \rangle$ 을 대입하면 $$\begin{align*}\alpha^* \beta \langle a\vert \textbf{T} \vert b \rangle + \alpha \beta^* \langle b \vert \textbf{T} \vert a \rangle =& \langle \alpha a + \beta b \vert \textbf{T} \vert \alpha a+ \beta b \rangle \\ &- \vert \alpha \vert^2 \langle a\vert \textbf{T} \vert a \rangle - \vert \beta \vert^2 \langle b \vert \textbf{T} \vert b \rangle\end{align*}$$ 이 되고, 이는 polarization identity 라 불립니다. 여기서 우변은 정리의 가정에 의해 $0$ 이 되고, 따라서 $\alpha = \beta = 1$ 이라 두면 $\langle a \vert \textbf{T} \vert b \rangle + \langle \vert \textbf{T} \vert a \rangle = 0$ 을 얻습니다. 그리고 $\alpha = 1, \beta = i$ 를 대입하면 $$\langle a \vert \textbf{T} \vert b\rangle - \langle b \vert \textbf{T} \vert a\rangle = 0$$ 을 얻어 $\langle a \vert \textbf{T} \vert b \rangle = 0$ 이 모든 $\vert a \rangle, \vert  b\rangle$ 에 대해 성립함을 알 수 있습니다. 그러면 $\textbf{T} = \textbf{0}$ 입니다.

 

그렇기 때문에 inner product space 에서 두 linear opartion $\textbf{T}$ 와 $\textbf{U}$ 가 같음을 보이려면 모든 $\vert a \rangle, \vert b\rangle$ 에 대해 $\langle a \vert \textbf{T} \vert b \rangle = \langle \vert \textbf{U}\vert b\rangle$ 이 됨을 보이는 것으로 충분합니다.

'물리학 > 수리물리학' 카테고리의 다른 글

Linear Isomorphism  (0) 2021.08.03
Dimension theorem  (0) 2021.08.03
Gram-Schmidt Process  (0) 2021.08.03
Inner Product  (0) 2021.08.03
Direct Sum  (0) 2021.08.03

댓글()

Gram-Schmidt Process

벡터 공간 $\mathcal{V}$ 와 그 basis $\mathcal{B}$ 에 대해, $\mathcal{B}$ 의 원소를 적절히 조절하여 orthonormal basis 로 바꿀 수 있습니다. 이 과정을 Gram-Schmidt orthonormalization 이라 합니다.

 

$\mathcal{B} = \{\vert a_i \rangle\}_{i=1}^{N}$ 에 대해 $\vert e_1 \rangle = \vert a_1 \rangle / \sqrt{\langle a_1 \vert a_1 \rangle}$ 이라 두면, $\langle e_1 \vert e_1 \rangle = 1$ 입니다. 여기서 $\vert e_2' \rangle = \vert a_2 \rangle - \vert e_1 \rangle \langle e_1 \vert a_1 \rangle$ 이라 두면, 즉, $a_2$ 를 $e_1$ 방향으로 사영한 벡터를 $a_2$ 에서 빼주면 $\langle e_1 \vert e_2' \rangle = 0$ 이 됩니다. 또, 이를 normalize 하기 위해 $\vert e_2 \rangle = \vert e_2' \rangle / \sqrt{\langle e_2' \vert e_2' \rangle}$ 로 둘 수 있습니다. 마찬가지 방법으로 $$\vert e_3' \rangle = \vert a_3 \rangle - \sum_{i=1}^{2}\vert e_i \rangle \langle e_i \vert a_3 \rangle$$ 이라 하면 이는 $|vert e_1 \rangle, \vert e_2 \rangle$ 과 orthogonal 하고, 이를 다시 normalize 하여 $\vert e_3 \rangle$ 을 만들 수 있습니다. 그러면 $m < N$ 인 $\vert e_1 \rangle, \cdots, \vert e_m \rangle$ 이 있을 때, $$\begin{align*}\vert e_{m+1}' &= \vert a_{m+1}\rangle - \sum_{i=1}^{m}\vert e_i \rangle \langle e_i \vert a_{m+1}\rangle \\ \vert e_{m+1}\rangle &= \dfrac{\vert e_{m+1}'\rangle}{\sqrt{\langle e_{m+1}'\vert e_{m+1}'\rangle}}\end{align*}$$ 처럼 잡는 것을 통해 basis 를 모두 orthonormal basis 로 바꿀 수 있습니다.

 

Theorem(Schwarz inequality)

벡터 $\vert a\rangle, \vert b \rangle \in \mathcal{V}$ 에 대해 $$\langle a \vert a \rangle \langle b \vert b \rangle \geq \vert \langle a \vert b \rangle\vert^2$$ 이 성립합니다. 등호는 두 벡터가 평행할 때 성립합니다.

 

Proof

$\vert c \rangle = \vert b \rangle - \left(\langle a \vert b \rangle / \langle a \vert a \rangle \right) \vert a \rangle$ 이라고 두면, $\langle a \vert c \rangle = 0$ 입니다. 이 때 $$\langle b \vert b \rangle = \left\vert \dfrac{\langle a \vert b \rangle}{\langle a \vert a \rangle}\right\vert^2 \langle a \vert a \rangle + \langle c \vert c \rangle = \dfrac{\vert \langle a \vert b \rangle \vert^2}{\langle a \vert a \rangle}+\langle c \vert c \rangle$$ 가 성립하므로, $$\langle b \vert b \rangle \geq \dfrac{\vert \langle a \vert b \rangle \vert^2}{\langle a \vert a\rangle} \Rightarrow \langle a \vert a \rangle \langle b \vert b \rangle \geq \vert \langle a \vert b \rangle \vert^2$$ 이 증명됩니다. 등호는 $\langle c \vert c \rangle = 0$ 일 때이므로, $\vert c \rangle = 0$ 이 되어야 합니다. 그러면 정의로부터 $\vert a\rangle $ 과 $\vert b \rangle$ 이 평행할 때임을 알 수 있습니다.

 

$\vert a \rangle$ 에 대해 벡터의 norm 은 $\left\| a\right\|$ 로 쓰고, $$\left\| a \right\| = \sqrt{\langle a \vert a \rangle}$$ 로 정의합니다. $\alpha \vert a \rangle + \beta \vert b \rangle$ 의 norm 을 $\left\| \alpha a + \beta b \right\|$ 처럼 쓰기도 합니다.

 

벡터의 norm 이 다음과 같은 성질을 가짐은 쉽게 보일 수 있습니다.

 

(1) $\left\| a \right\| \geq 0$ 이고 $\left\| a\right\| = 0 \Leftrightarrow \vert a \rangle = \vert 0 \rangle$

(2) 모든 $\alpha \in \mathbb{C}$ 에 대해 $\left\| \alpha a \right\| = \vert \alpha \vert \left\| a \right\|$ 

(3) $\left\| a + b \right\| \leq \left\| a \right\| + \left\| b\right\|$

 

여기서 (4) 는 삼각부등식이라고 불리는 그것입니다. 위의 성질을 만족시키는 모든 함수는 norm 이라 불릴 수 있고, norm 을 가지는 벡터 공간을 normed linear space 라고 부릅니다. 그리고 norm 은 꼭 inner product 로만 정의될 수 있지 않기 때문에, normed linear space 라고 해서 반드시 inner product space 가 되는 것은 아닙니다.

 

normed linear space 에서는 두 벡터 사이의 거리를 정의할 수 있으며, $\vert a\rangle$ 와 $\vert b\rangle$ 사이의 거리 $d(a, b)$ 는 단순히 $d(a, b) = \left\| a - b\right\|$ 로 정의됩니다.

 

Inner product space 이면 normed linear space 임은 자명합니다. 그런데 만약 norm 이 parallelogram law 를 만족한다면, $$\left\| a + b\right\|^2 + \left\| a -b \right\|^2 = 2\left\| a \right\|^2 + 2\left \| b \right\|^2$$ 내적을 $$\langle a \vert b \rangle = \dfrac{1}{4}\left\{\left\| a + b \right \|^2 - \left\| a - b \right\|^2 - i \left(\left\| a + ib \right\|^2 - \left\| a - ib \right\|^2\right)\right\}$$ 으로 정의하여, inner product space 를 만들 수 있습니다. 즉, 역이 성립하기 위해서는 추가적인 조건이 붙으면 됩니다.

 

Theorem

normed linear space 가 inner product space 인 것은 norm 이 parallelogram law 를 만족시키는 것과 동치이다.

 

Proof

parallelogram law 를 만족시킬 때 inner product space 가 됨은 위에서 내적을 직접 제시하여 보였으므로, 반대방향을 보이면 증명이 완성됩니다. $N$ 차원 벡터공간 $\mathcal{V}$ 와 그 basis $\{\vert a_i \rangle\}_{i=1}^{N}$ 에 대해 $$\vert a \rangle = \sum_{i=1}^N \alpha_i \vert a_i \rangle \quad \Rightarrow \quad \left \| a \right\|^2 = \sum_{i=1}^{N}\vert \alpha_i \vert^2$$ 처럼 norm 을 정의하면 norm 의 조건을 잘 만족시키고, parallelogram law 또한 만족시킴을 알 수 있습니다. 따라서 증명이 완성됩니다.

 

Proposition

모든 유한차원 벡터공간은 inner product space 로 만들 수 있다.

 

예를 들어 $\mathbb{C}^n$ 의 경우 $\vert a \rangle = \left(\alpha_1, \alpha_2, \cdots, \alpha_n \right)$ 에 대해 $$\left\| a \right\| = \sqrt{\langle a \vert a \rangle} = \sqrt{\sum_{i=1}^{n}\vert \alpha_i \vert^2}$$ 처럼 잡을 수 있습니다. 그러면 $$d(a, b) = \sqrt{\sum_{i=1}^{n}\vert \alpha_i - \beta_i \vert^2}$$ 이 됩니다. 만약 norm 을 다르게 잡으면, 특히 $\left\| a\right\|_1 = \sum_{i=1}^n \vert\alpha_i\vert$ 와 같이 잡으면 $$d_1 (a, b) = \left\| a - b\right\|_1 = \sum_{i=1}^{n}\vert \alpha_i - \beta_i \vert$$ 가 됩니다. 또 다른 norm 으로는 $$\left \| a \right\|_p = \left(\sum_{i=1}^{n}\vert \alpha_i\vert^p \right)^{1/p}$$ 가 있으며, 이 때 $p$ 는 양의 정수입니다. 그러면 $$d_p (a, b) = \left\| a - b\right\|_p  =\left(\sum_{i=1}^{n}\vert \alpha_i - \beta_i \vert^p \right)^{1/p}$$ 를 얻습니다.

'물리학 > 수리물리학' 카테고리의 다른 글

Dimension theorem  (0) 2021.08.03
Linear map  (0) 2021.08.03
Inner Product  (0) 2021.08.03
Direct Sum  (0) 2021.08.03
Quotient space  (0) 2021.08.03

댓글()

Inner Product

두 벡터 $\vert a \rangle, \vert b \rangle$ 의 내적(inner product)이란 $\langle a \vert b \rangle\in\mathbb{C}$ 처럼 쓰고, 다음 조건을 만족합니다.

 

(1) $\langle a \vert b \rangle = \langle b \vert a \rangle^*$

(2) $\langle a \vert \left(\beta \vert b \rangle + \gamma \vert c \rangle\right) = \beta \langle a \vert b \rangle + \gamma \langle a \vert c \rangle$

(3) $\langle a \vert a \rangle\geq 0$ 이고, $\langle a \vert a \rangle = 0\Leftrightarrow \vert a \rangle = \vert 0 \rangle$

 

여기서 $^*$ 은 켤레복소수를 의미합니다. 즉 $\left(a+bi\right)^* = a - bi$ 입니다. 그리고 (3) 의 조건은 positive definite 조건이라고 불리기도 합니다.

 

그리고 (2) 의 선형성은 뒤쪽의 벡터에만 적용되는데, 이는 (1) 에서 내적의 교환관계가 성립하지 않기 때문에 앞쪽의 벡터에 선형성이 적용되면 모양이 달라지기 때문입니다. (1) 의 켤레복소수 연산때문에 내적은 복소벡터공간 위에서 쌍선형적(bilinear)이지 않습니다. (즉, 두 원소에 대해 모두 선형적이지 않습니다) 이는 일반적으로 반쌍선형(sesquilinear)이라고 불립니다.

 

그러나 이를 실벡터공간에서만 생각하면 (1) 의 켤레복소 연산은 신경쓸 필요 없기때문에, 실벡터공간의 내적은 bilinear 함이 보장됨을 알 수 있습니다. 

 

그리고 (2) 의 좌변을 좀 더 간단하게, $\langle a \vert \beta b + \gamma c\rangle$ 처럼 쓰기도 합니다. 그러면 $$\langle a \vert \beta b + \gamma c\rangle = \beta \langle a \vert b \rangle = \gamma \langle a \vert c \rangle$$ 이 되어, 뒤쪽 원소에 대해 선형적임을 좀 더 잘 볼 수 있습니다. 반대로, 앞의 원소에 대해서는 $$\langle \beta b + \gamma c \vert a \rangle = \beta^* \langle b \vert a \rangle + \gamma^* \langle c \vert a \rangle$$ 이 되므로 선형적이지 않음도 잘 볼 수 있습니다.

 

어떤 벡터공간 $\mathcal{V}$ 와 그 위에서 정의된 내적을 통틀어서 내적공간(inner product space)이라 부릅니다. 그리고 이후에 살펴보겠지만 유한차원 벡터공간에 대해서는 항상 내적이 존재하므로, 임의의 유한차원 벡터공간을 내적공간으로 바꿀 수 있습니다.

 

예를 들어, $\vert a \rangle, \vert b\rangle \in \mathbb{C}^n$ 에 대해 $$\langle a \vert b \rangle = \sum_{i=1}^{n}\alpha_{i}^{*}\beta_i$$ 처럼 정의하면, 이는 내적의 조건 세가지를 모두 만족함이 쉽게 보여집니다. 그리고 이 내적을 natural innter product for $\mathbb{C}^n$ 이라 부릅니다. $x(t), y(t) \in \mathcal{P}^c[t]$ 에 대해, $$\langle x \vert y \rangle = \int_{a}^{b}w(t)x^*(t) y(t) dt$$ 처럼 정의하면, 이는 내적의 조건을 만족합니다. 단, weight function 이라 불리는 $w(t)$ 가 $(a, b)$ 에서 항상 양수라는 조건 하에서만 성립합니다.

 

그리고 $f, g \in \mathbb{C}(a, b)$ 에 대해 $$\langle f \vert g \rangle = \int_{a}^{b}w(x) f^* (x)g(x) dx$$ 처럼 정의하면, 마찬가지로 weight function $w(x)$ 가 $(a, b)$ 에서 항상 양수일 때 내적이 됩니다. 이를 standard inner product on $\mathbb{C}(a, b)$ 라 부릅니다.

 

만약 $\vert a \rangle, \vert b \rangle \in \mathcal{V}$ 가 $\langle a \vert b \rangle = 0$ 을 만족한다면, 두 벡터가 orthogonal 하다고 합니다. 그리고 $\langle e \vert e \rangle = 1$ 인 벡터 $\vert e \rangle$ 을 normal vector 라고 부르고 $\mathcal{B}  = \{\vert e_i \rangle\}_{i=1}^{N}$ 이 아래 조건을 만족하면 $N$ 차원 벡터공간 $\mathcal{V}$ 의 orthonormal basis 라 합니다. $$\langle e_i \vert e_j \rangle = \delta_{ij} = \begin{cases}1 & \text{ if }i = j \\ 0 & \text{ if } i \neq j\end{cases}$$ 여기서 $\delta_{ij}$ 를 크로네커 델타(Kronecker delta)라 부릅니다.

 

예를 들어, 내적공간 $\mathcal{U}$ 와 $\mathcal{V}$, 그리고 $\mathcal{W} = \mathcal{U}\oplus \mathcal{V}$ 에 대해 $\vert w_i \rangle = \left(\vert u_i \rangle, \vert v_i \rangle\right)$ 라 둘 수 있고, $$\langle w_1 \vert w_2\rangle = \langle u_1 \vert u_2 \rangle + \langle v_1 \vert v_2 \rangle$$ 이 $\mathcal{W}$ 에서 내적의 성질을 만족함을 쉽게 보일 수 있습니다. 그리고 $$\mathcal{U} = \left\{\left( \vert u \rangle , \vert 0 \rangle _V \right) \vert \vert u \rangle \in \mathcal{U}\right\} \quad \text{ and }\quad \mathcal{V} = \left\{\left(\vert 0\rangle_U , \vert v \rangle \right) \vert \vert v \rangle \in \mathcal{V}\right\}$$ 에 대해 $\mathcal{U}$ 의 벡터와 $\mathcal{V}$ 의 벡터는 항상 orthogonal 합니다.

'물리학 > 수리물리학' 카테고리의 다른 글

Linear map  (0) 2021.08.03
Gram-Schmidt Process  (0) 2021.08.03
Direct Sum  (0) 2021.08.03
Quotient space  (0) 2021.08.03
부분공간  (0) 2021.08.03

댓글()

Direct Sum

어떤 상황에서는 벡터 공간을 독립적인 두 개의 subspace 로 분리하는 것이 상황 분석에 더 유일합니다. 예를 들어, $\mathbb{R}^3$ 에서 물체의 운동을 분석할 때는 각각의 축 방향으로 분리하여 생각하는 것이 더 유리합니다. 이를 일반적인 벡터 공간 $\mathcal{V}$ 에서도 생각할 수 있는데, $\mathcal{U}, \mathcal{W}$ 가 $\mathcal{V}$ 의 subspace라면 $\mathcal{U}+\mathcal{W}$ 는 $\mathcal{U}, \mathcal{V}$ 에서 각각 한 개의 벡터를 골라 더해서 얻을 수 있는 벡터의 집합이고, 이는 $\mathcal{V}$ 의 subspace가 됩니다.

 

예를 들어, $\mathcal{V} = \mathbb{R}^3$ 이라 두고, $\mathcal{U}$ 를 $xy$ 평면, $\mathcal{W}$ 를 $yz$ 평면이라 하면 둘 모두 $\mathbb{R}^3$ 의 subspade임은 자명합니다. 또, $\mathcal{U} + \mathcal{W} = \mathbb{R}^3$ 이 됨은 다음처럼 보일 수 있습니다. $$(x, y, z) = \left(x, \dfrac{1}{2}y, 0\right) + \left(0, \dfrac{1}{2}y, z\right)$$ 물론 두 개의 합으로 분해하는 방법이 유일하지 않으며, 유일할 필요도 없습니다.

 

만약 $\mathcal{U}, \mathcal{W}$ 가 벡터공간 $\mathcal{V}$ 의 subspace 이고, $\mathcal{V}=\mathcal{U} + \mathcal{W}$ 이면서 $\mathcal{U}\cap\mathcal{W} = \{\vert 0 \rangle\}$ 이면, $\mathcal{V}$ 는 $\mathcal{U}$ 와 $\mathcal{W}$ 의 direct sum 이라 말하고, $\mathcal{V} =\mathcal{U}\oplus \mathcal{W}$ 라 씁니다.

 

Theorem

$\mathcal{V} = \mathcal{U} + \mathcal{W}$ 일 때, $\mathcal{V} = \mathcal{U}\oplus \mathcal{W}$ 인 것은 $\mathcal{V}$ 의 영벡터가 아닌 벡터가 $\mathcal{U}$ 의 벡터와 $\mathcal{W}$ 의 벡터의 합으로 유일하게 표현되는 것과 동치입니다.

 

Proof

$\mathcal{V} = \mathcal{U}\oplus\mathcal{W}$ 라 가정하겠습니다. 이 때 $\vert v \rangle \in \mathcal{V}$ 을 $\mathcal{U}$ 와 $\mathcal{W}$ 의 원소의 합으로 표현할 수 있는 방법이 두 가지 있다면, $$\vert v \rangle = \vert u \rangle + \vert w \rangle = \vert u' \rangle + \vert w' \rangle \quad \Leftrightarrow \quad \vert u \rangle - \vert u' \rangle = \vert w' \rangle - \vert w \rangle$$ 가 됩니다. 그런데 우측 식의 좌변은 $\mathcal{U}$ 의 원소이고, 우변은 $\mathcal{W}$ 의 원소입니다. 그러므로 direct sum의 정의에 의해 $\vert u \rangle - \vert u' \rangle = \vert 0 \rangle = \vert w' \rangle - \vert w \rangle$ 가 되어 합으로 표현하는 방법은 유일합니다.

 

영벡터가 아닌 원소를 $\mathcal{U}, \mathcal{V}$ 의 원소의 합으로 표현하는 방법이 유일하다고 가정하겠습니다. 이 때 어떤 $\vert a \rangle$ 가 $\mathcal{U}\cap \mathcal{W}$ 의 원소라면 $$\vert a \rangle = \dfrac{1}{3}\vert a \rangle + \dfrac{2}{3}\vert a \rangle = \dfrac{1}{4}\vert a \rangle + \dfrac{3}{4}\vert a \rangle$$ 가 되어 합으로 표현하는 방법이 두 가지 이상 존재하므로, $\vert a \rangle = 0$ 가 되어야 합니다. 따라서 $\mathcal{V} = \mathcal{U}\oplus\mathcal{W}$ 입니다.

 

이를 일반화하여, $\{\mathcal{U}_i\}_{i=1}^{r}$ 가 $\mathcal{V}$ 의 subspace 이고 $$\mathcal{V} = \sum_{i=1}^{r}\mathcal{U}_i\quad\text{ and }\quad \mathcal{U}_i \cap \mathcal{U}_j = \{\vert 0 \rangle\}\; \text{ for all } i, j = 1, 2, \cdots, r,\; i\neq j$$ 가 성립하면, $\mathcal{V}$ 가 $\{\mathcal{U}_i\}_{i=1}^{r}$ 의 direct sum 이라고 하고, $$\mathcal{V} = \bigoplus_{i=1}^{r}\mathcal{U}_i$$ 처럼 씁니다.

 

만약 $\mathcal{W} = \bigoplus_{i=1}^{s}\mathcal{U}_i$ 라면, $\mathcal{W}' = \bigoplus_{i=2}^{s}$ 에 대해 $\mathcal{W} = \mathcal{U}_1 \oplus \mathcal{W}'$ 이 성립합니다. 그러면 $\vert u_i \rangle\in \mathcal{U}_i$ 에 대해 $$\sum_{i=1}^{s}\alpha_i \vert u_i \rangle = \vert 0 \rangle\quad\Leftrightarrow\quad \alpha_1 \vert u_1 \rangle = -\sum_{i=2}^{n}\alpha_i \vert u_i \rangle\in \mathcal{W}'$$ 이 되어 $\alpha_1 = 0$ 을 얻고, 그러면 $$\sum_{i=2}^{s}\alpha_i \vert u_i \rangle = 0$$ 으로 바뀝니다. 이와 같은 과정을 반복하면 $\alpha_1 = \alpha_2 = \cdots = \alpha_s = 0$ 이 되고, 따라서 다음을 얻습니다.

 

Proposition

서로 다른 $\mathcal{U}_i$ 의 원소끼리는 linearly independent 합니다.

 

Proposition

$\mathcal{U}$ 가 $\mathcal{V}$ 의 subspace 이면, 어떤 $\mathcal{V}$ 의 subspace $\mathcal{W}$ 가 존재하여 $\mathcal{V} = \mathcal{U} \oplus\mathcal{W}$ 입니다.

 

Proof

$\{\vert u_i \rangle\}_{i=1}^{m}$ 가 $\mathcal{U}$ 의 basis 라 하면, 이를 확장해서 $\{\vert u_i \rangle\}_{i=1}^{N}$ 이 $\mathcal{V}$ 의 basis 가 되도록 할 수 있고, 그러면 $\mathcal{W} = \text{span}\{\vert u_j \rangle\}_{j=m+1}^{N}$ 으로 잡으면 됩니다.

 

Proposition

$\mathcal{V} =\mathcal{U}\oplus\mathcal{W}$ 이면 $\dim \mathcal{V} = \dim \mathcal{U} + \dim\mathcal{W}$ 입니다.

 

Proof

$\{\vert u_i \rangle\}_{i=1}^{m}$ 를 $\mathcal{U}$ 의 basis 라 하고, $\{\vert w_i \rangle\}_{i=1}^{k}$ 를 $\mathcal{W}$ 의 basis 라 하면, 간단한 계산을 통해 $$\{\vert u_1 \rangle, \vert u_2 \rangle, \cdots, \vert u_m \rangle, \vert w_1 \rangle, \vert w_2 \rangle, \cdots, \vert w_k \rangle\}$$ 가 $\mathcal{V}$ 의 basis 임을 확인할 수 있습니다.

 

$\mathcal{U}, \mathcal{V}$ 가 벡터공간이라고 하고, $\mathcal{W} = \mathcal{U}\times\mathcal{V}$ 라 할 때, $\mathcal{W}$ 에서 스칼라 곱과 합을 다음처럼 정의하겠습니다. $$\begin{align*}\alpha \left(\vert u \rangle, \vert v \rangle\right) &= \left(\alpha\vert u \rangle, \alpha\vert v \rangle\right) \\ \left(\vert u_1 \rangle , \vert v_1 \rangle\right) + \left(\vert u_2 \rangle, \vert v_2 \rangle\right) &= \left(\vert u_1 \rangle + \vert u_2 \rangle, \vert v_1 \rangle + \vert v_2 \rangle\right)\end{align*}$$ 여기서 $\vert 0 \rangle_W = \left( \vert 0 \rangle_U, \vert 0 \rangle_V\right)$ 라 하면, $\mathcal{W}$ 는 벡터공간이 됩니다. 그리고 $\mathcal{U}$ 와 $\mathcal{V}$ 의 벡터를 $\left(\vert u \rangle, \vert 0 \rangle_V \right), \left(\vert 0 \rangle_U, \vert v \rangle\right)$ 와 같은 꼴로 쓰면 $\mathcal{U}, \mathcal{V}$ 는 $\mathcal{W}$ 의 subspace 가 됩니다. 그러면 아래의 proposition 은 자명합니다

 

Proposition

위의 논의에서 정의된 $\mathcal{U}, \mathcal{V}, \mathcal{V}$ 에 대해, $\mathcal{W} = \mathcal{U} \oplus\mathcal{V}$ 입니다.

 

이제 $\{\vert a_i \rangle\}_{i=1}^{M}$ 를 $\mathcal{U}$ 의 basis 라 하고, $\{\vert b_j \rangle\}_{j=1}^{N}$ 를 $\mathcal{V}$ 의 basis 라 하겠습니다. 여기서 $\{\vert c_k \rangle\}_{k=1}^{M+N} \in \mathcal{W} = \mathcal{U}\oplus\mathcal{V}$ 를 다음처럼 정의하겠습니다. $$\begin{align*}\vert c_k \rangle &= \left( \vert a_k \rangle, \vert 0 \rangle_V\right) && \text{ if } 1 \leq k \leq M \\ \vert c_k \rangle &= \left(\vert 0 \rangle_{U}, \vert b_{k-M} \rangle \right) \quad && \text{ if } M +1 \leq k \leq M+N\end{align*}$$ 그러면 $$\sum_{k=1}^{M+N}\gamma_k \vert c_k \rangle = \vert 0 \rangle_W \qquad\Leftrightarrow \\ \sum_{k=1}^{M}\gamma_k \left(\vert a_k \rangle, \vert 0 \rangle_V\right) + \sum_{j=1}^{N}\gamma_{M+j}\left(\vert 0 \rangle_U, \vert b_j \rangle\right) = \left(\vert 0 \rangle_U, \vert 0 \rangle_V\right)\qquad\Leftrightarrow \\ \left(\sum_{k=1}^{M}\gamma_k \vert a_k \rangle, \vert 0 \rangle_V\right)+\left(\vert 0 \rangle_U, \sum_{j=1}^{M}\gamma_{M+j}\vert b_j \rangle\right) = \left(\vert 0 \rangle_U, \vert 0 \rangle_V\right)\qquad\Leftrightarrow \\ \left(\sum_{k=1}^{M}\gamma_k \vert a_k \rangle,\sum_{j=1}^{M}\gamma_{M+j}\vert b_j \rangle\right) = \left(\vert 0 \rangle_U, \vert 0 \rangle_V\right) \qquad \Leftrightarrow\\ \sum_{k=1}^{M}\gamma_k \vert a_k \rangle = \vert 0 \rangle_{U} \quad\text{ and }\quad \sum_{j=1}^{M}\gamma_{M+j}\vert b_j \rangle = \vert 0 \rangle_{V}$$ 가 되므로, $\{\vert c_k \rangle\}_{k=1}^{M+N}$ 은 linearly independent 합니다. 그리고 $\mathcal{W} = \text{span} \{\vert c_k \rangle\}_{k=1}^{M+N}$ 이 됨은 어렵지 않게 보일 수 있습니다. 그러면 다음 정리를 얻습니다.

 

Theorem

$\{\vert a_i \rangle\}_{i=1}^{M}$ 가 $\mathcal{U}$ 의 basis 이고 $\{\vert b_j \rangle\}_{j=1}^{N}$ 가 $\mathcal{V}$ 의 basis 이면$$\begin{align*}\vert c_k \rangle &= \left( \vert a_k \rangle, \vert 0 \rangle_V\right) && \text{ if } 1 \leq k \leq M \\ \vert c_k \rangle &= \left(\vert 0 \rangle_{U}, \vert b_{k-M} \rangle \right) \quad && \text{ if } M +1 \leq k \leq M+N\end{align*}$$ 처럼 정의된 $\{\vert c_k \rangle\}_{k=1}^{M+N}$ 은 $\mathcal{W} = \mathcal{U}\oplus\mathcal{V}$ 의 basis 입니다. 그리고 또한 $\dim\mathcal{W} = M+N$ 입니다.

 

벡터 공간 $\mathcal{U}, \mathcal{V}$ 의 Cartesian product 에 다음과 같은 스칼라 곱과 쌍선형(bilinear)조건을 주겠습니다.(두 원소에 대해 각각 선형적이라는 의미입니다.) $$\begin{align*}\alpha\left(\vert u \rangle, \vert v \rangle\right) &= \left(\alpha \vert u \rangle, \vert v \rangle\right) = \left(\vert u \rangle, \alpha\vert v \rangle\right) \\ \left(\alpha_1\vert u_1 \rangle + \alpha_2 \vert u_2 \rangle, \vert v \rangle\right) &= \alpha_1 \left(\vert u_1 \rangle, \vert v \rangle\right) + \alpha_2 \left(\vert u_2 \rangle, \vert v \rangle\right) \\ \left(\vert u \rangle, \beta_1 \vert v_1 \rangle + \beta_2 \vert v_2 \rangle\right) &= \beta_1 \left(\vert u \rangle, \vert v_1 \rangle\right) + \beta_2 \left(\vert u \rangle, \vert v_2\rangle\right)\end{align*}$$ 이런 성질은 $\mathcal{U}\times\mathcal{V}$ 를 tensor product 라 불리는 공간으로 만듭니다. 그리고 이는 $\mathcal{U}\otimes \mathcal{V}$ 로 쓰고, tensor product space 의 원소는 $\vert u\rangle \otimes \vert v \rangle$ (가끔 $\vert uv\rangle$ 처럼 쓰기도 합니다) 처럼 쓰여집니다. 여기서 $\{\vert a_i \rangle\}_{i=1}^{M}$ 과 $\{\vert b_j \rangle\}_{j=1}^{N}$ 이 각각 $\mathcal{U}, \mathcal{V}$ 의 basis 라면 $$\vert u \rangle = \sum_{i=1}^{M}\alpha_i \vert a_i \rangle \quad \text{ and }\quad \vert v \rangle = \sum_{j=1}^{N}\beta_j \vert b_j \rangle$$ 처럼 쓸 수 있고, 그러면 $$\vert u \rangle \otimes \vert v \rangle = \left(\sum_{i=1}^{M}\alpha_i \vert a_i \rangle\right) \otimes \left(\sum_{j=1}^{N}\beta_j \vert b_j \rangle\right) = \sum_{i=1}^{M}\sum_{j=1}^{N}\alpha_i \beta_j \vert a_i \rangle \otimes \vert b_j \rangle$$ 이 됩니다. 따라서 $\{\vert a_i \rangle \otimes \vert b_j \rangle\}$ 이 $\mathcal{U}\otimes\mathcal{V}$ 의 basis 가 되며 $\dim \left( \mathcal{U}\otimes \mathcal{V}\right) = \dim \mathcal{U} \dim \mathcal{V}$ 가 성립합니다. 그리고 $$\vert 0 \rangle_U \otimes \vert v \rangle = \left( \vert u \rangle - \vert u \rangle \right) \otimes \vert v \rangle = \vert u \rangle \otimes \vert v \rangle - \vert u \rangle \otimes \vert v \rangle = \vert 0 \rangle_{U\otimes V}$$ 입니다. 마찬가지로, $\vert u \rangle \otimes \vert 0 \rangle_V = \vert 0 \rangle_{U\otimes V}$ 입니다.

'물리학 > 수리물리학' 카테고리의 다른 글

Gram-Schmidt Process  (0) 2021.08.03
Inner Product  (0) 2021.08.03
Quotient space  (0) 2021.08.03
부분공간  (0) 2021.08.03
벡터공간  (0) 2021.08.03

댓글()