안녕하세요. 지난 포스팅의 선형대수학 - 선형변환 합성과 행렬곱에서는 선형변환의 합성이 곧 행렬곱으로 표현될 수 있다는 것을 알아보았습니다. 오늘은 어떤 체 $\mathbf{F}$에 대한 벡터공간 $V$와 $W$가 주어졌을 때, 선형변환 $T : V \rightarrow W$의 $V$와 $W$ 사이의 관계성 중에 하나인 동형사항(Isomorphism)을 배우고 이를 위한 기본 개념인 역변환(inverse transformation)에 대해서 알아보도록 하겠습니다.
정의1. 가역성 (invertiblity)
$V$와 $W$를 체 $\mathbf{F}$ 상에서 정의된 벡터공간 그리고 $T : V \rightarrow W$를 선형변환이라고 하자. $U : W \rightarrow V$가 $TU = I_{W}$와 $UT = I_{V}$를 만족하면 $U$를 $T$의 역변환 (inverse)이라고 한다. 만약, $T$가 역변환이 존재하면 $T$를 가역변환 (invertible transformation)이라고 한다.
Let $V$ and $W$ be vector spaces over a field $\mathbf{F}$, and let $T : V \rightarrow W$ be linear. A function $U : W \rightarrow V$ is said to be an inverse of $T$ if $TU = I_{W}$ and $UT = I_{V}$. If $T$ has an inverse, then $T$ is said to be invertible transformation.
설명
잠시 선형대수학이 아닌 미적분학 - 역함수와 로그함수, 역삼각함수에서 보았던 역함수의 개념에 대해서 상기해보도록 하죠. 정의에 따르면 역함수는 전사함수이면서 단사함수, 즉 전단사함수여야 존재합니다. 쉽게 말해 치역에 대응되는 정의역의 원소는 하나씩 존재하고 치역과 공역이 일치해야한다는 것이죠. 선형변환도 마찬가지입니다. 선형대수학 - 선형변환, 영공간, 치역의 정리4와 정리5에서도 보았듯이 선형변환에도 전사변환, 단사변환이 존재하죠. 즉, 선형변환 역시 함수의 역함수와 마찬가지로 전사/단사변환을 동시에 만족해야 역변환이 존재한다는 것을 쉽게 생각해볼 수 있죠. 이번에는 역변환과 관련된 중요한 성질들을 보도록 하겠습니다.
Remark1.
1). $T$가 가역변환이면 $T$의 역변환은 유일하고 $T^{-1}$로 표기한다.
2). $(TU)^{-1} = U^{-1}T^{-1}$
3). $(T^{-1})^{-1} = T$
4). $V$와 $W$를 체 $\mathbf{F}$ 상에서 정의된 동일한 차원을 가지는 벡터공간 그리고 $T : V \rightarrow W$를 선형변환이라고 하자. $T$가 가역인 것은 $\text{rank}(T) = \text{dim}(V)$인 것과 동치이다.
Remark1. 4)의 경우에는 선형대수학 - 선형변환, 영공간, 치역의 정리5에 의해 얻을 수 있는 결과 입니다.
간단한 예시로 $T : P_{1}(\mathbb{R}) \rightarrow \mathbb{R}^{2}$가 $T(a + bx) = (a, a + b)$로 정의된 선형변환을 보도록 하겠습니다. $\text{dim}(P_{1}(\mathbb{R})) = 2$인 것은 이제 쉽게 아실겁니다. 이제 $\text{rank}(T)$를 구해보도록 하죠. 선형대수학 - 선형변환, 영공간, 치역의 정리2에 의해 $R(T) = \text{span}(T(\beta))$입니다. 이때, $\beta = \{1, x\}$이죠. 따라서, $R(T) = \text{span}(\{(1, 1), (0, 1)\})$이죠. 여기서, 집합 $S = \{(1, 1), (0, 1)\}$은 선형독립이고 $\text{span}(S) = \mathbb{R}^{2}$이기 때문에 $S$는 $\mathbb{R}^{2}$의 기저입니다. 그러므로 $\text{rank}(T) = \text{dim}(R(T)) = 2$이죠. 즉, $\text{dim}(P_{1}(\mathbb{R})) = \text{rank}(T) = 2$이므로 Remark1. 4)에 의해 $T$는 가역변환입니다. 그렇다면 $T$의 역변환은 무엇일까요? 이는 아주 쉽게 구할 수 있습니다. $T^{-1} : \mathbb{R}^{2} \rightarrow P_{1}(\mathbb{R})$이라고 하겠습니다. 저희가 $c = a$ 그리고 $d = a + b$라고 하면 $a = c$ 이고 $b = d - c$이죠? 따라서, $T^{-1}(c, d) = c + (d - c)x$라고 하면 $T^{-1}$은 $T$의 역변환이 됩니다.
정리1.
어떤 체 $\mathbf{F}$에 대한 벡터공간 $V$와 $W$가 주어졌을 때, 변환 $T : V \rightarrow W$가 선형가역변환이라고 가정하면 $T$의 역변환 $U : W \rightarrow V$는 선형변환이다.
증명
정의1에 따르면 아직 선형변환의 역변환이 선형인지는 증명하지 않았습니다. 정리1에서는 확실하게 역변환 역시 선형변환이라는 결과를 알려주죠. 증명하는 과정은 지금까지 자주했던 선형성 증명과 동일하기 때문에 어렵지 않습니다.
임의의 두 벡터 $w_{1}, w_{2} \in W$와 스칼라 $d \in \mathbf{F}$를 선택한다. 이때, 선형변환 $T$가 가역변환이기 때문에 $T$는 전단사변환이다. 즉, $T(v_{1}) = w_{1}$와 $T(v_{2}) = w_{2}$를 만족하는 $v_{1}, v_{2} \in V$가 존재한다는 뜻이죠. 따라서, $w_{1} = T^{-1}(v_{1})$ 이고 $w_{2} = T^{-1}(v_{2})$이다.
$$\begin{align*} T^{-1}(dw_{1} + w_{2}) &= T^{-1}(dT(v_{1}) + T(v_{2})) \\ &= T^{-1}(T(dv_{1} + v_{2})) \\ &= (T^{-1}T)(dv_{1} + v_{2}) \\ &= I_{V}(dv_{1} + v_{2}) \\ &= dv_{1} + v_{2} \\ &= dT^{-1}(w_{1}) + T^{-1}(w_{2}) \end{align*}$$
따라서, $T^{-1}(dw_{1} + w_{2}) = dT^{-1}(w_{1}) + T(w_{2})$이므로 $T^{-1}$은 선형변환이다.
정의2. 역행렬 (inverse matrix)
$A$를 $n \times n$ 크기의 행렬이라고 하자. $AB = BA = I_{n}$을 만족하는 $n \times n$ 크기의 행렬 $B$가 존재하면 $A$는 가역(invertible)이고 $B$는 $A$의 역행렬(Inverse Matrix)이다.
Let $A$ be an $n \times n$ matrix. Then, $A$ is invertible if there exists an $n \times n$ matrix B such that $AB = BA = I$
설명
기본적으로 선형변환 $T : V \rightarrow W$는 $V$와 $W$의 표준기저 $\beta, \gamma$를 통해 $\left[T\right]_{\beta}^{\gamma} = A$ 꼴의 행렬로 표현할 수 있습니다. 따라서 처음에 보았던 변환과 역변환 사이의 관계는 행렬과 역행렬 사이의 관계와 동일함을 알 수 있습니다. 따라서, Remark1의 내용을 행렬로도 표현할 수 있습니다.
Remark2.
1). $A$가 역행렬이 존재하면 $A$의 역행렬은 유일하고 $A^{-1}$로 표기한다.
2). $(AB)^{-1} = B^{-1}A^{-1}$
3). $(A^{-1})^{-1} = A$
정리2.
어떤 체 $\mathbf{F}$에 대한 유한순서기저 $\beta$와 $\gamma$를 갖는 벡터공간 $V$와 $W$가 주어지고 $T : V \rightarrow W$를 선형이라고 하자. $T$가 가역변환인 것은 $[T]_{\beta}^{\gamma}$이 가역행렬을 가지는 것과 동치이다. 또한, $[T^{-1}]_{\beta}^{\gamma} = \left([T]_{\beta}^{\gamma}\right)^{-1}$이다.
설명
정리2는 가역변환과 가역행렬 사이의 관계성을 설명해주고 있습니다. 이를 통해서 선형변환과 행렬 사이의 관계성을 더욱 강화시키고 있죠. 정리2를 증명하기 위해서는 보조정리가 필요합니다.
보조정리2-1.
$T$기 벡터공간 $V$에서 $W$로의 선형가역변환이라고 하자. $V$가 유한차원인 것은 $W$가 유한차원인 것과 동치이다. 즉, $\text{dim}(V) = \text{dim}(W)$이다.
증명(보조정리2-1)
보조정리2-1 증명의 핵심은 선형대수학 - 기저와 차원의 정리2를 사용하는 것입니다.
$V$를 유한차원 벡터공간이라고 하자. 그리고 $\beta = \{v_{1}, \dots, v_{n}\}$을 벡터공간 $V$의 기저라고 하자. 선형대수학 - 선형변환, 영공간, 치역의 정리2에 의해 $R(T) = \text{span}(T(\beta))$입니다. 이때, $T$가 가역변환이기 때문에 전사변환이다. 그러므로 $R(T) = W$가 되어 $\text{span}(T(\beta)) = W$가 된다. 따라서, 선형대수학 - 기저와 차원의 정리2에 의해 $W$는 유한차원 벡터공간이다.
이제, 두 벡터공간 $V$와 $W$ 모두 유한차원 벡터공간이라고 하자. 이때, $T$가 가역변환이므로 전단사변환이다. 이는 선형대수학 - 선형변환, 영공간, 치역의 차원정리와 정리5에 의해 아래의 수식으로 이어진다.
$$\text{dim}(V) = \text{nullity}(T) + \text{rank}(T) = 0 + \text{dim}(R(T)) = \text{dim}(W)$$
따라서, 보조정리2-1은 참이다.
이제 저희는 정리2를 증명할 수 있습니다. 여기서 정리2는 동치명제이기 때문에 양방향 증명과 마지막으로 수식에 대한 증명, 총 3가지의 증명이 필요하니 주의해야합니다.
증명(정리2)
1). $(\Rightarrow)$ : $T$가 가역변환이라고 하자. 보조정리2-1에 의해 $\text{dim}(V) = \text{dim}(W)$이다. $\text{dim}(V) = n$이라고 하면 $[T]_{\beta}^{\gamma}$는 $n \times n$ 크기를 가지는 행렬이다.
$$\begin{cases} &I_{n} = [I_{V}]_{\beta} = [T^{-1}T]_{\beta} = [T^{-1}]_{\gamma}^{\beta}[T]_{\beta}^{\gamma} \\ &I_{n} = [I_{W}]_{\gamma} = [TT^{-1}]_{\gamma} = [T]_{\beta}^{\gamma}[T^{-1}]_{\gamma}^{\beta} \end{cases}$$
따라서, $[T]_{\beta}^{\gamma}$는 정의2에 의해 가역행렬이다. 또한, $\left([T]_{\beta}^{\gamma}\right)^{-1} = [T^{-1}]_{\gamma}^{\beta}$이다.
2). $(\Leftarrow)$ : $A = [T]_{\beta}^{\gamma}$가 가역행렬이라고 하자. 그러면 $AB = BA = I_{n}$을 만족하는 $n \times n$ 크기의 행렬 $B$가 존재한다. 이는 선형대수학 - 선형변환, 영공간, 치역의 정리6에 의해 $U(w_{j}) = \sum_{i = 1}^{n} B_{ij}v_{i}$를 만족하는 선형변환 $U \in \mathcal{L}(W, V)$가 존재한다는 의미이다. 이때, $\gamma = \{w_{1}, \dots, w_{n}\}$ 이고 $\beta = \{v_{1}, \dots, v_{n}\}$ 그리고 $[U]_{\gamma}^{\beta} = B$이다. 이때, $T^{-1} = U$임을 증명하기 위해서 아래와 같이 수식을 전개할 수 있다.
$$\begin{cases} &[UT]_{\beta} = [U]_{\gamma}^{\beta}[T]_{\beta}^{\gamma} = BA = I_{n} = [I_{V}]_{\beta} \\ &[TU]_{\gamma} = [T]_{\beta}^{\gamma} [U]_{\gamma}^{\beta} = AB = I_{n} = [I_{W}]_{\gamma} \end{cases}$$
따라서, $UT = I_{V}$이고 $TU = I_{W}$이므로 $T$는 가역변환이고 $U$는 $T$의 역변환이다.
따름정리2-1.
어떤 체 $\mathbf{F}$에 대한 유한순서기저 $\beta$를 갖는 벡터공간 $V$가 주어지고 $T : V \rightarrow V$를 선형이라고 하자. $T$가 가역변환인 것은 $[T]_{\beta}$이 가역행렬을 가지는 것과 동치이다. 또한, $[T^{-1}]_{\beta} = \left([T]_{\beta}\right)^{-1}$이다.
따름정리2-2.
행렬 $A$가 $n \times n$ 크기를 가진다고 하자. 행렬 $A$가 가역행렬인 것은 $L_{A}$가 가역변환인 것과 동치이다. 또한, $(L_{A})^{-1} = L_{A^{-1}}$이다.
정의3. 동형사상 (isomorphism)
어떤 체 $\mathbf{F}$에 대한 벡터공간 $V$와 $W$가 주어졌을 때, 변환 $T : V \rightarrow W$이 있다고 가정하자. 만약, $T$ 선형이고 가역이면 $V$와 $W$는 동형(isomorphic)이고 $T$는 동형사상(isomorphism)이라고 한다. 이때, $V \simeq W$로 표기한다.
Let $V$ and $W$ be a finite-dimensional vector spaces over a field $\mathbf{F}$. We say that $V$ is isomorphic to $W$ if there exists a linear transformation $T : V \rightarrow W$ that is invertible. Such a linear transformation is called isomorphism from $V$ into $W$.
설명
쉽게 생각하시면 동형이라는 것은 두 벡터공간 사이의 관계를 뜻하는 말이고 동형사상은 두 벡터공간이 동형일 때 가지는 선형변환을 의미합니다.
정리3.
어떤 체 $\mathbf{F}$에 대한 동형 유한차원 벡터공간 $V$와 $W$과 $\text{dim}(V) = \text{dim}(W)$는 동치이다.
$$V \simeq W \Longleftrightarrow \text{dim}(V) = \text{dim}(W)$$
증명
1). $(\Rightarrow)$ : $V \simeq W$, 그리고 $T : V \rightarrow W$를 동형사상이라고 하자. 그러면 $T$는 가역 선형변환이고 $V$와 $W$는 유한 크기의 벡터공간이기 때문에 정리3을 적용하면 $\text{dim}(V) = \text{dim}(W)$이다.
2). $(\Leftarrow)$ : $\text{dim}(V) = \text{dim}(W) = n$라고 가정하자. 따라서 $V$와 $W$의 기저 $\beta, \gamma$를 아래와 같이 표현할 수 있다.
$$\beta = \{v_{1}, \dots, v_{n}\}, \gamma = \{w_{1}, \dots, w_{n}\}$$
이때, 모든 $j$에 대해서 $T(v_{j}) = w_{j}$를 만족하는 변환 $T$가 존재하기 때문에 아래와 같이 쓸 수 있다.
$$R(T) = \text{span}(T(\beta)) = \text{span}(\gamma) = W$$
따라서 $T$는 전사변환다. 이때, $T$가 선형이기 때문에 $T$는 단사변환도 성립한다. 따라서 $T$는 $V$와 $W$의 동형사상이다.
따름정리3-1.
어떤 체 $\mathbf{F}$에 대한 유한차원 벡터공간 $V$가 주어졌을 때, $V$가 $\mathbf{F}^{n}$과 동형인 것은 $\text{dim}(V) = n$인 것과 동치이다.
정리4.
어떤 체 $\mathbf{F}$에 대한 유한차원 벡터공간 $V$와 $W$의 차원이 각각 $\text{dim}(V) = n$이고 $\text{dim}(W) = m$이라고 하자. 그리고 $\beta$와 $\gamma$가 각각 $V$와 $W$의 기저들이라고 하면 함수 $\Phi : \mathcal{L}(V, W) \rightarrow M_{m \times n}(\mathbf{F})$($\Phi(T) = [T]_{\beta}^{\gamma}$)는 동형사상이다.
$$\mathcal{L}(V, W) \simeq M_{m \times n}(\mathbf{F})$$
증명
$T : V \rightarrow W \in \mathcal{L}(V, W)$은 벡터공간 $V$와 $W$로 정의되는 임의의 선형변환을 의미하기 때문에 $\Phi$는 선형변환이다. 따라서 $\Phi$가 전단사함수임을 보이면 된다.
$V$와 $W$의 기저들을 각각 아래와 같이 정의한다.
$$\beta = \{v_{1}, \dots, v_{n}\}, \gamma = \{w_{1}, \dots, w_{m}\}$$
그리고 $A$를 $m \times n$ 크기를 가지는 임의의 행렬이라고 했을 때 $\Phi(T) = A$를 만족하는 $T$가 유일함을 보이면 $T$는 전단사함수이다. 한편, 모든 $j$에 대해서 $T(v_{j}) = w_{j}$를 만족하는 유일한 변환 $T : V \rightarrow W$가 존재하기 때문에 아래와 같이 쓸 수 있다.
$$T(v_{j}) = \sum_{i = 1} A_{ij}w_{i}$$
이것은 $[T]_{\beta}^{\gamma} = A$임을 의미하기 때문에 $\Phi$는 동형사상이다.
저희는 정리4가 어떤 의미인지 알아볼 필요가 있습니다. 두 벡터공간이 동형이라는 것은 두 벡터공간 사이에 정의된 선형변환이 가역변환이라는 것입니다. 정리4에서는 선형변환들을 모아놓은 벡터공간 $\mathcal{L}(V, W)$와 행렬들을 모아놓은 벡터공간 $M_{m \times n}(\mathbf{F})$가 서로 동형임을 보여주고 있습니다. 즉, 선형변환을 행렬로 변환할 수도 있지만, 행렬을 다시 선형변환으로 바꿀 수 있다는 것을 의미하죠!
따름정리4-1.
어떤 체 $\mathbf{F}$에 대한 유한차원 벡터공간 $V$와 $W$의 차원이 각각 $\text{dim}(V) = n$이고 $\text{dim}(W) = m$이라고 하자. $\mathcal{L}(V, W)$은 유한차원 $mn$을 갖는다.
정의4. 표준표현 (Standard Representation)
어떤 체 $\mathbf{F}$에 대한 $n$-차원 유한 벡터공간 $V$의 기저를 $\beta = \{v_{1}, \dots, v_{n}\}$라고 하자. $\beta$에 대한 $V$의 표준 표현(Standard Representation of $V$ with respect to $\beta$)는 함수 $\phi_{\beta} : V \rightarrow \mathbf{F}^{n}$이다. 이때, $\phi_{\beta}$는 아래와 같이 임의의 $x \in V$에 대해서 정의된다.
$$\phi_{\beta}(x) = [x]_{\beta}$$
Let $\beta$ be an ordered basis for an $n$-dimensional vector space $V$ over a field $\mathbf{F}$. The standard representation of $V$ with respect to $\beta$ is the function $\phi_{\beta} : V \rightarrow \mathbf{F}^{n}$ defined by $\phi_{\beta}(\mathbf{x}) = [\mathbf{x}]_{\beta}$ for each $\mathbf{x} \in V$.
설명
간단한 예시를 들어서 설명해보도록 하겠습니다. $\mathbb{R}^{2}$의 기저 $\beta = \{(1, 0), (0, 1)\}$ 그리고 $\gamma =\{(1, 2), (3, 4)\}$를 고려해보도록 하겠습니다. 예를 들어서 $x = (1, -2)$라고 하면 표준 표현은 아래와 같이 쓸 수 있습니다.
$$\phi_{\beta}(x) = [x]_{\beta} = \begin{bmatrix} 1 \\ -2 \end{bmatrix}\left(\Leftarrow \begin{bmatrix} 1 \\ -2 \end{bmatrix} = 1 \cdot \begin{bmatrix} 1 \\ 0 \end{bmatrix} + (-2) \cdot \begin{bmatrix} 0 \\ 1 \end{bmatrix}\right)$$
$$\phi_{\gamma}(x) = [x]_{\gamma} = \begin{bmatrix} -5 \\ 4 \end{bmatrix}\left(\Leftarrow \begin{bmatrix} 1 \\ -2 \end{bmatrix} = (-5) \cdot \begin{bmatrix} 1 \\ 2 \end{bmatrix} + 2 \cdot \begin{bmatrix} 3 \\ 4 \end{bmatrix}\right)$$
정리5.
어떤 체 $\mathbf{F}$에 대한 유한차원 벡터공간 $V$와 $W$의 차원이 각각 $\text{dim}(V) = n$이고 $\text{dim}(W) = m$이라고 하자. 그리고 $\beta, \gamma$에 대한 $V, W$의 표준 표현을 각각 $\phi_{\beta}, \phi_{\gamma}$라고 하자. 또한 $V$와 동형인 $\mathbf{F}^{n}$와 $W$와 동형인 $\mathbf{F}^{m}$을 고려했을 때 두 벡터공간 사이의 선형변환을 $L_{A} : \mathbf{F}^{n} \rightarrow \mathbf{F}^{m}$이라고 하면 아래의 식이 성립한다.
$$\phi_{\gamma} \circ T = L_{A} \circ \phi_{\gamma}$$
증명
정리5의 증명은 실제로 어떤 벡터를 넣어서 두 결과가 동일한 벡터가 나온다는 것을 보여주면 됩니다.
$$\begin{cases} &(\phi_{\gamma} \circ T)(v_{j}) = \phi_{\gamma}(T(v_{j})) = \phi\left(\sum_{i = 1}^{n} A_{ij}w_{i}\right) = Ae_{j} \\ &(L_{A} \circ \phi_{\beta})(v_{j}) = L_{A}(\phi_{\beta}(v_{j})) = L_{A}(e_{j}) = Ae_{j} \end{cases}$$
정리5를 그림으로 나타내면 아래와 같습니다.
참고문헌
Linear Algebra (Stephan. H)
'수학 > 선형대수학' 카테고리의 다른 글
선형대수학 - 쌍대공간 (0) | 2021.11.12 |
---|---|
선형대수학 - 좌표변환 행렬 (0) | 2021.11.10 |
선형대수학 - 선형변환 합성과 행렬곱 (0) | 2021.11.05 |
선형대수학 - 선형변환의 행렬표현 (0) | 2021.11.03 |
선형대수학 - 선형변환, 영 공간, 치역 (0) | 2021.11.01 |