안녕하세요. 지난 포스팅의 선형대수학 - 선형변환, 영 공간, 치역에서는 선형변환, 영 공간, 치역의 정의에 대해서 알아보았으며 어떤 체 $\mathbf{F}$에 대한 벡터공간 $V$와 $W$가 주어졌을 때, $T : V \rightarrow W$을 선형변환, $\text{dim}(V) < \infty$라고 할 때, $\text{dim}(V) = \text{nullity}(T) + \text{rank}(T)$라는 차원 정리(Dimension Theorem)를 증명해보았습니다. 물론, 차원 정리말고도 다양한 정리들을 보았지만 제가 생각했을 때는 이 정리가 가장 중요할 거 같네요. 오늘은 선형변환을 쉽게 다루기 위해서 행렬으로 표현하는 방법에 대해서 알아보도록 하겠습니다.
정의1. 순서기저 (ordered basis)
어떤 체 $\mathbf{F}$에 대한 벡터공간 $V$를 유한차원을 가진다고 하자. $V$에 대한 순서기저 (ordered basis)는 명확한 순서를 가지는 기저이다. 즉, 벡터공간 $V$의 순서기저는 $V$를 생성하는 유한한 순서를 가지는 선형독립인 $V$의 부분집합이다.
Let $V$ be a finite-dimensional vector space. An ordered basis for $V$ is a basis for $V$ endowed with a specific order; that is, an ordered basis for $V$ is finite sequence of linearly independent vectors in $V$ that generates $V$.
설명
순서기저는 기존의 기저에서 순서가 잘 정의된 집합이라고 생각하시면 됩니다. 예를 들어, 벡터공간 $\mathbf{F}^{n}$의 순서기저는 $\beta = \{e_{1}, e_{2}, \dots, e_{n}\}$이라고 할 수 있겠네요. 다른 예시로 $P_{n}(\mathbf{F})$의 순서기저는 기저벡터들의 차수를 기준으로 정렬하면 $\gamma = \{1, x, x^{2}, \dots, x^{n}\}$이 됩니다. 특히, $\beta$와 $\gamma$는 벡터공간 $\mathbf{F}^{n}$과 $P_{n}(\mathbf{F})$의 표준기저이므로 특별히 표준순서기저 (standard ordered basis)라고 합니다.
정의2. 좌표 벡터(Coordinate Vector)
어떤 체 $\mathbf{F}$에 대한 벡터공간 $V$와 $W$가 주어졌을 때, 선형변환 $T : V \rightarrow W$와 벡터공간 $V$의 기저 $\beta = \{\mathbf{v}_{1}, \mathbf{v}_{2}, \dots, \mathbf{v}_{n}\}$이 주어졌다고 하자. 만약, $\mathbf{v} \in V$라면 $a_{1}, a_{2}, \dots, a_{n} \in \mathbf{F}$ 이고 선형결합 $\mathbf{v} = a_{1}\mathbf{v}_{1} + a_{2}\mathbf{v}_{2} + \cdots + a_{n}\mathbf{v}_{n}$로 표현할 수 있다고 할 때, $\mathbf{a} = \begin{bmatrix} a_{1} \\ a_{2} \\ \vdots \\ a_{n}\end{bmatrix}$을 기저 $\beta$에 대한 벡터공간 $V$의 좌표 벡터(Coordinate Vector of $V$ relative to $\beta$)라고 하고 $\mathbf{a} = \left[\mathbf{v}\right]_{\beta}$라고 표시한다.
Let $\beta = \{u_{1}, \dots, u_{n}\}$ be an ordered basis for a finite-dimensional vector space $V$. For $\mathbf{x} \in V$, let $a_{1}, \dots, a_{n} \in \mathbf{F}$ be unique scalars such that
$$\mathbf{x} = \sum_{i = 1}^{n} a_{i}u_{i} = a_{1}u_{1} + a_{2}u_{2} + \cdots + a_{n}u_{n}$$
We define the coordinate vector of $\mathbf{x}$ relative to $\beta$, denoted $\left[ x \right]_{\beta}$, by
$$\left[ x \right]_{\beta} = \begin{bmatrix} a_{1} \\ a_{2} \\ \vdots \\ a_{n} \end{bmatrix}$$
설명
가장 직관적인 예시로 $\mathbf{F}^{n}$의 순서표준기저 $\beta = \{e_{1}, \dots, e_{n}\}$을 보도록 하겠습니다. 그리고 $e_{1}$의 $\beta$에 대한 벡터공간 $\mathbf{F}^{n}$의 좌표벡터는 $e_{1} = 1 \cdot e_{1}$이기 때문에 아래와 같죠.
$$\left[e_{1}\right]_{\beta} = \begin{bmatrix} 1 \\ 0 \\ \vdots \\ 0 \end{bmatrix} = e_{1}$$
다른 예시를 들어보도록 하겠습니다. $V = \mathbb{R}^{2}$라고 가정하고 $\beta_{1} = \{(1, 0), (0, 1)\}$($\beta_{1}$이 왜 기저인지는 쉽게 알 수 있겠죠?), $\mathbf{v} = (3, 5)$라고 할 때 $(3, 5) = 3 \cdot (1, 0) + 5 \cdot (0, 1)$이기 때문에 $[\mathbf{v}]_{\beta_{1}} = \begin{bmatrix} 3 \\ 5\end{bmatrix}$가 됩니다. 즉, 벡터공간에서의 임의의 점은 기저를 통해서 표현할 수 있으며 기저 $\beta$에 따라서 $[\mathbf{v}]_{\beta}$가 바뀐다는 것을 알 수 있습니다.
예제1. $\beta_{2} = \{(1, 1), (0, 1)\}$일 때, $[\mathbf{v}]_{\beta_{2}}$를 구하여라.
$(3, 5) = 3 \cdot (1, 1) + 2 \cdot (0, 1)$이기 때문에 $[\mathbf{v}]_{\beta_{2}} = \begin{bmatrix} 3 \\ 2\end{bmatrix}$이다.
정의3. 선형변환의 행렬표현(The Matrix Representation of Linear Transformation)
어떤 체 $\mathbf{F}$에 대한 벡터공간 $V$와 $W$가 주어졌을 때, 선형변환 $T : V \rightarrow W$와 $\beta, \gamma$를 각각 벡터공간 $V, W$의 기저들이라고 하자. 이때, 각 벡터공간의 차원은 $\text{dim}(V) = n, \text{dim}(W) = m$이다. 그러면 우리는 선형변환 $T$를 아래와 같이 행렬로 표현할 수 있다.
$$[T]_{\beta}^{\gamma} = \begin{bmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ \vdots & \vdots & \cdots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn}\end{bmatrix} \in \mathbb{R}^{m \times n}$$
이때, $[T]_{\beta}^{\gamma}$의 $j$번째 열은 $[T(\mathbf{v}_{j})]_{\gamma} = \sum_{i = 1}^{m} a_{ij}w_{i}$이다.
Suppose that $V$ and $W$ are finite-dimensional vector space over $\mathbf{F}$ with ordered basis $\beta = \{u_{1}, \dots, u_{n}\}$, and $\gamma = \{w_{1}, \dots, w_{m}\}$, respectively. Let $T : V \rightarrow W$ be linear. Then, for each $1 \le j \le n$, there exist unique scalars $a_{ij} \in \mathbf{F}$ such that
$$T(u_{j}) = \sum_{i = 1}^{m} a_{ij}w_{i} = a_{1j}w_{1} + a_{2j}w_{2} + \cdots + w_{mj}w_{m}$$
for each $1 \le i \le m$. Using this notation, we call the $m \times n$ matrix $A$ defined by $A_{ij} = a_{ij}$ the matrix representation of $T$ in ordered basis $\beta$ and $\gamma$, and write $A = \left[ T \right]_{\beta}^{\gamma}$. If $V = W$ and $\beta = \gamma$, then we write $A = [T]_{\beta}$.
설명
예를 들어 선형변환 $T : \mathbb{R}^{2} \rightarrow \mathbb{R}^{3}$를 아래와 같이 정의해보도록 하겠습니다.
$$T(a_{1}, a_{2}) = (a_{1} + 3a_{2}, -2a_{1}, -4a_{2})$$
그리고 $\beta = \{(1, 0), (0, 1)\}, \gamma = \{(1, 0, 0), (0, 1, 0), (0, 0, 1)\}$으로 표준 기저라고 하도록 하겠습니다. 그러면 저희는 $V$의 표준기저 $\beta$를 선형변환시키면 아래와 같이 변환됩니다.
$$T((1, 0)) = (1, -2, 0) = 1 \cdot (1, 0, 0) + (-2) \cdot (0, 1, 0) + 0 \cdot (0, 0, 1)$$
$$T((0, 1)) = (3, 0, -4) = 3 \cdot (1, 0, 0) + 0 \cdot (0, 1, 0) + (-4) \cdot (0, 0, 1)$$
따라서 정의에 의해 선형변환 $T$는 아래와 같이 행렬로 표현될 수 있습니다.
$$[T]_{\beta}^{\gamma} = \begin{bmatrix} 1 & 3 \\ -2 & 0 \\ 0 & -4\end{bmatrix} \in \mathbb{R}^{3 \times 2}$$
즉, 저희가 어떤 선형변환 $T$를 행렬로 표현하고 싶다면 $V$와 $W$의 표준 기저를 고려하고 $V$의 $j$번째 기저의 $T$에 의한 변환을 $j$번째 열로 적으면 됩니다.
예제2. 선형변환 $T : P_{3} \rightarrow P_{2}$를 $T(f(x)) = f^{'}(x)$와 같이 정의할 때, $P_{3}$와 $P_{2}$의 표준기저 $\beta, \gamma$에 대한 선형변환 $T$의 행렬표현을 찾으시오.
$P_{3}$의 표준기저 $\beta = \{1, x, x^{2}, x^{3}\}$, $P_{2}$의 표준기저 $\gamma = \{1, x, x^{2}\}$에 대한 선형변환 $T$의 행렬표현을 찾기 위해 $\beta$를 선형변환에 적용한다.
$$\begin{align*} T(1) &= 0 = 0 \cdot 1 + 0 \cdot x + 0 \cdot x^{2} \\ T(x) &= 1 = 1 \cdot 1 + 0 \cdot x + 0 \cdot x^{2} \\ T(x^{2}) &= 2x = 0 \cdot 1 + 2 \cdot x + 0 \cdot x^{2} \\ T(x^{3}) &= 3x^{2} = 0 \cdot 1 + 0 \cdot x + 3 \cdot x^{2}\end{align*}$$
따라서 정의에 의해 선형변환 $T$는 아래와 같이 행렬로 표현된다.
$$[T]_{\beta}^{\gamma} = \begin{bmatrix} 0 & 1 & 0 & 0\\ 0 & 0 & 2 & 0\\ 0 & 0 & 0 & 3\end{bmatrix} \in \mathbb{R}^{3 \times 4}$$
지금까지 저희는 선형변환 $T$를 행렬로 표현하는 방법에 대해서 알아보았습니다. 따라서, 앞으로 선형변환에 대한 다양한 성질을 더 깊게 알기위해서는 행렬의 특성을 분석하면 된다는 것으로 결론을 내릴 수 있습니다. 이번에는 조금 주제를 바꾸어서 재밌는 결론을 내리기 위해 두 선형변환이 주어졌을 때 합과 스칼라 곱을 정의해보도록 하겠습니다.
정의4. 선형변환 간의 합과 스칼라곱
어떤 체 $\mathbf{F}$에 대한 벡터공간 $V$와 $W$가 주어졌을 때, 선형변환 $T, U : V \rightarrow W$를 정의한다. 그리고 $a \in \mathbf{F}$라고 하자. 우리는 $T + U : V \rightarrow W$와 $aT : V \rightarrow W$를 $\mathbf{x} \in V$에 대해서 각각 $(T + U)(\mathbf{x}) = T(\mathbf{x}) + U(\mathbf{x})$ 그리고 $(aT)(\mathbf{x}) = aT(\mathbf{x})$라고 정의한다.
Let $T, U : V \rightarrow W$ be any functions, where $V$ and $W$ are vector spaces over $\mathbf{F}$ and let $a \in \mathbf{F}$. We define $T + U : V \rightarrow W$ and $aT : V \rightarrow W$ by $(T + U)(\mathbf{x}) = T(\mathbf{x}) + U(\mathbf{x})$ and $(aT)(\mathbf{x}) = aT(\mathbf{x})$ for each $\mathbf{x} \in V$.
정리1.
어떤 체 $\mathbf{F}$에 대한 벡터공간 $V$와 $W$가 주어졌을 때, 선형변환 $T : V \rightarrow W$와 $U : V \rightarrow W$를 고려하면 $T + U$와 $aT$ 역시 선형변환이다.
증명
두 선형변환의 합과 스칼라 곱이 선형변환임을 증명해야합니다. 선형대수학 - 선형변환, 영공간, 치역의 정의1을 숙지하시길 바랍니다.
임의의 두 벡터 $\mathbf{x}, \mathbf{y} \in V$와 스칼라 $c \in \mathbf{F}$를 선택한다. 두 개의 선형변환 $T + U$와 $aT$이 선형변환임을 증명하는 것은 $aT + U$가 선형변환임을 증명하는 것과 동치이다. 이때, 선형변환의 합과 스칼라 곱은 정의1을 이용한다.
$$\begin{align*} (aT + U)(c\mathbf{x} + \mathbf{y}) &= (aT)(c\mathbf{x} + \mathbf{y}) + U(a\mathbf{x} + \mathbf{y}) \\ &= aT(c\mathbf{x} + \mathbf{y}) + U(c\mathbf{x} + \mathbf{y}) \\ &= a(cT(\mathbf{x}) + T(\mathbf{y})) + (cU(\mathbf{x}) + U(\mathbf{y})) \\ &= acT(\mathbf{x}) + aT(\mathbf{y}) + cU(\mathbf{x}) + U(\mathbf{y}) \\ &= c(aT + U)(\mathbf{x}) + (aT + U)(\mathbf{y})\end{align*}$$
$(aT + U)(c\mathbf{x} + \mathbf{y}) = c(aT + U)(\mathbf{x}) + (aT + U)(\mathbf{y})$이므로 $T + U$와 $aT$는 선형변환이다.
정의4. 선형변환들의 집합
$V$와 $W$를 어떤 체 $\mathbf{F}$에 대한 벡터공간이라고 하자. 우리는 $V$에서 $W$로의 모든 선형변환의 집합을 $\mathcal{L}(V, W)$라고 표기하고, $V = W$이면 $\mathcal{L}(V)$라고 쓴다.
Let $V$ be vector spaces over $\mathbf{F}$. We denote the vector space of all linear transformations from $V$ into $W$ by $\mathcal{L}(V, W)$. In the case of $V = W$, we write $\mathcal{L}(V)$.
정리2.
어떤 체 $\mathbf{F}$에 대한 벡터공간 $V$와 $W$가 주어졌을 때, $V$에서 $W$로의 모든 선형변환을 하나로 모은 집합 $\mathcal{L}(V, W)$은 벡터공간이다.
설명
정리1을 통해서 정리2는 사실상 따름정리급으로 쉽게 증명될 수 있습니다. 증명은 생략하고 의미를 파헤쳐보도록 하죠. 저희는 지금까지 벡터공간과 그 원소인 벡터에 대해서 중점적으로 다루었습니다. 직관적으로 벡터임을 알 수 있었던 $n$-튜플부터 행렬, 다항식들의 모임도 결국 벡터공간을 이룬다는 것을 알았죠. 정리2는 더욱 확장하여 지금까지 보았던 선형변환 자체가 하나의 벡터로써 활용될 수 있음을 의미합니다. 이는 굉장히 중요한 내용입니다. 왜냐하면 저희가 알고있었던 벡터의 개념과 아주 다르기 때문이죠. 물리량이라 던가 $n$-튜플과는 다릅니다. 즉, 선형대수학에서 말하는 벡터라는 것은 단순히 벡터공간의 원소를 의미한다는 것이죠. 이러한 개념적 추상화 과정을 통해 보다 추상적인 수학개념들을 받아들이게 됩니다. 따라서 저희가 앞으로 기억해야할 것은 선형변환은 벡터로써 작용할 수 있다! 라는 것이죠.
정리3.
$V$와 $W$를 어떤 체 $\mathbf{F}$에 대한 벡터공간 그리고 $\beta$와 $\gamma$를 각각 벡터공간 $V$와 $W$의 순서기저라고 하자. 또한, $T, U : V \rightarrow W$가 선형변환이면 아래의 식이 성립한다.
(a). $[T + U]_{\beta}^{\gamma} = [T]_{\beta}^{\gamma} + [U]_{\beta}^{\gamma}$
(b). 모든 $a \in \mathbf{F}$에 대해서 $[aT]_{\beta}^{\gamma} = a[T]_{\beta}^{\gamma}$
증명
정리3는 정의3을 활용하면 쉽게 증명할 수 있습니다.
$\beta = \{u_{1}, \dots, u_{n}\}$과 $\gamma = \{w_{1}, \dots, w_{m}\}$을 각 벡터공간 $V$와 $W$의 순서기저라고 하자. 정의3에 의해서 $1 \le i \le m$ 그리고 $1 \le j \le n$에 대해 아래의 식을 만족하는 유일한 스칼라 $a_{ij}, b_{ij} \in \mathbf{F}$가 존재한다.
$$T(u_{j}) = \sum_{i = 1}^{m} a_{ij}w_{i}$$
$$U(u_{j}) = \sum_{i = 1}^{m} b_{ij}w_{i}$$
따라서, $(T + U)(u_{j}) = T(u_{j}) + U(u_{j}) = \sum_{i = 1}^{m} a_{ij}w_{i} + \sum_{i = 1}^{m} b_{ij}w_{i} = \sum_{i = 1}^{m} (a_{ij} + b_{ij})w_{i}$를 만족한다. 정의3에 의해 $([T + U]_{\beta}^{\gamma})_{ij} = a_{ij} + b_{ij} = ([T]_{\beta}^{\gamma})_{ij} + ([U]_{\beta}^{\gamma})_{ij}$이다. $aT$ 역시 (a)와 동일한 방법으로 증명할 수 있다.
참고문헌
Linear Algebra (Stephan. H)
'수학 > 선형대수학' 카테고리의 다른 글
선형대수학 - 역변환과 동형사상 (2) | 2021.11.08 |
---|---|
선형대수학 - 선형변환 합성과 행렬곱 (0) | 2021.11.05 |
선형대수학 - 선형변환, 영 공간, 치역 (0) | 2021.11.01 |
선형대수학 - 기저와 차원 (0) | 2021.10.28 |
선형대수학 - 선형 종속과 독립 (0) | 2021.10.26 |