안녕하세요. 지난 포스팅의 선형대수학 - 선형변환의 행렬표현에서는 어떤 체 $\mathbf{F}$에 대한 벡터공간 $V$와 $W$가 주어졌을 때, 선형변환 $T : V \rightarrow W$와 $\beta, \gamma$를 각각 벡터공간 $V, W$의 기저들이라고 하면 선형변환 $T$를 $[T]_{\beta}^{\gamma}$로 표현하는 방법에 대해서 알아보았습니다. 오늘은 합성함수와 같이 여러 개의 선형변환을 적용했을 때 어떤 식으로 표현할 수 있는 지와 이것이 행렬곱과 관련해서 어떤 관계를 가지는 지 알아보도록 하겠습니다. 이를 위해서 필요한 몇 가지 정리들부터 확인하고 넘어가도록 하겠습니다.
정리1.
어떤 체 $\mathbf{F}$에 대한 벡터공간 $V$와 $W$, $Z$에 대한 선형변환 $T : V \rightarrow W$와 $U : W \rightarrow Z$가 주어졌다고 가정하면 $UT : T \rightarrow Z$는 선형변환이다.
증명
두 선형변환의 합성이 선형변환임을 보여야합니다. 따라서, 선형변환의 정의를 정확히 알고 있어야겠죠? 선형대수학 - 선형변환, 영공간, 치역의 정의1와 Remark1을 참조해주시길 바랍니다.
$UT : V \rightarrow Z$가 선형변환임을 증명하기 위해서 임의의 $\mathbf{x}, \mathbf{y} \in V$와 $a \in \mathbf{F}$에 대해서 $UT(a\mathbf{x} + \mathbf{y}) = aUT(\mathbf{x}) + UT(\mathbf(y))$임을 보이면 된다.
$$\begin{align*} UT(a\mathbf{x} + \mathbf{y}) &= U\left(T(a\mathbf{x} + \mathbf{y})\right) \\ &= U(aT(\mathbf{x}) + T(\mathbf{y})) \\ &= aU(T(\mathbf{x})) + U(T(\mathbf{y})) = aUT(\mathbf{x}) + UT(\mathbf{y}) \end{align*}$$
정리2.
어떤 체 $\mathbf{F}$에 대한 벡터공간 $V$에 대한 임의의 선형변환 $T, U_{1}, U_{2} \in \mathcal{L}(V)$는 아래의 성질들을 만족한다.
1). $T(U_{1} + U_{2}) = TU_{1} + TU_{2}$ 이고 $(U_{1} + U_{2})T = U_{1}T + U_{2}T$
2). $T(U_{1}U_{2}) = (TU_{1})U_{2}$
3). $IT = TI = T$
4). 모든 $a \in \mathbf{F}$에 대해서 $a(U_{1}U_{2}) = (aU_{1})U_{2} = U_{1}(aU_{2})$이다.
증명
정리2는 기본적으로 두 선형변환이 동일함을 증명해야합니다. 그런데 여기서 선형대수학 -선형변환, 영공간, 치역의 따름정리6-1을 적용하기 위해 벡터공간 $V$의 기저를 잡아서 증명해볼 수도 있지만, 더 간단하게 벡터공간 $V$의 임의의 벡터를 선택했을 때 두 선형변환의 결과가 동일하다면 두 선형변환은 같다고도 볼 수 있겠죠? 이를 이용해서 증명해보도록 하겠습니다.
임의의 벡터 $\mathbf{x} \in V$를 선택한다.
1). $T(U_{1} + U_{2}) = TU_{1} + TU_{2}$ 이고 $(U_{1} + U_{2})T = U_{1}T + U_{2}T$
$$\begin{align*} (T(U_{1} + U_{2}))(\mathbf{x}) &= T((U_{1} + U_{2})(\mathbf{x})) \\ &= T(U_{1}(\mathbf{x}) + U_{2}(\mathbf{x})) \\ &= T(U_{1}(\mathbf{x})) + T(U_{2}(\mathbf{x})) \\ &= (T(U_{1}))(\mathbf{x}) + (T(U_{2}))(\mathbf{x}) \\ &= (TU_{1} + TU_{2})(\mathbf{x}) \end{align*}$$
따라서, $T(U_{1} + U_{2}) = TU_{1} + TU_{2}$이다. $(U_{1} + U_{2})T = U_{1}T + U_{2}T$ 역시 동일한 방법으로 증명할 수 있다.
2). $T(U_{1}U_{2}) = (TU_{1})U_{2}$
$$\begin{align*} (T(U_{1}U_{2}))(\mathbf{x}) &= T((U_{1}U_{2})(\mathbf{x})) \\ &= T(U_{1}(U_{2}(\mathbf{x}))) \\ &= TU_{1}(U_{2}(\mathbf{x})) \\ &= (T(U_{1}))(U_{2}(\mathbf{x})) \\ &= ((TU_{1})U_{2})(\mathbf{x}) \end{align*}$$
따라서, $T(U_{1}U_{2}) = (TU_{1})U_{2}$이다.
3). $IT = TI = T$
$$\begin{align*} (TI)(\mathbf{x}) &= T(I(\mathbf{x})) \\ &= T(\mathbf{x}) \\ &= I(T(\mathbf{x})) \\ &= (IT)(\mathbf{x}) \end{align*}$$
따라서, $IT = TI = T$이다.
4). 모든 $a \in \mathbf{F}$에 대해서 $a(U_{1}U_{2}) = (aU_{1})U_{2} = U_{1}(aU_{2})$이다.
$$\begin{align*} (aU_{1}U_{2})(\mathbf{x}) &= a(U_{1}(U_{2}(\mathbf{x}))) \\ &= (aU_{1})(U_{2}(\mathbf{x})) \\ &=((aU_{1})U_{2})(\mathbf{x}) \end{align*}$$
따라서, $a(U_{1}U_{2}) = (aU_{1})U_{2}$이다.
$$\begin{align*} (aU_{1}U_{2})(\mathbf{x}) &= a(U_{1}(U_{2}(\mathbf{x}))) \\ &= U_{1}(aU_{2}(\mathbf{x})) \\ &=(U_{1})(aU_{2})(\mathbf{x}) \end{align*}$$
따라서, $a(U_{1}U_{2}) = U_{1}(aU_{2})$이다.
정의1. 행렬곱 (Matrix Product)
행렬 $A$와 $B$를 각각 $m \times n$ 그리고 $n \times p$ 크기를 가지는 행렬이라고 하자. 두 행렬 $A$와 $B$의 곱 $AB$은 $n \times p$의 크기를 가지고 각 성분이 아래와 같이 정의된다.
$$(AB)_{ij} = \sum_{k = 1}^{n} A_{ik}B_{kj}$$
이때, $1 \le i \le m$이고 $1 \le j \le p$이다.
Let $A$ be $m \times n$ matrix and $B$ be $n \times p$ matrix. We define the product of $A$ and $B$, denoted $AB$, to be the $n \times p$ matrix such that
$$(AB)_{ij} = \sum_{k = 1}^{n} A_{ik}B_{kj}$$
for $1 \le i \le m$ and $1 \le j \le p$.
설명
지난 포스팅에서 저희는 선형변환은 정의역의 기저와 공역의 기저만 정해지면 행렬로 표현할 수 있음을 알게 되었습니다. 또한, 두 선형변환의 합은 곧 두 행렬의 합이고, 스칼라곱은 행렬의 스칼라곱으로 대응되는 것도 보았습니다. 그렇다면 두 선형변환의 합성은 어떻게 행렬로 어떻게 표현할 수 있을까요? 이를 정의하기 위해 어떤 체 $\mathbf{F}$에 대한 벡터공간 $V$와 $W, Z$에 대한 선형변환 $T : V \rightarrow W$와 $U : W \rightarrow Z$이 주어졌다고 가정하겠습니다. 또한, 각 선형변환들의 행렬표현이 $\left[T\right]_{\beta}^{\gamma} = A$ 그리고 $\left[U\right]_{\gamma}^{\alpha} = B$이라고 하겠습니다. 이때, $\alpha = \{v_{1}, \dots, v_{n}\}$, $\beta = \{w_{1}, \dots, w_{m}\}$ 그리고$\gamma = \{z_{1}, \dots, z_{p}\}$들이 각 벡터공간 $V, W, Z$의 순서기저라고 하겠습니다. 그러면 저희는 $[UT]_{\alpha}^{\gamma}$를 어떻게 행렬로 표현할 수 있을까요? 이를 위해서는 행렬표현의 정의를 충실히 적용해주면 됩니다. $1 \le j \le n$에 대해서 기저 $v_{j}$를 합성된 선형변환 $UT$를 적용해보겠습니다.
$$\begin{align*} (UT)(v_{j}) &= U(T(v_{j})) \\ &= U(\sum_{k = 1}^{m} B_{kj}w_{k}) \\ &= \sum_{k = 1}^{m} B_{kj} U(w_{k}) \\ &= \sum_{k = 1}^{m} B_{kj}\left( \sum_{i = 1}^{p} A_{ik}z_{i} \right) \\ &= \sum_{i = 1}^{p} \left( \sum_{k =1}^{m} A_{ik}B_{kj} \right) z_{i} \end{align*}$$
이제부터 $C_{ij} = \sum_{k = 1}^{m} A_{ik}B_{kj} = A_{i1}B_{1j} + \cdots + A_{im}B_{mj}$라고 쓰겠습니다. 그리고 이 결과가 바로 두 선형변환을 합성했을 때 행렬로 표현해서 얻을 수 있는 행렬입니다. 또한 이는 저희가 많이보았던 행렬의 곱이죠. 즉, "선형변환의 합성은 행렬의 곱과 대응된다"입니다.
행렬곱의 정의를 이용하면 저희는 전치행렬의 성질인 $(AB)^{t} = B^{t}A^{t}$를 증명할 수 있습니다.
$$\begin{align*} (AB)_{ij}^{t} &= (AB)_{ji} \\ &= \sum_{k = 1}^{n} A_{jk}B_{ki} \\ &= \sum_{k = 1}^{n} B_{ki}A_{jk} \\ &= \sum_{k = 1}^{m} (B^{t})_{ik}(A^{t})_{kj} \\ &= (B^{t}A^{t})_{ij} \end{align*}$$
예제1. 행렬 $A = \begin{bmatrix} 1 & 2 & 1 \\ 0 & 4 & - 1\end{bmatrix}, B = \begin{bmatrix} 4 \\ 2 \\ 5 \end{bmatrix}$의 행렬곱 $AB$을 계산하라.
$$\begin{align*} AB &= \begin{bmatrix} 1 & 2 & 1 \\ 0 & 4 & -1 \end{bmatrix} \cdot \begin{bmatrix} 4 \\ 2 \\ 5 \end{bmatrix} \\ &= \begin{bmatrix} 1 \cdot 4 + 2 \cdot 2 + 1 \cdot 5 \\ 0 \cdot 4 + 4 \cdot 2 + (-1) \cdot 5 \end{bmatrix} \\ &= \begin{bmatrix} 13 \\ 5 \end{bmatrix}\end{align*}$$
행렬곱의 중요한 성질 중 하나는 항상 $AB = BA$는 만족하지 않는다는 점입니다. 이는 간단한 반례로 $A = \begin{bmatrix} 1 & 1 \\ 0 & 0 \end{bmatrix}$ 그리고 $B = \begin{bmatrix} 0 & 1 \\ 1 & 0 \end{bmatrix}$를 통해 설명가능합니다.
$$\begin{align*} AB = \begin{bmatrix} 1 & 1 \\ 0 & 0\end{bmatrix} \begin{bmatrix} 0 & 1 \\ 1 & 0 \end{bmatrix} = \begin{bmatrix} 1 & 1 \\ 0 & 0 \end{bmatrix}\end{align*}$$
$$\begin{align*} BA = \begin{bmatrix} 0 & 1 \\ 1 & 0\end{bmatrix} \begin{bmatrix} 1 & 1 \\ 0 & 0 \end{bmatrix} = \begin{bmatrix} 0 & 0 \\ 1 & 1 \end{bmatrix}\end{align*}$$
따라서, $(A + B)^{2} = A^{2} + 2AB + B^{2}$이라고 할 수 없습니다. 교환법칙이 성립된다는 보장이 없는 한 $(A + B)^{2} = A^{2} + AB + BA + B^{2}$과 같이 써야겠죠.
여기서 선형변환의 합성은 행렬의 곱과 대응된다는 명제를 명확하게 정리로 작성하면 아래와 같습니다.
정리3.
$V, W, Z$를 각각 순서기저 $\alpha, \beta, \gamma$로 유한차원의 벡터공간이라고 하자. 그리고 $T : V \rightarrow W$ 그리고 $U : W \rightarrow Z$가 선형변환이라고 할 때 $\left[UT\right]_{\alpha}^{\gamma} = [U]_{\beta}^{\gamma}[T]_{\alpha}^{\beta} = AB$가 성립한다.
따름정리3-1.
$V$를 순서기저 $\beta$로 유한차원의 벡터공간이라고 하자. $T, U \in \mathcal{L}(V)$라고 하면 $\left[UT\right]_{\beta} = [U]_{\beta}[T]_{\beta}$가 성립한다.
명확한 예시를 하나 들어보도록 하겠습니다. 만약, 어떤 다항함수를 적분을 취한 뒤 그대로 미분을 취하면 어떻게 될까요? 정답은 입력과 동일한 다항함수가 나올 것입니다. 즉, $U : P_{3}(\mathbb{R}) \rightarrow P_{2}(\mathbb{R})$과 $T : P_{2}(\mathbb{R}) \rightarrow P_{3}(\mathbb{R})$을 각각 $U(f(x)) = f^{'}(x)$ 그리고 $T(f(x)) = \int_{0}^{x} f(t) \; dt$로 정의한다고 하겠습니다. 그러면 $(UT)(f(x)) = f(x)$가 나와야겠죠. 따라서, $UT = I_{P_{2}(\mathbb{R})}$가 되어야합니다.
설명
여기서 선형변환 $U$와 $T$의 행렬표현식을 구하기 위해 $P_{3}(\mathbb{R})$과 $P_{2}(\mathbb{R})$의 기저를 각각 $\alpha = \{1, x, x^{2}, x^{3}\}$와 $\beta = \{1, x, x^{2}\}$라고 하겠습니다. 그러면 $U$의 행렬표현식부터 구해보도록 하죠.
$$\begin{align*} &U(1) = 0 = 0 \cdot 1 + 0 \cdot x + 0 \cdot x^{2} \\ &U(x) = 1 = 1 \cdot 1 + 0 \cdot x + 0 \cdot x^{2} \\ &U(x^{2}) = 2x = 0 \cdot 1 + 2 \cdot x + 0 \cdot x^{2} \\ &U(x^{3}) = 3x^{2} = 0 \cdot 1 + 0 \cdot x + 3 \cdot x^{2} \end{align*}$$
따라서, $[U]_{\alpha}^{\beta} = \begin{bmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 2 & 0 \\ 0 & 0 & 0 & 3 \end{bmatrix}$입니다. 다음으로 $T$의 행렬표현식도 구해보겠습니다.
$$\begin{align*} &T(1) = x = 0 \cdot 1 + 1 \cdot x + 0 \cdot x^{2} + 0 \cdot x^{3} \\ &T(x) = \frac{1}{2}x^{2} = 0 \cdot 1 + 0 \cdot x + \frac{1}{2} \cdot x^{2} + 0 \cdot x^{3} \\ &T(x^{2}) = \frac{1}{3}x^{2} = 0 \cdot 1 + 0 \cdot x + \frac{1}{3} \cdot x^{2} + 0 \cdot x^{3} \end{align*}$$
따라서, $[T]_{\beta}^{\alpha} = \begin{bmatrix} 0 & 0 & 0 \\ 1 & 0 & 0 \\ 0 & \frac{1}{2} & 0 \\ 0 & 0 & \frac{1}{3} \end{bmatrix}$입니다. 여기서, 두 행렬의 합성변환은 항등행렬이기 때문에 $[UT]_{\beta} = \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{bmatrix}$이 나와야겠죠? 실제로 두 선형변환의 행렬표현식을 곱해보도록 하겠습니다.
$$\begin{align*} [U]_{\alpha}^{\beta}[T]_{\beta}^{\alpha} = \begin{bmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 2 & 0 \\ 0 & 0 & 0 & 3 \end{bmatrix} \begin{bmatrix} 0 & 0 & 0 \\ 1 & 0 & 0 \\ 0 & \frac{1}{2} & 0 \\ 0 & 0 & \frac{1}{3} \end{bmatrix} = \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{bmatrix} = [UT]_{\beta} \end{align*}$$
즉, $[UT]_{\beta} = [U]_{\alpha}^{\beta}[t]_{\beta}^{\alpha}$임을 알 수 있죠!
정의3. 항등행렬 (identity matrix)
크로네커 델타 함수(Kronecker Delta Function) $\delta_{ij}$를 아래와 같이 정의하자.
$$\delta_{ij} = \begin{cases} 1 \text{ if } i = j \\ 0 \text{ if } i \neq j\end{cases}$$
그러면, $n \times n$ 항등행렬(Identity Matrix) $I_{n}$는 크로네커 델타 함수 $\delta_{ij}$를 통해 아래와 같이 정의된다.
$$\left(I_{n}\right)_{ij} = \delta_{ij}$$
We define the kroneker-delta $\delta_{ij} = 1$ if $i = j$ and $\delta_{ij} = 0$ if $i \neq j$. Then, $n \times n$ identity matrix $I_{n}$ is defined by $(I_{n})_{ij} = \delta_{ij}$
설명
항등행렬의 예시는 아래와 같습니다.
$$I_{1} = \begin{bmatrix} 1 \end{bmatrix}$$
$$I_{2} = \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix}$$
$$I_{3} = \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{bmatrix}$$
즉, 주대각성분은 1이고 나머지 성분은 전부 0 인 행렬을 의미하죠. 항등행렬은 앞으로 중요한 행렬이기 때문에 꼭 기억해주시길 바랍니다.
정리4.
행렬 $A$를 $m \times n$, $B$와 $C$를 $n \times p$, $D$와 $E$를 $q \times m$ 크기의 행렬이라고 하자.
1). $A(B + C) = AB + AC$이고 $(D + E)A = DA + EA$이다.
2). 임의의 스칼라 $a$에 대해서 $a(AB) = (aA)B = A(aB)$이다.
3). $I_{m}A = A = AI_{n}$
4). $V$를 기저 $\beta$를 가지는 $n$-차원의 벡터공간이라고 하면 $[I_{V}]_{\beta} = I_{n}$이다.
증명
지금까지 배웠던 행렬곱의 정의를 활용하면 쉽게 증명할 수 있습니다.
1). $A(B + C) = AB + AC$이고 $(D + E)A = DA + EA$이다.
$$\begin{align*} [A(B + C)]_{ij} &= \sum_{k = 1}^{n} A_{ik}(B + C)_{kj} \\ &= \sum_{k = 1}^{n} A_{ik}(B_{kj} + C_{kj}) \\ &= \sum_{k = 1}^{n} (A_{ik}B_{kj} + A_{ik}C_{kj}) \\ &= \sum_{k = 1}^{n} A_{ik}B_{kj} + \sum_{k = 1}^{n} A_{ik}C_{kj} = [AB]_{ij} + [AC]_{ij} \end{align*}$$
따라서, $A(B + C) = AB + AC$이다. $(D + E)A = DA + EA$는 동일한 방법으로 증명할 수 있다.
2). 임의의 스칼라 $a$에 대해서 $a(AB) = (aA)B = A(aB)$이다.
$$\begin{align*} [a(AB)]_{ij} &= \sum_{k = 1}^{n} a(A_{ik}B_{kj}) \\ &= \sum_{k = 1}^{n} (aA)_{ik}B_{kj} = [(aA)B]_{ij} \end{align*}$$
$$\begin{align*} [a(AB)]_{ij} &= \sum_{k = 1}^{n} a(A_{ik}B_{kj}) \\ &= \sum_{k = 1}^{n} A_{ik}(aB)_{kj} = [A(aB)]_{ij} \end{align*}$$
따라서, $a(AB) = (aA)B = A(aB)$이다.
3). $I_{m}A = A = AI_{n}$
$$\begin{align*} [I_{m}A]_{ij} &= \sum_{l = 1}^{m} [I_{m}]_{il}A_{lj} \\ &= \sum_{l = 1}^{m} \delta_{il}A_{lj} \\ &= \delta_{i1}A_{1j} + \cdots + \delta_{ii}A_{ij} + \cdots + \delta_{im}A_{mj} = A_{ij} \end{align*}$$
따라서, $I_{m}A = A$이다. 동일한 방법으로 $A = AI_{n}$임을 증명하면 $I_{m}A = A = AI_{n}$이다.
4). $V$를 기저 $\beta$를 가지는 $n$-차원의 벡터공간이라고 하면 $[I_{V}]_{\beta} = I_{n}$이다.
$\beta = \{v_{1}, \dots, v_{n}\}$이라고 하자. 그러면 항등변환의 정의에 의해 모든 $i$에 대해서 $I_{V}(v_{i}) = v_{i}$이다. 따라서, $([I_{V}(v_{i})]_{\beta})_{ij} = \delta_{ij} = (I_{n})_{ij}$이므로 $[I_{V}] = I_{n}$이다.
어?? 그런데 정리4를 저희가 이전에 본거 같지 않나요? 맞습니다. 바로 정리2죠. 다른 점은 선형변환을 중심으로 서술하냐, 행렬을 중심으로 서술하냐 입니다. 이와 같이 행렬과 선형변환 사이에는 서로 공유하고 있는 다양한 성질이 존재하죠. 저희는 정리4의 1), 2)를 일반화하면 아래의 따름정리를 만들 수 있습니다.
따름정리4-1.
행렬 $A$를 $m \times n$ 크기의 행렬, $B_{1}, \dots, B_{k}$를 $n \times p$ 크기의 행렬, $C_{1}, \dots, C_{k}$를 $q \times m$ 크기의 행렬, 그리고 $a_{1}, \dots, a_{k} \in \mathbf{F}$를 스칼라라고 할 때 아래의 식이 성립한다.
$$\begin{cases} &A\left( \sum_{i = 1}^{k} a_{i}B_{i} \right) = \sum_{i = 1}^{k} a_{i}AB_{i} \\ &\left( \sum_{i = 1}^{k} a_{i}C_{i} \right)A = \sum_{i = 1}^{k} a_{i}C_{i}A \end{cases}$$
정리5.
행렬 $A$와 $B$를 $m \times n$와 $n \times p$ 크기의 행렬이라고 하자. 각 $j$에 대해서 $u_{j}$와 $v_{j}$를 각각 $AB$와 $B$의 $j$번째 열이라고 하면 아래의 두 개의 명제가 참이다.
(a). $u_{j} = Av_{j}$
(b). $e_{j}$를 $\mathbf{F}^{n}$의 표준순서기저의 $j$번째 벡터라고 할 때 $v_{j} = Be_{j}$이다.
설명
정리5는 증명하지는 않겠지만 앞으로 유용하게 사용될 정리이니 참고하시길 바랍니다.
정리6.
$V$와 $W$를 각각 순서기저 $\beta$와 $\gamma$를 가지는 유한차원의 체 $\mathbf{F}$ 상 벡터공간이라고 하자. 그리고 $T : V \rightarrow W$를 선형이라고 하자. 그러면 $u \in V$에 대해서 $[T(u)]_{\gamma} = [T]_{\beta}^{\gamma}[u]_{\beta}$이다.
증명
정리6은 선형변환에 의해 변환된 벡터에 대한 좌표벡터를 계산할 때는 선형변환의 행렬표현식에 입력 벡터의 좌표벡터를 곱하는 것과 같다는 것을 보여주고 있습니다. 즉, 굳이 선형변환을 시키지 않더라도 변환된 벡터의 좌표벡터를 구할 수 있단느 뜻이죠. 정리6의 증명은 조금 특이한 방법으로 증명하니 한번쯤 눈여겨 보실만합니다.
$u \in V$를 선택하고 $a \in \mathbf{F}$에 대해서 두 선형변환 $f : \mathbf{F} \rightarrow V$와 $g : \mathbf{F} \rightarrow W$를 각각 $f(a) = au$ 그리고 $g(a) = aT(u)$로 정의한다. 이때, $\alpha = \{1\}$이 벡터공간 $\mathbf{F}$의 표준순서기저이다. 또한, 우리가 정의한 $g$와 $f$는 $g = Tf$의 관계를 가지고 있다. 이를 이용해서 아래와 같이 증명할 수 있다.
$$\begin{align*} [T(u)]_{\gamma} &= [g(1)]_{\gamma} \end{align*}$$
이때, 중요한 점은 좌표벡터를 행렬로써 생각해야한다. 즉, $[g_{1}]_{\gamma}$는 단순한 좌표벡터이지만 $[g]_{\alpha}^{\gamma}$는 $\mathbf{F}$에서 $V$로의 선형변환을 행렬로 표현한 것입니다. 하지만, 실질적으로는 같죠. 왜냐하면 $\alpha = \{1\}$이기 때문에 결국에 모양과 값은 $[g_{1}]_{\gamma}$과 동일합니다. 그리고 정리3에 의해 합성된 선형변환의 행렬표현식은 두 선형변환 행렬표현식의 곱과 같기 때문에 아래와 같이 정리할 수 있습니다.
$$\begin{align*} [T(u)]_{\gamma} &= [g(1)]_{\gamma} \\ &= [g]_{\alpha}^{\gamma} \\ &= [Tf]_{\alpha}^{\gamma} \\ &= [T]_{\beta}^{\gamma}[f]_{\alpha}^{\beta} \\ &= [T]_{\beta}^{\gamma}[f(1)]_{\beta} \\ &= [T]_{\beta}^{\gamma}[u]_{beta} \end{align*}$$
따라서 정리6이 증명됩니다.
그럼 여기까지 와서 정리를 해볼까요? 선형변환은 곧 행렬로 표현할 수 있고 둘 사이에는 분명 관계성이 존재합니다. 하지만, 여전히 선형변환 또는 행렬의 성질을 서로 다른 대상에 적용하는 과정을 배우지 못하였습니다. 이번에는 둘 사이의 오작교 역할을 하는 개념을 알아보도록 하죠.
정의4. 좌곱셈 변환 (Left-Multiplication Transformation)
행렬 $A$를 $m \times n$ 크기의 행렬이라고 하자. 이때, 행렬 $A$의 각 원소는 체 $\mathbf{F}$의 원소이다. 우리는 $\mathbf{x} \in \mathbf{F}^{n}$에 대해서 $L_{A} : \mathbf{F}^{n} \times \mathbf{F}^{m}$을 $L_{A} = A\mathbf{x}$라고 정의할 때 $L_{A}$를 좌곱셈 변환 (Left-Multiplication Transformation)이라고 정의한다.
Let $A$ be $m \times n$ matrix with entries from a field $F$. We denote $L_{A}$ the mapping $L_{A} : \mathbf{F}^{n} \rightarrow \mathbf{F}^{m}$ defined by $L_{A}(\mathbf{x}) = A\mathbf{x}$ for each column vector $\mathbf{x} \in \mathbf{F}^{n}$.
정리7.
행렬 $A$를 $m \times n$ 크기의 행렬이라고 하자. 이때, 행렬 $A$의 각 원소는 체 $\mathbf{F}$의 원소이다. 그러면 좌곱셈 변환 $L_{A} : \mathbf{F}^{n} \rightarrow \mathbf{F}^{m}$은 선형이다. 또한, $B$가 $m \times n$ 크기의 행렬이고 $\beta$와 $\gamma$가 각각 $\mathbf{F}^{n}$과 $\mathbf{F}^{m}$의 표준순서기저라고 할 때, 아래의 성질들을 만족한다.
1). $[L_{A}]_{\beta}^{\gamma} = A$
2). $L_{A} = L_{B}$과 $A = B$인 것은 동치이다.
3). $L_{A + B} = L_{A} + L_{B}$이고 $L_{aA} = aL_{A}$이다.
4). $T : \mathbf{F}^{n} \rightarrow \mathbf{F}^{m}$을 선형변환이라고 할 때, $T = L_{C}$를 만족하는 $m \times n$크기의 유일한 행렬 $C$가 존재한다. 즉, $[T]_{\beta}^{\gamma} = C$이다.
5). $E$가 $n \times p$ 크기의 행렬이라고 할 때 $L_{AE} = L_{A}L_{E}$이다.
6). $m = n$아면 $L_{I_{n}} = I_{\mathbf{F}^{n}}$이다.
좌곱셈 변환의 정의만 적용해도 쉽게 증명할 수 있는 성질들이기 때문에 증명은 생략하도록 하겠습니다.
참고문헌
Linear Algebra (Stephan. H)
'수학 > 선형대수학' 카테고리의 다른 글
선형대수학 - 좌표변환 행렬 (0) | 2021.11.10 |
---|---|
선형대수학 - 역변환과 동형사상 (2) | 2021.11.08 |
선형대수학 - 선형변환의 행렬표현 (0) | 2021.11.03 |
선형대수학 - 선형변환, 영 공간, 치역 (0) | 2021.11.01 |
선형대수학 - 기저와 차원 (0) | 2021.10.28 |