대각화 가능성이 왜 중요하냐면, 일단 지금 당장 이해한 바로는 계산이 훨씬 간단해진다. Section 5.3.에서 배우는 Markov chain도 대각화가 전제된다. 고유값과 고유벡터도 이 대각화를 위해 배운다고 할 수 있다. 따라서 대각화가 가능한지 불가능한지, 대각화 가능성의 필요충분조건과 그 증명을 배우는 것은 중요하다.
이 Section 에서 반드시 알아둬야 할 개념은 diagonalizability, characteristic function의 split과 eigenvalue의 multiplicity, eigenspace, 대각화 가능한지 여부 테스트 등이 있다. eigenspace는 간단히 말하자면 \((T-\lambda I)x = 0\) 의 해집합이라고 할 수 있는데 굉장히 유용하게 쓰인다.
5.1.에서는 각각의 고유값에 대응하는 고유벡터들을 선택해서 고유벡터들로 이루어진 기저(basis)를 찾는 법을 배웠는데, 이 방식으로 만들어진 어떤 집합이든 linearly independent하다면 기저가 될 수 있음을 바로 아래의 정리 5.5.에서 배운다.
정리 5.5. T가 벡터공간 V에서 linear operator이고, \(\lambda_1,\lambda_2, \dots, \lambda_k\)가 T의 서로 다른 eigenvalue라고 하자. 만약 \(v_1, v_2, ..., v_k\)가 각각 \(\lambda_1, \lambda_2, ..., \lambda_k\)에 대응하는 T의 eigenvector라고 한다면, \({v_1, v_2, ..., v_k}\)는 선형독립이다.
증명)
k에 대한 수학적 귀납법.
1) k=1 일 때
\(v_1\)은 eigenvector이므로 \(v_1 \ne 0\)이고, 따라서 \(\{v_1\}\)은 linearly independent하다.
2) (k-1>=1)k-1 에서 성립한다고 가정한 후 k 에서도 성립하는지 보자.
서로 다른 eigenvalue \(\lambda_1,\lambda_2, ..., \lambda_k\)에 대응하는 \(v_1, v_2, ..., v_k\)가 있다고 하자. 이 때 \(\{v_1, v_2, ..., v_k\}\)가 linearly independent함을 보이면 된다.
스칼라 \(a_1, a_2, ..., a_k\)가 있어서 다음이 성립한다고 하자.
$$a_1v_1 + a_2v_2 + \dots + a_kv_k = 0$$
이 식의 양 변에 \(T-\lambda_kI\)를 곱하면
$$a_1(\lambda_1-\lambda_k)v_1 + a_2(\lambda_2-\lambda_k)v_2 + \dots + a_k(\lambda_{(k-1)}-\lambda_k)v_k = 0$$
=>그 역은 성립하지 않는다는 점에 주의.
split의 정의
정의. P(F)의 다항식 \(f(t)\)는, 만약 F의 스칼라들 \(c, a_1, a_2, ..., a_n\)이 있어서 \(f(t)=c(t-a_1)(t-a_2)\dots(t-a_n)\)으로 쓸 수 있다면, splits over F라고 한다.
=> 즉, 어떤 체 F 위에서 1차로 쪼개지면 split over F 한다고 한다. 가령 \( (t^2+1)(t-2) \) 는 실수체 R 위에서는 쪼개지지 않지만, 복소수체 C 위에서는 쪼개진다.
n개의 서로 다른 eigenvalue를 가지면 diagonalizable 하고, 또 f(t)가 split 한다. 단, 그 역은 성립하지 않는다. 따라서 characteristic polynomial f(t)가 중근을 가지면 대각화 가능한지 판단이 어렵다. 모든 eigenvector를 구해봐야 한다.
정리 5.6. 어떤 diagonalizable한 linear operator의 characteristric polynomial은 split한다.
증명)
T가 n차원 벡터공간 V에서 linear operator이고, \{\beta\}가 V의 순서기저여서 \{[T]_\beta = D\}는 diagonal matrix라고 하자.
$$ D =
\begin{pmatrix}
\lambda_1\ & 0 & \dots & 0 \\
0 & \lambda_2 & \dots & 0 \\
\vdots & \vdots & & \vdots \\
0 & 0 & \dots & \lambda_n
\end{pmatrix} $$
이제, \(f(t)\)는 T의 characteristic polynomial이라고 하자.
$$
f(t) = det(D-tI) = det
\begin{pmatrix}
\lambda_1-t\ & 0 & \dots & 0 \\
0 & \lambda_2-t & \dots & 0 \\
\vdots & \vdots & & \vdots \\
0 & 0 & \dots & \lambda_n-t
\end{pmatrix}
= (\lambda_1-t)(\lambda_2-t)\dots(\lambda_n-t)
=(-1)^n(t-\lambda_1)(t-\lambda_2)\dots(t-\lambda_n)
$$
따라서 diagonal한 linear operator의 characteristic polynomial은 split함을 알 수 있다.
multiplicity의 정의
정의. \(\lambda\) 가 고유다항식 \(f(t)\)를 가지는 어떤 linear operator 혹은 행렬의 eigenvalue이라고 하자. \(\lambda\) 의 (대수적인) multiplicity는, \(f(t)\)의 factor인 \((t-\lambda)^k\)에서 가장 큰 양의 정수인 \(k\)를 말한다.
eigenspace의 정의
정의. T가 벡터공간 V에서 linear operator이고, \(\lambda\) 는 T의 eigenvalue라고 하자.
$$E_\lambda = {x \in V : T(x) = \lambda x}$$ 로 정의한다.
집합 \(E_\lambda\) 는 eigenvalue \(\lambda\) 에 대응하는 T의 eigenvalue라고 한다. 비슷하게, 정방행렬 A의 eigenspace는 \(L_A\)의 eigenspace로 정의한다.
=> T의 eigenvalue \(\lambda\)에 대응하는 eigenvector는 사실 \(\lambda\) eigenspace의 basis에 해당한다. 따라서 eigenvalue는 유일하지만 당연히 eigenvector는 유일하지 않다고 생각해볼 수 있다.
정리 5.7. T가 유한차원 벡터공간 V에서 linear operator이며, \(\lambda\)는 T의 eigenvalue이고 그 multiplicity는 m이라고 하자. 그럼 \(1 \leq dim(E_\lambda) \leq m)\) 이다.
eigenvalue는 최소 한 개는 항상 존재한다. \( dim(E_\lambda)\) 은 (\lambda\)의 geometric multiplicity라고 한다. geometric multiplicity = algebraic multiplicity라면 diagonalizable하고, 그렇지 않고 geometric multiplicity < algebraic multiplicity대각화가 불가능하다.
예제로 Example 3을 보면 \( dim(E_\lambda) = 1\) 이므로 T는 not diagonalizable 하다.
보조정리. T가 linear operator이고, \(\lambda_1, \lambda_2, \dots , \lambda_k\) 는 T의 서로 다른 eigenvalue라고 하자. 각각의 \(i = 1, 2, \dots , k \)에 대해서 각 eigenvalue에 대응하는 eigenspace를 \(E_{\lambda_i}\)라고 하고 \(v_i \in E_{\lambda_i}\) 라고 하자. 만약 \(v_1, v_2, \dots , v_k = 0\) 이면, 모든 i에 대해 \(v_i = 0\)이다.
정리 5.8. T가 벡터공간 V에서 linear operator이고, \(\lambda_1, \lambda_2, \dots , \lambda_k\) 는 T의 서로 다른 eigenvalue라고 하자. 각각의 \(i = 1, 2, \dots , k \)에 대해서 \(S_i \)는 eigenspace \(E_{\lambda_i}\)의 유한하고 선형독립인 부분집합이라고 하자. 이 때 \( S=S_1 \cup S_2 \cup \dots \cup S_k \cup \)는 V의 선형독립인 부분집합이다.
정리 5.9. T가 유한차원 벡터공간 V에서 linear operator이고, T의 characteristic polynomial은 split 한다고 하자. 또 \(\lambda_1, \lambda_2, \dots , \lambda_k\) 는 T의 서로 다른 eigenvalue라고 하자. 그러면 다음 (a), (b) 가 성립한다.
(a) T가 diagonalizable하다는 것과 \lambda_i 의 multiplicity가 모든 i에 대하여 \(dim(E_{\lambda_i})\) 와 같다는 것은 필요충분하다.
(b) 만약 T가 diagonalizable 하고 \(\beta _i\) 가 모든 i에 대해 \(E_{\lambda_i}\) 의 순서기저라면 \( \beta=\beta_1 \cup \beta_2 \cup \dots \cup \beta_k \cup \) 는 T의 eigenvector로 이루어진 V의 순서기저이다.
대각화 테스트
T가 n차원 벡터공간 V에서 linear operator라고 할 때, T가 diagonalizable한 것은 아래 두 조건 모두와 필요충분하다.1. T의 characteristic polynomial이 split한다.
2. T의 각 eigenvalue \(\lambda\)의 multiplicity는 \(n-rank(T-\lambda I)\)와 같다.
바로 뒤에 나오는 Example 6이 좋은 예제이다.
Example 6.
T가 P_2(R) 에서 다음과 같이 정의된 linear operator라고 하자.
$$T(f(x)) = f(1) + f'(0)x + (f'(0) + (f''(0))x^2.$$
T가 대각화 가능한지, 가능하다면 basis는 어떻게 되는지를 구해보자.
Example 7.
sum(합)의 정의
정의.
direct sum(직합)의 정의
정의.
정리 5.10.
정리 5.11.
simultaneously diagonalizable의 정의
정의.
댓글 없음:
댓글 쓰기