Chapter 5의 핵심은 Diagonalization(대각화)이다. 어떤 선형사상 혹은 행렬이 대각화 가능하냐 그렇지 않느냐는 활용적인 측면에서 몹시 중요한 것 같다. 대각화에 대해 알기 위해서는 우선 이 section에서 배우는 내용을 잘 이해해야 한다. 이 Section의 이름은 "고유값과 고유벡터"로 번역되는데, 대각화 가능(diagonalizable)과 고유값, 고유벡터, 그리고 charateristic polynomial(고유다항식)의 정의와 정리가 나온다. 이 부분들은 sec 5.3의 Markov chain 그리고 sec 5.4의 Cayley-Hamilton 정리와 연관되므로 확실히 알아둘 필요가 있다. 특히 section 마지막의 eigen-decomposition을 주의깊게 보아야 한다.
※용어정리
대각화 = diagonalization
고유값 = eigenvalue
고유벡터 = eigenvector
고유다항식 = characteristic polynomial
diagonalizable의 정의
정의. 유한차원 벡터공간 V 에서의 linear operator T가 있다고 하자. 만약 V의 순서기저 β가 있고 \([T]_β\)가 대각행렬(diagonal matrix)이라면 T는 diagonalizable(대각화 가능)하다고 한다.
eigenvector와 eigenvalue의 정의
정의. T가 V에서의 linear operator라고 하자. 어떤 0이 아닌 벡터 v∈V에 대해
1) 만약 \(T(v)=λv\)인 스칼라 λ가 존재하면, v는 T의 eigenvector라고 하고, λ는 v에 대응하는 eigenvalue라고 한다.
2) \(A∈M_{nxn}(F)\)가 있다고 하자. 0이 아닌 벡터 \(v∈F^n\)이 만약 LA의 eigenvector이면 v는 A의 eigenvector이다. 즉, Av=λv이면 v는 A의 eigenvector이고 λ는 eigenvector v에 대응하는 A의 eigenvalue라고 부른다.
정리 5.1. 유한차원 벡터공간 V에서 linear operator인 T가 diagonalizable 하다는 것과, T의 eigenvector들로 이루어진 V의 기저 β가 존재한다는 것은 서로 필요충분하다.나아가서, 만약 T가 diagonalizable하다면 \(β={v_1, v_2, ... v_n}\)은 T의 eigenvector들로 이루어진 순서기저이다. \(D=[T]_β\) 면 D는 대각행렬이고 \(D_{jj}\)는 \(v_j\)에 대응하는 eigenvalue이다.(1≤j≤n)
▶ 어떤 행렬이나 linear operator를 diagonalize한다는 것은 그 행렬 혹은 linear operator의 eigenvector들로 이루어진 basis와 그에 대응하는 eigenvalue들을 찾는 것이다.
characteristic polynomial의 정의정의. \(A∈M_{nxn}(F)\)이 있다고 하자. 다항식 f(t)=det(A-tI)는 A의 characteristic polynomial(고유다항식)이라고 한다.
참고/similar한 행렬들의 characteristic polynomial은 서로 같다.(eigenvalue도 서로 같다.)즉, \(B=Q^(-1)AQ\)이다.
증명)Av=λv어떤 invertible한 행렬 Q가 있어서 v=Qu라고 할 수 있다고 하자. \( Av=AQu=λQuQ^(-1)AQu=λuBu=λu \) 이다.
▶similar한 두 행렬 A와 B의 characteristic polynomial이 같으므로 eigenvalue도 같다.단, eivenvalue에 대응하는 eigenvector는 같지 않다.(v=u라는 보장이 없다.)
정의. T가 기저 β를 가지는 n차원 벡터공간 V에서 성립하는 linear operator라고 하자. T의 characteristic polynomial f(t)는 A=[T]β 로 정의한다. 즉, f(t)=det(A-tI) 이다.
▶ 순서기저 β가 무엇이든 T나 \([T]_β\)의 characteristic polynomial은 변하지 않는다.
정리 5.2. A∈M nxn(F)가 있다고 하자. 스칼라 λ에 대해 λ가 A의 eigenvalue인 것과, det(A-λI)=0인 것은 서로 필요충분하다.
증명) λ가 A의 eigenvalue ⇔ \(Av=λv\)(v는 nonzero) ⇔ \((A-λI)v=0\) ⇔ \((A-λI)\)가 not invertible함 ⇔ \(det(A-λI)\) = 0
정리 5.3. \(A∈M_{nxn}(F)\)가 있다고 하자.
(a) A의 characteristic polynomial은 leading coefficient(최고차항의 계수)가 \((-1)^n\)인 n차 다항식이다.
(b) A는 최대 n개의 서로 다른 eigenvalue들을 가진다.
증명)
정리 5.4. T가 벡터공간 V에서의 linear operator이고 λ가 T의 eigenvalue라고 하자. 벡터 v∈V가 λ에 대응하는 eigenvector인 것은, v≠0이고 v∈N(T-λI)인 것과 서로 필요충분하다.
증명) v∈V가 λ에 대응하는 eigenvector ⇔ \(T(v) = λv = λIv (v≠0)\)⇔\((T-λI)v = 0 (v≠0)\)⇔\(v∈N(T-λI) (v≠0)\)
▶Ax=λx 이므로 (A-λI)x=0 이라는 점을 이용해 eigenvector를 구할 수 있다.
☆eigen-decomposition(고유값 분해)
section 5.1의 마지막. 어떤 square matrix를 대각화하는 방법이다. 내 생각에 앞의 정의 및 정리들은 이걸 하려고 배우는 것 같다. 하이라이트.eigen-decomposition을 활용하면 손쉽게 determinant를 구할 수 있다. nxn 행렬 A의 eigen-decomposition이 가능하려면 rank(A)=n이어야 한다.
다음은 eigen-decomposition에 대해 어떤 분이 알기 쉽게 정리해놓은 링크.http://darkpgmr.tistory.com/105?category=460967
\end{document}
\end{document}
댓글 없음:
댓글 쓰기