section 5.1에서 대각화(diagonalization)에 대해 대략 그것이 무엇이고 그와 관련된 고유값(eigenvalue), 고유벡터(eigenvector), 고유다항식(characteristic polynomial) 등의 개념을 배웠다. 이번 section에서는 어떤 연산 혹은 행렬이 대각화 될 수 있는지를 배운다.
2018년 6월 21일 목요일
2018년 6월 20일 수요일
[프리드버그 선형대수]5.1.Eigenvalues and Eigenvectors(고유값과 고유벡터)
Chapter 5의 핵심은 Diagonalization(대각화)이다. 어떤 선형사상 혹은 행렬이 대각화 가능하냐 그렇지 않느냐는 활용적인 측면에서 몹시 중요한 것 같다. 대각화에 대해 알기 위해서는 우선 이 section에서 배우는 내용을 잘 이해해야 한다. 이 Section의 이름은 "고유값과 고유벡터"로 번역되는데, 대각화 가능(diagonalizable)과 고유값, 고유벡터, 그리고 charateristic polynomial(고유다항식)의 정의와 정리가 나온다. 이 부분들은 sec 5.3의 Markov chain 그리고 sec 5.4의 Cayley-Hamilton 정리와 연관되므로 확실히 알아둘 필요가 있다. 특히 section 마지막의 eigen-decomposition을 주의깊게 보아야 한다.
피드 구독하기:
덧글 (Atom)
DL/코세라 딥러닝 3.이진 분류기(Binary Classifier)를 만들기 위해서는?
이 글은 코세라 Andrew Ng 교수의 deep learning AI 강의를 듣고 기억하기 좋게 정리한 것입니다. 목표는 제 부모님도 이해하시도록 쉽게 쓰는 것입니다.
-
Vectorization(벡터화)란 무엇인가? 벡터화란 어떤 수들, 혹은 행렬을 열벡터로 바꾸어주는 것을 말한다. 선형 변환의 일종이다. 가령 어떤 2x2 행렬 A를 벡터화해서 다음과 같이 행렬 vec(A)를 만들 수 있다.
-
자료구조의 기본인 리스트. 리스트에는 연결 리스트와 순차 리스트가 있는데, 순차 리스트는 배열로 구현하는 리스트로 배열의 단점을 그대로 가진다. 메모리가 정적이어서 길이를 변경하는 것이 불가능하다. 따라서 리스트라고 하면 보통 연결 리스트를 의미한다....
-
이번 section에서 배우는 내용을 한 마디로 말하면 "정방행렬의 거듭제곱의 극한과 그 활용" 정도가 될 것 같다. 그 중 핵심은 Markov process와 Markov chain인데, 구글의 페이지링크에도 활용되는 등 공학적으로...