section 5.1에서 대각화(diagonalization)에 대해 대략 그것이 무엇이고 그와 관련된 고유값(eigenvalue), 고유벡터(eigenvector), 고유다항식(characteristic polynomial) 등의 개념을 배웠다. 이번 section에서는 어떤 연산 혹은 행렬이 대각화 될 수 있는지를 배운다.
2018년 6월 21일 목요일
2018년 6월 20일 수요일
[프리드버그 선형대수]5.1.Eigenvalues and Eigenvectors(고유값과 고유벡터)
Chapter 5의 핵심은 Diagonalization(대각화)이다. 어떤 선형사상 혹은 행렬이 대각화 가능하냐 그렇지 않느냐는 활용적인 측면에서 몹시 중요한 것 같다. 대각화에 대해 알기 위해서는 우선 이 section에서 배우는 내용을 잘 이해해야 한다. 이 Section의 이름은 "고유값과 고유벡터"로 번역되는데, 대각화 가능(diagonalizable)과 고유값, 고유벡터, 그리고 charateristic polynomial(고유다항식)의 정의와 정리가 나온다. 이 부분들은 sec 5.3의 Markov chain 그리고 sec 5.4의 Cayley-Hamilton 정리와 연관되므로 확실히 알아둘 필요가 있다. 특히 section 마지막의 eigen-decomposition을 주의깊게 보아야 한다.
피드 구독하기:
글 (Atom)
DL/코세라 딥러닝 3.이진 분류기(Binary Classifier)를 만들기 위해서는?
이 글은 코세라 Andrew Ng 교수의 deep learning AI 강의를 듣고 기억하기 좋게 정리한 것입니다. 목표는 제 부모님도 이해하시도록 쉽게 쓰는 것입니다.
-
Vectorization(벡터화)란 무엇인가? 벡터화란 어떤 수들, 혹은 행렬을 열벡터로 바꾸어주는 것을 말한다. 선형 변환의 일종이다. 가령 어떤 2x2 행렬 A를 벡터화해서 다음과 같이 행렬 vec(A)를 만들 수 있다.
-
이번 section에서 배우는 내용을 한 마디로 말하면 "정방행렬의 거듭제곱의 극한과 그 활용" 정도가 될 것 같다. 그 중 핵심은 Markov process와 Markov chain인데, 구글의 페이지링크에도 활용되는 등 공학적으로...
-
1. 개요 지난번에 아버지와 같이 카페에 갔는데 아버지께서 "알고리즘이 대체 정확히 뭐냐?"라고 물어보셨다. 간단히 대답하긴 했는데, 아무래도 좀 더 자세한 답변을 원하셨던 것 같아서 이 참에 정리해본다. 알고리즘의 정의는 어떻게...