File tree 1 file changed +17
-7
lines changed
1 file changed +17
-7
lines changed Original file line number Diff line number Diff line change 14
14
* 데이터 차원 수만큼의 주성분이 존재
15
15
* 어느 축이 더 중요한지 우선 순위를 구하는 것임
16
16
* 여러 변수간의 상관관계를 기반으로 주성분(Principal Component)을 추출하여 차원 축소
17
- * 상관관계 : 공분산
17
+ * 상관관계 : 공분산 행렬
18
18
* 공분산 행렬의 고유 벡터는 수직
19
19
* 분산을 최대한 유지하면서 서로 직교하는 새 기저(축)를 찾아 저차원 공간으로 변환
20
20
* https://ratsgo.github.io/machine%20learning/2017/04/24/PCA/
21
- * 정보 유실 최소화
22
- * 분산이 가장 높은 데이터 축을 찾아 차원 축소
23
- * LDA
24
- * SVC
25
- * NMF
26
-
21
+ * 정보 가장 높은 데이터 축을 찾아 차원 축소
22
+ * LDA (Linear Discriminant Analysis)
23
+ * 분산 유실 최소화
24
+ * 분류에 사용
25
+ * 개별 클래스를 분별할 수 있는 기준을 최대한 유지
26
+ * PCA는 변동성이 가장 큰 축을...
27
+ * LDA는 결정 값 클래스를 최대한 분리할 수 있는 축을 찾음.
28
+ * 공분산 행렬을 사용하지 않음
29
+ * 클래스 간 분산 + 클래스 내부 분산 행렬 사용
30
+ * 위 행렬에 기반해 고유벡터 구하고 데이터 투영
31
+ * SVD (Singular Value Decomposition)
32
+ * PCA는 정방행렬만 분해 가능, but SVD는 행과 열의 크기가 달라도 가능
33
+ * 특이값 분해
34
+ * 특이벡터는 서로 직교
35
+ * NMF (Non-Negative Matrix Factorization)
36
+ * 행렬 내 모든 원소 값이 양수라는 게 보장되면 간단한 행렬 분해 가능
27
37
* 행렬
28
38
* 정방 행렬(Square Matrix)
29
39
* 행과 열의 크기가 동일
You can’t perform that action at this time.
0 commit comments