본문 바로가기
Computer Science/Machine Learning

Nonlinear SVM : Kernel SVM (3)

by BaekDaBang 2024. 6. 9.

1. 서포트 벡터 머신 (SVM)

선형 SVM vs 비선형 SVM

- 선형 SVM : 하드 마진(Hard Margin) SVM, 소프트 마진(Soft Margin) SVM

- 비선형 SVM : 커널(Kernel) SVM

 

2. 비선형 SVM

(1) 비선형 SVM

- 데이터를 선형으로 분류하기 위해 차원을 높이는 방법을 사용

- Feature Map($\Phi$)을 통해 차원을 높임, $X$ 대신에 $ \Phi(X)$ 사용

- 커널: Feature Ma의 내적

 

(2) 비선형 SVM의 해법

- SVM 모델을 original space가 아닌 feature space에서 학습

- Original Space에서 nonlinear decision boundary → Feature space에서 linear decision boundary

- 고차원 feature space에서는 분류가 더 쉬울 수 있음을 증명함

- 고차원 feature space를 효율적으로 계산할 수 있는 방법이 있음

(3) 비선형 SVM의 목적함수

(4) Kernel Mapping

커널 사용을 통해 명시적으로 $\Phi(X)$, $\Phi(Y)$를 각각 계산하지 않고, 암묵적으로 $<\Phi(X), \Phi(Y)>$를 바로 계산하여 연산 효율을 높일 수 있음

$(X,Y)^2=<(x_1,x_2),(y_1,y_2)>^2=K(X,Y)$ → Kernel Function

 

(5) Kernel Function의 예

(6) 비선형 SVM의 커널 성정법

SVM Kernel을 결정하는 것은 어려운 문제

- 정해진 기준이 없으므로, 실험적으로 결정

사용하는 kernel에 따라 feature space의 특징이 달라지기 때문에 데이터의 특성에 맞는 kernel을 결정하는 것은 중요함

- 일반적으로 RBF Kernel, Sigmoid Kernel, Low Degree Polynomial Kernel (4차 미만) 등이 주로 사용됨

커널에 따른 분류 결과

 

3. 비선형 SVM의 예

 

 

'Computer Science > Machine Learning' 카테고리의 다른 글

앙상블(Ensemble) (1)  (2) 2024.06.09
SVM 다계층 분류 (4)  (0) 2024.06.09
Linear SVM : Soft Margin SVM (2)  (0) 2024.06.09
Linear SVM : Hard Margin SVM (1)  (1) 2024.06.09
의사결정나무(Decision Tree) (3)  (1) 2024.06.09