SlideShare a Scribd company logo
1 of 15
Download to read offline
서포트 벡터머신
아꿈사
송성곤
SVM
❏ 서포트 벡터 머신(support vector machine, SVM)은 패턴 인식, 자료 분석을 위한
지도 학습 모델이며, 주로 분류와 회귀 분석을 위해 사용한다.
❏ 두 카테고리 중 어느 하나에 속한 데이터의 집합이 주어졌을 때, SVM 알고리즘은
주어진 데이터 집합을 바탕으로 하여 새로운 데이터가 어느 카테고리에 속할지
판단하는 비확률적 이진 선형/비선형 분류 모델을 만든다.
❏ 딥러닝이 나오기 전까지 가장 성공적인 분류기 역할을 했음
최적 분리
❏ 오른쪽 결정 영역 중 최적은 ?
❏ 결정영역 근처에 있는 ‘분류하기
애매한’ 데이터의 거리가 최대가
되어야 함
최적 분리 - 마진과 서포트 벡터
❏ 마진이란 어떠한 점들로
포함하지 않는 영역을
최대화해서 클래스들을 분리할
수 있도록 만드는 것
❏ 서포트 벡터란 결정 경계선에
가장 가까이 있는 각 클래스의
데이터 점
최적 분리 - 초평면
❏ 초평면(hyperplane)
은 데이터 임베딩
공간에서 1차원 낮은
부분 공간
최적 분리 - 마진과 서포트 벡터, 초평면
❏ 결정 경계의 초평면
❏ w * x - b = 0
❏ 위쪽 서포트 벡터를 지나는 초평면
❏ w * x - b = 1
❏ 아래 쪽 서포트 벡터를 지나는 초평면
❏ w * x - b = -1
❏ w은 초평면의 법선 벡터(normal
vector)
❏ 유닛 벡터는 w/||w||
❏ 마진 : 1/||w||
서포트 벡터 머신 알고리즘 - 최적화 문제를 사용한 파라미터
계산
❏ 선형 조건에 부합하도록
이차함수를 최적화 시키는
문제선형 조건에
부합하도록 이차함수를
최적화 시키는 문제
서포트 벡터 머신 알고리즘 - 최적화 문제를 사용한 파라미터
계산
❏ 최적화하려 하는 값에
형식적인 라그랑주 승수
(Lagrange multiplier) 항을
더하여, 제약된 문제를
제약이 없는 문제로 바꾼다.
서포트 벡터 머신 알고리즘 - 최적화 문제를 사용한 파라미터
계산
❏ 솔루션은 다음과 같은 형식을 가짐
❏
❏ 분류함수는 다음과 같은 형식
Soft Margin SVM
❏ 만약 훈련 데이터가 선형으로 분리되지
않을 경우, 슬랙 변수 ξ 가 잘못 분류되거나
노이즈가 포함된 데이터에 추가됨
❏ 잘못 분류된 데이터 포인트를 본래 속하는
클래스로 비용을 들여 이동시켜줌
비선형 SVM
❏ 결정 영역이 선형이 아닌 경우
❏ 데이터 포인트를 선형으로 분류하기 위해 차원을 더 생성
비선형 SVM - 커널
❏ 피처맵의 내적을 커널이라고 함
❏ 파라미터 결정
❏ x대신 Φ(x)을 사용하여 다음 식을 계산
SVM의 성능
❏ 서포트 벡터 머신은 실세계 데이터에 좋은 성능을 보여줌
❏ 프로그래머는 커널 함수를 설계 해야 함
❏ 나머지 파라미터는 자동으로 계산
❏ 데이터 집합의 크기가 클 수록 시간 소모가 큼
❏ 초평면의 최대 마진을 구하기 위해서 훈련 데이터 개수의 제곱에 해당하는
계산량 필요
❏ 모든 서포트 벡터를 저장 해야 함
SVM 다계층 분류
❏ SVM을 트레이닝 시켜서 하나의
클래스를 다른 클래스들로부터
분류하도록 만들고, 또 다른 분류기로
다른 클래스를 나머지
클래스들로부터 분류하게 만든다.
❏ N개의 클래스에 대해서 N개의
SVM이 필요.
참고자료
❏ T 아카데미 - 인공지능을 위한 머신러닝 알고리즘
❏ https://tacademy.sktechx.com/live/player/onlineLecture
Detail.action?seq=103
❏ 알고리즘 중심의 머신러닝 가이드 (제이펍)

More Related Content

What's hot

深層学習とベイズ統計
深層学習とベイズ統計深層学習とベイズ統計
深層学習とベイズ統計Yuta Kashino
 
SakataMoriLab GNN勉強会第一回資料
SakataMoriLab GNN勉強会第一回資料SakataMoriLab GNN勉強会第一回資料
SakataMoriLab GNN勉強会第一回資料ttt_miura
 
2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワーク2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワークTakeshi Sakaki
 
Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...
Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...
Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...KCS Keio Computer Society
 
SmoothGrad: removing noise by adding noise
SmoothGrad: removing noise by adding noiseSmoothGrad: removing noise by adding noise
SmoothGrad: removing noise by adding noiseharmonylab
 
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−Deep Learning JP
 
Non-autoregressive text generation
Non-autoregressive text generationNon-autoregressive text generation
Non-autoregressive text generationnlab_utokyo
 
「解説資料」MetaFormer is Actually What You Need for Vision
「解説資料」MetaFormer is Actually What You Need for Vision「解説資料」MetaFormer is Actually What You Need for Vision
「解説資料」MetaFormer is Actually What You Need for VisionTakumi Ohkuma
 
Convolutionl Neural Network 入門
Convolutionl Neural Network 入門Convolutionl Neural Network 入門
Convolutionl Neural Network 入門maruyama097
 
(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMM(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMMMorpho, Inc.
 
論文紹介 "DARTS: Differentiable Architecture Search"
論文紹介 "DARTS: Differentiable Architecture Search"論文紹介 "DARTS: Differentiable Architecture Search"
論文紹介 "DARTS: Differentiable Architecture Search"Yuta Koreeda
 
[DL輪読会]Learning convolutional neural networks for graphs
[DL輪読会]Learning convolutional neural networks for graphs[DL輪読会]Learning convolutional neural networks for graphs
[DL輪読会]Learning convolutional neural networks for graphsDeep Learning JP
 
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...Deep Learning JP
 
딥러닝의 기본
딥러닝의 기본딥러닝의 기본
딥러닝의 기본deepseaswjh
 
2017:10:20論文読み会"Image-to-Image Translation with Conditional Adversarial Netwo...
2017:10:20論文読み会"Image-to-Image Translation with Conditional Adversarial Netwo...2017:10:20論文読み会"Image-to-Image Translation with Conditional Adversarial Netwo...
2017:10:20論文読み会"Image-to-Image Translation with Conditional Adversarial Netwo...ayaha osaki
 
帰納バイアスが成立する条件
帰納バイアスが成立する条件帰納バイアスが成立する条件
帰納バイアスが成立する条件Shinobu KINJO
 
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
(DL輪読)Variational Dropout Sparsifies Deep Neural NetworksMasahiro Suzuki
 
第1回NIPS読み会・関西発表資料
第1回NIPS読み会・関西発表資料第1回NIPS読み会・関西発表資料
第1回NIPS読み会・関西発表資料Takato Horii
 
G社のNMT論文を読んでみた
G社のNMT論文を読んでみたG社のNMT論文を読んでみた
G社のNMT論文を読んでみたToshiaki Nakazawa
 

What's hot (20)

Attention
AttentionAttention
Attention
 
深層学習とベイズ統計
深層学習とベイズ統計深層学習とベイズ統計
深層学習とベイズ統計
 
SakataMoriLab GNN勉強会第一回資料
SakataMoriLab GNN勉強会第一回資料SakataMoriLab GNN勉強会第一回資料
SakataMoriLab GNN勉強会第一回資料
 
2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワーク2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワーク
 
Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...
Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...
Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...
 
SmoothGrad: removing noise by adding noise
SmoothGrad: removing noise by adding noiseSmoothGrad: removing noise by adding noise
SmoothGrad: removing noise by adding noise
 
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
 
Non-autoregressive text generation
Non-autoregressive text generationNon-autoregressive text generation
Non-autoregressive text generation
 
「解説資料」MetaFormer is Actually What You Need for Vision
「解説資料」MetaFormer is Actually What You Need for Vision「解説資料」MetaFormer is Actually What You Need for Vision
「解説資料」MetaFormer is Actually What You Need for Vision
 
Convolutionl Neural Network 入門
Convolutionl Neural Network 入門Convolutionl Neural Network 入門
Convolutionl Neural Network 入門
 
(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMM(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMM
 
論文紹介 "DARTS: Differentiable Architecture Search"
論文紹介 "DARTS: Differentiable Architecture Search"論文紹介 "DARTS: Differentiable Architecture Search"
論文紹介 "DARTS: Differentiable Architecture Search"
 
[DL輪読会]Learning convolutional neural networks for graphs
[DL輪読会]Learning convolutional neural networks for graphs[DL輪読会]Learning convolutional neural networks for graphs
[DL輪読会]Learning convolutional neural networks for graphs
 
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
 
딥러닝의 기본
딥러닝의 기본딥러닝의 기본
딥러닝의 기본
 
2017:10:20論文読み会"Image-to-Image Translation with Conditional Adversarial Netwo...
2017:10:20論文読み会"Image-to-Image Translation with Conditional Adversarial Netwo...2017:10:20論文読み会"Image-to-Image Translation with Conditional Adversarial Netwo...
2017:10:20論文読み会"Image-to-Image Translation with Conditional Adversarial Netwo...
 
帰納バイアスが成立する条件
帰納バイアスが成立する条件帰納バイアスが成立する条件
帰納バイアスが成立する条件
 
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
 
第1回NIPS読み会・関西発表資料
第1回NIPS読み会・関西発表資料第1回NIPS読み会・関西発表資料
第1回NIPS読み会・関西発表資料
 
G社のNMT論文を読んでみた
G社のNMT論文を読んでみたG社のNMT論文を読んでみた
G社のNMT論文を読んでみた
 

Similar to 서포트 벡터머신

내가 이해하는 SVM(왜, 어떻게를 중심으로)
내가 이해하는 SVM(왜, 어떻게를 중심으로)내가 이해하는 SVM(왜, 어떻게를 중심으로)
내가 이해하는 SVM(왜, 어떻게를 중심으로)SANG WON PARK
 
집단지성 프로그래밍 07-고급 분류 기법-커널 기법과 svm-01
집단지성 프로그래밍 07-고급 분류 기법-커널 기법과 svm-01집단지성 프로그래밍 07-고급 분류 기법-커널 기법과 svm-01
집단지성 프로그래밍 07-고급 분류 기법-커널 기법과 svm-01Kwang Woo NAM
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신Haesun Park
 
PRML Chapter 7 SVM supplementary files
PRML Chapter 7 SVM supplementary filesPRML Chapter 7 SVM supplementary files
PRML Chapter 7 SVM supplementary filesSunwoo Kim
 
3.unsupervised learing
3.unsupervised learing3.unsupervised learing
3.unsupervised learingHaesun Park
 
Chapter 8 - optimization for training deep models
Chapter 8 - optimization for training deep modelsChapter 8 - optimization for training deep models
Chapter 8 - optimization for training deep modelsKyeongUkJang
 
3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)Haesun Park
 
발표자료 11장
발표자료 11장발표자료 11장
발표자료 11장Juhui Park
 
From maching learning to deep learning
From maching learning to deep learningFrom maching learning to deep learning
From maching learning to deep learningYongdae Kim
 
Machine learning bysogood
Machine learning bysogoodMachine learning bysogood
Machine learning bysogoodS.Good Kim
 
HR Analytics - 퇴직가능성예측모델
HR Analytics - 퇴직가능성예측모델HR Analytics - 퇴직가능성예측모델
HR Analytics - 퇴직가능성예측모델Seong-Bok Lee
 
Chapter 11 Practical Methodology
Chapter 11 Practical MethodologyChapter 11 Practical Methodology
Chapter 11 Practical MethodologyKyeongUkJang
 
2.supervised learning(epoch#2)-2
2.supervised learning(epoch#2)-22.supervised learning(epoch#2)-2
2.supervised learning(epoch#2)-2Haesun Park
 

Similar to 서포트 벡터머신 (13)

내가 이해하는 SVM(왜, 어떻게를 중심으로)
내가 이해하는 SVM(왜, 어떻게를 중심으로)내가 이해하는 SVM(왜, 어떻게를 중심으로)
내가 이해하는 SVM(왜, 어떻게를 중심으로)
 
집단지성 프로그래밍 07-고급 분류 기법-커널 기법과 svm-01
집단지성 프로그래밍 07-고급 분류 기법-커널 기법과 svm-01집단지성 프로그래밍 07-고급 분류 기법-커널 기법과 svm-01
집단지성 프로그래밍 07-고급 분류 기법-커널 기법과 svm-01
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신
 
PRML Chapter 7 SVM supplementary files
PRML Chapter 7 SVM supplementary filesPRML Chapter 7 SVM supplementary files
PRML Chapter 7 SVM supplementary files
 
3.unsupervised learing
3.unsupervised learing3.unsupervised learing
3.unsupervised learing
 
Chapter 8 - optimization for training deep models
Chapter 8 - optimization for training deep modelsChapter 8 - optimization for training deep models
Chapter 8 - optimization for training deep models
 
3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)
 
발표자료 11장
발표자료 11장발표자료 11장
발표자료 11장
 
From maching learning to deep learning
From maching learning to deep learningFrom maching learning to deep learning
From maching learning to deep learning
 
Machine learning bysogood
Machine learning bysogoodMachine learning bysogood
Machine learning bysogood
 
HR Analytics - 퇴직가능성예측모델
HR Analytics - 퇴직가능성예측모델HR Analytics - 퇴직가능성예측모델
HR Analytics - 퇴직가능성예측모델
 
Chapter 11 Practical Methodology
Chapter 11 Practical MethodologyChapter 11 Practical Methodology
Chapter 11 Practical Methodology
 
2.supervised learning(epoch#2)-2
2.supervised learning(epoch#2)-22.supervised learning(epoch#2)-2
2.supervised learning(epoch#2)-2
 

More from Sunggon Song

K8s in action chap15
K8s in action chap15K8s in action chap15
K8s in action chap15Sunggon Song
 
랜덤Walks, 몬테카를로 시뮬레이션
랜덤Walks, 몬테카를로 시뮬레이션랜덤Walks, 몬테카를로 시뮬레이션
랜덤Walks, 몬테카를로 시뮬레이션Sunggon Song
 
Function approximation as supervised learning
Function approximation as supervised learningFunction approximation as supervised learning
Function approximation as supervised learningSunggon Song
 
대칭가중치와 심층신뢰네트워크
대칭가중치와 심층신뢰네트워크대칭가중치와 심층신뢰네트워크
대칭가중치와 심층신뢰네트워크Sunggon Song
 
데이터처리와 통계 기본 머신러닝
데이터처리와 통계 기본 머신러닝데이터처리와 통계 기본 머신러닝
데이터처리와 통계 기본 머신러닝Sunggon Song
 
합성곱 신경망
합성곱 신경망합성곱 신경망
합성곱 신경망Sunggon Song
 
밑바닥부터 시작하는딥러닝 8장
밑바닥부터 시작하는딥러닝 8장밑바닥부터 시작하는딥러닝 8장
밑바닥부터 시작하는딥러닝 8장Sunggon Song
 
함수형사고 실용적사고
함수형사고 실용적사고함수형사고 실용적사고
함수형사고 실용적사고Sunggon Song
 
함수형사고 3장 양도하라
함수형사고 3장 양도하라함수형사고 3장 양도하라
함수형사고 3장 양도하라Sunggon Song
 
7가지 동시성 모델 람다아키텍처
7가지 동시성 모델  람다아키텍처7가지 동시성 모델  람다아키텍처
7가지 동시성 모델 람다아키텍처Sunggon Song
 
7가지 동시성 모델-2장
7가지 동시성 모델-2장7가지 동시성 모델-2장
7가지 동시성 모델-2장Sunggon Song
 
실무로 배우는 시스템 성능 최적화 8부 - 1,2,3장
실무로 배우는 시스템 성능 최적화 8부 - 1,2,3장실무로 배우는 시스템 성능 최적화 8부 - 1,2,3장
실무로 배우는 시스템 성능 최적화 8부 - 1,2,3장Sunggon Song
 

More from Sunggon Song (15)

K8s in action chap15
K8s in action chap15K8s in action chap15
K8s in action chap15
 
랜덤Walks, 몬테카를로 시뮬레이션
랜덤Walks, 몬테카를로 시뮬레이션랜덤Walks, 몬테카를로 시뮬레이션
랜덤Walks, 몬테카를로 시뮬레이션
 
K8s in action02
K8s in action02K8s in action02
K8s in action02
 
Function approximation as supervised learning
Function approximation as supervised learningFunction approximation as supervised learning
Function approximation as supervised learning
 
대칭가중치와 심층신뢰네트워크
대칭가중치와 심층신뢰네트워크대칭가중치와 심층신뢰네트워크
대칭가중치와 심층신뢰네트워크
 
데이터처리와 통계 기본 머신러닝
데이터처리와 통계 기본 머신러닝데이터처리와 통계 기본 머신러닝
데이터처리와 통계 기본 머신러닝
 
합성곱 신경망
합성곱 신경망합성곱 신경망
합성곱 신경망
 
밑바닥부터 시작하는딥러닝 8장
밑바닥부터 시작하는딥러닝 8장밑바닥부터 시작하는딥러닝 8장
밑바닥부터 시작하는딥러닝 8장
 
함수형사고 실용적사고
함수형사고 실용적사고함수형사고 실용적사고
함수형사고 실용적사고
 
함수형사고 3장 양도하라
함수형사고 3장 양도하라함수형사고 3장 양도하라
함수형사고 3장 양도하라
 
7가지 동시성 모델 람다아키텍처
7가지 동시성 모델  람다아키텍처7가지 동시성 모델  람다아키텍처
7가지 동시성 모델 람다아키텍처
 
7가지 동시성 모델-2장
7가지 동시성 모델-2장7가지 동시성 모델-2장
7가지 동시성 모델-2장
 
Ddd start 10장
Ddd start 10장Ddd start 10장
Ddd start 10장
 
DDD start 1장
DDD start 1장DDD start 1장
DDD start 1장
 
실무로 배우는 시스템 성능 최적화 8부 - 1,2,3장
실무로 배우는 시스템 성능 최적화 8부 - 1,2,3장실무로 배우는 시스템 성능 최적화 8부 - 1,2,3장
실무로 배우는 시스템 성능 최적화 8부 - 1,2,3장
 

서포트 벡터머신

  • 2. SVM ❏ 서포트 벡터 머신(support vector machine, SVM)은 패턴 인식, 자료 분석을 위한 지도 학습 모델이며, 주로 분류와 회귀 분석을 위해 사용한다. ❏ 두 카테고리 중 어느 하나에 속한 데이터의 집합이 주어졌을 때, SVM 알고리즘은 주어진 데이터 집합을 바탕으로 하여 새로운 데이터가 어느 카테고리에 속할지 판단하는 비확률적 이진 선형/비선형 분류 모델을 만든다. ❏ 딥러닝이 나오기 전까지 가장 성공적인 분류기 역할을 했음
  • 3. 최적 분리 ❏ 오른쪽 결정 영역 중 최적은 ? ❏ 결정영역 근처에 있는 ‘분류하기 애매한’ 데이터의 거리가 최대가 되어야 함
  • 4. 최적 분리 - 마진과 서포트 벡터 ❏ 마진이란 어떠한 점들로 포함하지 않는 영역을 최대화해서 클래스들을 분리할 수 있도록 만드는 것 ❏ 서포트 벡터란 결정 경계선에 가장 가까이 있는 각 클래스의 데이터 점
  • 5. 최적 분리 - 초평면 ❏ 초평면(hyperplane) 은 데이터 임베딩 공간에서 1차원 낮은 부분 공간
  • 6. 최적 분리 - 마진과 서포트 벡터, 초평면 ❏ 결정 경계의 초평면 ❏ w * x - b = 0 ❏ 위쪽 서포트 벡터를 지나는 초평면 ❏ w * x - b = 1 ❏ 아래 쪽 서포트 벡터를 지나는 초평면 ❏ w * x - b = -1 ❏ w은 초평면의 법선 벡터(normal vector) ❏ 유닛 벡터는 w/||w|| ❏ 마진 : 1/||w||
  • 7. 서포트 벡터 머신 알고리즘 - 최적화 문제를 사용한 파라미터 계산 ❏ 선형 조건에 부합하도록 이차함수를 최적화 시키는 문제선형 조건에 부합하도록 이차함수를 최적화 시키는 문제
  • 8. 서포트 벡터 머신 알고리즘 - 최적화 문제를 사용한 파라미터 계산 ❏ 최적화하려 하는 값에 형식적인 라그랑주 승수 (Lagrange multiplier) 항을 더하여, 제약된 문제를 제약이 없는 문제로 바꾼다.
  • 9. 서포트 벡터 머신 알고리즘 - 최적화 문제를 사용한 파라미터 계산 ❏ 솔루션은 다음과 같은 형식을 가짐 ❏ ❏ 분류함수는 다음과 같은 형식
  • 10. Soft Margin SVM ❏ 만약 훈련 데이터가 선형으로 분리되지 않을 경우, 슬랙 변수 ξ 가 잘못 분류되거나 노이즈가 포함된 데이터에 추가됨 ❏ 잘못 분류된 데이터 포인트를 본래 속하는 클래스로 비용을 들여 이동시켜줌
  • 11. 비선형 SVM ❏ 결정 영역이 선형이 아닌 경우 ❏ 데이터 포인트를 선형으로 분류하기 위해 차원을 더 생성
  • 12. 비선형 SVM - 커널 ❏ 피처맵의 내적을 커널이라고 함 ❏ 파라미터 결정 ❏ x대신 Φ(x)을 사용하여 다음 식을 계산
  • 13. SVM의 성능 ❏ 서포트 벡터 머신은 실세계 데이터에 좋은 성능을 보여줌 ❏ 프로그래머는 커널 함수를 설계 해야 함 ❏ 나머지 파라미터는 자동으로 계산 ❏ 데이터 집합의 크기가 클 수록 시간 소모가 큼 ❏ 초평면의 최대 마진을 구하기 위해서 훈련 데이터 개수의 제곱에 해당하는 계산량 필요 ❏ 모든 서포트 벡터를 저장 해야 함
  • 14. SVM 다계층 분류 ❏ SVM을 트레이닝 시켜서 하나의 클래스를 다른 클래스들로부터 분류하도록 만들고, 또 다른 분류기로 다른 클래스를 나머지 클래스들로부터 분류하게 만든다. ❏ N개의 클래스에 대해서 N개의 SVM이 필요.
  • 15. 참고자료 ❏ T 아카데미 - 인공지능을 위한 머신러닝 알고리즘 ❏ https://tacademy.sktechx.com/live/player/onlineLecture Detail.action?seq=103 ❏ 알고리즘 중심의 머신러닝 가이드 (제이펍)