SVM 分類器的分類超平面的繪製

2021-08-15 16:04:21 字數 1379 閱讀 3997

# load libraries

from sklearn.svm import linearsvc

from sklearn import datasets

from sklearn.preprocessing import standardscaler

import numpy as np

from matplotlib import pyplot as plt

# iris flower 資料集有三個類別,四個特徵

# 這裡只匯入兩個類別和兩個特徵的資料

iris = datasets.load_iris()

x = iris.data[:100,:2]

y = iris.target[:100]

# standarize features

scaler = standardscaler()

x_std = scaler.fit_transform(x)

# create support vector classifier

svc = linearsvc(c=1.0)

# train model

model = svc.fit(x_std, y)

所有類別 0 為黑色,類別1 為淺灰色

超平面是決定新的觀察值分類結果的決策邊界

這條線上的劃分為類別0,這條線下的劃分為類別1

# 繪製資料點,不同類別不同顏色

color = ['black'

if c == 0

else

'lightgrey'

for c in y]

plt.scatter(x_std[:,0], x_std[:,1], c=color)

# 建立超平面(根據svc的引數,求出直線的斜率與截距)

SVM分類器自我總結

svm support vector machine 簡單的說是乙個分類器,並且是二類分類器。vector 通俗說就是點,或是資料。machine 也就是classifier,也就是分類器。給定訓練樣本,支援向量機建立乙個超平面作為決策曲面,使得正例和反例的隔離邊界最大化。我們需要這個曲面仍然滿足跟...

SVM的分類原理

svm的主要思想可以概括為兩點 1 它是針對線性可分情況進行分析,對於線性不可分的情況,通過使用非線性對映演算法將低維輸入空間線性不可分的樣本轉化為高維特徵空間使其線性可分,從而使得高維特徵空間採用線性演算法對樣本的非線性特徵進行線性分析成為可能 2 它基於結構風險最小化理論之上在特徵空間中建構最優...

SVM的分類原理

svm的主要思想可以概括為兩點 1 它是針對線性可分情況進行分析,對於線性不可分的情況,通過使用非線性對映演算法將低維輸入空間線性不可分的樣本轉化為高維特徵空間使其線性可分,從而使得高維特徵空間採用線性演算法對樣本的非線性特徵進行線性分析成為可能 2 它基於結構風險最小化理論之上在特徵空間中建構最優...