怎么在Python中使用支持向量机SVM

  介绍

本篇文章为大家展示了怎么在Python中使用支持向量机SVM,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。

<强>一、导入sklearn算法包

Scikit-Learn库已经实现了所有基本机器学习的算法,具体使用详见官方文档说明:http://scikit-learn.org/stable/auto_examples/index.html。

skleran中集成了许多算法,其导入包的方式如下所示,

逻辑回归:sklearn。linear_model进口LogisticRegression

朴素贝叶斯:从sklearn。naive_bayes进口GaussianNB

K -近邻:sklearn。邻居进口KNeighborsClassifier

决策树:从sklearn。树导入DecisionTreeClassifier

支持向量机:从sklearn进口svm

<强>二,sklearn中svc的使用

(1)使用numpy中的loadtxt读入数据文件

loadtxt()的使用方法:

怎么在Python中使用支持向量机svm

帧:文件路径.eg: C:/数据/iris.txt。

dtype:数据类型.eg:浮动,str等。

分隔符:分隔符.eg:“& # 39;。

转换器:将数据列与转换函数进行映射的字典.eg:{} 1:有趣,含义是将第2列对应转换函数进行转换。

usecols:选取数据的列。

<强>以虹膜兰花数据集为例子:

由于从UCI数据库中下载的虹膜原始数据集的样子是这样的,前四列为特征列,第五列为类别列,分别有三种类别Iris-setosa, Iris-versicolor, Iris-virginica。

怎么在Python中使用支持向量机svm

当使用numpy中的loadtxt函数导入该数据集时,假设数据类型dtype为浮点型,但是很明显第五列的数据类型并不是浮点型。

因此我们要额外做一个工作,即通过loadtxt()函数中的转换器参数将第五列通过转换函数映射成浮点类型的数据。

首先,我们要写出一个转换函数:

def  iris_type (s):   it 才能=,{& # 39;Iris-setosa& # 39;:, 0,, & # 39; Iris-versicolor& # 39;,, 1,, & # 39; Iris-virginica& # 39;:, 2}   return 才能;它[s]

接下来读入数据,转换器={4:iris_type}中“4”指的是第5列:

path =, u # 39; D:/f盘/python/学习/iris.data& # 39;, #,数据文件路径   data =, np.loadtxt(路径,dtype=浮动,分隔符=& # 39;,& # 39;,,转换器={4:,iris_type})

读入结果:

怎么在Python中使用支持向量机SVM

(2)将虹膜分为训练集与测试集

x,, y =, np.split(数据,(4),轴=1)   x =, x [:,: 2]   x_train, x_test, y_train,, y_test =, train_test_split (x, y,, random_state=1, train_size=0.6)

1。split(数据,分割位置,轴=1(水平分割)或0(垂直分割)).

2。x=x(:,: 2)是为方便后期画图更直观,故只取了前两列特征值向量训练。

3。sklearn.model_selection。train_test_split随机划分训练集与测试集.train_test_split (train_data、train_target test_size=数字,random_state=0)

参数解释:

<李>

train_data:所要划分的样本特征集

<李>

train_target:所要划分的样本结果

<李>

test_size:样本占比,如果是整数的话就是样本的数量

<李>

random_state:是随机数的种子。

随机数种子:其实就是该组随机数的编的号,在需要重复试验的时候,保证得到一组一样的随机数比。如你每次都填1,其他参数一样的情况下你得到的随机数组是一样的。但0填或不填,每次都会不一样。随机数的产生取决于种子,随机数和种子之间的关系遵从以下两个规则:种子不同,产生不同的随机数;种子相同,即使实例不同也产生相同的随机数。

(3)训练svm分类器

#, clf =, svm.SVC (C=0.1,内核=& # 39;线性# 39;,,decision_function_shape=& # 39;表达# 39;)   clf 才能=,svm.SVC (C=0.8,内核=& # 39;rbf # 39;,,γ=20,,decision_function_shape=& # 39;表达# 39;)   clf.fit才能(x_train, y_train.ravel ())

内核=& # 39;线性# 39;时,为线性核,C越大分类效果越好,但有可能会过拟合(defaul C=1)。

内核=& # 39;rbf # 39;时(默认),为高斯核,伽马值越小,分类界面越连续;伽马值越大,分类界面越“散”,分类效果越好,但有可能会过拟合。

decision_function_shape=& # 39;表达# 39;时,为一个v,即一个类别与其他类别进行划分,

decision_function_shape=& # 39;蛋# 39;时,为一个v> print  clf.score (x_train, y_train), #,精度   时间=y_hat  clf.predict (x_train)   show_accuracy (y_hat, y_train, & # 39;训练集& # 39;)   print  clf.score (x_test, y_test)   时间=y_hat  clf.predict (x_test)   show_accuracy (y_hat, y_test, & # 39;测试集& # 39;)

怎么在Python中使用支持向量机SVM