这篇文章将为大家详细讲解有关在Matlab中使用PRTools工具箱中的svm算法,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。
除了在Matlab中使用PRTools工具箱中的svm算法,Python中一样可以使用支持向量机做分类。因为Python中的sklearn库也集成了svm算法,本文的运行环境是Pycharm。
<强>一、导入sklearn算法包强>
Scikit-Learn库已经实现了所有基本机器学习的算法,具体使用详见官方文档说明:http://scikit-learn.org/stable/auto_examples/index.html支持向量机。
skleran中集成了许多算法,其导入包的方式如下所示:
逻辑回归:sklearn。linear_model进口LogisticRegression
朴素贝叶斯:从sklearn。naive_bayes进口GaussianNB
K -近邻:sklearn。邻居进口KNeighborsClassifier
决策树:从sklearn。树导入DecisionTreeClassifier
支持向量机:从sklearn进口svm
<强>二,sklearn中svc的使用强>
(1)使用numpy中的loadtxt读入数据文件
loadtxt()的使用方法:
帧:文件路径.eg: C:/数据/虹膜。txt .
dtype:数据类型.eg:浮动,str等。
分隔符:分隔符.eg: ', '。
转换器:将数据列与转换函数进行映射的字典。
如:{}1:有趣,含义是将第2列对应转换函数进行转换。
usecols:选取数据的列。
以虹膜兰花数据集为例子:
由于从UCI数据库中下载的虹膜原始数据集的样子是这样的,前四列为特征列,第五列为类别列,分别有三种类别Iris-setosa, Iris-versicolor, Iris-virginica。
当使用numpy中的loadtxt函数导入该数据集时,假设数据类型dtype为浮点型,但是很明显第五列的数据类型并不是浮点型。
因此我们要额外做一个工作,即通过loadtxt()函数中的转换器参数将第五列通过转换函数映射成浮点类型的数据。
首先,我们要写出一个转换函数:
def iris_type (s): ,,,it =, {& # 39; Iris-setosa& # 39;:, 0,, & # 39; Iris-versicolor& # 39;,, 1,, & # 39; Iris-virginica& # 39;:, 2} ,,,return 它[s]
接下来读入数据,转换器={4:iris_type}中“4”指的是第5列:
path =, u # 39; D:/f盘/python/学习/iris.data& # 39;,, #,数据文件路径 data =, np.loadtxt(路径,dtype=浮动,分隔符=& # 39;,& # 39;,,转换器={4:,iris_type})
读入结果:
(2)将虹膜分为训练集与测试集
x,, y =, np.split(数据,(4),轴=1) x =, x [:,: 2] x_train, x_test, y_train,, y_test =, train_test_split (x, y,, random_state=1, train_size=0.6)
1。split(数据,分割位置,轴=1(水平分割)或0(垂直分割)).
2。x=x(:,: 2)是为方便后期画图更直观,故只取了前两列特征值向量训练。
3. sklearn.model_selection。train_test_split随机划分训练集与测试集.train_test_split (train_data、train_target test_size=数字,random_state=0)
参数解释:
train_data:所要划分的样本特征集
train_target:所要划分的样本结果
test_size:样本占比,如果是整数的话就是样本的数量
random_state:是随机数的种子。
随机数种子:其实就是该组随机数的编的号,在需要重复试验的时候,保证得到一组一样的随机数比。如你每次都填1,其他参数一样的情况下你得到的随机数组是一样的。但0填或不填,每次都会不一样。随机数的产生取决于种子,随机数和种子之间的关系遵从以下两个规则:种子不同,产生不同的随机数;种子相同,即使实例不同也产生相同的随机数。
(3)训练svm分类器
#,clf =, svm.SVC (C=0.1,内核=& # 39;线性# 39;,,decision_function_shape=& # 39;表达# 39;) ,,,clf =, svm.SVC (C=0.8,内核=& # 39;rbf # 39;,,γ=20,,decision_function_shape=& # 39;表达# 39;) ,,,clf.fit (x_train, y_train.ravel ())
内核=& # 39;线性# 39;时,为线性核,C越大分类效果越好,但有可能会过拟合(defaul C=1)。
内核=& # 39;rbf # 39;时(默认),为高斯核,伽马值越小,分类界面越连续;伽马值越大,分类界面越“散”,分类效果越好,但有可能会过拟合。
decision_function_shape=& # 39;表达# 39;时,为一个v,即一个类别与其他类别进行划分,