参数“kernel"在sklearn中可选以下几种 选项:

接下来我们 就通过一个例子,来探索一下不同数据集上核函数的表现。我们现在有一系列线性或非线性可分的数据,我们希望通过绘制SVC在不同核函数下的决策边界并计算SVC在不同核函数下分类准确率来观察核函数的效果。
我们先来导入相应的模块:
- import numpy as np
- import matplotlib.pyplot as plt
- from matplotlib.colors import ListedColormap
- from sklearn import svm#from sklearn.svm import SVC 两者都可以
- from sklearn.datasets import make_circles, make_moons, make_blobs,make_classification # 生成数据集,make_classification生成分类数据集,make_blobs生成聚类数据集,make_moons生成半月形数据集,make_circles生成环形数据集,make_moons生成月牙形数据集
导入模块后,我们先来用以下代码绘制四种不同类型的分类图:
- n_samples = 100
-
- datasets = [
- make_moons(n_samples=n_samples, noise=0.2, random_state=0),
- make_circles(n_samples=n_samples, noise=0.2, factor=0.5, random_state=1),
- make_blobs(n_samples=n_samples, centers=2, random_state=5),#分簇的数据集
- make_classification(n_samples=n_samples,n_features = 2,n_informative=2,n_redundant=0, random_state=5)
- #n_features:特征数,n_informative:带信息的特征数,n_redundant:不带信息的特征数
- ]
-
- Kernel = ["linear","poly","rbf","sigmoid"]
-
- #四个数据集分别是什么样子呢?
- for X,Y in datasets:
- plt.figure(figsize=(5,4))
- plt.scatter(X[:,0],X[:,1],c=Y,s=50,cmap="rainbow")




我们总共有四个数据集,四种核函数,我们希望观察每种数据集下每个核函数的表现。以核函数为列,以图像分布 为行,我们总共需要16个子图来展示分类结果。而同时,我们还希望观察图像本身的状况,所以我们总共需要20 个子图,其中第一列是原始图像分布,后面四列分别是这种分布下不同核函数的表现。
- nrows=len(datasets)
- ncols=len(Kernel) + 1
- fig, axes = plt.subplots(nrows, ncols,figsize=(20,16))

子图画好后,我们通过循环语句观察在不同的核函数不同的分类情况:
- #第一层循环:在不同的数据集中循环
- for ds_cnt, (X,Y) in enumerate(datasets):
-
- #在图像中的第一列,放置原数据的分布
- ax = axes[ds_cnt, 0]
- if ds_cnt == 0:
- ax.set_title("Input data")
- ax.scatter(X[:, 0], X[:, 1], c=Y, zorder=10, cmap=plt.cm.Paired,edgecolors='k')
- ax.set_xticks(())
- ax.set_yticks(())
-
- #第二层循环:在不同的核函数中循环
- #从图像的第二列开始,一个个填充分类结果
- for est_idx, kernel in enumerate(Kernel):
-
- #定义子图位置
- ax = axes[ds_cnt, est_idx + 1]
-
- #建模
- clf = svm.SVC(kernel=kernel, gamma=2).fit(X, Y)
- score = clf.score(X, Y)
-
- #绘制图像本身分布的散点图
- ax.scatter(X[:, 0], X[:, 1], c=Y
- ,zorder=10
- ,cmap=plt.cm.Paired,edgecolors='k')
- #绘制支持向量
- ax.scatter(clf.support_vectors_[:, 0], clf.support_vectors_[:, 1], s=50,
- facecolors='none', zorder=10, edgecolors='k')# facecolors='none':透明的
-
- #绘制决策边界
- x_min, x_max = X[:, 0].min() - .5, X[:, 0].max() + .5
- y_min, y_max = X[:, 1].min() - .5, X[:, 1].max() + .5
-
- #np.mgrid,合并了我们之前使用的np.linspace和np.meshgrid的用法
- #一次性使用最大值和最小值来生成网格
- #表示为[起始值:结束值:步长]
- #如果步长是复数,则其整数部分就是起始值和结束值之间创建的点的数量,并且结束值被包含在内
- XX, YY = np.mgrid[x_min:x_max:200j, y_min:y_max:200j]
- #np.c_,类似于np.vstack的功能
- Z = clf.decision_function(np.c_[XX.ravel(), YY.ravel()]).reshape(XX.shape)
- #填充等高线不同区域的颜色
- ax.pcolormesh(XX, YY, Z > 0, cmap=plt.cm.Paired)
- #绘制等高线
- ax.contour(XX, YY, Z, colors=['k', 'k', 'k'], linestyles=['--', '-', '--'],
- levels=[-1, 0, 1])
-
- #设定坐标轴为不显示
- ax.set_xticks(())
- ax.set_yticks(())
-
- #将标题放在第一行的顶上
- if ds_cnt == 0:
- ax.set_title(kernel)
-
- #为每张图添加分类的分数
- ax.text(0.95, 0.06, ('%.2f' % score).lstrip('0')
- , size=15
- , bbox=dict(boxstyle='round', alpha=0.8, facecolor='white')
- #为分数添加一个白色的格子作为底色
- , transform=ax.transAxes #确定文字所对应的坐标轴,就是ax子图的坐标轴本身
- , horizontalalignment='right' #位于坐标轴的什么方向
- )
-
- plt.tight_layout()
- plt.show()

由图可知,我们可以观察到,线性核函数和多项式核函数在非线性数据上表现会浮动,如果数据相对线性可分,则表现不错,如果是像环形数据那样彻底不可分的,则表现糟糕。在线性数据集上,线性核函数和多项式核函数即便有扰动项也可以表现不错,可见多项式核函数是虽然也可以处理非线性情况,但更偏向于线性的功能。 Sigmoid核函数就比较尴尬,它在非线性数据上强于两个线性核函数,但效果明显不如rbf,它在线性数据上完全 比不上线性的核函数们,对扰动项的抵抗也比较弱,所以它功能比较弱小,很少被用到。