• sklearn快速入门教程:(三)机器学习的通用模式及实现方法 学习笔记


    实现一个支持向量机(SVM) 

    1. import numpy as np
    2. from sklearn.svm import SVR

    一、格式化数据

    1. X = np.array([[1, 1], [1, 2], [2, 2], [2, 3]])
    2. y = np.dot(X, np.array([1, 2])) + 3 # y = 1 * x0 + 2 * x1 + 3

     二、初始化模型

    model = SVR()

     三、拟合fit(X,y)

    model.fit(X,y)

     四、预测predict(X_test) 

    model.predict(X)

     全过程代码

    1. import numpy as np
    2. from sklearn.svm import SVR
    3. X = np.array([[1, 1], [1, 2], [2, 2], [2, 3]])
    4. y = np.dot(X, np.array([1, 2])) + 3
    5. model = SVR()
    6. model.fit(X,y)
    7. model.predict(X)
    array([7.44500403, 8.09999999, 8.90000001, 9.55499597])
    

    运行结果与理论值有误差,可见其精度不如上篇博客的代码,因为未对模型进行调参(直接预先设定,反复调整使模型达到一个最优的状态)

    为什么要调参

    在绝大多数的非线性模型中(包括一些特殊的线性模型,比如ridge regression),还有一部分参数是无法通过训练直接获取的

    基于此,我们的

    非线性模型的通用模式:

    y = f(h,w;x)

    w是可以通过训练算出的参数;h表示超参数(一个或多个)

    以SVR为例,它的超参数实际上包括:

    • 核函数及其参数
    • 惩罚系数

    这里我们常用高斯核作为它的核函数,同时将核参数设为1,惩罚系数设为100。

    1. import numpy as np
    2. from sklearn.svm import SVR
    3. X = np.array([[1, 1], [1, 2], [2, 2], [2, 3]])
    4. # y = 1 * x_0 + 2 * x_1 + 3
    5. y = np.dot(X, np.array([1, 2])) + 3
    6. model = SVR(kernel='rbf',gamma= 1, C = 100)
    7. model.fit(X,y)
    8. model.predict(X)
    array([ 6.1       ,  7.93810802,  9.06189198, 10.9       ])

     可以看到这样模型的精度就有了明显的提升。如果我们事先知道模型的超参数,那么可以很容易得出较好的预测结果。但如果不知道的话,就需要进行调参。当然调参的方式有很多种,后面的教程我们再详细讨论。

    符合上述通用模式的常用模型

    sklearn快速入门教程:(三)机器学习的通用模式及实现方法_半个冯博士的博客-CSDN博客

    的最下面的表格 

  • 相关阅读:
    Scanner、Random、stirng
    路由的push与replace模式以及编程式路由导航
    K8S(八):NFS + PV + ConfigMap + Service 部署MySQL
    字符串基本操作(HNU)
    在VR全景中嵌入3D模型有哪些优势?
    ShinyProxy学习整理记录
    redirs非关系型数据库使用
    LeetCode算法题整理(200题左右)
    旅游网页(HTML+CSS+JS)
    Javaweb之Vue指令案例的详细解析
  • 原文地址:https://blog.csdn.net/ykrsgs/article/details/126235761