博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
sklearn:Python语言开发的通用机器学习库
阅读量:4948 次
发布时间:2019-06-11

本文共 4264 字,大约阅读时间需要 14 分钟。

引言:深入理解机器学习并全然看懂sklearn文档,须要较深厚的理论基础。可是。要将sklearn应用于实际的项目中,仅仅须要对机器学习理论有一个主要的掌握,就能够直接调用其API来完毕各种机器学习问题。

本文选自《全栈数据之门》。将向你介绍通过三个步骤来解决详细的机器学习问题。

sklearn介绍

  scikit-learn是Python语言开发的机器学习库。一般简称为sklearn。眼下算是通用机器学习算法库中实现得比較完好的库了。

其完好之处不仅在于实现的算法多。还包含大量详尽的文档和演示样例。其文档写得通俗易懂,全然能够当成机器学习的教程来学习。

  假设要说sklearn文档的重要性,个人认为,应该能够与佛经中的《金刚经》相比。假设能将其当成《金刚经》一样来阅读,你的机器学习水平一定会有质的提升。
  一般初阅佛经。肯定会被当中的一些名词弄糊涂,就像初次阅读sklearn的文档一样,会被诸如training data、testing data、model select、cross validation等这种词汇弄糊涂。但实际上,仅仅要肯用心读,把这些基础概念弄明确,兴许学习就比較easy了。sklearn必需要结合机器学习的一些基础理论来理解,就像佛经必需要结合一些佛法基础理论来理解一样。
  既然是通用的机器学习库。sklearn中包括了大量经常使用的算法。正如其介绍一样。基本功能主要分为6个部分:分类、回归、聚类、数据降维、模型选择与数据预处理。例如以下图所看到的。

  要深入理解机器学习,而且全然看懂sklearn的文档,须要较深厚的理论基础。可是。要将sklearn应用于实际的项目中,却并不须要特别多的理论知识,仅仅须要对机器学习理论有一个主要的掌握,就能够直接调用其API来完毕各种机器学习问题。
对于详细的机器学习问题,通常能够分为三个步骤:

  • 数据准备与预处理
  • 模型选择与训练
  • 模型验证与參数调优

以下就通过一个详细的演示样例来介绍这三个步骤。

数据预处理

  在这个演示样例中,使用sklearn自带的Iris数据来做演示。而算法使用kNN来进行分类,要了解kNN算法的具体信息,请參考“近朱者赤。相亲kNN”一节。

  使用load_iris方法,载入Iris数据。Iris是一个很有名的公共数据集。描写叙述了鸢尾花的三种不同的子类别,共同拥有4个特征,分别为花萼的长度与宽度,花瓣的长度与宽度。能够不用关注详细分哪三类,仅仅须要知道在数据中类标签分别用0、1、2表示就可以。

  载入数据的代码例如以下:

%pysparkfrom sklearn.datasets import load_irisfrom sklearn.cross_validation import train_test_split# 载入数据iris = load_iris()data_X = iris.datadata_y = iris.target# 数据维度、特征与目标值的前3项print('data:', data_X.shape, data_y.shape)print('features:', data_X[:3, :])print('target:', data_y[:3])# 数据切分train_X, test_X, train_y, test_y = train_test_split(data_X, data_y, test_size=0.2)# 训练数据与測试数据的维度print('train:', train_X.shape, train_y.shape)print('test: ', test_X.shape, test_y.shape)

  将数据的特征载入为data_X。将类别标签载入为data_y,一般的命名习惯是,使用大写的X表示特征是多维的,而用小写的y表示目标值为1维。

不同的命名习惯。比較符合人类以貌取人的特点,程序猿不仅是人。更是聪明的人,因此也有这种习惯。

  载入完数据,使用sklearn自带的train_test_split方法将数据按0.8与0.2的比例进行划分。切分为训练数据train与測试数据test,并将特征与目标值分别命名为train_X、train_y与test_X、test_y。
  其运行结果例如以下图所看到的。

建模与预測

  准备好数据后,就能够从neighbors近邻类中导入kNN分类算法了,其代码例如以下所看到的:

%pysparkfrom sklearn.neighbors import KNeighborsClassifier# 构建knn模型knn = KNeighborsClassifier(n_neighbors=3, n_jobs=-1)# 拟合数据knn.fit(train_X, train_y)# 预測preds = knn.predict(test_X)print('knn model:', knn)print('First 3 pred:',preds[:3])

  通过使用两个自己定义參数n_neighbors(參考的近邻数)与n_jobs(使用的CPU核数)来导入KNeighborsClassifier模型。这样就生成了一个knn的模型。n_neighbors是knn中最重要的參数,能够通过交叉验证来设置一个合理的值。而n_jobs是sklearn中所有支持并行的算法都会支持的參数。sklearn中有非常多算法都能够将单台机器的所有CPU进行并行运算,设置为-1即是使用机器的所有CPU核,也能够设置成详细的数字值。

  接着使用fit方法在训练数据上进行拟合。kNN是一个有监督的学习算法,因此在拟合数据的时候,须要将已知的类别标签train_y与特征train_X一起输入到模型中进行数据拟合。

  模型在训练数据上完毕了拟合,便能够对測试数据进行预測了,使用predict方法来对測试的特征进行预測。由于是使用特征来预測其类别。此处自然不能传入測试数据的类别标签数据test_y。这个数据是在后面对模型进行评估时使用的。打印knn模型,会输出其用于构建的參数。也能够打印出预測的前三个值。例如以下图所看到的。

  在上面的建模与预測过程中,sklearn的这样的简洁API方式已经成为现代机器学习库争相模仿的对象,就连Spark的ML库。也在学习这样的简洁的方式。能够说差点儿已经成为大众接受的标准方式了。

模型评估

  评估一个模型的好坏是机器学习中很重要的任务。

否则,无法评价模型的好坏,也就无法更好地优化模型。归根究竟,全部的机器学习算法都是一堆数学运算,其预測的值与标准的值是能够进行数学上的对照的。在这一点上,与教育中所用的考试分数来评估一个人的能力不一样,也与公司中所用的KPI来考核一个人对公司的贡献是不一样的。

  在分类算法中,通常的评价指标有精确率、召回率与F1-Score等几种。
  前面构建的knn模型。本身也有一个score方法,能够对模型的好坏做一个初步评估。其使用的指标为F1-Score。当然,也能够使用sklearn中提供的很多其它的评价指标来评估模型。其代码例如以下所看到的:

%pysparkfrom pprint import pprint# 使用測试的特征与測试的目标值print(knn.score(test_X, test_y))from sklearn.metrics import precision_recall_fscore_support# 打印出三个指标scores = precision_recall_fscore_support(test_y, preds)pprint(scores)

  对每一个类别的数据都进行了精确率、召回率与F-beta Score的评估,其结果例如以下图所看到的。

模型持久化

  辛辛苦苦训练好一个模型后,总希望后面能够直接使用。此时就必需要对模型进行持久化操作了。模型本身就是一个Python的对象。能够使用pickle的方式将模型转储到文件。但sklearn推荐使用其joblib接口,保存与载入模型都很easy:

import joblib# 保存模型joblib.dump(model, '/tmp/model.pkl')# 载入模型model = joblib.load('/tmp/model.pkl')

三个层次

  前面已经演示了一个完整的使用sklearn来解决实际问题的样例,能够发现。假设仅仅是调用sklearn的API,确实不须要太复杂的理论知识。在学完上面的演示样例后,你也许都并不清楚kNN算法是怎样工作的。但学习是分层次的。

  或许有的人觉得。仅仅会调用API来实现。并非真正会用机器学习了。确实。不理解kNN算法,就不清楚怎样进行算法的參数调优。但个人觉得,从sklearn入门机器学习是最好的途径。虽然你曾经全然没有接触过机器学习。
  我所理解的。学习机器学习算法的三个层次例如以下所述。

  1. 调用:知道算法的基本思想,能应用现有的库来做測试。简单说,就是了解kNN是做什么的,会调用sklearn中的kNN算法。
  2. 调參:知道算法的主要影响參数,能进行參数调节优化。
  3. 嚼透:理解算法的实现细节,而且能用代码实现出来。

上面三个层次是不是非常押韵呢,但不幸的是,有的人一上来就想达到第三个层次。于是刚開始就被怎样实现kNN算法吓到了,过不了三天就从入门到放弃了。

  作为应用型的机器学习,能达到第三阶段固然好,但在实际应用中。建议能调用现有的库就直接调用好了。不理解的地方,能看懂源代码最好。不太建议自己从头实现,除非能力确实够了,否则写出来的代码并不能保证性能与准确性。
  当然,从另外一个角度来说,尤其是在分布式环境下,机器学习还有另外三个层次,想知道的话,请见《全栈数据之门》一书。
  本文选自,点此链接可在博文视点官网查看此书。
                    
  想及时获得很多其它精彩文章。可在微信中搜索“博文视点”或者扫描下方二维码并关注。
                       

转载于:https://www.cnblogs.com/claireyuancy/p/7400999.html

你可能感兴趣的文章
负逻辑
查看>>
jq封装Prompt吐司,默认两秒淡去
查看>>
vs2015升级后台mvc视图编辑器默认不是razor视图引擎问题
查看>>
ZooKeeper安装教程
查看>>
node.js 生成二维码
查看>>
测试MS题
查看>>
《人生路上对我影响最大的三位老师》
查看>>
Kafka及集群部署
查看>>
Linux学习笔记003-目录
查看>>
h5页面宽度设置7.5rem
查看>>
spring IOC 详解
查看>>
第七周作业
查看>>
ecliplse集成SVN
查看>>
1、VMware安装步骤
查看>>
本周学习进度表及时间安排(2017-12-31~2018-1-6)
查看>>
mysql 实行模糊查询 一个输入值匹配多个字段和多个输入值匹配一个字段
查看>>
hdu 1102(最小生成树)
查看>>
JavaScript对象及初识面向对象
查看>>
mac安装nose,command not found:nosetests
查看>>
抓取cntv电视节目表
查看>>