Python机器学习库scikit-learn安装与基本使用教程
作者:Eric Chan 发布时间:2022-01-17 14:19:03
本文实例讲述了Python机器学习库scikit-learn安装与基本使用。分享给大家供大家参考,具体如下:
引言
scikit-learn是Python的一个开源机器学习模块,它建立在NumPy
,SciPy
和matplotlib
模块之上能够为用户提供各种机器学习算法接口,可以让用户简单、高效地进行数据挖掘和数据分析。
scikit-learn安装
python 中安装许多模板库之前都有依赖关系,安装 scikit-learn 之前需要以下先决条件:
Python(>= 2.6 or >= 3.3)
NumPy (>= 1.6.1)
SciPy (>= 0.9)
如无意外,下面用 pip 的安装方法可以顺利完成~~
安装 numpy
sudo pip install numpy
安装 scipy
需要先安装 matplotlib ipython ipython-notebook pandas sympy
sudo apt-get install python-matplotlib ipython ipython-notebook
sudo apt-get install python-pandas python-sympy python-nose
sudo pip install scipy
安装 scikit-learn
sudo pip install -U scikit-learn
测试
在 terminal 里面输入
pip list
这个会列出 pip 安装的所有东西,如果里面有 sklearn 这一项,应该就是大功告成了!
或者尝试着将几个模板库导入进来
import numpy
import scipy
import sklearn
加载数据(Data Loading)
本文所使用的数据集为‘今日头条'近期两篇热门新闻“牛!川大学霸寝室5人获16份名校通知书”、“张超凡的最后14天:山西15岁休学少年是如何殒命网吧的”分别500条评论,共1000条评论。
去除停用词后得到了词库大小为3992的词库。因此构建了1000×3992的特征矩阵,以及长度为1000的对应评论所属类别列表
具体爬虫和特征矩阵构建代码
class_result_save.npy 下载 feature_matrix_save.npy下载
import numpy as np
feature_matrix = np.load('dataSet/feature_matrix_save.npy')
class_list = np.load('dataSet/class_result_save.npy')
数据归一化(Data Normalization)
大多数机器学习算法中的梯度方法对于数据的缩放和尺度都是很敏感的,在开始跑算法之前,我们应该进行归一化或者标准化的过程,这使得特征数据缩放到0-1范围中。scikit-learn提供了归一化的方法:
from sklearn import preprocessing
# 归一化(Normalization)
normalized_X = preprocessing.normalize(feature_matrix)
print normalized_X
# 标准化(Standardization)
standardized_X = preprocessing.scale(feature_matrix)
print standardized_X
特征选择(Feature Selection)
在解决一个实际问题的过程中,选择合适的特征或者构建特征的能力特别重要。这成为特征选择或者特征工程。
特征选择时一个很需要创造力的过程,更多的依赖于直觉和专业知识,并且有很多现成的算法来进行特征的选择。
下面的树算法(Tree algorithms)计算特征的信息量:
from sklearn.ensemble import ExtraTreesClassifier
model = ExtraTreesClassifier()
print feature_matrix.shape # 原特征矩阵规模
feature_matrix = model.fit(feature_matrix, class_list).transform(feature_matrix)
print feature_matrix.shape # 特征选择后 特征矩阵的规模
特征提取(Feature Extraction)
用TFIDF算法来计算特征词的权重值是表示当一个词在这篇文档中出现的频率越高,同时在其他文档中出现的次数越少,则表明该词对于表示这篇文档的区分能力越强,所以其权重值就应该越大。
from sklearn.feature_extraction.text import TfidfTransformer
tfidf_transformer = TfidfTransformer()
feature_matrix = tfidf_transformer.fit_transform(feature_matrix).toarray()
朴素贝叶斯(Naive Bayes)
朴素贝叶斯是一个很著名的机器学习算法,主要是根据训练样本的特征来计算各个类别的概率,在多分类问题上用的比较多。
from sklearn import metrics
from sklearn.naive_bayes import GaussianNB
# 构建朴素贝叶斯模型
model = GaussianNB()
model.fit(feature_matrix, class_list)
print model
# 使用测试集进行测试(此处将训练集做测试集)
expected = class_list
predicted = model.predict(feature_matrix)
# 输出测试效果
print metrics.classification_report(expected, predicted)
print metrics.confusion_matrix(expected, predicted)
k近邻(k-Nearest Neighbours)
k近邻算法常常被用作是分类算法一部分,比如可以用它来评估特征,在特征选择上我们可以用到它。
from sklearn import metrics
from sklearn.neighbors import KNeighborsClassifier
# 构建knn模型
model = KNeighborsClassifier()
model.fit(feature_matrix, class_list)
print model
# 使用测试集进行测试(此处将训练集做测试集)
expected = class_list
predicted = model.predict(feature_matrix)
# 输出测试效果
print metrics.classification_report(expected, predicted)
print metrics.confusion_matrix(expected, predicted)
决策树(Decision Tree)
分类与回归树(Classification and Regression Trees ,CART)算法常用于特征含有类别信息的分类或者回归问题,这种方法非常适用于多分类情况。
from sklearn import metrics
from sklearn.tree import DecisionTreeClassifier
# 构建决策数模型
model = DecisionTreeClassifier()
model.fit(feature_matrix, class_list)
print model
# 使用测试集进行测试(此处将训练集做测试集)
expected = class_list
predicted = model.predict(feature_matrix)
# 输出测试效果
print metrics.classification_report(expected, predicted)
print metrics.confusion_matrix(expected, predicted)
希望本文所述对大家Python程序设计有所帮助。
来源:http://hareric.com/2016/05/22/scikit-learn%E7%9A%84%E5%AE%89%E8%A3%85%E5%92%8C%E5%9F%BA%E6%9C%AC%E4%BD%BF%E7%94%A8%E6%95%99%E7%A8%8B/


猜你喜欢
- python如何更新修改后的Python模块1.利用python的MySQLdb模块利用原生的sql语句进行更新的方法代码配置方法代码2.使
- 由于需要处理xlsx类型的文件,我使用了openpyxl来处理,然而文件比较大,大约有60多MB。读文件的时候虽然慢了一点,但还是能够读出来
- 最近,有读者微信上私聊我,想让我写一篇视频批量转换成音频的文章,我答应了,周末宅家里把这个小工具做出来了。 这样,对于有些视频学习
- 我们有时请求服务器时,无论get或post请求,会出现403错误,这是因为服务器拒绝了你的访问,这时我们可以通过模拟浏览器的头部信息进行访问
- 这是个郁闷的问题。主级获得ID列表 select ID from FS_SD_Address where PID=0
- 装饰器模式在以下场景中被广泛应用:动态地向对象添加职责或行为,而不需要更改对象的代码。例如,可以通过装饰器模式来实现日志记录、性能分析、缓存
- MySQL是支持在单个查询字符串中指定多语句执行的,使用方法是给链接指定参数: //链接时设定 mysql_real_connect( ..
- 下面通过对比来看看ASP中3种分页显示的性能,执行效率。一,使用存储过程分页,这种情况又分为两种方式:第一种,使用command对象,如下:
- 本文实例为大家分享了opencv实现图像平移效果的具体代码,供大家参考,具体内容如下图像平移:按照指定方向和距离,移动到相应位置格式:cv.
- 上一篇文章介绍了Python使用OPENCV的目标跟踪算法实现自动视频标注效果,感兴趣的朋友点击查看,使用滑模变结构控制策略来解决汽车跟踪问
- Python中生成器和迭代器的区别(代码在Python3.5下测试):Num01–>迭代器定义:对于list、string、tuple
- 准备本篇文章译自英文文档 Compile PyTorch Models。作者是 Alex Wong。更多 TVM 中文文档可访问 &
- 1. union合并查询结果集查询工作岗位是 MANAGER 和 SALESMAN 的员工?mysql> select ename,
- 一、项目视图分析通过上图,我们可以看到,一个完整的项目,基本包括三个部分:用户视图层、接口层、数据处理层,其中,用户视图层是用来接收用户的数
- 代码:hello.py#!/usr/bin/python# coding: utf-8# hello.pydef application(e
- 最近越来越多在博客上写些UX相关的内容作为分享,就涉及到跟普通博文不一样的文章建构问题。文章内容固然很重要,但排版、组织也是提高可读性和用户
- 一、数学相关1、绝对值:abs(-1)2、最大最小值:max([1,2,3])、min([1,2,3])3、序列长度:len('ab
- 目录1. 简介2. 示例代码13. 示例代码24. 启动异常1. 简介Gunicorn(Green Unicorn)是给Unix用的WSGI
- 在CentOS7下,默认安装的就是python2.7,我现在来教大家如何安装python3:1、首先安装python3.6可能使用的依赖#
- 本文实例讲述了python实现中文分词FMM算法。分享给大家供大家参考。具体分析如下:FMM算法的最简单思想是使用贪心算法向前找n个,如果这