时间:2021-05-22
研修课上讲了两个例子,融合一下。
主要演示大致的过程:
导入->拆分->训练->模型报告
以及几个重要问题:
①标签二值化
②网格搜索法调参
③k折交叉验证
④增加噪声特征(之前涉及)
from sklearn import datasets#从cross_validation导入会出现warning,说已弃用from sklearn.model_selection import train-test_splitfrom sklearn.grid_search import GridSearchCVfrom sklearn.metrics import classification_reportfrom sklearn.svm import SVCimport sklearn.exceptioins#导入鸢尾花数据集iris = datasets.load_iris()#将数据集拆分为训练集和测试集各一半#其中X为数据特征(花萼、花瓣的高度宽度),为150*4的矩阵#Y为鸢尾花种类(0, 1, 2三种),为150*1矩阵#如果使用标签二值化, 将0, 1, 2表示为100 010 001#使用y.label_binarize(y, classes[0, 1, 2]),变为150*3矩阵X_train, X_test, y_train, y_test = train_test_split(iris.data, iris.target, test_size=0.5, random_state=0)#set the parameters by cross_validationturn_parameters = [{'kernel' : ['rbf', 'gamma' : [1e-3, 1e - 4, 'C':[1,10,100,1000]}, {'kernel':['linear'], 'C':[1,10,100,1000]}]#clf分离器#使用网格搜索法调超参数#训练集做5折交叉验证clf = GridSearchCV(SVC(C=1), turned_parameters, cv=5, scoring='%s_weighted' % score)#用前一半train数据再做5折交叉验证#因为之前的train_test_split已经分割为2份了#fit-拟合clf.fit(X_train, y_train)#超参数print(clf.best_params_)#得分for params, mean_score, scores in clf.gird_scores_: print("%.3f (+/-%.0.03f) for %r" % (mean_score, scores.std()*1.96,params))#分类报告y_true, y_pred = y_test, clf.predict(X_test)print(classification_report(y_true, y_pred))以上这篇对sklearn的使用之数据集的拆分与训练详解(python3.6)就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
背景Python3.6性能测试框架Locust的搭建与使用基础python版本:python3.6开发工具:pycharmLocust的安装与配置点击“File
如下所示:原因:在python3.6中sklearn已弃用train_test_split,导致导入报错解决方式,用model_selection模块导入:fr
参考文章ubuntu源码安装python3linux编译安装python3.6的教程详解准备工作安装工具sudoaptupdatesudoaptupgrades
先给大家介绍下CentOS7下安装Python3.6的方法安装python3.6可能使用的依赖yuminstallopenssl-develbzip2-deve
一、安装环境:windows10,anaconda3,python3.6由于框架maskrcnn需要json数据集,在没安装labelme环境和跑深度学习之前,