时间:2021-05-22
predict_proba 返回的是一个 n 行 k 列的数组,列是标签(有排序), 第 i 行 第 j 列上的数值是模型预测 第 i 个预测样本为某个标签的概率,并且每一行的概率和为1。
predict 直接返回的是预测 的标签。
具体见下面示例:
# conding :utf-8 from sklearn.linear_model import LogisticRegression import numpy as np x_train = np.array([[1,2,3], [1,3,4], [2,1,2], [4,5,6], [3,5,3], [1,7,2]]) y_train = np.array([3, 3, 3, 2, 2, 2]) x_test = np.array([[2,2,2], [3,2,6], [1,7,4]]) clf = LogisticRegression() clf.fit(x_train, y_train) # 返回预测标签 print(clf.predict(x_test)) # 返回预测属于某标签的概率 print(clf.predict_proba(x_test)) # [2 3 2] ## [[0.56651809 0.43348191] # [0.15598162 0.84401838] # [0.86852502 0.13147498]] # 分析结果: # 标签是 2,3 共两个,所以predict_proba返回的为2列,且是排序的(第一列为标签2,第二列为标签3),# 返回矩阵的行数是测试样本个数 因此为3行# 预测[2,2,2]的标签是2的概率为0.56651809,3的概率为0.43348191 # # 预测[3,2,6]的标签是2的概率为0.15598162,3的概率为0.84401838 # # 预测[1,7,4]的标签是2的概率为0.86852502,3的概率为0.13147498补充知识:sklearn中predict与predict_proba的识别结果不一致
今天训练了好久的决策树模型在测试的时候发现个bug,使用predict得到的结果居然不是predict_proba中最大数值的索引!因为脚本中需要模型的置信度,所以希望拿到predict_proba的类别概率。
经过胡乱分析发现predict_proba得到的维度比总类别数少了几个,经过测试发现就是这个造成的,即训练集中有部分类别样本数为0。这个问题比较隐蔽,记录一下方便天涯沦落人绕坑。
Tip:在sklearn的train_test_split中有一个参数可以强制测试集和训练集的数据分布一致,也就不会导致缺类别的问题。
以上这篇浅谈sklearn中predict与predict_proba区别就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
发现个很有用的方法——predict_proba今天在做数据预测的时候用到了,感觉很不错,所以记录分享一下,以后可能会经常用到。我的理解:predict_pro
1、使用predict时,必须设置batch_size,否则效率奇低。查看keras文档中,predict函数原型:predict(self,x,batch_s
记录一下:#Threelossfunctionscategory_predict1=Dense(100,activation='softmax',name='c
1predict()方法当使用predict()方法进行预测时,返回值是数值,表示样本属于每一个类别的概率,我们可以使用numpy.argmax()方法找到样本
有时我们希望在一个python的文件空间同时载入多个模型,例如我们建立了10个CNN模型,然后我们又写了一个预测类Predict,这个类会从已经保存好的模型re