||
(1) pop函数
pop() 函数用于移除列表中的一个元素(默认最后一个元素),并且返回该元素的值。
语法:list.pop(obj=list[-1]) //默认为 index=-1,删除最后一个列表值。
obj -- 可选参数,要移除列表元素的对象。
该方法返回从列表中移除的元素对象。
sentence=['All', 'good', 'things', 'come', 'to' ,'those', 'who', 'wait.']
print("默认为 index=-1,删除最后一个列表值:",sentence.pop(-1),"\n")
print("默认删除最后一个列表值: ",sentence.pop(),"\n")
print("删除第一个元素:",sentence.pop(0),"\n")
print("删除第三个元素:",sentence.pop(2),"\n")
print("输出剩余元素:",sentence)
运行结果为:(该方法返回从列表中移除的元素对象。)
每执行print()一下就移除一个
(2)sklearn中的shuffle
功能:shuffle打乱样本的顺序,它只会打乱样本的顺序,每个样本的数据维持不变。
示例代码:
import numpy as np from sklearn.utils import shuffle #3.通过字典创建data dic1 = { 'name': ['张三', '李四', '王二麻子', '小淘气'], 'age': [37, 30, 50, 16], 'gender': ['男', '男', '男', '女']} df5 = pd.DataFrame(dic1) print('df5', df5) df5_shuff = shuffle(df5) print('df5_shuff',df5_shuff)
(3)classification_report
分类模型的评估标准一般最常见使用的是准确率(estimator.score()),即预测结果正确的百分比。准确率是相对所有分类结果;
混淆矩阵:
精确率、召回率、F1-score是相对于某一个分类的预测评估标准。
精确率(Precision):预测结果为正例样本中真实为正例的比例(查的准)()
召回率(Recall):真实为正例的样本中预测结果为正例的比例(查的全)()
分类的其他评估标准:F1-score,反映了模型的稳健型
具体示例代码见博客:
Python scikit-learn,分类模型的评估,精确率和召回率,classification_report
(4)kappa系数
python脚本代码:
def kappa(matrix):
n = np.sum(matrix)
sum_po = 0
sum_pe = 0
for i in range(len(matrix[0])):
sum_po += matrix[i][i]
row = np.sum(matrix[i, :])
col = np.sum(matrix[:, i])
sum_pe += row * col
po = sum_po / n
pe = sum_pe / (n * n)
# print(po, pe)
return (po - pe) / (1 - pe)
#其中,matrix是一个方阵,若共有i个类别,则matrix.shape = (i,i).
#用下面的代码进行测试:
import numpy as np
matrix = [
[239,21,16],
[16,73,4],
[6,9,280]]
matrix = np.array(matrix)
print(kappa(matrix))
概念说明:
分类是机器学习中监督学习的一种重要应用,基于统计的机器学习方法可以使用SVM进行二分类,可以使用决策书,梯度提升树等进行多分类。
对于二分类模型,我们通常可以使用ROC曲线来评估模型的预测效果。这里,我们介绍一下在多分类中衡量模型评估准确度的一种方法–kappa系数评估方法。
Kappa系数
kappa系数是用在统计学中评估一致性的一种方法,我们可以用他来进行多分类模型准确度的评估,这个系数的取值范围是[-1,1],实际应用中,一般是[0,1],与ROC曲线中一般不会出现下凸形曲线的原理类似。
这个系数的值越高,则代表模型实现的分类准确度越高。kappa系数的计算方法可以这样来表示:
推荐:使用现成的函数
混淆矩阵(Confusion matrix)的原理及使用(scikit-learn 和 tensorflow)
【参考】
https://www.cnblogs.com/foremostxl/p/9365482.html
https://blog.csdn.net/weixin_38410551/article/details/104432252
https://www.cnblogs.com/webRobot/p/11459892.html
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2025-1-6 21:05
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社