博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
机器学习评价指标
阅读量:4550 次
发布时间:2019-06-08

本文共 3563 字,大约阅读时间需要 11 分钟。

 

 

metrics.png
 

 

wiki.png

机器学习度量指标

分类评估指标

TN TP FN FP

TP:预测为正向(P),实际上预测正确(T),即判断为正向的正确率

TN:预测为负向(N),实际上预测正确(T),即判断为负向的正确率
FP:预测为正向(P),实际上预测错误(F),误报率,即把负向判断成了正向
FN:预测为负向(N),实际上预测错误(F),漏报率,即把正向判断称了负向

  Positive Negative
True True Positive(TP) 真阳性 True Negative(TN) 真阴性
False False Positive(FP) 假阳性 False Negative(FN) 假阴性

准确率(Accuracy)

ACC= \frac{TP+TN}{TP+TN+FP+FN}

【注意】当分类问题是平衡(blanced)的时候,准确率可以较好地反映模型的优劣程度,但不适用于数据集不平衡的时候。

例如:分类问题的数据集中本来就有97% 示例是属于X,只有另外3%不属于X,所有示例都被分类成X的时候,准确率仍然高达97%,但这没有任何意义。

精确率Precision

Precision = \frac{TP}{TP+FP}

查准率 即在预测为正向的数据中,有多少预测正确。【预测结果为真的数据】

召回率Recall

Recall = \frac{TP}{TP+TN}

查全率 即在所有正向的数据中,有多少预测正确。【样本原来真的数据】

F1-Score

F1 = \frac{2*Precision*Recall}{Precision+Recall}

F1值为精确率和召回率的调和均值。

ROC(Receiver Operating Characteristic)曲线

先了解以下几个概念

真正率(True Positive Rate, TPR),又名灵敏度(Sensitivity):分类正确的正样本个数占整个正样本个数的比例。

TPR = \frac{TP}{TP+FN}

假负率(False Negative Rate, FNR):分类错误的正样本的个数占正样本的个数的比例。

FNR = \frac{FN}{TP+FN}

假正率(False Positive Rate, FPR):分类错误的负样本个数占整个负样本个数的比例。

FPR = \frac{FP}{FP+TN}

真负率(True Negative Rate, TNR):分类正确的负样本的个数占负样本的个数的比例。

TNR = \frac{TN}{FP+TN}


ROC曲线是以假正率(FP_rate)和真正率(TP_rate)为轴的曲线,ROC曲线下面的面积我们叫做AUC。

AUC(Area Under Curve) 被定义为ROC曲线下的面积,显然这个面积的数值不会大于1。
如下图所示:

 

 

ROC-AUC

曲线与FP_rate轴围成的面积(记作AUC)越大,说明性能越好,即图上L2曲线对应的性能优于曲线L1对应的性能。即:曲线越靠近A点(左上方)性能越好,曲线越靠近B点(右下方)曲线性能越差。

PR(precision recall)曲线

表现的是precision和recall之间的关系。

回归评估指标

测试数据集中的点,距离模型的平均距离越小,该模型越精确。

使用平均距离,而不是所有测试样本的距离和,因为距离和受样本数量的影响

平均绝对误差 MAE

平均绝对误差MAE(Mean Absolute Error)又被称为 范数损失(l1-norm loss)。

MSE = \frac{1}{m}\sum_{i=1}^{m}\left | y^{i}-\bar{y} \right|

平均平方误差 MSE

平均平方误差 MSE(Mean Squared Error)又被称为 范数损失(l2-norm loss)。

MSE = \frac{1}{m}\sum_{i=1}^{m}\left ( y^{i}-\bar{y} \right )^2

RMSE:均方根误差

均方根误差RMSE(Root Mean Squared Error)

RMSE = \sqrt{\frac{1}{m}\sum_{i=1}^{m}\left ( y^{i}-\bar{y} \right )^2}

RMSE和MAE有局限性:同一个算法模型,解决不同的问题,不能体现此模型针对不同问题所表现的优劣。因为不同实际应用中,数据的量纲不同,无法直接比较预测值,因此无法判断模型更适合预测哪个问题。

R-squared

  • 原始数据和均值之差的平方和

    SS_{tot} = \frac{1}{m}\sum_{i=1}^{m}\left ( y^{i}-\bar{y} \right )^2

  • 预测数据与原始数据均值之差的平方和

    SS_{res} = \sum_{i=1}^{m}(y^i-f(x^i))^2

R^2 = 1 - \frac{SS_{res}}{SS_{tot}}

上面公式中SS_{tot}表示测试数据真实值的方差(内部差异);SS_{res}代表回归值与真实值之间的平方差异(回归差异),因此R-squared既考量了回归值与真实值的差异,也兼顾了问题本身真实值的变动。【模型对样本数据的拟合度】

R-squared 取值范围(-\infty, 1],值越大表示模型越拟合训练数据;最优解是1;当模型 预测为随机值的时候,有可能为负;若预测值恒为样本期望,R2为0。

from sklearn.metrics import mean_squared_error #均方误差from sklearn.metrics import mean_absolute_error #平方绝对误差 from sklearn.metrics import r2_score#R square

聚类性能指标

ARI (Adjusted Rand index)

若样本数据本身带有正确的类别信息,可用ARI指标进行评估。

from sklearn.metrics import adjusted_rand_score()

轮廓系数 Silhouette Cofficient

若样本数据没有所属类别,可用轮廓系数来度量聚类结果的质量。

from sklearn.metrics import silhouette_score

sklearn里的常见评测指标

Scoring(得分) Function(函数) Comment(注解)
Classification(分类)    
‘accuracy’ metrics.accuracy_score  
‘average_precision’ metrics.average_precision_score  
‘f1’ metrics.f1_score for binary targets(用于二进制目标)
‘f1_micro’ metrics.f1_score micro-averaged(微平均)
‘f1_macro’ metrics.f1_score macro-averaged(微平均)
‘f1_weighted’ metrics.f1_score weighted average(加权平均)
‘f1_samples’ metrics.f1_score by multilabel sample(通过 multilabel 样本)
‘neg_log_loss’ metrics.log_loss requires predict_proba support(需要 predict_proba 支持)
‘precision’ etc. metrics.precision_score suffixes apply as with ‘f1’(后缀适用于 ‘f1’)
‘recall’ etc. metrics.recall_score suffixes apply as with ‘f1’(后缀适用于 ‘f1’)
‘roc_auc’ metrics.roc_auc_score  
Clustering(聚类)    
‘adjusted_mutual_info_score’ metrics.adjusted_mutual_info_score  
‘adjusted_rand_score’ metrics.adjusted_rand_score  
‘completeness_score’ metrics.completeness_score  
‘fowlkes_mallows_score’ metrics.fowlkes_mallows_score  
‘homogeneity_score’ metrics.homogeneity_score  
‘mutual_info_score’ metrics.mutual_info_score  
‘normalized_mutual_info_score’ metrics.normalized_mutual_info_score  
‘v_measure_score’ metrics.v_measure_score  
Regression(回归)    
‘explained_variance’ metrics.explained_variance_score  
‘neg_mean_absolute_error’ metrics.mean_absolute_error  
‘neg_mean_squared_error’ metrics.mean_squared_error  
‘neg_mean_squared_log_error’ metrics.mean_squared_log_error  
‘neg_median_absolute_error’ metrics.median_absolute_error  
‘r2’ metrics.r2_score  

 

转载于:https://www.cnblogs.com/Yanjy-OnlyOne/p/11251277.html

你可能感兴趣的文章
数组复制:关于java中引用传递的一个例子
查看>>
第九周PSP
查看>>
红帽linux忘记root密码的配置
查看>>
JS十进制转二进制(控制位数)
查看>>
Spark源码分析 – SparkContext
查看>>
tabBar选择不同item设置标题不同颜色
查看>>
机器学习算法一览图
查看>>
【BZOJ】3309: DZY Loves Math 莫比乌斯反演优化
查看>>
luogu1972:HH的项链
查看>>
矩形面积
查看>>
C++语言 文件对话框的调用
查看>>
运算符
查看>>
11.软件项目管理与敏捷方法——风险管理笔记
查看>>
微服务监控zipkin、skywalking以及日志ELK监控系列
查看>>
4553: [Tjoi2016&Heoi2016]序列
查看>>
3027 线段覆盖 2
查看>>
CF 959 E. Mahmoud and Ehab and the xor-MST
查看>>
【niubi-job——一个分布式的任务调度框架】----niubi-job这下更牛逼了!
查看>>
移动支付[1]——MAC加密
查看>>
c++深/浅拷贝 && 构造函数析构函数调用顺序练习题
查看>>