机器学习算法优秀性:衡量指标
评价算法优秀程序的时候,常用一系列指标来衡量,主要包括:Precision,Recall,F-1 Score,为什么要设计这些值?单单用Precision不行吗?
1, 什么是Precision ?
Precison,准确度,主要表示检测出的Alert中有多少是正确的判断(True Positive,TP)。
实际使用中,由于样本中正常数据和异常数据的比例不同,准确性可能不能体现真实的算法性能,举个例子:
癌症检测:假定99.5%的人是健康的,0.5%的人患有癌症。
错误检测算法:简单所有患者都判断为健康的。
准确性:上述算法准确性为99.5% !!只有0.5%的不健康的人被误判为健康。
2, 为什么用Recall ?
上例中一种明显错误的检测算法可以轻松达到99.5%的准确度,所以准确性不能全面衡量算法优秀程度,为此设立了Recall值来衡量。
Recall,召唤率,异常数据被检测出来的比例。Recall = TP/(TP+FN)
在上例中,Recall就是0,没有异常值能够被检测出来。
3, 为什么用F-1 Score ?
将Precision和Recall结合起来就可以更综合衡量算法的优秀程度,F-1就是这样一个指标:
F-1 Score = 2*Precision*Recall /(Precision+Recall)
注:不能简单对Precision和Recall求均值(Average),上面那个明显错误的例子,Precision = 0.995, Recall = 0, 均值有0.5,明显不合理。
而采用F-1Score,F1依然是0,更合理。
郑重声明:本站内容如果来自互联网及其他传播媒体,其版权均属原媒体及文章作者所有。转载目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。