0
点赞
收藏
分享

微信扫一扫

MAP 与 MRR

做个橙梦 2022-04-20 阅读 36
java后端

看论文时,发现对于wikiqa的评价指标常设为MAP、MRR这些Rank排序的指标,不是很理解,看了下面这篇博客有些理解了

http://blog.csdn.net/lightty/article/details/47079017?

在MAP中,四个文档和query要么相关,要么不相关,也就是相关度非0即1。

MAP(Mean Average Precision):

单个主题的平均准确率是每篇相关文档检索出后的准确率的平均值。主集合的平均准确率(MAP)是每个主题的平均准确率的平均值。MAP 是反映系统在全部相关文档上性能的单值指标。系统检索出来的相关文档越靠前(rank 越高),MAP就可能越高。如果系统没有返回相关文档,则准确率默认为0。
例如:假设有两个主题,主题1有4个相关网页,主题2有5个相关网页。某系统对于主题1检索出4个相关网页,其rank分别为1, 2, 4, 7;对于主题2检索出3个相关网页,其rank分别为1,3,5。对于主题1,平均准确率为(1/1+2/2+3/4+4/7)/4=0.83。对于主题2,平均准确率为(1/1+2/3+3/5+0+0)/5=0.45。则MAP= (0.83+0.45)/2=0.64。”

MRR(Mean Reciprocal Rank):

是把标准答案在被评价系统给出结果中的排序取倒数作为它的准确度,再对所有的问题取平均。相对简单,举个例子:有3个query如下图所示:

(黑体为返回结果中最匹配的一项)

可计算这个系统的MRR值为:(1/3+1/2+1)/3 = 11/18=0.61。

举报

相关推荐

0 条评论