沃森手动排名

  • 本文关键字: retrieve-and-rank
  • 更新时间 :
  • 英文 :


我正在尝试为演示构建一个ranker。我做了"自动训练",结果还可以(可能会更好)我正试图进行手动培训,但我对Bluemix在线文档中参数的含义感到困惑:https://www.ibm.com/watson/developercloud/doc/retrieve-rank/training_data.shtml#manual

请在下面的Bluemix样本数据中解释一下好吗?

query_id, feature1, feature2, feature3,...,ground_truth
question_id_1, 0.0, 3.4, -900,...,0
question_id_1, 0.5, -70, 0,...,1
question_id_1, 0.0, -100, 20,...,3
...

什么是query__id?(它代表什么?)什么是功能1,功能2?(它代表什么?)什么是questionid_1?(它代表什么?)以及如何计算这些分数(0.0、3.4、-900)?

我知道ground_truth值必须从0到4(0表示根本不相关,4表示完全匹配),这是正确的吗?

亲切问候Xavier

训练数据用于训练从学习到排序(L2R)算法。L2R方法是首先获取响应于query(又称问题)生成的candidate answers(例如,搜索结果页面中的文档)的列表,并将每个query-answer pair表示为一组特征。每个特征都有望捕捉到特定候选答案与查询匹配程度的一些表示。训练数据中的每一行表示属于这些查询-答案对之一的特征值。

因为训练数据包含来自许多不同查询(以及相应的搜索结果)的特征向量,所以第一列使用查询id将响应于单个查询生成的不同候选答案联系在一起。

正如您所说,最后一列简单地捕捉了人类注释者是否相信答案实际上与问题相关。0-4不是强制性的。0总是表示不相关。但在那之后,你可以使用任何对你的用例有意义的量表(当数据有限时,人们通常只使用0-1的二进制量表,因为这会降低复杂性)。

您引用的文档页面上提供的python脚本实际上将在给定包含不同查询的文件的情况下,完成生成候选答案和相应特征向量的过程。您可能希望逐步了解该脚本中的代码,以便更好地了解如何创建训练数据。

相关内容

  • 没有找到相关文章

最新更新