• 精选
  • 会员

推荐系统的可解释性

2018年12月2日  来源:微软亚洲研究院 作者: 提供人:tipattab0......

研究热点5:推荐系统的可解释性

上文所述推荐系统研究大都将重心放在提高推荐准确性上,与推荐对象的沟通考虑得不够。近期,学者们开始关注推荐是否能够以用户容易接受的方式,充分抓住用户心理,给出适当的例子与用户沟通。研究发现,这样的系统不仅能够提升系统透明度,还能够提高用户对系统的信任和接受程度 、用户选择推荐产品的概率以及用户满意程度。设计这样一个可解释的推荐系统是我们的终极目标。

作为推荐领域被探索得较少的一个方向,可解释推荐的很多方面值得研究与探索。目前,我们在考虑从下面三个方面进行研究。

利用知识图谱增强算法解释能力。知识图谱作为可读性高的外部知识载体,给提高算法解释能力提供了极大的可能性。现有的可解释推荐所生成的推荐解释往往只局限于以物品为媒介、以用户为媒介或者以特征为媒介中的某一种,对这三类媒介之间的关联挖掘得还不够。我们希望能够利用知识图谱,打通这三类媒介之间的关联,根据具体情况灵活选择其中最合适的媒介对用户进行推荐与解释。另外,我们还可能利用Microsoft Concept Graph这类概念图谱,建立特征之间的可读深度结构,从而用来代替目前解释性极弱的深度学习网络,在提高可读性的同时保证算法的准确性。

在可解释人工智能越来越重要的时代,将知识图谱这类符号知识(symbolic knowledge)和深度学习结合,会是极有前景的方向。

模型无关的可解释推荐框架。目前可解释推荐系统大多是针对特定的推荐模型设计,可拓展性较弱,对于新兴的推荐模型,例如含有深度神经网络的复杂、混合模型的解释能力还不够。如果有一个模型无关的可解释推荐框架,就可以避免针对每个推荐系统分别设计解释方案,从而提高方法的可拓展性。我们对此做了初步尝试(《A Reinforcement Learning Framework for Explainable Recommendation》,ICDM2018)。在这一工作中,我们提出用如下的强化学习框架(图2)来对任何推荐模型进行解释,同时确保可拓展性、解释能力以及解释质量。

预见未来|个性化推荐系统,必须关注的五大研究热点

图2:模型无关的可解释推荐强化学习框架

结合生成模型进行对话式推荐。目前的推荐解释往往形式是预先设定、千篇一律的(如预先设定推荐解释是以用户为媒介的)。这样尽管也能根据用户心理举出一些例证,但是在沟通方式上还过于呆板。如果能用生成模型让推荐系统“自创”一句通顺甚至高情商的话,就可以在与用户聊天的过程中进行灵活、多变地推荐解释了。我们团队与微软小冰合作,在这方面进行了一些尝试,为小冰生成音乐推荐解释。

我们认为未来的推荐系统需要进一步考虑推荐算法的效率与可拓展性、融合多源异构的用户行为数据,并捕捉用户长短期的偏好;在推荐系统中结合知识图谱推理、设计通用策略的学习机制、以及通过有限的用户交互数据得到有效的决策模型是重要的研究方向;在可解释性方面,我们需要借助知识图谱来增强算法解释能力、设计模型无关的可解释推荐框架、并考虑结合生成模型进行对话式推荐;最后,我们需要认真关注用户隐私问题,设计在不同平台间共享用户数据的机制,并建立面向推荐系统的统一用户表示模型。我们相信个性化推荐系统将在准确性、多样性、计算效率、以及可解释性多个不同的方向持续演进,最终解决用户信息过载的困扰。

本文作者:谢幸、练建勋、刘政、王希廷、吴方照、王鸿伟、陈仲夏

个性化推荐 / 可解释性

如涉及版权,请著作权人与本网站联系,删除或支付费用事宜。

0000