欢迎来到利索能及~ 联系电话:18621327849
利索能及
我要发布
收藏
专利号: 2021110359186
申请人: 中国计量大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-10-29
缴费截止日期: 暂无
联系人

摘要:

权利要求书:

1.一种基于分层注意力机制的异构图的会话推荐方法,其特征在于:根据用户当前会话中的物品序列,召回邻居会话集合;采用记忆矩阵M存储最近发生的会话;基于当前会话s={v1,v2,…,v|s|},计算当前会话和记忆矩阵M中的候选会话之间的cosine相似度,把cosine相似度低于阈值simt hre的会话过滤掉,再按照cosine相似度由高到低排序,前k个会话就是当前会话s的邻居会话集合Ns;

根据用户当前会话和邻居会话集合,构建异构图;异构图G中的节点为当前会话s和邻居会话集合Ns中出现的物品集合的并集;异构图G中的边是有向边,且存在两种语义的边:一种边来源于当前会话中物品转移关系,代表当前用户的兴趣转移;另外一种边来源于邻居会话中的物品转移关系,代表着物品的普遍转移规律;两种边的数据来源不同,因此代表的语义也不同,两种语义的边使用标志φ∈{ses,nei}区分;当前会话s={v1,v2,…,v|s|}中的(vj‑1,vj)为异构图G的一种有向边,表示点击物品vj‑1之后,点击物品vj;同理,邻居会话集合Ns中的会话中也可以构建出异构图G的另一种有向边;

基于异构图,采用分层注意力机制得到当前会话中的物品向量表征;对异构图中的物品节点进行向量更新,且只对异构图中属于当前会话s中的物品进行向量更新;异构图的节点信息传递采用分层注意力机制,包含两层注意力机制:第一层是基于节点的注意力机制,第二层是基于语义的注意力机制;异构图根据边的语义不同可以划分成两个语义子图,先用基于节点的注意力机制各自在两个子图中进行节点的信息传递,两个子图分别得到更新后的节点向量表征,此时一个物品节点存在两种语义的向量表征;然后采用基于语义的注意力机制,对一个物品节点的两个语义向量表征进行选择,给其分配不同的重要性,进行物品节点的信息融合,最后得到物品的最终向量表征;异构图中第i个节点采用基于节点注意力机制方法更新的计算过程如下:

其中,所有的上标φ取值为φ∈{ses,nei},代表的语义分别是当前用户兴趣转移和普遍物品转移规律;hi是异构图中第i个节点的原始向量表征,初始化为物品vi的向量表征emb(vi),emb(vi)需要不断在模型训练时更新学习;这里的vi属于当前会话中出现的物品,也就是vi∈s; 是异构图中第i个节点经过转换之后的向量表征, 是转换矩阵; 表示第j个邻居节点对第i个节点的重要程度,重要程度 采用基于节点的注意力机制attnode来计算,表示在φ语义子图下第i个节点的邻居节点集合;attnode的具体公式为‖表示向量连接操作, 和 分别是转换向量和转换矩阵,tanh是tanh激活函数;得到第j个邻居节点对第i个节点的重要程度 之后,采用softmax函数对 进行归一化,归一化之后的系数为 最后将第i个节点的所有邻居节点 的信息传递给第i个节点,得到 是第i个节点经过节点注意力机制更新后的向量表征;此时,异构图中一个物品节点会存在两个语义向量表征,如第i个节点的两个语义向量表征分别为 和 然后采用基于语义的注意力机制,对一个物品节点的两个语义向量表征进行选择,给其分配不同的重要性,进行物品节点的信息融合,最后得到物品的最终向量表征:

其中, 和 是转换矩阵,bf是偏置向量,qf是转换向量,tanh是tanh激活函数,σ是sigmoid激活函数;系数β表示 的重要程度,系数1‑β表示 的重要程度;第i个物品节点的最终向量表征为xi;

根据用户当前会话中物品序列,获得用户兴趣表征;得到所有物品的向量表征之后,采用门控制循环神经网络GRU对用户当前会话s={v1,v2,…,v|s|}进行表征,得到会话表征,即用户当前兴趣表征p;

根据用户兴趣表征,推荐物品;将物品vj的向量emb(vj)乘以用户兴趣向量p,再应用softmax函数计算出物品vj的分数:其中,p代表用户的兴趣向量, 代表物品vj成为下一个交互物品的可能性;同时根据的对数似然函数值,计算损失函数:

其中,yj代表vj的one‑hot编码, 函数用梯度下降法来最优化。

2.根据权利要求1所述的一种基于分层注意力机制的异构图的会话推荐方法,其特征在于:所述cosine相似度计算公式为:其中,sj是记忆矩阵M中存储的任一会话; 是会话s的二进制向量表示,如果一个物品出现在会话中,那么s中对应位置为1,否则为0;同理, 是会话sj的二进制向量表示;l(s)和l(sj)分别代表了会话s和sj的长度。

3.根据权利要求1所述的一种基于分层注意力机制的异构图的会话推荐方法,其特征在于:所述门控制循环神经网络GRU为:zi=σ(Wxz·xi+Whz·hi‑1)ri=σ(Wxr·xi+Whr·hi‑1)其中,ri是重置门,zi为更新门,这两个门控向量决定了哪些信息能作为门控循环单元的输出; 是当前记忆内容;xi是当前层的节点输入;Wxz、Whz、Wxr和Whr分别是控制更新门zi和重置门ri的参数;Wxh和Whh是控制前记忆内容 的参数;⊙是元素级别的矩阵相乘,σ是sigmoid函数;门控制循环神经网络GRU的最后一个隐藏层的输出h|s|就是该会话表征,即用户当前兴趣表征p。