1.一种基于邻居增强的图神经网络会话推荐方法,其特征在于,包括以下步骤:S1、通过K临近算法寻找出与目标推荐会话最相近的K个邻居会话,且这K个邻居会话的最后一项点击项目均相同,以形成邻居会话集合Ns;
S2、将目标会话和K个最相近的邻居会话建模到一张邻居增强会话图中,同时将原始的目标会话建模为一张原始目标会话图;
S3、利用门控图神经网络,通过学习得到邻居增强会话图和原始目标会话图中的节点表示,并将最后一项点击的节点表示当作为用户的局部偏好;
S4、引入Fastformer网络模型,不考虑距离地捕获整个输入和输出序列本身的转换,并将结果作为用户的全局偏好;
S5、将用户的全局偏好和局部偏好相融合,作为用户的最终表示,对用户的下一个点击的项目进行预测,并将二元交叉熵函数作为损失函数;
其中,步骤S3中所述的图神经网络模型的公式为:
通过图的邻接矩阵A计算节点之间在t时间的信息传播
其中, 是邻居增强会话sNs在t‑1时刻的节点向量列表,Ain,Aout分别表示gNs的入度和出度矩阵, 分别是控制权重的可学习入度和出度参数矩阵,bin,bout分别是入度和出度偏置,||表示拼接操作;
表示更新门,控制遗忘信息,其公式为:
其中 是可学习的参数矩阵,σ(·)表示sigmoid函数;
表示重置门,决定更新信息,其公式为:
其中 是可学习的参数矩阵,σ(·)表示sigmoid函数;
表示更新的信息,其公式为:
其中tanh(·)是双曲正切函数, 是可学习的参数矩阵,⊙表示元素乘法运算符;
将节点在t时刻的隐藏表示向量定义为 其计算公式为:步骤S4中引入Fastformer网络模型,具体包括以下操作步骤:(1)对于会话内所有项目的潜在表示s=[h1,h2,...,h|s|],首先将其线性转换为三个矩阵,即查询矩阵Q=[q1,q2,...,q|s|]、键矩阵K=[k1,k2,...,k|s|]、值矩阵V=[v1,v2,...,v|s|],其中 接下来,使用加性注意机制将Q汇总到全局查询向量q中:其中, 是可学习的参数向量,d表示向量qi维度,αi是s中第i个向量的权重,i,j∈[1,|s|];
(2)使用全局查询向量和每个键向量之间的元素乘积来建模它们之间的交互,并将它们组合成全局上下文感知键矩阵pi=q*ki;此外,加性注意机制还用于汇总全局上下文感知关键矩阵:其中 是可学习的参数向量,βi是全局上下文感知键向量pi的权重;
(3)使用基于元素的乘积来建模P和K之间的交互,即ui=k*vi;基于残差的思想,将原始查询矩阵Q加到线性变换后的U中,得到最终的模型输出,将其视为用户的全局偏好:sg=Q+WrU。
2.根据权利要求1所述的基于邻居增强的图神经网络会话推荐方法,其特征在于,步骤S1中,首先采用会话之间相同项目的个数计算出的余弦相似度表示两个会话之间的相似程度,其公式为:其中,Ls表示两个会话之间相同项目的数量,La和Lb表示两个会话的长度;
然后,对前K个相似会话进行采样以形成邻居会话集合Ns。
3.根据权利要求2所述的基于邻居增强的图神经网络会话推荐方法,其特征在于,在步骤S2中,将步骤S1中得到的邻居会话集合Ns和目标会话建模到同一张图中,定义为邻居增强会话图gNs=(VNs,ENs),其中VNs表示邻居增强会话图中所有节点的合集,ENs表示邻居增强会话图中所有边的合集,原始目标会话图定义为gt=(Vs,Es),其中Vs表示原始目标会话图中所有节点的合集,Es代表原始目标会话图中所有边的集合。
4.根据权利要求1所述的基于邻居增强的图神经网络会话推荐方法,其特征在于,步骤S5具体包括以下步骤:使用拼接函数将用户的全局偏好和局部偏好结合起来,作为用户的最终表示:sfinal=sc||sg
其中,sc由步骤S3中得到的会话内最后一次点击的项目嵌入表示,在获得会话的最终会话嵌入表示后,用来计算每个候选项目vi的推荐分数 公式定义为:最后,使用softmax函数计算每个候选项目vi被点击的概率其中, 表示v=[v1,v2,...,vi]将成为下一个单击项目的概率;将预测的交叉熵和地面真值定义为损失函数,其公式如下:其中,yi表示基本真值项的一个热编码向量。
5.一种基于邻居增强的图神经网络会话推荐系统,其特征在于,包括:邻居会话集合生成单元,其被配置以执行以下动作:通过K临近算法寻找出与目标推荐会话最相近的K个邻居会话,且这K个邻居会话的最后一项点击项目均相同,以形成邻居会话集合Ns;
建模单元,其被配置以执行以下动作:将目标会话和K个最相近的邻居会话建模到一张邻居增强会话图中,同时将原始的目标会话建模为一张原始目标会话图;
神经网络学习单元,其被配置以执行以下动作:利用门控图神经网络,通过学习得到邻居增强会话图和原始目标会话图中的节点表示,并将最后一项点击的节点表示当作为用户的局部偏好;以及引入Fastformer网络模型,不考虑距离地捕获整个输入和输出序列本身的转换,并将结果作为用户的全局偏好;
结果输出单元,其被配置以执行以下动作:将用户的全局偏好和局部偏好相融合,作为用户的最终表示,对用户的下一个点击的项目进行预测,并将二元交叉熵函数作为损失函数;
其中,神经网络学习单元中,图神经网络模型的公式为:通过图的邻接矩阵A计算节点之间在t时间的信息传播
其中, 是邻居增强会话sNs在t‑1时刻的节点向量列表,Ain,Aout分别表示gNs的入度和出度矩阵, 分别是控制权重的可学习入度和出度参数矩阵,bin,bout分别是入度和出度偏置,||表示拼接操作;
表示更新门,控制遗忘信息,其公式为:
其中 是可学习的参数矩阵,σ(·)表示sigmoid函数;
表示重置门,决定更新信息,其公式为:
其中 是可学习的参数矩阵,σ(·)表示sigmoid函数;
表示更新的信息,其公式为:
其中tanh(·)是双曲正切函数, 是可学习的参数矩阵,⊙表示元素乘法运算符;
将节点在t时刻的隐藏表示向量定义为 其计算公式为:所述引入Fastformer网络模型,具体包括以下操作步骤:(1)对于会话内所有项目的潜在表示s=[h1,h2,...,h|s|],首先将其线性转换为三个矩阵,即查询矩阵Q=[q1,q2,...,q|s|]、键矩阵K=[k1,k2,...,k|s|]、值矩阵V=[v1,v2,...,v|s|],其中 接下来,使用加性注意机制将Q汇总到全局查询向量q中:其中, 是可学习的参数向量,d表示向量qi维度,αi是s中第i个向量的权重,i,j∈[1,|s\];
(2)使用全局查询向量和每个键向量之间的元素乘积来建模它们之间的交互,并将它们组合成全局上下文感知键矩阵pi=q*ki;此外,加性注意机制还用于汇总全局上下文感知关键矩阵:其中 是可学习的参数向量,βi是全局上下文感知键向量pi的权重;
(3)使用基于元素的乘积来建模P和K之间的交互,即ui=k*vi;基于残差的思想,将原始查询矩阵Q加到线性变换后的U中,得到最终的模型输出,将其视为用户的全局偏好:sg=Q+WrU。
6.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至4中任一项所述方法的步骤。
7.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至4中任一项所述方法的步骤。