-
公开(公告)号:CN118709133A
公开(公告)日:2024-09-27
申请号:CN202410800969.0
申请日:2024-06-20
Applicant: 东北大学
IPC: G06F18/25 , G06F18/10 , G06F18/21 , G06F18/214 , G06N3/0464 , G06N3/0455 , G06N3/0895
Abstract: 本发明提供一种基于多视角自监督对比学习的多模态推荐方法,涉及推荐系统技术领域。本发明通过基于特征交叉矫正的两阶段模态表征模块缩小了跨模态语义差距,有效减少了噪声;通过二元重编织进行用户‑项目图结构扰动,净化了历史数据中的虚假交互,更好的拟合了真实场景;最后通过构建项目‑项目亲和图实现模态信息增强,大大提升项目嵌入的语义关联度,在减小计算复杂度的同时解决了信息混叠和模态语义丢失的问题。对于上述多视角进行自监督对比学习,最大化不同视图下的节点的互信息,更好地表征了节点,有效提高了推荐系统的准确性和鲁棒性。
-
公开(公告)号:CN118674001A
公开(公告)日:2024-09-20
申请号:CN202410797522.2
申请日:2024-06-20
Applicant: 东北大学
IPC: G06N3/092 , G06N3/042 , G06N3/0464 , G06N5/04
Abstract: 本发明提供一种融合图卷积与大语言模型的状态动作关系强化学习方法,涉及强化学习技术领域,通过结合GCN和LLM的强力特性——对空间信息处理和自然语言理解的双重优势,深入学习和内化环境中的复杂空间关系以及状态转移中的时间序列动态,利用GCN捕捉状态间的复杂空间结构,以及利用LLM处理和生成基于历史行为的时间序列数据,为RL智能体提供更准确的环境预测和策略规划工具,提升在复杂交互环境中的表现。GCN负责揭示状态之间的空间相互作用,而LLM则解析长期依赖和模式,提供连贯的决策支持,为RL智能体提供更准确的环境预测和策略规划工具,提升在复杂交互环境中的表现。
-