-
公开(公告)号:CN119918666A
公开(公告)日:2025-05-02
申请号:CN202411977033.1
申请日:2024-12-26
Applicant: 腾讯科技(深圳)有限公司 , 清华大学深圳国际研究生院
Abstract: 本申请涉及一种答案生成方法、装置、计算机设备、存储介质和程序产品。所述方法包括:响应于问题查询请求,获取待处理的学术推理问题;在所述学术推理问题所属领域的问答库中,选取与所述学术推理问题匹配的参考问答;所述问答库是对原问答库中问答的推理步骤或误推理结果中的至少一种进行优化处理所得;将所述学术推理问题和所述参考问答进行拼接,得到拼接问答;基于所述拼接问答生成所述学术推理问题的目标答案。采用本方法能够提高生成答案的质量。
-
公开(公告)号:CN114742073B
公开(公告)日:2024-08-27
申请号:CN202210363151.8
申请日:2022-04-07
Applicant: 清华大学深圳国际研究生院
IPC: G06F40/35 , G06F18/214 , G06F18/21 , G06F18/2415 , G06F16/332 , G06N3/045
Abstract: 一种基于深度学习的对话情绪自动识别方法,所述方法构建和训练基于关键历史语段感知的神经网络模型;其中,模型的误差建模包括:分类误差计算、语段情绪关联性损失计算以及情绪表示距离递减损失计算;其中。对于对话情绪自动化识别而言,本方法中的语段情绪关联性损失的建模能够使模型感知到关键历史语段中的情绪特征,而情绪表示距离递减损失的建模侧重于对话时序特性的感知。相较于现有的方法,本方法在支持实时识别的基础上,拥有着更高的识别准确率。
-
公开(公告)号:CN114444084B
公开(公告)日:2024-08-20
申请号:CN202210020119.X
申请日:2022-01-10
Applicant: 清华大学深圳国际研究生院
Abstract: 本发明提供一种模糊测试方法及计算机可读存储介质,方法包括:生成突变输入时包括如下步骤:S1:对种子队列中每个种子执行字节分析以识别与验证检查相关的字节,所述字节分析包括对所述种子中所有所述字节尝试突变,根据所述突变输入的路径变化情况得到所述字节的分数值;S2:根据所述字节的所述分数值确定是否对所述字节进行突变。本发明使用一种新颖的轻量级突变策略来增加生成合法突变输入的可能性;进一步地,在相同的时间内实现更大的代码覆盖率,提高模糊测试效率。
-
公开(公告)号:CN118260483A
公开(公告)日:2024-06-28
申请号:CN202410333535.4
申请日:2024-03-22
Applicant: 清华大学深圳国际研究生院 , 华为技术有限公司
IPC: G06F16/9535 , G06F40/151 , G06N3/0475 , G06F16/332 , G06N3/045 , G06F40/289 , G06N3/0985
Abstract: 一种多模态个性化内容生成方法,包括如下步骤:S1、使用大语言模型将多种形式的用户行为数据转化为自然语言描述;S2、使用大语言模型从自然语言描述的多种用户行为中提取用户偏好与目标场景特征,其中,通过生成显式关键词与隐式向量以混合表征用户偏好;S3、将由显式关键词与隐式向量混合表征的用户偏好以及场景信息输入到多模态内容生成器模块中,通过加权整合用户偏好和场景信息来生成多模态内容,实现对生成内容的个性化程度和与目标场景的匹配度联合调节的多模态个性化生成。该方法提高了多模态个性化内容生成质量并实现了多模态内容个性化程度的可控性。
-
公开(公告)号:CN115984667A
公开(公告)日:2023-04-18
申请号:CN202310008684.9
申请日:2023-01-04
Applicant: 清华大学深圳国际研究生院
IPC: G06V10/82 , G06V10/764 , G06V10/774 , G06V10/77 , G06N3/045 , G06N3/0475 , G06N3/094 , G06N3/084 , G06N3/086
Abstract: 本发明公开了一种基于Fisher信息的对抗训练泛化能力提升方法,包括如下步骤:S1、通过不同对抗攻击方法将干净图像生成不同对抗图像;S2、通过Fisher信息将不同对抗图像进行线性叠加得到泛化对抗图像;S3、通过粒子群算法优化泛化对抗图像加权系数得到最优泛化对抗图像;S4、使用最优泛化对抗图像进行对抗训练得到泛化能力更强的分类模型。本发明不仅可以维持传统对抗攻击方法在干净图像上的分类准确率,而且对多种和未知的对抗攻击方法生成的对抗图像也具有很强的泛化性。
-
公开(公告)号:CN111651557B
公开(公告)日:2023-03-31
申请号:CN202010388608.1
申请日:2020-05-09
Applicant: 清华大学深圳国际研究生院
IPC: G06F16/33 , G06F16/332 , G06F16/36 , G06F40/289 , G06F40/30
Abstract: 本发明提供一种自动化文本生成方法、装置及计算机可读存储介质,方法包括:训练Transformer编码‑解码的深度学习模型,包括:将话题词分别进行文本编码和知识图谱编码得到对应的隐藏状态表示,其中,在知识图谱编码过程中为每个所述话题词添加多个知识图谱三元组;根据所述文本编码和所述知识图谱的三元组编码的隐藏状态表示解码得到生成文本;利用训练好的所述深度学习模型,根据新输入的话题词自动化生成新的文本。装置用于实现方法。通过使用Transformer编码‑解码的深度学习模型,利用Tansformer充分学习了文本之间、知识图谱三元组之间、文本和三元组之间的关系,并产生更为丰富的生成结果。
-
公开(公告)号:CN112463638B
公开(公告)日:2022-09-20
申请号:CN202011459487.1
申请日:2020-12-11
Applicant: 清华大学深圳国际研究生院
Abstract: 本发明提供一种基于神经网络的模糊测试方法及计算机可读存储介质,方法包括:改进模糊测试工具中的边的哈希计算过程使得每条所述边的哈希值不同,得到改进后的模糊测试工具;基于所述改进后模糊测试工具生成的覆盖信息作为训练集对神经网络进行训练;依据临近边信息挑选出 对,利用训练完成的所述神经网络计算出该输出神经元对输入的梯度,并根据所述梯度的绝对值的大小确定输入中的关键字节,从而对关键字节进行变异生成测试用例集合;使用所述测试用例集进行模糊测试。从而实现了以较小的资源开销探索了程序状态信息。
-
公开(公告)号:CN114840747A
公开(公告)日:2022-08-02
申请号:CN202210404048.3
申请日:2022-04-18
Applicant: 清华大学深圳国际研究生院
IPC: G06F16/9535 , G06F16/906 , G06N20/00 , G06K9/62
Abstract: 本发明公开了基于对比学习的新闻推荐方法,包括基于对比学习的用户兴趣抽取步骤;所述用户兴趣抽取步骤包括:提供一用户兴趣编码器,该用户兴趣编码器被配置为对用户浏览的新闻序列进行编码得到兴趣向量;对所述用户浏览的新闻序列进行编码得到第一兴趣向量;对所述用户浏览的新闻序列进行数据增强,再对数据增强后的新闻序列进行编码得到第二兴趣向量;训练所述用户兴趣编码器,训练过程中,引入使所述第一兴趣向量和所述第二兴趣向量相接近,并使所述第一兴趣向量与其它用户的兴趣向量相远离的兴趣对比学习损失。
-
公开(公告)号:CN114625986A
公开(公告)日:2022-06-14
申请号:CN202210128961.5
申请日:2022-02-11
Applicant: 腾讯科技(深圳)有限公司 , 清华大学深圳国际研究生院
IPC: G06F16/9538 , G06F16/901 , G06F17/18 , G06N3/04 , G06N3/08
Abstract: 本申请公开了一种对搜索结果进行排序的方法、装置、设备及存储介质,属于人工智能技术领域。所述方法包括:获取目标搜索词对应的多个待排序的搜索结果;确定每个搜索结果与所述目标搜索词的相关性特征;基于多样性特征提取模型,确定每个搜索结果对应的多样性特征,其中,所述多样性特征用于表示对应的搜索结果包括目标搜索词对应含义的多少;基于所述每个搜索结果对应的相关性特征和多样性特征,确定所述每个搜索结果对应的排序指示值;基于所述每个搜索结果对应的排序指示值,对所述多个搜索结果进行排序。采用本申请能够提高用户通过搜索词搜索信息的效率。
-
公开(公告)号:CN112990261A
公开(公告)日:2021-06-18
申请号:CN202110163294.X
申请日:2021-02-05
Applicant: 清华大学深圳国际研究生院
Abstract: 本发明公开了一种基于敲击节奏的智能手表用户识别方法,从敲击节奏训练数据中提取特征,构造特征向量;利用One‑class DBSCAN算法来训练模型,得出核心对象集;计算新样本特征向量与每个核心对象之间的欧氏距离,以识别该新样本是否属于核心向量的类。本发明针对智能手表缺乏合适的用户识别导致的隐私问题,提出了一种新的基于敲击节奏的智能手表用户识别方法,并提出了一种新的一类分类算法One‑class DBSCAN,本发明适用于智能手表较小的屏幕以及低功耗的设定,新的一类分类算法One‑class DBSCAN可以在训练数据只有一类的情况下准确地判断新样本是否属于当前类。
-
-
-
-
-
-
-
-
-