-
公开(公告)号:CN119047352B
公开(公告)日:2025-04-04
申请号:CN202411553120.4
申请日:2024-11-01
Applicant: 之江实验室
IPC: G06F30/27 , G06F17/18 , G06N7/01 , G06F111/08
Abstract: 本说明书提供的一种任务执行方法、装置、存储介质以及电子设备,可以基于预先存储的多元高斯分布函数,确定第一分布,基于弦积分正向模型和第一分布,确定第二分布,并响应于获取到的操作指令,根据第一分布和第二分布,执行贝叶斯反演操作,以得到第三分布。通过获取目标等离子体的实际弦积分测量信号以及部分位置处的实际点测量值,以根据第三分布、实际弦积分测量信号以及实际点测量值,确定目标等离子体的各位置处对应的实际物理场信息,并根据实际物理场信息,进行任务执行。
-
公开(公告)号:CN118759921B
公开(公告)日:2024-12-31
申请号:CN202410825029.7
申请日:2024-06-25
Applicant: 之江实验室
IPC: G05B19/042
Abstract: 本发明公开了一种基于对抗技能嵌入和分层强化学习的战斗机飞行控制方法,其设计了基于对抗生成式算法和深度强化学习算法共同组成的对抗技能嵌入学习框架,利用专家飞行数据由AI算法自动学习底层控制指令到宏机动技能的映射,并通过复用这些宏机动技能,显著降低下游空战任务的学习难度,大幅压缩强化学习算法的收敛时间,提升空战智能体的博弈性能,并赋予了空战智能体更高的灵活性和快速迁移能力,为空战智能体的实用化训练和部署探明了一条新技术路径。
-
公开(公告)号:CN118861824A
公开(公告)日:2024-10-29
申请号:CN202411102196.5
申请日:2024-08-12
Applicant: 之江实验室
IPC: G06F18/241 , G21B1/25 , G06F18/27 , G06N3/0464 , G06N3/0455 , G06N3/08 , G01N21/73
Abstract: 本说明书公开了一种诊断代理模型的训练方法、装置、介质及电子设备,该方法包括:将等离子体的第一测量信号输入待训练的诊断代理模型的嵌入层,确定第一信号向量。将第一测量信号对应的测量光路的第一弦积分信息输入嵌入层,确定第一位置向量。将等离子体的第一物理边界输入嵌入层,确定第一区域向量。将第一信号向量、第一位置向量和第一区域向量输入待训练的诊断代理模型的编码层,确定第一编码特征。根据第一编码特征,确定第一预测剖面。根据第一预测剖面和等离子体的二维物理参数剖面,对待训练的诊断代理模型进行训练,可使得诊断代理模型更好地学习测量信号和物理信息之间的内在联系和规律,从而精确地推断出等离子体的物理参数。
-
公开(公告)号:CN118839053A
公开(公告)日:2024-10-25
申请号:CN202411321148.5
申请日:2024-09-23
Applicant: 之江实验室
IPC: G06F16/951 , G06F16/955 , G06N3/0455 , G06F40/186
Abstract: 本申请涉及一种网页数据采集方法、系统、计算机设备和可读存储介质。该方法采集到的网页数据用于对目标领域的大语言模型进行预训练,所述方法包括:确定目标场景模板和目标关键词;将所述目标关键词填充到所述目标场景模板中,调用通用的大语言模型,生成多个搜索词句;调用搜索服务,基于所述搜索词句生成第一URL列表;基于爬虫技术和所述第一URL列表采集得到网页数据。采用本方法能够降低硬件资源消耗成本、人力成本以及提高预训练数据的获取效率。
-
公开(公告)号:CN118378592B
公开(公告)日:2024-08-16
申请号:CN202410803845.8
申请日:2024-06-20
Applicant: 之江实验室
IPC: G06F40/117 , G06N5/04 , G06F40/151
Abstract: 本说明书公开了一种基于公式学习的大模型微调方法、装置及存储介质,获取包含公式的原始文本中的公式和公式的候选变量。针对每个公式,根据该公式的上下文内容,确定目标文本并确定目标文本中的候选变量,在该公式中确定与候选变量一致的匹配变量,根据包含候选变量的语句确定解释文本。将目标文本的解释文本和匹配变量屏蔽,得到任务文本,根据公式和解释文本确定任务文本的标注。将任务文本和任务提示输入大模型得到预测文本,根据预测文本与标注的差异微调大模型。通过屏蔽目标文本的解释文本和匹配变量,对大模型进行微调,使大模型学习到公式中的变量与其解释之间的对应关系,从而在问答任务中提高大模型对涉及公式计算问题的回答准确率。
-
公开(公告)号:CN118570064A
公开(公告)日:2024-08-30
申请号:CN202410688395.2
申请日:2024-05-30
Applicant: 之江实验室
IPC: G06T3/4053 , G06T5/70 , G06T5/60 , G06N3/0464 , G06N3/0475 , G06N3/045 , G06N3/094
Abstract: 本发明公开了一种免训练使用扩散模型中先验知识的超分方法、装置及存储介质,包括:将图像输入到基于GAN的初步超分模型,产出初步高分辨率图像;提取输入图像的语义标签;将初步高分辨率图像进行前向加噪;将前向加噪后的初步高分辨率图片输入到预训练的扩散模型中进行去噪,通过语义标签控制恢复图像,恢复得到高频细节信息;将输入图像通过高斯模糊得到低频轮廓图,将低频轮廓图和高频细节信息结合得到超分辨率图像。本发明可以在极低的时间内高质量地完成超分任务。本发明可以完全不需要额外训练,可以轻松适应不同的预训练模型。且由于没有针对某一模型训练的模块,而是根据扩散模型本身的原理工作,可适配任何预训练的文生图扩散模型。
-
公开(公告)号:CN118378592A
公开(公告)日:2024-07-23
申请号:CN202410803845.8
申请日:2024-06-20
Applicant: 之江实验室
IPC: G06F40/117 , G06N5/04 , G06F40/151
Abstract: 本说明书公开了一种基于公式学习的大模型微调方法、装置及存储介质,获取包含公式的原始文本中的公式和公式的候选变量。针对每个公式,根据该公式的上下文内容,确定目标文本并确定目标文本中的候选变量,在该公式中确定与候选变量一致的匹配变量,根据包含候选变量的语句确定解释文本。将目标文本的解释文本和匹配变量屏蔽,得到任务文本,根据公式和解释文本确定任务文本的标注。将任务文本和任务提示输入大模型得到预测文本,根据预测文本与标注的差异微调大模型。通过屏蔽目标文本的解释文本和匹配变量,对大模型进行微调,使大模型学习到公式中的变量与其解释之间的对应关系,从而在问答任务中提高大模型对涉及公式计算问题的回答准确率。
-
公开(公告)号:CN118839053B
公开(公告)日:2025-02-11
申请号:CN202411321148.5
申请日:2024-09-23
Applicant: 之江实验室
IPC: G06F16/951 , G06F16/955 , G06N3/0455 , G06F40/186
Abstract: 本申请涉及一种网页数据采集方法、系统、计算机设备和可读存储介质。该方法采集到的网页数据用于对目标领域的大语言模型进行预训练,所述方法包括:确定目标场景模板和目标关键词;将所述目标关键词填充到所述目标场景模板中,调用通用的大语言模型,生成多个搜索词句;调用搜索服务,基于所述搜索词句生成第一URL列表;基于爬虫技术和所述第一URL列表采集得到网页数据。采用本方法能够降低硬件资源消耗成本、人力成本以及提高预训练数据的获取效率。
-
公开(公告)号:CN118798189B
公开(公告)日:2024-12-17
申请号:CN202411260476.9
申请日:2024-09-10
Applicant: 之江实验室
IPC: G06F40/284
Abstract: 本申请涉及一种提取大语言模型微调数据的方法、系统和计算机设备。包括:获取原始文本数据,构建语料库;语料库包括多条文本语料,文本语料以原始文本数据的最小标题作为语料输入、以最小标题对应的正文数据作为语料输出;基于语料库对各文本语料的语料输入进行非停用词划分,并计算各非停用词的逆文本频率指数;获取语料库的最小逆文本频率指数均值;基于逆文本频率指数计算每条文本语料的逆文本频率指数均值;将逆文本频率指数均值与最小逆文本频率指数均值进行比较得到比较结果,从而确定该文本语料是否为大语言模型的微调数据。采用本方法实现了高质量的大语言模型微调数据的提取,提高了微调数据的提取效率,降低了微调数据集的构建成本。
-
公开(公告)号:CN118798189A
公开(公告)日:2024-10-18
申请号:CN202411260476.9
申请日:2024-09-10
Applicant: 之江实验室
IPC: G06F40/284
Abstract: 本申请涉及一种提取大语言模型微调数据的方法、系统和计算机设备。包括:获取原始文本数据,构建语料库;语料库包括多条文本语料,文本语料以原始文本数据的最小标题作为语料输入、以最小标题对应的正文数据作为语料输出;基于语料库对各文本语料的语料输入进行非停用词划分,并计算各非停用词的逆文本频率指数;获取语料库的最小逆文本频率指数均值;基于逆文本频率指数计算每条文本语料的逆文本频率指数均值;将逆文本频率指数均值与最小逆文本频率指数均值进行比较得到比较结果,从而确定该文本语料是否为大语言模型的微调数据。采用本方法实现了高质量的大语言模型微调数据的提取,提高了微调数据的提取效率,降低了微调数据集的构建成本。
-
-
-
-
-
-
-
-
-