一种基于力觉的水果软硬识别方法、分拣装置及控制方法

    公开(公告)号:CN114570664B

    公开(公告)日:2024-01-30

    申请号:CN202210244407.3

    申请日:2022-03-11

    Applicant: 郑州大学

    Abstract: 本发明涉及计算机领域,公开了一种基于力觉的水果软硬识别方法、分拣装置及控制方法。一种基于力觉的水果软硬识别方法,包括以下步骤:数据处理、构建压力图片、深度学习、实际应用;一种基于力觉的水果分拣装置包括传送单元、分拣单元、运输单元和控制单元。本发明可以实现基于力觉的水果软硬等级识别,实现了体积小型化,减小了装置的占地空间,极大得降低了人工成本,提高了分拣速度,在保障水果高质量、高效率、高智能化和多类别分拣的同时,解决分拣成本的问题。

    一种机器人柔性行为决策方法及设备

    公开(公告)号:CN113671834B

    公开(公告)日:2023-09-01

    申请号:CN202110973178.4

    申请日:2021-08-24

    Applicant: 郑州大学

    Abstract: 本申请提供一种机器人柔性行为决策方法及设备,本申请通过获取当前环境信息、目标任务以及机器人当前状态信息;基于监督学习模型和强化学习模型构建神经网络混合模型,根据当前环境信息动态调整神经网络混合模型的结合系数,并增加好奇度指标对强化学习模型进行改进,得到改进后的神经网络混合模型;将当前环境信息、目标任务以及机器人状态信息输入改进后的神经网络混合模型中,得到柔性行为决策,即将强化学习和监督学习进行动态结合,在强化学习中实现环境探索‑利用的动态自适应调节,从而实现移动机器人在未知环境中柔性的行为决策,提高移动机器人适应能力和学习能力。

    一种机器人柔性行为决策方法及设备

    公开(公告)号:CN113671834A

    公开(公告)日:2021-11-19

    申请号:CN202110973178.4

    申请日:2021-08-24

    Applicant: 郑州大学

    Abstract: 本申请提供一种机器人柔性行为决策方法及设备,本申请通过获取当前环境信息、目标任务以及机器人当前状态信息;基于监督学习模型和强化学习模型构建神经网络混合模型,根据当前环境信息动态调整神经网络混合模型的结合系数,并增加好奇度指标对强化学习模型进行改进,得到改进后的神经网络混合模型;将当前环境信息、目标任务以及机器人状态信息输入改进后的神经网络混合模型中,得到柔性行为决策,即将强化学习和监督学习进行动态结合,在强化学习中实现环境探索‑利用的动态自适应调节,从而实现移动机器人在未知环境中柔性的行为决策,提高移动机器人适应能力和学习能力。

    一种机器人控制方法及设备

    公开(公告)号:CN111645076B

    公开(公告)日:2021-05-11

    申请号:CN202010552467.2

    申请日:2020-06-17

    Applicant: 郑州大学

    Abstract: 本申请的目的是提供一种机器人控制方法及设备,本申请通过模拟灵长类动物大脑生理机制中的前扣带回皮层神经调节机制对所述探索速度进行动态调整,根据所处环境来实时调节探索和利用的程度,从而实现了机器人在利用环境与探索环境之间动态平衡,提高了机器人行为决策过程中的学习收敛速度,有利于得到更优的全局解。

    架空输电线路巡检机器人控制系统及巡检方法

    公开(公告)号:CN117060269A

    公开(公告)日:2023-11-14

    申请号:CN202311055324.0

    申请日:2023-08-21

    Abstract: 本发明涉及电力系统配电技术领域,具体涉及架空输电线路巡检机器人巡检控制系统及巡检方法,控制系统包括巡检机器人控制系统和地面控制系统,巡检方法包括:行进控制、姿态控制和自动越过防震锤步骤。本申请的控制系统可控制巡检机器人在地线上巡检作业、能够越过防震锤及直线杆塔,巡检机器人在机械臂上增设有防止行走轮脱离线路的夹紧装置,在机器人在线路会发生摆动时,保证机器人的安全,以免影响机器人作业甚至掉落;机器人在经过线路转角弯道时,机器人转向机构能够控制机器人灵活稳定地过弯。机器人具有较强越障能力,两臂间距调整机构使巡检机器人能够适应更多的应用场景。

    基于记忆序列回放机制的机器人行为决策方法及设备

    公开(公告)号:CN113589695B

    公开(公告)日:2023-11-10

    申请号:CN202110880499.X

    申请日:2021-08-02

    Applicant: 郑州大学

    Abstract: 本申请提供一种基于记忆序列回放机制的机器人行为决策方法及设备,本申请通过获取目标任务和当前环境信息,所述当前环境信息包括所有障碍物信息;构建神经网络模型,在发育网络中设置动态自适应竞争机制,增加高级特征表示层进行在线自主学习,并基于记忆序列回放机制不断更新输出层中动作神经元的突触连接权重直至网络稳定;基于所述当前环境信息,通过所述神经网络模型计算得到全局最优行为决策,即该方法可以在在线和离线状态下自主学习或识别复杂环境下不规则障碍物的信息,使机器人能够适应复杂多变的环境,实现机器人的全局最优决策,提升神经网络的收敛速度。

    一种仿人脑记忆机理的机器人行为决策方法及设备

    公开(公告)号:CN113537318B

    公开(公告)日:2023-04-07

    申请号:CN202110745854.2

    申请日:2021-07-01

    Applicant: 郑州大学

    Abstract: 本申请的目的是提供一种仿人脑记忆机理的机器人行为决策方法及设备,本申请通过获取目标任务和当前环境信息;计算当前环境信息与所有长期记忆环境信息的相似度值,确定最相似长期记忆环境信息;当前环境信息与所述最相似长期记忆环境信息的相似度值小于相似度阈值时,在短期记忆层存储当前环境信息,并进行离线学习直至转移至长期记忆层;基于目标任务和当前环境信息,通过神经网络模型输出行为决策并执行,即在机器人处于动态变化的环境中,在通常的在线学习外增加离线学习的能力,实现机器人未知环境中的增量式学习,提高了学习效率,可以快速收敛到稳定状态,从而提高机器人在新环境中的行为决策的效率和精确度。

    一种基于神经调节机制的机器人行为决策方法及设备

    公开(公告)号:CN113848946A

    公开(公告)日:2021-12-28

    申请号:CN202111219149.5

    申请日:2021-10-20

    Applicant: 郑州大学

    Abstract: 本申请提供一种基于神经调节机制的机器人行为决策方法及设备,本申请通过设计新的碰撞危险度指标,该指标不仅考虑了障碍物的距离,同时也考虑了障碍物速度对移动机器人运动的影响,通过碰撞危险度引导移动机器人的注意力网络在背侧注意力机制和腹侧注意机制之间切换,同时对机器人运动方向以及运动速度大小进行调节,使机器人灵活应对环境中的不确定性事件,并且设计了一种新的神经元学习率,增强调节发育网络隐含层神经元的学习能力,提高机器人应对突变环境的快速响应能力。

    基于记忆序列回放机制的机器人行为决策方法及设备

    公开(公告)号:CN113589695A

    公开(公告)日:2021-11-02

    申请号:CN202110880499.X

    申请日:2021-08-02

    Applicant: 郑州大学

    Abstract: 本申请提供一种基于记忆序列回放机制的机器人行为决策方法及设备,本申请通过获取目标任务和当前环境信息,所述当前环境信息包括所有障碍物信息;构建神经网络模型,在发育网络中设置动态自适应竞争机制,增加高级特征表示层进行在线自主学习,并基于记忆序列回放机制不断更新输出层中动作神经元的突触连接权重直至网络稳定;基于所述当前环境信息,通过所述神经网络模型计算得到全局最优行为决策,即该方法可以在在线和离线状态下自主学习或识别复杂环境下不规则障碍物的信息,使机器人能够适应复杂多变的环境,实现机器人的全局最优决策,提升神经网络的收敛速度。

    一种基于多维运动参数的红外弱小目标能量累积方法

    公开(公告)号:CN114663819B

    公开(公告)日:2024-08-27

    申请号:CN202210358381.5

    申请日:2022-04-07

    Applicant: 郑州大学

    Abstract: 本申请涉及一种基于多维运动参数的红外弱小目标能量累积方法,通过建立目标的多维运动模型,得到目标所有可能的运动参数,获取多帧图像中的目标运动轨迹,然后采用能量累积方法对图像中的弱小目标进行信噪比提升,得到能量累积后的图像集,并对图像集进行均值计算,实现目标能量的有效累积,对图像进行恒虚警判决,过滤掉信噪比较低的图像,得到信噪比提升后的图像集,最后对能量累积后的图像集信噪比进行定量计算,得到信噪比最终提升的幅值。本发明不仅能够累积匀速直线运动和匀加速直线运动模型下的红外弱小目标能量,也支持一些曲线运动模型,比单帧增强和传统的多帧增强效果好,可进一步抑制图像中的高斯噪声,提升图像的信噪比。

Patent Agency Ranking