-
公开(公告)号:CN114728396B
公开(公告)日:2024-06-21
申请号:CN202080079029.7
申请日:2020-11-16
Applicant: 川崎重工业株式会社
Abstract: 控制装置(20)具备:自动指令生成部(20g),其生成使机器人(10)自动地磨削磨削对象部分的指令;手动指令生成部(20f),其根据操作装置(40)的操作信息生成使上述机器人磨削磨削对象部分的指令;动作控制部(20h),其根据上述指令控制上述机器人的动作;存储部(20r),其存储磨削对象部分的图像数据以及上述机器人的与针对上述图像数据的状态的上述磨削对象部分的上述指令对应的动作数据;以及学习部(20a),其使用磨削对象部分的图像数据与针对上述图像数据的状态的上述磨削对象部分的上述动作数据进行机械学习,以上述图像数据为输入数据且以与上述动作数据对应的动作对应指令为输出数据,上述自动指令生成部基于上述动作对应指令生成上述指令。
-
公开(公告)号:CN113573856B
公开(公告)日:2024-05-10
申请号:CN202080017363.X
申请日:2020-02-27
Applicant: 川崎重工业株式会社
Abstract: 机器学习模型运用管理系统,包括模型构建服务器和运用服务器。模型构建服务器根据接收的学习用数据构建机器学习完成模型。在保存于机器人控制器中的机器学习完成模型运行以确定机器人的动作的情况下,运用服务器接收该机器人控制器生成的运用信息。对通过模型构建服务器构建的机器学习完成模型的数据,提供唯一识别该机器学习完成模型的模型识别信息。机器人控制器询问是否对本身保存的机器学习完成模型具有使用权限,在具有使用权限的情况下将该机器学习完成模型设定为可使用状态。运用服务器将运用信息与模型识别信息建立关联地存储该运用信息。
-
公开(公告)号:CN117043546A
公开(公告)日:2023-11-10
申请号:CN202280023818.8
申请日:2022-03-30
Applicant: 川崎重工业株式会社
IPC: G01B11/24
Abstract: 本发明提供一种特定点检测系统。特定点检测系统(200)包括成像装置(71)、第一检测部(83)、三维扫描仪(72)和第二检测部(85),所述成像装置(71)获取对象物体(W)的图像,所述第一检测部(83)使用通过机器学习学习结束的第一检测模型(86),将由成像装置(71)所获取的图像作为输入,检测含在对象物体(W)的毛刺(B),所述三维扫描仪(72)获取包含由第一检测部(83)检测到的毛刺(B)的对象物体(W)的三维信息,所述第二检测部(85)使用通过机器学习学习结束的第二检测模型(87),将由三维扫描仪(72)所获取的三维信息作为输入,再次检测毛刺(B)。
-
公开(公告)号:CN113412178B
公开(公告)日:2023-07-21
申请号:CN201980086642.9
申请日:2019-12-27
Applicant: 川崎重工业株式会社
Abstract: 机器人控制装置(15)包括校正工作学习完成模型构建部(43)。校正工作学习完成模型构建部(43)通过学习使用者以干预为了进行一系列工作的机器人手臂10的暂定动作的方式进行校正操作时的校正工作数据来构建校正工作学习完成模型(44)。该校正工作数据是将机器人手臂(10)进行动作时的该机器人手臂(10)及其周遭的状态作为输入数据,且将使用者根据该输入数据的校正操作或机器人手臂(10)的通过该校正操作的校正操作量作为输出数据。
-
公开(公告)号:CN111565895B
公开(公告)日:2023-01-03
申请号:CN201880080404.2
申请日:2018-11-28
Applicant: 川崎重工业株式会社
IPC: B25J9/22
Abstract: 机器人系统(1)包含机器人(10)、图象取得部(21)、图象预测部(22)及动作控制部(24)。图象取得部(21)取得机器人摄影机(31)拍摄的图象即当前图象,该机器人摄影机(31)以能与终端效应器(13)一起移动的方式配置。图象预测部(22)进行根据教学影像模型及当前图象来预测机器人摄影机(31)接着应拍摄的图象即下一图象的处理,其中,该教学影像模型通过将预测机器人摄影机(31)在可动部(12)进行调整动作时所拍摄的情况的影像作为教学影像进行机械学习而构建。动作控制部(24)运算用以使可动部(12)以机器人摄影机(31)拍摄的图象趋近下一图象的方式进行动作的指令值,且根据该指令值控制可动部(12)。
-
公开(公告)号:CN112203811A
公开(公告)日:2021-01-08
申请号:CN201980035180.8
申请日:2019-05-24
Applicant: 川崎重工业株式会社
IPC: B25J13/08
Abstract: 一种机器人系统及机器人控制方法。机器人系统(1)具备机器人(10)、动作传感器(11)、周围环境传感器(12、13)、操作装置(21)、学习控制部(41)、及中转装置(30)。机器人(10)根据动作指令进行作业。操作装置(21)检测并输出作为作业者所施加的操作力的作业者操作力。学习控制部(41)输出运算操作力。中转装置(30)根据作业者操作力和运算操作力输出动作指令。学习控制部(41)利用通过对作业者操作力、周围环境数据、动作数据、及动作指令进行机器学习而建立的模型,根据传感器(11~13)所输出的动作数据和周围环境数据、及中转装置(30)所输出的动作指令,来推测并输出运算操作力。
-
公开(公告)号:CN111565895A
公开(公告)日:2020-08-21
申请号:CN201880080404.2
申请日:2018-11-28
Applicant: 川崎重工业株式会社
IPC: B25J9/22
Abstract: 机器人系统(1)包含机器人(10)、图象取得部(21)、图象预测部(22)及动作控制部(24)。图象取得部(21)取得机器人摄影机(31)拍摄的图象即当前图象,该机器人摄影机(31)以能与终端效应器(13)一起移动的方式配置。图象预测部(22)进行根据教学影像模型及当前图象来预测机器人摄影机(31)接着应拍摄的图象即下一图象的处理,其中,该教学影像模型通过将预测机器人摄影机(31)在可动部(12)进行调整动作时所拍摄的情况的影像作为教学影像进行机械学习而构建。动作控制部(24)运算用以使可动部(12)以机器人摄影机(31)拍摄的图象趋近下一图象的方式进行动作的指令值,且根据该指令值控制可动部(12)。
-
公开(公告)号:CN119031997A
公开(公告)日:2024-11-26
申请号:CN202380033851.3
申请日:2023-04-14
Applicant: 川崎重工业株式会社
IPC: B25J3/00
Abstract: 本发明提供一种远程控制系统。远程控制系统(100)包括机器人(1)、操作装置(4)、显示装置(52)、触觉器件(8)和控制装置(6),所述操作装置(4)受理来自用户的输入,所述显示装置(52)将机器人(1)的图像提示给用户,所述触觉器件(8)将刺激赋予给用户的触觉,所述控制装置(6)根据向操作装置(4)的输入来控制机器人(1)。控制装置(6)在机器人(1)接触到其它物体时使触觉器件(8)动作。
-
公开(公告)号:CN113195177B
公开(公告)日:2024-05-10
申请号:CN201980083097.8
申请日:2019-12-27
Applicant: 川崎重工业株式会社
Abstract: 一种机器人控制装置、机器人系统以及机器人控制方法,机器人控制装置,包括:学习完成模型,其是通过学习工作数据而构建,该工作数据是将人为操作机器人进行一系列工作时的机器人及该机器人周遭的状态作为输入数据,且将人为根据该输入数据的操作或该机器人的通过该操作的动作作为输出数据;控制数据获取部,其在将所述输入数据输入学习完成模型的情况下,通过从学习完成模型获取与根据此输入数据估计的人为操作或机器人的动作相关的输出数据,获得机器人的控制数据;进展度获取部,其用于获取进展度,该进展度显示学习完成模型输出的所述输出数据在一系列工作中对应于哪一个进度水平;和可信度获取部,其用于获取当学习完成模型根据所述输入数据的输入而输出所述输出数据时的所述估计的准确性。
-
公开(公告)号:CN117957550A
公开(公告)日:2024-04-30
申请号:CN202280060412.7
申请日:2022-09-05
Applicant: 川崎重工业株式会社
Abstract: 学习完成模型的构建方法包括6个工序。在第一工序中收集用于机器学习人工操作控制对象机器的数据。在第二工序中评估所述收集的数据即收集数据,并且在不满足规定的评估基准的情况下重新收集数据。在第三工序中,从满足评估基准的所述收集数据中筛选训练数据。在第四工序中评估所述训练数据,并且在不满足规定的评估基准的情况下重新筛选训练数据。在第五工序中,通过使用满足评估基准的所述训练数据的机器学习来构建学习完成模型。在第六工序中评估所述学习完成模型,在不满足规定的评估基准的情况下使所述学习完成模型重新学习。
-
-
-
-
-
-
-
-
-