-
公开(公告)号:KR1020100066348A
公开(公告)日:2010-06-17
申请号:KR1020090100789
申请日:2009-10-22
Applicant: 한국전자통신연구원
IPC: H04N19/30
CPC classification number: H04N19/30 , H04N19/124 , H04N19/513
Abstract: PURPOSE: A scalable video data encoding method is provided to obtain an optimum motion vector by obtaining a new value for a section which is not overlapped, thereby performing quick compression without increase of a bit rate. CONSTITUTION: A table for storing a value overlapped in an overlapped section is generated(S401). An overlapped value is stored in the table after obtaining an optimum motion vector using a motion vector of an enhancement layer(S402,S403). A value stored in the table is used about the overlapped section. An optimum motion vector is obtained in a section which is not overlapped using a predicted motion vector of a basic layer(S411).
Abstract translation: 目的:提供可扩展的视频数据编码方法,通过获得不重叠的部分的新值来获得最佳运动矢量,从而在不增加比特率的情况下进行快速压缩。 构成:生成用于存储在重叠部分中重叠的值的表(S401)。 在使用增强层的运动矢量获得最佳运动矢量之后,将重叠值存储在表中(S402,S403)。 存储在表中的值用于重叠部分。 在使用基本层的预测运动矢量不重叠的部分中获得最佳运动矢量(S411)。
-
62.
公开(公告)号:KR100850352B1
公开(公告)日:2008-08-04
申请号:KR1020060093538
申请日:2006-09-26
Applicant: 한국전자통신연구원
CPC classification number: G06N3/008
Abstract: 본 발명은 상태 정보를 이용하여 감성을 표현하기 위한 지능형 로봇의 감성 표현 장치 및 그 방법에 관한 것으로, 본 발명의 감성 표현 장치는, 내.외부 자극에 대한 정보를 감지하는 복수의 센서들, 상기 복수의 센서들에 감지된 내. 외부 자극에 대한 정보를 계층적 구조로 처리하여 외적 상태 정보를 수집하는 상태 정보 수집부, 상기 외적 상태 정보를 이용하여 내적 상태 정보인 욕구 변수의 변화 정도에 따라 감성 동기를 판별하는 감성 동기 판별부, 상기 판별된 감성 동기를 해소시키기 위해 가용한 수단정보 및 이에 대응하는 상태 정보를 추출하는 감성 상태 관리부, 상기 추출된 상태 정보의 특징 값에 기초하여 감성 정보를 생성하는 감성 생성부, 상기 추출된 상태정보 및 상기 생성된 감성 정보에 기초하여 상기 감성 동기를 해소하기 위한 행동정보를 결정하는 행동 결정부, 및 상기 결정된 행동정보에 기초하여 해당 액추에이터를 통해 상기 행동정보에 대응하는 행위를 표현하는 행위 표현부를 포함한다.
감성로봇, 센서, 상태 정보, 계층적, 감성 동기, 감성 모델, 수단 가용성-
公开(公告)号:KR1020080046074A
公开(公告)日:2008-05-26
申请号:KR1020070027792
申请日:2007-03-21
Applicant: 한국전자통신연구원
Abstract: A device and a method for representing emotion of a robot are provided to represent the emotion in various kinds of robot platforms by providing a representation model for the emotion and action generated from the robot platform, and an interface for interpreting the emotion and the action. An emotion information receiver(100) receives an internal or external stimulus as emotion information. An emotion generator(110) determines the current status of a robot and generates emotion by using the information received from the emotion information receiver. An action determiner(120) determines action corresponding to the generated emotion. An emotion representation manager(130) generates an emotion representation command for representing the generated emotion with the action of the robot by using the generated emotion, the current robot status, and the determined action. An emotion representation processor(140) receives and analyzes the generated emotion representation command. A robot controller(150) enables each actuator(160) to perform the action according to a result of the emotion representation processor.
Abstract translation: 提供一种用于表示机器人情感的装置和方法,以通过提供从机器人平台产生的情感和动作的表示模型以及用于解释情感和动作的界面来表示各种机器人平台中的情绪。 情绪信息接收器(100)将内部或外部刺激作为情绪信息接收。 情绪发生器(110)确定机器人的当前状态,并通过使用从情绪信息接收器接收到的信息来产生情感。 动作确定器(120)确定与产生的情绪相对应的动作。 情绪表示管理器(130)通过使用生成的情绪,当前的机器人状态和所确定的动作来生成用于通过机器人的动作表示生成的情感的情绪表示命令。 情绪表示处理器(140)接收并分析生成的情绪表示命令。 机器人控制器(150)使得每个致动器(160)能够根据情绪表示处理器的结果执行动作。
-
-