Abstract:
일 실시예에 따른 그래프 처리 시스템은 위상 데이터 및 속성 데이터를 포함하는 그래프 데이터를 저장하는 적어도 하나의 보조 기억 장치, 그래프 데이터의 일부를 저장하는 메인 메모리, 메인 메모리로부터 수신한 그래프 데이터의 처리 및 동기화를 수행하는 코어들 및 장치 메모리들을 포함하는 복수의 그래픽 처리 장치들, 및 복수의 그래픽 처리 장치들에서 수행되는 그래프 데이터에 대한 질의 처리를 관리하고, 질의 처리 결과 중 갱신 가능한 속성 데이터를 적어도 하나의 보조 기억 장치에 저장하는 중앙 처리 장치를 포함한다.
Abstract:
일 실시예에 따른 관계형 데이터베이스 저장 방법은 데이터베이스 테이블들 간의 참조 및 제약 조건에 대한 정보를 포함하는 데이터베이스 스키마 및 조인 술어 정보를 포함하는 쿼리 집합를 기초로, 테이블들 및 엣지들을 포함하는 조인 그래프를 생성하고, 조인 그래프에 포함된 테이블들 간의 조인 연산의 비용에 기초하여 테이블들의 타입을 구분하고, 엣지에 의해 서로 연결되는 상기 테이블들의 타입에 기초하여, 조인 그래프 내의 엣지들의 타입을 구분하고, 조인 그래프 내에서 간접 엣지 조건을 만족하는 두 테이블 사이에 가상의 엣지를 추가하며, 가상의 엣지를 포함하는 엣지들의 타입에 기초하여, 조인 그래프에 대한 데이터베이스 분할 계획을 생성한다.
Abstract:
본 발명은 복수의 동맥혈압값 및 각 동맥혈압값에 대응되는 일회박출량을 포함하는 제1데이터 및 제2데이터 중 미리 설정된 범위의 동맥혈압값 및 일회박출량을 필터링하는 필터링부; 상기 제1데이터에서 필터링된 제3데이터를 이용하여 상기 동맥혈압값을 기초로 일회박출량을 산출하는 제1 일회박출량 산출 모델을 선행 학습시키는 선행 학습부; 상기 제2데이터에서 필터링된 제4데이터를 이용하여 상기 동맥혈압값을 기초로 일회박출량을 산출하는 제1 일회박출량 산출 모델을 전이 학습시켜 제2 일회박출량 산출 모델을 생성시키는 전이 학습부; 및 상기 제2 일회박출량 산출 모델을 이용하여 입력된 특정 환자의 동맥혈압에 대응하는 일회박출량을 산출하는 일회박출량 산출부를 포함하는 AI를 이용하는 일회박출량 산출 장치를 포함한다.
Abstract:
본발명은주어진서열데이터베이스에대해사용자에의해주어진여러필터링제약조건들을만족하고그 특이성(Specificity)이검증된유효한모든커버리지(Coverage)의프라이머쌍들을디자인하는방법에관한것으로, 주어진 DNA 서열데이터베이스상에존재하는모든적합한프라이머쌍들을빠짐없이구하며, 커버리지(coverage)가 1인프라이머들뿐만아니라커버리지가 1보다큰 프라이머들도모두구함으로써, 사용자가결과프라이머들중 생물학적실험의성공률이높은프라이머들을쉽게선택할수 있도록프라이머랭킹을부여할수 있도록한 것이다.
Abstract:
Provided is a robot avatar system equipped with a hybrid interface including a brain computer interface (BCI), a head-mounted display (HMD) or smart glasses, a motion sensor, a position sensor, a microphone, a speaker, a tactile sensor, and a haptic actuator. The robot avatar system of the present invention comprises: an interface including the BCI, the HMD or the smart glasses, the motion sensor, the position sensor, the microphone, the speaker, the tactile sensor, and the haptic actuator; a command server which generates a command to control the behavior of the robot based on BCI information and motion information received therein from the BCI and the motion sensor or the position senor and outputs the voice information of a person received from the microphone through the robot; a BCI-motion learning server which constructs a BCI-motion mapping database and a label determination model used in the command server based on the BCI information and the motion information received therein from the BCI and the motion sensor or the position sensor; and a sensory server which processes audio, video, and tactile information, which are obtained through the robot, and outputs the processed information through the speaker, the HMD or the smart glasses, and the haptic actuator. [Reference numerals] (110) BCI device;(120) HMD/Smart glasses;(130) Vision sensor;(140,620) Microphone;(160) Position sensor;(200) Command server;(400) BCI-motion learning server;(500) Sensory server;(610) Camera;(640) Speaker;(650) Tactile sensor;(AA) Motion command, voice;(BB) BCI data, vision/position data, voice;(CC) Humanoid;(DD) Person;(EE) Raw sensory data;(FF) Processed sensory data