사용자 맞춤형 데이터 관리 시스템
    31.
    发明公开
    사용자 맞춤형 데이터 관리 시스템 审中-实审
    自定义数据管理系统

    公开(公告)号:KR1020150094346A

    公开(公告)日:2015-08-19

    申请号:KR1020140015524

    申请日:2014-02-11

    CPC classification number: G06F17/30029 G06F17/30047 G06K9/00268 H04W4/02

    Abstract: 본 발명의 실시 예에 따른 데이터 관리 시스템은 수신되는 이미지에 기반하여 사용자 상태 정보를 추출하도록 구성되는 현재 상태 확인부, 설정 상태에 따라 설정 정보를 제공하되, 사용자가 설정 상태를 변경할 때 변경된 설정 상태에 따라 변경된 설정 정보를 제공하도록 구성되는 설정 상태 관리부, 상태 정보를 참조하여 데이터베이스로부터 디지털화된 콘텐츠를 추출하도록 구성되는 기록 정보 추출부, 그리고 상태 정보 및 변경된 설정 정보를 참조하여 디지털화된 콘텐츠 중 일부를 가이드 정보로서 제공하도록 구성되는 개인 성향 관리 및 가이드부를 포함한다.

    Abstract translation: 根据实施例,一种数据管理系统,包括:当前状态检查单元,被配置为基于接收到的图像提取用户状态信息; 设置状态管理单元,其根据设置状态提供设置信息,并且被配置为提供当用户改变设置状态时改变的设置状态改变的设置信息; 记录信息提取单元,被配置为通过参考状态信息从数据库中提取数字化的内容; 以及个人倾斜管理和引导单元,其被配置为通过参考设置信息和改变的设置信息来提供数字化内容的一部分作为引导信息。

    깊이값 조정을 통한 입체영상 제공 시스템 및 방법
    32.
    发明公开
    깊이값 조정을 통한 입체영상 제공 시스템 및 방법 审中-实审
    通过调节深度值产生立体声的装置和方法

    公开(公告)号:KR1020140119999A

    公开(公告)日:2014-10-13

    申请号:KR1020130035308

    申请日:2013-04-01

    CPC classification number: G06T7/0075 H04N13/128 H04N2013/0081

    Abstract: 깊이값 조정을 통한 입체영상 제공 시스템 및 방법이 개시된다. 본 발명의 일실시예에 따른 입체영상 제공 시스템은, 제1 입체영상으로부터, 상기 제1 입체영상 내 객체에 대한 깊이값을 추정하는 깊이값 추정부, 디스플레이 수단을 고려하여, 상기 깊이값을 조정하는 깊이값 조정부, 상기 조정된 깊이값을 이용하여 상기 제1 입체영상을 제2 입체영상으로 가공하는 입체영상 가공부, 상기 제2 입체영상을 상기 디스플레이 수단에 제공하는 입체영상 제공부를 포함한다.

    Abstract translation: 公开了一种通过调整深度值来提供立体图像的系统和方法。 根据本发明实施例的用于提供立体图像的系统包括:深度值估计单元,估计相对于来自第一立体图像的第一立体图像中的对象的深度值;深度值调整单元,调整深度值 考虑到显示单元,通过使用经调整的深度值将第一立体图像处理到第二立体图像的立体图像处理单元和向显示单元提供第二立体图像的立体图像提供单元。

    밀도 정보를 이용한 그림자 생성 방법
    33.
    发明公开
    밀도 정보를 이용한 그림자 생성 방법 无效
    使用粒子密度信息生成阴影的方法

    公开(公告)号:KR1020110071769A

    公开(公告)日:2011-06-29

    申请号:KR1020090128418

    申请日:2009-12-21

    CPC classification number: G06T15/60 G06T2210/56

    Abstract: PURPOSE: A shadow generation method using density information is provided to calculate shadow information by an accumulated density rate from a light source to a shading location when calculating a shading value in a cloud rendering process. CONSTITUTION: Particle data on cloud is collected(S100). Particles within the range of a predetermined area out of the particle data are searched(S200). The density of the particles having influence in the specific location of a z area is calculated(S300). A photon map for a sampling area is created(S400). Multiple scattering is calculated with calculated density information(S500). Single scattering is calculated(S600). Ray marching is performed with calculated scattering information(S700).

    Abstract translation: 目的:提供使用浓度信息的阴影生成方法,以便在计算云渲染处理中的阴影值时,通过从光源到阴影位置的累积密度率来计算阴影信息。 构成:收集云上的粒子数据(S100)。 搜索粒子数据之​​外的预定区域范围内的粒子(S200)。 计算在z区域的特定位置具有影响的粒子的密度(S300)。 创建采样区域的光子图(S400)。 用计算密度信息计算多次散射(S500)。 计算单次散射(S600)。 用计算出的散射信息执行光线行进(S700)。

    맵 데이터 기반의 렌더링 장치 및 방법
    34.
    发明公开
    맵 데이터 기반의 렌더링 장치 및 방법 无效
    基于地图数据进行渲染的装置和方法

    公开(公告)号:KR1020110070345A

    公开(公告)日:2011-06-24

    申请号:KR1020090127146

    申请日:2009-12-18

    Inventor: 김해동

    CPC classification number: G06T15/04 G06T1/20 G06T2200/28 G06T2215/12

    Abstract: PURPOSE: A rendering apparatus and method on the basis of map data are provided to decide accurate pixel color with detailed material data. CONSTITUTION: A material data insertion unit(100) inserts the material data of an object into map data. A boundary data insertion unit(101) inserts boundary data into the map data. The boundary data is link information between the other map data and the map data. Based on the material data and the boundary data, a rendering unit(103) renders the object.

    Abstract translation: 目的:提供基于地图数据的渲染设备和方法,以确定具有详细材料数据的准确像素颜色。 构成:材料数据插入单元(100)将对象的材料数据插入到地图数据中。 边界数据插入单元(101)将边界数据插入到地图数据中。 边界数据是其他地图数据和地图数据之间的链接信息。 基于材料数据和边界数据,渲染单元(103)呈现对象。

    영상을 이용한 얼굴의 광학 특성 맵 추출 시스템 및 그방법
    35.
    发明授权
    영상을 이용한 얼굴의 광학 특성 맵 추출 시스템 및 그방법 有权
    系统性能和性能系统性能

    公开(公告)号:KR100682978B1

    公开(公告)日:2007-02-15

    申请号:KR1020050082085

    申请日:2005-09-05

    Inventor: 김해동 이인호

    Abstract: A system for extracting an optical characteristic map of a face by using an image and a method therefor are provided to analyze an image acquired after a face of a person is directly photographed, divide the image into maps according to an optical characteristic of a face surface, extract map data, analyze the map data, and combine the analyzed map data to reproduce actual face expression. An image acquiring unit(10) acquires real images of a face by using a reference image sensing device known after an optical characteristic is obtained. A map extracting and reproducing unit(20) analyzes the real face images acquired in the image acquiring unit(10), divides the analyzed faced images into maps according to the optical characteristic, extracts map data, analyzes and combines the extracted map data to be suitable for reproduction conditions, and expresses a real face.

    Abstract translation: 提供了一种通过使用图像来提取面部的光学特性图的系统及其方法,以分析在直接拍摄人的面部之后获取的图像,根据面部表面的光学特性将图像分成图 ,提取地图数据,分析地图数据,并组合分析的地图数据以再现实际的人脸表情。 图像获取单元(10)通过使用在获得光学特性之后已知的参考图像感测装置来获取人脸的真实图像。 地图提取和再现单元(20)分析在图像获取单元(10)中获取的真实面部图像,根据光学特性将分析的面部图像划分成地图,提取地图数据,分析并组合提取的地图数据 适合繁殖条件,并表达真实的面孔。

    3차원 가상 현실 구현을 위한 클라이언트 시스템과 이를이용한 가상 현실 구현 방법
    36.
    发明公开

    公开(公告)号:KR1020030054874A

    公开(公告)日:2003-07-02

    申请号:KR1020010085306

    申请日:2001-12-26

    CPC classification number: G06F9/54 G06F2209/545 G06F2209/549 H04L67/38

    Abstract: PURPOSE: A three dimensional VR(Virtual Reality) implementing client system and method is provided to process the X3D(eXtensible 3 Dimension) data, transmitted by a server, to display the processed data, and to reprocess a three dimensional VR screen according to an event, generated in the VR. CONSTITUTION: The client system comprises an applet(110), a communication module(130), a browser(140), and an ASP(Active Server Page) support module(120). The applet(110) enables the client system to communicate the X3D data with a server. The communication module(130), connected to the applet(110), makes possible the communication between the client system and the server. The browser(140) parses the X3D data transmitted via the communication module(130) by the server, constructs a scene graph, renders the scene graph according to a preset type, and displays the rendered scene graph on a display. The ASP support module(120) processes the data, transmitted by the server, on an external window according to a user event, generated in the VR implemented by the browser(140).

    Abstract translation: 目的:提供实施客户端系统和方法的三维VR(虚拟现实),以处理由服务器发送的X3D(可扩展3维)数据,以显示处理后的数据,并根据 事件,在VR中生成。 构成:客户端系统包括小应用程序(110),通信模块(130),浏览器(140)和ASP(活动服务器页面)支持模块(120)。 小应用程序(110)使得客户端系统能够将X3D数据与服务器进行通信。 连接到小应用程序(110)的通信模块(130)使客户机系统和服务器之间的通信成为可能。 浏览器(140)通过服务器解析通过通信模块(130)发送的X3D数据,构建场景图,根据预设类型呈现场景图,并将显示的场景图显示。 ASP支持模块(120)根据由浏览器(140)实现的VR中生成的用户事件在外部窗口处理由服务器发送的数据。

    증강현실 시스템에서 카메라와 트랙커간의 오차 보정방법
    37.
    发明授权
    증강현실 시스템에서 카메라와 트랙커간의 오차 보정방법 失效
    追踪相机造成的错误的错误校正方法和追踪现实系统中的追踪者错误

    公开(公告)号:KR100248374B1

    公开(公告)日:2000-03-15

    申请号:KR1019970062775

    申请日:1997-11-25

    Abstract: 본 발명은 증강현실 시스템에서 카메라와 트래커간의 불일치에 의해 발생되는 중첩 오차를 보정하는 방법에 관한 것으로, 사용자가 모니터를 보면서 실세계와 가상객체간의 대응하는 임의의 특징점들을 선정하고, 선정된 특징점들을 이용하여 카메라 위치와 자세를 구하기 위하여 최적화알고리즘인 유전자 알고리즘을 적용한다. 유전자알고리즘에서 구해진 카메라 위치 및 자세 데이터와 이미 알고 있는 트래커의 위치 및 자세 데이타간의 차이를 나타내는 보정행렬을 구하고, 실제 동적환경에서 운용시 트래커에서 구해진 위치와 자세를 상기 보정행렬을 이용하여 보정하여 실세계와 가상객체를 정확히 중첩할 수 있다. 또한 카메라와 트래커를 대충 부착하여도 카메라와 트랙커간의 차이를 구할 수 있어, 증강현실 응용시스템에서 카메라와 트래커간의 정적오차를 줄이는데 필수적인 방법이다.

    증강현실을 이용한 헬기 운항 시스템 및 그방법
    38.
    发明公开
    증강현실을 이용한 헬기 운항 시스템 및 그방법 无效
    使用增强现实的直升机导航系统及其方法

    公开(公告)号:KR1019990084348A

    公开(公告)日:1999-12-06

    申请号:KR1019980016018

    申请日:1998-05-04

    Abstract: 본 발명은 증강현실을 이용한 헬기 운항 시스템 및 그 방법에 관한 것으로서, 본 발명에서 제공하는 헬기 운항 시스템은 다수의 GPS 위성에서 수신된 정보 해석으로 헬기의 절대 위치 정보를 획득하여 헬기의 위치 및 방향을 파악하고, 상기 헬기의 위치 및 방향에 따라 내부에 저장되어 있는 소규모의 지형 정보를 검색하여 증강 정보를 생성하여 조종사에게 보여줌으로써 안정된 헬기 운항을 돕는다. 3차원 지형 정보를 내장하여 그 정보로부터 상황에 맞게 생성된 증강 정보를 조종사에게 보여주기 위해 헬기에 장착된 헬기 이동국과, 상기 헬기 이동국과 무선으로 연결되어 상기 헬기 이동국이 증강정보를 생성할 때, 상기 헬기 이동국으로 3차원 지형 정보를 제공하는 GIS 기지국으로 구성되어, 시계가 나쁜 상황에서도 조종에 필요한 정보를 즉각적으로 제공해 줌으로써 안전한 헬기 운용 및 헬기 운용 거리 단축 등을 이룰 수 있고, GIS 데이터를 효율적으로 활용할 수 있다는 장점이 있다.

    무인정찰기 시스템의 운용 방법
    39.
    发明授权
    무인정찰기 시스템의 운용 방법 失效
    系统架构设计和不确定的AERO车辆系统的运行

    公开(公告)号:KR100231712B1

    公开(公告)日:1999-11-15

    申请号:KR1019970024562

    申请日:1997-06-13

    Abstract: 본 발명은 무인 정찰기 시스템의 운용방법에 관한 것으로서, 특히, 가상 현실을 이용하여 실세계 정보를 보강하는 기술인 증강 현실 기술을 이용하여 무인 정찰기 시스템을 운용하는 방법에 관한 것이다.
    무인정찰기 시스템을 운용하는 방법은, 정찰 대상의 실사 이미지를 얻기 위해 정찰 대상을 촬영하여 정찰 대상에 대한 정보를 수집하고 가상 이미지를 생성하기 위해 컴퓨터 그래픽스 기술 및 가시화 방법을 이용하여 필요한 정보를 가시화 하는 제 1 과정과, GPS와 CCD 카메라를 이용하여 정찰 대상의 절대 위치와 실사이미지를 얻어 상기 제 1 과정에서 생성된 가상 이미지와 실사 이미지를 합성하는 제 2 과정과, 사용자 인터페이스를 통해 상기 무인 정찰기 시스템의 이동에 따라 변하는 실사 이미지와 가상 이미지를 동기화 하는 제 3 과정으로 구성되어, 정보를 효율적으로 이용할 수 있으며, 정보 획득을 용이하게 함으로서 정보 이용을 높일 수가 있다.

    무인정찰기 시스템의 운용 방법
    40.
    发明公开
    무인정찰기 시스템의 운용 방법 失效
    如何操作无人侦察系统

    公开(公告)号:KR1019990001299A

    公开(公告)日:1999-01-15

    申请号:KR1019970024562

    申请日:1997-06-13

    Abstract: 본 발명은 무인 정찰기 시스템의 운용 방법에 관한 것으로서, 특히, 가상 현실을 이용하여 실세계 정보를 보강하는 기술인 증강 현실 기술을 이용하여 무인 정찰기 시스템을 운용하는 방법에 관한 것이다.
    무인정찰기 시스템을 운용하는 방법은, 정찰 대상의 실사 이미지를 얻기 위해 정찰 대상을 촬영하여 정찰 대상에 대한 정보를 수집하고 가상 이미지를 생성하기 위해 컴퓨터 그래픽스 기술 및 가시화 방법을 이용하여 필요한 정보를 가시화 하는 제 1 과정과, GPS와 CCD 카메라를 이용하여 정찰 대상의 절대 위치와 실사이미지를 얻어 상기 제 1 과정에서 생성된 가상 이미지와 실사 이미지를 합성하는 제 2 과정과, 사용자 인터페이스를 통해 상기 무인 정찰기 시스템의 이동에 따라 변하는 실사 이미지와 가상 이미지를 동기화 하는 제 3 과정으로 구성되어, 정보를 효율적으로 이용할 수 있으며, 정보 획득을 용이하게 함으로서 정보 이용을 높일 수가 있다.

Patent Agency Ranking