-
公开(公告)号:KR1020170083256A
公开(公告)日:2017-07-18
申请号:KR1020160002483
申请日:2016-01-08
Applicant: 한국전자통신연구원
IPC: H04N13/02 , H04N7/18 , G08B13/196
CPC classification number: G06K9/00221 , G06K9/00201 , G06K9/00228 , G06K9/00335 , G06K9/00369 , G06T2207/10024 , G06T2207/10028 , H04N7/181
Abstract: 본발명은뎁스영상기반감시영상제공장치및 방법에관한것이다. 본발명에따른장치는, 정해진촬영영역내의객체에대한거리정보를포함하는뎁스영상(depth image)을촬영하는제1 카메라, 상기정해진촬영영역내의객체에대한컬러영상(color image)을촬영하는제2 카메라, 상기촬영영역내에서관심대상으로지정된객체또는의심행위를하는객체를식별하는객체식별부, 상기컬러영상으로부터상기식별된객체의영역에해당하는컬러이미지를추출하고, 상기추출된컬러이미지를상기뎁스영상의대응하는위치에합성하여합성영상을생성하는영상처리부, 및상기객체식별부에의해상기객체가식별되지않으면상기뎁스영상을감시영상으로제공하고, 상기객체식별부에의해상기객체가식별된경우에만상기합성영상을감시영상으로제공하도록하는제어부를포함한다.
Abstract translation: 本发明涉及用于提供深度的基于视频的监督图像的设备和方法。 拍摄装置包括:在预定的记录区域中的物体上的第一相机,彩色图像(彩色图像),用于记录图像的深度(深度图像)的包括根据本发明的距离信息在预定记录区域中的物体 2照相机,用于识别拍摄区域中的感兴趣对象或可疑活动的对象识别单元,与来自彩色图像的识别对象的区域相对应的彩色图像, 并且深度图像与深度图像组合以生成合成图像,并且如果对象未被对象识别单元识别,则将深度图像提供为监督图像, 只有当图像被识别时,才将合成图像作为监视图像提供。
-
公开(公告)号:KR1020140106210A
公开(公告)日:2014-09-03
申请号:KR1020130020472
申请日:2013-02-26
Applicant: 한국전자통신연구원 , 성균관대학교산학협력단
IPC: C01B33/021 , B82B1/00 , B82B3/00
CPC classification number: C01B33/021 , C01P2004/64 , H01L21/02381
Abstract: A method for manufacturing ultra-thin film silicon according to an embodiment of the present invention comprises the steps of preparing a silicon layer on top of a silicon oxide film; forming a thermal oxide film in the upper region of the silicon layer by performing thermal oxidation on the surface of the silicon layer and forming a first silicon layer thinner than the silicon layer in the lower region of the silicon layer; exposing the surface of the first silicon layer by removing the thermal oxide film; forming an ozone oxide film in the first silicon layer adjacent to the surface of the first silicon layer by performing ozone surface oxidation on the surface of the first silicon layer and forming a second silicon layer thinner than the silicon layer between the ozone oxide film and the silicon oxide film; exposing the surface of the second silicon layer by removing the ozone oxide film; and separating the second silicon layer from the silicon oxide film by etching the silicon oxide film.
Abstract translation: 根据本发明实施例的制造超薄膜硅的方法包括以下步骤:在氧化硅膜的顶部制备硅层; 通过在硅层的表面上进行热氧化,在硅层的下部区域形成比硅层薄的第一硅层,在硅层的上部区域形成热氧化膜; 通过去除热氧化膜来暴露第一硅层的表面; 通过在第一硅层的表面上进行臭氧表面氧化,形成与第一硅层表面相邻的第一硅层中的臭氧氧化膜,形成比臭氧氧化物膜和 氧化硅膜; 通过去除臭氧氧化膜来暴露第二硅层的表面; 以及通过蚀刻所述氧化硅膜将所述第二硅层与所述氧化硅膜分离。
-
公开(公告)号:KR1020130114420A
公开(公告)日:2013-10-18
申请号:KR1020120036762
申请日:2012-04-09
Applicant: 한국전자통신연구원
IPC: H04N13/00
CPC classification number: H04N13/128 , H04N13/261 , H04N13/271
Abstract: PURPOSE: A method for converting a two dimensional (2D) video into a three dimensional (3D) video and a device thereof are to covert a 2D video into a 3D video by using coloring information without flickering phenomena. CONSTITUTION: A difference video producing part (605) produces difference videos including information on differences in color values according to pixels of N^th frame using color differences. An accumulated video storage part (603) stores accumulated videos where information on differences in color values according to pixels is stored. Using the difference videos, a division-map video producing part (607) computes only pixels of which the difference in color values is above a predetermined level. The division-map video producing part produces depth map images and divided images of the N^th frame. A 3D video output part (609) converts a video of N^th frame into a 3D one and outputs it using the depth map images. [Reference numerals] (600) Video conversion device; (601) Color value calculation part; (603) Accumulated video storage part; (605) Difference video producing part; (607) Division-map video producing part; (609) 3D video output part
Abstract translation: 目的:将二维(2D)视频转换为三维(3D)视频及其装置的方法是通过使用不具有闪烁现象的着色信息将2D视频转换成3D视频。 构成:差分视频制作部分(605)根据使用色差的第N帧的像素产生差异视频,其包括关于颜色值差异的信息。 累积的视频存储部分(603)存储根据像素存储关于颜色差异的信息的累积视频。 使用差分视频,分割地图视频产生部分(607)仅计算颜色差异高于预定水平的像素。 分割图视频制作部分产生第N帧的深度图图像和分割图像。 3D视频输出部分(609)将第N帧的视频转换为3D视频,并使用深度图图像将其输出。 (附图标记)(600)视频转换装置; (601)颜色值计算部分; (603)累积视频存储部分; (605)差分视频制作部分; (607)分区地图视频制作部分; (609)3D视频输出部分
-
公开(公告)号:KR1020130061503A
公开(公告)日:2013-06-11
申请号:KR1020110127847
申请日:2011-12-01
Applicant: 한국전자통신연구원
IPC: H04N13/02
CPC classification number: H04N2013/0074
Abstract: PURPOSE: An image processing device for photographing a 3D image and a method thereof are provided to process images by utilizing simple analysis software and a laptop, thereby increasing portability of a guide system. CONSTITUTION: An image receiving unit(110) receives a left image photographed from a left side camera and a right image photographed from a right side camera, respectively. A frame extraction unit(120) extracts left side/right side image frames per predetermined period. A resolution reduction unit(130) reduces image resolution of the left side/right side image frames. An image output unit(140) alternately outputs the left side/right side image frames an image analysis device. [Reference numerals] (110) Image receiving unit; (120) Frame extraction unit; (130) Resolution reduction unit; (140) Image output unit
Abstract translation: 目的:提供一种用于拍摄3D图像的图像处理装置及其方法,其通过使用简单的分析软件和膝上型计算机来处理图像,从而增加了导向系统的便携性。 构成:图像接收单元(110)分别接收从左侧相机拍摄的左图像和从右侧相机拍摄的右图像。 帧提取单元(120)每预定周期提取左侧/右侧图像帧。 分辨率降低单元(130)降低左侧/右侧图像帧的图像分辨率。 图像输出单元(140)交替地输出图像分析装置的左侧/右侧图像帧。 (附图标记)(110)图像接收单元; (120)帧提取单元; (130)分辨率缩小单元; (140)图像输出单元
-
公开(公告)号:KR1020130003992A
公开(公告)日:2013-01-09
申请号:KR1020110065686
申请日:2011-07-01
Applicant: 한국전자통신연구원
IPC: G06T15/20
CPC classification number: G06T15/205 , G06T7/12 , G06T7/55 , G06T15/40
Abstract: PURPOSE: A method for converting 3d image data and an apparatus for the same are provided to reduce manufacturing costs and working hours through automation. CONSTITUTION: A first extracting unit(103) receives two dimensional image data from a receiving unit(101). The first extracting unit separates each layer having discontinuous information. The first extracting unit calculates a probability value which each pixel belongs to a corresponding layer. A second extracting unit(105) extracts a depth map. A processing unit(107) produces an image converted by horizontal variation according to the layer information and depth map. The processing unit performs a painting work on an occlusion region or a hole area. [Reference numerals] (101) Receiving unit; (103) First extracting unit; (105) Second extracting unit; (107) Processing unit; (109) Output unit
Abstract translation: 目的:提供一种用于转换3D图像数据的方法及其设备,以通过自动化降低制造成本和工作时间。 构成:第一提取单元(103)从接收单元(101)接收二维图像数据。 第一提取单元分离具有不连续信息的每个层。 第一提取单元计算每个像素属于相应层的概率值。 第二提取单元(105)提取深度图。 处理单元(107)根据层信息和深度图产生由水平变化转换的图像。 处理单元对遮挡区域或孔区域进行涂装。 (附图标记)(101)接收单元; (103)第一提取单元; (105)第二提取单元; (107)处理单元; (109)输出单元
-
公开(公告)号:KR100913422B1
公开(公告)日:2009-08-21
申请号:KR1020070100392
申请日:2007-10-05
Applicant: 한국전자통신연구원
Abstract: 본 발명은 곡선 디자인 시스템 및 방법에 관한 것으로서, 주어진 샘플 곡선의 특징을 골고루 혼합한 유사 곡선을 생성하는데 있어서, 곡선의 단계적 성장을 바탕으로 혼합의 정도, 부드러움, 크기 등을 조절할 수 있도록 함으로써, 컴퓨터 그래픽스 및 CAD 분야에서 곡선 설계 및 곡면 설계에 활용할 수 있다.
곡선, 디자인, 유사 곡선-
公开(公告)号:KR1020090064155A
公开(公告)日:2009-06-18
申请号:KR1020070131731
申请日:2007-12-15
Applicant: 한국전자통신연구원
Abstract: A parallel ray tracking method and a system using a ray set are provided to process necessary rays only in each segmented stage, thereby increasing usage efficiency of a parallel processing function and a processor. A ray generator(102) configures a ray set consisting of rays, if ray generation for realistic image expression is performed through ray tracking. A scene searcher(104) searches the inside of a scene by using the rays of the ray set and inputted scene information. The scene searcher searches a first crossed object from the scene information, and configures the ray set. The ray set consists of rays that include information on the first crossed object. A lightness calculator(106) calculates lightness with which the first crossed object is expressed by the rays and illumination. An independent image unit(108) accumulates final results calculated from the lightness calculator at a corresponding position of an independent image.
Abstract translation: 提供平行光线跟踪方法和使用光线组的系统来仅在每个分段级处理必要的光线,从而提高并行处理功能和处理器的使用效率。 如果通过射线跟踪执行用于真实图像表达的射线生成,则射线发生器(102)配置由射线组成的射线组。 场景搜索器(104)通过使用射线的射线和输入的场景信息来搜索场景的内部。 场景搜索器从场景信息中搜索第一个交叉对象,并配置射线集。 光线组由包含第一个交叉对象上的信息的光线组成。 亮度计算器(106)计算第一交叉对象由光线和照明表示的亮度。 独立图像单元(108)在独立图像的对应位置处累积从亮度计算器计算出的最终结果。
-
公开(公告)号:KR100898991B1
公开(公告)日:2009-05-27
申请号:KR1020070098056
申请日:2007-09-28
Applicant: 한국전자통신연구원
CPC classification number: G06T15/005
Abstract: 본 발명은 3차원 그래픽 데이터의 렌더링을 위하여 쉐이더의 효율적 변형, 검색, 변환이 가능한 3차원 그래픽 시스템의 쉐이더 제공 및 변환 장치에 관한 것으로, 본 발명에 따른 3차원 그래픽 시스템의 쉐이더 제공 장치는 구현하고자 하는 쉐이더가 렌더링되는 쉐이더 표현부; 상기 쉐이더의 옵션을 조절하기 위한 옵션 조절부; 상기 옵션 조절부에서 조절된 옵션에 상응하는 유사 쉐이더들을 자동으로 생성하는 유사 쉐이더 생성부; 및 상기 자동 생성된 유사 쉐이더들을 출력하는 출력부를 포함하여 구성되며, 사용자 편의성에 중점을 가지는 효율적이고 직관적인 쉐이더의 제작, 변형, 검색 및 변환 기능을 제공함으로써 3차원 그래픽 데이터 제작에 소요되는 소모적 시간과 노력을 획기적으로 줄이는 효과를 가져온다.
쉐이더(shader), 렌더링(rendering), 3차원 그래픽(3D graphic), 디지털 컨텐츠(digital contents)-
公开(公告)号:KR1020080050303A
公开(公告)日:2008-06-05
申请号:KR1020070107056
申请日:2007-10-24
Applicant: 한국전자통신연구원
CPC classification number: G06T15/506 , G06T13/20 , G06T2213/08
Abstract: A real-time relighting rendering system and a method therefor are provided to update a rendered image in real time according to a light source change in a scene and allow a worker to confirm the change of visual effect easily. A lighting independence component cache module calculates a lighting independence component which is not influenced by the change of a light source(S401). An animation module corrects a selected specific light source among the light sources(S402). A light source classified rendering module performs rendering according to the light sources(S406). An image synthesizing module synthesizes the rendered images. The rendering is independently performed for the selected light source and the light source which is not selected.
Abstract translation: 提供实时重点渲染系统及其方法,以根据场景中的光源变化实时更新渲染图像,并允许工作人员容易地确认视觉效果的变化。 照明独立性部件缓存模块计算不受光源变化影响的照明独立性成分(S401)。 动画模块校正光源中选择的特定光源(S402)。 光源分类呈现模块根据光源执行渲染(S406)。 图像合成模块合成渲染图像。 对所选择的光源和未被选择的光源独立地执行渲染。
-
公开(公告)号:KR100810540B1
公开(公告)日:2008-03-10
申请号:KR1020060048234
申请日:2006-05-29
Applicant: 한국전자통신연구원
Abstract: 1. 청구범위에 기재된 발명이 속한 기술분야
본 발명은 대화도구를 이용한 실시간 협력학습에서의 학습 참여자간 상호작용 촉진 방법에 관한 것임.
2. 발명이 해결하려고 하는 기술적 과제
본 발명은 대화도구를 사용한 학습자간의 토론 및 정보교환과 같은 실시간 협력 행위가 발생할 때마다 학습자들의 협력 참여도를 계산하는 과정을 거쳐 학습자들의 상호작용 지수와 학습 그룹 전체의 상호작용 지수를 분석하여 학습자들에게 공지함으로써 학습자간 상호작용을 촉진하기 위한, 대화도구를 이용한 실시간 협력학습에서의 학습 참여자간 상호작용 촉진 방법을 제공하는데 그 목적이 있음.
3. 발명의 해결방법의 요지
본 발명은, 대화도구를 이용한 실시간 협력학습에서의 학습 참여자간 상호작용 촉진 방법에 있어서, 실시간 협력 학습 활동시 대화도구에 함께 접속한 학습자들의 접속 횟수를 이용하여 해당 학습자 간 실시간 협력 참여도를 갱신하는 실시간 협력 참여도 갱신 단계; 협력 학습 참여자들이 대화 메시지를 송/수신할 때마다 해당 발신지수 및 수신지수를 갱신하는 발/수신지수 갱신 단계; 및 학습자의 실시간 협력 참여도 또는 발/수신지수의 편차에 따라 협력 촉진 안내문을 발송하는 안내문 발송 단계를 포함함.
4. 발명의 중요한 용도
본 발명은 대화도구를 이용한 실시간 협력학습 환경 등에 이용됨.
실시간 협력학습, 대화도구, 상호작용, 협력 참여도, 발신지수, 수신지수
-
-
-
-
-
-
-
-
-