Abstract:
본 발명은 그래픽 프로세서(Graphics Processing Unit, GPU)를 범용 계산에 활용하는 방법에서 다양한 프로세서에서 최대의 성능을 내는 소프트웨어를 개발하는 방법을 개시한다. 본 발명의 방법은 텍스쳐와 픽셀 버퍼에 따른 데이터 패치 성능을 테스트하는 단계와, 계산영역 모양에 따라 성능을 테스트하는 단계, 그래픽 카드 드라이버 버전에 따른 성능을 테스트하는 단계, 해당 그래픽 프로세서가 계산 제한적인지 대역폭 제한적인지 판별하는 단계, 상기 성능평가 결과에 기반하여 그래픽 프로세서 적응적 알고리즘을 개발하는 단계로 구성된다. 따라서 픽셀 쉐이더의 성능에 영향을 미치는 요소들을 찾아 내어 다른 특성을 가진 그래픽 프로세서를 대상으로 성능 평가 결과를 제공함으로써 픽셀 쉐이더를 이용한 범용 계산에서 최대의 성능을 내기 위한 방법을 제공할 수 있다.
Abstract:
본 발명은 다시점 카메라를 이용하여 연기자의 무표정 얼굴 및 표정연기를 캡쳐한 다시점 영상으로부터 자동으로 연기자의 고유 외형표현과 얼굴의 자세제어 및 고유 표정재현이 가능한 삼차원 얼굴 모델을 생성하는 기술에 관한 것으로, 생성된 삼차원 얼굴 모델은 연기자의 고유한 기하학적 외형정보를 표현하는 삼각형의 메쉬 구조와 메쉬 구조를 제어하기 위한 계층구조의 조인트, 그리고 각 조인트와 메쉬 구조간의 종속관계 설정으로 구성되며, 각 조인트들의 자세 제어를 통해 얼굴의 자세제어 및 연기자의 고유표정 재현을 수행하는 것을 특징으로 한다. 본 발명에 의하면, 연기자의 무표정한 얼굴과 표정연기를 담은 다시점 영상정보만으로도 연기자 고유의 외형 및 표정 재현을 자동으로 구현할 수 있는 삼차원 얼굴모델 생성이 가능하기 때문에, 기존의 제약된 환경조건이 아닌 다양한 실/내외 환경 조건에서의 적용이 가능하고, 디자이너의 수작업 부분을 자동으로 처리하여 모델 생성시간을 절감할 수 있으며, 계층구조의 조인트 제어를 통해 표정이나 얼굴자세를 제어하기 때문에 얼굴 외형이나 표정의 쉬운 편집 및 수정기능을 제공할 수 있다.
Abstract:
A color equalizing method between multiple cameras using a color checker chart is provided to be useful to 3D information restoration of a dynamic object, in a circumstance where it is not possible to perform a photographing process as moving one camera. In case of 3D data restoration, color differences generated between images simultaneously taken in various directions from plural cameras are calculated(S200-S202). With regard to the color differences, a relation between color models of each camera and a reference color model of a color checker cart is modeled and corrected to equalize colors between the multiple cameras(S203-S205). Coefficients of a color mapping equation between input image color information of the cameras and reference color information of the color checker chart are estimated. The estimated coefficients are applied to equalize input image color values of the cameras.
Abstract:
A 3D facial model generation method and a device using multi-viewpoint image information are provided to control expression or facial postures through join control of a hierarchical structure, thereby offering an easy editing and modifying function of external facial shapes or expressions. An image input unit(102) inputs multi-viewpoint image information toward an expressionless face of a performer captured from plural cameras. An outer shape restorer(104) generates a mesh structure for outer shape expressions of a 3D facial model by using the inputted multi-viewpoint image information. A standard facial model transition unit(106) transfers standard model information to the generated mesh structure, and planarizes the mesh structure. The standard facial model transition unit enables operation of moving parts in each part. An intrinsic expression learning unit(108) locates joints of a hierarchical structure in the mesh structure.
Abstract:
An efficient color monitor control method is provided to control a monitor by controlling brightness value once and contrast value twice by simplifying a control step of the monitor. A contrast value is set as a minimum value(S101). A first test image including black image is displayed(S102). A brightness value is set up based on the color in a non-voltage signaling area and the black image(S103). A second test image including white color image is displayed(S104). The contrast value is set up with the white color image based on the set white value(S105).
Abstract:
본 발명은 영상 간의 대응점 위치로부터 고정된 줌 렌즈 카메라 초점거리를 계산하는 카메라 자동보정 방법에 관한 것으로, 초점거리를 변수로 하는 비용함수(cost function)를 정의하고, 정의한 비용함수를 최소화하는 초점거리를 구하여 모든 영상 쌍 각각에서 계산되는 대응점의 3차원 복원결과가 최대한 일치하는 초점거리를 구함으로써, 계산된 초점거리의 신뢰도를 쉽게 검증할 수 있을 뿐 아니라, 입력 대응점의 위치가 부정확하게 주어진 경우에도 안정적으로 카메라 초점거리를 계산할 수 있다. 카메라 보정(camera calibration), 카메라 자동보정(camera self-calibration), 카메라 내부인자(camera intrinsic parameter), 카메라 초점거리 (camera focal length), 3차원 복원(3D reconstruction), 카메라 자세추정(camera motin estimation)
Abstract:
A system and a method for generating a 3D face modeling and animation using a single video camera are provided to transfer facial animation data of an actor into a facial performance of a virtual actor. A video camera(10) captures an image of an actor to generate video. A computer(20) processes the video of the actor inputted via the video camera and animate it. A digital signal processor(22) receives a facial performance video of a user from the video camera, converts the 3D facial performance video in an analog format into digital signals expressed by 0 and 1, so that the digital signals can be processed according to a mathematical operation. A face modeling unit(24) receives the video of the actor and models 3D face of the actor by frames. A D/A converter(28) converts the animation image of the 3D face processed by the face modeling unit into analog signals so as to be displayed via an output unit(30).
Abstract translation:提供了使用单个摄像机生成3D脸部建模和动画的系统和方法,以将演员的面部动画数据转换成虚拟演员的面部表演。 视频摄像机(10)捕获演员的图像以产生视频。 计算机(20)处理通过摄像机输入的动作的视频并对其进行动画处理。 数字信号处理器(22)从视频摄像机接收用户的面部表情视频,将模拟格式的3D面部表情视频转换成由0和1表示的数字信号,使得数字信号可以根据 数学运算。 面部建模单元(24)接收演员的视频并且通过帧模拟演员的3D面部。 D / A转换器(28)将由脸部建模单元处理的3D脸部的动画图像转换为模拟信号,以经由输出单元(30)显示。
Abstract:
An image search apparatus and a method thereof are provided to generate a group of images into which original image is converted, to store color difference data via calculation of spatial color difference, and to determine whether image is copied by using the color difference data. An image search apparatus includes an image group generator(102), a spatial color difference calculator(104), a color difference database(106), an image search unit(108) and a search result output unit(110). The image group generator receives original image, and generates a group of images converted in accordance with preset conversion kinds like contrast, sharpness, brightness, gamma, noise, colors and sizes. The spatial color difference calculator calculates a spatial color difference from the original color with respect to each image included in the group of converted images by using a set color difference calculation scheme, and stores the calculation result at the color difference database as color difference data matched with the original image and the group of images. The image search unit determines whether inputted test image is affiliated to the group of images by calculating spatial color difference between the test image and the original image and comparing the calculation result with the color difference data. The search result output unit outputs the comparison result which expresses whether the test image is copied from the original image.
Abstract:
본 발명은 3차원 모델에 대한 비사실적(Non-photorealistic) 효과를 위한 확장성 있는 스타일 구조를 기반으로 하는 렌더링 프레임워크의 구성 시스템 및 이러한 프레임워크의 구성 방법에 관한 것으로, 본 발명에 따른 프레임워크의 구성 시스템은, 3D 모델에 대한 입력을 3D 데이터로 변환하여 장면그래프를 구성하고, 상기 장면그래프를 점, 면, 에지로 구조화하여 최적화하는 3D 모델 데이터 처리 수단, 상기 장면그래프를 이용하여 상기 3D 모델의 내부를 칠하기 위한 브러셔를 선택하는 내부칠하기 수단, 상기 장면그래프를 이용하여 3D 모델에 대한 라인정보를 추출하여 관리하는 라인그리기 수단, 내부칠하기와 라인그리기의 2가지 렌더링 방식에 동일하게 적용할 상기 3D 모델에 대한 렌더링 스타일을 생성하여 스트로크로 저장하는 스타일 표현 수단, 상기 각 수단의 상태 및 하기의 렌더링 수단의 상태를 저장하고 관리하는 상태관리수단 및 상기 생성된 렌더링 스타일이 저장된 스트로크와 상기 선택된 브러셔를 결합하여 상기 내부 칠하기와 라인그리기의 2가지 렌더링 방식을 동시에 적용하여 렌더링하는 렌더링 수단을 포함함으로써, 비사실적 렌더링 및 애니메이션을 위한 툴 개발 및 새로운 비사실적 렌더링 스타일의 개발 등에 이용할 수 있다. 스타일 기반 통합 프레임워크, 스트로크(Stroke), 브러셔(Brusher), 비사실 적 렌더링 및 애니메이션
Abstract:
A system and a method for mosaic-rendering a 3-dimensional model are provided to map texture pieces to meshes one to one by using the 3-dimensional model to generate a realistic mosaic image. A system for mosaic-rendering a 3-dimensional model includes an input module(100), a texture generation module(200), a mapping module(300), and a rendering module(400). The input module inputs the 3-dimensional model. The texture generation module generates a texture by using polygon information of the inputted 3-dimensional model. The mapping module maps the generated texture to each polygon of the 3-dimensional model by using the geometrical structure of the 3-dimensional model. The rendering module renders the mapped mosaic image.