Abstract:
본 발명은 이기종 센서들로부터 획득한 얼굴 데이터로부터 얼굴 영역 및 부위별 특징을 검출하고 전역/지역적 변형 최적화를 통해 3D 프린팅에 적합한 자동 3D 개인 피규어 생성 장치 및 그 방법에 관한 것이다. 3D 개인 피규어 생성 장치는 복원 대상에 해당하는 사용자의 얼굴 데이터를 획득하는 단계, 얼굴 데이터에서 부위별 특징점을 추출하고, 추출한 특징점을 기반으로 얼굴의 3D 고유 모델을 복원하는 단계, 3D 고유 모델과 이전에 저장된 얼굴표정 모델, 바디/치장 모델을 기반으로 3D 피규어 모델을 생성하는 단계 및 3D 피규어 모델을 실제 3D 프린팅에 해당하는 구조 및 형태인지 검증하고, 검증한 결과를 토대로 수정 및 편집하여 3D 프린팅에 해당하는 3D 피규어 모델을 출력하는 단계를 수행한다.
Abstract:
PURPOSE: A local multi-resolution 3 dimensional face intrinsic model generating device, a generating method thereof, and a facial skin management system are provided to conveniently generate a local multi-resolution 3 dimensional face intrinsic model by automatically compositing an image photographed from a set position with the 3 dimensional face intrinsic model. CONSTITUTION: A 3 dimensional face intrinsic model generating part(210) generates a 3 dimensional face intrinsic model by compositing at least one 3 dimensional face model. A local photographing camera(230) photographs a local region of a face. A control part(220) controls the position of the local photographing camera at the 3 dimensional face intrinsic model. A local multi-resolution 3 dimensional face intrinsic model generating part(240) generates a local multi-resolution face intrinsic model by compositing the 3 dimensional face intrinsic model with an image secured from the local photographing camera. [Reference numerals] (200-1) 3 dimensional face model generating camera 1; (200-2) 3 dimensional face model generating camera 2; (200-N) 3 dimensional face model generating camera N; (210) 3 dimensional face intrinsic model generating part; (220) Control part; (230) Local photographing camera; (240) Local multi-resolution 3 dimensional face intrinsic model generating part; (250) Display part
Abstract:
본 발명에 따른 영상 분할 장치는, 저장매체로부터 배경 영상을 입력받아 시공간영상블록을 추출한 후 이를 이용하여 시공간영상블록 히스토그램을 생성하고, 저장매체로부터 전경과 배경의 분리를 원하는 영상을 입력받아 공간영상블록을 추출한 후 이를 이용하여 공간영상블록 히스토그램을 생성하며, 시공간영상블록 히스토그램과 공간영상블록 히스토그램의 비교를 통해 초기 분할 영상을 생성하고, 초기 분할 영상을 입력받아 영역을 지정하고, 지정된 영역과 이진 분류기를 이용하여 분할 영상을 생성한 후 분할 영상의 배경 영역에 해당하는 히스토그램을 계산하며, 계산된 히스토그램과 시공간영상블록의 히스토그램간의 가중합을 이용하여 기 생성된 시공간영상블록 히스토그램을 갱신한다. 이와 같이, 본 발명은 색상 분포와 이진 분류기를 이용하여 카메라 센서 노이즈를 포함하는 입력 영상으로부터 전경 영역과 배경영역을 정확하게 분할할 수 있으며, 배경 정보뿐만 아니라 전경에 포함되는 정보를 효과적으로 이용하여 전경과 배경을 효율적으로 분할할 수 있는 효과가 있다. 영상 분할, 색상 분활, 이진 분류기, 배경 모델
Abstract:
A confusion matrix based utterance verification method and an apparatus thereof are provided to select a phoneme with high discrimination by using a probability value of a confusion matrix as a weight for a likelihood value of a mono phone model. By performing viterbi decoding by using a context dependent phoneme mode, an inputted voice is recognized(307). A likelihood value of each phoneme, included in a pre-trained context independence phoneme model, and each phoneme, included in the voice-recognized character string as a voice recognition result, is calculated(309). Reliability for the voice-recognized character string is measured based on the calculated likelihood value of each phoneme and the pre-calculated probability value of the confusion matrix(311). It is determined whether to grant or reject the voice-recognized character string based on the measured reliability(313,315,317).
Abstract:
PURPOSE: A three dimensional mesh compressing device based on a quantization technique and a method thereof are provided to supply a recording medium of a program capable of performing the program in a computer and improve compression speed. CONSTITUTION: A three dimensional mesh compressing device based on a quantization technique includes as follows. A data analysis unit(510) separates geometry information(511), attribute information(512), and connection information(513). A mesh model quantization unit generates separates geometry information, attribute information, and connection information. A crystal bit encoding unit encodes separates geometry information, attribute information, and connection information.
Abstract:
A confusion matrix based utterance verification method and an apparatus thereof are provided to select a phoneme with high discrimination by using a probability value of a confusion matrix as a weight for a likelihood value of a mono phone model. By performing viterbi decoding by using a context dependent phoneme mode, an inputted voice is recognized(307). A likelihood value of each phoneme, included in a pre-trained context independence phoneme model, and each phoneme, included in the voice-recognized character string as a voice recognition result, is calculated(309). Reliability for the voice-recognized character string is measured based on the calculated likelihood value of each phoneme and the pre-calculated probability value of the confusion matrix(311). It is determined whether to grant or reject the voice-recognized character string based on the measured reliability(313,315,317).