Abstract:
A vertex data processing apparatus and a method thereof are provided to output batches stored in a buffer so that a processor immediately processes them when all batches, being processed in the processor, are processed. The first storage unit(200) stores vertex data. The second storage unit(220) stores vertex data corresponding to a preset processing unit among the stored vertex data. A processing unit(230) processes vertex data stored in the second storage unit. While the processing unit is processing the vertex data corresponding to the preset processing unit, an extracting unit(210) extracts vertex data which will be processed next as corresponding to the preset processing unit from the first storage unit and temporarily stores the extracted results.
Abstract:
가리어진 얼굴 검출장치 및 방법과 이를 이용한 부정거래자 식별장치 및 방법이 개시된다. 가리어진 얼굴 검출장치는 얼굴영역에 대하여 스무딩 처리를 수행하는 스무딩 처리부; 상기 스무딩 처리된 얼굴영역을 제1 영역과 제2 영역으로 분할하는 영역 분할부; 상기 제1 영역에 대하여 가리어진 영역인지 여부를 검출하여, 제1 영역 검출결과를 생성하는 제1 영역검출부; 상기 제2 영역에 대하여 가리어진 영역인지 여부를 검출하여, 제2 영역 검출결과를 생성하는 제2 영역검출부; 및 상기 제1 영역 검출결과와 상기 제2 영역 검출결과를 이용하여 상기 얼굴영역이 가리어진 얼굴인지를 결정하는 결정부로 이루어진다.
Abstract:
An apparatus and a method for detecting an occluded face and an apparatus and a method for discriminating an illegal user by using the same are provided to generate a gradient image from a photographed image and enable the generated gradient image to be smoothed by being projected on a scale space, and detect the occluded face, thereby accurately and quickly determining whether a current user covers a portion of the face and promptly handling an illegal transaction through active control of access to an ATM(Automatic Teller Machine) if the current user is an illegal user. An apparatus for detecting an occluded face comprises the followings: a smoothing processing unit(330) which smooths a facial region; a region division unit(340) which divides the smoothed facial region into a first region and a second region; a first region detection unit(360) which generates a first region detection result by detecting whether the first region is an occluded region; a second region detection unit(380) which generates a second region detection result by detecting whether the second region is an occluded region; and a decision unit(390) which decides whether the facial region is an occluded face by using the first region detection result and the second region detection result.
Abstract:
본 발명은 다면 얼굴 검출에 관한 것으로서, 본 발명의 실시에 따른 다면 얼굴을 검출하는 방법은 이미지 영상에서 전방향 얼굴이 존재하는지 판단하는 (a) 단계와, 상기 (a) 단계에서 전방향 얼굴이 존재하는 것으로 판단된 경우에, 상하 회전된 제1 모드 얼굴, 머리가 기울어진 제2 모드 얼굴 또는 좌우 회전된 제3 모드 얼굴 중 임의의 2가지 모드 얼굴을 순차적으로 검출하는 (b) 단계와, 상기 (b) 단계에서 검출되지 않은 나머지 모드 얼굴을 검출하는 (c) 단계 및 상기 (c) 단계에서 나머지 모드 얼굴이 검출된 경우에 상기 이미지 영상에서 얼굴이 검출된 것으로 결정하는 (d) 단계를 포함하는데, 상기 (c) 단계는 모든 방향의 얼굴 검출기를 평행하게 배열하여 하나의 방향에서 얼굴 검출에 성공하면 같은 방향의 보다 복잡한 얼굴 검출기에 의해 얼굴 검출이 수행되고, 얼굴 검출에 실패하면 다른 방향에서 얼굴 검출이 수행되는 (c)-1 단계와, 모든 방향의 얼굴 검출기를 독립적으로 고립되게 배열하여 하나의 방향에서 얼굴 검출에 성공하면 같은 방향의 보다 복잡한 얼굴 검출기에 의해 얼굴 검출이 수행되고, 얼굴 검출에 실패하면, 상기 이미지 영상에서 얼굴이 검출되지 않은 것으로 결정하는 (c)-2 단계를 포함한다. 얼굴 검출(face detection), 다면 얼굴 검출(multi-view face detection)
Abstract:
본 발명은 얼굴 검출을 기반으로 하는 휴대용 영상 촬영에 관한 것으로서, 본 발명의 실시에 따른 휴대용 영상 촬영 기기는 영상을 수신하는 영상 입력부와, 상기 수신한 영상으로부터 사람의 얼굴을 검출하는 얼굴 검출부와, 인물 동영상으로 저장하는 제1모드인 경우, 상기 얼굴 검출부에서 검출된 영상을 인물 동영상으로 저장하는 저장부 및 인물 정지영상으로 저장하는 제2모드인 경우, 상기 얼굴 검출부에서 검출된 영상의 품질을 검사하는 품질 검사부를 더 포함하고, 상기 저장부에는 상기 품질 검사부에서 소정의 조건을 만족하는 영상이 인물 정지영상으로 저장된다. 휴대용 카메라, 인물 촬영, 얼굴 검출(face detection)
Abstract:
본 발명은 다면 얼굴 검출에 관한 것으로서, 본 발명의 실시에 따른 다면 얼굴을 검출하는 방법은 이미지 영상에서 전방향 얼굴이 존재하는지 판단하는 (a) 단계와, 상기 (a) 단계에서 전방향 얼굴이 존재하는 것으로 판단된 경우에, 상하 회전된 제1 모드 얼굴, 머리가 기울어진 제2 모드 얼굴 또는 좌우 회전된 제3 모드 얼굴 중 임의의 2가지 모드 얼굴을 순차적으로 검출하는 (b) 단계와, 상기 (b) 단계에서 검출되지 않은 나머지 모드 얼굴을 검출하는 (c) 단계 및 상기 (c) 단계에서 나머지 모드 얼굴이 검출된 경우에 상기 이미지 영상에서 얼굴이 검출된 것으로 결정하는 (d) 단계를 포함하는데, 상기 (c) 단계는 모든 방향의 얼굴 검출기를 평행하게 배열하여 하나의 방향에서 얼굴 검출에 성공하면 같은 방향의 보다 복잡한 얼굴 검출기에 의해 얼굴 검출이 수행되고, 얼굴 검출에 실패하면 다른 방향에서 얼굴 검출이 수행되는 (c)-1 단계와, 모든 방향의 얼굴 검출기를 독립적으로 고립되게 배열하여 하나의 방향에서 얼굴 검출에 성공하면 같은 방향의 보다 복잡한 얼굴 검출기에 의해 얼굴 검출이 수행되고, 얼굴 검출에 실패하면, 상기 이미지 영상에서 얼굴이 검출되지 않은 것으로 결정하는 (c)-2 단계를 포함한다. 얼굴 검출(face detection), 다면 얼굴 검출(multi-view face detection)
Abstract:
층 기반 영상 처리 장치 및 방법이 개시된다. 이 장치는, 영상을 각각이 적어도 하나의 블럭으로 이루어지는 E개의 층들로 분할하는 영상 분할부 및 분할된 영상을 이용하여 제1 ~ 제E 층 기저 행렬들을 생성하고, 생성된 제1 ~ 제E 층 기저 행렬들의 세트를 최종 기저 행렬로서 출력하는 제1 ~ 제E 층 기저 행렬 생성부들을 구비하고, 제e(1≤e≤E) 층 기저 행렬 생성부는 e번째 층에 포함된 각 블럭에 대해 로컬 특징 분석법에 의해 구해지는 커넬 행렬을 이용하여 생성한 블럭 모델을 전치한 결과와 제로 평균 행렬을 승산하며, 승산된 결과를 이용하여 선형 판별법에 의해 산출한 클래스간 스캐터 행렬과 클래스내 스캐터 행렬을 이용하여 판별 변환 행렬을 산출하고, 판별 변환 행렬과 블럭 모델을 승산하여 서브 기저 행렬로서 출력하고, e번째 층에 포함된 모든 블럭들에 대해 생성된 서브 기저 행렬들의 세트를 제e 층 기저 행렬로서 출력하는 것을 특징으로 한다. 그러므로, 로컬 특징 분석법의 상관도를 줄일 수 있고 작은 샘플 크기 문제를 야기하지 않고, 분별력이 높은 특징 행렬들을 생성할 수 있고, 얼굴 영상을 오버 피팅 문제를 잘 대처하면서 더욱 향상하여 안정적으로 인식할 수 있으며 학습 과정에서 학습되지 않은 변화에 의해 야기되는 성능 열화를 구제할 수 있고, 로컬 미니멈에 빠질 확률을 줄여 강인한 얼굴 인식 성능을 제공하는 효과를 갖는다.
Abstract:
PURPOSE: A method and system for representing a virtual appearance wearing clothes are provided to rapidly present a variety of virtual appearances wearing various clothes to a user. CONSTITUTION: Fitting points of the human body and human body data having human body image are prepared. The fitting points are placed at portions of the body of a person, which determine the shape of clothes when the person wears the clothes, Clothes fitting points located at portions of the clothes, which determine the shape of the clothes and clothes data having clothes image are prepared. The clothes fitting points are varied until the clothes fitting points accord with the body filling points. The human body image and the clothes image corresponding to the varied clothes fitting points are combined with each other based on the body fitting points and the varied clothes fitting points. The combined result is provided to a user as a virtual appearance wearing the clothes.
Abstract:
PURPOSE: A system and method for offering an animation chat is provided to transfer the meaning of the chat clearly via a three-dimensional face animation, and to reduce the loads in a network and a system, by transmitting only the parameters related to a look after an initial session for the three-dimensional face animation was formed. CONSTITUTION: A face model generator(23) creates the geometry of three-dimensional edges and texture image data, which is stored in a database(20). A face model manager(26) enables the new face model created by the generator(23) to be edited. The manager(26) transfers the geometry and the texture image data received from a chatting server(30) via a network manager(22) to a face synthesizer(25). A look generator(24) creates the parameters related to the look with outstanding characteristics of a user, based on the look data inputted via an input device(28). A look data base(21) stores the parameters of the look. A look manager(27) sends the parameters from the server(30) and the database(21) to the face synthesizer(25). The face synthesizer(25) animates the face model based on the received parameters.