Abstract:
본 발명은 카메라를 이용한 마우스 인터페이스 장치, 이 장치에 의한 시스템 및 방법에 관한 것으로, 카메라를 통해 촬영된 컴퓨터 화면으로부터 상기 컴퓨터 화면의 테두리 상에 존재하는 복수의 점에 대한 카메라 영상에서의 위치인 영상좌표(x i , yi)를 검출하여 이 영상 좌표(x i , yi)와 상기 복수의 점에 대한 상기 컴퓨터 화면이 이루는 평면상의 좌표인 평면 좌표(Xi, Yi)를 이용하여 카메라의 영상 좌표(x i , yi)를 상기 컴퓨터 화면의 평면 좌표(Xi, Yi)로 변환하는 호모그래피를 구하고, 이렇게 구한 호모그래피를 이용하여 카메라의 이동에 따라 카메라 영상의 임의의 점을 컴퓨터 화면의 평면 좌표로 변환하여 그 평면 좌표에 커서를 위치하도록 하여 상기 카메라의 이동에 따라 컴퓨터 화면의 커서의 위치를 움직일 수 있는 인터페이스에 관한 것이다. 호모그래피, 커서, 마우스 드라이브
Abstract:
A method for determining the altitude of a camera by camera tilt rotation in an ocean scene image sequence is provided to determine the altitude of the camera for camera tracking even in an image which is photographed without a marker and in bad weather with the wave and have no necessity to equip a high-cost camera tracking device. A method for determining the altitude of a camera by camera tilt rotation in an ocean scene image sequence comprises the following steps of: extracting horizontal line information from an ocean scene image sequence photographed by a camera fixed to a vessel; calculating a tile angle of the camera by using the horizontal line information; and calculating the altitude of the camera from the tile angle of the camera.
Abstract:
A 3D input device for tracking a hand with a plurality of cameras and a method thereof are provided to obtain precise 3D relative coordinates of a desired position from an image captured by the cameras in real-time irrespective of lighting and shaking of the camera. A contour extractor(101) extracts a contour of the hand by comparing a previous image with the current image captured from the cameras(1-4) through dynamic background subtraction. A camera calibrator(102) calibrates the cameras by fixing a matching point of the image captured from the cameras. A 3D point calculator(103) calculates the 3D position of the hand in real-time based on a basic matrix obtained by calibration. The 3D point calculator previously stores a basic matrix of each position and a result applying a reverse matrix to a hash table, and calculates the 3D position of the hand by using the hash table.
Abstract:
1. 청구범위에 기재된 발명이 속한 기술분야 본 발명은 구 투영기법을 이용한 인체 관절의 3차원 위치 추정 방법에 관한 것임. 2. 발명이 해결하려고 하는 기술적 과제 본 발명은 신체거리비율을 이용하여 인체 관절(예를 들어, 팔꿈치, 무릎, 어깨 등)이 구의 표면에 위치하게 하는 가상의 구(Virtual Sphere)를 생성한 후 그 가상의 구를 동작자의 2차원 영상에 투영하여 만나는 지점을 관절의 3차원 위치로 추정함으로써, 실시간으로 인체 관절의 3차원 위치를 정확하게 검출할 수 있게 하는, 구 투영기법을 이용한 인체 관절의 3차원 위치 추정 방법을 제공하는데 그 목적이 있음. 3. 발명의 해결방법의 요지 본 발명은, 구 투영기법을 이용한 인체 관절의 3차원 위치 추정 방법에 있어서, 동작자를 마커프리 모션캡쳐하여 동작자의 다시점(Multiview) 2차원 영상을 획득하고 상기 획득된 동작자의 다시점 2차원 영상으로부터 신체 말단부위(End-effector)에 대응하는 2차원 특징점을 추출하는 2차원 특징점 추출 단계; 상기 2차원 특징점 추출 단계에서 추출된 신체 말단부위의 2차원 특징점을 3차원 정합하여 상기 신체 말단부위의 3차원 좌표를 복원하는 3차원좌표 복원 단계; 상기 3차원좌표 복원 단계에서 복원된 3차원 좌표를 이용하여 신체 말단부위의 3차원 덩어 리(blob)를 생성하고 상기 생성된 3차원 덩어리의 중심점부터 관절까지의 거리를 반지름으로 하는 가상의 구(Virtual Sphere)를 생성하여 상기 2차원 특징점 추출 단계에서 획득된 동작자의 다시점 2차원 영상에 투영하는 가상구 투영 단계; 및 상기 가상구 투영 단계에서 투영된 가상의 구면과 상기 동작자의 다시점 2차원 영상과 일치하는 지점을 검색하고, 상기 일치된 지점에 대응하는 3차원 위치를 관절의 3차원 위치로 추정하는 관절 위치 추정 단계를 포함함. 4. 발명의 중요한 용도 본 발명은 구 투영기법을 이용한 인체 관절의 3차원 위치 추정 등에 이용됨. 마커프리 모션캡쳐, 인체 관절, 팔꿈치 관절, 3차원 위치 검출, 사영행렬, 다시점 2차원 영상
Abstract:
1. 청구범위에 기재된 발명이 속한 기술분야 본 발명은 이미지 확대를 위한 경계선 및 귀퉁이 기반 보간 방법에 관한 것임. 2. 발명이 해결하려고 하는 기술적 과제 본 발명은 영상처리장치에서 디지털 이미지를 임의의 배율로 확대하는 경우 필연적으로 발생하는 경계선이 흐려지거나 겹침 잡음(aliasing) 등의 화질 열화를 감소시킬 수 있는 경계선 및 귀퉁이 기반 보간 방법을 제공하는데 그 목적이 있음. 3. 발명의 해결방법의 요지 본 발명은, 영상처리장치에서 이미지 확대시의 보간 방법에 있어서, 배율 확대를 위한 원본 이미지 입력시, 해당 이미지의 가장자리를 제외한 모든 픽셀을 중심으로 하는 m×m(여기서, m은 자연수임) 로칼 윈도우를 설정하여, 해당 로칼 윈도우의 방향성을 구하는 로칼 윈도우 방향성 계산 단계; 상기 로칼 윈도우 방향성 계산 결과, 뚜렷한 방향성(선형방향)이 존재하면, 경계선이 존재하는 것으로 간주하는 경계선 확인 단계; 상기 로칼 윈도우 방향성 계산 결과, 뚜렷한 방향성(선형방향)이 존재하지 않으면, 상기 m×m 로칼 윈도우를 (m/2 × m/2) 서브 윈도우로 나누어, 각 서브 윈도우의 방향성을 구하는 서브 윈도우 방향성 계산 단계; 상기 서브 윈도우 방향성 계산 결과, 상위 윈도우의 중점으로 모이는 방향성이 존재하면, 귀퉁이(코너)가 존재하는 것으로 간주하는 귀퉁이 확인 단계; 및 상기 확인된 경계 선 및 귀퉁이에 대해, 그 방향을 지나는 가상 경계선 상에 놓여 있는 픽셀들만을 취하여 방향성 강도에 따라 가중치를 부여하여 새로운 픽셀값으로 정의하는 보간단계를 포함한다. 4. 발명의 중요한 용도 본 발명은 영상처리장치 등에 이용됨. 이미지 확대, 경계선, 귀퉁이(코너), 로칼 윈도우, 서브 윈도우, 마할라노비스
Abstract:
본 발명은 다수의 카메라로부터 획득된 영상에서 주위 조명의 변화 및 카메라 떨림에 구애받지 않고 원하는 지점의 정확한 3 차원 상대 좌표를 실시간으로 획득하기 위한 손 추적 3 차원 입력 장치 및 그 방법에 관한 것으로, 다수의 카메라로부터 획득된 영상에 대해 이전 영상과 현재 영상을 비교하여 손 모양 윤곽선을 추출하기 위한 윤곽선 추출수단; 상기 다수의 카메라로부터 획득된 영상에 대해 대응점을 지정하여 카메라들을 정합하기 위한 카메라 정합수단; 및 상기 카메라 정합수단에 의해 얻어진 기본 행렬을 바탕으로 상기 윤곽선 추출수단으로부터 추출된 손 모양의 윤곽선에 대해 "Kalman filter" 또는 "Particle filter"를 이용하여 실시간으로 손의 3 차원 위치(3 차원 포인팅 지점)를 계산하는 3 차원 포인팅 지점 계산수단을 포함한다. 3 차원 입력, 손 추적, 3 차원 좌표, 3 차원 포인팅 지점, 3 차원 위치
Abstract:
A method for estimating a 3D position of a human joint using a sphere projecting technique is provided to precisely estimate the 3D position of the joint in real-time by forming a virtual sphere placing the joint on surface, projecting a 2D image of an actuator on the virtual sphere, and estimating a point meeting the virtual sphere and the 2D image as the 3D position of the joint. A multi-view 2D image of the actuator is obtained by capturing marker-free motion of the actuator and 2D feature corresponding to en end-effector is extracted from the obtained multi-view 2D image(200). 3D coordinates of the end-effector are restored by performing 3D matching for the extracted 2D feature(202). A 3D blob of the end-effector is generated by using the restored 3D coordinates(204). The virtual sphere is generated by using a distance from a central point of the 3D blob to the joint as a radius and is projected on the multi-view 2D image of the actuator(210). The point meeting the virtual sphere and the multi-view 2D image of the actuator is searched and the 3D position corresponding to the searched point is estimated as the 3D position of the joint(212).
Abstract:
A mouse interface device using a camera, a system and a method using the same, and a computer-readable recording medium thereof are provided to control a position of a mouse cursor in a screen without any additional device by using homography converting a coordinate system of a camera into a planar coordinate system of the screen. An image coordinate detecting module(310) detects image coordinates, which are positions of at least four points found on an edge of a screen from a camera image, from the screen captured by a camera(100). A homography processing module(320) finds homography by using the detected image coordinates and planar coordinates, which are the planar coordinates formed by the screen for the predetermined points. The homography comprises a 3X3 matrix converting a coordinate system of the camera into a planar coordinate system of the screen. A cursor coordinate outputting module(330) outputs screen coordinates for the predetermined point of the camera image by using the homography and determines the screen coordinates as the position of the cursor. A mouse driver(400) moves the position of the cursor according to a change of the determined coordinates.