-
公开(公告)号:KR100156610B1
公开(公告)日:1998-12-15
申请号:KR1019950002845
申请日:1995-02-15
Applicant: 건아정보기술 주식회사 , 한국전자통신연구원
IPC: G08G1/01
Abstract: 본 발명은 차량의 이동속도에 따른 차량 계수범위를 정한 다음, 차량 계수범위를 통과하는 차량의 이동점을 추적하여 자동적으로 이동차량을 계수하는 이동차량 자동 계수시스템 및 방법에 관한 것으로서, 도로의 차량 영상을 촬영 및 입력하는 수단과; 상기 차량 영상을 일정한 시간 간격으로 샘플링한 다음, 상기 샘플링된 차량 영상의 아날로그 신호를 디지탈 신호로 변환시켜 영상을 생성하는 A/D 변환수단과; 상기 A/D 변환수단에서 출력되는 하나의 영상으로 도로정보를 추출하는 수단과; 적어도 2개 이상의 연속된 영상으로 차량의 평균 이동속도를 측정하는 수단과; 상기 평균 이동속도를 기준으로 차량 계수범위를 정한 후 상기 차량 계수범위를 통과하는 이동차량을 계수하는 수단으로 구성된 것을 특징으로 한다.
본 발명에 의한 이동차량 자동 계수시스템 및 방법은 교통량 조사 및 교통상황 파악의 자동화를 이룰 수 있으므로, 조사경비가 절감되고 조사결과에 대한 신뢰도가 향상되는 효과가 있다.-
公开(公告)号:KR100603597B1
公开(公告)日:2006-07-24
申请号:KR1020040106840
申请日:2004-12-16
Applicant: 한국전자통신연구원
Abstract: 1. 청구범위에 기재된 발명이 속한 기술분야
본 발명은 로봇과 전자 기기간의 결합 인터페이스를 위한 장치 및 그 방법에 관한 것임.
2. 발명이 해결하려고 하는 기술적 과제
본 발명은 광학 및 접촉 센싱 수단을 이용하여 결합 인터페이스를 구성함으로써 로봇과 전자 기기간의 결합을 용이하게 수행하고, 또한 상기 로봇과 전자 기기간의 결합도를 향상시킬 수 있는, 로봇과 전자 기기간의 결합 인터페이스를 위한 장치 및 그 방법을 제공하는데 그 목적이 있음.
3. 발명의 해결방법의 요지
본 발명은, 로봇과 전자 기기간의 결합 인터페이스를 위한 장치에 있어서, 외부의 전자 기기에 위치하는 광학 센서 발신부에서 발신(송출)되는 특정한 특성을 가지는 신호를 수신하기 위한 광학 센서 수신부; 상기 광학 센서 수신부에서 수신한 신호의 강도를 이용하여 상기 외부의 광학 센서 발신부와 상기 광학 센서 수신부간의 상대 각도(방향 각도)를 추출하되, 상기 외부의 광학 센서 발신부의 신호 강도 특성과 두 개의 상기 광학 센서 수신부의 수신 신호 강도를 각각 비교하여 상기 외부의 광학 센서 발신부와 상기 각 광학 센서 수신부간의 상대 각도의 합이 180도를 유지하면서 서로 다른 부호를 가질 수 있도록 추출하기 위한 방향 추정기; 상기 방향 추정기에서 추출한 방향 각도를 이용하여 상기 로봇의 현재 위치를 추정하기 위한 위치 추정기; 상기 로봇을 이동시키기 위한 이동부; 및 상기 각 구성요소의 반복 동작으로 인한 상기 로봇의 이동으로 상기 로봇과 상기 외부의 전자 기기간의 결합을 확인하기 위한 접촉 감지 수단을 포함함.
4. 발명의 중요한 용도
본 발명은 홈 오토메이션 시스템을 위한 자율 주행 로봇과 전자 기기 간의 결합 인터페이스 기술 분야 등에 이용됨.
로봇, 전자 기기, 결합 인터페이스, 방향 추정, 위치 추정, 광학 센서, 접촉 센서-
23.
公开(公告)号:KR1020060064908A
公开(公告)日:2006-06-14
申请号:KR1020040103589
申请日:2004-12-09
Applicant: 한국전자통신연구원
IPC: B25J13/00
Abstract: 본 발명은 이동로봇에 관한 것으로, 특히 능동형 표식점(active beacon)을 이용하는 실내 주행 이동 로봇(indoor mobile robot)의 위치 인식 및 주행 방법과 이를 적용한 이동로봇 시스템에 관한 것이다.
본 발명에 따른 위치 인식 및 주행 방법은 주행명령을 수신하면, 상기 주행명령에 따른 경로를 생성하는 제1단계; 특정 RFID태그를 발견하고, 상기 특정 RFID태그에 구비된 LED가 켜진 상태의 영상과 꺼진 상태의 영상을 획득하는 제2단계; 상기 LED가 켜진 상태의 영상과 꺼진 상태의 영상간의 차 영상을 이용하여 로봇의 위치인식 및 진행방향각을 결정하는 제3단계를 포함한다.
본 발명에서 다루는 로봇은 바퀴굴림 형태의 로봇을 포함하여 휴머노이드형 로봇까지 이동성을 가지는 임의의 형태의 로봇을 모두 포함한다.
이동로봇, 위치인식, RFID, 도킹 스테이션-
公开(公告)号:KR100581086B1
公开(公告)日:2006-05-22
申请号:KR1020050036831
申请日:2005-05-02
Applicant: 한국전자통신연구원
Abstract: 1. 청구범위에 기재된 발명이 속한 기술분야
본 발명은 RFID Tag LED를 이용한 로봇 위치 측정 방법 및 장치에 관한 것임.
2. 발명이 해결하려고 하는 기술적 과제
본 발명은, 로봇이 활동하는 동적 환경에서 카메라를 이용하여 획득한 3개의 RFID Tag LED 사이의 각도를 변수로 코사인 법칙과 삼각법을 이용하여 로봇의 위치를 측정함으로써, 목적지까지의 이동경로를 설정하고 주행하는데 필수적인 로봇의 위치를 측정하기 위한 방법 및 장치를 제공하는데 그 목적이 있음.
3. 발명의 해결방법의 요지
본 발명은, RFID Tag LED를 이용한 로봇 위치 측정 방법에 있어서, 로봇에 장착된 카메라를 이용하여 검출된 RFID Tag LED 사이의 각도를 획득하는 단계와 상기 획득한 각도를 변수로 코사인 법칙과 삼각법을 이용하여 로봇의 위치를 측정하는 단계를 포함한다.
4. 발명의 중요한 용도
본 발명은 로봇 위치 측정 방법 등에 이용됨.
어안 렌즈(Fish Lens), RFID, RFID Tag, 삼각법(Triangulation), 경로 설정(Path Planning), 주행(Navigation)Abstract translation: 1.权利要求书中描述的发明所属的技术领域
-
公开(公告)号:KR1020060033973A
公开(公告)日:2006-04-21
申请号:KR1020040083074
申请日:2004-10-18
Applicant: 한국전자통신연구원
CPC classification number: G06T5/006 , G06K9/32 , G06K2209/01
Abstract: 1. 청구범위에 기재된 발명이 속하는 기술분야
본 발명은 어파인 변환을 이용한 문서 영상의 기하학적 왜곡 보정 장치 및 방법에 관한 것임.
2. 발명이 해결하려고 하는 기술적 과제
본 발명은 문서 영상을 획득하여 문자 인식을 수행하는 과정에서, 문서 영상 자체만으로 이진화 및 영역 분할를 수행하고 어파인 변환을 수행함으로써, 왜곡없는 문자 인식을 수행하기 위한, 어파인 변환을 이용한 문서 영상의 기하학적 왜곡 보정 방법을 제공하는데 그 목적이 있음.
3. 발명의 해결방법의 요지
문서 영상의 기하학적 왜곡 보정 방법에 있어서, 상기 문서 영상을 이진화하는 이진화 단계; 이진화된 문서 영상으로부터 문자열을 생성하는 문자열 생성 단계; 생성된 문자열을 이용하여 문서 영상에 외접하는 수평/수직 방향의 직선을 추출하는 직선 추출 단계; 및 추출된 수평/수직 방향의 직선이 형성하는 사변형 영역을 어파인변환을 이용하여 직사각형 영역으로 변환하는 어파인변환 단계를 포함함.
4. 발명의 중요한 용도
본 발명은 문자 인식 기술에 이용됨.
문자 인식, 문서 영상, 어파인변환, 왜곡 보정-
公开(公告)号:KR100515286B1
公开(公告)日:2005-09-20
申请号:KR1020000080739
申请日:2000-12-22
Applicant: 한국전자통신연구원
Inventor: 소정
IPC: G06T1/00
Abstract: 1. 청구범위에 기재된 발명이 속한 기술분야
본 발명은 다중 영상물체 추출기 결합 장치 및 그 방법에 관한 것임.
2. 발명이 해결하려고 하는 기술적 과제
본 발명은 서로 다른 성질 및 특성을 가지는 여러 개의 영상물체 추출기를 하나의 영상에 적용한 결과를 효과적으로 결합하기 위한 다중 영상물체 추출기 결합 장치 및 그 방법을 제공하는데 그 목적이 있음.
3. 발명의 해결방법의 요지
본 발명은, 다중 영상물체 추출기 결합 장치에 있어서, 각 영상물체 추출기가 생성한 후보물체의 리스트들을 입력받기 위한 후보물체 리스트 입력 수단; 상기 입력받은 각 후보물체에 대해서 객관신뢰도(objective confidence)를 평가하기 위한 객관신뢰도 평가 수단; 상기 입력받은 후보물체 간의 상응성(correspondence)을 결정하기 위한 상응성 결정 수단; 및 상기 상응성 결정 수단에서의 상응성 결정에 의해 상응하는 것으로 결정된 물체들의 객관신뢰도를 결합하기 위한 신뢰도 결합 수단을 포함한다.
4. 발명의 중요한 용도
본 발명은 영상물체 추출기 등에 이용됨.-
公开(公告)号:KR1020050060799A
公开(公告)日:2005-06-22
申请号:KR1020030092521
申请日:2003-12-17
Applicant: 한국전자통신연구원
IPC: G06K9/00
CPC classification number: G06K9/00241
Abstract: 본 발명은 사람 얼굴의 대칭성을 이용하여 자연 영상에서 얼굴을 자동으로 추출하는 것으로, 임의의 영상으로부터 대칭축을 이동시키면서 대칭 유사도가 높게 나타난 부분을 검출하고, 이 부분이 얼굴 영역인지 검증한 후, 최종적으로 얼굴 영역을 자동적으로 추출하는 것이다.
따라서, 본 발명은 정지 영상을 입력하는 영상 입력부, 실시간 처리를 위해 피라미드식 해상도 축소방법을 이용하여 상기 입력 영상을 제 1소정 크기의 영상으로 축소하는 영상 변환부, 상기 축소된 영상을 제 2소정 크기의 대칭성 마스크를 적용하여 스캐닝 하는 스캐닝부, 상기 스캐닝 된 마스크를 대칭축을 중심으로 왼쪽 영역과 오른쪽 영역으로 나누는 영역 분할부, 상기 분할된 두 영역에서 로컬 영역의 대칭 유사도(Symmetric_measure_local)를 계산한 후에, 글로벌 영역의 대칭 유사도(Symmetric_measure_global)를 계산하여, 얼굴영역의 대칭 유사도를 계산하는 대칭 유사도 계산부, 상기 계산된 대칭 유사도가 일정값 이상을 갖는 대칭축을 갖는 영역을 얼굴영역으로 추출하는 얼굴영역 추출부로 구성된다.-
28.
公开(公告)号:KR1020050055509A
公开(公告)日:2005-06-13
申请号:KR1020030088731
申请日:2003-12-08
Applicant: 한국전자통신연구원
CPC classification number: G06T5/005 , H04N5/455 , H04N2005/4453
Abstract: 본 발명의 목적은 장면 전환이 2회 이상 발생한 경우 배경과 물체의 움직임이 있을 때 모자이크 기법을 이용하여 문자 영역의 원영상을 정확하게 복원하는 것으로, 이와 같은 본 발명의 목적을 달성하기 위한 모자이크 기법을 이용한 동영상 문자 영역의 원 영상 복원 장치는, 입력되는 동영상(비디오영상)으로부터 영상 장면 전환 정보를 추출하는 동영상 장면 전환 정보 추출수단과, 상기 입력되는 동영상(비디오영상)으로부터 복원될 자막영역 정보를 추출하는 자막 영역 정보 추출수단을 포함하는 동영상 문자영역의 원영상 복원장치에 있어서, 상기 동영상 장면 전환 정보 추출수단에서 추출된 동영상 장면 전환 정보와 입력되는 모션정보에 의해서 자막영역에서 장면 전환이 2회 이상 발생한 경우에 자막영역의 원영상 복원을 제어하는 제어수단과, 상기 제어수단의 제어에 따라, 상기 동영상 장면 전환 정보 추출수단에서 추출된 동영상 장면 전환 정보와 상기 자막 영역 정보 추출수단에서 추출된 자막영역의 2배 영역 위치 정보를 이용하여, 그 자막영역에서의 배경 및 물체의 모션 정보를 추출하는 모션 정보 추출수단과, 상기 모션정보 추출수단에서 추출된 모션 정보에 대응하는 모션 발생값이 기 설정된 임계값 이상일 때, 상기 제어수단의 제어에 따라 모자이크 기법을 이용한 원영상 복원 방법을 수행하는 제1 원영상 복원수단을 포함하여 구성되는 것을 특징으로 한다.
-
公开(公告)号:KR1020040094984A
公开(公告)日:2004-11-12
申请号:KR1020030028570
申请日:2003-05-06
Applicant: 한국전자통신연구원
IPC: H04N7/18
Abstract: PURPOSE: A context sensitive video processing system is provided to systematically combine two cameras to obtain an input video having desired resolution even in a wide area, thereby remarkably improving the performance of various video processing application systems while increasing user convenience. CONSTITUTION: A GVC(Grand View Camera)(204) senses a context by viewing overall areas. A GVC controller(202) controls vertical/horizontal motions of the GVC(204). A DVC(Detail View Camera)(208) expansively obtains the sensed context at recognizable resolution. A DVC controller(206) controls vertical/horizontal and zoom operations of the DVC(208), respectively. A camera interface(106) mutually transmits videos obtained from the GVC(204) and the DVC(208) or parameters for controlling the GVC(204) and the DVC(208). Embedded computers(102) determine position information of the context in real time, or determine parameter information for controlling the GVC(204) and the DVC(208), and output the determined information to the controllers(202,206).
Abstract translation: 目的:提供一种上下文敏感的视频处理系统,以系统地组合两个摄像机以获得即使在广泛的区域中具有期望分辨率的输入视频,从而显着提高各种视频处理应用系统的性能,同时增加用户便利性。 规定:GVC(Grand View Camera)(204)通过查看整个区域来感知上下文。 GVC控制器(202)控制GVC(204)的垂直/水平运动。 DVC(详细查看摄像机)(208)以可识别的分辨率广泛地获得感测到的上下文。 DVC控制器(206)分别控制DVC(208)的垂直/水平和缩放操作。 相机接口(106)相互发送从GVC(204)和DVC(208)获得的视频或用于控制GVC(204)和DVC(208)的参数。 嵌入式计算机(102)实时地确定上下文的位置信息,或者确定用于控制GVC(204)和DVC(208)的参数信息,并将确定的信息输出到控制器(202,206)。
-
公开(公告)号:KR100427181B1
公开(公告)日:2004-04-28
申请号:KR1020010081102
申请日:2001-12-19
Applicant: 한국전자통신연구원
IPC: G06T7/00
Abstract: PURPOSE: A system for extracting a face color area using edge and color information, and a method thereof are provided to improve the accuracy of face authentication by preventing a face area from merging with a background area. CONSTITUTION: A color area dividing unit(10) detects edge information from an input color image and divides areas from an entire image by the edge information. An isolated area forming unit(11) makes a background area and a face area binary for forming each isolated area. A skin color area selecting unit(12) extracts the isolated area adjacent to a center position of an image in the isolated areas for selecting an area satisfying conditions of mean gray level, size information, and color distribution as a representative face candidate area. An image merging unit(13) extracts the areas satisfying the conditions of the color and position information from the adjacent isolated areas based on the mean color distribution and position information of the selected representative face candidate area for merging images, so that the image merging unit extracts a face color area.
Abstract translation: 目的:提供一种使用边缘和颜色信息提取脸部颜色区域的系统及其方法,以通过防止脸部区域与背景区域合并来提高脸部认证的准确性。 构成:彩色区域划分单元(10)检测来自输入彩色图像的边缘信息,并通过边缘信息划分整个图像的区域。 隔离区域形成单元(11)形成用于形成每个隔离区域的背景区域和面部区域二进制。 肤色区域选择单元(12)提取与孤立区域中的图像的中心位置相邻的孤立区域,用于选择满足平均灰度级,大小信息和颜色分布的条件的区域作为代表性候选区域。 图像合并单元(13)基于所选择的用于合并图像的代表性脸部候选区域的平均颜色分布和位置信息,从相邻隔离区域中提取满足颜色和位置信息的条件的区域,使得图像合并单元 提取脸部颜色区域。
-
-
-
-
-
-
-
-
-