실내 측위 시스템 및 그 방법
    21.
    发明公开
    실내 측위 시스템 및 그 방법 有权
    室内本地化系统和方法

    公开(公告)号:KR1020120003578A

    公开(公告)日:2012-01-11

    申请号:KR1020100064256

    申请日:2010-07-05

    CPC classification number: G01C21/10 G01C21/28 G01S5/02 H04W24/00 H04W64/00

    Abstract: PURPOSE: An indoor positioning system and an indoor positioning method are provided to accurately confirm the position of a user by estimating the position of the user using acceleration and angular acceleration. CONSTITUTION: An indoor positioning system comprises an inertia measurement device(1) and a mobile terminal(10). The inertia measurement device measures the acceleration and angular acceleration of a user using an acceleration sensor(2) and an angular acceleration sensor(3). The mobile terminal estimates the position of the user using the measured acceleration and angular acceleration and corrects the estimated position of the user using simplified map data.

    Abstract translation: 目的:提供室内定位系统和室内定位方法,通过使用加速度和角加速度估计用户的位置来准确地确认用户的位置。 构成:室内定位系统包括惯性测量装置(1)和移动终端(10)。 惯性测量装置使用加速度传感器(2)和角加速度传感器(3)测量使用者的加速度和角加速度。 移动终端使用所测量的加速度和角加速度来估计用户的位置,并且使用简化的地图数据来校正用户的估计位置。

    안전모 착용 비전 감시 시스템 및 방법
    22.
    发明授权
    안전모 착용 비전 감시 시스템 및 방법 有权
    视力观察系统和安全帽方法

    公开(公告)号:KR101033349B1

    公开(公告)日:2011-05-09

    申请号:KR1020090024947

    申请日:2009-03-24

    CPC classification number: H04N7/18 G06T7/0002 G06T2207/30196 G06T2207/30232

    Abstract: 본 발명은 안전모 착용 비전 감시 시스템 및 방법에 관한 것으로서, 보다 상세하게는 공사현장, 자전거 도로 또는 이륜차 주행등에서 안전모를 착용하지 아니하여 인명사고로 이어지는 것을 방지하기 위하여 카메라 감시구역내의 안전모 미착용자를 인식하고, 안전모 미착용자에게 경고 메시지를 전송함으로써 안전사고를 예방할 수 있는 안전모 착용 비전 감시 시스템 및 방법에 관한 것이다.
    본 발명은 건설공사현장의 근로자나 인라인 스케이트장등의 안전모 미착용자의 인명사고를 예방할 수 있는 효과가 있으며, 저해상도 카메라를 이용하여 목적을 달성함으로써 비용절감면에서 효과적이다.
    안전모, 카메라, 썸네일 영상

    안전모 착용 비전 감시 시스템 및 방법
    23.
    发明公开
    안전모 착용 비전 감시 시스템 및 방법 有权
    视觉监控系统和安全帽方法

    公开(公告)号:KR1020100106776A

    公开(公告)日:2010-10-04

    申请号:KR1020090024947

    申请日:2009-03-24

    CPC classification number: H04N7/18 G06T7/0002 G06T2207/30196 G06T2207/30232

    Abstract: PURPOSE: A vision watching system and a method for a safety hat are provided to prevent the accident resulting from the non-wearing of a safety hat. CONSTITUTION: A reception unit receives an image signal of a camera monitoring region(100), and a processing unit(300) judges a person from the image signal based on the size and contour line of an object. On the basis of an RGB(Red,Green,Blue) value and/or a color value of an HSV(Hue,Saturation,Value), the processing unit judges the wearing of the safety hat. A transmission unit outputs a PTZ(Pan-Tilt-Zoom) camera control signal for obtaining a thumbnail image of a human who does not wear a safety hat.

    Abstract translation: 目的:提供视力观察系统和安全帽的方法,以防止因佩戴安全帽导致的事故。 构成:接收单元接收相机监视区域(100)的图像信号,并且处理单元(300)根据对象的尺寸和轮廓线从图像信号中判断人物。 基于RGB(红,绿,蓝)值和/或HSV(色调,饱和度,值)的颜色值,处理单元判断安全帽的佩戴。 传输单元输出用于获得不戴安全帽的人的缩略图的PTZ(Pan-Tilt-Zoom)相机控制信号。

    기준 좌표상의 시각적 이미지를 이용한 객체 위치 측정방법
    24.
    发明授权
    기준 좌표상의 시각적 이미지를 이용한 객체 위치 측정방법 有权
    使用具有参考坐标的视觉图像进行物体定位的方法

    公开(公告)号:KR100927096B1

    公开(公告)日:2009-11-13

    申请号:KR1020080017756

    申请日:2008-02-27

    Abstract: 기준 좌표상의 시각적 이미지를 이용한 객체 위치 측정 방법이 개시된다. 본 발명은 다중 비주얼 이미지들을 사용하는 객체의 위치측정을 위한 효과적인 방법에 관한 것으로서, 이미징 장치들의 주밍(zooming)과 패닝(panning)을 지원하는 평행 투사 모델을 제안한다. 본 발명은 객체 위치와 기준 좌표 사이의 관계를 창출하기 위한 가상 뷰어블 평면을 정의한다. 본 발명에서 요구되는 기준 좌표는 예비-추정(pre-estimnation) 과정으로부터 얻어질 수 있는 대략적인 추정일 수 있다. 본 발명은 계산적 복잡성이 완화된 반복적인 접근을 통해, 위치측정 에러를 최소화한다. 또한, 디지털 이미지 장치들의 비선형 왜곡은 반복적인 위치측정 과정에서 보상될 수 있다.
    객체, 이미지, 주밍, 패닝, 위치측정, 추정

    Abstract translation: 提供了一种定位对象的方法,包括将虚拟可视平面和实际相机平面上的物体平面上的物体和与其对应的参考点投影; 估计参考点的坐标; 并且规定对象的位置与参考点的坐标之间的关系。

    잎맥의 특징점을 이용한 잎 분류방법
    25.
    发明公开
    잎맥의 특징점을 이용한 잎 분류방법 失效
    使用采伐特征分类叶的方法

    公开(公告)号:KR1020080022257A

    公开(公告)日:2008-03-11

    申请号:KR1020060085444

    申请日:2006-09-06

    CPC classification number: G06K9/6211

    Abstract: A method for classifying leafs by using venation feature points is provided to extract the venation feature points and classify and store the leafs according to the venation having the extracted feature points, thereby enabling a user to search a plant exactly having a venation including similar feature points. A method for classifying leafs by using venation feature points comprises the following steps of: extracting a sample image for a venation of a leaf through a extracting unit(S401); extracting a BP(Branching Point) and an EP(Ending Point) as feature points by applying a CSS(Curvature Scale Space Corner Detection) algorithm to the sample image(S405); classifying the BP and the EP through an analyzing unit(S407); calculating density of the extracted feature points through non-parametric estimation method by using a Parzen window, and confirming whether the feature points are distributed in a linear form or distributed around one point(S409); confirming vertical distribution of the feature points, determining the feature point as a parallel venation if the feature points are distributed around upper and lower one point, and determining the feature point as a venation if the feature points are distributed in the linear form(S410); if parallel venation, confirming vertical and horizontal distribution of the BP(S420) and determining whether density of the BP is upwardly inclined and lower density is distributed in a linear form(S425); and if the lower density of the BP is present in the linear form, classifying the feature points as a second parallel venation, and classifying the feature points as a first parallel venation if the density of the BP is upwardly distributed and the lower density is distributed around one point(S427,S428).

    Abstract translation: 提供了一种通过使用静脉特征点对叶片进行分类的方法,以提取脉搏特征点,并根据具有提取的特征点的脉搏对叶片进行分类和存储,从而使用户能够精确地搜索具有包括相似特征点的脉搏的植物 。 通过使用静脉特征点对叶片进行分类的方法包括以下步骤:通过提取单元提取用于叶片的静脉的样本图像(S401); 通过对样本图像应用CSS(Curvature Scale Space Corner Detection),提取BP(分支点)和EP(终点)作为特征点(S405); 通过分析单元对BP和EP进行分类(S407); 通过使用Parzen窗口通过非参数估计方法计算所提取的特征点的密度,并确定特征点是以直线形式分布还是分布在一个点附近(S409); 确定特征点的垂直分布,如果特征点分布在上下一点的情况下,将特征点确定为平行脉冲,并且如果特征点以线性形式分布,则将特征点确定为静脉(S410) ; 如果平行脉动,确认BP的垂直和水平分布(S420),并确定BP的密度是否向上倾斜,并且较低的密度以线性形式分布(S425); 并且如果BP的较低密度以直线形式存在,则将特征点分类为第二平行脉冲,并且如果BP的密度向上分布且较低密度分布,则将特征点分类为第一平行脉冲 约一点(S427,S428)。

    영상감시 시스템을 위한 메타데이터 생성 장치 및 방법
    26.
    发明公开
    영상감시 시스템을 위한 메타데이터 생성 장치 및 방법 无效
    用于产生监测系统的元数据的装置和方法

    公开(公告)号:KR1020110044110A

    公开(公告)日:2011-04-28

    申请号:KR1020090100946

    申请日:2009-10-22

    CPC classification number: H04N7/18 H04N7/08

    Abstract: PURPOSE: An apparatus and method for generating metadata for a surveillance system are provided to exchange analysis information between intelligent surveillance systems. CONSTITUTION: A data receiving unit(110) receives a service image data from a plurality of intelligence surveillance systems using a communication protocol. A data analysis unit(120) extracts data information from the service image data. A metadata generation unit(130) generates metadata by applying the extracted information to the service image data tag.

    Abstract translation: 目的:提供一种用于生成监视系统元数据的装置和方法,用于在智能监控系统之间交换分析信息。 构成:数据接收单元(110)使用通信协议从多个智能监视系统接收服务图像数据。 数据分析单元(120)从服务图像数据中提取数据信息。 元数据生成单元(130)通过将提取的信息应用于服务图像数据标签来生成元数据。

    지능형 감시 시스템 및 방법
    27.
    发明授权
    지능형 감시 시스템 및 방법 有权
    智能监控系统及方法

    公开(公告)号:KR101003208B1

    公开(公告)日:2010-12-21

    申请号:KR1020090043804

    申请日:2009-05-20

    Abstract: 본 발명은 지능형 감시 시스템 및 방법에 관한 것으로서, 보다 상세하게는 영상 정보 분석을 통해 위험 상황을 스스로 파악하고, 위험 상황에 알맞게 주변 카메라 모듈에 명령을 내려 카메라의 PTZ(Pan-tilt-zoom) 기능을 통한 영상 확보를 할 수 감시 시스템 및 방법에 관한 것이다.
    본 발명에 따른 지능형 감시 시스템 및 방법에 의하면 관리자의 기본적인 모니터링만으로도 다채널, 다구역 감시가 가능하고 위험 상황 발생시 필요한 영상을 즉각적으로 확보할 수 있는 장점이 있다.
    객체 추적(Object tracking), 탬퍼링(Tampering), 영상 처리(Image Processing)

    지능형 감시 시스템 및 방법
    28.
    发明公开
    지능형 감시 시스템 및 방법 有权
    智能监控系统与方法

    公开(公告)号:KR1020100124877A

    公开(公告)日:2010-11-30

    申请号:KR1020090043804

    申请日:2009-05-20

    CPC classification number: G08B13/1963 G06Q50/10 H04N7/18

    Abstract: PURPOSE: Intelligent surveillance system and method are provided to grasp dangerous situations through image information analysis. CONSTITUTION: An analysis unit(231) recognizes dangerous situations and distinguishes objects. An object tracking unit(232) traces the location of the position and movement route of the object. A camera phase analysis unit(233) extracts the camera including an object current position. A transmission unit(234) outputs the signal for controlling the PTZ camera.

    Abstract translation: 目的:提供智能监控系统和方法,通过图像信息分析来掌握危险情况。 构成:分析单元(231)识别危险情况并区分对象。 对象跟踪单元(232)跟踪对象的位置和移动路线的位置。 相机相位分析单元(233)提取包括对象当前位置的相机。 传输单元(234)输出用于控制PTZ摄像机的信号。

    조명변화 환경하에서 촬영된 다중 영상에서 의상 색상유사성 판별 방법 및 공동현관 안전시스템
    29.
    发明授权
    조명변화 환경하에서 촬영된 다중 영상에서 의상 색상유사성 판별 방법 및 공동현관 안전시스템 有权
    基于衣服相似性的公共入口区不同照明和安全系统中衣服颜色相似性的区分方法

    公开(公告)号:KR100967064B1

    公开(公告)日:2010-06-29

    申请号:KR1020080051391

    申请日:2008-06-02

    Abstract: 본 발명은 서로 다른 조명 환경하에서 촬영된 영상에 포함된 의상들 사이의 색상 유사성을 LBG 알고리즘을 이용하여 안정적으로 판별할 수 있도록 한 조명변화 환경하에서 촬영된 다중 영상에서 의상 색상 유사성 판별 방법에 관한 것이다. 본 발명의 조명변화 환경하에서 촬영된 다중 영상에서 의상 색상 유사성 판별 방법은 HSV 컬러모델로 표현된 2 이상의 의상 영상의 각 픽셀 정보를 HS 2차원 공간 상에 분포시키는 (a) 단계; 상기 (a) 단계에서 분포된 각 픽셀 정보의 분포 특성에 따른 각 의상 영상에서의 색상 클러스터를 LBG 알고리즘을 적용하여 추출하는 (b) 단계; 상기 (b) 단계에서 추출된 각 의상 영상에서의 색상 클러스터 상호 간의 대응 클러스터를 정의하는 (c) 단계; 상기 (c) 단계에서 정의된 대응 클러스터간의 평균 거리를 지정하여 유사도값을 산출하는 (d) 단계 및 상기 (d) 단계에서 산출된 유사도값을 미리 구축된 학습 모델 데이터에 대입하여 두 의상 영상의 유사 여부를 판별하는 (e) 단계를 포함하여 이루어진다. 본 발명의 실시 예에인 공동현관 안전 시스템에서는 현관과 복도 두 영역을 감시하는 각기 독립적인 두 대의 카메라 영상에서 상기 단계의 의상 색상 유사성 판별 방법을 적용하여 승인된 보행자와 미승인 보행자를 판별한다.
    의상, 색상, 조명, HSV, 공간 분포, 색상 클러스터, LBG, 비모수

    복잡성이 감소된 고분광 프로세싱에 기반을 둔 실시간 타겟검출 방법
    30.
    发明公开
    복잡성이 감소된 고분광 프로세싱에 기반을 둔 실시간 타겟검출 방법 有权
    基于降低复杂度超分析处理的实时目标检测方法

    公开(公告)号:KR1020090092433A

    公开(公告)日:2009-09-01

    申请号:KR1020080017674

    申请日:2008-02-27

    Abstract: A real-time target detection method is provided to remove the memory bottleneck state and to increase the processing speed by optimizing the memory application and the processing unit modeling. A real-time target detection method comprises followings. A target or back ground is detected to the preprocessed arbitrary pixel based on a library. Target samples or back ground samples are extracted from the target or the back ground to refine the library(step4). The step of refining library has a step of making a band list effective for the pixel based on the contribution factor. The step of detecting the target or the back ground is as follows. The effective band list is loaded from the refined library. The coefficient of correlation is saved from the spectrum envelope and the library basing on the list of the effective band. The target or the back ground is determined based on the size of the coefficient of the correlation.

    Abstract translation: 提供实时目标检测方法来消除存储器瓶颈状态,并通过优化存储器应用和处理单元建模来提高处理速度。 实时目标检测方法包括以下。 基于库对预处理的任意像素检测目标或背景。 从目标或背部提取目标样本或背景样本以优化文库(步骤4)。 精炼库的步骤是基于贡献因子,使带列表对于像素有效的步骤。 检测目标或背景的步骤如下。 有效乐队列表是从精品图书馆加载的。 相关系数从有效频带列表中的频谱包络和库中得到保存。 基于相关系数的大小来确定目标或背景。

Patent Agency Ranking