Abstract:
PURPOSE: A method for establishing a model which can recognize feelings in a voice through a loss function and a maximum margin technique based on WTM(Watson-Tellegen Emotional Model) is provided to remarkably increase feeling recognition performance included in a voice. CONSTITUTION: A difference between each emotional feelings is figured by suing geometric distance between emotion groups of WTM(310). Based on set values in the first step, a value of a loss function is obtained(330). Based on a loss function, a parameter of each speech emotion module through a max-margin with margin scaling method is obtained(340).
Abstract:
An apparatus for constructing an acoustic model on the basis of the Hidden Markov model and a method thereof are provided to construct more reliable a voice recognition system of which recognition is improved by using an erroneous restriction condition while using a maximal mutual information scheme. An acoustic feature extracting unit(200) extracts training voice features, which are currently used, to constructing an acoustic mode based on the Hidden Markov. An acoustic model initialization setting unit(202) determines the initial value of a parameter of the acoustic mode to maximize the log likelihood of the training voice for the predetermined correct answer model. When the training voice is recognized by using the acoustic model having the initial value calculated by the acoustic model initialization setting unit, a correct answer model log likelihood calculating unit(206) calculates the log likelihood as to a training voice correct answer model based on a parameter of the acoustic model.
Abstract:
본 발명은 헤드업 디스플레이를 위한 증강현실 시스템에 관한 것으로서, 기존의 Display 방식과 달리 운전자의 머리와 눈 위치를 추적하여 운전자에 최적화된 시선 내에 외부 시야와 더불어 주행에 필요한 정보를 증강 현실로 구현하는 시스템을 제공함에 그 목적이 있다. 이러한 목적을 달성하기 위한 본 발명은, 다중 비전 센서 및 두 개 이상의 스테레오 카메라를 이용하여, 차량의 내외부의 영상정보를 수집하는 센서장치; 차량 외부 객체에 관한 3차원 위치정보를 추출하고, 운전자 눈의 위치정보를 검출하는 상황 인식장치; 및 상기 상황 인식장치를 통해 추출한 객체의 위치정보와 운전자의 눈의 위치정보를 이용하여 운전자 시점에서의 2차원 이미지를 생성하고, 운전자의 위치정보 및 각종 주변상황정보를 2차원 이미지에 투영하여 증강현실을 구현하는 증강현실 구현장치; 를 포함한다.
Abstract:
PURPOSE: An augmented reality system for a head-up display device is provided to implement intuitive information recognition of a driver by matching a virtual image synthesized from various information with a real view of a front glass part. CONSTITUTION: A sensor unit(100) collects image information of the inside and outside of a vehicle. A situation recognition unit(200) extracts location information of an external object from the image information. The situation recognition unit extracts the location information of an eye of a driver. An AR(Augmented Reality) realization unit(300) generates a two-dimensional image at a driver view point by using the extracted location information and the extracted eye location information. The AR realization unit projects the location information of the driver and various surrounding situation information onto the two-dimensional image. [Reference numerals] (100) Sensor unit; (200) Situation recognition unit; (300) Augmented reality realization unit
Abstract:
본 발명은 사용자 적응형 특이행동 검출 기반의 안전운전보조시스템에 관한 것으로, 보다 상세하게는 운전자의 안전운전을 위하여 운전자의 운전패턴과 차량 내외부적인 위험요소들로부터 발생가능한 특이행동을 실시간으로 추적하고 분석함으로써 특이행동 발생여부와 위험도를 추론하여 그에 대처할 수 있는 대응을 출력하여 운전자의 안전운전을 보조하는 사용자 적응형 특이행동 검출기반의 안전운전보조시스템에 관한 것이다. 이러한 목적을 달성하기 위한 본 발명은, 차량의 내부 및 외부의 특이행동여부를 판단하기 위한 데이터를 검출하고, 운전자의 운전패턴에 따른 데이터를 입력받는 입력부; 상기 입력부로부터 입력받은 데이터 및 차량의 내부 및 외부의 특이행동여부를 판단하기 위한 정상행위 기준값을 저장하는 데이터베이스부; 상기 데이터베이스부에 저장된 기준값을 이용하여, 상기 입력부에서 실시간으로 입력받는 데이터에 대한 특이행동인지여부 및 위험도를 분석하는 토픽분석부; 및 상기 토픽분석부에서 분석된 위험도를 이용하여, 위험도 증감여부에 따라 대응방안을 출력하도록 제어하는 위험도판단대응부; 를 포함한다.
Abstract:
사용자 단말기로부터 수신된 이미지 파일을 분석 및 관리하는 사용자 적응형 이미지 관리 시스템은 인터페이스부, 이미지 태깅부 및 이미지 관리부를 포함한다. 인터페이스부는 사용자 단말기로부터 이미지 파일 및 수동 태깅 정보를 수신한다. 이미지 태깅부는 부스팅 기반의 이미지 분석 알고리즘을 이용하여 이미지 파일의 이미지 정보 및 파일 헤더 정보를 분석하고, 분석 결과에 기초하여 이미지 파일에 대해 자동 태깅을 수행하고 자동 태깅 정보를 생성하며, 수동 태깅 정보에 기초하여 부스팅 기반의 이미지 분석 알고리즘을 사용자 적응적으로 업데이트한다. 이미지 관리부는 이미지 파일, 수동 태깅 정보 및 자동 태깅 정보를 저장하고 관리한다.
Abstract:
PURPOSE: A user adaptive image management system and user adaptive image management method are provided to update an image analysis algorithm by acquiring input image information using automatic tagging. CONSTITUTION: An interface unit(110) receives manual tagging information and an image file from a user terminal. An image tagging unit(120) analyzes the image information of the image file using an image analysis algorithm. The image tagging unit analyzes the file header information of the image file. The image tagging unit updates the image analysis algorithm adaptively.
Abstract:
An apparatus for constructing an acoustic model on the basis of the Hidden Markov model and a method thereof are provided to construct more reliable a voice recognition system of which recognition is improved by using an erroneous restriction condition while using a maximal mutual information scheme. An acoustic feature extracting unit(200) extracts training voice features, which are currently used, to constructing an acoustic mode based on the Hidden Markov. An acoustic model initialization setting unit(202) determines the initial value of a parameter of the acoustic mode to maximize the log likelihood of the training voice for the predetermined correct answer model. When the training voice is recognized by using the acoustic model having the initial value calculated by the acoustic model initialization setting unit, a correct answer model log likelihood calculating unit(206) calculates the log likelihood as to a training voice correct answer model based on a parameter of the acoustic model.