Abstract:
PURPOSE: An automatic interpretation device and method is provided to enhance the interpreting performance by using/calculating the similarity between an interpreted sentence and a first language sentence which is a speech recognition result. CONSTITUTION: A speech recognizer(S100) receives the first language speech and generates the first language sentence with speech recognizing process. A language processor(S110) extracts the element included in the first language sentence. A similarity calculation part(S120) compares the extracted element and the element included in the interpreted sentence, and calculates the similarity between the first language sentence and the interpreted sentence. A sentence translation part(S130) translates the first language sentence into the second language sentence according to the similarity. A speech composing part(S140) extracts/composes the speech data corresponding to the second language sentence and outputs the speech signal.
Abstract:
PURPOSE: A sentence pattern classification method and keyword extraction method for the same are provided to rapidly classify the sentence pattern of a sentience without a complex operation through simple keyword matching. CONSTITUTION: A sentence pattern of an input sentence is classified by using a keyword in database(S450). The sentence pattern of the sentence is classified by using a sentence end keyword. The sentence pattern of the sentence is classified by using a mid-sentence keyword if the sentence pattern is not classified based on the sentence end keyword.
Abstract:
PURPOSE: A pattern database apparatus and method thereof and a voice recognition apparatus are provided to output a corrected voice recognition result by using a pattern-based semantic representation. CONSTITUTION: A pattern database apparatus(100) analyzes syntax after analyzing a morpheme according to a voice recognition result. The pattern database apparatus recognizes and extracts additional information. A volume expression, a meaningless expression, and additional information are changed after performing a class change. A voice recognition result is outputted after producing a sentence.
Abstract:
광신호를 전기적 신호로 변환시키는 수광 소자를 제공한다. 이 수광 소자는 차례로 적층된 복수의 반도체층들 및 반도체층들내에 각각 형성된 광전변환부들을 포함한다. 광전변환부들은 서로 다른 분광 감도를 가진다. 인접한 반도체층들 사이에 버퍼층이 배치된다. 버퍼층은 인접한 반도체층들간 스트레를 완화시킨다. 이 수광 소자는 외부광에 혼합된 서로 다른 파장을 가는 서브 광들의 강도들을 검출할 수 있으며, 또한, 버퍼층으로 인하여 반도체층들간의 스트레스를 완화시켜 우수한 특성의 수광 소자를 구현할 수 있다.
Abstract:
본 발명에 의한 텔레매틱스 컨텐츠를 DMB 방송망에 적합하도록 가공하는 장치 및 그 방법은 컨텐츠 제공자(CP)를 통해 획득된 컨텐츠를 수신하고 저장하는 수신부; 상기 컨텐츠를 DMB 방송망에 적합하도록 가공하여 소정의 우선순위에 따라 정렬하는 컨텐츠 가공부; 및 상기 순서대로 정렬된 컨텐츠를 압축하여 DMB 방송국으로 송신하는 송신부;를 포함하는 것을 특징으로 하며, 제한된 대역폭을 가진 DMB망에서 국가 단위 교통정보 및 기상정보를 포함한 방송용 텔레매틱스 컨텐츠를 DMB망에 적합하도록 변환하고 컨텐츠별로 우선순위를 정함으로써, 대다수 사람들이 필요로 하는 우선순위가 높은 주요 정보에 대해서는 제한된 대역폭에서도 전송 주기를 짧게 하여 컨텐츠 갱신 주기를 단축시켜주는 효과가 있다. DMB, 텔레매틱스, 컨텐츠, 방송망, 교통정보
Abstract:
A break predicting method to which a static feature and a dynamic feature are reflected, a text-to-speech system based on the same, and a method therefor are provided to combine a CART(Classification And Regression Tree) model of the static feature with an HMM(Hidden Markov Model) model of the dynamic feature, generate a new break prediction model, and predict the most corresponding break strength to the meaning of the corresponding sentence through the generated break prediction model. Text data are extracted from a text corpus(S210). Morphological analysis for the extracted text data is performed(S230). A feature parameter is extracted from the morphological analysis result(S240). The voice recording of the extracted text data is performed, and training data are configured(S250). CART modeling is performed on the basis of the training data, and observation probability is calculated(S260). HMM modeling is performed on the basis of the training data, and transition probability is calculated(S270). A break prediction model is generated on the basis of the observation probability and the transition probability(S280). If a sentence is inputted, a break strength for the inputted sentence is predicted through the break prediction model.
Abstract:
A method and an apparatus for generating an extendable CFG-type voice recognition grammar based on a corpus are provided to describe and extend a CFG-type voice recognition grammar even when the corpus is small to perform continuous voice recognition in a specific area, thereby improving the accuracy and efficiency of the voice recognition. A method for generating an extendable CFG(Context-Free Grammar)-type voice recognition grammar based on a corpus comprises the following steps of: converting the corpus into a CFG-type voice recognition grammar pattern by using thesaurus or converting rules(S200); adding at least one of language used in a conversational style, low-ranking words included in a thesaurus, words used in a corresponding voice recognition area, and synonyms of declinable words to the CFG-type voice recognition grammar pattern to extend the CFG-type voice recognition grammar pattern(S300); and removing impossible to express in meaning in the extended CFG-type voice recognition grammar pattern(S400).
Abstract:
본 발명은 문말 억양 예측 방법 및 이를 기반으로 하는 음성합성 방법 및 시스템에 관한 것으로, 문말 억양과 가장 밀접한 상관 관계를 가지는 문장의 종결어미를 이용하여 문말 억양 예측 모델을 생성하고 생성된 문말 억양 예측 모델을 통해 입력된 대화체 문장의 의미에 가장 부합하는 문말 억양을 생성함으로써, 보다 자연스러운 대화체 합성음을 생성할 수 있는 것을 특징으로 한다. 음성합성시스템(Text-to-Speech system), 문말 억양(sentence-final intonation), 양태(modality), 운율(prosody), 화행(speech act), 문형(sentence type)
Abstract:
A method for predicting a sentence-final intonation and a Text-to-Speech method and system based on the same are provided to generate the sentence-final intonation by using the final ending of a sentence with a strong correlation between the sentence-final intonation and the final ending of the sentence, thereby generating the sentence-final intonation most suitable for the meaning of a conversational sentence and generating a more natural conversational complex sound. A method for predicting a sentence-final intonation comprises the following steps of: extracting text data in consideration of the distribution of a final ending type from a conversational text corpus; performing sentence-final intonation tagging for the extracted text data based on a sentence-final intonation tag set which is set by a sentence-final intonation type(S520); performing aspect tagging for the extracted text data based on an aspect tagging table that the final ending of a sentence is divided by meanings(S530); performing speech-act tagging and sentence pattern tagging for the extracted text data(S540); constructing training data based on the text data in which the sentence-final intonation tagging, aspect tagging, speech-act tagging, and sentence pattern tagging are completed; generating a sentence-final intonation prediction model for sentence-final intonation prediction by a statistical method based on the training data; and performing the sentence-final intonation tagging by predicting the sentence-final intonation for a conversational sentence through the sentence-final intonation prediction model when the conversational sentence is inputted(S550,S560).
Abstract:
본 발명은 영역별 설명문 파일 정보 데이터베이스를 구축하고, 상기 사용자 질의에 대한 답변 정보가 사용자 정보 데이터베이스에 존재하지 않은 경우, 정보 검색 서버에 접속하여 정보 검색 요청 메시지를 전송하고, 상기 정보 검색 서버로부터 수신된 검색 결과가 명사형인 경우, 상기 검색 결과에 포함된 어휘를 통합된 어휘로 만들어 상기 영역별 설명문 파일 정보 데이터베이스에 존재하는지를 판단하고, 상기 판단결과 상기 통합된 어휘가 상기 영역별 설명문 파일 정보 데이터베이스에 존재하지 않으면, 상기 통합된 어휘를 띄어쓰기를 기준으로 한 어휘로 분리하고, 상기 분리된 각 어휘가 상기 영역별 설명문 파일 정보 데이터베이스에 존재하는지를 판단하고, 상기 판단결과 각 어휘가 상기 영역별 설명문 파일 정보 데이터베이스에 존재하면, 상기 각 어휘에 해당하는 설명문을 이용하여 답변 문장을 생성하는 것으로서, 웹사이트를 통하여 검색된 검색결과를 사용자에게 제공할 때, 검색 결과 그대로 사용자에게 답변하기보다는 사용자가 듣기에 자연스러운 표현으로 수정하여 답변 문장을 제공할 수 있다. 음성대화시스템, 답변문장, 정보검색