문장 코퍼스에 대한 영역 자동분류 방법 및 장치
    21.
    发明公开
    문장 코퍼스에 대한 영역 자동분류 방법 및 장치 有权
    方法和装置自动分类

    公开(公告)号:KR1020100048842A

    公开(公告)日:2010-05-11

    申请号:KR1020090021205

    申请日:2009-03-12

    CPC classification number: G06F17/2715

    Abstract: PURPOSE: A method and an apparatus for automatic classification of sentence corpus are provided to facilitate the guarantee of sentence corpus for each area by re-classifying sentence corpuses of various regions into detailed areas. CONSTITUTION: Au auto area classification apparatus includes a sentence learning unit(100) and a sentence classification unit(200). The sentence learning unit learns training set sentence corpus for each detail area to be classified, and extracts N-gram information of detailed sections. The sentence learning unit converts the N-gram information into weight between the detailed sections, and classifies a test set or classified target sentence corpus to be classified according to the weight.

    Abstract translation: 目的:提供一种自动分类句子语料库的方法和装置,通过将各区域的句子语料库重新分类为详细区域,便于保证每个区域的句子语料库。 构成:Au自动区域分类装置包括句子学习单元(100)和句子分类单元(200)。 句子学习单元对每个要分类的细节区域学习训练集句子语料库,并提取详细章节的N-gram信息。 句子学习单元将N-gram信息转换成详细部分之间的权重,并根据权重将测试集或分类目标句子语料进行分类。

    음성 인식을 이용한 자동 번역 방법 및 장치
    22.
    发明公开
    음성 인식을 이용한 자동 번역 방법 및 장치 有权
    使用语音识别的自动翻译的方法和装置

    公开(公告)号:KR1020090006903A

    公开(公告)日:2009-01-16

    申请号:KR1020070070333

    申请日:2007-07-13

    CPC classification number: G06F17/289 G10L15/197

    Abstract: An automatic translation method using the voice recognition and an apparatus thereof are provided to extract each candidate word string in a model for translation and voice recognition. A first language voice(301) is inputted. A translated sentence(305) is outputted through the voice recognition translator(303). The voice recognition translator comprises the acoustic model analysis section(311), the first language model analysis section(313), the statistical model analysis section(315), the second language model analysis section(317) and final translation(319). The acoustic model analysis section uses the acoustic model which is disciplined with the acoustically feature of the inputted voice.

    Abstract translation: 提供使用语音识别的自动翻译方法及其装置,以提取用于翻译和语音识别的模型中的每个候选词串。 输入第一语言语言(301)。 通过语音识别转换器(303)输出翻译的句子(305)。 语音识别翻译器包括声学模型分析部分(311),第一语言模型分析部分(313),统计模型分析部分(315),第二语言模型分析部分(317)和最终翻译(319)。 声学模型分析部分使用被输入声音的声学特征的声学模型。

    종결어휘와 피치를 이용한 문형정보 추출방법
    23.
    发明授权
    종결어휘와 피치를 이용한 문형정보 추출방법 失效
    使用一个字和PITCH的结尾的声音类型的提取方法

    公开(公告)号:KR100550328B1

    公开(公告)日:2006-02-08

    申请号:KR1020030080118

    申请日:2003-11-13

    Inventor: 박경현 박준

    Abstract: 본 발명은 종결어휘와 피치를 이용한 문형정보 추출방법에 관한 것으로, 자동통역 장치의 음성인식 결과에 따른 종결어휘를 이용하여 1차적으로 문형정보를 추출하고, 2차적으로 음성으로부터 피치를 추출한 후, 종결어휘의 문형별 출현 빈도율과 조합하여 문형정보를 추출함으로서 보다 높은 정확률을 얻을 수 있다.
    본 발명은 문형별 종결어휘 사전을 이용하여 음성인식 장치로부터 전달된 음성인식 결과에 따른 문형정보를 추출하는 1차 문형판단 단계와, 상기 1차 문형판단 단계에서 문형정보가 추출되었는가 판단하여, 상기 문형정보가 추출되었을 경우, 언어번역 장치로 상기 문형정보와 음성인식 결과를 전달하는 단계와, 상기 1차 문형판단 단계에서 문형정보가 추출되지 않았을 경우, 입력된 음성으로부터 피치를 검출하고, 문형별 출현 빈도율을 계산하는 단계 및 상기 문형별 출현 빈도율과 피치의 선형조합 방법에 의해 파라메터를 결정하여 문형정보를 추출하는 2차 문형판단 단계로 이루어진다.
    자동통역 장치, 종결어휘, 문형정보, 피치, 파라메터

    기계번역 시스템의 성능을 평가하기 위한 핵심어 전달율측정 방법
    24.
    发明公开
    기계번역 시스템의 성능을 평가하기 위한 핵심어 전달율측정 방법 失效
    用于测量机器翻译系统评估的关键字传输比率的方法

    公开(公告)号:KR1020050062349A

    公开(公告)日:2005-06-23

    申请号:KR1020040057196

    申请日:2004-07-22

    CPC classification number: G06F17/2854 G06F17/2755 G06F17/289

    Abstract: 본 발명은 기계번역 시스템의 성능평가를 위한 핵심어 전달율 측정 방법에 관한 것이다. 본 발명은 기계번역 시스템에서 번역 대상인 원시 언어 문장의 형태소 분석결과를 이용하여 핵심어를 선정하고, 그 핵심어가 번역 결과인 목적 언어 문장에 전달된 정도를 측정, 핵심어 전달율 값을 얻고, 이를 통해 기계번역 시스템의 성능을 평가하기 위한 목적을 가진다. 본 발명의 핵심어 전달율 측정 방법은, (a) 번역 대상의 원시 언어 문장의 형태소를 분석하는 단계; (b) 소정의 분류 기준에 따라 상기 단계 (a)에서 얻어진 형태소 단위에서 핵심어를 선정하는 단계; (c) 상기 단계 (b)에서 선정된 핵심어에 해당하는 대역 아이템을 미리 준비되어 있는 원시-목적 언어의 대역 사전을 통해 검색하여 얻는 단계; (d) 기계번역 결과인 목적 언어 문장에 상기 단계 (c)에서 추출한 대역 아이템이 전달된 정도를 측정하는 단계; 및, (e) 평가 대상인 모든 코퍼스에 대해 상기 단계 (a) 내지 단계 (d)를 반복적으로 수행하고, 그 평균값을 이용하여 평가 대상인 코퍼스 전체에 대한 핵심어 전달율을 구하는 단계를 포함하는 것을 특징으로 한다.

    신경망에 기반한 음성, 영상, 및 문맥의 통합 음성인식장치 및 방법
    25.
    发明公开
    신경망에 기반한 음성, 영상, 및 문맥의 통합 음성인식장치 및 방법 失效
    通过基于神经网络的音频,视觉和上下文特征集成语音识别方法和设备

    公开(公告)号:KR1020050058161A

    公开(公告)日:2005-06-16

    申请号:KR1020030090418

    申请日:2003-12-11

    Abstract: 본 발명은 잡음환경에서 강인한 음성인식을 위해 신경망을 기반으로 음성과 영상정보를 효율적으로 융합하고, 이동단말기에서의 명령어 사용패턴인 문맥정보와 후처리 방법을 사용하여 음성, 영상 및 문맥에 대한 통합 인식을 수행함으로써 음성 인식률을 보다 향상시킬 수 있는 신경망에 기반한 음성인식 장치 및 방법에 관한 것이다.
    본 발명의 통합 음성인식 방법은, 입력되는 음성 및 영상 신호로부터 특징 벡터를 추출하는 특징 추출단계; 음성 및 영상 정보를 신경망을 기반으로 융합하여 사용자 음성을 인식하는 이중모드 신경망 인식 단계; 이동 단말기에서의 사용자 명령어 패턴을 인식하는 문맥정보 인식 단계; 및 이중모드 신경망 인식 결과와 문맥정보 인식 결과를 통합하여 최종 인식결과를 출력하는 후처리 단계;로 이루어진다.

    멀티모달 인터넷 인터페이스 장치 및 방법
    26.
    发明公开
    멀티모달 인터넷 인터페이스 장치 및 방법 无效
    多模式互联接口设备及其方法

    公开(公告)号:KR1020010076789A

    公开(公告)日:2001-08-16

    申请号:KR1020000004144

    申请日:2000-01-28

    Abstract: PURPOSE: A multi-modal Internet interface device and a method thereof are provided to dialogue to a computer by a voice and to perform a web browsing by appending a voice interface function in a currently used web browser. CONSTITUTION: An MXML editor(312) makes a user prepare an MXML document using a template library by operations(311). A multi-modal Internet server(310) stores a prepared MXML document and includes an MXML document server providing the MXML document in accordance with the user. An MXML browser(321) is connected to the multi-modal Internet server(310) through the Internet, and interprets the MXML document and showing the contents of the MXML document on a screen and outputs a voice compounding message and prepares a voice recognition engine. A voice/compounding engine(322) performs voice recognition or a voice compounding. A TAPI(telephony application programming interface)(325)/MTAPI(multimedia telephony application programming interface)(326) provides an interface in an access to a multi-modal Internet client using a telephone(330). An I/O(input/output) device(324) comprises a keyboard, a mouse, a monitor, a mike, and a speaker. An I/O interface(323) provides an interface among the TAPI(325), the MTAPI(326), and the MXML browser(321).

    Abstract translation: 目的:提供多模式互联网接口设备及其方法,以通过语音与计算机对话,并通过在当前使用的web浏览器中附加语音接口功能来执行网页浏览。 构成:MXML编辑器(312)使用户使用模板库(311)准备一个MXML文档。 多模式互联网服务器(310)存储准备的MXML文档,并且包括根据用户提供MXML文档的MXML文档服务器。 MXML浏览器(321)通过互联网连接到多模式互联网服务器(310),并解释MXML文档并在屏幕上显示MXML文档的内容,并输出语音复合消息并准备语音识别引擎 。 语音/复合引擎(322)执行语音识别或语音复合。 TAPI(电话应用编程接口)(325)/ MTAPI(多媒体电话应用编程接口)(326)提供使用电话(330)访问多模式因特网客户端的接口。 I / O(输入/输出)装置(324)包括键盘,鼠标,监视器,麦克风和扬声器。 I / O接口(323)提供TAPI(325),MTAPI(326)和MXML浏览器(321)之间的接口。

    화행 정보를 이용한 음성 인식 방법
    27.
    发明授权
    화행 정보를 이용한 음성 인식 방법 失效
    使用语音信息的语音识别方法

    公开(公告)号:KR100277690B1

    公开(公告)日:2001-01-15

    申请号:KR1019980052256

    申请日:1998-12-01

    Abstract: 1. 청구범위에 기재된 발명이 속한 기술분야
    본 발명은 화행 정보를 이용한 음성 인식 방법에 관한 것임.
    2. 발명이 해결하려고 하는 기술적 과제
    본 발명은 이전에 인식된 대화의 화행 정보로부터 현재 발성된 내용의 화행 정보를 예측하고 이 화행 정보에 따라 언어모델을 변경하므로써 음성 인식기의 정확도를 향상시키기 위한 음성 인식 방법 및 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는데 그 목적이 있음.
    3. 발명의 해결방법의 요지
    본 발명은, 이전에 인식된 대화의 화행 정보로부터 현재 발성된 내용의 화행 정보를 예측하기 위한 화행 추정 파라미터를 구하는 제 1 단계; 화행 추정 파라미터를 언어모델에 반영하는 제 2 단계; 입력 음성을 1차로 인식한 후에, 1차 음성 인식 결과로부터 화행 추정 파라미터를 사용하여 현재의 화행 정보를 추정하는 제 3 단계; 및 추정한 화행 정보에 따라 상기 1차 인식 결과를 재계산하여 인식 결과를 구하는 제 4 단계를 포함한다.
    4. 발명의 중요한 용도
    본 발명은 음성 인식기 등에 이용됨.

    유성음 신호에서 성문 닫힘 구간 신호의 가변에의한 피치 수정방법

    公开(公告)号:KR100269255B1

    公开(公告)日:2000-10-16

    申请号:KR1019970064040

    申请日:1997-11-28

    CPC classification number: G10L21/003 G10L21/013 G10L21/04

    Abstract: PURPOSE: A method for correcting a pitch by variation of a glottis closing section signal in a vocal signal is provided to generate a finely synthesized voice by maintaining a formant bandwidth. CONSTITUTION: A glottis closing section is detected and a vocal path parameter is estimated. A voice signal of the glottis closing section is separated from a voice signal of a glottis opening section. The glottis closing section is extended or reduced by using the estimated vocal path parameter. A final synthesis voice signal changed to a final desired pitch is generated by overlapping the voice signal of the glottis closing section and the voice signal of the glottis opening section.

    Abstract translation: 目的:提供通过声乐信号中声门关闭部分信号的变化来校正音高的方法,以通过维持共振峰带宽来产生精细合成的声音。 构成:检测声门关闭部分,并估计声道参数。 声门关闭部分的声音信号与声门开口部分的声音信号分离。 使用估计的声道参数来扩大或缩小声门关闭部分。 通过将声门关闭部分的声音信号和声门开口部分的声音信号重叠来产生改变为最终期望音调的最终综合语音信号。

    의사형태소를 이용한 음성 인식 단위 설정 방법
    29.
    发明授权
    의사형태소를 이용한 음성 인식 단위 설정 방법 有权
    使用PSEUDO MORPHEM设置用于语音识别的单元的方法

    公开(公告)号:KR100263297B1

    公开(公告)日:2000-08-01

    申请号:KR1019970065686

    申请日:1997-12-03

    Abstract: PURPOSE: A voice recognition unit determination method using a quasi-feature component is provided to maintain the number of candidate vocabulary for voice recognition to expand operation region of a voice recognition system. CONSTITUTION: The voice recognition unit determination method using the quasi-feature component includes following steps. At first, input syllable is divided by a feature component base classifier(101). Whether a sound value is maintained in the output of the feature component base classifier is checked(102). When the sound value is maintained, the feature component division result is output and whether a syllable to be processed exists is determined(103). When more syllable exists, input syllable is divided by the feature component classifier or process is terminated otherwise. When the sound value is not maintained, whether the input syllable is registered in a division rule is determined. When the input syllable is registered in the division rule, the syllable is divided using the rule, the result is output and whether more syllable to be processed exists is determined(105). When more syllable exists, input syllable is divided by the feature component classifier or process is terminated otherwise. When the input syllable is not registered in the division rule, whether an automatic mode is to be performed is determined(106). When yes, the syllable is registered in a non-divided word files, the input syllable is output as it is and whether more syllable to be processed exists is determined. When more syllable exists(107), input syllable is divided by the feature component classifier or process is terminated otherwise. When the mode in not automatic, the input syllable is divided manually and the rule for the division is registered(108). The result is output and whether more syllable to be processed exists is determined(110). When more syllable exists, input syllable is divided by the feature component classifier or process is terminated otherwise.

    Abstract translation: 目的:提供一种使用准特征分量的语音识别单元确定方法,以维持用于语音识别的候选词汇数量,以扩大语音识别系统的操作区域。 构成:使用准特征成分的语音识别单元确定方法包括以下步骤。 首先,输入音节由特征分量基本分类器(101)分割。 检查特征组分基类分类器的输出中是否保持声音值(102)。 当保持声音值时,确定特征分量分割结果,并确定是否存在待处理的音节(103)。 当存在更多的音节时,输入音节由特征分量分类器除以否则终止。 当声音值不被维持时,确定输入音节是否被记录在分割规则中。 当输入音节被注册在分割规则中时,使用规则划分音节,输出结果以及是否存在待处理的多个音节存在(105)。 当存在更多的音节时,输入音节由特征分量分类器除以否则终止。 当输入音节未在分割规则中登记时,确定是否执行自动模式(106)。 当是的时候,音节被注册在一个非分割的单词文件中,输入音节是按原样输出的,并确定是否存在要处理的更多的音节。 当存在更多的音节(107)时,输入音节由特征分量分类器除以否则终止。 当模式不自动时,输入音节被手动分割,并且分配的规则被注册(108)。 确定结果是输出,是否存在更多的音节被处理存在(110)。 当存在更多的音节时,输入音节由特征分量分类器除以否则终止。

    연속 음성인식을 위한 어절 분리방법 및 그를 이용한 음성 인식방법
    30.
    发明公开
    연속 음성인식을 위한 어절 분리방법 및 그를 이용한 음성 인식방법 无效
    用于分离语音识别的语音条件的方法和使用该方法的语音识别方法

    公开(公告)号:KR1020000026814A

    公开(公告)日:2000-05-15

    申请号:KR1019980044518

    申请日:1998-10-23

    Abstract: PURPOSE: A method for separating word clause for successive voice recognition and voice recognition method using the method is provided to easily perform an application of a word clause forming rule by dividing work into content words and function words. CONSTITUTION: An inputted sentence is divided into morphemes using a morpheme analyzer(301). A morpheme analyzed as a compound word is separately divided(302). It is analyzed as to whether a morpheme with a single phoneme is existed(303). It is checked as to whether the morpheme with the single phoneme is located in an end of a word clause and is the ending of a noun type(304). The morpheme is connected to a rear of a previous morpheme and a new morpheme is generated when the morpheme is located in an end of the word clause and is the ending of a noun type(305). The morpheme is connected to a front of a next morpheme and a new morpheme is generated when the morpheme is not located in the end of the word clause and is not the ending of a noun type(306).

    Abstract translation: 目的:提供一种使用该方法分离连续语音识别和语音识别方法的方法,以便通过将作品分解为内容词和功能词来轻松地执行词条形成规则的应用。 构成:使用语素分析器将输入的句子分为语素(301)。 作为复合词分析的语素被分开划分(302)。 分析是否存在具有单个音素的语素(303)。 检查具有单个音素的语素是位于单词子句的末尾,并且是名词类型的结尾(304)。 语素连接到先前语素的后面,当语素位于单词子句的末尾并且是名词类型的结尾(305)时,生成新的语素。 语素连接到下一个语素的前面,当语素不位于单词子句的末尾而不是名词类型的结尾时,产生新的语素(306)。

Patent Agency Ranking