음성 신호의 시간축 변환 방법
    121.
    发明公开
    음성 신호의 시간축 변환 방법 无效
    转换语音信号时间轴的方法

    公开(公告)号:KR1020040054843A

    公开(公告)日:2004-06-26

    申请号:KR1020020081153

    申请日:2002-12-18

    Inventor: 이성주 정호영

    Abstract: PURPOSE: A method for converting time shaft of a voice signal is provided to apply three level center clipping and a level crossing method to a synthesis voice signal and an analysis voice signal and then perform synchronization, thereby capable of reducing an amount of calculation by canceling a normalization portion and reducing a search period. CONSTITUTION: An analysis voice frame is initialized as a synthesis voice frame(S1). Thereafter, when all voice data are inputted(S2), a time shaft conversion method is finished. When all voice data are not inputted, a clipping level of the synthesis voice frame and the analysis voice frame is determined(S3). The synthesis voice frame and the analysis voice frame are divided into three levels by using the determined clipping level(S4). A level crossing point of the synthesis voice frame and the analysis voice frame is searched(S5). A synchronization point between the synthesis voice frame and the analysis voice frame is searched by using the analysis voice signal, the synthesis voice signal and the level crossing point processed through a three level center clipping process(S6). On the basis of the searched synchronization point, the synthesis voice signal and the analysis voice signal are rearranged. Two signals are superposed and added(S7).

    Abstract translation: 目的:提供一种用于转换语音信号的时间轴的方法,将三级中心限幅和电平交叉方式应用于合成语音信号和分析语音信号,然后进行同步,从而能够减少计算量 归一化部分并减少搜索周期。 构成:分析语音帧被初始化为合成语音帧(S1)。 此后,当输入所有语音数据(S2)时,完成时间轴转换方法。 当不输入所有语音数据时,确定合成语音帧和分析语音帧的限幅电平(S3)。 通过使用确定的限幅电平将合成语音帧和分析语音帧分成三个等级(S4)。 搜索合成语音帧和分析语音帧的级别交叉点(S5)。 通过使用通过三级中心裁剪处理处理的分析语音信号,合成语音信号和电平交叉点来搜索合成语音帧和分析语音帧之间的同步点(S6)。 在搜索到的同步点的基础上,合成语音信号和分析语音信号被重新排列。 叠加并添加两个信号(S7)。

    잡음 환경에서의 음성신호 검출방법 및 그 장치
    122.
    发明授权
    잡음 환경에서의 음성신호 검출방법 및 그 장치 失效
    잡음환경에서의음성신호검출방법및그장치

    公开(公告)号:KR100429896B1

    公开(公告)日:2004-05-03

    申请号:KR1020010073007

    申请日:2001-11-22

    Inventor: 전형배 정호영

    CPC classification number: G10L25/78

    Abstract: A speech detection apparatus using basis functions, which are trained by independent component analysis (ICA) and method thereof are provided. The speech detection method includes the steps of training basis functions of speech signals and basis functions of noise signals according to a predetermined learning rule, adapting the basis functions of noise signals to the present environment by using the characteristic of noise signals, which are input into a mike, extracting determination information for detection speech activation from the basis functions of speech signals and the basis functions of noise signals, and detecting a speech starting point and a speech ending point of mike signals, which are come into a speech recognition unit, from the determination information.

    Abstract translation: 提供了一种使用由独立分量分析(ICA)训练的基函数的语音检测装置及其方法。 该语音检测方法包括以下步骤:根据预定学习规则对语音信号的基函数和噪声信号的基函数进行训练,利用噪声信号的特性将噪声信号的基函数适应当前环境, 麦克风,从语音信号的基本函数和噪声信号的基函数中提取用于检测语音激活的判定信息,并且检测进入语音识别单元中的麦克信号的语音开始点和语音结束点 确定信息。

    트리탐색기반 음성 인식 방법 및 이를 이용한 대용량 연속음성 인식 시스템
    123.
    发明公开
    트리탐색기반 음성 인식 방법 및 이를 이용한 대용량 연속음성 인식 시스템 失效
    用于识别语音和高容量语音识别系统的基于树的搜索方法,用于连续识别使用该语音的声音

    公开(公告)号:KR1020030033394A

    公开(公告)日:2003-05-01

    申请号:KR1020010065149

    申请日:2001-10-22

    Inventor: 정호영

    Abstract: PURPOSE: A tree search based method for recognizing a voice and a high capacity voice recognition system for continuously recognizing voices using the same are provided to improve recognition rate by excepting words having low probability from a search target. CONSTITUTION: A voice signal inputted through a voice input part(100) is inputted to a feature extracting part(200), so that the feature extracting part extracts feature parameters and provides the feature parameters to a voice recognizing part(300). The voice recognizing part decides the corresponding word by assigning the input features into a sound model and a language model. The firstly inputted features are applied to a tree-based searching part(320) through a K delay(310). The tree-based searching part searches for a word line coinciding with an input voice to be recognized by using the sound model and the language model. A language model look-ahead processing part(340) reads a learned language model for calculating expectations by routes representing probability of succeeding the preceding word and removes routes having low expectations.

    Abstract translation: 目的:提供用于识别语音的基于树搜索的方法和用于连续识别使用其的语音的高容量语音识别系统,以通过从搜索目标除外具有低概率的单词来提高识别率。 构成:通过语音输入部(100)输入的语音信号被输入到特征提取部(200),使得特征提取部提取特征参数并将特征参数提供给语音识别部(300)。 语音识别部分通过将输入特征分配到声音模型和语言模型来决定对应的词。 首先输入的特征通过K延迟(310)应用于基于树的搜索部分(320)。 基于树的搜索部分通过使用声音模型和语言模型来搜索与要输入的语音相符的字线。 语言模型预先处理部分(340)读取用于计算期望的学习语言模型,以代表先前词后面的概率的路由,并且去除具有低期望的路线。

    자연어 대화 음성 인식을 위한 단어 경계 코디네이터 장치
    125.
    发明公开
    자연어 대화 음성 인식을 위한 단어 경계 코디네이터 장치 审中-实审
    用于自然语音会话语音识别的词边界协调器装置

    公开(公告)号:KR1020170103202A

    公开(公告)日:2017-09-13

    申请号:KR1020160025666

    申请日:2016-03-03

    Inventor: 정호영

    Abstract: 본발명은자연어대화음성인식을위한단어경계코디네이터장치에관한것으로, 본발명의일실시예에따른단어경계코디네이터장치는, 자연어대화에서단어경계를나타내는간투어구간을추출하기위한간투어인식부; 상기자연어대화로부터인식가능한단어후보에따른문장을이루는인식경로를결정하기위한기본음성인식부; 및상기단어후보가간투어구간내에포함되는지에따라, 상기간투어구간에겹쳐지지않는다른단어후보를결정하여상기문장을이루는인식경로를재조정하기위한단어경계코디네이터부를포함한다.

    Abstract translation: 本发明涉及字边界,对于自然语言的对话语音识别协调器设备,字边界,根据本发明,漫游识别肝脏提取表示在自然语言对话字边界之间的游间隔的一个实施例的协调器; 基本语音识别单元,用于根据来自自然语言对话的可识别词候选来确定构成句子的识别路径; 以及单词边界协调器,用于根据候选单词是否被包括在间隔期间中来确定与上部时间游览部分不重叠的另一单词候选,并且重新调整构成句子的识别路径。

    라이프 음성 로그 및 라이프 영상 로그를 이용한 점증적 음향 모델 및 언어 모델 학습 방법
    126.
    发明公开
    라이프 음성 로그 및 라이프 영상 로그를 이용한 점증적 음향 모델 및 언어 모델 학습 방법 审中-实审
    使用生活语音记录和生活视频日志的增量声学模型和语言模型学习方法

    公开(公告)号:KR1020170086233A

    公开(公告)日:2017-07-26

    申请号:KR1020160005813

    申请日:2016-01-18

    Abstract: 라이프음성로그및 라이프영상로그를이용한점증적음향모델및 언어모델학습방법이제공된다. 이방법은사용자가일상생활에서발성하는라이프음성로그와상기라이프음성로그로부터인식된제1 텍스트데이터를누적하여제1 데이터베이스를구축하는단계; 상기구축된제1 데이터베이스를이용하여범용음향모델을학습하는단계; 사용자가일상생활에서시각적으로시인하는라이프영상로그와상기라이프영상로그로부터인식된제2 텍스트데이터를누적하여제2 데이터베이스를구축하는단계; 및상기구축된제2 데이터베이스를이용하여범용언어모델을학습하는단계를포함한다.

    Abstract translation: 提供了使用生活语音记录和生活视频记录的增量声学模型和语言模型学习方法。 该方法包括以下步骤:通过累积第一语音数据和第一语音数据来构建第一数据库; 使用构建的第一数据库学习通用声学模型; 通过累积从日常生活中的用户视觉识别的生活视频日志和生活视频日志中识别出的第二视频数据来构建第二数据库; 并使用构建的第二个数据库学习通用语言模型。

    언어모델 군집화 기반 음성인식 장치 및 방법
    127.
    发明授权
    언어모델 군집화 기반 음성인식 장치 및 방법 有权
    基于语言模型聚类的语音识别装置与方法

    公开(公告)号:KR101727306B1

    公开(公告)日:2017-05-02

    申请号:KR1020140077326

    申请日:2014-06-24

    Abstract: 언어모델군집화기반음성인식장치및 그방법이개시된다. 본발명의일 면에따른언어모델군집화기반음성인식방법은입력되는음성데이터에대하여제1 언어모델을이용하여음성인식을수행함으로써, 제1 엔베스트후보리스트를출력하는단계; 상기제1 엔베스트후보리스트중 어느하나의인식후보를이용하여각각의언어모델군집에대한믹스쳐웨이트값을결정하는단계; 상기믹스쳐웨이트값에기반하여각각의언어모델군집을인터폴레이션하는단계; 및각각의언어모델군집이인터폴레이션된결과를이용하여상기제1 엔베스트후보리스트를리스코어링하는단계를포함한다.

    Abstract translation: 公开了一种基于语言模型聚类的语音识别装置及其方法。 根据本发明的一个方面,提供了一种基于语言模型聚类的语音识别方法,包括:通过使用输入语音数据使用第一语言模型执行语音识别来输出第一最佳候选列表; 使用第一最佳候选列表的识别候选者中的任一个确定每个语言模型社区的混合器权重值; 基于混合器权重值对每个语言模型簇进行插值; 并且使用内插每个语言模型社区的结果回顾第一个最佳候选者列表。

    음성 인식 시스템
    128.
    发明授权
    음성 인식 시스템 有权
    语音识别系统

    公开(公告)号:KR101710002B1

    公开(公告)日:2017-02-27

    申请号:KR1020100103581

    申请日:2010-10-22

    Abstract: 음성인식시스템은사용자의음성에대응하는음성신호의에너지변화를토대로사용자의발화가음절단위의발화형태를가지는분절발화인지를판정하는판정부, 사용자의발화가분절발화인경우에분절발화에해당하는음소별확률모델을이용하여사용자의음성을인식하는제1 인식부, 그리고사용자의발화가분절발화가아닌경우에사전에학습된학습확률모델과음성신호를비교한결과를토대로사용자의음성을인식하는제2 인식부를포함한다.

    Abstract translation: 目的:提供语音识别系统,提高异常发送的识别性能,通过识别异常发送减少用户的复发。 构成:确定单元(120)确定用户的语音是否是段语音。 第一识别单元(130)通过使用音素概率模型来识别用户的语音。 第二识别单元根据语音信号和先前学习的学习概率模型的比较结果识别用户的语音。

    협업형 상황 인지 시스템 및 그 방법
    129.
    发明公开
    협업형 상황 인지 시스템 및 그 방법 审中-实审
    协同系统和方法的上下文意识

    公开(公告)号:KR1020160093860A

    公开(公告)日:2016-08-09

    申请号:KR1020150014707

    申请日:2015-01-30

    CPC classification number: G08B13/02 G08B13/1672

    Abstract: 본발명은협업형상황인지시스템및 방법을제공한다. 상기협업형상황인지시스템은혼합된오디오신호를분리하고상기분리된각각의오디오신호를분산시켜제공하는오디오신호분리단말, 상기오디오신호분리단말에의해분리된각각의오디오신호를인식해이벤트정보를생성하는복수개의이벤트정보생성단말들및 상기복수개의이벤트정보생성단말들이생성한이벤트정보를통합하여상황을인지하는상황인지단말을포함한다.

    Abstract translation: 本发明提供了协同上下文感知系统和方法。 协同上下文感知系统包括:音频信号分离终端,被配置为分离混合音频信号并分散并提供每个分离的音频信号; 多个事件信息生成终端,被配置为识别由音频信号分离终端分离的每个音频信号,以生成事件信息; 以及上下文感知终端,被配置为将由所述多个事件信息生成终端生成的事件信息集成以知道上下文。

    음성인식을 위한 특징 추출 장치 및 방법
    130.
    发明公开
    음성인식을 위한 특징 추출 장치 및 방법 有权
    提取语音识别功能的装置和方法

    公开(公告)号:KR1020150004513A

    公开(公告)日:2015-01-13

    申请号:KR1020130077494

    申请日:2013-07-03

    CPC classification number: G10L15/02 G10L15/26

    Abstract: 본 발명에 따른, 음성인식을 위한 특징 추출 장치는, 입력되는 음성신호를 소정 사이즈의 프레임 단위로 분리하는 프레임 형성부; 상기 음성신호의 각 프레임 별로 정적 특징 벡터를 추출하는 정적 특징 추출부; 기저함수 또는 기저벡터를 이용하여, 상기 추출된 정적 특징 벡터의 시간에 따른 변화를 나타내는 동적 특징 벡터를 추출하는 동적 특징 추출부; 및 상기 추출된 정적 특징 벡터와 동적 특징 벡터를 결합하여 특징 벡터 스트림을 구성하는 특징 벡터 결합부를 포함한다.

    Abstract translation: 根据本发明,一种用于提取用于语音识别的特征的装置包括:帧形成单元,其将输入的语音信号分成预定大小的帧单位; 静态特征提取单元,其向语音信号的每个帧提取静态特征向量; 动态特征提取单元,其通过使用基函数或基向量来提取表示所提取的静态特征向量随时间的变化的动态特征向量; 以及特征向量组合单元,其组合提取的静态特征向量和提取的动态特征向量,并形成特征向量流。

Patent Agency Ranking