STM-N 신호의 M1 바이트 전달회로
    31.
    发明公开
    STM-N 신호의 M1 바이트 전달회로 失效
    STM-N信号的M1字节传输电路

    公开(公告)号:KR1019980047760A

    公开(公告)日:1998-09-15

    申请号:KR1019960066274

    申请日:1996-12-16

    Abstract: 본 발명은 STM-N 동기식 광전송 시스템의 수신국에서 전송 오류 상태를 송신국으로 전달하기 위한 M1 바이트 전달회로에 관한 것으로서, 종래의 M1 바이트 처리기술은 미비하고 다중화기와 역다중화기간의 M1 바이트 전송시 M1바이트가 정상적으로 전달되었는지 판단하는 방식이 제안되지 않은 문제가 있으므로 상기 문제를 해결하기 위해 본 발명은, 수신국의 다중화기에서 검출된 BIP를 근거로 생성한 M1 바이트를 직렬신호로서 다중화기로 전달 및 M1 바이트 전달시 발생가능한 오류를 검출하는 방식을 제공하여 오류검출을 위해 역다중화기에서 8비트로 부호화된 M1 바이트만을 다중화기로 전달하면 다중화기에서는 수신된 M1 바이트를 병렬 로딩한 후 다시 2진 합산하여 역다중화기에서 보내온 짝수 패리티비트와 비교하여 역다중화기와 다중화기간의 M1 � ��이트 전송시 오류 발생을 검출하고 검출된 오류는 성능평가에 활용함으로써 SRM-N 시스템 적용을 통해 M1 바이트 전달시 발생할 수 있는 전송오류를 평가할 수 있고 서로 다른 클럭소스를 사용하는 역다중화기와 다중화기간의 신호전송을 정상적으로 할 수 있는 회로를 제공함으로써 시스템의 구축을 용이하게 할 수 있으며 STM-N 신호에 모두 공통적으로 적용이 가능한 효과를 가진다.

    개인화된 음성 인식을 수행하기 위한 음성 인식 단말, 음성 인식 서버 및 음성 인식 방법
    35.
    发明公开
    개인화된 음성 인식을 수행하기 위한 음성 인식 단말, 음성 인식 서버 및 음성 인식 방법 审中-实审
    语音识别终端,语音识别服务器和用于执行个性化语音识别的语音识别方法

    公开(公告)号:KR1020170081883A

    公开(公告)日:2017-07-13

    申请号:KR1020160000869

    申请日:2016-01-05

    Inventor: 김동현

    CPC classification number: G10L15/30 G10L15/02 G10L15/183

    Abstract: 개인화된음성인식을수행하기위한음성인식단말, 음성인식서버및 음성인식방법이개시된다. 본발명에따른음성인식단말은, 입력받은음성신호의특징데이터를추출하는특징추출부, 추출된상기특징데이터를이용하여음향모델스코어를연산하는음향스코어연산부, 그리고상기음향모델스코어와상태정보를하나이상의프레임단위로음성인식서버에전송하고, 상기음성인식서버로부터전사데이터를수신하는통신부를포함하며, 상기전사데이터는, 상기음성인식서버가상기음향모델스코어를이용하여언어네트워크의경로를연산하고, 연산된경로를이용하여인식된것을특징으로한다.

    Abstract translation: 公开了一种用于执行个性化语音识别的语音识别终端,语音识别服务器和语音识别方法。 语音识别终端根据本发明,用于计算声学模型得分,使用提取输入音频信号提取部的特征数据的特征提取特征数据的声学得分计算单元,和声学模型得分,和状态信息 与发送到语音识别服务器的帧的一个或多个单元,以及用于通过使用声学模型得分从语音识别服务器,传送数据,语音识别服务器计算语言的路径的网络接收所述传输数据的通信单元 并使用计算出的路径进行识别。

    음성 인식 시스템 및 방법
    36.
    发明公开
    음성 인식 시스템 및 방법 审中-实审
    用于识别语音的系统和方法

    公开(公告)号:KR1020160000286A

    公开(公告)日:2016-01-04

    申请号:KR1020140077479

    申请日:2014-06-24

    Inventor: 김동현

    CPC classification number: G10L15/18 G10L15/14 G10L15/30

    Abstract: 본발명의일 실시예에따른음성인식시스템은단말로부터음성데이터및 사용자키를포함하는음성인식요청을수신하고, 사용자키에상응하는변환매개변수및 음향모델에따라음성데이터에상응하는단어열을생성하여단말로전송하는음성인식서비스장치및 변환매개변수및 음향모델을저장하고음성인식서비스장치로변환매개변수및 음향모델을제공하고, 단어열에따라변환매개변수및 음향모델을갱신하는사용자클러스터장치를포함한다.

    Abstract translation: 根据本发明实施例的用于识别声音的系统包括:声音识别服务设备,用于从终端接收包括声音数据和用户密钥的声音识别请求,根据一个声音数据生成对应于声音数据的字行 声音模型和对应于用户密钥的转换参数,并将字排发送到终端; 以及用于存储声音模型和转换参数的用户群集设备,将声音模型和转换参数提供给声音识别服务设备,以及根据单词行更新声音模型和转换参数。

    음성인식장치 및 그 동작방법
    37.
    发明公开
    음성인식장치 및 그 동작방법 审中-实审
    语音识别装置及其操作方法

    公开(公告)号:KR1020150031896A

    公开(公告)日:2015-03-25

    申请号:KR1020130111673

    申请日:2013-09-17

    Inventor: 김동현

    CPC classification number: G10L15/30 G10L15/183 G10L15/187 G10L2015/228

    Abstract: 실시 예는, 음성인식 단말기로부터 입력된 음성에 대응하는 음성 데이터 및 상기 음성의 입력 환경에 대응하는 멀티센서 데이터를 수신하는 통신모듈, 이전 멀티센서 데이터를 기반으로 음성 입력 환경에 따라 구분된 복수의 언어 및 음향 모델 중 상기 멀티센서 데이터에 대응하는 임의의 언어 및 음향 모델을 선정하는 모델선정모듈 및 상기 음성 데이터에서 추출된 특징 벡터를 상기 임의의 언어 및 음향 모델에 적용하여, 상기 음성 데이터에 대한 음성인식결과를 상기 음성인식 단말기로 전송되게 상기 통신모듈을 제어하는 음성인식모듈을 포함하는 음성인식장치를 제공한다.

    Abstract translation: 一个实施例提供了一种语音识别装置,包括:通信模块,其接收对应于从语音识别终端输入的语音的语音数据,以及对应于语音的输入环境的多传感器数据; 模型选择模块,基于先前的多传感器数据,根据语音的输入环境来选择与多个语言和声音模型中的多传感器数据相对应的任意语言和声音模型; 以及语音识别模块,将从语音数据提取的特征矢量应用于任意语言和声音模型,以控制通信模块,使得相对于语音数据的语音识别被发送到语音识别终端。

    온라인 비지도 특징 벡터 적응 기법을 이용한 음성 인식 시스템 및 방법
    38.
    发明授权
    온라인 비지도 특징 벡터 적응 기법을 이용한 음성 인식 시스템 및 방법 有权
    使用在线无监督的特征空间适应的Speeech识别的系统和方法

    公开(公告)号:KR101281958B1

    公开(公告)日:2013-07-03

    申请号:KR1020110090273

    申请日:2011-09-06

    Inventor: 김동현

    Abstract: 음성 인식 시스템 및 방법이 개시된다. 본 발명의 일실시예에 따른 음성 인식 시스템은, 사용자로부터 입력된 음성 데이터로부터 특징 벡터를 추출하는 특징 추출부; 상기 특징 벡터를 윈도우 크기만큼 선택하는 특징 벡터 선택 및 변환부; 트리 검색을 통하여 상기 윈도우 크기만큼 선택된 특징 벡터에 대응하는 최대 유사 GMM(Gaussian Mixture Model)을 선택하고, 상기 선택된 GMM을 이용하여 변환 매개변수를 측정하는 특징 벡터 적응부; 음향 모델 및 언어 모델을 기록하는 데이터베이스; 및 음성 인식부를 포함하고, 상기 특징 벡터 선택 및 변환부는 상기 변환 매개변수를 이용하여 상기 특징 벡터를 변환하며, 상기 음성 인식부는 상기 변환된 특징 벡터, 상기 음향 모델 및 상기 언어 모델을 이용하여 상기 사용자의 음성을 인식할 수 있다.

    음성 인식용 탐색 공간 생성 방법 및 장치
    39.
    发明公开
    음성 인식용 탐색 공간 생성 방법 및 장치 无效
    用于生成语音识别的搜索网络的方法和系统

    公开(公告)号:KR1020130059476A

    公开(公告)日:2013-06-07

    申请号:KR1020110125405

    申请日:2011-11-28

    CPC classification number: G10L15/083 G10L15/187 G10L15/08 G10L2015/081

    Abstract: PURPOSE: A search space generating method for voice recognition and a system thereof are provided to improve an accuracy of a voice recognition by adding 'a pronunciation heat which is generated by a pronunciation conversion between recognition units' to a search space. CONSTITUTION: A WFST[Weighted Finite State Transducer] coupling unit generates a WFST L·G by a coupling of a WFST G[WFST Grammar] and a WFST L[WFST pronunciation Library] and generates a WFST L'·L·G by a coupling of a WFST L'[WFST pronunciation conversion] and the WFST L·G(310,320). The WFST coupling unit generates a WFST C·L'·L·G by a coupling of a WFST context[WFST C] and the WFST L'·L·G and generates a WFST H·C·L'·L·G by a coupling of a WFST H[WFST Hidden Markov model] and the WFST C·L'·L·G(330,340). A WFST optimization unit optimizes the WFST H·C·L'·L·G(350). [Reference numerals] (310) WFST G and WFST L combination; (320) WFST L' and WFST L·G combination; (330) WFST C and WFST L'·L·G combination; (340) WFST H and WFST C·L'·L·G combination; (350) Optimization; (AA) Start; (BB) End

    Abstract translation: 目的:提供一种用于语音识别的搜索空间生成方法及其系统,以通过将由识别单元之间的语音转换产生的发音热量添加到搜索空间来提高语音识别的精度。 构成:WFST [加权有限状态传感器]耦合单元通过WFST G [WFST语法]和WFST L [WFST发音库]的耦合产生WFST L·G,并通过一个WFST L'·L·G生成WFST L' WFST L'[WFST发音转换]与WFST L·G(310,320)的耦合。 WFST耦合单元通过WFST上下文[WFST C]和WFST L'·L·G的耦合产生WFST C·L'·L·G,并通过下式产生WFST H·C·L'·L·G WFST H [WFST隐马尔可夫模型]和WFST C·L'·L·G(330,340)的耦合。 WFST优化单元优化WFST H·C·L'·L·G(350)。 (参考号)(310)WFST G和WFST L组合; (320)WFST L'和WFST L·G组合; (330)WFST C和WFST L'·L·G组合; (340)WFST H和WFST C·L'·L·G组合; (350)优化; (AA)开始; (BB)结束

    음향모델 적응 방법 및 이를 이용하는 음성인식 장치
    40.
    发明公开
    음향모델 적응 방법 및 이를 이용하는 음성인식 장치 无效
    使用该方法适应声学模型和语音识别装置的方法

    公开(公告)号:KR1020120056086A

    公开(公告)日:2012-06-01

    申请号:KR1020100117611

    申请日:2010-11-24

    CPC classification number: G10L15/14 G10L15/26 G10L19/038

    Abstract: PURPOSE: An acoustic model adapting method and a voice recognizing device using the same are provided to eliminate a re-study burden of a user about a quantized acoustic model by an embedded voice recognizing machine. CONSTITUTION: An extracting unit(110) extracts features from a waveform corresponding to a voice. The extracting unit generates quantized data. A probability measuring unit(120) applies the quantized data, an adapted network, and a quantized acoustic model to fixed point-applied high-speed computation. The probability measuring unit calculates Gaussian occupancy probability. An adaption unit(130) updates the acoustic model. A voice recognizing unit(150) recognizes the extracted features using the updated acoustic model.

    Abstract translation: 目的:提供一种声学模型适应方法和使用其的语音识别装置,以消除用户通过嵌入式语音识别机器对量化声学模型的重新学习负担。 构成:提取单元(110)从对应于声音的波形中提取特征。 提取单元生成量化数据。 概率测量单元(120)将量化数据,适应网络和量化声学模型应用于固定点施加的高速计算。 概率测量单元计算高斯占用概率。 适应单元(130)更新声学模型。 语音识别单元(150)使用更新的声学模型识别所提取的特征。

Patent Agency Ranking