음성인식을 위한 특징 추출 장치 및 방법
    71.
    发明授权
    음성인식을 위한 특징 추출 장치 및 방법 有权
    特征提取装置和语音识别方法

    公开(公告)号:KR101756287B1

    公开(公告)日:2017-07-26

    申请号:KR1020130077494

    申请日:2013-07-03

    CPC classification number: G10L15/02

    Abstract: 본발명에따른, 음성인식을위한특징추출장치는, 입력되는음성신호를소정사이즈의프레임단위로분리하는프레임형성부; 상기음성신호의각 프레임별로정적특징벡터를추출하는정적특징추출부; 기저함수또는기저벡터를이용하여, 상기추출된정적특징벡터의시간에따른변화를나타내는동적특징벡터를추출하는동적특징추출부; 및상기추출된정적특징벡터와동적특징벡터를결합하여특징벡터스트림을구성하는특징벡터결합부를포함한다.

    Abstract translation: 根据本发明,提供了一种用于语音识别的特征提取装置,包括:帧形成单元,用于将输入语音信号分离成预定大小的帧; 静态特征提取单元,用于为语音信号的每帧提取静态特征向量; 动态特征提取单元,用于使用基函数或基矢量来提取指示所提取的静态特征向量随时间的变化的动态特征向量; 以及特征向量组合单元,其将提取的静态特征向量和动态特征向量组合以构建特征向量流。

    스팸 콜 차단 방법 및 통신 단말
    72.
    发明公开
    스팸 콜 차단 방법 및 통신 단말 审中-实审
    用于拒绝垃圾邮件通知的方法和通信终端

    公开(公告)号:KR1020160083311A

    公开(公告)日:2016-07-12

    申请号:KR1020140194063

    申请日:2014-12-30

    CPC classification number: H04W88/02 G10L15/265 H04W4/12 H04W4/16 H04W4/18

    Abstract: 본발명은음성인식기술을이용하는스팸콜 차단장치및 방법에관한것이다. 본발명에따른스팸콜 차단식별자목록에포함되어있지않는식별자를갖는상대단말로부터호 요청이있는경우, 통화단말을스팸확인모드로전환하는스팸확인모드전환부; 상기스팸확인모드에서상기상대단말로부터수신되는음성을문자열로변환하는음성변환부; 상기수신되는음성이기계음성또는녹음된음성에해당하는지판단하는음성판단부; 및상기음성변환부로부터수신되는문자열및 상기음성판단부로부터수신되는판단결과를표시하는표시부를포함할 수있다.

    Abstract translation: 本发明涉及一种垃圾电话拒绝设备和使用语音识别技术的方法。 根据本发明的用于拒绝垃圾电话的装置包括:垃圾邮件确认模式转换单元,当从具有不包含在垃圾邮件呼叫的拒绝标识符列表上的标识符的其他终端接收到呼叫请求时,将呼叫终端转换成 垃圾邮件确认模式; 语音转换单元,其在所述垃圾邮件确认模式中将从所述另一终端接收的语音转换为字符串; 语音判断单元,判断所接收的语音是机器人还是记录的语音; 以及显示单元,其显示从语音转换单元接收的字符串和从语音判断单元接收的判断结果。

    사용자 단말에서의 복수의 음성 인식 서비스를 위한 통합형 사용자 모델 생성 방법
    73.
    发明公开
    사용자 단말에서의 복수의 음성 인식 서비스를 위한 통합형 사용자 모델 생성 방법 审中-实审
    用于生成用户终端中语音识别服务的集成个人模型的方法

    公开(公告)号:KR1020160082151A

    公开(公告)日:2016-07-08

    申请号:KR1020140194801

    申请日:2014-12-31

    CPC classification number: G10L15/06 G10L15/02 G10L15/08

    Abstract: 복수의음성인식서비스를위한통합형사용자모델생성방법이개시된다. 본발명의일 면에따른사용자단말에서복수의음성인식서비스를위한통합형사용자모델생성방법은사용자단말에구현된복수의음성인식서비스어플리케이션중 적어도하나의음성인식서비스어플리케이션을통해사용자의음성신호에대한음성인식동작을수행하는단계, 상기음성인식동작을수행한음성인식서비스어플리케이션을통해상기음성인식결과를상기사용자에게안내하는단계, 상기사용자의입력을통해상기음성인식결과를해당음성인식서비스에연동할지여부를확인하는단계, 및상기확인결과에따라, 상기음성인식결과를사용자로그로사용하여상기복수의음성인식서비스어플리케이션의음성인식을위한통합형사용자모델을생성하는단계를포함한다.

    Abstract translation: 根据本发明,公开了一种用于生成用于多个语音识别服务的集成用户模型的方法,能够提高在用户终端中使用的各种语音识别服务的性能。 根据本发明的一个实施例,所述方法包括以下步骤:通过在用户终端中实现的语音识别服务应用中的至少一个,对用户的语音信号执行语音识别操作; 通过执行语音识别操作的语音识别服务应用程序向用户通知语音识别结果; 通过用户输入检查语音识别结果是否与相应的语音识别服务相关联; 并且使用语音识别结果作为取决于检查结果的用户日志,以生成用于多个语音识别服务应用的语音识别的集成用户模型。

    음성 인식 방법 및 이를 위한 시스템
    74.
    发明授权
    음성 인식 방법 및 이를 위한 시스템 有权
    识别语音和系统的方法

    公开(公告)号:KR101330328B1

    公开(公告)日:2013-11-15

    申请号:KR1020100127898

    申请日:2010-12-14

    Abstract: 개인 맞춤형 자연어 연속어 음성 인식 방법 및 이를 위한 시스템이 개시된다. 음성 인식 방법은, 단말로부터 사용자 정보 및 사용자 발화를 수신하는 단계와, 상기 수신된 사용자 정보에 기초하여 상기 사용자가 등록된 사용자인지 여부를 판단하는 단계와, 상기 사용자가 등록된 사용자인 것으로 판단되면, 상기 등록된 사용자의 정보를 포함하는 개인 맞춤형 모델을 기초로 상기 사용자 발화를 인식하여 음성 인식 결과를 생성하는 단계 및 상기 생성된 음성 인식 결과를 상기 단말로 전송하는 단계를 포함한다. 따라서, 현재 웹 서비스 중에 휴대 단말 환경 기반 음성 검색 서비스의 성능을 최대한 높이기 위해 개인 맞춤형 서비스를 제공할 수 있다.

    엔베스트 인식 단어 계산량 감소를 위한 2단계 발화검증 구조를 갖는 음성인식 장치 및 방법
    75.
    发明授权
    엔베스트 인식 단어 계산량 감소를 위한 2단계 발화검증 구조를 갖는 음성인식 장치 및 방법 有权
    使用两相语音验证架构的装置和方法,用于计算N最佳识别字的速度改进

    公开(公告)号:KR101317339B1

    公开(公告)日:2013-10-11

    申请号:KR1020100033376

    申请日:2010-04-12

    Abstract: 본 발명은 엔베스트(N-best) 인식 단어 계산량 감소를 위한 2단계 발화검증 구조 및 방법에 관한 것으로, 메모리, CPU 성능 등 리소스 제한을 받는 임베디드 시스템에 발화검증 기능을 갖는 음성인식 시스템을 위한 것이다.
    발화검증은 사용자가 음성으로 발성한 음성 입력에 대해 음성인식을 수행한 후, 인식된 결과에 대한 신뢰도를 계산하여 인식 결과를 수락 또는 거절을 결정하는 것이다. 이를 위해 임베디드용 발화검증은 성능 요구사항뿐만 아니라, 빠른 응답시간을 제공해 주어야 하므로, 새로운 구조와 계산량 감소를 위한 기법을 사용해야 한다. 따라서, 본 발명에서는 임베디드 음성인식 시스템에서 엔베스트 인식결과가 출력될 때 계산량 감소를 위한 2단계 발화검증 구조 및 방법을 제안하고자 한다.

    전자책 시스템에서 인터랙티브 컨텐츠 제공 장치 및 방법
    76.
    发明授权
    전자책 시스템에서 인터랙티브 컨텐츠 제공 장치 및 방법 有权
    在电子书籍系统中提供互动内容的系统和方法

    公开(公告)号:KR101294024B1

    公开(公告)日:2013-08-08

    申请号:KR1020090127336

    申请日:2009-12-18

    Abstract: 본 발명은 전자책 시스템을 위한 인터랙티브 컨텐츠를 제작, 유통, 활용하는 장치 및 방법에 관한 것이다.
    본 발명은, 컨텐츠 제공 장치에 있어서, 컨텐츠 저작 도구 및 컨텐츠 구성 아이템을 유통시키는 저작 도구 유통부; 상기 저작 도구 유통부로부터의 컨텐츠 저작 도구 및 컨텐츠 구성 아이템을 이용하거나 기 제작된 컨텐츠를 더 이용하여 인터랙티브 컨텐츠를 생성하는 인터랙티브 컨텐츠 제작부; 및 상기 인터랙티브 컨텐츠 제작부에서 생성된 인터랙티브 컨텐츠를 단말로 유통시키거나 타 인터랙티브 컨텐츠 제작부로 더 유통시키는 인터랙티브 컨텐츠 유통부를 포함하되, 상기 인터랙티브 컨텐츠는, 스크립트, 객체 데이터, 장면 데이터를 포함한다.
    전자책, e-book, 음성인식, 음성합성, 인터랙티브 동화, 아동, 유아

    음성 대화 인터페이스 장치 및 그 방법
    77.
    发明公开
    음성 대화 인터페이스 장치 및 그 방법 无效
    用于语音对话界面的装置和方法

    公开(公告)号:KR1020130068610A

    公开(公告)日:2013-06-26

    申请号:KR1020110135903

    申请日:2011-12-15

    CPC classification number: G10L15/22 G06F3/167 G10L15/183

    Abstract: PURPOSE: A voice conversation interface device and a method thereof are provided to promote conversation between a human and a machine by establishing a language model suitable for each user through pre-analysis of personal data of a user and generating a conversation topic based on the analysis result. CONSTITUTION: A data unit(210) includes digital media data corresponding to a user. An analysis unit(220) analyzes the digital media data and generates each user profile based on the analysis result. A model establishment unit(230) establishes a language model based on the generated user profile. An interface unit(240) supplies one of the digital media data to the user and performs a voice conversation interface between the user and the machine based on the language model corresponding to the provided data. [Reference numerals] (210) Data unit; (220) Analysis unit; (230) Model establishment unit; (240) Interface unit

    Abstract translation: 目的:提供语音通话接口设备及其方法,以通过基于用户的个人数据的预分析建立适合于每个用户的语言模型来促进人与机器之间的对话,并基于分析生成对话话题 结果。 构成:数据单元(210)包括对应于用户的数字媒体数据。 分析单元(220)基于分析结果分析数字媒体数据并生成每个用户简档。 模型建立单元(230)基于生成的用户简档建立语言模型。 接口单元(240)将数字媒体数据中的一个提供给用户,并且基于与所提供的数据相对应的语言模型在用户和机器之间执行语音通话接口。 (附图标记)(210)数据单元; (220)分析单位; (230)建模单位; (240)接口单元

    음향 모델 훈련 장치 및 그 방법
    78.
    发明公开
    음향 모델 훈련 장치 및 그 방법 无效
    用于声学模型训练的装置和方法

    公开(公告)号:KR1020130068569A

    公开(公告)日:2013-06-26

    申请号:KR1020110135846

    申请日:2011-12-15

    CPC classification number: G10L15/144 G10L15/063 G10L15/187

    Abstract: PURPOSE: Acoustic model training device and a method thereof are provided to accurately perform phoneme combination by using former and latter context information and location information of a corresponding phoneme when phoneme combination for training an acoustic model. CONSTITUTION: A modeling unit(100) configures an acoustic model on a phoneme based on a hidden Markov model(HMM). An inquiry execution unit performs inquiry using context information and location information of the phoneme. A tree configuration unit(120) configures a tree according to each state of the inquiry performance. A state combination unit(130) combines a state of phonemes corresponding to the final node of the tree. An acoustic model training unit(140) trains the acoustic model based on the state combination. [Reference numerals] (120) Tree configuration unit; (130) State combination unit; (140) Acoustic model training unit; (AA) Modeling unit; (BB) Inquiry processing unit

    Abstract translation: 目的:提供声学模型训练装置及其方法,以便在用于训练声学模型的音素组合时,通过使用前一个和后一个上下文信息和相应音素的位置信息来准确地执行音素组合。 构成:建模单元(100)基于隐马尔可夫模型(HMM)配置音素上的声学模型。 查询执行单元使用上下文信息和音素的位置信息进行查询。 树配置单元(120)根据查询性能的每个状态配置树。 状态组合单元(130)组合对应于树的最终节点的音素的状态。 声学模型训练单元(140)基于状态组合训练声学模型。 (附图标记)(120)树构成单元; (130)国有组合单位; (140)声学模型训练单位; (AA)建模单元; (BB)查询处理单位

    음성인식서버 및 음성인식방법
    79.
    发明公开
    음성인식서버 및 음성인식방법 无效
    语音识别服务器和语音识别方法

    公开(公告)号:KR1020130067848A

    公开(公告)日:2013-06-25

    申请号:KR1020110134837

    申请日:2011-12-14

    CPC classification number: G10L15/30 G10L15/14

    Abstract: PURPOSE: A voice recognition server and a method thereof are provided to apply terminal information of a user terminal and voice information of a user and perform voice recognition through a relevant sound model, thereby providing a voice recognition result of a state where a channel environment of the user terminal is matched to a training environment of the sound model. CONSTITUTION: A sound model storage part(220) stores multiple sound models. A sound model extraction part(260) extracts a relevant sound model among the stored multiple sound models based on the gender of a user of a user terminal determined by a user gender determination part(240) and terminal information verified by a terminal information verifying part(250). A decoding part(270) applies the extracted sound model and recognizes the voice of the user. [Reference numerals] (210) Control part; (220) Sound model storage part; (230) Communication part; (240) User gender determination part; (250) Terminal information verifying part; (260) Sound model extraction part; (270) Decoding part; (AA) Terminal/gender sound model 1; (BB) Terminal/gender sound model 2; (CC) Terminal/gender sound model N

    Abstract translation: 目的:提供语音识别服务器及其方法来应用用户终端的信息和用户的语音信息,并通过相关的声音模型进行语音识别,从而提供语音识别服务器的通道环境的语音识别结果 用户终端与声音模型的训练环境相匹配。 构成:声音模型存储部分(220)存储多个声音模型。 声音模型提取部分(260)基于由用户性别确定部分(240)确定的用户终端的用户的性别和由终端信息验证部件(240)验证的终端信息,提取所存储的多个声音模型中的相关声音模型 (250)。 解码部分(270)应用所提取的声音模型并识别用户的声音。 (附图标记)(210)控制部; (220)声音储存部分; (230)通讯部分; (240)用户性别确定部分; (250)终端信息验证部分; (260)声音模型提取部分; (270)解码部分; (AA)终端/性别声音模型1; (BB)终端/性别声音模型2; (CC)终端/性别声音模型N

Patent Agency Ranking