음성 인식 단문 메시지 서비스 기반의 사용자 맞춤 광고 장치, 및 음성 인식 단문 메시지 서비스 기반의 사용자 맞춤 광고 노출 방법

    公开(公告)号:KR101850026B1

    公开(公告)日:2018-04-24

    申请号:KR1020110115412

    申请日:2011-11-07

    CPC classification number: G06Q30/02 G10L15/26 G10L15/265 G10L25/63

    Abstract: 본발명은서버-클라이언트기반의음성인식단문메시지변환서비스에서사용자가발성한음성을문자메시지로변환하는과정에서추출한사용자의도정보와위치정보에기반한사용자맞춤광고를생성하고제공하는방법및 그를실현하기위한장치에관한것이다. 이러한본 발명에따른음성인식단문메시지서비스기반의사용자맞춤광고장치는, 입력된음성데이터를문자열로변환하는음성인식부; 입력된음성데이터를분석하여사용자의감정상태를인식하는감정인식부; 사용자의위치정보를입력받는위치인식부; 상기음성인식부로부터입력된문자열을분석하여문맥의도를파악하는문맥분석부; 상기감정인식부로부터의사용자의감정상태와상기위치인식부로부터의사용자의위치정보와상기문맥분석부로부터의문맥의도를이용하여사용자의의도를파악하는의도파악부; 및상기의도파악부로부터의사용자의의도에기반한최적의광고를광고데이터베이스내에서추출하여상기음성인식부로부터의문자열과함께사용자의단말기로전송하는광고선택부; 에의해달성된다.

    복수의 마이크로폰을 이용한 비동기 음성인식 장치 및 방법
    3.
    发明公开
    복수의 마이크로폰을 이용한 비동기 음성인식 장치 및 방법 审中-实审
    使用多个麦克风进行异常语音识别的装置和方法

    公开(公告)号:KR1020140135349A

    公开(公告)日:2014-11-26

    申请号:KR1020130055421

    申请日:2013-05-16

    CPC classification number: G10L15/20 G10L15/01 G10L15/08 H04R3/005

    Abstract: 배경의 잡음이 다양하게 변하는 원거리 음성인식 환경에서 여러 개의 마이크로폰을 분산시켜 사용자 음성에 반응하는 마이크로폰들을 선택하여 음성인식 성능을 개선하도록 하는 복수의 마이크로폰을 이용한 비동기 음성인식 장치 및 방법을 제시한다. 제시된 장치는 사용자의 주변에 분산된 복수의 마이크로폰중에서 사용자의 음성에 반응하는 두 개 이상의 마이크로폰을 선택하는 마이크로폰 선택부, 선택된 두 개 이상의 마이크로폰의 입력의 신호대 잡음비를 측정하는 신호대 잡음비 측정부, 선택된 두 개 이상의 마이크로폰중에서 신호대 잡음비가 가장 큰 마이크로폰의 입력으로 음성 인식을 수행하고, 나머지 마이크로폰의 입력으로 음성 인식에 대한 검증을 수행하는 음성 인식 및 검증부, 및 음성 인식 및 검증부의 결과를 근거로 사용자의 음성에 대한 최종 인식결과를 출력하는 최종 인식결과 출력부를 포함한다.

    Abstract translation: 本发明提供了一种使用多个麦克风进行异步语音识别的装置和方法,其通过分布多个麦克风并且响应于用户的语音来选择麦克风来提高语音识别性能,该远程语音识别环境中的背景噪声在各种 方法。 本发明提供的装置包括:麦克风选择部,其选择响应用户周围的多个麦克风响应于用户的语音的两个或更多麦克风; 信噪比测量部分,其测量所选择的两个或更多麦克风的输入的信噪比; 语音识别和验证部分,通过使用所选择的两个或多个麦克风中具有最大信噪比的麦克风的输入来执行语音识别,并且通过使用其余麦克风的输入来验证语音识别; 以及最终识别结果输出部分,其基于语音识别和验证部分的结果输出用户的语音的最终识别结果。

    음성인식 시스템에서 유사도를 기반으로 한 비인식 대상 단어 생성 방법
    4.
    发明公开
    음성인식 시스템에서 유사도를 기반으로 한 비인식 대상 단어 생성 방법 有权
    基于语音识别系统中的类似性产生非齐次性的方法

    公开(公告)号:KR1020140077788A

    公开(公告)日:2014-06-24

    申请号:KR1020120146925

    申请日:2012-12-14

    Abstract: The present invention relates to a method for generating an out-of-vocabulary (OOV) based on a similarity in a voice recognition system. The method for generating an OOV according to the present invention includes the steps of: generating a dictionary of a vocabulary to be recognized which has a phoneme string by each vocabulary when voice test data is prepared; selecting an OOV from the voice test data, comparing the phoneme strings of the OOV and at least one vocabulary to be recognized which is stored in the dictionary of a vocabulary to be recognized, and calculating a similarity; classifying, into a first group, the vocabulary to be recognized which has a similarity included in a first range in at least one vocabulary to be recognized, adding the vocabulary to be recognized in a dictionary of the OOV, and revising a grammar; and classifying, into a second group, the vocabulary to be recognized which has a similarity included in a second range in at least one vocabulary to be recognized, and adding the vocabulary to be recognized in the dictionary of the OOV.

    Abstract translation: 本发明涉及一种基于语音识别系统中的相似度来生成超出词汇(OOV)的方法。 根据本发明的用于生成OOV的方法包括以下步骤:当准备语音测试数据时,生成要被识别的词汇的词典,其具有每个词汇表具有音素串; 从所述语音测试数据中选择OOV,比较所述OOV的音素字符串和要被识别的至少一个要被识别的词汇表的词汇,并且计算相似度; 将要被识别的具有相似性的词汇分类为包含在要识别的至少一个词汇表中的第一范围内的词汇,将要识别的词汇添加到OOV的词典中,并修改语法; 并且将要被识别的词汇表分类为包含在要识别的至少一个词汇表中的第二范围中的相似性的词汇,并将要识别的词汇添加到OOV的词典中。

    음성 인식 방법 및 이를 위한 시스템
    5.
    发明授权
    음성 인식 방법 및 이를 위한 시스템 有权
    识别语音和系统的方法

    公开(公告)号:KR101330328B1

    公开(公告)日:2013-11-15

    申请号:KR1020100127898

    申请日:2010-12-14

    Abstract: 개인 맞춤형 자연어 연속어 음성 인식 방법 및 이를 위한 시스템이 개시된다. 음성 인식 방법은, 단말로부터 사용자 정보 및 사용자 발화를 수신하는 단계와, 상기 수신된 사용자 정보에 기초하여 상기 사용자가 등록된 사용자인지 여부를 판단하는 단계와, 상기 사용자가 등록된 사용자인 것으로 판단되면, 상기 등록된 사용자의 정보를 포함하는 개인 맞춤형 모델을 기초로 상기 사용자 발화를 인식하여 음성 인식 결과를 생성하는 단계 및 상기 생성된 음성 인식 결과를 상기 단말로 전송하는 단계를 포함한다. 따라서, 현재 웹 서비스 중에 휴대 단말 환경 기반 음성 검색 서비스의 성능을 최대한 높이기 위해 개인 맞춤형 서비스를 제공할 수 있다.

    엔베스트 인식 단어 계산량 감소를 위한 2단계 발화검증 구조를 갖는 음성인식 장치 및 방법
    6.
    发明授权
    엔베스트 인식 단어 계산량 감소를 위한 2단계 발화검증 구조를 갖는 음성인식 장치 및 방법 有权
    使用两相语音验证架构的装置和方法,用于计算N最佳识别字的速度改进

    公开(公告)号:KR101317339B1

    公开(公告)日:2013-10-11

    申请号:KR1020100033376

    申请日:2010-04-12

    Abstract: 본 발명은 엔베스트(N-best) 인식 단어 계산량 감소를 위한 2단계 발화검증 구조 및 방법에 관한 것으로, 메모리, CPU 성능 등 리소스 제한을 받는 임베디드 시스템에 발화검증 기능을 갖는 음성인식 시스템을 위한 것이다.
    발화검증은 사용자가 음성으로 발성한 음성 입력에 대해 음성인식을 수행한 후, 인식된 결과에 대한 신뢰도를 계산하여 인식 결과를 수락 또는 거절을 결정하는 것이다. 이를 위해 임베디드용 발화검증은 성능 요구사항뿐만 아니라, 빠른 응답시간을 제공해 주어야 하므로, 새로운 구조와 계산량 감소를 위한 기법을 사용해야 한다. 따라서, 본 발명에서는 임베디드 음성인식 시스템에서 엔베스트 인식결과가 출력될 때 계산량 감소를 위한 2단계 발화검증 구조 및 방법을 제안하고자 한다.

    전자책 시스템에서 인터랙티브 컨텐츠 제공 장치 및 방법
    7.
    发明授权
    전자책 시스템에서 인터랙티브 컨텐츠 제공 장치 및 방법 有权
    在电子书籍系统中提供互动内容的系统和方法

    公开(公告)号:KR101294024B1

    公开(公告)日:2013-08-08

    申请号:KR1020090127336

    申请日:2009-12-18

    Abstract: 본 발명은 전자책 시스템을 위한 인터랙티브 컨텐츠를 제작, 유통, 활용하는 장치 및 방법에 관한 것이다.
    본 발명은, 컨텐츠 제공 장치에 있어서, 컨텐츠 저작 도구 및 컨텐츠 구성 아이템을 유통시키는 저작 도구 유통부; 상기 저작 도구 유통부로부터의 컨텐츠 저작 도구 및 컨텐츠 구성 아이템을 이용하거나 기 제작된 컨텐츠를 더 이용하여 인터랙티브 컨텐츠를 생성하는 인터랙티브 컨텐츠 제작부; 및 상기 인터랙티브 컨텐츠 제작부에서 생성된 인터랙티브 컨텐츠를 단말로 유통시키거나 타 인터랙티브 컨텐츠 제작부로 더 유통시키는 인터랙티브 컨텐츠 유통부를 포함하되, 상기 인터랙티브 컨텐츠는, 스크립트, 객체 데이터, 장면 데이터를 포함한다.
    전자책, e-book, 음성인식, 음성합성, 인터랙티브 동화, 아동, 유아

    음성 대화 인터페이스 장치 및 그 방법
    8.
    发明公开
    음성 대화 인터페이스 장치 및 그 방법 无效
    用于语音对话界面的装置和方法

    公开(公告)号:KR1020130068610A

    公开(公告)日:2013-06-26

    申请号:KR1020110135903

    申请日:2011-12-15

    CPC classification number: G10L15/22 G06F3/167 G10L15/183

    Abstract: PURPOSE: A voice conversation interface device and a method thereof are provided to promote conversation between a human and a machine by establishing a language model suitable for each user through pre-analysis of personal data of a user and generating a conversation topic based on the analysis result. CONSTITUTION: A data unit(210) includes digital media data corresponding to a user. An analysis unit(220) analyzes the digital media data and generates each user profile based on the analysis result. A model establishment unit(230) establishes a language model based on the generated user profile. An interface unit(240) supplies one of the digital media data to the user and performs a voice conversation interface between the user and the machine based on the language model corresponding to the provided data. [Reference numerals] (210) Data unit; (220) Analysis unit; (230) Model establishment unit; (240) Interface unit

    Abstract translation: 目的:提供语音通话接口设备及其方法,以通过基于用户的个人数据的预分析建立适合于每个用户的语言模型来促进人与机器之间的对话,并基于分析生成对话话题 结果。 构成:数据单元(210)包括对应于用户的数字媒体数据。 分析单元(220)基于分析结果分析数字媒体数据并生成每个用户简档。 模型建立单元(230)基于生成的用户简档建立语言模型。 接口单元(240)将数字媒体数据中的一个提供给用户,并且基于与所提供的数据相对应的语言模型在用户和机器之间执行语音通话接口。 (附图标记)(210)数据单元; (220)分析单位; (230)建模单位; (240)接口单元

    음향 모델 훈련 장치 및 그 방법
    9.
    发明公开
    음향 모델 훈련 장치 및 그 방법 无效
    用于声学模型训练的装置和方法

    公开(公告)号:KR1020130068569A

    公开(公告)日:2013-06-26

    申请号:KR1020110135846

    申请日:2011-12-15

    CPC classification number: G10L15/144 G10L15/063 G10L15/187

    Abstract: PURPOSE: Acoustic model training device and a method thereof are provided to accurately perform phoneme combination by using former and latter context information and location information of a corresponding phoneme when phoneme combination for training an acoustic model. CONSTITUTION: A modeling unit(100) configures an acoustic model on a phoneme based on a hidden Markov model(HMM). An inquiry execution unit performs inquiry using context information and location information of the phoneme. A tree configuration unit(120) configures a tree according to each state of the inquiry performance. A state combination unit(130) combines a state of phonemes corresponding to the final node of the tree. An acoustic model training unit(140) trains the acoustic model based on the state combination. [Reference numerals] (120) Tree configuration unit; (130) State combination unit; (140) Acoustic model training unit; (AA) Modeling unit; (BB) Inquiry processing unit

    Abstract translation: 目的:提供声学模型训练装置及其方法,以便在用于训练声学模型的音素组合时,通过使用前一个和后一个上下文信息和相应音素的位置信息来准确地执行音素组合。 构成:建模单元(100)基于隐马尔可夫模型(HMM)配置音素上的声学模型。 查询执行单元使用上下文信息和音素的位置信息进行查询。 树配置单元(120)根据查询性能的每个状态配置树。 状态组合单元(130)组合对应于树的最终节点的音素的状态。 声学模型训练单元(140)基于状态组合训练声学模型。 (附图标记)(120)树构成单元; (130)国有组合单位; (140)声学模型训练单位; (AA)建模单元; (BB)查询处理单位

    음성인식서버 및 음성인식방법
    10.
    发明公开
    음성인식서버 및 음성인식방법 无效
    语音识别服务器和语音识别方法

    公开(公告)号:KR1020130067848A

    公开(公告)日:2013-06-25

    申请号:KR1020110134837

    申请日:2011-12-14

    CPC classification number: G10L15/30 G10L15/14

    Abstract: PURPOSE: A voice recognition server and a method thereof are provided to apply terminal information of a user terminal and voice information of a user and perform voice recognition through a relevant sound model, thereby providing a voice recognition result of a state where a channel environment of the user terminal is matched to a training environment of the sound model. CONSTITUTION: A sound model storage part(220) stores multiple sound models. A sound model extraction part(260) extracts a relevant sound model among the stored multiple sound models based on the gender of a user of a user terminal determined by a user gender determination part(240) and terminal information verified by a terminal information verifying part(250). A decoding part(270) applies the extracted sound model and recognizes the voice of the user. [Reference numerals] (210) Control part; (220) Sound model storage part; (230) Communication part; (240) User gender determination part; (250) Terminal information verifying part; (260) Sound model extraction part; (270) Decoding part; (AA) Terminal/gender sound model 1; (BB) Terminal/gender sound model 2; (CC) Terminal/gender sound model N

    Abstract translation: 目的:提供语音识别服务器及其方法来应用用户终端的信息和用户的语音信息,并通过相关的声音模型进行语音识别,从而提供语音识别服务器的通道环境的语音识别结果 用户终端与声音模型的训练环境相匹配。 构成:声音模型存储部分(220)存储多个声音模型。 声音模型提取部分(260)基于由用户性别确定部分(240)确定的用户终端的用户的性别和由终端信息验证部件(240)验证的终端信息,提取所存储的多个声音模型中的相关声音模型 (250)。 解码部分(270)应用所提取的声音模型并识别用户的声音。 (附图标记)(210)控制部; (220)声音储存部分; (230)通讯部分; (240)用户性别确定部分; (250)终端信息验证部分; (260)声音模型提取部分; (270)解码部分; (AA)终端/性别声音模型1; (BB)终端/性别声音模型2; (CC)终端/性别声音模型N

Patent Agency Ranking