통계 기반의 다중 발음 사전 생성 장치 및 방법
    1.
    发明授权
    통계 기반의 다중 발음 사전 생성 장치 및 방법 有权
    基于统计量生成多个发音词典的装置和方法

    公开(公告)号:KR101333194B1

    公开(公告)日:2013-11-26

    申请号:KR1020110072394

    申请日:2011-07-21

    Abstract: 본 발명에 따른 통계 기반의 다중 발음 사전 생성 장치는, 발화 및 녹음된 음성 신호 파일들과 각각의 음성 신호 파일에 해당하는 단어 수준의 전사문 및 각각의 음성 신호 파일에 해당하는 화자 정보를 포함하는 데이터베이스; 상기 음성 신호 파일, 상기 단어 수준의 전사문, 및 각 단어 별로 복수 개의 발음열을 포함하는 다중 발음 사전으로부터 음성 인식기의 정렬 기능을 이용하여 상기 음성 신호 파일에 포함된 단어에 대하여 상기 다중 발음 사전에서 가장 가까운 발음열을 검출하는 음성-발음열 정렬부; 상기 가장 가까운 발음열의 검출을 상기 데이터베이스에 저장된 음성 신호 파일들과 단어 수준의 전사문에 적용하여 단어와 발음열의 쌍들을 추출하는 단어-발음열 쌍 추출부; 및 상기 추출된 단어와 발음열의 쌍들을 바탕으로 상기 다중 발음 사전의 각 단어 별 발음열들에 대한 통계 정보를 산출하여 저장하는 발음열 통계정보 추출부를 포함하는 것을 특징으로 한다.

    의미 표현 처리 장치 및 그 방법
    2.
    发明授权
    의미 표현 처리 장치 및 그 방법 失效
    意义表达处理装置及其方法

    公开(公告)号:KR101134467B1

    公开(公告)日:2012-04-13

    申请号:KR1020090068268

    申请日:2009-07-27

    Abstract: 본 발명은 자동 통역 시스템에 적용되는 의미 표현 처리 기법에 관한 것으로, 입력되는 음성에 대응하는 음성 인식 결과의 단어열을 의미 표현으로 변환하고, 변환된 의미 표현을 기 구축된 의미 표현 집합 데이터베이스를 참조하여 검색하며, 검색 결과에 따라 최종 의미 표현을 결정하고, 결정된 최종 의미 표현을 최종 문장으로 생성 및 출력함으로써, 사용자 의도가 반영된 의미 표현을 결정하여 자동 통역 시스템의 성능을 향상시킬 수 있는 것이다.
    자동 통역 시스템, 음성 인식, 의미 표현

    입술움직임 영상 판별 방법 및 그 장치
    3.
    发明公开
    입술움직임 영상 판별 방법 및 그 장치 失效
    用于识别LIP运动图像的方法和装置

    公开(公告)号:KR1020090065866A

    公开(公告)日:2009-06-23

    申请号:KR1020070133391

    申请日:2007-12-18

    CPC classification number: G06K9/00335 G06K9/00288

    Abstract: A method and a device for discriminating a lip motion image are provided to enable labeling on the online network and realize SVM(Support Vector Machine) pattern classification. Face motion image frames received from an imaging unit are analyzed. Final candidates estimated as a lip motion image are extracted(S10). The lip motion image is determined by classifying the final candidates on a coordinate plane based on a discrimination feature of the lip motion image(S20). The final candidates positioned in a critical region of a classification standard among the classified final candidates are determined as the lip motion image based on a region separation line(S80).

    Abstract translation: 提供了一种用于识别唇部运动图像的方法和装置,以使得能够在在线网络上进行标注,并实现支持向量机(Support Vector Machine,支持向量机)模式分类。 分析从成像单元接收的脸部运动图像帧。 提取作为唇部运动图像估计的最终候选(S10)。 通过基于唇部运动图像的识别特征,在坐标平面上分类最终候选来确定唇部运动图像(S20)。 在分类最终候选者中位于分类标准的关键区域的最终候选者被确定为基于区域分离线的唇部运动图像(S80)。

    내비게이션용 POI의 이형태 생성방법 및 그 시스템
    4.
    发明公开
    내비게이션용 POI의 이형태 생성방법 및 그 시스템 失效
    用于导航的POI的创建方法及其系统

    公开(公告)号:KR1020090038188A

    公开(公告)日:2009-04-20

    申请号:KR1020070103555

    申请日:2007-10-15

    CPC classification number: G06Q50/30 G01C21/005 G10L15/02 G10L2015/027

    Abstract: A method for generating POI allomorphs for the navigation and a system thereof are provided to produce a plurality of allomorphs to use the location information providing service through not only the normal expression but also the allomorphs. A normal expression DB(10) stores the normal expression of a POI for the navigation. An allomorph DB(20) stores allomorphs, derived in a different type, in the same general expression as meaning of the normal expression. A preprocessing module(30) selects a predetermined syllable in which the damage of the kernel meaning or error possibility exists in the normal expression, and then pre-processes the corresponding syllable into an unchangeable syllable. An allomorph creation module(40) applies a predetermined creation rule based on a predetermined type classified according to the allomorph creation principle, in order to generate a plurality of allomorphs from the normal expression.

    Abstract translation: 提供用于产生用于导航的POI变体的方法及其系统,以产生多个同位素,以通过不仅正常表达而且使用同位素,来使用位置信息提供服务。 正常表达式DB(10)存储用于导航的POI的正常表达式。 同型异构体DB(20)存储以与正常表达的含义相同的一般表达式以不同类型导出的变异体。 预处理模块(30)选择在正常表达式中存在内核意义或错误可能性的损害的预定音节,然后将相应音节预处理成不可改变的音节。 变形创建模块(40)基于根据变形创建原理分类的预定类型应用预定的创建规则,以便从正常表达生成多个变形。

    음소 인식 기반의 탐색공간 제한을 이용한 연속음성인식장치 및 방법
    5.
    发明公开
    음소 인식 기반의 탐색공간 제한을 이용한 연속음성인식장치 및 방법 有权
    基于电话识别的搜索网络限制识别连续语音的方法和设备

    公开(公告)号:KR1020080052268A

    公开(公告)日:2008-06-11

    申请号:KR1020070070733

    申请日:2007-07-13

    Abstract: A continuous voice recognition apparatus using the limit of a search space on the basis of phoneme recognition and a method therefor are provided to improve a voice recognition speed and performance by performing the phoneme recognition in a primary voice recognition stage, limiting a connection word to be transmitted in a boundary part of a word on the basis of the phoneme recognition result in a secondary voice recognition stage, reducing the search space, and performing voice recognition. A voice feature extracting unit(110) extracts a feature vector from an inputted voice signal. A phoneme recognition unit(120) recognizes a phoneme on the basis of the feature vector of the voice signal. A phoneme-based voice recognition unit(150) configures a connection word search network in which a search space is limited on the basis of the phoneme recognized result, and performs voice recognition on the basis of the connection word search network.

    Abstract translation: 提供一种使用基于音素识别的搜索空间限制的连续语音识别装置及其方法,以通过在主要语音识别级中执行音素识别来改善语音识别速度和性能,从而将连接词限制为 基于二次语音识别阶段中的音素识别结果,在单词的边界部分中发送,减少搜索空间,并执行语音识别。 语音特征提取单元(110)从输入的语音信号中提取特征向量。 音素识别单元(120)基于语音信号的特征向量来识别音素。 基于音素的语音识别单元(150)根据音素识别结果配置其中搜索空间被限制的连接词搜索网络,并且基于连接词搜索网络执行语音识别。

    대화체 및 낭독체 대어휘 연속음성인식시스템의 고빈도어휘열 인식단위 생성장치 및 그 방법
    6.
    发明公开
    대화체 및 낭독체 대어휘 연속음성인식시스템의 고빈도어휘열 인식단위 생성장치 및 그 방법 有权
    用于在对话中生成高频率字符识别单元并阅读大量语音识别系统及其方法的装置

    公开(公告)号:KR1020060067113A

    公开(公告)日:2006-06-19

    申请号:KR1020050041497

    申请日:2005-05-18

    Inventor: 강병옥 박준

    Abstract: 본 발명은 고빈도 의사형태소열을 하나의 인식단위로 활용하여, 의사형태소와 어절의 중간형태의 인식단위를 생성하도록 하는 대화체 및 낭독체 대어휘 연속음성인식시스템의 고빈도 어휘열 인식단위 생성장치 및 그 방법에 관한 것이다. 이와 같은 본 발명은 의사형태소 태깅된 텍스트 코퍼스로부터 연속된 어휘쌍 빈도정보를 추출하는 빈도정보 추출부(301)와, 상기 빈도정보 추출부(301)에서 추출된 빈도정보와 상기 각 어휘쌍의 길이정보을 바탕으로 결합할 어휘셋을 선정하는 결합 어휘셋 선정부(302)와, 상기 결합 어휘셋 선정부(302)에서 선정된 어휘셋을 기반으로 상기 텍스트 코퍼스를 수정한 후, 고빈도 연속 어휘쌍을 하나로 결합하여 수정된 텍스트 코퍼스를 생성하는 의사형태소 결합 정보 수정부(303)와, 상기 의사형태소 결합 정보 수정부(303)에서 생성된 텍스트 코퍼스를 바탕으로 고빈도 어휘열 인식단위를 생성하는 인식단위 생성부(304)로 구성된다.
    대화체 및 낭독체 대어휘, 텍스트 코퍼스, 어휘사전, 언어모델, 발음사전

    원시언어를 대상언어로 번역하기 위한 번역엔진 장치 및 그 번역방법
    7.
    发明授权
    원시언어를 대상언어로 번역하기 위한 번역엔진 장치 및 그 번역방법 失效
    원시언어를대상언어로번역하기위한번역엔진장치및그번역방

    公开(公告)号:KR100463376B1

    公开(公告)日:2004-12-29

    申请号:KR1020020078215

    申请日:2002-12-10

    Abstract: PURPOSE: A translation engine device for translating a source language into an object language and a translation method therefor are provided to use a dialogue sentence in several domain environment and accurately translate the source language inputted by a user into the object language. CONSTITUTION: A mapping table(408) stores a cluster of an object language mapped with a cluster of a source language. A DTST(Direct Translation Sentence Table) direct translation unit(401) directly translates a sentence capable of direct translation in an inputted source language sentence. A pre-processing module(402) maintains a kernel language of the source language sentence through the morpheme analysis of the source language sentence, hides the other portions, and simplifies the structure of the sentence. A clustering unit(404) divides the source language sentence into clusters. A mapping unit(405) decides the cluster of the object language mapped to the cluster of the source language using the mapping table(408). A post-processing and generating unit(406) reallocates the order of the clusters of the object language, and recovers the object language as a completed sentence form.

    Abstract translation: 目的:提供一种翻译引擎装置,用于将源语言翻译成目标语言及其翻译方法,以使用多个领域环境中的对话语句并将用户输入的源语言准确地翻译成目标语言。 构成:映射表(408)存储与源语言的聚类映射的对象语言的聚类。 DTST(直接翻译句子表)直接翻译单元(401)直接翻译输入的源语言句子中能够直接翻译的句子。 预处理模块(402)通过源语言句子的词素分析来维护源语言句子的核心语言,隐藏其他部分,并且简化句子的结构。 聚类单元(404)将源语言句子分为聚类。 映射单元(405)使用映射表来决定映射到源语言的聚类的目标语言的聚类(408)。 后处理和生成单元(406)重新分配对象语言的聚类的顺序,并且将对象语言恢复为完整的句子形式。

    단어레벨의 통계적 방법을 이용한 번역문 생성 방법 및 그장치
    8.
    发明公开
    단어레벨의 통계적 방법을 이용한 번역문 생성 방법 및 그장치 失效
    使用统计学方法产生翻译语音的方法和设备

    公开(公告)号:KR1020040051351A

    公开(公告)日:2004-06-18

    申请号:KR1020020079265

    申请日:2002-12-12

    Inventor: 최미란 박준

    Abstract: PURPOSE: A method and a device for generating a translated sentence using a statistical method of a word level are provided to generate the translated sentence of a high quality in a high speed by forming/using an order information database extracted from a large target language corpus through the statistical method. CONSTITUTION: A training module(110) statistically stores the order information from the target language corpus. A morpheme analyzer(121) analyzes a morpheme by receiving a original language sentence. A parameterizer(123) parameterizes the words corresponding to the first speech part forming the original language sentence divided into each morpheme and forms the sentence tagged by the morpheme after hiding the words corresponding to the second speech part. A word arranger(125) replaces each morpheme with the target language word from a translation dictionary database(130) by receiving the tagged sentence. A recovery part(127) recovers/inserts the original word of the parameterized speech part into the replaced target language and recovers the hidden words. A post-processor(129) outputs the original language sentence and the translated sentence based on the generation information after removing a tag.

    Abstract translation: 目的:提供一种使用字级统计方法生成翻译句子的方法和装置,通过形成/使用从大目标语言语料库提取的订单信息数据库,高速生成高质量的翻译句子 通过统计方法。 规定:训练模块(110)统计存储来自目标语言语料库的订单信息。 语素分析器(121)通过接收原始语句来分析语素。 参数化器(123)参数化对应于形成分成每个语素的原始语句的第一语音部分的单词,并在隐藏与第二语音部分对应的单词之后形成由语素标记的句子。 字编排器(125)通过接收标记的句子从翻译字典数据库(130)中用目标语言词替换每个语素。 恢复部分(127)将参数化语音部分的原始单词恢复/插入到替换的目标语言中并恢复隐藏的单词。 后处理器(129)在删除标签之后基于生成信息输出原始语句和翻译句子。

    아바타 기반 음성 언어 번역 시스템에서의 화상 통신 방법
    9.
    发明授权
    아바타 기반 음성 언어 번역 시스템에서의 화상 통신 방법 失效
    아바타기반음성언어번역시스템에서의화상통신방

    公开(公告)号:KR100395491B1

    公开(公告)日:2003-08-25

    申请号:KR1019990033601

    申请日:1999-08-16

    Inventor: 박준 양재우

    Abstract: PURPOSE: A method for video communication of an avatar based TTS system is provided to synchronize the shape of lips of an avatar with a synchronized voice in order to control the look and movement of the avatar in response to the contents of speech, and thereby perform the video communication . CONSTITUTION: An avatar model producer determines whether it performs an operation for making an online photograph or selects an existing avatar model(301). The online photograph is made(302), and a reference point of the avatar model is illustrated(303) if the online photograph is needed. If the existing avatar model is selected, the data of the selected avatar model is transmitted to an avatar server(305). A voice recognition module recognizes the voice inputted from an outside and thereby generates a character string, and transmits it to a language translation module(306). The language translation module translates the generated character string and transmits it to a voice synthesizing module(307). The voice synthesizing module extracts the information related to the movement from the translated character string.

    Abstract translation: 目的:提供一种基于化身的TTS系统的视频通信方法,以使化身的嘴唇的形状与同步化的语音同步,以便响应于语音内容来控制化身的外观和运动,从而执行 视频通信。 构成:化身模型制作者确定其是否执行用于制作在线照片或选择现有化身模型的操作(301)。 在线照片被制作(302),并且如果需要在线照片,则示出化身模型的参考点(303)。 如果选择了现有的化身模型,则选择的化身模型的数据被发送到化身服务器(305)。 语音识别模块识别从外部输入的语音,从而生成字符串,并将其发送到语言翻译模块(306)。 语言翻译模块翻译生成的字符串并将其发送到语音合成模块(307)。 语音合成模块从翻译后的字符串中提取与移动有关的信息。

    응시지점을 따라가는 입체 영상 표시 장치 및 그 방법
    10.
    发明公开
    응시지점을 따라가는 입체 영상 표시 장치 및 그 방법 失效
    立体图像显示装置和立体图像显示方法跟踪大点

    公开(公告)号:KR1020020053986A

    公开(公告)日:2002-07-06

    申请号:KR1020000082270

    申请日:2000-12-26

    Inventor: 박준

    CPC classification number: G03B35/08 G06F3/013 H04N13/279 H04N13/296

    Abstract: PURPOSE: A stereo image display apparatus and method is provided to prevent eye fatigue by permitting the user to gaze the desired point and change the gaze point in a free manner. CONSTITUTION: A stereo image display apparatus comprises a three-dimensional model storage unit(11) for creating and storing a three-dimensional model for an object to be displayed in a virtual reality space; a head and eye movement detection unit(16) for detecting the position of head(face) of a user and extracting images of eyes of the user; a gaze direction and distance measurement unit(12) for extracting information for the current gaze point of the user, from the position of head and images of eyes output from the head and eye movement detection unit; an image creating unit(13) for generating the stereo image corresponding to the current gaze point extracted from the gaze direction and distance measurement unit, on the basis of the three-dimensional model of the object stored in the three-dimensional model storage unit; and display units(14,15) for displaying left and right side images created by the image creating unit.

    Abstract translation: 目的:提供立体图像显示装置和方法,以通过允许用户凝视所需点并以自由的方式改变凝视点来防止眼睛疲劳。 构成:立体图像显示装置包括三维模型存储单元(11),用于创建和存储要在虚拟现实空间中显示的对象的三维模型; 用于检测用户的头部(面部)的位置并提取用户的眼睛的图像的头部和眼睛移动检测单元(16) 注视方向和距离测量单元(12),用于从头部和眼睛移动检测单元输出的头部位置和图像的位置提取用户当前凝视点的信息; 基于存储在三维模型存储单元中的对象的三维模型,生成与从视线方向提取的当前目​​视点相对应的立体图像和距离测量单元的图像创建单元; 以及用于显示由图像创建单元创建的左侧和右侧图像的显示单元(14,15)。

Patent Agency Ranking