음성 인식을 이용한 자동 번역 방법 및 장치
    91.
    发明授权
    음성 인식을 이용한 자동 번역 방법 및 장치 有权
    使用语音识别的自动翻译方法和装置

    公开(公告)号:KR100890404B1

    公开(公告)日:2009-03-26

    申请号:KR1020070070333

    申请日:2007-07-13

    Abstract: 외부로부터 입력되는 제1국어 음성을 음향학적 특징 및 미리 결정된 음향 모델에 따라서 분석하여 확률 높은 단어열들을 추론하는 음향 모델 분석부, 음향 모델 분석부에 추론된 단어열들이 연속적으로 나타날 수 있는 확률을 미리 결정된 제1국어 언어 모델에 상응하여 분석하여 확률 높은 단어열들을 추론하는 제1국어 언어 모델 분석부, 제1국어 언어 모델 분석부에서 추론된 단어열들이 통계적으로 제2국어 단어열로 번역되는 확률을 미리 결정된 통계적 모델에 상응하여 분석하여 확률 높은 단어열들을 추론하는 통계적 모델 분석부, 통계적 모델 분석부에서 추론된 단어열들이 연속적으로 나타날 수 있는 확률을 미리 결정된 제2국어 언어 모델에 상응하여 분석하여 확률 높은 단어열들을 추론하는 제2국어 언어 모델 분석부 및 음향 모델 분석부, 제1국어 언어 모델 분석부, 통계적 모델 분석부 및 제2국어 언어 모델 분석부에서 추론된 단어열들의 확률을 통합하여 가장 확률 높은 단어열을 결정하는 최종 번역부를 포함하는 자동 번역 장치를 제공할 수 있다.
    자동, 번역, 음성 인식

    음소를 이용한 분산형 음성 인식 방법 및 장치
    92.
    发明公开
    음소를 이용한 분산형 음성 인식 방법 및 장치 无效
    使用声母符号分发语音识别的方法和装置

    公开(公告)号:KR1020090013876A

    公开(公告)日:2009-02-06

    申请号:KR1020070077980

    申请日:2007-08-03

    CPC classification number: G10L15/30 G10L2015/025

    Abstract: A method and an apparatus for recognizing a distributed speech by using a phoneme are provided to recognize a phoneme in a terminal and recognize a speech with regard to a phoneme recognition result, thereby realizing information search through speech recognition without realizing additional communication standards. When a natural language query is inputted to a terminal, a phoneme of the natural language query is recognized(401). The terminal sends the recognized phoneme signal to a speech recognition server(403). The speech recognition server performs the speech recognition by using the phoneme signal(405,407). The speech recognition server confirms a search identifier to be sent to the search sever(409). The speech recognition server sends a search query signal by using the confirmed search identifier(411). The search server sends a query response signal in response to the search query signal(413).

    Abstract translation: 提供一种用于通过使用音素来识别分布式语音的方法和装置,以识别终端中的音素并且相对于音素识别结果识别语音,从而通过语音识别实现信息搜索而不实现附加通信标准。 当对终端输入自然语言查询时,识别出自然语言查询的音素(401)。 终端将识别的音素信号发送到语音识别服务器(403)。 语音识别服务器通过使用音素信号来执行语音识别(405,407)。 语音识别服务器确认要发送到搜索服务器的搜索标识符(409)。 语音识别服务器通过使用确认的搜索标识符(411)发送搜索查询信号。 搜索服务器响应于搜索查询信号发送查询响应信号(413)。

    적응형 발성 화면 분석 방법 및 장치
    93.
    发明授权
    적응형 발성 화면 분석 방법 및 장치 失效
    用于自适应分析形式的方法和装置

    公开(公告)号:KR100835996B1

    公开(公告)日:2008-06-09

    申请号:KR1020060122649

    申请日:2006-12-05

    Abstract: A method and an apparatus for analyzing an adaptive speaking screen are provided to determine a speaking screen through screen analysis and update a reference feature value to a feature value and a reference edge feature value by the determined speaking screen, thereby analyzing the speaking screen adaptively according to environment. A method for analyzing an adaptive speaking screen comprises the following steps of: receiving the speaking screen of a speaker from the outside(501); selecting at least one moving region in the received speaking screen of the speaker(503); extracting the contrast ratio distributed value and feature value of the at least one moving region respectively(505); comparing the respectively extracted contrast ratio distributed value and feature value with a preset reference feature value to select at least one moving region having the contrast ratio distributed value and feature value corresponding to the preset reference feature value(507); determining a region, which exists in an upper part as much as a predetermined position in the at least one selected moving region, as a comparison target candidate region(509); selecting a speaking region matching a preset reference screen more than a threshold value out of comparison target candidate regions(511,515); extracting the feature value and contrast ratio of the speaking region(519); and updating the extracted feature value and contrast ratio to the preset reference feature value(521).

    Abstract translation: 提供了一种用于分析自适应语音屏幕的方法和装置,用于通过屏幕分析确定说话屏幕,并通过所确定的说话屏幕将参考特征值更新为特征值和参考边缘特征值,从而根据 到环境。 一种用于分析自适应语音屏幕的方法包括以下步骤:从外部接收扬声器的说话屏幕(501); 在所述扬声器的所接收的说话屏幕中选择至少一个移动区域(503); 提取所述至少一个移动区域的对比度分布值和特征值(505); 将分别提取的对比度分布值和特征值与预设参考特征值进行比较,以选择具有对应于预设参考特征值(507)的对比度分布值和特征值的至少一个移动区域; 确定存在于所述至少一个选择的移动区域中的预定位置的上部的区域作为比较目标候选区域(509); 从比较目标候选区域中选择与预设参考屏幕匹配超过阈值的说话区域(511,515); 提取发音区域的特征值和对比度(519); 以及将所提取的特征值和对比度更新为所述预设参考特征值(521)。

    대화체 및 낭독체 대어휘 연속음성인식시스템의 고빈도어휘열 인식단위 생성장치 및 그 방법
    94.
    发明授权
    대화체 및 낭독체 대어휘 연속음성인식시스템의 고빈도어휘열 인식단위 생성장치 및 그 방법 有权
    一种用于生成连续语音识别系统的高频词汇热识别单元的设备及其方法

    公开(公告)号:KR100614933B1

    公开(公告)日:2006-08-25

    申请号:KR1020050041497

    申请日:2005-05-18

    Inventor: 강병옥 박준

    Abstract: 본 발명은 고빈도 의사형태소열을 하나의 인식단위로 활용하여, 의사형태소와 어절의 중간형태의 인식단위를 생성하도록 하는 대화체 및 낭독체 대어휘 연속음성인식시스템의 고빈도 어휘열 인식단위 생성장치 및 그 방법에 관한 것이다. 이와 같은 본 발명은 의사형태소 태깅된 텍스트 코퍼스로부터 연속된 어휘쌍 빈도정보를 추출하는 빈도정보 추출부(301)와, 상기 빈도정보 추출부(301)에서 추출된 빈도정보와 상기 각 어휘쌍의 길이정보을 바탕으로 결합할 어휘셋을 선정하는 결합 어휘셋 선정부(302)와, 상기 결합 어휘셋 선정부(302)에서 선정된 어휘셋을 기반으로 상기 텍스트 코퍼스를 수정한 후, 고빈도 연속 어휘쌍을 하나로 결합하여 수정된 텍스트 코퍼스를 생성하는 의사형태소 결합 정보 수정부(303)와, 상기 의사형태소 결합 정보 수정부(303)에서 생성된 텍스트 코퍼스를 바탕으로 고빈도 어휘열 인식단위를 생성하는 인식단위 생성부(304)로 구성된다.
    대화체 및 낭독체 대어휘, 텍스트 코퍼스, 어휘사전, 언어모델, 발음사전

    Abstract translation: 本发明是一种高频伪梗打开一个作为识别单位,决定梗与会话和读取身体大词汇量连续语音识别系统的高频词汇热生成Eojeol识别单元生成单元的识别单元的中间形式 及其方法。 本发明提取用于提取从医生形态学标记文本语料库(301)连续的由频率信息提取部301提取出的词汇对频率的信息,和所述频率信息的长度及相应的词汇对的频率信息 组合词汇集选择单元302,用于基于由组合词汇集选择单元302选择的信息和词汇集来选择要组合的词汇集; 一个组合要以生成修改的文本语料库医生词素组合信息单元303和伪词素组合信息校正基于在303与高识别产生的文本语料库来生成的频率词汇热识别单元 单元生成单元304。

    신경망에 기반한 음성, 영상, 및 문맥의 통합 음성인식장치 및 방법
    95.
    发明授权
    신경망에 기반한 음성, 영상, 및 문맥의 통합 음성인식장치 및 방법 失效
    基于神经网络的音频,视觉和语境特征的语音识别方法与设备

    公开(公告)号:KR100576803B1

    公开(公告)日:2006-05-10

    申请号:KR1020030090418

    申请日:2003-12-11

    Abstract: 본 발명은 잡음환경에서 강인한 음성인식을 위해 신경망을 기반으로 음성과 영상정보를 효율적으로 융합하고, 이동단말기에서의 명령어 사용패턴인 문맥정보와 후처리 방법을 사용하여 음성, 영상 및 문맥에 대한 통합 인식을 수행함으로써 음성 인식률을 보다 향상시킬 수 있는 신경망에 기반한 음성인식 장치 및 방법에 관한 것이다.
    본 발명의 통합 음성인식 방법은, 입력되는 음성 및 영상 신호로부터 특징 벡터를 추출하는 특징 추출단계; 음성 및 영상 정보를 신경망을 기반으로 융합하여 사용자 음성을 인식하는 이중모드 신경망 인식 단계; 이동 단말기에서의 사용자 명령어 패턴을 인식하는 문맥정보 인식 단계; 및 이중모드 신경망 인식 결과와 문맥정보 인식 결과를 통합하여 최종 인식결과를 출력하는 후처리 단계;로 이루어진다.
    음성 인식, 이중모드 인식, 신경망 인식기, BMNN, 역전파 학습알고리즘, 문맥정보 인식

    응시지점을 따라가는 입체 영상 표시 장치 및 그 방법
    96.
    发明授权
    응시지점을 따라가는 입체 영상 표시 장치 및 그 방법 失效
    응시지점을따라가는입체영상표시장치및그방응

    公开(公告)号:KR100380994B1

    公开(公告)日:2003-04-26

    申请号:KR1020000082270

    申请日:2000-12-26

    Inventor: 박준

    Abstract: PURPOSE: A stereo image display apparatus and method is provided to prevent eye fatigue by permitting the user to gaze the desired point and change the gaze point in a free manner. CONSTITUTION: A stereo image display apparatus comprises a three-dimensional model storage unit(11) for creating and storing a three-dimensional model for an object to be displayed in a virtual reality space; a head and eye movement detection unit(16) for detecting the position of head(face) of a user and extracting images of eyes of the user; a gaze direction and distance measurement unit(12) for extracting information for the current gaze point of the user, from the position of head and images of eyes output from the head and eye movement detection unit; an image creating unit(13) for generating the stereo image corresponding to the current gaze point extracted from the gaze direction and distance measurement unit, on the basis of the three-dimensional model of the object stored in the three-dimensional model storage unit; and display units(14,15) for displaying left and right side images created by the image creating unit.

    Abstract translation: 目的:提供一种立体图像显示设备和方法,以通过允许用户注视期望的点并以自由的方式改变注视点来防止眼睛疲劳。 一种立体图像显示设备,包括:三维模型存储单元(11),用于创建并存储要在虚拟现实空间中显示的对象的三维模型; 头部和眼睛运动检测单元(16),用于检测用户的头部(脸部)的位置并提取用户的眼睛的图像; 视线方向和距离测量单元(12),用于根据从头部和眼睛运动检测单元输出的头部位置和眼睛图像提取用户当前注视点的信息; 图像生成部(13),根据存储在上述三维模型存储部中的上述对象物的三维模型,生成与从上述视线方向和上述距离测定部提取的当前注视点对应的立体图像; 和用于显示由图像创建单元创建的左侧和右侧图像的显示单元(14,15)。

    음향 및 음성을 이용한 신호음 설정장치 및 그 설정방법
    97.
    发明公开
    음향 및 음성을 이용한 신호음 설정장치 및 그 설정방법 无效
    使用声音和声音设置信号音的装置和方法

    公开(公告)号:KR1020010076796A

    公开(公告)日:2001-08-16

    申请号:KR1020000004155

    申请日:2000-01-28

    Inventor: 박준

    Abstract: PURPOSE: An apparatus and a method for setting signal tone using a sound and a voice are provided to enable a user to actively generate a desired signal tone by a need or a user's preference to eliminate a confused signal tone problem. CONSTITUTION: A frequency analyzing part and an energy analyzing part(12) analyze a frequency element and an energy element for a melody signal received from a microphone(11) and converted into a digital format. An audio recognizing part, a tone recognizing part and a rhythm recognizing part(13) recognize a voice, a tone and a rhythm for the inputted melody. A basic melody generating part(14) generates the melody passed through the recognizing parts as a basic melody. A rhythm adding part(16) and a tone color and melody adding part(17) add a rhythm, and a tone color and melody specified by a user to the basic melody. A signal tone generating and storing part(19) generates and stores a resulting signal tone.

    Abstract translation: 目的:提供一种用于使用声音和语音来设置信号音的设备和方法,以使得用户能够通过需要或用户的偏好积极地产生期望的信号音,以消除混淆的信号音问题。 构成:频率分析部分和能量分析部分(12)分析从麦克风(11)接收的旋律信号的频率元素和能量元素,并将其转换为数字格式。 音频识别部分,音调识别部分和节奏识别部分(13)识别输入的旋律的语音,音调和节奏。 基本的旋律产生部分(14)产生作为基本旋律传递通过识别部分的旋律。 节奏添加部分(16)和色调和旋律添加部分(17)添加节奏,以及由用户指定的音色和旋律到基本旋律。 信号音产生和存储部分(19)产生并存储所得到的信号音。

    음절단위 조건확률을 이용한 한국어 자동 띄어쓰기 방법
    98.
    发明公开
    음절단위 조건확률을 이용한 한국어 자동 띄어쓰기 방법 失效
    使用可编程单元条件概率的韩国语言自动字符间距方法

    公开(公告)号:KR1020010063799A

    公开(公告)日:2001-07-09

    申请号:KR1019990061893

    申请日:1999-12-24

    Abstract: PURPOSE: An automatic word spacing method of Korean using syllable unit condition probability is provided to process a word spacing method with respect to a sentence prepared based on partial spacing words and a sentence having no space by using a statistical method instead of a vocabulary knowledge or a heuristic. CONSTITUTION: A hypothesis for a spacing words optimum pattern search is set(400). The maximum accumulated log probability is calculated based on the set hypothesis(402). An output string is obtained by searching a spacing words optimum pattern of a syllable inputted using the maximum accumulated log probability and the back pointer(404). In the hypothesis process, a space is generated when a transient is generated as the same state, and a syllable is generated when a transient is generated as a different state. One hypothesis has the latest "n-1" number syllable, an accumulated log probability, and a back pointer. The back pointer is used for sensing the previous hypothesis extracting the current hypothesis, and stores a time, a status and a pointer of the previous hypothesis.

    Abstract translation: 目的:提供韩语使用音节单位条件概率的自动字间距方法,用于处理基于部分间隔字准备的句子的字间距方法和使用统计方法而不是词汇知识的无空格句, 启发式 构成:设定间距字最优图案搜索的假设(400)。 基于设定的假设计算最大累积对数概率(402)。 通过搜索使用最大累积对数概率输入的音节的间隔字最优模式和后向指针(404)来获得输出字符串。 在假设过程中,当产生瞬态作为相同状态时产生空间,并且当产生瞬态作为不同状态时产生音节。 一个假设有最新的“n-1”个数字音节,累积的日志概率和一个后退指针。 后指针用于感测提取当前假设的先前假设,并存储上一假设的时间,状态和指针。

    네트워크를 이용한 음성 언어 번역 시스템 및 그 방법
    99.
    发明公开
    네트워크를 이용한 음성 언어 번역 시스템 및 그 방법 无效
    使用网络的语音翻译系统及其方法

    公开(公告)号:KR1020000033518A

    公开(公告)日:2000-06-15

    申请号:KR1019980050414

    申请日:1998-11-24

    Inventor: 이승훈 박준

    Abstract: PURPOSE: A voice language translation system using network and a method therefor are provided to naturally communicate to counter part using user's own language. CONSTITUTION: A voice language translation system using network comprises an input unit(11), a voice recognition unit(12), an intermediate language generator(13), a language generator(14), a network call processor(15) and a user interface controller(18). The input unit receives voice signals from user to transfer them to the user interface controller. The voice recognition unit recognizes the voice signals from the user interface controller to convert them into character type sentence and then transfer them to the user interface controller. The intermediate language generator converts the character type sentence into a sentence of semantics structure. The language generator translate the sentence of semantics structure into prescribed language. The network call processor processes call connection and disconnection and data communication. The user interface controller controls all components.

    Abstract translation: 目的:提供使用网络及其方法的语音翻译系统,以使用用户自己的语言自然地与对方通信。 构成:使用网络的语音翻译系统包括输入单元(11),语音识别单元(12),中间语言生成器(13),语言生成器(14),网络呼叫处理器(15)和用户 接口控制器(18)。 输入单元从用户接收语音信号,将其传送到用户接口控制器。 语音识别单元识别来自用户接口控制器的语音信号,将其转换为字符型语句,然后将其传送到用户界面控制器。 中间语言生成器将字符类型的句子转换为语义结构的句子。 语言生成器将语义结构的句子翻译成规定的语言。 网络呼叫处理器处理呼叫连接和断开连接以及数据通信。 用户界面控制器控制所有组件。

    대표 특징열을 이용한 프레임 압축 방법 및그를 이용한 음성인식 방법
    100.
    发明公开
    대표 특징열을 이용한 프레임 압축 방법 및그를 이용한 음성인식 방법 无效
    使用代表性色谱柱的帧压缩方法和使用其的音频识别方法

    公开(公告)号:KR1020000033276A

    公开(公告)日:2000-06-15

    申请号:KR1019980050076

    申请日:1998-11-21

    Abstract: PURPOSE: A frame compression method using representative characteristic column and an audio recognition method using the same are provided to reduce the number of frame without degradation of performance by obtaining a representative frame of similar frames after extracting a characteristic column from frames of constant time interval. CONSTITUTION: A frame compression method using representative characteristic column comprises steps of: dividing compression signal by prescribed time interval into a frame; extracting a characteristic column about the divided frame; obtaining the similarity between the extracted characteristic columns; obtaining a representative characteristic column of similar characteristic columns using the obtained similarity.

    Abstract translation: 目的:提供使用代表性特征列的帧压缩方法和使用其的音频识别方法,以通过在从恒定时间间隔的帧中提取特征列之后获得类似帧的代表帧来减少帧数而不降低性能。 构成:使用代表性特征列的帧压缩方法包括以下步骤:将压缩信号按规定的时间间隔划分成一帧; 提取关于分割帧的特征列; 获得提取的特征列之间的相似性; 使用获得的相似度获得类似特征列的代表性特征列。

Patent Agency Ranking