Abstract:
PURPOSE: A peripheral nerve interface system for controlling a prosthetic hand and a method thereof are provided to allow selective detection, analysis, transfer, and stimulation of nerve signals. CONSTITUTION: A peripheral nerve interface system for controlling a prosthetic hand comprises a nerve conduit (100), an artificial organ (300), and a peripheral nerve interface unit (200). The nerve conduit connects to the end of the damaged peripheral nerve of a cut body part. The artificial organ substitutes fro the cut body part. The interface unit electrically connects to the nerve conduit and the artificial organ and restores the function of the damaged peripheral nerve and controls the artificial organ by transmitting and receiving the signal of the damaged peripheral nerve. [Reference numerals] (221) First digital signal processing unit; (223) Wireless electricity receiving unit; (225) First communication unit; (241) Imbedded controller; (243) Wire electricity transmitting unit; (245) Second communication unit; (AA) Nerve regeneration stimulating signal; (BB) Stimulating signal; (CC) Nerve signal; (DD) Actuator control signal; (EE) Sense signal
Abstract:
본 발명은 스테레오 영상으로부터 추출된 입술 특징점을 이용한 음성 인식 장치 및 음성 인식 방법에 관한 것이다. 이를 위해 본 발명의 일실시예에 따른 음성 인식 장치는 스테레오 영상 획득부와, 상기 스테레오 영상 획득부로부터 화자의 스테레오 영상을 수신하고, 수신된 스테레오 영상에서 화자의 입술 영역을 추출하고, 추출된 입술 영여그이 특징점의 3차원 좌표값에 대응하는 음소를 분류함으로써 화자의 음성을 인식하는 영상 처리부를 포함한다. 영상 처리부는 수신된 스테레오 영상에서 화자의 입술 영역을 추출하는 입술 영역 추출부와, 입술 영역 추출부에서 추출된 입술 영역의 윤곽을 추출하는 입술 윤곽 추출부와, 입술 윤곽 추출부에서 추출된 입술 영역의 윤곽에서 특징점을 추출하는 특징점 추출부를 포함할 수 있다.
Abstract:
본 발명에 따른 맞춤형 인공삽입물 설계 방법은 2D로 촬영된 뼈 이미지를 이용하여 3D(Three Dimensions) 영상을 생성하는 단계와; 상기 2D 뼈 이미지를 이용하여 골밀도 정보를 측정하는 단계와; 상기 골밀도 정보를 상기 3D 영상에 색채화하는 단계와; 상기 색채화된 3D 영상을 이용하여, 인공 삽입물을 설계하기 위한 인공삽입물의 크기, 위치, 골고정 나사 구멍의 위치 값을 산출하는 단계를 포함할 수 있다.
Abstract:
PURPOSE: An apparatus for designing custom-made prosthesis based on bone density measurement is provided to supply the position information of a bone fixing screw and the design variable of the prosthesis by restructuring a 3D image having visualized bone density information. CONSTITUTION: An image processing device(200) performs a CT image input stage(S210). A contour line is detected according to a threshold value(S220). The bone density is measured and a color map is set according to the distribution of the bone density(S230). The image processing device performs a 3D bone image recomposition stage(S240). The bone density is visualized on the 3D bone image(S250). A design device(300) decides the insertion position and the size of the prosthesis using the 3D bone image(S310). The location, the size and the number of bone fixing screws are determined(S320). The design device accurately designs the prosthesis for a patient(S330).
Abstract:
PURPOSE: A device for recognizing a voice by extracting 3D lip feature points based on a stereographic camera and a method thereof are provided to extract feature points from a lip area in real time, thereby accurately recognizing a desired voice using the extracted feature points. CONSTITUTION: A voice recognizing device includes a stereographic image obtaining unit(12) and an image processing unit(15). The image processing unit receives a stereographic image of a speaker from the image obtaining unit. The image processing unit extracts a lip area of the speaker from the received stereographic image. The image processing unit classifies a phoneme corresponding to a 3D coordinate value of a feature point of the lip area. The video color deflection recognizes the voice of speaker.