Abstract:
본 발명은 대화형 유전자 알고리즘을 기반으로 사용자 취향을 반영한 감정 기반 영상의 색 변환 방법에 관한 것으로서, 보다 구체적으로는 (1) 감정별 후보 색들의 범위를 템플릿으로 정의하는 단계, (2) 대화형 유전자 알고리즘을 통해 사용자 취향을 반영한 색을 학습하여 후보 템플릿 중 최종 템플릿을 결정하는 단계, 및 (3) 사용자의 감정을 인식한 후 상기 결정된 최종 템플릿을 기반으로 영상에 대한 색 변환을 수행하는 단계를 포함하는 것을 그 구성상의 특징으로 한다. 본 발명에서 제안하고 있는 대화형 유전자 알고리즘을 기반으로 사용자 취향을 반영한 감정 기반 영상의 색 변환 방법에 따르면, 개인의 취향에 맞는 색 변환을 수행하여 감성적인 만족도를 높일 수 있다. 감정과 관련된 색 템플릿을 정의함으로써 색과 감정의 관계를 정립하여 개인의 감정에 따른 색 변화가 이루어 질 수 있다. 또한, 색상 뿐 아니라 명도와 채도 템플릿을 정의하고 이에 대한 색 변환도 이루어지도록 하여 사용자의 감성적인 만족도가 높아질 수 있다. 또한, 색에 대한 개인의 취향을 반영할 수 있도록 대화형 유전자 알고리즘을 적용함으로써 사용자가 선호하는 템플릿의 조합을 학습하여 최종 색상, 채도, 명도 템플릿의 조합을 결정하도록 하고, 결과적으로 상호작용을 통해 사용자로부터 흥미와 몰입을 이끌어 낼 수 있다. 본 발명에 따른 영상의 색 변환 방법은 다양한 분야로 확장되어 활용할 수 있다. 애니메이션, 만화, 게임 등의 콘텐츠의 색 변환이나 디지털 미디어아트 등 캐릭터나 배경의 색 변환을 통해 사용자와의 교감으로 인한 상호작용을 극대화 하고, 콘텐츠와 함께한다는 느낌을 주어 사용자의 흥미와 몰입을 향상시킬 수 있다. 이 외에도 본 발명에 따른 색 변환 방법을 검색 분야에 적용하여 감정 기반 검색을 효율적으로 수행할 수 있다. 즉, 학습된 각 감정에 대한 개인 취향을 반영하여 학습된 색과 유사한 영상을 검색함으로써 결과에 대한 만족도를 높일 수 있을 것이다.
Abstract:
본 발명은 색채와 감정 간의 관계에 기초한 영상의 색 변환 방법에 관한 것이다. 본 발명에 따른 영상의 색 변환 방법은 (a) 사람이 갖는 복수의 감정과 상기 각 감정에 대응하는 색채 분포를 정의하는 복수의 색채 템플릿을 설정하는 단계와; (b) 영상의 색 변환을 수행하기 위한 색 변환 알고리즘이 설정되는 단계와; (c) 상기 색 변환 알고리즘을 이용하여 상기 각 감정에 따른 사용자의 취향이 분석되어 가중치가 산출되는 단계와; (d) 사용자의 감정에 대한 감정 정보가 입력되는 단계와; (e) 상기 산출된 가중치 및 상기 입력된 감정 정보가 상기 색 변환 알고리즘에 반영되어 영상이 색 변환되는 단계를 포함하는 것을 특징으로 한다. 이에 따라, 인간의 감정, 예를 들어 즐거움, 슬픔, 분노, 공포 등과 같은 인간의 감정과 색 간의 관계에 대한 일반적인 규칙을 수립하여 감정에 따라 색채를 변환하는 색 변환 알고리즘을 결정하고, 색 변환 알고리즘의 실행에 사용자 개개인의 취향을 반영하여 색 변환을 수행함으로써, 각 사용자에 적합한 색 변환이 가능하게 된다.
Abstract:
PURPOSE: A robot game system connected with a virtual space and a real space is provided to trace the motion of a robot by mixing a visible ray image with an infrared ray image which is photographed by an infrared camera. CONSTITUTION: One or more robot moves from a stage. A robot control terminal(21) controls the motion of each robot. A motion tracing module(60) traces the motion of robots based on a visible ray image and an infrared ray image. The motion tracing module generated motion trace information toward the motion of the traced robots. A robot game module(50) controls the motion of a virtual robot.
Abstract:
본 발명은 몰입 유발요소 검출 시스템에 관한 것으로서, 콘텐츠 이용중 피검자의 신체에서 발생하는 생체 신호를 측정하는 센서와; 상기 센서가 감지하는 신체부위에서 기 측정된 각각의 생체 신호의 정도에 따라 콘텐츠 몰입 상태별로 분류된 상태별 데이터를 학습하는 학습부와, 상기 센서로부터 측정된 각각의 생체신호에서 필요한 신호성분을 추출하여 처리하는 전처리부와, 상기 전처리부를 통해 추출된 신호성분을 상기 학습부에 학습된 데이터와 비교하여 콘텐츠 몰입 상태를 판단하는 판단부가 구비된 분석모듈을 포함하는 것을 특징으로 한다. 이에 따라. 콘텐츠 내에 어떤 요소가 몰입을 유발하는지 신뢰도 있는 분석이 가능하다.
Abstract:
The present invention relates to a stereovision eye test device. The stereovision eye test device includes: a three-dimensional display unit which displays a three-dimensional image; a reference two-dimensional display unit which displays a reference two-dimensional image; an ocular unit which is placed to face the reference two-dimensional display unit for viewing of the three-dimensional image and the reference two-dimensional image; a reflection mirror which is installed closely to but separably from the three-dimensional display unit while being placed to face the three-dimensional display unit; and a half mirror which is placed between the three-dimensional display unit and the reflection mirror and is placed in the intersecting area between the progress path of the reference two-dimensional image and the progress path of the three-dimensional image. The reference two-dimensional image displayed from the reference two-dimensional display unit penetrates through the half mirror and goes towards the ocular unit. The three-dimensional image from the three-dimensional display unit penetrates through the half mirror, is reflected by the reflection mirror, then is reflected by the half mirror, and goes towards the ocular unit. By doing so, when examining stereovision capability of each individual, it is possible to accurately measure stereovision capability of each individual.
Abstract:
PURPOSE: A method for converting a color image into a black and white image and a recording medium recorded with a program performing the same are provided to acquire effect similar to chromatic contrast of the color image in the black and white image, by extracting an important color assembly of the image as a representative region and then extracting most contrast Ø value. CONSTITUTION: A program divides a color image into a number of image regions, and calculates significance of each image region (S20,S21). The program selects preestablished number of representative regions among the image regions, and extracts a maximum offset angle value (S22,S23). The program generates a first black and white image, by applying the extracted offset angle value to a preestablished black and white algorithm (S24). The program generates a final black and white image, by applying histogram stretching to the first black and white image (S25,S26). [Reference numerals] (AA) Start; (BB) Finish; (S20) Image division → Quantization algorithm; (S21) Reference region selection; (S22) Optical; (S23) Optimal Ø value extraction; (S24) Primary conversion; (S25) Histogram stretching; (S26) Final black and white image generation