Abstract:
PROBLEM TO BE SOLVED: To provide a method, apparatus and system for model-based playfield registration. SOLUTION: An input video image is processed. The processing of the video image includes extracting key points related to the video image. Furthermore, whether enough key points related to the video image have been extracted is determined, and a direct estimation of the video image is performed when enough key points have been extracted and then, a homograph matrix of a final video image based on the direct estimation is generated. COPYRIGHT: (C)2011,JPO&INPIT
Abstract:
Mobile Internet devices may be used to generate Mirror World depictions. The mobile Internet devices may use inertial navigation system sensor data, combined with camera images, to develop three dimensional models. The contours of an input geometric model may be aligned with edge features of the input camera images instead of using point features of images or laser scan data.
Abstract:
A video communication system that replaces actual live images of the participating users with animated avatars. A method may include selecting an avatar, initiating communication, capturing an image, detecting a face in the image, extracting features from the face, converting the facial features to avatar parameters, and transmitting at least one of the avatar selection or avatar parameters. The system is configured to allow a user to select a new avatar during active communication with a remote user.
Abstract:
Die Bewegung eines Benutzers (101) in einem Benutzerraum (105) wird auf einen ersten Abschnitt eines Befehlsaktionsstroms (109) gemappt, der an einen Teleroboter (111) in einem Teleroboterraum (110) gesendet wird. Ein immersiver Rückkopplungsstrom (113) wird von dem Teleroboter (111) an den Benutzer (101) geliefert. Bei der Bewegung des Benutzers (101) in einen oder nahe zu einem Rand des Benutzerraums (105) kann der erste Abschnitt des Befehlsaktionsstroms ausgesetzt werden. Der Benutzer (101) kann sich in dem Benutzerraum (105) neu orientieren und kann dann seine Bewegung fortsetzen, wobei das Bewegungs-Mapping erneut aufgenommen und die Übertragung eines zweiten Abschnitts des Befehlsaktionsstroms wiederaufgenommen wird. Auf diese Weise kann der Benutzer einen Teleroboter über ein Bewegungs-Mapping steuern, auch wenn der Benutzerraum und der Teleroboterraum nicht dieselbe Größe aufweisen.
Abstract:
Generation of a personalized 3D morphable model of a user's face may be performed first by capturing a 2D image of a scene by a camera. Next, the user's face may be detected in the 2D image and 2D landmark points of the user's face may be detected in the 2D image. Each of the detected 2D landmark points may be registered to a generic 3D face model. Personalized facial components may be generated in real time to represent the user's face mapped to the generic 3D face model to form the personalized 3D morphable model. The personalized 3D morphable model may be displayed to the user. This process may be repeated in real time for a live video sequence of 2D images from the camera.