Abstract:
Un procedimiento que comprende: determinar que un objeto interactuante (414, 426, 428) está dentro del campo de visión de un casco de realidad virtual mientras el casco de realidad virtual (412, 422, 500) está funcionando en un primer modo de potencia; y la transición del casco de realidad virtual (412, 422, 500) del funcionamiento en el primer modo de potencia al funcionamiento en un segundo modo de potencia basado, al menos en parte, en la determinación de que el objeto interactuante (414, 426, 428) está dentro de la campo de visión, de modo que el casco de realidad virtual (412, 422, 500) consume más potencia durante el funcionamiento en el segundo modo de potencia que durante el funcionamiento en el primer modo de potencia, caracterizado porque el objeto interactuante (414, 426, 428) se identifica como un objeto interactuante particular (414, 426, 428) para la interacción mediante un indicador de interacción (502, 504), en el que el casco de realidad virtual (412, 422, 500) provoca la visualización del indicador de interacción (502, 504) que indica que el objeto interactuante particular (414, 426, 428) se encuentra actualmente dentro del campo de visión del casco de realidad virtual (412, 422, 500) y que la recepción de una entrada de un usuario provocará la selección del objeto interactuante particular (414, 426, 428) de manera que al menos un elemento de interfaz de usuario (522, 524, 526) asociado con el objeto interactuante particular (414, 426, 428) se visualizará.
Abstract:
An apparatus comprising: an input configured to receive at least two groups of at least two audio signals; a first audio former configured to generate a first formed audio signal from a first of the at least two groups of at least two audio signals; a second audio former configured to generate a second formed audio signal from the second of the at least two groups of at least two audio signals; an audio analyser configured to analyse the first formed audio signal and the second formed audio signal to determine at least one audio source and an associated audio source signal; and an audio signal synthesiser configured to generate at least one output audio signal based on the at least one audio source and the associated audio source signal.
Abstract:
Un método que comprende: determinar una localización de navegación interactiva; provocar la visualización de una imagen en perspectiva (300, 310, 320, 500, 510, 520) que representa una vista de una porción de información de mapa de la localización de navegación interactiva; provocar la visualización de un indicador de región de vídeo (502, 512, 522) que indica que el contenido de vídeo, que es contenido de vídeo panorámico y el contenido de vídeo es capturado por una pluralidad de módulos de cámara de un aparato de captura de vídeo (402), está disponible en una localización de navegación de vídeo, representando el contenido de vídeo una vista de una porción de la información de mapa de la localización de navegación de vídeo; determinar que la localización de navegación interactiva ha cambiado tal que la localización de navegación interactiva corresponde a la localización de navegación de vídeo; y provocar la representación del contenido de vídeo, de manera que un ángulo de visualización de la imagen en perspectiva corresponde al ángulo de visualización del contenido de vídeo panorámico, basándose, al menos en parte, en la localización de navegación interactiva que corresponde a la localización de navegación de vídeo.
Abstract:
An apparatus is disclosed, comprising at least one processor and at least one memory including computer program code, the at least one memory and the computer program code configured with the processor to cause the apparatus to perform the following steps. In a first step, the spatial position of a user in a real world space is detected. In another step, one or more audio signals are provided to the user representing audio from spatially-distributed audio sources in a virtual space. In another step, responsive to detecting movement of the user's spatial position from within a first zone to within a second zone within the real world space, the audio signals for selected ones of the audio sources are modified based on their spatial position in the virtual space.
Abstract:
A method comprising causing display of a first visual information that is a view from a first geographical location, receiving, by the apparatus, an indication of availability of a second visual information that is a view from a second geographical location, the second geographical location being in a first direction from the first geographical location, determining a position in the first visual information that corresponds with the first direction, and causing display of at least a portion of the second visual information such that the portion of the second visual information overlays the first visual information at the position in the first visual information is disclosed.
Abstract:
An apparatus comprising: an input configured to receive at least two groups of at least two audio signals; a first audio former configured to generate a first formed audio signal from a first of the at least two groups of at least two audio signals; a second audio former configured to generate a second formed audio signal from the second of the at least two groups of at least two audio signals; an audio analyser configured to analyse the first formed audio signal and the second formed audio signal to determine at least one audio source and an associated audio source signal; and an audio signal synthesiser configured to generate at least one output audio signal based on the at least one audio source and the associated audio source signal.