Abstract:
Apparatuses, computer programs and methods are provided. A first method comprises: responding to user input, at a wearable user input device, by causing transmission of a radio frequency signal comprises a request from a pedestrian wearer of the wearable user input device. The request may be a request to cross a road. A second method comprises: responding to the user input, provided by the pedestrian wearer of the wearable user input device, by causing motion of a vehicle to change. The motion of the vehicle may be changed in order to enable the pedestrian to cross the road.
Abstract:
Un procedimiento que comprende: determinar que un objeto interactuante (414, 426, 428) está dentro del campo de visión de un casco de realidad virtual mientras el casco de realidad virtual (412, 422, 500) está funcionando en un primer modo de potencia; y la transición del casco de realidad virtual (412, 422, 500) del funcionamiento en el primer modo de potencia al funcionamiento en un segundo modo de potencia basado, al menos en parte, en la determinación de que el objeto interactuante (414, 426, 428) está dentro de la campo de visión, de modo que el casco de realidad virtual (412, 422, 500) consume más potencia durante el funcionamiento en el segundo modo de potencia que durante el funcionamiento en el primer modo de potencia, caracterizado porque el objeto interactuante (414, 426, 428) se identifica como un objeto interactuante particular (414, 426, 428) para la interacción mediante un indicador de interacción (502, 504), en el que el casco de realidad virtual (412, 422, 500) provoca la visualización del indicador de interacción (502, 504) que indica que el objeto interactuante particular (414, 426, 428) se encuentra actualmente dentro del campo de visión del casco de realidad virtual (412, 422, 500) y que la recepción de una entrada de un usuario provocará la selección del objeto interactuante particular (414, 426, 428) de manera que al menos un elemento de interfaz de usuario (522, 524, 526) asociado con el objeto interactuante particular (414, 426, 428) se visualizará.
Abstract:
A method comprising: causing provision of a visual access menu to enable a user to access video segments of a scene comprising : causing display of at least a portion an image of the scene; causing display, at a first location in the scene, of a first user-selectable menu option that when selected causes access to one or more first video segments of activity at the first location in the scene; and causing display, at a second location in the scene, of a second user-selectable menu option that when selected causes access to one or more second video segments of activity at the second location in the scene.
Abstract:
An apparatus caused to: in respect of video imagery of an event at which one or more commenting users are present and have submitted comments, a location of the or each of the one or more commenting users visible in the video imagery; based on a current view of the video imagery provided for display to a user and at least one comment having location information associated therewith indicative of one or more of (i) the location, at the time of making the comment, of the commenting user who submitted the comment at the event, (ii)a location, at the event, specified by the commenting user who submitted the comment at the event; provide for display of the comment overlaid over the current view of the video imagery, the comment displayed in the current view of the video imagery at aposition that corresponds to the location information.
Abstract:
Apparatuses, computer programs and methods are provided. A first method comprises: responding to user input, at a wearable user input device, by causing transmission of a radio frequency signal comprises a request from a pedestrian wearer of the wearable user input device. The request may be a request to cross a road. A second method comprises: responding to the user input, provided by the pedestrian wearer of the wearable user input device, by causing motion of a vehicle to change. The motion of the vehicle may be changed in order to enable the pedestrian to cross the road.
Abstract:
Un aparato configurado para: con respecto al contenido de realidad virtual que comprende imágenes de video y audio espacial en el que la dirección percibida de un evento de audio relacionado con un evento visual en las imágenes de video corresponde a una localización visual de dicho evento visual tal como se presenta en el espacio de realidad virtual; basándose en un cambio en la dirección de visualización de la vista de realidad virtual por el usuario desde una primera dirección de visualización a una segunda dirección de visualización, y en el que dicha segunda dirección de visualización corresponde, dentro de un umbral de dirección, a una dirección de un evento de audio específico; proporcionar la visualización del contenido de eventos perdidos, permitiendo de este modo al usuario ver un evento visual perdido para el que escuchó el evento de audio asociado y reaccionó al mismo cambiando la dirección de visualización.
Abstract:
Se desvela un método que comprende recibir primera información de cámara que es indicativa de información visual de una primera localización de cámara, provocar la visualización de la primera información de cámara, recibir segunda información de cámara que es indicativa de información visual de una segunda localización de cámara, identificar un objeto que se representa en la primera información de cámara y representado en la segunda información de cámara, recibir una entrada de selección de objeto que designa una representación del objeto de la primera información de cámara, recibir una entrada de movimiento de objeto que es indicativa de movimiento en relación al objeto, determinar que una dirección de la entrada de movimiento de objeto es opuesta a una dirección de la primera localización de cámara a la segunda localización de cámara, y provocar la transición de visualización de la primera información de cámara a la visualización de la segunda información de cámara.
Abstract:
Un método que comprende: determinar (702, 802) la ocurrencia de un evento de región de información virtual, indicando el evento de región de información virtual un cambio de información que está asignado a una región de información virtual (312, 314, 316, 318) que está al menos parcialmente más allá de un campo de visión (308A) de una pantalla montada en la cabeza (252, 262), teniendo la región de información virtual (312, 314, 316, 318) una ubicación de región de información virtual que está en una dirección del campo de visión (308A); provocar la representación (704, 804) de una notificación no visual que es indicativa de la dirección del campo de visión (308A) en respuesta al evento de región de información virtual; recibir (706, 806) información indicativa de una entrada de invocación de notificación visual que es introducida por un usuario (210, 230, 308); determinar (708, 808) una notificación visual (314B) que es visualmente descriptiva de al menos un aspecto del evento de región de información virtual en respuesta a la entrada de invocación de notificación visual; provocar (710, 810) la visualización de la notificación visual en la pantalla montada en la cabeza (252, 262); recibir (712, 812) información indicativa de una entrada de selección de notificación visual introducida por el usuario; y cambiar la ubicación de región de información virtual de la región de información virtual (312, 314, 316, 318) a una ubicación de región de información virtual diferente que está dentro del campo de visión (308A) en respuesta a la entrada de selección de notificación visual.
Abstract:
An apparatus is disclosed, comprising at least one processor and at least one memory including computer program code, the at least one memory and the computer program code configured with the processor to cause the apparatus to perform the following steps. In a first step, the spatial position of a user in a real world space is detected. In another step, one or more audio signals are provided to the user representing audio from spatially-distributed audio sources in a virtual space. In another step, responsive to detecting movement of the user's spatial position from within a first zone to within a second zone within the real world space, the audio signals for selected ones of the audio sources are modified based on their spatial position in the virtual space.