Abstract:
Un procedimiento para ejecutar en un dispositivo móvil (100) para proporcionar una API común, interfaz de programación de aplicaciones (170), comprendiendo el procedimiento: recibir, en un módem en el dispositivo móvil, de una primera aplicación de servidor basada en la web (201), una primera petición de datos de sensor usando la API común (170); recibir, en el módem, de una segunda aplicación de servidor basada en la web (202) no relacionada con la primera aplicación de servidor basada en la web (201), una segunda petición de datos de sensor usando la API común (170); en el que la primera petición de datos de sensor y la segunda petición de datos de sensor se reciben de forma inalámbrica desde diferentes servidores usando la API común; enviar, desde el módem, la primera petición y la segunda petición directamente a un procesador central de sensores (140) acoplado al módem en el dispositivo móvil, evitando un procesador de aplicaciones de cliente (120); procesar la primera petición de datos de sensor y la segunda petición de datos de sensor en el procesador central de sensores (140); en el que el procesador central de sensores (140) ejecuta un cliente central de sensor (141) usando la API común para comunicarse con diversas aplicaciones de servidor, incluyendo la primera aplicación de servidor basada en la web (201) y la segunda aplicación de servidor basada en la web (202); recibir de un sensor (161, 162, 163, 164), en el procesador central de sensores (140), datos de sensor en el dispositivo móvil usando un controlador de sensor (150) que se ejecuta en el procesador central de sensores (140), en el que el sensor se acopla para comunicarse con el controlador de sensor (150); responder a la primera petición de datos de sensor con una primera respuesta que comprenda los datos de sensor; y responder a la segunda petición de datos de sensor con una segunda respuesta que comprenda los datos de sensor; en el que la primera respuesta y la segunda respuesta se envían de forma inalámbrica a diferentes servidores usando la API común; y en el que el procesador de aplicaciones de cliente (120) consume un primer nivel de energía durante una duración y el procesador central de sensores (140) consume un segundo nivel de energía durante la duración, donde el segundo nivel de energía es menor que el primer nivel de energía.
Abstract:
A mobile device tracks a relative pose between a camera and a target using Vision aided Inertial Navigation System (VINS) that includes a contribution from inertial sensor measurements and a contribution from vision based measurements. When the mobile device detects movement of the target the contribution from the inertial sensor measurements to track the relative pose between the camera and the target is reduced or eliminated. Movement of the target may be detected by comparing vision only measurements from captured images and inertia based measurements to determine if a discrepancy exists indicating that the target has moved. Additionally or alternatively movement of the target may be detected using projections of feature vectors extracted from captured images.
Abstract:
Un método que comprende: realizar el seguimiento (202) de una pose relativa entre una cámara (108) y un objetivo (101) utilizando una contribución de mediciones de sensor inercial y una contribución de mediciones basadas en visión, estando basadas las mediciones basadas en visión en imágenes del objetivo (101) capturado por la cámara (108); en donde la contribución de las mediciones de sensor inercial es una contribución ponderada y la contribución de las mediciones basadas en visión es una contribución ponderada; detectar (204) movimiento del objetivo (101); y reducir (208) la contribución ponderada de las mediciones de sensor inercial para realizar el seguimiento de la pose relativa entre la cámara (108) y el objetivo (101) cuando se detecta movimiento del objetivo (101); el método caracterizado por que la ponderación de la contribución de las mediciones de sensor inercial se varía en función de una confianza en la detección de movimiento del objetivo.
Abstract:
A homography between two captured images of a planar object is decomposed into at least one possible solution and typically at least two ambiguous solutions. The ambiguity between the two solutions is removed or a single solution validated using measurements from orientation sensors. The measurements from orientation sensors may be used by comparing at least one of the yaw pitch and/or roll angles derived from a relative rotation matrix for the one or more solutions to a corresponding at least one of the yaw pitch and/or roll angles derived from the measurements from the orientation sensors.
Abstract:
Techniques for using measurements made by UEs to improve network performance are described. In one aspect, RF parameters of cells may be determined by taking into account mobility of the UEs. Mobility information for the UEs may be determined based on measurement report messages (MRMs) sent by these UEs for handover. RF parameters such as antenna down-tilt, antenna orientation, antenna pattern, and/or pilot power of the cells may be determined based on the mobility information for the UEs. In another aspect, the RF parameters of cells may be dynamically adjusted based on loading conditions of cells. In yet another aspect, the location of a UE may be determined based on an MRM sent by the UE for handover. The MRM may include timing measurements for multiple cells. The location of the UE may be determined based on the timing measurements.
Abstract:
Embodiments disclosed pertain to the use of user equipment (UE) for the generation of a 3D exterior envelope of a structure based on captured images and a measurement set associated with each captured image. In some embodiments, a sequence of exterior images of a structure is captured and a corresponding measurement set comprising Inertial Measurement Unit (IMU) measurements, wireless measurements (including Global Navigation Satellite (GNSS) measurements) and/or other non-wireless sensor measurements may be obtained concurrently. A closed-loop trajectory of the UE in global coordinates may be determined and a 3D structural envelope of the structure may be obtained based on the closed loop trajectory and feature points in a subset of images selected from the sequence of exterior images of the structure.
Abstract:
A mobile station determines its position using measured parameters of a wireless signal to improve a satellite positioning system (SPS) enhanced dead reckoning based position estimate. The mobile station uses SPS enhanced dead reckoning to estimate a current position. The mobile station receives wireless signals and measures, e.g., received signal strength and/or round trip time, which is compared to a database to derive a wireless signal based position estimate. The SPS enhanced dead reckoning position estimate and the wireless signal based position estimate may then be fused using corresponding confidence levels. The database may be generated and stored in the mobile station. In another embodiment, the database is generated and stored on an online server that may be accessed by mobile stations.
Abstract:
Methods and apparatus are described herein for calibration and correction of non-constant sensor errors, and in particular non-constant compass errors, that are based in part on changing software and hardware modes of a host device. The non-constant errors induced in the sensor by each mode and combination of modes is determined in a calibration that may be determined during pre-production testing of one or more host devices. The calibration results can be incorporated into software and/or hardware of the host device. During normal operation, a sensor correction can be applied to sensor measurements based in part on the active mode or combination of modes.