Abstract:
Techniques are disclosed that involve projection interfaces, such as multitouch projected displays (MTPDs). For example, a user may activate a projection interface without having to interact with the a non-projected interface (e.g., a keyboard or keypad). Also, a user may select or adjust various device settings. Moreover, various user applications may be allocated among a projected interface and another display (e.g., an integrated display device). Such techniques may be employed in various environments, such as ones in which a display input devices exist in addition to a projection interface. Through such techniques, ease of use for projection interfaces may be advantageously achieved.
Abstract:
A device includes a processor to receive input data from an image detector, where the input data includes data obtained from tracking air movements of a user's body part interacting with a virtual object of the electronic display, the processor to map the input data to a control input to move the virtual object beyond the display. The device could, for example, include a mobile device such as a smartphone or a laptop. The virtual object could for example move to another display or to a bezel of the device. A touch screen sensor may allow the virtual object to be pinched from the display, before being lifted beyond the display. The processor may map the input data to control input to create a virtual binding of the virtual object in order to create a visual rendering of a connection between the virtual object and the user's body part.
Abstract:
In some embodiments, the invention involves using a heads up display (HUD) or head mounted display (HMD) to view a representation of a user's fingers with an input device communicatively connected to a computing device. The keyboard/finger representation is displayed along with the application display received from a computing device. In an embodiment, the input device has an accelerometer to detect tilting movement in the input device, and send this information to the computing device. An embodiment provides visual feedback of key or control actuation in the HUD/HMD display. Other embodiments are described and claimed.
Abstract:
Techniques are disclosed that involve mobile augmented reality (MAR) applications in which users (e.g., players) may experience augmented reality. Further, the actual geographical position of MAR application objects (e.g., players, characters, and other objects) may be tracked, represented, and manipulated. Accordingly, MAR objects may be tracked across multiple locations (e.g., multiple geographies and player environments). Moreover, MAR content may be manipulated and provided to the user based on a current context of the user.
Abstract:
Die vorliegende Offenbarung ist auf Systeme, Vorrichtungen und Prozesse ausgerichtet, die interaktive gemischte und/oder erweiterte Realitätsumgebungen bereitstellen. Offenbarte Ausführungsformen beinhalten Mechanismen zum Bestimmen einer Position eines physischen Objekts innerhalb einer gemischten Realitätsumgebung, zum Bestimmen einer Position eines Betrachters innerhalb der gemischten Realitätsumgebung und zum Projizieren einer Abbildung auf das physische Objekt oder auf einen Teil eines Bereichs innerhalb der gemischten Realitätsumgebung in der Nähe des physischen Objekts zumindest basierend auf der Position des physischen Objekts bezüglich der Position des Betrachters, damit das physische Objekt für den Betrachter verdeckt wird. Andere Ausführungsformen werden möglicherweise offenbart und/oder beansprucht.
Abstract:
Gesichtsbewegungen, wie z. B. Augenbewegungen, können verwendet werden, um Benutzereingaben zu entdecken, um die Anzeige von Text zu steuern. Beispielsweise in Verbindung mit einem Lesegerät für ein elektronisches Buch können Gesichtsbewegungen und insbesondere Augenbewegungen interpretiert werden, um anzuzeigen, warm beispielsweise eine Seite umgeblättert, wann die Aussprache eines Worts bereitgestellt, wann eine Definition eines Worts bereitgestellt, und wann eine Stelle in dem Text markiert werden soll.
Abstract:
Disclosed is a modular system with several modal input devices, each modal input controlling a separate item on the display. Each input device retrieves a stream of modal input data from the user. The inputs are interpreted by modal interpretation logic that can interpret each of the retrieved modal input data streams into a corresponding of set of actions. Each modal input device is assigned to control one of the displayed objects by modal pairing logic so that each corresponding set of actions sent to the allocated object. Each set of actions is then used by modal control logic to be control each displayed object by its assigned set of actions. The modal pairing logic may be operable to dynamically change the assignment of the modal input devices and their corresponding display objects. The system may have input management logic to manage at least two modal input devices as a group, allowing the user to provide simultaneous control of two or more objects.
Abstract:
Hierin werden verschiedene Systeme und Verfahren zum Bereitstellen eines visionsbasierten Robotersteuerungssystems bereitgestellt. Ein visionsbasiertes Robotersteuerungssystem umfasst eine Kamerasystemschnittstelle zum Empfangen von Bilddaten von einem Kamerasystem; eine Auslösererkennungseinheit zum Feststellen einer Auslöseaktion aus den Bilddaten; und einen Sendeempfänger zum Initiieren eines Roboterbetriebs, der der Auslöseaktion zugeordnet ist.
Abstract:
Es sind Apparate, Verfahren und Speichermedien beschrieben, die mit einer Umstellung eines erweiterten Realitätsobjekts zwischen physischen und digitalen Umgebungen verknüpft sind, wobei das erweiterte Realitätsobjekt in zumindest zwei informationstragenden Objekten eingegliedert ist, wobei die informationstragenden Objekte ein sensoraktiviertes physisches Objekt und ein digitales Objekt umfassen.