DE19951322A1 - Interactive arrangement of a virtual touch screen type has a wireless connection between an operating module and the virtual touch screen operating surface to improve resistance to vandalism - Google Patents
Interactive arrangement of a virtual touch screen type has a wireless connection between an operating module and the virtual touch screen operating surface to improve resistance to vandalismInfo
- Publication number
- DE19951322A1 DE19951322A1 DE1999151322 DE19951322A DE19951322A1 DE 19951322 A1 DE19951322 A1 DE 19951322A1 DE 1999151322 DE1999151322 DE 1999151322 DE 19951322 A DE19951322 A DE 19951322A DE 19951322 A1 DE19951322 A1 DE 19951322A1
- Authority
- DE
- Germany
- Prior art keywords
- arrangement according
- interface
- surface unit
- wireless interface
- module box
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
Abstract
Description
Die Erfindung betrifft eine Anordnung zur Interaktion.The invention relates to an arrangement for interaction.
Eine solche Anordnung ist aus [1] bekannt. Dabei handelt es sich insbesondere bei dem zu erkennenden Objekt um eine Zeigereinheit, z. B. eine Hand oder einen Zeigestab. Mit der Zeigereinheit kann ein Benutzer mit einer graphischen Schnittstelle interagieren, indem er durch Gestenbedienung die entsprechenden Aktionen auslöst. Solch eine Anordnung wird auch als Gestik-Computer oder als "Virtual-Touch-Screen" bezeichnet.Such an arrangement is known from [1]. This is what it is about especially around the object to be recognized Pointer unit, e.g. B. a hand or a pointing stick. With the Pointer unit can be used by a user with a graphical Interface interact by using gesture control triggers the corresponding actions. Such an arrangement is also used as a gesture computer or as a "virtual touch screen" designated.
Die Funktionsweise des Virtual-Touch-Screens besteht darin, daß die Schnittstelle auf eine vorgegebene Fläche projiziert wird, wobei die Projektion vorzugsweise virtuelle Schaltflächen aufweist, deren Betätigung jeweils vorgegebene Aktionen auslöst. Ein Auslösemechanismus ist das Zeigen des Benutzers mit seiner Hand als Zeigereinheit auf eine der Schaltflächen. Nach einer vorgegebenen Zeitdauer des Zeigens wird die mit der Schaltfläche assoziierte Aktion ausgelöst. Die Position der Hand des Benutzers wird von einer Kamera aufgenommen, die Aufnahme wird digitalisiert und ein Rechner ermittelt die Position der Hand in Relation zu der Projektion. So kann festgestellt werden, ob eine virtuelle Schaltfläche bedient worden ist oder nicht. Dieser Auslösemechanismus kann in seiner Wirkung verglichen werden mit der Bedienung einer Computermaus als Eingabemedium für eine graphische Schnittstelle. Der Mauszeiger wird bei dem Virtual-Touch-Screen mit der Hand geführt, ausgelöst wird statt des Doppelklicks mit dem Verharren der Hand über einer ausgesuchten Schaltfläche für eine vorgegebene Mindestdauer.The functionality of the virtual touch screen consists of that the interface projects onto a given surface the projection is preferably virtual Has buttons, the actuation of each predetermined Triggers actions. A trigger mechanism is to show the User with his hand as a pointing device on one of the Buttons. After a predetermined period of time of pointing the action associated with the button is triggered. The position of the user's hand is from a camera recorded, the recording is digitized and a computer determines the position of the hand in relation to the Projection. So it can be determined whether a virtual Button has been operated or not. This Trigger mechanism can be compared in its effect with the use of a computer mouse as an input medium for a graphical interface. The mouse pointer is on the Virtual touch screen guided by hand, is triggered instead of double-clicking your hand over one selected button for a predetermined minimum duration.
Zur Erkennung des Zeigegegenstandes auf der Bedienoberfläche, bzw. zur Unterscheidung der Projektion von dem Zeigegegenstand, wird in [2] die Möglichkeit einer zusätzlichen Beleuchtung der Bedienoberfläche mit Wellen im nichtsichtbaren Spektralbereich vorgestellt. Anhand der Beleuchtung der Bedienoberfläche mit Wellen im nicht- sichtbaren Spektralbereich kann eine geeignete Unterscheidung der Projektion von der Zeigereinheit erfolgen. Bei einer Beleuchtung mit infrarotem Licht reflektiert die Bedienoberfläche das infrarote Licht stärker als die Zeigeeinheit (Hand). Der Hand kommt somit eine höhere Absorption zu als der Bedienoberfläche. Dieser Effekt läßt sich gemäß [2] dadurch verstärken, daß die Bedienoberfläche zusätzlich mit einer reflektierenden Schicht versehen ist, so daß die Absorption des infraroten Lichts auf der Bedienoberfläche möglichst gering ist. Die Hand erscheint somit dunkel vor der Bedienoberfläche.To recognize the pointing object on the user interface, or to differentiate the projection from the Pointing object, in [2] the possibility of a additional lighting of the user interface with waves in the invisible spectral range presented. Based on Illumination of the user interface with waves in the non- Visible spectral range can be an appropriate distinction the projection from the pointer unit. At a Illumination with infrared light reflects the User interface the infrared light stronger than that Pointing unit (hand). The hand comes a higher one Absorption to than the user interface. This effect leaves reinforce according to [2] that the user interface is additionally provided with a reflective layer, so that the absorption of infrared light on the User interface is as small as possible. The hand appears therefore dark in front of the user interface.
Ein Vorteil des Virtual-Touch-Screens besteht in der Robustheit seiner Konstruktion. Insbesondere vor Vandalismus kann ein einfacher und wirksamer Schutz in der physikalischen Trennung von Bedienoberfläche und Kamera, Rechner und Projektor erreicht werden. Sollen allerdings auch in der Bedienoberfläche bspw. Eingabekomponenten ausgeführt sein, so sind diese und insbesondere deren Leitungen zu der ansteuernden Einheit potentiell Vandalismus ausgesetzt.One advantage of the virtual touch screen is that Robustness of its construction. Especially against vandalism can be a simple and effective protection in the physical Separation of user interface and camera, computer and Projector can be reached. Should, however, also in the User interface, for example, input components can be executed, see above are these and in particular their lines to the driving unit potentially exposed to vandalism.
Die Aufgabe der Erfindung besteht darin, eine Anordnung zur Interaktion anzugeben, die auch auf einer Oberflächeneinheit Komponenten aufweist, deren elektrische Verbindungen gegen Vandalismus geschützt sind.The object of the invention is an arrangement for Interaction specify that also on a surface unit Has components whose electrical connections against Vandalism are protected.
Diese Aufgabe wird gemäß den Merkmalen des unabhängigen Patentanspruchs gelöst. Weiterbildungen der Erfindung ergeben sich auch aus den abhängigen Ansprüchen.This task is performed according to the characteristics of the independent Claim resolved. Developments of the invention result itself from the dependent claims.
Zur Lösung der Aufgabe wird eine Anordnung zur Interaktion
angegeben, bei der eine Oberflächeneinheit vorgesehen ist,
die getrennt von einer Modulbox ausgeführt ist. Die Modulbox
weist insbesondere folgende Komponenten auf:
To solve the problem, an arrangement for interaction is specified in which a surface unit is provided, which is designed separately from a module box. The module box has the following components in particular:
- 1. Einen Projektor, anhand dessen auf der Oberflächeneinheit eine Abbildung darstellbar ist.1. A projector, based on which on the Surface unit an image can be represented.
- 2. Eine Kamera, die die Oberflächeneinheit aufnimmt.2. A camera that records the surface unit.
- 3. Einen Rechner, der den Projektor steuert und Aufnahme der Kamera derart auswertet, daß eine Aufnahme einer Bewegung oder eines Verweilens einer Interaktionskomponente auf bzw. vor der Oberflächeneinheit als Funktionalität eines Eingabezeigers interpretierbar ist.3. A computer that controls the projector and Recording the camera evaluates so that a Start of movement or dwelling Interaction component on or before the Surface unit as a functionality Input pointer is interpretable.
Zwischen der Modulbox und der Oberflächeneinheit besteht mindestens eine kabellose Schnittstelle.There is between the module box and the surface unit at least one wireless interface.
Eine Ausgestaltung besteht darin, daß die Interaktionskomponente eine Hand oder ein Finger eines Benutzers bzw. eine Zeigereinheit ist. Der Benutzer kann mit seiner Hand eine Eingabe auf der Oberflächeneinheit, auf die zweckmäßig anhand des Projektors eine Benutzeroberfläche (Graphisches User Interface (GUI)) projiziert ist, vornehmen. Hierzu bewegt der Benutzer seine Hand über die Benutzeroberfläche, wobei sich durch die Bewegung der Hand ein Mauszeiger steuern läßt. Eine Auslösung einer vorgegebenen Aktion auf der Benutzeroberfläche kann beispielsweise durch ein Verweilen der Hand für eine vorgegebene Zeitdauer auf einer bestimmten Stelle der Projektion vorgenommen werden. Durch dieses Verweilen wird diejenige Aktion ausgelöst, die mit einer projizierten Bedienoberfläche assoziiert ist. Dies entspricht einem Steuern einer Benutzerschnittstelle mittels einer Computermaus auf einem herkömmlichen Personalcomputer.One embodiment is that the Interaction component a hand or a finger of one User or a pointing device. The user can use an input on the surface unit to which a user interface based on the projector (Graphical User Interface (GUI)) is projected. To do this, the user moves his hand over the User interface, moving by hand movement a mouse pointer controls. A trigger one predetermined action on the user interface for example by lingering your hand for one predetermined period of time at a certain point in the Projection. By staying there triggered the action that with a projected User interface is associated. This corresponds to one Control a user interface using a Computer mouse on a conventional personal computer.
Eine andere Ausgestaltung besteht darin, daß mindestens eine kabellose Schnittstelle eine Schallschnittstelle ist. Dabei kann bevorzugt die Schallschnittstelle eine Ultraschallschnittstelle sein. Zweckmäßig weist die Ultraschallschnittstelle einen Ultraschallsender und einen Ultraschallempfänger auf, die auf der Oberflächeneinheit und in der Modulbox ausgeführt sein können.Another embodiment is that at least one wireless interface is a sound interface. there can preferably the sound interface Ultrasound interface. Appropriately, the Ultrasound interface one ultrasound transmitter and one Ultrasound receiver on the surface unit and can be carried out in the module box.
Eine Ausgestaltung besteht darin, daß die mindestens eine kabellose Schnittstelle eine optische Schnittstelle ist. Insbesondere kann die optische Schnittstelle einen Infrarotsender und einen Infrarotempfänger aufweisen. Der Infrarotsender ist bevorzugt eine Infrarot-Leuchtdiode oder eine Infrarot-Laserdiode.One embodiment is that the at least one wireless interface is an optical interface. In particular, the optical interface can be a Have infrared transmitter and an infrared receiver. The Infrared transmitter is preferably an infrared light emitting diode or an infrared laser diode.
Auch ist es eine Ausgestaltung, daß die mindestens eine
kabellose Schnittstelle eine elektromagnetische Schnittstelle
ist. Dabei kann der Sender der elektromagnetischen
Schnittstelle als eine der folgenden Komponenten ausgeführt
sein:
It is also an embodiment that the at least one wireless interface is an electromagnetic interface. The transmitter of the electromagnetic interface can be designed as one of the following components:
- a) Sendeantenne,a) transmitting antenna,
- b) Richtantenne,b) directional antenna,
- c) Richtkoppler,c) directional coupler,
- d) Dipolantenne.d) Dipole antenna.
Der Empfänger der elektromagnetischen Schnittstelle kann
ausgeführt sein als eine der folgenden Komponenten:
The receiver of the electromagnetic interface can be implemented as one of the following components:
- a) Antennenspule,a) antenna coil,
- b) Schlitzantenne,b) slot antenna,
- c) Dipolantenne.c) Dipole antenna.
Eine weitere Ausgestaltung besteht darin, daß der jeweilige Sender der mindestens einen kabellosen Schnittstelle in der Modulbox und der jeweilige Empfänger der mindestens einen kabellosen Schnittstelle in der Oberflächeneinheit ausgeführt sind. Entsprechend kann der jeweilige Sender der mindestens einen kabellosen Schnittstelle in der Oberflächeneinheit und der jeweilige Empfänger der mindestens einen kabellosen Schnittstelle in der Modulbox ausgeführt sein. Another embodiment is that the respective Transmitter of at least one wireless interface in the Module box and the respective recipient of the at least one wireless interface in the surface unit are. Accordingly, the respective transmitter can at least a wireless interface in the surface unit and the respective recipient of the at least one wireless Interface in the module box.
Eine andere Weiterbildung besteht darin, daß in der
Oberflächeneinheit eine Eingabevorrichtung vorgesehen ist.
Die Eingabevorrichtung kann folgende Ausprägungen umfassen:
Another development is that an input device is provided in the surface unit. The input device can include the following features:
- a) Joystick,a) joystick,
- b) Taster,b) button,
- c) Kipphebel,c) rocker arm,
- d) abstandssensitiver Sensor,d) distance-sensitive sensor,
- e) berührungssensitiver Sensor,e) touch-sensitive sensor,
- f) druckabhängiger Widerstand,f) pressure-dependent resistance,
- g) Federblech,g) spring plate,
- h) Schalter,h) switches,
- i) Spracherkennungssystem,i) speech recognition system,
- j) Trackball,j) trackball,
- k) Maus,k) mouse,
- l) Touchpad,l) touchpad,
- m) Fingertip Sensor,m) fingertip sensor,
- n) Rolle, Handrad.n) roller, handwheel.
Die vorstehend genannten möglichen Eingabevorrichtungen stellen hierbei nur eine Auswahl dar.The above possible input devices represent only a selection.
Eine zusätzliche Ausgestaltung besteht darin, daß die Oberflächeneinheit einen Sensor zur Umwandlung von Lichtenergie in elektrische Energie aufweist, wobei der Sensor die Oberflächeneinheit mit Strom versorgt.An additional embodiment is that the Surface unit a sensor for converting Has light energy in electrical energy, the Sensor powered the surface unit.
Insbesondere kann der Sensor zur Umwandlung von Lichtenergie in elektrische Energie eine Solarzelle sein.In particular, the sensor can convert light energy be a solar cell in electrical energy.
Ausführungsbeispiele der Erfindung werden nachfolgend anhand der Zeichnungen dargestellt und erläutert.Exemplary embodiments of the invention are described below of the drawings shown and explained.
Es zeigenShow it
Fig. 1 eine Anordnung zur Interaktion; Fig. 1 shows an arrangement for interaction;
Fig. 2 eine Prozessoreinheit; Fig. 2 shows a processing unit;
Fig. 3 eine Anordnung zur Interaktion, die eine Oberflächeneinheit mit zusätzlichen Funktionalitäten aufweist; Fig. 3 shows an arrangement for interaction, which has a surface unit with additional functionalities;
Fig. 4 eine Oberflächeneinheit mit möglichen Eingabevorrichtungen. Fig. 4 shows a surface unit with possible input devices.
Fig. 1 zeigt die Funktionsweise eines Virtual-Touch-Screens. Dabei wird zunächst die Oberflächeneinheit in Form einer passiven Bedienoberfläche BOF vorgestellt. Fig. 1 shows the functioning of a virtual touch screen. First, the surface unit is presented in the form of a passive user interface BOF.
Unter Oberflächeneinheit wird insbesondere die physikalische Ausprägung der Grundfläche, auf die eine Projektion erfolgt verstanden. Der Inhalt der Projektion ist z. B. die Bedienoberfläche BOF.The physical unit is the physical unit Characterization of the base area onto which a projection is made Roger that. The content of the projection is e.g. B. the BOF user interface.
Die Bedienoberfläche BOF (Interaktionsfläche, Abbildung einer graphischen Benutzerschnittstelle GUI) wird auf einen vorgebbaren Bereich (Oberfläche), hier ein Projektionsdisplay PD (Interaktionsfläche), abgebildet. Das Projektionsdisplay PD ersetzt dabei einen konventionellen Bildschirm. Die Eingabe erfolgt durch direktes Zeigen mit der Interaktionskomponente, hier einer Hand H auf die Bedienoberfläche BOF. Dadurch können beispielsweise Tastatur, Maus, Touchscreen oder Digitalisiertablett konventioneller Systeme ersetzt werden. Die Erkennung der Gesten und die Positionierung der Hand innerhalb der Bedienoberfläche BOF werden durch ein videobasiertes System, das in der Lage ist, Projektion und Form zum Beispiel der menschlichen Hand in Echtzeit zu erkennen und zu verfolgen, realisiert. Ferner wird in Fig. 1 das Projektionsdisplay PD mit Infrarotlicht beleuchtet. Die Infrarotlichtquelle IRL kann vorteilhaft mittels Infrarotleuchtdioden ausgeführt sein. Eine Kamera K, die vorzugsweise mit einem speziellen Infrarotfilter IRF, das in einem infraroten Spektralbereich besonders empfindlich ist, ausgestaltet ist, nimmt das Projektionsdisplay PD einschließlich der Hand H des Benutzers auf. Mit einem Projektor P, der von einem Rechner R gesteuert wird, wird die Bedienoberfläche BOF auf das Projektionsdisplay PD abgebildet. Die Bedienoberfläche BOF kann dabei ausgestaltet sein als ein graphische Benutzerschnittstelle (GUI) auf einem Monitor des Rechners R. Ein Mauszeiger MZ wird durch die Hand H des Benutzers bewegt. Anstelle der Hand H kann als Interaktionskomponente auch eine Zeigereinheit eingesetzt werden.The user interface BOF (interaction area, image of a graphical user interface GUI) is mapped onto a predeterminable area (surface), here a projection display PD (interaction area). The PD projection display replaces a conventional screen. The input is made by pointing directly to the interaction component, here a hand H on the BOF user interface. This means that, for example, the keyboard, mouse, touchscreen or digitizing tablet of conventional systems can be replaced. The gesture recognition and the positioning of the hand within the BOF user interface are realized by a video-based system that is able to recognize and track the projection and shape of the human hand, for example, in real time. Furthermore, the projection display PD is illuminated with infrared light in FIG. 1. The infrared light source IRL can advantageously be designed using infrared light-emitting diodes. A camera K, which is preferably designed with a special infrared filter IRF, which is particularly sensitive in an infrared spectral range, takes up the projection display PD including the hand H of the user. With a projector P, which is controlled by a computer R, the user interface BOF is mapped onto the projection display PD. The user interface BOF can be designed as a graphical user interface (GUI) on a monitor of the computer R. A mouse pointer MZ is moved by the hand H of the user. Instead of the hand H, a pointer unit can also be used as the interaction component.
Soll auf der Bedienoberfläche BOF die mit der Betätigung eines Feldes F assoziierte Funktion bzw. Funktionalität ausgelöst werden, so wird die Hand H zu dem Feld F bewegt, der Mauszeiger MZ folgt dabei der Hand H. Verharrt die Hand H für eine vorgebbare Zeitdauer über dem Feld F, so wird die mit dem Feld F assoziierte Funktion auf dem Rechner R ausgelöst. Dies entspricht bei konventionellen Systemen dem Doppelklick mit der Maus, wenn sich der Mauszeiger über einem virtuellen Schalter befindet.If on the BOF user interface, press the button a field F associated function or functionality triggered, hand H is moved to field F, the mouse pointer MZ follows the hand H. The hand H remains for a specifiable period of time over the field F, the function associated with field F on computer R triggered. This corresponds to that in conventional systems Double click with the mouse when the mouse pointer is over one virtual switch.
In Fig. 2 ist eine Prozessoreinheit PRZE (Rechner) darge stellt. Die Prozessoreinheit PRZE umfaßt einen Prozessor CPU, einen Speicher MEM und eine Input/Output-Schnittstelle IOS, die über ein Interface IFC auf unterschiedliche Art und Weise genutzt wird: Über eine Grafikschnittstelle wird eine Ausgabe auf einem Monitor MON, insbesondere einen Projektor, sichtbar und/oder auf einem Drucker PRT ausgegeben. Eine Eingabe erfolgt über eine Maus MAS oder eine Tastatur TAST. Auch verfügt die Prozessoreinheit PRZE über einen Datenbus BUS, der die Verbindung von einem Speicher MEM, dem Prozessor CPU und der Input/Output-Schnittstelle IOS gewährleistet.In Fig. 2, a processor unit PRZE (computer) is Darge. The processor unit PRZE comprises a processor CPU, a memory MEM and an input / output interface IOS, which is used in different ways via an interface IFC: via a graphic interface, an output on a monitor MON, in particular a projector, becomes visible and / or printed on a PRT printer. An entry is made using a mouse MAS or a keyboard TAST. The processor unit PRZE also has a data bus BUS, which ensures the connection of a memory MEM, the processor CPU and the input / output interface IOS.
Weiterhin sind an den Datenbus BUS zusätzliche Komponenten anschließbar, z. B. zusätzlicher Speicher, Datenspeicher (Festplatte), Kamera, Framegrabber, Detektionseinheit, Eingabevorrichtungen, Netzwerkanschlüsse oder Scanner. There are also additional components on the data bus BUS connectable, e.g. B. additional memory, data storage (Hard disk), camera, frame grabber, detection unit, Input devices, network connections or scanners.
Fig. 3 zeigt eine Anordnung zur Interaktion, die eine Oberflächeneinheit aufweist, welche Oberflächeneinheit zusätzliche Funktionalitäten umfaßt. Fig. 3 shows an arrangement for interaction, which has a unit surface area, which surface unit comprises additional functionality.
Eine Modulbox 111 umfaßt einen Rechner (Prozessoreinheit, Auswerteeinheit) 112, eine Kamera (Detektionseinheit für Wellen, bevorzugt von IRL emittierte Strahlung) 113, einen Projektor 127, eine Infrarotbeleuchtung 128 (Quelle für Wellen für nichtsichtbares Licht, bevorzugt Infrarotscheinwerfer).A module box 111 comprises a computer (processor unit, evaluation unit) 112 , a camera (detection unit for waves, preferably radiation emitted by IRL) 113 , a projector 127 , infrared lighting 128 (source for waves for invisible light, preferably infrared headlights).
Die Oberflächeneinheit 121 umfaßt eine Vielzahl von Komponenten, die neben der oben beschriebenen berührungslosen Interaktion auch eine berührungssensitive Interaktion ermöglichen.The surface unit 121 comprises a large number of components which, in addition to the contactless interaction described above, also enable a touch-sensitive interaction.
In der Anordnung von Fig. 3 sind einige kabellose Schnittstellen dargestellt. Eine Laserdiode 114, die in der Modulbox vorgesehen ist, strahlt gezielt auf eine Fotodiode 120, die in der Oberflächeneinheit 121 angeordnet ist, ab. Es erfolgt somit eine optische Energieübertragung von der Laserdiode 114 zum zugehörigen Sensor (Fotodiode 120). In der umgekehrten Richtung wird von einem optischen Sender 119, zum Beispiel einer Leuchtdiode oder einer Laserdiode, die beide bevorzugt im nicht sichtbaren Spektralbereich Licht emittieren, zu einer Fotodiode 115 Energie oder Daten/Signale übertragen. Die übertragene Energie, insbesondere von der Modulbox 111 zur der Oberflächeneinheit 121, kann durch Wandlung in elektrische Energie beim Empfänger zum Betreiben einer Eingabevorrichtung oder der Oberflächeneinheit selbst eingesetzt werden. Teile der Oberflächeneinheit können austauschbar ausgeführt sein.In the arrangement of Fig. 3, some wireless interfaces are shown. A laser diode 114 , which is provided in the module box, radiates specifically onto a photodiode 120 , which is arranged in the surface unit 121 . Optical energy is thus transmitted from laser diode 114 to the associated sensor (photodiode 120 ). In the reverse direction, for example, a light emitting diode or a laser diode of an optical transmitter 119, which are both preferably in the invisible spectral range emit light transmitted to a photodiode 115 power or data / signals. The transmitted energy, in particular from the module box 111 to the surface unit 121 , can be used by converting it into electrical energy at the receiver for operating an input device or the surface unit itself. Parts of the surface unit can be made interchangeable.
Ein Joystick 118 zeigt eine signalgebende Eingabevorrichtung, die den optischen Sender 119 ansteuert. Die Signale, die über die Interaktion des Joystick 118 an die Auswerteeinheit 112 übermittelt werden, werden über die Duplexverbindung aus Sendern 119, 114 und Empfängern 120, 115, übertragen. Die Übertragung erfolgt ohne elektrische Leitungen, das heißt sicher gegen Vandalismus und für den Benutzer unsichtbar. Eine Energieversorgung der Oberflächeneinheit 121 erfolgt über eine Solarzelle 122. Neben der Solarzelle kann gezielt eine Energieübertragung von der Modulbox 111 zu der Oberflächeneinheit 121 erfolgen, indem die Laserdiode 114 den optischen Empfänger 120 speist, wobei der optische Empfänger 120 die Lichtenergie in elektrische Energie zum Betrieb der Oberflächeneinheit umwandelt.A joystick 118 shows a signaling input device that controls the optical transmitter 119 . The signals that are transmitted to the evaluation unit 112 via the interaction of the joystick 118 are transmitted via the duplex connection from transmitters 119 , 114 and receivers 120 , 115 . The transmission takes place without electrical cables, which means that it is secure against vandalism and invisible to the user. The surface unit 121 is supplied with energy via a solar cell 122 . In addition to the solar cell, energy can be transmitted in a targeted manner from the module box 111 to the surface unit 121 by the laser diode 114 feeding the optical receiver 120 , the optical receiver 120 converting the light energy into electrical energy for operating the surface unit.
In Fig. 3 ist zusätzlich eine Vollduplex-Sender-Empfänger-Verbindung auf Basis von Ultraschall dargestellt. Dazu sind Ultraschallsender 123 und 125 bzw. Ultraschallempfänger 124 und 126 vorgesehen.In Fig. 3 is a full-duplex transceiver connection is illustrated based on ultrasound. For this purpose, ultrasonic transmitters 123 and 125 or ultrasonic receivers 124 and 126 are provided.
Eine weitere kabellose Schnittstelle elektromagnetischer Art ist in Form der Empfangs- bzw. Sendespulen 130 und 116 dargestellt. Ein Tastenfeld 117 übermittelt Signale, die über die Sendespule 116 von der Oberflächeneinheit 121 zu der Modulbox 111, dort in die Empfangsspule 130, übertragen werden. Der Rechner 112 übernimmt die Codierung der übermittelten Signale in vorgegebene Aktionen.Another wireless interface of an electromagnetic type is shown in the form of the receiving and transmitting coils 130 and 116 . A keypad 117 transmits signals which are transmitted via the transmission coil 116 from the surface unit 121 to the module box 111 , there into the reception coil 130 . The computer 112 takes over the coding of the transmitted signals into predetermined actions.
Fig. 4 zeigt eine Oberflächeneinheit 216 mit möglichen Eingabevorrichtungen. Eine Fläche 211 ist als Informationsfläche vorgesehen. Zwei lichtempfindliche Eingabevorrichtungen (Fotodioden) sind geeignet, bestimmte Umgebungsbeleuchtungen aufzunehmen (optische Taste, Reflexlichtschranke). Ansonsten sind in Fig. 4 vorgesehen: Ein Joystick 214, Drucktaster bzw. Druckschalter 217, eine Projektionsfläche 218, eine dreidimensionale Gestaltung einer Interaktionsfläche in Form einer Erhöhung 219 und einer Vertiefung 220 und eine Fläche 221, die von der Kamera 113 in Fig. 3 aufgenommen wird. Fig. 4 shows a surface unit 216 with possible input devices. A surface 211 is provided as an information surface. Two light-sensitive input devices (photodiodes) are suitable for recording certain ambient lighting (optical button, reflex light barrier). Otherwise, the following are provided in FIG. 4: a joystick 214 , pushbutton or pushbutton switch 217 , a projection surface 218 , a three-dimensional design of an interaction surface in the form of an elevation 219 and a depression 220 and a surface 221 that is generated by the camera 113 in FIG. 3 is recorded.
[1] US 5,528,263
[2] DE 197 08 240.[1] US 5,528,263
[2] DE 197 08 240.
Claims (17)
- a) bei der eine Oberflächeneinheit vorgesehen ist, die getrennt von einer Modulbox ausgeführt ist;
- b) bei der die Modulbox die folgenden Komponenten
aufweist:
- 1. einen Projektor, anhand dessen auf der Oberflächeneinheit eine Abbildung darstellbar ist;
- 2. eine Kamera, die die Oberflächeneinheit aufnimmt;
- 3. einen Rechner, der den Projektor steuert und Aufnahmen der Kamera auswertet derart, daß eine Aufnahme einer Bewegung oder eines Verweilens einer Interaktionskomponente auf bzw. vor der Oberflächeneinheit als Funktionalität eines Eingabezeigers interpretierbar ist;
- c) bei der zwischen der Modulbox und der Oberflächeneinheit mindestens eine kabellose Schnittstelle existiert.
- a) in which a surface unit is provided, which is designed separately from a module box;
- b) in which the module box has the following components:
- 1. a projector, on the basis of which an image can be displayed on the surface unit;
- 2. a camera that records the surface unit;
- 3. a computer which controls the projector and evaluates recordings of the camera in such a way that recording a movement or a dwelling of an interaction component on or in front of the surface unit can be interpreted as functionality of an input pointer;
- c) in which at least one wireless interface exists between the module box and the surface unit.
- a) Sendeantenne,
- b) Richtantenne,
- c) Richtkoppler,
- d) Dipolantenne.
- a) transmitting antenna,
- b) directional antenna,
- c) directional coupler,
- d) Dipole antenna.
- a) Antennenspule,
- b) Schlitzantenne,
- c) Dipolantenne.
- a) antenna coil,
- b) slot antenna,
- c) Dipole antenna.
- a) Joystick,
- b) Taster,
- c) Kipphebel,
- d) abstandssensitiver Sensor,
- e) berührungssensitiver Sensor,
- f) druckabhängiger Widerstand,
- g) Federblech,
- h) Schalter,
- i) Spracherkennungssystem,
- j) Trackball,
- k) Maus,
- l) Touchpad,
- m) Fingertip Sensor,
- n) Rolle, Handrad.
- a) joystick,
- b) button,
- c) rocker arm,
- d) distance-sensitive sensor,
- e) touch-sensitive sensor,
- f) pressure-dependent resistance,
- g) spring plate,
- h) switches,
- i) speech recognition system,
- j) trackball,
- k) mouse,
- l) touchpad,
- m) fingertip sensor,
- n) roller, handwheel.
- a) eine Hand eines Benutzers;
- b) ein Finger eines Benutzers;
- c) eine Zeigereinheit.
- a) a hand of a user;
- b) a finger of a user;
- c) a pointer unit.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE1999151322 DE19951322A1 (en) | 1999-10-25 | 1999-10-25 | Interactive arrangement of a virtual touch screen type has a wireless connection between an operating module and the virtual touch screen operating surface to improve resistance to vandalism |
PCT/DE2000/003716 WO2001031424A2 (en) | 1999-10-25 | 2000-10-20 | Interactive system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE1999151322 DE19951322A1 (en) | 1999-10-25 | 1999-10-25 | Interactive arrangement of a virtual touch screen type has a wireless connection between an operating module and the virtual touch screen operating surface to improve resistance to vandalism |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19951322A1 true DE19951322A1 (en) | 2001-04-26 |
Family
ID=7926770
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE1999151322 Withdrawn DE19951322A1 (en) | 1999-10-25 | 1999-10-25 | Interactive arrangement of a virtual touch screen type has a wireless connection between an operating module and the virtual touch screen operating surface to improve resistance to vandalism |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE19951322A1 (en) |
WO (1) | WO2001031424A2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10260305A1 (en) * | 2002-12-20 | 2004-07-15 | Siemens Ag | HMI setup with an optical touch screen |
DE102008046092A1 (en) * | 2007-09-06 | 2009-09-03 | Bernd Hopp | Endless navigator for e.g. controlling, e.g. data, in computer, has operating region with control unit, where borders of operating region are arranged such that functional unit is removed from and integrated to operating region |
US7860587B2 (en) | 2004-01-29 | 2010-12-28 | Heidelberger Druckmaschinen Ag | Projection-area dependent display/operating device |
DE102011119082A1 (en) * | 2011-11-21 | 2013-05-23 | Übi UG (haftungsbeschränkt) | Device arrangement for providing interactive screen of picture screen, has pointer which scans gestures in close correlation with screen, and control unit is configured to interpret scanned gestures related to data as user input |
DE102016224260A1 (en) * | 2016-12-06 | 2018-06-07 | Bayerische Motoren Werke Aktiengesellschaft | User interface, means of locomotion and method for entering information into a means of transportation |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100539904B1 (en) * | 2004-02-27 | 2005-12-28 | 삼성전자주식회사 | Pointing device in terminal having touch screen and method for using it |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5528263A (en) * | 1994-06-15 | 1996-06-18 | Daniel M. Platzker | Interactive projected video image display system |
DE29804165U1 (en) * | 1998-03-09 | 1998-05-07 | Scm Microsystems Gmbh | Peripheral data communication device |
DE19708240A1 (en) * | 1997-02-28 | 1998-09-10 | Siemens Ag | Arrangement for the detection of an object in a region illuminated by waves in the invisible spectral range |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19734511A1 (en) * | 1997-08-08 | 1999-02-11 | Siemens Ag | Communication device |
DE19806021A1 (en) * | 1998-02-13 | 1999-08-19 | Siemens Nixdorf Inf Syst | Device with virtual input device |
JP2002539742A (en) * | 1999-03-17 | 2002-11-19 | シーメンス アクチエンゲゼルシヤフト | Equipment for dialogue |
-
1999
- 1999-10-25 DE DE1999151322 patent/DE19951322A1/en not_active Withdrawn
-
2000
- 2000-10-20 WO PCT/DE2000/003716 patent/WO2001031424A2/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5528263A (en) * | 1994-06-15 | 1996-06-18 | Daniel M. Platzker | Interactive projected video image display system |
DE19708240A1 (en) * | 1997-02-28 | 1998-09-10 | Siemens Ag | Arrangement for the detection of an object in a region illuminated by waves in the invisible spectral range |
DE29804165U1 (en) * | 1998-03-09 | 1998-05-07 | Scm Microsystems Gmbh | Peripheral data communication device |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10260305A1 (en) * | 2002-12-20 | 2004-07-15 | Siemens Ag | HMI setup with an optical touch screen |
US7230611B2 (en) | 2002-12-20 | 2007-06-12 | Siemens Aktiengesellschaft | HMI device with optical touch screen |
US7860587B2 (en) | 2004-01-29 | 2010-12-28 | Heidelberger Druckmaschinen Ag | Projection-area dependent display/operating device |
DE102008046092A1 (en) * | 2007-09-06 | 2009-09-03 | Bernd Hopp | Endless navigator for e.g. controlling, e.g. data, in computer, has operating region with control unit, where borders of operating region are arranged such that functional unit is removed from and integrated to operating region |
DE102011119082A1 (en) * | 2011-11-21 | 2013-05-23 | Übi UG (haftungsbeschränkt) | Device arrangement for providing interactive screen of picture screen, has pointer which scans gestures in close correlation with screen, and control unit is configured to interpret scanned gestures related to data as user input |
DE102016224260A1 (en) * | 2016-12-06 | 2018-06-07 | Bayerische Motoren Werke Aktiengesellschaft | User interface, means of locomotion and method for entering information into a means of transportation |
Also Published As
Publication number | Publication date |
---|---|
WO2001031424A2 (en) | 2001-05-03 |
WO2001031424A3 (en) | 2001-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0963563B1 (en) | Method and device for detecting an object in an area radiated by waves in the invisible spectral range | |
DE4423005C1 (en) | Computer data entry stylus with indistinguishable contact surfaces | |
EP2761399B1 (en) | Dataglove having tactile feedback and method | |
DE69914659T2 (en) | Input device for computers in the form of a pen | |
EP1998996B1 (en) | Interactive operating device and method for operating the interactive operating device | |
DE10221415B4 (en) | Optical push-button screen pointing device | |
DE69835665T2 (en) | RETROFIT KIT FOR THE CONVERSION OF AN ESSENTIALLY LEVEL SURFACE INTO AN ELECTRONIC DATA COLLECTION DEVICE | |
DE19810452B4 (en) | Optical digitizer | |
DE20221921U1 (en) | Portable electronic device with mouse-like capabilities | |
WO2003076870A1 (en) | Device and method for optoelectronically identifying the displacement and/or position of an object | |
EP2561426B1 (en) | Operating device | |
DE112005001922T5 (en) | Glove signal input device for data processing system | |
EP2016480A2 (en) | Optoelectronic device for the detection of the position and/or movement of an object, and associated method | |
WO2008116642A2 (en) | Mobile communication device and input device for the same | |
EP1184804B1 (en) | Image reproduction system | |
EP2754016A1 (en) | Control device for a motor vehicle and method for operating the control device for a motor vehicle | |
EP2331362A2 (en) | Operator control apparatus and method for operating an operator control apparatus with improved approach sensing | |
EP1133752A1 (en) | Input device for a computer | |
DE19951322A1 (en) | Interactive arrangement of a virtual touch screen type has a wireless connection between an operating module and the virtual touch screen operating surface to improve resistance to vandalism | |
CN105700715B (en) | A kind of Pen for turning page and its control method of controllable computer cursor | |
DE69630720T2 (en) | Portable optical scanning and pointing system | |
WO1992005483A1 (en) | Data input device | |
EP1895392A1 (en) | Device for operating the functions of a device | |
DE102010025734B4 (en) | Method for generating an input command for an optical sensor | |
DE4321825C2 (en) | Computer input or control device for rooms with high EM interference, explosive or contaminated rooms |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8130 | Withdrawal |