DE102007005027B4 - Display and operating device for a motor vehicle with an interactive user interface - Google Patents

Display and operating device for a motor vehicle with an interactive user interface Download PDF

Info

Publication number
DE102007005027B4
DE102007005027B4 DE102007005027.7A DE102007005027A DE102007005027B4 DE 102007005027 B4 DE102007005027 B4 DE 102007005027B4 DE 102007005027 A DE102007005027 A DE 102007005027A DE 102007005027 B4 DE102007005027 B4 DE 102007005027B4
Authority
DE
Germany
Prior art keywords
display
user
detection volume
user interface
core detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102007005027.7A
Other languages
German (de)
Other versions
DE102007005027A1 (en
Inventor
Katharina BACHFISCHER
Lennart BENDEWALD
Christoph Wäller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102007005027.7A priority Critical patent/DE102007005027B4/en
Publication of DE102007005027A1 publication Critical patent/DE102007005027A1/en
Application granted granted Critical
Publication of DE102007005027B4 publication Critical patent/DE102007005027B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Abstract

Anzeige- und Bedienvorrichtung (2) für ein Kraftfahrzeug (1) umfassend eine als Touchscreen ausgebildete Anzeigevorrichtung (3), eine mit der Anzeigvorrichtung (3) gekoppelte Steuereinheit (5) und eine Speichervorrichtung (6), wobei die Speichervorrichtung (6) Daten umfasst, mittels derer im Zusammenwirken mit der Steuereinheit (5) eine Benutzerschnittstelle zum Bedienen mindestens eines Fahrzeugsystems (13–16), einer Fahrzeugfunktion und/oder eines Dienstes umsetzbar ist, wobei mit der Steuereinheit (5) eine Positionsbestimmungseinheit (29) zum Ermitteln einer dreidimensionalen Position eines Betätigungselements, insbesondere eines Körperteils, eines Nutzers im Raum gekoppelt ist und die Benutzerschnittstelle ausgestaltet ist, interaktiv in Abhängigkeit der ermittelten Position beeinflusst zu werden und relativ zu einer Anzeigefläche (4) der Anzeigevorrichtung (3) in einem Erfassungs- oder Detektionsbereichs der Positionsbestimmungseinheit (29) ein Kerndetektionsvolumen (30) definiert ist, innerhalb dessen eine Anwesenheit des Betätigungselements des Nutzers erkannt wird, wobei eine interaktive Reaktion der Benutzerschnittstelle beim Erkennen der Anwesenheit in dem Kerndetektionsvolumen (30) ausgelöst wird und wobei die Benutzerschnittstelle so ausgestaltet ist, dass eine auf der erfassten Anwesenheit des Betätigungselements beruhende interaktive Reaktion nur beim Erfassen des Betätigungselements in dem Kerndetektionsvolumen (30) stattfindet, wobei das Kerndetektionsvolumen (30) einen Raumbereich umfasst und eine Seitenfläche des Raumbereichs angrenzend an die Anzeigefläche (4) parallel zu dieser ausgerichtet ist und diese überdeckt, wobei die Positionsbestimmungseinheit (29) ausgebildet ist, eine Position des Betätigungselements eindeutig einem von mehreren Segmentvolumina (38–42) des Kerndetektionsvolumens (30) zuzuordnen, um eine positionsabhängige, differenzierte interaktive Beeinflussung der Benutzerschnittstelle zu ermöglichen, wobei die Segmentvolumina (38–42) Teilvolumina des Kerndetektionsvolumens (30) sind und jeweils eine der Anzeigefläche (4) zugewandte, parallel zur Anzeigefläche (4) ausgerichtete Grundfläche (43–47) aufweisen, wobei die Grundflächen (43–47) die Anzeigefläche (4) segmentieren, wobei die interaktive Reaktion von der dem jeweiligen Segmentvolumen zugeordneten ermittelten Position abhängig ist, wobei ...Display and operating device (2) for a motor vehicle (1) comprising a display device (3) designed as a touch screen, a control unit (5) coupled to the display device (3) and a storage device (6), the storage device (6) comprising data , by means of which, in cooperation with the control unit (5), a user interface for operating at least one vehicle system (13-16), a vehicle function and / or a service can be implemented, with the control unit (5) a position determination unit (29) for determining a three-dimensional Position of an actuating element, in particular a body part, a user is coupled in space and the user interface is configured to be interactively influenced as a function of the determined position and relative to a display surface (4) of the display device (3) in a detection or detection range of the position determination unit (29) a core detection volume (30) de within which a presence of the user's operating element is detected, wherein an interactive response of the user interface is triggered upon detecting the presence in the core detection volume (30), and wherein the user interface is configured such that an interactive one based on the detected presence of the actuator Reaction occurs only upon detection of the actuator in the core detection volume (30), wherein the core detection volume (30) comprises a space area and a side surface of the space area adjacent to the display surface (4) is aligned parallel thereto and covers it, the position determination unit (29) is configured to uniquely associate a position of the actuator with one of a plurality of segment volumes (38-42) of the core detection volume (30) to enable position dependent, differentiated interactive manipulation of the user interface, the Se Part volumes of the core detection volume (30) and each one of the display surface (4) facing, parallel to the display surface (4) aligned base surface (43-47), wherein the base surfaces (43-47), the display surface (4 ), wherein the interactive response depends on the determined position associated with the respective segment volume, where ...

Description

Die Erfindung betrifft eine Anzeige- und Bedienvorrichtung für ein Kraftfahrzeug, umfassend eine als Touchscreen ausgebildete Anzeigevorrichtung, eine mit der Anzeigevorrichtung gekoppelte Steuereinheit und eine Speichervorrichtung, wobei die Speichervorrichtung Daten umfasst, mittels derer im Zusammenwirken mit der Steuereinheit eine Benutzerschnittstelle zum Bedienen mindestens eines Fahrzeugsystems, einer Fahrzeugfunktion und/oder eines Dienstes umsetzbar ist.The invention relates to a display and control device for a motor vehicle, comprising a display device designed as a touch screen, a control unit coupled to the display device and a memory device, wherein the memory device comprises data, by means of which in cooperation with the control unit a user interface for operating at least one vehicle system, a vehicle function and / or a service can be implemented.

Aus dem Stand der Technik ist es bekannt, als Touchscreen ausgebildete Anzeigevorrichtungen zu verwenden, auf denen eine Benutzerschnittstelle ausgebildet ist, über die ein oder mehrere Fahrzeugfunktionen, Fahrzeugsysteme und/oder fahrzeuginterne oder fahrzeugexterne Dienste bedient werden können. Beispielsweise ist aus der DE 10 2005 007 642 A1 eine Eingabevorrichtung für ein Kraftfahrzeug mit einem Touchscreen bekannt. Auch aus der DE 10 2004 031 659 A1 ist ein Bedienelement für ein Kraftfahrzeug bekannt, das einen Touchscreen zur optischen Darstellung von Informationen und zur Eingabe von Befehlen durch Berühren des Touchscreens oder durch Drücken auf den Touchscreen umfasst, wobei der Touchscreen rund ausgebildet ist.From the prior art, it is known to use display devices designed as a touch screen, on which a user interface is formed, via which one or more vehicle functions, vehicle systems and / or in-vehicle or vehicle-external services can be operated. For example, is from the DE 10 2005 007 642 A1 an input device for a motor vehicle with a touch screen known. Also from the DE 10 2004 031 659 A1 a control element for a motor vehicle is known, which comprises a touch screen for visual display of information and for entering commands by touching the touch screen or by pressing on the touch screen, wherein the touch screen is round.

Aus der WO 02/16875 A1 ist ein Verfahren zum Abfragen von Zielinformationen innerhalb einer Kartenansicht bekannt, bei dem aufgrund einer Benutzereingabe ein dreidimensionales Objekt ausgewählt wird und mit diesem verknüpfte Daten ausgegeben werden. Zum Navigieren in der Kartenansicht werden vorzugsweise die Gesten eines Benutzers ausgewertet. Damit kann ein Benutzer virtuell in einer Kartenansicht navigieren und auf einfache Weise objektbezogene Zielinformation abfragen.From the WO 02/16875 A1 A method is known for querying destination information within a map view, in which, based on a user input, a three-dimensional object is selected and data associated therewith are output. To navigate in the map view, the gestures of a user are preferably evaluated. This allows a user to navigate virtually in a map view and easily query object-related destination information.

Aus der DE 103 26 215 A1 ist eine Bedienvorrichtung mit konkreten Bedienelementen, mit einem im Sichtbereich einer Bedienperson angeordneten Bildschirm und mit einer Bildschirmanzeige, die abhängig von derBetätigung des jeweiligen Bedienelements änderbar ist, bekannt. Den Bedienelementen ist eine Sensorik zum berührungslosen Erfassen der Präsenz und/oder Bewegung der Bedienperson, im Nahbereich des jeweiligen Bedienelements zugeordnet. Die Bildschirmanzeige stellt dann eine Information über die mit dem Bedienelement bedienbare Funktion dar.From the DE 103 26 215 A1 is an operating device with concrete controls, with an arranged in the field of view of an operator screen and with a screen display, which is changeable depending on the operation of the respective control element known. The controls are associated with a sensor for contactless detection of the presence and / or movement of the operator, in the vicinity of the respective control element. The screen display then provides information about the operable with the control function.

Die US 2004/0189720 A1 beschreibt ein Computersystem, welches über Gesten und/oder Sprachbefehle steuerbar ist. Hierfür wird ein Wechselwirkungsbereich beabstandet von einer Anzeigefläche überwacht.The US 2004/0189720 A1 describes a computer system which is controllable via gestures and / or voice commands. For this purpose, an interaction region is monitored at a distance from a display surface.

Aufgrund eines begrenzten Bauraums in einem Kraftfahrzeug ist eine Größe des Touchscreens in der Regel begrenzt. Da der Touchscreen zugleich zur Informationsdarstellung und zur Bedienung verwendet werden soll, wofür in der Regel eine Einblendung von Bedienelementen erforderlich ist, tritt hinsichtlich der zur Verfügung stehenden Anzeigefläche ein Ressourcenkonflikt auf. Bei den im Stand der Technik bekannten Vorrichtungen ist vorgesehen, über eine erste Betätigungshandlung zwischen einem Anzeigemodus, in dem bevorzugt Informationen dargestellt werden, und einem Bedienmodus umzuschalten, in dem virtuelle Bedienelemente und/oder Bedienelementzuordnungen dargestellt werden. Unter Bedienelementzuordnungen werden Darstellungen von Informationen verstanden. die eine Funktionszuordnung für eine Bedienhandlung ermöglichen, beispielsweise eine einem getrennt von der Anzeigevorrichtung ausgebildeten Bedienelement in einem aktuellen Kontext zugewiesene Funktion angeben.Due to a limited installation space in a motor vehicle, a size of the touch screen is usually limited. Since the touch screen is to be used at the same time for displaying information and for operation, which usually requires a display of operating elements, a resource conflict occurs with regard to the available display area. In the devices known in the prior art, it is provided to switch over a first actuating action between a display mode in which information is preferably displayed and an operating mode in which virtual operating elements and / or operating element assignments are displayed. Control mappings are understood to be representations of information. which allow a function assignment for an operator action, for example, specify a function assigned to a control element formed separately from the display device in a current context.

Der Erfindung liegt die Aufgabe zugrunde, eine einfacher zu bedienende, an die Bedürfnisse eines Fahrers und/oder Beifahrers angepasste Anzeige- und Bedienvorrichtung für ein Kraftfahrzeug zu schaffen, die insbesondere eine Anzahl erforderlicher Betätigungshandlungen zum Auslösen einer Fahrzeugfunktion oder Bedienen eines Fahrzeugsystems oder Dienstes minimiert.The invention has for its object to provide an easier-to-use, adapted to the needs of a driver and / or passenger display and control device for a motor vehicle, which minimizes in particular a number of required actuating actions for triggering a vehicle function or operating a vehicle system or service.

Die Aufgabe wird erfindungsgemäß durch eine Anzeige- und Bedienvorrichtung mit den Merkmalen des Patentanspruchs 1 gelöst. Vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.The object is achieved by a display and control device with the features of claim 1. Advantageous embodiments of the invention will become apparent from the dependent claims.

Hierfür ist bei einer Anzeige- und Bedienvorrichtung eingangs genannter Art vorgesehen, mit der Steuereinheit eine Positionsbestimmungseinheit zum Ermitteln einer dreidimensionalen Position eines Betätigungselements eines Nutzers, das vorzugsweise eine Körperteil, bevorzugter eine Hand und am Bevorzugtesten ein ausgestreckter Finger ist, im Raum zu koppeln und die Benutzerschnittstelle so auszugestalten, dass sie interaktiv in Abhängigkeit der ermittelten Position beeinflusst wird. Hierdurch wird es möglich, die im Raum ausgeführte Bewegung des Nutzers mit in die Steuerung der Fahrzeugfunktionen einzubeziehen. Die Anzeige- und Bedienvorrichtung nutzt somit Handlungen des Nutzers, die einer Betätigung eines Bedienelements nach dem Stand der Technik vorausgehen. Hierdurch ist es möglich, die Benutzerschnittstelle so auszugestalten, dass beispielsweise bei einer Annäherung des Körperteils an die Anzeigevorrichtung die Benutzerschnittstelle von einem Anzeigemodus in einen Bedienmodus wechselt. Während in einem Anzeigemodus bevorzugt Informationen über das zu bedienende Fahrzeugsystem, die Fahrzeugfunktion und/oder den Dienst dargestellt werden, sind in einem Bedienmodus Informationen wiedergegeben, die eine Bedienung des entsprechenden Fahrzeugsystems, der Fahrzeugfunktion und/oder des Dienstes erleichtern oder ermöglichen. Beispielsweise können virtuelle Bedienelemente auf der als Touchscreen ausgebildeten Anzeigevorrichtung angezeigt werden. Ebenso können Bedienelementzuordnungen eingeblendet werden.For this purpose is provided in a display and control device of the type mentioned above, with the control unit, a position determining unit for determining a three-dimensional position of an actuating element of a user, which is preferably a body part, more preferably a hand and most preferably an extended finger to couple in space and the Design user interface so that it interactively influenced depending on the position determined. This makes it possible to include the movement of the user in the room with the control of the vehicle functions. The display and operating device thus utilizes actions of the user which precede an operation of a control element according to the prior art. This makes it possible to design the user interface in such a way that, for example, when the body part approaches the display device, the user interface changes from a display mode to an operating mode. While information about the vehicle system to be operated, the vehicle function and / or the service is preferably displayed in a display mode are in an operating mode Reproduced information that facilitates or enables operation of the corresponding vehicle system, the vehicle function and / or the service. For example, virtual controls can be displayed on the display device designed as a touch screen. Likewise, control element assignments can be displayed.

In dem Erfassungsbereich der Positionsbestimmungseinheit ist ein relativ zu einer Anzeigefläche der Anzeigevorrichtung definiertes Kerndetektionsvolumen vorgesehen, innerhalb dessen eine Anwesenheit des Betätigungselements (des Körperteils) des Nutzers erkannt wird, wobei eine interaktive Reaktion der Benutzerschnittstelle beim Erkennen der Anwesenheit in dem Kerndetektionsvolumen ausgelöst wird und wobei die Benutzerschnittstelle so ausgestaltet ist, dass eine auf der erfassten Anwesenheit des Betätigungselements beruhende interaktive Reaktion nur beim Erfassen des Betätigungselements in dem Kerndetektionsvolumen stattfindet. Hierdurch wird die Möglichkeit geschaffen, Randbereiche des Erfassungs- oder Detektionsbereichs der Positionsbestimmungseinheit quasi als nicht-detektierte Bereiche zu behandeln. Dies bedeutet, dass ein Nutzer außerhalb des Kerndetektionsvolumens seine Körperteile frei bewegen kann, ohne die Benutzerschnittstelle interaktiv zu beeinflussen. Hierdurch wird die Möglichkeit geschaffen, die Anzeige- und Bedienvorrichtung benachbart zu Komponenten, wie einem Lenkrad, anzuordnen, das zumindest teilweise in den Detektionsbereich der Positionsbestimmungseinheit hineinragt, dessen Betätigung jedoch keine interaktive Beeinflussung der Benutzerschnittstelle auslösen soll. Nur eine gezielte, mit Bedienabsicht ausgeführte Betätigungshandlung, bei der ein Körperteil in das Kerndetektionsvolumen bewegt wird, führt somit zu einer interaktiven Beeinflussung der Benutzerschnittstelle.In the detection area of the position determination unit, there is provided a core detection volume defined relative to a display surface of the display device, within which presence of the user's operating part (body part) is detected, whereby an interactive response of the user interface is triggered upon detecting the presence in the core detection volume, and wherein the User interface is designed so that an interactive reaction based on the detected presence of the actuator takes place only upon detection of the actuating element in the core detection volume. As a result, the possibility is created to treat edge regions of the detection or detection region of the position determination unit as quasi non-detected regions. This means that a user outside the core detection volume can freely move his body parts without interactively affecting the user interface. This creates the possibility of arranging the display and operating device adjacent to components, such as a steering wheel, which projects at least partially into the detection area of the position-determining unit, but whose actuation is not intended to trigger interactive influencing of the user interface. Only a targeted, executed with control intent operation, in which a body part is moved into the core detection volume, thus leading to an interactive influencing the user interface.

Eine einfache und intuitive Bedienung der Anzeige- und Bedienvorrichtung setzt voraus, dass der Nutzer sich das Kerndetektionsvolumen gedanklich im Raum einfach vorstellen kann. Die Erfindung sieht vor, dass das Kerndetektionsvolumen einen Raumbereich umfasst und eine Seitenfläche des Raumbereichs angrenzend an die Anzeigefläche parallel zu dieser ausgerichtet ist und diese überdeckt. Vorzugsweise ist somit die Anzeigefläche selbst eine Grundfläche eines parallelepipedförmigen Raumbereichs, der von dem Kerndetektionsvolumen umfasst ist. In der Regel wird das Kerndetektionsvolumen selbst parallelepipedförmig ausgebildet sein. Für einen Benutzer ist es somit einfach möglich, den Bereich im Raum abzuschätzen, in dem er seine Körperteile bewegen kann, ohne eine Beeinflussung der interaktiven Benutzerschnittstelle auszulösen, beziehungsweise in welchen Raumbereich er sein Körperteil bewegen muss, um die interaktive Benutzerschnittstelle zu beeinflussen. Ein quaderförmiger Raum, der quasi ein Extrusionskörper der Anzeigefläche ist, ist hierbei besonders einfach vorstellbar. Je nach Einbaulage im Fahrzeug kann es jedoch vorteilhaft sein, dass der so entstehende parallelepipedförmige Raumbereich nicht entlang einer Flächennormalen der Anzeigefläche, die ”extrudiert” ist, sondern entlang eines Vektors, der einer bevorzugten Bedienrichtung eines Körperteils, insbesondere eines Fingers, eines Nutzers entspricht, der seinen Finger auf die Mitte der Anzeigevorrichtung bewegt, extrudiert ist.A simple and intuitive operation of the display and operating device requires that the user can easily imagine the core detection volume in the room. The invention provides that the core detection volume comprises a space area and a side surface of the space area adjacent to the display area is aligned parallel thereto and covers it. Preferably, therefore, the display surface itself is a base of a parallelepiped-shaped space region encompassed by the core detection volume. As a rule, the core detection volume itself will be parallelepiped-shaped. It is thus easily possible for a user to estimate the area in the room in which he can move his body parts without causing an influence on the interactive user interface or in which room area he has to move his body part in order to influence the interactive user interface. A cuboidal space, which is virtually an extrusion body of the display surface, is particularly easy to imagine. Depending on the installation position in the vehicle, however, it may be advantageous that the resulting parallelepiped-shaped space region does not correspond to a surface normal of the display surface which is "extruded" but along a vector which corresponds to a preferred operating direction of a body part, in particular a finger, of a user. who moves his finger to the center of the display device is extruded.

Um eine positionsabhängige, differenzierte interaktive Beeinflussung der Benutzerschnittstelle zu ermöglichen, ist gemäß der Erfindung vorgesehen, dass die Positionsbestimmungseinheit ausgebildet ist, eine Position des Körperteils eindeutig einem von mehreren Segmentvolumina des Kerndetektionsvolumens zuzuordnen, wobei die Segmentvolumina Teilvolumina des Kerndetektionsvolumens sind und jeweils eine der Anzeigefläche zugewandte, parallel zur Anzeigefläche ausgerichtete Grundfläche aufweisen, wobei die Grundflächen die Anzeigefläche segmentieren.In order to enable a position-dependent, differentiated interactive influencing of the user interface, it is provided according to the invention that the position determination unit is designed to uniquely associate a position of the body part with one of a plurality of segment volumes of the core detection volume, the segment volumes being partial volumes of the core detection volume and each facing the display surface , Have aligned parallel to the display surface base, the base areas segment the display surface.

Um eine Zuordenbarkeit eines innerhalb der Grundfläche eines der Teilvolumina dargestellten grafischen Inhalts zu dem jeweiligen Teilvolumen für den Nutzer einfach zu ermöglichen, ist vorzugsweise vorgesehen, dass die Segmentvolumina parallelepipedförmige, vorzugsweise quaderförmige weitere Raumbereiche umfassen und besonders bevorzugt parallelepipedförmig, vorzugsweise quaderförmig, ausgebildet sind.In order to make it easy to assign a graphical content to the respective subvolume represented within the base area of one of the subvolumes for the user, it is preferably provided that the segment volumes comprise parallelepiped-shaped, preferably parallelepipedal, further space regions and particularly preferably parallelepiped-shaped, preferably parallelepipedal.

Für bestimmte Funktionalitäten der Benutzerschnittstelle hat es sich als vorteilhaft herausgestellt, einen Teilbereich des Kerndetektionsvolumens vorzusehen, der keinem der Segmentvolumina zugeordnet ist. Die Erfindung sieht daher vor, dass das Kerndetektionsvolumen Raumpunkte in einem größeren Abstand von der Anzeigefläche umfasst, als die Segmentvolumina, wobei der Abstand entlang einer Flächennormalen beziehungsweise parallel zu einer Flächennormalen der Anzeigefläche gemessen wird. Dies bedeutet, dass das Kerndetektionsvolumen erfindungsgemäß Raumpunkte umfasst, die von keinem der Segmentvolumina umfasst sind. Diese Raumpunkte weisen ferner einen größeren Abstand von einer virtuellen Ebene auf, in der die Anzeigefläche liegt, als Raumpunkte der Segmentvolumina. Hierbei ist die Anzeigefläche als eben angenommen. Sollte die Anzeigefläche eine Krümmung aufweisen, so wird die virtuelle Ebene durch die Anzeigefläche und an die Randpunkte tangential angrenzende virtuelle Flächen gebildet.For certain functionalities of the user interface, it has proven to be advantageous to provide a subregion of the core detection volume which is not assigned to any of the segment volumes. The invention therefore provides that the core detection volume comprises spatial points at a greater distance from the display surface than the segment volumes, the distance being measured along a surface normal or parallel to a surface normal of the display surface. This means that according to the invention the core detection volume comprises points in space that are not covered by any of the segment volumes. These space points also have a greater distance from a virtual plane in which the display area is located than spatial points of the segment volumes. Here, the display area is assumed to be just. If the display area has a curvature, the virtual level is formed by the display area and, at the edge points, tangentially adjacent virtual areas.

Um eine Benutzerschnittstelle fahrer- und beifahrerabhängig ausgestalten zu können, ist bei einer Ausführungsform der Erfindung vorgesehen, dass die Positionsbestimmungseinheit einen Nutzer von einem weiteren Nutzer unterscheiden kann und die Nutzerschnittstelle nutzerspezifisch interaktiv ausgestaltet ist. Eine nutzerabhängige interaktive Ausgestaltung bedeutet, dass die von der Schnittstelle angezeigten Informationen und/oder Bedienelemente sich in mindestens einem Bedienkontext für einen Nutzer und einen weiteren Nutzer unterscheiden. Je nachdem, ob in dem Kerndetektionsvolumen das Betätigungselement (der Körperteil) des Nutzers erfasst wird oder ein weiteres Betätigungselement (ein weiteres Körperteil) eines weiteren Nutzers erfasst wird, wird die interaktive Benutzerschnittstelle unterschiedlich beeinflusst.In order to be able to design a driver and passenger-dependent user interface, it is provided in one embodiment of the invention that the position-determining unit has a Users can differentiate from another user and the user interface is designed user-specific interactive. A user-dependent interactive design means that the information displayed by the interface and / or operating elements differ in at least one operating context for a user and another user. Depending on whether in the core detection volume, the operating element (the body part) of the user is detected or another actuator (another body part) of another user is detected, the interactive user interface is influenced differently.

Bei einer besonders bevorzugten Ausführungsform der Erfindung kann auch eine Annäherung des Nutzers und/oder des weiteren Nutzers an beispielsweise ein Betätigungselement, das benachbart oder in einem vorgegebenen Abstand zu der Anzeige- und Bedienvorrichtung angeordnet ist, erkannt werden. Eine bevorzugte Ausführungsform sieht daher vor, dass die Positionsbestimmungseinheit ausgestaltet ist, eine Anwesenheit des Betätigungselements (des Körperteils) in mindestens einem Nachbarvolumen zu dem Kerndetektionsvolumen zu erfassen. Insbesondere sind solche Ausführungsformen von besonderem Vorteil, bei denen eine Positionsbestimmungseinheit zum Einsatz kommt, die einen Fahrer von einem Beifahrer unterscheiden kann. In einem solchen Fall kann eine Betätigung eines Bedienelements ebenfalls eine nutzerabhängige Beeinflussung des mit dem Betätigungselement verknüpften Fahrzeugsystems, einer Fahrzeugfunktion oder eines Dienstes bewirken.In a particularly preferred embodiment of the invention, an approach of the user and / or the other user to, for example, an actuating element, which is arranged adjacent to or at a predetermined distance from the display and control device, can be detected. A preferred embodiment therefore provides that the position determination unit is configured to detect a presence of the actuating element (of the body part) in at least one neighboring volume to the core detection volume. In particular, those embodiments are of particular advantage, in which a position determination unit is used which can distinguish a driver from a passenger. In such a case, an actuation of an operating element can likewise bring about a user-dependent influencing of the vehicle system, a vehicle function or a service associated with the actuation element.

Vorteilhafterweise ist die Positionsbestimmungseinheit so ausgebildet, dass eine Positionsbestimmung des Betätigungselements des Nutzers oder des weiteren Betätigungselements des weiteren Nutzers möglich ist, sofern das Betätigungselement des Nutzers oder das weitere Betätigungselement des weiteren Nutzers jeweils ein Körperteil, vorzugsweise eine Hand, am Bevorzugtesten ein einzeln ausgestreckter Finger, sind. Hierbei versteht es sich, dass ein Körperteil auch bekleidet sein kann. So wird auch ein mit einem Handschuh bekleideter Finger als Betätigungselement von der bevorzugten erfindungsgemäßen Positionsbestimmungseinheit erfasst und dessen Position im Raum bestimmt.Advantageously, the position determination unit is designed such that a position determination of the actuating element of the user or of the further actuating element of the further user is possible, provided that the actuating element of the user or the further actuating element of the further user respectively a body part, preferably a hand, most preferably a single extended finger , are. It is understood that a body part can also be dressed. Thus, a glove-clad finger is detected as an actuating element of the preferred position-determining unit according to the invention and determines its position in space.

Die Erfindung wird nachfolgend unter Bezugnahme auf eine Zeichnung näher erläutert. Hierbei zeigen:The invention will be explained in more detail with reference to a drawing. Hereby show:

1 eine schematische Ansicht einer Anzeige- und Bedienvorrichtung für ein Kraftfahrzeug; und 1 a schematic view of a display and control device for a motor vehicle; and

2 eine exemplarische Ausgestaltung eines Kerndetektionsvolumens, von Segmentvolumina und benachbarten Raumbereichen relativ zu einer Anzeigefläche. 2 an exemplary embodiment of a core detection volume, segment volumes and adjacent space areas relative to a display area.

In 1 ist ein Kraftfahrzeug 1 schematisch dargestellt. Das Kraftfahrzeug 1 umfasst eine Anzeige- und Bedienvorrichtung 2. Die Anzeige- und Bedienvorrichtung 2 umfasst eine Anzeigevorrichtung 3 mit einer Anzeigefläche 4. Die Anzeigevorrichtung 3 ist als Touchscreen ausgebildet. Die grafische Darstellung von Informationen auf der Anzeigefläche 4 wird über eine Steuereinheit 5 gesteuert, die mit einer Speichervorrichtung 6 verknüpft ist. In der Speichervorrichtung 6 sind Daten abgelegt, die eine Umsetzung einer Benutzerschnittstelle mittels der Steuereinheit 5 ermöglichen.In 1 is a motor vehicle 1 shown schematically. The car 1 includes a display and control device 2 , The display and operating device 2 includes a display device 3 with a display area 4 , The display device 3 is designed as a touch screen. The graphical representation of information on the display area 4 is via a control unit 5 controlled with a storage device 6 is linked. In the storage device 6 Data are stored, the implementation of a user interface by means of the control unit 5 enable.

Zum einen kann die als Touchscreen ausgebildete Anzeigevorrichtung 3 zum Erfassen von Nutzereingaben verwendet werden. Zum andern verfügt die Anzeige- und Bedienvorrichtung 2 über ein oberes Bedienelement 7 und ein unteres Bedienelement 8, die untereinander angeordnet sind. Das obere Bedienelement 7 und untere Bedienelement 8 sind beide als Dreh-Drück-Knopf ausgebildet und mit der Steuereinheit 5 gekoppelt. Die Anzeige- und Bedienvorrichtung 2 umfasst ferner zwei übereinander angeordnete Taster 9, 10, die ebenfalls mit der Steuereinheit 5 gekoppelt sind. Ebenso wie die als Touchscreen ausgebildete Anzeigevorrichtung 3 können auch das obere Bedienelement 7, das untere Bedienelement 8 und die beiden Taster 9, 10 zum Erfassen von Nutzereingaben verwendet werden. Andere Ausführungsformen der Anzeige- und Bedienvorrichtung umfassen außer der als Touchscreen ausgebildeten Anzeigefläche keine weiteren Bedienelemente.On the one hand, the display device designed as a touch screen 3 to capture user input. On the other hand, the display and operating device has 2 via an upper control element 7 and a lower control 8th which are arranged one below the other. The upper control element 7 and lower control 8th Both are designed as a turn-push button and with the control unit 5 coupled. The display and operating device 2 also includes two superimposed buttons 9 . 10 which also with the control unit 5 are coupled. As well as designed as a touch screen display device 3 can also use the top control 7 , the lower control 8th and the two buttons 9 . 10 to capture user input. Other embodiments of the display and operating device comprise, except for the display surface designed as a touch screen, no further operating elements.

Die Anzeige- und Bedienvorrichtung 2 ist über eine Schnittstelle 11 mit einem Fahrzeugbus 12 verbunden. Mit dem Fahrzeugbus 12 sind Fahrzeugsysteme 1316 verbunden. Die Fahrzeugsysteme 1316 können über die Anzeige- und Bedienvorrichtung 2 bedient werden. Bei einigen Ausführungsformen können weitere Fahrzeugsysteme ganz oder teilweise in die Anzeige- und Bedienvorrichtung 2 integriert sein, beispielsweise ein MP3-Player usw.The display and operating device 2 is via an interface 11 with a vehicle bus 12 connected. With the vehicle bus 12 are vehicle systems 13 - 16 connected. The vehicle systems 13 - 16 can via the display and control device 2 to be served. In some embodiments, further vehicle systems may be wholly or partially incorporated into the display and control device 2 be integrated, such as an MP3 player, etc.

Die Fahrzeugsysteme 1316 umfassen bei der beschriebenen Ausführungsform unter anderem eine Sitzheizung 16, die ein Fahrersitzheizungsmodul 17, das an einem Fahrersitz 18 angeordnet ist, und ein Beifahrersitzheizungsmodul 19 umfasst, das an einem Beifahrersitz 20 angeordnet ist.The vehicle systems 13 - 16 include in the described embodiment, inter alia, a seat heater 16 , which is a driver's seat heating module 17 sitting at a driver's seat 18 is arranged, and a passenger seat heating module 19 includes that on a passenger seat 20 is arranged.

An dem Fahrersitz 18 und dem Beifahrersitz 20 sind ferner jeweils ein Sender 21 bzw. 22 angeordnet, die in einen auf dem jeweiligen Fahrersitz 18 sitzenden Nutzer 23 (Fahrer) oder einen auf dem Beifahrersitz 20 sitzenden weiteren Nutzer 24 (Beifahrer) unterschiedliche Hochfrequenzsignale kapazitiv einkoppeln.At the driver's seat 18 and the passenger seat 20 are also each a transmitter 21 respectively. 22 arranged in one on the respective driver's seat 18 seated user 23 (Driver) or one in the passenger seat 20 sitting another user 24 (Co-driver) capacitively couple different high-frequency signals.

Nähern der Nutzer 23 oder der weitere Nutzer 24 ein Körperteil der Anzeige- und Bedienvorrichtung 2 an, so wird das jeweils eingekoppelte Hochfrequenzsignal von Sensoren 2528 erfasst und von einer Positionsbestimmungseinheit 29 ausgewertet. Die Sensoren 2528 empfangen die Hochfrequenzsignale berührungslos. Anhand der unterschiedlichen Hochfrequenzsignale ist eine zuverlässige Erkennung des Nutzers 23 und des weiteren Nutzers 24 möglich. Approach the users 23 or the other user 24 a body part of the display and operating device 2 On, so is the respectively coupled high frequency signal from sensors 25 - 28 detected and from a position determination unit 29 evaluated. The sensors 25 - 28 receive the high frequency signals contactless. Based on the different high-frequency signals is a reliable detection of the user 23 and the other user 24 possible.

Bei Ausführungsformen, wie der in 1 dargestellten, die mehrere Sensoren 2528 verwenden, ist eine berührungslose Positionsbestimmung des Körperteils möglich. Eine ausführliche Beschreibung einer solchen Sensorik kann beispielsweise in WO 2004/078536 gefunden werden. Die Anzahl der einzelnen verwendeten Sensoren kann entsprechend den Erfordernissen angepasst werden.In embodiments such as the in 1 shown, the multiple sensors 25 - 28 use, a non-contact position determination of the body part is possible. A detailed description of such a sensor can, for example, in WO 2004/078536 being found. The number of individual sensors used can be adjusted according to requirements.

Bei einer anderen Ausführungsform sind um die Anzeigefläche elektrisch Elemente angeordnet, zwischen denen ein vorzugsweise statisches elektrisches Feld ausgebildet ist. Nähert sich ein Körperteil eines Nutzers der Anzeigefläche, so ändert sich das statische elektrische Feld. Über eine Änderung des Feldes kann die Position des Körperteils, insbesondere eines der Anzeigefläche nächstliegenden Endes des Körperteils, ermittelt werden. Eine Nutzererkennung wird über eine Bahnverfolgung des Körperteils realisiert, wobei hierbei davon ausgegangen wird, dass die Anzeige- und Bedienvorrichtung zwischen dem Nutzer und dem weiteren Nutzer angeordnet ist, beispielsweise in einer Mittelkonsole. Die elektrischen Elemente sind bevorzugt linear ausgestaltet und jeweils auf gegenüberliegenden Seiten der Anzeigefläche angeordnet. Die elektrischen Elemente können segmentiert und unsegmentiert sein.In another embodiment, electrically arranged around the display surface, between which a preferably static electric field is formed. When a body part of a user approaches the display surface, the static electric field changes. About a change of the field, the position of the body part, in particular one of the display surface nearest the end of the body part, can be determined. A user recognition is realized via a tracking of the body part, whereby it is assumed here that the display and operating device is arranged between the user and the other user, for example in a center console. The electrical elements are preferably configured linearly and arranged in each case on opposite sides of the display surface. The electrical elements can be segmented and unsegmented.

Wieder eine andere Ausführungsform verwendet optische Sensoren, die eine Reflexionsrate von vorzugsweise im nicht sichtbaren Wellenlängenbereich ausgesandter elektromagnetischer Strahlung detektieren. Eine Nutzerunterscheidung findet auch bei einem solchen System anhand einer Bahn- oder Bewegungsverfolgung des Körperteils statt.Yet another embodiment uses optical sensors which detect a reflection rate of electromagnetic radiation preferably emitted in the non-visible wavelength range. A user distinction also takes place in such a system based on trajectory or movement tracking of the body part.

Eine solche Positionsbestimmungseinheit, die ein optisches Verfahren verwendet, kann beispielsweise Sensoren, die gemäß folgendem Prinzip ausgestaltet sind, umfassen. Ein Sende-LED strahlt ein rechteckförmig amplitudenmoduliertes Lichtsignal im optischen oder infraroten Wellenlängenbereich ab. Das an einem Objekt, beispielsweise dem Körperteil, reflektierte Lichtsignal wird von einer Photodiode erfasst. Von einem Kompensations-LED wird ein um 180° phasenversetztes ebenfalls rechteckförmig amplitudenmoduliertes Referenzlichtsignal zu der Photodiode über einen unveränderlichen Lichtweg gesandt. Dem Kompensations-LED wird über einen Regelkreis mittels eines Regelsignals so ausgeregelt, dass sich das empfangene reflektierte Lichtsignal der Sende-LED und das empfangene Referenzlichtsignal der Kompensations-LED an der Photodiode aufheben und ein Gleichsignal detektiert wird. Eine Änderung des Regelsignals ist ein Maß für den Abstand des Objekts. Ein nach diesem Prinzip ausgestalteter Sensor ist weitgehend unabhängig von Temperatur- und Helligkeitsschwankungen.Such a position determining unit using an optical method may include, for example, sensors configured according to the following principle. A transmission LED emits a rectangular amplitude modulated light signal in the optical or infrared wavelength range. The light signal reflected on an object, for example the body part, is detected by a photodiode. A compensating LED sends a 180 ° out of phase, also rectangular amplitude modulated reference light signal to the photodiode via a fixed light path. The compensation LED is adjusted via a control loop by means of a control signal so that cancel the received reflected light signal of the transmit LED and the received reference light signal of the compensation LED to the photodiode and a DC signal is detected. A change in the control signal is a measure of the distance of the object. A designed according to this principle sensor is largely independent of temperature and brightness variations.

Auch andere Sensoren, insbesondere Ultraschall basierte oder auf Kamerasystemen beruhende Positionsbestimmungseinheiten können zum Einsatz kommen.Other sensors, in particular ultrasound-based or camera systems based position determination units can be used.

In 2 ist ein Kerndetektionsvolumen 30, das auch als Koordinatenblock Q2 bezeichnet ist, relativ zu einer Anzeigefläche 4 dargestellt. Ein w-h-d-Koordinatensystem ist bezüglich der Anzeigefläche 4 so definiert, dass ein Ursprung 31 in einer linken unteren Ecke der Anzeigefläche 4 angeordnet ist. Eine w-Achse 32 ist entlang einer Längsrichtung und eine h-Achse 33 entlang einer Querrichtung der Anzeigefläche 4 orientiert. Dies bedeutet, dass die Anzeigefläche 4 in einer w-h-Ebene liegt. Senkrecht zu der w-h-Ebene erstreckt sich die d-Achse 34. Das Kerndetektionsvolumen 30 weist eine Breite W 35, eine Höhe H 36 und eine Tiefe D 37 auf. Bei einer beispielhaften Anzeigefläche mit einer Breite entlang der w-Richtung von 12 cm und einer Höhe entlang der h-Richtung von 4 cm weisen die Kerndetektionsvolumenabmessungen vorzugsweise folgende Werte auf: W = 12 cm, H = 4 cm und D = 6 cm. Eine Grundfläche des Kerndetektionsvolumens 30 bei der beschriebenen Ausführungsform deckungsgleich zu der Anzeigefläche 4. Das Kerndetektionsvolumen 30 ist quaderförmig ausgebildet.In 2 is a core detection volume 30 , also referred to as coordinate block Q2, relative to a display area 4 shown. A whd coordinate system is relative to the display area 4 so defined that an origin 31 in a lower left corner of the display area 4 is arranged. A w axis 32 is along a longitudinal direction and an h-axis 33 along a transverse direction of the display surface 4 oriented. This means that the display area 4 lies in a wh-level. Perpendicular to the wh-plane extends the d-axis 34 , The core detection volume 30 has a width W 35 , a height H 36 and a depth D 37 on. In an exemplary display area having a width along the w direction of 12 cm and a height along the h direction of 4 cm, the core detection volume dimensions preferably have the following values: W = 12 cm, H = 4 cm and D = 6 cm. A footprint of the core detection volume 30 in the described embodiment congruent with the display surface 4 , The core detection volume 30 is cuboidal.

Das Kerndetektionsvolumen 30 umfasst Segmentvolumina 3842. Grundflächen 4347 der Segmentvolumina 3842 sind parallel zur Anzeigefläche orientiert und grenzen an diese an. Die Grundflächen 4347 segmentieren die Anzeigefläche 4. Entlang der h-Richtung erstrecken sich die Segmentvolumina 3842 über die gesamte Höhe 36 des Kerndetektionsvolumens 30 bzw. der Anzeigefläche 4. Die Breiten 4852 der Segmentvolumina 3842 sind jeweils gleich groß, so dass die Anzeigefläche 4 in gleich große Segmente, die den Grundflächen 4347 der Segmentvolumina 3842 entsprechen, unterteilt ist. Die Breiten 4852 (w1–w5) weisen jeweils einen Wert von wi = 2,4 cm (i = 1, ..., 5) in der bevorzugten beschriebenen Ausführungsform auf. Eine Tiefe D1 52 der Segmentvolumina 3842 ist geringer als die Tiefe D 37 des Kerndetektionsvolumens 30. Die Tiefe D1 53 der Segmentvolumina beträgt vorzugsweise 2,5 cm. Eine Tiefendifferenz D2 54 beträgt somit 3,5 cm. Benachbart zu dem Kerndetektionsvolumen 30 ist ein unteres benachbartes Volumen 55 (Koordinatenblock Q3) definiert. Innerhalb dieses Volumens ist die Positionsbestimmungseinheit in der Lage eine Nutzerunterscheidung bei Anwesenheit eines Körperteils innerhalb des unteren benachbarten Volumens 55 vorzunehmen. Selbiges gilt für ein oberes benachbartes Volumen 56 (Koordinatenblock Q1). Bevorzugt ist die Positionsbestimmungseinheit so ausgebildet, dass sie auch die Position des Körperteils, insbesondere bei einer Berührung eines in diesen benachbarten Volumina 55, 56 angeordneten Bedienelements, dass sich in der w-h-Ebene befindet oder aus dieser erstreckt, bestimmen kann. In einem solchen Fall können auch Bedienelemente, die signaltechnisch nicht mit einer Steuereinheit verbunden sind und deren Betätigung somit nur über die Positionsbestimmungseinheit ermittelt werden kann, mit der Benutzerschnittstelle genutzt werden.The core detection volume 30 includes segment volumes 38 - 42 , base areas 43 - 47 the segment volumes 38 - 42 are oriented parallel to the display area and adjoin it. The bases 43 - 47 segment the display area 4 , The segment volumes extend along the h-direction 38 - 42 over the entire height 36 the core detection volume 30 or the display area 4 , The latitudes 48 - 52 the segment volumes 38 - 42 are each the same size, so that the display area 4 in equal segments, the base areas 43 - 47 the segment volumes 38 - 42 correspond, is divided. The latitudes 48 - 52 (w1-w5) each have a value of wi = 2.4 cm (i = 1, ..., 5) in the preferred embodiment described. A depth D1 52 the segment volumes 38 - 42 is less than the depth D 37 the core detection volume 30 , The depth D1 53 the segment volume is preferably 2.5 cm. A depth difference D2 54 is thus 3.5 cm. Adjacent to the core detection volume 30 is a lower adjacent volume 55 (Coordinate block Q3) defined. Within In this volume, the position determination unit is capable of user discrimination in the presence of a body part within the lower adjacent volume 55 make. The same applies to an upper adjacent volume 56 (Coordinate block Q1). Preferably, the position-determining unit is designed such that it also determines the position of the body part, in particular when touching a volume which is adjacent thereto 55 . 56 arranged control element that is located in the wh-plane or extending from this determine. In such a case, operating elements which are not technically connected to a control unit and whose actuation can thus only be determined via the position determination unit can also be used with the user interface.

Die Positionsbestimmungseinheit 29 ist so ausgebildet, dass sie das Betätigungselement, das in der Regel ein ausgestreckter Finger, beispielsweise ein einzeln ausgestreckter Zeigefinger sein wird, einem der Segmentvolumina 3842 eindeutig zuordnen kann, sofern es sich in einem der Segmentvolumina 3842 aufhält. Hierfür gilt, dass dieses natürlich nur möglich ist, sofern das Betätigungselement an einem der Anzeigefläche zugewandten Ende eine Ausdehnung parallel zu der Anzeigefläche aufweist, die geringer als die Ausdehnung der Anzeigefläche ist, vorzugsweise eine Ausdehnung parallel zu der Anzeigefläche aufweist, die in der Größenordnung der Ausdehnung der Grundflächen 4347 liegt. In der Größenordnung der Ausdehnung der Grundflächen liegt eine Ausdehnung eines Betätigungselements parallel zur Anzeigefläche 4, sofern eine Projektionsfläche entlang der Flächennormalen auf die Anzeigefläche 4 gleich oder geringer als die Summe der sich in mindestens einem Punkt berührenden Grundflächen 4347 der Segmentvolumina 3842 ist. Bei der Projektion ist nur das der Anzeigefläche 4 zugewandte Ende des Betätigungselements zu berücksichtigen. Bei einem Finger beispielsweise die Ausdehnung des Fingers auf Höhe des Fingernagels.The position determination unit 29 is configured to receive the actuator, which will typically be an extended finger, such as a single extended index finger, of one of the segment volumes 38 - 42 can clearly assign, provided it is in one of the segment volumes 38 - 42 staying. For this purpose, of course, this is only possible if the actuator at an end facing the display surface has an extent parallel to the display surface, which is smaller than the extent of the display surface, preferably an extent parallel to the display surface having on the order of Extension of the base areas 43 - 47 lies. In the order of magnitude of the extension of the base areas, an extension of an actuating element lies parallel to the display surface 4 , provided a projection surface along the surface normal to the display surface 4 equal to or less than the sum of the base areas touching in at least one point 43 - 47 the segment volumes 38 - 42 is. In the projection, only the display area is 4 to consider the facing end of the actuator. In one finger, for example, the extension of the finger at the level of the fingernail.

Wird von der Positionsbestimmungseinheit eine Anwesenheit des Betätigungselements in mehreren, insbesondere nicht direkt benachbarten Segmentvolumina 3842 festgestellt, wenn beispielsweise eine flache Hand vor die Anzeigefläche gehalten wird, so kann dieses als Geste interpretiert werden, der eine Reaktion der Benutzerschnittstelle zugeordnet ist. Ebenso kann eine durchlaufene Bahnkurve, d. h. eine Bewegung, als Geste interpretiert werden.Is the position determination unit a presence of the actuating element in a plurality, in particular not directly adjacent segment volumes 38 - 42 For example, if, for example, a flat hand is held in front of the display surface, it may be interpreted as a gesture associated with a user interface response. Likewise, a traversed trajectory, ie a movement, can be interpreted as a gesture.

Befindet sich das Körperteil eines Nutzers bzw. eines weiteren Nutzers innerhalb der Segmentvolumina 3842, so ist die Positionsbestimmungseinheit bei einer besonders bevorzugten Ausführungsform in der Lage, eine Projektionsposition entlang einer Oberflächennormalen der Anzeigefläche 4 auf der Anzeigefläche 4 mit einer Genauigkeit von kleiner 1 cm zu ermitteln. Hierdurch wird die Möglichkeit geschaffen, einen Cursor auf der Anzeigefläche mittels des Körperteils zu bewegen.Is the body part of a user or another user within the segment volumes 38 - 42 Thus, in a particularly preferred embodiment, the position determination unit is capable of a projection position along a surface normal of the display surface 4 on the display surface 4 to be determined with an accuracy of less than 1 cm. This creates the possibility to move a cursor on the display surface by means of the body part.

Die beschriebene Ausgestaltung des Kerndetektionsvolumens und der Segmentvolumina ist lediglich beispielhaft. Andere bevorzugte Ausführungsformen sehen vor, dass die Anzeigefläche in ein durch Grundflächen der Segmentvolumina gebildetes Raster von 3 × 2 bis 10 × 6 Segmenten unterteilt wird. Auch andere Segmentierungen sind möglich. Bei der beschriebenen Ausführungsform sind sowohl das Kerndetektionsvolumen 30 als auch die Segmentvolumina 3842 quaderförmig ausgebildet. Ist eine Bedienung, d. h. eine Annäherung, an die Anzeigefläche mittels des Körperteils, vorzugsweise eines Zeigefingers, entlang einer Flächennormalen der Anzeigefläche nicht möglich, so ist es vorteilhaft, das Kerndetektionsvolumen und die Segmentvolumina so anzupassen, dass die d-Achse, des w-h-d-Koordinatensystems gemäß 2 der bevorzugten Bedienrichtung, d. h. einer bevorzugten Annäherungsrichtung eines Fingers durch einen Nutzer angepasst ist. Dies bedeutet, dass sich das Kerndetektionsvolumen und die Segmentvolumina in ”gescherte” Volumina wandeln, die parallelepipedförmig sind.The described embodiment of the core detection volume and the segment volumes is merely exemplary. Other preferred embodiments provide that the display area is subdivided into a grid of 3 × 2 to 10 × 6 segments formed by base areas of the segment volumes. Other segmentations are possible. In the described embodiment, both the core detection volume 30 as well as the segment volumes 38 - 42 cuboid shaped. If an operation, ie an approach, to the display surface by means of the body part, preferably an index finger, along a surface normal of the display surface is not possible, it is advantageous to adapt the core detection volume and the segment volumes such that the d-axis of the whd coordinate system according to 2 the preferred operating direction, ie a preferred direction of approach of a finger is adapted by a user. This means that the core detection volume and the segment volumes change into "sheared" volumes that are parallelepiped-shaped.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

11
Kraftfahrzeugmotor vehicle
22
Anzeige- und BedienvorrichtungDisplay and operating device
33
Anzeigevorrichtungdisplay device
44
Anzeigeflächedisplay area
55
Steuereinheitcontrol unit
66
Speichervorrichtungstorage device
77
oberes Bedienelementupper control element
88th
unteres Bedienelementlower control element
9, 109, 10
Tasterbutton
1111
Schnittstelleinterface
1212
Fahrzeugbusvehicle bus
13–1513-15
Fahrzeugsystemevehicle systems
1616
Fahrzeugsystem (Sitzheizung)Vehicle system (seat heating)
1717
FahrersitzheizungsmodulDriver seat heated module
1818
Fahrersitzdriver's seat
1919
BeifahrersitzheizungsmodulFront seat heating module
2020
Beifahrersitzpassenger seat
21, 2221, 22
Sendertransmitter
2323
Nutzer (Fahrer)User (driver)
2424
weiterer Nutzer (Beifahrer)additional user (co-driver)
25–2825-28
Sensorensensors
2929
PositionsbestimmungseinheitPosition Determination Entity
3030
Kerndetektionsvolumen (Q2)Core detection volume (Q2)
3131
Ursprung des w-h-d-KoordinatensystemsOrigin of the w-h-d coordinate system
3232
w-Achsew-axis
3333
h-Achseh-axis
3434
d-Achsed-axis
3535
Breite des Kerndetektionsvolumens (W)Width of core detection volume (W)
3636
Höhe des Kerndetektionsvolumens (H)Height of the core detection volume (H)
3737
Tiefe des Kerndetektionsvolumens (D)Depth of core detection volume (D)
38–4238-42
Segmentvoluminasegment volumes
43–4743-47
Grundflächen der SegmentvoluminaBase areas of the segment volumes
48–5248-52
Breiten der Segmentvolumina (w1–w5)Widths of segment volumes (w1-w5)
5353
Tiefe der Segmentvolumina (D1)Depth of segment volumes (D1)
5454
Tiefendifferenz (D2)Depth difference (D2)
5555
unteres benachbartes Volumen (Q3)lower adjacent volume (Q3)
5656
oberes benachbartes Volumen (Q1)Upper adjacent volume (Q1)

Claims (6)

Anzeige- und Bedienvorrichtung (2) für ein Kraftfahrzeug (1) umfassend eine als Touchscreen ausgebildete Anzeigevorrichtung (3), eine mit der Anzeigvorrichtung (3) gekoppelte Steuereinheit (5) und eine Speichervorrichtung (6), wobei die Speichervorrichtung (6) Daten umfasst, mittels derer im Zusammenwirken mit der Steuereinheit (5) eine Benutzerschnittstelle zum Bedienen mindestens eines Fahrzeugsystems (1316), einer Fahrzeugfunktion und/oder eines Dienstes umsetzbar ist, wobei mit der Steuereinheit (5) eine Positionsbestimmungseinheit (29) zum Ermitteln einer dreidimensionalen Position eines Betätigungselements, insbesondere eines Körperteils, eines Nutzers im Raum gekoppelt ist und die Benutzerschnittstelle ausgestaltet ist, interaktiv in Abhängigkeit der ermittelten Position beeinflusst zu werden und relativ zu einer Anzeigefläche (4) der Anzeigevorrichtung (3) in einem Erfassungs- oder Detektionsbereichs der Positionsbestimmungseinheit (29) ein Kerndetektionsvolumen (30) definiert ist, innerhalb dessen eine Anwesenheit des Betätigungselements des Nutzers erkannt wird, wobei eine interaktive Reaktion der Benutzerschnittstelle beim Erkennen der Anwesenheit in dem Kerndetektionsvolumen (30) ausgelöst wird und wobei die Benutzerschnittstelle so ausgestaltet ist, dass eine auf der erfassten Anwesenheit des Betätigungselements beruhende interaktive Reaktion nur beim Erfassen des Betätigungselements in dem Kerndetektionsvolumen (30) stattfindet, wobei das Kerndetektionsvolumen (30) einen Raumbereich umfasst und eine Seitenfläche des Raumbereichs angrenzend an die Anzeigefläche (4) parallel zu dieser ausgerichtet ist und diese überdeckt, wobei die Positionsbestimmungseinheit (29) ausgebildet ist, eine Position des Betätigungselements eindeutig einem von mehreren Segmentvolumina (3842) des Kerndetektionsvolumens (30) zuzuordnen, um eine positionsabhängige, differenzierte interaktive Beeinflussung der Benutzerschnittstelle zu ermöglichen, wobei die Segmentvolumina (3842) Teilvolumina des Kerndetektionsvolumens (30) sind und jeweils eine der Anzeigefläche (4) zugewandte, parallel zur Anzeigefläche (4) ausgerichtete Grundfläche (4347) aufweisen, wobei die Grundflächen (4347) die Anzeigefläche (4) segmentieren, wobei die interaktive Reaktion von der dem jeweiligen Segmentvolumen zugeordneten ermittelten Position abhängig ist, wobei das Kerndetektionsvolumen (30) Raumpunkte in einem größeren Abstand von der Anzeigefläche (4) umfasst als die Segmentvolumina (3842), wobei der Abstand entlang einer Flächennormalen der Anzeigefläche (4) gemessen wird, sodass das Kerndetektionsvolumen Raumpunkte umfasst, die von keinem der Segmentvolumina umfasst sind.Display and operating device ( 2 ) for a motor vehicle ( 1 ) comprising a display device designed as a touchscreen ( 3 ), one with the display device ( 3 ) coupled control unit ( 5 ) and a storage device ( 6 ), wherein the memory device ( 6 ) Data by means of which, in cooperation with the control unit ( 5 ) a user interface for operating at least one vehicle system ( 13 - 16 ), a vehicle function and / or a service is feasible, with the control unit ( 5 ) a position determination unit ( 29 ) is coupled to determine a three-dimensional position of an actuating element, in particular of a body part, of a user in the room and the user interface is designed to be interactively influenced as a function of the determined position and relative to a display area ( 4 ) of the display device ( 3 ) in a detection area of the position determination unit ( 29 ) a core detection volume ( 30 ), within which a presence of the user's operating element is detected, wherein an interactive reaction of the user interface upon detection of the presence in the core detection volume ( 30 ) and wherein the user interface is designed so that an interactive reaction based on the detected presence of the actuating element only upon detection of the actuating element in the core detection volume (FIG. 30 ), where the core detection volume ( 30 ) comprises a space area and a side surface of the space area adjacent to the display area (Fig. 4 ) is aligned parallel to this and covers it, wherein the position determination unit ( 29 ) is formed, a position of the actuating element uniquely one of a plurality of segment volumes ( 38 - 42 ) of the core detection volume ( 30 ) in order to enable a position-dependent, differentiated interactive influencing of the user interface, whereby the segment volumes ( 38 - 42 ) Partial volumes of the core detection volume ( 30 ) and one each of the display area ( 4 ), parallel to the display surface ( 4 ) oriented area ( 43 - 47 ), the bases ( 43 - 47 ) the display area ( 4 ), wherein the interactive response depends on the determined position associated with the respective segment volume, the core detection volume ( 30 ) Space points at a greater distance from the display area ( 4 ) than the segment volumes ( 38 - 42 ), wherein the distance along a surface normal of the display surface ( 4 ), so that the core detection volume includes space points that are not included in any of the segment volumes. Anzeige- und Bedienvorrichtung (2) nach Anspruch 1, dadurch gekennzeichnet, dass die Segmentvolumina (3842) parallelepipedförmig sind.Display and operating device ( 2 ) according to claim 1, characterized in that the segment volumes ( 38 - 42 ) are parallelepiped-shaped. Anzeige- und Bedienvorrichtung (2) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das Kerndetektionsvolumen (30) parallelepipedförmig, vorzugsweise quaderförmig, ist.Display and operating device ( 2 ) according to claim 1 or 2, characterized in that the core detection volume ( 30 ) is parallelepiped-shaped, preferably cuboid. Anzeige- und Bedienvorrichtung (2) nach einem der vorgenannten Ansprüche, dadurch gekennzeichnet, dass die Positionsbestimmungseinheit (29) das Betätigungselement des Nutzers von einem weiteren Betätigungselement eines weiteren Nutzers unterscheiden kann und die Nutzerschnittstelle nutzerspezifisch interaktiv ausgestaltet ist.Display and operating device ( 2 ) according to one of the preceding claims, characterized in that the position determination unit ( 29 ) may distinguish the actuator of the user from another actuator of another user and the user interface is designed user-specific interactive. Anzeige- und Bedienvorrichtung (2) nach einem der vorgenannten Ansprüche, dadurch gekennzeichnet, dass die Positionsbestimmungseinheit (29) ausgestaltet ist, eine Anwesenheit des Betätigungselements und/oder des weiteren Betätigungselements in mindestens einem Nachbarvolumen (55, 56) zu dem Kerndetektionsvolumen (30) zu erfassen.Display and operating device ( 2 ) according to one of the preceding claims, characterized in that the position determination unit ( 29 ), a presence of the actuating element and / or the further actuating element in at least one neighboring volume ( 55 . 56 ) to the core detection volume ( 30 ) capture. Anzeige- und Bedienvorrichtung (2) nach einem der vorgenannten Ansprüche, dadurch gekennzeichnet, dass das Betätigungselement des Nutzers ein einzeln ausgestreckter Finger ist.Display and operating device ( 2 ) according to one of the preceding claims, characterized in that the actuating element of the user is a finger individually extended.
DE102007005027.7A 2006-03-27 2007-02-01 Display and operating device for a motor vehicle with an interactive user interface Active DE102007005027B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102007005027.7A DE102007005027B4 (en) 2006-03-27 2007-02-01 Display and operating device for a motor vehicle with an interactive user interface

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102006014473.2 2006-03-27
DE102006014473 2006-03-27
DE102007005027.7A DE102007005027B4 (en) 2006-03-27 2007-02-01 Display and operating device for a motor vehicle with an interactive user interface

Publications (2)

Publication Number Publication Date
DE102007005027A1 DE102007005027A1 (en) 2008-01-24
DE102007005027B4 true DE102007005027B4 (en) 2017-02-23

Family

ID=38830821

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007005027.7A Active DE102007005027B4 (en) 2006-03-27 2007-02-01 Display and operating device for a motor vehicle with an interactive user interface

Country Status (1)

Country Link
DE (1) DE102007005027B4 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009036369A1 (en) * 2009-08-06 2011-02-10 Volkswagen Ag Method for operating an operating device and operating device in a vehicle
DE102012015255A1 (en) * 2012-08-01 2014-02-06 Volkswagen Aktiengesellschaft Display and operating device and method for controlling a display and control device
DE102013204242B4 (en) 2013-03-12 2023-11-23 Bayerische Motoren Werke Aktiengesellschaft Display and operating device for a motor vehicle, motor vehicle and corresponding method
DE102016212813A1 (en) * 2016-07-13 2018-01-18 Audi Ag Vehicle with an operating and display device and method for operating such a vehicle

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19529571A1 (en) * 1995-08-11 1997-02-13 Becker Gmbh Motor vehicle equipment operating unit - detects proximity to operating element and actuates function before element is operated, e.g. speech output
DE69306228T2 (en) * 1992-11-12 1997-04-03 Sextant Avionique Compact, ergonomic communication terminal, equipped with surfaces for proximity detection
WO1999019788A1 (en) * 1997-10-15 1999-04-22 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
WO2002016875A1 (en) * 2000-08-24 2002-02-28 Siemens Aktiengesellschaft Method for querying target information and navigating within a card view, computer program product and navigation device
DE10326215A1 (en) * 2003-06-11 2004-12-30 Bayerische Motoren Werke Ag operating device
US20050226505A1 (en) * 2004-03-31 2005-10-13 Wilson Andrew D Determining connectedness and offset of 3D objects relative to an interactive surface

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69306228T2 (en) * 1992-11-12 1997-04-03 Sextant Avionique Compact, ergonomic communication terminal, equipped with surfaces for proximity detection
DE19529571A1 (en) * 1995-08-11 1997-02-13 Becker Gmbh Motor vehicle equipment operating unit - detects proximity to operating element and actuates function before element is operated, e.g. speech output
WO1999019788A1 (en) * 1997-10-15 1999-04-22 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
WO2002016875A1 (en) * 2000-08-24 2002-02-28 Siemens Aktiengesellschaft Method for querying target information and navigating within a card view, computer program product and navigation device
DE10326215A1 (en) * 2003-06-11 2004-12-30 Bayerische Motoren Werke Ag operating device
US20050226505A1 (en) * 2004-03-31 2005-10-13 Wilson Andrew D Determining connectedness and offset of 3D objects relative to an interactive surface

Also Published As

Publication number Publication date
DE102007005027A1 (en) 2008-01-24

Similar Documents

Publication Publication Date Title
EP2121372B1 (en) Contactless activated display and operation device
EP1840522B1 (en) Navigation device and method for operating a navigation device
EP2424743B1 (en) Method for displaying and inputting information in a motor vehicle, and display device
EP3507681B1 (en) Method for interacting with image contents displayed on a display device in a vehicle
EP2059407B1 (en) Method for operating devices of a vehicle, and operating device for such devices
WO2007124955A2 (en) Haptic input device
EP2150883A1 (en) Multifunction display and operating device and method for operating a multifunction display and operating device having improved selection operation
EP2754016A1 (en) Control device for a motor vehicle and method for operating the control device for a motor vehicle
DE102015211358A1 (en) INPUT DEVICE FOR VEHICLES AND VEHICLE COCKPIT MODULE
EP2643746B1 (en) Operating device
EP2876526B1 (en) Device for gesture recognition and method for recognition of gestures
DE102007005027B4 (en) Display and operating device for a motor vehicle with an interactive user interface
EP3377359B1 (en) Motor vehicle with at least one radar unit
EP3789856B1 (en) Input device with touch sensitive input surface and input section movably mounted on a base, wherein the base is selectively magnetically attachable to the input surface and associated input method
WO2014108147A1 (en) Zooming and shifting of image content of a display device
DE102013114794A1 (en) Crooked screen
DE102007054310A1 (en) Multifunction display and control system and method for operating functions or vehicle systems with an assisted operating mode
DE102013000069B4 (en) Motor vehicle user interface with a control element for detecting a control action
DE102009037401A1 (en) Operating element for working an infotainment system in a vehicle, especially a car, makes multiple operator control actions possible like turning a wheel
DE102009039114B4 (en) Operating device for a vehicle
WO2014056838A1 (en) Input/output unit
DE10326215A1 (en) operating device
DE102012025320B4 (en) Method for controlling an electrical device by detecting and evaluating a non-contact manual operation input of a hand of an operator as well as suitable control device and vehicle
DE102016207611A1 (en) Display and operating system
DE102018131573A1 (en) Operating device

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
R012 Request for examination validly filed
R012 Request for examination validly filed

Effective date: 20130920

R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R006 Appeal filed
R008 Case pending at federal patent court
R019 Grant decision by federal patent court
R020 Patent grant now final
R082 Change of representative