DE102014118322A1 - Implementieren einer versteckten Touch-Oberfläche - Google Patents

Implementieren einer versteckten Touch-Oberfläche Download PDF

Info

Publication number
DE102014118322A1
DE102014118322A1 DE102014118322.3A DE102014118322A DE102014118322A1 DE 102014118322 A1 DE102014118322 A1 DE 102014118322A1 DE 102014118322 A DE102014118322 A DE 102014118322A DE 102014118322 A1 DE102014118322 A1 DE 102014118322A1
Authority
DE
Germany
Prior art keywords
touch
hidden
vehicle
touch surface
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102014118322.3A
Other languages
English (en)
Inventor
Matthew Mikolajczak
Royce D. Channey
James Kornacki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Visteon Global Technologies Inc
Original Assignee
Visteon Global Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Visteon Global Technologies Inc filed Critical Visteon Global Technologies Inc
Publication of DE102014118322A1 publication Critical patent/DE102014118322A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • B60K35/10
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • B60K2360/143

Abstract

Ein System und Verfahren zum Implementieren einer versteckten Touch-Oberfläche sind bereitgestellt. Das System beinhaltet einen Berührungsdetektor, um eine auf eine mit der versteckten Touch-Oberfläche verknüpfte Oberflächenschicht ausgeübte Berührung zu erkennen; einen Berührungssensor, um eine mit der Berührung verknüpfte Eigenschaft zu messen; und einen Prozessor, um die Eigenschaft mit einem vorgegebenen Befehl zu verknüpfen, wobei die Oberflächenschicht die versteckte Touch-Oberfläche versteckt.

Description

  • Allgemeiner Stand der Technik
  • Herkömmlicherweise sind Touchscreens zusammen mit verschiedenen Geräten bereitgestellt. Die Touchscreens weisen einen sichtbaren Eingabebereich auf und der sichtbare Eingabebereich kann durch einen Benutzer verwendet werden, um eine Handlung auszuführen.
  • Zum Beispiel kann der Benutzer als Reaktion auf seine Verwendung des Touchscreens verschiedene Geräte bedienen. Wenn der Touchscreen in einem Fahrzeug implementiert ist, kann der Benutzer eine Lautstärke oder Einstellung für ein Fahrzeugaudiosystem, die Temperatur oder dergleichen steuern.
  • Im obigen Beispiel können die Touchscreens mehrere Eigenschaften verwalten. Zum Beispiel ist ein sichtbarer Eingabebereich bereitgestellt. Dementsprechend wird eine statische Position für den Touchscreen verwendet. Ferner sind Touchscreens üblicherweise entweder kapazitiv oder resistiv. Um einen spezifischen Befehl auszulösen, muss der Benutzer demnach eine bestimmte Stelle berühren (oder eine Entfernung von einer bestimmten Stelle).
  • Zusätzlich zu Touchscreens können verschiedene Touch-Oberflächen verwendet werden. Zum Beispiel kann auch ein Touchpad in einem rechteckigen Bereich angrenzend an einen Bediener implementiert werden. Die Touch-Oberfläche funktioniert ähnlich wie der Touchscreen und erkennt verschiedene mit einer Berührung verknüpfte Koordinaten.
  • Die obigen Implementierungen können für bestimmte Benutzer nachteilhaft sein. Zum Beispiel können bestimmte Benutzer körperlich nicht in der Lage sein, einen statisch platzierten Touchscreen zu erreichen (z. B. aufgrund einer Behinderung oder Einschränkung). Da kapazitive und resistive Touch-Technologien eine koordinatenbasierte Eingabe erfordern, können die zusammen mit dem Touchscreen bereitgestellten Optionen ferner lediglich auf das Erkennen einer Position der Berührung beschränkt sein.
  • Beschreibung der Zeichnungen
  • Die ausführliche Beschreibung bezieht sich auf die nachfolgenden Zeichnungen, in denen sich gleiche Ziffern auf gleiche Elemente beziehen. Es zeigen:
  • 1 ein Blockdiagramm, das einen beispielhaften Computer darstellt.
  • 2(a) ein Beispiel eines Touchscreens ohne Druck- oder Winkelerkennung.
  • 2(b) ein Beispiel einer Touch-Oberfläche mit Druck- und Winkelerkennung.
  • 3 ein Beispiel eines Systems zum Implementieren einer versteckten Touch-Oberfläche.
  • 4(a)–(c) ein Beispiel einer versteckten Touch-Oberfläche, die in einem Fahrzeug implementiert ist.
  • 5 ein Verfahren zum Implementieren einer versteckten Touch-Oberfläche.
  • Ausführliche Beschreibung
  • Die Erfindung ist nachfolgend mit Verweisen auf die beigefügten Zeichnungen, in denen beispielhafte Ausführungsformen der Erfindung dargestellt sind, ausführlicher beschrieben. Diese Erfindung kann jedoch in vielen verschiedenen Formen ausgeführt werden und sollte nicht als auf die hierin aufgeführten Ausführungsformen beschränkt ausgelegt werden. Stattdessen sind diese beispielhaften Ausführungsformen bereitgestellt, um diese Offenbarung umfassend zu gestalten, und sie machen den Umfang der Erfindung Fachleuten in seiner Gesamtheit ersichtlich. Es versteht sich, dass „wenigstens jeweils eins” zum Zweck dieser Offenbarung als eine beliebige Kombination der nachfolgend aufgezählten Elemente bedeutend ausgelegt wird, einschließlich einer Kombination mehrerer der aufgezählten Elemente. Zum Beispiel wird „wenigstens eins von X, Z und Z” ausgelegt als nur X, nur Y, nur Z oder eine beliebige Kombination aus zwei oder mehr Elementen X, Y und Z (z. B. XYZ, XZ, YZ, X). Durch die Zeichnungen und die ausführliche Beschreibung hindurch versteht es sich, dass sich die gleichen Referenzziffern der Zeichnungen auf die gleichen Elemente, Merkmale und Strukturen beziehen, außer dies ist ausdrücklich anderweitig angegeben. Die relative Größe und Darstellung dieser Elemente kann zwecks Deutlichkeit, Darstellung und Zweckmäßigkeit übertrieben sein.
  • Wie im Stand der Technik erläutert, sind herkömmliche Touchscreens statisch bereitgestellt und auf das Erkennen einer Koordinate einer Berührung beschränkt. Der Touchscreen kann demnach basierend auf der Koordinate der Berührung eine Eingabe auslösen.
  • Aufgrund der statischen Position des Touchscreens kann der Touchscreen jedoch für bestimmte Benutzer nicht optimal sein. Zum Beispiel können bestimmte Benutzer eine Einschränkung oder Behinderung haben, die sie daran hindert, die Touchscreens effizient zu nutzen. Dementsprechend können die Benutzer die Verwendung eines statischen Touchscreens als ineffizient oder unsicher empfinden.
  • Eine Touchscreen-Technologie mit Druckerkennung kann implementiert sein. Touchscreens mit Druckerkennung erkennen nicht nur eine Koordinate einer Berührung, sondern erkennen auch den Druck und den Winkel der Berührung. Demnach kann jede Berührung oder Berührungshandlung auf verschiedene Weisen einen Befehl auslösen.
  • Hierin sind Verfahren und Systeme zum Bereitstellen einer versteckten Touch-Oberfläche offenbart, wobei die Touch-Oberfläche mit Druck- und Winkelerkennung implementiert ist. Durch Implementieren der hierin offenbarten Verfahren und Systemen kann eine dynamische Benutzeroberfläche bereitgestellt sein. Dementsprechend kann ein Benutzer der versteckten Touch-Oberfläche eine Berührung und eine nachfolgende Kraft ausüben und eine Anwendung steuern. In bestimmten Ausführungen, wie einer Fahrzeugschnittstelle, kann ein Eingabemechanismus bereitgestellt sein, der effektiver das Problem löst, dass verschiedene Benutzer verschiedene Größen und Fähigkeiten haben.
  • Ferner wird dem Benutzer durch Bereitstellen einer Touch-Oberfläche mit einer Druck- und Winkelerkennungstechnik ein verbessertes Verfahren für die Bedienung eines Geräts bereitgestellt.
  • 1 ist ein Blockdiagramm, das einen beispielhaften Computer 100 darstellt. Der Computer 100 beinhaltet wenigstens einen Prozessor 102, der mit einem Chipsatz 104 gekoppelt ist. Der Chipsatz 104 beinhaltet einen Speichersteuerknoten 120 und einen Eingabe-/Ausgabe-(I/O)-Steuerknoten 122. Ein Speicher 106 und ein Grafikadapter 112 sind mit dem Speichersteuerknoten 120 gekoppelt und eine Anzeige 118 ist mit dem Grafikadapter 112 gekoppelt. Ein Speichergerät 108, eine Tastatur 110, ein Zeigegerät 114 und ein Netzwerkadapter 116 sind mit dem I/O-Steuerknoten 122 gekoppelt. Andere Ausführungsformen des Computers 100 können andere Architekturen aufweisen.
  • Das Speichergerät 108 ist ein nichtflüchtiges, computerlesbares Speichermedium, wie eine Festplatte, eine CD-ROM, DVD oder ein Festkörperspeichergerät. Der Speicher 106 enthält Anweisungen und Daten, die vom Prozessor 102 verwendet werden. Das Zeigegerät 114 ist eine Maus, ein Trackball oder eine andere Art von Zeigegerät und wird in Kombination mit der Tastatur 110 verwendet, um Daten in das Computersystem 100 einzugeben. Der Grafikadapter 112 zeigt Bilder und andere Informationen auf der Anzeige 118 an. Der Netzwerkadapter 116 koppelt das Computersystem 100 mit einem oder mehreren Computernetzwerk(en).
  • Der Computer 100 ist angepasst, um Computerprogrammmodule zum Bereitstellen einer hierin beschriebenen Funktionalität auszuführen. Wie sie hierin verwendet wird, bezieht sich die Bezeichnung „Modul” auf Computerprogrammlogik, die verwendet wird, um die festgelegte Funktionalität bereitzustellen. Demnach kann ein Modul in Hardware, Firmware und/oder Software ausgeführt sein. In einer Ausführungsform werden Programmmodule auf dem Speichergerät 108 gespeichert, in den Speicher 106 geladen und durch den Prozessor 102 ausgeführt.
  • Die Typen an Computern, die von den hierin offenbarten Einheiten und Prozessen verwendet werden, können abhängig von der Ausführungsform und der von der Einheit erforderten Prozessorleistung variieren. Der Computer 100 kann ein Mobilgerät, Tablet-Computer, Smartphone oder jede beliebige Art Rechnerelement mit den oben aufgeführten Elementen sein. Zum Beispiel kann ein Videokorpus, wie eine Festplatte, ein Festkörperspeicher oder ein Speichergerät, in einem verteilten Datenbanksystem gespeichert sein, das verschiedene Blade-Server umfasst, die zusammenarbeiten, um die hierin beschriebene Funktionalität bereitzustellen. Den Computern können einige der oben beschriebenen Komponenten fehlen, wie Tastaturen 110, Grafikadapter 112 und Anzeigen 118.
  • 2(a) ist ein Beispiel eines Touchscreens ohne Druck- oder Winkelerkennung 200. 2(b) ist ein Beispiel einer Touch-Oberfläche mit Druck- und Winkelerkennung 250.
  • Mit Bezugnahme auf 2(a) ist ein Touchscreen ohne Druck- oder Winkelerkennung 200 dargestellt. Der Touchscreen 200 enthält einen Punkt 220. Als Reaktion auf das Berühren des Touchscreens 200 durch einen Finger 210 (oder ein beliebiges Zeigegerät) am Punkt 220 sendet der Touchscreen 200 ein Signal an die Steuerschaltung (nicht dargestellt), das eine mit dem Punkt 220 verknüpfte Koordinate anzeigt. Die Koordinate kann mit einem spezifischen Befehl verknüpft sein. Ferner kann der Touchscreen 200 aktualisiert werden und andere grafische Benutzerschnittstellen anzeigen. Demnach kann die mit dem Punkt 220 verknüpfte Koordinate entsprechend aktualisiert werden.
  • Mit Bezugnahme auf 2(b) ist eine Touch-Oberfläche mit Druck- und Winkelerkennung 250 dargestellt. Als Reaktion auf das Initiieren einer Berührung durch einen Finger 210 werden ein mit der Berührung verknüpfter Druck und Winkel erkannt. Der Druck kann veranlassen, dass ein Bildschirm ein Icon oder ein Menüelement anzeigt. Die Touch-Oberfläche 250 kann entsprechend einer vorgegebenen Einstellung härter oder sanfter gedrückt werden, um einen Befehl zu initiieren. Zum Beispiel kann das Ausüben von mehr Druck veranlassen, dass ein Menü mit einer Geschwindigkeit gescrollt wird, die dem Druck entspricht. Dementsprechend kann das Ausüben von mehr Druck auf die Touch-Oberfläche 250 veranlassen, dass ein Menü einer Anzeige schneller gescrollt wird, während das Ausüben von weniger Druck auf die Touch-Oberfläche 250 veranlassen kann, dass ein Menü auf einer Anzeige langsamer gescrollt wird.
  • 3 zeigt ein System 300 zum Implementieren einer versteckten Touch-Oberfläche. Das System 300 kann auf einem System oder Gerät implementiert sein, wie dem Computer 100. Das System 300 beinhaltet einen Berührungsdetektor 310, einen Berührungssensor 320, einen Prozessor 330 und einen Anzeigetreiber 340 (der basierend auf einer Präferenz des Ausführers des Systems 300 wahlweise integriert werden kann).
  • Das System 300 ist mit einer Touch-Oberfläche 250 gekoppelt (entweder durch verkabelte oder kabellose Verbindungen). Die Touch-Oberfläche 250 kann unter einer Oberflächenschicht, wie der Polsterung des Innenraums eines Fahrzeugs, eingebettet sein. Da die Touch-Oberfläche 250 kontaktlose Berührungserkennung verwendet, muss die Touch-Oberfläche 250 für einen Bediener nicht sichtbar sein.
  • Das System 300 kann wahlweise mit einer Anzeige 350 gekoppelt sein. Wenn die mit dem System 300 verknüpften Steuerungen verwendet werden, um Icons oder Benutzerschnittstellenelemente auf einer Anzeige zu manipulieren, kann die Anzeige 350 als Reaktion auf das Initiieren eines Kontaktes mit der Touch-Oberfläche 250 durch einen Finger 210 aktualisiert werden.
  • Der Berührungsdetektor 310 erkennt eine Eingabe in die Touch-Oberfläche 250. Verschiedene Auslöser (die nachträglich ausführlicher beschrieben werden) können eine erkannte Berührung auslösen. Zum Beispiel kann die Touch-Oberfläche 250 auf die Touch-Oberfläche 250 ausgeübten Druck, die Veränderung des Drucks von einer Position zu einer anderen auf der Touch-Oberfläche 250 oder die Veränderung des Drucks auf die gleiche Position erkennen.
  • Die Touch-Oberfläche 320 erkennt eine Eigenschaft der auf die Touch-Oberfläche 250 ausgeübten Berührung. Der Berührungssensor 320 beinhaltet einen Drucksensor 321, einen Winkelsensor 322 und einen Koordinatensensor 323. Die verschiedenen Elemente 321323 können wahlweise implementiert werden.
  • Wie in 3 dargestellt, wird das Erkennen und Messen mit separaten Elementen durchgeführt. Fachleute können jedoch beide Merkmale in einem integrierten Prozess implementieren.
  • Der Drucksensor 321 erkennt einen mit der Berührung verknüpften Druck. Zum Beispiel kann der Finger 210 eine sanfte Berührung oder eine verhältnismäßig härtere Berührung auf die Touch-Oberfläche 250 ausüben. Als Reaktion darauf kann der Drucksensor 321 die ausgeübte Berührung interpretieren und einen Druck mit einer Handlung in Zusammenhang setzen. Zum Beispiel kann eine härtere Berührung einem schnelleren Scrollen auf einem durch die Anzeige 350 dargestellten Menüelement entsprechen. Eine sanftere Berührung kann hingegen einem langsameren Scrollen entsprechen. In einem anderen Beispiel kann eine härtere Berührung einem Scrollen in eine Richtung entsprechen, während eine sanftere Berührung einem Scrollen in eine entgegengesetzte Richtung entspricht.
  • Der Winkelsensor 322 kann einen Winkel der Berührung des Fingers 210 im Verhältnis zu der Touch-Oberfläche 250 erkennen. Wenn sich der Winkel des Fingers 210 verändert, kann das System 300 demnach den neuen Winkel messen und ein Gerät, wie die Anzeige 350, dementsprechend steuern.
  • Basierend auf einer erkannten Veränderung des Winkels kann die Anzeige 350 zum Beispiel basierend auf dem erkannten Winkel angepasst werden. Wenn ein Bediener seinen Finger oder ein Berührungsgerät näher an eine Oberfläche bewegt (d. h. Verringern des Winkels der Berührung), kann sich die Anzeige 350 in diese Richtung bewegen. Dementsprechend kann eine Scrollgeschwindgkeit angepasst werden, um langsamer oder schneller zu sein. In einem anderen Beispiel können eine Schwenkfunktion oder ein Zoom basierend auf einer erkannten Winkelveränderung angepasst werden.
  • Der Koordinatensensor 323 erkennt eine Koordinate der Berührung. Der Koordinatensensor 323 kann außerdem erkennen, dass ein Abstand zwischen der aktuellen Berührung und einer nachfolgenden Berührung vorliegt. Der Unterschied der Position jeder Berührung kann einem vorgegebenen Befehl entsprechen.
  • Der Prozessor 330 ist konfiguriert, um basierend auf der durch den Berührungssensor 320 erkannten Berührung eine vorgegebene Handlung auszuführen. Die vorgegebene Handlung kann durch einen Ausführer des Systems 300 oder durch den Bediener der Touch-Oberfläche 250 konfiguriert werden. Wie oben beschrieben, können verschiedene Handlungen anderen ausgeübten Drücken auf der Touch-Oberfläche 250, anderen Winkeln einer Berührung der Touch-Oberfläche 250 oder Unterschieden in den Koordinaten verschiedener Berührungen der Touch-Oberfläche 250 entsprechen.
  • Der Prozessor 330 kann mit einem dauerhaften Speicher 305 zusammenarbeiten. Der dauerhafte Speicher 305 kann ein beliebiger der oben mit Verweis auf das Speichergerät 108 aufgelisteten Speichergeräte sein.
  • Der Anzeigetreiber 340 aktualisiert eine mit der Touch-Oberfläche 250 verknüpfte Anzeige auf einer Anzeige 250. Wenn das System zum Beispiel eine Berührung erkennt (durch den Berührungsdetektor 310), misst, dass härterer Druck durch die Berührung ausgeübt wird (durch den Drucksensor 321), und diese Handlung mit dem Scrollen nach oben verknüpft ist (durch den Prozessor 330), kann der Anzeigetreiber 340 veranlassen, dass die Anzeige 350 eine Handlung des Scrollens eines Menüelements nach oben ausführt.
  • 4(a)–(c) zeigen ein Beispiel einer versteckten Touch-Oberfläche 400, die in ein Fahrzeug implementiert ist. Die versteckte Touch-Oberfläche 400 ist zusammen mit dem System 300 implementiert. Die versteckte Touch-Oberfläche 400 ist zusammen mit einer Fahrzeugschnittstelle dargestellt. Fachleute können die versteckte Touch-Oberfläche 400 mit einer beliebigen Anwendung implementieren, die von einer Berührungsschnittstelle profitieren würde.
  • Mit Bezugnahme auf 4(a) ist eine versteckte Touch-Oberfläche 400 dargestellt. Die versteckte Touch-Oberfläche 400 kann mit einem filmähnlichen Eingabe-Touchpad implementiert sein. Dementsprechend kann das filmähnliche Eingabe-Touchpad eine Koordinate der Berührung, einen Druck der Berührung und einen Winkel der auf die versteckte Touch-Oberfläche 400 ausgeübten Berührung erkennen.
  • Mit Bezugnahme auf 4(b) ist eine Touch-Oberfläche 400 unter einer Oberflächenschicht 410 angeordnet. Die Oberflächenschicht 410 kann jede beliebige üblicherweise im Innern von Fahrzeugen verwendete Oberfläche sein. Zum Beispiel kann die Oberflächenschicht 410 eine Gummi- oder Lederschicht sein, die bereitgestellt ist, um das Aussehen des Fahrzeugs für den Bediener ästhetischer zu gestalten. Da die Oberflächenschicht 410 über der versteckten Touch-Oberfläche 400 aufgebracht wird, ist die Touch-Oberfläche 400 für den Bediener des Fahrzeugs nicht sichtbar.
  • Mit Bezugnahme auf 4(c) ist eine Innenansicht des Fahrzeugs dargestellt. Die Oberflächenschicht 410 und die versteckte Touch-Oberfläche 400 sind in einem Bereich zwischen den Vordersitzen eines Fahrzeugs (zum Beispiel dem Bereich nah an der Stelle, an der üblicherweise für eine Armlehne bereitgestellt ist) bereitgestellt. Wie dargestellt, ist auch eine Anzeige 350 (in einem Cockpitbereich des Fahrzeugs) bereitgestellt. Demnach erkennt die versteckte Touch-Oberfläche 400 als Reaktion auf das Ausüben einer Berührung auf die Oberflächenschicht 410 durch einen Finger die Berührung und misst eine Eigenschaft der Berührung. Die Anzeige 350 wird dementsprechend über das System 300 angepasst.
  • Die oben offenbarten Aspekte können zusammen mit anderen Steuerungen des Fahrzeugs implementiert sein, wie Temperatur, Beleuchtung, Kommunikation und dergleichen. Da sich die Touch-Oberfläche, wie dargestellt, in einem Bereich angrenzend an die Position des Fahrers befindet, wird das Berühren und Steuern einer Anzeige 350 potenziell für Benutzer mit unterschiedlichen Wünschen und Fähigkeiten besser erreichbar. Benutzer mit eingeschränkter Bewegungsfreiheit können das Aktivieren einer Touch-Oberfläche angrenzend an ihre Sitzposition als besser und praktischer empfinden. Da die Touch-Oberfläche versteckt ist, können außerdem verschiedene Bereiche entsprechend den Vorlieben jedes Benutzers konfiguriert werden. Demnach kann die Touch-Oberfläche für bestimmte Benutzer in einem Abschnitt des Fahrzeugs, der sich näher an ihrer Person befindet, angeordnet sein, während die Touch-Oberfläche für andere Benutzer weiter weg angeordnet ist.
  • 5 zeigt ein Verfahren 500 zum Implementieren einer versteckten Touch-Oberfläche. Das Verfahren 500 kann in einem Fahrzeug implementiert sein, wie das in 4 dargestellte Beispiel.
  • In der Handlung 510 ist eine Touch-Oberfläche bereitgestellt. Die Touch-Oberfläche kann der Touch-Oberfläche 250 ähneln oder identisch sein. Dementsprechend kann die in Handlung 510 bereitgestellte Touch-Oberfläche mit einem Drucksensor, einem Winkelsensor oder einem Koordinatensensor (oder verschiedenen Kombinationen davon) ausgestattet sein.
  • In Handlung 520 ist die Touch-Oberfläche unter einer Oberflächenschicht angeordnet. Die Oberflächenschicht kann zum Beispiel die Polsterung eines Fahrzeugsinnenraums sein. Die Touch-Oberfläche kann derart angebracht sein, dass sie immer noch eine Berührung (oder einen durch die Berührung ausgelösten Druck) erkennen kann und kann unter der Oberflächenschicht versteckt sein. Die Touch-Oberfläche kann auf jede beliebige Fachleuten bekannte Art befestigt werden.
  • In Handlung 530 befinden sich die Touch-Oberfläche und die Oberflächenschicht in einem vorbestimmten Bereich und sind mit dem System 300 gekoppelt. Das System 300 kann auf verkabelte oder kabellose Weise mit der Touch-Oberfläche und der Oberflächenschicht kommunizieren. Ferner kann das System 300 mit einer Anzeige gekoppelt sein, wie der Anzeige 350.
  • Für Fachleute ist ersichtlich, dass verschiedene Modifikationen und Variationen an der vorliegenden Erfindung vorgenommen werden können, ohne vom Geist oder Umfang der Erfindung abzuweichen. Demnach ist angedacht, dass die vorliegenden Erfindung die Modifikationen und Variationen dieser Erfindung abdeckt, vorausgesetzt sie fallen in den Umfang der beigefügten Ansprüche und ihrer Entsprechungen.

Claims (20)

  1. System zum Implementieren einer versteckten Touch-Oberfläche, das Folgendes umfasst: einen Berührungsdetektor, um eine auf eine mit der versteckten Touch-Oberfläche verknüpfte Oberflächenschicht ausgeübte Berührung zu erkennen; einen Berührungssensor, um eine mit der Berührung verknüpfte Eigenschaft zu erkennen; und einen Prozessor, um die Eigenschaft mit einem vorgegebenen Befehl zu verknüpfen, wobei die Oberflächenschicht die versteckte Touch-Oberfläche versteckt.
  2. System nach Anspruch 1, wobei die versteckte Touch-Oberfläche im Innern eines Fahrzeugs platziert ist.
  3. System nach Anspruch 2, wobei die Oberflächenschicht die Polsterung des Fahrzeugs ist.
  4. System nach Anspruch 2, das ferner einen Anzeigetreiber umfasst, um eine mit dem Fahrzeug verknüpfte Anzeige zu betreiben.
  5. System nach Anspruch 4, wobei die Anzeige in einem Cockpit des Fahrzeugs installiert ist.
  6. System nach Anspruch 1, wobei der Berührungssensor ferner einen Drucksensor umfasst und die Eigenschaft ein mit der erkannten Berührung verknüpfter Druck ist.
  7. System nach Anspruch 1, wobei der Berührungssensor ferner einen Winkelsensor umfasst und die Eigenschaft der Winkel der erkannten Berührung im Verhältnis zu der versteckten Touch-Oberfläche ist.
  8. System nach Anspruch 1, wobei der Berührungssensor ferner einen Koordinatensensor umfasst und die Eigenschaft eine Koordinate der erkannten Berührung ist.
  9. System nach Anspruch 1, wobei der Berührungssensor und der Berührungsdetektor einstückig ausgeführt sind.
  10. Verfahren zum Implementieren einer versteckten Touch-Oberfläche, das Folgendes umfasst: Erkennen einer auf eine mit der versteckten Touch-Oberfläche verknüpfte Oberflächenschicht ausgeübten Berührung; Erkennen einer mit der Berührung verknüpften Eigenschaft; und Verknüpfen der Eigenschaft mit einem vorgegebenen Befehl, wobei die Oberflächenschicht die versteckte Touch-Oberfläche versteckt.
  11. Verfahren nach Anspruch 10, wobei die versteckte Touch-Oberfläche im Innern eines Fahrzeugs platziert ist.
  12. Verfahren nach Anspruch 11, wobei die Oberflächenschicht die Polsterung des Fahrzeugs ist.
  13. Verfahren nach Anspruch 11, das ferner das Betreiben einer mit dem Fahrzeug verknüpften Anzeige umfasst.
  14. Verfahren nach Anspruch 13, wobei die Anzeige in einem Cockpit des Fahrzeugs installiert ist.
  15. Verfahren nach Anspruch 10, wobei die Eigenschaft ein mit der erkannten Berührung verknüpfter Druck ist.
  16. Verfahren nach Anspruch 10, wobei die Eigenschaft der Winkel der Berührung im Verhältnis zu der versteckten Touch-Oberfläche ist.
  17. Verfahren nach Anspruch 10, wobei die Eigenschaft eine Koordinate der erkannten Berührung ist.
  18. Verfahren nach Anspruch 10, wobei das Erkennen ausgeführt wird durch wenigstens eins von: einem Drucksensor, einem Winkelsensor und einem Koordinatensensor.
  19. Verfahren zum Implementieren einer versteckten Touch-Oberfläche in einem Fahrzeug, wobei das Verfahren Folgendes umfasst: Bereitstellen einer Touch-Oberfläche; Bilden einer Oberflächenschicht, um die Touch-Oberfläche zu bedecken; und Koppeln der Touch-Oberfläche mit einem Betrieb des Fahrzeugs.
  20. Verfahren nach Anspruch 19, das ferner eine Anzeige umfasst, die über die Touch-Oberfläche gesteuert wird.
DE102014118322.3A 2013-12-12 2014-12-10 Implementieren einer versteckten Touch-Oberfläche Withdrawn DE102014118322A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/104,778 US9569027B2 (en) 2013-12-12 2013-12-12 Implementing a hidden touch surface
US14/104,778 2013-12-12

Publications (1)

Publication Number Publication Date
DE102014118322A1 true DE102014118322A1 (de) 2015-06-18

Family

ID=53192807

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014118322.3A Withdrawn DE102014118322A1 (de) 2013-12-12 2014-12-10 Implementieren einer versteckten Touch-Oberfläche

Country Status (3)

Country Link
US (1) US9569027B2 (de)
JP (1) JP6063434B2 (de)
DE (1) DE102014118322A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9569027B2 (en) * 2013-12-12 2017-02-14 Visteon Global Technologies, Inc. Implementing a hidden touch surface
WO2017154904A1 (ja) * 2016-03-11 2017-09-14 東レ株式会社 光透過型導電積層体、それを用いた光透過型導電成形体
DE202020105669U1 (de) * 2019-09-13 2020-10-26 Motherson Innovations Company Limited Haltevorrichtung für ein Kraftfahrzeug
WO2024038485A1 (ja) * 2022-08-15 2024-02-22 日産自動車株式会社 車両用入力装置及び車両用入力方法

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5880411A (en) 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US5548306A (en) * 1994-04-28 1996-08-20 At&T Global Information Solutions Company Visible and touchable touch screen shield
JP4132150B2 (ja) * 1997-10-06 2008-08-13 富士重工業株式会社 車載機器の集中制御装置
US9239673B2 (en) * 1998-01-26 2016-01-19 Apple Inc. Gesturing with a multipoint sensing device
JP2002297309A (ja) * 2001-03-29 2002-10-11 Sharp Corp 入力装置
US8245158B1 (en) * 2002-03-11 2012-08-14 Brad Schrick System and method for providing a keyboard type interface for a computing device
JP4619630B2 (ja) * 2002-07-16 2011-01-26 アルプス電気株式会社 入力装置
KR101016981B1 (ko) * 2002-11-29 2011-02-28 코닌클리케 필립스 일렉트로닉스 엔.브이. 데이터 처리 시스템, 사용자로 하여금 데이터 처리 시스템과 대화하도록 하는 방법, 및 컴퓨터 프로그램 제품을 저장한 컴퓨터 판독가능 매체
CN1910540B (zh) * 2004-01-09 2012-04-25 皇家飞利浦电子股份有限公司 双面板导航
JP4443395B2 (ja) * 2004-12-03 2010-03-31 アルプス電気株式会社 入力装置
JP4675152B2 (ja) * 2005-05-16 2011-04-20 株式会社ワコム 可搬性を備えるコンピュータ
GB0515175D0 (en) 2005-07-25 2005-08-31 Plastic Logic Ltd Flexible resistive touch screen
JP4897596B2 (ja) * 2007-07-12 2012-03-14 ソニー株式会社 入力装置、記憶媒体、情報入力方法及び電子機器
US9280239B2 (en) * 2008-05-22 2016-03-08 Plantronics, Inc. Touch sensitive controls with weakly conductive touch surfaces
US8604364B2 (en) * 2008-08-15 2013-12-10 Lester F. Ludwig Sensors, algorithms and applications for a high dimensional touchpad
US8321802B2 (en) * 2008-11-13 2012-11-27 Qualcomm Incorporated Method and system for context dependent pop-up menus
JP2011008425A (ja) * 2009-06-24 2011-01-13 Sharp Corp 電子機器、動作モード設定方法、およびプログラム
JPWO2011077525A1 (ja) * 2009-12-24 2013-05-02 富士通株式会社 電子機器、操作検出方法及び操作検出プログラム
US8806362B2 (en) * 2010-01-06 2014-08-12 Apple Inc. Device, method, and graphical user interface for accessing alternate keys
US9092125B2 (en) * 2010-04-08 2015-07-28 Avaya Inc. Multi-mode touchscreen user interface for a multi-state touchscreen device
JP5625612B2 (ja) * 2010-08-19 2014-11-19 株式会社リコー 操作表示装置および操作表示方法
JP2012048504A (ja) * 2010-08-26 2012-03-08 Kyocera Corp 入力装置
US9788075B2 (en) * 2010-08-27 2017-10-10 Intel Corporation Techniques for augmenting a digital on-screen graphic
JP2013003949A (ja) * 2011-06-20 2013-01-07 Nec Casio Mobile Communications Ltd 情報端末装置、入力方法およびプログラム
US8812983B2 (en) * 2012-02-17 2014-08-19 Lenovo (Singapore) Pte. Ltd. Automatic magnification and selection confirmation
JP2013186661A (ja) * 2012-03-07 2013-09-19 Denso Corp 入力検出システム
US9891068B2 (en) * 2013-06-08 2018-02-13 Apple Inc. Mapping application search function
US9507495B2 (en) * 2013-04-03 2016-11-29 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US8812995B1 (en) * 2013-04-10 2014-08-19 Google Inc. System and method for disambiguating item selection
US9569027B2 (en) * 2013-12-12 2017-02-14 Visteon Global Technologies, Inc. Implementing a hidden touch surface

Also Published As

Publication number Publication date
US20150169115A1 (en) 2015-06-18
US9569027B2 (en) 2017-02-14
JP2015115077A (ja) 2015-06-22
JP6063434B2 (ja) 2017-01-18

Similar Documents

Publication Publication Date Title
DE102013111978B4 (de) Identifikation und Verwendung von Gesten in der Nähe eines Sensors
CN102722334B (zh) 触摸屏幕的控制方法及装置
US9285972B2 (en) Size adjustment control for user interface elements
US9052819B2 (en) Intelligent gesture-based user's instantaneous interaction and task requirements recognition system and method
US20070152959A1 (en) Pressure-sensitive button
DE102014118322A1 (de) Implementieren einer versteckten Touch-Oberfläche
US20180253220A1 (en) User input mechanism
US10222970B2 (en) Selecting and performing contextual actions via user interface objects
DE102018221024A1 (de) Einrichtung und verfahren zum betätigen eines auf einer berührungssteuerung basierenden lenkrads
US10739912B2 (en) Enhancing touch-sensitive device precision
DE202016001024U1 (de) Navigations-Benutzerschnittstelle
US10255101B2 (en) Device emulator
CN105378635A (zh) 多区域触摸板
EP3234743B1 (de) Verfahren zum betreiben einer bedienvorrichtung eines kraftfahrzeugs in unterschiedlichen bedienmodi sowie bedienvorrichtung und kraftfahrzeug
DE112013006349T5 (de) Touchscreen mit Verhinderung einer unbeabsichtigter Eingabe
DE102015101827A1 (de) Bereitstellen einer multimodalen Einzelaktionsschnittstelle
US10222906B2 (en) Input device for vehicle and method of controlling input device for vehicle
US10147164B2 (en) Electronic device and data-erasing method
TW201520877A (zh) 手勢操作方法及游標的呼叫方法
CN102999258B (zh) 电子装置及快速定位菜单选项的方法
DE102013021814A1 (de) Bedienvorrichtung mit Eyetracker
KR102296968B1 (ko) 즐겨찾기모드 조작방법 및 이를 수행하는 터치 스크린을 포함하는 장치
JP6724172B2 (ja) 座標入力装置
DE102015101802A1 (de) Bereitstellen eines Callouts basierend auf einer erkannten Ausrichtung
US20140085197A1 (en) Control and visualization for multi touch connected devices

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN PATENTANWA, DE

R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee