DE102011016389A1 - Multimodus-Berührungsbildschirm-Benutzeroberfläche für eine mehrstufige Berührungsbildschirmvorrichtung - Google Patents

Multimodus-Berührungsbildschirm-Benutzeroberfläche für eine mehrstufige Berührungsbildschirmvorrichtung Download PDF

Info

Publication number
DE102011016389A1
DE102011016389A1 DE201110016389 DE102011016389A DE102011016389A1 DE 102011016389 A1 DE102011016389 A1 DE 102011016389A1 DE 201110016389 DE201110016389 DE 201110016389 DE 102011016389 A DE102011016389 A DE 102011016389A DE 102011016389 A1 DE102011016389 A1 DE 102011016389A1
Authority
DE
Germany
Prior art keywords
input
touch
finger
transition
fingernail
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE201110016389
Other languages
English (en)
Inventor
Paul Roller Michaelis
David Scott Mohler
Richard L. Robinson
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Avaya Inc
Original Assignee
Avaya Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Avaya Inc filed Critical Avaya Inc
Publication of DE102011016389A1 publication Critical patent/DE102011016389A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

Eine einfache beispielhafte Ausführungsform kann sich die Fähigkeit der Berührungsbildschirm- oder Tastfeldvorrichtung zu Nutze machen, zwischen einem Druck eines Fingernagels und dem einer handflächenseitigen Fingerspitze als binäre Unterscheidung zu differenzieren. Dies kann über lange Nägel oder alternativ durch Drehen einer Hand zum Umkehren des Fingers erfolgen. Die binäre Unterscheidung kann zum Ausführen verschiedener Funktionen genutzt werden. Beispielsweise könnte es sich bei einem Fingerspitzendruck um das funktionale Äquivalent eines Links-Klicks an einer Maus handeln und bei einem Fingernageldruck um das Äquivalent eines Rechts-Klicks. Ein weiteres Beispiel, das eine einfache binäre Unterscheidung nutzt, könnte sein, dass ein Fingerspitzendruck während des Tippens zu Kleinbuchstaben führt und ein Fingernageldruck während des Tippens zu Großbuchstaben führt. Ein weiteres Beispiel, das eine binäre Unterscheidung nutzt, würde eine leichte Berührung für Rechts-Klicks oder Großbuchstaben interpretieren und eine starke Berührung für Links-Klicks oder Kleinbuchstaben.

Description

  • ANGABEN ZU VERWANDTEN ANMELDUNGEN
  • Diese Anmeldung ist verwandt mit:
    U.S. Anmeldung Nr.: ... 12/689,493, eingereicht am 19. Januar 2010, mit dem Titel ”Detection of a Rolling Motion or Sliding Motion of a Body Part an a Surface” (Erkennung einer Rollbewegung oder Gleitbewegung eines Körperteils auf einer Oberfläche),
    U.S. Anmeldung Nr.: ... 12/689,567, eingereicht am 19. Januar 2010, mit dem Titel ”Event Generation Based an Print Portion Identification” (Ereigniserzeugung basierend auf Druckabschnittsidentifikation),
    U.S. Anmeldung Nr.: ... (Atty. Docket Nr.: 4366YDT-61), hiermit eingereicht, mit dem Titel” Multi-Mode Prosthetic Device To Facilitate Multi-State Touch Screen Detection” (Multimodus-Prothesevorrichtung zum Erleichtern der Erkennung mehrstufiger Berührungsbildschirme), die allesamt durch Literaturhinweis in ihrer Gesamtheit hierin enthalten sind.
  • GEBIET
  • Ein beispielhafter Aspekt richtet sich auf Eingabevorrichtungen. Insbesondere richtet sich ein beispielhafter Aspekt auf eine Berührungsbildschirm-Benutzeroberfläche mit mehreren Modi.
  • HINTERGRUND
  • Bei einem Tastfeld, das auch als Trackpad bekannt ist, handelt es sich um eine Eingabevorrichtung mit einer speziellen Oberfläche, die fähig ist, die Bewegung und Position des Fingers eines Benutzers in eine relative Position auf beispielsweise einem Bildschirm umzuwandeln. Tastfelder werden auf Laptop-Computern immer häufiger und können außerdem als Ersatz für eine Computermaus verwendet werden, wenn beispielweise begrenzter Platz vorhanden ist. Tastfelder haben unterschiedliche Größen, werden jedoch selten größer als 40 cm2 ausgeführt, wobei ihre Größe im Allgemeinen proportional zur Vorrichtung ist, zu der sie gehören. Sie finden sich außerdem an persönlichen digitalen Assistenten (PDAs), tragbaren Medienabspielgeräten, Laptops, Netbooks und dergleichen.
  • Im Allgemeinen funktionieren Tastfelder entweder basierend auf kapazitivem Abfühlen und/oder Leitwertsabfühlen. Bei der gebräuchlichsten Technik wird die Kapazität eines Fingers oder die Kapazität zwischen Sensoren abgefühlt. Aufgrund der abgefühlten Eigenschaft fühlen auf Kapazität beruhende Tastfelder die Spitze eines Bleistifts oder ähnlichen Hilfsmittels nicht. Behandschuhte Finger sind allgemein ebenfalls problematisch und können Probleme verursachen, wenn ein Benutzer versucht, die Vorrichtung zu betätigen.
  • Tastfelder sind, ähnlich wie Berührungsbildschirme, konstruktionsbedingt in der Lage, absolute Positionen abzufühlen, wobei die Genauigkeit durch ihre Größe begrenzt ist. Für die übliche Verwendung als Zeigevorrichtung wird die Ziehbewegung eines Fingers in eine feinere relative Bewegung des Cursors auf dem Bildschirm umgewandelt, analog der Handhabung einer Maus, die angehoben und auf eine Oberfläche zurückgestellt wird. Tasten, die mit denen an einer Maus vergleichbar sind, befinden sich typischerweise unter, über oder neben dem Tastfeld, wobei eine Taste auf ähnliche Weise dient, wie die Tasten an einer Maus. Je nach Modell des Tastfelds und der sich dahinter befindlichen Treiber kann möglicherweise geklickt werden, indem mit dem Finger auf das Tastfeld getippt wird und durch ein Ziehen mit Tippen gefolgt von einer kontinuierlichen Zeigebewegung (eineinhalb Klicks). Tastfeldtreiber können außerdem die Verwendung mehrerer Finger zulassen, um die den anderen Maustasten entsprechende Funktionalität zu ermöglichen, üblicherweise kann ein Tippen mit zwei Fingern zu der mittleren Taste einer Maus korreliert werden.
  • Manche Tastfelder haben außerdem ”Notspots”, bei denen es sich um Stellen auf dem Tastfeld handelt, die andere Benutzerabsichten als Zeigen angeben. Beispielsweise wirkt bei gewissen Tastfeldern das Bewegen des Fingers entlang einem Rand des Tastfelds als Scrollrad zum Steuern des Scrollbalkens und Scrollen des Fensters mit vertikaler oder horizontaler Ausrichtung, je nachdem, über welchen Rand gestrichen wird. Manche Firmen verwenden Ziehgesten mit zwei Fingern zum Scrollen auf ihren Tastfeldern, wobei es sich dabei typischerweise um treiberabhängige Funktionen handelt, die von einem Benutzer aktiviert oder deaktiviert werden können. Manche Tastfelder enthalten außerdem Tippzonen, bei denen es sich um Regionen handelt, in denen ein Tippen eine vorherbestimmte Funktion ausführt. Beispielsweise könnte es sich bei der Funktion um das Pausieren der Medienabspielvorrichtung oder das Starten einer Applikation handeln.
  • Es gibt zwei Haupttechniken, die in Tastfeldern verwendet werden. Bei einem Matrixvorgehen wird eine Reihe von Leitern in einer Anordnung paralleler Linien in Schichten angeordnet, die durch einen Isolator getrennt sind und sich in rechten Winkeln kreuzen, um ein Gitter zu bilden. Ein Hochfrequenzsignal wird nacheinander zwischen Paaren in dieser zweidimensionalen Gitteranordnung angelegt. Der Strom, der zwischen den Knoten fließt, ist proportional zur Kapazität. Wenn eine virtuelle Erde, wie beispielsweise ein Finger, über eine der Kreuzungsstellen zwischen der leitfähigen Schicht platziert wird, entsteht ein Nebenschluss zwischen einem Teil des elektrischen Felds und diesem virtuellen Erdungspunkt, was zu einer Änderung der scheinbaren Kapazität an dieser Stelle führt.
  • Bei dem Verfahren mit kapazitivem Nebenschluss fühlt das Feld die sich ändernde Kapazität zwischen einem Sender und einem Empfänger, die sich auf gegenüberliegenden Seiten des Sensors befinden. Der Sender erzeugt ein elektrisches Feld, das typischerweise mit zwischen 200 und 300 kHz oszilliert. Wenn ein Erdungspunkt, wie beispielsweise ein Finger, zwischen den Sender und den Empfänger platziert wird, werden einige der Feldlinien weggeführt, wodurch die scheinbare Kapazität gesenkt wird. Diese Änderungen der Kapazität werden dann als Eingabe von der Vorrichtung genutzt.
  • Es gibt auch Tastfelder mit fortgeschrittener Funktionalität, wobei Benutzer beispielsweise in beliebiger Richtung scrollen können, indem sie das Feld mit zwei Fingern statt einem berühren und dann ihre Finger in der Richtung, in der sie scrollen möchten, über das Feld bewegen. Weitere erweiterte Funktionen umfassen die Fähigkeit, zuzulassen, dass Benutzer verschiedene Kombinationen von Gesten ausführen, beispielsweise das Streichen von vier Fingern nach oben oder nach unten, um eine bestimmte Applikation zu aktivieren.
  • Ein Berührungsbildschirm ist eine elektronische optische Anzeige, die die Anwesenheit und den Ort einer Berührung innerhalb des Anzeigebereichs erkennen kann. Der Begriff bezieht sich im Allgemeinen auf Kontakt oder Berührung der Anzeige der Vorrichtung mit einem Finger, Finger oder einer Hand. Berührungsbildschirme können auch andere passive Gegenstände abfühlen, beispielsweise einen Stift. Im Allgemeinen wird jeder Bildschirm, der es einem Benutzer ermöglicht, über direkte Manipulation physisch mit dem auf der Anzeige Angezeigten in Wechselwirkung zu treten, typischerweise als Berührungsbildschirm bezeichnet.
  • Berührungsbildschirme haben typischerweise zwei Hauptmerkmale. Das erste ist, dass der Berührungsbildschirm es einem ermöglicht, mit dem auf dem Angezeigten direkt auf dem Bildschirm, dort wo es angezeigt wird, in Wechselwirkung zu treten, statt indirekt mit einer Maus oder einem Tastfeld. Zweitens ermöglicht es ein Berührungsbildschirm einem Benutzer, wieder mit der Anzeige in Wechselwirkung zu treten, ohne dass eine Zwischenvorrichtung benötigt wird, wie beispielsweise ein Stift, eine Maus oder dergleichen, die normalerweise in der Hand gehalten würde. Diese Vorrichtungen sind häufig bei Tablet-PCs zu sehen und finden sich außerdem oft in vielen digitalen Geräten, wie beispielsweise PDAs, Satellitennavigationsvorrichtungen, Mobiltelefonen, mobilen Unterhaltungsvorrichtungen, Videospielen und dergleichen.
  • Es gibt eine Reihe von Techniken, die verschiedene Berührungsbildschirme unterstützen, wie beispielsweise Widerstandstechniken, akustische Oberflächenwellen nutzende Techniken, kapazitive Techniken, Oberflächenkapazität nutzende Techniken, projizierte Kapazität nutzende Techniken, Dehnungsmessstreifen nutzende Techniken, optische Abbildung nutzende Techniken, Dispersive-Signal-Techniken, akustische Impulserkennung nutzende Techniken und codierte LCD-Techniken (bidirektionaler Bildschirm).
  • ZUSAMMENFASSUNG
  • Ein beispielhafter Aspekt richtet sich auf verbesserte Funktionalität, die mit einem Berührungsbildschirm und/oder einem Tastfeld und/oder einem Trackpad assoziiert ist, der bzw. das natürliche, bequeme und einfach zu verwendende und zu verstehende Metaphern von Modalitäten umfasst, um neuere, dichtere, kompliziertere und abstraktere Funktionalität zu unterstützen.
  • Berührungsbildschirm-, Tastfeld- und Trackpadvorrichtungen (und die ihnen zugrunde liegenden Techniken, wie vorangehend dargelegt) sind bekannt, eine beispielhafte Ausführungsform richtet sich jedoch auf eine verbesserte Version dieser Oberflächen, die mehrstufige Erkennungsfähigkeiten vorsieht, um mehrere Berührungszustände zu erkennen, wie etwa die Differenzierung zwischen einem Fingernagel und einer handflächenseitigen Fingerspitze.
  • Die hierin offenbarten Verfahren können auch auf eine Prothese ausgedehnt werden, die nicht nur einen Finger simuliert, sondern außerdem neue Berührungsanwesenheits- und Gestenmodalitäten mit den begleitenden Attributen einführt, die mit dem Stand der Technik nicht möglich oder nicht so natürlich sind. Zum Beispiel kann sich die Benutzeroberflächenfunktionalität mit dem für die Prothese ausgewählten Modus verändern.
  • Eine weitere beispielhafte Ausführungsform sieht nicht nur eine einfache und flexible neue Art von Oberfläche für Eingabevorrichtungen, wie etwa Berührungsbildschirme und Tastfelder vor, sondern ermöglicht außerdem einfachere und natürlichere Gesten, als die wie vorangehend beschrieben benötigten.
  • Eine einfache beispielhafte Ausführungsform dieser Benutzeroberfläche kann sich die Fähigkeit der Berührungsbildschirm- oder Tastfeldvorrichtung zu Nutze machen, zwischen einem Druck eines Fingernagels und dem einer handflächenseitigen Fingerspitze als binäre Unterscheidung zu differenzieren. Dies kann über lange Nägel oder alternativ durch Drehen einer Hand zum Umkehren des Fingers erfolgen. Die binäre Unterscheidung kann zum Ausführen verschiedener Funktionen genutzt werden. Beispielsweise könnte es sich bei einem Fingerspitzendruck um das funktionale Äquivalent eines Links-Klicks an einer Maus handeln und bei einem Fingernageldruck um das Äquivalent eines Rechts-Klicks. Ein weiteres Beispiel, das eine einfache binäre Unterscheidung nutzt, könnte sein, dass ein Fingerspitzendruck während des Tippens zu Kleinbuchstaben führt und ein Fingernageldruck während des Tippens zu Großbuchstaben führt. Ein weiteres Beispiel, das eine binäre Unterscheidung nutzt, würde eine leichte Berührung für Rechts-Klicks oder Großbuchstaben interpretieren und eine starke Berührung für Links-Klicks oder Kleinbuchstaben.
  • In einer weiteren beispielhaften Ausführungsform könnte eine Fingerdrehung von der Spitze zum Nagel oder vom Nagel zur Spitze einer Anzeige melden ”zur nächsten Seite zu gehen” bzw. ”eine Seite zurück zu gehen” – oder andere binäre Unterscheidungen.
  • Leistungsfähigere beispielhafte Ausführungsformen der Benutzeroberfläche könnten derzeit komplexe, unnatürliche und schwer zu merkende Gesten durch einfachere und natürlichere Gesten ersetzen, die mit dem Stand der Technik nicht möglich sind. Beispielsweise könnte das Drehen des Fingers von Handfläche zu Nagel in verschiedenen Orientierungen und Geschwindigkeiten vergleichbare Nick-, Roll- und Gierdrehungen eines angezeigten Objekts erhalten. Der Fachmann kann sich ähnliche aber noch einfachere Gesten vorstellen, die den Finger immer in die selbe Position zurückbringen, ohne die Orientierung ändern zu müssen.
  • Diese beispielhafte Benutzeroberfläche könnte von Personen mit beispielsweise amyotropher Lateralsklerose (ALS) verwendet werden. ALS ist eine Form von Bewegungsneuronerkrankung, die am bekanntesten mit Steven Hawking und Lou Gehrig in Verbindung gebracht wird. ALS wird durch die Degeneration der Motorneuronen verursacht, die die willkürliche Muskelbewegung steuern. Steven Hawking hat die Fähigkeit behalten, einen seiner Finger zu bewegen (so bedient er seinen Computer), hat jedoch keine Fähigkeit, seinen Arm zu bewegen. Wenn er sich diese verwandten Ideen zu Nutze machen würde, könnte sein Finger Modi ändern, was für ihn und Andere wie ihn sehr hilfreich sein könnte.
  • In einer weiteren beispielhaften Ausführungsform könnte die Benutzeroberfläche eine begleitende Rückmeldungsanzeige des Fingers oder der Prothese als Hilfsmittel für den Benutzer bereitstellen. Die Anzeige könnte den Finger genau anzeigen oder könnte verbessert oder mit Farben virtualisiert werden, um Grenzen, Geschwindigkeit, Beschleunigung, Rucken (die Änderungsgeschwindigkeit der Beschleunigung) anzugeben oder andere Mittel zum Unterstützen des Benutzers nutzen, die dem Fachmann auf dem Gebiet menschlicher Faktoren bekannt sind, oder dergleichen.
  • Gemäß einer beispielhaften Ausführungsform lässt die durch die neue Eingabevorrichtung gewonnene neue Flexibilität zu, dass die Benutzeroberfläche viel leistungsfähigere räumliche Modi beinhaltet, um mehrere Objekte in beliebigen Gruppierungen zu assoziieren und korrelieren, um die schnelle Entwicklung zu unterstützen, flexible Erweiterung zu erzeugen und rasch neue und neuartige, noch nicht vorhersehbare Modalitäten, Funktionalität und Attribute zu unterstützen.
  • Eine weitere beispielhafte Ausführungsform macht sich genauere Unterscheidungen zwischen Fingerspitze, Fingernagel, Stift oder der neu vorgeschlagenen Prothesevorrichtung zu Nutze, um die Bereitstellung neuer Modi, Zustände und Funktionalität zu unterstützen. Darüber hinaus unterstützt eine beispielhafte Ausführungsform, unter Verwendung der vorangehend erwähnten optionalen Prothesevorrichtung, die einen normalen Finger simuliert und neue erweiterte Fähigkeiten und/oder Betriebsmodi bereitstellt, zusätzliche neue, damit verwandte Funktionalität.
  • Eine weitere beispielhafte Ausführungsform macht sich genauere Unterscheidungen zwischen Fingerspitze, Fingernagel, Stift oder der neu vorgeschlagenen Prothesevorrichtung zu Nutze, um die Bereitstellung neuer Modi, Zustände und Funktionalität basierend auf einer Bewertung der mit der Eingabe assoziierten elektrischen/kapazitiven/induktiven ”Signatur” zu unterstützen. Darüber hinaus unterstützt eine beispielhafte Ausführungsform, unter Verwendung der vorangehend erwähnten optionalen Prothesevorrichtung, die einen normalen Finger simuliert und neue erweiterte Fähigkeiten und/oder Betriebsmodi bereitstellt, zusätzliche neue, damit verwandte Funktionalität.
  • Eine zusätzliche beispielhafte Ausführungsform sieht einen beispiellosen mehrstufigen Berührungsbildschirm vor, der neue und erweiterbare mit Truhe zusammenhängende Funktionalität bereitstellt, um den Stand der Technik auf noch nicht vorauszusehende Weisen zu unterstützen und zu erweitern, indem eine mehrstufige Berührungsbildschirmvorrichtung genutzt wird, die zwischen der Anwesenheit eines Fingernagels, einer Fingerspitze, eines Stifts oder einer speziellen kompatiblen (aber optionalen) Multimodus-Prothesevorrichtung unterscheidet.
  • Eine weitere beispielhafte Ausführungsform richtet sich auf eine Prothese mit einem Fingernagel, die die hierin beschriebenen Verfahren unterstützt.
  • Eine weitere beispielhafte Ausführungsform richtet sich auf das Erkennen eines Übergangs und Abbilden dieses Übergangs auf entsprechende Funktionalität(en), wobei es sich bei dem Übergang um eines oder mehrere der Folgenden handelt:
    eine Drehung oder ein Drehungsgrad um eine Achse;
    einen Berührungspunkt, der an einer gleichen X-/Y-Koordinate bleibt, während einer oder mehrere Finger drehen; und
    einen Berührungspunkt, der sich zu einer anderen X-/Y-Koordinate verschiebt, während einer oder mehrere Finger drehen.
  • Wie hierin verwendet, handelt es sich bei ”mindestens einer”, ”einer oder mehr” sowie ”und/oder” um offene Ausdrücke, deren Operation sowohl konjunktiv als auch disjunktiv ist. Beispielsweise bedeuten die Ausdrücke ”mindestens einer von A, B und C”, ”mindestens einer von A, B oder C”, ”einer oder mehr von A, B und C”, ”einer oder mehr von A, B oder C” und ”A, B und/oder C” jeweils A alleine, B alleine, C alleine, A und B zusammen, A und C zusammen, B und C zusammen, oder A, B und C zusammen.
  • Es ist zu beachten, dass der Begriff ”ein” oder ”eine” Entität sich auf eine oder mehr dieser Entität bezieht. Als solche können die Begriffe ”ein” (oder ”eine”), ”einer oder mehr” und ”mindestens einer” hierin austauschbar verwendet werden. Es ist außerdem zu beachten, dass die Begriffe ”umfassend”, ”beinhaltend” und ”aufweisend” austauschbar verwendet werden können.
  • Der Begriff ”automatisch” und Varianten desselben betreffen, wie hierin verwendet, jedes Verfahren und jeden Ablauf, die ohne wesentliche menschliche Eingabe erfolgen, wenn das Verfahren bzw. der Ablauf ausgeführt wird. Ein Verfahren oder ein Ablauf kann jedoch selbst dann automatisch sein, wenn das Ausführen des Verfahrens oder des Ablaufs menschliche Eingaben nutzt, ob wesentlich oder unwesentlich, die vor dem Ausführen des Verfahrens oder des Ablaufs empfangen werden. Menschliche Eingaben werden als wesentlich betrachtet, wenn derartige Eingaben beeinflussen, wie das Verfahren oder der Ablauf ausgeführt wird. Menschliche Eingaben, die die Ausführung des Verfahrens oder des Ablaufs erlauben, werden nicht als ”wesentlich” betrachtet.
  • Der Begriff ”computerlesbares Medium”, wie er hierin verwendet wird, bezieht sich auf jedes nicht vergängliche greifbare Speicher- und/oder Übertragungsmedium, das daran beteiligt ist, Anweisungen zur Ausführung an einen Prozessor bereitzustellen. Ein derartiges Medium kann viele Formen annehmen, einschließlich, aber nicht beschränkt auf nichtflüchtige Medien, flüchtige Medien und Übertragungsmedien. Nichtflüchtige Medien umfassen beispielsweise NVRAM oder magnetische oder optische Platten, Scheiben oder Disketten. Flüchtige Medien umfassen dynamische Speicher wie beispielsweise Hauptspeicher. Gebräuchliche Formen computerlesbarer Medien umfassen beispielsweise eine Diskette, eine biegsame Platte, eine Festplatte, ein Magnetband oder ein beliebiges anders magnetisches Medium, ein magneto-optisches Medium, eine CD-ROM, ein beliebiges anderes optisches Medium, Lochkarten, Papierband, ein beliebiges anders physisches Medium mit Lochmustern, RAM, PROM, EPROM, FLASH-EPROM, ein Festkörpermedium wie eine Speicherkarte, einen beliebigen anderen Speicherchip oder Speicherkassette, eine Trägerwelle wie hierin nachfolgend beschrieben oder ein beliebiges anderes Medium, von dem ein Computer lesen kann. Eine an E-Mail angehängte digitale Datei oder ein anderes in sich abgeschlossenes Informationsarchiv oder Satz von Archiven wird als zu einem greifbaren Speichermedium äquivalentes Verteilungsmedium betrachtet. Wenn die computerlesbaren Medien als Datenbank ausgebildet sind, ist zu beachten, dass es sich bei der Datenbank um eine beliebige Art von Datenbank handeln kann, wie zum Beispiel relational, hierarchisch, objektorientiert und/oder dergleichen. Dementsprechend soll diese Offenbarung ein greifbares Speichermedium oder Verteilungsmedium und nach dem Stand der Technik anerkannte Äquivalente und Nachfolgermedien umfassen, in denen die Softwareumsetzungen der vorliegenden Ausführungsformen gespeichert werden.
  • Die Begriffe ”bestimmen” und ”berechnen” sowie Varianten derselben, wie sie hierin verwendet werden, werden austauschbar verwendet und umfassen beliebige Arten von Methodologie, Prozessen, mathematischen Operationen oder Verfahren.
  • Der Begriff ”Modul”, wie er hierin verwendet wird, bezieht sich auf eine beliebige bekannte oder später entwickelte Hardware, Software, Firmware, künstliche Intelligenz, Fuzzy Logic oder Kombinationen von Hardware und Software, die in der Lage ist, die mit denjenigem Element assoziierte Funktionalität auszuführen. Obwohl die Ausführungsformen anhand beispielhafter Ausführungsformen beschrieben wird, ist außerdem zu beachten, dass einzelne Aspekte der Ausführungsformen getrennt beansprucht werden können.
  • Das Vorangehende ist eine vereinfachte Zusammenfassung der Ausführungsformen, um Verständnis einiger Aspekte derselben zu vermitteln. Diese Zusammenfassung ist weder eine ausführliche noch eine vollständige Übersicht der verschiedenen Ausführungsformen. Sie soll weder wichtige oder kritische Elemente der Ausführungsformen aufzeigen, noch den Umfang der Ausführungsformen abgrenzen, sondern ausgewählte Konzepte der Ausführungsformen auf vereinfachte Weise als Einführung für die nachfolgende, ausführlichere Beschreibung darlegen. Wie man einsehen wird, sind andere Ausführungsformen unter Nutzung eines oder mehrerer der vorangehend aufgeführten oder nachfolgend ausführlich beschriebenen Merkmale, alleine oder in Kombination, möglich.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die hierin offenbarten beispielhaften Ausführungsformen werden in Bezug auf die Figuren erörtert, wobei:
  • 1 ein Blockdiagramm ist, das eine beispielhafte Benutzeroberfläche zeigt;
  • 2A2F die beispielhaften Fingerpositionen zeigen;
  • 3 ein Ablaufdiagramm ist, das ein beispielhaftes Verfahren zum Bedienen einer Benutzeroberfläche darlegt; und
  • 4 eine Tabelle ist, die verschiedene, mit verschiedenen erkannten Eingabeeigenschaften assoziierte Funktionalitäten darlegt.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die Verfahren werden nun nachfolgend in Zusammenhang mit einem beispielhaften elektronischen System veranschaulicht. Obwohl sie sich gut für die Verwendung mit z. B. einem System eignen, das eine Computer-/Elektronikvorrichtung, einen oder mehrere Server, Kommunikationsvorrichtungen und/oder eine Datenbank/Datenbanken nutzt, sind die Ausführungsformen nicht auf die Verwendung mit einer bestimmten Art von elektronischer Vorrichtung oder Vorrichtungen oder System oder Konfiguration von Systemelementen beschränkt. Der Fachmann wird einsehen, dass die offenbarten Verfahren in jeder Anwendung eingesetzt werden können, in der es erwünscht ist, verbesserte Eingabefähigkeiten bereitzustellen.
  • Die beispielhaften Systeme und Verfahren werden außerdem in Zusammenhang mit Software (wie beispielsweise Treibern), Modulen und zugehöriger Hardware beschrieben. Um ein unnötiges Verschleiern der vorliegenden Offenbarung zu vermeiden, lässt die nachfolgende Beschreibung jedoch wohlbekannte Strukturen, Bauteile und Vorrichtungen aus, die in Blockdiagrammform dargestellt werden können, wohlbekannt sind oder anderweitig zusammengefasst werden.
  • Zum Zweck der Erläuterung werden zahlreiche spezifische Einzelheiten beschrieben, um für ein umfassendes Verständnis der Ausführungsformen zu sorgen. Es versteht sich jedoch, dass die hierin offenbarten Verfahren auf verschiedene, über die hierin beschriebenen spezifischen Einzelheiten hinausgehende Weise ausgeführt werden können.
  • 1 zeigt eine beispielhafte Ausführungsform einer Eingabevorrichtung 200. Obwohl sich die hierin nachfolgend erörterten Ausführungsformen auf eine tastfeldartige Vorrichtung richten, ist zu beachten, dass die hierin offenbarte Funktionalität auch auf Berührungsbildschirme, Trackpads und verwandte Eingabevorrichtungen ausgedehnt werden kann. Darüber hinaus können Hybridvorrichtungen, wie etwa eine Maus, die ein Tastfeld enthält, ebenfalls eines oder mehrere der hierin offenbarten Verfahren nutzen.
  • Die beispielhafte Ausführungsform von 1 umfasst ein Tastfeld 100, das mit einem Controller 210, einem Speicher 220, einem Tastfelder-/Berührungsbildschirmcontroller 230, einem Fingernagel-Erkennungsmodul 240, einem Dreherkennungsmodul 250 und einem Übergangsreizmodul 260 verbunden ist. Um die Darstellung zu erleichtern, wurden alle bekannten und herkömmlichen Komponenten der Klarheit halber weggelassen, es ist jedoch zu beachten, dass diese Eingabevorrichtung, wie sie in 1 gezeigt ist, mit beispielsweise einem Personal Computer, einem PDA, einer Spielvorrichtung, einer mobilen elektronischen Vorrichtung, einem Laptop, Netbook, Medienabspielgerät, Point-of-Sale-Geräten und allgemein mit einer beliebigen elektronischen Vorrichtung assoziiert sein kann.
  • Wie erörtert, richten sich beispielhafte Ausführungsformen auf erhöhte Funktionalität, die mit der Erkennung eines Fingers oder eines Abschnitts desselben oder einer prosthetischen Eingabevorrichtung und zugehörigen Tätigkeiten assoziiert ist. Zum Beispiel umfasst in 1 der Finger 110 einen Fingerabschnitt 120, wie etwa einen Fingerabdruck und/oder eine Fingerspitze und einen Fingernagel 115. Der Fingernagel 115 und/oder der Fingerabschnitt 120 berühren das Tastfeld 100, um eine elektronische Vorrichtung zu steuern und/oder Eingaben daran einzugeben. Zusätzlich dazu, dass der Finger 110 in der traditionellen X- und Y-Richtung auf dem Tastfeld 100 bewegt werden kann und gemäß einer beispielhaften Ausführungsform, kann der Finger 110 um die X-Achse ”nach vorne drehen” und dadurch die Fingerspitze, und wenn der Finger 110 weiter nach vorne rollt, den Fingernagel 115 mit dem Tastfeld 100 in Berührung bringen. Wie genauer erörtert wird, kann eine gewisse Funktionalität mit diesem speziellen Muster oder dieser speziellen Bewegung assoziiert werden, wobei diese Funktionalität eine Auswirkung auf den Betrieb der elektronischen Vorrichtung hat.
  • Des Weiteren, und wie hierin nachfolgend genauer erörtert wird, kann der Finger 110 um die Y-Achse, die Z-Achse und/oder die X-Achse drehen, wobei alle dieser Bewegungen außerdem entsprechende Funktionalität aufweisen können. Außerdem können Kombinationen von X-, Y- und Z-Bewegung ebenfalls Bedeutungen über diskrete X-, Y- und Z-Bewegungen hinaus haben, die denen ähnlich sind, die sie mit einem Joystick haben, wobei der Finger als virtueller Joystick verwendet wird. Außerdem kann in einem anderen Betriebsmodus unterschieden werden zwischen einer Fingerdrehung, bei der sich der Berührungspunkt auf dem Berührungsbildschirm/Tastfeld nicht ändert (wobei sich der Fingerberührungsabschnitt ändert oder nicht) – d. h. der Berührungspunkt bleibt bei der selben X-/Y-Koordinate während sich der Finger dreht – und dem Fall, bei dem sich der Berührungspunkt während der Fingerdrehung verschiebt. Diese verschiedenen Wechselwirkungen könnten ebenso auf entsprechende Funktionalität abgebildet werden.
  • Die relative Bewegung des Fingers 110 wird nun in Bezug auf 2A–F beschrieben. Zum Beispiel gibt es, wie in 2A gezeigt, wenn der Finger 110 mit dem Tastfeld 100 in Berührung kommt, einen Fingerberührungsabschnitt 122, wo ein Abschnitt des Fingers mit dem Tastfeld in Berührung kommt. Mit dieser Berührung ist, basierend auf der Art der verwendeten Eingabevorrichtung, eine entsprechende kapazitive, induktive, resistive oder optische Änderung assoziiert, die erkennbar ist und unter Zusammenwirkung mit dem Tastfeldcontroller 230 in eine entsprechende Handlung an der elektronischen Vorrichtung übersetzt wird. 2B2E zeigen einen Übergang davon, dass ein größerer Abschnitt des Fingers das Tastfeld berührt, wie in 2A gezeigt, dazu, dass nur ein Fingernagel das Tastfeld berührt, wie in 2E gezeigt. Insbesondere wird der Finger in 2B um die X-Achse gedreht und wenn diese Drehung stattfindet, berührt ein kleinerer Fingerberührungsabschnitt 122 das Tastfeld 100. In Zusammenwirkung mit dem Übergangsreizmodul 260 und dem Tastfeldcontroller 230 ist diese Abnahme der Fläche des Fingerberührungsabschnitts erkennbar und kann mit einer bestimmten Funktion der elektronischen Vorrichtung korreliert werden. Gemäß dieser beispielhaften Ausführungsform liegt, wenn der Finger um die X-Achse gedreht wird, eine Zunahme der Körnigkeit der Eingabe vor, die optional mit einer Zoomfunktion gekoppelt werden kann. Wenn sich der Finger weiter um die X-Achse dreht, wie in 2C und 2D gezeigt, liegt eine entsprechende größere Zunahme der Körnigkeit vor, wobei vom Übergangsreizmodul 260 und dem Fingernagelerkennungsmodul 240 erkannt werden kann, dass der Fingernagel 115 ebenfalls mit dem Tastfeld 100 in Berührung gekommen ist. Wenn sich der Finger noch weiter um die X-Achse dreht, zeigt 2E den Fall, dass nur der Fingernagel 115 das Tastfeld 100 berührt und vom Fingernagelerkennungsmodul 240 erkennbar ist. In Anbetracht der Tatsache, dass die das Tastfeld 100 berührende Fläche sowie das das Tastfeld 100 berührende Material (Haut im Gegensatz zu Keratin) unterschiedliche erkennbare elektrische Eigenschaften haben, findet eine entsprechende Änderung der mit dem Tastfeld 100 assoziierten elektrischen/optischen Eigenschaften statt. Auch diese Änderung ist vom Fingernagelerkennungsmodul 240 und/oder dem Übergangsreizmodul 260 erkennbar, wobei die Änderung mit einer bestimmten Art von Eingabe(n) korreliert werden kann, die in Zusammenwirkung mit dem Tastfeldcontroller 230 in eine entsprechende, auf der elektronischen Vorrichtung auszuführende Funktion übersetzt wird.
  • 2F zeigt eine beispielhafte Ausführungsform, bei der die Drehung des Fingers 120 auf dem Tastfeld 100 erkannt wird. Insbesondere, und in Zusammenwirkung mit dem Drehungserkennungsmodul 250, ist die Drehung des Fingers 110 um die Y-Achse erkennbar und, ähnlich wie bei den vorangehenden Ausführungsformen, unter Zusammenwirkung des Tastfeldcontrollers 230 mit einer bestimmten Funktion korrelierbar, die einer bestimmten Eingabe entspricht. Wie man einsehen wird, kann die vorangehende Funktionalität auf mehrere Finger mit mehreren Fingernägeln ausgedehnt werden und auch, wie vorangehend erörtert, auf eine Prothesevorrichtung, die beispielsweise einen künstlichen Fingernagel umfassen kann und/oder derart ausgebildet sein kann, dass wenn gewisse Rächen mit dem Tastfeld in Berührung kommen (wobei die gewisse Fläche aus einem anderen Material ist und daher eine Änderung von Haut zu Fingernagel simuliert), eine entsprechende Funktionalität ausgelost wird. Beispielsweise kann die Prothesevorrichtung mehrere Spitzen mit jeweils einer anderen Fläche und/oder aus jeweils einem anderen Material haben, wobei die verschiedenen Flächen und/oder Materialien vom Tastfeld erkennbar sind und so ähnliche Funktionalität zulassen, die damit vergleichbar ist, wenn der Fingernagel 115 erkannt wird.
  • Darüber hinaus ist zu beachten, dass die Kombinationen von Eingaben über das Tastfeld 100 empfangen werden können und diese Kombinationen mit einer spezifischen Funktion korrelierbar sind. Beispielsweise, und wie in 2D gezeigt, sind die Fingerspitze 120 und der Fingernagel 115 beide mit dem Tastfeld 100 in Berührung. Diese bestimmte Kombination könnte mit einer spezifischen Eingabe, wie etwa einem Absatzwechsel, korreliert werden.
  • Wie hierin nachfolgend genauer erörtert wird, werden Beispiele der verschiedenen Arten von Eingaben angegeben, die mit den verschiedenen Erkennungen des Tastfelds 100 korreliert werde könnten. Ein Benutzer kann jedoch im Allgemeinen und basierend auf einem entsprechenden Vorrichtungstreiber konfigurieren, zuweisen, neu zuweisen oder bearbeiten, welche eine oder mehrere Funktionen er einer entsprechenden Tätigkeit oder Position des Fingers (oder der Prothese) auf dem Tastfeld 100 zugewiesen haben möchte.
  • 3 stellt ein beispielhaftes Verfahren des Betriebs einer Eingabevorrichtung, wie etwa einem Tastfeld, einem Berührungsbildschirm oder dergleichen gemäß einer beispielhaften Ausführungsform dar. Insbesondere beginnt die Steuerung in Schritt S300 und fährt mit Schritt S310 fort. In Schritt 310 können eine oder mehrere Erkennungen aktiviert werden, wie etwa über einen Vorrichtungstreiber, optional basierend auf Benutzereinstellungen. Als Nächstes erfolgt in Schritt S320 eine Feststellung, ob Drehung um die Y-Achse erkannt wurde. Obwohl eine beispielhafte Ausführungsform in Zusammenhang mit Drehung um die Y-Achse erörtert wird, ist zu beachten, dass ein Rollen oder Drehen um die Z-Achse auf ähnliche Weise erkannt werden kann. Wenn diese Drehung erkannt wird, fährt die Steuerung mit Schritt S322 fort, wobei die Steuerung andernfalls zu Schritt S330 springt.
  • Außerdem wird, gemäß einer weiteren beispielhaften Ausführungsform, die Erkennung von Drehung auf entsprechende Funktionalität(en) abgebildet, wobei es sich bei dem Übergang um eines oder mehrere handelt, von:
    eine Drehung oder einen Drehungsgrad eines Fingers oder mehrerer Finger/einer Prothese um eine Achse;
    einen Berührungspunkt, der an einer gleichen X-/Y-Koordinate bleibt, während einer oder mehrere Finger/eine Prothese drehen; und
    einen Berührungspunkt, der sich zu anderen X-/Y-Koordinaten verschiebt, während ein Finger oder mehrere Finger/eine Prothese drehen.
  • In Schritt S322 wird die Drehung und/oder der Drehungsgrad mit einer entsprechenden Funktion oder Funktionen korreliert. Wenn zum Beispiel der Finger eine Viertelumdrehung um die Y-Achse gedreht wird, kann eine bestimmte Funktion in Schritt S324 ausgeführt werden, wobei wenn der Finger eine halbe Umdrehung um die Y-Achse gedreht würde, eine andere Funktion in Schritt S324 ausgeführt wird. Bei dieser Funktion könnte es sich um eine spezifische Funktion an der elektronischen Vorrichtung handeln oder sie könnte einfach einer Änderung der Position der Eingabevorrichtung entsprechen, oder beides. Darüber hinaus, und wie vorangehend erörtert, kann dieses Verfahren auf die Erkennung von Drehung mehrerer Finger ausgedehnt werden, die mit dem Tastfeld/Berührungsbildschirm 100 in Berührung sind, wobei diese Bewegung mit einer bestimmten Funktion oder Funktionen korreliert wird. Die Steuerung fährt dann mit Schritt S330 fort.
  • In Schritt S330 erfolgt eine Feststellung, ob ein Übergang erkannt wurde. Wenn ein Übergang erkannt wurde, fährt die Steuerung mit Schritt S332 fort, wobei die Steuerung andernfalls zu Schritt S340 springt. In Schritt S332 kann der erkannte Übergang, beispielsweise von einem großen Fingerberührungsabschnitt zu einem kleineren Fingerberührungsabschnitt, von einem Fingerberührungsabschnitt zu einem Fingerberührungsabschnitt plus Fingernagel oder allgemein ein beliebiger Übergang, der die vom Tastfeld 100 erkannten elektrischen/optischen Eigenschaften ändert, mit einer oder mehreren Funktionen korreliert werden, wobei diese Funktionen in Schritt S334 ausgeführt oder durchgeführt werden. Die Steuerung fährt dann mit Schritt S340 fort.
  • In Schritt 340 erfolgt eine Feststellung, ob einer oder mehrere Fingernägel erkannt wurden. Wenn einer oder mehrere Fingernägel erkannt wurden, fährt die Steuerung mit Schritt S342 fort, wobei die Steuerung andernfalls zu Schritt S350 springt, wo der Steuerungsablauf ändert.
  • In Schritt S342 wird die Erkennung des Nagels bzw. der Nägel mit einer oder mehreren Funktionen korreliert, die dann in Schritt S344 ausgeführt werden. Die Steuerung fährt dann mit Schritt S350 fort, wo der Steuerungsablauf endet.
  • Obwohl der vorangehende Ablauf in Zusammenhang mit aufeinanderfolgenden Schritten beschrieben wurde, ist zu beachten, dass verschiedene Schritte kombiniert und auf entsprechende Funktionalität(en) abgebildet und/oder in einer anderen Reihenfolge ausgeführt werden können.
  • 4 ist eine Tabelle, die eine oder mehrere beispielhafte Funktionen darstellt, die mit gewissen Eigenschaften, die mit der Platzierung eines mit einem Tastfeld, einem Berührungsbildschirm oder einer vergleichbaren Eingabevorrichtung in Berührung befindlichen Fingers (oder einer Prothese) assoziiert werden, korreliert werden können. Beispielsweise enthält die in 4 gezeigte Tabelle 9 Eigenschaften, die willkürlich einer entsprechenden Funktion zugewiesen wurden. Darüber hinaus wird veranschaulicht, dass Kombinationen dieser Eigenschaften zu einer Hybridfunktion führen können, wie etwa wenn ein Nagel in Kombination mit dem Rollen nach vorne (um die X-Achse) des Fingers erkannt wird, was zu einer Zoomfunktion plus einer Auswahlfunktion, wenn der Nagel mit dem Tastfeld in Berührung kommt, führt. Wenn die Eigenschaften 3 und 9 kombiniert werden, ist das Ergebnis auf ähnliche Weise eine Einfügen- oder Paste-Funktion, kombiniert mit einem ”Eingabe-” oder Klickbefehl.
  • Obwohl spezifische Verfahren und Techniken zur Verwendung erkannter Eingaben von Berührungsabschnitten eines Fingers/einer Prothese auf einem Berührungsbildschirm, einem Tastfeld oder dergleichen beschrieben wurden, wird der Fachmann einsehen, dass andere bekannte Mustererkennungsverfahren eingesetzt werden können, um Eingaben zu bestimmen.
  • Obwohl das vorangehend beschriebene Ablaufdiagramm in Zusammenhang mit einer bestimmten Folge von Ereignissen erörtert wurden, ist zu beachten, dass Änderungen dieser Folge stattfinden können, ohne die Funktion der Ausführungsformen wesentlich zu beeinflussen. Außerdem muss die genaue Folge von Ereignissen nicht so stattfinden, wie in den beispielhaften Ausführungsformen angegeben. Die hierin veranschaulichten beispielhaften Verfahren sind nicht auf die speziell veranschaulichten Ausführungsformen beschränkt, sondern können auch mit den anderen beispielhaften Ausführungsformen genutzt werden und jedes beschriebene Merkmal ist einzeln und getrennt beanspruchbar.
  • Die Systeme, Verfahren und Protokolle hierin können auf einem Spezialcomputer, zusätzlich zu oder anstelle von den beschriebenen Kommunikationsgeräten, einem programmierten Mikroprozessor oder Mikrokontroller und Bauteilen von peripheren integrierten Schaltungen, einer ASIC oder anderen integrierten Schaltung, einem digitalen Signalprozessor, einer fest verdrahteten Elektronik- oder Logikschaltung, wie beispielsweise einer Schaltung aus diskreten Bauteilen, einer programmierbaren Logikvorrichtung, wie beispielsweise PLD, PLA, FPGA, PAL, einer Kommunikationsvorrichtung, wie beispielsweise einem Telefon, einem beliebigen vergleichbaren Mittel oder dergleichen umgesetzt werden. Allgemein kann jede beliebige Vorrichtung, die in der Lage ist, einen Zustandsautomaten umzusetzen, der seinerseits in der Lage ist, die hierin dargestellte Methodik umzusetzen, verwendet werden, um die verschiedenen Kommunikationsverfahren, -protokolle und -techniken hierin umzusetzen.
  • Des Weiteren können die offenbarten Verfahren unter Verwendung von Objekt- oder objektorientierten Softwareentwicklungsumgebungen, die portierbaren Quellcode bereitstellen, der auf verschiedenen Computer- oder Workstation-Plattformen verwendet werden kann, ohne Weiteres in Software umgesetzt werden. Alternativ kann das offenbarte System unter Verwendung von Standard-Logikschaltungen oder VLSI-Design teilweise oder vollständig in Hardware umgesetzt werden. Ob Software oder Hardware zur Umsetzung der Systeme gemäß dieser Erfindung verwendet wird, hängt von den Geschwindigkeits- und/oder Effizienzanforderungen des Systems, der speziellen Funktion und den genutzten speziellen Software- bzw. Hardwaresystemen oder Mikroprozessor- oder Mikrocomputersystemen ab. Die hierin veranschaulichten Sicherheitssysteme, -verfahren, und -protokolle können ohne Weiteres unter Verwendung beliebiger bekannter oder später entwickelter Systeme oder Strukturen, Vorrichtungen und/oder Software von Personen mit durchschnittlichen Fachkenntnissen auf dem betreffenden Gebiet anhand der hierin bereitgestellten Funktionsbeschreibung und mit allgemeinen Grundkenntnissen der Gebiete Computer und Sicherheit in Hardware und/oder Software umgesetzt werden.
  • Des Weiteren können die offenbarten Verfahren ohne Weiteres in Software umgesetzt werden, die auf einem Speichermedium gespeichert und auf einem programmierten Allzweckcomputer unter Zusammenwirkung mit einem Kontroller und einem Speicher, einem Spezialcomputer, einem Mikroprozessor und dergleichen ausgeführt werden kann. In diesen Fällen können die Systeme und Verfahren dieser Erfindung als Programm umgesetzt werden, das auf einem Personal Computer eingebettet ist, wie beispielsweise als Applet, JAVA® oder CGI Script, als auf einem Server oder einer Computer-Workstation liegende Ressource, als in einem speziellen Kommunikationssystem eingebettete Routine oder Systemkomponente oder dergleichen. Das System kann außerdem umgesetzt werden, indem das System und/oder das Verfahren physisch in ein Software- und/oder Hardwaresystem integriert werden, wie beispielsweise den Hardware- und Softwaresystemen einer Kommunikationsvorrichtung oder eines Kommunikationssystems.
  • Es ist daher offensichtlich, dass Systeme, Vorrichtungen und Verfahren zum Erkennen von Eingaben an eine elektronische Vorrichtung bereitgestellt wurden. Obwohl die Ausführungsformen im Zusammenhang mit einer Reihe von Ausführungsformen beschrieben wurden, ist es offensichtlich, dass viele Alternativen, Abwandlungen und Varianten für Personen mit durchschnittlichen Fachkenntnissen auf den entsprechenden Gebieten offensichtlich sind oder wären. Dementsprechend soll sie sämtliche solche Alternativen, Abwandlungen, Entsprechungen und Varianten einschließen, die im Geist und Umfang dieser Offenbarung enthalten sind.

Claims (10)

  1. Eingabeverfahren für eine elektronische Vorrichtung, das Folgendes umfasst: Erkennen einer Eingabe von einer Eingabevorrichtung; Feststellen eines Übergangs von einem ersten Fingerberührungsabschnitt zu einem zweiten, verschiedenen, Fingerberührungsabschnitt; und Korrelieren des Übergangs mit mindestens einer entsprechenden Funktion durch Nutzen eines Abbidungsverfahrens.
  2. Verfahren nach Anspruch 1, wobei die Eingabe einem Fingernagel entspricht, wobei es sich bei der Eingabevorrichtung um einen Berührungsbildschirm, ein Tastfeld, einen Trackpad oder eine Vorrichtung, die eine Anwesenheit und einen Ort einer Berührung innerhalb einer Fläche erkennt, handelt und wobei der Übergang von einem Fingerberührungsabschnitt zu einem Fingernagel ist.
  3. Verfahren nach Anspruch 1, wobei die Eingabe von einer Prothese ist.
  4. Verfahren nach Anspruch 1, wobei es sich bei dem Übergang um eines oder mehrere der Folgenden handelt: eine Drehung oder ein Drehungsgrad um eine Achse; ein Berührungspunkt bleibt an einer gleichen X-/Y-Koordinate während einer oder mehrere Finger drehen; und der Berührungspunkt verscheibt sich zu einer anderen K-/Y-Koordinate, während einer oder mehrere Finger drehen.
  5. Eines oder mehrere Mittel zum Ausführen der Funktionalität von Anspruch 1.
  6. Nicht vergängliches computerlesbares Speichermedium mit darauf gespeicherten Anweisungen, die beim Ausführen bewirken, dass die Schritte von Anspruch 1 ausgeführt werden.
  7. Eingabevorrichtung für ein elektronisches System, die Folgendes umfasst: ein Erkennungsmodul, das eine Eingabe von einer Eingabevorrichtung erkennt; ein Übergangsreizmodul, das einen Übergang von einem ersten Fingerberührungsabschnitt zu einem zweiten, verschiedenen, Fingerberührungsabschnitt feststellt; und einen Controller, der den Übergang durch Nutzen eines Abbildungsversfahrens mit einer entsprechenden Funktion korreliert.
  8. Vorrichtung nach Anspruch 7, wobei es sich bei dem elektronischen System um einen Personal Computer, einen PDA, eine Spielvorrichtung, eine mobile elektronische Vorrichtung, einen Laptop, ein Netbook, ein Medienabspielgerät oder Point-of-Sale-Geräte handelt, wobei die Eingabe einem Fingernagel entspricht und wobei es sich bei der Eingabevorrichtung um einen Berührungsbildschirm, ein Tastfeld, einen Trackpad oder eine Vorrichtung, die eine Anwesenheit und einen Ort einer Berührung innerhalb einer Fläche erkennt, handelt.
  9. Vorrichtung nach Anspruch 7, wobei die Eingabe von einer Prothese ist und wobei es sich bei dem Übergang um eine Drehung oder einen Drehungsgrad um eine Achse handelt.
  10. Vorrichtung nach Anspruch 7, wobei es sich bei dem Übergang um eines oder mehrere der Folgenden handelt: eine Drehung oder ein Drehungsgrad um eine Achse; ein Berührungspunkt bleibt an einer gleichen X-/Y-Koordinate während einer oder mehrere Finger drehen; und der Berührungspunkt verschiebt sich zu einer anderen X-/Y-Koordinate, während einer oder mehrere Finger drehen.
DE201110016389 2010-04-08 2011-04-07 Multimodus-Berührungsbildschirm-Benutzeroberfläche für eine mehrstufige Berührungsbildschirmvorrichtung Withdrawn DE102011016389A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/756,363 2010-04-08
US12/756,363 US9092125B2 (en) 2010-04-08 2010-04-08 Multi-mode touchscreen user interface for a multi-state touchscreen device

Publications (1)

Publication Number Publication Date
DE102011016389A1 true DE102011016389A1 (de) 2011-12-08

Family

ID=44072123

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201110016389 Withdrawn DE102011016389A1 (de) 2010-04-08 2011-04-07 Multimodus-Berührungsbildschirm-Benutzeroberfläche für eine mehrstufige Berührungsbildschirmvorrichtung

Country Status (5)

Country Link
US (1) US9092125B2 (de)
KR (1) KR101492678B1 (de)
CN (1) CN102214040B (de)
DE (1) DE102011016389A1 (de)
GB (1) GB2479457B (de)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8878791B2 (en) * 2010-01-19 2014-11-04 Avaya Inc. Event generation based on print portion identification
US8382591B2 (en) 2010-06-03 2013-02-26 Ol2, Inc. Graphical user interface, system and method for implementing a game controller on a touch-screen device
US8591334B2 (en) 2010-06-03 2013-11-26 Ol2, Inc. Graphical user interface, system and method for implementing a game controller on a touch-screen device
WO2013059488A1 (en) 2011-10-18 2013-04-25 Carnegie Mellon University Method and apparatus for classifying touch events on a touch sensitive surface
CN103246452A (zh) * 2012-02-01 2013-08-14 联想(北京)有限公司 一种切换手写输入中字符类型的方法及一种电子设备
US9870066B2 (en) 2012-03-02 2018-01-16 Microsoft Technology Licensing, Llc Method of manufacturing an input device
US9075566B2 (en) 2012-03-02 2015-07-07 Microsoft Technoogy Licensing, LLC Flexible hinge spine
US9706089B2 (en) 2012-03-02 2017-07-11 Microsoft Technology Licensing, Llc Shifted lens camera for mobile computing devices
US9064654B2 (en) 2012-03-02 2015-06-23 Microsoft Technology Licensing, Llc Method of manufacturing an input device
US9426905B2 (en) 2012-03-02 2016-08-23 Microsoft Technology Licensing, Llc Connection device for computing devices
US9298236B2 (en) 2012-03-02 2016-03-29 Microsoft Technology Licensing, Llc Multi-stage power adapter configured to provide a first power level upon initial connection of the power adapter to the host device and a second power level thereafter upon notification from the host device to the power adapter
US9460029B2 (en) 2012-03-02 2016-10-04 Microsoft Technology Licensing, Llc Pressure sensitive keys
US9360893B2 (en) 2012-03-02 2016-06-07 Microsoft Technology Licensing, Llc Input device writing surface
USRE48963E1 (en) 2012-03-02 2022-03-08 Microsoft Technology Licensing, Llc Connection device for computing devices
US20130300590A1 (en) 2012-05-14 2013-11-14 Paul Henry Dietz Audio Feedback
US10031556B2 (en) 2012-06-08 2018-07-24 Microsoft Technology Licensing, Llc User experience adaptation
US9128595B2 (en) * 2012-08-31 2015-09-08 Business Objects Software Ltd. Managing data content on a computing device
US10216402B2 (en) * 2012-12-21 2019-02-26 Nokia Technologies Oy Method and apparatus for related user inputs
CN104049868A (zh) * 2013-03-11 2014-09-17 联想(北京)有限公司 响应方法及电子设备
KR20140114766A (ko) 2013-03-19 2014-09-29 퀵소 코 터치 입력을 감지하기 위한 방법 및 장치
US9013452B2 (en) * 2013-03-25 2015-04-21 Qeexo, Co. Method and system for activating different interactive functions using different types of finger contacts
US9612689B2 (en) * 2015-02-02 2017-04-04 Qeexo, Co. Method and apparatus for classifying a touch event on a touchscreen as related to one of multiple function generating interaction layers and activating a function in the selected interaction layer
US9304549B2 (en) 2013-03-28 2016-04-05 Microsoft Technology Licensing, Llc Hinge mechanism for rotatable component attachment
CN103309567B (zh) * 2013-06-28 2014-05-07 盛建 定义和使用字符串样板的方法
US20150077345A1 (en) * 2013-09-16 2015-03-19 Microsoft Corporation Simultaneous Hover and Touch Interface
US9569027B2 (en) * 2013-12-12 2017-02-14 Visteon Global Technologies, Inc. Implementing a hidden touch surface
KR20160071264A (ko) * 2014-12-11 2016-06-21 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US9195879B1 (en) 2014-08-31 2015-11-24 Qualcomm Incorporated Air/object determination for biometric sensors
US9582705B2 (en) * 2014-08-31 2017-02-28 Qualcomm Incorporated Layered filtering for biometric sensors
US9665763B2 (en) * 2014-08-31 2017-05-30 Qualcomm Incorporated Finger/non-finger determination for biometric sensors
KR101698099B1 (ko) * 2014-09-02 2017-01-19 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US9329715B2 (en) 2014-09-11 2016-05-03 Qeexo, Co. Method and apparatus for differentiating touch screen users based on touch event analysis
US11619983B2 (en) 2014-09-15 2023-04-04 Qeexo, Co. Method and apparatus for resolving touch screen ambiguities
US10606417B2 (en) 2014-09-24 2020-03-31 Qeexo, Co. Method for improving accuracy of touch screen event analysis by use of spatiotemporal touch patterns
US10282024B2 (en) 2014-09-25 2019-05-07 Qeexo, Co. Classifying contacts or associations with a touch sensitive device
US10748439B1 (en) 2014-10-13 2020-08-18 The Cognitive Healthcare Company Automated delivery of unique, equivalent task versions for computer delivered testing environments
US10444980B1 (en) * 2014-10-13 2019-10-15 The Cognitive Healthcare Company Biomechanical motion measurement and analysis for self-administered tests
US10383553B1 (en) 2014-10-14 2019-08-20 The Cognitive Healthcare Company Data collection and analysis for self-administered cognitive tests characterizing fine motor functions
CN104407802B (zh) * 2014-11-06 2017-08-25 深圳市华星光电技术有限公司 一种多事件输入的方法和终端
CN105117147A (zh) * 2015-07-24 2015-12-02 上海修源网络科技有限公司 一种基于手势操控车载操作系统的方法、装置及车载设备
US10642404B2 (en) 2015-08-24 2020-05-05 Qeexo, Co. Touch sensitive device with multi-sensor stream synchronized data
CN106814899B (zh) * 2015-11-27 2021-04-20 富泰华工业(深圳)有限公司 触摸屏防刮花提示系统、方法以及电子设备
JP6363587B2 (ja) 2015-12-14 2018-07-25 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および警告提示方法
US11009989B2 (en) 2018-08-21 2021-05-18 Qeexo, Co. Recognizing and rejecting unintentional touch events associated with a touch sensitive device
US10942603B2 (en) 2019-05-06 2021-03-09 Qeexo, Co. Managing activity states of an application processor in relation to touch or hover interactions with a touch sensitive device
US11231815B2 (en) 2019-06-28 2022-01-25 Qeexo, Co. Detecting object proximity using touch sensitive surface sensing and ultrasonic sensing
US11592423B2 (en) 2020-01-29 2023-02-28 Qeexo, Co. Adaptive ultrasonic sensing techniques and systems to mitigate interference

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5335557A (en) 1991-11-26 1994-08-09 Taizo Yasutake Touch sensitive input control device
US5880411A (en) 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US5612719A (en) 1992-12-03 1997-03-18 Apple Computer, Inc. Gesture sensitive buttons for graphical user interfaces
US5509114A (en) 1993-12-30 1996-04-16 Xerox Corporation Method and apparatus for correcting and/or aborting command gestures in a gesture based input system
US5500935A (en) 1993-12-30 1996-03-19 Xerox Corporation Apparatus and method for translating graphic objects and commands with direct touch input in a touch based input system
DE69426919T2 (de) 1993-12-30 2001-06-28 Xerox Corp Gerät und Verfahren zur Ausführung von vielen verkettenden Befehlsgesten in einen System mit Gestenbenutzerschnittstelle
US5471578A (en) 1993-12-30 1995-11-28 Xerox Corporation Apparatus and method for altering enclosure selections in a gesture based input system
DE4408737A1 (de) 1994-03-15 1995-09-21 Sel Alcatel Ag Telekommunikationsendgerät
JPH08307954A (ja) * 1995-05-12 1996-11-22 Sony Corp 座標入力装置および方法、並びに情報処理装置
US5745116A (en) 1996-09-09 1998-04-28 Motorola, Inc. Intuitive gesture-based graphical user interface
US6163313A (en) 1997-12-12 2000-12-19 Aroyan; James L. Touch sensitive screen and method
JPH11293606A (ja) 1998-04-13 1999-10-26 Sugiaki Kusatake 敷設面又は法面又は土留め面又は壁面用のデザインブロック
JP2000120087A (ja) 1998-10-19 2000-04-25 Daikichi Suematsu 擁壁のデザイン構造
US6639584B1 (en) 1999-07-06 2003-10-28 Chuang Li Methods and apparatus for controlling a portable electronic device using a touchpad
US6396523B1 (en) 1999-07-29 2002-05-28 Interlink Electronics, Inc. Home entertainment device remote control
US6765557B1 (en) 2000-04-10 2004-07-20 Interlink Electronics, Inc. Remote control having touch pad to screen mapping
US7587072B2 (en) * 2003-08-22 2009-09-08 Authentec, Inc. System for and method of generating rotational inputs
US7791588B2 (en) * 2003-12-22 2010-09-07 Immersion Corporation System and method for mapping instructions associated with haptic feedback
US7190356B2 (en) 2004-02-12 2007-03-13 Sentelic Corporation Method and controller for identifying double tap gestures
US7492357B2 (en) 2004-05-05 2009-02-17 Smart Technologies Ulc Apparatus and method for detecting a pointer relative to a touch surface
JP2006345209A (ja) * 2005-06-08 2006-12-21 Sony Corp 入力装置、情報処理装置、情報処理方法、及びプログラム
US7777732B2 (en) * 2007-01-03 2010-08-17 Apple Inc. Multi-event input system
US8059101B2 (en) 2007-06-22 2011-11-15 Apple Inc. Swipe gestures for touch screen keyboards
US8027518B2 (en) 2007-06-25 2011-09-27 Microsoft Corporation Automatic configuration of devices based on biometric data
US20090125824A1 (en) 2007-11-12 2009-05-14 Microsoft Corporation User interface with physics engine for natural gestural control
KR20090070491A (ko) 2007-12-27 2009-07-01 엔에이치엔(주) 터치스크린을 이용한 화면 제어 장치 및 방법
US20090231282A1 (en) * 2008-03-14 2009-09-17 Steven Fyke Character selection on a device using offset contact-zone
EP2104027B1 (de) 2008-03-19 2013-10-23 BlackBerry Limited Elektronische Vorrichtung mit berührungsempfindlicher Eingabeoberfläche und Verfahren zur Bestimmung einer benutzerseitig ausgewählten Eingabe
KR20080066797A (ko) 2008-05-13 2008-07-16 마에다코센가부시끼가이샤 옹벽 성토 구조체
US20090309847A1 (en) * 2008-06-12 2009-12-17 You I Labs, Inc. Apparatus and method for providing multi-touch interface capability
US8604364B2 (en) * 2008-08-15 2013-12-10 Lester F. Ludwig Sensors, algorithms and applications for a high dimensional touchpad
US8224392B2 (en) 2009-04-29 2012-07-17 Lg Electronics Inc. Mobile terminal capable of recognizing fingernail touch and method of controlling the operation thereof
JP2011014044A (ja) 2009-07-03 2011-01-20 Sony Corp 操作制御装置、操作制御方法およびコンピュータプログラム
US20110248946A1 (en) 2010-04-08 2011-10-13 Avaya Inc Multi-mode prosthetic device to facilitate multi-state touch screen detection

Also Published As

Publication number Publication date
KR101492678B1 (ko) 2015-02-12
GB201105922D0 (en) 2011-05-18
GB2479457B (en) 2015-08-12
US9092125B2 (en) 2015-07-28
GB2479457A (en) 2011-10-12
CN102214040A (zh) 2011-10-12
KR20110113156A (ko) 2011-10-14
CN102214040B (zh) 2016-01-20
US20110248927A1 (en) 2011-10-13

Similar Documents

Publication Publication Date Title
DE102011016389A1 (de) Multimodus-Berührungsbildschirm-Benutzeroberfläche für eine mehrstufige Berührungsbildschirmvorrichtung
DE69534404T2 (de) Verfahren zum kompensieren von unbeabsichtigten Bewegungen bei einer Antipgeste auf einer Berührungssensorfläche
DE102011117012A1 (de) Erfassung von gleitbewegungen von mehreren fingern unter verwendung von fingerabdrücken zur erzeugung verschiedener ereignisse
DE102012109058B4 (de) Steuerverfahren und elektronische Einrichtung
DE102011016391A1 (de) Multimodus-Prothesevorrichtung zum Erleichtern der Erkennung mehrstufiger Berührungsbildschirme
DE102008028223B4 (de) Modusabhängige Verarbeitung von Berührungsdaten
DE102011078985A1 (de) Berührungserfassung auf dreidimensionalen Objekten
DE202005021427U1 (de) Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung
DE202012102976U1 (de) Berührungssensor mit aktivem Stift
DE202008007847U1 (de) Geschwindigkeits-/Positionsmodus-Translation
DE112005001422T5 (de) Strichbasierte(s) Dateneingabe-Vorrichtung, -System und -Verfahren
DE102010028983A1 (de) Zweidimensionale Berührungssensoren
DE202012102444U1 (de) Aktiver Eingabestift, mit dem Gesten ausgeführt werden können
DE112007000278T5 (de) Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung
DE112013003647T5 (de) Gesten- und Berührungseingabeerfassung durch Kraftabtastung
DE202012101429U1 (de) Berührungssensor mit adaptiver Berührungsdetektionsschwelle
DE202012101741U1 (de) Berührungssensorgerät mit mehreren Oberflächen und einer Detektion von Benutzeraktivitäten
DE202012102059U1 (de) Aktiver Stylus mit induktivem Laden
DE112010002760T5 (de) Benutzerschnittstelle
DE102008063354A1 (de) Selektive Rückweisung von Berührungskontakten in einem Randbereich einer Berührungsoberfläche
DE202007014957U1 (de) Multimediakommunikationseinrichtung mit Berührungsbildschirm, der auf Gesten zur Steuerung, Manipulierung und Editierung von Mediendateien reagiert
DE102010003575A1 (de) Kapazitiver Touchscreen oder Touchpad für Finger und beweglichen Taststift
DE202008001338U1 (de) Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung
DE102011103228A1 (de) Kapazitives Touchscreen-System mit Multiplexern
DE112018001457T5 (de) Sensor-steuerung

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS:

Ipc: G06F0003060000

R012 Request for examination validly filed

Effective date: 20120704

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0003060000

Ipc: G06F0003048000

Effective date: 20120730

R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee