DE60308541T2 - Mensch-maschine-schnittstelle unter verwendung einer deformierbaren einrichtung - Google Patents

Mensch-maschine-schnittstelle unter verwendung einer deformierbaren einrichtung Download PDF

Info

Publication number
DE60308541T2
DE60308541T2 DE60308541T DE60308541T DE60308541T2 DE 60308541 T2 DE60308541 T2 DE 60308541T2 DE 60308541 T DE60308541 T DE 60308541T DE 60308541 T DE60308541 T DE 60308541T DE 60308541 T2 DE60308541 T2 DE 60308541T2
Authority
DE
Germany
Prior art keywords
input object
section
input
edge
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60308541T
Other languages
English (en)
Other versions
DE60308541D1 (de
Inventor
Richard Foster City MARKS
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Publication of DE60308541D1 publication Critical patent/DE60308541D1/de
Application granted granted Critical
Publication of DE60308541T2 publication Critical patent/DE60308541T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light

Description

  • 1. GEBIET DER ERFINDUNG
  • Die Erfindung betrifft allgemein die Gesten-Eingabe in Computersysteme und insbesondere das visuelle Verfolgen einer verformbaren Einrichtung, wobei die Verformung eine Aktion auf der Seite des Computersystems auslöst.
  • 2. BESCHREIBUNG DES STANDES DER TECHNIK
  • Es besteht sehr großes Interesse an der Suche nach Alternativen zu Eingabevorrichtungen für Computersysteme. Eingabevorrichtungen auf der Basis von visuellen Gesten werden immer populärer. Allgemein gesprochen bedeutet Gesten-Eingabe, daß man eine elektronische Vorrichtung, wie ein Computersystem, eine Videospielkonsole, ein intelligentes Gerät usw. auf eine Geste reagieren läßt, die von einer Videokamera erfaßt wird, die ein Objekt verfolgt.
  • Das Verfolgen von bewegten Objekten mit Hilfe digitaler Videokameras und das Verarbeiten der Videobilder zur Erzeugung verschiedener Anzeigen ist bekannter Stand der Technik. Eine solche Anwendung zur Erzeugung einer animierten Videoversion eines Sportereignisses wurde z.B. von Segen, US-Patent 6,072,504 offenbart. Bei diesem System wird die Position eines Tennisballs während des Spiels mit Hilfe mehrerer Videokameras verfolgt, und es wird ein Satz von Gleichungen benutzt, die die dreidimensionalen Punkte in dem Spielfeld zu zweidimensionalen Punkten (d.h. Pixeln) von digitalen Bildern innerhalb des Blickfelds der Kameras in Beziehung setzen. Pixelpositionen des Balls, die in einem gegebenen digitalen Bild analysiert werden, können auf eine spezifische dreidimensionale Position des Balls in dem Spiel bezogen werden, und durch Triangulation aus entsprechenden Videobildern wird eine Reihe von Bildern nach dem Verfahren der kleinsten Quadrate analysiert, um die Positionen des Balls an Flugbahngleichungen anzupassen, die unbehinderte Bewegungssegmente des Balls beschreiben.
  • Sobald eine dreidimensionale Beschreibung der Position der Bewegung eines Objekts bestimmt wurde, gibt es, wie Segen näher ausführt, verschiedene bekannte Methoden nach dem Stand der Technik, um eine animierte Darstellung des Objekts zu erzeugen, wobei ein Programm benutzt wird, das eine passende Objektbewegung in einer Video spielumgebung animiert. Das heißt, Segen befaßt sich damit, die dreidimensionale Position eines bewegten Objekts aus einer Vielzahl von zweidimensionalen Videobildern zu bestimmen, die in einem Zeitpunkt aufgenommen werden. Sobald die dreidimensionale Position des "realen" Objekts bekannt ist, kann man diese Information benutzen, um ein Spielprogramm auf zahlreiche unterschiedliche Arten zu steuern, die den Programmierern von Spielen allgemein bekannt sind.
  • Das System von Segen ist jedoch auf mehrere Videokameras angewiesen, um die Information über die Position des Objekt auf der Basis von Triangulation entwickeln. Darüber hinaus ist das detektierte Objekt bei Segen eine einfache Kugel, bei der keine Information über die Orientierung (z.B. Neigung) des Objekts im Raum benötigt wird. Somit ist das System von Segen nicht in der Lage, aus einem zweidimensionalen Videobild mit Hilfe einer einzigen Videokamera die Position und die Orientierung eines Objekts zu rekonstruieren und festzustellen, ob es in Bewegung oder in Ruhe ist.
  • Bei Spielprogrammen hat man üblicherweise virtuelle Objekte zur Verfügung, die aus einer Kombination aus dreidimensionalen geometrischen Formen gebildet werden, wobei während des Ablaufs eines Spielprogramms dreidimensionale Beschreibungen (Positionen und Orientierungen des Objekts relativ zueinander durch Steuereingabeparameter bestimmt werden, die mit Hilfe einer Eingabevorrichtung, wie einem Joystick, einer Spielsteuerung oder einer anderen Eingabevorrichtung, eingegeben werden. Die dreidimensionale Position und Orientierung der virtuellen Objekte werden dann in eine zweidimensionale Anzeige (mit Hintergrund, Licht- und Schattenführung, Textur usw.) projiziert, um mit Hilfe der Funktionen des Renderingprozessors der Spielkonsole eine dreidimensionale perspektivische Szene oder Wiedergabe zu erzeugen.
  • Als Beispiel kann ein "virtuelles Objekt" dienen, das in der Anzeige eines Spiels ein Bewegtbild bildet, das dem entspricht, wie man sich um das "reale" Objekt bewegt. Zum Anzeigen des virtuellen Objekts benutzt man die berechnete dreidimensionale Information, um die Position und die Orientierung des "virtuellen Objekts" in einem Speicherraum der Spielkonsole zu fixieren, wobei dann das Rendern des Bilds durch eine bekannte Verarbeitung durchgeführt wird, um die dreidimensionale Information in eine realistische perspektivische Anzeige umzuwandeln.
  • Trotz der oben beschriebenen Kenntnisse und Techniken gibt es jedoch noch immer Probleme, die eine erfolgreiche Objektverfolgung behindern, und ein besonders schwieriges Problem besteht darin, nur diejenigen Pixel eines Videobilds zu extrahieren, die eindeutig einem interessierenden Objekt entsprechen. So kann zwar z.B. die Bewegung eines einfarbigen Objekts vor einem festen Hintergrund mit einer anderen Farbe relativ leicht verfolgt werden, wenn Objektfarbe und Hintergrundfarbe sich deutlich voneinander unterscheiden, wohingegen das Verfolgen von Objekten, selbst wenn sie hell gefärbt sind, bei einem mehrfarbigen oder nicht statischen Hintergrund nicht so einfach ist. Änderungen in der Beleuchtung beeinflussen die scheinbare Farbe des Objekts, wie sie von der Videokamera gesehen wird, ebenfalls dramatisch, so daß Verfahren zur Objektverfolgung, die sich auf das Detektieren eines speziellen farbigen Objekts stützen, sehr fehleranfällig sind oder eine ständige Neukalibrierung erfordern, wenn sich die Lichtbedingungen ändern. Die typische Umgebung für Videospielprogramme beim Einsatz im Heim erfordert sehr viel größere Flexibilität und Robustheit, als dies mit herkömmlichen Computervisionsystemen mit Objektverfolgung möglich ist.
  • Um eine breite Akzeptanz zu finden, muß eine alternative Eingabevorrichtung also in der Lage sein, mit Hilfe einer einzigen relativ preiswerten Kamera in der Einsatzumgebung des Heims verfolgt zu werden. Darüber hinaus muß die alternative Eingabevorrichtung bequem zu benutzen sein. Es wurden Versuche mit einem Handschuh an der Hand des Benutzers unternommen, wobei der Handschuh Sensoren enthält, die von einer Kamera verfolgt werden, um Eingaben zu erfassen. Die Benutzer haben den Handschuh jedoch nicht akzeptiert. Einer der Gründe dafür, daß ein Handschuh nicht gerade enthusiastisch akzeptiert wird, besteht darin, daß es unbequem ist, den Handschuh immer wieder aus- und anziehen zu müssen.
  • Somit besteht das Bedürfnis, die Probleme des Standes der Technik zu lösen und eine Eingabevorrichtung bereitzustellen, die von einer einzigen Videokamera verfolgt werden kann, wobei die Eingabevorrichtung für den Benutzer bequem sein soll.
  • EP-A-0 823 683 offenbart ein Benutzereingabesystem, bei dem verschiedene Handformen detektiert werden. US-B-6 243 491 offenbart ein Videospiel, das dadurch gesteuert wird, daß der Benutzer ein passives Requisit manipuliert. Der Artikel "3D natural interactive interface – Using marker tracking from a single view", Systems and Computers in Japan, Band 23, Seiten 62 bis 73, 1992 (Hemmi) offenbart ein Paar von Ringen, die der Benutzer an seiner Hand trägt, um eine Bewegung zu verfolgen und Spielfunktionen zu steuern.
  • In den anliegenden Ansprüchen sind verschiedene Aspekte und Merkmale der Erfindung definiert.
  • Im weiteren Sinne erfüllt die vorliegende Erfindung die oben genannten Bedürfnisse, indem sie ein Verfahren und ein System zur Verfügung stellt, das eine passive Eingabevorrichtung vorsieht, die von einer einzigen Videokamera verfolgt werden kann. Es ist zu beachten, daß zur Implementierung der vorliegenden Erfindung zahlreiche Möglichkeiten, einschließlich eines Prozesses, eines Systems oder einer Vorrichtung, zur Verfügung stehen. Im folgenden werden verschiedene erfinderische Ausführungsbeispiele der vorliegenden Erfindung beschrieben.
  • In einem Ausführungsbeispiel ist ein Verfahren zum Triggern von Eingabebefehlen eines auf einem Rechensystem ablaufenden Programms vorgesehen. Das Verfahren beginnt mit der Überwachung eines Blickfelds vor einem Erfassungsgerät. Dann wird ein Eingabeobjekt innerhalb des Blickfelds identifiziert. Das detektierte Eingabeobjekt wird auf Formänderungen analysiert. Als Nächstes wird eine Änderung an dem Eingabeobjekt detektiert. Dann wird ein Eingabebefehl in dem auf dem Rechensystem ablaufenden Programm getriggert. Das Triggern ist das Ergebnis der detektierten Änderung in dem Eingabeobjekt.
  • In einem anderen Ausführungsbeispiel ist ein Eingabedetektierungsprogramm vorgesehen. Das Eingabedetektierungsprogramm wird auf einer Rechenvorrichtung ausgeführt und verfügt über Programminstruktionen, um festzustellen, wann Eingabebefehle eines Hauptprogramms getriggert werden sollen. Das Eingabedetektierungsprogramm enthält Programminstruktionen zum Überwachen eines Blickfelds vor einem Erfassungsgerät. Das Erfassungsgerät liefert Daten an das Eingabedetektierungsprogramm. Es sind Programminstruktionen zum Identifizieren eines Eingabeobjekts innerhalb des Blickfelds enthalten. Ferner sind Programminstruktionen zum Detektieren einer physikalischen Änderung in dem Eingabeobjekt und Programminstruktionen zum Triggern eines Eingabebefehls in dem auf der Rechenvorrichtung ablaufenden Hauptprogramm enthalten, wobei das Triggern das Ergebnis der detektierten physikalischen Änderung in dem Eingabeobjekt ist.
  • In anderen Ausführungsbeispielen ist ein Rechensystem vorgesehen. Das Rechensystem besitzt ein Eingabedetektierungssystem. Das Eingabedetektierungssystem stellt fest, wann Eingabebefehle eines auf dem Rechensystem ablaufenden Hauptprogramms getriggert werden sollen. Das Rechensystem umfaßt ein Erfassungsgerät. Es ist eine Schaltung zum Überwachen eines Blickfelds vor dem Erfassungsgerät vorgesehen, sowie eine Schaltung zum Identifizieren eines Eingabeobjekts innerhalb des Blickfelds. Ferner sind sowohl eine Schaltung zum Detektieren einer physikalischen Änderung in dem Eingabeobjekt als auch eine Schaltung zum Triggern eines Eingabebefehls in dem auf dem Rechensystem ablaufenden Hauptprogramm vorgesehen. Das Triggern ist das Ergebnis der detektierten physikalischen Änderung in dem Eingabeobjekt.
  • In einem weiteren Ausführungsbeispiel ist ein Rechensystem vorgesehen. Das Rechensystem besitzt ein Eingabedetektierungssystem. Das Eingabedetektierungssystem stellt fest, wann Eingabebefehle eines auf dem Rechensystem ablaufenden Hauptprogramms getriggert werden sollten. Das Rechensystem weist Mittel auf zum Erfassen von Bilddaten sowie Mittel zum Überwachen eines Blickfelds vor dem Erfassungsgerät. Es sind Mittel zum Identifizieren eines Eingabeobjekts innerhalb des Blickfelds sowie Mittel zum Detektieen einer physikalischen Änderung in dem Eingabeobjekt vorgesehen. Mittel zum Triggern eines Eingabebefehls in dem auf dem Rechensystem ablaufenden Hauptprogramms sind ebenfalls vorgesehen, wobei das Triggern ein Ergebnis der detektierten physikalischen Änderung in dem Eingabeobjekt ist.
  • Weitere Aspekte und Vorteile der Erfindung werden durch die folgende detaillierte Beschreibung verdeutlicht, die auf die anliegenden Zeichnungen Bezug nimmt, die die Prinzipien der Erfindung anhand von Beispielen illustrieren.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die folgende Beschreibung, die auf die anliegenden Zeichnungen Bezug nimmt, soll das Erfindung und ihrer weiteren Vorteilen verdeutlichen.
  • 1 zeigt ein schematisches Übersichtsdiagramm einer Systemkonfiguration, die eine Benutzereingabevorrichtung verfolgen kann, nach einem Ausführungsbeispiel der Erfindung,
  • 2 zeigt ein Blockdiagramm einer Konfiguration der Komponenten einer Videospielkonsole für die Verwendung mit einem manipulierten Objekt, das als alternative Eingabevorrichtung nach einem Ausführungsbeispiel der Erfindung dient,
  • 3 zeigt ein Blockdiagramm der Funktionsblöcke, die zum Verfolgen und Diskriminieren einer Pixelgruppe benutzt werden, die der Benutzereingabevorrichtung entspricht, wenn diese von dem Benutzer manipuliert wird, nach einem Ausführungsbeispiel der Erfindung,
  • 4A zeigt ein schematisches Diagramm einer verformbaren Benutzereingabevorrichtung, die konfiguriert ist, um in der X-, Y-Richtung verfolgt zu werden, und die in der Lage ist, ein auf einem Monitor anzuzeigendes Ereignis zu triggern, nach einem Ausführungsbeispiel der Erfindung,
  • 4B zeigt ein vereinfachtes schematisches Diagramm einer Änderung im Seitenverhältnis der verformbaren Vorrichtung in einer Frontansicht nach einem Ausführungsbeispiel der Erfindung,
  • 5 zeigt ein schematisches Diagramm eines alternativen Ausführungsbeispiels einer verformbaren Benutzereingabevorrichtung nach einem Ausführungsbeispiel der Erfindung,
  • 6A zeigt ein vereinfachtes schematisches Diagramm eines weiteren Ausführungsbeispiels der verformbaren Benutzereingabevorrichtung, wie sie anhand von 4A, 4B und 5 diskutiert wurde,
  • 6B zeigt ein vereinfachtes schematisches Diagramm einer verformbaren Vorrichtung in einer entspannten Position und in einer geschlossenen Position,
  • 6C zeigt eine Alternative zu 6A, wobei anstelle einer verformbaren Vorrichtung zwei verformbare Vorrichtungen benutzt werden,
  • 7 zeigt ein Flußdiagramm der Verfahrensschritte zum Triggern von Eingabebefehlen eines auf einem Rechensystem ablaufenden Programms nach einem Ausführungsbeispiel der Erfindung,
  • 8 zeigt ein Flußdiagramm der Verfahrensschritte zum Triggern eines Spielesteuerbefehls für ein Videospiel nach einem Ausführungsbeispiel der Erfindung.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSBEISPIELE
  • Die im folgenden offenbarte Erfindung betrifft eine Eingabevorrichtung, die verformt werden kann, wobei die Verformung von einer Videokamera erfaßt wird, um ein Ereignis zu triggern. In der folgenden Beschreibung sind zahlreiche spezifische Details angegeben, um ein durchgehendes Verständnis der Erfindung zu ermöglichen. Für den einschlägigen Fachmann ist es jedoch offensichtlich, daß die Erfindung auch ohne einige oder alle dieser spezifischen Detail praktiziert werden kann. In anderen Fällen wurden allgemein bekannte Prozeßschritte nicht detailliert beschrieben, um das Verständnis der eigentlichen Erfindung nicht unnötig zu beeinträchtigen.
  • Die Ausführungsbeispiele der Erfindung sehen eine Benutzereingabevorrichtung vor, die verformt werden kann, während sie sich in dem Blickfeld einer Videokamera befindet. Die Verformung, wie z.B. eine Änderung im Seitenverhältnis der Eingabevorrichtungen, wird von der Videokamera erfaßt und initiiert ein Ereignis oder eine Aktion, die auf einem Monitor angezeigt werden können. Die Verformung der Eingabevorrichtung kann z.B. einen Mausklick bedeuten, um eine Datei oder ein Fenster für einen Personalcomputer zu öffnen, ein Bild für ein Computerspiel zu erfassen, zu verschieben oder zu manipulieren oder auch ein intelligentes Gerät zu starten. Es ist zu beachten, daß die Eingabevorrichtung eine passive Vorrichtung ist, d.h. die Eingabevorrichtung ist ein Objekt, das durch eine äußere Kraft verformt werden kann. Somit erzeugt das Eingabeobjekt keinerlei aktive Signale, die zu einem Empfänger gesendet werden. Wie durch die hier beschriebenen Ausführungsbeispiele erläutert wird, ermöglicht die Benutzereingabevor richtung eine Erfahrung, die auf einen Mausklick bezogen werden kann und für den Benutzer bequem ist.
  • 1 zeigt ein schematisches Übersichtsdiagramm der Gesamtkonfiguration des Systems nach einem Ausführungsbeispiel der Erfindung, mit dem eine Benutzereingabevorrichtung verfolgen werden kann. Die Benutzereingabevorrichtung 300 kann hier ihr Seitenverhältnis ändern, indem Druck ausgeübt wird, um die Oberseite und die Unterseite zusammenzuquetschen. In einem Ausführungsbeispiel wird die Änderung des Seitenverhältnisses von der digitalen Videokamera 190 erfaßt. Die digitale Videokamera 190 steht mit einer Videospielkonsole 60 in Verbindung. In einem Ausführungsbeispiel ist das Ereignis ein Eingabebefehl eines auf einem Rechensystem, wie einer Spielkonsole, ablaufenden Hauptprogramms. Die Videospielkonsole 60 steht mit einem Monitor 80 in Verbindung. Die Änderung des Seitenverhältnisses der Benutzereingabevorrichtung triggert ein Ereignis, wodurch der Benutzer ein Bild auf einem Monitor 80 manipulieren kann. Es ist zu beachten, daß die Benutzereingabevorrichtung verfolgt wird, während sie sich in der x-, y- oder z-Ebene bewegt. Die Bewegung in diesen Ebenen ermöglicht eine Klick- und Verschiebungsfunktionalität, die derjenigen einer Maus ähnelt. Das heißt, der Benutzer kann ein Bild auf dem Anzeigemonitor bewegen oder manipulieren, indem er die Benutzereingabevorrichtung 300 zusammenquetscht, um ihr Seitenverhältnisses zu ändern, und indem er dann die Eingabevorrichtung in verformtem Zustand bewegt. Während hier eine Videospielkonsole dargestellt ist, sind die beschriebenen Ausführungsbeispiele auch auf einen Personalcomputer und andere elektronische Consumergeräte, wie Fernseher, DVD-(digital video disc)-Player, intelligente Geräte usw. anwendbar.
  • In der Anordnung von 1 kann die Benutzereingabevorrichtung 300 gemäß einem Ausführungsbeispiel ein verformbarer Halbzylinder sein, der sich in eine Handfläche des Benutzers einpassen läßt. Die Benutzereingabevorrichtung 300 kann aus irgendeinem geeigneten Material hergestellt sein, das durch Druckeinwirkung verformt werden kann und beim Aufhören des Drucks in seine ursprüngliche Form zurückkehrt. Der Benutzer ordnet eine Eingabevorrichtung in dem Blickfeld der Videokamera 190 an, die eine USB-Webkamera oder ein digitaler Camcorder sein kann, der mit dem Eingabe-/Ausgabeport der Spielkonsole 60, wie der von Sony Computer Entertainment Inc. hergestellten "PLAYSTATION 2"®, verbunden sein kann. Wenn der Benutzer die Benutzereingabevorrichtung 300 in das Blickfeld der Kamera 190 bewegt, werden physikalische Merkmale, wie die Größe, die Form, die Farbe usw. der Benutzereingabevorrichtung von der Kamera 190 aufgenommen. Es findet dann eine Verarbeitung statt, um eine Pixelgruppe zu isolieren und zu diskriminieren, die ausschließlich der Benutzereingabevorrichtung entspricht. Es wird eine dreidimensionale Beschreibung des Zylinders, einschließlich seiner Position und Orientierung in dem dreidimensionalen Raum, berechnet, und diese Beschreibung wird in einem Hauptspeicher der Spielkonsole 60 gespeichert. Mit Hilfe von auf dem einschlägigen Gebiet bekannten Rendering-Verfahren wird die dreidimensionale Beschreibung des Objekts dann dazu benutzt, eine Aktion in einem Spielprogramm herbeizuführen, die auf dem Anzeigebildschirm des Monitors 80 angezeigt wird. So kann z.B. ein Objekt auf dem Monitor 80 den Bewegungen der Benutzereingabevorrichtung 300 entsprechend durch die Spielszene bewegt werden. Wenn der Benutzer die Position und Orientierung der Benutzereingabevorrichtung 300 ändert, während die Änderung des Seitenverhältnisses detektiert wurde, werden die dreidimensionale Beschreibung des Objekts in dem Speicher und ein entsprechendes Rendern des Objekts in dem Renderingbereich des Bildspeichers kontinuierlich aktualisiert, so daß sich die Position und die Orientierung des Objekts auf dem Monitor 80 ebenfalls ändern. Auf diese Weise führt ein visuelles Triggern, das der Benutzer durch Ausüben einer Kraft auf eine passive Eingabevorrichtung verursacht, zu einer Aktion, z.B. einem Eingabebefehl, der von einem mit einem Rechensystem verknüpften Hauptprogramm ausgeführt wird.
  • 2 zeigt ein Blockdiagramm einer Konfiguration der Komponenten einer Videospielkonsole, die für die Verwendung mit einem manipulierten Objekt adaptiert ist, das als alternative Eingabevorrichtung nach einem Ausführungsbeispiel der Erfindung dient. Die Spielkonsole 60 ist eine Komponente eines Unterhaltungssystems 110 gemäß der Erfindung, das, wie in 2 dargestellt, ausgestattet ist mit einer Multiprozessoreinheit (MPU) 112 für die Steuerung des Gesamtsystems 110, einem Hauptspeicher 114, der für verschiedene Programmoperationen und für die Datenspeicherung benutzt wird, einer Vektorberechnungseinheit 116 zur Durchführung von Fließkomma-Vektorberechnungen, die für die geometrische Verarbeitung benötigt werden, einem Bildprozessor 120 zum Erzeugen von Daten auf der Basis der Steuerungen aus der MPU 112 und zur Ausgabe von Videosignalen an den Monitor 80 (z.B. eine Kathodenstrahlröhre), einem Graphik-Interface (GIF) 122 zur Durchführung einer Vermittlung oder dgl. über einen Übertragungsbus zwischen der MPU 112 oder der Vektorberechnungseinheit 116 und dem Bildprozessor 120, einem Eingabe-/Ausgabeport 124 zur Unterstützung des Empfangens und des Sendens von Daten von bzw. zu peripheren Geräten, einem internen OSD-Funktions-ROM (OSDROM) 126, das z.B. aus einem Flash-Speicher besteht, zur Steuerung eines Kernels oder dgl. und einer Echtzeituhr 128 mit Kalender- und Zeitgeberfunktionen.
  • Der Hauptspeicher 114, die Vektorberechnungseinheit 116, das GIF 122, das OSDROM 126, die Echtzeituhr (RTC) 128 und der Eingabe-/Ausgabeport 124 sind über einen Datenbus 130 mit der MPU 112 verbunden. Ebenfalls mit dem Bus 130 verbunden ist eine Bildverarbeitungseinheit 138, die einen Prozessor zum Expandieren von komprimierten Bewegtbildern und Texturbildern und dadurch zum Entwickeln der Bilddaten darstellt. Die Bildverarbeitungseinheit 138 kann beispielsweise Funktionen zum Dekodieren und Entwickeln von Bitströmen nach den MPEG2- oder MPEG4-Standardformaten, zur Makroblockdekodierung, zur Durchführung inverser diskreter Cosinusinformationen, zur Farbraumumwandlung, zur Vektorquantisierung und dgl. ausführen.
  • Ein Tonsystem besteht aus einer Tonverarbeitungseinheit SPU 171 zur Erzeugung von musikalischen oder anderen Toneffekten auf der Basis von Befehlen aus der MPU 112, einem Tonpuffer 173, in dem Wellenformdaten durch die SPU 171 ausgezeichnet werden können, und einem Lautsprecher 175 zur Ausgabe der von der SPU 171 erzeugten musikalischen oder anderen Toneffekte. Der Lautsprecher 175 kann als Teil in dem Monitors 80 eingebaut sein, oder es kann eine separate Ton-Ausgangsverbindung vorgesehen sein, an die ein externer Lautsprecher 175 angeschlossen ist.
  • Gemäß vorliegender Erfindung ist außerdem ein mit dem Bus 130 verbundenes Kommunikations-Interface 140 vorgesehen, das ein Interface darstellt mit Funktionen für die Eingabe/Ausgabe von digitalen Daten und zur Eingabe von digitalen Inhalten. Durch das Kommunikations-Interface 140 können z.B. Benutzereingabedaten zu einem Server-Endgerät in einem Netz gesendet oder Statusdaten von diesem empfangen werden, um Online-Spiel-Applikationen aufzunehmen. Mit dem Eingabe-/Ausgabeport 124 sind eine (auch als Steuerung bekannte) Eingabevorrichtung 132 für die Eingabe von Daten (z.B. von Tasteneingabedaten oder Koordinatendaten) für das Unterhaltungssystem 110, ein optisches Plattengerät 136 für die Wiedergabe der Inhalte einer optischen Platte 70, z.B. einer CD-ROM oder dgl., auf der verschiedene Programme und Daten (d.h. Daten, die Objekte betreffen, Texturdaten und dgl.) aufgezeichnet sind, verbunden.
  • Als weitere Erweiterung oder Alternative zu der Eingabevorrichtung enthält die vorliegende Erfindung eine Videokamera 190, die mit dem Eingabe-/Ausgabeport 124 verbunden ist. Der Eingabe-/Ausgabeport 124 kann durch ein oder mehrere Eingabe-Interfaces verkörpert sein, einschließlich serieller und USB-Interfaces, wobei die digitale Videokamera 190 vorteilhafterweise von dem USB-Eingang oder irgendeinem anderen herkömmlichen Interface Gebrauch machen kann, das sich für die Verwendung mit der Kamera 190 eignet.
  • Der oben erwähnte Bildprozessor 120 enthält eine Rendering-Maschine 170, ein Interface 172, einen Bildspeicher 174 und eine Anzeigesteuervorrichtung 176 (z.B. eine programmierbare Steuerung für eine Kathodenstrahlröhre oder dgl.). Die Rendering-Maschine 170 führt Operationen zum Rendern von vorbestimmten Bilddaten in dem Bildspeicher über das Speicher-Interface 172 und nach Maßgabe von Rendering-Befehlen aus, die aus der MPU 112 zugeführt werden. Die Rendering-Maschine 170 kann Bilddaten mit 320 × 240 Pixeln oder mit 640 × 480 Pixeln z.B. nach dem NTSC- oder PAL-Standard in Echtzeit rendern und zwar mit einer zehnmal bis einige zehnmal größeren Rate pro Intervall von 1/60 bis 1/30 Sekunden.
  • Zwischen dem Speicher-Interface 172 und der Rendering-Maschine 170 ist ein Bus 178 angeordnet, und ein zweiter Bus 180 ist zwischen dem Speicher-Interface 172 und dem Bildspeicher 174 angeordnet. Der erste Bus 178 und der zweite Bus 180 haben jeweils eine Bitbreite von beispielsweise 128 Bits, und die Rendering-Maschine 170 kann eine Rendering-Verarbeitung mit einer relativ zu dem Bildspeicher hohen Geschwindigkeit ausführen. Der Bildspeicher 174 benutzt eine vereinheitlichte Speicherstruktur, bei der z.B. eine Textur-Rendering-Region und eine Anzeige-Rendering-Region in einem gleichförmigen Bereich eingerichtet werden können.
  • Die Anzeigesteuerung 176 ist so strukturiert, daß sie die Texturdaten, die über das optische Plattengerät 136 von der optischen Platte 70 abgerufen werden, oder Texturdaten, die in dem Hauptspeicher 114 erzeugt wurden, über das Speicher-Interface 172 in die Textur-Rendering-Region des Bildspeichers 174 einschreibt. Die in der Anzeige-Rendering-Region des Bildspeichers 174 gerenderten Bilddaten werden über das Speicher-Interface 172 ausgelesen und an den Monitor 80 ausgegeben und auf dessen Bildschirm angezeigt.
  • 3 zeigt ein Blockdiagramm der Funktionsblöcke nach einem Ausführungsbeispiel der Erfindung, die benutzt werden, um eine Pixelgruppe zu verfolgen und zu diskriminieren, die der Benutzereingabevorrichtung entspricht, wenn diese von dem Benutzer manipuliert wird. Es ist zu beachten, daß die durch die Blöcke dargestellten Funktionen durch Software implementiert sind, die von der MPU 112 in der Spielkonsole 60 ausgeführt wird. Außerdem werden nicht alle durch die Blöcke in 3 angedeuteten Funktionen für jedes Ausführungsbeispiel benutzt.
  • Zunächst werden die von der Kamera eingegebenen Pixeldaten über das Eingabe-/Ausgabeport-Interface 124 der Spielkonsole 60 zugeführt, die die folgenden Prozesse ausgeführen kann. Als erstes wird jedes Pixel z.B. auf einer Rasterbasis abgetastet, es wird ein Verarbeitungsschritt S201 zur Farbsegmentierung ausgeführt, durch den die Farbe jedes Pixels bestimmt wird, und das Bild wird in verschiedene zweidimensionale Segmente mit unterschiedlichen Farben unterteilt. Als Nächstes wird für bestimmte Ausführungsbeispiele ein Schritt S203 zur Lokalisierung von Farbübergängen ausgeführt, durch den Regionen, in denen Segmente unterschiedlicher Farbe aneinandergrenzen, genauer bestimmt werden, wodurch die Orte des Bildes definiert werden, in denen Übergänge unterschiedlicher Farbe auftreten. Dann wird ein Schritt S205 zur Geometrieverarbeitung ausgeführt, der je nach Ausführungsbeispiel entweder einen Kantendetektierungsprozeß oder Berechnungen für Bereichsstatistiken umfaßt, um dadurch die Linien, Kurven und/oder Polygone, die den Kanten des interessierenden Objekts entsprechen, in algebraischen oder geometrischen Ausdrücken zu definieren. Bei der in 1 dargestellten Benutzereingabevorrichtung umfaßt der Pixelbereich z.B. eine im großen Ganzen rechteckige Form, die einer orthogonalen Frontansicht der Benutzereingabevorrichtung entspricht. Aus der algebraischen oder geometrischen Beschreibung des Rechtecks lassen sich das Zentrum, die Breite, die Länge und die zweidimensionale Orientierung der ausschließlich dem Objekt entsprechenden Pixelgruppe definieren.
  • In dem Schritt S207 werden die dreidimensionale Position und Orientierung des Objekts nach Algorithmen berechnet, die in Verbindung mit der nachfolgenden Beschreibung von bevorzugten Ausführungsbeispielen der Erfindung erläutert werden sollen. Zur Verbesserung der Leistung werden die Daten der dreidimensionalen Position und Orientierung in einem Verarbeitungsschritt S209 einer Kalman-Filterung unterzogen. Eine solche Verarbeitung wird durchgeführt, um abzuschätzen, wo das Objekt in einem Zeitpunkt sein soll, und um falsche Messungen zurückzuweisen, die nicht möglich sein können und deshalb als außerhalb des richtigen Datensatzes liegend betrachtet werden. Ein anderer Grund für die Kalman-Filterung besteht darin, daß die Kamera 190 Bilder mit 30 Hz erzeugt, während übliche Anzeigevorrichtungen mit 60 Hz arbeiten, so daß die Kalman-Filterung die Lücken in den Daten ausfüllt, die für die Aktionssteuerung in dem Spielprogramm benutzt werden. Das Glätten von diskreten Daten durch Kalman-Filterung ist auf dem Gebiet der Computervision allgemein bekannt und wird deshalb nicht weiter herausgearbeitet.
  • 4A zeigt ein schematisches Diagramm einer verformbaren Benutzereingabevorrichtung nach einem Ausführungsbeispiel der Erfindung, die so konfiguriert ist, daß sie in X-, Y-Richtung verfolgt werden und ein auf einem Monitor anzuzeigendes Ereignis triggern kann. Die verformbare Benutzereingabevorrichtung 300 wird von der Videokamera 190 verfolgt. Die Videokamera 190 ist mit der Spielkonsole 60 verbunden, die ihrerseits mit dem Monitor 80 in Verbindung steht. In einem Ausführungsbeispiel wird die verformbare Vorrichtung 300 anhand der Farbe von der digitalen Videokamera 190 verfolgt, wie dies oben beschrieben wurde. Das heißt, die Benutzereingabevorrichtung hat eine abweichende Farbe und kann verfolgt werden, wenn sie sich in dem Blickfeld der Kamera 190 befindet. Wie erkennbar ist, bildet die verformbare Vorrichtung 300 im wesentlichen einen Teil eines halbierten Zylinders. Das heißt, die verformbare Vorrichtung 300 kann nach einem Ausführungsbeispiel in eine Handfläche eingepaßt werden. Wenn die verformbare Vorrichtung 300 verformt wird, ändert sich ihr Seitenverhältnis, was von der digitalen Videokamera 190 erfaßt wird. Die erfaßte Änderung des Seitenverhältnisses wird der Konsole 60 mitgeteilt, die ihrerseits bewirkt, daß ein Ereignis getriggert und auf dem Monitor 80 angezeigt wird. Die verformbare Vorrichtung 300 kann z.B. ähnlich benutzt werden wie eine Maus, so daß auf ein Objekt oder ein Objekt in einem Fenster zugegriffen und dieses herumbewegt werden kann.
  • In einem Ausführungsbeispiel kann ein Bild 304 in dem Punkt 302 erfaßt und nach Wunsch verschoben oder manipuliert werden. Der einschlägige Fachmann erkennt, daß eine beliebige Anzahl von geeigneten Operationen ausgeführt werden kann, bei denen die verformbare Vorrichtung 300 ähnliche Funktionen erfüllen kann wie eine Maus. Natürlich kann die verformbare Vorrichtung 300 benutzt werden, um ein Videospiel oder ein beliebiges anderes interaktives Spiel zu spielen, bei dem eine mausähnliche Funktionalität gefordert wird. Die Änderung des Seitenverhältnisses der verformbaren Vorrichtung 300 ist hier mit einem Maus-Klick vergleichbar, und das Bild kann verschoben werden, während das Seitenverhältnis gegenüber seiner Anfangsposition verändert wurde. So kann die Benutzereingabevorrichtung verwendet werden, um ein Kartenspiel zu spielen. Der einschlägige Fachmann erkennt, daß es eine Fülle von Anwendungen gibt, bei denen die hier beschriebene mausähnliche Funktionalität angewendet werden kann.
  • 4B zeigt ein vereinfachtes schematisches Diagramm einer Änderung des Seitenverhältnisses der verformbaren Vorrichtung in einer Frontansicht nach einem Ausführungsbeispiel der Erfindung. Die verformbare Vorrichtung befindet sich zunächst in einer entspannten Position 300A. Wenn der Benutzer die verformbare Vorrichtung zusammenquetscht, ändert sich das Seitenverhältnis in eine geschlossene Position 300B. Die hier beschriebene Eingabevorrichtung liefert eine haptische/taktile Rückkopplung an den Benutzer, die einer Aktion entspricht, die gerade getriggert wird.
  • 5 zeigt ein schematisches Diagramm eines alternativen Ausführungsbeispiels einer verformbaren Benutzereingabevorrichtung nach einem Ausführungsbeispiel der Erfindung. Die verformbare Benutzereingabevorrichtung 310 kann hier, je nach der Kraft, die der Benutzer auf die verformbare Vorrichtung ausübt, einen entspannten Zustand 310A oder einen zusammengedrückten Zustand 310B einnehmen. So hat die verformbare Vorrichtung 310 hier die Form eines zusammendrückbaren Balls. Allgemein kann jede beliebige verformbare Kugel von dem hier beschriebenen visuellen Verfolgungssystem verfolgt werden. Es ist zu beachten, daß in dem vorliegenden Ausführungsbeispiel die Fläche der verformbaren Vorrichtung 310, so wie sie von der digitalen Videokamera 190 gesehen wird, konstant bleibt. Zusätzlich zu der Erfassung von planaren X- und Y-Bewegungen der verformbaren Vorrichtung 310 kann die digitale Videokamera 190 so auch Bewegungen in der Z-Richtung erfassen. Die Z-Richtung kann benutzt werden, um eine Datei, wie die Datei 304B nach vorn oder nach hinten, d.h. in der Darstellung auf dem Monitor 80 in Tiefenrichtung, zu ziehen. Darüber hinaus kann man angezeigte Objekte, die von der verformbaren Vorrichtung 310 erfaßt wurden, je nach der Richtung entlang der Z-Achse, in der die verformbare Vorrichtung 310 bewegt wird, kleiner oder größer erscheinen lassen. Wenn das verformbare Objekt 310 z.B. näher an die Kamera 190 gebracht wird, erscheint das auf dem Monitor 80 angezeigte Objekt in einem Ausführungsbeispiel größer, während das auf dem Monitor 80 angezeigte Objekt kleiner zu sein scheint, wenn die verformbare Vorrichtung 310 von der Kamera 190 wegbewegt wird. Der einschlägige Fachmann erkennt, daß man durch eine kombinierte Bewegung in der X-, Y- und Z-Richtung Größe und Ort des angezeigten Objekts ändern kann. Hier wird der Winkel Theta (θ) benutzt, um die Bewegung im dreidimensionalen Raum zu bestimmen. Der einschlägige Fachmann erkennt, daß Theta der Winkel in Richtung der Bildebene der Kamera 190 ist.
  • In der Anordnung nach 5 erfaßt die Kamera die Position der verformbaren Vorrichtung 310. Die Information über die Position wird der Spielkonsole 60 mitgeteilt. Die Spielkonsole 60 verarbeitet die Positionsinformation wird, wie dies oben anhand von 1 bis 3 beschrieben wurde. Wenn sich das Seitenverhältnis oder die relative Position der verformbaren Vorrichtung ändert, übersetzt die Verarbeitung die Bewegung auf ein Objekt, das auf dem Monitor 80 angezeigt wird. Nach einem Ausführungsbeispiel der Erfindung kann bei einer Änderung des Seitenverhältnisses der verformbaren Vorrichtung ein Tonsignal erzeugt werden. Darüber hinaus kann vorgesehen sein, daß die verformbare Vorrichtung ein passives Tastendrucksignal erzeugt. Der Benutzer nimmt ein entsprechendes Klicken wahr, obwohl das Klickgeräusch von dem Computersystem nicht erfaßt wird.
  • In einem Ausführungsbeispiel werden die x-, y-, z-, q- und Quetsch-Parameter durch Analyse der Pixel in dem Bild bestimmt. Es ist zu beachten, daß die Pixel in dem Bild einen Teil des Objekts, d.h. der verformbaren Vorrichtung, bilden, das verfolgt wird. X ist dem horizontalen Schwerpunkt der Pixel in dem Bild proportional. Y ist dem vertikalen Schwerpunkt der Pixel in dem Bild proportional. Z ist der Quadratwurzel entweder der Fläche der Pixel oder dem zweiten Hauptmoment (das unterschiedliche Genauigkeits-/Robustheitsverhalten erzeugt) umgekehrt proportional. Theta (θ) entspricht dem Drehwinkel des zweiten Hauptmoments. Die Quetschparameter, wie der Betrag und Quetschung, d.h. die Größe der Verformung oder der Änderung des Seitenverhältnisses, ist umgekehrt proportional zur Quadratwurzel des zweiten Hauptmoments, dividiert durch die Quadratwurzel des kleinsten zweiten Moments. Aus einem einzigen Durchgang durch das Bild kann jeder der oben erwähnten Parameter berechnet werden. Somit ist die hier beschriebene Implementierung sehr schnell und gegen Rauschen (d.h. visuelle Fehler) weniger empfindlich als andere allgemein benutzte Metriken.
  • 6A zeigt ein vereinfachtes schematisches Diagramm eines weiteren Ausführungsbeispiels der verformbaren Benutzereingabevorrichtung, wie sie anhand von 4A, 4B und 5 diskutiert wurde. Hier weist die verformbare Vorrichtung 320 einen oberen Abschnitt und einen unteren Abschnitt auf, die so miteinander verbunden sind, daß der Abstand zwischen dem oberen und dem unteren Abschnitt geändert werden kann, indem eine Kraft ausgeübt wird, um die Abschnitte zusammenzuführen. Auf diese Weise ändert sich das Seitenverhältnis, wenn auf die beiden Enden der verformbaren Vorrichtung 320 Druck ausgeübt wird. Die Fläche der verformbaren Vorrichtung 320 bleibt jedoch konstant, so daß die Kamera 190 die Bewegung der verformbaren Vorrichtung in der X-, Y- und Z-Ebene verfolgen kann. Wie oben erwähnt wurde, kann die verformbare Benutzereingabevorrichtung 320 aus jedem geeigneten Material bestehen, das verformt werden und in seine ursprüngliche Form zurückkehren kann.
  • 6B zeigt ein vereinfachtes schematisches Diagramm der verformbaren Vorrichtung 320 in einer entspannten Position 320A bzw. in einer geschlossenen Position 320B. Der einschlägige Fachmann erkennt, daß die von der Kamera 190 detektierte Fläche der verformbaren Vorrichtung 320 die gleiche bleibt, wie dies oben erwähnt wurde. Das heißt, die Zahl der Pixel in dem entspannten Zustand 320A ist die gleiche wie die Zahl der Pixel im zusammengedrückten Zustand 320B. Deshalb kann die Bewegung in den dreidimensionalen Raum verfolgt werden.
  • 6C zeigt eine Alternative zu 6A, wobei anstelle einer einzigen verformbaren Vorrichtung zwei verformbare Vorrichtungen benutzt werden. Ein Benutzer kann in jeder Hand eine der verformbaren Vorrichtungen 320A-1 und 320A-2 halten. Die verformbaren Vorrichtungen 320A-1 und 320A-2 können benutzt werden, um ein Bild auf dem Display 80 zu erfassen und zu manipulieren. Die Vorrichtungen 320A-1 und 320A-2 können auf das gleiche Bild oder auf verschiedene Bilder einwirken. In einem Ausführungsbeispiel kann das Bild eines Benutzers, der eine oder zwei verformbare Vorrichtungen 320 hält, von der Kamera 190 so erfaßt werden, daß auf dem Monitor 80 ein Bild des Benutzers dargestellt werden kann, der eine oder mehrere verformbare Benutzereingabevorrichtungen 320 hält.
  • Bei den hier beschriebenen Ausführungsbeispielen kann auch ein rückstrahlendes Material verwendet werden. Das rückstrahlende Material kann in Form von Bändern, Anstrichen, Kunststoffen usw. vorliegen, die auf einer Seite der verformbaren Vorrichtung, z.B. auf der der Kamera 190 zugewandten Frontseite der verformbaren Vorrichtung 320 aufgebracht sein können. Die Kamera 190 weist hier eine Lichtquelle auf, die auf eine verformbare Vorrichtung gerichtet wird. Das von dem rückstrahlenden Material reflektierte Licht ist bekanntlich auf die Kamera 190 gerichtet. Die Lichtwellenlänge der Lichtquelle kann im sichtbaren oder im unsichtbaren Bereich liegen. In einem Ausführungsbeispiel ist die Lichtquelle eine Infrarot-Lichtquelle.
  • 7 zeigt ein Flußdiagramm der Verfahrensschritte zum Triggern von Eingangsbefehlen eines auf einem Rechensystem laufenden Programms nach einem Ausführungsbeispiel der Erfindung. Das Verfahren beginnt mit dem Schritt 400, in dem ein mit einem Computer verbundenes Erfassungsgerät bereitgestellt wird. Das Erfassungsgerät ist in einem Ausführungsbeispiel eine digitale Kamera, z.B. eine Web-Kamera. Das Rechensystem kann eine Konsole mit einem Monitor sein, wie sie oben anhand von 1 bis 3 beschrieben wurde. Das Verfahren geht dann weiter zu dem Schritt 420, in dem eine Erfassungsregion überwacht wird. Die Erfassungsregion ist in einem Ausführungsbeispiel das Blickfeld des Erfassungsgeräts.
  • Das Verfahren von 7 geht dann weiter zu dem Schritt 404, in dem eine Eingabevorrichtung innerhalb der Erfassungsregion detektiert und die Anfangsform der Eingabevorrichtung identifiziert wird. Hier kann die Eingabevorrichtung, wie sie anhand von 4 bis 6C beschrieben wurde, von dem Benutzer in das Blickfeld des Erfassungsgeräts gebracht werden. Die Eingabevorrichtung kann irgendeine geeignete Form haben, z.B. die Form einer der anhand von 4 bis 6C beschriebenen Benutzereingabevorrichtungen. In einem Ausführungsbeispiel ist die Eingabevorrichtung so gestaltet, daß das Seitenverhältnis in einer frontalen Projektion, die von dem Erfassungsgerät überwacht werden kann, modifiziert werden kann. Das Verfahren geht dann weiter zu dem Schritt 406, in dem eine Formänderung der Eingabevorrichtung identifiziert wird. Der Benutzer kann die Eingabevorrichtung z.B. quetschen und dadurch das Seitenverhältnis der Eingabevorrichtung verändern. Das Verfahren geht dann weiter zu dem Schritt 408, in dem als Reaktion auf die detektierte Formänderung der Eingabevorrichtung eine Aktivitätseingabe in einem Computerprogramm getriggert wird, das auf dem mit dem Erfassungsgerät verbundenen Computer abläuft. In einem Ausführungsbeispiel findet die Formänderung der Benutzereingabevorrichtung statt, während ein der Eingabevorrichtung entsprechendes Ikon über ein Bild auf einem Monitor gelegt ist. Die Formänderung bewirkt, ähnlich wie ein Maus-Klick, daß das Bild ausgewählt wird. In einem anderen Ausführungsbeispiel bewirkt eine Bewegung der Benutzereingabevorrichtung, daß das ausgewählte Bild bewegt oder verändert wird, während die veränderte Form der Benutzereingabevorrichtung beibehalten wird. Es ist zu beachten, daß mehrere Benutzereingabevorrichtungen vorgesehen sein können. So kann der Benutzer z.B. in jeder Hand eine Benutzereingabevorrichtung halten.
  • 8 zeigt ein Flußdiagramm der Verfahrensschritte zum Triggern eines Spielsteuerbefehls für ein Videospiel nach einem Ausführungsbeispiel der Erfindung. Das Verfahren beginnt mit dem Schritt 410, in dem eine Spielkonsole zum Spielen von Videospielen bereitgestellt wird. Die Videospiele werden auf einem Bildschirm angezeigt. In einem Ausführungsbeispiel ist die Spielkonsole die Spielkonsole "PLAYSTATION 2"®. Das Verfahren geht dann weiter zu dem Schritt 412, in dem ein mit der Spielkonsole verbundenes Videoerfassungsgerät bereitgestellt wird. Das Erfassungsgerät ist in einem Ausführungsbeispiel eine digitale Kamera, z.B. eine Web-Kamera. Das Verfahren geht dann weiter zu dem Schritt 414, in dem eine Erfassungsregion vor dem Erfassungsgerät überwacht wird. Wie oben erwähnt wurde, ist die Erfassungsregion in einem Ausführungsbeispiel das Blickfeld des Erfassungsgeräts.
  • Das Verfahren von 8 geht dann weiter zu dem Schritt 416, in dem eine Eingabevorrichtung innerhalb der Erfassungsregion detektiert und die Anfangsform der Eingabevorrichtung identifiziert wird. Die Eingabevorrichtung kann hier, wie anhand von 4 bis 6C beschrieben, von dem Benutzer in das Blickfeld des Erfassungsgeräts gebracht werden. In einem Ausführungsbeispiel detektiert das Erfassungsgerät die Eingabevorrichtung, indem es Licht von einer in der Nähe des Erfassungsgeräts angeordneten Lichtquelle aussendet. In diesem Ausführungsbeispiel weist die Eingabevorrichtung rückstrahlendes Material auf, das so beschaffen ist, daß es Licht direkt zu der das Licht erzeugenden Quelle reflektiert. Das Verfahren geht dann weiter zu dem Schritt 418, in dem eine Änderung der Form der Eingäbevorrichtung identifiziert wird. Der Benutzer kann z.B. die Eingabevorrichtung zusammenquetschen und dadurch das Seitenverhältnis der Eingabevorrichtung ändern. Das Verfahren geht dann weiter zu dem Schritt 420, in dem als Reaktion auf die detektierte Formänderung der Eingabevorrichtung ein Spielsteuerbefehl in einem Computerprogramm getriggert wird, das auf der mit dem Erfassungsgerät verbundenen Spielkonsole abläuft.
  • In einem Ausführungsbeispiel bewirkt eine Bewegung der Benutzereingabevorrichtung, daß das ausgewählte Bild bewegt oder seine Größe verändert wird, während die veränderte Form der Benutzereingabevorrichtung beibehalten wird. In einem anderen Ausführungsbeispiel zeigt der Grad der Änderung des Seitenverhältnisses die Kraft des Zugriffs während eines Videospiels an. Die Änderung des Seitenverhältnisses ist z.B. für ein bestimmtes Merkmal des Videospiels um so größer, je fester der Zugriff ist.
  • Eine Änderung des Seitenverhältnisses der hier definierten verformbaren Vorrichtungen triggert, ähnlich wie ein Maus-Klick oder eine Greifoperation, ein Ereignis oder eine Aktion. Es ist zu beachten, daß durch die Änderung des Seitenverhältnisses eine beliebige Anzahl von Ereignissen getriggert werden kann. So kann z.B. auf ein Pull-Down-Menü zugegriffen werden, es können Videospiele gespielt werden, es können Objekte erfaßt, vorwärtsbewegt, rückwärtsbewegt, gestapelt oder geschichtet werden, usw..
  • Durch das Quetschen der Benutzereingabevorrichtung zur Änderung ihres Seitenverhältnisses kann ein Ereignis, wie ein Tastendruck oder eine Greifaktion, simuliert werden. Die Kamera, die die Formänderung der Benutzereingabevorrichtung erfaßt, ist in einem Ausführungsbeispiel so konfiguriert, daß sie die Vorrichtung anhand der Farbe verfolgt. Alternativ kann die Kamera die Vorrichtung verfolgen, indem Licht im Zusammenhang mit rückstrahlendem Material benutzt wird, das auf der verformbaren Vorrichtung aufgebracht ist. Die hier beschriebenen verformbaren Vorrichtungen können eine beliebige geeignete Form annehmen, so daß der Benutzer die Empfindung eines Maus-Klicks hat, ohne daß er eine Maus benutzen muß, d.h. er nimmt eine haptische/taktile Rückkopplung wahr. Man erreicht im wesentlichen die Funktionalität eines Handschuhs, ohne daß der Benutzer einen Handschuh tragen muß. Während die oben beschriebenen Ausführungsbeispiele für eine Videospielkonsole erläutert wurden, sollen diese Ausführungsbeispiele nur exemplarisch und nicht restriktiv sein. Die hier beschriebenen verformbaren Vorrichtungen können auch bei einem Personalcomputer, bei elektronischen Consumergeräten, wie Fernsehempfängern, Videorekordern, Heimtheatersystemen usw. sowie bei einem intelligenten Gerät, wie einer Küchenmaschine usw. angewendet werden. Der einschlägige Fachmann erkennt, daß die oben beschriebenen Ausführungsbeispiele auf eine Spielkonsole anwendbar sind, auf der Videospiele ablaufen, sowie auf Online-Videospiele, bei denen der Benutzer auf Videospiele aus einem Server zugreift.
  • Die Erfindung kann verschiedene computerimplementierte Operationen benutzen, bei denen in Computersystemen gespeicherte Daten involviert sind. Diese Operationen sind solche, die eine physikalische Manipulation von physikalischen Größen erfordern. Diese Größen nehmen üblicherweise, jedoch nicht notwendigerweise, die Form von elektrischen oder magnetischen Signalen an, die gespeichert, übertragen, kombiniert, verglichen und anderweitig manipuliert werden können. Die durchgeführten Manipulationen werden häufig als Erzeugen, Identifizieren, Festlegen oder Vergleichen bezeichnet.
  • Jede der hier beschriebenen Operationen, die einen Teil der Erfindung bilden, sind zweckdienliche Maschinenoperationen. Die Erfindung bezieht sich auch auf eine Vorrichtung oder ein Gerät zur Durchführung dieser Operationen. Das Gerät kann speziell für die geforderten Zwecke konstruiert sein, oder es kann ein Universalcomputer sein, der von einem in dem Computer gespeicherten Computerprogramm selektiv aktiviert oder konfiguriert ist. Insbesondere können verschiedene Universalmaschinen mit nach Maßgabe der hier dargelegten Lehren geschriebenen Computerprogrammen benutzt werden, oder es kann bequemer sein, ein stärker spezialisiertes Gerät zu konstruieren, um die geforderten Operationen auszuführen.
  • Obwohl die vorangehend beschriebene Erfindung zum besseren Verständnis ausführlicher beschrieben wurde, ist es offensichtlich, daß bestimmte Änderungen und Modifizierungen vorgenommen werden können. Deshalb sollten die vorliegenden Ausführungsbeispiele als illustrativ und nicht als restriktiv betrachtet werden, und die Erfindung ist nicht auf die hier angegebenen Details beschränkt, sie kann vielmehr innerhalb des Rahmens der Ansprüche modifiziert werden.

Claims (27)

  1. Verfahren zum Triggern von Eingabebefehlen eines auf einem Rechensystem (60) ablaufenden Programms mit den Verfahrensschritten: Überwachen eines Blickfelds vor einem Videoerfassungsgerät (190), Identifizieren eines manuell verformbaren Eingabeobjekts (300) innerhalb des Blickfelds, wobei das detektierte Eingabeobjekt in Bezug auf eine Formänderung analysiert wird und wobei die Formänderung aus einer Änderung des Seitenverhältnisses des Eingabeobjekts besteht, Detektieren einer Formänderung des Eingabeobjekts und Triggern eines Eingabebefehls in dem auf dem Rechensystem ablaufenden Programm, wobei das Triggern ein Resultat der detektierten Formänderung des Eingabeobjekts ist.
  2. Verfahren nach Anspruch 1, bei dem das Videoerfassungsgerät eine digitale Videokamera ist.
  3. Verfahren nach Anspruch 2, bei dem die digitale Videokamera das Eingabeobjekt aufgrund der Farbe verfolgt.
  4. Verfahren nach Anspruch 2, bei dem die digitale Videokamera das Eingabeobjekt durch reflektiertes Licht verfolgt.
  5. Verfahren nach Anspruch 1, bei dem der Verfahrensschritt des Detektierens einer Änderung des Eingabeobjekts ferner das Detektieren einer Positonsänderung des Eingabeobjekt umfaßt.
  6. Verfahren nach Anspruch 5, bei dem der Eingabebefehl eine Größenänderung eines Bilds bewirkt, das auf einem mit dem Rechensystem verbundenen Monitor angezeigt wird.
  7. Verfahren nach Anspruch 5, bei dem der Eingabebefehl bewirkt, daß ein auf einem mit dem Rechensystem verbundenen Monitor angezeigtes Bild ausgewählt wird.
  8. Verfahren nach Anspruch 1, bei dem das Programm ein Videospiel und das Rechensystem eine Spielkonsole ist.
  9. Verfahren nach Anspruch 1, bei dem das Eingabeobjekt aufweist: einen ersten Abschnitt und einen mit dem ersten Abschnitt integrierten zweiten Abschnitt, wobei der erste und der zweite Abschnitt durch ein Glied miteinander integriert sind, das ein mit dem ersten Abschnitt in Kontakt stehendes erstes Ende und ein mit dem zweiten Abschnitt in Kontakt stehendes zweites Ende aufweist, wobei dieses Glied im wesentlichen senkrecht zu einer durch eine Kante des ersten Abschnitts definierten Ebene und einer durch eine Kante des zweiten Abschnitts definierten Ebene verläuft.
  10. Rechenvorrichtung, die unter dem Steuereinfluß eines Programms zur Eingabedetektierung arbeitet, das Programminstruktionen aufweist, um festzustellen, wenn Eingabebefehle eines Hauptprogramms getriggert werden sollen, wobei die Rechenvorrichtung aufweist: Mittel zum Überwachen eines Blickfelds vor einem Videoerfassungsgerät, wobei das Videoerfassungsgerät Daten an das Programms zur Eingabedetektierung liefert, Mittel zum Identifizieren eines manuell verformbaren Eingabeobjekts innerhalb des Blickfelds, Mittel zum Detektieren einer physischen Änderung an dem Eingabeobjekt, wobei diese physische Änderung aus einer Änderung des Seitenverhältnisses des Eingabeobjekts besteht, und Mittel zum Triggern eines Eingabebefehls in dem Hauptprogramm, wobei das Triggern ein Resultat der detektierten physischen Änderung des Eingabeobjekts ist.
  11. Vorrichtung nach Anspruch 10, bei dem die Mittel zum Detektieren einer physischen Änderung an dem Eingabeobjekt Mittel zum Detektieren einer Positionsänderung des Eingabeobjekts umfassen.
  12. Vorrichtung nach Anspruch 10, wobei die Vorrichtung eine Videospielkonsole ist.
  13. Vorrichtung nach Anspruch 10, bei der das Eingabeobjekt ein kollabierbarer Ball (310a, 310b) ist.
  14. Vorrichtung nach Anspruch 10, bei der Mittel zum Triggern eines Eingabebefehls eine Größenänderung eines Bilds bewirken, das auf einem mit dem Rechensystem verbundenen Monitor angezeigt wird.
  15. Rechensystem mit einem manuell verformbaren Eingabeobjekt (300) für die Verwendung als Eingabevorrichtung, wobei das Eingabeobjekt aufweist: einen ersten Abschnitt, einen zweiten Abschnitt, der mit dem mit dem ersten Abschnitt so verbunden ist, daß das Eingabeobjekt konfiguriert ist, um in entspanntem Zustand eine erste Form mit einem ersten Seitenverhältnis und in einem verformten Zustand eine zweite Form mit einem zweiten Seitenverhältnis zu definieren, und mit einer Rechenvorrichtung (160) nach einem der Ansprüche 10 bis 15.
  16. System nach Anspruch 15, bei dem Eingabeobjekt aufweist: eine Kante des ersten Abschnitts und eine Kante des zweiten Abschnitts, wobei die Kante des ersten Abschnitts und die Kante des zweiten Abschnitts so konfiguriert sind, daß sie Licht reflektieren, wobei das von der Kante des ersten Abschnitts und von der Kante des zweiten Abschnitts reflektierte Licht von der Rechenvorrichtung verfolgt werden kann.
  17. System nach Anspruch 15, bei dem ein von der Rechenvorrichtung beobachteter Bereich des Eingabeobjekts unverändert bleibt, um die Bewegung im dreidimensionalen Raum zu verfolgen.
  18. System nach Anspruch 16, bei dem das Eingabeobjekt in entspanntem Zustand eine zwischen der Kante des ersten Abschnitts und der Kante des zweiten Abschnitts definierte Öffnung aufweist, wobei diese Öffnung im verformten Zustand geschlossen ist.
  19. System nach Anspruch 15 oder 16, bei dem ein dem ersten und dem zweiten Abschnitt entsprechendes Symbol auf einem mit der Rechenvorrichtung verbundenen Betrachtungsbildschirm angezeigt wird.
  20. System nach Anspruch 15, bei dem das Eingabeobjekt so ausgebildet ist, daß es ein hörbares Klicken erzeugt, wenn die Form des Eingabeobjekts zwischen dem ersten und dem zweiten Zustand wechselt.
  21. System nach Anspruch 19, bei dem eine Bewegung des Eingabeobjekts eine Bewegung des Symbols auf dem Betrachtungsbildschirm bewirkt.
  22. System nach Anspruch 20, bei dem das Symbol in der Lage ist, mit auf dem Betrachtungsbildschirm definierten Objekten zu interagieren.
  23. System nach Anspruch 15, bei dem der erste und der zweite Abschnitt durch ein Glied miteinander integriert sind, das ein mit dem ersten Abschnitt in Kontakt stehendes erstes Ende und ein mit dem zweiten Abschnitt in Kontakt stehendes zweites Ende aufweist, wobei dieses Glied im wesentlichen senkrecht zu einer durch eine Kante des ersten Abschnitts definierten Ebene und einer durch eine Kante des zweiten Abschnitts definierten Ebene verläuft.
  24. System nach Anspruch 23, bei dem ein Symbol, das der Kante des ersten Abschnitts und der Kante des zweiten Abschnitts entspricht, auf einem mit dem Rechensystem verbundenen Betrachtungsbildschirm angezeigt wird.
  25. System nach Anspruch 24, bei dem eine Bewegung des Eingabeobjekts eine Bewegung des Symbols auf dem Betrachtungsbildschirm bewirkt.
  26. System nach Anspruch 24, bei dem das Symbol in der Lage ist, mit auf dem Betrachtungsbildschirm definierten Objekten zu interagieren.
  27. System nach Anspruch 15, bei dem das Eingabeobjekt aufweist: einen ersten Abschnitt und einen mit dem ersten Abschnitt integrierten zweiten Abschnitt, wobei der erste und der zweite Abschnitt durch ein Glied miteinander integriert sind, das ein mit dem ersten Abschnitt in Kontakt stehendes erstes Ende und ein mit dem zweiten Abschnitt in Kontakt stehendes zweites Ende aufweist, wobei dieses Glied im wesentlichen senkrecht zu einer durch eine Kante des ersten Abschnitts definierten Ebene und einer durch eine Kante des zweiten Abschnitts definierten Ebene verläuft.
DE60308541T 2002-07-27 2003-07-14 Mensch-maschine-schnittstelle unter verwendung einer deformierbaren einrichtung Expired - Lifetime DE60308541T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US10/207,677 US7102615B2 (en) 2002-07-27 2002-07-27 Man-machine interface using a deformable device
US207677 2002-07-27
PCT/US2003/022130 WO2004012073A2 (en) 2002-07-27 2003-07-14 Man-machine interface using a deformable device

Publications (2)

Publication Number Publication Date
DE60308541D1 DE60308541D1 (de) 2006-11-02
DE60308541T2 true DE60308541T2 (de) 2007-09-20

Family

ID=30770505

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60308541T Expired - Lifetime DE60308541T2 (de) 2002-07-27 2003-07-14 Mensch-maschine-schnittstelle unter verwendung einer deformierbaren einrichtung

Country Status (9)

Country Link
US (2) US7102615B2 (de)
EP (1) EP1552375B1 (de)
JP (1) JP4234677B2 (de)
CN (1) CN1672120B (de)
AT (1) ATE340380T1 (de)
AU (1) AU2003253931A1 (de)
DE (1) DE60308541T2 (de)
TW (1) TWI297866B (de)
WO (1) WO2004012073A2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019101738A1 (de) * 2019-01-24 2020-07-30 Deutsches Zentrum für Luft- und Raumfahrt e.V. Vorrichtung zur kontaktlosen Ermittlung zeitabhängiger Positionen eines mechanisch beweglichen Eingabeelements

Families Citing this family (173)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7834855B2 (en) 2004-08-25 2010-11-16 Apple Inc. Wide touchpad on a portable computer
US7749089B1 (en) 1999-02-26 2010-07-06 Creative Kingdoms, Llc Multi-media interactive play system
US8956228B2 (en) * 1999-12-03 2015-02-17 Nike, Inc. Game pod
US20050037844A1 (en) * 2002-10-30 2005-02-17 Nike, Inc. Sigils for use with apparel
US6585622B1 (en) 1999-12-03 2003-07-01 Nike, Inc. Interactive use an athletic performance monitoring and reward method, system, and computer program product
US7445550B2 (en) 2000-02-22 2008-11-04 Creative Kingdoms, Llc Magical wand and interactive play experience
US7878905B2 (en) 2000-02-22 2011-02-01 Creative Kingdoms, Llc Multi-layered interactive play experience
US6761637B2 (en) 2000-02-22 2004-07-13 Creative Kingdoms, Llc Method of game play using RFID tracking device
US7066781B2 (en) 2000-10-20 2006-06-27 Denise Chapman Weston Children's toy with wireless tag/transponder
US6967566B2 (en) 2002-04-05 2005-11-22 Creative Kingdoms, Llc Live-action interactive adventure game
US20070066396A1 (en) 2002-04-05 2007-03-22 Denise Chapman Weston Retail methods for providing an interactive product to a consumer
US7161579B2 (en) 2002-07-18 2007-01-09 Sony Computer Entertainment Inc. Hand-held computer interactive device
US7646372B2 (en) 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US8797260B2 (en) 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US7783061B2 (en) 2003-08-27 2010-08-24 Sony Computer Entertainment Inc. Methods and apparatus for the targeted sound detection
US8073157B2 (en) * 2003-08-27 2011-12-06 Sony Computer Entertainment Inc. Methods and apparatus for targeted sound detection and characterization
US7809145B2 (en) 2006-05-04 2010-10-05 Sony Computer Entertainment Inc. Ultra small microphone array
US7623115B2 (en) 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US8947347B2 (en) 2003-08-27 2015-02-03 Sony Computer Entertainment Inc. Controlling actions in a video game unit
US7883415B2 (en) 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US9474968B2 (en) 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US7627139B2 (en) * 2002-07-27 2009-12-01 Sony Computer Entertainment Inc. Computer image and audio processing of intensity and input devices for interfacing with a computer program
US7782297B2 (en) 2002-07-27 2010-08-24 Sony Computer Entertainment America Inc. Method and apparatus for use in determining an activity level of a user in relation to a system
US7850526B2 (en) * 2002-07-27 2010-12-14 Sony Computer Entertainment America Inc. System for tracking user manipulations within an environment
US8686939B2 (en) 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US7918733B2 (en) * 2002-07-27 2011-04-05 Sony Computer Entertainment America Inc. Multi-input game control mixer
US7803050B2 (en) * 2002-07-27 2010-09-28 Sony Computer Entertainment Inc. Tracking device with sound emitter for use in obtaining information for controlling game program execution
US20070015559A1 (en) * 2002-07-27 2007-01-18 Sony Computer Entertainment America Inc. Method and apparatus for use in determining lack of user activity in relation to a system
US8160269B2 (en) * 2003-08-27 2012-04-17 Sony Computer Entertainment Inc. Methods and apparatuses for adjusting a listening area for capturing sounds
US20060264260A1 (en) * 2002-07-27 2006-11-23 Sony Computer Entertainment Inc. Detectable and trackable hand-held controller
US9393487B2 (en) * 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US9174119B2 (en) 2002-07-27 2015-11-03 Sony Computer Entertainement America, LLC Controller for providing inputs to control execution of a program when inputs are combined
US8233642B2 (en) * 2003-08-27 2012-07-31 Sony Computer Entertainment Inc. Methods and apparatuses for capturing an audio signal based on a location of the signal
US20060282873A1 (en) * 2002-07-27 2006-12-14 Sony Computer Entertainment Inc. Hand-held controller having detectable elements for tracking purposes
US7854655B2 (en) 2002-07-27 2010-12-21 Sony Computer Entertainment America Inc. Obtaining input for controlling execution of a game program
US20060256081A1 (en) * 2002-07-27 2006-11-16 Sony Computer Entertainment America Inc. Scheme for detecting and tracking user manipulation of a game controller body
US10086282B2 (en) * 2002-07-27 2018-10-02 Sony Interactive Entertainment Inc. Tracking device for use in obtaining information for controlling game program execution
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US8139793B2 (en) 2003-08-27 2012-03-20 Sony Computer Entertainment Inc. Methods and apparatus for capturing audio signals based on a visual image
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US9682319B2 (en) 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
US8206219B2 (en) * 2002-10-30 2012-06-26 Nike, Inc. Interactive gaming apparel for interactive gaming
EP1556148B1 (de) 2002-10-30 2010-01-06 Nike International Ltd Kleidungsstücke mit bewegungserfassungsmarker für videospiele
US9177387B2 (en) 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US9446319B2 (en) 2003-03-25 2016-09-20 Mq Gaming, Llc Interactive gaming toy
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US20070223732A1 (en) * 2003-08-27 2007-09-27 Mao Xiao D Methods and apparatuses for adjusting a visual image based on an audio signal
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US8287373B2 (en) 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
US9573056B2 (en) 2005-10-26 2017-02-21 Sony Interactive Entertainment Inc. Expandable control device via hardware attachment
US10279254B2 (en) 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
GB2409596A (en) * 2003-12-23 2005-06-29 Nokia Corp Handset with squeezable body
US7663689B2 (en) 2004-01-16 2010-02-16 Sony Computer Entertainment Inc. Method and apparatus for optimizing capture device settings through depth information
TWI236289B (en) * 2004-08-11 2005-07-11 Pixart Imaging Inc Interactive device capable of improving image processing
US9024880B2 (en) * 2004-08-11 2015-05-05 Pixart Imaging Inc. Interactive system capable of improving image processing
US8547401B2 (en) 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
US20060046851A1 (en) * 2004-08-24 2006-03-02 Hewlett-Packard Development Company, L.P. Remote gaming and projection
US7561146B1 (en) * 2004-08-25 2009-07-14 Apple Inc. Method and apparatus to reject accidental contact on a touchpad
CA2581982C (en) 2004-09-27 2013-06-18 Nielsen Media Research, Inc. Methods and apparatus for using location information to manage spillover in an audience monitoring system
US20060072009A1 (en) * 2004-10-01 2006-04-06 International Business Machines Corporation Flexible interaction-based computer interfacing using visible artifacts
KR100663515B1 (ko) * 2004-11-08 2007-01-02 삼성전자주식회사 휴대 단말 장치 및 이를 위한 데이터 입력 방법
US7852317B2 (en) 2005-01-12 2010-12-14 Thinkoptics, Inc. Handheld device for handheld vision based absolute pointing system
GB0505362D0 (en) * 2005-03-15 2005-04-20 Intelligent Earth Ltd Interface control
KR100687737B1 (ko) * 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
US7609249B2 (en) * 2005-04-21 2009-10-27 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Position determination utilizing a cordless device
JP4849829B2 (ja) * 2005-05-15 2012-01-11 株式会社ソニー・コンピュータエンタテインメント センタ装置
US20060262188A1 (en) * 2005-05-20 2006-11-23 Oded Elyada System and method for detecting changes in an environment
TWI388206B (zh) * 2005-09-14 2013-03-01 Panasonic Corp 攝影裝置、固態攝影元件、影像生成方法
JP5116679B2 (ja) * 2005-09-15 2013-01-09 株式会社ソニー・コンピュータエンタテインメント 強度のコンピュータ画像および音声処理、ならびにコンピュータプログラムとインタフェースするための入力装置
JP2007087100A (ja) * 2005-09-22 2007-04-05 Victor Co Of Japan Ltd 電子機器システム
EP1967942A1 (de) * 2005-10-26 2008-09-10 Sony Computer Entertainment America, Inc. System und Verfahren zur Verbindung und Computerprogramm
US8549442B2 (en) * 2005-12-12 2013-10-01 Sony Computer Entertainment Inc. Voice and video control of interactive electronically simulated environment
US20070152983A1 (en) 2005-12-30 2007-07-05 Apple Computer, Inc. Touch pad with symbols based on mode
JP3989511B1 (ja) * 2006-03-29 2007-10-10 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム制御方法、ならびに、プログラム
US20110014981A1 (en) * 2006-05-08 2011-01-20 Sony Computer Entertainment Inc. Tracking device with sound emitter for use in obtaining information for controlling game program execution
US8022935B2 (en) 2006-07-06 2011-09-20 Apple Inc. Capacitance sensing electrode with integrated I/O mechanism
US8913003B2 (en) * 2006-07-17 2014-12-16 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer using a projection marker system
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
US8781151B2 (en) * 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
US20080098448A1 (en) * 2006-10-19 2008-04-24 Sony Computer Entertainment America Inc. Controller configured to track user's level of anxiety and other mental and physical attributes
US20080096654A1 (en) * 2006-10-20 2008-04-24 Sony Computer Entertainment America Inc. Game control using three-dimensional motions of controller
US20080096657A1 (en) * 2006-10-20 2008-04-24 Sony Computer Entertainment America Inc. Method for aiming and shooting using motion sensing controller
US20080120115A1 (en) * 2006-11-16 2008-05-22 Xiao Dong Mao Methods and apparatuses for dynamically adjusting an audio signal based on a parameter
JP4720738B2 (ja) * 2006-12-20 2011-07-13 日本ビクター株式会社 電子機器
US20080189661A1 (en) * 2007-02-06 2008-08-07 Jazzbo Technology Inc. Video user interface
RU2472206C2 (ru) * 2007-03-30 2013-01-10 Конинклейке Филипс Электроникс Н.В. Пространственная мышь - устройство связи
US10504317B2 (en) 2007-04-30 2019-12-10 Cfph, Llc Game with player actuated control structure
US9176598B2 (en) 2007-05-08 2015-11-03 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer with improved performance
US9317110B2 (en) 2007-05-29 2016-04-19 Cfph, Llc Game with hand motion control
US20090062943A1 (en) * 2007-08-27 2009-03-05 Sony Computer Entertainment Inc. Methods and apparatus for automatically controlling the sound level based on the content
US8542907B2 (en) 2007-12-17 2013-09-24 Sony Computer Entertainment America Llc Dynamic three-dimensional object mapping for user-defined control device
US20090174679A1 (en) 2008-01-04 2009-07-09 Wayne Carl Westerman Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface
KR100927009B1 (ko) 2008-02-04 2009-11-16 광주과학기술원 증강 현실에서의 햅틱 상호 작용 방법 및 그 시스템
US8840470B2 (en) 2008-02-27 2014-09-23 Sony Computer Entertainment America Llc Methods for capturing depth data of a scene and applying computer actions
US8368753B2 (en) 2008-03-17 2013-02-05 Sony Computer Entertainment America Llc Controller with an integrated depth camera
ATE540351T1 (de) * 2008-04-01 2012-01-15 Koninkl Philips Electronics Nv Zeigevorrichtung zur verwendung auf einer interaktiven oberfläche
US8543929B1 (en) * 2008-05-14 2013-09-24 Adobe Systems Incorporated User ratings allowing access to features for modifying content
US20100013765A1 (en) * 2008-07-18 2010-01-21 Wei Gu Methods for controlling computers and devices
JP5681633B2 (ja) * 2008-10-27 2015-03-11 株式会社ソニー・コンピュータエンタテインメント 視覚情報を通信するためのコントロールデバイス
US8961313B2 (en) 2009-05-29 2015-02-24 Sony Computer Entertainment America Llc Multi-positional three-dimensional controller
US8294047B2 (en) 2008-12-08 2012-10-23 Apple Inc. Selective input signal rejection and modification
JP4950230B2 (ja) * 2009-01-14 2012-06-13 Smk株式会社 リモートコントロールシステム
US20100201808A1 (en) * 2009-02-09 2010-08-12 Microsoft Corporation Camera based motion sensing system
US8527657B2 (en) 2009-03-20 2013-09-03 Sony Computer Entertainment America Llc Methods and systems for dynamically adjusting update rates in multi-player network gaming
US8342963B2 (en) 2009-04-10 2013-01-01 Sony Computer Entertainment America Inc. Methods and systems for enabling control of artificial intelligence game characters
US8393964B2 (en) 2009-05-08 2013-03-12 Sony Computer Entertainment America Llc Base station for position location
US8142288B2 (en) 2009-05-08 2012-03-27 Sony Computer Entertainment America Llc Base station movement detection and compensation
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
JP2011081480A (ja) * 2009-10-05 2011-04-21 Seiko Epson Corp 画像入力システム
US8855101B2 (en) 2010-03-09 2014-10-07 The Nielsen Company (Us), Llc Methods, systems, and apparatus to synchronize actions of audio source monitors
JP5577793B2 (ja) 2010-03-30 2014-08-27 ソニー株式会社 画像処理装置および方法、並びにプログラム
TWI508543B (zh) * 2010-05-06 2015-11-11 Pixart Imaging Inc 可提高影像處理速度之互動式系統
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US8654152B2 (en) * 2010-06-21 2014-02-18 Microsoft Corporation Compartmentalizing focus area within field of view
US8467599B2 (en) 2010-09-02 2013-06-18 Edge 3 Technologies, Inc. Method and apparatus for confusion learning
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
US20150153715A1 (en) * 2010-09-29 2015-06-04 Google Inc. Rapidly programmable locations in space
US9477302B2 (en) 2012-08-10 2016-10-25 Google Inc. System and method for programing devices within world space volumes
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
JP2012190183A (ja) * 2011-03-09 2012-10-04 Sony Corp 画像処理装置および方法、並びにプログラム
WO2012125596A2 (en) 2011-03-12 2012-09-20 Parshionikar Uday Multipurpose controller for electronic devices, facial expressions management and drowsiness detection
US8340504B2 (en) * 2011-04-26 2012-12-25 Sony Computer Entertainment Europe Limited Entertainment device and method
US9194938B2 (en) 2011-06-24 2015-11-24 Amazon Technologies, Inc. Time difference of arrival determination with direct sound
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
EP2613223A1 (de) * 2012-01-09 2013-07-10 Softkinetic Software System und Verfahren zur verbesserten, auf Gesten basierenden Interaktion
WO2013169247A1 (en) 2012-05-09 2013-11-14 Intel Corporation Budget-aware event information collection during program execution
US9021516B2 (en) 2013-03-01 2015-04-28 The Nielsen Company (Us), Llc Methods and systems for reducing spillover by measuring a crest factor
US9118960B2 (en) 2013-03-08 2015-08-25 The Nielsen Company (Us), Llc Methods and systems for reducing spillover by detecting signal distortion
US9197930B2 (en) 2013-03-15 2015-11-24 The Nielsen Company (Us), Llc Methods and apparatus to detect spillover in an audience monitoring system
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
US9654763B2 (en) * 2013-04-02 2017-05-16 Htc Corporation Controlling method of detecting image-capturing gesture
US9749541B2 (en) * 2013-04-16 2017-08-29 Tout Inc. Method and apparatus for displaying and recording images using multiple image capturing devices integrated into a single mobile device
US20150077340A1 (en) * 2013-09-18 2015-03-19 Genius Toy Taiwan Co., Ltd. Method, system and computer program product for real-time touchless interaction
JP6000929B2 (ja) * 2013-11-07 2016-10-05 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
FR3034053B1 (fr) * 2015-03-26 2017-03-17 Continental Automotive France Systeme de palette tactile mobile ou deformable formant une interface homme-machine adapte sur un volant de vehicule
US9924224B2 (en) 2015-04-03 2018-03-20 The Nielsen Company (Us), Llc Methods and apparatus to determine a state of a media presentation device
US9848222B2 (en) 2015-07-15 2017-12-19 The Nielsen Company (Us), Llc Methods and apparatus to detect spillover
JP6654019B2 (ja) * 2015-11-09 2020-02-26 任天堂株式会社 情報処理システム情報処理装置、情報処理方法、情報処理プログラム、および、ハンドヘルド型情報処理装置
TWI729064B (zh) * 2016-01-28 2021-06-01 日商日本鼎意股份有限公司 包括內置有感應器的球的系統、行動終端的程式及經由行動終端監控球的動向之方法
JP6702746B2 (ja) * 2016-02-10 2020-06-03 キヤノン株式会社 撮像装置、その制御方法、プログラム及び記憶媒体
US10071306B2 (en) 2016-03-25 2018-09-11 Zero Latency PTY LTD System and method for determining orientation using tracking cameras and inertial measurements
US10717001B2 (en) 2016-03-25 2020-07-21 Zero Latency PTY LTD System and method for saving tracked data in the game server for replay, review and training
US9916496B2 (en) * 2016-03-25 2018-03-13 Zero Latency PTY LTD Systems and methods for operating a virtual reality environment using colored marker lights attached to game objects
US10421012B2 (en) 2016-03-25 2019-09-24 Zero Latency PTY LTD System and method for tracking using multiple slave servers and a master server
US10486061B2 (en) 2016-03-25 2019-11-26 Zero Latency Pty Ltd. Interference damping for continuous game play
CN109789313A (zh) 2016-07-27 2019-05-21 Z2020有限责任公司 用于光疗递送的部件和装置及其相关的方法
US10751609B2 (en) 2016-08-12 2020-08-25 Zero Latency PTY LTD Mapping arena movements into a 3-D virtual world
CN106898199A (zh) * 2017-02-27 2017-06-27 杜美玲 一种便携式函数教学讲解用具
CN109032710B (zh) * 2017-06-09 2022-05-24 斑马智行网络(香港)有限公司 一种界面调整方法、装置、设备和存储介质
JP6755843B2 (ja) 2017-09-14 2020-09-16 株式会社東芝 音響処理装置、音声認識装置、音響処理方法、音声認識方法、音響処理プログラム及び音声認識プログラム
CN108809462B (zh) * 2018-05-08 2024-01-26 江苏师范大学 场馆多路音强自平衡的数字调音台
EP3798978A4 (de) * 2018-05-21 2021-08-04 Panasonic Intellectual Property Management Co., Ltd. Vorrichtung zur videoanalyse eines ballspiels und verfahren zur videoanalyse eines ballspiels
CN110720113A (zh) * 2018-08-01 2020-01-21 深圳市大疆创新科技有限公司 一种参数处理方法、装置及摄像设备、飞行器
CN111199169A (zh) * 2018-11-16 2020-05-26 北京微播视界科技有限公司 图像处理方法和装置
CN109718549B (zh) * 2019-02-21 2022-04-12 网易(杭州)网络有限公司 游戏中消息处理的方法及装置、电子设备、存储介质
CN110148406B (zh) * 2019-04-12 2022-03-04 北京搜狗科技发展有限公司 一种数据处理方法和装置、一种用于数据处理的装置
CN111107280B (zh) * 2019-12-12 2022-09-06 北京字节跳动网络技术有限公司 特效的处理方法、装置、电子设备及存储介质
CN111882651B (zh) * 2020-06-23 2022-04-15 北京城市网邻信息技术有限公司 一种空间光线的处理方法、装置、电子设备及存储介质
CN114079715B (zh) * 2020-08-13 2024-02-23 北京慧行实达科技有限公司 一种基于图像视频的智能识别系统
CN112037600B (zh) * 2020-08-28 2022-05-17 马全胜 关节松动术教具
CN112354175A (zh) * 2020-12-02 2021-02-12 网易(杭州)网络有限公司 游戏广播通知方法、装置、设备和存储介质
CN114822570B (zh) * 2021-01-22 2023-02-14 腾讯科技(深圳)有限公司 一种音频数据处理方法、装置、设备及可读存储介质
CN113318447B (zh) * 2021-05-25 2022-07-29 网易(杭州)网络有限公司 游戏场景的处理方法、装置、存储介质及电子设备
CN113891530A (zh) * 2021-09-28 2022-01-04 佛山电器照明股份有限公司 一种光照智能调控方法、设备和系统
CN114268831A (zh) * 2021-11-30 2022-04-01 乐美科技股份私人有限公司 一种视频剪辑方法及装置
US20230338827A1 (en) * 2022-04-25 2023-10-26 Sony Interactive Entertainment Inc. Correlating gestures on deformable controller to computer simulation input signals
CN116841936B (zh) * 2023-08-29 2023-11-21 深圳市莱仕达电子科技有限公司 一种多设备的数据处理方法、装置、系统和计算机设备

Family Cites Families (154)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3943277A (en) * 1969-02-20 1976-03-09 The United States Of America As Represented By The Secretary Of The Navy Digital memory area correlation tracker
US4313227A (en) * 1979-01-29 1982-01-26 Texas Instruments Incorporated Light energy information transmission system
US4263504A (en) * 1979-08-01 1981-04-21 Ncr Corporation High density matrix code
US4565999A (en) * 1983-04-01 1986-01-21 Prime Computer, Inc. Light pencil
US4558864A (en) * 1984-06-13 1985-12-17 Medwedeff Marion C Handgrip exercising, computer game controller
US4843568A (en) * 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
JPS6347616A (ja) * 1986-08-15 1988-02-29 Ricoh Co Ltd 移動量測定方法
EP0302028B1 (de) * 1987-07-24 1992-12-23 Marelmo Di Marchigiano G., Ezzu L., Mogno G.P. S.N.C. Hintere Gangschaltung für ein Fahrrad
IT1219405B (it) 1988-06-27 1990-05-11 Fiat Ricerche Procedimento e dispositivo per la visione strumentale in condizioni di scarsa visibilita in particolare per la guida nella nebbia
JPH05501020A (ja) 1988-12-20 1993-02-25 ミート リサーチ コーポレーション 光学的に読取り可能なコード化された物標
US5034986A (en) * 1989-03-01 1991-07-23 Siemens Aktiengesellschaft Method for detecting and tracking moving objects in a digital image sequence having a stationary background
US5534917A (en) * 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5144594A (en) 1991-05-29 1992-09-01 Cyber Scientific Acoustic mouse system
US5889670A (en) * 1991-10-24 1999-03-30 Immersion Corporation Method and apparatus for tactilely responsive user interface
US5444462A (en) * 1991-12-16 1995-08-22 Wambach; Mark L. Computer mouse glove with remote communication
JP3244798B2 (ja) 1992-09-08 2002-01-07 株式会社東芝 動画像処理装置
US5335011A (en) 1993-01-12 1994-08-02 Bell Communications Research, Inc. Sound localization system for teleconferencing using self-steering microphone arrays
DE69414153T2 (de) 1993-02-24 1999-06-10 Matsushita Electric Ind Co Ltd Vorrichtung zur Gradationskorrektur und Bildaufnahmegerät mit einer solchen Vorrichtung
US5815411A (en) * 1993-09-10 1998-09-29 Criticom Corporation Electro-optic vision system which exploits position and attitude
US5677710A (en) 1993-05-10 1997-10-14 Apple Computer, Inc. Recognition keypad
US5581270A (en) * 1993-06-24 1996-12-03 Nintendo Of America, Inc. Hotel-based video game and communication system
US5959596A (en) 1993-06-24 1999-09-28 Nintendo Co., Ltd. Airline-based video game and communications system
FR2714502A1 (fr) * 1993-12-29 1995-06-30 Philips Laboratoire Electroniq Procédé et dispositif de traitement d'image pour construire à partir d'une image source une image cible avec changement de perspective.
US5611000A (en) * 1994-02-22 1997-03-11 Digital Equipment Corporation Spline-based image registration
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
US5543818A (en) 1994-05-13 1996-08-06 Sony Corporation Method and apparatus for entering text using an input device having a small number of keys
US5563988A (en) * 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US5641319A (en) 1994-08-10 1997-06-24 Lodgenet Entertainment Corporation Entertainment system for providing interactive video game responses to the game interrogations to the video game engines without being processed by the host computer
GB2301514B (en) 1994-12-01 1999-06-09 Namco Ltd Apparatus and method for image synthesization
JP3270643B2 (ja) 1994-12-22 2002-04-02 キヤノン株式会社 指示位置検出方法及び装置
US5929444A (en) * 1995-01-31 1999-07-27 Hewlett-Packard Company Aiming device using radiated energy
US5568928A (en) 1995-02-01 1996-10-29 Exertron, Inc. Video game controller for use with an exercise apparatus
US5638228A (en) * 1995-02-14 1997-06-10 Iomega Corporation Retroreflective marker for data storage cartridge
US5930741A (en) * 1995-02-28 1999-07-27 Virtual Technologies, Inc. Accurate, rapid, reliable position sensing using multiple sensing technologies
US5583478A (en) 1995-03-01 1996-12-10 Renzi; Ronald Virtual environment tactile system
KR19990008158A (ko) * 1995-04-28 1999-01-25 모리시타요우이치 인터페이스 장치
US5649021A (en) * 1995-06-07 1997-07-15 David Sarnoff Research Center, Inc. Method and system for object detection for instrument control
IL114278A (en) * 1995-06-22 2010-06-16 Microsoft Internat Holdings B Camera and method
AU6135996A (en) * 1995-06-22 1997-01-22 3Dv Systems Ltd. Improved optical ranging camera
CA2227904C (en) 1995-07-26 2000-11-14 Tegic Communications, Inc. Reduced keyboard disambiguating system
US6311214B1 (en) * 1995-07-27 2001-10-30 Digimarc Corporation Linking of computers based on optical sensing of digital data
US5768415A (en) * 1995-09-08 1998-06-16 Lucent Technologies Inc. Apparatus and methods for performing electronic scene analysis and enhancement
US5818424A (en) * 1995-10-19 1998-10-06 International Business Machines Corporation Rod shaped device and data acquisition apparatus for determining the position and orientation of an object in space
US5719561A (en) 1995-10-25 1998-02-17 Gilbert R. Gonzales Tactile communication device and method
US6282362B1 (en) 1995-11-07 2001-08-28 Trimble Navigation Limited Geographical position/image digital recording and display system
WO1997020305A1 (en) 1995-11-30 1997-06-05 Virtual Technologies, Inc. Tactile feedback man-machine interface device
JP4079463B2 (ja) * 1996-01-26 2008-04-23 ソニー株式会社 被写体検出装置および被写体検出方法
US6049619A (en) * 1996-02-12 2000-04-11 Sarnoff Corporation Method and apparatus for detecting moving objects in two- and three-dimensional scenes
JP2891159B2 (ja) * 1996-02-14 1999-05-17 日本電気株式会社 多眼画像からの物体検出方式
RU2069885C1 (ru) 1996-03-01 1996-11-27 Йелстаун Корпорейшн Н.В. Способ наблюдения объектов при пониженной освещенности и устройство для его осуществления
JPH09244793A (ja) * 1996-03-04 1997-09-19 Alps Electric Co Ltd 入力装置
US5937081A (en) 1996-04-10 1999-08-10 O'brill; Michael R. Image composition system and method of using same
US5923318A (en) * 1996-04-12 1999-07-13 Zhai; Shumin Finger manipulatable 6 degree-of-freedom input device
US5917493A (en) 1996-04-17 1999-06-29 Hewlett-Packard Company Method and apparatus for randomly generating information for subsequent correlating
US6516466B1 (en) * 1996-05-02 2003-02-04 Vincent C. Jackson Method and apparatus for portable digital entertainment system
US6151009A (en) 1996-08-21 2000-11-21 Carnegie Mellon University Method and apparatus for merging real and synthetic images
US6400374B2 (en) * 1996-09-18 2002-06-04 Eyematic Interfaces, Inc. Video superposition system and method
US6243491B1 (en) * 1996-12-31 2001-06-05 Lucent Technologies Inc. Methods and apparatus for controlling a video system with visually recognized props
US6021219A (en) * 1997-01-07 2000-02-01 Lucent Technologies Inc. Methods and apparatus for distinguishing among several visual patterns
US5850473A (en) * 1997-01-07 1998-12-15 Lucent Technologies Inc. Method and apparatus for compensating for color variation in a video system
US5796354A (en) 1997-02-07 1998-08-18 Reality Quest Corp. Hand-attachable controller with direction sensing
US6009210A (en) * 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
EP0970502A1 (de) * 1997-03-07 2000-01-12 3DV Systems Ltd. Optischer verschluss
US6061055A (en) * 1997-03-21 2000-05-09 Autodesk, Inc. Method of tracking objects with an imaging device
JP3009633B2 (ja) 1997-04-03 2000-02-14 コナミ株式会社 画像装置、画像表示方法および記録媒体
US6428411B1 (en) * 1997-05-02 2002-08-06 Konami Co., Ltd. Volleyball video game system
NO304715B1 (no) * 1997-05-06 1999-02-01 Dimensions As FremgangsmÕte ved bildebehandling
JP3183632B2 (ja) 1997-06-13 2001-07-09 株式会社ナムコ 情報記憶媒体及び画像生成装置
US6075895A (en) * 1997-06-20 2000-06-13 Holoplex Methods and apparatus for gesture recognition based on templates
US6072504A (en) * 1997-06-20 2000-06-06 Lucent Technologies Inc. Method and apparatus for tracking, storing, and synthesizing an animated version of object motion
US6094625A (en) * 1997-07-03 2000-07-25 Trimble Navigation Limited Augmented vision for survey work and machine control
KR20000068660A (ko) 1997-07-29 2000-11-25 요트.게.아. 롤페즈 3차원 장면 재구성 방법과 재구성 장치 및 디코딩 시스템
US6044181A (en) * 1997-08-01 2000-03-28 Microsoft Corporation Focal length estimation method and apparatus for construction of panoramic mosaic images
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6297838B1 (en) 1997-08-29 2001-10-02 Xerox Corporation Spinning as a morpheme for a physical manipulatory grammar
US6268857B1 (en) * 1997-08-29 2001-07-31 Xerox Corporation Computer user interface using a physical manipulatory grammar
US6243074B1 (en) * 1997-08-29 2001-06-05 Xerox Corporation Handedness detection for a physical manipulatory grammar
US6768415B1 (en) * 1997-10-03 2004-07-27 Micron Technology, Inc. Wireless identification device, RFID device with push-on/push-off switch, method of manufacturing wireless identification device
US6072494A (en) * 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6101289A (en) * 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
US6031934A (en) * 1997-10-15 2000-02-29 Electric Planet, Inc. Computer vision system for subject characterization
WO1999019828A1 (en) * 1997-10-15 1999-04-22 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US6166744A (en) 1997-11-26 2000-12-26 Pathfinder Systems, Inc. System for combining virtual images with real-world scenes
US6195104B1 (en) * 1997-12-23 2001-02-27 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
EP1055146B1 (de) * 1998-02-08 2003-01-22 3DV Ltd. Optischer verschluss mit grosser blendenöffnung
US6175343B1 (en) * 1998-02-24 2001-01-16 Anivision, Inc. Method and apparatus for operating the overlay of computer-generated effects onto a live image
US6037942A (en) 1998-03-10 2000-03-14 Magellan Dis, Inc. Navigation system character input device
US6173059B1 (en) * 1998-04-24 2001-01-09 Gentner Communications Corporation Teleconferencing system with visual feedback
JP3646969B2 (ja) * 1998-05-25 2005-05-11 富士通株式会社 3次元画像表示装置
JP2000020163A (ja) 1998-06-30 2000-01-21 Sony Corp 情報処理装置
US6504535B1 (en) * 1998-06-30 2003-01-07 Lucent Technologies Inc. Display techniques for three-dimensional virtual reality
IL125221A0 (en) * 1998-07-06 1999-03-12 Toy Control Ltd Motion activation using passive sound source
US6184863B1 (en) * 1998-10-13 2001-02-06 The George Washington University Direct pointing apparatus and method therefor
DE19849515C1 (de) * 1998-10-19 2000-12-28 Gerhard Wergen Verfahren zur Übergabe von Zeichen insbesondere an einen Computer und Eingabevorrichtung unter Einsatz dieses Verfahrens
US6307568B1 (en) 1998-10-28 2001-10-23 Imaginarix Ltd. Virtual dressing over the internet
US6409602B1 (en) * 1998-11-06 2002-06-25 New Millenium Gaming Limited Slim terminal gaming system
JP2000181612A (ja) * 1998-12-16 2000-06-30 Fujitsu Takamisawa Component Ltd 座標入力装置
US6614422B1 (en) * 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
US6323942B1 (en) * 1999-04-30 2001-11-27 Canesta, Inc. CMOS-compatible three-dimensional image sensor IC
US6545706B1 (en) * 1999-07-30 2003-04-08 Electric Planet, Inc. System, method and article of manufacture for tracking a head of a camera-generated image of a person
US6417836B1 (en) * 1999-08-02 2002-07-09 Lucent Technologies Inc. Computer input device having six degrees of freedom for controlling movement of a three-dimensional object
JP2001056742A (ja) * 1999-08-19 2001-02-27 Alps Electric Co Ltd 入力装置
ATE285079T1 (de) * 1999-09-08 2005-01-15 3Dv Systems Ltd 3d- bilderzeugungssystem
US6441825B1 (en) * 1999-10-04 2002-08-27 Intel Corporation Video token tracking system for animation
US20050037844A1 (en) * 2002-10-30 2005-02-17 Nike, Inc. Sigils for use with apparel
WO2001042930A1 (en) * 1999-12-09 2001-06-14 Zephyr Media, Inc. System and method for integration of a universally publicly accessible global network
US6676522B2 (en) * 2000-04-07 2004-01-13 Igt Gaming system including portable game devices
US6924787B2 (en) * 2000-04-17 2005-08-02 Immersion Corporation Interface for controlling a graphical image
WO2001091016A1 (en) * 2000-05-25 2001-11-29 Realitybuy, Inc. A real time, three-dimensional, configurable, interactive product display system and method
US20020056114A1 (en) * 2000-06-16 2002-05-09 Fillebrown Lisa A. Transmitter for a personal wireless network
US6795068B1 (en) * 2000-07-21 2004-09-21 Sony Computer Entertainment Inc. Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program
AU2001287948A1 (en) 2000-07-24 2002-02-05 Herman Ehrenburg Computer-compatible, color-coded manual input system
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US20020094189A1 (en) * 2000-07-26 2002-07-18 Nassir Navab Method and system for E-commerce video editing
JP3561463B2 (ja) * 2000-08-11 2004-09-02 コナミ株式会社 3dビデオゲームにおける擬似カメラ視点移動制御方法及び3dビデオゲーム装置
JP4815661B2 (ja) * 2000-08-24 2011-11-16 ソニー株式会社 信号処理装置及び信号処理方法
WO2002061707A2 (en) * 2000-09-08 2002-08-08 Honeywell International Inc. Pilot internet practice system and methods
US6884171B2 (en) * 2000-09-18 2005-04-26 Nintendo Co., Ltd. Video game distribution network
JP2002157607A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像生成システム、画像生成方法および記憶媒体
WO2002043404A2 (en) * 2000-11-22 2002-05-30 Leap Wireless International, Inc. Method and system for providing interactive services over a wireless communications network
AU2002217582A1 (en) * 2000-12-20 2002-07-01 Ar Vision Inc. Method for making simulator program and simulator system using the method
US6789967B1 (en) 2001-02-02 2004-09-14 George Forester Distal chording keyboard
US6749510B2 (en) * 2001-02-07 2004-06-15 Wms Gaming Inc. Centralized gaming system with modifiable remote display terminals
US7116330B2 (en) * 2001-02-28 2006-10-03 Intel Corporation Approximating motion using a three-dimensional model
US6931596B2 (en) 2001-03-05 2005-08-16 Koninklijke Philips Electronics N.V. Automatic positioning of display depending upon the viewer's location
US6931125B2 (en) 2001-07-10 2005-08-16 Gregory N. Smallwood Telephone equipment compatible, twelve button alphanumeric keypad
US20030014212A1 (en) * 2001-07-12 2003-01-16 Ralston Stuart E. Augmented vision system using wireless communications
JP3611807B2 (ja) * 2001-07-19 2005-01-19 コナミ株式会社 ビデオゲーム装置、ビデオゲームにおける擬似カメラ視点移動制御方法及びプログラム
US7039253B2 (en) * 2001-07-24 2006-05-02 Casio Computer Co., Ltd. Image display device, image display method, program, and projection system
JP3442754B2 (ja) * 2001-08-10 2003-09-02 株式会社コナミコンピュータエンタテインメント東京 ガンシューティングゲーム装置、コンピュータの制御方法及びプログラム
US6846238B2 (en) * 2001-09-28 2005-01-25 Igt Wireless game player
JP2003114640A (ja) * 2001-10-04 2003-04-18 Nec Corp プラズマディスプレイパネル及びその駆動方法
US20030093591A1 (en) 2001-11-09 2003-05-15 David Hohl System and method for fast data transfer to display driver
FR2832892B1 (fr) 2001-11-27 2004-04-02 Thomson Licensing Sa Camera video d'effets speciaux
US20030100363A1 (en) * 2001-11-28 2003-05-29 Ali Guiseppe C. Method and apparatus for inputting appearance of computer operator into a computer program
KR20030048570A (ko) 2001-12-12 2003-06-25 한국전자통신연구원 부가적 버튼을 장착한 키패드 및 그의 작동방법
GB2388418A (en) * 2002-03-28 2003-11-12 Marcus James Eales Input or pointing device with a camera
US6847311B2 (en) 2002-03-28 2005-01-25 Motorola Inc. Method and apparatus for character entry in a wireless communication device
US7006009B2 (en) * 2002-04-01 2006-02-28 Key Energy Services, Inc. Servicing system for wells
US7023475B2 (en) * 2002-04-08 2006-04-04 Hewlett-Packard Development Company, L.P. System and method for identifying an object with captured images
US20040001082A1 (en) * 2002-06-26 2004-01-01 Amir Said System and method of interaction with a computer controlled image display system using a projected light source
US7227976B1 (en) * 2002-07-08 2007-06-05 Videomining Corporation Method and system for real-time facial image enhancement
US7161579B2 (en) * 2002-07-18 2007-01-09 Sony Computer Entertainment Inc. Hand-held computer interactive device
US7613310B2 (en) * 2003-08-27 2009-11-03 Sony Computer Entertainment Inc. Audio input system
US6917688B2 (en) 2002-09-11 2005-07-12 Nanyang Technological University Adaptive noise cancelling microphone system
US20040063480A1 (en) * 2002-09-30 2004-04-01 Xiaoling Wang Apparatus and a method for more realistic interactive video games on computers or similar devices
US20040095327A1 (en) 2002-11-14 2004-05-20 Lo Fook Loong Alphanumeric data input system and method
GB2398691B (en) * 2003-02-21 2006-05-31 Sony Comp Entertainment Europe Control of data processing
JP3849654B2 (ja) 2003-02-21 2006-11-22 株式会社日立製作所 投射型表示装置
US6881147B2 (en) * 2003-06-06 2005-04-19 Nyko Technologies, Inc. Video game controller with integrated microphone and speaker
US7620316B2 (en) * 2005-11-28 2009-11-17 Navisense Method and device for touchless control of a camera
US7834850B2 (en) * 2005-11-29 2010-11-16 Navisense Method and system for object control
JP4481280B2 (ja) * 2006-08-30 2010-06-16 富士フイルム株式会社 画像処理装置、及び画像処理方法
US8277316B2 (en) * 2006-09-14 2012-10-02 Nintendo Co., Ltd. Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019101738A1 (de) * 2019-01-24 2020-07-30 Deutsches Zentrum für Luft- und Raumfahrt e.V. Vorrichtung zur kontaktlosen Ermittlung zeitabhängiger Positionen eines mechanisch beweglichen Eingabeelements

Also Published As

Publication number Publication date
ATE340380T1 (de) 2006-10-15
JP2005535022A (ja) 2005-11-17
JP4234677B2 (ja) 2009-03-04
US20040017473A1 (en) 2004-01-29
US7639233B2 (en) 2009-12-29
CN1672120B (zh) 2010-04-28
DE60308541D1 (de) 2006-11-02
US20060139322A1 (en) 2006-06-29
EP1552375B1 (de) 2006-09-20
TWI297866B (en) 2008-06-11
EP1552375A2 (de) 2005-07-13
US7102615B2 (en) 2006-09-05
WO2004012073A2 (en) 2004-02-05
CN1672120A (zh) 2005-09-21
WO2004012073A3 (en) 2004-05-13
TW200405220A (en) 2004-04-01
AU2003253931A1 (en) 2004-02-16

Similar Documents

Publication Publication Date Title
DE60308541T2 (de) Mensch-maschine-schnittstelle unter verwendung einer deformierbaren einrichtung
DE60201692T2 (de) Auf 3D Objekten angewendetes 2D Bildverarbeitungsverfahren
DE60133386T2 (de) Vorrichtung und verfahren zur anzeige eines ziels mittels bildverarbeitung ohne drei dimensionales modellieren
DE60205662T2 (de) Vorrichtung und Verfahren zur Berechnung einer Position einer Anzeige
DE102018207088A1 (de) Bildanalyse ohne marker für augmented reality
DE69635902T2 (de) Verfahren und einrichtung zur kraftrückkopplung für eine graphische benutzerschnittstelle
EP2430614B1 (de) Verfahren zur echtzeitfähigen, rechnergestützten analyse einer eine veränderliche pose enthaltenden bildsequenz
DE112007001789B4 (de) Verfahren zum Bewerten eines Bildes im Hinblick auf eine dominante Linie
DE112015005721T5 (de) Elektives paarweises zuordnen einer in einem virtuellen bereich dargestellten anwendung zu einer physischen anzeige
DE112011102169T5 (de) System für ortsbewegliche spürbare Interaktion
DE112006002954T5 (de) Virtuelles Schnittstellensystem
DE202017006742U1 (de) Eingabegerät-Stabilisierungstechniken für virtuelle Realitätssysteme
DE112018004313T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE112016002022T5 (de) Managen von merkmalsdaten zur umgebungsabbildung auf einer elektronischen vorrichtung
DE69837165T2 (de) Verfahren und gerät für automatische animation von dreidimensionalen grafischen szenen für verbesserte 3-d visualisierung
DE102019218787A1 (de) Verfahren, vorrichtung und system zum erzeugen von mit einer darstellung eines artikels verbundenen angeboten
DE102014114742A1 (de) Eine Vorrichtung zum Erzeugen eines Anzeigensteuerungssignals und ein Verfahren derselben
DE112017008230T5 (de) Verfahren und vorrichtung zum abbilden einer virtuellen umgebung auf eine physische umgebung
EP1665023B1 (de) Verfahren und vorrichtung zur steuerung eines graphiksystems der virtuellen realität mittels interaktionen
DE112020000573T5 (de) Anzeigen von darstellungen von umgebungen
EP2943934B1 (de) Verfahren zur aufnahme und wiedergabe einer abfolge von ereignissen
DE102004027289B4 (de) Verfahren und Anordnung zur berührungslosen Navigation in einem Dokument
DE102009031158A1 (de) Vorrichtung und Verfahren zur Erkennung einer Zeigegeste eines Nutzers zur Interaktion mit einer Eingabefläche
DE112020002063T5 (de) Generieren einer semantischen Konstruktion einer physischen Umgebung
WO1998026346A1 (de) Computersteuerung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition