DE60308541T2 - Mensch-maschine-schnittstelle unter verwendung einer deformierbaren einrichtung - Google Patents
Mensch-maschine-schnittstelle unter verwendung einer deformierbaren einrichtung Download PDFInfo
- Publication number
- DE60308541T2 DE60308541T2 DE60308541T DE60308541T DE60308541T2 DE 60308541 T2 DE60308541 T2 DE 60308541T2 DE 60308541 T DE60308541 T DE 60308541T DE 60308541 T DE60308541 T DE 60308541T DE 60308541 T2 DE60308541 T2 DE 60308541T2
- Authority
- DE
- Germany
- Prior art keywords
- input object
- section
- input
- edge
- change
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1087—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
- A63F2300/1093—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
Description
- 1. GEBIET DER ERFINDUNG
- Die Erfindung betrifft allgemein die Gesten-Eingabe in Computersysteme und insbesondere das visuelle Verfolgen einer verformbaren Einrichtung, wobei die Verformung eine Aktion auf der Seite des Computersystems auslöst.
- 2. BESCHREIBUNG DES STANDES DER TECHNIK
- Es besteht sehr großes Interesse an der Suche nach Alternativen zu Eingabevorrichtungen für Computersysteme. Eingabevorrichtungen auf der Basis von visuellen Gesten werden immer populärer. Allgemein gesprochen bedeutet Gesten-Eingabe, daß man eine elektronische Vorrichtung, wie ein Computersystem, eine Videospielkonsole, ein intelligentes Gerät usw. auf eine Geste reagieren läßt, die von einer Videokamera erfaßt wird, die ein Objekt verfolgt.
- Das Verfolgen von bewegten Objekten mit Hilfe digitaler Videokameras und das Verarbeiten der Videobilder zur Erzeugung verschiedener Anzeigen ist bekannter Stand der Technik. Eine solche Anwendung zur Erzeugung einer animierten Videoversion eines Sportereignisses wurde z.B. von Segen, US-Patent 6,072,504 offenbart. Bei diesem System wird die Position eines Tennisballs während des Spiels mit Hilfe mehrerer Videokameras verfolgt, und es wird ein Satz von Gleichungen benutzt, die die dreidimensionalen Punkte in dem Spielfeld zu zweidimensionalen Punkten (d.h. Pixeln) von digitalen Bildern innerhalb des Blickfelds der Kameras in Beziehung setzen. Pixelpositionen des Balls, die in einem gegebenen digitalen Bild analysiert werden, können auf eine spezifische dreidimensionale Position des Balls in dem Spiel bezogen werden, und durch Triangulation aus entsprechenden Videobildern wird eine Reihe von Bildern nach dem Verfahren der kleinsten Quadrate analysiert, um die Positionen des Balls an Flugbahngleichungen anzupassen, die unbehinderte Bewegungssegmente des Balls beschreiben.
- Sobald eine dreidimensionale Beschreibung der Position der Bewegung eines Objekts bestimmt wurde, gibt es, wie Segen näher ausführt, verschiedene bekannte Methoden nach dem Stand der Technik, um eine animierte Darstellung des Objekts zu erzeugen, wobei ein Programm benutzt wird, das eine passende Objektbewegung in einer Video spielumgebung animiert. Das heißt, Segen befaßt sich damit, die dreidimensionale Position eines bewegten Objekts aus einer Vielzahl von zweidimensionalen Videobildern zu bestimmen, die in einem Zeitpunkt aufgenommen werden. Sobald die dreidimensionale Position des "realen" Objekts bekannt ist, kann man diese Information benutzen, um ein Spielprogramm auf zahlreiche unterschiedliche Arten zu steuern, die den Programmierern von Spielen allgemein bekannt sind.
- Das System von Segen ist jedoch auf mehrere Videokameras angewiesen, um die Information über die Position des Objekt auf der Basis von Triangulation entwickeln. Darüber hinaus ist das detektierte Objekt bei Segen eine einfache Kugel, bei der keine Information über die Orientierung (z.B. Neigung) des Objekts im Raum benötigt wird. Somit ist das System von Segen nicht in der Lage, aus einem zweidimensionalen Videobild mit Hilfe einer einzigen Videokamera die Position und die Orientierung eines Objekts zu rekonstruieren und festzustellen, ob es in Bewegung oder in Ruhe ist.
- Bei Spielprogrammen hat man üblicherweise virtuelle Objekte zur Verfügung, die aus einer Kombination aus dreidimensionalen geometrischen Formen gebildet werden, wobei während des Ablaufs eines Spielprogramms dreidimensionale Beschreibungen (Positionen und Orientierungen des Objekts relativ zueinander durch Steuereingabeparameter bestimmt werden, die mit Hilfe einer Eingabevorrichtung, wie einem Joystick, einer Spielsteuerung oder einer anderen Eingabevorrichtung, eingegeben werden. Die dreidimensionale Position und Orientierung der virtuellen Objekte werden dann in eine zweidimensionale Anzeige (mit Hintergrund, Licht- und Schattenführung, Textur usw.) projiziert, um mit Hilfe der Funktionen des Renderingprozessors der Spielkonsole eine dreidimensionale perspektivische Szene oder Wiedergabe zu erzeugen.
- Als Beispiel kann ein "virtuelles Objekt" dienen, das in der Anzeige eines Spiels ein Bewegtbild bildet, das dem entspricht, wie man sich um das "reale" Objekt bewegt. Zum Anzeigen des virtuellen Objekts benutzt man die berechnete dreidimensionale Information, um die Position und die Orientierung des "virtuellen Objekts" in einem Speicherraum der Spielkonsole zu fixieren, wobei dann das Rendern des Bilds durch eine bekannte Verarbeitung durchgeführt wird, um die dreidimensionale Information in eine realistische perspektivische Anzeige umzuwandeln.
- Trotz der oben beschriebenen Kenntnisse und Techniken gibt es jedoch noch immer Probleme, die eine erfolgreiche Objektverfolgung behindern, und ein besonders schwieriges Problem besteht darin, nur diejenigen Pixel eines Videobilds zu extrahieren, die eindeutig einem interessierenden Objekt entsprechen. So kann zwar z.B. die Bewegung eines einfarbigen Objekts vor einem festen Hintergrund mit einer anderen Farbe relativ leicht verfolgt werden, wenn Objektfarbe und Hintergrundfarbe sich deutlich voneinander unterscheiden, wohingegen das Verfolgen von Objekten, selbst wenn sie hell gefärbt sind, bei einem mehrfarbigen oder nicht statischen Hintergrund nicht so einfach ist. Änderungen in der Beleuchtung beeinflussen die scheinbare Farbe des Objekts, wie sie von der Videokamera gesehen wird, ebenfalls dramatisch, so daß Verfahren zur Objektverfolgung, die sich auf das Detektieren eines speziellen farbigen Objekts stützen, sehr fehleranfällig sind oder eine ständige Neukalibrierung erfordern, wenn sich die Lichtbedingungen ändern. Die typische Umgebung für Videospielprogramme beim Einsatz im Heim erfordert sehr viel größere Flexibilität und Robustheit, als dies mit herkömmlichen Computervisionsystemen mit Objektverfolgung möglich ist.
- Um eine breite Akzeptanz zu finden, muß eine alternative Eingabevorrichtung also in der Lage sein, mit Hilfe einer einzigen relativ preiswerten Kamera in der Einsatzumgebung des Heims verfolgt zu werden. Darüber hinaus muß die alternative Eingabevorrichtung bequem zu benutzen sein. Es wurden Versuche mit einem Handschuh an der Hand des Benutzers unternommen, wobei der Handschuh Sensoren enthält, die von einer Kamera verfolgt werden, um Eingaben zu erfassen. Die Benutzer haben den Handschuh jedoch nicht akzeptiert. Einer der Gründe dafür, daß ein Handschuh nicht gerade enthusiastisch akzeptiert wird, besteht darin, daß es unbequem ist, den Handschuh immer wieder aus- und anziehen zu müssen.
- Somit besteht das Bedürfnis, die Probleme des Standes der Technik zu lösen und eine Eingabevorrichtung bereitzustellen, die von einer einzigen Videokamera verfolgt werden kann, wobei die Eingabevorrichtung für den Benutzer bequem sein soll.
- EP-A-0 823 683 offenbart ein Benutzereingabesystem, bei dem verschiedene Handformen detektiert werden. US-B-6 243 491 offenbart ein Videospiel, das dadurch gesteuert wird, daß der Benutzer ein passives Requisit manipuliert. Der Artikel "3D natural interactive interface – Using marker tracking from a single view", Systems and Computers in Japan, Band 23, Seiten 62 bis 73, 1992 (Hemmi) offenbart ein Paar von Ringen, die der Benutzer an seiner Hand trägt, um eine Bewegung zu verfolgen und Spielfunktionen zu steuern.
- In den anliegenden Ansprüchen sind verschiedene Aspekte und Merkmale der Erfindung definiert.
- Im weiteren Sinne erfüllt die vorliegende Erfindung die oben genannten Bedürfnisse, indem sie ein Verfahren und ein System zur Verfügung stellt, das eine passive Eingabevorrichtung vorsieht, die von einer einzigen Videokamera verfolgt werden kann. Es ist zu beachten, daß zur Implementierung der vorliegenden Erfindung zahlreiche Möglichkeiten, einschließlich eines Prozesses, eines Systems oder einer Vorrichtung, zur Verfügung stehen. Im folgenden werden verschiedene erfinderische Ausführungsbeispiele der vorliegenden Erfindung beschrieben.
- In einem Ausführungsbeispiel ist ein Verfahren zum Triggern von Eingabebefehlen eines auf einem Rechensystem ablaufenden Programms vorgesehen. Das Verfahren beginnt mit der Überwachung eines Blickfelds vor einem Erfassungsgerät. Dann wird ein Eingabeobjekt innerhalb des Blickfelds identifiziert. Das detektierte Eingabeobjekt wird auf Formänderungen analysiert. Als Nächstes wird eine Änderung an dem Eingabeobjekt detektiert. Dann wird ein Eingabebefehl in dem auf dem Rechensystem ablaufenden Programm getriggert. Das Triggern ist das Ergebnis der detektierten Änderung in dem Eingabeobjekt.
- In einem anderen Ausführungsbeispiel ist ein Eingabedetektierungsprogramm vorgesehen. Das Eingabedetektierungsprogramm wird auf einer Rechenvorrichtung ausgeführt und verfügt über Programminstruktionen, um festzustellen, wann Eingabebefehle eines Hauptprogramms getriggert werden sollen. Das Eingabedetektierungsprogramm enthält Programminstruktionen zum Überwachen eines Blickfelds vor einem Erfassungsgerät. Das Erfassungsgerät liefert Daten an das Eingabedetektierungsprogramm. Es sind Programminstruktionen zum Identifizieren eines Eingabeobjekts innerhalb des Blickfelds enthalten. Ferner sind Programminstruktionen zum Detektieren einer physikalischen Änderung in dem Eingabeobjekt und Programminstruktionen zum Triggern eines Eingabebefehls in dem auf der Rechenvorrichtung ablaufenden Hauptprogramm enthalten, wobei das Triggern das Ergebnis der detektierten physikalischen Änderung in dem Eingabeobjekt ist.
- In anderen Ausführungsbeispielen ist ein Rechensystem vorgesehen. Das Rechensystem besitzt ein Eingabedetektierungssystem. Das Eingabedetektierungssystem stellt fest, wann Eingabebefehle eines auf dem Rechensystem ablaufenden Hauptprogramms getriggert werden sollen. Das Rechensystem umfaßt ein Erfassungsgerät. Es ist eine Schaltung zum Überwachen eines Blickfelds vor dem Erfassungsgerät vorgesehen, sowie eine Schaltung zum Identifizieren eines Eingabeobjekts innerhalb des Blickfelds. Ferner sind sowohl eine Schaltung zum Detektieren einer physikalischen Änderung in dem Eingabeobjekt als auch eine Schaltung zum Triggern eines Eingabebefehls in dem auf dem Rechensystem ablaufenden Hauptprogramm vorgesehen. Das Triggern ist das Ergebnis der detektierten physikalischen Änderung in dem Eingabeobjekt.
- In einem weiteren Ausführungsbeispiel ist ein Rechensystem vorgesehen. Das Rechensystem besitzt ein Eingabedetektierungssystem. Das Eingabedetektierungssystem stellt fest, wann Eingabebefehle eines auf dem Rechensystem ablaufenden Hauptprogramms getriggert werden sollten. Das Rechensystem weist Mittel auf zum Erfassen von Bilddaten sowie Mittel zum Überwachen eines Blickfelds vor dem Erfassungsgerät. Es sind Mittel zum Identifizieren eines Eingabeobjekts innerhalb des Blickfelds sowie Mittel zum Detektieen einer physikalischen Änderung in dem Eingabeobjekt vorgesehen. Mittel zum Triggern eines Eingabebefehls in dem auf dem Rechensystem ablaufenden Hauptprogramms sind ebenfalls vorgesehen, wobei das Triggern ein Ergebnis der detektierten physikalischen Änderung in dem Eingabeobjekt ist.
- Weitere Aspekte und Vorteile der Erfindung werden durch die folgende detaillierte Beschreibung verdeutlicht, die auf die anliegenden Zeichnungen Bezug nimmt, die die Prinzipien der Erfindung anhand von Beispielen illustrieren.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
- Die folgende Beschreibung, die auf die anliegenden Zeichnungen Bezug nimmt, soll das Erfindung und ihrer weiteren Vorteilen verdeutlichen.
-
1 zeigt ein schematisches Übersichtsdiagramm einer Systemkonfiguration, die eine Benutzereingabevorrichtung verfolgen kann, nach einem Ausführungsbeispiel der Erfindung, -
2 zeigt ein Blockdiagramm einer Konfiguration der Komponenten einer Videospielkonsole für die Verwendung mit einem manipulierten Objekt, das als alternative Eingabevorrichtung nach einem Ausführungsbeispiel der Erfindung dient, -
3 zeigt ein Blockdiagramm der Funktionsblöcke, die zum Verfolgen und Diskriminieren einer Pixelgruppe benutzt werden, die der Benutzereingabevorrichtung entspricht, wenn diese von dem Benutzer manipuliert wird, nach einem Ausführungsbeispiel der Erfindung, -
4A zeigt ein schematisches Diagramm einer verformbaren Benutzereingabevorrichtung, die konfiguriert ist, um in der X-, Y-Richtung verfolgt zu werden, und die in der Lage ist, ein auf einem Monitor anzuzeigendes Ereignis zu triggern, nach einem Ausführungsbeispiel der Erfindung, -
4B zeigt ein vereinfachtes schematisches Diagramm einer Änderung im Seitenverhältnis der verformbaren Vorrichtung in einer Frontansicht nach einem Ausführungsbeispiel der Erfindung, -
5 zeigt ein schematisches Diagramm eines alternativen Ausführungsbeispiels einer verformbaren Benutzereingabevorrichtung nach einem Ausführungsbeispiel der Erfindung, -
6A zeigt ein vereinfachtes schematisches Diagramm eines weiteren Ausführungsbeispiels der verformbaren Benutzereingabevorrichtung, wie sie anhand von4A ,4B und5 diskutiert wurde, -
6B zeigt ein vereinfachtes schematisches Diagramm einer verformbaren Vorrichtung in einer entspannten Position und in einer geschlossenen Position, -
6C zeigt eine Alternative zu6A , wobei anstelle einer verformbaren Vorrichtung zwei verformbare Vorrichtungen benutzt werden, -
7 zeigt ein Flußdiagramm der Verfahrensschritte zum Triggern von Eingabebefehlen eines auf einem Rechensystem ablaufenden Programms nach einem Ausführungsbeispiel der Erfindung, -
8 zeigt ein Flußdiagramm der Verfahrensschritte zum Triggern eines Spielesteuerbefehls für ein Videospiel nach einem Ausführungsbeispiel der Erfindung. - DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSBEISPIELE
- Die im folgenden offenbarte Erfindung betrifft eine Eingabevorrichtung, die verformt werden kann, wobei die Verformung von einer Videokamera erfaßt wird, um ein Ereignis zu triggern. In der folgenden Beschreibung sind zahlreiche spezifische Details angegeben, um ein durchgehendes Verständnis der Erfindung zu ermöglichen. Für den einschlägigen Fachmann ist es jedoch offensichtlich, daß die Erfindung auch ohne einige oder alle dieser spezifischen Detail praktiziert werden kann. In anderen Fällen wurden allgemein bekannte Prozeßschritte nicht detailliert beschrieben, um das Verständnis der eigentlichen Erfindung nicht unnötig zu beeinträchtigen.
- Die Ausführungsbeispiele der Erfindung sehen eine Benutzereingabevorrichtung vor, die verformt werden kann, während sie sich in dem Blickfeld einer Videokamera befindet. Die Verformung, wie z.B. eine Änderung im Seitenverhältnis der Eingabevorrichtungen, wird von der Videokamera erfaßt und initiiert ein Ereignis oder eine Aktion, die auf einem Monitor angezeigt werden können. Die Verformung der Eingabevorrichtung kann z.B. einen Mausklick bedeuten, um eine Datei oder ein Fenster für einen Personalcomputer zu öffnen, ein Bild für ein Computerspiel zu erfassen, zu verschieben oder zu manipulieren oder auch ein intelligentes Gerät zu starten. Es ist zu beachten, daß die Eingabevorrichtung eine passive Vorrichtung ist, d.h. die Eingabevorrichtung ist ein Objekt, das durch eine äußere Kraft verformt werden kann. Somit erzeugt das Eingabeobjekt keinerlei aktive Signale, die zu einem Empfänger gesendet werden. Wie durch die hier beschriebenen Ausführungsbeispiele erläutert wird, ermöglicht die Benutzereingabevor richtung eine Erfahrung, die auf einen Mausklick bezogen werden kann und für den Benutzer bequem ist.
-
1 zeigt ein schematisches Übersichtsdiagramm der Gesamtkonfiguration des Systems nach einem Ausführungsbeispiel der Erfindung, mit dem eine Benutzereingabevorrichtung verfolgen werden kann. Die Benutzereingabevorrichtung300 kann hier ihr Seitenverhältnis ändern, indem Druck ausgeübt wird, um die Oberseite und die Unterseite zusammenzuquetschen. In einem Ausführungsbeispiel wird die Änderung des Seitenverhältnisses von der digitalen Videokamera190 erfaßt. Die digitale Videokamera190 steht mit einer Videospielkonsole60 in Verbindung. In einem Ausführungsbeispiel ist das Ereignis ein Eingabebefehl eines auf einem Rechensystem, wie einer Spielkonsole, ablaufenden Hauptprogramms. Die Videospielkonsole60 steht mit einem Monitor80 in Verbindung. Die Änderung des Seitenverhältnisses der Benutzereingabevorrichtung triggert ein Ereignis, wodurch der Benutzer ein Bild auf einem Monitor80 manipulieren kann. Es ist zu beachten, daß die Benutzereingabevorrichtung verfolgt wird, während sie sich in der x-, y- oder z-Ebene bewegt. Die Bewegung in diesen Ebenen ermöglicht eine Klick- und Verschiebungsfunktionalität, die derjenigen einer Maus ähnelt. Das heißt, der Benutzer kann ein Bild auf dem Anzeigemonitor bewegen oder manipulieren, indem er die Benutzereingabevorrichtung300 zusammenquetscht, um ihr Seitenverhältnisses zu ändern, und indem er dann die Eingabevorrichtung in verformtem Zustand bewegt. Während hier eine Videospielkonsole dargestellt ist, sind die beschriebenen Ausführungsbeispiele auch auf einen Personalcomputer und andere elektronische Consumergeräte, wie Fernseher, DVD-(digital video disc)-Player, intelligente Geräte usw. anwendbar. - In der Anordnung von
1 kann die Benutzereingabevorrichtung300 gemäß einem Ausführungsbeispiel ein verformbarer Halbzylinder sein, der sich in eine Handfläche des Benutzers einpassen läßt. Die Benutzereingabevorrichtung300 kann aus irgendeinem geeigneten Material hergestellt sein, das durch Druckeinwirkung verformt werden kann und beim Aufhören des Drucks in seine ursprüngliche Form zurückkehrt. Der Benutzer ordnet eine Eingabevorrichtung in dem Blickfeld der Videokamera190 an, die eine USB-Webkamera oder ein digitaler Camcorder sein kann, der mit dem Eingabe-/Ausgabeport der Spielkonsole60 , wie der von Sony Computer Entertainment Inc. hergestellten "PLAYSTATION 2"®, verbunden sein kann. Wenn der Benutzer die Benutzereingabevorrichtung300 in das Blickfeld der Kamera190 bewegt, werden physikalische Merkmale, wie die Größe, die Form, die Farbe usw. der Benutzereingabevorrichtung von der Kamera190 aufgenommen. Es findet dann eine Verarbeitung statt, um eine Pixelgruppe zu isolieren und zu diskriminieren, die ausschließlich der Benutzereingabevorrichtung entspricht. Es wird eine dreidimensionale Beschreibung des Zylinders, einschließlich seiner Position und Orientierung in dem dreidimensionalen Raum, berechnet, und diese Beschreibung wird in einem Hauptspeicher der Spielkonsole60 gespeichert. Mit Hilfe von auf dem einschlägigen Gebiet bekannten Rendering-Verfahren wird die dreidimensionale Beschreibung des Objekts dann dazu benutzt, eine Aktion in einem Spielprogramm herbeizuführen, die auf dem Anzeigebildschirm des Monitors80 angezeigt wird. So kann z.B. ein Objekt auf dem Monitor80 den Bewegungen der Benutzereingabevorrichtung300 entsprechend durch die Spielszene bewegt werden. Wenn der Benutzer die Position und Orientierung der Benutzereingabevorrichtung300 ändert, während die Änderung des Seitenverhältnisses detektiert wurde, werden die dreidimensionale Beschreibung des Objekts in dem Speicher und ein entsprechendes Rendern des Objekts in dem Renderingbereich des Bildspeichers kontinuierlich aktualisiert, so daß sich die Position und die Orientierung des Objekts auf dem Monitor80 ebenfalls ändern. Auf diese Weise führt ein visuelles Triggern, das der Benutzer durch Ausüben einer Kraft auf eine passive Eingabevorrichtung verursacht, zu einer Aktion, z.B. einem Eingabebefehl, der von einem mit einem Rechensystem verknüpften Hauptprogramm ausgeführt wird. -
2 zeigt ein Blockdiagramm einer Konfiguration der Komponenten einer Videospielkonsole, die für die Verwendung mit einem manipulierten Objekt adaptiert ist, das als alternative Eingabevorrichtung nach einem Ausführungsbeispiel der Erfindung dient. Die Spielkonsole60 ist eine Komponente eines Unterhaltungssystems110 gemäß der Erfindung, das, wie in2 dargestellt, ausgestattet ist mit einer Multiprozessoreinheit (MPU)112 für die Steuerung des Gesamtsystems110 , einem Hauptspeicher114 , der für verschiedene Programmoperationen und für die Datenspeicherung benutzt wird, einer Vektorberechnungseinheit116 zur Durchführung von Fließkomma-Vektorberechnungen, die für die geometrische Verarbeitung benötigt werden, einem Bildprozessor120 zum Erzeugen von Daten auf der Basis der Steuerungen aus der MPU112 und zur Ausgabe von Videosignalen an den Monitor80 (z.B. eine Kathodenstrahlröhre), einem Graphik-Interface (GIF)122 zur Durchführung einer Vermittlung oder dgl. über einen Übertragungsbus zwischen der MPU112 oder der Vektorberechnungseinheit116 und dem Bildprozessor120 , einem Eingabe-/Ausgabeport124 zur Unterstützung des Empfangens und des Sendens von Daten von bzw. zu peripheren Geräten, einem internen OSD-Funktions-ROM (OSDROM)126 , das z.B. aus einem Flash-Speicher besteht, zur Steuerung eines Kernels oder dgl. und einer Echtzeituhr128 mit Kalender- und Zeitgeberfunktionen. - Der Hauptspeicher
114 , die Vektorberechnungseinheit116 , das GIF122 , das OSDROM126 , die Echtzeituhr (RTC)128 und der Eingabe-/Ausgabeport124 sind über einen Datenbus130 mit der MPU112 verbunden. Ebenfalls mit dem Bus130 verbunden ist eine Bildverarbeitungseinheit138 , die einen Prozessor zum Expandieren von komprimierten Bewegtbildern und Texturbildern und dadurch zum Entwickeln der Bilddaten darstellt. Die Bildverarbeitungseinheit138 kann beispielsweise Funktionen zum Dekodieren und Entwickeln von Bitströmen nach den MPEG2- oder MPEG4-Standardformaten, zur Makroblockdekodierung, zur Durchführung inverser diskreter Cosinusinformationen, zur Farbraumumwandlung, zur Vektorquantisierung und dgl. ausführen. - Ein Tonsystem besteht aus einer Tonverarbeitungseinheit SPU
171 zur Erzeugung von musikalischen oder anderen Toneffekten auf der Basis von Befehlen aus der MPU112 , einem Tonpuffer173 , in dem Wellenformdaten durch die SPU171 ausgezeichnet werden können, und einem Lautsprecher175 zur Ausgabe der von der SPU171 erzeugten musikalischen oder anderen Toneffekte. Der Lautsprecher175 kann als Teil in dem Monitors80 eingebaut sein, oder es kann eine separate Ton-Ausgangsverbindung vorgesehen sein, an die ein externer Lautsprecher175 angeschlossen ist. - Gemäß vorliegender Erfindung ist außerdem ein mit dem Bus
130 verbundenes Kommunikations-Interface140 vorgesehen, das ein Interface darstellt mit Funktionen für die Eingabe/Ausgabe von digitalen Daten und zur Eingabe von digitalen Inhalten. Durch das Kommunikations-Interface140 können z.B. Benutzereingabedaten zu einem Server-Endgerät in einem Netz gesendet oder Statusdaten von diesem empfangen werden, um Online-Spiel-Applikationen aufzunehmen. Mit dem Eingabe-/Ausgabeport124 sind eine (auch als Steuerung bekannte) Eingabevorrichtung132 für die Eingabe von Daten (z.B. von Tasteneingabedaten oder Koordinatendaten) für das Unterhaltungssystem110 , ein optisches Plattengerät136 für die Wiedergabe der Inhalte einer optischen Platte70 , z.B. einer CD-ROM oder dgl., auf der verschiedene Programme und Daten (d.h. Daten, die Objekte betreffen, Texturdaten und dgl.) aufgezeichnet sind, verbunden. - Als weitere Erweiterung oder Alternative zu der Eingabevorrichtung enthält die vorliegende Erfindung eine Videokamera
190 , die mit dem Eingabe-/Ausgabeport124 verbunden ist. Der Eingabe-/Ausgabeport124 kann durch ein oder mehrere Eingabe-Interfaces verkörpert sein, einschließlich serieller und USB-Interfaces, wobei die digitale Videokamera190 vorteilhafterweise von dem USB-Eingang oder irgendeinem anderen herkömmlichen Interface Gebrauch machen kann, das sich für die Verwendung mit der Kamera190 eignet. - Der oben erwähnte Bildprozessor
120 enthält eine Rendering-Maschine170 , ein Interface172 , einen Bildspeicher174 und eine Anzeigesteuervorrichtung176 (z.B. eine programmierbare Steuerung für eine Kathodenstrahlröhre oder dgl.). Die Rendering-Maschine170 führt Operationen zum Rendern von vorbestimmten Bilddaten in dem Bildspeicher über das Speicher-Interface172 und nach Maßgabe von Rendering-Befehlen aus, die aus der MPU112 zugeführt werden. Die Rendering-Maschine170 kann Bilddaten mit 320 × 240 Pixeln oder mit 640 × 480 Pixeln z.B. nach dem NTSC- oder PAL-Standard in Echtzeit rendern und zwar mit einer zehnmal bis einige zehnmal größeren Rate pro Intervall von 1/60 bis 1/30 Sekunden. - Zwischen dem Speicher-Interface
172 und der Rendering-Maschine170 ist ein Bus178 angeordnet, und ein zweiter Bus180 ist zwischen dem Speicher-Interface172 und dem Bildspeicher174 angeordnet. Der erste Bus178 und der zweite Bus180 haben jeweils eine Bitbreite von beispielsweise 128 Bits, und die Rendering-Maschine170 kann eine Rendering-Verarbeitung mit einer relativ zu dem Bildspeicher hohen Geschwindigkeit ausführen. Der Bildspeicher174 benutzt eine vereinheitlichte Speicherstruktur, bei der z.B. eine Textur-Rendering-Region und eine Anzeige-Rendering-Region in einem gleichförmigen Bereich eingerichtet werden können. - Die Anzeigesteuerung
176 ist so strukturiert, daß sie die Texturdaten, die über das optische Plattengerät136 von der optischen Platte70 abgerufen werden, oder Texturdaten, die in dem Hauptspeicher114 erzeugt wurden, über das Speicher-Interface172 in die Textur-Rendering-Region des Bildspeichers174 einschreibt. Die in der Anzeige-Rendering-Region des Bildspeichers174 gerenderten Bilddaten werden über das Speicher-Interface172 ausgelesen und an den Monitor80 ausgegeben und auf dessen Bildschirm angezeigt. -
3 zeigt ein Blockdiagramm der Funktionsblöcke nach einem Ausführungsbeispiel der Erfindung, die benutzt werden, um eine Pixelgruppe zu verfolgen und zu diskriminieren, die der Benutzereingabevorrichtung entspricht, wenn diese von dem Benutzer manipuliert wird. Es ist zu beachten, daß die durch die Blöcke dargestellten Funktionen durch Software implementiert sind, die von der MPU112 in der Spielkonsole60 ausgeführt wird. Außerdem werden nicht alle durch die Blöcke in3 angedeuteten Funktionen für jedes Ausführungsbeispiel benutzt. - Zunächst werden die von der Kamera eingegebenen Pixeldaten über das Eingabe-/Ausgabeport-Interface
124 der Spielkonsole60 zugeführt, die die folgenden Prozesse ausgeführen kann. Als erstes wird jedes Pixel z.B. auf einer Rasterbasis abgetastet, es wird ein Verarbeitungsschritt S201 zur Farbsegmentierung ausgeführt, durch den die Farbe jedes Pixels bestimmt wird, und das Bild wird in verschiedene zweidimensionale Segmente mit unterschiedlichen Farben unterteilt. Als Nächstes wird für bestimmte Ausführungsbeispiele ein Schritt S203 zur Lokalisierung von Farbübergängen ausgeführt, durch den Regionen, in denen Segmente unterschiedlicher Farbe aneinandergrenzen, genauer bestimmt werden, wodurch die Orte des Bildes definiert werden, in denen Übergänge unterschiedlicher Farbe auftreten. Dann wird ein Schritt S205 zur Geometrieverarbeitung ausgeführt, der je nach Ausführungsbeispiel entweder einen Kantendetektierungsprozeß oder Berechnungen für Bereichsstatistiken umfaßt, um dadurch die Linien, Kurven und/oder Polygone, die den Kanten des interessierenden Objekts entsprechen, in algebraischen oder geometrischen Ausdrücken zu definieren. Bei der in1 dargestellten Benutzereingabevorrichtung umfaßt der Pixelbereich z.B. eine im großen Ganzen rechteckige Form, die einer orthogonalen Frontansicht der Benutzereingabevorrichtung entspricht. Aus der algebraischen oder geometrischen Beschreibung des Rechtecks lassen sich das Zentrum, die Breite, die Länge und die zweidimensionale Orientierung der ausschließlich dem Objekt entsprechenden Pixelgruppe definieren. - In dem Schritt S207 werden die dreidimensionale Position und Orientierung des Objekts nach Algorithmen berechnet, die in Verbindung mit der nachfolgenden Beschreibung von bevorzugten Ausführungsbeispielen der Erfindung erläutert werden sollen. Zur Verbesserung der Leistung werden die Daten der dreidimensionalen Position und Orientierung in einem Verarbeitungsschritt S209 einer Kalman-Filterung unterzogen. Eine solche Verarbeitung wird durchgeführt, um abzuschätzen, wo das Objekt in einem Zeitpunkt sein soll, und um falsche Messungen zurückzuweisen, die nicht möglich sein können und deshalb als außerhalb des richtigen Datensatzes liegend betrachtet werden. Ein anderer Grund für die Kalman-Filterung besteht darin, daß die Kamera
190 Bilder mit 30 Hz erzeugt, während übliche Anzeigevorrichtungen mit 60 Hz arbeiten, so daß die Kalman-Filterung die Lücken in den Daten ausfüllt, die für die Aktionssteuerung in dem Spielprogramm benutzt werden. Das Glätten von diskreten Daten durch Kalman-Filterung ist auf dem Gebiet der Computervision allgemein bekannt und wird deshalb nicht weiter herausgearbeitet. -
4A zeigt ein schematisches Diagramm einer verformbaren Benutzereingabevorrichtung nach einem Ausführungsbeispiel der Erfindung, die so konfiguriert ist, daß sie in X-, Y-Richtung verfolgt werden und ein auf einem Monitor anzuzeigendes Ereignis triggern kann. Die verformbare Benutzereingabevorrichtung300 wird von der Videokamera190 verfolgt. Die Videokamera190 ist mit der Spielkonsole60 verbunden, die ihrerseits mit dem Monitor80 in Verbindung steht. In einem Ausführungsbeispiel wird die verformbare Vorrichtung300 anhand der Farbe von der digitalen Videokamera190 verfolgt, wie dies oben beschrieben wurde. Das heißt, die Benutzereingabevorrichtung hat eine abweichende Farbe und kann verfolgt werden, wenn sie sich in dem Blickfeld der Kamera190 befindet. Wie erkennbar ist, bildet die verformbare Vorrichtung300 im wesentlichen einen Teil eines halbierten Zylinders. Das heißt, die verformbare Vorrichtung300 kann nach einem Ausführungsbeispiel in eine Handfläche eingepaßt werden. Wenn die verformbare Vorrichtung300 verformt wird, ändert sich ihr Seitenverhältnis, was von der digitalen Videokamera190 erfaßt wird. Die erfaßte Änderung des Seitenverhältnisses wird der Konsole60 mitgeteilt, die ihrerseits bewirkt, daß ein Ereignis getriggert und auf dem Monitor80 angezeigt wird. Die verformbare Vorrichtung300 kann z.B. ähnlich benutzt werden wie eine Maus, so daß auf ein Objekt oder ein Objekt in einem Fenster zugegriffen und dieses herumbewegt werden kann. - In einem Ausführungsbeispiel kann ein Bild
304 in dem Punkt302 erfaßt und nach Wunsch verschoben oder manipuliert werden. Der einschlägige Fachmann erkennt, daß eine beliebige Anzahl von geeigneten Operationen ausgeführt werden kann, bei denen die verformbare Vorrichtung300 ähnliche Funktionen erfüllen kann wie eine Maus. Natürlich kann die verformbare Vorrichtung300 benutzt werden, um ein Videospiel oder ein beliebiges anderes interaktives Spiel zu spielen, bei dem eine mausähnliche Funktionalität gefordert wird. Die Änderung des Seitenverhältnisses der verformbaren Vorrichtung300 ist hier mit einem Maus-Klick vergleichbar, und das Bild kann verschoben werden, während das Seitenverhältnis gegenüber seiner Anfangsposition verändert wurde. So kann die Benutzereingabevorrichtung verwendet werden, um ein Kartenspiel zu spielen. Der einschlägige Fachmann erkennt, daß es eine Fülle von Anwendungen gibt, bei denen die hier beschriebene mausähnliche Funktionalität angewendet werden kann. -
4B zeigt ein vereinfachtes schematisches Diagramm einer Änderung des Seitenverhältnisses der verformbaren Vorrichtung in einer Frontansicht nach einem Ausführungsbeispiel der Erfindung. Die verformbare Vorrichtung befindet sich zunächst in einer entspannten Position300A . Wenn der Benutzer die verformbare Vorrichtung zusammenquetscht, ändert sich das Seitenverhältnis in eine geschlossene Position300B . Die hier beschriebene Eingabevorrichtung liefert eine haptische/taktile Rückkopplung an den Benutzer, die einer Aktion entspricht, die gerade getriggert wird. -
5 zeigt ein schematisches Diagramm eines alternativen Ausführungsbeispiels einer verformbaren Benutzereingabevorrichtung nach einem Ausführungsbeispiel der Erfindung. Die verformbare Benutzereingabevorrichtung310 kann hier, je nach der Kraft, die der Benutzer auf die verformbare Vorrichtung ausübt, einen entspannten Zustand310A oder einen zusammengedrückten Zustand310B einnehmen. So hat die verformbare Vorrichtung310 hier die Form eines zusammendrückbaren Balls. Allgemein kann jede beliebige verformbare Kugel von dem hier beschriebenen visuellen Verfolgungssystem verfolgt werden. Es ist zu beachten, daß in dem vorliegenden Ausführungsbeispiel die Fläche der verformbaren Vorrichtung310 , so wie sie von der digitalen Videokamera190 gesehen wird, konstant bleibt. Zusätzlich zu der Erfassung von planaren X- und Y-Bewegungen der verformbaren Vorrichtung310 kann die digitale Videokamera190 so auch Bewegungen in der Z-Richtung erfassen. Die Z-Richtung kann benutzt werden, um eine Datei, wie die Datei304B nach vorn oder nach hinten, d.h. in der Darstellung auf dem Monitor80 in Tiefenrichtung, zu ziehen. Darüber hinaus kann man angezeigte Objekte, die von der verformbaren Vorrichtung310 erfaßt wurden, je nach der Richtung entlang der Z-Achse, in der die verformbare Vorrichtung310 bewegt wird, kleiner oder größer erscheinen lassen. Wenn das verformbare Objekt310 z.B. näher an die Kamera190 gebracht wird, erscheint das auf dem Monitor80 angezeigte Objekt in einem Ausführungsbeispiel größer, während das auf dem Monitor80 angezeigte Objekt kleiner zu sein scheint, wenn die verformbare Vorrichtung310 von der Kamera190 wegbewegt wird. Der einschlägige Fachmann erkennt, daß man durch eine kombinierte Bewegung in der X-, Y- und Z-Richtung Größe und Ort des angezeigten Objekts ändern kann. Hier wird der Winkel Theta (θ) benutzt, um die Bewegung im dreidimensionalen Raum zu bestimmen. Der einschlägige Fachmann erkennt, daß Theta der Winkel in Richtung der Bildebene der Kamera190 ist. - In der Anordnung nach
5 erfaßt die Kamera die Position der verformbaren Vorrichtung310 . Die Information über die Position wird der Spielkonsole60 mitgeteilt. Die Spielkonsole60 verarbeitet die Positionsinformation wird, wie dies oben anhand von1 bis3 beschrieben wurde. Wenn sich das Seitenverhältnis oder die relative Position der verformbaren Vorrichtung ändert, übersetzt die Verarbeitung die Bewegung auf ein Objekt, das auf dem Monitor80 angezeigt wird. Nach einem Ausführungsbeispiel der Erfindung kann bei einer Änderung des Seitenverhältnisses der verformbaren Vorrichtung ein Tonsignal erzeugt werden. Darüber hinaus kann vorgesehen sein, daß die verformbare Vorrichtung ein passives Tastendrucksignal erzeugt. Der Benutzer nimmt ein entsprechendes Klicken wahr, obwohl das Klickgeräusch von dem Computersystem nicht erfaßt wird. - In einem Ausführungsbeispiel werden die x-, y-, z-, q- und Quetsch-Parameter durch Analyse der Pixel in dem Bild bestimmt. Es ist zu beachten, daß die Pixel in dem Bild einen Teil des Objekts, d.h. der verformbaren Vorrichtung, bilden, das verfolgt wird. X ist dem horizontalen Schwerpunkt der Pixel in dem Bild proportional. Y ist dem vertikalen Schwerpunkt der Pixel in dem Bild proportional. Z ist der Quadratwurzel entweder der Fläche der Pixel oder dem zweiten Hauptmoment (das unterschiedliche Genauigkeits-/Robustheitsverhalten erzeugt) umgekehrt proportional. Theta (θ) entspricht dem Drehwinkel des zweiten Hauptmoments. Die Quetschparameter, wie der Betrag und Quetschung, d.h. die Größe der Verformung oder der Änderung des Seitenverhältnisses, ist umgekehrt proportional zur Quadratwurzel des zweiten Hauptmoments, dividiert durch die Quadratwurzel des kleinsten zweiten Moments. Aus einem einzigen Durchgang durch das Bild kann jeder der oben erwähnten Parameter berechnet werden. Somit ist die hier beschriebene Implementierung sehr schnell und gegen Rauschen (d.h. visuelle Fehler) weniger empfindlich als andere allgemein benutzte Metriken.
-
6A zeigt ein vereinfachtes schematisches Diagramm eines weiteren Ausführungsbeispiels der verformbaren Benutzereingabevorrichtung, wie sie anhand von4A ,4B und5 diskutiert wurde. Hier weist die verformbare Vorrichtung320 einen oberen Abschnitt und einen unteren Abschnitt auf, die so miteinander verbunden sind, daß der Abstand zwischen dem oberen und dem unteren Abschnitt geändert werden kann, indem eine Kraft ausgeübt wird, um die Abschnitte zusammenzuführen. Auf diese Weise ändert sich das Seitenverhältnis, wenn auf die beiden Enden der verformbaren Vorrichtung320 Druck ausgeübt wird. Die Fläche der verformbaren Vorrichtung320 bleibt jedoch konstant, so daß die Kamera190 die Bewegung der verformbaren Vorrichtung in der X-, Y- und Z-Ebene verfolgen kann. Wie oben erwähnt wurde, kann die verformbare Benutzereingabevorrichtung320 aus jedem geeigneten Material bestehen, das verformt werden und in seine ursprüngliche Form zurückkehren kann. -
6B zeigt ein vereinfachtes schematisches Diagramm der verformbaren Vorrichtung320 in einer entspannten Position320A bzw. in einer geschlossenen Position320B . Der einschlägige Fachmann erkennt, daß die von der Kamera190 detektierte Fläche der verformbaren Vorrichtung320 die gleiche bleibt, wie dies oben erwähnt wurde. Das heißt, die Zahl der Pixel in dem entspannten Zustand320A ist die gleiche wie die Zahl der Pixel im zusammengedrückten Zustand320B . Deshalb kann die Bewegung in den dreidimensionalen Raum verfolgt werden. -
6C zeigt eine Alternative zu6A , wobei anstelle einer einzigen verformbaren Vorrichtung zwei verformbare Vorrichtungen benutzt werden. Ein Benutzer kann in jeder Hand eine der verformbaren Vorrichtungen320A-1 und320A-2 halten. Die verformbaren Vorrichtungen320A-1 und320A-2 können benutzt werden, um ein Bild auf dem Display80 zu erfassen und zu manipulieren. Die Vorrichtungen320A-1 und320A-2 können auf das gleiche Bild oder auf verschiedene Bilder einwirken. In einem Ausführungsbeispiel kann das Bild eines Benutzers, der eine oder zwei verformbare Vorrichtungen320 hält, von der Kamera190 so erfaßt werden, daß auf dem Monitor80 ein Bild des Benutzers dargestellt werden kann, der eine oder mehrere verformbare Benutzereingabevorrichtungen320 hält. - Bei den hier beschriebenen Ausführungsbeispielen kann auch ein rückstrahlendes Material verwendet werden. Das rückstrahlende Material kann in Form von Bändern, Anstrichen, Kunststoffen usw. vorliegen, die auf einer Seite der verformbaren Vorrichtung, z.B. auf der der Kamera
190 zugewandten Frontseite der verformbaren Vorrichtung320 aufgebracht sein können. Die Kamera190 weist hier eine Lichtquelle auf, die auf eine verformbare Vorrichtung gerichtet wird. Das von dem rückstrahlenden Material reflektierte Licht ist bekanntlich auf die Kamera190 gerichtet. Die Lichtwellenlänge der Lichtquelle kann im sichtbaren oder im unsichtbaren Bereich liegen. In einem Ausführungsbeispiel ist die Lichtquelle eine Infrarot-Lichtquelle. -
7 zeigt ein Flußdiagramm der Verfahrensschritte zum Triggern von Eingangsbefehlen eines auf einem Rechensystem laufenden Programms nach einem Ausführungsbeispiel der Erfindung. Das Verfahren beginnt mit dem Schritt400 , in dem ein mit einem Computer verbundenes Erfassungsgerät bereitgestellt wird. Das Erfassungsgerät ist in einem Ausführungsbeispiel eine digitale Kamera, z.B. eine Web-Kamera. Das Rechensystem kann eine Konsole mit einem Monitor sein, wie sie oben anhand von1 bis3 beschrieben wurde. Das Verfahren geht dann weiter zu dem Schritt420 , in dem eine Erfassungsregion überwacht wird. Die Erfassungsregion ist in einem Ausführungsbeispiel das Blickfeld des Erfassungsgeräts. - Das Verfahren von
7 geht dann weiter zu dem Schritt404 , in dem eine Eingabevorrichtung innerhalb der Erfassungsregion detektiert und die Anfangsform der Eingabevorrichtung identifiziert wird. Hier kann die Eingabevorrichtung, wie sie anhand von4 bis6C beschrieben wurde, von dem Benutzer in das Blickfeld des Erfassungsgeräts gebracht werden. Die Eingabevorrichtung kann irgendeine geeignete Form haben, z.B. die Form einer der anhand von4 bis6C beschriebenen Benutzereingabevorrichtungen. In einem Ausführungsbeispiel ist die Eingabevorrichtung so gestaltet, daß das Seitenverhältnis in einer frontalen Projektion, die von dem Erfassungsgerät überwacht werden kann, modifiziert werden kann. Das Verfahren geht dann weiter zu dem Schritt406 , in dem eine Formänderung der Eingabevorrichtung identifiziert wird. Der Benutzer kann die Eingabevorrichtung z.B. quetschen und dadurch das Seitenverhältnis der Eingabevorrichtung verändern. Das Verfahren geht dann weiter zu dem Schritt408 , in dem als Reaktion auf die detektierte Formänderung der Eingabevorrichtung eine Aktivitätseingabe in einem Computerprogramm getriggert wird, das auf dem mit dem Erfassungsgerät verbundenen Computer abläuft. In einem Ausführungsbeispiel findet die Formänderung der Benutzereingabevorrichtung statt, während ein der Eingabevorrichtung entsprechendes Ikon über ein Bild auf einem Monitor gelegt ist. Die Formänderung bewirkt, ähnlich wie ein Maus-Klick, daß das Bild ausgewählt wird. In einem anderen Ausführungsbeispiel bewirkt eine Bewegung der Benutzereingabevorrichtung, daß das ausgewählte Bild bewegt oder verändert wird, während die veränderte Form der Benutzereingabevorrichtung beibehalten wird. Es ist zu beachten, daß mehrere Benutzereingabevorrichtungen vorgesehen sein können. So kann der Benutzer z.B. in jeder Hand eine Benutzereingabevorrichtung halten. -
8 zeigt ein Flußdiagramm der Verfahrensschritte zum Triggern eines Spielsteuerbefehls für ein Videospiel nach einem Ausführungsbeispiel der Erfindung. Das Verfahren beginnt mit dem Schritt410 , in dem eine Spielkonsole zum Spielen von Videospielen bereitgestellt wird. Die Videospiele werden auf einem Bildschirm angezeigt. In einem Ausführungsbeispiel ist die Spielkonsole die Spielkonsole "PLAYSTATION 2"®. Das Verfahren geht dann weiter zu dem Schritt412 , in dem ein mit der Spielkonsole verbundenes Videoerfassungsgerät bereitgestellt wird. Das Erfassungsgerät ist in einem Ausführungsbeispiel eine digitale Kamera, z.B. eine Web-Kamera. Das Verfahren geht dann weiter zu dem Schritt414 , in dem eine Erfassungsregion vor dem Erfassungsgerät überwacht wird. Wie oben erwähnt wurde, ist die Erfassungsregion in einem Ausführungsbeispiel das Blickfeld des Erfassungsgeräts. - Das Verfahren von
8 geht dann weiter zu dem Schritt416 , in dem eine Eingabevorrichtung innerhalb der Erfassungsregion detektiert und die Anfangsform der Eingabevorrichtung identifiziert wird. Die Eingabevorrichtung kann hier, wie anhand von4 bis6C beschrieben, von dem Benutzer in das Blickfeld des Erfassungsgeräts gebracht werden. In einem Ausführungsbeispiel detektiert das Erfassungsgerät die Eingabevorrichtung, indem es Licht von einer in der Nähe des Erfassungsgeräts angeordneten Lichtquelle aussendet. In diesem Ausführungsbeispiel weist die Eingabevorrichtung rückstrahlendes Material auf, das so beschaffen ist, daß es Licht direkt zu der das Licht erzeugenden Quelle reflektiert. Das Verfahren geht dann weiter zu dem Schritt418 , in dem eine Änderung der Form der Eingäbevorrichtung identifiziert wird. Der Benutzer kann z.B. die Eingabevorrichtung zusammenquetschen und dadurch das Seitenverhältnis der Eingabevorrichtung ändern. Das Verfahren geht dann weiter zu dem Schritt420 , in dem als Reaktion auf die detektierte Formänderung der Eingabevorrichtung ein Spielsteuerbefehl in einem Computerprogramm getriggert wird, das auf der mit dem Erfassungsgerät verbundenen Spielkonsole abläuft. - In einem Ausführungsbeispiel bewirkt eine Bewegung der Benutzereingabevorrichtung, daß das ausgewählte Bild bewegt oder seine Größe verändert wird, während die veränderte Form der Benutzereingabevorrichtung beibehalten wird. In einem anderen Ausführungsbeispiel zeigt der Grad der Änderung des Seitenverhältnisses die Kraft des Zugriffs während eines Videospiels an. Die Änderung des Seitenverhältnisses ist z.B. für ein bestimmtes Merkmal des Videospiels um so größer, je fester der Zugriff ist.
- Eine Änderung des Seitenverhältnisses der hier definierten verformbaren Vorrichtungen triggert, ähnlich wie ein Maus-Klick oder eine Greifoperation, ein Ereignis oder eine Aktion. Es ist zu beachten, daß durch die Änderung des Seitenverhältnisses eine beliebige Anzahl von Ereignissen getriggert werden kann. So kann z.B. auf ein Pull-Down-Menü zugegriffen werden, es können Videospiele gespielt werden, es können Objekte erfaßt, vorwärtsbewegt, rückwärtsbewegt, gestapelt oder geschichtet werden, usw..
- Durch das Quetschen der Benutzereingabevorrichtung zur Änderung ihres Seitenverhältnisses kann ein Ereignis, wie ein Tastendruck oder eine Greifaktion, simuliert werden. Die Kamera, die die Formänderung der Benutzereingabevorrichtung erfaßt, ist in einem Ausführungsbeispiel so konfiguriert, daß sie die Vorrichtung anhand der Farbe verfolgt. Alternativ kann die Kamera die Vorrichtung verfolgen, indem Licht im Zusammenhang mit rückstrahlendem Material benutzt wird, das auf der verformbaren Vorrichtung aufgebracht ist. Die hier beschriebenen verformbaren Vorrichtungen können eine beliebige geeignete Form annehmen, so daß der Benutzer die Empfindung eines Maus-Klicks hat, ohne daß er eine Maus benutzen muß, d.h. er nimmt eine haptische/taktile Rückkopplung wahr. Man erreicht im wesentlichen die Funktionalität eines Handschuhs, ohne daß der Benutzer einen Handschuh tragen muß. Während die oben beschriebenen Ausführungsbeispiele für eine Videospielkonsole erläutert wurden, sollen diese Ausführungsbeispiele nur exemplarisch und nicht restriktiv sein. Die hier beschriebenen verformbaren Vorrichtungen können auch bei einem Personalcomputer, bei elektronischen Consumergeräten, wie Fernsehempfängern, Videorekordern, Heimtheatersystemen usw. sowie bei einem intelligenten Gerät, wie einer Küchenmaschine usw. angewendet werden. Der einschlägige Fachmann erkennt, daß die oben beschriebenen Ausführungsbeispiele auf eine Spielkonsole anwendbar sind, auf der Videospiele ablaufen, sowie auf Online-Videospiele, bei denen der Benutzer auf Videospiele aus einem Server zugreift.
- Die Erfindung kann verschiedene computerimplementierte Operationen benutzen, bei denen in Computersystemen gespeicherte Daten involviert sind. Diese Operationen sind solche, die eine physikalische Manipulation von physikalischen Größen erfordern. Diese Größen nehmen üblicherweise, jedoch nicht notwendigerweise, die Form von elektrischen oder magnetischen Signalen an, die gespeichert, übertragen, kombiniert, verglichen und anderweitig manipuliert werden können. Die durchgeführten Manipulationen werden häufig als Erzeugen, Identifizieren, Festlegen oder Vergleichen bezeichnet.
- Jede der hier beschriebenen Operationen, die einen Teil der Erfindung bilden, sind zweckdienliche Maschinenoperationen. Die Erfindung bezieht sich auch auf eine Vorrichtung oder ein Gerät zur Durchführung dieser Operationen. Das Gerät kann speziell für die geforderten Zwecke konstruiert sein, oder es kann ein Universalcomputer sein, der von einem in dem Computer gespeicherten Computerprogramm selektiv aktiviert oder konfiguriert ist. Insbesondere können verschiedene Universalmaschinen mit nach Maßgabe der hier dargelegten Lehren geschriebenen Computerprogrammen benutzt werden, oder es kann bequemer sein, ein stärker spezialisiertes Gerät zu konstruieren, um die geforderten Operationen auszuführen.
- Obwohl die vorangehend beschriebene Erfindung zum besseren Verständnis ausführlicher beschrieben wurde, ist es offensichtlich, daß bestimmte Änderungen und Modifizierungen vorgenommen werden können. Deshalb sollten die vorliegenden Ausführungsbeispiele als illustrativ und nicht als restriktiv betrachtet werden, und die Erfindung ist nicht auf die hier angegebenen Details beschränkt, sie kann vielmehr innerhalb des Rahmens der Ansprüche modifiziert werden.
Claims (27)
- Verfahren zum Triggern von Eingabebefehlen eines auf einem Rechensystem (
60 ) ablaufenden Programms mit den Verfahrensschritten: Überwachen eines Blickfelds vor einem Videoerfassungsgerät (190 ), Identifizieren eines manuell verformbaren Eingabeobjekts (300 ) innerhalb des Blickfelds, wobei das detektierte Eingabeobjekt in Bezug auf eine Formänderung analysiert wird und wobei die Formänderung aus einer Änderung des Seitenverhältnisses des Eingabeobjekts besteht, Detektieren einer Formänderung des Eingabeobjekts und Triggern eines Eingabebefehls in dem auf dem Rechensystem ablaufenden Programm, wobei das Triggern ein Resultat der detektierten Formänderung des Eingabeobjekts ist. - Verfahren nach Anspruch 1, bei dem das Videoerfassungsgerät eine digitale Videokamera ist.
- Verfahren nach Anspruch 2, bei dem die digitale Videokamera das Eingabeobjekt aufgrund der Farbe verfolgt.
- Verfahren nach Anspruch 2, bei dem die digitale Videokamera das Eingabeobjekt durch reflektiertes Licht verfolgt.
- Verfahren nach Anspruch 1, bei dem der Verfahrensschritt des Detektierens einer Änderung des Eingabeobjekts ferner das Detektieren einer Positonsänderung des Eingabeobjekt umfaßt.
- Verfahren nach Anspruch 5, bei dem der Eingabebefehl eine Größenänderung eines Bilds bewirkt, das auf einem mit dem Rechensystem verbundenen Monitor angezeigt wird.
- Verfahren nach Anspruch 5, bei dem der Eingabebefehl bewirkt, daß ein auf einem mit dem Rechensystem verbundenen Monitor angezeigtes Bild ausgewählt wird.
- Verfahren nach Anspruch 1, bei dem das Programm ein Videospiel und das Rechensystem eine Spielkonsole ist.
- Verfahren nach Anspruch 1, bei dem das Eingabeobjekt aufweist: einen ersten Abschnitt und einen mit dem ersten Abschnitt integrierten zweiten Abschnitt, wobei der erste und der zweite Abschnitt durch ein Glied miteinander integriert sind, das ein mit dem ersten Abschnitt in Kontakt stehendes erstes Ende und ein mit dem zweiten Abschnitt in Kontakt stehendes zweites Ende aufweist, wobei dieses Glied im wesentlichen senkrecht zu einer durch eine Kante des ersten Abschnitts definierten Ebene und einer durch eine Kante des zweiten Abschnitts definierten Ebene verläuft.
- Rechenvorrichtung, die unter dem Steuereinfluß eines Programms zur Eingabedetektierung arbeitet, das Programminstruktionen aufweist, um festzustellen, wenn Eingabebefehle eines Hauptprogramms getriggert werden sollen, wobei die Rechenvorrichtung aufweist: Mittel zum Überwachen eines Blickfelds vor einem Videoerfassungsgerät, wobei das Videoerfassungsgerät Daten an das Programms zur Eingabedetektierung liefert, Mittel zum Identifizieren eines manuell verformbaren Eingabeobjekts innerhalb des Blickfelds, Mittel zum Detektieren einer physischen Änderung an dem Eingabeobjekt, wobei diese physische Änderung aus einer Änderung des Seitenverhältnisses des Eingabeobjekts besteht, und Mittel zum Triggern eines Eingabebefehls in dem Hauptprogramm, wobei das Triggern ein Resultat der detektierten physischen Änderung des Eingabeobjekts ist.
- Vorrichtung nach Anspruch 10, bei dem die Mittel zum Detektieren einer physischen Änderung an dem Eingabeobjekt Mittel zum Detektieren einer Positionsänderung des Eingabeobjekts umfassen.
- Vorrichtung nach Anspruch 10, wobei die Vorrichtung eine Videospielkonsole ist.
- Vorrichtung nach Anspruch 10, bei der das Eingabeobjekt ein kollabierbarer Ball (
310a ,310b ) ist. - Vorrichtung nach Anspruch 10, bei der Mittel zum Triggern eines Eingabebefehls eine Größenänderung eines Bilds bewirken, das auf einem mit dem Rechensystem verbundenen Monitor angezeigt wird.
- Rechensystem mit einem manuell verformbaren Eingabeobjekt (
300 ) für die Verwendung als Eingabevorrichtung, wobei das Eingabeobjekt aufweist: einen ersten Abschnitt, einen zweiten Abschnitt, der mit dem mit dem ersten Abschnitt so verbunden ist, daß das Eingabeobjekt konfiguriert ist, um in entspanntem Zustand eine erste Form mit einem ersten Seitenverhältnis und in einem verformten Zustand eine zweite Form mit einem zweiten Seitenverhältnis zu definieren, und mit einer Rechenvorrichtung (160 ) nach einem der Ansprüche 10 bis 15. - System nach Anspruch 15, bei dem Eingabeobjekt aufweist: eine Kante des ersten Abschnitts und eine Kante des zweiten Abschnitts, wobei die Kante des ersten Abschnitts und die Kante des zweiten Abschnitts so konfiguriert sind, daß sie Licht reflektieren, wobei das von der Kante des ersten Abschnitts und von der Kante des zweiten Abschnitts reflektierte Licht von der Rechenvorrichtung verfolgt werden kann.
- System nach Anspruch 15, bei dem ein von der Rechenvorrichtung beobachteter Bereich des Eingabeobjekts unverändert bleibt, um die Bewegung im dreidimensionalen Raum zu verfolgen.
- System nach Anspruch 16, bei dem das Eingabeobjekt in entspanntem Zustand eine zwischen der Kante des ersten Abschnitts und der Kante des zweiten Abschnitts definierte Öffnung aufweist, wobei diese Öffnung im verformten Zustand geschlossen ist.
- System nach Anspruch 15 oder 16, bei dem ein dem ersten und dem zweiten Abschnitt entsprechendes Symbol auf einem mit der Rechenvorrichtung verbundenen Betrachtungsbildschirm angezeigt wird.
- System nach Anspruch 15, bei dem das Eingabeobjekt so ausgebildet ist, daß es ein hörbares Klicken erzeugt, wenn die Form des Eingabeobjekts zwischen dem ersten und dem zweiten Zustand wechselt.
- System nach Anspruch 19, bei dem eine Bewegung des Eingabeobjekts eine Bewegung des Symbols auf dem Betrachtungsbildschirm bewirkt.
- System nach Anspruch 20, bei dem das Symbol in der Lage ist, mit auf dem Betrachtungsbildschirm definierten Objekten zu interagieren.
- System nach Anspruch 15, bei dem der erste und der zweite Abschnitt durch ein Glied miteinander integriert sind, das ein mit dem ersten Abschnitt in Kontakt stehendes erstes Ende und ein mit dem zweiten Abschnitt in Kontakt stehendes zweites Ende aufweist, wobei dieses Glied im wesentlichen senkrecht zu einer durch eine Kante des ersten Abschnitts definierten Ebene und einer durch eine Kante des zweiten Abschnitts definierten Ebene verläuft.
- System nach Anspruch 23, bei dem ein Symbol, das der Kante des ersten Abschnitts und der Kante des zweiten Abschnitts entspricht, auf einem mit dem Rechensystem verbundenen Betrachtungsbildschirm angezeigt wird.
- System nach Anspruch 24, bei dem eine Bewegung des Eingabeobjekts eine Bewegung des Symbols auf dem Betrachtungsbildschirm bewirkt.
- System nach Anspruch 24, bei dem das Symbol in der Lage ist, mit auf dem Betrachtungsbildschirm definierten Objekten zu interagieren.
- System nach Anspruch 15, bei dem das Eingabeobjekt aufweist: einen ersten Abschnitt und einen mit dem ersten Abschnitt integrierten zweiten Abschnitt, wobei der erste und der zweite Abschnitt durch ein Glied miteinander integriert sind, das ein mit dem ersten Abschnitt in Kontakt stehendes erstes Ende und ein mit dem zweiten Abschnitt in Kontakt stehendes zweites Ende aufweist, wobei dieses Glied im wesentlichen senkrecht zu einer durch eine Kante des ersten Abschnitts definierten Ebene und einer durch eine Kante des zweiten Abschnitts definierten Ebene verläuft.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/207,677 US7102615B2 (en) | 2002-07-27 | 2002-07-27 | Man-machine interface using a deformable device |
US207677 | 2002-07-27 | ||
PCT/US2003/022130 WO2004012073A2 (en) | 2002-07-27 | 2003-07-14 | Man-machine interface using a deformable device |
Publications (2)
Publication Number | Publication Date |
---|---|
DE60308541D1 DE60308541D1 (de) | 2006-11-02 |
DE60308541T2 true DE60308541T2 (de) | 2007-09-20 |
Family
ID=30770505
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE60308541T Expired - Lifetime DE60308541T2 (de) | 2002-07-27 | 2003-07-14 | Mensch-maschine-schnittstelle unter verwendung einer deformierbaren einrichtung |
Country Status (9)
Country | Link |
---|---|
US (2) | US7102615B2 (de) |
EP (1) | EP1552375B1 (de) |
JP (1) | JP4234677B2 (de) |
CN (1) | CN1672120B (de) |
AT (1) | ATE340380T1 (de) |
AU (1) | AU2003253931A1 (de) |
DE (1) | DE60308541T2 (de) |
TW (1) | TWI297866B (de) |
WO (1) | WO2004012073A2 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019101738A1 (de) * | 2019-01-24 | 2020-07-30 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Vorrichtung zur kontaktlosen Ermittlung zeitabhängiger Positionen eines mechanisch beweglichen Eingabeelements |
Families Citing this family (173)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7834855B2 (en) | 2004-08-25 | 2010-11-16 | Apple Inc. | Wide touchpad on a portable computer |
US7749089B1 (en) | 1999-02-26 | 2010-07-06 | Creative Kingdoms, Llc | Multi-media interactive play system |
US8956228B2 (en) * | 1999-12-03 | 2015-02-17 | Nike, Inc. | Game pod |
US20050037844A1 (en) * | 2002-10-30 | 2005-02-17 | Nike, Inc. | Sigils for use with apparel |
US6585622B1 (en) | 1999-12-03 | 2003-07-01 | Nike, Inc. | Interactive use an athletic performance monitoring and reward method, system, and computer program product |
US7445550B2 (en) | 2000-02-22 | 2008-11-04 | Creative Kingdoms, Llc | Magical wand and interactive play experience |
US7878905B2 (en) | 2000-02-22 | 2011-02-01 | Creative Kingdoms, Llc | Multi-layered interactive play experience |
US6761637B2 (en) | 2000-02-22 | 2004-07-13 | Creative Kingdoms, Llc | Method of game play using RFID tracking device |
US7066781B2 (en) | 2000-10-20 | 2006-06-27 | Denise Chapman Weston | Children's toy with wireless tag/transponder |
US6967566B2 (en) | 2002-04-05 | 2005-11-22 | Creative Kingdoms, Llc | Live-action interactive adventure game |
US20070066396A1 (en) | 2002-04-05 | 2007-03-22 | Denise Chapman Weston | Retail methods for providing an interactive product to a consumer |
US7161579B2 (en) | 2002-07-18 | 2007-01-09 | Sony Computer Entertainment Inc. | Hand-held computer interactive device |
US7646372B2 (en) | 2003-09-15 | 2010-01-12 | Sony Computer Entertainment Inc. | Methods and systems for enabling direction detection when interfacing with a computer program |
US8797260B2 (en) | 2002-07-27 | 2014-08-05 | Sony Computer Entertainment Inc. | Inertially trackable hand-held controller |
US7783061B2 (en) | 2003-08-27 | 2010-08-24 | Sony Computer Entertainment Inc. | Methods and apparatus for the targeted sound detection |
US8073157B2 (en) * | 2003-08-27 | 2011-12-06 | Sony Computer Entertainment Inc. | Methods and apparatus for targeted sound detection and characterization |
US7809145B2 (en) | 2006-05-04 | 2010-10-05 | Sony Computer Entertainment Inc. | Ultra small microphone array |
US7623115B2 (en) | 2002-07-27 | 2009-11-24 | Sony Computer Entertainment Inc. | Method and apparatus for light input device |
US8947347B2 (en) | 2003-08-27 | 2015-02-03 | Sony Computer Entertainment Inc. | Controlling actions in a video game unit |
US7883415B2 (en) | 2003-09-15 | 2011-02-08 | Sony Computer Entertainment Inc. | Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion |
US9474968B2 (en) | 2002-07-27 | 2016-10-25 | Sony Interactive Entertainment America Llc | Method and system for applying gearing effects to visual tracking |
US7627139B2 (en) * | 2002-07-27 | 2009-12-01 | Sony Computer Entertainment Inc. | Computer image and audio processing of intensity and input devices for interfacing with a computer program |
US7782297B2 (en) | 2002-07-27 | 2010-08-24 | Sony Computer Entertainment America Inc. | Method and apparatus for use in determining an activity level of a user in relation to a system |
US7850526B2 (en) * | 2002-07-27 | 2010-12-14 | Sony Computer Entertainment America Inc. | System for tracking user manipulations within an environment |
US8686939B2 (en) | 2002-07-27 | 2014-04-01 | Sony Computer Entertainment Inc. | System, method, and apparatus for three-dimensional input control |
US7918733B2 (en) * | 2002-07-27 | 2011-04-05 | Sony Computer Entertainment America Inc. | Multi-input game control mixer |
US7803050B2 (en) * | 2002-07-27 | 2010-09-28 | Sony Computer Entertainment Inc. | Tracking device with sound emitter for use in obtaining information for controlling game program execution |
US20070015559A1 (en) * | 2002-07-27 | 2007-01-18 | Sony Computer Entertainment America Inc. | Method and apparatus for use in determining lack of user activity in relation to a system |
US8160269B2 (en) * | 2003-08-27 | 2012-04-17 | Sony Computer Entertainment Inc. | Methods and apparatuses for adjusting a listening area for capturing sounds |
US20060264260A1 (en) * | 2002-07-27 | 2006-11-23 | Sony Computer Entertainment Inc. | Detectable and trackable hand-held controller |
US9393487B2 (en) * | 2002-07-27 | 2016-07-19 | Sony Interactive Entertainment Inc. | Method for mapping movements of a hand-held controller to game commands |
US9174119B2 (en) | 2002-07-27 | 2015-11-03 | Sony Computer Entertainement America, LLC | Controller for providing inputs to control execution of a program when inputs are combined |
US8233642B2 (en) * | 2003-08-27 | 2012-07-31 | Sony Computer Entertainment Inc. | Methods and apparatuses for capturing an audio signal based on a location of the signal |
US20060282873A1 (en) * | 2002-07-27 | 2006-12-14 | Sony Computer Entertainment Inc. | Hand-held controller having detectable elements for tracking purposes |
US7854655B2 (en) | 2002-07-27 | 2010-12-21 | Sony Computer Entertainment America Inc. | Obtaining input for controlling execution of a game program |
US20060256081A1 (en) * | 2002-07-27 | 2006-11-16 | Sony Computer Entertainment America Inc. | Scheme for detecting and tracking user manipulation of a game controller body |
US10086282B2 (en) * | 2002-07-27 | 2018-10-02 | Sony Interactive Entertainment Inc. | Tracking device for use in obtaining information for controlling game program execution |
US8313380B2 (en) | 2002-07-27 | 2012-11-20 | Sony Computer Entertainment America Llc | Scheme for translating movements of a hand-held controller into inputs for a system |
US8139793B2 (en) | 2003-08-27 | 2012-03-20 | Sony Computer Entertainment Inc. | Methods and apparatus for capturing audio signals based on a visual image |
US8570378B2 (en) | 2002-07-27 | 2013-10-29 | Sony Computer Entertainment Inc. | Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera |
US7760248B2 (en) | 2002-07-27 | 2010-07-20 | Sony Computer Entertainment Inc. | Selective sound source listening in conjunction with computer interactive processing |
US9682319B2 (en) | 2002-07-31 | 2017-06-20 | Sony Interactive Entertainment Inc. | Combiner method for altering game gearing |
US8206219B2 (en) * | 2002-10-30 | 2012-06-26 | Nike, Inc. | Interactive gaming apparel for interactive gaming |
EP1556148B1 (de) | 2002-10-30 | 2010-01-06 | Nike International Ltd | Kleidungsstücke mit bewegungserfassungsmarker für videospiele |
US9177387B2 (en) | 2003-02-11 | 2015-11-03 | Sony Computer Entertainment Inc. | Method and apparatus for real time motion capture |
US9446319B2 (en) | 2003-03-25 | 2016-09-20 | Mq Gaming, Llc | Interactive gaming toy |
US8072470B2 (en) | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
US20070223732A1 (en) * | 2003-08-27 | 2007-09-27 | Mao Xiao D | Methods and apparatuses for adjusting a visual image based on an audio signal |
US7874917B2 (en) | 2003-09-15 | 2011-01-25 | Sony Computer Entertainment Inc. | Methods and systems for enabling depth and direction detection when interfacing with a computer program |
US8287373B2 (en) | 2008-12-05 | 2012-10-16 | Sony Computer Entertainment Inc. | Control device for communicating visual information |
US8323106B2 (en) | 2008-05-30 | 2012-12-04 | Sony Computer Entertainment America Llc | Determination of controller three-dimensional location using image analysis and ultrasonic communication |
US9573056B2 (en) | 2005-10-26 | 2017-02-21 | Sony Interactive Entertainment Inc. | Expandable control device via hardware attachment |
US10279254B2 (en) | 2005-10-26 | 2019-05-07 | Sony Interactive Entertainment Inc. | Controller having visually trackable object for interfacing with a gaming system |
GB2409596A (en) * | 2003-12-23 | 2005-06-29 | Nokia Corp | Handset with squeezable body |
US7663689B2 (en) | 2004-01-16 | 2010-02-16 | Sony Computer Entertainment Inc. | Method and apparatus for optimizing capture device settings through depth information |
TWI236289B (en) * | 2004-08-11 | 2005-07-11 | Pixart Imaging Inc | Interactive device capable of improving image processing |
US9024880B2 (en) * | 2004-08-11 | 2015-05-05 | Pixart Imaging Inc. | Interactive system capable of improving image processing |
US8547401B2 (en) | 2004-08-19 | 2013-10-01 | Sony Computer Entertainment Inc. | Portable augmented reality device and method |
US20060046851A1 (en) * | 2004-08-24 | 2006-03-02 | Hewlett-Packard Development Company, L.P. | Remote gaming and projection |
US7561146B1 (en) * | 2004-08-25 | 2009-07-14 | Apple Inc. | Method and apparatus to reject accidental contact on a touchpad |
CA2581982C (en) | 2004-09-27 | 2013-06-18 | Nielsen Media Research, Inc. | Methods and apparatus for using location information to manage spillover in an audience monitoring system |
US20060072009A1 (en) * | 2004-10-01 | 2006-04-06 | International Business Machines Corporation | Flexible interaction-based computer interfacing using visible artifacts |
KR100663515B1 (ko) * | 2004-11-08 | 2007-01-02 | 삼성전자주식회사 | 휴대 단말 장치 및 이를 위한 데이터 입력 방법 |
US7852317B2 (en) | 2005-01-12 | 2010-12-14 | Thinkoptics, Inc. | Handheld device for handheld vision based absolute pointing system |
GB0505362D0 (en) * | 2005-03-15 | 2005-04-20 | Intelligent Earth Ltd | Interface control |
KR100687737B1 (ko) * | 2005-03-19 | 2007-02-27 | 한국전자통신연구원 | 양손 제스쳐에 기반한 가상 마우스 장치 및 방법 |
US7609249B2 (en) * | 2005-04-21 | 2009-10-27 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Position determination utilizing a cordless device |
JP4849829B2 (ja) * | 2005-05-15 | 2012-01-11 | 株式会社ソニー・コンピュータエンタテインメント | センタ装置 |
US20060262188A1 (en) * | 2005-05-20 | 2006-11-23 | Oded Elyada | System and method for detecting changes in an environment |
TWI388206B (zh) * | 2005-09-14 | 2013-03-01 | Panasonic Corp | 攝影裝置、固態攝影元件、影像生成方法 |
JP5116679B2 (ja) * | 2005-09-15 | 2013-01-09 | 株式会社ソニー・コンピュータエンタテインメント | 強度のコンピュータ画像および音声処理、ならびにコンピュータプログラムとインタフェースするための入力装置 |
JP2007087100A (ja) * | 2005-09-22 | 2007-04-05 | Victor Co Of Japan Ltd | 電子機器システム |
EP1967942A1 (de) * | 2005-10-26 | 2008-09-10 | Sony Computer Entertainment America, Inc. | System und Verfahren zur Verbindung und Computerprogramm |
US8549442B2 (en) * | 2005-12-12 | 2013-10-01 | Sony Computer Entertainment Inc. | Voice and video control of interactive electronically simulated environment |
US20070152983A1 (en) | 2005-12-30 | 2007-07-05 | Apple Computer, Inc. | Touch pad with symbols based on mode |
JP3989511B1 (ja) * | 2006-03-29 | 2007-10-10 | 株式会社コナミデジタルエンタテインメント | ゲーム装置、ゲーム制御方法、ならびに、プログラム |
US20110014981A1 (en) * | 2006-05-08 | 2011-01-20 | Sony Computer Entertainment Inc. | Tracking device with sound emitter for use in obtaining information for controlling game program execution |
US8022935B2 (en) | 2006-07-06 | 2011-09-20 | Apple Inc. | Capacitance sensing electrode with integrated I/O mechanism |
US8913003B2 (en) * | 2006-07-17 | 2014-12-16 | Thinkoptics, Inc. | Free-space multi-dimensional absolute pointer using a projection marker system |
US8310656B2 (en) | 2006-09-28 | 2012-11-13 | Sony Computer Entertainment America Llc | Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen |
US8781151B2 (en) * | 2006-09-28 | 2014-07-15 | Sony Computer Entertainment Inc. | Object detection using video input combined with tilt angle information |
USRE48417E1 (en) | 2006-09-28 | 2021-02-02 | Sony Interactive Entertainment Inc. | Object direction using video input combined with tilt angle information |
US20080098448A1 (en) * | 2006-10-19 | 2008-04-24 | Sony Computer Entertainment America Inc. | Controller configured to track user's level of anxiety and other mental and physical attributes |
US20080096654A1 (en) * | 2006-10-20 | 2008-04-24 | Sony Computer Entertainment America Inc. | Game control using three-dimensional motions of controller |
US20080096657A1 (en) * | 2006-10-20 | 2008-04-24 | Sony Computer Entertainment America Inc. | Method for aiming and shooting using motion sensing controller |
US20080120115A1 (en) * | 2006-11-16 | 2008-05-22 | Xiao Dong Mao | Methods and apparatuses for dynamically adjusting an audio signal based on a parameter |
JP4720738B2 (ja) * | 2006-12-20 | 2011-07-13 | 日本ビクター株式会社 | 電子機器 |
US20080189661A1 (en) * | 2007-02-06 | 2008-08-07 | Jazzbo Technology Inc. | Video user interface |
RU2472206C2 (ru) * | 2007-03-30 | 2013-01-10 | Конинклейке Филипс Электроникс Н.В. | Пространственная мышь - устройство связи |
US10504317B2 (en) | 2007-04-30 | 2019-12-10 | Cfph, Llc | Game with player actuated control structure |
US9176598B2 (en) | 2007-05-08 | 2015-11-03 | Thinkoptics, Inc. | Free-space multi-dimensional absolute pointer with improved performance |
US9317110B2 (en) | 2007-05-29 | 2016-04-19 | Cfph, Llc | Game with hand motion control |
US20090062943A1 (en) * | 2007-08-27 | 2009-03-05 | Sony Computer Entertainment Inc. | Methods and apparatus for automatically controlling the sound level based on the content |
US8542907B2 (en) | 2007-12-17 | 2013-09-24 | Sony Computer Entertainment America Llc | Dynamic three-dimensional object mapping for user-defined control device |
US20090174679A1 (en) | 2008-01-04 | 2009-07-09 | Wayne Carl Westerman | Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface |
KR100927009B1 (ko) | 2008-02-04 | 2009-11-16 | 광주과학기술원 | 증강 현실에서의 햅틱 상호 작용 방법 및 그 시스템 |
US8840470B2 (en) | 2008-02-27 | 2014-09-23 | Sony Computer Entertainment America Llc | Methods for capturing depth data of a scene and applying computer actions |
US8368753B2 (en) | 2008-03-17 | 2013-02-05 | Sony Computer Entertainment America Llc | Controller with an integrated depth camera |
ATE540351T1 (de) * | 2008-04-01 | 2012-01-15 | Koninkl Philips Electronics Nv | Zeigevorrichtung zur verwendung auf einer interaktiven oberfläche |
US8543929B1 (en) * | 2008-05-14 | 2013-09-24 | Adobe Systems Incorporated | User ratings allowing access to features for modifying content |
US20100013765A1 (en) * | 2008-07-18 | 2010-01-21 | Wei Gu | Methods for controlling computers and devices |
JP5681633B2 (ja) * | 2008-10-27 | 2015-03-11 | 株式会社ソニー・コンピュータエンタテインメント | 視覚情報を通信するためのコントロールデバイス |
US8961313B2 (en) | 2009-05-29 | 2015-02-24 | Sony Computer Entertainment America Llc | Multi-positional three-dimensional controller |
US8294047B2 (en) | 2008-12-08 | 2012-10-23 | Apple Inc. | Selective input signal rejection and modification |
JP4950230B2 (ja) * | 2009-01-14 | 2012-06-13 | Smk株式会社 | リモートコントロールシステム |
US20100201808A1 (en) * | 2009-02-09 | 2010-08-12 | Microsoft Corporation | Camera based motion sensing system |
US8527657B2 (en) | 2009-03-20 | 2013-09-03 | Sony Computer Entertainment America Llc | Methods and systems for dynamically adjusting update rates in multi-player network gaming |
US8342963B2 (en) | 2009-04-10 | 2013-01-01 | Sony Computer Entertainment America Inc. | Methods and systems for enabling control of artificial intelligence game characters |
US8393964B2 (en) | 2009-05-08 | 2013-03-12 | Sony Computer Entertainment America Llc | Base station for position location |
US8142288B2 (en) | 2009-05-08 | 2012-03-27 | Sony Computer Entertainment America Llc | Base station movement detection and compensation |
US20100295782A1 (en) | 2009-05-21 | 2010-11-25 | Yehuda Binder | System and method for control based on face ore hand gesture detection |
US9417700B2 (en) | 2009-05-21 | 2016-08-16 | Edge3 Technologies | Gesture recognition systems and related methods |
JP2011081480A (ja) * | 2009-10-05 | 2011-04-21 | Seiko Epson Corp | 画像入力システム |
US8855101B2 (en) | 2010-03-09 | 2014-10-07 | The Nielsen Company (Us), Llc | Methods, systems, and apparatus to synchronize actions of audio source monitors |
JP5577793B2 (ja) | 2010-03-30 | 2014-08-27 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
TWI508543B (zh) * | 2010-05-06 | 2015-11-11 | Pixart Imaging Inc | 可提高影像處理速度之互動式系統 |
US8396252B2 (en) | 2010-05-20 | 2013-03-12 | Edge 3 Technologies | Systems and related methods for three dimensional gesture recognition in vehicles |
US8654152B2 (en) * | 2010-06-21 | 2014-02-18 | Microsoft Corporation | Compartmentalizing focus area within field of view |
US8467599B2 (en) | 2010-09-02 | 2013-06-18 | Edge 3 Technologies, Inc. | Method and apparatus for confusion learning |
US8582866B2 (en) | 2011-02-10 | 2013-11-12 | Edge 3 Technologies, Inc. | Method and apparatus for disparity computation in stereo images |
US8655093B2 (en) | 2010-09-02 | 2014-02-18 | Edge 3 Technologies, Inc. | Method and apparatus for performing segmentation of an image |
US8666144B2 (en) | 2010-09-02 | 2014-03-04 | Edge 3 Technologies, Inc. | Method and apparatus for determining disparity of texture |
US20150153715A1 (en) * | 2010-09-29 | 2015-06-04 | Google Inc. | Rapidly programmable locations in space |
US9477302B2 (en) | 2012-08-10 | 2016-10-25 | Google Inc. | System and method for programing devices within world space volumes |
US8970589B2 (en) | 2011-02-10 | 2015-03-03 | Edge 3 Technologies, Inc. | Near-touch interaction with a stereo camera grid structured tessellations |
JP2012190183A (ja) * | 2011-03-09 | 2012-10-04 | Sony Corp | 画像処理装置および方法、並びにプログラム |
WO2012125596A2 (en) | 2011-03-12 | 2012-09-20 | Parshionikar Uday | Multipurpose controller for electronic devices, facial expressions management and drowsiness detection |
US8340504B2 (en) * | 2011-04-26 | 2012-12-25 | Sony Computer Entertainment Europe Limited | Entertainment device and method |
US9194938B2 (en) | 2011-06-24 | 2015-11-24 | Amazon Technologies, Inc. | Time difference of arrival determination with direct sound |
US9672609B1 (en) | 2011-11-11 | 2017-06-06 | Edge 3 Technologies, Inc. | Method and apparatus for improved depth-map estimation |
EP2613223A1 (de) * | 2012-01-09 | 2013-07-10 | Softkinetic Software | System und Verfahren zur verbesserten, auf Gesten basierenden Interaktion |
WO2013169247A1 (en) | 2012-05-09 | 2013-11-14 | Intel Corporation | Budget-aware event information collection during program execution |
US9021516B2 (en) | 2013-03-01 | 2015-04-28 | The Nielsen Company (Us), Llc | Methods and systems for reducing spillover by measuring a crest factor |
US9118960B2 (en) | 2013-03-08 | 2015-08-25 | The Nielsen Company (Us), Llc | Methods and systems for reducing spillover by detecting signal distortion |
US9197930B2 (en) | 2013-03-15 | 2015-11-24 | The Nielsen Company (Us), Llc | Methods and apparatus to detect spillover in an audience monitoring system |
US10721448B2 (en) | 2013-03-15 | 2020-07-21 | Edge 3 Technologies, Inc. | Method and apparatus for adaptive exposure bracketing, segmentation and scene organization |
US9654763B2 (en) * | 2013-04-02 | 2017-05-16 | Htc Corporation | Controlling method of detecting image-capturing gesture |
US9749541B2 (en) * | 2013-04-16 | 2017-08-29 | Tout Inc. | Method and apparatus for displaying and recording images using multiple image capturing devices integrated into a single mobile device |
US20150077340A1 (en) * | 2013-09-18 | 2015-03-19 | Genius Toy Taiwan Co., Ltd. | Method, system and computer program product for real-time touchless interaction |
JP6000929B2 (ja) * | 2013-11-07 | 2016-10-05 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置 |
FR3034053B1 (fr) * | 2015-03-26 | 2017-03-17 | Continental Automotive France | Systeme de palette tactile mobile ou deformable formant une interface homme-machine adapte sur un volant de vehicule |
US9924224B2 (en) | 2015-04-03 | 2018-03-20 | The Nielsen Company (Us), Llc | Methods and apparatus to determine a state of a media presentation device |
US9848222B2 (en) | 2015-07-15 | 2017-12-19 | The Nielsen Company (Us), Llc | Methods and apparatus to detect spillover |
JP6654019B2 (ja) * | 2015-11-09 | 2020-02-26 | 任天堂株式会社 | 情報処理システム情報処理装置、情報処理方法、情報処理プログラム、および、ハンドヘルド型情報処理装置 |
TWI729064B (zh) * | 2016-01-28 | 2021-06-01 | 日商日本鼎意股份有限公司 | 包括內置有感應器的球的系統、行動終端的程式及經由行動終端監控球的動向之方法 |
JP6702746B2 (ja) * | 2016-02-10 | 2020-06-03 | キヤノン株式会社 | 撮像装置、その制御方法、プログラム及び記憶媒体 |
US10071306B2 (en) | 2016-03-25 | 2018-09-11 | Zero Latency PTY LTD | System and method for determining orientation using tracking cameras and inertial measurements |
US10717001B2 (en) | 2016-03-25 | 2020-07-21 | Zero Latency PTY LTD | System and method for saving tracked data in the game server for replay, review and training |
US9916496B2 (en) * | 2016-03-25 | 2018-03-13 | Zero Latency PTY LTD | Systems and methods for operating a virtual reality environment using colored marker lights attached to game objects |
US10421012B2 (en) | 2016-03-25 | 2019-09-24 | Zero Latency PTY LTD | System and method for tracking using multiple slave servers and a master server |
US10486061B2 (en) | 2016-03-25 | 2019-11-26 | Zero Latency Pty Ltd. | Interference damping for continuous game play |
CN109789313A (zh) | 2016-07-27 | 2019-05-21 | Z2020有限责任公司 | 用于光疗递送的部件和装置及其相关的方法 |
US10751609B2 (en) | 2016-08-12 | 2020-08-25 | Zero Latency PTY LTD | Mapping arena movements into a 3-D virtual world |
CN106898199A (zh) * | 2017-02-27 | 2017-06-27 | 杜美玲 | 一种便携式函数教学讲解用具 |
CN109032710B (zh) * | 2017-06-09 | 2022-05-24 | 斑马智行网络(香港)有限公司 | 一种界面调整方法、装置、设备和存储介质 |
JP6755843B2 (ja) | 2017-09-14 | 2020-09-16 | 株式会社東芝 | 音響処理装置、音声認識装置、音響処理方法、音声認識方法、音響処理プログラム及び音声認識プログラム |
CN108809462B (zh) * | 2018-05-08 | 2024-01-26 | 江苏师范大学 | 场馆多路音强自平衡的数字调音台 |
EP3798978A4 (de) * | 2018-05-21 | 2021-08-04 | Panasonic Intellectual Property Management Co., Ltd. | Vorrichtung zur videoanalyse eines ballspiels und verfahren zur videoanalyse eines ballspiels |
CN110720113A (zh) * | 2018-08-01 | 2020-01-21 | 深圳市大疆创新科技有限公司 | 一种参数处理方法、装置及摄像设备、飞行器 |
CN111199169A (zh) * | 2018-11-16 | 2020-05-26 | 北京微播视界科技有限公司 | 图像处理方法和装置 |
CN109718549B (zh) * | 2019-02-21 | 2022-04-12 | 网易(杭州)网络有限公司 | 游戏中消息处理的方法及装置、电子设备、存储介质 |
CN110148406B (zh) * | 2019-04-12 | 2022-03-04 | 北京搜狗科技发展有限公司 | 一种数据处理方法和装置、一种用于数据处理的装置 |
CN111107280B (zh) * | 2019-12-12 | 2022-09-06 | 北京字节跳动网络技术有限公司 | 特效的处理方法、装置、电子设备及存储介质 |
CN111882651B (zh) * | 2020-06-23 | 2022-04-15 | 北京城市网邻信息技术有限公司 | 一种空间光线的处理方法、装置、电子设备及存储介质 |
CN114079715B (zh) * | 2020-08-13 | 2024-02-23 | 北京慧行实达科技有限公司 | 一种基于图像视频的智能识别系统 |
CN112037600B (zh) * | 2020-08-28 | 2022-05-17 | 马全胜 | 关节松动术教具 |
CN112354175A (zh) * | 2020-12-02 | 2021-02-12 | 网易(杭州)网络有限公司 | 游戏广播通知方法、装置、设备和存储介质 |
CN114822570B (zh) * | 2021-01-22 | 2023-02-14 | 腾讯科技(深圳)有限公司 | 一种音频数据处理方法、装置、设备及可读存储介质 |
CN113318447B (zh) * | 2021-05-25 | 2022-07-29 | 网易(杭州)网络有限公司 | 游戏场景的处理方法、装置、存储介质及电子设备 |
CN113891530A (zh) * | 2021-09-28 | 2022-01-04 | 佛山电器照明股份有限公司 | 一种光照智能调控方法、设备和系统 |
CN114268831A (zh) * | 2021-11-30 | 2022-04-01 | 乐美科技股份私人有限公司 | 一种视频剪辑方法及装置 |
US20230338827A1 (en) * | 2022-04-25 | 2023-10-26 | Sony Interactive Entertainment Inc. | Correlating gestures on deformable controller to computer simulation input signals |
CN116841936B (zh) * | 2023-08-29 | 2023-11-21 | 深圳市莱仕达电子科技有限公司 | 一种多设备的数据处理方法、装置、系统和计算机设备 |
Family Cites Families (154)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3943277A (en) * | 1969-02-20 | 1976-03-09 | The United States Of America As Represented By The Secretary Of The Navy | Digital memory area correlation tracker |
US4313227A (en) * | 1979-01-29 | 1982-01-26 | Texas Instruments Incorporated | Light energy information transmission system |
US4263504A (en) * | 1979-08-01 | 1981-04-21 | Ncr Corporation | High density matrix code |
US4565999A (en) * | 1983-04-01 | 1986-01-21 | Prime Computer, Inc. | Light pencil |
US4558864A (en) * | 1984-06-13 | 1985-12-17 | Medwedeff Marion C | Handgrip exercising, computer game controller |
US4843568A (en) * | 1986-04-11 | 1989-06-27 | Krueger Myron W | Real time perception of and response to the actions of an unencumbered participant/user |
JPS6347616A (ja) * | 1986-08-15 | 1988-02-29 | Ricoh Co Ltd | 移動量測定方法 |
EP0302028B1 (de) * | 1987-07-24 | 1992-12-23 | Marelmo Di Marchigiano G., Ezzu L., Mogno G.P. S.N.C. | Hintere Gangschaltung für ein Fahrrad |
IT1219405B (it) | 1988-06-27 | 1990-05-11 | Fiat Ricerche | Procedimento e dispositivo per la visione strumentale in condizioni di scarsa visibilita in particolare per la guida nella nebbia |
JPH05501020A (ja) | 1988-12-20 | 1993-02-25 | ミート リサーチ コーポレーション | 光学的に読取り可能なコード化された物標 |
US5034986A (en) * | 1989-03-01 | 1991-07-23 | Siemens Aktiengesellschaft | Method for detecting and tracking moving objects in a digital image sequence having a stationary background |
US5534917A (en) * | 1991-05-09 | 1996-07-09 | Very Vivid, Inc. | Video image based control system |
US5144594A (en) | 1991-05-29 | 1992-09-01 | Cyber Scientific | Acoustic mouse system |
US5889670A (en) * | 1991-10-24 | 1999-03-30 | Immersion Corporation | Method and apparatus for tactilely responsive user interface |
US5444462A (en) * | 1991-12-16 | 1995-08-22 | Wambach; Mark L. | Computer mouse glove with remote communication |
JP3244798B2 (ja) | 1992-09-08 | 2002-01-07 | 株式会社東芝 | 動画像処理装置 |
US5335011A (en) | 1993-01-12 | 1994-08-02 | Bell Communications Research, Inc. | Sound localization system for teleconferencing using self-steering microphone arrays |
DE69414153T2 (de) | 1993-02-24 | 1999-06-10 | Matsushita Electric Ind Co Ltd | Vorrichtung zur Gradationskorrektur und Bildaufnahmegerät mit einer solchen Vorrichtung |
US5815411A (en) * | 1993-09-10 | 1998-09-29 | Criticom Corporation | Electro-optic vision system which exploits position and attitude |
US5677710A (en) | 1993-05-10 | 1997-10-14 | Apple Computer, Inc. | Recognition keypad |
US5581270A (en) * | 1993-06-24 | 1996-12-03 | Nintendo Of America, Inc. | Hotel-based video game and communication system |
US5959596A (en) | 1993-06-24 | 1999-09-28 | Nintendo Co., Ltd. | Airline-based video game and communications system |
FR2714502A1 (fr) * | 1993-12-29 | 1995-06-30 | Philips Laboratoire Electroniq | Procédé et dispositif de traitement d'image pour construire à partir d'une image source une image cible avec changement de perspective. |
US5611000A (en) * | 1994-02-22 | 1997-03-11 | Digital Equipment Corporation | Spline-based image registration |
JPH086708A (ja) * | 1994-04-22 | 1996-01-12 | Canon Inc | 表示装置 |
US5543818A (en) | 1994-05-13 | 1996-08-06 | Sony Corporation | Method and apparatus for entering text using an input device having a small number of keys |
US5563988A (en) * | 1994-08-01 | 1996-10-08 | Massachusetts Institute Of Technology | Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment |
US5641319A (en) | 1994-08-10 | 1997-06-24 | Lodgenet Entertainment Corporation | Entertainment system for providing interactive video game responses to the game interrogations to the video game engines without being processed by the host computer |
GB2301514B (en) | 1994-12-01 | 1999-06-09 | Namco Ltd | Apparatus and method for image synthesization |
JP3270643B2 (ja) | 1994-12-22 | 2002-04-02 | キヤノン株式会社 | 指示位置検出方法及び装置 |
US5929444A (en) * | 1995-01-31 | 1999-07-27 | Hewlett-Packard Company | Aiming device using radiated energy |
US5568928A (en) | 1995-02-01 | 1996-10-29 | Exertron, Inc. | Video game controller for use with an exercise apparatus |
US5638228A (en) * | 1995-02-14 | 1997-06-10 | Iomega Corporation | Retroreflective marker for data storage cartridge |
US5930741A (en) * | 1995-02-28 | 1999-07-27 | Virtual Technologies, Inc. | Accurate, rapid, reliable position sensing using multiple sensing technologies |
US5583478A (en) | 1995-03-01 | 1996-12-10 | Renzi; Ronald | Virtual environment tactile system |
KR19990008158A (ko) * | 1995-04-28 | 1999-01-25 | 모리시타요우이치 | 인터페이스 장치 |
US5649021A (en) * | 1995-06-07 | 1997-07-15 | David Sarnoff Research Center, Inc. | Method and system for object detection for instrument control |
IL114278A (en) * | 1995-06-22 | 2010-06-16 | Microsoft Internat Holdings B | Camera and method |
AU6135996A (en) * | 1995-06-22 | 1997-01-22 | 3Dv Systems Ltd. | Improved optical ranging camera |
CA2227904C (en) | 1995-07-26 | 2000-11-14 | Tegic Communications, Inc. | Reduced keyboard disambiguating system |
US6311214B1 (en) * | 1995-07-27 | 2001-10-30 | Digimarc Corporation | Linking of computers based on optical sensing of digital data |
US5768415A (en) * | 1995-09-08 | 1998-06-16 | Lucent Technologies Inc. | Apparatus and methods for performing electronic scene analysis and enhancement |
US5818424A (en) * | 1995-10-19 | 1998-10-06 | International Business Machines Corporation | Rod shaped device and data acquisition apparatus for determining the position and orientation of an object in space |
US5719561A (en) | 1995-10-25 | 1998-02-17 | Gilbert R. Gonzales | Tactile communication device and method |
US6282362B1 (en) | 1995-11-07 | 2001-08-28 | Trimble Navigation Limited | Geographical position/image digital recording and display system |
WO1997020305A1 (en) | 1995-11-30 | 1997-06-05 | Virtual Technologies, Inc. | Tactile feedback man-machine interface device |
JP4079463B2 (ja) * | 1996-01-26 | 2008-04-23 | ソニー株式会社 | 被写体検出装置および被写体検出方法 |
US6049619A (en) * | 1996-02-12 | 2000-04-11 | Sarnoff Corporation | Method and apparatus for detecting moving objects in two- and three-dimensional scenes |
JP2891159B2 (ja) * | 1996-02-14 | 1999-05-17 | 日本電気株式会社 | 多眼画像からの物体検出方式 |
RU2069885C1 (ru) | 1996-03-01 | 1996-11-27 | Йелстаун Корпорейшн Н.В. | Способ наблюдения объектов при пониженной освещенности и устройство для его осуществления |
JPH09244793A (ja) * | 1996-03-04 | 1997-09-19 | Alps Electric Co Ltd | 入力装置 |
US5937081A (en) | 1996-04-10 | 1999-08-10 | O'brill; Michael R. | Image composition system and method of using same |
US5923318A (en) * | 1996-04-12 | 1999-07-13 | Zhai; Shumin | Finger manipulatable 6 degree-of-freedom input device |
US5917493A (en) | 1996-04-17 | 1999-06-29 | Hewlett-Packard Company | Method and apparatus for randomly generating information for subsequent correlating |
US6516466B1 (en) * | 1996-05-02 | 2003-02-04 | Vincent C. Jackson | Method and apparatus for portable digital entertainment system |
US6151009A (en) | 1996-08-21 | 2000-11-21 | Carnegie Mellon University | Method and apparatus for merging real and synthetic images |
US6400374B2 (en) * | 1996-09-18 | 2002-06-04 | Eyematic Interfaces, Inc. | Video superposition system and method |
US6243491B1 (en) * | 1996-12-31 | 2001-06-05 | Lucent Technologies Inc. | Methods and apparatus for controlling a video system with visually recognized props |
US6021219A (en) * | 1997-01-07 | 2000-02-01 | Lucent Technologies Inc. | Methods and apparatus for distinguishing among several visual patterns |
US5850473A (en) * | 1997-01-07 | 1998-12-15 | Lucent Technologies Inc. | Method and apparatus for compensating for color variation in a video system |
US5796354A (en) | 1997-02-07 | 1998-08-18 | Reality Quest Corp. | Hand-attachable controller with direction sensing |
US6009210A (en) * | 1997-03-05 | 1999-12-28 | Digital Equipment Corporation | Hands-free interface to a virtual reality environment using head tracking |
EP0970502A1 (de) * | 1997-03-07 | 2000-01-12 | 3DV Systems Ltd. | Optischer verschluss |
US6061055A (en) * | 1997-03-21 | 2000-05-09 | Autodesk, Inc. | Method of tracking objects with an imaging device |
JP3009633B2 (ja) | 1997-04-03 | 2000-02-14 | コナミ株式会社 | 画像装置、画像表示方法および記録媒体 |
US6428411B1 (en) * | 1997-05-02 | 2002-08-06 | Konami Co., Ltd. | Volleyball video game system |
NO304715B1 (no) * | 1997-05-06 | 1999-02-01 | Dimensions As | FremgangsmÕte ved bildebehandling |
JP3183632B2 (ja) | 1997-06-13 | 2001-07-09 | 株式会社ナムコ | 情報記憶媒体及び画像生成装置 |
US6075895A (en) * | 1997-06-20 | 2000-06-13 | Holoplex | Methods and apparatus for gesture recognition based on templates |
US6072504A (en) * | 1997-06-20 | 2000-06-06 | Lucent Technologies Inc. | Method and apparatus for tracking, storing, and synthesizing an animated version of object motion |
US6094625A (en) * | 1997-07-03 | 2000-07-25 | Trimble Navigation Limited | Augmented vision for survey work and machine control |
KR20000068660A (ko) | 1997-07-29 | 2000-11-25 | 요트.게.아. 롤페즈 | 3차원 장면 재구성 방법과 재구성 장치 및 디코딩 시스템 |
US6044181A (en) * | 1997-08-01 | 2000-03-28 | Microsoft Corporation | Focal length estimation method and apparatus for construction of panoramic mosaic images |
US6720949B1 (en) * | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
US6297838B1 (en) | 1997-08-29 | 2001-10-02 | Xerox Corporation | Spinning as a morpheme for a physical manipulatory grammar |
US6268857B1 (en) * | 1997-08-29 | 2001-07-31 | Xerox Corporation | Computer user interface using a physical manipulatory grammar |
US6243074B1 (en) * | 1997-08-29 | 2001-06-05 | Xerox Corporation | Handedness detection for a physical manipulatory grammar |
US6768415B1 (en) * | 1997-10-03 | 2004-07-27 | Micron Technology, Inc. | Wireless identification device, RFID device with push-on/push-off switch, method of manufacturing wireless identification device |
US6072494A (en) * | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
US6101289A (en) * | 1997-10-15 | 2000-08-08 | Electric Planet, Inc. | Method and apparatus for unencumbered capture of an object |
US6031934A (en) * | 1997-10-15 | 2000-02-29 | Electric Planet, Inc. | Computer vision system for subject characterization |
WO1999019828A1 (en) * | 1997-10-15 | 1999-04-22 | Electric Planet, Inc. | Method and apparatus for performing a clean background subtraction |
US6166744A (en) | 1997-11-26 | 2000-12-26 | Pathfinder Systems, Inc. | System for combining virtual images with real-world scenes |
US6195104B1 (en) * | 1997-12-23 | 2001-02-27 | Philips Electronics North America Corp. | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs |
EP1055146B1 (de) * | 1998-02-08 | 2003-01-22 | 3DV Ltd. | Optischer verschluss mit grosser blendenöffnung |
US6175343B1 (en) * | 1998-02-24 | 2001-01-16 | Anivision, Inc. | Method and apparatus for operating the overlay of computer-generated effects onto a live image |
US6037942A (en) | 1998-03-10 | 2000-03-14 | Magellan Dis, Inc. | Navigation system character input device |
US6173059B1 (en) * | 1998-04-24 | 2001-01-09 | Gentner Communications Corporation | Teleconferencing system with visual feedback |
JP3646969B2 (ja) * | 1998-05-25 | 2005-05-11 | 富士通株式会社 | 3次元画像表示装置 |
JP2000020163A (ja) | 1998-06-30 | 2000-01-21 | Sony Corp | 情報処理装置 |
US6504535B1 (en) * | 1998-06-30 | 2003-01-07 | Lucent Technologies Inc. | Display techniques for three-dimensional virtual reality |
IL125221A0 (en) * | 1998-07-06 | 1999-03-12 | Toy Control Ltd | Motion activation using passive sound source |
US6184863B1 (en) * | 1998-10-13 | 2001-02-06 | The George Washington University | Direct pointing apparatus and method therefor |
DE19849515C1 (de) * | 1998-10-19 | 2000-12-28 | Gerhard Wergen | Verfahren zur Übergabe von Zeichen insbesondere an einen Computer und Eingabevorrichtung unter Einsatz dieses Verfahrens |
US6307568B1 (en) | 1998-10-28 | 2001-10-23 | Imaginarix Ltd. | Virtual dressing over the internet |
US6409602B1 (en) * | 1998-11-06 | 2002-06-25 | New Millenium Gaming Limited | Slim terminal gaming system |
JP2000181612A (ja) * | 1998-12-16 | 2000-06-30 | Fujitsu Takamisawa Component Ltd | 座標入力装置 |
US6614422B1 (en) * | 1999-11-04 | 2003-09-02 | Canesta, Inc. | Method and apparatus for entering data using a virtual input device |
US6323942B1 (en) * | 1999-04-30 | 2001-11-27 | Canesta, Inc. | CMOS-compatible three-dimensional image sensor IC |
US6545706B1 (en) * | 1999-07-30 | 2003-04-08 | Electric Planet, Inc. | System, method and article of manufacture for tracking a head of a camera-generated image of a person |
US6417836B1 (en) * | 1999-08-02 | 2002-07-09 | Lucent Technologies Inc. | Computer input device having six degrees of freedom for controlling movement of a three-dimensional object |
JP2001056742A (ja) * | 1999-08-19 | 2001-02-27 | Alps Electric Co Ltd | 入力装置 |
ATE285079T1 (de) * | 1999-09-08 | 2005-01-15 | 3Dv Systems Ltd | 3d- bilderzeugungssystem |
US6441825B1 (en) * | 1999-10-04 | 2002-08-27 | Intel Corporation | Video token tracking system for animation |
US20050037844A1 (en) * | 2002-10-30 | 2005-02-17 | Nike, Inc. | Sigils for use with apparel |
WO2001042930A1 (en) * | 1999-12-09 | 2001-06-14 | Zephyr Media, Inc. | System and method for integration of a universally publicly accessible global network |
US6676522B2 (en) * | 2000-04-07 | 2004-01-13 | Igt | Gaming system including portable game devices |
US6924787B2 (en) * | 2000-04-17 | 2005-08-02 | Immersion Corporation | Interface for controlling a graphical image |
WO2001091016A1 (en) * | 2000-05-25 | 2001-11-29 | Realitybuy, Inc. | A real time, three-dimensional, configurable, interactive product display system and method |
US20020056114A1 (en) * | 2000-06-16 | 2002-05-09 | Fillebrown Lisa A. | Transmitter for a personal wireless network |
US6795068B1 (en) * | 2000-07-21 | 2004-09-21 | Sony Computer Entertainment Inc. | Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program |
AU2001287948A1 (en) | 2000-07-24 | 2002-02-05 | Herman Ehrenburg | Computer-compatible, color-coded manual input system |
US7227526B2 (en) * | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US20020094189A1 (en) * | 2000-07-26 | 2002-07-18 | Nassir Navab | Method and system for E-commerce video editing |
JP3561463B2 (ja) * | 2000-08-11 | 2004-09-02 | コナミ株式会社 | 3dビデオゲームにおける擬似カメラ視点移動制御方法及び3dビデオゲーム装置 |
JP4815661B2 (ja) * | 2000-08-24 | 2011-11-16 | ソニー株式会社 | 信号処理装置及び信号処理方法 |
WO2002061707A2 (en) * | 2000-09-08 | 2002-08-08 | Honeywell International Inc. | Pilot internet practice system and methods |
US6884171B2 (en) * | 2000-09-18 | 2005-04-26 | Nintendo Co., Ltd. | Video game distribution network |
JP2002157607A (ja) * | 2000-11-17 | 2002-05-31 | Canon Inc | 画像生成システム、画像生成方法および記憶媒体 |
WO2002043404A2 (en) * | 2000-11-22 | 2002-05-30 | Leap Wireless International, Inc. | Method and system for providing interactive services over a wireless communications network |
AU2002217582A1 (en) * | 2000-12-20 | 2002-07-01 | Ar Vision Inc. | Method for making simulator program and simulator system using the method |
US6789967B1 (en) | 2001-02-02 | 2004-09-14 | George Forester | Distal chording keyboard |
US6749510B2 (en) * | 2001-02-07 | 2004-06-15 | Wms Gaming Inc. | Centralized gaming system with modifiable remote display terminals |
US7116330B2 (en) * | 2001-02-28 | 2006-10-03 | Intel Corporation | Approximating motion using a three-dimensional model |
US6931596B2 (en) | 2001-03-05 | 2005-08-16 | Koninklijke Philips Electronics N.V. | Automatic positioning of display depending upon the viewer's location |
US6931125B2 (en) | 2001-07-10 | 2005-08-16 | Gregory N. Smallwood | Telephone equipment compatible, twelve button alphanumeric keypad |
US20030014212A1 (en) * | 2001-07-12 | 2003-01-16 | Ralston Stuart E. | Augmented vision system using wireless communications |
JP3611807B2 (ja) * | 2001-07-19 | 2005-01-19 | コナミ株式会社 | ビデオゲーム装置、ビデオゲームにおける擬似カメラ視点移動制御方法及びプログラム |
US7039253B2 (en) * | 2001-07-24 | 2006-05-02 | Casio Computer Co., Ltd. | Image display device, image display method, program, and projection system |
JP3442754B2 (ja) * | 2001-08-10 | 2003-09-02 | 株式会社コナミコンピュータエンタテインメント東京 | ガンシューティングゲーム装置、コンピュータの制御方法及びプログラム |
US6846238B2 (en) * | 2001-09-28 | 2005-01-25 | Igt | Wireless game player |
JP2003114640A (ja) * | 2001-10-04 | 2003-04-18 | Nec Corp | プラズマディスプレイパネル及びその駆動方法 |
US20030093591A1 (en) | 2001-11-09 | 2003-05-15 | David Hohl | System and method for fast data transfer to display driver |
FR2832892B1 (fr) | 2001-11-27 | 2004-04-02 | Thomson Licensing Sa | Camera video d'effets speciaux |
US20030100363A1 (en) * | 2001-11-28 | 2003-05-29 | Ali Guiseppe C. | Method and apparatus for inputting appearance of computer operator into a computer program |
KR20030048570A (ko) | 2001-12-12 | 2003-06-25 | 한국전자통신연구원 | 부가적 버튼을 장착한 키패드 및 그의 작동방법 |
GB2388418A (en) * | 2002-03-28 | 2003-11-12 | Marcus James Eales | Input or pointing device with a camera |
US6847311B2 (en) | 2002-03-28 | 2005-01-25 | Motorola Inc. | Method and apparatus for character entry in a wireless communication device |
US7006009B2 (en) * | 2002-04-01 | 2006-02-28 | Key Energy Services, Inc. | Servicing system for wells |
US7023475B2 (en) * | 2002-04-08 | 2006-04-04 | Hewlett-Packard Development Company, L.P. | System and method for identifying an object with captured images |
US20040001082A1 (en) * | 2002-06-26 | 2004-01-01 | Amir Said | System and method of interaction with a computer controlled image display system using a projected light source |
US7227976B1 (en) * | 2002-07-08 | 2007-06-05 | Videomining Corporation | Method and system for real-time facial image enhancement |
US7161579B2 (en) * | 2002-07-18 | 2007-01-09 | Sony Computer Entertainment Inc. | Hand-held computer interactive device |
US7613310B2 (en) * | 2003-08-27 | 2009-11-03 | Sony Computer Entertainment Inc. | Audio input system |
US6917688B2 (en) | 2002-09-11 | 2005-07-12 | Nanyang Technological University | Adaptive noise cancelling microphone system |
US20040063480A1 (en) * | 2002-09-30 | 2004-04-01 | Xiaoling Wang | Apparatus and a method for more realistic interactive video games on computers or similar devices |
US20040095327A1 (en) | 2002-11-14 | 2004-05-20 | Lo Fook Loong | Alphanumeric data input system and method |
GB2398691B (en) * | 2003-02-21 | 2006-05-31 | Sony Comp Entertainment Europe | Control of data processing |
JP3849654B2 (ja) | 2003-02-21 | 2006-11-22 | 株式会社日立製作所 | 投射型表示装置 |
US6881147B2 (en) * | 2003-06-06 | 2005-04-19 | Nyko Technologies, Inc. | Video game controller with integrated microphone and speaker |
US7620316B2 (en) * | 2005-11-28 | 2009-11-17 | Navisense | Method and device for touchless control of a camera |
US7834850B2 (en) * | 2005-11-29 | 2010-11-16 | Navisense | Method and system for object control |
JP4481280B2 (ja) * | 2006-08-30 | 2010-06-16 | 富士フイルム株式会社 | 画像処理装置、及び画像処理方法 |
US8277316B2 (en) * | 2006-09-14 | 2012-10-02 | Nintendo Co., Ltd. | Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting |
-
2002
- 2002-07-27 US US10/207,677 patent/US7102615B2/en not_active Expired - Lifetime
-
2003
- 2003-06-16 TW TW092116297A patent/TWI297866B/zh not_active IP Right Cessation
- 2003-07-14 JP JP2004524618A patent/JP4234677B2/ja not_active Expired - Fee Related
- 2003-07-14 WO PCT/US2003/022130 patent/WO2004012073A2/en active IP Right Grant
- 2003-07-14 CN CN038179687A patent/CN1672120B/zh not_active Expired - Fee Related
- 2003-07-14 EP EP03771630A patent/EP1552375B1/de not_active Expired - Lifetime
- 2003-07-14 DE DE60308541T patent/DE60308541T2/de not_active Expired - Lifetime
- 2003-07-14 AU AU2003253931A patent/AU2003253931A1/en not_active Abandoned
- 2003-07-14 AT AT03771630T patent/ATE340380T1/de not_active IP Right Cessation
-
2006
- 2006-02-28 US US11/364,936 patent/US7639233B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019101738A1 (de) * | 2019-01-24 | 2020-07-30 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Vorrichtung zur kontaktlosen Ermittlung zeitabhängiger Positionen eines mechanisch beweglichen Eingabeelements |
Also Published As
Publication number | Publication date |
---|---|
ATE340380T1 (de) | 2006-10-15 |
JP2005535022A (ja) | 2005-11-17 |
JP4234677B2 (ja) | 2009-03-04 |
US20040017473A1 (en) | 2004-01-29 |
US7639233B2 (en) | 2009-12-29 |
CN1672120B (zh) | 2010-04-28 |
DE60308541D1 (de) | 2006-11-02 |
US20060139322A1 (en) | 2006-06-29 |
EP1552375B1 (de) | 2006-09-20 |
TWI297866B (en) | 2008-06-11 |
EP1552375A2 (de) | 2005-07-13 |
US7102615B2 (en) | 2006-09-05 |
WO2004012073A2 (en) | 2004-02-05 |
CN1672120A (zh) | 2005-09-21 |
WO2004012073A3 (en) | 2004-05-13 |
TW200405220A (en) | 2004-04-01 |
AU2003253931A1 (en) | 2004-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE60308541T2 (de) | Mensch-maschine-schnittstelle unter verwendung einer deformierbaren einrichtung | |
DE60201692T2 (de) | Auf 3D Objekten angewendetes 2D Bildverarbeitungsverfahren | |
DE60133386T2 (de) | Vorrichtung und verfahren zur anzeige eines ziels mittels bildverarbeitung ohne drei dimensionales modellieren | |
DE60205662T2 (de) | Vorrichtung und Verfahren zur Berechnung einer Position einer Anzeige | |
DE102018207088A1 (de) | Bildanalyse ohne marker für augmented reality | |
DE69635902T2 (de) | Verfahren und einrichtung zur kraftrückkopplung für eine graphische benutzerschnittstelle | |
EP2430614B1 (de) | Verfahren zur echtzeitfähigen, rechnergestützten analyse einer eine veränderliche pose enthaltenden bildsequenz | |
DE112007001789B4 (de) | Verfahren zum Bewerten eines Bildes im Hinblick auf eine dominante Linie | |
DE112015005721T5 (de) | Elektives paarweises zuordnen einer in einem virtuellen bereich dargestellten anwendung zu einer physischen anzeige | |
DE112011102169T5 (de) | System für ortsbewegliche spürbare Interaktion | |
DE112006002954T5 (de) | Virtuelles Schnittstellensystem | |
DE202017006742U1 (de) | Eingabegerät-Stabilisierungstechniken für virtuelle Realitätssysteme | |
DE112018004313T5 (de) | Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm | |
DE112016002022T5 (de) | Managen von merkmalsdaten zur umgebungsabbildung auf einer elektronischen vorrichtung | |
DE69837165T2 (de) | Verfahren und gerät für automatische animation von dreidimensionalen grafischen szenen für verbesserte 3-d visualisierung | |
DE102019218787A1 (de) | Verfahren, vorrichtung und system zum erzeugen von mit einer darstellung eines artikels verbundenen angeboten | |
DE102014114742A1 (de) | Eine Vorrichtung zum Erzeugen eines Anzeigensteuerungssignals und ein Verfahren derselben | |
DE112017008230T5 (de) | Verfahren und vorrichtung zum abbilden einer virtuellen umgebung auf eine physische umgebung | |
EP1665023B1 (de) | Verfahren und vorrichtung zur steuerung eines graphiksystems der virtuellen realität mittels interaktionen | |
DE112020000573T5 (de) | Anzeigen von darstellungen von umgebungen | |
EP2943934B1 (de) | Verfahren zur aufnahme und wiedergabe einer abfolge von ereignissen | |
DE102004027289B4 (de) | Verfahren und Anordnung zur berührungslosen Navigation in einem Dokument | |
DE102009031158A1 (de) | Vorrichtung und Verfahren zur Erkennung einer Zeigegeste eines Nutzers zur Interaktion mit einer Eingabefläche | |
DE112020002063T5 (de) | Generieren einer semantischen Konstruktion einer physischen Umgebung | |
WO1998026346A1 (de) | Computersteuerung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition |