DE60023900T2 - Darstellungssysem für rechner und optisches spurfolgeverfahren eines drahtlosen zeigers - Google Patents

Darstellungssysem für rechner und optisches spurfolgeverfahren eines drahtlosen zeigers Download PDF

Info

Publication number
DE60023900T2
DE60023900T2 DE60023900T DE60023900T DE60023900T2 DE 60023900 T2 DE60023900 T2 DE 60023900T2 DE 60023900 T DE60023900 T DE 60023900T DE 60023900 T DE60023900 T DE 60023900T DE 60023900 T2 DE60023900 T2 DE 60023900T2
Authority
DE
Germany
Prior art keywords
computer
cursor
external
image
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60023900T
Other languages
English (en)
Other versions
DE60023900D1 (de
Inventor
Karl C. Hansen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hansen Karl C Stillmav Valley
Original Assignee
Hansen Karl C Stillmav Valley
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=23365173&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE60023900(T2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Hansen Karl C Stillmav Valley filed Critical Hansen Karl C Stillmav Valley
Application granted granted Critical
Publication of DE60023900D1 publication Critical patent/DE60023900D1/de
Publication of DE60023900T2 publication Critical patent/DE60023900T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0386Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry for light pen

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft ein System und ein Verfahren zum Fernsteuern eines Computers durch optisches Verfolgen und Synchronisieren eines drahtlosen optischen Zeigegerätes mit einem projizierten Bild des Computerbildschirms.
  • HINTERGRUND DER TECHNIK
  • Es ist eine Reihe von Systemen und Verfahren zum Fernsteuern eines Computers entwickelt worden, um die konventionelle Tastatur/Maus-Schnittstelle an eine Vielzahl verschiedener Anwendungen und Präferenzen von Nutzern anzupassen. Verschiedene Technologien, einschließlich Ultraschall, Infrarot- und Hochfrequenz-Verfahren, wurden verwendet, um Nutzern eine größere Mobilität bezüglich des Computerprozessors und/oder des Anzeigebildschirms zu bieten. Meist kommen bei diesen Technologien kundenspezifische Sender/Empfänger zum Einsatz, mit denen Steuerungs- und Statusinformationen zum Steuern des Computers zwischen dem Nutzer und dem Computer übertragen werden können. Einige Systeme verwenden Sensoren, die sich am Nutzer, am Computer und/oder an einer Anzeigevorrichtung befinden, um die Bewegung des Nutzers und/oder einer drahtlosen Zeigevorrichtung in Bezug auf die Sensoren zu ermitteln. Wenngleich diese Verfahren für einige Anwendungen akzeptabel sind, ist ihre Nutzung mitunter durch eine benötigte Sichtlinie bzw. einen notwendigen Abstand eingeschränkt. Ebenso sind für diese Systeme komplizierte und oft teure Anlagen erforderlich, die sich möglicherweise nicht ohne weiteres für die verschiedenen Foren eignen, bei denen das Publikum aus einigen wenigen Personen oder auch aus einem großen Auditorium bestehen kann.
  • Da für grafische Präsentationen und/oder Demonstrationen zunehmend Computer verwendet werden, werden größere Anzeigevorrichtungen benutzt, die einem sehr unterschiedlich großen Publikum die Sicht ermöglichen. Viele Präsentationen, beispielsweise Diashows und dergleichen, benötigen nur eine relativ einfache Steuerung des Computers während der eigentlichen Präsentation. Für Befehle, die Dias in Vorwärtsrichtung oder in umgekehrter Richtung anzeigen oder eine Anzeigeabfolge in Gang setzen, ist lediglich eine Grundvariante einer Benutzerscnnittstelle oder Fernsteuerung erforderlich, um mit dem Computer zu kommunizieren. Kompliziertere Präsentationen oder Demonst rationen, wie sie beispielsweise für Schulungen oder Lehrgänge von Softwarenutzern verwendet werden, benötigen allerdings eine kompliziertere Schnittstelle bzw. Fernbedienung, um den Computer effektiv zu betätigen. Herkömmlicherweise ist es notwendig, dass der Vortragende entweder in der Nähe des Rechners bleibt, um die Tastatur und/oder die Zeigevorrichtung (Maus, Touchpad, Rollkugel, usw.) zu bedienen, oder dass er einen Assistenten hat, der diese erforderlichen Operationen ausführt. In US 5.138.304 ist ein Verfahren zum Steuern eines Computers gemäß dem vorcharakterisierenden Teil aus Anspruch 1 offen gelegt.
  • Offenlegung der Erfindung
  • Somit besteht eine Aufgabe der vorliegenden Erfindung darin, ein System und ein Verfahren zum Fernsteuern eines Computers in ähnlicher Art und Weise zu schaffen, wie dies bei einer konventionellen Zeigevorrichtung erfolgt.
  • Eine weitere Aufgabe der vorliegenden Erfindung besteht in der Schaffung eines Systems und Verfahrens zum Fernsteuern eines Computers auf der Grundlage von Eigenschaften eines optischen Zeigers, mit dem ein Cursor oder eine optische Markierung auf ein projiziertes Bild eines Computerbildschirms gelegt wird.
  • Eine weitere Aufgabe der Erfindung besteht in der Schaffung eines Systems und eines Verfahrens zum Synchronisieren der Position und/oder der Bewegung eines Cursors auf einem Computerbildschirm mit der Position und/oder der Bewegung eines optischen Zeigers.
  • Eine weitere Aufgabe der Erfindung besteht in der Schaffung eines Systems und Verfahrens zum Erkennen von Eigenschaften eines optischen Zeigers, wie beispielsweise dessen Form, Farbe, Intensität, Bewegung oder ähnliche Eigenschaften, in Bezug auf eine Computeranzeige, um einem Computer Befehle bereitzustellen.
  • Noch eine andere Aufgabe der Erfindung besteht in der Schaffung eines Systems und Verfahrens zum Fernsteuern eines Computers mit Hilfe von positionsbezogenen Befehlen, die Eigenschaften eines auf eine Computeranzeige gelegten optischen Cursors entsprechen.
  • Wiederum eine andere Aufgabe der Erfindung besteht in der Schaffung eines Systems und Verfahrens zum verbindungslosen optischen Verfolgen von Licht mit einem Computer, um eine konventionelle Computerzeigevorrichtung zu emulieren.
  • Erfindungsgemäß wird ein Verfahren zum Fernsteuern eines Computers nach Anspruch 1 der beiliegenden Patentansprüche geschaffen.
  • Weiterhin wird ein Computer-Präsentationssystem zum Erzeugen von Befehlen zwecks Fernsteuerung eines Computers nach Anspruch 15 der beiliegenden Patentansprüche geschaffen sowie ein computerlesbares Speichermedium mit gespeicherten Daten, die Befehle darstellen, die von einem Computer nach Anspruch 16 der beiliegenden Patentansprüche ausgeführt werden können.
  • Zur Umsetzung der oben genannten Aufgaben und weiterer Ziele, Merkmale und Vorteile der Erfindung umfasst ein Verfahren zum Fernsteuern eines Computers ein System und ein Verfahren zum Fernsteuern eines Computers mit einem dazugehörigen Bildschirm zum Anzeigen einer Ausgabe von dem Computer und mit einem internen Cursor, der von dem Computer erzeugt wird, die umfassen: das Ermitteln wenigstens einer Eigenschaft eines externen Cursors relativ zu dem Bildschirm und Erzeugen eines Befehls für den Computer auf der Basis der wenigstens einen ermittelten Eigenschaft des externen Cursors. Bei einer Ausführungsform weist die Erfindung einen Computer auf, der an einen Projektor angeschlossen ist, der ein Bild der Computerausgabe auf einen externen Bildschirm projiziert. Zum Erfassen eines Bildes der projizierten Computerausgabe wird eine Kamera verwendet. Ein optisches Zeigegerät, z. B. ein Laserpointer, wird zum Erzeugen und Übertragen eines externen Cursors mit verschiedenen Eigenschaften, beispielsweise Farbe, Form oder Intensität, verwendet. Mit dem von der Kamera erfassten Bild wird wenigstens eine Eigenschaft des externen Cursors ermittelt und verarbeitet, so dass ein oder mehrere Befehle zum Steuern des Computers erzeugt werden. Es können Befehle zum Emulieren der Steuerung des Computers verwendet werden, die typischerweise von einer Zeigervorrichtung, z. B. einer Maus, einer Rollkugel oder dergleichen, bereitgestellt werden.
  • Im Vergleich zu Strategien nach dem bisherigen Stand der Technik bietet die vorliegende Erfindung eine Reihe von Vorteilen. Z. B. ermöglicht es die vorliegende Erfindung dem Nutzer, eine konventionelle optische Zeigervorrichtung, z. B. einen Laserpointer, für die Bereitstellung positionsabhängiger Befehle an einen ferngesteuerten Computer zu nutzen. Somit schafft die vorliegende Erfindung eine relativ einfache Fern-Benutzeroberfläche, die eine komplexere Steuerung des Computers ähnlich wie eine konventionelle Computerzeigervorrichtung, z. B. eine Maus oder eine Rollkugel, ausführen kann. Die Erfindung ermöglicht es einem Nutzer, einen Computer für eine Softwaredemonstration von einem beliebigen Standort aus zu steuern, an dem über ein optisches Zeigegerät auf einen Computerbildschirm oder ein projiziertes Bild des Computerbildschirms zugegriffen werden kann. Bei einer Ausführungsform beinhaltet die Erfindung einen Projektor und eine Videokamera und/oder eine Bilderfassungsvorrichtung innerhalb einer einzigen Einheit.
  • Die obigen Vorteile und weitere Vorteile, Aufgaben und Merkmale der Erfindung werden mühelos aus der nachfolgenden detaillierten Beschreibung der besten Ausführungsform der Erfindung im Zusammenhang mit der Betrachtung der beiliegenden Zeichnungen verständlich.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Blockdiagramm, das ein repräsentatives Computer-Präsentationssystem mit optischer Verfolgung zum Fernsteuern des Computers nach der vorliegenden Ausführungsform zeigt;
  • 2 ist ein Diagramm, welches die Projektion von Eich-Retikeln bzw. Bezugsmarkierungen und die Ableitung von Koordinaten für einen externen Cursor einer erfindungsgemäßen Ausführungsform darstellt, und
  • 3 ist ein Ablaufdiagramm, das die Funktionsweise eines Systems oder Verfahrens zum Fernsteuern eines Computers mit optischer Verfolgung eines externen Cursors nach der Erfindung darstellt.
  • BESTE AUSFÜHRUNGSFORM DER ERFINDUNG
  • In 1 ist ein Blockdiagramm dargestellt, das ein erfindungsgemäßes repräsentatives Computer-Präsentationssystem mit optischer Verfolgung zum Fernsteuern des Computers zeigt. Hierbei soll die Fernsteuerung des Computers die Steuerung verschiedener Anwendungsprogramme und/oder des Betriebssystems des Computers umfassen. Bei dieser Ausführungsform ist der Computer 10 an einen Videoprojektor 12 und eine Videokamera 14 angeschlossen. Der Videoprojektor 12 projiziert ein Bild 16 der Computerausgabe auf eine Projektionsfläche oder einen Bildschirm, allgemein mit der Bezugsziffer 18 angegeben. Vorzugsweise ist der Bildschirm 18 ein „passiver" Bildschirm, d.h. eine weitgehend planare Fläche, die von dem Computer 10 entfernt ist und eine Lichtfarbe hat, mit der ein ausreichender Kontrast für das Bild der vom Projektor 12 erzeugten Computerausgabe entsteht. Eine derartige Fläche kann mit verschiedenen Objekten geschaffen werden, dazu gehören Projektionsbildschirme, Wände oder Ähnliches. Die Ausgabe aus dem Computer 10 kann ebenfalls auf einem „aktiven" Bildschirm angezeigt werden, wozu ein traditioneller Computerbildschirm 20 eines Laptop-Computers 10 oder eine beliebige andere Anzeigevorrichtung, z. B ein Monitor, Fernsehgerät oder eine ähnliche „aktive" Vorrichtung gehören. Derartige "aktive" Bildschirme können allein oder mit einem oder mehreren „passiven" Bildschirmen verwendet werden, ohne vom Geist oder Schutzumfang der Erfindung abzuweichen.
  • Wie weiterhin aus 1 deutlich wird, wird ein externer Cursor, allgemein mit der Bezugsziffer 22 angegeben, auf das Bild 16 gelegt, das aus dem Computer 10 ausgegeben wird. Bei dieser Anwendung ist ein externer Cursor einer, der außerhalb des Computers 10 erzeugt wird, d.h. von einer anderen Vorrichtung, zu der ein anderer Computer, Projektor oder Ähnliches gehören könnte. Bei einer Ausführungsform wird der externe Cursor 22 von einem in der Hand gehaltenen optischen Zeigegerät 24 erzeugt, mit dem wenigstens eine Eigenschaft des externen Cursors 22 verändert werden kann. Beispielsweise kann das optische Zeigegerät 24 die Farbe, Form, Größe, Intensität, das Beleuchtungsmuster, die Bewegung und/oder Position des externen Cursors 22 verändern, um einen oder mehrere Befehle zu erzeugen und so den Computer 10 erfindungsgemäß fernzusteuern. Bei einer bevorzugten Ausführungsform ist das optische Zeigegerät 24 ein Laserpointer, der einen externen Cursor in einer von zwei vom Nutzer auswählbaren Farben erzeugen kann. Bei dieser Ausführungsform hat der externe Cursor eine wesentlich höhere Intensität als die Ausgabe des Computers und lässt sich daher einfacher erkennen.
  • Vorzugsweise erfasst die Kamera 14 ein Bild mit wenigstens einem wesentlichen Teil von Bild 16, das vom Projektor 12 erzeugt wird. Bei einer alternativen Ausführungsform, bei der ein aktiver Bildschirm verwendet wird, erfasst die Kamera 14 vorzugsweise im Wesentlichen einen großen Teil des aktiven Bildschirms, d.h. des Computermonitors, der Anzeige oder des Fernsehbildes. Der Computer 10 verarbeitet das erfasste Bild, um wenigstens eine Eigenschaft des externen Cursors 22 zu ermitteln. Bei einer bevorzugten Ausführungsform der Erfindung verarbeitet der Computer 10 das Bild 16, um wenigstens die Position des externen Cursors 22 zu ermitteln und einen oder mehrere geeignete Befehle zu erzeugen, mit denen ein interner Cursor 26 auf etwa die gleiche Position bewegt wird wie ein externer Cursor 24. Ebenso kann der Computer das Bild 16 verarbeiten, um verschiedene andere Eigenschaften des externen Cursors 22 zu ermitteln und positionsabhängige Befehle zu erzeugen, die zum Fernsteuern des Computers 10 verwendet werden. Solche Positionen bzw. kontextabhängigen Befehle können einen Befehl „Linksklick" oder „Rechtsklick" emulieren, der von einer traditionellen Computerzeigevorrichtung, z. B. einer Maus, einer Rollkugel, einem Touchpad oder dergleichen, erzeugt wird. Ebenso können je nach Anwendung verschiedene andere Befehle mit einer oder mehreren Eigenschaften des externen Cursors 22 in Zusammenhang gebracht werden.
  • Bei einer Ausführungsform der Erfindung kann der Computer 10 periodisch Retikel bzw. Bezugsmarkierungen erzeugen, die allgemein mit der Bezugsziffer 28 angegeben sind, um das von der Kamera 14 erfasste Bild in Bezug auf das Bild 16 auf dem Bildschirm 18 zu eichen bzw. auszurichten. Vorzugsweise enthält jede der vier Ecken des Bildes der Computerausgabe ein Retikel bzw. eine Bezugsmarkierung oder mehrere Bezugsmarkierungen, das/die zum Abgrenzen der „aktiven" Verfolgungsregion verwendet wird/werden, in der der externe Cursor 22 erkannt wird. Die Bezugsmarkierungen können eine beliebige Form aufweisen, z. B. einen rechten Winkel oder ein Kreuz. Bei Anwendungen, in denen der Bildschirm 18 nicht weitgehend planar ist, sollten die Bezugsmarkierungen 28 einen größeren Teil des Bildschirms abdecken. So können sich die Bezugsmarkierungen beispielsweise horizontal oder vertikal über den Bildschirm 18 erstrecken.
  • Vorzugsweise sind der Projektor 12 (falls verwendet), die Kamera 14 und der Bildschirm 18 feststehend und bleiben weitgehend fixiert, um den Eich/Ausricht- und den Verfolgungsprozess zu erleichtern. Allerdings kann die Erfindung auch in Anwendungen zum Einsatz kommen, bei denen eine oder mehrere dieser Vorrichtungen die Position ändern, obwohl dadurch das Ermitteln der Eigenschaften des externen Cursors 22 komplexer und rechenintensiver wird. Der Eich- oder Ausrichtprozess kann auf der Grundlage einer Nutzeranforderung in vorgegebenen Intervallen automatisch und/oder immer dann wiederholt werden, wenn der externe Cursor 22 nicht erkannt wird. Bei einer Ausführungsform der Erfindung werden die Retikel bzw. Bezugsmarkierungen 28 allmählich zu der Position des externen Cursors 22 hinbewegt, um die Verarbeitung des Bildes für das Erkennen des externen Cursors 22 zu vereinfachen. Bei dieser Ausführungsform wird lediglich der Bereich, der von den Bezugsmarkierungen 28 eingegrenzt ist, zwecks Erkennung des externen Cursors 22 durchsucht bzw. abgetastet. Wenn der externe Cursor 22 nicht in dem von den Bezugsmarkierungen 28 definierten Bereich lokalisiert wird, wird deren Position entweder auf die ursprünglichen Ecken des verarbeiteten Bildes zurückgesetzt oder solange allmählich auf sie hin erweitert, bis der externe Cursor 22 erkannt wird.
  • 2 stellt ein Einzelbild-Frame 40 dar, das von der Videokamera 14 erfasst wird. Vorzugsweise werden Frames wiederholt erfasst und verarbeitet, um wenigstens eine Eigenschaft des externen Cursors 22 zu ermitteln. Typische Frame-Erfassungsraten liegen bei dreißig oder vierzig Frames pro Sekunde. Vorzugsweise wird die Frame-Erfassungsrate der Videokamera und/oder der Ausgabe eines aktiven Bildschirms oder Projektors so gewählt, dass in den Frequenzbändern von Interesse das Aliasing und andere Interfe renzen minimiert werden. Eine solche Interferenz kann durch die Schwebungsfrequenz oder Differenzfrequenz zwischen der Auffrischrate des Bildschirms oder Projektors und der Videokamera entstehen. Verringern lassen sich solche Interferenzdefekte durch eine angemessene Filterung des erfassten Bildes. Das Filtern kann als Teil der Bildbearbeitung durch den Prozessor erfolgen oder durch eine geeignete Hardware als Teil des Bilderfassungsprozesses stattfinden.
  • Das Frame 40 des erfassten Bildes enthält vorzugsweise einen wesentlichen Teil des vom Computer ausgegebenen Bildes, dargestellt durch die Bezugsziffer 42. Wie in 2 abgebildet, kann das Computerausgabebild 42 einen konvexen vierseitigen Bereich innerhalb des erfassten Frames 40 einnehmen. Das Bild 42 ist nicht rechtwinklig, wenn sich entweder der Projektor oder die Kamera oder beide nicht auf der Linie befinden, die quer durch den Mittelpunkt des Bildschirms verläuft. Vorzugsweise bettet der Computer die Retikel oder Bezugsmarkierungen 28 innerhalb des Bildes 42 ein oder legt sie auf selbiges. Abhängig von der speziellen Art der Bezugsmarkierungen, die zum Lokalisieren der Ecken C1', C2', C3' und C4' verwendet werden, kann zum Verarbeiten des erfassten Bildes 40 die Linien- und Schnittpunktmustererkennung zum Einsatz kommen. Das Ermitteln der Position von C1', C2', C3' und C4' sowie der Eigenschaften des externen Cursors wird vereinfacht, da deren kennzeichnende Eigenschaften bereits von vornherein bekannt sind. Die Identifizierung von Einzelpositionen innerhalb eines statischen Bildes und die Identifizierung der dynamischen Bewegung von Merkmalen kann mit einer Reihe bekannter Bildverarbeitungsverfahren erfolgen, z. B. jene, die in „MACHINE VISION" von Jain, Kasturi und Schunk, veröffentlicht von McGraw-Hill, ISBN 0-07-032018-7, beschrieben sind. Die vorliegende Erfindung ist unabhängig von den speziellen Bildverarbeitungsverfahren, die zum Identifizieren oder Erkennen der Eigenschaften des externen Cursors verwendet werden, mit dem die Fernsteuerung des Computers erfolgt. Nachstehend ist ein exemplarisches Verfahren zum Ermitteln der Informationen über die Position des externen Cursors angegeben.
  • Die Positionen der Ecken C1', C2', C3' und C4' sowie des externen Cursors 22 können für ein klassisches Videoquadrantensystem mit horizontalen Koordinaten, die durch X dargestellt sind, und mit vertikalen Koordinaten, dargestellt durch Y, ermittelt werden, wobei Y = 0 die oberste Abtastzeile darstellt. Die Anzahl von Abtastzeilen legt den maximalen Y-Wert fest. Die Positionen, die den Koordinaten für X = 0 entsprechen, sind das erste (am weitesten links gelegene) Pixel in jeder Abtastzeile, und die Anzahl von Pixeln pro Abtastzeile legt den maximalen X-Wert fest. Das Zeilensegment C1–C2 entspricht der X-Achse und das Segment C1–C4 entspricht der Y-Achse. Punkte innerhalb des Bil des 42 werden durch normierte Koordinaten (T, U) dargestellt, wobei C1' die Koordinaten (T = 0,0, U = 0,0) und C3' die Koordinaten (T = 1,0, U = 1,0) hat. Anschließend können die normierten Koordinaten auf eine angemessene Auflösung für das Bild 40 skaliert werden. Mit einem Paar parametrische Gleichungen lassen sich die Koordinaten T und U für jeden beliebigen Punkt in einen bestimmten Video-Frame ermitteln. Zuerst werden die Koordinatenpaare X-Y für jede Ecke C1' bis C4' dargestellt als:
    C1' = (X1', Y1')
    C2' = (X2', Y2')
    C3' = (X3', Y3')
    C4' = (X4', Y4')
  • Die parametrische Gleichung für eine Zeile lautet P(Q) = P0 – Q(P0 – P1), wobei Q in diesem Beispiel durch T und anschließend U ersetzt wird. Die T-Achse wird mithilfe von C1'-C2' und C4'-C5' definiert, während die U-Achse mithilfe von C1'-C4' und C2'-C3' definiert wird. Da nicht sichergestellt ist, dass das eingebettete vierseitige Bild 42 parallele Grenzen aufweist, handelt es sich beim Abbilden (Mapping) von (X, Y) auf (T, U) nicht um einen einfachen rechtwinkligen Abbildungsvorgang im allgemeinen Sinne. Dennoch kann das Abbilden wie nachstehend beschrieben, abgeleitet werden.
  • Die parametrischen Gleichungen für die eingebetteten vierseitigen Grenzen, die das Bild 42 definieren, werden angegeben durch:
    obere Grenze (LT1): p(T) = C1'– T(C1' – C2')
    untere Grenze (LT2): p(T) = C4' – T(C4' – C3')
    linke Grenze (LU1): p(U) = C1' – U(C1' – C4')
    rechte Grenze (LU2): p(U) = C2' – U(C2' – C3').
  • Das Abbilden in (T, U) kann anschließend definiert werden, indem entweder das Paar LT oder das Paar LU ausgewählt wird und eine parametrische Gleichung in der anderen Variablen (entweder U oder T) wie folgt definiert wird: p(T) = LU1 – T(LU1 – LU2) 1oder als Äquivalent dazu: p(U) = LT1 – U(LT1 – LT2). 2
  • Die Gleichung 1 stellt dar, wie die U-Achse skaliert und/oder gedreht wird, während sie den Weg durch den Raum (T, U) von der Position T = 0 zu der Position T = 1 zurücklegt.
  • Gleichung 2 stellt dar, wie die T-Achse skaliert und/oder gedreht wird, während sie den Weg durch den Raum (T, U) von U = 0 zu U = 1 zurücklegt. Wie bereits erwähnt, können beide Gleichungen zum Ermitteln einer parametrischen Gleichung in der anderen Variablen verwendet werden. Beim vorliegenden Beispiel wird Gleichung 1 ausgewählt und die Gleichungen für LU1 und LU2 werden in die Gleichung 1 hinein substituiert, wodurch die Gleichung 3 wie folgt entsteht: p(T, U) = [C1' – U(C1' – C4')] – T{[C1' – U(C1' – C4')] – [C2' – U(C2' – C3')]}. 3
  • Um die Notation zu vereinfachen, ist es sinnvoll, eine Kurzschrift zu definieren, die die Differenzen bzw. Deltas zwischen den Koordinaten der Eckpunkte wie folgt angibt:
    d1: C1'-C2'
    d2: C2'-C3'
    d1: C4'-C3'
    d1: C1'-C4'
  • Dort, wo ein Differenzwert auf die Differenz zwischen den Werten lediglich einer einzigen Koordinate zutrifft, d.h. lediglich auf die Werte der X- oder lediglich der Y-Koordinate, wird die Differenz entweder von einem X bzw. einem Y zwischen dem „d" und der Zahl angegeben. Z. B. gibt dX2 die Menge (X2'-X3') an, während dY4 die Menge (Y1'-Y4') darstellt. Anschließend werden die Punktepaare (X', Y') in Gleichung 3 für C1', C2', C3' und C4' substituiert, wobei die Delta-Notation zum Vereinfachen der entstehenden Gleichungen verwendet wird. Je nachdem, wie die vier Punkte, die mit U multipliziert sind, paarweise aufgestellt sind, entsteht eine der folgenden Gleichungen: p(T, U) = [C1' – U·d4] – T[d1 – U(d1 – d3)] 4 p(T, U) = [C1' – U·d4] – T[d1 – U(d4 – d2)] 5
  • Die Gleichungen 4 und 5 sind gleichermaßen gültig und stellen jeweils ein Paar linear voneinander unabhängiger Gleichungen dar, eine in X und die andere in Y, da p(T, U) von einem generischen Koordinatenpaar (X, Y) gebildet wird. Für dieses Beispiel wird Gleichung 5 ausgewählt und in die X- und Y-Gleichungen unterteilt: X = X1' – U·dX4 – T·dX1 + UT(dX4 – dX2) 6 Y = Y1' – U·dY4 – T·dY1 + UT(dY4 – dY2) 7
  • Die Gleichungen 6 und 7 werden daraufhin für T und U aufgelöst, wodurch die Gleichungen 8 und 9 wie folgt entstehen:
  • Figure 00100001
  • Da die Gleichungen 8 und 9 Linie A voneinander unabhängig sind, kann jede Gleichung in die andere hinein substituiert werden. Bei dem vorliegenden Beispiel wird Gleichung 9 in die Gleichung 8 hinein substituiert, wodurch folgender Ausdruck entsteht:
    Figure 00100002
    wobei es sich nun lediglich um eine Gleichung in T für einen willkürlichen Punkt mit den Koordinaten (X, Y) im ursprünglichen Raum handelt. Löst man die Gleichung 10 für T auf, so erhält man in T ein einfaches Quadrat: 0 = AT2 + BT + C 11wobei
  • A
    = dY1(dX4 – dX2) – dX1(dY4 – dY2)
    B
    = dX1·dY4 – (Y1 – Y)(dX4 – dX2) – dY1·dX4 + (X1 – X)(dY4 – dY2)
    C
    = dX4·(Y1 – Y) – dY4(X1 – X).
  • Die Gleichung 11 kann anschließend mithilfe der quadratischen Formel gelöst werden. In Gleichung 11 ist A eine Konstante, während B und C je nach Größe der Werte von X und Y veränderlich sind. Wenn sich die Linien schneiden, die durch Verlängerung der Segmente C1'-C2' und C4'-C3' gebildet werden, entstehen zwei Lösungen, von den eine die T-Koordinate des Schnittpunktes ist, die andere hingegen der korrekte Wert für T. Wenn sich die Linien nicht schneiden, ist die einzige Lösung der korrekte Wert für T. Nachdem der korrekte Wert von T ermittelt ist, wird er erneut in Gleichung 9 zurücksubstituiert, um den entsprechenden Wert für U zu ermitteln.
  • Nachdem C1', C2', C3' und C4' bekannt und die (X, Y)-Koordinaten des externen Cursors 22 ermittelt sind, führt eine direkte Berechnung zu Werten für (T, U), welche die „Maus-Koordinaten" für den internen Cursor 26 der Computerausgabe darstellen, wie das obige Beispiel verdeutlicht. Da das T-U-Koordinatensystem normiert worden ist, können bei der Nachverfolgung alle Koordinaten, bei denen T oder U außerhalb des normierten Bereiches (0 bis 1) liegen, außer Acht gelassen werden, da sie nicht in den Bereich des Bildes 42 der Computerausgabe fallen. Zum Ermitteln der skalierten Werte für die Koordinaten des internen Cursors 26 wird T durch die horizontale Auflösung und U durch die vertikale Auflösung des erfassten Bildes 40 multipliziert. Nachdem durch den Eich- bzw. Ausrichtprozess C1', C2', C3' und C4' ermittelt worden sind, wird wenigstens eine Eigenschaft des externen Cursors 22 überwacht bzw. nachverfolgt, indem wiederholt Frames erfasst und analysiert werden, wie anhand von 3 dargestellt und beschrieben wird. Bei einer erfindungsgemäßen Ausführungsform wird die Position des externen Cursors 22 nur ermittelt, während sich der externe Cursor innerhalb des projizierten Bildes 42 befindet, wohingegen verschiedene andere Eigenschaften des externen Cursors 22, z. B. Form, Farbe, Größe usw., solange überwacht werden, wie sich der externe Cursor 22 innerhalb des erfassten Bildes 40 befindet, d.h., selbst dann, wenn der externe Cursor 22 außerhalb des projizierten Bildes 42 liegt.
  • In 3 ist ein Ablaufdiagramm dargestellt, das die Funktionsweise eines Systems und eines Verfahrens zum Fernsteuern eines Computers nach der vorliegenden Erfindung verdeutlicht. Für Fachleute liegt es auf der Hand, dass das Ablaufdiagramm aus 3 eine beliebige aus einer Reihe bekannter Verarbeitungsstrategien darstellen kann, z. B. ereignisgesteuerte, unterbrechungsgesteuerte, Multitask-, Multithreading- und ähnliche Strategien. Ebenso ist die vorliegende Erfindung unabhängig von einer bestimmten Programmiersprache, einem bestimmten Betriebssystem oder einer Rechnerplattform, die für die Implementierung der Erfindung verwendet werden können. Somit können verschiedene Schritte oder Funktionen, die dargestellt sind, in der abgebildeten Reihenfolge oder parallel ausgeführt werden oder in einigen Fällen vollständig weggelassen werden. Weiterhin ist die Reihenfolge der Verarbeitung in der Darstellung nicht unbedingt für das Erreichen der erfindungsgemäßen Aufgaben, Merkmale und Vorteile erforderlich, sondern dient einer leichteren Darstellung und Beschreibung.
  • Vorzugsweise ist die Steuerlogik aus 3 in einer Software implementiert; die von einem Computer auf Mikroprozessorbasis ausgeführt wird, z. B. von einem Laptop- oder Desktop-Computer, in 1 allgemein als Computer 10 dargestellt. Natürlich können verschiedene Teile oder Funktionen der Steuerlogik als Software, Hardware oder eine Kombination aus Software und Hardware implementiert werden. Das Ablaufdiagramm aus 3 zeigt eine „Schleife" deren einzelne Arbeitsschritte vorzugsweise periodisch oder je nach Erfordernis durch ein internes oder externes Ereignis wiederholt werden, wie dies Fachleuten bekannt ist. Vorzugsweise liegt die in 3 dargestellte Steuerlogik in Form von Daten vor, die auf einem computerlesbaren Speichermedium gespeichert sind, z. B. auf einer Diskette, Festplatte, CD-ROM, einem Band oder einer anderen magnetischen, optischen oder kombinierten Vorrichtung. Das computerlesbare Speichermedium enthält Daten, die Anweisungen darstellen, die von einem Computer ausgeführt werden können, um erfindungsgemäß Befehle zum Fernsteuern eines Computers zu erzeugen.
  • Die Ausgabe aus einem Computer ist dargestellt durch den Block 50 aus 3. Vorzugsweise wird die Ausgabe aus dem Computer auf einem dazugehörigen Bildschirm angezeigt, bei dem es sich, wie oben beschrieben, um einen Computermonitor, einen externen Fernseher oder Monitor oder einen externen „passiven" Bildschirm handeln kann. Wie in Block 52 angegeben, wird auf die Computerausgabe eine Vielzahl von Bezugsmarkierungen oder Retikeln gelegt. Vorzugsweise werden die Bezugsmarkierungen von dem Computer erzeugt und über die Ausgabe gelegt. Mit den Bezugsmarkierungen wird das System ausgerichtet bzw. geeicht. Vorzugsweise befinden sich die Bezugsmarkierungen in den Ecken der Computerausgabe, und die Form der Bezugsmarkierungen ist dem System von vornherein bekannt. Je nach der speziellen Anwendung kann Schritt 52 wiederholt werden. z. B. kann Schritt 52 von dem Nutzer eingeleitet werden, um das System zu eichen, oder in vorgegebenen Zeitabständen automatisch oder aufgrund eines internen oder externen Ereignisses wiederholt werden. z. B. kann Block 52 immer dann wiederholt werden, wenn der externe Cursor nicht in dem Bild erkannt wird.
  • Ein Bild der Computerausgabe wird wie in Block 54 erfasst. Vorzugsweise wird zum Erfassen des Bildes eine Kamera mit einer CCD-Zeile zusammen mit einer geeigneten Frame-Erfassungskarte verwendet. Vorzugsweise enthält das Bild einen wesentlichen Teil der Computerausgabe. In Abhängigkeit von der speziellen Implementierung kann das Bild jedoch lediglich den zentralen Teil oder eine andere Region des Bildschirms für die Anzeige der Computerausgabe enthalten. Als Alternative dazu kann das Bild den gesamten Bildschirm umfassen, der zum Anzeigen der Computeranzeige genutzt wird. Wie in Block 56 dargestellt; wird daraufhin das Bild verarbeitet um die Position der Bezugsmarkierungen zu erkennen. Wie oben angegeben, können die von den Blöcken 52 und 56 dargestellten Operationen wahlweise unter verschiedenen Umständen wiederholt werden. Vorzugsweise wird eine der Bezugsmarkierungen als Ausgangspunkt für ein normiertes Koordinatensystem verwendet, mit dem die Position des externen Cursors in Bezug auf die Computerausgabe wie oben beschrieben ermittelt wird.
  • Nach Beendigung des Eich- oder Ausrichtprozesses werden Bilder wiederholt erfasst und verarbeitet, angegeben durch die Blöcke 5872. Ein erfasstes Bild, dargestellt durch Block 58, wird zum Erkennen wenigstens einer Eigenschaft eines externen Cursors verarbeitet, wie durch Block 60 angegeben. Vorzugsweise handelt es sich bei dem externen Cursor um einen optischen Cursor, der von einem in der Hand gehaltenen Zeigegerät erzeugt wird und wenigstens eine von dem Benutzer auswählbare (veränderbare) Eigenschaft aufweist. Mit der auswählbaren Eigenschaft bzw. den auswählbaren Eigenschaften des Cursors wird der Computer ferngesteuert. Zu Cursoreigenschaften können die Intensität, Farbe, Form oder Größe gehören, dargestellt durch die Blöcke 62, 64, 66 bzw. 68. Darüber hinaus kann zu den Cursoreigenschaften ein bestimmtes Bewegungsmuster gehören, allgemein dargestellt durch die Bezugsziffer 70. Die Position des externen Cursors, dargestellt durch Block 72, wird vorzugsweise ebenfalls in Bezug auf die Position der Bezugsmarkierungen erfasst, wie durch Block 56 angegeben. Zusätzlich können eine oder mehrere Eigenschaften in Kombination verwendet werden, um angemessene Befehle für den Computer zu erzeugen. z. B. kann die Position des externen Cursors, dargestellt durch Block 72, in Kombination mit der Farbe oder Form des Cursors verwendet werden, dargestellt durch die Blöcke 64 bzw. 66, d.h., ausgehend von der Position des Cursors erzeugen die Farbe und/oder Form des externen Cursors unterschiedliche Befehle.
  • Die Eigenschaft bzw. die Eigenschaften des externen Cursors, die in Block 60 ermittelt wurden, werden in entsprechende Befehle zum Steuern des Computers umgewandelt, wie durch Block 74 dargestellt. Dies kann durch eine beliebige aus einer Reihe bekannter Strategien erfolgen. Beispielsweise kann eine Datenstruktur verwendet werden, um verschiedene Eigenschaften oder Kombinationen von Eigenschaften mit entsprechenden Befehlen in einer bestimmten Softwareanwendung zu assoziieren. Vorzugsweise steuern die durch Block 74 erzeugten Befehle die vom Computer erzeugte Bewegung des internen Cursors so, dass die vom Zeigegerät erzeugte Bewegung des externen Cursors eine solche Bewegung des vom Computer erzeugten internen Cursors bewirkt, dass die Bewegung der Cursor synchronisiert wird. Darüber hinaus können verschiedene kontextbezogene oder positionsbezogene Befehle erzeugt werden; indem eine oder mehre re Eigenschaften für eine bestimmte Position des externen Cursors verändert wird/werden.
  • Nachfolgend wird eine repräsentative Anwendung einer erfindungsgemäßen Ausführungsform dargestellt, die einen in der Hand gehaltenen Laserpointer mit drei ausgerichteten Laser-Emittern umfasst, die als ein gleichschenkliges Dreieck angeordnet sind. Ein Emitter des Pointers ist immer aktiv, wenn der Pointer eingeschaltet ist. Ein zweiter Emitter wird wahlweise von dem Nutzer aktiviert, indem er einen ersten Knopf drückt, was zu einem Befehl führt, der einem „Klick auf die linke Maustaste" entspricht. Alle drei Emitter werden wahlweise vom Nutzer aktiviert, indem er einen zweiten Knopf auf dem Laserpointer drückt, wodurch ein Befehl entsteht, der einem „Klicken auf die rechte Maustaste" entspricht. Neben der Tatsache, welcher Knopf (falls überhaupt) gedrückt ist, wird bei dieser Ausführungsform mithilfe verschiedener Eigenschaften, zu denen die Intensität, Farbe und das Muster (die Form) des vom Laser-Pointer erzeugten externen Cursors gehören, die Position des externen Cursors ermittelt. Wenn kein Knopf gedrückt ist, wird ein einzelner Cursor in Form eines Punktes und der Farbe des ersten Emitters mit hoher Intensität innerhalb des erfassten Bild-Frames sichtbar. Wenn der erste Knopf gedrückt wird, ändern sich die Form und Farbe des externen Cursors so, dass ein zweiter Punkt in einem bestimmten Abstand vom ersten Punkt erscheint. Wenn die zweite Taste gedrückt ist, nimmt der externe Cursor noch eine andere Form und Farbe an, bestehend aus zwei zusätzlichen Punkten, die als die restlichen Punkte des gleichschenkligen Dreiecks erscheinen. Die Eigenschaften des externen Cursors werden von dem System erkannt und verarbeitet, wodurch die entsprechenden Befehle zum Fernsteuern des Computers erzeugt werden.
  • Zwar wurden hier Ausführungsformen der Erfindung abgebildet und beschrieben, doch diese sind nicht als die einzig möglichen Formen der Erfindung aufzufassen. Vielmehr dienen die in der Patentschrift verwendeten Begriffe der Beschreibung und nicht der Eingrenzung, denn es wird davon ausgegangen, dass verschiedene Änderungen vorgenommen werden können, ohne vom Schutzumfang der Erfindung abzuweichen.

Claims (16)

  1. Verfahren zum Fernbedienen eines Computers (10) mit einem zugehörigen Bildschirm (18) zum Anzeigen einer Ausgabe von dem Computer (16) und einem internen Cursor, der von dem Computer (10) erzeugt wird, wobei das Verfahren umfasst: Ermitteln wenigstens einer Eigenschaft eines externen optischen Cursors (22) und der Position des externen optischen Cursors relativ zu der Ausgabe (16) von dem Computer (10), wobei kennzeichnende Eigenschaften des externen optischen Cursors von vornherein bekannt sind; Erzeugen eines Befehls zum Bewegen des internen Cursors an eine Position auf dem Bildschirm (18), die der Position des externen optischen Cursors (22) entpricht; und Erzeugen eines Befehls für den Computer auf Basis der wenigstens einen ermittelten Eigenschaft des externen optischen Cursors (22), dadurch gekennzeichnet, dass das Verfahren die folgenden Schritte umfasst: Projizieren einer Vielzahl von Bezugsmarkierungen (28) auf den zugehörigen Bildschirm (18); Ermitteln der Position der Bezugsmarkierungen (28) relativ zu der Ausgabe von dem Computer (10), wobei der Schritt des Erfassens wenigstens einer Eigenschaft das Erfassen der Position des externen Cursors (22) relativ zu wenigstens einer der Bezugsmarkierungen (28) einschließt; und wobei die kennzeichnenden Eigenschaften der Bezugsmarkierung (28) ebenfalls von vornherein bekannt sind.
  2. Verfahren nach Anspruch 1, wobei der Schritt des Ermittelns umfasst: Erfassen eines Bildes des Bildschirms (18) und des externen Cursors (22) mit einer Kamera (14); und Verarbeiten des Bildes, um die wenigstens eine Eigenschaft des externen Cursors (22) zu ermitteln.
  3. Verfahren nach Anspruch 2, wobei der Schritt des Verarbeitens des Bildes umfasst: Vergleichen des Bildes mit einem zuvor erfassten Bild, um Unterschiede zwischen dem Bild und dem zuvor erfassten Bild zu ermitteln.
  4. Verfahren nach Anspruch 2, wobei der Schritt des Verarbeitens des Bildes umfasst: Filtern des Bildes, um die wenigstens eine Eigenschaft des externen Cursors (22) zu ermitteln.
  5. Verfahren nach Anspruch 4, wobei der Schritt des Filterns Schwellenwertverarbeitung des Bildes umfasst, um die Intensität des externen Cursors (22) relativ zur Intensität der Computerausgabe zu ermitteln.
  6. Verfahren nach Anspruch 4, wobei der Schritt des Filterns das Filtern des Bildes umfasst, um die Farbe des externen Cursors zu ermitteln.
  7. Verfahren nach Anspruch 4, wobei der Schritt des Filterns das Filtern des Bildes umfasst, um die Form des externen Cursors (22) zu ermitteln.
  8. Verfahren nach Anspruch 1, das des Weiteren das Senden des externen Cursors (22) zu dem Bildschirm (18) unter Verwendung einer Quelle gerichteter Lichtenergie umfasst.
  9. Verfahren nach Anspruch 1, wobei der zugehörige Bildschirm (18) eine im Wesentlichen plane Fläche, die entfernt außerhalb des Computers (10) angeordnet ist, und jeder beliebige zugehörige Monitor (20) ist, und das Verfahren des Weiteren das Projizieren eines Bildes der Ausgabe von dem Computer (10) auf den zugehörigen Bildschirm (18) umfasst.
  10. Verfahren nach Anspruch 1, wobei der zugehörige Bildschirm (18) ein Computermonitor ist.
  11. Verfahren nach Anspruch 1, wobei der Schritt des Ermittelns wenigstens einer Eigenschaft des externen Cursors (22) das Ermitteln eines Musters der Bewegung des externen Cursors (22) umfasst.
  12. Verfahren nach Anspruch 1, wobei der Schritt des Erzeugens eines Befehls für den Computer das Erzeugen eines Befehls auf Basis der Position des externen Cursors (22) nur dann umfasst, wenn sich der externe Cursor innerhalb eines Bereiches befindet, der durch die Vielzahl von Bezugsmarkierungen (28) abgegrenzt wird.
  13. Verfahren nach Anspruch 1, wobei der Schritt des Erzeugens eines Befehls für den Computer (10) das Erzeugen eines Befehls auf Basis der Position des externen Cursors (22), wenn sich der externe Cursor innerhalb eines Bereiches, der durch die Vielzahl von Bezugsmarkierungen (28) abgegrenzt wird, jedoch außerhalb der Ausgabe von dem Computer befindet, und das Erzeugen eines Befehls für den Computer auf Basis der wenigstens einen Eigenschaft umfasst, wenn die Position des externen Cursors (22) innerhalb des zugehörigen Bildschirms (18) liegt.
  14. Verfahren nach Anspruch 1, wobei der Schritt des Ermittelns das Ermitteln eines Musters der Bewegung des externen Cursors (22) umfasst.
  15. Computer-Präsentationssystem zum Erzeugen von Befehlen zum Fernbedienen eines Computers (10) auf Basis einer Vielzahl von durch den Benutzer wählbaren Eigenschaften eines optischen Cursors (22), der mit einem Hand-Zeigegerät (24) erzeugt und auf einen Bildschirm (18) projiziert wird, der Ausgabe (16) von dem Computer (10) anzeigt, wobei kennzeichnende Eigenschaften des optischen Cursors (22) von vornherein bekannt sind und das System umfasst: eine Kamera (14), die ein Bild der Ausgabe (16) von dem Computer (10) erfasst; und eine Verarbeitungseinrichtung, die mit der Kamera (14) in Verbindung steht, um das Bild zu bearbeiten und die Position des optischen Cursors (22) sowie wenigstens eine Eigenschaft des optischen Cursors (22) zu ermitteln und die Position sowie wenigstens eine Eigenschaft in entsprechende Befehle zum Steuern des Computers (10) umzuwandeln und einen internen Cursor an eine Position zu bewegen, die dem optischen Cursor (22) entspricht, wenn der optische Cursor (22) innerhalb der Ausgabe bleibt, die auf dem Bildschirm (18) angezeigt wird, dadurch gekennzeichnet, dass: die Verarbeitungseinrichtung so eingerichtet ist, dass sie eine Vielzahl von Bezugsmarkierungen (28) über die Computerausgabe legt; und wobei die Verarbeitungseinrichtung: die Position der Bezugsmarkierungen (28) relativ zu der Ausgabe (16) von dem Computer ermittelt, und die kennzeichnenden Eigenschaften der Bezugsmarkierungen (28) ebenfalls von vornherein bekannt sind, und die Position des optischen Cursors (22) relativ zu wenigstens einer der Bezugsmarkierungen (28) ermittelt.
  16. Computerlesbares Speichermedium, auf dem Daten gespeichert sind, die von einem Computer (10) ausführbare Anweisungen zum Erzeugen von Befehlen zum Steuern des Computers (10) auf Basis eines externen optischen Cursors (22) dar stellen, der auf ein Bild einer Ausgabe (16) projiziert wird, die von dem Computer (10) erzeugt wird, wobei kennzeichnende Eigenschaften des optischen Cursors (22) von vornherein bekannt sind und das computerlesbare Speichermedium umfasst: Anweisungen zum Bearbeiten eines Bildes der Ausgabe, um wenigstens eine Eigenschaft des externen optischen Cursors (22) einschließlich der Position des externen Cursors relativ zu der Ausgabe (16) zu ermitteln; und Anweisungen zum Umwandeln der Position und der wenigstens einen Eigenschaft in einen Befehl zum Steuern des Computers (10), um einen internen Cursor an eine Position zu bewegen, die dem externen optischen Cursor (22) entspricht, dadurch gekennzeichnet, dass das Speichermedium des Weiteren umfasst: Anweisungen zum Projizieren einer Vielzahl von Bezugsmarkierungen (28) auf das Bild der Ausgabe (16); Anweisungen zum Ermitteln der Position der Bezugsmarkierungen (28) relativ zur Ausgabe (16) von dem Computer (10) und Anweisungen zum Ermitteln der Position des externen optischen Cursors (22) relativ zu wenigstens einer der Bezugsmarkierungen (28); und wobei die kennzeichnenden Eigenschaften der Bezugsmarkierungen (28) ebenfalls von vornherein bekannt sind.
DE60023900T 1999-07-06 2000-06-21 Darstellungssysem für rechner und optisches spurfolgeverfahren eines drahtlosen zeigers Expired - Lifetime DE60023900T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/347,761 US6275214B1 (en) 1999-07-06 1999-07-06 Computer presentation system and method with optical tracking of wireless pointer
US347761 1999-07-06
PCT/US2000/017070 WO2001003106A1 (en) 1999-07-06 2000-06-21 Computer presentation system and method with optical tracking of wireless pointer

Publications (2)

Publication Number Publication Date
DE60023900D1 DE60023900D1 (de) 2005-12-15
DE60023900T2 true DE60023900T2 (de) 2006-07-20

Family

ID=23365173

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60023900T Expired - Lifetime DE60023900T2 (de) 1999-07-06 2000-06-21 Darstellungssysem für rechner und optisches spurfolgeverfahren eines drahtlosen zeigers

Country Status (7)

Country Link
US (2) US6275214B1 (de)
EP (1) EP1200955B1 (de)
JP (1) JP4822643B2 (de)
AU (1) AU5754900A (de)
CA (1) CA2378154C (de)
DE (1) DE60023900T2 (de)
WO (1) WO2001003106A1 (de)

Families Citing this family (148)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7119788B2 (en) * 1998-12-17 2006-10-10 Sony Corporation Image processing apparatus, image processing method, providing medium and presentation system
JP3817385B2 (ja) * 1999-03-11 2006-09-06 インターナショナル・ビジネス・マシーンズ・コーポレーション マウスポインタの表示方法
US6952198B2 (en) * 1999-07-06 2005-10-04 Hansen Karl C System and method for communication with enhanced optical pointer
US6275214B1 (en) * 1999-07-06 2001-08-14 Karl C. Hansen Computer presentation system and method with optical tracking of wireless pointer
GB2353111A (en) * 1999-08-07 2001-02-14 Ibm System for wireless communications between computers
US6727885B1 (en) * 1999-09-07 2004-04-27 Nikon Corporation Graphical user interface and position or attitude detector
US20010010514A1 (en) * 1999-09-07 2001-08-02 Yukinobu Ishino Position detector and attitude detector
US20030174125A1 (en) * 1999-11-04 2003-09-18 Ilhami Torunoglu Multiple input modes in overlapping physical space
US20010004232A1 (en) * 1999-12-14 2001-06-21 Kiyomi Sakamoto Command control device and navigation device
WO2001052230A1 (en) * 2000-01-10 2001-07-19 Ic Tech, Inc. Method and system for interacting with a display
JP2001222375A (ja) * 2000-02-08 2001-08-17 Seiko Epson Corp 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体
JP4018326B2 (ja) * 2000-08-07 2007-12-05 キヤノン株式会社 座標入力装置及びその制御方法、コンピュータ可読メモリ
US6704000B2 (en) * 2000-11-15 2004-03-09 Blue Iris Technologies Method for remote computer operation via a wireless optical device
WO2002052527A1 (en) * 2000-12-25 2002-07-04 Orhan Seyfi Aksakal Presentation management system
JP3785935B2 (ja) * 2001-03-15 2006-06-14 日本電気株式会社 線分検出器
GB2374663A (en) * 2001-04-18 2002-10-23 Nokia Corp Presentation of images
JP2002324232A (ja) * 2001-04-25 2002-11-08 Nikon Corp 画像処理方法
US20040125076A1 (en) * 2001-06-08 2004-07-01 David Green Method and apparatus for human interface with a computer
US6729731B2 (en) * 2001-06-11 2004-05-04 Info Valley Corporation Untethered laser pointer for use with computer display
JP2003108305A (ja) * 2001-09-28 2003-04-11 Fuji Photo Optical Co Ltd プレゼンテーションシステム
US7075512B1 (en) * 2002-02-07 2006-07-11 Palmsource, Inc. Method and system for navigating a display screen for locating a desired item of information
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US6982697B2 (en) * 2002-02-07 2006-01-03 Microsoft Corporation System and process for selecting objects in a ubiquitous computing environment
US6909406B2 (en) * 2002-03-15 2005-06-21 Dell Products L.P. System and method for selecting a presentation mode
US7113169B2 (en) * 2002-03-18 2006-09-26 The United States Of America As Represented By The Secretary Of The Air Force Apparatus and method for a multiple-user interface to interactive information displays
US20030222849A1 (en) * 2002-05-31 2003-12-04 Starkweather Gary K. Laser-based user input device for electronic projection displays
US20040001082A1 (en) * 2002-06-26 2004-01-01 Amir Said System and method of interaction with a computer controlled image display system using a projected light source
JP3867205B2 (ja) * 2002-08-30 2007-01-10 カシオ計算機株式会社 指示位置検出装置、及び指示位置検出システム、並びに指示位置検出方法
US6885553B2 (en) * 2002-09-27 2005-04-26 Rockwell Automation Technologies, Inc. Bus bar assembly for use with a compact power conversion assembly
CN100334531C (zh) 2002-11-20 2007-08-29 皇家飞利浦电子股份有限公司 基于指示设备的用户接口系统
SG134976A1 (en) * 2002-11-26 2007-09-28 Sony Corp Data input to a computer system defining a three-dimensional model
GB0229772D0 (en) * 2002-12-23 2003-01-29 Univ Nottingham Optically triggered interactive apparatus and method of triggering said apparatus
US7549131B2 (en) * 2002-12-31 2009-06-16 Apple Inc. Method of controlling movement of a cursor on a screen and a computer readable medium containing such a method as a program code
WO2004081783A1 (ja) * 2003-03-14 2004-09-23 Fujitsu Limited ポインタ領域検出装置、方法及びプログラム、画像の対応付け装置、方法及びプログラム、並びにコンテンツ配信サーバ、コンテンツ配信方法
JP2004318823A (ja) * 2003-03-28 2004-11-11 Seiko Epson Corp 情報表示システム、情報処理装置、ポインティング装置および情報表示システムにおけるポインタマーク表示方法
US20040200955A1 (en) * 2003-04-08 2004-10-14 Aleksandr Andzelevich Position detection of a light source
US7193608B2 (en) * 2003-05-27 2007-03-20 York University Collaborative pointing devices
TW578031B (en) * 2003-06-20 2004-03-01 Benq Corp Projection system with an image capturing device
US7209116B2 (en) 2003-10-08 2007-04-24 Universal Electronics Inc. Control device having integrated mouse and remote control capabilities
TWI226784B (en) * 2003-10-20 2005-01-11 Ind Tech Res Inst Multi-trails spot click-event detection method
US7420540B2 (en) * 2003-12-01 2008-09-02 Olbrich Craig A Determining positioning and/or relative movement of graphical-user interface element based on display images
CN1898708B (zh) * 2003-12-18 2012-01-11 皇家飞利浦电子股份有限公司 对设备进行控制的方法和系统
US20050140930A1 (en) * 2003-12-31 2005-06-30 Symbol Technologies, Inc. Color laser projection display
JP4220408B2 (ja) * 2004-02-13 2009-02-04 株式会社日立製作所 テーブル型情報端末
WO2005104010A2 (en) 2004-04-15 2005-11-03 Gesture Tek, Inc. Tracking bimanual movements
US7492357B2 (en) * 2004-05-05 2009-02-17 Smart Technologies Ulc Apparatus and method for detecting a pointer relative to a touch surface
US20060197756A1 (en) * 2004-05-24 2006-09-07 Keytec, Inc. Multi-mode optical pointer for interactive display system
US7683881B2 (en) * 2004-05-24 2010-03-23 Keytec, Inc. Visual input pointing device for interactive display system
WO2005119356A2 (en) 2004-05-28 2005-12-15 Erik Jan Banning Interactive direct-pointing system and calibration method
US8842186B2 (en) * 2004-10-25 2014-09-23 I-Interactive Llc Control system and method employing identification of a displayed image
NO323926B1 (no) * 2004-11-12 2007-07-23 New Index As Visuelt system samt styringsobjekt og apparat til bruk i systemet.
EP2487624B1 (de) 2005-01-07 2020-02-19 Qualcomm Incorporated(1/3) Erkennung und Verfolgung von Objekten in Bildern
US7852317B2 (en) * 2005-01-12 2010-12-14 Thinkoptics, Inc. Handheld device for handheld vision based absolute pointing system
JP4689684B2 (ja) 2005-01-21 2011-05-25 ジェスチャー テック,インコーポレイテッド 動作に基づくトラッキング
JPWO2006085580A1 (ja) * 2005-02-10 2008-06-26 株式会社タクラム・デザイン・エンジニアリング ポインタ光トラッキング方法、プログラムおよびその記録媒体
US20080180395A1 (en) * 2005-03-04 2008-07-31 Gray Robert H Computer pointing input device
TWI281623B (en) * 2005-05-10 2007-05-21 Pixart Imaging Inc Orientation point orientating method of orientation device and device thereof
US20060256293A1 (en) * 2005-05-11 2006-11-16 Lawson Jack L Image projection system
US8427426B2 (en) * 2005-05-27 2013-04-23 Sony Computer Entertainment Inc. Remote input device
US7548230B2 (en) * 2005-05-27 2009-06-16 Sony Computer Entertainment Inc. Remote input device
US9285897B2 (en) 2005-07-13 2016-03-15 Ultimate Pointer, L.L.C. Easily deployable interactive direct-pointing system and calibration method therefor
TWI305892B (en) * 2005-11-23 2009-02-01 Inst Information Industry Apparatus, computer equipment, method and computer readable media for simultaneously controlling a cursor and an optical pointer
WO2007078021A1 (en) * 2006-01-05 2007-07-12 Pointchips Co., Ltd. Appartus for remote pointing using image sensor and method of the same
US8913003B2 (en) 2006-07-17 2014-12-16 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer using a projection marker system
US20080052750A1 (en) * 2006-08-28 2008-02-28 Anders Grunnet-Jepsen Direct-point on-demand information exchanges
JP2008033389A (ja) * 2006-07-26 2008-02-14 Fuji Xerox Co Ltd 機能指示システム、機能指示装置、機能指示解析システム、プレゼンテーションシステムおよび機能指示解析プログラム。
US8089455B1 (en) 2006-11-28 2012-01-03 Wieder James W Remote control with a single control button
CN101636745A (zh) * 2006-12-29 2010-01-27 格斯图尔泰克股份有限公司 使用增强型交互系统操纵虚拟对象
US20080169132A1 (en) * 2007-01-03 2008-07-17 Yao Ding Multiple styli annotation system
US20080170033A1 (en) * 2007-01-15 2008-07-17 International Business Machines Corporation Virtual pointer
US8614675B2 (en) * 2007-01-25 2013-12-24 Microsoft Corporation Automatic mode determination for an input device
US8928499B2 (en) * 2007-01-25 2015-01-06 Microsoft Corporation Input device with multiple sets of input keys
JP2008219788A (ja) * 2007-03-07 2008-09-18 Toshiba Corp 立体画像表示装置、方法およびプログラム
US8438480B2 (en) * 2007-03-26 2013-05-07 Avago Technologies General Ip (Singapore) Pte. Ltd. System and method for tracking an input device using a display screen in captured frames of image data
US9176598B2 (en) * 2007-05-08 2015-11-03 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer with improved performance
EP1990021B1 (de) * 2007-05-09 2011-07-06 BrainLAB AG Medizinisches Instrument mit separater Sendereinheit zur Ansteuerung einer behandlungsunterstützenden Software, sowie Instrumentensystem
TWI406153B (zh) * 2007-06-12 2013-08-21 Quanta Comp Inc 游標控制方法及應用該游標控制方法之簡報系統及電腦可讀取儲存媒體
CN101334700B (zh) * 2007-06-27 2013-04-10 广达电脑股份有限公司 光标控制方法、简报系统及计算机可读取存储媒体
TW200903306A (en) * 2007-07-12 2009-01-16 Utechzone Co Ltd System, control module, and method for remotely controlling a computer with optical tracking of an optical pointer
US20090058805A1 (en) * 2007-08-25 2009-03-05 Regina Eunice Groves Presentation system and method for making a presentation
US8330730B1 (en) * 2007-09-04 2012-12-11 Imaging Systems Technology, Inc. Calibrating of interactive touch system for image compositing
JP4636064B2 (ja) 2007-09-18 2011-02-23 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US20090091532A1 (en) * 2007-10-04 2009-04-09 International Business Machines Corporation Remotely controlling computer output displayed on a screen using a single hand-held device
TWI355511B (en) * 2007-10-08 2012-01-01 Opus Microsystems Corp Laser pointer with the pattern and size of project
US8188973B2 (en) * 2007-11-07 2012-05-29 Omnivision Technologies, Inc. Apparatus and method for tracking a light pointer
US7862179B2 (en) * 2007-11-07 2011-01-04 Omnivision Technologies, Inc. Dual-mode projection apparatus and method for locating a light spot in a projected image
EP2218252A4 (de) * 2007-11-07 2013-02-27 Omnivision Tech Inc Projektionsvorrichtung und verfahren mit zwei betriebsarten zum lokalisieren eines lichtflecks in einem projizierten bild
US20090132926A1 (en) * 2007-11-21 2009-05-21 Samsung Electronics Co., Ltd. Interactive presentation system and authorization method for voice command controlling interactive presentation process
TWI351653B (en) * 2008-02-01 2011-11-01 Quanta Comp Inc System and method for determining coordinates
EP2281230A1 (de) * 2008-04-10 2011-02-09 Karl Christopher Hansen Einfach benutzbare optische drahtlose fernbedienung
US20090309834A1 (en) * 2008-06-16 2009-12-17 Upmc Laser Pointer Mouse
JP5120136B2 (ja) * 2008-08-05 2013-01-16 ブラザー工業株式会社 表示制御装置及びそれに用いるリモコン並びにテレビ会議システム。
DE102008037176A1 (de) 2008-08-09 2010-03-04 Advanced Realtime Tracking Gmbh Vorrichtung zur Bestimmung der Richtung eines Lichtstrahls
FR2938665B1 (fr) * 2008-11-18 2011-01-21 Optinnova Dispositif de visualisation interactif optiquement a hauteur de projection variable
US8194038B1 (en) * 2009-03-10 2012-06-05 I-Interactive Llc Multi-directional remote control system and method with automatic cursor speed control
WO2010120304A2 (en) * 2009-04-16 2010-10-21 Hewlett-Packard Development Company, L.P. Communicating visual representations in virtual collaboration systems
TWM368133U (en) * 2009-07-09 2009-11-01 Waltop Int Corp Dual mode input device
US8292439B2 (en) * 2009-09-06 2012-10-23 Yang Pan Image projection system with adjustable cursor brightness
US8384664B2 (en) * 2009-09-23 2013-02-26 John Paul Studdiford Opto-electronic system for controlling presentation programs
KR20110058438A (ko) * 2009-11-26 2011-06-01 삼성전자주식회사 프리젠테이션 녹화 장치 및 방법
KR20110069958A (ko) * 2009-12-18 2011-06-24 삼성전자주식회사 프로젝터 기능의 휴대 단말기의 데이터 생성 방법 및 장치
US20110230238A1 (en) * 2010-03-17 2011-09-22 Sony Ericsson Mobile Communications Ab Pointer device to navigate a projected user interface
US8818027B2 (en) 2010-04-01 2014-08-26 Qualcomm Incorporated Computing device interface
US9213440B2 (en) 2010-07-27 2015-12-15 Hewlett-Packard Development Company L.P. System and method for remote touch detection
TW201211859A (en) * 2010-09-02 2012-03-16 Inst Information Industry Laser light spot trajectory tracking event triggering method, system and computer program product thereof
KR101074087B1 (ko) 2010-10-08 2011-10-17 엘지이노텍 주식회사 카메라를 이용한 마우스
JP5853394B2 (ja) 2011-04-07 2016-02-09 セイコーエプソン株式会社 カーソル表示システム、カーソル表示方法、及び、プロジェクター
JP2013070368A (ja) * 2011-09-05 2013-04-18 Panasonic Corp テレビ対話システム、端末および方法
CN102346595A (zh) * 2011-09-23 2012-02-08 苏州泛普纳米科技有限公司 基于纳米触控膜的成像一体桌
CN103092432B (zh) * 2011-11-08 2016-08-03 深圳市中科睿成智能科技有限公司 人机交互操作指令的触发控制方法和系统及激光发射装置
JP2013131990A (ja) * 2011-12-22 2013-07-04 Ricoh Co Ltd 情報処理装置及びプログラム
CN102662509B (zh) * 2012-03-26 2015-06-03 苏州泛普纳米科技有限公司 基于丝网印刷技术的触控橱窗
TW201344510A (zh) * 2012-04-25 2013-11-01 Hon Hai Prec Ind Co Ltd 鐳射標注系統及標注方法
TW201349029A (zh) * 2012-05-21 2013-12-01 Everest Display Inc 具光點辨識之互動投影系統以及控制方法
KR20140024769A (ko) * 2012-08-21 2014-03-03 삼성전자주식회사 지시 포인터를 이용한 프로젝터의 이벤트 처리를 위한 방법 및 그 전자 장치
CN105138194A (zh) * 2013-01-11 2015-12-09 海信集团有限公司 一种定位方法及电子设备
CN104020863B (zh) * 2013-02-28 2018-03-27 联想(北京)有限公司 一种数据处理方法及电子设备
CN104035546A (zh) * 2013-03-04 2014-09-10 台达电子工业股份有限公司 游标控制装置
TWI486814B (zh) * 2013-03-04 2015-06-01 Delta Electronics Inc 游標控制裝置以及方法
TW201445433A (zh) * 2013-05-30 2014-12-01 Univ Nat Taiwan Normal 互動式顯示系統
JP2015043556A (ja) * 2013-07-24 2015-03-05 株式会社リコー 情報処理装置、画像投影システム、及びプログラム
JP2015043066A (ja) * 2013-07-25 2015-03-05 株式会社リコー 画像投影装置
CN103425409B (zh) * 2013-07-30 2017-12-15 华为终端(东莞)有限公司 投影显示的控制方法和装置
TWI499943B (zh) * 2013-09-25 2015-09-11 Univ Nat Taiwan Science Tech 計算機系統、其操作方法及其電腦程式產品
US10185445B2 (en) 2013-10-14 2019-01-22 Touchjet Pte. Ltd. Determining touch signals from interactions with a reference plane proximate to a display surface
US20150103054A1 (en) * 2013-10-14 2015-04-16 Touchjet Pte. Ltd. Photoelectric touch assembly, photoelectric touch method and projector with touch function
TWI518574B (zh) * 2013-12-25 2016-01-21 光峰科技股份有限公司 互動式顯示系統及其輸入裝置
CN105302283B (zh) * 2014-06-06 2019-05-07 洪水和 映射投影的控制系统及其控制方法
US10192335B1 (en) 2014-08-25 2019-01-29 Alexander Wellen Remote control highlighter
WO2016048262A1 (en) * 2014-09-22 2016-03-31 Hewlett-Packard Development Company, L.P. Cursor control using images
JP6477131B2 (ja) * 2015-03-27 2019-03-06 セイコーエプソン株式会社 インタラクティブプロジェクター,インタラクティブプロジェクションシステム,およびインタラクティブプロジェクターの制御方法
ES2600310B1 (es) * 2015-08-07 2017-09-08 Miguel SANZ FERNÁNDEZ Sistema y procedimiento para emulación de ratón mediante haz de luz
DE102016100669A1 (de) * 2016-01-15 2017-07-20 Technisat Digital Gmbh Anordnung, Vorrichtung, Bedienteil sowie Verfahren zum Bedienen
US11216847B2 (en) 2016-03-22 2022-01-04 Sensormatic Electronics, LLC System and method for retail customer tracking in surveillance camera network
US10318836B2 (en) * 2016-03-22 2019-06-11 Sensormatic Electronics, LLC System and method for designating surveillance camera regions of interest
US10347102B2 (en) 2016-03-22 2019-07-09 Sensormatic Electronics, LLC Method and system for surveillance camera arbitration of uplink consumption
US10665071B2 (en) 2016-03-22 2020-05-26 Sensormatic Electronics, LLC System and method for deadzone detection in surveillance camera network
US10475315B2 (en) 2016-03-22 2019-11-12 Sensormatic Electronics, LLC System and method for configuring surveillance cameras using mobile computing devices
US10733231B2 (en) 2016-03-22 2020-08-04 Sensormatic Electronics, LLC Method and system for modeling image of interest to users
US11601583B2 (en) 2016-03-22 2023-03-07 Johnson Controls Tyco IP Holdings LLP System and method for controlling surveillance cameras
US10764539B2 (en) 2016-03-22 2020-09-01 Sensormatic Electronics, LLC System and method for using mobile device of zone and correlated motion detection
US9965680B2 (en) 2016-03-22 2018-05-08 Sensormatic Electronics, LLC Method and system for conveying data from monitored scene via surveillance cameras
CN105912145A (zh) * 2016-04-15 2016-08-31 武汉邮电科学研究院 一种激光笔鼠标系统及其图像定位方法
US20180059863A1 (en) * 2016-08-26 2018-03-01 Lenovo (Singapore) Pte. Ltd. Calibration of pen location to projected whiteboard
CN108021326A (zh) * 2016-11-04 2018-05-11 中强光电股份有限公司 交互式显示设备
CN106598288A (zh) * 2016-11-22 2017-04-26 张新民 激光笔鼠标定位系统及方法
CN106960559A (zh) * 2017-03-24 2017-07-18 微鲸科技有限公司 屏幕显示装置、显示内容控制方法、遥控系统和遥控方法
CN108279838B (zh) * 2018-01-16 2021-11-12 安徽慧视金瞳科技有限公司 一种激光笔远程交互方法

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4593157A (en) 1984-09-04 1986-06-03 Usdan Myron S Directory interface and dialer
FR2571191B1 (fr) 1984-10-02 1986-12-26 Renault Systeme de radiotelephone, notamment pour vehicule automobile
US4827500A (en) 1987-01-30 1989-05-02 American Telephone And Telegraph Company, At&T Bell Laboratories Automatic speech recognition to select among call destinations
JP2927891B2 (ja) 1989-06-19 1999-07-28 日本電気株式会社 音声ダイヤル装置
JP2622620B2 (ja) * 1989-11-07 1997-06-18 プロクシマ コーポレイション コンピュータにより発生されたデイスプレイ可視像を変更するためのコンピュータ入力システム
US5502459A (en) * 1989-11-07 1996-03-26 Proxima Corporation Optical auxiliary input arrangement and method of using same
JPH03179517A (ja) * 1989-12-08 1991-08-05 Hitachi Ltd ポインティングデバイス装置及び入力方法
US5138304A (en) * 1990-08-02 1992-08-11 Hewlett-Packard Company Projected image light pen
US5204894A (en) 1990-11-09 1993-04-20 Bell Atlantic Network Services, Inc. Personal electronic directory
US5758021A (en) 1992-06-12 1998-05-26 Alcatel N.V. Speech recognition combining dynamic programming and neural network techniques
US5483579A (en) 1993-02-25 1996-01-09 Digital Acoustics, Inc. Voice recognition dialing system
US5452340A (en) 1993-04-01 1995-09-19 Us West Advanced Technologies, Inc. Method of voice activated telephone dialing
US5504805A (en) 1993-04-05 1996-04-02 At&T Corp. Calling number identification using speech recognition
US5515040A (en) * 1993-09-28 1996-05-07 Sejin Electron, Incorporated Methods of self-calibration for a key-type mouse
US5712658A (en) * 1993-12-28 1998-01-27 Hitachi, Ltd. Information presentation apparatus and information display apparatus
JPH07261920A (ja) * 1994-03-17 1995-10-13 Wacom Co Ltd 光学式位置検出装置および光学式座標入力装置
JPH07319616A (ja) * 1994-05-26 1995-12-08 Hitachi Ltd 位置入力方法およびそれを用いた会議支援システム
US5926168A (en) 1994-09-30 1999-07-20 Fan; Nong-Qiang Remote pointers for interactive televisions
US5509049A (en) 1994-10-31 1996-04-16 Voicetech Communications, Inc. Automatic dialing of number received from directory assistance from within cellular system
JP3270643B2 (ja) * 1994-12-22 2002-04-02 キヤノン株式会社 指示位置検出方法及び装置
FR2731290A1 (fr) * 1995-03-01 1996-09-06 Oriot Jean Claude Telecommande virtuelle a laser
JPH08331667A (ja) * 1995-05-30 1996-12-13 Oki Electric Ind Co Ltd ポインティングシステム
JPH0962444A (ja) * 1995-08-22 1997-03-07 Hitachi Ltd 指示情報入力装置
JPH0980372A (ja) * 1995-09-07 1997-03-28 Toshiba Corp 投写型表示装置
JPH09222951A (ja) * 1996-02-19 1997-08-26 Hainetsuto 21:Kk ディスプレイシステム
JPH09251285A (ja) * 1996-03-15 1997-09-22 Hitachi Ltd ポインティング位置表示方法
JP3257585B2 (ja) * 1996-03-29 2002-02-18 株式会社ビジュアルサイエンス研究所 空間マウスを用いた映像化装置
JPH1055249A (ja) * 1996-08-12 1998-02-24 Fuji Xerox Co Ltd 指示入力検出装置および記録再生装置
JPH1083246A (ja) * 1996-09-06 1998-03-31 Nec Corp コンピュータ用座標入力装置
US6058690A (en) * 1997-01-29 2000-05-09 Rutt; Larry L. Harvester
US5914783A (en) 1997-03-24 1999-06-22 Mistubishi Electric Information Technology Center America, Inc. Method and apparatus for detecting the location of a light source
JP3937533B2 (ja) * 1997-11-07 2007-06-27 セイコーエプソン株式会社 遠隔座標入力装置および遠隔座標入力方法
US6050690A (en) 1998-01-08 2000-04-18 Siemens Information And Communication Networks, Inc. Apparatus and method for focusing a projected image
US6275214B1 (en) 1999-07-06 2001-08-14 Karl C. Hansen Computer presentation system and method with optical tracking of wireless pointer

Also Published As

Publication number Publication date
CA2378154C (en) 2012-09-18
EP1200955A1 (de) 2002-05-02
US7091949B2 (en) 2006-08-15
JP4822643B2 (ja) 2011-11-24
US6275214B1 (en) 2001-08-14
WO2001003106A1 (en) 2001-01-11
EP1200955A4 (de) 2002-09-04
CA2378154A1 (en) 2001-01-11
DE60023900D1 (de) 2005-12-15
JP2003504705A (ja) 2003-02-04
AU5754900A (en) 2001-01-22
EP1200955B1 (de) 2005-11-09
US20010045940A1 (en) 2001-11-29

Similar Documents

Publication Publication Date Title
DE60023900T2 (de) Darstellungssysem für rechner und optisches spurfolgeverfahren eines drahtlosen zeigers
DE69530395T2 (de) Interaktives projektiertes videobildanzeigesystem
DE3153375C2 (de)
DE69726421T2 (de) Projektor mit einer schaltung und verfahren zum automatischen einstellen des projektors
DE60028894T2 (de) Präsentationssystem mit einer interaktiven Darstellung
DE60205662T2 (de) Vorrichtung und Verfahren zur Berechnung einer Position einer Anzeige
DE60025926T2 (de) Steuerung der tiefenbewegung in einer anzeigevorrichtung mit mehrschichtigem bildschirm
DE60314108T2 (de) Bilderzeugungsgerät
EP1784978B1 (de) Verfahren und vorrichtung zur darstellung eines digitalen bildes auf einer geometrisch und photometrisch nicht-trivialen oberfläche
DE102017213779A1 (de) Dreidimensionale Messvorrichtung
DE102005050846A1 (de) Perspektiveneditierwerkzeuge für 2-D Bilder
DE102013209415A1 (de) Dynamische Hinweisüberlagerung mit Bildbeschneidung
DE4029774A1 (de) Mehrdimensionale bildanalyse
DE112006003735T5 (de) Bildprojektionsverfahren und -Projektor
DE102006055758A1 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE60106301T2 (de) Verfahren und system für die ausfuhr von datenverbänden zu zweidimensionalen oder dreidimensionalen geometrischen entitäten
DE112018006930T5 (de) Virtuelles-Objekt-Anzeige-Steuerungseinrichtung, Virtuelles-Objekt-Anzeigesystem, Virtuelles-Objekt-Anzeige-Steuerungsverfahren und Virtuelles-Objekt-Anzeige-Steuerungsprogramm
DE102012224365A1 (de) Schnelle Cursor-Lokalisierung
DE102018113589A1 (de) Vorrichtung und Programm zur Positionserfassung
EP3711289B1 (de) Verfahren zur automatischen wiederherstellung eines eingemessenen zustands eines projektionssystems
DE112017001464T5 (de) Abstandmessvorrichtung und Abstandsmessverfahren
DE102019105293A1 (de) Schätzung der Bewegung einer Bildposition
DE4100691A1 (de) Verfahren zur darstellung eines dreidimensionalen modells
EP4118628A2 (de) Verfahren und vorrichtung zum präzisen auswählen einer raumkoordinate mittels eines digitalen bildes
DE69927269T2 (de) Vorrichtung und verfahren zum erkennen und erzeugen grafischer elemente

Legal Events

Date Code Title Description
8364 No opposition during term of opposition