DE69433061T2 - Netzwerk der virtuellen realität - Google Patents

Netzwerk der virtuellen realität Download PDF

Info

Publication number
DE69433061T2
DE69433061T2 DE69433061T DE69433061T DE69433061T2 DE 69433061 T2 DE69433061 T2 DE 69433061T2 DE 69433061 T DE69433061 T DE 69433061T DE 69433061 T DE69433061 T DE 69433061T DE 69433061 T2 DE69433061 T2 DE 69433061T2
Authority
DE
Germany
Prior art keywords
virtual
data
sound
users
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69433061T
Other languages
English (en)
Other versions
DE69433061D1 (de
Inventor
James Durward
Jonathan Levine
Michael Nemeth
Jerry Prettegiani
T. Ian TWEEDIE
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Virtual Universe Corp
Original Assignee
Virtual Universe Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Virtual Universe Corp filed Critical Virtual Universe Corp
Publication of DE69433061D1 publication Critical patent/DE69433061D1/de
Application granted granted Critical
Publication of DE69433061T2 publication Critical patent/DE69433061T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/24Traffic characterised by specific attributes, e.g. priority or QoS
    • A63F13/12
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • A63F13/358Adapting the game course according to the network or server load, e.g. for reducing latency due to different connection speeds between clients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/08Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
    • G09B5/14Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations with provision for individual teacher-student communication
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/24Traffic characterised by specific attributes, e.g. priority or QoS
    • H04L47/2425Traffic characterised by specific attributes, e.g. priority or QoS for supporting services specification, e.g. SLA
    • H04L47/2433Allocation of priorities to traffic types
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1101Session protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/40Network security protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/53Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing
    • A63F2300/534Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing for network load management, e.g. bandwidth optimization, latency reduction
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99941Database schema or data structure
    • Y10S707/99944Object-oriented database structure
    • Y10S707/99945Object-oriented database structure processing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99941Database schema or data structure
    • Y10S707/99948Application of database or data structure, e.g. distributed, multimedia, or image
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S715/00Data processing: presentation processing of document, operator interface processing, and screen saver display processing
    • Y10S715/978Audio interaction as part of an operator interface

Description

  • Diese Erfindung betrifft Systeme für eine virtuelle Realität und insbesondere ein Netzwerk für eine virtuelle Realität, in dem mehrere Benutzer an fernen Orten ein zentrales Kommunikationszentrum anrufen und an einer Erlebniswelt einer virtuellen Realität teilnehmen können.
  • Systeme für eine virtuelle Realität sind computergesteuerte Systeme, die künstliche Welten simulieren und es erlauben, dass Benutzer die künstlichen Welten erfahren und mit diesen in Wechselwirkung treten können, als ob die Benutzer tatsächlich in diesen leben würden. Beispiele von Systemen für eine virtuelle Realität und von Komponenten sind in den U.S. Patenten Nr. 4 542 291; 4 017 858; 4 945 305; 3 983 474; 4 406 532; 5 003 300; 4 984 179; 4 988 981 und 4 757 714 offenbart. Das typische System für eine virtuelle Realität umfasst einen Computer, einen Datenhelm, um dem Benutzer eine künstliche Welt zu zeigen, und Messgeräte zum Erfassen der Position und Orientierung des Benutzers in Bezug auf den Computer oder irgendeinen anderen Bezugspunkt. Die künstliche Welt ist in der Datenbank des Computers definiert. Daten der Messgeräte werden an den Computer übertragen, und der Computer erzeugt ein virtuelles Wesen in der künstlichen Welt, welches die Position, Orientierung und Bewegungen des Benutzers nachbildet. Der Computer überträgt dann grafische Daten an den Datenhelm, der dann die künstliche Welt aus der Perspektive des virtuellen Wesens zeigt. Indem der Benutzer auf eine geeignete Weise gestikuliert, kann er mit virtuellen Objekten in der künstlichen Welt in Wechselwirkung treten, als ob sie real wären. Beispielsweise kann der Benutzer ein künstliches Auto fahren, einen künstlichen Ball werfen, usw.
  • Obwohl es sich erwiesen hat, dass die virtuelle Realität eine aufregende neue Technologie ist, ist sie auch eine sehr teure. Die meiste Hardware für die virtuelle Realität befindet sich an Universitäten und Regierungsbehörden, obwohl manche Passagen für eine virtuelle Realität in großen Einkaufszentren, die sich in großen Städten befinden, aufgebaut worden sind, um ein paar wenige grundlegende Spiele zu spielen. Dennoch ist der Zugang zu ausgefeilten Systemen für eine virtuelle Realität äußerst beschränkt gewesen und ist oftmals für die allgemeine Öffentlichkeit nicht ohne große Umstände verfügbar.
  • Die CHI '92 Conference Proceedings, ACM Conference on Human Factors in Computing Systems, Mai 1992, Monterey, CA, Seiten 329–334, Codella C. et al.: "Interactive Simulation in a Multi-Person Virtual World" offenbart eine Vorrichtung, um es einer Vielzahl von Benutzern zu ermöglichen, mit einem dreidimensionalen virtuellen Raum in Wechselwirkung zu treten, die eine Datenbank, die den Raum definiert, und ein Benutzerschnittstellen-Managementsystem umfasst, das das Mittel für jeden Benutzer, um mit dem virtuellen Raum in Wechselwirkung zu treten, bereitstellt. Bei diesem System befinden sich alle Benutzer an demselben Ort.
  • Die EP 0 479 422 A2 offenbart ein interaktives Echtzeit-Simulatorsystem für mehrere Teilnehmer, das eine vom Benutzer auswählbare Videofahrt ermöglicht. Alle Benutzer sitzen in einem Raum und sind mit dem zentralen-Prozessor über gewöhnliche Übertragungsleitungen verbunden.
  • Die WO 94/17860, die am 2. Februar 1993 eingereicht und am 18. August 1994 veröffentlicht wurde, hat eine Teilpriorität vom 2. Februar 1992 und ist nur im Hinblick auf die vorliegende Erfindung gemäß Art. 54(3) und (4) EPÜ relevant. Sie offenbart eine interaktive Übungsvorrichtung, um mit einem virtuellen Raum in Wechselwirkung zu treten, der an einem Computerbildschirm eines Benutzers angezeigt wird. Die Computer von zwei Benutzern können verbunden werden, um eine Gruppenteilnahme in dem virtuellen Raum zu ermöglichen. Alle Benutzer befinden sich an demselben physikalischen Ort; und der virtuelle Raum, der an den Computerbildschirmen angezeigt wird, ist für alle Benutzer gleich.
  • Die vorliegende Erfindung ist auf ein System für eine virtuelle Realität gerichtet, bei dem mehrere Benutzer, die sich an unterschiedlichen fernen physikalischen Orten befinden, mit dem System über herkömmliche Wähltelefonleitungen kommunizieren können und unabhängige und/oder interaktive/gemeinschaftliche Aufgaben in dem System durchführen können, unterstützt durch Audioübertragungen zwischen den Benutzern.
  • Die vorliegende Erfindung stellt eine Vorrichtung nach Anspruch 1 bereit, um zuzulassen, dass mehrere voneinander entfernte Benutzer mit einem virtuellen Raum in Wechselwirkung treten können.
  • Das System für eine virtuelle Realität besitzt eine zentrale Datenbank, um einen oder mehrere dreidimensionale virtuelle Räume zu definieren. Eine Nachrichtenfernübertragungseinheit stellt eine Nachrichtenfernübertragung zwischen der Datenbank und einem Benutzer her, und eine Datenübertragungseinheit überträgt Daten von der Datenbank zu dem Benutzer, so dass der Helmcomputer des Benutzers einen Teil eines ausgewählten virtuellen Raums an dem Datenhelm des Benutzers anzeigen kann. Die Übertragungseinheit empfängt auch Daten, die der Position, der Orientierung und/oder der Bewegung des Benutzers relativ zu einem Bezugspunkt entsprechen, und verwendet die Daten, um in dem virtuellen Raum ein virtuelles Wesen zu definieren, wobei die Position, Orientierung und/oder Bewegungen des virtuellen Wesens mit den empfangenen Daten korreliert sind. Die Daten, die an den Benutzer übertragen werden, ent sprechen dadurch dem Teil des virtuellen Raums, der aus der Perspektive des virtuellen Wesens betrachtet wird.
  • Das System definiert andere virtuelle Wesen innerhalb der Datenbank in Abhängigkeit von Positions-, Orientierungs- und/oder Bewegungsdaten, die von anderen Benutzern empfangen werden, und die Teile des virtuellen Raums, die an die anderen Benutzer übertragen werden, können den Perspektiven ihrer zuordneten virtuellen Wesen entsprechen. Das System aktualisiert die Datenbank periodisch und überträgt die aktualisierten Teile des virtuellen Raums an die Benutzer, um Änderungen der Position von sich bewegenden Objekten innerhalb des virtuellen Raums widerzuspiegeln. Um die Datenmenge, die zwischen dem Computer und jedem Benutzer übertragen wird, weiter zu verringern, können Prioritätsräume in dem Teil der Daten des virtuellen Raumes, der an die Benutzer übertragen wird, definiert werden, und Elemente innerhalb ausgewählter Prioritätsräume können mit einer Priorität gegenüber anderen Prioritätsräumen aktualisiert werden.
  • Das System unterstützt auch eine Audiokommunikation mit den Benutzern. Es können Töne in dem virtuellen Raum definiert werden, und Daten, die mit den Tönen korreliert sind, können an die Benutzer übertragen werden. Zusätzlich kann die Übertragungseinheit Töne von jedem Benutzer empfangen und dann die Töne an die anderen Benutzer übertragen, um eine verbale oder andere akustische Kommunikation zwischen den Benutzern zu erleichtern. Den Tönen können Ursprünge in dem virtuellen Raum zugewiesen werden, und eine Tonsteuereinheit kann dann Daten an jeden Benutzer senden, um den Ursprung des Tons innerhalb des virtuellen Raums zu simulieren. Die Töne können Tonprioritätsräumen zugewiesen werden, so dass die Amplituden von Tönen, die einem besonderen Prioritätsraum zugeordnet sind, in Bezug auf die Amplituden von Tönen in anderen Prioritätsräumen verändert werden können.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Schaubild einer besonderen Ausführungsform eines Netzwerks für eine virtuelle Realität gemäß der vorliegenden Erfindung;
  • 2 ist ein Blockdiagramm einer besonderen Ausführungsform der in 1 gezeigten zentralen Steuereinheit;
  • 3 ist ein Blockdiagramm, das veranschaulicht, wie die in 2 gezeigte Datenbank in mehrere virtuelle Räume unterteilt ist;.
  • 4 ist ein Diagramm, das eine besondere Ausführungsform eines virtuellen Raums gemäß der vorliegenden Erfindung veranschaulicht;
  • 5 ist ein Diagramm, das die Konzepte von visuell relevanten Räumen und Prioritätsräumen innerhalb des virtuellen Raums veranschaulicht;
  • 6 ist ein Diagramm, das die Konzepte von tonrelevanten Räumen und Tonprioritätsräumen innerhalb des virtuellen Raums veranschaulicht; und
  • 7 ist ein Flussdiagramm, das die Arbeitsweise des Netzwerks für eine virtuelle Realität gemäß der vorliegenden Erfindung zeigt.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • 1 ist ein Diagramm, das eine besondere Ausführungsform eines Netzwerks für eine virtuelle Realität 10 gemäß der vorliegenden Erfindung veranschaulicht. Das Netzwerk 10 umfasst eine zentrale Steuereinheit 14 zur Kommunikation mit einer Vielzahl von Benutzern, z. B. Benutzern 18 und 22, über ein öffentliches Telefonsystem, das durch Wähltelefonleitungen 26 und 30 dargestellt ist, die jeweils mit Telefonen 34 bzw. 38 gekoppelt sind. Obwohl die Telefonleitungen 26 und 30 als einzelne Leitungen gezeigt sind, kann eine jede mehrere Leitungen umfassen, wobei eine oder mehrere Leitungen für Daten eines virtuellen Objektes oder eines virtuellen Raumes verwendet werden können, und andere Leitungen für Audiodaten verwendet werden können. Darüber hinaus ist die vorliegende Erfindung nicht auf eine Telefonnachrichtenübertragung begrenzt. Es kann jedes Datenübertragungsnetzwerk genügen. Beispielsweise kann das Netzwerk 10 digitale Hochgeschwindigkeits-Kommunikationsleitungen, Kabelrundfunk-Kommunikationsleitungen usw. umfassen. Die Anzahl von Benutzern, die von dem Netzwerk 10 unterstützt wird, ist nicht auf die gezeigten zwei begrenzt. Jede Anzahl von Benutzern, selbst Tausende, können unterstützt werden.
  • Typischerweise ist der Benutzer 18 mit einem Computer 42, einem Datenhelm 46, Kopf- oder Ohrhörern 50, einem Mikrofon 52, einem Kopfpositionssensor 53 und einem mit Messgeräten ausgestatteten oder Datenkleidungsstück 54 ausgerüstet. Der Benutzer 22 ist gewöhnlich gleich aus gestattet. Der Computer 42 kann eine Tastatur 43 umfassen, um Steuerinformation einzugeben. Der Computer 42 kann auch einen Monitor 58 umfassen, um Steuerinformation oder den von dem Benutzer 18 betrachteten virtuellen Raum anzuzeigen. Es sollte aber einzusehen sein, dass die Hauptanzeige des virtuellen Raums für den Benutzer 18 vorzugsweise über den Datenhelm 46 bewerkstelligt wird. Alternativ kann der Datenhelm bei manchen Anwendungen durch eine frei stehende Anzeigeeinheit ersetzt sein, die den virtuellen Raum dem Benutzer realistisch anzeigt. Ohrhörer 50 empfangen Töne, die dem angezeigten virtuellen Raum zugeordnet sind, von der zentralen Steuereinheit 14 über den Computer 42, und das Mikrofon 52 überträgt Töne von dem Benutzer 18 über den Computer 42 an die zentrale Steuereinheit 14, die wiederum die empfangenen Töne in den virtuellen Raum hinein aufgehen lässt. Der Kopfpositionssensor 53 erfasst die Position und/oder Orientierung des Kopfes des Benutzers in Bezug auf den Computer 42 oder irgendeinen anderen Bezugspunkt und überträgt die Positionsdaten an den Computer 42, der wiederum die Daten an die zentrale Steuereinheit 14 überträgt. Das Datenkleidungsstück 54 ist bei dieser Ausführungsform als Handschuh gezeigt, aber andere Datenkleidungsstücke, wie etwa Shirts, Hosen oder Ganzkörperanzüge, können genauso gut verwendet werden. Das Datenkleidungsstück 54 erfasst typischerweise die Position, Orientierung und/oder Beugung des zugehörigen Körperteils in Bezug auf den Computer 42 oder irgendeinen anderen Bezugspunkt und überträgt die Daten über den Computer 42 an die zentrale Steuereinheit 14. Die zentrale Steuereinheit 14 verwendet die Daten von dem Kopfpositionssensor 53 und dem Datenkleidungsstück 54, um innerhalb des virtuellen Raums ein virtuelles Wesen zu definieren. Das virtuelle Wesen kann die Form eines anderen menschlichen Wesens, eines Tieres, einer Maschine, eines Werkzeugs, eines leblosen Objektes, usw. annehmen, die alle innerhalb des virtuellen Raums sichtbar oder unsichtbar sein können. Die Positions-, Orientie rungs- und/oder Beugungsdaten von den Sensoren können dazu verwendet werden, die gleiche Position, Orientierung und/oder Beugung des definierten virtuellen Wesens nachzubilden, oder die Daten können sonst dazu verwendet werden, irgendeine andere Aktion zu steuern. Wenn der Benutzer beispielsweise als ein virtuelles Automobil innerhalb des virtuellen Raums definiert ist, kann dann die Position der Hand des Benutzers dazu verwendet werden, die Beschleunigung zu steuern, wohingegen die Beugung von einem oder mehreren Fingern des Benutzers dazu verwendet werden kann, das Automobil zu lenken. Zusätzlich können die Daten dazu verwendet werden, mehrere virtuelle Wesen zu definieren. Beispielsweise können Daten von dem Kopfstellungssensor 53 dazu verwendet werden, einen Flugzeugträger zu definieren, und Daten von dem Datenkleidungsstück 54 können dazu verwendet werden, ein Flugzeug zu definieren.
  • Obwohl der Datenhelm 46, die Ohrhörer 50, das Mikrofon 52, der Kopfpositionssensor 53 und der Datenhandschuh 54 an den Computer 42 über Drähte angeschlossen gezeigt sind, kann irgendeines dieser Elemente oder alle Elemente über Funk- oder andere drahtlose Technologien gesteuert werden.
  • Bei der bevorzugten Ausführungsform zeigt der Datenhelm 46 den Teil des virtuellen Raums an, der aus der Perspektive des virtuellen Wesens betrachtet wird, das für den Benutzer 18 definiert ist, zusammen mit allen anderen definierten virtuellen Wesen und Objekten innerhalb seines Blickfeldes. Jeder Benutzer kann mit anderen virtuellen Wesen und Objekten in dem virtuellen Raum wie es der Benutzer wünscht sprechen und in Wechselwirkung treten, abhängig von den Randbedingungen, die unten angemerkt sind, wenn die Konzepte von relevanten Räumen diskutiert werden.
  • 2 ist ein Blockdiagramm einer besonderen Ausführungsform der zentralen Steuereinheit 14. Die zentrale Steuereinheit 14 umfasst einen Prozessor 100, einen Datenbankspeicher 104, um Daten über den virtuellen Raum zu speichern, eine Eingangstelefonschnittstelle 108, um Daten von den Benutzern zu empfangen, und eine Ausgangstelefonschnittstelle 112, um Daten an die Benutzer zu übertragen, einen Positions-/Steuerungs-Datenempfänger 116, um Positions-, Bewegungs- und Steuerdaten von den Benutzern zu empfangen, einen Tondatenempfänger 120, um Toninformation von den Benutzern zu empfangen, einen Positions- /Steuerdatensender 124, um Positions-, Bewegungs- und Steuerdaten an die Benutzer zu übertragen, einen Tondatensender 128, um Tondaten an die Benutzer zu übertragen, einen Perspektivenmonitor 132, um die sichtbaren Perspektiven der in der Datenbank 104 definierten virtuellen Wesen zu überwachen, ein Zeitglied 136, eine Datenbankaktualisierungseinheit 140, um die Datenbank 104 mit von den Benutzern empfangenen Daten (und anderen programmgesteuerten Änderungen) zu aktualisieren, eine Steuereinheit für virtuelle Objekte 144, um in der Datenbank 104 definierte virtuelle Objekte zu steuern, eine Steuereinheit zur Aktualisierungsübertragung 148, um die Übertragung von aktualisierten Daten an die Benutzer zu steuern, und eine Tonsteuereinheit 152, um Tondaten zu verarbeiten.
  • Daten, die durch die Ausgangstelefonschnittstelle 112 an die Benutzer übertragen werden, können jegliche Daten, die den virtuellen Raum definieren, zusammen mit der geeigneten Steuerinformation umfassen. Beispielsweise können die Daten umfassen: grafische Daten, um den virtuellen Raum zu generieren, Positions-/Bewegungs-Daten, um sich bewegende Objekte innerhalb des virtuellen Raums zu implementieren, Tondaten, usw. Bei der bevorzugten Ausführungsform werden die grafischen Daten per se jedoch nicht auf einer interaktiven Basis übertragen. Statt dessen besitzt der Computer jedes Benutzers eine Kopie des gesamten virtuellem Raums (z. B. Hintergrund, Objekte und Grundelemente), und die den virtuellen Raum definierenden Daten, die an die Benutzer übertragen werden, umfassen nur Positions-, Bewegungs-, Steuer- und Tondaten. Nachdem die anfänglichen Positions-, Bewegungs-, Steuer- und Tondaten an die Benutzer übertragen worden sind, werden danach nur Änderungen der Positions-, Bewegungs-, Steuer und Tondaten übertragen. Dies reduziert den Bandbreitenbedarf beträchtlich und erlaubt es, dass das System mit vielen Benutzern gleichzeitig arbeiten kann, ohne den Echtzeitrealismus preiszugeben.
  • Bei der bevorzugten Ausführungsform speichert die Datenbank 104 Daten für mehrere virtuelle Räume. 3 ist ein Blockdiagramm, das eine mögliche Ausführungsform der Datenbank 104 zeigt. Die Datenbank 104 kann einen virtuellen CAD-Raum 160 enthalten, der es zulässt, dass Benutzer in dem computerunterstützten Entwurf eingreifen können, einen virtuellen Spielraum 164, der es zulässt, dass Benutzer ein Spiel spielen können, einen virtuellen Aufgabenraum 168, der es zulässt, dass Benutzer virtuelle Objekte manipulieren können, um eine besondere Aufgabe durchzuführen, und andere virtuelle Räume. Die zentrale Steuereinheit 14 lässt es zu, dass der Benutzer interaktiv mit dem virtuellen Raum entweder alleine oder in Zusammenarbeit mit anderen Benutzern kommunizieren kann. Jeder virtuelle Raum umfasst Identifikationsinformation 170, 172, 174 usw., so dass Benutzer spezifizieren können, mit welchem virtuellen Raum sie in Wechselwirkung treten möchten.
  • 4 ist ein Diagramm einer besonderen Ausführungsform eines virtuellen Raums 169. Der virtuelle Raum 169 kann eine Vielzahl von virtuellen Wesen, wie etwa virtuellen Wesen 182, 183 und 184, Tonursprünge 186, 188, 190 und 192, ein bewegliches virtuelles Objekt 194, andere virtuelle Objekte 196, 197 und 198 und grafische Grundelemente 199AF umfassen. Die grafischen Grundelemente 199A–F können von jedem Benutzer dazu verwendet werden, falls es gewünscht ist, weitere virtuelle Objekte zu schaffen. Um eine maximale Flexibilität bereitzustellen und eine Kommunikation mit den Benutzern zu erleichtern, ist jedem virtuellen Wesen, und somit jedem Benutzer, ein visuell relevanter Raum zugeordnet, der bestimmt, welche Daten, die den virtuellen Raum definieren, von dem Benutzer wahrgenommen werden können. Im Kontext der bevorzugten Ausführungsform bestimmen visuell relevante Räume, welche Zustandsänderungen an die Benutzer übertragen werden (oder von diesem wahrnehmbar sind). Natürlich kann bei anderen Ausführungsformen der visuell relevante Raum die gesamte grafische Information umfassen, die von den Grenzen des visuell relevanten Raums eingeschlossen wird. 5 ist ein Diagramm, das zeigt, wie die Konzepte von visuell relevanten Räumen auf die virtuellen Wesen 182 und 184 von 4 angewandt werden. Dem virtuellen Wesen 182 ist ein visuell relevanter Raum 200 zugeordnet, und dem virtuellen Wesen 184 ist ein visuell relevanter Raum 204 zugeordnet. Die virtuellen Wesen 182 und 184 können nur diejenigen Elemente (Objekte oder Zustandsänderungen) betrachten, die innerhalb ihrer visuell relevanten Räume angeordnet sind. Beispielsweise können Elemente 194 und 196 und/oder deren Bewegung für beide virtuelle Wesen 182 und 184 sichtbar sein; Element 197 und/oder dessen Bewegung kann nur für das virtuelle Wesen 184 sichtbar sein; Element 183 und/oder dessen Bewegung kann nur für das virtuelle Wesen 182 sichtbar sein, und Element 198 und/oder dessen Bewegung kann weder für das virtuelle Wesen 182 noch für das virtuelle Wesen 184 sichtbar sein. Bei der bevorzugten Ausführungsform, die nur Positions-, Steuer- und Tondaten an die Benutzer überträgt, können diejenigen Elemente, die außerhalb eines visuell relevanten Raums liegen, für den Benutzer sichtbar sein, aber jegliche echtzeit- oder programmgesteuerte Position/Bewegung, die dem Element zugeordnet ist, wird für diesen Benutzer nicht verarbeitet, so dass das Element in einer festen Position stehend erscheint, oder sonst sich das Element gemäß einem festen Skript bewegt. Der visuell relevante Raum kann fest sein, wie es für das virtuelle Wesen 182 gezeigt ist. Alternativ kann der visuell relevante Raum des Benutzers durch das Blickfeld des virtuellen Wesens und Bereiche in enger Nähe zu ihm (wie bei dem virtuellen Wesen 184) definiert sein, wobei in diesem Fall der visuell relevante Raum sich so in dem virtuellen Raum umherbewegen kann, wie sich die Perspektive oder Position des virtuellen Wesens ändert. Visuell relevante Räume müssen nicht angrenzend sein und müssen keine direkte räumliche Beziehung zu dem virtuellen Raum haben. Beispielsweise kann ein visuell relevanter Raum ein virtuelles Objekt ohne den begleitenden Hintergrund umfassen.
  • Jeder visuell relevante Raum kann ferner in einen oder mehrere visuelle Prioritätsräume unterteilt werden. Beispielsweise kann der visuell relevante Raum 200 visuelle Prioritätsräume 206, 208 und 210 umfassen, und der visuell relevante Raum 204 kann visuelle Prioritätsräume 212, 214 und 216 umfassen. Bei der bevorzugten Ausführungsform können visuelle Prioritätsräume dazu verwendet werden, die Aktualisierungshäufigkeit von Elementen, die sich innerhalb desselben befinden, zu bestimmen. Beispielsweise kann die Position und Orientierung von Elementen 183, 194 und 196 sehr häufig (z. B. mit 30 Hz) aktualisiert werden, wohingegen die Position und Orientierung von Element 197 weniger häufig (z. B. mit 1 Hz) aktualisiert werden kann. Alternativ können visuelle Prioritätsräume, die sich näher bei dem Benutzer befinden, häufiger als andere visuelle Prioritätsräume aktualisiert werden. Dies reduziert die Datenmenge, die an jeden Benutzer übertragen werden muss, während der Realismus von wichtigen Elementen erhalten bleibt. Da viele virtuelle Objekte derart entworfen sind, dass sie sich in dem virtuellen Raum umherbewegen, können sie mit der Zeit in unterschiedliche Prioritätsräume übertreten und dementsprechend verarbeitet werden. Der Wechsel von einem Prioritätsraum zu einem anderen kann wie gewünscht kontinuierlich oder diskret sein.
  • Relevante Räume können auch für Tondaten definiert werden. 6 ist ein Diagramm, das das Konzept von tonrelevanten Räumen veranschaulicht. Dem virtuellen Wesen 182 ist ein tonrelevanter Raum 230 zugeordnet, und dem virtuellen Wesen 184 ist ein tonrelevanter Raum 234 zugeordnet (durch eine gestrichelte Linie angedeutet). Nur Tonquellen, die in dem tonrelevanten Raum des virtuellen Wesens angeordnet sind (und/oder Änderungen in den Tönen) können von diesem Wesen und somit von dem entsprechenden Benutzer wahrgenommen werden. In diesem Fall können Tonquellen 186, 188, 190 und 192 und/oder ihre Änderungen von beiden virtuellen Wesen 182 und 184 wahrgenommen werden. Es ist anzumerken, dass Tonquellen, die einem Element zugeordnet sind, das von einem virtuellen Wesen nicht visuell wahrgenommen werden kann, nichtsdestoweniger von dem virtuellen Wesen gehört werden kann. So etwas kann der Fall mit dem Element 183 sein, das der Tonquelle 192 zugeordnet ist. Wenn dies der Fall ist, können beide virtuelle Wesen 182 und 184 es hören, während nur das virtuelle Wesen 182 das Element sehen kann. Es ist auch anzumerken, dass tonrelevante Räume, wie visuell relevante Räume nicht angrenzend sein müssen und keine direkte räumliche Beziehung zu dem virtuellen Raum haben müssen.
  • Es können auch Tonprioritätsräume für jeden tonrelevanten Raum definiert werden. Wie es in 6 gezeigt ist, umfasst ein tonrelevanter Raum 230 Tonprioritätsräume 238, 242 und 246, und ein tonrelevanter Raum 234 umfasst Tonprioritätsräume 252, 256 und 260. Bei dieser Ausführungsform hängt die Amplitude der Tonquelle, die von dem virtuellen Wesen wahrgenommen wird, davon ab, in welchem Tonprioritätsraum sich die Tonquelle befindet. Somit kann das virtuelle Wesen 182 die Tonquelle 186 lauter als die Tonquelle 190 und die Tonquelle 190 lauter als die Tonquellen 188 und 192 wahrnehmen. Ähnlich kann das virtuelle Wesen 184 die Tonquelle 188 lauter als die Tonquellen 186 und 190 und die Tonquellen 186 und 190 lauter als die Tonquelle 192 wahrnehmen. Tonprioritätsräume können auch definiert werden, um die Aktualisierungshäufigkeit der Tondaten festzulegen. Da sich die Tonursprünge zusammen mit virtuellen Objekten, an die sie angehängt sind, bewegen können, kann ein gegebener Ton mit der Zeit in unterschiedliche Tonprioritätsräume übertreten und dementsprechend verarbeitet werden. Der Wechsel von einem Tonprioritätsraum zu einem anderen kann wie gewünscht kontinuierlich oder diskret sein.
  • Die Eingangstelefonschnittstelleneinheit 108 (2) empfängt Eingangsdaten von den Benutzern über das Telefonnetz und überträgt Steuerdaten und Positionsdaten, wie etwa die von den Kopfpositionssensoren und Datenkleidungsstücken des Benutzers (z. B. Position, Orientierung und/oder Bewegung) an den Positions-/Steuerdatenempfänger 116 über einen Übertragungsweg 156. Tondaten, die von den Benutzern (z. B. von deren Mikrofonen) empfangen werden, werden an einen Tondatenempfänger 120 über einen Übertragungsweg 160 übertragen. Der Positions- /Steuerdatenempfänger 116 und der Tondatenempfänger 120 kommunizieren mit dem Prozessor 100 über Übertragungswege 161 bzw. 163. Der Prozessor 100 bildet die Positions-, Orientierungs- und/oder Bewegungsdaten von jedem Benutzer auf entsprechende virtuelle Wesen innerhalb des angeforderten virtuellen Raums in der Datenbank 104 ab. Steuerdaten, die von den Benutzern empfangen werden, können dazu verwendet werden, die telefonische Kommunikation mit der zentralen Steuereinheit 14 herzustellen, um einen -gewünschten virtuellen Raum zu spezifizieren, die Art des virtuellen Wesens, das der Benutzer anzunehmen wünscht, zu spezifizieren, und möglicherweise zu spezifizieren, wie die Positionsdaten auf das ausgewählte virtuelle Wesen abzubilden sind, um virtuelle Objekte zu schaffen (unter Verwendung der grafischen Grundelemente 199AF), um visuelle und tonrelevante Räume und deren entsprechende Prioritätsräume zu spezifizieren, usw. Tondaten, die von den Benutzern empfangen werden, können den virtuellen Wesen zugeordnet werden, die für jene Benutzer definiert sind, oder auf irgendeine andere Weise zugeordnet werden. Beispielsweise können Tondaten von einem der Benutzer einem virtuellen öffentlichen Adresssystem zugeordnet werden, um den Beginn eines Rennens anzukündigen, indem dieser Benutzer und andere Benutzer in Wettstreit treten.
  • Der Prozessor 100 aktualisiert die Datenbank 104 mit den empfangenen Positions-, Bewegungs-, Steuer- und Tondaten, bestimmt, welcher Benutzer welche Daten empfangen soll, gemäß den relevanten und Prioritätsräumen, die für diesen Benutzer definiert sind, überträgt Positions-, Bewegungs- und Steuerinformation an den Positions-/ Steuerdatensender 124 über einen Übertragungsweg 162 und überträgt Tondaten an den Tondatensender 128 über einen Übertragungsweg 164. Der Positions- /Steuerdatensender 124 und der Tondatensender 128 kommunizieren mit der Ausgangstelefonschnittstelle 112 über jeweilige Übertragungswege 168 und 172, um die Daten an die Benutzer zu senden.
  • Ein Perspektivenmonitor 132 überwacht das definierte Blickfeld für jedes virtuelle Wesen, um die Daten der visuellen Zustandsänderung, die an die Benutzer zu übertragen sind, zu bestimmen. Wie es oben angemerkt wurde, hat bei der bevorzugten Ausführungsform jeder Benutzer eine Kopie des ausgewählten virtuellen Raumes in seinem oder ihrem Computer, und der Prozessor 100 sendet periodisch nur die Positions- und Ton daten, die Punkten innerhalb des relevanten Raumes oder Blickfeldes des Benutzers zugeordnet sind, an den Benutzer, so dass der Computer des Benutzers die betrachteten Bilder und gehörten Töne mit den neuen Positions- und Tondaten aktualisieren kann. Um die an die Benutzer übertragene Datenmenge weiter zu reduzieren, kann durch den Prioritätsraum, in dem sich das Objekt oder der Ton befindet, bestimmt werden, welche aktualisierten Daten an den Benutzer zu einem besonderen Zeitpunkt gesendet werden. Somit können Daten zum Aktualisieren von Objekten oder Tönen in einem Prioritätsraum dreißig mal pro Sekunde übertragen werden, wohingegen Daten zum Aktualisieren von Objekten oder Tönen in einem anderen Prioritätsraum einmal pro Sekunde übertragen werden können.
  • Bei einer anderen Ausführungsform der Erfindung kann der Prozessor 100 alle grafischen Daten, die dem relevanten Raum oder Blickfeld des virtuellen Wesens zugeordnet sind, an den entsprechenden Benutzer übertragen, und dann die Steuereinheit zur Aktualisierungsübertragung 148 anweisen, wie geeignet aktualisierte Daten zu senden. Beispielsweise kann der Prozessor 100 die Positionsdaten von dem Kopfpositionssensor des Benutzers dazu verwenden, die Position des Kopfes des für diesen Benutzer definierten virtuellen Wesens zu bestimmen, und die grafischen Daten für diesen Teil des relevanten Raums an den Benutzer übertragen. Wenn sich der Benutzer umherbewegt, empfängt der Prozessor 100 die neuen Positionsdaten, und die Datenbankaktualisierungseinheit 140 verwendet diese Daten, um die Position (und somit das Blickfeld) des entsprechenden virtuellen Wesens in der Datenbank 104 zu aktualisieren. Der Perspektivenmonitor detektiert das Auftreten eines ausgewählten Ereignisses und weist dann die Steuereinheit zur Aktualisierungsübertragung 148 an, die grafischen Daten für das aktualisierte Blickfeld an den Benutzer zu übertragen. Das Ereignis, das die Übertragung der aktuali sierten Daten an die Benutzer auslöst, kann das Verstreichen eines ausgewählten Zeitintervalls sein, das von Zeitglied 136 gemessen wird. Alternativ kann der Perspektivenmonitor 132 die Steuereinheit zur Aktualisierungsübertragung 148 anweisen, die aktualisierten Daten zu senden, wenn die Position des Kopfes des Benutzers sich um einen ausgewählten Betrag verändert, oder sie kann nur auf dem Auftreten irgendeiner anderen Abweichung in den von dem Benutzer empfangenen Daten beruhen.
  • Die Steuereinheit für virtuelle Objekte 144 definiert die virtuellen Objekte innerhalb der Datenbank 104 oder erhält diese und weist den virtuellen Objekten die Positions-, Orientierungs- und/oder Bewegungsdaten, die von dem Benutzer empfangen werden, zu. Beispielsweise können Daten, die eine Beugung und Position der Beine, Arme, Finger usw. des Benutzers kennzeichnen, den Beinen, Armen, Fingern usw. des virtuellen Wesens zugeordnet werden, so dass das virtuelle Wesen die Gesten des Benutzers für ein Laufen, Treten und Fangen virtueller Bälle, Malen, Schreiben, usw. nachbilden kann. Wie es oben angemerkt wurde, braucht natürlich das virtuelle Wesen, das durch die Steuereinheit für virtuelle Objekte 144 definiert oder erhalten wird, kein menschliches Wesen sein und es kann durch den Benutzer unter Verwendung der geometrischen Grundelemente 199AF in jeder gewünschten Kombination spezifiziert werden. Die Positions-, Orientierungs- und/oder Bewegungsdaten, die von einem Benutzer empfangen werden, können einem oder mehreren sichtbaren oder unsichtbaren Objekten zugeordnet werden, so wie es die Phantasie zulässt. Die Steuereinheit für virtuelle Objekte 144 kann auch programmerzeugte und -gesteuerte virtuelle Objekte innerhalb des virtuellen Raumes definieren oder erhalten. Beispielsweise kann die Steuereinheit für virtuelle Objekte 144 einen virtuellen Volleyball oder einen virtuellen Satelliten definieren oder erhalten, welcher sich gemäß programmdefinier ter Randbedingungen, wie Bewegungsbereich, Geschwindigkeit, Gravitationskräfte, usw. bewegt.
  • Die Tonsteuereinheit 152 definiert den Ursprung und die Natur von Tönen innerhalb des virtuellen Raums und weist diesem die von den Benutzern empfangenen Tondaten zu. Das einfachste Beispiel der Zuweisung von Tönen ist die Zuweisung der Stimme eines Benutzers der Stimme des entsprechenden virtuellen Wesens. Die Stimme des virtuellen Wesens kann der Stimme des Benutzers exakt folgen, oder die Tonsteuereinheit 152 kann die Stimmhöhe oder das Timbre der Stimme entsprechend verändern. Die Stimme des Benutzers könnte derart verändert werden, dass das gewählte virtuelle Wesen nachgebildet wird. Beispielsweise könnte die Stimme des Benutzers verändert werden, um einen Frosch oder ein Düsenflugzeug nachzubilden, wobei die Amplitude der Stimme des Benutzers dazu verwendet wird, die Amplitude des virtuellen Tones zu steuern. Die Tonsteuereinheit 152 kann dem virtuellen Raum auch programmdefinierte Töne zuordnen. Beispielsweise kann die Tonsteuereinheit den Ton erzeugen, der ein programmerzeugtes Flugzeug begleitet, das zufällig durch den virtuellen Raum hindurch fliegt. Die Tonsteuereinheit steuert auch die Charakteristik (z. B. Amplitude, Aktualisierungshäufigkeit usw.) der virtuellen Töne gemäß den Tonprioritätsräumen, in denen sich die Töne befinden.
  • Schließlich kann die Tonsteuereinheit 152 auch die wahrgenommene räumliche Lage des Tones innerhalb des virtuellen Raums steuern. Der Benutzer übermittelt monophone Sprache an die zentrale Steuereinheit 14, die von einem Mischer innerhalb der Tonsteuereinheit 152 verarbeitet wird. Der Mischer kombiniert alle von den verschiedenen Benutzern empfangenen Töne und überträgt die Töne, die sich innerhalb des tonrelevanten Raumes des Benutzers befinden, an diesen Benutzer. Die Amplitude kann durch den Tonprioritätsraum, in welchem sich der Tonursprung befindet, und/oder auf der Grundlage davon, wie laut ein Benutzer spricht, (oder irgendeine andere dynamisch veränderbare Regel) bestimmt werden. Die von dem Tondatensender 128 übertragenen Daten umfassen Daten, um die Hardware des Benutzers anzuweisen, das hereinkommende monophone Signal über seine Stereoausgänge hinwegzuschwenken, wodurch die Illusion von Stereo-Audio geschaffen wird, um das Gefühl eines Eintauchens in den virtuellen Raum zu verbessern, ohne den Kommunikationsbandbreitenbedarf zwischen dem Benutzer und dem System zu erhöhen.
  • Die Arbeitsweise einer Ausführungsform des Systems ist in 7 veranschaulicht. Der Benutzer loggt sich zu Beginn bei einem Schritt 300 an der zentralen Steuereinheit 14 unter Verwendung eines herkömmlichen Modems und eines seriellen Leitungskonzentrators, die mit einer als eine Datenleitung funktionierenden Telefonleitung gekoppelt sind, ein. Der Computer des Benutzers übermittelt Identifikationscodes längs der Datenleitung, um die Einloggabfolge zu beginnen. Sobald die Datenleitungsverbindung hergestellt worden ist, stellt der Computer des Benutzers bei einem Schritt 304 eine zweite Verbindung mit dem System unter Verwendung einer zweiten Telefonleitung her, um die Audioverbindung herzustellen. Dies wird vorgenommen, indem eine einzigartige Abfolge von DTMF-Codes längs der zweiten Telefonleitung an die zentrale Steuereinheit 14 übermittelt wird, um die zentrale Steuereinheit 14 darüber zu informieren, welche Audioleitung mit welcher Datenleitung in Korrelation gebracht werden soll. Dies ist wichtig, da die hereinkommenden Leitungen zur zentralen Steuereinheit 14 mit größter Wahrscheinlichkeit von einem Drehschalter einer Telefonfirma ausgehen, und ohne die DTMF-Kennungen das System nicht wissen würde, welche Audioleitung welcher Datenleitung entspricht. Sobald die zweite Verbindung hergestellt worden ist, ist die Benutzerverbindung mit dem System vollständig.
  • Sobald die Verbindung hergestellt worden ist, übermittelt der Benutzer bei einem Schritt 308 an die zentrale Steuereinheit 14 Daten, um auszuwählen, mit welchem virtuellen Raum der Benutzer in Wechselwirkung treten möchte. Diese Daten können auch Abbildungsinformation umfassen, die virtuelle Objekte innerhalb des virtuellen Raums spezifiziert, und die spezifiziert, wie die Positions-, Bewegungs- und Tondaten innerhalb des ausgewählten virtuellen Raumes abzubilden sind. Die Daten können auch relevante und Prioritätsrauminformation sowie Information umfassen, die es der zentralen Steuereinheit 14 ermöglicht, virtuelle Objekte aus grafischen Grundelementen zu schaffen. Die zentrale Steuereinheit 14 stellt dann bei einem Schritt 310 den Benutzer, die relevanten Räume, Prioritätsräume und jegliche spezifizierten virtuellen Objekte innerhalb des virtuellen Raumes her. Gleichzeitig sucht die zentrale Steuereinheit 14 nach weiteren Benutzern in dem gleichen Universum. Wenn andere Benutzer gefunden werden, berechnet die zentrale Steuereinheit 14 die Nähe der anderen Benutzer (und ihrer definierten virtuellen Objekte) auf der Grundlage von XYZ-Koordinatendifferenzen. Sobald die Koordinatendifferenzen berechnet worden sind, können bei einem Schritt 314 Standorte der anderen Benutzer und ihrer definierten virtuellen Objekte innerhalb und ohne die relevanten und Prioritätsräume bestimmt und verwendet werden, um zu ermitteln, welche Positions-, Bewegungs- und Tondaten an welchen Benutzer übermittelt werden. Auf diese Weise werden keine Bewegungs- und Tondaten an Benutzer übermittelt, die nicht in der Lage wären, diese Daten zu diesem Zeitpunkt zu verwenden.
  • Es wird dann bei einem Schritt 318 ermittelt, ob die Sitzung beendet werden soll. Wenn dies der Fall ist, loggt sich der Benutzer bei einem Schritt 322 von dem System aus. Wenn nicht, fährt die zentrale Steuereinheit 14 bei einem Schritt 326 fort, Positions-, Bewegungs- und Tondaten (zusammen mit irgendwelchen anderen Befehlen) von den verschiedenen Benutzern zu empfangen, aktualisiert bei einem Schritt 330 den virtuellen Raum, berechnet Koordinaten und verarbeitet die Daten bei einem Schritt 334 in den verschiedenen relevanten Räumen, verarbeitet bei einem Schritt 338 die Daten in den verschiedenen Prioritätsräumen, überträgt die aktualisierten Zustandsdaten an die verschiedenen Benutzer bei einem Schritt 342 (auf der Grundlage der relevanten und Prioritätsräume für jeden Benutzer) und fährt bei einem Schritt 318 fort.
  • Während das Obige eine detaillierte Beschreibung einer bevorzugten Ausführungsform der vorliegenden Erfindung ist, können verschiedene Modifikationen vorgenommen werden. Folglich sollte der Umfang der Erfindung durch die folgenden Ansprüche festgestellt werden.

Claims (11)

  1. Vorrichtung zur Wechselwirkung einer Vielzahl von physisch entfernten Benutzern (18, 22) mit einem virtuellen Raum (169), wobei die Vorrichtung umfaßt: eine zentrale Datenbank (104), die einen dreidimensionalen virtuellen Raum (196) definiert; ein Nachrichtenfernübertragungsmittel (108, 112) zum Herstellen einen Nachrichtenfernübertragung zwischen der zentralen Datenbank (104) und einem jeden der Vielzahl von Benutzern (18, 22); ein Datenübertragungsmittel (116, 120, 124, 128) zum Übertragen von Daten von der zentralen Datenbank (104) zu einem jeden der Benutzer (18, 22), wobei die übertragenen Daten Daten hinsichtlich des virtuellen Raums (169) umfassen; ein Mittel (116) zum Empfangen von Positionsdaten gemäß Positionen von einem jeden der Benutzer (18, 22); ein Mittel (140) zum Aktualisieren der Datenbank (104) in Ansprechen auf empfangene Positionsdaten, die sich von früher empfangenen Positionsdaten unterscheiden; ein Mittel zum Definieren virtueller Wesen (182, 184) gemäß einem jeden der Benutzer (18, 22) in dem virtuellen Raum (169), wobei die virtuellen Wesen (182, 184) jeweils Positionen in dem virtuellen Raum (169) haben, die mit den Positionsdaten übereinstimmen, die von den entsprechenden Benutzern (18, 22) empfangen werden; ein auf die Positionsdaten ansprechendes Mittel zum Definieren sichtrelevanter Räume (200, 204) innerhalb des virtuellen Raums (169) gemäß einem jeden der Benutzer (18, 22), wobei zumindest einige der Benutzer (18, 22) jeweilige sichtrelevante Räume (200, 204) besitzen, die kleiner als der gesamte virtuelle Raum (169) sind, wobei der sichtrelevante Raum (220, 204) zumindest eines Benutzers (18, 22) durch einen Abschnitt des virtuellen Raums (169) definiert ist, der aus der Perspektive des virtuellen Wesens (182, 184) des Benutzers betrachtet wird, um eine Winkelbereich des virtuellen Raums (169) auszuschließen; ein mindestens einem sichtrelevanten Raum eines besonderen Benutzers zugeordnetes Mittel zum Definieren einer Vielzahl von Sichtprioritätsräumen (206, 208, 210, 212, 214, 216) innerhalb des sichtrelevanten Raums (220, 204) des besonderen Benutzers; ein dem Datenübertragungsmittel (116, 120, 124, 128) zuge ordnetes und auf veränderte Positionsdaten von den Benutzern (18, 22) ansprechendes Mittel (148) zum Übertragen aktualisierter Positionsinformation hinsichtlich des virtuellen Wesens (182, 184) jedes gegebenen Benutzers zu anderen Benutzern (18, 22), aber nur zu jenen anderen Benutzern (18, 22), die sichtrelevante Räume (220, 204) besitzen, in denen sich das virtuelle Wesen des gegebenen Benutzers befindet; und ein dem Mittel zum Übertragen aktualisierter Positionsinformation zugeordnetes Mittel zum Übertragen aktualisierter Daten gemäß virtueller Wesen in einem gegebenen Raum der Sichtprioritätsräume (206, 208, 210, 212, 214, 216) mit einer Priorität gegenüber aktualisierten Daten gemäß virtueller Wesen innerhalb anderer Sichtprioritätsräume (206, 208, 210, 212, 214, 216) innerhalb des sichtrelevanten Raums (220, 204) des besonderen Benutzers.
  2. Vorrichtung nach Anspruch 1, wobei die aktualisierte Positionsinformation in Ansprechen auf ein Ereignis übertragen wird.
  3. Vorrichtung nach Anspruch 2, wobei das Ereignis das Verstreichen eines ausgewählten Zeitintervalls ist.
  4. Vorrichtung nach einem der vorhergehenden Ansprüche, ferner umfassend: ein Perspektivenüberwachungsmittel (132) zum Detektieren, wenn die Positionsdaten sich von früher empfangenen Positionsdaten um ein ausgewähltes Ausmaß unterscheiden; und wobei das Aktualisierungsübertragungsmittel (148) die aktualisierten Daten zu dem jeweiligen Benutzer (18, 22) überträgt, wenn die Positionsdaten von früher empfangenen Positionsdaten um das ausgewählte Ausmaß abweichen.
  5. Vorrichtung nach einem der vorhergehenden Ansprüche, ferner umfassend: ein Mittel für virtuelle Objekte zum Definieren beweglicher virtueller Objekte (194) innerhalb des virtuellen Raums (169); und ein Objektmanipulationsmittel, damit die virtuellen Wesen (182, 184) die virtuellen Objekte (194) manipulieren können.
  6. Vorrichtung nach einem der vorhergehenden Ansprüche, ferner umfassend: ein Mittel für virtuellen Ton (152) zum Definieren eines virtuellen Tones innerhalb des virtuellen Raums (169); und wobei das Datenübertragungsmittel ferner einen Übertragungsmittel für virtuellen Ton (182) zum Übertragen von Daten, die mit dem virtuellen Ton übereinstimmen, zu der Vielzahl von Benutzern (18, 22) umfaßt.
  7. Vorrichtung nach Anspruch 6, wobei das Mittel für virtuellen Ton (152) ein Ursprungszuordnungsmittel zum Zuordnen eines Tonursprungs (186) zu dem virtuellen Ton innerhalb des virtuellen Raums (169) umfaßt, und wobei das Tonübertragungsmittel die Daten, die mit dem virtuellen Ton übereinstimmen, nur dann zu einem der Vielzahl von Benutzern (18, 22) überträgt, wenn sich der Tonursprung (186) innerhalb des relevanten Raums (230, 234) des jeweiligen Benutzers (18, 22) befindet.
  8. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die Datenbank (104) eine Vielzahl von virtuellen Räumen (169) definiert, wobei die Vorrichtung ferner ein Kennungsempfangsmittel zum Empfangen von Kennungsdaten umfaßt, um einen der Vielzahl von virtuellen Räumen (169) zu identifizieren, und wobei die von dem Datenübertragungsmittel übertragenen Daten dem identifizierten virtuellen Raum (169) entsprechen.
  9. Vorrichtung nach einem der vorhergehenden Ansprüche, ferner umfassend: ein Tonempfangsmittel (120) zum Empfangen von Daten gemäß einem Ton von der Vielzahl von Benutzern (18, 22); ein Mittel zum Zuordnen eines Tonursprungs zum Zuordnen eines Tonursprungs zu den Daten gemäß dem Ton innerhalb des virtuellen Raums (169); ein Mittel zum Definieren eines tonrelevanten Raums zum Definieren eines tonrelevanten Raums (230, 234) in dem virtuellen Raum (169) gemäß den virtuellen Wesen (182, 184); wobei das Datenübertragungsmittel ferner ein Tonübertragungsmittel zum Übertragen von Daten zu einem der Vielzahl von Benutzern (18, 22) umfaßt, die mit Tönen übereinstimmen, die ihren Ursprung nur innerhalb des jeweiligen tonrelevanten Raums (230, 234) haben.
  10. Vorrichtung nach Anspruch 9, wobei das Tonübertragungsmittel ferner einen Mittel zum Nachbilden der Tonposition zum Übertragen von Daten zu der Vielzahl von Benutzern (18, 22) umfaßt, um den räumlichen Ursprung von Tönen innerhalb des tonrelevanten Raums (230, 234) nachzubilden.
  11. Vorrichtung nach Anspruch 9 oder 10, wobei die tonrelevanten Räume (230, 234) jeweils eine Vielzahl von Tonprioritätsräumen (238, 242, 246, 252, 256, 260) umfassen, und wobei das Tonübertragungsmittel ein Amplitudenveränderungsmittel zum Übertragen von Daten zu dem jeweiligen der Vielzahl von Benutzern (18, 22) umfaßt, um die Amplitude von Tönen innerhalb des tonrelevan ten Raums (230, 234) abhängig davon zu verändern, in welchem Tonprioritätsraum (238, 242, 246, 252, 256, 260) die Töne ihren Ursprung haben.
DE69433061T 1993-09-23 1994-09-22 Netzwerk der virtuellen realität Expired - Lifetime DE69433061T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/125,950 US5659691A (en) 1993-09-23 1993-09-23 Virtual reality network with selective distribution and updating of data to reduce bandwidth requirements
US125950 1993-09-23
PCT/CA1994/000529 WO1995008793A1 (en) 1993-09-23 1994-09-22 Virtual reality network

Publications (2)

Publication Number Publication Date
DE69433061D1 DE69433061D1 (de) 2003-09-25
DE69433061T2 true DE69433061T2 (de) 2004-06-03

Family

ID=22422202

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69433061T Expired - Lifetime DE69433061T2 (de) 1993-09-23 1994-09-22 Netzwerk der virtuellen realität

Country Status (8)

Country Link
US (2) US5659691A (de)
EP (1) EP0721614B1 (de)
JP (2) JP4152432B2 (de)
AU (1) AU687888B2 (de)
CA (1) CA2172535C (de)
DE (1) DE69433061T2 (de)
NZ (2) NZ330003A (de)
WO (1) WO1995008793A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107862920A (zh) * 2017-11-29 2018-03-30 桂林蓝港科技有限公司 一种基于vr环境下的过程控制实验教学的方法及系统

Families Citing this family (190)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5956501A (en) * 1997-01-10 1999-09-21 Health Hero Network, Inc. Disease simulation system and method
US8027809B2 (en) 1992-11-17 2011-09-27 Health Hero Network, Inc. Home power management system
US9215979B2 (en) 1992-11-17 2015-12-22 Robert Bosch Healthcare Systems, Inc. Multi-user remote health monitoring system
US7624028B1 (en) 1992-11-17 2009-11-24 Health Hero Network, Inc. Remote health monitoring and maintenance system
US20010011224A1 (en) 1995-06-07 2001-08-02 Stephen James Brown Modular microprocessor-based health monitoring system
AU1766201A (en) 1992-11-17 2001-05-30 Health Hero Network, Inc. Method and system for improving adherence with a diet program or other medical regimen
US8078431B2 (en) 1992-11-17 2011-12-13 Health Hero Network, Inc. Home power management system
US5951300A (en) 1997-03-10 1999-09-14 Health Hero Network Online system and method for providing composite entertainment and health information
US5832448A (en) 1996-10-16 1998-11-03 Health Hero Network Multiple patient monitoring system for proactive health management
US6968375B1 (en) 1997-03-28 2005-11-22 Health Hero Network, Inc. Networked system for interactive communication and remote monitoring of individuals
US8095340B2 (en) 1992-11-17 2012-01-10 Health Hero Network, Inc. Home power management system
US6330426B2 (en) 1994-05-23 2001-12-11 Stephen J. Brown System and method for remote education using a memory card
US8078407B1 (en) 1997-03-28 2011-12-13 Health Hero Network, Inc. System and method for identifying disease-influencing genes
US5307263A (en) 1992-11-17 1994-04-26 Raya Systems, Inc. Modular microprocessor-based health monitoring system
JP3182736B2 (ja) * 1994-01-14 2001-07-03 日本電信電話株式会社 仮想空間表示システム
DE69534523D1 (de) * 1994-08-19 2006-03-02 Sony Corp Cyberspace-System
JP3632705B2 (ja) * 1994-08-31 2005-03-23 ソニー株式会社 対話型画像提供方法、サーバ装置、提供方法、ユーザ端末、受信方法、画像提供システム、および画像提供方法
EP0736996A3 (de) * 1995-04-07 1996-11-27 At & T Corp Verfahren und Gerät zum Ubermitteln von Sprachnachrichten in einen interaktiven virtuellen Umgebung für Mehrbenutzer
US5784570A (en) * 1995-04-07 1998-07-21 At&T Corp Server for applying a recipient filter and compressing the input data stream based upon a set of at least one characteristics in a multiuser interactive virtual environment
AU6334396A (en) * 1995-06-15 1997-01-15 Apple Computer, Inc. Method and apparatus for providing independent audio in multiple listener digital sound systems
US6020885A (en) * 1995-07-11 2000-02-01 Sony Corporation Three-dimensional virtual reality space sharing method and system using local and global object identification codes
CA2180891C (en) * 1995-07-12 2010-01-12 Junichi Rekimoto Notification of updates in a three-dimensional virtual reality space sharing system
CA2180899A1 (en) 1995-07-12 1997-01-13 Yasuaki Honda Synchronous updating of sub objects in a three dimensional virtual reality space sharing system and method therefore
GB9519921D0 (en) * 1995-09-29 1995-11-29 Philips Electronics Nv Graphics image manipulation
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6219045B1 (en) * 1995-11-13 2001-04-17 Worlds, Inc. Scalable virtual world chat client-server system
AU1328597A (en) 1995-11-30 1997-06-19 Virtual Technologies, Inc. Tactile feedback man-machine interface device
GB9525047D0 (en) * 1995-12-07 1996-02-07 Philips Electronics Nv Virtual body control device
US5821925A (en) * 1996-01-26 1998-10-13 Silicon Graphics, Inc. Collaborative work environment supporting three-dimensional objects and multiple remote participants
US6050898A (en) * 1996-05-15 2000-04-18 Vr-1, Inc. Initiating and scaling massive concurrent data transaction
US5841980A (en) * 1996-05-15 1998-11-24 Rtime, Inc. Distributed system for communication networks in multi-user applications
US5945992A (en) * 1996-05-29 1999-08-31 Hewlett Packard Company Multilevel, client-server, large model traverser
JPH1040197A (ja) * 1996-07-19 1998-02-13 Fujitsu Ltd 通信管理装置
US6240444B1 (en) 1996-09-27 2001-05-29 International Business Machines Corporation Internet web page sharing
US5926179A (en) * 1996-09-30 1999-07-20 Sony Corporation Three-dimensional virtual reality space display processing apparatus, a three-dimensional virtual reality space display processing method, and an information providing medium
US6154211A (en) * 1996-09-30 2000-11-28 Sony Corporation Three-dimensional, virtual reality space display processing apparatus, a three dimensional virtual reality space display processing method, and an information providing medium
US6437777B1 (en) 1996-09-30 2002-08-20 Sony Corporation Three-dimensional virtual reality space display processing apparatus, a three-dimensional virtual reality space display processing method, and an information providing medium
US20010055039A1 (en) 1996-09-30 2001-12-27 Koichi Matsuda Three-dimensional virtual reality space display processing apparatus, a three-dimensional virtual reality space display processing method, and an information providing medium
US6954906B1 (en) * 1996-09-30 2005-10-11 Sony Corporation Image display processing apparatus that automatically changes position of sub-window relative to main window depending on distance at watch sub window is commanded to be displayed
US6057856A (en) * 1996-09-30 2000-05-02 Sony Corporation 3D virtual reality multi-user interaction with superimposed positional information display for each user
US6025801A (en) * 1996-10-01 2000-02-15 Philips Electronics North America Corporation Video game with local updates mitigates latency effects in wide area network
NL1004195C1 (nl) * 1996-10-04 1998-04-07 Christine Karman Systeem voor het overbrengen van aanraaksensatie via een computernetwerk.
US20010044725A1 (en) * 1996-11-19 2001-11-22 Koichi Matsuda Information processing apparatus, an information processing method, and a medium for use in a three-dimensional virtual reality space sharing system
AU3805697A (en) * 1996-11-21 1998-06-10 William J. Benman Jr. Virtual networks
US5953506A (en) * 1996-12-17 1999-09-14 Adaptive Media Technologies Method and apparatus that provides a scalable media delivery system
US5812126A (en) * 1996-12-31 1998-09-22 Intel Corporation Method and apparatus for masquerading online
US6032119A (en) 1997-01-16 2000-02-29 Health Hero Network, Inc. Personalized display of health information
US6058397A (en) * 1997-04-08 2000-05-02 Mitsubishi Electric Information Technology Center America, Inc. 3D virtual environment creation management and delivery system
US6081266A (en) * 1997-04-21 2000-06-27 Sony Corporation Interactive control of audio outputs on a display screen
JP3799134B2 (ja) 1997-05-28 2006-07-19 ソニー株式会社 システムおよび通知方法
US5970493A (en) * 1997-05-29 1999-10-19 Oracle Corporation Method, article of manufacture, and apparatus for generating a multi-dimensional record display
US6108657A (en) * 1997-05-29 2000-08-22 Oracle Corporation Method, article of manufacture, and apparatus for generating a multi-dimensional record layout mapping
US6073134A (en) * 1997-05-29 2000-06-06 Oracle Corporation Method article of manufacture, and apparatus for generating a multi-dimensional record management index
US6968379B2 (en) * 1997-05-30 2005-11-22 Sun Microsystems, Inc. Latency-reducing bandwidth-prioritization for network servers and clients
US6025839A (en) * 1997-06-06 2000-02-15 International Business Machines Corp. Method for displaying information in a virtual reality environment
IL121178A (en) * 1997-06-27 2003-11-23 Nds Ltd Interactive game system
KR100287138B1 (ko) * 1997-07-15 2001-04-16 윤종용 다자참여형가상공간에서참여자관리방법및그시스템
JPH11126017A (ja) 1997-08-22 1999-05-11 Sony Corp 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム
GB9722343D0 (en) * 1997-10-22 1997-12-17 British Telecomm Distributed virtual environment
FR2770719B1 (fr) * 1997-10-30 2000-01-07 Sagem Procede de communication d'une image d'une composition d'objets elementaires depuis un terminal serveur vers au moins un terminal d'utilisateur
JPH11154178A (ja) * 1997-11-19 1999-06-08 Fujitsu Ltd 通信管理装置及び記録媒体
JPH11177628A (ja) * 1997-12-15 1999-07-02 Mitsubishi Electric Corp 広域環境用3次元仮想空間共有システム
US6169549B1 (en) 1998-01-07 2001-01-02 Iengineer.Com, Inc. Method and apparatus for providing continuous level of detail
US6160540A (en) * 1998-01-12 2000-12-12 Xerox Company Zoomorphic computer user interface
JPH11203009A (ja) 1998-01-20 1999-07-30 Sony Corp 情報処理装置および方法、並びに提供媒体
JP3855430B2 (ja) 1998-01-23 2006-12-13 ソニー株式会社 情報処理装置および方法、情報処理システム、並びに記録媒体
US6349301B1 (en) * 1998-02-24 2002-02-19 Microsoft Corporation Virtual environment bystander updating in client server architecture
US6088698A (en) * 1998-02-27 2000-07-11 Oracle Corporation Method and apparatus for incrementally generating a virtual three-dimensional world
US6348927B1 (en) * 1998-02-27 2002-02-19 Oracle Cor Composing a description of a virtual 3D world from values stored in a database and generated by decomposing another description of a virtual 3D world
US6611196B2 (en) 1998-03-20 2003-08-26 Xerox Corporation System and method for providing audio augmentation of a physical environment
JPH11272156A (ja) * 1998-03-25 1999-10-08 Sega Enterp Ltd 仮想三次元音像生成装置及びその方法並びに媒体
US6118456A (en) * 1998-04-02 2000-09-12 Adaptive Media Technologies Method and apparatus capable of prioritizing and streaming objects within a 3-D virtual environment
US6765570B1 (en) * 1998-07-21 2004-07-20 Magic Earth, Inc. System and method for analyzing and imaging three-dimensional volume data sets using a three-dimensional sampling probe
US6697869B1 (en) 1998-08-24 2004-02-24 Koninklijke Philips Electronics N.V. Emulation of streaming over the internet in a broadcast application
CN1275091A (zh) * 1998-08-24 2000-11-29 皇家菲利浦电子有限公司 在广播事件中在互联网上使用仿真流的实时视频游戏
NO984070D0 (no) * 1998-09-04 1998-09-04 Norsk Hydro As Metode for visualisering og analyse av volumdata
US6215498B1 (en) 1998-09-10 2001-04-10 Lionhearth Technologies, Inc. Virtual command post
US8521546B2 (en) 1998-09-25 2013-08-27 Health Hero Network Dynamic modeling and scoring risk assessment
WO2000023915A1 (en) * 1998-10-16 2000-04-27 Commontown Pte Ltd A virtual space
JP2000194726A (ja) * 1998-10-19 2000-07-14 Sony Corp 情報処理装置及び方法、情報処理システム並びに提供媒体
JP4006873B2 (ja) 1999-03-11 2007-11-14 ソニー株式会社 情報処理システム、情報処理方法及び装置、並びに情報提供媒体
US6416412B1 (en) * 1999-03-16 2002-07-09 Atari Games Corporation System for remotely activating a sound in a game unit
CN1345503A (zh) * 1999-03-31 2002-04-17 英国电讯有限公司 分组消息的方法和设备
EP1069744A1 (de) * 1999-07-13 2001-01-17 BRITISH TELECOMMUNICATIONS public limited company Verfahren und Gerät zur Paket-Nachrichtenübermittlung
KR100347456B1 (ko) * 1999-08-10 2002-08-03 학교법인 한국정보통신학원 분산 가상 환경에서의 확장성을 위한 예측 기반 동시성 제어방법
US6463343B1 (en) * 1999-08-10 2002-10-08 International Business Machines Corporation System and method for controlling remote devices from a client computer using digital images
EP1087323A1 (de) * 1999-09-24 2001-03-28 Nokia Corporation Schnurloses System für Interaktion mit einem virtuellen Raum
JP2001118081A (ja) 1999-10-15 2001-04-27 Sony Corp 情報処理装置および方法、並びにプログラム格納媒体
US6287200B1 (en) * 1999-12-15 2001-09-11 Nokia Corporation Relative positioning and virtual objects for mobile devices
WO2001044990A1 (en) * 1999-12-15 2001-06-21 Trellion Technologies, Inc. System and method for controlling data in a virtual being database
US6674995B1 (en) 1999-12-22 2004-01-06 Nokia Corporation Electronically augmented multiplayer sporting game with virtual ball passed by infrared apparatus
US6810422B1 (en) 2000-01-14 2004-10-26 Lockheed Martin Tactical Defense Systems System and method for probabilistic quality of communication service determination
US20010047517A1 (en) * 2000-02-10 2001-11-29 Charilaos Christopoulos Method and apparatus for intelligent transcoding of multimedia data
US8463839B2 (en) 2000-03-28 2013-06-11 Cybernet Systems Corporation Distributed computing environment
KR20010104493A (ko) * 2000-05-02 2001-11-26 성필문 데이터통신망을 이용한 입체영상제공방법 및 그 처리장치
US7109970B1 (en) * 2000-07-01 2006-09-19 Miller Stephen S Apparatus for remotely controlling computers and other electronic appliances/devices using a combination of voice commands and finger movements
US6453160B1 (en) * 2000-07-31 2002-09-17 Motorola, Inc. Exploiting a broadcast system to enhance a wireless gaming experience using position holders to replace data
JP2002083320A (ja) * 2000-09-07 2002-03-22 Sony Corp 仮想会話支援システム及び仮想会話支援、並びに記憶媒体
US7006085B1 (en) * 2000-10-30 2006-02-28 Magic Earth, Inc. System and method for analyzing and imaging three-dimensional volume data sets
US7251788B2 (en) * 2000-12-21 2007-07-31 Nokia Corporation Simulated speed-of-light delay for recreational benefit applications
US6690820B2 (en) * 2001-01-31 2004-02-10 Magic Earth, Inc. System and method for analyzing and imaging and enhanced three-dimensional volume data set using one or more attributes
AUPR296601A0 (en) * 2001-02-08 2001-03-08 Anderson Technologies Pty Ltd Optical tracking computer interface
GB0104232D0 (en) * 2001-02-21 2001-04-11 Reynolds David J Computer system on the world wide web
GB2373882B (en) * 2001-03-27 2005-07-27 Proksim Software Inc Comparing the position of shared objects
DE10125075B4 (de) * 2001-05-14 2004-07-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Personal Immersion: PC-basiertes Echtzeitgraphiksystem für Virtual Reality Anwendungen
WO2003003194A1 (fr) 2001-06-27 2003-01-09 Sony Corporation Dispositif a circuit integre, dispositif de traitement de l'information, procede de gestion de memoire de support d'information, terminal mobile, dispositif a circuit integre a semi-conducteur, et procede de communication par terminal mobile
US7216288B2 (en) * 2001-06-27 2007-05-08 International Business Machines Corporation Dynamic scene description emulation for playback of audio/visual streams on a scene description based playback system
KR20030035138A (ko) * 2001-10-30 2003-05-09 한국전자통신연구원 클라이언트-서버 기반 네트워크 가상환경에서 상태정보의전송 방법
FR2833101B1 (fr) * 2001-12-03 2004-07-02 Dotvision Procede de creation et de gestion d'univers virtuel
AUPR989802A0 (en) * 2002-01-09 2002-01-31 Lake Technology Limited Interactive spatialized audiovisual system
JP4054585B2 (ja) * 2002-02-18 2008-02-27 キヤノン株式会社 情報処理装置および方法
US8612196B2 (en) * 2002-04-11 2013-12-17 Linden Research, Inc. System and method for distributed simulation in which different simulation servers simulate different regions of a simulation space
US20040024849A1 (en) * 2002-04-19 2004-02-05 Adel El-Beik Method and system for distributing data
US7371175B2 (en) 2003-01-13 2008-05-13 At&T Corp. Method and system for enhanced audio communications in an interactive environment
US7399276B1 (en) 2003-05-08 2008-07-15 Health Hero Network, Inc. Remote health monitoring system
US9841809B2 (en) * 2003-12-12 2017-12-12 Kurzweil Technologies, Inc. Virtual encounters
US9948885B2 (en) * 2003-12-12 2018-04-17 Kurzweil Technologies, Inc. Virtual encounters
US20050130108A1 (en) * 2003-12-12 2005-06-16 Kurzweil Raymond C. Virtual encounters
US8600550B2 (en) * 2003-12-12 2013-12-03 Kurzweil Technologies, Inc. Virtual encounters
US9971398B2 (en) * 2003-12-12 2018-05-15 Beyond Imagination Inc. Virtual encounters
US7796155B1 (en) * 2003-12-19 2010-09-14 Hrl Laboratories, Llc Method and apparatus for real-time group interactive augmented-reality area monitoring, suitable for enhancing the enjoyment of entertainment events
JP2005326987A (ja) * 2004-05-13 2005-11-24 Sony Corp オーディオ信号伝送システム、オーディオ信号伝送方法、サーバー、ネットワーク端末装置、プログラム及び記録媒体
FR2871606B1 (fr) * 2004-06-09 2006-10-06 Giat Ind Sa Systeme de formation a l'exploitation, a l'utilisation ou a la maintenance d'un cadre de travail
EP1605420A3 (de) * 2004-06-09 2010-05-05 Nexter Training Lernsystem für Betrieb, Benutzung oder Wartung eines Arbeitsplatzes in einer virtuellen Realität Umgebung
CA2578653A1 (en) 2004-07-29 2006-02-09 Kevin Ferguson A human movement measurement system
US7298378B1 (en) 2004-12-13 2007-11-20 Hagenbuch Andrew M Virtual reality universe realized as a distributed location network
CN100492382C (zh) * 2005-04-12 2009-05-27 国际商业机器公司 基于服务器/客户机的无缝游戏世界系统及其方法
US20060256907A1 (en) * 2005-05-13 2006-11-16 Freescale Semiconductor Inc. Real time clock
US9250703B2 (en) 2006-03-06 2016-02-02 Sony Computer Entertainment Inc. Interface with gaze detection and voice input
US8730156B2 (en) 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
US20080004729A1 (en) * 2006-06-30 2008-01-03 Nokia Corporation Direct encoding into a directional audio coding format
RU2006131759A (ru) * 2006-09-04 2008-03-10 Николай Иванович Пальченко (RU) Способ и система моделирования, представления и функционирования единого виртуального пространства как единой инфраструктуры для осуществления реальной и виртуальной хозяйственной и иной деятельности человечества
US20080125218A1 (en) * 2006-09-20 2008-05-29 Kelly James Collins Method of use for a commercially available portable virtual reality system
US9968850B2 (en) * 2007-09-17 2018-05-15 Disney Enterprises, Inc. System for providing virtual spaces for access by users
US20090077475A1 (en) * 2007-09-17 2009-03-19 Areae, Inc. System for providing virtual spaces with separate places and/or acoustic areas
US8196050B2 (en) 2007-09-17 2012-06-05 Mp 1, Inc. System and method for embedding a view of a virtual space in a banner ad and enabling user interaction with the virtual space within the banner ad
KR20100131467A (ko) * 2008-03-03 2010-12-15 노키아 코포레이션 복수의 오디오 채널들을 캡쳐하고 렌더링하는 장치
US8066571B2 (en) 2008-06-09 2011-11-29 Metaplace, Inc. System and method for enabling characters to be manifested within a plurality of different virtual spaces
US9403087B2 (en) 2008-06-09 2016-08-02 Disney Enterprises, Inc. System and method of providing access to virtual spaces that are associated with physical analogues in the real world
US8243970B2 (en) * 2008-08-11 2012-08-14 Telefonaktiebolaget L M Ericsson (Publ) Virtual reality sound for advanced multi-media applications
US9384469B2 (en) 2008-09-22 2016-07-05 International Business Machines Corporation Modifying environmental chat distance based on avatar population density in an area of a virtual world
US20100077318A1 (en) * 2008-09-22 2010-03-25 International Business Machines Corporation Modifying environmental chat distance based on amount of environmental chat in an area of a virtual world
US8218690B1 (en) 2008-09-29 2012-07-10 Qualcomm Atheros, Inc. Timing offset compensation for high throughput channel estimation
US9100249B2 (en) 2008-10-10 2015-08-04 Metaplace, Inc. System and method for providing virtual spaces for access by users via the web
US8405770B2 (en) * 2009-03-12 2013-03-26 Intellectual Ventures Fund 83 Llc Display of video with motion
CN102577441B (zh) 2009-10-12 2015-06-03 诺基亚公司 用于音频处理的多路分析
US8326855B2 (en) 2009-12-02 2012-12-04 International Business Machines Corporation System and method for abstraction of objects for cross virtual universe deployment
KR101099519B1 (ko) * 2010-02-12 2011-12-28 주식회사 블루사이드 데이터타입 분류에 따른 캐릭터정보 동기화 방법
FR2961919A1 (fr) * 2010-06-29 2011-12-30 France Telecom Procede de traitement d'une scene audiovisuelle 360 degres, procede de distribution de ladite scene, dispositifs et programmes d'ordinateur associes
US9239765B2 (en) * 2010-08-31 2016-01-19 Avaya Inc. Application triggered state migration via hypervisor
US10455089B2 (en) 2011-03-22 2019-10-22 Fmr Llc Augmented reality system for product selection
US8836771B2 (en) * 2011-04-26 2014-09-16 Echostar Technologies L.L.C. Apparatus, systems and methods for shared viewing experience using head mounted displays
US10120438B2 (en) 2011-05-25 2018-11-06 Sony Interactive Entertainment Inc. Eye gaze to alter device behavior
US8854282B1 (en) * 2011-09-06 2014-10-07 Google Inc. Measurement method
US9874437B2 (en) * 2011-12-28 2018-01-23 Femtonics Kft. Method for the 3-dimensional measurement of a sample with a measuring system comprising a laser scanning microscope and such measuring system
US9339691B2 (en) 2012-01-05 2016-05-17 Icon Health & Fitness, Inc. System and method for controlling an exercise device
EP2846887A1 (de) 2012-05-07 2015-03-18 Embodify ApS Verfahren und system zur verbesserung der körpergeschicklichkeit
CN102930753B (zh) * 2012-10-17 2014-11-12 中国石油化工股份有限公司 加油站虚拟培训系统及应用
EP2736276A1 (de) * 2012-11-27 2014-05-28 GN Store Nord A/S Persönliche Kommunikationseinheit zur Überwachung von einem Ansichtspunkt und Teamkommunikationssystem mit mehreren persönlichen Kommunikationseinheiten zur Überwachung von einem Ansichtspunkt
US9254409B2 (en) 2013-03-14 2016-02-09 Icon Health & Fitness, Inc. Strength training apparatus with flywheel and related methods
US10228242B2 (en) 2013-07-12 2019-03-12 Magic Leap, Inc. Method and system for determining user input based on gesture
US9282309B1 (en) 2013-12-22 2016-03-08 Jasmin Cosic Methods, systems and apparatuses for multi-directional still pictures and/or multi-directional motion pictures
JP5971316B2 (ja) * 2013-12-25 2016-08-17 キヤノンマーケティングジャパン株式会社 情報処理システム、その制御方法、及びプログラム、並びに情報処理装置、その制御方法、及びプログラム
WO2015100429A1 (en) 2013-12-26 2015-07-02 Icon Health & Fitness, Inc. Magnetic resistance mechanism in a cable machine
WO2015138339A1 (en) 2014-03-10 2015-09-17 Icon Health & Fitness, Inc. Pressure sensor to quantify work
US10426989B2 (en) 2014-06-09 2019-10-01 Icon Health & Fitness, Inc. Cable system incorporated into a treadmill
WO2015195965A1 (en) 2014-06-20 2015-12-23 Icon Health & Fitness, Inc. Post workout massage device
US10391361B2 (en) 2015-02-27 2019-08-27 Icon Health & Fitness, Inc. Simulating real-world terrain on an exercise device
WO2016144279A1 (en) * 2015-03-06 2016-09-15 Ors Filiz Mujdehan Virtual reality based remote learning system and method
US10055888B2 (en) 2015-04-28 2018-08-21 Microsoft Technology Licensing, Llc Producing and consuming metadata within multi-dimensional data
US10102226B1 (en) 2015-06-08 2018-10-16 Jasmin Cosic Optical devices and apparatuses for capturing, structuring, and using interlinked multi-directional still pictures and/or multi-directional motion pictures
KR20170019649A (ko) * 2015-08-12 2017-02-22 삼성전자주식회사 사운드를 제공하는 전자 장치 및 방법
US10491711B2 (en) 2015-09-10 2019-11-26 EEVO, Inc. Adaptive streaming of virtual reality data
JP6735077B2 (ja) * 2015-09-25 2020-08-05 株式会社コロプラ システム、方法及びプログラム
US10625137B2 (en) 2016-03-18 2020-04-21 Icon Health & Fitness, Inc. Coordinated displays in an exercise device
US10272317B2 (en) 2016-03-18 2019-04-30 Icon Health & Fitness, Inc. Lighted pace feature in a treadmill
US10493349B2 (en) 2016-03-18 2019-12-03 Icon Health & Fitness, Inc. Display on exercise device
GB2557705A (en) * 2016-09-06 2018-06-27 Russell Hampson Inc Virtual reality motion simulation system.
US10671705B2 (en) 2016-09-28 2020-06-02 Icon Health & Fitness, Inc. Customizing recipe recommendations
US10831830B2 (en) 2016-12-30 2020-11-10 DISH Technologies L.L.C. Normative process of interaction with a registry of virtual spaces
WO2018135057A1 (ja) * 2017-01-20 2018-07-26 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US10146300B2 (en) * 2017-01-25 2018-12-04 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Emitting a visual indicator from the position of an object in a simulated reality emulation
KR20190078475A (ko) 2017-12-26 2019-07-04 (주)스코넥엔터테인먼트 가상 환경 제어 시스템
WO2019132521A1 (ko) * 2017-12-26 2019-07-04 스코넥엔터테인먼트주식회사 가상 환경 제어 시스템
JP6714625B2 (ja) * 2018-02-16 2020-06-24 株式会社カプコン コンピュータシステム
US10694311B2 (en) * 2018-03-15 2020-06-23 Microsoft Technology Licensing, Llc Synchronized spatial audio presentation
WO2020002781A1 (fr) * 2018-06-24 2020-01-02 Altusform Dispositif d'enseignement impliquant du matériel informatique et unité de conception convenant à un tel dispositif d'enseignement
CN116312572A (zh) * 2019-01-31 2023-06-23 华为技术有限公司 一种音频信号处理方法及装置
US11813528B2 (en) * 2021-11-01 2023-11-14 Snap Inc. AR enhanced gameplay with a personal mobility system
US11645032B1 (en) 2022-09-14 2023-05-09 International Business Machines Corporation Smart multi-screen wall arrangement in a virtual reality environment

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4017858A (en) * 1973-07-30 1977-04-12 Polhemus Navigation Sciences, Inc. Apparatus for generating a nutating electromagnetic field
US3983474A (en) * 1975-02-21 1976-09-28 Polhemus Navigation Sciences, Inc. Tracking and determining orientation of object using coordinate transformation means, system and process
US4406532A (en) * 1980-03-25 1983-09-27 Howlett Eric M Wide angle color photography method and system
US4714989A (en) * 1982-02-19 1987-12-22 Billings Roger E Funtionally structured distributed data processing system
US4479195A (en) * 1982-09-07 1984-10-23 At&T Bell Laboratories Data conference system
US4542291A (en) * 1982-09-29 1985-09-17 Vpl Research Inc. Optical flex sensor
US4937444A (en) * 1982-09-29 1990-06-26 Vpl Research, Inc. Optical flex sensor
US4540850A (en) * 1983-04-29 1985-09-10 At&T Bell Laboratories Method and apparatus for controlling a conference
US4640989A (en) * 1984-07-23 1987-02-03 Asher Technologies, Inc. Communications unit for executive work station
US4710870A (en) * 1985-07-10 1987-12-01 Bell Communications Research, Inc. Central computer backup system utilizing localized data bases
US4757714A (en) * 1986-09-25 1988-07-19 Insight, Inc. Speed sensor and head-mounted data display
US4945305A (en) * 1986-10-09 1990-07-31 Ascension Technology Corporation Device for quantitatively measuring the relative position and orientation of two bodies in the presence of metals utilizing direct current magnetic fields
US4734934A (en) * 1986-11-24 1988-03-29 Gte Laboratories Incorporated Binaural teleconferencing system
GB8701288D0 (en) * 1987-01-21 1987-02-25 Waldern J D Perception of computer-generated imagery
US5001628A (en) * 1987-02-13 1991-03-19 International Business Machines Corporation Single system image uniquely defining an environment for each user in a data processing system
US4988981B1 (en) * 1987-03-17 1999-05-18 Vpl Newco Inc Computer data entry and manipulation apparatus and method
US5003300A (en) * 1987-07-27 1991-03-26 Reflection Technology, Inc. Head mounted display for miniature video display system
US4796293A (en) * 1987-12-18 1989-01-03 Communications Network Enhancement Inc. Enhanced dedicated teleconferencing system
US5021976A (en) * 1988-11-14 1991-06-04 Microelectronics And Computer Technology Corporation Method and system for generating dynamic, interactive visual representations of information structures within a computer
US5588139A (en) * 1990-06-07 1996-12-24 Vpl Research, Inc. Method and system for generating objects for a multi-person virtual world using data flow networks
CA2047412A1 (en) * 1990-08-24 1992-02-25 Albert F. Harvard Theme park attraction for multiple participants using real time simulation
JP3247126B2 (ja) * 1990-10-05 2002-01-15 テキサス インスツルメンツ インコーポレイテツド 可搬型可視表示装置を提供する方法並びに装置
US5469511A (en) * 1990-10-05 1995-11-21 Texas Instruments Incorporated Method and apparatus for presentation of on-line directional sound
WO1992009921A1 (en) * 1990-11-30 1992-06-11 Vpl Research, Inc. Improved method and apparatus for creating sounds in a virtual world
US5307456A (en) * 1990-12-04 1994-04-26 Sony Electronics, Inc. Integrated multi-media production and authoring system
JPH06508222A (ja) * 1991-05-23 1994-09-14 アタリ ゲームズ コーポレーション モジュール式表示シミュレーター
US5381158A (en) * 1991-07-12 1995-01-10 Kabushiki Kaisha Toshiba Information retrieval apparatus
GB9115142D0 (en) * 1991-07-13 1991-08-28 Ibm Data processing system
US5310349A (en) * 1992-04-30 1994-05-10 Jostens Learning Corporation Instructional management system
US5495576A (en) * 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5466200A (en) * 1993-02-02 1995-11-14 Cybergear, Inc. Interactive exercise apparatus
US5633993A (en) * 1993-02-10 1997-05-27 The Walt Disney Company Method and apparatus for providing a virtual world sound system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107862920A (zh) * 2017-11-29 2018-03-30 桂林蓝港科技有限公司 一种基于vr环境下的过程控制实验教学的方法及系统

Also Published As

Publication number Publication date
US5659691A (en) 1997-08-19
CA2172535A1 (en) 1995-03-30
EP0721614A1 (de) 1996-07-17
NZ330003A (en) 1999-10-28
JP4152432B2 (ja) 2008-09-17
AU7736694A (en) 1995-04-10
AU687888B2 (en) 1998-03-05
JP2005182843A (ja) 2005-07-07
NZ273893A (en) 1998-05-27
JPH09503082A (ja) 1997-03-25
CA2172535C (en) 2002-12-10
US5950202A (en) 1999-09-07
EP0721614B1 (de) 2003-08-20
WO1995008793A1 (en) 1995-03-30
DE69433061D1 (de) 2003-09-25

Similar Documents

Publication Publication Date Title
DE69433061T2 (de) Netzwerk der virtuellen realität
DE69629983T2 (de) Verfahren zum anteiligen Nutzen eines dreidimensionalen Raumes in virtueller Realität und System dafür
DE69725875T2 (de) Videobetrachtungserfahrungen mit hilfe von standbildern
DE60037866T2 (de) Relative Positionierung und virtuelle Objekte für Mobilgeräte
DE60224776T2 (de) Virtuelles Bildtelefon
DE69631866T2 (de) Multimediakoordinationssystem
DE112012005214B4 (de) Verarbeiten von Medienströmen während einer Mehranwender-Videokonferenz
DE69723192T2 (de) Verfahren und system für die kommunikation unter benutzern über untereinander verbundene terminals mit bezug auf einen virtuellen raum
DE69816748T2 (de) Videospielvorrichtung, videospielausführungsverfahren und aufzeichnungsmedium
DE112006002954T5 (de) Virtuelles Schnittstellensystem
DE602004003839T2 (de) Verbesserte Audiokommunikation in einer interaktiven Umgebung
EP1194005B1 (de) Verfahren zur Einstellung einer Übertragungscharakteristik einer elektronischen Schaltung
DE112017005879T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE102016116582A1 (de) Verfahren und Vorrichtung zur Darstellung von erweiterter Realität
DE60221636T2 (de) Verfahren und vorrichtung zur verwaltung von interaktionen im standard mpeg-4
EP3716014A1 (de) Übertragen eines zustands zwischen vr-umgebungen
DE19755863C2 (de) Akustische Benutzeroberfläche zur mobilen und stationären Nutzung
WO2004040939A2 (de) Verfahren zum vortäuschen einer bewegung mittels einer akustischen wiedergabeeinrichtung und schallwiedergabeanordnung dafür
DE10256140B3 (de) Gerätesystem zur Realisierung von Spielen und/oder Diensten für Besucher von Massenveranstaltungen
DE60219298T2 (de) Verfahren zur steuerung einer elektronischen einrichtung und elektronisches system
EP3038319B1 (de) Kommunikationssystem für eine interaktive avatar-kommunikation
DE102021120629B3 (de) Verfahren und Vorrichtung zur Bewegungssteuerung eines virtuell verkörperten realphysischen Avatars, Computerprogramm zur Durchführung eines solchen Verfahrens
DE602004009168T2 (de) Vernetztes Bewegungssimulationssystem mit geteiltem Speicher
DE112022000997T5 (de) Steuervorrichtung, die taktile reize anwendet
DE4402140A1 (de) Verfahren und Anlage zum Abbilden von Objekten

Legal Events

Date Code Title Description
8364 No opposition during term of opposition