DE69531536T2 - Synthetisches bilderzeugungsverfahren mit sphärischem puffer - Google Patents

Synthetisches bilderzeugungsverfahren mit sphärischem puffer Download PDF

Info

Publication number
DE69531536T2
DE69531536T2 DE69531536T DE69531536T DE69531536T2 DE 69531536 T2 DE69531536 T2 DE 69531536T2 DE 69531536 T DE69531536 T DE 69531536T DE 69531536 T DE69531536 T DE 69531536T DE 69531536 T2 DE69531536 T2 DE 69531536T2
Authority
DE
Germany
Prior art keywords
facet
projected
image
peaks
sphere
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69531536T
Other languages
English (en)
Other versions
DE69531536D1 (de
Inventor
Jean-Christophe Dusseux
Laurent Blonde
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Broadband Systems
Thomson Broadcast Systems
Original Assignee
Thomson Broadband Systems
Thomson Broadcast Systems
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Broadband Systems, Thomson Broadcast Systems filed Critical Thomson Broadband Systems
Application granted granted Critical
Publication of DE69531536D1 publication Critical patent/DE69531536D1/de
Publication of DE69531536T2 publication Critical patent/DE69531536T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zur Erzeugung von synthetischen oder computer-erzeugten Bildern durch einen sphärischen Puffer.
  • Die Erfindung betrifft insbesondere das Gebiet der Bildverarbeitung durch digitale Rechner oder graphische Computer, die mit einer Datenbank arbeiten, die eine Szene in 3 oder 4 Dimensionen beschreibt (Raum und Zeit). Die gemäß der Erfindung gewonnenen synthetischen Bilder können als Abstandsbilder (distance images) für die Berechnung der Ausbreitung von Lichtenergie oder als endgültige, zu betrachtende synthetische Bilder dienen.
  • Die Verfahren zur Erzeugung von synthetischen Bildern unter Anwendung der Oberflächendarstellung für feste Objekte und der ebenen oder hemisphärischen Projektion, d. h. die Projektion des Bildes auf eine oder mehrere Ebenen oder auf eine Hemisphäre oder Halbkugel, sind bekannt. Diese Projektion ist zum Beispiel beschrieben in dem Artikel "The hemishere radiosoty method: a tale of 2 algorithms" von Stephen H. Spencer in der Revue Proceedings in Eurographics, 1991. Dieses Verfahren besteht in der Projektion auf eine Hemisphäre, die um einen Betrachtungspunkt der 3D-Szene zentriert ist und die der Betrachtungspunkt ist, wobei die gewählten Polygone dieser Oberflächendarstellung entsprechen, auch bezeichnet mit "Facetten".
  • Die EP-0-A 251 800 schlägt ein Verfahren und eine Vorrichtung zur Ableitung von Strahlungsbildern unter Anwendung eines Licht-Speicherpuffers vor. Das Verfahren besteht in der Projektion auf einen um den Betrachtungspunkt der 3D-Szene zentrierten Hemipolyeder an Stelle einer Hemisphäre oder Halbkugel, wie sie von Spencer beschrieben wird.
  • Außerdem ist die Bestimmung von verdeckten Teilen einer 3D-Szene Gegenstand zahlreicher, ebenfalls bekannter Verfahren. Ein einfaches Verfahren zur Bestimmung der sichtbaren Teile der zu projizierenden Polynome, bekannt als "Z-Puffer" oder "Tiefenpuffer" (depth buffer), besteht in der Berechnung der Tiefe oder des Abstands für jedes Pixel des projizierten Bildes. Wenn das betrachtete Polygon einen Wert liefert, der kleiner ist als der in diesem "Puffer" gespeicherte Wert, wird der alte Wert durch den neuen berechneten Wert ersetzt. Diese Lösung wird für ebene Projektionen benutzt, d. h., wenn die Abtastung für die Pixel des projizierten Bildes auf einer oder mehreren flachen Ebenen erfolgt, zum Beispiel auf einer Ebene in der Nähe des Projektionspunktes in dem Fall des hemiplanen oder halbplanen Algorithmus, auf fünf Flächen einer Halbröhre in dem Fall des Hemicub-Algorithmus.
  • Eine Bestimmung der sichtbaren Teile einer 3D-Szene von einem Betrachtungspunkt ist beschrieben in der französischen Patentschrift Nr. FR 2 703 803, veröffentlicht am 14. Oktober 1994. Sie betrifft insbesondere einen Algorithmus, der die Bestimmung der sichtbaren Segmente durch eine hemisphärische Projektion und die Berechnung der Schnittpunkte der projizierten Polygone ermöglicht.
  • Die Bildsynthese durch eine ebene Projektion bewirkt das Problem der Spektrum-Überlappung, bekannt als sogenanntes "Aliasing". Diese Erscheinung bewirkt Qualitätsfehler des Bildes: treppenähnliche Konturen, ein Blinken aufgrund des zufallsmäßigen Verschwindens kleiner Polygone, Schattenkonturfehler, usw., die durch eine unzureichende räumliche und zeitliche benutzte Abtastung entstehen.
  • Das ist teilweise bedingt durch die geometrischen Verzerrungen der Projektion während des Übergangs von dem 3D-Bild zu dem 2D-Bild, die in einer ungleichmäßigen Abtastung für das 2D-Bild resultieren. Diese Verzerrungen resultieren zum Beispiel aus der Projektion eines 3D-Raums auf eine flache Oberfläche, eine Projektion, die die Raumwinkel nicht berücksichtigt, d. h. für einen bestimmten Raumwinkel sollte sich die Projektionsfläche in Abhängigkeit von der Richtung dieses Raumwinkels in dem Raum ändern. Eine adaptive Abtastung der Projektionsebene ermöglicht eine Verringerung des genannten Aliasing. Diese Abtastung erfolgt derart, dass die Fläche der erzeugten Pixel nicht konstant ist, sondern einem im wesentlichen konstanten projizierten Raumwinkel entspricht, unabhängig von der Richtung. Jedoch ist, selbst wenn eine klassische Filterung benutzt wird, die Qualität der Ergebnisse begrenzt, da es sich um Annäherungen oder Approximationen handelt. Eine andere Lösung besteht in der Projektion der Szene auf eine Hemisphäre oder Halbkugel, da diese Projektion die Raumwinkel berücksichtigt. Dann erfolgt die Verzerrung jedoch in der späteren Stufe, in der die Projektionen der Raumwinkel auf eine Ebene verarbeitet werden müssen.
  • Die Probleme der Bildsynthese sind außerdem in einer klassischeren Weise durch die Analog/Digital-Umsetzung bedingt, die Informationsverluste enthält. Diese Erscheinung tritt insbesondere auf bei den Konturen der 2 Facetten an der Grenze zwischen benachbarten Facetten und insbesondere für die Label-Informationen der sichtbaren Facette, da ein Wert unter mehreren für das entsprechende Pixel gewählt werden muß. Für die beiden anderen Informationstypen für das Pixel, d. h. der Abstand des Betrachtungspunktes von dem Projektionspunkt und die Farbe oder der Helligkeitswert des Pixels, kann eine Filterung diese Erscheinung verringern. Sie ist noch mehr anwesend bei der Kontur der Facette, wenn eine Facette teilweise durch eine andere Facette verdeckt wird, da die Verdeckung eines Pixels durch mehrere Facetten mit völlig unterschiedlichen Abständen und Farben die Filterung relativ ineffizient macht. Die Erfindung gemäß der französischen Patentschrift FR 2 703 803 ermöglicht die Lösung dieses Problems durch Verarbeitung der Schnittpunkte der Facetten oder Polygone, der Lücken oder Verdeckungen in einer analytischen Weise. Dieses Verfahren kann jedoch kostenintensiv hinsichtlich der Berechnungszeit sein, wenn die Datenbank groß ist. Die Qualität der Ergebnisse ist sicher ausgezeichnet, wird jedoch mit hohen Berechnungszeiten erreicht. Wenngleich die Qualität für die direkte Beleuchtung wichtig ist und es sich hier um die Durchführung der Erfindung auf dem Gebiet der Strahlung handelt, d. h. um das Modeling der Ausbreitung und um den Austausch von Lichtenergie oder die Simulation einer Beleuchtung, ist diese Qualität wesentlich weniger entscheidend für Reflexionen, da diese indirekte Beleuchtung nur ungefähr zehn Prozent der direkten Beleuchtung darstellt. Außerdem ermöglicht dieses Verfahren kein Bild von Abständen oder ein endgültiges synthetisches Bild.
  • Es sei letztlich bemerkt, dass die vorangehend genannten geometrischen Verzerrungen während des Übergangs von dem 3D-Bild zu dem 2D-Bild, die auf einen Raumwinkel für die Pixel zurückzuführen sind, der über das ganze Bild veränderbar ist, Ergebnisse bewirken, die letztlich falsch sind und das Modeling der optischen Systeme der Kameras und der Sensoren durch Einführung unrealistischer Projektionsfehler stören.
  • Die Aufgabe der vorliegenden Erfindung besteht darin, die oben beschriebenen Nachteile zu vermeiden.
  • Die Erfindung betrifft ein Verfahren zur Erzeugung von synthetischen Bildern einer dreidimensionalen Szene aus einem Satz von Facetten, gesehen von einem Betrachtungspunkt A und entlang einer Betrachtungsachse, dadurch gekennzeichnet, dass die Facetten auf die Oberfläche einer Kugel projiziert werden, deren Mittelpunkt der Betrachtungspunkt der Szene (7) ist, und dass eine besondere Aufteilung der Oberfläche der Kugel in elementare Flächen (10) erfolgt, wobei jede einem Pixel auf der Kugeloberfläche entspricht, und derart erfolgt, dass die orthogonalen Projektionen dieser Flächen auf eine Referenzebene, die durch den Betrachtungspunkt A und senkrecht zu der Betrachtungsachse der Szene denselben Wert aufweist.
  • Weitere Merkmale und Vorteile der Erfindung ergeben sich im folgenden aus der Beschreibung anhand der beigefügten Zeichnung:
  • 1 ist ein Flußdiagramm und zeigt das Verfahren für die Synthese der Bilder gemäß der Erfindung. Dieses Flußdiagramm zeigt zwei Teile 1 und 2, die in den 1a und 1b dargestellt sind,
  • 2 zeigt die Projektionen von einem Punkt in dem Raum.
  • 3 zeigt eine elementare Fläche auf der Kugel für die Berechnung des Formfaktors,
  • 4 zeigt die Breitenkreise und die Meridiane oder Längskreise der Kugel,
  • 5 zeigt die Abtastung der Oberfläche der Projektionskugel,
  • 6 zeigt das sogenannte Verfahren der doppelten Verdeckung.
  • Die Idee der Erfindung besteht darin, eine spezielle Aufteilung der Oberfläche einer Projektionskugel zu bilden, um den Pixeln des 2D-Bildes zugeordnete Bereiche, d. h. eine die Kugeloberfläche darstellende Ebene zu begrenzen, während auf die Referenzebene projizierte Raumwinkel senkrecht zu der Betrachtungsachse denselben Wert haben, unabhängig von dem Pixel.
  • Auf diese Weise sind die erzielten Ergebnisse frei von geometrischen Verzerrungen aufgrund des Projektionsverfahrens. Das Aliasing wird ebenfalls aufgrund der Anwendung einer spezifischen winkelförmigen Abtastung verringert. Der Algorithmus der Verarbeitung ermöglicht aufgrund seiner Einfachheit schnelle Berechnungen, die an die geforderte Bildqualität angepaßt sein können, zum Beispiel entsprechend den Bedeutungskriterien für Objekte der Szene.
  • Das Verfahren zur Erzeugung von synthetischen Bildern durch einen sphärischen Puffer ist durch ein Flußdiagramm in 1 dargestellt. Aus einer Datenbank mit einer Szene in einem 4-dimensionalen Raum werden aus der Szene im Zeitpunkt t entsprechende Daten extrahiert, die einen Satz von ebenen Polygonen oder Facetten beschreiben. Diese Daten sind am Eingang 1 des Flußdiagramms verfügbar und werden im Schritt 2 in der folgenden Weise verarbeitet: ein laufender Punkt der Betrachtung oder der Projektion der gewählten 3D-Szene, eine Vorauswahl von Polygonen, die von der Behandlung betroffen sind, wird unter Berücksichtigung der Hierarchie in der Szene durchgeführt, d. h. der Konstitution der Szene, des Feldes oder des Betrachtungsvolumens, und der Wichtigkeit der Objekte, usw. Diese Stufe initialisiert die Vorgänge für den Zugriff zu den aufeinanderfolgenden Polygonen sowie den verschiedenen Arbeitspuffern wie den sogenannten Tiefenpuffern (depht buffers).
  • Der Schritt 3 ermöglicht einen Zugriff zu den laufenden Facetten, die in dem nächsten Schritt 4 durch eine Änderung von Koordinaten auf den Projektionspunkt bezogen werden: die Koordinaten des laufenden Objektes werden in diejenigen des gewählten Projektionspunktes A umgesetzt, bezeichnet mit (A, X, Y, Z), orthogonale Koordinaten, für die die Achse AZ die Betrachtungsrichtung ist.
  • Der Schritt 5 ist eine Bestimmung der Orientierung der Facette relativ zu dem Projektionspunkt, wobei diese Orientierung der Sichtbarkeit oder der Nicht-Sichtbarkeit der Facette des Punktes und gemäß der Betrachtungsrichtung entspricht. Es handelt sich somit um eine Wahl der Orientierung, wobei die nicht sichtbare Facette in diesem Fall beseitigt wird, eine Rückkehr zu dem Schritt 3 nach der Inkrementierung im Schritt 6, wodurch die Verarbeitung der nächsten Facette ermöglicht wird.
  • Der Schritt 7 ist eine Projektion der laufenden Facette, die aus der 3D-Szene ausgewählt wird, auf eine um den Projektionspunkt A zentrierte Kugel und erzeugt ein transformiertes "Polygon". Jeder Gipfel (apex) M der Facette ist definiert durch Polarkoordinaten R (A, θ, φ) des Mittelpunkts, des Mittelpunkts der Projektion A, der Peilwinkel θ und des Elevationswinkels φ in der folgenden Weise: Die Ebene (A, X, Y) wird als die Referenzebene der Peilungen und die Achse AX als Referenzachse der Peilung auf dieser Ebene gewählt. Die Achse AZ wird genommen als die Achse der Gipfel oder der Pole der Kugel. Der Punkt M in den Koordinaten (A, X, Y, Z) ist in 2 dargestellt.
  • Für jeden der auf die Kugel projizierten Gipfel wird der Abstand von A zu diesem Gipfel oder genauer das Quadrat des euklydischen Abstands berechnet, was für die Berechnungszeit weniger kostenintensiv ist, weil keine Quadratwurzel ausgewertet werden muß, dann die Elevations- und Peilwinkel in Polarkoordinaten aus den Koordinaten XA, YA, ZA dieses Gipfels in der Ebene (A, X, Y, Z)
  • Figure 00060001
  • Die Unbestimmtheiten der Elevationswinkel für Nullwerte von XA, YA und ZA und der Nullwerte für die Peilwinkel XA und YA oder nur für den Nullwert von YA und XA mit negativem XA, wie später ersichtlich wird, (Peilung, für die θ = –180° oder +180°) werden während der Verarbeitung des Schnitts in den Stufen 8 und 9 behandelt.
  • Außerdem wird für jeden der Gipfel B auch das Vektorprodukt AB AC berechnet, wobei B der laufende verarbeitete Gipfel und C der nächste Gipfel entlang der Kontur ist.
  • Der Schritt 8 bewirkt eine Prüfung für die Notwendigkeit des Schnitts der verarbeiteten Facette, d. h. in den folgenden Fällen:
    • – die projizierte Facette bedeckt einen der Pole der Kugel (Nordpol) für eine Elevation von 90° oder Südpol für eine Elevation von –90° (1)
    • – einer der Gipfel der projizierten Facette fällt zusammen mit einem der Pole (XA = YA = 0) (2)
    • – die projizierte Facette bedeckt einen Teil eines Halbkugelschnitts oder Meridianschnitts, wobei die Halbkugel definiert ist als der Referenzkreis, Schnittpunkt der Kugel mit der Referenzebene, für die θ = ±180° und durch die Pole (3)
    • – einer der projizierten Gipfel fällt zusammen mit einem Punkt des Halbkugelschnitts (4).
  • Diese Fälle entsprechen tatsächlich den oben genannten Unbestimmtheiten der Winkel, die Unbestimmtheit der Fälle 3 und 4, d. h. ein Gipfel, der auf die Facette wie YA projiziert ist, ist null, und XA ist negativ und verknüpft mit der Wahl des Schneidmeridians wie eine "Schnittlinie" des kugelförmigen Bildes zur Gewinnung des planen oder ebenen Bildes, wobei diese Zeile die extremen Spalten des ebenen Bildes darstellt. Man spricht auch von einer "Entwicklung" der Kugel in ein ebenes 2D-Bild, wie im Schritt 10 zu sehen ist, die den Nordpol und den Südpol entsprechend der oberen und unteren Zeile des Bildes und den Schneidmeridian zu der rechten und linken Spalte des Bildes bewirken und dadurch eine Mehrdeutigkeit bilden, die bei dem nächsten Schritt durch die Erzeugung von Clonepunkten aufgelöst wird.
  • Dieser Schritt 9 bewirkt, falls erforderlich, einen Schnitt des auf die Kugel projizierten Bildes aus der Sicht seiner Projektionsebene 2D durch Bildung von "Clone" (clones)-Punkten der bereits existierenden.
  • In dem Fall (1) bedeckt die Facette einen der Pole und unabhängig von den folgenden Fällen (3) und (4), die auch durch diesen Typ der Facette betroffen sind, werden zwei sogenannte "Clone" auf der Projektionskugel gebildet, wobei jeder von ihnen denselben Elevationswert hat wie der des bedeckten Pols (+90° oder –90°) und unwillkürliche angrenzende Peilwerte, zum Beispiel die Extremwerte, d. h. +180° und –180°. Die beiden derart gebildeten Punkte sind neue Gipfel, eingefügt in die die Kontur der Facette bildenden Gipfel, zwischen den im Fall (3) oder im Fall (4) gebildeten Punkten, wodurch ein neuer Schnitt der Facette durch Berechnung der diese Gipfel verbindenden Seiten ist.
  • In dem Fall (2) ist einer der Gipfel ein Pol, die Projektion dieses Gipfels wird ersetzt durch zwei Clonepunkte mit derselben Elevation wie der Pol, wobei die Peilungen jeweils diejenigen des entlang der Kante des Polygons vorangehenden und folgenden Gipfels sind.
  • In dem Fall (3) schneidet eine Seite des Polygons den Schnitt-Halbkreis und führt zu einer Berechnung des Schnittpunkts mit dem Schnitt-Halbkreis. Unter Anwendung der berechneten Elevation dieses Schnittpunkts werden zwei Clonepunkte gebildet, einer auf jeder Seite dieses Schnitt-Halbkreis, wobei beide die berechnete Elevation und die jeweiligen Peilungen von +180° und –180° aufweisen.
  • In dem Fall (4) fällt ein Gipfel auf den Schnitt-Halbkreis. Wenn die vorangehenden und folgenden Gipfel entlang der Kante des Polygons an derselben Seite des Halbkreises liegen, ist der gewählte Peilwinkel derjenige, der dieser Seite (+180° oder –180°) entspricht. Wenn sie auf gegenüberliegenden Seiten dieser Grenze liegen, wird dieser Gipfel ersetzt durch zwei Clonepunkte mit derselben Elevation wie dieser Gipfel und die gegenüberliegenden Peilungen (+180° oder –180°). Nur dieser zweite Fall wird berücksichtigt, wenn für eine Facette der Fall (1) und ebenso der Fall (4) auftreten.
  • Der Schritt 10 bewirkt seinerseits einen Übergang der Elevations- und Peilwerte jedes der Gipfel und der Clone der Facetten, die in "Zeilen"- und "Spalten"-Werten eines 2D-Bildes auf die Kugel projiziert werden.
  • Dieser Übergang ist verknüpft mit einem spezifischen Schnitt der Oberfläche der Kugel in elementare Flächen, die die Pixel der Kugel definieren, wobei die Darstellung der ebenen Fläche dieser Kugelfläche einer Assoziation dieser Pixel mit den Pixeln des zu erzeugenden ebenen 2D-Bildes entspricht, wie später erläutert wird. Dieser Schnitt erfolgt derart, dass die Pixel des kugelförmigen oder ebenen 2D-Bildes alle denselben Beitrag liefern für den Formfaktor (die Definition wird später angegeben), d. h., dass die Fläche jedes der Pixel des kugelförmigen oder ebenen 2D-Bildes, die den elementaren Flächen entspricht, eine identische orthogonale Projektion auf die Ebene senkrecht zu der Betrachtungsachse erfolgt.
  • Der Schnitt, der auf der Kugel erfolgen muß, um einen konstanten Formfaktor zu gewinnen, wird im folgenden beschrieben.
  • Per Definition ist der Formfaktor FdAi,j der Facette Aj relativ zu dem Flächenelement dAi der Facette Ai bei 0 oder an den Grenzen zentriert. Der Formfaktor der Facette Aj relativ zu dem Punkt 0 und seiner "Normalen" ist durch folgende Gleichung gegeben:
    Figure 00090001
    wobei αi und αj Winkel sind, die jeweils Normale zu den Facetten Ai und Aj mit der ihren Mittelpunkt verbindenden Linie bilden, r der Abstand zwischen diesen Mittelpunkten und Aj die Fläche der Facette Aj ist, wie in 3 gezeigt.
  • Wenn die Facette Aj eine Projektion auf die Einheitskugel des Mittelpunkts 0 ist, wie in 3 gezeigt, ist αj = 0 und daher Aj:
  • Figure 00090002
  • Dieser Formfaktor entspricht dem Raumwinkel gegenüberliegend der Fläche Aj von dem Punkt 0 und projiziert auf Ai, geteilt durch π:
  • Figure 00090003
  • Durch Schnitte der Kugel in Pixel Pkl, die aus dem Schnitt eines Bandes der Oberfläche auf der Kugel resultieren, die durch zwei Längenkreise von Peilwinkeln θl und θl+1 mit einem Oberflächenband, das durch zwei Breitenkreise von Elevationswinkeln φk und φk+1 gebildet sind. Die Fläche d Aj dieses Pixels, die in 4 dargestellt ist, ist dAj = sinφdφdθ (mit φ = 90° beim Äquator).
  • Der dieser Fläche entsprechende Formfaktor ist:
  • Figure 00090004
  • Die Gewinnung eines konstanten Formfaktors für jedes der derart begrenzten Pixel führt zu den folgenden Gleichungen:
    Figure 00100001
    wenn N die Anzahl der Meridiane ist, d. h., wenn l sich von 0 bis N–1 ändert
    Figure 00100002
    wenn P die Anzahl der Breitenkreise ist, d. h., wenn sich k von 0 bis P–1 ändert.
  • Die Projektion der Breitenkreise entsprechend diesen Gleichungen auf eine durch die Pole verlaufende Ebene ist in 5a dargestellt.
  • Die Projektion dieser Meridiane oder Längenkreise auf die Bezugsebene ist in 5b dargestellt.
  • P entspricht der Anzahl von Zeilen des ebenen 2D-Bildes und N der Anzahl von Spalten. Das durch die Zeile k und die Spalte l definierte Pixel des 2D-Bildes entspricht dem Pixel Pkl auf der Kugel.
  • Die Pixel der Kugel, die am nächsten zum Nordpol und zum Südpol liegen, entsprechen jeweils der ersten und der letzten Zeile des Bildes, die Pixel, die am nächsten zu dem Referenzmeridian liegen, entsprechen der ersten und der letzten Spalte des Bildes.
  • Die Abtastung der Oberfläche der Kugel wird daher in der folgenden Weise durchgeführt:
  • – auf dem Längenkreis durch einen Schnitt von N Meridianen, wie zwei aufeinanderfolgende Meridiane l und l+1, haben Peilwinkel θl und θl+1, so dass:
    Figure 00100003
  • – in der Breite durch einen Schnitt von P Breitenkreisen wie 2 aufeinanderfolgende Breitenkreise k und k + 1 auf Elevationswinkeln φk und φk+1, so dass:
  • Figure 00110001
  • Es sei bemerkt, dass die winkelförmige Anpassungsfähigkeit im wesentlichen durch die Elevationsabtastung gebildet wird.
  • N und P entsprechen der gewünschten Auflösung bzw. der Anzahl von Zeilen und Spalten des zu gewinnenden 2D-Bilds.
  • Die Abtastung der Oberfläche der Kugel ermöglicht daher auf diese Weise die Definition der jedem Pixel zugeordneten Flächen. Ein sphärischer Puffer, dessen Speicherplätze jedem dieser Pixel der sphärischen Oberfläche und daher außerdem dem endgültigen zweidimensionalen Bild entsprechen, speichert die Nutzdaten für den Abstand, die Farbe, die Facettennummer jedes Gipfels, der auf die Oberfläche der Kugel und jedes gebildete Clone projiziert wird.
  • Im Schritt 11 erfolgt eine Bestimmung der Projektionsmaske entsprechend der geschlossenen projizierten Kontur der laufenden Facette auf dem temporären sphärischen Puffer, d. h. dem laufenden Puffer.
  • Die Facette wird Seite für Seite auf das Gitter der Pixel der Kugel projiziert, um ein flaches 2D-Bild zu ergeben, das eine flache oder ebene Darstellung der Kugel ist, die durch die Übereinstimmung der Pixel der Kugel mit denjenigen des flachen oder ebenen Bildes gewonnen wird, wie bereits oben erwähnt, und nicht eine ebene Projektion. Aus den Projektionspunkten auf der Kugel der Gipfel und Clone werden die Kreisbögen und die sie verbindenden geraden Linien ermittelt. Wenn die Differenz der Peilung zwischen zwei Punkten einen bestimmten Wert nicht übersteigt, zum Beispiel 2 bis 3 Pixel, wird die Kurve einer geraden Linie angenähert, deren Weg unter Anwendung bekannter Algorithmen erfolgt, zum Beispiel vom Typ Bresenham. Anderenfalls wird der Kreisbogen in dem sphärischen Puffer berechnet, zum Beispiel durch Anwendung des im folgenden beschriebenen Verfahrens, das außerdem die Berechnung des Abstands für die diesem Weg entsprechenden Pixel ermöglicht.
  • Wenn B und C Gipfel sind, die ein Segment oder eine Seite einer Facette definieren, kann man einen Punkt M dieses Segments durch seine parametrische Lage definieren, d. h. relativ zu einem Parameter k, so dass: AM = kAB + (1 – k)AC
  • Die durch A und die Pole verlaufende Ebene π wird in der Peilung inkrementiert, und man bestimmt für jede Lage den Wert von k, d. h. die parametrische Lage des Punktes M entsprechend einem Schnittpunkt dieser Ebene π mit der Seite BC. Die B enthaltende Ebene π entspricht k = 1, diejenige, die C enthält, entspricht k = 0.
  • Von diesem Wert wird die Elevation des Punktes M, der der Schnittpunkt der Ebene π mit dem Segment BC ist, unter Berücksichtigung der vektoriellen Gleichung und der Formel der oben ersichtlichen Elevation φ berechnet. Das ermöglicht, dass der Punkt M auf dem 3D-Raum der sphärischen Oberfläche und daher auf dem ebenen 2D-Bild liegt. Der Abstand für diesen Punkt ist eine Funktion von k |AM|2 = k2|AB|2 + (1 – k)2|AC|2 + 2k(1 – k)γ
  • Dabei ist γ das Skalarprodukt AB AC , zugeordnet zu B und berechnet im Schritt 7 für die beiden aufeinanderfolgenden Gipfel B und C. Die Werte |AB|2 und |AC|2 werden ebenfalls im Schritt 7 berechnet. Diese Berechnungen erfolgen, weil eine Interpolation von dem ebenen 2D-Bild keine genauen Ergebnisse liefern würde, da sie keine ebene Projektion ist.
  • Es ist notwendig, eine geschlossene Kontur für die auf die Kugel projizierte Facette zu gewinnen. Wenn somit zwei aufeinanderfolgende Pixel, positioniert für aufeinander folgenden Inkrementierungen der Ebene π, in dem sphärischen Puffer nicht benachbart sind, erfolgt eine spezielle Bearbeitung: Jeder der entsprechenden Punkte wird durch Wiederholung des Pixels mit einer Elevation "vergrößert", der eine inkrementiert, der andere dekrementiert, so häufig wie notwendig dafür, dass sie Nachbarn werden, d. h. einer in der Nachbarschaft des anderen liegt, wobei die Nachbarschaft durch ungefähr 8 Pixel definiert ist.
  • Dieser Schritt ermöglicht daher die Bestimmung der geschlossenen projizierten Kontur der Facette oder der Projektionsmaske mit der Zuordnung der Abstände für jedes der Pixel der Kontur. Diese Abstandsdaten werden entsprechend der verarbeiteten Facette in einem temporären Puffer für die mit der Kontur der Facette verbundenen Pixel gespeichert. Die Nummer der Facette und möglicherweise die Farbinformationen, die zum Beispiel als eine Funktion von k oder gemäß dem bekannten Verfahrens von Gouraud interpoliert werden, werden ebenfalls in dem Puffer gespeichert.
  • Der nächste Schritt 12 ermöglicht die "Füllung" dieses temporären Puffers, d. h. die Bestimmung der Pixel im Inneren der geschlossenen Kontur. Dann werden für jedes dieser Pixel die Abstände von A zu dem entsprechenden Punkt der Facette berechnet.
  • Das 2D-Bild der Kontur wird somit horizontal abgetastet, Zeile für Zeile, dann vertikal, Spalte für Spalte. Für jede Zeile definiert der Schnittpunkt mit der Kontur den unteren und oberen Wert, außerhalb derer eine Abdeckung oder Maskierung definiert wird. Dasselbe erfolgt für jede Spalte. Die Überlagerung dieser beiden Verdeckungen, was das in 6 dargestellte Verfahren der doppelten Verdeckung ist, ermöglicht die Definition von Pixeln innerhalb und auf der Kontur, wobei diese Pixel der verarbeiteten Facette entsprechen.
  • Auf diese Weise können alle Typen von zusammenhängenden (lückenfreien) Facetten dargestellt werden, die durch ein N-seitiges Polygon im 3D-Raum auf einer ebenen Oberfläche nach der kugelförmigen Projektion gebildet werden und daher die Projektion auf die Seiten als Kreisbögen berücksichtigen.
  • Ein Verarbeitungsfenster in der Form eines Rechtecks, das diese geschlossene Kontur umfaßt, wird in dem temporären sphärischen Puffer gebildet, um die Verarbeitung des vollständigen Bilds zu erleichtern.
  • Dann wird für jedes Pixel in der Kontur, die einer Zeilen/Spaltennummer und daher einer bestimmten Elevation und Peilung entspricht, der Puffer durch das Label für die Facette und durch den Abstand gefüllt, der von dem Punkt A zu dem diesen Pixel entsprechenden Punkt auf der Facette berechnet wird. Diese Berechnung erfolgt durch Abtastung des Bilds Zeile für Zeile, d. h. bei einer konstanten Elevation: Unter Anwendung des bereits beschriebenen Verfahrens werden die Abstände und die Peilungen der Seiten eines Segments, das den Punkten der Kontur der Facette entspricht, für eine bestimmte Elevation ermittelt. Als nächstes wird die gerade Linie von einem Punkt A zu einem Punkt P berechnet, wobei P durch die Lage auf der Ebene π definiert ist. Die Farbe kann auch in dem temporären sphärischen Puffer für jedes der Pixel gespeichert werden, nachdem sie zum Beispiel durch Interpolation gemäß dem bekannten Verfahren von Gouraud berechnet wurde.
  • Der nächste Schritt 13 ist ein Vergleich dieses temporären sphärischen Puffers mit einem als Referenzpuffer bezeichneten Puffer.
  • Dieser Referenzpuffer für das vollständige Bild wird initialisiert, dann gefüllt und aktualisiert in dem Maße, wie die Facetten verarbeitet werden. Dieser Puffer wird, Pixel für Pixel, mit dem temporären Puffer verglichen, um in dem Referenzpuffer nur die Informationen zu konservieren, die dem Abstand, der Bezeichnung und der möglichen Farbe entsprechend dem nächstgelegenen Pixel entsprechen. Der Abstand, die Bezeichnung (Label) und die Farbe des sphärischen temporären Puffers werden nur dann in den sphärischen Referenzpuffer geschrieben, wenn der Abstand des Pixels in dem temporären Puffer kleiner ist als der des entsprechenden Pixels des Referenzpuffers.
  • Zusätzlich kann eine morphologische Behandlung durchgeführt werden, um die grenzenbezogenen Fehler in diesem Verfahren zu verringern. Eine morphologische Erosion besteht zum Beispiel in der Annulierung oder Löschung aller angetroffenen Pixel, die zu der Facette gehören, die einem Pixel vorausgeht, das während der Zeilenabtastung nicht zu diesem gehört, um dadurch eine Überschätzung der Flächen der Facetten aufgrund der Zuordnung zu einer Fläche bei einem projizierten Punkt zu vermeiden. Der Schritt 14 prüft oder verifiziert, ob alle gewählten Facetten verarbeitet worden sind. Anderenfalls ermöglicht der Schritt 6 die Übertragung zu der nächsten Facette, und die Verarbeitungsschritte 3 bis 14 werden erneut durchgeführt.
  • Wenn alle Facetten verarbeitet worden sind, stellt der gebildete sphärische Puffer das sphärische Nutzbild dar.
  • Der Puffer ist ein Speicher, der, unter anderen Dingen, in physischer oder körperlicher Form die Informationen jedes der Punkte in dem Bild enthält, so dass dieses synthetische Bild, bevor ein Sensor benutzt werden kann, durch Simulation des optischen Systems modelliert wird, um ein endgültiges Bild auf dem Bildschirm wiederzugeben.
  • Dieses synthetische Bild ist sehr naturgetreu und natürlich. Daher sind die erzeugten Szenen sehr nahe an der Realität.
  • Dieses Verfahren zur Erzeugung von synthetischen Bildern gibt als endgültiges Ergebnis die Form eines "sichtbaren oder ansehbaren Bildes" (visibility image). Dieses kann auch als endgültiges synthetisches Bild oder Computerbild dienen, das bis zu über 360° betrachtet werden kann, oder als ein synthetisches Abstandsbild oder als ein Modell für eine Strahlungsberechnung dienen.
  • Dieses synthetische Bild kann daher zur Erzeugung eines stereoskopischen Bildes oder einer stereoskopischen Folge oder auch zur Durchführung aller Typen einer Mischung dienen, zum Beispiel mit realen Bildern oder für ein Modell zum Austausch von Lichtenergie in dem Bereich der Strahlung durch Auswertung der Formfaktoren.

Claims (7)

  1. Verfahren zur Erzeugung von synthetischen Bildern einer dreidimensionalen Szene aus einem Satz von Facetten, gesehen von einem Betrachtungspunkt A und entlang einer Betrachtungsachse, dadurch gekennzeichnet, dass die Facetten auf die Oberfläche einer Kugel projiziert werden, deren Mittelpunkt der Betrachtungspunkt der Szene (7) ist und dass eine besondere Aufteilung der Oberfläche der Kugel in elementare Flächen (10) erfolgt, wobei jede einem Pixel auf der Kugeloberfläche entspricht, und derart erfolgt, dass die orthogonalen Projektionen dieser Flächen auf eine Referenzebene, die durch den Betrachtungspunkt A und senkrecht zu der Betrachtungsachse der Szene verläuft, denselben Wert aufweisen.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Fälle der Mehrdeutigkeit, die durch die ebene Darstellung der sphärischen Oberfläche erzeugt werden, wenn die projizierten Punkte den Gipfeln oder den Seiten der Facetten entsprechen, mit dem Schnittmeridian (8) übereinstimmen, der als eine Schnittlinie der sphärischen Oberfläche entsprechend der ersten und der letzten Spalte des ebenen Bildes, ihre der ersten und der letzten Zeile sphärischen Oberfläche definiert ist, ihre Seiten (Pole), die der ersten und der letzten Zeile entsprechen, durch die Bildung einer Verdoppelung der Punkte verarbeitet wird, die auf diesen Meridian projiziert werden, und dann während der Bestimmung der Seiten der projizierten Flächen als Gipfel von projizierten Facetten verarbeitet werden.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass dann, wenn einer der Pole zu dem Winkelabstand der projizierten Facette (8) gehört, zwei Clonepunkte (9) gebildet werden, die die Elevation des entsprechenden Pols haben und angrenzenden Pfeilwinkel entsprechen und während der Bestimmung der Seiten der projizierten Facetten als Gipfel der Facette verarbeitet werden.
  4. Verfahren nach Anspruch 1, 2 oder 3, dadurch gekennzeichnet, dass der Weg der Seiten der Facette (11) auf der sphärischen Oberfläche und die Berechnungen des Abstands der Punkte für den Betrachtungspunkt A (11) dadurch erfolgen, indem jedem Gipfel B der Facette das Quadrat ihres Abstands bei A und das Skalarprodukt AB AC zugeordnet werden, wobei C der nächste Gipfel entsprechend der Reihenfolge der Länge der Gipfel der Facette ist und durch Inkrementierung einer Ebene, die die Vertikalachse der Halbkugel enthält, die den Schnittpunkt M dieser Ebene mit der laufenden Seite enthält, die verarbeitete BC durch ihre parametrische Lage k relativ zu derjenigen, die die Gipfel B und C umfassen.
  5. Verfahren nach Anspruch 1, 2 oder 3, gekennzeichnet durch folgende Schritte: – eine Projektion der gewählten Facette auf eine Projektionskugel (7), – ein Schnitt der projizierten Facette durch Bildung von Clonepunkten mit neuen Gipfeln auf der Kugel, wenn eine der Seiten oder der Gipfel der Facette den Schnittmeridian kreuzt oder wenn einer der Pole zu dem Winkelraum der Facette (8, 9) gehört, – eine Umsetzung des kugelförmigen Bildes in ein ebenes Bild durch Zuordnung jedes Pixels der Kugel, das durch die Aufteilung ihrer Fläche in elementare Flächen und durch ihre Elevationslage l und deren Traglage c mit einem Pixel des ebenen Bildes gebildet wird, definiert durch seine Zeile 1 und Spalte c (10), wobei die Pole und der Schnittmeridian den extremen Lagen relativ zu den Zeilen und Spalten entsprechen, – Bestimmung jeder Seite der projizierten Facette, die die projizierten Gipfel durch Inkrementierung der Peilung einer Ebene, die die Vertikalachse der Kugel zwischen den Lagerungen der beiden die Gipfel enthaltenen Ebenen enthält, verbindet, und Bestimmung der Elevation des Schnittpunktes dieser Ebene mit der Seite der verarbeiteten Facette (11), – Füllung eines temporären sphärischen Puffers entsprechend der verarbeiteten Facette, die für jedes Pixel der projizierten Facette den Abstand, das Label und gegebenenfalls die Farbe jedes Punktes des zu diesem Pixel (12) gehörenden Raums speichert, – Vergleich, in Abhängigkeit von den Abständen zwischen jedem Pixel des temporären sphärischen Puffers und einem sphärischen Referenzpuffer entsprechend dem vollständigen Bild (13).
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass eine Behandlung der morphologischen Erosion auf dem ebenen Bild für die verarbeitete laufende Facette erfolgt.
  7. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Beobachtungspunkt einer Lichtquelle und die Betrachtungsachse der Hauptachse der Strahlung entspricht, um in dem Modeling der Verbreitung der Energie in der dreidimensionalen Szene ausgewertet zu werden.
DE69531536T 1994-09-30 1995-09-26 Synthetisches bilderzeugungsverfahren mit sphärischem puffer Expired - Lifetime DE69531536T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR9411736A FR2725291B1 (fr) 1994-09-30 1994-09-30 Procede de generation d'images de synthese par tampon spherique
FR9411736 1994-09-30
PCT/FR1995/001237 WO1996010805A1 (fr) 1994-09-30 1995-09-26 Procede de generation d'images de synthese par tampon spherique

Publications (2)

Publication Number Publication Date
DE69531536D1 DE69531536D1 (de) 2003-09-25
DE69531536T2 true DE69531536T2 (de) 2004-06-24

Family

ID=9467474

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69531536T Expired - Lifetime DE69531536T2 (de) 1994-09-30 1995-09-26 Synthetisches bilderzeugungsverfahren mit sphärischem puffer

Country Status (7)

Country Link
US (1) US5923331A (de)
EP (1) EP0731960B1 (de)
JP (1) JP3463755B2 (de)
DE (1) DE69531536T2 (de)
ES (1) ES2204965T3 (de)
FR (1) FR2725291B1 (de)
WO (1) WO1996010805A1 (de)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6345113B1 (en) * 1999-01-12 2002-02-05 Analogic Corporation Apparatus and method for processing object data in computed tomography data using object projections
US6094492A (en) * 1999-05-10 2000-07-25 Boesen; Peter V. Bone conduction voice transmission apparatus and system
EP1332474A1 (de) * 2000-11-07 2003-08-06 Holographic Imaging LLC Verbessertes dreidimensionales anzeigesystem
US7295200B2 (en) * 2000-11-07 2007-11-13 F. Poszat Hu, Llc Computer generated hologram display system
US6481775B2 (en) * 2000-12-08 2002-11-19 Kay Automotive Graphics Molded vehicle interior trim
US6917842B2 (en) * 2001-02-20 2005-07-12 Canon Kabushiki Kaisha Information processing apparatus and method
US7202867B1 (en) 2003-01-31 2007-04-10 Microsoft Corporation Generation of glow effect
US7274365B1 (en) * 2003-01-31 2007-09-25 Microsoft Corporation Graphical processing of object perimeter information
US8638327B2 (en) * 2007-11-14 2014-01-28 Microsoft Corporation Tiled projections for planar processing of round earth data
US8584044B2 (en) * 2007-11-16 2013-11-12 Microsoft Corporation Localized thumbnail preview of related content during spatial browsing
US8081186B2 (en) * 2007-11-16 2011-12-20 Microsoft Corporation Spatial exploration field of view preview mechanism
US9078299B2 (en) 2011-04-14 2015-07-07 Suntracker Technologies Ltd Predictive daylight harvesting system
US10289094B2 (en) 2011-04-14 2019-05-14 Suntracker Technologies Ltd. System and method for the optimization of radiance modelling and controls in predictive daylight harvesting
US10290148B2 (en) 2011-04-14 2019-05-14 Suntracker Technologies Ltd. System and method for real time dynamic lighting simulation
US10262460B2 (en) * 2012-11-30 2019-04-16 Honeywell International Inc. Three dimensional panorama image generation systems and methods
EP2941726A1 (de) * 2013-01-07 2015-11-11 MAGMA Giessereitechnologie GmbH Verfahren zur simulation von wäremstrahlungn zwischen oberflächen
DK178433B1 (en) * 2014-07-01 2016-02-22 Magma Giessereitechnologie Gmbh PROCEDURE FOR DISCRETING A SPACE ANGLE FOR USE IN A SIMULATION OR CALCULATION PROCESS
DK178393B1 (en) * 2014-07-01 2016-02-01 Magma Giessereitechnologie Gmbh PROCEDURE AND ALGORITHM FOR SIMULATING THE IMPACT OF THERMAL COUPLED SURFACE RADIATION IN CASTING PROCESSES
US9998655B2 (en) * 2014-12-23 2018-06-12 Quallcomm Incorporated Visualization for viewing-guidance during dataset-generation
KR102458339B1 (ko) * 2015-08-07 2022-10-25 삼성전자주식회사 360도 3d 입체 영상을 생성하는 전자 장치 및 이의 방법
CN110322539B (zh) * 2019-06-04 2021-02-02 贝壳找房(北京)科技有限公司 三维物体的三维模型切割过程显示方法、装置与电子设备

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4583185A (en) * 1983-10-28 1986-04-15 General Electric Company Incremental terrain image generation
US4715005A (en) * 1984-08-08 1987-12-22 General Electric Company Terrain/seascape image generator with math model data base
US4821212A (en) * 1984-08-08 1989-04-11 General Electric Company Three dimensional texture generator for computed terrain images
US4855937A (en) * 1984-08-08 1989-08-08 General Electric Company Data block processing for fast image generation
US4862388A (en) * 1986-12-15 1989-08-29 General Electric Company Dynamic comprehensive distortion correction in a real time imaging system
US4928250A (en) * 1986-07-02 1990-05-22 Hewlett-Packard Company System for deriving radiation images
US4807158A (en) * 1986-09-30 1989-02-21 Daleco/Ivex Partners, Ltd. Method and apparatus for sampling images to simulate movement within a multidimensional space
US5051734A (en) * 1990-01-11 1991-09-24 The Grass Valley Group, Inc. Special effects using polar image coordinates
US5222896A (en) * 1991-08-08 1993-06-29 British Technology Group Usa Inc. Polyhedral approximation of a spherical body and two-dimensional projections therefrom
EP0723689B1 (de) * 1993-10-15 1998-02-04 EVANS & SUTHERLAND COMPUTER CORPORATION Direktes rendering von texturierten höhenfeldern
US5694530A (en) * 1994-01-18 1997-12-02 Hitachi Medical Corporation Method of constructing three-dimensional image according to central projection method and apparatus for same

Also Published As

Publication number Publication date
US5923331A (en) 1999-07-13
ES2204965T3 (es) 2004-05-01
WO1996010805A1 (fr) 1996-04-11
EP0731960B1 (de) 2003-08-20
FR2725291A1 (fr) 1996-04-05
JPH10506487A (ja) 1998-06-23
FR2725291B1 (fr) 1996-11-29
JP3463755B2 (ja) 2003-11-05
DE69531536D1 (de) 2003-09-25
EP0731960A1 (de) 1996-09-18

Similar Documents

Publication Publication Date Title
DE69531536T2 (de) Synthetisches bilderzeugungsverfahren mit sphärischem puffer
DE3022454A1 (de) Optisches abbildesystem mit computererzeugtem bild fuer einen bodenfesten flugsimulator
DE60115034T2 (de) Verfeinerung von dreidimensionalen polygonalen gitterdaten
DE102009041431B4 (de) Fahrsimulationsvorrichtung, Weitwinkelkamera-Videosimulationsvorrichtung und Bilddeformierungs-/-zusammensetzungsvorrichtung
EP0984397B1 (de) Verfahren und Vorrichtung zum Eliminieren unerwünschter Stufungen an Kanten bei Bilddarstellungen im Zeilenraster
DE69924700T2 (de) Verfahren zur Darstellung von durch Oberflächenelemente repräsentierten grafischen Objekten
DE3620508C2 (de) Verfahren und Vorrichtung zum Erzeugen eines elektronischen Videobildsignals
DE69919145T2 (de) Stochastiches detailniveau in einer rechneranimation
DE69737780T2 (de) Verfahren und Vorrichtung zur Bildverarbeitung
DE60000686T2 (de) Graphisches system mit super-abgetastetem musterpuffer mit erzeugung von ausgangpixeln unter verwendung von selektiven adjustierung der filterung zur artifaktverminderung
DE69534697T2 (de) Verfahren zur Erzeugung texturierter Bilder und Spezialvideoeffekte
DE112005002076T5 (de) Unterteilung von Geometriebildern in Grafikhardware
EP0789328A2 (de) Bildverarbeitungsverfahren zur Darstellung von spiegelnden Objekten und zugehörige Vorrichtung
DE602004012341T2 (de) Verfahren und System zur Bereitstellung einer Volumendarstellung eines dreidimensionalen Objektes
DE19807053A1 (de) Strahltransformationsverfahren für eine schnelle Volumenaufbereitung für eine perspektivische Betrachtung
DE102012210521A1 (de) Unbeschnittene Zeit- und Linsen-Begrenzungen für verbesserte Probentest- Effizienz bei Bild-Rendering
DE69924230T2 (de) Verfahren zur Modellierung von durch Oberflächenelemente dargestellten grafischen Objekten
DE102008050449A1 (de) Clipping Geometrien beim Raycasting
DE19549096A1 (de) Simulationsvorrichtung und -verfahren
EP0862141A2 (de) Bilddarstellungsverfahren und Vorrichtung zur Durchführung des Verfahrens
DE69732465T2 (de) Bildverarbeitungsgerät und -verfahren
DE69813992T2 (de) Bilderzeugungsgerät, -Verfahren und -Programaufzeichnungsmedium, Bildkompositionsgerät, -Verfahren und -Programmaufzeichnungsmedium
AT525294A1 (de) Verfahren zum Erzeugen einer hierarchischen Datenstruktur, hierarchische Datenstruktur sowie Verfahren zum Streamen von dreidimensionalen Objekten
DE4100691A1 (de) Verfahren zur darstellung eines dreidimensionalen modells
DE60030401T2 (de) Anzeigetechniken für dreidimensionale virtuelle Realität

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
R082 Change of representative

Ref document number: 731960

Country of ref document: EP

Representative=s name: MANFRED ROSSMANITH, DE