DE10243162B4 - Rechnergestütztes Darstellungsverfahren für ein 3D-Objekt - Google Patents

Rechnergestütztes Darstellungsverfahren für ein 3D-Objekt Download PDF

Info

Publication number
DE10243162B4
DE10243162B4 DE10243162A DE10243162A DE10243162B4 DE 10243162 B4 DE10243162 B4 DE 10243162B4 DE 10243162 A DE10243162 A DE 10243162A DE 10243162 A DE10243162 A DE 10243162A DE 10243162 B4 DE10243162 B4 DE 10243162B4
Authority
DE
Germany
Prior art keywords
basic
representation
computer
additional
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE10243162A
Other languages
English (en)
Other versions
DE10243162A1 (de
Inventor
Hendrik Ditt
Norbert Rahn
Siegfried Wach
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthcare GmbH
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE10243162A priority Critical patent/DE10243162B4/de
Priority to JP2003322625A priority patent/JP4510415B2/ja
Priority to US10/664,836 priority patent/US7129946B2/en
Publication of DE10243162A1 publication Critical patent/DE10243162A1/de
Application granted granted Critical
Publication of DE10243162B4 publication Critical patent/DE10243162B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems

Abstract

Rechnergestütztes Darstellungsverfahren für ein 3-D Objekt (9), mit folgenden Merkmalen:
– wobei von einem Rechner (2) ein von einem Grunddetektor (4) erfasstes Bild des Objekts (9) entgegen genommen und daraus eine 2-D Grundabbildung (23) des Objekts (9) ermittelt wird, die vom Rechner (2) über ein Ausgabesystem (10) als Bild flüchtig ausgegeben wird,
– wobei vom Rechner (2) anhand eines in einem dem Rechner (2) zugeordneten Speicher (18) hinterlegten 3-D Volumendatensatzes (19) des Objekts (9) eine 2-D Grunddarstellung (20) ermittelt wird, die vom Rechner (2) über das Ausgabesystem (10) als Bild flüchtig ausgegeben wird,
– wobei die Grundabbildung (23) und die Grunddarstellung (20) vom Rechner (2) über das Ausgabesystem (10) gleichzeitig, aber örtlich getrennt voneinander ausgegeben werden,
– wobei die Grunddarstellung (20) und die Grundabbildung (23) perspektivische Projektionen (20, 23) sind und derart bestimmt werden, dass ihre Projektionsparameter überstimmen, und/oder mindestens eine in Bezug auf den Volumendatensatz...

Description

  • Die vorliegende Erfindung betrifft ein rechnergestütztes Darstellungsverfahren für ein 3-D Objekt. Derartige Verfahren werden unter anderem bei bildgestützten medizinischen Eingriffen angewendet.
  • Bei diesen Verfahren wird vom Rechner kontinuierlich ein von einem Grunddetektor erfasstes Bild des Objekts entgegen genommen und daraus eine 2-D Grundabbildung des Objekts ermittelt, die vom Rechner über ein Ausgabesystem als Bild flüchtig ausgegeben wird. Der Einsatz derartiger Darstellungsverfahren bietet sich dabei insbesondere deshalb an, weil die hierzu benötigte Ausstattung im Operationssaal oft vorhanden ist. Darüber hinaus ist diese Ausstattung einfacher handhabbar und kostengünstiger in der Anschaffung als eine Ausstattung für eine 3-D Bildgebung wie beispielsweise einen Magnetresonanztomographen, einen Computertomographen, 3-D Angiographiegeräte und dergleichen. Darüber hinaus ist die Ermittlung eines Volumendatensatzes, der ein Objekt beschreibt, mit dem heutigen Stand der Technik in Echtzeit nicht möglich. Die Echtzeitfähigkeit der Bildgebung ist aber gerade in Zusammenhang mit Eingriffen in den Körper eine unverzichtbare Eigenschaft.
  • 2-D Abbildungen des Objekts weisen eine Anzahl von Nachteilen auf. So steht insbesondere ein Bediener (der Operateur) beim Einsatz von 2-D Abbildungen des Objekts immer vor der schwierigen Aufgabe, den dargestellten 2-D Bildinhalt mental auf die realen 3-D anatomischen Verhältnisse zu übertragen. Oft stellt sich dem Bediener auch die Situation dar, dass eine präoperative Eingriffplanung anhand eines Volumendatensatzes und aus dem Volumendatensatz ermittelten 2-D Darstellungen erfolgte, diese Planungsergebnisse bei der Operation aber nicht direkt auf in Echtzeit verfügbare 2-D Abbildungen während der Operation abbildbar sind.
  • Bei Navigationsprozeduren werden im klinischen Umfeld meist mit Positionssensoren bestückte chirurgische Instrumente benutzt. Dadurch kann die aktuelle Position dieser Instrumente – gegebenenfalls nach einer einmalig oder mehrmals während des Eingriffs durchgeführten sogenannten Registrierungsprozedur – während des Eingriffs in präoperativ erzeugten Bilddaten dargestellt werden. Bei dieser Vorgehensweise ist die nicht einfache Handhabung der Positionssensoren problematisch. Auch die Registrierungsprozedur ist meist sehr aufwändig. Ein weiterer Nachteil besteht darin, dass die präoperativen, aus einem Volumendatensatz des Objekts ermittelten Bilddaten oft nicht die erforderliche Aktualität aufweisen.
  • Bei orthopädischen Prozeduren ist ferner bekannt, mehrere 2-D Abbildungen des Objekts (meist in Form von Projektionen) darzustellen und so eine Navigation zu betreiben. Dieser Ansatz behebt den Nachteil der mangelnden Aktualität der präoperativen 3-D-Volumendaten, da diese Daten hier durch Röntgenbilder ersetzt werden. Allerdings steht hier keine echte 3-D Information zur Verfügung, sondern nur eine quasi-3-D Information, aus der der Operateur mental ein 3-D Szenario erzeugen muss. Darüber hinaus können auch bei dieser Vorgehensweise Ergebnisse einer vorherigen Eingriffsplanung, die vorab anhand präoperativer (echter) 3-D Bilddaten durchgeführt wurde, nicht ohne weiteres auf die intraoperativen 2-D Projektionen übertragen werden.
  • Schließlich ist noch bekannt, zwei Projektionen des Operationsfelds aufzunehmen und über das Ausgabesystem als Bilder darzustellen. Die Projektionen werden dabei unter verschiedenen Winkeln aufgenommen, um quasi-räumliche Information über das Operationsfeld zu gewinnen. Auch bei diesem Ansatz wird keine echte 3-D Bildinformation generiert, so dass wiederum der 3-D Kontext vom Operateur mental geschaffen werden muss.
  • In der älteren, nicht vorveröffentlichen deutschen Patentanmeldung 102 10 646.0 mit dem Titel „Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments", eingereicht am 11.03.2002, ist ein rechnergestütztes Darstellungsverfahren für ein 3-D Objekt beschrieben, bei dem von einem Rechner ein von einem Grunddetektor erfasstes Bild des Objekts entgegen genommen und daraus eine 2-D Grundabbildung des Objekts ermittelt und über ein Ausgabesystem als Bild flüchtig ausgegeben wird. Vom Rechner wird ferner anhand eines in einem dem Rechner zugeordnetem Speicher hinterlegten 3-D Volumendatensatzes des Objekts eine 2-D Grunddarstellung ermittelt und – zumindest teilweise – der Grundabbildung überlagert bzw. in diese eingeblendet. Diese Vorgehensweise stellt bereits einen großen Fortschritt dar, ist aber immer noch nicht in allen Aspekten völlig befriedigend.
  • Aus der US-B-6,364,526 ist ein rechnergestütztes Darstellungsverfahren für ein 3-D Objekt bekannt, bei dem von einem Rechner ein von einem Grunddetektor erfasstes Bild des Objekts entgegen genommen und daraus eine 2-D Grundabbildung des Objekts ermittelt wird, die vom Rechner über ein Ausgabesystem als Bild flüchtig ausgegeben wird. Aus der US-B-6,364,526 ist weiterhin auch ein rechnergestütztes Darstellungsverfahren für ein 3-D Objekt bekannt, bei dem von einem Rechner anhand eines in einem dem Rechner zugeordneten Speicher hinterlegten 3-D Volumendatensatzes eines Objekts eine 2-D Grunddarstellung ermittelt wird, die vom Rechner über ein Ausgabesystem als Bild flüchtig ausgegeben wird. Darüber, ob das Objekt, das der 2-D Grundabbildung zu Grunde liegt, mit dem Objekt, das der 2-D Grunddarstellung zu Grunde liegt, identisch ist, finden sich in der US-B-6,364,526 keine Aussagen. Weiterhin sind allem Anschein nach der Rechner, der die 2-D Grundabbildung ermittelt und das diesem Rechner zugeordnete Ausgabesystem völlig getrennt und unabhängig von dem Rechner, der die 2-D Grunddarstellung ermittelt, und dem diesen Rechner zugeordneten Ausgabesystem.
  • Aus der US-B-6,216,030 ist ein rechnergestütztes Darstellungsverfahren für ein 3-D Objekt bekannt, bei dem von einem Rechner anhand eines Volumendatensatzes, der in einem dem Rechner zugeordneten Speicher hinterlegt ist, mehrere 2-D Darstellungen ermittelt und über ein Ausgabesystem als Bilder flüchtig ausgegeben werden. Vom Rechner werden weiterhin von Detektoren erfasste Bilder des Objekts entgegen genommen und daraus 2-D Abbildungen ermittelt, die vom Rechner in die 2-D Darstellungen eingeblendet werden.
  • Die Aufgabe der vorliegenden Erfindung besteht darin, ein rechnergestütztes Darstellungsverfahren für ein 3-D Objekt zu schaffen, mittels dessen für einen Bediener (einen Operateur) eine noch einfachere Erfassung der dargestellten Sachverhalte möglich ist.
  • Die Aufgabe wird durch ein rechnergestütztes Darstellungsverfahren mit den Merkmalen des Anspruchs 1 gelöst.
  • Ein Bestimmen der Projektionsparameter der Grunddarstellung derart, dass die Projektionsparameter mit den Projektionsparametern der Grundabbildung übereinstimmen, ist im Stand der Technik unter dem Begriff „Registrierung" bekannt. Registrierungsverfahren sind beispielsweise in der eingangs erwähnten DE 102 10 646.0 beschrieben. Sie sind als solche nicht Gegenstand der vorliegenden Erfindung.
  • Auch ist der Volumendatensatz in aller Regel vorab ermittelt worden. Er kann beispielsweise einen Gefäßbaum repräsentieren, innerhalb dessen ein Katheter geführt werden soll. Anhand des Volumendatensatzes kann beispielsweise ein Weg festgelegt worden sein, entlang dessen der Katheter zu führen ist. In einem derartigen Fall ist z. B. ein Einblenden einer sogenannten „road map" in die Grundabbildung möglich. Auch ist es möglich, mittels eines Cursors in der Grunddarstellung Bereiche zu markieren oder zu selektieren und derartige Markierungen bzw. Selektionen halb- oder vollautomatisch in die Grundabbildung zu übertragen. Gegebenenfalls ist es sogar möglich, einen Cursor für die Grunddarstellung mit einem Cursor für die Grundabbildung direkt zu koppeln.
  • Bei der Berücksichtigung von in Bezug auf das Objekt gegebenen ortsbezogenen Informationen an korrespondierenden Stellen der Grunddarstellung ist zusätzlich zu berücksichtigen, dass – im Gegensatz zur Abbildung vom Dreidimensionalen ins Zweidimensionale – die Abbildung von der Grundabbildung in die Grunddarstellung in der Regel nicht eindeutig ist. Jeder Punkt der Grundabbildung wird vielmehr in eine Linie im Volumendatensatz abgebildet. Diese Linie reduziert sich nur dann wieder auf einen Punkt der Grunddarstellung, wenn die Grunddarstellung und die Grundabbildung perspektivische Projektionen sind, deren Projektionsparameter übereinstimmen.
  • Die vorliegende Erfindung zielt also insbesondere auf intraoperative Situationen ab, bei denen einerseits intraoperative, in Echtzeit ermittelte 2-D Bilddaten verwendet werden, aber zusätzlich präoperative 3-D Bilddaten existieren, so dass sich die Informationen der 2-D Bilddaten und die Informationen der 3-D Bilddaten gegenseitig ergänzen können. Die Erfindung beschränkt sich aber nicht auf ein einheitliches Darstellen ineinander (Einblenden), sondern betrifft ein Darstellen der Bilder nebeneinander.
  • Wenn nicht nur die Grundabbildung, sondern auch die Grunddarstellung vom Rechner in Echtzeit ermittelt wird, ist das Verfahren besonders vielseitig anwendbar. Insbesondere besteht in diesem Fall die Möglichkeit, die Grunddarstellung interaktiv zu ändern.
  • Wenn die Grundabbildung durch eine Grundaufnahmegeometrie bestimmt ist und die Grundaufnahmegeometrie jederzeit änderbar ist, ist auch die Grundabbildung jederzeit etwaigen geänderten Erfordernissen anpassbar.
  • Wenn zum Anpassen der Grundabbildung die Grundaufnahmegeometrie von einem Bediener manuell in eine Grundaufnahmestellung verfahren werden soll, kann dies besonders genau und zuverlässig geschehen, wenn bei Erreichen der Grundaufnahmestellung der Rechner eine akustische oder optische Grundrückmeldung an den Bediener ausgibt und/oder die Grundaufnahmegeometrie eine mechanische Grundrückmeldung an den Bediener ausgibt.
  • Insbesondere aufgrund dieser Unbestimmtheit der Abbildung der Grundabbildung in den Volumendatensatz ist es von Vorteil, wenn vom Rechner auch ein von einem Zusatzdetektor erfasstes Bild des Objekts entgegen genommen und daraus eine von der Grundabbildung des Objekts verschiedene 2-D Zusatzabbildung des Objekts ermittelt wird, die Zusatzabbildung vom Rechner über das Ausgabemedium als Bild flüchtig ausgegeben wird und die Zusatzabbildung des Objekts vom Rechner über das Ausgabesystem gleichzeitig zur Grundabbildung und der Grunddarstellung, aber örtlich getrennt von diesen ausgegeben wird. Die Ermittlung der Zusatzabbildung erfolgt dabei selbstverständlich wieder in Echtzeit.
  • Denn dadurch, dass dann zwei 2-D Abbildungen des Objekts zur Verfügung stehen, können bei Markierung je einer bestimmten Stelle in den beiden Abbildungen im Volumendatensatz zwei Linien ermittelt werden. Ähnlich einer Kreuzpeilung kann somit ein korrespondierender Ort im Volumendatensatz ermittelt werden und auch in der Grunddarstellung dann eindeutig (punktuell) markiert werden.
  • Analog zur Grundabbildung ist auch die Zusatzabbildung durch eine Zusatzaufnahmegeometrie bestimmt. Vorzugsweise ist auch die Zusatzaufnahmegeometrie jederzeit änderbar. In analoger Weise zur Grundabbildung kann dabei wieder ein manuelles Verfahren in eine vorbestimmte Zusatzaufnahmestellung durch eine akustische oder optische Zusatzrückmeldung des Rechners und/ oder eine mechanische Zusatzrückmeldung der Zusatzaufnahmegeometrie erfolgen.
  • Die Grundaufnahmegeometrie weist eine Grundabbildungshauptachse auf, die Zusatzaufnahmegeometrie eine Zusatzabbildungshauptachse. Die Abbildungshauptachsen schneiden sich in der Regel unter Bildung eines Schnittwinkels in einem gemeinsamen Schnittpunkt. Der Schnittwinkel ist vorzugsweise derart zu bestimmen, dass die durch die Grund- und die Zusatzabbildung vermittelte Gesamtinformation über das Objekt möglichst groß ist. Dies ist insbesondere dann der Fall, wenn die Zusatzabbildung relativ zur Grundabbildung derart bestimmt wird, dass der Schnittwinkel 90° beträgt.
  • Falls der Schnittwinkel konstruktionsbedingt nur maximal so groß wie ein Grenzwinkel sein kann, der kleiner als 90° ist, wird die Zusatzabbildung relativ zur Grundabbildung vorzugsweise derart bestimmt, dass der Schnittwinkel gleich dem Grenzwinkel ist.
  • Vorzugsweise wird vom Rechner anhand des Volumendatensatzes auch eine von der Grunddarstellung verschiedene 2-D Zusatzdarstellung ermittelt und über das Ausgabesystem als Bild flüchtig ausgegeben. Die Zusatzdarstellung wird dabei vom Rechner über das Ausgabesystem gleichzeitig zur Grundabbildung und der Grunddarstellung, aber örtlich getrennt von diesen, gegebenenfalls auch örtlich getrennt von der Zusatzabbildung, ausgegeben. Dadurch ist für den Bediener ein noch besseres Verständnis des dargestellten Sachverhalts möglich. Ebenso wie bei der Grunddarstellung wird auch die Zusatzdarstellung vom Rechner vorzugsweise in Echtzeit ermittelt. Denn dadurch ist sie wieder interaktiv änderbar.
  • Wenn die Zusatzdarstellung und die Zusatzabbildung perspektivische Projektionen sind und derart bestimmt werden, dass ihre Projektionsparameter übereinstimmen, ist ein mentaler Ab gleich und Vergleich der Zusatzabbildung und der Zusatzdarstellung für den Bediener wieder besonders einfach.
  • Vorzugsweise wird vom Rechner ferner anhand des Volumendatensatzes eine sowohl von der Grunddarstellung als auch von der Zusatzdarstellung unabhängige 2-D Ergänzungsdarstellung ermittelt und über das Ausgabesystem als Bild flüchtig ausgegeben. Auch die Ergänzungsdarstellung wird dabei vom Rechner über das Ausgabesystem gleichzeitig mit der Grundabbildung, der Grunddarstellung und der Zusatzdarstellung, aber örtlich getrennt von diesen, gegebenenfalls auch örtlich getrennt von der Zusatzabbildung, ausgegeben. Denn dann ist das Darstellungsverfahren noch vielseitiger. Insbesondere kann beispielsweise die Ergänzungsdarstellung variiert werden, ohne die Grund- und die Zusatzdarstellung ändern zu müssen.
  • Auch die Ergänzungsdarstellung wird – ebenso wie die Grunddarstellung und die Zusatzdarstellung – vorzugsweise in Echtzeit ermittelt. Denn dann ist sie wieder interaktiv änderbar.
  • Wenn die Abbildungen und die Darstellungen jeweils über eine eigene Ausgabeeinrichtung, z. B. einen Monitor, des Ausgabesystems ausgegeben werden, erfolgt die Ausgabe auf besonders übersichtliche Weise.
  • Wie oben stehend ausgeführt, können die Grund- und die Zusatzdarstellung perspektivische Projektionen sein. Gleiches gilt selbstverständlich auch für die Ergänzungsdarstellung. Es ist aber auch möglich, dass die Darstellungen – einzeln oder zusammen – parallele Projektionen oder Schnitte sind. Auch die Grund- und die Zusatzabbildung können perspektivische Projektionen sein.
  • Wenn die Grundabbildung, gegebenenfalls auch die Zusatzabbildung, durch Röntgenstrahlung oder durch Ultraschall ermittelt werden, gestaltet sich die Ermittlung der Abbildungen besonders einfach.
  • Weitere Vorteile und Einzelheiten ergeben sich aus der nachfolgenden Beschreibung eines Ausführungsbeispiels in Verbindung mit den Zeichnungen. Dabei zeigen in Prinzipdarstellung
  • 1 schematisch eine bildgebende Modalität,
  • 2 einen Ausschnitt von 1 und
  • 3 und 4 Kombinationen von 2D-Darstellungen eines Volumendatensatzes eines Objekts mit mindestens einer 2D-Abbildung des Objekts.
  • Gemäß 1 ist eine bildgebende Modalität 1 z. B. als Röntgenanlage 1 ausgebildet. Die Röntgenanlage 1 ist mit einem Steuerrechner 2 verbunden.
  • Die Röntgenanlage 1 ist gemäß 2 als C-Bogen-Anlage ausgebildet. Sie weist also ein Röntgensystem auf, das aus einer Röntgenquelle 3 und einem Röntgendetektor 4 besteht, die auf einer gemeinsamen Kreisbahn 5 um eine Schwenkachse 6 verschwenkbar sind. Jede Stelle auf der Kreisbahn 5 definiert eine Aufnahmegeometrie. Die Aufnahmegeometrie weist insbesondere eine Abbildungshauptachse 7 auf, die durch die Röntgenquelle 3 und das Zentrum des Röntgendetektors 4 bestimmt ist. Sie schneidet die Schwenkachse 6 in einem Schnittpunkt 8.
  • Ein mit dieser Aufnahmegeometrie erfasstes Durchleuchtungsbild eines Objekts 9 (in der Regel eines Menschen 9) ist somit mittels des Röntgendetektors 4 erfassbar und in Echtzeit an den Steuerrechner 2 übermittelbar. Von diesem wird dann die korrespondierende Abbildung 23 des Objekts 9 ermittelt und in Echtzeit über ein Ausgabesystem 10 als Bild flüchtig ausgegeben. Im vorliegenden Fall eines Durchleuchtungsbildes ist die Abbildung 23 eine perspektivische Projektion 23.
  • Gemäß 2 ist zusätzlich zu dem von der Röntgenquelle 3 und dem Röntgendetektor 4 gebildeten Röntgensystem ein weiteres Röntgensystem vorhanden, das ebenfalls eine Röntgenquelle 3' und einen Röntgendetektor 4' aufweist. Die Röntgensysteme sind dabei im wesentlichen gleich ausgebildet. Sie sind auch in gleicher Weise betreibbar. Gleiche Komponenten sind daher mit den gleichen Bezugszeichen versehen, die aber zur Unterscheidung vom erstgenannten Röntgensystem mit einem Apostroph versehen sind.
  • Soweit nachfolgend zwischen dem vom Röntgendetektor 4 erfassten Durchleuchtungsbild (Projektion 23) und dem vom Röntgendetektor 4' erfassten Durchleuchtungsbild (Projektion 23') unterschieden wird, ist ersteres als Grundabbildung 23 bzw. Grundprojektion 23 bezeichnet, letzteres als Zusatzabbildung 23' bzw. Zusatzprojektion 23'.
  • Gemäß 3 wird vom Steuerrechner 2 die Zusatzabbildung 23' ebenfalls über das Ausgabesystem 10 ausgegeben. Das Ausgabesystem 10 weist hierfür eine Vielzahl von Ausgabeeinrichtungen 11, z. B. von Monitoren 11, auf. Die beiden Projektionen 23, 23' werden dabei über je eine eigene Ausgabeeinrichtung 11 ausgegeben. Die Ausgabe der Abbildung 23, 23' erfolgt also zwar gleichzeitig, aber getrennt voneinander.
  • Die Grund- und die Zusatzabbildung 23, 23' sind durch die Aufnahmegeometrien bestimmt, wobei gemäß 2 die Aufnahmegeometrien voneinander verschieden sind. Insbesondere schneiden sich die Abbildungshauptachsen 7, 7' unter Bildung eines Schnittwinkels α in dem Schnittpunkt 8. Somit ist auch die Zusatzabbildung 23' von der Grundabbildung 23 verschieden.
  • Die Zusatzabbildung 23' wird relativ zur Grundabbildung 23 derart bestimmt, dass der Schnittwinkel α einen Minimalwert nicht unterschreitet. Vorzugsweise sollte der Schnittwinkel α 90° betragen. Wenn dies nicht möglich sein sollte, weil ein Grenzwinkel, unter dem die Abbildungshauptachsen 7, 7' sich maximal schneiden können, kleiner als 90° ist, wird die Zusatzabbildung 23' relativ zur Grundabbildung 23 vorzugsweise derart bestimmt, dass der Schnittwinkel α gleich dem Grenzwinkel ist. In der Praxis hat sich herausgestellt, dass gute Ergebnisse bereits erzielbar waren, wenn der Schnittwinkel α 45° betragen hat.
  • Prinzipiell sind die Grundaufnahmegeometrie und die Zusatzaufnahmegeometrie der Röntgensysteme unabhängig voneinander einstellbar. Sie können dabei beispielsweise, wie in 1 angedeutet, manuell durch einen Bediener 12 oder vom Steuerrechner 2 verstellt werden. In jedem Fall aber sind die Aufnahmegeometrien jederzeit änderbar.
  • Wenn das Ändern der Aufnahmegeometrien manuell durch den Bediener 12 erfolgt, ist das Anfahren vorbestimmter Aufnahmestellungen kritisch. Daher werden beispielsweise mittels Sensoren von einer Steuereinrichtung 13 kontinuierlich die momentanen Stellungen der Röntgensysteme erfasst und an den Steuerrechner 2 gemeldet. Wenn z. B. die Grundaufnahmegeometrie eine vorbestimmte Aufnahmestellung erreicht, gibt der Rechner 2 über einen Bildschirm oder eine schematisch angedeutete Signallampe 14 eine optische Rückmeldung an den Bediener 12 aus.
  • Alternativ oder zusätzlich kann bei Erreichen der gewünschten Aufnahmestellung auch eine akustische Rückmeldung über einen kleinen Lautsprecher 15 erfolgen. Es ist auch möglich, dass die Röntgenanlage 1 selbst schematisch angedeutete mechanische Rückkopplungselemente 16 aufweist, so dass die Aufnahmegeometrie selbst ähnlich einem Schalter mit mehreren Drehstellungen eine mechanische Rückmeldung an den Bediener 12 ausgibt.
  • Die obigen Ausführungen bezüglich des definierten Anfahrens von Aufnahmestellungen gelten selbstverständlich gleichermaßen für das Grundröntgensystem und das Zusatzröntgensystem.
  • Das Aufnehmen der Durchleuchtungsbilder des Objekts 9 (Projektionen 23, 23') und Darstellen der Projektionen 23, 23' über die Ausgabeeinrichtungen 11 wird vom Steuerrechner 2 unter Abarbeitung eines Computerprogramms 17 durchgeführt, mit dem der Steuerrechner 2 programmiert ist.
  • Dem Steuerrechner 2 ist auch ein Speicher 18 zugeordnet. Im Speicher 18 ist unter anderem ein Volumendatensatz 19 des Objekts 9 hinterlegt. Der Volumendatensatz 19 kann dabei anhand von Daten aller bildgebenden 3D-Modalitäten ermittelt worden sein. Der Volumendatensatz 19 kann also beispielsweise mittels Computertomographie, Magnetresonanztomographie, 3D-Angiographie, 3D-Röntgenverfahren, 3D-Ultraschall und anderer bildgebender 3D-Verfahren wie beispielsweise Positronen-Emissions-Tomographie (PET) oder Single Photon Emission Computer Tomography (SPECT) ermittelt worden sein.
  • Gesteuert durch das Computerprogramm 17, ermittelt der Steuerrechner 2 daher auch mindestens eine Darstellung 20 bis 22 des Volumendatensatzes 19 und stellt sie über eine der Ausgabeeinrichtungen 11 des Ausgabesystems 10 dar. Der Steuerrechner 2 gibt dabei jede der Darstellungen 20 bis 22 über je eine eigene Ausgabeeinrichtung 11 des Ausgabesystems 10 als Bild flüchtig aus. Auch die Darstellungen 20 bis 22 werden somit vom Steuerrechner 2 zwar gleichzeitig, aber örtlich getrennt voneinander (und auch örtlich getrennt von den Abbildungen 23, 23') ausgegeben.
  • Gemäß 3 gibt der Steuerrechner 2 drei Darstellungen 20 bis 22 des Volumendatensatzes 19 über je eine der Ausgabeeinrichtung 11 aus. Die Darstellungen 20 bis 22 werden nachfolgend zur Unterscheidung voneinander als Grunddarstellung 20, Zusatzdarstellung 21 und Ergänzungsdarstellung 22 bezeichnet.
  • Die Darstellungen 20 bis 22 werden vom Steuerrechner 2 in Echtzeit ermittelt. Gemäß 3 sind insbesondere die Grunddarstellung 20 und die Zusatzdarstellung 21 perspektivische Projektionen 20, 21. Die Projektionsparameter der Grunddarstellung 20 stimmen dabei mit den Projektionsparametern der Grundabbildung 23 überein. Ebenso stimmen die Projektionsparameter der Zusatzdarstellung 21 mit den Projektionsparametern der Zusatzabbildung 23' überein. Insbesondere ist somit auch die Zusatzdarstellung 21 von der Grunddarstellung 20 verschieden.
  • Die Ergänzungsdarstellung 22 ist von der Grunddarstellung 20 und der Zusatzdarstellung 21 unabhängig. Sie ist gemäß 3 insbesondere interaktiv änderbar. Beispielsweise kann der Volumendatensatz 19 über die Ergänzungsdarstellung 22 unter sich ändernden Blickwinkeln dargestellt werden.
  • Gemäß 3 ist die Grunddarstellung 20 an die Grundabbildung 23 gekoppelt, die Zusatzdarstellung 21 an die Zusatzabbildung 23'. Insbesondere sind somit die Grunddarstellung 20 und die Zusatzdarstellung 21 zwangsweise perspektivische Projektionen 20, 21. Im vorliegenden Fall steht sogar eine gegenseitige Kopplung zwischen Grundabbildung 23 und Zusatzabbildung 23', so dass indirekt auch die Grunddarstellung 20 und die Zusatzdarstellung 21 miteinander gekoppelt sind. Es ist somit möglich, bei einer Änderung von Grund- oder Zusatzabbildung 23, 23' die korrespondierende Darstellung 20, 21 unmittelbar und automatisch mitzuführen. Somit sind indirekt auch die Grund- und die Zusatzdarstellung 20, 21 interaktiv änderbar.
  • Darüber hinaus ist es prinzipiell aber auch möglich, die Grunddarstellung 20 von der Grundabbildung 23 zu entkoppeln und ebenso auch die Zusatzdarstellung 21 von der Zusatzabbildung 23' zu entkoppeln. In diesem Fall ist selbstverständlich auch eine direkte interaktive Änderung der Grund- und der Zusatzdarstellung 20, 21 möglich. Darüber hinaus müssen in diesem Fall die Grund- und die Zusatzdarstellung 20, 21 nicht notwendigerweise perspektivische Projektionen sein. Vielmehr können sie in diesem Fall auch parallele Projektionen oder Schnitte sein.
  • Ein Beispiel einer derartigen Entkopplung zeigt 4. Gemäß 4 werden über das Ausgabesystem 10 drei Darstellungen 20 bis 22 (des Volumendatensatzes 19) und eine Projektion 23 (des Objekts) gleichzeitig, aber örtlich getrennt voneinander ausgegeben. Die drei Darstellungen 20 bis 22 sind gemäß 4 z. B. drei zueinander senkrechte Schnitte 20 bis 22. Die Pro jektion 23 kann im Einzelfall parallel zu einem der Schnitte verlaufen. Dies ist im Allgemeinen aber nicht der Fall.
  • Die Schnitte 20 bis 22 und die Projektion 23 werden gemäß 4 über eine einzige, gemeinsame Ausgabeeinrichtung 11 des Ausgabesystems 10 ausgegeben. Sie könnten aber auch über jeweils eine eigene Ausgabeeinrichtung 11 ausgegeben werden. In jedem Fall aber werden sie immer gleichzeitig, aber örtlich getrennt voneinander ausgegeben.
  • Gemäß 4 ist es möglich, dass vom Steuerrechner 2 mindestens eine in Bezug auf den Volumendatensatz 19 gegebene ortsbezogene Information an einer korrespondierenden Stelle der Projektion 23 berücksichtigt wird.
  • Beispielsweise weisen die drei Schnitte 20 bis 22 einen gemeinsamen Punkt 24 auf. Dieser Punkt 24 entspricht einem 3D-Cursor 24. Dieser 3D-Cursor 24 kann beispielsweise in die Projektion 23 als Markierung 25 mit eingeblendet werden. Auch ist es beispielsweise möglich, einen geplanten 3D-Weg für ein Werkzeug, der anhand des Volumendatensatzes 19 ermittelt wurde, in die Projektion 23 einzublenden. Gemäß 3 geschieht dies beispielsweise für beide Abbildungen 23, 23' über eigene Ausgabeeinrichtungen 11 des Ausgabesystems 10. Dort werden also zusätzlich zu den Abbildungen 23, 23' noch zwei weitere Abbildungen 27, 27' ausgegeben.
  • Auch ist es möglich, einen anderweitig in den Schnitten 20 bis 22 markierten oder selektierten Bereich des Volumendatensatzes 19 in ähnlicher Weise automatisch in der Projektion 23 zu markieren oder zu selektieren. Es ist sogar möglich, einen Cursor 26 der Projektion 23 mit dem gemeinsamen Punkt 24 der Schnitte 20 bis 22 zu verkoppeln.
  • Das Verfahren kann insbesondere auch dazu verwendet werden, die Genauigkeit der Registrierung zu überprüfen. Beispielsweise können markante Stellen des Volumendatensatzes 19 in den Schnitten 20 bis 22 markiert werden. Durch gleichzeitiges automatisches Markieren der korrespondierenden Stellen 25 durch den Steuerrechner 2 kann dann auf einfache Weise die Korrektheit der Registrierung, das heißt der Abbildung des Volumendatensatzes 19 in die Projektion 23, überprüft werden.
  • Auch umgekehrt ist es möglich, dass vom Steuerrechner 2 mindestens eine im Bezug auf das Objekt 9 gegebene ortsbezogene Information an korrespondierenden Stellen der Schnitte 20 bis 22 berücksichtigt wird. Dies ist insbesondere dann möglich, wenn nicht nur die Grund-, sondern auch die Zusatzabbildung 23, 23' genutzt werden kann. Denn dann ist anhand der zwei Projektionen 23, 23' ein Ort im Volumendatensatz 19 eindeutig bestimmbar. Somit kann auch eine Rückabbildung eindeutig ausgeführt werden. Es ist also wiederum z. B. eine Kopplung des Cursors 26 mit dem gemeinsamen Punkt 24 möglich und auch ein Markieren und Selektieren von Bereichen in der Projektion 23 (bzw. den Projektionen 23, 23'), wobei dann der Steuerrechner 2 automatisch die korrespondierenden Markierungen und Selektierungen in den Schnitten 20 bis 22 vornimmt.
  • Das vorliegende Verfahren zum Einblenden von aus der Projektion 23 (bzw. den Projektionen 23, 23') gewonnenen Informationen in die Darstellungen 20 bis 22 kann insbesondere dazu benutzt werden, ein chirurgisches Instrument, z. B. einen Katheter, und hier insbesondere die Katheterspitze, in der Projektion 23 (bzw. in den Projektionen 23, 23') zu markieren und diese Spitze dann in die Schnitte 20 bis 22 einzublenden. Denn in den Projektionen 23, 23' wird der Katheter meist sehr hoch auflösend dargestellt, während die anatomische Information des umgebenden Gewebes oftmals nur unzureichend abgebildet werden kann. Durch das Einblenden der Katheterspitze in die Schnitte 20 bis 22 (bzw. allgemeiner die Darstellungen des Volumendatensatzes 19) kann daher der Katheter aufgrund der vorliegenden Erfindung erheblich präziser geführt werden. Das Auffinden der Katheterspitze in der Projektion 23 (bzw. in den Projektionen 23, 23') dann dabei ggf. automatisch erfolgen.
  • Gemäß dem oben stehend beschriebenen Ausführungsbeispiel werden durch Röntgenstrahlung Abbildungen 23, 23' ermittelt, die Projektionen 23, 23' sind. Dies stellt auch den häufigsten Anwendungsfall dar. Die Abbildungen 23, 23' können aber auch auf andere Art, insbesondere durch Ultraschall, SPECT und PET ermittelt werden. In diesen Fällen müssen die Abbildungen 23, 23' nicht notwendigerweise Projektionen 23, 23' sein.
  • Die vorliegende Erfindung wurde ferner in Verbindung mit einer medizinischen Anwendung beschrieben. Sie ist aber nicht auf medizinische Anwendungen beschränkt, sondern vielmehr allgemein anwendbar.

Claims (25)

  1. Rechnergestütztes Darstellungsverfahren für ein 3-D Objekt (9), mit folgenden Merkmalen: – wobei von einem Rechner (2) ein von einem Grunddetektor (4) erfasstes Bild des Objekts (9) entgegen genommen und daraus eine 2-D Grundabbildung (23) des Objekts (9) ermittelt wird, die vom Rechner (2) über ein Ausgabesystem (10) als Bild flüchtig ausgegeben wird, – wobei vom Rechner (2) anhand eines in einem dem Rechner (2) zugeordneten Speicher (18) hinterlegten 3-D Volumendatensatzes (19) des Objekts (9) eine 2-D Grunddarstellung (20) ermittelt wird, die vom Rechner (2) über das Ausgabesystem (10) als Bild flüchtig ausgegeben wird, – wobei die Grundabbildung (23) und die Grunddarstellung (20) vom Rechner (2) über das Ausgabesystem (10) gleichzeitig, aber örtlich getrennt voneinander ausgegeben werden, – wobei die Grunddarstellung (20) und die Grundabbildung (23) perspektivische Projektionen (20, 23) sind und derart bestimmt werden, dass ihre Projektionsparameter überstimmen, und/oder mindestens eine in Bezug auf den Volumendatensatz (19) gegebene Information (24) vom Rechner (2) an einer korrespondierenden Stelle (25) der Grundabbildung (23) berücksichtigt wird und/oder mindestens eine in Bezug auf das Objekt (9) gegebene ortsbezogene Information (26) vom Rechner (2) an einer korrespondierenden Stelle (24) der Grunddarstellung (20) berücksichtigt wird.
  2. Darstellungsverfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Grunddarstellung (20) vom Rechner (2) in Echtzeit ermittelt wird.
  3. Darstellungsverfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Grunddarstellung (20) interaktiv änderbar ist.
  4. Darstellungsverfahren nach Anspruch 1, 2 oder 3, dadurch gekennzeichnet, dass die Grundabbildung, (23) durch eine Grundaufnahmegeometrie bestimmnt ist und dass die Grundaufnahmegeometrie jederzeit änderbar ist.
  5. Darstellungsverfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Grndaufnahmegeometrie von einem Bediener (12) in eine Grundaufnahmestellung Verfahren wird und dass bei Erreichen der Grundaufnahmestellung der Rechner (2) eine akustische oder optische Grundrückmeldung und/oder die Grundaufnahmegeometrie eine mechanische Grundrückmeldung an den Bediener (12) ausgibt.
  6. Darstellungsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, – dass vom Rechner (2) ein von einem Zusatzdetektor (4') erfasstes Bild des Objekts (9) entgegen genommen und daraus eine von der Grundabbildung (23) des Objekts (9) verschiedene 2-D Zusatzabbildung (23') des Objekts (9) ermittelt wird, – dass die Zusatzabbildung (23') vom Rechner (2) über das Ausgabesystem (10) als Bild flüchtig ausgegeben wird und – dass die Zusatzabbildung (23') des Objekts (9) vom Rechner (2) über das Ausgabesystem (10) gleichzeitig zur Grunddarstellung (20) und zur Grundabbildung (23), aber örtlich getrennt von diesen ausgegeben wird.
  7. Darstellungsverfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Zusatzabbildung (23') durch eine Zusatzaufnahmegeometrie bestimmt ist und dass die Zusatzaufnahmegeometrie jederzeit änderbar ist.
  8. Darstellungsverfahren nach Anspruch 7, dadurch gekennzeichnet, dass die Zusatzaufnahmegeometrie von einem Bediener (12) manuell in eine Zusatzaufnahmestellung verfahren wird und dass bei Erreichen der Zusatzaufnahmestellung der Rechner (2) eine akustische oder optische Zusatzrückmeldung und/oder die Zusatzaufnahmegeometrie eine mechanische Zusatzrückmeldung an den Bediener (12) ausgibt.
  9. Darstellungsverfahren nach Anspruch 4 oder 5 und Anspruch 7 oder 8, dadurch gekennzeichnet – dass die Grundaufnahmegeometrie eine Grundabbildungshauptachse (7) aufweist, – dass die Zusatzaufnahmegeometrie eine Zusatzabbildungshauptachse (7') aufweist, – dass die Abbildungshauptachsen (7, 7') sich unter Bildung eines Schnittwinkels (α) in einem gemeinsamen Schnittpunkt (8) schneiden und – dass die Zusatzabbildung (23') relativ zur Grundabbildung (23) derart bestimmt wird, dass der Schnittwinkel 90° beträgt.
  10. Darstellungsverfahren nach Anspruch 4 oder 5 und Anspruch 7 oder 8, dadurch gekennzeichnet, – dass die Grundaufnahmegeometrie eine Grundabbildungshauptachse (7) aufweist, – dass die Zusatzaufnahmegeometrie eine Zusatzabbildungshauptachse (7') aufweist, – dass die Abbildungshauptachsen (7, 7') sich unter Bildung eines Schnittwinkels (α) in einem gemeinsamen Schnittpunkt (8) schneiden, – dass der Schnittwinkel (α) konstruktionsbedingt maximal so groß wie ein Grenzwinkel ist, der kleiner als 90° ist, und – dass die Zusatzabbildung (23') relativ zur Grundabbildung (23) derart bestimmt wird, dass der Schnittwinkel (α) gleich dem Grenzwinkel ist.
  11. Darstellungsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, – dass vom Rechner (2) anhand des Volumendatensatzes (19) eine von der Grunddarstellung (20) verschiedene zweidimensionale Zusatzdarstellung (21) ermittelt wird, – dass die Zusatzdarstellung (21) vom Rechner (2) über das Ausgabesystem (10) als Bild flüchtig ausgegeben wird und – dass die Zusatzdarstellung (21) vom Rechner (2) über das Ausgabesystem (10) gleichzeitig zur Grundabbildung (23) und zur Grunddarstellung (20), aber örtlich getrennt von diesen, gegebenenfalls auch örtlich getrennt von der Zusatzabbildung (23'), ausgegeben wird.
  12. Darstellungsverfahren nach Anspruch 11, dadurch gekennzeichnet, dass die Zusatzdarstellung (21) vom Rechner (2) in Echtzeit ermittelt wird.
  13. Darstellungsverfahren nach Anspruch 11 oder 12, dadurch gekennzeichnet, dass die Zusatzdarstellung (21) interaktiv änderbar ist.
  14. Darstellungsverfahren nach einem der Ansprüche 6 bis 10 und einem der Ansprüche 11 bis 13, dadurch gekennzeichnet, dass die Zusatzdarstellung (21) und die Zusatzabbildung (23') perspektivische Projektionen (21, 23') sind und derart bestimmt werden, dass ihre Projektionsparameter übereinstimmen.
  15. Darstellungsverfahren nach einem der Ansprüche 11 bis 14, dadurch gekennzeichnet, – dass vom Rechner (2) anhand des Volumendatensatzes (19) eine sowohl von der Grunddarstellung (20) als auch von der Zusatzdarstellung (21) unabhängige 2-D Ergänzungsdarstellung (22) ermittelt wird, – dass die Ergänzungsdarstellung (22) vom Rechner (2) über das Ausgabesystem (10) als Bild flüchtig ausgegeben wird und – dass die Ergänzungsdarstellung (22) vom Rechner (2) über das Ausgabesystem (10) gleichzeitig mit der Grundabbildung (23), der Grunddarstellung (20) und der Zusatzdarstellung (21), aber örtlich getrennt von diesen, gegebenenfalls auch örtlich getrennt von der Zusatzabbildung (23'), ausgegeben wird.
  16. Darstellungsverfahren nach Anspruch 15, dadurch gekennzeichnet, dass die Ergänzungsdarstellung (22) in Echtzeit ermittelt wird.
  17. Darstellungsverfahren nach Anspruch 15 oder 16, dadurch gekennzeichnet, dass die Ergänzungsdarstellung (22) interaktiv änderbar ist.
  18. Darstellungsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass die Abbildungen (23, 23') und die Darstellungen (20 bis 22) jeweils über eine eigene Ausgabeeinrichtung (11), z. B. einen Monitor (11), des Ausgabesystems (10) ausgegeben werden.
  19. Darstellungsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass die anhand des Volumendatensatzes (19) ermittelten Darstellungen (20 bis 22) Schnitte oder perspektivische Projektionen sind.
  20. Darstellungsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass die Abbildungen (23, 23') des Objekts (9) perspektivische Projektionen (23, 23') sind.
  21. Darstellungsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet dass die Grundabbildung (23), gegebenenfalls auch die Zusatzabbildung (23'), durch Röntgenstrahlung oder durch Ultraschall ermittelt wird bzw. werden.
  22. Computerprogramm zur Durchführung eines Darstellungsverfahrens nach einem der obigen Ansprüche.
  23. Mit einem Computerprogramm nach Anspruch 22 programmierter Rechner.
  24. Rechner nach Anspruch 23, dadurch gekennzeichnet, dass er als Steuerrechner für eine bildgebende Modalität (1), insbesondere eine Röntgenanlage (1), ausgebildet ist.
  25. Bildgebende Modalität, insbesondere Röntgenanlage, mit einem Steuerrechner (2) nach Anspruch 24.
DE10243162A 2002-09-17 2002-09-17 Rechnergestütztes Darstellungsverfahren für ein 3D-Objekt Expired - Fee Related DE10243162B4 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE10243162A DE10243162B4 (de) 2002-09-17 2002-09-17 Rechnergestütztes Darstellungsverfahren für ein 3D-Objekt
JP2003322625A JP4510415B2 (ja) 2002-09-17 2003-09-16 3d対象物のコンピュータ支援表示方法
US10/664,836 US7129946B2 (en) 2002-09-17 2003-09-17 Computer-aided presentation method for a 3D subject

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10243162A DE10243162B4 (de) 2002-09-17 2002-09-17 Rechnergestütztes Darstellungsverfahren für ein 3D-Objekt

Publications (2)

Publication Number Publication Date
DE10243162A1 DE10243162A1 (de) 2004-03-25
DE10243162B4 true DE10243162B4 (de) 2005-10-06

Family

ID=31896116

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10243162A Expired - Fee Related DE10243162B4 (de) 2002-09-17 2002-09-17 Rechnergestütztes Darstellungsverfahren für ein 3D-Objekt

Country Status (3)

Country Link
US (1) US7129946B2 (de)
JP (1) JP4510415B2 (de)
DE (1) DE10243162B4 (de)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005022541A1 (de) * 2005-05-17 2006-12-07 Siemens Ag Verfahren und Gerät zur Darstellung von Strukturen auf einem 2D-Durchleuchtungsbild
JP2012510317A (ja) * 2008-11-28 2012-05-10 フジフイルム メディカル システムズ ユーエスエイ インコーポレイテッド 脊椎のラベル付けの伝搬のためのシステムおよび方法
US9795348B2 (en) * 2010-05-03 2017-10-24 Koninklijke Philips N.V. Medical viewing system and method for generating an angulated view of an object of interest
US9105200B2 (en) 2011-10-04 2015-08-11 Quantant Technology, Inc. Semi-automated or fully automated, network and/or web-based, 3D and/or 4D imaging of anatomy for training, rehearsing and/or conducting medical procedures, using multiple standard X-ray and/or other imaging projections, without a need for special hardware and/or systems and/or pre-processing/analysis of a captured image data
US10734116B2 (en) 2011-10-04 2020-08-04 Quantant Technology, Inc. Remote cloud based medical image sharing and rendering semi-automated or fully automated network and/or web-based, 3D and/or 4D imaging of anatomy for training, rehearsing and/or conducting medical procedures, using multiple standard X-ray and/or other imaging projections, without a need for special hardware and/or systems and/or pre-processing/analysis of a captured image data
US9974525B2 (en) 2014-10-31 2018-05-22 Covidien Lp Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same
US10716525B2 (en) 2015-08-06 2020-07-21 Covidien Lp System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction
US10674982B2 (en) 2015-08-06 2020-06-09 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10702226B2 (en) 2015-08-06 2020-07-07 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US11172895B2 (en) 2015-12-07 2021-11-16 Covidien Lp Visualization, navigation, and planning with electromagnetic navigation bronchoscopy and cone beam computed tomography integrated
US11051886B2 (en) 2016-09-27 2021-07-06 Covidien Lp Systems and methods for performing a surgical navigation procedure
US10699448B2 (en) 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
US10893843B2 (en) 2017-10-10 2021-01-19 Covidien Lp System and method for identifying and marking a target in a fluoroscopic three-dimensional reconstruction
US10905498B2 (en) 2018-02-08 2021-02-02 Covidien Lp System and method for catheter detection in fluoroscopic images and updating displayed position of catheter

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6216030B1 (en) * 1990-01-10 2001-04-10 The University Of Virginia Alumni Patents Foundation Magnetic stereotactic system for treatment delivery
US6364526B2 (en) * 1997-11-26 2002-04-02 Philips Medical Systems (Cleveland) Inc. Fluoro-assist feature for a diagnostic imaging device

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5762458A (en) * 1996-02-20 1998-06-09 Computer Motion, Inc. Method and apparatus for performing minimally invasive cardiac procedures
JP2002219125A (ja) * 1993-11-26 2002-08-06 Toshiba Medical System Co Ltd X線断層撮影装置
JP3695878B2 (ja) * 1996-02-16 2005-09-14 株式会社東芝 X線診断装置
JP3910239B2 (ja) * 1996-11-14 2007-04-25 東芝医用システムエンジニアリング株式会社 医用画像合成装置
JP3762539B2 (ja) * 1998-04-03 2006-04-05 株式会社日立メディコ X線透視撮影装置および方法
DE19854241B4 (de) * 1998-11-24 2014-03-06 Siemens Aktiengesellschaft Verfahren zum Darstellen von an einem Anzeigemonitor wiedergebbaren Bildern sowie Vorrichtung zum Verarbeiten und Wiedergeben digitaler Bilder
JP4636696B2 (ja) * 1999-04-20 2011-02-23 アーオー テクノロジー アクチエンゲゼルシャフト ヒト又は動物の器官の表面における3d座標の経皮的獲得用の装置
JP3608448B2 (ja) * 1999-08-31 2005-01-12 株式会社日立製作所 治療装置
US6535756B1 (en) * 2000-04-07 2003-03-18 Surgical Navigation Technologies, Inc. Trajectory storage apparatus and method for surgical navigation system
JP2002119502A (ja) * 2000-10-17 2002-04-23 Toshiba Corp 医用装置
JP2002119507A (ja) * 2000-10-17 2002-04-23 Toshiba Corp 医用装置および医用画像収集表示方法
JP4653303B2 (ja) * 2000-12-26 2011-03-16 株式会社東芝 コンピュータ断層撮影装置
DE10210646A1 (de) 2002-03-11 2003-10-09 Siemens Ag Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments
JP4110457B2 (ja) * 2002-06-05 2008-07-02 株式会社日立メディコ 医療画像診断装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6216030B1 (en) * 1990-01-10 2001-04-10 The University Of Virginia Alumni Patents Foundation Magnetic stereotactic system for treatment delivery
US6364526B2 (en) * 1997-11-26 2002-04-02 Philips Medical Systems (Cleveland) Inc. Fluoro-assist feature for a diagnostic imaging device

Also Published As

Publication number Publication date
DE10243162A1 (de) 2004-03-25
JP2004105734A (ja) 2004-04-08
JP4510415B2 (ja) 2010-07-21
US20040071326A1 (en) 2004-04-15
US7129946B2 (en) 2006-10-31

Similar Documents

Publication Publication Date Title
EP1127545B1 (de) Verfahren zur Lokalisierung von Objekten in der interventionellen Radiologie
DE102005030646B4 (de) Verfahren zur Kontur-Visualisierung von zumindest einer interessierenden Region in 2D-Durchleuchtungsbildern
DE3717871C3 (de) Verfahren und Vorrichtung zum reproduzierbaren optischen Darstellen eines chirururgischen Eingriffes
DE69922980T2 (de) Verfahren und vorrichtung zur positionierung eines geräts in einem körper
EP2082687B1 (de) Überlagerte Darstellung von Aufnahmen
DE102007013407B4 (de) Verfahren und Vorrichtung zur Bereitstellung einer Korrekturinformation
DE102005032523B4 (de) Verfahren zur prä-interventionellen Planung einer 2D-Durchleuchtungsprojektion
DE102005007893B4 (de) Verfahren zur Positionsbestimmung eines Instrumentes mit einem Röntgensystem
DE102010020781B4 (de) Bestimmung und Überprüfung der Koordinatentransformation zwischen einem Röntgensystem und einem Operationsnavigationssystem
EP1894538B1 (de) Verfahren und Vorrichtung zum Bestimmen der Lage von Beckenebenen
DE10243162B4 (de) Rechnergestütztes Darstellungsverfahren für ein 3D-Objekt
DE102005059804A1 (de) Verfahren und Vorrichtung zur Bewegungskorrektur bei der Bildgebung während einer medizinischen Intervention
DE10323008A1 (de) Verfahren zur automatischen Fusion von 2D-Fluoro-C-Bogen-Bildern mit präoperativen 3D-Bildern unter einmaliger Verwendung von Navigationsmarken
DE19846687C2 (de) Chirurgische Hilfsvorrichtung zur Verwendung beim Ausführen von medizinischen Eingriffen und Verfahren zum Erzeugen eines Bildes im Rahmen von medizinischen Eingriffen
DE10047382A1 (de) Röntgenkalibrierphantom, Verfahren zur markerlosen Registrierung für navigationsgeführte Eingriffe unter Verwendung des Röntgenkalibrierphantoms und medizinisches System aufweisend ein derartiges Röntgenkalibrierphantom
DE10240727A1 (de) Bildgebendes System und Verfahren zur Optimierung einer Röntgenabbildung
DE19807884C2 (de) Verfahren zur Kalibrierung einer Aufnahmevorrichtung zur Bestimmung von räumlichen Koordinaten anatomischer Zielobjekte und Vorrichtung zur Durchführung des Verfahrens
DE102008045276B4 (de) Verfahren zur Ansteuerung einer medizintechnischen Anlage, medizintechnische Anlage und Computerprogramm
EP1114621B1 (de) Anordnung zur Darstellung von Schichtbildern
DE102005045602A1 (de) Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs
DE19951503B4 (de) Medizinisches System mit einem Bildgebungs- und einem Navigationssystem
DE10108947B4 (de) Verfahren und Vorrichtung zum Abgleichen von wenigstens einem visualisierten medizinischen Messergebnis mit wenigstens einem weiteren, eine räumliche Information enthaltenden Datensatz
EP3626176B1 (de) Verfahren zum unterstützen eines anwenders, computerprogrammprodukt, datenträger und bildgebendes system
DE102012200686A1 (de) Verfahren und Vorrichtung zur Positionierung einer Röntgenvorrichtung
DE10235795B4 (de) Medizinische Vorrichtung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee