DE112004000352T5 - System und Verfahren zum Durchführen einer virtuellen Endoskopie - Google Patents

System und Verfahren zum Durchführen einer virtuellen Endoskopie Download PDF

Info

Publication number
DE112004000352T5
DE112004000352T5 DE112004000352T DE112004000352T DE112004000352T5 DE 112004000352 T5 DE112004000352 T5 DE 112004000352T5 DE 112004000352 T DE112004000352 T DE 112004000352T DE 112004000352 T DE112004000352 T DE 112004000352T DE 112004000352 T5 DE112004000352 T5 DE 112004000352T5
Authority
DE
Germany
Prior art keywords
lumen
data
accretion
mpr
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112004000352T
Other languages
English (en)
Other versions
DE112004000352B4 (de
Inventor
Bernhard Geiger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Medical Solutions USA Inc
Original Assignee
Siemens Corporate Research Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Corporate Research Inc filed Critical Siemens Corporate Research Inc
Publication of DE112004000352T5 publication Critical patent/DE112004000352T5/de
Application granted granted Critical
Publication of DE112004000352B4 publication Critical patent/DE112004000352B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Abstract

Verfahren zum Durchführen einer virtuellen Endoskopie mit folgenden Schritten:
Berechnen einer Abstandskarte unter Verwendung dreidimensionaler (3D) Daten eines Lumens;
Berechnen einer multiplanaren Rekonstruktion (MPR) des Lumens;
Durchführen einer Bereichsanwachsung (Region Growing) auf der MPR des Lumens;
Markieren von Daten aus der Bereichsanwachsung; und
Durchführen eines 3D-Renderings der markierten Daten aus der Bereichsanwachsung.

Description

  • Querverweis auf verwandte Anmeldungen
  • Diese Anmeldung nimmt die Priorität der vorläufigen US-Anmeldung 60/454,105 vom 12. März 2003 in Anspruch, die hierin durch Bezugnahme beinhaltet ist.
  • Hintergrund der Erfindung
  • Technischer Bereich
  • Die vorliegende Erfindung betrifft das Durchführen einer virtuellen Endoskopie und spezieller das Durchführen einer virtuellen Endoskopie unter Verwendung einer multiplanaren Rekonstruktion (MPR) und dreidimensionalem (3D) Rendering einer virtuellen endoskopischen Abbildung.
  • Virtuelle Endoskopie (oder durch Computer berechnete Endoskopie) ist ein Verfahren einer Diagnose unter Verwendung der Computerverarbeitung dreidimensionaler (3D) Bilddatensätze wie Computertomographie (CT)- oder Magnetresonanzbildgebungs (MRI) -Scans, um simulierte Darstellungen patientenspezifischer Organe ähnlich denen, die durch übliche invasive Endoskopieverfahren erzeugt werden, herzustellen. Virtuelle Endoskopie wurde auf viele endoskopische Verfahren einschließlich Bronchoskopie, Darmspiegelung, Untersuchungen der Bauchspeicheldrüse, Kehlkopfspiegelungen und Otoskopie angewandt. Bei Verwendung der virtuellen Endoskopie können patientenspezifische anatomische Strukturen nicht-invasiv erhalten werden, wodurch die Schwierigkeiten bei der Durchführung, die mit üblichen invasiven Endoskopieverfahren einhergehen, reduziert werden.
  • In einem typischen virtuellen Endoskopieverfahren werden 3D-Bilder erzeugt, um Bilder zu simulieren, die beispielsweise von einem faseroptischen Endoskop kommen. Somit kann man beispielsweise durch das Lumen, etwa ein Kolon, fliegen und die Innenfläche des Kolons betrachten, um Oberflächenanomalien festzustellen. Dies wird erreicht, indem ein Betrachtungspunkt eines virtuellen Endoskops unter Verwendung einer Perspektivprojektion ausgewählt wird, was typischerweise unter einem stumpfen Winkel wie 110° stattfindet.
  • Obwohl die erhaltenen Bilder hilfreich sind, um die Innenfläche des Lumens zu betrachten, ist typischerweise Information auf der Außenoberfläche des Lumens nicht sichtbar. Somit ist es schwierig, die Wanddicke des Lumens oder Anomalien zu bestimmen, die auf der Außenoberfläche des Lumens vorhanden sein können. Außerdem können bei Verwendung einer Weitwinkel-Perspektivprojektion (z.B. 100 oder 110°) Merkmale wie Tumore, die hinter Falten und Kurven im Lumen versteckt sein können, nicht erkannt werden.
  • Zusammenfassung der Erfindung
  • Die vorliegende Erfindung überwindet die voranstehenden und weitere Probleme, die bei der bekannten Lehre zum Bereitstellen eines Systems und Verfahrens zum Durchführen einer virtuellen Endoskopie auftreten.
  • In einer Ausführungsform der vorliegenden Erfindung weist ein Verfahren zum Durchführen einer virtuellen Endoskopie die folgenden Schritte auf: Berechnen einer Abstandskarte unter Verwendung von dreidimensionalen (3D) Daten eines Lumens; Berechnen einer multiplanaren Rekonstruktion (MPR) des Lumens; Durchführen einer Bereichsanwachsung auf der multiplanaren Rekonstruktion des Lumens; Markieren von Daten aus der Bereichsanwachsung; und Durchführen eines 3D-Renderings der markierten Daten aus der Bereichsanwachsung.
  • In einer anderen Ausführungsform der vorliegenden Erfindung weist ein Verfahren zum Durchführen einer virtuellen Endoskopie die folgenden Schritte auf: Berechnen einer Abstandskarte unter Verwendung von 3D-Daten eines Lumens; Berechnen einer multiplanaren Rekonstruktion (MPR) des Lumens, wobei die MPR orthogonal zum Lumen bei einer Endoskopposition berechnet wird; Durchführen einer ersten Bereichsanwachsung auf der MPR des Lumens bei der Endoskopposition; Berechnen eines minimalen Abstands und eines maximalen Abstands von Daten der ersten Bereichsanwachsung unter Verwendung entsprechender Abstände aus der Abstandskarte; Durchführen einer zweiten Bereichsanwachsung auf der MPR des Lumens für Daten außerhalb der ersten Bereichsanwachsung; und Durchführen eines 3D-Renderings von Daten, die mit der ersten Bereichsanwachsung und der zweiten Bereichsanwachsung verknüpft sind.
  • In noch einer weiteren Ausführungsform der vorliegenden Erfindung weist ein System zum Durchführen einer virtuellen Endoskopie auf: eine Speichervorrichtung zum Speichern eines Programms; einen Prozessor, der mit der Speichervorrichtung kommuniziert, wobei der Prozessor mit dem Programm zusammenwirkt, um: eine Abstandskarte unter Verwendung von 3D-Daten eines Lumens zu berechnen; eine MPR des Lumens zu berechnen, wobei die MPR orthogonal zum Lumen bei einer Endoskopposition berechnet wird; eine erste Bereichsanwachsung auf der MPR des Lumens bei der Endoskopposition durchzuführen; einen minimalen Abstand und einen maximalen Abstand von Daten der ersten Bereichsanwachsung unter Verwendung entsprechender Abstände aus der Abstandskarte zu berechnen; eine zweite Bereichsanwachsung auf der MPR des Lumens für Daten außerhalb der ersten Bereichsanwachsung durchzuführen; und ein 3D-Rendering von Daten durchzuführen, die mit der ersten Bereichsanwachsung und der zweiten Bereichsanwachsung verknüpft sind.
  • In einer weiteren Ausführungsform der vorliegenden Erfindung ist ein Computerprogrammprodukt mit einem von einem Computer verwendbaren Medium vorgesehen, auf dem eine Computerprogrammlogik zum Durchführen einer virtuellen Endoskopie aufgezeichnet ist, wobei die Computerprogrammlogik aufweist: einen Programmcode zum Berechnen einer Abstandskarte unter Verwendung von 3D-Daten eines Lumens; einen Programmcode zum Berechnen einer MPR des Lumens, wobei die MPR orthogonal zum Lumen bei einer Endoskopposition berechnet wird; und einen Programmcode zum Durchführen einer ersten Bereichsanwachsung auf der MPR des Lumens bei der Endoskopposition; einen Programmcode zum Berechnen eines minimalen Abstands und eines maximalen Abstands von Daten der ersten Bereichsanwachsung unter Verwendung entsprechender Abstände aus der Abstandskarte; einen Programmcode zum Durchführen einer zweiten Bereichsanwachsung auf der MPR des Lumens für Daten außerhalb der ersten Bereichsanwachsung; und einen Programmcode zum Durchführen eines 3D-Renderings von Daten, die mit der ersten Bereichsanwachsung und der zweiten Bereichsanwachsung verknüpft sind.
  • In noch einer weiteren Ausführungsform der vorliegenden Erfindung weist ein System zum Durchführen einer virtuellen Endoskopie auf: Mittel zum Berechnen einer Abstandskarte unter Verwendung von 3D-Daten eines Lumens; Mittel zum Berechnen einer MPR des Lumens, wobei die MPR orthogonal zum Lumen bei einer Endoskopposition berechnet wird; Mittel zum Durchführen einer ersten Bereichsanwachsung auf der MPR des Lumens bei der Endoskopposition; Mittel zum Berechnen eines minimalen Abstands und eines maximalen Abstands von Daten der ersten Bereichsanwachsung unter Verwendung entsprechender Abstände aus der Abstandskarte; Mittel zum Durchführen einer zweiten Bereichsanwachsung auf der MPR des Lumens für Daten außerhalb der ersten Bereichsanwachsung; und Mittel zum Durchführen eines 3D-Renderings von Daten, die mit der ersten Bereichsanwachsung und der zweiten Bereichsanwachsung verknüpft sind.
  • In einer weiteren Ausführungsform der vorliegenden Erfindung weist ein Verfahren zum Durchführen einer virtuellen Endoskopie folgende Schritte auf: Erhalten von 3D-Daten aus einem Lumen; Berechnen einer Abstandskarte unter Verwendung der 3D-Daten des Lumens; Anordnen eines Endoskops an einer gewünschten Position im Lumen; Berechnen einer MPR des Lumens, wobei die MPR orthogonal zum Lumen bei der Endoskopposition berechnet wird; Durchführen einer ersten Bereichsanwachsung auf der MPR des Lumens bei der Endoskopposition; Markieren von Daten, die mit der ersten Bereichsanwachsung verknüpft sind, für das Rendering; Berechnen eines minimalen Abstands und eines maximalen Abstands von den markierten Daten der ersten Bereichsanwachsung unter Verwendung entsprechender Abstände aus der Abstandskarte; Durchführen einer Mehrzahl von Bereichsanwachsungen für Daten außerhalb des markierten Datenbereichs, die innerhalb einer Grenze liegen, die mit der Berechnung des minimalen und maximalen Abstands verknüpft ist; Markieren von Daten, die mit der Mehrzahl von Bereichsanwachsungen verknüpft sind, für das Rendering; und Durchführen eines 3D-Renderings der markierten Bereiche, die mit der ersten Bereichsanwachsung und der Mehrzahl von Bereichsanwachsungen verknüpft sind.
  • Die voranstehenden Vorteile und Merkmale beziehen sich auf repräsentative Ausführungsformen und werden vorgebracht, um das Verständnis der Erfindung zu erleichtern. Es sollte klar sein, dass sie nicht als Einschränkungen des Schutzbereichs dienen sollen, der durch die Ansprüche definiert ist, oder als Einschränkungen bezüglich von Äquivalenten zu den Ansprüchen. Deshalb sollte diese Zusammenfassung von Merkmalen und Vorteilen bei der Bestimmung des Äquivalenzbereichs nicht entscheidend sein. Weitere Merkmale und Vorteile der Erfindung werden aus der nachfolgenden Beschreibung, den Zeichnungen und den Ansprüchen deutlich.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist ein Blockdiagramm eines Systems zum Durchführen einer virtuellen Endoskopie gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung;
  • 2 ist ein Ablaufdiagramm, das den Ablauf eines Verfahrens zum Durchführen einer virtuellen Endoskopie gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung zeigt;
  • 3 ist eine dreidimensionale (3D) Wiedergabe eines Lumens gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung;
  • 4 ist ein Lumen, das in 3D gerendert wurde, das einen Abschnitt aufweist, der nicht in 3D gerendert wurde; und
  • 5 ist der Abschnitt des Lumens aus 4, der nicht in 3D gerendert wurde, gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung in 3D gerendert.
  • Detaillierte Beschreibung beispielhafter Ausführungsformen
  • 1 ist ein Blockdiagramm eines Systems 10 zum Durchführen einer virtuellen Endoskopie gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung. Wie in 1 dargestellt weist das System 100 unter anderem eine Scanvorrichtung 105, einen Computer (PC) 110 und eine Bedienkonsole 115 auf, die beispielsweise über ein Ethernet-Netzwerk 120 verbunden sind. Die Scanvorrichtung 105 kann eine Magnetresonanzbildgebungs (MRI) -Vorrichtung, eine Computertomographie (CT) -Bildgebungsvorrichtung, eine Spiral-CT-Vorrichtung, eine Positronenemissionstomographie (PET)-, eine zweidimensionale (2D) oder dreidimensionale (3D) fluoroskopische Bildgebungsvorrichtung, eine 2D, 3D oder vierdimensionale (4D) Ultraschallbildgebungsvorrichtung oder ein Röntgengerät etc. sein.
  • Der PC 110, der ein tragbarer Computer oder Laptop sein kann, ein PTA etc., weist eine zentrale Prozessoreinheit (CPU) 125 und einen Speicher 130 auf, die mit einer Eingabevorrichtung 145 und einer Ausgabevorrichtung 150 verbunden sind. Der Speicher umfasst einen Direktzugriffsspeicher (RAM) 135 und einen Lesespeicher (ROM) 140. Der Speicher 130 kann auch eine Datenbank, ein Laufwerk für Disks oder Kassetten etc. oder eine Kombination hiervon aufweisen. Der Direktzugriffsspeicher 135 dient als Datenspeicher, der Daten speichert, die während der Ausführung eines Programms in der CPU 125 verwendet werden, und wird als Arbeitsbereich verwendet. Der Lesespeicher 140 dient als Programmspeicher zum Speichern eines Programms, das in der CPU ausgeführt wird. Die Eingabevorrichtung 145 wird durch eine Tastatur, Maus etc. gebildet, und die Ausgabevorrichtung 150 wird durch ein Flüssigkristalldisplay (LCD), ein Kathodenstrahlröhren (CRT) -Display, einen Drucker etc. gebildet.
  • Der Betrieb des Systems 100 wird von der Bedienkonsole 115 gesteuert, die eine Steuerung 160 aufweist, beispielsweise eine Tastatur, und ein Display 155, beispielsweise ein CRT-Display. Die Bedienkonsole 115 kommuniziert mit dem PC 110 und der Scanvorrichtung 105, so dass 2D-Bilddaten, die von der Scanvorrichtung 105 gesammelt werden, in 3D-Daten durch den PC 110 mittels Rendering umgewandelt werden und auf dem Display 155 angezeigt werden können. Es soll klar sein, dass der PC 110 betrieben werden kann und Informationen anzeigen kann, die von der Scanvorrichtung 105 geliefert werden, auch wenn keine Bedienkonsole 115 vorhanden ist.
  • 2 ist ein Ablaufdiagramm, das den Ablauf eines Verfahrens zum Durchführen einer virtuellen Endoskopie gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung zeigt. Wie in 2 dargestellt, werden 3D-Daten von einem Lumen (Schritt 205) erhalten. Dies wird erreicht durch Verwendung der Scanvorrichtung 105, in diesem Beispiel ein CT-Scanner, der von der Bedienkonsole 115 aus betrieben wird, um ein gewähltes Lumen zu scannen, wodurch eine Reihe von 2D-Bildern erzeugt wird, die mit dem Lumen verknüpft sind. Die 2D-Bilder des Lumens werden anschließend in ein gerendertes 3D-Bild umgewandelt oder transformiert. Es soll klar sein, dass das Lumen ein Kolon, eine Bauchspeicheldrüse, Bronchien, ein Kehlkopf, eine Luftröhre, eine Stirnhöhle, ein Ohrenkanal, ein Blutgefäß, eine Harnröhre, eine Harnblase oder jeder andere beliebige innere offene Raum oder Hohlraum eines rohrförmigen Organs sein kann.
  • Nachdem die 3D-Daten des Lumens erhalten wurden, wird eine Abstandskarte unter Verwendung der 3D-Daten des Lumens berechnet (Schritt 210). Die Abstandskarte wird berechnet, indem einem ersten Voxel (z.B. Keim- oder Saatvoxel) des Lumens ein anfänglicher Abstandswert von "1" zugeordnet wird. Die an das erste Voxel angrenzenden Voxel werden untersucht, und wenn sie zu dem Lumen gehören und ihnen nicht zuvor ein Abstandswert zugeordnet wurde, wird ihnen ein Abstandswert von "2" zugeordnet. Anschließend wird den Voxeln, die an die Voxel mit Abstandwert "2" angrenzen, ein Abstandswert von "3" zugeordnet, wenn sie zum Lumen gehören und ihnen nicht zuvor bereits ein Abstandswert zugeordnet wurde. Dieses Verfahren wird wiederholt, bis alle Voxel im Lumen bestimmte. Abstandswerte erhalten haben. Während der Berechnung der Abstandskarte erhält somit ein Nachbar (z.B. ein angrenzendes Voxel) eines Voxels, das einen Abstandswert "n" erhalten hat, einen Abstandswert von "n+1", wenn es zum Lumen gehört und ihm noch kein Abstandswert zugeordnet wurde.
  • Wie weiter in 2 dargestellt ist, wird ein Endoskop (z.B. ein virtuelles Endoskop) an einer gewünschten Position im Lumen angeordnet (Schritt 215). Dies wird durchgeführt, indem ein Nutzer auf eine Stelle am Bildschirm klickt, die mit einem Bereich des Lumens verknüpft ist, dessen Analyse gewünscht ist, oder indem ein Durchflug durch das Lumen über einen vorprogrammierten "Flugpfad" durchgeführt wird, um eine gewünschte Position für das Studium zu finden. Nach Schritt 215 wird eine multiplanare Rekonstruktion (MPR) orthogonal zum Lumen bei der Endoskopposition berechnet (Schritt 220). Unter Verwendung des MPR-Bilds des Lumens wird anschließend eine Bereichsanwachsung (bzw. ein Region Growing) an der Endoskopposition durchgeführt (Schritt 225). Ähnlich zum Verfahren des Berechnens einer Abstandskarte in Schritt 210 wird bei der Bereichsanwachsung ein Keimvoxel beispielsweise im Mittelpunkt der Endoskopposition ausgewählt und es wird ihm ein erster Wert zugeordnet. Die Nachbarvoxel werden anschließend gelesen und mit einem Grenzbereich verglichen, der durch Markierung eines Bereichs von Interesse im Lumen bestimmt werden kann, um zu bestimmen, ob solche Nachbarvoxel (z.B. angrenzende Voxel) in den Grenzbereich fallen. Wenn das Voxel oder die Voxel innerhalb des Grenzbereichs zu finden sind, wird ihm/ihnen ein zweiter Wert zugeordnet, und das Verfahren wird wiederholt, bis alle Voxel in dem Bereich von Interesse getestet wurden und/oder ihnen Werte zugeordnet wurden.
  • Die mit der Bereichsanwachsung verknüpften Daten werden anschließend als Kandidat für das 3D-Rendering markiert (Schritt 230). Diese Daten werden markiert, indem ihnen eine Kennung zugeordnet wird, die beispielsweise ein Wert sein kann, der sich von dem aller anderen Pixel- oder Voxelwerte in der MPR unterscheidet. An diesem Punkt kann der Nutzer fortfahren, ein 3D-Rendering der markierten Daten in Schritt 260 durchzuführen oder das MPR-Bild in Schritt 240 zu modifizieren (Schritt 235). Wenn der Nutzer zu Schritt 260 schreitet, werden die MPR-Daten mit einem 3D-Rendering der markierten Daten kombiniert, um ein vergrößertes Bild des Lumens zu liefern. Mit anderen Worten werden die markierten Pixel oder Voxel in der MPR durch eine gerenderte 3D-Wiedergabe des Lumens ersetzt.
  • Ein beispielhaftes Bild 300, das vom direkten Schreiten von Schritt 235 zu 260 geliefert wird, ist in 3 dargestellt. Wie in 3 gezeigt können Informationen außerhalb des. Lumens (in diesem Beispiel ist das Lumen ein Kolon) beobachtet werden. Insbesondere sind Informationen außerhalb. der Wand des Kolons sichtbar und unter Verwendung dieser Informationen kann die Dicke der Wand des Kolons bestimmt werden und Anomalien wie ein Polyp entdeckt werden. Zusätzlich werden die umgebenden MPR-Bildabschnitte nicht gerendert (z.B. nicht klare Bilder des Kolons), da sie nicht für das Rendering markiert wurden. Somit zeigt das Bild 300 lediglich den gewünschten Abschnitt des Lumens an, der zuvor in Schritt 215 durch den Nutzer ausgewählt wurde. Es soll klar sein, dass die Option des direkten Schreitens von Schritt 235 zu Schritt 260 dem Nutzer ermöglicht, schnell mit Abschnitten eines Lumens zu arbeiten, die keine Probleme wie Kurven oder beispielsweise haustrenartige Falten aufwerfen. Es soll außerdem klar sein, dass Schritt 235 weggelassen werden und die Abfolge in 2 direkt zu Schritt 240 voranschreiten kann.
  • Wenn der Nutzer jedoch das MPR-Bild weiter modifizieren oder verbessern möchte, werden minimale und maximale Abstände der markierten Daten der ersten Bereichsanwachsung aus der.
  • Abstandskarte berechnet (Schritt 240). Dies erfolgt durch Nachschlagen der Abstandswerte der markierten Daten (z.B. markierte Pixel oder Voxel) und tabellarisches Darstellen ihres minimalen und maximalen Abstands von den entsprechenden Positionen aus der Abstandskarte von Schritt 210. Sobald die Abstandswerte berechnet wurden, können zusätzliche Bereichsanwachsungen für Daten außerhalb des ersten markierten Bereichs durchgeführt werden, die ein Teil des gewünschten Lumens sein sollen. Ein Beispiel von Daten, die außerhalb eines markierten Bereichs liegen, ist in Bild 400 in 4 dargestellt.
  • Wie in 4 dargestellt weist das Bild 400 einen Abschnitt eines Lumens auf, der keinem 3D-Rendering unterzogen wurde (in diesem Beispiel ist das Lumen wiederum ein Kolon). Ein Pfeil zeigt diesen Abschnitt (d.h. einen Abschnitt des Lumens, der nach der ersten Bereichsanwachsung nicht markiert war). Um den durch den Pfeil gekennzeichneten Abschnitt zu rendern, wird eine weitere Bereichsanwachsung für Daten außerhalb der ersten Bereichsanwachsung durchgeführt (Schritt 245). Dies erfolgt durch Untersuchung aller Pixel oder Voxel der MPR, die zu dem Lumen gehören, die nach der ersten Bereichsanwachsung nicht markiert waren. Wenn solche Pixel oder Voxel gefunden werden und diese innerhalb enger Nachbarschaft zum berechneten minimalen und maximalen Abstand der markierten Daten von der ersten Bereichsanwachsung liegen, werden sie als Keimpunkt für nachfolgende Bereichsanwachsungen (z.B. zweite, dritte etc. Bereichsanwachsung) verwendet. Daraufhin werden die mit der Bereichsanwachsung verknüpften Daten als Kandidat für das 3D-Rendering markiert und ihnen wird eine Kennung zugeordnet (Schritt 250). Diese Abfolge (Schritte 245-255) wird sich selbst wiederholen, bis alle Bereichsanwachsungen auf der Basis des Abstands des Keimpixels zur ersten Bereichsanwachsung vervollständigt sind (Schritt 255).
  • Es soll klar sein, dass lediglich eine einzelne Bereichsanwachsung in dieser Abfolge (Schritte 245 -255) stattfinden könnte, ohne dass ein Nutzer die Option haben könnte, nach der einzigen Bereichsanwachsung direkt zu Schritt 260 zu schreiten. Mit anderen Worten wird lediglich eine zweite Bereichsanwachsung während dieser Abfolge durchgeführt, aber keine dritte; vierte, etc.
  • Es sollte klar sein, dass eine Grenze auf der Basis des berechneten maximalen und minimalen Abstands (aus Schritt 240) gesetzt werden könnte, um den Bereich einzugrenzen, in dem zweite oder nachfolgende Bereichsanwachsungen durchgeführt werden sollen. Beispielsweise kann die Grenze einfach auf den berechneten minimalen und maximalen Abstand gesetzt werden (deshalb kann die zweite Bereichsanwachsung nicht über diese Punkte hinausreichen), sie kann auf die Hälfte des berechneten minimalen und maximalen Abstands gesetzt werden, oder sie kann auf eine Grenze zwischen dem berechneten maximalen und minimalen Abstand gesetzt werden.
  • In Schritt 260 wird ein 3D-Rendering mit den markierten Daten der ersten, zweiten, dritten etc. Bereichanwachsung unter Verwendung einer 3D-Rendering-Technik wie Strahlformung, Oberflächenrendering (z.B. schattiertes Oberflächenrendering), Volumenrendering etc. durchgeführt. Es soll klar sein, dass das 3D-Rendering unter Verwendung der CPU 125 aus 1 oder durch bestimmte Rendering-Hardware wie eine Graphikkarte, Volumenrendering-Karte etc. durchgeführt werden kann. Die daraus resultierende 3D-Wiedergabe des markierten MPR-Bilds wird in Bild 500 von 5 dargestellt. Wie durch das Bild 500 dargestellt ist der Abschnitt des Lumens aus 4, der durch den Pfeil gekennzeichnet ist, nun sichtbar, und dementsprechend sind Informationen außerhalb der Wand des Kolons sichtbar. und Informationen wie die Dicke der Wand des Kolons können. bestimmt und Anomalien wie ein Polyp entdeckt werden. Nach dem Durchführen des 3D-Renderings in Schritt 260 kann ein Nutzer das Endoskop in eine andere Position im Lumen bewegen und den oben beschriebenen Prozess wiederholen (Schritt 265).
  • Es wird angemerkt, dass die vorliegende Erfindung in verschiedenen Formen von Hardware, Software, Firmware, Spezialzweckprozessoren oder einer Kombination hiervon implementiert sein kann. In einer Ausführungsform kann die vorliegende Erfindung in Software als ein Anwendungsprogramm implementiert sein, das auf einer Programmspeichervorrichtung verkörpert ist.
  • Das Anwendungsprogramm kann geladen werden auf und ausgeführt werden durch ein Gerät mit einer beliebigen geeigneten Architektur.
  • Es soll außerdem klar sein, dass, da einige der systembildenden Komponenten und Verfahrensschritte, die in den begleitenden Zeichnungen dargestellt sind, in Software implementiert sein können, die tatsächliche Verbindung zwischen den Systemkomponenten (oder den Verfahrensschritten) sich abhängig von der Art und Weise unterscheiden kann, in der die vorliegende Erfindung programmiert ist. Bei Berücksichtigung der Lehre der vorliegenden Erfindung kann ein Fachmann in der Lage sein, diese und ähnliche Implementationen oder Konfigurationen der vorliegenden Erfindung in Erwägung zu ziehen.
  • Es sollte auch klar sein, dass die obige Beschreibung lediglich beispielhafte Ausführungsformen repräsentiert. Zum Vorteil des Lesers fokussierte die obige Beschreibung auf ein Beispiel von möglichen Ausführungsformen, das die Prinzipien der vorliegenden Erfindung zeigt. Die Beschreibung versuchte nicht, alle möglichen Variationen erschöpfend aufzuzählen. Solche alternative Ausführungsformen könnten für einen speziellen Abschnitt der Erfindung nicht aufgezeigt worden sein, oder es könnten weitere nicht beschriebene Alternativen für einen Abschnitt verfügbar sein, aber dies soll nicht als Ausschluss dieser alternativen Ausführungsformen gewertet werden. Andere Anwendungen und Ausführungsformen können einfach implementiert werden, ohne vom Schutzumfang der vorliegenden Erfindung abzuweichen. Es ist daher beabsichtigt, dass die vorliegende Erfindung nicht auf die speziell beschriebenen Ausführungsformen beschränkt ist, sondern, dass zahlreiche Veränderungen und Kombinationen der obigen Ausführungsformen und Implementationen mit nicht erfinderischen Substitutionen erzeugt werden können, aber die Erfindung soll gemäß den folgenden Ansprüchen definiert sein.
  • Es kann abgeschätzt werden, dass viele der nicht beschriebenen Ausführungsformen innerhalb des wörtlichen Schutzbereichs der nachfolgenden Ansprüche liegen, und andere im Äquivalenzbereich.
  • System und Verfahren zum Durchführen einer virtuellen Endoskopie
  • Die Erfindung betrifft ein Verfahren zum Durchführen einer virtuellen Endoskopie mit folgenden Schritten:
    Berechnen einer Abstandskarte unter Verwendung dreidimensionaler (3D) Daten eines Lumens;
    Berechnen einer multiplanaren Rekonstruktion (MPR) des Lumens;
    Durchführen einer Bereichsanwachsung (Region Growing) auf der MPR des Lumens;
    Markieren von Daten aus der Bereichsanwachsung; und
    Durchführen eines 3D-Renderings der markierten Daten aus der Bereichsanwachsung.

Claims (30)

  1. Verfahren zum Durchführen einer virtuellen Endoskopie mit folgenden Schritten: Berechnen einer Abstandskarte unter Verwendung dreidimensionaler (3D) Daten eines Lumens; Berechnen einer multiplanaren Rekonstruktion (MPR) des Lumens; Durchführen einer Bereichsanwachsung (Region Growing) auf der MPR des Lumens; Markieren von Daten aus der Bereichsanwachsung; und Durchführen eines 3D-Renderings der markierten Daten aus der Bereichsanwachsung.
  2. Verfahren nach Anspruch 1, desweiteren mit dem Schritt, die 3D-Daten des Lumens zu erhalten.
  3. Verfahren nach Anspruch 2, wobei die 3D-Daten mittels Computertomographie (CT), Spiral-CT, Röntgen, Positronenemissionstomographie, fluoroskopischer, Ultraschall- oder Magnetresonanz (MR) -Bildgebungstechniken erhalten werden.
  4. Verfahren nach Anspruch 1, wobei das Lumen ein Kolon, eine Bauchspeicheldrüse, Bronchien, ein Kehlkopf, eine Luftröhre, eine Stirnhöhle, ein Ohrenkanal, ein Blutgefäß, eine Harnröhre oder eine Harnblase ist.
  5. Verfahren nach Anspruch 1, wobei die MPR orthogonal zum Lumen berechnet wird.
  6. Verfahren nach Anspruch 1, wobei die MPR an einer Endoskopposition berechnet wird.
  7. Verfahren nach Anspruch 1, wobei die Bereichsanwachsung an der Endoskopposition durchgeführt wird.
  8. Verfahren nach Anspruch 1, wobei das 3D-Rendering des Bereichs in Verbindung mit der Bereichsanwachsung unter Verwendung von Strahlformung, Oberflächenrendering oder Volumenrendering als 3D-Rendering-Technik durchgeführt wird.
  9. Verfahren zum Durchführen einer virtuellen Endoskopie mit folgenden Schritten: Berechnen einer Abstandskarte unter Verwendung von dreidimensionalen (3D) Daten eines Lumens; Berechnen einer multiplanaren Rekonstruktion (MPR) des Lumens, wobei die MPR orthogonal zum Lumen an einer Endoskopposition berechnet wird; Durchführen einer ersten Bereichsanwachsung (Region Growing) auf der MPR des Lumens an der Endoskopposition; Berechnen eines minimalen Abstands und eines maximalen Abstands von Daten der ersten Bereichsanwachsung unter Verwendung entsprechender Abstände aus der Abstandskarte; Durchführen einer zweiten Bereichsanwachsung (Region Growing) auf der MPR des Lumens für Daten außerhalb der ersten Bereichsanwachsung; und Durchführen eines 3D-Renderings von Daten, die mit der ersten Bereichsanwachsung und der zweiten Bereichsanwachsung verknüpft sind.
  10. Verfahren nach Anspruch 9, desweiteren mit dem Schritt, die 3D-Daten des Lumens zu erhalten.
  11. Verfahren nach Anspruch 10, wobei die 3D-Daten mittels Computertomographie (CT), Spiral-CT, Röntgen, Positronenemissionstomographie, fluoroskopischer, Ultraschall- oder Magnetresonanz (MR) -Bildgebungstechniken erhalten werden.
  12. Verfahren nach Anspruch 9, desweiteren mit dem Schritt, Daten aus der ersten Bereichsanwachsung, die gerendert werden sollen, zu markieren.
  13. Verfahren nach Anspruch 9, desweiteren mit dem Schritt; Daten aus der zweiten Bereichsanwachsung, die gerendert werden sollen, zu markieren.
  14. Verfahren nach Anspruch 9, wobei das Lumen ein Kolon, eine Bauchspeicheldrüse, Bronchien, ein Kehlkopf, eine Luftröhre, eine Stirnhöhle, ein Ohrenkanal, ein Blutgefäß, eine Harnröhre oder eine Harnblase ist.
  15. Verfahren nach Anspruch 9, wobei das 3D-Rendering der Daten, die mit der ersten Bereichsanwachsung und der zweiten Bereichsanwachsung verknüpft sind, unter Verwendung von Strahlformung, Oberflächenrendering oder Volumenrendering als 3D-Rendering-Technik durchgeführt wird.
  16. Verfahren nach Anspruch 9, wobei die zweite Bereichsanwachsung mit einer Grenze durchgeführt wird, die mit dem berechneten minimalen und maximalen Abstand verknüpft ist.
  17. System zum Durchführen einer virtuellen Endoskopie mit: einer Speichervorrichtung zum Speichern eines Programms; einem Prozessor in Verbindung mit der Speichervorrichtung, wobei der Prozessor mit dem Programm zusammenwirkt, um: eine Abstandskarte unter Verwendung dreidimensionaler (3D) Daten eines Lumens zu berechnen; eine multiplanare Rekonstruktion (MPR) des Lumens zu berechnen, wobei die MPR orthogonal zum Lumen bei einer Endoskopposition berechnet wird; eine erste Bereichsanwachsung (Region Growing) auf der MPR des Lumens bei der Endoskopposition durchzuführen; einen minimalen Abstand und einen maximalen Abstand von Daten der ersten Bereichsanwachsung unter Verwendung entsprechender Abstände aus der Abstandskarte zu berechnen; eine zweite Bereichsanwachsung (Region Growing) auf der MPR des Lumens für Daten außerhalb der ersten Bereichsanwachsung durchzuführen; und ein 3D-Rendering von Daten durchzuführen, die mit der. ersten Bereichsanwachsung und der zweiten Bereichsanwachsung verknüpft sind.
  18. System nach Anspruch 17, wobei der Prozessor außerdem mit dem Programmcode zusammenwirkt, um die 3D-Daten des Lumens zu erhalten.
  19. System nach Anspruch 18, wobei die 3D-Daten durch eine Scanvorrichtung unter Verwendung von Computertomographie (CT), Spiral-CT, Röntgen, Positronenemissionstomographie, fluoroskopischer, Ultraschahl- oder Magnetresonanz (MR)-Bildgebungstechniken erhalten werden.
  20. System nach Anspruch 17, wobei die Daten markiert werden, die mit der ersten Bereichsanwachsung und der zweiten Bereichsanwachsung verknüpft sind.
  21. System nach Anspruch 17, wobei der Prozessor desweiteren mit dem Programmcode zusammenwirkt, um ein Bild anzuzeigen, das aus dem 3D-Rendering der Daten resultiert, die mit der ersten Bereichsanwachsung und mit der zweiten Bereichsanwachsung verknüpft sind.
  22. System nach Anspruch 21, wobei das Bild durch eine Anzeigevorrichtung angezeigt wird.
  23. Computerprogrammprodukt, das ein vom Computer benutzbares Medium aufweist, auf dem eine Computerprogrammlogik zum Durchführen einer virtuellen Endoskopie aufgezeichnet ist, wobei die Computerprogrammlogik aufweist: einen Programmcode zum Berechnen einer Abstandskarte unter Verwendung dreidimensionaler (3D) Daten eines Lumens; einen Programmcode zum Berechnen einer multiplanaren Rekonstruktion (MPR) des Lumens, wobei die MPR orthogonal zum Lumen bei einer Endoskopposition berechnet wird; einen Programmcode zum Durchführen einer ersten Bereichsanwachsung (Region Growing) auf der MPR des Lumens bei der Endoskopposition; einen Programmcode zum Berechnen eines minimalen Abstands und eines maximalen Abstands von Daten der ersten Bereichsanwachsung unter Verwendung entsprechender Abstände aus der Abstandskarte; einen Programmcode zum Durchführen einer zweiten Bereichsanwachsung (Region Growing) auf der MPR des Lumens für Daten außerhalb der ersten Bereichsanwachsung; und einen Programmcode zum Durchführen eines 3D-Renderings von Daten, die mit der ersten Bereichsanwachsung und der zweiten Bereichsanwachsung verknüpft sind.
  24. System nach Anspruch 23, desweiteren mit einem Programmcode zum Erhalten der 3D-Daten des Lumens.
  25. System nach Anspruch 24, wobei die 3D-Daten mittels Computertomographie (CT), Spiral-CT, Röntgen, Positronenemissionstomographie, fluoroskopischer, Ultraschall- oder Magnetresonanz (MR)- Bildgebungstechnik erhalten werden.
  26. System nach Anspruch 23, wobei das Lumen ein Kolon, eine Bauchspeicheldrüse, Bronchien, ein Kehlkopf, eine Luftröhre, eine Stirnhöhle, ein Ohrenkanal, ein Blutgefäß, eine Harnröhre oder eine Harnblase ist.
  27. System nach Anspruch 23, wobei das 3D-Rendering der Daten, die mit der ersten Bereichsanwachsung und der zweiten Bereichsanwachsung verknüpft sind, unter Verwendung von Strahlformung, Oberflächenrendering oder Volumenrendering als 3D-Rendering-Technik durchgeführt wird.
  28. System zum Durchführen einer virtuellen Endoskopie mit: einem Mittel zum Berechnen einer Abstandskarte unter Verwendung dreidimensionaler (3D) Daten eines Lumens; einem Mittel zum Berechnen einer multiplanaren Rekonstruktion (MPR) des Lumens, wobei die MPR orthogonal zum Lumen bei einer Endoskopposition berechnet wird; einem Mittel zum Durchführen einer ersten Bereichsanwachsung (Region Growing) auf der MPR des Lumens bei der Endoskopposition; einem Mittel zum Berechnen eines minimalen Abstands und eines maximalen Abstands von Daten der ersten Bereichsanwachsung unter Verwendung entsprechender Abstände aus der Abstandskarte; einem Mittel zum Durchführen einer zweiten Bereichsanwachsung (Region Growing) auf der MPR des Lumens für Daten außerhalb der ersten Bereichsanwachsung; und einem Mittel zum Durchführen eines 3D-Renderings von Daten, die mit der ersten Bereichsanwachsung und der zweiten Bereichsanwachsung verknüpft sind.
  29. Verfahren zum Durchführen einer virtuellen Endoskopie mit folgenden Schritten: Erhalten von dreidimensionalen (3D) Daten eines Lumens; Berechnen einer Abstandskarte unter Verwendung der 3D-Daten des Lumens; Anordnen eines Endoskops an einer gewünschten Position im Lumen; Berechnen einer multiplanaren Rekonstruktion (MPR) des Lumens, wobei die MPR orthogonal zum Lumen bei der Endoskopposition berechnet wird; Durchführen einer ersten Bereichsanwachsung (Region Growing) auf der MPR des Lumens bei der Endoskopposition; Markieren von Daten, die mit der ersten Bereichsanwachsung verknüpft sind, für das Rendering; Berechnen eines minimalen Abstands und eines maximalen Abstands von den markierten Daten der ersten Bereichsanwachsung unter Verwendung entsprechender Abstände aus der Abstandskarte; Durchführen einer Mehrzahl von Bereichsanwachsungen (Region Growing) für Daten außerhalb des markierten Datenbereichs, die innerhalb einer Grenze liegen, die mit der Berechnung des minimalen und maximalen Abstands von Daten verknüpft ist; Markieren von Daten, die mit der Mehrzahl von Bereichsanwachsungen verknüpft ist, für das Rendering; und Durchführen eines 3D-Renderings der markierten Bereiche, die mit der ersten Bereichsanwachsung und der Mehrzahl von Bereichsanwachsungen verknüpft sind.
  30. Verfahren nach Anspruch 29, wobei die Mehrzahl von Bereichsanwachsungen durchgeführt werden, bis alle Daten außerhalb des markierten Datenbereichs, die innerhalb der Grenze liegen, mindestens einer der Mehrzahl von Bereichsanwachsungen unterzogen wurden.
DE112004000352T 2003-03-12 2004-03-11 System und Verfahren zum Durchführen einer virtuellen Endoskopie Expired - Fee Related DE112004000352B4 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US45410503P 2003-03-12 2003-03-12
US60/454,105 2003-03-12
US10/795,918 2004-03-08
US10/795,918 US7304644B2 (en) 2003-03-12 2004-03-08 System and method for performing a virtual endoscopy
PCT/US2004/007300 WO2004081873A2 (en) 2003-03-12 2004-03-11 System and method for performing a virtual endoscopy

Publications (2)

Publication Number Publication Date
DE112004000352T5 true DE112004000352T5 (de) 2006-03-09
DE112004000352B4 DE112004000352B4 (de) 2013-09-12

Family

ID=32994542

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112004000352T Expired - Fee Related DE112004000352B4 (de) 2003-03-12 2004-03-11 System und Verfahren zum Durchführen einer virtuellen Endoskopie

Country Status (5)

Country Link
US (1) US7304644B2 (de)
JP (1) JP2006519631A (de)
CN (1) CN1771517B (de)
DE (1) DE112004000352B4 (de)
WO (1) WO2004081873A2 (de)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10246355A1 (de) * 2002-10-04 2004-04-15 Rust, Georg-Friedemann, Dr. Interaktive virtuelle Endoskopie
JP2006346177A (ja) * 2005-06-16 2006-12-28 Toshiba Corp 画像診断装置、画像処理装置及び3次元画像データ表示方法
US7623900B2 (en) 2005-09-02 2009-11-24 Toshiba Medical Visualization Systems Europe, Ltd. Method for navigating a virtual camera along a biological object with a lumen
DE102006020398B4 (de) * 2006-04-28 2015-09-03 Siemens Aktiengesellschaft Medizintechnisches Diagnosesystem
US7853058B2 (en) * 2006-11-22 2010-12-14 Toshiba Medical Visualization Systems Europe, Limited Determining a viewpoint for navigating a virtual camera through a biological object with a lumen
US20080117210A1 (en) * 2006-11-22 2008-05-22 Barco N.V. Virtual endoscopy
US8840558B2 (en) * 2008-06-05 2014-09-23 Starkey Laboratories, Inc. Method and apparatus for mathematically characterizing ear canal geometry
US20100248200A1 (en) * 2008-09-26 2010-09-30 Ladak Hanif M System, Method and Computer Program for Virtual Reality Simulation for Medical Procedure Skills Training
JP5433240B2 (ja) * 2009-01-21 2014-03-05 株式会社東芝 超音波診断装置及び画像表示装置
CN101849843B (zh) * 2009-03-31 2013-03-13 上海交通大学医学院附属新华医院 三维心脏超声虚拟内窥镜导航方法
US9433373B2 (en) * 2009-06-05 2016-09-06 Starkey Laboratories, Inc. Method and apparatus for mathematically characterizing ear canal geometry
US8611989B2 (en) * 2010-11-30 2013-12-17 Kabushiki Kaisha Toshiba Multi-planar reconstruction lumen imaging method and apparatus
CN102078179B (zh) * 2011-01-31 2012-05-30 广州宝胆医疗器械科技有限公司 三维立体电子结肠镜系统
WO2013115388A1 (ja) * 2012-02-01 2013-08-08 株式会社東芝 超音波診断装置、画像処理装置及びプログラム
JP6006092B2 (ja) * 2012-11-15 2016-10-12 東芝メディカルシステムズ株式会社 超音波診断装置、画像処理装置及びプログラム
CN103968829B (zh) * 2014-05-13 2016-12-07 清华大学 基于虚拟标志物的三维空间定位追踪方法及系统
AU2015299765A1 (en) * 2014-08-06 2017-02-16 Commonwealth Scientific And Industrial Research Organisation Representing an interior of a volume
US10242488B1 (en) * 2015-03-02 2019-03-26 Kentucky Imaging Technologies, LLC One-sided transparency: a novel visualization for tubular objects
KR101717371B1 (ko) * 2015-08-31 2017-03-16 왕용진 실시간 또는 기저장된 초고속 후두내시경 영상을 이용한 평면 스캔 비디오카이모그래피 영상 생성 방법, 이를 수행하는 평면 스캔 비디오카이모그래피 영상 생성 서버, 및 이를 저장하는 기록매체
CN106890031B (zh) * 2017-04-11 2020-05-05 东北大学 一种标记物识别及标记点定位方法及手术导航系统
US11340582B2 (en) * 2017-10-14 2022-05-24 Hewlett-Packard Development Company, L.P. Processing 3D object models
US10510178B2 (en) 2018-02-27 2019-12-17 Verizon Patent And Licensing Inc. Methods and systems for volumetric reconstruction based on a confidence field
CN108461128A (zh) * 2018-03-02 2018-08-28 上海联影医疗科技有限公司 医学图像处理方法及系统和图像处理终端
US11132830B2 (en) * 2018-03-29 2021-09-28 Biosense Webster (Israel) Ltd. Static virtual camera positioning
US11151789B1 (en) 2019-03-25 2021-10-19 Kentucky Imaging Technologies Fly-in visualization for virtual colonoscopy
US11521316B1 (en) 2019-04-03 2022-12-06 Kentucky Imaging Technologies Automatic extraction of interdental gingiva regions
US11044400B1 (en) 2019-04-03 2021-06-22 Kentucky Imaging Technologies Frame stitching in human oral cavity environment using intraoral camera

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4945478A (en) * 1987-11-06 1990-07-31 Center For Innovative Technology Noninvasive medical imaging system and method for the identification and 3-D display of atherosclerosis and the like
US5734384A (en) * 1991-11-29 1998-03-31 Picker International, Inc. Cross-referenced sectioning and reprojection of diagnostic image volumes
US5920319A (en) * 1994-10-27 1999-07-06 Wake Forest University Automatic analysis in virtual endoscopy
US5782762A (en) * 1994-10-27 1998-07-21 Wake Forest University Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US5611025A (en) * 1994-11-23 1997-03-11 General Electric Company Virtual internal cavity inspection system
US6167296A (en) * 1996-06-28 2000-12-26 The Board Of Trustees Of The Leland Stanford Junior University Method for volumetric image navigation
US7194117B2 (en) * 1999-06-29 2007-03-20 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
US6331116B1 (en) * 1996-09-16 2001-12-18 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual segmentation and examination
US5891030A (en) * 1997-01-24 1999-04-06 Mayo Foundation For Medical Education And Research System for two dimensional and three dimensional imaging of tubular structures in the human body
US6346940B1 (en) * 1997-02-27 2002-02-12 Kabushiki Kaisha Toshiba Virtualized endoscope system
US6246784B1 (en) * 1997-08-19 2001-06-12 The United States Of America As Represented By The Department Of Health And Human Services Method for segmenting medical images and detecting surface anomalies in anatomical structures
US6674894B1 (en) * 1999-04-20 2004-01-06 University Of Utah Research Foundation Method and apparatus for enhancing an image using data optimization and segmentation
US20020009215A1 (en) * 2000-01-18 2002-01-24 Arch Development Corporation Automated method and system for the segmentation of lung regions in computed tomography scans
US6898303B2 (en) * 2000-01-18 2005-05-24 Arch Development Corporation Method, system and computer readable medium for the two-dimensional and three-dimensional detection of lesions in computed tomography scans
AU2001251539A1 (en) * 2000-04-11 2001-10-23 Cornell Research Foundation Inc. System and method for three-dimensional image rendering and analysis
AU2001296506A1 (en) * 2000-10-02 2002-04-15 The Research Foundation Of State University Of New York Centerline and tree branch skeleton determination for virtual objects
US7072501B2 (en) * 2000-11-22 2006-07-04 R2 Technology, Inc. Graphical user interface for display of anatomical information
KR100788643B1 (ko) * 2001-01-09 2007-12-26 삼성전자주식회사 색과 질감의 조합을 기반으로 하는 영상 검색 방법
US6816607B2 (en) * 2001-05-16 2004-11-09 Siemens Corporate Research, Inc. System for modeling static and dynamic three dimensional anatomical structures by 3-D models
US20030095696A1 (en) * 2001-09-14 2003-05-22 Reeves Anthony P. System, method and apparatus for small pulmonary nodule computer aided diagnosis from computed tomography scans
EP1467653A2 (de) * 2001-11-21 2004-10-20 Viatronix Incorporated System und verfahren zur visualisierung und navigation von dreidimensionalen medizinischen bildern
US7397937B2 (en) * 2001-11-23 2008-07-08 R2 Technology, Inc. Region growing in anatomical images
DE10160206A1 (de) * 2001-12-07 2003-06-18 Philips Intellectual Property Verfahren und Vorrichtung zur Erstellung einer isolierten Darstellung von Körperstrukturen
US7123766B2 (en) * 2002-02-11 2006-10-17 Cedara Software Corp. Method and system for recognizing and selecting a region of interest in an image
US6574304B1 (en) * 2002-09-13 2003-06-03 Ge Medical Systems Global Technology Company, Llc Computer aided acquisition of medical images
US7260250B2 (en) * 2002-09-30 2007-08-21 The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services Computer-aided classification of anomalies in anatomical structures
US7123760B2 (en) * 2002-11-21 2006-10-17 General Electric Company Method and apparatus for removing obstructing structures in CT imaging
EP1455307A1 (de) * 2003-03-06 2004-09-08 MeVis GmbH Teilvolumenvisualisierung
US7142726B2 (en) * 2003-03-19 2006-11-28 Mitsubishi Electric Research Labs, Inc. Three-dimensional scene reconstruction from labeled two-dimensional images
EP1644869A4 (de) * 2003-07-15 2011-01-26 Medical Metrx Solutions Inc Verwendung einer statistischen prozessregelung (spc) zur demonstration der lösungskonvergenz in einem technikergeführten sequenzierungssystem
US7209581B2 (en) * 2003-07-31 2007-04-24 Siemens Medical Solutions Usa, Inc. System and method for ground glass nodule (GGN) segmentation

Also Published As

Publication number Publication date
JP2006519631A (ja) 2006-08-31
US20040202990A1 (en) 2004-10-14
CN1771517A (zh) 2006-05-10
WO2004081873A2 (en) 2004-09-23
US7304644B2 (en) 2007-12-04
DE112004000352B4 (de) 2013-09-12
CN1771517B (zh) 2010-05-26
WO2004081873A3 (en) 2005-03-31

Similar Documents

Publication Publication Date Title
DE112004000352B4 (de) System und Verfahren zum Durchführen einer virtuellen Endoskopie
DE69838698T2 (de) Bildanzeigevorrichtung und Verfahren
DE112005000927B4 (de) Verfahren zur Netz-zu-Bild-Registrierung unter Anwendung von Raycasting
DE102005036412B4 (de) Verbesserte GGN-Segmentierung in Lungenaufnahmen für Genauigkeit und Konsistenz
DE102004043676B4 (de) Verfahren zur Visualisierung von Plaqueablagerungen aus 3D-Bilddatensätzen von Gefäßstrukturen
DE112004001177T5 (de) System und Verfahren zur Planung eines endoskopischen Pfades
DE102008037453A1 (de) Verfahren und System zur Visualisierung von registrierten Bildern
DE102004022902B4 (de) Verfahren zur medizinischen Bilddarstellung und -verarbeitung, Computertomografiegerät, Arbeitsstation und Computerprogrammprodukt
DE102008037424A1 (de) Verbessertes System und Verfahren für auf Volumen basierende Registrierung
DE112005001755T5 (de) System und Verfahren zur Baummodell-Visualisierung zur Erkennung von Lungenembolie
DE102005009271A1 (de) System und Verfahren zur Durchführung einer virtuellen Endoskopie in einer Verzweigungsstruktur
DE102009035441B4 (de) Verfahren und Bildverarbeitungssystem zur Erzeugung eines Volumenansichtsbilds vom Inneren eines Körpers
DE10210650A1 (de) Verfahren zur dreidimensionalen Darstellung eines Untersuchungsbereichs eines Patienten in Form eines 3D-Rekonstruktionsbilds
DE112005001741T5 (de) System und Verfahren zur Baumprojektion zur Erkennung von Lungenembolie
DE102007046250A1 (de) Verfahren und Vorrichtung zur Identifizierung von Bereichen in einem Bild
DE102022112136A1 (de) Medizinisches bildanalysegerät, verfahren und medizinisches bild, visualisierungsgerät und verfahren
DE10254908B4 (de) Verfahren zum Herstellen eines Bildes
DE102004027710A1 (de) Verfahren zur automatischen Detektion einer Struktur bei bildgebenden medizinischen Verfahren, Computertomografiegerät, Arbeitsstation und Comupterprogrammprodukt
DE102005045602A1 (de) Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs
DE102004027709B4 (de) Verfahren der virtuellen Endoskopie zur medizinischen 3D-Bilddarstellung und -verarbeitung, Computertomografiegerät, Arbeitsstation und Computerprogrammprodukt
DE10149556A1 (de) Verfahren zur Erzeugung eines zweidimensionalen Bildes aus einem 3D-Datensatz eines Tomographie-Geräts und medizinisches Tomographie-Gerät
DE112007002807T5 (de) Verfahren und System zur Gruppierung von Bildern in einem Tomosynthese-Bildgebungssystem
DE10246355A1 (de) Interaktive virtuelle Endoskopie
DE112011104887T5 (de) Darstellung von Orten in der medizinischen Diagnose
DE102008025535B4 (de) Verfahren zur Sichtung tubulärer anatomischer Strukturen, insbesondere Gefäßstrukturen, in medizinischen 3D-Bildaufnahmen

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law

Ref document number: 112004000352

Country of ref document: DE

Date of ref document: 20060309

Kind code of ref document: P

8125 Change of the main classification

Ipc: G06T 7/40 AFI20051017BHDE

8127 New person/name/address of the applicant

Owner name: SIEMENS MEDICAL SOLUTIONS USA, INC., MALVERN, PA.,

8120 Willingness to grant licences paragraph 23
R019 Grant decision by federal patent court
R020 Patent grant now final

Effective date: 20131213

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20141001