DE69432961T2 - Anordnung zur Bestimmung der gegenseitigen Lage von Körpern - Google Patents

Anordnung zur Bestimmung der gegenseitigen Lage von Körpern Download PDF

Info

Publication number
DE69432961T2
DE69432961T2 DE69432961T DE69432961T DE69432961T2 DE 69432961 T2 DE69432961 T2 DE 69432961T2 DE 69432961 T DE69432961 T DE 69432961T DE 69432961 T DE69432961 T DE 69432961T DE 69432961 T2 DE69432961 T2 DE 69432961T2
Authority
DE
Germany
Prior art keywords
orientation
radiation
coordinate system
image data
previously recorded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69432961T
Other languages
English (en)
Other versions
DE69432961D1 (de
Inventor
Waldean A. Schulz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Image Guided Technologies Inc
Original Assignee
Image Guided Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Image Guided Technologies Inc filed Critical Image Guided Technologies Inc
Application granted granted Critical
Publication of DE69432961D1 publication Critical patent/DE69432961D1/de
Publication of DE69432961T2 publication Critical patent/DE69432961T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0073Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by tomography, i.e. reconstruction of 3D images from 2D projections
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0064Body surface scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1077Measuring of profiles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/12Devices for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/501Clinical applications involving diagnosis of head, e.g. neuroimaging, craniography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/56Surgical instruments or methods for treatment of bones or joints; Devices specially adapted therefor
    • A61B17/58Surgical instruments or methods for treatment of bones or joints; Devices specially adapted therefor for osteosynthesis, e.g. bone plates, screws, setting implements or the like
    • A61B17/68Internal fixation devices, including fasteners and spinal fixators, even if a part thereof projects from the skin
    • A61B17/70Spinal positioners or stabilisers ; Bone stabilisers comprising fluid filler in an implant
    • A61B17/7074Tools specially adapted for spinal fixation operations other than for bone removal or filler handling
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3925Markers, e.g. radio-opaque or breast lesions markers ultrasonic
    • A61B2090/3929Active markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • A61B2090/3945Active visible markers, e.g. light emitting diodes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3954Markers, e.g. radio-opaque or breast lesions markers magnetic, e.g. NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/397Markers, e.g. radio-opaque or breast lesions markers electromagnetic other than visible, e.g. microwave
    • A61B2090/3975Markers, e.g. radio-opaque or breast lesions markers electromagnetic other than visible, e.g. microwave active
    • A61B2090/3979Markers, e.g. radio-opaque or breast lesions markers electromagnetic other than visible, e.g. microwave active infrared
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/14Fixators for body parts, e.g. skull clamps; Constructional details of fixators, e.g. pins
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers

Description

  • Gebiet der Erfindung
  • Diese Erfindung betrifft die Bestimmung der Position eines Objektes relativ zu einem anderen Objekt im dreidimensionalen Raum. Insbesondere betrifft sie die Bestimmung und Anzeige der Position und der Ausrichtung eines ersten beweglichen Objektes relativ zu einem zweiten beweglichen Objekt im dreidimensionalen Raum.
  • Beschreibung des Standes der Technik
  • Die Computertomographie (CT), die Kernspin- oder Magnetresonanztomographie (MRT) und andere Verfahren liefern aussagekräftige Bilder des Körperinnern menschlicher Patienten in der Medizin, die für Diagnosezwecke nützlich sind. Häufig wurden diese Diagnosewerkzeuge, die zur Erfassung und Anzeige von Bildern aus dem Körperinnern von Patienten eingesetzt werden, und die von ihnen erzeugten Bilder zu anderen Zeiten verwendet und aufgenommen als während des tatsächlich am Patienten vorgenommenen chirurgischen Eingriffs, d. h. vor und/oder manchmal nach dem chirurgischen Eingriff. Es ist insbesondere üblich, dass CT- oder MRT-Scans aufgenommen werden, bevor der Chirurg mit seiner Arbeit beginnt. Es handelt sich nämlich um Diagnosewerkzeuge und nicht um Werkzeuge zur Verfolgung des Verlaufs einer Operation. Diese im Stand der Technik vorliegenden Scans werden allgemein verwendet, um den chirurgischen Eingriff zu planen oder den Chirurgen in seiner Entscheidung, welche chirurgischen Maßnahmen ergriffen und dann verwirklicht werden sollten, zu unterstützen. Manchmal werden sie auch nach dem chirurgischen Eingriff verwendet, um die Ergebnisse der chirurgischen Maßnahme zu bestimmen und auszuwerten.
  • Findet der chirurgische Eingriff an Stellen des Körpers statt, die für den Chirurgen nicht ohne Weiteres einsehbar sind, z. B. im Schädelinnern in den Furchen des Gehirns, ist es schwierig wenn nicht sogar unmöglich, den Verlauf des chirurgischen Eingriffs zu verfolgen, während er durchgeführt wird. Es ist derzeit unmöglich, einen chirurgischen Eingriff gleichzeitig mit einem MRT durchzuführen. Deshalb arbeitet der Chirurg stets mit zuvor aufgenommenen Bildern der inneren Strukturen des Patienten.
  • Wird mit diesen zuvor aufgenommenen Bildern während des chirurgischen Eingriffs gearbeitet, besteht häufig keine offensichtliche eindeutige Beziehung zwischen interessierenden Punkten der diagnostischen Bilder und den entsprechenden Punkten am tatsächlichen Patienten. Während sich anomales Gewebe in den Bildern deutlich von normalem gesundem Gewebe unterscheiden kann, ist der Unterschied am Patienten auf dem Operationstisch möglicherweise nicht so gut sichtbar. Des Weiteren ist bei einer intrakranialen Operation der Bereich von Interesse für. eine direkte Betrachtung möglicherweise nicht immer zugänglich. Somit besteht ein Bedarf für Vorrichtungen und Systeme, die den Chirurgen dabei unter stützen, eine Beziehung zwischen den Lagen in den diagnostischen Bildern und den entsprechenden Lagen in der tatsächlichen Anatomie des Patienten herzustellen und umgekehrt.
  • Der verwandte Stand der Technik enthält den Gegenstand offenbarende Fachliteratur, die Mittel zur Lösung der Aufgaben beschreibt, die in ihrer Gesamtheit ähnlich denen der vorliegenden Erfindung sind. Diese Fachliteratur enthält Veröffentlichungen, die die Korrelation zuvor aufgenommener medizinischer Bilder vom Körperinnern eines Patienten, die im Allgemeinen dreidimensional sind, zu den entsprechenden tatsächlichen physikalischen Lagen in Ist-Zeit an und im Patienten während des chirurgischen Eingriffs im Operationssaal beschreiben. Das US-Patent 4,791,934 beschreibt ein halbautomatisches System, das diese Korrelation herstellt, wobei jedoch zu beachten ist, dass das in diesem Patent beschriebene System außerdem die Herstellung zusätzlicher Röntgenbilder im Operationssaal während des chirurgischen Eingriffs erforderlich macht, und danach des Weiteren erfordert, dass diese Ist-Zeit-Bilder in die Koordinatensysteme der zuvor aufgenommenen diagnostischen Bilder übertragen werden, so dass sie mit dem lebenden Patienten in Beziehung gebracht werden können.
  • Darüber hinaus bedient sich dieses Patent'934 eines computergesteuerten Roboterarms, um ein chirurgisches Instrument entsprechend diesen Bildern zu positionieren. Die Messung und Definition der Lage und Ausrichtung einer eingeführten Sonde (eines chirurgischen Instruments) in Ist-Zeit, die vom Chirurgen interaktiv positioniert wird, und die Überlagerung solcher Ist-Zeit-Daten über ein zuvor aufgenommenes Bild sind nicht vorgesehen.
  • Es hat andere Versuche zur Lösung des Problems der dreidimensionalen Lagebestimmung speziell in der stereotaktischen Chirurgie gegeben. Eine Lösungsklasse betrifft die Verwendung verschiedener mechanischer Rahmen, Halter oder Transporteinrichtungen (normalerweise in der intrakranialen Chirurgie). Beispiele hierfür sind die US-Patente 4,931,056; 4,875,478; 4,841,967; 4,809,694; 4,805,615; 4,723,544; 4,706,665 und 4,651,732; 4,638,798. Im Allgemeinen offenbaren diese Patente Systeme, mit denen aus der Analyse der Bilder des Körperinnern abgeleitete Winkel reproduziert werden sollen, und bei denen in den meisten Fällen die starre Verschraubung eines Rahmens am Schädel erforderlich ist. Alle diese Verfahren sind kompliziert, zeitaufwändig und anfällig für menschliche Irrtümer.
  • Ein mehr interaktives Verfahren wird in US-Patent 4,750,487 offenbart. Dieses Patent offenbart die Anwendung der Fluoroskopie in Ist-Zeit im Operationssaal, um die Führung chirurgischer Instrumente zu unterstützen. Es steht jedoch zweifelsfrei fest, dass es niemals erstrebenswert ist, den Patienten einer Fluoroskopie zu unterziehen. Während eines chirurgischen Eingriffs kann das durch sie bedingte Risiko sogar das des Eingriffs übersteigen.
  • Relevanter sind Veröffentlichungen des Standes der Technik, die Systeme speziell für die stereotaktische Chirurgie beschreiben. Die folgende Veröffentlichung ist beispielhaft und sachdienlich: David W. Roberts, M. D. et al.: „A Frameless Stereotaxic Integration of Computerized Tomographic Imaging and the Operating Microscope", J. Neurosurgery 65, Okt. 1986.
  • Diese Veröffentlichung beschreibt die Verwendung eines dreidimensionalen Digitalisierers zur Verfolgung der Position und Ausrichtung des Gesichtsfeldes eine chirurgischen Mikroskops und Mittel zur Überlagerung des Gesichtsfeldes des Mikroskops mit dem entsprechenden inneren ebenen Schichtbild eines zuvor erstellten Computertomogramms (CT). Ein derartiges System stellte einen großen Fortschritt in dieser Technik dar. Es war jedoch nicht frei von inhärenten Nachteilen.
  • An erster Stelle ist zu nennen, dass das von Roberts et al. beschriebene System die Übertragung von Schallimpulsen verwendete, um Lage und Ausrichtung des Feldes des chirurgischen Mikroskops zu erfassen. Die Verwendung des Schalls beruht notwendigerweise auf der Bestimmung der Übertragungsstrecken in Abhängigkeit von der Schallgeschwindigkeit und der Unterscheidung kleiner Streckendifferenzen. Es ist hinreichend bekannt, dass die Schallgeschwindigkeit erheblich in Abhängigkeit von der Temperatur des Mediums, durch das sich der Schall ausbreitet, schwankt. Bei den modernen Klima- und Heizungsanlagen gibt es zahlreiche verschiedene thermische Sprungschichten und Luftströmungen in einem Operationssaal, die für den Patienten oder die Ärzte bedeutungslos sind, die jedoch die genaue Messung präziser Strecken in Abhängigkeit von der Geschwindigkeit der Schallübertragung erheblich beeinflussen können. Deshalb müssen sehr genaue Ausgleichsfaktoren angewendet werden, um genaue Informationen über die exakte Lage und Ausrichtung des Operationsmikroskops zu erhalten. Es liegt auf der Hand, dass hier geringfügige Fehler sehr schwerwiegende Folgen für den Patienten haben können.
  • Es sei daran erinnert, dass der Zweck der Messung von Strecken zwischen den Schallemitter und den Empfängern darin besteht, präzise zu bestimmen, wo sich die Spitze einer chirurgischen Sonde oder eines anderen Geräts befindet. Die Spitze kann sich über eine nur sehr kleine Strecke in der Größenordnung von Millimetern oder darunter bewegen, so dass sich die Position des Schallemitters an der Sonde nur um einen sehr kleinen Betrag ändern kann. Dieses Messsystem muss in der Lage sein, solche kleinen Positions- und Ausrichtungsänderungen der Schallemitter zu erkennen und diese kleinen Änderungen in eindeutige Änderungen der definierten Position und Ausrichtung der Sondenspitze umsetzen. Die Genauigkeit der Messung und die sichere Bestimmung der Schallgeschwindigkeit im Operationsumfeld sind deshalb kritisch für die Lagebestimmung der Sondenspitze mit hinreichender Genauigkeit und die Querbeziehung dieser Lage zu einem zuvor aufgenommenen Bild, das der Lage der Sondenspitze entspricht. Es sollte deshalb klar sein, dass der Hauptnachteil dieses Schallsystems in der inhärenten Ungenauigkeit und Instabilität der Vorrichtung zur Messung der Schallgeschwindigkeit liegt.
  • Zusätzlich zur Problematik genauer und präziser Streckenmessungen mittels der Schallübertragung bestand eine weitere Schwierigkeit und Unsicherheit des Systems von Roberts et al., die unabhängig von seiner Verwendung als Schallmessmittel ist. Das System von Roberts et al. setzte voraus, dass die Position des Patienten, zumindest der Körperteil des Patienten, der dem Operationsbereich entspricht, z. B. der Kopf, absolut in seiner Lage fixiert ist. Dieses System konnte keine Lageänderungen des Patienten mit dem eingeführten Operationsmikroskop bestimmen, sondern verfolgte nur die Lage des Mikroskops unabhängig vom Patienten. Lage und Ausrichtung des Patienten (des Kopfes des Patienten) wurden zu Beginn der Operation bestimmt und der zuvor aufgenommene CT-Scan wurde zu dieser spezifischen Lage und Ausrichtung in Beziehung gesetzt. Wurden Position und/oder Ausrichtung des Patienten im Verlauf der gesamten Operation bewusst oder sogar unbeabsichtigt geändert, musste das System neu korreliert werden. Das heißt, die Operation musste unterbrochen und der zuvor aufgenommene CT-Scan mit der neuen Position und/oder Ausrichtung des Kopfes des Patienten korreliert werden. Dies war eindeutig ein erheblicher Nachteil des Systems nach Roberts et al. Es verlangt nicht nur, dass das System neu korreliert wird, wenn der Chirurg den Kopf des Patienten bewusst bewegte, sondern es war auch nicht in der Lage, unbeabsichtigte Bewegungen des Kopfes des Patienten während der Operation zu berücksichtigen.
  • Die vorliegende Erfindung beinhaltet nicht die Aufnahme geeigneter Bilder des Körperinnern des Patienten vor der Operation. Sie setzt an dem Punkt an, in dem diese Bilder bereits aufgenommen und vom Chirurgen als brauchbar akzeptiert worden sind. Diese Erfindung weist deshalb nicht die Abbildungsvorrichtung zur Erzeugung des inneren dreidimensionalen Bildes oder Modells des Innern des Patienten oder eines anderen Objektes auf. Allerdings verwendet diese Erfindung diese zuvor gewonnenen Bilddaten und gibt diese Information in das vorliegende System ein. Das System dieser Erfindung beinhaltet nicht die Mittel für die Aufnahme dieser Bilder, enthält jedoch die Bilder selbst, vorzugsweise in elektronischer Form.
  • Bei solchen bekannten Abbildungsgeräten kann es sich um Ultraschall-, Computertomographie-(CT)- oder Kernspin- (MRT) Geräte handeln. Außerdem kann es sich bei einem solchen Abbildungsgerät auch um ein noch nicht entwickelte Gerät handeln. Der wichtige einschränkende Faktor bezüglich des Abbildungsgeräts ist, dass die vom ihm erzeugten Daten in einem elektronischen digitalen Format oder in einem problemlos in ein solches Format wandelbaren Format vorliegen müssen. Die digitalen Daten können direkt von einem solchen Abbildungsgerät abgeleitet werden und über ein herkömmliches Kommunikationsnetzwerk oder mittels Magnetband oder Magnetplattenmedium übertragen werden.
  • Es gibt einen weiteren Bereich von zum Stand der Technik gehörigen Veröffentlichungen, der für die Patentierbarkeit der vorliegenden Erfindung von Bedeutung sein kann. Dieser Stand der Technik betrifft speziell die Lokalisierung von Geräten, die die relativen Positionen einer von Hand manövrierten Sonde und eines anderen Objektes messen, gilt aber nicht notwendigerweise für das "Sehen" der Ist-Zeit-Position der im Innern eines Patienten befindlichen Sonde. Frühere Verfahren und Geräte werden zur Erfassung der Position eines Objektes im dreidimensionalen Raum eingesetzt. Diese bekannten Techniken bedienen sich verschiedener Messverfahren.
  • Bei zahlreichen dreidimensionalen. Messverfahren wird ein dünner Strahl oder eine Lichtebene auf ein Objekt projiziert und optisch bestimmt, wo das Licht das Objekt schneidet. Beispiele mehrerer US-Patente, die solche nach diesem allgemeinen Prinzip arbeitenden einfachen Abstands-/Entfernungsmessgeräte offenbaren sind: US-Patente 4,660,970; 4,701,049; 4,705,395; 4,709,156; 4,733,969; 4,743,770; 4,753,528; 4,761,072; 4,764,016; 4,782,239 und 4,825,091. Beispiele für US-Patente, die die Lichtebene zur Erfassung der Form eines Objektes verwenden, sind u. a.: US-Patente 4,821,200; 4,701,047; 4,705,401; 4,737,032; 4,745,290; 4,794,262; 4,743,771 und 4,822,163. Beim letztgenannten ist die Genauigkeit der Bestimmung der Lage und Ausrichtung der auf der Oberfläche einer Probe liegenden Punkte durch die für zweidimensionale Sensoren typische niedrige Auflösung begrenzt, die im Allgemeinen eingesetzt worden sind (derzeit beträgt die Genauigkeit etwa 1 Teil von 512 bei einer elektronischen Videokamera). Des Weiteren können diese Geräte derzeit nicht Lage und Ausrichtung der Sondenspitze erkennen, wenn die Sondenspitze mit spezifischen Punkten zusammenfällt, und die Bestimmung der Lage dieser Sondenspitze ist gleichbedeutend mit der Bestimmung dieses spezifischen Punktes. Außerdem sind optische Systeme traditionell durch Aspekte der quasioptischen Sichtweite eingeschränkt. Ist der fragliche Punkt nicht zu sehen, kann Licht nicht direkt auf diesen Punkt auftreffen oder von ihm reflektiert werden. Aufgrund dieser inhärenten Einschränkungen sind diese bekannten Geräte grundsätzlich nutzlos für die Lokalisierung eines Punktes innerhalb einer Furche, was jedoch für intrakraniale Operationen erforderlich ist.
  • Die Geräte für Bilder des Körperinnern selbst (wie Computertomographie, Kernspintomographie oder Abbildung durch Ultraschall) sind ungeeignet für die Verfolgung der räumlichen Lage und Ausrichtung einer von Hand geführten Sonde während einer Operation, obwohl sie durch Einschränkungen der quasioptischen Sichtweite nicht beeinträchtigt werden. Somit können diese Systeme nicht zur vorherigen Aufnahme eines Bildes oder eines Bildsatzes des Körperinnern eines Patienten und außerdem zur Abbildung derselben inneren Stellen in Ist-Zeit während einer Operation eingesetzt werden.
  • Andere zum Stand der Technik gehörigen Verfahren und Vorrichtungen sind bekannt, die die Position eines oder mehrerer beweglicher Punkte im dreidimensionalen Raum verfolgen. Bei diesen bekannten Techniken werden die beweglichen Punkte normalerweise durch kleine strahlende Emitter dargestellt, die sich relativ zu Sensoren mit fester Position bewegen. Bei einigen Verfahren sind die Rollen der Emitter und Sensoren vertauscht. Die typischen Formen der Strahlung sind Licht (z. B. US-Patent 4,836,778), Schall (US-Patent 3,821,469) und Magnetfelder (US-Patent 3,983,474). Andere Verfahren enthalten mechanische Arme oder Kabel (US-Patent 4,779,212). Bei manchen elektrooptischen Ansätzen wird ein Paar Videokameras sowie ein Computer eingesetzt, um die Position homologer Punkte in einem Paar stereografischer Videobilder zu berechnen (z. B. US-Patente 4,836,778 oder 4,829,373). Die interessierenden Punkte können passive Reflektoren oder blinkende Lichtemitter sein. Die Verwendung von Lichtemitter macht das Lokalisieren, Unterscheiden und Berechnen von Lage und Ausrichtung der Punkte einfacher.
  • Sonden mit einer Zeigerspitze und darauf angeordneten Schallemitter zur Lokalisierung werden seit einigen Jahren frei vermarktet. Die vorliegende Erfindung betrifft ebenfalls die Bestimmung der Lage und Ausrichtung eines Fühlstiftes, aber sie stellt eine Verbesserung gegenüber den bekannten Geräten dadurch dar, dass sie winzige Lichtemitter anstelle der bekannten Schallemitter verwendet. Wie sich des Weiteren ergeben wird, ist das Verfahren zur Erfassung der Positionen dieser Lichtemitter verschieden von dem, was bisher in Zusammenhang mit Schall angewendet worden ist.
  • Mit der vorliegenden Erfindung verwandte weitere zum Stand der Technik gehörige Gegenstände der Erfindung finden sich in folgenden Veröffentlichungen: Fuchs, H.; Duran, J.; Johnson, B.: „Acquisition and Modeling of Human Body Form Data", Proc. SPIE, Bd. 166 (1978), S. 94–102.
  • Mesqui, F.; Kaeser, F.; Fischer, P.: „Real-time, Non-invasive Recording and 3-d Display of the Functional Movements of an Arbitrary Mandible Point" SPIE Biostereometrics 602, 1985, S. 77–84.
  • Yamashita, Y.; Suzuki, N.; Oshima, M.: „Three-Dimensional Stereometric Measurement System Using Optical Scanners, Cylindrical Lenses, and Line Sensors, Proc. SPIE, Bd. 361, 1983, 5. 67–73.
  • Der Artikel von Fuchs et al. (1978) beschreibt ein Verfahren zur Verfolgung einer chirurgischen Sonde im dreidimensionalen Raum, das der vorliegenden Erfindung am nächsten kommt. Dieses Verfahren könnte möglicherweise zusammen mit und ergänzend zu der praktischen Anwendung der vorliegenden Erfindung verwendet werden. Es beruht auf der Verwendung von drei oder mehr eindimensionalen Sensoren, die jeweils aus einer zylindrischen Linse und einer linearen Anordnung aus Strahlungsdetektoren wie ladungsgekoppelte Halbleitergeräte (charge-coupled semiconductor devices – CCD) oder einem positionsabhängigen Differenzspannungs-Detektor (position sensitive detector – PSD) bestehen. Die Sensoren bestimmen sich schneidende Ebenen, die alle einem einzigen punktförmigen Lichtemitter entsprechen. Die Berechnung des Schnittpunktes der Ebenen ergibt die Lage des Emitters. Die Berechnung basiert auf den Lagen, Ausrichtungen und anderen Einzelheiten bezüglich der eindimensionalen Sensoren und ist eine einfache Anwendung analytischer Geometrie. Dieses fotooptische Verfahren wurde jedoch bisher nicht für den Zweck der vorliegenden Erfindung angewendet. In diesem Sinne ist es möglich, dass das vorliegende System als ein neues System mit nicht naheliegender Verwendung eines vorhandenen Systems betrachtet werden kann.
  • Ein Referenz-Anzeigesystem zur Überlagerung eines tomografischen Bildes auf die Brennebene eines Operationsmikroskops ist aus der US 4,722,056 bekannt. Das System weist einen Computer auf, der zur Umformatierung zuvor gespeicherter tomografischer Bilddaten programmiert ist, um diese in einer bestimmbaren Ebene zu präsentieren, und ein Operationsmikroskop, das in der operativen Lage relativ zum Patienten positioniert ist, wobei die Brennebene des Mikroskops diese bestimmbare Ebene festlegt. Das System weist außerdem Mittel zur Bestimmung der räumlichen Beziehungen des Abbildungssystems, des Patienten und der Brennebene des Mikroskops untereinander auf. Um eine korrekte Überlagerung zu ermöglichen, werden am Kopf des Patienten mindestens drei Bezugsmarken angebracht. Die Bezugsmarken bestehen aus einem Material, das während der Erzeugung der Bilddaten physikalisch erkennbar sowie für das Mikroskop sichtbar ist.
  • Um die räumliche Beziehung zwischen dem Mikroskop und den Bezugsmarken zu bestimmen sowie zur Verfolgung jeglicher späterer Bewegung des Mikroskops sind Strahlungsemitter am Mikroskop angebracht und entsprechende Strahlungssensoren sind in einer festen Position im Operationssaal angeordnet. Während der Bestimmung der räumlichen Beziehung zwischen dem Mikroskop und den Bezugsmarken sowie während der Verfolgung jeglicher späterer Bewegung des Mikroskops relativ zu den Bezugsmarken, d.h. relativ zum Kopf des Patienten, wird der Kopf des Patienten fest auf dem Operationstisch fixiert.
  • Es besteht immer noch ein Bedarf für ein komplettes System (Vorrichtung und Verfahren), das die rasche, genaue, sichere und gut durchführbare Messung der dreidimensionalen Position und Ausrichtung einer manuell betätigten Sonderelativ zu einem beweglichen interessierenden Objekt bietet. Dieses System muss außerdem die relative Position und Ausrichtung der Sonde, sogar eines Abschnitts der Sonde, der sich außerhalb der Sichtweite befindet, visuell mit einem Bild eines zuvor erzeugten dreidimensionalen Modells des Objektes in Beziehung setzen.
  • Aufgaben und Zusammenfassung der Erfindung
  • Eine Aufgabe der vorliegenden Erfindung ist die Bereitstellung von Mitteln für die genaue dreidimensionale Messung der relativen Position und Ausrichtung eines beweglichen Elements bezüglich eines beweglichen Objektes.
  • Eine weitere Aufgabe dieser Erfindung ist die Bereitstellung einer genauen visuellen Beziehung zwischen zwei Objekten, die jeweils relativ zueinander sowie relativ zum Koordinatensystem, in dem sich diese beweglichen Objekte befinden, beweglich sind.
  • Eine weitere Aufgabe dieser Erfindung ist die Bereitstellung genauer räumlicher Beziehungen zwischen einer sich bewegenden Sonde und einem sich bewegenden zu operierenden Patienten während einer Operation in einem Operationssaal, wobei sich die Sonde und der Patient sowohl relativ zueinander als auch relativ zu einer festen Lage und Ausrichtung der Messvorrichtung bewegen.
  • Eine weitere Aufgabe dieser Erfindung ist die Bereitstellung eines elektrooptischen Messsystems, das preiswert, einfach in der Anwendung, zuverlässig und transportierbar ist, und das eine manuell positionierte Sonde oder ein anderes Instrument aufweist, von dem mindestens ein Teil nicht in der Sichtweite des Chirurgen liegt, und das des Weiteren ein Mittel zur Messung der sonst „unsichtbaren" Position und Ausrichtung der Sondenspitze verwendet.
  • Eine weitere Aufgabe dieser Erfindung ist die Bereitstellung eines einfachen, nicht invasiven Systems zur Herstellung einer Entsprechung zwischen einem momentan existierenden Koordinatensystem mit einem beweglichen Objekt und einem zuvor erhaltenen Koordinatensystem mit einem dreidimensionalen Computermodell dieses Objektes, wobei das zuvor erhaltene Computermodell ebenfalls von diesem selben System stammt.
  • Eine weitere Aufgabe dieser Endung besteht darin, einen gemessenen Ort an der Außen- oder Innenseite eines Objektes zu seinem entsprechenden Ort in einem zuvor erzeugten Computermodell dieses Objektes in Beziehung zu setzen, indem eine Übereinstimmung zwischen den Koordinatensystemen des Objektes und des Modells hergestellt wird.
  • Eine weitere Aufgabe dieser Erfindung besteht darin, eine Schnittansicht oder eine Querschnittsscheibe eines zuvor erzeugten Computermodells eines ebenen Querschnitts eines geometrischen Modells anzuzeigen, wobei die Scheibe etwa den Ort im Modell schneidet, der einem in Ist-Zeit gemessenen Ort entspricht, und die angezeigte Scheibe mit einer Markierung zu überlagern, um den Ort auf der Scheibe zu kennzeichnen, der dem gemessenen Ort entspricht.
  • Eine weitere Aufgabe dieser Erfindung besteht darin, einen den Eingriff durchführenden Chirurgen speziell in der kranialen Neurochirurgie dabei zu unterstützen, subkutanes krankes Gewebe zu lokalisieren, während gesunde kritische Strukturen ausgespart werden.
  • Weitere Aufgaben, Vorteile und neuartige Merkmale der Erfindung werden zumindest teilweise aus der nachfolgenden Beschreibung ersichtlich. Dem Fachmann werden sie sich außerdem beim Studium der nachfolgenden Erläuterung oder bei der praktischen Anwendung der Erfindung erschließen. Die Aufgaben und Vorteile der Erfindung können mit Hilfe der Mittel und der in den beigefügten Ansprüchen besonders hervorgehobenen Kombinationen verwirklicht und erhalten werden.
  • Im Rahmen der Beschreibung dieser Erfindung sind die Strahlungsemitter am ersten und zweiten Objekt angebracht und die Sensoren für diese Strahlungen sind in festen Positionen im Ist-Zeit-Koordinatensystem angeordnet. Es kann in Betracht gezogen werden, die Anordnung dieser Emitter und Sensoren ohne Weiteres umzukehren. Das heißt, die Emitter könnten die festen Positionen im Ist-Zeit-Koordinatensystem einnehmen und die Sensoren könnten am ersten und zweiten Objekt angebracht werden. Die Funktionsweise der Erfindung wäre bei jeder Anordnung der Sensoren und Emitter gleich. Der Einfachheit halber werden die Emitter in der Beschreibung dieser Erfindung an den beweglichen Objekten und die Sensoren in festen Positionen angeordnet. Diese Anordnung sollte nicht als Einschränkung für die Vorrichtung oder das Verfahren gemäß der Erfindung verstanden werden.
  • Kurzbeschreibung der Zeichnungen
  • Die beiliegenden Figuren der Zeichnung stellen eine bevorzugte Ausführungsform der vorliegenden Erfindung dar und dienen zusammen mit der Beschreibung der Erläuterung der Prinzipien der Erfindung.
  • 1A ist ein Blockflussdiagramm des optischen Mess- und Korrelationssystems der vorliegenden Erfindung, das die Hauptkomponenten dieses Systems mit Ausnahme der Mittel zur automatischen Messung der Position und Ausrichtung des beweglichen und des zweiten Objektes zeigt.
  • 1B ist 1A ähnlich, aber enthält die zusätzlichen Strahlungsemitter, die die automatische Messung der Position und Ausrichtung des zweiten Objektes sogar während der Bewegung dieses zweiten Objektes gestatten.
  • 2 ist eine perspektivische Ansicht der Erfindung bei ihrer Anwendung durch einen Chirurgen, der eine intrakraniale Operation an einem Patienten vornimmt, und die einen Cursor auf einem Anzeigeschirm zeigt, der die entsprechende Position der Sondenspitze (erstes Objekt) im Bild der dem Schädel (zweites Objekt) entsprechenden zuvor erstellten Modelldaten markiert.
  • 3 ist eine Ansicht einer beispielhaften Anzeige, die die Position der Sondenspitze überlagert auf zuvor erfassten Modelldaten einer Scheibe aus dem Schädelinnern zeigt, sowie die Bezugspunkte des zweiten Objektes gemäß 1A in Form von Dreiecken auf dem Schädel des Patienten.
  • 4 ist eine schematische perspektivische Ansicht eines Beispiels für einen der eindimensionalen Fotodetektoren, die bei der Verwirklichung der vorliegenden Erfindung nützlich sind.
  • 5 ist eine grafische Darstellung der Bildintensität (als Spannung oder Strom) als Funktion der Lagen auf der Fotodetektoroberfläche für einen typischen Lichtdetektor, der in der strahlungsgestützten Mess- und Korrelationsvorrichtung der vorliegenden Erfindung verwendet werden könnte.
  • 6 und 7 sind Diagramme der wichtigsten vom Computer durchgeführten Schritte zur Berechnung der Position der Sonde (erstes Objekt) relativ zum Modell des Schädelinnern (zweites Objekt) und zur Anzeige einer Bildscheibe im Querschnitt des Modells des Schädelinnern auf einem geeigneten Anzeigeschirm wie einem Computerbildschirm (CRT).
  • 8 ist eine schematische Ansicht der Strahlen in einer Ausführungsform dieser Erfindung.
  • Detaillierte Beschreibung der bevorzugten Ausführungsformen dieser Erfindung
  • Die Strahlungsmess- und Korrelationsvorrichtung 10 der vorliegenden Erfindung für eine medizinische Anwendung, die eine Einsatzmöglichkeit dieser Erfindung veranschaulicht, ist in 1 schematisch dargestellt. Sie weist eine von Hand geführte invasive Sonde 12 (erstes Objekt), die mindestens zwei Strahlungsemitter 14 und 16 aufnimmt, die kollinear zueinander und zur Spitze 18 der Sonde 12 angeordnet sind. Mindestens drei entfernt angeordnete eindimensionale Strahlungssensoren 20, 22 und 24 sind in einer festen beabstandeten Beziehung zueinander an bekannten Positionen bezüglich eines vorgegebenen festen Koordinatensystems 80 angeordnet. Die Strahlungssensoren 20, 22 und 24 erfassen die von den einzelnen Emittern 14 und 16 breit ausgesendete Strahlung und erzeugen elektrische Ausgangssignale, von denen die Lage der Sondenemitter 14 und 16 und folglich die Position und Ausrichtung der Sondenspitze 18 (die für den Chirurgen möglicherweise nicht sichtbar ist, da sie sich in der Schädelhöhle befindet) bezüglich des festen Koordinatensystems 80 abgeleitet werden. Wird gewünscht die sich bewegende Position des Schädels während der Operation zu bestimmen, können außerdem die drei Sensoren 20, 22 und 24 so programmiert werden, dass sie die Lage anderer Referenz-Emitter 70, 72 und 74 auf dem zweiten Objekt 11 (1B) auf die gleiche Weise wie für die Sondenemitter 14 und 16 erfassen und ableiten. Die Aufgabe dieser Referenz-Emitter auf dem zweiten Objekt ist die Automatisierung der Berechnung der Beziehungen zwischen dem Ist-Zeit-Koordinatensystem des Bildes 13 des Modells (2) des zweiten Objektes, dem Koordinatensystem der Sensoren und dem lokalen Koordinatensystem des zweiten Objektes 11 selbst.
  • Eine Steuerungseinheit 30, die über eine Datenleitung 26 mit der beweglichen Sonde 12 verbunden und mit den entfernt angeordneten Sensoren 20, 22 und 24 über Datenleitungen 28, 32 bzw. 34 gekoppelt ist, synchronisiert die Erfassung der fünf (beispielhaften) Emitter und die Unterscheidung zwischen ihnen. Bei dieser Ausführungsform dieser Erfindung, bei der die verschiedenen Emitter eine gepulste Strahlung aussenden, indem sie beispielsweise getaktet werden, ist die Steuerungseinheit so ausgeführt, dass sie den Zeitmultiplexbetrieb der beiden Emitter 14 und 16 auf der Sonde und der drei Emitter 70, 72 und 74 auf dem Schädel steuert, den Betrieb der Sensoren 20, 22 und 24 steuert und unterscheidbare Daten von diesen Sensoren empfängt wie nachstehend noch umfassender beschrieben wird. Ein über eine Datenleitung 38 mit der Steuerungseinheit 30 gekoppelter Koordinatencomputer 36 berechnet die dreidimensionale räumliche Lage der Sondenemitter 14 und 16 und anschließend Position und Ausrichtung der Sondenspitze 18 und korreliert diese Positionen mit Daten aus Korrelationsinformationen 42 und von einem Modell 13 des zweiten Objektes 11, das zuvor elektronisch in einer Datenbasis 40 gespeichert worden ist, auf die elektronisch zugegriffen werden kann. Schließlich veranlasst der Computer 36 einen zugehörigen Kathodenstrahlröhren- (cathode ray tube – CRT) Monitor, die Darstellung der Position und Ausrichtung der Sondenspitze 18 bezüglich des Computerbildes 13 des Schädels 11 auf einem Anzeigebildschirm 44 (2) anzuzeigen, was nachstehend ausführlicher beschrieben wird.
  • Die Sonde 12 könnte ohne Kabel 26 verwendet werden, indem sie mit der Steuerungseinheit 30 durch eine deutliche Modulierung der Lichtemitter 14 und 16 anstelle der sequentiellen Spannungsversorgung (Taktung) gekoppelt wird, oder indem die Wellenlänge oder der Typ der von ihnen ausgesendeten Strahlung variiert wird. So könnten beispielsweise die Wellenformen, Farben oder Frequenzen jeder Strahlung verschieden sein. Im Falle einer Schallstrahlung könnten die Frequenzen des von den verschiedenen Emitter ausgesendeten Schalls variiert werden, damit sie voneinander unterschieden werden können. Durch Erkennen der Unterschiede zwischen den verschiedenen Emittern, d. h. der Wellenform, Farbe, Frequenz oder anderer Unterscheidungsmerkmale der ausgesendeten Strahlung kann die Steuerung 30 bestimmen, auf welchen Emitter die Sensoren 20, 22 und 24 reagieren.
  • Die grundlegende Mess- und Korrelationsvorrichtung 10 der vorliegenden Erfindung ist in Zusammenhang mit der Unterstützung des Chirurgen bei der Durchführung komplizierter intrakranialer Operationen beschrieben worden. Diese allgemeine Anwendung dieser Vorrichtung stellt weder die Erfindung dar, noch ist sie eine Einschränkung derselben. Diese Anwendung dient nur dazu, diese Erfindung zu verdeutlichen. Die übrige Beschreibung stützt sich weiterhin auf eine derartige Ausführungsform für chirurgische Zwecke, obwohl zahlreiche andere chirurgische oder sonstige Anwendungen außer der intrakranialen Chirurgie möglich sind (z. B. Rücken- oder Stirnhöhlenchirurgie und Brustbiopsie). Des Weiteren kann die Messund Korrelationsvorrichtung 10 dieser Erfindung für andere Zwecke in zahlreichen unterschiedlichen medizinischen und nicht medizinischen Gebieten verwendet werden. Bei der beschriebenen Ausführungsform ist das interessierende physikalische Objekt 11, d. h. das zweite Objekt bei der allgemeinen Anwendung dieser Erfindung, der Kopf oder Schädel eines Patienten, und das Modell des Schädels wird mittels einer Reiher paralleler Bildscheiben (in bekannter gegenseitiger räumlicher Beziehung) wiedergegeben, wie sie beispielsweise mittels der Computertomographie (CT) oder der Kernspintomographie (MRT) erhalten werden. Diese Bildscheiben werden dann digitalisiert, so dass sie das dreidimensionale Computermodell des Schädels des Patienten bilden, das dann in der Datenbasis 40 gespeichert wird, auf die elektronisch zugegriffen werden kann.
  • Wie aus 1A, 1B, 2 und 3 ersichtlich ist, setzt ein Chirurg die Spitze 18 der Sonde 12, d.h. das erste Objekt, an einem Punkt auf oder im Innern des Schädels 11 des Patienten an. Die Positionssensoren 20, 22 und 24 erfassen die Lagen der Emitter 14 und 16 auf dem Abschnitt der Sonde 12, der außerhalb des Körpers des Patienten verbleibt. Um dies zu erreichen, muss die von den Emittern 14 und 16 erzeugte Strahlung für die Sensoren 20, 22 und 24"sichtbar" sein. Aus diesem Grund können mehr als zwei Emitter auf dem ersten Objekt platziert werden, so dass die Strahlung von mindestens zwei von ihnen stets für die Sensoren sichtbar ist. Diese Emitter 14 und 16 sind effektiv punktförmige Quellen und strahlen Energie über einen weiten Winkel ab, so dass diese Strahlung für die Sensoren über eine weiten Bereich der Sondenausrichtungen und Positionen sichtbar ist.
  • Die Sensoren 20, 22 und 24, die Steuerungseinheit 30 und der Computer 36 arbeiten zusammen, um die dreidimensionale Lage jedes Emitter 14 und 16 in einem Koordinatensystem zu bestimmen und um die Koordinaten jedes Emitter im vorgegebenen festen Koordinatensystem 80 in Ist-Zeit zu berechnen. Der Computer 36 kann dann die Position und Ausrichtung der Spitze 18 der Sonde 12 bezüglich dem festen vorgegebenen Koordinatensystem 80 gemäß den Lagen der Emitter im festen Koordinatensystem 80 und den Abmessungen der Sonde berechnen, die zuvor im Speicher (nicht dargestellt) des Computers 36 abgelegt worden sind. Es ist zu beachten, dass der Computer 36 außerdem Positions- und Ausrichtungsinformationen über andere spezifische Orte auf der Sonde (z. B. den Vektor vom Emitter 14 zur Spitze 18) problemlos berechnen kann. Nachdem der Computer 36 die Lage der Sondenspitze 18 bezüglich des festen Koordinatensystems 80 berechnet hat, verwendet der Computer 36 dann die Beziehung zwischen dem Modell des Schädels, das zuvor erstellt und in der Datenbasis 40 gespeichert worden ist, und dem festen Koordinatensystem 80, um die Position und Ausrichtung der Sondenspitze 18 relativ zum Modell des zweiten Objekts 11 zu berechnen. Schließlich zeigt der Computer 36 eine Darstellung der zum Modell relativen Position und Ausrichtung der Spitze 18 auf einem Bildschirm 44 an. Bei einer einfachen Form der bevorzugten Ausführungsform dieser Erfindung erzielt der Computer 36 diese Anzeige, indem er auf eine in der Datenbasis 40 gespeicherte zuvor aufgenommene CT- oder MRT-Bildscheibe 13 zugreift, die der Position der Sondenspitze 18 am nächsten liegt, und überlagert dann das Bild 13 mit einer geeigneten Darstellung 76 der Spitze 18 wie in 2 und 3 gezeigt. Damit kennt der Chirurg die präzise Position und Ausrichtung der Spitze 18 im Schädel des Patienten relativ zu den Bilddaten, indem er einfach den Anzeigebildschirm 44 beobachtet. Eine am meisten bevorzugte Form der vorliegenden Erfindung kann einen beliebigen schrägen Querschnitt durch die mehreren Bildscheiben des MRT etc. ableiten und anzeigen, wobei der Querschnitt beispielsweise senkrecht zur Ausrichtung der Sonde gelegt werden kann.
  • Die Einzelheiten der optischen Mess- und Korrelationsvorrichtung 10 der vorliegenden Erfindung lassen sich am anschaulichsten anhand von 1 und 4 erläutern. Die Sonde 12 trägt im Wesentlichen die beiden Strahlungsemitter 14 und 16, die an der Sonde 12 in festen bekannten Abständen zueinander sowie zur Sondenspitze starr befestigt sind. Da hier nur zwei Emitter repräsentativ zur Verwirklichung dieser Erfindung verwendet werden, sollten die Emitter 14 und 16 vorzugsweise kollinear mit der Spitze 18 der Sonde 12 angeordnet werden, so dass der Computer 36 Position und Ausrichtung der Spitze 18 in drei Dimensionen eindeutig bestimmen kann. Um eine angemessene Messgenauigkeit zu erzielen, sollten die Emitter 14 und 16 außerdem vorzugsweise mindestens so weit voneinander entfernt sein wie der nächste Emitter von der Spitze 18 entfernt ist. In jedem Fall muss die geometrische Beziehung der Emitter 14 und 16 zueinander und zur Sondenspitze 18 dem Computer 36 im Voraus vorgegeben werden, so dass der Computer 36 die exakte Lage der Spitze 18 auf Basis der Lagen der einzelnen Strahlungsemitter 14 und 16 berechnen kann. Die Verwendung von drei oder mehr nicht kollinearer Emitter würde es nicht erforderlich machen, dass beliebige zwei von ihnen kollinear zu Sondenspitze sind. Drei oder mehr nicht kollineare Emitter würden dem Computer die Berechnung vollständiger Ausrichtungsinformationen (Gieren, Nicken und Rollen) für die Sonde gestatten. Obwohl die Endung nur mit einem Cursor beschrieben wird, der die relative Position der Sondenspitze 18 markiert, kann sie so modifiziert werden, dass sie eine Linie oder ein geformtes grafisches oder sonstiges Sinnbild zur Anzeige der Position und Ausrichtung der Sonde 12 anzeigt. Dies würde nur die Bestimmung zusätzlicher Punkte auf der Sonde in der gleichen Weise bedeuten, in der die Sondenspitze bestimmt wird.
  • Die beiden Strahlungsemitter 14 und 16 sowie die zusätzlichen Strahlungsemitter 70, 72 und 74 können sein und sind vorzugsweise Leuchtdioden (light emitting diodes – LED's) hoher Intensität, die vorzugsweise so koordiniert sind, dass die Emission einer beliebigen dieser Quellen von den Emissionen der anderen Quellenunterschieden werden kann. Eine solche Möglichkeit der Unterscheidung ist, die Emitter von der Steuerungseinheit 30 im Zeitmultiplexbetrieb betreiben oder in einer vorgegebenen Folge takten zu lassen, so dass immer nur ein Lichtemitter „eingeschaltet" ist bzw. Licht aussendet. Das von einem dieser Emitter ausgesendete Licht wird von jedem der drei Lichtsensoren 20, 22 und 24 erfasst, die dann die Lage jedes Emitter bezüglich den bekannten Positionen der Sensoren 20, 22 und 24 zum Zeitpunkt der Taktung bestimmen.
  • Jeder der eindimensionalen Sensoren 20, 22 und 24, die bei der bevorzugten Ausführungsform 10 der vorliegenden Erfindung verwendet werden, kann mit den anderen in jeder Hinsicht identisch sein. Zum Zweck einer detaillierten Beschreibung dieser Ausführungsform wird deshalb nur der Sensor 20 ausführlich anhand von 4 beschrieben, da die übrigen Sensoren 22 und 24 identisch sind.
  • In 4 weist der repräsentative eindimensionale Sensor 20 eine zylindrische Linse 46 mit einer Längsachse 48 auf, die senkrecht zur optischen Achse 50 des Sensors 20 verläuft. Ein linearer Strahlungsdetektor 52 wie ein ladungsgekoppeltes Gerät (charge-coupled device – CCD) mit mehreren tausend Elementen (oder ein ähnliches Gerät, das zur linearen Strahlungspositionserkennung eines geeigneten „Bildes" in der Lage ist) ist so positioniert, dass die „optische" Achse 50 durch den Mittelpunkt der Öffnung 54 des Strahlungsdetektors 52 verläuft und so, dass die Längsachse der Öffnung 54 senkrecht zur Längsachse 48 der Linse 46 verläuft. Strahlung wie Lichtstrahlen 56 von den Emitter 14 (und in gleicher Weise von den Emittern 16, 70, 72 und/oder 74) werden von der zylindrischen Linse 46 zu einer realen Bildzeile 58 auf der Oberfläche 60 des linearen Detektors 52 gebündelt.
  • Der durch einen Fotodetektor 52 dargestellte Detektor erzeugt dann einen Ausgang 68 (5), der mit der Position einer realen Bildzeile 58 auf der Oberfläche 60 des Fotodetektors 52 in Beziehung steht und so die Lage des Bildes selbst kennzeichnet. Das heißt, die Elemente oder Punkte des Fotodetektors 52, die von der realen Bildzeile 58 beleuchtet werden, erzeugen ein starkes Signal, während die nicht beleuchteten keine oder nur sehr schwache Signale erzeugen. Eine grafische Darstellung der Bildintensität (oder der Signalstärke) in Abhängigkeit von Orten auf der Oberfläche des Fotodetektors wird also einer Kurve 68 der Signalspitzen ähneln (siehe z. B. 5). Der Signalpegel 66 „alle Emitter ausgeschaltet" (oder der Hintergrundpegel) ist aufgrund der Einflüsse der Umgebungsstrahlung wie Licht im Operationssaal, elektronisches Rauschen und Fehlstellen des Fotodetektors niemals exakt null. Auf jeden Fall gilt, da das Bild des beleuchteten Emitters zur Linie 58 gebündelt wird, dass nur die Winkelverschiebung des Emitters 14 gegenüber der optischen Achse 50 in der Ebene der Längsachse 54 des Sensors vom Sensor 52 gemessen wird, was die Bezeichnung „eindimensionaler Sensor" erklärt.
  • Der einzelne eindimensionale Sensor 20 kann also nur die Ebene bestimmen, in der ein Strahlungsemitter 14 liegt. Der Detektor 20 allein kann nicht den betreffenden Punkt im Raum auf der Ebene bestimmen, in dem sich der Strahlungsemitter 14 befindet. Um die Lage des Strahlungsemitters 14 im Raum präzise bestimmen zu können, sind mindestens drei voneinander beabstandete solche Sensoren erforderlich, da zur Definition eines einzigen Punkte im Raum die Schnittlinien der von den Sensoren definierten drei Ebenen erforderlich sind.
  • Um die Position eines bestimmten Strahlungsemitter, z. B. 14, zu bestimmen, werden die Sensoren 20, 22 und 24 so angebracht, dass die optischen Achsen 48 ihrer Linsen nicht alle parallel zueinander verlaufen und dass nicht zwei dieser Achsen kollinear sind. Bei einer bevorzugten Ausführungsform dieser Erfindung sind zwei Lichtsensoren, z. B. die Sensoren 20 und 24 von 2, so angeordnet, dass ihre jeweiligen Achsen 48 (4) zueinander parallel und beabstandet verlaufen, und der dritte Detektor 22 befindet sich abstandgleich zwischen den anderen beiden Detektoren, wobei jedoch seine Achse 48 senkrecht zu den Achsen der anderen beiden verläuft. Das heißt, die Sensoren 20, 22 und 24 sollten entlang einer Linie oder eines Bogens (2) so angeordnet werden, dass jeder Sensor 20, 22 und 24 grundsätzlich im gleichen Abstand zum Mittelpunkt des Volumens, in dem die Messungen vorgenommen werden, abstandsgleich zu den jeweils anderen Sensoren angeordnet ist, und dass alle Sensoren zum Mittelpunkt des Messvolumens gerichtet sind. Es sei beispielsweise angenommen, dass die Sensoren 20, 22 und 24 entlang eines waagrechten Bogens angeordnet und die optischen Achsen aller Sensoren waagrecht ausgerichtet sind. Der mittlere Sensor sollte dann so ausgerichtet sein, dass er die Winkelhöhe der Strahlungsemitter wie oben beschrieben misst. Die beiden äußeren Sensoren messen den waagrechten Winkel (Azimut) relativ zum festen Koordinatensystem 80. Daten von den äußeren Sensoren werden verwendet, um sowohl die horizontale Position als auch den horizontalen Abstand von den Sensoren stereografisch zu berechnen, wie nachstehend ausführlicher beschrieben wird.
  • Die Genauigkeit der dreidimensionalen Messung hängt vom Winkel zwischen der optischen Achse der äußeren beiden Sensoren 20 und 24 ab, wobei sich der zu messende Emitter im Scheitel des Winkels befindet. Die Genauigkeit wird in dem Maße besser, in dem sich dieser Winkel einem rechten Winkel nähert. Mindestens drei der mehreren möglichen Sensoren 20, 22 und 24 müssen so beabstandet sein, dass das gewünschte Messvolumen vollständig innerhalb ihres Gesichtsfeldes liegt, was dadurch erreicht werden kann, dass die Brennweite der Linse 46 kurz genug zur Abdeckung des gesamten gewünschten Gesichtsfeldes gemacht wird. Bei einer anderen Ausführungsform dieser Erfindung könnten zusätzliche Sensoren, die im Wesentlichen identisch mit den Sensoren 20, 22 und 24 sind, verwendet werden, um mehr Betrachtungspunkte bereitzustellen, die Abdeckung des Gesichtsfeldes zu erweitern oder um die Messgenauigkeit zu verbessern.
  • Obwohl dieser Prozess der Erkennung eines gegebenen Strahlungsemitters z. B. 14 die exakte Lage des Strahlungsemitters bestimmen kann, ist er nicht im Stande, allein die jeweilige Ausrichtung und Position der Sonde oder ihrer Spitze 18 im dreidimensionalen Raum zu bestimmen. Um dies mit nur zwei Emitter erreichen zu können, müssen die beiden Emitter 14 und 16 kollinear mit der Sondenspitze 18 sein wie oben beschrieben. Außerdem müssen die Abstände zwischen jedem Emitter 14 und 16 und der Sondenspitze (sowie die Abstände zwischen den Emittern 14 und 16 selbst) bekannt sein und in den Speicher des Computers 36 geladen werden, bevor der Computer 36 die Position und Ausrichtung der Sondenspitze 18 aus den Lagen der Emittern 14 und 16 im festen Koordinatensystem 80 bestimmen kann. Wird jeder der Strahlungsemitter 14 und 16 rasch in Folge eingeschaltet oder getaktet, können folglich die Sensoren 20, 22 und 24 die exakte Lage jedes Emitter nacheinander erkennen. Damit kann der Computer 36 die exakte Position und Ausrichtung der Sonde und deshalb ihrer Spitze 18 bestimmen. Da immer nur einer der Strahlungsemitter 14 oder 16 eingeschaltet ist, bestimmen die Detektoren 20, 22 und 24 die Lage des betreffenden Emitter individuell. Ist die Taktrate, d. h. die Frequenz, mit der die Emitter 14 und 16 in Folge ein- und ausgeschaltet werden, hoch genug, können die Detektoren 20, 22 und 24 für alle praktischen Zwecke Position und Ausrichtung der Sonde 12 und ihrer Spitze 18 in jedem Zeitpunkt bestimmen und deshalb die Bewegung der Sondenspitze in Ist-Zeit verfolgen, d.h. während der Zeitspanne, in der die Sondenspitze tatsächlich bewegt wird. Mit anderen Worten, dieses System kann die Bewegung der Sondenspitze im zuvor aufgenommenen Bild während des chirurgischen Eingriffs in Ist-Zeit simulieren.
  • Die Sensoren 20, 22 und 24 brauchen nur zu unterscheiden, welcher der Strahlungsemitter 14, 16, 70, 72 oder 74 zu einem bestimmten Zeitpunkt gerade eingeschaltet ist. Bei der bevorzugten Ausführungsform der vorliegenden Erfindung wird diese Funktion durch Takten jedes der Emitter in Folge erreicht wie oben beschrieben. Es können jedoch auch andere Verfahren angewendet werden, damit die Sensoren 20, 22 und 24 die jeweiligen Strahlungsemitter 14, 16, 70, 72 und 74 unterscheiden können. So könnten beispielsweise verschiedene Wellenlängen (Farben) des Lichtes oder verschiedene Schallfrequenzen zusammen mit Detektoren verwendet werden, die in der Lage sind, diese jeweiligen unterschiedlichen Strahlungen zu unterscheiden.
  • Alternativ sieht ein Aspekt dieser Erfindung vor, jeden der Strahlungsemitter 14, 16, 70, 72 und 74 mit einer eindeutigen Wellenform oder Impulsfolge zu modulieren. Dieses Mittel der Unterscheidung zwischen den verschiedenen Emittern dürfte neuartig und nur der vorliegenden Erfindung eigen sein. Werden derartige unter schiedliche Wellenformen oder Impulsfolgen zur Unterscheidung der verschiedenen Emitter verwendet, ist es auch möglich, zusätzliche Informationen mittels dieser Wellenformen zu übertragen, beispielsweise die Temperatur der jeweiligen mit der Sondenspitze 18 in Kontakt stehenden Struktur. Es liegt im Gültigkeitsbereich dieser Erfindung, Mittel bereitzustellen, auf die der Chirurg oder ein anderer Benutzer problemlos zugreifen kann, um die Erfassung solcher zusätzlichen Informationen und deren Übertragung durch die von den jeweiligen Emittern abgestrahlten eindeutigen Wellenformen oder Impulsfolgen zu aktivieren oder zu deaktivieren. Unter diesen Umständen wird die Steuerungseinheit 30 oder der Computer 36 für eine Demodulation der Wellenform ausgelegt, um zu bestimmen, zu welchem Emitter das erfasste Signal gehört und um die übertragenen zusätzlichen Informationen zu decodieren.
  • Zahlreiche andere Verfahren zur Unterscheidung der Strahlungsemitter sind möglich. Deshalb sollte die vorliegende Erfindung nicht als auf das hierin dargestellte und beschriebene Taktungsverfahren begrenzt betrachtet werden, sondern als generisch für die Verwendung beliebiger Mittel zur Unterscheidung zwischen den verschiedenen Emittern.
  • In die Sensoren 20, 22 und 24 kann herkömmliche oder spezielle Autofokussierung oder Strahlungsdetektion mit mehreren Linsen integriert werden, um die Leistung des Systems zu verbessern. Die hierin beschriebene und in 4 für einen Sensor dargestellte einfache Optik mit festem Brennpunkt bietet jedoch ein gutes Leistungsniveau, wenn der Arbeitsbereich der Sonde eingeschränkt ist. Selbst wenn das reale Bild eines Emitters z. B. 14 auf dem Detektor 52 etwas unscharf ist, ist die Winkelmessung des Bildes immer noch brauchbar. Eine brauchbare Messung, die jeder der Sensoren 20, 22 oder 24 zu erzeugen hat, entspricht einem der folgenden Punkte: (1) Position des Detektorelements mit Spitzenintensität, (2) intensitätsgewichtetes Mittel (Zentrum) aller Elemente, deren Schwellenwert überschritten wird, oder einfach (3) Mittel der Minimum- und Maximumelemente, deren Intensität über einem gewissen Schwellenwert liegt. Der Detektor 52 sollte in der Brennweite für den weitesten typischen Betriebsabstand der Strahlungsemitter angeordnet werden. Näher angeordnete Emitter bilden leicht unscharfe Bilder 58, erfordern aber bei einer gegebenen Distanzgenauigkeit eine weniger präzise Winkelmessung. Des Weiteren sind ihre unscharfen realen Bilder heller, was den Helligkeitsgradienten an den Rändern das Bildes erhöht.
  • Wie bisher beschrieben muss das reale Bild 58 des aktuell aktivierten Emitters deutlich verschieden (z. B. heller) von der übrigen auf den Sensor 52 fallenden Strahlung sein. Andernfalls beeinträchtigen andere Lichtstrahlen oder reflektierende Oberflächen im Gesichtsfeld der Sensoren die Erkennung des realen Bildes des Emitters. Es ist deshalb wünschenswert, in der Vorrichtungen Schaltungen vorzusehen, die die von den Sensoren empfangene Hintergrundstrahlung von anderen Quellen in der Umgebung subtrahieren.
  • Diese an sich bekannte Beschattung verbessert die Anwendung der Erfindung, wenn Sensoren erforderlich sind, um die Strahlungsemitter gegen relativ helle Hintergründe zu erkennen. Während die Strahlungsemitter alle kurzzeitig ausgeschaltet sind, werden die eindimensionalen Daten von jedem Sensor in einem Speicher gespeichert. Dies kann mit einer analogen Verzögerungsleitung oder durch digitales Abtas ten des Ausgangssignals und Speichern desselben in einem digitalen Speicher geschehen. Wenn dann jeder Emitter in Folge "gesehen" wird, werden die gespeicherten Daten von den aktuellen Daten subtrahiert, die vom momentan strahlenden Emitter erzeugt werden. Werden die Hintergrunddaten digital gespeichert, werden die aktuellen Daten ebenfalls digitalisiert und die gespeicherten Hintergrunddaten digital von den aktuellen Daten subtrahiert.
  • Eine grafische Darstellung der Strahlungsintensität des Bildes oder entsprechend der Amplitude der erzeugten Ausgangsspannung für jedes Element in einer Reihe der Detektorelemente ist in 5 dargestellt. Die grafische Darstellung zeigt die typischen Hintergrundintensitäten 66 des Bildes, wenn alle Emitter ausgeschaltet sind, die Intensitäten 68 bei einem eingeschalteten Strahlungsemitter und die elementweise Differenz 64 zwischen den Intensitäten bei ausgeschaltetem Emitter und diejenigen bei eingeschaltetem Emitter. Die Messungen werden wahrscheinlich ein gewisses Maß an Rauschstörung elektronischer oder anderer Art enthalten und zwei aufeinander folgende Messungen für ein gegebenes Sensorelement können selbst bei unverändertem Hintergrund geringfügig voneinander abweichen. Deshalb enthalten die verschiedenen Intensitäten 64 zwischen zwei aufeinander folgenden Messungen ebenfalls ein gewisses Maß an elektronischer Rauschstörung. Die beiden Messungen unterscheiden sich jedoch nur am Ort des Bildes des Strahlungsemitters wesentlich, und diese Differenz überschreitet den Schwellenpegel 62.
  • Die Einzelheiten der Struktur und Funktionsweise der Steuerungseinheit 30 sind am deutlichsten aus 6 ersichtlich. Im Einzelnen liefert die Steuerungseinheit 30 (siehe 1A und 1B) Spannung an die Strahlungsemitter 14, 16, 70, 72 und 74 sowie an die Strahlungssensoren 20, 22 und 24. Eine Steuerungs- und Synchronisierungseinheit 84 und eine Folgesteuerung 88 für die Strahlungsquelle (bei Verwendung einer getakteten Strahlungsfolge) aktiviert die Strahlungsemitter im Zeitmultiplexbetrieb oder taktet sie einzeln wie oben beschrieben, so dass Position und Ausrichtung der Sondenspitze 18 (1) aus den von den Sensoren 20, 22 und 24 empfangenen Signalen bestimmt werden können. Die Signale mit den Winkelda ten, die von den Sensoren 20, 22 und 24 empfangen werden, werden von einem Analog-/Digitalwandler 92 gewandelt. Tatsächlich werden drei Analog-/Digitalwandler verwendet, wie in 6 dargestellt ist, um jedoch die Beschreibung kurz zu halten, wird hierin nur einer mit Bezugszeichen gekennzeichnet und beschrieben, da die anderen beiden Analog-/Digitalwandler im Wesentlichen identisch sind und zur Wandlung der Signale von den anderen Sensoren 22 und 24 dienen.
  • Die Steuerungs- und Synchronisierungseinheit 84 steuert auch drei Schalter, von denen Schalter 93 typisch ist, die alle von den Sensoren 20, 22 und 24 empfangenen digitalen Daten speichern, wenn die Strahlungsemitter 14 und 16 ausgeschaltet sind, und diese Daten in einen Hintergrundspeicher 94 ablegen. Wenn dann die Strahlungsemitter 14, 16, 70, 72 und 74 in Folge von der Folgesteuerung 88 für die Strahlungsquelle aktiviert werden, ändert die Synchronisierungs- und Steuerungseinheit 84 den Zustand des Schalters 93, der dann die Daten von den drei Sensoren 20, 22 und 24 zu einer Subtraktionseinheit 91 umleitet. Die Subtraktionseinheit 91 subtrahiert die Hintergrunddaten von den Strahlungsdaten des Emitters, was in einem Signal resultiert, das vom Hintergrundsignal 66 (5) im Wesentlichen befreit ist (5), da das Rauschen mit fester Struktur vom Signal subtrahiert worden ist.
  • Wie in 6 dargestellt ist, die zusammen mit 5 betrachtet werden sollte, bestimmt eine 1-D-(eindimensionale)Positionsberechnungseinheit 95 die Lage der realen Bildlinie 58 auf dem CCD-Sensor 52 (4), indem die Lagen der Flanken 67 und 69 der vom CCD-Sensor auf Basis eines vorgegebenen Schwellen-Signalpegels 62 erzeugten Signalspitze 68 (5) gemessen werden. Die 1-D-Positionsberechnungseinheit 95 mittelt dann den Abstand zwischen den beiden Flanken, um das Zentrum der Signalspitze 68 zu ermitteln wie in 5 dargestellt. Dieses Verfahren zur Bestimmung des Zentrums der Signalspitze an sich ist im Stand der Technik hinreichend bekannt und braucht nicht näher beschrieben zu werden. Außerdem sind zahlreiche andere Verfahren zur Bestimmung der Lage der Signalspitze oder ihres Zentrums im Stand der Technik bekannt und sind für den Durch schnittsfachmann offensichtlich. Das angewendete Verfahren hängt abgesehen von anderen Parametern von den Signaleigenschaften des verwendeten Strahlungssensors sowie von den Eigenschaften des Linsensystems ab, das zur Fokussierung der Strahlung auf die Oberfläche des Detektors verwendet wird. Bei der Verwirklichung dieser Erfindung mit ihren hierin beschriebenen verschiedenen Alternativen dürfte es keine Schwierigkeiten geben, einen für jeweiligen Eigenschaften der Sensoren und der jeweils eingesetzten Strahlung am besten geeigneten Signalerkennungsalgorithmus zu wählen.
  • Schließlich überträgt die Steuerungseinheit 30 (1) die Strahlungsdaten an den Computer 36. Das heißt dann, wenn der Computer 36 bereit ist, die aktuelle Lage des momentan strahlenden Emitters z. B. 14 zu berechnen, werden die neuesten Winkeldaten von allen Sensoren 20, 22 und 24 zur Analyse bereitgestellt. Erzeugen die Sensoren die Daten schneller als die Steuerungseinheit 30 sie verarbeiten kann, werden die überschüssigen Winkeldaten einfach verworfen.
  • Die Funktionsweise des Computers 36 ist am vorteilhaftesten in 7 dargestellt. Der Computer 36 berechnet auf Basis der Lage der Signalspitze von jedem der Sensoren 20, 22 und 24 eindimensionale Positionen für jeden Strahlungsemitter wie 14 oder 16. Diese eindimensionalen Messungen der Winkelposition werden dann herangezogen, um die dreidimensionalen Raumkoordinaten der Emitter 14 und 14 und somit die Position und Ausrichtung der Sonde 12 relativ zum vorgegebenen festen Koordinatensystem 80 durch Koordinatentransformationsverfahren zu bestimmen, die an sich im Stand der Technik hinreichend bekannt sind. Die Ausgangssignale des Computers 36 können jede vom Bediener gewünschte bzw. vom Anwendungssystem geforderte Form haben, z. B. XYZ-Koordinaten-Dreierwerte auf Basis des vorgegebenen festen Koordinatensystems 80.
  • 8 und die folgenden Absätze beschreiben detailliert, wie die Lage eines einzelnen Strahlungsemitters z. B. 14 aus den von den Sensoren 20, 22 und 24 abgeleiteten Daten berechnet wird. Die folgende Beschreibung gilt nur für diese drei Sensoren 20, 22 und 24. Sind mehr als drei solcher Sensoren vorgesehen, kann die Berechnung anhand von drei beliebigen oder mehr Sensoren durchgeführt werden. Des Weiteren gilt, dass bei Verwendung von mehr als drei Sensoren das Mittel der aus allen Kombinationen mit drei Sensoren berechneten Punkte zur Erhöhung der Genauigkeit dienen könnte. Eine andere Option besteht in der Verwendung des Punktes, der von den dem Strahlungsemitter 14 oder 16 am nächsten liegenden drei Sensoren berechnet wird. Die folgenden Parameter seien als bekannte XYZ-Konstanten angenommen:
    • D0[i] ein Endpunkt jedes linearen Fotodetektors i;
    • D1[i] der andere Endpunkt des linearen Fotodetektors i;
    • L0[i] ein Endpunkt der Achse jeder Linse i; und
    • L1[i] der andere Endpunkt der Achse der Linse i.
  • Jeder Sensor erzeugt T[i], einen parametrischen Wert zwischen 0 und 1, der angibt, wo die Spitze oder das Zentrum des Linienbildes des Emitters das Liniensegment zwischen D0[i] und D1[i] schneidet. Die XYZ-Koordinaten von Punkt S sind zu berechnen, wobei S die Lage des Strahlungsemitters ist. Bei einer CCD-Strahlungsdetektoranordnung ist T[i] der Index des Elements, auf das das Zentrum oder die Spitze des Bildes fällt, dividiert durch die Anzahl der Elemente in der Detektoranordnung.
  • Die dreidimensionalen Koordinaten der obigen Punkte werden alle auf ein vorgegebenes festes Koordinatensystem 80 bezogen. Die zylindrische Linse und der lineare Fotodetektor messen den Winkel A des Strahlungsemitters zu seiner Linsenachse nicht direkt, sondern einen Wert T[i], der linear mit dem Tangens dieses Winkels in Beziehung steht:
    tan(A) = C * (2 * T[i] – 1),
    wobei C eine Proportionalitätskonstante ist, die mit den Abmessungen eines bestimmten Systems in Beziehung steht und von diesen empirisch bestimmt wird.
  • Die dreidimensionale Lage der Bildlinie auf dem linearen Fotodetektor ist:
    D[i] = (1 – T[i]) * D0[i] + (T[i]) * D1[i].
  • Handelt es sich um eine ideale Linse, liegt S ebenfalls in der Ebene P[i]. In Wirklichkeit könnte eine Berechnung des Punktes D[i] mittels einer nicht linearen Funktion f(t) erforderlich sein, die nicht lineare Abweichungen der Linse oder des Fotodetektors korrigiert:
    D[i] =(1 – F(T[i])) * D0[i] + (F(T[i])) * D1[i].
  • Funktion F(t) könnte ein Polynomial in der Variablen T oder ein aus einer empirisch ermittelten Tabelle interpolierter Wert sein.
  • P[i] ist die eindeutige Ebene, die durch die drei Punkte D[i], L0[i] und L1[i] definiert wird, die niemals auf einer Geraden liegen. S ist der Schnittpunkt der Ebenen P[1], P[2] und P[3], die jeweils durch Sensoren 1, 2 und 3 bestimmt werden. S ist ein eindeutiger Punkt, wenn mindestens zwei Längsachsen 48 der Sensorlinsen nicht parallel und wenn keine zwei Linsenachsen 48 kollinear sind. Der Schnittpunkt S ergibt sich aus der gemeinsamen Lösung S der drei die Ebenen P[i] definierenden Gleichungen. Wenn die Lage S jedes Strahlungsemitters der Sonde berechnet worden ist, kann die Lage der Sondenspitze 18 berechnet werden. Das Verfahren für eine derartige Bestimmung ist hinreichend bekannt und verwendet die Lehre der analytischen Geometrie und der Matrixmanipulationen.
  • Ist M eine lineare Transformation, die die Beziehung zwischen einem Punkt R im Bild-Koordinatensystem und einem Punkt 5 im festen Koordinatensystem beschreibt, dann gilt:
    R * M = S.
  • Ist M–1 das Inverse von M und S ein Punkt im festen Koordinatensystem, dann ist der Punkt R im Bild-Koordinatensystem, der S entspricht:
    S * M–1 = R.
  • Nun sei angenommen, dass das zweite Objekt im Messkoordinatensystem bewegt wird. Dies kann durch eine lineare Transformation U beschrieben werden, wobei die Koordinaten S eines Punktes auf die Koordinaten S' abgebildet werden:
    S * U = S'.
  • Dann muss der alte Wert vom M oben mit U multipliziert werden, um die Beziehung zwischen dem Punkt R in den Bildkoordinaten und dem entsprechenden Punkt im Messkoordinatensystem wegen der relativen Bewegung des ersten Objektes bezüglich des zweiten Objektes zu korrigieren:
    R = S' * U–1 * M–1 .
  • Die vor der Verwirklichung des erfindungsgemäßen Verfahrens erforderlichen vorläufigen Schritte werden nunmehr beschrieben. Nach der vollständigen Beschreibung dieser vorläufigen Schritte werden dann die Schritte des Verfahrens der optischen Mess- und Korrelationsvorrichtung im Detail beschrieben.
  • Die Anwendung der Erfindung umfasst drei Phasen: Die Abbildungsphase, die Korrelationsphase und die Phase des Normalbetriebs. Die Abbildungsphase findet vor der Phase des Normalbetriebs gemäß der vorliegenden Erfindung statt. Während der Abbildungsphase wird ein Scan des Körpers des zweiten interessierenden Objektes aufgenommen, um ein dreidimensionales geometrisches Modell zu bilden. In der vorstehenden Beschreibung war das zweite Objekt der Kopf eines menschlichen Patienten, der einer intrakranialen Operation unterzogen wird, da die Erfindung vorteilhafterweise in der stereotaktischen Neurochirurgie angewendet wird. Dementsprechend weist das dreidimensionale Modell digitale Daten aus einer Reihe interner Querschnittsbilder, die mittels einer Computertomographie (CT), Kernspintomographie (MRT), Ultraschalluntersuchung oder mittels eines anderen diagnostischen medizinischen Scanners aufgenommen wurde. In jedem Fall werden die Bilddaten in einem geeigneten elektronischen Speicher 40 gespeichert, auf den der Computer 36 später zugreifen kann. Die Daten sind als eine Reihe paralleler zweidimensionaler rechteckiger Anordnungen aus Bildelementen (Bildpunkte) gespeichert, wobei jeder Bildpunkt ein ganzzahliger Wert ist, der die relative Dichte repräsentiert. Ist das Objekt relativ starr wie beispielsweise ein menschlicher Kopf, kann dieses dreidimensionale Modell eine gewissen Zeit vor der Korrelations- und Operationsphase der Erfindung und möglicherweise an einem anderen Ort erzeugt werden.
  • Während der Abbildungsphase müssen außerdem mindestens drei nicht kollineare Referenzpunkte 71, 73 und 75 (2 und 3) relativ zum Objekt 11 bestimmt werden. Sie können durch Tuschepunkte, Tätowierungen, strahlenundurchlässige Tropfen, gut ausgeprägte anatomische Kennzeichen, Orte an einem stereotaktischen Rahmen, sterile Stifte, die provisorisch in festes Gewebe oder Knochen des zu operierenden Patienten gesteckt werden, oder andere Bezugsmittel vorgesehen werden. Die Koordinaten dieser Referenzpunkte werden gemessen und relativ zum Koordinatensystem des Abbildungsgeräts aufgezeichnet. Eine Möglichkeit, dies zu erreichen, ist die Erfassung der Referenzpunkte als Teil des zuvor erstellten dreidimensionalen Modells selbst. So könnten beispielsweise strahlenundurchlässige Stifte in die Bildebenen der diagnostischen CT-Scheiben gesteckt werden; die Orte der Stifte, sofern sie nicht automatisch aufgrund ihrer hohen Dichte erkennbar sind, können interaktiv durch den Chirurgen mittels eines Cursors auf der Computeranzeige der CT-Scheiben bestimmt werden. Siehe 3.
  • Die Initialisierung der Position und Ausrichtung des zweiten Objektes, dem Schädel des Patienten, ist in dieser Technik hinreichend bekannt. Die vorliegende Erfindung weicht von dieser gut bekannten Vorgehensweise ab, indem Strahlungsemitter mit bekannter und genauer räumlicher Beziehung zu diesen Bezugsmarken hinzugefügt werden. Diese zusätzlichen Strahlungsemitter müssen dann auf eine bestimmte Weise programmiert oder anderweitig aktiviert werden, damit die vorliegende Erfindung verwirklicht werden kann. Sie müssen so programmiert werden, dass sie mit einer bestimmten Frequenz während des in Ist-Zeit ablaufenden chirurgischen Eingriffs strahlen, so dass der Chirurg Position und Ausrichtung des zweiten Objektes zu jedem relevanten Zeitpunkt abrufen kann, und so dass diese Position und Ausrichtung wiederholt und automatisch aktualisiert werden kann, damit das System die spezifische gewählte Scan-Scheibe so ändern kann, dass Position und Ausrichtung des ersten Objektes in einer korrekten Wiedergabe der tatsächlichen aktuellen Positionen und Ausrichtungen sowohl des ersten als auch des zweiten Objektes in Ist-Zeit während des chirurgischen Eingriffs überlagert werden.
  • Der erste Korrelationsmodus geht der normalen Operationsphase der vorliegenden Erfindung unmittelbar voran und muss im Operationssaal stattfinden. Während dieser ersten Korrelationsphase greift das vorliegende System auf die Daten des dreidimensionalen geometrischen Modells des Patienten (oder ein anderes Objekt) zu, einschließlich der Koordinaten der Bezugspunkte (Referenzmarken), die früher d. h. zuvor aufgezeichnet worden waren. Als Nächstes kann der Chirurg die Spitze 18 der Sonde nacheinander an jedem Referenzpunkt 71, 73 und 75 am Patienten ansetzen. Diese Operationsfolge kann vom Computerprogramm geleitet werden. Alternativ stellt das System dieser Erfindung diese Daten automatisch durch die Strahlung von den Emittern 70, 72 und 74, die von den Sensoren direkt und automatisch ohne speziellen Eingriff seitens des Chirurgen empfangen werden, bereit. Jede dieser Vorgehensweisen legt eine erste Beziehung zwischen den Orten dieser Referenzpunkte im Modell-Koordinatensystem und ihren aktuellen physikalischen Orten im festen Koordinatensystem 80 fest. Die bevorzugte Bestimmung dieser ersten Position und Ausrichtung wird jedoch während des gesamten chirurgischen Eingriffs fortge führt und kann deshalb Position und Ausrichtung des zweiten Objektes im Wesentlichen kontinuierlich aktualisieren und sie zur aktuellen Position und Ausrichtung der Sonde in Beziehung setzen. Dies wiederum stellt eine lineare mathematische Beziehung zwischen allen Punkten im Modell und den Punkten im Koordinatensystem 80 auf. Wird danach der Patient relativ zu den Sensoren bewegt, ist gemäß dem Stand der Technik eine neue Beziehung herzustellen, indem die Referenzpunkte 71, 73 und 75 im Koordinatensystem 80 erneut digitalisiert werden. Das heißt, die Korrelationsphase muss wiederholt werden. Es sei nochmals wieder holt, dass sich das erfindungsgemäße System der Emitter 70, 72 und 74 bedient, um dies automatisch durchzuführen. Aus diesem Grund ist die automatische Verfolgung der Position des Kopfes bzw. des zweiten Objektes, was dies auch sein mag, die nachfolgend beschrieben wird und dieses Problem überwindet, ein wesentliches und wichtiges Merkmal der vorliegenden Erfindung.
  • Da Position und Ausrichtung des Kopfes zunächst und danach im Wesentlichen kontinuierlich mit dem Modell korreliert werden, kann der Chirurg während der Operation jeden interessierenden Ort in den diagnostischen Bildern mit dementsprechenden physikalischen Ort am Patienten in Beziehung setzen und umgekehrt. Dies schließt Orte ein, die zwar für die Sondenspitze 18 zugänglich sind, aber nicht notwendigerweise vom Chirurgen eingesehen werden können.
  • Nach der Beschreibung von Funktion und Zweck der vorläufigen Schritte wird das detaillierte Verfahren der vorliegenden Erfindung besser verständlich. Wie in 7 dargestellt werden die Positionsdaten 21 der Sondenemitter, die von den Sensoren und der Steuerungseinheit erzeugt werden, in dreidimensionale Koordinaten relativ zum vorgegebenen festen Koordinatensystem 80 gewandelt. Unter Verwendung von Maßparametern, die die Beziehung zwischen den Sondenemittern und der Sondenspitze beschreiben, bestimmt der Computer im Schritt 39 die Koordinaten der Sondenspitze. Während der ersten Korrelationsphase kann die Sondenspitze nacheinander an Jedem der Referenzpunkte 71, 73 und 75 angesetzt werden. Alternativ sind gemäß einem bevorzugten Aspekt dieser Erfindung die Emitter 70, 72 und 74 durch die Sensoren festgelegt und die korrekte Position und Ausrichtung des zweiten Objektes ist damit bestimmt. Die. Koordinaten des zweiten Objektes im festen Koordinatensystem zusammen mit ihren Koordinaten 46 im Bild-Koordinatensystem bestimmen in Schritt 45 eine eindeutige lineare Transformation bezüglich der zwei Koordinatensysteme. Hierbei handelt es sich um eine an sich bekannte Berechnung aus der analytischen Geometrie und der Matrixmathematik.
  • Wie oben erwähnt besteht eine stärker automatisierte und direkte Methode der Bestimmung der Lage des zweiten Objektes darin, die Orte der Bezugspunkte 71, 73 und 75 direkt durch die festen Sensoren 20, 22 und 24 zu lesen. Dies kann geschehen, indem die Strahlungsemitter 70, 72 und 74 (1B) in diesen Referenzpunkten (oder in einer bekannten festen räumlichen Beziehung zu diesen Referenzpunkten 71, 73 und 75) angebracht werden. Die Emissionen dieser Emitter können dann direkt von den Sensoren 20, 22 und 24 erfasst werden und somit kann der Computer dann automatisch ihre Lage relativ zum vorgegebenen festen Koordinatensystem 80 der Sensoren bestimmen. Damit können Position und Ausrichtung des zweiten Objektes, dem Schädel in der bevorzugten Ausführungsform dieser Erfindung, automatisch und im Wesentlichen kontinuierlich bestimmt werden. Wenn Position und Ausrichtung des zweiten Objektes mindestens häufig, wenn nicht sogar im Wesentlichen kontinuierlich aktualisiert werden, dann kann die Sonde, die ebenfalls häufig, wenn nicht im Wesentlichen kontinuierlich bestimmt wird, mit der gleichen Häufigkeit relativ zum zweiten Objekt aktualisiert werden. Da Position und Ausrichtung sowohl des ersten als auch des zweiten Objektes mindestens häufig bestimmt und relativ zum festen Koordinatensystem 80 aktualisiert werden, können die Position und Ausrichtung des ersten und zweiten Objektes durch indirekte aber hinreichend bekannte Berechnungen, die von einem Computer problemlos rasch durchgeführt werden, relativ zueinander bestimmt werden.
  • Es wurde hierin festgestellt, dass die Position und Ausrichtung des zweiten Objektes, des Schädels, gemäß dieser Erfindung kontinuierlich oder zumindest häufig bestimmt werden können. Die Häufigkeit, mit der die Position und Ausrichtung des zweiten Objektes bestimmt werden, hängt von den Wünschen des Bediener dieses Systems und von der Frequenz ab, mit der die Strahlungsemitter und die Sensoren betrieben werden können. In dem Fall, in dem die Emitter alle die gleiche Wellenlänge abstrahlen und die Sensoren alle diese gleiche Wellenlänge der Strahlung erfassen, erfolgt die Unterscheidung der Emissionen der verschiedenen Emitter nach einem sequentiellen Muster. Bei dieser Ausführungsform der Erfindung geben also die Emitter die Strahlung in Folge ab, z. B. 14, dann 16, dann 70, dann 72 und dann 74. Die Sensoren sind so programmiert worden, dass sie ein Signal mit einem Emitter in Abhängigkeit vom Zeitpunkt, zu dem das Signal empfangen wird, identifizieren.
  • Bei dieser Ausführungsform dieser Erfindung werden die Position und Ausrichtung des ersten Objektes, der Sonde, mit der gleichen Häufigkeit bestimmt wie die Position und Ausrichtung des zweiten Objektes, des Schädels, da alle Emitter in Folge strahlen. Das System kann jedoch auch so programmiert werden, dass die Emitter 14 und 16 häufiger oder weniger häufig als die Emitter 70, 72 und 42 strahlen. Unter diesen Bedingungen werden die Position und Ausrichtung des ersten und zweiten Objektes mit verschiedener individueller Häufigkeit bestimmt, das heißt, mit der gleichen Häufigkeit wie die Häufigkeit der Strahlung von ihren jeweiligen Emittern. Es liegt daher auf der Hand, dass die Häufigkeit der Bestimmung der Lage jedes gegebenen Emitters und damit der Bestimmung der Position und Ausrichtung des ersten und zweiten Objektes dank der vorliegenden Erfindung erstmals durch den Programmierer oder den Benutzer innerhalb der Leistungsfähigkeit des die Emitter aktivierenden Systems absolut steuerbar ist.
  • Es dürfte jedoch klar sein, dass Position und Ausrichtung des ersten und/oder zweiten Objektes auf eine im Wesentlichen kontinuierliche Weise bestimmt werden können. Bei dieser Ausführungsform der Erfindung gibt jeder Emitter Strahlung mit unterschiedliche Wellenlänge oder Wellenform oder Impulsfrequenz ab. Die Strahlung jedes Emitter ist deshalb verschieden von der gleichzeitig abgegebenen Strahlung der anderen Emitter. Unter diesen Bedingungen kann die Lage jedes Emitters kontinuierlich durch einen Satz Sensoren bestimmt werden, der auf die spezifische unterschiedliche Strahlung jedes Emitters abgestimmt ist. Deshalb kann die Lage jedes Emitters kontinuierlich bestimmt werden, so dass Position und Ausrichtung entweder eines oder beider Objekte aus diesen kontinuierlich bereitgestellten Lagen der verschiedenen Emitter durch den Computer berechnet werden können.
  • Diese Erfindung unterscheidet sich erheblich vom Stand der Technik dadurch, dass im Stand der Technik:
    das erste Objekt bewegt werden soll und das zweite Objekt ortsfest sein soll; und Position und Ausrichtung des ersten Objektes häufig bestimmt werden, aber Position und Ausrichtung des zweiten Objektes nur zu Beginn der Operation und immer dann, wenn dem Chirurgen bekannt ist, dass das zweite Objekt, der Schädel, der während der Operation überhaupt nicht bewegt werden soll, bewegt wird, bestimmt werden; während
    gemäß dieser Erfindung:
    das erste Objekt bewegt werden soll uind für das zweite Objekt nicht vorgesehen ist, dass es starr an einer Stelle unbeweglich gemacht wird, oder mit anderen Worten, das zweite Objekt sich bewegen kann und eine Bewegung sogar erwartet wird; und Position und Ausrichtung des ersten Objekts häufig bestimmt werden und Position und Ausrichtung des zweiten Objektes ebenfalls häufig bestimmt werden. Position und Ausrichtung dieser beiden Objekte können mit der gleichen oder mit unterschiedlicher Häufigkeit (oder sogar kontinuierlich) bestimmt werden wie vom Benutzer gewünscht.
  • Bei bevorzugten Ausführungsformen dieser Erfindung werden die Position und Ausrichtung des zweiten Objektes zwischen einem Hundertstel bis zu zehn mal, am meisten bevorzugt so oft wie von einem Viertel bis zu vier mal so oft wie die Häufigkeit, an welcher die Position und Ausrichtung des ersten Objektes bestimmt wird, bestimmt. Allgemein wird kein Grenzwert für die Beziehung zwischen diesen Häufigkeiten der Messung vorgeschlagen. Die hierin genannten bevorzugten Beziehungen sind nur beispielhaft und nicht einschränkend zu verstehen. Die Häufigkeit jeder Messung hängt vom Ausmaß der zulässigen Bewegung ab und soll auf dem CRT- Schirm angezeigt werden. Der obere Grenzwert dieser Häufigkeit wird durch die Fähigkeit bestimmt, die Emitter zu unterscheiden. Es gibt keinen unteren Grenzwert.
  • In der vorliegenden Beschreibung werden die Emitter auf dem ersten und zweiten Objekt angeordnet und mit diesen beweglich beschrieben werden und die Sensoren werden in einer festen Beziehung zum Koordinatensystem angeordnet beschrieben. Obwohl es sich hierbei um das bevorzugte System handelt, ist dies keineswegs die einzige erfindungsgemäße Konfiguration. Es liegt auch im Gültigkeitsbereich dieser Erfindung, die Emitter in einer festen Beziehung zum Koordinatensystem und die Sensoren auf dem ersten bzw. zweiten Objekt vorzusehen. Die Verdrahtung kann bei dieser Konfiguration etwas aufwändiger sein, aber das sollte die Gleichwertigkeit einer solchen umgekehrten Anordnung nicht aufheben..
  • Diese Erfindung ist unter Bezugnahme auf ein erstes und zweites bewegliches Objekt und auf die Bestimmung ihrer jeweiligen absoluten und relativen Positionen und Ausrichtungen in einem festen Koordinatensystem beschrieben worden. Es liegt auf der Hand, dass dieses gleiche System für mehr als zwei Objekte gilt. In der Tat können die Position und Ausrichtung einer beliebigen Anzahl Objekte sowohl absolut bezogen auf das Koordinatensystem als auch relativ zueinander durch die praktische Verwirklichung dieser Erfindung bestimmt werden. Werden also in dieser Beschreibung und in den beigefügten Ansprüchen ein erstes und ein zweites Objekt genannt, können diese zwei Objekte aus einer beliebigen Gesamtanzahl Objekte sein. Diese Anzahl ist nur beispielhaft für die Verwirklichung der Erfindung und keineswegs einschränkend zu sehen.
  • Das bevorzugte System dieser Erfindung führt also die drei Hauptaufgaben dieser Erfindung vorzugsweise, aber nicht notwendigerweise, gleichzeitig aus: die absolute Position und Ausrichtung des zweiten Objektes, des Schädels, im festen Koordinatensystem wird zumindest sehr häufig bestimmt; die Beziehung zwischen der absoluten Position und Ausrichtung des zweiten Objektes bezüglich der zuvor aufgenommenen Bilder dieses Objektes insbesondere der inneren Strukturen dieses Objektes wird zumindest sehr häufig bestimmt; und die absolute Position und Ausrichtung des ersten Objektes, der Sonde, wird zumindest sehr häufig bestimmt. Die Erfüllung dieser drei Aufgaben ermöglicht es dann dem Computer, die drei wesentlichen sekundären Aufgaben dieser Erfindung auszuführen:
    Berechnen der Position und Ausrichtung des ersten Objektes, der Sonde, relativ zum zweiten Objekt, dem Schädel, obwohl das erste Objekt oder ein Abschnitt davon außerhalb der quasioptischen Sichtweite entweder des Chirurgen oder der Sensoren liegt;
    Wählen der richtigen Scheibe des zuvor erstellten Modells des Innern des zweiten Objektes, die der Position und Ausrichtung des ersten Objektes in Ist-Zeit relativ zur Position und Ausrichtung des zweiten Objektes in Ist-Zeit entspricht; und Anzeigen der richtigen Scheibe des zuvor aufgenommenen Bildes des zweiten Objektes mit der darauf korrekt dargestellten Position und Ausrichtung des ersten Objektes in Ist-Zeit.
  • Sowohl die ersten als auch die fortlaufenden Korrelationsbestimmungen können vom Computer 36 in einer gewissen vorgegebenen zeitlichen Abfolge oder kontinuierlich automatisch veranlasst und aktualisiert werden. In der Tat wird gemäß dem am meisten bevorzugten Aspekt dieser Ausführungsform dieser Erfindung die Korrelationsphase häufig, kurzzeitig gelegentlich oder sogar kontinuierlich wiederholt, zwischen den Messungen in der Operationsphase verteilt, oder gleichzeitig mit der Operationsphase in der praktischen Verwirklichung dieser Erfindung zum Zwecke der Neuberechnung der Transformationen M und M' durchgeführt, wenn sich das zweite Objekt (z. B. der zu operierende Patient) relativ zu den Sensoren bewegt.
  • Während des Normalbetriebs werden die Spitzenkoordinaten in Schritt 44 mittels der in Schritt 45 berechneten Transformation transformiert. Die neuen transformierten Koordinaten relativ zum Bild-Koordinatensystem werden zur Bestimmung der Ebene eines zweidimensionalen Querschnitts durch das dreidimensionale Bildmodell 41 verwendet, auf das im Speicher 43 zugegriffen werden kann. Die einfachste Methode besteht darin, die vorhandene diagnostische Bildebene zu wählen, die den Koordinaten der Sondenspitze relativ zum Modell-Koordinatensystem am nächsten liegt.
  • In jedem Fall wird in Schritt 47 die zweidimensionale Querschnittsscheibe zu einem Bildschirmbild transformiert und der Cursor zur Markierung der Lage der Sondenspitze im Bild überlagert positioniert. Skalierungs- und Betrachtungsparameter bestimmen, wie das Bild angezeigt wird. Da der Chirurg möglicherweise nicht den Patienten (Objekt) und den Computerbildschirm gleichzeitig betrachten kann, sollte der Schritt 47 durch den Chirurgen gesteuert werden, z. B. dadurch, dass eine Aktivierungstaste auf der Sonde angebracht wird. Das Drücken der Taste kann das Signal zum Anhalten des Bildes und der angezeigten Position und Ausrichtung der Marke der Sondenspitze im betreffenden Moment auf dem Anzeigeschirm sein.
  • Bei einer komplexeren Ausführungsform dieser Erfindung könnte das Computersystem auf dem Bildschirm eine Schnittansicht unter einem beliebigen Winkel, beispielsweise senkrecht zu der Richtung, in der die Sonde weist, erzeugen und darstellen, wozu es die Daten von mehreren Bildscheiben verwendet. In einfacheren Fällen zeigt der Computer nur eine beliebige oder mehrere geeignete Bildscheiben durch den Ort der Sondenspitze an. Die angezeigte Scheibe könnte beispielsweise einfach die ursprüngliche CT-Scheibe sein, die den Ort der Sondenspitze enthält oder diesem Ort am nächsten kommt. In jedem Fall veranlasst der Computer dann die Anzeige eines Cursors an der aktuellen Position der Sondenspitze auf diesem zuvor aufgenommenen Bild einer Scheibe durch das zweite Objekt.
  • Ein alternatives Mittel zur Erfassung der Lage der Referenzpunkte im Koordinatenraum der Abbildungsvorrichtung während der Abbildungsphase verwendet eine zusätzliche getrennte Ausgestaltung der dreidimensionalen Positionsmesssonde, der Sensoren, der Steuerungseinheit und des Computers der vorliegenden Erfindung. Zur Implementierung diese Ausführungsform dieser Erfindung werden die zusätzlichen Sensoren unmittelbar an der Abbildungsvorrichtung befestigt. Die zusätzliche Sonde misst die Lage der Referenzpunkte zum Zeitpunkt der Abbildung und die zusätzliche Steuerungseinheit und der zusätzliche Computer bestimmen ihre Lage relativ zum Koordinatensystem der Abbildungsvorrichtung und zeichnen sie auf. Der Vorteil dieser Vorgehensweise ist, dass die Bezugsmarken, d. h. die Kennzeichen oder Referenzstifte nicht innerhalb der begrenzten Querschnittsscheiben liegen müssen, die für das Abbildungsgerät sichtbar sind.
  • Als Alternative zu genauen dreidimensionalen Bildern können Standard-Röntgenaufnahmen aus mehreren verschiedenen Richtungen zum Aufbau eines Rohmodells anstelle der oben beschriebenen Abbildungsphase verwendet werden. Röntgenaufnahmen aus zwei oder mehr Richtungen werden digital abgetastet und vier nicht koplanare Referenzpunkte in ihnen werden mit einem Cursor oder Lichtstift gekennzeichnet. In einer Korrelationsphase werden ähnlich wie in der oben beschriebenen diese vier Punkte auf dem Patienten unmittelbar vor der Operation digitalisiert. Während der Operation wird dann die Lage der Sondenspitze auf die digitalisierten Computerbilder der zweidimensionalen Röntgenaufnahmen projiziert, in denen die Projektion eindeutig durch Abbilden und Übertragen der Koordinaten der Referenzpunkte aus dem Modell-Koordinatensystem auf das feste Sensor-Koordinatensystem definiert wird.
  • Bei einer weiteren Ausführungsform dieser Erfindung wird eine Videobandaufzeichnung des Computerbildschirms (sowie der direkten Ansicht des Chirurgen und des Patienten) verwendet, um zur Dokumentierung der Durchführung des vorliegenden Verfahrens beizutragen. Strahlungsemitter können auf mehr als einem chirurgischen Standard-Instrument wie dem Mikroskop, dem Skalpell, der Pinzette und dem Verätzer vorgesehen werden, wodurch jedes praktisch zu einer Sonde wird. Diese Emitter sollten auf die gleiche Weise wie oben beschrieben voneinander unterscheidbar sein.
  • Das Verfahren und die Vorrichtung der optischen Mess- und Korrelationsvorrichtung 10 gemäß der vorliegenden Erfindung ist vollständig beschrieben worden. Obwohl einige der zahlreichen Modifikationen und Entsprechungen des erfindungsgemäßen Systems hierin beschrieben worden sind, werden sich für den Durchschnittsfachmann ohne Weiteres weitere Modifikationen und Änderungen erschließen. So verwendet beispielsweise die hierin beschriebene bevorzugte Ausführungsform sichtbares Licht, da menschliche Benutzer dadurch gut feststellen können, ob die Lichtquellen eingeschaltet sind oder ob sie störende Reflexionen verursachen. Selbstverständlich könnten ebenso andere Wellenlängen der elektromagnetischen Strahlung verwendet werden. Nicht sichtbares Licht wie Infrarot- oder Ultraviolettlicht hätte den Vorteil, dass der Chirurg nicht durch blinkende Lichter abgelenkt wird. Ultraschall könnte gut eingesetzt werden. Andere Modifikationen der Detektor-"Optik" und -Linsen sind möglich, die die Abbildungseigenschaften auf den Detektoren ändern und möglicherweise verbessern würden. Beispielsweise könnten toroidale Linsen verwendet werden, die in Längsrichtung entlang eines Bogens gekrümmt sind, wobei der Radius gleich ist wie die Brennweite der Linse. Analog könnten die Oberflächen der Fotodetektoren ebenfalls gekrümmt sein, wodurch die Bilder der entfernten Lichtquellen ungeachtet ihrer Positionen scharf bleiben. Zahlreiche Verbesserungen der digitalen Daten sind durch geeignete Programmierung des Computers möglich.
  • Bei den am meisten bevorzugten Aspekten dieser Erfindung werden elektromagnetische Strahlung und insbesondere sichtbares Licht als Strahlung von den Emittern verwendet. Die Verwendung von Licht für diese Funktion ist eine wesentliche Verbesserung gegenüber der Verwendung von akustischen Schallemittern und Detektoren im Stand der Technik. Zum Stand der Technik gehörige Systeme auf der Basis von Schallemittern können jedoch zur Durchführung der Operationen neu programmiert werden, so dass sie die Position und Ausrichtung des zweiten Objektes während des chirurgischen Eingriffs kontinuierlich korrelieren, wie hierin beschrieben. Somit kann die Bewegung des zweiten Objektes mindestens häufig wenn nicht kontinuierlich mittels Schallemitter und Detektoren und mit Hilfe geeigneter Techniken zur Temperaturkompensation verfolgt werden. Bezüglich des zuletzt genannten Aspektes kann die oben genannte Fähigkeit des vorliegenden Systems der Bestimmung und Übertragung der Temperatur der Sondenspitze vorteilhaft eingesetzt werden, wenn Schall als Strahlungsart gewählt wird. Die Tatsache, dass die Verwendung elektromagnetischer (insbesondere Licht) Strahlungsemitter und -Sensoren eine Verbesserung gegenüber der Verwendung akustischer Schallemitter und – Sensoren in der Praxis darstellt, soll nicht als Einschränkung der kontinuierlichen oder häufigen Verfolgung der Bewegung des ersten oder zweiten Objektes verstanden werden. Das heißt eine Erfindung, deren Wesen darin besteht, ein Emitter/Sensorpaar zu verwenden.
  • Es sollte jedoch bedacht werden, dass die Übertragung zwischen Emittern und Sensoren anders erfolgt und andere Dinge gemessen werden, wenn elektromagnetische Strahlung im Gegensatz zu Schall, sowohl im hörbaren als auch im Ultraschallbereich, verwendet wird. Im Fall elektromagnetischer Strahlung handelt es sich bei der gemessenen Größe um den Winkel, den der Strahlungsweg zwischen dem Emitter und dem Sensor relativ zu einer beliebigen festen Linie beschreibt. Durch Messung aller dieser Winkel der Strahlen zwischen den Emittern und den Sensoren werden die Raumpunkte der verschiedenen Emitern durch Lösungen der herkömmlichen analytischen Geometrie bestimmt. Wird dagegen Schallstrahlung verwendet, handelt es sich bei der gemessenen Größe um den Abstand zwischen den jeweiligen Emittern und Sensoren. Auch hier bestimmen Lösungen der herkömmlichen analytischen Geometrie präzise den Raumpunkt jedes Emitters/Sensors. Obwohl der flüchtige Betrachter oder der Benutzer der Systeme dieser Erfindung im Ergebnis keinen Unterschied feststellen wird, besteht ein deutlicher Unterschied in der Weise, in der dieses Ergebnis erzielt wird, und dies macht eine unterschiedliche Programmierung dieses Systems erforderlich.
  • Die obige Beschreibung ist beispielhaft für die Prinzipien der Erfindung. Da für den Durchschnittsfachmann zahlreiche Modifikationen und Änderungen ohne Weiteres in Betracht kommen, ist diese Erfindung vorbehaltlich der Lehren dieser Beschreibung nicht auf die hierin dargestellte und beschriebene exakte Konstruktion und Funkti onsweise beschränkt. Demzufolge werden alle geeigneten Modifikationen und Entsprechungen, die sich angesichts dieser Offenbarung ergeben können, von dem durch die nachfolgenden Ansprüche definierten Gültigkeitsbereich abgedeckt.

Claims (24)

  1. Medizinisches System (10) zur Bestimmung der Lage und Ausrichtung eines beweglichen ersten Objektes (12) in Ist-Zeit in Bezug auf ein zweites Objekt (11) und zur grafischen Anzeige der entsprechenden Stellung und Ausrichtung des ersten Objektes (12) auf einem zuvor aufgenommenen Bild des zweiten Objektes (11), das folgendes aufweist: ein dreidimensionales, festes Ist-Zeit-Koordinatensystem (80); mindestens drei elektromagnetische oder akustische Strahlungssensormittel (20, 22, 24) in fester räumlicher Beziehung zu dem dreidimensionalen, festen Ist-Zeit-Koordinatensystem (80), die von den Objekten (11, 12) beabstandet sind; die ersten und zweiten Objekte (11, 12), die sich innerhalb des festen Koordinatensystems (80) befinden; mindestens drei nicht kollineare Bezugsmarken (71, 73, 75) in fester räumlicher Beziehung zu dem zweiten Objekt (11) und bei bekannten Koordinaten in dem festen Koordinatensystem (80); ein dreidimensionales lokales Koordinatensystem, welches in Bezug auf das zweite Objekt (11) fest ist; zuvor aufgenommene dreidimensionale Bilddaten, welche das zweite Objekt (11) einschließlich der Bezugsmarken (71, 73, 75) geometrisch beschreiben; mindestens zwei beabstandete elektromagnetische oder akustische Strahlungsemittermittel (14, 16), die auf dem ersten Objekt (12) angeordnet sind; erste Bewegungsmittel, um das erste Objekt (12) relativ zu dem zweiten Objekt (11) und zu dem festen Koordinatensystem (80) zu bewegen; Mittel zur Unterscheidung zwischen einer von einem beliebigen der Strahlungsemittermittel (14, 16) emittierten elektromagnetischen oder akustischen Strahlung und einer von allen anderen Strahlungsemittermitteln (14, 16) emittierten Strahlung; Mittel zur unabhängigen Bestimmung der Lage jedes der Strahlungsemittermittel (14, 16) auf dem ersten Objekt (12) in Abhängigkeit von der zwischen mindestens zwei der Strahlungsemittermittel (14, 16) auf dem ersten Objekt (12) und dem Strahlungssensormittel (20, 22, 24), die sich in fester Beziehung zu diesem festen Koordinatensystem (80) befinden, übertragenen Strahlung Mittel zur Bestimmung der Position und Ausrichtung jedes Punktes des ersten Objektes (12) in Bezug auf das feste Koordinatensystem (80) durch Integrieren der ermittelten Lage von mindestens zwei der Strahlungsemittermittel (14, 16) auf dem ersten Objekt (12); Mittel zur unabhängigen Bestimmung der Lage jeder der Bezugsmarken (71, 73, 75) auf dem zweiten Objekt in dem festen Koordinatensystem (80); Mittel zur Bestimmung der Position und Ausrichtung des zweiten Objektes (11) in dem festen Koordinatensystem (80) durch Integrieren der ermittelten Lage der Bezugsmarken (71, 73, 75) auf dem zweiten Objekt (11); Mittel zur Ausrichtung der zuvor aufgenommenen dreidimensionalen Bilddaten des zweiten Objektes (11), um die Ist-Zeit-Position und die Ausrichtung des zweiten Objektes (11) an diese zuvor aufgenommenen Bilddaten anzupassen; Mittel zur Integration der in Ist-Zeit bestimmten Position und Ausrichtung des zweiten Objektes (11) mit der in Ist-Zeit bestimmten Position und Ausrichtung des ersten Objektes (12) im selben festen Koordinatensystem (80), wodurch, die in Ist-Zeit bestimmte Position und Ausrichtung des ersten Objektes (12) in Bezug auf die zuvor aufgenommenen dreidimensionalen Bilddaten integriert wird; und Mittel zur wiederholten Bestimmung der Positionen und Ausrichtungen des ersten Objektes (12) in Ist-Zeit mit ausreichender Häufigkeit, um die Bewegung des ersten Objektes (12) in Bezug auf das zweite Objekt (11) anzeigen zu können; wobei als eine Folge der wiederholten Bestimmungen und Integrationen der Positionen und Ausrichtungen des ersten- Objektes (12) und der Korrelation der Positionen und Ausrichtungen des zweiten Objektes (11) mit den zuvor aufgenommenen dreidimensionalen Bilddaten ein für das erste Objekt (12) repräsentatives Bild in Ist-Zeit korrekt zu den zuvor aufgenommenen Bilddaten positioniert wird, ungeachtet der Bewegung des ersten Objektes (12) in Bezug auf das feste Koordinatensystem (80).
  2. System nach Anspruch 1, dadurch gekennzeichnet, dass die ersten und zweiten Objekte (11, 12) sich schneiden, und das System weiter Mittel-umfasst, um so viel der zuvor aufgenommenen dreidimensionalen Bilddaten, wie es der Schnittpunktlage dieses ersten und zweiten Objektes (11, 12) entspricht, anzuzeigen, und Mittel, um die Darstellung des ersten Objektes (12) auf dieser Bildanzeige in seiner korrekten Ist-Zeit-Position anzuzeigen.
  3. System nach Anspruch 1, dadurch gekennzeichnet, dass die Integration der Position und Ausrichtung des zweiten Objektes (11) und der Bilddaten, die Position und Ausrichtung des ersten Objektes (12) und die Korrelation der Position und Ausrichtung des ersten Objektes (12) mit den Bilddaten sämtliche im Wesentlichen kontinuierlich bestimmt werden.
  4. System nach Anspruch 1, dadurch gekennzeichnet, dass die zuvor aufgenommenen dreidimensionalen Bilddaten eine Aufeinanderfolge von im Wesentlichen zweidimensionalen Schichten durch das zweite Objekt (11) umfassen.
  5. System nach Anspruch 1, dadurch gekennzeichnet, dass die Strahlungsemittermittel (14, 16) auf dem ersten Objekt (12) angeordnet sind und die Sensormittel (20, 22, 24) von den ersten und zweiten Objekten (11) beabstandet und in fester Beziehung zu dem festen Koordinatensystem (80) angeordnet sind.
  6. System nach Anspruch 1, dadurch gekennzeichnet, dass die Sensormittel (20, 22, 24) auf dem ersten Objekt (12) angeordnet sind und die Strahlungsemittermittel (14, 16) von dem ersten Objekt (12) beabstandet und in fester Beziehung zu dem festen Koordinatensystem (80) angeordnet sind.
  7. System nach Anspruch 1, dadurch gekennzeichnet, dass es sich bei der Strahlung um Licht handelt.
  8. System nach Anspruch 7, dadurch gekennzeichnet, dass es sich bei der Strahlung um sichtbares Licht handelt.
  9. System nach Anspruch 7, dadurch gekennzeichnet, dass Licht unterschiedlicher Wellenlänge von jedem der unterschiedlichen Emittermittel (14, 16) abgestrahlt wird.
  10. System nach Anspruch 7, dadurch gekennzeichnet, dass das Licht von verschiedenen der Strahlungsemittermittel (14, 16), einer sich wiederholenden Reihenfolge folgend, gepulst abgestrahlt wird.
  11. System nach Anspruch 1, dadurch gekennzeichnet, dass die Strahlungsemittermittel (14, 16) und die Sensormittel (20, 22, 24) Mittel für die Erfassung von linearer und drehender träger Bewegung umfassen.
  12. System nach Anspruch 1, dadurch gekennzeichnet, dass die zuvor aufgenommenen Bilddaten durch Mittel, welche für die Verwendung während eines chirurgischen Eingriffs nicht geeignet sind, aufgenommen werden.
  13. System nach Anspruch 1, dadurch gekennzeichnet, dass es sich bei dem ersten Objekt um eine chirurgische Sonde (12) und bei dem zweiten Objekt um einen chirurgischen Patienten (11) handelt, wobei die chirurgische Sonde (12) geeignet ist, um teilweise in den Patienten (11) derart eingeführt zu werden, dass der eingeführte Teil für dessen Einführenden nicht sichtbar ist.
  14. System nach Anspruch 13, dadurch gekennzeichnet, dass mindestens zwei Emittermittel (14, 16) auf so viel von dem ersten Objekt (12) angeordnet sind, wie nicht in den Patienten (11) eingeführt wird, und wobei die so angeordneten Emittermittel (14, 16) auf dem ersten Objekt (12) sich in einer bekannten Entfernung von einer Spitze der Sonde befinden, welche für das Einführen in den Patienten (11) geeignet ist.
  15. System nach Anspruch 1, dadurch gekennzeichnet, dass die Bilddaten aus einer Gruppe bestehend aus Magnetresonanzbilddaten, Computertomographiedaten, Ultraschalldaten oder Röntgenstrahlungsdaten ausgewählt sind.
  16. System nach Anspruch 1, dadurch gekennzeichnet, dass es sich bei dem zweiten Objekt um einen Patienten (11) handelt und es sich bei dem ersten Objekt um ein Operationsmikroskop handelt und wobei die Bilddaten auf das Gesichtsfeld dieses Operationsmikroskops projiziert werden.
  17. System nach Anspruch 1, dadurch gekennzeichnet, dass es sich bei dem zweiten Objekt (11) um einen Teil eines menschlichen Körpers handelt.
  18. System nach Anspruch 16, dadurch gekennzeichnet, dass es sich bei dem Teil des Körpers um einen Kopf handelt.
  19. System nach Anspruch 16, dadurch gekennzeichnet, dass sich auf dem zweiten Objekt (11) Referenzpunkte befinden, welche anatomische Merkmale, die sich in fester räumlicher Beziehung zu dem zweiten Objekt (11) befinden, unterscheiden.
  20. System nach Anspruch 1, das mit Unterbrechungen arbeitet, jedoch ausreichend häufig, um die relative Bewegung des ersten Objektes (12) relativ zu dem zweiten Objekt (11) darstellen zu können.
  21. System nach Anspruch 2, das Mittel für die Aufzeichnung der Bewegung des ersten Objektes (12) in richtiger Beziehung zu den zuvor aufgenommenen dreidimensionalen Bilddaten beinhaltet.
  22. System nach Anspruch 1, das Mittel für die Auswahl derjenigen Schicht der zuvor aufgenommenen Bilddaten beinhaltet, welche der Ist-Zeit-Lage des ersten Objektes (12) entspricht, so dass eine Darstellung des ersten Objektes (12) auf der Bildschicht in Ist-Zeit korrekt angeordnet wird.
  23. System nach Anspruch 1, das Mittel zum Einfrieren einer Anzeige eines zuvor aufgenommenen Bildes und einer Darstellung des ersten Objektes (12) für eine begrenzte Zeitspanne beinhaltet.
  24. Verfahren zur Steuerung eines Computersystems in einem Operationssaal zur Bestimmung der Ist-Zeit-Lage und Ausrichtung eines beweglichen ersten Objektes (12) in Bezug auf ein zweites Objekt (11) und zur grafischen Anzeige der entsprechenden Position und Ausrichtung des ersten Objektes (12) auf einem zuvor aufgenommenen Bild des zweiten Objektes (11), das Folgendes aufweist: Bereitstellen eines dreidimensionalen festen Ist-Zeit-Koordinatensystems (80); Bereitstellen von mindestens drei nicht kollinearen Bezugsmarken (71, 73, 75) in fester räumlicher Beziehung zu dem zweiten Objekt (11); Bereitstellen von zu einem früheren Zeitpunkt aufgenommenen und das zweite Objekt (11) einschließlich der Bezugsmarken (71, 73, 75) geometrisch beschreibenden, dreidimensionalen Bilddaten; Erfassen der Lagen von mindestens zwei elektromagnetischen oder akustischen Strahlungsemittermitteln (14, 16), die dem ersten Objekt (12) funktional zugeordnet sind und in bekannter räumlicher Beziehung zu dem ersten Objekt (12) stehen, in Ist-Zeit in ausreichend häufigen Intervallen, um die Bewegung in Ist-Zeit verfolgen zu können; Berechnen in Ist-Zeit aus den erfassten Positionen der elektromagnetischen oder akustischen Strahlungsemittermittel (14,16) in ausreichend häufigen Intervallen, um der Ist-Zeit-Bewegung in Ist-Zeit folgen zu können, der Position und der Ausrichtung des ersten Objektes (12) in Bezug auf das feste Koordinatensystem (80); Bestimmen der Lage jeder der Bezugsmarken (71, 73, 75) auf dem zweiten Objekt (11) in dem festen Koordinatensystem (80); Bestimmen der Position und Ausrichtung des zweiten Objektes (11) in dem festen Koordinatensystem (80) durch Integration der ermittelten Lagen der Bezugsmarken (71, 73, 75) auf dem zweiten Objekt (11); Ausrichten der zuvor aufgenommenen dreidimensionalen Bilddaten des zweiten Objektes (11), um die Position und Ausrichtung des zweiten Objektes (11) an die zuvor aufgenommenen Bilddaten anzupassen; Integration der in Ist-Zeit bestimmten Position und Ausrichtung des zweiten Objektes (11) mit der in Ist-Zeit bestimmten Position und Ausrichtung des ersten Objektes (12), wodurch die in Ist-Zeit bestimmte Position und Ausrichtung des ersten Objektes (12) in Bezug auf die zuvor aufgezeichneten dreidimensionalen Bilddaten integriert wird; und wiederholtes Bestimmen der Position und Ausrichtung des ersten Objektes (12) in Ist-Zeit mit ausreichender Häufigkeit, um ein Anzeigen der Bewegung des ersten Objektes (12) in Bezug auf das zweite Objekt (11) zu ermöglichen; wobei als eine Konsequenz der wiederholten Bestimmung und Integration der Position und Ausrichtung des ersten Objektes (12) und der Korrelation der Position und Ausrichtung des zweiten Objektes (11) mit den zuvor aufgenommenen dreidimensionalen Bilddaten ein für das erste Objekt (12) repräsentatives Bild auf den zuvor aufgenommenen Bilddaten in Ist-Zeit korrekt positioniert wird, ungeachtet der Bewegung des ersten Objektes (12) in Bezug auf das feste Koordinatensystem (80).
DE69432961T 1993-04-22 1994-04-22 Anordnung zur Bestimmung der gegenseitigen Lage von Körpern Expired - Lifetime DE69432961T2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US52042 1979-06-25
US5204293A 1993-04-22 1993-04-22
US5204593A 1993-04-22 1993-04-22
US52045 1998-03-31

Publications (2)

Publication Number Publication Date
DE69432961D1 DE69432961D1 (de) 2003-08-21
DE69432961T2 true DE69432961T2 (de) 2004-02-12

Family

ID=26730097

Family Applications (2)

Application Number Title Priority Date Filing Date
DE69431875T Expired - Lifetime DE69431875T2 (de) 1993-04-22 1994-04-22 Anordnung zur bestimmung der gegenseitigen lage von körpern
DE69432961T Expired - Lifetime DE69432961T2 (de) 1993-04-22 1994-04-22 Anordnung zur Bestimmung der gegenseitigen Lage von Körpern

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE69431875T Expired - Lifetime DE69431875T2 (de) 1993-04-22 1994-04-22 Anordnung zur bestimmung der gegenseitigen lage von körpern

Country Status (9)

Country Link
US (4) US5622170A (de)
EP (2) EP0700269B1 (de)
JP (1) JPH08509144A (de)
AU (1) AU6666894A (de)
CA (1) CA2161126C (de)
DE (2) DE69431875T2 (de)
IL (1) IL109385A (de)
WO (1) WO1994023647A1 (de)
ZA (1) ZA942812B (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1647236A1 (de) 2004-10-15 2006-04-19 BrainLAB AG Vorrichtung und Verfahren zur Lageüberprüfung von Markern

Families Citing this family (553)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6331180B1 (en) 1988-05-03 2001-12-18 Sherwood Services Ag Target-centered stereotaxtic surgical arc system with reorientatable arc axis
FR2652928B1 (fr) 1989-10-05 1994-07-29 Diadix Sa Systeme interactif d'intervention locale a l'interieur d'une zone d'une structure non homogene.
US5415169A (en) * 1989-11-21 1995-05-16 Fischer Imaging Corporation Motorized mammographic biopsy apparatus
US6347240B1 (en) 1990-10-19 2002-02-12 St. Louis University System and method for use in displaying images of a body part
ATE405223T1 (de) 1990-10-19 2008-09-15 Univ St Louis System zur lokalisierung einer chirurgischen sonde relativ zum kopf
US5662111A (en) * 1991-01-28 1997-09-02 Cosman; Eric R. Process of stereotactic optical navigation
US6006126A (en) 1991-01-28 1999-12-21 Cosman; Eric R. System and method for stereotactic registration of image scan data
US6675040B1 (en) 1991-01-28 2004-01-06 Sherwood Services Ag Optical object tracking system
US6405072B1 (en) * 1991-01-28 2002-06-11 Sherwood Services Ag Apparatus and method for determining a location of an anatomical target with reference to a medical apparatus
US6167295A (en) 1991-01-28 2000-12-26 Radionics, Inc. Optical and computer graphic stereotactic localizer
US5603318A (en) 1992-04-21 1997-02-18 University Of Utah Research Foundation Apparatus and method for photogrammetric surgical localization
US5762458A (en) * 1996-02-20 1998-06-09 Computer Motion, Inc. Method and apparatus for performing minimally invasive cardiac procedures
WO1994004938A1 (en) 1992-08-14 1994-03-03 British Telecommunications Public Limited Company Position location system
US6757557B1 (en) 1992-08-14 2004-06-29 British Telecommunications Position location system
US5517990A (en) * 1992-11-30 1996-05-21 The Cleveland Clinic Foundation Stereotaxy wand and tool guide
US5732703A (en) * 1992-11-30 1998-03-31 The Cleveland Clinic Foundation Stereotaxy wand and tool guide
JPH08509144A (ja) * 1993-04-22 1996-10-01 ピクシス,インコーポレイテッド 物体の相対的位置を突き止めるシステム
EP0699050B1 (de) 1993-04-26 2004-03-03 St. Louis University Anzeige der lage einer sonde
NO302055B1 (no) * 1993-05-24 1998-01-12 Metronor As Fremgangsmåte og system for geometrimåling
US5829444A (en) * 1994-09-15 1998-11-03 Visualization Technology, Inc. Position tracking and imaging system for use in medical applications
US5803089A (en) 1994-09-15 1998-09-08 Visualization Technology, Inc. Position tracking and imaging system for use in medical applications
US5695501A (en) 1994-09-30 1997-12-09 Ohio Medical Instrument Company, Inc. Apparatus for neurosurgical stereotactic procedures
US6978166B2 (en) * 1994-10-07 2005-12-20 Saint Louis University System for use in displaying images of a body part
EP1201199B1 (de) * 1994-10-07 2006-03-15 St. Louis University Chirurgische Navigationsanordnung einschliesslich Referenz- und Ortungssystemen
US5762064A (en) * 1995-01-23 1998-06-09 Northrop Grumman Corporation Medical magnetic positioning system and method for determining the position of a magnetic probe
US6690963B2 (en) 1995-01-24 2004-02-10 Biosense, Inc. System for determining the location and orientation of an invasive medical instrument
US6259943B1 (en) * 1995-02-16 2001-07-10 Sherwood Services Ag Frameless to frame-based registration system
US6246898B1 (en) * 1995-03-28 2001-06-12 Sonometrics Corporation Method for carrying out a medical procedure using a three-dimensional tracking and imaging system
US5868673A (en) * 1995-03-28 1999-02-09 Sonometrics Corporation System for carrying out surgery, biopsy and ablation of a tumor or other physical anomaly
US6122541A (en) * 1995-05-04 2000-09-19 Radionics, Inc. Head band for frameless stereotactic registration
US5592939A (en) 1995-06-14 1997-01-14 Martinelli; Michael A. Method and system for navigating a catheter probe
EP0845959A4 (de) * 1995-07-16 1998-09-30 Ultra Guide Ltd Hand-freies ziehlen einer nadelführung
US6256529B1 (en) * 1995-07-26 2001-07-03 Burdette Medical Systems, Inc. Virtual reality 3D visualization for surgical procedures
US6714841B1 (en) * 1995-09-15 2004-03-30 Computer Motion, Inc. Head cursor control interface for an automated endoscope system for optimal positioning
DE19639615C5 (de) * 1996-09-26 2008-11-06 Brainlab Ag Reflektorenreferenzierungssystem für chirurgische und medizinische Instrumente
US6351659B1 (en) * 1995-09-28 2002-02-26 Brainlab Med. Computersysteme Gmbh Neuro-navigation system
US5772594A (en) * 1995-10-17 1998-06-30 Barrick; Earl F. Fluoroscopic image guided orthopaedic surgery system with intraoperative registration
US20020045812A1 (en) 1996-02-01 2002-04-18 Shlomo Ben-Haim Implantable sensor for determining position coordinates
EP0883375B1 (de) 1996-02-15 2005-05-11 Biosense Webster, Inc. Bestimmung der genauen position von endoskopen
IL125761A (en) 1996-02-15 2005-05-17 Biosense Inc Independently positionable transducers for location system
JP3930052B2 (ja) 1996-02-15 2007-06-13 バイオセンス・インコーポレイテッド カテーテルに基づく手術
EP0910300B1 (de) 1996-02-15 2003-12-03 Biosense, Inc. Probe zur Ortsmarkierung
DE69738274T2 (de) * 1996-02-15 2008-08-28 Biosense Webster, Inc., Diamond Bar Bewegliche Empfangs- und Sendespulen für ein Ortsbestimmungssystem
CA2246340C (en) 1996-02-15 2005-08-16 Biosense, Inc. Catheter calibration and usage monitoring system
ES2251018T3 (es) 1996-02-15 2006-04-16 Biosense Webster, Inc. Cateter con lumen.
CA2246288C (en) 1996-02-15 2005-09-20 Biosense, Inc. Medical probes with field transducers
JP4141500B2 (ja) 1996-02-27 2008-08-27 バイオセンス・ウェブスター・インコーポレイテッド 位置決め装置およびその動作方法
DE19609564C1 (de) * 1996-03-12 1997-06-26 Fraunhofer Ges Forschung Vorrichtung zur zeit- und ortsaufgelösten Ortung eines miniaturisierten Ultraschall-Senders
US6177792B1 (en) 1996-03-26 2001-01-23 Bisense, Inc. Mutual induction correction for radiator coils of an objects tracking system
US6167145A (en) 1996-03-29 2000-12-26 Surgical Navigation Technologies, Inc. Bone navigation system
DE69737287T2 (de) 1996-05-06 2007-11-15 Biosense Webster, Inc., Diamond Bar Radiatorkalibrierung
USRE40176E1 (en) * 1996-05-15 2008-03-25 Northwestern University Apparatus and method for planning a stereotactic surgical procedure using coordinated fluoroscopy
US5795295A (en) * 1996-06-25 1998-08-18 Carl Zeiss, Inc. OCT-assisted surgical microscope with multi-coordinate manipulator
US6167296A (en) * 1996-06-28 2000-12-26 The Board Of Trustees Of The Leland Stanford Junior University Method for volumetric image navigation
US6408107B1 (en) 1996-07-10 2002-06-18 Michael I. Miller Rapid convolution based large deformation image matching via landmark and volume imagery
US6611630B1 (en) 1996-07-10 2003-08-26 Washington University Method and apparatus for automatic shape characterization
US6009212A (en) 1996-07-10 1999-12-28 Washington University Method and apparatus for image registration
US6226418B1 (en) 1997-11-07 2001-05-01 Washington University Rapid convolution based large deformation image matching via landmark and volume imagery
EP0920642B1 (de) * 1996-08-22 2000-11-15 SYNTHES AG Chur 3-d ultraschallaufnahmegerät
US6296613B1 (en) 1997-08-22 2001-10-02 Synthes (U.S.A.) 3D ultrasound recording device
JP3198938B2 (ja) * 1996-09-03 2001-08-13 株式会社エフ・エフ・シー 移動カメラ用の画像処理装置
US6364888B1 (en) * 1996-09-09 2002-04-02 Intuitive Surgical, Inc. Alignment of master and slave in a minimally invasive surgical apparatus
US5865744A (en) * 1996-09-16 1999-02-02 Lemelson; Jerome H. Method and system for delivering therapeutic agents
DE69735273T2 (de) * 1996-09-16 2006-08-10 Snap-On Inc., Pleasant Prairie Messeinrichtung für fahrzeuge
DE19637822C1 (de) * 1996-09-17 1998-03-26 Deutsch Zentr Luft & Raumfahrt Mikromechanisches Werkzeug
JP3344900B2 (ja) * 1996-09-19 2002-11-18 松下電器産業株式会社 直角座標型ロボット
US5845646A (en) * 1996-11-05 1998-12-08 Lemelson; Jerome System and method for treating select tissue in a living being
GB9623911D0 (en) * 1996-11-18 1997-01-08 Armstrong Healthcare Ltd Improvements in or relating to an orientation detector arrangement
US6132441A (en) 1996-11-22 2000-10-17 Computer Motion, Inc. Rigidly-linked articulating wrist with decoupled motion transmission
US7302288B1 (en) * 1996-11-25 2007-11-27 Z-Kat, Inc. Tool position indicator
JP3814904B2 (ja) * 1996-12-25 2006-08-30 ソニー株式会社 位置検出装置及び遠隔操作装置
US6731966B1 (en) 1997-03-04 2004-05-04 Zachary S. Spigelman Systems and methods for targeting a lesion
US6119033A (en) * 1997-03-04 2000-09-12 Biotrack, Inc. Method of monitoring a location of an area of interest within a patient during a medical procedure
US6026315A (en) * 1997-03-27 2000-02-15 Siemens Aktiengesellschaft Method and apparatus for calibrating a navigation system in relation to image data of a magnetic resonance apparatus
GB9706797D0 (en) * 1997-04-03 1997-05-21 Sun Electric Uk Ltd Wireless data transmission
US6708184B2 (en) 1997-04-11 2004-03-16 Medtronic/Surgical Navigation Technologies Method and apparatus for producing and accessing composite data using a device having a distributed communication controller interface
US5970499A (en) 1997-04-11 1999-10-19 Smith; Kurt R. Method and apparatus for producing and accessing composite data
US6669653B2 (en) * 1997-05-05 2003-12-30 Trig Medical Ltd. Method and apparatus for monitoring the progress of labor
US6752812B1 (en) 1997-05-15 2004-06-22 Regent Of The University Of Minnesota Remote actuation of trajectory guide
US5993463A (en) 1997-05-15 1999-11-30 Regents Of The University Of Minnesota Remote actuation of trajectory guide
US5907395A (en) * 1997-06-06 1999-05-25 Image Guided Technologies, Inc. Optical fiber probe for position measurement
EP0926998B8 (de) * 1997-06-23 2004-04-14 Koninklijke Philips Electronics N.V. Bildgeführtes chirurgisches system
WO1999000052A1 (en) * 1997-06-27 1999-01-07 The Board Of Trustees Of The Leland Stanford Junior University Method and apparatus for volumetric image navigation
US6055449A (en) * 1997-09-22 2000-04-25 Siemens Corporate Research, Inc. Method for localization of a biopsy needle or similar surgical tool in a radiographic image
US6226548B1 (en) 1997-09-24 2001-05-01 Surgical Navigation Technologies, Inc. Percutaneous registration apparatus and method for use in computer-assisted surgical navigation
US6081336A (en) * 1997-09-26 2000-06-27 Picker International, Inc. Microscope calibrator
US6147480A (en) * 1997-10-23 2000-11-14 Biosense, Inc. Detection of metal disturbance
US6157853A (en) * 1997-11-12 2000-12-05 Stereotaxis, Inc. Method and apparatus using shaped field of repositionable magnet to guide implant
US6021343A (en) * 1997-11-20 2000-02-01 Surgical Navigation Technologies Image guided awl/tap/screwdriver
AU4318499A (en) * 1997-11-24 1999-12-13 Burdette Medical Systems, Inc. Real time brachytherapy spatial registration and visualization system
US6149592A (en) * 1997-11-26 2000-11-21 Picker International, Inc. Integrated fluoroscopic projection image data, volumetric image data, and surgical device position data
US6052611A (en) 1997-11-28 2000-04-18 Picker International, Inc. Frameless stereotactic tomographic scanner for image guided interventional procedures
US6064904A (en) * 1997-11-28 2000-05-16 Picker International, Inc. Frameless stereotactic CT scanner with virtual needle display for planning image guided interventional procedures
US6035228A (en) * 1997-11-28 2000-03-07 Picker International, Inc. Frameless stereotactic arm apparatus and method of using same
US5967982A (en) * 1997-12-09 1999-10-19 The Cleveland Clinic Foundation Non-invasive spine and bone registration for frameless stereotaxy
US6348058B1 (en) 1997-12-12 2002-02-19 Surgical Navigation Technologies, Inc. Image guided spinal surgery guide, system, and method for use thereof
US6122539A (en) * 1997-12-31 2000-09-19 General Electric Company Method for verifying accuracy during intra-operative MR imaging
AU2022799A (en) * 1997-12-31 1999-07-19 Surgical Navigation Technologies, Inc. Wireless probe system for use with a stereotactic surgical device
US6223066B1 (en) 1998-01-21 2001-04-24 Biosense, Inc. Optical position sensors
IL131808A0 (en) 1998-01-22 2001-03-19 Biosense Inc Intrabody measurement
CA2318252A1 (en) * 1998-01-28 1999-08-05 Eric R. Cosman Optical object tracking system
US6289235B1 (en) 1998-03-05 2001-09-11 Wake Forest University Method and system for creating three-dimensional images using tomosynthetic computed tomography
AU753931B2 (en) * 1998-04-03 2002-10-31 Image Guided Technologies, Inc. Wireless optical instrument for position measurement and method of use therefor
US5947900A (en) * 1998-04-13 1999-09-07 General Electric Company Dynamic scan plane tracking using MR position monitoring
DE19817039A1 (de) * 1998-04-17 1999-10-21 Philips Patentverwaltung Anordnung für die bildgeführte Chirurgie
US6273896B1 (en) 1998-04-21 2001-08-14 Neutar, Llc Removable frames for stereotactic localization
US6529765B1 (en) 1998-04-21 2003-03-04 Neutar L.L.C. Instrumented and actuated guidance fixture for sterotactic surgery
US6298262B1 (en) 1998-04-21 2001-10-02 Neutar, Llc Instrument guidance for stereotactic surgery
US6546277B1 (en) 1998-04-21 2003-04-08 Neutar L.L.C. Instrument guidance system for spinal and other surgery
US6363940B1 (en) 1998-05-14 2002-04-02 Calypso Medical Technologies, Inc. System and method for bracketing and removing tissue
FR2779339B1 (fr) * 1998-06-09 2000-10-13 Integrated Surgical Systems Sa Procede et appareil de mise en correspondance pour la chirurgie robotisee, et dispositif de mise en correspondance en comportant application
US6122967A (en) * 1998-06-18 2000-09-26 The United States Of America As Represented By The United States Department Of Energy Free motion scanning system
ES2304794T3 (es) 1998-06-22 2008-10-16 Ao Technology Ag Pareo de localizacion por medio de tornillos de localizacion.
US6118845A (en) 1998-06-29 2000-09-12 Surgical Navigation Technologies, Inc. System and methods for the reduction and elimination of image artifacts in the calibration of X-ray imagers
US6327491B1 (en) * 1998-07-06 2001-12-04 Neutar, Llc Customized surgical fixture
US6459927B1 (en) 1999-07-06 2002-10-01 Neutar, Llc Customizable fixture for patient positioning
US6081577A (en) 1998-07-24 2000-06-27 Wake Forest University Method and system for creating task-dependent three-dimensional images
US6145509A (en) * 1998-07-24 2000-11-14 Eva Corporation Depth sensor device for use in a surgical procedure
US6439576B1 (en) * 1998-07-30 2002-08-27 Merlin Technologies, Inc. Electronic missile location
US6801637B2 (en) 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
US20050105772A1 (en) * 1998-08-10 2005-05-19 Nestor Voronka Optical body tracker
US6351662B1 (en) 1998-08-12 2002-02-26 Neutar L.L.C. Movable arm locator for stereotactic surgery
US6282437B1 (en) 1998-08-12 2001-08-28 Neutar, Llc Body-mounted sensing system for stereotactic surgery
US6477400B1 (en) 1998-08-20 2002-11-05 Sofamor Danek Holdings, Inc. Fluoroscopic image guided orthopaedic surgery system with intraoperative registration
US6482182B1 (en) 1998-09-03 2002-11-19 Surgical Navigation Technologies, Inc. Anchoring system for a brain lead
US6266142B1 (en) * 1998-09-21 2001-07-24 The Texas A&M University System Noncontact position and orientation measurement system and method
US6195577B1 (en) * 1998-10-08 2001-02-27 Regents Of The University Of Minnesota Method and apparatus for positioning a device in a body
US6340363B1 (en) 1998-10-09 2002-01-22 Surgical Navigation Technologies, Inc. Image guided vertebral distractor and method for tracking the position of vertebrae
US6373240B1 (en) 1998-10-15 2002-04-16 Biosense, Inc. Metal immune system for tracking spatial coordinates of an object in the presence of a perturbed energy field
US6178358B1 (en) * 1998-10-27 2001-01-23 Hunter Engineering Company Three-dimensional virtual view wheel alignment display system
US6633686B1 (en) 1998-11-05 2003-10-14 Washington University Method and apparatus for image registration using large deformation diffeomorphisms on a sphere
JP4101951B2 (ja) * 1998-11-10 2008-06-18 オリンパス株式会社 手術用顕微鏡
US6201887B1 (en) * 1998-11-17 2001-03-13 General Electric Company System for determination of faulty circuit boards in ultrasound imaging machines
US6951535B2 (en) 2002-01-16 2005-10-04 Intuitive Surgical, Inc. Tele-medicine system that transmits an entire state of a subsystem
US6659939B2 (en) 1998-11-20 2003-12-09 Intuitive Surgical, Inc. Cooperative minimally invasive telesurgical system
US6398726B1 (en) 1998-11-20 2002-06-04 Intuitive Surgical, Inc. Stabilizer for robotic beating-heart surgery
US8527094B2 (en) 1998-11-20 2013-09-03 Intuitive Surgical Operations, Inc. Multi-user medical robotic system for collaboration or training in minimally invasive surgical procedures
US6852107B2 (en) 2002-01-16 2005-02-08 Computer Motion, Inc. Minimally invasive surgical training using robotics and tele-collaboration
US6246896B1 (en) 1998-11-24 2001-06-12 General Electric Company MRI guided ablation system
US6289233B1 (en) 1998-11-25 2001-09-11 General Electric Company High speed tracking of interventional devices using an MRI system
US6430434B1 (en) * 1998-12-14 2002-08-06 Integrated Surgical Systems, Inc. Method for determining the location and orientation of a bone for computer-assisted orthopedic procedures using intraoperatively attached markers
EP1650576A1 (de) 1998-12-23 2006-04-26 Peter D. Jakab Magnetresonanzscanner mit elektromagnetischer Positions- und Richtungsverfolgungsvorrichtung
AU2204200A (en) 1998-12-23 2000-07-31 Image Guided Technologies, Inc. A hybrid 3-d probe tracked by multiple sensors
AU2388100A (en) * 1998-12-23 2000-07-12 Peter D Jakab Magnetic resonance scanner with electromagnetic position and orientation tracking device
US6285902B1 (en) 1999-02-10 2001-09-04 Surgical Insights, Inc. Computer assisted targeting device for use in orthopaedic surgery
WO2000054687A1 (en) 1999-03-17 2000-09-21 Synthes Ag Chur Imaging and planning device for ligament graft placement
US6498477B1 (en) 1999-03-19 2002-12-24 Biosense, Inc. Mutual crosstalk elimination in medical systems using radiator coils and magnetic fields
US6470207B1 (en) 1999-03-23 2002-10-22 Surgical Navigation Technologies, Inc. Navigational guidance via computer-assisted fluoroscopic imaging
ES2327892T3 (es) * 1999-04-07 2009-11-05 Loma Linda University Medical Center Sistema de monitorizacion del movimiento del paciente para terapia de protones.
US6491699B1 (en) 1999-04-20 2002-12-10 Surgical Navigation Technologies, Inc. Instrument guidance method and system for image guided surgery
CA2370960C (en) 1999-04-20 2006-06-13 Synthes (U.S.A.) Device for the percutaneous obtainment of 3d-coordinates on the surface of a human or animal organ
WO2000064367A1 (en) * 1999-04-22 2000-11-02 Medtronic Surgical Navigation Technologies Apparatus and method for image guided surgery
WO2000066971A1 (de) * 1999-05-03 2000-11-09 Synthes Ag Chur Positionserfassungsvorrichtung mit hilfsmitteln zur ermittlung der richtung des schwerkraftvektors
US6393314B1 (en) 1999-05-06 2002-05-21 General Electric Company RF driven resistive ablation system for use in MRI guided therapy
GB2352289B (en) * 1999-07-14 2003-09-17 Dennis Majoe Position and orientation detection system
DE19936904A1 (de) * 1999-07-30 2001-02-01 Biotronik Mess & Therapieg Katheter
JP3608448B2 (ja) 1999-08-31 2005-01-12 株式会社日立製作所 治療装置
DE10040498A1 (de) 1999-09-07 2001-03-15 Zeiss Carl Fa Vorrichtung zur bildgestützten Bearbeitung eines Arbeitsobjekts
US6206891B1 (en) 1999-09-14 2001-03-27 Medeye Medical Technology Ltd. Device and method for calibration of a stereotactic localization system
US20040097996A1 (en) 1999-10-05 2004-05-20 Omnisonics Medical Technologies, Inc. Apparatus and method of removing occlusions using an ultrasonic medical device operating in a transverse mode
US11331150B2 (en) 1999-10-28 2022-05-17 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
US6493573B1 (en) 1999-10-28 2002-12-10 Winchester Development Associates Method and system for navigating a catheter probe in the presence of field-influencing objects
US6288785B1 (en) * 1999-10-28 2001-09-11 Northern Digital, Inc. System for determining spatial position and/or orientation of one or more objects
US6381485B1 (en) 1999-10-28 2002-04-30 Surgical Navigation Technologies, Inc. Registration of human anatomy integrated for electromagnetic localization
US6474341B1 (en) 1999-10-28 2002-11-05 Surgical Navigation Technologies, Inc. Surgical communication and power system
US6499488B1 (en) 1999-10-28 2002-12-31 Winchester Development Associates Surgical sensor
US6747539B1 (en) 1999-10-28 2004-06-08 Michael A. Martinelli Patient-shielding and coil system
US7366562B2 (en) 2003-10-17 2008-04-29 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
US6379302B1 (en) 1999-10-28 2002-04-30 Surgical Navigation Technologies Inc. Navigation information overlay onto ultrasound imagery
US6235038B1 (en) 1999-10-28 2001-05-22 Medtronic Surgical Navigation Technologies System for translation of electromagnetic and optical localization systems
US8644907B2 (en) 1999-10-28 2014-02-04 Medtronic Navigaton, Inc. Method and apparatus for surgical navigation
US8239001B2 (en) 2003-10-17 2012-08-07 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
AU1240801A (en) 1999-10-28 2001-05-08 Enterprise Medical Technology, Inc. Coil structures and methods for generating magnetic fields
US6671538B1 (en) * 1999-11-26 2003-12-30 Koninklijke Philips Electronics, N.V. Interface system for use with imaging devices to facilitate visualization of image-guided interventional procedure planning
US6290649B1 (en) * 1999-12-21 2001-09-18 General Electric Company Ultrasound position sensing probe
WO2001054579A1 (en) * 2000-01-10 2001-08-02 Super Dimension Ltd. Methods and systems for performing medical procedures with reference to projective images and with respect to pre-stored images
US20010034530A1 (en) 2000-01-27 2001-10-25 Malackowski Donald W. Surgery system
WO2001064124A1 (en) 2000-03-01 2001-09-07 Surgical Navigation Technologies, Inc. Multiple cannula image guided tool for image guided procedures
US6497134B1 (en) * 2000-03-15 2002-12-24 Image Guided Technologies, Inc. Calibration of an instrument
FR2807549B1 (fr) * 2000-04-06 2004-10-01 Ge Med Sys Global Tech Co Llc Procede de traitement d'une image et dispositif associe
US7366561B2 (en) * 2000-04-07 2008-04-29 Medtronic, Inc. Robotic trajectory guide
US6535756B1 (en) 2000-04-07 2003-03-18 Surgical Navigation Technologies, Inc. Trajectory storage apparatus and method for surgical navigation system
US7660621B2 (en) 2000-04-07 2010-02-09 Medtronic, Inc. Medical device introducer
JP3780146B2 (ja) * 2000-04-12 2006-05-31 オリンパス株式会社 手術ナビゲーション装置
US20030135102A1 (en) * 2000-05-18 2003-07-17 Burdette Everette C. Method and system for registration and guidance of intravascular treatment
JP4634570B2 (ja) * 2000-06-05 2011-02-16 株式会社東芝 Mri装置
US6478802B2 (en) 2000-06-09 2002-11-12 Ge Medical Systems Global Technology Company, Llc Method and apparatus for display of an image guided drill bit
JP2001356011A (ja) * 2000-06-13 2001-12-26 National Institute Of Advanced Industrial & Technology 直動体の真直度計測装置
US7085400B1 (en) 2000-06-14 2006-08-01 Surgical Navigation Technologies, Inc. System and method for image based sensor calibration
US6484118B1 (en) 2000-07-20 2002-11-19 Biosense, Inc. Electromagnetic position single axis system
US6902569B2 (en) * 2000-08-17 2005-06-07 Image-Guided Neurologics, Inc. Trajectory guide with instrument immobilizer
US6823207B1 (en) 2000-08-26 2004-11-23 Ge Medical Systems Global Technology Company, Llc Integrated fluoroscopic surgical navigation and imaging workstation with command protocol
EP1315465A2 (de) 2000-09-07 2003-06-04 Cbyon, Inc. System und verfahren zur virtuellen fluoroskopie
AU2001292836A1 (en) 2000-09-23 2002-04-02 The Board Of Trustees Of The Leland Stanford Junior University Endoscopic targeting method and system
US7194296B2 (en) * 2000-10-31 2007-03-20 Northern Digital Inc. Flexible instrument with optical sensors
DE60043788D1 (de) * 2000-11-17 2010-03-18 Calypso Medical Inc System zur lokalisierung und definition einer zielposition in einem menschlichen körper
US6718194B2 (en) * 2000-11-17 2004-04-06 Ge Medical Systems Global Technology Company, Llc Computer assisted intramedullary rod surgery system with enhanced features
NO315143B1 (no) * 2000-11-24 2003-07-21 Neorad As Apparat for lysstråle-ledet biopsi
EP2441394B1 (de) 2000-11-28 2017-04-05 Intuitive Surgical Operations, Inc. Irrigator für ein endoskopisches Instrument
US6820614B2 (en) * 2000-12-02 2004-11-23 The Bonutti 2003 Trust -A Tracheal intubination
US6757416B2 (en) 2000-12-04 2004-06-29 Ge Medical Systems Global Technology Company, Llc Display of patient image data
US6591160B2 (en) 2000-12-04 2003-07-08 Asyst Technologies, Inc. Self teaching robot
JP4467237B2 (ja) 2000-12-08 2010-05-26 ローマ リンダ ユニヴァーシティ メディカル センター 陽子線治療制御システム
EP1216651A1 (de) * 2000-12-21 2002-06-26 BrainLAB AG Kabelloses medizinisches Erfassungs- und Behandlungssystem
US20020149628A1 (en) * 2000-12-22 2002-10-17 Smith Jeffrey C. Positioning an item in three dimensions via a graphical representation
DE10103870B4 (de) * 2001-01-30 2004-02-05 Daimlerchrysler Ag Verfahren zur Bilderkennung bei Kraftfahrzeugen
DE10108139A1 (de) * 2001-02-20 2002-08-29 Boegl Max Bauunternehmung Gmbh Verfahren zur Vermessung und/oder Bearbeitung eines Werkstücks
DE10108547B4 (de) * 2001-02-22 2006-04-20 Siemens Ag Operationssystem zur Steuerung chirurgischer Instrumente auf Basis von intra-operativen Röngtenbildern
US20020131643A1 (en) * 2001-03-13 2002-09-19 Fels Sol Sidney Local positioning system
US6695786B2 (en) 2001-03-16 2004-02-24 U-Systems, Inc. Guide and position monitor for invasive medical instrument
JP2004523331A (ja) * 2001-04-10 2004-08-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ コーンビームを用いるx線透視インターベンション方法
US20020165524A1 (en) 2001-05-01 2002-11-07 Dan Sanchez Pivot point arm for a robotic system used to perform a surgical procedure
US7457443B2 (en) * 2001-05-31 2008-11-25 Image Navigation Ltd. Image guided implantology methods
US6636757B1 (en) 2001-06-04 2003-10-21 Surgical Navigation Technologies, Inc. Method and apparatus for electromagnetic navigation of a surgical probe near a metal object
US20020193685A1 (en) * 2001-06-08 2002-12-19 Calypso Medical, Inc. Guided Radiation Therapy System
US6887245B2 (en) * 2001-06-11 2005-05-03 Ge Medical Systems Global Technology Company, Llc Surgical drill for use with a computer assisted surgery system
DE10136709B4 (de) 2001-07-27 2004-09-02 Siemens Ag Vorrichtung zum Durchführen von operativen Eingriffen sowie Verfahren zum Darstellen von Bildinformationen während eines solchen Eingriffs an einem Patienten
ITMI20011635A1 (it) * 2001-07-27 2003-01-27 G D S Giorgi Dynamic Stereotax Dispositivo e procedimento di microchirurgia assistita dall'elaboratore
US6730926B2 (en) 2001-09-05 2004-05-04 Servo-Robot Inc. Sensing head and apparatus for determining the position and orientation of a target object
DE10143561B4 (de) * 2001-09-05 2011-12-15 Eads Deutschland Gmbh Verfahren und System zur Lokalisierung von Emittern
US6728599B2 (en) 2001-09-07 2004-04-27 Computer Motion, Inc. Modularity system for computer assisted surgery
US7135978B2 (en) * 2001-09-14 2006-11-14 Calypso Medical Technologies, Inc. Miniature resonating marker assembly
WO2003026505A1 (fr) * 2001-09-19 2003-04-03 Hitachi Medical Corporation Outil de traitement et imageur a resonance magnetique
US6587750B2 (en) 2001-09-25 2003-07-01 Intuitive Surgical, Inc. Removable infinite roll master grip handle and touch sensor for robotic surgery
AU2002337745A1 (en) * 2001-09-28 2003-04-14 University Of North Carolina At Chapel Hill Methods and systems for three-dimensional motion control and tracking of a mechanically unattached magnetic probe
EP1460938A4 (de) 2001-11-05 2006-07-26 Computerized Med Syst Inc Vorrichtung und verfahren zum anzeigen, führen und abzielen einer externen strahlentherapie
JP3982247B2 (ja) * 2001-12-06 2007-09-26 株式会社デンソー 車両用発電機の制御装置
US6793653B2 (en) 2001-12-08 2004-09-21 Computer Motion, Inc. Multifunctional handle for a medical robotic system
US6822570B2 (en) 2001-12-20 2004-11-23 Calypso Medical Technologies, Inc. System for spatially adjustable excitation of leadless miniature marker
US6838990B2 (en) 2001-12-20 2005-01-04 Calypso Medical Technologies, Inc. System for excitation leadless miniature marker
US6812842B2 (en) 2001-12-20 2004-11-02 Calypso Medical Technologies, Inc. System for excitation of a leadless miniature marker
US7715602B2 (en) * 2002-01-18 2010-05-11 Orthosoft Inc. Method and apparatus for reconstructing bone surfaces during surgery
EP1330992A1 (de) * 2002-01-23 2003-07-30 Stiftung für Plastische und Aesthetische Wundheilung im Sondervermögen der DT Deutschen Stiftungstreuhend AG Vorrichtung und Verfahren zur räumlichen Bestimmung einer Position eines Instrumentes an einem Gegenstand
US6947786B2 (en) 2002-02-28 2005-09-20 Surgical Navigation Technologies, Inc. Method and apparatus for perspective inversion
DE10210645B4 (de) * 2002-03-11 2006-04-13 Siemens Ag Verfahren zur Erfassung und Darstellung eines in einen Untersuchungsbereich eines Patienten eingeführten medizinischen Katheters
US6990368B2 (en) 2002-04-04 2006-01-24 Surgical Navigation Technologies, Inc. Method and apparatus for virtual digital subtraction angiography
US7010759B2 (en) * 2002-04-05 2006-03-07 U-Tech Enviromental Manufacturing Supply, Inc. Method for real time display of maintenance device location in an internal space
US7998062B2 (en) 2004-03-29 2011-08-16 Superdimension, Ltd. Endoscope structures and techniques for navigating to a target in branched structure
AR039475A1 (es) * 2002-05-01 2005-02-23 Wyeth Corp 6-alquiliden-penems triciclicos como inhibidores de beta-lactamasa
WO2004012599A1 (en) * 2002-07-29 2004-02-12 Omnisonics Medical Technologies, Inc. Radiopaque coating for an ultrasonic medical device
US7187800B2 (en) * 2002-08-02 2007-03-06 Computerized Medical Systems, Inc. Method and apparatus for image segmentation using Jensen-Shannon divergence and Jensen-Renyi divergence
EP1631191A4 (de) * 2002-08-06 2009-04-22 Stereotaxis Inc Virtuelle geräteschnittstellensteuerung für medizinische geräte
US6741364B2 (en) * 2002-08-13 2004-05-25 Harris Corporation Apparatus for determining relative positioning of objects and related methods
US7428061B2 (en) * 2002-08-14 2008-09-23 Metris Ipr N.V. Optical probe for scanning the features of an object and methods thereof
US7009717B2 (en) * 2002-08-14 2006-03-07 Metris N.V. Optical probe for scanning the features of an object and methods therefor
US6892090B2 (en) 2002-08-19 2005-05-10 Surgical Navigation Technologies, Inc. Method and apparatus for virtual endoscopy
US7317819B2 (en) * 2002-08-28 2008-01-08 Imaging3, Inc. Apparatus and method for three-dimensional imaging
EP1542591A2 (de) * 2002-08-29 2005-06-22 Computerized Medical Systems, Inc. Verfahren und systeme zur lokalisierung einer medizinischen darstellungssonde und für die räumliche registrierung und verfolgung einer biopsienadel bei einer gewebebiopsie
US7794230B2 (en) * 2002-09-10 2010-09-14 University Of Vermont And State Agricultural College Mathematical circulatory system model
US7704260B2 (en) 2002-09-17 2010-04-27 Medtronic, Inc. Low profile instrument immobilizer
US7166114B2 (en) * 2002-09-18 2007-01-23 Stryker Leibinger Gmbh & Co Kg Method and system for calibrating a surgical tool and adapter thereof
WO2004046754A2 (en) * 2002-11-14 2004-06-03 General Electric Medical Systems Global Technology Company, Llc Interchangeable localizing devices for use with tracking systems
US7599730B2 (en) 2002-11-19 2009-10-06 Medtronic Navigation, Inc. Navigation system for cardiac therapies
US7697972B2 (en) 2002-11-19 2010-04-13 Medtronic Navigation, Inc. Navigation system for cardiac therapies
US7945309B2 (en) 2002-11-22 2011-05-17 Biosense, Inc. Dynamic metal immunity
US7636596B2 (en) * 2002-12-20 2009-12-22 Medtronic, Inc. Organ access device and method
US20040176686A1 (en) * 2002-12-23 2004-09-09 Omnisonics Medical Technologies, Inc. Apparatus and method for ultrasonic medical device with improved visibility in imaging procedures
WO2004058074A1 (en) 2002-12-23 2004-07-15 Omnisonics Medical Technologies, Inc. Apparatus and method for ultrasonic medical device with improved visibility in imaging procedures
WO2004057450A1 (en) * 2002-12-23 2004-07-08 Universita' Degli Studi Di Firenze Hand pointing apparatus
JP2004208858A (ja) * 2002-12-27 2004-07-29 Toshiba Corp 超音波診断装置及び超音波画像処理装置
US6889833B2 (en) 2002-12-30 2005-05-10 Calypso Medical Technologies, Inc. Packaged systems for implanting markers in a patient and methods for manufacturing and using such systems
US7289839B2 (en) * 2002-12-30 2007-10-30 Calypso Medical Technologies, Inc. Implantable marker with a leadless signal transmitter compatible for use in magnetic resonance devices
US6877634B2 (en) * 2002-12-31 2005-04-12 Kimberly-Clark Worldwide, Inc. High capacity dispensing carton
US6822244B2 (en) * 2003-01-02 2004-11-23 Loma Linda University Medical Center Configuration management and retrieval system for proton beam therapy system
US7660623B2 (en) * 2003-01-30 2010-02-09 Medtronic Navigation, Inc. Six degree of freedom alignment display for medical procedures
US7542791B2 (en) 2003-01-30 2009-06-02 Medtronic Navigation, Inc. Method and apparatus for preplanning a surgical procedure
US7111401B2 (en) * 2003-02-04 2006-09-26 Eveready Battery Company, Inc. Razor head having skin controlling means
US20040152955A1 (en) * 2003-02-04 2004-08-05 Mcginley Shawn E. Guidance system for rotary surgical instrument
US7458977B2 (en) 2003-02-04 2008-12-02 Zimmer Technology, Inc. Surgical navigation instrument useful in marking anatomical structures
US20040171930A1 (en) * 2003-02-04 2004-09-02 Zimmer Technology, Inc. Guidance system for rotary surgical instrument
US7896889B2 (en) * 2003-02-20 2011-03-01 Medtronic, Inc. Trajectory guide with angled or patterned lumens or height adjustment
US7559935B2 (en) * 2003-02-20 2009-07-14 Medtronic, Inc. Target depth locators for trajectory guide for introducing an instrument
US7119645B2 (en) 2003-02-25 2006-10-10 The University Of North Carolina Methods and systems for controlling motion of and tracking a mechanically unattached probe
WO2004078039A1 (en) * 2003-03-07 2004-09-16 Philips Intellectual Property & Standards Gmbh Device and method for locating an instrument within a body
US7974680B2 (en) 2003-05-29 2011-07-05 Biosense, Inc. Hysteresis assessment for metal immunity
US7433728B2 (en) 2003-05-29 2008-10-07 Biosense, Inc. Dynamic metal immunity by hysteresis
US6932823B2 (en) * 2003-06-24 2005-08-23 Zimmer Technology, Inc. Detachable support arm for surgical navigation system reference array
AU2004203173A1 (en) * 2003-07-14 2005-02-03 Sunnybrook And Women's College And Health Sciences Centre Optical image-based position tracking for magnetic resonance imaging
US8403828B2 (en) * 2003-07-21 2013-03-26 Vanderbilt University Ophthalmic orbital surgery apparatus and method and image-guide navigation system
US7313430B2 (en) 2003-08-28 2007-12-25 Medtronic Navigation, Inc. Method and apparatus for performing stereotactic surgery
US7633633B2 (en) * 2003-08-29 2009-12-15 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Position determination that is responsive to a retro-reflective object
US20050054895A1 (en) * 2003-09-09 2005-03-10 Hoeg Hans David Method for using variable direction of view endoscopy in conjunction with image guided surgical systems
WO2005025635A2 (en) 2003-09-15 2005-03-24 Super Dimension Ltd. System of accessories for use with bronchoscopes
EP2316328B1 (de) 2003-09-15 2012-05-09 Super Dimension Ltd. Umhüllungsvorrichtung zur Fixierung von Bronchoskopen
US7862570B2 (en) 2003-10-03 2011-01-04 Smith & Nephew, Inc. Surgical positioners
GB0324179D0 (en) * 2003-10-15 2003-11-19 Isis Innovation Device for scanning three-dimensional objects
US7835778B2 (en) 2003-10-16 2010-11-16 Medtronic Navigation, Inc. Method and apparatus for surgical navigation of a multiple piece construct for implantation
US7840253B2 (en) 2003-10-17 2010-11-23 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
US7764985B2 (en) 2003-10-20 2010-07-27 Smith & Nephew, Inc. Surgical navigation system component fault interfaces and related processes
EP1691692B1 (de) 2003-11-14 2011-01-19 Smith & Nephew, Inc. Verstellbare chirurgische schneidesysteme
US7000948B2 (en) * 2003-11-20 2006-02-21 Delphi Technologies, Inc. Internally tethered seat bladder for occupant weight estimation
US7232409B2 (en) * 2003-11-20 2007-06-19 Karl Storz Development Corp. Method and apparatus for displaying endoscopic images
US6950775B2 (en) * 2003-12-01 2005-09-27 Snap-On Incorporated Coordinate measuring system and field-of-view indicators therefor
US7376492B2 (en) * 2003-12-04 2008-05-20 Matrix Electronic Measuring, L.P. System for measuring points on a vehicle during damage repair
US7120524B2 (en) * 2003-12-04 2006-10-10 Matrix Electronic Measuring, L.P. System for measuring points on a vehicle during damage repair
US7873400B2 (en) 2003-12-10 2011-01-18 Stryker Leibinger Gmbh & Co. Kg. Adapter for surgical navigation trackers
US7771436B2 (en) * 2003-12-10 2010-08-10 Stryker Leibinger Gmbh & Co. Kg. Surgical navigation tracker, system and method
US8196589B2 (en) * 2003-12-24 2012-06-12 Calypso Medical Technologies, Inc. Implantable marker with wireless signal transmitter
US7787936B2 (en) 2004-01-23 2010-08-31 Traxyz Medical, Inc. Methods and apparatus for performing procedures on target locations in the body
US7015376B2 (en) * 2004-01-30 2006-03-21 Pioneer Hi-Bred International, Inc. Soybean variety 95M80
US20060036162A1 (en) * 2004-02-02 2006-02-16 Ramin Shahidi Method and apparatus for guiding a medical instrument to a subsurface target site in a patient
US7794414B2 (en) 2004-02-09 2010-09-14 Emigrant Bank, N.A. Apparatus and method for an ultrasonic medical device operating in torsional and transverse modes
US8764725B2 (en) 2004-02-09 2014-07-01 Covidien Lp Directional anchoring mechanism, method and applications thereof
US20050182420A1 (en) 2004-02-13 2005-08-18 Schulte Gregory T. Low profile apparatus for securing a therapy delivery device within a burr hole
US20050215888A1 (en) * 2004-03-05 2005-09-29 Grimm James E Universal support arm and tracking array
US20060052691A1 (en) * 2004-03-05 2006-03-09 Hall Maleata Y Adjustable navigated tracking element mount
US9033871B2 (en) 2004-04-07 2015-05-19 Karl Storz Imaging, Inc. Gravity referenced endoscopic image orientation
WO2005104978A1 (en) 2004-04-21 2005-11-10 Smith & Nephew, Inc. Computer-aided methods, systems, and apparatuses for shoulder arthroplasty
US7567834B2 (en) 2004-05-03 2009-07-28 Medtronic Navigation, Inc. Method and apparatus for implantation between two vertebral bodies
US20050256689A1 (en) * 2004-05-13 2005-11-17 Conceptual Assets, Inc. Method and system for measuring attributes on a three-dimenslonal object
US20050288574A1 (en) * 2004-06-23 2005-12-29 Thornton Thomas M Wireless (disposable) fiducial based registration and EM distoration based surface registration
WO2006020187A2 (en) * 2004-07-16 2006-02-23 The University Of North Carolina At Chapel Hill Methods, systems and computer program products for full spectrum projection
US7776055B2 (en) * 2004-07-19 2010-08-17 General Electric Company System and method for tracking progress of insertion of a rod in a bone
JP2008507367A (ja) 2004-07-23 2008-03-13 カリプソー メディカル テクノロジーズ インコーポレイテッド 患者内のターゲットを治療するための統合放射線治療システム及び方法
US8290570B2 (en) * 2004-09-10 2012-10-16 Stryker Leibinger Gmbh & Co., Kg System for ad hoc tracking of an object
US8007448B2 (en) * 2004-10-08 2011-08-30 Stryker Leibinger Gmbh & Co. Kg. System and method for performing arthroplasty of a joint and tracking a plumb line plane
FR2878615B1 (fr) 2004-11-30 2009-09-25 Raquin Cyrille Systeme de simulation de tir ou de lancement de projectile a l'aide d'un objet ou lanceur specifique
US7744606B2 (en) * 2004-12-04 2010-06-29 Medtronic, Inc. Multi-lumen instrument guide
US7497863B2 (en) * 2004-12-04 2009-03-03 Medtronic, Inc. Instrument guiding stage apparatus and method for using same
US7621874B2 (en) * 2004-12-14 2009-11-24 Scimed Life Systems, Inc. Systems and methods for improved three-dimensional imaging of a body lumen
CN101084528B (zh) * 2004-12-20 2011-09-14 皇家飞利浦电子股份有限公司 用于集成可移动人体的医疗诊断信息和几何模型的方法、系统
US8812096B2 (en) 2005-01-10 2014-08-19 Braingate Co., Llc Biological interface system with patient training apparatus
US20060161059A1 (en) * 2005-01-20 2006-07-20 Zimmer Technology, Inc. Variable geometry reference array
US7623250B2 (en) * 2005-02-04 2009-11-24 Stryker Leibinger Gmbh & Co. Kg. Enhanced shape characterization device and method
US7967742B2 (en) * 2005-02-14 2011-06-28 Karl Storz Imaging, Inc. Method for using variable direction of view endoscopy in conjunction with image guided surgical systems
JP2008531091A (ja) 2005-02-22 2008-08-14 スミス アンド ネフュー インコーポレーテッド 直列型ミリングシステム
JP4417877B2 (ja) * 2005-04-20 2010-02-17 株式会社セブンスディメンジョンデザイン 光送受信装置制御システム
US8208988B2 (en) * 2005-05-13 2012-06-26 General Electric Company System and method for controlling a medical imaging device
US8971597B2 (en) 2005-05-16 2015-03-03 Intuitive Surgical Operations, Inc. Efficient vision and kinematic data fusion for robotic surgical instruments and other applications
US9492240B2 (en) 2009-06-16 2016-11-15 Intuitive Surgical Operations, Inc. Virtual measurement tool for minimally invasive surgery
US9289267B2 (en) * 2005-06-14 2016-03-22 Siemens Medical Solutions Usa, Inc. Method and apparatus for minimally invasive surgery using endoscopes
US8784336B2 (en) 2005-08-24 2014-07-22 C. R. Bard, Inc. Stylet apparatuses and methods of manufacture
US7835784B2 (en) 2005-09-21 2010-11-16 Medtronic Navigation, Inc. Method and apparatus for positioning a reference frame
US20070078678A1 (en) * 2005-09-30 2007-04-05 Disilvestro Mark R System and method for performing a computer assisted orthopaedic surgical procedure
US7713471B2 (en) * 2005-10-31 2010-05-11 Codman Neuro Sciences Sarl System for protecting circuitry in high-temperature environments
US20070179626A1 (en) * 2005-11-30 2007-08-02 De La Barrera Jose L M Functional joint arthroplasty method
US20070156126A1 (en) * 2005-12-29 2007-07-05 Flaherty J C Medical device insertion system and related methods
US20100023021A1 (en) * 2005-12-27 2010-01-28 Flaherty J Christopher Biological Interface and Insertion
US7525309B2 (en) 2005-12-30 2009-04-28 Depuy Products, Inc. Magnetic sensor array
US8862200B2 (en) 2005-12-30 2014-10-14 DePuy Synthes Products, LLC Method for determining a position of a magnetic source
US9168102B2 (en) 2006-01-18 2015-10-27 Medtronic Navigation, Inc. Method and apparatus for providing a container to a sterile environment
US20070239153A1 (en) * 2006-02-22 2007-10-11 Hodorek Robert A Computer assisted surgery system using alternative energy technology
US7353134B2 (en) * 2006-03-09 2008-04-01 Dean A. Cirielli Three-dimensional position and motion telemetry input
US8112292B2 (en) 2006-04-21 2012-02-07 Medtronic Navigation, Inc. Method and apparatus for optimizing a therapy
EP1854425A1 (de) * 2006-05-11 2007-11-14 BrainLAB AG Medizintechnische Positionsbestimmung mit redundanten Positionserfassungseinrichtungen und Prioritätsgewichtung für die Positionserfassungseinrichtungen
US8121361B2 (en) 2006-05-19 2012-02-21 The Queen's Medical Center Motion tracking system for real time adaptive imaging and spectroscopy
US8635082B2 (en) 2006-05-25 2014-01-21 DePuy Synthes Products, LLC Method and system for managing inventories of orthopaedic implants
US8560047B2 (en) * 2006-06-16 2013-10-15 Board Of Regents Of The University Of Nebraska Method and apparatus for computer aided surgery
US7728868B2 (en) 2006-08-02 2010-06-01 Inneroptic Technology, Inc. System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities
US8565853B2 (en) * 2006-08-11 2013-10-22 DePuy Synthes Products, LLC Simulated bone or tissue manipulation
US20080125630A1 (en) * 2006-09-11 2008-05-29 Caylor Edward J System and method for determining a location of an orthopaedic medical device
US8660635B2 (en) 2006-09-29 2014-02-25 Medtronic, Inc. Method and apparatus for optimizing a computer assisted surgical procedure
ATE497729T1 (de) * 2006-10-02 2011-02-15 Hansen Medical Inc System für dreidimensionale ultraschall-abbildung
US7256899B1 (en) 2006-10-04 2007-08-14 Ivan Faul Wireless methods and systems for three-dimensional non-contact shape sensing
US7794407B2 (en) 2006-10-23 2010-09-14 Bard Access Systems, Inc. Method of locating the tip of a central venous catheter
US8388546B2 (en) 2006-10-23 2013-03-05 Bard Access Systems, Inc. Method of locating the tip of a central venous catheter
US20080107305A1 (en) * 2006-11-02 2008-05-08 Northern Digital Inc. Integrated mapping system
US8068648B2 (en) * 2006-12-21 2011-11-29 Depuy Products, Inc. Method and system for registering a bone of a patient with a computer assisted orthopaedic surgery system
US8490469B2 (en) * 2007-02-22 2013-07-23 The University Of North Carolina Methods and systems for multiforce high throughput screening
DE102007009764A1 (de) * 2007-02-27 2008-08-28 Siemens Ag Verfahren und Vorrichtung zur visuellen Unterstützung einer Katheteranwendung
US20080221733A1 (en) * 2007-03-07 2008-09-11 Kmt Robotic Solutions, Inc. System and method of locating relative positions of objects
US8816959B2 (en) 2007-04-03 2014-08-26 General Electric Company Method and apparatus for obtaining and/or analyzing anatomical images
US20080260095A1 (en) * 2007-04-16 2008-10-23 Predrag Sukovic Method and apparatus to repeatably align a ct scanner
US20090003528A1 (en) 2007-06-19 2009-01-01 Sankaralingam Ramraj Target location by tracking of imaging device
US9883818B2 (en) 2007-06-19 2018-02-06 Accuray Incorporated Fiducial localization
TW200907764A (en) * 2007-08-01 2009-02-16 Unique Instr Co Ltd Three-dimensional virtual input and simulation apparatus
JP2009056299A (ja) 2007-08-07 2009-03-19 Stryker Leibinger Gmbh & Co Kg 外科手術をプランニングするための方法及びシステム
US20090060372A1 (en) * 2007-08-27 2009-03-05 Riverain Medical Group, Llc Object removal from images
US9965838B2 (en) * 2007-09-17 2018-05-08 Koninklijke Philips N.V. Caliper for measuring objects in an image
US8905920B2 (en) 2007-09-27 2014-12-09 Covidien Lp Bronchoscope adapter and method
US8265949B2 (en) 2007-09-27 2012-09-11 Depuy Products, Inc. Customized patient surgical plan
EP2957240A1 (de) 2007-09-30 2015-12-23 DePuy Products, Inc. Massgeschneidertes patientespezifisches orthopädisches chirurgisches instrument
CN101925333B (zh) 2007-11-26 2014-02-12 C·R·巴德股份有限公司 用于脉管系统内的导管放置的集成系统
US9521961B2 (en) 2007-11-26 2016-12-20 C. R. Bard, Inc. Systems and methods for guiding a medical instrument
US8849382B2 (en) 2007-11-26 2014-09-30 C. R. Bard, Inc. Apparatus and display methods relating to intravascular placement of a catheter
US9649048B2 (en) 2007-11-26 2017-05-16 C. R. Bard, Inc. Systems and methods for breaching a sterile field for intravascular placement of a catheter
US10449330B2 (en) 2007-11-26 2019-10-22 C. R. Bard, Inc. Magnetic element-equipped needle assemblies
US9636031B2 (en) 2007-11-26 2017-05-02 C.R. Bard, Inc. Stylets for use with apparatus for intravascular placement of a catheter
US8781555B2 (en) 2007-11-26 2014-07-15 C. R. Bard, Inc. System for placement of a catheter including a signal-generating stylet
US10524691B2 (en) 2007-11-26 2020-01-07 C. R. Bard, Inc. Needle assembly including an aligned magnetic element
US10751509B2 (en) 2007-11-26 2020-08-25 C. R. Bard, Inc. Iconic representations for guidance of an indwelling medical device
US10105168B2 (en) 2008-01-09 2018-10-23 Stryker European Holdings I, Llc Stereotactic computer assisted surgery based on three-dimensional visualization
WO2009094646A2 (en) 2008-01-24 2009-07-30 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for image guided ablation
US8478382B2 (en) 2008-02-11 2013-07-02 C. R. Bard, Inc. Systems and methods for positioning a catheter
US8340379B2 (en) * 2008-03-07 2012-12-25 Inneroptic Technology, Inc. Systems and methods for displaying guidance data based on updated deformable imaging data
US9575140B2 (en) 2008-04-03 2017-02-21 Covidien Lp Magnetic interference detection system and method
TR201901658T4 (tr) 2008-05-20 2019-02-21 Univ Health Network Floresan bazli görüntüleme ve i̇zleme i̇çi̇n ci̇haz ve metot
US8345953B2 (en) 2008-05-22 2013-01-01 Matrix Electronic Measuring Properties, Llc Stereoscopic measurement system and method
US8326022B2 (en) 2008-05-22 2012-12-04 Matrix Electronic Measuring Properties, Llc Stereoscopic measurement system and method
US9449378B2 (en) 2008-05-22 2016-09-20 Matrix Electronic Measuring Properties, Llc System and method for processing stereoscopic vehicle information
US8249332B2 (en) * 2008-05-22 2012-08-21 Matrix Electronic Measuring Properties Llc Stereoscopic measurement system and method
EP2297673B1 (de) 2008-06-03 2020-04-22 Covidien LP Registrationsverfahren auf merkmalbasis
EP2293720B1 (de) 2008-06-05 2021-02-24 Varian Medical Systems, Inc. Bewegungskompensierung für die medizinische bildgebung und relevante systeme und verfahren
US8218847B2 (en) 2008-06-06 2012-07-10 Superdimension, Ltd. Hybrid registration method
US8086026B2 (en) * 2008-06-27 2011-12-27 Waldean Schulz Method and system for the determination of object positions in a volume
US8932207B2 (en) 2008-07-10 2015-01-13 Covidien Lp Integrated multi-functional endoscopic tool
US9901714B2 (en) 2008-08-22 2018-02-27 C. R. Bard, Inc. Catheter assembly including ECG sensor and magnetic assemblies
US8551074B2 (en) 2008-09-08 2013-10-08 Bayer Pharma AG Connector system having a compressible sealing element and a flared fluid path element
US20100076721A1 (en) * 2008-09-23 2010-03-25 Crucial Innovation, Inc. Dynamic Sizing Apparatus, System, and Method of Using the Same
GB2464092A (en) 2008-09-25 2010-04-07 Prosurgics Ltd Surgical mechanism control system
US8165658B2 (en) 2008-09-26 2012-04-24 Medtronic, Inc. Method and apparatus for positioning a guide relative to a base
US8437833B2 (en) 2008-10-07 2013-05-07 Bard Access Systems, Inc. Percutaneous magnetic gastrostomy
WO2010048475A1 (en) * 2008-10-23 2010-04-29 Immersion Corporation Systems and methods for ultrasound simulation using depth peeling
US20100103432A1 (en) * 2008-10-27 2010-04-29 Mcginnis William J Positioning system and method of using same
US8175681B2 (en) 2008-12-16 2012-05-08 Medtronic Navigation Inc. Combination of electromagnetic and electropotential localization
DE102008064105A1 (de) * 2008-12-19 2010-07-08 Siemens Aktiengesellschaft Vorrichtung zur Positionsbestimmung von wenigstens einer an einer Patientenliege einer Magnetresonanzeinrichtung angeordneten oder anzuordnenden Lokalspule, Magnetresonanzanlage mit einer solchen Vorrichtung und zugehöriges Verfahren
US8830224B2 (en) 2008-12-31 2014-09-09 Intuitive Surgical Operations, Inc. Efficient 3-D telestration for local robotic proctoring
US8632448B1 (en) 2009-02-05 2014-01-21 Loma Linda University Medical Center Proton scattering analysis system
US10575979B2 (en) 2009-02-06 2020-03-03 Jamshid Ghajar Subject-mounted device to measure relative motion of human joints
US8834394B2 (en) * 2009-02-06 2014-09-16 Jamshid Ghajar Apparatus and methods for reducing brain and cervical spine injury
US11464578B2 (en) 2009-02-17 2022-10-11 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
US8554307B2 (en) 2010-04-12 2013-10-08 Inneroptic Technology, Inc. Image annotation in image-guided medical procedures
US8641621B2 (en) 2009-02-17 2014-02-04 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
US8690776B2 (en) 2009-02-17 2014-04-08 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image guided surgery
US8611984B2 (en) 2009-04-08 2013-12-17 Covidien Lp Locatable catheter
KR101019189B1 (ko) 2009-04-28 2011-03-04 삼성중공업 주식회사 위치 계측 방법 및 위치 계측 장치
US9439735B2 (en) 2009-06-08 2016-09-13 MRI Interventions, Inc. MRI-guided interventional systems that can track and generate dynamic visualizations of flexible intrabody devices in near real time
US9532724B2 (en) 2009-06-12 2017-01-03 Bard Access Systems, Inc. Apparatus and method for catheter navigation using endovascular energy mapping
JP5795576B2 (ja) 2009-06-12 2015-10-14 バード・アクセス・システムズ,インコーポレーテッド 心電図(ecg)信号を使用して心臓内またはその近くに血管内デバイスを位置決めするコンピュータベースの医療機器の作動方法
US8396532B2 (en) 2009-06-16 2013-03-12 MRI Interventions, Inc. MRI-guided devices and MRI-guided interventional systems that can track and generate dynamic visualizations of the devices in near real time
US9155592B2 (en) * 2009-06-16 2015-10-13 Intuitive Surgical Operations, Inc. Virtual measurement tool for minimally invasive surgery
JP5511949B2 (ja) 2009-06-25 2014-06-04 ザ ユニバーシティ オブ ノース カロライナ アット チャペル ヒル 体液レオロジーを評価するための、作動され表面に付着したポストを使用するための方法及びシステム
WO2011019760A2 (en) 2009-08-10 2011-02-17 Romedex International Srl Devices and methods for endovascular electrography
US8494614B2 (en) 2009-08-31 2013-07-23 Regents Of The University Of Minnesota Combination localization system
US8494613B2 (en) 2009-08-31 2013-07-23 Medtronic, Inc. Combination localization system
US20130053657A1 (en) * 2009-09-28 2013-02-28 Illuminare Holdings Ltd. Intravaginal monitoring device and network
US8669533B2 (en) 2009-10-01 2014-03-11 Vladimir Bashkirov Ion induced impact ionization detector and uses thereof
US10639008B2 (en) 2009-10-08 2020-05-05 C. R. Bard, Inc. Support and cover structures for an ultrasound probe head
US11103213B2 (en) 2009-10-08 2021-08-31 C. R. Bard, Inc. Spacers for use with an ultrasound probe
US8319687B2 (en) * 2009-12-09 2012-11-27 Trimble Navigation Limited System for determining position in a work space
US8237786B2 (en) * 2009-12-23 2012-08-07 Applied Precision, Inc. System and method for dense-stochastic-sampling imaging
EP2531098B1 (de) 2010-02-02 2020-07-15 C.R. Bard, Inc. Vorrichtung und verfahren für katheternavigation und spitzenauffindung
US9207193B2 (en) * 2010-02-12 2015-12-08 Loma Linda University Medical Center Systems and methodologies for proton computed tomography
US10588647B2 (en) 2010-03-01 2020-03-17 Stryker European Holdings I, Llc Computer assisted surgery system
US8749797B1 (en) 2010-03-02 2014-06-10 Advanced Optical Systems Inc. System and method for remotely determining position and orientation of an object
US8643850B1 (en) 2010-03-02 2014-02-04 Richard L. Hartman Automated system for load acquisition and engagement
WO2011150376A1 (en) 2010-05-28 2011-12-01 C.R. Bard, Inc. Apparatus for use with needle insertion guidance system
MX2012013858A (es) 2010-05-28 2013-04-08 Bard Inc C R Sistema de guia de insercion para agujas y componentes medicos.
WO2011159834A1 (en) 2010-06-15 2011-12-22 Superdimension, Ltd. Locatable expandable working channel and method
CN103002819B (zh) 2010-07-16 2015-05-13 史塞克创伤有限责任公司 外科手术瞄准系统和方法
MX338127B (es) 2010-08-20 2016-04-04 Bard Inc C R Reconfirmacion de colocacion de una punta de cateter asistida por ecg.
US8425425B2 (en) * 2010-09-20 2013-04-23 M. Dexter Hagy Virtual image formation method for an ultrasound device
US8657809B2 (en) 2010-09-29 2014-02-25 Stryker Leibinger Gmbh & Co., Kg Surgical navigation system
CN103189009B (zh) 2010-10-29 2016-09-07 C·R·巴德股份有限公司 医疗设备的生物阻抗辅助放置
US20120127012A1 (en) * 2010-11-24 2012-05-24 Samsung Electronics Co., Ltd. Determining user intent from position and orientation information
EP2680743A4 (de) * 2011-03-02 2014-08-13 Diagnostic Photonics Inc Tragbare optische sonde mit festem fokus
EP2684034A4 (de) 2011-03-07 2014-09-03 Univ Loma Linda Med Systeme, vorrichtungen und verfahren zur kalibrierung eines protonen-computertomographiescanners
US8407111B2 (en) * 2011-03-31 2013-03-26 General Electric Company Method, system and computer program product for correlating information and location
US8687172B2 (en) 2011-04-13 2014-04-01 Ivan Faul Optical digitizer with improved distance measurement capability
CN106913366B (zh) 2011-06-27 2021-02-26 内布拉斯加大学评议会 工具承载的追踪系统和计算机辅助外科方法
US9498231B2 (en) 2011-06-27 2016-11-22 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US11911117B2 (en) 2011-06-27 2024-02-27 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
KR20140051284A (ko) 2011-07-06 2014-04-30 씨. 알. 바드, 인크. 삽입 유도 시스템을 위한 바늘 길이 결정 및 교정
USD699359S1 (en) 2011-08-09 2014-02-11 C. R. Bard, Inc. Ultrasound probe head
USD724745S1 (en) 2011-08-09 2015-03-17 C. R. Bard, Inc. Cap for an ultrasound probe
EP2747641A4 (de) 2011-08-26 2015-04-01 Kineticor Inc Verfahren, systeme und vorrichtungen zur scan-internen bewegungskorrektur
US9167989B2 (en) * 2011-09-16 2015-10-27 Mako Surgical Corp. Systems and methods for measuring parameters in joint replacement surgery
WO2013070775A1 (en) 2011-11-07 2013-05-16 C.R. Bard, Inc Ruggedized ultrasound hydrogel insert
US8958901B2 (en) 2011-11-18 2015-02-17 Nike, Inc. Automated manufacturing of shoe parts
US8755925B2 (en) 2011-11-18 2014-06-17 Nike, Inc. Automated identification and assembly of shoe parts
US9451810B2 (en) 2011-11-18 2016-09-27 Nike, Inc. Automated identification of shoe parts
US10552551B2 (en) 2011-11-18 2020-02-04 Nike, Inc. Generation of tool paths for shore assembly
US8849620B2 (en) 2011-11-18 2014-09-30 Nike, Inc. Automated 3-D modeling of shoe parts
JP6467227B2 (ja) 2012-01-10 2019-02-06 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 画像処理装置
WO2013116240A1 (en) 2012-01-30 2013-08-08 Inneroptic Technology, Inc. Multiple medical device guidance
WO2013134623A1 (en) 2012-03-08 2013-09-12 Neutar, Llc Patient and procedure customized fixation and targeting devices for stereotactic frames
US9186053B2 (en) 2012-05-03 2015-11-17 Covidien Lp Methods of using light to repair hernia defects
GB2540075B (en) * 2012-05-18 2017-04-19 Acergy France SAS Improvements relating to pipe measurement
EP2854685A1 (de) * 2012-06-05 2015-04-08 Brainlab AG Erhöhte genauigkeit der navigation einer medizinischen vorrichtung
CN104837413B (zh) 2012-06-15 2018-09-11 C·R·巴德股份有限公司 检测超声探测器上可移除帽的装置及方法
US9008757B2 (en) 2012-09-26 2015-04-14 Stryker Corporation Navigation system including optical and non-optical sensors
ES2641310T3 (es) * 2012-09-27 2017-11-08 Stryker European Holdings I, Llc Determinación de la posición de rotación
CA2928460C (en) 2012-10-30 2021-10-19 Truinject Medical Corp. System for injection training
US9792836B2 (en) * 2012-10-30 2017-10-17 Truinject Corp. Injection training apparatus using 3D position sensor
WO2014085804A1 (en) 2012-11-30 2014-06-05 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for determining physical properties of a specimen in a portable point of care diagnostic device
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
EP2950714A4 (de) 2013-02-01 2017-08-16 Kineticor, Inc. Bewegungsverfolgungssystem für echtzeit-adaptive bewegungskompensation in der biomedizinischen bildgebung
US10314559B2 (en) 2013-03-14 2019-06-11 Inneroptic Technology, Inc. Medical device guidance
US10105149B2 (en) 2013-03-15 2018-10-23 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US9381417B2 (en) 2013-08-16 2016-07-05 Shimano Inc. Bicycle fitting system
WO2015109251A1 (en) 2014-01-17 2015-07-23 Truinject Medical Corp. Injection site training system
ES2811323T3 (es) 2014-02-06 2021-03-11 Bard Inc C R Sistemas para el guiado y la colocación de un dispositivo intravascular
DE102014102398A1 (de) * 2014-02-25 2015-08-27 Aesculap Ag Medizinisches Instrumentarium und Verfahren
US10290231B2 (en) 2014-03-13 2019-05-14 Truinject Corp. Automated detection of performance characteristics in an injection training system
CN106572810A (zh) 2014-03-24 2017-04-19 凯内蒂科尔股份有限公司 去除医学成像扫描的预期运动校正的系统、方法和装置
JP6321441B2 (ja) * 2014-05-07 2018-05-09 株式会社ミツトヨ 三次元測定システム、三次元測定方法、および、被測定体
EP3443925B1 (de) 2014-05-14 2021-02-24 Stryker European Holdings I, LLC Prozessoranordnung zum verfolgen der position eines arbeitsziels
KR102258800B1 (ko) * 2014-05-15 2021-05-31 삼성메디슨 주식회사 초음파 진단장치 및 그에 따른 초음파 진단 방법
US10952593B2 (en) 2014-06-10 2021-03-23 Covidien Lp Bronchoscope adapter
CN106714681A (zh) 2014-07-23 2017-05-24 凯内蒂科尔股份有限公司 用于在医学成像扫描期间追踪和补偿患者运动的系统、设备和方法
CN115919256A (zh) 2014-07-24 2023-04-07 大学健康网络 用于诊断目的的数据的收集和分析
US9901406B2 (en) 2014-10-02 2018-02-27 Inneroptic Technology, Inc. Affected region display associated with a medical device
US20180296183A1 (en) * 2014-11-04 2018-10-18 Vib Vzw Method and apparatus for ultrasound imaging of brain activity
KR102477470B1 (ko) * 2014-11-21 2022-12-13 씽크 써지컬, 인크. 시각 추적 시스템과 추적 마커 간에 데이터를 전송하기 위한 가시광 통신 시스템
WO2016089706A1 (en) 2014-12-01 2016-06-09 Truinject Medical Corp. Injection training tool emitting omnidirectional light
US10188467B2 (en) 2014-12-12 2019-01-29 Inneroptic Technology, Inc. Surgical guidance intersection display
CN107106253B (zh) * 2014-12-16 2020-04-03 皇家飞利浦有限公司 脉动光发射标记设备
US10973584B2 (en) 2015-01-19 2021-04-13 Bard Access Systems, Inc. Device and method for vascular access
US10426555B2 (en) 2015-06-03 2019-10-01 Covidien Lp Medical instrument with sensor for use in a system and method for electromagnetic navigation
WO2016210325A1 (en) 2015-06-26 2016-12-29 C.R. Bard, Inc. Connector interface for ecg-based catheter positioning system
US9949700B2 (en) 2015-07-22 2018-04-24 Inneroptic Technology, Inc. Medical device approaches
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
US10973587B2 (en) * 2015-08-19 2021-04-13 Brainlab Ag Reference array holder
KR102532287B1 (ko) * 2015-10-08 2023-05-15 삼성메디슨 주식회사 초음파 장치 및 그 제어방법
US10500340B2 (en) 2015-10-20 2019-12-10 Truinject Corp. Injection system
US9962134B2 (en) 2015-10-28 2018-05-08 Medtronic Navigation, Inc. Apparatus and method for maintaining image quality while minimizing X-ray dosage of a patient
US10716515B2 (en) 2015-11-23 2020-07-21 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US10134188B2 (en) * 2015-12-21 2018-11-20 Intel Corporation Body-centric mobile point-of-view augmented and virtual reality
CN113156650A (zh) 2016-01-19 2021-07-23 奇跃公司 利用映像的增强现实系统和方法
US11000207B2 (en) 2016-01-29 2021-05-11 C. R. Bard, Inc. Multiple coil system for tracking a medical device
US9675319B1 (en) 2016-02-17 2017-06-13 Inneroptic Technology, Inc. Loupe display
WO2017151441A2 (en) 2016-02-29 2017-09-08 Truinject Medical Corp. Cosmetic and therapeutic injection safety systems, methods, and devices
US10849688B2 (en) 2016-03-02 2020-12-01 Truinject Corp. Sensory enhanced environments for injection aid and social training
WO2017151716A1 (en) 2016-03-02 2017-09-08 Truinject Medical Corp. System for determining a three-dimensional position of a testing tool
KR102384882B1 (ko) 2016-04-26 2022-04-07 매직 립, 인코포레이티드 증강 현실 시스템들을 사용한 전자기 추적
KR101790772B1 (ko) * 2016-05-10 2017-10-26 주식회사 힐세리온 가이드용 초음파 영상을 제공하는 휴대형 초음파 진단 시스템
US10478254B2 (en) 2016-05-16 2019-11-19 Covidien Lp System and method to access lung tissue
US10765480B2 (en) 2016-08-17 2020-09-08 Synaptive Medical (Barbados) Inc. Wireless active tracking fiducials
CA3034071A1 (en) * 2016-08-30 2018-03-08 Mako Surgical Corp. Systems and methods for intra-operative pelvic registration
US10278778B2 (en) 2016-10-27 2019-05-07 Inneroptic Technology, Inc. Medical device navigation using a virtual 3D space
US10446931B2 (en) 2016-10-28 2019-10-15 Covidien Lp Electromagnetic navigation antenna assembly and electromagnetic navigation system including the same
US10722311B2 (en) 2016-10-28 2020-07-28 Covidien Lp System and method for identifying a location and/or an orientation of an electromagnetic sensor based on a map
US10792106B2 (en) 2016-10-28 2020-10-06 Covidien Lp System for calibrating an electromagnetic navigation system
US10517505B2 (en) 2016-10-28 2019-12-31 Covidien Lp Systems, methods, and computer-readable media for optimizing an electromagnetic navigation system
US10418705B2 (en) 2016-10-28 2019-09-17 Covidien Lp Electromagnetic navigation antenna assembly and electromagnetic navigation system including the same
US10751126B2 (en) 2016-10-28 2020-08-25 Covidien Lp System and method for generating a map for electromagnetic navigation
US10615500B2 (en) 2016-10-28 2020-04-07 Covidien Lp System and method for designing electromagnetic navigation antenna assemblies
US10638952B2 (en) 2016-10-28 2020-05-05 Covidien Lp Methods, systems, and computer-readable media for calibrating an electromagnetic navigation system
US10510171B2 (en) * 2016-11-29 2019-12-17 Biosense Webster (Israel) Ltd. Visualization of anatomical cavities
US10650703B2 (en) 2017-01-10 2020-05-12 Truinject Corp. Suture technique training system
US10269266B2 (en) 2017-01-23 2019-04-23 Truinject Corp. Syringe dose and position measuring apparatus
US10154885B1 (en) 2017-05-26 2018-12-18 Medline Industries, Inc. Systems, apparatus and methods for continuously tracking medical items throughout a procedure
US10699448B2 (en) 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
US11259879B2 (en) 2017-08-01 2022-03-01 Inneroptic Technology, Inc. Selective transparency to assist medical device navigation
US11219489B2 (en) 2017-10-31 2022-01-11 Covidien Lp Devices and systems for providing sensors in parallel with medical tools
US11484365B2 (en) 2018-01-23 2022-11-01 Inneroptic Technology, Inc. Medical image guidance
DE102019004233B4 (de) 2018-06-15 2022-09-22 Mako Surgical Corp. Systeme und verfahren zum verfolgen von objekten
US11051829B2 (en) 2018-06-26 2021-07-06 DePuy Synthes Products, Inc. Customized patient-specific orthopaedic surgical instrument
US10992079B2 (en) 2018-10-16 2021-04-27 Bard Access Systems, Inc. Safety-equipped connection systems and methods thereof for establishing electrical connections
US11617625B2 (en) 2019-03-12 2023-04-04 Medline Industries, Lp Systems, apparatus and methods for properly locating items
CN112386335A (zh) 2019-08-12 2021-02-23 巴德阿克塞斯系统股份有限公司 用于医疗装置的形状感测系统和方法
EP4061466A4 (de) 2019-11-25 2023-11-22 Bard Access Systems, Inc. Optische spitzenverfolgungssysteme und verfahren dafür
EP4061272A4 (de) 2019-11-25 2023-11-22 Bard Access Systems, Inc. Formungsempfindliche systeme mit filtern und verfahren dafür
US11269407B2 (en) * 2020-01-30 2022-03-08 Dell Products L.P. System and method of determining attributes of a workspace configuration based on eye gaze or head pose
CN215340440U (zh) 2020-02-28 2021-12-28 巴德阿克塞斯系统股份有限公司 电学和光学连接系统及光学连接系统
CN215305864U (zh) 2020-03-30 2021-12-28 巴德阿克塞斯系统股份有限公司 中继模块及包括其的医疗系统
CN216319408U (zh) 2020-06-26 2022-04-19 巴德阿克塞斯系统股份有限公司 错位检测系统
CN216136534U (zh) 2020-06-29 2022-03-29 巴德阿克塞斯系统股份有限公司 用于将医疗装置放置入患者身体内的医疗装置系统
CN216317552U (zh) 2020-07-10 2022-04-19 巴德阿克塞斯系统股份有限公司 用于检测医疗装置的光纤技术的损坏和潜在损坏的医疗装置系统
CN114052658A (zh) 2020-08-03 2022-02-18 巴德阿克塞斯系统股份有限公司 布拉格光栅光纤波动感测与监测系统
WO2022081586A1 (en) 2020-10-13 2022-04-21 Bard Access Systems, Inc. Disinfecting covers for functional connectors of medical devices and methods thereof

Family Cites Families (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3821469A (en) * 1972-05-15 1974-06-28 Amperex Electronic Corp Graphical data device
US3983474A (en) * 1975-02-21 1976-09-28 Polhemus Navigation Sciences, Inc. Tracking and determining orientation of object using coordinate transformation means, system and process
US4182312A (en) * 1977-05-20 1980-01-08 Mushabac David R Dental probe
FR2416480A1 (fr) * 1978-02-03 1979-08-31 Thomson Csf Dispositif de localisation de source rayonnante et systeme de reperage de direction comportant un tel dispositif
US4341220A (en) * 1979-04-13 1982-07-27 Pfizer Inc. Stereotactic surgery apparatus and method
US4608977A (en) * 1979-08-29 1986-09-02 Brown Russell A System using computed tomography as for selective body treatment
US4419012A (en) * 1979-09-11 1983-12-06 Elliott Brothers (London) Limited Position measuring system
US4638798A (en) * 1980-09-10 1987-01-27 Shelden C Hunter Stereotactic method and apparatus for locating and treating or removing lesions
US4805616A (en) 1980-12-08 1989-02-21 Pao David S C Bipolar probes for ophthalmic surgery and methods of performing anterior capsulotomy
US4396945A (en) * 1981-08-19 1983-08-02 Solid Photography Inc. Method of sensing the position and orientation of elements in space
US4585350A (en) * 1983-01-28 1986-04-29 Pryor Timothy R Pulsed robotic inspection
US4651732A (en) * 1983-03-17 1987-03-24 Frederick Philip R Three-dimensional light guidance system for invasive procedures
NL8302228A (nl) * 1983-06-22 1985-01-16 Optische Ind De Oude Delft Nv Meetstelsel voor het onder gebruikmaking van een op driehoeksmeting berustend principe, contactloos meten van een door een oppervlakcontour van een objectvlak gegeven afstand tot een referentieniveau.
NL8304023A (nl) * 1983-11-23 1985-06-17 Kinetics Technology Werkwijze voor het zuiveren van afgewerkte smeerolie.
DE3342675A1 (de) * 1983-11-25 1985-06-05 Fa. Carl Zeiss, 7920 Heidenheim Verfahren und vorrichtung zur beruehrungslosen vermessung von objekten
US4753528A (en) * 1983-12-13 1988-06-28 Quantime, Inc. Laser archery distance device
US4841967A (en) 1984-01-30 1989-06-27 Chang Ming Z Positioning device for percutaneous needle insertion
US4705395A (en) * 1984-10-03 1987-11-10 Diffracto Ltd. Triangulation data integrity
US4706665A (en) 1984-12-17 1987-11-17 Gouda Kasim I Frame for stereotactic surgery
US4782239A (en) * 1985-04-05 1988-11-01 Nippon Kogaku K. K. Optical position measuring apparatus
SE447848B (sv) * 1985-06-14 1986-12-15 Anders Bengtsson Instrument for metning av ytors topografi
US4743771A (en) * 1985-06-17 1988-05-10 View Engineering, Inc. Z-axis height measurement system
US4805615A (en) 1985-07-02 1989-02-21 Carol Mark P Method and apparatus for performing stereotactic surgery
US4705401A (en) * 1985-08-12 1987-11-10 Cyberware Laboratory Inc. Rapid three-dimensional surface digitizer
US4737032A (en) * 1985-08-26 1988-04-12 Cyberware Laboratory, Inc. Surface mensuration sensor
IL76517A (en) * 1985-09-27 1989-02-28 Nessim Igal Levy Distance measuring device
US4709156A (en) * 1985-11-27 1987-11-24 Ex-Cell-O Corporation Method and apparatus for inspecting a surface
US4722056A (en) * 1986-02-18 1988-01-26 Trustees Of Dartmouth College Reference display systems for superimposing a tomagraphic image onto the focal plane of an operating microscope
SE469321B (sv) * 1986-04-14 1993-06-21 Joenkoepings Laens Landsting Saett och anordning foer att framstaella en modifierad tredimensionell avbildning av ett elastiskt deformerbart foeremaal
US4822163A (en) * 1986-06-26 1989-04-18 Robotic Vision Systems, Inc. Tracking vision sensor
US4723544A (en) 1986-07-09 1988-02-09 Moore Robert R Hemispherical vectoring needle guide for discolysis
US4791934A (en) 1986-08-07 1988-12-20 Picker International, Inc. Computer tomography assisted stereotactic surgery system and method
US4733969A (en) * 1986-09-08 1988-03-29 Cyberoptics Corporation Laser probe for determining distance
US4743770A (en) * 1986-09-22 1988-05-10 Mitutoyo Mfg. Co., Ltd. Profile-measuring light probe using a change in reflection factor in the proximity of a critical angle of light
US4761072A (en) * 1986-09-30 1988-08-02 Diffracto Ltd. Electro-optical sensors for manual control
US4750487A (en) * 1986-11-24 1988-06-14 Zanetti Paul H Stereotactic frame
DE3703422A1 (de) * 1987-02-05 1988-08-18 Zeiss Carl Fa Optoelektronischer abstandssensor
US4745290A (en) * 1987-03-19 1988-05-17 David Frankel Method and apparatus for use in making custom shoes
US4875478A (en) 1987-04-10 1989-10-24 Chen Harry H Portable compression grid & needle holder
US4793355A (en) * 1987-04-17 1988-12-27 Biomagnetic Technologies, Inc. Apparatus for process for making biomagnetic measurements
US4809694A (en) 1987-05-19 1989-03-07 Ferrara Vincent L Biopsy guide
US4836778A (en) * 1987-05-26 1989-06-06 Vexcel Corporation Mandibular motion monitoring system
US4829373A (en) * 1987-08-03 1989-05-09 Vexcel Corporation Stereo mensuration apparatus
US4931056A (en) 1987-09-04 1990-06-05 Neurodynamics, Inc. Catheter guide apparatus for perpendicular insertion into a cranium orifice
US4991579A (en) * 1987-11-10 1991-02-12 Allen George S Method and apparatus for providing related images over time of a portion of the anatomy using fiducial implants
US5027818A (en) * 1987-12-03 1991-07-02 University Of Florida Dosimetric technique for stereotactic radiosurgery same
US4896673A (en) * 1988-07-15 1990-01-30 Medstone International, Inc. Method and apparatus for stone localization using ultrasound imaging
US5099846A (en) * 1988-12-23 1992-03-31 Hardy Tyrone L Method and apparatus for video presentation from a variety of scanner imaging sources
US5197476A (en) * 1989-03-16 1993-03-30 Christopher Nowacki Locating target in human body
JP3021561B2 (ja) * 1989-10-16 2000-03-15 オリンパス光学工業株式会社 観察点座標表示機能を有する手術用顕微鏡装置
US5273039A (en) * 1989-10-16 1993-12-28 Olympus Optical Co., Ltd. Surgical microscope apparatus having a function to display coordinates of observation point
ES2085885T3 (es) * 1989-11-08 1996-06-16 George S Allen Brazo mecanico para sistema interactivo de cirugia dirigido por imagenes.
US5107139A (en) * 1990-03-30 1992-04-21 Texas Instruments Incorporated On-chip transient event detector
US5224049A (en) * 1990-04-10 1993-06-29 Mushabac David R Method, system and mold assembly for use in preparing a dental prosthesis
US5107839A (en) * 1990-05-04 1992-04-28 Pavel V. Houdek Computer controlled stereotaxic radiotherapy system and method
US5086401A (en) * 1990-05-11 1992-02-04 International Business Machines Corporation Image-directed robotic system for precise robotic surgery including redundant consistency checking
US5017139A (en) 1990-07-05 1991-05-21 Mushabac David R Mechanical support for hand-held dental/medical instrument
US5198877A (en) * 1990-10-15 1993-03-30 Pixsys, Inc. Method and apparatus for three-dimensional non-contact shape sensing
ATE405223T1 (de) * 1990-10-19 2008-09-15 Univ St Louis System zur lokalisierung einer chirurgischen sonde relativ zum kopf
US5059789A (en) * 1990-10-22 1991-10-22 International Business Machines Corp. Optical position and orientation sensor
US5309913A (en) * 1992-11-30 1994-05-10 The Cleveland Clinic Foundation Frameless stereotaxy system
US5305091A (en) * 1992-12-07 1994-04-19 Oreo Products Inc. Optical coordinate measuring system for large objects
JPH08509144A (ja) * 1993-04-22 1996-10-01 ピクシス,インコーポレイテッド 物体の相対的位置を突き止めるシステム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1647236A1 (de) 2004-10-15 2006-04-19 BrainLAB AG Vorrichtung und Verfahren zur Lageüberprüfung von Markern

Also Published As

Publication number Publication date
EP0700269B1 (de) 2002-12-11
CA2161126A1 (en) 1994-10-27
ZA942812B (en) 1995-11-22
JPH08509144A (ja) 1996-10-01
EP0700269A4 (de) 1998-07-22
WO1994023647A1 (en) 1994-10-27
US6442416B1 (en) 2002-08-27
DE69431875T2 (de) 2003-05-28
DE69431875D1 (de) 2003-01-23
IL109385A0 (en) 1994-07-31
IL109385A (en) 1998-03-10
AU6666894A (en) 1994-11-08
DE69432961D1 (de) 2003-08-21
US5987349A (en) 1999-11-16
EP1219259A1 (de) 2002-07-03
EP0700269A1 (de) 1996-03-13
US5622170A (en) 1997-04-22
EP1219259B1 (de) 2003-07-16
US5920395A (en) 1999-07-06
CA2161126C (en) 2007-07-31

Similar Documents

Publication Publication Date Title
DE69432961T2 (de) Anordnung zur Bestimmung der gegenseitigen Lage von Körpern
DE102011078212B4 (de) Verfahren und Vorrichtung zum Darstellen eines Objektes
DE60018247T2 (de) System und Methode zur Verwendung mit bildgebenden Verfahren zur Erleichterung der Planung von chirurgischen Eingriffen
DE60032475T2 (de) Navigationsführung über computergestützte fluoroskopische bildgebung
DE69922980T2 (de) Verfahren und vorrichtung zur positionierung eines geräts in einem körper
DE69826421T2 (de) Bildgesteuerte Eingriffsverfahren
DE10108547B4 (de) Operationssystem zur Steuerung chirurgischer Instrumente auf Basis von intra-operativen Röngtenbildern
EP0652726B1 (de) Verfahren zur darstellung des inneren von körpern
DE60015320T2 (de) Vorrichtung und verfahren für bildgesteuerte chirurgie
EP0685088B1 (de) Verfahren und vorrichtung zur planung und kontrolle eines chirurgischen eingriffs
DE69721045T2 (de) Vorrichtung und verfahren zur darstellung von ultraschallbildern
EP2326276B1 (de) Medizinisches messsystem und die verwendung dieses medizinischen messsystems
DE4417944A1 (de) Verfahren zum Korrelieren verschiedener Koordinatensysteme in der rechnergestützten, stereotaktischen Chirurgie
EP2632382B1 (de) Navigationsaufsatz für optische geräte in der medizin und verfahren
DE102014218558A1 (de) Benutzerschnittstelle und Verfahren zur automatisierten Positionierung eines Untersuchungstisches relativ zu einer medizintechnischen bildgebenden Anlage
EP1517647A1 (de) Verfahren und instrument zur chirurgischen navigation
DE10004764A1 (de) Verfahren zur Positionsbestimmung eines medizinischen Instruments
DE102009038021A1 (de) Bildverarbeitungssystem mit einer zusätzlichen zusammen mit der Bildinformation zu verarbeitenden Maßstabsinformation
EP2677954A1 (de) Chirurgisches instrument mit integrierter navigatonskontrolle
DE10009166A1 (de) Verfahren zur Lokalisierung von Objekten in der interventionellen Radiologie
DE102008002864A1 (de) Dynamisches Referenzverfahren und System für die Verwendung mit chirurgischen Verfahren
WO2014170194A1 (de) Verfahren und vorrichtung zur stereoskopischen darstellung von bilddaten
EP1319368A2 (de) Verfahren zur Bestimmung der Orientierung und Relativposition eines medizinischen Instruments
DE102013203399A1 (de) Verfahren und Projektionsvorrichtung zur Markierung einer Oberfläche
DE112021003530T5 (de) System zur Unterstützung eines Benutzers bei der Platzierung einer Eindringungsvorrichtung in Gewebe

Legal Events

Date Code Title Description
8364 No opposition during term of opposition