DE19528513A1 - Verfahren zur berührungslosen, schnellen und genauen Erfassung der Oberflächengestalt von Objekten - Google Patents

Verfahren zur berührungslosen, schnellen und genauen Erfassung der Oberflächengestalt von Objekten

Info

Publication number
DE19528513A1
DE19528513A1 DE19528513A DE19528513A DE19528513A1 DE 19528513 A1 DE19528513 A1 DE 19528513A1 DE 19528513 A DE19528513 A DE 19528513A DE 19528513 A DE19528513 A DE 19528513A DE 19528513 A1 DE19528513 A1 DE 19528513A1
Authority
DE
Germany
Prior art keywords
pixel
light
modulation
integration time
photo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE19528513A
Other languages
English (en)
Inventor
Gerd Prof Dr Haeusler
Stefan Blossey
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE19528513A priority Critical patent/DE19528513A1/de
Priority to US08/513,024 priority patent/US5706085A/en
Publication of DE19528513A1 publication Critical patent/DE19528513A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • G01B11/303Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces using photoelectric detection means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02001Interferometers characterised by controlling or generating intrinsic radiation properties
    • G01B9/02012Interferometers characterised by controlling or generating intrinsic radiation properties using temporal intensity variation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/0209Low-coherence interferometers

Description

Es wird ein Verfahren beschrieben, mit dem berührungslos die makroskopische Topologie von vorzugsweise rauhen Oberflächen, sehr schnell oder sehr genau mit allen Zwischenlö­ sungen vermessen werden kann (3D-Sensor).
Die Oberflächengestalt wird dabei entsprechend Abb. 1 in einem orthogonalen, dreiachsigen Koordinatensystem (1) beschrieben, in dem die x- und y-Koordinate den lateralen und die z- Koordinate den longitudinalen Ort eines Objektpunktes festlegt. Die longitudinale Kompo­ nente entspricht dabei der Beleuchtungsrichtung (hier auch Beobachtungsrichtung) des Sen­ sors. Sensoren, die eine solche Oberflächengestalt, meist als Funktion z(x,y) vermessen, werden 3D-Sensoren genannt.
Es gibt nun grundsätzlich vier verschiedene Methoden, mit denen Objekte berührungslos ver­ messen werden können: die Triangulation mit all ihren verschiedenen Ausführungen, die fokussuchenden Verfahren, die die Laufzeit messenden Verfahren und schließlich die inter­ ferometrischen Verfahren.
Bei den Triangulationssensoren wird aus verschiedenen Richtungen beleuchtet und beobachtet (Triangulationswinkel). Die Höheninformation wird daher auf der Beobachtungsseite in eine laterale Information übersetzt. Systemimmanente Probleme bei diesen Sensoren sind die durch die nicht koaxiale Beleuchtung und Beobachtung hervorgerufenen Abschaftungen; bei den flächenhaft beleuchtenden Sensoren (codierte Beleuchtung) kommen noch Schärfentiefe­ probleme hinzu. Weiterhin ist die Beobachtungsapertur ein begrenzender Faktor, die bei vor­ gegebenem Arbeitsabstand nur eine begrenzte Meßgenauigkeit zuläßt. Hinzu kommt bei (teil-)kohärenter Beleuchtung das Auftreten von Speckle, wie sie Goodman in "Statistical Properties of Laser speckle pafterns" in "Laser Speckle and related phenomena" (ed. Dainty, Berlin 1984). Diese ziehen eine statistische Meßunsicherheit nach sich, wie sie Häusler in "About fundamental limits of three-dimensional sensing or nature makes no presents", Proc. 15th ICO Congress (1990) und in "physical limits of 3D-sensing", Proc. SPIE 1822 (1992) beschrieben hat.
Für die fokussuchenden Verfahren gelten die oben bezüglich der Beobachtungsapertur und der (teil-)kohärenten Beleuchtung getroffenen Aussagen ebenfalls, wie Häusler und Herrmann in "3D-sensing with a confocal optical macroscope" (Proc. of the 15th ICO Congress, 1990) gezeigt haben.
Die die Laufzeit messenden Verfahren sind für die Vermessung von Objekte mit einer Ge­ nauigkeit im Mikrometerbereich nicht geeignet, da man beispielsweise eine Zeitauflösung in der Größenordnung von 10-14 s benötigt, um einen Mikrometer auflösen zu können.
Die klassische Interferometrie kann nur bei optisch glatten Oberflächen eingesetzt werden, d. h. bei einer Oberflächenrauhigkeit, die deutlich unter der verwendeten Wellenlänge der Be­ leuchtung liegt. Nur dann wird die reflektierte Wellenfront nicht zerstört und eine Phasen­ auswertung kann durchgeführt werden. Fercher schlägt deshalb in "Rough Surface Interfero­ metry with a Two-Wavelength Heterodyne Speckle Interferometer" (Applied Optics 24; 1985) vor, bei rauhen Oberflächen mit heterodyner Beleuchtung zu arbeiten, d. h. es wird mit einer synthetischen Wellenlänge beleuchtet, die größer als die Rauhigkeit des Objektes ist. Bei den interferometrischen Verfahren treten allerdings Eindeutigkeitsprobleme auf, sobald das zu vermessende Objekt Unstetigkeitsstellen aufweist, die größer als die halbe synthetische Wel­ lenlänge sind. Dresel et al. stellt in "Three dimensional sensing of rough surfaces by cohe­ rence radar" (Applied Optics 31, 1992) ebenso wie Häusler in der Deutschen Patentschrift DE 41 08 944 C2 sowie Häusler et al. in "Coherence radar - an accurate sensor for rough surfa­ ces" (Porc. SPIE 1822, 1992) einen Sensor vor, das Kohärenzradar, welches auf dem Michel­ son Interferometer Prinzip beruht.
Der eine Spiegel wird dabei durch das diffus streuende, zu vermessende Objekt ersetzt. Der Aufbau ist in Abb. 1 gezeigt. Die Lichtquelle (2) wird über eine Linse (3) ins Unendliche abgebildet. Über den Strahlteiler (4) wird das parallele Strahlenbündel aufgeteilt und ein Teil wird vom Referenzspiegel (5) reflektiert, der andere Teil wird am rauhen Objekt (6) gestreut. Damit die Intensitäten der rücklaufenden Strahlen jeweils ungefähr gleich sind, ist in den Referenzarm noch ein Graufilter (7) eingesetzt worden. Die Glasplatte (8) im Objektstrahlen­ gang kompensiert die durch den Graufilter eingeführte Dispersion. Der Referenzspiegel (und damit auch die Teile des Objektes, deren optische Weglängen mit dem Referenzspiegel abge­ glichen sind) wird über eine Abbildungsoptik (9) auf den Photoempfänger, üblicherweise eine CCD-Kamera (10) abgebildet.
Aufgrund der teilkohärenten Beleuchtung und der Tatsache, daß die Beobachtungsapertur größer als die Beleuchtungsapertur ist, sieht die Kamera auf der Beobachtungsseite Speckle (optimal: jedes Kamerapixel wird durch gerade ein Speckle ausgeleuchtet). Die gewählte Abbildung ordnet jedem Speckle eindeutig einen lateralen Ort (x,y) auf der Objektoberfläche zu. Bei einer rauhen Oberfläche ist die Phase in den einzelnen Speckle zufällig, d. h. es kann nicht wie bei der klassischen Interferometrie aus der Phase eine Höheninformation gewonnen werden.
Wird das Objekt (oder bei kleinem Meßbereich die Referenz) mit Hilfe einer Verschiebeein­ heit (11) koaxial zur Beleuchtung verfahren, so zeigen diejenigen Speckle eine Intensitäts­ modulation, für die das Interferometer innerhalb der Kohärenzlänge der Lichtquelle abgegli­ chen ist.
Bei dieser Intensitätsmodulation handelt es sich um eine Amplitudenmodulation, wobei diese - im Gegensatz zu der aus der Nachrichtentechnik bekannten Version - ortsabhängig und zu­ dem mit einem Gleichanteil behaftet ist. Abb. 2 zeigt eine solche Modulation (13), wobei die Intensität über den Ort aufgetragen ist. Die inverse örtliche (!) Trägerfrequenz des amplitu­ denmodulierten Signals entspricht der halben mittleren Wellenlänge der verwendeten Licht­ quelle.
Für die Auswertung ist nur die Einhüllende (14) von Interesse, genauer der Ort z₀ Maxi­ mums. Dort weisen nämlich der zum Speckle gehörige Objektpunkt (x₀, y₀) und die Referenz gleiche optische Weglängen auf. Wird nun das Objekt vollständig durch die Ebene verfahren, bei der die optische Weglänge mit der Referenz abgeglichen ist, und zeichnet man immer dann, wenn ein Speckle maximal moduliert ist, für den entsprechenden Objektpunkt die Position der Verschiebeeinheit auf, so erhält man ein vollständiges Höhenbild des Objektes. Die Nachrichtentechnik kennt nun unter anderem die Hüllkurvendemodulation als Dekodier­ verfahren für ein solches amplitudenmoduliertes Signal, wie es ortsabhängig in jedem Speck­ le auftritt. Verfährt man das Objekt bzw. den Referenzspiegel mit einer möglichst konstanten Geschwindigkeit, so läßt sich die Hüllkurvendemodulation analog einfach realisieren, wie dies in Abb. 3 gezeigt ist: Zur Dekodierung muß das Signal (15) einen Bandpaß (16) eine Gleichrichtung (17) und schließlich einen Tiefpaß (18) durchlaufen. Das Maximum der Ein­ hüllenden ergibt den Ort gleicher Weglängen. Für einen Punktsensor, der nur ein einziges Speckle auswertet, wurde dies auch realisiert, wie dies in der Deutschen Patentschrift DE 41 08 944 C2 von Häusler vorgeschlagen ist. Für einen Flächensensor, der parallel viele Speckle auswerten muß, ist dieses Demodulationsverfahren aber nur bedingt einsetzbar. Bis­ lang sind drei verschiedene Ansätze dafür bekannt:
Die erste Möglichkeit besteht lt. Häuslers Patentschrift darin, nicht die Einhüllende auszuwer­ ten, sondern direkt die Modulation. Dazu wird zunächst mit einer Verschiebeeinheit - s. Abb. 1 (11) - das Objekt verschoben.
Anschließend wird der auf einem Piezo (12) angebrachte Referenzspiegel um k·λ/3 (k=0, 1, 2) verschoben und jeweils mit der CCD-Kamera ein Bild aufgenommen.
Pixelweise werden dann die drei Bilder miteinander verrechnet und daraus die jeweilige Pixel-/Specklemodulation berechnet. Wird die Modulation in einem Pixel maximal, so wird die zugehörige Position der Verschiebeeinheit abgespeichert. Nachteilig bei diesem Verfahren ist, daß pro Höhenstufe drei Bilder aufgenommen und verrechnet werden müssen. Für jedes Bild muß zudem der Piezo verstellt werden und auch eingeschwungen sein. Zwischen je zwei Höhenbildern muß die Verschiebeeinheit ebenfalls bewegt werden und eingeschwungen sein. Dieses Verfahren ist also quasistatisch und damit sehr zeitaufwendig.
Ein anderer Ansatz verfolgt zwar grundsätzlich die gleiche Strategie, d. h. es wird auch nur die Modulation bestimmt, allerdings wird das Objekt kontinuierlich verfahren. Mit einer Hochgeschwindigkeitskamera werden bei fahrendem Objekt alle von der Kamera kommenden Bilder abgespeichert und offline ausgewertet. Die Kamera muß dabei so schnell sein, daß nicht nur die Modulation nach Nyquist vollständig abgetastet wird, sondern auch noch Inten­ sitätsänderungen während der Integrationszeit der Kamera vernachlässigt werden können.
Dieses Verfahren hat zwar eine stark verkürzte Meßzeit, der Meßbereich ist aber durch die Anzahl der abspeicherbaren Bilder begrenzt (1 mm Meßbereich bei 10 Abtastungen pro Mo­ dulation und einer mittleren Wellenlänge von 630 nm benötigt ca. 32.000 Bilder!)
Eine dritter Ansatz verfolgt eine online Auswertung mit Hilfe von digitalen Filtern, wie dies im U.S. Patent 5,133,601(1991) vorgeschlagen wird.
Hier wird tatsächlich pixelweise eine der Hüllkurvendemodulation ähnliche Filterung vor­ genommen, indem unter Beachtung des Nyquist-Kriteriums die Modulation vollständig abge­ tastet und einem digitalen Filter zugeführt wird. Dazu ist aber ebenfalls ein statischer Betrieb notwendig, d. h. die Verschiebeeinheit (Piezo) muß bei der Aufnahme der Bilder stehen, oder aber es wird nur sehr langsam verfahren.
Hier wird die Anwendung eines aus der Nachrichtentechnik (NT) bekannten, modifizierten Demodulationsverfahrens vorgeschlagen, mit dem das Objekt kontinuierlich verfahren werden kann, mit dem online ausgewertet werden kann und die Modulation nicht vollständig abgeta­ stet werden muß. Aufgrund der Möglichkeit des kontinuierlichen Verfahrens wird der Sensor im folgenden als dynamisches Kohärenzradar bezeichnet, wobei dieses Verfahren auch für ein konventionelles Weißlichinterferometer eingesetzt werden kann, ohne dabei allerdings die Ge­ nauigkeit der phasenmessenden Verfahren erreichen zu können.
Das vorgeschlagene Verfahren ähnelt der kohärenten Demodulation aus der NT, welches in Abb. 4 gezeigt ist und z. B. von Kammeyer in "Nachrichtenübertragung" (Stuttgart 1992) erläutert wird.
Dort wird üblicherweise im Sender (19) dem Nutzsignal (20) ein Träger (21) aufmoduliert und über die Strecke (22) geschickt. Im Empfänger (23) wird die gleiche Trägerfrequenz wiederum aufmoduliert (24), wodurch das Nutzsignal (26) und ein Anteil bei der doppelten Trägerfrequenz gewonnen wird. Letzterer kann durch einen einfachen Tiefpaß (25) weggefil­ tert werden. Die verschiedenen Operationen lassen sich auch im Fourierraum darstellen (27). Da alle Operationen linear sind, können sie auch vertauscht werden, was eine Übertragung auf das Kohärenzradar ermöglicht.
Ordnet man das Kohärenzradar in eine solche Struktur ein, wie dies in Abb. 5 geschehen ist, dann ist die Lichtquelle der Sender (30), die Strecke (29) wird vom Referenz- und dem Ob­ jektstrahlengang gebildet; der Empfänger (32) schließlich ist die Kamera. Hier ist es nun die Strecke, wo sowohl Nutzsignal (Einhüllende der Modulation), als auch Trägerfrequenz (28) entstehen. Anstelle der kohärenten Demodulation im Empfänger wird nun der Sender, also die Lichtquelle mit der erwarteten Modulationsfrequenz moduliert (31). Aufgrund des Gleich­ anteils des Modulationssignales erhält man noch einen Anteil bei der Trägerfrequenz (34). Als Tiefpaß wird die Integrationszeit der Kamera ausgenutzt (33).
Es handelt sich hier also nicht um eine kohärente Demodulation wie im nachrichtentechni­ schen Fall, sondern um eine kohärente (Licht-)Modulation.
Geht man von einer sinusförmigen zu einer digitalen (Ein/Aus) Modulation über, so läßt sich dieses Verfahren einfach veranschaulichen: Betrachtet man die Modulation aus Abb. 2 und schaltet die Lichtquelle immer dann ein, wenn eine bezüglich des Mittelwerts positive Halb­ welle in der Modulation erwartet wird und immer dann aus, wenn eine negative Halbwelle erwartet wird, so liefert eine anschließende Tiefpaßfilterung oder eine abschnittsweise Inte­ gration die Einhüllende der Modulation.
Da die mittlere Wellenlänge der Lichtquelle als bekannt vorausgesetzt wird, kann eine Licht­ modulation unmittelbar von der aktuellen Position der Verschiebeeinheit des Sensors gesteu­ ert werden. Abb. 6 zeigt zunächst eine Modulation (35), wie sie ohne modulierte Lichtquelle auf einen Photoempfänger treffen würde. Die Intensität ist dabei über den Ort der Verschie­ beeinheit (entspricht der longitudinalen z-Komponente) aufgetragen. Wird die Lichtmodula­ tion eingeschaltet und eine CCD-Kamera mit einer bestimmten Integrationszeit verwendet, so liefert ein Pixel eine diskretisierte Einhüllende (36). Die dicken Balken kennzeichnen dabei Beginn und Ende der Kameraintegration. Da hier alle Balken die gleiche Länge besitzen, wurde das Objekt mit einer konstanten Geschwindigkeit verfahren. Um die Nachteile der Diskretisierung auszugleichen, kann noch eine Dreipunkt-Subpixelinterpolation um das Maxi­ mum durchgeführt werden, d. h. durch das Maximum und die beiden benachbarten Punkte wird eine Gaußfunktion oder einfach eine Parabel gelegt, deren Maximum dann verwendet wird. Ändert man nach jedem Bildtakt (in der Regel 40 ms) die Phase der Lichtmodulation um 180° und addiert aufeinanderfolgende Bilder pixelweise, so fällt der Gleichanteil noch weg.
Dieses Verfahren funktioniert aber nur dann gut, wenn Lichtmodulation und Specklemodula­ tion etwa phasengleich sind. Da jedoch die Specklephase zufällig ist und viele Speckle auf vielen Kamerapixeln parallel ausgewertet werden, läßt sich keine für alle Speckle geeignete Phase für die Lichtmodulation finden.
Eine weitere Ausprägung des dynamische Kohärenzradars basiert daher auf der modifizierten Anwendung der ebenfalls aus der Nachrichtentechnik bekannten Quadraturamplitudenmodu­ lation (QAM). Wie Abb. 7 zeigt, wird dort das amplitudenmodulierte Signal (37) im Empfän­ ger zunächst aufgespaltet (38) und dann mit zwei um 90° zueinander phasenverschobenen Signalen (39) (40) kohärent demoduliert. Beide so entstandene Signale werden je einem Tief­ paß (41) zugeführt und anschließend quadriert (42). Die abschließende Addition (43) der bei­ den Signale liefert das quadrierte Nutzsignal (44).
Dieses Prinzip ist nicht unmittelbar auf das Kohärenzradar übertragbar, da hier nur ein Tief­ paß, nämlich die Integrationszeit eines Kamerapixels, zur Verfügung steht. Schaltet man aber nach jedem Videotakt die Phase der Lichtmodulation zwischen 0° und 90° um, so kann mit Hilfe einer nachgeschalteten Bildverarbeitung die folgende Gleichung pixelweise ausgeführt werden:
Dabei ist In bzw. In-1 die Intensität des Pixels beim n-ten bzw. (n-1)-ten Videobild und I¯ die mittlere Intensität des Pixels außerhalb des Modulationsbereiches. Abb. 8 zeigt eine so ge­ wonnene Einhüllende: man sieht, wie nach jedem Videobild zwischen den beiden Phasen umgeschaltet wird (45) (46). (47) zeigt schließlich die nach obiger Gleichung gewonnene Einhüllende. Die kohärente Lichtmodulation ist damit phasenunabhängig geworden.
Alternativ dazu kann auch einfach pixelweise der Absolutbetrag der Differenz aufeinand­ erfolgender Bilder, also also
| In - In-1 | (2)
gebildet und einer Maximumsbestimmung unterzogen werden. Dies entspricht einer nicht­ normierten Kontrastbildung in aufeinanderfolgenden Bildern, der Gleichanteil verschwindet ebenfalls.
Der entscheidende Vorteil des dynamischen Kohärenzradars gegenüber den bislang bekannten Verfahren liegt in der Möglichkeit, das Objekt kontinuierlich verfahren zu können ohne dabei den Meßbereich einzuschränken und ohne die Modulation vollständig abtasten zu müssen. Da je nach Verfahrgeschwindigkeit der Verschiebeeinheit ein mehr oder weniger großer Teil der Modulation integriert wird (längere oder kürzere Balken in Abb. 6/8), kann mit der Verfahr­ geschwindigkeit die Genauigkeit des Sensors beeinflußt werden. Es gilt allgemein, daß der Quotient aus Meßfehler und Verfahrgeschwindigkeit konstant ist, d. h. verfährt man bei einer ersten Messung mit einer bestimmten Geschwindigkeit, so kann das Maximum und damit der Ort nur bis auf einen bestimmten Meßfehler genau bestimmt werden; verdoppelt man bei einer zweiten Messung die Geschwindigkeit, so verdoppelt sich auch der Meßfehler (ver­ wendet man allerdings zusätzlich eine Interpolation um das Maximum, so läßt sich die Ge­ nauigkeit noch steigern).
Dieser konstante Quotient hängt von der Kameraintegrationszeit ab. Mit einer Hochgeschwin­ digkeitskamera, die zum Beispiel 800 statt nur 25 Bilder in der Sekunde aufnimmt, kann bei gleicher Meßgenauigkeit mit der 32-fachen Geschwindigkeit verfahren werden.
Möchte man genau vermessen, muß demnach langsam verfahren werden, was Schwierigkei­ ten bringt, sobald innerhalb einer Kameraintegrationszeit nicht um viele Wellenlängen oder ganzzahlige Vielfache von λ/2 verfahren wird. Dann nämlich führt die zum Bildtakt asyn­ chrone Lichtmodulation zu unterschiedlichen pro Bildtakt ausgesandten Lichtmengen, also zu Flackern. Für langsame Verfahrgeschwindigkeiten muß damit die ausgesandte Lichtmenge pro Kameraintegrationszeit konstant gehalten werden.
Die höchste Genauigkeit erreicht man für eine Modulationsfrequenz von f= 0 und bei einer Verfahrgeschwindigkeit von νz=λ/6 pro Videotakt bei ansonsten gleichbleibender Auswer­ tung nach Gleichung (II). Dann wird innerhalb einer Kameraintegrationszeit über ein Drittel der Modulation integriert. Dies führt bei mindestens zwei von drei aufeinanderfolgenden Bildern zu einer hohen Differenz nach Gleichung (II). Auch hier wird wieder nach dem Maximum gesucht.
Literatur
[1] J.W. Goodman, "Statistical properties of Laser speckle pafterns", in "Laser speckle and related phenomena", ed. J.C. Dainty (Springer Verlag, Berlin 1984)
[2] G. Häusler, "About fundamental limits of three-dimensional sensing or nature makes no presents", Proc. of the 15th Congress of the international Comission of Optics, Garmisch-Partenkirchen, SPIE 1319, 352 (August 1990)
[3] G. Häusler, J. Herrmann, "Physical Limits of 3D-Sensing", Proc. SPIE 1822: Optics, Illumination and Image Sensing for Machine Vision VII, Boston, Mass. (1992)
[4] G. Häusler, J. Herrmann, "3D-sensing with a confocal optical macroscope", Proc. of the 15th Congress of the international Comission of Optics, Garmisch-Partenkirchen, SPIE 1319, 352 (August 1990)
[5] A. F. Fercher, H. Z. Hu, U. Vry, "Rough Surface Interferometry with a Two-Wave­ length Heterodyne Speckle Interferometer", Appl. Opt. 24, 2181(1985)
[6] T. Dresel, G. Häusler, H. Venzke, "Three-dimensional sensing of rough surfaces by coherence radar", Appl. Opt. 31 (1992)
[7] G. Häusler, Deutsche Patentschrift DE 41 08 944 C2
[8] G. Häusler, J. Neumann, "Coherence radar - an accurate sensor for rough surfaces", Proc. SPIE 1822: Optics, Illumination and Image Sensing for Machine Vision VII, Boston, Mass. (1992)
[9] K. Cohen et al., US Patent US005133601 vom 28.07.1992
[10] K. D. Kammeyer, "Nachrichtenübertragung", Stuttgart 1992

Claims (15)

1. Abstandssensor bestehend aus einer Lichtquelle mit einer mittleren Wellenlänge, einer interferometrischen Anordnung, einer Verschiebeeinheit, die den Lichtweg in einem Interferometerarm verändert, und Photoempfängern mit zeitlichem Tiefpaßverhalten, die das entstehende, helligkeitsmodulierte Interferometersignal erfassen, und aus deren Aus­ gangssignal in Verbindung mit der Position der Verschiebeeinheit der Abstand von Objektpunkten bestimmt wird, dadurch gekennzeichnet, daß die Lichtquelle in der Intensität moduliert wird und in Verbindung mit den Photoempfängern die Modulations­ tiefe des Interferometersignals bestimmt wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Intensität der Lichtquelle während einer Verschiebung der Verschiebeeinheit um eine halbe mittlere Wellenlänge von hoher Intensität über niedrige Intensität wieder zu hoher Intensität, vorzugsweise sinusförmig, variiert wird.
3. Verfahren nach Anspruch 1-2 dadurch gekennzeichnet, daß der Photoempfänger das Interferometersignal abschnittsweise integriert und die diskretisierte Einhüllende des Interferometersignals liefert.
4. Verfahren nach Anspruch 1-2 dadurch gekennzeichnet, daß die Lichtmodulation mit einer konstanten zeitlichen Frequenz f erfolgt, die sich aus der konstanten Geschwin­ digkeit ν der Verschiebeeinheit und der mittleren Wellenlänge λ der verwendeten Licht­ quelle errechnet zu f = 2·ν/λ.
5. Verfahren nach Anspruch 1-4 dadurch gekennzeichnet, daß die Lichtquelle nicht stetig moduliert wird, sondern mit der Modulationsfrequenz ein- bzw. ausgeschaltet wird.
6. Verfahren nach Anspruch 1-5 dadurch gekennzeichnet, daß als Empfänger pixelweise organisierte Photoempfänger, vorzugsweise CCD-Flächensensoren, mit einer bestimmten Integrationszeit verwendet werden, die das entstehende Intensitätssignal abschnittsweise integrieren.
7. Verfahren nach Anspruch 1-6 dadurch gekennzeichnet, daß nach jeder Integrationszeit der Photoempfänger die Phase der Lichtmodulation verändert wird.
8. Verfahren nach Anspruch 1-7 dadurch gekennzeichnet, daß die Phase der Lichtmodula­ tion nach jeder Integrationszeit um 180° gedreht wird, und daß je zwei aufeinanderfol­ gende aus den Photoempfängern ausgelesene Bilder pixelweise addiert werden.
9. Verfahren nach Anspruch 1-7 dadurch gekennzeichnet, daß die Phase der Lichtmodula­ tion abwechselnd nach jeder Integrationszeit des Photoempfängers um +90° bzw. um - 90° verschoben wird.
10. Verfahren nach Anspruch 1-7 und 9 dadurch gekennzeichnet, daß von allen Pixeln nach abgeschlossener Integrationszeit des Photoempfängers pixelweise der jeweilige Mittel­ wert abgezogen wird, das Ergebnis pixelweise quadriert wird und diese Quadrate zweier aufeinanderfolgender jeweils abgeschlossener Integrationszeiten pixelweise addiert wer­ den.
11. Verfahren nach Anspruch 1-10, dadurch gekennzeichnet, daß zu dem Maximum des durch Integration empfangenen Signals benachbarte Werte mit aufgenommen werden und mit einer anschließenden Interpolation das Maximum genauer bestimmt wird.
12. Verfahren nach Anspruch 1-7, 9 und 11, dadurch gekennzeichnet, daß pixelweise das Maximum der absoluten Differenz aufeinanderfolgender Bilder gebildet wird.
13. Verfahren nach Anspruch 1-12 dadurch gekennzeichnet, daß die pro Integrationszeit des Photoempfängers ausgesandte Lichtmenge konstant gehalten wird.
14. Verfahren nach Anspruch 1-3 und 12, dadurch gekennzeichnet, daß für eine Modula­ tionsfrequenz f→0 eine Verfahrgeschwindigkeit von ungefähr νz=λ/6 pro Integrationszeit gewählt wird.
15. Verfahren nach Anspruch 1-14, dadurch gekennzeichnet, daß bei nicht modulierbaren Lichtquellen der Lichtstrom auf den Photoempfänger oder die Empfindlichkeit des Photoempfängers moduliert wird.
DE19528513A 1995-08-03 1995-08-03 Verfahren zur berührungslosen, schnellen und genauen Erfassung der Oberflächengestalt von Objekten Ceased DE19528513A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE19528513A DE19528513A1 (de) 1995-08-03 1995-08-03 Verfahren zur berührungslosen, schnellen und genauen Erfassung der Oberflächengestalt von Objekten
US08/513,024 US5706085A (en) 1995-08-03 1995-08-09 Method for the non-contact rapid and accurate acquisition of the surface topology of objects

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE19528513A DE19528513A1 (de) 1995-08-03 1995-08-03 Verfahren zur berührungslosen, schnellen und genauen Erfassung der Oberflächengestalt von Objekten
US08/513,024 US5706085A (en) 1995-08-03 1995-08-09 Method for the non-contact rapid and accurate acquisition of the surface topology of objects

Publications (1)

Publication Number Publication Date
DE19528513A1 true DE19528513A1 (de) 1997-02-06

Family

ID=26017399

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19528513A Ceased DE19528513A1 (de) 1995-08-03 1995-08-03 Verfahren zur berührungslosen, schnellen und genauen Erfassung der Oberflächengestalt von Objekten

Country Status (2)

Country Link
US (1) US5706085A (de)
DE (1) DE19528513A1 (de)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE29715904U1 (de) * 1997-09-01 1997-10-23 Omeca Messtechnik Gmbh Interferenzoptische Meßeinrichtung
DE19721883A1 (de) * 1997-05-26 1998-12-03 Bosch Gmbh Robert Interferometrische Meßvorrichtung
DE19740678A1 (de) * 1997-09-16 1999-03-18 Polytec Gmbh Vorrichtung zur berührungslosen Schwingungsmessung
DE19814057A1 (de) * 1998-03-30 1999-10-07 Zeiss Carl Jena Gmbh Anordnung zur spektralinterferometrischen optischen Tomographie und Oberflächenprofilmessung
EP1194735A1 (de) * 1999-05-10 2002-04-10 Metso Paper Automation OY Methode und messeinrichtung fürs messen von papieroberflächen
DE10155203A1 (de) * 2001-11-09 2003-06-18 Bosch Gmbh Robert Laserbearbeitungsvorrichtung
DE10203797C1 (de) * 2002-01-31 2003-08-14 Bosch Gmbh Robert Verfahren und Vorrichtung zur dreidimensionalen interferometrischen Messung
DE102009051779A1 (de) 2009-11-03 2011-05-05 Viscom Ag Vorrichtung zur optischen mehrdimensionalen Formerfassung
DE102009053006A1 (de) * 2009-11-16 2011-05-19 Bundesrepublik Deutschland, vertr.d.d. Bundesministerium für Wirtschaft und Technologie, d.vertr.d.d. Präsidenten der Physikalisch-Technischen Bundesanstalt Längenmessgerät
DE10138656B4 (de) * 2000-08-08 2012-06-21 Mitutoyo Corp. Oberflächenprofilmesseinrichtung
DE102005018168C5 (de) * 2005-04-19 2013-11-07 Carl Mahr Holding Gmbh Weißlichtinterferometrische Mikroskopmesseinrichtung

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10253892A (ja) * 1997-03-11 1998-09-25 Olympus Optical Co Ltd 位相干渉顕微鏡
DE19714202A1 (de) * 1997-04-07 1998-10-15 Bosch Gmbh Robert Vorrichtung zum optischen Prüfen von Oberflächen
US5907404A (en) * 1997-09-08 1999-05-25 Erim International, Inc. Multiple wavelength image plane interferometry
ATE220465T1 (de) 1997-10-29 2002-07-15 Calum E Macaulay Gerät und verfahren zur mikroskopie unter verwendung räumlich modulierten lichtes
US6388809B1 (en) 1997-10-29 2002-05-14 Digital Optical Imaging Corporation Methods and apparatus for improved depth resolution use of out-of-focus information in microscopy
US6320920B1 (en) 1998-10-08 2001-11-20 Gregory Lee Beyke Phase coherence filter
US6556305B1 (en) * 2000-02-17 2003-04-29 Veeco Instruments, Inc. Pulsed source scanning interferometer
US6369879B1 (en) * 2000-10-24 2002-04-09 The Regents Of The University Of California Method and apparatus for determining the coordinates of an object
JP3511097B2 (ja) * 2001-09-04 2004-03-29 金沢大学長 光干渉を用いた形状測定方法および形状測定装置
EP1470387A1 (de) * 2002-01-25 2004-10-27 Coherix Corporation Auf frequenzversetzung basierendes interferenzverfahren
GB2385417B (en) * 2002-03-14 2004-01-21 Taylor Hobson Ltd Surface profiling apparatus
US7385707B2 (en) * 2002-03-14 2008-06-10 Taylor Hobson Limited Surface profiling apparatus
JP3934490B2 (ja) * 2002-06-21 2007-06-20 フジノン株式会社 低コヒーレント干渉縞解析方法
GB2395777B (en) * 2002-11-27 2005-12-28 Taylor Hobson Ltd A surface profiling apparatus
GB2401937B (en) * 2003-05-23 2006-07-19 Taylor Hobson Ltd Surface profiling apparatus
US20040263862A1 (en) * 2003-06-24 2004-12-30 Amparan Alfonso Benjamin Detecting peripheral points of reflected radiation beam spots for topographically mapping a surface
US20050219553A1 (en) * 2003-07-31 2005-10-06 Kelly Patrick V Monitoring apparatus
CN1300550C (zh) * 2004-03-22 2007-02-14 财团法人工业技术研究院 量测待测物表面轮廓的装置及方法
DE102005040661B3 (de) * 2005-08-26 2006-12-28 Leica Microsystems Semiconductor Gmbh Koordinatenmessvorrichtung
FI20060331A0 (fi) * 2006-04-05 2006-04-05 Kari Seppaelae Menetelmä ja laitteisto muodon mittauksen/tunnistukseen
US7898672B1 (en) * 2006-06-23 2011-03-01 Veeco Instruments, Inc. Real-time scanner-nonlinearity error correction for HDVSI
JP5013968B2 (ja) * 2007-02-21 2012-08-29 キヤノン株式会社 信号処理装置、プログラムおよび計測装置
EP1962082A1 (de) * 2007-02-21 2008-08-27 Agfa HealthCare N.V. System und Verfahren zur optischen Kohärenztomographie
US7570366B2 (en) * 2007-02-21 2009-08-04 Corning Incorporated Apparatus for measuring defects in a glass sheet
WO2010092533A1 (en) 2009-02-13 2010-08-19 Ecole Polytechnique Federale De Lausanne (Epfl) Method and apparatus for 3d object shape and surface topology measurements by contour depth extraction acquired in a single shot
US8660324B2 (en) * 2010-03-29 2014-02-25 Raytheon Company Textured pattern sensing using partial-coherence speckle interferometry
US8780182B2 (en) 2010-03-31 2014-07-15 Raytheon Company Imaging system and method using partial-coherence speckle interference tomography
US9007572B2 (en) * 2013-03-13 2015-04-14 Promet International, Inc. Multifunction solid-state inspection system
US10107615B2 (en) 2016-04-20 2018-10-23 Quality Vision International, Inc. Remote probe for optical measuring machine
US10107614B1 (en) 2017-04-18 2018-10-23 Quality Vision International, Inc. Optical pen for interferometric measuring machine
CN114719978A (zh) * 2021-05-17 2022-07-08 中国科学院上海光学精密机械研究所 基于色散补偿的宽波段超瑞利散斑关联成像光谱相机及其成像方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5122648A (en) * 1990-06-01 1992-06-16 Wyko Corporation Apparatus and method for automatically focusing an interference microscope
US5204734A (en) * 1991-06-12 1993-04-20 Wyko Corporation Rough surface profiler and method

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19721883A1 (de) * 1997-05-26 1998-12-03 Bosch Gmbh Robert Interferometrische Meßvorrichtung
DE19721883C2 (de) * 1997-05-26 1999-04-15 Bosch Gmbh Robert Interferometrische Meßvorrichtung
DE29715904U1 (de) * 1997-09-01 1997-10-23 Omeca Messtechnik Gmbh Interferenzoptische Meßeinrichtung
US6084672A (en) * 1997-09-16 2000-07-04 Polytec Gmbh Device for optically measuring an object using a laser interferometer
DE19740678A1 (de) * 1997-09-16 1999-03-18 Polytec Gmbh Vorrichtung zur berührungslosen Schwingungsmessung
DE19814057B4 (de) * 1998-03-30 2009-01-02 Carl Zeiss Meditec Ag Anordnung zur optischen Kohärenztomographie und Kohärenztopographie
DE19814057A1 (de) * 1998-03-30 1999-10-07 Zeiss Carl Jena Gmbh Anordnung zur spektralinterferometrischen optischen Tomographie und Oberflächenprofilmessung
EP1194735A1 (de) * 1999-05-10 2002-04-10 Metso Paper Automation OY Methode und messeinrichtung fürs messen von papieroberflächen
DE10138656B4 (de) * 2000-08-08 2012-06-21 Mitutoyo Corp. Oberflächenprofilmesseinrichtung
DE10155203A1 (de) * 2001-11-09 2003-06-18 Bosch Gmbh Robert Laserbearbeitungsvorrichtung
DE10203797C1 (de) * 2002-01-31 2003-08-14 Bosch Gmbh Robert Verfahren und Vorrichtung zur dreidimensionalen interferometrischen Messung
DE102005018168C5 (de) * 2005-04-19 2013-11-07 Carl Mahr Holding Gmbh Weißlichtinterferometrische Mikroskopmesseinrichtung
DE102009051779A1 (de) 2009-11-03 2011-05-05 Viscom Ag Vorrichtung zur optischen mehrdimensionalen Formerfassung
DE102009053006A1 (de) * 2009-11-16 2011-05-19 Bundesrepublik Deutschland, vertr.d.d. Bundesministerium für Wirtschaft und Technologie, d.vertr.d.d. Präsidenten der Physikalisch-Technischen Bundesanstalt Längenmessgerät
DE102009053006B4 (de) * 2009-11-16 2014-04-24 Bundesrepublik Deutschland, vertr.d.d. Bundesministerium für Wirtschaft und Technologie, d.vertr.d.d. Präsidenten der Physikalisch-Technischen Bundesanstalt Längenmessgerät

Also Published As

Publication number Publication date
US5706085A (en) 1998-01-06

Similar Documents

Publication Publication Date Title
DE19528513A1 (de) Verfahren zur berührungslosen, schnellen und genauen Erfassung der Oberflächengestalt von Objekten
DE4108944A1 (de) Verfahren und einrichtung zur beruehrungslosen erfassung der oberflaechengestalt von diffus streuenden objekten
DE10392754T5 (de) Interferometrisches optisches System und Verfahren, die eine optische Pfadlänge und einen Fokus bzw. Brennpunkt liefern, die gleichzeitig abgetastet werden
DE10131778B4 (de) Optische Messvorrichtung
DE102005061464B4 (de) Verfahren und Vorrichtungen zur optischen Abstandsmessung
DE102005023212B4 (de) Verfahren und Vorrichtung zur schnellen und genauen Weisslichtinterferometrie
DE4124223A1 (de) Verfahren zur auswertung von interferogrammen und interferometer
EP0776457B1 (de) Verfahren und interferenzmikroskop zum mikroskopieren eines objektes zur erzielung einer auflösung jenseits der beugungsgrenze
EP1311801B1 (de) Interferometrische, kurzkohärente formmessvorrichtung für mehrere flächen ( ventilsitz ) durch mehrere referenzebenen
DE4429578A1 (de) Verfahren zur berührungslosen, schnellen und genauen Erfassungs der Oberflächengestalt von Objekten
DE102006007573B4 (de) Verfahren und Vorrichtung zur 3D-Geometrieerfassung von Objektoberflächen
DE10047495B4 (de) Interferometrische Messvorrichtung zur Formvermessung
DE102004026193B4 (de) Messverfahren zur Formmessung
DE3527074A1 (de) Anordnung zur bestimmung der oberflaechengestalt von objekten mittels moiretechnik
DE2144487B2 (de) Einrichtung zur beruhrungslosen Messung
DE10131779B4 (de) Interferometrische Messvorrichtung
DE10131780A1 (de) Interferometrische Messvorrichtung
DE10321886A1 (de) Robuster interferometrischer Sensor und Verfahren zur Objektabtastung
DE4233336C2 (de) Verfahren und Vorrichtung zur Detektion von Fokusablagen
EP1210564B1 (de) Interferometrische messvorrichtung
US3989378A (en) Method for no-contact measurement
DE102010022421A1 (de) Messeinrichtung und Messverfahren zur absoluten Abstandsmessung
DE19521551C2 (de) Speckle-Interferometrie-Verfahren zur Gewinnung topographischer Informationen von einer konstanten Objektoberfläche
DE102005031216A1 (de) Verfahren und Anordnung zur schnellen Erfassung der Oberflächengestalt von Objekten
DE10236692B4 (de) Optisches Ellipso-Höhentopometer zur Messung der Höhen und der Materialeigenschaften von Oberflächen

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8131 Rejection