DE19528513A1 - Verfahren zur berührungslosen, schnellen und genauen Erfassung der Oberflächengestalt von Objekten - Google Patents
Verfahren zur berührungslosen, schnellen und genauen Erfassung der Oberflächengestalt von ObjektenInfo
- Publication number
- DE19528513A1 DE19528513A1 DE19528513A DE19528513A DE19528513A1 DE 19528513 A1 DE19528513 A1 DE 19528513A1 DE 19528513 A DE19528513 A DE 19528513A DE 19528513 A DE19528513 A DE 19528513A DE 19528513 A1 DE19528513 A1 DE 19528513A1
- Authority
- DE
- Germany
- Prior art keywords
- pixel
- light
- modulation
- integration time
- photo
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/026—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/30—Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
- G01B11/303—Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces using photoelectric detection means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B9/00—Measuring instruments characterised by the use of optical techniques
- G01B9/02—Interferometers
- G01B9/02001—Interferometers characterised by controlling or generating intrinsic radiation properties
- G01B9/02012—Interferometers characterised by controlling or generating intrinsic radiation properties using temporal intensity variation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B9/00—Measuring instruments characterised by the use of optical techniques
- G01B9/02—Interferometers
- G01B9/0209—Low-coherence interferometers
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
Es wird ein Verfahren beschrieben, mit dem berührungslos die makroskopische Topologie
von vorzugsweise rauhen Oberflächen, sehr schnell oder sehr genau mit allen Zwischenlö
sungen vermessen werden kann (3D-Sensor).
Die Oberflächengestalt wird dabei entsprechend Abb. 1 in einem orthogonalen, dreiachsigen
Koordinatensystem (1) beschrieben, in dem die x- und y-Koordinate den lateralen und die z-
Koordinate den longitudinalen Ort eines Objektpunktes festlegt. Die longitudinale Kompo
nente entspricht dabei der Beleuchtungsrichtung (hier auch Beobachtungsrichtung) des Sen
sors. Sensoren, die eine solche Oberflächengestalt, meist als Funktion z(x,y) vermessen,
werden 3D-Sensoren genannt.
Es gibt nun grundsätzlich vier verschiedene Methoden, mit denen Objekte berührungslos ver
messen werden können: die Triangulation mit all ihren verschiedenen Ausführungen, die
fokussuchenden Verfahren, die die Laufzeit messenden Verfahren und schließlich die inter
ferometrischen Verfahren.
Bei den Triangulationssensoren wird aus verschiedenen Richtungen beleuchtet und beobachtet
(Triangulationswinkel). Die Höheninformation wird daher auf der Beobachtungsseite in eine
laterale Information übersetzt. Systemimmanente Probleme bei diesen Sensoren sind die
durch die nicht koaxiale Beleuchtung und Beobachtung hervorgerufenen Abschaftungen; bei
den flächenhaft beleuchtenden Sensoren (codierte Beleuchtung) kommen noch Schärfentiefe
probleme hinzu. Weiterhin ist die Beobachtungsapertur ein begrenzender Faktor, die bei vor
gegebenem Arbeitsabstand nur eine begrenzte Meßgenauigkeit zuläßt. Hinzu kommt bei
(teil-)kohärenter Beleuchtung das Auftreten von Speckle, wie sie Goodman in "Statistical
Properties of Laser speckle pafterns" in "Laser Speckle and related phenomena" (ed. Dainty,
Berlin 1984). Diese ziehen eine statistische Meßunsicherheit nach sich, wie sie Häusler in
"About fundamental limits of three-dimensional sensing or nature makes no presents", Proc.
15th ICO Congress (1990) und in "physical limits of 3D-sensing", Proc. SPIE 1822 (1992)
beschrieben hat.
Für die fokussuchenden Verfahren gelten die oben bezüglich der Beobachtungsapertur und
der (teil-)kohärenten Beleuchtung getroffenen Aussagen ebenfalls, wie Häusler und Herrmann
in "3D-sensing with a confocal optical macroscope" (Proc. of the 15th ICO Congress, 1990)
gezeigt haben.
Die die Laufzeit messenden Verfahren sind für die Vermessung von Objekte mit einer Ge
nauigkeit im Mikrometerbereich nicht geeignet, da man beispielsweise eine Zeitauflösung in
der Größenordnung von 10-14 s benötigt, um einen Mikrometer auflösen zu können.
Die klassische Interferometrie kann nur bei optisch glatten Oberflächen eingesetzt werden,
d. h. bei einer Oberflächenrauhigkeit, die deutlich unter der verwendeten Wellenlänge der Be
leuchtung liegt. Nur dann wird die reflektierte Wellenfront nicht zerstört und eine Phasen
auswertung kann durchgeführt werden. Fercher schlägt deshalb in "Rough Surface Interfero
metry with a Two-Wavelength Heterodyne Speckle Interferometer" (Applied Optics 24; 1985)
vor, bei rauhen Oberflächen mit heterodyner Beleuchtung zu arbeiten, d. h. es wird mit einer
synthetischen Wellenlänge beleuchtet, die größer als die Rauhigkeit des Objektes ist. Bei den
interferometrischen Verfahren treten allerdings Eindeutigkeitsprobleme auf, sobald das zu
vermessende Objekt Unstetigkeitsstellen aufweist, die größer als die halbe synthetische Wel
lenlänge sind. Dresel et al. stellt in "Three dimensional sensing of rough surfaces by cohe
rence radar" (Applied Optics 31, 1992) ebenso wie Häusler in der Deutschen Patentschrift
DE 41 08 944 C2 sowie Häusler et al. in "Coherence radar - an accurate sensor for rough surfa
ces" (Porc. SPIE 1822, 1992) einen Sensor vor, das Kohärenzradar, welches auf dem Michel
son Interferometer Prinzip beruht.
Der eine Spiegel wird dabei durch das diffus streuende, zu vermessende Objekt ersetzt. Der
Aufbau ist in Abb. 1 gezeigt. Die Lichtquelle (2) wird über eine Linse (3) ins Unendliche
abgebildet. Über den Strahlteiler (4) wird das parallele Strahlenbündel aufgeteilt und ein Teil
wird vom Referenzspiegel (5) reflektiert, der andere Teil wird am rauhen Objekt (6) gestreut.
Damit die Intensitäten der rücklaufenden Strahlen jeweils ungefähr gleich sind, ist in den
Referenzarm noch ein Graufilter (7) eingesetzt worden. Die Glasplatte (8) im Objektstrahlen
gang kompensiert die durch den Graufilter eingeführte Dispersion. Der Referenzspiegel (und
damit auch die Teile des Objektes, deren optische Weglängen mit dem Referenzspiegel abge
glichen sind) wird über eine Abbildungsoptik (9) auf den Photoempfänger, üblicherweise eine
CCD-Kamera (10) abgebildet.
Aufgrund der teilkohärenten Beleuchtung und der Tatsache, daß die Beobachtungsapertur
größer als die Beleuchtungsapertur ist, sieht die Kamera auf der Beobachtungsseite Speckle
(optimal: jedes Kamerapixel wird durch gerade ein Speckle ausgeleuchtet). Die gewählte
Abbildung ordnet jedem Speckle eindeutig einen lateralen Ort (x,y) auf der Objektoberfläche
zu. Bei einer rauhen Oberfläche ist die Phase in den einzelnen Speckle zufällig, d. h. es kann
nicht wie bei der klassischen Interferometrie aus der Phase eine Höheninformation gewonnen
werden.
Wird das Objekt (oder bei kleinem Meßbereich die Referenz) mit Hilfe einer Verschiebeein
heit (11) koaxial zur Beleuchtung verfahren, so zeigen diejenigen Speckle eine Intensitäts
modulation, für die das Interferometer innerhalb der Kohärenzlänge der Lichtquelle abgegli
chen ist.
Bei dieser Intensitätsmodulation handelt es sich um eine Amplitudenmodulation, wobei diese
- im Gegensatz zu der aus der Nachrichtentechnik bekannten Version - ortsabhängig und zu
dem mit einem Gleichanteil behaftet ist. Abb. 2 zeigt eine solche Modulation (13), wobei die
Intensität über den Ort aufgetragen ist. Die inverse örtliche (!) Trägerfrequenz des amplitu
denmodulierten Signals entspricht der halben mittleren Wellenlänge der verwendeten Licht
quelle.
Für die Auswertung ist nur die Einhüllende (14) von Interesse, genauer der Ort z₀ Maxi
mums. Dort weisen nämlich der zum Speckle gehörige Objektpunkt (x₀, y₀) und die Referenz
gleiche optische Weglängen auf. Wird nun das Objekt vollständig durch die Ebene verfahren,
bei der die optische Weglänge mit der Referenz abgeglichen ist, und zeichnet man immer
dann, wenn ein Speckle maximal moduliert ist, für den entsprechenden Objektpunkt die
Position der Verschiebeeinheit auf, so erhält man ein vollständiges Höhenbild des Objektes.
Die Nachrichtentechnik kennt nun unter anderem die Hüllkurvendemodulation als Dekodier
verfahren für ein solches amplitudenmoduliertes Signal, wie es ortsabhängig in jedem Speck
le auftritt. Verfährt man das Objekt bzw. den Referenzspiegel mit einer möglichst konstanten
Geschwindigkeit, so läßt sich die Hüllkurvendemodulation analog einfach realisieren, wie
dies in Abb. 3 gezeigt ist: Zur Dekodierung muß das Signal (15) einen Bandpaß (16) eine
Gleichrichtung (17) und schließlich einen Tiefpaß (18) durchlaufen. Das Maximum der Ein
hüllenden ergibt den Ort gleicher Weglängen. Für einen Punktsensor, der nur ein einziges
Speckle auswertet, wurde dies auch realisiert, wie dies in der Deutschen Patentschrift
DE 41 08 944 C2 von Häusler vorgeschlagen ist. Für einen Flächensensor, der parallel viele
Speckle auswerten muß, ist dieses Demodulationsverfahren aber nur bedingt einsetzbar. Bis
lang sind drei verschiedene Ansätze dafür bekannt:
Die erste Möglichkeit besteht lt. Häuslers Patentschrift darin, nicht die Einhüllende auszuwer ten, sondern direkt die Modulation. Dazu wird zunächst mit einer Verschiebeeinheit - s. Abb. 1 (11) - das Objekt verschoben.
Die erste Möglichkeit besteht lt. Häuslers Patentschrift darin, nicht die Einhüllende auszuwer ten, sondern direkt die Modulation. Dazu wird zunächst mit einer Verschiebeeinheit - s. Abb. 1 (11) - das Objekt verschoben.
Anschließend wird der auf einem Piezo (12) angebrachte Referenzspiegel um k·λ/3 (k=0, 1, 2)
verschoben und jeweils mit der CCD-Kamera ein Bild aufgenommen.
Pixelweise werden dann die drei Bilder miteinander verrechnet und daraus die jeweilige
Pixel-/Specklemodulation berechnet. Wird die Modulation in einem Pixel maximal, so wird
die zugehörige Position der Verschiebeeinheit abgespeichert. Nachteilig bei diesem Verfahren
ist, daß pro Höhenstufe drei Bilder aufgenommen und verrechnet werden müssen. Für jedes
Bild muß zudem der Piezo verstellt werden und auch eingeschwungen sein. Zwischen je zwei
Höhenbildern muß die Verschiebeeinheit ebenfalls bewegt werden und eingeschwungen sein.
Dieses Verfahren ist also quasistatisch und damit sehr zeitaufwendig.
Ein anderer Ansatz verfolgt zwar grundsätzlich die gleiche Strategie, d. h. es wird auch nur
die Modulation bestimmt, allerdings wird das Objekt kontinuierlich verfahren. Mit einer
Hochgeschwindigkeitskamera werden bei fahrendem Objekt alle von der Kamera kommenden
Bilder abgespeichert und offline ausgewertet. Die Kamera muß dabei so schnell sein, daß
nicht nur die Modulation nach Nyquist vollständig abgetastet wird, sondern auch noch Inten
sitätsänderungen während der Integrationszeit der Kamera vernachlässigt werden können.
Dieses Verfahren hat zwar eine stark verkürzte Meßzeit, der Meßbereich ist aber durch die
Anzahl der abspeicherbaren Bilder begrenzt (1 mm Meßbereich bei 10 Abtastungen pro Mo
dulation und einer mittleren Wellenlänge von 630 nm benötigt ca. 32.000 Bilder!)
Eine dritter Ansatz verfolgt eine online Auswertung mit Hilfe von digitalen Filtern, wie dies im U.S. Patent 5,133,601(1991) vorgeschlagen wird.
Eine dritter Ansatz verfolgt eine online Auswertung mit Hilfe von digitalen Filtern, wie dies im U.S. Patent 5,133,601(1991) vorgeschlagen wird.
Hier wird tatsächlich pixelweise eine der Hüllkurvendemodulation ähnliche Filterung vor
genommen, indem unter Beachtung des Nyquist-Kriteriums die Modulation vollständig abge
tastet und einem digitalen Filter zugeführt wird. Dazu ist aber ebenfalls ein statischer Betrieb
notwendig, d. h. die Verschiebeeinheit (Piezo) muß bei der Aufnahme der Bilder stehen, oder
aber es wird nur sehr langsam verfahren.
Hier wird die Anwendung eines aus der Nachrichtentechnik (NT) bekannten, modifizierten
Demodulationsverfahrens vorgeschlagen, mit dem das Objekt kontinuierlich verfahren werden
kann, mit dem online ausgewertet werden kann und die Modulation nicht vollständig abgeta
stet werden muß. Aufgrund der Möglichkeit des kontinuierlichen Verfahrens wird der Sensor
im folgenden als dynamisches Kohärenzradar bezeichnet, wobei dieses Verfahren auch für ein
konventionelles Weißlichinterferometer eingesetzt werden kann, ohne dabei allerdings die Ge
nauigkeit der phasenmessenden Verfahren erreichen zu können.
Das vorgeschlagene Verfahren ähnelt der kohärenten Demodulation aus der NT, welches in
Abb. 4 gezeigt ist und z. B. von Kammeyer in "Nachrichtenübertragung" (Stuttgart 1992)
erläutert wird.
Dort wird üblicherweise im Sender (19) dem Nutzsignal (20) ein Träger (21) aufmoduliert
und über die Strecke (22) geschickt. Im Empfänger (23) wird die gleiche Trägerfrequenz
wiederum aufmoduliert (24), wodurch das Nutzsignal (26) und ein Anteil bei der doppelten
Trägerfrequenz gewonnen wird. Letzterer kann durch einen einfachen Tiefpaß (25) weggefil
tert werden. Die verschiedenen Operationen lassen sich auch im Fourierraum darstellen (27).
Da alle Operationen linear sind, können sie auch vertauscht werden, was eine Übertragung
auf das Kohärenzradar ermöglicht.
Ordnet man das Kohärenzradar in eine solche Struktur ein, wie dies in Abb. 5 geschehen ist,
dann ist die Lichtquelle der Sender (30), die Strecke (29) wird vom Referenz- und dem Ob
jektstrahlengang gebildet; der Empfänger (32) schließlich ist die Kamera. Hier ist es nun die
Strecke, wo sowohl Nutzsignal (Einhüllende der Modulation), als auch Trägerfrequenz (28)
entstehen. Anstelle der kohärenten Demodulation im Empfänger wird nun der Sender, also
die Lichtquelle mit der erwarteten Modulationsfrequenz moduliert (31). Aufgrund des Gleich
anteils des Modulationssignales erhält man noch einen Anteil bei der Trägerfrequenz (34).
Als Tiefpaß wird die Integrationszeit der Kamera ausgenutzt (33).
Es handelt sich hier also nicht um eine kohärente Demodulation wie im nachrichtentechni
schen Fall, sondern um eine kohärente (Licht-)Modulation.
Geht man von einer sinusförmigen zu einer digitalen (Ein/Aus) Modulation über, so läßt sich
dieses Verfahren einfach veranschaulichen: Betrachtet man die Modulation aus Abb. 2 und
schaltet die Lichtquelle immer dann ein, wenn eine bezüglich des Mittelwerts positive Halb
welle in der Modulation erwartet wird und immer dann aus, wenn eine negative Halbwelle
erwartet wird, so liefert eine anschließende Tiefpaßfilterung oder eine abschnittsweise Inte
gration die Einhüllende der Modulation.
Da die mittlere Wellenlänge der Lichtquelle als bekannt vorausgesetzt wird, kann eine Licht
modulation unmittelbar von der aktuellen Position der Verschiebeeinheit des Sensors gesteu
ert werden. Abb. 6 zeigt zunächst eine Modulation (35), wie sie ohne modulierte Lichtquelle
auf einen Photoempfänger treffen würde. Die Intensität ist dabei über den Ort der Verschie
beeinheit (entspricht der longitudinalen z-Komponente) aufgetragen. Wird die Lichtmodula
tion eingeschaltet und eine CCD-Kamera mit einer bestimmten Integrationszeit verwendet, so
liefert ein Pixel eine diskretisierte Einhüllende (36). Die dicken Balken kennzeichnen dabei
Beginn und Ende der Kameraintegration. Da hier alle Balken die gleiche Länge besitzen,
wurde das Objekt mit einer konstanten Geschwindigkeit verfahren. Um die Nachteile der
Diskretisierung auszugleichen, kann noch eine Dreipunkt-Subpixelinterpolation um das Maxi
mum durchgeführt werden, d. h. durch das Maximum und die beiden benachbarten Punkte
wird eine Gaußfunktion oder einfach eine Parabel gelegt, deren Maximum dann verwendet
wird. Ändert man nach jedem Bildtakt (in der Regel 40 ms) die Phase der Lichtmodulation
um 180° und addiert aufeinanderfolgende Bilder pixelweise, so fällt der Gleichanteil noch
weg.
Dieses Verfahren funktioniert aber nur dann gut, wenn Lichtmodulation und Specklemodula
tion etwa phasengleich sind. Da jedoch die Specklephase zufällig ist und viele Speckle auf
vielen Kamerapixeln parallel ausgewertet werden, läßt sich keine für alle Speckle geeignete
Phase für die Lichtmodulation finden.
Eine weitere Ausprägung des dynamische Kohärenzradars basiert daher auf der modifizierten
Anwendung der ebenfalls aus der Nachrichtentechnik bekannten Quadraturamplitudenmodu
lation (QAM). Wie Abb. 7 zeigt, wird dort das amplitudenmodulierte Signal (37) im Empfän
ger zunächst aufgespaltet (38) und dann mit zwei um 90° zueinander phasenverschobenen
Signalen (39) (40) kohärent demoduliert. Beide so entstandene Signale werden je einem Tief
paß (41) zugeführt und anschließend quadriert (42). Die abschließende Addition (43) der bei
den Signale liefert das quadrierte Nutzsignal (44).
Dieses Prinzip ist nicht unmittelbar auf das Kohärenzradar übertragbar, da hier nur ein Tief
paß, nämlich die Integrationszeit eines Kamerapixels, zur Verfügung steht. Schaltet man aber
nach jedem Videotakt die Phase der Lichtmodulation zwischen 0° und 90° um, so kann mit
Hilfe einer nachgeschalteten Bildverarbeitung die folgende Gleichung pixelweise ausgeführt
werden:
Dabei ist In bzw. In-1 die Intensität des Pixels beim n-ten bzw. (n-1)-ten Videobild und I¯ die
mittlere Intensität des Pixels außerhalb des Modulationsbereiches. Abb. 8 zeigt eine so ge
wonnene Einhüllende: man sieht, wie nach jedem Videobild zwischen den beiden Phasen
umgeschaltet wird (45) (46). (47) zeigt schließlich die nach obiger Gleichung gewonnene
Einhüllende. Die kohärente Lichtmodulation ist damit phasenunabhängig geworden.
Alternativ dazu kann auch einfach pixelweise der Absolutbetrag der Differenz aufeinand
erfolgender Bilder, also also
| In - In-1 | (2)
gebildet und einer Maximumsbestimmung unterzogen werden. Dies entspricht einer nicht
normierten Kontrastbildung in aufeinanderfolgenden Bildern, der Gleichanteil verschwindet
ebenfalls.
Der entscheidende Vorteil des dynamischen Kohärenzradars gegenüber den bislang bekannten
Verfahren liegt in der Möglichkeit, das Objekt kontinuierlich verfahren zu können ohne dabei
den Meßbereich einzuschränken und ohne die Modulation vollständig abtasten zu müssen. Da
je nach Verfahrgeschwindigkeit der Verschiebeeinheit ein mehr oder weniger großer Teil der
Modulation integriert wird (längere oder kürzere Balken in Abb. 6/8), kann mit der Verfahr
geschwindigkeit die Genauigkeit des Sensors beeinflußt werden. Es gilt allgemein, daß der
Quotient aus Meßfehler und Verfahrgeschwindigkeit konstant ist, d. h. verfährt man bei einer
ersten Messung mit einer bestimmten Geschwindigkeit, so kann das Maximum und damit der
Ort nur bis auf einen bestimmten Meßfehler genau bestimmt werden; verdoppelt man bei
einer zweiten Messung die Geschwindigkeit, so verdoppelt sich auch der Meßfehler (ver
wendet man allerdings zusätzlich eine Interpolation um das Maximum, so läßt sich die Ge
nauigkeit noch steigern).
Dieser konstante Quotient hängt von der Kameraintegrationszeit ab. Mit einer Hochgeschwin
digkeitskamera, die zum Beispiel 800 statt nur 25 Bilder in der Sekunde aufnimmt, kann bei
gleicher Meßgenauigkeit mit der 32-fachen Geschwindigkeit verfahren werden.
Möchte man genau vermessen, muß demnach langsam verfahren werden, was Schwierigkei
ten bringt, sobald innerhalb einer Kameraintegrationszeit nicht um viele Wellenlängen oder
ganzzahlige Vielfache von λ/2 verfahren wird. Dann nämlich führt die zum Bildtakt asyn
chrone Lichtmodulation zu unterschiedlichen pro Bildtakt ausgesandten Lichtmengen, also zu
Flackern. Für langsame Verfahrgeschwindigkeiten muß damit die ausgesandte Lichtmenge
pro Kameraintegrationszeit konstant gehalten werden.
Die höchste Genauigkeit erreicht man für eine Modulationsfrequenz von f= 0 und bei einer
Verfahrgeschwindigkeit von νz=λ/6 pro Videotakt bei ansonsten gleichbleibender Auswer
tung nach Gleichung (II). Dann wird innerhalb einer Kameraintegrationszeit über ein Drittel
der Modulation integriert. Dies führt bei mindestens zwei von drei aufeinanderfolgenden
Bildern zu einer hohen Differenz nach Gleichung (II). Auch hier wird wieder nach dem
Maximum gesucht.
[1] J.W. Goodman, "Statistical properties of Laser speckle pafterns", in "Laser speckle
and related phenomena", ed. J.C. Dainty (Springer Verlag, Berlin 1984)
[2] G. Häusler, "About fundamental limits of three-dimensional sensing or nature makes no presents", Proc. of the 15th Congress of the international Comission of Optics, Garmisch-Partenkirchen, SPIE 1319, 352 (August 1990)
[3] G. Häusler, J. Herrmann, "Physical Limits of 3D-Sensing", Proc. SPIE 1822: Optics, Illumination and Image Sensing for Machine Vision VII, Boston, Mass. (1992)
[4] G. Häusler, J. Herrmann, "3D-sensing with a confocal optical macroscope", Proc. of the 15th Congress of the international Comission of Optics, Garmisch-Partenkirchen, SPIE 1319, 352 (August 1990)
[5] A. F. Fercher, H. Z. Hu, U. Vry, "Rough Surface Interferometry with a Two-Wave length Heterodyne Speckle Interferometer", Appl. Opt. 24, 2181(1985)
[6] T. Dresel, G. Häusler, H. Venzke, "Three-dimensional sensing of rough surfaces by coherence radar", Appl. Opt. 31 (1992)
[7] G. Häusler, Deutsche Patentschrift DE 41 08 944 C2
[8] G. Häusler, J. Neumann, "Coherence radar - an accurate sensor for rough surfaces", Proc. SPIE 1822: Optics, Illumination and Image Sensing for Machine Vision VII, Boston, Mass. (1992)
[9] K. Cohen et al., US Patent US005133601 vom 28.07.1992
[10] K. D. Kammeyer, "Nachrichtenübertragung", Stuttgart 1992
[2] G. Häusler, "About fundamental limits of three-dimensional sensing or nature makes no presents", Proc. of the 15th Congress of the international Comission of Optics, Garmisch-Partenkirchen, SPIE 1319, 352 (August 1990)
[3] G. Häusler, J. Herrmann, "Physical Limits of 3D-Sensing", Proc. SPIE 1822: Optics, Illumination and Image Sensing for Machine Vision VII, Boston, Mass. (1992)
[4] G. Häusler, J. Herrmann, "3D-sensing with a confocal optical macroscope", Proc. of the 15th Congress of the international Comission of Optics, Garmisch-Partenkirchen, SPIE 1319, 352 (August 1990)
[5] A. F. Fercher, H. Z. Hu, U. Vry, "Rough Surface Interferometry with a Two-Wave length Heterodyne Speckle Interferometer", Appl. Opt. 24, 2181(1985)
[6] T. Dresel, G. Häusler, H. Venzke, "Three-dimensional sensing of rough surfaces by coherence radar", Appl. Opt. 31 (1992)
[7] G. Häusler, Deutsche Patentschrift DE 41 08 944 C2
[8] G. Häusler, J. Neumann, "Coherence radar - an accurate sensor for rough surfaces", Proc. SPIE 1822: Optics, Illumination and Image Sensing for Machine Vision VII, Boston, Mass. (1992)
[9] K. Cohen et al., US Patent US005133601 vom 28.07.1992
[10] K. D. Kammeyer, "Nachrichtenübertragung", Stuttgart 1992
Claims (15)
1. Abstandssensor bestehend aus einer Lichtquelle mit einer mittleren Wellenlänge, einer
interferometrischen Anordnung, einer Verschiebeeinheit, die den Lichtweg in einem
Interferometerarm verändert, und Photoempfängern mit zeitlichem Tiefpaßverhalten, die
das entstehende, helligkeitsmodulierte Interferometersignal erfassen, und aus deren Aus
gangssignal in Verbindung mit der Position der Verschiebeeinheit der Abstand von
Objektpunkten bestimmt wird, dadurch gekennzeichnet, daß die Lichtquelle in der
Intensität moduliert wird und in Verbindung mit den Photoempfängern die Modulations
tiefe des Interferometersignals bestimmt wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Intensität der Lichtquelle
während einer Verschiebung der Verschiebeeinheit um eine halbe mittlere Wellenlänge
von hoher Intensität über niedrige Intensität wieder zu hoher Intensität, vorzugsweise
sinusförmig, variiert wird.
3. Verfahren nach Anspruch 1-2 dadurch gekennzeichnet, daß der Photoempfänger das
Interferometersignal abschnittsweise integriert und die diskretisierte Einhüllende des
Interferometersignals liefert.
4. Verfahren nach Anspruch 1-2 dadurch gekennzeichnet, daß die Lichtmodulation mit
einer konstanten zeitlichen Frequenz f erfolgt, die sich aus der konstanten Geschwin
digkeit ν der Verschiebeeinheit und der mittleren Wellenlänge λ der verwendeten Licht
quelle errechnet zu f = 2·ν/λ.
5. Verfahren nach Anspruch 1-4 dadurch gekennzeichnet, daß die Lichtquelle nicht stetig
moduliert wird, sondern mit der Modulationsfrequenz ein- bzw. ausgeschaltet wird.
6. Verfahren nach Anspruch 1-5 dadurch gekennzeichnet, daß als Empfänger pixelweise
organisierte Photoempfänger, vorzugsweise CCD-Flächensensoren, mit einer bestimmten
Integrationszeit verwendet werden, die das entstehende Intensitätssignal abschnittsweise
integrieren.
7. Verfahren nach Anspruch 1-6 dadurch gekennzeichnet, daß nach jeder Integrationszeit
der Photoempfänger die Phase der Lichtmodulation verändert wird.
8. Verfahren nach Anspruch 1-7 dadurch gekennzeichnet, daß die Phase der Lichtmodula
tion nach jeder Integrationszeit um 180° gedreht wird, und daß je zwei aufeinanderfol
gende aus den Photoempfängern ausgelesene Bilder pixelweise addiert werden.
9. Verfahren nach Anspruch 1-7 dadurch gekennzeichnet, daß die Phase der Lichtmodula
tion abwechselnd nach jeder Integrationszeit des Photoempfängers um +90° bzw. um -
90° verschoben wird.
10. Verfahren nach Anspruch 1-7 und 9 dadurch gekennzeichnet, daß von allen Pixeln nach
abgeschlossener Integrationszeit des Photoempfängers pixelweise der jeweilige Mittel
wert abgezogen wird, das Ergebnis pixelweise quadriert wird und diese Quadrate zweier
aufeinanderfolgender jeweils abgeschlossener Integrationszeiten pixelweise addiert wer
den.
11. Verfahren nach Anspruch 1-10, dadurch gekennzeichnet, daß zu dem Maximum des
durch Integration empfangenen Signals benachbarte Werte mit aufgenommen werden
und mit einer anschließenden Interpolation das Maximum genauer bestimmt wird.
12. Verfahren nach Anspruch 1-7, 9 und 11, dadurch gekennzeichnet, daß pixelweise das
Maximum der absoluten Differenz aufeinanderfolgender Bilder gebildet wird.
13. Verfahren nach Anspruch 1-12 dadurch gekennzeichnet, daß die pro Integrationszeit des
Photoempfängers ausgesandte Lichtmenge konstant gehalten wird.
14. Verfahren nach Anspruch 1-3 und 12, dadurch gekennzeichnet, daß für eine Modula
tionsfrequenz f→0 eine Verfahrgeschwindigkeit von ungefähr νz=λ/6 pro Integrationszeit
gewählt wird.
15. Verfahren nach Anspruch 1-14, dadurch gekennzeichnet, daß bei nicht modulierbaren
Lichtquellen der Lichtstrom auf den Photoempfänger oder die Empfindlichkeit des
Photoempfängers moduliert wird.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19528513A DE19528513A1 (de) | 1995-08-03 | 1995-08-03 | Verfahren zur berührungslosen, schnellen und genauen Erfassung der Oberflächengestalt von Objekten |
US08/513,024 US5706085A (en) | 1995-08-03 | 1995-08-09 | Method for the non-contact rapid and accurate acquisition of the surface topology of objects |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19528513A DE19528513A1 (de) | 1995-08-03 | 1995-08-03 | Verfahren zur berührungslosen, schnellen und genauen Erfassung der Oberflächengestalt von Objekten |
US08/513,024 US5706085A (en) | 1995-08-03 | 1995-08-09 | Method for the non-contact rapid and accurate acquisition of the surface topology of objects |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19528513A1 true DE19528513A1 (de) | 1997-02-06 |
Family
ID=26017399
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19528513A Ceased DE19528513A1 (de) | 1995-08-03 | 1995-08-03 | Verfahren zur berührungslosen, schnellen und genauen Erfassung der Oberflächengestalt von Objekten |
Country Status (2)
Country | Link |
---|---|
US (1) | US5706085A (de) |
DE (1) | DE19528513A1 (de) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE29715904U1 (de) * | 1997-09-01 | 1997-10-23 | Omeca Messtechnik Gmbh | Interferenzoptische Meßeinrichtung |
DE19721883A1 (de) * | 1997-05-26 | 1998-12-03 | Bosch Gmbh Robert | Interferometrische Meßvorrichtung |
DE19740678A1 (de) * | 1997-09-16 | 1999-03-18 | Polytec Gmbh | Vorrichtung zur berührungslosen Schwingungsmessung |
DE19814057A1 (de) * | 1998-03-30 | 1999-10-07 | Zeiss Carl Jena Gmbh | Anordnung zur spektralinterferometrischen optischen Tomographie und Oberflächenprofilmessung |
EP1194735A1 (de) * | 1999-05-10 | 2002-04-10 | Metso Paper Automation OY | Methode und messeinrichtung fürs messen von papieroberflächen |
DE10155203A1 (de) * | 2001-11-09 | 2003-06-18 | Bosch Gmbh Robert | Laserbearbeitungsvorrichtung |
DE10203797C1 (de) * | 2002-01-31 | 2003-08-14 | Bosch Gmbh Robert | Verfahren und Vorrichtung zur dreidimensionalen interferometrischen Messung |
DE102009051779A1 (de) | 2009-11-03 | 2011-05-05 | Viscom Ag | Vorrichtung zur optischen mehrdimensionalen Formerfassung |
DE102009053006A1 (de) * | 2009-11-16 | 2011-05-19 | Bundesrepublik Deutschland, vertr.d.d. Bundesministerium für Wirtschaft und Technologie, d.vertr.d.d. Präsidenten der Physikalisch-Technischen Bundesanstalt | Längenmessgerät |
DE10138656B4 (de) * | 2000-08-08 | 2012-06-21 | Mitutoyo Corp. | Oberflächenprofilmesseinrichtung |
DE102005018168C5 (de) * | 2005-04-19 | 2013-11-07 | Carl Mahr Holding Gmbh | Weißlichtinterferometrische Mikroskopmesseinrichtung |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10253892A (ja) * | 1997-03-11 | 1998-09-25 | Olympus Optical Co Ltd | 位相干渉顕微鏡 |
DE19714202A1 (de) * | 1997-04-07 | 1998-10-15 | Bosch Gmbh Robert | Vorrichtung zum optischen Prüfen von Oberflächen |
US5907404A (en) * | 1997-09-08 | 1999-05-25 | Erim International, Inc. | Multiple wavelength image plane interferometry |
US6388809B1 (en) | 1997-10-29 | 2002-05-14 | Digital Optical Imaging Corporation | Methods and apparatus for improved depth resolution use of out-of-focus information in microscopy |
AU9617598A (en) * | 1997-10-29 | 1999-05-17 | Calum E. Macaulay | Apparatus and methods relating to spatially light modulated microscopy |
US6320920B1 (en) | 1998-10-08 | 2001-11-20 | Gregory Lee Beyke | Phase coherence filter |
US6556305B1 (en) * | 2000-02-17 | 2003-04-29 | Veeco Instruments, Inc. | Pulsed source scanning interferometer |
US6369879B1 (en) * | 2000-10-24 | 2002-04-09 | The Regents Of The University Of California | Method and apparatus for determining the coordinates of an object |
JP3511097B2 (ja) * | 2001-09-04 | 2004-03-29 | 金沢大学長 | 光干渉を用いた形状測定方法および形状測定装置 |
WO2003064967A1 (en) * | 2002-01-25 | 2003-08-07 | Coherix Corporation | Interferometry method based on changing frequency |
CN1320334C (zh) * | 2002-03-14 | 2007-06-06 | 泰勒·霍布森有限公司 | 表面成型设备和获得数据方法,数据处理设备及其相关器 |
GB2385417B (en) * | 2002-03-14 | 2004-01-21 | Taylor Hobson Ltd | Surface profiling apparatus |
JP3934490B2 (ja) * | 2002-06-21 | 2007-06-20 | フジノン株式会社 | 低コヒーレント干渉縞解析方法 |
GB2395777B (en) * | 2002-11-27 | 2005-12-28 | Taylor Hobson Ltd | A surface profiling apparatus |
GB2401937B (en) * | 2003-05-23 | 2006-07-19 | Taylor Hobson Ltd | Surface profiling apparatus |
US20040263862A1 (en) * | 2003-06-24 | 2004-12-30 | Amparan Alfonso Benjamin | Detecting peripheral points of reflected radiation beam spots for topographically mapping a surface |
US20050219553A1 (en) * | 2003-07-31 | 2005-10-06 | Kelly Patrick V | Monitoring apparatus |
CN1300550C (zh) * | 2004-03-22 | 2007-02-14 | 财团法人工业技术研究院 | 量测待测物表面轮廓的装置及方法 |
DE102005040661B3 (de) * | 2005-08-26 | 2006-12-28 | Leica Microsystems Semiconductor Gmbh | Koordinatenmessvorrichtung |
FI20060331A0 (fi) * | 2006-04-05 | 2006-04-05 | Kari Seppaelae | Menetelmä ja laitteisto muodon mittauksen/tunnistukseen |
US7898672B1 (en) * | 2006-06-23 | 2011-03-01 | Veeco Instruments, Inc. | Real-time scanner-nonlinearity error correction for HDVSI |
US7570366B2 (en) * | 2007-02-21 | 2009-08-04 | Corning Incorporated | Apparatus for measuring defects in a glass sheet |
EP2339329A3 (de) * | 2007-02-21 | 2012-04-04 | Agfa HealthCare N.V. | System und Verfahren zur optischen Kohärenztomographie |
JP5013968B2 (ja) * | 2007-02-21 | 2012-08-29 | キヤノン株式会社 | 信号処理装置、プログラムおよび計測装置 |
WO2010092533A1 (en) | 2009-02-13 | 2010-08-19 | Ecole Polytechnique Federale De Lausanne (Epfl) | Method and apparatus for 3d object shape and surface topology measurements by contour depth extraction acquired in a single shot |
US8660324B2 (en) * | 2010-03-29 | 2014-02-25 | Raytheon Company | Textured pattern sensing using partial-coherence speckle interferometry |
US8780182B2 (en) | 2010-03-31 | 2014-07-15 | Raytheon Company | Imaging system and method using partial-coherence speckle interference tomography |
US9007572B2 (en) * | 2013-03-13 | 2015-04-14 | Promet International, Inc. | Multifunction solid-state inspection system |
US10107615B2 (en) | 2016-04-20 | 2018-10-23 | Quality Vision International, Inc. | Remote probe for optical measuring machine |
US10107614B1 (en) | 2017-04-18 | 2018-10-23 | Quality Vision International, Inc. | Optical pen for interferometric measuring machine |
CN114719978A (zh) * | 2021-05-17 | 2022-07-08 | 中国科学院上海光学精密机械研究所 | 基于色散补偿的宽波段超瑞利散斑关联成像光谱相机及其成像方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5122648A (en) * | 1990-06-01 | 1992-06-16 | Wyko Corporation | Apparatus and method for automatically focusing an interference microscope |
US5204734A (en) * | 1991-06-12 | 1993-04-20 | Wyko Corporation | Rough surface profiler and method |
-
1995
- 1995-08-03 DE DE19528513A patent/DE19528513A1/de not_active Ceased
- 1995-08-09 US US08/513,024 patent/US5706085A/en not_active Expired - Fee Related
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19721883A1 (de) * | 1997-05-26 | 1998-12-03 | Bosch Gmbh Robert | Interferometrische Meßvorrichtung |
DE19721883C2 (de) * | 1997-05-26 | 1999-04-15 | Bosch Gmbh Robert | Interferometrische Meßvorrichtung |
DE29715904U1 (de) * | 1997-09-01 | 1997-10-23 | Omeca Messtechnik Gmbh | Interferenzoptische Meßeinrichtung |
US6084672A (en) * | 1997-09-16 | 2000-07-04 | Polytec Gmbh | Device for optically measuring an object using a laser interferometer |
DE19740678A1 (de) * | 1997-09-16 | 1999-03-18 | Polytec Gmbh | Vorrichtung zur berührungslosen Schwingungsmessung |
DE19814057B4 (de) * | 1998-03-30 | 2009-01-02 | Carl Zeiss Meditec Ag | Anordnung zur optischen Kohärenztomographie und Kohärenztopographie |
DE19814057A1 (de) * | 1998-03-30 | 1999-10-07 | Zeiss Carl Jena Gmbh | Anordnung zur spektralinterferometrischen optischen Tomographie und Oberflächenprofilmessung |
EP1194735A1 (de) * | 1999-05-10 | 2002-04-10 | Metso Paper Automation OY | Methode und messeinrichtung fürs messen von papieroberflächen |
DE10138656B4 (de) * | 2000-08-08 | 2012-06-21 | Mitutoyo Corp. | Oberflächenprofilmesseinrichtung |
DE10155203A1 (de) * | 2001-11-09 | 2003-06-18 | Bosch Gmbh Robert | Laserbearbeitungsvorrichtung |
DE10203797C1 (de) * | 2002-01-31 | 2003-08-14 | Bosch Gmbh Robert | Verfahren und Vorrichtung zur dreidimensionalen interferometrischen Messung |
DE102005018168C5 (de) * | 2005-04-19 | 2013-11-07 | Carl Mahr Holding Gmbh | Weißlichtinterferometrische Mikroskopmesseinrichtung |
DE102009051779A1 (de) | 2009-11-03 | 2011-05-05 | Viscom Ag | Vorrichtung zur optischen mehrdimensionalen Formerfassung |
DE102009053006A1 (de) * | 2009-11-16 | 2011-05-19 | Bundesrepublik Deutschland, vertr.d.d. Bundesministerium für Wirtschaft und Technologie, d.vertr.d.d. Präsidenten der Physikalisch-Technischen Bundesanstalt | Längenmessgerät |
DE102009053006B4 (de) * | 2009-11-16 | 2014-04-24 | Bundesrepublik Deutschland, vertr.d.d. Bundesministerium für Wirtschaft und Technologie, d.vertr.d.d. Präsidenten der Physikalisch-Technischen Bundesanstalt | Längenmessgerät |
Also Published As
Publication number | Publication date |
---|---|
US5706085A (en) | 1998-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19528513A1 (de) | Verfahren zur berührungslosen, schnellen und genauen Erfassung der Oberflächengestalt von Objekten | |
DE4108944A1 (de) | Verfahren und einrichtung zur beruehrungslosen erfassung der oberflaechengestalt von diffus streuenden objekten | |
DE10392754T5 (de) | Interferometrisches optisches System und Verfahren, die eine optische Pfadlänge und einen Fokus bzw. Brennpunkt liefern, die gleichzeitig abgetastet werden | |
DE10131778B4 (de) | Optische Messvorrichtung | |
DE102005061464B4 (de) | Verfahren und Vorrichtungen zur optischen Abstandsmessung | |
DE102005023212B4 (de) | Verfahren und Vorrichtung zur schnellen und genauen Weisslichtinterferometrie | |
DE4124223A1 (de) | Verfahren zur auswertung von interferogrammen und interferometer | |
EP0776457B1 (de) | Verfahren und interferenzmikroskop zum mikroskopieren eines objektes zur erzielung einer auflösung jenseits der beugungsgrenze | |
EP1311801B1 (de) | Interferometrische, kurzkohärente formmessvorrichtung für mehrere flächen ( ventilsitz ) durch mehrere referenzebenen | |
DE4429578A1 (de) | Verfahren zur berührungslosen, schnellen und genauen Erfassungs der Oberflächengestalt von Objekten | |
DE102006007573B4 (de) | Verfahren und Vorrichtung zur 3D-Geometrieerfassung von Objektoberflächen | |
DE102004026193B4 (de) | Messverfahren zur Formmessung | |
DE3527074A1 (de) | Anordnung zur bestimmung der oberflaechengestalt von objekten mittels moiretechnik | |
DE10047495A1 (de) | Interferometrische Messvorrichtung zur Formvermessung | |
DE2144487B2 (de) | Einrichtung zur beruhrungslosen Messung | |
DE10131779B4 (de) | Interferometrische Messvorrichtung | |
DE102010022421B4 (de) | Messeinrichtung und Messverfahren zur absoluten Abstandsmessung | |
DE10131780A1 (de) | Interferometrische Messvorrichtung | |
DE10321886A1 (de) | Robuster interferometrischer Sensor und Verfahren zur Objektabtastung | |
DE4233336C2 (de) | Verfahren und Vorrichtung zur Detektion von Fokusablagen | |
EP1210564B1 (de) | Interferometrische messvorrichtung | |
US3989378A (en) | Method for no-contact measurement | |
DE102004045807B4 (de) | Optische Messvorrichtung zur Vermessung von gekrümmten Flächen | |
DE19521551C2 (de) | Speckle-Interferometrie-Verfahren zur Gewinnung topographischer Informationen von einer konstanten Objektoberfläche | |
DE102005031216A1 (de) | Verfahren und Anordnung zur schnellen Erfassung der Oberflächengestalt von Objekten |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8131 | Rejection |