DE3016361A1 - Verfahren und einrichtung zur elektro-optischen bestimmung der abmessungen, lage oder haltung eines objekts - Google Patents

Verfahren und einrichtung zur elektro-optischen bestimmung der abmessungen, lage oder haltung eines objekts

Info

Publication number
DE3016361A1
DE3016361A1 DE19803016361 DE3016361A DE3016361A1 DE 3016361 A1 DE3016361 A1 DE 3016361A1 DE 19803016361 DE19803016361 DE 19803016361 DE 3016361 A DE3016361 A DE 3016361A DE 3016361 A1 DE3016361 A1 DE 3016361A1
Authority
DE
Germany
Prior art keywords
light
diode
zone
image
laser
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE19803016361
Other languages
English (en)
Other versions
DE3016361C2 (de
Inventor
Omer L. Hageniers
Bernard Hockley
Nick Liptay-Wagner
W.J. Windsor Ontario Pastorius
Timothy R. Pryor
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sensor Adaptive Machines Inc
Original Assignee
Diffracto Ltd Canada
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=21875397&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE3016361(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Diffracto Ltd Canada filed Critical Diffracto Ltd Canada
Publication of DE3016361A1 publication Critical patent/DE3016361A1/de
Application granted granted Critical
Publication of DE3016361C2 publication Critical patent/DE3016361C2/de
Priority to DE20321608U priority Critical patent/DE20321608U1/de
Expired legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/2416Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures of gears
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems

Description

Patentanwälte Dipl.-Ing. W. Beyer Dipl.-Wirtsch.-Ing. B. Jochem
6000 Frankfurt / Main ' Staufenstraße
tain.: DIFFRACTO LTD.,
2275 Kew Drive, Windsor Ontario, N8T 3B7 / Canada
Bezeichnung: Verfahren und Einrichtung zur elektro-optischen Bestimmung der Abmessungen, Lage oder Haltung eines Objekts.
1300U/0937
Beschreibung
Die Erfindung betrifft ein Verfahren zum Bestimmen der Abmessungen, Lage und Ausdehnung einer Objektoberfläche unter Projektion einer Lichtzone auf das Objekt sowie ein Apparat zur Durchführung des erfindungsgemäßen Verfahrens.
Die Erfindung betrifft ferner ein Verfahren und einen Apparat zum Steuern von Industrierobotern oder anderen Handhabungsgeräten.
Der Erfindung liegt die Aufgabe zugrunde, die Meßgenauigkeit derartiger Verfahren und Apparate wesentlich zu steigern bzw. die Führungsgenauigkeit von Industrierobotern oder anderen Handhabungsgeräten zu erhöhen.
Die Lösung dieser Aufgabe erfolgt mit den Merkmalen der Ansprüche 1, 43, 44 und 46.
Besondere Ausgestaltungen der Erfindung beschreiben auf der optischen Triangulation beruhende Koordinatenmeßmaschinen, die in der Lage sind, komplexe Oberflächen wie die Oberflächen von Zahnrädern und Turbinenschaufeln akkurat zu messen.
Die Erfindung offenbart auch Mittel zum genauen Abfühlen der Ausdehnung und Lage eines Objektes in zwei Ebenen in seiner xy-Stellung bis zu fünf Achsen ebenso wie die Messung von
veränderlichen Winkeln und Größen an dem Objekt.
Es gibt viele Triangulationsfühler in der Technik, aber keiner ist bekannt, der das erreicht, was mit der Erfindung erreichbar ist, nämlich eine Genauigkeit von.o,oo25 oder sogar
o,oo125 mm an komplexen Oberflächen in einer Weise, die eine Analyse der Oberflächengestalt mit hoher Geschwindigkeit
1300U/0937
- je -
gestattet.
Um an Oberflächen stark unterschiedlicher Gestalt wahrheitsgetreu genau zu sein, muß der Fühler in der Lage sein, mit haushohen (beispielsweise 1o ) Änderungen in der von dem Teil oder Objekt zurückgeworfenen Lichtintensität fertig zu werden, ohne einen scheinbaren Wechsel in der Dimension zu liefern. Darüber hinaus muß der Fühler eine versatzfreie Digital-Ablesung der Teileabmessungen mit hoher Bildauflösung gewährleisten. Diese und andere Merkmale ergeben sich aus der nachstehenden Beschreibung zahlreicher in der Zeichnung dargestellter Ausführungsbeispiele. Es zeigen:
Fig. 1; in schematischer Darstellung eine erste Ausführungsform eines Apparats zur Durchführung des erfindungsgemäßen Verfahrens,
Fig. 2s in einem Blockschaltbild die Grundelemente
eines Systems zum Bewegen des Drehtisches in Fig. 1,
Fig. 3: in schematischer Darstellung eine weitere Ausführungsform zur Durchführung der Erfindung,
Fig.3A u. 3B: den Aufbau von gedruckten elektronischen
Schaltungen zur Verwendung in dem Blockschaltbild nach Fig. 3,
Fig. 4: das Spannungs/Zeit-Diagramm eines von dem
Diodenfeld der Fig. 3 erzeugten Video-Ausgangssignals,
Fig.5 u. 6: Spannungs/Zeit-Diagramme einer Abtastung
eines Diodenfeldes zur Veranschaulichung einer Technik zum Auffinden des optischen Zentrums
1300U/0937
-ΛΊ -
-kleines Lichtflecks, der auf das Diodenfeld
fällt,
Fig. 7: in schematischer Darstellung eine weitere Aus-
führungsform der Erfindung mit besonderer Eignung zum Messen des Teilkreisauslaufs von Zahnräder,
Fig. 8: in schematischer Darstellung einen Teil der Ausführungsform nach Fig. 7,
Fig. 9: in einem Diagramm die von der Ausführungsform nach Fig. 7 je Zahn erzeugten Daten,
Fig. 1o: in schematischer Darstellung einen Teil einer weiteren Ausführungsfbrm der Erfindung zum Messen der Zahnradevolvente oder des Schraubenwinkels,
Fig. 11: in schematischer Darstellung einen Teil einer weiteren Ausführungsform der Erfindung zum Messen der Dicke von kleinen flachen Pumpenschaufeln,
Fig. 12: das Blockschaltbild eines elektronischen Systems zur Durchführung der Messung bei dem Ausführungbeispiel nach Fig. 11,
Fig. 13: die graphische Darstellung eines mit der Erfindung in Einklang stehenden Systems, wobei eine Linienabbildung als Gegensatz zu einer Fleckabbildung auf das zu prüfende Objekt projiziert wird.
1300U/0937
Fig» 14s in schematischer Darstellung eine weitere Ausführungsform der Erfindung unter Verwendung einer Diodenkamera mit 2-Achsenmatrix,
Fig» 15s in schematischer Darstellung noch eine weitere Ausführungsform der Erfindung zum Messen von Abweichung und Teilung,
Fig» 16s in schematischer Darstellung noch eine weitere Ausführungsform der Erfindung mit der Fähigkeit einer 5-Achsenmessung und
Fig. 17 u. 18s Blockschaltbilder elektronischer Systeme zur besonderen Verwendung beim erfindungsgemäßen Abfühlen beweglicher Teile.
Fig. 1 zeigt einen Apparat zur Konturbestimmung von dreidimensionalen Objekten (beispielsweise Turbinenschaufeln und Zahnrädern). Dieses System kann auf zweierlei verschiedene Weise betrieben werden. Bei der einen Betriebsweise wird die theoretische Teileform (Form des Gegenstandes) in einem Computer gespeichert, der den Fühler unter seiner Kontrolle durch die theoretische Form des Teils oder Gegenstandes führt, und ein jedes Signal vom Fühler zeigt eine Abweichung des Teils von der nominellen Größe an. Eine zweite Betriebsweise dient zum Abtasten der Teileoberflächen zum Digitisieren der Oberflächengestalt. Bei dieser zweiten Betriebsweise wird der Sensor selbst als die Nullstelle suchende Einrichtung verwendet, und jegliche Bewegung des Fühlers, die erforderlich ist, um das System zu nullen, wird von dem Computer als Teileform aufgezeichnet.
Ein primärer Vorteil dieser Art von System besteht darin, daß es berührungsfrei ist. Das optische Meßmittel erlaubt die Messung von Teilen, die entweder gegenüber einer Berührung
1300U/0937
durch mechanische Sonden zu weich oder zu spröde oder zerbrechlich sind. Darüber hinaus kann das gesamte Systöüiu obgleich der Fühler selbst einen kleinen Meßbereich in der 'Größenordnung von einigen Zehnteln eines Zentimeters haben kann, einen Meßbereichsumfang in der Größenordnung von 15-25 cm infolge der Fähigkeit von Hochauflösungs-Präzisionstischen, die Fühler über große Flächenbereiche zu bewegen. Auch gibt es keine Berührungsspitzen, die sich abnutzen oder in Löchern verfangen könnten, und das System kann auch das Vorhandensein von Löchern überprüfen. Auf diese Weise ist ein sehr genauer Stellungsfühler geschaffen, der das zu messende Teil nicht berührt, und es ist ferner ein sehr genauer Bezugsrahmen gegeben, der in der Lage ist, ein Meßvolumen von vielen Kubikdezimetern zu umspannen.
Das System besteht aus drei Grundteilen, nämlich dem Meßgerät oder Fühler, dem beweglichen Tischsystem und dem Steuercomputer.
Das Meßgerät 8 besteht aus einer beleuchtenden Lichtquelle 1, in diesem Fall einem Laser, dessen Ausgangsleistung von einer Pockel-Zelle 2 gesteuert wird. Die Lichtenergie wird nach dem Passieren der Pockel-Zelle auf einen Fleck 2A an der Oberfläche des zu messenden Gegenstandes 4 über eine Fokusierlinse 3 fokusiert. Das von dem Objekt 4 zurückgestreute Licht wird von einer Abbildelinse 5 unter einem Winkel V^ gesammelt und nach Reflexion an einem Spiegel 6 auf einem linearen Photodiodenfeld 7 abgebildet. Die Funktion des Spiegels 6 besteht in der Verminderung der Gesamtabmessungen. Das lineare Photodiodenfeld 7 wird dann dazu verwendet, die Lage des abgebildeten Flecks zu bestimmen. Für eine optimale Genauigkeit sollte der Winkel )f in der Größenordnung zwischen 3o°und 5o° liegen. Gegenwärtige System arbeiten mit einem Winkel von 45°.
Das optische System wird derart ausgerichtet, daß der abgebildete Lichtfleck im Zentrum des linearen Diodenfeldes liegt, wenn die Objektoberfläche ihre normale Lage hat. Wenn das
13Q0U/0937
Objekt 4 entweder zur Meßeinrichtung 8 hin oder von dieser wegbewegt wird, bewegt sich der abgebildete Lichtfleck über das Photodiodenfeld 7. Die Bewegung des Objekts und der auf dem linearen Photodiodenfeld 7 abgebildete Lichtfleck werden durch ähnliche Dreiecke zueinander in Beziehung gesetzt, die über die Abbildelinse 5 zentriert sind. Diese Technik wird als optische Triangulation bezeichnet.
Es ist bisweilen in Abhängigkeit von der Gestalt des Objektes erwünscht, ein zweites Lichtaufnahmesystem auf der entgegengesetzten Seite des Beleuchtungsflecks zu haben. Dieses zweite System würde dann aus einer zusätzlichen Abbildelinse 12, einem zusätzlichen Spiegel 13 und einem zusätzlichen Diodenfeld 14 bestehen.
Es ist wichtig hervorzuheben, daß es für höchste Genauigkeit erwünscht ist, den Laser- oder Lichtfleck auf der Objektoberfläche sehr klein zu halten. Ein Fleck in der Größenordnung von 5/1oo - 13/1oo eines Millimeters ist ganz allgemein anzustreben.
Dies ist aus zwei Gründen erwünscht. Zum einen resultieren jegliche Variationen im Flächenabbildungsvermögen über den Lichtfleck in Zentrierbestimmungsfehlern am Diodenfeld. Es 1st beobachtet worden, daß die Kleinhaltung des Flecks diese Art Fehler drastisch herabsetzt. Zum zweiten ist, da der Fleck auf der Objektoberfläche durch die Linse auf dem Feld vergrößert wird, ein kleiner Fleck auf der Oberfläche notwendig, um ein vernünftig kleinen Fleck auf dem Feld zu erreichen. Der kleine Fleck gestattet auch das genaue Messen von engen Krümmungen.
Im Fall, daß ein Laser als Beleuchtungsquelle verwendet wird, besteht natürlich das Problem der Sprenkelung in der resultierenden Abbildung aufgrund der Kohärenz des beleuchtenden Lichts,
1300U/0937
-JKT-
Die Mittel zur Vermeidung dieses Problems sind zum ersten die Verwendung einer Abbildelinse mit möglichst großem Durchmesser und zum zweiten die Verwendung eines möglichst breiten Photodiodenfeldes. Diese breite Feld wird dazu neigen, in Querrichtung die Sprenkelung im Laserfleck zu vergleichmäßigen. Zur Illustration sei angeführt, daß die Systemgenauigkeit merklich verbessert wurde, als bei einer Vergrößerung von 3:1 ein 4,3 mm großes Diodenfeld anstelle der vorher benutzten, nur o,25 mm großen Ausführung verwendet wurde.
Es ist sehr wichtig, bei der Auslegung den Betrag an Licht zu berücksichtigen, der von der Objektoberflache reflektiert wird. Unter normalen vorkommenden Umständen kann eine Objektoberfläche von düster bis zu sehr hell und von sehr rauh bis zu sehr glatt variieren. Diese Variationen modifizieren die · Lichtmenge, die von der Oberfläche des Objekts reflektiert, wird, und deshalb das resultierende Licht an dem Photodiodenfeld. Da ein bestimmter Minimalbetrag an Licht notwendig ist, um den Lichtfleck abzutasten, und da die Anwesenheit von zu viel Licht Unsicherheiten in der Lokalisierung des Fleckmittelpunkts mit sich bringt, ist es notwendig, die auf das Feld auftreffende Lichtmenge oder entsprechend die Integrationszeit, des Feldes zu steuern, um eine größere Lichtsammeizeit zu ermöglichen. Aus diesem Grund wird ein Mikrocomputer 19 verwendet, der sowohl die Spannung an der Pockel-Zelle, die demgemäß die auf die Objektoberfläche auftreffende Lichtmenge regelt, als auch die Operationsgeschwindigkeit oder Integrationszeit des linearen Photodiodenfeldes zu steuern. Unter normalen Betriebsbedinungen ist es erwünscht, das Photodiodenfeld mit einer möglichst hohen Geschwindigkeit laufen zu lassen, um die Betriebsgeschwindigkeit zu maximieren. Diese Betriebsweise besteht demzufolge darin, die auf der Oberfläche ankommende Energie durch Prüfen des Feldes zu variieren und in einer Rückkopplungsschleife die Photodiodenfeldgeschwindigkeit zu steuern. Wenn ein derartiger Punkt erreicht ist, an welchem
13001 A/0937
ORIGINAL
die Pockel-Zelle gestattet, daß die maximale Lichtmenge vom Laser durch sie hindurchtritt, dann ist es notwendig, die Betriebsgeschwindigkeit des Photodiodenfeldes zu verlangsamen, um mit Oberflächen zu arbeiten, die auch dunkler sind, anstelle möglicherweise nur die Laserleistung zu steuern. In diesem Fall wird die Gesamtgeschwindigkeit der Messung vermindert, es ist jedoch dennoch möglich, Messungen von dunklen Oberflächen auszuführen. Mit Hilfe dieser Technik ist es möglich, mit Oberflächen zu arbeiten, deren Reflexionsvermögen inner-
5x
halb von fünf Größenordnungen (1o ) schwankt.
Ein anderer wesentlicher Gesichtspunkt in der Auslegung der Meßeinrichtung ist die in dem System verwendete Vergrößerung. Es ist erwünscht, eine optische Vergrößerung zwischen dem Dreifachen und dem Fünfachen zu haben, um den größten Vorteil der Fleckbewegung im Verhältnis zur Größe des Diodenfeldes auszunützen. Zusätzlich ist es möglich, das Photodiodenfeld im Winkel zur Richtung des normalen Lichteinfalls zu kippen. Dies dient zweierlei Funktionen. Es hilft bei der Aufrechterhaltung des Focus des Systems über einen aroßen Bewegungsbereich und resultiert außerdem zusätzlich in einer höheren wirksamen Vergrößerung.
Das System mit dem beweglichen Tisch gestattet dem Meßkopf, einen wirksam größeren Bereich zu haben. Wenn beispielsweise die x-y-Tische 9 je einen Bewegungsbereich von 15o mm und ein Auflösungsvermögen von o,oo13 mm aufweisen, was in Verbindung mit dem Auflösungsvermögen der Meßeinrichtung extrem hoch ist, dann hat man ein sehr großes Meßvolumen mit hoher Genauigkeit. Ebenso ist es für den z-Achsen-Tisch 11 möglich, eine Bewegung von 3oo - 35o mm auszuführen. Dies in Verbindung mit der Möglichkeit, den Gegenstand um volle 36o° zu drehen, erlaubt einem, die volle Kontur eines Teils durch Bewegung der x-, der y-, der z- oder der optischen Achse abzutasten.
1300U/0937
ORiGiNAL INSPECTED
- St-
Der Steuercomputer ermöglicht es, daß die in seinem Gedächtnis für einen Gegenstand gespeicherten Konstruktionsdaten in Bewegungen der Meßeinrichtung über das Tischsystem umgewandelt werden. Die Grundelemente des Systems sind in Fig. 2 dargestellt, worin der Steuercomputer 15, die Eingangsklemme 16, die zur Eingabe von Kommandos ebenso wie von zusätzlichen Daten in den Computer verwendet wird, der x-y-Zeichner 17, der zum Aufzeichnen der Konturen oder Abweichungen von der gewünschten Kontur dient, der 4-Achsen-Tischsteuerer 18, der die Kommandos von dem Steuercomputer empfängt und dadurch den Meßkopf in die verschiedenen Stellungen im Raum bewegt, und der Meßsteuer-Mikrocomputer 19 aufgezeichnet sind, der die Abtastgeschwindigkeitsgeber 23, 24 für die Diodenfelder 2o, 21 ebenso wie den Spannungsgeber für die Lichtsteuerung der Pockel-Zelle 22 steuert. Der Mikrocomputer 19 erhält außerdem Informationen von dem Photodiodenfeld bzw. den Photodiodenfeldern 2o und 21, die es dem Mikrocomputer ermöglichen, die Felderintegrationszeit zu ändern.
Umgekehrt lassen sich auch auf Polarkoordinaten beruhende Systeme verwenden, wenn die Meßeinrichtung in r und 0 und möglicherweise ebenso φ bewegt wird. Polarkoordinatenanordnungen sind vorteilhaft, wenn die Konturen von konkaven Flächen beispielsweise gewünscht werden. Solch ein System ist auch von Interesse, wenn sich schnell ändernde Krümmungen erfaßt werden sollen. Ein anderer Vorteil eines polaren Systems liegt darin, daß die Winkelabtastung (Q oder Φ ) mechanisch sehr schnell und weich durchgeführt werden kann, wie dies von einer hochgradigen Lagermotor- und Wellenencoder-Kombination möglich ist.
Eine weitere Ausführungsform der Erfindung ist in Ficr. 3 gezeigt. Das elektro-optische System innerhalb der optischen Kopfes besteht aus einem polarisierten Laser 33, einer
1300U/0937
Pockel-Zelle 32, einem Analysator 34, einer Strahlfokusierlinse 31, die zum messenden Gegenstand 25, Abbildelinsen 26, 35, zwei jeweils linearen Photodiodenfelder 29, 38 und je einer Steuerkarte 3o bzw. 39 für jedes Diodenfeld. Ferner gehören gedruckte Schaltungen PC 78o7 und PC 78o8 dazu, wie sie in den Figuren 3A (1 + 2) und 3B (1 +2) in ihrem inneren Aufbau dargestellt sind.
Das von dem Diodenfeld erzeugte Signal wird zwischen Taktimpulsen zwecks Erzeugung von Video-Rechteckwellen-Ausgangssignalen ähnlich Fig. 4 geprüft und festgehalten. Die Feldsteuerkarten arbeiten mit äußeren Takt- und Startsignalen, die von der Lichtniveau-Kompensationskarte PC 78o8 - Teil 4o in Fig. 3 - zugeführt werden. Die Video-Signale werden programmierten (Tiefpaß-)Filtern 41 zugeführt, und die vier Video-Filterausgangssignale pro Seite werden dem entsprechenden Fehlniveau-Fleckzentrumsfinder 42 zugeführt, wo eines der Signale ausgewählt wird. Das Video-Signal wird dann hinsichtlich seines Niveaus geprüft, und die resultierenden Zählimpulsfolgen werden gezählt und zur visuellen Anzeige abgebildet und ferner zur Analog/Digital- und Datenverteilungskarte PC 78o7 - Teil 4 3 in Fig. 3 - weitergeleitet, wo sie in binärer Form gezählt werden. Die resultierende Binärzahl wird dann dem Mikrocomputer 44 zugeleitet, wo diese Daten maßstäblich abgegriffen und idealisiert werden.
Im Betrief signalisiert der äußere Steuercomputer dem inneren Mikrocomputer, eine Ablesuna zu beginnen. Der Mikrocomputer seinerseits signalisiert das Pockel-Zellensteuergerät 45,eine Lichtleistungsablesung durchzuführen. Bei der Vervollständigung dieser Maßnahme wird die Pockel-Zelle von dem Steuergerät auf ein bestimmtes Beleuchtungsniveau eingestellt, und nach dieser Operation erhält der Lichtniveau-Kompensationskreis das Signal, eine Folge von Diodenfelderabtastungen zu beginnen.
1300U/0937
AL INSPECTED
-JJb'
Sobald die linken und wahlweise rechten Kanalablesungen Vorliegen, werden die Daten zu dem Mikrocomputer zur Bearbeitung geleitet, wonach die Daten auch dem Computerbus aufgegeben werden.
Die linearen Diodenfelder werden so eingestellt, daß sie mit äußerer Taktgabe arbeiten, und eine jede Abtastung wird von einem äußeren Startkommando eingeleitet. Die Abbildung des auf dem Diodenfeld von der Linse 26 gebildeten Laserflecks erzeugt einen Spannungsimpuls an dem Video-Ausgang des Diodenfeldes, der eine Angabe liefert, wo sich der Felck auf dem Feld befindet. Die Gestalt dieses Video-Impulses folgt der Gausz1sehen Verteilungskurve des Lasers, deren Größe von der Intensität des reflektierten Lichtes und der Zeitverzögerung zwischen zwei aufeinanderfolgenden Abtastungen abhängt, wodurch eine Anpassung der Änderungen in der Intensität des beleuchtenden Lichtstrahls erfolgt, und es ist ein zweites System vorhanden, das auf der Erzeugung zunehmender Zeitverzögerungen zwischen aufeinanderfolgenden Abtastungen beruht.
Wenn eine neue Ablesung von dem Computer 44 oder einer äußeren Steuereinrichtung ausgelöst wird, wird die primäre Lichtniveau-Kompensation aktiviert. Das Pockel-Zellensteuergerät nimmt eine Spannungsmessung des Video-Impulses durch eine Scheitelwert-Haltekreis vor und reduziert oder vergößert aufgrund dieser Messung die Intensität des beleuchteten Strahls. Die Pockel-Zellen-Spannung und somit die abgestahlte Lichtmenge werden für die Dauer der auftretenden Dimensionsmessung konstant gehalten.
Die Dimensionsmessung wird von dem Mikrocomputer 44 eingeleitet, nachdem die Pockel-Zelle 32 auf ein neues Intensitätsniveau verstellt worden ist. Die linearen Diodenfelder, 29, 38 werden bei einer konstanten Taktrate betrieben, wie sie von der
1300U/0937
-U-
Lichtniveau-Kompensationskarte 4o abgegeben wird. Dieselbe Karte (PC 78o8) erzeugt auch die Feldstartimpulse.
Die Amplitude des von den Photodiodenfeldern 29, 38 erzeugten Signals ist proportional der Lichtintegrationszeit für ein gegebenes optisches Leistungsniveau. Die Lichtintegrationszeit ist die Zeit, die zwischen den Anfängen zweier aufeinanderfolgender Abtastungen verstreicht. Auf diese Weise gestattet das überwachen der Integrationszeit die Steuerung der Diodenfeld-Ausgangsspannung, während die Taktrate konstant gehalten werden kann. Die konstante Taktrate gestattet die Verwendung von Video-Filtern 41 mit konstanter Bandbreite, da der Frequenzgehalt der Video-Signale von Abtastung zu Abtastung ungeändert bleibt. Diese Filter sind erforderlich, um das Problem der vierfachen Auslösung von hohen Frequenzen in den Video-Signalen aufgrund des Sprenkeleffektes zu beseitigen.
Das bei dieser Messung verwendete System erzeugt Startimpulse für die Diodenfelder in einer geometrischen Folge von T = t, T = 2t, T = 4t, T = 8t usw., worin T die Einheitsintegrationszeit ist. Somit ändert sich die Video-Ausgangsspannung in der Größe 1, 2, 4, 8 usw. mit zunehmender Integrationszeit bei jeder nachfolgenden Abtastung. Jede Integrationszeitperiode besteht aus zwei Teilen, nämlich einer Warteperiode und einer Abtastperiode. In dieser Ausbildung entspricht t der Abtastperiode des Feldes. Somit ist bei T = t die Warteperiode gleich null, während bei T = 4t, T = 8t usw. die Warteperiode größer als die Abtastperiode ist.
Die oben erwähnte Binärfolge wird in der Schaltung PC 78o8 durch eine Binärzählerkette erzeugt, die von den Elementen D6, D5, D4, D11 und D1o gebildet ist. Die Sequenzzahl wird von einem Zähler D9 erzeugt und von einem Multiplexer D12 ausgewählt. Am Ende einer jeden Diodenfeldabtastung rückt der
1300U/0937
-JA-
-U-
Zähler D9 um eine Stufe weiter, und es wird von dem Multiplexer D12 eine längere Integrationszeit ausgewählt. Wenn die Wartezeit vorüber ist, wird ein Startimpuls erzeugt, der eine Diodenfeldabtastung auslöst. Die Folge wird beendet, wenn entweder beide Video-Signale ein festes Schwellenniveau erreichen, oder von einem Komparator 15 ein Abtastzylklus-Beendigungssignal erzeugt wird, welches die Binärsequenzen auf eine von einem Einstellknopf voreingestellte Anzahl begrenzt.
Das bei dieser Ausgestaltung verwendete optische Triangulationsverfahren leitet die Abmessungsinformation über das zu messende Teil durch Errechnen der Stellung des Zentrums der auf die Diodenfelder auftreffenden Lichtflecken ab. Statt ein komplexes Rechenverfahren zu durchlaufen, ist hier eine einfache Zähltechnik entworfen worden, um das optische Zentrum oder den Flächenschwerpunkt des Lichtflecks, wie in Fig. 5 gezeigt, zu finden.
Jedes Diodenfeldelement wird in der Zone A als "2" gezählt, und, wenn das Videosignal über die Schwelle in Zone B hinausgeht, wird jedes Element als "1" gezählt. Wenn das Videosignal unter den Schwellenwert am Ende von B fällt, wird die gesamte Zählung am Ende der Diodenfeldabtastung abgestoppt. Der Zähler enthält deshalb die Stellungsinformation. Die Zählung an dieser Stelle beträgt das zweifache der Anzahl der Feldelemente zwischen dem Startpunkt und der Mittellinie des Flecks, die Genauigkeit dieser Zahl ist jedoch unter Berücksichtigung, daß der Schwellenwert zweimal durchlaufen wird, zwei Mal so hoch, wenn A + B/2 errechnet wurde. Unter weiterer Einbeziehung dieses Argumentes kann eine Vielzahl von Schwellenwerten verwendet werden, um die Stellungsauflösung in größerem Ausmaß zu verbessern. Ein System mit zwei Schwellenwerten ist in Fig. 6 dargestellt.
130014/0937
ORIGINAL INSPECTED
Der 4-Niveau-Fleckmittelpunktfinder PC 78o7 ist auf vier Schwellenniveaus ausgedehnt worden. Es handelt sich demnach theoretisch um eine Genauigkeitsverbesserung um das Vierfache.
Wie Fig. 3A zeigt, wird die Videofilterauswahl durch Analogschalter A1, A2 und einem Decoder A3 geschaffen. Das Ausgangssignal eines Pufferverstärkers A4 wird den invertierten Eingängen von Niveau-Detektoren A7, A8, A9, A1o zugeführt. Ein Pufferverstärker in A6 sorgt für feste Schwellenwerte für die obigen Niveaudetektoren, und die Schwellenniveaus werden von einer Widerstandskette R3-R11 erzeugt und von einem Potentiometer R12 justiert. Kantengetriggerte Flip-Flops D4, D5, D6 und D11 tasten die vorauseilende Kante des Videoimpulses an ihren Stift 11-Eingängen ab, und die nacheilende Kante an ihren Stift 3-Eingängen. Die Ausgangssignale des Flip-Flops werden von einem Datenselektor D2 aufeinanderfolgend abgefragt, der von einem Zähler D1 ausgewählt wird. Das Takteingangssignal zu dem Zähler D1 ist um das achtfache größer als die Taktrate des Diodenfeldes. Das Ausgangssignal vom Zähler D1 ist eine Zählimpulsfolge, welche die Lageinformation der optischen Mittellinie des Laserflecks enthält.
Um ein Zittern in den Ablesungen zu vermeiden, muß das Videosignalniveau den Schwellenwert an A11 erreichen, um die Daten gültig zu machen. Wenn dieser Schwellenwert während einer Abtastung nicht erreicht wird, wird eine neue Abtastung von der integrierten Schaltung PC 78o8 nach einer integrierenden Zeit ausgelöst, die zweimal so groß wie die vorhergehende ist
In Fällen, in denen eine höhere Betriebsgeschwindigkeit notwendig ist, ist es möglich, das Videosignal unter Verwendung einer Verzögerungsleitunngstechnik gemäß nachfolgender Beschreibung zu verarbeiten. Das während einer gegebenen Abtastung erzeugte Videosignal wird derart verarbeitet, daß es eine Durchschnitts- (oder Scheitel-)Leistungsablesung der
1300U/0937
OAL INSPECTED
Intensität des Lichtflecks liefert, wobei während dieser selben Zeitperiode das Signal durch eine Verzögerungsleitung hindurchgegeben wird. Die Durchschnitts- (oder Scheitel-)Leistungsablesung wird dann dazu verwendet, die verwendeten Schwellenniveaus einzustellen, um die Lage der Fleckenzentren gemäß obiger Beschreibung zu erhalten.
Ein Beispiel für die Anpassung der optischen Meßtechnik an ein spezifisches Problem ist die Messung des Teilkreisauslaufs eines Zahnrades 46 gemäß Fig. 7. Zwei optische Trianguliersysteme und deren elektronische Komponenten werden dazu verwendet, die Messung auszuführen, die eine zur Bildung einer Bezugsstellungs- und Triggereinheit, die als ·Referenzfühler 47 bzeichnet wird, und die andere zur Durchführung der Messung auf das Kommando des Referenzfühlers, und diese andere Einheit wird als Meßfühler 48 bezeichnet.
Beide Einheiten sind dieselben und bestehen aus Laser-Lichtquellen 49, 44 und je einer Pockel-Zelle 5o, 55 zum Steuern der Lichtausgangsintensität. Der Lichtausgang wird auf einen Fleck kleinen Durchmessers mittels je einer Fokusierlinse 51, 56 fokusiert, und eine Abbildung dieses Lichtflecks auf dem Objekt wird durch je eine Abbildelinse 52, 47 fokusiert, um eine abgebildeten Fleck auf dem linearen Phötodiodenfeld 53 bzw. 58 zu schaffen. Das lineare Photodiodenfeld wird dazu verwendet, die Lage des abgebildeten Lichtflecks zu messen, die dann auf die Stellung der Oberfläche des Zahnrades im Verhältnis zur Meßeinheit bezogen wird.
Der Bezugsfühier 47 und der Meßfühler 48 werden radial gegen das Zentrum des Zahnrads angestellt (Fig. 8). Die optischen Systeme werden zueinander ausgerichtet, so daß der Meßbereich der Fühler auf den Teilkreisradius des Zahnrades zentriert ist. Für ein Zahnrad mit einer geraden Zähnezahl liegen die Fühler diametral einander gegenüber, und für eine ungerade
130014/0937'
- -24 -
Zähnezahl ist der zweite Fühler um einen Umfangswinkel vom halben Zahnabstand gegenüber der diametralen Lage versetzt.
Bei der Drehung des Zahnrades 46 um seine Achse mißt der Referenzfühler die radiale Stellung der Zahnoberfläche in Bezug auf den Teilkreisradius. Wenn die geforderte Oberfläche des Zahns auf dem Teilkreisradius liegt, wie dies in Fig. 9 gezeigt ist, löst der Referenzfühler 47 den Meßfühler 48 aus, so daß dieser eine Messung der radialen Lage der Oberfläche des Zahns gegenüber dem Referenzfühler 4 7 vornimmt. Bei einem einwandfreien Zahnrad wird diese Oberfläche auch auf dem Teilkreisradius liegen. Wenn jedoch ein gewisser Teilkreisauslauf (Teilkreisverschiebung) auf dem Zahnrad vorliegt, was von einem Versatz des geometrischen Zentrums der Zähne von der Drehachse des Zahnrades herrührt, wird die Lage der gemessenen Oberfläche sich vom Teilkreisradius in zylklischer Weise gemäß der Darstellung in Fig. 9 entfernen. Die Größe der radialen Verlagerung der Oberfläche der Zähne beim Drehen des Zahnrades um eine volle Drehung ist gleich dem zweifachen der Verlagerung des Teilkreiszentrums in Bezug auf die Drehachse des Zahnrads,
Zusätzliche Parameter des Zahnrads können von manchen Modifikationen dieses Konzeptes abgeleitet werden. Der individuelle Abstand von Zahn zu Zahn kann durch Beobachten benachbarter Zähne mit Zeitfühlern, wie in Fig. 8, gemessen werden. Das Evolventenprofil der Zähne kann durch Hinzufügung eines Winkelencoders mit hohem Auflösevermögen gemessen werden, der an dem Zahnrad-Drehmechanismus angeordnet ist und die Möglichkeit schafft, daß der Meßkopf in radialer Richtung verfährt. Diese Abänderungen würden das gesamte System in ein solches mit einer aweidimensionalen Meßeinrichtung umwandeln, die in Polarkoordinaten arbeitet. Die Bewegung des Meßfühlers in Richtung parallel zur Achse des Zahnrades 46 würde ein Messen der
130014/0937
dreidimensionalen Form der Zähne ermöglichen, um eine Information über den Schraubenwinkel des Zahnrads und die ßteigungsabweichung zu liefern.
Die Zahnradevolvente oder der Steigungswinkel können auch mit hoher Geschwindigkeit durch eine weitere Modifikation der optischen Trangulationstechnik gemäß der Darstellung in Fig. 1o gemessen werden. In diesem Fall wird ein Feld von Punktmessungen gleichzeitig an der Zahnradevolventen- oder Steigungswinkelform durch eine Gruppe von optischen Triangulationsfühlern durchgeführt, anstelle das Zahnrad oder die Triangulationsfühler so zu bewegen, daß sie die erforderliche Anzahl von Messungen erzeugen. Jeder individuelle Fühler besteht aus einer Lichtquelle 63, einer Fokusierlinse 64, einer Abbildelinse 65 und einem linearen Photodiodenfelddetektor 66. Um eine hohe Meßgeschwindigkeit zu erzielen, würden dann die Lichtquellen gleichzeitig gepulst, um die Bewegung der Komponente in der richtigen Stellung "feszufrieren". In diesem Fall würden die Lichtquellen gepulste Halbleiter-Laser oder ähnliche Einrichtungen sein. Die Information von den linearen Photodiodenfeldern wird durch die Elektronik des Systems abgelesen und zu einem Mikroprozessor für die Errechnung der endgültigen Form weitergeleitet.
Diese Technik ist auch auf das schnelle Messen verschiedener Punkte und Parameter unter Verwendung der optischen Triangulation auf andere Komponenten wie vollständige Zahnräder, Turbinenschaufeln und andere mechanische Systeme anwendbar.
In Fig. 11 ist ein anderes Beipspiel für die Verwendung der optischen Triangulation auf ein besonderes Meßproblem, und zwar ein System zum Messen der Dicke einer kleinen flachen Pumpenschaufel 67, die in großen Stückzahlen vorkommt. Diese Technik verwendet zwei optische Triangulationsfühler, die in einer differenziellen Weise zur Begegnung gegenüber den Fehlern in
13Q0U/0937
ORiQiMAl
der Stellung der Komponente (des Gegenstandes) arbeiten, wenn diese eine Bahn durch die Meßzone hinabgleitet.
Die beiden Triangulationssensoren 68, 69 sind identisch und bestehen aus je einer Laserlichtquelle 7o, 74, deren Ausgang auf einen Fleck kleinen Durchmessers auf der Oberfläche der Komponente durch je eine Fokusierungslinse 71, 75 fokusiert wird. Eine Abbildung dieses Lichtflecks wird zu einem linearen Photodiodenfeld 72 bzw. 76 durch eine Abbildelinse 73, 78 übertragen. Das lineare Photodiodenfeld dient zum Messen der geometrischen Lage des abgebildeten Flecks, die bezogen ist auf die Stellung der Oberfläche der Komponente in Bezug auf den Triangulationsfühler.
Die beiden Fühler befinden sich jeweils auf entgegengesetzten Seiten der dicken Region der zu messenden Komponente 67. Die Komponente 67 wird längs einer mechanischen Bahn durch die Meßzone zwischen zwei Triangulationsfühlern transportiert. Das Vorhandensein der Komponente in der Meßzone wird von den Fühlern wahrgenommen, und bei der Bewegung der Komponente durch die Zone werden eine Anzahl Messungen der Dicke vorgenommen. Die Dicke wird durch Messen der Lage der beiden Oberflächen mit Bezug auf ihre entsprechenden Fühler und Abziehen dieser Werte zur Bildung der Dicke ermittelt.
Die elektronische Technik zur Ausführung der Messungsfunktion ist in Gestalt eines Blockdiagramms in Fig. 12 gezeigt. Das Video-Ausgangssignal des linearen Photodiodenfeldes für eine jeden der zwei Fühlereinheiten wird in gleicher Weise verarbeitet. Das elektronische System besteht aus der Steuerelektronik für die Diodenfelder 78, 79, einem Signal-Kondltioniersystem 8o, einer Mikrocomputer-Schnittstelle 81 und einem Mikrocomputer oder Mikroprozessor 82. Die Lichtintensität des Lasers 7o und die Abtastgeschwindigkeit des linearen Photodiodenfeldes 72 werden derart eingestellt, daß ein Ansprechen auf die Annäherungssattigung des linearen Photodiodenfeldes dergestalt erfolgt, daß sauber definierte
1300U/0937
- .27 slides abgebildeten Flecks an dem Videosignal erzeugt werden. Die Lage der Kanten der Abbildung und die Lage des gesamten Bildes wird in der Signalkonditioniereinheit 80 durch eine Schwellenwerttechnik gemessen, wie sie in dem Abschnitt des elektrooptischen Systems für die optische Triangulation beschrieben ist. Die Lage der Abbildungen an den zwei linearen Photodiodenfeldern wird von der Signalkonditionierelektronxk 80 auf dem Mikroprozessor 82 über die Mikroprozessorschnittstelle 81 übertragen. Innerhalb des Mikroprozessors wird diese Information in Dickenmessungen überführt. Eine Anzahl von Dickenmessungen der Komponente wird gespeichert und in folgender Weise analysiert. Der am häufigsten für das Teil auftretende Dickenwert wird beobachtet. Die Meßwerte innerhalb eines gegebenen Bandes dieses Wertes werden gemittelt, um die endgültige Messung zu schaffen. Die Information außerhalb dieses Bandes wird zurückgewiesen. Diese Verarbeitungstechnik wird dazu benutzt, einen zeitlichen Mittelwert zu schaffen und die Auswirkungen von zufällig auftretenden Oberflächenbearbeitungs- und RauhigkeitsSchwankungen auszugleichen.
Neben der veränderlichen Integrationszeit-Annäherung, die dazu verwendet wird, den Betrieb bei den obigen Ausführungsbeipielen unter weit schwankendem Lichtniveau zu erzielen, ist es auch möglich, die Taktrate der Abtastung zu variieren. Dies erfolgt durch Beschleunigen der Abtastrate auf eine höhere Geschwindigkeit, wenn übermäßig viel Licht vorhanden ist, und verzögern, wenn weniger Licht von der Oberfläche in dem optischen System reflektiert wird. Dieses System mit veränderlicher Taktrate ist effektiv, führt aber unglücklicherweise zu einem Ausgangssignal der Messung mit variierender Frequenz, was es schwierig macht, Videofilter zu verwenden, was zur Unterdrückung der Auswirkungen von Sprenkelungen und anderen Oberflächenstörungen nützlich wäre.
130014/0937
Ein Vorteil der veränderlichen Taktrate besteht jedoch darin, daß die Taktrate innerhalb einer einzelnen Abtastung geändert werden kann. Dies kann Verwendung finden, wenn mehr als eine Abbildung beispielsweise auf der Oberfläche vorhanden ist wie im Fall der Projektion von zwei Zonen auf dem Teil.
Es kann auch von Vorteil sein, wenn es erwünscht ist, gerade die Leistung abzugleichen, die von selbst individuellen Abschnitten eines jeden Flecks zurückkommt.
Auch von Interesse ist die Verwendung der Verzögerungsleitungen entweder analog oder digital am Ausgang der Diodenfelder, um die vorausgegangene Diodenfeldaufzeichnung zu speichern und so von dem gespeicherten Wert zu bestimmen, welche Empfindlichkeitsauswahl in Einheiten der Integrationszeit oder Taktrate für die nächste Abtastung zur Verfügung stehen soll.
Es sollte auch beachtet werden, daß es möglich ist, zweiachsige anstelle einachsiger Photodiodenfelder bei der Erfindung zu verwenden. Beispielsweise gestattet die Verwendung eines Photodiodenfeldes quadratischer Matrix den Fleckenzentren, daß sie auch dann aufgezeichnet werden, wenn sie sich in einer anderen Ebene wegbewegen, und es ermöglicht die Errechnung ihrer wahren Fleckenschwerpunkte in zwei Ebenen.
Ein zweiachsiges Feld ist auch von Wert, wenn mehr als ein Fleck in einer Achse projiziert wird, wie dies weiter unten im Zusammenhang mit dem Abfühlen der Lage diskutiert wird.
Es können auch kreisförmige Diodenfelder verwendet werden. Von besonderem Wert würde ein radiales Diodenfeld sein, bei dem alle Linie vom Zentrum ausgehen. Ein derartiges Feld ist gegenwärtig jedoch nicht verfügbar, es ist jedoch zu erwarten, daß es in Zukunft vorhanden sein wird, und die Verwendung eines
1300U/0937
derartigen Feldes gestattet die Benutzung der Polarkoordinaten symmetrie.
Andere Bereiche
Bis hierher sind die Projektion einer fleckenartigen Zone auf ein Teil (z.B. 2A in Fig. 1) und die entsprechende Ablesung, wo sich der Fleck befindet, erörtert worden. In Fig. 13 jedoch ist eine Projektion einer Linie auf ein Teil gezeigt, das von zwei Lichtniveaus umgeben wird. Im wesentlichen ist die Zone entweder geformt wie zwei Punkte mit einer dunklen Zone dazwischen oder vier Punkte mit zwei Linien dazwischen, fast nach Art eines Fadenkreuzes. Die in einer Art ähnlich Fig. 1 verwendete Diodeneinheit kann das Zentrum der dunklen Zone zwischen den beiden hellen Zonen finden, und vom metrologischen Gesichtpunkt her ist dies vielleicht eine bessere Art der Messung als das Messen des Schwerpunktes eines einzigen Flecks.
Die Frage natürlich ist, wie die scharf definierte Linie auf der Oberfläche geschaffen werden kann? Ein Weg besteht darin, einfach eine Linie oder ein Fadenkreuzhaar auf dem Teil abzubilden, das solange verfügbar ist, wie die Abstandsänderung von dem Fokuspunkt nicht zu groß ist. Natürlich würde, wenn man von dem Fokuspunkt des Projektionssystems weiter wegkommt, die projizierte Gitterlinie auslaufen oder ausfransen und entsprechend schwerer genau zu definieren sein. Die Linie sollte sehr fein (dünn) sein, um die minimal mögliche Analogdefinition zu schaffen, die zu ihrer Lokalisierung erforderlich ist, und dies verlangt einen engen Fokus.
Eine zweite Möglichkeit besteht darin, eine TEMq1- (E ..-) Welle des Lasers zu projizieren, die in der Tat aus gerade einem solchen Paar von beabstandeten Flecken besteht. In diesem
130014/0937
Fall würde das Projektionssystem sehr ähnlich dem in Fig. 1 gezeigten sein. Der einzige Unterschied besteht darin, daß die TEM .,-Welle in ihrer Gesamtheit breiter ist, jedoch die Linie dazwischen ist kleiner als der entsprechende TEM -Fleck. Es sei bemerkt, daß, wenn ein zweiachsiges Gitter erzeugt wird, daß oben erläuterte Matrix-Diodenfeld dazu benutzt wird, dessen Stellung in zwei Achsen abzutasten. Dies kann auch eine Information über die Lage der Objektoberfläche liefern (siehe Fig. 14).
Entsprechend können mehr Zahlen von Linien wie 2,3,4 usw. benutzt werden. Wenn dies bis ins Extreme ausgeführt wird, verliert man die Fähigkeit, den Absolutwert, wo sich das Zentrum befindet, mitzuteilen. Aus diesem Grund ist es in Betracht gezogen, daß in dem hier beschriebenen System ein oder zwei Linien am nützlichsten sind. Wenn mehr Linien benutzt werden, könnten sie vielleicht von verschiedener Dicke usw. sein, so daß man weiß, welche Linie welche ist.
Eine andere Ausführungsform der Erfindung ist in Fig. 14 gezeigt. In diesem Fall ist eine zweiachsige Matrix-Diodenfeldkamera 2oo zu der Meßeinrichtung 2o1 nach Fig. 1 hinzugefügt, um unmittelbar den Bereich um den Meßpunkt 2o2A unter Verwendung eines Strahlaufteilers 2o3 zu erblicken. In diesem Fall werden verschiedene Vorteile erhalten:
Erstens kann eine Videoanzeige 2o4 vorgesehen werden, die dem Bedienungsmann gestattet, die Zone zu sehen, in welcher die Messung erfolgt.
Zweitens können die unmittelbaren Umgebungen des Teils in der x-y-Eb,ene einfach von der Abbildung des Matrix-Diodenfeldes gemessen werden, und als solches muß es nicht notwendig sein, zu allen jenen Punkten in elektromechanischer Aufeinanderfolge zu gehen, um eine Messung von beispielsweise einem
1300U/0937
Innendurchmesser auszuführen. Dies ist in dem Beispiel dargestellt, worin ein Armaturenbrett 2o5 eines Kraftfahrzeugs gemessen wird, das von hinten beleuchtet wird, um Löcher wie das Loch 2o6 zu erhellen. Die Konturen rund um das Loch und die Form des Teils werden gemessen wie im Fall der Fig. 1, wo die gesamte Messung von dem Matrix-Diodenfeld durchgeführt
wird, die an einen Computer angeschlossen ist, um den Durchmesser und die Unrundheit des Lochs zu bestimmen.
Ein dritter Vorteil bei der Verwendung dieser zur Bohrung verlagerten Kamera besteht darin, daß man in der Lage ist, vor dem Meßpunkt zu messen und der Einheit grundsätzlich zu sagen, welchen Weg sie zu nehmen hat. Mit anderen Worten, wenn durch das Metrixfeld gesehen wird, daß man sich einer Kante des Teils wie der Kante 22o nähert, kann diese Kantenlage in dem Programm erkannt werden und es kann der Meßeinheit gesagt werden, sich zu einer anderen Stelle zu bewegen. Mit anderen Worten, es resultieren daraus beträchtliche Zeiteinsparungen.
Eine letzte Ausführung der Erfindung beschreibt das Messen von Stellungen unter Verwendung der Erfindung und deren weitere Einbeziehung in Steuersysteme für Industrieroboter und andere Automatisierungsgeräte.
Bei dem Ausführungsbeispiel nach Fig. 14 oben ist eine Leistungsfähigkeit im dreiachsigen System vorgesehen mit einer Achse (Z), die den triangulierten Meßpunkt aufweist,und zwei Achsen, die mit einem Matrix-Diodenfeld versehen sind, das entweder in Übertragung oder Reflexion von dem Teileobjekt arbeitet. Es ist nun erwünscht, weitere zwei Abtastachsen hinzuzufügen, um eine fünfachsige Meßeinheit zu schaffen. Die beiden infrage stehenden Achsen sind die Kursabweichung und die Teilung oder die Winkel Q und φ , wie von der Meßeinheit gesehen. S liegt in der x-y-Ebene, φ in der y-z-Ebene.
1300U/0937
Es bestehen zwei Möglichkeiten der Hinzufügung dieser Abtastung. Die erste, wie sie beispielsweise in Fig. 15 gezeigt ist, besteht einfach darin, zwei Strahlen anstelle eines Strahls zu projizieren und die Abbildung beider Flecken an dem linearen Photodiodenfeld bzw. den Photodiodenfeldern, falls zwei auf jeder Seite wie in Fig. 1 verwendet werden, zu erfassen. In diesem Fall ist der Abstand der Flecken proportional der Winkelneigung der Oberfläche, während die Lage des Zentrums der beiden Flecken auf dem Feld proportional dem Abstand der Oberflächen von dem Meßkopf ist. Das Messen der beiden Fleckabstände liefert den Winkel der Oberfläche in der Ebene der Messung.
Wenn zwei Meßfühler, je einer auf jeder Seite in derselben Ebene wie in Fig. 1 verwendet werden, führt ein interessierendes Merkmal dazu, daß, wenn das Teil vollständig normal zum Meßkopf steht, beide Einheiten, eine jede auf jeder Seite, in gleichen Winkeln vom zentralen Strahl angeordnet sind und identisch abgelesen werden. Dies kann die von der Winkelmessung erzielbare Genauigkeit beträchtlich steigern und liefert auch eine sehr klare Definition der Normalität unabhängig von anderen Merkmalen.
Natürlich ist, wenn die Lagenmessung in zwei Ebenen ö und Φ auszuführen ist, eine Messung in zwei Achsen χ und y zum ersten erforderlich. Diese Situation ist in ρϊσ. 16 qezeiat, die eine 5-Achsen-Meßkopfausführung 3oo gemäß der Er^in^ung zeigt, die auf einem Roboterarm 3o1 montiert ist und in Q,P, x,y und ζ mißt. Dieser Meßfühler ist völlia imstande, die gesamte Laae eines Teils 3o3 nahe einem Roboter zum Zwecke entweder der Inspektion des Teils oder der Durchführung einer automatischen Manipulation daran zu charakterisieren. Die Meßkopfachsen werden alle zu dem Steuercomputer des Roboters zurückgespeist, der dann das beste Vorgehen errechnet und diese Rechnung fortgesetzt mit laufenden Meßdaten aufzeichnet,
1300U/0937
bis das Schlußteil des Roboters ("Hand") das Teil ergriffen hat oder ausgeführt hat, welche Tätigkeit auch imitier gefordert wird.
Es ist klar, daß durch Kombination der Meßfühler der Figuren 14 und 15 solch eine fünfachsige Fähigkeit vorgesehen werden kann. Jedoch ist eine besonders kompakte und einfache Einheit in Fig. 16 gezeigt, in welcher eine Matrix-Feldkamera 3o4 das Teil in χ und y unter Verwendung von beispielsweise einer geblitzten Xenon-Ringlichtquelle 3o6 erblickt. Ein Vier-Fleck-Projektor 3o9 (siehe auch Fig. 13) mit einem Satz von vier Dioden-Lasern 31o bildet auf dem Teil über eine Linse 312 ab. Der Mikrocomputer 315 wird verwendet, um die Daten von dem Feld 3o5 zu interpretieren. Zunächst wird die Xenon-Lampe geblitzt und die x- und y-Lage eines Teilmerkmals 32o von Interesse bestimmt. Dann werden die Laser-Dioden geblitzt und die Stellung der Vier-Fleck-Abbildungen aus dem Ausgangssignal des Matrix-Feldes bestimmt. Eine Analyse der Lage der Zentren der Fleckgruppe liefert den Umfang, während die individuellen Fleckabstände S1 und S2 Θ(Φ geben.
Nun werden besondere Schaltungsausführungen beschrieben, wie sie in erster Linie nützlich für das Messen beweglicher Teile wie beispielsweise rotierender Zähne von Zahnrädern und dergl. sind. Änderungen im Reflexionsvermögen des zu messenden Teils können Fehler im Auffinden der Lage des Flächenschwerpunktes aufgrund einer fehlerhaften Niveauabtastung verursachen. Die früher beschriebene Methode, die auf der äußeren Steuerung der Lichtintegrationszeit in Verbindung mit einer Pockel-Zelle basiert, und deren Steuergerät ist nur zum Messen quasi stationärer Objeke geeignet. Lediglich das Verfahren kann bei optischen Triangulationssystemen eingesetzt werden, wenn entweder, das Objekt in Bewegung gemessen wird oder die Lichtquelle pulsierender Art ist oder eine Kombination aus beiden vorhanden ist. Das Problem bei der Messung eines Teils in
1300U/0937
Bewegung besteht darin, daß das örtliche Reflexionsvermögen des Teils sich konstant ändert, wenn sich die Oberfläche bewegt. Variationen können durch Winkeländerungen verursacht werden oder einfach in den örtlichen Variationen in der Farbe und dem Reflektiervermögen besteht. Das gleiche geschieht, wenn die verwendete Lichtquelle pulsierender Art ist (wie gepulste Laser, Bj.itzröhren usw.), in Verbindung mit dem Problem, daß die optische Leistung des zurückgesandten Strahls nur dann bekannt wird, nachdem ein Impuls aufgetreten ist.
Um die vorstehend aufgezeigten Probleme zu überwinden, läßt sich ein'separates Detektorsystem verwenden, um auf den reflektierten Impuls zu schauen und die Lichtquelle auszuschalten, wenn ein gegebenes angesammeltes Energieniveau erreicht ist. Dies wird gewöhnlich getan bei Tyristor-Blitzkanonen, wie sie beispielsweise in der Photographie verwendet werden. Eine attraktive Lösung ist in Fig. 17 gezeigt. Das von der Diodenfeld-Kamera 5oo kommende Signal wird von einem Videofilter 5o1 gefiltert und einer Video-Verzögerungsleitung zugeführt, die in der Lage ist, eine komplette Videoabtastung zu speichern. Das in die Video-Verzögerungsleitung gelangende Signal wird von einem Scheitelhalter 5o2 bezüglich seiner Scheitelhöhe abgetastet, und die abgetastete Spannung wird einem Prüf- und Haltekreis 5o3 am Ende der Abtastung zugeführt. Sobald die vollständige Video-Abtastung gespeichert ist, stellt der Prüf- und Halteverstärker den Niveaudetektor-Schwellenwert ein, und das gespeicherte Videosignal wird aus der Verzögerungsleitung aufgetaktet und zu einem Vergleicher 5o4 geleitet, der mit einer Vielzahl von Schwellenwerten arbeiten kann. Das im Schwellenwert abgetastete Videosignal in Verbindung mit dem Schwerpunktfindekreis (wie er nirgendwo in dieser Veröffentlichung beschrieben ist), erzeugt eine Serie von Zählimpulsen, die in einem Zähler zu zählen sind. Ein Vorteil des obigen Systems besteht darin, daß der Schwellenwert für den Vergleicher nach dem Ablesen des Diodenfeldes eingestellt werden kann, weshalb
1300U/0937
die Kompensation von stark variierenden Videosignalen automatisch vorgenommen werden kann.
Eine andere Version ist in Fig. 18 gezeigt. Der hervorstechenden Unterschied besteht darin, daß diese Version einen Verstärker mit veränderlicher Leistung 5oo hat, dessen Verstärkungsfaktor in umgekehrten Verhältnis mit der Fläche unter der Kurve gesteuert wird, die von einem Schnellintegrator 551 bestimmt wird, welcher die optische Energie.in dem abgetasteten Laserfleck wiedergibt.
Der Betriebsablauf dieser Version ist derselbe wie nach Fig. 17, nämlich das gefilterte Videosignal wird in einem Video-Verzögerungssystem für die Dauer einer Abtastperiode gespeichert, an deren Ende der Inhalt des Sehne11integrators überführt und dann in dem Prüf- und Haltekreis 552 für die Dauer der nächsten Abtastung gehalten wird. Ein konstantes Niveau der Ausgangsspannung wird durch Einstellen der Leistung des in seiner Leistung veränderlichen Verstärkers in umgekehrten Verhältnis zu den abgetasteten Videoniveaus eingestellt. Das Ausgangssignal des Verstärkers mit der veränderlichen Leistung wird mit einer festen Spannung oder einer Vielzahl von Spannungen durch eine Anzahl von Vergleichern verglichen, um Signale für den Schwerpunktbestimmungskreis 553 zu erzeugen, der seinerseits die Lage des Fleckenschwerpunktes findet.
Es ist von Interesse, diese Anmeldung mit einer weiteren Diskussion einer 5-Achsen-Roboterführung (beispielsweise Fig. 16) zuzüglich einem Code-System für die einfache Orientierung von Teilen zu beschließen. Es handelt sich dabei um eine Kombination von zwei verschiedenen Meßfühlertechnologien, nämlich der Triangulation zur Bestimmung von Ausdehnung und Lage in zwei Ebenen (Teilung und Kursabweichung) und einer zweiachsigen Bildabtastung zur Ermittlung verschiedener Merk-
ORIGiNAL INSPECTED - . ■
1300U/0937
- ββ- -
- Jamale in den xy-Ebenen. Die Erfindung schafft hier eine Kombination von diesen beiden Technologien von besonderer 'Eignung für die Führung von Industrierobotern. Wenn beispielweise die Plazierung eines solchen 5-Achsen-Meßfühlers (χγζ0φ) an oder nahe dem Endteil (Hand) nach dem letzten Gelenk eines Roboterarms oder anderen Manipulationsabschnittes in Betracht gezogen wird, ist dieser Fühler dann vollständig in der Lage, mindest innerhalb seines Gesichtsfeldes genau zu sagen, welches die Situation im Verhältnis zu der Fühlerhand ist. Dies ist dann vollständig wie beim Menschen insoweit, daß der Meßfühler die generellen Charakteristika sagen kann, die zur Orientierung der Hand gegenüber dem Teil erforderlich sind.
Die einfachste Version besteht darin, daß der z-Achsen-Bereich durch Triangulation erhalten wird und Doppelbereichs-Differentialbereichsmessungen in jeder Achse die Lage liefern. Die x- und y-Sichtung wird durch herkömmliche Abbildersysteme geschaffen, in diesem Fall ein Matrix-Photodiodenfeld. In der besonderen Version wird der xy-Teil unter Verwendung einer Linse zusammen mit dem Rechteckmatrix-Diodenfeldsystem geschaffen. Licht wird durch eine Ring-Blitzlichtquelle rundum die Peripherie der Kameralinse erzeugt. Andere Lichtquellen können verwendet werden, jedoch ist dies die passendste, da sie geblitzt wird, was die Kamera vom Beschlagen freihält, und außerdem kompakt ist und eine relativ schattenfreie Beleuchtung liefert. Tatsächliche Schatten können bei einigen Anwendungsfällen erwünscht sein, um einen Kontrast zu liefern, jedoch für die generalisierte Bewegung des Arms ist in Betracht gezogen, daß Schatten in Wirklichkeit einen Nachteil darstellen, da man den Angriffswinkel in jeder Stellung auf den besonderen Abschnitt des fraglichen Teils nicht kennt. Um diesen zentralen Abschnitt verteilt sind vier CW- oder, wie vorzuziehen ist, gepulste und mit ihren Achsen ausgerichtete Lichtquellen, die grundsätzlich mit Licht aussendenden Dioden oder Diodenlasern versehen sind, jedoch in der Lage sind,
1300U/0937
ORiGiNAL INSPECTED
einen einfachen Strahl zu erzeugen, der in Flecken durch Rasterung zergliedert wird. Diese projizieren Lichtflecken auf dem Teil in einem gegebenen Abstand und können aufeinanderfolgend gepulst werden. Dies ist wichtig, weil der Betrieb des Systems darin besteht, dies gerade in Kräuselform zu tun dergestalt, daß zu jeder beliebigen Zeit nur die Abbildung des besonderen infrage stehenden Teils existiert. Dieser Weg vermag einem zu sagen, welche Abbildung sich auf dem Diodenfeld befindet. Dies ist nicht in allen Fällen erforderlich, aber es ist von beträchtlichem Nutzen.
Eine zusätzliche oder alternative Anwendung einer Roboterführung besteht in der Codierung der Teile, die durch Roboter herzustellen sind. Normalerweise werden solche Codes dazu verwendet, die Teile zur Identifikation in Bezug auf Postenzahl usw. ebenso wie als Serie zu serialisieren. Dies kann hier natürlich ebenso mit einer autmatischen Barcode-Ablesung usw. erfolgen (die Matrix oder die linearen Felder wie sie hier offenbart sind, eignen sich ausgezeichnet hierzu).
Jedoch besteht einer der stärker interessierenden Aspekte darin, daß ein solcher Code auch ein Orientierungscode sein kann, der zum Zwecke der Schaffung einer leichten Referenz für das Zweiachsen-Matrixdiodenfeld des Roboterarms angelegt wird, um die Lage des Teils demgegenüber zu bestimmen. Natürlich ist dies von besonderem Interesse für jene Teile, die komplexe Merkmale haben, was es schwierig machen mag, auf anderen Wegen zu orientieren.
Die Verwendung eines Orientierungscodes löst deshalb, falls möglich, wesentlich zwei der Seherfordernisse des Roboters in einem weit mehr trivialen Ausmaß, als dies auf andere Weise der Fall sein würde. Mit solchen Codes hat das Computerprogramm in dem Roboter nicht länger zu identifizieren, welches Teil welches ist noch die mögliche komplexe Orientierung
1300U/0937
zu bestimmen, die erforderlich ist, um das Teil aufzunehmen oder auf einer Maschine abzusetzen.
Zum Beispiel sei erneut Fig. 16 betrachtet, in welchem Fall ein Orientierungscodesticker 7oo an dem Teil zusammen mit einer getrennten Barcode-Teiletyp-Widergabe 71o vorgesehen ist. Während diese beiden Codes miteinander kombiniert werden können, ist hier daran gedacht, daß es zumindest aufs erste besser wäre, diese auszuscheiden und zu trennen.
Der Orientierungscode enthält einen Satz von einander schneidenden Axiallinien, die zur Bestimmung der xy-Orientierung dienen. Auch auf diesem Code ist ein Subcode vorhanden, der die Orientierung in der dritten Dimension beispielsweise in Winkelgraden der Neigung wiedergibt.
Ein anderer Weg zur Lieferung einer Information über die dritte Achse ist ein Blick in den Computer, der den Teiletypen-Barcode verwendet, welcher die Orientierung des Teils darstellt, wenn es auf dem Förderband liegt. Eine Kombinationslösung unter Verwendung des Apparats nach Fig. 14 besteht darin, den Roboterarm niederkommen zu lassen, bis der Fühler um einen festen Abstand von dem Teil entfernt ist (was mit einem einfachen Triangulationsfühler an dem Arm bewerkstelligt werden kann). Die Einheit wird dann derart programmiert, daß der Code, wenn im richtigen Winkel betrachtet, die Codebase gegenüber den bekannten Abständen mißt, die beim Betrachten unter normalem Auftreffen existieren.
In diesem Fall können der Teilkreis und der Kursabweichefühler hier nicht notwendig erforderlich sein.
Es sei bemerkt, daß das Wort Roboter auch durch den Begriff "Universalhandhabungsgerät" charakterisiert werden kann. Jedoch haben die hier offenbarten Konzepte beiläufig die Auf-
1300U/0937
- HO'
gäbe, alle Arten von Materialbehandlungsautomation zu steuern und notwendig nicht nur jene von einer universellen Natur»
130014/0937
Leerseite

Claims (1)

  1. Patentansprüche
    ο) Verfahren zum Bestimmen der Abmessung, Lage oder Haltung einer Objektoberfläche unter Projektion einer Lichtzone auf das Objekt, gekennzeichnet durch
    - Schaffung einer Abbildung dieser auf der Objektoberfläche gelegenen Zone auf einem Photodiodenfeld mit einem System, dessen Achse zur Achse der Lichtprojektion einen Abstand aufweist,
    - Bestimmung der Lage der von dieser Zone erhellten Fläche aus der Stelle der Abbildung auf dem Diodenfeld und
    - Bestimmung der Abmessungen, Lage oder Haltung der Objektoberfläche aus der Stelle der Abbildung auf dem Diodenfeld.
    ο Verfahren nach Anspruch 1, dadurch gekennzeichnet , daß eine von einem Servomotor getriebene mechanische Positioniervorrichtung dazu verwendet wird, die Abbildung auf dem Diodenfeld einzustellen und daß der von der mechanischen Positioniervorrichtung belegte Abstand eine weitere Information wie über die Abmessung der Objektoberfläche liefert.
    ο Verfahren nach Anspruch 1, dadurch gekennzeichnet , daß die Projektion des Lichts unter Verwendung eines Lasers erfolgt und der Strahl von dem Laser fokusiert wird, um eine kleine Marke auf der Objektoberfläche zu erzeugen.
    1300U/0937
    4. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß die Zone aus mindestens zwei hellen Abschnitten mit mindestens einem dunklen Bereich dazwischen besteht.
    5. Verfahren nach Anspruch 1, dadurch gekennzeichnet , daß die Linse eine vergrößerte Abbildung der Zone auf dem Diodenfeld hervorruft dergestalt, daß Änderungen in der Form der Oberfläche in Einheiten von Stellenänderungen der Abbildung auf dem Diodenfeld verstärkt werden..
    6. Verfahren nach Anspruch 3,dadurch gekennzeichnet , daß die Ausgangsleistung des Lasers so gesteuert wird, daß eine verhältnismäßig konstante .Bildintensität aufrecht erhalten wird.
    7. Verfahren nach Anspruch 6,dadurch gekennzeichnet , daß der Laser ein Gaslaser ist und die Leistungssteuerung durch einen Pockel-Zellenmodulator bewirkt wird.
    8. Verfahren nach Anspruch 6,dadurch gekennzeichnet , daß der Laser ein CW- (continuous wave-) Diodenlaser ist und die Leistungssteuerung durch Veränderung der an den Laser angelegten Spannung erfolgt.
    9. Verfahren nach Anspruch 5,dadurch gekennzeichnet , daß die Vergrößerung der Linse in der Größenordnung zwischen 2:1 und 5:1 liegt.
    Io» Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß die Größe der fokusierten Marke an der Oberfläche auf weniger als o,25 mm in der Weite gehalten wird.
    1300U/0937
    11. Verfahren nach Anspruch 1,dadurch gekennzeichnet , daß das Diodenfeld im Winkel zur Achse
    der Linse gelegen ist.
    12. Verfahrennach Anspruch 1, dadurch gekennzeichnet , daß die effektive Breite des Diodenfeldes größer als o,o5 mm beträgt.
    13. Verfahren nach Anspruch 2,dadurch gekennzeichnet , daß die mechanischen Bewegungsmittel in einem kartesischen Koordinatensystem arbeiten.
    14» Verfahren nach Anspruch 2,dadurch gekennzeichnet , daß die mechanischen Bewegungsmittel in einem polaren Koordinatensystem arbeiten.
    15. Verfahren nach Anspruch 1, gekennzeichnet
    durch den weiteren Verfahrensschritt der Berechnung des von der Objektoberfläche umschlossenen oder verdrängten Volumens aus einem Satz derartiger Abmessungen.
    16o Verfahrennach Anspruch 1, dadurch gekennzeichnet , daß das Objekt ein Zahnrad ist und daß
    die Abmessungen von einer Stellung an der nominellen
    Teilkreislinie des Zahnrads abgenommen werden, wenn das
    Zahnrad um seine Achse rotiert, so daß eine Bestimmung der Zahnradgeometrie erhalten wird.
    17= Verfahren nach Anspruch 16., dadurch gekennzeichnet , daß die Bestimmung der Zahnradaeometrie eine Information hinsichtlich des Auslaufs der Teilkreisllnie, des Abstandes von Zahn zu.Zahn oder der Steigung
    liefert.
    18. Verfahren nach Anspruch 16,dadurch gekennzeichnet , daß die Lichtprojektion derartig
    1300U/0937
    _ 4 - j
    gepulst wird, daß die Zähne im Raum stillzustehen scheinen, wobei diese Lichtimpulse von einem ZahnstellungsfÜhläf initiiert werden.
    19. Verfahren nach Anspruch 16,dadurch gekennzeichnet , daß das Zahnrad ein Ritzel ist.
    20. Verfahren nach Anspruch 1,dadurch gekennzeichnet , daß das Objekt ein Zahnrad ist und daß mindestens ein Zahn des Zahnrads hinsichtlich seiner Kontur abgetastet wird, um die Evolventen Form oder Steigung festzustellen.
    21. Verfahren nach Anspruch 2o,d a d u r c h gekennzeichnet , daß eine Annäherung dieser Kontur durch Verwendung einer Vielzahl diskreter Fühlzonen geschaffen wird, die längs der Zahnform im Abstand zueinander angeordnet sind.
    22. Verfahren nach Anspruch 21, d.a durch gekennzeichnet , daß die Projektion dieser Lichtzonen auf die Zahnfläche durch einen gleichzeitigen Impuls erfolgt/ um die Zahnform auch bei drehendem Zahnrad wirksam optisch festzuhalten.
    23. Verfahren nach Anspruch 1,dadurch gekennzeichne .t , daß das Objekt in Bewemina ist und die Abtastung des Diodenfeldes schnell genurr erfolgt, um die Abmessung wirksam optisch feststehen zu lassen.
    24. Verfahren nach Anspruch 23, dadurch gekennzeichnet , daß die Abtastung auf das Kommando eines Teilestellungsfühlers erfolgt.
    1300U/0937
    25«, Verfahren nach Anspruch 1, dadurch gekennzeichnet , daß das Objekt sich in Bewegung befindet und die Projektion der Lichtzone innerhalb eines kurzen ZeitIntervalls erfolgt, welches ausreicht, um zu einem bestimmten getrennten Wert der Abmessung zu gelangen.
    26. Verfahren nach Anspruch 1, gekennzeichnet durch die Verwendung einer Zylinder-Linse vor dem Diodenfeld zur Vergrößerung von dessen effektiver Breite.
    ο Verfahren nach Anspruch 1, dadurch gekennzeichnet , daß die Ablesung des Diodenfeldes als eine Funktion des Lichtniveaus dergestalt gesteuert wird, daß eine ausreichende gleichförmige Abtastempfindlichkeit aufrecht erhalten wird.
    ο Verfahren nach Anspruch 27, dadurch gekennzeichnet , daß die Steuerung innerhalb einer gegebenen Abtastung erfolgt.
    ο Verfahren nach Anspruch 27, dadurch gekennzeichnet , daß die Abtaststeuerung des Diodenfeldes durch einen Mikrocomputer erfolgt.
    3o. Verfahren nach Anspruch 29,dadurch gekennzeichnet , daß der Mikrocomputer auch die Lichtprojektionsleistung steuert.
    ο Verfahren nach Anspruch 3o, dadurch gekennzeichnet, daß die Lichtleistung derart gesteuert wird, daß das Abtastausmaß auf seinen Höchstwert gebracht
    32. Verfahren nach Anspruch 1,dadurch gekennzeichnet , daß eine Vielzahl von Abbildungsform- und
    1300U/0937
    -abfühlsystemen bei verschiedenen Winkeln verwendet Werden.
    33. Verfahren nach Anspruch "!,dadurch gekennzeichnet , daß die Projektionszone eine markenartiger Fleck ist.
    34. Verfahren nach Anspruch 33,da durch gekennzeichnet, daß die Lage der Abbildung dieses, Flecks unter Verwendung einer Mittelpunkt-Auffindesehaltung bestimmt wird.
    35. Verfahren nach Anspruch 27,dadurch gekennzeichnet , daß die Taktrate einer jeden Abtastung des Photodiodenfeldes gesteuert wird.
    36. Verfahren nach Anspruch 28, gekennzeichnet durch die Verwendung von Videofiltern mit konstanter Bandbreite zur Steigerung der erhaltenen Signale.
    37. Verfahren nach Anspruch 1,dadurch gekennzeichnet , daß das Ausgangssignal des Diodenfeldes in einer Video-Verzögerungsleitung gespeichert wird.
    38. Verfahren nach Anspruch 1,dadurch gekennz.eichnet , daß eine Vielzahl von Zonen projiziert wird und die Trennung der Abbildungen dieser Zonen dazu verwendet wird, die Winkelorientierung der Objektoberfläche zu bestimmen.
    39. Verfahren nach Anspruch 38,dadurch gekennzeichnet, daß die Winkelorientierung normal zu der Projektion bestimmt wird, wenn die bei zwei Systemen unter Winkeln gemessenen Abstände gleich sind.
    1300U/0937
    4o. Verfahren nach Anspruch 38,dadurch gekennzeichnet , daß eine TV-(Fernseh-)Kamera oder ein TV-Matrixfeld zur Betrachtung des Objektes beigestellt wird.
    ο Verfahren nach Anspruch 1, dadurch gekennzeichnet , daß die Haltung der Objektoberfläche aus der Bildtrennung an dem Diodenfeld an einer benachbarten Zone dieser Oberfläche bestimmt wird.
    42. Verfahren nach Anspruch 2,dadurch gekennzeichnet , daß die Haltung in zwei Ebenen unter Verwendung vier solcher Flecke und eines zweiachsigen Diodenfeldes bestimmt wird.
    43. Apparat zur Bestimmung der Abmessungen einer Objektoberfläche, mit Mitteln zum Projizieren einer Lichtzone auf die Objektoberfläche, gekennzeichnet durch
    - Mittel zur Schaffung einer Abbildung der Lichtzone an der Objektoberfläche auf einem Photodiodenfeld mit einem System, dessen Achse im Abstand von der Achse der Lichtprojektion angeordnet ist,
    - Mittel zum Bestimmen der Lage der von der Lichtzone beleuchteten Oberfläche aus der Stellung der Abbildung auf dem Diodenfeld und
    - Mittel zum Bestimmen der Abmessungen des Objekts aus der Lage der beleuchteten Oberfläche.
    44. Apparat zum selbsttätigen Führen von Industrierobotern
    und anderen Handhabungsgeräten, gekennze lehnet durch
    1300U/0937
    - eine Kameraeinrichtung zur Schaffung von x, y-Daten,
    - Mittel zum Projizieren von Licht zwecks Schaffung einer Triangulations-Bezugszone auf dem zu handhabenden Objekt,
    - eine Schaltungsanordnung zur Bestimmung der x- und y-Merkmale dieses Teils und der Lage der Zone auf dem Teil im Verhältnis zur Kameraachse aus dem Kamera-Ausgangssignal zur Schaffung eines z-Achsenabstandes und
    - eine Recheneinrichtung zum Analysieren der so erhaltenen x-, y- und z-Daten und zum damit übereinstimmenden Steuern der Roboterbewegungen.
    45. Apparat nach Anspruch 44,dadurch gekennzeichnet, daß mindestens zwei Zonen projiziert werden und daß deren relativer Abstand zur Schaffung der Winkelorientierung des Teils im Verhältnis zu dem Roboter analysiert wird.
    46. Verfahren zum Führen und Leiten von Industrierobotern oder anderen Handhabungsvorrichtungen, gekennzeichnet durch die Schaffung eines Orientierungscodes auf einem Teil, wobei der Code Daten zur Ortsbestimmung (Orientierung) von Merkmalen des Teils im Verhältnis zu dem Code enthält und eine optische Abtastung des Codes erfolgt, um die räumliche Lage der Teilemerkmale zu bestimmen und Signale für das Handhabungsgerät zur Handhabung des Teiles zu schaffen.
    1300U/0937
DE3016361A 1979-04-30 1980-04-28 Einrichtung zur optischen Abstandsmessung von Oberflächen Expired DE3016361C2 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE20321608U DE20321608U1 (de) 1980-04-28 2003-07-18 Regulierventil

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US06/034,278 US4373804A (en) 1979-04-30 1979-04-30 Method and apparatus for electro-optically determining the dimension, location and attitude of objects

Publications (2)

Publication Number Publication Date
DE3016361A1 true DE3016361A1 (de) 1981-04-02
DE3016361C2 DE3016361C2 (de) 1983-12-22

Family

ID=21875397

Family Applications (1)

Application Number Title Priority Date Filing Date
DE3016361A Expired DE3016361C2 (de) 1979-04-30 1980-04-28 Einrichtung zur optischen Abstandsmessung von Oberflächen

Country Status (4)

Country Link
US (23) US4373804A (de)
JP (2) JPS5616802A (de)
DE (1) DE3016361C2 (de)
GB (1) GB2051514B (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3145878A1 (de) * 1980-11-20 1982-06-03 Tokico Ltd., Kawasaki, Kanagawa Roboter
DE3138699A1 (de) * 1981-09-29 1983-04-07 Siemens Ag Einrichtung zur erfassung von bildvorlagen und verfahren zum betrieb dieser einrichtung.
DE3138757A1 (de) * 1981-09-29 1983-05-05 Siemens AG, 1000 Berlin und 8000 München Verfahren zur erfassung von textausschnitten aus einer vorlage und vorrichtung zur durchfuehrung des verfahrens

Families Citing this family (305)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4373804A (en) * 1979-04-30 1983-02-15 Diffracto Ltd. Method and apparatus for electro-optically determining the dimension, location and attitude of objects
US5871391A (en) * 1980-03-27 1999-02-16 Sensor Adaptive Machine Inc. Apparatus for determining dimensions
US5825017A (en) * 1980-03-27 1998-10-20 Sensor Adaptive Machines Inc. Method and apparatus for determining dimensions
US4559684A (en) * 1981-02-27 1985-12-24 Pryor Timothy R Controlled machining of combustion chambers, gears and other surfaces
US5012574A (en) * 1981-02-27 1991-05-07 Diffracto Ltd. Controlled machining of combustion chambers gears and other surfaces
US5112131A (en) * 1981-02-27 1992-05-12 Diffracto, Ltd. Controlled machining of combustion chambers, gears and other surfaces
JPS56168104A (en) * 1980-05-28 1981-12-24 Rikagaku Kenkyusho Detector for mark position
US4492465A (en) * 1980-12-18 1985-01-08 The Boeing Company Retro-reflective electro-optical angle measuring system
US5940302A (en) * 1981-02-27 1999-08-17 Great Lakes Intellectual Property Controlled machining of combustion chambers, gears and other surfaces
EP0071667A1 (de) * 1981-08-11 1983-02-16 Karl-Erik Morander Vorrichtung zur Bestimmung des reellen oder virtuellen Abstands einer Lichtquelle von einer Messebene
US4652917A (en) * 1981-10-28 1987-03-24 Honeywell Inc. Remote attitude sensor using single camera and spiral patterns
US5127736A (en) * 1982-02-22 1992-07-07 Armco Inc. Apparatus for measuring wear in the lining of refractory furnaces
US4708482A (en) * 1982-02-22 1987-11-24 Armco Inc. Method and apparatus for measuring wear in the lining of refractory furnaces
JPS58202751A (ja) * 1982-05-20 1983-11-26 Agency Of Ind Science & Technol 大口径金属鏡の超精密切削加工法
GB2124850A (en) * 1982-08-04 1984-02-22 Philips Electronic Associated Rangefinder for marked targets
US4547674A (en) * 1982-10-12 1985-10-15 Diffracto Ltd. Optical triangulation gear inspection
US4529316A (en) * 1982-10-18 1985-07-16 Robotic Vision Systems, Inc. Arrangement of eliminating erroneous data in three-dimensional optical sensors
US4792698A (en) * 1983-01-27 1988-12-20 Diffracto Ltd. Sensing location of an object with line image projection and rotation
DE3302948C2 (de) * 1983-01-29 1985-01-10 Wolfgang 3400 Göttingen Brunk Meßgerät zur berührungslosen optischen Abstandsmessung
US4908782A (en) * 1983-05-19 1990-03-13 Compressor Components Textron Inc. Airfoil inspection method
NL8302228A (nl) * 1983-06-22 1985-01-16 Optische Ind De Oude Delft Nv Meetstelsel voor het onder gebruikmaking van een op driehoeksmeting berustend principe, contactloos meten van een door een oppervlakcontour van een objectvlak gegeven afstand tot een referentieniveau.
US4627734A (en) * 1983-06-30 1986-12-09 Canadian Patents And Development Limited Three dimensional imaging method and device
US4666303A (en) * 1983-07-11 1987-05-19 Diffracto Ltd. Electro-optical gap and flushness sensors
JPS60244802A (ja) * 1984-05-21 1985-12-04 Mitsubishi Electric Corp 距離計測装置
US4657394A (en) * 1984-09-14 1987-04-14 New York Institute Of Technology Apparatus and method for obtaining three dimensional surface contours
US4705395A (en) * 1984-10-03 1987-11-10 Diffracto Ltd. Triangulation data integrity
US4593967A (en) * 1984-11-01 1986-06-10 Honeywell Inc. 3-D active vision sensor
JPS61145410A (ja) * 1984-12-19 1986-07-03 Penta Ocean Constr Co Ltd 移動体の位置測量装置
US4686639A (en) * 1985-02-07 1987-08-11 Rockwell International Corporation Free space microscope digitizing aid
FR2580087B1 (de) * 1985-04-03 1988-12-02 Hispano Suiza Sa
US4825394A (en) * 1985-05-07 1989-04-25 General Dynamics Corporation Vision metrology system
US4639878A (en) * 1985-06-04 1987-01-27 Gmf Robotics Corporation Method and system for automatically determining the position and attitude of an object
US4743771A (en) * 1985-06-17 1988-05-10 View Engineering, Inc. Z-axis height measurement system
JPS61296409A (ja) * 1985-06-25 1986-12-27 Fanuc Ltd ロボツト制御方式
JPS6228613A (ja) * 1985-07-30 1987-02-06 Agency Of Ind Science & Technol 3次元位置入力装置
WO1987001194A1 (en) * 1985-08-12 1987-02-26 David Andrew Addleman Rapid three-dimensional surface digitizer
US4690563A (en) * 1985-08-16 1987-09-01 Grumman Aerospace Corporation Hole centration gage
WO1989000675A1 (en) * 1985-08-16 1989-01-26 Grumman Aerospace Corporation Hole centration gage
US4939439A (en) * 1985-09-26 1990-07-03 Unisearch Limited Robot vision and optical location systems
JPS6271813A (ja) * 1985-09-26 1987-04-02 Yokokawa Kyoryo Seisakusho:Kk 測定方法
US4798469A (en) * 1985-10-02 1989-01-17 Burke Victor B Noncontact gage system utilizing reflected light
US4834531A (en) * 1985-10-31 1989-05-30 Energy Optics, Incorporated Dead reckoning optoelectronic intelligent docking system
FR2723208B1 (fr) * 1986-06-17 1996-11-15 Thomson Csf Systeme de reperage spatial d'une direction liee a un corps mobile par rapport a une structure, utilisable notamment pour un viseur de casque
US4722603A (en) * 1986-06-27 1988-02-02 Chevron Research Company Interferometric means and method for accurate determination of fiber-optic well logging cable length
JPS6316216A (ja) * 1986-07-08 1988-01-23 Mitsubishi Electric Corp 距離計
DE3623083A1 (de) * 1986-07-09 1988-01-21 Precitronic Vorrichtung zur schusssimulation
US4853771A (en) * 1986-07-09 1989-08-01 The United States Of America As Represented By The Secretary Of The Navy Robotic vision system
US4761072A (en) * 1986-09-30 1988-08-02 Diffracto Ltd. Electro-optical sensors for manual control
DE3719422A1 (de) * 1986-12-19 1988-06-30 Hommelwerke Gmbh Vorrichtung zur beruehrungsfreien messung eines abstandes von einer oberflaeche, insbesondere zur abtastung einer kontur einer oberflaeche eines werkstueckes laengs eines messweges
FR2610400B1 (fr) * 1987-02-04 1989-04-28 Paramythioti Michel Procede et dispositif de relevement tridimensionnel
US4977512A (en) * 1987-02-05 1990-12-11 Shibuya Kogyo Co., Ltd. Three dimensional simultaneous machining and measuring system
US4983043A (en) * 1987-04-17 1991-01-08 Industrial Technology Institute High accuracy structured light profiler
JPS63288683A (ja) * 1987-05-21 1988-11-25 株式会社東芝 組立てロボット
US4866626A (en) * 1987-09-18 1989-09-12 Egli Werner H Navigation by a video-camera sensed ground array
US4893933A (en) * 1987-09-30 1990-01-16 Armco Inc. Automatic BOF vessel remaining lining profiler and method
US5019699A (en) * 1988-08-31 1991-05-28 Norand Corporation Hand-held optical character reader with means for instantaneously reading information from a predetermined area at an optical sensing area
US4842808A (en) * 1988-03-25 1989-06-27 Westinghouse Electric Corp. Nuclear fuel pellet collating system
US4897858A (en) * 1988-03-25 1990-01-30 Westinghouse Electric Corp. Nuclear fuel pellet collating system and method
GB2222047A (en) * 1988-07-25 1990-02-21 Unisearch Ltd Optical mapping of field of view and information storage
US6688523B1 (en) 1988-08-31 2004-02-10 Intermec Ip Corp. System for reading optical indicia
JPH02256430A (ja) * 1989-03-29 1990-10-17 Mitsubishi Electric Corp 自動組立装置および方法
US4943157A (en) * 1989-05-18 1990-07-24 Corning Incorporated Fiber optic triangulation gage
JPH0393920A (ja) * 1989-09-05 1991-04-18 Zenitakagumi:Kk 補強土工法
US5313260A (en) * 1989-10-12 1994-05-17 High Tech Concepts & Inventions Corporation Photosensitive probes
JP2510786B2 (ja) * 1990-04-14 1996-06-26 松下電工株式会社 物体の形状検出方法及びその装置
US5202742A (en) * 1990-10-03 1993-04-13 Aisin Seiki Kabushiki Kaisha Laser radar for a vehicle lateral guidance system
EP0479271B1 (de) * 1990-10-03 1998-09-09 Aisin Seiki Kabushiki Kaisha Automatisches Steuersystem für Seitenführung
US5390118A (en) * 1990-10-03 1995-02-14 Aisin Seiki Kabushiki Kaisha Automatic lateral guidance control system
US6161055A (en) * 1993-05-17 2000-12-12 Laser Measurement International Inc. Method of determining tool breakage
US5517311A (en) * 1993-05-25 1996-05-14 Toyota Jidosha Kabushiki Kaisha Optical 3D measuring apparatus used for measuring chamber volume of a cylinder head and chamber volume correcting method for a cylinder head of an engine
US5652658A (en) * 1993-10-19 1997-07-29 View Engineering, Inc. Grid array inspection system and method
US5917726A (en) * 1993-11-18 1999-06-29 Sensor Adaptive Machines, Inc. Intelligent machining and manufacturing
CA2115859C (en) * 1994-02-23 1995-12-26 Brian Dewan Method and apparatus for optimizing sub-pixel resolution in a triangulation based distance measuring device
US5519204A (en) * 1994-04-25 1996-05-21 Cyberoptics Corporation Method and apparatus for exposure control in light-based measurement instruments
US5546189A (en) * 1994-05-19 1996-08-13 View Engineering, Inc. Triangulation-based 3D imaging and processing method and system
US5500516A (en) * 1994-08-30 1996-03-19 Norand Corporation Portable oblique optical reader system and method
JPH08166813A (ja) * 1994-12-14 1996-06-25 Fanuc Ltd ウィービング動作を伴うロボットのトラッキング制御方法
AT404517B (de) * 1995-02-07 1998-12-28 Plastounik Guenther Vorrichtung zum positionieren von elementen
US5684531A (en) * 1995-04-10 1997-11-04 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Ranging apparatus and method implementing stereo vision system
US5673082A (en) * 1995-04-10 1997-09-30 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Light-directed ranging system implementing single camera system for telerobotics applications
US5742291A (en) * 1995-05-09 1998-04-21 Synthonics Incorporated Method and apparatus for creation of three-dimensional wire frames
US5600435A (en) * 1995-05-24 1997-02-04 Fori Automation, Inc. Intelligent sensor method and apparatus for an optical wheel alignment machine
US5825666A (en) * 1995-06-07 1998-10-20 Freifeld; Daniel Optical coordinate measuring machines and optical touch probes
GB9515311D0 (en) 1995-07-26 1995-09-20 3D Scanners Ltd Stripe scanners and methods of scanning
US5850282A (en) * 1995-10-11 1998-12-15 Canon Kabushiki Kaisha Distance measuring device
US20020014533A1 (en) * 1995-12-18 2002-02-07 Xiaxun Zhu Automated object dimensioning system employing contour tracing, vertice detection, and forner point detection and reduction methods on 2-d range data maps
US5870178A (en) * 1996-02-20 1999-02-09 Canon Kabushiki Kaisha Distance measuring apparatus
US6003773A (en) * 1996-03-01 1999-12-21 Intermec Ip Corp. Tablet style indicia reader with system for handling multiple indicia
AUPN968996A0 (en) * 1996-05-06 1996-05-30 Vision Products Pty Ltd Filter integrity monitoring system
AUPN968896A0 (en) * 1996-05-06 1996-05-30 Vision Products Pty Ltd Optical scatter dectector controlling circuit and method
US5969820A (en) * 1996-06-13 1999-10-19 Canon Kabushiki Kaisha Surface position detecting system and exposure apparatus using the same
US5859924A (en) * 1996-07-12 1999-01-12 Robotic Vision Systems, Inc. Method and system for measuring object features
KR19980033400A (ko) * 1996-10-31 1998-07-25 추후 보충 차량바퀴의 캠버와 캐스터의 비접촉측정방법과 장치
US6075883A (en) * 1996-11-12 2000-06-13 Robotic Vision Systems, Inc. Method and system for imaging an object or pattern
US5757486A (en) * 1996-11-22 1998-05-26 Eastman Kodak Company Digital camera image sensor positioning apparatus including a non-coherent light interferometer
US5757485A (en) * 1996-11-22 1998-05-26 Eastman Kodak Company Digital camera image sensor positioning method including a non-coherent interferometer
US5978089A (en) * 1997-04-15 1999-11-02 Nextel Ltd. Non-contact method for measuring the shape of an object
US6097428A (en) * 1997-05-23 2000-08-01 Inspex, Inc. Method and apparatus for inspecting a semiconductor wafer using a dynamic threshold
CA2242179C (en) * 1997-07-07 2006-10-03 Takao Shibayama Method of, and apparatus for, measuring position of hole
GB9719514D0 (en) * 1997-09-12 1997-11-19 Thames Water Utilities Non-contact measuring apparatus
US6094269A (en) * 1997-12-31 2000-07-25 Metroptic Technologies, Ltd. Apparatus and method for optically measuring an object surface contour
DE19806288A1 (de) * 1998-02-16 1999-08-26 Fraunhofer Ges Forschung Laserscanner-Meßsystem
US6125904A (en) 1998-06-01 2000-10-03 Aim Automotive Integrated Manufacturing, Inc. Robotic apparatus and method for assembling a tire to a rim
US6483580B1 (en) * 1998-03-06 2002-11-19 Kla-Tencor Technologies Corporation Spectroscopic scatterometer system
DE19911419A1 (de) * 1998-03-16 1999-10-14 Cyberoptics Corp Digitales Bereichssensorsystem
US7065462B2 (en) * 1998-07-24 2006-06-20 Merilab, Inc. Vehicle wheel alignment by rotating vision sensor
GB9827377D0 (en) * 1998-12-11 1999-02-03 Surface Inspection Ltd Machine vision system and tile inspection apparatus incorporating such a system
US6771809B1 (en) 2000-04-28 2004-08-03 Orametrix, Inc. Method and system for registering data
US6744914B1 (en) 2000-04-28 2004-06-01 Orametrix, Inc. Method and system for generating a three-dimensional object
US7068825B2 (en) * 1999-03-08 2006-06-27 Orametrix, Inc. Scanning system and calibration method for capturing precise three-dimensional information of objects
US6413084B1 (en) 2000-04-28 2002-07-02 Ora Metrix, Inc. Method and system of scanning
US6728423B1 (en) 2000-04-28 2004-04-27 Orametrix, Inc. System and method for mapping a surface
US7068836B1 (en) 2000-04-28 2006-06-27 Orametrix, Inc. System and method for mapping a surface
US6532299B1 (en) 2000-04-28 2003-03-11 Orametrix, Inc. System and method for mapping a surface
US6744932B1 (en) 2000-04-28 2004-06-01 Orametrix, Inc. System and method for mapping a surface
US6466305B1 (en) 1999-05-24 2002-10-15 Lmi Technologies Inc. High speed laser triangulation measurements of shape and thickness
WO2001001072A1 (en) * 1999-06-30 2001-01-04 M & M Precision Systems Corporation Apparatus and method for determining dimensional geometries for an object
US6209216B1 (en) 1999-08-16 2001-04-03 General Electric Company Methods and apparatus for measuring airfoil coordinates
JP4195154B2 (ja) * 1999-08-31 2008-12-10 ソニーマニュファクチュアリングシステムズ株式会社 位置検出装置及び演算処理装置
US6259519B1 (en) * 1999-08-31 2001-07-10 Intelligent Machine Concepts, L.L.C. Method of determining the planar inclination of a surface
GB9923795D0 (en) 1999-10-09 1999-12-08 British Aerospace Micropositioning system
US6289600B1 (en) * 1999-11-02 2001-09-18 United States Pipe & Foundry Company Non-contact measuring device
JP2001141429A (ja) * 1999-11-18 2001-05-25 Japan Atom Energy Res Inst 基線長可動型表面形状測定装置
US6635894B1 (en) * 1999-11-22 2003-10-21 Renishaw Plc Optical measuring apparatus for measuring objects on machines
US8412377B2 (en) 2000-01-24 2013-04-02 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US8788092B2 (en) 2000-01-24 2014-07-22 Irobot Corporation Obstacle following sensor scheme for a mobile robot
JP2001209097A (ja) * 2000-01-28 2001-08-03 Masashi Saito 口腔内撮影用カメラシステム
AU2001230477A1 (en) * 2000-02-03 2001-08-14 Alst Technical Excellence Center Active aid for a handheld camera
US6888640B2 (en) 2000-02-04 2005-05-03 Mario J. Spina Body spatial dimension mapper
US6618505B2 (en) * 2000-03-09 2003-09-09 The Boeing Company Method, apparatus and computer program product for determining shim shape
US6617601B1 (en) * 2000-03-10 2003-09-09 Lmi Technologies Inc. Molten metal pouring control system and method
US6956348B2 (en) 2004-01-28 2005-10-18 Irobot Corporation Debris sensor for cleaning apparatus
US7027642B2 (en) * 2000-04-28 2006-04-11 Orametrix, Inc. Methods for registration of three-dimensional frames to create three-dimensional virtual models of objects
WO2001084479A1 (en) * 2000-04-28 2001-11-08 Orametirix, Inc. Method and system for scanning a surface and generating a three-dimensional object
US6624899B1 (en) 2000-06-29 2003-09-23 Schmitt Measurement Systems, Inc. Triangulation displacement sensor
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
WO2004091956A2 (en) 2003-03-31 2004-10-28 Pryor Timothy R Reconfigurable vehicle instrument panels
US6825936B2 (en) 2000-08-23 2004-11-30 Lmi Technologies, Inc. High speed camera based sensors
US6618155B2 (en) 2000-08-23 2003-09-09 Lmi Technologies Inc. Method and apparatus for scanning lumber and other objects
US6512587B1 (en) 2000-10-27 2003-01-28 Eastman Kodak Company Measurement method and apparatus of an external digital camera imager assembly
US6734981B1 (en) 2000-11-28 2004-05-11 Honeywell International Inc. Multiple laser optical systems and methods
US6831263B2 (en) 2002-06-04 2004-12-14 Intel Corporation Very high speed photodetector system using a PIN photodiode array for position sensing
US6678062B2 (en) 2000-12-08 2004-01-13 Cyberoptics Corporation Automated system with improved height sensing
US7571511B2 (en) 2002-01-03 2009-08-11 Irobot Corporation Autonomous floor-cleaning robot
US6690134B1 (en) 2001-01-24 2004-02-10 Irobot Corporation Method and system for robot localization and confinement
US6875993B2 (en) * 2001-04-12 2005-04-05 Honeywell International Inc. Systems and methods for optically detecting and identifying objects in an environment
DE10127239A1 (de) * 2001-05-28 2002-12-12 Inst Mikroelektronik Und Mecha Verfahren und Computerprogrammprodukt zur Auswertung von durch Meßgeräte aufgenommenen Daten
US6567162B2 (en) 2001-05-31 2003-05-20 The Regents Of The University Of Michigan Reconfigurable apparatus and method for inspection during a manufacturing process
US7429843B2 (en) 2001-06-12 2008-09-30 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US8396592B2 (en) 2001-06-12 2013-03-12 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
DE10131897A1 (de) * 2001-07-04 2003-01-16 Leica Microsystems Verfahren und Messvorrichtung zum Detektieren eines Objekts
US6615113B2 (en) * 2001-07-13 2003-09-02 Tru-Si Technologies, Inc. Articles holders with sensors detecting a type of article held by the holder
US6817528B2 (en) * 2001-07-17 2004-11-16 Honeywell International Inc. Reflective apparatus and method for optically sensing relative torque employing Moirè fringes
JP2003075137A (ja) * 2001-09-04 2003-03-12 Minolta Co Ltd 撮影システム並びにそれに用いられる撮像装置および3次元計測用補助ユニット
US6980692B2 (en) * 2001-09-20 2005-12-27 International Business Machines Corporation Method and apparatus for dynamic thresholding of grayscale images to delineate image attributes
US7474781B2 (en) 2001-09-20 2009-01-06 International Business Machines Corporation Image based bar-code reading and robotic registration apparatus for use in automated tape library systems
US7269284B2 (en) * 2001-09-20 2007-09-11 International Business Machines Corporation Method and apparatus using dual bounding boxes as dynamic templates for cartridge rack identification and tracking
US7015452B2 (en) * 2001-10-09 2006-03-21 Itt Manufacturing Enterprises, Inc. Intensified hybrid solid-state sensor
DE10164944B4 (de) * 2001-10-15 2013-03-28 Hermann, Dr.-Ing. Tropf Vorrichtung und Verfahren zur Korrektur der Bewegung von Greif- und Bearbeitungswerkzeugen
DE10151563A1 (de) * 2001-10-23 2003-04-30 Heidenhain Gmbh Dr Johannes Positionsmessgerät
US20030093170A1 (en) * 2001-11-09 2003-05-15 Escobar Benjamin Angeles System and method for manufacturing a material using concurrent dimension certification
US6930763B2 (en) * 2001-12-18 2005-08-16 General Electric Company Three dimensional sensor laser noise reduction method
US9128486B2 (en) 2002-01-24 2015-09-08 Irobot Corporation Navigational control system for a robotic device
CA2369845A1 (en) 2002-01-31 2003-07-31 Braintech, Inc. Method and apparatus for single camera 3d vision guided robotics
WO2003064116A2 (en) 2002-01-31 2003-08-07 Braintech Canada, Inc. Method and apparatus for single camera 3d vision guided robotics
US7881896B2 (en) 2002-02-14 2011-02-01 Faro Technologies, Inc. Portable coordinate measurement machine with integrated line laser scanner
US6891148B1 (en) 2002-02-25 2005-05-10 The United States Of America As Represented By The Administrator Of The National Aeronatics And Space Administration Scaling device for photographic images
US6700668B2 (en) * 2002-06-25 2004-03-02 General Electric Company Method of measuring a part with a wide range of surface reflectivities
US8386081B2 (en) 2002-09-13 2013-02-26 Irobot Corporation Navigational control system for a robotic device
US8428778B2 (en) 2002-09-13 2013-04-23 Irobot Corporation Navigational control system for a robotic device
US6954197B2 (en) * 2002-11-15 2005-10-11 Smart Technologies Inc. Size/scale and orientation determination of a pointer in a camera-based touch system
DE20218352U1 (de) * 2002-11-26 2003-01-23 Reishauer Ag Einzentriervorrichtung zum Ausrichten von vorverzahnten Werkstücken auf Verzahnungsfeinbearbeitungsmaschinen
DE50213746D1 (de) * 2002-12-12 2009-09-17 Siemens Ag Verfahren zur Messung des Abstands eines an einer Referenzfläche vorbei gefürhrten Bauteils und Durchführung des Verfahrens
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US6723951B1 (en) 2003-06-04 2004-04-20 Siemens Westinghouse Power Corporation Method for reestablishing holes in a component
US6959487B2 (en) * 2003-06-04 2005-11-01 Seagate Technology Llc Head disc merge assembly for use at a merging station
US20040263862A1 (en) * 2003-06-24 2004-12-30 Amparan Alfonso Benjamin Detecting peripheral points of reflected radiation beam spots for topographically mapping a surface
JP3741282B2 (ja) * 2003-07-28 2006-02-01 セイコーエプソン株式会社 入力装置、電子機器及び入力装置の駆動方法
DE10336085A1 (de) * 2003-08-06 2005-03-10 Siemens Ag Bestimmung der Postion eines Transportgutes durch Kombination lokaler, absoluter Positionsmessung und relativer Positionsmessung
JP2005067281A (ja) * 2003-08-20 2005-03-17 Toshiba Corp 距離検出装置、エアバッグ制御装置および距離検出方法
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7274356B2 (en) 2003-10-09 2007-09-25 Smart Technologies Inc. Apparatus for determining the location of a pointer within a region of interest
US7460250B2 (en) * 2003-10-24 2008-12-02 3Dm Devices Inc. Laser triangulation system
US7332890B2 (en) 2004-01-21 2008-02-19 Irobot Corporation Autonomous robot auto-docking and energy management systems and methods
DE102004012220B4 (de) * 2004-03-12 2018-05-03 Sick Ag Optoelektronischer Sensor
US7085626B2 (en) * 2004-04-15 2006-08-01 York International Corporation Method and apparatus to prevent low temperature damage using an HVAC control
US7460110B2 (en) 2004-04-29 2008-12-02 Smart Technologies Ulc Dual mode touch system
US9008835B2 (en) 2004-06-24 2015-04-14 Irobot Corporation Remote control scheduler and method for autonomous robotic device
US8972052B2 (en) 2004-07-07 2015-03-03 Irobot Corporation Celestial navigation system for an autonomous vehicle
US7706917B1 (en) 2004-07-07 2010-04-27 Irobot Corporation Celestial navigation system for an autonomous robot
JP2008506953A (ja) * 2004-07-14 2008-03-06 ブレインテック カナダ インコーポレイテッド 機械視覚のための方法及び装置
FR2873205B1 (fr) * 2004-07-19 2007-05-18 Plastic Omnium Cie Procede et poste de controle de peinture de piece de carrosserie de vehicules automobiles
FR2873204B1 (fr) * 2004-07-19 2007-04-27 Plastic Omnium Cie Appareil de mesure pour le controle de pieces de carrosserie peintes, muni d'un dispositif anti-deterioration
DE102004052508B4 (de) * 2004-10-21 2006-08-03 Pixargus Gmbh System und Verfahren zum Vermessen und zum Überwachen der Oberfläche eines Körpers
US7515253B2 (en) * 2005-01-12 2009-04-07 Kla-Tencor Technologies Corporation System for measuring a sample with a layer containing a periodic diffracting structure
US7379163B2 (en) * 2005-02-08 2008-05-27 Canesta, Inc. Method and system for automatic gain control of sensors in time-of-flight systems
ES2346343T3 (es) 2005-02-18 2010-10-14 Irobot Corporation Robot autonomo de limpieza de superficies para una limpieza en seco y en mojado.
US7620476B2 (en) 2005-02-18 2009-11-17 Irobot Corporation Autonomous surface cleaning robot for dry cleaning
US8392021B2 (en) 2005-02-18 2013-03-05 Irobot Corporation Autonomous surface cleaning robot for wet cleaning
US8930023B2 (en) 2009-11-06 2015-01-06 Irobot Corporation Localization by learning of wave-signal distributions
DE102005039094B4 (de) * 2005-08-08 2009-03-19 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren und Vorrichtung zum Führen eines Maschinenteils entlang einer definierten Bewegungsbahn über einer Werkstücksoberfläche
EP2816434A3 (de) 2005-12-02 2015-01-28 iRobot Corporation Roboter mit autonomem Wirkungsbereich
EP2120122B1 (de) 2005-12-02 2013-10-30 iRobot Corporation Abdeckungsrobotermobilität
ES2706727T3 (es) 2005-12-02 2019-04-01 Irobot Corp Sistema de robot
US8584305B2 (en) 2005-12-02 2013-11-19 Irobot Corporation Modular robot
KR101099808B1 (ko) 2005-12-02 2011-12-27 아이로보트 코퍼레이션 로봇 시스템
US7525114B2 (en) 2006-02-14 2009-04-28 Lmi Technologies Ltd. Multiple axis multipoint non-contact measurement system
CA2536411C (en) * 2006-02-14 2014-01-14 Lmi Technologies Inc. Multiple axis multipoint non-contact measurement system
US7861751B2 (en) * 2006-03-21 2011-01-04 Mcgehee Development Company Llc Edge trimming and board ripping apparatus and method
FR2898969B1 (fr) * 2006-03-24 2008-10-24 Peugeot Citroen Automobiles Sa Procede et installation de controle de la qualite de pieces
DE102006015627B4 (de) * 2006-03-31 2008-03-27 Innovent E.V. Verfahren und Vorrichtung zur Bestimmung und Vermessung von Formabweichungen und Welligkeiten an rotationssymmetrischen Teilen
US7676061B2 (en) * 2006-05-02 2010-03-09 Telesis Technologies, Inc. Laser safety system
WO2007137234A2 (en) 2006-05-19 2007-11-29 Irobot Corporation Removing debris from cleaning robots
US20070276539A1 (en) * 2006-05-25 2007-11-29 Babak Habibi System and method of robotically engaging an object
US8417383B2 (en) 2006-05-31 2013-04-09 Irobot Corporation Detecting robot stasis
KR100801087B1 (ko) * 2006-07-05 2008-02-11 삼성전자주식회사 스트럭처드 라이트를 이용한 이동체 감지 시스템 및 방법,상기 시스템을 포함하는 이동 로봇
US8437535B2 (en) * 2006-09-19 2013-05-07 Roboticvisiontech Llc System and method of determining object pose
US7557914B2 (en) * 2006-10-09 2009-07-07 The Boeing Company Rotating laser measurement system
US9442607B2 (en) 2006-12-04 2016-09-13 Smart Technologies Inc. Interactive input system and method
US20080181485A1 (en) * 2006-12-15 2008-07-31 Beis Jeffrey S System and method of identifying objects
WO2008114263A1 (en) * 2007-03-21 2008-09-25 Camtek Ltd. System and method for height measurement
US7864309B2 (en) 2007-05-04 2011-01-04 Burke E. Porter Machinery Company Non contact wheel alignment sensor and method
KR101301834B1 (ko) 2007-05-09 2013-08-29 아이로보트 코퍼레이션 소형 자율 커버리지 로봇
US20090028686A1 (en) * 2007-07-23 2009-01-29 Abb Inc. Robotic palletizing system
US7957583B2 (en) * 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
CA2597891A1 (en) * 2007-08-20 2009-02-20 Marc Miousset Multi-beam optical probe and system for dimensional measurement
US7836772B2 (en) * 2007-09-26 2010-11-23 Siemens Energy, Inc. Method and apparatus for tracking a rotating blade tip for blade vibration monitor measurements
EP2193388B1 (de) * 2007-09-28 2016-03-09 Trimble 3d Scanning Distanzmessinstrument und verfahren
DE102007055204B4 (de) * 2007-11-19 2010-04-08 Deutsches Zentrum für Luft- und Raumfahrt e.V. Roboter, medizinischer Arbeitsplatz und Verfahren zum Projizieren eines Bildes auf die Oberfläche eines Objekts
US8194240B1 (en) * 2008-03-04 2012-06-05 Kla-Tencor Corporation Enhanced focusing capability on a sample using a spot matrix
JP4719241B2 (ja) * 2008-04-15 2011-07-06 三菱電機株式会社 円形加速器
US8902193B2 (en) 2008-05-09 2014-12-02 Smart Technologies Ulc Interactive input system and bezel therefor
US20100031792A1 (en) * 2008-08-08 2010-02-11 Mcgehee Development Company Llc Saw Assembly for Wood Product Sawing Apparatus and Method
US8126662B2 (en) * 2008-09-24 2012-02-28 Siemens Energy, Inc. Method and apparatus for monitoring blade vibration with a fiber optic ribbon probe
US8151647B2 (en) * 2008-09-24 2012-04-10 Siemens Energy, Inc. Apparatus for monitoring blade vibration with an imaging fiber optic ribbon probe
US8559699B2 (en) * 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
US8339378B2 (en) 2008-11-05 2012-12-25 Smart Technologies Ulc Interactive input system with multi-angle reflector
WO2010071782A1 (en) * 2008-12-15 2010-06-24 Panasonic Avionics Corporation System and method for performing real-time data analysis
US7876249B2 (en) * 2009-02-17 2011-01-25 Advis, Inc. Image sensing system
DE102009036776B4 (de) * 2009-08-08 2014-11-27 Niles Werkzeugmaschinen Gmbh Verfahren zur Messung des Aufmaßes eines hartfeinzubearbeitenden Zahnrades
US8378277B2 (en) 2009-11-30 2013-02-19 Physical Optics Corporation Optical impact control system
JP5079826B2 (ja) * 2010-02-09 2012-11-21 シャープ株式会社 光学式測距センサおよび電子機器
US8800107B2 (en) 2010-02-16 2014-08-12 Irobot Corporation Vacuum brush
US8401692B2 (en) 2010-09-09 2013-03-19 Flow International Corporation System and method for tool testing and alignment
EP2428765A1 (de) * 2010-09-14 2012-03-14 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Behandlung von Turbinenschaufeln
EP2668614B1 (de) 2011-01-24 2018-05-30 Datalogic USA, Inc. Ausnahmenerkennung und -handhabung in automatisierten systemen zum lesen optischer codes
US8631577B2 (en) 2011-07-22 2014-01-21 Pratt & Whitney Canada Corp. Method of fabricating integrally bladed rotor and stator vane assembly
US8689634B2 (en) * 2011-09-27 2014-04-08 Genral Electric Company Systems and methods for mode shape identification
WO2013163017A1 (en) * 2012-04-24 2013-10-31 Siemens Healthcare Diagnostics Inc. Multi-channel light measurement methods, systems, and apparatus having reduced signal-to-noise ratio
US9157989B2 (en) 2012-08-29 2015-10-13 Trimble Ab Distance measurement methods and apparatus
US8786850B2 (en) * 2012-10-29 2014-07-22 Kla-Tencor Corporation Illumination energy management in surface inspection
US20140193165A1 (en) * 2013-01-08 2014-07-10 Silicon Image, Inc. Electronic alignment of optical signals
EP2962777B1 (de) * 2013-02-28 2018-04-04 Showa Rasenkan Seisakusho Co. Ltd. Herstellungsverfahren für verzahntes rohr und herstellungsvorrichtung dafür
CN104020781A (zh) * 2013-02-28 2014-09-03 鸿富锦精密工业(深圳)有限公司 量测控制系统及方法
US9293500B2 (en) 2013-03-01 2016-03-22 Apple Inc. Exposure control for image sensors
US9276031B2 (en) 2013-03-04 2016-03-01 Apple Inc. Photodiode with different electric potential regions for image sensors
US9741754B2 (en) 2013-03-06 2017-08-22 Apple Inc. Charge transfer circuit with storage nodes in image sensors
US9549099B2 (en) 2013-03-12 2017-01-17 Apple Inc. Hybrid image sensor
US9319611B2 (en) 2013-03-14 2016-04-19 Apple Inc. Image sensor with flexible pixel summing
US9596423B1 (en) 2013-11-21 2017-03-14 Apple Inc. Charge summing in an image sensor
US9596420B2 (en) 2013-12-05 2017-03-14 Apple Inc. Image sensor having pixels with different integration periods
US9473706B2 (en) 2013-12-09 2016-10-18 Apple Inc. Image sensor flicker detection
US9778650B2 (en) 2013-12-11 2017-10-03 Honda Motor Co., Ltd. Apparatus, system and method for kitting and automation assembly
US10285626B1 (en) 2014-02-14 2019-05-14 Apple Inc. Activity identification using an optical heart rate monitor
US9277144B2 (en) 2014-03-12 2016-03-01 Apple Inc. System and method for estimating an ambient light condition using an image sensor and field-of-view compensation
US9232150B2 (en) 2014-03-12 2016-01-05 Apple Inc. System and method for estimating an ambient light condition using an image sensor
US9584743B1 (en) 2014-03-13 2017-02-28 Apple Inc. Image sensor with auto-focus and pixel cross-talk compensation
US9497397B1 (en) 2014-04-08 2016-11-15 Apple Inc. Image sensor with auto-focus and color ratio cross-talk comparison
US9538106B2 (en) 2014-04-25 2017-01-03 Apple Inc. Image sensor having a uniform digital power signature
US9686485B2 (en) 2014-05-30 2017-06-20 Apple Inc. Pixel binning in an image sensor
DE102014211115A1 (de) * 2014-06-11 2015-12-17 Siemens Aktiengesellschaft Vorrichtung und Verfahren zur gestengesteuerten Einstellung von Einstellgrößen an einer Röntgenquelle
CN104101612B (zh) * 2014-06-24 2017-09-12 杭州利珀科技有限公司 平面材料表面缺陷检测装置
US9510505B2 (en) 2014-10-10 2016-12-06 Irobot Corporation Autonomous robot localization
JP6456205B2 (ja) * 2014-11-14 2019-01-23 Dmg森精機株式会社 測定対象物の断面形状測定方法
US11115798B2 (en) 2015-07-23 2021-09-07 Irobot Corporation Pairing a beacon with a mobile robot
US10034421B2 (en) 2015-07-24 2018-07-31 Irobot Corporation Controlling robotic lawnmowers
US10444006B2 (en) 2015-08-19 2019-10-15 Faro Technologies, Inc. Three-dimensional imager
US10455216B2 (en) 2015-08-19 2019-10-22 Faro Technologies, Inc. Three-dimensional imager
FR3043193B1 (fr) 2015-11-02 2019-04-19 Mesure-Systems3D Dispositif de controle tridimensionnel sans contact d’une piece mecanique a denture
US9815204B2 (en) * 2016-01-22 2017-11-14 The Boeing Company Apparatus and method to optically locate workpiece for robotic operations
US10459063B2 (en) 2016-02-16 2019-10-29 Irobot Corporation Ranging and angle of arrival antenna system for a mobile robot
US9912883B1 (en) 2016-05-10 2018-03-06 Apple Inc. Image sensor with calibrated column analog-to-digital converters
WO2018057975A1 (en) 2016-09-23 2018-03-29 Apple Inc. Stacked backside illuminated spad array
TWI616794B (zh) * 2016-12-20 2018-03-01 友達光電股份有限公司 光感測電路與其缺陷修補方法
CN110235024B (zh) 2017-01-25 2022-10-28 苹果公司 具有调制灵敏度的spad检测器
US10656251B1 (en) 2017-01-25 2020-05-19 Apple Inc. Signal acquisition in a SPAD detector
US10962628B1 (en) 2017-01-26 2021-03-30 Apple Inc. Spatial temporal weighting in a SPAD detector
JP6671309B2 (ja) * 2017-03-13 2020-03-25 株式会社Screenホールディングス 検査装置および検査方法
US10753726B2 (en) 2017-03-26 2020-08-25 Cognex Corporation System and method for 3D profile determination using model-based peak selection
US11520014B2 (en) 2017-06-08 2022-12-06 Geoff W. Taylor Thyristor-based lidar detector array
US10622538B2 (en) 2017-07-18 2020-04-14 Apple Inc. Techniques for providing a haptic output and sensing a haptic input using a piezoelectric body
US10378889B2 (en) 2017-08-22 2019-08-13 Faro Technologies, Inc. Measurement system having a cooperative robot and three-dimensional imager
US10440301B2 (en) 2017-09-08 2019-10-08 Apple Inc. Image capture device, pixel, and method providing improved phase detection auto-focus performance
US11314220B2 (en) 2018-04-26 2022-04-26 Liberty Reach Inc. Non-contact method and system for controlling an industrial automation machine
US10848693B2 (en) 2018-07-18 2020-11-24 Apple Inc. Image flare detection using asymmetric pixels
US11019294B2 (en) 2018-07-18 2021-05-25 Apple Inc. Seamless readout mode transitions in image sensors
US10776949B2 (en) 2018-10-30 2020-09-15 Liberty Reach Inc. Machine vision-based method and system for measuring 3D pose of a part or subassembly of parts
CN109343037A (zh) * 2018-11-27 2019-02-15 森思泰克河北科技有限公司 光探测器安装误差检测装置、方法和终端设备
US10955236B2 (en) 2019-04-05 2021-03-23 Faro Technologies, Inc. Three-dimensional measuring system
CN111168718B (zh) * 2020-01-03 2021-06-22 北京理工大学 协作型机械臂与环境碰撞力与碰撞功率检测装置
IT202000004063A1 (it) * 2020-02-27 2021-08-27 Cesare Galdabini S P A Metodo per determinare l'eccentricità e/o l'errore di rotondità di ruote dentate e l'errore di rettilineità di cremagliere, apparecchiatura implementante un tale metodo e macchina raddrizzatrice provvista di una tale apparecchiatura
CN111322954B (zh) * 2020-03-19 2021-07-27 北京神工科技有限公司 一种装配工装位姿测量方法、装置、存储介质及电子设备
US11563910B2 (en) 2020-08-04 2023-01-24 Apple Inc. Image capture devices having phase detection auto-focus pixels
US11546532B1 (en) 2021-03-16 2023-01-03 Apple Inc. Dynamic correlated double sampling for noise rejection in image sensors
EP4300133A1 (de) * 2022-06-27 2024-01-03 VoxelSensors SRL Optisches abtastsystem

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE1810188A1 (de) * 1967-11-24 1969-08-14 Ct Nat De Rech S Metallurg A S Verfahren zur Abstandsbestimmung auf optischem Wege
DE2502941A1 (de) * 1974-02-12 1975-08-14 United Aircraft Corp Verfahren und geraet zum messen der oberflaechenkontur eines testobjekts
DE2513389A1 (de) * 1975-03-26 1976-10-07 Messerschmitt Boelkow Blohm Einrichtung fuer eine beruehrungslose ueberpruefung und bestimmung der abmessungen und form von grossen werkstuecken
DE2620091A1 (de) * 1975-05-08 1976-11-25 United Technologies Corp Messystem zum bestimmen der kontur der oberflaeche eines gegenstands

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA728860A (en) * 1966-03-01 W. Rignall Michael Distance measuring devices
US3227886A (en) * 1962-05-21 1966-01-04 Machinery Electrification Inc Photoelectric article coding and classifying device
US3715953A (en) * 1966-02-04 1973-02-13 Us Army Aerial surveillance and fire-control system
US3513320A (en) * 1966-10-31 1970-05-19 Markstems Inc Article identification system detecting plurality of colors disposed on article
NL137674C (de) * 1966-11-14
US3481672A (en) * 1967-01-03 1969-12-02 Hughes Aircraft Co F.m. laser contour mapper
US3520607A (en) * 1967-10-17 1970-07-14 Hughes Aircraft Co Phase sensing laser contour mapper
AT301331B (de) * 1968-11-25 1972-08-25 Eumig Einrichtung zur Entfernungsmessung
US3679307A (en) * 1970-02-19 1972-07-25 Ati Inc Non-contacting optical probe
US3674925A (en) * 1970-12-03 1972-07-04 Us Navy Cable-less television system
US3895870A (en) * 1971-06-01 1975-07-22 Autech Corp Laser dimension comparator
US3796492A (en) * 1971-06-01 1974-03-12 Autech Corp Laser dimension comparator
US3897156A (en) * 1971-07-27 1975-07-29 Atmospheric Sciences Inc Structure for measuring the average diameter of an approximately circular cross-section of an object
US4047025A (en) * 1972-01-24 1977-09-06 Lemelson Jerome H Position indicating system and methods
US3854035A (en) * 1972-07-31 1974-12-10 Ferranti Packard Ltd Method and means for reading coded information
US3888362A (en) * 1973-05-31 1975-06-10 Nasa Cooperative multiaxis sensor for teleoperation of article manipulating apparatus
US3875870A (en) * 1973-07-19 1975-04-08 Rail Or Trail Corp Convertible rail-highway vehicle axle assembly
US3947119A (en) * 1974-02-04 1976-03-30 Ball Brothers Research Corporation Active sensor automatic range sweep technique
US3899250A (en) * 1974-02-04 1975-08-12 Ball Brothers Res Corp Active-gated television automatic range sweep technique
US3994583A (en) * 1974-02-25 1976-11-30 Hutchins Iv Thomas B Noncontacting method and apparatus for monitoring the speed and travel of a moving article
US4017721A (en) * 1974-05-16 1977-04-12 The Bendix Corporation Method and apparatus for determining the position of a body
US4171917A (en) * 1974-07-02 1979-10-23 Centre De Recherches Metallurgiques-Centrum Voor Research In De Metallurgie Determining the profile of a surface of an object
GB1526209A (en) * 1974-12-23 1978-09-27 Secretary Industry Brit Automatic stitching machines
US4040738A (en) * 1975-03-20 1977-08-09 Gulton Industries, Inc. Railroad track profile spacing and alignment apparatus
JPS51140655A (en) * 1975-05-29 1976-12-03 Ikegami Tsushinki Co Ltd Method and apparatus for optical measurement
US4004852A (en) * 1975-06-30 1977-01-25 Rockwell International Corporation Integrated automatic ranging device for optical instruments
US4146924A (en) * 1975-09-22 1979-03-27 Board Of Regents For Education Of The State Of Rhode Island System for visually determining position in space and/or orientation in space and apparatus employing same
CA1043463A (en) * 1975-12-05 1978-11-28 Paul A. Mueller Lumber inspection and optimization system
US4200393A (en) * 1976-06-07 1980-04-29 Tokyo Shibaura Elecric Co., Ltd. Method of positioning a semiconductor member by examining it and a die bonding apparatus using the same
JPS5335567A (en) * 1976-09-13 1978-04-03 Shinetsu Chem Ind Co Apparatus for measuring thickness of semiconductor wafer
US4173788A (en) * 1976-09-27 1979-11-06 Atmospheric Sciences, Inc. Method and apparatus for measuring dimensions
US4146327A (en) * 1976-12-27 1979-03-27 Autech Optical triangulation gauging system
GB1536022A (en) * 1977-01-10 1978-12-13 Integrated Photomatrix Ltd Measurement of position using an array of photosensitive elements
US4135204A (en) * 1977-06-09 1979-01-16 Chesebrough-Pond's Inc. Automatic glass blowing apparatus and method
US4188544A (en) 1977-08-22 1980-02-12 Weyerhaeuser Company Method and apparatus for automatically processing a workpiece employing calibrated scanning
US4158853A (en) * 1977-09-12 1979-06-19 Acushnet Company Monitoring system for measuring kinematic data of golf balls
CH628138A5 (de) * 1977-10-06 1982-02-15 Tino Celio Verfahren und vorrichtung zur messung der entfernung eines zielobjekts durch beaufschlagung mit einem strahlenbuendel sowie anwendung des verfahrens.
US4183672A (en) * 1977-11-26 1980-01-15 United Technologies Corporation Optical inspection system employing spherical mirror
JPS54126023A (en) * 1978-03-23 1979-09-29 Canon Inc Optical device
US4281342A (en) * 1978-03-29 1981-07-28 Hitachi, Ltd. Mark detecting system using image pickup device
EP0005500B1 (de) * 1978-05-18 1981-10-07 Ciba-Geigy Ag Dioxaphosphepine, ihre Herstellung und Verwendung als Stabilisatoren für organisches Material
US4187051A (en) * 1978-05-26 1980-02-05 Jerry Kirsch Rotary video article centering, orienting and transfer device for computerized electronic operating systems
CH628139A5 (de) * 1978-08-03 1982-02-15 Fruengel Frank Verfahren und einrichtung zur wolkenhoehenmessung.
JPS5927842B2 (ja) * 1978-08-24 1984-07-09 工業技術院長 タ−ゲット・マ−クの変位測定方法
US4264208A (en) * 1978-10-25 1981-04-28 Semperit Aktiengesellschaft Method and apparatus for measuring the surface of an object
US4221973A (en) * 1978-12-26 1980-09-09 Nosler John C Linear array signal processing circuitry for locating the midpoint of a source of light
US4248532A (en) * 1978-12-26 1981-02-03 Nosler John C Electro-optical distance-measuring system
US4305661A (en) * 1979-02-27 1981-12-15 Diffracto, Ltd. Method and apparatus for determining physical characteristics of objects and object surfaces
US5280179A (en) * 1979-04-30 1994-01-18 Sensor Adaptive Machines Incorporated Method and apparatus utilizing an orientation code for automatically guiding a robot
US5164579A (en) * 1979-04-30 1992-11-17 Diffracto Ltd. Method and apparatus for electro-optically determining the dimension, location and attitude of objects including light spot centroid determination
US4373804A (en) * 1979-04-30 1983-02-15 Diffracto Ltd. Method and apparatus for electro-optically determining the dimension, location and attitude of objects
US4674869A (en) * 1979-04-30 1987-06-23 Diffracto, Ltd. Method and apparatus for electro-optically determining dimension, location and altitude of objects
US4248432A (en) * 1979-07-16 1981-02-03 The B. F. Goodrich Company Golf ball
US4386848A (en) * 1980-08-11 1983-06-07 Martin Marietta Corporation Optical target tracking and designating system
US4613942A (en) * 1982-02-19 1986-09-23 Chen Richard M Orientation and control system for robots
US4547674A (en) * 1982-10-12 1985-10-15 Diffracto Ltd. Optical triangulation gear inspection
US4674867A (en) * 1984-01-17 1987-06-23 Kabushiki Kaisha Shashin Kogyo Photographic contact printing apparatus for duplicating of original color picture
US4613429A (en) * 1984-07-05 1986-09-23 University Of Pittsburgh Process for removing mineral matter from coal
US4741621A (en) * 1986-08-18 1988-05-03 Westinghouse Electric Corp. Geometric surface inspection system with dual overlap light stripe generator
US4736247A (en) * 1987-05-04 1988-04-05 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Range and range rate system
US5673082A (en) * 1995-04-10 1997-09-30 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Light-directed ranging system implementing single camera system for telerobotics applications

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE1810188A1 (de) * 1967-11-24 1969-08-14 Ct Nat De Rech S Metallurg A S Verfahren zur Abstandsbestimmung auf optischem Wege
DE2502941A1 (de) * 1974-02-12 1975-08-14 United Aircraft Corp Verfahren und geraet zum messen der oberflaechenkontur eines testobjekts
DE2513389A1 (de) * 1975-03-26 1976-10-07 Messerschmitt Boelkow Blohm Einrichtung fuer eine beruehrungslose ueberpruefung und bestimmung der abmessungen und form von grossen werkstuecken
DE2620091A1 (de) * 1975-05-08 1976-11-25 United Technologies Corp Messystem zum bestimmen der kontur der oberflaeche eines gegenstands

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3145878A1 (de) * 1980-11-20 1982-06-03 Tokico Ltd., Kawasaki, Kanagawa Roboter
DE3138699A1 (de) * 1981-09-29 1983-04-07 Siemens Ag Einrichtung zur erfassung von bildvorlagen und verfahren zum betrieb dieser einrichtung.
DE3138757A1 (de) * 1981-09-29 1983-05-05 Siemens AG, 1000 Berlin und 8000 München Verfahren zur erfassung von textausschnitten aus einer vorlage und vorrichtung zur durchfuehrung des verfahrens

Also Published As

Publication number Publication date
US5880459A (en) 1999-03-09
US5786602A (en) 1998-07-28
US5883390A (en) 1999-03-16
US5866916A (en) 1999-02-02
US5773840A (en) 1998-06-30
GB2051514B (en) 1984-02-01
US5510625A (en) 1996-04-23
US5811827A (en) 1998-09-22
JPS61240104A (ja) 1986-10-25
US5670787A (en) 1997-09-23
US5767525A (en) 1998-06-16
US6127689A (en) 2000-10-03
US5981965A (en) 1999-11-09
GB2051514A (en) 1981-01-14
US5866915A (en) 1999-02-02
US5684292A (en) 1997-11-04
US5677541A (en) 1997-10-14
US5877491A (en) 1999-03-02
DE3016361C2 (de) 1983-12-22
US5811825A (en) 1998-09-22
US4373804A (en) 1983-02-15
US5693953A (en) 1997-12-02
US5691545A (en) 1997-11-25
US5854491A (en) 1998-12-29
US6211506B1 (en) 2001-04-03
US5734172A (en) 1998-03-31
JPS5616802A (en) 1981-02-18
US5362970A (en) 1994-11-08

Similar Documents

Publication Publication Date Title
DE3016361A1 (de) Verfahren und einrichtung zur elektro-optischen bestimmung der abmessungen, lage oder haltung eines objekts
DE69925582T2 (de) Vorrichtung und verfahren zum optischen messen der oberflächenkontur eines objekts
US5164579A (en) Method and apparatus for electro-optically determining the dimension, location and attitude of objects including light spot centroid determination
US4674869A (en) Method and apparatus for electro-optically determining dimension, location and altitude of objects
EP0740770B1 (de) Verfahren und vorrichtung zur vermessung von exzenterdrehteilen
DE2725756C2 (de)
US5280179A (en) Method and apparatus utilizing an orientation code for automatically guiding a robot
DE4121538A1 (de) Zoomlinse fuer eine kamera mit variabler schaerfentiefe
DE3123703A1 (de) Optisches messsystem mit einer fotodetektoranordnung
DE4121537A1 (de) Brennfleckgroessenregler fuer ein vermessungssystem
DE19721688A1 (de) Oberflächenerfassungseinrichtung und Verfahren zur Oberflächenerfassung
DE4121539A1 (de) Optischer sensor auf fiberbasis fuer eine kamera mit variabler schaerfentiefe
DE2934263B2 (de) Verfahren und Vorrichtung zur automatischen Messung der Scheitelbreckwerte in den Hauptschnitten torischer Brillengläser
DE4212404A1 (de) Vorrichtung zum messen der raeumlichen form eines langgestreckten bauteils
EP0671679A1 (de) Vorrichtung und Verfahren zum berührungslosen Vermessen dreidimensionaler Objekte auf der Basis optischer Triangulation
WO1992007234A1 (de) Verfahren und vorrichtung zum optischen messen der konturen eines lichtundurchlässigen objektes
DE4337707A1 (de) Anordnung zur Beleuchtung und Abbildung
WO2009140946A1 (de) Verfahren zur objekterfassung
DE4315832A1 (de) Verfahren zur berührungslosen zweidimensionalen Positionsbestimmung eines Meßpunktes auf einer Meßfläche
DE3824613A1 (de) Verfahren und vorrichtung zum beruehrungslosen messen von entfernungen oder zum beruehrungslosen vermessen von objekten
DE2543645A1 (de) Vorrichtung zur messung von lageabweichungen
DE19642585A1 (de) Optischer Meßschieber
DD232348B1 (de) Vorrichtung zur optoelektronischen erfassung von schichtdicken

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: SENSOR ADAPTIVE MACHINES, INC., WINDSOR, ONTARIO,

8339 Ceased/non-payment of the annual fee