WO2009074750A2 - Device for three-dimensional digitisation - Google Patents

Device for three-dimensional digitisation Download PDF

Info

Publication number
WO2009074750A2
WO2009074750A2 PCT/FR2008/001339 FR2008001339W WO2009074750A2 WO 2009074750 A2 WO2009074750 A2 WO 2009074750A2 FR 2008001339 W FR2008001339 W FR 2008001339W WO 2009074750 A2 WO2009074750 A2 WO 2009074750A2
Authority
WO
WIPO (PCT)
Prior art keywords
camera
projector
distance
sensor
semi
Prior art date
Application number
PCT/FR2008/001339
Other languages
French (fr)
Other versions
WO2009074750A3 (en
Inventor
Vincent Lemonde
Ludovic Brethes
Original Assignee
Noomeo
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Noomeo filed Critical Noomeo
Publication of WO2009074750A2 publication Critical patent/WO2009074750A2/en
Publication of WO2009074750A3 publication Critical patent/WO2009074750A3/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object

Definitions

  • the invention relates to the construction of non-contact synthetic images from physical three-dimensional objects. This technique is commonly called three-dimensional scanning, or, according to the English terminology, 3D scanning.
  • Such a tool generally comprises one or more scanners, portable or not, performing an acquisition of the topography of the object along one or more orientations, this topography then being used to perform a three-dimensional reconstruction of the object's synthesis in the environment CAD.
  • - scanning which consists of projecting a linear image onto the object (usually a plane light brush generated by means of a laser source) and scanning the surface of the object at medium of this line whose successive distortions allow, as and when, a reconstruction of the entire illuminated face
  • - the capture point or "one-shot” which consists of projecting on the object, in a timely manner , a structured image containing a predetermined pattern whose general distortion, with respect to its projection on a plane, is analyzed point by point to allow reconstruction of the illuminated face.
  • the use of the laser is delicate, and can even be dangerous if one must use it to scan the human face.
  • the known techniques do not go without certain disadvantages.
  • the dispersion of the projection and acquisition tools does not allow for sufficiently compact and lightweight scanners to allow real portability, so that even to scan a small object (such as a telephone), is necessary to have a whole paraphernalia around the object.
  • the invention aims to overcome the aforementioned drawbacks by proposing a technical solution for performing the three-dimensional scanning of an object in a simple and fast manner by means of a compact device that can be held by hand.
  • the invention proposes a device for constructing an image of synthesis of a three-dimensional surface of a physical object, this device comprising: a projector provided with a light source, an optical axis, and a speckle defining pattern comprising a plurality of points of light intensities and / or predetermined colors, and a camera having an optical sensor placed in the optical axis of the projector, a semi-reflecting mirror disposed on the optical axis, this mirror having two opposite faces inclined with respect to the optical axis and facing which are arranged, respectively, the projector and the camera, the distance from the sensor to the semi-reflective mirror is less than the distance from the target to the semi-mirror reflective.
  • FIG. 1 is a three-dimensional view of a three-dimensional scanning device applied to the capture of a physical object, in this case an apple
  • Figure 2 is an exploded perspective view of the device of Figure 1, showing a portion of its internal components, according to another angle of view
  • Figure 3 is a top view of the device of Figure 2
  • FIG. 4 is a schematic representation, in Euclidean geometry, of the mathematical model underlying the digitization technique according to the invention
  • Figure 5 is a plan view of a luminous speckle, as projected on a reference plane perpendicular to the axis of projection;
  • FIG. 1 is a three-dimensional view of a three-dimensional scanning device applied to the capture of a physical object, in this case an apple
  • Figure 2 is an exploded perspective view of the device of Figure 1, showing a portion of its internal components, according to another angle of view
  • Figure 3 is a top view of the device of Figure 2
  • FIG. 4 is a schematic representation, in Euclidean geometry, of the mathematical model underlying the digitiz
  • FIG. 6 is a schematic perspective view illustrating the projection, on a front face of an ergonomic pillow-type object, of the mouchetis whose photographic acquisition makes it possible to produce a topography of the illuminated face
  • FIG. 7 is a plan view, in the axis of the capture apparatus, of the speckle projected on one face of the object of FIG. 6
  • Figures 8, 9 and 10 illustrate the analysis of the speckle distortion along three orthogonal axes of the three-dimensional space, respectively abscissa, ordinate and depth
  • FIGS. 11 and 12 are perspective views, respectively from the front and from the rear, of the illuminated front face of the object of FIG. 6, as reconstructed from the analysis illustrated in FIGS. 8 to 10;
  • FIG. 11 and 12 are perspective views, respectively from the front and from the rear, of the illuminated front face of the object of FIG. 6, as reconstructed from the analysis illustrated in FIGS. 8 to 10;
  • FIG. 11 and 12 are perspective views, respectively from the front and from the rear, of the illuminated
  • FIG. 13 is a plan view of the illuminated front face of the object of FIG. 6, as reconstructed;
  • Figures 14 and 15 are side views, in two different orientations, of the illuminated front face of the object of Figure 6.
  • Figures 1 to 3 is shown schematically, a device 1 for scanning without contact , making it possible to construct a synthetic image 2 of a three-dimensional surface 3 of a physical object 4.
  • this object 4 is an apple, but it could be any other object having one or more three-dimensional surfaces to be digitized, these surfaces being able to be in relief (that is to say not flat) ).
  • This device 1 comprises an apparatus 5 comprising a portable casing 6 provided with a handle 7 enabling it to be grasped and manipulated and, mounted in this casing 6, a projector 8 and a camera-like camera 9 (FIG. that is, capable of continuous shooting, for example at the normalized frame rate of 24 frames per second), or of a camera type (that is to say, taking one-shot shots).
  • the camera 9 is a camera, which can be used, if necessary, as a camera.
  • the projector 8 comprises a light source 10 and arranged facing this light source 10, a focusing optic 11 and a target 12.
  • the light source 10 is preferably a white light source, for example of the filament type (as in the schematic example shown in FIGS. 2 and 3) or of the halogen type.
  • Focusing optics 11 shown diagrammatically in FIGS. 2 and 3 by a single converging lens, define a main optical axis 13 passing through the light source 10.
  • the pattern 12 defines a speckle 14 comprising a multitude of points of light intensities (contrast) and / or predetermined colors.
  • speckle 14 is shown in plan in FIG. 6: this is a scab-type pattern or Speckle (for a definition of the Speckle pattern, see for example Juliette SELB, "Acousto-optical virtual source for the imaging of diffusing media ", Thesis of Doctorate, Paris Xl, 2002).
  • the target 12 may be in the form of a translucent or transparent plate (glass or plastic), square or rectangular, slide-type, on which the speckled 14 is printed by a conventional method (transfer, offset, screen printing, flexography, laser, inkjet, etc.).
  • the pattern 12 is disposed between the light source 10 and the optic 11, on the axis 13 thereof, that is to say perpendicularly to the optical axis 13 and so that it passes through the center of the target 12 (defined in this case by the crossing of its diagonals).
  • the pattern 12 is placed at a predetermined distance from the optic 11, depending on the focal length thereof (see the example below).
  • Two of the adjacent sides of the target 12 respectively define an abscissa axis (x) and an ordinate axis (y), the optical axis defining a depth axis (z).
  • the camera 9 comprises an optic 15, shown diagrammatically in FIGS. 2 and 3 by a simple convergent lens, and defining a secondary optical axis 16.
  • the camera 9 further comprises a photosensitive sensor 17, for example of the CCD type, which is in the form of a square or rectangular plate and is placed, facing the optics 15, on the secondary optical axis 16, c that is to say, perpendicular to it and so that the axis passes through the center of the sensor 17 (defined in this case by the crossing of its diagonals).
  • the sensor 17 is placed at a predetermined distance from the optics 15, depending on the focal length thereof (see the example below).
  • the projector 8 and the camera 9 are arranged in such a way that the optical axes 13 and 16 are coplanar and perpendicular.
  • the apparatus 5 further comprises a semi-reflecting mirror 18 disposed on the main optical axis 13 at the intersection with the secondary optical axis 16. More specifically, the mirror 18 has two opposite planar main faces, namely one face rear 19, disposed facing the projector 8, and a front face 20, disposed facing the camera 9.
  • the semi-reflecting mirror 18 is in the form of a thin strip whose faces 19 and 20 are parallel, but it could be in the form of a prism whose faces would be inclined 45 ° with respect to each other.
  • the front face 20 meanwhile, extends in a plane inclined at an angle of 45 ° with respect to the main optical axis 13 and the secondary optical axis 16 (in other words in a perpendicular plane to the plane formed by the axes 13 and 16, and containing the bisector of the right angle formed by them).
  • This front face 20 is semi-reflective, that is to say that it is arranged to transmit along the main optical axis 13 incident light from the projector 8, but to reflect according to the secondary optical axis 16 the reflected light arriving thereat along the main optical axis 13 from the illuminated object 4.
  • the mirror 18 is arranged in such a way that the principal 13 and secondary 16 axes are concurrent on the semi-reflecting front face (also called the splitter plate), and more precisely in the center thereof (defined in this case by the crossed of its diagonals).
  • the incident light emitted by the source 10 first passes through the pattern 12, is focused by the optic 11 and then passes without reflection the mirror 18 semi-reflective.
  • This light illuminates - with projection of the target 12 - the object 4 to be digitized, which reflects a part of it which, emitted along the main optical axis 13 in the opposite direction of the incident light, is reflected at right angles, according to the secondary optical axis 16, by the separating plate 20 in the direction of the camera 9.
  • This reflected light is focused by the optics 15 of the camera 9 and finally hits the sensor 17.
  • the secondary optical axis 16 is virtually coincident with the main optical axis 13.
  • the camera 9 is not physically disposed on the main optical axis 13, it is in the axis main optical 13, since everything happens as if the light reflected by the object 4 and hitting the sensor 17 had not undergone any deviation.
  • the interposition of a semi-reflecting mirror 18 makes it possible, in practice, to avoid the obscuration of the projector 8 that would be caused by the physical mounting of the camera 9 on the main optical axis 13 in front of the projector 8 or, conversely, the occultation of the camera 9 that would cause its physical assembly on the main optical axis 13 behind the projector 8.
  • the distance from the sensor 17 to the separator blade 20 is less than the distance from the target 12 to the separator blade 20.
  • the camera 9 is placed , in the main optical axis 13, in front of the projector 8. This makes it possible to use a sensor 17 of reasonable size (and therefore reasonable cost), whose field of vision is strictly included in the image of the mouchetis 14, as can be seen in Figures 8 to 10.
  • the preferred dimensioning allows to project on a target plane T (reference plane) located 390 mm from the chart 12 a clear image of the mouchetis 14 (Figure 5), whose large side measures About 350 mm, the sensor 17 can see within this image a field whose large side is about 300 mm.
  • the apparatus 5 further comprises a manual triggering mechanism (for example trigger type), which can be mounted on the handle 6 and for actuating the projector 8 and the camera 9, that is to say, concretely, the projection of the sights and the shooting.
  • the triggering mechanism may be of the flash type, that is to say that the projection of the fleck 14 and shooting are performed punctually and simultaneously, or delayed type, that is to say that taking can be triggered - automatically or manually - during a time interval during which the projection is done continuously.
  • the device 1 finally comprises a unit 21 for processing the data coming from the sensor 17.
  • This processing unit 21 is in practice in the form of a processor embedded in the apparatus 5 or, as illustrated in FIG. central unit 22 of a remote computer 23 connected to the apparatus 5 via a wired or wireless communication interface, processor 21 on which is implemented a software application for constructing computer-generated images from the data from the sensor 17.
  • the apparatus 5 is positioned by orienting it so that the projector 8 is facing this surface 3 and directing the main optical axis 13 towards that ( Figure 1), at an estimated distance close to the distance to obtain a clear image of the mouchetis 14 (that is to say, the distance that would normally be the reference plane F).
  • the triggering mechanism is then actuated to project the image of the speckle 14 of the test pattern 12 onto the surface 3 to be digitized, along the main optical axis 13.
  • the image of the speckle 14 on the object 4 presents at least locally, relative to an image projected on the reference plane, distortions due to the reliefs of the illuminated surface 3 (FIG. 6).
  • the shooting is then carried out by means of the camera 9 to acquire and store the two-dimensional image of speckled 14 'deformed by the illuminated surface 3 (FIG. 7), this image being reflected successively by the surface 3 of the object 4 and the separator blade 20.
  • the following operation consists in comparing the image of the deformed speckled 14 'with the image of the undistorted speckle 14, as projected on the reference plane f.
  • This comparison can be performed for each point of the mouchetis 14, or in a selection of predetermined points, performed within the undistorted image.
  • the preferred dimensioning proposed above provides, for a sensor 17 comprising of the order of 9 million pixels, a precision of the order of one tenth of mm, sufficient to construct an acceptable synthetic image 2 of any type of object whose size is on a human scale.
  • the following operation consists in matching, for the set of selected points, each point of the speckle 14 undeformed with the corresponding point of speckled 14 'deformed.
  • this pairing can be achieved by correlation, that is to say by successive approaches within zones which, although having local disparities, appear similar in neighboring regions of the two images.
  • Figure 4 illustrates the geometric method used to perform this calculation.
  • the main optical axis 13 and the secondary optical axis 16 are merged, in accordance with the assembly described above.
  • the ratings are as follows: T: reference plane; P: selected point in the mouchetis image as projected in the reference plane;
  • O point of the target whose image is the point P;
  • A sensor point, image of point P;
  • M image of the point P on the object
  • M ' projection of the point M on the reference plane from the point
  • Ay y (M ') - y (p): vertical component (ordinate) of the shift between M' and P.
  • the parameters / and AB are known and depend on the structure of the device 1.
  • the parameters X (P), y (P) can be calculated from trivial way by a simple translation, from a coordinate system centered on the main optical axis 13, towards the system centered on the point B, perpendicular projection of the point O in the plane F of reference.
  • Figures 8 and 9 illustrate, in shades of gray, the deviations Ax and Ay found in the image of the speckled due to the distortion of it by its projection on the object 4.
  • FIG. 10 illustrates a mapping of the depths calculated for each point of the mouchetis image as projected onto the object 4. From the depth coordinate Z (M) thus calculated, it is possible to calculate the X (M) and the y (M) coordinate of the M point in the B, x, y, z system, using the following formulas:
  • the coordinates of the point M in the reference plane, in a system centered on the optical axis 13, can be deduced from the X (M) and y (M) coordinates trivially by a simple translation in the reference plane T. From the complete coordinates thus calculated for each point M, the calculation software can then reconstruct the illuminated face 3 of the object 4 in the form of a synthetic image 2 illustrated in shades of gray in FIGS.
  • the operations just described are repeated for a plurality of adjacent surfaces of the object.
  • the computer-generated images of all the digitized surfaces are then assembled, the overlapping zones of two adjacent surfaces making it possible, for example by means of an image correlation technique, to perform a precise sewing of these surfaces along their edges. .
  • the device 1 and method described above provide a number of advantages.
  • the simplicity and compactness of the projector 8 - camera 9 assembly makes it possible to produce a device 5 that is sufficiently compact and lightweight to allow portability and easy handling.
  • the apparatus is provided only with a single camera 9
  • the prior acquisition of the undeformed speckle 14 projected onto the reference plane F makes it possible to have a second camera - virtual, the latter - of which the vision provides a reference from which are made the comparisons leading to the mapping of the three-dimensional surface (embossed) to be digitized.
  • the fact of having the camera 9 in the optical axis 13 of the projector 8 - by means of the interposition of a splitter blade - makes it possible to benefit from the advantages of axial stereovision, that is to say to avoid occultation phenomena that would be encountered if the camera 9 was angularly offset relative to the axis 13 of the projector 8, some areas of the reliefs of the surface 3 to be digitized being indeed, in such a configuration, illuminated from the point from the projector but remaining in the shadow from the point of view of the camera.

Abstract

The invention relates to a device (1) for building a synthetic image (2) of the three-dimensional surface (3) of a physical object (4), wherein said device (1) comprises: a projector (8) having a light source (10), an optical axis (13) and a raster (12) defining a speckled pattern (14) that comprises multiple points having predetermined light and/or colour intensities, and a camera (9) having an optical sensor (17) placed in the optical axis (13) of the projector (8); a semi-reflecting mirror (18) placed on the optical axis (13) of the projector (8), wherein said mirror (18) has two opposite faces (19, 20) inclined relative to the optical axis (13) and opposite to which the projector (8) and the camera (9) are respectively arranged, the distance from the sensor (17) to the semi-reflecting mirror (18) being shorter than the distance from the raster (12) to the semi-reflecting mirror (18).

Description

Dispositif de numérisation tridimensionnelle Three-dimensional scanning device
L'invention a trait à la construction d'images de synthèses sans contact à partir d'objets tridimensionnels physiques. Cette technique est couramment appelée numérisation tridimensionnelle, ou encore, suivant la terminologie anglo-saxonne, scanning 3D.The invention relates to the construction of non-contact synthetic images from physical three-dimensional objects. This technique is commonly called three-dimensional scanning, or, according to the English terminology, 3D scanning.
Les besoins de réaliser des images de synthèse à partir d'objets réels se font ressentir dans de nombreux secteurs de l'industrie, à commencer par les bureaux d'études où l'analyse des produits concurrents, couramment appelée ingénierie inverse ou « reverse engineering », ainsi que le partage et le stockage d'informations concernant ces produits, tendent à devenir indispensables compte tenu notamment des attentes générales en matière d'innovation et de la vitesse de renouvellement des produits. Ces secteurs ne sont pas les seuls concernés : la biométrie, la médecine (notamment la chirurgie) et l'élevage industriel (voir les documents cités ci-après) utilisent de manière croissante les techniques de numérisation tridimensionnelle.The need to create computer-generated images from real objects can be felt in many sectors of the industry, starting with consulting firms where the analysis of competing products, commonly known as reverse engineering or reverse engineering. As well as sharing and storing information about these products, they tend to become indispensable, especially given the general expectations of innovation and the speed of product renewal. These sectors are not the only ones concerned: biometrics, medicine (especially surgery) and industrial livestock farming (see documents cited below) are increasingly using 3D scanning techniques.
Les techniques ancestrales consistaient à démonter les produits et réaliser des plans au crayon, ou à utiliser des outils de métrologie par contact. Ces méthodes, longues et fastidieuses, ont évolué au fil du temps avec l'avènement des outils de conception et de dessin assistés par ordinateur (CAO/DAO), qui permettent une conception et une représentation tridimensionnelle des objets en cours de conception. Certains outils plus complets proposent un lien direct avec la fabrication (CFAO). Des solutions de prototypage rapide ont, enfin, fait récemment leur apparition en liaison avec les outils de CAO/DAO.Ancestral techniques consisted of dismantling products and making pencil drawings, or using contact metrology tools. These long and tedious methods have evolved over time with the advent of computer-aided design and drafting tools (CAD / CAD), which enable the design and three-dimensional representation of objects being designed. Some more complete tools offer a direct link to manufacturing (CFAO). Finally, rapid prototyping solutions have recently appeared in connection with CAD / CAD tools.
Il va de soi qu'un outil de numérisation tridimensionnelle, en lien avec un outil de CAO, permet de réaliser un gain de temps considérable. Un tel outil comprend généralement un ou plusieurs scanneurs, portatifs ou non, réalisant une acquisition de la topographie de l'objet suivant une ou plusieurs orientations, cette topographie étant ensuite exploitée pour effectuer une reconstruction tridimensionnelle de synthèse de l'objet dans l'environnement CAO.It goes without saying that a three-dimensional scanning tool, in conjunction with a CAD tool, saves considerable time. Such a tool generally comprises one or more scanners, portable or not, performing an acquisition of the topography of the object along one or more orientations, this topography then being used to perform a three-dimensional reconstruction of the object's synthesis in the environment CAD.
Il existe plusieurs techniques d'acquisition sans contact. Généralement ces techniques reposent sur la projection sur l'objet d'une image lumineuse ayant une forme prédéterminée (ligne, motif répétitif, etc.) dont la distorsion, capturée visuellement et analysée point par point (suivant une définition plus ou moins haute), permet de calculer, pour chaque point, des coordonnées tridimensionnelles et notamment de profondeur.There are several contactless acquisition techniques. Generally these techniques are based on the projection on the object of a luminous image having a predetermined shape (line, repetitive pattern, etc.) whose distortion, captured visually and analyzed point by point (according to a definition more or less high), makes it possible to calculate, for each point, three-dimensional coordinates and in particular of depth.
Ces techniques peuvent être classées en deux grandes familles : - le balayage, qui consiste à projeter sur l'objet une image linéaire (généralement un pinceau lumineux plan généré au moyen d'une source laser) et à balayer la surface de l'objet au moyen de cette ligne dont les distorsions successives permettent, au fur et à mesure, une reconstruction de la totalité de la face éclairée, et - la capture ponctuelle ou « one-shot », qui consiste à projeter sur l'objet, de manière ponctuelle, une image structurée contenant un motif prédéterminé dont la distorsion générale, par rapport à sa projection sur un plan, est analysée point par point pour permettre la reconstruction de la face éclairée. Ces deux techniques réalisent l'acquisition de l'image distordue au moyen d'un appareil de prise de vue (appareil photographique ou caméra) dirigé vers la face éclairée de l'objet, cet appareil étant lui- même relié à un appareil d'analyse d'images et de reconstruction tridimensionnelle (généralement sous forme d'un module logiciel de reconstruction associé à un logiciel de CAO/DAO, implémentés sur un processeur d'ordinateur ou de calculateur).These techniques can be classified into two main families: - scanning, which consists of projecting a linear image onto the object (usually a plane light brush generated by means of a laser source) and scanning the surface of the object at medium of this line whose successive distortions allow, as and when, a reconstruction of the entire illuminated face, and - the capture point or "one-shot", which consists of projecting on the object, in a timely manner , a structured image containing a predetermined pattern whose general distortion, with respect to its projection on a plane, is analyzed point by point to allow reconstruction of the illuminated face. These two techniques achieve the acquisition of the distorted image by means of a camera (camera or camera) directed towards the illuminated face of the object, this apparatus being itself connected to a camera of image analysis and three-dimensional reconstruction (generally in the form of a reconstruction software module associated with a CAD / CAD software, implemented on a computer or computer processor).
Les publications de brevets EP 0 840 880 (Crampton) et USEP 0 840 880 (Crampton) and US Patent Publications
5 835 241 (Xerox) illustrent tous deux la technique du balayage. Cette technique, a l'avantage d'être précise mais elle prend toutefois du temps (plusieurs secondes pour chaque balayage) et nécessite que l'objet soit parfaitement immobile pendant toute la durée de la projection. On comprend que cette technique peut difficilement être appliquée à la biométrie (sauf à des parties limitées du corps humain).5,835,241 (Xerox) both illustrate the scanning technique. This technique has the advantage of being precise, but it takes time (several seconds for each scan) and requires that the object be perfectly immobile for the duration of the projection. It is understood that this technique can hardly be applied to biometrics (except for limited parts of the human body).
En outre, l'utilisation du laser est délicate, et peut même se révéler dangereuse si l'on doit s'en servir pour scanner le visage humain.In addition, the use of the laser is delicate, and can even be dangerous if one must use it to scan the human face.
C'est pourquoi il semble que la technique du one-shot soit actuellement la plus prometteuse, en raison de la rapidité avec laquelle l'acquisition peut être réalisée et des contraintes moindres pesant sur l'immobilisation de l'objet, lequel peut (si sa taille et son poids le permettent) être simplement tenu à la main. Pour illustrer cette technique, on pourra notamment se référer aux publications de brevet US 2005/01 16952 (Je et al.). US 6 549 289 (Pheno Imaging), US 6 377 353 (Pheno Imaging), GB 2 410 794 (Sheffield Hallam University), US 2006/0120576 (Biomagnetic Imaging), et US 2006/0017720 (Li).That is why it seems that the one-shot technique is currently the most promising, because of the speed with which the acquisition can be carried out and the lower constraints on the immobilization of the object, which can (if its size and weight allow it) to be simply held by hand. To illustrate this technique, reference may in particular be made to US patent publications 2005/01 16952 (Je et al.). US 6,549,298 (Pheno Imaging), US 6,337,353 (Pheno Imaging), GB 2,410,794 (Sheffield Hallam University), US 2006/0120576 (Biomagnetic Imaging), and US 2006/0017720 (Li).
Cependant, les techniques connues (y compris celles du one-shot) ne vont pas sans certains inconvénients. En particulier, la dispersion des outils de projection et d'acquisition ne permet pas de réaliser des scanneurs suffisamment compacts et légers pour permettre une réelle portabilité, de sorte que même pour numériser un objet de taille réduite (tel qu'un téléphone) , il est nécessaire de disposer tout un attirail autour de l'objet. L'invention notamment vise à remédier aux inconvénients précités en proposant une solution technique permettant de réaliser la numérisation tridimensionnelle d'un objet de manière simple et rapide au moyen au moyen d'un dispositif compact pouvant être tenu à la main. A cet effet, l'invention propose un dispositif de construction d'une image de synthèse d'une surface tridimensionnelle d'un objet physique, ce dispositif comprenant : un projecteur muni d'une source lumineuse, d'un axe optique, et d'une mire définissant un mouchetis comprenant une multitude de points d'intensités lumineuses et/ou de couleurs prédéterminées, et une caméra ayant un capteur optique placé dans l'axe optique du projecteur, un miroir semi-réfléchissant disposé sur l'axe optique, ce miroir présentant deux faces opposées inclinées par rapport à l'axe optique et en regard desquelles sont disposés, respectivement, le projecteur et la caméra, la distance du capteur au miroir semi- réfléchissant est inférieure à la distance de la mire au miroir semi- réfléchissant. D'autres objets et avantages de l'invention apparaîtront à la lumière de la description faite ci-après en référence aux dessins annexés dans lesquels : la figure 1 est une vue tridimensionnelle d'un dispositif de numérisation tridimensionnelle appliqué à la capture d'un objet physique, en l'occurrence une pomme ; la figure 2 est une vue en perspective éclatée du dispositif de la figure 1 , montrant une partie de ses composants internes, suivant un autre angle de vue ; la figure 3 est une vue de dessus du dispositif de la figure 2 ; - la figure 4 est une représentation schématique, en géométrie euclidienne, du modèle mathématique sous-tendant la technique de numérisation suivant l'invention ; la figure 5 est une vue en plan d'un mouchetis lumineux, tel que projeté sur un plan de référence perpendiculaire à l'axe de projection ; la figure 6 est une vue schématique en perspective illustrant la projection, sur une face avant un objet de type oreiller ergonomique, du mouchetis dont l'acquisition photographique permet de réaliser une topographie de la face éclairée ; - la figure 7 est une vue en plan, dans l'axe de l'appareil de capture, du mouchetis projeté sur une face de l'objet de la figure 6 ; les figures 8, 9 et 10 illustrent l'analyse de la distorsion du mouchetis suivant trois axes orthogonaux de l'espace tridimensionnel, respectivement en abscisse, en ordonnée et en profondeur ; les figures 1 1 et 12 sont des vues en perspective, respectivement par l'avant et par l'arrière, de la face avant éclairée de l'objet de la figure 6, telle que reconstruite à partir de l'analyse illustrée sur les figures 8 à 10 ; - la figure 13 est une vue en plan de la face avant éclairée de l'objet de la figure 6, telle que reconstruite ; les figures 14 et 15 sont des vues de côté, suivant deux orientations différentes, de la face avant éclairée de l'objet de la figure 6. Sur les figures 1 à 3 est représenté, de manière schématique, un dispositif 1 de numérisation sans contact, permettant de construire une image 2 de synthèse d'une surface 3 tridimensionnelle d'un objet 4 physique. Sur les vues des figures 1 à 3, cet objet 4 est une pomme mais il pourrait s'agir de tout autre objet présentant une ou plusieurs surfaces tridimensionnelles à numériser, ces surfaces pouvant être en relief (c'est-à-dire non planes). Ce dispositif 1 comprend un appareil 5 comprenant un boîtier 6 portatif muni d'une poignée 7 permettant sa saisie et sa manipulation et, montés dans ce boîtier 6, un projecteur 8 et un appareil 9 de prise de vues, de type caméra (c'est-à-dire pouvant réaliser des prises de vues en continu, par exemple à la cadence normalisée de 24 images par seconde), ou de type appareil photographique (c'est-à-dire réalisant des prises de vues ponctuelles). On suppose dans ce qui suit que l'appareil 9 de prise de vues est une caméra, laquelle peut être employée, au besoin, comme appareil photographique. Comme cela est visible sur les figures 2 et 3, le projecteur 8 comprend une source 10 lumineuse et, disposés en regard de cette source 10 lumineuse, une optique 11 de focalisation et une mire 12.However, the known techniques (including those of the one-shot) do not go without certain disadvantages. In particular, the dispersion of the projection and acquisition tools does not allow for sufficiently compact and lightweight scanners to allow real portability, so that even to scan a small object (such as a telephone), is necessary to have a whole paraphernalia around the object. The invention aims to overcome the aforementioned drawbacks by proposing a technical solution for performing the three-dimensional scanning of an object in a simple and fast manner by means of a compact device that can be held by hand. For this purpose, the invention proposes a device for constructing an image of synthesis of a three-dimensional surface of a physical object, this device comprising: a projector provided with a light source, an optical axis, and a speckle defining pattern comprising a plurality of points of light intensities and / or predetermined colors, and a camera having an optical sensor placed in the optical axis of the projector, a semi-reflecting mirror disposed on the optical axis, this mirror having two opposite faces inclined with respect to the optical axis and facing which are arranged, respectively, the projector and the camera, the distance from the sensor to the semi-reflective mirror is less than the distance from the target to the semi-mirror reflective. Other objects and advantages of the invention will emerge in the light of the description given hereinafter with reference to the appended drawings in which: FIG. 1 is a three-dimensional view of a three-dimensional scanning device applied to the capture of a physical object, in this case an apple; Figure 2 is an exploded perspective view of the device of Figure 1, showing a portion of its internal components, according to another angle of view; Figure 3 is a top view of the device of Figure 2; FIG. 4 is a schematic representation, in Euclidean geometry, of the mathematical model underlying the digitization technique according to the invention; Figure 5 is a plan view of a luminous speckle, as projected on a reference plane perpendicular to the axis of projection; FIG. 6 is a schematic perspective view illustrating the projection, on a front face of an ergonomic pillow-type object, of the mouchetis whose photographic acquisition makes it possible to produce a topography of the illuminated face; FIG. 7 is a plan view, in the axis of the capture apparatus, of the speckle projected on one face of the object of FIG. 6; Figures 8, 9 and 10 illustrate the analysis of the speckle distortion along three orthogonal axes of the three-dimensional space, respectively abscissa, ordinate and depth; FIGS. 11 and 12 are perspective views, respectively from the front and from the rear, of the illuminated front face of the object of FIG. 6, as reconstructed from the analysis illustrated in FIGS. 8 to 10; FIG. 13 is a plan view of the illuminated front face of the object of FIG. 6, as reconstructed; Figures 14 and 15 are side views, in two different orientations, of the illuminated front face of the object of Figure 6. In Figures 1 to 3 is shown schematically, a device 1 for scanning without contact , making it possible to construct a synthetic image 2 of a three-dimensional surface 3 of a physical object 4. In the views of FIGS. 1 to 3, this object 4 is an apple, but it could be any other object having one or more three-dimensional surfaces to be digitized, these surfaces being able to be in relief (that is to say not flat) ). This device 1 comprises an apparatus 5 comprising a portable casing 6 provided with a handle 7 enabling it to be grasped and manipulated and, mounted in this casing 6, a projector 8 and a camera-like camera 9 (FIG. that is, capable of continuous shooting, for example at the normalized frame rate of 24 frames per second), or of a camera type (that is to say, taking one-shot shots). It is assumed in the following that the camera 9 is a camera, which can be used, if necessary, as a camera. As can be seen in FIGS. 2 and 3, the projector 8 comprises a light source 10 and arranged facing this light source 10, a focusing optic 11 and a target 12.
La source 10 lumineuse est de préférence une source de lumière blanche, par exemple de type à filament (comme dans l'exemple schématique représenté sur les figures 2 et 3) ou de type halogène.The light source 10 is preferably a white light source, for example of the filament type (as in the schematic example shown in FIGS. 2 and 3) or of the halogen type.
L'optique 11 de focalisation, représentée schématiquement sur les figures 2 et 3 par une simple lentille convergente, définit un axe optique principal 13 passant par la source 10 lumineuse.Focusing optics 11, shown diagrammatically in FIGS. 2 and 3 by a single converging lens, define a main optical axis 13 passing through the light source 10.
La mire 12 définit un mouchetis 14 comprenant une multitude de points d'intensités lumineuses (contraste) et/ou de couleurs prédéterminées. Un tel mouchetis 14 est représenté en plan sur la figure 6 : il s'agit ici d'un motif de type tavelures ou Speckle (pour une définition du motif de Speckle, cf. par exemple Juliette SELB, « Source virtuelle acousto-optique pour l'imagerie des milieux diffusants », Thèse de Doctorat, Paris Xl, 2002). En pratique, la mire 12 peut se présenter sous la forme d'une plaque translucide ou transparente (en verre ou en matière plastique), carrée ou rectangulaire, de type diapositive, sur laquelle le mouchetis 14 est imprimé par un procédé classique (transfert, offset, sérigraphie, flexographie, laser, jet d'encre, etc.). La mire 12 est disposée entre la source 10 lumineuse et l'optique 11 , sur l'axe 13 de celle-ci, c'est-à-dire perpendiculairement à l'axe optique 13 et de sorte que celui-ci passe par le centre de la mire 12 (défini en l'occurrence par la croisée de ses diagonales). La mire 12 est placée à une distance prédéterminée de l'optique 11 , dépendant de la distance focale de celle-ci (voir l'exemple ci-dessous). Deux des côtés adjacents de la mire 12 définissent respectivement un axe des abscisses (x) et un axe des ordonnées (y), l'axe optique définissant un axe de profondeur (z).The pattern 12 defines a speckle 14 comprising a multitude of points of light intensities (contrast) and / or predetermined colors. Such speckling 14 is shown in plan in FIG. 6: this is a scab-type pattern or Speckle (for a definition of the Speckle pattern, see for example Juliette SELB, "Acousto-optical virtual source for the imaging of diffusing media ", Thesis of Doctorate, Paris Xl, 2002). In practice, the target 12 may be in the form of a translucent or transparent plate (glass or plastic), square or rectangular, slide-type, on which the speckled 14 is printed by a conventional method (transfer, offset, screen printing, flexography, laser, inkjet, etc.). The pattern 12 is disposed between the light source 10 and the optic 11, on the axis 13 thereof, that is to say perpendicularly to the optical axis 13 and so that it passes through the center of the target 12 (defined in this case by the crossing of its diagonals). The pattern 12 is placed at a predetermined distance from the optic 11, depending on the focal length thereof (see the example below). Two of the adjacent sides of the target 12 respectively define an abscissa axis (x) and an ordinate axis (y), the optical axis defining a depth axis (z).
La caméra 9 comprend une optique 15, représentée schématiquement sur les figures 2 et 3 par une simple lentille convergente, et définissant un axe optique secondaire 16.The camera 9 comprises an optic 15, shown diagrammatically in FIGS. 2 and 3 by a simple convergent lens, and defining a secondary optical axis 16.
La caméra 9 comprend en outre un capteur 17 photosensible, par exemple de type CCD, qui se présente sous forme d'une plaque carrée ou rectangulaire et est placé, en regard de l'optique 15, sur l'axe optique secondaire 16, c'est-à-dire perpendiculairement à celui-ci et de sorte que l'axe passe par le centre du capteur 17 (défini en l'occurrence par la croisée de ses diagonales). Le capteur 17 est placé à une distance prédéterminée de l'optique 15, dépendant de la focale de celle-ci (voir l'exemple ci-dessous). Comme cela est visible sur les figures 2 et 3, le projecteur 8 et la caméra 9 sont disposés de telle sorte que les axes optiques 13 et 16 soient coplanaires et perpendiculaires.The camera 9 further comprises a photosensitive sensor 17, for example of the CCD type, which is in the form of a square or rectangular plate and is placed, facing the optics 15, on the secondary optical axis 16, c that is to say, perpendicular to it and so that the axis passes through the center of the sensor 17 (defined in this case by the crossing of its diagonals). The sensor 17 is placed at a predetermined distance from the optics 15, depending on the focal length thereof (see the example below). As can be seen in FIGS. 2 and 3, the projector 8 and the camera 9 are arranged in such a way that the optical axes 13 and 16 are coplanar and perpendicular.
L'appareil 5 comprend en outre un miroir 18 semi-réfléchissant disposé sur l'axe optique principal 13 à l'intersection avec l'axe optique secondaire 16. Plus précisément, le miroir 18 présente deux faces principales planes opposées, à savoir une face arrière 19, disposée en regard du projecteur 8, et une face avant 20, disposée en regard de la caméra 9.The apparatus 5 further comprises a semi-reflecting mirror 18 disposed on the main optical axis 13 at the intersection with the secondary optical axis 16. More specifically, the mirror 18 has two opposite planar main faces, namely one face rear 19, disposed facing the projector 8, and a front face 20, disposed facing the camera 9.
Dans l'exemple illustré, le miroir 18 semi-réfléchissant se présente sous la forme d'une lamelle mince dont les faces 19 et 20 sont parallèles, mais il pourrait se présenter sous la forme d'un prisme dont les faces seraient inclinées de 45° l'une par rapport à l'autre.In the example shown, the semi-reflecting mirror 18 is in the form of a thin strip whose faces 19 and 20 are parallel, but it could be in the form of a prism whose faces would be inclined 45 ° with respect to each other.
La face arrière 19, en l'occurrence inclinée d'un angle de 45° par rapport à l'axe optique principal 13, est agencée pour transmettre suivant l'axe optique 13 la lumière incidente en provenance du projecteur 8.The rear face 19, in this case inclined at an angle of 45 ° relative to the main optical axis 13, is arranged to transmit along the optical axis 13 the incident light from the projector 8.
La face avant 20, quant à elle, s'étend dans un plan incliné d'un angle de 45° par rapport à l'axe optique principal 13 et à l'axe optique secondaire 16 (en d'autres termes dans un plan perpendiculaire au plan formé par les axes 13 et 16, et contenant la bissectrice de l'angle droit formé par ceux-ci). Cette face avant 20 est semi-réfléchissante, c'est-à- dire qu'elle est agencée pour transmettre selon l'axe optique principal 13 la lumière incidente en provenance du projecteur 8, mais pour réfléchir selon l'axe optique secondaire 16 la lumière réfléchie lui parvenant selon l'axe optique principal 13 en provenance de l'objet 4 éclairé. Le miroir 18 est disposé de telle sorte que les axes principal 13 et secondaire 16 soient concourants sur la face avant 20 semi- réfléchissante (également appelée lame séparatrice), et plus précisément au centre de celle-ci (défini en l'occurrence par la croisée de ses diagonales). Ainsi, la lumière incidente émise par la source 10 traverse en premier lieu la mire 12, est focalisée par l'optique 11 puis traverse sans réflexion le miroir 18 semi-réfléchissant. Cette lumière éclaire - avec projection de la mire 12 - l'objet 4 à numériser, lequel en réfléchit une partie qui, émise suivant l'axe optique principal 13 en sens inverse de la lumière incidente, est réfléchie à angle droit, suivant l'axe optique secondaire 16, par la lame séparatrice 20 en direction de la caméra 9. Cette lumière réfléchie est focalisée par l'optique 15 de la caméra 9 et frappe en dernier lieu le capteur 17.The front face 20, meanwhile, extends in a plane inclined at an angle of 45 ° with respect to the main optical axis 13 and the secondary optical axis 16 (in other words in a perpendicular plane to the plane formed by the axes 13 and 16, and containing the bisector of the right angle formed by them). This front face 20 is semi-reflective, that is to say that it is arranged to transmit along the main optical axis 13 incident light from the projector 8, but to reflect according to the secondary optical axis 16 the reflected light arriving thereat along the main optical axis 13 from the illuminated object 4. The mirror 18 is arranged in such a way that the principal 13 and secondary 16 axes are concurrent on the semi-reflecting front face (also called the splitter plate), and more precisely in the center thereof (defined in this case by the crossed of its diagonals). Thus, the incident light emitted by the source 10 first passes through the pattern 12, is focused by the optic 11 and then passes without reflection the mirror 18 semi-reflective. This light illuminates - with projection of the target 12 - the object 4 to be digitized, which reflects a part of it which, emitted along the main optical axis 13 in the opposite direction of the incident light, is reflected at right angles, according to the secondary optical axis 16, by the separating plate 20 in the direction of the camera 9. This reflected light is focused by the optics 15 of the camera 9 and finally hits the sensor 17.
Grâce à ce montage, l'axe optique secondaire 16 est virtuellement confondu avec l'axe optique principal 13. Autrement dit, bien que la caméra 9 ne soit pas disposée physiquement sur l'axe optique principal 13, elle se trouve dans l'axe optique principal 13, dans la mesure où tout se passe comme si la lumière réfléchie par l'objet 4 et frappant le capteur 17 n'avait subi aucune déviation. L'interposition d'un miroir 18 semi-réfléchissant permet, en pratique, d'éviter l'occultation du projecteur 8 que provoquerait le montage physique de la caméra 9 sur l'axe optique principal 13 devant le projecteur 8 ou, réciproquement, l'occultation de la caméra 9 que provoquerait son montage physique sur l'axe optique principal 13 derrière le projecteur 8.With this arrangement, the secondary optical axis 16 is virtually coincident with the main optical axis 13. In other words, although the camera 9 is not physically disposed on the main optical axis 13, it is in the axis main optical 13, since everything happens as if the light reflected by the object 4 and hitting the sensor 17 had not undergone any deviation. The interposition of a semi-reflecting mirror 18 makes it possible, in practice, to avoid the obscuration of the projector 8 that would be caused by the physical mounting of the camera 9 on the main optical axis 13 in front of the projector 8 or, conversely, the occultation of the camera 9 that would cause its physical assembly on the main optical axis 13 behind the projector 8.
Selon un mode de réalisation préféré, illustré sur les figures 2 et 3, la distance du capteur 17 à la lame séparatrice 20 est inférieure à la distance de la mire 12 à la lame séparatrice 20. Autrement dit, virtuellement, la caméra 9 est placée, dans l'axe optique principal 13, devant le projecteur 8. Cela permet d'utiliser un capteur 17 de taille raisonnable (et donc de coût raisonnable), dont le champ de vision soit strictement inclus dans l'image du mouchetis 14, comme cela est visible sur les figures 8 à 10.According to a preferred embodiment, illustrated in Figures 2 and 3, the distance from the sensor 17 to the separator blade 20 is less than the distance from the target 12 to the separator blade 20. In other words, virtually, the camera 9 is placed , in the main optical axis 13, in front of the projector 8. This makes it possible to use a sensor 17 of reasonable size (and therefore reasonable cost), whose field of vision is strictly included in the image of the mouchetis 14, as can be seen in Figures 8 to 10.
On fournit ci-après un exemple expérimental de dimensionnement du projecteur 8 et de la caméra 9 :An experimental example of dimensioning the projector 8 and the camera 9 is given below:
ProjecteurProjector
Figure imgf000010_0001
Le dimensionnement préféré (cf. colonne « valeur préférée »), permet de projeter sur un plan cible T (plan de référence) situé à 390 mm de la mire 12 une image nette du mouchetis 14 (figure 5), dont le grand côté mesure 350 mm environ, le capteur 17 pouvant visualiser au sein de cette image un champ dont le grand côté mesure 300 mm environ.
Figure imgf000010_0001
The preferred dimensioning (see column "preferred value"), allows to project on a target plane T (reference plane) located 390 mm from the chart 12 a clear image of the mouchetis 14 (Figure 5), whose large side measures About 350 mm, the sensor 17 can see within this image a field whose large side is about 300 mm.
L'appareil 5 comprend par ailleurs un mécanisme de déclenchement manuel (par exemple de type gâchette), pouvant être monté sur la poignée 6 et permettant d'actionner le projecteur 8 et la caméra 9, c'est-à-dire, concrètement, la projection de la mire et la prise de vue. Le mécanisme de déclenchement peut être du type flash, c'est- à-dire que la projection du mouchetis 14 et la prise de vue sont réalisées ponctuellement et simultanément, ou bien de type retardé, c'est-à-dire que la prise de vue peut être déclenchée - de manière automatique ou manuelle - pendant un intervalle de temps au cours duquel la projection est effectuée en continu. Cette dernière solution permet de procéder, par des mouvements de va et vient de l'appareil 5, à une mise au point rapide de l'image du mouchetis 14 projetée sur l'objet 4.The apparatus 5 further comprises a manual triggering mechanism (for example trigger type), which can be mounted on the handle 6 and for actuating the projector 8 and the camera 9, that is to say, concretely, the projection of the sights and the shooting. The triggering mechanism may be of the flash type, that is to say that the projection of the fleck 14 and shooting are performed punctually and simultaneously, or delayed type, that is to say that taking can be triggered - automatically or manually - during a time interval during which the projection is done continuously. This last solution makes it possible to proceed, by movements of the comings and goings of the apparatus 5, a quick focus of the image of the mouchetis 14 projected on the object 4.
Le dispositif 1 comprend enfin une unité 21 de traitement des données issues du capteur 17. Cette unité 21 de traitement se présente en pratique sous forme d'un processeur embarqué dans l'appareil 5 ou, comme illustré sur la figure 1 , intégré à l'unité centrale 22 d'un ordinateur 23 distant relié à l'appareil 5 par l'intermédiaire d'une interface de communication filaire ou sans fil, processeur 21 sur lequel est implémentée une application logicielle de construction des images de synthèse à partir des données issues du capteur 17.The device 1 finally comprises a unit 21 for processing the data coming from the sensor 17. This processing unit 21 is in practice in the form of a processor embedded in the apparatus 5 or, as illustrated in FIG. central unit 22 of a remote computer 23 connected to the apparatus 5 via a wired or wireless communication interface, processor 21 on which is implemented a software application for constructing computer-generated images from the data from the sensor 17.
On décrit à présent un procédé de construction d'une image de synthèse d'une surface tridimensionnelle d'un objet 4 physique, mettant en œuvre le dispositif 1 décrit ci-dessus.We now describe a method of constructing a synthetic image of a three-dimensional surface of a physical object 4, implementing the device 1 described above.
On commence par choisir sur l'objet 4 une surface 3 à numériser, puis on dispose l'appareil 5 en l'orientant pour que le projecteur 8 se trouve en regard de cette surface 3 et en dirigeant l'axe optique principal 13 vers celle-ci (figure 1 ), à une distance estimée proche de la distance permettant d'obtenir une image nette du mouchetis 14 (c'est-à- dire la distance à laquelle se trouverait normalement le plan F de référence).We begin by choosing on the object 4 a surface 3 to be digitized, then the apparatus 5 is positioned by orienting it so that the projector 8 is facing this surface 3 and directing the main optical axis 13 towards that (Figure 1), at an estimated distance close to the distance to obtain a clear image of the mouchetis 14 (that is to say, the distance that would normally be the reference plane F).
On actionne ensuite le mécanisme de déclenchement pour projeter l'image du mouchetis 14 de la mire 12 sur la surface 3 à numériser, suivant l'axe optique principal 13. L'image du mouchetis 14 sur l'objet 4 présente au moins localement, par rapport à une image projetée sur le plan de référence, des distorsions dues aux reliefs de la surface 3 éclairée (figure 6).The triggering mechanism is then actuated to project the image of the speckle 14 of the test pattern 12 onto the surface 3 to be digitized, along the main optical axis 13. The image of the speckle 14 on the object 4 presents at least locally, relative to an image projected on the reference plane, distortions due to the reliefs of the illuminated surface 3 (FIG. 6).
Qu'elle soit réalisée de manière simultanée (flash) ou retardée, la prise de vue est ensuite effectuée au moyen de la caméra 9 pour acquérir et mémoriser l'image bidimensionnelle du mouchetis 14' déformé par la surface 3 éclairée (figure 7), cette image étant réfléchie successivement par la surface 3 de l'objet 4 et par la lame 20 séparatrice.Whether it is performed simultaneously (flash) or delayed, the shooting is then carried out by means of the camera 9 to acquire and store the two-dimensional image of speckled 14 'deformed by the illuminated surface 3 (FIG. 7), this image being reflected successively by the surface 3 of the object 4 and the separator blade 20.
L'opération suivante consiste à comparer l'image du mouchetis déformé 14' avec l'image du mouchetis 14 non déformé, telle que projetée sur le plan f de référence. Cette comparaison peut être effectuée pour chaque point du mouchetis 14, ou en une sélection de points prédéterminés, effectuée au sein de l'image non déformée. Afin d'obtenir une construction aussi précise que possible, il est préférable que la comparaison soit faite pour chaque point de l'image, c'est-à-dire, concrètement, pour chaque pixel de l'image acquise par le capteur 17. Il va de soi que la précision de la construction dépend de la précision du capteur 17. Le dimensionnement préféré proposé ci-dessus fournit, pour un capteur 17 comprenant de l'ordre de 9 millions de pixels, une précision de l'ordre du dixième de mm, suffisante pour construire une image 2 de synthèse acceptable de tout type d'objet dont la taille est à échelle humaine. L'opération suivante consiste à apparier, pour l'ensemble des points sélectionnés, chaque point du mouchetis 14 non déformé avec le point correspondant du mouchetis 14' déformé.The following operation consists in comparing the image of the deformed speckled 14 'with the image of the undistorted speckle 14, as projected on the reference plane f. This comparison can be performed for each point of the mouchetis 14, or in a selection of predetermined points, performed within the undistorted image. In order to obtain as precise a construction as possible, it is preferable that the comparison be made for each point of the image, that is to say, concretely, for each pixel of the image acquired by the sensor 17. It goes without saying that the accuracy of the construction depends on the accuracy of the sensor 17. The preferred dimensioning proposed above provides, for a sensor 17 comprising of the order of 9 million pixels, a precision of the order of one tenth of mm, sufficient to construct an acceptable synthetic image 2 of any type of object whose size is on a human scale. The following operation consists in matching, for the set of selected points, each point of the speckle 14 undeformed with the corresponding point of speckled 14 'deformed.
Pour chaque point, cet appariement peut être réalisé par corrélation, c'est-à-dire par approches successives au sein de zones qui, bien que présentant des disparités locales, apparaissent ressemblantes dans des régions voisines des deux images.For each point, this pairing can be achieved by correlation, that is to say by successive approaches within zones which, although having local disparities, appear similar in neighboring regions of the two images.
Une fois chaque point apparié, on mesure pour ce point la déviation subie, c'est-à-dire, le décalage dans l'image du mouchetis 14' déformé de la position du point par rapport à sa position dans l'image du mouchetis 14 non déformé. Chacune de ces images étant plane, on décompose cette déviation en une composante horizontale (parallèlement à l'axe des abscisses) et une composante verticale (parallèlement à l'axe des ordonnées).Once each paired point, it is measured for this point the deviation undergone, that is to say, the shift in the image of the speckled 14 'deformed the position of the point relative to its position in the image of mouchetis 14 undistorted. Each of these images being flat, this deviation is broken down into a horizontal component (parallel to the abscissa axis) and a vertical component (parallel to the ordinate axis).
On peut ensuite en déduire, par un calcul de triangulation effectué au sein de l'unité 21 de traitement à partir des données issues du capteur 17, au moins la coordonnée de profondeur du point de l'image du mouchetis 14' déformé correspondant au point sélectionné dans l'image du mouchetis 14 non déformé.We can then deduce, by a calculation of triangulation performed within the processing unit 21 from the data from the sensor 17, at least the depth coordinate of the point of the image of the speckled flank 14 'corresponding to the point selected in the image of the mouchetis 14 undistorted.
La figure 4 illustre la méthode géométrique employée pour effectuer ce calcul. Dans cette représentation mathématique, l'axe optique principal 13 et l'axe optique secondaire 16 sont confondus, conformément au montage décrit ci-dessus. Les notations sont les suivantes : T : plan de référence ; P : point sélectionné dans l'image du mouchetis telle que projetée dans le plan de référence ;Figure 4 illustrates the geometric method used to perform this calculation. In this mathematical representation, the main optical axis 13 and the secondary optical axis 16 are merged, in accordance with the assembly described above. The ratings are as follows: T: reference plane; P: selected point in the mouchetis image as projected in the reference plane;
O : point de la mire dont l'image est le point P ; A : point du capteur, image du point P ;O: point of the target whose image is the point P; A: sensor point, image of point P;
B : projection perpendiculaire (parallèlement à l'axe optique) du point O sur le plan de référence ;B: perpendicular projection (parallel to the optical axis) of point O on the reference plane;
M : image du point P sur l'objet ; M' : projection du point M sur le plan de référence à partir du pointM: image of the point P on the object; M ': projection of the point M on the reference plane from the point
A ;AT ;
B, x, y, z : système orthogonal de coordonnées cartésiennes ayant pour origine B dans le plan de référence ; x(p) : abscisse du point P dans le système B,x,y,z y(P) : ordonnée du point P dans le système B,x,y,z x(M) : abscisse du point M dans le système B,x,y,z y(M) : ordonnée du point M dans le système B,x,y,z Z(M) : profondeur du point M dans le système B,x,y,z ΔX = X(M')- X(P) : composante horizontale (abscisse) du décalage entre M' et P ;B, x, y, z: orthogonal system of Cartesian coordinates having origin B in the reference plane; x (p): abscissa of point P in system B, x, y, zy (P): ordinate of point P in system B, x, y, zx (M): abscissa of point M in system B, x, y, zy (M): ordinate of the point M in the system B, x, y, z Z (M): depth of the point M in the system B, x, y, z ΔX = X (M ') - X (P): horizontal component (abscissa) of the offset between M 'and P;
Ay = y(M')- y(p) : composante verticale (ordonnée) du décalage entre M' et P.Ay = y (M ') - y (p): vertical component (ordinate) of the shift between M' and P.
M" : projection du point M sur l'axe OB ; / : distance OB La lecture de la figure 4 est la suivante. Un rayon lumineux passant par le point O de la mire 12 frappe le plan de référence au point P, image du point O dans ce plan. Lorsque l'objet 4 est placé sur son trajet, le même rayon lumineux frappe l'objet au point M, image du point O sur l'objet 4. Le point A est, sur l'axe OB, l'image du point M sur le capteur 17. Tout se passe comme si A était l'image sur le capteur 17 du point M', point imaginaire défini mathématiquement comme la projection du point M à partir du point A et correspondant au décalage du point P au sein de l'image du mouchetis, dans le plan T de référence. Les paramètres / et AB sont connus ; ils dépendent de la structure du dispositif 1 . Les paramètres X(P), y(P) peuvent être calculés de manière triviale par une simple translation, à partir d'un système de coordonnées centré sur l'axe optique principal 13, vers le système centré sur le point B, projection perpendiculaire du point O dans le plan F de référence.M ": projection of the point M on the OB axis /: OB distance The reading of Figure 4 is as follows: A light beam passing through the point O of the target 12 strikes the reference plane at the point P, image of the point O in this plane When the object 4 is placed in its path, the same light ray strikes the object at the point M, image of the point O on the object 4. The point A is, on the axis OB, the image of the point M on the sensor 17. Everything happens as if A was the image on the sensor 17 of the point M ', imaginary point defined mathematically as the projection of the point M from the point A and corresponding to the offset of the point P within the mouchetis image, in the reference plane T. The parameters / and AB are known and depend on the structure of the device 1. The parameters X (P), y (P) can be calculated from trivial way by a simple translation, from a coordinate system centered on the main optical axis 13, towards the system centered on the point B, perpendicular projection of the point O in the plane F of reference.
Une fois l'appariement réalisé, c'est-à-dire une fois le point M' détecté par la méthode de corrélation évoquée ci-dessus, on peut mesurer, dans le plan T de référence, les paramètres Δx et Ay . Les figures 8 et 9 illustrent, en nuances de gris, les déviations Ax et Ay constatées dans l'image du mouchetis du fait de la distorsion de celui-ci par sa projection sur l'objet 4.Once the pairing is done, that is to say once the point M 'detected by the correlation method mentioned above, the parameters Δx and Ay can be measured in the reference plane T. Figures 8 and 9 illustrate, in shades of gray, the deviations Ax and Ay found in the image of the speckled due to the distortion of it by its projection on the object 4.
Des paramètres ainsi connus, calculés ou mesurés, on peut déduire la coordonnée de profondeur Z(M) du point M, c'est-à-dire la distance au plan F de référence de l'image M sur l'objet du point O. Cette profondeur peut en effet être calculée par la formule suivante :Known parameters, calculated or measured, we can deduce the depth coordinate Z (M) of the point M, that is to say the distance to the reference plane F of the image M on the object of the point O This depth can indeed be calculated by the following formula:
J(x(P) + Δx)2 + (y(P) + Ay)2 - Jx(P)2 + y(P)2 z(M) =J (x (P) + Δx) 2 + (y (P) + Ay) 2 - Jx (P) 2 + y (P) 2 z (M) =
J(x(P) + Ax)2 + (y(P) + Ay)2 Jx(P)2 + y(P)2 J (x (P) + Ax) 2 + (y (P) + Ay) 2 J x (P) 2 + y (P) 2
AB f La figure 10 illustre une cartographie des profondeurs calculées pour chaque point de l'image du mouchetis tel que projeté sur l'objet 4. À partir de la coordonnée de profondeur Z(M) ainsi calculée, il est possible de calculer l'abscisse X(M) et l'ordonnée y(M) du point M dans le système B,x,y,z , à l'aide des formules suivantes :FIG. 10 illustrates a mapping of the depths calculated for each point of the mouchetis image as projected onto the object 4. From the depth coordinate Z (M) thus calculated, it is possible to calculate the X (M) and the y (M) coordinate of the M point in the B, x, y, z system, using the following formulas:
Figure imgf000014_0001
Figure imgf000014_0001
Les coordonnées du point M dans le plan de référence, dans un système centré sur l'axe optique 13, peuvent être déduites des coordonnées X(M) et y(M) de manière triviale par une simple translation dans le plan T de référence. À partir des coordonnées complètes ainsi calculées pour chaque point M, le logiciel de calcul peut alors reconstruire la face 3 éclairée de l'objet 4 sous forme d'une image 2 de synthèse illustrée en nuances de gris sur les figures 1 1 à 15. Lorsqu'une construction globale de l'objet 4 est souhaitée, les opérations qui viennent d'être décrites sont répétées pour une pluralité de surfaces adjacentes de l'objet. Les images de synthèse de l'ensemble des surfaces numérisées sont ensuite assemblées, les zones de recouvrement de deux surfaces adjacentes permettant, par exemple grâce à une technique de corrélation d'images, de réaliser une couture précise de ces surfaces le long de leurs bords.The coordinates of the point M in the reference plane, in a system centered on the optical axis 13, can be deduced from the X (M) and y (M) coordinates trivially by a simple translation in the reference plane T. From the complete coordinates thus calculated for each point M, the calculation software can then reconstruct the illuminated face 3 of the object 4 in the form of a synthetic image 2 illustrated in shades of gray in FIGS. When a global construction of the object 4 is desired, the operations just described are repeated for a plurality of adjacent surfaces of the object. The computer-generated images of all the digitized surfaces are then assembled, the overlapping zones of two adjacent surfaces making it possible, for example by means of an image correlation technique, to perform a precise sewing of these surfaces along their edges. .
Le dispositif 1 et le procédé décrits ci-dessus procurent un certain nombre d'avantages.The device 1 and method described above provide a number of advantages.
Premièrement, la simplicité et la compacité du montage projecteur 8 - caméra 9 permettent de réaliser un appareil 5 suffisamment compact et léger pour permettre une portabilité et une manipulation aisée.Firstly, the simplicity and compactness of the projector 8 - camera 9 assembly makes it possible to produce a device 5 that is sufficiently compact and lightweight to allow portability and easy handling.
Deuxièmement, bien que l'appareil ne soit muni que d'une caméra 9 unique, l'acquisition préalable du mouchetis 14 non déformé projeté sur le plan F de référence permet de disposer d'une seconde caméra - virtuelle, celle-ci - dont la vision fournit une référence à partir de laquelle sont effectuées les comparaisons conduisant à la cartographie de la surface 3 tridimensionnelle (en relief) à numériser.Secondly, although the apparatus is provided only with a single camera 9, the prior acquisition of the undeformed speckle 14 projected onto the reference plane F makes it possible to have a second camera - virtual, the latter - of which the vision provides a reference from which are made the comparisons leading to the mapping of the three-dimensional surface (embossed) to be digitized.
Troisièmement, le fait de disposer la caméra 9 dans l'axe optique 13 du projecteur 8 - moyennant l'interposition d'une lame 20 séparatrice - permet de bénéficier des avantages de la stéréovision axiale, c'est-à-dire d'éviter les phénomènes d'occultation que l'on rencontrerait si la caméra 9 était décalée angulairement par rapport à l'axe 13 du projecteur 8, certaines zones des reliefs de la surface 3 à numériser étant en effet, dans une telle configuration, éclairées du point de vue du projecteur mais restant dans l'ombre du point de vue de la caméra. De ce fait, il n'est pas nécessaire de réaliser plusieurs prises de vue d'une même surface 3 puisque l'ensemble des points de l'image de référence (le mouchetis 14 non déformé, tel que projeté dans le plan l~ de référence) se retrouvent nécessairement dans l'image du mouchetis 14' projeté sur l'objet, au bénéfice à la fois de la précision, de la simplicité de calcul et de la rapidité d'exécution du processus. Le fait de travailler à focale fixe a toutefois, par rapport à la stéréoscopie axiale classique, de minimiser les phénomènes de distorsion liés au grossissement rencontrés dans les systèmes de ce type (cf. sur ce point Catherine Delherm, « Reconstruction volumique dense par stéréovision axiale », Thèse de doctorat, Clermont Ferrand, 1995). Thirdly, the fact of having the camera 9 in the optical axis 13 of the projector 8 - by means of the interposition of a splitter blade - makes it possible to benefit from the advantages of axial stereovision, that is to say to avoid occultation phenomena that would be encountered if the camera 9 was angularly offset relative to the axis 13 of the projector 8, some areas of the reliefs of the surface 3 to be digitized being indeed, in such a configuration, illuminated from the point from the projector but remaining in the shadow from the point of view of the camera. As a result, it is not necessary to take several shots of the same area 3 since the set of points of the reference image (the non-deformed mouchetis 14, as projected in the plane 1 ~ of reference) are necessarily found in the image of the mouchetis 14 'projected on the object, to the benefit of both accuracy, simplicity of calculation and the speed of execution of the process. Working with fixed focal length, however, compared to stereoscopy classical axial, to minimize the magnification-related distortion phenomena encountered in systems of this type (see Catherine Delherm, "Dense volume reconstruction by axial stereovision", Ph.D. thesis, Clermont Ferrand, 1995).

Claims

REVENDICATIONS
1 . Dispositif (1) de construction d'une image (2) de synthèse d'une surface (3) tridimensionnelle d'un objet (4) physique, ce dispositif (1) comprenant : un projecteur (8) muni d'une source (10) lumineuse, d'un axe (13) optique, et d'une mire (12) définissant un mouchetis (14) comprenant une multitude de points d'intensités lumineuses et/ou de couleurs prédéterminées, et - une caméra (9) ayant un capteur optique (17) placé dans l'axe (13) optique du projecteur (8), un miroir (18) semi-réfléchissant disposé sur l'axe (13) optique, ce miroir (18) présentant deux faces (19, 20) opposées inclinées par rapport à l'axe (13) optique et en regard desquelles sont disposés, respectivement, le projecteur (8) et la caméra (9), ce dispositif étant caractérisé en ce que la distance du capteur (17) au miroir (18) semi-réfléchissant est inférieure à la distance de la mire (12) au miroir (18) semi-réfléchissant.1. Device (1) for constructing an image (2) of synthesis of a three-dimensional surface (3) of a physical object (4), this device (1) comprising: a projector (8) provided with a source ( 10), an optical axis (13), and a target (12) defining a speckle (14) comprising a plurality of points of light intensities and / or predetermined colors, and - a camera (9) having an optical sensor (17) placed in the optical axis (13) of the projector (8), a mirror (18) semi-reflecting disposed on the axis (13) optical, the mirror (18) having two faces (19). , 20) opposite inclined relative to the axis (13) optical and facing which are arranged respectively the projector (8) and the camera (9), this device being characterized in that the distance from the sensor (17) the semi-reflecting mirror (18) is smaller than the distance from the pattern (12) to the semi-reflecting mirror (18).
2. Dispositif selon la revendication 1 , dans lequel la distance du capteur (17) au miroir (18) semi-réfléchissant est comprise entre 70 mm et 100 mm environ.2. Device according to claim 1, wherein the distance of the sensor (17) to the mirror (18) semi-reflective is between 70 mm and 100 mm.
3. Dispositif selon la revendication 2, dans lequel la distance du capteur (17) au miroir (18) semi-réfléchissant est de 85 mm environ.3. Device according to claim 2, wherein the distance from the sensor (17) to the mirror (18) semi-reflective is about 85 mm.
4. Dispositif selon la revendication 3, dans lequel la distance de la mire (12) au miroir (18) semi-réfléchissant est comprise entre 120 mm et 150 mm environ.4. Device according to claim 3, wherein the distance of the pattern (12) to the mirror (18) semi-reflective is between 120 mm and 150 mm.
5. Dispositif selon la revendication 4, dans lequel la distance de la mire (12) au miroir (18) semi-réfléchissant est de 135 mm environ.5. Device according to claim 4, wherein the distance of the pattern (12) to the mirror (18) semi-reflective is about 135 mm.
6. Dispositif selon l'une des revendications 1 à 5, dans lequel le projecteur (8) est muni d'une optique (11) placée sur l'axe (13) optique devant la mire.6. Device according to one of claims 1 to 5, wherein the projector (8) is provided with an optical (11) placed on the axis (13) optical front of the test pattern.
7. Dispositif selon la revendication 6, dans lequel ladite optique (11 ) est une optique convergente présentant une focale comprise entre 10 mm et 14 mm environ. 7. Device according to claim 6, wherein said optic (11) is a convergent optic having a focal length of between 10 mm and 14 mm approximately.
8. Dispositif selon la revendication 7, dans lequel la distance focale de l'optique (11) du projecteur (8) est de 12 mm environ. 8. Device according to claim 7, wherein the focal length of the optic (11) of the projector (8) is about 12 mm.
9. Dispositif selon l'une des revendications 6 à 8, dans lequel l'optique (11 ) du projecteur (8) est située à une distance de la mire (12) comprise entre 10 mm et 15 mm environ.9. Device according to one of claims 6 to 8, wherein the optic (11) of the projector (8) is located at a distance from the test pattern (12) between 10 mm and 15 mm approximately.
10. Dispositif selon la revendication 9, dans lequel l'optique (11 ) du projecteur (8) est située à une distance de la mire (12) de 12,4 mm environ.10. Device according to claim 9, wherein the optic (11) of the projector (8) is located at a distance from the target (12) of 12.4 mm.
1 1. Dispositif selon l'une des revendications 1 à 10, dans lequel la caméra (9) est munie d'une optique (15) placée dans l'axe (13) optique devant le capteur (17). 1 1. Device according to one of claims 1 to 10, wherein the camera (9) is provided with an optical (15) placed in the axis (13) optical in front of the sensor (17).
12. Dispositif selon la revendication 1 1 , dans l'optique (15) de la caméra (9) est une optique convergente présentant une focale comprise entre 4 mm et 8 mm environ.12. Device according to claim 1 1, in the optics (15) of the camera (9) is a convergent optic having a focal length of between 4 mm and 8 mm approximately.
13. Dispositif selon la revendication 12, dans lequel la distance focale de l'optique (15) de la caméra (9) est de 6 mm environ. 13. Device according to claim 12, wherein the focal length of the optics (15) of the camera (9) is about 6 mm.
14. Dispositif selon l'une des revendications 1 1 à 13, dans lequel l'optique (15) de la caméra (9) est située à une distance du capteur (17) comprise entre 4 mm et 8 mm environ.14. Device according to one of claims 1 1 to 13, wherein the optics (15) of the camera (9) is located at a distance from the sensor (17) between 4 mm and 8 mm.
15. Dispositif selon la revendication 14, dans lequel l'optique de la caméra (9) est située à une distance du capteur (17) de 6, 1 1 mm environ.15. Device according to claim 14, wherein the optics of the camera (9) is located at a distance from the sensor (17) of 6.11 mm.
16. Dispositif selon l'une des revendications 1 à 15, dans lequel le projecteur (8) et la caméra (9) sont montés dans un boîtier (6) commun portatif.16. Device according to one of claims 1 to 15, wherein the projector (8) and the camera (9) are mounted in a housing (6) common portable.
17. Dispositif selon la revendication 16, qui comprend un mécanisme de déclenchement manuel simultané du projecteur (8) et de la caméra (9).17. Device according to claim 16, which comprises a simultaneous manual trigger mechanism of the projector (8) and the camera (9).
18. Dispositif selon la revendication 17, qui comprend une unité (21) de traitement des données issues du capteur (17). 18. Device according to claim 17, which comprises a unit (21) for processing data from the sensor (17).
PCT/FR2008/001339 2007-09-28 2008-09-26 Device for three-dimensional digitisation WO2009074750A2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR07/06823 2007-09-28
FR0706823A FR2921732B1 (en) 2007-09-28 2007-09-28 DEVICE FOR CONSTRUCTING A SYNTHESIS IMAGE OF A THREE-DIMENSIONAL SURFACE OF A PHYSICAL OBJECT

Publications (2)

Publication Number Publication Date
WO2009074750A2 true WO2009074750A2 (en) 2009-06-18
WO2009074750A3 WO2009074750A3 (en) 2009-08-06

Family

ID=39370872

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2008/001339 WO2009074750A2 (en) 2007-09-28 2008-09-26 Device for three-dimensional digitisation

Country Status (2)

Country Link
FR (1) FR2921732B1 (en)
WO (1) WO2009074750A2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113063757A (en) * 2021-02-02 2021-07-02 中国农业大学 Quasi-spherical fruit and vegetable shape modeling method and optical map correction method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104729428B (en) * 2015-02-27 2018-12-14 湖北文理学院 Mirror face part three dimensional shape measurement system and measurement method based on coaxial configuration light
CN105953749B (en) * 2016-06-21 2018-12-18 西安交通大学 A kind of optical 3-dimensional topography measurement method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5003166A (en) * 1989-11-07 1991-03-26 Massachusetts Institute Of Technology Multidimensional range mapping with pattern projection and cross correlation
US6043891A (en) * 1993-07-29 2000-03-28 Fraunhofer Gesellschaft Zur Forderung Der Angewandten Forshung E.V. System for three-dimensional measurement of inaccessible hollow spaces
US20060083422A1 (en) * 2004-01-27 2006-04-20 Ernst Maurice M Three-dimensional modeling of the oral cavity
US20070216894A1 (en) * 2006-02-27 2007-09-20 Javier Garcia Range mapping using speckle decorrelation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5003166A (en) * 1989-11-07 1991-03-26 Massachusetts Institute Of Technology Multidimensional range mapping with pattern projection and cross correlation
US6043891A (en) * 1993-07-29 2000-03-28 Fraunhofer Gesellschaft Zur Forderung Der Angewandten Forshung E.V. System for three-dimensional measurement of inaccessible hollow spaces
US20060083422A1 (en) * 2004-01-27 2006-04-20 Ernst Maurice M Three-dimensional modeling of the oral cavity
US20070216894A1 (en) * 2006-02-27 2007-09-20 Javier Garcia Range mapping using speckle decorrelation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113063757A (en) * 2021-02-02 2021-07-02 中国农业大学 Quasi-spherical fruit and vegetable shape modeling method and optical map correction method
CN113063757B (en) * 2021-02-02 2022-01-25 中国农业大学 Quasi-spherical fruit and vegetable shape modeling method and optical map correction method

Also Published As

Publication number Publication date
FR2921732B1 (en) 2010-04-30
WO2009074750A3 (en) 2009-08-06
FR2921732A1 (en) 2009-04-03

Similar Documents

Publication Publication Date Title
WO2009074751A2 (en) Method for three-dimensional digitisation
JP5928792B2 (en) Apparatus and method for non-contact high resolution bill capture
FR3048322B1 (en) MODULE OR ARRANGEMENT, AND METHOD, FOR READING A TARGET BY CAPTURING AN IMAGE WITH AN IMAGE FORMING PLAYER COMPRISING IMAGE AND VIEWING DECAL FORMATION SYSTEMS
BE1017316A7 (en) Method and apparatus for scanning gemstone, comprises platform adapted to support gemstone, scanning system adapted to provide geometrical information concerning three-dimensional convex envelope of gemstone
FR3055447A1 (en) MORE VISIBLE VIEWING BRAND FOR OPTICAL READER
US20130242083A1 (en) Retro-reflective imaging
WO2009074750A2 (en) Device for three-dimensional digitisation
WO2010072912A1 (en) Device for three-dimensional scanning with dense reconstruction
EP3559636B1 (en) Device and method for observing the radiation backscattered by an object
WO2008023196A1 (en) Three-dimensional image recording and display apparatus
FR2672119A1 (en) THREE-DIMENSIONAL SURFACE MEASURING SYSTEM TO BE REPRESENTED MATHEMATICALLY, AND A MEASURING METHOD AND CALIBRATION TEMPLATE OF THE MEASURING SYSTEM.
WO2012035257A1 (en) Device and method for measuring the shape of a mirror or of a specular surface
US9208369B2 (en) System, method and computer software product for searching for a latent fingerprint while simultaneously constructing a three-dimensional topographic map of the searched space
EP2605214B1 (en) Method for projecting an image onto a three-dimensional surface
FR3056792A1 (en) IMAGE FORMING MODULE AND READER AND METHOD FOR READING TARGETS BY CAPTURING IMAGES WITH SUBSTANTIALLY CONSTANT RESOLUTION IN EXTENDED WORKING DISTANCE RANGE
KR101792343B1 (en) Infrared ray projector module with micro lens array for output patten of matrix and 3 dimensional scanner using the same
FR2920874A1 (en) LUMINESCENCE IMAGING INSTALLATION AND METHOD
US11842249B2 (en) Asset verification system and methods of using same
JP2004184639A (en) Optical code photographing device
EP3192004B1 (en) Reading device and bar code machine including such device for automatic analysis of a sample
WO2009121199A1 (en) Method and device for making a multipoint tactile surface from any flat surface and for detecting the position of an object on such surface
TW202227894A (en) Bullet casing illumination module and forensic analysis system using the same
WO2017025680A1 (en) Method and device for deleting stray information in images of at least one illuminated specular optical test pattern, and location system comprising said device
FR3043295A1 (en) SPACE ENHANCED REALITY DEVICE FOR OFFICE ENVIRONMENT
TWM314853U (en) Lens defect inspection apparatus

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08860358

Country of ref document: EP

Kind code of ref document: A2

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 08860358

Country of ref document: EP

Kind code of ref document: A2