WO2011033186A1 - Method for the three-dimensional digitisation of a surface, comprising the projection of a combined pattern - Google Patents

Method for the three-dimensional digitisation of a surface, comprising the projection of a combined pattern Download PDF

Info

Publication number
WO2011033186A1
WO2011033186A1 PCT/FR2010/000610 FR2010000610W WO2011033186A1 WO 2011033186 A1 WO2011033186 A1 WO 2011033186A1 FR 2010000610 W FR2010000610 W FR 2010000610W WO 2011033186 A1 WO2011033186 A1 WO 2011033186A1
Authority
WO
WIPO (PCT)
Prior art keywords
pattern
fringes
images
image
use according
Prior art date
Application number
PCT/FR2010/000610
Other languages
French (fr)
Inventor
Benoît BOCQUILLON
Ludovic Brethes
Original Assignee
Noomeo
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Noomeo filed Critical Noomeo
Publication of WO2011033186A1 publication Critical patent/WO2011033186A1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images

Definitions

  • the invention relates to the construction of three-dimensional numerical models of physical surfaces by optical measurement, without contact. This technique is commonly called three-dimensional scanning, 3D scanning, or, in English terminology, 3D scanning.
  • the architecture of vision systems for 3D digitizing a surface conventionally comprises two components:
  • the scanner preferably portable
  • the scanner which acquires images of the surface, generally by a succession of shots (point, continuous or continuous) thereof;
  • CAD computer-assisted design
  • CAD / CAM computer-aided design
  • the acquisition of the images is generally carried out by projecting on the surface to be digitized a structured luminous pattern having a predetermined shape (lines, squares, speckles, etc.), then by optical capture of the projected pattern. Treatments are applied to the captured images, making it possible to calculate the spatial coordinates of a selection of points to reconstruct the three-dimensional model of the surface.
  • scanners are generally divided into two types: single-camera scanners (monocular vision), and multi-camera scanners (binocular vision or stereovision, multi-ocular vision).
  • Patent documents US 5003 166 (MIT), FR 2842591 (ENSMA / CNRS), WO2007 / 043036 (PRIME SENSE), US 2009/0059241 (ARTEC) and FR 2921 719 (NOOMEO) illustrate this architecture.
  • the projected pattern may be repetitive, for example in the form of lines or segments (see US 5003 166 above), or non-repetitive, for example in the form of a speckle (cf. 2842 591 and FR 2921 719 cited above).
  • images are generally applied to an epipolar rectification treatment to make the epipolar lines of the two images parallel and aligned.
  • the matching or correlation then consists in matching in the stereoscopic images the homologues or stereo- corresponding, that is to say the projections in the image planes of the same point of the physical surface.
  • the difference between the coordinates of the stereo-correspondents is called disparity.
  • mapping techniques provide a continuous surface.
  • the rectification of images is a well-known problem, for which powerful and robust algorithms have existed for some time now, cf. for example P. Lasserre and P. Grandjean, "Stereo improvements", in IEEE International Conference on Advanced Robotics, Barcelona, 1995.
  • mapping techniques for example V. Lemonde, "Stereovision on vehicle: from Self-Calibration to Obstacle Detection", CNRS / I NSA Thesis, November 2005, S. Chambon, "Stereoscopic mapping of color images in the presence occultations ", Thesis Paul Sabatier University, December 2005, and W. Souid-Miled,” Stereoscopic mapping by convex variational approaches ", Thesis University Paris-Est / I NRIA, December 2007.
  • Repetitive patterns such as alternating black and white lines or grids (see for example Figure 6 of US 5,003,166 cited above), which have the advantage of offering good contrast, are difficult to exploit in the stereovision systems because they generate matching errors due to the isotropic nature of the pattern, so offsets may occur when looking for correlation windows.
  • the aim of the invention is to propose a solution that overcomes the aforementioned drawbacks, and facilitates a reliable and dense reconstruction of a three-dimensional numerical model of a surface.
  • the invention proposes a use of a structured pattern in the construction of a three-dimensional numerical model of a physical surface, in which the pattern is projected onto the surface, this pattern being formed by the combination of a primary pattern comprising an array of spaced continuous rectilinear fringes, and an anisotropic secondary pattern extending into the interframe spaces.
  • the invention also proposes a three-dimensional scanning system comprising a device for projecting a luminous pattern, and a stereovision system, in which the projection device is arranged to project a luminous pattern as described above.
  • the invention also proposes a method for constructing a three-dimensional digital model of a physical surface using a pattern as described above, this method comprising the following operations:
  • the primary pattern is monooriented, the fringes extending in a single direction.
  • the primary pattern is bi-oriented, the fringes extending in two directions, which may be perpendicular so that the fringes define a grid.
  • the fringes can be clear, and be bordered by dark lines between which the secondary pattern extends.
  • the fringes are dark; they can be lined with light lines lined with dark lines.
  • the secondary reason includes, for example, scabs or pictograms.
  • Figure 1 is a perspective view illustrating a three-dimensional scanning device comprising a capture apparatus connected to a computer, applied to the scanning of the surface of an object, in this case the face of a statue;
  • Figure 2 is a schematic side view illustrating the main optical components of the apparatus of Figure 1, placed in a shooting situation;
  • Figure 3 is a plan view of a pattern for projection on a surface to be digitized, according to a first embodiment;
  • Figure 4 is a detail view of the pattern of Figure 3;
  • FIG. 5 is a plan view of a pattern for projecting onto a surface to be digitized, according to a second variant embodiment
  • Figure 6 is a detail view of the pattern of Figure 5;
  • Figure 7 is a plan view of a pattern for the projection on a surface to be digitized, according to a third embodiment
  • Figure 8 is a detail view of the pattern of Figure 7;
  • Figure 9 is a plan of a pattern for projection on a surface to be digitized, according to a fourth embodiment;
  • FIG. 10 is a view of a detail of the pattern of FIG. 9;
  • Figure 11 shows a pair of structured stereoscopic images of the pattern of Figures 3 and 4 projected on the face of Figure 1;
  • Fig. 12 shows a pair of textured stereoscopic images of the face of Fig. 1;
  • FIG. 13 is a perspective view of a reconstructed point cloud from the pair of structured stereoscopic images of FIG.
  • FIG. 14 is a perspective view showing two non-recalibrated point clouds, reconstructed from two pairs of structured stereoscopic images captured during two successive shots of the face of the statue of FIG. 1;
  • FIG. 15 is a view similar to FIG. 14, showing the two scattered point clouds
  • FIG. 16 is a perspective view showing a plurality of recalibrated point clouds, reconstructed from a series of pairs of stereoscopic images captured during a sequence of successive shots of the face of the statue of the figure 1 .
  • FIG. 1 shows a non-contact optical scanning system 1 for constructing a digital model three-dimensional, in the form of a synthetic image in CAD (computer-assisted drafting) or CAD (computer-aided design) environment, of a physical surface 2, for example the envelope of a real physical object 3.
  • this object 3 is a statue but it could be any other object having one or more surfaces to be digitized.
  • the surface 2 to be digitized is embossed, that is to say non-planar, but the system 1, as well as the method implemented described hereinafter, allow a fortiori the digitization of flat surfaces. (Note that to meet the formal requirements for patent drawings, the photograph of the statue in Figure 1 has been filtered and converted to two-color display, hence its granular appearance).
  • the scanning system 1 comprises an optical acquisition device 4 (called capture), called a scanner, equipped with a portable box 5 provided with a handle 6 for its capture and manipulation.
  • capture optical acquisition device 4
  • portable box 5 provided with a handle 6 for its capture and manipulation.
  • the handle 6 carries, on a front face, a manual trigger 7 whose operation commands the shooting.
  • the system 1 also comprises a central processing unit (CPU or CPU) of the images captured by the scanner 4, in the form of a processor on which is implemented a software application for building the digital models from the captured images. More specifically, this software application includes instructions for carrying out the calculation operations described below.
  • CPU central processing unit
  • this software application includes instructions for carrying out the calculation operations described below.
  • the processor can be embedded in the scanner 4 or, as illustrated in FIG. 1, relocated by being integrated in a computer 8 equipped with a graphical interface and connected to the scanner 4 via a communication interface 9 wired (or wireless), for example in the form of a USB-type computer bus.
  • the scanner 4 is designed to work in stereovision. As can be seen in FIGS. 1 and 2, it comprises, mounted in the housing 5:
  • a system 1 1 of stereovision comprising a pair of optical acquisition devices 12, 13, of the camera type
  • an inertial central unit configured to provide at any time an invariant absolute reference, constructed from two orthogonal directions identifiable by the central unit 15, namely the magnetic north and the vertical.
  • optical acquisition devices 12, 13 are cameras, which, if necessary, can be used as cameras.
  • the projector 10 comprises a light source (not visible), a focusing optics 16 and a slide (not visible) interposed between the light source and the focusing optics 16.
  • the light source is preferably a non-coherent source of white light, in particular of the filament or halogen type, or also of the diode (LED) type.
  • the focusing optics 16 of the projector 10 define a main optical axis 17 passing through the light source.
  • This optical axis 17 defines an optical axis of projection of the scanner 4.
  • the cameras 12, 13 each comprise:
  • a focusing optics 18 defining an optical axis 19 (respectively 20) of sight
  • a photosensitive sensor 21 for example of the CCD type, which is in the form of a square or rectangular plate placed, facing the focusing optics 18, on the optical axis 19, 20, that is to say perpendicular to it and so that the axis 19, 20 passes through the center of the sensor 21.
  • the optical centers of the cameras 12, 13 are spaced from one another by a distance called base, their optical axes 19, 20 converging towards a point 22 situated on the optical axis 17 of the projector 10, in the field of this one.
  • the cameras 12, 13 will be oriented such that the point of convergence of their optical axes 19, 20 lies in a median plane situated in the projection field and in the sharpness zone (also called depth of field) of the projector 10.
  • the sensor 21 of each camera 12, 13 is placed at a predetermined distance from the focusing optics 18, in an image plane depending on its focal length and such that the object plane corresponding to this image plane is in the sharpness zone of the camera. projector 10.
  • the projector 10 and the cameras 12, 13 are fixed on a common one-piece plate 23, made of a sufficiently rigid material to minimize the risks of misalignment of the cameras 1 2, 13 (such a misalignment is called scaling).
  • the plate 23 is made of an aluminum alloy.
  • the handle 6 of the scanner 4 extends parallel to the base, so that the natural hold of the scanner 4 is vertical, the cameras 12, 13 extending one above the other. the other.
  • the left camera is referred to as the upper camera 12 (located on the thumb side) and the right camera as the lower camera 13.
  • the aiming system 14 is arranged to allow, prior to the shooting, a positioning of the scanner 4 at a distance from the surface 2 to be digitized such that the projected pattern is included in the field of the projector 10 - and therefore net .
  • the aiming system 14 comprises two laser pointers 24 rigidly mounted on the plate 23, designed to emit each, when the trigger 7 is depressed, a linear light beam 25, 26 producing on any surface illuminated, a light spot substantially punctual.
  • the pointers 24 are positioned angularly on the plate 23 so that the beams 25, 26 emitted cross at a point of intersection 27 located on the axis 17 of the projector 10, in the sharpening zone thereof and upstream of the point 22 of convergence of the optical axes 19, 20 of the cameras 12, 13.
  • the slide is disposed between the light source and the optic 16 of the projector 10, on the axis 17, that is to say perpendicularly to the axis 1 7 and so that it passes through the center of the slide.
  • the slide is placed at a predetermined distance from the optics 16 of which it constitutes an object plane, so that the image of the pattern is sharp in an image plane perpendicular to the axis 17.
  • the image plane n ' is not unique, the focusing optics of the projector 10 being designed (or adjusted) to have a certain depth of field, such that the image of the projected pattern is sharp in a certain area of sharpness that extends between two spaced planes perpendicular to the axis 17.
  • the slide is in the form of a translucent or transparent plate (glass or plastic), square or rectangular, on which the pattern is printed by a conventional process (transfer, offset, screen printing, flexography, laser, spray jet). ink, microlithography, etc.).
  • the pattern is structured, that is to say it has alternations of light areas and dark areas of a predetermined shape.
  • the constitution of the pattern (color, contrast) is not random: it is known in every respect.
  • the pattern can be done in grayscale or color, but is preferably made in black and white, maximizing the contrast between light and dark areas.
  • the pattern comprises the combination of two sub-patterns, namely:
  • a regular primary pattern 28 comprising an array of spaced, continuous rectilinear fringes 29, and
  • FIGS. 3 to 10 show four variants of patterns that can be used in the digitization system.
  • the secondary pattern 30 comprises scabs 31 extending in the spaces between the fringes 29.
  • the secondary pattern 30 includes pictograms arranged pseudo-randomly.
  • a scabby secondary pattern as shown in FIGS. 3 to 8 can be generated automatically by means of a computer program for performing pseudorandom patterns.
  • One example is Ken Perlin's algorithm generating a well-known type of mouchetis called Perlin noise, which has the advantage of being anisotropic.
  • this type of pattern includes an interweaving of black and white spots that give a grainy appearance to the pattern.
  • the term "scab” refers to this interlacing. In English, this type of pattern is also called "Speckle".
  • the primary pattern 28 has the function of locally generating a strong, easily detectable contrast between white light areas and dark areas, while the secondary pattern 30 functions by its anisotropic nature. , to locate in the image with certainty any viewing window.
  • the primary pattern 28 is single-oriented and comprises a series of clear fringes 29 (white in color). occurrence) which extend vertically in the orientation illustrated in Figures 3 and 4, each bordered on either side by two parallel strips 32 (black in this case) parallel, similar.
  • the width of the fringes 29 is constant, as is the spacing between fringes 29.
  • the scabs 31 of the secondary pattern 30 extend in strips in the spaces between the fringes 29, and more precisely between the black strips 32 bordering the white fringes 29. .
  • the image is printed on the slide - or it is oriented - so that the fringes 29 extend perpendicularly to the base, that is to say to the axis connecting the optical centers of the cameras 12, 13.
  • the fringes 29 extend perpendicular to the plane containing the optical axes 19, 20 of the cameras 12, 13, so that in stereoscopic vision the fringes 29 extend vertically on the images captured by the cameras 12, 13.
  • This type of pattern is advantageous in comparison with a simple speckle which appears to be of low contrast, since the black and white spots of the slide would, by projection, form grayscale spots.
  • an isotropic pattern made for example of single fringes it is by nature not adapted to stereovision, because it is not locatable and therefore unsuitable for matching.
  • the primary pattern 28 is bi-oriented and comprises a series of light fringes 29 (white in this case) which extend both horizontally and vertically to form a grid.
  • Each horizontal and vertical fringe 29 is bordered, on both sides, by discontinuous black (black) lines, which together form a network of regularly spaced isolated squares with black edges.
  • the scabs 31 of the secondary pattern 30 extend in blocks in the spaces between the fringes 29, that is to say in the squares delimited by the black bands 32.
  • This second variant of the pattern has, compared to the first variant, the advantage of being bi-oriented, so that there is no preferred direction of projection of the pattern on the surface 2, with respect to the orientation of the scanner 4.
  • the multiplication of the fringes 29 makes it possible to increase the density of the contrasting zones of the pattern, in this case at the level of the fringes 29.
  • the primary pattern 28 is bi-oriented and comprises a series of dark fringes 29 (black in this case) which extend both horizontally and vertically to form a grid.
  • Each horizontal and vertical fringe 29 is bordered, on both sides, by discontinuous light strips 32 (white in this case) which together form a network of regularly spaced isolated squares with white edges.
  • the edges 32 of each square are lined, inward, with black bands 33, so that each square has a double perimeter, consisting of a white outer perimeter and a black inner perimeter.
  • this third variant also has the advantage of further increasing the density of contrasting areas of the pattern.
  • FIG. 9 illustrated as a whole in FIG. 9 and in detail on an enlarged scale in FIG. primary 28 is bi-oriented, and comprises a series of clear fringes 29 (white in this case) that extend both horizontally and vertically to form a grid.
  • the squares delimited by the fringes 29 have a dark background (black in this case) on which stand out pictograms 34 of light color (white in this case).
  • the pictograms 34 are distributed pseudo-randomly and so that the vicinity of each pictogram 34 (for example the adjacent pictograms 34 located on the same line, or on the same column) is different from the neighborhoods of all the other pictograms 34.
  • This pattern has the advantage of being more contrasted than the scab patterns, which facilitates matching operations (see below).
  • the calibration of the stereovision system 1 1 is a necessary preliminary step, without which it is not possible to properly process the information captured by the cameras 12, 13.
  • the calibration of a single camera is limited to estimate the intrinsic parameters of the camera as well as its position relative to an absolute reference frame.
  • Calibration of the system 1 1 stereovision is more complex because it involves performing a double calibration, which includes not only the estimation of the intrinsic parameters of each camera 12, 13, but also the relative position and orientation of the cameras 12, 13 relative to each other.
  • the calibration consists of matching the two cameras 12, 13 by implementing in the digitization system CPU 1 a given number of structural and optical parameters of the stereovision system 1 1, in particular the position of the optical centers and the angle between the optical axes 19, 20.
  • This calibration is not necessarily performed before each use of the system 1. It is preferably carried out at the factory, using a test pattern (for example a checkerboard) whose geometry is known exactly.
  • Scanning is the step of acquiring one or more pairs of stereoscopic images of the surface 2. More specifically, the scanning procedure comprises the succession of the following operations.
  • the scanner 4 is positioned facing the surface 2 to be digitized - in this case facing the face of the statue.
  • a pulse on the trigger 7 causes the lighting of the pointers 24.
  • the scanner 4 can then be positioned correctly, the concordance of the light spots produced by the lasers on the surface 2 signifying that it is located in the field of the projector 10 and cameras 12, 13.
  • This procedure consists of the following steps:
  • G-D structured stereoscopic image pair once the G and D images have been buffered, they can be transmitted to the system CPU 1 1 where they are stored for processing (see the rectification and reconstruction phases described below).
  • FIG. 13 A pair of G-D structured stereoscopic images of the face 2 of the statue 1 is illustrated in FIG. 13. This figure is provided for illustrative purposes, the G-D images not necessarily being displayed on the graphical interface of the computer 8.
  • the images of the unlit surface 2 are made in natural light (ambient), possibly embellished with a white light produced for example by light-emitting diodes. (LED) equipping the scanner 4.
  • the scanner 4 is equipped in front of two circular series of LEDs surrounding the optics 18 of the cameras 12, 13 and oriented along the axes 19, 20 of these this.
  • the left image is denoted G '; the right image D '.
  • the images G 'and D' are read by the internal electronics of the cameras 12, 13 and stored in the buffer memory. Meanwhile, the cameras 12, 13 are put on hold.
  • This acquisition procedure therefore provides a quadruplet of images, hereinafter referred to as "quad", composed of the two pairs of stereoscopic images: a pair of structured images GD and a pair of textured images G'-D ' .
  • the procedure ie the sequence of operations a.1) to a.6), can be repeated as much as necessary, in order to obtain a series of quads.
  • this rehearsal it is possible to scan the surface 2 to cover it completely and shoot it continuously.
  • the pointers 24 can be activated permanently - with the exception of the sequences of shots, failing which the images would be unusable - so to allow the user to keep the distance between the scanner 4 and the surface 2 relatively constant.
  • the shutter speeds of the cameras 12, 13 (of the order of a few milliseconds), the eye does not perceive the extinction of the lasers 24 during shooting, the user having the illusion of a continuous pointing.
  • CCD sensor size 1024x768 pixels
  • the raw images of each quad are affected by defects, notably a distortion and an absence of parallelism of the epipolar lines between images of the same stereoscopic pair.
  • a pretreatment including the following operations, programmed in the form of instructions in the CPU of the computer 8 for their implementation:
  • Rectification of the distortion (for example by means of known algorithms), aimed at straightening the straight lines that appear curved on the images;
  • Epipolar rectification which allows, for a pair of stereoscopic images, to correspond at any point of the left image a horizontal line of the right image, and vice versa.
  • epipolar rectification can be conducted using conventional algorithms.
  • the skilled person can refer to the documents mentioned in the introduction.
  • the reconstruction step aims at calculating, from the pair of structured stereoscopic images GD, a cloud of three-dimensional points of the surface to be digitized.
  • the reconstruction comprises two phases, programmed in the form of instructions in the CPU of the computer 8 for the implementation of:
  • the MEC consists of matching points of the pair of G-D structured images.
  • the CEM is performed in two time periods: an initial, relatively coarse MEC; then a final, finer MEC based on the results of the initial MEC.
  • the initial M EC consists in carrying out for each pixel P G of coordinates of the image G a local correlation consisting of:
  • each correlation window of the image D corresponds to a correlation measure (or score);
  • the initial MEC is relatively robust. It is all the more so because the secondary pattern 30, pseudo-random, makes it possible to minimize mismatches.
  • (expressed in mm) is the depth tolerance, measured along the optical axis 17 of the projector 10;
  • ztravaii (expressed in mm) is approximately the normal working distance of the scanner 4, i.e. the average distance between the scanner 4 and the surface 2 to be digitized, measured along the optical axis 17 of the projector 10 ;
  • focal length (expressed in pixel equivalents) is the focal length of the cameras 12, 13;
  • AD (expressed in pixels) the tolerance on disparity.
  • the accuracy of the disparity must be 0.1 pixel.
  • the disparity must be precise to the sub-pixel, and more precisely to the tenth of a pixel. Such precision is not attainable by means of an initial MEK as described above.
  • results of the initial MEC can be used as a basis for the fine MEC, which is more accurate but based primarily on the primary motive points.
  • the final MEC includes the following operations, programmed as instructions in the CPU of the computer 8 for their implementation:
  • the derivative is computed in a discrete manner, for example equal to the slope of the segment joining two successive points whose abscissa values are those of the corresponding pixels, and the ordinates the values of the corresponding light intensities (on a scale from 0 to 255 for eight-bit gray levels).
  • a pixel corresponds to a peak when a function derived from the luminous intensity changes sign between this pixel and the neighboring pixel situated on the same line P G (i + 1, j). More precisely, and according to the algorithmic chosen, we can decree that the pixel corresponds to a peak when the function derived from the luminous intensity changes from sign to rising, that is to say that it is negative to the pixel P G (i, j) and positive to the pixel P G (i + 1, j). b.2) Calculation of the coordinates of the points of the image G, called extremums (in practice they are maximums) and noted below
  • a window is chosen containing the pixel P G (i, j), for example the window comprising P G (i, j) and 'are the two pixels enclosing on the same line, or P G (i - l, j) and P G (i + 1, j).
  • a continuous interpolation function of the luminous intensity of the pixels of this window is then calculated, and then the abscissa x G of the extremum E G , that is to say of the point which maximizes this function, is calculated. interpolation.
  • the interpolation function being continuous, the abscissa x G is not complete: it is a real number.
  • This window comprises for example P D (/ c, /) and the pixels flanking it on the same line, ie P D (c - 1.0 and P D (/ c + 1, /).
  • Steps b.1) to b.7) are repeated for all light intensity peaks, the mapping produces a pair of pairs of points E c and E D paired for the GD image pair.
  • the contrast is lower in the secondary pattern 30 than in the primary pattern 28.
  • the detection of peaks is less reliable in the areas of the images G and D corresponding to the secondary pattern 30, than in the zones corresponding to the primary pattern 28, in which the alternation of the light and dark areas is clearer.
  • the fine ECM is it preferable to limit the fine ECM to a selection of points of interest located in the fringes 29 of the primary pattern 28, that it is by therefore necessary to locate.
  • This location can be performed by vertical scanning of the image (in the case of the first pattern version) or by combining a vertical scan and a horizontal scan (in the case of the second version and the third version of the pattern), and by estimating the similarity of the neighborhoods.
  • the fringes 29 are characterized in fact by a directional isotropy which results in a homogeneity of the neighborhoods of the points of the fringes 29 in the direction in which it extends.
  • extremums E G and E D are homologous (or stereo- corresponding), they are the projections, respectively in the left image G and in the right image D, of the same point of the surface 2 to be digitized.
  • the triangulation makes it possible to obtain a cloud of points which forms a first blank, scattered, of the three-dimensional model of the surface to be digitized.
  • FIG. 15 Such a cloud of points is represented in FIG. 15.
  • This cloud results from the succession of the MEC and triangulation phases applied to the image pair GD of FIG. 11. It can be seen from FIG. 13 that the cloud is oriented, and includes several groups of points all located in vertical parallel planes. This illustrates the MEC technique described above, in which the fine MEC was limited to a selection of points of interest located in the fringes 29 of the primary reason 28, because of the precision of their location in the G and D images.
  • the scanned surface 2 has evolved in space, between two successive shots, in a reference linked to the scanner 4, in practice a Cartesian landmark whose center coincides with the image focus of the left camera 12, and whose axes are respectively:
  • x the line parallel to the horizontal of the sensor 21 of the left camera 12 passing through its image focus, located in the center of the sensor 21;
  • y the line parallel to the verticals of the sensor 21 of the left camera 12 and passing through its image focus
  • the registration aims to evaluate the movements of the scanner 12 between two successive shots, then to apply to the point clouds resulting from these shots transformations (called “poses” and each consisting of the combination of a rotation and a translation) corresponding to these displacements, in order to align the marks of each cloud of points.
  • the calculation of the rotation of the data from the inertial unit 15 is used.
  • the data of the inertial unit 1 5 make it possible to calculate: the absolute rotation matrix, denoted by R, the transformation matrix of the reference associated with the scanner 4 towards the terrestrial reference at the iteration i,
  • R i + 1 the absolute rotation matrix, denoted R i + 1 , the transformation matrix of the reference associated with the scanner 4 towards the terrestrial reference at the iteration i + 1.
  • the relative rotation matrix between the cloud Nj and the cloud N i + 1 denoted R j +1 , is equal to the product of the matrix R; by the inverse matrix of the matrix R i + 1 :
  • the scanner 4 having been moved between the two successive quads corresponding to the clouds Nj and N i + 1 (for an acquisition frequency of 4 Hz, there is in practice a time shift of approximately 250 ms between the quads), the successive pairs of Structured stereoscopic images G r Dj and G i + 1 -D i + 1 , on the basis of which the clouds have been reconstructed, are unusable only for the calculation of the translation between clouds.
  • the projected pattern has moved on the surface 2 to be digitized, so that no reliable correlation can be made directly between the left images Gj and G i + 1 (respectively between the straight images Dj and D i + 1 ) pairs of images G r Dj and G i + 1 -D i + 1
  • the pairs of stereoscopic images textured G ' r D'i and G' i + 1 -D ' i + 1 of the quads are exploits the pairs of stereoscopic images textured G ' r D'i and G' i + 1 -D ' i + 1 of the quads.
  • G ' i + 1 for the corresponding points of G' , by means of a point tracking algorithm (for example the Lucas-Kanade point-tracking algorithm, see B. Lucas and T. Kanade, "An Iterative Image Registration Technique with an Application to Stereo Vision,” in Proceedings of Imaging Understanding Workshop, pp. 121-130, 1981) based on surface texture similarities of 2, acquired during the acquisition of textured images G'-D '(hence the usefulness of these images as part of the registration).
  • a point tracking algorithm for example the Lucas-Kanade point-tracking algorithm, see B. Lucas and T. Kanade, "An Iterative Image Registration Technique with an Application to Stereo Vision," in Proceedings of Imaging Understanding Workshop, pp. 121-130, 1981
  • This reinjection supposes either to have first corrected the textured images G ' j and G' i + 1 , or to rectify the points Pj G 'and Pj + ⁇ , so as to correspond at least locally the landmarks of the textured images with those structured images in which the points are reinjected.
  • FIG. 15 shows the clouds of FIG. 14, recalibrated.
  • the construction of the numerical model of the surface 2 is carried out from the clouds of points resulting from the resetting.
  • the final point cloud obtained by aggregation of the points clouds resulting from the resetting, has a high density (see figure 16, which shows ten clouds of successive points recalibrated).

Abstract

The invention relates to the use of a structured pattern in the construction of a three-dimensional digital model of a physical surface (2), in which the pattern is projected onto the surface (2), said pattern being formed by combining a primary pattern (28) comprising an array of spaced-apart continuous straight fringes (29) and a secondary anisotropic pattern (30) extending through the spaces between the fringes (29).

Description

Procédé de numérisation tridimensionnelle d'une surface comprenant la projection d'un motif combiné  Method for three-dimensional digitization of a surface comprising the projection of a combined pattern
L'invention a trait à la construction de modèles numériques tridimensionnels de surfaces physiques par mesure optique, sans contact. Cette technique est couramment appelée numérisation tridimensionnelle, numérisation 3D, ou encore, suivant la terminologie anglo-saxonne, scanning 3D. The invention relates to the construction of three-dimensional numerical models of physical surfaces by optical measurement, without contact. This technique is commonly called three-dimensional scanning, 3D scanning, or, in English terminology, 3D scanning.
L'architecture des systèmes de vision permettant de réaliser la numérisation 3D d'une surface comprend classiquement deux composants :  The architecture of vision systems for 3D digitizing a surface conventionally comprises two components:
un composant physique : le scanner (de préférence portatif), qui effectue une acquisition d'images de la surface, généralement par une succession de prises de vues (ponctuelles, en rafale ou en continu) de celle-ci ;  a physical component: the scanner (preferably portable), which acquires images of the surface, generally by a succession of shots (point, continuous or continuous) thereof;
un composant logiciel de traitement des images produites par le scanner, ce traitement permettant d'effectuer une reconstruction tridimensionnelle de synthèse de la surface, par exemple dans un environnement CAO (Conception assistée par ordinateur) ou CFAO (Conception et Fabrication assistées par ordinateur).  a software component for processing the images produced by the scanner, this processing making it possible to carry out a three-dimensional reconstruction of surface synthesis, for example in a computer-assisted design (CAD) or computer-aided design (CAD / CAM) environment.
L'acquisition des images est généralement effectuée par projection sur la surface à numériser d'un motif lumineux structuré ayant une forme prédéterminée (lignes, carrés, mouchetis, etc. ), puis par capture optique du motif projeté. Des traitements sont appliqués aux images capturées, permettant de calculer les coordonnées spatiales d'une sélection de points pour reconstruire le modèle tridimensionnel de la surface.  The acquisition of the images is generally carried out by projecting on the surface to be digitized a structured luminous pattern having a predetermined shape (lines, squares, speckles, etc.), then by optical capture of the projected pattern. Treatments are applied to the captured images, making it possible to calculate the spatial coordinates of a selection of points to reconstruct the three-dimensional model of the surface.
Sur la base de ce même principe fondamental, de nombreuses solutions ont été proposées, qui varient selon trois axes principaux : l'architecture du scanner ; la nature et la forme du motif projeté ; la méthodologie de reconstruction.  On the basis of this same fundamental principle, many solutions have been proposed, which vary according to three main axes: scanner architecture; the nature and form of the projected motif; the reconstruction methodology.
S'agissant en premier lieu des scanners, on en distingue généralement deux types : les scanners à caméra unique (vision monoculaire) , et les scanners à caméras multiples (vision binoculaire ou stéréovision ; vision multi-oculaire).  In the first place, scanners are generally divided into two types: single-camera scanners (monocular vision), and multi-camera scanners (binocular vision or stereovision, multi-ocular vision).
Dans les scanners fonctionnant en vision monoculaire, une seule image du motif déformé est produite. Cette image est ensuite comparée à une image de référence du motif non déformé pour effectuer la reconstruction. Les documents de brevet US 5003 166 (MIT), FR 2842591 (ENSMA/CNRS), WO2007/043036 (PRIME SENSE), US 2009/0059241 (ARTEC) et FR 2921 719 (NOOMEO) illustrent cette architecture. In scanners operating in monocular vision, only one image of the deformed pattern is produced. This image is then compared to a reference image of the undistorted pattern to perform the reconstruction. Patent documents US 5003 166 (MIT), FR 2842591 (ENSMA / CNRS), WO2007 / 043036 (PRIME SENSE), US 2009/0059241 (ARTEC) and FR 2921 719 (NOOMEO) illustrate this architecture.
Dans les scanners fonctionnant en vision binoculaire ou multi- oculaire, qui sont ceux qui nous intéressent ici, au moins deux images du motif déformé sont produites simultanément, et on effectue une comparaison de ces images pour effectuer la reconstruction. La demande internationale WO 2006/094409 (CREAFORM) illustre cette architecture.  In scanners operating in binocular or multiocular vision, which are those which interest us here, at least two images of the deformed pattern are produced simultaneously, and a comparison of these images is carried out to carry out the reconstruction. International application WO 2006/094409 (CREAFORM) illustrates this architecture.
S'agissant en second lieu du motif projeté, il peut être répétitif, par exemple sous forme de lignes ou de segments (cf. US 5003 166 précité), ou non répétitif, par exemple sous forme d'un mouchetis (cf. notamment FR 2842 591 et FR 2921 719 précités).  Secondly, in the case of the projected pattern, it may be repetitive, for example in the form of lines or segments (see US 5003 166 above), or non-repetitive, for example in the form of a speckle (cf. 2842 591 and FR 2921 719 cited above).
S'agissant enfin de la méthodologie de reconstruction, elle peut varier d'une solution à l'autre en matière de choix des algorithmes, mais comprend généralement trois étapes :  Lastly, with regard to the reconstruction methodology, it can vary from one solution to another in the choice of algorithms, but generally comprises three steps:
la rectification des images ;  rectification of images;
- la mise en correspondance ; - matching;
le calcul des coordonnées spatiales de points de la surface numérisée.  the calculation of the spatial coordinates of points of the digitized surface.
En stéréovision, la rectification des images est préférable pour faciliter leur exploitation ultérieure. Outre la correction des distorsions induites par les systèmes optiques, on applique généralement aux images un traitement de rectification épipolaire visant à rendre parallèles et alignées les droites épipolaires des deux images.  In stereovision, the rectification of images is preferable to facilitate their subsequent exploitation. In addition to correcting the distortions induced by the optical systems, images are generally applied to an epipolar rectification treatment to make the epipolar lines of the two images parallel and aligned.
La mise en correspondance ou corrélation consiste ensuite à apparier dans les images stéréoscopiques les homologues ou stéréo- correspondants, c'est-à-dire les projections dans les plans images d'un même point de la surface physique. La différence entre les coordonnées des stéréo-correspondants est appelée disparité.  The matching or correlation then consists in matching in the stereoscopic images the homologues or stereo- corresponding, that is to say the projections in the image planes of the same point of the physical surface. The difference between the coordinates of the stereo-correspondents is called disparity.
Une fois calculées les disparités, les coordonnées spatiales des points correspondants de la surface sont alors calculées par triangulation, le résultat des calculs fournissant un nuage de points localisés précisément dans l'espace. A partir d'un nuage de points, des techniques de mappage permettent d'obtenir une surface continue. La rectification des images est une problématique bien connue, pour laquelle des algorithmes performants et robustes existent depuis quelque temps déjà, cf. par exemple P. Lasserre et P. Grandjean, « Stereo improvements » , dans IEEE International Conférence on Advanced Robotics, Barcelone, 1 995. Once the disparities are calculated, the spatial coordinates of the corresponding points of the surface are then calculated by triangulation, the result of the calculations providing a cloud of points located precisely in space. From a scatter plot, mapping techniques provide a continuous surface. The rectification of images is a well-known problem, for which powerful and robust algorithms have existed for some time now, cf. for example P. Lasserre and P. Grandjean, "Stereo improvements", in IEEE International Conference on Advanced Robotics, Barcelona, 1995.
De même, une fois la mise en correspondance effectuée, les calculs de triangulation ne posent pas de problèmes particuliers.  Similarly, once the mapping is done, the triangulation calculations do not pose any particular problems.
En revanche, la problématique de la mise en correspondance est beaucoup plus complexe, et fait actuellement l'objet de nombreuses recherches pour parvenir à des solutions efficaces, rapides et robustes.  On the other hand, the problem of matching is much more complex, and is currently the subject of much research to achieve efficient, fast and robust solutions.
Pour un aperçu de certaines techniques de mise en correspondance (et, incidemment, une meilleure compréhension de la géométrie épipolaire en stéréovision) , cf. par exemple V. Lemonde, « Stéréovision embarquée sur véhicule : de l'auto-Calibrage à la Détection d'obstacles » , Thèse CNRS/I NSA, Novembre 2005, S. Chambon, « Mise en correspondance stéréoscopique d'images couleur en présence d'occultations », Thèse Université Paul Sabatier, Décembre 2005, et W. Souid-Miled, « Mise en correspondance stéréoscopique par approches variationnelles convexes » , Thèse Université Paris-Est/I NRIA, Décembre 2007.  For an overview of some mapping techniques (and, incidentally, a better understanding of epipolar geometry in stereovision), cf. for example V. Lemonde, "Stereovision on vehicle: from Self-Calibration to Obstacle Detection", CNRS / I NSA Thesis, November 2005, S. Chambon, "Stereoscopic mapping of color images in the presence occultations ", Thesis Paul Sabatier University, December 2005, and W. Souid-Miled," Stereoscopic mapping by convex variational approaches ", Thesis University Paris-Est / I NRIA, December 2007.
La complexité de la mise en correspondance croît avec le nombre de points que l'on souhaite apparier. En effet, s'il est relativement simple de sélectionner un faible nombre de points d'intérêt (par exemple situés dans un environnement fortement contrasté permettant de détecter facilement les stéréo-correspondants), un appariement plus dense se heurte rapidement à des difficultés d'analyse en raison de la présence d'ambiguïtés dans certaines zones des images qui pèchent par exemple par un aspect trop homogène, voire par l'absence totale de contenu (par exemple en raison de phénomènes d'occultation qui ne manquent pas d'apparaître, notamment pour des surfaces présentant des reliefs prononcés) .  The complexity of matching increases with the number of points you want to match. Indeed, while it is relatively simple to select a small number of points of interest (for example, located in a highly contrasting environment making it possible to easily detect the corresponding stereo-speakers), a denser pairing quickly encounters difficulties of analysis because of the presence of ambiguities in certain areas of the images which sin for example by a too homogeneous aspect, or even by the total absence of content (for example due to occultation phenomena which do not fail to appear, especially for surfaces with pronounced reliefs).
I l apparaît qu'une mauvaise conception du motif destiné à être projeté sur la surface à numériser est à l'origine de nombreuses erreurs de mise en correspondance et/ou d'une densité de reconstruction insuffisante.  It appears that a poor design of the pattern to be projected on the surface to be digitized is the source of numerous misregistration errors and / or insufficient reconstruction density.
Or les erreurs de mise en correspondance aboutissent à l'obtention de points manifestement aberrants qui doivent être éliminés au moyen de techniques de filtrage complexes. Cette élimination requiert de la puissance et du temps de calcul, elle diminue le nombre total de points utiles - et donc la densité de la reconstruction. Mismatch errors lead to the achievement of clearly aberrant points that must be eliminated by means of complex filtering techniques. This elimination requires power and calculation time, it decreases the total number of useful points - and therefore the density of the reconstruction.
On peut tenter de remédier à une insuffisance de densité en réitérant les opérations d'acquisition et de traitement, de sorte à générer plusieurs nuages de points qu'il est ensuite nécessaire de recaler dans l'espace en raison des décalages intervenus entre deux prises de vues successives. Mais les techniques de recalage sont complexes, et nécessitent une puissance et/ou un temps de calcul proportionnels au nombre de nuages à recaler.  We can try to remedy an insufficiency of density by reiterating the operations of acquisition and treatment, so as to generate several clouds of points which it is then necessary to recalibrate in the space because of the offsets between two taken of successive views. But the techniques of registration are complex, and require a power and / or a computation time proportional to the number of clouds to be recalibrated.
Les motifs répétitifs, tels que les alternances de lignes noires et blanches ou les quadrillages (cf. par exemple la figure 6 du document US 5 003 166 précité), qui ont l'avantage d'offrir un bon contraste, sont difficilement exploitables dans les systèmes de stéréovision car ils génèrent des erreurs de mise en correspondance en raison du caractère isotrope du motif, de sorte que des décalages peuvent se produire lors de la recherche de fenêtres de corrélation.  Repetitive patterns, such as alternating black and white lines or grids (see for example Figure 6 of US 5,003,166 cited above), which have the advantage of offering good contrast, are difficult to exploit in the stereovision systems because they generate matching errors due to the isotropic nature of the pattern, so offsets may occur when looking for correlation windows.
Les motifs pseudo-aléatoires, de type mouchetis (cf. par exemple la figure 7B du document US 5 003 166 ou le document FR 2 921 719 précité), ont l'avantage naturel de n'être pas répétitifs, de sorte que les risques de décalage lors de la recherche de fenêtres de corrélation sont faibles. En revanche, leur contraste est médiocre, ce qui complique la recherche de points d'intérêt.  The pseudo-random motifs, of the mouchetis type (see for example FIG. 7B of the document US Pat. No. 5,003,166 or the document FR 2,921,719 cited above), have the natural advantage of not being repetitive, so that the risks offset when looking for correlation windows are weak. On the other hand, their contrast is mediocre, which complicates the search for points of interest.
L'invention vise à proposer une solution remédiant notamment aux inconvénients précités, et facilitant une reconstruction fiable et dense d'un modèle numérique tridimensionnel d'une surface.  The aim of the invention is to propose a solution that overcomes the aforementioned drawbacks, and facilitates a reliable and dense reconstruction of a three-dimensional numerical model of a surface.
A cet effet, l'invention propose une utilisation d'un motif structuré dans la construction d'un modèle numérique tridimensionnel d'une surface physique, dans laquelle le motif est projeté sur la surface, ce motif étant formé par la combinaison d'un motif primaire comprenant un réseau de franges rectilignes continues espacées, et d'un motif secondaire anisotrope s'étendant dans les espaces entre franges.  For this purpose, the invention proposes a use of a structured pattern in the construction of a three-dimensional numerical model of a physical surface, in which the pattern is projected onto the surface, this pattern being formed by the combination of a primary pattern comprising an array of spaced continuous rectilinear fringes, and an anisotropic secondary pattern extending into the interframe spaces.
Une telle combinaison permet de cumuler les avantages des motifs isotropes, en offrant un bon contraste, et des motifs anisotropes, en minimisant le risque de confusion lors de l'identification de fenêtres de corrélation. L'invention propose par ailleurs un système de numérisation tridimensionnelle comprenant un dispositif de projection d'un motif lumineux, et un système de stéréovision, dans lequel le dispositif de projection est agencé pour projeter un motif lumineux tel que décrit ci- dessus. Such a combination makes it possible to combine the advantages of the isotropic patterns, by offering a good contrast, and anisotropic patterns, while minimizing the risk of confusion when identifying correlation windows. The invention also proposes a three-dimensional scanning system comprising a device for projecting a luminous pattern, and a stereovision system, in which the projection device is arranged to project a luminous pattern as described above.
L'invention propose également un procédé de construction d'un modèle numérique tridimensionnel d'une surface physique utilisant un motif tel que décrit ci-dessus, ce procédé comprenant les opérations suivantes :  The invention also proposes a method for constructing a three-dimensional digital model of a physical surface using a pattern as described above, this method comprising the following operations:
Projection du motif structuré sur la surface,  Projection of the structured pattern on the surface,
Acquisition et mémorisation d'au moins une image bidimensionnelle de la surface ainsi éclairée,  Acquisition and storage of at least one two-dimensional image of the illuminated surface,
Construction du modèle numérique à partir de l'image ainsi acquise.  Construction of the digital model from the image thus acquired.
Suivant un premier mode de réalisation, le motif primaire est monoorienté, les franges s'étendant suivant une direction unique.  According to a first embodiment, the primary pattern is monooriented, the fringes extending in a single direction.
Suivant un deuxième mode de réalisation, le motif primaire est bi- orienté, les franges s'étendant suivant deux directions, qui peuvent être perpendiculaire de sorte que les franges définissent un quadrillage.  According to a second embodiment, the primary pattern is bi-oriented, the fringes extending in two directions, which may be perpendicular so that the fringes define a grid.
Les franges peuvent être claires, et être bordées de lignes sombres entre lesquelles s'étend le motif secondaire.  The fringes can be clear, and be bordered by dark lines between which the secondary pattern extends.
En variante, les franges sont sombres ; elles peuvent être bordées de lignes claires doublées de lignes sombres.  Alternatively, the fringes are dark; they can be lined with light lines lined with dark lines.
Quant au motif secondaire, il comprend par exemple des tavelures ou des pictogrammes.  As for the secondary reason, it includes, for example, scabs or pictograms.
D'autres objets et avantages de l'invention apparaîtront à la lumière de la description faite ci-après en référence aux dessins annexés dans lesquels :  Other objects and advantages of the invention will become apparent in the light of the description given hereinafter with reference to the appended drawings in which:
la figure 1 est une vue en perspective illustrant un dispositif de numérisation tridimensionnelle comprenant un appareil de capture relié à un ordinateur, appliqué à la numérisation de la surface d'un objet, en l'occurrence le visage d'une statue ;  Figure 1 is a perspective view illustrating a three-dimensional scanning device comprising a capture apparatus connected to a computer, applied to the scanning of the surface of an object, in this case the face of a statue;
la figure 2 est une vue schématique de côté illustrant les principaux composants optiques de l'appareil de la figure 1 , placés dans une situation de prise de vue ; la figure 3 est une vue en plan d'un motif pour la projection sur une surface à numériser, selon une première variante de réalisation ; Figure 2 is a schematic side view illustrating the main optical components of the apparatus of Figure 1, placed in a shooting situation; Figure 3 is a plan view of a pattern for projection on a surface to be digitized, according to a first embodiment;
la figure 4 est une vue d'un détail du motif de la figure 3 ;  Figure 4 is a detail view of the pattern of Figure 3;
- la figure 5 est une vue en plan d'un motif pour la projection sur une surface à numériser, selon une deuxième variante de réalisation ; FIG. 5 is a plan view of a pattern for projecting onto a surface to be digitized, according to a second variant embodiment;
la figure 6 est une vue d'un détail du motif de la figure 5 ;  Figure 6 is a detail view of the pattern of Figure 5;
la figure 7 est une vue en plan d'un motif pour la projection sur une surface à numériser, selon une troisième variante de réalisation ;  Figure 7 is a plan view of a pattern for the projection on a surface to be digitized, according to a third embodiment;
la figure 8 est une vue d'un détail du motif de la figure 7 ;  Figure 8 is a detail view of the pattern of Figure 7;
la figure 9 est une en plan d'un motif pour la projection sur une surface à numériser, selon une quatrième variante de réalisation ; - la figure 10 est une vue d'un détail du motif de la figure 9 ;  Figure 9 is a plan of a pattern for projection on a surface to be digitized, according to a fourth embodiment; FIG. 10 is a view of a detail of the pattern of FIG. 9;
la figure 1 1 montre un couple d'images stéréoscopiques structurées du motif des figures 3 et 4 projeté sur le visage de la figure 1 ;  Figure 11 shows a pair of structured stereoscopic images of the pattern of Figures 3 and 4 projected on the face of Figure 1;
la figure 12 montre un couple d'images stéréoscopiques texturées du visage de la figure 1 ;  Fig. 12 shows a pair of textured stereoscopic images of the face of Fig. 1;
la figure 1 3 est une vue en perspective d'un nuage de points reconstruit à partir du couple d'images stéréoscopiques structurées de la figure 1 1 ;  FIG. 13 is a perspective view of a reconstructed point cloud from the pair of structured stereoscopic images of FIG.
la figure 14 est une vue en perspective montrant deux nuages de points non recalés, reconstruits à partir de deux couples d'images stéréoscopiques structurées capturées lors de deux prises de vues successives du visage de la statue de la figure 1 ;  FIG. 14 is a perspective view showing two non-recalibrated point clouds, reconstructed from two pairs of structured stereoscopic images captured during two successive shots of the face of the statue of FIG. 1;
la figure 1 5 est une vue similaire à la figure 14, montrant les deux nuages de points recalés ;  FIG. 15 is a view similar to FIG. 14, showing the two scattered point clouds;
- la figure 1 6 est une vue en perspective montrant une pluralité de nuages de points recalés, reconstruits à partir d'une série de couples d'images stéréoscopiques capturées lors d'une séquence de prises de vues successives du visage de la statue de la figure 1 . FIG. 16 is a perspective view showing a plurality of recalibrated point clouds, reconstructed from a series of pairs of stereoscopic images captured during a sequence of successive shots of the face of the statue of the figure 1 .
Sur la figure 1 est représenté un système 1 de numérisation optique sans contact, permettant de construire un modèle numérique tridimensionnel, sous forme d'une image de synthèse en environnement de DAO (dessin assisté par ordinateur) ou CAO (Conception assistée par ordinateur), d'une surface 2 physique, par exemple l'enveloppe d'un objet physique réel 3. En l'occurrence, cet objet 3 est une statue mais il pourrait s'agir de tout autre objet présentant une ou plusieurs surfaces à numériser. Généralement, la surface 2 à numériser est en relief, c'est-à-dire non plane, mais le système 1 , ainsi que le procédé mis en œuvre décrit ci-après, permettent a fortiori la numérisation de surfaces planes. (NB. pour respecter les prescriptions formelles en matière de dessins de brevets, la photographie de la statue sur la figure 1 a été filtrée et convertie pour un affichage en deux couleurs, d'où son aspect granuleux). FIG. 1 shows a non-contact optical scanning system 1 for constructing a digital model three-dimensional, in the form of a synthetic image in CAD (computer-assisted drafting) or CAD (computer-aided design) environment, of a physical surface 2, for example the envelope of a real physical object 3. In the occurrence, this object 3 is a statue but it could be any other object having one or more surfaces to be digitized. Generally, the surface 2 to be digitized is embossed, that is to say non-planar, but the system 1, as well as the method implemented described hereinafter, allow a fortiori the digitization of flat surfaces. (Note that to meet the formal requirements for patent drawings, the photograph of the statue in Figure 1 has been filtered and converted to two-color display, hence its granular appearance).
Le système 1 de numérisation comprend un appareil 4 d'acquisition (ou capture) optique, dénommé scanner, équipé d'un boîtier 5 portatif muni d'une poignée 6 permettant sa saisie et sa manipulation. La poignée 6 porte, sur une face avant, un déclencheur 7 manuel dont l'actionnement commande la prise de vue.  The scanning system 1 comprises an optical acquisition device 4 (called capture), called a scanner, equipped with a portable box 5 provided with a handle 6 for its capture and manipulation. The handle 6 carries, on a front face, a manual trigger 7 whose operation commands the shooting.
Le système 1 comprend également une unité centrale de traitement (UC ou CPU) des images capturées par le scanner 4, sous forme d'un processeur sur lequel est implémentée une application logicielle de construction des modèles numériques à partir des images capturées. Plus précisément, cette application logicielle comprend des instructions permettant de mettre en œuvre les opérations de calcul décrite ci- après.  The system 1 also comprises a central processing unit (CPU or CPU) of the images captured by the scanner 4, in the form of a processor on which is implemented a software application for building the digital models from the captured images. More specifically, this software application includes instructions for carrying out the calculation operations described below.
Le processeur peut être embarqué dans le scanner 4 ou, comme cela est illustré sur la figure 1 , délocalisé en étant intégré dans un ordinateur 8 équipé d'une interface graphique et relié au scanner 4 par l'intermédiaire d'une interface 9 de communication filaire (ou sans fil), par exemple sous forme d'un bus informatique de type USB.  The processor can be embedded in the scanner 4 or, as illustrated in FIG. 1, relocated by being integrated in a computer 8 equipped with a graphical interface and connected to the scanner 4 via a communication interface 9 wired (or wireless), for example in the form of a USB-type computer bus.
Le scanner 4 est conçu pour fonctionner en stéréovision. Comme cela est visible sur les figures 1 et 2, il comprend, montés dans le boîtier 5 :  The scanner 4 is designed to work in stereovision. As can be seen in FIGS. 1 and 2, it comprises, mounted in the housing 5:
un projecteur 10 lumineux ;  a bright projector;
un système 1 1 de stéréovision comprenant une paire de dispositifs 12, 13 d'acquisition optique, de type caméras a system 1 1 of stereovision comprising a pair of optical acquisition devices 12, 13, of the camera type
(c'est-à-dire conçu pour réaliser des prises de vues en continu, par exemple à la cadence normalisée de 24 images par seconde), ou appareils photographiques (c'est-à-dire réalisant des prises de vues ponctuelles, éventuellement en rafale) ; (ie designed for continuous shooting, for example at the normal frame rate of 24 frames per second), or cameras (that is to say shooting occasionally, possibly burst);
un système 14 de visée optique ;  an optical sighting system 14;
- une centrale 15 inertielle, configurée pour fournir à tout instant un référentiel absolu invariant, construit à partir de deux directions orthogonales identifiables par la centrale 15, à savoir le Nord magnétique et la verticale.  an inertial central unit, configured to provide at any time an invariant absolute reference, constructed from two orthogonal directions identifiable by the central unit 15, namely the magnetic north and the vertical.
On suppose dans ce qui suit que les dispositifs 12, 13 d'acquisition optique sont des caméras, qui, au besoin, peuvent être employées comme appareils photographiques.  It is assumed in the following that the optical acquisition devices 12, 13 are cameras, which, if necessary, can be used as cameras.
Le projecteur 10 comprend une source lumineuse (non visible), une optique 16 de focalisation et une diapositive (non visible), interposée entre la source lumineuse et l'optique 16 de focalisation.  The projector 10 comprises a light source (not visible), a focusing optics 16 and a slide (not visible) interposed between the light source and the focusing optics 16.
La source lumineuse est de préférence une source non cohérente de lumière blanche, notamment de type à filament ou halogène, ou encore à diode (LED).  The light source is preferably a non-coherent source of white light, in particular of the filament or halogen type, or also of the diode (LED) type.
L'optique 16 de focalisation du projecteur 10 définit un axe optique principal 17 passant par la source lumineuse. Cet axe optique 17 définit un axe optique de projection du scanner 4.  The focusing optics 16 of the projector 10 define a main optical axis 17 passing through the light source. This optical axis 17 defines an optical axis of projection of the scanner 4.
Les caméras 12, 13 comprennent chacune :  The cameras 12, 13 each comprise:
une optique 18 de focalisation définissant un axe optique 19 (respectivement 20) de visée,  a focusing optics 18 defining an optical axis 19 (respectively 20) of sight,
un capteur 21 photosensible, par exemple de type CCD, qui se présente sous forme d'une plaque carrée ou rectangulaire placée, en regard de l'optique 18 de focalisation, sur l'axe optique 19, 20, c'est-à-dire perpendiculairement à celui-ci et de sorte que l'axe 19, 20 passe par le centre du capteur 21.  a photosensitive sensor 21, for example of the CCD type, which is in the form of a square or rectangular plate placed, facing the focusing optics 18, on the optical axis 19, 20, that is to say perpendicular to it and so that the axis 19, 20 passes through the center of the sensor 21.
Les centres optiques des caméras 12, 13 sont espacés l'un de l'autre d'une distance appelée base, leurs axes optiques 19, 20 convergeant vers un point 22 situé sur l'axe optique 17 du projecteur 10, dans le champ de celui-ci. En pratique, on orientera les caméras 12, 13 de telle sorte que le point de convergence de leurs axes optiques 19, 20 se trouve dans un plan médian situé dans le champ de projection et dans la zone de netteté (également appelé profondeur de champ) du projecteur 10. Le capteur 21 de chaque caméra 12, 13 est placé à une distance prédéterminée de l'optique 18 de focalisation, dans un plan image dépendant de sa focale et tel que le plan objet correspondant à ce plan image se trouve dans la zone de netteté du projecteur 10. The optical centers of the cameras 12, 13 are spaced from one another by a distance called base, their optical axes 19, 20 converging towards a point 22 situated on the optical axis 17 of the projector 10, in the field of this one. In practice, the cameras 12, 13 will be oriented such that the point of convergence of their optical axes 19, 20 lies in a median plane situated in the projection field and in the sharpness zone (also called depth of field) of the projector 10. The sensor 21 of each camera 12, 13 is placed at a predetermined distance from the focusing optics 18, in an image plane depending on its focal length and such that the object plane corresponding to this image plane is in the sharpness zone of the camera. projector 10.
Comme cela est illustré sur la figure 2, le projecteur 10 et les caméras 12, 13 sont fixés sur une platine 23 commune monobloc, réalisée dans un matériau suffisamment rigide pour minimiser les risques de désaxement des caméras 1 2, 13 (un tel désaxement est appelé décalibrage). En pratique, la platine 23 est réalisée dans un alliage d'aluminium.  As shown in FIG. 2, the projector 10 and the cameras 12, 13 are fixed on a common one-piece plate 23, made of a sufficiently rigid material to minimize the risks of misalignment of the cameras 1 2, 13 (such a misalignment is called scaling). In practice, the plate 23 is made of an aluminum alloy.
Comme cela est visible sur la figure 1 , la poignée 6 du scanner 4 s'étend parallèlement à la base, de sorte que la tenue naturelle du scanner 4 est verticale, les caméras 12, 13 s'étendant l'une au-dessus de l'autre. Par convention toutefois, on dénomme caméra gauche la caméra supérieure 12 (située du côté du pouce) et caméra droite la caméra inférieure 13.  As can be seen in FIG. 1, the handle 6 of the scanner 4 extends parallel to the base, so that the natural hold of the scanner 4 is vertical, the cameras 12, 13 extending one above the other. the other. By convention, however, the left camera is referred to as the upper camera 12 (located on the thumb side) and the right camera as the lower camera 13.
Le système 14 de visée est agencé pour permettre, préalablement à la prise de vue, un positionnement du scanner 4 à une distance de la surface 2 à numériser telle que le motif projeté soit inclus dans le champ du projecteur 10 - et soit par conséquent net.  The aiming system 14 is arranged to allow, prior to the shooting, a positioning of the scanner 4 at a distance from the surface 2 to be digitized such that the projected pattern is included in the field of the projector 10 - and therefore net .
Comme cela est illustré sur la figure 2, le système 14 de visée comprend deux pointeurs laser 24 montés rigidement sur la platine 23, conçus pour émettre chacun, lorsque le déclencheur 7 est enfoncé, un faisceau lumineux linéaire 25, 26 produisant, sur toute surface éclairée, une tache lumineuse sensiblement ponctuelle.  As illustrated in FIG. 2, the aiming system 14 comprises two laser pointers 24 rigidly mounted on the plate 23, designed to emit each, when the trigger 7 is depressed, a linear light beam 25, 26 producing on any surface illuminated, a light spot substantially punctual.
Les pointeurs 24 sont positionnés angulairement sur la platine 23 pour que les faisceaux 25, 26 émis se croisent en un point d'intersection 27 situé sur l'axe 17 du projecteur 10, dans la zone de netteté de celui-ci et en amont du point 22 de convergence des axes optiques 19, 20 des caméras 12, 13.  The pointers 24 are positioned angularly on the plate 23 so that the beams 25, 26 emitted cross at a point of intersection 27 located on the axis 17 of the projector 10, in the sharpening zone thereof and upstream of the point 22 of convergence of the optical axes 19, 20 of the cameras 12, 13.
La diapositive est disposée entre la source lumineuse et l'optique 16 du projecteur 10, sur l'axe 17, c'est-à-dire perpendiculairement à l'axe 1 7 et de sorte que celui-ci passe par le centre de la diapositive. La diapositive est placée à une distance prédéterminée de l'optique 16 dont elle constitue un plan objet, de telle sorte que l'image du motif soit nette dans un plan image perpendiculaire à l'axe 17. En pratique, le plan image n'est pas unique, l'optique de focalisation du projecteur 10 étant conçue (ou réglée) pour présenter une certaine profondeur de champ, telle que l'image du motif projeté soit nette dans une certaine zone de netteté qui s'étend entre deux plans espacés perpendiculaires à l'axe 17. The slide is disposed between the light source and the optic 16 of the projector 10, on the axis 17, that is to say perpendicularly to the axis 1 7 and so that it passes through the center of the slide. The slide is placed at a predetermined distance from the optics 16 of which it constitutes an object plane, so that the image of the pattern is sharp in an image plane perpendicular to the axis 17. In practice, the image plane n ' is not unique, the focusing optics of the projector 10 being designed (or adjusted) to have a certain depth of field, such that the image of the projected pattern is sharp in a certain area of sharpness that extends between two spaced planes perpendicular to the axis 17.
La diapositive se présente sous la forme d'une plaque translucide ou transparente (en verre ou en matière plastique), carrée ou rectangulaire, sur laquelle le motif est imprimé par un procédé classique (transfert, offset, sérigraphie, flexographie, laser, jet d'encre, microlithographie, etc. ).  The slide is in the form of a translucent or transparent plate (glass or plastic), square or rectangular, on which the pattern is printed by a conventional process (transfer, offset, screen printing, flexography, laser, spray jet). ink, microlithography, etc.).
Le motif est structuré, c'est-à-dire qu'il présente des alternances de zones claires et de zones sombres d'une forme prédéterminée. La constitution du motif (couleur, contraste) n'est pas aléatoire : elle est connue en tout point. Le motif peut être réalisé en niveaux de gris ou en couleurs, mais il est de préférence réalisé en noir et blanc, ce qui maximise le contraste entre zones claires et zones sombres.  The pattern is structured, that is to say it has alternations of light areas and dark areas of a predetermined shape. The constitution of the pattern (color, contrast) is not random: it is known in every respect. The pattern can be done in grayscale or color, but is preferably made in black and white, maximizing the contrast between light and dark areas.
Plus précisément, le motif comprend la combinaison de deux sous- motifs, à savoir :  More specifically, the pattern comprises the combination of two sub-patterns, namely:
Un motif primaire 28 régulier, comprenant un réseau de franges 29 rectilignes continues espacées, et  A regular primary pattern 28 comprising an array of spaced, continuous rectilinear fringes 29, and
- un motif secondaire 30 globalement anisotrope, c'est-à-dire irrégulier et non répétitif dans toute direction de l'espace. a secondary, generally anisotropic, i.e., irregular and non-repetitive secondary pattern in any direction of space.
On a représenté sur les figures 3 à 1 0 quatre variantes de motifs pouvant être utilisés dans le système de numérisation.  FIGS. 3 to 10 show four variants of patterns that can be used in the digitization system.
Suivant un mode de réalisation illustré sur les figures 3 à 8 qui illustrent trois variantes, le motif secondaire 30 comprend des tavelures 31 s'étendant dans les espaces entre franges 29. Suivant un autre mode de réalisation illustré sur les figures 9 et 1 0, le motif secondaire 30 comprend des pictogrammes agencés de manière pseudo-aléatoire.  According to an embodiment illustrated in FIGS. 3 to 8 which illustrate three variants, the secondary pattern 30 comprises scabs 31 extending in the spaces between the fringes 29. According to another embodiment illustrated in FIGS. 9 and 10, the secondary pattern 30 includes pictograms arranged pseudo-randomly.
Un motif secondaire 30 à tavelures tel qu'illustré sur les figures 3 à 8 peut être généré de manière automatique au moyen d'un programme d'ordinateur permettant de réaliser des motifs pseudo-aléatoires. Citons à titre d'exemple l'algorithme de Ken Perlin générant un type de mouchetis bien connu appelé Bruit de Perlin, qui présente l'avantage d'être anisotrope. Dans le détail, ce type de motif comprend un entrelacement de taches noires et blanches qui donnent un aspect granuleux au motif. Le terme « tavelure » désigne cet entrelacement. En anglais, ce type de motif est également dénommé « Speckle ». Comme nous le verrons plus en détail ci-après, le motif primaire 28 a pour fonction de générer localement un fort contraste, aisément détectable, entre zones claires blanches et zones sombres, tandis que le motif secondaire 30 a pour fonction, par sa nature anisotrope, de localiser dans l'image avec certitude toute fenêtre de visualisation. A scabby secondary pattern as shown in FIGS. 3 to 8 can be generated automatically by means of a computer program for performing pseudorandom patterns. One example is Ken Perlin's algorithm generating a well-known type of mouchetis called Perlin noise, which has the advantage of being anisotropic. In detail, this type of pattern includes an interweaving of black and white spots that give a grainy appearance to the pattern. The term "scab" refers to this interlacing. In English, this type of pattern is also called "Speckle". As will be seen in more detail below, the primary pattern 28 has the function of locally generating a strong, easily detectable contrast between white light areas and dark areas, while the secondary pattern 30 functions by its anisotropic nature. , to locate in the image with certainty any viewing window.
Dans la première variante du premier mode de réalisation, représentée dans son ensemble sur la figure 3 et en détail à échelle agrandie sur la figure 4, le motif primaire 28 est mono-orienté et comprend une série de franges 29 claires (blanches en l'occurrence) qui s'étendent verticalement dans l'orientation illustrée sur les figures 3 et 4, bordées chacune, de part et d'autre, par deux bandes sombres 32 (noires en l'occurrence) parallèles, semblables.  In the first variant of the first embodiment, shown in its entirety in FIG. 3 and in detail on an enlarged scale in FIG. 4, the primary pattern 28 is single-oriented and comprises a series of clear fringes 29 (white in color). occurrence) which extend vertically in the orientation illustrated in Figures 3 and 4, each bordered on either side by two parallel strips 32 (black in this case) parallel, similar.
La largeur des franges 29 est constante, de même que l'espacement entre franges 29.  The width of the fringes 29 is constant, as is the spacing between fringes 29.
Comme cela est visible sur la figure 3, et plus en détail sur la figure 4, les tavelures 31 du motif secondaire 30 s'étendent par bandes dans les espaces entre franges 29, et plus précisément entre les bandes noires 32 bordant les franges 29 blanches.  As can be seen in FIG. 3, and in more detail in FIG. 4, the scabs 31 of the secondary pattern 30 extend in strips in the spaces between the fringes 29, and more precisely between the black strips 32 bordering the white fringes 29. .
Compte tenu du caractère mono-directionnel du motif primaire 28, il existe une orientation préférée du motif général, par rapport au positionnement du système 1 1 de stéréovision . En effet, l'image est imprimée sur la diapositive - ou celle-ci est orientée - de manière que les franges 29 s'étendent perpendiculairement à la base, c'est-à-dire à l'axe reliant les centres optiques des caméras 12, 13. En d'autres termes, les franges 29 s'étendent perpendiculairement au plan contenant les axes optiques 19, 20 des caméras 12, 13, afin qu'en vision stéréoscopique les franges 29 s'étendent verticalement sur les images capturées par les caméras 12, 13.  Given the mono-directional nature of the primary pattern 28, there is a preferred orientation of the general pattern, relative to the positioning of the system 1 1 stereovision. Indeed, the image is printed on the slide - or it is oriented - so that the fringes 29 extend perpendicularly to the base, that is to say to the axis connecting the optical centers of the cameras 12, 13. In other words, the fringes 29 extend perpendicular to the plane containing the optical axes 19, 20 of the cameras 12, 13, so that in stereoscopic vision the fringes 29 extend vertically on the images captured by the cameras 12, 13.
Quoi qu'il en soit, la présence de franges 29 claires, bordées de bandes noires 32, permet de munir le motif de zones contrastées qui pourront être identifiées lors du traitement des images, comme nous l'expliquerons plus en détail ci-après.  Be that as it may, the presence of clear fringes 29, bordered with black bands 32, makes it possible to provide the pattern with contrasting zones that can be identified during image processing, as will be explained in more detail below.
Ce type de motif est avantageux en comparaison d'un mouchetis simple qui apparaîtrait peu contrasté, car les taches noires et blanches de la diapositive formeraient, par projection, des taches en niveaux de gris. Quant à un motif isotrope fait par exemple de seules franges, il est par nature non adapté à la stéréovision, car non localisable et donc impropre à la mise en correspondance. This type of pattern is advantageous in comparison with a simple speckle which appears to be of low contrast, since the black and white spots of the slide would, by projection, form grayscale spots. As for an isotropic pattern made for example of single fringes, it is by nature not adapted to stereovision, because it is not locatable and therefore unsuitable for matching.
Dans la deuxième variante, représentée dans son ensemble sur la figure 5 et en détail à échelle agrandie sur la figure 6, le motif primaire 28 est bi-orienté et comprend une série de franges claires 29 (blanches en l'occurrence) qui s'étendent à la fois horizontalement et verticalement pour former un quadrillage. Chaque frange claire 29 horizontale et verticale est bordée, de part et d'autre, par des bandes sombres 32 (noires en l'occurrence) discontinues qui, ensemble, forment un réseau de carrés isolés régulièrement espacés à bords noirs.  In the second variant, shown as a whole in FIG. 5 and in enlarged detail in FIG. 6, the primary pattern 28 is bi-oriented and comprises a series of light fringes 29 (white in this case) which extend both horizontally and vertically to form a grid. Each horizontal and vertical fringe 29 is bordered, on both sides, by discontinuous black (black) lines, which together form a network of regularly spaced isolated squares with black edges.
Comme cela est visible sur la figure 5, et plus en détail sur la figure 6, les tavelures 31 du motif secondaire 30 s'étendent par blocs dans les espaces entre franges 29, c'est-à-dire dans les carrés délimités par les bandes noires 32.  As can be seen in FIG. 5, and in more detail in FIG. 6, the scabs 31 of the secondary pattern 30 extend in blocks in the spaces between the fringes 29, that is to say in the squares delimited by the black bands 32.
Cette deuxième variante du motif présente, par rapport à la première variante, l'avantage d'être bi-orientée, de sorte qu'il n'existe pas de direction privilégiée de projection du motif sur la surface 2, par rapport à l'orientation du scanner 4. En outre, la multiplication des franges 29 permet d'augmenter la densité de zones contrastées du motif, en l'espèce au niveau des franges 29.  This second variant of the pattern has, compared to the first variant, the advantage of being bi-oriented, so that there is no preferred direction of projection of the pattern on the surface 2, with respect to the orientation of the scanner 4. In addition, the multiplication of the fringes 29 makes it possible to increase the density of the contrasting zones of the pattern, in this case at the level of the fringes 29.
Dans la troisième variante, représentée dans son ensemble sur la figure 7 et en détail à échelle agrandie sur la figure 8, le motif primaire 28 est bi-orienté et comprend une série de franges 29 sombres (noires en l'occurrence) qui s'étendent à la fois horizontalement et verticalement pour former un quadrillage. Chaque frange 29 horizontale et verticale est bordée, de part et d'autre, par des bandes claires 32 (blanches en l'occurrence) discontinues qui, ensemble, forment un réseau de carrés isolés régulièrement espacés à bords 32 blancs. En outre, les bords 32 de chaque carré sont doublés, vers l'intérieur, de bandes noires 33, de sorte que chaque carré comporte un double périmètre, composé d'un périmètre extérieur blanc et d'un périmètre intérieur noir. Outre qu'elle présente le même bénéfice que la deuxième variante d'être bi-orientée, cette troisième variante présente en outre l'avantage d'accroître encore la densité de zones contrastées du motif.  In the third variant, shown as a whole in FIG. 7 and in enlarged detail in FIG. 8, the primary pattern 28 is bi-oriented and comprises a series of dark fringes 29 (black in this case) which extend both horizontally and vertically to form a grid. Each horizontal and vertical fringe 29 is bordered, on both sides, by discontinuous light strips 32 (white in this case) which together form a network of regularly spaced isolated squares with white edges. In addition, the edges 32 of each square are lined, inward, with black bands 33, so that each square has a double perimeter, consisting of a white outer perimeter and a black inner perimeter. In addition to having the same benefit as the second variant of being bi-oriented, this third variant also has the advantage of further increasing the density of contrasting areas of the pattern.
Dans le deuxième mode de réalisation, illustré dans son ensemble sur la figure 9 et en détail à échelle agrandie sur la figure 1 0, le motif primaire 28 est bi-orienté, et comprend une série de franges claires 29 (blanches en l'occurrence) qui s'étendent à la fois horizontalement et verticalement pour former un quadrillage. Les carrés délimités par les franges 29 présentent un fond sombre (noir en l'occurrence) sur lequel se détachent des pictogrammes 34 de couleur claire (blanc en l'occurrence). In the second embodiment, illustrated as a whole in FIG. 9 and in detail on an enlarged scale in FIG. primary 28 is bi-oriented, and comprises a series of clear fringes 29 (white in this case) that extend both horizontally and vertically to form a grid. The squares delimited by the fringes 29 have a dark background (black in this case) on which stand out pictograms 34 of light color (white in this case).
Comme cela est visible sur la figure 9, on peut n'utiliser qu'un nombre limité de pictogrammes 34 différents. Toutefois, afin de rendre globalement anisotrope le motif secondaire 30, les pictogrammes 34 sont répartis de manière pseudo-aléatoire et de telle sorte que le voisinage de chaque pictogramme 34 (par exemple les pictogrammes 34 adjacents situés sur une même ligne, ou sur une même colonne) soit différent des voisinages de tous les autres pictogrammes 34. Ce motif présente l'avantage d'être plus contrasté que les motifs à tavelures, ce qui facilite les opérations de mise en correspondance (voir ci-après).  As can be seen in FIG. 9, only a limited number of different pictograms 34 can be used. However, in order to make the secondary pattern 30 generally anisotropic, the pictograms 34 are distributed pseudo-randomly and so that the vicinity of each pictogram 34 (for example the adjacent pictograms 34 located on the same line, or on the same column) is different from the neighborhoods of all the other pictograms 34. This pattern has the advantage of being more contrasted than the scab patterns, which facilitates matching operations (see below).
On décrit à présent le fonctionnement du système 1 de numérisation tridimensionnelle. Ce fonctionnement repose sur la succession des étapes suivantes, réalisées après une étape préalable de calibrage du système 11 de stéréovision :  The operation of the three-dimensional scanning system 1 is now described. This operation is based on the succession of the following steps, performed after a prior calibration step of the stereovision system 11:
- Numérisation de la surface 2 ; - Digitization of surface 2;
Rectification des images ;  Rectification of images;
Reconstruction de nuages de points ;  Reconstruction of point clouds;
Recalage des nuages de points ;  Recalibration of point clouds;
Construction du modèle tridimensionnel.  Construction of the three-dimensional model.
Calibrage Calibration
Le calibrage du système 1 1 de stéréovision est une étape préalable indispensable, sans laquelle il n'est pas possible de traiter convenablement les informations capturées par les caméras 12, 13.  The calibration of the stereovision system 1 1 is a necessary preliminary step, without which it is not possible to properly process the information captured by the cameras 12, 13.
Le calibrage d'une caméra unique (en vision monoculaire) se limite à estimer les paramètres intrinsèques de la caméra ainsi que sa position par rapport à un référentiel absolu. Le calibrage du système 1 1 de stéréovision est plus complexe, car il suppose d'effectuer un calibrage double, qui comprend non seulement l'estimation des paramètres intrinsèques de chaque caméra 12, 13, mais également la position et l'orientation relatives des caméras 12, 13 l'une par rapport à l'autre. En pratique, le calibrage consiste à apparier les deux caméras 12, 13 en implémentant dans l'UC du système 1 de numérisation un nombre donné de paramètres structurels et optiques du système 1 1 de stéréovision, notamment la position des centres optiques et l'angle entre les axes optiques 19, 20. The calibration of a single camera (in monocular vision) is limited to estimate the intrinsic parameters of the camera as well as its position relative to an absolute reference frame. Calibration of the system 1 1 stereovision is more complex because it involves performing a double calibration, which includes not only the estimation of the intrinsic parameters of each camera 12, 13, but also the relative position and orientation of the cameras 12, 13 relative to each other. In practice, the calibration consists of matching the two cameras 12, 13 by implementing in the digitization system CPU 1 a given number of structural and optical parameters of the stereovision system 1 1, in particular the position of the optical centers and the angle between the optical axes 19, 20.
Ce calibrage n'est pas nécessairement réalisé avant chaque utilisation du système 1. Il est de préférence réalisé en usine, à l'aide d'une mire (par exemple un damier) dont la géométrie est connue avec exactitude.  This calibration is not necessarily performed before each use of the system 1. It is preferably carried out at the factory, using a test pattern (for example a checkerboard) whose geometry is known exactly.
On peut réaliser le calibrage du système 1 1 de stéréovision selon une procédure et des algorithmes connus. A cet effet, l'homme du métier pourra notamment se référer à V. Lemonde, « Stéréovision embarquée sur véhicule : de l'auto-Calibrage à la Détection d'obstacles », Thèse, CNRS/I NSA, Novembre 2005, précité, ou à B. Bocquillon, « Contributions à l'autocalibrage des caméras : modélisations et solutions garanties par l'analyse d'intervalle » , Thèse, Université de Toulouse, Octobre 2008.  It is possible to calibrate the stereovision system 1 1 according to a known procedure and algorithms. For this purpose, the skilled person may in particular refer to V. Lemonde, "Stereovision embedded on vehicle: self-calibration to the detection of obstacles", Thesis, CNRS / I NSA, November 2005, cited above, or B. Bocquillon, "Contributions to the autocalibration of cameras: models and solutions guaranteed by interval analysis", Thesis, University of Toulouse, October 2008.
Numérisation scanning
La numérisation est l'étape d'acquisition d'un ou plusieurs couples d'images stéréoscopiques de la surface 2. Plus précisément, la procédure de numérisation comprend la succession des opérations suivantes.  Scanning is the step of acquiring one or more pairs of stereoscopic images of the surface 2. More specifically, the scanning procedure comprises the succession of the following operations.
En premier lieu, le scanner 4 est positionné face à la surface 2 à numériser - en l'occurrence face au visage de la statue.  In the first place, the scanner 4 is positioned facing the surface 2 to be digitized - in this case facing the face of the statue.
Une impulsion sur le déclencheur 7 provoque l'allumage des pointeurs 24. Le scanner 4 peut alors être positionné correctement, la concordance des points lumineux produits par les lasers sur la surface 2 signifiant que celle-ci est située dans le champ du projecteur 10 et des caméras 12, 13.  A pulse on the trigger 7 causes the lighting of the pointers 24. The scanner 4 can then be positioned correctly, the concordance of the light spots produced by the lasers on the surface 2 signifying that it is located in the field of the projector 10 and cameras 12, 13.
Une fois positionné le scanner 4, la procédure d'acquisition est alors initiée par un appui prolongé sur le déclencheur 7. La procédure se poursuit tant que le déclencheur 7 est maintenu enfoncé. Cette procédure comprend la succession des opérations suivantes :  Once positioned the scanner 4, the acquisition procedure is then initiated by a long press on the trigger 7. The procedure continues as long as the trigger 7 is held down. This procedure consists of the following steps:
a.1 ) Allumage du projecteur 10. Cet allumage provoque la projection du motif sur la surface 2. a.1) Lighting the projector 10. This lighting causes the projection of the pattern on the surface 2.
a.2) Extinction des pointeurs (pour éviter l'aveuglement des caméras a.2) Extinction of pointers (to avoid camera blindness
12, 13) et acquisition par les caméras 12, 13 d'un premier couple d'images stéréoscopiques bidimensionnelles de la surface 2 ainsi éclairée. Ces images sont dites structurées car elles contiennent le motif structuré projeté sur la surface 2, suivant les deux points de vue différents des caméras 12, 13. Bien que le système 1 1 de stéréovision ne soit pas nécessairement orienté horizontalement, on dénomme par convention image gauche et l'on note G l'image structurée produite par la caméra gauche 12, et image droite - notée D - l'image structurée produite par la caméra droite 13. L'acquisition d'une image comprend en fait deux étapes. D'abord la prise de vue, lors de laquelle l'image s'imprime sur les cellules photosensibles du capteur 21 , puis la lecture de l'image par l'électronique embarquée de la caméra 12, 13, avec mise progressive de l'image, sous forme numérique, dans une mémoire tampon embarquée dans la caméra. Les capteurs 21 étant bloqués pendant leur lecture, les caméras sont momentanément inutilisables et par conséquent mises en attente, 12, 13) and acquisition by the cameras 12, 13 of a first couple two-dimensional stereoscopic images of the surface 2 thus illuminated. These images are said to be structured because they contain the structured pattern projected on the surface 2, according to the two different points of view of the cameras 12, 13. Although the system 1 1 of stereovision is not necessarily oriented horizontally, conventionally we call image left and G is the structured image produced by the left camera 12, and right image - denoted D - the structured image produced by the right camera 13. The acquisition of an image comprises in fact two steps. First the shooting, during which the image is printed on the photosensitive cells of the sensor 21, then the reading of the image by the on-board electronics of the camera 12, 13, with progressive setting of the image, in digital form, in a buffer embedded in the camera. The sensors 21 being blocked during their reading, the cameras are momentarily unusable and consequently put on hold,
a.3) Mémorisation du couple d'images stéréoscopiques structurées G- D : une fois la mise en mémoire tampon des images G et D achevée, celles-ci peuvent être transmises à l'UC du système 1 1 où elles sont mémorisées pour traitement (voir les phases de rectification et de reconstruction décrites ci-après). Un couple d'images stéréoscopique structurées G-D du visage 2 de la statue 1 est illustré sur la figure 13. Cette figure est fournie à titre illustratif, les images G-D n'étant pas nécessairement affichées sur l'interface graphique de l'ordinateur 8. a.3) Memorization of the G-D structured stereoscopic image pair: once the G and D images have been buffered, they can be transmitted to the system CPU 1 1 where they are stored for processing (see the rectification and reconstruction phases described below). A pair of G-D structured stereoscopic images of the face 2 of the statue 1 is illustrated in FIG. 13. This figure is provided for illustrative purposes, the G-D images not necessarily being displayed on the graphical interface of the computer 8.
a.4) Extinction du projecteur 10. Cette extinction peut être commandée immédiatement après l'acquisition des images structurées G et D, par exemple pendant la lecture des images, ou pendant leur mémorisation par l'UC du système 1 1 . a.4) Shutdown of the projector 10. This shutdown can be controlled immediately after the acquisition of the structured images G and D, for example during the reading of the images, or during their storage by the CPU of the system 1 1.
a.5) Acquisition par les caméras 12, 1 3 d'un second couple d'images stéréoscopiques bidimensionnelles de la surface 2 non éclairée (et non pointée). Cette opération est similaire à l'opération a.2) , à la différence que les images ne sont pas structurées, le motif n'ayant pas été projeté sur la surface 2. a.5) Acquisition by the cameras 12, 1 3 of a second pair of two-dimensional stereoscopic images of the unlit (and not pointed) surface 2. This operation is similar to the operation a.2), except that the images are not structured, the pattern has not been projected on the surface 2.
Les images de la surface 2 non éclairée sont effectuées en lumière naturelle (ambiante) , éventuellement agrémentée d'une lumière blanche produite par exemple par des diodes électroluminescentes (LED) équipant le scanner 4. Ainsi , selon un mode particulier de réalisation, le scanner 4 est équipé en façade de deux séries circulaires de LED entourant les optiques 18 des caméras 12, 13 et orientées suivant les axes 19, 20 de celles-ci. The images of the unlit surface 2 are made in natural light (ambient), possibly embellished with a white light produced for example by light-emitting diodes. (LED) equipping the scanner 4. Thus, according to a particular embodiment, the scanner 4 is equipped in front of two circular series of LEDs surrounding the optics 18 of the cameras 12, 13 and oriented along the axes 19, 20 of these this.
Ces images sont dites texturées, car en l'absence du motif projeté elles contiennent la texture naturelle de la surface 2. L'image gauche est notée G' ; l'image droite D' . Les images G' et D' sont lues par l'électronique interne des caméras 12, 13 et stockées en mémoire tampon. Pendant ce temps, les caméras 12, 13 sont mises en attente.  These images are said to be textured, because in the absence of the projected motif they contain the natural texture of the surface 2. The left image is denoted G '; the right image D '. The images G 'and D' are read by the internal electronics of the cameras 12, 13 and stored in the buffer memory. Meanwhile, the cameras 12, 13 are put on hold.
a.6) Mémorisation des images texturées G'-D' . Une fois achevée la mise en mémoire tampon des images G' et D' , celles-ci sont transmises à l'UC du système 1 1 où elles sont mémorisées pour traitement avec le couple d'images stéréoscopiques structurées G- D. Un couple d'images stéréoscopique texturées G'-D' du visage 2 de la statue 1 est illustré sur la figure 14. (NB. pour respecter les prescriptions formelles en matière de dessins de brevets, les images représentées sur la figure 14 ont été filtrées et converties pour un affichage en deux couleurs, d'où leur aspect granuleux à ne pas confondre avec des tavelures). a.6) Memorization of textured images G'-D '. Once the images G 'and D' have been buffered, they are transmitted to the CPU of the system 1 1 where they are stored for processing with the pair of structured stereoscopic images G-D. textured stereoscopic image G'-D 'of the face 2 of the statue 1 is illustrated in Fig. 14. (Note that to meet the formal requirements for patent drawings, the images shown in Fig. 14 have been filtered and converted for a display in two colors, hence their granular appearance not to be confused with scab).
Cette procédure d'acquisition fournit par conséquent un quadruplet d'images, ci-après dénommé « quad » , composé des deux paires d'images stéréoscopiques : une paire d'images structurées G-D et une paire d'images texturées G'-D' .  This acquisition procedure therefore provides a quadruplet of images, hereinafter referred to as "quad", composed of the two pairs of stereoscopic images: a pair of structured images GD and a pair of textured images G'-D ' .
La procédure, c'est-à-dire la succession des opérations a.1 ) à a.6), peut être répétée autant que de besoin, afin d'obtenir une série de quads. On peut, pendant cette répétition, balayer la surface 2 pour la couvrir en totalité et en faire des prises de vue en rafale. Afin d'accroître la densité de la reconstruction (voir ci-après), il est en outre préférable d'effectuer plusieurs acquisitions depuis un même point de vue, ou depuis des points de vue proches afin d'obtenir un chevauchement des zones de la surface 2 couvertes par les caméras 12, 13.  The procedure, ie the sequence of operations a.1) to a.6), can be repeated as much as necessary, in order to obtain a series of quads. During this rehearsal, it is possible to scan the surface 2 to cover it completely and shoot it continuously. In order to increase the density of the reconstruction (see below), it is also preferable to make several acquisitions from the same point of view, or from similar points of view in order to obtain an overlap of the zones of the surface 2 covered by the cameras 12, 13.
Afin d'éviter la dérive du scanner 4 hors du champ du projecteur 10 pendant le balayage de la surface 2, les pointeurs 24 peuvent être activés en permanence - à l'exception des séquences de prises de vues, à défaut de quoi les images seraient inexploitables - de sorte à permettre à l'utilisateur de maintenir relativement constante la distance entre le scanner 4 et la surface 2. Compte tenu des vitesses d'obturation des caméras 12, 13 (de l'ordre de quelques millisecondes), l'œil ne perçoit pas l'extinction des lasers 24 pendant la prise de vue, l'utilisateur ayant l'illusion d'un pointage continu. In order to avoid the drift of the scanner 4 out of the field of the projector 10 during the scanning of the surface 2, the pointers 24 can be activated permanently - with the exception of the sequences of shots, failing which the images would be unusable - so to allow the user to keep the distance between the scanner 4 and the surface 2 relatively constant. Given the shutter speeds of the cameras 12, 13 (of the order of a few milliseconds), the eye does not perceive the extinction of the lasers 24 during shooting, the user having the illusion of a continuous pointing.
Compte tenu de la précision des CCD et de la capacité mémoire du système 1 , des essais concluants ont pu être conduits avec les paramètres suivants :  Given the precision of the CCDs and the memory capacity of the system 1, conclusive tests could be conducted with the following parameters:
Fréquence de l'acquisition (1 quad) : 4 Hz (soit 4 quads/s)  Frequency of the acquisition (1 quad): 4 Hz (4 quads / s)
- Vitesse d'obturation (de prise de vue) : environ 5 ms - Shutter speed (shooting): about 5 ms
Temps de lecture pour chaque image : 28 à 50 ms  Reading time for each image: 28 to 50 ms
Taille capteur CCD : 1 024x768 pixels  CCD sensor size: 1024x768 pixels
Niveaux de gris codés sur 8 bits (0-255)  8-bit gray scale (0-255)
Espace mémoire requis pour chaque image : 0,7 Mo  Memory space required for each image: 0.7 MB
Rectification Rectification
Les images brutes de chaque quad, obtenues par la procédure d'acquisition décrite ci-dessus, sont affectées de défauts, notamment une distorsion et une absence de parallélisme des droites épipolaires entre images d'une même paire stéréoscopique.  The raw images of each quad, obtained by the acquisition procedure described above, are affected by defects, notably a distortion and an absence of parallelism of the epipolar lines between images of the same stereoscopic pair.
Aussi, avant de soumettre les images au traitement visant à permettre la reconstruction du modèle tridimensionnel de la surface 2, est-il préférable de leur appliquer un prétraitement comprenant notamment les opérations suivantes, programmées sous forme d'instructions dans l'UC de l'ordinateur 8 pour leur mise en œuvre :  Also, before submitting the images to the processing intended to allow the reconstruction of the three-dimensional model of the surface 2, is it preferable to apply to them a pretreatment including the following operations, programmed in the form of instructions in the CPU of the computer 8 for their implementation:
Rectification de la distorsion (par exemple au moyen d'algorithmes connus), visant à redresser les lignes droites qui apparaissent courbées sur les images ;  Rectification of the distortion (for example by means of known algorithms), aimed at straightening the straight lines that appear curved on the images;
Rectification épipolaire, qui permet, pour une paire d'images stéréoscopiques, de faire correspondre à tout point de l'image gauche une ligne horizontale de l'image droite, et réciproquement. Epipolar rectification, which allows, for a pair of stereoscopic images, to correspond at any point of the left image a horizontal line of the right image, and vice versa.
Comme la rectification de la distorsion, la rectification épipolaire peut être conduite à l'aide d'algorithmes classiques. L'homme du métier pourra se référer aux documents mentionnés en introduction . Like the distortion rectification, epipolar rectification can be conducted using conventional algorithms. The skilled person can refer to the documents mentioned in the introduction.
Reconstruction L'étape de reconstruction vise à calculer, à partir de la paire d'images stéréoscopiq ues structurées G-D, un nuage de points tridimensionnels de la surface à numériser. Reconstruction The reconstruction step aims at calculating, from the pair of structured stereoscopic images GD, a cloud of three-dimensional points of the surface to be digitized.
La reconstruction comprend deux phases, programmées sous forme d'instructions dans l' UC de l'ordinateur 8 pour leu r m ise en œuvre :  The reconstruction comprises two phases, programmed in the form of instructions in the CPU of the computer 8 for the implementation of:
La mise en correspondance (M EC)  Mapping (M EC)
La triangulation . Mise en correspondance  Triangulation Matching
La MEC consiste à apparier des points de la paire d 'images structurées G-D.  The MEC consists of matching points of the pair of G-D structured images.
La MEC est effectuée en deux tem ps : une MEC initiale, relativement grossière ; puis une M EC finale, plus fine, fondée sur les résultats de la M EC initiale.  The CEM is performed in two time periods: an initial, relatively coarse MEC; then a final, finer MEC based on the results of the initial MEC.
La M EC initiale consiste à effectuer pour chaq ue pixel PG de coordonnées de l' im age G une corrélation locale consistant à : The initial M EC consists in carrying out for each pixel P G of coordinates of the image G a local correlation consisting of:
Sélectionner dans l'image G un voisinage , appelé fenêtre de corrélation , centré sur le pixel PG ; Select in the image G a neighborhood, called correlation window, centered on the pixel P G ;
- Comparer la fenêtre de corrélation du pixel PG avec une série de fenêtres de corrélation de même taille (dans les méthodes d ites de Block matching) ou de taille d ifférente centré sur u n pixel PD de coordonnées (k, l) de l 'i mage D, situé sur la lig ne de l'image D contenant la droite épipolaire correspondant au pixel PG ; à chaque fenêtre de corrélation de l'image D correspond une mesure (ou score) de corrélation ; - Compare the correlation window of the pixel P G with a series of windows of correlation of the same size (in the methods of block matching) or of size d ifferente centered on a pixel P D of coordinates (k, l) of the image D, located on the line of the image D containing the epipolar line corresponding to the pixel P G ; each correlation window of the image D corresponds to a correlation measure (or score);
Sélectionner dans cette série la fenêtre de corrélation q ui maxim ise le score de corrélation - ou le m inimise, selon q ue l 'on utilise des critères de sim ilarité ou de dissimilarité . Le pixel PD situé au centre de cette fenêtre est alors apparié au pixel PG, les pixels PG et PD étant dénom més homologues ou stéréo- correspondants. In this series, select the correlation window that maximizes the correlation score - or mimicry, depending on whether sim ilarity or dissimilarity criteria are used. The pixel P D located in the center of this window is then matched to the pixel P G , the pixels P G and P D being denominated as homologous or stereocomponent.
On peut alors calculer une première estimation , dite initiale, de la disparité D(x) entre les vues 1 et 2 au pixel PG : We can then calculate a first, so-called initial estimate of the disparity D (x) between the views 1 and 2 at the pixel P G :
D(PG) = x(PD ) - x(PG ) Où x désigne une mesure parallèle aux horizontales des images G et D (abscisse). D (P G ) = x (P D ) - x (P G ) Where x is a measure parallel to the horizontal lines of the G and D (abscissa) images.
La MEC initiale est relativement robuste. Elle l'est d'autant plus que le motif secondaire 30, pseudo-aléatoire, permet de minimiser les erreurs d'appariement.  The initial MEC is relatively robust. It is all the more so because the secondary pattern 30, pseudo-random, makes it possible to minimize mismatches.
Il serait possible, à partir des coordonnées x(PG) et x(PD) des pixels stéréo-correspondants, et grâce à un calcul de triangulation, de calculer la position d'un point de la surface 2 dont les projections sur les images G et D serait situées respectivement dans les pixels PG et PD. Cependant, la précision du positionnement de ce point, notamment en profondeur, serait insuffisante pour satisfaire aux objectifs que s'est fixé le demandeur, à savoir une tolérance en profondeur 0,1 mm. It would be possible, from the coordinates x (P G ) and x (P D ) corresponding stereo pixels, and through a calculation of triangulation, calculate the position of a point of the surface 2 whose projections on the images G and D would be located respectively in the pixels P G and P D. However, the accuracy of the positioning of this point, particularly in depth, would be insufficient to meet the objectives set by the applicant, namely a depth tolerance of 0.1 mm.
En effet, disparité et précision en profondeur peuvent être reliées par l'équation suivante :  Indeed, disparity and depth accuracy can be related by the following equation:
Az = travail2 . Ap (1) focale-base Az = work 2 . Ap (1) focal-base
Où :  Or :
Δζ (exprimée en mm) est la tolérance en profondeur, mesurée le long de l'axe optique 17 du projecteur 10 ;  Δζ (expressed in mm) is the depth tolerance, measured along the optical axis 17 of the projector 10;
ztravaii (exprimée en mm) est approximativement la distance de travail normale du scanner 4, c'est-à-dire la distance moyenne entre le scanner 4 et la surface 2 à numériser, mesurée le long de l'axe optique 17 du projecteur 10 ; ztravaii (expressed in mm) is approximately the normal working distance of the scanner 4, i.e. the average distance between the scanner 4 and the surface 2 to be digitized, measured along the optical axis 17 of the projector 10 ;
focale (exprimée en équivalents pixels) est la distance focale des caméras 12, 13 ; focal length (expressed in pixel equivalents) is the focal length of the cameras 12, 13;
base (exprimée en mm) est la distance séparant les centres optiques des caméras 12, 13 ; base (expressed in mm) is the distance between the optical centers of the cameras 12, 13;
AD (exprimée en pixels) la tolérance sur la disparité. AD (expressed in pixels) the tolerance on disparity.
On suppose que le système 11 présente la configuration suivante : ztravaii comprise entre 350 et 500 mm (soit 425 mm en moyenne) focale 1 700 pixels It is assumed that the system 11 has the following configuration: z work between 350 and 500 mm (ie 425 mm on average) focal length 1700 pixels
base 140 mm. base 140 mm.
Compte tenu de cette configuration (qui peut bien entendu varier), et en partant de l'hypothèse que l'on souhaite atteindre une précision àz de 0,1 mm, la précision de la disparité doit être de 0,1 pixel. En d'autres termes, la disparité doit être précise au sous-pixel, et plus précisément au dixième de pixel. Une telle précision n'est pas atteignable au moyen d'une MEC initiale telle que décrite ci-dessus. Given this configuration (which can of course vary), and assuming that it is desired to achieve an accuracy of 0.1 mm, the accuracy of the disparity must be 0.1 pixel. In in other words, the disparity must be precise to the sub-pixel, and more precisely to the tenth of a pixel. Such precision is not attainable by means of an initial MEK as described above.
Toutefois, comme nous allons le voir à présent, on peut se servir des résultats de la MEC initiale comme base de calcul pour la MEC fine, plus précise mais se fondant principalement sur les points du motif primaire 28.  However, as we will now see, the results of the initial MEC can be used as a basis for the fine MEC, which is more accurate but based primarily on the primary motive points.
La MEC finale comprend les opérations suivantes, programmées sous forme d'instructions dans l'UC de l'ordinateur 8 pour leur mise en œuvre :  The final MEC includes the following operations, programmed as instructions in the CPU of the computer 8 for their implementation:
b.1 ) Détection, dans l'image G, de pics locaux d'intensité lumineuse. b.1) Detection in image G of local peaks of light intensity.
Il peut s'agir de sommets ou de creux, qui sont formellement équivalents. En pratique on détecte les sommets. Cette détection peut être conduite à l'aide d'algorithmes connus, tel l'algorithme de Biais et Rioux (cf. F. Biais et M. Rioux, « Real-time numerical peak detector » , in Signal processing , 1986, vol. 1 1 , n°2, pp.145- 1 55). Concrètement, à partir de l'image G, on établit une cartographie d'une dérivée en chaque pixel PG(i,j) de l'intensité lumineuse correspondant à ce pixel. These can be vertices or troughs, which are formally equivalent. In practice, the vertices are detected. This detection can be carried out using known algorithms, such as the algorithm of Biais and Rioux (see F. Biais and M. Rioux, "Real-time numerical peak detector", in Signal processing, 1986, vol. 1, No. 2, pp.145-155). Concretely, from the image G, we establish a map of a derivative in each pixel P G (i, j) of the light intensity corresponding to this pixel.
Dans la mesure où l'intensité lumineuse n'est pas une fonction continue mais discrète, la dérivée est calculée de manière discrète, par exemple égale à la pente du segment joignant deux points successifs dont les valeurs d'abscisses sont celles des pixels correspondants, et les ordonnées les valeurs des intensités lumineuses correspondantes (sur une échelle de 0 à 255 pour des niveaux de gris codés sur huit bits).  Insofar as the luminous intensity is not a continuous but discrete function, the derivative is computed in a discrete manner, for example equal to the slope of the segment joining two successive points whose abscissa values are those of the corresponding pixels, and the ordinates the values of the corresponding light intensities (on a scale from 0 to 255 for eight-bit gray levels).
On décrète alors qu'un pixel correspond à un pic lorsqu'une fonction dérivée de l'intensité lumineuse change de signe entre ce pixel et le pixel voisin situé sur la même ligne PG(i + l,j). Plus précisément, et suivant l'algorithmique choisie, on peut décréter que le pixel correspond à un pic lorsque la fonction dérivée de l'intensité lumineuse change de signe en montant, c'est-à-dire qu'elle est négative au pixel PG(i,j) et positive au pixel PG(i + l,j). b.2) Calcul des coordonnées des points de l'image G, appelés extremums (en pratique il s'agit de maximums) et notés ci-aprèsIt is then decreed that a pixel corresponds to a peak when a function derived from the luminous intensity changes sign between this pixel and the neighboring pixel situated on the same line P G (i + 1, j). More precisely, and according to the algorithmic chosen, we can decree that the pixel corresponds to a peak when the function derived from the luminous intensity changes from sign to rising, that is to say that it is negative to the pixel P G (i, j) and positive to the pixel P G (i + 1, j). b.2) Calculation of the coordinates of the points of the image G, called extremums (in practice they are maximums) and noted below
EG, correspondant aux pics détectés. Ces points ne sont pas des pixels. Il s'agit de points dont les coordonnées dans l'image G sont des nombres réels. E G , corresponding to the peaks detected. These points are not pixels. These are points whose coordinates in the image G are real numbers.
A cet effet, pour un sommet détecté dans le pixel PG(i,j) lors de l'opération b.1), on choisit une fenêtre contenant le pixel PG(i,j), par exemple la fenêtre comprenant PG(i,j) et 'es deux pixels l'encadrant sur la même ligne, soit PG(i - l,j) et PG(i + 1, j). For this purpose, for a peak detected in the pixel P G (i, j) during the operation b.1), a window is chosen containing the pixel P G (i, j), for example the window comprising P G (i, j) and 'are the two pixels enclosing on the same line, or P G (i - l, j) and P G (i + 1, j).
On calcule alors une fonction continue d'interpolation de l'intensité lumineuse des pixels de cette fenêtre, puis on calcule l'abscisse xG de l'extremum EG, c'est-à-dire du point qui maximise cette fonction d'interpolation. La fonction d'interpolation étant continue, l'abscisse xG n'est pas entière : il s'agit d'un nombre réel. A continuous interpolation function of the luminous intensity of the pixels of this window is then calculated, and then the abscissa x G of the extremum E G , that is to say of the point which maximizes this function, is calculated. interpolation. The interpolation function being continuous, the abscissa x G is not complete: it is a real number.
b.3) Pour chaque extremum EG ainsi calculé, détermination, dans la deuxième D image du couple G-D, du stéréo-correspondant du pixel PG(i,j), c'est-à-dire du pixel PD( ) apparié, lors de la MEC initiale, au pixel PG(i,j) de l'image G contenant l'extremum EG. b.3) For each extremum E G thus calculated, determination, in the second D image of the torque GD, of the corresponding stereo of the pixel P G (i, j), that is to say of the pixel P D () paired, at the initial MEC, with the pixel P G (i, j) of the image G containing the extremum E G.
b.4) Sélection, dans l'image D, d'une fenêtre contenant le pixel PD(fe,Z). b.4) Selection, in the image D, of a window containing the pixel P D (fe, Z).
Cette fenêtre comprend par exemple PD(/c, /) et les pixels l'encadrant sur la même ligne, soit PD(c - 1,0 et PD(/c + 1,/). This window comprises for example P D (/ c, /) and the pixels flanking it on the same line, ie P D (c - 1.0 and P D (/ c + 1, /).
b.5) Détection, dans cette fenêtre, d'un pic d'intensité lumineuse. b.5) Detection in this window of a peak of light intensity.
b.6) Si un tel pic existe, calcul d'une fonction continue d'interpolation de l'intensité lumineuse des pixels de cette fenêtre, et calcul de l'abscisse xD de l'extremum ED, c'est-à-dire du point qui maximise cette fonction d'interpolation. Comme pour l'extremum EG, l'abscisse de l'extremum ED n'est pas entière puisqu'il s'agit d'un nombre réel. b.6) If such a peak exists, calculation of a continuous interpolation function of the luminous intensity of the pixels of this window, and calculation of the abscissa x D of the extremum E D , that is to say say the point that maximizes this interpolation function. As for the extremum E G , the abscissa of the extremum E D is not complete since it is a real number.
b.7) Appartement des extremums Ec et ED. On peut éventuellement calculer de la disparité : b.7) Apartment of the extremums E c and E D. One can possibly calculate the disparity:
D = xD - xG D = x D - x G
Les abscisses xD et xG étant, nous l'avons vu, des nombres réels, la précision obtenue sur la disparité est bien inférieure à 0,1 pixel, conformément aux objectifs indiqués ci-dessus. The abscissae x D and x G being, as we have seen, real numbers, the precision obtained on the disparity is much less than 0.1 pixel, in accordance with the objectives indicated above.
Les étapes b.1) à b.7) sont répétées pour l'ensemble des pics d'intensité lumineuse, la mise en correspondance produit un ensemble de doublets de points Ec et ED appariés pour le couple d'images G-D. Nous l'avons vu, le contraste est plus faible dans le motif secondaire 30 que dans le motif primaire 28. Aussi la détection de pics est-elle moins fiable dans les zones des images G et D correspondant au motif secondaire 30, que dans les zones correspondant au motif primaire 28, dans lequel l'alternance des zones claires et sombres est plus nette. Steps b.1) to b.7) are repeated for all light intensity peaks, the mapping produces a pair of pairs of points E c and E D paired for the GD image pair. As we have seen, the contrast is lower in the secondary pattern 30 than in the primary pattern 28. Also the detection of peaks is less reliable in the areas of the images G and D corresponding to the secondary pattern 30, than in the zones corresponding to the primary pattern 28, in which the alternation of the light and dark areas is clearer.
Aussi, à des fins de précision - mais au détriment de la densité de reconstruction -, est-il préférable de limiter la MEC fine à une sélection de points d'intérêt localisés dans les franges 29 du motif primaire 28, qu'il est par conséquent nécessaire de localiser. Cette localisation peut être effectuée par balayage vertical de l'image (dans le cas de la première version de motif) ou par combinaison d'un balayage vertical et d'un balayage horizontal (dans le cas de la deuxième version et de la troisième version du motif), et par estimation de la similarité des voisinages. Les franges 29 se caractérisent en effet par une isotropie directionnelle qui se traduit par une homogénéité des voisinages des points des franges 29 dans la direction suivant laquelle celle-ci s'étend.  Also, for precision purposes - but at the expense of the reconstruction density - is it preferable to limit the fine ECM to a selection of points of interest located in the fringes 29 of the primary pattern 28, that it is by therefore necessary to locate. This location can be performed by vertical scanning of the image (in the case of the first pattern version) or by combining a vertical scan and a horizontal scan (in the case of the second version and the third version of the pattern), and by estimating the similarity of the neighborhoods. The fringes 29 are characterized in fact by a directional isotropy which results in a homogeneity of the neighborhoods of the points of the fringes 29 in the direction in which it extends.
Triangulation triangulation
Les extremums EG et ED étant homologues (ou stéréo- correspondants), ils sont les projections, respectivement dans l'image gauche G et dans l'image droite D, d'un même point de la surface 2 à numériser. Since the extremums E G and E D are homologous (or stereo- corresponding), they are the projections, respectively in the left image G and in the right image D, of the same point of the surface 2 to be digitized.
Par conséquent, les coordonnées de ce point peuvent être aisément calculées par triangulation à partir des positions de EG et ED. Therefore, the coordinates of this point can be easily calculated by triangulation from the positions of E G and E D.
Ainsi, à partir de l'ensemble des doublets d'extremums EG et ED, la triangulation permet d'obtenir un nuage de points qui forme une première ébauche, éparse, du modèle tridimensionnel de la surface à numériser. Thus, from the set of doublets of extremums E G and E D , the triangulation makes it possible to obtain a cloud of points which forms a first blank, scattered, of the three-dimensional model of the surface to be digitized.
Un tel nuage de points est représenté sur la figure 15. Ce nuage résulte de la succession des phases de MEC et de triangulation appliquées au couple d'images G-D de la figure 11. On voit sur la figure 13 que le nuage est orienté, et comprend plusieurs groupes de points tous situés dans des plans parallèles verticaux. Cela illustre la technique de MEC décrite ci-dessus, dans laquelle la MEC fine a été limitée à une sélection de points d'intérêt situés dans les franges 29 du motif primaire 28, en raison de la précision de leur localisation dans les images G et D. Such a cloud of points is represented in FIG. 15. This cloud results from the succession of the MEC and triangulation phases applied to the image pair GD of FIG. 11. It can be seen from FIG. 13 that the cloud is oriented, and includes several groups of points all located in vertical parallel planes. This illustrates the MEC technique described above, in which the fine MEC was limited to a selection of points of interest located in the fringes 29 of the primary reason 28, because of the precision of their location in the G and D images.
Recalage retiming
La reconstruction étant réitérée pour l'ensemble des couples d'images structurées G-D capturées lors des prises de vues multiples de la surface 2, on obtient une série de nuages de points épars sans lien entre eux, décalés dans l'espace, qu'il est donc nécessaire de recaler pour les fusionner avant d'entamer la procédure de maillage permettant de construire le modèle tridimensionnel de la surface 2. On a représenté sur la figure 14 deux nuages de points reconstruits à partir de deux quads successifs, avant recalage. Les opérations du recalage sont programmées sous forme d'instructions dans l'UC de l'ordinateur 8 pour leur mise en œuvre.  The reconstruction being repeated for all the pairs of GD structured images captured during the multiple shots of the surface 2, we obtain a series of scattered scattered point clouds scattered in space, which it It is therefore necessary to recalibrate to merge them before starting the meshing procedure for constructing the three-dimensional model of the surface 2. There is shown in Figure 14 two reconstructed point clouds from two successive quads, before resetting. The registration operations are programmed as instructions in the CPU of the computer 8 for their implementation.
Du point de vue des caméras 12, 1 3 la surface 2 scannée a évolué dans l'espace, entre deux prises de vues successives, dans un repère lié au scanner 4, en pratique un repère cartésien dont le centre est confondu avec le foyer image de la caméra gauche 12, et dont les axes sont respectivement :  From the point of view of the cameras 12, 1 3, the scanned surface 2 has evolved in space, between two successive shots, in a reference linked to the scanner 4, in practice a Cartesian landmark whose center coincides with the image focus of the left camera 12, and whose axes are respectively:
x : la droite parallèle aux horizontales du capteur 21 de la caméra gauche 12 passant par son foyer image, situé au centre du capteur 21 ;  x: the line parallel to the horizontal of the sensor 21 of the left camera 12 passing through its image focus, located in the center of the sensor 21;
y : la droite parallèle aux verticales du capteur 21 de la caméra gauche 12 et passant par son foyer image ;  y: the line parallel to the verticals of the sensor 21 of the left camera 12 and passing through its image focus;
z : l'axe optique 19 de la caméra gauche 12.  z: the optical axis 19 of the left camera 12.
Le recalage vise à évaluer les déplacements du scanner 12 entre deux prises de vues successives, puis à appliquer aux nuages de points issus de ces prises de vues des transformations (appelées « poses » et constituée chacune de la combinaison d'une rotation et d'une translation) correspondant à ces déplacements, afin d'aligner les repères de chaque nuage de points.  The registration aims to evaluate the movements of the scanner 12 between two successive shots, then to apply to the point clouds resulting from these shots transformations (called "poses" and each consisting of the combination of a rotation and a translation) corresponding to these displacements, in order to align the marks of each cloud of points.
On utilise à cet effet les données issues :  For this purpose, data from:
de la centrale inertielle 15 du scanner 4, laquelle, nous l'avons vu, fournit à tout instant le Nord magnétique et la verticale et se comporte par conséquent comme une boussole tridimensionnelle ; du couple d'images stéréoscopiques texturées G'-D' . Calcul de la rotation of the inertial unit 15 of the scanner 4, which, as we have seen, provides at all times the magnetic north and the vertical and therefore behaves like a three-dimensional compass; the pair of textured stereoscopic images G'-D '. Calculation of rotation
On se sert pour le calcul de la rotation des données issues de la centrale inertielle 15.  The calculation of the rotation of the data from the inertial unit 15 is used.
Soit une paire de nuages de points successifs (Ni( Ni+1), ayant permis de reconstruire deux nuages de points respectifs. On souhaite calculer la rotation relative du scanner 4 entre N, et Ni+1, afin d'appliquer l'inverse de cette rotation au second nuage pour le recaler en rotation sur le premier. Let there be a pair of successive point clouds (N i ( N i + 1 ), which made it possible to reconstruct two respective point clouds, and it is desired to calculate the relative rotation of the scanner 4 between N, and N i + 1 , in order to apply the opposite of this rotation to the second cloud to set it in rotation on the first.
Les données de la centrale inertielle 1 5 permettent de calculer : - la matrice de rotation absolue, notée R,, matrice de transformation du référentiel associé au scanner 4 vers le référentiel terrestre à l'itération i,  The data of the inertial unit 1 5 make it possible to calculate: the absolute rotation matrix, denoted by R, the transformation matrix of the reference associated with the scanner 4 towards the terrestrial reference at the iteration i,
la matrice de rotation absolue, notée Ri+1, matrice de transformation du référentiel associé au scanner 4 vers le référentiel terrestre à l'itération i + 1 . the absolute rotation matrix, denoted R i + 1 , the transformation matrix of the reference associated with the scanner 4 towards the terrestrial reference at the iteration i + 1.
La matrice de rotation relative entre le nuage Nj et le nuage Ni+1, notée Rj +1, est égale au produit de la matrice R; par la matrice inverse de la matrice Ri+1 : The relative rotation matrix between the cloud Nj and the cloud N i + 1 , denoted R j +1 , is equal to the product of the matrix R; by the inverse matrix of the matrix R i + 1 :
DÉ+l — D-l . D  DE + 1 - D-1. D
On applique l'inverse de cette rotation aux points du nuage N pour le recaler en rotation sur le nuage Nj. The inverse of this rotation is applied to the points of the cloud N in order to set it in rotation on the cloud Nj.
Calcul de la translation Calculation of translation
Le scanner 4 ayant été déplacé entre les deux quads successifs correspondant aux nuages Nj et Ni+1 (pour une fréquence d'acquisition de 4Hz, il existe en pratique un décalage temporel de 250 ms environ entre les quads), les paires successives d'images stéréoscopiques structurées GrDj et Gi+1-Di+1, sur la base desquelles les nuages ont été reconstruits, sont inexploitables seules pour le calcul de la translation entre nuages. The scanner 4 having been moved between the two successive quads corresponding to the clouds Nj and N i + 1 (for an acquisition frequency of 4 Hz, there is in practice a time shift of approximately 250 ms between the quads), the successive pairs of Structured stereoscopic images G r Dj and G i + 1 -D i + 1 , on the basis of which the clouds have been reconstructed, are unusable only for the calculation of the translation between clouds.
En effet, le motif projeté s'est déplacé sur la surface 2 à numériser, de sorte qu'aucune corrélation fiable ne peut être effectuée directement entre les images gauches Gj et Gi+1 (respectivement entre les images droites Dj et Di+1) des couples d'images GrDj et Gi+1-Di+1 Aussi, pour le calcul de la translation , exploite-t-on les paires d'images stéréoscopiques texturées G'rD'i et G'i+1-D'i+1 des quads. Indeed, the projected pattern has moved on the surface 2 to be digitized, so that no reliable correlation can be made directly between the left images Gj and G i + 1 (respectively between the straight images Dj and D i + 1 ) pairs of images G r Dj and G i + 1 -D i + 1 Also, for the computation of the translation, one exploits the pairs of stereoscopic images textured G ' r D'i and G' i + 1 -D ' i + 1 of the quads.
On commence par sélectionner dans G'j un ensemble de points d'intérêt (en pratique entre 200 et 300), au moyen d'un algorithme de filtrage permettant de détecter des singularités.  We begin by selecting in G'j a set of points of interest (in practice between 200 and 300), by means of a filtering algorithm for detecting singularities.
On recherche ensuite dans G'i+1 les correspondants des points de G',, au moyen d'un algorithme de suivi de points (par exemple l'algorithme de point tracking de Lucas-Kanade, cf. B. Lucas et T. Kanade, « An Itérative Image Registration Technique with an Application to Stereo Vision » , in Proceedings of Imaging Understanding Workshop, pp. 121 -1 30, 1981 ) basé sur des similarités de texture de la surface 2, acquises lors de l'acquisition des images texturées G'-D' (d'où l'utilité de ces images dans le cadre du recalage). Then we search in G ' i + 1 for the corresponding points of G' ,, by means of a point tracking algorithm (for example the Lucas-Kanade point-tracking algorithm, see B. Lucas and T. Kanade, "An Iterative Image Registration Technique with an Application to Stereo Vision," in Proceedings of Imaging Understanding Workshop, pp. 121-130, 1981) based on surface texture similarities of 2, acquired during the acquisition of textured images G'-D '(hence the usefulness of these images as part of the registration).
On dispose ainsi de deux ensembles de points :  We thus have two sets of points:
PiG' points d'intérêt de G'j appariés dans G'i+1 Pi G 'points of interest of G'j matched in G' i + 1
Ρί+Ί points de G'i+i appariés aux points PjG' Ρ ί + Ί points G ' i + i matched at the points Pj G '
On réinjecte alors les points Pj G' dans l'image G, structurée rectifiée, et on effectue pour chacun de ces points une MEC initiale (ou on réutilise les résultats de la MEC initiale déjà effectuée pour ces points, voir supra) avec l'image Dj de la même paire stéréoscopique Gr D;, puis on effectue une reconstruction pour obtenir un premier nuage de points de densité réduite, exprimé dans le repère associé au nuage Nj et comprenant un nombre de points inférieur à celui-ci. The points P j G 'are then reinjected in the structured G-image, and for each of these points, an initial MEC is performed (or the results of the initial MEC already performed for these points are reused, see above). image Dj of the same stereoscopic pair G r D ;, then one carries out a reconstruction to obtain a first cloud of points of reduced density, expressed in the reference associated with the cloud Nj and comprising a number of points lower than this one.
On effectue la même opération pour les points Pj+Ί dans la paire stéréoscopiques Gi+1-Di+1 de sorte à obtenir un second nuage de points de densité réduite, exprimé dans le repère associé au nuage Ni+1 et réputé être l'évolution dans l'espace du premier nuage de points de densité réduite. The same operation is carried out for the points P j + Ί in the stereoscopic pair G i + 1 -D i + 1 so as to obtain a second cloud of points of reduced density, expressed in the reference associated with the cloud N i + 1 and deemed to be the evolution in the space of the first cloud of points of reduced density.
Cette réinjection suppose soit d'avoir au préalable rectifié les images texturées G'j et G'i+1, soit de rectifier les points PjG' et Pj+Ί, de manière à faire correspondre au moins localement les repères des images texturées avec ceux des images structurées dans lesquelles les points sont réinjectés. This reinjection supposes either to have first corrected the textured images G ' j and G' i + 1 , or to rectify the points Pj G 'and Pj + Ί, so as to correspond at least locally the landmarks of the textured images with those structured images in which the points are reinjected.
On applique alors l'inverse de la rotation R|+1 au deuxième nuage de densité réduite pour le recaler en rotation sur le premier nuage de densité réduite. On calcule ensuite, pour chaque point PjG' du premier nuage de densité réduite, la distance le séparant (dans l'espace) de son correspondant Pg dans le deuxième nuage de densité réduite. On extrait la moyenne de ces distances, que l'on décrète égale à la translation subie par le nuage de points Ni+1 par rapport au premier Nj. We then apply the inverse of the rotation R | +1 to the second cloud of reduced density to rotate it in rotation on the first cloud of reduced density. Then, for each point Pj G 'of the first cloud of reduced density, the distance separating it (in space) from its corresponding Pg in the second cloud of reduced density is calculated. The average of these distances is extracted, which one decrees equal to the translation undergone by the cloud of points N i + 1 with respect to the first Nj.
Chaque pose, qui comprend une rotation et une translation, est ainsi complète. On applique ensuite l'inverse de cette pose à l'ensemble des points du nuage Ni+1 pour le recaler en translation sur le nuage Nj. On a représenté sur la figure 1 5 les nuages de la figure 14, recalés. Each pose, which includes a rotation and a translation, is thus complete. We then apply the inverse of this pose to all the points of the cloud N i + 1 to translate it in translation on the cloud Nj. FIG. 15 shows the clouds of FIG. 14, recalibrated.
On réitère les opérations qui viennent d'être décrites à la succession de nuages de points, qui se trouvent ainsi recalés les uns par rapport aux autres. Construction du modèle  The operations just described are repeated with the succession of scatter plots, which are thus recalibrated with respect to each other. Model construction
La construction du modèle numérique de la surface 2 est réalisée à partir des nuages de points issus du recalage.  The construction of the numerical model of the surface 2 is carried out from the clouds of points resulting from the resetting.
De nombreuses zones de l'objet ayant été capturées plusieurs fois (il existe des zones de recouvrement entre les vues successives), le nuage de points final, obtenu par agrégation des nuages de points issus du recalage, présente une densité élevée (cf. figure 16, qui montre une dizaine de nuages de points successifs recalés).  Since many areas of the object have been captured several times (there are overlapping areas between the successive views), the final point cloud, obtained by aggregation of the points clouds resulting from the resetting, has a high density (see figure 16, which shows ten clouds of successive points recalibrated).
On peut alors effectuer à partir des points du nuage un maillage, permettant d'obtenir une deuxième ébauche de modèle constituée de triangles jointifs, puis un calcul d'interpolation permettant à partir de cette deuxième ébauche de reconstruire un véritable modèle surfacique fondé sur des fonctions mathématiques continues, compatible avec les systèmes de CAO.  We can then perform from the points of the cloud a mesh, to obtain a second model draft consisting of contiguous triangles, then an interpolation calculation allowing from this second draft to reconstruct a true surface model based on functions continuous mathematics, compatible with CAD systems.

Claims

REVENDICATIONS
1 . Utilisation d'un motif structuré dans la construction d'un modèle numérique tridimensionnel d'une surface (2) physique, dans laquelle le motif est projeté sur la surface (2), caractérisée en ce que le motif est formé par la combinaison d'un motif primaire (28) comprenant un réseau de franges (29) rectilignes continues espacées, et d'un motif secondaire (30) anisotrope s'étendant dans les espaces entre franges (29) . 1. Use of a structured pattern in the construction of a three-dimensional digital model of a physical surface (2), in which the pattern is projected onto the surface (2), characterized in that the pattern is formed by the combination of a primary pattern (28) comprising an array of spaced rectilinear fringes (29) and an anisotropic secondary pattern (30) extending into the fringe spaces (29).
2. Utilisation selon la revendication 1 , dans laquelle le motif primaire (28) est mono-orienté, les franges (29) s'étendant suivant une direction unique.  Use according to claim 1, wherein the primary pattern (28) is mono-oriented, the fringes (29) extending in a single direction.
3. Utilisation selon la revendication 1 , dans laquelle le motif primaire (28) est bi-orienté, les franges (29) s'étendant suivant deux directions.  3. Use according to claim 1, wherein the primary pattern (28) is bi-oriented, the fringes (29) extending in two directions.
4. Utilisation selon la revendication 3, dans laquelle les deux directions sont perpendiculaires, les franges (29) définissant un quadrillage.  4. Use according to claim 3, wherein the two directions are perpendicular, the fringes (29) defining a grid.
5. Utilisation selon l'une des revendications 1 à 4, dans laquelle ' les franges (29) sont claires.  5. Use according to one of claims 1 to 4, wherein the fringes (29) are clear.
6. Utilisation selon la revendications, dans laquelle les franges ' claires (29) sont bordées de lignes sombres (32) entre lesquelles s'étend le motif secondaire (30).  The use according to the claim, wherein the light fringes (29) are bordered by dark lines (32) between which the secondary pattern (30) extends.
7. Utilisation selon l'une des revendications 1 à 4, dans laquelle les franges (29) sont sombres.  7. Use according to one of claims 1 to 4, wherein the fringes (29) are dark.
8. Utilisation selon la revendication 7, dans laquelle les franges sombres (29) sont bordées de lignes claires (32) doublées de lignes sombres (33).  8. Use according to claim 7, wherein the dark fringes (29) are lined with light lines (32) lined with dark lines (33).
9. Utilisation selon l'une des revendications 1 à 8, dans laquelle le motif secondaire (30) comprend des tavelures (31 ) ou des pictogrammes (34).  9. Use according to one of claims 1 to 8, wherein the secondary pattern (30) comprises scabs (31) or pictograms (34).
10. Procédé de construction d'un modèle numérique tridimensionnel d'une surface (2) physique mettant en œuvre une utilisation selon l'une des revendications 1 à 9, ce procédé comprenant les opérations suivantes :  10. A method of constructing a three-dimensional digital model of a physical surface (2) implementing a use according to one of claims 1 to 9, said method comprising the following operations:
Projection du motif structuré sur la surface (2), Acquisition et mémorisation d'au moins une image bidimensionnelle de la surface ainsi éclairée, Projecting the structured pattern on the surface (2), Acquisition and storage of at least one two-dimensional image of the illuminated surface,
Construction du modèle numérique à partir de l'image ainsi acquise.  Construction of the digital model from the image thus acquired.
1 1 . Système (1 ) de numérisation tridimensionnelle comprenant un dispositif (10) de projection d'un motif lumineux et un système (1 1 ) de stéréovision, caractérisé en ce que le dispositif (10) de projection est agencé pour projeter un motif lumineux formé par la combinaison d'un motif primaire (28) comprenant un réseau de franges (29) rectilignes continues espacées, et d'un motif secondaire (30) anisotrope s'étendant dans les espaces entre franges (28).  1 1. System (1) for three-dimensional scanning comprising a device (10) for projecting a light pattern and a system (1 1) for stereovision, characterized in that the projection device (10) is arranged to project a light pattern formed by the combination of a primary pattern (28) comprising an array of spaced continuous rectilinear fringes (29), and an anisotropic secondary pattern (30) extending into the fringe spaces (28).
PCT/FR2010/000610 2009-09-15 2010-09-08 Method for the three-dimensional digitisation of a surface, comprising the projection of a combined pattern WO2011033186A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0904416A FR2950157A1 (en) 2009-09-15 2009-09-15 METHOD FOR THREE-DIMENSIONAL SCANNING OF A SURFACE COMPRISING THE APPROACH OF A COMBINED PATTERN
FR09/04416 2009-09-15

Publications (1)

Publication Number Publication Date
WO2011033186A1 true WO2011033186A1 (en) 2011-03-24

Family

ID=42107411

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2010/000610 WO2011033186A1 (en) 2009-09-15 2010-09-08 Method for the three-dimensional digitisation of a surface, comprising the projection of a combined pattern

Country Status (2)

Country Link
FR (1) FR2950157A1 (en)
WO (1) WO2011033186A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016002398A1 (en) * 2016-02-26 2017-08-31 Gerd Häusler Optical 3D sensor for fast and dense shape detection
EP3480556A1 (en) * 2017-11-01 2019-05-08 Omron Corporation Three-dimensional measurement apparatus, three-dimensional measurement method and program
JPWO2020235067A1 (en) * 2019-05-22 2020-11-26

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5003166A (en) 1989-11-07 1991-03-26 Massachusetts Institute Of Technology Multidimensional range mapping with pattern projection and cross correlation
US20020134839A1 (en) * 2001-03-23 2002-09-26 Olympus Optical Co., Ltd Distance information acquisition apparatus or system, pattern projector, and distance information acquisition method
FR2842591A1 (en) 2002-07-16 2004-01-23 Ecole Nale Sup Artes Metiers DEVICE FOR MEASURING VARIATIONS IN THE RELIEF OF AN OBJECT
WO2006094409A1 (en) 2005-03-11 2006-09-14 Creaform Inc. Auto-referenced system and apparatus for three-dimensional scanning
WO2007043036A1 (en) 2005-10-11 2007-04-19 Prime Sense Ltd. Method and system for object reconstruction
US20090059241A1 (en) 2007-08-28 2009-03-05 Artec Ventures System and Method for Three-Dimensional Measurement of The Shape of Material Objects
FR2921719A1 (en) 2007-09-28 2009-04-03 Noomeo Soc Par Actions Simplif Physical object e.g. apple, three-dimensional surface's synthesis image creating method for e.g. industrial farm, involves calculating depth coordinate measured at axis for each point of dusty seeds from projection of point on surface
DE102008002730A1 (en) * 2008-06-27 2009-12-31 Robert Bosch Gmbh Distance image generating method for three-dimensional reconstruction of object surface from correspondence of pixels of stereo image, involves selecting one of structural elements such that each element exhibits different intensity value

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5003166A (en) 1989-11-07 1991-03-26 Massachusetts Institute Of Technology Multidimensional range mapping with pattern projection and cross correlation
US20020134839A1 (en) * 2001-03-23 2002-09-26 Olympus Optical Co., Ltd Distance information acquisition apparatus or system, pattern projector, and distance information acquisition method
FR2842591A1 (en) 2002-07-16 2004-01-23 Ecole Nale Sup Artes Metiers DEVICE FOR MEASURING VARIATIONS IN THE RELIEF OF AN OBJECT
WO2006094409A1 (en) 2005-03-11 2006-09-14 Creaform Inc. Auto-referenced system and apparatus for three-dimensional scanning
WO2007043036A1 (en) 2005-10-11 2007-04-19 Prime Sense Ltd. Method and system for object reconstruction
US20090059241A1 (en) 2007-08-28 2009-03-05 Artec Ventures System and Method for Three-Dimensional Measurement of The Shape of Material Objects
FR2921719A1 (en) 2007-09-28 2009-04-03 Noomeo Soc Par Actions Simplif Physical object e.g. apple, three-dimensional surface's synthesis image creating method for e.g. industrial farm, involves calculating depth coordinate measured at axis for each point of dusty seeds from projection of point on surface
DE102008002730A1 (en) * 2008-06-27 2009-12-31 Robert Bosch Gmbh Distance image generating method for three-dimensional reconstruction of object surface from correspondence of pixels of stereo image, involves selecting one of structural elements such that each element exhibits different intensity value

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
B. LUCAS; T. KANADE: "An Iterative Image Registration Technique with an Application to Stereo Vision", PROCEEDINGS OF IMAGING UNDERSTANDING WORKSHOP, 1981, pages 121 - 130
F. BIAIS; M. RIOUX: "Real-time numerical peak detector", SIGNAL PROCESSING, vol. 11, no. 2, 1986, pages 145 - 155
P. LASSERRE; P. GRANDJEAN: "Stereo improvements", IEEE INTERNATIONAL CONFERENCE ON ADVANCED ROBOTICS, 1995

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016002398A1 (en) * 2016-02-26 2017-08-31 Gerd Häusler Optical 3D sensor for fast and dense shape detection
DE102016002398B4 (en) 2016-02-26 2019-04-25 Gerd Häusler Optical 3D sensor for fast and dense shape detection
US10404967B2 (en) 2016-02-26 2019-09-03 Florian Willomitzer Optical 3-D sensor for fast and dense shape capture
EP3480556A1 (en) * 2017-11-01 2019-05-08 Omron Corporation Three-dimensional measurement apparatus, three-dimensional measurement method and program
US10600193B2 (en) 2017-11-01 2020-03-24 Omron Corporation Three-dimensional measurement apparatus, three-dimensional measurement method and program
JPWO2020235067A1 (en) * 2019-05-22 2020-11-26
JP7168077B2 (en) 2019-05-22 2022-11-09 オムロン株式会社 Three-dimensional measurement system and three-dimensional measurement method

Also Published As

Publication number Publication date
FR2950157A1 (en) 2011-03-18

Similar Documents

Publication Publication Date Title
US8090194B2 (en) 3D geometric modeling and motion capture using both single and dual imaging
US20190156557A1 (en) 3d geometric modeling and 3d video content creation
CN106500628B (en) A kind of 3-D scanning method and scanner containing multiple and different long wavelength lasers
US9392262B2 (en) System and method for 3D reconstruction using multiple multi-channel cameras
Moons et al. 3D reconstruction from multiple images part 1: Principles
Swirski et al. 3Deflicker from motion
CN106500627B (en) 3-D scanning method and scanner containing multiple and different long wavelength lasers
US9562857B2 (en) Specular object scanner for measuring reflectance properties of objects
CN114766003A (en) Systems and methods for utilizing polarization-enhanced sensor systems and imaging systems
JP2018514237A (en) Texture mapping apparatus and method for dental 3D scanner
JP5633058B1 (en) 3D measuring apparatus and 3D measuring method
EP3382645B1 (en) Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images
WO2013139814A2 (en) Model and method for producing photorealistic 3d models
FR3012001A1 (en) METHOD AND DEVICE FOR CAPTURING AND CONSTRUCTING A FLOW OF PANORAMIC OR STEREOSCOPIC IMAGES
US11398085B2 (en) Systems, methods, and media for directly recovering planar surfaces in a scene using structured light
FR2950138A1 (en) Method for construction of three-dimensional digital model of physical surface i.e. casing, of statue, involves applying transformation between rotating component and translation component to one of mottled points
WO2011033186A1 (en) Method for the three-dimensional digitisation of a surface, comprising the projection of a combined pattern
WO2011033187A1 (en) Three-dimensional digitisation method comprising double-matching
Balzer et al. Cavlectometry: Towards holistic reconstruction of large mirror objects
FR2672119A1 (en) THREE-DIMENSIONAL SURFACE MEASURING SYSTEM TO BE REPRESENTED MATHEMATICALLY, AND A MEASURING METHOD AND CALIBRATION TEMPLATE OF THE MEASURING SYSTEM.
Lin Resolution adjustable 3D scanner based on using stereo cameras
FR2950139A1 (en) Method for constructing three-dimensional model to scan e.g. casing of statue, involves projecting structured luminous pattern on surface, acquiring stereoscopic images of surface, and constructing scanning model from images
US20210263597A1 (en) Recovering perspective distortions
WO2018229358A1 (en) Method and device for constructing a three-dimensional image
Bleier et al. Towards robust self-calibration for handheld 3D line laser scanning

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10762716

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10762716

Country of ref document: EP

Kind code of ref document: A1