WO2001089199A1 - Method for combining scanned partial-image data - Google Patents

Method for combining scanned partial-image data Download PDF

Info

Publication number
WO2001089199A1
WO2001089199A1 PCT/DE2001/001755 DE0101755W WO0189199A1 WO 2001089199 A1 WO2001089199 A1 WO 2001089199A1 DE 0101755 W DE0101755 W DE 0101755W WO 0189199 A1 WO0189199 A1 WO 0189199A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
partial image
reference points
line
partial
Prior art date
Application number
PCT/DE2001/001755
Other languages
German (de)
French (fr)
Inventor
Jörg Olaf VON WECHGELN
Michael Hansen
Original Assignee
Heidelberger Druckmaschinen Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Heidelberger Druckmaschinen Aktiengesellschaft filed Critical Heidelberger Druckmaschinen Aktiengesellschaft
Publication of WO2001089199A1 publication Critical patent/WO2001089199A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3876Recombination of partial images to recreate the original image

Definitions

  • the invention relates to the field of electronic reproduction technology and relates to a method for merging partial image data which are obtained by several optoelectronic scans of an image original.
  • the overall image data of the original image is created by merging.
  • a scanner for optoelectronic scanning of templates such as images, graphics and texts
  • the templates to be scanned are converted into electrical signals, which are then further converted into digital data for processing in electronic reproduction technology.
  • the originals are arranged on a flat original carrier, and an optoelectronic scanning element scans the originals pixel by line and line, whereby the original carrier and the
  • the scanning element essentially has a light source for line-by-line illumination of the original, an optoelectronic converter, for example a CCD line, for converting the scanning light coming from the original into the image signals and a scanning lens for sharply imaging the original on the optoelectronic converter and for adjusting the Reproduction scale for originals of different sizes or for setting different scanning resolutions.
  • an optoelectronic converter for example a CCD line
  • a scanning lens for sharply imaging the original on the optoelectronic converter and for adjusting the Reproduction scale for originals of different sizes or for setting different scanning resolutions.
  • Scanning organ which is in the sub-scanning direction, i.e. moved perpendicular to the direction of the scanning line (the main scanning direction) along the original carrier.
  • This design is typical for so-called desktop scanners.
  • the original carrier moves along a fixed scanning element.
  • the scanning resolution in the direction of the scanning line depends on the number of sensor elements in the CCD line and the respective original width Direction of the scan line.
  • the scanning element is usually designed such that the entire width of the original carrier is imaged on the CCD line. This results in a fixed resolution of the scanner for all templates. If templates are scanned that do not fill the entire width of the template carrier, the template is only imaged on a part of the sensor elements in the CCD line.
  • the scanning resolution perpendicular to the direction of the scanning line is determined by the relative speed between the original and the scanning element.
  • the scanning resolution in the direction of the scanning line can be varied by means of the imaging scale, in that the scanning lens reproduces the respective original width completely and with optimum image sharpness on the CCD line.
  • the maximum adjustable scan resolution results from the number of sensor elements in the CCD line divided by the width of the original.
  • the image width, i.e. the distance between the CCD line and the scanning lens, and the object distance, i.e. the distance between the scanning lens and the original can be set by moving the scanning lens with a fixed focal length and / or the CCD line or by scanning lenses with different focal lengths into the beam path.
  • a high scanning resolution in connection with a large-format original is required, for example, if already screened color separation films are to be scanned from finished printed pages in order to process them in the form of digital image data in an electronic reproduction system.
  • the partial image data obtained by scanning the individual columns must be electronically combined to form an entire image. According to the prior art, this is done by copying the partial image data line by line into a file of the overall image data.
  • 1 shows the scanning of a section of a template (2), which is mounted on a template carrier (1), in a first column (3) and a second column (4).
  • the scanning element for scanning the second column (4) is expediently displaced by less than the column width, so that an overlap area (5) is formed on the right edge of the first column (3) and on the left edge of the second column (4).
  • 2 shows the partial image data obtained during the scanning of the columns (6) for the first column and (7) for the second column.
  • a seam line (8) is defined in the overlap area at which the partial image data are to be combined to form the overall image data (9).
  • a line (10) of the total image data (9) is then formed by combining a line segment (11) from the first partial image data (6) and a line segment (12) from the second partial image data (7).
  • the line segment (11) begins at the left edge of the first partial image data (6) and ends at the seam line (8), and the line segment (12) begins at the seam line (8) and ends at the right edge of the second partial image data (12).
  • the length and position of the row pieces (11) and (12) to be removed can be taken from the column widths, the definition of the seam line (8) in the overlap area (5) and the displacement of the second column (4) relative to the first column (3 ) be calculated.
  • FIG. 10 shows the definition of a pixel grid in a partial section of the second partial image data.
  • Fig. 3 shows an example of the occurrence of a registration error when joining the data if, as a result of installation tolerances, the CCD line is somewhat crooked compared to the direction of movement (arrow direction) of the scanning element when scanning the first column (3) and the second column (4) is.
  • the misalignment has been drawn in a greatly exaggerated manner in FIG. 3. It is clear that in the overlap area (5) the end of line i in the first column (3) and the beginning of line i in the second column (4) do not contain the same image information.
  • the continuation of row i in the first column (3) is in the second column (4) in a row j in front of it.
  • the corresponding image data in the overlap area (5) are not vertically shifted by entire lines in a real scanning system, but also by fractions of a line height.
  • there are also horizontal displacements of the corresponding image data in the overlap area (5) likewise by fractions of a pixel width.
  • these horizontal and vertical register errors are not constant during the movement of the scanning element when scanning a column, but change in the overlap area (5) along the seam line (8).
  • Fig. 4 shows this general situation of the registration errors in the overlap area (5) of the partial image data.
  • the first partial image data (6) have been adopted here as a reference system.
  • first reference points (14) have also been adopted.
  • the second reference points (15) corresponding to the first reference points (14) in the second partial image data (7) are shifted horizontally and vertically by the registration errors, so that they are there on a new curved seam line (16).
  • FIG. 5 shows the principle of the method according to the invention for compensating the registration errors.
  • the illustration shows a horizontal strip of the first and second partial image data (6) and (7), the height of which corresponds approximately to the vertical distance between two first reference points (14), the grid being the
  • Pixels are shown very coarsely.
  • the positions of the second reference points (15) corresponding to the first reference points (14) are determined by correlating the first partial image data (6) and second partial image data (7) present in the overlap area (5).
  • the curved seam line (16) is approximated by straight lines between two adjacent second reference points (15).
  • the line segment (17) between two adjacent second reference points (15) forms a boundary of a new pixel grid (18) in the second partial image data (7), which is geometrically distorted compared to the original pixel grid (19), i.e. is rotated and stretched or compressed.
  • the new pixel grid (18) is selected such that the same number of lines is contained in the second partial image data (7) along the straight line segment (17) as in the first partial image data (6) along the connecting line between the first reference points (14).
  • new pixel data are interpolated from the neighboring pixels of the original pixel grid (19) (marked with small squares in FIG. 5). Any interpolation method is used for this, for example bilinear or bicubic interpolation.
  • the interpolated pixels from the second partial image data (7) are then combined with the original pixels from the first partial image data (6) (marked with small circles in FIG. 5) to form the total image data (9).
  • the transition point between the pixels from the first partial image data (6) and the interpolated pixels from the second partial image data (7) does not have to take place exactly at the seam line (8), as drawn in FIG. 5.
  • the transition can also be any number of pixels to the left or right of the seam line (8), as long as the transition point is still in the overlap area (5).
  • the transition point can, for example, also be varied from line to line in the overall image data (9) by a random value.
  • the seam lines (8) and (16) therefore do not have to indicate the location of the transition between the partial image data. They only serve to determine the geometric parameters of the registration errors and to compensate for the registration errors in the combined overall image data (9) by piece-wise adaptation of the geometry. The steps of the compensation method according to the invention for the registration errors are explained in detail below.
  • the positions of corresponding first reference points (14) and second reference points (15) are searched for in the overlap area (5) of the first and second partial image data (6) and (7). This is done by calculating and maximizing the correlation between the right edge of the first field data (6) and the left edge of the second field data (7).
  • the horizontal and the vertical positions of the first reference points (14) and the second reference points (15) are determined separately.
  • FIG. 6 shows an arrangement of horizontal search patterns (20) on the right edge of the first partial image data (6) and associated search areas (21) on the left edge of the second partial image data (7) for determining the horizontal positions of the first reference points (14) and the second reference points (15).
  • Sections from a line in the overlap area (5) of the first partial image data (6) are selected as search patterns (20) at arbitrary vertical distances, for example sections of 50 pixels each.
  • the starting point of the search pattern (20) is set, for example, as the first reference point (14).
  • As assigned search areas (21) sections from the second partial image data (7) are selected which comprise several lines and also more picture elements per line and which include the expected position of the respectively associated second reference point (15), for example sections of 5 lines x 70 each pixels.
  • FIG. 7 shows a detail of a search pattern (20) in the first partial image data (6) and the assigned search area (21) in the second partial image data (7).
  • a window (22) the size of the search pattern (20) is moved pixel by pixel in each line of the search area (21).
  • the correlation coefficient r (d) is determined from the image data in the search pattern (20) and the image data g i + d in the window (22) of the search area (21).
  • the parameter d specifies the displacement of the window (22) in the line of the search area (21).
  • f m is the mean value of the pixels in the search pattern (20) and g m is the mean value of the pixels in the window (22).
  • the maximum rmax and the associated window position dmax are determined in each line of the search area (21).
  • the window position dmax only indicates the possible horizontal position of the second reference point (15) with one pixel
  • the correlation coefficients at the window positions dmax-1, dmax and dmax + 1 are interpolated by a second degree polynomial, and the exact position d_relation is determined, at which the maximum extreme value of the polynomial lies. This is shown in Figure 8.
  • the median value of these positions is determined in accordance with a preferred embodiment of the invention and stored as the horizontal position of the second reference point (15).
  • the correlation coefficient r (d) it is checked whether there is a sufficiently high signal structure in the search pattern (20) and in the window (22).
  • the mean square deviation of the Pixel gray values are calculated both in the search pattern (20) and in the window (22). If they are below a threshold T1 of, for example, 1 gray level / pixel, the window position is not taken into account for the further calculation. If the mean square deviation in the search pattern (20) is below the threshold, a new position of the search pattern is selected. The following condition must therefore be met for a sufficient signal structure.
  • the exact vertical position of the second reference points (15) is calculated using the same method.
  • 9 shows an arrangement of vertical search patterns (23) on the right edge of the first partial image data (6) and associated search areas (24) on the left edge of the second partial image data (7).
  • Vertical stripes, which are one pixel wide, in the overlap area (5) of the first partial image data (6) are selected as the search pattern (23), for example stripes each 50 lines high.
  • the assigned search areas (24) vertical sections from the second partial image data (7) are selected which are several pixels wide and also higher than the search patterns (23) and which include the expected position of the associated second reference point (15), for example sections of 5 pixels x 70 lines each.
  • the exact horizontal and vertical position of the second reference points (15) is then used to approximate the curved seam line (16) by straight lines (17) between two adjacent second reference points (15).
  • 10 shows again in detail the formation of the pixel grid (18) of the pixels to be interpolated in the second partial image data (7) according to a preferred embodiment of the invention.
  • a section with three adjacent second reference points (15) is shown.
  • the upper two reference points (15) are connected by the straight piece (25) and the lower two reference points (15) by the straight piece (26).
  • the line direction for the upper section of the new pixel grid (18) is defined by a perpendicular (27) to the straight line piece (25).
  • the line direction for the lower one is correspondingly defined by a perpendicular (28) on the straight piece (26)
  • the perpendiculars (27) and (28) meet at points (29) and (30) on the right edge of the second partial image data (7).
  • the required number of lines in the upper section the required number of pixels is evenly distributed on the straight line (25) and on the connecting line between points (29) and (30).
  • the required number of pixels per line is evenly distributed on the vertical (27) and (28).
  • the locations of all pixels in the new pixel grid (18) result from linear interpolation of the pixel coordinates on the boundaries. For each line segment between two adjacent reference points (15), a separate section with a respectively adapted new pixel grid (18) is defined in this way.
  • the determined registration errors ie the angle and length deviations of corresponding straight line segments between adjacent reference points (14) or (15) distributed over the first partial image data (6) and the second partial image data (7) and new pixel grids (18) resulting therefrom are defined in both partial image data and new pixels are interpolated. This gives an even better and more uniform image quality of the overall image data (9).

Abstract

The invention relates to a method for combining first partial-image data (6) and second partial-image data (7) to form complete-image data (9). According to said method: first reference points (14) are determined in the first partial-image data (6) and corresponding second reference points (15) are determined in the second partial-image data (7); new pixel grids are defined (18) section by section in the partial-image data (7), based on the second reference points (15); new pixels are interpolated in the new pixel grids (18); and the first partial-image data (6) and the new pixels are combined to form the complete-image data (9). The positions of the corresponding second reference points (15) are calculated by determining the maximum correlation coefficient between a search pattern (20; 23) and a search area (21; 24).

Description

Verfahren zum Zusammenfügen von abgetasteten TeilbilddatenMethod for merging scanned field data
Die Erfindung bezieht sich auf das Gebiet der elektronischen Reproduktionstechnik und betrifft ein Verfahren zum Zusammenfügen von Teilbilddaten, die durch mehrere optoelektronische Abtastungen einer Bildvorlage gewonnen werden. Durch das Zusammenfügen entstehen die Gesamtbilddaten der Bildvorlage.The invention relates to the field of electronic reproduction technology and relates to a method for merging partial image data which are obtained by several optoelectronic scans of an image original. The overall image data of the original image is created by merging.
In einem Scanner zur optoelektronischen Abtastung von Vorlagen, wie beispiels- weise Bildern, Grafiken und Texten, werden die abzutastenden Vorlagen in elektrische Signale umgewandelt, die dann zur Verarbeitung in der elektronischen Reproduktionstechnik weiter in digitale Daten konvertiert werden. Wenn es sich um einen Flachbettscanner handelt, sind die Vorlagen auf einem ebenen Vorlagenträger angeordnet, und ein optoelektronisches Abtastorgan tastet die Vorlagen pixel- und zeilenweise ab, wobei sich der Vorlagenträger und dasIn a scanner for optoelectronic scanning of templates, such as images, graphics and texts, the templates to be scanned are converted into electrical signals, which are then further converted into digital data for processing in electronic reproduction technology. If it is a flat bed scanner, the originals are arranged on a flat original carrier, and an optoelectronic scanning element scans the originals pixel by line and line, whereby the original carrier and the
Abtastorgan relativ zueinander bewegen. Das Abtastorgan weist im wesentlichen eine Lichtquelle zur zeilenweisen Beleuchtung der Vorlage, einen optoelektronischen Wandler, beispielsweise eine CCD-Zeile, zur Umwandlung des von der Vorlage kommenden Abtastlichts in die Bildsignale sowie ein Abtastobjektiv zur scharfen Abbildung der Vorlage auf den optoelektronischen Wandler sowie zur Einstellung des Abbildungsmaßstabs bei Vorlagen unterschiedlicher Größe bzw. zur Einstellung unterschiedlicher Abtastauflösungen auf. Ein derartiger Scanner ist beispielsweise aus DE 195 34 334 bekannt.Move the scanning element relative to each other. The scanning element essentially has a light source for line-by-line illumination of the original, an optoelectronic converter, for example a CCD line, for converting the scanning light coming from the original into the image signals and a scanning lens for sharply imaging the original on the optoelectronic converter and for adjusting the Reproduction scale for originals of different sizes or for setting different scanning resolutions. Such a scanner is known for example from DE 195 34 334.
Es gibt Flachbettscanner mit einem feststehenden Vorlagenträger und einemThere are flatbed scanners with a fixed original carrier and one
Abtastorgan, das sich in der Nebenabtastrichtung, d.h. senkrecht zur Richtung der Abtastzeile (der Hauptabtastrichtung) an dem Vorlagenträger entlang bewegt. Diese Bauweise ist für sogenannte Desktop Scanner typisch. Es gibt aber auch Ausführungsformen, bei denen sich der Vorlagenträger an einem feststehenden Abtastorgan entlang bewegt.Scanning organ which is in the sub-scanning direction, i.e. moved perpendicular to the direction of the scanning line (the main scanning direction) along the original carrier. This design is typical for so-called desktop scanners. However, there are also embodiments in which the original carrier moves along a fixed scanning element.
Die Abtastauflösung in Richtung der Abtastzeile ist von der Anzahl der Sensorelemente in der CCD-Zeile und von der jeweiligen Vorlagenbreite in Richtung der Abtastzeile abhängig. Bei preiswerten Scannern ist das Abtastorgan üblicherweise so ausgelegt, daß die gesamte Breite des Vorlagenträgers auf die CCD-Zeile abgebildet wird. Daraus ergibt sich eine feste Auflösung des Scanners für alle Vorlagen. Wenn Vorlagen abgetastet werden, die nicht die gesamte Breite des Vorlagenträgers ausfüllen, wird die Vorlage nur auf einen Teil der Sensorelemente in der CCD-Zeile abgebildet. Die Abtastauflösung senkrecht zur Richtung der Abtastzeile wird durch die Relativgeschwindigkeit zwischen Vorlage und Abtastorgan bestimmt.The scanning resolution in the direction of the scanning line depends on the number of sensor elements in the CCD line and the respective original width Direction of the scan line. In the case of inexpensive scanners, the scanning element is usually designed such that the entire width of the original carrier is imaged on the CCD line. This results in a fixed resolution of the scanner for all templates. If templates are scanned that do not fill the entire width of the template carrier, the template is only imaged on a part of the sensor elements in the CCD line. The scanning resolution perpendicular to the direction of the scanning line is determined by the relative speed between the original and the scanning element.
Bei aufwendigeren Scannern läßt sich die Abtastauflösung in Richtung der Abtastzeile durch den Abbildungsmaßstab variieren, indem das Abtastobjektiv die jeweilige Vorlagenbreite vollständig und mit optimaler Bildschärfe auf die CCD- Zeile abbildet. Damit können kleinere Vorlagenbreiten mit höherer Auflösung abgetastet werden als größere Vorlagenbreiten. Die maximal einstellbare Abtastauflösung ergibt sich aus der Zahl der Sensorelemente in der CCD-Zeile dividiert durch die Vorlagenbreite. Zur Änderung der Abtastauflösung in Zeilenrichtung können die Bildweite, d.h. der Abstand zwischen CCD-Zeile und Abtastobjektiv, und die Gegenstandsweite, d.h. der Abstand zwischen Abtastobjektiv und Vorlage, eingestellt werden, indem das Abtastobjektiv mit einer festen Brennweite und/oder die CCD-Zeile verschoben werden oder Abtastobjektive mit unterschiedlichen Brennweiten in den Strahlengang eingeschwenkt werden. Nachteilig ist jedoch, daß große Vorlagen nicht mit einer hohen Auflösung abgetastet werden können. Eine hohe Abtastauflösung in Verbindung mit einer großformatigen Vorlage ist beispielsweise erforderlich, wenn bereits gerasterte Farbauszugsfilme von fertigen Druckseiten abgetastet werden sollen, um sie in Form von digitalen Bilddaten in einem elektronischen Reproduktionssystem zu verarbeiten.In the case of more complex scanners, the scanning resolution in the direction of the scanning line can be varied by means of the imaging scale, in that the scanning lens reproduces the respective original width completely and with optimum image sharpness on the CCD line. This means that smaller original widths can be scanned with higher resolution than larger original widths. The maximum adjustable scan resolution results from the number of sensor elements in the CCD line divided by the width of the original. To change the scanning resolution in the line direction, the image width, i.e. the distance between the CCD line and the scanning lens, and the object distance, i.e. the distance between the scanning lens and the original can be set by moving the scanning lens with a fixed focal length and / or the CCD line or by scanning lenses with different focal lengths into the beam path. However, it is disadvantageous that large originals cannot be scanned with a high resolution. A high scanning resolution in connection with a large-format original is required, for example, if already screened color separation films are to be scanned from finished printed pages in order to process them in the form of digital image data in an electronic reproduction system.
Zur Lösung dieses Problems ist in noch aufwendigeren Scannern vorgesehen, das Abtastorgan nicht nur senkrecht zur Richtung der Abtastzeilen zu bewegen sondern auch in der Richtung der Abtastzeilen. Damit kann eine großformatige Vorlage in mehreren Abtastvorgängen spaltenweise abgetastet werden. Nachdem die erste Spalte abgetastet ist, wird das Abtastorgan in Richtung der Abtastzeile um die Spaltenbreite verschoben, und die zweite Spalte wird abgetastet, usw. Für die einzelnen Spaltenabtastungen kann der Abbildungsmaßstab so eingestellt werden, daß jeweils die Spaltenbreite auf die gesamte CCD-Zeile abgebildet wird. Auf diese Weise kann auch eine großformatige Vorlage mit hoher Auflösung abgetastet werden. Ein solcher Scanner ist beispielsweise aus EP 0 833493 bekannt.To solve this problem, it is provided in even more complex scanners not only to move the scanning element perpendicular to the direction of the scanning lines but also in the direction of the scanning lines. This allows a large format document to be scanned in columns in several scans. After the first column has been scanned, the scanning element moves in the direction of the scanning line shifted by the column width, and the second column is scanned, etc. For the individual column scans, the imaging scale can be set so that the column width is mapped to the entire CCD line. In this way, a large format original can also be scanned with high resolution. Such a scanner is known for example from EP 0 833493.
Die durch die Abtastung der einzelnen Spalten gewonnenen Teilbilddaten müssen elektronisch zu einem gesamten Bild zusammengefügt werden. Das geschieht nach dem Stand der Technik, indem die Teilbilddaten zeilenweise in eine Datei der Gesamtbilddaten umkopiert werden. Fig. 1 zeigt dazu die Abtastung eines Ausschnitts einer Vorlage (2), die auf einen Vorlagenträger (1) montiert ist, in einer ersten Spalte (3) und einer zweiten Spalte (4). Zweckmäßigerweise wird das Abtastorgan zur Abtastung der zweiten Spalte (4) um weniger als die Spaltenbreite verschoben, so daß am rechten Rand der ersten Spalte (3) und am linken Rand der zweiten Spalte (4) ein Überlappungsbereich (5) entsteht. Fig. 2 zeigt die bei der Abtastung der Spalten gewonnenen Teilbilddaten (6) für die erste Spalte und (7) für die zweite Spalte. Im Überlappungsbereich wird eine Nahtlinie (8) definiert, an der die Teilbilddaten zu den Gesamtbilddaten (9) zusammengefügt werden sollen. Eine Zeile (10) der Gesamtbilddaten (9) wird dann durch Zusammenfügen eines Zeilenstücks (11) aus den ersten Teilbilddaten (6) und eines Zeilenstücks (12) aus den zweiten Teilbilddaten (7) gebildet. Das Zeilenstück (11 ) beginnt am linken Rand der ersten Teilbilddaten (6) und endet an der Nahtlinie (8), und das Zeilenstück (12) beginnt an der Nahtlinie (8) und endet am rechten Rand der zweiten Teilbilddaten (12). Die Länge und Position der zu entnehmenden Zeilenstücke (11 ) und (12) kann in naheliegender weise aus den Spaltenbreiten, der Festlegung der Nahtlinie (8) im Überlappungsbereich (5) und der Verschiebung der zweiten Spalte (4) gegenüber der ersten Spalte (3) berechnet werden.The partial image data obtained by scanning the individual columns must be electronically combined to form an entire image. According to the prior art, this is done by copying the partial image data line by line into a file of the overall image data. 1 shows the scanning of a section of a template (2), which is mounted on a template carrier (1), in a first column (3) and a second column (4). The scanning element for scanning the second column (4) is expediently displaced by less than the column width, so that an overlap area (5) is formed on the right edge of the first column (3) and on the left edge of the second column (4). 2 shows the partial image data obtained during the scanning of the columns (6) for the first column and (7) for the second column. A seam line (8) is defined in the overlap area at which the partial image data are to be combined to form the overall image data (9). A line (10) of the total image data (9) is then formed by combining a line segment (11) from the first partial image data (6) and a line segment (12) from the second partial image data (7). The line segment (11) begins at the left edge of the first partial image data (6) and ends at the seam line (8), and the line segment (12) begins at the seam line (8) and ends at the right edge of the second partial image data (12). The length and position of the row pieces (11) and (12) to be removed can be taken from the column widths, the definition of the seam line (8) in the overlap area (5) and the displacement of the second column (4) relative to the first column (3 ) be calculated.
Dieses einfache Zusammenfügen von Teilbilddaten nach dem Stand der Technik hat den Nachteil, daß mechanische und optische Einbautoleranzen von Teilen des Abtastorgans sowie Toleranzen bei der Bewegung des Abtastorgans während der Abtastung nicht berücksichtigt werden. Solche Toleranzen führen dazu, daß die Teilbilddaten an der Nahtlinie (8) nicht exakt zusammenpassen. Diese Fehler machen sich besonders bei hoher Auflösung störend bemerkbar.This simple combination of partial image data according to the prior art has the disadvantage that mechanical and optical installation tolerances of parts of the scanning member and tolerances in the movement of the scanning member during the scanning are not taken into account. Such tolerances mean that the drawing data on the seam line (8) do not match exactly. These errors are particularly noticeable at high resolution.
Aufgabe der vorliegenden Erfindung ist es daher, die durch mechanische und optische Toleranzen entstehenden Passerfehler beim Zusammenfügen der Teilbilddaten auszugleichen und Gesamtbilddaten zu erzeugen, in denen keine sichtbaren Fehler enthalten sind.It is therefore an object of the present invention to compensate for the registration errors which occur due to mechanical and optical tolerances when the partial image data are combined, and to generate overall image data which contain no visible errors.
Die Erfindung wird nachfolgend anhand der Fig. 1 bis 10 näher erläutert.The invention is explained in more detail below with reference to FIGS. 1 to 10.
Es zeigen:Show it:
Fig. 1 die Abtastung einer Vorlage in zwei Spalten,1 shows the scanning of a template in two columns,
Fig. 2 das Zusammenfügen von Teilbilddaten zu Gesamtbilddaten nach dem Stand der Technik,2 shows the joining of partial image data into total image data according to the prior art,
Fig. 3 die Entstehung eines Passerfehlers durch eine Schiefstellung der CCD-Zeile,3 shows the occurrence of a registration error due to a misalignment of the CCD line,
Fig. 4 einander entsprechende Bezugspunkte im Überlappungsbereich der Teilbilddaten,4 corresponding reference points in the overlap area of the partial image data,
Fig. 5 das Prinzip des erfindungsgemäßen Ausgleichs von Passerfehlern,5 shows the principle of the compensation of registration errors according to the invention,
Fig. 6 eine Anordnung von horizontalen Suchmustern und Suchbereichen,6 shows an arrangement of horizontal search patterns and search areas,
Fig. 7 eine vergrößerte Ansicht eines horizontalen Suchmusters und Suchbereichs,7 is an enlarged view of a horizontal search pattern and search area,
Fig. 8 die Interpolation von Korrelationskoeffizienten mit einem Polynom, Fig. 9 eine Anordnung von vertikalen Suchmustern und Suchbereichen, und8 shows the interpolation of correlation coefficients with a polynomial, 9 shows an arrangement of vertical search patterns and search areas, and
Fig. 10 die Definition eines Bildpunktgitters in einem Teilabschnitt der zweiten Teilbilddaten.10 shows the definition of a pixel grid in a partial section of the second partial image data.
Fig. 3 zeigt ein Beispiel für die Entstehung eines Passerfehlers beim Zusammenfügen der Daten, wenn infolge von Einbautoleranzen die CCD-Zeile gegenüber der Bewegungsrichtung (Pfeilrichtung) des Abtastorgans beim Abtasten der ersten Spalte (3) und der zweiten Spalte (4) etwas schief gestellt ist. Zur Veranschaulichung ist in Fig. 3 die Schiefstellung stark übertrieben eingezeichnet worden. Es wird deutlich, daß im Überlappungsbereich (5) das Ende der Zeile i in der ersten Spalte (3) und der Anfang der Zeile i in der zweiten Spalte (4) nicht die gleiche Bildinformation enthalten. Die Fortsetzung der Zeile i in der ersten Spalte (3) befindet sich in der zweiten Spalte (4) in einer davor liegenden Zeile j. Für die Teilbilddaten bedeutet das, daß ein bestimmtes Zeilenstück (13) einerseits am Ende der Zeile i in den ersten Teilbilddaten (6) und andererseits am Anfang der Zeile j in den zweiten Teilbilddaten (7) zu finden ist.Fig. 3 shows an example of the occurrence of a registration error when joining the data if, as a result of installation tolerances, the CCD line is somewhat crooked compared to the direction of movement (arrow direction) of the scanning element when scanning the first column (3) and the second column (4) is. For illustration, the misalignment has been drawn in a greatly exaggerated manner in FIG. 3. It is clear that in the overlap area (5) the end of line i in the first column (3) and the beginning of line i in the second column (4) do not contain the same image information. The continuation of row i in the first column (3) is in the second column (4) in a row j in front of it. For the partial image data, this means that a certain line segment (13) can be found on the one hand at the end of line i in the first partial image data (6) and on the other hand at the beginning of line j in the second partial image data (7).
Gegenüber der stark vereinfachten Darstellung und Erläuterung von Fig. 3 werden die einander entsprechenden Bilddaten im Überlappungsbereich (5) bei einem realen Abtastsystem vertikal nicht um ganze Zeilen verschoben sondern auch um Bruchteile einer Zeilenhöhe. Darüber hinaus gibt es infolge von weiteren mechanischen und optischen Toleranzen auch horizontale Verschiebungen der einander entsprechenden Bilddaten im Überlappungsbereich (5), ebenfalls um Bruchteile einer Bildpunktbreite. Ferner sind im allgemeinen diese horizontalen und vertikalen Passerfehler nicht konstant während der Bewegung des Abtastorgans beim Abtasten einer Spalte, sondern ändern sich im Überlappungsbereich (5) entlang der Nahtlinie (8).3, the corresponding image data in the overlap area (5) are not vertically shifted by entire lines in a real scanning system, but also by fractions of a line height. In addition, as a result of further mechanical and optical tolerances, there are also horizontal displacements of the corresponding image data in the overlap area (5), likewise by fractions of a pixel width. Furthermore, in general, these horizontal and vertical register errors are not constant during the movement of the scanning element when scanning a column, but change in the overlap area (5) along the seam line (8).
Fig. 4 zeigt diese allgemeine Situation der Passerfehler im Überlappungsbereich (5) der Teilbilddaten. Die ersten Teilbilddaten (6) sind hier als Bezugssystem angenommen worden. Auf der Nahtlinie (8) der ersten Teilbilddaten (6) sind außerdem erste Bezugspunkte (14) angenommen worden. Wie zuvor erläutert, sind die den ersten Bezugspunkten (14) entsprechenden zweiten Bezugspunkte (15) in den zweiten Teilbilddaten (7) durch die Passerfehler horizontal und vertikal verschoben, so daß sie sich dort auf einer neuen gekrümmten Nahtlinie (16) befinden.Fig. 4 shows this general situation of the registration errors in the overlap area (5) of the partial image data. The first partial image data (6) have been adopted here as a reference system. On the seam line (8) of the first partial image data (6) first reference points (14) have also been adopted. As previously explained, the second reference points (15) corresponding to the first reference points (14) in the second partial image data (7) are shifted horizontally and vertically by the registration errors, so that they are there on a new curved seam line (16).
Fig. 5 zeigt das Prinzip des erfindungsgemäßen Verfahrens zum Ausgleich der Passerfehler. Die Darstellung zeigt einen horizontalen Streifen der ersten und zweiten Teilbilddaten (6) und (7), dessen Höhe etwa dem vertikalen Abstand zwischen zwei ersten Bezugspunkten (14) entspricht, wobei das Gitter der5 shows the principle of the method according to the invention for compensating the registration errors. The illustration shows a horizontal strip of the first and second partial image data (6) and (7), the height of which corresponds approximately to the vertical distance between two first reference points (14), the grid being the
Bildpunkte stark vergröbert dargestellt ist. Zunächst werden die Positionen der den ersten Bezugspunkten (14) entsprechenden zweiten Bezugspunkte (15) durch Korrelation der im Überlappungsbereich (5) vorhandenen ersten Teilbilddaten (6) und zweiten Teilbilddaten (7) ermittelt. Dann wird die gekrümmte Nahtlinie (16) durch Geradenstücke zwischen jeweils zwei benachbarten zweiten Bezugspunkten (15) angenähert. Das Geradenstück (17) zwischen zwei benachbarten zweiten Bezugspunkten (15) bildet eine Begrenzung eines neuen Bildpunktgitters (18) in den zweiten Teilbilddaten (7), das gegenüber dem ursprünglichen Bildpunktgitter (19) geometrisch verzerrt ist, d.h. gedreht und gedehnt bzw. gestaucht ist. Das neue Bildpunktgitter (18) wird dabei so gewählt, daß in den zweiten Teilbilddaten (7) entlang des Geradenstücks (17) die gleiche Anzahl von Zeilen enthalten ist wie in den ersten Teilbilddaten (6) entlang der Verbindungslinie zwischen den ersten Bezugspunkten (14).Pixels are shown very coarsely. First, the positions of the second reference points (15) corresponding to the first reference points (14) are determined by correlating the first partial image data (6) and second partial image data (7) present in the overlap area (5). Then the curved seam line (16) is approximated by straight lines between two adjacent second reference points (15). The line segment (17) between two adjacent second reference points (15) forms a boundary of a new pixel grid (18) in the second partial image data (7), which is geometrically distorted compared to the original pixel grid (19), i.e. is rotated and stretched or compressed. The new pixel grid (18) is selected such that the same number of lines is contained in the second partial image data (7) along the straight line segment (17) as in the first partial image data (6) along the connecting line between the first reference points (14). ,
An den Positionen der Bildpunkte im neuen Bildpunktgitter (18) werden aus den benachbarten Bildpunkten des ursprünglichen Bildpunktgitters (19) neue Bildpunktdaten interpoliert (in Fig. 5 mit kleinen Quadraten gekennzeichnet). Dazu wird ein beliebiges Interpolationsverfahren verwendet, beispielsweise die bilineare oder die bikubische Interpolation. Die interpolierten Bildpunkte aus den zweiten Teilbilddaten (7) werden dann mit den ursprünglichen Bildpunkten aus den ersten Teilbilddaten (6) (in Fig. 5 mit kleinen Kreisen gekennzeichnet) zeilenweise zu den Gesamtbilddaten (9) zusammengefügt. Die Übergangsstelle zwischen den Bildpunkten aus den ersten Teilbilddaten (6) und den interpolierten Bildpunkten aus den zweiten Teilbilddaten (7) muß nicht, wie in Fig. 5 gezeichnet, genau an der Nahtlinie (8) erfolgen. Der Übergang kann auch eine beliebige Zahl von Bildpunkten links oder rechts von der Nahtlinie (8) erfolgen, solange sich die Übergangsstelle noch im Überlappungsbereich (5) befindet. Die Übergangsstelle kann beispielsweise auch von Zeile zu Zeile in den Gesamtbilddaten (9) durch einen Zufallswert variiert werden. Die Nahtlinien (8) bzw. (16) müssen also nicht den Ort des Übergangs zwischen den Teilbilddaten angeben. Sie dienen lediglich dazu, die geometrischen Parameter der Passerfehler zu bestimmen und durch die stückweise Anpassung der Geometrie die Passerfehler in den zusammengefügten Gesamtbilddaten (9) auszugleichen. Im folgenden werden die Schritte des erfindungsgemäßen Ausgleichsverfahrens für die Passerfehler im Detail erläutert.At the positions of the pixels in the new pixel grid (18), new pixel data are interpolated from the neighboring pixels of the original pixel grid (19) (marked with small squares in FIG. 5). Any interpolation method is used for this, for example bilinear or bicubic interpolation. The interpolated pixels from the second partial image data (7) are then combined with the original pixels from the first partial image data (6) (marked with small circles in FIG. 5) to form the total image data (9). The transition point between the pixels from the first partial image data (6) and the interpolated pixels from the second partial image data (7) does not have to take place exactly at the seam line (8), as drawn in FIG. 5. The transition can also be any number of pixels to the left or right of the seam line (8), as long as the transition point is still in the overlap area (5). The transition point can, for example, also be varied from line to line in the overall image data (9) by a random value. The seam lines (8) and (16) therefore do not have to indicate the location of the transition between the partial image data. They only serve to determine the geometric parameters of the registration errors and to compensate for the registration errors in the combined overall image data (9) by piece-wise adaptation of the geometry. The steps of the compensation method according to the invention for the registration errors are explained in detail below.
Zunächst werden im Überlappungsbereich (5) der ersten und zweiten Teilbilddaten (6) und (7) die Positionen einander entsprechender erster Bezugspunkte (14) und zweiter Bezugspunkte (15) gesucht. Das geschieht durch Berechnung und Maximierung der Korrelation zwischen dem rechten Rand der ersten Teilbilddaten (6) und dem linken Rand der zweiten Teilbilddaten (7). In einer bevorzugten Ausführungsform der Erfindung werden die horizontalen und die vertikalen Positionen der ersten Bezugspunkte (14) und der zweiten Bezugspunkte (15) getrennt bestimmt.First, the positions of corresponding first reference points (14) and second reference points (15) are searched for in the overlap area (5) of the first and second partial image data (6) and (7). This is done by calculating and maximizing the correlation between the right edge of the first field data (6) and the left edge of the second field data (7). In a preferred embodiment of the invention, the horizontal and the vertical positions of the first reference points (14) and the second reference points (15) are determined separately.
Fig. 6 zeigt eine Anordnung von horizontalen Suchmustern (20) am rechten Rand der ersten Teilbilddaten (6) und zugeordneten Suchbereichen (21) am linken Rand der zweiten Teilbilddaten (7) zur Bestimmung der horizontalen Positionen der ersten Bezugspunkte (14) bzw. der zweiten Bezugspunkte (15). Als Suchmuster (20) werden in beliebigen vertikalen Abständen Abschnitte aus einer Zeile im Überlappungsbereich (5) der ersten Teilbilddaten (6) gewählt, beispielsweise Abschnitte von jeweils 50 Bildpunkten. Der Startpunkt des Suchmusters (20) wird beispielsweise als erster Bezugspunkt (14) festgelegt. Als zugeordnete Suchbereiche (21 ) werden Ausschnitte aus den zweiten Teilbilddaten (7) gewählt, die mehrere Zeilen und auch mehr Bildpunkte je Zeile umfassen und die die erwartete Position des jeweils zugehörigen zweiten Bezugspunkts (15) einschließen, beispielsweise Ausschnitte von jeweils 5 Zeilen x 70 Bildpunkten. Fig. 7 zeigt in einem Ausschnitt ein Suchmuster (20) in den ersten Teilbilddaten (6) und den zugeordneten Suchbereich (21) in den zweiten Teilbilddaten (7). Im Suchbereich (21) wird ein Fenster (22) von der Größe des Suchmusters (20) in jeder Zeile des Suchbereichs (21) Bildpunkt für Bildpunkt verschoben. In jeder Position des Fensters (22) wird aus den Bilddaten im Suchmuster (20) und den Bilddaten gi+d im Fenster (22) des Suchbereichs (21 ) der Korrelationskoeffizient r(d) bestimmt. Der Parameter d gibt die Verschiebung des Fensters (22) in der Zeile des Suchbereichs (21) an.6 shows an arrangement of horizontal search patterns (20) on the right edge of the first partial image data (6) and associated search areas (21) on the left edge of the second partial image data (7) for determining the horizontal positions of the first reference points (14) and the second reference points (15). Sections from a line in the overlap area (5) of the first partial image data (6) are selected as search patterns (20) at arbitrary vertical distances, for example sections of 50 pixels each. The starting point of the search pattern (20) is set, for example, as the first reference point (14). As assigned search areas (21), sections from the second partial image data (7) are selected which comprise several lines and also more picture elements per line and which include the expected position of the respectively associated second reference point (15), for example sections of 5 lines x 70 each pixels. 7 shows a detail of a search pattern (20) in the first partial image data (6) and the assigned search area (21) in the second partial image data (7). In the search area (21), a window (22) the size of the search pattern (20) is moved pixel by pixel in each line of the search area (21). In each position of the window (22), the correlation coefficient r (d) is determined from the image data in the search pattern (20) and the image data g i + d in the window (22) of the search area (21). The parameter d specifies the displacement of the window (22) in the line of the search area (21).
Figure imgf000010_0001
Figure imgf000010_0001
In der Gleichung (1 ) ist fm der Mittelwert der Bildpunkte im Suchmuster (20) und gm der Mittelwert der Bildpunkte im Fenster (22). In jeder Zeile des Suchbereichs (21 ) wird das Maximum rmax und die zugehörige Fensterposition dmax bestimmt.In equation (1), f m is the mean value of the pixels in the search pattern (20) and g m is the mean value of the pixels in the window (22). The maximum rmax and the associated window position dmax are determined in each line of the search area (21).
Da die Fensterposition dmax die mögliche horizontale Position des zweiten Bezugspunkts (15) nur auf einen Bildpunkt genau angibt, werden nach einer bevorzugten Ausführungsform der Erfindung die Korrelationskoeffizienten an den Fensterpositionen dmax-1 , dmax und dmax+1 durch ein Polynom zweiten Grades interpoliert, und es wird die genaue Position d_bezug bestimmt, an der der Maximum-Extremwert des Polynoms liegt. Dies ist in Fig. 8 gezeigt.Since the window position dmax only indicates the possible horizontal position of the second reference point (15) with one pixel, according to a preferred embodiment of the invention the correlation coefficients at the window positions dmax-1, dmax and dmax + 1 are interpolated by a second degree polynomial, and the exact position d_relation is determined, at which the maximum extreme value of the polynomial lies. This is shown in Figure 8.
Nachdem in jeder Zeile des Suchbereichs (21 ) die genaue Position d_bezug bestimmt worden ist, wird nach einer bevorzugten Ausführungsform der Erfindung der Medianwert dieser Positionen ermittelt und als horizontale Position des zweiten Bezugspunkts (15) gespeichert. Um die Berechnung der genauen Positionen d_bezug sicherer zu machen, wird nach einer bevorzugten Ausführungsform der Erfindung vor der Berechnung des Korrelationskoeffizienten r(d) geprüft, ob im Suchmuster (20) und im Fenster (22) eine ausreichend hohe Signalstruktur vorhanden ist. Dazu wird die mittlere quadratische Abweichung der Bildpunktgrauwerte sowohl im Suchmuster (20) als auch im Fenster (22) berechnet. Wenn sie unter einer Schwelle T1 von beispielsweise 1 Graustufe/Bildpunkt liegen, wird die Fensterposition nicht für die weitere Berechnung berücksichtigt. Liegt die mittlere quadratische Abweichung im Suchmuster (20) unter der Schwelle, so wird eine neue Position des Suchmusters gewählt. Für eine ausreichende Signalstruktur muß also die folgende Bedingung erfüllt sein.After the exact position d_relationship has been determined in each line of the search area (21), the median value of these positions is determined in accordance with a preferred embodiment of the invention and stored as the horizontal position of the second reference point (15). In order to make the calculation of the exact positions d_related more reliable, according to a preferred embodiment of the invention, before the correlation coefficient r (d) is calculated, it is checked whether there is a sufficiently high signal structure in the search pattern (20) and in the window (22). The mean square deviation of the Pixel gray values are calculated both in the search pattern (20) and in the window (22). If they are below a threshold T1 of, for example, 1 gray level / pixel, the window position is not taken into account for the further calculation. If the mean square deviation in the search pattern (20) is below the threshold, a new position of the search pattern is selected. The following condition must therefore be met for a sufficient signal structure.
^ ∑ (ft ~ fm f ≥ l UND ^ ∑ (gi+d - gm f ≥ Tl (2)^ ∑ (f t ~ f m f ≥ l AND ^ ∑ (g i + d - g m f ≥ Tl (2)
Zur Stabilisierung der Ergebnisse werden nach einer weiteren bevorzugten Ausführungsform der Erfindung zur Bestimmung der genauen Position d_bezug nur Korrelationskoeffizienten rmax herangezogen, die eine Schwelle T2 überschreiten, z.B. rmax > 0,95.To stabilize the results, according to a further preferred embodiment of the invention, only correlation coefficients rmax that exceed a threshold T2, e.g. rmax> 0.95.
Nachdem für jeden zweiten Bezugspunkt (15) in der beschriebenen Weise die genaue horizontale Position d_bezug ermittelt worden ist, wird die genaue vertikale Position der zweiten Bezugspunkte (15) nach dem gleichen Verfahren berechnet. Fig. 9 zeigt dazu eine Anordnung von vertikalen Suchmustern (23) am rechten Rand der ersten Teilbilddaten (6) und zugeordneten Suchbereichen (24) am linken Rand der zweiten Teilbilddaten (7). Als Suchmuster (23) werden senkrechte Streifen, die einen Bildpunkt breit sind, im Überlappungsbereich (5) der ersten Teilbilddaten (6) gewählt, beispielsweise Streifen von jeweils 50 Zeilen Höhe. Als zugeordnete Suchbereiche (24) werden senkrechte Ausschnitte aus den zweiten Teilbilddaten (7) gewählt, die mehrere Bildpunkte breit sind und auch höher als die Suchmuster (23) sind und die die erwartete Position des jeweils zugehörigen zweiten Bezugspunkts (15) einschließen, beispielsweise Ausschnitte von jeweils 5 Bildpunkten x 70 Zeilen. Die genaue horizontale und vertikale Position der zweiten Bezugspunkte (15) wird dann zur Approximation der gekrümmten Nahtlinie (16) durch Geradenstücke (17) zwischen jeweils zwei benachbarten zweiten Bezugspunkten (15) herangezogen. Fig. 10 zeigt noch einmal im Detail die Bildung des Bildpunktgitters (18) der zu interpolierenden Bildpunkte in den zweiten Teilbilddaten (7) nach einer bevorzugten Ausführungsform der Erfindung. Es ist ein Ausschnitt mit drei benachbarten zweiten Bezugspunkten (15) dargestellt. Die oberen beiden Bezugspunkte (15) sind durch das Geradenstück (25) und die unteren beiden Bezugspunkte (15) durch das Geradenstück (26) verbunden. Im obersten Bezugspunkt (15) wird durch eine Senkrechte (27) auf das Geradenstück (25) die Zeilenrichtung für den oberen Teilabschnitt des neuen Bildpunktgitters (18) festgelegt. Im mittleren Bezugspunkt (15) wird entsprechend durch eine Senkrechte (28) auf das Geradenstück (26) die Zeilenrichtung für den unterenAfter the exact horizontal position d_relationship has been determined for every second reference point (15) in the manner described, the exact vertical position of the second reference points (15) is calculated using the same method. 9 shows an arrangement of vertical search patterns (23) on the right edge of the first partial image data (6) and associated search areas (24) on the left edge of the second partial image data (7). Vertical stripes, which are one pixel wide, in the overlap area (5) of the first partial image data (6) are selected as the search pattern (23), for example stripes each 50 lines high. As the assigned search areas (24), vertical sections from the second partial image data (7) are selected which are several pixels wide and also higher than the search patterns (23) and which include the expected position of the associated second reference point (15), for example sections of 5 pixels x 70 lines each. The exact horizontal and vertical position of the second reference points (15) is then used to approximate the curved seam line (16) by straight lines (17) between two adjacent second reference points (15). 10 shows again in detail the formation of the pixel grid (18) of the pixels to be interpolated in the second partial image data (7) according to a preferred embodiment of the invention. A section with three adjacent second reference points (15) is shown. The upper two reference points (15) are connected by the straight piece (25) and the lower two reference points (15) by the straight piece (26). In the uppermost reference point (15), the line direction for the upper section of the new pixel grid (18) is defined by a perpendicular (27) to the straight line piece (25). In the middle reference point (15), the line direction for the lower one is correspondingly defined by a perpendicular (28) on the straight piece (26)
Teilabschnitt des neuen Bildpunktgitters (18) festgelegt. Die Senkrechten (27) und (28) treffen im Punkt (29) bzw. (30) auf den rechten Rand der zweiten Teilbilddaten (7). Entsprechend der benötigten Zeilenzahl im oberen Teilabschnitt wird auf dem Geradenstück (25) und auf der Verbindungslinie zwischen den Punkten (29) und (30) die erforderliche Zahl von Bildpunkten gleichmäßig verteilt. Ebenso wird auf den Senkrechten (27) und (28) die benötigte Zahl von Bildpunkten je Zeile gleichmäßig verteilt. Nach der Verteilung der Bildpunkte auf den äußeren Begrenzungen des oberen Teilabschnitts ergeben sich die Orte aller Bildpunkte im neuen Bildpunktgitter (18) durch lineare Interpolation der Bildpunktkoordinaten auf den Begrenzungen. Für jedes Geradenstück zwischen zwei benachbarten Bezugspunkten (15) wird auf diese Weise ein separater Teilabschnitt mit einem jeweils angepaßten neuen Bildpunktgitter (18) definiert.Section of the new pixel grid (18) set. The perpendiculars (27) and (28) meet at points (29) and (30) on the right edge of the second partial image data (7). According to the required number of lines in the upper section, the required number of pixels is evenly distributed on the straight line (25) and on the connecting line between points (29) and (30). Likewise, the required number of pixels per line is evenly distributed on the vertical (27) and (28). After the distribution of the pixels on the outer boundaries of the upper section, the locations of all pixels in the new pixel grid (18) result from linear interpolation of the pixel coordinates on the boundaries. For each line segment between two adjacent reference points (15), a separate section with a respectively adapted new pixel grid (18) is defined in this way.
In der vorangegangenen Beschreibung der vorliegenden Erfindung wurde zur Vereinfachung und besseren Veranschaulichung angenommen, daß die ersten Teilbilddaten (6) ohne Toleranzen abgetastet wurden, so daß sich eine gerade Nahtlinie (8) ergibt, und daß die zweiten Teilbilddaten (7) mit Passerfehlern behaftet sind, woraus sich eine gekrümmte Nahtlinie (16) ergibt (Fig. 4). Deshalb werden die zweiten Teilbilddaten (7) nach dem erfindungsgemäßen Verfahren durch Interpolation von neuen Bildpunkten an die ersten Teilbilddaten (6) angepaßt. Das Verfahren kann auch umgekehrt angewendet werden, d.h. in den ersten Teilbilddaten (6) werden neue Bildpunkte interpoliert, um sie an die zweiten Teilbilddaten (7) anzupassen. In der Praxis sind aber sowohl die ersten Teilbilddaten (6) als auch die zweiten Teilbilddaten (7) mit Fehlern durch mechanische und optische Toleranzen behaftet. Um diese Tatsache zu berücksichtigen und da es nur darauf ankommt, die relativen Passerfehler der Teilbilddaten zueinander auszugleichen, werden nach einer weiteren bevorzugten Ausführungsform der Erfindung die ermittelten Passerfehler, d.h. die Winkel- und Längenabweichungen von einander entsprechenden Geradenstücken zwischen benachbarten Bezugspunkten (14) bzw. (15) auf die ersten Teilbilddaten (6) und die zweiten Teilbilddaten (7) verteilt und in beiden Teilbilddaten sich daraus ergebende neue Bildpunktgitter (18) definiert und neue Bildpunkte interpoliert. Damit erhält man eine noch bessere und gleichmäßigere Bildqualität der Gesamtbilddaten (9). In the foregoing description of the present invention, for simplification and better illustration, it was assumed that the first sub-picture data (6) were scanned without tolerances, so that a straight seam line (8) results, and that the second sub-picture data (7) are subject to registration errors , resulting in a curved seam line (16) (Fig. 4). The second partial image data (7) are therefore adapted to the first partial image data (6) by interpolation of new pixels. The method can also be used in reverse, ie new pixels are interpolated in the first field data (6) in order to adapt them to the second field data (7). In practice, however, are both the first The partial image data (6) and the second partial image data (7) are subject to errors due to mechanical and optical tolerances. In order to take this fact into account and since it is only important to compensate for the relative registration errors of the partial image data to one another, according to a further preferred embodiment of the invention the determined registration errors, ie the angle and length deviations of corresponding straight line segments between adjacent reference points (14) or (15) distributed over the first partial image data (6) and the second partial image data (7) and new pixel grids (18) resulting therefrom are defined in both partial image data and new pixels are interpolated. This gives an even better and more uniform image quality of the overall image data (9).

Claims

Patentansprüche claims
1. Verfahren zum Zusammenfügen von ersten Teilbilddaten (6) und zweiten Teilbilddaten (7) zu Gesamtbilddaten (9), dadurch gekennzeichnet, daß - in den ersten Teilbilddaten (6) erste Bezugspunkte (14) und in den zweiten1. A method for combining first partial image data (6) and second partial image data (7) to form overall image data (9), characterized in that - in the first partial image data (6) first reference points (14) and in the second
Teilbilddaten (7) korrespondierende zweite Bezugspunkte (15) ermittelt werden,Sub-image data (7) corresponding second reference points (15) are determined,
- auf der Basis der zweiten Bezugspunkte (15) abschnittsweise neue Bildpunktgitter (18) in den zweiten Teilbilddaten (7) definiert werden, - in den neuen Bildpunktgittern (18) neue Bildpunkte interpoliert werden, und- on the basis of the second reference points (15) new pixel grids (18) are defined in sections in the second partial image data (7), - new pixels are interpolated in the new pixel grids (18), and
- die ersten Teilbilddaten (6) und die neuen Bildpunkte zu den Gesamtbilddaten (9) zusammengefügt werden.- The first partial image data (6) and the new pixels are combined to form the total image data (9).
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet daß die Positionen der korrespondierenden zweiten Bezugspunkte (15) durch Bestimmung des maximalen Korrelationskoeffizienten zwischen einem Suchmuster (20; 23) und einem Suchbereich (21 ; 24) ermittelt werden.2. The method according to claim 1, characterized in that the positions of the corresponding second reference points (15) are determined by determining the maximum correlation coefficient between a search pattern (20; 23) and a search area (21; 24).
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet daß der maximale Korrelationskoeffizient für die horizontale und die vertikale Position der korrespondierenden zweiten Bezugspunkte (15) getrennt ermittelt wird.3. The method according to claim 2, characterized in that the maximum correlation coefficient for the horizontal and the vertical position of the corresponding second reference points (15) is determined separately.
4. Verfahren nach einem der Ansprüche 2 oder 3, dadurch gekennzeichnet, daß die Positionen der zweiten Bezugspunkte (15) durch Polynomapproximation von Korrelationskoeffizienten ermittelt werden.4. The method according to any one of claims 2 or 3, characterized in that the positions of the second reference points (15) are determined by polynomial approximation of correlation coefficients.
5. Verfahren nach einem der Ansprüche 2 bis 4, dadurch gekennzeichnet daß die Korrelationskoeffizienten nur bestimmt werden, wenn im Suchmuster (20; 23) und im Suchbereich (21 ; 24) eine ausreichend hohe Signalstruktur vorhanden ist.5. The method according to any one of claims 2 to 4, characterized in that the correlation coefficients are only determined if a sufficiently high signal structure is present in the search pattern (20; 23) and in the search area (21; 24).
6. Verfahren nach einem der Ansprüche 2 bis 5, dadurch gekennzeichnet daß zur Ermittlung der Positionen der zweiten Bezugspunkte (15) nur Korrelationskoeffizienten verwendet werden, die größer als ein Schwellwert (T2) sind.6. The method according to any one of claims 2 to 5, characterized in that only for determining the positions of the second reference points (15) Correlation coefficients are used that are greater than a threshold value (T2).
7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet. daß auf der Basis der zweiten Bezugspunkte (15) abschnittsweise neue7. The method according to any one of claims 1 to 6, characterized. that new sections in sections based on the second reference points (15)
Bildpunktgitter (18) in den ersten Teilbilddaten (6) und den zweiten Teilbilddaten (7) definiert werden,Pixel grids (18) are defined in the first partial image data (6) and the second partial image data (7),
- in den neuen Bildpunktgittern (18) neue Bildpunkte interpoliert werden, und- New pixels are interpolated in the new pixel grids (18), and
- die in den ersten Teilbilddaten (6) und den zweiten Teilbilddaten (7) interpolierten neuen Bildpunkte zu den Gesamtbilddaten (9) zusammengefügt werden.- The new pixels interpolated in the first partial image data (6) and the second partial image data (7) are combined to form the total image data (9).
8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, daß in den Gesamtbilddaten (9) die Übergangsstelle zwischen den ersten Teilbilddaten (6) und den zweiten Teilbilddaten (7) von Zeile zu Zeile zufällig variiert wird. 8. The method according to any one of claims 1 to 7, characterized in that in the overall image data (9) the transition point between the first sub-image data (6) and the second sub-image data (7) is varied from line to line.
PCT/DE2001/001755 2000-05-16 2001-05-09 Method for combining scanned partial-image data WO2001089199A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10024028.3 2000-05-16
DE2000124028 DE10024028A1 (en) 2000-05-16 2000-05-16 Combining sampled partial image data involves defining new image point grids in second partial image data based on second reference points corresponding to first image reference points

Publications (1)

Publication Number Publication Date
WO2001089199A1 true WO2001089199A1 (en) 2001-11-22

Family

ID=7642301

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2001/001755 WO2001089199A1 (en) 2000-05-16 2001-05-09 Method for combining scanned partial-image data

Country Status (2)

Country Link
DE (1) DE10024028A1 (en)
WO (1) WO2001089199A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008038470A1 (en) 2008-08-20 2010-03-25 Clauß, Ulrich, Dr.-Ing. Segmenting image acquisition device has camera and moving device that has stationary part and movable part

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4610026A (en) * 1982-04-30 1986-09-02 Hitachi, Ltd. Method of and apparatus for enlarging/reducing two-dimensional images
WO1993012501A1 (en) * 1991-12-10 1993-06-24 Logitech, Inc. Apparatus and methods for automerging images
US5251271A (en) * 1991-10-21 1993-10-05 R. R. Donnelley & Sons Co. Method for automatic registration of digitized multi-plane images
US5686960A (en) * 1992-01-14 1997-11-11 Michael Sussman Image input device having optical deflection elements for capturing multiple sub-images
EP0866342A1 (en) * 1997-03-21 1998-09-23 Agfa-Gevaert N.V. Method of recording and reading a radiation image of an elongate body
US5930411A (en) * 1994-04-14 1999-07-27 Matsushita Electric Industrial Co., Ltd. Image processing apparatus for adjusting scanning position

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4853439A (en) * 1987-10-09 1989-08-01 Gaf Corporation Water-soluble complexes of water-insoluble organic compounds
JP3497217B2 (en) * 1993-12-28 2004-02-16 オリンパス株式会社 Image handling apparatus and image composition method
JP3851384B2 (en) * 1996-09-18 2006-11-29 シャープ株式会社 Image composition apparatus and method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4610026A (en) * 1982-04-30 1986-09-02 Hitachi, Ltd. Method of and apparatus for enlarging/reducing two-dimensional images
US5251271A (en) * 1991-10-21 1993-10-05 R. R. Donnelley & Sons Co. Method for automatic registration of digitized multi-plane images
WO1993012501A1 (en) * 1991-12-10 1993-06-24 Logitech, Inc. Apparatus and methods for automerging images
US5686960A (en) * 1992-01-14 1997-11-11 Michael Sussman Image input device having optical deflection elements for capturing multiple sub-images
US5930411A (en) * 1994-04-14 1999-07-27 Matsushita Electric Industrial Co., Ltd. Image processing apparatus for adjusting scanning position
EP0866342A1 (en) * 1997-03-21 1998-09-23 Agfa-Gevaert N.V. Method of recording and reading a radiation image of an elongate body

Also Published As

Publication number Publication date
DE10024028A1 (en) 2001-11-22

Similar Documents

Publication Publication Date Title
DE19736696C2 (en) Image processing device
DE69628228T2 (en) Imaging device
DE69733882T2 (en) CAMERA WITH A SINGLE PICTORIAN
DE3110222C2 (en) Process for partial smoothing retouching in electronic color image reproduction
DE3540875C2 (en) Reading method for scanning a colored original
DE19841682B4 (en) Apparatus and method for improving the scan quality of a scanner
DE69629235T2 (en) Device for automatic detection of the presence, width and phase shift of a document within a document scanner
DE3522707A1 (en) IMAGE PROCESSING DEVICE
DE19833417A1 (en) Image processing apparatus e.g. for printer
DE69925430T2 (en) Method for reducing artifacts in scanning electron microscopy
DE3406620A1 (en) IMAGE ADJUSTING DEVICE FOR A SOLID TELEVISION CAMERA
DE102005046365B4 (en) Image sensor and scanning method
DE3420482A1 (en) IMAGE SCANING AND RECORDING METHOD
EP0065281A2 (en) Scanning system and scanning diaphragm for suppressing moiré during the scanning of screened originals
DE3324736A1 (en) INPUT / OUTPUT SYSTEM FOR IMAGE DISPLAY
DE69937985T2 (en) Image processing apparatus and method
DE3521682A1 (en) METHOD FOR SCANING AND RECORDING IMAGES
DE2156333A1 (en) Facsimile scanner
DE69937215T2 (en) Skew correction device and image scanner provided therewith
WO2001089199A1 (en) Method for combining scanned partial-image data
DE19944687B4 (en) Scanning method and scanner device
DD145834A5 (en) METHOD FOR THE OPTICAL-ELECTRONIC TRANSMISSION OF A PICTURE
DE4444806C2 (en) Digital copier
EP0960523B1 (en) Method for scanning screened master images
EP1497791B1 (en) Production of a complete image by scanning partial areas of a pattern

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

121 Ep: the epo has been informed by wipo that ep was designated in this application
DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
122 Ep: pct application non-entry in european phase
NENP Non-entry into the national phase

Ref country code: JP