WO1999067943A1 - Unite et procede de traitement d'images, et support sur lequel le programme de traitement des images est enregistre - Google Patents

Unite et procede de traitement d'images, et support sur lequel le programme de traitement des images est enregistre Download PDF

Info

Publication number
WO1999067943A1
WO1999067943A1 PCT/JP1999/003200 JP9903200W WO9967943A1 WO 1999067943 A1 WO1999067943 A1 WO 1999067943A1 JP 9903200 W JP9903200 W JP 9903200W WO 9967943 A1 WO9967943 A1 WO 9967943A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
input
area
color
images
Prior art date
Application number
PCT/JP1999/003200
Other languages
English (en)
French (fr)
Inventor
Kazuyuki Nako
Katsuhiko Sato
Hideaki Tanaka
Original Assignee
Sharp Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP17524498A external-priority patent/JP3881454B2/ja
Priority claimed from JP17524598A external-priority patent/JP3604909B2/ja
Priority claimed from JP18346998A external-priority patent/JP3604910B2/ja
Priority claimed from JP18705898A external-priority patent/JP3881455B2/ja
Application filed by Sharp Kabushiki Kaisha filed Critical Sharp Kabushiki Kaisha
Priority to EP99925332A priority Critical patent/EP1100257B1/en
Priority to US09/720,475 priority patent/US7006708B1/en
Publication of WO1999067943A1 publication Critical patent/WO1999067943A1/ja
Priority to US11/299,222 priority patent/US7298927B2/en
Priority to US11/299,223 priority patent/US7327879B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3877Image rotation
    • H04N1/3878Skew detection or correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/393Enlarging or reducing
    • H04N1/3935Enlarging or reducing with modification of image resolution, i.e. determining the values of picture elements at new relative positions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/40012Conversion of colour to monochrome
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/40062Discrimination between different image types, e.g. two-tone, continuous tone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • H04N1/4092Edge or detail enhancement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • H04N1/4095Correction of errors due to scanning a two-sided document, i.e. show-through correction

Definitions

  • the present invention relates to an image processing device, an image processing method, and a medium on which an image processing program is recorded.
  • the present invention relates to an image processing apparatus, an image processing method, and an image processing method for converting an image obtained by reading a color print original or the like printed in a color other than black or a color other than black by an image input unit such as a scanner into a natural monochrome image. Fight on the medium that stores the image processing program.
  • the present invention relates to an image processing apparatus, an image processing method, and a medium in which an image processing program for accurately reducing an image in which characters such as comics, a line drawing, and a halftone dot are combined, while avoiding moire.
  • the present invention relates to an image processing apparatus, an image processing method, and a medium on which an image processing program is recorded so as to correct so as to remove show-through generated when a double-sided printed original or an overlapped original is read. More particularly, the present invention relates to an authoring system for creating a content for an electronic book by inputting a book as an image base, an image processing apparatus for performing alignment between desired pages in input image data of the book, The present invention relates to a medium recording an image processing method and an image processing program.
  • the problem to be solved is in a case where an image obtained by reading a color print original or the like by an image input means such as a scanner is converted into a natural monochrome image.
  • conversion of a color image into a monochrome image is performed by extracting a luminance component from the color image.
  • the following equation (1) is an equation for extracting the luminance component (Y) from the red (R), green (G), and blue (B) components of a color image.
  • Y 0.299 R + 0.587 G + 0.1 14 B-(1)
  • This method is also used in the NTSC TV broadcast system, and is widely known.
  • a color image is transmitted as a luminance signal and a chrominance signal separately, so that even a monochrome television can receive a natural luminance image and reproduce it to display a natural monochrome image on the television. it can.
  • the above equation (1) is based on human visual characteristics, and a full-color image such as a photograph can be naturally converted to a monochrome image by using a luminance component as a monochrome image.
  • an image printed in two colors with red and black ink might use black for outlines and shadows, and red for skin tones.
  • the red mixing ratio is small, so that the red There is a problem that a dark portion becomes black.
  • the image may be printed with a single color other than black, such as red, green, and blue.
  • a human sees such an image, he is not very conscious of the color itself,
  • Prints such as comics and novels are originally printed at very high resolution, and scanners that read them have a high resolution of more than 400 dpi (dot per inch) or 600 dpi.
  • dpi dot per inch
  • 600 dpi the display resolution of a personal computer or a mobile terminal
  • image reduction processing is required to display an existing book on a personal computer or a mobile terminal.
  • a region in which gradation is applied in a pseudo manner using a screen tone is referred to as a pseudo gradation region.
  • a method that processes the entire image uniformly there are two main methods for reducing an image: a method that processes the entire image uniformly, and a method that divides an area and performs reduction processing in an optimal manner for each area.
  • methods for uniformly processing an image there are generally a thinning process in which pixels are simply reduced and reduced, and an averaging method in which the pixel values of a reduced image are determined by averaging the pixel values of an original image.
  • the binarized image is divided into two areas, a line drawing area and a picture area, and the line drawing area is reduced so as to preserve thin lines, and the picture area is multi-valued based on the pixel density. It shows a method of reducing the size and binarizing the image, suppressing the moiré generated at the time of the reduction, and precisely reducing the characters and line drawings.
  • the image processing apparatus described in Japanese Patent Application Laid-Open No. Hei 4-36585 is designed to perform area separation and perform reduction processing according to the area. Is written, character / line drawing cannot be separated by simple pattern matching. Also, since characters are written as balloons in images, it is difficult to separate them with simple rectangles. In the method of dividing into two areas, the character / line drawing area and the other area, and performing smoothing in the area other than the character / line drawing area, the extraction error of the character / line drawing area is likely to occur. For example, a thin line or a slightly infamous part of a complicated character may not be extracted as a character / line drawing area because it has few edge components. Falls in love.
  • the third problem is in a case where correction is performed so as to remove show-through that occurs when reading a double-sided printed document or an overlapped document.
  • an image forming apparatus disclosed in Japanese Patent Application Laid-Open No. 6-62216.
  • the front image data and the back image data are subjected to an AND operation, the output thereof is histogram-calculated and smoothed.
  • show-through is removed without impairing the low density part of the front image.
  • a show-through area and a show-through level in the show-through area are detected from a video signal, and show-through is performed.
  • the show-through area is removed by performing the density correction of the show-through area according to the level.
  • an area where show-through is determined is a region where non-character pixels are continuous, and a non-pattern pixel is continuous. Is a region where pixels below a predetermined density are continuous, or a region where pixels below a predetermined saturation are continuous, and the determination is made in a micro range. If characters or images are show-through, show-through Cannot be distinguished from self-tone.
  • the fourth problem is that in an authoring system that creates a content for an electronic book by inputting a book as an image base, in a case where registration between desired pages in image data of the input book is performed. is there.
  • e-books can handle so-called multimedia data such as audio, images, moving pictures, and animations, they are basically in text (character code) -based format.
  • characters code text
  • books on paper media the so-called “books,” still count 500,000 titles a year, and the total number is huge, but the number of computerized titles is very small, and most of them are Only exists in.
  • Such conventional e-books have the following problems because they are based on text (character codes).
  • content can be created simply by scanning existing paper media books, and a large amount of content can be supplied in a short period of time. It will be possible to provide content such as immersion pictures and photo magazines, which was not possible with text-based e-books. Even if there are characters that do not conform to the current character encoding system, such as external or variant characters or old documents, they can be easily imported. It is easy to expand (spread) the entire view authoring system overseas because of the language (character code) . With the above advantages, image-based e-books have all the problems of text-based e-books. Can be solved. However, in order to obtain e-book content by inputting on an image basis, various processes such as document structuring can be performed by inputting a scanner using an ADF (Auto Document Feeder), etc., but the following problems occur. .
  • ADF Auto Document Feeder
  • the image When inputting with a scanner, the image may be tilted or shifted.
  • a reference straight line for example, the edge of a CRT or liquid crystal
  • the tilt is more emphasized compared to paper.
  • the authoring time if the body page of the e-book is tilted or misaligned, it will cause great discomfort when viewed in View II.
  • the authoring time will increase and a large amount of content cannot be supplied in a short period of time, so appropriate error handling will be required.
  • a first object of the present invention is to provide an image processing device, an image processing method, and a medium on which an image processing program is recorded, which converts an original printed in two colors or a color other than black into a natural monochromatic image. It is to be.
  • a second object of the present invention is to record an image processing apparatus, an image processing method, and an image processing program for reducing an image in which characters such as comics, a line drawing, and a halftone dot are combined without causing sharpness and moiré. Is to provide a medium that has been developed.
  • a third object of the present invention is to record an image processing apparatus, an image processing method, and an image processing program for correcting an image so as to remove show-through that occurs when reading a double-sided printed original or an original with overlapping pages. Is to provide a medium that has been developed.
  • a fourth object of the present invention is to provide an image processing apparatus, an image processing method, and a medium on which an image processing program is recorded, which can obtain an aligned image.
  • a first aspect of the present invention provides an image input device
  • Color analysis means for analyzing colors used in the input image
  • a mixing ratio calculating means for calculating a mixing ratio of a color component based on the analyzed color;
  • An image processing apparatus comprising: a conversion unit that mixes color components according to a calculated mixing ratio and converts an input image into a monochrome image.
  • an image of a document is read from, for example, a predetermined unit and data is input from the image input means.
  • the color analysis means analyzes the colors used in the image.
  • the mixture ratio calculation means calculates the mixture ratio of the color components such as red, green, and blue based on the analyzed color. That is, the mixing ratio is determined according to the colors used in the input image.
  • the conversion unit converts the input image into a monochrome image by mixing the color components according to the calculated mixing ratio.
  • a monochrome image can be created by automatically determining the color of the input image.
  • the image input means is capable of inputting a plurality of images
  • the color analysis unit analyzes colors used in the input plurality of images, and the mixture ratio calculation unit determines a color component common to the plurality of images based on the analyzed colors. Calculate the mixing ratio,
  • the conversion means mixes the color components according to the calculated mixing ratio, and converts each of the plurality of input images into a monochrome image.
  • images of a plurality of originals are read from the image input unit for each predetermined unit, and data is input.
  • the color analysis means analyzes the colors used in those images.
  • the mixture ratio calculating means calculates a mixture ratio of a color component common to a plurality of images based on the analyzed colors. That is, the mixing ratio is determined according to the colors used in the plurality of input images.
  • the conversion means mixes the color components according to the calculated mixing ratio and converts each of the plurality of input images into a monochrome image.
  • the third invention provides an image input device,
  • a color designating means for externally designating a color used in an input image, a mixing ratio calculating means for calculating a mixing ratio of a color component based on the specified color, and a color according to the calculated mixing ratio.
  • a conversion unit for mixing components and converting an input image into a monochrome image.
  • the color specifying means specifies a color used in the image.
  • the mixture ratio calculating means calculates the mixture ratio of the color components based on the designated color. That is, the mixing ratio is determined according to the colors used in the input image.
  • the conversion means mixes the color components according to the calculated mixing ratio and converts the input image into a monochrome image.
  • the user can specify a color used in the input image and create a more accurate monochrome image.
  • an image input device comprising:
  • An image processing apparatus comprising: a conversion unit that mixes color components according to a specified mixing ratio and converts an input image into a monochrome image.
  • the mixture ratio designation unit designates the mixture ratio of the color components for the image input from the image input unit.
  • the conversion means mixes the color components according to the specified mixing ratio and converts the input image into a monochrome image.
  • the user can specify the mixture ratio of the color components and create a desired monochrome image.
  • a fifth aspect of the present invention provides a color analysis step for analyzing colors used in an input image
  • An image processing method characterized by the following. According to the present invention, for example, an image of a document is read and data is input for each predetermined unit, and the colors used in the image are analyzed with respect to the image. The mixture ratio of the color components is calculated based on the color, and the mixture ratio is determined according to the color used in the input image. Further, the color components are mixed according to the calculated mixing ratio, and the input image is converted into a monochrome image.
  • a monochrome image can be created by automatically determining the color of the input image.
  • a color is analyzed based on a distribution of hue, saturation, and brightness of the input image.
  • a color used in an input image is analyzed.
  • the color analysis is performed based on the distribution of hue, saturation, and lightness of the input image.
  • the representative hue and variance are obtained from the distribution of hue and saturation.
  • the presence or absence of a black pixel is determined from the brightness histogram.
  • it analyzes the colors used in the input image. That is, when there is no representative hue, it is determined that the image is a monochrome image.
  • the variance is equal to or more than a predetermined value, the image is determined to be an image using a plurality of colors.
  • the image is a monochrome image other than black, and if there is a black pixel, it is determined that the image uses black and another color. Further, based on the analyzed colors, a mixture ratio of the color components is calculated, and the mixture ratio is determined according to the color used in the input image. Further, the color components are mixed according to the calculated mixing ratio, and the input image is converted into a monochrome image.
  • a monochrome image can be created by automatically determining the color of the input image.
  • a seventh aspect of the present invention provides a color analysis step for analyzing colors used in a plurality of input images
  • images of a plurality of originals are read for each predetermined unit, data is input, and colors used in those images are analyzed and analyzed. Based on the color, the mixture ratio of the color components common to the plurality of images is calculated, and the mixture ratio is determined according to the color used in the input image. Further, the color components are mixed according to the calculated mixing ratio, and the plurality of input images are respectively converted into monochrome images.
  • An eighth aspect of the present invention provides a color specifying step for externally specifying a color used in an input image
  • the color used in the input image is specified for the input image, the mixture ratio of the color components is calculated based on the color, and the color component is used in the input image ⁇ .
  • the mixing ratio is determined according to the color to be mixed, and the color components are mixed according to the calculated mixing ratio, and the input image is converted into a monochrome image.
  • the user can specify the color used in the input image and create a more accurate monochrome image.
  • the mixing ratio calculating step the mixing ratio of a color component corresponding to a color used in the input image is provided.
  • the mixing ratio is calculated based on a mixing ratio table in which is stored in advance.
  • a color used in an input image is analyzed or designated, and a mixture ratio of a color component is calculated based on the color, and the color ratio is used in the input image.
  • the mixing ratio is determined according to the color being used.
  • the mixture ratio is calculated with reference to the mixture ratio table.
  • the color components are mixed according to the calculated mixing ratio, and the input image is converted into a monochrome image.
  • a monochrome image can be created by automatically determining the color of the input image. Also, by calculating the mixture ratio with reference to the mixture ratio table, the optimum mixture ratio for each color used in the image can be obtained at a high speed, so that a more optimal monochrome image can be created at a high speed. can do.
  • the mixing ratio calculating step a color component of a complementary color of a color used in the input image is used.
  • the mixing ratio is calculated based on the ratio.
  • a color used in an input image is analyzed or designated, and a mixture ratio of a color component is calculated based on the color, and is used in the input image.
  • the mixing ratio is determined in accordance with the color.
  • the mixture ratio is calculated based on the color component ratio of the complementary color of the color used in the input image.
  • the color components are mixed according to the calculated mixing ratio, and the input image is converted to a monochrome image.
  • the eleventh aspect of the present invention is the invention according to any one of the fifth, sixth and eighth aspects, wherein in the mixing ratio calculating step, the ratio of a complementary color component of a color used in the input image and the input The mixing ratio is calculated based on the ratio of the color components used in the obtained image.
  • a color used in an input image is analyzed or designated, and a mixture ratio of a color component is calculated based on the color, and is used in the input image.
  • the mixing ratio is determined in accordance with the color.
  • the mixture ratio is calculated based on the complementary color component ratio of the color used in the input image and the color component ratio used in the input image. Further, the color components are mixed according to the calculated mixing ratio, and the input image is converted into a monochrome image.
  • the color of the input image is automatically determined, It is possible to create a monochrome image that makes it easy to discriminate between the color used in the image and black. Also, according to the first and second aspects of the present invention, the mixing ratio of the color components of the input image is specified from outside Steps and
  • a mixture ratio of color components is specified for an input image, and the color components are mixed according to the mixture ratio, and the input image is converted into a monochrome image.
  • the user can specify the mixture ratio of the color components and create a desired monochrome image.
  • a thirteenth aspect of the present invention provides a color analysis step of analyzing a color used in an input image ⁇ , and a mixture ratio calculation step of calculating a mixture ratio of a color component based on the analyzed color. And a conversion step of mixing the color components in accordance with the calculated mixing ratio and converting the input image into a monochrome image.
  • the computer analyzes a color used in the input image according to the image processing program recorded on the medium, and mixes color components based on the color.
  • the input image can be converted to a monochrome image by calculating the ratio and determining the mixture ratio according to the color used in the input image, and mixing the color components according to the mixture ratio.
  • the color can be automatically determined to create a monochrome image.
  • a fifteenth aspect of the present invention provides a color analysis step of analyzing colors used in a plurality of input images, and a mixing of color components common to the plurality of images based on the analyzed colors.
  • This is a medium that stores an image processing program.
  • the computer outputs colors used in the input images to the plurality of images. Analyzing, calculating a mixture ratio of a color component common to a plurality of images based on the color, determining a mixture ratio according to a color used in the input image, and calculating a color component according to the mixture ratio.
  • a fifteenth aspect of the present invention provides a color specifying step of externally specifying a color used in an input image, and a mixing ratio calculating step of calculating a mixing ratio of a color component based on the specified color. And a conversion step of mixing the color components according to the calculated mixing ratio and converting the input image into a monochrome image.
  • the viewer designates a color used in the input image, and mixes color components based on the color.
  • the mixture ratio is determined according to the color used in the input image, and the color components are mixed according to the mixture ratio to convert the input image into a monochrome image.
  • a more accurate monochrome image can be created by specifying the colors used in the input image.
  • a sixteenth aspect of the present invention provides a mixing ratio specifying step of externally specifying a mixing ratio of color components of an input image, and mixing of the color components according to the specified mixing ratio to convert the input image into a monochrome image. And an image processing program for causing a computer to execute a conversion step of converting the image into a medium.
  • the computer specifies a mixture ratio of color components for the input image according to the image processing program recorded on the medium, mixes the color components according to the mixture ratio, and converts the input image.
  • the image can be converted into a monochrome image, so that the user can specify a mixture ratio of the color components to create a desired monochrome image.
  • a seventeenth aspect of the present invention provides an image input device,
  • a character / line drawing area extracting means for extracting a character / line drawing area from an input image; a pseudo density area extracting means for extracting a pseudo density area from the input image; and an extracted pseudo density area and character / line drawing area.
  • An image processing apparatus comprising: an image reducing unit that reduces an image in a different area by a different method; and an image output unit that outputs a reduced image.
  • an image is input by the image input unit, the character / line image region extracting unit extracts a character / line image region from the image, and the pseudo gray region extracting unit extracts the pseudo gray region.
  • the image reducing unit reduces the image in a pseudo-shade area, a character / line drawing area, and other areas using different methods.
  • the reduced image is output by the image output means.
  • the input image is divided into three regions, a pseudo-shade region, a character / line drawing region, and other regions, and the image of each region is reduced in a different manner, thereby suppressing moire in the pseudo-shade region.
  • the image can be reduced sharply in the character / line drawing area, and the image can be reduced appropriately in other areas. For example, even when moire occurs when an image is read and input at a predetermined resolution and the image is reduced, according to the present invention, an image is read and input at a predetermined resolution and sharp without causing moire. The image can be reduced.
  • An eighteenth aspect of the present invention is the image processing apparatus according to the seventeenth aspect, wherein the image reducing unit performs a smoothing process on the pseudo-shade area, and performs an averaging process on the character / line drawing area. After that, edge enhancement processing is performed, and averaging processing is performed on areas other than pseudo shades, characters, and line drawings.
  • an image is input by the image input unit, the character / line image region extracting unit extracts a character / line image region from the image, and the pseudo shade region extracting unit extracts the pseudo shade region.
  • the image reducing means reduces the image in a pseudo-shade area, a character / line drawing area, and other areas by different methods.
  • the image is reduced by performing smoothing processing on the pseudo-shading area, and is reduced by performing edge enhancement processing after performing the smoothing processing on the character and line drawing areas.
  • the averaging process is applied to the other areas to reduce the image.
  • the reduced image is output by the image output means.
  • the image is reduced by suppressing moiré,
  • the image can be sharply reduced in the area, and the image can be appropriately reduced in other areas.
  • the character / line drawing area extracting means extracts a character / line drawing area before extracting a pseudo shade area from the input image. It is characterized by the following.
  • an image is input by the image input means, and the character / line drawing area extracting means extracts the character / line drawing area from the image, and then the pseudo density area extracting means extracts the pseudo density area.
  • the image reducing means reduces the image in the pseudo shade area, the character / line drawing area, and the other areas by different methods.
  • the reduced image is output by the image output means.
  • the character / line drawing area is first extracted from the input image, and then the pseudo-shading area is extracted, so that even the character / line-drawing area in the pseudo-shading area can be accurately detected without being affected by the pseudo-shading area. Can be extracted.
  • the character / line drawing area extracting means performs edge extraction after performing a smoothing process on the input image, thereby obtaining a character.
  • an image is input by the image input means, and the character / line image area extracting means extracts a character / line image area from the image, and then the pseudo gray area extracting means extracts the pseudo gray area.
  • the extraction of the character / line drawing area is performed by performing edge extraction after performing a smoothing process on the input image.
  • the image reducing means reduces the image in the pseudo shade area, the character / line drawing area, and other areas by different methods.
  • the reduced image is output by the image output means.
  • the character / line drawing area is first extracted as described above, and then the pseudo gray area is extracted. Therefore, even if the character / line drawing area in the pseudo gray area is affected by the pseudo gray area. It can be accurately extracted without the need.
  • the pseudo-shading area extracting means includes a function of extracting a peripheral pixel for each pixel of the input image.
  • the character It is characterized in that pixels in an area not extracted as a line drawing area are extracted as a pseudo shade area.
  • an image is input by the image input unit, the character / line image region extracting unit extracts a character / line image region from the image, and the pseudo shade region extracting unit extracts the pseudo shade region.
  • the pseudo shade area is extracted after extracting the character and line drawing areas from the input image.
  • the character / line drawing area is extracted by the above-described predetermined method.
  • the pseudo-shading area is obtained by calculating the variance of peripheral pixels for each pixel of the input image. From the pixels having a large variance, extracting pixels in an area that is not extracted as a character / line drawing area.
  • the image reducing unit reduces the image in a pseudo-shade area, a character / line image area, and other areas using different methods. The reduced image is output by the image output means.
  • the pseudo-shading area extracting means includes a phase of a peripheral pixel for each pixel of the input image. A scramble is obtained, and among pixels having low correlation, pixels in an area not extracted as a character / line drawing area by the character / line drawing area extracting means are extracted as a pseudo shade area.
  • an image is input by the image input means, the character / line drawing area extracting means extracts a character / line drawing area from the image, and the pseudo density area extracting means extracts a pseudo density area.
  • a pseudo shade area is extracted after extracting a character / line drawing area from the input image.
  • the character 'line drawing area is extracted by the above-described predetermined method.
  • the pseudo gray area is obtained by obtaining the correlation of the surrounding pixels for each pixel of the input image and extracting the pixels of the area not extracted as the character / line drawing area from the pixels having low correlation.
  • the image reducing unit reduces the image in a pseudo-shade area, a character / line drawing area, and other areas using different methods.
  • the reduced image is output by the image output means. Therefore, by calculating the correlation between the surrounding pixels and extracting the pixels having low correlation that are not extracted as the character / line drawing region as the pseudo-pan region, the character / line region is more reliably removed, and the pseudo-shading region is removed. Can be accurately extracted.
  • the pseudo shade area extracting means detects an edge area of the input image. Among the output edge regions, a region that is not extracted as a character / line drawing region by the character / line drawing region extracting unit is extracted as a pseudo shade region.
  • the image input unit An image is input, and a character-line drawing area extracting unit extracts a character and a line drawing area from the image, and a pseudo-shading area extracting unit extracts a pseudo-shading area.
  • a pseudo shade area is extracted after extracting a character / line drawing area from the input image.
  • the character / line drawing area is extracted by the above-described predetermined method.
  • the pseudo shade area is obtained by detecting an edge area of a pixel of the input image and extracting an area not extracted as a character / line drawing area from the edge area.
  • the image reducing unit reduces the image in a pseudo-shade area, a character / line drawing area, and other areas using different methods. The reduced image is output by the image output means.
  • the edge filter is simple and can extract the pseudo shaded area at a higher speed.
  • the image reduction unit detects an edge of the extracted pseudo-shading area, and performs processing on an area having a density value equal to or more than a predetermined value. It is characterized by performing a smoothing process.
  • an image is input by the image input means, the character / line drawing area extracting means extracts a character / line drawing area from the image, and the pseudo density area extracting means extracts a pseudo density area.
  • the image reducing means reduces the image by performing a smoothing process on the pseudo-shade area, performs an averaging process on the character / line drawing area, and then performs an edge enhancement process on the image.
  • the averaging process is performed on other areas to reduce the image.
  • edge detection is performed on the pseudo-shading area, and smoothing processing is performed again on the area where the density value is equal to or more than the predetermined value.
  • the reduced image is It is output by the image output means.
  • the image reduction means detects an edge of the extracted pseudo-shade area, and reduces the size of an area having a density value equal to or more than a predetermined value. The processing is stopped.
  • an image is input by the image input unit, the character / line image region extracting unit extracts a character / line image region from the image, and the pseudo gray region extracting unit extracts the pseudo gray region.
  • the image reducing unit reduces the image in a pseudo-shade area, a character / line drawing area, and other areas using different methods.
  • edge detection is performed on the pseudo shade area, and the reduction processing is stopped for the area where the density value is equal to or more than the predetermined value.
  • a twenty-sixth aspect of the present invention provides an image input step
  • a character / line drawing area extraction step for extracting a character / line drawing area from an input image; a pseudo density area extracting step for extracting a pseudo density area from the input image;
  • An image processing method comprising: an image reduction step of reducing an image by a method different from each other in a region other than a pseudo shade, a character, and a line drawing; and an image output step of outputting a reduced image.
  • a method in which an image is input, a character and a line drawing area are extracted from the image, and a pseudo shade area is extracted. Is reduced and output. Therefore, it is possible to reduce the image by suppressing moiré in the pseudo shaded area, sharply reduce the image in the character / line drawing area, and appropriately reduce the image in the other areas.
  • a twenty-seventh aspect of the present invention provides an image inputting step, a character / line drawing area extracting step of extracting a character / line drawing area from an input image, and a pseudo-shading area from the input image.
  • an image output step of outputting the image is
  • the computer extracts a character / line drawing area and a pseudo-shading area from an input image, and extracts a pseudo-shading area, a character / line drawing area, Images in other areas can be reduced and output in different ways, so that in pseudo-shade areas, the image is reduced by suppressing moiré, and in character and line art areas, the image is reduced sharply. In other areas, the image can be appropriately reduced.
  • a twenty-eighth aspect of the present invention provides an image input means for inputting a front image and a back image of a document; an image inversion means for inverting one of the front image and the back image;
  • Positional relationship detection means Detects the position of the front image inverted by the image inverting unit and the back image from the image input unit, or the position of the back image inverted by the image inverting unit and the front image from the image input unit.
  • Image correction means for correcting the image so as to remove show-through of the image from the positional relationship between the front and back images by the output of the positional relationship detection means;
  • a front image and a back image are input from an image input unit, and one of the images is converted to an image inversion unit. Then, the positional relationship between the front and back images is detected by the positional relationship detecting means, and the image correcting means corrects the image from the positional relationship so as to remove show-through of the image, and outputs the corrected image by the output means. Therefore, the input image can be output without show-through.
  • the positional relationship detecting means extracts only high-luminance components of the front and back images and performs block matching with the high-luminance components of the image. It is characterized in that the positional relationship between the front and back images is detected.
  • a front image and a back image are input from the image input means, After the other image is inverted by the image inverting means, the position of the front and back images is detected by the positional relation detecting means.
  • the image correcting means corrects the image so as to remove show-through of the image, and outputs the image by the output means. Therefore, the positional relationship can be detected more accurately, and the input image can be output without further show-through.
  • a thirtieth aspect of the present invention provides an image input device,
  • Edge detection means for detecting the edge of the image from the image input means
  • the image processing apparatus includes: an image correcting unit that corrects an image so as to remove show-through of an image by increasing luminance of a high-luminance pixel other than an edge of the image based on an output of the edge detecting unit; According to the present invention, an image is input from an image input unit, an edge of the image is detected by an edge detection unit, and a high-brightness pixel other than an edge of the image based on an output of the edge detection unit is provided.
  • the image correcting means corrects the image so as to remove show-through of the image, and outputs the image by the output means. Therefore, the input image can be output without show-through while preventing the character from being blurred.
  • the thirty-first aspect of the present invention provides:
  • Edge detection means for detecting an edge of an image from the image input means
  • Image dividing means for dividing the image by the edges of the image and low-luminance pixels output from the edge detecting means
  • Image correction means for obtaining an average luminance in the area divided by the image division means and increasing the luminance only in the high luminance area to correct the image so as to remove show-through of the image;
  • an image is input from an image input unit, an edge of the image is detected by an edge detection unit, and an edge detection unit is provided.
  • the image dividing means divides the image by the edge of the image and the low-brightness pixels by the output of the image, obtains the average luminance in the divided area, and raises the luminance only in the high-luminance area. Remove The image is corrected so that it is output by the output means. Therefore, the input image can be output without show-through while preventing the halftone portion from flying white.
  • the image correcting means obtains a representative luminance from pixels having a luminance within a predetermined range in a high luminance area, and calculates a representative luminance. It is characterized in that the luminance of the pixels in the area is increased with respect to a reference.
  • an image is input from an image input unit, an edge of the image is detected by an edge detection unit, and the image division unit divides the image by an edge of the image and a low-luminance pixel output from the edge detection unit,
  • the image correcting means corrects the image so as to remove show-through of the image by obtaining the average luminance in the divided area and increasing the luminance only in the high luminance area.
  • the representative luminance is obtained from the pixels whose luminance is within a predetermined range in the high luminance area, and the luminance of the pixels in the area is increased based on the representative luminance.
  • the corrected image is output by the output unit. Therefore, the input image can be output without show-through without being affected by the difference in transmittance depending on the paper quality.
  • a third aspect of the present invention provides an image inverting step of inverting any one of the front image and the back image
  • a front image and a back image are input, and after either one of the images is inverted, the positional relationship between the front and back images is detected, and the image is removed such that show-through of the image is removed from the positional relationship. It is corrected and output. Therefore, the input image can be output without show-through.
  • the thirty-fourth aspect of the present invention removes show-through of an image by increasing the luminance of high-luminance pixels other than the detected edge, and an image edge detection step for detecting image edges and edges.
  • Image correcting step of correcting an image This is an image processing method.
  • an image is input, an edge of the image is detected, and the image is corrected so as to remove show-through of the image by increasing the brightness of high-luminance pixels other than the edge of the image due to the output of the edge detection. Output. Therefore, the input image can be output without show-through while preventing character blurring.
  • a thirty-fifth aspect of the present invention provides an image edge detection step for detecting an edge of an image, an image division step of dividing the image by the detected edge and the low luminance pixel, and an average luminance in the divided area. And an image correction step for correcting the image so as to remove show-through of the image by increasing the brightness of only the high brightness region.
  • an image is input, the edge of the image is detected, the image is divided by the edge of the image by the output of the edge detection, and the low-luminance pixel, and the average luminance in the divided area is calculated.
  • the image is corrected to remove show-through and output. Therefore, the input image can be output without show-through while preventing the halftone portion from flying white.
  • the relationship can be detected, and the image can be corrected and output so as to remove the show-through of the image from the positional relationship, thereby outputting the input image without show-through. It can be.
  • the 37th aspect of the present invention provides an image edge detection step for detecting an edge of an image, and increasing the luminance of a high-luminance pixel other than the detected edge to show through the image. And an image correction step of correcting an image so as to remove the image.
  • the computer detects edges of the input image in accordance with the image processing program recorded on the medium, and increases the luminance of high-luminance pixels other than the edges of the image based on the output of the edge detection.
  • the image can be corrected and output so that show-through of the image is removed, so that the input image can be output without show-through while preventing character blurring.
  • a thirty-eighth aspect of the present invention provides an image edge detecting step of detecting an edge of an image, an image dividing step of dividing an image by the detected edges and low-luminance pixels, and calculating an average luminance in the divided area.
  • An image processing program for causing a computer to execute an image correction step of correcting an image so as to remove show-through of the image by increasing the luminance of only the high luminance area.
  • the computer detects the edge of the input image according to the image processing program recorded on the medium, and divides the image by the edge of the image based on the output of the edge detection and the low-luminance pixels. Then, by calculating the average luminance in the divided area and increasing the luminance only in the high luminance area, the image can be corrected and output so that show-through of the image is removed, and the halftone part becomes white.
  • the input image can be output without show-through while preventing flying
  • the ninth aspect of the present invention is an image input means for inputting an image for each page
  • Image determination means for determining a predetermined image from the input images
  • Template acquisition means for obtaining a template to be a reference for alignment from an image determined to be a predetermined image
  • An image processing apparatus comprising: an image correction unit that corrects a position between images based on a determined template and performs alignment between images of consecutive pages.
  • an image is input for each page from the image input unit, the image determining unit determines a predetermined image from the images, the template obtaining unit obtains a template from the determined image, Based on the template, the image correction means Correct the position of, and adjust the position between images on consecutive pages.
  • a 40th aspect of the present invention provides an image input unit for inputting an image for each page of a book, an image determining unit for determining a predetermined body image from the input images, and determining that the image is a predetermined body image.
  • Template obtaining means for obtaining a template as a reference for alignment from the obtained image,
  • An image processing apparatus comprising: an image correction unit that corrects a position between text images based on a determined template and performs alignment between the text images of successive pages.
  • an image is input for each page of a book from the image input unit, the image determination unit determines a predetermined body image from the images, and the template acquisition unit determines a template from the determined image. Then, based on the template, the image correction means corrects the position between the body images, and performs the alignment between the body images of the continuous pages.
  • the e-book content can be created in a short period of time, and when the e-book is viewed on the viewer, the positions of the body images are aligned, thereby eliminating discomfort to the user.
  • the forty-first aspect of the present invention provides an image determining step for determining a predetermined image from images input for each page
  • a template obtaining step for obtaining a template as a reference for alignment from the image determined to be a predetermined image
  • a predetermined image is determined from images input for each page, a template is obtained from the determined image, and an image is determined based on the template.
  • the position between the images is corrected, and the position between the images on successive pages is adjusted. Therefore, it is possible to quickly perform alignment between desired continuous images among images input for each page.
  • the position information of a rectangle composed of circumscribed lines obtained from a set of edge points obtained by scanning the input image is obtained.
  • a predetermined image is determined from images input for each page, and a template is determined from the determined image.
  • rectangular positional information consisting of circumscribed lines obtained from a set of edge points obtained by scanning the input image is obtained as a template.
  • the position between the images is corrected based on the template. Positioning between the images on the continuous pages is performed. Therefore, since the template is obtained using the external tangent, an accurate template can be obtained even in the character area, and the accuracy of the alignment can be improved.
  • a predetermined image is determined from the input images, and positional information of the input image and a position of the template are determined.
  • the method further includes a step of generating warning data when the information is out of the predetermined range.
  • a predetermined image is determined from images input for each page, and a template is obtained from the determined image as described above. Based on the template, the position between the images is corrected, and the alignment between the images on the continuous pages is performed.
  • a predetermined image is determined from the input images, and if the position information of the input image and the position information of the template are out of a predetermined range, warning data is generated. Therefore, it is possible to detect that the registration between the images has failed, and it is possible to conveniently perform the correction during, for example, the authoring or after the end.
  • a forty-fourth aspect of the present invention includes an image determining step of determining a predetermined body image from images input for each page of a book,
  • a template serving as a reference for alignment is determined from the image determined to be a predetermined text image.
  • a predetermined body image is determined from images input for each page of a book, a template is obtained from the determined image, and the position between the body images is corrected based on the template. Then, the alignment between the body images on successive pages is performed.
  • the e-book content can be created in a short period of time, and when the e-book is viewed on the viewer, the positions of the body images are aligned, thereby eliminating discomfort to the user.
  • a forty-fifth aspect of the present invention is an image determining step of determining a predetermined image from images input for each page, and a template serving as a reference for positioning based on the image determined to be the predetermined image. And a computer-acquiring step of correcting a position between images based on the obtained template and aligning the images between successive pages. Is a medium on which the image processing program is recorded.
  • the computer determines a predetermined image from images input for each page, obtains a template from the determined image, and The position between images can be corrected on the basis of, and the position between images on consecutive pages can be adjusted. Therefore, the position between desired consecutive images can be adjusted among images input for each page. It can be done in a short time.
  • an image correcting step for performing an image correcting step of performing alignment between main body images of the image
  • the computer determines a predetermined body image from images input for each page of the book, and obtains a template from the determined image. Based on the template, the position between the body images can be corrected, and the alignment between the body images on successive pages can be performed. Therefore, among the body images input for each page, Positioning can be performed in a short time. As a result, the e-book content can be created in a short period of time, and when the e-book is viewed on the viewer, the positions of the body images are aligned, so that it is possible to eliminate discomfort to the user.
  • FIG. 1 is a block diagram of an image processing apparatus 1a according to a first embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating an image processing method of the image processing apparatus 1a.
  • FIG. 3 is a flowchart for explaining the color analysis unit 3.
  • FIG. 4 is a graph for explaining step S22.
  • FIG. 5 is a graph for explaining step S23.
  • FIG. 6 is a flowchart for explaining step S24.
  • FIG. 7 is a block diagram of an image processing device 1b according to the second embodiment of the present invention.
  • FIG. 8 is a flowchart illustrating an image processing method of the image processing apparatus 1b.
  • FIG. 9 is a block diagram of an image processing device 1c according to the third embodiment of the present invention.
  • FIG. 10 is a flowchart showing an image processing method of the image processing apparatus 1c.
  • FIG. 11 is a block diagram of an image processing device 21a according to a fourth embodiment of the present invention.
  • FIG. 12 is a diagram for explaining the range in which the variance of the target pixel is obtained.
  • FIG. 13 is a diagram for explaining a reduction process by averaging.
  • FIG. 14 is a diagram for explaining a reduction process by smoothing.
  • FIG. 15 is a block diagram of an image processing device 21b according to the fifth embodiment of the present invention.
  • FIG. 16 is a diagram for explaining a method of obtaining a conflict between neighboring pixels.
  • FIG. 17 is a flowchart showing an image processing method of the 17th to 23rd image processing apparatuses according to the present invention.
  • FIG. 18 is a flowchart illustrating an image processing method of the twenty-fourth image processing apparatus according to the present invention.
  • FIG. 19 is a flowchart showing an image processing method of the twenty-fifth image processing apparatus according to the present invention.
  • FIG. 20 is a block diagram of an image processing device 31a according to a seventh embodiment of the present invention.
  • FIG. 21 is a diagram for explaining the position hunter detection unit 34.
  • FIG. 22 is a graph for explaining a means for extracting a high luminance component.
  • FIG. 23 is a block diagram of an image processing device 31b according to the eighth embodiment of the present invention.
  • FIG. 24 is a graph for explaining the operation of the image correction unit 38.
  • FIG. 25 is a block diagram of an image processing device 31c according to a ninth embodiment of the present invention.
  • FIG. 26 is a diagram for explaining the operation of the image division unit 39.
  • FIG. 27 is a graph for explaining a method of obtaining the pixel value t2.
  • FIG. 28 is a block diagram of an image processing device 50 according to the tenth embodiment of the present invention.
  • FIG. 29 is a conceptual diagram showing the configuration of a book input to the image processing device 50.
  • FIG. 30 is a diagram for explaining the page outline detection operation of the page outline detection unit 52.
  • FIG. 31 is a flowchart for explaining the page outline detection method of the page outline detection unit 52.
  • FIG. 32 is a diagram for explaining the page content area extraction operation of the page content area extraction unit 53.
  • FIG. 33 is a flowchart for explaining the page content area extraction method of the page content area extraction unit 53.
  • FIG. 34 is a diagram showing a state of image rotation.
  • FIG. 35 is a diagram showing a form of a template stored in the page position information buffer 60. As shown in FIG.
  • FIG. 1 is a block diagram of an image processing apparatus 1a according to a first embodiment of the present invention.
  • the image processing device la includes an image input unit 2, a color analysis unit 3, a mixture ratio calculation unit 4, an image conversion unit 5, and an image output unit 6.
  • the image input unit 2 reads an image of a manuscript for each predetermined unit such as a spread or a page, for example, an image of a comic magazine, and inputs the read image to the color analysis unit 3.
  • the color analyzer 3 analyzes the colors used in the input image, and the mixture ratio calculator 4 calculates the mixture ratio r: g of each of the red (R), green (G) and blue (B) color components: Determine b.
  • the image conversion unit 5 converts the input image into a monochrome image by mixing the R, G, and B color components according to the determined mixing ratio.
  • the converted image is output by the image output unit 6.
  • the image input unit 2 is realized by an image reading device such as a scanner, a copying machine, and a camera. Also, the present invention can be realized by a device that reads images from media such as a compact disk-read only memory (CD-ROM), a hard disk, a floppy disk, and a magneto-optical disk, which stores images read from a document in advance, or a semiconductor memory. I do not care.
  • an image reading device such as a scanner, a copying machine, and a camera.
  • the present invention can be realized by a device that reads images from media such as a compact disk-read only memory (CD-ROM), a hard disk, a floppy disk, and a magneto-optical disk, which stores images read from a document in advance, or a semiconductor memory. I do not care.
  • the image output unit 6 is realized by an image display device such as a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display). In addition, images such as a printer An image printing device may be used. Furthermore, the present invention may be realized by a device for writing an image on a medium such as a CD-ROM, a hard disk, a floppy disk, and a magneto-optical disk, or a semiconductor memory.
  • an image display device such as a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display).
  • images such as a printer An image printing device may be used.
  • the present invention may be realized by a device for writing an image on a medium such as a CD-ROM, a hard disk, a floppy disk, and a magneto-optical disk, or a semiconductor memory.
  • the color analysis unit 3, the mixture ratio calculation unit 4, and the image conversion unit 5 are realized by, for example, a computer and software.
  • FIG. 2 is a flowchart illustrating an image processing method of the image processing apparatus 1a.
  • the image input unit 2 inputs the image of the document for each predetermined unit (S 1), analyzes the colors used in the input image by the color analysis unit 3 (S 2), and sends it to the mixture ratio calculating means 4.
  • the mixture ratio r: g: b of each of the R, G, and B color components is determined (S3), and the R, G, and B color components are mixed by the image conversion unit 5 according to the mixture ratio, and the input image is converted.
  • the image is converted into a monochrome image (S4), and the converted image is output by the image output unit 6 (S5).
  • FIG. 3 is a flowchart for explaining the color analysis unit 3.
  • the color analyzer 3 converts the input image into hue (H), saturation (S), and lightness (I) for each predetermined unit (S21).
  • the conversion of the input image into H, S, and I is as follows. It is possible to use a generally known method (the explanation is omitted)
  • the representative hue and the variance are obtained from the distribution of H and S (S22).
  • the presence or absence is determined (S23), and the color used in the image is determined (S24).
  • FIG. 4 is a graph for explaining step S22.
  • Fig. 4 (a) is a graph in which the horizontal axis is the sum of hue (H) and the vertical axis is the sum of saturation (S).
  • the sum of S is the sum of the S values of all pixels that take the same H.
  • the histogram is weighted by S to find the colors used in the image. From these, select H, which gives the largest sum of S, and set it as the representative hue H0. If the sum of S in H0 is equal to or less than a predetermined value, it is determined that the input image is originally a monochrome image, and that there is no representative hue H0.
  • the variance V is calculated by converting the sum of S so that the sum of S is distributed in the range of H 0 soil 2 ⁇ as shown in Fig. 4 (b). If the variance V is equal to or greater than the predetermined value, it is determined that multiple colors are used in the input image. Judge that only the representative hue H 0 is used.
  • FIG. 5 is a graph for explaining step S23.
  • the histogram of lightness (I) is taken in 256 steps, when black is not used, the number of low lightness pixels decreases as shown in Fig. 5 (a), and when black is used, Fig. 5 ( The number of low-brightness pixels increases as in b). From this, it can be determined whether or not black is used, depending on whether or not the distribution of pixels in the low brightness area is within a predetermined range.
  • FIG. 6 is a flowchart for explaining step S24. If there is no representative hue H0, the input image is determined to be a monochrome image (S241). If the variance V obtained in step S22 is equal to or larger than a predetermined value, it is determined that a plurality of colors are used in the input image (S242). Otherwise, if there are no black pixels, the input image is determined to be a single color image other than black, and if there are black pixels, the input image is determined to be an image using black and another color. Judge (S243).
  • the colors used in the image are determined as follows. First, find out which H 0 is closest to 0, ⁇ / 3, 27 ⁇ / 3, ⁇ , 4 ⁇ / 3, 5 ⁇ / 3, or 2. However, it is assumed that ⁇ 0 is in the range of 0 to 2. Red (R) for 0 and 2 ⁇ , yellow ( ⁇ ) for ⁇ / 3, green (G) for 2? RZ3, light blue (C) for 7 ⁇ , 4r / 3 Judgment is made for blue (B) and magenta (M) for 5? RZ3, respectively.
  • the mixing ratio calculator 4 determines the mixing ratio r: g: b of the R, G, and B components based on the analysis result of the color analyzer 3. That is, the mixing ratio is changed according to the colors used in the image.
  • any one of r, g, and b may be 1, or all may have the same value.
  • the color analysis unit 3 determines that the image is a single color other than black, the ratio of the color component of the complementary color of the color used in the image obtained and input by the color analysis unit 3 is used as the mixture ratio.
  • the complementary color is a color that becomes white when mixed with that color. For example, if the color used in the input image is red (R), the complementary color is light blue (C).
  • the image can be converted to a monochrome image with the highest contrast.
  • the ratio between the used color and its complementary color is set to 1: 2, but the ratio may be changed depending on the color used.
  • a mixing ratio table storing the optimum mixing ratio for each color or combination of colors may be provided in advance, and the mixing ratio calculation unit 4 may simply refer to the mixing ratio table.
  • the mixing ratio calculation unit 4 may simply refer to the mixing ratio table.
  • the calculation unit 4 calculates the same mixture ratio for all the input images, and the image conversion unit 5 converts the images with the same mixture ratio for all the images. As a result, the image can be more stably converted to a monochrome image. Finally, the image conversion unit 5 uses the mixture ratio r: g: b of each of the R, G, and B color components determined by the mixture ratio calculation unit 4 to convert each pixel into a monochrome image Mo.
  • FIG. 7 is a block diagram of an image processing device 1b according to the second embodiment of the present invention.
  • the image processing device lb includes an image input unit 2, a mixture ratio calculation unit 4, an image conversion unit 5, an image output unit 6, and a color designation unit 8.
  • the image input unit 2, the mixture ratio calculation unit 4, the image conversion unit 5, and the image output unit 6 are the same as those of the above-described image processing device 1a, and the description is omitted.
  • the color specification section 8 specifies a color used in the input image.
  • FIG. 8 is a flowchart illustrating an image processing method of the image processing apparatus 1b.
  • An image is input by the image input unit 2 (S 1), the color used in the input image is specified by the color specifying unit 8 (S 6), and each of R, G and B is specified by the mixture ratio calculating unit 4.
  • the mixing ratio r: g: b of the color components is determined (S3), and the R, G, and B color components are mixed by the image conversion unit 5 according to the mixing ratio, and the input image is converted into a monochrome image ( S 4), an image is output by the image output unit 6 (S 5).
  • step S2 is replaced by step S6.
  • the image processing apparatus 1a is for automatically determining the color used in the input image, while the image processing apparatus 1b is for semi-automatically determining the color. It is specified externally by the color specification unit 8 realized by.
  • the color designating section 8 allows the user to select one of the following images: monochrome, multiple colors, one color other than black, black and one color other than black. If one color other than black, one color other than black and one color other than black is selected, one color other than black is added to red (R), yellow (Y), green (G), light blue (C), and blue (B ) Or magenta (M) In this way, by allowing the user to specify the color determination, the image can be more accurately determined and converted to a monochrome image.
  • FIG. 9 is a block diagram of an image processing device 1c according to the third embodiment of the present invention.
  • the image processing device 1c includes an image input unit 2, an image conversion unit 5, an image output unit 6, and a mixture ratio designation unit 9.
  • the image input unit 2, the image conversion unit 5, and the image output unit 6 are the same as those of the above-described image processing device 1a, and the description is omitted.
  • the mixture ratio designating section 9 designates the mixture ratio r :: b of each of the R, G and B color components.
  • FIG. 10 is a flowchart showing an image processing method of the image processing apparatus 1c.
  • An image is input by the image input unit 2 (S 1), and the mixture ratio r: g: b of each of the R, G, and B color components is designated by the mixture ratio designation unit 9 (S 7), and the image conversion unit 5
  • the R, G, and B color components are mixed according to the mixing ratio, the input image is converted to a monochrome image (S4), and the image is output by the image output unit 6 (S5).
  • steps S 2 and S 3 are replaced by step S 7.
  • the image processing device 1a automatically determines the colors used in the input image and automatically calculates the mixture ratio, while the image processing device 1c calculates the mixture ratio semi-automatically.
  • the user can externally specify the mixture ratio of the color components by using a mixture ratio designation unit 9 realized by a mouse or a keyboard.
  • the mixture ratio designating section 9 allows the user to designate the mixture ratio r: g: b of the R, G, B components. As a result, the color components can be mixed in the ratio as desired by the user, and the desired monochrome image can be obtained.
  • the processing described in the first to third embodiments is realized by a program.
  • the program is stored in a computer-readable recording medium such as an optical disk or a floppy disk, and read out as necessary. May be used. Further, an image processing apparatus and an image processing method for performing such processing also belong to the scope of the present invention.
  • FIG. 11 is a block diagram of an image processing device 21a according to a fourth embodiment of the present invention.
  • the image processing device 2 1 a includes an image input unit 22, a character / line drawing area extraction unit 23,
  • the image processing apparatus includes a pseudo shade area extracting unit 24, an image reducing unit 25, and an image output unit 26.
  • An image is input by the image input unit 22, and a character / line drawing area is extracted by the character / line drawing area extracting unit 23.
  • the pseudo-shade region extraction unit 24 extracts pseudo-shade from the input image and the extraction result of the character / line drawing extraction unit 23.
  • the image reducing unit 25 performs reduction processing on the input image by a different method in a region other than a character, a line drawing region, a pseudo-shading region and a character, a line drawing, and a pseudo-shading.
  • the processed image is output by the image output unit 26.
  • the image input unit 22 and the image output unit 26 are realized in the same manner as the image input unit 2 and the image output unit 6, respectively.
  • the character / line image region extraction unit 23 performs an edge extraction after performing a smoothing process on the input image.
  • a smoothing process By performing the smoothing process, even if a line image is drawn in the pseudo shade, it is possible to accurately remove the pseudo shade portion and extract only the edge components of the character and the line image.
  • the smoothing process for example,
  • a filter such as 1/25 1/25 1 25 1/25 1/25, simply average the surrounding pixel densities.
  • the size of the filter is 5 ⁇ 5, but it may be changed according to the resolution of the original image.
  • a filter such as a Gaussian filter in which the weight is changed between the central part and the peripheral part may be used.
  • edge extraction for example, Vertical wedge (3) and horizontal wedge (4) The sum of the absolute values of the outputs of each filter using two edge extraction filters such as
  • a pixel having a value larger than a predetermined ⁇ value is determined as a character / line drawing area.
  • pixels having a value larger than a predetermined threshold value an isolated point or the like may be excluded from the character / line drawing area as noise.
  • a small area surrounded by edges can be determined to be a complicated part of a character, and may be included in a character area.
  • the pseudo-shading area extraction unit 24 calculates the variance of the surrounding pixels, and among the pixels with large variances, excludes the character / line drawing area extracted by the character / line-drawing area extraction unit 23 as a pseudo-shading area. Since the variance value increases both in the pseudo shade and the edge part of the character ⁇ line drawing, etc., by removing the character ⁇ ⁇ line drawing area part from the pixel with the large variance value, only the pseudo shade part is extracted. Can be extracted.
  • FIG. 12 is a diagram for explaining the range in which the variance of the target pixel is obtained.
  • the hatched portion is the pixel of interest, and the range surrounded by the thick line is the range for which dispersion is to be obtained.
  • the variance is obtained in a 5 ⁇ 5 region for each pixel, but the size of the region may be changed according to the resolution of the original image.
  • the variance value for each pixel is
  • the image reduction unit 25 reduces the pseudo shade area by smoothing processing and reduces the text and line drawing area by averaging processing. After performing edge enhancement processing, the image is reduced to a size other than pseudo-light, text, and line drawing. The area is reduced only by the averaging process. As a result, moire can be prevented in the pseudo-shading area, and in the character and line drawing area, sharpness can be maintained by performing the edge emphasis processing while preventing blurring and crushing by averaging processing.
  • FIG. 13 is a diagram for explaining the reduction process by the averaging process.
  • the small grid shown by the broken line is the grid of the original image
  • the large grid shown by the thick line is the grid of the reduced image.
  • the reduced image is 1/2 of the original image, but it does not have to be 1 / integral. If it is not a multiple of an integer, the grids of the original image and the reduced image do not match, but the coordinate value may be rounded to an integer, or pixels may be weighted and averaged according to the area ratio of the common part of the grid. .
  • the pixel value of the target pixel Pm shown in FIG. 13 is obtained by averaging the pixels indicated by oblique lines.
  • FIG. 14 is a diagram for explaining the reduction process by the smoothing process.
  • the small grid shown by the broken line is the grid of the original image
  • the large grid shown by the thick line is the grid of the reduced image.
  • the pixel value of the pixel of interest Pb shown in FIG. 14 is obtained by averaging the pixels indicated by diagonal lines slightly wider than the grid of the reduced image.
  • the range in which the smoothing is performed may be changed according to the reduction ratio or the resolution of the original image.
  • Edge enhancement for example, This is performed using a filter such as By performing the edge emphasis processing on the reduced image, it is possible to sharpen the rounding of the image resulting from the reduction by the averaging processing.
  • FIG. 15 is a block diagram of an image processing device 21b according to a fifth embodiment of the present invention.
  • the image processing device 21b includes an image input unit 22, a character / line image region extraction unit 23, an image reduction unit 25, an image output unit 26, and a pseudo shaded region extraction unit 27.
  • An image is input by the image input unit 22, and a character / line drawing region is extracted by the character / line drawing region extraction unit 23.
  • the pseudo shade area extracting unit 27 extracts the pseudo shade from the input image and the result of the character / line drawing area extracting unit 23.
  • the image reduction unit 25 reduces the input image in a different manner for each of the character / line drawing area, the pseudo-shading area, and the area other than the character / line drawing / pseudo-shading, and the image output unit 26 performs processing on the processed image. Is output.
  • the image input unit 22, the character / line image area extraction unit 23, the rooster image reduction unit 25, and the image output unit 26 are realized in the same manner as the image processing device 21a, and the description is omitted.
  • the pseudo-shading area extraction unit 27 obtains a correlation around the target pixel, and extracts, as a pseudo-shading area, a pixel having a low correlation excluding the character / line drawing area extracted by the character / line drawing area extraction unit 23. .
  • the pseudo-shade area has low correlation with surrounding pixels, and the edge part has a high correlation in either the vertical, horizontal, or diagonal direction, reducing the possibility of including text and line-drawing parts in the pseudo-shade area.
  • FIG. 16 is a diagram for explaining a method of determining a conflict between neighboring pixels.
  • a certain area including the target pixel is set as a reference area.
  • the reference area A is moved in the (X, y) direction in the vertical and horizontal directions of (+1, 0), (+1, +1), (0, +1), ( ⁇ 1, -1).
  • IA—B i I represents the sum of the absolute values of the differences between the corresponding pixels in regions A and B
  • n is the number of pixels in the region
  • the correlation value is obtained by the difference between the respective regions.
  • the correlation value may be obtained by another method. It is judged that the larger the correlation value C is, the lower the match is, and the smaller the correlation value is, the higher the correlation is.
  • Vertical, horizontal, and oblique lines have high correlation in any of the above four directions, so they can be excluded from the pseudo-shading region from the beginning, and the pseudo-shading region can be extracted more accurately.
  • the pseudo-shading area extraction unit 27 extracts pixels that are not extracted by the character / line drawing area extraction unit 23 among pixels (corresponding pixels having a low correlation) whose correlation value is larger than a predetermined value. Extract as As a result, it is possible to reliably extract only the pseudo shade area.
  • the image processing apparatus includes a pseudo-shading area extraction unit 24, 27 of the image processing apparatus 21a of the fourth embodiment or the image processing apparatus 21b of the fifth embodiment. Only the modifications are made, and the other components are realized in the same manner as the image processing apparatuses 21a and 21b according to the fourth or fifth embodiment, and the description will be omitted.
  • the pseudo-shading area extraction unit in the image processing apparatus according to the sixth embodiment detects edge detection of the image, and among the pixels having a large edge value, the character extracted by the character / line drawing area extraction unit 23. A region excluding the line drawing region is extracted as a pseudo shade region.
  • FIG. 17 is a flowchart showing an image processing method of the 17th to 23rd image processing apparatuses according to the present invention.
  • Step S31 is a processing module for inputting an image.
  • the image processing apparatus receives an image from an image input device such as a scanner or a storage medium. This is a processing module that reads an image into a memory.
  • Step S32 is a processing module for extracting a character / image region. After performing a smoothing process on the input image, the character / image region is extracted by performing edge extraction.
  • Step S33 is a processing module for extracting a pseudo gray area, and extracts a pseudo gray area according to the method described in the fourth, fifth, or sixth embodiment.
  • step S34 the image described in the fourth, fifth, or sixth embodiment is applied to the character / image area and pseudo-light / dark area extracted by the processing modules in steps S32 and S33.
  • This is a processing module that executes reduction processing.
  • Step S35 is a processing module that outputs the image reduced in step S34 to the image output unit 26.
  • FIG. 18 is a flowchart illustrating an image processing method of the twenty-fourth image processing apparatus according to the present invention.
  • Steps S40 to S43 are processing modules that perform the same processing as steps S31 to S34 in FIG. 17, and a description thereof will be omitted.
  • step S44 the edges of the reduced pseudo shade area are detected. The edge value should not increase because the pseudo-shading area is smoothed, but when moiré occurs, the edge is detected.
  • Step S45 is a processing module that performs a smoothing process only on pixels (for example, 60 or the like) whose edge value detected in step S44 is equal to or greater than a predetermined value. As described above, the smoothing process is performed on the reduced image.
  • Step S46 is a processing module that outputs an image, and performs the same processing as step S35.
  • FIG. 19 is a flowchart showing an image processing method of the twenty-fifth image processing apparatus according to the present invention.
  • Steps S50 to S53 are processing modules that perform the same processing as steps S31 to S34 in FIG. 17 or steps S40 to S43 in FIG.
  • step S54 an edge of the reduced pseudo shade area is detected. The edge value should not increase because the pseudo-shading area is smoothed, but when moire occurs, an edge is detected.
  • step S55 if there is a pixel whose edge value detected in step S54 is equal to or greater than a predetermined value (for example, 60), it is determined that moire has occurred, and the reduction processing is interrupted (step S5). 7). At this time, just give a warning Is also good. If there is no pixel whose edge value is equal to or larger than the predetermined value, the image is output and the process ends (step S56).
  • a predetermined value for example, 60
  • FIG. 20 is a block diagram of an image processing device 31a according to a seventh embodiment of the present invention.
  • the image processing device 31a includes an image input unit 32, image inversion units 33a and 33b, a positional relationship detection unit 34, an image correction unit 35, and an image output unit 36.
  • the front and back images of the original are input by the image input unit 32, the left and right sides are reversed only by the back image by the first image reversing unit 33a, and the positions of the front and back images by the positional relationship detection unit 34. Detect relationships.
  • the image correction unit 35 removes show-through of each of the front image and the back image by performing arithmetic processing on the front image and the back image according to the positional relationship between the front image and the back image, and again performs the second processing.
  • the left and right sides of the back image are reversed by the image reversing unit 33b, and the orientation of the back image is returned to the original, and the front image and the back image corrected by the image output unit 36 are output.
  • This output can be used for electronic books.
  • the image input unit 32 and the image output unit 36 can be realized in the same manner as the image input unit 2 and the image output unit 6, and the description is omitted.
  • the first image reversing unit 33a reverses the left and right of the back image.
  • the image to be inverted may be a front image. Since the image on the opposite side to be shown off is horizontally inverted, the back image is previously inverted so that the positional relationship detection unit 34 and the image correction unit 35 perform the pixel calculation processing. After performing the correction processing, the back image that has been subjected to the correction processing is again inverted by the second image inverting unit 33b in order to restore the normal orientation.
  • the image inverting sections 33a and 33b may have the same configuration.
  • FIG. 21 is a diagram for explaining the positional relationship detection unit 34.
  • the positional relationship detecting unit 34 is realized by, for example, a block matching unit.
  • a reference area F having a size (mxN) is set on the front image side, and a comparison area G having a size (sXt) larger than the reference area F is set on the back image side. Compare the comparison area G with the reference area F and search for the area that is most similar to the reference area F. That is, the upper left point of the reference area F is set to (0,
  • the shift amount (O x, 0 y) of the back image with respect to the front image can be obtained from the difference between the positions of the comparison area G and the reference area F.
  • block matching is performed only in one reference region F, and only the translation amount of the front image and the back image is obtained.However, block matching is performed by setting two or more reference regions F. Alternatively, the rotation amount may be detected.
  • the show-through has much lower brightness and contrast than the originally drawn image, so comparing the front image and the back image as they are when performing block matching strongly affects the image drawn on each side. And the wrong position may be detected. Therefore, in the present invention, a high-luminance component extracting means for extracting only the high-luminance component is inserted in front of the positional relationship detection unit 34, and block matching is performed using only the high-luminance component. It can be performed.
  • FIG. 22 is a graph for explaining a means for extracting a high luminance component.
  • the horizontal axis represents the input pixel value
  • the vertical axis represents the output pixel value.
  • the pixel value represents luminance, and takes a value from 0 to 255. It is determined that the luminance is low (black) as it approaches 0 and that it is high (white) as it approaches 255.
  • the fighter may be the opposite, the value may not be an integer, or it may not be in the range 0-255.
  • the means for extracting the high-luminance component cuts low-luminance components by converting only pixel values equal to or greater than the pixel value Lt of the input image into values of 0 to 255, and extracts only high-luminance components.
  • the pixel value Lt is preset to a value lower than the luminance of the show-through component, and is determined by the transmittance of the original paper, the sensitivity characteristics of the scanner, and the like.
  • a and B represent a front image and a back image including show-through read by the image input unit 32, respectively.
  • a, b, A, and B represent the corresponding pixel values at the same position.
  • the positional relationship detection unit 34 takes into account the translation and rotation. The corresponding pixel is determined.
  • r indicates the transmittance of the medium on which the image is printed, for example, manuscript paper, and can be obtained by substituting a known value or a value obtained by measurement into A, a, and b using Equation (9). it can.
  • Solving equations (9) and (10) respectively yields equations (11) and (12).
  • show-through was removed by performing arithmetic processing on the captured front image A and back image B.
  • the actual front image a and the back image b can be restored.
  • the image correction unit 35 performs the calculations of the above equations (11) and (12), and outputs the front image a and the back image b.
  • a program representing the processing steps of the above-described image inverting sections 33a and 33b, the positional relationship detecting section 34, and the image correcting section 35 is recorded on a medium such as a floppy disk, a ROM, and a CD, and can be read by a computer so that the The processing device 31a can be realized.
  • FIG. 23 is a block diagram of an image processing device 31b according to the eighth embodiment of the present invention.
  • the image processing device 31b includes an image input unit 32, an image output unit 36, an edge detection unit 37, and an image correction unit 38.
  • An image is input by the image input unit 32, An edge is detected by an edge detection unit 37, an image correction unit 38 removes show-through by increasing the luminance of the pixels other than the edge and the low-luminance area, and an image output unit 36 outputs a corrected image. I do.
  • the image input unit 32 and the image output unit 36 of the image processing device 31b are realized in the same manner as the image input unit 32 and the image output unit 36 of the image processing device 31a, and the description is omitted.
  • the edge detection of the edge detection unit 37 uses two edge detection filters, for example, as shown in Expressions (13) and (14), and the sum of the absolute values of the outputs of the filters is used as the edge detection result.
  • a pixel having a value larger than a predetermined threshold value as a result of the edge detection is determined as an edge.
  • FIG. 24 is a graph for explaining the operation of the image correction unit 38.
  • the image correction unit 38 sets a pixel value near the show-through component whose input pixel value is known in advance as t 2, a pixel value appropriately smaller than the pixel value t 2 as t 1, and a pixel value t 1
  • the show-through is corrected by changing the relationship (slope) with the output pixel value from the pixel value t2 to the pixel value t2, and correcting the output pixel value so as to saturate at the pixel value t2 or more.
  • the pixel values t 1 and t 2 are determined by the transmittance of the original paper, the sensitivity characteristics of the scanner, and the like.
  • the program representing the processing steps of the edge detection unit 37 and the image correction unit 38 described above is recorded on a medium such as a floppy disk, ROM, or CD, and can be read by a computer to realize the image processing device 31b. can do.
  • FIG. 25 is a block diagram of an image processing device 31c according to a ninth embodiment of the present invention.
  • the image processing device 31c includes an image input unit 32, an image output unit 36, an edge detection unit 37, an image division unit 39, and an image correction unit 40.
  • An image is input by the image input unit 32, and an edge is detected by the edge detection unit 37.
  • the image dividing unit 39 divides the image by the detected edges and low-luminance pixels, and the image correcting unit 40 increases the luminance only in the region where the average luminance is high in the region among the divided regions.
  • the image output unit 36 outputs the corrected image.
  • the image input unit 32, the image output unit 36, and the edge detection unit 37 of the image processing device 31c output the image. This is realized in the same manner as the image input unit 32, the image output unit 36, and the edge detection unit 37 of the processing device 31b, and the description is omitted.
  • the image dividing unit 39 divides the image area based on the edge detected by the edge detecting unit 37 and a pixel value equal to or higher than a predetermined brightness. For example, as shown in FIG. 26, an image is divided into regions 1 to 5 by an image dividing unit 39. Area 1 is a surrounding area in which characters are written, area 2 is a base area, area 3 is a black halftone area, area 4 is a light halftone area, and area 5 is a dark halftone area. It is assumed that regions 1 to 5 do not include black pixels such as characters and lines and edge portions. Then, it is assumed that show-through having the same luminance as that of the area 4 exists in the area 1 and the area 2.
  • the image correction unit 40 calculates the average luminance of the area divided by the image division unit 39. Only when the value is equal to or greater than the predetermined value, show-through is removed by correcting the luminance of only the high-luminance portion in the same manner as in FIG. 24 described in the eighth embodiment. As described above, the show-through correction is performed only in the area having the high average luminance, so that even in the halftone portion having the same luminance as the show-through, it is possible to prevent the solid area surrounded by the line from flying. In addition, since black areas and edges are removed in advance, characters are prevented from being blurred and black areas are prevented from being overexposed.
  • FIG. 27 is a graph for explaining a method of obtaining the pixel value t2.
  • a histogram of the pixel values in the high-luminance area is obtained, and pixel values t min and t max are set.
  • T2 tmax if all pixels in the high-brightness area are distributed to the right of tma X;
  • t2 tmin if they are distributed to the left of tmin ⁇
  • the pixel with the smallest value is from tmi ri If it is between tmax, that value is taken as the pixel value t2.
  • the show-through part is darker than the surrounding area, so the show-through can be removed by detecting the pixel value and correcting it to white.
  • a program representing the processing steps of the above-described edge detection unit 37, image division unit 39, and image correction unit 40 is recorded on a medium such as a floppy disk, ROM, or CD, and is read by a computer so that the image processing apparatus 3 1 c can be realized.
  • FIG. 28 is a block diagram of an image processing device 50 according to the tenth embodiment of the present invention.
  • the image processing device 50 reads the manuscript of the book separated for each page as image data by the image input unit 51 for each page, the page outline detection unit 52, the page content area extraction unit 53, and the skew correction.
  • the section 54, the page position correction section 55, and the page information processing section 57 perform the processing described below using various buffers, and output the image data corrected for the alignment between pages from the image output section 56. Is done.
  • FIG. 29 is a conceptual diagram showing the configuration of a novel book as a book input to the image processing apparatus 50.
  • the books input to the image processor 50 are the title (cover) page, table of contents page, body page (even and odd pages), and Page and back cover page. Most of the pages are body pages, and this body page has a header area (in this example, the page is shown) and a footer area (in this example, what chapter ) And a content area (text area).
  • the image processing device 50 performs the alignment between pages using the features of the book configuration.
  • the image input unit 51 takes in a binary or multi-valued image from a scanner or the like, and stores it in the input image buffer 58.
  • This image may be a monochrome image or a color image.
  • the approximate orientation of the image input is correct, starting at the beginning of the book or at the end of the book in page order. Considering that the input may be erroneously tilted when using the auto feeder, it is desirable to enlarge the input area of the scanner depending on the size of the page of the book when capturing images with a scanner. Now, this case will be described. If the page is larger than the input area of the scanner, the page may be divided and input, and connected in the input image buffer 58.
  • the image input by the image input unit 51 is composed of the actual page area of the book and the background area behind it because the page size is smaller than the input area of the scanner.
  • the page outline detection unit 52 distinguishes the background area and the page area from the input image, and extracts the outline of the page area.
  • the edge of the page that was the back part may be inclined or torn, so that it is often not an accurate rectangle.
  • the shape of the contour can be approximated by a rectangle.
  • a method of detecting the outline of the page area a method of detecting an edge portion from an image and detecting that each angle of a rectangle is 90 degrees from the edge point, or a method of scanning an image and changing a luminance.
  • FIG. FIG. 30 is a diagram for explaining this technique.
  • FIG. 31 is a flowchart for explaining this method.
  • the outline of the page area is square.
  • a method for detecting the four outermost straight lines in the image will be described.
  • S71 half conversion is performed (S71).
  • FIG. 32 is a diagram for explaining this method.
  • Figure 33 as shown in t Figure 32 is a flowchart for explaining the method (a), by scanning the image line sequentially (S 61, S 62), to extract or not a edge point.
  • This edge point is an edge with a character, an edge of a drawing or a table, or an edge of a comic balloon.
  • an edge point with a character area is obtained.
  • the obtained edge point set exists on one straight line if it is a character string, etc. There is no. Therefore, here, the tangent (straight line) of these edge sets is obtained (FIG. 32 (b)). This straight line is used as the boundary of the page content area (FIG. 32 (c)).
  • F (X, y) (y 2-y 1) x 10 (x 2-x 1) y _x ly 20 x 2 yl, the point of (x, y) becomes F (x, y) If it is ⁇ , it is on the origin side, and if F (x, y)> 0, it is on the outside.
  • the skew correction unit 54 performs a process of rotating with respect to the reference coordinate axis based on the tangent figure extracted by the page content area extraction unit 53, and corrects the skew of the input image. This process is performed for all pages of the book.
  • FIG. 34 is a diagram showing a state of image rotation.
  • the center of this rotation transformation is the coordinates (cx, cy) of the corner of the page content area.
  • this formula is applied to each pixel of the input image buffer 58, and luminance or color is assigned to the converted coordinates on the corrected image buffer 59.
  • the page information processing unit 57 determines whether the input book image is a body page or another page. The method of this determination is to compare the size or shape of the figure of the circumscribed tangent extracted by the page content area extraction unit 53, and determine that it is a body page if it is within a predetermined size or shape range. It is. In addition, since the input is performed in the order of pages, the size of the rectangle of the tangent line extracted by the page content area extraction unit 53 is almost constant in the case of a text page, so the rectangle of the tangent line is If the size of the page continues to be almost constant, it is determined that the page is the body page from the first page, or the pages are read sequentially in the page order.
  • the page information buffer 60 stores the position information of the rectangular page content area of the circumscribed line, and stores the information between the body images, that is, the page. It is used as a template for alignment between the two. If the position information of the template indicating that it is a text page serving as a reference for page alignment is already stored in the page position information buffer 60, the process proceeds to the page position correction unit 55. .
  • the page position correction unit 55 determines the position of the image of the body page whose inclination has been corrected so as to match the position information of the template indicating the body page once stored in the page position information buffer 60. Correct by parallel translation. As a result, the image output unit 56 can obtain image data without any displacement between the text pages. In other words, once a template is determined from a page that is determined to be a body page, the body page that follows that page is Positioning is performed based on the template as it is.
  • the template includes the header area, footer area, and content area of the body page, but each area is divided as shown in Fig. 35 (a)-Fig. 35 (b)
  • the information may be stored in the page position information buffer 60 in such a form. By dividing in this manner, character recognition, keyword extraction, and the like can be facilitated, and document structuring can be facilitated.
  • the above-described series of processing can be realized by a program.
  • the program may be stored in a computer-readable recording medium such as an optical disk or a floppy disk, and may be read and used as needed.
  • the color analysis means analyzes the colors used in the image, and the mixture ratio calculation means determines the color based on the analyzed colors.
  • the conversion means mixes the color components according to the calculated mixture ratio, and automatically determines the color of the input image by such an image processing device. To create a monochrome image.
  • the color analysis unit analyzes the colors used in those images, and the mixture ratio calculation unit analyzes the colors.
  • the conversion means calculates the mixture ratio of the color components common to the plurality of images based on the obtained color, and the conversion means mixes the color components in accordance with the calculated mixture ratio.
  • the color of the input image can be automatically determined and each monochrome image can be created. Also, since the color is determined from a plurality of input images, the color can be determined more accurately. Further, since a monochrome image is created for a plurality of input images under the same conditions, images can be created stably.
  • the color specifying unit specifies a color used in the image
  • the mixture ratio calculating unit specifies the color used in the image.
  • the conversion means calculates the mixture ratio of the color components based on the calculated mixture ratio, and converts the color components in accordance with the calculated mixture ratio. A more accurate monochrome image can be created.
  • the mixture ratio designating unit designates the mixture ratio of the color components for the image input from the image input unit, and the conversion unit mixes the color components according to the designated mixture ratio.
  • data is input, colors used in the image are analyzed, and a mixing ratio of color components is calculated based on the analyzed colors, and the mixing ratio of the color components is calculated according to the calculated mixing ratio.
  • the color components are mixed, and the color of the input image can be automatically determined by such an image processing method to create a monochrome image.
  • the analysis of the colors used in the input image is performed based on the distribution of the hue, saturation and lightness of the input image. Thus, the color of the input image can be automatically determined to create a monochrome image.
  • image data of a plurality of documents is input, colors used in the images are analyzed, and a color component common to the plurality of images is analyzed based on the analyzed colors. Is calculated, and the color components are mixed according to the calculated mixing ratio.
  • the colors of a plurality of input images can be automatically determined to generate respective monochrome images. . Further, since the color is determined from a plurality of input images, the color can be determined more accurately. Furthermore, since a monochrome image is created under the same conditions for a plurality of input images, the image can be created stably.
  • a color used in the input image is designated, a mixing ratio of color components is calculated based on the color, and the color components are mixed according to the calculated mixing ratio.
  • a user can specify a color used in an input image to create a more accurate monochrome image.
  • the mixture ratio is calculated with reference to a mixture ratio table.
  • a mixture ratio table By such an image processing method, the color of the input image can be automatically determined, and a monochrome image can be created. Also, by calculating the mixture ratio by referring to the mixture ratio table, it is possible to obtain the optimum mixture ratio for each color used in the image at a high speed, thereby creating a more optimal monochrome image at a high speed. can do.
  • the mixture ratio is calculated based on a color component ratio of a complementary color of a color used in the input image. By using such an image processing method, the color of the input image can be automatically determined, and a high contrast monochrome image can be created.
  • the mixture ratio is calculated based on a complementary color component ratio of a color used in the input image and a color component ratio used in the input image.
  • the color of the input image is automatically determined by such an image processing method, and the contrast is reduced. It is possible to create a monochrome image that is high and makes it easy to distinguish the color used in the image from black.
  • a mixture ratio of color components is specified for an input image, and the color components are mixed according to the mixture ratio.
  • a desired monochrome image can be created by specifying the mixing ratio of
  • the computer analyzes a color used in the input image with respect to the input image, calculates a mixing ratio of a color component based on the color, and calculates the mixing ratio.
  • a medium storing an image processing program for automatically determining the color of the input image to create a monochrome image.
  • the computer analyzes the colors used in the plurality of input images and converts the images into a plurality of images based on the colors. Calculate the mixture ratio of common color components, mix color components according to the mixture ratio, automatically and more accurately determine the colors of multiple input images, and stably create each monochrome image A medium on which an image processing program to be executed is recorded.
  • the computer specifies a color used in the input image, calculates a mixing ratio of color components based on the color, and calculates the mixing ratio. , The user can specify a color used in the input image to provide a medium storing an image processing program for creating a more accurate monochrome image.
  • the computer specifies the mixing ratio of the color components with respect to the input image, mixes the color components according to the mixing ratio, and specifies the mixing ratio of the color components.
  • an image processing program for creating a desired monochrome image is recorded.
  • an image is input by the image input means, the character / line drawing area extracting means extracts the character / line drawing area from the image, and the pseudo-shading area extracting means extracts the pseudo-shading area.
  • the image reducing means reduces the image in different ways in the pseudo-shade area, the character / line drawing area, and other areas, and reduces the reduced image.
  • the image is output by the image output means. With such an image processing device, the input image is divided into three areas: a pseudo-shade area, a character / line drawing area, and other areas.
  • the image is reduced by suppressing moire
  • the image can be sharply reduced in the line drawing area, and the image can be appropriately reduced in other areas.
  • the image reducing means reduces the image by performing a smoothing process on the pseudo-shading area, performs an averaging process on the character / line drawing area, and then performs edge enhancement.
  • the image is reduced by performing the averaging process, and the image is reduced by performing the averaging process on the other areas.
  • the pseudo gray area extracting unit extracts the pseudo gray area.
  • a character / line drawing area is extracted from an input image, and then a pseudo-shading area is extracted.Therefore, even a character / line drawing area in the pseudo-shading area is affected by the pseudo-shading area. It can be accurately extracted without the need.
  • the extraction of the character / line drawing area is performed by performing the smoothing process on the input image and then performing the edge extraction.
  • a character / line drawing area is extracted from an input image as described above, and then, a pseudo-shading area is extracted. Extraction can be performed accurately without being affected by the gray area.
  • the pseudo-shade area obtains the variance of peripheral pixels for each pixel of the input image, and among the pixels having large variance, the pixels of the area not extracted as the character / line drawing area are determined. This is done by extracting.
  • the variance of peripheral pixels is obtained, and pixels that are not extracted as a character / line drawing area are extracted as pseudo shade areas from pixels having a large variance. Only the pseudo shade area can be accurately extracted.
  • the pseudo gray-scale area is obtained by calculating the correlation between the peripheral pixels for each pixel of the input image, and is not extracted as the character / line drawing area among the pixels having low correlation. This is done by extracting the pixels of the region.
  • the correlation between peripheral pixels is obtained, and pixels having low correlation that are not extracted as a character / line drawing area are extracted as a pseudo-shading area, so that the character / line drawing area can be more reliably removed. Only the pseudo shaded region can be accurately extracted.
  • the pseudo shade area is formed by detecting an edge area of a pixel of the input image and extracting an area not extracted as a character / line drawing area from the edge area.
  • the edge filter is simple, and a pseudo shaded area can be extracted more quickly.
  • the edge detection is performed on the pseudo-shading area, and the smoothing process is performed again on the area where the density value is equal to or more than the predetermined value.
  • the edge detection is performed on the pseudo-shade area, and the reduction processing is stopped for the area having the strain value equal to or more than the predetermined value.
  • an image is input, a character / line drawing area is extracted from the image, and a pseudo gray area is extracted.
  • a character / line drawing area is extracted from the image
  • a pseudo gray area is extracted.
  • the computer extracts a character 'line drawing area, and a pseudo-shading area from an input image, and extracts a pseudo-shading area, a character / line drawing area, and an image of an area other than those.
  • a medium on which an image processing program is recorded can be provided.
  • the front image and the back image are input from the image input means, and either one of the images is inverted by the image inversion means.
  • the positional relationship between the front and back images is determined by the positional relationship detection means.
  • the image correcting means corrects the image from the positional relationship so as to remove show-through of the image, and outputs the corrected image by the output means.
  • an input image can be output without show-through.
  • only the high-luminance components of the front and back images are extracted, and block matching is performed on the high-luminance components of the images, thereby detecting the positional relationship between the front and back images. With such an image processing device, the positional relationship can be detected more accurately, and the input image can be output without further show-through.
  • an image is input from an image input unit, an edge of the image is detected by an edge detection unit, and the luminance of a high-luminance pixel other than an edge of the image based on an output of the edge detection unit is increased.
  • the image correcting means corrects the image so as to remove show-through of the image, and outputs the image by the output means.
  • Such an image processing apparatus can output an input image without show-through while preventing blurring of characters.
  • an image is input from the image input means, an edge of the image is detected by the edge detection means, and the image dividing means is determined by the edge of the image output from the edge detection means and the low-luminance pixels.
  • the image correcting means corrects the image so as to remove show-through of the image by dividing the image, obtaining the average brightness in the divided area, and increasing the luminance only in the high-luminance area, and outputting the corrected image by the output means.
  • the input image can be output without show-through while preventing the halftone portion from flying white.
  • the image is corrected by calculating a representative brightness from among the pixels whose brightness is within a predetermined range in the high brightness region, and calculating the brightness of the pixels in the region based on the representative brightness. It is done by raising.
  • a front image and a back image are input, and either one of them is input.
  • the image is inverted, and after the inversion, the positional relationship between the front and back images is detected.
  • the image is corrected so that show-through of the image is removed from the positional relationship, and the image is output.
  • an image is input, an edge of the image is detected, and the luminance of a high-luminance pixel other than the edge of the image based on the edge detection output is increased.
  • the image is corrected to remove show-through and output.
  • an image is input, an edge of the image is detected, and the image is divided and divided by the edge of the image and low-luminance pixels based on the output of the edge detection.
  • the image is corrected by removing the show-through of the image by increasing the brightness only in the high-brightness area by calculating the average brightness in the area.
  • the computer inverts one of the input front and back images, and after inversion, detects a position fighter of the front and back images, and It is possible to provide a medium recording an image processing program for correcting and outputting an image so as to remove show-through of an image from a positional relationship and outputting an input image without show-through.
  • the computer detects edges of the input image and raises the luminance of high-luminance pixels other than the edges of the image based on the output of the edge detection, so that show-through of the image is prevented. It is possible to provide a medium in which an image processing program for outputting an input image without show-through while correcting and outputting an image so as to remove the character to prevent blurring of characters can be provided.
  • the computer detects an edge of the input image, divides the image by the edge of the image based on the output of the edge detection, and the low-brightness pixels, and averages the divided area.
  • the image is corrected and output so that show-through of the image is removed, and the halftone portion is output. It is possible to provide a medium in which an image processing program for outputting an input image without show-through while preventing an image from flying white is recorded.
  • an image is input for each page from the image input means, the image determination means determines a predetermined image from the images, and a template acquisition means determines a template from the determined image. Based on the template, the image correction means corrects the position between the images and performs the alignment between the images on the continuous pages.
  • an image is input for each page of a book from the image input means, the image determination means determines a predetermined body image from the images, and a template is determined from the determined image.
  • the obtaining means obtains the image, and based on the template, the image correcting means corrects the position between the body images and performs the alignment between the body images on the continuous pages.
  • a predetermined image is determined from images input for each page, a template is obtained from the determined image, and a position between the images is determined based on the template. After correction, registration between images on successive pages is performed. With such an image processing method, it is possible to quickly perform a desired alignment between continuous images among images input for each page.
  • rectangular position information composed of tangents obtained from a set of edge points obtained by scanning an input image is obtained as a template. Since a template is obtained using an external tangent, an accurate template can be obtained even in a character area, and the accuracy of positioning can be improved.
  • a predetermined image is determined from the input images. If the position information of the input image and the position information of the template are out of the predetermined range, warning data is generated.
  • a predetermined text image is determined from among the images input for each page of the book, a template is obtained from the determined image, and a text image is determined based on the template.
  • the position between the pages is corrected, and the position between the body images on successive pages is adjusted.
  • the computer determines a predetermined image from images input for each page, obtains a template from the determined image, and determines a template between the images based on the template. Record an image processing program that corrects the position, aligns the images on successive pages, and quickly aligns the desired continuous images among the images input for each page.
  • a computer determines a predetermined body image from images input for each page of a book, and generates a template from the determined image.
  • the position between the body images is corrected by correcting the position between the body images, the position between the body images on consecutive pages is adjusted, and the position between the body images in the body image input for each page
  • the medium recording an image processing program for Align in a short time can be provided with child is.

Description

明 細 書 画像処理装置、 画像処理方法および画像処理プログラムを記録した媒体 【技術分野】
本発明は、 画像処理装置、 画像処理方法および画像処理プログラムを記録した 媒体に関する。 特に本発明は、 2色刷りや黒以外の色で印刷されたカラー印刷原 稿などをスキャナ等の画像入力手段で読取った画像を、 自然なモノクロ画像に変 換する画像処理装置、 画像処理方法および画像処理プログラムを記録した媒体に 鬨する。 また特に本発明は、 漫画などの文字と線画と網点とが組合わされた画像 を、 モアレを回避し精度よく縮小する画像処理装置、 画像処理方法および画像処 理プログラムを記録した媒体に関する。 また特に本発明は、 両面印刷した原稿や 重ねた原稿を読取った際に生じる裏写りを除去するよう補正する画像処理装置、 画像処理方法および画像処理プログラムを記録した媒体に関する。 さらに特に本 発明は、 書籍を画像ベースとして入力して電子書籍用コンテンツを作成するォー サリングシステムにおいて、 入力された書籍の画像データの中で所望のページ間 の位置合わせを行う画像処理装置、 画像処理方法および画像処理プログラムを記 録した媒体に関する。
【背景技術】
ハードウェアおよびソフトウェアの発展に伴い、 既存の紙メディアの書籍に変 わる新たな書籍の形態として、 電子書籍の発表が活発化してきており、 パーソナ ルコンピュータや携帯端末上で漫画や小説を読むことができるようになつてきて いる。
これらの電子書籍は、 音声、 画像、 動画およびアニメ等の、 いわゆるマルチメ ディア系データに対しても対応可能であるものの、 始めから電子書籍を対象とし て製作するにはコストゃ人手がかかってしまうため、 既存の書籍をそのまま電子 化したものが多い。
従来技術における電子書籍の作製においては、 以下のような課題がある。 第 1 の課題は、 カラー印刷原稿などをスキヤナ等の画像入力手段で読取つた画像を自 然なモノク口画像に変換する場合におけるものである。
一般に、 カラー画像のモノクロ画像への変換は、 カラー画像から輝度成分を抽 出することによって行われる。 以下の式 ( 1 ) はカラ一画像の赤 (R ) 、 緑 (G ) および青 ( B ) 成分から輝度成分 ( Y ) を抽出する式である。
Y = 0 . 2 9 9 R + 0 . 5 8 7 G + 0 . 1 1 4 B - ( 1 ) この方法は T V放送方式である N T S C方式でも使われており、 広く一般に知 られた方法である。 N T S C方式では力ラー画像を輝度信号と色差信号とに分け て送信しているため、 モノクロテレビジョンでも輝度信号のみを受信し、 再生す ることによって、 自然なモノクロ画像をテレビジョンに映し出すことができる。 前記式 ( 1 ) は人間の視覚特性に基づいたものであり、 輝度成分をモノクロ画 像とすることによって、 写真などのフルカラー画像を自然にモノクロ画像に変換 することができる。
ところで、 既存の書籍をそのまま電子化した電子書籍コンテンツは表示色の点 で制限はないためカラ一ディスプレイで見ることに何ら支障はないが、 電子書籍 を見るための携帯端末は価格が低く、 消費電力が小さいことが重要な要素である ため、 モノクロの液晶ディスプレイを用いることが多い。
したがって、 通常、 写真などのフルカラー画像はモノクロ画像に変換される。 前記式 ( 1 ) を使うことによって、 自然なモノクロ画像に変換でき、 既存の書籍 からモノクロコンテンツを製作することができる。 あるいは、 カラー画像をモノ クロディスプレイに表示することができる。
しかし、 既存の書籍、 特に漫画雑誌などでは画像が赤と黒のインクで 2色刷り されたり、 黒のインクを使わず、 赤、 緑および青などのうちの 1色のインクで印 刷されることがあり、 このような画像を式 ( 1 ) で変換した場合、 思い通りの画 像が得られない場合が多い。
たとえば、 赤と黒のインクで 2色刷りされた画像の場合、 輪郭や影には黒、 肌 色などには赤が使われたりする。 このような画像を式 ( 1 ) を使ってモノクロ画 像に変換した場合、 赤の混合比率が小さいため、 実際に見た画像の印象よりも赤 い部分が黒くなつてしまうという問題がある。
また、 赤、 緑および青など、 黒以外の単色のインクで画像が印刷されている場 合もある。 人間がこのような画像を見る場合、 その色自体はあまり意識せず、 黒
1色で印刷された画像と同様の印象しか持たない。 しかしながら、 このような画 像を式 ( 1 ) を用いてカラー画像と同じようにモノクロ画像に変換すると、 色が 薄く、 コントラストの低い画像となってしまう。 特に緑のインクで印刷された画 像の場合、 式 ( 1 ) では緑の混合比が大きいため、 非常に薄い色の画像になる。 第 2の課題は、 浸画などの文字と線画と網点とが組合わされた画像をモアレを 回避し精度よく縮小する場合におけるものである。
漫画や小説のような印刷物は元々非常に高い解像度で印刷されており、 これを 読取るスキャナも 4 0 0 d p i ( dot per inch ) あるいは 6 0 0 d p i以上とい つた高い解像度を持っている。 しかしながら、 パーソナルコンピュータや携帯端 末の表示の解像度はせいぜい 1 0 0 d p i程度であるため、 既存の書籍をパーソ ナルコンピュータあるいは携帯端末上で表示するためには画像の縮小処理が必要 となる。
多くの漫画では、 スクリーントーンを用いて擬似的に濃淡やグラデーションを つけている。 スクリーントーンは細かい網点、 線および模様で構成されているた め、 これを縮小すると通常、 モアレと呼ばれる縞や格子の模様が発生することが 知られている。 本発明では、 スクリーントーンを用いて擬似的に濃淡ゃグラデー ションを付けた領域を擬似濃淡領域と呼ぶことにする。
従来から画像を縮小する方法は大きく分けて 2つあり、 全体を画一的に処理す る方法と、 領域分割し、 それぞれの領域に対して最適な方法で縮小処理する方法 とがある。 画像を画一的に処理する方法としては、 単純に画素を間引いて縮小す る間引き処理や、 元画像の画素値を平均化することによって縮小画像の画素値を 決定する平均法などが一般的に用いられる (貴家仁志著、 「ディジタル画像の解 像度変換」 、 C Q出版社、 インタ一フヱイス 1 9 9 8年 6月号 P 7 2 ) 。
また、 画像を領域分割する方法として、 特開平 4一 3 6 5 1 8 2号公報に記載 の画像処理装置がある。 特開平 4一 3 6 5 1 8 2号公報に記載の画像処理装置に よると、 2値化された画像を線画領域と絵柄領域との 2つの領域に分割し、 線画 領域では細線を保存するように縮小し、 絵柄領域では画素密度に基づいて多値化 処理してから縮小 · 2値化処理し、 縮小時に発生するモアレを抑え、 文字 ·線画 部分も精密に縮小する方法が示されている。
しかしながら、 文字と線画と網点との混在する漫画などの画像を縮小する場合 , 間引き処理では網点部分でモアレが発生したり、 文字や線画が掠れたり、 潰れた りする。 一方、 平均法ではモアレは抑えられ、 文字や細線なども掠れたり、 漬れ たりすることは少ないが、 全体的に鮮鋭さが失われてしまう。 鮮鋭さを出すため には縮小後にェッジ強調処理をすることが可能であるが、 抑えられたモアレまで が強調され、 出現する。 また、 画素を平均する範囲を大きくすることによって、 完全にモアレをなくすことができるが、 反対に文字と線画が偬けてしまう。
上述のように、 間引き処理や平均化処理による従来技術の画一的な処理ではモ ァレを抑えつつ文字と線画を鮮鋭にすることは不可能であり、 画像の領域を分離 してそれぞれの領域に応じた処理が必要となる。
特開平 4一 3 6 5 1 8 2号公報に記載の画像処理装置は、 領域分離を行い、 領 域に応じた縮小処理を行うようになっているが、 浸画などは網点中に線画が書か れるため、 単純なパターンマッチングで文字■線画を分離することはできない。 また、 文字は吹き出しとして画像の中に書かれるため、 単純な矩形で分離するこ とも難しい。 文字 ·線画領域とこれ以外の領域との 2つに分け、 文字■線画以外 の領域で平滑化を行う方法では、 文字 ·線画領域の抽出誤りが発生しやすい。 た とえば細い線や入り組んだ文字の中の少し惚けた部分などはエッジ成分が少ない ため、 文字 ·線画領域として抽出されない場合があり、 この部分に平滑化処理を 行うと、 さらに文字や線画部分が惚けてしまう。
第 3の課題は、 両面印刷した原稿や重ねた原稿を読取った際に生じる裏写りを 除去するよう補正する場合におけるものである。
既存の書籍は通常、 紙の両面に印刷されているため、 これをスキャナなどで読 取る場合、 あるいはページを重ねた状態でスキャナなどで読取る場合、 裏側の画 像が表側に透けて見えてしまう、 いわゆる裏写りの問題がある。 従来から、 裏写りを補正する装置として、 特開平 6— 1 4 1 8 5号公報に示さ れる画像読取装置がある。 特開平 6— 1 4 1 8 5号公報記載の画像読取装置は、 原稿の裏面や重ねた次ページの原稿が透過して複写されないように、 画像信号を 濃度補正して濃度を下げることによって、 低濃度である裏写り部分を除去するも のである。
表画像データと裏画像データとを用いて裏写りを補正する装置として、 特開平 6 - 6 2 2 1 6号公報に示される画像形成装置がある。 特開平 6— 6 2 2 1 6号 公報記載の画像形成装置では、 表画像データと裏画像データとを A N D演算し、 その出力をヒストグラム計算して平滑化し、 その後、 閾値処理してこれを表画像 データから重なり部分のデータを除いた画像データと合成することによって、 表 画像の低濃度部を損なうことなく、 裏写りを除去するものである。
また、 特開平 8— 3 4 0 4 4 7号公報に示される裏写り除去機能付き画像処理 装置では、 映像信号から裏写り領域と、 裏写り領域内の裏写りレベルとを検出し、 裏写りレベルに従って裏写り領域の濃度補正を行うことによって、 裏写りを除丟 するものである。
しかしながら、 特開平 6— 1 4 1 8 5号公報記載の画像読取装置では、 画像全 体に対して濃度補正をかけるため、 ハーフトーン部分が白く飛んでしまったり、 文字が掠れたりといった問題がある。
特開平 6— 6 2 2 1 6号公報記載の画像形成装置では、 ハーフトーン部分が裏 写りしていた場合など、 完全に裏写りを除去できない場合がある。 また、 表画像 と裏画像の位置鬨係が予め判っている必要があるが、 自動紙送りをしていた場合 でも必ずしも同じ場所で画像を取り込めるとは限らないため、 画像が所定の位置 とずれていた場合には完全に裏写りを除去することができない。
特開平 8— 3 4 0 4 4 7号公報記載の裏写り除去機能付き画像処理装置では、 裏写りがあると判定する領域が、 非文字画素が連続している領域、 非絵柄画素が 連続している領域、 所定濃度以下の画素が連続している領域、 あるいは所定彩度 以下の画素が連続している領域であり、 ミクロな範囲で判定しているため、 たと えば大きな範囲の黒ベタの文字、 画像が裏写りしていた場合、 裏写りと表側のハ ーフトーンとの判別ができない。
第 4の課題は、 書籍を画像ベースとして入力して電子書籍用コンテンツを作成 するォーサリングシステムにおいて、 入力された書籍の画像データの中で所望の ページ間の位置合わせを行う場合におけるものである。
電子書籍は、 音声、 画像、 動画およびアニメ等の、 いわゆるマルチメディア系 データに対しても対応可能であるものの、 基本的にはテキスト (文字コード) ベ ースの形式をとつている。 一方、 紙メディアによる書籍、 いわゆる 「本」 は、 現 在でも年間 5 0万タイトルを数え、 その総数は膨大なものであるが、 電子化され たタイトル数は非常に少なく、 その殆どが紙メディアでしか存在していない。 し かし、 このような従来の電子書籍は、 テキスト (文字コード) ベースのため以下 の問題がある。
紙メディアの書籍をォ一サリングするには、 人手または O C Rを利用してテキ ストデータを作成しなければならない。 このためコンテンツ作成に多くの時間を 必要とし、 タイムリーでかつ大量のコンテンツ供袷が困難である。 また、 漫画や 写真雑誌などテキスト以外のデータが大部分を占める書籍は、 コンテンツ化し難 い。 このような事情のため、 従来の電子書籍コンテンツ数は数百程度と少なく、 かつ内容も辞書系に偏っている。 このため、 電子書籍の普及率は、 紙書籍の 1 % にも達していないのが現状である。 特に、 コンテンツの種類が少ない問題は致命 的で、 電子書籍普及の大きな妨げとなっている。 そこで、 上記問題を解決する手 段としては、 画像ベースで入力して電子書籍コンテンツを得ることが考えられる < これは、 以下の利点を有する。
基本的には、 既存の紙メディアの書籍をスキャニングするだけでコンテンツ作 成が行え、 短期間に大量のコンテンツ供給が可能となる。 浸画や写真雑誌など、 テキストベースの電子書籍では不可能であったコンテンツ供袷が可能となる。 外 字や異体字など、 または古文書などのように、 現在の文字コード体系に合ってい ない文字が存在しても容易に取り込める。 言語 (文字コード) に依存しないため. ビューヮゃォーサリングシステム全体の海外展開 (普及〉 が容易である。 上記利 点により、 画像ベースの電子書籍は、 テキストベースの電子書籍の問題点を全て 解決することができる。 ところが、 画像ベースで入力して電子書籍コンテンツを 得るには、 A D F ( Auto Document Feeder )等でスキャナ入力して、 文書構造化 等の各種処理を施せばよいが、 以下のような問題点を生じる。
スキャナ入力の際に画像の傾きやずれが生じ、 電子書籍の場合、 ビューヮに基 準となる直線 (たとえば、 C R Tや液晶のエッジ部分) があり、 紙に比べて、 よ り傾きが強調され、 ユーザに不快感を与える。 このため、 これを補正する処理が 必要となる。 これを人手に頼っても相当な作業量を必要とし、 著しいォーサリン グ時間の増大を招いてしまう。 特に、 電子書籍の本文ページの場合に傾きやずれ があると、 ビューヮで見るときに大きな不快感をもたらしてしまう。 さらに、 電 子書籍コンテンツの校閲のため全ページを確認していると、 ォーサリング時間の 増大を招き、 短期間に大量のコンテンツ供給ができなくなるため、 適切なエラー 処理が必要となる。
本発明の第 1の目的は、 2色刷りあるいは黒以外の色で印刷された原稿を、 自 然なモノク口画像に変換する画像処理装置、 画像処理方法および画像処理プログ ラムを記録した媒体を提供することである。
また本発明の第 2の目的は、 漫画などの文字と線画と網点とが組合わされた画 像を、 鮮鋭かつモアレを生じることなく縮小する画像処理装置、 画像処理方法、 画像処理プログラムを記録した媒体を提供することである。
また本発明の第 3の目的は、 両面印刷した原稿あるいはページを重ねた原稿を 読取った際に生じる裏写りを除去するよう画像を補正する画像処理装置、 画像処 理方法および画像処理プログラムを記録した媒体を提供することである。
さらに本発明の第 4の目的は、 位置が揃った画像を得ることができる画像処理 装置、 画像処理方法および画像処理プログラムを記録した媒体を提供することで ある。
【発明の開示】
第 1の本発明は、 画像入力手段と、
入力された画像内で使われている色を分析する色分析手段と、
分析された色に基づいて、 色成分の混合比を算出する混合比算出手段と、 算出された混合比に従って色成分を混合して、 入力された画像をモノクロ画像 に変換する変換手段とを備えることを特徴とする画像処理装置である。
本発明に従えば、 画像入力手段からは、 たとえば所定単位毎に原稿の画像が読 み取られてデータが入力される。 入力された画像に対して、 色分析手段は、 その 画像内で使われている色を分析する。 さらに、 混合比算出手段は、 分析された色 に基づいて、 赤、 緑および青などの色成分の混合比を算出する。 すなわち、 入力 画像内で使われている色に応じて混合比を決定する。 変換手段は、 算出された混 合比に従って色成分を混合して、 入力画像をモノクロ画像に変換する。
したがって、 入力画像の色を自動的に判別して、 モノクロ画像を作成すること ができる。
また第 2の本発明は、 第 1の本発明において、 前記画像入力手段は、 複数枚の 画像が入力可能で、
前記色分析手段は、 入力された複数枚の画像内で使われている色を分析し、 前記混合比算出手段は、 分析された色に基づいて、 複数枚の画像に共通の色成 分の混合比を算出し、
前記変換手段は、 算出された混合比に従って色成分を混合して、 入力された複 数枚の画像をモノクロ画像にそれぞれ変換することを特徴とする。
本発明に従えば、 画像入力手段からは、 たとえば所定単位毎に複数枚の原稿の 画像が読み取られてデータが入力される。 入力された複数枚の画像に対して、 色 分析手段は、 それらの画像内で使われている色を分析する。 さらに、 混合比算出 手段は、 分析された色に基づいて、 複数枚の画像に共通の色成分の混合比を算出 する。 すなわち、 複数枚の入力画像内で使われている色に応じて混合比を決定す る。 変換手段は、 算出された混合比に従って色成分を混合して、 複数枚の入力画 像をモノクロ画像にそれぞれ変換する。
したがって、 複数枚の入力画像の色を自動的に判別して、 それぞれのモノクロ 画像を作成することができる。 また、 複数枚の入力画像から色を判別するので、 より正確に色を判別することができる。 さらに、 複数枚の入力画像に対して同じ 条件でモノクロ画像を作成するので、 画像を安定的に作成することができる。 また第 3の本発明は、 画像入力手段と、
入力された画像内で使われている色を外部から指定する色指定手段と、 指定された色に基づいて、 色成分の混合比を算出する混合比算出手段と、 算出された混合比に従って色成分を混合して、 入力された画像をモノクロ画像 に変換する変換手段とを備えることを特徴とする画像処理装置である。
本発明に従えば、 画像入力手段から入力された画像に対して、 色指定手段は、 その画像内で使われている色を指定する。 さらに、 混合比算出手段は、 指定され た色に基づいて、 色成分の混合比を算出する。 すなわち、 入力画像内で使われて いる色に応じて混合比を決定する。 変換手段は、 算出された混合比に従って色成 分を混合して、 入力画像をモノクロ画像に変換する。
したがって、 ユーザが入力画像で使われている色を指定して、 より正確なモノ クロ画像を作成することができる。
また第 4の本発明は、 画像入力手段と、
色成分の混合比を外部から指定する混合比指定手段と、
指定された混合比に従って色成分を混合して、 入力された画像をモノクロ画像 に変換する変換手段とを備えることを特徴とする画像処理装置である。
本発明に従えば、 画像入力手段から入力された画像に対して、 混合比指定手段 は、 色成分の混合比を指定する。 変換手段は、 指定された混合比に従って色成分 を混合して、 入力画像をモノクロ画像に変換する。
したがって、 ユーザが色成分の混合比を指定して、 所望のモノクロ画像を作成 することができる。
また第 5の本発明は、 入力された画像内で使われている色を分析する色分析ス テップと、
分析された色に基づいて色成分の混合比を算出する混合比算出ステップと、 算出された混合比に従って色成分を混合して、 入力された画像をモノクロ画像 に変換する変換ステップとを備えることを特徴とする画像処理方法である。 本発明に従えば、 たとえば所定単位毎に原稿の画像が読み取られてデータが入 力され、 該画像に対して、 その画像内で使われている色が分析され、 分析された 色に基づいて、 色成分の混合比が算出されて、 入力画像内で使われている色に応 じて混合比が決定される。 さらに、 算出された混合比に従って色成分が混合され て、 入力画像がモノクロ画像に変換される。
したがって、 入力画像の色を自動的に判別して、 モノクロ画像を作成すること ができる。
また第 6の本発明は、 第 5の本発明において、 前記色分析ステップでは、 入力 された画像の色相、 彩度および明度の分布に基づいて色を分析することを特徴と する。
本発明に従えば、 入力された画像に対して、 その画像内で使われている色が分 析される。 ここで、 色の分析は、 入力画像の色相、 彩度および明度の分布に基づ いて行われる。 たとえば、 色相と彩度との分布から代表の色相と分散とを求める < 次に、 明度のヒストグラムから黒画素の有無を判定する。 さらに、 入力画像内で 使われている色を分析する。 すなわち、 代表の色相がない場合はモノクロ画像で あると判断し、 分散が所定値以上の場合は複数の色が使われた画像であると判断 し、 代表の色相がなくかつ分散が所定値以上であって、 黒画素がない場合には黒 以外の単色画像であると判断し、 黒画素がある場合には黒ともう 1色が使われた 画像であると判断する。 さらに、 分析された色に基づいて、 色成分の混合比が算 出されて、 入力鹵像内で使われている色に応じて混合比が決定される。 さらに、 算出された混合比に従って色成分が混合されて、 入力画像がモノクロ画像に変換 される。
したがって、 入力画像の色を自動的に判別して、 モノクロ画像を作成すること ができる。
また第 7の本発明は、 入力された複数枚の画像内で使われている色を分析する 色分析ステップと、
分析された色に基づいて複数枚の画像に共通の色成分の混合比を算出する混合 比算出ステップと、
算出された混合比に従って色成分を混合して、 入力された複数枚の画像をモノ クロ画像にそれぞれ変換する変換ステツプとを備えることを特徴とする画像処理 方法である。
本発明に従えば、 たとえば所定単位毎に複数枚の原稿の画像が読み取られてデ ータが入力され、 該画像に対して、 それらの画像内で使われている色が分析され、 分析された色に基づいて、 複数枚の画像に共通の色成分の混合比が算出されて、 入力画像内で使われている色に応じて混合比が決定される。 さらに、 算出された 混合比に従って色成分が混合されて、 複数枚の入力画像がモノクロ画像にそれぞ れ変換される。
したがって、 複数枚の入力画像の色を自動的に判別して、 それぞれのモノクロ 画像を作成することができる。 また、 複数枚の入力画像から色を判別するので、 より正確に色を判別することができる。 さらに、 複数枚の入力画像に対して同じ 条件でモノク口画像を作成するので、 画像を安定的に作成することができる。 また第 8の本発明は、 入力された画像内で使われている色を外部から指定する 色指定ステツプと、
指定された色に基づいて色成分の混合比を算出する混合比算出ステツプと、 算出された混合比に従って色成分を混合して、 入力された画像をモノクロ画像 に変換する変換ステップとを備えることを特徴とする画像処理方法である。
本発明に従えば、 入力された画像に対して、 その画像内で使われている色が指 定され、 該色に基づいて色成分の混合比が算出されて、 入力画像內で使われてい る色に応じて混合比が決定され、 さらに算出された混合比に従って色成分が混合 されて、 入力画像がモノクロ画像に変換される。
したがって、 ユーザが入力画像で使われている色を指定して、 より正確なモノ ク口画像を作成することができる。
また第 9の本発明は、 第 5、 6および 8のいずれかに記載の本発明において、 前記混合比算出ステップでは、 入力された画像内で使われている色に対応する色 成分の混合比を予め格納した混合比テーブルに基づいて、 混合比を算出すること を特徴とする。
本発明に従えば、 入力画像に対して、 その画像内で使われている色が分析ある いは指定され、 該色に基づいて色成分の混合比が算出されて、 入力画像内で使わ れている色に応じて混合比が決定される。 ここで、 混合比は、 前記混合比テープ ルを参照して算出される。 さらに、 算出された混合比に従って色成分が混合され て、 入力画像がモノクロ画像に変換される。
したがって、 入力画像の色を自動的に判別して、 モノクロ画像を作成すること ができる。 また、 混合比テーブルを参照して混合比を算出することによって、 画 像で使用されている各色に最適な混合比を高速に得ることができるので、 より最 適なモノク口画像を高速で作成することができる。
また第 1 0の本発明は、 第 5、 6および 8のいずれかに記載の本発明において、 前記混合比算出ステップでは、 入力された画像内で使われている色の補色の色成 分の割合に基づいて、 混合比を算出することを特徴とする。
本発明に従えば、 入力画像に対して、 その画像内で使われている色が分析ある いは指定され、 該色に基づいて色成分の混合比が算出されて、 入力画像内で使わ れている色に応じて混合比が決定される。 ここで、 混合比は、 入力画像内で使わ れている色の補色の色成分割合に基づいて算出される。 さらに、 算出された混合 比に従って色成分が混合されて、 入力画像がモノク口画像に変換される。
したがって、 入力画像の色を自動的に判別して、 コントラストの高いモノクロ 画像を作成することができる。
また第 1 1の本発明は、 第 5、 6および 8のいずれかに記載の本発明において- 前記混合比算出ステップでは、 入力された画像内で使われている色の補色成分の 割合と入力された画像内で使われている色の成分の割合とに基づいて、 混合比を 算出することを特徴とする。
本発明に従えば、 入力画像に対して、 その画像内で使われている色が分析ある いは指定され、 該色に基づいて色成分の混合比が算出されて、 入力画像内で使わ れている色に応じて混合比が決定される。 ここで、 混合比は、 入力画像内で使わ れている色の補色成分割合と入力画像内で使われている色成分割合とに基づいて 算出される。 さらに、 算出された混合比に従って色成分が混合されて、 入力画像 がモノクロ画像に変換される。
したがって、 入力画像の色を自動的に判別して、 コントラストが高く、 かつ画 像で使われている色と黒とを判別しやすいモノクロ画像を作成することができる, また第 1 2の本発明は、 入力された画像の色成分の混合比を外部から指定する 混合比指定ステップと、
指定された混合比に従って色成分を混合して、 入力された画像をモノクロ画像 に変換する変換ステップとを備えることを特徴とする画像処理方法である。
本発明に従えば、 入力された画像に対して、 色成分の混合比が指定され、 該混 合比に従って色成分が混合されて、 入力画像がモノクロ画像に変換される。
したがって、 ユーザが色成分の混合比を指定して、 所望のモノクロ画像を作成 することができる。
また第 1 3の本発明は、 入力された画像內で使われている色を分析する色分析 ステップと、 分析された色に基づいて色成分の混合比を算出する混合比算出ステ ップと、 算出された混合比に従って色成分を混合して、 入力された画像をモノク 口画像に変換する変換ステップとを、 コンピュータに実行させるための画像処理 プログラムを記録した媒体である。
本発明に従えば、 上記媒体に記録された画像処理プログラムに従ってコンビュ ータは、 入力画像に対して、 その画像内で使われている色を分析し、 該色に基づ いて色成分の混合比を算出して入力画像内で使われている色に応じて混合比を決 定し、 該混合比に従って色成分を混合して、 入力画像をモノクロ画像に変換する ことができ、 したがって入力画像の色を自動的に判別してモノクロ画像を作成す ることができる。
また第 1 4の本発明は、 入力された複数枚の画像内で使われている色を分析す る色分析ステップと、 分析された色に基づいて複数枚の画像に共通の色成分の混 合比を算出する混合比算出ステップと、 算出された混合比に従って色成分を混合 して、 入力された複数枚の画像をモノク口画像にそれぞれ変換する変換ステツプ とを、 コンピュータに実行させるための画像処理プログラムを記録した媒体であ る。
本発明に従えば、 上記媒体に記録された画像処理プログラムに従ってコンビュ ータは、 入力された複数枚の画像に対して、 それらの画像内で使われている色を 分析し、 該色に基づいて複数枚の画像に共通の色成分の混合比を算出して入力画 像内で使われている色に応じて混合比を決定し、 該混合比に従って色成分を混合 して、 複数枚の入力画像をモノクロ画像にそれぞれ変換することができ、 したが つて複数枚の入力画像の色を自動的にかつより正確に判別してそれぞれのモノク 口画像を安定的に作成することができる。
また第 1 5の本発明は、 入力された画像内で使われている色を外部から指定す る色指定ステップと、 指定された色に基づいて色成分の混合比を算出する混合比 算出ステップと、 算出された混合比に従って色成分を混合して、 入力された画像 をモノクロ画像に変換する変換ステップとを、 コンピュータに実行させるための 画像処理プログラムを記録した媒体である。
本発明に従えば、 上記媒体に記録された画像処理プログラムに従ってコンビュ 一夕は、 入力画像に対して、 その画像内で使われている色を指定し、 該色に基づ いて色成分の混合比を算出して入力画像内で使われている色に応じて混合比を決 定し、 該混合比に従って色成分を混合して、 入力画像をモノクロ画像に変換する ことができ、 したがってユーザが入力画像で使われている色を指定してより正確 なモノクロ画像を作成することができる。
また第 1 6の本発明は、 入力された画像の色成分の混合比を外部から指定する 混合比指定ステップと、 指定された混合比に従って色成分を混合して、 入力され た画像をモノクロ画像に変換する変換ステップとを、 コンピュータに実行させる ための画像処理プログラムを記録した媒体である。
本発明に従えば、 上記媒体に記録された画像処理プログラムに従ってコンビュ ータは、 入力画像に対して、 色成分の混合比を指定し、 該混合比に従って色成分 を混合して、 入力画像をモノクロ画像に変換することができ、 したがってユーザ が色成分の混合比を指定して所望のモノク口画像を作成することができる。 また第 1 7の本発明は、 画像入力手段と、
入力された画像から文字 ·線画領域を抽出する文字 ·線画領域抽出手段と、 入力された画像から擬似濃淡領域を抽出する擬似濃淡領域抽出手段と、 抽出された擬似濃淡領域および文字 ·線画領域と、 擬似濃淡 ·文字 ·線画以外 の領域とにおいて、 互いに異なる方法で画像を縮小する画像縮小手段と、 縮小された画像を出力する画像出力手段とを備えることを特徴とする画像処理 装置である。
本発明に従えば、 画像入力手段によって画像が入力され、 該画像から文字,線 画領域抽出手段は文字 ·線画領域を抽出し、 また擬似濃淡領域抽出手段は擬似濃 淡領域を抽出する。 画像縮小手段は、 擬似濃淡領域、 文字 ·線画領域およびそれ ら以外の領域において、 互いに異なる方法で画像を縮小する。 縮小された画像は. 画像出力手段によって出力される。
したがって、 入力画像を、 擬似濃淡領域、 文字 ·線画領域およびそれら以外の 領域の 3つの領域に分割し、 各領域の画像を互いに異なる方法で縮小することに よって、 擬似濃淡領域ではモアレを抑制して画像を縮小し、 文字 ·線画領域では 鮮鋭に画像を縮小し、 それら以外の領域では適宜画像を縮小することができる。 たとえば、 所定の解像度で画像を読取り入力して画像を縮小するとモアレが発生 してしまう場合であつても、 本発明によれば所定の解像度で画像を読取り入力し, モアレを発生することなく鮮鋭に画像を縮小することができる。
また第 1 8の本発明は、 第 1 7記載の本発明において、 前記画像縮小手段は、 擬似濃淡領域に対しては平滑化処理を行い、 文字 ·線画領域に対しては平均化処 理を行った後にエッジ強調化処理を行い、 擬似濃淡 ·文字 ·線画以外の領域に対 しては平均化処理を行うことを特徴とする。
本発明に従えば、 画像入力手段によって画像が入力され、 該画像から文字 ·線 画領域抽出手段は文字 ·線画領域を抽出し、 また擬似濃淡領域抽出手段は擬似濃 淡領域を抽出する。 画像縮小手段は、 擬似濃淡領域、 文字 · 線画領域およびそれ ら以外の領域において、 互いに異なる方法で画像を縮小する。 ここで、 擬似濃淡 領域に対しては平滑化処理を行って画像を縮小し、 文字 ·線画領域に対しては平 均化処理を行った後にエッジ強調化処理を行って画像を縮小し、 それら以外の領 域に対しては平均化処理を行って画像を縮小する。 縮小された画像は、 画像出力 手段によって出力される。
したがって、 擬似濃淡領域ではモアレを抑制して画像を縮小し、 文字 ·線画領 域では鮮鋭に画像を縮小し、 それら以外の領域では適宜画像を縮小することがで きる。
また第 1 9の本発明は、 第 1 7記载の本発明において、 前記文字 ·線画領域抽 出手段は、 入力された画像から擬似濃淡領域を抽出する前に、 文字 ·線画領域を 抽出することを特徴とする。
本発明に従えば、 画像入力手段によって画像が入力され、 該画像から文字 '線 画領域抽出手段が文字■線画領域を抽出した後、 擬似濃淡領域抽出手段が擬似濃 淡領域を抽出する。 画像縮小手段は、 擬似濃淡領域、 文字■線画領域およびそれ ら以外の領域において、 互いに異なる方法で画像を縮小する。 縮小された画像は, 画像出力手段によって出力される。
したがって、 入力画像からまず文字 ·線画領域を抽出し、 次に擬似濃淡領域を 抽出するので、 擬似濃淡領域内の文字 ·線画領域であっても、 擬似濃淡領域に影 響されることなく正確に抽出することができる。
また第 2 0の本発明は、 第 1 9記載の本発明において、 前記文字 ·線画領域抽 出手段は、 入力された画像に平滑化処理を行った後にエッジ抽出を行うことによ つて、 文字 ·線画領域を抽出することを特徴とする。
本発明に従えば、 画像入力手段によって画像が入力され、 該画像から文字,線 画領域抽出手段が文字 ·線画領域を抽出した後、 擬似濃淡領域抽出手段が擬似濃 淡領域を抽出する。 ここで、 文字 ·線画領域の抽出は、 入力画像に対して平滑化 処理を行った後にエッジ抽出を行うことによってなされる。 画像縮小手段は、 擬 似濃淡領域、 文字 ·線画領域およびそれら以外の領域において、 互いに異なる方 法で画像を縮小する。 縮小された画像は、 画像出力手段によって出力される。
したがって、 入力画像から、 まず文字 ·線画領域を上述のようにして抽出し、 次に擬似濃淡領域を抽出するので、 擬似濃淡領域内の文字■線画領域であっても、 擬似濃淡領域に影響されることなく正確に抽出することができる。
また第 2 1の本発明は、 第 1 7、 1 9および 2 0のいずれかに記載の本発明に おいて、 前記擬似濃淡領域抽出手段は、 入力された画像の画素毎に周辺画素の分 散を求め、 分散の大きい画素のうち、 上記文字 ·線画領域抽出手段によって文字 線画領域として抽出されていない領域の画素を擬似濃淡領域として抽出すること を特徴とする。
本発明に従えば、 画像入力手段によって画像が入力され、 該画像から文字 ·線 画領域抽出手段は文字 ·線画領域を抽出し、 また擬似濃淡領域抽出手段は擬似濃 淡領域を抽出する。 また、 入力画像から、 まず文字,線画領域を抽出した後、 擬 似濃淡領域を抽出する。 また、 文字 ·線画領域は上述した所定の手法によって抽 出される。 ここで、 擬似濃淡領域は、 入力画像の画素毎に周辺画素の分散を求め. 分散の大きい画素のうち、 文字 ·線画領域として抽出されていない領域の画素を 抽出することによってなされる。 画像縮小手段は、 擬似濃淡領域、 文字■線画領 域およびそれら以外の領域において、 互いに異なる方法で画像を縮小する。 縮小 された画像は、 画像出力手段によって出力される。
したがって、 周辺画素の分散を求め、 分散の大きい画素のうち、 文字 ·線画領 域として抽出されない画素を擬似濃淡領域として抽出することによって、 文字 - 線画領域を除いて、 擬似濃淡領域のみを正確に抽出することができる。
また第 2 2の本発明は、 第 1 7、 1 9および 2 0のいずれかに記載の本発明に おいて、 前記擬似濃淡領域抽出手段は、 入力された画像の画素毎に周辺画素の相 鬨を求め、 相関の低い画素のうち、 上記文字 ·線画領域抽出手段によって文字 - 線画領域として抽出されていない領域の画素を擬似濃淡領域として抽出すること を特徴とする。
本発明に従えば、 画像入力手段によって画像が入力され、 該画像から文字 '線 画領域抽出手段は文字 ·線画領域を抽出し、 また擬似濃淡領域抽出手段は擬似濃 淡領域を抽出する。 また、 入力画像から、 まず文字 ·線画領域を抽出した後、 擬 似濃淡領域を抽出する。 また、 文字 '線画領域は上述した所定の手法によって抽 出される。 ここで、 擬似濃淡領域は、 入力画像の画素毎に周辺画素の相関を求め 相関の低い画素のうち、 文字 ·線画領域として抽出されていない領域の画素を抽 出することによってなされる。 画像縮小手段は、 擬似濃淡領域、 文字 · 線画領域 およびそれら以外の領域において、 互いに異なる方法で画像を縮小する。 縮小さ れた画像は、 画像出力手段によって出力される。 したがって、 周辺画素の相関を求め、 相関の低い画素のうち、 文字■線画領域 として抽出されない画素を擬似潘淡領域として抽出することによって、 文字 ·線 画領域をより確実に除いて、 擬似濃淡領域のみを正確に抽出することができる。 また第 2 3の本発明は、 第 1 7、 1 9および 2 0のいずれかに記载の本発明に おいて、 前記擬似濃淡領域抽出手段は入力された画像のエッジ領域を検出し、 検 出されたエッジ領域のうち、 上記文字 ·線画領域抽出手段によって文字 ·線画領 域として抽出されていない領域を擬似濃淡領域として抽出することを特徴とする, 本発明に従えば、 画像入力手段によって画像が入力され、 該画像から文字 -線 画領域抽出手段は文字,線画領域を抽出し、 また擬似濃淡領域抽出手段は擬似濃 淡領域を抽出する。 また、 入力画像から、 まず文字 ·線画領域を抽出した後、 擬 似濃淡領域を抽出する。 また、 文字■線画領域は上述した所定の手法によって抽 出される。 ここで、 擬似濃淡領域は、 入力画像の画素のエッジ領域を検出し、 該 エッジ領域のうち、 文字■線画領域として抽出されていない領域を抽出すること によってなされる。 画像縮小手段は、 擬似濃淡領域、 文字 ·線画領域およびそれ ら以外の領域において、 互いに異なる方法で画像を縮小する。 縮小された画像は. 画像出力手段によって出力される。
したがって、 エッジフィルタは単純であり、 より高速に擬似濃淡領域を抽出す ることができる。
また第 2 4の本発明は、 第 1 8記載の本発明において、 上記画像縮小手段は抽 出された擬似濃淡領域のエッジ検出を行い、 濃度値が所定値以上の領域に対して. 再度、 平滑化処理を行うことを特徴とする。
本発明に従えば、 画像入力手段によって画像が入力され、 該画像から文字 '線 画領域抽出手段は文字 ·線画領域を抽出し、 また擬似濃淡領域抽出手段は擬似濃 淡領域を抽出する。 画像縮小手段は、 擬似濃淡領域に対しては平滑化処理を行つ て画像を縮小し、 文字 ·線画領域に対しては平均化処理を行った後にエッジ強調 化処理を行って画像を縮小し、 それら以外の領域に対しては平均化処理を行って 画像を縮小する。 ここで、 擬似濃淡領域に対して、 エッジ検出を行って、 濃度値 が所定値以上の領域に対して、 再度、 平滑化処理を行う。 縮小された画像は、 画 像出力手段によって出力される。
したがって、 擬似濃淡領域でモアレをさらに確実に抑制して、 画像を精度よく 縮小することができる。
また第 2 5の本発明は、 第 1 7記載の本発明において、 上記画像縮小手段は抽 出された擬似濃淡領域のエッジ検出を行い、 濃度値が所定値以上の領域に対して は、 縮小処理を停止することを特徴とする。
本発明に従えば、 画像入力手段によって画像が入力され、 該画像から文字,線 画領域抽出手段は文字 ·線画領域を抽出し、 また擬似濃淡領域抽出手段は擬似濃 淡領域を抽出する。 画像縮小手段は、 擬似濃淡領域、 文字 ·線画領域およびそれ ら以外の領域において、 互いに異なる方法で画像を縮小する。 ここで、 擬似濃淡 領域に対して、 エッジ検出を行って、 濃度値が所定値以上の領域に対しては、 縮 小処理を停止する。
したがって、 不要な縮小処理を行わないようにして、 正常な縮小処理を継続す ることができる。
また第 2 6の本発明は、 画像入力ステップと、
入力された画像から文字 ·線画領域を抽出する文字 ·線画領域抽出ステップと、 入力された画像から擬似濃淡領域を抽出する擬似濃淡領域抽出ステップと、 抽出された擬似濃淡領域および文字■線画領域と、 擬似濃淡 ·文字 ·線画以外 の領域とにおいて、 互いに異なる方法で画像を縮小する画像縮小ステップと、 縮小された画像を出力する画像出力ステップとを備えることを特徴とする画像 処理方法である。
本発明に従えば、 画像が入力され、 該画像から文字,線画領域が抽出され、 ま た擬似濃淡領域が抽出され、 擬似濃淡領域、 文字 .線画領域およびそれら以外の 領域の画像が互いに異なる方法で縮小されて、 出力される。 したがって、 擬似濃 淡領域ではモアレを抑制して画像を縮小し、 文字■線画領域では鮮鋭に画像を縮 小し、 それら以外の領域では適宜画像を縮小することができる。
また第 2 7の本発明は、 画像入力ステップと、 入力された画像から文字 '線画 領域を抽出する文字 ·線画領域抽出ステップと、 入力された画像から擬似濃淡領 域を抽出する擬似濃淡領域抽出ステップと、 抽出された擬似濃淡領域および文字 線画領域と擬似濃淡 ·文字■線画以外の領域とにおいて、 互いに異なる方法で画 像を縮小する画像縮小ステップと、 縮小された画像を出力する画像出力ステップ とを、 コンピュータに実行させるための画像処理プログラムを記録した媒体であ る。
本発明に従えば、 上記媒体に記録された画像処理プログラムに従ってコンビュ ータは、 入力画像から、 文字■線画領域を抽出し、 また擬似濃淡領域を抽出し、 擬似濃淡領域、 文字 ·線画領域およびそれら以外の領域の画像を互いに異なる方 法で縮小して、 出力することができ、 したがって擬似濃淡領域ではモアレを抑制 して画像を縮小し、 文字 ·線画領域では鮮鋭に画像を縮小し、 それら以外の領域 では適宜画像を縮小することができる。
また第 2 8の本発明は、 原稿の表画像および裏画像を入力する画像入力手段と . 表画像および裏画像のいずれか一方を反転させる画像反転手段と、
画像反転手段によって反転された表画像と画像入力手段からの裏画像との位置 鬨係、 または画像反転手段によって反転された裏画像と画像入力手段からの表画 像との位置鬨係を検出する位置関係検出手段と、
位置関係検出手段の出力による表裏画像の位置関係から画像の裏写りを除去す るよう画像を補正する画像補正手段と、
画像を出力する画像出力手段とを備えることを特徴とする画像処理装置である, 本発明に従えば、 画像入力手段から表画像および裏画像を入力し、 いずれか一 方の画像を画像反転手段によって反転した後、 表裏画像の位置関係を位置関係検 出手段によって検出し、 該位置関係から画像補正手段は画像の裏写りを除去する ように画像を補正し、 出力手段によって出力する。 したがって、 入力画像を裏写 りすることなく出力することができる。
また第 2 9の本発明は、 第 2 8記載の本発明において、 前記位置関係検出手段 は、 表裏画像の高輝度成分のみを抽出し、 画像の高輝度成分でブロックマッチン グを行うことによって、 表裏画像の位置関係を検出することを特徴とする。
本発明に従えば、 画像入力手段から表画像および裏画像を入力し、 いずれか一 方の画像を画像反転手段によって反転した後、 表裏画像の位置鬨係を位置関係検 出手段によって検出する。 ここで、 表裏画像の高輝度成分のみを抽出し、 画像の 高輝度成分でブロックマッチングを行うことによって、 表裏画像の位置関係を検 出する。 該位置閧係から画像補正手段は画像の裏写りを除去するように画像を補 正し、 出力手段によって出力する。 したがって、 より正確に位置関係を検出する ことができ、 入力画像をさらに裏写りすることなく、 出力することができる。 また第 3 0の本発明は、 画像入力手段と、
画像入力手段からの画像のェッジを検出するエツジ検出手段と、
エッジ検出手段の出力による画像のエッジ以外の高輝度画素の輝度を上げるこ とによって、 画像の裏写りを除去するよう画像を補正する画像補正手段と、 画像を出力する画像出力手段とを備えることを特徴とする画像処理装置である 本発明に従えば、 画像入力手段から画像を入力し、 画像のエッジをエッジ検出 手段によって検出し、 エツジ検出手段の出力による画像のェッジ以外の高輝度画 素の輝度を上げることによって、 画像補正手段は、 画像の裏写りを除去するよう 画像を補正し、 出力手段によって出力する。 したがって、 文字の掠れを防止しな がら、 入力画像を裏写りすることなく出力することができる。
また第 3 1の本発明は、 画像入力手段と、
画像入力手段からの画像のエッジを検出するエッジ検出手段と、
ェッジ検出手段の出力による画像のエッジと低輝度画素とによって画像を分割 する画像分割手段と、
画像分割手段によって分割された領域内の平均輝度を求め、 高輝度領域のみの 輝度を上げることによって、 画像の裏写りを除去するよう画像を補正する画像補 正手段と、
画像を出力する画像出力手段とを備えることを特徴とする画像処理装置である: 本発明に従えば、 画像入力手段から画像を入力し、 画像のエッジをエッジ検出 手段によって検出し、 エツジ検出手段の出力による画像のェッジと低輝度画素と によって画像分割手段は画像を分割し、 分割された領域内の平均輝度を求めて高 輝度領域のみの輝度を上げることによって画像補正手段は画像の裏写りを除去す るよう画像を補正し、 出力手段によって出力する。 したがって、 ハーフトーン部 分が白く飛んでしまうことを防止しながら、 入力画像を裏写りすることなく出力 することができる。
また第 3 2の本発明は、 第 3 1の記載の本発明において、 前記画像補正手段は. 高輝度領域内において輝度が所定の範囲にある画素の中から代表輝度を求め、 代 表輝度を基準にして前記領域内の画素の輝度を上げることを特徴とする。
本発明に従えば、 画像入力手段から画像を入力し、 画像のエッジをエッジ検出 手段によって検出し、 エッジ検出手段の出力による画像のエッジと低輝度画素と によって画像分割手段は画像を分割し、 分割された領域内の平均輝度を求めて高 輝度領域のみの輝度を上げることによって画像補正手段は画像の裏写りを除去す るよう画像を補正する。 ここで、 高輝度領域内において輝度が所定の範囲にある 画素の中から代表輝度を求め、 代表輝度を基準にして前記領域内の画素の輝度を 上げる。 補正された画像が出力手段によって出力される。 したがって、 紙質によ る透過率の違いに影響されることなく、 入力画像を裏写りすることなく出力する ことができる。
また第 3 3の本発明は、 表画像および裏画像のいずれか一方を反転させる画像 反転ステップと、
反転された表画像と裏画像との位置関係、 または反転された裏画像と表画像と の位置関係を検出する位置関係検出ステップと、
位置関係の検出結果によって、 画像の裏写りを除去するよう画像を補正する画 像補正ステップとを備えることを特徴とする画像処理方法である。
本発明に従えば、 表画像および裏画像が入力され、 いずれか一方の画像が反転 された後、 表裏画像の位置関係が検出され、 該位置関係から画像の裏写りを除去 するように画像が補正されて、 出力される。 したがって、 入力画像を裏写りする ことなく出力することができる。
また第 3 4の本発明は、 画像のェ '、,ジを検出する画像ェッジ検出ステツプと、 検出されたェッジ以外の高輝度画素の輝度を上げることによって、 画像の裏写 りを除去するよう画像を補正する画像補正ステップとを備えることを特徴とする 画像処理方法である。
本発明に従えば、 画像が入力され、 画像のエッジが検出され、 エッジ検出の出 力による画像のェッジ以外の高輝度画素の輝度を上げることによって、 画像の裏 写りを除去するよう画像が補正されて、 出力される。 したがって、 文字の掠れを 防止しながら、 入力画像を裏写りすることなく出力することができる。
また第 3 5の本発明は、 画像のェッジを検出する画像ェッジ検出ステツプと、 検出されたエッジと低輝度画素とによつて画像を分割する画像分割ステップと、 分割された領域内の平均輝度を求め、 高輝度領域のみの輝度を上げることによ つて、 画像の裏写りを除去するよう画像を補正する画像補正ステツプとを備える ことを特徴とする画像処理方法である。
本発明に従えば、 画像が入力され、 画像のエッジが検出され、 エッジ検出の出 力による画像のェッジと低輝度画素とによって画像が分割され、 分割された領域 内の平均輝度を求めて高輝度領域のみの輝度を上げることによって、 画像の裏写 りを除去するよう画像が補正されて、 出力される。 したがって、 ハーフトーン部 分が白く飛んでしまうことを防止しながら、 入力画像を裏写りすることなく出力 することができる。
また第 3 6の本発明は、 表画像および裏画像のいずれか一方を反転させる画像 反転ステップと、 反転された表画像と裏画像との位置関係、 または反転された裏 画像と表画像との位置関係を検出する位置関係検出ステップと、 位置関係の検出 結果によって、 画像の裏写りを除去するよう画像を補正する画像補正ステップと を、 コンピュータに実行させるための画像処理プログラムを記録した媒体である t 本発明に従えば、 上記媒体に記録された画像処理プログラムに従ってコンビュ ータは、 入力された表画像および裏画像のうちの、 いずれか一方の画像を反転し た後、 表裏画像の位置関係を検出し、 該位置関係から画像の裏写りを除去するよ うに画像を補正して、 出力することができ、 したがって入力画像を裏写りするこ となく出力することができる。
また第 3 7の本発明は、 画像のエツジを検出する画像ェッジ検出ステツプと、 検出されたェッジ以外の高輝度画素の輝度を上げることによって、 画像の裏写り を除去するよう画像を補正する画像補正ステップとを、 コンピュータに実行させ るための画像処理プログラムを記録した媒体である。
本発明に従えば、 上記媒体に記録された画像処理プログラムに従ってコンビュ ータは、 入力された画像のエッジを検出し、 エッジ検出の出力による画像のエツ ジ以外の高輝度画素の輝度を上げることによって、 画像の裏写りを除去するよう 画像を補正して、 出力することができ、 したがって文字の掠れを防止しながら、 入力画像を裏写りすることなく出力することができる。
また第 3 8の本発明は、 画像のェッジを検出する画像ェッジ検出ステップと、 検出されたエッジと低輝度画素とによって画像を分割する画像分割ステップと、 分割された領域内の平均輝度を求め、 高輝度領域のみの輝度を上げることによつ て、 画像の裏写りを除去するよう画像を補正する画像補正ステップとを、 コンビ ユータに実行させるための画像処理プログラムを記録した媒体である。
本発明に従えば、 上記媒体に記録された画像処理ァログラムに従ってコンビュ ータは、 入力された画像のエッジを検出し、 エッジ検出の出力による画像のエツ ジと低輝度画素とによって画僳を分割し、 分割された領域内の平均輝度を求めて 高輝度領域のみの輝度を上げることによって、 画像の裏写りを除去するよう画像 を補正して、 出力することができ、 したがってハーフトーン部分が白く飛んでし まうことを防止しながら、 入力画像を裏写りすることなく出力することができる , また第 3 9の本発明は、 ページ毎に画像を入力する画像入力手段と、
入力された画像の中から所定の画像を判定する画像判定手段と、
所定の画像であると判定された画像から位置合わせの基準となるテンプレート を求めるテンプレート取得手段と、
求められたテンプレートに基づいて画像間の位置を補正して、 連続するページ の画像間の位置合わせを行う画像補正手段とを備えることを特徴とする画像処理 装置である。
本発明に従えば、 画像入力手段からページ毎に画像が入力され、 該画像の中か ら所定の画像を画像判定手段が判定し、 判定された画像からテンプレートをテン プレート取得手段が求め、 該テンプレートに基づいて、 画像補正手段は、 画像間 の位置を補正して、 連続するページの画像間の位置合わせを行う。
したがって、 ページ毎に入力された画像の中で、 所望の連続する画像間の位置 合わせを短時間で行うことができる。
また第 4 0の本発明は、 書籍のページ毎に画像を入力する画像入力手段と、 入力された画像の中から所定の本文画像を判定する画像判定手段と、 所定の本文画像であると判定された画像から位置合わせの基準となるテンプレ ートを求めるテンプレート取得手段と、
求められたテンプレートに基づいて本文画像間の位置を補正して、 連続するべ ージの本文画像間の位置合わせを行う画像補正手段とを備えることを特徴とする 画像処理装置である。
本発明に従えば、 画像入力手段から書籍のページ毎に画像が入力され、 該画像 の中から所定の本文画像を画像判定手段が判定し、 判定された画像からテンプレ ートをテンプレート取得手段が求め、 該テンプレートに基づいて、 画像補正手段 は、 本文画像間の位置を補正して、 連続するページの本文画像間の位置合わせを 行う。
したがって、 ページ毎に入力された本文画像の中で、 本文画像間の位置合わせ を短時間で行うことができる。 その結果、 電子書籍コンテンツを短期間で作成す ることができるとともに、 電子書籍をビューヮで見る場合、 本文画像の位置が揃 つているので、 使用者への不快感をなくすことができる。
また第 4 1の本発明は、 ページ毎に入力された画像の中から所定の画像を判定 する画像判定ステツプと、
所定の画像であると判定された画像から位置合わせの基準となるテンプレート を求めるテンプレート取得ステツプと、
求められたテンプレートに基づいて画像間の位置を補正して、 連続するページ の画像間の位置合わせを行う画像補正ステップとを備えることを特徴とする画像 処理方法である。
本発明に従えば、 ページ毎に入力された画像の中から所定の画像が判定され、 判定された画像からテンプレートが求められ、 該テンプレートに基づいて、 画像 間の位置を補正して、 連続するページの画像間の位置合わせが行われる。 したが つて、 ページ毎に入力された画像の中で、 所望の連続する画像間の位置合わせを 短時間で行うことができる。
また第 4 2の本発明は、 第 4 1記載の本発明において、 前記テンプレート取得 ステップでは、 入力された画像を走査して得られたエッジ点の集合から求めた外 接線から成る矩形の位置情報がテンプレートとして求められることを特徴とする < 本発明に従えば、 ページ毎に入力された画像の中から所定の画像が判定され、 判定された画像からテンプレートが求められる。 ここで、 入力された画像を走査 して得られたエッジ点の集合から求めた外接線から成る矩形の位置情報がテンプ レートとして求められる。 該テンプレートに基づいて、 画像間の位置を補正して. 連続するページの画像間の位置合わせが行われる。 したがって、 外接線を用いて テンプレートを求めるので、 文字領域であっても正確なテンプレートを得ること ができ、 位置合わせの精度を高めることができる。
また第 4 3の本発明は、 第 4 2記載の本発明において、 前記画像判定ステップ で、 入力された画像の中から所定の画像が判定され、 入力された画像の位置情報 と前記テンプレートの位置情報とが所定範囲外であつた場合に、 警告データを生 成するステップをさらに含むことを特徴とする。
本発明に従えば、 ページ毎に入力された画像の中から所定の画像が判定され、 判定された画像からテンプレートが上述のようにして求められる。 該テンプレー トに基づいて、 画像間の位置を補正して、 連続するページの画像間の位置合わせ が行われる。 ここで、 入力された画像の中から所定の画像が判定され、 入力され た画像の位置情報と前記テンプレートの位置情報とが所定範囲外であった場合に は、 警告データが生成される。 したがって、 画像間の位置合わせが失敗したこと を検知でき、 たとえばォーサリング中あるいは終了後の修正に利便を図ることが できる。
また第 4 4の本発明は、 書籍のページ毎に入力された画像の中から所定の本文 画像を判定する画像判定ステップと、
所定の本文画像であると判定された画像から位置合わせの基準となるテンプレ —トを求めるテンプレート取得ステツプと、
求められたテンプレートに基づいて本文画像間の位置を補正して、 連続するべ ージの本文画像間の位置合わせを行う画像補正ステップとを備えることを特徴と する画像処理方法である。
本発明に従えば、 書籍のページ毎に入力された画像の中から所定の本文画像が 判定され、 判定された画像からテンプレートが求められ、 該テンプレートに基づ いて、 本文画像間の位置を補正して、 連続するページの本文画像間の位置合わせ が行われる。
したがって、 ページ毎に入力された本文画像の中で、 本文画像間の位置合わせ を短時間で行うことができる。 その結果、 電子書籍コンテンツを短期間で作成す ることができるとともに、 電子書籍をビューヮで見る場合、 本文画像の位置が揃 つているので、 使用者への不快感をなくすことができる。
また第 4 5の本発明は、 ベ一ジ毎に入力された画像の中から所定の画像を判定 する画像判定ステップと、 所定の画像であると判定された画像から位置合わせの 基準となるテンプレートを求めるテンプレート取得ステップと、 求められたテン プレートに基づいて画像間の位置を補正して、 連続するページの画像間の位置合 わせを行う画像補正ステップとを備えることを、 コンピュータに実行させるため の画像処理ァログラムを記録した媒体である。
本発明に従えば、 上記媒体に記録された画像処理プログラムに従ってコンビュ ータは、 ページ毎に入力された画像の中から所定の画像を判定し、 判定された画 傺からテンプレートを求め、 該テンプレートに基づいて、 画像間の位置を補正し て、 連続するページの画像間の位置合わせを行うことができ、 したがってページ 毎に入力された画像の中で、 所望の連続する画像間の位置合わせを短時間で行う ことができる。
また第 4 6の本発明は、 書籍のページ毎に入力された画像の中から所定の本文 画像を判定する画像判定ステツプと、 所定の本文画像であると判定された画像か ら位置合わせの基準となるテンプレートを求めるテンプレート取得ス亍ップと、 求められたテンプレートに基づいて本文画像間の位置を補正して、 連続するべ一 ジの本文画像間の位置合わせを行う画像補正ステップとを、 コンピュータに実行 させるための画像処理プログラムを記録した媒体である。
本発明に従えば、 上記媒体に記録された画像処理プログラムに従ってコンビュ ータは、 書籍のページ毎に入力された画像の中から所定の本文画像を判定し、 判 定された画像からテンプレートを求め、 該テンプレートに基づいて、 本文画像間 の位置を補正して、 連続するページの本文画像間の位置合わせを行うことができ, したがってページ毎に入力された本文画像の中で、 本文画像間の位置合わせを短 時間で行うことができる。 その結果、 電子書籍コンテンツを短期間で作成するこ とができるとともに、 電子書籍をビューヮで見る場合、 本文画像の位置が揃って いるので、 使用者への不快感をなくすことができる。
【図面の簡単な説明】
本発明とこれらの目的とそれ以外の目的と、 特色と利点とは、 下記の詳細な説 明と図面とから一層明確になるであろう。
図 1は、 本発明の第 1の実施の形態である画像処理装置 1 aのブロック図であ る。
図 2は、 画像処理装置 1 aの画像処理方法を示すフローチャートである。
図 3は、 色分析部 3を説明するためのフローチャートである。
図 4は、 ステップ S 2 2を説明するためのグラフである。
図 5は、 ステップ S 2 3を説明するためのグラフである。
図 6は、 ステップ S 2 4を説明するためのフローチャートである。
図 7は、 本発明の第 2の実施の形態である画像処理装置 1 bのブロック図であ る。
図 8は、 画像処理装置 1 bの画像処理方法を示すフローチャートである。
図 9は、 本発明の第 3の実施の形態である画像処理装置 1 cのブロック図であ る。
図 1 0は、 画像処理装置 1 cの画像処理方法を示すフローチャートである。 図 1 1は、 本発明の第 4の実施の形態である画像処理装置 2 1 aのブロック図 である。 図 1 2は、 注目画素における分散を求める範囲を説明するための図である。 図 1 3は、 平均化による縮小処理を説明するための図である。
図 1 4は、 平滑化による縮小処理を説明するための図である。
図 1 5は、 本発明の第 5の実施の形態である画像処理装置 2 1 bのブロック図 である。
図 1 6は、 周囲の画素の相鬨を求める方法を説明するための図である。
図 1 7は、 第 1 7〜第 2 3の本発明にかかわる画像処理装置の画像処理方法を 示すフローチャートである。
図 1 8は、 第 2 4の本発明にかかわる画像処理装置の画像処理方法を示すフロ 一チャートである。 図 1 9は、 第 2 5の本発明にかかわる画像処理装置の画像処理方法を示すフロ 一チヤ一卜である。
図 2 0は、 本発明の第 7の実施の形態である画像処理装置 3 1 aのブロック図 である。
図 2 1は、 位置鬨係検出部 3 4を説明するための図である。
図 2 2は、 高輝度成分を抽出する手段を説明するためのグラフである。
図 2 3は、 本発明の第 8の実施の形態である画像処理装置 3 1 bのブロック図 である。
図 2 4は、 画像補正部 3 8の動作を説明するためのグラフである。
図 2 5は、 本発明の第 9の実施の形態である画像処理装置 3 1 cのブロック図 である。
図 2 6は、 画像分割部 3 9の動作を説明するための図である。
図 2 7は、 画素値 t 2を求める方法を説明するためのグラフである。
図 2 8は、 本発明の第 1 0の実施の形態である画像処理装置 5 0のブロック図 である。
図 2 9は、 画像処理装置 5 0に入力される書籍の構成を示す概念図である。 図 3 0は、 ページ輪郭検出部 5 2のページ輪郭検出動作を説明するための図で ある。 図 3 1は、 ページ輪郭検出部 5 2のページ輪郭検出手法を説明するためのフロ 一チャートである。
図 3 2は、 ページ内容領域抽出部 5 3のページ内容領域抽出動作を説明するた めの図である。
図 3 3は、 ページ内容領域抽出部 5 3のページ內容領域抽出手法を説明するた めのフローチャートである。
図 3 4は、 画像回転の様子を示す図である。
図 3 5は、 ページ位置情報バッファ 6 0に記憶されるテンアレー卜の形態を示 す図である。
【発明を実施するための最良の形態】
以下図面を参考にして本発明の好適な実施例を詳細に説明する。
(第 1の実施の形態〉
図 1は、 本発明の第 1の実施の形態である画像処理装置 1 aのブロック図であ る。 画像処理装置 l aは、 画像入力部 2、 色分析部 3、 混合比算出部 4、 画像変 換部 5および画像出力部 6を備える。 画像入力部 2は、 見開きやページなどの所 定単位毎の原稿の画像、 たとえば漫画雑誌の画像を読み取って、 色分析部 3に入 力する。 色分析部 3は入力された画像内で使われている色を分析し、 混合比算出 部 4は赤 (R ) 、 緑(G ) および青 ( B ) の各色成分の混合比 r : g : bを決定 する。 画像変換部 5は、 決定された混合比に従って、 R、 Gおよび Bの色成分を 混合して、 入力画像をモノクロ画像に変換する。 変換後の画像は、 画像出力部 6 によって出力される。
画像入力部 2は、 たとえばスキャナ、 複写機およびカメラなどの画像読取装置 で実現される。 また、 予め原稿から読取った画像を格納した C D— R O M ( Compact Disk-Read Only Memory ) 、 ハードディスク、 フロッピ一ディスクおよ び光磁気デイスクなどのメディアから画像を読取る装置や半導体メモリで実現し ても構わない。
画像出力部 6は、 たとえば C R T ( Cathode Ray Tube )や L C D ( Liquid Crystal Display ) などの画像表示装置で実現される。 また、 プリンタなどの画 像印刷装置であっても構わない。 さらに、 CD— ROM、 ハードディスク、 フロ ッピーディスクおよび光磁気ディスクなどのメディアに画像を書込む装置や半導 体メモリで実現しても構わない。
色分析部 3、 混合比算出部 4および画像変換部 5は、 たとえばコンピュータと ソフトウェアとによって実現される。
図 2は、 画像処理装置 1 aの画像処理方法を示すフローチャートである。 画像 入力部 2によって、 所定単位毎に原稿の画像を入力し ( S 1 ) 、 入力された画像 で使われている色を色分析部 3によって分析し ( S 2 ) 、 混合比算出手段 4によ つて R、 Gおよび Bの各色成分の混合比 r : g : bを決定し ( S 3〉 、 画像変換 部 5によって混合比に従って R、 Gおよび Bの色成分を混合して、 入力画像をモ ノクロ画像に変換し ( S4 ) 、 画像出力部 6によって変換後の画像を出力する ( S 5 ) 。
図 3は、 色分析部 3を説明するためのフローチャートである。 色分析部 3では、 入力画像を所定単位毎に色相 ( H ) 、 彩度( S〉 、 明度 ( I ) に変換する ( S 2 1 ) 。 入力画像の H、 Sおよび Iへの変換は、 一般的に知られた方法 (説明は省 略) で可能である。 次に、 Hおよび Sの分布から、 代表色相と分散とを求める ( S 22 ) 。 次に、 Iのヒストグラムから黒画素の有無を判定し ( S 23 ) 、 画像 で使われている色を判定する ( S 24 ) 。
図 4は、 ステップ S 22を説明するためのグラフである。 図 4 ( a ) は横軸を 色相 (H) 、 縦軸を彩度 ( S ) の和としたグラフである。 Sの和とは、 同一の H をとるすべての画素の Sの値を加算したものである。 画像の中で使われている色 を求めるために、 Sで重みづけをしたヒストグラムになっている。 この中から、 Sの和が最も大きくなる Hを選び、 これを代表色相 H0とする。 H0における S の和が所定の値以下の場合、 入力された画像は元々モノク口画像であると判断し、 代表色相 H0はないと判定する。
H± 27Γ = Hの関係から、 図 4 ( b ) のように、 H 0土 2 ττの範囲に Sの和が 分布するように Sの和を変換して、 分散 Vを求める。 分散 Vが所定の値以上の場 合は入力された画像において複数の色が使われていると判断し、 それ以外の場合 は代表色相 H 0のみが使われていると判断する。
図 5は、 ステップ S 2 3を説明するためのグラフである。 明度 ( I ) を 2 56 段階でヒストグラムを取ったとき、 黒が使われていないときは図 5 ( a ) のよう に低明度の画素が少なくなり、 黒が使われているときは図 5 ( b ) のように低明 度の画素が多くなる。 このことから、 低明度領域の画素の分布が所定の範囲であ るか否かによつて、 黒が使われているか否かを判定することができる。
図 6は、 ステップ S 24を説明するためのフローチャートである。 代表色相 H 0がない場合は、 入力された画像はモノクロ画像と判断する ( S 24 1 ) 。 ステ ップ S 2 2で求めた分散 Vが所定の値以上であれば、 入力された画像には複数色 が使われていると判断する ( S 242 ) 。 それ以外の場合、 黒画素がなければ、 入力された画像は黒以外の単色の画像と判断し、 黒画素があれば、 入力された画 像は黒ともう 1色が使われている画像と判断する ( S 24 3 ) 。
代表色相 H 0を用いて、 画像で使われている色は、 次のように判定する。 まず、 H 0が 0 , ττ/3, 27Γ/3 , π , 4 ττ/3 , 5 π/3 , 2 のどれに最も近い かを求める。 ただし、 Η 0は 0〜2 の範囲にあるとする。 0および 2 τΓのとき は赤 (R ) 、 ττ/ 3のときは黄色(Υ ) 、 2?rZ3のときは緑 (G ) 、 7Γのとき は水色 (C ) 、 4 r/3のときは青 ( B ) 、 5?rZ3のときは赤紫 (M ) と、 そ れぞれ判定する。
次に、 混合比算出部 4について説明する。 混合比算出部 4は、 色分析部 3の分 析結果に基づいて R, G, B成分の混合比 r : g : bを決定する。 つまり、 画像 で使われている色に応じて混合比を変更するのである。
色分析部 3によってモノクロ画像と判定されたときは、 たとえば r = 0, g = 1, b = 0とする。 モノクロ画像の場合、 R, G, B成分に違いはないため、 r, g , bのうち、 どれが 1になってもよく、 また全てを同じ値にしてもよい。
また、 色分析部 3によって複数色と判定されたときは、 通常のカラ一/モノク 口変換と同様に、 r = 0. 2 9 9 , g = 0. 587, b = 0. 1 1 4とする。 こ のような割合を用いることによって、 写真画像などのフルカラ一画像は自然なモ ノク口画像に変換することができる。 また、 色分析部 3によって黒以外の単色と判断されたときは、 色分析部 3で求 められ入力された画像で使われている色の補色の色成分の割合を混合比とする。 ここで補色とは、 その色と混合したときに白になる色である。 たとえば、 入力さ れた画像で用いられている色が赤 (R ) であった場合、 補色は水色 (C ) となる < 水色の R, G , B成分の比率は 0 : 1 : 1であるので、 求める混合比は、 r = 0 , g = 0 . 5 , b = 0 . 5となる。 このような混合比で R , G, Bを混ぜ合わせる ことにより、 画像のコントラストを最も高くしてモノクロ画像に変換することが できる。
また、 色分析部 3によって黒および黒以外の 1色と判断されたときは、 色分析 部 3で求められた画像で使われている色の補色の色成分の割合に、 画像で使われ ている色の色成分の割合を加味したものを混合比とする。 たとえば、 画像で用い られている色が赤 (R ) と黒であった場合、 赤 ( R ) の色成分の割合は 1 : 0 : 〇、 赤の補色の水色 (C ) の R, G , B成分の比率は 0 : 1 : 1である。 赤と黒 を区別するため、 赤が黒と白との間になるようにするには、 赤の割合を、 水色の 割合の半分にして加える。 よって、 求める混合比 r : g : bは、 r = 0 . 2 , g = 0 . 4, b = 0 . 4となる。 ここで、 使われている色とその補色の割合を 1 : 2としたが、 使われている色によってその割合を変えてもよい。
また、 上記各色や色の組合せ毎に最適な混合比を格納しておく混合比テーブル を予め設けておき、 混合比算出部 4は、 この混合比テーブルを参照するだけにし てもよい。 これによつて、 逐一計算する必要がなくなり、 処理が高速になる。 また、 1枚の画像毎に画像変換し、 画像毎に色の偏りが生じると、 変換画像の 結果が異なることがあり、 ビューヮ等の形態端末で電子書籍をページ繰りして見 るときに、 不快感を与える。 そこで、 複数枚の画像をまとめて画像変換するよう にしても構わない。 具体的には、 画像入力部 2は複数枚の画像を入力し、 色分析 部 3は複数枚の画像から各画像で使用されている色を積分してその結果から色を 分析し、 混合比算出部 4は入力された全ての画像に対して同じ混合比を算出し、 画像変換部 5は全ての画像に対して同じ混合比で画像を変換するようにする。 こ れによって、 より安定して画像をモノクロ画像に変換することができる。 最後に、 画像変換部 5は、 混合比算出部 4で決定した R, G, B各色成分の混 合比 r : g : bを用い、 各画素をモノクロ画像 Moに
Mo = r R 十 g G 十 b B (ただし、 r + g + b= l )
の変換式で変換する。
(第 2の実施の形態〉
図 7は、 本発明の第 2の実施の形態である画像処理装置 1 bのブロック図であ る。 画像処理装置 l bは、 画像入力部 2、 混合比算出部 4、 画像変換部 5、 画像 出力部 6および色指定部 8を備える。 画像入力部 2、 混合比算出部 4、 画像変換 部 5および画像出力部 6は、 前述の画像処理装置 1 aと同様であり説明は省略す る。 色指定部 8は、 入力された画像で使われている色を指定する。
図 8は、 画像処理装置 1 bの画像処理方法を示すフローチャートである。 画像 入力部 2によって画像を入力し ( S 1 ) 、 入力された画像で使われている色を色 指定部 8によって指定し ( S 6 ) 、 混合比算出部 4によって R、 Gおよび Bの各 色成分の混合比 r : g : bを決定し ( S 3 ) 、 画像変換部 5によって混合比に従 つて R、 Gおよび Bの色成分を混合して、 入力画像をモノクロ画像に変換し ( S 4 ) 、 画像出力部 6によって画像を出力する ( S 5 ) 。
第 1の実施の形態の図 2との違いは、 ステップ S 2がステップ S 6に置き換わ つている点のみである。 前記画像処理装置 1 aは入力された画像で使用されてい るいる色を自動的に判別するものであるが、 画像処理装置 1 bは半自動で判別す るものであり、 ユーザがマウスやキーボードなどで実現される色指定部 8によつ て外部から指定する。
次に、 色指定部 8について説明する。 色指定部 8はユーザに画像がモノクロ、 複数色、 黒以外の 1色、 黒および黒以外の 1色のうちどれかを選択させる。 黒以 外の 1色、 黒および黒以外の 1色を選択した場合はさらに、 黒以外の 1色を赤 ( R) 、 黄色 (Y) 、 緑 (G) 、 水色 ( C ) 、 青( B ) 、 赤紫 (M〉 のうちから選 択させるようにする。 このように、 色の判別をユーザに指定させることによって、 より正確に画像を判別し、 モノクロ画像に変換することができる。
(第 3の実施の形態) 図 9は、 本発明の第 3の実施の形態である画像処理装置 1 cのブロック図であ る。 画像処理装置 1 cは、 画像入力部 2、 画像変換部 5、 画像出力部 6および混 合比指定部 9を備える。 画像入力部 2、 画像変換部 5および画像出力部 6は、 前 述の画像処理装置 1 aと同様であり説明は省略する。 混合比指定部 9は、 R、 G および Bの各色成分の混合比 r : : bを指定する。
図 1 0は、 画像処理装置 1 cの画像処理方法を示すフローチャートである。 画 像入力部 2によって画像を入力し ( S 1 ) 、 R、 Gおよび Bの各色成分の混合比 r : g : bを混合比指定部 9によって指定し ( S 7 ) 、 画像変換部 5によって混 合比に従って R、 Gおよび Bの色成分を混合して、 入力画像をモノクロ画像に変 換し ( S 4 ) 、 画像出力部 6によって画像を出力する ( S 5 ) 。
第 1の実施の形態の図 2との違いは、 ステップ S 2 , S 3がステップ S 7に置 き換わっているだけである。 画像処理装置 1 aは入力された画像で使用されてい る色を自動的に判別し、 また混合比も自動的に求めるものであるが、 画像処理装 置 1 cは混合比を半自動で求めるものであり、 ユーザが色成分の混合比をマウス やキーボードで実現される混合比指定部 9によって外部から指定するようになつ ている。
次に、 混合比指定部 9について説明する。 混合比指定部 9は、 R, G, B成分 の混合比 r : g : bをユーザが指定するようにしたものである。 これによつて、 ユーザが思った通りの割合で色成分を混合できるため、 望み通りのモノク口画像 が得られる。
第 1〜第 3の実施の形態で示した処理は、 プログラムで実現されるが、 このプ ログラムを光ディスクやフロッピーディスク等のコンピュータ読取り可能な記録 媒体に記憶させておいて、 必要に応じて読出して使用するようにしてもよい。 ま たこのような処理を行う画像処理装置および画像処理方法も本発明の範囲に属す るものである。
(第 4の実施の形態)
図 1 1は、 本発明の第 4の実施の形態である画像処理装置 2 1 aのブロック図 である。 画像処理装置 2 1 aは、 画像入力部 2 2、 文字 ·線画領域抽出部 2 3、 擬似濃淡領域抽出部 24、 画像縮小部 25および画像出力部 26を備える。 画像 入力部 22によって画像を入力し、 文字 ·線画領域抽出部 23によって文字 ·線 画領域を抽出する。 擬似濃淡領域抽出部 24は、 入力画像と文字 ·線画抽出部 2 3の抽出結果から擬似濃淡を抽出する。 画像縮小部 25は、 入力された画像を文 字 ·線画領域、 擬似濃淡領域および文字 ·線画 ·擬似濃淡以外の領域で異なる方 法によって縮小処理を行う。 処理された画像は、 画像出力部 26によって出力さ れる。
画像入力部 22および画像出力部 26は、 前記画像入力部 2および画像出力部 6とそれぞれ同様にして実現される。
文字 ·線画領域抽出部 23では、 入力された画像に対して、 平滑化処理を行つ た後、 エッジ抽出を行う。 平滑化処理を行うことによって、 擬似濃淡の中に線画 が描かれていても、 正確に擬似濃淡部分を除去し、 文字や線画のエッジ成分のみ を抽出することができる。 平滑化処理では、 たとえば
1/25 1/25 1 25 1/25 1/25
1/25 1/25 1 25 1/25 1 /25
1/25 1/25 1 25 1/25 1/25 ( 2 )
1/25 1/25 1 25 1/25 1/25
1/25 1 /25 1 25 1/25 1/25 のようなフィルタを用い、 周囲の画素濃度を単純に平均化する。 ここではフィル タのサイズは 5 X 5としているが、 元画像の解像度に合わせて変更してもよい。 また、 ガウシアンフィルタなどの中心部と周辺部とで重みづけを変えたフィルタ を用いても構わない。 エッジ抽出では、 たとえば 縦ェッジ ( 3 ) と、 横ェ ン ( 4 )
Figure imgf000039_0001
とのような 2つのエッジ抽出フィルタを用いて、 各フイルクの出力の絶対値の和
3
をエッジ抽出結果とする。
前記エッジ抽出の結果を用いて、 所定の閡値よりも大きな値になる画素を文字 線画領域と判定する。 所定の閾値よりも大きな値になる画素のうち、 孤立点など はノイズとして文字 ·線画領域から除いてもよい。 また、 エッジに囲まれた小さ な領域は、 文字の入り組んだ部分と判断できるため、 文字領域に含めてもよい。 次に、 擬似濃淡領域抽出部 2 4について説明する。 擬似濃淡領域抽出部 2 4で は周辺の画素の分散を求め、 分散の大きい画素のうち、 前記文字,線画領域抽出 部 2 3で抽出された文字 ·線画領域を除いたものを擬似濃淡領域として抽出する, これは、 擬似濃淡と文字■線画などのェッジ部分の双方で分散値が大きくなるこ とから、 分散値の大きい画素から文字■線画領域部分を除去することによって、 擬似濃淡部分のみを抽出することができる。
図 1 2は、 注目画素における分散を求める範囲を説明するための図である。 図 1 2中、 斜線部分は注目画素であり、 太線で囲まれた範囲が分散を求める範囲で ある。 図 1 2では、 各画素について 5 X 5の領域で分散を求めているが、 元画像 の解像度に応じて領域の大きさを変えてもよい。 各画素における分散値は、
n
( p i - m )
? 1
( 5 n
で求められる。 ただし、 は画素値、 mは分散を調べる領域内の画素濃度の平 均値、 nは分散を調べる領域に含まれる画素の数である。 次に、 画像縮小部 2 5について説明する。 画像縮小部 2 5では、 擬似濃淡領域 を平滑化処理によって縮小し、 文字,線画領域を平均化処理によって縮小した後. エッジ強調化処理を行って縮小し、 擬似瀵淡 ·文字 ·線画以外の領域を平均化処 理のみによって縮小する。 これによつて、 擬似濃淡領域ではモアレを防ぎ、 文字 線画領域では平均化処理によって掠れや潰れを防ぎつつ、 ェッジ強調化処理を行 うことによって鮮鋭さを保つことができる。 擬似濃淡 ·文字 ·線画以外の領域で は平均化処理のみを行うことによって、 たとえ領域分離に失敗していた場合でも, 不要な平滑化による惚けや、 不要なェッジ強調によるノイズの増大を防ぐことが できる。 文字 ·線画領域と擬似濃淡領域が隣接している場合、 平滑化処理とエツ ジ強調化処理とが隣接してしまい。 画質が極端に変化するため、 境界の画素を擬 似濃淡 ·文字 ·線画以外の領域とすることによって、 画質を滑らかに変化させる ようにしてもよい。
図 1 3は、 平均化処理による縮小処理を説明するための図である。 図 1 3中、 破線で示された小さな格子は元画像の格子、 太線で示された大きな格子は縮小画 像の格子である。 説明を簡単にするため、 縮小画像を元画像の 1 / 2倍としてい るが、 必ずしも整数分の 1倍である必要はない。 整数分の 1倍ではない場合、 元 画像と縮小画像の格子は一致しないが、 座標値を整数に丸めたり、 格子の共通部 分の面積比に応じて画素を加重平均するなどしてもよい。 図 1 3に示した注目画 素 P mの画素値は、 斜線で示した画素を平均することによって求められる。
図 1 4は、 平滑化処理による縮小処理を説明するための図である。 図 1 4中、 破線で示された小さな格子は元画像の格子、 太線で示された大きな格子は縮小画 像の格子である。 図 1 4に示した注目画素 P bの画素値は、 縮小画像の格子より も少し広い範囲の斜線で示した画素を平均することによって求める。 平滑化を行 う範囲は、 縮小率や元画像の解像度に応じて変化させてもよい。
エッジ強調は、 たとえば
Figure imgf000041_0001
のようなフィルタを用いて行う。 エッジ強調化処理を縮小後の画像に対して行う ことによって、 平均化処理で縮小したことによる画像のなまりを鮮鋭にすること ができる。
(第 5の実施の形態)
図 1 5は、 本発明の第 5の実施の形態である画像処理装置 21 bのブロック図 である。 画像処理装置 21 bは、 画像入力部 22、 文字 ·線画領域抽出部 23、 画像縮小部 25、 画像出力部 26および擬似濃淡領域抽出部 27を備える。 画像 入力部 22によって画像を入力し、 文字■線画領域抽出部 23によって文字 ·線 画領域を抽出する。 擬似濃淡領域抽出部 27は、 入力画像と文字 ·線画領域抽出 部 23の結果から擬似濃淡を抽出する。 画像縮小部 25は、 入力された画像を文 字 ·線画領域、 擬似濃淡領域および文字 ·線画■ 擬似濃淡以外の領域をそれぞれ で異なる方法で縮小処理を行い、 画像出力部 26は処理された画像を出力する。 画像入力部 22、 文字 ·線画領域抽出部 23、 酉像縮小部 25および画像出力部 26は、 前記画像処理装置 21 aと同様にして実現され、 説明は省略する。 擬似濃淡領域抽出部 27では、 注目画素の周辺の相関を求め、 相関が低い画素 のうち、 文字 ·線画領域抽出部 23で抽出された文字 ·線画領域を除いたものを 擬似濃淡領域として抽出する。 擬似濃淡領域は周囲の画素との相関が低く、 また エッジ部分は縦、 横、 斜めのどちらかの方向で相関が高くなるため、 文字や線画 部分を擬似濃淡領域に含めてしまう恐れが少なくなる。
図 16は、 周囲の画素の相鬨を求める方法を説明するための図である。 まず、 注目画素を含む一定の領域を基準領域として設定する。 基準領域 Aを ( X , y ) 方向に (+ 1, 0 ) , ( + 1, + 1 ) , ( 0, + 1 ) , (― 1, — 1 ) の縦、 横 斜め 4方向に動かしたところにある領域を比較領域 B i ( i = l, 2 , 3 , 4 ) とする。 このとき、 注目画素における相関値 Cは、 C = M i n ( 1 AB i 1 ) … ( 7〉
n
で求める。
ただし、 I A— B i I は領域 Aと Bで対応する画素の差分の絶対値の総和を表 し、 nは領域内の画素数、 M i nは i = 1, …, 4のうちの最小値を示している, 画像処理装置 2 1 bでは相関値を各領域間の差分で求めているが、 他の方法で相 鬨を求めてもよい。 相関値 Cは大きいほど相鬨が低く、 小さいほど相関が高いと 判断する。 縦、 横、 斜めの線は、 上記 4方向のうちどれかで相関が高くなるため, はじめから擬似濃淡領域から除くことができ、 より正確に擬似濃淡領域を抽出す ることができる。
擬似濃淡領域抽出部 2 7では、 上記相関値が所定値よりも大きくなる画素 (相 関が低い画素) のうち、 前記文字■線画領域抽出部 2 3によって抽出されていな い画素を擬似濃淡領域として抽出する。 これによつて、 確実に擬似濃淡領域のみ を抽出することができる。
(第 6の実施の形態)
第 6の実施の形態の画像処理装置は、 第 4の実施の形態の画像処理装置 2 1 a あるいは第 5の実施の形態の画像処理装置 2 1 bの擬似濃淡領域抽出部 2 4 , 2 7のみが変更になつたものであり、 これ以外の構成要素は第 4または第 5の実施 の形態の画像処理装置 2 1 a . 2 1 bと同様にして実現され、 説明は省略する。 第 6の実施の形態の画像処理装置における擬似濃淡領域抽出部は、 画像のエッジ 検出を検出し、 エッジの値の大きい画素のうち、 前記文字■線画領域抽出部 2 3 で抽出された文字 ·線画領域を除いたものを擬似濃淡領域として抽出する。 これ は、 擬似濃淡と文字 '線画などのエッジ部分の双方でエッジ検出フィルタの出力 が大きくなることから、 エッジの値の大きい画素から文字 ·線画領域部分を除去 することによって、 擬似濃淡部分のみを抽出することができることによる。
図 1 7は、 第 1 7〜第 2 3の本発明にかかわる画像処理装置の画像処理方法を 示すフローチャートである。 ステップ S 3 1は画像を入力する処理モジュールで あり、 スキャナなどの画像入力装置あるいは記憶メディアから画像縮小装置のメ モリに画像を読込む処理モジュールである。 ステップ S 3 2は文字 ·画像領域を 抽出する処理モジュールであり、 入力された画像に対し、 平滑化処理を行った後. エッジ抽出を行うことで文字 ·画像領域を抽出する。 ステップ S 3 3は擬似濃淡 領域を抽出する処理モジュールであり、 第 4、 第 5あるいは第 6の実施の形態で 述べた方法に従って擬似濃淡領域を抽出する。 ステップ S 3 4は、 ステップ S 3 2 , S 3 3の処理モジュールで抽出された文字■画像領域および擬似漶淡領域に 対して、 第 4、 第 5あるいは第 6の実施の形態で述べた画像縮小の処理を実行す る処理モジュールである。 ステップ S 3 5は、 ステップ S 3 4で縮小された画像 を画像出力部 2 6へ出力する処理モジュールである。
図 1 8は、 第 2 4の本発明にかかわる画像処理装置の画像処理方法を示すフロ 一チャートである。 ステップ S 4 0〜S 4 3は、 図 1 7のステップ S 3 1〜S 3 4と同じ処理を行う処理モジュールであり、 説明を省略する。 ステップ S 4 4で は、 縮小後の擬似濃淡領域のエッジを検出する。 擬似濃淡領域には平滑化処理を 行っているため、 エッジの値が大きくならないはずであるが、 モアレが発生した ときにはエッジが検出されることになる。
ステップ S 4 5は、 ステップ S 4 4で検出したエツジの値が所定値以上の画素 (たとえば、 6 0など) のみ平滑化処理を行う処理モジュールである。 このよう に、 平滑化処理を縮小後の画像に対して行うことを特徴とする。 ステップ S 4 6 は画像を出力する処理モジュールであり、 ステップ S 3 5と同じ処理を行う。 図 1 9は、 第 2 5の本発明にかかわる画像処理装置の画像処理方法を示すフロ 一チャートである。 ステップ S 5 0〜S 5 3は、 図 1 7のステップ S 3 1〜S 3 4あるいは図 1 8のステップ S 4 0〜S 4 3と同じ処理を行う処理モジュールで ある。 ステップ S 5 4では、 縮小後の擬似濃淡領域のエッジを検出する。 擬似濃 淡領域には平滑化処理を行っているため、 エッジの値は大きくならないはずであ るが、 モアレが発生したときにはェッジが検出されることになる。
ステップ S 5 5では、 ステップ S 5 4で検出したエッジの値が所定値以上の画 素 (たとえば、 6 0など) が存在した場合、 モアレが発生したとして、 縮小処理 を中断する (ステップ S 5 7 ) 。 このとき、 警告を発するだけにとどめておいて もよい。 エッジの値が所定値以上の画素が存在しない場合は、 画像を出力して終 了する (ステップ S 5 6 ) 。
(第 7の実施の形態)
図 2 0は、 本発明の第 7の実施の形態である画像処理装置 3 1 aのブロック図 である。 画像処理装置 3 1 aは、 画像入力部 3 2、 画像反転部 3 3 a, 3 3 b、 位置関係検出部 3 4、 画像補正部 3 5および画像出力部 3 6を備える。 画像入力 部 3 2によって原稿の表画像および裏画像を入力し、 第 1の画像反転部 3 3 aに よって裏画像だけ左右を反転させ、 位置関係検出部 3 4によって表画像と裏画像 の位置関係を検出する。 画像補正部 3 5では、 表画像と裏画像との位置関係に従 い、 表画像と裏画像とに対する演算処理によって、 表画像および裏画像のそれぞ れの裏写りを除去し、 再び第 2の画像反転部 3 3 bによって裏画像の左右を反転 させ、 裏画像の向きを元に戻して、 画像出力部 3 6によって補正された表画像お よび裏画像を出力する。 この出力は、 電子書籍に利用することが可能である。 画 像入力部 3 2および画像出力部 3 6は、 前記画像入力部 2および画像出力部 6と 同様にして実現することができ、 説明は省略する。
第 1の画像反転部 3 3 aは、 裏画像の左右を反転させる。 反転させる画像は、 表画像であってもよい。 裏写りする反対面の画像は左右反転しているため、 位置 関係検出部 3 4、 画像補正部 3 5で画素の演算処理を行うために、 予め裏画像を 反転させておく。 補正処理を行った後、 正常な向きに直すため、 補正処理された 裏画像は再び第 2の画像反転部 3 3 bによって反転処理される。 画像反転部 3 3 a , 3 3 bは、 同一の構成であってもよい。
図 2 1は、 位置関係検出部 3 4を説明するための図である。 位置関係検出部 3 4は、 たとえばブロックマッチング部によって実現される。 表画像側に大きさ ( m X n ) の基準領域 Fを設定し、 裏画像側には基準領域 Fより大きな大きさ ( s X t ) の比較領域 Gを設定する。 比較領域 Gと基準領域 Fを比較し、 基準領域 F に最も類似している領域を探索する。 すなわち、 基準領域 Fの左上端点を ( 0,
0 ) 、 比較領域 Gの任意の左上端点を ( u, V ) とし、 基準領域 Fの任意点 ( k:
1 ) と比較領域 Gの対応点 ( k + u, 1 + V〉 の比較を下記式 ( 8 ) によって行 う
n— 1 ra— 1
d(u , v) = ∑ ∑ I G(k + u , 1 + v) - F(k , 1 ) I
k=0 1=0
- ( 8 ) 式 ( 8 ) の点 d ( u, v〉 が最も小さくなる位置にある比較領域 Gの領域が最 も基準領域 Fに類似していると判断し、 基準領域 Fと比較領域 Gの一致を検出す る。
表画像と裏画像で対応する位置関係が判れば、 表画像に対する裏画像のずれ量 ( O x, 0 y ) は比較領域 Gと基準領域 Fの位置の差分から求められる。
本実施の形態では、 ブロックマッチングは 1箇所の基準領域 Fのみで行い、 表 画像および裏画像の平行移動量のみを求めたが、 基準領域 Fを 2箇所以上設定し てブロックマッチングを行うことによって、 さらに回転量を検出してもよい。 裏写りは元々描かれている画像に比べて非常に輝度およびコントラストが薄い ため、 ブロックマッチングを行う際、 表画像および裏画像をそのまま比較したの では、 それぞれの面に描かれた画像に強く影響され、 誤った位置を検出してしま う恐れがある。 そこで、 本発明では予め高輝度成分だけを抽出する高輝度成分抽 出手段を位置関係検出部 34の前段に挿入し、 高輝度成分だけを用いてブロック マッチングを行うことによって、 より正確に位置検出を行うことができる。 図 22は、 高輝度成分を抽出する手段を説明するためのグラフである。 図 22 のグラフにおいて、 横軸は入力画素値を示しており、 縦軸は出力画素値を示して いる。 図 22のグラフでは画素値は輝度を表し、 0〜255の値をとり、 0に近 付くほど低輝度 (黒) 、 255に近付くほど高輝度 (白) と判断しているが、 0 と 255の鬨係は反対であってもよいし、 値が整数でなくてもよいし、 0〜25 5の範囲でなくてもよい。
高輝度成分を抽出する手段は、 入力画像の画素値 L.t以上の画素値だけを 0〜 255の値に変換することによって低輝度成分をカツトし、 高輝度成分のみを抽 出している。 画素値 L tは、 裏写り成分の輝度よりも低い値に予め設定され、 原 稿用紙の透過率、 スキャナの感度特性等によって決められる。 次に、 下記式 ( 9 ) 〜 ( 12 ) を用いて画像補正部 35の動作について説明す る。 以下の aおよび bは実際に印刷された表画像および裏画像をそれぞれ表し、
Aおよび Bは画像入力部 32によって読取られた裏写りを含んだ表画像および裏 画像をそれぞれ表している。 説明を簡単にするため、 a, b , A, Bはそれぞれ 同じ位置で対応する画素値を表しているが、 実際には位置関係検出部 34によつ て、 平行移動、 回転を考慮して対応する画素が決められる。
A = a - r ( 255-b ) - ( 9 )
B = b - r ( 255-a )
A 十 r ( 255— B ) — 255 r
a =
1 一 r 2
B + r ( 255 - A) 255 r
b (12)
1 ― r 2
rは画像を印刷した媒体、 たとえば原稿用紙の透過率を示しており、 式 ( 9 ) を用いて A, a, bに既知の値あるいは測定によって得られた値を代入すること によって求めることができる。
式 ( 9 ) および ( 10 ) をそれぞれ解くと、 式 ( 1 1 ) および ( 12 ) になる, つまり、 撮像された表画像 Aおよび裏画像 Bを演算処理することによって、 裏写 りを除去した実際の表画像 aおよび裏画像 bを復元することができる。 画像補正 部 35は、 上記式 ( 1 1 ) および ( 12 ) の演算を行い、 表画像 aおよび裏画像 bを出力する。
なお、 上述の画像反転部 33 a, 33 b、 位置関係検出部 34および画像補正 部 35の処理ステップを表すプログラムをフロッピー、 ROMおよび CDなどの 媒体に記録して、 コンピュータによって読取り可能にして画像処理装置 31 aを 実現することができる。
(第 8の実施の形態)
図 23は、 本発明の第 8の実施の形態である画像処理装置 31 bのブロック図 である。 画像処理装置 31 bは、 画像入力部 32、 画像出力部 36、 エッジ検出 部 37および画像補正部 38を備える。 画像入力部 32によって画像を入力し、 エッジ検出部 3 7によってエッジを検出し、 画像補正部 3 8では前記エッジと低 輝度領域以外の画素の輝度を上げることによって裏写りを除去し、 画像出力部 3 6では補正された画像を出力する。 画像処理装置 3 1 bの画像入力部 3 2および 画像出力部 3 6は、 画像処理装置 3 1 aの画像入力部 3 2および画像出力部 3 6 と同様にして実現され、 説明は省略する。
エッジ検出部 3 7のエッジ検出は、 たとえば式 ( 1 3 ) および ( 1 4 ) のよう な 2つのエッジ検出フィルタを用い、 各フィルタの出力の絶対値の和をエッジ検 出結果とする。 前記エッジ検出の結果、 所定の閾値よりも大きな値になる画素を エッジと判定する。
縦ェッン ( 13 )
横ェ '、; ン ( 14 )
Figure imgf000047_0001
図 2 4は、 画像補正部 3 8の動作を説明するためのグラフである。 画像補正部 3 8では、 入力画素値を予め判っている裏写り成分の付近の画素値を t 2として, 画素値 t 2よりも適当に小さな値の画素値を t 1 とし、 画素値 t 1から画素値 t 2までの出力画素値との関係 (傾き ) を変え、 画素値 t 2以上で飽和するように 出力画素値を補正することによって、 裏写りを補正する。 画素値 t 1 , t 2は原 稿用紙の透過率、 スキャナの感度特性等によって決められる。 このとき、 画素値 t 1以下の低輝度部分には影響はないため、 黒い部分が白飛びすることを防ぐこ とができる。 また、 前記エッジ検出部 3 7によって検出したエッジ部分では前記 の輝度補正を行わないことによって、 文字の輪郭にある高輝度部分が保存され、 文字が掠れたりすることを防ぐことができる。 なお、 上述のェッジ検出部 3 7および画像補正部 3 8の処理ステップを表すプ ログラムをフロッピー、 R O Mおよび C Dなどの媒体に記録して、 コンピュータ によって読取り可能にして画像処理装置 3 1 bを実現することができる。
(第 9の実施の形態〉
図 2 5は、 本発明の第 9の実施の形態である画像処理装置 3 1 cのブロック図 である。 画像処理装置 3 1 cは、 画像入力部 3 2、 画像出力部 3 6、 エッジ検出 部 3 7、 画像分割部 3 9および画像補正部 4 0を備える。 画像入力部 3 2によつ て画像を入力し、 エッジ検出部 3 7によってエッジを検出する。 画像分割部 3 9 では前記検出されたエッジと低輝度画素で画像を分割し、 画像補正部 4 0では前 記分割された領域のうち、 領域内の平均輝度の高いところだけ、 輝度を上げるこ とによって裏写りを除去し、 画像出力部 3 6では補正処理された画像を出力する, 画像処理装置 3 1 cの画像入力部 3 2、 画像出力部 3 6およびエッジ検出部 3 7 は、 画像処理装置 3 1 bの画像入力部 3 2、 画像出力部 3 6およびエッジ検出部 3 7と同様にして実現され、 説明は省略する。
画像分割部 3 9は、 エッジ検出部 3 7によって検出されたエッジおよび所定輝 度以上の画素値によって画像領域を分割する。 たとえば図 2 6に示すように、 画 像分割部 3 9によって画像を領域 1〜 5に分割する。 領域 1は文字が記載された 囲み領域、 領域 2は下地領域、 領域 3は黒いハーフトーン領域、 領域 4は薄いハ —フトーン領域、 領域 5は濃いハーフトーン領域である。 領域 1〜5には、 文字 や線などの黒い画素やエッジ部分は含まれていないとする。 そして、 領域 4と同 じ輝度の裏写りが領域 1および領域 2にあったとする。 ハーフトーンが用いられ ている領域 3〜5は、 平均輝度が低くなつているが、 領域 1および領域 2は背景 がほとんど白であるため、 平均輝度は高くなる。 このことから、 平均輝度が高い 領域 1 , 2のみで輝度補正を行うことによって、 領域 1 , 2に領域 4 同じ輝度 の裏写りが存在していても領域 4のハーフトーンは保存しつつ領域 1および領域 2の裏写りを除去することができる。 このように、 画像内の黒い領域では裏写り はあまり目立たないため、 裏写りを補正する領域から除いている。
画像補正部 4 0では画像分割部 3 9によって分割された領域の平均輝度を求め. 所定値以上の場合のみに、 第 8の実施の形態で説明した図 2 4と同様の方法で高 輝度部分だけの輝度を補正することによって、 裏写りを除去する。 上記したよう に、 平均輝度が高い領域だけ裏写り補正を行うことによって、 裏写りと同じ輝度 のハーフトーン部分でも、 線に囲まれたベたな領域が飛んでしまうのを防ぐこと ができる。 また、 予め、 黒い領域とエッジ部分は除いているため、 文字が掠れた り、 黒い部分が白飛びしてしまうことを防いでいる。
また、 画像補正部 4 0では、 高輝度領域の画素値の分布から図 2 4の画素値 t 2を自動的に求める。 図 2 7は、 画素値 t 2を求める方法を説明するためのグラ フである。 まず、 高輝度領域の画素値のヒストグラムをとり、 画素値 t m i nと t m a xを設定する。 高輝度領域の画素が全て t m a Xより右に分布していれば t 2 = t m a xとし、 t m i nよりも左に分布していれば t 2 = t m i nとする < 最小の値をとる画素が t m i riから t m a xの間にあれば、 その値を画素値 t 2 とする。 裏写り部分はまわりの領域よりも暗くなるため、 その画素値を検出し、 白になるように補正することによって、 裏写りを除去することができる。
なお、 上述のエッジ検出部 3 7、 画像分割部 3 9および画像補正部 4 0の処理 ステップを表すプログラムをフロッピー、 R O Mおよび C Dなどの媒体に記録し て、 コンピュータによって読取り可能にして画像処理装置 3 1 cを実現すること ができる。
(第 1 0の実施の形態)
図 2 8は、 本発明の第 1 0の実施の形態である画像処理装置 5 0のブロック図 である。 画像処理装置 5 0は、 ページ毎に切り離された書籍の原稿が画像入力部 5 1で画像データとしてページ毎に読込まれ、 ページ輪郭検出部 5 2、 ページ内 容領域抽出部 5 3、 傾き補正部 5 4、 ページ位置補正部 5 5およびページ情報処 理部 5 7で後述する処理が各種バッファを用いて行われ、 ページ間の位置合わせ 補正がなされた画像データが画像出力部 5 6から出力される。
次に、 画像処理装置 5 0に入力される書籍として小説本の場合の構成を示す概 念図を図 2 9に示す。 図 2 9から、 画像処理装置 5 0に入力される書籍は、 タイ トル (表紙) ページ、 目次ページ、 本文ページ (偶数ページ、 奇数ページ) 、 索 引ページ、 および裏表紙ページから成る。 この中で殆どのページは、 本文ページ であり、 この本文ページは、 どのページもほぼ決まった位置にヘッダ領域 (本例 の場合、 ページを示す) 、 フッタ領域 (本例の場合、 第何章を示す) 、 および内 容領域 (本文領域) がある。 画像処理装置 5 0では、 このような本の構成の特徴 を用いて、 ページ間の位置合わせを行う。
次に、 画像処理装置 5 0の各部の処理について説明する。 画像入力部 5 1は、 スキャナなどから 2値あるいは多値の画像を取込み、 入力画像バッファ 5 8に保 存する。 この画像は、 モノクロ画像であってもカラー画像であってもよい。 画像 の入力のおよその向きは正しく、 本の最初から、 あるいは最後からページ順に入 力される。 オートフィーダを用いる場合に誤って傾いて入力されることも考慮に いれ、 スキャナなどで画像を取込む際は、 本のページの大きさによりスキャナの 入力領域を大きくするのが望ましく、 以下の説明では、 この場合について説明す る。 また、 ページがスキャナの入力領域より大きいときは、 分割して入力し、 入 力画像バッファ 5 8内でつなげるようにすればよい。
次に、 ページ輪郭検出部 5 2について説明する。 画像入力部 5 1で入力された 画像は、 ページの大きさがスキャナの入力領域より小さいため、 本の実際のベー ジ領域と、 後ろの背景領域とから成る。 ページ輪郭検出部 5 2は、 入力された画 像から背景領域とページ領域とを区別し、 そのページ領域の輪郭を抽出する。 こ こで、 既存の本をページ毎に切り離して用いる場合、 背の部分であったページ端 は傾いたり、 ちぎれたりしていることがあるため、 正確な矩形でない場合が多い, そのため、 ページの輪郭の形状は、 およそ矩形で近似できるものとする。
ページ領域の輪郭検出の方法としては、 画像からエッジ部分を検出し、 そのェ ッジ点から矩形の各角度が 9 0度であることを検出する方法、 あるいは画像を走 査し、 輝度の変化の大きいエッジ点の集合を抽出し、 その集合から直線を求めて. 輪郭線を抽出する方法等がある。
ページ領域の輪郭検出の手法の一例を図 3 0および図 3 1を用いて説明する。 図 3 0は、 この手法を説明するための図である。 図 3 1は、 この手法を説明する ためのフローチャートである。 ここでは、 ページ領域の輪郭は四角形であるから. 画像の最も外側にある 4本の直線を検出する方法について説明する。
まず、 図 30 ( a ) で示されるページ領域の左端の輪郭の直線を検出する場合 について説明する ( S 61, S 62 ) 。 まず、 走査を行うラインを選択する ( S 63 ) 。 ここでは、 横方向に走査するので、 一番上の列を選ぶ。 左端から右端へ と走査するので、 左端の点を初期値 ( i =0 ) とする ( S 64 ) 。 順に画像を走 査してゆき、 その点の輝度を入力画像バッファ 58から得る ( S 65 ) 。 その点 がエッジ点かどうかを判定する ( S 66 ) 。 判定方法は、 横方向の一次微分をと る。 たとえば、 ソ一ベル (Sobel) フィルタを用いる方法である。 エッジ点であ ると判定された場合、 その点の座標を記憶し ( S 69 ) 、 そのラインの走査は終 了し、 次のラインを選択する。 この走査を全てのラインで一番下の列まで行う ( S 70 ) 。 エッジ点でないと判定された場合、 画像の端かどうかを判定する ( S 67 ) 。 画像の端であると判定された場合、 S 69に進む。 画像の端でないと判 定された場合、 i = i + lとし ( S 68 ) 、 S 65に戻る。 上記の結果、 エッジ 点の座標の集合が得られるが、 これらの多くは、 1つの直線上に集まっており、 その直線を計算する。 この方法の代表例として、 ハーフ変換を用いて行う ( S 7 1 ) 。 以上の処理を、 入力画像の 4方向 (図 31のフローで D = 0〜3に対応) についてそれぞれ行い (図 30 ( b ) ) ( S 72 ) 、 4本の直線を求め ( S 73 ) 、 これらの直線をページ領域の輪郭として検出する (図 30 ( c ) ) ( S 74
) o
次に、 ページ内容領域抽出部 53について、 図 32および図 33を用いて説明 する。 ページ内容領域抽出部 53は、 ページ輪郭検出部 52で求めたページ領域 の輪郭内の画像からページ内容領域の抽出を行う。 図 32は、 この手法を説明す るための図である。 図 33は、 この手法を説明するためのフローチャートである t 図 32 ( a ) に示すように、 画像を線順次に走査して ( S 61, S 62 ) 、 ま ずエッジ点を抽出する。 これは、 ページ輪郭抽出部 52と同じ方法である。 この エッジ点は、 文字とのエッジであったり、 図や表の募線、 あるいは漫画の吹き出 し部分とのエッジであるが、 本例の場合、 文字領域とのエッジ点を求めている。 得られたエッジ点集合は、 文字列などであれば、 1直線上に存在しているわけで はない。 そこで、 ここでは、 これらのエッジ集合の外接線 (直線) を求め (図 3 2 ( b ) ) . この直線をページ内容領域の境界線とする (図 3 2 ( c ) ) 。
いま一度、 外接線の求め方を図 3 3で説明する。 まず、 エッジ点集合を求める ( S 7 5 ) 。 エッジ点集合から 2点を選択し、 この 2点を通る直線式を求める ( S 7 6 ) 。 直線式は、 2点の座標を ( x l , y l ) , ( x 2 , y 2 ) とすると、 ( y 2 - y 1 ) x- ( x 2 - x 1 ) - ( x 1 y 2 - x 2 y 1 ) = 0 となる。
選ばれなかった他のエッジ点がこの直線のどちら側にあるか判定する ( S 77 ) 。 この判定式は、
F ( X , y ) = ( y 2 - y 1 ) x十 ( x 2 - x 1 ) y _x l y 2十 x 2 y l とすると、 ( x, y ) の点は、 F ( x, y ) く◦なら原点側、 F ( x, y ) >0 なら外側となる。
全ての点が同じ側にあった場合、 この直線式は、 外接線である。 そうでなけれ ば、 新たに別の 2点を選択する ( S 78〜S 80 ) 。 全ての組について行えば、 必ず外接線を求めることができる。
以上を、 走査方向の各 4方向 (図 33のフローで D = 0〜3に対応) について 行えば ( S 72 ) 、 4本の直線が求められ ( S 7 3 ) 、 外接線で囲まれた図形の ページ内容領域を抽出することができる (図 3 2 ( c ) ) ( S 74 ) 。
次に、 傾き補正部 54について説明する。 傾き補正部 54は、 ページ内容領域 抽出部 5 3で抽出した外接線の図形に基づいて基準座標軸に対し回転させる処理 を行い、 入力画像の傾きを補正する。 この処理は、 本の全てのページに対して行 う。
図 34は、 画像回転の様子を示す図である。 この回転変換の中心は、 ページ内 容領域の角の座標 ( c x, c y ) にする。 入力画像を <9だけ回転したとき、 入力 画像上のある点の座標を ( x, y ) 、 変換後の補正画像上での座標を ( χ ' , y
' ) とする。 この回転の変換式は、
X ' c o s ( 6* ) — s i η (θ) x— c x c x
( ) = ( ) ( ) + ( )
y ' s i n ( (9 ) c o s ( 6* ) y— c y c y である。
回転処理では、 入力画像バッファ 5 8の各画素にこの式を当てはめ、 補正画像 バッファ 5 9上の変換後の座標に輝度あるいは色を割り当てる。
次に、 ページ情報処理部 5 7について説明する。 ページ情報処理部 5 7は、 入 力されている本の画像について本文ページであるか、 それ以外のページであるか について判定する。 この判定の方法は、 ページ内容領域抽出部 5 3で抽出された 外接線の図形の大きさあるいは形状を比較して、 所定の大きさや形状の範囲であ れば本文ページであると判定する方法である。 その他に、 ページ順に入力される ので、 ページ内容領域抽出部 5 3で抽出された外接線の矩形の大きさは、 本文べ ージであれば、 ほぼ一定の大きさとなるので、 外接線の矩形の大きさがほぼ一定 の大きさが続く場合にはその最初のページから本文ページであると判定する、 あ るいはページ順に順次読み込まれるので、 本文の始まるページと終わるページ ( 何枚目) を外部から予め指定する方法等もある。 また、 ページ情報処理部 5 7は. 本文ページであると判断した場合に、 ページ位置情報バッファ 6 0にその外接線 の矩形のページ内容領域の位置情報を記憶させて、 本文画像間、 つまりページ間 の位置合わせのテンプレートとする。 なお、 すでにページ位置合わせのための基 準となる本文ぺージであることを示すテンプレートの位置情報がぺージ位置情報 バッファ 6 0内に格納されているときは、 ページ位置補正部 5 5へ進む。
次に、 ページ位置補正部 5 5について説明する。 入力画像は、 傾きは補正され ているが、 読み込むときの機械的ずれ等により、 入力画像によって本文のページ 内容領域の位置が違ってくる。 これは、 本文ページを位置補正せずにこのまま出 力して電子書籍としてビューヮ等で本文ページの内容を見ると、 本文ページの位 置ずれがあることになり、 不快感を与える。 そこで、 ページ位置補正部 5 5は、 ページ位置情報バッファ 6 0に一旦記憶した本文ページであることを示すテンプ レートの位置情報に合致するように、 傾きが補正された本文ページの画像の位置 を平行移動させて補正する。 その結果、 画像出力部 5 6からは本文ページ間では 位置ずれのない画像データが得られる。 つまり、 一旦、 本文ページであると判定 されたページからテンプレートを求めれば、 そのページに続く本文ページをその ままテンプレートを基準にして位置合わせするのである。
また、 上記テンプレートは、 本文ページのヘッダ領域、 フッタ領域、 および內 容領域全てを含むようにしているが、 各領域を図 3 5 ( a ) に示すように分けて- 図 3 5 ( b ) に示すような形態でページ位置情報バッファ 6 0に記憶してもよい, このように分割することで、 文字認識やキーワード抽出等をしやすくでき、 文書 の構造化を容易にする。
以上の説明では、 全ての処理は連続して自動化されているが、 前記ページ輪郭 検出部 5 2、 ページ内容領域抽出部 5 3および傾き補正部 5 4の処理は手動で行 つてもよい。
(第 1 1の実施の形態)
通常、 本の画像は、 自動的に順次入力され、 次の入力画像が本文ページである のか、 あるいはそれ以外であるのかは入力時点では判らない。 また、 たとえ本文 ページであっても、 たとえば、 章の最後のページでページ内容領域の大きさが違 つていたりする。 そこで、 本文ページであると判定されても、 ページ位置情報バ ッファ 6 0のテンプレートの位置情報と新たに入力された画像のページ内容領域 の位置情報とが著しく異なる場合 (位置情報が所定範囲外の場合) は、 エラーと みなし、 エラーバッファ (図示せず) にエラービットをページ毎に書込み、 警告 データを生成して残しておく。 これによつて、 ユーザは本全体の自動処理の終了 後、 このエラ一バッファから警告データを表示手段 (図示せず) で見ることで、 手動で補正処理を行わなければならないページをすぐに知ることができる。
上述した一連の処理は、 プログラムで実現できるが、 このプログラムを光ディ スクゃフロッピーディスク等のコンピュータ読取り可能な記録媒体に記憶させて おいて、 必要に応じて読出して使用してもよい。
本発明は、 その精神または主要な特徴から逸脱することなく、 他のいろいろな 形で実施することができる。 したがって、 前述の実施の形態は、 あらゆる点で単 なる例示に過ぎず、 本発明の範囲は、 請求の範囲に示すものであって、 明細書本 文には何ら拘束されない。
さらに、 請求の範囲の均等範囲に属する変形や変更は、 すべて本発明の範囲内 のものである。
【産業上の利用可能性】
第 1の本発明によれば、 画像入力手段から入力された画像に対して、 色分析手 段はその画像内で使われている色を分析し、 混合比算出手段は分析された色に基 づいて赤、 緑および青などの色成分の混合比を算出し、 変換手段は算出された混 合比に従って色成分を混合し、 このような画像処理装置によって入力画像の色を 自動的に判別してモノクロ画像を作成することができる。
また第 2の本発明によれば、 画像入力手段から入力された複数枚の画像に対し て、 色分析手段はそれらの画像内で使われている色を分析し、 混合比算出手段は 分析された色に基づいて複数枚の画像に共通の色成分の混合比を算出し、 変換手 段は算出された混合比に従って色成分を混合し、 このような画像処理装置によつ て複数枚の入力画像の色を自動的に判別してそれぞれのモノクロ画像を作成する ことができる。 また、 複数枚の入力画像から色を判別するので、 より正確に色を 判別することができる。 さらに、 複数枚の入力画像に対して同じ条件でモノクロ 画像を作成するので、 画像を安定的に作成することができる。
また第 3の本発明によれば、 画像入力手段から入力された画像に対して、 色指 定手段はその画像内で使われている色を指定し、 混合比算出手段は指定された色 に基づいて色成分の混合比を算出し、 変換手段は算出された混合比に従って色成 分を混合し、 このような画像処理装置によつてユーザが入力画像で使われている 色を指定してより正確なモノク口画像を作成することができる。
また第 4の本発明によれば、 画像入力手段から入力された画像に対して、 混合 比指定手段は色成分の混合比を指定し、 変換手段は指定された混合比に従って色 成分を混合し、 このような画像手段装置によってユーザが色成分の混合比を指定 して所望のモノクロ画像を作成することができる。
また第 5の本発明によれば、 データが入力され、 該画像内で使われている色が 分析され、 分析された色に基づいて色成分の混合比が算出され、 算出された混合 比に従って色成分が混合され、 このような画像処理方法によって入力画像の色を 自動的に判別してモノクロ画像を作成することができる。 また第 6の本発明によれば、 入力された画像内で使われている色の分析は、 入 力画像の色相、 彩度および明度の分布に基づいて行われ、 このような画像処理方 法によって入力画像の色を自動的に判別してモノク口画像を作成することができ る。
また第 7の本発明によれば、 複数枚の原稿の画像データが入力され、 該画像内 で使われている色が分析され、 分析された色に基づいて複数枚の画像に共通の色 成分の混合比が算出され、 算出された混合比に従って色成分が混合され、 このよ うな画像処理方法によって複数枚の入力画像の色を自動的に判別してそれぞれの モノクロ画像を作成することができる。 また、 複数枚の入力画像から色を判別す るので、 より正確に色を判別することができる。 さらに、 複数枚の入力画像に対 して同じ条件でモノクロ画像を作成するので、 画像を安定的に作成することがで きる。
また第 8の本発明によれば、 入力された画像内で使われている色が指定され、 該色に基づいて色成分の混合比が算出され、 算出された混合比に従って色成分が 混合され、 このような画像処理方法によってユーザが入力画像で使われている色 を指定してより正確なモノク口画像を作成することができる。
また第 9の本発明によれば、 前記混合比は、 混合比テーブルを参照して算出さ れる。 このような画像処理方法によって入力画像の色を自動的に判別して、 モノ クロ画像を作成することができる。 また、 混合比テーブルを参照して混合比を算 出することによって、 画像で使用されている各色に最適な混合比を高速に得るこ とができるので、 より最適なモノク口画像を高速で作成することができる。 また第 1 0の本発明によれば、 前記混合比は、 入力画像で使われている色の補 色の色成分割合に基づいて算出される。 このような画像処理方法によって入力画 像の色を自動的に判別して、 コントラストの高いモノク口画像を作成することが できる。
また第 1 1の本発明によれば、 前記混合比は、 入力画像で使われている色の補 色成分割合と入力画像で使われている色成分割合とに基づいて算出される。 この ような画像処理方法によつて入力画像の色を自動的に判別して、 コントラストが 高く、 かつ画像で使われている色と黒とを判別しやすいモノクロ画像を作成する ことができる。
また第 1 2の本発明によれば、 入力された画像に対して、 色成分の混合比が指 定され、 該混合比に従って色成分が混合され、 このような画像処理方法によって ユーザが色成分の混合比を指定して、 所望のモノクロ画像を作成することができ る。
また第 1 3の本発明によれば、 コンピュータが、 入力画像に対して、 その画像 内で使われている色を分析し、 該色に基づいて色成分の混合比を算出し、 該混合 比に従って色成分を混合して、 入力画像の色を自動的に判別してモノクロ画像を 作成する画像処理プログラムを記録した媒体を提供することができる。
また第 1 4の本発明によれば、 コンピュータが、 入力された複数枚の画像に対 して、 それらの画像内で使われている色を分析し、 該色に基づいて複数枚の画像 に共通の色成分の混合比を算出し、 該混合比に従って色成分を混合して、 複数枚 の入力画像の色を自動的にかつより正確に判別してそれぞれのモノクロ画像を安 定的に作成する画像処理プログラムを記録した媒体を提供することができる。 また第 1 5の本発明によれば、 コンピュータが、 入力画像に対して、 その画像 内で使われている色を指定し、 該色に基づいて色成分の混合比を算出し、 該混合 比に従って色成分を混合して、 ユーザが入力画像で使われている色を指定してよ り正確なモノクロ画像を作成する画像処理プログラムを記録した媒体を提供する ことができる。
また第 1 6の本発明によれば、 コンピュータが、 入力画像に対して、 色成分の 混合比を指定し、 該混合比に従って色成分を混合して、 ユーザが色成分の混合比 を指定して所望のモノクロ画像を作成する画像処理プログラムを記録した媒体を 提供することができる。
また第 1 7の本発明によれば、 画像入力手段によって画像が入力され、 該画像 から文字 ·線画領域抽出手段は文字 ·線画領域を抽出し、 また擬似濃淡領域抽出 手段は擬似濃淡領域を抽出し、 画像縮小手段は擬似濃淡領域、 文字 ·線画領域お よびそれら以外の領域において互いに異なる方法で画像を縮小し、 縮小された画 像が画像出力手段によって出力される。 このような画像処理装置によって入力画 像を、 擬似濃淡領域、 文字 ·線画領域およびそれら以外の領域の 3つの領域に分 割し、 擬似濃淡領域ではモアレを抑制して画像を縮小し、 文字 ·線画領域では鮮 鋭に画像を縮小し、 それら以外の領域では適宜画像を縮小することができる。 また第 1 8の本発明によれば、 画像縮小手段は擬似濃淡領域に対しては平滑化 処理を行って画像を縮小し、 文字 ·線画領域に対しては平均化処理を行った後に エッジ強調化処理を行って画像を縮小し、 それら以外の領域に対しては平均化処 理を行って画像を縮小する。 このような画像処理装置によって擬似濃淡領域では モアレを抑制して画像を縮小し、 文字,線画領域では鮮鋭に画像を縮小し、 それ ら以外の領域では適宜画像を縮小することができる。
また第 1 9の本発明によれば、 入力画像から文字■線画領域抽出手段が文字 - 線画領域を抽出した後、 擬似濃淡領域抽出手段が擬似濃淡領域を抽出する。 この ような画像処理装置によって入力画像からまず文字 ·線画領域を抽出し、 次に擬 似濃淡領域を抽出するので、 擬似濃淡領域内の文字 ·線画領域であっても、 擬似 濃淡領域に影響されることなく正確に抽出することができる。
また第 2 0の本発明によれば、 文字 ·線画領域の抽出は、 入力画像に対して平 滑化処理を行った後にエッジ抽出を行うことによってなされる。 このような画像 処理装置によって入力画像から、 まず文字 ·線画領域を上述のようにして抽出し、 次に擬似濃淡領域を抽出するので、 擬似濃淡領域内の文字■線画領域であっても- 擬似濃淡領域に影響されることなく正確に抽出することができる。
また第 2 1の本発明によれば、 擬似濃淡領域は、 入力画像の画素毎に周辺画素 の分散を求め、 分散の大きい画素のうち、 文字 ·線画領域として抽出されていな い領域の画素を抽出することによってなされる。 このような画像処理装置によつ て周辺画素の分散を求め、 分散の大きい画素のうち、 文字 ·線画領域として抽出 されない画素を擬似濃淡領域として抽出することによって、 文字 ·線画領域を除 いて、 擬似濃淡領域のみを正確に抽出することができる。
また第 2 2の本発明によれば、 擬似濃淡領域は、 入力画像の画素毎に周辺画素 の相関を求め、 相関の低い画素のうち、 文字 .線画領域として抽出されていない 領域の画素を抽出することによってなされる。 このような画像処理装置によって 周辺画素の相関を求め、 相関の低い画素のうち、 文字 ·線画領域として抽出され ない画素を擬似濃淡領域として抽出することによって、 文字■線画領域をより確 実に除いて、 擬似濃淡領域のみを正確に抽出することができる。
また第 2 3の本発明によれば、 擬似濃淡領域は、 入力画像の画素のエッジ領域 を検出し、 該エッジ領域のうち、 文字■線画領域として抽出されていない領域を 抽出することによってなされる。 このような画像処理装置によってエッジフィル タは単純であり、 より高速に擬似濃淡領域を抽出することができる。
また第 2 4の本発明によれば、 擬似濃淡領域に対して、 エッジ検出を行って、 濃度値が所定値以上の領域に対して、 再度、 平滑化処理を行う。 このような画像 処理装置によって擬似濃淡領域でモアレをさらに確実に抑制して、 画像を精度よ く縮小することができる。
また第 2 5の本発明によれば、 擬似濃淡領域に対して、 エッジ検出を行って、 漉度値が所定値以上の領域に対しては、 縮小処理を停止する。 このような画像処 理装置によって不要な縮小処理を行わないようにして、 正常な縮小処理を継続す ることができる。
また第 2 6の本発明によれば、 画像が入力され、 該画像から文字 ·線画領域が 抽出され、 また擬似濃淡領域が抽出され、 擬似濃淡領域、 文字 ·線画領域および それら以外の領域の画像が互いに異なる方法で縮小されて、 出力される。 このよ うな画像処理方法によって擬似濃淡領域ではモアレを抑制して画像を縮小し、 文 字 ·線画領域では鮮鋭に画像を縮小し、 それら以外の領域では適宜面像を縮小す ることができる。
また第 2 7の本発明によれば、 コンピュータが、 入力画像から、 文字 '線画領 域を抽出し、 また擬似濃淡領域を抽出し、 擬似濃淡領域、 文字 ·線画領域および それら以外の領域の画像を互いに異なる方法で縮小して出力して擬似濃淡領域で はモアレを抑制して画像を縮小し、 文字 .線画領域では鮮鋭に画像を縮小し、 そ れら以外の領域では適宜画像を縮小する画像処理プログラムを記録した媒体を提 供することができる。 また第 2 8の本発明によれば、 画像入力手段から表画像および裏画像を入力し いずれか一方の画像を画像反転手段によって反転し、 反転後、 表裏画像の位置関 係を位置関係検出手段によって検出し、 該位置関係から画像補正手段は画像の裏 写りを除去するように画像を補正し、 出力手段によって出力する。 このような画 像処理装置によって入力画像を裏写りすることなく出力することができる。 また第 2 9の本発明によれば、 表裏画像の高輝度成分のみを抽出し、 画像の高 輝度成分でブロックマッチングを行うことによって、 表裏画像の位置関係を検出 する。 このような画像処理装置によってより正確に位置関係を検出することがで き、 入力画像をさらに裏写りすることなく、 出力することができる。
また第 3 0の本発明によれば、 画像入力手段から画像を入力し、 画像のエッジ をエツジ検出手段によって検出し、 エツジ検出手段の出力による画像のェッジ以 外の高輝度画素の輝度を上げることによって、 画像補正手段は、 画像の裏写りを 除去するよう画像を補正し、 出力手段によって出力する。 このような画像処理装 置によって文字の掠れを防止しながら、 入力画像を裏写りすることなく出力する ことができる。
また第 3 1の本発明によれば、 画像入力手段から画像を入力し、 画像のエッジ をエッジ検出手段によって検出し、 エッジ検出手段の出力による画像のエッジと 低輝度画素とによって画像分割手段は画像を分割し、 分割された領域内の平均輝 度を求めて高輝度領域のみの輝度を上げることによって画像補正手段は画像の裏 写りを除去するよう画像を補正し、 出力手段によって出力する。 このような画像 処理装置によってハーフトーン部分が白く飛んでしまうことを防止しながら、 入 力画像を裏写りすることなく出力することができる。
また第 3 2の本発明によれば、 画像の補正は高輝度領域内において輝度が所定 の範囲にある画素の中から代表輝度を求め、 代表輝度を基準にして前記領域内の 画素の輝度を上げることによってなされる。 このような画像処理装置によって紙 質による透過率の違いに影響されることなく、 入力画像を裏写りすることなく出 力することができる。
また第 3 3の本発明によれば、 表画像および裏画像が入力され、 いずれか一方 の画像が反転され、 反転後、 表裏画像の位置関係が検出され、 該位置関係から画 像の裏写りを除去するように画像が補正されて、 出力される。 このような画像処 理方法によって入力画像を裏写りすることなく出力することができる。
また第 3 4の本発明によれば、 画像が入力され、 画像のエッジが検出され、 ェ ッジ検出の出力による画像のェッジ以外の高輝度画素の輝度を上げることによつ て、 画像の裏写りを除まするよう画像が補正されて、 出力される。 このような画 像処理方法によって文字の掠れを防止しながら、 入力画像を裏写りすることなく 出力することができる。
また第 3 5の本発明によれば、 画像が入力され、 画像のエッジが検出され、 ェ ッジ検出の出力による画像のェッジと低輝度画素とによつて画像が分割され、 分 割された領域内の平均輝度を求めて高輝度領域のみの輝度を上げることによって. 画像の裏写りを除去するよう画像が補正されて、 出力される。 このような画像処 理方法によってハーフトーン部分が白く飛んでしまうことを防止しながら、 入力 画像を裏写りすることなく出力することができる。
また第 3 6の本発明によれば、 コンピュータが、 入力された表画像および裏画 像のうちの、 いずれか一方の画像を反転し、 反転後、 表裏画像の位置鬨係を検出 し、 該位置関係から画像の裏写りを除去するように画像を補正して出力して入力 画像を裏写りすることなく出力する画像処理プログラムを記録した媒体を提供す ることができる。
また第 3 7の本発明によれば、 コンピュータが、 入力された画像のエッジを検 出し、 エッジ検出の出力による画像のエッジ以外の高輝度画素の輝度を上げるこ とによって、 画像の裏写りを除去するよう画像を補正して出力して文字の掠れを 防止しながら、 入力画像を裏写りすることなく出力する画像処理プログラムを記 録した媒体を提供することができる。
また第 3 8の本発明によれば、 コンピュータが、 入力された画像のエッジを検 出し、 エッジ検出の出力による画像のェッジと低輝度画素とによって画像を分割 し、 分割された領域内の平均輝度を求めて高輝度領域のみの輝度を上げることに よって、 画像の裏写りを除去するよう画像を補正して出力してハーフトーン部分 が白く飛んでしまうことを防止しながら、 入力画像を裏写りすることなく出力す る画像処理プログラムを記録した媒体を提供することができる。
また第 3 9の本発明によれば、 画像入力手段からページ毎に画像が入力され、 該画像の中から所定の画像を画像判定手段が判定し、 判定された画像からテンプ レートをテンプレート取得手段が求め、 該テンプレートに基づいて、 画像補正手 段は、 画像間の位置を補正して、 連続するページの画像間の位置合わせを行う。 このような画像処理装置によってページ毎に入力された画像の中で、 所望の連続 する画像間の位置合わせを短時間で行うことができる。
また第 4 0の本発明によれば、 画像入力手段から書籍のページ毎に画像が入力 され、 該画像の中から所定の本文画像を画像判定手段が判定し、 判定された画像 からテンプレートをテンプレート取得手段が求め、 該テンプレートに基づいて、 画像補正手段は、 本文画像間の位置を補正して、 連続するページの本文画像間の 位置合わせを行う。 このような画像処理装置によってページ毎に入力された本文 画像の中で、 本文画像間の位置合わせを短時間で行うことができる。 その結果、 電子書籍コンテンツを短期間で作成することができるとともに、 電子書籍をビュ ーヮで見る場合、 本文画像の位置が揃っているので、 使用者への不快感をなくす ことができる。
また第 4 1の本発明によれば、 ページ毎に入力された画像の中から所定の画像 が判定され、 判定された画像からテンプレートが求められ、 該テンプレートに基 づいて、 画像間の位置を補正して、 連続するページの画像間の位置合わせが行わ れる。 このような画像処理方法によってページ毎に入力された画像の中で、 所望 の連続する画像間の位置合わせを短時間で行うことができる。
また第 4 2の本発明によれば、 入力された画像を走査して得られたェッジ点の 集合から求めた外接線から成る矩形の位置情報がテンプレートとして求められる, このような画像処理方法によって外接線を用いてテンプレートを求めるので、 文 字領域であっても正確なテンプレートを得ることができ、 位置合わせの精度を高 めることができる。
また第 4 3の本発明によれば、 入力された画像の中から所定の画像が判定され. 入力された画像の位置情報と前記テンプレートの位置情報とが所定範囲外であつ た場合には、 警告データが生成される。 このような画像処理方法によって画像間 の位置合わせが失敗したことを検知でき、 たとえばォーサリング中あるいは終了 後の修正に利便を図ることができる。
また第 4 4の本発明によれば、 書籍のページ毎に入力された画像の中から所定 の本文画像が判定され、 判定された画像からテンプレートが求められ、 該テンプ レートに基づいて、 本文画像間の位置を補正して、 連続するページの本文画像間 の位置合わせが行われる。 このような画像処理方法によってページ毎に入力され た本文画像の中で、 本文画像間の位置合わせを短時間で行うことができる。 その 結果、 電子書籍コンテンツを短期間で作成することができるとともに、 電子書籍 をビューヮで見る場合、 本文画像の位置が揃っているので、 使用者への不快感を なくすことができる。
また第 4 5の本発明によれば、 コンピュータが、 ページ毎に入力された画像の 中から所定の画像を判定し、 判定された画像からテンプレートを求め、 該テンプ レートに基づいて、 画像間の位置を補正して、 連続するページの画像間の位置合 わせを行ってページ毎に入力された画像の中で、 所望の連続する画像間の位置合 わせを短時間で行う画像処理プログラムを記録した媒体を提供することができる ' また第 4 6の本発明によれば、 コンピュータが、 書籍のページ毎に入力された 画像の中から所定の本文画像を判定し、 判定された画像からテンプレートを求め- 該テンプレートに基づいて、 本文画像間の位置を補正して、 連続するページの本 文画像間の位置合わせを行ってページ毎に入力された本文画像の中で、 本文画像 間の位置合わせを短時間で行う画像処理プログラムを記録した媒体を提供するこ とができる。

Claims

請 求 の 範 囲
1 . 画像入力手段と、
入力された画像内で使われている色を分析する色分析手段と、
分析された色に基づいて、 色成分の混合比を算出する混合比算出手段と、 算出された混合比に従って色成分を混合して、 入力された画像をモノクロ画像 に変換する変換手段とを備えることを特徴とする画像処理装置。
2 . 前記画像入力手段は、 複数枚の画像が入力可能で、
前記色分析手段は、 入力された複数枚の画像内で使われている色を分析し、 前記混合比算出手段は、 分析された色に基づいて、 複数枚の画像に共通の色成 分の混合比を算出し、
前記変換手段は、 算出された混合比に従って色成分を混合して、 入力された複 数枚の画像をモノクロ画像にそれぞれ変換することを特徴とする請求項 1記载の 画像処理装置。
3 . 画像入力手段と、
入力された画像内で使われている色を外部から指定する色指定手段と、 指定された色に基づいて、 色成分の混合比を算出する混合比算出手段と、 算出された混合比に従って色成分を混合して、 入力された画像をモノクロ画像 に変換する変換手段とを備えることを特徴とする画像処理装置。
4 . 画像入力手段と、
色成分の混合比を外部から指定する混合比指定手段と、
指定された混合比に従って色成分を混合して、 入力された画像をモノクロ画像 に変換する変換手段とを備えることを特徴とする画像処理装置。
5 . 入力された画像内で使われている色を分析する色分析ステップと、 分析された色に基づいて色成分の混合比を算出する混合比算出ステップと、 算出された混合比に従って色成分を混合して、 入力された画像をモノクロ画像 に変換する変換ステップとを備えることを特徴とする画像処理方法。
6 . 前記色分析ステップでは、 入力された画像の色相、 彩度および明度の分布 に基づいて色を分析することを特徴とする請求項 5記載の画像処理方法。
7 . 入力された複数枚の画像内で使われている色を分析する色分析ステップと、 分析された色に基づいて複数枚の画像に共通の色成分の混合比を算出する混合 比算出ステップと、
算出された混合比に従って色成分を混合して、 入力された複数枚の画像をモノ クロ画像にそれぞれ変換する変換ステップとを備えることを特徴とする画像処理 方法。
8 . 入力された画像内で使われている色を外部から指定する色指定ステップ 、 指定された色に基づいて色成分の混合比を算出する混合比算出ステップと、 算出された混合比に従って色成分を混合して、 入力された画像をモノクロ画像 に変換する変換ステップとを備えることを特徴とする画像処理方法。
9 . 前記混合比算出ステップでは、 入力された画像內で使われている色に対応 する色成分の混合比を予め格納した混合比テーブルに基づいて、 混合比を算出す ることを特徴とする請求項 5、 6および 8のいずれかに記載の画像処理方法。
10 . 前記混合比算出ステップでは、 入力された画像内で使われている色の補色 の色成分の割合に基づいて、 混合比を算出することを特徴とする請求項 5、 6お よび 8のいずれかに記載の画像処理方法。
11 . 前記混合比算出ステップでは、 入力された画像内で使われている色の補色 成分の割合と入力された画像内で使われている色の成分の割合とに基づいて、 混 合比を算出することを特徴とする請求項 5、 6および 8のいずれかに記載の画像 処理方法。
12. 入力された画像の色成分の混合比を外部から指定する混合比指定ステップ と、
指定された混合比に従って色成分を混合して、 入力された画像をモノクロ画像 に変換する変換ステップとを備えることを特徴とする画像処理方法。
13. 入力された画像内で使われている色を分析する色分析ステップと、 分析さ れた色に基づいて色成分の混合比を算出する混合比算出ステップと、 算出された 混合比に従って色成分を混合して、 入力された画像をモノクロ画像に変換する変 換ステップとを、 コンピュータに実行させるための画像処理プログラムを記録し た媒体。
14 . 入力された複数枚の画像内で使われている色を分析する色分析ステップと , 分析された色に基づいて複数枚の画像に共通の色成分の混合比を算出する混合比 算出ステップと、 算出された混合比に従って色成分を混合して、 入力された複数 枚の画像をモノクロ画像にそれぞれ変換する変換ステップとを、 コンピュータに 実行させるための画像処理プログラムを記録した媒体。
15 . 入力された画像内で使われている色を外部から指定する色指定ステップと - 指定された色に基づいて色成分の混合比を算出する混合比算出ステップと、 算出 された混合比に従って色成分を混合して、 入力された画像をモノクロ画像に変換 する変換ステップとを、 コンピュータに実行させるための画像処理プログラムを 記録した媒体。
16 . 入力された画像の色成分の混合比を外部から指定する混合比指定ステップ と、 指定された混合比に従って色成分を混合して、 入力された画像をモノクロ画 像に変換する変換ステップとを、 コンピュータに実行させるための画像処理プ口 グラムを記録した媒体。
17 . 画像入力手段と、
入力された画像から文字 ·線画領域を抽出する文字 ·線画領域抽出手段と、 入力された画像から擬似濃淡領域を抽出する擬似濃淡領域抽出手段と、 抽出された擬似濃淡領域および文字 ·線画領域と、 擬似漉淡 ·文字 ·線画以外 の領域とにおいて、 互いに異なる方法で画像を縮小する画像縮小手段と、
縮小された画像を出力する画像出力手段とを備えることを特徴とする画像処理
18 . 前記画像縮小手段は、 擬似濃淡領域に対しては平滑化処理を行い、 文字 - 線画領域に対しては平均化処理を行った後にエッジ強調化処理を行い、 擬似濃淡 文字 ·線画以外の領域に対しては平均化処理を行うことを特徴とする請求項 1 7 記載の画像処理装置。
19 . 前記文字 ·線画領域抽出手段は、 入力された画像から擬似濃淡領域を抽出 する前に、 文字 ·線画領域を抽出することを特徴とする請求項 1 7記載の画像処
20. 前記文字■線画領域抽出手段は、 入力された画像に平滑化処理を行った後 にエッジ抽出を行うことによって、 文字 ·線画領域を抽出することを特徴とする 請求項 1 9記載の画像処理装置。
21 . 前記擬似濃淡領域抽出手段は、 入力された画像の画素毎に周辺画素の分散 を求め、 分散の大きい画素のうち、 上記文字 ·線画領域抽出手段によって文字 - 線画領域として抽出されていない領域の画素を擬似濃淡領域として抽出すること を特徴とする請求項 1 7、 1 9および 2 0のいずれかに記載の画像処理装置。
22. 前記擬似濃淡領域抽出手段は、 入力された画像の画素毎に周辺画素の相関 を求め、 相関の低い画素のうち、 上記文字 '線画領域抽出手段によって文字 ·線 画領域として抽出されていない領域の画素を擬似濃淡領域として抽出することを 特徴とする請求項 1 7、 1 9および 2 0のいずれかに記載の画像処理装置。
23 . 前記擬似濃淡領域抽出手段は入力された画像のエッジ領域を検出し、 検出 されたエッジ領域のうち、 上記文字 ·線画領域抽出手段によって文字■線画領域 として抽出されていない領域を擬似濃淡領域として抽出することを特徴とする請 求項 1 7、 1 9および 2 0のいずれかに記載の画像処理装置。
24. 上記画像縮小手段は抽出された擬似濃淡領域のエッジ検出を行い、 濃度値 が所定値以上の領域に対して、 再度、 平滑化処理を行うことを特徴とする請求項 1 8記載の画像処理装置。
25 . 上記画像縮小手段は抽出された擬似濃淡領域のエッジ検出を行い、 濃度値 が所定値以上の領域に対しては、 縮小処理を停止することを特徴とする請求項 1 7記載の画像処理装置。
26 . 画像入力ステップと、
入力された画像から文字 ·線画領域を抽出する文字 ·線画領域抽出ステップと . 入力された画像から擬似濃淡領域を抽出する擬似濃淡領域抽出ステツプと、 抽出された擬似濃淡領域および文字 ·線画領域と、 擬似濃淡 ·文字 ·線画以外 の領域とにおいて、 互いに異なる方法で画像を縮小する画像縮小ステップと、 縮小された画像を出力する画像出力ステップとを備えることを特徴とする画像 処理方法。
27. 画像入力ステップと、 入力された画像から文字 ·線画領域を抽出する文字 線画領域抽出ステップと、 入力された画像から擬似濃淡領域を抽出する擬似濃淡 領域抽出ステップと、 抽出された擬似濃淡領域および文字 ·線画領域と擬似濃淡 文字 ·線画以外の領域とにおいて、 互いに異なる方法で画像を縮小する画像縮小 ステップと、 縮小された画像を出力する画像出力ステップとを、 コンピュータに 実行させるための画像処理プログラムを記録した媒体。
28. 原稿の表画像および裏画像を入力する画像入力手段と、
表画像および裏画像のいずれか一方を反転させる画像反転手段と、
画像反転手段によって反転された表画像と画像入力手段からの裏画像との位置 関係、 または画像反転手段によって反転された裏画像と画像入力手段からの表画 像との位置鬨係を検出する位置関係検出手段と、
位置関係検出手段の出力による表裏画像の位置関係から画像の裏写りを除去す るよう画像を補正する画像補正手段と、
画像を出力する画像出力手段とを備えることを特徴とする画像処理装置。
29. 前記位置鬨係検出手段は、 表裏画像の高輝度成分のみを抽出し、 画像の高 輝度成分でプロックマッチングを行うことによって、 表裏画像の位置鬨係を検出 することを特徴とする請求項 2 8記載の画像処理装置。
30. 画像入力手段と、
画像入力手段からの画像のエッジを検出するエッジ検出手段と、
ェッジ検出手段の出力による画像のェッジ以外の高輝度画素の輝度を上げるこ とによって、 画像の裏写りを除去するよう画像を補正する画像補正手段と、 画像を出力する画像出力手段とを備えることを特徴とする画像処理装置。
31 . 画像入力手段と、
画像入力手段からの画像のエッジを検出するエッジ検出手段と、
ェッジ検出手段の出力による画像のェッジと低輝度画素とによって画像を分割 する画像分割手段と、
画像分割手段によって分割された領域内の平均輝度を求め、 高輝度領域のみの 輝度を上げることによって、 画像の裏写りを除去するよう画像を補正する画像補 正手段と、
画像を出力する画像出力手段とを備えることを特徴とする画像処理装置。
32. 前記画像補正手段は、 高輝度領域内において輝度が所定の範囲にある画素 の中から代表輝度を求め、 代表輝度を基準にして前記領域内の画素の輝度を上げ ることを特徴とする請求項 3 1記載の画像処理装置。
33. 表画像および裏画像のいずれか一方を反転させる画像反転ステップと、 反転された表画像と裏画像との位置関係、 または反転された裏画像と表画像と の位置鬨係を検出する位置関係検出ステップと、
6 7
位置鬨係の検出結果によって、 画像の裏写りを除去するよう画像を補正する画 像補正ステップとを備えることを特徴とする画像処理方法。
34. 画像のエッジを検出する画像エッジ検出ステップと、
検出されたェッジ以外の高輝度画素の輝度を上げることによって、 画像の裏写 りを除去するよう画像を補正する画像補正ステップとを備えることを特徴とする 画像処理方法。
35 . 画像のエッジを検出する画像エッジ検出ステップと、
検出されたエッジと低輝度画素とによって画像を分割する画像分割ステップと、 分割された領域内の平均輝度を求め、 高輝度領域のみの輝度を上げることによ つて、 画像の裏写りを除去するよう画像を補正する画像補正ステ、ソプとを備える ことを特徴とする画像処理方法。
36. 表画像および裏画像のいずれか一方を反転させる画像反転ステップと、 反 転された表画像と裏画像との位置関係、 または反転された裏画像と表画像との位 置関係を検出する位置関係検出ステップと、 位置関係の検出結果によって、 画像 の裏写りを除去するよう画像を補正する画像補正ステップとを、 コンピュータに 実行させるための画像処理プログラムを記録した媒体。
37 . 画像のエッジを検出する画像エッジ検出ステップと、 検出されたエッジ以 外の高輝度画素の輝度を上げることによって、 画像の裏写りを除去するよう画像 を補正する画像補正ステップとを、 コンピュータに実行させるための画像処理ァ ログラムを記録した媒体。
38 . 画像のエッジを検出する画像エッジ検出ステップと、 検出されたエッジと 低輝度画素とによって画像を分割する画像分割ステツプと、 分割された領域内の 平均輝度を求め、 高輝度領域のみの輝度を上げることによって、 画像の裏写りを 除去するよう画像を補正する画像補正ステップとを、 コンピュータに実行させる ための画像処理プログラムを記録した媒体。
39 . ページ毎に画像を入力する画像入力手段と、
入力された画像の中から所定の画像を判定する画像判定手段と、
所定の画像であると判定された画像から位置合わせの基準となるテンプレート を求めるテンプレート取得手段と、
求められたテンプレートに基づいて画像間の位置を補正して、 連続するページ の画像間の位置合わせを行う画像補正手段とを備えることを特徵とする画像処理
40 . 書籍のページ毎に画像を入力する画像入力手段と、
入力された画像の中から所定の本文画像を判定する画像判定手段と、 所定の本文画像であると判定された画像から位置合わせの基準となるテンプレ ートを求めるテンプレート取得手段と、
求められたテンプレートに基づいて本文画像間の位置を補正して、 連続するべ ージの本文画像間の位置合わせを行う画像補正手段とを備えることを特徴とする 画像処理装置。
41 . ページ毎に入力された画像の中から所定の画像を判定する画像判定ステッ プと、
所定の画像であると判定された画像から位置合わせの基準となるテンプレート を求めるテンプレート取得ステップと、
求められたテンプレートに基づ て画像間の位置を補正して、 連続するページ の画像間の位置合わせを行う画像補正ステップとを備えることを特徴とする画像 処理方法。
42. 前記テンプレート取得ステップでは、 入力された画像を走査して得られた エッジ点の集合から求めた外接線から成る矩形の位置情報がテンプレートとして 求められることを特徴とする請求項 4 1記載の画像処理方法。
43. 前記画像判定ステップで、 入力された画像の中から所定の画像が判定され、 入力された画像の位置情報と前記テンプレートの位置情報とが所定範囲外であつ た場合に、 警告データを生成するステップをさらに含むことを特徴とする請求項 4 2記載の画像処理方法。
4 . 書籍のベージ毎に入力された画像の中から所定の本文画像を判定する画像 判定ステツプと、
所定の本文画像であると判定された画像から位置合わせの基準となるテンァレ ートを求めるテンプレート取得ステップと、
求められたテンプレートに基づいて本文画像間の位置を補正して、 連続するべ ージの本文画像間の位置合わせを行う画像補正ステップとを備えることを特徴と する画像処理方法。
45. ページ毎に入力された画像の中から所定の画像を判定する画像判定ステツ プと、 所定の画像であると判定された画像から位置合わせの基準となるテンプレ ートを求めるテンプレート取得ステップと、 求められたテンプレートに基づ て 画像間の位置を補正して、 連続するページの画像間の位置合わせを行う画像補正 ステップとを備えることを、 コンピュータに実行させるための画像処理プログラ ムを記録した媒体。
46. 書籍のページ毎に入力された画像の中から所定の本文画像を判定する画像 判定ステップと、 所定の本文画像であると判定された画像から位置合わせの基準 となるテンプレートを求めるテンプレート取得ステップと、 求められたテンプレ ートに基づいて本文画像間の位置を補正して、 連続するページの本文画像間の位 置合わせを行う画像補正ステップとを、 コンピュータに実行させるための画像処 理プログラムを記録した媒体。
PCT/JP1999/003200 1998-06-23 1999-06-16 Unite et procede de traitement d'images, et support sur lequel le programme de traitement des images est enregistre WO1999067943A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP99925332A EP1100257B1 (en) 1998-06-23 1999-06-16 Image processor, image processing method, and medium on which image processing program is recorded
US09/720,475 US7006708B1 (en) 1998-06-23 1999-06-16 Image processor, image processing method, and medium on which image processing program is recorded
US11/299,222 US7298927B2 (en) 1998-06-23 2005-12-08 Image processing apparatus, image processing method, and medium on which image processing program is recorded
US11/299,223 US7327879B2 (en) 1998-06-23 2005-12-08 Image processing apparatus, image processing method, and medium on which image processing program is recorded

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
JP10/175245 1998-06-23
JP10/175244 1998-06-23
JP17524498A JP3881454B2 (ja) 1998-06-23 1998-06-23 画像変換方法
JP17524598A JP3604909B2 (ja) 1998-06-23 1998-06-23 画像間位置合わせ方法
JP18346998A JP3604910B2 (ja) 1998-06-30 1998-06-30 画像縮小装置及び画像縮小プログラムを記録した記録媒体
JP10/183469 1998-06-30
JP10/187058 1998-07-02
JP18705898A JP3881455B2 (ja) 1998-07-02 1998-07-02 画像補正装置及び画像補正方法並びに画像補正方法を記録した媒体

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US11/299,222 Division US7298927B2 (en) 1998-06-23 2005-12-08 Image processing apparatus, image processing method, and medium on which image processing program is recorded
US11/299,223 Division US7327879B2 (en) 1998-06-23 2005-12-08 Image processing apparatus, image processing method, and medium on which image processing program is recorded

Publications (1)

Publication Number Publication Date
WO1999067943A1 true WO1999067943A1 (fr) 1999-12-29

Family

ID=27474624

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1999/003200 WO1999067943A1 (fr) 1998-06-23 1999-06-16 Unite et procede de traitement d'images, et support sur lequel le programme de traitement des images est enregistre

Country Status (5)

Country Link
US (4) US7006708B1 (ja)
EP (2) EP1100257B1 (ja)
KR (1) KR100607018B1 (ja)
CN (4) CN1290312C (ja)
WO (1) WO1999067943A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006052097A1 (en) * 2004-11-15 2006-05-18 Lg Electronics Inc. Apparatus for processing an image and for character recognition in a mobile communication terminal, and method thereof
US7729536B2 (en) * 2004-03-30 2010-06-01 Fujitsu Limited Boundary extracting method, program, and device using the same
US7777785B2 (en) 2005-12-09 2010-08-17 Casio Hitachi Mobile Communications Co., Ltd. Image pickup device, picked-up image processing method, and computer-readable recording medium for performing a correction process on a picked-up image

Families Citing this family (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5033277B2 (ja) * 2000-09-12 2012-09-26 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置および画像処理方法並びにコンピュータ読み取り可能な記録媒体
JP3878401B2 (ja) * 2000-09-14 2007-02-07 シャープ株式会社 画像処理装置、画像処理方法およびそれを記録した記録媒体
DE10138353A1 (de) * 2001-08-04 2002-02-28 Grundig Ag Verfahren und Vorrichtung bei einer pulsbreitengesteuerten Bildanzeigevorrichtung
US7190486B2 (en) * 2002-01-25 2007-03-13 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method
JP3918919B2 (ja) * 2002-03-15 2007-05-23 富士ゼロックス株式会社 画像形成装置およびその方法
JP3898075B2 (ja) * 2002-03-18 2007-03-28 株式会社リコー 画像処理装置、画像処理方法及び記録媒体
JP4253158B2 (ja) * 2002-03-29 2009-04-08 富士フイルム株式会社 画像処理装置、プログラム、画像処理方法、及び動画像の生産方法
JP3584246B2 (ja) * 2002-06-17 2004-11-04 キヤノン株式会社 眼科撮像装置
JP3754943B2 (ja) * 2002-08-19 2006-03-15 キヤノン株式会社 画像処理方法、装置、記憶媒体及びプログラム
JP2004129022A (ja) * 2002-10-04 2004-04-22 Pfu Ltd 画像読取装置
JP3698136B2 (ja) * 2002-11-13 2005-09-21 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置および画像処理プログラム
US7327504B2 (en) * 2002-12-06 2008-02-05 Eastman Kodak Company Method of detecting clipped image pixels
JP2004265264A (ja) * 2003-03-04 2004-09-24 Matsushita Electric Ind Co Ltd 画像処理装置
EP1460557A3 (en) 2003-03-12 2006-04-05 Eastman Kodak Company Manual and automatic alignement of pages
US7327496B2 (en) * 2003-04-11 2008-02-05 Hewlett-Packard Development Company, L.P. Imaging apparatus and method
US7701489B1 (en) 2003-05-27 2010-04-20 Apple Inc. Method and apparatus for color correction
JP4508553B2 (ja) 2003-06-02 2010-07-21 カシオ計算機株式会社 撮影画像投影装置、及び撮影画像の補正方法
US7369699B1 (en) 2003-08-29 2008-05-06 Apple Inc. Methods and apparatuses for restoring color and enhancing electronic images
JP2005310115A (ja) * 2004-03-25 2005-11-04 Fuji Photo Film Co Ltd 画像データ変換装置、画像データ変換プログラム、および画像出力システム
US7739577B2 (en) * 2004-06-03 2010-06-15 Inphase Technologies Data protection system
US8462384B2 (en) * 2004-09-29 2013-06-11 Apple Inc. Methods and apparatuses for aesthetically enhanced image conversion
US7742200B2 (en) * 2005-01-11 2010-06-22 Xerox Corporation Pre-press production image alert system and method
JP4360335B2 (ja) * 2005-03-15 2009-11-11 セイコーエプソン株式会社 カラー画像形成装置、カラー画像形成システム、カラー画像処理方法及びプログラム
KR101167243B1 (ko) * 2005-04-29 2012-07-23 삼성전자주식회사 효과적으로 히스토그램을 디스플레이하기 위한 디지털 영상처리 장치의 제어 방법, 및 이 방법을 사용한 디지털 영상처리 장치
US20090040377A1 (en) * 2005-07-27 2009-02-12 Pioneer Corporation Video processing apparatus and video processing method
JP4694306B2 (ja) * 2005-08-17 2011-06-08 Hoya株式会社 輪郭強調処理ユニット
US9792866B2 (en) * 2005-12-02 2017-10-17 Flextronics Computing Mauritus Ltd. Detecting and eliminating method for ghosting effect of LCD
JP4935204B2 (ja) * 2006-06-26 2012-05-23 セイコーエプソン株式会社 画像作成装置、画像作成方法および画像作成プログラム
KR101278238B1 (ko) * 2006-10-16 2013-06-24 삼성전자주식회사 디지털 영상 처리 장치에서 영상 편집 방법
US7769348B2 (en) * 2006-11-24 2010-08-03 Sony Ericsson Mobile Communications Ab Ad-hoc connectivity system and method
US7945075B2 (en) * 2006-12-19 2011-05-17 Seiko Epson Corporation Converting a digital image from color to gray-scale
US8284467B2 (en) * 2007-01-16 2012-10-09 Sharp Laboratories Of America, Inc. Intelligent toner saving for color copying
US7760399B2 (en) * 2007-03-13 2010-07-20 Xerox Corporation Method and system for encoding color images to black-and-white bitmaps and decoding color images
JP2008259017A (ja) * 2007-04-06 2008-10-23 Murata Mach Ltd 画像読み取り装置
JP5142836B2 (ja) * 2007-07-02 2013-02-13 オセ−テクノロジーズ ビーブイ 走査画像要素位置合わせ方法
JP4872860B2 (ja) * 2007-09-13 2012-02-08 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置及び画像処理方法
US8013858B2 (en) * 2007-09-20 2011-09-06 Spx Corporation Statistical waveform drawing routine
KR101428054B1 (ko) * 2007-12-13 2014-08-07 주식회사 엘지씨엔에스 매체이미지 검출장치 및 방법, 그리고 그를 이용한매체취급시스템
JP4502001B2 (ja) * 2007-12-20 2010-07-14 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置および画像処理方法
WO2009090901A1 (ja) * 2008-01-15 2009-07-23 Comap Incorporated モザイク画像生成装置、方法及びプログラム
JP5335305B2 (ja) * 2008-07-11 2013-11-06 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2010074342A (ja) * 2008-09-17 2010-04-02 Fuji Xerox Co Ltd 画像処理装置、画像形成装置、及びプログラム
CN101729733B (zh) * 2008-10-23 2011-08-03 华晶科技股份有限公司 以文字来呈现数字相片的影像处理方法及装置
JP4301526B1 (ja) * 2008-11-26 2009-07-22 株式会社オーエムアイ 画像生成装置、画像生成方法、及びプログラム
JP5182523B2 (ja) * 2009-03-04 2013-04-17 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
CN101599122B (zh) * 2009-07-02 2013-06-19 阿里巴巴集团控股有限公司 一种图像识别方法及装置
JP5121786B2 (ja) * 2009-07-10 2013-01-16 キヤノン株式会社 画像処理方法、画像処理装置およびプログラム
US8503733B2 (en) * 2009-11-16 2013-08-06 Xerox Corporation Show-through measurement system and method for inks on media
JP5761994B2 (ja) * 2010-12-14 2015-08-12 キヤノン株式会社 画像処理装置及び画像処理方法
JP2012216109A (ja) * 2011-04-01 2012-11-08 Sony Corp 画像処理装置と画像処理方法
JP2013030918A (ja) * 2011-07-27 2013-02-07 Sanyo Electric Co Ltd 画像処理装置
US9195861B2 (en) * 2011-11-16 2015-11-24 Georgia-Pacific Consumer Products Lp Methods and systems involving manufacturing sheet products by testing perforations
US8675986B2 (en) * 2011-12-01 2014-03-18 Hachette Book Group, Inc. Reducing moiré patterns
JP5865113B2 (ja) * 2012-02-20 2016-02-17 株式会社Pfu 画像処理装置、画像処理システム、画像処理方法及び画像処理プログラム
CN102789658B (zh) 2012-03-02 2015-02-18 成都三泰电子实业股份有限公司 紫外防伪支票真伪验证方法
GB2500431B8 (en) * 2012-03-22 2017-06-07 Sony Computer Entertainment Europe Ltd System and method of estimating page position
US9275467B2 (en) 2012-03-29 2016-03-01 Analog Devices, Inc. Incremental contour-extraction scheme for binary image segments
JP2014027403A (ja) * 2012-07-25 2014-02-06 Toshiba Corp 画像処理装置
US9413912B2 (en) * 2012-10-26 2016-08-09 Abbyy Development Llc Scanning device having a bed cover including a pattern of repeated design elements
US10102333B2 (en) 2013-01-21 2018-10-16 International Business Machines Corporation Feature selection for efficient epistasis modeling for phenotype prediction
CN104159018B (zh) * 2013-05-15 2017-09-01 宏碁股份有限公司 图像获取装置及其图像处理方法
CN103413340B (zh) * 2013-07-25 2015-11-18 长安大学 深度增强的图像线条画生成方法
KR102025184B1 (ko) * 2013-07-31 2019-09-25 엘지디스플레이 주식회사 데이터 변환 장치 및 이를 이용한 디스플레이 장치
JP6232945B2 (ja) * 2013-11-07 2017-11-22 株式会社リコー 画像処理装置
US9430848B1 (en) * 2014-09-02 2016-08-30 Google Inc. Monochromatic image determination
JP6213517B2 (ja) * 2015-04-21 2017-10-18 コニカミノルタ株式会社 画像処理装置及び画像処理方法
US10339410B1 (en) * 2016-01-13 2019-07-02 Snap Inc. Color extraction of a video stream
JP6503308B2 (ja) * 2016-02-18 2019-04-17 富士通フロンテック株式会社 画像処理装置及び画像処理方法
JP7141257B2 (ja) * 2018-06-20 2022-09-22 キヤノン株式会社 画像処理装置、その制御方法、及びプログラム
KR102510458B1 (ko) * 2018-09-12 2023-03-17 삼성디스플레이 주식회사 잔상 보상부 및 표시 장치의 구동 방법
JP7204402B2 (ja) 2018-09-28 2023-01-16 キヤノン株式会社 画像処理装置、その制御方法、及びプログラム
JP7378221B2 (ja) * 2019-04-17 2023-11-13 シャープ株式会社 画像処理装置、画像形成装置、画像読取装置、制御方法、コンピュータプログラム、および記録媒体
CN110288663B (zh) * 2019-06-28 2022-03-15 北京乐蜜科技有限责任公司 图像处理方法、装置、移动终端及存储介质

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61276077A (ja) * 1985-05-31 1986-12-06 Fujitsu Ltd 画像の位置合わせ方式
JPS62180688A (ja) * 1986-02-04 1987-08-07 Sony Corp スチル画像再生装置
JPS63244973A (ja) * 1987-03-30 1988-10-12 Toshiba Corp 画像読取装置
JPH0382269A (ja) * 1989-08-25 1991-04-08 Ricoh Co Ltd 画像処理装置
JPH0385061A (ja) * 1989-08-29 1991-04-10 Ricoh Co Ltd 文字領域分離方式
JPH05258035A (ja) * 1992-03-11 1993-10-08 Fujitsu Ltd 画像処理装置
EP0572325A1 (en) 1992-05-28 1993-12-01 Canon Kabushiki Kaisha Electrophotographic image forming apparatus with density regulating mechanism
JPH0662216A (ja) * 1992-08-10 1994-03-04 Sharp Corp 画像形成装置
JPH0818778A (ja) * 1994-04-28 1996-01-19 Ricoh Co Ltd 画像再生装置
JPH08251427A (ja) 1995-03-07 1996-09-27 Minolta Co Ltd 画像再現装置
JPH08265563A (ja) * 1995-03-28 1996-10-11 Canon Inc 画像読取装置
JPH09233319A (ja) * 1996-02-20 1997-09-05 Fuji Xerox Co Ltd 画像処理装置
JPH09312770A (ja) * 1996-05-22 1997-12-02 Ricoh Co Ltd 画像読取装置

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57178474A (en) 1981-04-25 1982-11-02 Konishiroku Photo Ind Co Ltd Color separating device
JPS6120791A (ja) * 1984-07-10 1986-01-29 Nec Corp プリンタ装置
JPS62180668A (ja) 1986-02-04 1987-08-07 Canon Inc 画像処理装置
US4984013A (en) * 1988-04-26 1991-01-08 Fuji Photo Film Co., Ltd. Method for controlling exposure amount in copying of color originals
US5289293A (en) * 1989-03-14 1994-02-22 Canon Kabushiki Kaisha Pixel density conversion and processing
JP2859296B2 (ja) * 1989-06-01 1999-02-17 キヤノン株式会社 画像再生方法及びその装置
US5191438A (en) * 1989-12-12 1993-03-02 Sharp Kabushiki Kaisha Facsimile device with skew correction and text line direction detection
JPH03229357A (ja) * 1990-02-02 1991-10-11 Brother Ind Ltd 文書処理装置のレイアウト表示制御装置
JPH0486750A (ja) * 1990-07-31 1992-03-19 Konica Corp カラー画像形成方法
US5204760A (en) * 1990-08-27 1993-04-20 Kabushiki Kaisha Toshiba System and method for converting continuous half tone image into pseudo half tone image
JPH04219882A (ja) 1990-12-20 1992-08-10 Matsushita Electric Ind Co Ltd 原稿読み取り装置およびそれを用いた文字認識装置
DE69223536T2 (de) * 1991-03-18 1998-04-16 Canon Kk Bildverarbeitungsgerät
JP2784278B2 (ja) 1991-06-13 1998-08-06 株式会社リコー 画像変倍処理装置
JP3112988B2 (ja) 1991-07-17 2000-11-27 株式会社リコー デジタル画像処理装置
US5452374A (en) * 1992-04-06 1995-09-19 Ricoh Corporation Skew detection and correction of a document image representation
JP3267681B2 (ja) 1992-06-26 2002-03-18 キヤノン株式会社 画像処理装置
DE69319979T2 (de) * 1992-09-08 1998-12-10 Fuji Photo Film Co Ltd Bildverarbeitungssystem und Verfahren zur originalgetreuen Wiedergabe der Farben von Objekten auf Negativfilm
DE4491655C2 (de) * 1993-03-17 2000-06-29 Ricoh Kk Bildaufzeichnungseinrichtung
JP3302147B2 (ja) * 1993-05-12 2002-07-15 株式会社リコー 文書画像処理方法
JP3325955B2 (ja) 1993-05-25 2002-09-17 コニカ株式会社 画像処理装置
JPH0715657A (ja) 1993-06-25 1995-01-17 Olympus Optical Co Ltd 画像スキャナシステム
JP3208947B2 (ja) 1993-09-10 2001-09-17 ミノルタ株式会社 複写装置
DE69433603D1 (de) 1993-10-26 2004-04-15 Canon Kk Bildverarbeitungsverfahren und -gerät
JP3054299B2 (ja) 1993-10-26 2000-06-19 キヤノン株式会社 画像処理装置及びその方法
JP3661797B2 (ja) 1994-03-18 2005-06-22 富士写真フイルム株式会社 放射線画像の位置合せ用対応点決定方法
JP2816095B2 (ja) * 1994-04-26 1998-10-27 三洋電機株式会社 ビデオカメラの信号処理回路
US5687006A (en) 1994-04-28 1997-11-11 Ricoh Company Ltd. Image regenerating apparatus having improved character resolution and pattern gradation
US6115148A (en) * 1994-06-02 2000-09-05 Canon Kabushiki Kaisha Image processing apparatus
US5506696A (en) * 1994-08-10 1996-04-09 Toyo Ink Manufacturing Co., Ltd. Color image reproduction system having color analysis function performed with a neural network system
US6013123A (en) * 1995-01-31 2000-01-11 The Rowland Institute For Science Inking methods and compositions for production of digitized stereoscopic polarizing images
JPH08340447A (ja) 1995-06-14 1996-12-24 Ricoh Co Ltd 裏写り除去機能付き画像処理装置
JP3725207B2 (ja) 1995-07-20 2005-12-07 日本電信電話株式会社 画像位置合わせ方法及びそれを用いる製品検査装置
US5666208A (en) 1996-01-11 1997-09-09 Xerox Corporation Printing system with electronic light table functionality
US5646744A (en) 1996-01-11 1997-07-08 Xerox Corporation Show-through correction for two-sided documents
JP3357776B2 (ja) 1996-01-17 2002-12-16 シャープ株式会社 画像処理方法
JPH09200455A (ja) * 1996-01-19 1997-07-31 Minolta Co Ltd 読取り画像の濃度補正方法及び画像読取り装置
JP3699519B2 (ja) 1996-02-02 2005-09-28 富士写真フイルム株式会社 画像処理装置
US5841148A (en) 1996-02-02 1998-11-24 Fuji Photo Film Co., Ltd. Image processing apparatus
JP3449860B2 (ja) * 1996-06-28 2003-09-22 大日本スクリーン製造株式会社 画像のシャープネス処理装置
US5710957A (en) * 1996-11-18 1998-01-20 Xerox Corporation Reproduction apparatus transmissivity sensor system for duplex documents
US5995719A (en) * 1997-03-25 1999-11-30 Barco Graphics Nv Method for proofing imposed documents
JPH10336466A (ja) 1997-05-29 1998-12-18 Toshiba Corp 画像形成装置および画像処理装置
US6025890A (en) * 1998-02-20 2000-02-15 Displaytech, Inc. Beam splitter element including a beam splitting layer and a polarizing layer for use in a light polarization modulating display system

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61276077A (ja) * 1985-05-31 1986-12-06 Fujitsu Ltd 画像の位置合わせ方式
JPS62180688A (ja) * 1986-02-04 1987-08-07 Sony Corp スチル画像再生装置
JPS63244973A (ja) * 1987-03-30 1988-10-12 Toshiba Corp 画像読取装置
JPH0382269A (ja) * 1989-08-25 1991-04-08 Ricoh Co Ltd 画像処理装置
JPH0385061A (ja) * 1989-08-29 1991-04-10 Ricoh Co Ltd 文字領域分離方式
JPH05258035A (ja) * 1992-03-11 1993-10-08 Fujitsu Ltd 画像処理装置
EP0572325A1 (en) 1992-05-28 1993-12-01 Canon Kabushiki Kaisha Electrophotographic image forming apparatus with density regulating mechanism
JPH05336386A (ja) * 1992-05-28 1993-12-17 Canon Inc 画像形成装置
JPH0662216A (ja) * 1992-08-10 1994-03-04 Sharp Corp 画像形成装置
JPH0818778A (ja) * 1994-04-28 1996-01-19 Ricoh Co Ltd 画像再生装置
JPH08251427A (ja) 1995-03-07 1996-09-27 Minolta Co Ltd 画像再現装置
JPH08265563A (ja) * 1995-03-28 1996-10-11 Canon Inc 画像読取装置
JPH09233319A (ja) * 1996-02-20 1997-09-05 Fuji Xerox Co Ltd 画像処理装置
JPH09312770A (ja) * 1996-05-22 1997-12-02 Ricoh Co Ltd 画像読取装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1100257A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7729536B2 (en) * 2004-03-30 2010-06-01 Fujitsu Limited Boundary extracting method, program, and device using the same
WO2006052097A1 (en) * 2004-11-15 2006-05-18 Lg Electronics Inc. Apparatus for processing an image and for character recognition in a mobile communication terminal, and method thereof
US7777785B2 (en) 2005-12-09 2010-08-17 Casio Hitachi Mobile Communications Co., Ltd. Image pickup device, picked-up image processing method, and computer-readable recording medium for performing a correction process on a picked-up image

Also Published As

Publication number Publication date
CN1512759A (zh) 2004-07-14
EP1838084A2 (en) 2007-09-26
US20060159338A1 (en) 2006-07-20
KR20010053109A (ko) 2001-06-25
CN1290311C (zh) 2006-12-13
CN1290312C (zh) 2006-12-13
CN1158854C (zh) 2004-07-21
EP1100257A1 (en) 2001-05-16
US7158688B2 (en) 2007-01-02
EP1100257A4 (en) 2005-02-09
US7006708B1 (en) 2006-02-28
KR100607018B1 (ko) 2006-08-01
CN1241390C (zh) 2006-02-08
CN1512760A (zh) 2004-07-14
CN1313004A (zh) 2001-09-12
US20060188148A1 (en) 2006-08-24
US20060088208A1 (en) 2006-04-27
EP1100257B1 (en) 2011-12-07
US7327879B2 (en) 2008-02-05
US7298927B2 (en) 2007-11-20
EP1838084A3 (en) 2007-12-26
CN1512761A (zh) 2004-07-14

Similar Documents

Publication Publication Date Title
WO1999067943A1 (fr) Unite et procede de traitement d&#39;images, et support sur lequel le programme de traitement des images est enregistre
JP4137890B2 (ja) 画像処理装置、画像形成装置、画像読取処理装置、画像処理方法、画像処理プログラムおよびコンピュータ読み取り可能な記録媒体
US7227990B2 (en) Color image processing device and color image processing method
US8345310B2 (en) Halftone frequency determination method and printing apparatus
JP2010231648A (ja) 画像処理装置、画像形成装置、画像処理方法、プログラムおよびその記録媒体
JP2006197037A (ja) 画像処理装置、画像形成装置、画像読取処理装置、画像処理方法、画像処理プログラムおよびコンピュータ読み取り可能な記録媒体
JP4771428B2 (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP4140519B2 (ja) 画像処理装置、プログラムおよび記録媒体
US8355165B2 (en) Image processing apparatus and control method for restoring color image data
JP3310744B2 (ja) 解像度変換装置
JP3100383B2 (ja) 文字領域分離方法および装置
JP2008092541A (ja) 画像処理方法、画像処理装置、画像形成装置、コンピュータプログラム及び記録媒体
JP3423665B2 (ja) 領域判別方法および装置
JP3137702B2 (ja) 画像処理装置
JP4005243B2 (ja) 画像処理装置
JP2951977B2 (ja) 画像処理装置
JP2004048130A (ja) 画像処理方法、画像処理装置、および画像処理プログラム
JP3877535B2 (ja) カラー画像処理方法、カラー画像処理装置、カラー画像処理プログラム、及び記録媒体
JP3143458B2 (ja) 画像処理装置
JPH0766976A (ja) 画像処理装置
JP2951976B2 (ja) 画像処理装置
JP3183788B2 (ja) 網点領域判定装置
Yi et al. Document image enhancement algorithm for digital color copier
JP2000353247A (ja) 白黒画像情報の領域判別方法および装置
JP2000115529A (ja) 画像再生装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 99809543.5

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CA CN ID KR SG US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1020007014604

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 1999925332

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 09720475

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1999925332

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020007014604

Country of ref document: KR

WWR Wipo information: refused in national office

Ref document number: 1020007014604

Country of ref document: KR