WO2012127552A1 - 画像処理装置、撮像装置及び画像処理方法 - Google Patents

画像処理装置、撮像装置及び画像処理方法 Download PDF

Info

Publication number
WO2012127552A1
WO2012127552A1 PCT/JP2011/007184 JP2011007184W WO2012127552A1 WO 2012127552 A1 WO2012127552 A1 WO 2012127552A1 JP 2011007184 W JP2011007184 W JP 2011007184W WO 2012127552 A1 WO2012127552 A1 WO 2012127552A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
flare
luminance
brightness
unnecessary light
Prior art date
Application number
PCT/JP2011/007184
Other languages
English (en)
French (fr)
Inventor
大山 一朗
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2012510473A priority Critical patent/JP4995359B1/ja
Priority to US13/519,162 priority patent/US8861888B2/en
Publication of WO2012127552A1 publication Critical patent/WO2012127552A1/ja

Links

Images

Classifications

    • G06T5/73
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration by non-spatial domain filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N25/615Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4" involving a transfer function modelling the optical system, e.g. optical transfer function [OTF], phase transfer function [PhTF] or modulation transfer function [MTF]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"

Definitions

  • the present invention relates to a technique for reducing unnecessary light components from a photographed image photographed through an optical system including a diffractive optical element by image processing.
  • Patent Document 1 As a conventional technique for reducing such unnecessary light by image processing, for example, in Patent Document 1, a convolution integration of PSF (Point Spread Function) of unnecessary order diffracted light (0th order light and second order light) of a diffractive lens and a photographed image is performed. Thus, unnecessary light is estimated from the image and subtracted from the original image to reduce unnecessary light.
  • PSF Point Spread Function
  • Patent Document 2 a plurality of images with different exposure times are taken, unnecessary light is estimated from an image with a short exposure time, and unnecessary light is reduced by subtracting the estimated unnecessary light from an image with a long exposure time. ing.
  • Unnecessary light due to arc-shaped flare light is different from unnecessary light due to unnecessary order diffracted light. Therefore, in the method of reducing unnecessary light using the PSF of unnecessary order diffracted light as in Patent Document 1, unnecessary light due to arc-shaped flare light cannot be reduced.
  • Patent Document 1 when unnecessary light is estimated by convolution integration of a PSF and a photographed image, if the brightness of the photographed image is saturated because the subject is bright, the brightness saturation unit causes an incorrect subject brightness ( Unnecessary light is estimated from (brightness). Therefore, it is difficult to estimate unnecessary light appropriately. As the brightness of the subject becomes brighter than the saturation level of the photographed image, the size of the estimated unnecessary light component becomes smaller than the actual size. That is, when the subject is bright and the brightness of the captured image is saturated, it is difficult to appropriately reduce unnecessary light.
  • Patent Document 2 since it is necessary to capture and calculate a plurality of images having different exposure times, not only the calculation cost increases but also it is difficult to estimate unnecessary light when capturing a moving image. There is.
  • An object of the present invention is to provide an image processing apparatus, an imaging apparatus, and an image processing method that can appropriately reduce unnecessary light components contained in the image processing.
  • an image processing apparatus is an image processing apparatus that reduces a component of unnecessary light from a photographed image photographed through an optical system including a diffractive optical element.
  • a flare image estimating unit that creates an estimated flare image that occurs in a peripheral portion of a bright subject in the captured image, and an unnecessary light subtracting unit that subtracts the estimated flare image from the captured image, and the flare image estimation
  • a luminance saturation position detection unit that detects a luminance saturation position that is an image position having a luminance value larger than a predetermined value in the captured image and creates a light source image; the light source image; and optical characteristic data of the optical system;
  • a flare model creation unit that creates a flare model image based on the image, and a flare position that is a predetermined image position in the vicinity of the brightness saturation position that is an image position in a substantially optical axis direction on the captured image from the brightness saturation position.
  • a flare position setting unit that is set as: and the gain adjustment of the brightness of the flare model image
  • the luminance of the flare model image is appropriately gain-adjusted by comparing the luminance value of the captured image with the luminance value of the flare model image at an image position where unnecessary light peculiar to the diffraction grating increases. Therefore, an estimated flare image can be created with high accuracy. By subtracting the estimated flare image created in this way from the captured image, even if the brightness of the captured image is saturated, the unnecessary light is appropriately reduced from the captured image obtained by one shooting. It becomes possible to do.
  • the present invention can be realized not only as an image processing apparatus including such a characteristic processing unit, but also as an image processing method using a characteristic processing unit included in the image processing apparatus as a step. .
  • the unnecessary light component included in the captured image is appropriately processed by image processing. Can be reduced.
  • FIG. 1 is a schematic diagram showing a configuration example of an optical system in an embodiment of the present invention.
  • FIG. 2A is a diagram showing a PSF of the optical system in the embodiment of the present invention.
  • FIG. 2B is a diagram showing a PSF of the optical system in the embodiment of the present invention.
  • FIG. 3A is a diagram showing a luminance transition of the PSF of the optical system according to the embodiment of the present invention.
  • FIG. 3B is a diagram showing a luminance transition of the PSF of the optical system according to the embodiment of the present invention.
  • FIG. 4 is a diagram showing a diffractive lens according to the embodiment of the present invention.
  • FIG. 5 is a diagram for explaining the flare light generation principle in the embodiment of the present invention.
  • FIG. 5 is a diagram for explaining the flare light generation principle in the embodiment of the present invention.
  • FIG. 6 is a diagram showing a subject in the embodiment of the present invention.
  • FIG. 7A is a diagram showing a captured image of a subject in the embodiment of the present invention.
  • FIG. 7B is a diagram showing a captured image of the subject in the embodiment of the present invention.
  • FIG. 8A is a diagram showing a luminance transition of a captured image of a subject in the embodiment of the present invention.
  • FIG. 8B is a diagram showing a luminance transition of the captured image of the subject in the embodiment of the present invention.
  • FIG. 9 is a block diagram illustrating a functional configuration of the imaging apparatus according to Embodiment 1 of the present invention.
  • FIG. 10 is a diagram showing a light source image in the first embodiment of the present invention.
  • FIG. 10 is a diagram showing a light source image in the first embodiment of the present invention.
  • FIG. 11A is a diagram showing an amplitude spectrum of light source frequency data according to Embodiment 1 of the present invention.
  • FIG. 11B is a diagram showing an amplitude spectrum of the OTF in Embodiment 1 of the present invention.
  • FIG. 11C is a diagram showing an amplitude spectrum of flare model frequency data according to Embodiment 1 of the present invention.
  • FIG. 12 is a diagram showing a flare model image according to Embodiment 1 of the present invention.
  • FIG. 13 is a diagram showing a flare model image according to Embodiment 1 of the present invention.
  • FIG. 14 is a diagram showing the PSF of the optical system according to Embodiment 1 of the present invention.
  • FIG. 15A is a diagram showing a first subject in Embodiment 1 of the present invention.
  • FIG. 15A is a diagram showing a first subject in Embodiment 1 of the present invention.
  • FIG. 15A is a diagram showing a first subject in Embodiment 1 of the present
  • FIG. 15B is a diagram showing a second subject in Embodiment 1 of the present invention.
  • FIG. 16A is a diagram showing a captured image of the first subject in Embodiment 1 of the present invention.
  • FIG. 16B is a diagram showing a captured image of the second subject in Embodiment 1 of the present invention.
  • FIG. 17A is a diagram showing a luminance transition of a captured image of the first subject in Embodiment 1 of the present invention.
  • FIG. 17B is a diagram showing a luminance transition of a captured image of the second subject in Embodiment 1 of the present invention.
  • FIG. 18A is a diagram showing an output image of the first subject in Embodiment 1 of the present invention.
  • FIG. 18B is a diagram showing an output image of the second subject in Embodiment 1 of the present invention.
  • FIG. 19A is a diagram showing a luminance transition of the output image of the first subject in Embodiment 1 of the present invention.
  • FIG. 19B is a diagram showing a luminance transition of the output image of the second subject in the first embodiment of the present invention.
  • FIG. 20A is a diagram showing a luminance transition of the estimated flare image of the first subject in Embodiment 1 of the present invention.
  • FIG. 20B is a diagram showing a luminance transition of the estimated flare image of the second subject in the first embodiment of the present invention.
  • FIG. 21 is a flowchart showing a process flow of the imaging apparatus according to Embodiment 1 of the present invention.
  • FIG. 22A is a diagram showing a captured image of the first subject in Embodiment 2 of the present invention.
  • FIG. 22B is a diagram showing a captured image of the second subject according to Embodiment 2 of the present invention.
  • FIG. 23A is a diagram showing a luminance transition of a captured image of the first subject in Embodiment 2 of the present invention.
  • FIG. 23B is a diagram showing a luminance transition of a captured image of the second subject in Embodiment 2 of the present invention.
  • FIG. 24 is a diagram showing the PSF of the optical system according to Embodiment 2 of the present invention.
  • FIG. 25A is a diagram showing an output image of the first subject in Embodiment 2 of the present invention.
  • FIG. 25A is a diagram showing an output image of the first subject in Embodiment 2 of the present invention.
  • FIG. 25B is a diagram showing an output image of the second subject in Embodiment 2 of the present invention.
  • FIG. 26A is a diagram showing a luminance transition of the output image of the first subject in Embodiment 2 of the present invention.
  • FIG. 26B is a diagram showing a luminance transition of the output image of the second subject in the second embodiment of the present invention.
  • FIG. 27A is a diagram showing a luminance transition of the estimated flare image of the first subject in Embodiment 2 of the present invention.
  • FIG. 27B is a diagram showing a luminance transition of the estimated flare image of the second subject in the second embodiment of the present invention.
  • FIG. 28 is a diagram showing a light source image after shrinking in the modification of the second embodiment of the present invention.
  • FIG. 29A is a diagram showing an output image in a modification of the second embodiment of the present invention.
  • FIG. 29B is a diagram showing a luminance transition of the output image in the modification of the second embodiment of the present invention.
  • FIG. 1 is a diagram schematically showing a configuration example of an optical system according to an embodiment of the present invention.
  • the optical system 200 includes a lens 201 having a negative power and a diffractive lens 202 having a positive power.
  • the diffractive lens 202 corresponds to a diffractive optical element, and includes a first member 203 and a second member 204 that are made of different materials.
  • One surface of the first member 203 is formed in an aspheric shape.
  • a diffraction grating 206 is formed in an annular shape around the optical axis 210.
  • the surface of the diffraction grating 206 is covered with an aspherical shape by the second member 204.
  • an image of the subject is formed on the image pickup surface 209 of the image pickup device 208.
  • the image of the subject formed on the imaging surface is captured by the image sensor 208 as a captured image.
  • the image sensor 208 is configured by a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like.
  • the diaphragm 211 is installed on the image plane side of the diffractive lens 202 and adjusts the light beam incident on the imaging surface 209 of the imaging element 208.
  • the grating thickness d of the diffraction grating 206 is obtained by (Equation 1).
  • n1 represents the refractive index of the first member 203
  • n2 represents the refractive index of the second member 204.
  • is a wavelength.
  • the optical system 200 is an optical system for imaging applications. Therefore, ⁇ takes a value in the visible wavelength range of about 400 nm to 700 nm.
  • M is the diffraction order.
  • m 1. That is, the grating thickness d of the diffraction grating 206 is designed so as to increase the diffraction efficiency of the first-order diffracted light.
  • the diffractive lens 202 can be obtained over the entire visible wavelength range. It is known that a high first-order diffraction efficiency can be obtained with (see, for example, Japanese Patent No. 4077508).
  • the first member 203 and the second member 204 are used so that n1 and n2 have such a combination.
  • FIG. 2A shows a PSF near the angle of view of 45 degrees of the optical system 200 of FIG.
  • FIG. 2B shows a PSF obtained by adjusting the brightness of the PSF in FIG. 2A so that the distribution of unnecessary light components in the PSF can be easily seen.
  • the left direction of the image center is the optical axis direction. That is, there is an image position corresponding to the position where the optical axis and the imaging surface intersect in the left direction of the image.
  • PSF is a function representing the response of the optical system to a point light source, and can be represented as an image.
  • FIG. 3A shows the luminance transition in the horizontal direction of the image around the luminance maximum position of the PSF in FIG. 2A.
  • the vertical axis represents luminance
  • the horizontal axis represents image position.
  • FIG. 3B shows a luminance transition when the vertical scale of FIG. 3A is enlarged.
  • arc-shaped unnecessary light having a high luminance is generated in a captured image taken using an optical system including a diffraction grating.
  • the unnecessary light is unnecessary light that appears in an image.
  • unnecessary light is light that is not originally desired to appear in an image. This unnecessary light degrades the image quality.
  • this unnecessary light has higher luminance than unnecessary order diffracted light other than the designed order, such as 0th order and 2nd order diffracted light, and is generated due to the influence of each annular zone pitch of the diffraction grating.
  • unnecessary order diffracted light other than the designed order such as 0th order and 2nd order diffracted light
  • FIGS. 2A to 3B large arc-shaped unnecessary light is generated on the optical axis side of a bright subject image, particularly at an image position other than the optical axis and at a finite field angle. It was confirmed from the experiment.
  • the grating thickness d of the diffraction grating is large, as shown in FIG. 3B, large unnecessary light is generated on the optical axis side from the position of the maximum luminance of the PSF.
  • This large unnecessary light is generated at a position closer to the optical axis than the position of the subject image when the luminance at the position of the subject image in the captured image obtained by photographing a bright subject is saturated.
  • the large unnecessary light generated in this way adversely affects the captured image.
  • FIG. 4 is a schematic diagram when the annular zone of the diffraction grating formed on the diffraction lens 202 is viewed from the object side. As shown in FIG. 4, in the diffractive lens provided with the diffraction grating 301, each of the diffraction ring zones 302 is sandwiched between step surfaces arranged concentrically.
  • the light transmitted through each of the two adjacent diffracting annular zones 302 can be regarded as the light transmitted through the slit having the width of the diffracting annular zone 302 (annular pitch P).
  • the diffractive lens can satisfactorily correct aberrations.
  • the width of the diffractive annular zone 302 is reduced, the light transmitted through the diffractive lens can be regarded as light passing through a very narrow slit arranged concentrically. In such a case, a wraparound phenomenon of the wavefront of light can be seen in the vicinity of the step surface.
  • FIG. 5 schematically shows how light is diffracted by the diffraction grating 301.
  • light transmitted through a slit having a very narrow width P forms diffraction fringes at an observation point at infinity. This is called Fraunhofer diffraction.
  • This diffraction phenomenon also occurs at a finite distance (eg, focal plane) by including a lens system having a positive focal length.
  • the inventor of the present application When the width of the diffraction zone 302 is reduced, the inventor of the present application generates striped flare light 305 that spreads concentrically as shown in FIG. 5 because the light transmitted through each zone interferes with each other.
  • an arc-shaped flare light as shown in FIG. 2A or FIG. 2B may be generated by light incident obliquely with respect to the optical axis and passing through only a part of the diffraction ring zone, Confirmed by image evaluation.
  • Fig. 6 shows a light source that is simulated by assuming a fluorescent lamp.
  • 7A and 7B show an example of a photographed image obtained by photographing a light source through an optical system including a diffractive optical element.
  • the photographed images in FIGS. 7A and 7B are images obtained by photographing a rectangular light source having uniform luminance shown in FIG. 6 with the optical system in FIG.
  • the captured images in FIGS. 7A and 7B are images of fluorescent lamps that are captured in the vicinity of an angle of view of 45 degrees.
  • 7A and 7B are images obtained by simulating an actual captured image by convolution integration of the PSF of FIG. 2A and the subject image of FIG.
  • FIG. 7A is a diagram illustrating a captured image created so that the maximum luminance of the light source image is 0.7 when the luminance saturation level of the captured image is 1.0.
  • FIG. 7B is a diagram illustrating a captured image created so that the maximum luminance of the light source image is 3.0 when the luminance saturation level of the captured image is 1.0.
  • the luminance of the captured image is saturated at an image position where the luminance exceeds 1.0 on the imaging surface 209.
  • 8A and 8B show the luminance transition in the horizontal direction of the image near the center of the captured images of FIGS. 7A and 7B.
  • the vertical axis represents the luminance
  • the horizontal axis represents the image position.
  • unnecessary light such as a double image increases at the image position in the optical axis direction (left direction of the image) of the light source image. It can be seen that unnecessary light that is not noticeable in FIG. 7A has a luminance that can be visually recognized in FIG. The unnecessary light such as this double image corresponds to the arc flare found in the PSF of FIG.
  • the image processing apparatus has a configuration in which luminance is saturated in a captured image captured through an optical system including a diffractive optical element, as illustrated in FIGS. 7B and 8B.
  • An object is to reduce unnecessary light components.
  • the image processing apparatus takes advantage of the feature that large unnecessary light is generated on the optical axis side of the light source image, which is a feature of the arc flare found by the present inventor. Reduce unwanted light components from the image.
  • the position of occurrence of arc flare that becomes unnecessary light with high luminance is set in the captured image, and unnecessary light is estimated and reduced using the luminance at that position, so that unnecessary light is removed from the captured image.
  • the arc-shaped flare becomes unnecessary light having a large brightness of about 5 to 10 times that of unnecessary order diffracted light depending on the optical structure and image position.
  • the present invention it is possible to appropriately reduce unnecessary light as compared with an image processing method that removes only unnecessary-order diffracted light.
  • the ratio of the magnitude of the arc flare to the magnitude of noise brightness such as white noise in the captured image is larger than the ratio of the unwanted order diffracted light to the noise brightness.
  • the ratio becomes about 5 times or 10 times that in the case of unnecessary order diffracted light. Therefore, when unnecessary light is estimated using the luminance at a specific position, it is highly accurate with less influence of noise luminance compared to the conventional image processing method that estimates only unnecessary order diffracted light and removes unnecessary light. Therefore, the unnecessary light component included in the captured image can be appropriately reduced.
  • the image processing apparatus estimates unnecessary light limited to the luminance at a specific position in the image, and thus can estimate unnecessary light with a small amount of calculation.
  • FIG. 9 is a block diagram showing a functional configuration of the imaging apparatus according to Embodiment 1 of the present invention.
  • the imaging device in the present embodiment includes an imaging unit 1 and an image processing device 2.
  • the imaging unit 1 creates a captured image Ir (x, y) by taking a subject image into an imaging element such as a CCD or CMOS via an optical system including a diffractive optical element.
  • x and y represent vertical and horizontal positions in the image.
  • the image processing apparatus 2 reduces unnecessary light components from a photographed image photographed through an optical system including a diffractive optical element.
  • the unnecessary light component indicates the luminance of an image (unnecessary light image) formed by unnecessary light.
  • the image processing apparatus 2 includes a flare image estimation unit 5 and an unnecessary light subtraction unit 6.
  • the flare image estimation unit 5 creates an estimated flare image If (x, y) by estimating the distribution of unnecessary light included in the captured image Ir.
  • the unnecessary light subtracting unit 6 outputs the output image Io (x, y) in which the unnecessary light component is reduced by subtracting the estimated flare image If from the captured image Ir.
  • the flare image estimation unit 5 includes a luminance saturation position detection unit 10, a flare model creation unit 11, a flare position setting unit 12, and a flare model luminance adjustment unit 13.
  • the luminance saturation position detection unit 10 detects an image position having a luminance value larger than a predetermined value Isa in the captured image Ir as a luminance saturation position.
  • the predetermined value Isa may be set to 0.98, for example, when the luminance level is expressed as 0 for black and 1.0 for white. That is, the predetermined value Isa is set to a value that determines that the subject is too bright and the luminance level of the captured image Ir is substantially saturated.
  • the luminance saturation position detection unit 10 creates a light source image indicating the luminance saturation position detected in this way. Specifically, the luminance saturation position detection unit 10 sets, for example, the luminance value at the luminance saturation position as the upper limit value of the luminance and sets the luminance value at the image position other than the luminance saturation position as the lower limit value of the luminance. Create a light source image.
  • FIG. 10 shows the luminance saturation position detected by the luminance saturation position detection unit 10 in the captured image Ir shown in FIG. 7B.
  • the luminance value at the image position where the luminance is saturated is expressed as 1.0, and the luminance values at the other image positions are expressed as 0.
  • the light source image in FIG. 10 is an image near an angle of view of 45 degrees, as in FIG. 7B.
  • the left direction from the image center is the optical axis direction.
  • the estimated flare image If is created using the light source image Is (x, y), which is an image indicating the luminance saturation position of FIG. 10 detected by the luminance saturation position detection unit 10.
  • the luminance saturation position is a portion where the subject appears bright. Therefore, even if the luminance saturation position is assumed to be the light source, the validity is not lost even if it is used for the calculation for creating the estimated flare image.
  • the flare model creation unit 11 creates a flare model image based on the light source image and the optical characteristic data of the optical system.
  • the flare model creation unit 11 includes a Fourier transform unit 15, an OTF creation unit 16, an integration unit 17, and an inverse Fourier transform unit 18.
  • the Fourier transform unit 15 performs Fourier transform on the light source image Is by FFT (Fast Fourier Transform) or the like, and outputs light source frequency data Fs (u, v) that is complex number data.
  • u and v represent vertical and horizontal storage addresses of each complex data, and each storage address corresponds to a different frequency.
  • FIG. 11A shows an amplitude spectrum of the light source frequency data Fs obtained by Fourier transforming the light source image Is of FIG.
  • the OTF creation unit 16 prepares OTF (Optical Transfer Function) data Fo (u, v) obtained by Fourier transforming PSF according to the image position of the light source image Is.
  • the OTF data may be created by extracting and rotating PSF stored in advance for each image height in accordance with the image position of the light source image Is, and performing Fourier transform.
  • the OTF data may be stored in advance in the memory for each image position.
  • FIG. 11B shows an amplitude spectrum of the OTF data Fo obtained by Fourier transforming the PSF of FIG. 2A.
  • the integrating unit 17 integrates the complex numbers of the frequency elements of the light source frequency data Fs and the OTF data Fo to create flare model frequency data Ffm (u, v). That is, the integrating unit 17 creates the flare model frequency data Ffm (u, v) by calculating the product of the light source frequency data Fs and the OTF data Fo for each frequency.
  • FIG. 11C shows the amplitude spectrum of the flare model frequency data Ffm.
  • the flare model frequency data Ffm of FIG. 11C Due to the blur caused by the optical system expressed by PSF, the flare model frequency data Ffm of FIG. 11C has a reduced amplitude in the high frequency region compared to the light source frequency data Fs of FIG. 11A.
  • the brightness of the amplitude spectrum is adjusted by applying the same gain to the actual value for easy viewing.
  • the inverse Fourier transform unit 18 performs inverse Fourier transform on the flare model frequency data Ffm to create a flare model image Ifm ′ (x, y).
  • FIG. 12 shows the flare model image Ifm '. Further, the inverse Fourier transform unit 18 creates the flare model image Ifm by changing the brightness of the brightness saturation position (light source) of the captured image Ir to 0 in the flare model image Ifm ′.
  • the flare model image Ifm corresponds to an image in which only unnecessary light components are left in the flare model image Ifm ′.
  • FIG. 13 shows the flare model image Ifm.
  • the flare model creation unit 11 estimates the flare model image Ifm including the unnecessary light component caused by the diffraction grating.
  • the luminance saturation portion (light source) of the captured image Ir is saturated, the actual luminance of the luminance saturation portion is not known. Therefore, the absolute value of the luminance value of the unnecessary light component is unknown. Therefore, the flare model creation unit 11 creates the flare model image Ifm by estimating the relative luminance distribution of the unnecessary light component.
  • the flare model creation unit 11 performs an operation by appropriately adjusting the image size, for example, by enlarging the image size of the light source image Is by adding an image area with 0 brightness to the peripheral part.
  • the flare model creation unit 11 may perform a calculation equivalent to the above-described calculation on the frequency domain by a convolution integral calculation on the spatial domain. That is, the flare model creation unit 11 may create the flare model image Ifm ′ by performing a convolution integral operation on the light source image Is and the PSF. In this case, the flare model creation unit 11 does not need to include the Fourier transform unit 15, the OTF creation unit 16, the integration unit 17, and the inverse Fourier transform unit 18. In the present embodiment, the flare model creation unit 11 performs calculations on the frequency domain from the viewpoint of the superiority of calculation time.
  • the flare position setting unit 12 locally generates large unnecessary light on the optical axis side of the light source position when an image is captured using an optical system including a diffraction grating.
  • a flare position (xf, yf) that is known in advance to increase unnecessary light is set using the luminance saturation position detected by the luminance saturation position detection unit 10. That is, the flare position setting unit 12 sets a predetermined image position in the approximate optical axis direction on the captured image from the luminance saturation position and in the vicinity of the luminance saturation position as the flare position.
  • the flare position is an image position corresponding to a position that is predetermined as a position where there is a lot of unnecessary light in the PSF that is an example of the optical characteristic data of the optical system.
  • the flare position is an image position that is separated from the luminance saturation position in a substantially optical axis direction on the photographed image by a distance specified by a position determined in advance as a position where there is a lot of unnecessary light in the PSF.
  • the position predetermined as the position where there is much unnecessary light in the PSF is, for example, the peak position of the luminance value of unnecessary light in the vicinity of the position with the highest luminance.
  • FIG. 14 shows a PSF in the vicinity of a field angle of 45 degrees of the optical system according to the first embodiment of the present invention.
  • the luminance is adjusted to make the luminance distribution easy to see (the same PSF as in FIG. 2B).
  • the number of pixels in the vertical direction and the horizontal direction is 256 pixels, respectively.
  • FIGS. 15A and 15B show a subject photographed through an optical system having this PSF as optical characteristic data.
  • FIG. 15A shows the first subject
  • FIG. 15B shows the second subject.
  • the first subject is a subject that is schematically created assuming a rectangular light source (for example, a fluorescent lamp).
  • the second subject is a subject that is schematically created assuming a circular light source.
  • the subject in FIG. 15A is the same as the subject in FIG.
  • FIGS. 16A and 16B show the captured images Ir of the subjects in FIGS. 15A and 15B. In the captured images of FIGS. 16A and 16B, it is assumed that the PSF does not fluctuate greatly in the entire region.
  • the captured images in FIGS. 16A and 16B are images that are simulated by performing convolution integration between the PSF in FIG. 2A and the subjects in FIGS. 15A and 15B. Since the subject is bright, the brightness is saturated at the image position where the subject is shown. Further, a large amount of unnecessary light is generated on the optical axis side (leftward from the image center) of the image position where the luminance is saturated.
  • FIGS. 17A and 17B show changes in luminance in the horizontal direction in the vicinity of the image center of each captured image Ir in FIGS. 16A and 16B. 17A and 17B, in any subject, a large amount of unnecessary light is generated at a position that is about 16 pixels away from the saturated image position in the optical axis direction (the position of the arrow in FIGS. 17A and 17B).
  • the peak position of the luminance value of unnecessary light tends to approach the image position where the luminance is saturated as the width of the light source in the captured image increases.
  • the captured image may be slightly deviated from the peak position of the unnecessary light. A large amount of unnecessary light is generated in the captured image.
  • the flare position setting unit 12 sets the image position of the flare distance Df in the optical axis direction from the luminance saturation position, which is a position where it is known that large unnecessary light is generated in advance, as the flare position (xf, yf). That is, the flare position setting unit 12 sets a position that is a predetermined distance (flare distance Df) in the substantially optical axis direction on the captured image from the luminance saturation position as the flare position.
  • the flare distance Df is preset to 16 pixels, which is the distance from the light source position in the PSF to the peak position of the luminance value of unnecessary light.
  • the flare distance Df is a peak position of the luminance value of the unnecessary light from the light source position in the PSF in consideration that the peak position of the unnecessary light approaches the image position of the light source as the subject having the larger light source width as described above. It may be set slightly smaller than the distance up to (for example, 13 pixels). In that case, the peak position of unnecessary light may be obtained by trial and error from experiments or simulations using an assumed subject.
  • the flare model luminance adjustment unit 13 is configured to determine the flare model image based on the relationship between the luminance Ir (xf, yf) of the captured image and the luminance Ifm (xf, yf) of the flare model image at the flare position (xf, yf).
  • the estimated flare image If (x, y) is created by adjusting the luminance value of Ifm.
  • the flare model brightness adjusting unit 13 sets the brightness of the estimated flare image If at the flare position (xf, yf) to the brightness Ir (xf, yf) of the captured image at the flare position (xf, yf).
  • the flare model image Ifm is gain-adjusted so as to be Nf times (Nf ⁇ 1), and an estimated flare image If is created. More specifically, the flare model creation unit 11 creates the estimated flare image If using, for example, Expression (2).
  • the relationship between the luminance value of the captured image at the flare position and the luminance value of the flare model image at the flare position corresponds to the ratio between the luminance value of the captured image and the luminance value of the flare model image.
  • the flare model luminance adjustment unit 13 performs gain adjustment of the luminance of the flare model image using the ratio between the luminance value of the captured image at the flare position and the luminance value of the flare model image at the flare position.
  • the unnecessary light subtracting unit 6 subtracts the estimated flare image If thus obtained from the captured image Ir, thereby obtaining an output image Io in which unnecessary light components are reduced.
  • FIG. 18A shows an output image Io in which a component of unnecessary light is reduced from a photographed image obtained by photographing the first subject.
  • FIG. 18B shows an output image Io in which the unnecessary light component is reduced from the captured image obtained by capturing the second subject.
  • Nf 0.8 is set.
  • 19A and 19B show the luminance transition in the horizontal direction of the image near the center of the output image Io shown in FIG. 18A or 18B.
  • the solid line indicates the luminance transition of the output image Io
  • the dotted line indicates the luminance transition of the captured image Ir.
  • the first subject and the second subject have different widths. However, in any subject, unnecessary light is greatly reduced.
  • 20A and 20B show the luminance transition of the estimated flare image If.
  • the solid line indicates the luminance transition of the estimated flare image If, and the dotted line indicates the luminance transition of the captured image Ir.
  • Nf 0.8
  • the luminance If (xf, yf) of the estimated flare image at the flare position indicated by the arrow is 0.8 times the luminance Ir (xf, yf) of the captured image. .
  • the actual luminance distribution of unnecessary light included in the captured image Ir and the luminance distribution of the estimated flare image If are slightly different from the actual light source shape and the shape of the saturated luminance position assumed as the light source in the present embodiment. Because they are different, they do not match exactly. Therefore, if Nf is 1.0, the actual luminance distribution of unnecessary light and the luminance distribution of the estimated flare image are different from each other, so that an area for correcting unnecessary unnecessary light is generated. Therefore, it is desirable that Nf satisfy Nf ⁇ 1.0.
  • Nf is set to about 0.2 to 0.8 in consideration of the risk of overcorrection. It is preferable to keep it. That is, the flare model brightness adjusting unit 13 adjusts the flare model image so that the brightness value of the estimated flare image at the flare position is in the range of 0.2 to 0.8 times the brightness value of the captured image at the flare position. It is preferable to adjust the gain of the luminance. As Nf becomes smaller, the effect of reducing unnecessary light becomes smaller. However, if it is within the above-mentioned setting range, unnecessary light is greatly reduced as compared with a captured image.
  • the luminance value of the captured image and the luminance value of the flare model image are compared at the image position where unnecessary light peculiar to the diffraction grating increases.
  • the luminance of the flare model image can be appropriately gain adjusted, so that an estimated flare image can be created with high accuracy.
  • Arc-shaped large unnecessary light depends on the optical characteristics of the optical system including the diffractive optical element, but if the optical characteristics of the optical system do not change, even if the subject changes, the image position showing high brightness in the captured image The distance to the image position where unnecessary light is generated does not change significantly. Therefore, the brightness of the captured image is saturated by gain adjustment of the brightness of the flare model image based on the brightness value of the flare position that is the image position corresponding to the position where the large unnecessary light is generated in the PSF of the optical system. Even in such a case, an image of unnecessary light can be estimated with high accuracy.
  • the image processing apparatus 2 is, for example, an image. Is divided into square blocks, and the image processing described above may be performed for each block.
  • the block size at this time can be calculated at high speed if, for example, the number of pixels in the vertical and horizontal directions is set to a factorial of 2 such as 64 pixels so that high-speed FFT calculation can be applied.
  • the flare image estimation unit 5 may obtain the estimated flare image If for each block, and the unnecessary light subtraction unit 6 may finally perform unnecessary light subtraction processing collectively for the entire image.
  • the image processing apparatus 2 assumes that the PSF does not fluctuate greatly within each block, and can perform image processing calculations at high speed if the OTF data Fo is prepared for each block and stored in the memory. It becomes possible. Furthermore, the luminance saturation position detection unit 10 does not need to reduce unnecessary light in the block where the luminance saturation position does not exist. Therefore, if unnecessary calculation is not performed, the calculation of image processing is performed at higher speed. Can be done.
  • the flare distance Df used when setting the flare position (xf, yf) is set for each block corresponding to the arc flare of the PSF of the block.
  • the flare distance Df may be set in advance for each block or each image position in advance at the time of shipment of the imaging apparatus from the factory, or may be obtained by detecting the position of the arc flare from the PSF each time shooting is performed.
  • FIG. 21 shows an example of a flowchart showing the operation of the imaging apparatus according to Embodiment 1 of the present invention. Specifically, FIG. 21 is a flowchart showing a flow of processing for creating an estimated flare image for each block.
  • imaging step S101 the imaging unit 1 creates a captured image Ir.
  • unnecessary light reduction step S102 the image processing apparatus 2 outputs an output image Io in which unnecessary light is reduced from the captured image Ir.
  • the image processing apparatus 2 performs block division on the captured image Ir in a range where the PSF does not change significantly, such as a square block having 64 pixels in the vertical and horizontal directions. To do.
  • the flare image estimation unit 5 creates an estimated flare image If for each block.
  • the luminance saturation position detection unit 10 detects the image position where the luminance is saturated for one block in the captured image Ir, and creates the light source image Is.
  • the flare model creation unit 11 creates a flare model.
  • the Fourier transform unit 15 performs the Fourier transform on the light source image Is to create the light source frequency data Fs.
  • the OTF creation unit 16 creates the OTF data Fo.
  • the integration unit 17 generates the flare model frequency data Ffm by integrating the light source frequency data Fs and the OTF data Fo.
  • the inverse Fourier transform unit 18 performs inverse Fourier transform on the flare model frequency data Ffm to create a flare model image Ifm.
  • the flare position setting unit 12 sets the flare position (xf, yf).
  • the flare model brightness adjustment unit 13 creates an estimated flare image If based on Expression (2). Note that the flare position setting step S112 may be performed before the flare model creation step S111. Also, the flare model creation step S111 and the flare position setting step S112 may be processed in parallel.
  • the flare image estimation unit 5 stores the created estimated flare image If in the memory or the like as the estimated flare image of the block that has been calculated. Note that if there is no luminance saturation position in the block in the luminance saturation position detection step S110, the image processing apparatus 2 omits the processing of the steps from step S110 to step S114, and in the block.
  • the flare model image Ifm may have been created (the unnecessary light component is 0), and the process may proceed to step S120.
  • step S120 when it is determined that there is a block that has not yet been subjected to the process of creating the estimated flare image If, in calculation block movement step S121, the image processing apparatus 2 moves the block position, and moves the block after the movement. An estimated flare image If is created. If it is determined in step S120 that the process of creating the estimated flare image If in all blocks has been completed, in the unnecessary light subtraction step S106, the unnecessary light subtracting unit 6 converts the estimated flare image If of all blocks into the captured image. Subtract from Ir to create an output image Io.
  • the inverse Fourier transform unit 18 changes the luminance saturation position (light source) of the captured image Ir to 0 in the flare model image Ifm ′, so that only the unnecessary light component is left in the flare model image.
  • a flare model image Ifm is created.
  • the inverse Fourier transform unit 18 does not necessarily need to set the luminance at the luminance saturation position (light source) of the captured image Ir in the flare model image Ifm ′ to zero. This process means that the luminance saturation position of the captured image Ir is not subtracted with unnecessary light.
  • the inverse Fourier transform unit 18 does not change the luminance saturation position (light source) of the captured image Ir in the flare model image Ifm ′ to 0, and the unnecessary light subtracting unit 6 does not change the luminance saturated position of the captured image Ir.
  • the estimated flare image If may not be subtracted.
  • Ifm Ifm ′. That is, the image processing apparatus 2 may be configured such that unnecessary light is not subtracted as a result at the luminance saturation position of the captured image Ir.
  • the inverse Fourier transform unit 18 changes the luminance saturation position of the captured image Ir to 0 in the flare model image Ifm ′ so that unnecessary light is not subtracted at the luminance saturation position. Furthermore, the unnecessary light may not be subtracted for the width of several pixels in the peripheral region of the luminance saturation position of the captured image Ir. That is, the unnecessary light subtracting unit 6 may not subtract the estimated flare image from the captured image at an image position having a predetermined pixel width adjacent to the luminance saturation position. That is, the unnecessary light subtracting unit 6 may subtract the estimated flare image from the photographed image only at an image position away from the luminance saturation position by a predetermined number of pixels in the photographed image.
  • the luminance saturation position of the captured image Ir is assumed to be the light source, but the actual light source shape may be smaller than the assumed light source shape.
  • the brightness of the estimated flare image If becomes larger than the actual brightness at the periphery of the brightness saturation position, and unnecessary light may be excessively reduced.
  • the image processing apparatus 2 avoids overcorrection of unnecessary light by not subtracting unnecessary light even for the width of several pixels around the luminance saturation position of the captured image Ir (for example, 1 to 3 pixels). A natural output image can be obtained. In the present embodiment, unnecessary light is not subtracted for the width of two pixels around the entire luminance saturation position.
  • the luminance saturation position detection unit 10 uses the light source shape estimated from the luminance saturation position.
  • a light source image having a reduced outer shape by shrinking the periphery of the light source may be created as a new light source image Is. Details will be described in the second embodiment, and are omitted here.
  • the method of reducing unnecessary light in a black and white image has been described. Needless to say, the method of reducing unnecessary light described above can also be applied to a color image.
  • the image processing apparatus 2 creates an estimated flare image If for any of the colors R (red), G (green), and B (blue), and calculates it separately.
  • the gain of the estimated flare image If may be adjusted for each color in accordance with the ratio of unnecessary light for each of R, G, and B colors.
  • the flare image estimation unit 5 creates a G estimated flare image If_g.
  • the flare image estimation unit 5 determines the estimated flare of R and B. Images are created as 0.8 * If_g and 0.6 * If_g, respectively.
  • the unnecessary light subtracting unit 6 may subtract the estimated flare images of the colors R, G, and B from the images of the colors R, G, and B of the captured image Ir.
  • the flare image estimation unit 5 may obtain an estimated flare image for each of the R, G, and B colors. In this case, it is necessary to prepare a PSF for each of the R, G, and B colors. Also, the calculation time increases. Therefore, the flare image estimation unit 5 creates the estimated flare image of the other color of R, G, and B from the estimated flare image of any color of R, G, and B as described above. An increase in the amount of memory or an increase in calculation time can be suppressed.
  • a PSF including arc-shaped unnecessary light may be obtained by simulating the structure of the optical system.
  • Embodiment 2 of the present invention will be described below with reference to the drawings.
  • the configuration of the imaging device in this embodiment is the same as that in FIG.
  • the processing of the flare position setting unit 12 and the flare model luminance adjustment unit 13 is different from that of the first embodiment. Therefore, the following description will be made with a focus on the processing of the flare position setting unit 12 and the flare model luminance adjustment unit 13, and the other processing is the same as in the first embodiment, and thus detailed description thereof will be omitted.
  • FIGS. 22A and 22B show the captured image Ir (x, y) used in the present embodiment.
  • the captured images in FIGS. 22A and 22B are simulated from the PSF in FIG. 2A and the subjects in FIGS. 15A and 15B.
  • FIG. 22A shows a captured image Ir of the first subject
  • FIG. 22B shows a captured image Ir of the second subject.
  • the first subject is a subject that is schematically created assuming a rectangular light source (for example, a fluorescent lamp).
  • the second subject is a subject that is schematically created assuming a circular light source.
  • FIGS. 23A and 23B show the luminance transition in the horizontal direction of the image near the image center of the captured image Ir of the subject 1 and the subject 2 in FIGS. 22A and 22B.
  • 22A and 22B and FIGS. 23A and 23B show the luminance transition in the horizontal direction of the image near the image center of the captured image Ir of the subject 1 and the subject 2 in FIGS. 22A and 22B.
  • 22A and 22B and FIGS. 23A and 23B show the luminance transition in the horizontal direction of the image near the image center of the captured image Ir of the subject 1 and the subject 2 in FIGS. 22A and 22B.
  • 22A and 22B and FIGS. 23A and 23B show the luminance transition in the horizontal direction of the image near the image center of the captured image Ir of the subject 1 and the subject 2 in FIGS. 22A and 22B.
  • 22A and 22B and FIGS. 23A and 23B show the luminance transition in the horizontal direction of the image near the image center of the captured image Ir
  • the flare position setting unit 12 of the present embodiment sets a flare position, which is an image position where large unnecessary light is locally generated in an optical system including a diffraction grating, based on optical characteristic data of the optical system. Specifically, the flare position setting unit 12 sets the first flare position (xf1, yf1) and the second flare position (xf2, yf2) based on the luminance saturation position.
  • the first flare position (xf1, yf1) is an image position where it is known in advance in the PSF that unnecessary light locally increases.
  • the second flare position (xf2, yf2) is an image position where it is known in advance in the PSF that unnecessary light is reduced. That is, the flare position setting unit 12 has an image position in the vicinity of the luminance saturation position corresponding to the first position that is predetermined as a position where there is a lot of unnecessary light in the PSF corresponding to the luminance saturation position, and the first position in the PSF. An image position corresponding to a second position determined in advance as a position where there is little unnecessary light is set as a flare position.
  • FIG. 24 shows a PSF in the vicinity of a field angle of 45 degrees of the optical system according to Embodiment 2 of the present invention (the same PSF as FIG. 2B). It is assumed that the PSF does not vary greatly in the entire region at the image positions of the captured images in FIGS. 22A and 22B. In the PSF shown in FIG. 24, the number of pixels in the vertical direction and the horizontal direction is 256 pixels, respectively.
  • a region that is about 16 pixels away from the image position where the luminance of the PSF is the highest in the optical axis direction is large due to the diffraction grating included in the optical system. Unnecessary light is generated. Further, in an area that is about 30 pixels away from the image position having the highest luminance in the optical axis direction (the area on the left side of the area surrounded by the dotted line in FIG. 24), an area in which unnecessary light is significantly reduced occurs. ing. In the PSF of the optical system including the diffraction grating, a region in which the magnitude of unnecessary light changes abruptly in the optical axis direction from the image position having the highest luminance is generated.
  • the flare position setting unit 12 sets, as the first flare position (xf1, yf1), an image position with a large amount of unnecessary light that is a flare distance Df1 away from the luminance saturation position of the captured image Ir in the optical axis direction.
  • the flare position setting unit 12 sets an image position with a small amount of unnecessary light separated by a flare distance Df2 in the optical axis direction as the second flare position (xf2, yf2).
  • the flare distance Df1 is set to 13 pixels, and the flare distance Df2 is set to 30 pixels.
  • the flare distance Df2 may be set to a value larger than 30 pixels because unnecessary light may be set to an image position where the unnecessary light is small.
  • the flare model brightness adjustment unit 13 of the present embodiment uses the brightness of the captured image Ir and the brightness of the flare model image Ifm at the first flare position and the second flare position set by the flare position setting unit 12, respectively. Then, the estimated flare image If (x, y) is created by adjusting the luminance of the flare model image Ifm.
  • the flare model brightness adjusting unit 13 determines that the difference value between the brightness value of the first flare position (xf1, yf1) and the brightness value of the second flare position (xf2, yf2) in the estimated flare image If is a captured image.
  • the brightness of the flare model image Ifm is Nf times (Nf ⁇ 1) the difference value between the brightness value of the first flare position (xf1, yf1) and the brightness value of the second flare position (xf2, yf2) in Ir. Is adjusted to create an estimated flare image If.
  • the flare model brightness adjustment unit 13 performs gain adjustment of the brightness of the flare model image by using the difference between the brightness of the image position where the unnecessary light from the light source is large and the brightness of the image position where the unnecessary light is small, so that the background It is possible to estimate the size of unnecessary light without being affected by the luminance.
  • the unnecessary light subtracting unit 6 subtracts the estimated flare image If thus created from the captured image.
  • the image processing apparatus 2 can appropriately reduce only the luminance distribution of unnecessary light from a captured image in which a subject having luminance in the background is captured.
  • the flare image estimation unit 5 creates an estimated flare image If according to the following equations (3), (4), and (5).
  • the flare model brightness adjusting unit 13 calculates a difference Mr between Ir (xf1, yf1), which is the brightness at the first flare position, and Ir (xf2, yf2), which is the brightness at the second flare position, in the captured image Ir. It calculates
  • the flare model brightness adjusting unit 13 in the flare model image Ifm created by the flare model creating unit 11 is Ifm (xf1, yf1) that is the brightness of the first flare position and Ifm that is the brightness of the second flare position.
  • a difference Mfm from (xf2, yf2) is obtained from equation (4).
  • the flare model brightness adjusting unit 13 obtains the estimated flare image If by the equation (5) using the difference Mr of the captured image Ir and the difference Mfm of the flare model image Ifm thus obtained.
  • the unnecessary light subtracting unit 6 subtracts the estimated flare image If thus obtained from the captured image Ir to obtain an output image Io in which unnecessary light is reduced.
  • FIG. 25A shows an output image Io of the first subject in which unnecessary light is reduced.
  • FIG. 25B shows an output image Io of the second subject in which unnecessary light is reduced.
  • Nf 0.8 is set.
  • 26A and 26B show the luminance transition in the horizontal direction of the image near the center of the image in FIG. 25A or FIG. 25B.
  • a solid line shows the luminance transition of the output image Io
  • a dotted line shows the luminance transition of the captured image Ir. In any subject, unnecessary light is greatly reduced.
  • FIGS. 27A and 27B show the luminance transition of the estimated flare image If of the first subject or the second subject.
  • the solid line indicates the luminance transition of the estimated flare image If
  • the dotted line indicates the luminance transition of the captured image Ir.
  • Nf is set to 0.8
  • the difference between the luminance at the first flare position (xf1, yf1) and the luminance at the second flare position (xf2, yf2) in the estimated flare image If is the captured image. It is 0.8 times the difference in Ir.
  • the actual unnecessary light distribution included in the captured image Ir and the distribution of the estimated flare image If are strictly different because the actual light source shape and the shape of the saturation luminance position assumed as the light source in the present embodiment are slightly different. Does not match. Therefore, if Nf is 1.0, there may be a region where excessive unnecessary light correction occurs due to the difference between the actual unnecessary light distribution and the estimated flare image distribution. Therefore, it is desirable that Nf satisfy N ⁇ 1.0. Since the magnitude of the difference between the actual unnecessary light distribution and the estimated flare image distribution differs depending on the photographing environment, it is preferable to set Nf to about 0.2 to 0.8 in consideration of the risk of overcorrection.
  • the flare model luminance adjustment unit 13 has a difference value of the luminance value of the estimated flare image at the plurality of flare positions that is 0.2 to 0.8 times the difference value of the luminance value of the captured image at the plurality of flare positions. It is preferable to adjust the gain of the flare model image so that it falls within the range. As Nf becomes smaller, the effect of reducing unnecessary light becomes smaller. However, if it is within the above-mentioned setting range, unnecessary light is greatly reduced as compared with a captured image.
  • the image processing apparatus or the imaging apparatus of the present embodiment in the captured image and the flare model image, the luminance value of the image position where unnecessary light peculiar to the diffraction grating increases and the image position where the unnecessary light is small. Since the gain adjustment of the flare model image can be performed using the difference from the luminance value of, the estimated flare image can be estimated with high accuracy. By subtracting the estimated flare image estimated in this way from the photographed image, even when the brightness of the photographed image is saturated and the background has a small brightness, it was obtained by one photographing. It is possible to appropriately reduce unnecessary light from the captured image.
  • the image processing apparatus 2 is, for example, an image. Is divided into square blocks, and the image processing described above may be performed for each block.
  • the block size at this time can be calculated at high speed if, for example, the number of pixels in the vertical and horizontal directions is set to a factorial of 2 such as 64 pixels so that high-speed FFT calculation can be applied.
  • the flare image estimation unit 5 may obtain the estimated flare image If for each block, and the unnecessary light subtraction unit 6 may finally perform unnecessary light subtraction processing collectively for the entire image.
  • the image processing apparatus 2 assumes that the PSF does not fluctuate greatly within each block, and can perform image processing calculations at high speed if the OTF data Fo is prepared for each block and stored in the memory. It becomes possible. Furthermore, the luminance saturation position detection unit 10 does not need to reduce unnecessary light in the block where the luminance saturation position does not exist. Therefore, if unnecessary calculation is not performed, the calculation of image processing is performed at higher speed. Can be done.
  • the flare distance Df used when setting the flare position (xf, yf) is set for each block corresponding to the arc flare of the PSF of the block.
  • the flare distance Df may be set in advance for each block or each image position in advance at the time of shipment of the imaging apparatus from the factory, or may be obtained by detecting the position of the arc flare from the PSF each time shooting is performed.
  • the flowchart showing the operation of the imaging apparatus in the present embodiment is the same as the flowchart of the first embodiment of FIG. 21, but the internal processing of the flare position setting step S112 and the flare model brightness adjustment step S113 is different.
  • the processing described in the flare position setting unit 12 and the flare model brightness adjustment unit 13 of the present embodiment is performed.
  • the flare position setting step S112 may be performed before the flare model creation step S111, and the flare model creation step S111 and the flare position setting step S112 may be processed in parallel.
  • the luminance saturation position detection unit 10 can reduce excessive correction by shrinking the periphery of the light source shape estimated from the luminance saturation position and reducing the outer shape of the light source image. That is, the luminance saturation position detection unit 10 creates an image obtained by reducing the size of the light source shape formed as a set of luminance saturation positions as a light source image.
  • FIG. 28 shows a light source image obtained by shrinking the outer shape of the light source image Is shown in FIG. 10 pixel by pixel.
  • the horizontal width of the light source image is 9 pixels, but in FIG. 28, the outer shape of the light source image is deleted pixel by pixel, so the width is 7 pixels.
  • FIG. 29A and FIG. 29B show the horizontal transition of luminance in the vicinity of the center of the output image Io and the output image Io when image processing is performed using this light source image as a new light source image Is.
  • FIGS. 29A and 29B by shrinking the light source image, excessive correction of unnecessary light is reduced, and a more natural output image can be obtained.
  • the number of pixels to be shrunk is one pixel here, the optimum value varies depending on the shooting environment, and may be determined according to the assumed shooting environment.
  • the inverse Fourier transform unit 18 subtracts unnecessary light at the luminance saturation position by changing the luminance at the luminance saturation position of the captured image Ir to 0 in the flare model image Ifm ′.
  • the unnecessary light may not be subtracted for the width of several pixels around the entire luminance saturation position of the captured image Ir. This is because the luminance saturation position of the captured image Ir is assumed to be the light source, but the actual light source shape may be smaller than the assumed light source shape. In such a case, the brightness of the estimated flare image If becomes larger than the actual brightness at the periphery of the brightness saturation position, and unnecessary light may be excessively reduced.
  • the image processing apparatus 2 avoids overcorrection of unnecessary light by not subtracting unnecessary light even for the width of several pixels around the luminance saturation position of the captured image Ir (for example, 1 to 3 pixels). A natural output image can be obtained. In the present embodiment, unnecessary light is not subtracted for the width of two pixels around the entire luminance saturation position.
  • the image processing apparatus 2 creates an estimated flare image If for any of R (red), G (green), and B (blue), and the R, G, and B The gain of the estimated flare image If may be adjusted for each color in accordance with the ratio of unnecessary light for each color.
  • the flare image estimation unit 5 creates a G estimated flare image If_g.
  • the flare image estimation unit 5 calculates the R and B estimated flare. Images are created as 0.8 * If_g and 0.6 * If_g, respectively.
  • the unnecessary light subtracting unit 6 may subtract the estimated flare images of the colors R, G, and B from the images of the colors R, G, and B of the captured image Ir.
  • the flare image estimation unit 5 may obtain an estimated flare image for each of the R, G, and B colors. In this case, it is necessary to prepare a PSF for each of the R, G, and B colors. Also, the calculation time increases. Therefore, the flare image estimation unit 5 creates the estimated flare image of the other color of R, G, and B from the estimated flare image of any color of R, G, and B as described above. An increase in the amount of memory or an increase in calculation time can be suppressed.
  • a PSF including arc-shaped unnecessary light may be obtained by simulating the structure of the optical system.
  • the flare position setting unit 12 has set two flare positions (first flare position and second flare position), but may set three or more flare positions. . Even when three or more flare positions are set, the flare position setting unit 12 determines the difference between the luminance values of the captured images at the three or more flare positions and the flare model image at the three or more flare positions.
  • the gain of the flare model image may be gain-adjusted using the ratio of the difference between the luminance values of the flare model image.
  • the flare position setting unit 12 represents a representative value (for example, an average value or a maximum value) of the difference value of the luminance value of the captured image between the flare positions and the luminance of the flare model image between the flare positions.
  • the luminance of the flare model image may be gain-adjusted using the ratio of the difference value to the representative value.
  • the image processing device or the imaging device according to one embodiment of the present invention has been described based on the embodiments, but the present invention is not limited to these embodiments. Unless it deviates from the meaning of this invention, the form which carried out various deformation
  • the flare model creation unit 11 includes the Fourier transform unit 15, the OTF creation unit 16, the integration unit 17, and the inverse Fourier transform unit 18.
  • the flare model creation unit 11 includes the Fourier transform unit 15, the OTF creation unit 16, the integration unit 17, and the inverse Fourier transform unit 18.
  • the components included in the image processing apparatus 2 according to the first or second embodiment may be configured by one system LSI (Large Scale Integration).
  • the image processing apparatus 2 may be configured by a system LSI having a flare image estimation unit 5 and an unnecessary light subtraction unit 6.
  • the system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip. Specifically, a microprocessor, a ROM (Read Only Memory), a RAM (Random Access Memory), etc. It is a computer system comprised including. A computer program is stored in the ROM. The system LSI achieves its functions by the microprocessor operating according to the computer program.
  • system LSI may be called IC, LSI, super LSI, or ultra LSI depending on the degree of integration.
  • method of circuit integration is not limited to LSI's, and implementation using dedicated circuitry or general purpose processors is also possible.
  • An FPGA Field Programmable Gate Array
  • reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
  • the present invention can be realized not only as an image processing apparatus including such a characteristic processing unit, but also as an image processing method using a characteristic processing unit included in the image processing apparatus as a step. You can also. It can also be realized as a computer program that causes a computer to execute the characteristic steps included in the image processing method. And it goes without saying that such a computer program can be distributed via a computer-readable non-transitory recording medium such as a CD-ROM (Compact Disc Only Memory) or a communication network such as the Internet. .
  • a computer-readable non-transitory recording medium such as a CD-ROM (Compact Disc Only Memory) or a communication network such as the Internet.
  • the present invention captures a subject image with an optical system such as a digital still camera, a digital video camera, a mobile phone camera, a surveillance camera, a medical camera, a telescope, a microscope, an in-vehicle camera, a stereo distance measuring camera, and a multi-lens camera.
  • an optical system such as a digital still camera, a digital video camera, a mobile phone camera, a surveillance camera, a medical camera, a telescope, a microscope, an in-vehicle camera, a stereo distance measuring camera, and a multi-lens camera.

Abstract

 画像処理装置(2)は、撮影画像中で輝度値が所定の値より大きな画像位置である輝度飽和位置を検出し光源画像を作成する輝度飽和位置検出部(10)と、光源画像と光学系の光学特性データとに基づきフレアモデル画像を作成するフレアモデル作成部(11)と、輝度飽和位置から撮影画像上の略光軸方向の画像位置であって輝度飽和位置近傍の予め定められた画像位置をフレア位置として設定するフレア位置設定部(12)と、フレア位置における、撮影画像の輝度値とフレアモデル画像の輝度値との関係性に基づいてフレアモデル画像の輝度をゲイン調整することにより、推定フレア像を作成するフレアモデル輝度調整部(13)と、撮影画像から推定フレア像を減算する不要光減算部(6)とを備える。

Description

画像処理装置、撮像装置及び画像処理方法
 本発明は、回折光学素子を含む光学系を介して撮影された撮影画像から不要光の成分を画像処理により低減する技術に関する。
 被写体を撮影する撮像装置において、被写体が明るい場合に、被写体の周辺部の不要光が視認可能な明るさとなり、撮影画像に悪影響を及ぼす場合がある。特に回折格子を有する回折レンズを用いた場合は、回折レンズの設計次数以外の不要次数回折光による不要光が発生し、非球面レンズのみを用いた光学系と比較して不要光が大きくなる場合がある。
 こうした不要光を画像処理により低減する従来技術として、例えば特許文献1では、回折レンズの不要次数回折光(0次光や2次光)のPSF(Point Spread Function)と撮影画像との畳込み積分から不要光を推定し、元画像から減算することにより不要光を低減している。
 また、特許文献2では、露光時間の異なる複数の画像を撮影し、短い露光時間の画像から不要光を推定し、露光時間の長い画像から推定した不要光を減算することにより不要光を低減している。
特開平9-238357号公報 特開平11-355636号公報
 本願発明者は、回折レンズを用いて非常に明るい被写体を撮影すると、撮影画像の光軸位置から離れた画像位置において、上述した不要次数回折光による不要光とは異なる、円弧状フレア光による大きな不要光が発生することを見出した。そして、この円弧状フレア光による不要光は、撮影された画像の品質を大きく低下させる場合があることがわかった。
 円弧状フレア光による不要光は、不要次数回折光による不要光とは異なる。そのため、特許文献1のように不要次数回折光のPSFを用いて不要光を低減する方法では、円弧状フレア光による不要光を低減することができない。また、特許文献1においてPSFと撮影画像との畳込み積分により不要光を推定する場合、被写体が明るいことにより撮影画像の輝度が飽和していると、輝度飽和部では誤った被写体の明るさ(輝度)から不要光を推定することになる。そのため、適切に不要光を推定することが難しい。被写体の明るさが、撮影画像の飽和レベルより明るくなるほど、推定した不要光成分の大きさが実際より小さくなる。つまり、被写体が明るく、撮影画像の輝度が飽和する場合には、適切に不要光を低減することが困難である。
 また、特許文献2では、露光時間の異なる複数の画像を撮影し演算する必要があるため、演算コストが増大するだけでなく、動画を撮影する場合に適切な不要光の推定が困難となる場合がある。
 そこで、本発明は、上記課題を解決するためになされたものであって、回折光学素子を含む光学系を介して撮影された撮影画像において輝度が飽和している場合であっても、撮像画像に含まれる不要光の成分を、画像処理により適切に低減することができる画像処理装置、撮像装置、及び画像処理方法を提供することを目的とする。
 上記の目的を達成するために、本発明の一態様に係る画像処理装置は、回折光学素子を含む光学系を介して撮影された撮影画像から不要光の成分を低減する画像処理装置であって、前記撮影画像中の明るい被写体の周辺部に発生する推定フレア像を作成するフレア像推定部と、前記撮影画像から、前記推定フレア像を減算する不要光減算部とを備え、前記フレア像推定部は、前記撮影画像中で輝度値が所定の値より大きな画像位置である輝度飽和位置を検出し光源画像を作成する輝度飽和位置検出部と、前記光源画像と前記光学系の光学特性データとに基づきフレアモデル画像を作成するフレアモデル作成部と、前記輝度飽和位置から撮影画像上の略光軸方向の画像位置であって前記輝度飽和位置近傍の予め定められた画像位置をフレア位置として設定するフレア位置設定部と、前記フレア位置における、前記撮影画像の輝度値と前記フレアモデル画像の輝度値との関係性に基づいて前記フレアモデル画像の輝度をゲイン調整することにより、前記推定フレア像を作成するフレアモデル輝度調整部とを有する。
 この構成によれば、回折格子特有の不要光が大きくなる画像位置において、撮影画像の輝度値とフレアモデル画像の輝度値とを比較することにより、フレアモデル画像の輝度を適切にゲイン調整することができるので、推定フレア像を高精度に作成することが可能となる。このように作成された推定フレア像を撮影画像から減算することにより、撮影画像の輝度が飽和している場合であっても、1回の撮影で得られた撮影画像から適切に不要光を低減することが可能となる。
 本発明は、このような特徴的な処理部を備える画像処理装置として実現することができるだけでなく、画像処理装置に含まれる特徴的な処理部をステップとする画像処理方法として実現することもできる。
 本発明によれば、回折光学素子を含む光学系を介して撮影された撮影画像において輝度が飽和している場合であっても、撮像画像に含まれる不要光の成分を、画像処理により適切に低減することができる。
図1は、本発明の実施の形態における光学系の構成例を示す模式図である。 図2Aは、本発明の実施の形態における光学系のPSFを示す図である。 図2Bは、本発明の実施の形態における光学系のPSFを示す図である。 図3Aは、本発明の実施の形態における光学系のPSFの輝度推移を示す図である。 図3Bは、本発明の実施の形態における光学系のPSFの輝度推移を示す図である。 図4は、本発明の実施の形態における回折レンズを示す図である。 図5は、本発明の実施の形態におけるフレア光発生原理を説明する図である。 図6は、本発明の実施の形態における被写体を示す図である。 図7Aは、本発明の実施の形態における被写体の撮影画像を示す図である。 図7Bは、本発明の実施の形態における被写体の撮影画像を示す図である。 図8Aは、本発明の実施の形態における被写体の撮影画像の輝度推移を示す図である。 図8Bは、本発明の実施の形態における被写体の撮影画像の輝度推移を示す図である。 図9は、本発明の実施の形態1における撮像装置の機能構成を示すブロック図である。 図10は、本発明の実施の形態1における光源画像を示す図である。 図11Aは、本発明の実施の形態1における光源周波数データの振幅スペクトルを示す図である。 図11Bは、本発明の実施の形態1におけるOTFの振幅スペクトルを示す図である。 図11Cは、本発明の実施の形態1におけるフレアモデル周波数データの振幅スペクトルを示す図である。 図12は、本発明の実施の形態1におけるフレアモデル画像を示す図である。 図13は、本発明の実施の形態1におけるフレアモデル画像を示す図である。 図14は、本発明の実施の形態1における光学系のPSFを示す図である。 図15Aは、本発明の実施の形態1における第1被写体を示す図である。 図15Bは、本発明の実施の形態1における第2被写体を示す図である。 図16Aは、本発明の実施の形態1における第1被写体の撮影画像を示す図である。 図16Bは、本発明の実施の形態1における第2被写体の撮影画像を示す図である。 図17Aは、本発明の実施の形態1における第1被写体の撮影画像の輝度推移を示す図である。 図17Bは、本発明の実施の形態1における第2被写体の撮影画像の輝度推移を示す図である。 図18Aは、本発明の実施の形態1における第1被写体の出力画像を示す図である。 図18Bは、本発明の実施の形態1における第2被写体の出力画像を示す図である。 図19Aは、本発明の実施の形態1における第1被写体の出力画像の輝度推移を示す図である。 図19Bは、本発明の実施の形態1における第2被写体の出力画像の輝度推移を示す図である。 図20Aは、本発明の実施の形態1における第1被写体の推定フレア像の輝度推移を示す図である。 図20Bは、本発明の実施の形態1における第2被写体の推定フレア像の輝度推移を示す図である。 図21は、本発明の実施の形態1における撮像装置の処理の流れを示すフローチャートである。 図22Aは、本発明の実施の形態2における第1被写体の撮影画像を示す図である。 図22Bは、本発明の実施の形態2における第2被写体の撮影画像を示す図である。 図23Aは、本発明の実施の形態2における第1被写体の撮影画像の輝度推移を示す図である。 図23Bは、本発明の実施の形態2における第2被写体の撮影画像の輝度推移を示す図である。 図24は、本発明の実施の形態2における光学系のPSFを示す図である。 図25Aは、本発明の実施の形態2における第1被写体の出力画像を示す図である。 図25Bは、本発明の実施の形態2における第2被写体の出力画像を示す図である。 図26Aは、本発明の実施の形態2における第1被写体の出力画像の輝度推移を示す図である。 図26Bは、本発明の実施の形態2における第2被写体の出力画像の輝度推移を示す図である。 図27Aは、本発明の実施の形態2における第1被写体の推定フレア像の輝度推移を示す図である。 図27Bは、本発明の実施の形態2における第2被写体の推定フレア像の輝度推移を示す図である。 図28は、本発明の実施の形態2の変形例におけるシュリンク後の光源画像を示す図である。 図29Aは、本発明の実施の形態2の変形例における出力画像を示す図である。 図29Bは、本発明の実施の形態2の変形例における出力画像の輝度推移を示す図である。
 以下、本発明の実施の形態を詳細に説明する前に、回折光学素子を含む光学系を備える撮像装置で明るい被写体を撮影した場合に、輝度が飽和した被写体像の周辺部に円弧状フレア光による不要光が視認可能なレベルに発生する現象について説明する。
 図1は、本発明の実施の形態における光学系の構成例を模式的に示す図である。図1に示すように、光学系200は、負のパワーを持つレンズ201と、正のパワーを持つ回折レンズ202とを備える。
 回折レンズ202は、回折光学素子に相当し、互いに材料が異なる第1部材203及び第2部材204を有する。第1部材203の一方の面は、非球面形状に形成されている。また、第1部材203の他方の面には、回折格子206が光軸210を中心に輪帯状に形成されている。回折格子206の表面は、第2部材204によって非球面形状に被覆されている。
 このような光学系200を介して、被写体の像が撮像素子208の撮像面209に結像される。撮像面に結像された被写体の像は、撮像素子208に撮影画像として取り込まれる。撮像素子208はCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などにより構成される。絞り211は、回折レンズ202の像面側に設置され、撮像素子208の撮像面209に入射する光線を調整する。
 回折格子206の格子厚dは、(式1)により求められる。
Figure JPOXMLDOC01-appb-M000001
 ここで、n1は第1部材203の屈折率を表わし、n2は第2部材204の屈折率を表わす。λは波長である。ここでは、光学系200は、撮像用途の光学系である。そのため、λは、400nmから700nm程度の可視域の波長範囲の値をとる。
 mは回折次数である。ここではm=1としている。つまり、回折格子206の格子厚dは、1次回折光の回折効率が高くなるように設計されている。この可視域の波長範囲においてdがほぼ一定値となる屈折率(n1及びn2)を持つ第1部材203及び第2部材204を組合せることにより、回折レンズ202は、可視域の波長範囲全領域で高い1次回折効率を得ることができることが知られている(例えば特許第4077508号公報を参照)。本発明の実施の形態においては、n1及びn2がこのような組合せとなるよう、第1部材203及び第2部材204が用いられる。
 図2Aに、図1の光学系200の画角45度付近でのPSFを示す。図2Bに、PSFの不要光成分の分布が見やすいように、図2AのPSFの明るさを調整したPSFを示す。図2A及び図2Bでは、画像中心の左方向が光軸方向である。つまり、画像の左方向に、光軸と撮像面とが交差する位置に対応する画像位置が存在する。なお、PSFとは、光学系の点光源に対する応答を表す関数であり、画像として表すことができる。
 図3Aに、図2AのPSFの輝度最大位置周辺部の画像水平方向の輝度推移を示す。図3Aにおいて、縦軸は輝度を表わし、横軸は画像位置を表わしている。図3Bに、図3Aの縦軸のスケールを拡大したときの輝度推移を示す。
 図2A~図3Bに示すように、回折格子を含む光学系に用いて撮影された撮像画像には、輝度の大きい円弧状の不要光が発生する。なお、不要光とは、画像に写ってしまう不要な光である。つまり、不要光とは、本来、画像に写ることが望ましくない光である。この不要光によって画質が劣化する。
 本願発明者は、この不要光が、0次、2次の回折光といった設計次数以外の不要次数回折光よりも輝度が大きく、回折格子の各輪帯ピッチの影響により発生することを見出した。具体的には、図2A~図3Bに示すように、特に光軸以外の画像位置であって有限の画角の画像位置において、明るい被写体像の光軸側に大きな円弧状の不要光が発生することを、実験からも確認できた。特に回折格子の格子厚dが大きい場合には、図3Bに示すように、PSFの最大輝度の位置より光軸側に大きな不要光が生じた。
 この大きな不要光は、明るい被写体を撮影することにより得られる撮影画像中の被写体像の位置の輝度が飽和したときに、被写体像の位置よりも光軸側の位置に発生する。このように発生した大きな不要光は、撮影画像に悪影響を及ぼす。
 ここで、回折格子の各輪帯ピッチの影響により、円弧状の大きな不要光が発生する原理を説明する。図4に、回折レンズ202に形成された回折格子の輪帯を物体側からみた場合の模式図を示す。図4に示すように、回折格子301が設けられた回折レンズにおいて、回折輪帯302のそれぞれは、同心円状に配置される段差面にはさまれている。
 このため、隣り合った2つの回折輪帯302のそれぞれを透過する光は、回折輪帯302の幅(輪帯ピッチP)のスリットを透過する光とみなすことができる。一般に、輪帯ピッチPを小さくすることにより、回折レンズは収差を良好に補正できる。しかし、回折輪帯302の幅が小さくなると、回折レンズを透過する光は、同心円状に配置された非常に狭い幅のスリットを通過する光とみなすことができる。このような場合、段差面の近傍において、光の波面の回りこみ現象が見られるようになる。
 図5に、回折格子301によって光が回折する様子を模式的に示す。一般に、非常に狭い幅Pのスリットを透過した光は、無限遠の観測点において回折縞を形成する。これをフラウンホーファー回折という。この回折現象は、正の焦点距離を有するレンズ系を含むことによって、有限距離(例えば焦点面)でも発生する。
 本願発明者は、回折輪帯302の幅が小さくなると、各輪帯を透過した光が互いに干渉しあうことにより、図5に示すような、同心円状に広がる縞状フレア光305が発生することを実レンズによる画像評価で確認した。また、光軸に対して斜めに入射し、回折輪帯の一部分のみを通過する光によって、図2A又は図2Bに示すような、円弧状フレア光が発生することがあることを、実レンズによる画像評価で確認した。また、不要次数回折光は特定の波長に対しては発生しないが、円弧状フレア光は設計波長を含め使用波長帯全域で発生することが、詳細な検討により明らかになった。
 図6に、蛍光灯を想定して模擬的に作成した光源を示す。図7A及び図7Bに、回折光学素子を含む光学系を介して光源を撮影した撮影画像の一例を示す。図7A及び図7Bの撮影画像は、図6に示す長方形で輝度が均一な光源を、図1の光学系で撮影することにより得られる画像である。また、図7A及び図7Bの撮影画像は、画角45度付近に撮像される蛍光灯の像である。なお、図7A及び図7Bは、図2AのPSFと、図6の被写体画像とを、畳込み積分することにより実際の撮像画像を模擬的に作成した画像である。
 図7Aは、撮影画像の輝度飽和レベルを1.0とした場合に、光源像の最大輝度が0.7となるように作成された撮影画像を示す図である。また、図7Bは、撮影画像の輝度飽和レベルを1.0とした場合に、光源像の最大輝度が3.0となるように作成された撮影画像を示す図である。
 図7Bでは、撮像面209において輝度が1.0を超える画像位置で、撮影画像の輝度が飽和している。図8A及び図8Bに、図7A及び図7Bそれぞれの撮影画像の中心付近の画像水平方向の輝度推移を示す。図8A及び図8Bでは、いずれも縦軸は輝度を表わし、横軸は画像位置を表わす。
 図7A~図8Bから分かるように、光源像の最大輝度が大きくなるほど、光源像の光軸方向(画像の左方向)の画像位置に二重像のような不要光も大きくなる。図7Aでは目立たない不要光が、図7Bでは視認できる輝度になり、撮影画像に悪影響を及ぼすことが分かる。この二重像のような不要光は、図2AのPSFに生じている、本願発明者が見出した円弧状フレアに相当する。
 本発明の一態様に係る画像処理装置は、回折光学素子を含む光学系を介して撮影された撮影画像において輝度が飽和している場合であっても、図7B及び図8Bに示したような、不要光の成分を低減することを目的とする。特に、本発明の実施の形態に係る画像処理装置は、本願発明者が見出した円弧状フレアの特徴である、光源像の光軸側に大きな不要光が発生するという特徴を利用して、撮影画像から不要光の成分を低減する。
 具体的には、輝度の大きな不要光となる円弧状フレアの発生位置を撮影画像中で設定し、その位置での輝度を用いて不要光を推定し低減することにより、撮影画像から不要光を低減する。円弧状フレアは、光学構造や画像位置によっては不要次数回折光の5倍や10倍程度の輝度の大きな不要光となる。このため、本発明を用いることにより、不要次数回折光のみを除去する画像処理方法に比べて、適切に不要光を低減することが可能となる。更に、撮影画像中の白色ノイズ等のノイズ輝度の大きさに対する、円弧状フレアの輝度の大きさの比率は、ノイズ輝度に対する不要次数回折光の比率よりも大きくなる。光学構造や画像位置によっては不要次数回折光の場合の5倍や10倍程度比率が大きくなる。したがって、特定の位置での輝度を用いて不要光を推定した場合に、不要次数回折光のみを推定して不要光を除去する従来の画像処理方法に比べて、ノイズ輝度の影響が少ない高い精度での不要光の推定が可能であり、撮影画像に含まれる不要光の成分を適切に低減することができる。
 本発明の一態様に係る画像処理装置は、画像中の特定位置の輝度に限定して不要光を推定するため、少ない演算量で不要光を推定することが可能である。
 以下で好適な実施の形態を説明する。なお、以下で説明する実施の形態は、いずれも本発明の好ましい一具体例を示す。つまり、以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置及び接続形態、ステップ、ステップの順序などは、本発明の一例であり、本発明を限定する主旨ではない。本発明は、請求の範囲の記載に基づいて特定される。したがって、以下の実施の形態における構成要素のうち、本発明の最上位概念を示す独立請求項に記載されていない構成要素は、本発明の課題を達成するために必ずしも必要ではないが、より好ましい形態を構成する構成要素として説明される。
 (実施の形態1)
 以下、本発明の実施の形態1について図面を参照しながら説明する。
 図9は、本発明の実施の形態1における撮像装置の機能構成を示すブロック図である。本実施の形態における撮像装置は、撮像部1と、画像処理装置2とを備える。
 撮像部1は、回折光学素子を含む光学系を介してCCDやCMOSなどの撮像素子に被写体像を取込むことにより、撮影画像Ir(x,y)を作成する。x及びyは、画像中の垂直方向及び水平方向の位置を表す。
 画像処理装置2は、回折光学素子を含む光学系を介して撮影された撮影画像から不要光の成分を低減する。なお、不要光の成分とは、不要光によって形成される像(不要光像)の輝度を示す。
 図9に示すように、画像処理装置2は、フレア像推定部5と不要光減算部6とを備える。
 フレア像推定部5は、撮影画像Irに含まれる不要光の分布を推定することにより推定フレア像If(x,y)を作成する。不要光減算部6は、撮影画像Irから推定フレア像Ifを減算することにより、不要光の成分が低減された出力画像Io(x,y)を出力する。
 フレア像推定部5は、輝度飽和位置検出部10と、フレアモデル作成部11と、フレア位置設定部12と、フレアモデル輝度調整部13とを有する。
 輝度飽和位置検出部10は、撮影画像Irで輝度値が所定の値Isaより大きな画像位置を輝度飽和位置として検出する。所定の値Isaは、輝度レベルを、黒が0、白が1.0と表現した場合、例えば0.98と設定されればよい。つまり、所定の値Isaは、被写体が明るすぎて、撮影画像Irの輝度レベルが実質的に飽和していると判断される値が設定される。
 そして、輝度飽和位置検出部10は、このように検出された輝度飽和位置を示す光源画像を作成する。具体的には、輝度飽和位置検出部10は、例えば、輝度飽和位置の輝度値を輝度の上限値に設定し、輝度飽和位置以外の画像位置の輝度値を輝度の下限値に設定することにより、光源画像を作成する。
 図10に、図7Bに示す撮影画像Irにおいて、輝度飽和位置検出部10が検出した輝度飽和位置を示す。図10に示す光源画像では、輝度飽和した画像位置の輝度値は1.0と表現され、その他の画像位置の輝度値は0と表現されている。図10の光源画像は、図7Bと同様に、画角45度付近の画像である。図10の光源画像において、画像中心から左方向が光軸方向である。
 この輝度飽和位置検出部10が検出した図10の輝度飽和位置を示す画像である光源画像Is(x,y)を用いて推定フレア像Ifが作成される。輝度飽和位置は、被写体が明るく写っている部分である。したがって、輝度飽和位置を光源と仮定して推定フレア像を作成するための計算に用いても妥当性を逸しない。
 次にフレアモデル作成部11の処理を説明する。フレアモデル作成部11は、光源画像と光学系の光学特性データとに基づきフレアモデル画像を作成する。フレアモデル作成部11は、フーリエ変換部15と、OTF作成部16と、積算部17と、逆フーリエ変換部18とを有する。
 フーリエ変換部15は、光源画像IsをFFT(Fast Fourier Transform)などによりフーリエ変換し、複素数データである光源周波数データFs(u,v)を出力する。u及びvは、各複素数データの垂直方向及び水平方向の格納アドレスを表し、各格納アドレスがそれぞれ異なる周波数に対応する。図11Aに、図10の光源画像Isをフーリエ変換した光源周波数データFsの振幅スペクトルを示す。
 OTF作成部16は、光源画像Isの画像位置に応じて、PSFをフーリエ変換したOTF(Optical Transfer Function)データFo(u,v)を準備する。OTFデータは、像高毎にあらかじめ保持しておいたPSFを、光源画像Isの画像位置に応じて抽出及び回転し、フーリエ変換することにより作成されればよい。また、OTFデータは、画像位置毎にあらかじめメモリに保持されていてもよい。図11Bに図2AのPSFをフーリエ変換したOTFデータFoの振幅スペクトルを示す。
 積算部17は、光源周波数データFsとOTFデータFoとの各周波数要素の複素数を積算し、フレアモデル周波数データFfm(u,v)を作成する。つまり、積算部17は、周波数ごとに、光源周波数データFsとOTFデータFoとの積を算出することにより、フレアモデル周波数データFfm(u,v)を作成する。図11Cに、フレアモデル周波数データFfmの振幅スペクトルを示す。
 PSFで表現される、光学系に起因するぼけにより、図11Aの光源周波数データFsに比較して、図11Cのフレアモデル周波数データFfmは、高周波域の振幅が低減している。なお、図11A及び図11Cにおいて、振幅スペクトルの明るさは、見やすくするために、実際の値に同一のゲインをかけて調整されている。
 逆フーリエ変換部18は、フレアモデル周波数データFfmを逆フーリエ変換し、フレアモデル画像Ifm’(x,y)を作成する。図12にフレアモデル画像Ifm’を示す。更に、逆フーリエ変換部18は、フレアモデル画像Ifm’のうち、撮影画像Irの輝度飽和位置(光源)の輝度を0に変更することにより、フレアモデル画像Ifmを作成する。このフレアモデル画像Ifmは、フレアモデル画像Ifm’のうち不要光成分のみを残した画像に相当する。図13にフレアモデル画像Ifmを示す。
 このように、フレアモデル作成部11は、回折格子に起因する不要光成分を含んだフレアモデル画像Ifmを推定する。撮影画像Irの輝度飽和部(光源)の輝度が飽和している場合、輝度飽和部の実際の輝度が分からない。そのため、不要光成分の輝度値の絶対値は不明である。そこで、フレアモデル作成部11は、不要光成分の相対輝度分布を推定することによりフレアモデル画像Ifmを作成する。
 なお、光源画像Is中の光源の画像位置(輝度が1の画像位置)が画像端に近い場合は、フレアモデル画像Ifm中の不要光成分が、光源画像Isの画像サイズの外側にも発生する可能性がある。そのため、フレアモデル作成部11は、光源画像Isの画像サイズを、輝度が0の画像領域を周辺部に追加して拡大するなど、適切に画像サイズを調整して演算を行う。
 また、フレアモデル作成部11は、周波数領域上での演算を行っているが、空間領域上で畳込み積分演算により上述した周波数領域上での演算と等価な演算を行ってもよい。つまり、フレアモデル作成部11は、光源画像IsとPSFとを畳込み積分演算することにより、フレアモデル画像Ifm’を作成してもよい。この場合、フレアモデル作成部11は、フーリエ変換部15、OTF作成部16、積算部17、及び逆フーリエ変換部18を有する必要はない。なお、本実施の形態では、フレアモデル作成部11は、演算時間の優位性の観点から、周波数領域上での演算を行っている。
 次に、フレア位置設定部12は、回折格子を含む光学系を用いて画像を撮影した場合に、光源位置の光軸側に局所的に大きな不要光が発生することに基づいて、局所的に不要光が大きくなることがあらかじめ分かっているフレア位置(xf,yf)を、輝度飽和位置検出部10で検出済みの輝度飽和位置を用いて設定する。つまり、フレア位置設定部12は、輝度飽和位置から撮影画像上の略光軸方向の画像位置であって輝度飽和位置近傍の予め定められた画像位置をフレア位置として設定する。
 本実施の形態では、このフレア位置は、光学系の光学特性データの一例であるPSFにおいて不要光が多い位置として予め定められた位置と対応する画像位置である。具体的には、フレア位置は、輝度飽和位置から撮影画像上の略光軸方向に、PSFにおいて不要光が多い位置として予め定められた位置により特定される距離だけ離れた画像位置である。なお、PSFにおいて不要光が多い位置として予め定められた位置は、例えば、最も輝度が高い位置の近傍にある、不要光の輝度値のピーク位置である。
 図14に、本発明の実施の形態1の光学系の画角45度付近におけるPSFを示す。なお、図14に示すPSFでは、輝度分布を見やすくするために輝度が調整されている(図2Bと同一のPSF)。また、図14に示すPSFでは、垂直方向及び水平方向の画素数がそれぞれ256画素である。
 PSFの輝度が最も大きな画像位置から、光軸方向(画像中心から左方向)に16画素程度離れた領域(図14の点線で囲まれた領域)に、光学系に含まれる回折格子に起因する大きな不要光が発生している。
 図15A及び図15Bに、このPSFを光学特性データとして持つ光学系を介して撮影される被写体を示す。図15Aに第1被写体を示し、図15Bに第2被写体を示す。
 第1被写体は、矩形の光源(例えば蛍光灯)を想定して模式的に作成された被写体である。また、第2被写体は、円形の光源を想定して模式的に作成された被写体である。なお、図15Aの被写体は図6の被写体と同一である。
 図16A及び図16Bに、図15A及び図15Bのそれぞれの被写体の撮影画像Irを示す。図16A及び図16Bの撮影画像では、全領域でPSFは大きく変動しないと仮定する。
 図16A及び図16Bの撮影画像は、図2AのPSFと図15A及び図15Bそれぞれの被写体との畳込み積分を行うことにより模擬的に作成された画像である。なお、被写体が明るいため、被写体が写っている画像位置では輝度が飽和している。また、輝度が飽和している画像位置の光軸側(画像中心から左方向)には、おおきな不要光が発生している。
 図17A及び図17Bに、図16A及び図16Bのそれぞれの撮影画像Irの画像中心付近の水平方向の輝度の推移を示す。図17A及び図17Bより、いずれの被写体でも、飽和した画像位置から光軸方向に16画素程度離れた位置(図17A及び図17B中の矢印の位置)で大きな不要光が生じている。
 不要光の輝度値のピーク位置は、撮影画像中での光源の幅が大きいほど、輝度が飽和した画像位置に近づく傾向がある。しかし、PSFにおいて大きな不要光が発生する、光源から光軸方向に16画素程度離れた画像位置では、撮影画像においても、不要光のピーク位置からは多少ずれる場合があるものの、被写体によらず常に撮影画像に大きな不要光が生じる。
 したがって、フレア位置設定部12は、あらかじめ大きな不要光が発生すると分かっている位置である、輝度飽和位置から光軸方向にフレア距離Dfの画像位置を、フレア位置(xf,yf)として設定する。つまり、フレア位置設定部12は、輝度飽和位置から撮影画像上の略光軸方向に予め定められた距離(フレア距離Df)離れた位置をフレア位置として設定する。
 ここではフレア距離Dfは、PSFにおける光源位置から不要光の輝度値のピーク位置までの距離である16画素と予め設定されている。なお、フレア距離Dfは、前述したように光源の幅が大きな被写体ほど不要光のピーク位置が光源の画像位置に近づくことを考慮して、PSFでの光源位置から不要光の輝度値のピーク位置までの距離より少し小さめ(例えば13画素など)に設定されてもよい。その際は、不要光のピーク位置は、想定される被写体を用いた実験やシミュレーションから試行錯誤的に求めればよい。
 フレアモデル輝度調整部13は、フレア位置(xf,yf)における、撮影画像の輝度Ir(xf,yf)とフレアモデル画像の輝度Ifm(xf,yf)との関係性に基づいて、フレアモデル画像Ifmの輝度値を調整することにより、推定フレア像If(x,y)を作成する。具体的には、フレアモデル輝度調整部13は、フレア位置(xf,yf)での推定フレア像Ifの輝度が、フレア位置(xf,yf)での撮影画像の輝度Ir(xf,yf)のNf倍(Nf<1)となるように、フレアモデル画像Ifmをゲイン調整し、推定フレア像Ifを作成する。より具体的には、フレアモデル作成部11は、例えば式(2)によって推定フレア像Ifを作成する。
Figure JPOXMLDOC01-appb-M000002
 つまり、本実施の形態では、フレア位置における撮影画像の輝度値とフレア位置におけるフレアモデル画像の輝度値との関係性とは、撮影画像の輝度値とフレアモデル画像の輝度値との比に対応する。すなわち、本実施の形態では、フレアモデル輝度調整部13は、フレア位置における撮影画像の輝度値とフレア位置におけるフレアモデル画像の輝度値との比を用いて、フレアモデル画像の輝度をゲイン調整する。
 不要光減算部6は、こうして求められた推定フレア像Ifを、撮影画像Irから減算することにより、不要光の成分が低減された出力画像Ioを得る。図18Aに、第1被写体が撮影された撮影画像から不要光の成分が低減された出力画像Ioを示す。また、図18Bに、第2被写体が撮影された撮影画像から不要光の成分が低減された出力画像Ioを示す。ここではNf=0.8に設定している。
 図19A及び図19Bに、図18A又は図18Bに示す出力画像Ioの画像中心付近における画像水平方向の輝度推移を示す。図19A及び図19Bにおいて、実線が出力画像Ioの輝度推移を示し、点線が撮影画像Irの輝度推移を示す。第1被写体及び第2被写体は互いに幅が異なる。しかし、いずれの被写体においても、不要光が大幅に低減されている。
 図20A及び図20Bに、推定フレア像Ifの輝度推移を示す。実線が推定フレア像Ifの輝度推移、点線が撮影画像Irの輝度推移を示す。ここでは、Nf=0.8であるので、矢印で指し示すフレア位置における推定フレア像の輝度If(xf,yf)が、撮影画像の輝度Ir(xf,yf)の0.8倍となっている。
 なお、撮影画像Irに含まれる実際の不要光の輝度分布と、推定フレア像Ifの輝度分布とは、実際の光源形状と本実施の形態で光源と仮定している飽和輝度位置の形状が若干異なるため、厳密には一致しない。したがって、Nfを1.0とすると、実際の不要光の輝度分布と推定フレア像の輝度分布とが異なることにより、過剰な不要光の補正となる領域が発生する。そのため、NfはNf<1.0とすることが望ましい。
 撮影環境により実際の不要光の輝度分布と推定フレア像の輝度分布との違いの大きさは異なるので、過剰補正のリスクを考慮して、Nfは0.2~0.8程度に設定しておくことが好ましい。つまり、フレアモデル輝度調整部13は、フレア位置における推定フレア像の輝度値が、フレア位置における撮影画像の輝度値の0.2倍から0.8倍の範囲となるように、フレアモデル画像の輝度をゲイン調整することが好ましい。Nfが小さくなるほど、不要光の低減効果は小さくなるが、上記の設定範囲であれば撮影画像と比較すると大幅に不要光は低減される。
 以上のように、本実施の形態における画像処理装置又は撮像装置によれば、回折格子特有の不要光が大きくなる画像位置において、撮影画像の輝度値とフレアモデル画像の輝度値とを比較することにより、フレアモデル画像の輝度を適切にゲイン調整することができるので、推定フレア像を高精度に作成することが可能となる。このように作成された推定フレア像を撮影画像から減算することにより、撮影画像の輝度が飽和している場合であっても、1回の撮影で得られた撮影画像から適切に不要光を低減することが可能となる。
 つまり、本実施の形態における画像処理装置又は撮像装置によれば、本願発明者が見出した回折光学素子を含む光学系において発生する円弧状の大きな不要光の成分を撮影画像から低減することができる。円弧状の大きな不要光は、回折光学素子を含む光学系の光学特性に依存するが、光学系の光学特性が変化しなければ、被写体が変わっても、撮影画像において高い輝度を示す画像位置から不要光が発生する画像位置までの距離は大きくは変化しない。したがって、光学系のPSFにおいて大きな不要光が発生している位置に対応する画像位置であるフレア位置の輝度値に基づいて、フレアモデル画像の輝度をゲイン調整することにより、撮影画像の輝度が飽和している場合であっても、不要光の像を高精度に推定することが可能となる。
 なお、本実施の形態では、撮影画像Irの画角45度付近の不要光低減処理についてのみ説明を行ったが、実際の画像全体の処理を行う際には、画像処理装置2は、例えば画像を正方形のブロックに分割し、ブロック毎に上述した画像処理を行えばよい。この際のブロックサイズは、高速なFFTの演算を適用できるように、例えば垂直方向及び水平方向の画素数を各64画素などの2の階乗の大きさとすれば、高速な演算が可能となる。または、フレア像推定部5は、ブロック毎に推定フレア像Ifを求め、不要光減算部6は、最後に画像全体でまとめて不要光減算処理を行ってもよい。
 このとき、画像処理装置2は、各ブロック内部ではPSFが大きく変動しないと仮定し、OTFデータFoを各ブロック毎に準備しメモリに保存しておけば、高速に画像処理の演算を行うことが可能となる。更には、輝度飽和位置検出部10は、輝度飽和位置が存在しなかったブロックでは、不要光を低減する必要がないため、不要な演算をしないようにすれば、更に高速に画像処理の演算を行うことが可能となる。
 なお、各ブロック毎でPSFが異なるため、フレア位置(xf,yf)を設定する際に用いるフレア距離Dfは、ブロック毎に、当該ブロックのPSFの円弧状フレアに対応させて設定されることは言うまでもない。フレア距離Dfは、予め撮像装置の工場出荷時点でブロック毎もしくは画像位置毎に予め設定されてもよいし、撮影の都度PSFから円弧状フレアの位置を検出して求められてもよい。
 図21に、本発明の実施の形態1における撮像装置の動作を示すフローチャートの一例を示す。具体的には、図21は、ブロックごとに推定フレア像を作成する処理の流れを示すフローチャートである。
 撮像ステップS101において、撮像部1は、撮影画像Irを作成する。不要光低減ステップS102において、画像処理装置2は、撮影画像Irから不要光を低減した出力画像Ioを出力する。
 不要光低減ステップS102中の、ブロック分割ステップS109では、画像処理装置2は、撮影画像Irを、垂直方向及び水平方向の画素が64画素の正方形のブロックなど、PSFが大きく変わらない範囲でブロック分割する。フレア像推定ステップS105では、フレア像推定部5は、ブロック毎に、推定フレア像Ifを作成する。
 フレア像推定ステップS105中の輝度飽和位置検出ステップS110では、輝度飽和位置検出部10は、撮影画像Ir中の1つブロックについて、輝度が飽和した画像位置を検出し、光源画像Isを作成する。フレアモデル作成ステップS111では、フレアモデル作成部11は、フレアモデルを作成する。
 具体的には、フーリエ変換ステップS115では、フーリエ変換部15は、光源画像Isをフーリエ変換して光源周波数データFsを作成する。OTF作成ステップS116では、OTF作成部16は、OTFデータFoを作成する。積算ステップS117では、積算部17は、光源周波数データFsとOTFデータFoを積算することにより、フレアモデル周波数データFfmを作成する。さらに、逆フーリエ変換ステップS118では、逆フーリエ変換部18は、フレアモデル周波数データFfmを逆フーリエ変換し、フレアモデル画像Ifmを作成する。
 フレア位置設定ステップS112では、フレア位置設定部12は、フレア位置(xf,yf)を設定する。フレアモデル輝度調整ステップS113では、フレアモデル輝度調整部13は、式(2)に基づき推定フレア像Ifを作成する。なお、フレアモデル作成ステップS111の前にフレア位置設定ステップS112が行われてもよい。また、フレアモデル作成ステップS111と、フレア位置設定ステップS112とは並列に処理されてもよい。
 推定フレア像保存ステップS114では、フレア像推定部5は、作成した推定フレア像Ifを、計算を行ったブロックの推定フレア像としてメモリなどに保存する。なお、輝度飽和位置検出ステップS110で、ブロック中に輝度飽和位置が存在しなかった場合は、画像処理装置2は、そのステップS110以降のステップS114までのステップの処理を省略し、そのブロックでのフレアモデル画像Ifmは作成済み(不要光成分が0)として、ステップS120に進んでもよい。
 ステップS120において、まだ推定フレア像Ifの作成処理を行っていないブロックがあると判定された場合は、計算ブロック移動ステップS121では、画像処理装置2は、ブロック位置を移動し、移動後のブロックで推定フレア像Ifを作成する。ステップS120において、すべてのブロックでの推定フレア像Ifの作成処理が終わったと判定された場合は、不要光減算ステップS106では、不要光減算部6は、全ブロックの推定フレア像Ifを、撮影画像Irから減算し、出力画像Ioを作成する。
 なお、逆フーリエ変換部18は、フレアモデル画像Ifm’のうち、撮影画像Irの輝度飽和位置(光源)の輝度を0に変更することにより、フレアモデル画像のうち不要光成分のみが残されたフレアモデル画像Ifmを作成している。しかし、逆フーリエ変換部18は、必ずしもフレアモデル画像Ifm’のうち撮影画像Irの輝度飽和位置(光源)の輝度を0にする必要はない。この処理は、撮影画像Irの輝度飽和位置は不要光の減算をしないことを意味している。したがって、逆フーリエ変換部18は、フレアモデル画像Ifm’のうち撮影画像Irの輝度飽和位置(光源)の輝度を0に変更せずに、不要光減算部6が、撮影画像Irの輝度飽和位置(光源)では、推定フレア像Ifを減算しないようにしてもよい。この場合、Ifm=Ifm’となる。つまり、画像処理装置2は、結果的に撮影画像Irの輝度飽和位置では、不要光の減算がされない構成となっていればよい。
 なお、逆フーリエ変換部18は、フレアモデル画像Ifm’のうち、撮影画像Irの輝度飽和位置の輝度を0に変更することにより、輝度飽和位置では不要光の減算を行わないようにしているが、更に撮影画像Irの輝度飽和位置の周辺領域の数画素の幅についても不要光の減算を行わないようにしてもよい。つまり、不要光減算部6は、輝度飽和位置と隣接する所定の画素数幅の画像位置では、撮影画像から推定フレア像を減算しないようにしてもよい。すなわち、不要光減算部6は、撮影画像のうち、輝度飽和位置から所定の画素数より離れた画像位置だけ、撮影画像から推定フレア像を減算してもよい。
 これは、撮影画像Irの輝度飽和位置を光源と仮定しているが、この仮定した光源形状より実際の光源形状が小さい場合があるからである。そして、このような場合には、輝度飽和位置の周辺部では、推定フレア像Ifの輝度が実際より大きくなり、不要光の低減が過剰になる場合があるためである。画像処理装置2は、撮影画像Irの輝度飽和位置の全周囲の数画素の幅(例えば1~3画素)についても不要光の減算を行わないことにより、不要光の過剰補正を回避してより自然な出力画像を得ることができる。本実施の形態においては、輝度飽和位置の全周囲の2画素の幅については不要光の減算を行わないようにしている。
 また、実際の光源形状と、推定した光源形状とが異なることに起因した過剰な不要光低減を回避するための別の方法として、輝度飽和位置検出部10は、輝度飽和位置から推定した光源形状の周辺部をシュリンクすることにより外形を小さくした光源画像を新たな光源画像Isとして作成してもよい。詳細は、実施の形態2において説明するのでここでは省略する。
 なお、本実施の形態では白黒画像での不要光低減の方法を説明したが、上述した不要光低減の方法は、カラー画像にも適用できることは言うまでもない。撮影画像がカラー画像の場合は、画像処理装置2は、R(赤)・G(緑)・B(青)いずれかの色に対して推定フレア像Ifを作成し、別途算出しておいたR・G・Bの色毎の不要光の比率に応じて、その推定フレア像Ifを色毎にゲイン調整すればよい。例えば、フレア像推定部5は、Gの推定フレア像If_gを作成する。このとき、不要光の比率がR・G・Bでおおよそ0.8:1.0:0.6であると予め定められている場合は、フレア像推定部5は、R及びBの推定フレア像をそれぞれ0.8*If_g及び0.6*If_gとして作成する。そして、不要光減算部6は、撮影画像IrのR・G・Bそれぞれの色の画像から、R・G・Bそれぞれの色の推定フレア像を減算すればよい。なお、フレア像推定部5は、R・G・Bの色毎に、推定フレア像を個別に求めてもよいが、この場合はR・G・Bの色毎にPSFを用意する必要があり、また、演算時間も増大する。したがって、フレア像推定部5は、上記のようにR・G・Bのうちいずれかの色の推定フレア像からR・G・Bのうちの他の色の推定フレア像を作成することにより、メモリ量の増大、あるいは演算時間の増大を抑制することができる。
 なお、図14及び図2AのPSFの取得方法については、撮像部1の光学系を用いて点光源を実際に撮影することにより円弧状の不要光を含むPSFを取得すればよい。または、光学系の構造をシミュレーションして円弧状の不要光を含むPSFを取得してもよい。
 (実施の形態2)
 以下、本発明の実施の形態2について図面を参照しながら説明する。本実施の形態における撮像装置の構成は、図9と同様である。ただし、本実施の形態では、フレア位置設定部12とフレアモデル輝度調整部13との処理が実施の形態1と異なる。したがって、フレア位置設定部12とフレアモデル輝度調整部13との処理の説明を中心に以下で説明を行い、その他の処理は実施の形態1と同様であるため詳しい説明を省略する。
 図22A及び図22Bに、本実施の形態で用いる撮影画像Ir(x,y)を示す。図22A及び図22Bの撮影画像は、図2AのPSFと図15A及び図15Bの被写体から模擬的に作成されている。図22Aに、第1被写体の撮影画像Irを示し、図22Bに第2被写体の撮影画像Irを示す。
 第1被写体は、矩形の光源(例えば蛍光灯)を想定して模式的に作成された被写体である。また、第2被写体は、円形の光源を想定して模式的に作成された被写体である。
 図23A及び図23Bに、図22A及び図22Bの被写体1及び被写体2の撮影画像Irの画像中心付近の画像水平方向の輝度推移を示す。図22A及び図22B、図23A及び図23Bでは、矩形の光源及び円形の光源の背景の像が0.2程度の輝度を持つ。本実施の形態における画像処理装置2は、光源の背景に壁などがあり、背景像が輝度を有する場合であっても、光源の不要光を適切に低減することができる。ここでも、図22A及び図22Bの撮影画像は、画角45度付近に第1被写体及び第2被写体が撮影された画像である。
 本実施の形態のフレア位置設定部12は、回折格子を含む光学系において局所的に大きな不要光が発生する画像位置であるフレア位置を光学系の光学特性データに基づいて設定する。具体的には、フレア位置設定部12は、第1フレア位置(xf1,yf1)と第2フレア位置(xf2,yf2)とを輝度飽和位置に基づいて設定する。
 ここで、第1フレア位置(xf1,yf1)は、局所的に不要光が大きくなることがPSFにおいてあらかじめ分かっている画像位置である。また、第2フレア位置(xf2,yf2)は、不要光が小さくなることがPSFにおいてあらかじめ分かっている画像位置である。つまり、フレア位置設定部12は、輝度飽和位置に対応するPSFにおいて不要光が多い位置として予め定められた第1位置に対応する輝度飽和位置近傍の画像位置と、当該PSFにおいて第1位置よりも不要光が少ない位置として予め定められた第2位置に対応する画像位置とを、フレア位置として設定する。
 図24に、本発明の実施の形態2の光学系の画角45度付近におけるPSFを示す(図2Bと同一のPSF)。図22A及び図22Bの撮影画像の画像位置では、全領域でPSFは大きく変動しないものとする。図24に示すPSFでは、垂直方向及び水平方向の画素数がそれぞれ256画素である。
 PSFの輝度が最も大きな画像位置から、光軸方向に16画素程度離れた領域(図24の点線で囲まれた領域のうちの右側の領域)に、光学系に含まれる回折格子に起因する大きな不要光が発生している。また、輝度が最も大きな画像位置から、光軸方向に30画素程度離れた領域(図24の点線で囲まれた領域のうちの左側の領域)では、不要光が大幅に小さくなる領域が発生している。回折格子を含む光学系のPSFでは、このように輝度が最も大きな画像位置から光軸方向に、不要光の大きさが急激に変化する領域が生じる。
 したがって、フレア位置設定部12は、撮影画像Irの輝度飽和位置から、光軸方向にフレア距離Df1離れた不要光の大きい画像位置を第1フレア位置(xf1,yf1)として設定する。また、フレア位置設定部12は、光軸方向にフレア距離Df2離れた不要光の小さい画像位置を第2フレア位置(xf2,yf2)として設定する。
 ここではフレア距離Df1は13画素に設定されており、フレア距離Df2は30画素に設定されている。フレア距離Df2は、不要光が小さな画像位置に設定されればよいので、30画素より大きな値が設定されてもよい。
 図23A及び図23Bから分かるように、被写体が変わっても、フレア距離Df1の画像位置では大きな不要光が発生し、フレア距離Df2の画像位置では、フレア距離Df1の画像位置に比較して大幅に小さな不要光しか発生していない。
 次に、本実施の形態のフレアモデル輝度調整部13は、フレア位置設定部12が設定した第1フレア位置及び第2フレア位置のそれぞれにおける撮影画像Irの輝度及びフレアモデル画像Ifmの輝度を利用して、フレアモデル画像Ifmの輝度を調整することにより、推定フレア像If(x,y)を作成する。
 具体的には、フレアモデル輝度調整部13は、推定フレア像Ifにおける第1フレア位置(xf1,yf1)の輝度値と第2フレア位置(xf2,yf2)輝度値との差分値が、撮影画像Irにおける第1フレア位置(xf1,yf1)の輝度値と第2フレア位置(xf2,yf2)の輝度値との差分値のNf倍(Nf<1)となるように、フレアモデル画像Ifmの輝度をゲイン調整し、推定フレア像Ifを作成する。つまり、フレアモデル輝度調整部13は、光源による不要光が大きな画像位置の輝度と、不要光が小さな画像位置の輝度との差分を用いてフレアモデル画像の輝度をゲイン調整することにより、背景の輝度に影響されずに不要光の大きさを推定することが可能となる。
 不要光減算部6は、このように作成された推定フレア像Ifを撮影画像から減算する。これにより、画像処理装置2は、背景に輝度を持つ被写体が撮影された撮影画像から、適切に不要光の輝度分布のみを低減することが可能となる。
 具体的にはフレア像推定部5は、以下の式(3)、式(4)及び式(5)によって推定フレア像Ifを作成する。まず、フレアモデル輝度調整部13は、撮影画像Irにおいて、第1フレア位置の輝度であるIr(xf1,yf1)と、第2フレア位置の輝度であるIr(xf2,yf2)との差分Mrを式(3)から求める。
Figure JPOXMLDOC01-appb-M000003
 更に、フレアモデル輝度調整部13は、フレアモデル作成部11で作成されたフレアモデル画像Ifmにおいて、第1フレア位置の輝度であるIfm(xf1,yf1)と、第2フレア位置の輝度であるIfm(xf2,yf2)との差分Mfmを式(4)から求める。
Figure JPOXMLDOC01-appb-M000004
 フレアモデル輝度調整部13は、こうして求めた撮影画像Irの差分Mrと、フレアモデル画像Ifmの差分Mfmとを用いて、式(5)により推定フレア像Ifを求める。
Figure JPOXMLDOC01-appb-M000005
 不要光減算部6は、このように求められた推定フレア像Ifを、撮影画像Irから減算することにより、不要光が低減された出力画像Ioを得る。
 図25Aに、不要光が低減された、第1被写体の出力画像Ioを示す。また、図25Bに、不要光が低減された、第2被写体の出力画像Ioを示す。ここではNf=0.8に設定されている。また、図26A及び図26Bに、図25A又は図25Bの画像中心付近の画像水平方向の輝度推移を示す。図26A及び図26Bにおいて、実線が出力画像Ioの輝度推移を示し、点線が撮影画像Irの輝度推移を示す。いずれの被写体においても不要光が大幅に低減されている。
 図27A及び図27Bに、第1被写体又は第2被写体の推定フレア像Ifの輝度推移を示す。図27A及び図27Bにおいて、実線が推定フレア像Ifの輝度推移を示し、点線が撮影画像Irの輝度推移を示す。ここでは、Nfが0.8に設定されているため、推定フレア像Ifにおける第1フレア位置(xf1,yf1)の輝度と第2フレア位置(xf2,yf2)の輝度との差分が、撮影画像Irにおける差分の0.8倍となっている。
 なお、撮影画像Irに含まれる実際の不要光分布と、推定フレア像Ifの分布は、実際の光源形状と本実施の形態で光源と仮定している飽和輝度位置の形状が多少異なるため、厳密には一致しない。したがって、Nfを1.0とすると、実際の不要光分布と推定フレア像の分布が異なることによる過剰な不要光の補正が生じる領域が発生する場合がある。そのため、NfはN<1.0とすることが望ましい。撮影環境により実際の不要光分布と推定フレア像の分布の差異の大きさは異なるため、過剰補正のリスクを考慮して、Nfは0.2~0.8程度に設定されることが好ましい。つまり、フレアモデル輝度調整部13は、複数のフレア位置における推定フレア像の輝度値の差分値が、複数のフレア位置における撮影画像の輝度値の差分値の0.2倍から0.8倍の範囲となるように、フレアモデル画像の輝度をゲイン調整することが好ましい。Nfが小さくなるほど、不要光の低減効果は小さくなるが、上記の設定範囲であれば撮影画像と比較すると大幅に不要光は低減される。
 以上のように、本実施の形態における画像処理装置又は撮像装置によれば、撮影画像とフレアモデル画像において、回折格子特有の不要光が大きくなる画像位置の輝度値と、不要光が小さな画像位置の輝度値との差分を用いてフレアモデル画像のゲイン調整を行うことができるので、推定フレア像を高精度に推定することが可能となる。このように推定された推定フレア像を撮影画像から減算することにより、撮影画像の輝度が飽和しており、かつ、背景が小さな輝度を有する場合であっても、1回の撮影で得られた撮影画像から適切に不要光を低減することが可能となる。
 なお、本実施の形態では、撮影画像Irの画角45度付近の不要光低減処理についてのみ説明を行ったが、実際の画像全体の処理を行う際には、画像処理装置2は、例えば画像を正方形のブロックに分割し、ブロック毎に上述した画像処理を行えばよい。この際のブロックサイズは、高速なFFTの演算を適用できるように、例えば垂直方向及び水平方向の画素数を各64画素などの2の階乗の大きさとすれば、高速な演算が可能となる。または、フレア像推定部5は、ブロック毎に推定フレア像Ifを求め、不要光減算部6は、最後に画像全体でまとめて不要光減算処理を行ってもよい。
 このとき、画像処理装置2は、各ブロック内部ではPSFが大きく変動しないと仮定し、OTFデータFoを各ブロック毎に準備しメモリに保存しておけば、高速に画像処理の演算を行うことが可能となる。更には、輝度飽和位置検出部10は、輝度飽和位置が存在しなかったブロックでは、不要光を低減する必要がないため、不要な演算をしないようにすれば、更に高速に画像処理の演算を行うことが可能となる。
 なお、各ブロック毎でPSFが異なるため、フレア位置(xf,yf)を設定する際に用いるフレア距離Dfは、ブロック毎に、当該ブロックのPSFの円弧状フレアに対応させて設定されることは言うまでもない。フレア距離Dfは、予め撮像装置の工場出荷時点でブロック毎もしくは画像位置毎に予め設定されてもよいし、撮影の都度PSFから円弧状フレアの位置を検出して求められてもよい。
 なお、本実施の形態における撮像装置の動作を示すフローチャートは、図21の実施の形態1のフローチャートと同様であるが、フレア位置設定ステップS112とフレアモデル輝度調整ステップS113との内部処理が異なる。フレア位置設定ステップS112及びフレアモデル輝度調整ステップS113では、本実施の形態のフレア位置設定部12及びフレアモデル輝度調整部13において説明した処理が実施される。なお、フレアモデル作成ステップS111の前にフレア位置設定ステップS112が行われてもよく、また、フレアモデル作成ステップS111と、フレア位置設定ステップS112とは並列に処理されてもよい。
 なお、図25Aの本実施の形態による出力画像では、図26Aの輝度推移からもわかるように、図22Aの撮影画像と比較して大幅に不要光が低減されている。しかし、図26Aの光源の光軸側(画像の左方向)の最も不要光の大きな領域の両端では、過剰な不要光の補正により出力画像の輝度が背景よりも小さくなっている。
 これは、実際の光源(蛍光灯)の形状と、輝度飽和位置から推定した光源の形状とが異なることに起因している。被写体によっては、このように不要光の過剰な補正が発生する場合があり、出力画像に不自然な輝度分布が生じる場合がある。
 このような場合は、輝度飽和位置検出部10は、輝度飽和位置から推定される光源形状の周辺部をシュリンクし、光源画像の外形を小さくすることにより、過剰な補正を低減することができる。つまり、輝度飽和位置検出部10は、輝度飽和位置の集合として形成される光源形状の大きさを縮小することにより得られる画像を光源画像として作成する。
 図28に、図10の光源画像Isの外形を1画素ずつシュリンクした光源画像を示す。図10では光源画像の水平方向の幅が9画素であるが、図28では、光源画像の外形が1画素ずつ削除されているため、幅が7画素となっている。この光源画像を新たに光源画像Isとして用いて画像処理を行った際の出力画像Io及び出力画像Ioの中心付近の水平方向の輝度推移を図29A及び図29Bに示す。図29A及び図29Bから分かるように、光源画像をシュリンクすることにより、不要光の過剰な補正が低減され、より自然な出力画像が得られる。シュリンクする画素数はここでは1画素としたが、最適な値は撮影環境により異なるため、想定される撮影環境に応じて決めればよい。
 なお、実施の形態1と同様に、逆フーリエ変換部18は、フレアモデル画像Ifm’のうち、撮影画像Irの輝度飽和位置の輝度を0に変更することにより、輝度飽和位置では不要光の減算を行わないようにしているが、更に撮影画像Irの輝度飽和位置の全周囲の数画素の幅についても不要光の減算を行わないようにしてもよい。これは、撮影画像Irの輝度飽和位置を光源と仮定しているが、この仮定した光源形状より実際の光源形状が小さい場合があるからである。そして、このような場合には、輝度飽和位置の周辺部では、推定フレア像Ifの輝度が実際より大きくなり、不要光の低減が過剰になる場合があるためである。画像処理装置2は、撮影画像Irの輝度飽和位置の全周囲の数画素の幅(例えば1~3画素)についても不要光の減算を行わないことにより、不要光の過剰補正を回避してより自然な出力画像を得ることができる。本実施の形態においては、輝度飽和位置の全周囲の2画素の幅については不要光の減算を行わないようにしている。
 なお、実施の形態1と同様に、本実施の形態では白黒画像での不要光低減の方法を説明したが、上述した不要光低減の方法は、カラー画像にも適用できることは言うまでもない。撮影画像がカラー画像の場合は、画像処理装置2は、R(赤)・G(緑)・B(青)いずれかの色に対して推定フレア像Ifを作成し、R・G・Bの色毎の不要光の比率に応じて、その推定フレア像Ifを色毎にゲイン調整すればよい。例えば、フレア像推定部5は、Gの推定フレア像If_gを作成する。このとき、不要光の比率がR・G・Bでおよそ0.8:1.0:0.6であると予め定められている場合は、フレア像推定部5は、R及びBの推定フレア像をそれぞれ0.8*If_g及び0.6*If_gとして作成する。そして、不要光減算部6は、撮影画像IrのR・G・Bそれぞれの色の画像から、R・G・Bそれぞれの色の推定フレア像を減算すればよい。なお、フレア像推定部5は、R・G・Bの色毎に、推定フレア像を個別に求めてもよいが、この場合はR・G・Bの色毎にPSFを用意する必要があり、また、演算時間も増大する。したがって、フレア像推定部5は、上記のようにR・G・Bのうちいずれかの色の推定フレア像からR・G・Bのうちの他の色の推定フレア像を作成することにより、メモリ量の増大、あるいは演算時間の増大を抑制することができる。
 なお、図24及び図2AのPSFの取得方法については、撮像部1の光学系を用いて点光源を実際に撮影することにより円弧状の不要光を含むPSFを取得すればよい。または、光学系の構造をシミュレーションして円弧状の不要光を含むPSFを取得してもよい。
 なお、本実施の形態において、フレア位置設定部12は、2点のフレア位置(第1フレア位置及び第2フレア位置)を設定していたが、3点以上のフレア位置を設定してもよい。3点以上のフレア位置が設定された場合であっても、フレア位置設定部12は、3点以上のフレア位置における撮影画像の輝度値の差分値と、3点以上のフレア位置におけるフレアモデル画像の輝度値の差分値との比を用いて、フレアモデル画像の輝度をゲイン調整すればよい。具体的には、フレア位置設定部12は、各フレア位置間の撮影画像の輝度値の差分値の代表値(例えば、平均値又は最大値など)と、各フレア位置間のフレアモデル画像の輝度値の差分値の代表値との比を用いて、フレアモデル画像の輝度をゲイン調整すればよい。
 以上、本発明の一態様に係る画像処理装置又は撮像装置について、実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したもの、あるいは異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の範囲内に含まれる。
 例えば、上記実施の形態1及び2において、フレアモデル作成部11は、フーリエ変換部15と、OTF作成部16と、積算部17と、逆フーリエ変換部18とを有していたが、上述したように空間領域においてフレアモデル画像を作成する場合には、これらの処理部を有する必要はない。
 また、上記実施の形態1または2における画像処理装置2が備える構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。例えば、画像処理装置2は、フレア像推定部5と不要光減算部6とを有するシステムLSIから構成されてもよい。
 システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM(Read Only Memory)、RAM(Ramdom Access Memory)などを含んで構成されるコンピュータシステムである。前記ROMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
 なお、ここでは、システムLSIとしたが、集積度の違いにより、IC、LSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、あるいはLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
 さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。
 また、本発明は、このような特徴的な処理部を備える画像処理装置として実現することができるだけでなく、画像処理装置に含まれる特徴的な処理部をステップとする画像処理方法として実現することもできる。また、画像処理方法に含まれる特徴的な各ステップをコンピュータに実行させるコンピュータプログラムとして実現することもできる。そして、そのようなコンピュータプログラムを、CD-ROM(Compact Disc Read Only Memory)等のコンピュータ読取可能な非一時的な記録媒体あるいはインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。
 本発明は、デジタルスチルカメラ、デジタルビデオカメラ、携帯電話用カメラ、監視カメラ、医療用カメラ、望遠鏡、顕微鏡、車載カメラ、ステレオ測距カメラ、多眼式カメラなど、光学系により被写体像を撮影する撮像装置全般に有用である。
   1 撮像部
   2 画像処理装置
   5 フレア像推定部
   6 不要光減算部
  10 輝度飽和位置検出部
  11 フレアモデル作成部
  12 フレア位置設定部
  13 フレアモデル輝度調整部
  15 フーリエ変換部
  16 OTF作成部
  17 積算部
  18 逆フーリエ変換部
 200 光学系
 201 レンズ
 202 回折レンズ
 203 第1部材
 204 第2部材
 206 回折格子
 208 撮像素子
 209 撮像面
 210 光軸
 211 絞り
 301 回折格子
 302 回折輪帯
 305 縞状フレア光

Claims (13)

  1.  回折光学素子を含む光学系を介して撮影された撮影画像から不要光の成分を低減する画像処理装置であって、
     前記撮影画像中の明るい被写体の周辺部に発生する推定フレア像を作成するフレア像推定部と、
     前記撮影画像から、前記推定フレア像を減算する不要光減算部とを備え、
     前記フレア像推定部は、
     前記撮影画像中で輝度値が所定の値より大きな画像位置である輝度飽和位置を検出し光源画像を作成する輝度飽和位置検出部と、
     前記光源画像と前記光学系の光学特性データとに基づきフレアモデル画像を作成するフレアモデル作成部と、
     前記輝度飽和位置から撮影画像上の略光軸方向の画像位置であって前記輝度飽和位置近傍の予め定められた画像位置をフレア位置として設定するフレア位置設定部と、
     前記フレア位置における、前記撮影画像の輝度値と前記フレアモデル画像の輝度値との関係性に基づいて前記フレアモデル画像の輝度をゲイン調整することにより、前記推定フレア像を作成するフレアモデル輝度調整部とを有する
     画像処理装置。
  2.  前記フレア位置設定部は、前記フレア位置を1点設定し、
     前記フレアモデル輝度調整部は、前記フレア位置における、前記撮影画像の輝度値と前記フレアモデル画像の輝度値との比を用いて、前記フレアモデル画像の輝度をゲイン調整する
     請求項1に記載の画像処理装置。
  3.  前記フレア位置設定部は、前記輝度飽和位置に対応するPSF(Point Spread Function)において不要光が多い位置として予め定められた位置と対応する前記輝度飽和位置近傍の画像位置を前記フレア位置として設定する
     請求項2に記載の画像処理装置。
  4.  前記フレアモデル輝度調整部は、前記フレア位置における前記推定フレア像の輝度値が、前記フレア位置における前記撮影画像の輝度値の0.2倍から0.8倍の範囲となるように、前記フレアモデル画像の輝度をゲイン調整する
     請求項2又は3に記載の画像処理装置。
  5.  前記フレア位置設定部は、前記フレア位置を少なくとも2点設定し、
     前記フレアモデル輝度調整部は、前記複数のフレア位置における前記撮影画像の輝度値の差分値と、前記複数のフレア位置における前記フレアモデル画像の輝度値の差分値との比を用いて、前記フレアモデル画像の輝度をゲイン調整する
     請求項1に記載の画像処理装置。
  6.  前記フレア位置設定部は、少なくとも、前記輝度飽和位置に対応するPSF(Point Spread Function)において不要光が多い位置として予め定められた第1位置と対応する前記輝度飽和位置近傍の画像位置と、前記第1位置よりも不要光が少ない位置として予め定められた第2位置と対応する画像位置とを、前記フレア位置として設定する
     請求項5に記載の画像処理装置。
  7.  前記フレアモデル輝度調整部は、前記複数のフレア位置における前記推定フレア像の輝度値の差分値が、前記複数のフレア位置における前記撮影画像の輝度値の差分値の0.2倍から0.8倍の範囲となるように、前記フレアモデル画像の輝度をゲイン調整する
     請求項5又は6に記載の画像処理装置。
  8.  前記不要光減算部は、前記輝度飽和位置と隣接する所定の画素数幅の画像位置では、前記撮影画像から前記推定フレア像を減算しない
     請求項1~7のいずれか1項に記載の画像処理装置。
  9.  前記輝度飽和位置検出部は、前記輝度飽和位置の集合として形成される光源形状の大きさを縮小することにより得られる画像を前記光源画像として作成する
     請求項1~8のいずれか1項に記載の画像処理装置。
  10.  前記画像処理装置は、集積回路として構成されている
     請求項1~9のいずれか1項に記載の画像処理装置。
  11.  回折光学素子を含む光学系を介して撮影画像を撮影する撮像部と、
     請求項1~10のいずれか1項に記載の画像処理装置とを備える
     撮像装置。
  12.  回折光学素子を含む光学系を介して撮影された撮影画像から不要光の成分を低減する画像処理方法であって、
     前記撮影画像中の明るい被写体の周辺部に発生する推定フレア像を作成するフレア像推定ステップと、
     前記撮影画像から、前記推定フレア像を減算する不要光減算ステップとを含み、
     前記フレア像推定ステップは、
     前記撮影画像中で輝度値が所定の値より大きな画像位置である輝度飽和位置を検出し光源画像を作成する輝度飽和位置検出ステップと、
     前記光源画像と前記光学系の光学特性データとに基づきフレアモデル画像を作成するフレアモデル作成ステップと、
     前記輝度飽和位置から撮影画像上の略光軸方向の画像位置であって前記輝度飽和位置近傍の予め定められた画像位置をフレア位置として設定するフレア位置設定ステップと、
     前記フレア位置における、前記撮影画像の輝度値と前記フレアモデル画像の輝度値との関係性に基づいて前記フレアモデル画像の輝度をゲイン調整することにより、前記推定フレア像を作成するフレアモデル輝度調整ステップとを含む
     画像処理方法。
  13.  請求項12に記載の画像処理方法をコンピュータに実行させるためのプログラム。
PCT/JP2011/007184 2011-03-23 2011-12-21 画像処理装置、撮像装置及び画像処理方法 WO2012127552A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012510473A JP4995359B1 (ja) 2011-03-23 2011-12-21 画像処理装置、撮像装置及び画像処理方法
US13/519,162 US8861888B2 (en) 2011-03-23 2011-12-21 Image processing device, imaging device, and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011065039 2011-03-23
JP2011-065039 2011-03-23

Publications (1)

Publication Number Publication Date
WO2012127552A1 true WO2012127552A1 (ja) 2012-09-27

Family

ID=46878753

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/007184 WO2012127552A1 (ja) 2011-03-23 2011-12-21 画像処理装置、撮像装置及び画像処理方法

Country Status (2)

Country Link
US (1) US8861888B2 (ja)
WO (1) WO2012127552A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9785852B2 (en) * 2013-11-06 2017-10-10 Xiaomi Inc. Method, TV set and system for recognizing TV station logo
JP6341883B2 (ja) * 2014-06-27 2018-06-13 キヤノン株式会社 位置検出装置、位置検出方法、インプリント装置及び物品の製造方法
JP6231958B2 (ja) * 2014-08-20 2017-11-15 株式会社日立エルジーデータストレージ 光画像計測装置
JP6516510B2 (ja) * 2015-03-02 2019-05-22 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP6494328B2 (ja) 2015-03-02 2019-04-03 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
US11172192B2 (en) * 2018-12-27 2021-11-09 Waymo Llc Identifying defects in optical detector systems based on extent of stray light
WO2021125076A1 (ja) * 2019-12-18 2021-06-24 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、プログラム、撮像装置及び撮像システム
CN111711750B (zh) * 2020-06-05 2023-11-07 腾讯科技(深圳)有限公司 基于人工智能的图像处理方法、装置、设备及介质
CN114066785A (zh) * 2020-07-31 2022-02-18 北京小米移动软件有限公司 图像处理方法及装置、终端和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11355636A (ja) * 1998-06-10 1999-12-24 Toshiba Corp 撮像装置
JP2009141813A (ja) * 2007-12-07 2009-06-25 Panasonic Corp 撮像装置、カメラ、車両及び撮像方法
JP2009152921A (ja) * 2007-12-21 2009-07-09 Panasonic Corp フレア補正装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0609570A1 (en) 1993-01-07 1994-08-10 ALCATEL BELL Naamloze Vennootschap Randomizer and use of the same for contention resolution
JP4076242B2 (ja) 1995-12-26 2008-04-16 オリンパス株式会社 電子撮像装置
US6480300B1 (en) * 1998-04-08 2002-11-12 Fuji Photo Film Co., Ltd. Image processing apparatus, image processing method and recording medium on which software for executing the image processing is recorded
US6809838B1 (en) * 2000-10-19 2004-10-26 Eastman Kodak Company Transforms for display or printing digital images
US6912321B2 (en) * 2002-03-22 2005-06-28 Eastman Kodak Company Method of compensating a digital image for the effects of flare light
JP4250513B2 (ja) 2003-12-01 2009-04-08 キヤノン株式会社 画像処理装置及び画像処理方法
EP1528797B1 (en) 2003-10-31 2015-07-08 Canon Kabushiki Kaisha Image processing apparatus, image-taking system and image processing method
JP3944151B2 (ja) * 2003-10-31 2007-07-11 キヤノン株式会社 画像処理方法、画像処理装置および画像処理プログラム
JP4843344B2 (ja) * 2005-03-18 2011-12-21 株式会社リコー 照明装置及び画像読取装置
CN102681064A (zh) 2005-08-29 2012-09-19 松下电器产业株式会社 衍射光学元件及摄像装置
KR100735283B1 (ko) * 2005-09-29 2007-07-03 삼성전자주식회사 영상 보상 방법
US7773805B2 (en) * 2005-12-30 2010-08-10 Aptina Imaging Corporation Method and apparatus for flare cancellation for image contrast restoration
US8208043B2 (en) * 2008-05-09 2012-06-26 Aptina Imaging Corporation Lens cleaning warning system and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11355636A (ja) * 1998-06-10 1999-12-24 Toshiba Corp 撮像装置
JP2009141813A (ja) * 2007-12-07 2009-06-25 Panasonic Corp 撮像装置、カメラ、車両及び撮像方法
JP2009152921A (ja) * 2007-12-21 2009-07-09 Panasonic Corp フレア補正装置

Also Published As

Publication number Publication date
US8861888B2 (en) 2014-10-14
US20130120614A1 (en) 2013-05-16

Similar Documents

Publication Publication Date Title
WO2012127552A1 (ja) 画像処理装置、撮像装置及び画像処理方法
JP5681954B2 (ja) 撮像装置及び撮像システム
JP4377404B2 (ja) 画像向上機能を備えたカメラ
RU2716843C1 (ru) Цифровая коррекция аберраций оптической системы
JP5358039B1 (ja) 撮像装置
JP5709911B2 (ja) 画像処理方法、画像処理装置、画像処理プログラムおよび撮像装置
US8482659B2 (en) Image processing apparatus and image processing method
WO2010016625A1 (ja) 画像撮影装置およびその距離演算方法と合焦画像取得方法
JP5000030B1 (ja) 画像処理装置、撮像装置、及び画像処理方法
JP2013520854A (ja) 多開口画像データの処理
JP5344648B2 (ja) 画像処理方法、画像処理装置、撮像装置および画像処理プログラム
US20190057494A1 (en) Image processing method, image processing apparatus, imaging apparatus, and medium
JPWO2019131382A1 (ja) 撮像装置
US10326951B2 (en) Image processing apparatus, image processing method, image capturing apparatus and image processing program
JP4995359B1 (ja) 画像処理装置、撮像装置及び画像処理方法
JP6537228B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP2017050662A (ja) 画像処理装置、撮像装置および画像処理プログラム
JP2015119428A (ja) 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、および、記憶媒体
JP6486076B2 (ja) 画像処理装置および画像処理方法
JP2019068378A (ja) 高解像度撮像装置
TWI605418B (zh) 影像編輯方法以及影像處理裝置
JP2015109681A (ja) 画像処理方法、画像処理装置、画像処理プログラムおよび撮像装置
JP6221399B2 (ja) 撮像システムおよび結像光学系および撮像システムの製造方法
JP2017118293A (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP2016201601A (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2012510473

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 13519162

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11861771

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11861771

Country of ref document: EP

Kind code of ref document: A1