WO2005027043A1 - 視覚処理装置、視覚処理方法、視覚処理プログラム、集積回路、表示装置、撮影装置および携帯情報端末 - Google Patents

視覚処理装置、視覚処理方法、視覚処理プログラム、集積回路、表示装置、撮影装置および携帯情報端末 Download PDF

Info

Publication number
WO2005027043A1
WO2005027043A1 PCT/JP2004/013605 JP2004013605W WO2005027043A1 WO 2005027043 A1 WO2005027043 A1 WO 2005027043A1 JP 2004013605 W JP2004013605 W JP 2004013605W WO 2005027043 A1 WO2005027043 A1 WO 2005027043A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
visual processing
value
processing device
input
Prior art date
Application number
PCT/JP2004/013605
Other languages
English (en)
French (fr)
Inventor
Haruo Yamashita
Akio Kojima
Toshiharu Kurosawa
Yasuhiro Kuwahara
Tatsumi Watanabe
Yusuke Monobe
Takeshi Ito
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to KR1020067005003A priority Critical patent/KR101030839B1/ko
Priority to US10/571,124 priority patent/US7860339B2/en
Priority to EP04773249.0A priority patent/EP1667066B1/en
Publication of WO2005027043A1 publication Critical patent/WO2005027043A1/ja
Priority to US11/980,581 priority patent/US8165417B2/en

Links

Classifications

    • G06T5/75
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration by the use of histogram techniques
    • G06T5/90
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Definitions

  • Visual processing device visual processing method, visual processing program, integrated circuit
  • the present invention relates to a visual processing device, and more particularly to a visual processing device that performs visual processing such as spatial processing or gradation processing of an image signal. Further, the present invention relates to a visual processing method, a visual processing program, an integrated circuit, a display device, a photographing device, and a portable information terminal.
  • spatial processing and gradation processing are known. Spatial processing is to perform processing of a pixel of interest using pixels around the pixel of interest to which a filter is applied.
  • techniques for performing contrast enhancement of the original image and dynamic range (D R) compression using a spatially processed image signal are known.
  • contrast enhancement the difference between the original image and the blur signal (sharp component of the image) is added to the original image to sharpen the image.
  • DR compression a part of the blur signal is subtracted from the original image to compress the dynamic range.
  • Gradation processing is a process of converting pixel values using a look-up table (L U T) for each target pixel regardless of the surrounding pixels of the target pixel, and is sometimes called gamma correction.
  • LUT that sets the gradation of the gradation level having a high appearance frequency (large area) in the original image.
  • the LUT is determined for each of the gradation processing (histogram equalization method) that determines and uses one LUT for the entire original image, and the image area obtained by dividing the original image into multiple parts.
  • Gradation processing local histogram equalization method
  • is known for example, Japanese Patent Application Laid-Open No. 2 00 0-5 7 3 35 (page 3, FIG. 13 to FIG. 1). See Fig. 6.
  • the gradation processing for determining and using the LUT for each of the image areas obtained by dividing the original image into a plurality will be described with reference to FIGS. Fig. 104 shows a visual processing device 300 that determines and uses an LUT for each of the image regions obtained by dividing the original image into a plurality of regions.
  • the visual processing device 300 includes an image dividing unit 301 that divides an original image input as an input signal IS into a plurality of image regions Sm (1 ⁇ m ⁇ n, where n is the number of divisions of the original image), and each image region Sm.
  • the tone conversion curve deriving unit 310 includes a histogram creating unit 302 that creates a brightness histogram Hm in each image area Sm, and a tone conversion for each image area Sm from the created brightness histogram Hm.
  • a gradation curve creating unit 303 that creates a curve Cm is included.
  • the image dividing unit 301 divides the original image input as the input signal IS into a plurality (n) of image areas (see FIG. 105 (a)).
  • the histogram creation unit 302 creates a brightness histogram Hm for each image area Sm (see FIG. 10).
  • Each brightness histogram Hm shows the distribution of brightness values of all pixels in the image area Sm. That is, in the lightness histogram Hm shown in FIGS. 10 (a) to (d), the horizontal axis represents the lightness level of the input signal IS, and the vertical axis represents the number of pixels.
  • the tone curve generation unit 303 accumulates the “pixel count” of the brightness histogram Hm in the order of brightness, and sets this accumulated curve as the tone conversion curve Cm (see FIG. 107).
  • the horizontal axis indicates the brightness value of the pixel in the image area Sm in the input signal IS
  • the vertical axis indicates the brightness value of the pixel in the image area Sm in the output signal OS.
  • the gradation processing unit 304 loads the gradation conversion curve Cm and converts the brightness value of the pixel in the image area Sm in the input signal IS based on the gradation conversion curve Cm. By doing so, the gradient of the frequently occurring gradation is set in each block, and the contrast per block is improved.
  • FIG. 1 Edge enhancement and contrast enhancement using unsharp masking
  • a visual processing device 400 for performing The visual processing device 400 shown in FIG. 1 includes a spatial processing unit 4 01 that performs spatial processing on the input signal IS and outputs an unsharp signal US, and subtracts the unsharp signal US from the input signal IS to obtain a differential signal DS.
  • the subtraction unit 402 that outputs the signal and the enhancement signal 403 that performs the enhancement processing of the differential signal DS and outputs the enhancement processing signal TS, and the addition that adds the input signal IS and the strong processing signal TS and outputs the output signal OS Part 404.
  • Fig. 109 shows enhancement functions R1 to R3.
  • the horizontal axis represents the difference signal DS
  • the vertical axis represents the enhancement processing signal TS.
  • the enhancement function R1 is an enhancement function that is linear with respect to the difference signal DS.
  • the enhancement function R2 is a nonlinear J enhancement function with respect to the difference signal DS, and is a function that suppresses excessive contrast.
  • a greater suppression effect is exhibited for an input X having a large absolute value (X is the value of the differential signal DS).
  • the enhancement function R 2 is represented by a graph having a smaller slope with respect to an input X having a larger absolute value.
  • the bow tone function R 3 is a nonlinear enhancement function with respect to the difference signal DS, and suppresses a noise component with a small amplitude.
  • a greater suppression effect is exhibited for an input X having a small absolute value (X is the value of the differential signal DS).
  • the enhancement function R 3 is represented by a graph having a larger ⁇ for an input X having a larger absolute value.
  • the enhancement processing unit 403 uses any one of these enhancement functions R 1 to R 3.
  • the difference signal DS is a sharp component of the input signal IS.
  • the intensity of the difference signal DS is converted and added to the input signal IS. For this reason, the edge and contrast of the input signal IS are enhanced in the output signal OS.
  • FIG. 110 shows a visual processing device 406 that improves local contrast (intensity) (see, for example, Japanese Patent No. 2832 954 (page 2, FIG. 5)).
  • the visual processing device shown in FIG. 1 10 406,, spatial processing unit 407, subtraction unit 408, first conversion unit 409, multiplication unit 41 ⁇ , second conversion unit 41 1, and addition unit 4 1 and 2.
  • Spatial processing section 407 Unsharp signal US is output.
  • the subtracting unit 408 subtracts the unsharp signal US from the input signal IS and outputs a differential signal DS.
  • the first conversion unit 409 outputs an amplification coefficient signal GS that locally amplifies the difference signal DS based on the intensity of the unsharp signal US.
  • the multiplier 410 multiplies the difference signal DS by the amplification coefficient signal GS, and outputs a contrast enhancement signal HS obtained by locally amplifying the difference signal DS.
  • the second conversion unit 41 1 locally corrects the intensity of the unsharp signal US and outputs a corrected unsharp signal AS.
  • the adder 41 2 calculates the contrast enhancement signal HS and the corrected unsharp signal AS and outputs the output signal OS.
  • the amplification factor signal GS is a non-linear weighting factor that optimizes the contrast locally for the portion of the input signal IS where the contrast is not appropriate. For this reason, in the input signal IS, the appropriate part of the contrast is output as it is, and the inappropriate part is output as appropriate.
  • FIG. 11 shows a visual processing device 416 that performs dynamic range compression (see, for example, Japanese Patent Laid-Open No. 2001-298619 (page 3, FIG. 9) :).
  • Figure "Visual processing device shown in I 1 1 41 6 [In addition, the spatial processing unit 41 7 that performs spatial processing on the input signal IS and outputs the unsharp signal US, and inverts the unsharp signal US using the LUT It includes a LUT calculation unit 418 that outputs the converted LUT processing signal LS, and an addition unit 4 19 that adds the input signal IS and the LUT processing signal LS and outputs the output signal OS.
  • the signal processing signal! _3 is added to the input signal I S to compress the dynamic range of the low frequency component of the input signal I S (frequency component lower than the cut frequency of the spatial processing unit 417). For this reason, the high frequency component is retained while compressing the dynamic range of the input signal IS. (Disclosure of Invention)
  • an object of the present invention is to provide a visual processing device having a hardware configuration that does not depend on the visual processing to be realized.
  • the visual processing device includes input signal processing means and visual processing means.
  • the input signal processing means performs predetermined processing on the input image signal and outputs a processed signal.
  • the visual processing means converts the input image signal based on the conversion means that gives a conversion relationship between the input image signal and the processed signal and the output signal that is the visually processed image signal, and converts the output signal to Output.
  • the predetermined process is, for example, a direct or indirect process for the image signal, and includes a process for converting the pixel value of the image signal, such as a spatial process or a gradation process.
  • the visual processing device of the present invention visual processing is performed using conversion means that provides a conversion relationship between the image signal and the output signal visually processed from the processing signal.
  • the conversion means is, for example, a look-up table (LUT) that stores the value of the output signal with respect to the value of the image signal and the processed signal, or outputs the output signal with respect to the value of the image signal and the processed signal.
  • the visual processing device is the visual processing device according to claim 1, wherein the processing signal performs predetermined processing on the pixel of interest included in the image signal and the surrounding pixels of the pixel of interest. Signal.
  • the predetermined processing is, for example, spatial processing using surrounding pixels with respect to the target pixel, and processing for deriving an average value, maximum value, minimum value, etc. between the target pixel and the surrounding pixels. is there.
  • the visual processing device for example, even when visual processing is performed on the same target pixel of interest, different visual processing can be realized due to the influence of surrounding pixels.
  • the visual processing device is the visual processing device according to claim 1, wherein the conversion relationship provided by the conversion means is at least a part of the image signal or a small amount of the processing signal. At least a part of the output signal is non-linear.
  • the non-linear relationship is expressed by a non-linear function in which at least part of the value of the output signal is a variable whose value is at least part of the image signal or at least part of the processed signal. This means that it is difficult to formulate with functions.
  • the visual processing device of the present invention for example, it is possible to realize visual processing that matches the visual characteristics of the image signal or visual processing that matches the nonlinear characteristics of the device that outputs the output signal.
  • the visual processing device is the visual processing device according to claim 3, wherein the conversion relationship given by the conversion means is such that both the image signal and the processing signal and the output signal are nonlinear. is there.
  • both the image signal and the processed signal and the output signal are in a non-linear relationship.
  • the value of the output signal is a non-linear relationship in which the value of the image signal and the value of the processed signal are two variables. It means that it is expressed as a function, or is difficult to formulate with a function.
  • the visual processing device of the present invention for example (even if the value of the image signal is the same, if the value of the processing signal is different, it is possible to realize different visual processing depending on the value of the processing signal. It becomes.
  • the visual processing device is the visual processing device according to any one of claims 1 to 4, wherein the conversion relationship given by the conversion means is a value calculated from the image signal and the processing signal. It is determined based on the calculation to be emphasized.
  • the value calculated from the image signal and the processed signal is, for example, a value obtained by four arithmetic operations of the image signal and the processed signal, or a value obtained by converting the image signal or the processed signal with a certain function. It is a value obtained by doing.
  • Examples of computations that emphasize are computations that adjust gain, computations that suppress excessive contrast, and computations that suppress noise components with small amplitudes.
  • the visual processing device of the present invention it is possible to emphasize the value calculated from the image signal and the processed signal.
  • the visual processing device is the visual processing device according to claim 5,
  • the emphasized operation is a non-linear function.
  • the visual processing device of the present invention for example, it is possible to realize enhancement that matches the visual characteristics of the image signal, or enhancement that matches the spring characteristics of the device that outputs the output signal.
  • the visual processing device is the visual processing device according to claim 5 or 6, wherein the operation to be emphasized is a conversion using a value obtained by converting an image signal or a processing signal.
  • the visual processing device is the visual processing device according to any one of claims 5 to 7, wherein the emphasis calculation is an enhancement function that emphasizes a difference between respective conversion values obtained by converting the image signal and the processing signal. is there.
  • the enhancement function is, for example, a function that adjusts the gain, a function that suppresses excessive contrast, a function that suppresses small amplitude noise components, and the like.
  • the visual processing device of the present invention it is possible to emphasize the difference between the image signal and the processing signal after converting them into different spaces. As a result, for example, it is possible to realize enhancement corresponding to visual characteristics.
  • the visual processing device is the visual processing device according to any one of claims 5 to 8, wherein the enhancement operation is an enhancement function that enhances a ratio between the image signal and the processed signal.
  • the ratio between the image signal and the processed signal represents the sharp component of the image signal. For this reason, for example, visual processing that emphasizes the sharp component can be performed.
  • the visual processing device is the visual processing device according to claim 1 or 2, wherein the conversion relationship given by the conversion means is determined based on conversion that changes brightness.
  • the visual processing device is the visual processing device according to claim 10, wherein the conversion for changing the brightness is a conversion for changing the level or gain of the image signal.
  • changing the level of the image signal means, for example, applying an offset to the image signal, changing the gain of the image signal, or performing other calculations using the image signal as a variable. Means changing the value of.
  • Changing the gain of the image signal means changing the coefficient multiplied by the image signal.
  • the visual processing device is the visual processing device according to claim 10, wherein the conversion for changing the brightness is a conversion determined based on the processing signal.
  • the visual processing device of the present invention for example, even if the value of the surface image signal is the same, if the value of the processing signal is different, different conversions can be realized according to the value of the processing signal. Become.
  • the visual processing device is the visual processing device according to claim 10, wherein the conversion for changing the brightness is a conversion for outputting an output signal that monotonously decreases with respect to the processing signal.
  • the processing signal is a spatially processed image signal
  • a dark and large area in the image is converted to a bright area
  • a bright and large area in the image is converted. Is converted to dark. For this reason, for example, it is possible to correct backlight correction or whiteout.
  • the visual processing device is the visual processing device according to any one of claims 1 to 13, wherein the conversion means converts the relationship between the image signal and the output signal into a plurality of gradations. Stored as a tone conversion curve group consisting of conversion curves.
  • the gradation conversion curve group is a set of gradation conversion curves for applying gradation processing to pixel values such as luminance and brightness of an image signal.
  • the visual processing device of the present invention it is possible to perform gradation processing of an image signal using a gradation conversion curve selected from a plurality of gradation conversion curves. This makes it possible to perform more appropriate gradation processing.
  • the visual processing device is the visual processing device according to claim 14, wherein the processing signal selects a plurality of gradation conversion curve group forces and corresponding gradation conversion curves. Signal.
  • the processing signal is a signal for selecting a gradation conversion curve, for example, empty This is an inter-processed image signal or the like.
  • the visual processing device of the present invention it is possible to perform gradation processing of an image signal using the gradation conversion curve selected by the processing signal.
  • the visual processing device is the visual processing device according to claim 15, wherein the value of the processing signal includes at least one gradation conversion curve included in a plurality of gradation conversion curves. Is associated.
  • At least one gradation conversion curve used for gradation processing is selected according to the value of the processing signal.
  • At least one gradation conversion curve is selected according to the value of the processing signal. Furthermore, the gradation processing of the image signal is performed using the selected gradation conversion curve.
  • the visual processing device is the visual processing device according to any one of claims 1 to 16, wherein the conversion means includes a norec-up table (hereinafter referred to as LUT), and the LUT In the field, profile data created in advance by a predetermined calculation is registered.
  • LUT norec-up table
  • visual processing power is performed using LUT in which profile data created in advance is registered.
  • processing such as creating profile data is not necessary, and the execution speed of visual processing can be increased.
  • the visual processing device according to claim 18 is the visual processing device according to claim 17, wherein L U T can be changed by registration of profile data.
  • profile data is LUT data that realizes different visual processing.
  • the visual processing to be realized can be variously changed by registering profile data. That is, various visual processing can be realized without changing the hardware configuration of the visual processing device.
  • the visual processing device according to claim 19 is the visual processing device according to claim 17 or 18, further comprising profile data registration means for causing the visual processing means to register profile data.
  • the profile data registration means registers the pre-calculated profile data in the visual processing means according to the visual processing.
  • the visual processing to be realized can be variously changed by registering profile data. That is, various visual processing can be realized without changing the hardware configuration of the visual processing device.
  • the visual processing device according to claim 20 is the visual processing device according to claim 19, wherein the visual processing means obtains profile data created by an external device.
  • Profile data is created in advance by an external device.
  • An external device is, for example, a computer having a program and CPU that can create profile data.
  • the visual processing means acquires profile data. Acquisition is performed, for example, via a network or a recording medium.
  • the visual processing means executes visual processing using the acquired profile data. In the visual processing device of the present invention, visual processing can be executed using profile data created by an external device.
  • the visual processing device according to claim 21 is the visual processing device according to claim 20, wherein the LUT can be changed by the acquired profile data.
  • the acquired profile data is newly registered as LUT. This makes it possible to change LUT and realize different visual processing.
  • the visual processing device is the visual processing device according to claim 20 or 21, wherein the visual processing means acquires profile data via a communication network.
  • the communication network is, for example, a connection means capable of communication such as a dedicated line, a public line, the Internet, and L A N, which may be wired or wireless.
  • visual processing can be realized using profile data acquired via a communication network.
  • the visual processing device is the visual processing device according to claim 17, further comprising profile data creating means for creating profile data.
  • the profile data creation means creates profile data using characteristics such as image signals and processing signals.
  • visual processing can be realized using the profile file data created by the profile data creation means.
  • the visual processing device is the visual processing device according to claim 23, wherein the profile data creation means creates profile data based on a histogram of gradation characteristics of an image signal. .
  • visual processing is realized using profile data created based on a histogram of gradation characteristics of an image signal. Therefore, it is possible to realize appropriate visual processing according to the characteristics of the image signal.
  • the visual processing device is the visual processing device according to claim 17, wherein the profile data registered in LUT is switched according to a predetermined condition.
  • visual processing is realized by using profile data switched according to a predetermined condition. This makes it possible to achieve more appropriate visual processing.
  • the visual processing device is the visual processing device according to claim 25, wherein the predetermined condition is a condition relating to brightness.
  • the visual processing device of the present invention it is possible to realize more appropriate visual processing under the conditions of brightness.
  • the visual processing device according to claim 27 is the visual processing device according to claim 26, wherein the brightness is the brightness of the image signal.
  • the visual processing device of the present invention it is possible to realize more appropriate visual processing under the conditions relating to the brightness of the image signal.
  • the visual processing device is the visual processing device according to claim 27, further comprising lightness semi-U determining means for determining the brightness of the image signal.
  • the profile data registered in UT is switched according to the judgment result of the lightness half IJ determination method.
  • the lightness determination means is based on pixel values such as brightness and lightness of the image signal, for example.
  • the brightness of the image signal is determined.
  • the profile data can be switched according to the judgment result.
  • the visual processing device is the visual processing device according to claim 26, further comprising lightness input means for inputting a condition relating to brightness.
  • the profile data registered in LUT is switched according to the input result of the brightness input means.
  • the brightness input means is, for example, a switch connected by wire or wireless that allows the user to input a condition related to brightness.
  • the visual processing device of the present invention it is possible for the user to determine the condition relating to the brightness and to switch the profile data via the brightness input means. For this reason, it is possible to realize visual processing appropriate for the user.
  • the visual processing device is the visual processing device according to claim 29, wherein the brightness input means is the brightness of the output environment of the output signal or the brightness of the input environment of the input signal. To input.
  • the brightness of the output environment is, for example, the brightness of the ambient light around the medium that outputs the output signal, such as a computer, a TV, a digital power camera, a mobile phone, or a PDA, or the medium that outputs the output signal, such as printer paper.
  • the brightness of the input environment is, for example, the brightness of the medium itself that receives input signals such as scanner paper.
  • the visual processing device of the present invention for example, it is possible for the user to determine conditions relating to room brightness and the like, and to switch profile data via the brightness input means. This makes it possible to achieve visual processing that is more appropriate for Reuser.
  • the visual processing device is the visual processing device according to claim 26, further comprising lightness detection means for detecting at least two types of brightness.
  • the profile data registered in the LUT is switched according to the detection result of the brightness detection means.
  • the brightness detection means is, for example, a means for detecting the brightness of an image signal based on pixel values such as brightness and brightness of the image signal, a brightness of an output environment such as a photosensor or the brightness of the input environment. And a means for detecting a condition relating to brightness input by the user.
  • the brightness of the output environment is, for example, the brightness of the ambient light around the medium that outputs the output signal, such as a computer, a TV, a digital camera, a mobile phone, or a PDA, or the medium that outputs the output signal, such as printer paper.
  • the brightness of the input environment is, for example, the brightness of the medium itself that receives input signals such as scanner paper.
  • the visual processing device of the present invention at least two types of brightness are detected, and profile data is switched accordingly. This makes it possible to achieve more appropriate visual processing.
  • the visual processing device is the visual processing device according to claim 31, wherein the brightness detected by the brightness detection means is the brightness of the image signal and the brightness of the output environment of the output signal. Or the brightness of the input environment of the input signal.
  • more appropriate visual processing can be realized according to the brightness of the image signal and the brightness of the output environment of the output signal or the brightness of the input environment of the input signal. .
  • the visual processing device is the visual processing device according to claim 25, further comprising profile data selection means for selecting profile data registered in LUT.
  • the profile data registered in the LUT is switched according to the selection result of the profile data selection means.
  • the profile data selection means allows the user to select profile data.
  • the visual processing device implements visual processing using the selected profile data.
  • the user can select a profile according to his / her preference to realize visual processing.
  • the visual processing device according to claim 34 is the visual processing device according to claim 33, and the profile data selection means is an input device for selecting a profile.
  • the input device is, for example, a switch built in the visual processing device or connected by wire or wireless.
  • a user or an input device can be used to select a desired profile.
  • the visual processing device is the visual processing device according to claim 25, further comprising image characteristic judging means for judging the image characteristic of the image signal.
  • the profile data registered in LUT is switched according to the determination result of the image characteristic determination means.
  • the image characteristic determining means determines image characteristics such as luminance, brightness, or spatial frequency of the image signal.
  • the visual processing device implements visual processing using the profile data switched according to the determination result of the image characteristic determination means.
  • the image characteristic judging means automatically selects the profile data corresponding to the image characteristic. Therefore, visual processing can be realized using more appropriate profile data for the image signal.
  • the visual processing device is the visual processing device according to claim 25, further comprising user identification means for identifying a user.
  • the profile data registered in LUT is switched according to the identification result of the user identification means.
  • the user identification means is, for example, an input device for identifying the user or a camera.
  • visual processing suitable for the user identified by the user identifying means can be realized.
  • the visual processing device is the visual processing device according to claim 17, wherein the visual processing means performs an interpolation operation on a value stored in LUT and outputs an output signal.
  • LUT stores a value for the resolution of the image signal at a predetermined interval or the value of the processing signal. By interpolating the LUT value corresponding to the interval containing the input image signal value or processed signal value, the output signal value for the input image signal value or processed signal value is output. .
  • the visual processing device is the visual processing device according to claim 37, wherein the interpolation operation is an image signal represented by a binary number or at least one lower bit of the processing signal. Linear interpolation based on the value of ⁇ .
  • the LUT stores a value corresponding to the value of the upper bit of the image signal or processing signal.
  • the visual processing means linearly complements the LUT value corresponding to the interval including the input image signal or processing signal value with the value of the lower bit of the image signal or processing signal, and outputs the output signal. Output.
  • the visual processing device of the present invention it is possible to realize more accurate visual processing while storing LUT with a smaller storage capacity.
  • the visual processing device is the visual processing device according to any one of claims 1 to 38, wherein the input signal processing means performs spatial processing on the image signal.
  • the input signal processing means performs spatial processing on the image signal.
  • the visual processing device is the visual processing device according to claim 39, wherein the input signal processing means generates an unsharp signal from the image signal.
  • the unsharp signal means a signal obtained by performing spatial processing directly or indirectly on the image signal.
  • the visual processing device of the present invention it is possible to realize visual processing by L U T using an image signal and an unsharp signal.
  • the visual processing device is the visual processing device according to claim 39 or 40, wherein an average value, a maximum value, or a minimum value of the image signal is derived in the spatial processing.
  • the average value may be, for example, a simple average of image signals or a weighted average.
  • visual processing can be realized by L U L using the image signal and the average value, maximum value, or minimum value of the image signal.
  • the visual processing device is the visual processing device according to any one of claims 1 to 41, wherein the visual processing means uses the input image signal and processing signal, Spatial processing and gradation processing are performed.
  • the visual processing method includes an input signal processing step and a visual processing step.
  • the input signal processing step performs predetermined processing on the input image signal and outputs a processed signal.
  • the visual processing step converts the input image signal and outputs the output signal based on a conversion means that gives a relationship between the input image signal and the processed signal and the output signal that is the visually processed image signal. To do.
  • the predetermined process is, for example, a direct or indirect process for the image signal, and includes a process for converting the pixel value of the image signal, such as a spatial process or a gradation process.
  • visual processing is performed using conversion means that provides a conversion relationship between the image signal and the processed signal and the visually processed output signal.
  • conversion means that provides a conversion relationship between the image signal and the processed signal and the visually processed output signal.
  • the visual processing program according to claim 44 is a visual processing program for performing a visual processing method by a computer, and causes a computer to perform a visual processing method including an input signal processing step and a visual processing step. is there.
  • the input signal processing step performs predetermined processing on the input image signal and outputs a processed signal.
  • the visual processing step converts the input image signal based on a conversion means that gives a relationship between the input image signal and the processed signal and the output signal that is the visually processed image signal. Output.
  • the predetermined processing is, for example, direct or indirect processing for the image signal, and includes processing for converting the pixel value of the image signal, such as spatial processing or gradation processing.
  • visual processing is performed using conversion means that provides a conversion relationship between the image signal and the processed signal and the visually processed output signal.
  • conversion means that provides a conversion relationship between the image signal and the processed signal and the visually processed output signal.
  • the integrated circuit according to claim 45 includes the visual processing device according to any one of claims 1 to 42.
  • a display device includes the visual processing device according to any one of claims 1 to 42 and display means for displaying an output signal output from the visual processing device.
  • the imaging device wherein the image processing unit performs visual processing using an image unit that captures an image and an image captured by the imaging unit as an image signal. And a processing device.
  • the portable information terminal is a data receiving means for receiving communication or broadcast image data, and performs visual processing using the received image data as an image signal. And a display means for displaying an image signal visually processed by the visual processing device.
  • the portable information terminal shoots an image using a recording means and performs visual processing using the image taken by the photographing means as an image signal.
  • a visual processing device and data transmission means for transmitting the visually processed image signal are provided.
  • the portable information terminal of the present invention it is possible to obtain the same effect as the visual processing device according to any one of claims 1 to 42.
  • the visual processing device of the present invention it is possible to provide a visual processing device having a hardware configuration that does not depend on the realized visual processing.
  • FIG. 1 is a block diagram (first embodiment) for explaining the structure of the visual processing device 1.
  • FIG. 2 is an example of profile data (first embodiment).
  • FIG. 3 is a flowchart illustrating the visual processing method (first embodiment).
  • FIG. 4 is a block diagram (first embodiment) illustrating the structure of the visual processing unit 500.
  • FIG. 5 is an example of profile data (first embodiment).
  • FIG. 6 is a block diagram (first embodiment) for explaining the structure of the visual processing device 5 20.
  • FIG. 7 is a block diagram (first embodiment) for explaining the structure of the visual processing device 5 25.
  • FIG. 8 is a block diagram (first embodiment) for explaining the structure of the visual processing device 5 30.
  • FIG. 9 is a block diagram (first embodiment) for explaining the refinement of the profile data registration device 70 1.
  • FIG. 10 is a flowchart (first embodiment) for explaining the visual processing profile creation method.
  • FIG. 11 is a block diagram (first embodiment) for explaining the structure of the visual processing device 91.
  • FIG. 12 is a graph (first embodiment) showing the relationship between the input signal I S ′ and the output signal O S ′ when the change degree function f k (z) is changed.
  • FIG. 13 is a graph (first embodiment) showing the degree-of-change functions f l (z) and f 2 (z).
  • FIG. 15 is a block diagram (first embodiment) for explaining the structure of the visual processing device 11.
  • FIG. 16 is a block diagram (first embodiment) for explaining the structure of the visual processing device 21.
  • FIG. 17 is an explanatory diagram (first embodiment) for explaining two dynamic range compression functions F 4 i.
  • FIG. 18 is an explanatory diagram for explaining the enhancement function F 5 (first embodiment).
  • FIG. 19 is a block diagram for explaining the structure of the visual processing device 31 (first embodiment).
  • FIG. 20 is a block diagram illustrating the structure of the visual processing device 41 (first embodiment).
  • FIG. 21 is a block diagram for explaining the structure of the visual processing device 51 (first embodiment).
  • FIG. 22 is a block diagram (first embodiment) for explaining the structure of the visual processing device 61.
  • FIG. 23 is a block diagram for explaining the structure of the visual processing device 71 (first embodiment).
  • FIG. 24 is a block diagram for explaining the structure of the visual processing device 600 (second embodiment).
  • FIG. 25 is a graph (second embodiment) for explaining the conversion by the equation M 20.
  • FIG. 26 is a graph (second embodiment) for explaining conversion by the equation M 2.
  • FIG. 27 is a graph (second embodiment) for explaining the conversion by the equation M 2 1.
  • FIG. 28 is a flowchart for explaining the visual processing method (second embodiment).
  • FIG. 29 is a graph showing the tendency of the function QM (A) (second embodiment).
  • FIG. 30 is a graph showing the tendency of the function QT 2 (A) (second embodiment).
  • FIG. 31 is a graph (second embodiment) showing the tendency of the function QT 3 (A).
  • FIG. 32 is a graph (second embodiment) showing the tendency of the function or 4 (A, B).
  • Fig. 3 3 is a block diagram for explaining the structure of the actual contrast setting section 6 0 5 as a modified example.
  • FIG. 34 is a block diagram (second embodiment) for explaining the structure of the actual contrast setting unit 605 as a modified example.
  • FIG. 35 is a flowchart (second embodiment) for explaining the operation of the control unit 60 05 e.
  • FIG. 36 is a block diagram (second embodiment) for explaining the structure of a visual processing device 600 including the color difference correction processing unit 60 8.
  • FIG. 37 is an explanatory diagram for explaining the outline of the color difference correction process (second embodiment).
  • FIG. 38 is a flowchart illustrating the estimation calculation in the color difference correction processing unit 60 8 (second embodiment).
  • FIG. 39 is a block diagram (second embodiment) for explaining the structure of a visual processing device 600 as a modified example.
  • FIG. 40 is a block diagram (third embodiment) for explaining the structure of the visual processing device 9 10.
  • FIG. 41 is a block diagram for explaining the structure of the visual processing device 9 20 (third embodiment).
  • FIG. 42 is a block diagram (third embodiment) for explaining the structure of the visual processing device 9 2 0 ′.
  • FIG. 43 is a block diagram (third embodiment) for explaining the structure of the visual processing device 9 20 ′′.
  • FIG. 44 is a block diagram for explaining the structure of the visual processing device 101 (fourth embodiment).
  • FIG. 45 is an explanatory diagram for explaining the image region P m (fourth embodiment).
  • FIG. 46 is an explanatory diagram (fourth embodiment) for explaining the brightness histogram H m.
  • FIG. 47 is an explanatory diagram for explaining the gradation conversion curve C m (fourth embodiment).
  • FIG. 48 is a flowchart for explaining the visual processing method (fourth embodiment).
  • FIG. 49 is a block diagram (fifth embodiment) for explaining the structure of the visual processing device 1 1 1.
  • FIG. 50 is an explanatory diagram (fifth embodiment) for explaining the gradation conversion curve candidates GM to Gp.
  • FIG. 51 is an explanatory diagram (fifth embodiment) for explaining the two-dimensional LUT 1441.
  • FIG. 52 is an explanatory diagram (fifth embodiment) for explaining the operation of the gradation correction unit 115.
  • FIG. 53 is a flowchart (fifth embodiment) for explaining the visual processing method.
  • FIG. 54 is an explanatory diagram (fifth embodiment) for explaining a modification of the selection of the gradation conversion curve Cm.
  • FIG. 55 is an explanatory diagram (fifth embodiment) for explaining gradation processing as a modification.
  • FIG. 56 is a block diagram (fifth embodiment) for explaining the structure of the gradation processing execution unit 144.
  • FIG. 57 is an explanatory diagram (fifth embodiment) for explaining the relationship between the curve parameters P 1 and P 2 and the tone conversion curve candidates Gil to Gp.
  • FIG. 58 is an explanatory diagram (fifth embodiment) for explaining the relationship between the curve parameters P 1 and P 2 and the selection signal Sm.
  • FIG. 59 is an explanatory diagram (fifth embodiment) for explaining the relationship between the curve parameters P 1 and P 2 and the selection signal Sm.
  • FIG. 60 is an explanatory diagram (fifth embodiment) for explaining the relationship between the curve parameters P 1 and P 2 and the tone conversion curve candidates G 1 to G p.
  • FIG. 61 is an explanatory diagram (fifth embodiment) for explaining the relationship between the curve parameters P 1 and P 2 and the selection signal Sm.
  • FIG. 62 is a block diagram (sixth embodiment) for explaining the structure of the visual processing device 121. 3 ⁇ 4) o
  • FIG. 63 is an explanatory diagram (sixth embodiment) for explaining the operation of the selection signal correction unit 124.
  • FIG. 64 is a flowchart for explaining a visual processing method (sixth embodiment). The
  • FIG. 65 is a block diagram (seventh embodiment) for explaining the structure of the visual processing device 16 1.
  • FIG. 66 is an explanatory diagram (seventh embodiment) for explaining the spatial processing of the spatial processing unit 162.
  • FIG. 67 is a table (seventh embodiment) for explaining the weighting coefficient [W i j].
  • FIG. 68 is an explanatory diagram (seventh embodiment) for explaining the effect of the visual processing by the visual processing device 1 61.
  • FIG. 69 is a block diagram (seventh embodiment) for explaining the structure of the visual processing device 96 1.
  • FIG. 70 is an explanatory diagram (seventh embodiment) for explaining the spatial processing of the spatial processing unit 962.
  • FIG. 71 is a table (seventh embodiment) for explaining the weighting coefficient [W i ⁇ ].
  • FIG. 72 is a block diagram (ninth embodiment) for explaining the overall configuration of the content supply system.
  • FIG. 73 is an example (9th embodiment) of a mobile phone equipped with the visual processing device of the present invention.
  • FIG. 74 is a block HI (9th embodiment) for explaining the configuration of a mobile phone.
  • FIG. 75 is an example of a digital broadcasting system (9th embodiment).
  • FIG. 76 is a block IU (first embodiment) illustrating the structure of the display device 70.
  • FIG. 77 is a block diagram for explaining the structure of the image processing device 7 23 (first embodiment).
  • FIG. 78 is a block diagram (first embodiment) for explaining the structure of the profile information output unit 7 47.
  • FIG. 79 is a block diagram for explaining the structure of the color visual processing device 7 45 (first embodiment).
  • FIG. 80 is a block diagram for explaining the structure of the visual processing device 75 3 (first embodiment). It is.
  • FIG. 81 is an explanatory diagram for explaining the operation of the visual processing device 75 3 as a modification (first embodiment).
  • FIG. 82 is a block diagram (10th embodiment) for explaining the structure of the visual processing device 75 3 a.
  • FIG. 83 is a block diagram (10th embodiment) for explaining the structure of the visual processing device 753b.
  • Fig. 8 4 is a block diagram for explaining the structure of the visual processing device 7 5 3 c (first embodiment)
  • FIG. 85 is a block diagram (first embodiment) for explaining the structure of the image processing device 7 70.
  • FIG. 86 is a block diagram for explaining the structure of the user input unit 7 72 (first embodiment).
  • FIG. 87 is a block diagram for explaining the structure of the image processing apparatus 800 (first embodiment).
  • FIG. 88 is an example of the format ⁇ ⁇ of the input image signal d 3 62 (first embodiment).
  • FIG. 89 is a block diagram (first embodiment) illustrating the structure of the attribute determination unit 80 2.
  • FIG. 90 is an example of the format ⁇ of the input image signal d 3 62 (first embodiment).
  • FIG. 91 shows an example of the format ⁇ ⁇ of the input image signal d 3 62 (first embodiment).
  • FIG. 92 shows an example of the format ⁇ ⁇ of the input image signal d 3 62 (first embodiment).
  • FIG. 93 is an example of the format ⁇ of the input image signal d 3 62 (first embodiment).
  • FIG. 94 is an example of the format ⁇ of the input image signal d 3 62 (first embodiment).
  • FIG. 95 is a block diagram (first embodiment) for explaining the structure of the imaging device 8 20.
  • FIG. 96 is a block diagram (first embodiment) illustrating the structure of the image processing device 8 32.
  • FIG. 97 is a block diagram (first embodiment) for explaining the structure of the image processing device 8 86.
  • FIG. 98 is an example of the format of the output image signal d 3 61 (first embodiment).
  • FIG. 99 is a block IU (first embodiment) illustrating the structure of the image processing device 8 94.
  • FIG. 100 is a block diagram illustrating the structure of an image processing device 8 96 (first embodiment)
  • FIG. 10 is a block diagram for explaining the structure of an image processing apparatus 8 98 (first embodiment)
  • FIG. 10 is a block diagram for explaining the structure of the image processing device 8 70 (first embodiment)
  • FIG. 103 is an explanatory diagram (first embodiment) for explaining the operation of the image processing apparatus 8700.
  • FIG. 10 is a block diagram (background art) for explaining the structure of the visual processing device 300.
  • FIG. 10 is a block diagram (background art) for explaining the structure of the visual processing device 300.
  • FIG. 10 is an explanatory diagram (background art) for explaining the image area S m.
  • FIG. 10 is an explanatory diagram (background art) explaining the brightness histogram H m.
  • FIG. 10 is an explanatory diagram (background art) explaining the gradation conversion curve C m.
  • FIG. 10 is a block diagram (background art) for explaining the structure of a visual processing device 400 using unsharp masking.
  • FIG. 10 is an explanatory diagram (background art) for explaining the enhancement functions R 1 to R 3.
  • FIG. 10 is a block diagram (background art) for explaining the structure of the visual processing device 4 ⁇ 06 that improves the local contrast.
  • Figure 11 is a block diagram (background art) that explains the structure of a visual processing device 4 16 that performs dynamic range compression.
  • first to first embodiments as the best mode of the present invention will be described.
  • a visual processing device using two-dimensional LUT will be described.
  • a visual processing device that corrects ambient light when ambient light is present in the environment for displaying an image will be described.
  • a visual processing device 1 using a two-dimensional LUT as a first embodiment of the present invention will be described with reference to FIGS.
  • a modification of the visual processing device will be described with reference to FIGS.
  • a visual processing device that realizes visual processing equivalent to the visual processing device 1 will be described with reference to FIGS.
  • the visual processing device 1 is a device that performs visual processing such as spatial processing and gradation processing of image signals.
  • the visual processing device 1 constitutes an image processing device together with a device that performs color processing of an image signal in a device that handles images such as a computer, a television, a digital camera, a mobile phone, a PDA, a printer, and a scanner.
  • a device that handles images such as a computer, a television, a digital camera, a mobile phone, a PDA, a printer, and a scanner.
  • Figure 1 shows the basic configuration of the visual processing device 1 that performs visual processing on the image signal (input signal IS) and outputs a visually processed image (output signal OS).
  • the visual processing device 1 performs spatial processing on the luminance value of each pixel of the original image acquired as the input signal IS and outputs an unsharp signal US, and the input signal IS and unsharp for the same pixel.
  • a visual processing unit 3 that performs visual processing of the original image using the signal US and outputs an output signal OS is provided.
  • the spatial processing unit 2 obtains the unsharp signal US using, for example, a low-pass spatial filter that passes only the low-pass space of the input signal IS.
  • Low-pass spatial filters include FIR (Finite Impulse Re spones) type low-pass spatial filters or IIR (lnfinite I mp ulse Re spones) type low-pass spatial filters that are commonly used to generate unsharp signals. May be used.
  • the visual processing unit 3 has a two-dimensional LUT 4 that gives the relationship between the input signal IS and the unsharp signal US and the output signal OS, and the two-dimensional LUT 4 is applied to the input signal IS and the unsharp signal US. Refer to output signal OS.
  • Matrix data called profile data is registered in the 2D LUT4.
  • the profile data has a row (or column) corresponding to each pixel value of the input signal IS and a column (or row) corresponding to each pixel value of the unsharp signal US.
  • the pixel value of the output signal OS corresponding to the combination of the input signal IS and the unsharp signal US is stored.
  • the profile data is registered in the two-dimensional LUT 4 by the profile data registration device 8 built in or connected to the visual processing device 1.
  • the profile data registration device 8 stores a plurality of profile data created in advance by a personal computer (PC) or the like.
  • a plurality of profile data that realizes contrast enhancement, D-range compression processing, or gradation correction (for details, see ⁇ Profile Data> below) is stored.
  • the visual processing device 1 uses the profile data registration device 8 to provide a profile for the 2D LUT 4. It is possible to implement various visual processing by changing the registered contents of the data.
  • An example of profile data is shown in Figure 2.
  • the profile data shown in FIG. 2 is profile data for causing the visual processing device 1 to realize processing equivalent to the visual processing device 400 shown in FIG. In Fig. 2, the profile data is expressed in a 64X64 matrix format.
  • the upper 6 bits of the luminance value of the input signal IS expressed in 8 bits are displayed in the row direction ( In the horizontal direction, the value of the upper 6 bits of the luminance value of the unsharp signal US expressed in 8 bits is shown.
  • the value of the output signal OS is indicated by 8 bits as a matrix element for two luminance values.
  • the value C obtained by Equation M11 may be a negative value.
  • the value of the profile data element corresponding to the value A of the input signal IS and the value B of the unsharp signal US may be 0.
  • the value C obtained by Equation M11 may be saturated. In other words, the maximum value of 255 that can be expressed in 8 bits may be exceeded.
  • the element of profile data corresponding to the value A of the input signal IS and the value B of the unsharp signal US may be the value 255. In FIG.
  • each element of the profile data obtained in this way is displayed in contour lines.
  • the function R5 is an amplification factor from the unsharp signal US in the first conversion unit 409.
  • the function R 6 is a function for outputting the signal GS, and the function R 6 is a function for outputting the corrected unsharp signal AS from the unsharp signal US in the second conversion unit 4 11.
  • the visual processing device 4 1 shown in Fig. 11 1 1 It is possible to realize processing equivalent to 6.
  • the function R 8 is a function for outputting the L U T processing signal L S from the unsharp signal U S.
  • FIG. 3 shows a flowchart for explaining the visual processing method in the visual processing device 1.
  • the visual processing method shown in FIG. 3 is realized by hardware in the visual processing device 1 and performs visual processing of the input signal I S (see FIG. 1).
  • the input signal I S is spatially processed by a low-pass spatial filter (step S I 1), and an unsharp signal U S is acquired. Further, the value of the two-dimensional LUT 4 with respect to the input signal IS and the unsharp signal US is referred to, and the output signal OS is output (step S12). The above processing is performed for each pixel input as the input signal IS.
  • Each step of the visual processing method shown in FIG. 3 may be realized as a visual processing program by a computer or the like.
  • the same density pixel exists at different locations in the image.
  • Brightness conversion is performed. More specifically, when the dark background of the person in the image is brightened, the hair of the person with the same density also becomes brighter.
  • the visual processing device 1 uses the value A of the input signal IS and the unsharp signal. Profile data created based on 2D function corresponding to US value B Visual processing is performed using the data. For this reason, pixels of the same density that exist in different locations in the image can be brightened or darkened, including the surrounding information, instead of being converted uniformly, making it ideal for each region in the image. Brightness can be adjusted. More specifically, the background of the same density can be brightened without changing the density of the human hair in the image.
  • the visual processing device 1 uses 2D LUT 4 to perform visual processing of the input signal IS.
  • the visual processing device 1 does not depend on the visual processing effect to be realized, and has a hardware configuration.
  • the visual processing device 1 can be configured with general-purpose / wordware, which is effective in reducing hardware costs.
  • Profile data registered in the 2D L U 4 can be changed by the profile data registration device 8. For this reason, various visual processing can be realized by changing the profile data in the visual processing device 1 (or without changing the hard-duty configuration of the visual processing device 1. In addition, the visual processing device 1 can realize spatial processing and gradation processing at the same time.
  • the registered profile data of 2D L U ⁇ 4 can be calculated in advance 7b. Once the profile data is created, it takes a long time to perform visual processing using it, even if it achieves complicated processing. For this reason, even if it is configured with hardware or software, even if it is a visual processing with a complicated configuration, if the visual processing device 1 is used, the processing time is reduced due to the complexity of the visual processing. It is possible to speed up visual processing without depending on it.
  • the 6 4 X 6 4 matrix profile data has been described.
  • the effect of the present invention does not depend on the size of the profile data.
  • 2D LUT 4 can have profile data for all combinations of values that the input signal IS and unsharp signal US can take. It is.
  • the profile data may be in a 256 x 256 matrix format. In this case, the memory capacity required for the 2D LUT 4 increases, More accurate visual processing can be realized.
  • the profile data consists of the upper 6-bit value of the luminance value of the input signal IS expressed in 8 bits and the upper 6-bit value of the luminance value of the unsharp signal US expressed in 8 bits. It explained that the value of the output signal OS for and was stored.
  • the visual processing device 1 further includes an interpolation unit that linearly interpolates the value of the output signal OS based on the elements of the adjacent profile data and the magnitudes of the lower two bits of the input signal IS and the unsharp signal US. You may have.
  • the interpolation unit may be provided in the visual processing unit 3 and output a value obtained by linear interpolation of the value stored in the two-dimensional LUT 4 as the output signal OS.
  • FIG. 4 shows a visual processing unit 500 including an interpolation unit 501 as a modification of the visual processing unit 3.
  • the visual processing unit 500 receives a two-dimensional LUT4 that gives the relationship between the input signal IS and the unsharp signal US and the pre-interpolation output signal NS, the pre-interpolation output signal NS, the input signal IS, and the unsharp signal US.
  • an interpolation unit 501 for outputting an output signal OS.
  • Two-dimensional LUT4 interpolates between the upper 6 bits of the luminance value of the input signal IS expressed in 8 bits and the upper 6 bits of the luminance value of the unsharp signal US expressed in 8 bits. Stores the value of the previous output signal NS. The value of the output signal NS before interpolation is stored as an 8-bit value, for example.
  • the 2D LUT4 outputs the values of the four pre-interpolation output signals NS corresponding to the sections that include these values. To do.
  • the interval including each value is (the value of the upper 6 bits of the input signal IS, the value of the upper 6 bits of the unsheared signal US), and the value exceeding the value of the upper 6 bits of the input signal IS (Minimum 6-bit value, upper 6-bit value of unsharp signal US), (Upper 6-bit value of input signal IS, Unsharp signal US 6-bit value exceeding upper 6-bit value) (Bit value), (minimum 6-bit value exceeding the upper 6-bit value of the input signal IS, minimum 6-bit value exceeding the upper 6-bit value of the unsharp signal US)
  • This is the interval surrounded by the four pre-interpolation output signals N stored for the combination.
  • the interpolator 501 receives the lower 2 bits of the input signal IS and the lower 2 bits of the unsharp signal US. Using these values, the four pre-interpolations output by the 2D LUT4 are output. The value of the output signal NS is linearly interpolated. More specifically, using the lower 2 bits of the input signal IS and the lower 2 bits of the unsharp signal US, the weighted average of the values of the four output signals NS before interpolation is calculated, and the output signal OS is output.
  • the interpolation unit 501 may perform linear interpolation only for either the input signal IS or the unsharp signal US.
  • the average value (simple average or weighted average) of the input signal IS between the target pixel and the surrounding pixels of the target pixel is the maximum value for the input signal IS for the target pixel.
  • the minimum value or the median value may be output as the unsharp signal US.
  • the average value, maximum value, minimum value, or median value of only the peripheral pixels of the target pixel may be output as the unsharp signal US.
  • the values are generated based on the linear function M11 for each of the value A of the input signal IS and the value B of the unsharp signal US up to the value Ci of each element of the profile data.
  • the value C of each element of the profile data may be created based on a non-linear function with respect to the value A of the input signal I S.
  • visual processing according to the visual characteristics or output signal OS is output.
  • Visual processing suitable for the nonlinear characteristics of devices that handle images such as computers, televisions, digital cameras, mobile phones, PD-8s, printers, and scanners.
  • the value C of each element of the profile data is created based on a nonlinear function, that is, a two-dimensional nonlinear function, for each of the value A of the input signal IS and the value B of the unsharp signal US. Also good.
  • the profile data is represented in a 6 4 X 6 4 matrix format, and the upper 6 bits of the luminance value of the input signal IS represented in 8 bits in the column direction (vertical direction).
  • the upper 6-bit value of the luminance value of the unsharp signal US expressed in 8 bits is shown.
  • the value of the output signal OS is shown as 8 bits as a matrix element for two luminance values.
  • the conversion function F 1 is a common logarithmic function.
  • the inverse transformation function F 2 is an exponential function (antilog) as an inverse function of the common logarithmic function.
  • the enhancement function F3i is one of the enhancement functions R1 to R3 described with reference to FIG.
  • the value C obtained by Equation M14 may be a negative value.
  • the value of the profile data element corresponding to the value A of the input signal I S and the value B of the unsharp signal U S may be 0.
  • the value C obtained by Equation Ml 4 may be saturated. In other words, the maximum value of 255 that can be expressed in 8 bits may be exceeded.
  • the element of the profile data corresponding to the value A of the input signal I S and the value B of the unsharp signal U S may be the value 255.
  • the elements of the profile data obtained in this way are displayed in contour lines. A more detailed explanation of the non-linear profile data is given in ⁇ Profile Data> below.
  • the profile data provided in the two-dimensional LUT 4 may include a plurality of gradation conversion curves (gamma curves) that realize gradation correction of the input signal IS.
  • Each tone conversion curve is a monotonically increasing function, such as a gamma function having a different gamma coefficient, and is associated with the value of the unsharp signal US. The association is performed, for example, so that a gamma function having a large gamma coefficient is selected for a small unsharp signal us.
  • This The sharp signal US plays a role as a selection signal for selecting at least one gradation conversion curve from the gradation conversion curve group A included in the profile data.
  • the profile data registration device 8 is built in or connected to the visual processing device 1, stores a plurality of profile data created in advance by a PC or the like, and explained that the registration contents of the two-dimensional LUT 4 are changed.
  • the profile data stored in the profile data registration device 8 is created by a PC installed outside the visual processing device 1.
  • the profile data registration device 8 acquires profile data from a PC via a network or a recording medium.
  • the profile data registration device 8 registers a plurality of profile data to be stored in the two-dimensional LUT 4 according to predetermined conditions. This will be described in detail with reference to FIGS. Note that portions having substantially the same functions as those of the visual processing device 1 described with reference to FIG.
  • FIG. 6 shows a block diagram of a visual processing device 520 that determines an image of the input signal IS and switches profile data to be registered in the two-dimensional LUT 4 based on the determination result.
  • the visual processing device 520 includes a profile data registration unit 521 having the same function as the profile file data registration device 8 in addition to the structure similar to that of the visual processing device 1 shown in FIG. Further, the visual processing device 520 includes an image determination unit 522.
  • the image determination unit 522 receives the input signal IS and outputs the determination result SA of the input signal IS.
  • the profile data registration unit 521 receives the determination result SA and outputs the profile data PD selected based on the determination result SA.
  • the image determination unit 5 2 2 determines an image of the input signal IS. In the image determination, the brightness of the input signal IS is determined by obtaining pixel values such as the luminance and brightness of the input signal IS.
  • the profile data registration unit 5 2 1 acquires the determination result S A and switches and outputs the profile data PD based on the determination result S A. More specifically, for example, when the input signal IS is determined to be bright, a profile for compressing the dynamic range is selected. As a result, it is possible to maintain contrast even for an overall bright image. In addition, considering the characteristics of the device that displays the output signal OS, a profile is selected so that the output signal OS with an appropriate dynamic range is output.
  • the visual processing device 5 20 can realize appropriate visual processing according to the input signal IS.
  • the image determination unit 5 2 2 may determine not only pixel values such as luminance and brightness of the input signal IS but also image characteristics such as spatial frequency.
  • FIG. 7 shows a block diagram of the visual processing device 5 25 for switching the profile data to be registered in the two-dimensional LUT 4 based on the input result of the input device 6 for inputting the condition relating to the brightness.
  • the visual processing device 5 25 includes a profile data registration unit 5 26 having the same function as the profile data registration device 8 in addition to the same structure as the visual processing device 1 shown in FIG. Furthermore, the visual processing device 5 2 5 includes an input device 5 2 7 connected by wire or wirelessly. More specifically, the input device 5 2 7 is an input button or an input button provided in an image handling device itself such as a computer, a TV, a digital camera, a mobile phone, a PDA, a printer, and a scanner that output an output signal OS. Realized as a remote control for each device.
  • the input device 5 2 7 is an input device for inputting brightness-related conditions. For example, it has switches such as “bright J“ dark ”.
  • the input device 5 2 7 outputs the input result SB by the operation of the user.
  • the profile data registration unit 5 2 6 acquires the input result S B and switches and outputs the profile data P D based on the input result S B. More specifically, for example, when the user inputs “bright”, a profile for compressing the dynamic range of the input signal IS is selected and output as profile data PD. This makes it possible to maintain the contrast even when the environment where the device for displaying the output signal OS is placed is in the “bright j state”.
  • the visual processing device 5 2 5 can realize appropriate visual processing in accordance with the input from the input device 5 2 7.
  • the conditions related to brightness include not only the conditions related to the brightness of ambient light around the medium that outputs output signals such as computers, televisions, digital cameras, mobile phones, and PDAs, but also output signals such as printer paper. It may be a condition related to the brightness of the medium itself. In addition, for example, conditions relating to the brightness of the medium itself for inputting an input signal such as scanner paper may be used.
  • These may be input automatically not only by a switch but also by a photo sensor.
  • the input device 5 27 may be a device for directly operating the profile switching on the profile data registration unit 5 26 instead of inputting the brightness condition.
  • the input device 5 27 may display a list of profile data and allow the user to select in addition to the condition regarding brightness.
  • the input device 5 27 may be a device for identifying a user.
  • the input device 5 27 may be a camera for identifying a user or a device for inputting a user name.
  • profile data that suppresses an excessive change in luminance is selected.
  • FIG. 8 shows a block diagram of a visual processing device 5 30 that switches profile data to be registered in the two-dimensional LUT 4 based on detection results from a brightness detection unit for detecting two types of brightness.
  • the visual processing device 5 30 includes a profile data registration unit 5 31 having the same function as the profile data registration device 8 in addition to the same structure as the visual processing device 1 shown in FIG. Further, the visual processing device 5 3 0 includes a brightness detection unit 5 3 2.
  • the lightness detection unit 5 3 2 includes an image determination unit 5 2 2 and input devices 5 2 7 and 7b.
  • the image determination unit 5 2 2 and the input device 5 2 7 are the same as described with reference to FIGS.
  • the lightness detection unit 5 3 2 receives the input signal I S and outputs the determination result S A from the image determination unit 5 2 2 and the input result S B from the input device 5 2 7 as detection results.
  • the profile data registration unit 5 31 receives the judgment result S A and the input result S B as inputs, and switches and outputs the profile data PD based on the judgment result S A and the input result S B. More specifically, for example, when the ambient light is in a “bright” state and the input signal IS is also determined to be bright, a profile that compresses the dynamic range of the input signal IS is selected, and the profile data PD Is output as. This makes it possible to maintain the contrast when displaying the output signal OS.
  • the visual processing device 5 30 can realize appropriate visual processing.
  • each profile data registration unit may not be provided integrally with the visual processing device.
  • the profile data registration unit may be connected to the visual processing device via the network as a server having a plurality of profile data or as a plurality of servers having the respective profile data.
  • the network is, for example, a connection capable of communication such as a dedicated line, a public line, the Internet, and a LAN. Means, which may be wired or wireless.
  • the judgment result SA and the input result SB are also transmitted from the visual processing device side to the profile data registration unit side through the same network.
  • the profile data registration device 8 includes a plurality of profile data and realizes different visual processing by switching registration to the two-dimensional LUT 4.
  • the visual processing device 1 may include a plurality of two-dimensional LUTs in which profile data for realizing different visual processing is registered. In this case, the visual processing device 1 realizes different visual processing by switching the input to each 2D LUT or switching the output from each 2D LUT. Also good.
  • the profile data registration device 8 may be a device that generates new profile data based on a plurality of profile data and registers the generated profile data in the two-dimensional LUT 4.
  • FIG. 9 is a block diagram mainly illustrating a profile data registration device 7 0 1 as a modified example of the profile data registration device 8.
  • the profile data registration device 7 0 1 is a device for switching the profile data registered in the two-dimensional LUT 4 of the visual processing device 1.
  • the profile data registration device 70 1 includes a profile data registration unit 70 2 in which a plurality of profile data is registered, and a profile creation practical unit 7 0 3 that generates new profile data based on the plurality of profile data.
  • a parameter input unit 7 06 for inputting parameters for generating new profile file data, and a control unit 7 0 5 for controlling each unit.
  • the profile data registration unit 70 2 includes a plurality of profile data registration devices 8 or a plurality of profiles similar to the profile data registration units shown in FIGS.
  • the aisle data is registered, and the selected profile data selected by the control signal C “I 0” from the control unit 7 0 5 is read out.
  • two selections are made from the profile data registration unit 7 0 2 Assume that profile data is read out, and that the first selected profile data d 1 0 and the second selected profile data d 1 1 respectively.
  • the profile data read from the profile data registration unit 70 2 is determined by the input of the parameter input unit 7 06.
  • information on the desired visual processing effect, the degree of processing, the visual environment of the processed image, and the like are input as parameters manually or by force such as a sensor.
  • the control unit 70 5 designates the profile data to be read from the parameters input by the parameter input unit 70 6 by the control signal c 1 0, and sets the synthesis value of each profile data to the control signal c 12 Specify more.
  • the profile creation execution unit 70 3 creates a profile generation unit 7 that creates new profile data d 6 from the first selection profile data d 1 0 and the second selection profile data d 1 1. Has 0-4.
  • the profile generation unit 70 4 acquires the first selection profile data d 10 and the second selection profile data d 11 from the profile data registration unit 70 2. Further, a control signal c 12 specifying the degree of synthesis of each selected profile data is acquired from the control unit 70 5.
  • the profile generator 7 0 4 receives the control signal c 1 2 for the value [m] of the first selection profile data d 1 0 and the value [n] of the second selection profile data d 1 1.
  • the generation profile data d6 of value [I] is created using the specified degree of synthesis value [k].
  • the two-dimensional LUT 4 acquires the generated profile data d 6 generated by the profile generation unit 70 4, and stores the acquired value at the address specified by the count signal c 11 of the control unit 7 05.
  • the generated profile data d6 is associated with the same image signal value to which each selected profile data used to create the generated profile data d6 is associated.
  • a visual processing profile creation method executed in a visual processing device including the profile data registration device 70 1 will be described with reference to FIG.
  • the count signal c 1 0 from the control unit 70 5 designates the address of the profile data registration unit 70 2 at a constant count cycle, and the image signal value stored in the designated address is read ( Step S 7 0 1). Specifically, the control unit 7 O 5 outputs a count signal c 1 0 according to the parameter input by the parameter input unit 7 0 6.
  • the count signal c 1 0 specifies the addresses of two profile data that realize different visual processing in the profile data registration unit 70 2.
  • the first selection profile data d 10 and the second selection profile data d 11 are read from the profile data registration unit 70 2.
  • the profile generation unit 70 4 acquires the control signal c 12 specifying the degree of synthesis from the control unit 70 5 (step S 7 0 2).
  • the profile generator 7 0 4 combines the value [m] of the first selection profile data d 1 0 and the value [n] of the second selection profile data d 1 1 specified by the control signal c 1 2 Using the degree value [k], generation profile data d6 of value [I] is created (step S700).
  • the generated profile data d 6 is written to the two-dimensional L U T 4 (step S 7 0 4).
  • the address of the write destination is designated by the count signal G 11 from the control unit 70 5 given to the two-dimensional LUT 4.
  • the controller 7 0 5 performs processing on all data of the selected profile data. It is determined whether or not the processing has been completed (step 7 0 5), and the processing from step S 7 0 1 to step S 7 0 5 is repeated until the processing is completed.
  • the new profile data stored in 2D LUT 4 in this way is used to perform visual processing.
  • the profile data registration unit 70 2 has only a small number of profile data, and can achieve visual processing with an arbitrary degree of processing.
  • the storage capacity of the profile data registration unit 70 2 Can be reduced.
  • the profile data registration device 70 1 may be provided not only in the visual processing device 1 shown in FIG. 1 but also in the visual processing devices shown in FIGS.
  • the profile data registration unit 70 2, the profile creation execution unit 70 3 and the power are used in place of the respective profile data registration units 5 2 1, 5 2 6, 5 3 1 shown in FIGS.
  • the parameter input unit 7 0 6 and the control unit 7 0 5 are used in place of the image half IJ fixing unit 5 2 2 in FIG. 6, the input device 5 2 7 in FIG. 7, and the brightness detection unit 5 3 2 in FIG. It's good.
  • the visual processing device may be a device that converts the brightness of the input signal IS.
  • a visual processing device 9 0 1 that converts brightness will be described with reference to FIG.
  • the visual processing device 9 0 1 is a device for converting the brightness of the input signal IS ′, and performs a predetermined process on the input signal IS ′ and outputs a processing signal US ′. And a conversion unit 9 0 3 that converts the input signal IS ′ using the input signal IS ′ and the processing signal US ′.
  • the processing unit 90 2 operates in the same manner as the spatial processing unit 2 (see FIG. 1) and performs spatial processing on the input signal IS ′. Note that an empty “fl process” as described in ⁇ Modification> (3) above may be used.
  • the conversion unit 903 includes a two-dimensional LUT, and based on the input signal IS ′ (value [X]) and the processing signal US ′ (value [z]), the output signal OS ′ (value [y ]) Is output.
  • the value of each element of the two-dimensional LUT included in the conversion unit 903 is the input signal IS with respect to the gain or offset determined according to the value of the function fk (z) related to the brightness change degree. It is determined by applying the value [X] of '.
  • the function fk ( Z ) related to the brightness change degree is called the "change degree function”.
  • this function is called “conversion function”, and the conversion functions (a) to (d) are shown as an example.
  • Figures 12 (a) to (d) show the relationship between the input signal I S 'and the output signal OS' when the change degree function f k (z) is changed.
  • the degree-of-change function f 1 (z) acts as the gain of the input signal I S '. For this reason, the value of the change function f 1 (z) changes the gain of the input signal I S 'and changes the value [y] of the output signal OS'.
  • Figure 12 (a) shows the change in the relationship between the input signal I S 'and the output signal OS' when the value of the degree of change function f ⁇ Cz) changes.
  • the degree of change function f l (z) increases (f l (z)> 1), the value [y] of the output signal increases. That is, the converted image becomes brighter.
  • the degree of change function f 1 (z) becomes smaller (f 1 (z) ⁇ 1), the joy [y] of the output signal becomes smaller. In other words, the image after conversion becomes dark.
  • the degree-of-change function f 1 (z) is a function that does not become less than the minimum value 35 value [0] in the domain of the value [z].
  • the value [y] of the output signal exceeds the possible range by calculation of the conversion function (a), it may be clipped to the range of possible values. For example, if the value [1] is exceeded, the output signal value [y] may be clipped to the value [1], and if it is less than the value [0], the output signal value [y] ] Clip to value [0] May be.
  • conversion functions (b) to (d) The same applies to the following conversion functions (b) to (d).
  • the degree-of-change function f 2 (z) acts as an offset of the input signal I S '. For this reason, the offset of the input signal I S ′ changes and the value [y] of the output signal OS ′ changes depending on the value of the degree of change function f 2 (z).
  • Figure 12 (b) shows the change in the relationship between the input signal I S 'and the output signal OS' when the value of the change function f 2 (z) changes.
  • the output signal value [y] increases. That is, the converted image becomes brighter.
  • the value [y] of the output signal decreases as the degree of change function f 2 (z) decreases (f 2 (z) ⁇ 0). In other words, the image after conversion becomes dark.
  • the degree-of-change function f 1 (z) acts as the gain of the input signal IS '.
  • the degree-of-change function f 2 (z) acts as an offset of the input signal IS '. For this reason, the gain of the input signal IS 'changes depending on the value of the change function f 1 (z), and the offset of the input signal IS' changes depending on the value of the change function f 2 (z).
  • Figure 12 (c) shows the change in the relationship between the input signal I S 'and the output signal OS' when the values of the change degree function f 1 (z) and change degree function f 2 (z) change.
  • the degree of change function f 1 (z) and the degree of change function f 2 (z) increase, the value [y] of the output signal increases. That is, the converted image becomes brighter.
  • the change degree function f 1 (z) and the change degree function f 2 (z) become smaller, the value [y] of the output signal becomes smaller. In other words, the converted image becomes ugly.
  • the degree-of-change function f 2 (z) determines "the power" of the power function J. For this reason, the input signal IS 'changes depending on the value of the change function f 2 (z), and the output signal O The value [y] of S 'changes.
  • Figure 12 (d) shows the change in the relationship between the input signal I S 'and the output signal OS' when the value of the degree of change function f 2 (z) changes.
  • the output signal value [y] increases. That is, the converted image becomes brighter.
  • the value [y] of the output signal decreases as the degree of change function f 2 (z) decreases (f 2 (z) ⁇ 0). In other words, the image after conversion becomes dark.
  • the degree of change function f 2 C z) is a value [0]
  • no conversion is performed on the input signal IS '.
  • the value [X] is the value of the input signal IS' [0] Normalized to the range of ⁇ [1] and is a nani value.
  • visual processing of the input signal I S ′ is performed by a two-dimensional LUT having elements determined using any one of the conversion functions (a) to (d) described above.
  • Each element of the 2D LUT stores a value [y] for a value [X] and a value [z]. Therefore, viewing angle processing for converting the brightness of the input signal I S ′ is realized based on the input signal I S ′ and the processing signal US ′.
  • Figure "! 3 (a) to (b) shows examples of monotonically decreasing change functions f 1 (z) and f 2).
  • Each of the three graphs (a 1 to a 3 and b 1 to b 3) Are both examples of monotonically decreasing functions.
  • the degree-of-change function f 1 (z) is a function having a range that crosses the value [1], and the minimum value for the domain of value] is not less than the value [0].
  • the degree-of-change function f 2 (z) is a function having a range that spans the value [0].
  • the value [ Z ] of the processing signal US ' small is large.
  • the value of the change function for small [z] is large.
  • dark and large areas in the image are converted brightly. Therefore, for example, in an image photographed with backlight, the dark portion is improved for a dark and large area, and the visual effect is improved.
  • the value [z] of the processing signal LI S ' is large.
  • the value of the degree-of-change function for small [z] is small.
  • a 2D LUT created based on the conversion functions (a) to (d) is used, a bright and large area in the image is converted to dark. Therefore, for example, in an image having a bright part such as the sky, the brightening and the large area are improved in whiteout, and the visual effect is improved.
  • the above-described conversion function is an example, and may be an arbitrary function as long as the conversion has the same property.
  • the 2D LUT is a value that is clipped to the range of values that can be handled as the output signal OS'. May be stored.
  • the conversion unit 903 may output the output signal OS ′ by calculating the conversion functions (a) to (d) for the input signal I S ′ and the processing signal US ′.
  • the visual processing device may include a plurality of spatial processing units and perform visual processing using a plurality of anchor signals having different levels of spatial processing.
  • the visual processing device 905 is a device that performs visual processing of the human power signal IS ", and performs first predetermined processing on the input signal IS" and outputs a first processing signal U 1.
  • the first processing unit 906a and the second processing unit 906b operate in the same manner as the spatial processing unit 2 (see FIG. 1) and perform spatial processing of the input signal IS ". Note that the above ⁇ Modification> (3) It is also possible to perform spatial processing as described in.
  • the first processing unit 906a and the second processing unit 906b are different in the size of the area of the peripheral pixels used in the spatial processing.
  • peripheral pixels included in the region of 30 pixels in the vertical direction and 30 pixels in the horizontal direction around the target pixel are used (small unsharp signal).
  • 906 b uses peripheral pixels included in the area of 90 pixels vertically and 90 pixels horizontally from the pixel of interest (large unsharp signal) Note that the area of the peripheral pixels described here is just an example. However, it is preferable to generate an unsharp signal from a considerably wide area in order to fully exhibit the visual processing effect.
  • the converter 908 includes a LUT and is based on the input signal IS "(value [X]), the first processed signal, U1 (value [zl]), and the second processed signal U2 (value [z2]). Output the message OS "(value [y]).
  • the LUT provided in the conversion unit 903 outputs 4 to the value [X] of the input signal IS ", the value [zl] of the first processing signal U 1 and the value [z 2] of the second processing signal U 2.
  • This is a 3D LUT that stores the value [y] of the word OS ".
  • This 3D LUT can realize the processing described in the above embodiment and the following embodiment.
  • the 3D LUT converts the brightness of the ⁇ input signal IS ". Case) and ⁇ When the input signal IS "is emphasized and converted >> Added ⁇ The brightness of the input signal IS" is converted >>
  • the conversion unit 908 performs conversion so as to brighten the input signal IS “.
  • the value [z 2] of the second processing signal U 2 is also small. If so, suppress the degree of brightening.
  • the value of each element of the three-dimensional LUT provided in the conversion unit 903 is determined based on the following conversion function (e) or (f).
  • the degree-of-change functions f 1 1 (z 1) and f 1 2 (z 2) are the same functions as the degree-of-change function f 1 (z) described in ⁇ Modification> (8) above.
  • the change degree function f 1 1 (z 1) and the change degree function f 1 2 (z 2) are different functions.
  • [f 1 1 (z 1) f 1 2 ( Z 2)] acts as a gain of the input signal IS ", and the value of the first processing signal U 1 and the value of the second processing signal U 2 As a result, the gain of the input signal IS "changes, and the value [y] of the output signal OS" changes.
  • the degree-of-change functions f 21 (z 1) and f 22 (z 2) are the same functions as the degree-of-change function f 2 (z) described in ⁇ Modification> (8) above.
  • the change degree function f 2 1 (z 1) and the change degree function f 22 (z 2) are different functions.
  • [f 21 (z 1) — f 22 (z 2)] acts as the offset of the input signal IS ", and the values of the first processing signal U 1 and the second processing signal U 2 As a result, the offset of the input signal IS "changes and the value [y] of the output signal OS" changes.
  • the processing in the conversion unit 98 is not limited to the processing using the three-dimensional LUT, and may perform the same calculation as the conversion functions (e) and (f).
  • each element of the three-dimensional LUT need not be strictly determined based on the conversion functions (e) and (f).
  • the conversion in the converter 9 0 8 is a conversion that emphasizes the input signal I S ", it is possible to independently emphasize a plurality of frequency components.
  • the conversion further emphasizes the first processed signal U 1, it is possible to emphasize a shaded portion having a relatively high frequency, and if the conversion further emphasizes the second processed signal U 2. It is possible to emphasize the shading part having a low frequency.
  • the visual processing device 1 can include profile data that realizes various visual processing in addition to those described above. Below, for the 1st to 7th profile data that realizes various visual processing, the formula that characterizes the profile data, and the configuration of the visual processing device that realizes visual processing equivalent to the visual processing device 1 having the profile data It shows.
  • Each profile data is determined based on a mathematical formula including an operation that emphasizes a value calculated from the input signal IS and the unsharp signal us.
  • the calculation to be emphasized is, for example, a calculation using a nonlinear enhancement function.
  • the first profile data is determined based on an operation including a function that emphasizes a difference between respective conversion values obtained by performing predetermined conversion on the input signal IS and the unsharp signal US.
  • the input signal IS and the unsharp signal US can be converted into different spaces, and the respective differences can be emphasized. This allows, for example, It is possible to realize emphasis and the like that match the visual characteristics.
  • the conversion function F 1 is a common logarithmic function.
  • the inverse transformation function F 2 is an exponential function (antilog) as an inverse function of the common logarithmic function.
  • the enhancement function F3 is one of the enhancement functions R 1 to R 3 described with reference to FIG.
  • FIG. 15 shows a visual processing device 11 equivalent to the visual processing device 1 in which the first profile data is registered in the two-dimensional LUT 4.
  • the visual processing device 11 is a device that outputs the output signal o S based on an operation that emphasizes the difference between the converted values obtained by performing predetermined conversion on the input signal IS and the unsharp signal us. This makes it possible to enhance the difference between the input signal IS and the unsharp signal US after converting them to a separate space. For example, it is possible to realize enhancement suited to visual characteristics.
  • the visual processing device 11 shown in Fig. 5 includes a spatial processing unit 12 that performs spatial processing on the luminance value of each pixel of the original image acquired as the input signal IS and outputs an unsharp signal US, and an input signal IS.
  • a visual processing unit 13 that performs visual processing of the original image using the unsharp signal US and outputs an output signal OS is provided.
  • the spatial processing unit 12 performs the same operation as the spatial processing unit 2 included in the visual processing device 1, description thereof is omitted.
  • the visual processing unit 1 3 converts the signal space between the input signal IS and the unsharp signal US, and outputs the converted input signal TIS and the converted unsharp signal T US.
  • Subtraction unit 1.7 that outputs signal TIS as the first input, converted unsharp signal TU S as the second input, and outputs the difference signal DS that is the difference between them, and the enhancement processing signal that has been subjected to the enhancement process by inputting the difference signal DS Emphasis processing unit 1 that outputs TS, conversion input signal TIS as first input, enhancement processing signal TS as second input
  • an adder 19 that outputs an added signal PS obtained by adding the signals
  • an inverse converter 20 that receives the added signal PS and outputs an output signal OS.
  • the signal space conversion unit 14 includes a first conversion unit 15 that receives the input signal IS as an input and outputs a conversion input signal TIS, and a second conversion unit that receives an unsharp signal US as an input and outputs a conversion unsharp signal TUS as an output. 1 6 and further.
  • the first conversion unit 15 converts the input signal of the value A into the conversion input signal T IS of the value F 1 (A) using the conversion function F 1.
  • the second conversion unit 16 converts the unsharp signal US having the value B into the converted unsharp signal T US having the value F 1 (B) using the conversion function F 1.
  • the subtractor 17 calculates the difference between the converted input signal TIS of the value F 1 (A) and the converted unsharp signal T US of the value F 1 (B), and the value F 1 (A) -F 1 ( The difference signal DS of B) is output.
  • the enhancement processing unit 1 8 uses the enhancement function F3 to perform the enhancement processing signal of the value F3 (F 1 (A) -F 1 (B)) from the difference signal DS of the value F 1 (A) -F 1 (B) Output TS.
  • the adder 19 adds the conversion input signal TIS having the value F 1 (A) and the enhancement processing signal TS having the value F3 (F 1 (A) -F 1 (B)) to obtain the value F 1 (A) + Add signal PS of F3 (F 1 (A) -F 1 (B)) is output.
  • the inverse transform unit 2 O inversely transforms the addition signal PS of the value F 1 (A) + F3 (F 1 (A) -F 1 (B)) using the inverse transform function F 2 to obtain the value F 2 ( Outputs the output signal OS of F 1 (A) + F3 (F 1 (A) -F 1 (B))).
  • the calculation using the transformation function F 1, the inverse transformation function F 2, and the enhancement function F 3 may be performed using a one-dimensional LUT for each function or without using the LUT. May be.
  • the visual processing device 1 and the visual processing device 11 having the first profile data have the same visual processing effect.
  • Visual processing using the transformed input signal TIS and transformed unsharp signal TUS transformed to the logarithmic space by the transformation function F 1 is realized.
  • Human visual characteristics are logarithmic Visual processing suitable for visual characteristics can be realized by converting to log space and processing.
  • Each visual processing device realizes contrast enhancement in logarithmic space.
  • the conventional visual processing device 400 shown in FIG. 10 is generally used to perform edge (edge) enhancement using an unsharp signal US with a small degree of blur.
  • the visual processing device 400 is under-enhanced in the bright part of the original image and over-enhanced in the dark part.
  • Visual processing is not suitable. In other words, the correction in the brightening direction tends to be under-enhanced, and the correction in the darkening direction tends to have excessive bow firefly tone.
  • visual processing is performed using the visual processing device 1 or the visual processing device 11 1, visual processing suitable for visual characteristics can be performed from the dark part to the bright part. It is possible to balance the emphasis with the emphasis in the direction of darkening.
  • Equation ⁇ 1 if the value C of an element in the profile data obtained by Equation ⁇ 1 exceeds the range of 0 ⁇ C ⁇ 2 5 5, set the value of that element to 0 or 2 5 5 It is possible to prevent the corrected pixel signal from becoming negative and failing, or being saturated and failing. This is achieved regardless of the bit length used to represent the profile data elements.
  • the conversion function F 1 is not limited to a logarithmic function.
  • the conversion function F 1 was converted to remove the gamma complement IE (for example, gamma coefficient [0.45]) applied to the input signal IS, and the inverse conversion function F 2 was applied to the input signal IS. It may be a conversion that applies gamma correction.
  • the gamma correction applied to the input signal IS can be removed and processing can be performed with linear characteristics. For this reason, optical blur correction can be performed.
  • the visual processing unit 13 may calculate the above expression Ml without using the two-dimensional LUT 4 based on the input signal IS and the unsharp signal US.
  • a one-dimensional LUT may be used in the calculation of each function F 1 to F 3.
  • the second profile data is determined based on an operation including a function that emphasizes the ratio between the input signal IS and the unsharp signal US. This makes it possible to realize visual processing that emphasizes the shape component, for example.
  • the second profile data is determined based on a calculation that performs dynamic range compression on the ratio between the emphasized input signal IS and the unsharp signal US. This makes it possible to realize visual processing that compresses the dynamic range while enhancing the sharp component, for example.
  • the dynamic range compression function F4 is a monotonically increasing function such as an upward convex power function.
  • F4 (X) ⁇ ⁇ (0 ⁇ r ⁇ 1).
  • the enhancement function F 5 is a power function.
  • F 5 (X) ⁇ ⁇ and (0 ⁇ 0? ⁇ 1).
  • FIG. 16 shows a visual processing device 21 equivalent to the visual processing device 1 in which the second profile data is registered in the two-dimensional LUT 4.
  • the visual processing device 21 is a device that outputs an output signal OS based on a calculation that emphasizes the ratio between the input signal IS and the unsharp signal US. Thereby, for example, it is possible to realize visual processing for emphasizing the sharp component.
  • the visual processing device 21 outputs the output signal OS based on a calculation that performs dynamic range compression on the ratio of the emphasized input signal IS and unsharp signal US. This makes it possible to realize visual processing that compresses the dynamic range while enhancing the sharp component, for example.
  • the visual processing device 21 shown in FIG. 16 includes a spatial processing unit 22 that performs spatial processing on the luminance value of each pixel of the original image acquired as the input signal IS and outputs an unsharp signal US, and the input signal IS and unsharp.
  • a visual processing unit 23 that performs visual processing of the original image using the signal US and outputs an output signal OS is provided.
  • the spatial processing unit 22 performs the same operation as the spatial processing unit 2 included in the visual processing device 1, description thereof is omitted.
  • the visual processing unit 23 uses the input signal IS as the first input, the unsharp signal US as the second input, and the division unit 25 that outputs the division signal RS obtained by dividing the input signal IS by the unsharp signal US.
  • An output processing unit 26 that receives the signal RS as an input and outputs the enhancement processing signal TS, and an output processing unit 27 that outputs the output signal OS using the input signal IS as the first input and the enhancement processing signal TS as the second input 27 And.
  • the output processing unit 27 receives the input signal IS and outputs a DR compression signal DRS compressed by dynamic range (DR), a DR compression signal DRS as a first input, and a tone processing signal TS as a first input.
  • a multiplication unit 29 that outputs an output signal OS is provided.
  • the division unit 25 divides the input signal IS of value A by the unsharp signal US of value B, and outputs a division signal RS of value AZB.
  • the enhancement processing unit 26 uses the enhancement function F5 to output the enhancement processing signal TS having the value F5 (A / B) from the division signal RS having the value AZB.
  • the DR compression unit 28 outputs the DR compressed signal D RS having the value F4 (A) from the input signal IS having the value A using the dynamic range compression function F4.
  • Multiplier 29 has the value F 4 Multiply the DR compressed signal DRS of (A) by the enhancement processing signal TS of value F 5 (A / B) and output the output signal OS of value F4 (A) * F 5 (A / B).
  • the calculation using the dynamic range compression function F4 and the enhancement function F5 may be performed using a one-dimensional LUT for each function, or may be performed without using the LUT.
  • the visual processing device 1 and the visual processing device 21 having the second profile data have the same visual processing effect.
  • the dynamic range compression function F4 shown in Fig. 17 without saturating from the dark to the highlight.
  • the target black level of the image signal before compression is L 0 and the maximum white level is L 1
  • the dynamic range before compression L 1: L 0 is compressed into the dynamic range after compression Q 1: QO. Is done.
  • the small contrast which is the ratio of the image signal level, decreases to (Q 1 / QO) * (L O / L 1) times due to the compression of the dynamic range.
  • the dynamic range compression function F 4 is an upward convex power function or the like.
  • the division signal RS of the value A_B that is, the sharp signal is enhanced by the enhancement function F 5 and multiplied by the DR compressed signal DRS.
  • human vision has the property that if the local contrast is maintained, the same contrast can be seen even if the overall contrast is reduced.
  • the visual processing device 1 and the visual processing device 21 having the second file data can realize visual processing that does not visually reduce contrast while compressing the dynamic range. .
  • C A / ( ⁇ ⁇ 0 . 4)
  • the value of ⁇ can be considered constant, so C is proportional to ⁇ . That is, the ratio of the change amount of value C to the change amount of value A is 1, and the local contrast does not change between the input signal IS and the output signal OS.
  • the visual processing device 1 and the visual processing device 21 including the second profile data can realize visual processing that does not visually reduce contrast wrinkles while compressing the dynamic range.
  • that is particularly effective in the following situation, that is, a display with a narrow physical dynamic range, and a dark portion and a bright portion can be reproduced without blurring a high contrast image. It becomes possible. Also, for example, a high-contrast image is displayed on a TV projector in a bright environment, and a high-contrast print is obtained with low-density ink (a printer with only light colors). It becomes possible.
  • the visual processing unit 231 may use the two-dimensional LUT 4 based on the input signal IS and the unsharp signal US to “compute the above equation M2 to T. In this case, In the calculation of each function F4, F5, a one-dimensional LUT may be used.
  • Equation M2 if the value C of an element in the profile data obtained by Equation M2 is C> 255, the value C of that element may be set to 255.
  • the third profile data is determined based on a calculation including a function that emphasizes the ratio between the input signal IS and the unsharp signal US. This makes it possible to realize visual processing that emphasizes the shape component, for example.
  • the dynamic range compression function F4 is a direct proportional function with a proportionality factor of 1.
  • FIG. 19 shows a visual processing device 31 equivalent to the visual processing device 1 in which the third profile data 2 is registered in the missing element LUT 4.
  • the visual processing device 31 is a device that outputs the output signal OS based on a calculation that emphasizes the ratio between the input signal IS and the unsharp signal US. Thereby, for example, it is possible to realize visual processing for emphasizing the sharp component.
  • the visual processing device 31 shown in FIG. 19 is different from the visual processing device 21 shown in FIG. 16 in that the DR compression unit 28 is not provided.
  • the visual processing device 31 performs spatial processing on the luminance value of each pixel of the original image acquired as the input signal IS and outputs the unsharp signal US, and the input signal IS and the unsharp signal US. And a visual processing unit 32 that performs visual processing of the original image and outputs an output signal OS.
  • the spatial processing unit 22 performs the same operation as the spatial processing unit 2 included in the visual processing device 1, description thereof is omitted.
  • the visual processing unit 32 has a division unit 25 that outputs a division signal RS obtained by dividing the input signal IS by the unsharp signal US, with the input signal IS as the first input, the unsharp signal US as the second input, and the division.
  • An enhancement processing unit 26 that receives the signal RS as an input and an enhancement processing signal TS as an output, and a multiplication unit 33 that outputs the output signal OS with the input signal IS as a first input and the enhancement processing signal TS as a second input. It has.
  • the division unit 25 and the enhancement processing unit 26 perform the same operations as described for the visual processing device 21 shown in FIG.
  • the multiplier 33 multiplies the input signal IS with the value A by the enhancement processing signal TS with the value F 5 (A / B), and outputs an output signal OS with the value A * F5 (A / B).
  • the enhancement function F 5 is the same as that shown in FIG.
  • the calculation using the enhancement function F 5 may be performed using a one-dimensional LUT for each function, as described for the visual processing device 21 shown in FIG. It may be done without.
  • the visual processing device 1 and the visual processing device 31 including the third profile data have the same visual processing effect.
  • the enhancement processing unit 26 performs enhancement processing of a sharp signal (divided signal RS) expressed as a ratio of the input signal IS and the unsharp signal US, and the enhanced sharp signal is processed.
  • the signal is multiplied by the input signal IS.
  • Enhancing the sharp signal expressed as the ratio of the input signal IS and the unsharp signal US is equivalent to calculating the difference between the input signal IS and the unsharp signal US in logarithmic space. That is, visual processing suitable for logarithmic human visual characteristics is realized.
  • the amount of enhancement by the enhancement function F5 increases when the input signal IS is large (when it is bright) and decreases when it is small (when it is dark). Also, the amount of bow adjustment in the brightening direction is larger than the amount of enhancement in the darkening direction. For this reason, it is possible to achieve visual processing that is suitable for the visual characteristics, and natural visual processing with a good balance is realized.
  • Equation M3 if the value C of an element in the profile data obtained by Equation M3 is G> 2 5 5, the value C of that element may be 2 5 5.
  • the dynamic range of the input signal IS is not compressed, but the local contrast can be enhanced and the dynamic range can be visually compressed and expanded. .
  • the fourth profile data is determined based on an operation including a function that emphasizes the difference between the input signal IS and the unsharp signal US according to the value of the input signal IS.
  • the sharp component of the input signal IS can be enhanced according to the value of the input signal IS. For this reason, it is possible to appropriately enhance the input signal IS from the dark part to the bright part.
  • the fourth profile data is determined based on an operation that adds a value obtained by compressing the input signal IS to a dynamic range to the emphasized value. This makes it possible to compress the dynamic range while enhancing the sharp component of the input signal IS according to the value of the input signal IS.
  • the enhancement amount adjustment function F6 is a function that monotonously increases with respect to the value of the input signal IS. That is, when the value A of the input signal IS is small, the value of the enhancement amount adjustment function F6 is small, and when the value A of the input signal IS is large, the value of the enhancement amount adjustment function F6 is also large.
  • the enhancement function F7 is one of the enhancement functions R1 to R3 described with reference to FIG.
  • FIG. 20 shows a visual processing device 41 equivalent to the visual processing device 1 in which the fourth profile data is registered in the two-dimensional LUT 4.
  • the visual processing device 41 is a device that outputs the output signal OS based on a calculation that emphasizes the difference between the input signal IS and the unsharp signal US according to the value of the input signal IS.
  • the sharp component of the input signal IS can be emphasized according to the value of the input signal IS. For this reason, it is possible to appropriately enhance the input signal Is from the dark part to the bright part.
  • the visual processing device 41 outputs the output signal OS based on an operation of adding the value obtained by compressing the dynamic range of the input signal IS to the emphasized value. This makes it possible to compress the dynamic range while enhancing the sharp component of the input signal I S according to the value of the input signal I S.
  • the visual processing device 41 shown in FIG. 20 includes a spatial processing unit 42 that performs spatial processing on the luminance value of each pixel of the original image acquired as the input signal IS and outputs an unsharp signal US, and an input signal IS and an unsharp signal.
  • a visual processing unit 43 that performs visual processing of the original image using the signal US and outputs an output signal OS is provided.
  • the spatial processing unit 42 performs the same operation as the spatial processing unit 2 included in the visual processing device 1, description thereof is omitted.
  • the visual processing unit 43 has the input signal IS as the first input and the unsharp signal US as the second input, and outputs a difference signal DS that is the difference between the subtraction unit 44 and the difference.
  • the enhancement processing unit 45 that receives the signal DS and outputs the enhancement processing signal TS, the enhancement amount adjustment unit 46 that receives the input signal IS and outputs the enhancement amount adjustment signal IC, and the enhancement amount adjustment signal IC are the first.
  • the multiplication processing unit 47 outputs the multiplication signal MS obtained by multiplying the enhancement amount adjustment signal IC and the enhancement processing signal TS, and the input signal IS as the first input.
  • An output processing unit 48 that outputs the output signal OS is provided with the signal MS as the second input.
  • the output processing unit 48 receives the input signal IS and outputs a DR compressed signal DRS compressed by dynamic range (DR), a DR compressed signal DRS as a first input, and a multiplication signal MS as a first input. 2 is provided, and an adder 50 ′ that outputs the output signal OS is provided.
  • DR dynamic range
  • MS multiplication signal
  • the subtractor 44 calculates the difference between the input signal IS with the value A and the unsharp signal US with the value B, and outputs the difference signal DS with the value A ⁇ B.
  • the enhancement processing unit 45 outputs the enhancement processing signal TS having the value F 7 (A-B) from the difference signal DS having the value A—B, using the enhancement function F 7.
  • the enhancement amount adjustment unit 46 outputs the enhancement amount adjustment signal I C of the value F6 (A) from the input signal IS of the value A using the enhancement amount adjustment function F 6.
  • the multiplication unit 47 multiplies the enhancement amount adjustment signal IC of the value F6 (A) by the enhancement processing signal TS of the value F7 (AB), and outputs a multiplication signal MS of the value F6 (A) * F7 (AB) To do.
  • the DR compression unit 49 outputs the DR compressed signal DRS having the value F 8 (A) from the input signal IS having the value A using the dynamic range compression function F 8.
  • the adder 50 adds the 1 ⁇ compressed signal 0 3 and the multiplication signal MS of the value F6 (A) * F 7 (AB) to the value F 8 (A) + F6 (A) * F 7 (AB ) Output signal OS is output.
  • the calculation using the enhancement amount adjustment function F6, enhancement function F7, and dynamic range compression function F8 may be performed using a one-dimensional LUT for each function. It may be done.
  • the visual processing device 1 and the visual processing device 41 including the fourth profile data have the same visual processing effect.
  • the enhancement amount adjustment function F 6 is a monotonically increasing function, but can be a function in which the amount of increase in the function value decreases as the value A of the input signal I S increases. In this case, the value of the output signal OS is prevented from being saturated.
  • the enhancement function F 7 is the strong function R 2 described with reference to FIG. 10, the enhancement amount when the absolute value of the differential signal D S is large can be suppressed. For this reason, it is possible to prevent the enhancement amount in a portion with high sharpness from being saturated, and it is possible to execute visual processing that is natural in visual terms.
  • the visual processing unit 43 can calculate the upper self-expression M4 based on the input signal IS and the unsharp signal US without using the two-dimensional LUT 4. good.
  • one-dimensional LUT may be used in the calculation of each function F6 to F8.
  • the enhancement processing unit 45 is not particularly required.
  • Equation M4 if the value C of an element in the profile data obtained by Equation M4 exceeds the range 0 ⁇ C ⁇ 2 5 5, the value G of that element may be set to 0 or 2 5 5.
  • the fifth profile data is determined based on an operation including a function that emphasizes the difference between the input signal IS and the ann sharp signal US according to the value of the input signal IS.
  • the sharp component of the input signal IS depends on the value of the input signal IS. Can be emphasized. For this reason, it is possible to properly enhance the input signal IS from the dark part to the bright part.
  • the dynamic range compression function F 8 may be a direct proportional function with a proportional coefficient of 1.
  • FIG. 21 shows a visual processing device 51 equivalent to the visual processing device 1 in which the fifth profile data is registered in the two-dimensional LUT 4.
  • the visual processing device 51 is a device that outputs the output signal OS based on a calculation that emphasizes the difference between the input signal IS and the unsharp signal US according to the value of the input signal IS.
  • the sharp component of the input signal IS can be emphasized according to the value of the input signal IS. For this reason, it is possible to appropriately enhance the input signal IS from the dark part to the bright part.
  • the visual processing device 51 shown in FIG. 21 is different from the visual processing device 41 shown in FIG. 20 in that the DR compression unit 49 is not provided.
  • portions that perform the same operations as those of the visual processing device 41 shown in FIG. 20 are denoted by the same reference numerals, and detailed description thereof is omitted.
  • the visual processing device 51 includes a spatial processing unit 42 that performs spatial processing on the luminance value of each pixel of the original image acquired as the input signal IS and outputs an unsharp signal US, and an input signal IS and an unsharp signal US. And a visual processing unit 52 that performs visual processing of the original image and outputs an output signal OS.
  • the spatial processing unit 42 performs the same operation as the spatial processing unit 2 included in the visual processing device 1, description thereof is omitted.
  • the visual processing unit 52 receives the input signal IS as the first input, the unsharp signal US as the second input, and outputs the difference signal DS that is the difference between them, and the difference signal DS as an input.
  • Emphasis processing signal TS to output the emphasis processing signal TS 4 5 and input signal
  • Emphasis amount adjustment unit 46 that receives IS as input and outputs enhancement amount adjustment signal IC, enhancement amount adjustment signal IC as the first input, enhancement processing signal TS as the second input, enhancement amount adjustment signal IC and enhancement
  • a multiplication unit 47 that outputs a multiplication signal MS multiplied by the processing signal TS, and an addition unit 53 that outputs the output signal OS with the input signal IS as a first input and the multiplication signal MS as a second input. ing.
  • the subtraction unit 44, the enhancement processing unit 45, the enhancement amount adjustment unit 46, and the multiplication unit 47 perform the same operations as those described for the visual processing device 41 shown in FIG.
  • the adder 53 adds the input signal IS with the value A and the multiplication signal MS with the value F6 (A) * F 7 (A— B), and adds the value A + F6 (A) * F 7 (A— B) Output signal OS.
  • the visual processing device 1 and the visual processing device 51 having the fifth profile data have the same visual processing effect.
  • the visual processing device 1 and the visual processing device 41 having the fourth profile data have the same visual processing effect as the visual processing device 41 and the visual processing device 41.
  • the amount of enhancement of the differential signal DS is adjusted by the value A of the input signal IS. For this reason, it becomes possible to make the contrast enhancement amount from the dark part to the bright part uniform.
  • the enhancement processing unit 45 need not be provided.
  • the value C of the element in the profile data obtained by equation M5 is 0 ⁇ C ⁇ 2. If the range exceeds 55, the value C of the element may be 0 or 255.
  • the sixth profile data is determined on the basis of an operation for gradation correction of a value obtained by adding the value of the input signal IS to the value obtained by enhancing the difference between the input signal IS and the unsharp signal US.
  • an operation for gradation correction of a value obtained by adding the value of the input signal IS to the value obtained by enhancing the difference between the input signal IS and the unsharp signal US is determined on the basis of an operation for gradation correction of a value obtained by adding the value of the input signal IS to the value obtained by enhancing the difference between the input signal IS and the unsharp signal US.
  • the value C of each element of the 6th profile data (value of the output signal OS) is calculated using the value A of the input signal IS, the value ⁇ of the unsharp signal US, the enhancement function F 9 and the tone correction function F 1 0.
  • C F 1 0 (A + F9 (A ⁇ B)) (hereinafter referred to as equation M6).
  • the enhancement function F 9 is one of the enhancement functions R 1 to R 3 described with reference to FIG.
  • the gradation correction function F 10 is a function used in normal gradation correction, such as a gamma correction function, an S-shaped gradation correction function, and an inverse S-shaped gradation correction function.
  • FIG. 22 shows a visual processing device 61 equivalent to the visual processing device 1 in which the sixth profile data is registered in the two-dimensional LUT 4.
  • the visual processing device 61 outputs the output signal OS based on a calculation that performs gradation correction on the value obtained by adding the value of the input signal IS to the value that emphasizes the difference between the input signal IS and the unsharp signal US. Device. As a result, for example, it is possible to realize visual processing that performs gradation correction on the input signal Is in which the sharp component is emphasized.
  • the visual processing device 61 shown in FIG. 22 includes a spatial processing unit 62 that performs spatial processing on the luminance value of each pixel of the original image acquired as the input signal IS and outputs an unsharp signal US, and an input signal IS and an unsharp A visual processing unit 63 that performs visual processing of the original image using the signal US and outputs an output signal OS is provided.
  • the spatial processing unit 62 performs the same operation as the spatial processing unit 2 included in the visual processing device 1, description thereof is omitted.
  • the visual processing unit 63 receives the input signal IS as the first input and the unsharp signal US as the second input.
  • a subtraction unit 64 that outputs a difference signal DS that is a difference between them, an enhancement processing unit 65 that outputs an enhancement processing signal TS that is subjected to enhancement processing using the difference signal DS as input, and an input signal IS as a first
  • An adder 66 that outputs the input signal and the emphasis processing signal TS as the second input and outputs the added signal PS, and a tone correction unit 67 that outputs the added signal PS and outputs the output signal OS are provided. .
  • the subtractor 64 calculates the difference between the input signal IS with the value A and the unsharp signal US with the value B, and outputs the difference signal DS with the value A ⁇ B.
  • the enhancement processing unit 65 outputs an enhancement processing signal T S having a value F 9 (A—B) from the difference signal DS having a value A—B, using the enhancement function F 9.
  • the adder 66 adds the input signal IS with the value A and the enhancement processing signal TS with the value F9 (A-B), and outputs the addition signal PS with the value A + F 9 (A-B).
  • the tone correction unit 67 outputs the output signal OS of the value F 1 0 (A + F 9 (AB)) from the addition signal PS of the value A + F9 (AB) using the tone correction function F 1 0. To do.
  • the calculation using the enhancement function F 9 and the gradation correction function F 10 may be performed using a one-dimensional LUT for each function, or may be performed without using the LUT. .
  • the visual processing device 1 and the visual processing device 61 having the sixth profile data have the same visual processing effect.
  • the difference signal DS is enhanced by the enhancement function F9 and added to the input signal IS. For this reason, it is possible to enhance the contrast of the input signal IS. Furthermore, the gradation correction unit 67 executes gradation correction processing for the addition signal PS. For this reason, for example, it is possible to further enhance the contrast in a halftone having a high appearance frequency in the original image. In addition, for example, the entire addition signal PS can be brightened. As described above, it is possible to realize a combination of spatial processing and gradation processing at the same time.
  • the visual processing unit 63 may calculate the above expression M6 without using the two-dimensional LUT 4 based on the input signal IS and the unsharp signal US.
  • one-dimensional LUs may be used in the calculation of the functions F9 and F10.
  • the element value C may be set to 0 or 255.
  • the seventh profile data is determined on the basis of a calculation in which the input signal IS is subjected to gradation correction for the value obtained by enhancing the difference between the input signal IS and the unsharp signal US.
  • enhancement of the sharp component and gradation correction of the input signal IS are performed independently. For this reason, it is possible to enhance a certain sharp component regardless of the gradation correction amount of the input signal IS.
  • the enhancement function F 11 is any one of the enhancement functions R 1 to R 3 described with reference to FIG.
  • the gradation correction function F 1 2 is, for example, a gamma correction function, an S-shaped gradation correction function, or an inverse S-shaped gradation correction function.
  • FIG. 23 shows a visual processing device 71 equivalent to the visual processing device 1 in which the seventh profile data is registered in the two-dimensional LUT 4.
  • the visual processing device 71 is a device that outputs the output signal OS based on an operation of adding a value obtained by correcting the gradation of the input signal IS to a value that emphasizes the difference between the input signal IS and the unsharp signal US.
  • sharp component enhancement and gradation correction of the input signal IS It is done independently of the positive. Therefore, it is possible to enhance a certain sharp component regardless of the gradation correction amount of the input signal IS.
  • the visual processing device 71 shown in FIG. 23 includes a spatial processing unit 72 that performs spatial processing on the luminance value of each pixel of the original image acquired as the input signal IS and outputs the unsharp signal US, and the input signal IS and the unsharp A visual processing unit 73 that performs visual processing of the original image using the signal US and outputs an output signal OS is provided.
  • the spatial processing unit 72 performs the same operation as the spatial processing unit 2 included in the visual processing device 1, description thereof is omitted.
  • the visual processing unit 73 uses the input signal IS as the first input and the unsharp signal US as the second input, and outputs a difference signal DS that is the difference between the subtraction unit 74 and the difference signal DS as input.
  • the emphasis processing unit 75 that outputs the enhanced emphasis signal TS, the tone correction unit 76 that outputs the tone correction signal GC with the input signal IS as an input, and the tone correction signal GC And an enhancement processing signal TS as a second input, and an adder 77 that outputs an output signal OS.
  • the subtracting unit 74 calculates a difference between the input signal IS having the value A and the unsharp signal US having the value B, and outputs a difference signal DS having the value A ⁇ B.
  • the enhancement processing unit 75 outputs the enhancement processing signal TS having the value F 11 (A ⁇ B) from the difference signal DS having the value A—B, using the enhancement function F 11.
  • the gradation correction unit 76 outputs the gradation correction signal GC having the value F 1 2 (A) from the input signal IS having the value A using the gradation correction function F 12.
  • the adding unit 77 adds the gradation correction signal GC having the value F 1 2 (A) and the enhancement processing signal TS having the value F 1 1 (A—B) to obtain the value F 1 2 (A) + F 1 1 Outputs the output signal OS of (AB).
  • the calculation using the enhancement function F 11 and the gradation correction function F 12 may be performed using a one-dimensional LUT for each function, or may be performed without using a LUT.
  • the visual processing device 1 and the visual processing device 71 having the seventh profile data have the same visual processing effect.
  • the input signal IS is subjected to gradation correction by the gradation correction unit 76 and then added to the enhancement processing signal TS. For this reason, it is possible to enhance the local contrast by adding the subsequent enhancement processing signal TS even in the region where the gradation change of the gradation correction function F 1 2 is small, that is, in the region where the contrast is reduced. Become.
  • the visual processing unit 73 may calculate the above expression M7 without using the two-dimensional LUT 4 based on the input signal IS and the unsharp signal US.
  • a one-dimensional LUT may be used in the calculation of the respective functions F 1 1 and F 1 2.
  • the value C of an element in the profile data obtained by Equation M7 exceeds the range of O C ⁇ 255, the value C of that element may be set to 0 or 255.
  • each element of the first to seventh profile data stores values calculated based on the equations M1 to M7.
  • the value calculated by the formulas Ml to M7 exceeds the range of values that can be stored in the profile data, the element value may be limited.
  • some values may be arbitrary. For example, if the value of the input signal IS is large but the value of the unsharp signal US is small, such as a small light part in a dark night scene (such as a neon part in a night scene), the visually processed input signal IS The value of has a small effect on the image quality. In this way, in the portion where the value after visual processing has little influence on the image quality, the value stored in the profile data may be an approximate value of the value calculated by the equations M1 to M7 or an arbitrary value. Even if the value stored in the profile data is an approximate value of the value calculated by equations M1 to M7, or an arbitrary value, it is stored for the input signal IS and unsharp signal US with the same value.
  • the values that are displayed maintain a monotonically increasing or monotonically decreasing relationship with the values of the input signal IS and the unsharp signal US.
  • the values stored in the profile data for the same value of the input signal IS and the unsharp signal US indicate an outline of the profile data characteristics. Therefore, it is desirable to tune the profile data while maintaining the above relationship in order to maintain the characteristics of the 2D LUT.
  • a visual processing device 6 0 0 as a second embodiment of the present invention will be described with reference to FIGS. 24 to 39.
  • the visual processing device 600 is a visual processing device that performs visual processing on an image signal (input signal IS) and outputs a visual processing image (output signal OS), and a display device (not shown) that displays the output signal OS. It is a device that performs visual processing according to the installed environment (hereinafter referred to as the display environment).
  • the visual processing device 600 is a device that improves the reduction in the “visual contrast” of the display image due to the influence of ambient light in the display environment by visual processing using human visual characteristics. is there.
  • the visual processing device 60 constitutes an image processing device together with a device that performs image signal color processing in a device that handles images such as a computer, a television, a digital camera, a mobile phone, a PDA, a printer, and a scanner.
  • Fig. 24 shows the basic configuration of the visual processing device 600.
  • the visual processing device 600 includes a target contrast converter 6 0 1, a converted signal processor 6 0 2, an actual contrast converter 6 0 3, a target contrast setting unit 6 0 4, and an actual contrast setting unit 6 0 It consists of five.
  • the target contrast ⁇ converter 6 0 1 uses the input signal IS as the first input, the target contrast C 1 set in the target contrast setting unit 6 0 4 as the second input, The target contrast signal JS is output.
  • the definition of target contrast C1 will be described later.
  • the conversion signal processing unit 602 uses the target contrast signal JS as the first input, the target contrast C 1 as the second input, and the actual contrast C 2 set in the actual contrast setting unit 605 as the third input, and performs visual processing.
  • the visual processing signal KS which is the target contrast signal JS, is output. The definition of actual contrast C2 will be described later.
  • the actual contrast conversion unit 603 uses the visual processing signal KS as the first input, the actual contrast C2 as the second input, and the output signal OS as the output.
  • the target contrast setting unit 604 and the actual contrast setting unit 605 allow the user to set the values of the target contrast C 1 and the actual contrast ⁇ C 2 via the input interface or the like.
  • the target contrast conversion unit 601 converts the input signal I S input to the visual processing device 600 into a target contrast signal J S suitable for contrast expression.
  • the luminance value of the image input to the visual processing device 600 is represented by the gradation of the value [0.0 to 1.0].
  • the target contrast conversion unit 601 uses the target contrast C 1 (value [m]) to convert the input signal IS (value [P]) according to “Formula M2 OJ and target contrast ⁇ signal JS (value [A])
  • the value [m] of the target contrast C1 is set as a contrast value so that the display image displayed by the display device can be seen with the best contrast.
  • FIG. Fig. 25 is a graph showing the relationship between the value of the input signal I S (horizontal axis) and the value of the target contrast signal J S (vertical axis).
  • the target contrast conversion unit 6 0 1 uses the target contrast signal in which the input signal IS in the range of the value [0.0 to 1.0] is in the range of the value [1 Zm to 1.0]. Converted to JS.
  • the conversion signal processing unit 60 2 compresses the dynamic range and outputs the visual processing signal K S while maintaining the local contrast of the input target contrast signal J S. Specifically, the converted signal processing unit 60 2 does not regard the input signal IS (see FIG. 16) in the visual processing device 21 shown in the first embodiment as the target contrast signal JS, and the output signal OS (see FIG. (See 1 6) has the same structure and effect as the visual processing signal KS.
  • the converted signal processing unit 60 2 outputs the visual processing signal K S based on a calculation that emphasizes the ratio between the target contrast signal J S and the unsharp signal U S. This makes it possible to implement visual processing that emphasizes sharp components, for example.
  • the converted signal processing unit 60 2 outputs a visual processing signal K S based on an operation for performing dynamic range compression on the ratio of the emphasized target contrast signal J S and the unsharp signal US. This enables, for example, visual processing that compresses the dynamic range while enhancing the sharp component.
  • the conversion signal processing unit 60 2 performs spatial processing on the luminance value of each pixel in the target contrast signal JS and outputs an unsharp signal US, and the target contrast signal JS and the unsharp signal US. And a visual processing unit 6 2 3 for performing visual processing on the target contrast signal JS and outputting the visual processing signal KS.
  • the visual processing unit 623 includes a division unit 625, an enhancement processing unit 626, and an output processing unit 627 having a 0 compression unit 628 and a multiplication unit 629.
  • the division unit 625 outputs a division signal RS obtained by dividing the target contrast signal J S by the unsharp signal US, with the target contrast signal J S as the first input, the unsharp signal US as the second input.
  • the enhancement processing unit 626 outputs the enhancement processing signal TS with the division signal RS as the first input, the target contrast C1 as the second input, and the actual contrast C2 as the third input.
  • the output processing unit 627 uses the target contrast signal JS as the first input, the enhancement processing signal TS as the second input, the target contrast C 1 as the third input, and the actual contrast C2 as the fourth input. Is output.
  • the DR compression unit 628 uses the target contrast signal JS as the first input, the target contrast C1 as the second input, and the actual contrast C2 as the third input, and DR compression with dynamic range (DR) compression. Outputs signal DRS.
  • Multiplier 629 receives DR compressed signal DRS as a first input and enhancement processing signal T S as a second input, and outputs visual processing signal K S.
  • the conversion signal processing unit 602 converts the target contrast signal JS (value [A]) using the ⁇ expression M2J, Outputs the visual processing signal KS (value [C]).
  • the value [B] is the value of the unsharp signal U S obtained by spatially processing the target contrast signal J S.
  • the spatial processing unit 622 performs spatial processing on the target contrast signal JS having a value [A] and outputs an unsharp signal US having a value [B].
  • the division unit 625 divides the target contrast signal JS having the value [A] by the unsharp signal US having the value [B] and outputs the division signal RS having the value [AZB].
  • the enhancement processing unit 6 26 outputs the enhancement processing signal TS of the value [F 5 (A ZB)] from the division signal RS of the value [A / B] using the enhancement function F 5.
  • the DR compression unit 628 outputs the DR compression signal DRS having the value [F4 (A)] from the target contrast signal JS having the value [A] using the dynamic range compression function F4.
  • the multiplication unit 629 multiplies the DR compressed signal DRS having the value [F4 (A)] and the enhancement processing signal TS having the value [F 5 (A / B)] to obtain the value [F4 (A) * F5 (A / B )] Visual processing signal KS is output.
  • the calculation using the dynamic range compression function F 4 and the enhancement function F 5 may be performed using a one-dimensional LUT for each function, or may be performed without using a LUT.
  • the visual dynamic range of the visual processing signal K S is determined by the value of the dynamic range compression function F 4.
  • FIG. 26 is a graph showing the relationship between the value of the target contrast signal J S (horizontal axis) and the value obtained by applying the dynamic range compression function F 4 to the target contrast signal J S (vertical axis).
  • the dynamic range of the target contrast signal J S is compressed by the dynamic range compression function F4. More specifically, the target contrast signal J S in the range of the value [1 / m to 1.0] is converted into the range of the value [1 / n to 1.0] by the dynamic range compression function F4.
  • the actual contrast C2 value [n] is set as the visual contrast value of the displayed image under the ambient light of the display environment. That is, the value [n] of the actual contrast C2 can be determined as a value obtained by reducing the value [m] of the target contrast ⁇ C1 by the influence of the luminance of the ambient light in the display environment.
  • dynamic range means the ratio between the minimum and maximum signal values.
  • the local contrast change in the visual processing signal KS is expressed as the ratio of the amount of change before and after conversion between the target contrast signal JS value [A] and the visual processing signal KS value [C].
  • the value [B] of the unshaped signal US locally ie, in a narrow range, can be regarded as constant.
  • the ratio of the change amount of the value G and the change amount of the value A in Equation M2 is 1, and the local contrast between the target contrast signal J S and the visual processing signal KS does not change.
  • the conversion signal processing unit 6002 can realize visual processing that does not reduce the visual contrast while compressing the dynamic range of the target contrast signal J S.
  • the details of the actual contrast conversion unit 603 will be described with reference to FIG.
  • the actual contrast conversion unit 603 converts the visual processing signal KS into image data in a range that can be input to a display device (not shown).
  • the range of image data that can be input to the display device is, for example, image data in which the luminance value of an image is represented by gradations of values [0.0 to 1.0].
  • the actual contrast conversion unit 603 converts the visual processing signal KS (value [C]) using the actual contrast C 2 (value [n]) according to “Equation M21” and outputs the output signal OS (value [Q]). Output.
  • FIG. 27 is a graph showing the relationship between the value of the visual processing signal KS (horizontal axis) and the value of the output signal OS (vertical axis).
  • the actual contrast conversion unit 603 converts the visual processing signal KS in the range of values [1 / n to 1.0] into the output signal OS in the range of values [0.0 to 1.0]. Is done.
  • the value of the output signal OS decreases with respect to the value of each visual processing signal KS. This decrease is based on whether the brightness of the displayed image is ambient light. It corresponds to the influence received from.
  • the output signal OS is converted to a value [0]. Further, in the actual contrast conversion unit 603, when a visual processing signal KS having a value [1] or more is input, the output signal OS is converted to a value [1].
  • the visual processing device 600 has the same effect as the visual processing device 21 described in the first embodiment. Hereinafter, effects characteristic of the visual processing device 600 will be described.
  • the output signal OS When the ambient light is present in the display environment displaying the output signal OS of the visual processing device 600, the output signal OS is visually affected by the ambient light.
  • the output signal OS is a signal that has been subjected to processing for correcting the influence of ambient light by the actual contrast converter 603.
  • the output signal OS displayed on the display device is viewed as a display image having the characteristics of the visual processing signal KS.
  • the characteristics of the visual processing signal KS are the same as the output signal OS of the visual processing device 21 described in the first embodiment (see Fig. 16) and the dynamic range of the entire image while maintaining local contrast. Is compressed.
  • the visual processing signal KS has a dynamic range (corresponding to the actual contrast C 2) that can be displayed under the influence of ambient light while maintaining the target contrast ⁇ C 1 where the display image is optimally displayed locally. It is a compressed signal.
  • the visual processing device 600 can maintain the visual contrast by the process using the visual characteristics while correcting the contrast wrinkles that decrease due to the presence of ambient light.
  • a visual processing method that produces the same effect as the visual processing device 600 will be described with reference to FIG. Note that the specific processing of each step is the same as the processing in the visual processing device 600, and the description thereof is omitted.
  • the set target contrast C 1 and A real contrast C 2 is obtained (step S 601).
  • the acquired target contrast C 1 is used to convert the input signal IS (step S 602), and the target contrast signal JS is output.
  • spatial processing is performed on the target contrast signal JS (step S603), and an unsharp signal US is output.
  • the target contrast signal JS is divided by the unsharp signal US (step S604), and the division signal RS is output.
  • the division signal RS is emphasized by the enhancement function F 5 which is a “power function” having an index determined by the target contrast C 1 and the actual contrast C 2 (step S 605), and the enhancement processing signal TS is output.
  • the target contrast signal JS is redynamic range compressed by the dynamic range compression function F4 which is an “power function” having an index determined by the target contrast C1 and the actual contrast C2 (step S606), DR The compressed signal D RS is output.
  • the emphasis processing signal TS output in step S605 and the DR compressed signal DRS output in step S606 are multiplied (step S607), and the visual processing signal KS is output.
  • the actual contrast C 2 is used to convert the visual processing signal KS.
  • Step S608 the output signal OS is output.
  • the processing from step S602 to step S608 is repeated for all the pixels of the input signal IS (step S609).
  • Each step of the visual processing method shown in FIG. 28 may be realized as a visual processing program in the visual processing device 600 or another computer. Further, the processing from step S604 to step S607 may be performed at a Lee degree by calculating the equation M2.
  • the conversion signal processing unit 602 outputs the visual processing signal KS based on Equation (2).
  • the conversion signal processing unit 602 may output the visual processing signal KS based only on the dynamic range enhancement function F4.
  • the conversion signal processing unit 602 as a modification need not include the spatial processing unit 622, the division unit 625, the enhancement processing unit 626, and the multiplication unit 629, and need only include the DR compression unit 628.
  • the conversion signal processing unit 602 as a modified example can output a visual processing signal KS compressed to a dynamic range that can be displayed under the influence of ambient light.
  • the exponent of the enhancement function F 5 may be a function of the value [A] of the target contrast signal J S or the value [B] of the unsharp signal US.
  • the exponent of the enhancement function F 5 is a function of the value [A] of the target contrast signal JS and decreases monotonously when the value [A] of the target contrast signal JS is larger than the value [B] of the unsharp signal US Function. More specifically, the index of the enhancement function F 5 is expressed as Q (A) * (1 -r), and the function Q (A) is expressed as the value of the target contrast signal JS [A ] Is a monotonically decreasing function. The maximum value of the function Q (A) is [1. 0].
  • the enhancement function F5 reduces the amount of enhancement of local contrast in the high luminance part. For this reason, when the luminance of the pixel of interest is higher than the luminance of surrounding pixels, excessive enhancement of local contrast in the high luminance portion is suppressed. In other words, the luminance value of the pixel of interest is suppressed from being saturated to a high luminance and so-called whiteout.
  • the exponent of the enhancement function F 5 is a function of the value [A] of the target contrast signal JS, and increases monotonously when the value [A] of the target contrast signal JS is smaller than the value [B] of the unsharp signal US Function. More specifically, the index of the enhancement function F5 is expressed as 2 (A) * (1-7, and the function QT 2 (A) is the value of the target contrast signal JS [A] as shown in Fig. 30 Is a monotonically increasing function. The maximum value of function ⁇ 2 (A) is [1. 0].
  • the enhancement function F5 reduces the amount of enhancement of the local contrast in the low luminance part. For this reason, when the luminance of the pixel of interest is lower than the luminance of surrounding pixels, excessive enhancement of local contrast in the low luminance portion is suppressed. In other words, the luminance value of the target pixel is saturated to a low luminance, and the so-called blackened state is suppressed.
  • the exponent of the enhancement function F 5 is a function of the target contrast signal JS value [A] and increases monotonously when the target contrast signal JS value [A] is greater than the unsharp signal US value [B]. Function. More specifically, the exponent of the enhancement function F 5 is expressed as 3 (A) * (1 -r), and the function 3 (A) is a value of the target contrast signal JS [A ] Is a monotonically increasing function. The maximum value of function 3 (A) is [1. 0].
  • the enhancement function F5 reduces the amount of enhancement of the local contrast in the low luminance part. For this reason, when the luminance of the pixel of interest is higher than the luminance of surrounding pixels, excessive enhancement of local contrast in the low luminance part is suppressed.
  • the low luminance part in the image has a relatively low signal level because of its low signal level. However, by performing such processing, it is possible to suppress the degradation of the SN ratio.
  • the exponent of the enhancement function F5 is a function of the value [A] of the target contrast signal JS and the value [B] of the unsharp signal US, and is relative to the absolute value of the difference between the value [A] and the value [B]. And a monotonically decreasing function.
  • the exponent of the enhancement function F 5 can be said to be a function that increases as the ratio of the value [A] to the value [B] approaches 1. More specifically, the exponent of the enhancement function F5 is expressed as a4 (A, B) * (1 -r), and the function 0? 4 (A, B) has the value [A— B] is a monotonically decreasing function with respect to the absolute value.
  • An upper limit or a lower limit may be provided for the calculation result of the enhancement function F 5 in the above ⁇ 1 >> to ⁇ 4 >>. Specifically, when the value [F5 (A / B)] exceeds a predetermined upper limit value, the predetermined upper limit value is adopted as the calculation result of the enhancement function F5. When the value CF5 (A / B)] exceeds the predetermined lower limit value, the predetermined lower limit value is adopted as the calculation result of the enhancement function F5.
  • the amount of local contrast enhancement by the enhancement function F 5 can be limited to an appropriate range, and excessive or too little contrast enhancement is suppressed.
  • ⁇ 1 >> to ⁇ 5 >> can be applied in the same way to the calculation using the enhancement function F5 in the first embodiment (for example, the first embodiment ⁇ profile data> (2 Or (3) etc.)
  • the value [A] is the value of the input signal IS
  • the value [B] is the value of the unsharp signal US obtained by spatially processing the input signal IS.
  • the converted signal processing unit 602 has the same configuration as the visual processing device 21 shown in the first embodiment.
  • the conversion signal processing unit 602 as a modification may have the same configuration as the visual processing device 31 (see FIG. 19) shown in the first embodiment.
  • the conversion signal processing unit 602 as a modified example is realized by regarding the input signal IS in the visual processing device 31 as the target contrast signal JS and the output signal OS as the visual processing signal KS.
  • the transformation signal processing unit 602 as a modified example performs visual processing based on the expression M 3 J for the target contrast signal JS (value [A]) and the unsharp signal US (value [B]).
  • Equation M3 does not compress the dynamic range for the input signal IS, but can emphasize local contrast.
  • This local contrast enhancement effect makes it possible to give the impression that the “visual” dynamic range is compressed or stretched.
  • the enhancement function F 5 is a “power function”, and its exponent is the function Of 1 (A), 2 described in the above ⁇ Modification> (ii) ⁇ 1 >> to ⁇ 4 >>
  • the function may have the same tendency as (A), Of 3 (A), Of 4 (A, B).
  • the calculation result of the enhancement function F 5 may have an upper limit or a lower limit.
  • the target contrast ⁇ setting unit 604 and the actual contrast ⁇ setting unit 605 allow the user to set the values of the target contrast C 1 and the actual contrast C 2 through input in, turf: c chair, etc.
  • the target contrast setting unit 604 and the actual contrast setting unit 605 may be capable of automatically setting the values of the target contrast C 1 and the actual contrast C 2.
  • the actual contrast setting unit 605 for automatically setting the value of the actual contrast C2 will be described.
  • Figure 33 shows the actual contrast setting unit 605 that automatically sets the value of actual contrast C2.
  • the actual contrast setting unit 605 includes a luminance measurement unit 605a, a storage unit 605b, and a calculation unit 605c.
  • the luminance measuring unit 605a is a luminance sensor that measures the luminance value of ambient light in the display environment of the display that displays the output signal OS.
  • the storage unit 605 b stores white luminance (white level) and black luminance (black level) that can be displayed on the display that displays the output signal OS without ambient light.
  • the calculation unit 605 c acquires values from the luminance measurement unit 605 a and the storage unit 605 b, and calculates the actual contrast C 2 value.
  • the calculating unit 605 c adds the luminance value of the ambient light acquired from the luminance measuring unit 605 a to each of the black level luminance value and the white level luminance value stored in the storage unit 605 b. Furthermore, the calculator 605 c is black Using the addition result to the luminance value of the level, the value obtained by dividing the addition result to the luminance value of the white level is output as the value [n] of the actual contrast C2. As a result, the value [n] of the actual contrast C 2 indicates the contrast value displayed on the display in a display environment where ambient light exists.
  • the storage unit 6 0 5 b shown in Fig. 3 3 shows the ratio of white luminance (white level) and black luminance (black level) that can be displayed without the ambient light to the value of the target contrast C 1 [ m] may be stored.
  • the actual contrast setting unit 60 5 simultaneously performs the function of the target contrast setting unit 60 4 that automatically sets the target contrast C 1.
  • the storage unit 6 005 b does not store the ratio, and the ratio may be calculated by the calculation unit 6 0 5 G.
  • the display device that displays the output signal OS is a projector, etc.
  • the white luminance (white level) and black luminance (black level) that can be displayed in the absence of ambient light depend on the distance to the screen.
  • the actual contrast setting unit 6 0 5 for automatically setting the value of contrast C 2 will be described.
  • Figure 34 shows the actual contrast setting section 6 0 5 that automatically sets the actual contrast C 2 value.
  • the actual contrast setting unit 60 5 includes a luminance measurement unit 60 05 d and a control unit 60 05 e.
  • the luminance measuring unit 6 0 5 d is a luminance sensor that measures the luminance value in the display environment of the output signal OS displayed by the projector.
  • the controller 6 0 5 e causes the projector to display a white level and a black level. Furthermore, the brightness value when each level is displayed is obtained from the brightness measuring section 6 0 5 d and the value of the actual contrast C 2 is calculated.
  • the controller 6 0 5 e operates the projector in a display environment in which ambient light is present to display a white level (step S 6 2 0).
  • the control unit 60 5 e acquires the brightness of the measured white level from the brightness measurement unit 60 5 d (step S 6 2 1).
  • the control unit 6 05 e operates the projector in a display environment in which ambient light exists to display a black level (step S 6 2 2).
  • Control unit 6 0 5 e is a brightness measurement unit From 605d, the brightness of the measured black level is obtained (step S623).
  • the control unit 605 e calculates the ratio of the acquired brightness value of the white level and the brightness value of the black level and outputs it as the value of the actual contrast G2.
  • the value [n] of the actual contrast C2 indicates the contrast value displayed by the projector in the display environment where ambient light exists.
  • the value [m] of the target contrast C 1 can be derived by calculating the ratio between the white level and the black level in a display environment in which no ambient light exists.
  • the actual contrast setting unit 605 simultaneously performs the function of the target contrast setting unit 604 that automatically sets the target contrast C1.
  • the processing in the visual processing device 600 is performed on the luminance of the input signal IS.
  • the present invention is not effective only when the input signal Is is expressed in the YCbCr color space.
  • the input signal IS may be expressed in a YUV color space, a Lab color space, a Luv color space, a YIQ color space, an XYZ color space, a YPbPr color space, or the like.
  • the processing described in the above embodiment can be executed for the luminance and brightness of each color space.
  • the processing in the processing device 600 may be performed independently for each component of RGB.
  • the processing by the target contrast conversion unit 601 is independently performed on the RGB components of the input signal I S, and the RGB components of the target contrast signal J S are output. Furthermore, the RGB component of the target contrast signal J S is independently processed by the conversion signal processing unit 602, and the RGB component of the visual processing signal KS is output. Furthermore, the RGB component of the visual processing signal KS is independently processed by the actual contrast conversion unit 603, and the RGB component of the output signal OS is output.
  • common values are used for the target contrast C 1 and the actual contrast C 2 in the processing of each of the RGB components.
  • (V i) Color difference correction processing The visual processing device 600 suppresses the hue of the output signal OS from being different from the hue of the input signal IS due to the influence of the luminance component processed by the conversion signal processing unit 602. May be further provided.
  • FIG. 36 shows a visual processing device 600 that includes a color difference correction processing unit 608.
  • the same components as those of the visual processing device 600 shown in FIG. It is assumed that the input signal IS has a YCbCr color space, and that the Y component is processed in the same way as described in the above embodiment.
  • the color difference correction processing unit 608 will be described.
  • the color difference correction processing unit 608 uses the target contrast signal JS as the first input (value [Y in]), the visual processing signal KS as the second input (value [Y out]), and the Cb component of the input signal IS as the first input. 3 input (value [CB in]), C r component of the input signal IS is the 4th input (value [CR in]), and the color difference corrected Cb component is the 1st output (value [CB out] )
  • the Cr component that has undergone color difference correction is the second output (value [CRout]).
  • FIG. 37 outlines the color difference correction process.
  • the color difference correction processing unit 608 has four inputs, [Y in], [Y out], [CB i ⁇ ], and [CR PRINT]. By calculating these four inputs, [Cout], [C CR out] 2 outputs.
  • [CBo ut] and [CRo ut] are derived based on the following equation that corrects [CB in] and [CR in] by the difference and ratio between [Y in] and [Y out].
  • [CBo ut] is al * ([Y out-[Y in]) * [CB in] + a 2 * (1-[Y out] / [Y in]) * [CB in] + a 3 * ( [Y out]-[Y in]) * [CR in] + a 4 * (1-[Y out] / [Y in]) * derived based on [CR in] + [CB in], ( Hereinafter referred to as Formula CB).
  • [CRo u t] is a 5 * ([Yo u t — [Y i n]) * [C B i n] + a
  • step S630 four inputs of [Y i n], [Y o u t], [CB i n], and [GR i n] are obtained (step S630).
  • the value of each input is data prepared in advance to determine the coefficients a 1 to a 8. For example, as [Y i n], [CB i n], and [CR i n], values obtained by thinning out all possible values at predetermined intervals are used. Further, as [Y 0 U t], a value obtained by thinning out a value that can be output when the value of [Y i n] is input to the conversion signal processing unit 602 at a predetermined interval is used.
  • the data prepared in this way is acquired as 4 inputs.
  • the acquired [ ⁇ ⁇ n], [CB in], [CR in] are converted to the Lab color space, and the converted Lab color
  • the chromaticity values [A in] and [B in] in the space are calculated (step S 631).
  • “expression CB” and “expression CR” are calculated using default coefficients a 1 to a 8, and the values of [CBo u t] and [GR Lou t] are obtained (step S 632).
  • the obtained value and [Y o t] are converted to the Lab color space, and the chromaticity values [Ao t] and [Bo u t] in the converted Lab color space are calculated (step S633).
  • an evaluation function is calculated using the calculated chromaticity values [A PRINT:], [B in], [A out], [Boot] (step S634), and the value of the evaluation function is predetermined. It is judged whether it is below the threshold of.
  • the evaluation function is a function that becomes a small value when the hue change between [A in] and [B in] and [A out] and [Boot] becomes small. It is a function such as the sum of squares of component deviations. More specifically, the evaluation function is ([A in] — [Ao ut]) ⁇ 2+ ([B in] — [Bo ut]) ⁇ 2, etc.
  • step S 635 If the value of the evaluation function is larger than the predetermined threshold value (step S 635), the coefficients a 1 to a 8 are modified (step S 636), and the new coefficient is used to change to step S 63 2 to Step S 635 are repeated.
  • step S635 When the value of the evaluation function is smaller than the predetermined threshold (step S635), the coefficients a1 to a8 used for the calculation of the evaluation function are output as the result of the estimation calculation (step S637).
  • the coefficients a 1 to a 8 are calculated using one of the four combinations of [Y in], [Yout], [CB in], and [CR in n] prepared in advance.
  • the estimation calculation may be performed, the above-described processing may be performed using a plurality of combinations, and the coefficients a 1 to a 8 that minimize the evaluation function may be output as a result of the estimation calculation.
  • the value of the target contrast signal JS is [Y in]
  • the value of the visual processing signal KS is [Yout]
  • the value of the Cb component of the input signal IS is [ CB in]
  • the value of the Cr component of the input signal IS is [CR in]
  • the value of the Cb component of the output signal OS is [CB out]
  • the value of the C r component of the output signal OS is [CR Out].
  • [ ⁇ in], [Y out] % [CB in], [CR in], [C Boot], and [CR Output] may represent values of other signals.
  • the target contrast conversion unit 601 performs processing on each component of the input signal IS.
  • the processed RGB color space signal is converted to a YC b Cr color space signal, the Y component value is [ ⁇ ⁇ n], the Cb component value is [CB in], and the Cr component value is The value may be [CR in].
  • the output signal OS is an RGB color space signal
  • the derived [Y out], [CBot], [CRout] are converted to the RGB color space, and the actual contrast conversion is performed for each component.
  • the conversion processing by the unit 603 may be performed to obtain the output signal OS.
  • the color difference correction processing unit 608 corrects each of the RGB components input to the color difference correction processing unit 608 using the ratio of the signal values before and after the processing of the conversion signal processing unit 602. It may be processed.
  • the structure of a visual processing device 600 as a modification will be described with reference to FIG. Note that portions that perform substantially the same functions as those of the visual processing device 600 shown in FIG. 36 are assigned the same reference numerals, and descriptions thereof are omitted.
  • the visual processing device 600 as a modified example includes a luminance signal generation unit 610 as a characteristic configuration.
  • Each component of the input signal I S that is a signal in the RGB color space is converted into a target contrast signal J S that is a signal in the RGB color space by the target contrast conversion unit 601. Since detailed processing has been described above, description thereof will be omitted.
  • the values of the respective components of the target contrast signal J S are [R i n], [G i n], and [B i n].
  • the luminance signal generation unit 610 generates a luminance signal having a value [Y i n] from each component of the target contrast signal J S.
  • the luminance signal is obtained by adding the values of each component of RGB in a certain ratio.
  • the conversion signal processing unit 602 processes the luminance signal having the value [Y i n] and outputs the visual processing signal KS having the value [Y u t]. Detailed processing is the same as the processing in the conversion signal processing unit 602 (see FIG. 36) that outputs the visual processing signal KS from the target contrast signal J S, and thus the description thereof is omitted.
  • the color difference correction processing unit 608 includes a luminance signal (value [Y in]), a visual processing signal KS (value [Y out]), and a target contrast signal JS (value [R in], [G in], [B in]). Is used to output color difference correction signals (values [Rout:], [Gout], [Bout]) that are signals in the RGB color space.
  • the color difference correction processing unit 608 calculates a ratio (value [[Y out] Z [Y in]]) between the value [Y in] and the value [Y out].
  • the calculated ratio is multiplied by each component of the target contrast signal JS (value [R in], [G in], [B in]) as a color difference correction coefficient. Accordingly, the color difference correction signal (value [Ro U t], [Go ut], [B out]) is output.
  • the actual contrast conversion unit 603 converts the color difference correction signal, which is a signal in the RGB color space. Each component is converted and converted to the output signal OS, which is a signal in the RGB color space. Since the detailed processing has been described above, the description thereof will be omitted.
  • the processing in the conversion signal processing unit 602 is only processing for the luminance signal, and it is not necessary to perform processing for each of the RGB components. This reduces the visual processing load on the RGB color space input signal IS.
  • the visual processing unit 623 shown in FIG. 24 may be formed by a two-dimensional LUT.
  • the two-dimensional LUT is a value of the visual processing signal KS with respect to the target contrast signal JS value and the unsharp signal US value. Is stored. More specifically, [First Embodiment] ⁇ Profile Data> (2) The value of the visual processing signal KS is determined based on “Expression M2” described in ⁇ Second Profile Data >>. It should be noted that “in formula M2J, the value of target contrast signal J S is used as value A, and the value of unsharp signal US is used as value B.
  • the visual processing device 600 includes a plurality of such two-dimensional LUTs in a storage device (not shown).
  • the storage device may be incorporated in the visual processing device 600, or may be connected to the outside via a wired or wireless connection.
  • Each 2D LUT stored in the storage device is associated with a value for the target contrast ⁇ C 1 and a value for the actual contrast ⁇ C 2. That is, for each combination of the value of the target contrast C 1 and the value of the actual contrast ⁇ C 2, [Second Embodiment] ⁇ Conversion signal processing unit 602> ⁇ Operation of the conversion signal processing unit 602 >> The same calculation is performed, and it is two-dimensionally stored as UT.
  • the visual processing unit 623 obtains the values of the target contrast C 1 and the actual contrast C 2, the two-dimensional LUT associated with each obtained value among the two-dimensional LUTs stored in the storage device. Is read. Furthermore, the visual processing unit 623 performs visual processing using the read two-dimensional LUT. Specifically, the visual processing unit 6 23 acquires the value of the target contrast signal JS and the value of the unsharp signal US, reads the value of the visual processing signal KS corresponding to the acquired value from the two-dimensional LUT, and outputs the visual processing signal KS.
  • a visual processing device is a device that performs visual processing of images, such as a computer, television, digital camera, mobile phone, PDA, printer, scanner, etc. It is realized as an integrated circuit.
  • each functional block of the above embodiment may be individually made into one chip, or may be made into one chip so as to include a part or all of them.
  • LS I is used, but depending on the degree of integration, it may be called IC, system LS, super LS I, or ultra LS I.
  • the method of circuit integration is not limited to LSI, but may be realized by a dedicated circuit or a general-purpose processor.
  • FPGA Field Programmable Gate Array
  • FPGA Field Programmable Gate Array
  • reconfigurable 'processor that can reconfigure the connection and settings of circuit cells inside the LSI may be used.
  • each block of each visual processing device described in the first embodiment and the second embodiment is performed by, for example, a central processing unit (CPU) included in the visual processing device.
  • a program for performing each processing is stored in a storage device such as a hard disk or a ROM, and is read out and executed in the ROM or RAM.
  • the 2D LUT 4 is a hard disk, R It is stored in a storage device such as OM and is referred to as necessary. Furthermore, the visual processing unit 3 receives profile data from the profile data registration device 8 that is directly connected to the visual processing device 1 or indirectly connected via a network, and serves as a two-dimensional LUT 4. register.
  • the visual processing device may be a device that performs gradation processing of an image for each frame (for each field) built in or connected to a device that handles moving images.
  • the visual processing method described in the first embodiment is executed.
  • the visual processing program is stored in a storage device such as a hard disk or ROM in a device such as a computer, television, digital camera, mobile phone, PDA, printer, scanner, etc. It is a program that executes processing, and is provided, for example, via a recording medium such as a CD-ROM or via a network.
  • the visual processing device described in the first embodiment and the second embodiment can also be expressed by the configuration shown in FIGS.
  • FIG. 40 is a block diagram showing a configuration of a visual processing device 9 10 having the same function as the visual processing device 5 25 shown in FIG. 7, for example.
  • the sensor 9 1 1 and the user input unit 9 1 2 have the same functions as the input device 5 2 7 (see FIG. 7). More specifically, the sensor 9 1 1 is a sensor that detects ambient light in an environment where the visual processing device 9 1 0 is installed or an environment where the output signal OS from the visual processing device 9 1 0 is displayed. The detected value is output as parameter P 1 representing ambient light.
  • the user input unit 9 1 2 is a device that allows the user to set the intensity of the ambient light stepwise, for example, “strong, medium, weak” or steplessly (continuously). The set value is output as parameter P 1 representing ambient light.
  • Output section 9 1 4 has the same function as profile data registration section 5 2 6 (see Fig. 7)
  • the output unit 9 14 includes a plurality of profile data associated with the value of the parameter P 1 representing ambient light.
  • the profile data is data in a table format that gives the value of the output signal OS for the input signal IS and a signal obtained by spatially processing the input signal IS.
  • the output unit 9 14 outputs the profile data corresponding to the acquired value of the parameter P 1 representing the ambient light to the conversion units 9 ... 5 as the brightness adjustment parameter P 2 .
  • the conversion unit 9 15 has the same functions as the spatial processing unit 2 and the visual processing unit 3 (see FIG. 7).
  • the conversion unit 9 15 receives, as inputs, the luminance of the target pixel (target pixel) that is the target of visual processing, the luminance of peripheral pixels located around the target pixel, and the luminance adjustment parameter P 2. Is output and the output signal OS is output.
  • the conversion unit 9 15 performs spatial processing on the target pixel and the surrounding pixels. Further, the conversion unit 9 15 reads the value of the output signal O S corresponding to the target pixel and the result of the spatial processing from the brightness adjustment parameter P 2 in the table format, and outputs it as the output signal O S.
  • the brightness adjustment parameter P2 is not limited to the profile data described above.
  • the brightness adjustment parameter P 2 may be coefficient matrix data used when calculating the value of the output signal OS from the brightness of the target pixel and the brightness of surrounding pixels.
  • the coefficient matrix data is data storing a coefficient part of a function used when calculating the value of the output signal OS from the brightness of the target pixel and the brightness of the surrounding pixels.
  • the output unit 9 14 does not need to have profile data or coefficient matrix data for all values of the parameter P 1 representing ambient light.
  • appropriate profile data or the like may be generated by appropriately dividing or externally dividing the provided profile data or the like according to the acquired parameter P 1 representing ambient light.
  • FIG. 41 is a block diagram showing a configuration of a visual processing device 920 that performs the same function as the visual processing device 600 shown in FIG. 24, for example.
  • the output unit 9 2 1 further acquires the external parameter P 3 in addition to the parameter P 1 representing the ambient light, and based on the parameter P 1 representing the ambient light and the external parameter P 3 Outputs brightness adjustment parameter P2.
  • the parameter P 1 representing ambient light is the same as that described in (1) above.
  • the external parameter P 3 is a parameter that represents a visual effect that a user who views the output signal OS, for example, finds. More specifically, it is a value such as contrast (target contrast) required by the user viewing the image.
  • the external parameter P 3 is set by the target contrast setting unit 60 4 (see FIG. 24).
  • the default value stored in advance in the output unit 9 2 1 is used.
  • the output unit 9 2 1 calculates the actual contrast value from the parameter P 1 representing the ambient light according to the configuration shown in FIGS. 33 and 34, and outputs it as the brightness adjustment parameter P2.
  • the output unit 9 2 1 outputs the external parameter P 3 (target contrast) as the brightness adjustment parameter P 2.
  • the output unit 9 2 1 stores a plurality of profile data stored in the two-dimensional LUT described in [Second Embodiment] (Modification) (V ii), and outputs the external parameter P 3 and ambient light.
  • the profile data is selected from the actual contrast calculated from the parameter P1 to be displayed, and the table data is output as the brightness adjustment parameter P2.
  • the converter 9 2 2 has the same functions as the target contrast converter 6 0 1, the converted signal processor 6 0 2, and the actual contrast converter 6 0 3 (see FIG. 24 above). More specifically, the input signal IS (the luminance of the target pixel and the luminance of surrounding pixels) and the luminance adjustment parameter P2 are input to the conversion unit 922, and the output signal OS is output. For example, the input signal IS is converted into the target contrast signal JS (see FIG. 24) using the target contrast acquired as the brightness adjustment parameter P2. Furthermore, the target contrast signal JS is spatially processed to derive the unsharp signal US (see Fig. 24).
  • the conversion unit 9 2 2 includes the visual processing unit 6 2 3 as the modification described in [Second Embodiment] ⁇ Modification> (Vii), and is obtained as the brightness adjustment parameter P2.
  • a visual processing signal KS (see Fig. 24) is output from the profile data, target contrast signal JS, and unsharp signal US. Further, the visual processing signal KS is converted into the output signal OS using the actual contrast acquired as the brightness adjustment parameter P2.
  • this visual processing device 9 it becomes possible to select profile data used for visual processing based on the external parameter P 3 and the parameter P 1 representing ambient light, and correct the influence of ambient light,
  • the local contrast can be improved even in an environment where ambient light is present, and the output signal OS can be brought closer to the user's preferred contrast.
  • the configuration described in (1) and the configuration described in (2) can be switched and used as necessary. Switching may be performed using an external switching signal. Further, it may be determined which configuration is used depending on whether or not the external parameter P 3 exists.
  • the actual contrast is calculated by the output unit 9 2
  • the actual contrast value may be directly input to the output unit 9 2 1.
  • the visual processing device 9 2 0 ′ shown in FIG. 42 has an adjustment unit 9 2 5 that moderates the time change of the parameter P 1 representing the ambient light compared to the visual processing device 9 20 shown in FIG. It differs in the point to prepare.
  • the adjustment unit 9 2 5 takes the parameter P 1 representing ambient light as an input and the adjusted output P 4 as an output.
  • the output unit 9 2 1 can acquire the parameter P 1 representing the ambient light without an abrupt change, and as a result, the time change of the output of the output unit 9 2 1 can also be obtained. Be gentle.
  • the adjustment unit 925 is realized by an IIR filter, for example.
  • k 1 and k 2 are parameters that take positive values
  • [P 1] is the value of parameter P 1 representing ambient light
  • [P4] ' is the output of adjustment unit 925 This is the value of the delay output of P4 (for example, the previous output).
  • the processing in adjustment section 925 may be performed using a configuration other than the IIR filter.
  • the adjustment unit 925 may be a means that is provided on the output side of the output unit 921 and directly moderates the time change of the brightness adjustment parameter P 2, like a visual processing device 920 ′′ shown in FIG.
  • the processing in adjustment unit 925 may be performed using a configuration other than the IIR filter.
  • the histogram creation unit 302 creates a tone conversion curve Cm from the brightness histogram Hm of the pixels in the image area Sm. Apply to image area Sm In order to create the tone conversion curve Cm more appropriately, it is necessary to have the entire image from the dark part to the bright part (highlight) of the image, and it is necessary to refer to more pixels. . For this reason, each image region Sm cannot be made very small, that is, the number n of original image divisions cannot be made too large. The division number n varies depending on the content of the image, but empirically, a division number of 4 to 16 is used.
  • each image area Sm cannot be made too small, the following problem may occur in the output signal OS after gradation processing.
  • gradation processing is performed using one gradation conversion curve Cm for each image area Sm, the boundary between the boundaries of each image area Sm is unnaturally conspicuous, or is simulated in the image area Sm. An outline may occur.
  • the number of divisions is 4 to 16 at most, the image area Sm is large, so if there are extremely different images between the image areas, the shading change between the image areas is large and it is difficult to prevent the occurrence of false contours. .
  • the shade changes extremely depending on the positional relationship between the image (for example, an object in the image) and the image area Sm.
  • the visual processing device 101 is a device that performs gradation processing of an image by being incorporated in or connected to a device that handles images, such as a computer, a television, a digital camera, a mobile phone, and a PDA.
  • the visual processing device 101 is characterized in that gradation processing is performed on each of the image regions finely divided as compared with the conventional art.
  • FIG. 44 is a block diagram illustrating the structure of the visual processing device 1 0 1.
  • the visual processing device 101 includes an image dividing unit 102 that divides an original image input as an input signal IS into a plurality of image regions Pm (1 ⁇ m ⁇ n, where n is the number of divisions of the original image), A gradation conversion curve deriving unit 1 1 0 for deriving a gradation conversion curve Gm for the image region Pm; And a gradation processing unit 105 that outputs an output signal OS that gradates the gradation conversion curve Cm and performs gradation processing on each image area Pm.
  • the gradation conversion curve deriving unit 1 1 0 is a histogram creating unit 1 that creates a brightness histogram Hm of pixels in a wide-area image region Em composed of each image region Pm and an image region around the image region Pm. 03 and a gradation curve creation unit 104 that creates a gradation conversion curve Cm for each image area Pm from the created brightness histogram Hm.
  • the image dividing unit 102 divides the original image input as the input signal IS into a plurality (n) of image areas Pm (see FIG. 45).
  • the number of divisions of the original image is larger than the number of divisions of the conventional visual processing device 300 shown in FIG. 104 (for example, 4 to 16 divisions), for example, 80 divisions in the horizontal direction and vertical direction. 60 divisions, 4800 divisions, etc.
  • the histogram creation unit 103 creates a brightness histogram Hm of the wide-area image region Em for each image region Pm.
  • the wide area image area Em is a set of a plurality of image areas each including the image area Pm. For example, 25 areas of 5 blocks in the vertical direction and 5 blocks in the horizontal direction centering on the image area Pm are used. It is a set of image areas. Depending on the position of the image area Pm, it may not be possible to take a wide area image area Em of 5 blocks in the vertical direction and 5 blocks in the horizontal direction around the image area Pm.
  • the wide area image region E I For example, it is not possible to take a wide area image area E I of 5 blocks in the vertical direction and 5 blocks in the horizontal direction around the image area P I with respect to the image area P I located around the original image. In this case, a region where the original image is overlapped with the region of 5 blocks in the vertical direction and 5 blocks in the horizontal direction centered on the image region PI is adopted as the wide area image region E I.
  • the brightness histogram Hm created by the histogram creation unit 103 shows the distribution of brightness values of all pixels in the wide-area image area Em. That is, in the brightness histogram Hm shown in FIGS. 46 (a) to 46 (c), the horizontal axis indicates the brightness level of the input signal IS, and the vertical axis indicates the number of pixels.
  • the gradation curve creation unit 104 accumulates the “number of pixels” in the brightness histogram Hm of the wide area image area Em in the order of brightness, and uses this accumulated curve as the gradation conversion curve Cm of the image area Pm (see FIG. 47).
  • the horizontal axis is the input signal.
  • the brightness value of the pixel in the image area Pm in IS, and the vertical axis indicates the brightness value of the pixel in the image area Pm in the output signal OS.
  • the gradation processing unit 105 loads the gradation conversion curve Cm, and converts the brightness value of the pixel in the image area Pm in the input signal IS based on the gradation conversion curve Cm.
  • FIG. 48 shows a flowchart for explaining the visual processing method in the visual processing device 101.
  • the visual processing method shown in FIG. 48 is realized by hardware in the visual processing device 101, and performs gradation processing of the input signal I S (see FIG. 1).
  • the input signal IS is processed in units of images (steps S 1 10 to S 1 16).
  • the original image input as the input signal IS is divided into multiple image areas Pm (1 ⁇ m ⁇ n, where n is the number of divisions of the original image) (step S 1 1 1). Processed (steps S 1 1 2 to S 1 1 5).
  • a brightness histogram Hm of pixels in the wide-area image area Em composed of the respective image areas P m and the image areas around the image area P m is created (step S I 1 2). Further, a gradation conversion curve Cm for each image region Pm is created based on the brightness histogram Hm (step S 1 1 3). Here, the description of the brightness histogram Hm and the gradation conversion curve Cm will be omitted (see the section of ⁇ Action> above). Using the created gradation conversion curve Cm, gradation processing is performed on the pixels in the image area Pm (step S 1 1 4).
  • step SI 15 it is determined whether or not the processing for all the image areas Pm has been completed (step SI 15), and the processing of steps S 1 1 2 to S 1 15 is performed until it is determined that the processing has been completed. Repeat several times for the original image. Thus, the processing for each image is completed (step S 1 1 6).
  • each step of the visual processing method shown in FIG. 48 may be realized as a visual processing program by a computer or the like.
  • a tone conversion curve Cm is created for each image area Pm. Therefore, it is possible to perform appropriate gradation processing as compared with the case where the same gradation conversion is performed on the entire original image.
  • the gradation conversion curve Cm created for each image area Pm is created based on the brightness histogram Hm of the wide-area image area Em. For this reason, even if the size of each image area Pm is small, it is possible to sample sufficient brightness values. As a result, an appropriate gradation conversion curve Cm can be created even for a small image area Pm.
  • each image area Pm is smaller than before. For this reason, it is possible to suppress the occurrence of pseudo contours in the image area Pm.
  • the number of divisions of the original image is 4800 divisions, but the effect of the present invention is not limited to this case, and the same effect can be obtained with other division numbers. is there.
  • the processing amount of gradation processing and the visual effect are in a trade-off relationship with respect to the number of divisions. In other words, if the number of divisions is increased, the amount of gradation processing increases, but a better visual effect (for example, suppression of pseudo contours) can be obtained.
  • the number of image areas constituting the wide area image area is 25, but the effect of the present invention is not limited to this case, and the same effect can be obtained with other numbers. It is possible to obtain.
  • a visual processing device 11 1 as a fifth embodiment of the present invention will be described with reference to FIGS.
  • the visual processing device 11 1 1 is a device that performs gradation processing of an image by being incorporated in or connected to a device that handles images, such as a computer, a television, a digital camera, a mobile phone, and a PDA.
  • the visual processing device 1 1 1 is characterized in that it uses a plurality of gradation conversion curves stored in advance as LUTs.
  • FIG. 49 is a block diagram illustrating the structure of the visual processing device 1 1 1.
  • the visual processing device 1 1 1 includes an image dividing unit 1 1 2, a selection signal deriving unit 1 1 3, and a gradation processing unit 1 2 0.
  • the image segmentation unit 1 1 2 receives an input signal IS and outputs an image area Pm (1 ⁇ m ⁇ n, where n is the number of divisions of the original image) obtained by dividing the original image input as the input signal IS. To do.
  • the selection signal deriving unit 1 1 3 outputs a selection signal Sm for selecting a gradation conversion curve Cm applied to the gradation processing of each image region Pm.
  • the gradation processing unit 120 includes a gradation processing execution unit 1 1 4 and a gradation correction unit 1 1 5.
  • the gradation processing execution unit 1 1 4 has a plurality of gradation conversion curve candidates G1 to Gp (p is the number of candidates) as a two-dimensional LUT, and receives the input signal IS and the selection signal Sm as input.
  • the gradation processing signal CS obtained by gradation processing on the pixels in the region Pm is output.
  • the gradation correction unit 1 1 5 receives the gradation processing signal CS and outputs an output signal OS obtained by correcting the gradation of the gradation processing signal CS.
  • the gradation conversion curve candidate G “! To Gp will be described with reference to FIG. 50.
  • the gradation conversion curve candidate G“! ⁇ Gp is a curve that gives the relationship between the brightness value of the pixel of the input signal IS and the brightness value of the pixel of the gradation processing signal CS.
  • the horizontal axis represents the brightness value of the pixel in the input signal IS
  • the vertical axis represents the brightness value of the pixel in the gradation processing signal CS.
  • the tone conversion curve candidates G1 to Gp are in a monotonically decreasing relationship with the subscript, and satisfy the relationship of G 1 ⁇ G2 ⁇ .
  • the tone conversion curve candidates G1 to Gp are input signals IS Is a power function with the pixel brightness value as a variable, and expressed as Gm (dm) (1 ⁇ m ⁇ p, X is a variable, is a constant), S 1 ⁇ S 2 ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ 5 p relationship is satisfied.
  • the lightness value of the input signal IS is in the range of values [0. 0 to 1.0].
  • the gradation processing execution unit 114 has gradation conversion curve candidates G1 to Gp as two-dimensional LUTs. That is, the two-dimensional LUT calculates the pixel brightness value of the gradation processing signal CS with respect to the pixel brightness value of the input signal IS and the selection signal S m for selecting the gradation conversion curve candidates G 1 to G p.
  • the lookup table (LUT) to give.
  • Figure 51 shows an example of this two-dimensional LUT.
  • the two-dimensional LUT 14 1 shown in Fig. 5 1 is a 64 ⁇ 64 matrix, and each tone conversion curve candidate G 1 to G 64 is arranged in the row direction (horizontal direction). .
  • the column direction (vertical direction) of the matrix for example, the upper 6-bit value of the pixel value of the input signal IS represented by 10 bits, that is, the level for the input signal IS value divided into 64 stages.
  • the pixel values of the adjustment processing signal CS are lined up.
  • the pixel value of the gradation processing signal CS has a value in the range of, for example, the value [0. 0 to 1.0] when the gradation conversion curve candidates G 1 to G p are “power functions J”.
  • the image dividing unit 1 1 2 operates in substantially the same manner as the image dividing unit 102 in FIG. 44, and divides the original image input as the input signal IS into a plurality (n) of image areas Pm (see FIG. 45). .
  • the number of divisions of the original image is larger than the number of divisions of the conventional visual processing device 300 shown in FIG. 104 (for example, 4 to 16 divisions). For example, 80 divisions in the horizontal direction and 60 divisions in the vertical direction Yes, such as 4800 division.
  • the selection signal deriving unit 1 13 selects a gradation conversion curve Cm to be applied to each image region Pm from the gradation conversion curve candidates G 1 to G p. Specifically, select The signal deriving unit 1 1 3 calculates the average brightness value of the wide area image area Em of the image area Pm, and selects any one of the tone conversion curve candidates G 1 to G p according to the calculated average brightness value . In other words, the tone conversion curve candidates G 1 to Gp are associated with the average brightness value of the wide-area image region Em, and the larger the average brightness value, the more the tone conversion curve candidates G 1 to G p with larger subscripts. Selected.
  • the wide area image region Em is the same as that described with reference to FIG. 45 in the [fourth embodiment]. That is, the wide area image area Em is a set of a plurality of image areas including the respective image areas Pm. For example, 25 image areas of 5 blocks in the vertical direction and 5 blocks in the horizontal direction centering on the image area Pm. Is a set of Depending on the position of the image area Pm, it may not be possible to take a wide area image area Em of 5 blocks in the vertical direction and 5 blocks in the horizontal direction around the image area Pm. For example, a wide image area E I of 5 blocks in the vertical direction and 5 blocks in the horizontal direction cannot be taken around the image area P I with respect to the image area P I located around the original image. In this case, a region where the region of 5 blocks in the vertical direction and 5 blocks in the horizontal direction centering on the image region P I overlaps with the original image is adopted as the wide area image region E I.
  • the selection result of the selection signal deriving unit 1 1 3 is output as a gradation conversion curve candidate (selection signal Sm indicating any one of 31 to Gp. More specifically, the selection signal Sm is a gradation conversion curve candidate. Output as the value of the subscript (1 to p) of G 1 to G p.
  • the gradation processing execution unit 1 1 4 receives the brightness value of the pixel in the image area Pm included in the input signal IS and the selection signal Sm as an input. For example, the gradation processing execution unit 1 1 4 uses the 2D LUT 1 41 shown in FIG. Outputs the brightness value of the processed signal CS.
  • the gradation correction unit 1 1 5 selects the brightness value of the pixel in the image area Pm included in the gradation processing signal CS for the pixel position, the image area P m, and the image area around the image area P m. Correction is performed based on the gradation conversion curve. For example, the gradation conversion curve Cm applied to the pixels included in the image area Pm and the gradation conversion curve selected for the image area around the image area Pm are corrected by the internal division ratio of the pixel position. The brightness value of the subsequent pixel is obtained.
  • the operation of the gradation correction unit 1 15 will be described in more detail with reference to FIG. Figure 52 shows the image area?
  • the position of pixel X (value value [X]) of the image area P o that is subject to gradation correction is set to the center of the image area Po and the center of the image area P p.
  • the center of the image area ⁇ and the center of the image area P q are divided into [j: 1-j].
  • [Gs], [Gt], [Gu], and [Gv] are the brightness values when the gradation transformation curve candidates Gs, Gt, Gu, and Gv are applied to the brightness value [x].
  • it is a value.
  • FIG. 53 shows a flowchart explaining the visual processing method in the visual processing device 1 1 1.
  • the visual processing method shown in FIG. 53 is realized by hardware in the visual processing device 11 and performs gradation processing of the input signal I S (see FIG. 49).
  • the input signal I S is processed in units of images (Steps S 1 20 to S 1 26).
  • the original image input as the input signal IS is divided into multiple image areas Pm (1 ⁇ m ⁇ n, where n is the number of divisions of the original image) (step S 1 2 1), and gradation processing is performed for each image area Pm. (Steps S 1 22 to S 1 2).
  • the gradation conversion curve Cm applied to each image region Pm is selected from the gradation conversion curve candidates G1 to Gp (step S122). Specifically, the average brightness value of the wide area image area Em of the image area Pm is calculated, and any one of the gradation conversion curve candidates G1 to Gp is selected according to the calculated average brightness value.
  • the tone conversion curve candidates G 1 to Gp are related to the average brightness value of the wide-area image area Em. The larger the average brightness value, the larger the tone conversion curve candidate G “! To Gp is selected.
  • the description of the wide-area image region Em is omitted (see the section ⁇ Action> above).
  • the brightness value of the gradation processing signal CS is output using the two-dimensional LUT 14 “I” shown in FIG. 51 (step S 1 23). Further, for all image regions Pm, It is determined whether or not the processing is completed (step S 1 24), and the processing of steps S 122 to S 124 is repeated several times until the processing is determined to be completed. The processing for each image area ends.
  • the brightness value of the pixel in the image area Pm included in the gradation processing signal CS is corrected based on the pixel position and the gradation conversion curve selected for the image area Pm and the image area around the image area Pm.
  • Step S 1 25 For example, the gradation conversion curve Cm applied to the pixels included in the image area Pm and the gradation conversion curve selected for the image area around the image area Pm are corrected by the internal division ratio of the pixel position.
  • the brightness value of the subsequent pixel is determined. Explanation of the details of the correction is omitted (see the column ⁇ Action> above, Fig. 52).
  • step S 1 26 the processing for each image is completed.
  • each step of the visual processing method shown in FIG. 53 may be realized as a visual processing program by a computer or the like.
  • the gradation conversion curve Cm selected for each image area Pm is created based on the average brightness value of the wide area image area Em. For this reason, even if the size of the image area Pm is small, it is possible to sample sufficient brightness values. As a result, an appropriate gradation conversion curve Cm can be selected and applied to a small image area Pm.
  • the gradation processing execution unit 1 1 4 has a two-dimensional LUT created in advance. For this reason, it is possible to reduce the processing load required for gradation processing, more specifically, the processing load required for creating the gradation conversion curve Cm. As a result, it is possible to speed up the processing required for gradation processing of the image area Pm.
  • the gradation processing execution unit 1 1 4 executes gradation processing using a two-dimensional LUT.
  • the two-dimensional LUT is read from a storage device such as a hard disk or ROM provided in the visual processing device 1 1 1 and used for gradation processing.
  • a storage device such as a hard disk or ROM provided in the visual processing device 1 1 1 and used for gradation processing.
  • the tone correction unit 1 15 corrects the tone of the pixels in the image region Pm that has been tone-processed using one tone conversion curve Cm. For this reason, it is possible to obtain an output signal OS subjected to more appropriate gradation processing. For example, it becomes possible to suppress the generation of pseudo contours. In addition, in the output signal OS, it is possible to further prevent the joint between the boundaries of the respective image areas Pm from being unnaturally conspicuous.
  • the number of divisions of the original image is 4800 divisions, but the effect of the present invention is not limited to this case, and the same effect can be obtained with other division numbers. is there.
  • the processing amount of gradation processing and the visual effect are in a trade-off relationship with respect to the number of divisions. In other words, increasing the number of divisions increases the amount of gradation processing, but makes it possible to obtain better visual effects (for example, images with suppressed pseudo contours).
  • the number of image areas constituting the wide area image area is 25, but the effect of the present invention is not limited to this case, and the same effect can be obtained with other numbers. It is possible to obtain.
  • a two-dimensional LUT 1 41 composed of a 64 ⁇ 64 matrix is used.
  • An example of a two-dimensional LUT was used.
  • the effect of the present invention is not limited to the two-dimensional LU ⁇ of this size.
  • it may be a matrix in which more gradation conversion curve candidates are arranged in the row direction.
  • the pixel values of the gradation processing signal CS corresponding to the values obtained by dividing the pixel values of the input signal IS into finer steps may be arranged in the matrix column direction.
  • the pixel value of the gradation processing signal CS may be arranged for each pixel value of the input signal IS represented by 10 bits.
  • the size of the 2D L U is increased, more appropriate gradation processing can be performed, and if the size is decreased, the memory for storing the 2D LUT can be reduced.
  • the gradation processing signal CS may be output as a component of a matrix that is linearly interpolated by the gradation processing execution unit 1 14 with the lower 4 bits of the pixel value of the input signal IS. good. That is, in the column direction of the matrix, for example, the components of the matrix for the upper 6 bits of the pixel value of the input signal IS represented by 10 bits are arranged, and the upper 6 bits of the pixel value of the input signal IS are arranged.
  • the matrix component for the value and the matrix component for the value obtained by adding [1] to the upper 6 bits of the pixel value of the input signal IS (for example, the component one row below in Fig. 51) Linear interpolation is performed using the lower 4 bits of the pixel value of the input signal IS and output as the gradation processing signal CS.
  • the gradation conversion curve Cm to be applied to the image area Pm is selected based on the average brightness value of the wide area image area Em.
  • the method of selecting the gradation conversion curve Cm is not limited to this method.
  • the value [Sm] of the selection signal Sm may be the average brightness value, the maximum brightness value, or the minimum brightness value of the wide area image area Em.
  • tone conversion curve candidates G1 to G64 are associated with the respective values obtained by dividing the possible values of the selection signal Sm into 64 levels.
  • the gradation conversion curve C m to be applied to the image region P m may be selected as follows. That is, an average brightness value is obtained for each image area Pm, and a provisional selection signal S m ′ for each image area P m is obtained from each average brightness value.
  • the provisional selection signal Sm "has the value of the subscript number of the gradation conversion curve candidates G 1 to Gp. Further, the provisional selection signal Sm ′ is set for each image area included in the wide area image area Em.
  • the average value is averaged to obtain the value [Sm] of the selection signal Sm for the image area Pm, and the tone conversion curve candidate G 1 to Gp with the integer closest to the value [Sm] as the subscript is tone-converted Select as curve Cm.
  • the gradation conversion curve Cm to be applied to the image area Pm is selected based on the average brightness value of the wide area image area Em.
  • the gradation conversion curve Cm to be applied to the image area Pm may be selected based on the weighted average (weighted average) instead of the simple average of the wide area image area Em.
  • weighted average weighted average
  • FIG. 54 an average brightness value of each image area constituting the wide area image area Em is obtained, and an image area P s 1, P having an average brightness value greatly different from the average brightness value of the image area Pm is obtained.
  • s 2 ⁇ ⁇ ⁇
  • the average brightness value of the wide-area image area Em is obtained by reducing or excluding weights.
  • the wide-area image area Em includes an area that is lightly specific (for example, when the wide-area image area Em includes a boundary between two objects with different brightness values), it is applied to the image area Pm.
  • the tone conversion curve Cm to be selected is less affected by the brightness value of the specific area, and more appropriate tone processing is performed.
  • the presence of the gradation correction unit 1 15 may be arbitrary.
  • Snow even when the gradation processing signal CS is output, it is the same as that described in ⁇ Effect> in the [fourth embodiment], compared to the conventional visual processing device 300 (see FIG. 104). And ⁇ Effects> of [Fifth Embodiment] The same effects as described in (1) and (2) can be obtained.
  • the gradation conversion curve candidates G 1 to Gp are in a monotonically decreasing relationship with respect to the subscript, and G 1 ⁇ G2 ⁇ -- ⁇ ⁇ Gp with respect to the brightness values of the pixels of all input signals IS Explained that the relationship was satisfied.
  • the gradation transformation curve candidates G 1 to G p included in the two-dimensional LUT satisfy the relationship of G 1 ⁇ G2 ⁇ ⁇ -' ⁇ Gp with respect to a part of the brightness value of the pixel of the input signal IS. It does not have to be. That is, any of the gradation conversion curve candidates G 1 to Gp may be in a relationship of crossing each other.
  • the tone conversion curve candidates G1 to Gp included in the two-dimensional LUT have a relationship of G 1 ⁇ G2 ⁇ ' ⁇ ' ⁇ Gp with respect to a part of the brightness value of the pixel of the input signal IS. It does not have to be satisfied.
  • the value stored in the two-dimensional LUT may be arbitrary in a part where the value after gradation processing has little influence on the image quality.
  • the values stored for the input signal IS and the selection signal Sm with the same value are the same as the values of the input signal IS and the selection signal Sm. It is desirable to maintain a monotonically increasing or monotonically decreasing relationship.
  • the gradation conversion curve candidates G “! To Gp included in the two-dimensional LUT have been described as“ power functions ”.
  • the tone conversion curve candidates G1 to Gp do not have to be strictly formulated as “power functions”. Also, it may be a function having any shape such as S-shape or inverse S-shape.
  • the visual processing device 1 1 1 may further include a profile data creation unit that creates profile data that is a value stored in the two-dimensional LUT.
  • the profile data creation unit is composed of an image division unit 102 and a tone conversion curve deriving unit 110 in the visual processing device 101 (see FIG. 44), and a plurality of tone conversion curves created. Is stored in the 2D LUT as profile data. Each gradation transformation curve stored in the 2D LUT may be associated with the spatially processed input signal IS.
  • the image dividing unit 1 1 2 and the selection signal deriving unit 1 1 3 may be replaced with a spatial processing unit that spatially processes the input signal IS.
  • the lightness value of the pixel of the input signal I S need not be a value in the range of the value [0.0 to 1.0].
  • the value in that range may be normalized to the value [0. 0 to 1.0].
  • Each of the gradation conversion curve candidates G1 to Gp performs gradation processing on the input signal IS having a wider dynamic range than the normal dynamic range, and outputs the gradation processing signal CS of the normal dynamic range. It may be a curve.
  • the input signal IS has a wider dynamic range than the normal dynamic range (for example, a signal in the range of values [0. It has been demanded.
  • the gradation processing signal CS having the value [0.0 to 1.0] is output even for the input signal IS in the range exceeding the value [0.0 to 1.0].
  • a gradation transformation curve is used.
  • the pixel value of the “tone” processing signal CS has a range of values [0 to 1.0] when the tone conversion curve candidates G1 to Gp are “power functions j”, for example.
  • the pixel value of the gradation processing signal CS is not limited to this range, for example, for an input signal IS having a value [0.0 to 1.0],
  • the tone conversion curve candidates G 1 to Gp may perform dynamic range compression.
  • the gradation processing execution unit 1 14 has gradation conversion curve candidates G 1 to G p as a two-dimensional LUT.”
  • the gradation processing execution unit 1 14 may have a one-dimensional LUT that stores the relationship between the curve parameter for specifying the gradation conversion curve candidates G1 to Gp and the selection signal Sm.
  • FIG. 56 is a block diagram for explaining the structure of a gradation processing execution unit 144 as a modification of the gradation processing execution unit 114.
  • the gradation processing execution unit 144 receives the input signal IS and the selection signal Sm as inputs, and outputs a gradation processing signal CS, which is the gradation-processed input signal IS.
  • the gradation processing execution unit 144 includes a curve parameter output unit 145 and a calculation unit 148.
  • the curve parameter output unit 145 includes a first LUT 1 46 and a second LUT 1 47.
  • the first LUT 1 46 and the second LUT 1 47 receive the selection signal Sm and output the curve parameters P 1 and P 2 of the gradation conversion curve candidate Gm specified by the selection signal Sm, respectively.
  • Arithmetic unit 148 receives curve parameters P 1 and P 2 and input signal IS, and outputs gradation processing signal CS.
  • 1 1 1st 1 "1 46th and 21st 2nd 1st 1 47 are 1-dimensional LUTs that store the values of the curve parameters P 1 and P 2 for the selection signal Sm respectively.
  • 1st LUT 1 46 Before describing the details of the first 21_1_1-147, the contents of the curve parameters P 1 and P 2 will be described.
  • FIG. 57 shows tone conversion curve candidates G1 to Gp.
  • the tone conversion curve candidates G 1 to G p are monotonically decreasing with respect to the subscript, and G1 ⁇ G2 ⁇ '' ⁇ ⁇ Gp with respect to the brightness values of the pixels of all input signals IS Meet.
  • the relationship between the above-mentioned tone conversion curve candidates G 1 to Gp is as follows: for a tone conversion curve candidate with a large subscript, when the input signal IS is small, or for a tone conversion curve candidate with a small subscript. If the input signal IS is large, it does not have to be established.
  • the curve parameters P 1 and P 2 are output as the value of the gradation processing signal CS with respect to a predetermined value of the input signal IS. That is, when the tone conversion curve candidate Gm is specified by the selection signal Sm, the value of the curve parameter P 1 is the value of the tone conversion curve candidate Gm [R im] with respect to the predetermined value [XI] of the input signal IS.
  • the value of the curve parameter P2 is output as the value [R2m] of the gradation conversion curve candidate Gm for the predetermined value [X2] of the input signal IS.
  • the value [X2] is larger than the value [X 1].
  • the first LUT 1 46 and the second LUT 1 47 store the values of the curve parameters P 1 and P 2 for the selection signal S m, respectively. More specifically, for example, for each selection signal Sm given as a 6-bit signal, the values of the curve parameters P 1 and P 2 are given at 6 bits, respectively.
  • the number of bits secured for the selection signal S m and the curve parameters P 1 and P 2 is not limited to this.
  • FIG. 58 shows changes in the values of the curve parameters P 1 and P 2 with respect to the selection signal Sm.
  • the first LUT 1 46 and the second LUT 1 47 store the values of the curve parameters P 1 and P 2 for the respective selection signals Sm.
  • the value [R1 m] is stored as the value of the curve parameter P 1 with respect to the selection signal Sm
  • the value [R2m] is stored as the value of the curve parameter P 2.
  • the calculation unit 148 derives the gradation processing signal CS for the input signal ⁇ S based on the acquired curve parameters P 1 and P 2 (value [Rim] and value [R2m]). The specific procedure is described below. Here, it is assumed that the value of the input signal I S is given in the range of the value [0. 0 to 1.0]. Also, the gradation conversion curve candidates G1 to Gp convert the input signal IS given in the range of the value [0. 0 to 1.0] into the range of the value [0. 0 to 1.0]. And The present invention can also be applied when the input signal 1 S is not limited to this range.
  • the calculation unit 148 compares the value of the input signal IS with predetermined values [X I], [X2].
  • the value of the input signal IS (value [X]) is not less than [0.0] and less than [X 1]
  • the calculation unit 148 derives the gradation processing signal CS for the input signal IS.
  • the above processing may be executed by a computer or the like as a gradation processing program.
  • the gradation processing program is a program for causing a computer to execute the gradation processing method described below.
  • the gradation processing method is a method of obtaining the input signal IS and the selection signal Sm and outputting the gradation processing signal CS, and is characterized in that the input signal IS is gradation processed using a one-dimensional LUT. are doing.
  • the curve parameters P 1 and P 2 are output from the first LUT 1 46 and the 21st to 11th 11 1 7 7. Detailed descriptions of the first LUT 1 46, the second LUT 1 47, and the curve parameters P 1 and P 2 are omitted.
  • gradation processing of the input signal I S is performed based on the curve parameters P 1 and P 2. The details of the gradation processing are omitted because they are described in the explanation of the calculation unit 148.
  • the gradation processing signal CS with respect to the input signal IS is derived.
  • the gradation processing execution unit 144 as a modification of the gradation processing execution unit 1 1 4 includes two one-dimensional LUTs instead of the two-dimensional LUT. For this reason, it is possible to reduce the storage capacity for storing the lookup table.
  • the values of the curve parameters P 1 and P 2 are the values of the tone conversion curve candidate Gm with respect to the predetermined value of the input signal I S.”
  • the curve parameters P 1 and P 2 may be other curve parameters of the tone conversion curve candidate Gm.
  • the curve parameter may be the slope of the tone conversion curve candidate Gm. This will be specifically described with reference to FIG.
  • the value of the curve parameter P1 is within the predetermined range [0. 0 to X1] of the input signal IS. Is the slope value [Ki m] of the tone conversion curve candidate Gm at, and the value of the curve parameter P 2 is the slope value of the tone conversion curve candidate Gm in the predetermined range [X 1 to X2] of the input signal IS [K2m].
  • FIG. 59 shows changes in the values of the curve parameters P 1 and P 2 with respect to the selection signal Sm.
  • the first LUT 1 46 and the second LUT 1 47 store the values of the curve parameters P 1 and P 2 for the respective selection signals Sm.
  • the value [K 1 m] is stored as the value of the curve parameter P 1 for the selection signal Sm
  • the value [K2m] is stored as the value of the curve parameter P 2.
  • the curve parameters P 1 and P 2 are output for the input selection signal Sm.
  • the computing unit 148 derives the gradation processing signal CS for the input signal IS based on the acquired curve parameters P 1 and P 2. The specific procedure is described below. First, the calculation unit 148 compares the value of the input signal IS with predetermined values [X 1], [X2].
  • the value of the input signal IS (value [X]) is [0. 0] or more and less than [X 1], the origin and coordinates ([X 1], [Kim] * [XI] (Hereinafter referred to as [Y 1]))
  • the calculation unit 148 derives the gradation processing signal CS for the input signal IS.
  • the curve parameter may be a coordinate on the tone conversion curve candidate Gm. This will be specifically described with reference to FIG.
  • the value of the curve parameter P 1 is the value [Mm] of one of the coordinates on the tone conversion curve candidate Gm
  • the curve parameter P2 The value is the value [Nm] of the other component of the coordinates on the tone conversion curve candidate Gm.
  • the tone conversion curve candidates G "! To Gp are all curves that pass through the coordinates (X I, Y 1).
  • FIG. 61 shows changes in the values of the curve parameters P 1 and P 2 with respect to the selection signal Sm.
  • the values of the curve parameters P 1 and P 2 for the respective selection signals Sm are stored.
  • the value [Mm] is stored as the value of the curve parameter P 1 for the selection signal Sm
  • the value [Nm] is stored as the value of the curve parameter P 2.
  • the first LUT 1 46 and the second LUT 1 47 described above output the curve parameters P 1 and P 2 for the input selection signal Sm.
  • the gradation processing signal CS is derived from the input signal IS by the same processing as that of the modification described with reference to FIG. Detailed explanation is omitted.
  • curve parameters P 1 and P 2 may be other curve parameters of the tone conversion curve candidate Gm.
  • the number of curve parameters is not limited to the above. There may be fewer or more.
  • the tone conversion curve candidates G 1 to Gp are straight line segments.
  • the curve parameter output unit 1 4 5 is composed of the first LUT 1 4 6 and the second 1_re-cho 1 4 7. It has been described as J.
  • the curve parameter output unit 1 5 May not have a LUT for storing the values of the curve parameters P 1 and P 2 for the value of the selection signal S m.
  • the curve parameter output unit 1 4 5 calculates the values of the curve parameters P 1 and P 2. More specifically, the curve parameter output unit 1 4 5 stores parameters representing the graphs of the curve parameters P 1 and P 2 shown in FIG. 58, FIG. 59, FIG. 61, etc. Yes.
  • the curve parameter output unit 1 45 specifies the graph of the curve parameters P 1 and P 2 from the stored parameters. Further, using the graphs of the curve parameters P 1 and P 2, the values of the curve parameters P 1 and P 2 with respect to the selection signal S m are output.
  • the parameters for specifying the graph of the curve parameters P 1 and P 2 are the coordinates on the graph, the slope of the graph, the curvature, and the like.
  • the curve parameter output unit 14 45 stores the coordinates of two points on the graph of the curve parameters P 1 and P 2 shown in FIG. 58, and connects the coordinates of these two points.
  • the straight line is used as a graph for the curve parameters P1 and P2.
  • the visual processing device 1 2 1 according to the sixth embodiment of the present invention is shown in FIGS. 6 2 to 6 4. It explains using.
  • the visual processing device 121 is a device that performs gradation processing of an image by being incorporated in or connected to a device that handles images, such as a computer, a television, a digital camera, a mobile phone, and a PDA.
  • the visual processing device 121 is characterized in that a plurality of gradation conversion curves stored in advance as LUTs are used by switching for each pixel to be subjected to gradation processing.
  • FIG. 62 is a block diagram illustrating the structure of the visual processing device 121.
  • the visual processing device 121 includes an image dividing unit 122, a selection signal deriving unit 123, and a gradation processing unit 130.
  • the image dividing unit 122 receives the input signal IS and outputs an image area Pm (1 ⁇ m ⁇ n: n is the number of divisions of the original image) obtained by dividing the original image input as the input signal IS into a plurality of parts.
  • the selection signal deriving unit 123 outputs a selection signal Sm for selecting the gradation conversion curve Cm for each image region Pm.
  • the gradation processing unit 130 includes a selection signal correction unit 124 and a gradation processing execution unit 125.
  • the selection signal correction unit 124 receives the selection signal Sm and outputs a selection signal SS for each pixel, which is a signal obtained by correcting the selection signal Sm for each image region Pm.
  • the gradation processing execution unit 1 25 includes a plurality of gradation conversion curve candidates G 1 to Gp (p is the number of candidates) as a two-dimensional LUT, and receives an input signal IS and a selection signal SS for each pixel as inputs.
  • the output signal OS obtained by gradation processing for each pixel is output.
  • the gradation conversion curve candidates G 1 to Gp are substantially the same as those described with reference to FIG. 50 in [Fifth Embodiment], and thus description thereof is omitted here.
  • the tone conversion curve candidates G1 to Gp are curves that give the relationship between the brightness value of the pixel of the input signal IS and the brightness value of the pixel of the output signal OS.
  • the gradation processing execution unit 125 includes gradation conversion curve candidates G 1 to Gp as a two-dimensional LUT.
  • the two-dimensional LUT performs a lookup that gives the brightness value of the pixel of the output signal OS to the brightness value of the pixel of the input signal IS and the selection signal SS that selects the tone conversion curve candidates G 1 to G p.
  • It is a table (LUT).
  • a specific example is substantially the same as that described with reference to FIG. 51 in [Fifth Embodiment], and thus the description thereof is omitted here.
  • the present embodiment in the column direction of the matrix, for example, The pixel values of the output signal OS corresponding to the upper 6 bits of the pixel value of the input signal IS represented by 10 bits are arranged.
  • the image dividing unit 122 operates in substantially the same manner as the image dividing unit 102 in FIG. 44, and divides the original image input as the input signal IS into a plurality (n) of image regions Pm (see FIG. 45).
  • the number of divisions of the original image is larger than the number of divisions of the conventional visual processing device 300 shown in FIG. 104 (for example, 4 to 16 divisions), for example, 80 divisions in the horizontal direction and 60 divisions in the vertical direction. Yes, such as 4800 division.
  • the selection signal deriving unit 123 selects a gradation conversion curve Cm from the gradation conversion curve candidates G1 to Gp for each image region Pm. Specifically, the selection signal deriving unit 123 calculates the average brightness value of the wide area image area Em of the image area Pm, and selects one of the gradation conversion curve candidates G1 to Gp according to the calculated average brightness value. Make a selection. In other words, the tone conversion curve candidates G 1 to Gp are related to the average brightness value of the wide-area image area Em, and as the average brightness value increases, the tone conversion curve candidate G 1 with a larger subscript is added. ⁇ Gp is selected.
  • the wide area image region Em is the same as that described with reference to FIG. 45 in the [fourth embodiment]. That is, the wide area image area Em is a set of a plurality of image areas including the respective image areas Pm. For example, 25 image areas of 5 blocks in the vertical direction and 5 blocks in the horizontal direction centering on the image area Pm. Is a set of Depending on the position of the image area Pm, it may not be possible to take a wide area image area Em of 5 blocks in the vertical direction and 5 blocks in the horizontal direction around the image area Pm. For example, it is not possible to take a wide area image area E I of 5 blocks in the vertical direction and 5 blocks in the horizontal direction around the image area P I with respect to the image area P I located around the original image. In this case, a region in which the region of 5 blocks in the vertical direction and 5 blocks in the horizontal direction centering on the image region P I and the original image overlap is adopted as the wide area image region E I.
  • the selection result of the selection signal deriving unit 123 is output as a selection signal Sm indicating any one of the gradation conversion curve candidates G 1 to G p. More specifically, the selection signal Sm is output as the value of the subscript (1 to p) of the gradation conversion curve candidates G 1 to Gp.
  • the selection signal correction unit 124 selects a gradation conversion curve for each pixel constituting the input signal IS by correction using each selection signal Sm output for each image region Pm.
  • the selection signal SS for each pixel is output. For example, the selection signal SS for the pixels included in the image area P m is obtained by correcting the value of the selection signal output for the image area Pm and the image area around the image area Pm with the internal division ratio of the pixel position. B.
  • FIG. Fig. 63 shows the selection signals S o, S p, for the image areas Po, P p, P q, P r (o, p, q, r are division numbers n (see Fig. 45)). S q and S r are output.
  • the position of the pixel X subject to gradation correction is divided into [i: 1— ⁇ ] and the center of the image area P o and the center of the image area P p, and the image area ⁇ ⁇ Is the position that internally divides the center of the image area and the center of the image area P q into [j: 1 1 j].
  • [So], [Sp], [Sq], and [Sr] are the values of the selection signals So, Sp, Sq, and Sr.
  • the gradation processing execution unit 1 25 receives the brightness value of the pixel included in the input signal IS and the selection signal SS, and outputs the brightness value of the output signal OS using, for example, the two-dimensional LUT 11 shown in FIG. .
  • the value [SS] of the selection signal SS does not equal the subscript (1 to P) of the tone conversion curve candidates G 1 to Gp provided in the 2D LUT 1 41, the value [SS] Gradation conversion curve candidates G 1 to Gp with subscripts of near integers are used for gradation processing of the input signal IS.
  • FIG. 64 shows a flowchart for explaining the visual processing method in the visual processing device 121.
  • the visual processing method shown in FIG. 64 is realized by hardware in the visual processing device 121 and is a method of performing gradation processing of the input signal IS (see FIG. 62).
  • the input signal IS is processed in image units. Tape SI 30 ⁇ S 1 37).
  • the original image input as the input signal IS is divided into multiple image areas Pm (1 ⁇ m ⁇ n, where n is the number of divisions of the original image) (step S 1 3 1), and gradation conversion is performed for each image area Pm.
  • the curve Cm is selected (steps SI 32 to S 1 33), and the tone conversion curve is selected for each pixel of the original image based on the selection signal Sm for selecting the tone conversion curve Cm for each image area Pm. Then, gradation processing in units of pixels is performed (steps S 1 34 to S 1 36).
  • the gradation conversion curve Cm is selected from the gradation conversion curve candidates G 1 to Gp for each image area Pm (step S “! 32). Specifically, the wide area image area of the image area Pm. The average brightness value of Em is calculated, and one of the tone conversion curve candidates G 1 to G p is selected according to the calculated average brightness value. Image area Em is associated with the average brightness value of Em, and the higher the average brightness value, the larger the subscript candidate for the gradation transformation curve G! ⁇ Gp is selected. Here, the description of the wide-area image region Em is omitted (see the section ⁇ Action> above). The selection result is output as a selection signal Sm indicating one of the gradation conversion curve candidates G 1 to G p.
  • the selection signal Sm is output as the value of the subscript (1 to P) of the gradation conversion curve candidates G1 to Gp. Further, it is determined whether or not the processing for all the image areas Pm has been completed (step S 1 33), and the processing of steps SI 32 to S 1 33 is divided into the original images until it is determined that the processing has been completed. Repeat several times. Thus, the processing for each image area is completed.
  • a selection signal SS for each pixel for selecting a gradation conversion curve for each pixel constituting the input signal IS is obtained.
  • the selection signal SS for the pixels included in the image area Pm is obtained by correcting the value of the selection signal output for the image area Pm and the image area around the image area Pm with the internal ratio of the pixel position. It is Explanation of the details of the correction is omitted (see the column ⁇ Action> above, Fig. 63).
  • each step of the visual processing method shown in FIG. 64 may be realized as a visual processing program by a computer or the like.
  • the gradation conversion curve Cm selected for each image area Pm is created based on the average brightness value of the wide area image area Em. For this reason, even if the size of the image area Pm is small, it is possible to sample sufficient brightness values. As a result, an appropriate gradation conversion curve Cm is selected even for a small image area Pm.
  • the selection signal correction unit 124 outputs a selection signal SS for each pixel by correction based on the selection signal Sm output in units of image areas.
  • the pixels of the original image constituting the input signal IS are subjected to gradation processing using the gradation conversion curve candidates G1 to Gp designated by the selection signal SS for each pixel. For this reason, it is possible to obtain an output signal OS subjected to more appropriate gradation processing. For example, it becomes possible to suppress the generation of pseudo contours.
  • the output signal OS it is possible to further prevent the joint at the boundary of each image region Pm from being unnaturally conspicuous.
  • the gradation processing execution unit 125 has a two-dimensional LUT created in advance. For this reason, it is possible to reduce the processing load required for the gradation processing, more specifically, the processing load required to create the gradation conversion curve Cm. As a result, the gradation processing can be speeded up.
  • the gradation processing execution unit 125 executes gradation processing using a two-dimensional LUT.
  • the contents of the two-dimensional LUT are read from a storage device such as a hard disk or ROM provided in the visual processing device 121 and used for gradation processing.
  • a storage device such as a hard disk or ROM provided in the visual processing device 121
  • gradation processing By changing the contents of the read 2D LUT, it is possible to implement various gradation processing without changing the hardware configuration. In other words, it is possible to realize gradation processing more suitable for the characteristics of the original image.
  • the present invention is not limited to the embodiment described above, and various modifications can be made without departing from the scope of the invention.
  • a modification substantially similar to the above [Fifth Embodiment] ⁇ Modification> can be applied to the sixth embodiment.
  • the selection signal Sm is replaced with the selection signal SS
  • the gradation processing signal CS is replaced with the output signal OS.
  • modifications specific to the sixth embodiment will be described.
  • the two-dimensional LUT 1 41 composed of a 64 ⁇ 64 matrix is taken as an example of the two-dimensional LUT.
  • the effect of the present invention is not limited to the two-dimensional LUT of this size.
  • it may be a matrix in which more gradation conversion curve candidates are arranged in the row direction.
  • the pixel value of the output signal OS corresponding to the value obtained by dividing the pixel value of the input signal IS into finer steps may be arranged in the column direction of the matrix.
  • the pixel value of the output signal OS may be arranged for each pixel value of the input signal IS represented by 10 bits.
  • the size of the 2D LUT is increased, it is possible to perform more appropriate gradation processing, and if it is reduced, the memory for storing the 2D LUT can be reduced (2).
  • the value [SS] of the selection signal SS is not equal to the subscripts (1 to P) of the tone conversion curve candidates G1 to Gp included in the two-dimensional LUT 1 41 (see Fig. 51). It was explained that the tone conversion curve candidates G 1 to Gp with the integer closest to the value [SS] as the subscript are used for the tone processing of the input signal IS.

Abstract

 本発明は、実現される視覚処理に依存しないハード構成を有する視覚処理装置を提供するものである。視覚処理装置1は、空間処理部2と、視覚処理部3とを備えている。空間処理部2は、入力された入力信号ISに対して所定の処理を行い、アンシャープ信号USを出力する。視覚処理部3は、入力された入力信号ISおよびアンシャープ信号USと視覚処理された入力信号ISである出力信号OSとの関係を与える2次元LUT4に基づいて、出力信号OSを出力する。

Description

明 細 書 視覚処理装置、 視覚処理方法、 視覚処理プログラム、 集積回路、
表示装置、 撮影装置および携帯情報端末
(技術分野)
本発明は、 視覚処理装置、 特に、 画像信号の空間処理または階調処理などの視 覚処理を行う視覚処理装置に関する。 また別の本発明は、 視覚処理方法、 視覚処 理プログラム、 集積回路、 表示装置、 撮影装置および携帯情報端末に関する。
(背景技術)
原画像の画像信号の視覚処理として、 空間処理と階調処理とが知られている。 空間処理とは、 フィルタ適用の対象となる着目画素の周辺の画素を用い、 着目 画素の処理を行うことである。 また、 空間処理された画像信号を用いて、 原画像 のコントラスト強調、 ダイナミックレンジ (D R ) 圧縮など行う技術が知られて いる。 コントラスト強調では、 原画像とボケ信号との差分 (画像の鮮鋭成分) を 原画像に加え、 画像の鮮鋭化が行われる。 D R圧縮では、 原画像からボケ信号の 一部が減算され、 ダイナミックレンジの圧縮が行われる。
階調処理とは、 着目画素の周辺の画素とは無関係に、 着目画素毎にルックアツ プテ一ブル (L U T ) を用いて画素値の変換を行う処理であり、 ガンマ補正と呼 ばれることもある。 例えば、 コントラスト強調する場合、 原画像での出現頻度の 高い (面積の大きい) 階調レベルの階調を立てる L U Tを用いて画素値の変換が 行われる。 L U Tを用いた階調処理として、 原画像全体に 1つの L U Tを決定し て用いる階調処理 (ヒス卜グラム均等化法) と、 原画像を複数に分割した画像領 域のそれぞれについて L U Tを決定して用いる階調処理 (局所的ヒストグラム均 等化法) とが知られている (例えば、 特開 2 0 0 0— 5 7 3 3 5号公報 (第 3頁 , 第 1 3図〜第 1 6図) 参照。 ) 。
図 1 0 4〜図 1 0 7を用いて、 原画像を複数に分割した画像領域のそれぞれに ついて L U Tを決定して用いる階調処理について説明する。 図 1 04に、 原画像を複数に分割した画像領域のそれぞれについて LUTを決 定して用いる視覚処理装置 300を示す。 視覚処理装置 300は、 入力信号 I S として入力される原画像を複数の画像領域 Sm (1≤m≤n : nは原画像の分割 数) に分割する画像分割部 301と、 それぞれの画像領域 Smに対して階調変換 曲線 Cmを導出する階調変換曲線導出部 31 0と、 階調変換曲線 Cmをロードし それぞれの画像領域 Smに対して階調処理した出力信号 OSを出力する階調処理 部 304とを備えている。 階調変換曲線導出部 31 0は、 それぞれの画像領域 S m内の明度ヒス卜グラム Hmを作成するヒストグラム作成部 302と、 作成され た明度ヒス卜グラム Hmからそれぞれの画像領域 Smに対する階調変換曲線 Cm を作成する階調曲線作成部 303とから構成される。
図 1 05~図1 07を用いて、 各部の動作について説明を加える。 画像分割部 301は、 入力信号 I Sとして入力される原画像を複数 (n個) の画像領域に分 割する (図 1 05 (a) 参照。 ) 。 ヒストグラム作成部 302は、 それぞれの画 像領域 Smの明度ヒストグラム Hmを作成する (図 1 06参照。 ) 。 それぞれの 明度ヒストグラム Hmは、 画像領域 Sm内の全画素の明度値の分布状態を示して いる。 すなわち、 図 1 0 6 (a) 〜 (d) に示す明度ヒストグラム Hmにおいて 、 横軸は入力信号 I Sの明度レベルを、 縦軸は画素数を示している。 階調曲線作 成部 303は、 明度ヒス トグラム Hmの 「画素数」 を明度の順に累積し、 この累 積曲線を階調変換曲線 Cmとする (図 1 07参照。 ) 。 図 1 07に示す階調変換 曲線 Cmにおいて、 横軸は入力信号 I Sにおける画像領域 Smの画素の明度値を 、 縦軸は出力信号 OSにおける画像領域 Smの画素の明度値を示している。 階調 処理部 304は、 階調変換曲線 Cmをロードし階調変換曲線 Cmに基づいて、 入 力信号 I Sにおける画像領域 Smの画素の明度値を変換する。 こうすることによ リ、 各ブロックにおいて出現頻度の高い階調の傾きを立てることとなり、 ブロッ クごとのコントラスト感が向上するものである。
—方、 空間処理と階調処理とを組み合わせた視覚処理についても知られている 。 図 1 08〜図 1 09を用いて、 空間処理と階調処理とを組み合わせた従来の視 覚処理について説明する。
図 1 08にアンシャープマスキングを利用したエッジ強調、 コントラスト強調 を行う視覚処理装置 400を示す。 図 1 O 8に示す視覚処理装置 400は、 入力 信号 I Sに対して空間処理を行いアンシャープ信号 USを出力する空間処理部 4 01 と、 入力信号 I Sからアンシャープ信号 USを減算し差分信号 DSを出力す る減算部 402と、 差分信号 D Sの強調処理を行い強調処理信号 T Sを出力する 強調処理部 403と、 入力信号 I Sと強■処理信号 TSとを加算し出力信号 OS を出力する加算部 404とを備えている。
ここで、 強調処理は、 差分信号 DSに して、 線形あるいは非線形の強調関数 を用いて行われる。 図 1 09に強調関数 R 1〜R3を示す。 図 1 09の横軸は、 差分信号 DS、 縦軸は、 強調処理信号 T Sを表している。 強調関数 R1は、 差分 信号 DSに対して線形な強調関数である。 強調関数 R 1は、 例えば、 R 1 ( X ) =0. 5 X ( Xは、 差分信号 DSの値) で表されるゲイン調整関数である。 強調 関数 R2は、 差分信号 DSに対して非線 J な強調関数であり、 過度のコントラス トを抑制する関数である。 すなわち、 絶対値の大きい入力 X ( Xは、 差分信号 D Sの値) に対して、 より大きい抑制効果 (より大きい抑制率による抑制効果) を 発揮する。 例えば、 強調関数 R 2は、 絶対値のより大きい入力 Xに対して、 より 小さい傾きを有するグラフで表される。 弓虽調関数 R 3は、 差分信号 DSに対して 非線形な強調関数であり、 小振幅のノイズ成分を抑制する。 すなわち、 絶対値の 小さい入力 X ( Xは、 差分信号 DSの値) に対して、 より大きい抑制効果 (より 大きい抑制率による抑制効果) を発揮する。 例えば、 強調関数 R 3は、 絶対値の より大きい入力 Xに対して、 より大きい ί頃きを有するグラフで表される。 強調処 理部 403では、 これらの強調関数 R 1〜R 3のいずれかが用いられている。 差分信号 DSは、 入力信号 I Sの鮮銳成分である。 視覚処理装置 400では、 差分信号 DSの強度を変換し、 入力信号 I Sに加算する。 このため、 出力信号 O Sでは、 入力信号 I Sのエッジ、 コントラストが強調される。
図 1 1 0に、 局所コントラスト (インテンシティ) の改善を行う視覚処理装置 406を示す (例えば、 特許第 2832 954号公報 (第 2頁, 第 5図) 参照。 ) 。 図 1 1 0に示す視覚処理装置 406 ίま、 空間処理部 407と、 減算部 408 と、 第 1の変換部 409と、 乗算部 41 Οと、 第 2の変換部 41 1と、 加算部 4 1 2とを備えている。 空間処理部 407 ίま、 入力信号 I Sに対して空間処理を行 いアンシャープ信号 USを出力する。 減算部 408は、 入力信号 I Sからアンシ ヤープ信号 USを減算し差分信号 DSを出力する。 第 1の変換部 409は、 アン シャープ信号 USの強度に基づいて、 差分信号 DSを局所的に増幅する増幅係数 信号 GSを出力する。 乗算部 41 0は、 差分信号 DSに増幅係数信号 GSを乗算 し、 差分信号 DSを局所的に増幅したコントラスト強調信号 HSを出力する。 第 2の変換部 41 1は、 アンシャープ信号 U Sの強度を局所的に修正し、 修正アン シャープ信号 ASを出力する。 加算部 41 2は、 コントラスト強調信号 HSと修 正アンシャープ信号 ASとを力 Π算し、 出力信号 OSを出力する。
増幅係数信号 GSは、 入力信号 I Sにおいてコントラス卜が適切で無い部分に ついて、 局所的にコントラス トを適正化する非線形の重み係数である。 このため 、 入力信号 I Sにおいてコン トラストの適切な部分は、 そのまま出力され、 適切 で無い部分は、 適正化して出力される。
図 1 1 1に、 ダイナミックレンジの圧縮を行う視覚処理装置 41 6を示す (例 えば、 特開 2001 -29861 9号公報 (第 3頁, 第 9図) 参照。 :) 。 図" I 1 1に示す視覚処理装置 41 6【ま、 入力信号 I Sに対して空間処理を行いアンシャ ープ信号 USを出力する空間処理部 41 7と、 アンシャープ信号 USを LUTを 用いて反転変換処理した LU T処理信号 LSを出力する LUT演算部 41 8と、 入力信号 I Sと LUT処理信号 LSとを加算し出力信号 OSを出力する加算部 4 1 9とを備えている。
しリ丁処理信号!_3は、 入力信号 I Sに加算され、 入力信号 I Sの低周波成分 (空間処理部 41 7のカット才フ周波数より低い周波数成分) のダイナミックレ ンジを圧縮する。 このため、 入力信号 I Sのダイナミックレンジを圧縮しつつ、 高周波成分は保持される。 (発明の開示)
従来、 階調処理と空間処理とを組み合わせた視覚処理を行う場合、 異なる効果 の視覚処理を実現するために (ま、 例えば、 図 1 08, 図 1 1 0, 図 1 1 1のよう にそれぞれ独立した回路で構成する必要がある。 このため、 実現される視覚処理 に合わせて、 専用の LS I設計が必要となり、 回路規模が大きくなるという不都 合がある。
そこで、 本発明では、 実現される視覚処理に依存しないハード構成を有する視 覚処理装置を提供することを課題とする。
請求項 1に記載の視覚処理装置は、 入力信号処理手段と、 視覚処理手段とを備 えている。 入力信号処理手段は、 入力された画像信号に対して所定の処理を行い、 処理信号を出力する。 視覚処理手段は、 入力された画像信号および処理信号と、 視覚処理された画像信号である出力信号との变換関係を与える変換手段に基づい て、 入力された画像信号を変換し、 出力信号を出力する。
ここで、 所定の処理とは、 例えば、 画像信号に対する直接的あるいは間接的な 処理であって、 空間処理や階調処理などの画像信号の画素値に変換を加える処理 を含んでいる。
本発明の視覚処理装置では、 画像信号および処理信号から視覚処理された出力 信号べの変換関係を与える変換手段を用いて視覚処理を行う。 ここで、 変換手段 とは、 例えば、 画像信号と処理信号との値に対する出力信号の値を格納するルツ クアップテーブル (L U T ) や、 画像信号と処理信号との値に対して出力信号を 出力するためのマトリクスデータなどを含む演算手段などである。 このため、 変 換手段が実現する機能に依存しないハード構成を実現することが可能となる。 す なわち、 装置全体として実現される視覚処理に依存しないハードウエア構成を実 現することが可能となる。
請求項 2に記載の視覚処理装置は、 請求項 1 に記載の視覚処理装置であって、 処理信号は、 画像信号が含む着目画素と着目画素の周囲画素とに対して所定の処 理を行った信号である。
ここで、 所定の処理とは、 例えば、 着目画素に対して周囲画素を用いた空間処 理などであり、 着目画素と周囲画素との平均値、 最大値あるいは最小値などを導 出する処理である。
本発明の視覚処理装置では、 例えば、 同じ ί直の着目画素に対する視覚処理であ つても、 周囲画素の影響により、 異なる視覚処理を実現することが可能となる。 請求項 3に記載の視覚処理装置は、 請求項 1 に記載の視覚処理装置であって、 変換手段が与える変換関係は、 画像信号の少なくとも一部または処理信号の少な くとも一部と、 出力信号の少なくとも一部とが非線形となる関係である。
ここで、 非線形の関係とは、 例え I 、 出力信号の少なくとも一部の値が、 画像 信号の少なくとも一部の値または処理信号の少なくとも一部の値を変数とする非 線形の関数で表される、 あるいは関数により定式化することが難しいことなどを 意味している。
本発明の視覚処理装置では、 例え ( 、 画像信号の視覚特性にあった視覚処理あ るいは出力信号を出力する機器の非線形特性にあった視覚処理を実現することな どが可能となる。
請求項 4に記載の視覚処理装置は、 請求項 3に記載の視覚処理装置であって、 変換手段が与える変換関係は、 画像信号および処理信号の両方と、 出力信号とが 非線形となる関係である。
ここで、 画像信号および処理信号の両方と、 出力信号とが非線形の関係にある とは、 例えば、 出力信号の値が、 画像信号の値と処理信号の値とを 2つの変数と する非線形の関数で表される、 あるし、は関数により定式化することが難しいこと などを意味している。
本発明の視覚処理装置では、 例え (ま、 画像信号の値が同じであっても、 処理信 号の値が異なる場合には、 処理信号の値に応じて異なる視覚処理を実現すること が可能となる。
請求項 5に記載の視覚処理装置は、 請求項 1 ~ 4のいずれかに記載の視覚処理 装置であって、 変換手段が与える変換関係は、 画像信号と処理信号とから算出さ れた値を強調する演算に基づいて定められている。
ここで、 画像信号と処理信号とから算出された値とは、 例えば、 画像信号と処 理信号との四則演算で得られる値、 あるいは、 画像信号や処理信号をある関数で 変換した値を演算することにより得られる値などである。 強調する演算とは、 例 えば、 ゲインを調整する演算、 過度のコントラストを抑制する演算、 小振幅のノ ィズ成分を抑制する演算などである。
本発明の視覚処理装置では、 画像信号と処理信号とから算出された値を強調す ることが可能となる。
請求項 6に記載の視覚処理装置は、 請求項 5に記載の視覚処理装置であって、 強調する演算は、 非線形の関数である。
本発明の視覚処理装置では、 例えば、 画像信号の視覚特性にあった強調、 ある いは出力信号を出力する機器の 泉形特性にあった強調を実現することなどが可 能となる。
請求項 7に記載の視覚処理装置は、 請求項 5または 6に記載の視覚処理装置で あって、 強調する演算は、 画像信号または処理信号を変換した値を用いる変換で 請求項 8に記載の視覚処理装置は、 請求項 5〜 7のいずれかに記載の視覚処理 装置であって、 強調する演算は、 画像信号と処理信号とを変換したそれぞれの変 換値の差を強調する強調関数である。
ここで、 強調関数とは、 例えは'、 ゲインを調整する関数、 過度のコントラスト を抑制する関数、 小振幅のノイズ成分を抑制する関数などである。
本発明の視覚処理装置では、 画像信号と処理信号とを別空間に変換した上でそ れぞれの差を強調することが可能となる。 これにより、 例えば、 視覚特性にあつ た強調などを実現することが可能となる。
請求項 9に記載の視覚処理装置は、 請求項 5 ~ 8のいずれかに記載の視覚処理 装置であって、 強調する演算は、 画像信号と処理信号との比を強調する強調関数 である。
本発明の視覚処理装置では、 例えば、 画像信号と処理信号との比は、 画像信号 のシャープ成分を表している。 このため、 例えば、 シャープ成分を強調する視覚 処理を行うことが可能となる。
請求項 1 0に記載の視覚処理装置は、 請求項 1または 2に記載の視覚処理装置 であって、 変換手段が与える変換関係は、 明るさを変える変換に基づいて定めら れている。
本発明の視覚処理装置では、 画像信号の明るさを変える視覚処理を実現するこ とが可能となる。
請求項 1 1に記載の視覚処理装置は、 請求項 1 0に記載の視覚処理装置であつ て、 明るさを変える変換は、 画像信号のレベルまたはゲインを変化させる変換で る。 ここで、 画像信号のレベルを変化させる、 とは、 例えば、 画像信号にオフセッ 卜を与えること、 画像信号のゲインを変化させること、 その他画像信号を変数と して演算することなどにより、 画像信号の値を変化させることを意味している。 画像信号のゲインを変化させる、 とは、 画像信号に乗算される係数を変化させる ことを意味している。
請求項 1 2に記載の視覚処理装置は、 請求項 1 0に記載の視覚処理装置であつ て、 明るさを変える変換は、 処理信号に基づいて定められる変換である。
本発明の視覚処理装置では、 例えば、 面像信号の値が同じであっても、 処理信 号の値が異なる場合には、 処理信号の値に応じて、 異なる変換を実現することが 可能となる。
請求項 1 3に記載の視覚処理装置は、 請求項 1 0に記載の視覚処理装置だって、 明るさを変える変換は、 処理信号に対して単調減少する出力信号を出力する変換 である。
本発明の視覚処理装置では、 例えば、 処理信号が空間処理された画像信号など である場合には、 画像中の暗くて面積の大きい部分は、 明るく変換され、 画像中 の明るくて面積の大きい部分は、 暗く変換される。 このため、 例えば、 逆光補正 や白飛びなどを補正することが可能となる。
請求項 1 4に記載の視覚処理装置は、 請求項 1 ~ 1 3のいずれかに記載の視覚 処理装置であって、 変換手段は、 画像信号と出力信号との関係を、 複数の階調変 換曲線からなる階調変換曲線群として格納する。
ここで、 階調変換曲線群とは、 画像信号の輝度、 明度といった画素値に階調処 理を施す階調変換曲線の集合である。
本発明の視覚処理装置では、 複数の階調変換曲線から選択された階調変換曲線 を用いて、 画像信号の階調処理を行うことが可能となる。 このため、 より適切な 階調処理を行うことが可能となる。
請求項 1 5に記載の視覚処理装置は、 請求項 1 4に記載の視覚処理装置であつ て、 処理信号は、 複数の階調変換曲線群力、ら対応する階調変換曲線を選択するた めの信号である。
ここで、 処理信号は、 階調変換曲線を選択するための信号であり、 例えば、 空 間処理された画像信号などである。
本発明の視覚処理装置では、 処理信号によリ選択された階調変換曲線を用いて、 画像信号の階調処理を行うことが可能となる。
請求項 1 6に記載の視覚処理装置は、 請求項 1 5に記載の視覚処理装置であつ て、 処理信号の値は、 複数の階調変換曲線群が含む少なくとも 1つの階調変換曲 線と関連づけられている。
ここで、 処理信号の値により、 階調処理に用いられる階調変換曲線が少なくと も 1つ選択される。
本発明の視覚処理装置では、 処理信号の値により、 階調変換曲線が少なくとも 1つ選択される。 さらに、 選択された階調変換曲線を用いて、 画像信号の階調処 理が行われる。
請求項 1 7に記載の視覚処理装置は、 請求項 1 〜 1 6のいずれかに記載の視覚 処理装置であって、 変換手段は、 ノレックアップテーブル (以下、 L U Tという) で構成され、 L U Tには、 所定の演算によってあらかじめ作成されるプロフアイ ルデータが登録されている。
本発明の視覚処理装置では、 あらかじめ作成されたプロファイルデータが登録 された L U Tを用いて、 視覚処理力行われる。 視覚処理に際して、 プロファイル データを作成するなどの処理は必要なく、 視覚処理の実行速度の高速化が可能と なる。
請求項 1 8に記載の視覚処理装置は、 請求項 1 7に記載の視覚処理装置であつ て、 L U Tは、 プロファイルデータの登録により変更可能である。
ここで、 プロファイルデータとは、 異なる視覚処理を実現する L U Tのデータ である。
本発明の視覚処理装置では、 プロファイルデータの登録により、 実現される視 覚処理を様々に変更することが可能となる。 すなわち、 視覚処理装置のハードウ エア構成を変更することなく、 様々な視覚処理を実現することが可能となる。 請求項 1 9に記載の視覚処理装置は、 請求項 1 7または 1 8に記載の視覚処理 装置であって、 プロファイルデータを視覚処理手段に登録させるためのプロファ ィルデータ登録手段をさらに備えている。 ここで、 プロファイルデータ登録手段は、 あらかじめ算出されたプロファイル データを視覚処理に応じて視覚処理手段に登録する。
本発明の視覚処理装置では、 プロファイルデータの登録により、 実現される視 覚処理を様々に変更することが可能となる。 すなわち、 視覚処理装置のハードウ エア構成を変更することなく、 様々な視覚処理を実現することが可能となる。 請求項 2 0に記載の視覚処理装置は、 請求項 1 9に記載の視覚処理装置であつ て、 視覚処理手段は、 外部の装置により作成されたプロファイルデータを取得す る。
プロファイルデータは、 外部の装置によりあらかじめ作成されている。 外部の 装置とは、 例えば、 プロファイルデータの作成 7 ^可能なプログラムと C P Uを有 する計算機などである。 視覚処理手段は、 プロファイルデータを取得する。 取得 は、 例えば、 ネットワークを介して、 あるいは記録媒体を介して、 行われる。 視 覚処理手段は、 取得したプロファイルデータを用いて、 視覚処理を実行する。 本発明の視覚処理装置では、 外部の装置により作成されたプロファイルデータ を用いて、 視覚処理を実行することが可能となる。
請求項 2 1に記載の視覚処理装置は、 請求項 2 0に記載の視覚処理装置であつ て、 取得されたプロファイルデータにより、 L U Tは変更可能である。
本発明の視覚処理装置では、 取得されたプロファイルデータは、 L U Tとして 新たに登録される。 これにより、 L U Tを変更し、 異なる視覚処理を実現するこ とが可能となる。
請求項 2 2に記載の視覚処理装置は、 請求項 2 0または 2 1に記載の視覚処理 装置であって、 視覚処理手段は、 通信網を介してプロファイルデータを取得する。
ここで、 通信網とは、 例えば、 専用回線、 公衆回線、 インタ一ネット、 L A N などの通信が可能な接続手段であリ、 有線であつても無線であってもよい。
本発明の視覚処理装置では、 通信網を介して取得されたプロファイルデータを 用いて、 視覚処理を実現することが可能となる。
請求項 2 3に記載の視覚処理装置は、 請求項 1 7に記載の視覚処理装置であつ て、 プロファイルデータを作成するプロフアイ レデータ作成手段をさらに備えて いる。 プロファイルデータ作成手段は、 例元ば、 画像信号や処理信号などの特性を用 いて、 プロファイルデータの作成を行う。
本発明の視覚処理装置では、 プロファイルデータ作成手段により作成されたプ 口ファイルデータを用いて、 視覚処理を実現することが可能となる。
請求項 2 4に記載の視覚処理装置は、 請求項 2 3に記載の視覚処理装置であつ て、 プロファイルデータ作成手段は、 画像信号の階調特性のヒストグラムに基づ いて、 プロファイルデータを作成する。
本発明の視覚処理装置では、 画像信号の階調特性のヒストグラムに基づいて作 成されたプロファイルデータを用いて、 視覚処理が実現される。 このため、 画像 信号の特性に応じて、 適切な視覚処理を実現することが可能となる。
請求項 2 5に記載の視覚処理装置は、 請求項 1 7に記載の視覚処理装置であつ て、 L U Tに登録されるプロファイルデータは、 所定の条件に応じて切り替えら れる。
本発明の視覚処理装置では、 所定の条件に応じて切り替えられたプロファイル データを用いて、 視覚処理が実現される。 このため、 より適切な視覚処理を実現 することが可能となる。
請求項 2 6に記載の視覚処理装置は、 請求項 2 5に記載の視覚処理装置であつ て、 所定の条件とは、 明るさに関する条件である。
本発明の視覚処理装置では、 明るさ【こ関する条件のもとで、 より適切な視覚処 理を実現することが可能となる。
請求項 2 7に記載の視覚処理装置は、 請求項 2 6に記載の視覚処理装置であつ て、 明るさは、 画像信号の明るさである。
本発明の視覚処理装置では、 画像信号の明るさに関する条件のもとで、 より適 切な視覚処理を実現することが可能となる。
請求項 2 8に記載の視覚処理装置は、 請求項 2 7に記載の視覚処理装置であつ て、 画像信号の明るさを判定する明度半 U定手段をさらに備えている。 し U Tに登 録されるプロフアイルデータは、 明度半 IJ定手段の判定結果に応じて切リ替えられ る。
ここで、 明度判定手段は、 例えば、 画像信号の輝度、 明度などの画素値に基づ いて、 画像信号の明るさを判定する。 さらに、 判定結果に応じて、 プロファイル データが切り替ええられる。
本発明の視覚処理装置では、 画像信号の明るさに応じて、 より適切な視覚処理 を実現することが可能となる。
請求項 2 9に記載の視覚処理装置は、 請求項 2 6に記載の視覚処理装置であつ て、 明るさに関する条件を入力させる明度入力手段をさらに備えている。 L U T に登録されるプロファイルデータは、 明度入力手段の入力結果に応じて切り替え られる。
ここで、 明度入力手段は、 例えば、 明るさに関する条件をユーザに入力させる 有線あるいは無線で接続されるスィッチなどである。
本発明の視覚処理装置では、 ユーザが明るさに関する条件を判断して、 明度入 力手段を介して、 プロファイルデータの切り替えを行うことが可能となる。 この ため、 よリューザにとって適切な視覚処理を実現することが可能となる。
請求項 3 0に記載の視覚処理装置は、 請求項 2 9に記載の視覚処理装置であつ て、 明度入力手段は、 出力信号の出力環境の明るさ、 あるいは入力信号の入力環 境の明るさを入力させる。
ここで、 出力環境の明るさとは、 例えば、 コンピュータ、 テレビ、 デジタル力 メラ、 携帯電話、 P D Aなど出力信号を出力する媒体周辺の環境光の明るさや、 プリンタ用紙など出力信号を出力する媒体自体の明るさなどである。 入力環境の 明るさとは、 例えば、 スキャナ用紙など入力信号を入力する媒体自体の明るさな どである。
本発明の視覚処理装置では、 例えば、 ユーザが部屋の明るさなどに関する条件 を判断して、 明度入力手段を介して、 プロファイルデータの切り替えを行うこと が可能となる。 このため、 よリューザにとって適切な視覚処理を実現することが 可能となる。
請求項 3 1に記載の視覚処理装置は、 請求項 2 6に記載の視覚処理装置であつ て、 明るさを少なくとも 2種類検出する明度検出手段をさらに備えている。 L U Tに登録されるプロファイルデータは、 明度検出手段の検出結果に応じて切リ替 えられる。 ここで、 明度検出手段とは、 例えば、 画像信号の輝度、 明度などの画素値に基 づいて、 画像信号の明るさを検出する手段や、 フォトセンサなど出力環境あるい は入力環境の明るさを検出する手段や、 ユーザによリ入力された明るさに関する 条件を検出する手段などである。 なお、 出力環境の明るさとは、 例えば、 コンビ ユータ、 テレビ、 デジタルカメラ、 携帯電話、 P D Aなど出力信号を出力する媒 体周辺の環境光の明るさや、 プリンタ用紙など出力信号を出力する媒体自体の明 るさなどである。 入力環境の明るさとは、 例えば、 スキャナ用紙など入力信号を 入力する媒体自体の明るさなどである。
本発明の視覚処理装置では、 明るさを少なく とも 2種類検出し、 それらに応じ てプロファイルデータの切り替えが行われる。 このため、 より適切な視覚処理を 実現することが可能となる。
請求項 3 2に記載の視覚処理装置は、 請求項 3 1に記載の視覚処理装置であつ て、 明度検出手段が検出する明るさは、 画像信号の明るさと、 出力信号の出力環 境の明るさ、 あるいは入力信号の入力環境の明るさとを含む。
本発明の視覚処理装置では、 画像信号の明るさと、 出力信号の出力環境の明る さ、 あるいは入力信号の入力環境の明るさとに応じて、 より適切な視覚処理を実 現することが可能となる。
請求項 3 3に記載の視覚処理装置は、 請求項 2 5に記載の視覚処理装置であつ て、 L U Tに登録されるプロファイルデータの選択を行わせるプロファイルデー タ選択手段をさらに備えている。 L U Tに登録されるプロファイルデータは、 プ ロフアイルデータ選択手段の選択結果に応じて切リ替えられる。
プロフアイルデータ選択手段は、 ユーザにプロフアイルデータの選択を行わせ る。 さらに、 視覚処理装置では、 選択されたプロファイルデータを用いて、 視覚 処理が実現される。
本発明の視覚処理装置では、 ユーザが好みに応じたプロファイルを選択して視 覚処理を実現することが可能となる。
請求項 3 4に記載の視覚処理装置は、 請求項 3 3に記載の視覚処理装置であつ て、 プロファイルデータ選択手段は、 プロファイルの選択を行うための入力装置 である。 ここで、 入力装置は、 例えば、 視覚処理装置に内蔵、 あるいは有線または無線 などで接続されたスィッチなどである。
本発明の視覚処理装置では、 ユーザ (ま、 入力装置を用いて、 好みのプロフアイ ルを選択することが可能となる。
請求項 3 5に記載の視覚処理装置は、 請求項 2 5に記載の視覚処理装置であつ て、 画像信号の画像特性を判断する画像特性判断手段をさらに備えている。 L U Tに登録されるプロフアイルデータは、 画像特性判断手段の判断結果に応じて切 リ替えられる。
画像特性判断手段は、 画像信号の輝度、 明度、 あるいは空間周波数などの画像 特性を判断する。 視覚処理装置は、 画像特性判断手段の判断結果に応じて切リ替 えられたプロファイルデータを用いて、 視覚処理を実現する。
本発明の視覚処理装置では、 画像特性判断手段が画像特性に応じたプロフアイ ルデータを自動的に選択する。 このため、 画像信号に対してより適切なプロファ ィルデータを用いて視覚処理を実現することが可能となる。
請求項 3 6に記載の視覚処理装置は、 請求項 2 5に記載の視覚処理装置であつ て、 ユーザを識別するユーザ識別手段をさらに備えている。 L U Tに登録される プロフアイルデータは、 ユーザ識別手段の識別結果に応じて切リ替えられる。 ユーザ識別手段は、 例えば、 ユーザを識別するための入力装置、 あるいはカメ ラなどである。
本発明の視覚処理装置では、 ユーザ識別手段が識別したユーザに適した視覚処 理を実現することが可能となる。
請求項 3 7に記載の視覚処理装置は、 請求項 1 7に記載の視覚処理装置であつ て、 視覚処理手段は、 L U Tの格納する値を補間演算して出力信号を出力する。
L U Tは、 所定の間隔の画像信号の ί直あるいは処理信号の値に対して、 値を格 納している。 入力された画像信号の値あるいは処理信号の値を含む区間に対応す る L U Tの値を補間演算することにより、 入力された画像信号の値あるいは処理 信号の値に対する出力信号の値が出力される。
本発明の視覚処理装置では、 画像信号あるいは処理信号が取りうる全ての値に 対してし U Τが値を格納している必要がなく、 L U Τのための記憶容量を削減す ることが可能となる。
請求項 3 8に記載の視覚処理装置は、 請求項 3 7に記載の視覚処理装置であつ て、 補間演算は、 2進数で表された画像信号あるし、は処理信号の少なくとも一方 の下位ビッ卜の値に基づいた線形補間である。
L U Tは、 画像信号あるいは処理信号の上位ビットの値に対応する値を格納し ている。 視覚処理手段は、 入力された画像信号あるいは処理信号の値を含む区間 に対応する L U Tの値を、 画像信号あるいは処理 ί言号の下位ビッ卜の値で線形補 間することにより、 出力信号を出力する。
本発明の視覚処理装置では、 より少ない記憶容量で L U Tを記憶しつつ、 より 正確な視覚処理を実現することが可能となる。
請求項 3 9に記載の視覚処理装置は、 請求項 1〜 3 8のいずれかに記載の視覚 処理装置であって、 入力信号処理手段は、 画像信号に対して空間処理を行う。 本発明の視覚処理装置では、 画像信号と空間処理された画像信号とを用いて、 L U Τにより視覚処理を実現することが可能となる。
請求項 4 0に記載の視覚処理装置は、 請求項 3 9に記載の視覚処理装置であつ て、 入力信号処理手段は、 画像信号からアンシャープ信号を生成する。
ここで、 アンシャープ信号とは、 画像信号に対して直接的あるいは間接的に空 間処理を施した信号を意味している。
本発明の視覚処理装置では、 画像信号とアンシャープ信号とを用いて、 L U T によリ視覚処理を実現することが可能となる。
請求項 4 1に記載の視覚処理装置は、 請求項 3 9または 4 0に記載の視覚処理 装置であって、 空間処理では、 画像信号の平均値、 最大値あるいは最小値が導出 される。
ここで、 平均値とは、 例えば、 画像信号の単純平均でもよいし、 加重平均でも よい。
本発明の視覚処理装置では、 画像信号と、 画像信号の平均値、 最大値あるいは 最小値とを用いて、 L U Τにより視覚処理を実現することが可能となる。
請求項 4 2に記載の視覚処理装置は、 請求項 1〜4 1のいずれかに記載の視覚 処理装置であって、 視覚処理手段は、 入力された画像信号及び処理信号を用いて、 空間処理及び階調処理を行う。
本発明の視覚処理装置では、 L U Tを用いて、 空間処理および階調処理を同時 に実現することが可能となる。
請求項 4 3に記載の視覚処理方法は、 入力信号処理ステップと、 視覚処理ステ ップとを備えている。 入力信号処理ステップは、 入力された画像信号に対して所 定の処理を行い、 処理信号を出力する。 視覚処理ステップは、 入力された画像信 号および処理信号と、 視覚処理された画像信号である出力信号との関係を与える 変換手段に基づいて、 入力された画像信号を変換し、 出力信号を出力する。
ここで、 所定の処理とは、 例えば、 画像信号に対する直接的あるいは間接的な 処理であって、 空間処理や階調処理などの画像信号の画素値に変換を加える処理 を含んでいる。
本発明の視覚処理方法では、 画像信号および処理信号と、 視覚処理された出力 信号との変換関係を与える変換手段を用いて視覚処理を行う。 このため、 変換手 段以外のハードあるいはソフトを汎用的に用いることが可能となる。 すなわち、 視覚処理の機能に依存しないハードウエア構成あるいはソフトウエア構成を採用 することが可能となる。 このため、 付随的な効果として、 ハードウェアの低コス ト化、 ソフトウェアの汎用化などが可能となる。
請求項 4 4に記載の視覚処理プログラムは、 コンピュータにより視覚処理方法 を行うための視覚処理プログラムであって、 入力信号処理ステップと、 視覚処理 ステップとを備える視覚処理方法をコンピュータに行わせるものである。 入力信 号処理ステップは、 入力された画像信号に対して所定の処理を行い、 処理信号を 出力する。 視覚処理ステップは、 入力された画像信号および処理信号と、 視覚処 理された画像信号である出力信号との関係を与える変換手段に基づいて、 入力さ れた画像信号を変換し、 出力信号を出力する。
ここで、 所定の処理とは、 例えば、 画像信号に対する直接的あるいは間接的な 処理であって、 空間処理や階調処理などの画像信号の画素値に変換を加える処理 を含んでいる。
本発明の視覚処理プログラムでは、 画像信号および処理信号と、 視覚処理され た出力信号との変換関係を与える変換手段を用いて視覚処理を行う。 このため、 変換手段以外のソフトを汎用的に用いることが可能となる。 すなわち、 視覚処理 の機能に依存しないソフトウエア構成を採用すること力 可能となる。 このため、 付随的な効果として、 ソフトウェアの汎用化などが可能となる。
請求項 4 5に記載の集積回路は、 請求項 1 〜4 2のし、ずれかに記載の視覚処理 装置を含む。
本発明の集積回路では、 請求項 1 ~ 4 2のいずれかに記載の視覚処理装置と同 様の効果を得ることが可能となる。
請求項 4 6に記載の表示装置は、 請求項 1 ~ 4 2のいずれかに記載の視覚処理 装置と、 視覚処理装置から出力される出力信号の表示を行う表示手段とを備えて いる。
本発明の表示装置では、 請求項 1 ~ 4 2のいずれかに記載の視覚処理装置と同 様の効果を得ることが可能となる。
請求項 4 7に記載の撮影装置は、 画像の撮影を行う攝影手段と、 撮影手段によ リ撮影された画像を画像信号として視覚処理を行う請求項 1 〜4 2のいずれかに 記載の視覚処理装置とを備えている。
本発明の撮影装置では、 請求項 1 ~ 4 2のいずれかに記載の視覚処理装置と同 様の効果を得ることが可能となる。
請求項 4 8に記載の携帯情報端末は、 通信あるいは放送された画像データを受 信するデータ受信手段と、 受信された画像データを画像信号として視覚処理を行 う請求項 1 ~ 4 2のいずれかに記載の視覚処理装置と、 視覚処理装置により視覚 処理された画像信号の表示を行う表示手段とを備えている。
本発明の携帯情報端末では、 請求項 1 ~ 4 2のいずれかに記載の視覚処理装置 と同様の効果を得ることが可能となる。
請求項 4 9に記載の携帯情報端末は、 画像の撮影を ί亍ぅ撮影手段と、 撮影手段 により撮影された画像を画像信号として視覚処理を行う請求項 1 ~ 4 2のいずれ かに記載の視覚処理装置と、 視覚処理された画像信号を送信するデータ送信手段 とを備えている。
本発明の携帯情報端末では、 請求項 1〜 4 2のいずれかに記載の視覚処理装置 と同様の効果を得ることが可能となる。 本発明の視覚処理装置により、 実現される視覚処理に依存しないハード構成を 有する視覚処理装置を提供することが可能となる。
(図面の簡単な説明)
図 1は、 視覚処理装置 1の構造を説明するブロック図 (第 1実施形態) である。 図 2は、 プロファイルデータの一例 (第 1実施形態) である。
図 3は、 視覚処理方法を説明するフローチヤ一卜 (第 1実施形態) である。 図 4は、 視覚処理部 5 0 0の構造を説明するブロック図 (第 1実施形態) である 図 5は、 プロファイルデータの一例 (第 1実施形態) である。
図 6は、 視覚処理装置 5 2 0の構造を説明するブロック図 (第 1実施形態) であ る。
図 7は、 視覚処理装置 5 2 5の構造を説明するブロック図 (第 1実施形態) であ る。
図 8は、 視覚処理装置 5 3 0の構造を説明するブロック図 (第 1実施形態) であ る。
図 9は、 プロファイルデータ登録装置 7 0 1の精造を説明するブロック図 (第 1 実施形態) である。
図 1 0は、 視覚処理プロファイル作成方法につし、て説明するフローチャート (第 1実施形態) である。
図 1 1は、 視覚処理装置 9 0 1の構造を説明するブロック図 (第 1実施形態) で あ 。
図 1 2は、 変更度関数 f k ( z ) を変化させた場合の入力信号 I S ' と出力信号 O S ' との関係を示すグラフ (第 1実施形態) である。
図 1 3は、 変更度関数 f l ( z ) および f 2 ( z ) を示すグラフ (第 1実施形態 ) である。
図 1 4は、 視覚処理装置 9 0 5の構造を説明するブロック図 (第 1実施形態) で あ 0
図 1 5は、 視覚処理装置 1 1の構造を説明するブロック図 (第 1実施形態) であ る。
図 1 6は、 視覚処理装置 2 1の構造を説明するブロック図 (第 1実施形態) であ る。
図 1 7は、 ダイナミックレンジ圧縮関数 F 4 i二ついて説明する説明図 (第 1実施 形態) である。
図 1 8は 強調関数 F 5について説明する説明図 (第 1実施形態) である。 図 1 9は 視覚処理装置 3 1の構造を説明するブロック図 (第 1実施形態) であ る。
図 2 0は 視覚処理装置 4 1の構造を説明するブロック図 (第 1実施形態) であ る。
図 2 1は 視覚処理装置 5 1の構造を説明するブロック図 (第 1実施形態) であ る。
図 2 2は 視覚処理装置 6 1の構造を説明するブロック図 (第 1実施形態) であ る。
図 2 3は 視覚処理装置 7 1の構造を説明するブロック図 (第 1実施形態) であ る。
図 2 4は 視覚処理装置 6 0 0の構造を説明するブロック図 (第 2実施形態) で あも。
図 2 5は 式 M 2 0による変換を説明するグラフ (第 2実施形態) である。 図 2 6は 式 M 2による変換を説明するグラフ (第 2実施形態) である。
図 2 7は 式 M 2 1による変換を説明するグラフ (第 2実施形態) である。 図 2 8は 視覚処理方法について説明するフローチャート (第 2実施形態) であ る。
図 2 9は 関数 QM ( A ) の傾向を示すグラフ (第 2実施形態) である。
図 3 0は 関数 QT 2 ( A ) の傾向を示すグラフ (第 2実施形態) である。
図 3 1は 関数 QT 3 ( A ) の傾向を示すグラフ (第 2実施形態) である。
図 3 2は 関数 or 4 ( A, B ) の傾向を示すグラフ (第 2実施形態) である。 図 3 3は 変形例としての実コントラスト設定部 6 0 5の構造を説明するブロッ ク図 (第 図 3 4は、 変形例としての実コントラスト設定部 6 0 5の構造を説明するブロッ ク図 (第 2実施形態) である。
図 3 5は、 制御部 6 0 5 eの動作を説明するフローチャート (第 2実施形態) で ある
図 3 6は、 色差補正処理部 6 0 8を備える視覚処理装置 6 0 0の構造を説明する ブロック図 (第 2実施形態) である。
図 3 7は、 色差補正処理の概要を説明する説明図 (第 2実施形態) である。 図 3 8は、 色差補正処理部 6 0 8における推定演算について説明するフローチヤ 一卜 (第 2実施形態) である。
図 3 9は、 変形例としての視覚処理装置 6 0 0の構造を説明するブロック図 (第 2実施形態) である。
図 4 0は、 視覚処理装置 9 1 0の構造を説明するブロック図 (第 3実施形態) で める。
図 4 1は、 視覚処理装置 9 2 0の構造を説明するブロック図 (第 3実施形態) で のる
図 4 2は、 視覚処理装置 9 2 0 ' の構造を説明するプロック図 (第 3実施形態) である。
図 4 3は、 視覚処理装置 9 2 0 " の構造を説明するプロック図 (第 3実施形態) である。
図 4 4は、 視覚処理装置 1 0 1の構造を説明するブロック図 (第 4実施形態) で める。
図 4 5は、 画像領域 P mについて説明する説明図 (第 4実施形態) である。 図 4 6は、 明度ヒストグラム H mについて説明する説明図 (第 4実施形態) であ る。
図 4 7は、 階調変換曲線 C mについて説明する説明図 (第 4実施形態) である。 図 4 8は、 視覚処理方法について説明するフローチャート (第 4実施形態) であ る。
図 4 9は、 視覚処理装置 1 1 1の構造を説明するブロック図 (第 5実施形態) で める。 図 50は、 階調変換曲線候補 GM ~G pについて説明する説明図 (第 5実施形態 ) である。
図 51は、 2次元 LUT 1 41について説明する説明図 (第 5実施形態) である 図 52は、 階調補正部 1 1 5の動作について説明する説明図 (第 5実施形態) で あ 。
図 53は、 視覚処理方法について説明するフローチャート (第 5実施形態) であ る。
図 54は、 階調変換曲線 Cmの選択の変形例について説明する説明図 (第 5実施 形態) である。
図 55は、 変形例としての階調処理について説明する説明図 (第 5実施形態) で
¾)る。
図 56は、 階調処理実行部 1 44の構造を説明するブロック図 (第 5実施形態) である。
図 57は、 曲線パラメータ P 1および P 2と、 階調変換曲線候補 Gi l ~Gpとの 関係について説明する説明図 (第 5実施形態) である。
図 58は、 曲線パラメータ P 1および P 2と、 選択信号 Smとの関係について説 明する説明図 (第 5実施形態) である。
図 59は、 曲線パラメ一タ P 1および P 2と、 選択信号 Smとの関係について説 明する説明図 (第 5実施形態) である。
図 60は、 曲線パラメータ P 1および P 2と、 階調変換曲線候補 G 1 ~G pとの 関係について説明する説明図 (第 5実施形態) である。
図 61は、 曲線パラメータ P 1および P 2と、 選択信号 Smとの関係について説 明する説明図 (第 5実施形態) である。
図 62は、 視覚処理装置 1 21の構造を説明するブロック図 (第 6実施形態) で あ ¾)o
図 63は、 選択信号補正部 1 24の動作について説明する説明図 (第 6実施形態 ) である。
図 64は、 視覚処理方法について説明するフローチャート (第 6実施形態) であ る。
図 6 5は、 視覚処理装置 1 6 1の構造を説明するブロック図 (第 7実施形態) で ある。
図 6 6は、 空間処理部 1 6 2の空間処理について説明する説明図 (第 7実施形態 ) である。
図 6 7は、 重み係数 [W i j ] について説明する表 (第 7実施形態) である。 図 6 8は、 視覚処理装置 1 6 1による視覚処理の効果を説明する説明図 (第 7実 施形態) である。
図 6 9は、 視覚処理装置 9 6 1の構造を説明するブロック図 (第 7実施形態) で ある。
図 7 0は、 空間処理部 9 6 2の空間処理について説明する説明図 (第 7実施形態 ) である。
図 7 1は、 重み係数 [W i 〗 ] について説明する表 (第 7実施形態) である。 図 7 2は、 コンテンツ供給システムの全体構成について説明するブロック図 (第 9実施形態) である。
図 7 3は、 本発明の視覚処理装置を搭載する携帯電話の例 (第 9実施形態) であ る。
図 7 4は、 携帯電話の構成について説明するブロック HI (第 9実施形態) である 図 7 5は、 ディジタル放送用システムの例 (第 9実施 態) である。
図 7 6は、 表示装置 7 2 0の構造を説明するブロック IU (第 1 0実施形態) であ る。
図 7 7は、 画像処理装置 7 2 3の構造を説明するブロック図 (第 1 0実施形態) である。
図 7 8は、 プロファイル情報出力部 7 4 7の構造を説明するブロック図 (第 1 0 実施形態)である。
図 7 9は、 カラ一視覚処理装置 7 4 5の構造を説明するブロック図 (第 1 0実施 形態) である。
図 8 0は、 視覚処理装置 7 5 3の構造を説明するブロック図 (第 1 0実施形態) である。
図 8 1は、 変形例としての視覚処理装置 7 5 3の動作について説明する説明図 ( 第 1 0実施形態) である。
図 8 2は、 視覚処理装置 7 5 3 aの構造を説明するブロック図 (第 1 0実施形態 ) である。
図 8 3は、 視覚処理装置 7 5 3 bの構造を説明するブロック図 (第 1 0実施形態 ) である。
図 8 4は、 視覚処理装置 7 5 3 cの構造を説明するブロック図 (第 1 0実施形態
) である。
図 8 5は、 画像処理装置 7 7 0の構造を説明するブロック図 (第 1 0実施形態) である。
図 8 6は、 ユーザ入力部 7 7 2の構造を説明するブロック図 (第 1 0実施形態) である。
図 8 7は、 画像処理装置 8 0 0の構造を説明するブロック図 (第 1 0実施形態) である。
図 8 8は、 入力画像信号 d 3 6 2のフォーマツ 卜の一例 (第 1 0実施形態) であ る。
図 8 9は, 属性判定部 8 0 2の構造を説明するブロック図 (第 1 0実施形態) で め 。
図 9 0は、 入力画像信号 d 3 6 2のフォーマツ 卜の一例 (第 1 0実施形態) であ る。
図 9 1は, 入力画像信号 d 3 6 2のフォーマツ 卜の一例 (第 1 0実施形態) であ る。
図 9 2は, 入力画像信号 d 3 6 2のフォーマツ 卜の一例 (第 1 0実施形態) であ る。
図 9 3は, 入力画像信号 d 3 6 2のフォーマツ 卜の一例 (第 1 0実施形態) であ る。
図 9 4は, 入力画像信号 d 3 6 2のフォーマツ 卜の一例 (第 1 0実施形態) であ る。 図 9 5は、 撮影装置 8 2 0の構造を説明するブロック図 (第 1 1実施形態) であ る。
図 9 6は、 画像処理装置 8 3 2の構造を説明するブロック図 (第 1 1実施形態) である。
図 9 7は、 画像処理装置 8 8 6の構造を説明するブロック図 (第 1 1実施形態) である。
図 9 8は、 出力画像信号 d 3 6 1のフォーマットの一例 (第 1 1実施形態) であ る。
図 9 9は、 画像処理装置 8 9 4の構造を説明するブロック IU (第 1 1実施形態) である。
図 1 0 0は、 画像処理装置 8 9 6の構造を説明するブロック図 (第 1 1実施形態
) である。
図 1 0 1は、 画像処理装置 8 9 8の構造を説明するブロック図 (第 1 1実施形態
) である。
図 1 0 2は、 画像処理装置 8 7 0の構造を説明するブロック図 (第 1 1実施形態
) である。
図 1 0 3は、 画像処理装置 8 7 0の動作について説明する説明図 (第 1 1実施形 態) である。
図 1 0 4は、 視覚処理装置 3 0 0の構造を説明するブロック図 (背景技術) であ る。
図 1 0 5は、 画像領域 S mについて説明する説明図 (背景 術) である。
図 1 0 6は、 明度ヒストグラム H mについて説明する説明図 (背景技術) である 図 1 0 7は、 階調変換曲線 C mについて説明する説明図 (背景技術) である。 図 1 0 8は、 アンシャープマスキングを利用した視覚処理装置 4 0 0の構造を説 明するブロック図 (背景技術) である。
図 1 0 9は、 強調関数 R 1 〜R 3について説明する説明図 (背景技術) である。 図 1 1 0は、 局所コントラストの改善を行う視覚処理装置 4· 0 6の構造を説明す るブロック図 (背景技術) である。 図 1 1 1は、 ダイナミックレンジの圧縮を行う視覚処理装置 4 1 6の構造を説明 するブロック図 (背景技術) である。
(発明を実施するための最良の形態)
以下、 本発明の最良の形態としての第 1〜第 1 1実施形態について説明する。 第 1実施形態では、 2次元 L U Tを利用した視覚処理装置について説明する。 第 2実施形態では、 画像を表示する環境に環境光が存在する場合に環境光の補 正を行う視覚処理装置について説明する。
第 3実施形態では、 第 1実施形態および第 2実施形態の応用例について説明す る。
第 4〜第 6実施形態では、 視覚的効果を向上させる階調処理を実現する視覚処 理装置について説明する。
第 7実施形態では、 適切なボケ信号を用いて視覚処理を行う視覚処理装置につ いて説明する。
第 8実施形態では、 第 4〜第 7実施形態の応用例について説明する。
第 9実施形態では、 第 1〜第 8実施形態の応用例について説明する。
第 1 0実施形態では、 上記実施形態の視覚処理装置の表示装置への応用例につ いて説明する。
第 1 1実施形態では、 上記実施形態の視覚処理装置の撮影装置への応用例につ いて説明する。
[第 1実施形態]
図 1〜図 1 0を用いて、 本発明の第 1実施形態としての 2次元 L U Tを利用し た視覚処理装置 1について説明する。 また、 図 1 1〜図 1 4を用いて、 視覚処理 装置の変形例について説明する。 また、 図 1 5〜図 2 3を用いて、 視覚処理装置 1と等価な視覚処理を実現する視覚処理装置について説明する。
視覚処理装置 1は、 画像信号の空間処理、 階調処理など視覚処理を行う装置で ある。 視覚処理装置 1は、 例えば、 コンピュータ、 テレビ、 デジタルカメラ、 携 帯電話、 P D A、 プリンタ、 スキャナなどの画像を取り扱う機器において、 画像 信号の色処理を行う装置とともに画像処理装置を構成する。 〈視覚処理装置 1〉
図 1に、 画像信号 (入力信号 I S) に視覚処理を行い視覚処理画像 (出力信号 OS) を出力する視覚処理装置 1の基本構成を示す。 視覚処理装置 1は、 入力信 号 I Sとして取得した原画像の画素ごとの輝度値に空間処理を実行しアンシヤー プ信号 USを出力する空間処理部 2と、 同じ画素についての入力信号 I Sとアン シャープ信号 USとを用いて、 原画像の視覚処理を行い、 出力信号 OSを出力す る視覚処理部 3とを備えている。
空間処理部 2は、 例えば、 入力信号 I Sの低域空間のみを通過させる低域空間 フィルタによりアンシャープ信号 USを得る。 低域空間フィルタとしては、 アン シャープ信号の生成に通常用いられる F I R (F i n i t e I mp u l s e Re s p o n e s) 型の低域空間フィルタ、 あるいは I I R ( l n f i n i t e I mp u l s e Re s p o n e s) 型の低域空間フィルタなどを用いてもよ い。
視覚処理部 3は、 入力信号 I Sおよびアンシャープ信号 USと出力信号 OSと の関係を与える 2次元 LUT4を有しており、 入力信号 I Sとアンシャープ信号 USとに対して、 2次元 L U T 4を参照して出力信号 OSを出力する。
< 2次元 L U T 4〉
2次元 LUT4には、 プロファイルデータと呼ばれるマトリクスデータが登録 される。 プロファイルデータは、 入力信号 I Sのそれぞれの画素値に対応する行 (または列) とアンシャープ信号 USのそれぞれの画素値に対応する列 (または 行) とを有しており、 行列の要素として、 入力信号 I Sとアンシャープ信号 US との組み合わせに対応する出力信号 O Sの画素値が格納されている。 プロフアイ ルデータは、 視覚処理装置 1に内蔵あるいは接続されるプロファイルデータ登録 装置 8により、 2次元 LUT4に登録される。 プロファイルデータ登録装置 8に は、 パーソナルコンピュータ (PC) 等によりあらかじめ作成された複数のプロ ファイルデータが格納されている。 例えば、 コントラスト強調、 Dレンジ圧縮処 理、 あるいは階調補正など (詳細は、 下記 〈プロファイルデータ〉 の欄参照) を 実現する複数のプロファイルデータが格納されている。 これにより、 視覚処理装 置 1では、 プロファイルデータ登録装置 8を用いて 2次元 L U T 4のプロフアイ ルデータの登録内容を変更し、 様々な視覚処理を実現することが可能となる。 プロフアイルデータの一例を図 2に示す。 図 2に示すプロフアイルデータは、 視覚処理装置 1に、 図 1 08で示した視覚処理装置 400と等価な処理を実現さ せるためのプロファイルデータである。 図 2において、 プロファイルデータは、 64X64のマトリクス形式で表現されており、 列方向 (縦方向) には 8ビット で表現される入力信号 I Sの輝度値の上位 6ビッ卜の値が、 行方向 (横方向) に は 8ビッ卜で表現されるアンシャープ信号 U Sの輝度値の上位 6ビッ卜の値が示 されている。 また、 2つの輝度値に対する行列の要素として出力信号 OSの値が 8ビットで示されている。
図 2に示すプロファイルデータの各要素の値 C (出力信号 OSの値) は、 入力 信号 I Sの値 A (例えば、 8ビッ卜で表現される入力信号 I Sの下位 2ビットを 切り捨てた値) とアンシャープ信号 USの値 B (例えば、 8ビットで表現される アンシャープ信号 U Sの下位 2ピットを切り捨てた値) とを用いて、 C = A + 0 . 5 * (A— B) (以下、 式 M1 1という) で表現される。 すなわち、 視覚処理 装置 1では、 強調関数 R1 (図 1 09参照) を用いた視覚処理装置 400 (図 1 08参照) と等価な処理が行われていることを示している。
なお、 入力信号 I Sの値 Aとアンシャープ信号 USの値 Bとの値の組み合わせ によっては、 式 M1 1で求められる値 Cが負の値となることがある。 この場合、 入力信号 I Sの値 Aとアンシャープ信号 USの値 Bとに対応するプロファイルデ —タの要素は、 値 0としてもよい。 また、 入力信号 I Sの値 Aとアンシャープ信 号 U Sの値 Bとの値の組み合わせによっては、 式 M1 1で求められる値 Cが飽和 してしまうことがある。 すなわち、 8ビットで表現できる最大値 255を超えて しまうことがある。 この場合、 入力信号 I Sの値 Aとアンシャープ信号 U Sの値 Bとに対応するプロファイルデータの要素は、 値 255と してもよい。 図 2では 、 このようにして求めたプロファイルデータの各要素を等高線表示している。 また、 例えば、 各要素の値 Cが、 C = R6 (B) +R5 (B) * (A— B) ( 以下、 式 M 1 2という) で表現されるプロファイルデータを用いると、 図 1 1 0 で示した視覚処理装置 406と等価な処理を実現することが可能である。 ここで 、 関数 R5は、 第 1の変換部 409においてアンシャープ信号 U Sから増幅係数 信号 G Sを出力する関数であり、 関数 R 6は、 第 2の変換部 4 1 1においてアン シャープ信号 U Sから修正アンシャープ信号 A Sを出力する関数である。
さらに、 各要素の値 Cが、 G = A + R 8 ( B ) (以下、 式 M l 3という) で表 現されるプロファイルデータを用いると、 図 1 1 1 で示した視覚処理装置 4 1 6 と等価な処理を実現することが可能である。 ここで、 関数 R 8は、 アンシャープ 信号 U Sから L U T処理信号 L Sを出力する関数である。
なお、 式 M l 2、 式 M l 3で求められるプロファイルデータのある要素の値 C が 0≤C≤2 5 5の範囲を超える場合には、 その要素の値 Cを 0又は 2 5 5とし てもよい。
〈視覚処理方法および視覚処理プログラム〉
図 3に視覚処理装置 1における視覚処理方法を説明するフローチャートを示す 。 図 3に示す視覚処理方法は、 視覚処理装置 1においてハードウェアにより実現 され、 入力信号 I S (図 1参照) の視覚処理を行う方法である。
図 3に示す視覚処理方法では、 入力信号 I Sは、 低域空間フィルタにより空間 処理され (ステップ S I 1 ) 、 アンシャープ信号 U Sが取得される。 さらに、 入 力信号 I Sとアンシヤープ信号 U Sとに対する 2次元 L U T 4の値が参照され、 出力信号 O Sが出力される (ステップ S 1 2 ) 。 以上の処理が入力信号 I Sとし て入力される画素毎に行われる。
なお、 図 3に示す視覚処理方法のそれぞれのステップは、 コンピュータなどに より、 視覚処理プログラムとして実現されるものであっても良い。
〈効果〉
( 1 )
入力信号 I Sの値 Aだけに基づいて視覚処理を行う場合に (例えば、 1次元の 階調変換曲線による変換を行う場合など) 、 画像中の異なる場所で同じ濃度の画 素が存在すると、 同じ明るさの変換が行われてしまう。 より具体的には、 画像中 の人物の背景の暗い場所を明るくすると、 同じ濃度の人物の髪の毛も明るくなる それに比較して、 視覚処理装置 1では、 入力信号 I Sの値 Aとアンシャープ信 号 U Sの値 Bとに対応する 2次元の関数に基づいて作成されたプロファイルデー タを用いて視覚処理を行う。 このため、 画像中の異なる場所 ί二存在する同じ濃度 の画素を、 一様に変換するのでなく、 周囲情報を含めて明るくしたり、 暗くした りすることができ、 画像中の領域毎に最適な明るさの調整ができる。 より具体的 には、 画像中の人物の髪の毛の濃度を変えずに、 同じ濃度の背景を明るくするこ とができる。
( 2 )
視覚処理装置 1では、 2次元 L U T 4を用いて、 入力信号 I Sの視覚処理を行 う。 視覚処理装置 1は、 実現される視覚処理効果に依存しなし、ハードウェア構成 を有している。 すなわち、 視覚処理装置 1は、 汎用性の有る/ヽードウエアで構成 することが可能であり、 ハードウェアコストの削減などに有効である。
( 3 )
2次元 L U Τ 4に登録されるプロファイルデータは、 プロファイルデータ登録 装置 8により変更可能である。 このため、 視覚処理装置 1で (ま、 視覚処理装置 1 のハードゥエァ構成を変更することなく、 プロフアイルデータを変更することに より、 様々な視覚処理を実現することが可能となる。 より具体的には、 視覚処理 装置 1では、 空間処理および階調処理を同時に実現すること 7¾可能となる。
( 4 )
2次元 L U Τ 4の登録されるプロファイルデータは、 あら 7b、じめ算出しておく ことが可能である。 一旦作成されたプロファイルデータは、 し、かに複雑な処理を 実現するものであっても、 それを用いた視覚処理に要する時間は一定である。 こ のため、 ハードウェアあるいはソフ卜ウェアで構成した場合 ίこは複雑な構成とな る視覚処理であっても、 視覚処理装置 1を用いた場合には、 視覚処理の複雑さに 処理時間は依存せず、 視覚処理の高速化を図ることが可能となる。
〈変形例〉
( 1 )
図 2では、 6 4 X 6 4のマトリクス形式のプロファイルデータについて説明し た。 ここで、 本発明の効果は、 プロファイルデータのサイズに依存するものでは ない。 例えば、 2次元 L U T 4は、 入力信号 I Sおよびアンシャープ信号 U Sが 取りうる全ての値の組み合わせに応じたプロファイルデータを有することも可能 である。 例えば、 入力信号およびアンシャープ信号 US力 8ビッ卜で表現される 場合、 プロファイルデータは、 256 X 256のマトリクス形式であってもよい この場合、 2次元 LUT 4に必要なメモリ容量は増えるが、 より正確な視覚処 理を実現することが可能となる。
(2)
図 2では、 プロファイルデータは、 8ビットで表現される入力信号 I Sの輝度 値の上位 6ビッ卜の値と、 8ビッ卜で表現されるアンシャープ信号 USの輝度値 の上位 6ビッ卜の値とについての出力信号 OSの値を格納していると説明した。 ここで、 視覚処理装置 1は、 隣接するプロファイルデータの要素と、 入力信号 I Sおよびアンシャープ信号 USの下位 2ビッ卜の大きさとに基づいて、 出力信号 O Sの値を線形補間する補間部をさらに備えていても良い。
この場合、 2次元 LUT4に必要なメモリ容量を増やすことなく、 より正確な 視覚処理を実現することが可能となる。
また、 補間部は、 視覚処理部 3に備えられ、 2次元 L UT 4の格納する値を線 形補間した値を出力信号 OSとして出力するものであってもよい。
図 4に、 視覚処理部 3の変形例として、 補間部 501 を備える視覚処理部 50 0を示す。 視覚処理部 500は、 入力信号 I Sおよびアンシャープ信号 USと補 間前出力信号 NSとの関係を与える 2次元 LUT4と、 補間前出力信号 NS、 入 力信号 I Sおよびアンシャープ信号 USを入力とし、 出力信号 OSを出力する補 間部 501とを備えている。
2次元 LUT4は、 8ビットで表現される入力信号 I Sの輝度値の上位 6ビッ 卜の値と、 8ビッ卜で表現されるアンシャープ信号 U Sの輝度値の上位 6ビット の値とについての補間前出力信号 NSの値を格納している。 補間前出力信号 NS の値は、 例えば、 8ビットの値として格納されている。 2次元 L UT4は、 入力 信号 I Sの 8ビット値とアンシャープ信号 USの 8ビッ ト値とが入力されると、 それぞれの値を含む区間に対応する 4つの補間前出力信号 NSの値を出力する。 それぞれの値を含む区間とは、 (入力信号 I Sの上位 6 ビッ卜の値、 アンシヤー プ信号 U Sの上位 6ビッ卜の値) 、 (入力信号 I Sの上位 6ビッ卜の値を超える 最小の 6ビッ卜の値、 アンシャープ信号 U Sの上位 6ビッ卜の値) 、 (入力信号 I Sの上位 6ビッ卜の値、 アンシャープ信号 USの上位 6ビッ卜の値を超える最 小の 6ビッ卜の値) 、 (入力信号 I Sの上位 6ビッ卜の値を超える最小の 6ビッ 卜の値、 アンシャープ信号 USの上位 6ビッ卜の値を超える最小の 6ビッ卜の値 ) のそれぞれの組み合わせに対して格納されている 4つの補間前出力信号 N に 囲まれる区間である。
補間部 501には、 入力信号 I Sの下位 2ビッ卜の値とアンシャープ信号 US の下位 2ビットの値とが入力され、 これらの値を用いて、 2次元 L UT4が出力 した 4つの補間前出力信号 NSの値が線形補間される。 より具体的には、 入力信 号 I Sの下位 2ビットの値とアンシャープ信号 USの下位 2ビットの値とを用い て、 4つの補間前出力信号 NSの値の加重平均を計算し、 出力信号 OSが出力さ れる。
以上により、 2次元 LUT 4に必要なメモリ容量を増やすことなく、 より正確 な視覚処理を実現することが可能となる。
なお、 補間部 501では、 入力信号 I Sあるいはアンシャープ信号 USのいず れか一方についてのみ線形補間を行うものでもよし、。
(3)
空間処理部 2で行われる空間処理では、 着目画素についての入力信号 I Sに対 して、 着目画素と着目画素の周辺画素との入力信号 I Sの平均値 (単純平均また は加重平均) 、 最大値、 最小値、 あるいは中央値をアンシャープ信号 USとして 出力するものであっても良い。 また、 着目画素の周辺画素のみの平均値、 最大値 、 最小値、 あるいは中央値をアンシャープ信号 USとして出力するものであって もよい。
(4)
図 2では、 プロファイルデータの各要素の値 Ciま、 入力信号 I Sの値 Aとアン シャープ信号 USの値 Bとのそれぞれに対して線形の関数 M1 1に基づいて作成 されている。 一方、 プロファイルデータの各要素の値 Cは、 入力信号 I Sの値 A に対して非線形の関数に基づいて作成されていても良い。
この場合、 例えば、 視覚特性に応じた視覚処理の実現や出力信号 OSを出力す るコンピュータ、 テレビ、 デジタルカメラ、 携帯電話、 P D八、 プリンタ、 スキ ャナなどの画像を取り扱う機器の非線形特性に適切な視覚処理を実現することが 可能となる。
また、 プロファイルデータの各要素の値 Cは、 入力信号 I Sの値 Aとアンシャ ープ信号 U Sの値 Bとのそれぞれに対して非線形の関数、 すなわち 2次元非線形 の関数に基づいて作成されていてもよい。
例えば、 入力信号 I Sの値 Aだけに基づいて視覚処理を行う場合に (例えば、 1次元の階調変換曲線による変換を行う場合など) 、 画像中の異なる場所で同じ 濃度の画素が存在すると、 同じ明るさの変換が行われる。 より具体的には、 画像 中の人物の背景の暗い場所を明るくすると、 同じ濃度の人物の髪の毛も明るくな る。
—方、 2次元非線形の関数に基づいて作成されたプロファイルデータを用いて 視覚処理を行う場合、 画像中の異なる場所に存在する同じ濃度の画素を、 一様に 変換するのでなく、 周囲情報を含めて明るくしたり、 暗くしたりすることができ 、 画像中の領域毎に最適な明るさの調整ができる。 より具体的には、 画像中の人 物の髪の毛の濃度を変えずに、 同じ濃度の背景を明るくすることが可能となる。 さらに、 線形の関数に基づく視覚処理では処理後の画素値が飽和してしまうよう な画素領域についても、 階調を維持した視覚処理を行うことなどが可能となる。 このようなプロファイルデータの一例を図 5に示す。 図 5に示すプロファイル データは、 視覚処理装置 1に、 視覚特性にあったコントラスト強調を実現させる ためのプロファイルデータである。 図 5において、 プロファイルデータは、 6 4 X 6 4のマトリクス形式で表現されており、 列方向 (縦方向) には 8ビットで表 現される入力信号 I Sの輝度値の上位 6ビットの値が、 行方向 (横方向) には 8 ビッ卜で表現されるアンシャープ信号 U Sの輝度値の上位 6ビッ卜の値が示され ている。 また、 2つの輝度値に対する行列の要素として出力信号 O Sの値が 8ビ ッ卜で示されている。
図 5に示すプロファイルデータの各要素の値 C (出力信号 O Sの値) は、 入力 信号 I Sの値 A (例えば、 8ビッ卜で表現される入力信号 I Sの下位 2ビットを 切り捨てた値) 、 アンシャープ信号 U Sの値 B (例えば、 8ビットで表現される アンシャープ信号 USの下位 2ビットを切り捨てた値) 、 変換関数 F 1、 変換関 数の逆変換関数 F2、 強調関数 F3を用いて、 C=F 2 (F 1 (A) +F 3 (F 1 (A) -F 1 (B) ) ) (以下、 式 M1 4という) と表される。 ここで、 変換 関数 F 1は、 常用対数関数である。 逆変換関数 F 2は、 常用対数関数の逆関数と しての指数関数 (アンチログ) である。 強調関数 F3iま、 図 1 09を用いて説明 した強調関数 R1 ~R 3のいずれかの関数である。
このプロファイルデータでは、 変換関数 F 1により対数空間に変換された入力 信号 I Sおよびアンシャープ信号 USを用いた視覚処理が実現される。 人間の視 覚特性は、 対数的であり、 対数空間に変換して処理を iうことで視覚特性に適し た視覚処理が実現される。 これにより、 視覚処理装置 1では、 対数空間における コントラス卜強調が実現される。
なお、 入力信号 I Sの値 Aとアンシャープ信号 U Sの値 Bとの値の組み合わせ によっては、 式 M1 4で求められる値 Cが負の値となることがある。 この場合、 入力信号 I Sの値 Aとアンシャープ信号 U Sの値 Bとに対応するプロファイルデ —タの要素は、 値 0としてもよい。 また、 入力信号 I Sの値 Aとアンシャープ信 号 U Sの値 Bとの値の組み合わせによっては、 式 Ml 4で求められる値 Cが飽和 してしまうことがある。 すなわち、 8ビットで表現できる最大値 255を超えて しまうことがある。 この場合、 入力信号 I Sの値 Aとアンシャープ信号 U Sの値 Bとに対応するプロファイルデータの要素は、 値 255としてもよい。 図 5では 、 このようにして求めたプロファイルデータの各要素を等高線表示している。 非線形のプロファイルデータについてのさらに詳しい説明は、 下記 〈プロファ ィルデータ〉 で行う。
(5)
2次元 LUT 4が備えるプロファイルデータは、 入力信号 I Sの階調補正を実 現する階調変換曲線 (ガンマ曲線) を複数含んでいるものであってもよい。 それぞれの階調変換曲線は、 例えば、 異なるガンマ係数を有するガンマ関数な ど、 単調増加関数であり、 アンシャープ信号 USの値に対して関連付けられてい る。 関連付けは、 例えば、 小さいアンシャープ信号 usの値に対して、 大きいガ ンマ係数を有するガンマ関数が選択されるよう行われている。 これにより、 アン シャープ信号 U Sは、 プロフアイルデータが含む階調変換曲線群 A、ら少なくとも 1つの階調変換曲線を選択するための選択信号としての役割を果ナこしている。 以上の構成により、 アンシヤープ信号 U Sの値 Bによリ選択された階調変換曲 線を用いて、 入力信号 I Sの値 Aの階調変換が行われる。
なお、 上記 (2) で説明したのと同様に 2次元 LUT4の出力を補間すること も可能である。
(6)
プロファイルデータ登録装置 8は、 視覚処理装置 1に内蔵あるいは接続され、 PC等によりあらかじめ作成された複数のプロファイルデータを格納しており、 2次元 LUT 4の登録内容を変更すると説明した。
ここで、 プロファイルデータ登録装置 8が格納するプロフアイ レデータは、 視 覚処理装置 1の外部に設置される PCにより作成されている。 プロファイルデー タ登録装置 8は、 ネットワークを介して、 あるいは記録媒体を介して、 PCから プロファイルデータを取得する。
プロファイルデータ登録装置 8は、 格納する複数のプロフアイ レデータを所定 の条件に従って 2次元 LUT4に登録する。 図 6〜図 8を用いて、 詳しく説明す る。 なお、 図 1を用いて説明した視覚処理装置 1とほぼ同様の機能を有する部分 については、 同じ符号を付し説明を省略する。
《1》
図 6に、 入力信号 I Sの画像を判定し、 判定結果に基づいて、 2次元 L UT4 に登録するプロファイルデータを切り替える視覚処理装置 520のブロック図を 示す。
視覚処理装置 520は、 図 1に示した視覚処理装置 1と同様の構造に加え、 プ 口フアイルデータ登録装置 8と同様の機能を備えるプロフアイルデータ登録部 5 21を備えている。 さらに、 視覚処理装置 520は、 画像判定部 522を備えて いる。
画像判定部 522は、 入力信号 I Sを入力とし、 入力信号 I Sの判定結果 S A を出力とする。 プロファイルデータ登録部 521は、 判定結果 S Aを入力とし、 判定結果 S Aに基づいて選択されたプロファイルデータ PDを出力とする。 画像判定部 5 2 2は、 入力信号 I Sの画像を判定する。 画像の判定では、 入力 信号 I Sの輝度、 明度などの画素値を取得することにより、 入力信号 I Sの明る さが判定される。
プロファイルデータ登録部 5 2 1は、 判定結果 S Aを取得し、 判定結果 S Aに 基づいて、 プロファイルデータ P Dを切り替えて出力する。 より具体的には、 例 えば、 入力信号 I Sが明るいと判定される場合には、 ダイナミックレンジを圧縮 するプロファイルなどが選択される。 これにより、 全体的 ί二明るい画像に対して もコントラストを維持することが可能となる。 また、 出力信号 O Sを表示する装 置の特性を考慮して、 適切なダイナミックレンジの出力信号 O Sが出力されるよ うなプロファイルが選択される。
以上により、 視覚処理装置 5 2 0では、 入力信号 I Sに応じて、 適切な視覚処 理を実現することが可能となる。
なお、 画像判定部 5 2 2は、 入力信号 I Sの輝度、 明度などの画素値だけでな く、 空間周波数などの画像特性を判定するものであってもよい。
この場合、 例えば、 空間周波数が低い入力信号 I Sに対して、 鮮鋭さを強調す る度合いがより高いプロファイルが選択されるなど、 より適切な視覚処理を実現 することが可能となる。
《2》
図 7に、 明るさに関する条件を入力するための入力装置 6、らの入力結果に基づ いて、 2次元 L U T 4に登録するプロファイルデータを切り替える視覚処理装置 5 2 5のブロック図を示す。
視覚処理装置 5 2 5は、 図 1に示した視覚処理装置 1と同様の構造に加え、 プ ロフアイルデータ登録装置 8と同様の機能を備えるプロファィルデータ登録部 5 2 6を備えている。 さらに、 視覚処理装置 5 2 5は、 入力装置 5 2 7を有線また は無線により接続して備えている。 より具体的には、 入力装置 5 2 7は、 出力信 号 O Sを出力するコンピュータ、 テレビ、 デジタルカメラ、 携帯電話、 P D A、 プリンタ、 スキャナなど、 画像を取り扱う機器自体に備えられる入力ポタンある いはそれぞれの機器のリモコンなどとして実現される。
入力装置 5 2 7は、 明るさに関する条件を入力するための入力装置であり、 例 えば、 「明るい J 「暗い」 などのスィッチを備えている。 入力装置 5 2 7は、 ュ 一ザの操作により、 入力結果 S Bを出力する。
プロファイルデータ登録部 5 2 6は、 入力結果 S Bを取得し、 入力結果 S Bに 基づいて、 プロファイルデータ P Dを切り替えて出力する。 より具体的には、 例 えば、 ユーザが 「明るい」 と入力した場合には、 入力信号 I Sのダイナミックレ ンジを圧縮するプロファイルなどを選択し、 プロファイルデータ P Dとして出力 する。 これにより、 出力信号 O Sを表示する装置が置かれている環境が 「明るい j 状態にある場合でも、 コントラストを維持することが可能となる。
以上により、 視覚処理装置 5 2 5では、 入力装置 5 2 7からの入力に応じて、 適切な視覚処理を実現することが可能となる。
なお、 明るさに関する条件とは、 コンピュータ、 テレビ、 デジタルカメラ、 携 帯電話、 P D Aなど出力信号を出力する媒体周辺の環境光の明るさに関する条件 だけでなく、 例えば、 プリンタ用紙など出力信号を出力する媒体自体の明るさに 関する条件であっても良い。 また、 例えば、 スキャナ用紙など入力信号を入力す る媒体自体の明るさなどに関する条件であっても良い。
また、 これらは、 スィッチなどによる入力だけでなく、 フォトセンサなどによ リ自動的に入力されるものであっても良い。
なお、 入力装置 5 2 7は、 明るさに関する条件を入力するだ Iナでなく、 プロフ アイルデータ登録部 5 2 6に対して、 直接プロファイルの切り替えを動作させる ための装置であってもよい。 この場合、 入力装置 5 2 7は、 明るさに関する条件 以外に、 プロファイルデータのリストを表示し、 ユーザに選択させるものであつ ても良い。
これにより、 ユーザは、 好みに応じた視覚処理を実行することが可能となる。 なお、 入力装置 5 2 7は、 ユーザを識別する装置であっても良い。 この場合、 入力装置 5 2 7は、 ユーザを識別するためのカメラ、 あるいは、 ユーザ名を入力 させるための装置であっても良い。
例えば、 入力装置 5 2 7により、 ユーザが子供であると入力された場合には、 過度の輝度変化を抑制するプロファイルデータなどが選択される。
これにより、 ユーザに応じた視覚処理を実現することが可能となる。 《3》
図 8に、 2種類の明るさを検出するための明度検出部からの検出結果に基づい て 2次元 L U T 4に登録するプロフアイルデータを切リ替える視覚処理装置 5 3 0のブロック図を示す。
視覚処理装置 5 3 0は、 図 1に示した視覚処理装置 1と同様の構造に加え、 プ ロフアイルデータ登録装置 8と同様の機能を備えるプロフアイルデータ登録部 5 3 1を備えている。 さらに、 視覚処理装置 5 3 0は、 明度検出部 5 3 2を備えて いる。
明度検出部 5 3 2は、 画像判定部 5 2 2と、 入力装置 5 2 7と 7b、ら構成される 。 画像判定部 5 2 2および入力装置 5 2 7は、 図 6, 図 7を用いて説明したのと 同様である。 これにより、 明度検出部 5 3 2は、 入力信号 I Sを入力とし、 画像 判定部 5 2 2からの判定結果 S Aと、 入力装置 5 2 7からの入力結果 S Bとを検 出結果として出力する。
プロファイルデータ登録部 5 3 1は、 判定結果 S Aと入力結果 S Bとを入力と し、 判定結果 S Aと入力結果 S Bとに基づいて、 プロファイルデータ P Dを切り 替えて出力する。 より具体的には、 例えば、 環境光が 「明るい」 状態にあって、 さらに入力信号 I Sも明るいと判定される場合、 入力信号 I Sのダイナミックレ ンジを圧縮するプロファイルなどを選択し、 プロファイルデータ P Dとして出力 する。 これにより、 出力信号 O Sを表示する際に、 コントラストを維持すること が可能となる。
以上により、 視覚処理装置 5 3 0では、 適切な視覚処理を実現することが可能 となる。
《4》
図 6〜図 8の視覚処理装置において、 それぞれのプロフアイルデータ登録部は 、 視覚処理装置と一体として備えられていなくてもよい。 具体的 (こは、 プロファ ィルデータ登録部は、 プロファイルデータを複数備えるサーバとして、 あるいは それぞれのプロファイルデータを備える複数のサーバとして、 ネッ卜ワークを介 して視覚処理装置と接続されているものでも良い。 ここで、 ネッ卜ワークとは、 例えば、 専用回線、 公衆回線、 インターネット、 L A Nなどの通信が可能な接続 手段であり、 有線であっても無線であってもよい。 またこの場合、 判定結果 S A や入力結果 S Bも、 同様のネッ卜ワークを介して視覚処理装置側からプロフアイ ルデ一タ登録部側に伝えられる。
( 7 )
上記実施形態では、 プロファイルデータ登録装置 8が複数のプロファイルデ一 タを備え、 2次元 L U T 4への登録を切り替えることにより、 異なる視覚処理を 実現すると説明した。
ここで、 視覚処理装置 1は、 異なる視覚処理を実現するプロファイルデータが 登録される複数の 2次元 L U Tを備えるものであってもよい。 この場合、 視覚処 理装置 1では、 それぞれの 2次元 L U Tへの入力を切り替えることにより、 ある いはそれぞれの 2次元 L U Tからの出力を切り替えることにより、 異なる視覚処 理を実現するものであっても良い。
この場合、 2次元 L U Tのために確保すべき記憶容量は増大するが、 視覚処理 の切り替えに必要な時間が短縮可能となる。
また、 プロファイルデータ登録装置 8は、 複数のプロファイルデータに基づい て新たなプロファイルデータを生成し、 生成されたプロファイルデータを 2次元 L U T 4に登録する装置であっても良い。
これに関し、 図 9〜図 1 0を用いて説明を加える。
図 9は、 プロファイルデータ登録装置 8の変形例としてのプロファイルデータ 登録装置 7 0 1について主に説明するブロック図である。 プロファイルデータ登 録装置 7 0 1は、 視覚処理装置 1の 2次元 L U T 4に登録されるプロファイルデ ータを切リ替えるための装置である。
プロファイルデータ登録装置 7 0 1は、 複数のプロファイルデータが登録され るプロファイルデータ登録部 7 0 2と、 複数のプロファイルデータに基づいて新 たなプロファイルデータを生成するプロファイル作成実亍部 7 0 3と、 新たなプ 口ファイルデータを生成するためのパラメータを入力するためのパラメータ入力 部 7 0 6と、 各部の制御を行う制御部 7 0 5とから構成されている。
プロファイルデータ登録部 7 0 2には、 プロフアイルデ一タ登録装置 8あるい は図 6〜図 8に示すそれぞれのプロフアイルデータ登録部と同様に複数のプロフ アイルデータが登録されており、 制御部 7 0 5からの制御信号 C "I 0により選択 された選択プロファイルデータの読み出しを行う。 ここで、 プロフアイノレデータ 登録部 7 0 2からは 2つの選択プロファイルデータが読み出されるとし、 それぞ れを第 1の選択プロファイルデータ d 1 0および第 2の選択プロフアイノレデータ d 1 1とする。
プロファイルデータ登録部 7 0 2から読み出されるプロファイルデータは、 パ ラメータ入力部 7 0 6の入力により決定される。 例えば、 パラメータ入力部 7 0 6では、 所望される視覚処理効果、 その処理度合い、 処理された画像の視環境に 関する情報などがパラメータとして、 手動により、 あるいはセンサなど力、ら自動 により、 入力される。 制御部 7 0 5は、 パラメータ入力部 7 0 6により入力され たパラメータから読み出すべきプロファイルデータを制御信号 c 1 0により指定 するとともに、 それぞれのプロファイルデータの合成度の値を制御信号 c 1 2に より指定する。
プロファイル作成実行部 7 0 3は、 第 1の選択プロファイルデータ d 1 0およ ぴ第 2の選択プロファイルデータ d 1 1から新たなプロファイルデータである生 成プロファイルデータ d 6を作成するプロファイル生成部 7 0 4を備えている。 プロファイル生成部 7 0 4は、 プロファイルデータ登録部 7 0 2から第 1の選 択プロファイルデータ d 1 0および第 2の選択プロファイルデータ d 1 1 を取得 する。 さらに、 制御部 7 0 5からそれぞれの選択プロファイルデータの合成度を 指定する制御信号 c 1 2を取得する。
さらに、 プロファイル生成部 7 0 4は、 第 1の選択プロファイルデータ d 1 0 の値 [m] および第 2の選択プロファイルデータ d 1 1の値 [ n ] に対して、 制 御信号 c 1 2が指定する合成度の値 [ k ] を用いて、 値 [ I ] の生成プロフアイ ルデータ d 6を作成する。 ここで、 値 [门 は、 [门 = ( 1— k ) * [m] + k * [ n ] により計算される。 なお、 値 [ k ] が 0≤k≤ 1 を満たす場合には、 第 1の選択プロファイルデータ d 1 0と第 2の選択プロファイルデータ d 1 "1 と は内分され、 値 [ k ] が k < 0または k > 1を満たす場合には、 第 1の選択プロ ファイルデータ d 1 0と第 2の選択プロファイルデータ d 1 1 とは外分されるこ ととなる。 2次元 L U T 4は、 プロファイル生成部 7 0 4が生成する生成プロファイルデ ータ d 6を取得し、 取得した値を制御部 7 0 5のカウント信号 c 1 1が指定する アドレスに格納する。 ここで、 生成プロファイルデータ d 6は、 生成プロフアイ ルデータ d 6を作成するのに用いられたそれぞれの選択プロファイルデータが関 連づけられているのと同じ画像信号値に関連づけられる。
以上により、 例えば、 異なる視覚処理を実現するプロファイルデータに基づい て、 さらに異なる視覚処理を実現する新たなプロファイルデータを作成すること が可能となる。
図 1 0を用いて、 プロファイルデータ登録装置 7 0 1を備える視覚処理装置に おいて実行される視覚処理プロファイル作成方法について説明する。
制御部 7 0 5からのカウント信号 c 1 0により、 プロファイルデータ登録部 7 0 2のアドレスが一定のカウント周期で指定され、 指定されたァ ドレスに格納さ れている画像信号値が読み出される (ステップ S 7 0 1 ) 。 詳しくは、 パラメ一 タ入力部 7 0 6により入力されたパラメータに応じて、 制御部 7 O 5はカウント 信号 c 1 0を出力する。 カウント信号 c 1 0は、 プロファイルデータ登録部 7 0 2において異なる視覚処理を実現する 2つのプロファイルデータのァドレスを指 定する。 これにより、 プロファイルデータ登録部 7 0 2から第 1の選択プロファ ィルデータ d 1 0と第 2の選択プロファイルデータ d 1 1とが読み出される。 プロファイル生成部 7 0 4は、 制御部 7 0 5から合成度を指定する制御信号 c 1 2を取得する (ステップ S 7 0 2 ) 。
プロファイル生成部 7 0 4は、 第 1の選択プロファイルデータ d 1 0の値 [m ] および第 2の選択プロファイルデータ d 1 1の値 [ n ] に対して、 制御信号 c 1 2が指定する合成度の値 [ k ] を用いて、 値 [ I ] の生成プロファイルデータ d 6を作成する (ステップ S 7 0 3 ) 。 ここで、 値 [ I ] は、 [ I ] = ( 1— k ) * [m] + k * [ n ] により計算される。
2次元 L U T 4に対して生成プロファイルデータ d 6が書き込まれる (ステツ プ S 7 0 4 ) 。 ここで、 書き込み先のアドレスは、 2次元 L U T 4に対して与え られる制御部 7 0 5からのカウント信号 G 1 1によリ指定される。
制御部 7 0 5は、 選択されたプロファイルデータの全てのデータについての処 理が終了したか否かを判断し (ステップ 7 0 5 ) 、 終了するまでステ プ S 7 0 1からステップ S 7 0 5の処理を繰り返す。
また、 このようにして 2次元 L U T 4に格納された新たなプロフアイルデータ は、 視覚処理を実行するのに用いられる。
《 (7 ) の効果》
プロファイルデータ登録装置 7 0 1を備える視覚処理装置において^、 異なる 視覚処理を実現するプロファィルデータに基づいて、 さらに異なる視: 1:処理を実 現する新たなプロファイルデータを作成し、 視覚処理を行うことが可 となる。 すなわち、 プロファイルデータ登録部 7 0 2において、 少数のプロファイルデ一 タを備えるだけで、 任意の処理度合いの視覚処理を実現することが可肯 §となり、 プロフアイルデータ登録部 7 0 2の記憶容量を削減することが可能と る。 なお、 プロファイルデータ登録装置 7 0 1は、 図 1に示す視覚処理 置 1だけ でなく、 図 6〜図 8の視覚処理装置において備えられていてもよい。 この場合、 プロファイルデータ登録部 7 0 2とプロファイル作成実行部 7 0 3と力 図 6〜図 8に示すそれぞれのプロファイルデータ登録部 5 2 1, 5 2 6 , 5 3 1 の代わり に用いられ、 パラメータ入力部 7 0 6と制御部 7 0 5とが図 6の画像半 IJ定部 5 2 2, 図 7の入力装置 5 2 7、 図 8の明度検出部 5 3 2の代わりに用いられてもよ い。
( 8 )
視覚処理装置は、 入力信号 I Sの明るさを変換する装置であっても い。 図 1 1を用いて、 明るさを変換する視覚処理装置 9 0 1について説明する。
《構成》
視覚処理装置 9 0 1は、 入力信号 I S ' の明るさを変換する装置で ¾つて、 入 力信号 I S ' に対して所定の処理を行い処理信号 U S ' を出力する処理部 9 0 2 と、 入力信号 I S ' および処理信号 U S ' を用いて入力信号 I S ' の 換を行う 変換部 9 0 3とから構成される。
処理部 9 0 2は、 空間処理部 2 (図 1参照) と同様に動作し、 入力信号 I S ' の空間処理を行う。 なお、 上記 〈変形例〉 (3 ) で記載したような空『fl処理を行 うものであってもよい。 変換部 903は、 視覚処理部 3と同様に 2次元 L U Tを備え入力信号 I S ' ( 値 [ X ] ) と処理信号 US' (値 [z] ) とに基づいて出力信号 OS' (値 [ y ] ) を出力する。
ここで、 変換部 903が備える 2次元 L UTの各要素の値は、 明るさの変更度 合いに関する関数 f k (z) の値に応じて定められたゲインあるいはオフセッ卜 に対して、 入力信号 I S' の値 [X ] を作用させることにより定められている。 以下、 明るさの変更度合いに関する関数 f k (Z) を 「変更度関数」 と呼ぶ。
2次元 L UTの各要素の値 (=出力信号 OS' の値 [y] ) は、 入力信号 I S ' の値 [ X ] と処理信号 U S' の値 [ 2 ] との関数に基づいて定められている。 以下、 この関数を 「変換関数」 と呼び、 一例としての変換関数 (a) 〜 (d) を 示す。 また、 図 1 2 (a) ~ (d) に、 変更度関数 f k (z) を変化させた場合 の入力信号 I S' と出力信号 OS' との関係を示す。
《変換関数 (a) について》
変換関数 (a) は、 [y] = f 1 (z) * [x] と表される。
ここで、 変更度関数 f 1 (z) は、 入力信号 I S' のゲインとして作用してい る。 このため、 変更度関数 f 1 (z) の値により、 入力信号 I S' のゲ ンが変 化し、 出力信号 OS' の値 [y] が変化する。
図 1 2 (a) は、 変更度関数 f Λ Cz) の値が変化した場合の入力信号 I S' と出力信号 OS' との関係の変化を示す。
変更度関数 f l (z) が大きくなる (f l (z) >1 ) につれて、 出力信号の 値 [y] は大きくなる。 すなわち、 変換後の画像は、 明るくなる。 一方、 変更度 関数 f 1 (z) が小さくなる (f 1 (z) < 1 ) につれて、 出力信号の嬉 [y] は小さくなる。 すなわち、 変換後の画像は、 暗くなる。
ここで、 変更度関数 f 1 (z) は、 値 [z] の定義域における最小値 35 値 [0 ] 未満とならない関数である。
また、 変換関数 (a) の演算により、 出力信号の値 [y] が取りうる ί直の範囲 を超える場合には、 取りうる値の範囲にクリップされてもよい。 例えば、 値 [1 ] を超える場合には、 出力信号の値 [y] は、 値 [1 ] にクリップされてもよい し、 値 [0] に満たない場合には、 出力信号の値 [y] は、 値 [0] にクリップ されてもよい。 これは、 以下の変換関数 (b) 〜 (d) についても同様である。 《変換関数 (b) について》
変換関数 (b) は、 [y] = [x] + f 2 (z) と表される。
ここで、 変更度関数 f 2 (z) は、 入力信号 I S' のオフセットとして作用し ている。 このため、 変更度関数 f 2 (z) の値により、 入力信号 I S' のオフセ ッ卜が変化し、 出力信号 OS' の値 [y] が変化する。
図 1 2 (b) は、 変更度関数 f 2 (z) の値が変化した場合の入力信号 I S' と出力信号 OS' との関係の変化を示す。
変更度関数 f 2 (z) が大きくなる (f 2 (z) >0) につれて、 出力信号の 値 [y] は大きくなる。 すなわち、 変換後の画像は、 明るくなる。 一方、 変更度 関数 f 2 (z) が小さくなる (f 2 (z) <0) につれて、 出力信号の値 [y] は小さくなる。 すなわち、 変換後の画像は、 暗くなる。
《変換関数 (c) について》
変換関数 (c) は、 [y] = f 1 (Z) * [x] + f 2 (z) と表される。 ここで、 変更度関数 f 1 (z) は、 入力信号 I S' のゲインとして作用してい る。 さらに、 変更度関数 f 2 (z) は、 入力信号 I S' のオフセットとして作用 している。 このため、 変更度関数 f 1 (z) の値により、 入力信号 I S' のゲイ ンが変化するとともに、 変更度関数 f 2 (z) の値により、 入力信号 I S' のォ フセッ卜が変化し、 出力信号 OS' の値 [y] が変化する。
図 1 2 (c) は、 変更度関数 f 1 (z) および変更度関数 f 2 (z) の値が変 化した場合の入力信号 I S' と出力信号 OS' との関係の変化を示す。
変更度関数 f 1 (z) および変更度関数 f 2 (z) が大きくなるにつれて、 出 力信号の値 [y] は大きくなる。 すなわち、 変換後の画像は、 明るくなる。 一方 、 変更度関数 f 1 (z) および変更度関数 f 2 (z) が小さくなるにつれて、 出 力信号の値 [y] は小さくなる。 すなわち、 変換後の画像は、 喑くなる。
《変換関数 (d) について》
変換関数 (d) は、 [y] = [χ] Λ (1 - f 2 (z) ) と表される。
ここで、 変更度関数 f 2 (z) は、 「べき関数 J の 「べき」 を決定する。 この ため、 変更度関数 f 2 (z) の値により、 入力信号 I S' が変ィ匕し、 出力信号 O S' の値 [y] が変化する。
図 1 2 (d) は、 変更度関数 f 2 (z) の値が変化した場合の入力信号 I S' と出力信号 OS' との関係の変化を示す。
変更度関数 f 2 (z) が大きくなる (f 2 (z) >0) につれて、 出力信号の 値 [y] は大きくなる。 すなわち、 変換後の画像は、 明るくなる。 一方、 変更度 関数 f 2 (z) が小さくなる (f 2 (z) <0) につれて、 出力信号の値 [y] は小さくなる。 すなわち、 変換後の画像は、 暗くなる。 また、 変更度関数 f 2 C z) が値 [0] の場合は、 入力信号 I S' に対する変換は行われないこととなる なお、 値 [X] は、 入力信号 I S' の値を [0] ~ [1 ] の範囲に正規化しナニ 値である。
《効果》
(1 )
視覚処理装置 901では、 以上に示した変換関数 (a) ~ (d) のいずれかを 用いて定められた要素を有する 2次元 LUTにより、 入力信号 I S' の視覚処理 が行われる。 2次元 LUTの各要素は、 値 [X] と値 [z] とに対する値 [y] を格納している。 このため、 入力信号 I S' と処理信号 US' とに基づいて、 入 力信号 I S' の明るさを変換する視角処理が実現される。
(2)
ここで、 変更度関数 f 1 (z) と変更度関数 f 2 (z) とがともに単調減少す る関数である場合、 さらに、 逆光補正や白飛びの防止などの効果が得られる。 こ れに関して説明を加える。
図"! 3 (a) 〜 (b) に、 単調減少する変更度関数 f 1 (z) および f 2 ) の例を示す。 それぞれ 3つのグラフ (a 1 ~a 3、 b 1 ~ b 3) を示している が、 いずれも単調減少する関数の例である。
変更度関数 f 1 (z) は、 値 [1 ] をまたぐ値域を有する関数であり、 値 ] の定義域に対する最小値が値 [0] 未満とならない関数である。 変更度関数 f 2 (z) は、 値 [0] をまたぐ値域を有する関数である。
例えば、 画像中の暗くて面積の大きい部分では、 処理信号 US' の値 [Z] カ 小さい。 小さい値の [z] に対する変更度関数の値は、 大きくなる。 すなわち、 変換関数 (a) - (d) に基づいて作成された 2次元 LUTを用いると、 画像中 の暗くて面積の大きい部分は、 明るく変換される。 よって、 例えば、 逆光で撮影 された画像では、 暗くて面積の大きい部分に対して暗部の改善が行われ、 視覚的 効果が向上する。
また、 例えば、 画像中の明るくて面積の大きい部分では、 処理信号 LI S' の値 [z] が大きい。 大きい値の [z] に対する変更度関数の値は、 小さくなる。 す なわち、 変換関数 (a) ~ (d) に基づいて作成された 2次元 L UTを用いると 、 画像中の明るくて面積の大きい部分は、 暗く変換される。 よって、 例えば、 空 などの明 ¾い部分を有する画像では、 明るくて面積の大きい部分に対して白飛び の改善が行われ、 視覚的効果が向上する。
《変形例》
(1 )
上記した変換関数は、 一例であり、 同様の性質を有する変換であれ ίま、 任意の 関数であってよい。
(2)
2次元 L U Τの各要素の値は、 厳密に上記した変換関数により定められていな くてもよい。
例えば、 上記した変換関数の値が、 出力信号 OS' として扱うことのできる値 の範囲を超える場合には、 2次元 LUTは、 出力信号 OS' として扱うことので きる値の範囲にクリップされた値を格納してもよい。
(3)
上記と同様の処理は、 2次元 LUTを用いずに行われてもよい。 例えば、 変換 部 903は、 入力信号 I S' と処理信号 US' とに対して、 変換関数 (a) 〜 ( d) を演算することにより出力信号 OS' を出力してもよい。
(9)
視覚処理装置は、 複数の空間処理部を備え、 空間処理の程度の異なる複数のァ ンシヤープ信号を用いて視覚処理を行うものであってもよい。
《構成》 図 1 4に、 視覚処理装置 905の構成を示す。 視覚処理装置 905は、 人力信 号 I S" の視覚処理を行う装置であって、 入力信号 I S" に対して第 1の 定の 処理を行い第 1処理信号 U 1を出力する第 1処理部 906 aと、 入力信号 I S" に対して第 2の所定の処理を行い第 2処理信号 U 2を出力する第 2処理部 9 06 bと、 入力信号 I S" と第 1処理信号 U 1と第 2処理信号 U 2とを用いて入力信 号 I S" の変換を行う変換部 908とから構成される。
第 1処理部 906 aおよび第 2処理部 906 bは、 空間処理部 2 (図 1参照) と同様に動作し、 入力信号 I S" の空間処理を行う。 なお、 上記 〈変形例〉 (3 ) で記載したような空間処理を行うものであってもよい。
ここで、 第 1処理部 906 aと第 2処理部 906 bとは、 空間処理にお ΙΛて用 いる周辺画素の領域の大きさが異なっている。
具体的には、 第 1処理部 906 aでは、 着目画素を中心として縦 30画素、 横 30画素の領域に含まれる周辺画素を用いる (小さいアンシャープ信号) ( に対 して、 第 2処理部 906 bでは、 着目画素を中心として縦 90画素、 横 90画素 の領域に含まれる周辺画素を用いる (大きいアンシャープ信号) 。 なお、 ここで 記載した周辺画素の領域は、 あくまで一例であり、 これに限定されるわけではな し、。 視覚処理効果を十分に発揮するためには、 かなり広い領域からアンシャープ 信号を生成することが好ましい。
変換部 908は、 LUTを備え、 入力信号 I S" (値 [ X ] ) と第 1処理信号 ,U 1 (値 [z l ] ) と第 2処理信号 U 2 (値 [z 2] ) とに基づいて出カ言号 O S" (値 [y] ) を出力する。
ここで、 変換部 903が備える LUTは、 入力信号 I S" の値 [ X ] と第 1処 理信号 U 1の値 [z l ] と第 2処理信号 U 2の値 [z 2] とに対する出力 4言号 O S" の値 [y] を格納する 3次元 L U Tである。 この 3次元 L U Tの各要素の値 (=出力信号 OS" の値 [y] ) は、 入力信号 I S' の値 [ X] と第"!処理信号 リ 1の値 [∑ 1 ] と第 2処理信号 U 2の値 [z 2] との関数に基づいて定ぬられ ている。
この 3次元 L U Tは、 上記実施形態および下記実施形態で記載する処理を実現 可能であるが、 ここでは、 3次元 LUTが《入力信号 I S" の明るさを変換する 場合》 と、 《入力信号 I S" を強調変換する場合》 とについて説明を加える。 《入力信号 I S" の明るさを変換する場合》
変換部 908は、 第 1処理信号 U 1の値 [z 1 ] が小さければ、 入力信号 I S " を明るくするように変換を行う。 ただし、 第 2処理信号 U2の値 [z 2] も小 さければ、 明るくする度合いを抑制する。
このような変換の一例として、 変換部 903が備える 3次元 L U Tの各要素の 値は、 次の変換関数 (e) または (f ) に基づいて定められている。
(変換関数 (e) について)
変換関数 (e) は、 [y] = [f 1 1 (Z 1 ) /f 1 2 (Z 2) ] * [x] と 表される。
ここで、 変更度関数 f 1 1 (z 1 ) , f 1 2 (z 2) は、 上記 〈変形例〉 (8 ) で記載した変更度関数 f 1 (z) と同様の関数である。 また、 変更度関数 f 1 1 (z 1 ) と変更度関数 f 1 2 (z 2) とは、 異なる関数となっている。
これにより、 [f 1 1 (z 1 ) f 1 2 (Z 2) ] は、 入力信号 I S" のゲイ ンとして作用し、 第 1処理信号 U 1の値と第 2処理信号 U 2の値とにより、 入力 信号 I S" のゲインが変化し、 出力信号 OS" の値 [y] が変化する。
(変換関数 (f ) について)
変換関数 (f ) は、 [y] = [X] + f 21 (z 1 ) _ f 22 (Z 2) と表さ れる。
ここで、 変更度関数 f 21 (z 1 ) , f 22 (z 2) は、 上記 〈変形例〉 (8 ) で記載した変更度関数 f 2 (z) と同様の関数である。 また、 変更度関数 f 2 1 (z 1 ) と変更度関数 f 22 (z 2) とは、 異なる関数となっている。
これにより、 [f 21 (z 1 ) — f 22 (z 2) ] は、 入力信号 I S" のすフ セッ卜として作用し、 第 1処理信号 U 1の値と第 2処理信号 U 2の値とによレリ、 入力信号 I S" のオフセッ卜が変化し、 出力信号 OS" の値 [y] が変化する。
(効果)
このような変換関数 (e) 〜 (f ) を用いた変換により、 例えば、 逆光部 の 小さい領域の暗部を明るくしつつ、 夜景の画像の大きい領域の暗部を明るくしす ぎないなどといつた効果を実現することが可能となる。 (変形例)
なお、 変換部 9 0 8における処理は、 3次元 L U Tを用いた処理に限定されず 、 変換関数 (e ) や (f ) などと同様の演算を行うものであってもよい。
また、 3次元 L U Tの各要素は厳密に変換関数 (e ) や (f ) に基づし、て定め られていなくてもよい。
《入力信号 I S " を強調変換する場合》
変換部 9 0 8における変換が、 入力信号 I S " を強調する変換である場合、 複 数の周波数成分を独立して強調することが可能となる。
例えば、 第 1処理信号 U 1をより強調する変換であれば、 周波数の比較的高い 濃淡部分の強調を行うことが可能となるし、 第 2処理信号 U 2をより強調する変 換であれば、 周波数の低い濃淡部分の強調を行うことが可能となる。
〈プロファイルデータ〉
視覚処理装置 1は、 上記で説明した以外にも、 様々な視覚処理を実現するプロ ファイルデータを備えることが可能である。 以下、 様々な視覚処理を実現する第 1〜第 7プロファールデータについて、 プロファイルデータを特徴づける式と、 そのプロファイルデータを備える視覚処理装置 1と等価な視覚処理を実現する視 覚処理装置の構成とを示す。
それぞれのプロファイルデータは、 入力信号 I Sとアンシャープ信号 u sとか ら算出された値を強調する演算を含む数式に基づいて定められている。 ここで、 強調する演算とは、 例えば、 非線形の強調関数による演算である。
これにより、 それぞれのプロファイルデータでは、 入力信号 I Sの視覚特性に あった強調、 あるいは出力信号 O Sを出力する機器の非線形特性にあった強調を 実現することなどが可能となる。
( 1 )
《第 1プロファイルデータ》
第 1プロファイルデータは、 入力信号 I Sとアンシャープ信号 U Sとに対して 所定の変換を行ったそれぞれの変換値の差を強調する関数を含む演算に基づいて 定められている。 これにより、 入力信号 I Sとアンシャープ信号 U Sとを別空間 に変換した上でそれぞれの差を強調することが可能となる。 これにより、 例えば、 視覚特性にあつた強調などを実現することが可能となる。
以下、 具体的に説明する。
第 1プロファイルデータの各要素の値 C (出力信号 OSの値) は、 入力信号 I Sの値 A、 アンシャープ信号 USの値 B、 変換関数 F 1、 変換関数の逆変換関数 F 2、 強調関数 F3を用いて、 C=F 2 (F 1 (A) +F3 (F 1 (A) -F 1 (B) ) ) (以下、 式 Mlという) と表される。
ここで、 変換関数 F 1は、 常用対数関数である。 逆変換関数 F 2は、 常用対数 関数の逆関数としての指数関数 (アンチログ) である。 強調関数 F3は、 図 1 0 9を用いて説明した強調関数 R 1〜R 3のいずれかの関数である。
《等価な視覚処理装置 1 1》
図 1 5に、 第 1プロファイルデータを 2次元 LUT 4に登録した視覚処理装置 1と等価な視覚処理装置 1 1を示す。
視覚処理装置 1 1は、 入力信号 I Sとアンシャープ信号 usとに対して所定の 変換を行ったそれぞれの変換値の差を強調する演算に基づいて出力信号 o Sを出 力する装置である。 これにより、 入力信号 I Sとアンシャープ信号 USとを別空 間に変換した上でそれぞれの差を強調することが可能となり、 例えば、 視覚特性 にあった強調などを実現することが可能となる。
図 1 5に示す視覚処理装置 1 1は、 入力信号 I Sとして取得した原画像の画素 ごとの輝度値に空間処理を実行しアンシャープ信号 U Sを出力する空間処理部 1 2と、 入力信号 I Sとアンシャープ信号 U Sとを用いて、 原画像の視覚処理を行 し、、 出力信号 OSを出力する視覚処理部 1 3とを備えている。
空間処理部 1 2は、 視覚処理装置 1が備える空間処理部 2と同様の動作を行う ため、 説明を省略する。
視覚処理部 1 3は、 入力信号 I Sとアンシャープ信号 USとの信号空間の変換 を行い、 変換入力信号 T I Sと変換アンシャープ信号 T USとを出力する信号空 間変換部 1 4と、 変換入力信号 T I Sを第 1の入力、 変換アンシャープ信号 TU Sを第 2の入力とし、 それぞれの差分である差分信号 DSを出力する減算部 1.7 と、 差分信号 DSを入力とし強調処理された強調処理信号 TSを出力する強調処 理部 1 8と、 変換入力信号 T I Sを第 1の入力、 強調処理信号 TSを第 2の入力 とし、 それぞれを加算した加算信号 PSを出力する加算部 1 9と、 加算信号 PS を入力とし出力信号 OSを出力する逆変換部 20とを備えている。
信号空間変換部 1 4は、 入力信号 I Sを入力とし変換入力信号 T I Sを出力と する第 1変換部 1 5と、 アンシャープ信号 USを入力とし変換アンシャープ信号 T U Sを出力とする第 2変換部 1 6とをさらに有している。
《等価な視覚処理装置 1 1の作用》
視覚処理部 1 3の動作についてさらに説明を加える。
第 1変換部 1 5は、 変換関数 F 1を用いて、 値 Aの入力信号を値 F 1 (A) の 変換入力信号 T I Sに変換する。 第 2変換部 1 6は、 変換関数 F 1を用いて、 値 Bのアンシャープ信号 USを値 F 1 (B) の変換アンシャープ信号 T USに変換 する。 減算部 1 7は、 値 F 1 (A) の変換入力信号 T I Sと、 値 F 1 (B) の変 換アンシャープ信号 T USとの差分を計算し、 値 F 1 (A) -F 1 (B) の差分 信号 DSを出力する。 強調処理部 1 8は、 強調関数 F3を用いて、 値 F 1 (A) -F 1 (B) の差分信号 DSから値 F3 (F 1 (A) -F 1 (B) ) の強調処理 信号 TSを出力する。 加算部 1 9は、 値 F 1 (A) の変換入力信号 T I Sと、 値 F3 (F 1 (A) -F 1 (B) ) の強調処理信号 T Sとを加算し、 値 F 1 (A) + F3 (F 1 (A) -F 1 (B) ) の加算信号 PSを出力する。 逆変換部 2 Oは 、 逆変換関数 F 2を用いて、 値 F 1 (A) +F3 (F 1 (A) -F 1 (B) 〕 の 加算信号 PSを逆変換し、 値 F 2 (F 1 (A) +F3 (F 1 (A) -F 1 ( B) ) ) の出力信号 OSを出力する。
なお、 変換関数 F 1、 逆変換関数 F 2、 強調関数 F 3を用いた計算は、 それぞ れの関数に対する 1次元の L U Tを用いて行われても良いし、 L U Tを用いない で行われても良い。
《効果》
第 1プロファイルデータを備える視覚処理装置 1と視覚処理装置 1 1とは、 同 様の視覚処理効果を奏する。
( i )
変換関数 F 1により対数空間に変換された変換入力信号 T I Sおよび変換アン シャープ信号 T USを用いた視覚処理が実現される。 人間の視覚特性は、 対数的 であり、 対数空間に変換して処理を行うことで視覚特性に適した視覚処理が実現 される。
( i > )
それぞれの視覚処理装置では、 対数空間におけるコントラスト強調が実現され る。
図 1 0 8に示す従来の視覚処理装置 4 0 0は、 一般的にボケ具合が小さいアン シャープ信号 U Sを用いて輪郭 (エッジ) 強調を行うために用いられる。 しかし、 視覚処理装置 4 0 0は、 ボケ具合の大きいアンシャープ信号 U Sを用いてコント ラスト強調する場合には、 原画像の明部には強調不足、 暗部には強調過多になり、 視覚特性に適さない視覚処理となる。 すなわち、 明るくする方向への補正は強調 不足、 暗くする方向への補正は弓蛍調過多となる傾向にある。
一方、 視覚処理装置 1または視覚処理装置 1 1を用いて視覚処理を行った場合 には、 暗部から明部まで視覚特 に適した視覚処理を行うことが可能であり、 明 るくする方向の強調と暗くする方向の強調とをバランス良く行うことが可能であ る。
( i i i )
従来の視覚処理装置 4 0 0で ίま、 視覚処理後の出力信号 O Sが負になリ破綻す る場合がある。
—方、 式 Μ 1で求められるプロファイルデータのある要素の値 Cが 0≤C≤2 5 5の範囲を超える場合には、 その要素の値を 0又は 2 5 5としておくことによ リ、 補正後の画素信号が負になり破綻することや、 飽和して破綻することが防止 可能となる。 このことは、 プロファイルデータの要素を表現するためのビット長 にかかわらず実現される。
《変形例》
( i )
変換関数 F 1は、 対数関数に限られない。 例えば、 変換関数 F 1を、 入力信号 I Sにかけられているガンマ補 IE (例えば、 ガンマ係数 [ 0 . 4 5 ] ) を外す変 換とし、 逆変換関数 F 2を入力信号 I Sに掛けられていたガンマ補正をかける変 換としてもよい。 これにより、 入力信号 I Sにかけられてるガンマ補正を外し、 線形特性のもと で処理を行うことが可能となる。 このため、 光学的なボケの補正を行うことが可 能となる。
( i i )
視覚処理装置 1 1では、 視覚処理部 1 3は、 入力信号 I Sとアンシャープ信号 USとに基づいて、 2次元 LUT 4を用いずに上記式 Mlを演算するもので有つ ても良い。 この場合、 それぞれの関数 F 1 ~F 3の計算においては、 1次元の L UTを用いても良い。
(2)
《第 2プロファイルデータ》
第 2プロファイルデータは、 入力信号 I Sとアンシャープ信号 USとの比を強 調する関数を含む演算に基づいて定められている。 これにより、 例えば、 シヤー プ成分を強調する視覚処理などを実現することが可能となる。
さらに、 第 2プロファイルデータは、 強調された入力信号 I Sとアンシャープ 信号 USとの比に対してダイナミックレンジ圧縮を行う演算に基づいて定められ ている。 これにより、 例えば、 シャープ成分を強調しつつ、 ダイナミックレンジ の圧縮を行う視覚処理などを実現することが可能となる。
以下、 具体的に説明する。
第 2プロファイルデータの各要素の値 C (出力信号 OSの値) は、 入力信号 I Sの値 A、 アンシャープ信号 USの値 B、 ダイナミックレンジ圧縮関数 F 4、 強 調関数 F5を用いて、 C=F4 (A) * F 5 (A/B) (以下、 式 M2という) と表される。
ここで、 ダイナミックレンジ圧縮関数 F4は、 例えば、 上に凸のべき関数など の単調増加関数である。 例えば、 F4 ( X ) = χ Λ (0<r<1 ) と表される。 強調関数 F 5は、 べき関数である。 例えば、 F 5 ( X ) = χ Λび (0< 0?≤1 ) と表される。
《等価な視覚処理装置 21》
図 1 6に、 第 2プロファイルデータを 2次元 LUT4に登録した視覚処理装置 1 と等価な視覚処理装置 21を示す。 視覚処理装置 21は、 入力信号 I Sとアンシャープ信号 USとの比を強調する 演算に基づいて出力信号 OSを出力する装置である。 これにより、 例えば、 シャ ープ成分を強調する視覚処理などを実現することが可能となる。
さらに、 視覚処理装置 21は、 強調された入力信号 I Sとアンシャープ信号 U Sとの比に対してダイナミックレンジ圧縮を行う演算に基づいて出力信号 OSを 出力する。 これにより、 例えば、 シャープ成分を強調しつつ、 ダイナミックレン ジの圧縮を行う視覚処理などを実現することが可能となる。
図 1 6に示す視覚処理装置 21は、 入力信号 I Sとして取得した原画像の画素 ごとの輝度値に空間処理を実行しアンシヤープ信号 U Sを出力する空間処理部 2 2と、 入力信号 I Sとアンシャープ信号 USとを用いて、 原画像の視覚処理を行 い、 出力信号 OSを出力する視覚処理部 23とを備えている。
空間処理部 22は、 視覚処理装置 1が備える空間処理部 2と同様の動作を行う ため、 説明を省略する。
視覚処理部 23は、 入力信号 I Sを第 1の入力、 アンシャープ信号 USを第 2 の入力とし、 入力信号 I Sをアンシャープ信号 USで除算した除算信号 RSを出 力する除算部 25と、 除算信号 RSを入力とし、 強調処理信号 TSを出力とする 強調処理部 26と、 入力信号 I Sを第 1の入力、 強調処理信号 TSを第 2の入力 とし、 出力信号 OSを出力する出力処理部 27とを備えている。 出力処理部 27 は、 入力信号 I Sを入力とし、 ダイナミックレンジ (DR) 圧縮された DR圧縮 信号 DRSを出力する DR圧縮部 28と、 D R圧縮信号 D R Sを第 1の入力、 強 調処理信号 T Sを第 2の入力とし、 出力信号 O Sを出力する乗算部 29とを備え ている。
《等価な視覚処理装置 21の作用》
視覚処理部 23の動作についてさらに説明を加える。
除算部 25は、 値 Aの入力信号 I Sを値 Bのアンシャープ信号 U Sで除算し、 値 AZBの除算信号 RSを出力する。 強調処理部 26は、 強調関数 F 5を用し、て 、 値 AZBの除算信号 RSから値 F5 (A/B) の強調処理信号 T Sを出力する 。 DR圧縮部 28は、 ダイナミックレンジ圧縮関数 F 4を用いて、 値 Aの入力信 号 I Sから値 F4 (A) の D R圧縮信号 D RSを出力する。 乗算部 29は、 値 F 4 (A) の DR圧縮信号 DRSと値 F 5 (A/B) の強調処理信号 T Sとを乗算 し、 値 F4 (A) * F 5 (A/B) の出力信号 O Sを出力する。
なお、 ダイナミックレンジ圧縮関数 F4、 強調関数 F 5を用いた計算は、 それ ぞれの関数に対する 1次元の LUTを用いて行われても良いし、 LUTを用いな いで行われても良い。
《効果》
第 2プロファイルデータを備える視覚処理装置 1と視覚処理装置 21とは、 同 様の視覚処理効果を奏する。
( i )
従来では、 画像全体のダイナミックレンジを圧縮する場合、 図 1 7に示すダイ ナミックレンジ圧縮関数 F4を用いて、 暗部からハイライ卜まで飽和させずに階 調レベルを圧縮する。 すなわち、 圧縮前の画像信号における再現目標の黒レベル を L 0、 最大の白レベルを L 1とすると、 圧縮前のダイナミックレンジ L 1 : L 0は、 圧縮後のダイナミックレンジ Q 1 : QOに圧縮される。 しかし、 画像信号 レベルの比であるコントラス小は、 ダイナミックレンジの圧縮により、 (Q 1 / QO) * (L O/L 1 ) 倍に下がることとなる。 ここで、 ダイナミックレンジ圧 縮関数 F 4は、 上に凸のべき関数などである。
一方、 第 2プロファイルデータを備える視覚処理装置 1および視覚処理装置 2 1では、 値 A_ Bの除算信号 RS、 すなわちシャープ信号を強調関数 F 5で強調 処理し、 DR圧縮信号 DRSに乗じている。 このため、 局所的なコントラストを 強調することになる。 ここで、 強調関数 F 5は、 図 1 8に示すようなべき関数で あり (F 5 (X ) =χ Λ α) 、 除算信号 RSの値が 1より大きいときに明るい方 に強調を行い、 1より小さいときに暗い方向に強調を行う。
一般に、 人間の視覚は、 局所コントラストを維持すれば、 全体的なコントラス 卜が低下していても同じコントラストに見える性質がある。 これにより、 第 2プ 口ファイルデータを備える視覚処理装置 1および視覚処理装置 21では、 ダイナ ミックレンジの圧縮を行いつつ、 視覚的にはコントラストを低下させない視覚処 理を実現することが可能となる。
( i i ) さらに具体的に本発明の効果を説明する。
ダイナミックレンジ圧縮関数 F 4は、 F4 ( X ) =χ Λ (例えば、 r = o. 6とする) であるとする。 また、 強調関数 F 5は、 F5 ( X ) =χ Λ Of (例えば、 a = 0. 4とする) であるとする。 また、 入力信号 I Sの最大の白レベルを値 1 に正規化した場合の再現目標の黒レベルが値 1ノ300であるとする。 すなわち、 入力信号 I Sのダイナミックレンジが 300 : 1であるとする。
ダイナミックレンジ圧縮関数 F4を用いて、 この入力信号 I Sのダイナミック レンジ圧縮した場合、 圧縮後のダイナミックレンジは、 F4 (1 ) : F4 (1 / 300) =30 : 1 となる。 すなわち、'ダイナミックレンジ圧縮関数 F 4により、 ダイナミックレンジは 1 /1 0に圧縮されることとなる。
一方、 出力信号 OSの値 Cは、 上記式 M 2で表され、 C= (A Λ 0. 6) * { (Α/Β) Λ 0. 4} 、 すなわち C = A/ (Β Λ 0. 4) である。 ここで、 局所 的な範囲では、 Βの値は一定と見なせるため、 Cは Αに比例する。 すなわち、 値 Cの変化量と値 Aの変化量との比は 1 となり、 入力信号 I Sと出力信号 OSとに おいて局所的なコントラストは変化しないこととなる。
上記同様、 人間の視覚は、 局所コントラストを維持すれば、 全体的なコントラ ストが低下していても同じコントラストに見える性質がある。 これにより、 第 2 プロファイルデータを備える視覚処理装置 1および視覚処理装置 21では、 ダイ ナミックレンジの圧縮を行いつつ、 視覚的にはコントラス卜を低下させない視覚 処理を実現することが可能となる。
なお、 図 1 8に示す強調関数 F 5のべき乗数 を 0. 4より大きくすれば、 ダ イナミックレンジの圧縮を行いつつ、 入力信号 I Sよりも出力信号 OSの見かけ のコントラストを上げることも可能である。
( i i ■ )
本発明では、 以上の効果を実現できるため、 次の状況において特に有効である α すなわち、 物理的なダイナミックレンジの狭いディスプレイで、 暗部も明部もつ ぶれずにコントラストの高い画像を再現することが可能となる。 また例えば、 明 るい環境下のテレビプロジェクタでコントラス卜の高い映像を表示する、 濃度の 低いインク (薄い色しかでないプリンタ) でコントラストの高いプリントを得る ことが可能となる。
《変形例》
( i )
視覚処理装置 21では、 視覚処理部 231ま、 入力信号 I Sとアンシャープ信号 USとに基づいて、 2次元 LUT 4を用い "Tに上記式 M2を演算するもので有つ ても良い。 この場合、 それぞれの関数 F 4, F 5の計算においては、 1次元の L UTを用いても良い。
( i i )
なお、 式 M 2で求められるプロファイルデータのある要素の値 Cが C> 255 となる場合には、 その要素の値 Cを 255としてもよい。
(3)
《第 3プロファイルデータ》
第 3プロファイルデータは、 入力信号 I Sとアンシャープ信号 USとの比を強 調する関数を含む演算に基づいて定められている。 これにより、 例えば、 シヤー プ成分を強調する視覚処理などを実現することが可能となる。
以下、 具体的に説明する。
上記第 2プロフアイルデータの式 M 2において、 ダイナミックレンジ圧縮関数 F4は、 比例係数 1の正比例関数であってちょい。 この場合、 第 3プロファイル データの各要素の値 C (出力信号 OSの値) は、 入力信号 I Sの値 A、 アンシャ —プ信号 USの値 B、 強調関数 F 5を用いて、 C = A* F 5 (A/8) (以下、 式 M3という) と表される。
《等価な視覚処理装置 31》
図 1 9に、 第 3プロファイルデータを 2;欠元 LUT4に登録した視覚処理装置 1と等価な視覚処理装置 31を示す。
視覚処理装置 31は、 入力信号 I Sとアンシャープ信号 USとの比を強調する 演算に基づいて出力信号 OSを出力する装置である。 これにより、 例えば、 シャ ープ成分を強調する視覚処理などを実現することが可能となる。
図 1 9に示す視覚処理装置 31は、 DR圧縮部 28を備えない点において図 1 6に示す視覚処理装置 21と相違している。 以下、 図 1 9に示す視覚処理装置 3 1において、 図 1 6に示す視覚処理装置 21と同様の動作を行う部分については 、 同じ符号を付し、 詳しい説明を省略する。
視覚処理装置 31は、 入力信号 I Sとして取得した原画像の画素ごとの輝度値 に空間処理を実行しアンシャープ信号 USを出力する空間処理部 22と、 入力信 号 I Sとアンシャープ信号 USとを用いて、 原画像の視覚処理を行い、 出力信号 OSを出力する視覚処理部 32とを備えている。
空間処理部 22は、 視覚処理装置 1が備える空間処理部 2と同様の動作を行う ため、 説明を省略する。
視覚処理部 32は、 入力信号 I Sを第 1の入力、 アンシャープ信号 USを第 2 の入力とし、 入力信号 I Sをアンシャープ信号 USで除算した除算信号 RSを出 力する除算部 25と、 除算信号 RSを入力とし、 強調処理信号 TSを出力とする 強調処理部 26と、 入力信号 I Sを第 1の入力、 強調処理信号 TSを第 2の入力 とし、 出力信号 OSを出力する乗算部 33とを備えている。
《等価な視覚処理装置 31の作用》
視覚処理部 32の動作についてさらに説明を加える。
除算部 25および強調処理部 26は、 図 1 6に示す視覚処理装置 21について 説明したのと同様の動作を行う。
乗算部 33は、 値 Aの入力信号 I Sと値 F 5 (A/B) の強調処理信号 TSと を乗算し、 値 A* F5 (A/B) の出力信号 OSを出力する。 ここで、 強調関数 F 5は、 図 1 8に示したものと同様である。
なお、 強調関数 F 5を用いた計算は、 図 1 6に示す視覚処理装置 21について 説明したのと同様に、 それぞれの関数に対する 1次元の LUTを用いて行われて も良いし、 LUTを用いないで行われても良い。
《効果》
第 3プロファイルデータを備える視覚処理装置 1と視覚処理装置 31とは、 同 様の視覚処理効果を奏する。
( i )
強調処理部 26では、 入力信号 I Sとアンシャープ信号 USとの比として表さ れるシャープ信号 (除算信号 RS) の強調処理が行われ、 強調されたシャープ信 号が入力信号 I Sに乗算される。 入力信号 I Sとアンシャープ信号 U Sとの比と して表されるシャープ信号を強調処理することは、 対数空間における入力信号 I Sとアンシャープ信号 U Sとの差分を計算することに相当する。 すなわち、 対数 的な人間の視覚特性に適した視覚処理が実現される。
( i i )
強調関数 F 5による強調量は、 入力信号 I Sが大きい場合 (明るい場合) に大 きくなリ、 小さい場合 (暗い場合) に小さくなる。 また、 明るくする方向への弓 調量は、 暗くする方向への強調量より大きくなる。 このため、 視覚特性に適しナこ 視覚処理が実現可能となり、 バランス良く自然な視覚処理が実現される。
( i i i )
なお、 式 M 3で求められるプロファイルデータのある要素の値 Cが G > 2 5 5 となる場合には、 その要素の値 Cを 2 5 5としてもよい。
( i v )
式 M 3を用いた処理では、 入力信号 I Sに対するダイナミックレンジの圧縮 ίま 施されないが、 局所的なコントラストを強調することができ、 視覚的にダイナミ ックレンジの圧縮■伸張を行うことが可能となる。
( 4 )
《第 4プロファイルデータ》
第 4プロファイルデータは、 入力信号 I Sとアンシャープ信号 U Sとの差を入 力信号 I Sの値に応じて強調する関数を含む演算に基づいて定められている。 こ れにより、 例えば、 入力信号 I Sのシャープ成分などを入力信号 I Sの値に応じ て強調することが可能となる。 このため、 入力信号 I Sの暗部から明部まで適切 な強調を行うことが可能となる。
さらに、 第 4プロファイルデータは、 強調された値に対して、 入力信号 I Sを ダイナミックレンジ圧縮した値を加える演算に基づいて定められている。 これに より、 入力信号 I Sのシャープ成分などを入力信号 I Sの値に応じて強調しつつ、 ダイナミックレンジの圧縮を行うことが可能となる。
以下、 具体的に説明する。
第 4プロファイルデータの各要素の値 C (出力信号 O Sの値) は、 入力信号 I Sの値 A、 アンシャープ信号 USの値 B、 強調量調整関数 F 6、 強調関数 F 7、 ダイナミックレンジ圧縮関数 F 8を用いて、 G=F 8 (A) + F6 (A) * F 7 (A— B) (以下、 式 M4という) と表される。
ここで、 強調量調整関数 F6は、 入力信号 I Sの値に対して単調増加する関数 である。 すなわち、 入力信号 I Sの値 Aが小さい時は、 強調量調整関数 F6の値 も小さく、 入力信号 I Sの値 Aが大きい時は、 強調量調整関数 F6の値も大きく なる。 強調関数 F 7は、 図 1 09を用いて説明した強調関数 R1 ~R 3のいずれ かの関数である。 ダイナミックレンジ圧縮関数 F 8は、 図 1 7を用いて説明した べき関数であり、 F 8 (X) =χ Λ r ( 0 < < 1 ) と表される。
《等価な視覚処理装置 41》
図 20に、 第 4プロフアイルデータを 2次元 L U T 4に登録した視覚処理装置 1 と等価な視覚処理装置 41を示す。
視覚処理装置 41は、 入力信号 I Sとアンシャープ信号 USとの差を入力信号 I Sの値に応じて強調する演算に基づいて出力信号 O Sを出力する装置である。 これにより、 例えば、 入力信号 I Sのシャープ成分などを入力信号 I Sの値に応 じて強調することが可能となる。 このため、 入力信号 I sの暗部から明部まで適 切な強調を行うことが可能となる。
さらに、 視覚処理装置 41は、 強調された値に対して、 入力信号 I Sをダイナ ミックレンジ圧縮した値を加える演算に基づいて出力信号 OSを出力する。 これ により、 入力信号 I Sのシャープ成分などを入力信号 I Sの値に応じて強調しつ つ、 ダイナミックレンジの圧縮を行うことが可能となる。
図 20に示す視覚処理装置 41は、 入力信号 I Sとして取得した原画像の画素 ごとの輝度値に空間処理を実行しアンシャープ信号 USを出力する空間処理部 4 2と、 入力信号 I Sとアンシャープ信号 USとを用いて、 原画像の視覚処理を行 し、、 出力信号 OSを出力する視覚処理部 43とを備えている。
空間処理部 42は、 視覚処理装置 1が備える空間処理部 2と同様の動作を行う ため、 説明を省略する。
視覚処理部 43は、 入力信号 I Sを第 1の入力、 アンシャープ信号 USを第 2 の入力とし、 それぞれの差分である差分信号 DSを出力する減算部 44と、 差分 信号 DSを入力とし、 強調処理信号 TSを出力する強調処理部 45と、 入力信号 I Sを入力とし、 強調量調整信号 I Cを出力する強調量調整部 46と、 強調量調 整信号 I Cを第 1の入力、 強調処理信号 TSを第 2の入力とし、 強調量調整信号 I Cと強調処理信号 TSとを乗算した乗算信号 MSを出力する乗算部 47と、 入 力信号 I Sを第 1の入力、 乗算信号 MSを第 2の入力とし、 出力信号 OSを出力 する出力処理部 48とを備えている。 出力処理部 48は、 入力信号 I Sを入力と し、 ダイナミックレンジ (DR) 圧縮された DR圧縮信号 DRSを出力する DR 圧縮部 49と、 DR圧縮信号 DRSを第 1の入力、 乗算信号 M Sを第 2の入力と し、 出力信号 OSを出力する加算部 50'とを備えている。
《等価な視覚処理装置 41の作用》
視覚処理部 43の動作についてさらに説明を加える。
減算部 44は、 値 Aの入力信号 I Sと値 Bのアンシャープ信号 USとの差分を 計算し、 値 A— Bの差分信号 DSを出力する。 強調処理部 45は、 強調関数 F 7 を用いて、 値 A— Bの差分信号 DSから値 F 7 (A-B) の強調処理信号 TSを 出力する。 強調量調整部 46は、 強調量調整関数 F 6を用いて、 値 Aの入力信号 I Sから値 F6 (A) の強調量調整信号 I Cを出力する。 乗算部 47は、 値 F6 (A) の強調量調整信号 I Cと値 F 7 (A-B) の強調処理信号 TSとを乗算し 、 値 F6 (A) * F 7 (A-B) の乗算信号 M Sを出力する。 DR圧縮部 49は 、 ダイナミックレンジ圧縮関数 F 8を用いて、 値 Aの入力信号 I Sから値 F 8 ( A) の DR圧縮信号 DRSを出力する。 加算部 50は、 り1^圧縮信号0 3と、 値 F6 (A) * F 7 (A-B) の乗算信号 M Sとを加算し、 値 F 8 (A) + F6 (A) * F 7 (A-B) の出力信号 OSを出力する。
なお、 強調量調整関数 F 6、 強調関数 F 7、 ダイナミックレンジ圧縮関数 F 8 を用いた計算は、 それぞれの関数に対する 1次元の L UTを用いて行われても良 いし、 L U Tを用いないで行われても良い。
《効果》
第 4プロファイルデータを備える視覚処理装置 1と視覚処理装置 41とは、 同 様の視覚処理効果を奏する。
( i ) 入力信号 I sの値 Aにより、 差分信号 D Sの強 ii量の調整を行う。 このため、 ダイナミックレンジ圧縮を行いつつ、 暗部から明部までの局所コントラストを維 持することが可能となる。
( i i )
強調量調整関数 F 6は、 単調増加する関数であるが、 入力信号 I Sの値 Aが大 きいほど、 関数の値の増加量が減少する関数とすることができる。 この場合、 出 力信号 O Sの値が飽和することが防止される。
( i )
強調関数 F 7を、 図 1 0 9を用いて説明した強 関数 R 2とする場合、 差分信 号 D Sの絶対値が大きい時の強調量を抑制することが可能となる。 このため、 鮮 鋭度の高い部分での強調量が飽和することが防止され、 視覚的にも自然な視覚処 理を実行することが可能となる。
《変形例》
( i )
視覚処理装置 4 1では、 視覚処理部 4 3は、 入力信号 I Sとアンシャープ信号 U Sとに基づいて、 2次元 L U T 4を用いずに上 ΐ己式 M 4を演算するもので有つ ても良い。 この場合、 それぞれの関数 F 6〜F 8の計算においては、 1次元の L U Tを用いても良い。
( > i )
強調関数 F 7を比例係数 1の正比例関数とする場合には、 強調処理部 4 5は、 特に設ける必要がない。
( i i i )
なお、 式 M 4で求められるプロファイルデータのある要素の値 Cが 0≤C≤2 5 5の範囲を超える場合には、 その要素の値 Gを 0又は 2 5 5としてもよい。
( 5 )
《第 5プロファイルデータ》
第 5プロファイルデータは、 入力信号 I Sとァンシャープ信号 U Sとの差を入 力信号 I Sの値に応じて強調する関数を含む演算に基づいて定められている。 こ れにより、 例えば、 入力信号 I Sのシャープ成分などを入力信号 I Sの値に応じ て強調することが可能となる。 このため、 入力信号 I Sの暗部から明部まで適切 な強調を行うことが可能となる。
以下、 具体的に説明する。
上記第 4プロファイルデータの式 M 4において、 ダイナミックレンジ圧縮関数 F 8は、 比例係数 1の正比例関数であってもよい。 この場合、 第 5プロファイル データの各要素の値 C (出力信号 O Sの値) は、 入力信号 I Sの値 A、 アンシャ ープ信号 U Sの値 B、 強調量調整関数 F 6、 強調関数 F 7を用いて、 C = A + F 6 ( A ) * F 7 ( A— B ) (以下、 式 M 5という) と表される。
《等価な視覚処理装置 5 1》
図 2 1に、 第 5プロファイルデータを 2次元 L U T 4に登録した視覚処理装置 1と等価な視覚処理装置 5 1を示す。
視覚処理装置 5 1は、 入力信号 I Sとアンシャープ信号 U Sとの差を入力信号 I Sの値に応じて強調する演算に基づいて出力信号 O Sを出力する装置である。 これにより、 例えば、 入力信号 I Sのシャープ成分などを入力信号 I Sの値に応 じて強調することが可能となる。 このため、 入力信号 I Sの暗部から明部まで適 切な強調を行うことが可能となる。
図 2 1に示す視覚処理装置 5 1は、 D R圧縮部 4 9を備えない点において図 2 0に示す視覚処理装置 4 1と相違している。 以下、 図 2 1に示す視覚処理装置 5 1において、 図 2 0に示す視覚処理装置 4 1と同様の動作を行う部分については 、 同じ符号を付し、 詳しい説明を省略する。
視覚処理装置 5 1は、 入力信号 I Sとして取得した原画像の画素ごとの輝度値 に空間処理を実行しアンシャープ信号 U Sを出力する空間処理部 4 2と、 入力信 号 I Sとアンシャープ信号 U Sとを用いて、 原画像の視覚処理を行い、 出力信号 O Sを出力する視覚処理部 5 2とを備えている。
空間処理部 4 2は、 視覚処理装置 1が備える空間処理部 2と同様の動作を行う ため、 説明を省略する。
視覚処理部 5 2は、 入力信号 I Sを第 1の入力、 アンシャープ信号 U Sを第 2 の入力とし、 それぞれの差分である差分信号 D Sを出力する減算部 4 4と、 差分 信号 D Sを入力とし、 強調処理信号 T Sを出力する強調処理部 4 5と、 入力信号 I Sを入力とし、 強調量調整信号 I Cを出力する強調量調整部 46と、 強調量調 整信号 I Cを第 1の入力、 強調処理信号 TSを第 2の入力とし、 強調量調整信号 I Cと強調処理信号 TSとを乗算した乗算信号 MSを出力する乗算部 47と、 入 力信号 I Sを第 1の入力、 乗算信号 MSを第 2の入力とし、 出力信号 OSを出力 する加算部 53とを備えている。
《等価な視覚処理装置 51の作用》
視覚処理部 52の動作についてさらに説明を加える。
減算部 44、 強調処理部 45、 強調量調整部 46および乗算部 47は、 図 20 に示す視覚処理装置 41について説明したのと同様の動作を行う。
加算部 53は、 値 Aの入力信号 I Sと、 値 F6 (A) * F 7 (A— B) の乗算 信号 MSとを加算し、 値 A+F6 (A) * F 7 (A— B) の出力信号 OSを出力 する。
なお、 強調量調整関数 F 6、 強調関数 F 7を用いた計算は、 図 20に示す視覚 処理装置 41について説明したのと同様に、 それぞれの関数に対する 1次元の L UTを用いて行われても良いし、 L U Tを用いないで行われても良い。
《効果》
第 5プロファイルデータを備える視覚処理装置 1と視覚処理装置 51とは、 同 様の視覚処理効果を奏する。 また、 第 4プロフアイルデータを備える視覚処理装 置 1および視覚処理装置 41が奏する効果と、 ほぼ同様の視覚処理効果を奏する
( i )
入力信号 I Sの値 Aにより、 差分信号 DSの強調量の調整を行う。 このため、 暗部から明部までのコントラス卜の強調量を均一にすることが可能となる。
《変形例》
( i )
強調関数 F 7を比例係数 1の正比例関数とする場合には、 強調処理部 45は、 特に設ける必要がない。
( i i )
なお、 式 M 5で求められるプロファイルデータのある要素の値 Cが 0≤C≤ 2 55の範囲を超える場合には、 その要素の値 Cを 0又は 255としてもよい。
(6)
《第 6プロファイルデータ》
第 6プロファイルデータは、 入力信号 I Sとアンシャープ信号 USとの差を強 調した値に対して、 入力信号 I Sの値を加えた値を階調補正する演算に基づいて 定められている。 これにより、 例えば、 シャープ成分が強調された入力信号 I S に対して、 階調補正を行う視覚処理を実現することが可能となる。
以下、 具体的に説明する。
第 6プロファイルデータの各要素の値 C (出力信号 OSの値) は、 入力信号 I Sの値 A、 アンシャープ信号 USの値巳、 強調関数 F 9、 階調補正関数 F 1 0を 用いて、 C=F 1 0 (A+F9 (A— B) ) (以下、 式 M6という) と表される。
ここで、 強調関数 F 9は、 図 1 09を用いて説明した強調関数 R 1〜R3のい ずれかの関数である。 階調補正関数 F 1 0は、 例えば、 ガンマ補正関数、 S字型 の階調補正関数、 逆 S字型の階調補正関数など、 通常の階調補正で用いられる関 数である。
《等価な視覚処理装置 61》
図 22に、 第 6プロファイルデータを 2次元 LUT4に登録した視覚処理装置 1と等価な視覚処理装置 61を示す。
視覚処理装置 61は、 入力信号 I Sとアンシャープ信号 USとの差を強調した 値に対して、 入力信号 I Sの値を加えた値を階調補正する演算に基づいて、 出力 信号 OSを出力する装置である。 これにより、 例えば、 シャープ成分が強調され た入力信号 I Sに対して、 階調補正を行う視覚処理を実現することが可能となる。 図 22に示す視覚処理装置 61は、 入力信号 I Sとして取得した原画像の画素 ごとの輝度値に空間処理を実行しアンシャープ信号 USを出力する空間処理部 6 2と、 入力信号 I Sとアンシャープ信号 USとを用いて、 原画像の視覚処理を行 し、、 出力信号 OSを出力する視覚処理部 63とを備えている。
空間処理部 62は、 視覚処理装置 1が備える空間処理部 2と同様の動作を行う ため、 説明を省略する。
視覚処理部 63は、 入力信号 I Sを第 1の入力、 アンシャープ信号 USを第 2 の入力とし、 それぞれの差分である差分信号 DSを出力する減算部 64と、 差分 信号 DSを入力とし強調処理された強調処理信号 TSを出力する強調処理部 65 と、 入力信号 I Sを第 1の入力、 強調処理信号 TSを第 2の入力とし、 それぞれ を加算した加算信号 PSを出力する加算部 66と、 加算信号 PSを入力とし出力 信号 OSを出力する階調補正部 67とを備えている。
《等価な視覚処理装置 61の作用》
視覚処理部 63の動作についてさらに説明を加える。
減算部 64は、 値 Aの入力信号 I Sと、 値 Bのアンシャープ信号 USとの差分 を計算し、 値 A— Bの差分信号 DSを出力する。 強調処理部 65は、 強調関数 F 9を用いて、 値 A— Bの差分信号 DSから値 F 9 ( A— B) の強調処理信号 T S を出力する。 加算部 66は、 値 Aの入力信号 I Sと、 値 F9 (A-B) の強調処 理信号 TSとを加算し、 値 A+F 9 (A-B) の加算信号 PSを出力する。 階調 補正部 67は、 階調補正関数 F 1 0を用いて、 値 A+F9 (A-B) の加算信号 PSから、 値 F 1 0 (A+F 9 (A-B) ) の出力信号 O Sを出力する。
なお、 強調関数 F 9、 階調補正関数 F 1 0を用いた計算は、 それぞれの関数に 対する 1次元の LUTを用いて行われても良いし、 L UTを用いないで行われて も良い。
《効果》
第 6プロファイルデータを備える視覚処理装置 1 と視覚処理装置 61 とは、 同 様の視覚処理効果を奏する。
( i )
差分信号 DSは、 強調関数 F 9により強調処理され、 入力信号 I Sに加算され る。 このため、 入力信号 I Sのコントラストを強調することが可能となる。 さら に、 階調補正部 67は、 加算信号 PSの階調補正処理を実行する。 このため、 例 えば、 原画像における出現頻度の高い中間調でさらにコントラストを強調するこ とが可能となる。 また、 例えば、 加算信号 PS全体を明るくすることが可能とな る。 以上により、 空間処理と階調処理とを同時に組み合わせて実現することが可 能となる。
《変形例》 ( i )
視覚処理装置 61では、 視覚処理部 63は、 入力信号 I Sとアンシャープ信号 U Sとに基づいて、 2次元 L U T 4を用いずに上記式 M 6を演算するもので有つ ても良い。 この場合、 それぞれの関数 F9, F 1 0の計算においては、 1次元の LU丁を用いても良い。
( i i )
なお、 式 M 6で求められるプロファイルデータのある要素の値 Cが 0≤C≤2 55の範囲を超える場合には、 その要素の値 Cを 0又は 255としてもよい。
(7)
《第 7プロファイルデータ》
第 7プロファイルデータは、 入力信号 I Sとアンシャープ信号 USとの差を強 調した値に対して、 入力信号 I Sを階調補正したィ直を加える演算に基づいて定め られている。 ここで、 シャープ成分の強調と入力信号 I Sの階調補正とは独立し て行われる。 このため、 入力信号 I Sの階調補正量にかかわらず、 一定のシャ一 プ成分の強調を行うことが可能となる。
以下、 具体的に説明する。
第 7プロファイルデータの各要素の値 C (出力信号 OSの値) は、 入力信号 I Sの値 A、 アンシャープ信号 USの値 B、 強調関数 F 1 1、 階調補正関数 F 1 2 に対して、 G=F 1 2 (A) + F 1 1 (A— B) (以下、 式 M7という) と表さ れる。
ここで、 強調関数 F 1 1は、 図 1 09を用いて説明した強調関数 R1〜R 3の いずれかの関数である。 階調補正関数 F 1 2は、 例えば、 ガンマ補正関数、 S字 型の階調補正関数、 逆 S字型の階調補正関数などである。
《等価な視覚処理装置 71》
図 23に、 第 7プロファイルデータを 2次元 L U T 4に登録した視覚処理装置 1 と等価な視覚処理装置 71を示す。
視覚処理装置 71は、 入力信号 I Sとアンシャープ信号 USとの差を強調した 値に対して、 入力信号 I Sを階調補正した値を加える演算に基づいて出力信号 O Sを出力する装置である。 ここで、 シャープ成分の強調と入力信号 I Sの階調補 正とは独立して行われる。 このため、 入力信号 I Sの階調補正量にかかわらず、 一定のシャープ成分の強調を行うことが可能となる。
図 23に示す視覚処理装置 71は、 入力信号 I Sとして取得した原画像の画素 ごとの輝度値に空間処理を実行しアンシャープ信号 USを出力する空間処理部 7 2と、 入力信号 I Sとアンシャープ信号 USとを用いて、 原画像の視覚処理を行 い、 出力信号 OSを出力する視覚処理部 73とを備えている。
空間処理部 72は、 視覚処理装置 1が備える空間処理部 2と同様の動作を行う ため、 説明を省略する。
視覚処理部 73は、 入力信号 I Sを第 1の入力、 アンシャープ信号 USを第 2 の入力とし、 それぞれの差分である差分信号 DSを出力する減算部 74と、 差分 信号 D Sを入力とし強調処理された強調処理信号 TSを出力する強調処理部 75 と、 入力信号 I Sを入力とし、 階調補正された階調補正信号 GCを出力する階調 補正部 76と、 階調補正信号 GCを第 1の入力、 強調処理信号 TSを第 2の入力 とし、 出力信号 OSを出力する加算部 77とを備えている。
《等価な視覚処理装置 71の作用》
視覚処理部 73の動作についてさらに説明を加える。
減算部 74は、 値 Aの入力信号 I Sと、 値 Bのアンシャープ信号 USとの差分 を計算し、 値 A— Bの差分信号 DSを出力する。 強調処理部 75は、 強調関数 F 1 1を用いて、 値 A— Bの差分信号 D Sから値 F 1 1 (A-B) の強調処理信号 TSを出力する。 階調補正部 76は、 階調補正関数 F 1 2を用いて、 値 Aの入力 信号 I Sから値 F 1 2 (A) の階調補正信号 GCを出力する。 加算部 77は、 値 F 1 2 (A) の階調補正信号 GCと、 値 F 1 1 (A— B) の強調処理信号 TSと を加算し、 値 F 1 2 (A) +F 1 1 (A-B) の出力信号 O Sを出力する。 なお、 強調関数 F 1 1、 階調補正関数 F 1 2を用いた計算は、 それぞれの関数 に対する 1次元の L U Tを用いて行われても良いし、 LUTを用いないで行われ ても良い。
《効果》
第 7プロファイルデータを備える視覚処理装置 1 と視覚処理装置 71とは、 同 様の視覚処理効果を奏する。 ( i )
入力信号 I Sは、 階調補正部 76により階調補正された後、 強調処理信号 TS と加算される。 このため、 階調補正関数 F 1 2の階調変化の少ない領域、 すなわ ちコントラス卜が低下される領域においても、 その後の強調処理信号 TSの加算 により、 局所コントラストを強調することが可能となる。
《変形例》
( i )
視覚処理装置 71では、 視覚処理部 73は、 入力信号 I Sとアンシャープ信号 USとに基づいて、 2次元 L U T 4を用いずに上記式 M7を演算するもので有つ ても良い。 この場合、 それぞれの関数 F 1 1, F 1 2の計算においては、 1次元 の LUTを用いても良い。
( i ■ )
なお、 式 M 7で求められるプロファイルデータのある要素の値 Cが O C≤ 2 55の範囲を超える場合には、 その要素の値 Cを 0又は 255としてもよい。
(8)
《第 1〜第 7プロファイルデータの変形例》
( i )
上記 (1 ) ~ (7) において、 第 1〜第 7プロファイルデータの各要素は、 式 M1〜M 7に基づいて計算された値を格納すると説明した。 また、 それぞれのプ 口ファイルデータでは、 式 Ml ~M 7により算出される値がプロファイルデータ が格納可能な値の範囲を超える場合には、 その要素の値を制限しても良いと説明 した。
さらに、 プロファイルデータでは、 一部の値については、 任意であっても良い 。 例えば、 暗い夜景の中にある小さい明かりの部分など (夜景の中にあるネオン 部分など) 、 入力信号 I Sの値は大きいが、 アンシャープ信号 USの値は小さい 場合、 視覚処理された入力信号 I Sの値が画質に与える影響は小さい。 このよう に、 視覚処理後の値が画質に与える影響が小さい部分では、 プロファイルデータ が格納する値は、 式 M1 ~M7により算出される値の近似値、 あるいは任意の値 であっても良い。 プロファイルデータが格納する値が、 式 M 1 〜M 7により算出される値の近似 値、 あるいは任意の値となる場合にも、 同じ値の入力信号 I Sとアンシャープ信 号 U Sとに対して格納されている値は、 入力信号 I Sとアンシャープ信号 U Sと の値に対して、 単調増加、 あるいは単調減少する関係を維持していることが望ま しい。 式 M 1 〜M 7等に基づいて作成されたプロファイルデータにおいて、 同じ 値の入力信号 I Sとアンシャープ信号 U Sとに対するプロファイルデータが格納 する値は、 プロファイルデータの特性の概要を示している。 このため、 2次元 L U Tの特性を維持するために、 上記関係を維持した状態でプロファイルデータの チューニングを行うことが望ましい。
[第 2実施形態]
図 2 4〜図 3 9を用いて、 本発明の第 2実施形態としての視覚処理装置 6 0 0 について説明する。
視覚処理装置 6 0 0は、 画像信号 (入力信号 I S ) に視覚処理を行い視覚処理 画像 (出力信号 O S ) を出力する視覚処理装置であり、 出力信号 O Sを表示する 表示装置 (図示しない) が設置される環境 (以下、 表示環境という。 ) に応じた 視覚処理を行う装置である。
具体的には、 視覚処理装置 6 0 0は、 表示環境の環境光の影響による表示画像 の 「視覚的なコントラスト」 の低下を、 人間の視覚特性を利用した視覚処理によ リ改善する装置である。
視覚処理装置 6 0 0は、 例えば、 コンピュータ、 テレビ、 デジタルカメラ、 携 帯電話、 P D A、 プリンタ、 スキャナなどの画像を取り扱う機器において、 画像 信号の色処理を行う装置とともに画像処理装置を構成する。
〈視覚処理装置 6 0 0〉
図 2 4に、 視覚処理装置 6 0 0の基本構成を示す。
視覚処理装置 6 0 0は、 目標コントラスト変換部 6 0 1 と、 変換信号処理部 6 0 2と、 実コントラスト変換部 6 0 3と、 目標コントラスト設定部 6 0 4と、 実 コントラスト設定部 6 0 5とから構成されている。
目標コントラス卜変換部 6 0 1は、 入力信号 I Sを第 1の入力、 目標コントラ スト設定部 6 0 4において設定された目標コントラスト C 1を第 2の入力とし、 目標コントラスト信号 J Sを出力とする。 なお、 目標コントラスト C 1の定義に ついては、 後述する。
変換信号処理部 602は、 目標コントラスト信号 J Sを第 1の入力、 目標コン トラスト C 1を第 2の入力、 実コントラスト設定部 605において設定された実 コントラスト C 2を第 3の入力とし、 視覚処理された目標コントラスト信号 J S である視覚処理信号 KSを出力とする。 なお、 実コントラスト C2の定義につし、 ては、 後述する。
実コントラスト変換部 603は、 視覚処理信号 KSを第 1の入力、 実コントラ スト C2を第 2の入力とし、 出力信号 OSを出力とする。
目標コントラスト設定部 604および実コントラスト設定部 605は、 ユーザ に対して目標コントラスト C 1および実コントラス卜 C 2の値を入力インタ一フ ェイスなどを介して設定させる。
以下、 各部の詳細について説明する。
〈目標コントラスト変換部 601 >
目標コントラスト変換部 601は、 視覚処理装置 600に入力された入力信号 I Sを、 コントラスト表現に適した目標コントラスト信号 J Sに変換する。 ここ で、 入力信号 I Sでは、 視覚処理装置 600に入力される画像の輝度値が値 [0 . 0~ 1. 0] の階調で表されている。
目標コントラスト変換部 601は、 目標コントラスト C 1 (値 [m] ) を用い て、 入力信号 I S (値 [P] ) を 「式 M2 OJ により変換し、 目標コントラス卜 信号 J S (値 [A] ) を出力する。 ここで、 式 M20は、 A= { (m— 1 ) /m } * P + 1 /mである。
目標コントラスト C1の値 [m] は、 表示装置により表示される表示画像が最 もコントラス卜良く見えるようなコントラスト値として設定される。
ここで、 コントラスト値とは、 画像の黒レベルに対する白レベルの明度比とし て表される値であり、 黒レベルを 1 とした場合の白レベルの輝度値を示している (黒レベル:白レベル =1 : m) 。
目標コントラスト C 1の値 [m] は、 1 00~ 1 000 (黒レベル: 白レベル =1 : 1 00-1 : 1 000) 程度に設定されるのが適切であるが、 表示装置が 表示可能な黒レベルに対する白レベルの明度比に基づいて決定してもよい。
図 2 5を用いて、 式 M 2 0による変換をさらに詳しく説明する。 図 2 5は、 入 力信号 I Sの値 (横軸) と目標コントラスト信号 J Sの値 (縦軸) との関係を示 すグラフである。 図 2 5が示すように、 目標コントラスト変換部 6 0 1により、 値 [ 0 . 0 ~ 1 . 0 ] の範囲の入力信号 I Sが値 [ 1 Zm〜 1 . 0 ] の範囲の目 標コントラスト信号 J Sに変換される。
〈変換信号処理部 6 0 2〉
図 2 4を用いて、 変換信号処理部 6 0 2の詳細について説明する。
変換信号処理部 6 0 2は、 入力される目標コントラス卜信号 J Sの局所的なコ ントラストを維持しつつ、 ダイナミックレンジを圧縮し、 視覚処理信号 K Sを出 力する。 具体的には、 変換信号処理部 6 0 2は、 第 1実施形態で示した視覚処理 装置 2 1における入力信号 I S (図 1 6参照) を目標コントラスト信号 J Sと見 なし、 出力信号 O S (図 1 6参照) を視覚処理信号 K Sと見なしたのと同様の構 成 '作用■効果を有している。
変換信号処理部 6 0 2は、 目標コントラスト信号 J Sとアンシャープ信号 U S との比を強調する演算に基づいて視覚処理信号 K Sを出力する。 これにより、 例 えば、 シャープ成分を強調する視覚処理などを実現することが可能となる。
さらに、 変換信号処理部 6 0 2は、 強調された目標コントラスト信号 J Sとァ ンシャープ信号 U Sとの比に対してダイナミックレンジ圧縮を行う演算に基づい て視覚処理信号 K Sを出力する。 これにより、 例えば、 シャープ成分を強調しつ つ、 ダイナミックレンジの圧縮を行う視覚処理などを実現することが可能となる。
《変換信号処理部 6 0 2の構成》
変換信号処理部 6 0 2は、 目標コントラスト信号 J Sにおける画素ごとの輝度 値に空間処理を実行しアンシャープ信号 U Sを出力する空間処理部 6 2 2と、 目 標コントラスト信号 J Sとアンシャープ信号 U Sとを用いて、 目標コントラスト 信号 J Sに対する視覚処理を行い、 視覚処理信号 K Sを出力する視覚処理部 6 2 3とを備えている。
空間処理部 6 2 2は、 視覚処理装置 1 (図 1参照) が備える空間処理部 2と同 様の動作を行うため、 詳しい説明を省略する。 視覚処理部 623は、 除算部 625と、 強調処理部 626と、 0 圧縮部62 8および乗算部 629を有する出力処理部 627とを備えている。
除算部 625は、 目標コントラスト信号 J Sを第 1の入力、 アンシャープ信号 USを第 2の入力とし、 目標コントラスト信号 J Sをアンシャープ信号 USで除 算した除算信号 RSを出力する。 強調処理部 626は、 除算信号 RSを第 1の入 力、 目標コントラスト C 1を第 2の入力、 実コントラスト C2を第 3の入力とし、 強調処理信号 TSを出力する。
出力処理部 627は、 目標コントラスト信号 J Sを第 1の入力、 強調処理信号 TSを第 2の入力、 目標コントラスト C 1 を第 3の入力、 実コントラスト C2を 第 4の入力とし、 視覚処理信号 KSを出力する。 DR圧縮部 628は、 目標コン 卜ラスト信号 J Sを第 1の入力、 目標コントラスト C 1を第 2の入力、 実コント ラスト C 2を第 3の入力とし、 ダイナミックレンジ (DR) 圧縮された DR圧縮 信号 DRSを出力する。 乗算部 629は、 DR圧縮信号 DRSを第 1の入力、 強 調処理信号 T Sを第 2の入力とし、 視覚処理信号 K Sを出力する。
《変換信号処理部 602の作用》
変換信号処理部 602は、 目標コントラスト C 1 (値 [m] ) および実コント ラスト C2 (値 [n] ) を用いて、 目標コントラスト信号 J S (値 [A] ) を Γ 式 M2J により変換し、 視覚処理信号 KS (値 [C] ) を出力する。 ここで、 式 M2は、 ダイナミックレンジ圧縮関数 F4と強調関数 F5とを用いて、 C=F4 (A) * F 5 (A/B) とあらわされる。 なお、 値 [B] は、 目標コントラスト 信号 J Sを空間処理したアンシャープ信号 U Sの値である。
ダイナミックレンジ圧縮関数 F 4は、 上に凸の単調増加関数である 「べき関数 J であり、 F ( X ) =χ Λ rと表される。 ダイナミックレンジ圧縮関数 F4の 指数 rは、 常用対数を用いて、 r= I o g (n) / I o g (m) と表される。 強 調関数 F 5は、 「べき関数」 であり、 F 5 ( X ) = χ Λ (1 -r) と表される。 以下、 式 M2と変換信号処理部 602の各部の動作との関係について説明を加 える。
空間処理部 622は、 値 [A] の目標コントラスト信号 J Sに対して空間処理 を行い、 値 [B] のアンシャープ信号 USを出力する。 除算部 625は、 値 [A] の目標コントラスト信号 J Sを値 [B] のアンシャ ープ信号 USで除算し、 値 [AZB] の除算信号 RSを出力する。 強調処理部 6 26は、 強調関数 F 5を用いて、 値 [A/B] の除算信号 RSから値 [F 5 (A ZB) ] の強調処理信号 TSを出力する。 DR圧縮部 628は、 ダイナミックレ ンジ圧縮関数 F4を用いて、 値 [A] の目標コントラスト信号 J Sから値 [F4 (A) ] の DR圧縮信号 DRSを出力する。 乗算部 629は、 値 [F4 (A) ] の DR圧縮信号 DRSと値 [F 5 (A/B) ] の強調処理信号 T Sとを乗算し、 値 [F4 (A) * F5 (A/B) ] の視覚処理信号 K Sを出力する。
なお、 ダイナミックレンジ圧縮関数 F 4、 強調関数 F 5を用いた計算は、 それ ぞれの関数に対する 1次元の L U Tを用いて行われても良いし、 LUTを用いな いで行われても良い。
《変換信号処理部 602の効果》
視覚処理信号 K Sにおける視覚的なダイナミックレンジは、 ダイナミックレン ジ圧縮関数 F 4の値によリ決定される。
図 26を用いて、 式 M2による変換をさらに詳しく説明する。 図 26は、 目標 コントラスト信号 J Sの値 (横軸) と、 目標コントラスト信号 J Sにダイナミツ クレンジ圧縮関数 F 4を適用した値 (縦軸) との関係を示すグラフである。 図 2 6が示すように、 目標コントラスト信号 J Sのダイナミックレンジは、 ダイナミ ックレンジ圧縮関数 F4により圧縮される。 より詳しくは、 ダイナミックレンジ 圧縮関数 F4により、 値 [1 /m~1. 0 ] の範囲の目標コントラスト信号 J S は、 値 [1 /n~1. 0] の範囲に変換される。 この結果、 視覚処理信号 KSに おける視覚的なダイナミックレンジは、 i Zn (最小値:最大値 =1 : n ) へと 圧縮される。
ここで、 実コントラスト C 2について説明する。 実コントラスト C2の値 [n ] は、 表示環境の環境光のもとでの表示画像の視覚的なコントラス卜値として設 定されている。 すなわち、 実コントラスト C2の値 [n] は、 目標コントラス卜 C 1の値 [m] を、 表示環境の環境光の輝度による影響分だけ低下させた値とし て決定することができる。
このようにして設定された実コントラスト C2の値 [n] を用いているため、 式 M 2により目標コントラスト信号 J Sのダイナミックレンジは、 1 : mから 1 : nへと圧縮されることとなる。 なお、 ここで 「ダイナミックレンジ」 とは、 信 号の最小値と最大値との比を意味している。
一方、 視覚処理信号 KSにおける局所的なコントラストの変化は、 目標コント ラスト信号 J Sの値 [A] と視覚処理信号 KSの値 [C] との変換の前後におけ る変化量の比として表される。 ここで、 局所的すなわち狭い範囲におけるアンシ ャ一プ信号 USの値 [B] は一定と見なせる。 このため、 式 M 2における値 Gの 変化量と値 Aの変化量との比は 1となり、 目標コントラスト信号 J Sと視覚処理 信号 KSとの局所的なコントラストは変化しないこととなる。
人間の視覚は、 局所コントラストを維持すれば、 全体的なコントラス卜が低下 していても同じコントラストに見える性質がある。 このため、 変換信号処理部 6 02では、 目標コントラス卜信号 J Sのダイナミックレンジの圧縮を行いつつ、 視覚的なコントラストを低下させない視覚処理を実現することが可能となる。
〈実コントラスト変換部 603〉
図 24を用いて、 実コントラスト変換部 603の詳細について説明する。 実コントラスト変換部 603は、 視覚処理信号 KSを、 表示装置 (図示しない ) に入力可能な範囲の画像データに変換する。 表示装置に入力可能な範囲の画像 データとは、 例えば、 画像の輝度値を、 値 [0. 0〜1. 0] の階調で表した画 像データである。
実コントラスト変換部 603は、 実コントラスト C 2 (値 [n] ) を用いて、 視覚処理信号 KS (値 [C] ) を 「式 M21」 により変換し、 出力信号 OS (値 [Q] ) を出力する。 ここで、 式 M21は、 Q= { n/ (n - 1 ) } *C一 {1 / (n - 1 ) } である。
図 27を用いて、 式 M21による変換をさらに詳しく説明する。 図 27は、 視 覚処理信号 KSの値 (横軸) と出力信号 OSの値 (縦軸) との関係を示すグラフ である。 図 27が示すように、 実コントラスト変換部 603により、 値 [1 /n 〜1. 0] の範囲の視覚処理信号 KSが値 [0. 0~1. 0] の範囲の出力信号 OSに変換される。 ここで、 それぞれの視覚処理信号 KSの値に対して、 出力信 号 OSの値は減少することとなる。 この減少分は、 表示画像の各輝度が環境光か ら受ける影響に相当している。
なお、 実コントラスト変換部 603では、 値 [1 « n] 以下の視覚処理信号 K Sが入力される場合には、 出力信号 OSは、 値 [0] に変換される。 また、 実コ ントラスト変換部 603では、 値 [1 ] 以上の視覚処理信号 KSが入力される場 合には、 出力信号 OSは、 値 [1 ] に変換される。
〈視覚処理装置 600の効果〉
視覚処理装置 600は、 第 1実施形態で説明した視覚処理装置 21と同様の効 果を奏する。 以下、 視覚処理装置 600に特徴的な効果を記載する。
( i )
視覚処理装置 600の出力信号 O Sを表示する表示環境に環境光が存在する場 合、 出力信号 OSは、 環境光の影響を受けて視覚される。 しかし、 出力信号 OS は、 実コントラスト変換部 603により、 環境光の影響を補正する処理が施され た信号である。 すなわち、 環境光の存在する表示環境のもとでは、 表示装置に表 示された出力信号 OSは、 視覚処理信号 KSの特性を持つ表示画像として視覚さ れる。
視覚処理信号 KSの特性とは、 第 1実施形態で説明した視覚処理装置 21の出 力信号 OS (図 1 6参照) などと同様に、 局所的なコントラストを維持しつつ画 像全体のダイナミックレンジが圧縮されている、 というものである。 すなわち、 視覚処理信号 KSは、 局所的には表示画像が最適に表示される目標コントラス卜 C 1を維持しつつ、 環境光の影響下において表示可能なダイナミックレンジ (実 コントラスト C 2に相当) に圧縮された信号となっている。
このため、 視覚処理装置 600では、 環境光の存在によって低下するコントラ ス卜の補正を行いつつ、 視覚特性を利用した処理により視覚的なコントラストを 維持することが可能となる。
〈視覚処理方法〉
図 28を用いて、 上記視覚処理装置 600と同様の効果を奏する視覚処理方法 を説明する。 なお、 それぞれのステップの具体的な処理は、 上記視覚処理装置 6 00における処理と同様であるため、 説明を省略する。
図 28に示す視覚処理方法では、 まず、 設定された目標コントラスト C 1およ ぴ実コントラスト C 2が取得される (ステップ S 601 ) 。 次に、 取得された目 標コントラスト C 1 を用いて、 入力信号 I Sに対する変換が行われ (ステップ S 602) 、 目標コントラスト信号 J Sが出力される。 次に、 目標コントラスト信 号 J Sに対して空間処理が行われ (ステップ S 603) 、 アンシャープ信号 US が出力される。 次に、 目標コントラスト信号 J Sがアンシャープ信号 USにより 除算され (ステップ S 604) 、 除算信号 RSが出力される。 除算信号 RSは、 目標コントラスト C 1および実コントラスト C 2により決定される指数を持つ 「べき関数」 である強調関数 F 5により強調され (ステップ S 605) 、 強調処 理信号 TSが出力される。 一方、 目標コントラスト信号 J Sは、 目標コントラス ト C1および実コントラスト C2により決定される指数を持つ 「べき関数」 であ るダイナミックレンジ圧縮関数 F 4によリダイナミックレンジ圧縮され (ステツ プ S606) 、 D R圧縮信号 D RSが出力される。 次に、 ステップ S 605によ リ出力された強調処理信号 TSとステップ S606により出力された DR圧縮信 号 DRSは、 乗算され (ステップ S607) 、 視覚処理信号 KSが出力される。 次に、 実コントラスト C 2を用いて、 視覚処理信号 KSに対する変換が行われ
(ステップ S 608) 、 出力信号 OSが出力される。 入力信号 I Sのすベての画 素についてステップ S 602〜ステップ S 608の処理が繰り返される (ステツ プ S 609) 。
図 28に示す視覚処理方法のそれぞれのステップは、 視覚処理装置 600やそ の他のコンピュータなどにおいて、 視覚処理プログラムとして実現されるもので あっても良い。 また、 ステップ S 604〜ステップ S 607までの処理は、 式 M 2を計算することによリー度に行われるものであってもかまわない。
〈変形例〉
本発明はかかる上記実施形態に限定されるものではなく、 本発明の範囲を逸脱 することなく種々の変形又は修正が可能である。
( ί ) 式 M 2—強調関数 F 5を備えない場合一
上記実施形態では、 変換信号処理部 602は、 式 Μ 2に基づいて視覚処理信号 KSを出力すると記載した。 ここで、 変換信号処理部 602は、 ダイナミックレ ンジ強調関数 F 4のみに基づいて視覚処理信号 KSを出力するものであってもよ し、。 この場合、 変形例としての変換信号処理部 602では、 空間処理部 622、 除算部 625、 強調処理部 626、 乗算部 629を備える必要がなく、 D R圧縮 部 628のみを備えていればよい。
変形例としての変換信号処理部 602では、 環境光の影響下において表示可能 なダイナミックレンジに圧縮された視覚処理信号 KSを出力することが可能とな る。
( i i ) 強調関数 F 5 _指数 'その他の変形例一
上記実施形態では、 強調関数 F5は、 「べき関数」 であり、 F 5 (X) =x ^ (1 - ) と表される、 と記載した。 ここで、 強調関数 F 5の指数は、 目標コン トラスト信号 J Sの値 [A] またはアンシャープ信号 USの値 [B] の関数であ つてもよい。
以下、 具体例 《1》 ~ 《6》 を示す。
《1》
強調関数 F 5の指数は、 目標コントラスト信号 J Sの値 [A] の関数であって 、 目標コントラスト信号 J Sの値 [A] がアンシャープ信号 U Sの値 [B] より も大きい場合に、 単調減少する関数である。 より具体的には、 強調関数 F 5の指 数は、 Q (A) * (1 -r) と表され、 関数 Q (A) は、 図 29に示すよう に目標コントラスト信号 J Sの値 [A] に対して単調減少する関数である。 なお 、 関数 Q (A) の最大値は、 [1. 0] となっている。
この場合、 強調関数 F 5により高輝度部の局所コントラストの強調量が少なく なる。 このため、 着目画素の輝度が周囲画素の輝度よりも高い場合に、 高輝度部 の局所コントラストの強調過多が抑制される。 すなわち、 着目画素の輝度値が高 輝度へと飽和し、 いわゆる白飛びの状態になることが抑制される。
《2》
強調関数 F 5の指数は、 目標コントラスト信号 J Sの値 [A] の関数であって 、 目標コントラスト信号 J Sの値 [A] がアンシャープ信号 USの値 [B] より も小さい場合に、 単調増加する関数である。 より具体的には、 強調関数 F5の指 数は、 2 (A) * (1—7 と表され、 関数 QT 2 (A) は、 図 30に示すよう に目標コントラスト信号 J Sの値 [A] に対して単調増加する関数である。 なお 、 関数《2 (A) の最大値は、 [1. 0] となっている。
この場合、 強調関数 F 5により低輝度部の局所コントラス卜の強調量が少なく なる。 このため、 着目画素の輝度が周囲画素の輝度よりも低い場合に、 低輝度部 の局所コントラストの強調過多が抑制される。 すなわち、 着目画素の輝度値が低 輝度へと飽和し、 いわゆる黒潰れの状態になることが抑制される。
《3》
強調関数 F 5の指数は、 目標コントラスト信号 J Sの値 [A] の関数であって 、 目標コントラスト信号 J Sの値 [A] がアンシャープ信号 USの値 [B] より も大きい場合に、 単調増加する関数である。 より具体的には、 強調関数 F 5の指 数は、 3 (A) * (1 -r) と表され、 関数 3 (A) は、 図 31に示すよう に目標コントラスト信号 J Sの値 [A] に対して単調増加する関数である。 なお 、 関数 3 (A) の最大値は、 [1. 0] となっている。
この場合、 強調関数 F 5により低輝度部の局所コントラス卜の強調量が少なく なる。 このため、 着目画素の輝度が周囲画素の輝度よりも高い場合に、 低輝度部 の局所コントラストの強調過多が抑制される。 画像中の低輝度部は、 信号レベル が小さいため、 相対的にノイズの割合が高くなつているが、 このような処理を行 うことで、 SN比の劣化を抑制することが可能となる。
《4》
強調関数 F5の指数は、 目標コントラスト信号 J Sの値 [A] とアンシャープ 信号 USの値 [B] との関数であって、 値 [A] と値 [B] との差の絶対値に対 して単調減少する関数である。 言い換えれば、 強調関数 F 5の指数は、 値 [A] と値 [B] との比が 1に近い程増加する関数であるとも言える。 より具体的には 、 強調関数 F5の指数は、 a4 (A, B) * (1 -r) と表され、 関数 0?4 (A , B) は、 図 32に示すように値 [A— B] の絶対値に対して単調減少する関数 である。
この場合、 周囲画素との明暗差が小さい着目画素における局所的なコントラス トを特に強調し、 周囲画素との明暗差が大きい着目画素における局所的なコント ラストの強調を抑制するということが可能となる。
《5》 上記 《1》 ~ 《4》 の強調関数 F 5の演算結果には、 上限あるいは下限が設け られていてもよい。 具体的には、 値 [F5 (A/B) ] が所定の上限値を超える 場合には、 強調関数 F 5の演算結果として所定の上限値が採用される。 また、 値 CF5 (A/B) ] が所定の下限値を超える場合には、 強調関数 F 5の演算結果 として所定の下限値が採用される。
この場合、 強調関数 F 5による局所的なコントラス卜の強調量を適切な範囲に 制限することが可能となり、 過多あるいは過少のコントラス卜の強調が抑制され る。
《6》
なお、 上記 《1》 ~ 《5》 は、 第 1実施形態において強調関数 F 5を用いた演 算を行う場合にも同様に適用可能である (例えば、 第 1実施形態 〈プロファイル データ〉 (2) あるいは (3) など) 。 なお、 第 1実施形態では、 値 [A] は、 入力信号 I Sの値であり、 値 [B] は、 入力信号 I Sを空間処理したアンシヤー プ信号 U Sの値である。
( i i ί ) 式 M2—ダイナミックレンジ圧縮を行わない場合一
上記実施形態では、 変換信号処理部 602は、 第 1実施形態で示した視覚処理 装置 21 と同様の構成を有している、 と説明した。 ここで、 変形例としての変換 信号処理部 602は、 第 1実施形態で示した視覚処理装置 31 (図 1 9参照) と 同様の構成を有するものであってもよい。 具体的には、 視覚処理装置 31におけ る入力信号 I Sを目標コントラスト信号 J Sと見なし、 出力信号 OSを視覚処理 信号 KSと見なすことにより変形例としての変換信号処理部 602が実現される。 この場合、 変形例としての変換信号処理部 602では、 目標コントラス卜信号 J S (値 [A] ) およびアンシャープ信号 US (値 [B] ) に対して、 「式 M 3 J に基づいて視覚処理信号 KS (値 [G] ) が出力される。 ここで式 M 3とは、 強調関数 F 5を用いて、 C = A* F 5 (A/B) と表される。
式 M 3を用いた処理では、 入力信号 I Sに対するダイナミックレンジの圧縮は 施されないが、 局所的なコントラス卜を強調することができる。 この局所的なコ ントラス卜の強調の効果により、 「視覚的に」 ダイナミックレンジが圧縮あるい は伸張された様な印象を与えることが可能となる。 、 なお、 本変形例に対しても、 上記 〈変形例〉 ( i i ) 《1》 ~ 《5》 を同様に 適用可能である。 すなわち、 本変形例において、 強調関数 F 5は、 「べき関数」 であり、 その指数は、 上記 〈変形例〉 ( i i ) 《1》 ~ 《4》 で説明した関数 Of 1 (A) , 2 (A) , Of 3 (A) , Of 4 (A, B) と同様の傾向を持つ関数で あってよい。 また、 上記 〈変形例〉 ( i ί ) 《5》 で説明したように、 強調関数 F 5の演算結果には、 上限あるいは下限が設けられていてもよい。
( i V) パラメータ自動設定
上記実施形態では、 目標コントラス卜設定部 604および実コントラス卜設定 部 605は、 ユーザに対して目標コントラスト C 1および実コントラスト C 2の 値を入力イン、ターフ: cイスなどを介して設定させる、 と説明した。 ここで、 目標 コントラスト設定部 604および実コントラスト設定部 605は、 目標コントラ スト C 1および実コントラスト C 2の値を自動設定できるものであってもよい。
《1》 ディスプレイ
出力信号 OSを表示する表示装置が PD P, LCD, CRTなどのディスプレ ィであり、 環境光の無い状態で表示できる白輝度 (白レベル) と黒輝度 (黒レベ ル) とが既知の場合に、 実コントラスト C2の値を自動設定する実コントラスト 設定部 605について説明する。
図 33に実コントラスト C 2の値を自動設定する実コントラスト設定部 605 を示す。 実コントラスト設定部 605は、 輝度測定部 605 aと、 記憶部 605 bと、 計算部 605 cとを備えている。
輝度測定部 605 aは、 出力信号 OSを表示するディスプレイの表示環境にお ける環境光の輝度値を測定する輝度センサである。 記憶部 605 bは、 出力信号 OSを表示するディスプレイが環境光の無い状態で表示できる白輝度 (白レベル ) と黒輝度 (黒レベル) とを記憶している。 計算部 605 cは、 輝度測定部 60 5 aと記憶部 605 bとからそれぞれ値を取得し、 実コントラスト C 2の値を計 算する。
計算部 605 cの計算の一例を説明する。 計算部 605 cは、 輝度測定部 60 5 aから取得した環境光の輝度値を記憶部 605 bが記憶する黒レベルの輝度値 および白レベルの輝度値のそれぞれに加算する。 さらに、 計算部 605 cは、 黒 レベルの輝度値への加算結果を用いて、 白レベルの輝度値への加算結果を除算し た値を実コントラスト C 2の値 [ n ] として出力する。 これにより、 実コントラ スト C 2の値 [ n ] は、 環境光が存在する表示環境においてディスプレイが表示 するコントラスト値を示すこととなる。
また、 図 3 3に示した記憶部 6 0 5 bは、 ディスプレイが環境光の無い状態で 表示できる白輝度 (白レベル) と黒輝度 (黒レベル) との比を目標コントラスド C 1の値 [m] として記憶しているものであってもよい。 この場合、 実コントラ スト設定部 6 0 5は、 目標コントラスト C 1を自動設定する目標コントラスト設 定部 6 0 4の機能を同時に果たすこととなる。 なお、 記憶部 6 0 5 bは、 比を記 憶しておらず、 比は計算部 6 0 5 Gにより計算されるものであってもよい。
《2》 プロジェクタ
出力信号 O Sを表示する表示装置がプロジェクタなどであリ、 環境光の無い状 態で表示できる白輝度 (白レベル) と黒輝度 (黒レベル) とがスクリーンまでの 距離に依存する場合に、 実コントラスト C 2の値を自動設定する実コントラス卜 設定部 6 0 5について説明する。
図 3 4に実コントラスト C 2の値を自動設定する実コントラス卜設定部 6 0 5 を示す。 実コントラスト設定部 6 0 5は、 輝度測定部 6 0 5 dと、 制御部 6 0 5 eとを備えている。
輝度測定部 6 0 5 dは、 プロジェクタにより表示された出力信号 O Sの表示環 境における輝度値を測定する輝度センサである。 制御部 6 0 5 eは、 プロジェク タに対して、 白レベルと黒レベルとの表示を行わせる。 さらに、 それぞれのレべ ルが表示される際の輝度値を輝度測定部 6 0 5 dから取得し、 実コントラスト C 2の値を計算する。
図 3 5を用いて、 制御部 6 0 5 eの動作の一例を説明する。 まず制御部 6 0 5 eは、 環境光の存在する表示環境においてプロジェクタを動作させ、 白レベルの 表示を行わせる (ステップ S 6 2 0 ) 。 制御部 6 0 5 eは、 輝度測定部 6 0 5 d から、 測定された白レベルの輝度を取得する (ステップ S 6 2 1 ) 。 次に、 制御 部 6 0 5 eは、 環境光の存在する表示環境においてプロジェクタを動作させ、 黒 レベルの表示を行わせる (ステップ S 6 2 2 ) 。 制御部 6 0 5 eは、 輝度測定部 605 dから、 測定された黒レベルの輝度を取得する (ステップ S 623) 。 制 御部 605 eは、 取得した白レベルの輝度値と黒レベルの輝度値との比を計算し 、 実コントラスト G2の値として出力する。 これにより、 実コントラスト C2の 値 [n] は、 環境光が存在する表示環境においてプロジェクタが表示するコント ラスト値を示すこととなる。
また、 上記と同様にして、 環境光が存在しない表示環境における白レベルと黒 レベルとの比を計算することにより、 目標コントラスト C 1の値 [m] を導出す ることも可能である。 この場合、 実コントラスト設定部 605は、 目標コントラ スト C 1を自動設定する目標コントラスト設定部 604の機能を同時に果たすこ ととなる。
( V ) 他の信号空間
上記実施形態では、 視覚処理装置 600における処理は、 入力信号 I Sの輝度 について行うと説明した。 ここで、 本発明は、 入力信号 I Sが YCb C r色空間 で表されている場合のみに有効であるものではない。 入力信号 I Sは、 YUV色 空間、 L a b色空間、 L u v色空間、 Y I Q色空間、 X Y Z色空間、 Y P b P r 色空間などで表されているものでもよい。 これらの場合に、 それぞれの色空間の 輝度、 明度に対して、 上記実施形態で説明した処理を実行することが可能である また、 入力信号 I Sが RGB色空間で表されている場合に、 視覚処理装置 60 0における処理は、 RGBそれぞれの成分に対して独立に行われるものであって もよい。 すなわち、 入力信号 I Sの RGB成分に対して、 目標コントラスト変換 部 601による処理が独立に行われ、 目標コントラスト信号 J Sの RGB成分が 出力される。 さらに、 目標コントラスト信号 J Sの RGB成分に対して、 変換信 号処理部 602による処理が独立に行われ、 視覚処理信号 KSの RGB成分が出 力される。 さらに、 視覚処理信号 KSの RGB成分に対して、 実コントラスト変 換部 603による処理が独立に行われ、 出力信号 OSの RGB成分が出力される 。 ここで、 目標コントラスト C 1および実コントラス卜 C 2は、 RGB成分それ ぞれの処理において、 共通の値が用いられる。
( V i ) 色差補正処理 視覚処理装置 600は、 変換信号処理部 602によリ処理された輝度成分の影 響により出力信号 OSの色相が入力信号 I Sの色相と異なるものとなることを抑 制するため、 色差補正処理部をさらに備えるものであってもよい。
図 36に色差補正処理部 608を備える視覚処理装置 600を示す。 なお、 図 24に示す視覚処理装置 600と同様の構成については同じ符号を付す。 なお、 入力信号 I Sは、 YCbC rの色空間を有するとし、 Y成分については、 上記実 施形態で説明したのと同様の処理が行われるとする。 以下、 色差補正処理部 60 8について説明する。
色差補正処理部 608は、 目標コントラスト信号 J Sを第 1の入力 (値 [Y i n] ) 、 視覚処理信号 KSを第 2の入力 (値 [Y o u t] ) 、 入力信号 I Sの C b成分を第 3の入力 (値 [CB i n] ) 、 入力信号 I Sの C r成分を第 4の入力 (値 [CR i n] ) とし、 色差補正処理された Cb成分を第 1の出力 (値 [CB o u t] ) , 色差補正処理された C r成分を第 2の出力 (値 [CRo u t] ) と する。
図 37に色差補正処理の概要を示す。 色差補正処理部 608は、 [Y i n] 、 [Y o u t] 、 [CB i π] 、 [C R ί n] の 4入力を有し、 この 4入力を演算 することにより、 [CBo u t] 、 [CR o u t ] の 2出力を得る。
[CBo u t] と [CRo u t] とは、 [Y i n] と [Y o u t] との差およ び比により、 [CB i n] と [CR i n] とを補正する次式に基づいて導出され る。
[CBo u t] は、 a l * ( [Y o u t - [Y i n] ) * [CB i n] + a 2 * (1 - [Y o u t] / [Y i n] ) * [C B i n] + a 3 * ( [Y o u t] - [Y i n] ) * [CR i n] +a 4 * ( 1 - [ Y o u t ] / [ Y i n ] ) * [ CR i n] + [CB i n] 、 に基づいて導出される (以下、 式 CBという) 。
[CRo u t] は、 a 5 * ( [Yo u t] — [Y i n] ) * [C B i n] + a
6 * ( 1 - [Y o u t ] / [Y i n] ) * [CB i n] +a 7 * ( [Y o u t] 一 [Y i n] ) * [CR i n] + a 8 * ( 1― [Y o u t] / [Y i n] ) * [ CR i n] + [CR i n] 、 に基づいて導出される (以下、 式 CRという) 。 式 GBおよび式 CRにおける係数 a 1 ~a 8には、 以下に説明する推定演算に より事前に視覚処理装置 600の外部の計算装置などによって決定された値が用 いられている。
図 38を用いて、 計算装置などにおける係数 a 1 ~a 8の推定演算について説 明する。
まず、 [Y i n] 、 [Y o u t] 、 [CB i n] 、 [GR i n] の 4入力が取 得される (ステップ S 630) 。 それぞれの入力の値は、 係数 a 1 ~a 8を決定 するためにあらかじめ用意されたデータである。 例えば、 [Y i n] 、 [CB i n] 、 [CR i n] としては、 それぞれが取りうる全ての値を所定の間隔で間引 いた値などが用いられる。 さらに [Y 0 U t] としては、 [Y i n] の値を変換 信号処理部 602に入力した場合に出力されうる値を所定の間隔で間引いた値な どが用いられる。 このようにして用意されたデータが、 4入力として取得される 取得された [Υ ί n] 、 [CB i n] 、 [C R i n ] は、 L a b色空間に変換 され、 変換された L a b色空間における色度値 [A i n] および [B i n] が計 算される (ステップ S 631 ) 。
次に、 デフォルトの係数 a 1〜a 8を用いて、 「式 CB」 および 「式 CR」 が 計算され、 [CBo u t] および [GRo u t ] の値が取得される (ステップ S 632) 。 取得された値および [Y o u t ] は、 L a b色空間に変換され、 変換 された L a b色空間における色度値 [Ao u t] および [Bo u t] が計算され る (ステップ S 633) 。
次に、 計算された色度値 [A ί n:] 、 [B i n] , [A o u t ] 、 [Bo u t ] を用いて、 評価関数が計算され (ステップ S634) 、 評価関数の値が所定の 閾値以下となるか判断される。 ここで、 評価関数は、 [A i n] および [B i n ] と、 [A o u t ] および [Bo u t] との色相の変化が小さくなる場合に小さ な値となる関数であり、 例えば、 それぞれの成分の偏差の自乗和といった関数で ある。 より具体的には、 評価関数は、 ( [A i n] — [Ao u t] ) Λ 2+ ( [ B i n] — [Bo u t] ) Λ 2、 などである。
評価関数の値が所定の閾値よりも大きい場合 (ステップ S 635) 、 係数 a 1 〜a 8が修正され (ステップ S 636) 、 新たな係数を用いて、 ステップ S 63 2〜ステップ S 635の演算が繰り返される。
評価関数の値が所定の閾値よりも小さい場合 (ステップ S 635) 、 評価関数 の計算に用いられた係数 a 1〜a 8が推定演算の結果として出力される (ステツ プ S 637) 。
なお、 推定演算においては、 あらかじめ用意した [Y i n] 、 [Yo u t] , [CB i n] 、 [CRに n] の 4入力の組み合わせのうちの 1つを用いて係数 a 1 ~a 8を推定演算してもよいが、 組み合わせのうちの複数を用いて上述の処理 を行い、 評価関数を最小とする係数 a 1 ~a 8を推定演算の結果として出力して もよい。
〔色差補正処理における変形例〕 上記色差補正処理部 608では、 目標コントラスト信号 J Sの値を [Y i n] 、 視覚処理信号 KSの値を [Yo u t] 、 入力信号 I Sの Cb成分の値を [CB i n] 、 入力信号 I Sの C r成分の値を [CR i n] 、 出力信号 OSの Cb成分 の値を [CB o u t] 、 出力信号 OSの C r成分の値を [CRo u t] とした。 ここで、 [丫 i n] 、 [Y o u t] % [CB i n] 、 [CR i n] 、 [CBo u t] 、 [CRo u t] は、 他の信号の値を表すものであってもよい。
例えば、 入力信号 I Sが RGB色空間の信号である場合、 目標コントラスト変 換部 601 (図 24参照) は、 入力信号 I Sのそれぞれの成分に対して処理を行 う。 この場合、 処理後の RGB色空間の信号を YC b C r色空間の信号に変換し 、 その Y成分の値を [Υ ί n] 、 Cb成分の値を [CB i n] 、 C r成分の値を [C R i n] としてもよい。
さらに、 出力信号 OSが RGB色空間の信号である場合、 導出された [Y o u t] 、 [CBo u t] 、 [CRo u t] を RGB色空間に変換し、 それぞれの成 分に対して実コントラスト変換部 603による変換処理を行い、 出力信号 OSと してもよい。
《2》
色差補正処理部 608は、 変換信号処理部 602の処理の前後における信号値 の比を用いて、 色差補正処理部 608に入力される RGB成分のそれぞれを補正 処理するものであってもよい。
図 39を用いて、 変形例としての視覚処理装置 600の構造について説明する 。 なお、 図 36に示す視覚処理装置 600とほぼ同様の機能を果たす部分につい ては、 同じ符号を付し、 説明を省略する。.変形例としての視覚処理装置 600は 、 特徴的な構成として、 輝度信号生成部 61 0を備えている。
RGB色空間の信号である入力信号 I Sのそれぞれの成分は、 目標コントラス 卜変換部 601において、 RGB色空間の信号である目標コントラスト信号 J S に変換される。 詳しい処理については上述したため説明を省略する。 ここで、 目 標コントラスト信号 J Sのそれぞれの成分の値を [R i n] 、 [G i n] , [B i n] とする。
輝度信号生成部 61 0は、 目標コントラスト信号 J Sのそれぞれの成分から、 値 [Y i n] の輝度信号を生成する。 輝度信号は、 RGBのそれぞれの成分の値 をある比率で足し合わせることにより求められる。 例えば、 値 [Y i n] は、 次 式、 [Y i n] =0. 299 * [R i n] +0. 587 * [G i n] +0. 1 1 4* [B i n] 、 などにより求められる。
変換信号処理部 602は、 値 [Y i n] の輝度信号を処理し、 値 [Y o u t] の視覚処理信号 KSを出力する。 詳しい処理は、 目標コントラスト信号 J Sから 視覚処理信号 KSを出力する変換信号処理部 602 (図 36参照) における処理 と同様であるため説明を省略する。
色差補正処理部 608は、 輝度信号 (値 [Y i n] ) 、 視覚処理信号 KS (値 [Y o u t] ) 、 目標コントラスト信号 J S (値 [R i n] 、 [G i n] , [B i n] ) を用いて、 RGB色空間の信号である色差補正信号 (値 [Ro u t:] 、 [Go u t] , [B o u t ] ) を出力する。
具体的には、 色差補正処理部 608では、 値 [Y i n] と値 [Y o u t] との 比 (値 [ [Y o u t] Z [Y i n] ] ) が計算される。 計算された比は、 色差補 正係数として、 目標コントラスト信号 J S (値 [R i n] 、 [G i n] , [B i n] ) のそれぞれの成分に乗算される。 これにより、 色差補正信号 (値 [Ro U t] 、 [Go u t] , [B o u t ] ) が出力される。
実コントラス卜変換部 603は、 RGB色空間の信号である色差補正信号のそ れぞれの成分に対して変換を行い、 R G B色空間の信号である出力信号 O Sに変 換する。 詳しい処理については、 上述したため説明を省略する。
変形例としての視覚処理装置 600では、 変換信号処理部 602における処理 は、 輝度信号に対する処理のみであり、 RGB成分のそれぞれについて処理を行 う必要がない。 このため、 RGB色空間の入力信号 I Sに対しての視覚処理の負 荷が軽減される。
《3》
「式 CB」 および 「式 CRJ は、 一例であり、 他の式が用いられてもよい。
(V i i ) 視覚処理部 623
図 24に示す視覚処理部 623は、 2次元 L U Tにより形成されていてもよい この場合、 2次元 LUTは、 目標コントラスト信号 J Sの値とアンシャープ信 号 USの値とに対する視覚処理信号 KSの値を格納している。 より具体的には、 [第 1実施形態] 〈プロファイルデータ〉 (2) 《第 2プロファイルデータ》で 説明した 「式 M2」 に基づいて視覚処理信号 KSの値が定められている。 なお、 「式 M2J 中、 値 Aとして目標コントラスト信号 J Sの値が、 値 Bとしてアンシ ヤープ信号 U Sの値が用いられる。
視覚処理装置 600は、 このような 2次元 LUTを記憶装置 (図示せず) に複 数備えている。 ここで、 記憶装置は、 視覚処理装置 600に内臓されていてもよ いし、 有線あるいは無線を介して外部に接続されていてもよい。 記憶装置に記憶 されるそれぞれの 2次元 L U Tは、 目標コントラス卜 C 1の値と実コントラス卜 C 2の値とに対して関連づけられている。 すなわち、 目標コントラスト C 1の値 と実コントラス卜 C 2の値との組み合わせのそれぞれに対して、 [第 2実施形態 ] 〈変換信号処理部 602〉 《変換信号処理部 602の作用》 で説明したのと同 様の演算が行われ、 2次元し U Tとして記憶されている。
視覚処理部 623は、 目標コントラスト C 1と実コントラスト C 2との値を取 得すると、 記憶装置に記憶されている 2次元 LUTのうち、 取得されたそれぞれ の値に関連づけられた 2次元 L UTを読み込む。 さらに、 視覚処理部 623は、 読み込んだ 2次元 L U Tを用いて、 視覚処理を行う。 具体的には、 視覚処理部 6 23は、 目標コントラス卜信号 J Sの値とアンシャープ信号 USの値とを取得し 、 取得された値に対する視覚処理信号 KSの値を 2次元 LUTから読み出し、 視 覚処理信号 KSを出力する。
[第 3実施形態]
<1 >
本発明の第 3実施形態として、 上記第 1実施形態および第 2実施形態で説明し た視覚処理装置、 視覚処理方法、 視覚処理プログラムの応用例と、 それを用いた システムとについて説明する。
視覚処理装置は、 例えば、 コンビュ タ、 テレビ、 デジタルカメラ、 携帯電話 、 PDA, プリンタ、 スキャナなど、 画像を取り扱う機器に内蔵、 あるいは接続 されて、 画像の視覚処理を行う装置であり、 LS Iなどの集積回路として実現さ れる。
より詳しくは、 上記実施形態の各機能ブロックは、 個別に 1チップ化されても 良いし、 一部又は全てを含むように 1チップ化されても良い。 なお、 ここでは、 LS I としたが、 集積度の違いにより、 I C、 システム LS し スーパ一 LS I 、 ウルトラ LS Iと呼称されることもある。
また、 集積回路化の手法は LS Iに限る のではなく、 専用回路又は汎用プロ セサで実現してもよい。 LS I製造後に、 プログラムすることが可能な F PGA (Field Progra隱 able Gate Array) や、 L S I内部の回路セルの接続や設定を 再構成可能なリコンフィギユラブル 'プロセッサ一を利用しても良い。
さらには、 半導体技術の進歩又は派生する別技術により LS Iに置き換わる集 積回路化の技術が登場すれば、 当然、 その技術を用いて機能ブロックの集積化を 行ってもよい。 バイオ技術の適応等が可能性としてありえる。
上記第 1実施形態および第 2実施形態で説明したそれぞれの視覚処理装置の各 ブロックの処理は、 例えば、 視覚処理装置が備える中央演算装置 (CPU) によ リ行われる。 また、 それぞれの処理を行うためのプログラムは、 ハードディスク 、 ROMなどの記憶装置に格納されており、 ROMにおいて、 あるいは RAMに 読み出されて実行される。
また、 図 1の視覚処理装置 1において 2次元 LUT 4は、 ハードディスク、 R O Mなどの記憶装置に格納されており、 必要に応じて参照される。 さらに、 視覚 処理部 3は、 視覚処理装置 1に直接的に接続される、 あるいはネットワークを介 して間接的に接続されるプロファイルデータ登録装置 8からプロファイルデータ の提供を受け、 2次元 L U T 4として登録する。
また、 視覚処理装置は、 動画像を取り扱う機器に内蔵、 あるいは接続されて、 フレーム毎 (フィールド毎) の画像の階調処理を行う装置であってもよい。 また、 視覚処理装置 1では、 上記第 1実施形態で説明した視覚処理方法が実行 される。
視覚処理プログラムは、 コンピュータ、 テレビ、 デジタルカメラ、 携帯電話、 P D A , プリンタ、 スキャナなど、 画像を取り扱う機器に内蔵、 あるいは接続さ れる装置において、 ハードディスク、 R O Mなどの記憶装置に記憶され、 画像の 視覚処理を実行するプログラムであり、 例えば、 C D— R O Mなどの記録媒体を 介して、 あるいはネットワークを介して提供される。
く 2〉
上記第 1実施形態および第 2実施形態で説明した視覚処理装置は、 図 4 0〜図 4 1に示す構成で表すことも可能である。
( 1 )
《構成》
図 4 0は、 例えば、 図 7を用いて示した視覚処理装置 5 2 5と同様の機能を果 たす視覚処理装置 9 1 0の構成を示すブロック図である。
視覚処理装置 9 1 0において、 センサ 9 1 1およびユーザ入力部 9 1 2は、 入 力装置 5 2 7 (図 7参照) と同様の機能を有する。 より具体的には、 センサ 9 1 1は、 視覚処理装置 9 1 0が設置される環境、 あるいは視覚処理装置 9 1 0から の出力信号 O Sが表示される環境における環境光を検出するセンサであり、 検出 した値を環境光を表すパラメータ P 1として出力する。 また、 ユーザ入力部 9 1 2は、 ユーザに対して、 環境光の強さを、 例えば、 「強■中 '弱」 の段階的に、 あるいは無段階的 (連続的) に設定させる装置であり、 設定された値を環境光を 表すパラメータ P 1 として出力する。
出力部 9 1 4は、 プロファイルデータ登録部 5 2 6 (図 7参照) と同様の機能 を有する。 より具体的には、 出力部 9 1 4は、 環境光を表すパラメータ P 1の値 に関連づけられた複数のプロファイルデータを備えている。 ここで、 プロフアイ ルデータとは、 入力信号 I Sと入力信号 I Sを空間処理した信号とに対する出力 信号 O Sの値を与えるテーブル形式のデータである。 さらに、 出力部 9 1 4は、 取得した環境光を表すパラメータ P 1の値に対応するプロファイルデータを輝度 調整パラメータ P 2として変換部 9 ·! 5に出力する。
変換部 9 1 5は、 空間処理部 2および視覚処理部 3 (図 7参照) と同様の機能 を有する。 変換部 9 1 5は、 視覚処理の対象となる対象画素 (着目画素) の輝度 と、 対象画素の周辺に位置する周辺画素の輝度と、 輝度調整パラメータ P 2とを 入力とし、 対象画素の輝度を変換し、 出力信号 O Sを出力する。
より具体的には、 変換部 9 1 5は、 対象画素と周辺画素とを空間処理する。 さ らに、 変換部 9 1 5は、 対象画素と空間処理した結果とに対応する出力信号 O S の値をテーブル形式の輝度調整パラメータ P 2から読み出し、 出力信号 O Sとし て出力する。
《変形例》
( 1 )
上記構成において、 輝度調整パラメータ P 2は、 上記したプロファイルデータ に限定されるものではない。 例えば、 輝度調整パラメータ P 2は、 対象画素の輝 度と周辺画素の輝度とから出力信号 O Sの値を演算する際に用いられる係数マト リクスデータであってもよい。 ここで、 係数マトリクスデータとは、 対象画素の 輝度と周辺画素の輝度とから出力信号 O Sの値を演算する際に用いられる関数の 係数部分を格納したデータである。
( 2 )
出力部 9 1 4は、 環境光を表すパラメータ P 1の全ての値に対するプロフアイ ルデータや係数マトリクスデータを備えている必要はない。 この場合、 取得され た環境光を表すパラメータ P 1に応じて、 備えられているプロファイルデータな どを適宜内分あるいは外分することにより適切なプロファイルデータなどを生成 するものであってもよい。
( 2 ) 《構成》
図 4 1は、 例えば、 図 2 4を用いて示した視覚処理装置 6 0 0と同様の機能を 果たす視覚処理装置 9 2 0の構成を示すブロック図である。
視覚処理装置 9 2 0では、 出力部 9 2 1が環境光を表すパラメータ P 1に加え て外部パラメータ P 3をさらに取得し、 環境光を表すパラメータ P 1 と外部パラ メータ P 3とに基づいて輝度調整パラメータ P 2を出力する。
ここで、 環境光を表すパラメータ P 1 とは、 上記 (1 ) で記載したのと同様で あ 。
また、 外部パラメータ P 3とは、 例えば、 出力信号 O Sを視覚するユーザが求 める視覚的効果を表すパラメータである。 より具体的には、 画像を視覚するユー ザが求めるコントラストなどの値 (目標コントラスト) である。 ここで、 外部パ ラメ一タ P 3は、 目標コントラスト設定部 6 0 4 (図 2 4参照) により設定され る。 あるいは、 予め出力部 9 2 1に記憶されたデフォルト値を用いて設定される。 出力部 9 2 1は、 環境光を表すパラメータ P 1から、 図 3 3や図 3 4に示した 構成により実コントラストの値を算出し、 輝度調整パラメータ P 2として出力す る。 また、 出力部 9 2 1は、 外部パラメータ P 3 (目標コントラスト) を輝度調 整パラメータ P 2として出力する。 また、 出力部 9 2 1は、 [第 2実施形態] 〈変形例〉 (V i i ) で説明した 2次元 L U Tに格納されるプロファイルデータ を複数記憶しており、 外部パラメータ P 3と環境光を表すパラメータ P 1から算 出された実コントラストからプロファイルデータを選択し、 そのテーブル形式の データを輝度調整パラメータ P 2として出力する。
変換部 9 2 2は、 目標コントラスト変換部 6 0 1 , 変換信号処理部 6 0 2, 実 コントラスト変換部 6 0 3 (以上、 図 2 4参照) と同様の機能を有する。 より具 体的には、 変換部 9 2 2には、 入力信号 I S (対象画素の輝度および周辺画素の 輝度) と、 輝度調整パラメータ P 2とが入力され、 出力信号 O Sが出力される。 例えば、 入力信号 I Sは、 輝度調整パラメータ P 2として取得される目標コント ラストを用いて、 目標コントラスト信号 J S (図 2 4参照) に変換される。 さら に、 目標コントラスト信号 J Sが、 空間処理され、 アンシャープ信号 U S (図 2 4參照) が導出される。 変換部 9 2 2は、 [第 2実施形態] 〈変形例〉 (V i i ) で説明した変形例と しての視覚処理部 6 2 3を備えており、 輝度調整パラメータ P 2として取得され たプロファイルデータと、 目標コントラスト信号 J Sと、 アンシャープ信号 U S とから、 視覚処理信号 K S (図 2 4参照) が出力される。 さらに、 視覚処理信号 K Sは、 輝度調整パラメータ P 2として取得される実コントラストを用いて、 出 力信号 O Sに変換される。
この視覚処理装置 9 2 0では、 外部パラメータ P 3と環境光を表すパラメータ P 1 とに基づいて視覚処理に用いるプロファイルデータを選択することが可能と なる、 とともに、 環境光による影響を補正し、 環境光の存在する環境でも局所的 なコントラストを改善し、 出力信号 O Sを視覚するユーザの好みのコントラスト に近づけることが可能となる。
《変形例》
なお、 本構成においても、 (1 ) で記載したのと同様の変形を行うことが可能 である。
また、 (1 ) に記載した構成と (2 ) に記載した構成とは、 必要に応じて切り 替えて用いることも可能である。 切り替えは、 外部からの切り替え信号を用いて 行ってもよい。 また、 外部パラメータ P 3が存在するか否かでいずれの構成を用 いるかを判断してもよい。
また、 実コントラストは、 出力部 9 2 1で算出されると記載したが、 実コント ラス卜の値が出力部 9 2 1に直接入力されるような構成であってもよい。
( 3 )
図 4 1に示す構成では、 出力部 9 2 1から変換部 9 2 2への入力が急激に変化 しないようにするための手段をさらに採用することが可能である。
図 4 2に示す視覚処理装置 9 2 0 ' は、 図 4 1に示す視覚処理装置 9 2 0に対 して、 環境光を表すパラメータ P 1の時間変化を緩やかにさせる調整部 9 2 5を 備える点において相違している。 調整部 9 2 5は、 環境光を表すパラメータ P 1 を入力とし、 調整後の出力 P 4を出力とする。
これにより、 出力部 9 2 1は、 急激な変化を伴わない環境光を表すパラメータ P 1 を取得することが可能となり、 この結果、 出力部 9 2 1の出力の時間変化も 緩やかになる。
調整部 925は、 例えば、 I I Rフィルタにより実現される。 ここで、 I I R フィルタでは、 調整部 925の出力 P 4の値 [P4] は、 [P4] =k 1 * [P 4] ' + k 2 * [Ρ 1 ] により演算される。 なお式中、 k 1, k 2は、 それぞれ 正の値をとるパラメータであり、 [P 1 ] は、 環境光を表すパラメータ P 1の値 であり、 [P4] ' は、 調整部 925の出力 P4の遅延出力 (例えば、 前回の出 力) の値である。 なお、 調整部 925における処理は、 I I Rフィルタ以外の構 成を用いて行われてもよい。
さらに、 調整部 925は、 図 43に示す視覚処理装置 920" のように、 出力 部 921の出力側に備えられ、 輝度調整パラメータ P 2の時間変化を直接緩やか にする手段であってもよい。
ここで、 調整部 925の動作は、 上記したのと同様である。 具体的には、 調整 部 925の出力 P4の値 [P4] は、 [P 4] = k 3 * [P4] ' + k 4 * [Ρ 2] により演算される。 なお式中、 k 3, k 4は、 それぞれ正の値をとるパラメ —タであり、 [P2] は、 輝度調整パラメータ P 2の値であり、 [P4] ' は、 調整部 925の出力 P 4の遅延出力 (例えば、 前回の出力) の値である。 なお、 調整部 925における処理は、 I I Rフィルタ以外の構成を用いて行われてもよ い。
図 42、 図 43などに示した構成により、 環境光を表すパラメータ P 1、 ある いは輝度調整パラメータ P 2の時間変化を制御することが可能となる。 このため、 例えば、 環境光を検出するセンサ 91 "Iが、 センサの前を移動する人に応答し、 短時間にパラメータが大きく変化した場合でも、 急激なパラメータ変動を抑える ことができる。 この結果、 表示画面のちらつきを抑えることができる。
[第 4実施形態]
第 4〜第 6実施形態では、 図 1 04〜図 1 07を用いて説明した従来の階調処 理に対する以下の課題を解決することが可能となる。
〈従来の階調処理の課題〉
ヒストグラム作成部 302 (図 1 04参照) では、 画像領域 Sm内の画素の明 度ヒストグラム Hmから階調変換曲線 Cmを作成する。 画像領域 Smに適用する 階調変換曲線 Cmをより適切に作成するには、 画像の暗部 (シャドー) から明部 (ハイライト) までを満遍なく有していることが必要であり、 より多くの画素を 参照する必要がある。 このため、 それぞれの画像領域 Smをあまり小さくするこ とができない、 すなわち原画像の分割数 nをあまり大きくすることができない。 分割数 nとしては、 画像内容によって異なるが、 経験的に、 4~1 6の分割数が 用いられている。
このように、 それぞれの画像領域 Smをあまり小さくすることができないため、 階調処理後の出力信号 OSにおいては、 次の問題が発生することがある。 すなわ ち、 それぞれの画像領域 Smごとに 1つの階調変換曲線 Cmを用いて階調処理す るため、 それぞれの画像領域 Smの境界のつなぎ目が不自然に目立ったり、 画像 領域 Sm内で疑似輪郭が発生する場合がある。 また、 分割数がせいぜい 4~1 6 では画像領域 Smが大きいため、 画像領域間で極端に異なる画像が存在する場合、 画像領域間の濃淡変化が大きく、 擬似輪郭の発生を防止することが難しい。 例え ば、 図 1 05 (b) 、 図 1 05 (c) のように、 画像 (例えば、 画像中の物体な ど) と画像領域 Smとの位置関係で極端に濃淡が変化する。
以下、 第 4〜第 6実施形態では、 図 44〜図 64を用いて、 従来の階調処理に 対する上記課題を解決可能な視覚処理装置について説明する。
〈第 4実施形態としての視覚処理装置 1 01の特徴〉
本発明の第 4実施形態としての視覚処理装置 1 01について図 44〜図 48を 用いて説明する。 視覚処理装置 1 01は、 例えば、 コンピュータ、 テレビ、 デジ タルカメラ、 携帯電話、 PDAなど、 画像を取り扱う機器に内蔵、 あるいは接続 されて、 画像の階調処理を行う装置である。 視覚処理装置 1 01は、 従来に比し て細かく分割された画像領域のそれぞれについて階調処理を行う点を特徴として 有している。
〈構成〉
図 44に、 視覚処理装置 1 0 1の構造を説明するブロック図を示す。 視覚処理 装置 1 01は、 入力信号 I Sとして入力される原画像を複数の画像領域 Pm (1 ≤m≤n : nは原画像の分割数) に分割する画像分割部 1 02と、 それぞれの画 像領域 Pmに対して階調変換曲線 Gmを導出する階調変換曲線導出部 1 1 0と、 階調変換曲線 Cmを口一ドしそれぞれの画像領域 Pmに対して階調処理した出力 信号 OSを出力する階調処理部 1 05とを備えている。 階調変換曲線導出部 1 1 0は、 それぞれの画像領域 Pmと画像領域 Pm周辺の画像領域とから構成される 広域画像領域 Emの画素の明度ヒス卜グラム Hmを作成するヒス卜グラム作成部 1 03と、 作成された明度ヒストグラム Hmからそれぞれの画像領域 Pmに対す る階調変換曲線 Cmを作成する階調曲線作成部 1 04とから構成される。
〈作用〉
図 45〜図 47を用いて、 各部の動作について説明を加える。 画像分割部 1 0 2は、 入力信号 I Sとして入力される原画像を複数 (n個) の画像領域 Pmに分 割する (図 45参照。 ) 。 ここで、 原画像の分割数は、 図 1 04に示す従来の視 覚処理装置 300の分割数 (例えば、 4~1 6分割) よりも多く、 例えば、 横方 向に 80分割し縦方向に 60分割する 4800分割などである。
ヒストグラム作成部 1 03は、 それぞれの画像領域 Pmに対して広域画像領域 Emの明度ヒストグラム Hmを作成する。 ここで、 広域画像領域 Emとは、 それ ぞれの画像領域 Pmを含む複数の画像領域の集合であり、 例えば、 画像領域 Pm を中心とする縦方向 5ブロック、 横方向 5ブロックの 25個の画像領域の集合で ある。 なお、 画像領域 Pmの位置によっては、 画像領域 Pmの周辺に縦方向 5ブ ロック、 横方向 5ブロックの広域画像領域 E mを取ることができない場合がある 。 例えば、 原画像の周辺に位置する画像領域 P Iに対して、 画像領域 P Iの周辺 に縦方向 5ブロック、 横方向 5ブロックの広域画像領域 E Iを取ることができな い。 この場合には、 画像領域 P Iを中心とする縦方向 5ブロック横方向 5ブロッ クの領域と原画像とが重なる領域が広域画像領域 E I として採用される。 ヒス卜 グラム作成部 1 03が作成する明度ヒストグラム Hmは広域画像領域 Em内の全 画素の明度値の分布状態を示している。 すなわち、 図 46 (a) ~ (c) に示す 明度ヒストグラム Hmにおいて、 横軸は入力信号 I Sの明度レベルを、 縦軸は画 素数を示している。
階調曲線作成部 1 04は、 広域画像領域 Emの明度ヒストグラム Hmの 「画素 数」 を明度の順に累積し、 この累積曲線を画像領域 Pmの階調変換曲線 Cmとす る (図 47参照。 ) 。 図 47に示す階調変換曲線 Cmにおいて、 横軸は入力信号 I Sにおける画像領域 Pmの画素の明度値を、 縦軸は出力信号 OSにおける画像 領域 Pmの画素の明度値を示している。 階調処理部 1 05は、 階調変換曲線 Cm をロードし階調変換曲線 Cmに基づいて、 入力信号 I Sにおける画像領域 Pmの 画素の明度値を変換する。
〈視覚処理方法および視覚処理プログラム〉
図 48に、 視覚処理装置 1 01における視覚処理方法を説明するフローチヤ一 卜を示す。 図 48に示す視覚処理方法は、 視覚処理装置 1 01においてハードウ エアにより実現され、 入力信号 I S (図 1参照) の階調処理を行う方法である。 図 48に示す視覚処理方法では、 入力信号 I Sは、 画像単位で処理される (ステ ップ S 1 1 0~S 1 1 6) 。 入力信号 I Sとして入力される原画像は、 複数の画 像領域 Pm (1≤m≤n : nは原画像の分割数) に分割され (ステップ S 1 1 1 ) 、 画像領域 Pm毎に階調処理される (ステップ S 1 1 2~S 1 1 5) 。
それぞれの画像領域 P mと画像領域 P m周辺の画像領域とから構成される広域 画像領域 Emの画素の明度ヒストグラム Hmが作成される (ステップ S I 1 2) 。 さらに、 明度ヒストグラム Hmに基づいて、 それぞれの画像領域 Pmに対する 階調変換曲線 Cmが作成される (ステップ S 1 1 3) 。 ここで、 明度ヒストグラ ム Hmおよび階調変換曲線 Cmについては、 説明を省略する (上記 〈作用〉 の欄 参照。 ) 。 作成された階調変換曲線 Cmを用いて、 画像領域 Pmの画素について 階調処理が行われる (ステップ S 1 1 4) 。 さらに、 全ての画像領域 Pmについ ての処理が終了したか否かを判定し (ステップ S I 1 5) 、 処理が終了したと判 定されるまで、 ステップ S 1 1 2〜S 1 1 5の処理を原画像の分割数回繰り返す 。 以上により、 画像単位の処理が終了する (ステップ S 1 1 6) 。
なお、 図 48に示す視覚処理方法のそれぞれのステップは、 コンピュータなど により、 視覚処理プログラムとして実現されるものであっても良い。
〈効果〉
(1 )
階調変換曲線 Cmは、 それぞれの画像領域 Pmに対して作成される。 このため 、 原画像全体に対して同一の階調変換を行う場合に比して、 適切な階調処理を行 うことが可能となる。 (2)
それぞれの画像領域 Pmに対して作成される階調変換曲線 Cmは、 広域画像領 域 Emの明度ヒストグラム Hmに基づいて作成される。 このため、 画像領域 Pm 毎の大きさは小さくとも十分な明度値のサンプリングが可能となる。 またこの結 果、 小さな画像領域 Pmに対しても、 適切な階調変換曲線 Cmを作成することが 可能となる。
(3)
隣接する画像領域に対する広域画像領域は、 重なりを有している。 このため、 隣接する画像領域に対する階調変換曲線は、 お互いに似通った傾向を示すことが 多い。 このため、 画像領域毎の階調処理に空間処理的効果を加えることが可能と なり、 隣接する画像領域の境界のつなぎ目が不自然に目立つことが防止可能とな る。
(4)
それぞれの画像領域 Pmの大きさは、 従来に比して小さい。 このため、 画像領 域 P m内での疑似輪郭の発生を抑えることが可能となる。
〈変形例〉
本発明は上記実施形態に限定されるものではなく、 その要旨を逸脱しない範囲 で種々の変形が可能である。
(1 )
上記実施形態では、 原画像の分割数の一例として、 4800分割としたが、 本 発明の効果は、 この場合に限定されるものではなく、 他の分割数でも同様の効果 を得ることが可能である。 なお、 階調処理の処理量と視覚的効果とは分割数につ いてトレードオフの関係にある。 すなわち、 分割数を増やすと階調処理の処理量 は増加するがより良好な視覚的効果 (例えば、 疑似輪郭の抑制など) を得ること が可能となる。
(2)
上記実施形態では、 広域画像領域を構成する画像領域の個数の一例として、 2 5個としたが、 本発明の効果は、 この場合に限定されるものではなく、 他の個数 でも同様の効果を得ることが可能である。 [第 5実施形態]
〈第 5実施形態としての視覚処理装置 1 1 1の特徴〉
本発明の第 5実施形態としての視覚処理装置 1 1 1について図 49〜図 61を 用いて説明する。 視覚処理装置 1 1 1は、 例えば、 コンピュータ、 テレビ、 デジ タルカメラ、 携帯電話、 PDAなど、 画像を取り扱う機器に内蔵、 あるいは接続 されて、 画像の階調処理を行う装置である。 視覚処理装置 1 1 1は、 あらかじめ L U Tとして記憶した複数の階調変換曲線を切リ換えて用いる点を特徴として有 している。
〈構成〉
図 49に、 視覚処理装置 1 1 1の構造を説明するブロック図を示す。 視覚処理 装置 1 1 1は、 画像分割部 1 1 2と、 選択信号導出部 1 1 3と、 階調処理部 1 2 0とを備えている。 画像分割部 1 1 2は、 入力信号 I Sを入力とし、 入力信号 I Sとして入力される原画像を複数に分割した画像領域 Pm (1≤m≤n : nは原 画像の分割数) を出力とする。 選択信号導出部 1 1 3は、 それぞれの画像領域 P mの階調処理に適用される階調変換曲線 Cmを選択するための選択信号 Smを出 力する。 階調処理部 1 20は、 階調処理実行部 1 1 4と、 階調補正部 1 1 5とを 備えている。 階調処理実行部 1 1 4は、 複数の階調変換曲線候補 G1〜Gp (p は候補数) を 2次元 LUTとして備えており、 入力信号 I Sと選択信号 Smとを 入力とし、 それぞれの画像領域 Pm内の画素について階調処理した階調処理信号 CSを出力とする。 階調補正部 1 1 5は、 階調処理信号 CSを入力とし、 階調処 理信号 CSの階調を補正した出力信号 OSを出力とする。
(階調変換曲線候補について)
図 50を用いて、 階調変換曲線候補 G "!〜 Gpについて説明する。 階調変換曲 線候補 G "!〜 Gpは、 入力信号 I Sの画素の明度値と階調処理信号 CSの画素の 明度値との関係を与える曲線である。 図 50において、 横軸は入力信号 I Sにお ける画素の明度値を、 縦軸は階調処理信号 CSにおける画素の明度値を示してい る。 階調変換曲線候補 G1〜G pは、 添え字について単調減少する関係にあり、 全ての入力信号 I Sの画素の明度値に対して、 G 1 ≥G2≥ . ■ ·≥(3ρの関係 を満たしている。 例えば、 階調変換曲線候補 G1 ~Gpがそれぞれ入力信号 I S の画素の明度値を変数とする 「べき関数」 であり、 Gm (dm) と表され る場合 (1 ≤m≤ p、 Xは変数、 は定数) 、 S 1 ≤ S 2≤ ■ · ■ ≤ <5 pの関 係を満たしている。 ここで、 入力信号 I Sの明度値は、 値 [0. 0~ 1 . 0] の 範囲であるとする。
なお、 以上の階調変換曲線候補 G 1 〜G pの関係は、 添え字の大きい階調変換 曲線候補について、 入力信号 I Sが小さい場合、 若しくは、 添え字の小さい階調 変換曲線候補について、 入力信号 I Sが大きい場合、 において、 成立していなく てもよい。 このような場合は、 ほとんど無く、 画質への影響が小さいためである 階調処理実行部 1 1 4は、 階調変換曲線候補 G 1 〜G pを 2次元 L U Tとして 備えている。 すなわち、 2次元 L U Tは、 入力信号 I Sの画素の明度値と階調変 換曲線候補 G 1 〜 G pを選択する選択信号 S mとに対して、 階調処理信号 C Sの 画素の明度値を与えるルックアップテーブル (L U T) である。 図 5 1に、 この 2次元 L U Tの一例を示す。 図 5 1に示す 2次元 L U T 1 4 1は、 64行 64列 のマトリクスであり、 それぞれの階調変換曲線候補 G 1 ~G 64を行方向 (横方 向) に並べたものとなっている。 マトリクスの列方向 (縦方向) には、 例えば 1 0ビッ卜で表される入力信号 I Sの画素値の上位 6ビッ卜の値、 すなわち 6 4段 階に分けられた入力信号 I Sの値に対する階調処理信号 C Sの画素値が並んでい る。 階調処理信号 C Sの画素値は、 階調変換曲線候補 G 1 〜G pが 「べき関数 J である場合、 例えば、 値 [0. 0〜 1 . 0] の範囲の値を有する。
〈作用〉
各部の動作について説明を加える。 画像分割部 1 1 2は、 図 44の画像分割部 1 02とほぼ同様に動作し、 入力信号 I Sとして入力される原画像を複数 (n個 ) の画像領域 Pmに分割する (図 45参照) 。 ここで、 原画像の分割数は、 図 1 04に示す従来の視覚処理装置 300の分割数 (例えば、 4〜 1 6分割) よりも 多く、 例えば、 横方向に 80分割し縦方向に 60分割する 4800分割などであ る。
選択信号導出部 1 1 3は、 それぞれの画像領域 Pmに対して適用される階調変 換曲線 Cmを階調変換曲線候補 G 1 〜G pの中から選択する。 具体的には、 選択 信号導出部 1 1 3は、 画像領域 Pmの広域画像領域 Emの平均明度値を計算し、 計算された平均明度値に応じて階調変換曲線候補 G 1〜G pのいずれかの選択を 行う。 すなわち、 階調変換曲線候補 G 1 ~Gpは、 広域画像領域 Emの平均明度 値に関連づけられており、 平均明度値が大きくなるほど、 添え字の大きい階調変 換曲線候補 G 1 ~G pが選択される。
ここで、 広域画像領域 Emとは、 [第 4実施形態] において図 45を用いて説 明したのと同様である。 すなわち、 広域画像領域 Emは、 それぞれの画像領域 P mを含む複数の画像領域の集合であり、 例えば、 画像領域 Pmを中心とする縦方 向 5ブロック、 横方向 5ブロックの 25個の画像領域の集合である。 なお、 画像 領域 Pmの位置によっては、 画像領域 Pmの周辺に縦方向 5ブロック、 横方向 5 ブロックの広域画像領域 Emを取ることができない場合がある。 例えば、 原画像 の周辺に位置する画像領域 P Iに対して、 画像領域 P Iの周辺に縦方向 5ブロッ ク、 横方向 5ブロックの広域画像領域 E I を取ることができない。 この場合には 、 画像領域 P Iを中心とする縦方向 5ブロック横方向 5ブロックの領域と原画像 とが重なる領域が広域画像領域 E I として採用される。
選択信号導出部 1 1 3の選択結果は、 階調変換曲線候補 (31 ~Gpのいずれか を示す選択信号 Smとして出力される。 より具体的には、 選択信号 Smは、 階調 変換曲線候補 G 1 ~G pの添え字 (1〜p) の値として出力される。
階調処理実行部 1 1 4は、 入力信号 I Sが含む画像領域 Pmの画素の明度値と 選択信号 Smとを入力とし、 例えば、 図 51に示す 2次元 L UT 1 41を用いて 、 階調処理信号 CSの明度値を出力する。
階調補正部 1 1 5は、 階調処理信号 CSが含む画像領域 Pmの画素の明度値を 画素の位置と画像領域 P mおよび画像領域 P mの周辺の画像領域に対して選択さ れた階調変換曲線とに基づいて補正する。 例えば、 画像領域 Pmが含む画素に適 用された階調変換曲線 Cmと画像領域 Pmの周辺の画像領域に対して選択された 階調変換曲線とを画素位置の内分比で補正し、 補正後の画素の明度値を求める。 図 52を用いて、 階調補正部 1 1 5の動作についてさらに詳しく説明する。 図 52は、 画像領域?0, P p, Pq, P r (o, p, q, rは分割数 n (図 45 参照。 ) 以下の正整数) の階調変換曲線 C o, Cp, Cq, C rが階調変換曲線 候補 G s, G t, Gu, G v (s, t, u, vは階調変換曲線の候補数 p以下の 正整数) と選択されたことを示している。
ここで、 階調補正の対象となる画像領域 P oの画素 X (明度値 [ X ] とする) の位置を、 画像領域 Poの中心と画像領域 P pの中心とを [ ί : 1—门 に内分 し、 かつ、 画像領域 Ρ οの中心と画像領域 P qの中心とを [ j : 1— j ] に内分 する位置であるとする。 この場合、 階調補正後の画素 Xの明度値 [ X ' ] は、 [ x' ] = { (1 - j ) ■ (1一 i ) ■ [G s] + (1— j ) ■ ( i ) ■ [G t] + ( j ) ■ (1一 i ) ■ [Gu] + ( j ) ■ ( i ) ' [Θ v] } ■ { [x] / C Gs] } と求められる。 なお、 [Gs] , [G t] , [Gu] , [Gv] は、 明 度値 [x] に対して、 階調変換曲線候補 G s, G t, Gu, Gvを適用した場合 の明度値であるとする。
〈視覚処理方法および視覚処理プログラム〉
図 53に、 視覚処理装置 1 1 1における視覚処理方法を説明するフローチヤ一 トを示す。 図 53に示す視覚処理方法は、 視覚処理装置 1 1 1においてハードウ エアにより実現され、 入力信号 I S (図 49参照) の階調処理を行う方法である 。 図 53に示す視覚処理方法では、 入力信号 I Sは、 画像単位で処理される (ス テツプ S 1 20~S 1 26) 。 入力信号 I Sとして入力される原画像は、 複数の 画像領域 Pm (1≤m≤n : nは原画像の分割数) に分割され (ステップ S 1 2 1 ) 、 画像領域 Pm毎に階調処理される (ステップ S 1 22~S 1 2 ) 。
画像領域 Pm毎の処理では、 それぞれの画像領域 Pmに対して適用される階調 変換曲線 Cmが階調変換曲線候補 G1 ~Gpの中から選択される (ステップ S 1 22) 。 具体的には、 画像領域 Pmの広域画像領域 Emの平均明度値を計算し、 計算された平均明度値に応じて階調変換曲線候補 G 1〜G pのいずれかの選択が 行われる。 階調変換曲線候補 G 1〜Gpは、 広域画像領域 Emの平均明度値に関 連づけられており、 平均明度値が大きくなるほど、 添え字の大きい階調変換曲線 候補 G "!〜 Gpが選択される。 ここで、 広域画像領域 Emについては、 説明を省 略する (上記〈作用〉 の欄参照。 ) 。
入力信号 I Sが含む画像領域 Pmの画素の明度値と階調変換曲線候補 G 1〜G pのうちステップ S 1 22で選択された階調変換曲線候補を示す選択信号 Smと に対して、 例えば、 図 51に示す 2次元 LUT 1 4 "Iを用いて、 階調処理信号 C Sの明度値が出力される (ステップ S 1 23) 。 さらに、 全ての画像領域 Pmに ついての処理が終了したか否かを判定し (ステップ S 1 24) 、 処理が終了した と判定されるまで、 ステップ S 1 22-S 1 24の処理を原画像の分割数回繰り 返す。 以上により、 画像領域単位の処理が終了する。
階調処理信号 CSが含む画像領域 Pmの画素の明度値は、 画素の位置と画像領 域 Pmおよび画像領域 Pmの周辺の画像領域に対して選択された階調変換曲線と に基づいて補正される (ステップ S 1 25) 。 例えば、 画像領域 Pmが含む画素 に適用された階調変換曲線 Cmと画像領域 Pmの周辺の画像領域に対して選択さ れた階調変換曲線とを画素位置の内分比で補正し、 補正後の画素の明度値が求め られる。 補正の詳細な内容については、 説明を省略する (上記 〈作用〉 の欄、 図 52参照。 ) 。
以上により、 画像単位の処理が終了する (ステップ S 1 26) 。
なお、 図 53に示す視覚処理方法のそれぞれのステップは、 コンピュータなど により、 視覚処理プログラムとして実現されるものであっても良い。
〈効果〉
本発明により、 上記 [第 4実施形態] の 〈効果〉 とほぼ同様の効果を得ること が可能である。 以下、 第 5実施形態特有の効果を記載する。
(1 )
それぞれの画像領域 Pmに対して選択される階調変換曲線 Cmは、 広域画像領 域 Emの平均明度値に基づいて作成される。 このため、 画像領域 Pmの大きさは 小さくとも十分な明度値のサンプリングが可能となる。 また、 この結果、 小さな 画像領域 Pmに対しても、 適切な階調変換曲線 Cmを選択して適用することが可 能となる。
(2)
階調処理実行部 1 1 4は、 あらかじめ作成された 2次元 LUTを有している。 このため、 階調処理に要する処理負荷、 より具体的には、 階調変換曲線 Cmの作 成に要する処理負荷を削減することが可能となる。 この結果、 画像領域 Pmの階 調処理に要する処理を高速化することが可能となる。 (3)
階調処理実行部 1 1 4は、 2次元 LUTを用いて階調処理を実行する。 2次元 LUTは、 視覚処理装置 1 1 1が備えるハードディスクあるいは ROMなどの記 憶装置から読み出されて階調処理に用いられる。 読み出す 2次元 LUTの内容を 変更することにより、 ハードウェアの構成を変更せずに様々な階調処理を実現す ることが可能となる。 すなわち、 原画像の特性により適した階調処理を実現する ことが可能となる。
(4)
階調補正部 1 1 5は、 1つの階調変換曲線 Cmを用いて階調処理された画像領 域 Pmの画素の階調を補正する。 このため、 より適切に階調処理された出力信号 OSを得ることができる。 例えば、 疑似輪郭の発生を抑制することが可能となる。 また、 出力信号 OSにおいては、 それぞれの画像領域 Pmの境界のつなぎ目が不 自然に目立つことがさらに防止可能となる。
〈変形例〉
本発明は上記実施形態に限定されるものではなく、 その要旨を逸脱しない範囲 で種々の変形が可能である。
(1 )
上記実施形態では、 原画像の分割数の一例として、 4800分割としたが、 本 発明の効果は、 この場合に限定されるものではなく、 他の分割数でも同様の効果 を得ることが可能である。 なお、 階調処理の処理量と視覚的効果とは分割数につ いてトレードオフの関係にある。 すなわち、 分割数を増やすと階調処理の処理量 は増加するがより良好な視覚的効果 (例えば、 疑似輪郭の抑制された画像など) を得ることが可能となる。
(2)
上記実施形態では、 広域画像領域を構成する画像領域の個数の一例として、 2 5個としたが、 本発明の効果は、 この場合に限定されるものではなく、 他の個数 でも同様の効果を得ることが可能である。
(3)
上記実施形態では、 64行 64列のマトリクスからなる 2次元 LUT 1 41を 2次元 L U Tの一例とした。 ここで、 本発明の効果は、 このサイズの 2次元 LU Τに限定されるものではない。 例えば、 さらに多くの階調変換曲線候補を行方向 に並べたマトリクスであっても良い。 また、 入力信号 I Sの画素値をさらに細か いステップに区切った値に対する階調処理信号 CSの画素値をマ卜リクスの列方 向に並べたもので有っても良い。 具体的には、 例えば 1 0ビッ卜で表される入力 信号 I Sのそれぞれの画素値に対して、 階調処理信号 CSの画素値を並べたもの で有っても良い。
2次元 L U Τのサイズが大きくなれば、 よリ適切な階調処理を行うことが可能 となり、 小さくなれば、 2次元 LUTを記憶するメモリの削減などが可能となる 。
(4)
上記実施形態では、 マトリクスの列方向には、 例えば 1 0ビッ卜で表される入 力信号 I Sの画素値の上位 6ビッ卜の値、 すなわち 64段階に分けられた入力信 号 I Sの値に対する階調処理信号 CSの画素値が並んでいる、 と説明した。 ここ で、 階調処理信号 CSは、 階調処理実行部 1 1 4により、 入力信号 I Sの画素値 の下位 4ビッ卜の値で線形補間されたマトリクスの成分として出力されるもので あっても良い。 すなわち、 マトリクスの列方向には、 例えば 1 0ビットで表され る入力信号 I Sの画素値の上位 6ビッ卜の値に対するマトリクスの成分が並んで おり、 入力信号 I Sの画素値の上位 6ビットの値に対するマトリクスの成分と、 入力信号 I Sの画素値の上位 6ビッ卜の値に [1 ] を加えた値に対するマ卜リク スの成分 (例えば、 図 51では、 1行下の成分) とを入力信号 I Sの画素値の下 位 4ビッ卜の値を用いて線形補間し、 階調処理信号 CSとして出力する。
これにより、 2次元 LUT 1 41 (図 51参照) のサイズが小さくとも > より 適切な階調処理を行うことが可能となる。
(5)
上記実施形態では、 広域画像領域 Emの平均明度値に基づいて、 画像領域 Pm に適用する階調変換曲線 Cmを選択すると説明した。 ここで、 階調変換曲線 Cm の選択方法は、 この方法に限られない。 例えば、 広域画像領域 Emの最大明度値 、 あるいは最小明度値に基づいて、 画像領域 Pmに適用する階調変換曲線 Cmを 選択してもよい。 なお、 階調変換曲線 Cmの選択に際して、 選択信号 Smの値 [ Sm] は、 広域画像領域 Emの平均明度値、 最大明度値、 あるいは最小明度値そ のものであってもよい。 この場合、 選択信号 Smの取りうる値を 64段階に分け たそれぞれの値に対して、 階調変換曲線候補 G1〜G 64が関連付けられている こととなる。
また例えば、 次のようにして画像領域 P mに適用する階調変換曲線 C mを選択 してもよい。 すなわち、 それぞれの画像領域 Pmについて平均明度値を求め、 そ れぞれの平均明度値からそれぞれの画像領域 P mについての仮の選択信号 S m ' を求める。 ここで、 仮の選択信号 Sm" は、 階調変換曲線候補 G 1 ~Gpの添え 字の番号を値としている。 さらに、 広域画像領域 Emが含むそれぞれの画像領域 について、 仮の選択信号 Sm' の値を平均し、 画像領域 Pmの選択信号 Smの値 [Sm] を求め、 階調変換曲線候補 G 1 ~Gpのうち値 [Sm] に最も近い整数 を添え字とする候補を階調変換曲線 Cmとして選択する。
(6)
上記実施形態では、 広域画像領域 Emの平均明度値に基づいて、 画像領域 Pm に適用する階調変換曲線 Cmを選択すると説明した。 ここで、 広域画像領域 Em の単純平均でなく、 加重平均 (重み付き平均) に基づいて、 画像領域 Pmに適用 する階調変換曲線 Cmを選択してもよい。 例えば、 図 54に示すように、 広域画 像領域 Emを構成するそれぞれの画像領域の平均明度値を求め、 画像領域 Pmの 平均明度値と大きく異なる平均明度値を持つ画像領域 P s 1, P s 2, ■ ■ ■に ついては、 重み付けを軽くして、 あるいは除外して、 広域画像領域 Emの平均明 度値を求める。
これにより、 広域画像領域 Emが明度的に特異的な領域を含む場合 (例えば、 広域画像領域 Emが 2つの明度値の異なる物体の境界を含む場合) であっても、 画像領域 Pmに適用される階調変換曲線 Cmの選択に対して、 その特異的な領域 の明度値が与える影響が少なくなリ、 さらに適切な階調処理が行われることとな る。
(7)
上記実施形態において、 階調補正部 1 1 5の存在は任意としても良い。 すなわ ち、 階調処理信号 CSを出力とした場合であっても、 従来の視覚処理装置 300 (図 1 04参照) に比して、 [第 4実施形態] の 〈効果〉 に記載したのと同様の 効果、 および [第 5実施形態] の 〈効果〉 (1 ) および (2) に記載したのと同 様の効果を得ることが可能である。
(8)
上記実施形態では、 階調変換曲線候補 G 1 ~Gpは、 添え字について単調減少 する関係にあり、 全ての入力信号 I Sの画素の明度値に対して、 G 1≥G2≥ - - ■≥Gpの関係を満たしていると説明した。 ここで、 2次元 LUTが備える階 調変換曲線候補 G 1〜G pは、 入力信号 I Sの画素の明度値の一部に対して、 G 1≥G2≥■ - '≥Gpの関係を満たしていなくてもよい。 すなわち、 階調変換 曲線候補 G 1 ~Gpのいずれかが、 互いに交差する関係にあってもよい。
例えば、 暗い夜景の中にある小さい明かりの部分など (夜景の中にあるネオン 部分など) 、 入力信号 I Sの値は大きいが、 広域画像領域 Emの平均明度値は小 さい場合、 階調処理された画像信号の値が画質に与える影響は小さい。 このよう な場合には、 2次元 LUTが備える階調変換曲線候補 G1 ~Gpは、 入力信号 I Sの画素の明度値の一部に対して、 G 1≥G2≥ ' ■ '≥Gpの関係を満たして いなくてもよい。 すなわち、 階調処理後の値が画質に与える影響が小さい部分で は、 2次元 L U Tが格納する値は、 任意であってよい。
なお、 2次元 LUTが格納する値が任意である場合にも、 同じ値の入力信号 I Sと選択信号 Smとに対して格納されている値は、 入力信号 I Sと選択信号 Sm との値に対して、 単調増加、 あるいは単調減少する関係を維持していることが望 ましい。
また、 上記実施形態では、 2次元 LUTが備える階調変換曲線候補 G "!〜 Gp は、 「べき関数」 であると説明した。 ここで、 階調変換曲線候補 G1〜G pは、 厳密に 「べき関数」 として定式化されるもので無くともよい。 また、 S字、 逆 S 字などといつた形状を有する関数であってもよい。
(9)
視覚処理装置 1 1 1では、 2次元 LUTが格納する値であるプロファイルデ一 タを作成するプロファイルデータ作成部をさらに備えていても良い。 具体的には 、 プロファイルデータ作成部は、 視覚処理装置 1 01 (図 44参照) における画 像分割部 1 02と階調変換曲線導出部 1 1 0とから構成されており、 作成された 複数の階調変換曲線の集合をプロフアイルデータとして 2次元 L U Tに格納する また、 2次元 LUTに格納される階調変換曲線のそれぞれは、 空間処理された 入力信号 I Sに関連づけられていてもかまわない。 この場合、 視覚処理装置 1 1 1では、 画像分割部 1 1 2と選択信号導出部 1 1 3とを、 入力信号 I Sを空間処 理する空間処理部に置き換えても良い。
(1 0)
上記実施形態において、 入力信号 I Sの画素の明度値は、 値 [0. 0〜1. 0 ] の範囲の値でなくてもよい。 入力信号 I sが他の範囲の値として入力される場 合には、 その範囲の値を値 [0. 0〜1. 0] に正規化して用いてもよい。 また
、 正規化は行わず、 上記した処理において取り扱う値を適宜変更してもよい。
(1 1 )
階調変換曲線候補 G 1〜G pのそれぞれは、 通常のダイナミックレンジよりも 広いダイナミックレンジを有する入力信号 I Sを階調処理し、 通常のダイナミツ クレンジの階調処理信号 CSを出力する階調変換曲線であってもよい。
近年、 SZNの良い CGDを光量を絞って使用する、 電子シャツタを長短 2回 開く、 あるいは低感度 '高感度の画素を持つセンサを使用する、 などの方法によ リ、 通常のダイナミックレンジよりも 1 ~3桁広いダイナミックレンジを扱うこ とができる機器の開発が進んでいる。
これに伴って、 入力信号 I Sが通常のダイナミックレンジ (例えば、 値 [0. 0〜1. 0] の範囲の信号) よりも広いダイナミックレンジを有する場合にも、 適切に階調処理することが求められている。
ここで、 図 55に示すように、 値 [0. 0〜1. 0] を超える範囲の入力信号 I Sに対しても、 値 [0. 0~1. 0] の階調処理信号 CSを出力するような階 調変換曲線を用いる。
これにより、 広いダイナミックレンジを有する入力信号 I Sに対しても、 適切 な階調処理を行い、 通常のダイナミックレンジの階調処理信号 CSを出力するこ とが可能となる。
また、 上記実施形態では、 「階調'処理信号 CSの画素値は、 階調変換曲線候補 G1〜Gpが 「べき関数 j である場合、 例えば、 値 [0. 0~1. 0] の範囲の 値を有する。 J と記載した。 ここで、 階調処理信号 CSの画素値は、 この範囲に 限られない。 例えば、 値 [0. 0~1. 0] の入力信号 I Sに対して、 階調変換 曲線候補 G 1 ~Gpは、 ダイナミックレンジ圧縮を行うものであってもよい。
(1 2)
上記実施形態では、 「階調処理実行部 1 1 4は、 階調変換曲線候補 G 1〜G p を 2次元 LUTとして有している。 」 と説明した。 ここで、 階調処理実行部 1 1 4は、 階調変換曲線候補 G1〜Gpを特定するための曲線パラメータと選択信号 Smとの関係を格納する 1次元 L U Tを有するものであってもよい。
《構成》
図 56に、 階調処理実行部 1 1 4の変形例としての階調処理実行部 1 44の構 造を説明するブロック図を示す。 階調処理実行部 1 44は、 入力信号 I Sと選択 信号 Smとを入力とし、 階調処理された入力信号 I Sである階調処理信号 CSを 出力とする。 階調処理実行部 1 44は、 曲線パラメータ出力部 1 45と演算部 1 48とを備えている。
曲線パラメ一タ出力部 1 45は、 第 1 LUT 1 46と第 2 LUT 1 47から構 成される。 第 1 LUT 1 46および第 2 LUT 1 47は、 選択信号 Smを入力と し、 選択信号 Smが指定する階調変換曲線候補 Gmの曲線パラメータ P 1および P 2をそれぞれ出力する。
演算部 1 48は、 曲線パラメータ P 1および P 2と、 入力信号 I Sとを入力と し、 階調処理信号 CSを出力とする。
《1次元 L U Tについて》
第1 1_リ1" 1 46ぉょび第21_リ丁 1 47は、 それぞれ選択信号 Smに対する 曲線パラメータ P 1および P 2の値を格納する 1次元 L U Tである。 第 1 L U T 1 46ぉょび第21_1_1丁1 47について詳しく説明する前に、 曲線パラメータ P 1および P 2の内容について説明する。
図 57を用いて、 曲線パラメータ P 1および P 2と、 階調変換曲線候補 G "!〜 Gpとの関係について説明する。 図 57は、 階調変換曲線候補 G1〜Gpを示し ている。 ここで、 階調変換曲線候補 G 1 ~G pは、 添え字について単調減少する 関係にあり、 全ての入力信号 I Sの画素の明度値に対して、 G1≥G2≥ ' ' ■ ≥Gpの関係を満たしている。 なお、 以上の階調変換曲線候補 G 1 ~Gpの関係 は、 添え字の大きい階調変換曲線候補について、 入力信号 I Sが小さい場合、 若 しくは、 添え字の小さい階調変換曲線候補について、 入力信号 I Sが大きい場合 、 などにおいて成立していなくてもよい。
曲線パラメータ P 1および P 2は、 入力信号 I Sの所定の値に対する階調処理 信号 CSの値として出力される。 すなわち、 選択信号 Smにより階調変換曲線候 補 Gmが指定された場合、 曲線パラメータ P 1の値は、 入力信号 I Sの所定の値 [X I ] に対する階調変換曲線候補 Gmの値 [R i m] として出力され、 曲線パ ラメータ P2の値は、 入力信号 I Sの所定の値 [X2] に対する階調変換曲線候 補 Gmの値 [R2m] として出力される。 ここで、 値 [X2] は、 値 [X 1 ] よ リも大きい値である。
次に、 第 1 L UT 1 46および第 2 L U T 1 47について説明する。
第 1 LUT 1 46および第 2 LUT 1 47は、 それぞれ選択信号 S mに対する 曲線パラメータ P 1および P 2の値を格納している。 より具体的には、 例えば、 6ビッ卜の信号として与えられるそれぞれの選択信号 Smに対して、 曲線パラメ —タ P 1および P 2の値がそれぞれ 6ビッ卜で与えられる。 ここで、 選択信号 S mや曲線パラメータ P 1および P 2にたいして確保されるビット数はこれに限ら れない。
図 58を用いて、 曲線パラメータ P 1および P 2と、 選択信号 Smとの関係に ついて説明する。 図 58は、 選択信号 Smに対する曲線パラメータ P 1および P 2の値の変化を示している。 第 1 LUT 1 46および第 2 L U T 1 47には、 そ れぞれの選択信号 Smに対する曲線パラメータ P 1および P 2の値が格納されて いる。 例えば、 選択信号 Smに対する曲線パラメータ P 1の値として、 値 [R1 m] が格納されており、 曲線パラメータ P 2の値として、 値 [R2m] が格納さ れている。
以上の第 1 LUT 1 46および第 2 LUT 1 47により、 入力された選択信号 Smに対して、 曲線パラメ一タ P 1および P 2が出力される。
《演算部 1 48について》
演算部 1 48は、 取得した曲線パラメータ P 1および P 2 (値 [Ri m] およ び値 [R2m] ) に基づいて、 入力信号〗 Sに対する階調処理信号 CSを導出す る。 具体的な手順を以下記載する。 ここで、 入力信号 I Sの値は、 値 [0. 0~ 1. 0] の範囲で与えられるものとする。 また、 階調変換曲線候補 G1 ~Gpは 、 値 [0. 0~1. 0] の範囲で与えられる入力信号 I Sを、 値 [0. 0~1. 0] の範囲に階調変換するものとする。 なお、 本発明は、 入力信号 1 Sをこの範 囲に限定しない場合にも適用可能である。
まず、 演算部 1 48は、 入力信号 I Sの値と、 所定の値 [X I ], [X2] と の比較を行う。
入力信号 I Sの値 (値 [X] とする) が [0. 0] 以上 [X 1 ] 未満である場 合、 図 57における原点と座標 ( [X I ], [Ri m] ) とを結ぶ直線上におい て、 値 [X] に対する階調処理信号 CSの値 (値 [Y] とする) が求められる。 より具体的には、 値 [Y] は、 次式 [Y] = ( [X] [X 1 ] ) * [Ri m] 、 により求められる。
入力信号 I Sの値が [X 1 ] 以上 [X2] 未満である場合、 図 57における座 標 ( [X I ] , [Ri m] ) と座標 ( [X2] , [R2m] ) とを結ぶ直線上に おいて、 値 [X] に対する値 [Y] が求められる。 より具体的には、 値 [Y] は 、 次式 [Y] = [Ri m] + { ( [R2m] - [Ri m] ) / ( [X 2] 一 [X 1 ] ) } * ( [X] — [X 1 ] ) 、 により求められる。
入力信号 I Sの値が [X 2] 以上 [1. 0] 以下である場合、 図 57における 座標 ( [X2], [R2m] ) と座標 ( [1. 0], [1. 0] ) とを結ぶ直線 上において、 値 [X] に対する値 [丫] が求められる。 より具体的には、 値 [Y ] は、 次式 [Y] = [R2m] + { ( [1. 0] — [R2m] ) / ( [1. 0] 一 [X2] ) } * ( [X] — CX2] ) 、 により求められる。
以上の演算により、 演算部 1 48は、 入力信号 I Sに対する階調処理信号 CS を導出する。
《階調処理方法■プログラム》 上述の処理は、 階調処理プログラムとして、 コンピュータなどにより実行され るものであってもよい。 階調処理プログラムは、 以下記載する階調処理方法をコ ンピュータに実行させるためのプログラムである。
階調処理方法は、 入力信号 I Sと選択信号 Smとを取得し、 階調処理信号 CS を出力する方法であって、 入力信号 I Sを 1次元 LUTを用いて階調処理する点 に特徴を有している。
まず、 選択信号 Smが取得されると、 第 1 LUT 1 46ぉょび第21_11丁 1 4 7から曲線パラメータ P 1および P 2が出力される。 第 1 L UT 1 46、 第 2 L UT 1 47、 曲線パラメータ P 1および P 2については、 詳細な説明を省略する 。
さらに、 曲線パラメータ P 1および P2に基づいて、 入力信号 I Sの階調処理 が行われる。 階調処理の詳しい内容は、 演算部 1 48についての説明のなかで記 載したため省略する。
以上の階調処理方法により、 入力信号 I Sに対する階調処理信号 CSが導出さ れる。
《効果》
階調処理実行部 1 1 4の変形例としての階調処理実行部 1 44では、 2次元 L UTではなく、 2つの 1次元 L U Tを備えている。 このため、 ルックアップテー ブルを記憶するための記憶容量を削減することが可能となる。
《変形例》
(1 )
上記変形例では、 「曲線パラメータ P 1および P 2の値は、 入力信号 I Sの所 定の値に対する階調変換曲線候補 Gmの値である。 」 、 と説明した。 ここで、 曲 線パラメータ P 1および P 2は、 階調変換曲線候補 Gmの他の曲線パラメータで あってもよい。 以下、 具体的に説明を加える。
(1 -1 )
曲線パラメータは、 階調変換曲線候補 Gmの傾きであってもよい。 図 57を用 いて具体的に説明する。 選択信号 Smにより階調変換曲線候補 Gmが指定された 場合、 曲線パラメータ P 1の値は、 入力信号 I Sの所定の範囲 [0. 0〜X 1 ] における階調変換曲線候補 Gmの傾きの値 [Ki m] であり、 曲線パラメータ P 2の値は、 入力信号 I Sの所定の範囲 [X 1〜X2] における階調変換曲線候補 Gmの傾きの値 [K2m] である。
図 59を用いて、 曲線パラメータ P 1および P 2と、 選択信号 Smとの関係に ついて説明する。 図 59は、 選択信号 Smに対する曲線パラメータ P 1および P 2の値の変化を示している。 第 1 LUT 1 46および第 2 LUT 1 47には、 そ れぞれの選択信号 Smに対する曲線パラメータ P 1および P 2の値が格納されて いる。 例えば、 選択信号 Smに対する曲線パラメータ P 1の値として、 値 [K 1 m] が格納されており、 曲線パラメータ P 2の値として、 値 [K2m] が格納さ れている。
以上の第 1 L UT 1 46および第 2 L U T 1 47により、 入力された選択信号 Smに対して、 曲線パラメータ P 1および P 2が出力される。
演算部 1 48では、 取得した曲線パラメータ P 1および P 2に基づいて、 入力 信号 I Sに対する階調処理信号 CSを導出する。 具体的な手順を以下記載する。 まず、 演算部 1 48は、 入力信号 I Sの値と、 所定の値 [X 1 ], [X2] と の比較を行う。
入力信号 I Sの値 (値 [X] とする) が [0. 0] 以上 [X 1 ] 未満である場 合、 図 57における原点と座標 ( [X 1 ], [Ki m] * [X I ] (以下、 [Y 1 ] と記載する) ) とを結ぶ直線上において、 値 [X] に対する階調処理信号 C Sの値 (値 [Y] とする) が求められる。 より具体的には、 値 [Y] は、 次式 [ Y] = [K 1 m] * [X] 、 により求められる。
入力信号 I Sの値が [X I ] 以上 [X2] 未満である場合、 図 57における座 標 ( [X 1 ] , [丫 1 ] ) と座標 ( [X2] , [Ki m] * [X 1 ] + [K2m ] * ( [X2] - [X I ] ) (以下、 [Y2] と記載する) ) とを結ぶ直線上に おいて、 値 [X] に対する値 [Υ] が求められる。 より具体的には、 値 [Υ] は 、 次式 [Υ] = [Υ 1 ] + CK2m] * ( [X] — [X I ] ) 、 により求められ る。
入力信号 I Sの値が [X2] 以上 [1. 0] 以下である場合、 図 57における 座標 ( [X2], [Y2] ) と座標 (1. 0, 1. 0) とを結ぶ直線上において 、 値 [X] に対する値 [Y] が求められる。 より具体的には、 値 [Y] は、 次式 [Y] = CY 2] + { ( [1. 0] - [Y 2] ) / ( [1. 0] — [Χ2] ) } * ( [X] — [X 2] ) 、 により求められる。
以上の演算により、 演算部 1 48は、 入力信号 I Sに対する階調処理信号 CS を導出する。
(1 -2)
曲線パラメータは、 階調変換曲線候補 Gm上の座標であってもよい。 図 60を 用いて具体的に説明する。 選択信号 Smにより階調変換曲線候補 Gmが指定され た場合、 曲線パラメータ P 1の値は、 階調変換曲線候補 Gm上の座標の一方の成 分の値 [Mm] であり、 曲線パラメータ P2の値は、 階調変換曲線候補 Gm上の 座標の他方の成分の値 [Nm] である。 さらに、 階調変換曲線候補 G"!〜 Gpは 、 全て座標 (X I , Y 1 ) を通過する曲線である。
図 61を用いて、 曲線パラメータ P 1および P 2と、 選択信号 Smとの関係に ついて説明する。 図 61は、 選択信号 Smに対する曲線パラメータ P 1および P 2の値の変化を示している。 第 1 L U T 1 46および第 2 L U T 1 47には、 そ れぞれの選択信号 Smに対する曲線パラメータ P 1および P 2の値が格納されて いる。 例えば、 選択信号 Smに対する曲線パラメータ P 1の値として、 値 [Mm ] が格納されており、 曲線パラメ タ P 2の値として、 値 [Nm] が格納されて いる。
以上の第 1 LUT 1 46および第 2 LU T 1 47により、 入力された選択信号 Smに対して、 曲線パラメータ P 1および P 2が出力される。
演算部 1 48では、 図 57を用いて説明した変形例と同様の処理により、 入力 信号 I Sから階調処理信号 CSが導出される。 詳しい説明は、 省略する。
(1 -3)
以上の変形例は、 一例であり、 曲線パラメータ P 1および P2は、 階調変換曲 線候補 Gmのさらに他の曲線パラメータであってもよい。
また、 曲線パラメータの個数も上記に限られない。 さらに少なくてもよいし、 さらに多くてもよい。
演算部 1 48についての説明では、 階調変換曲線候補 G 1 ~Gpが直線の線分 から構成される曲線である場合についての演算について記載した。 ここで、 階調 変換曲線候補 G 1 ~ G p上の座標が曲線パラメータとして与えられる場合には、 与えられた座標を通過する滑らかな曲線が作成され (カーブフィッティング) 、 作成された曲線を用いて、 階調変換処理が行われるものであってもよい。
( 2 )
上記変形例では、 「曲線パラメータ出力部 1 4 5は、 第 1 L U T 1 4 6と第 2 1_リ丁 1 4 7から構成される。 J と説明した。 ここで、 曲線パラメータ出力部 1 5は、 選択信号 S mの値に対する曲線パラメータ P 1および P 2の値を格納す る L U Tを備えないものであってもよい。
この場合、 曲線パラメ一タ出力部 1 4 5は、 曲線パラメータ P 1および P 2の 値を演算する。 より具体的には、 曲線パラメータ出力部 1 4 5は、 図 5 8、 図 5 9、 図 6 1などに示される曲線パラメ一タ P 1および P 2のグラフを表すパラメ —タを記憶している。 曲線パラメータ出力部 1 4 5は、 記憶されたパラメータか ら曲線パラメータ P 1および P 2のグラフを特定する。 さらに、 曲線パラメータ P 1および P 2のグラフを用いて、 選択信号 S mに対する曲線パラメータ P 1お よび P 2の値を出力する。
ここで、 曲線パラメータ P 1および P 2のグラフを特定するためのパラメータ とは、 グラフ上の座標、 グラフの傾き、 曲率などである。 例えば、 曲線パラメ一 タ出力部 1 4 5は、 図 5 8に示す曲線パラメータ P 1および P 2のグラフ上のそ れぞれ 2点の座標を記憶しており、 この 2点の座標を結ぶ直線を、 曲線パラメ一 タ P 1および P 2のグラフとして用いる。
ここで、 パラメータから曲線パラメータ P 1および P 2のグラフを特定する際 には、 直線近似だけでなく、 折れ線近似、 曲線近似などを用いてもよい。
これにより、 L U Tを記憶するためのメモリを用いずに曲線パラメータを出力 することが可能となる。 すなわち、 装置が備えるメモリの容量をさらに削減する ことが可能となる。
[第 6実施形態]
〈第 6実施形態としての視覚処理装置" 1 2 1の特徴〉
本発明の第 6実施形態としての視覚処理装置 1 2 1について図 6 2〜図 6 4を 用いて説明する。 視覚処理装置 1 21は、 例えば、 コンピュータ、 テレビ、 デジ タルカメラ、 携帯電話、 PDAなど、 画像を取り扱う機器に内蔵、 あるいは接続 されて、 画像の階調処理を行う装置である。 視覚処理装置 1 21は、 あらかじめ L U Tとして記憶した複数の階調変換曲線を階調処理の対象となる画素ごとに切 リ換えて用いる点を特徴として有している。
〈構成〉
図 62に、 視覚処理装置 1 21の構造を説明するブロック図を示す。 視覚処理 装置 1 21は、 画像分割部 1 22と、 選択信号導出部 1 23と、 階調処理部 1 3 0とを備えている。 画像分割部 1 22は、 入力信号 I Sを入力とし、 入力信号 I Sとして入力される原画像を複数に分割した画像領域 Pm (1≤m≤n : nは原 画像の分割数) を出力とする。 選択信号導出部 1 23は、 それぞれの画像領域 P mに対して階調変換曲線 Cmを選択するための選択信号 Smを出力する。 階調処 理部 1 30は、 選択信号補正部 1 24と、 階調処理実行部 1 25とを備えている 。 選択信号補正部 1 24は、 選択信号 Smを入力とし、 それぞれの画像領域 Pm 毎の選択信号 Smを補正した信号である画素毎の選択信号 SSを出力する。 階調 処理実行部 1 25は、 複数の階調変換曲線候補 G 1〜Gp (pは候補数) を 2次 元 LUTとして備えており、 入力信号 I Sと画素毎の選択信号 SSとを入力とし 、 それぞれの画素について階調処理した出力信号 OSを出力とする。
(階調変換曲線候補について)
階調変換曲線候補 G 1 ~Gpについては、 [第 5実施形態] において図 50を 用いて説明したのとほぼ同様であるため、 ここでは説明を省略する。 但し、 本実 施形態においては、 階調変換曲線候補 G1 ~Gpは、 入力信号 I Sの画素の明度 値と出力信号 OSの画素の明度値との関係を与える曲線である。
階調処理実行部 1 25は、 階調変換曲線候補 G 1 ~Gpを 2次元 LUTとして 備えている。 すなわち、 2次元 LUTは、 入力信号 I Sの画素の明度値と階調変 換曲線候補 G 1 ~G pを選択する選択信号 S Sとに対して、 出力信号 O Sの画素 の明度値を与えるルックアップテーブル (LUT) である。 具体例は、 [第 5実 施形態] において図 51を用いて説明したのとほぼ同様であるため、 ここでは説 明を省略する。 但し、 本実施形態においては、 マトリクスの列方向には、 例えば 1 0ビッ卜で表される入力信号 I Sの画素値の上位 6ビッ卜の値に対する出力信 号 O Sの画素値が並んでいる。
〈作用〉
各部の動作について説明を加える。 画像分割部 1 22は、 図 44の画像分割部 1 02とほぼ同様に動作し、 入力信号 I Sとして入力される原画像を複数 ( n個 ) の画像領域 Pmに分割する (図 45参照) 。 ここで、 原画像の分割数は、 図 1 04に示す従来の視覚処理装置 300の分割数 (例えば、 4〜1 6分割) よりも 多く、 例えば、 横方向に 80分割し縦方向に 60分割する 4800分割などであ る。
選択信号導出部 1 23は、 それぞれの画像領域 Pmに対して階調変換曲線 Cm を階調変換曲線候補 G 1〜Gpの中から選択する。 具体的には、 選択信号導出部 1 23は、 画像領域 Pmの広域画像領域 Emの平均明度値を計算し、 計算された 平均明度値に応じて階調変換曲線候補 G1 ~Gpのいずれかの選択を行う。 すな わち、 階調変換曲線候補 G 1〜Gpは、 広域画像領域 Emの平均明度値に関連づ けられており、 平均明度値が大きくなるほど、 添え字の大きい階調変換曲線候補 G 1〜G pが選択される。
ここで、 広域画像領域 Emとは、 [第 4実施形態] において図 45を用いて説 明したのと同様である。 すなわち、 広域画像領域 Emは、 それぞれの画像領域 P mを含む複数の画像領域の集合であり、 例えば、 画像領域 Pmを中心とする縦方 向 5ブロック、 横方向 5ブロックの 25個の画像領域の集合である。 なお、 画像 領域 Pmの位置によっては、 画像領域 Pmの周辺に縦方向 5ブロック、 横方向 5 ブロックの広域画像領域 Emを取ることができない場合がある。 例えば、 原画像 の周辺に位置する画像領域 P Iに対して、 画像領域 P Iの周辺に縦方向 5ブロッ ク、 横方向 5ブロックの広域画像領域 E Iを取ることができない。 この場合には 、 画像領域 P I を中心とする縦方向 5ブロック横方向 5ブロックの領域と原画像 とが重なる領域が広域画像領域 E I として採用される。
選択信号導出部 1 23の選択結果は、 階調変換曲線候補 G 1〜G pのいずれか を示す選択信号 Smとして出力される。 より具体的には、 選択信号 Smは、 階調 変換曲線候補 G 1〜Gpの添え字 (1〜p) の値として出力される。 選択信号補正部 1 24は、 それぞれの画像領域 Pmに対して出力されたそれぞ れの選択信号 Smを用いた補正により、 入力信号 I Sを構成する画素毎に階調変 換曲線を選択するための画素毎の選択信号 SSを出力する。 例えば、 画像領域 P mに含まれる画素に対する選択信号 SSは、 画像領域 Pmおよび画像領域 Pmの 周辺の画像領域に対して出力された選択信号の値を画素位置の内分比で補正して 永め bれる。
図 63を用いて、 選択信号補正部 1 24の動作についてさらに詳しく説明する 。 図 63は、 画像領域 Po, P p, P q, P r (o, p, q, rは分割数 n (図 45参照。 ) 以下の正整数) に対して選択信号 S o, S p, S q, S rが出力さ れた状態を示している。
ここで、 階調補正の対象となる画素 Xの位置を、 画像領域 P oの中心と画像領 域 P pの中心とを [ i : 1— ί ] に内分し、 かつ、 画像領域 Ρ οの中心と画像領 域 P qの中心とを [ j : 1一 j ] に内分する位置であるとする。 この場合、 画素 Xに対する選択信号 SSの値 [SS] は、 [SS] = { (1— j ) ■ (1 - i ) ■ [S o] + (1 - j ) ■ ( i ) ■ [S p] + ( j ) ■ (1 - i ) ' [S q] + ( j ) ■ ( i ) ■ [S r ] } と求められる。 なお、 [S o] , [S p] , [S q ] , [S r ] は、 選択信号 S o, S p, S q, S rの値であるとする。
階調処理実行部 1 25は、 入力信号 I Sが含む画素の明度値と選択信号 SSと を入力とし、 例えば図 51に示す 2次元 L U T 1 1を用いて、 出力信号 OSの 明度値を出力する。
なお、 選択信号 SSの値 [SS] が、 2次元 LUT 1 41の備える階調変換曲 線候補 G 1〜Gpの添え字 (1〜P) と等しい値にならない場合、 値 [SS] に 最も近い整数を添え字とする階調変換曲線候補 G 1 ~Gpが入力信号 I Sの階調 処理に用いられる。
〈視覚処理方法および視覚処理プログラム〉
図 64に、 視覚処理装置 1 21における視覚処理方法を説明するフローチヤ一 卜を示す。 図 64に示す視覚処理方法は、 視覚処理装置 1 21においてハードウ エアにより実現され、 入力信号 I S (図 62参照) の階調処理を行う方法である 。 図 64に示す視覚処理方法では、 入力信号 I Sは、 画像単位で処理される (ス テツプ S I 30〜S 1 37) 。 入力信号 I Sとして入力される原画像は、 複数の 画像領域 Pm (1≤m≤n : nは原画像の分割数) に分割され (ステップ S 1 3 1 ) 、 画像領域 Pm毎に階調変換曲線 Cmが選択され (ステップ S I 32~S 1 33) 、 画像領域 Pm毎に階調変換曲線 Cmを選択するための選択信号 Smに基 づいて、 原画像の画素毎に階調変換曲線が選択され、 画素単位での階調処理が行 われる (ステップ S 1 34~S 1 36) 。
それぞれのステップについて具体的に説明を加える。
それぞれの画像領域 Pmに対して階調変換曲線 Cmが階調変換曲線候補 G 1 ~ Gpの中から選択される (ステップ S "! 32) 。 具体的には、 画像領域 Pmの広 域画像領域 Emの平均明度値を計算し、 計算された平均明度値に応じて階調変換 曲線候補 G 1 ~G pのいずれかの選択が行われる。 階調変換曲線候補 G 1〜G p は、 広域画像領域 Emの平均明度値に関連づけられており、 平均明度値が大きく なるほど、 添え字の大きい階調変換曲線候補 G"!〜 Gpが選択される。 ここで、 広域画像領域 Emについては、 説明を省略する (上記 〈作用〉 の欄参照。 ) 。 選 択結果は、 階調変換曲線候補 G 1 ~G pのいずれかを示す選択信号 Smとして出 力される。 より具体的には、 選択信号 Smは、 階調変換曲線候補 G1 ~Gpの添 え字 (1 ~P) の値として出力される。 さらに、 全ての画像領域 Pmについての 処理が終了したか否かを判定し (ステップ S 1 33) 、 処理が終了したと判定さ れるまで、 ステップ S I 32~S 1 33の処理を原画像の分割数回繰り返す。 以 上により、 画像領域単位の処理が終了する。
それぞれの画像領域 P mに対して出力されたそれぞれの選択信号 S mを用いた 補正により、 入力信号 I Sを構成する画素毎に階調変換曲線を選択するための画 素毎の選択信号 SSが出力される (ステップ S 1 34) 。 例えば、 画像領域 Pm に含まれる画素に対する選択信号 SSは、 画像領域 Pmおよび画像領域 Pmの周 辺の画像領域に対して出力された選択信号の値を画素位置の内分比で補正して求 められる。 補正の詳細な内容については、 説明を省略する (上記 〈作用〉 の欄、 図 63参照。 ) 。
入力信号 I Sが含む画素の明度値と選択信号 SSとを入力とし、 例えば図 51 に示す 2次元 LUT 1 41を用いて、 出力信号 OSの明度値が出力される (ステ ップ S 1 35) 。 さらに、 全ての画素についての処理が終了したか否かを判定し (ステップ S 1 36) 、 処理が終了したと判定されるまで、 ステップ S 1 34〜 S 1 36の処理を画素数回繰り返す。 以上により、 画像単位の処理が終了する。 なお、 図 64に示す視覚処理方法のそれぞれのステップは、 コンピュータなど により、 視覚処理プログラムとして実現されるものであっても良い。
〈効果〉
本発明により、 上記 [第 4実施形態] および [第 5実施形態] の 〈効果〉 とほ ぼ同様の効果を得ることが可能である。 以下、 第 6実施形態特有の効果を記載す る。
(1 )
それぞれの画像領域 Pmに対して選択される階調変換曲線 Cmは、 広域画像領 域 Emの平均明度値に基づいて作成される。 このため、 画像領域 Pmの大きさは 小さくとも十分な明度値のサンプリングが可能となる。 また、 この結果、 小さな 画像領域 Pmに対しても、 適切な階調変換曲線 Cmが選択される。
(2)
選択信号補正部 1 24は、 画像領域単位で出力される選択信号 Smに基づいた 補正により、 画素毎の選択信号 SSを出力する。 入力信号 I Sを構成する原画像 の画素は、 画素毎の選択信号 S Sが指定する階調変換曲線候補 G 1〜G pを用い て、 階調処理される。 このため、 より適切に階調処理された出力信号 OSを得る ことができる。 例えば、 疑似輪郭の発生を抑制することが可能となる。 また、 出 力信号 OSにおいては、 それぞれの画像領域 Pmの境界のつなぎ目が不自然に目 立つことがさらに防止可能となる。
(3)
階調処理実行部 1 25は、 あらかじめ作成された 2次元 LUTを有している。 このため、 階調処理に要する処理負荷を削減すること、 より具体的には、 階調変 換曲線 Cmの作成に要する処理負荷を削減することが可能となる。 この結果、 階 調処理を高速化することが可能となる。
(4)
階調処理実行部 1 25は、 2次元 LUTを用いて階調処理を実行する。 ここで 、 2次元 LUTの内容は、 視覚処理装置 1 21が備えるハードディスクあるいは ROMなどの記憶装置から読み出されて階調処理に用いられる。 読み出す 2次元 L U Tの内容を変更することにより、 ハードゥエァの構成を変更せずに様々な階 調処理を実現することが可能となる。 すなわち、 原画像の特性により適した階調 処理を実現することが可能となる。
〈変形例〉
本発明は上記実施形態に限定されるものではなく、 その要旨を逸脱しない範囲 で種々の変形が可能である。 例えば、 上記 [第 5実施形態] 〈変形例〉 とほぼ同 様の変形を第 6実施形態に適用することが可能である。 特に、 [第 5実施形態] 〈変形例〉 の (1 0) ~ (1 2) では、 選択信号 Smを選択信号 SSと、 階調処 理信号 C Sを出力信号 O Sと読み替えることによリ、 同様に適用可能である。 以下、 第 6実施形態特有の変形例を記載する。
(1 )
上記実施形態では、 64行 64列のマトリクスからなる 2次元 L U T 1 41を 2次元 L U Tの一例とした。 ここで、 本発明の効果は、 このサイズの 2次元 LU Tに限定されるものではない。 例えば、 さらに多くの階調変換曲線候補を行方向 に並べたマトリクスであっても良い。 また、 入力信号 I Sの画素値をさらに細か いステップに区切った値に対する出力信号 OSの画素値をマトリクスの列方向に 並べたもので有っても良い。 具体的には、 例えば 1 0ビットで表される入力信号 I Sのそれぞれの画素値に対して、 出力信号 OSの画素値を並べたもので有って も良い。
2次元 L U Tのサイズが大きくなれば、 よリ適切な階調処理を行うことが可能 となり、 小さくなれば、 2次元 LUTを記憶するメモリの削減などが可能となる (2)
上記実施形態では、 選択信号 SSの値 [SS] が、 2次元 LUT 1 41 (図 5 1参照) の備える階調変換曲線候補 G1 ~Gpの添え字 (1〜P ) と等しい値に ならない場合、 値 [SS] に最も近い整数を添え字とする階調変換曲線候補 G 1 〜Gpが入力信号 I Sの階調処理に用いられる、 と説明した。 ここで、 選択信号 SSの値 [SS] が、 2次元 L UT 1 41の備える階調変換曲線候補 G 1〜G p の添え字 (1〜P) と等しい値にならない場合、 選択信号 SSの値 [SS] を超 えない最大の整数 (k) を添え字とする階調変換曲線候補 G k (1≤k≤p-1 ) と、 [SS] を超える最小の整数 (k + 1 ) を添え字とする階調変換曲線候補 Gk + 1 との双方を用いて階調処理した入力信号 I Sの画素値を、 選択信号 SS の値 [SS] の小数点以下の値を用いて加重平均 (内分) し、 出力信号 OSを出 力してもよい。 '
(3)
上記実施形態では、 マトリクスの列方向には、 例えば 1 0ビットで表される入 力信号 I Sの画素値の上位 6ビッ卜の値に対する出力信号 OSの画素値が並んで いる、 と説明した。 ここで、 出力信号 OSは、 階調処理実行部 1 25により、 入 力信号 I Sの画素値の下位 4ビッ卜の値で線形補間されたマトリクスの成分とし て出力されるものであっても良い。 すなわち、 マトリクスの列方向には、 例えば 1 0ビッ卜で表される入力信号 I Sの画素値の上位 6ビッ卜の値に対するマトリ クスの成分が並んでおり、 入力信号 I Sの画素値の上位 6ビットの値に対するマ トリクスの成分と、 入力信号 I Sの画素値の上位 6ビッ卜の値に [1 ] を加えた 値に対するマトリクスの成分 (例えば、 図 51では、 1行下の成分) とを入力信 号 I Sの画素値の下位 4ビットの値を用いて線形補間し、 出力信号 OSとして出 力する。
これにより、 2次元 LUT 1 41 (図 51参照) のサイズが小さくとも、 より 適切な階調処理を行うことが可能となる。
(4)
上記実施形態では、 広域画像領域 Emの平均明度値に基づいて、 画像領域 Pm に対する選択信号 Smを出力すると説明した。 ここで、 選択信号 Smの出力方法 は、 この方法に限られない。 例えば、 広域画像領域 Emの最大明度値、 あるいは 最小明度値に基づいて、 画像領域 Pmに対する選択信号 Smを出力してもよい。 なお、 選択信号 Smの値 [Sm] は、 広域画像領域 Emの平均明度値、 最大明度 値、 あるいは最小明度値そのものであってもよい。
また例えば、 次のようにして画像領域 P mに対する選択信号 Smを出力しても よい。 すなわち、 それぞれの画像領域 Pmについて平均明度値を求め、 それぞれ の平均明度値からそれぞれの画像領域 P mについての仮の選択信号 S m, を求め る。 ここで、 仮の選択信号 Sm' は、 階調変換曲線候補 G 1 ~Gpの添え字の番 号を値としている。 さらに、 広域画像領域 Emが含むそれぞれの画像領域につい て、 仮の選択信号 Sm' の値を平均し、 画像領域 Pmの選択信号 Smとする。
(5)
上記実施形態では、 広域画像領域 Emの平均明度値に基づいて、 画像領域 Pm に対する選択信号 Smを出力すると説明した。 ここで、 広域画像領域 Emの単純 平均でなく、 加重平均 (重み付き平均) に基づいて、 画像領域 Pmに対する選択 信号 Smを出力しても良い。 詳細は、 上記 [第 5実施形態] で図 54を用いて説 明したのと同様であり、 広域画像領域 Emを構成するそれぞれの画像領域の平均 明度値を求め、 画像領域 Pmの平均明度値と大きく異なる平均明度値を持つ画像 領域 P s 1, P s 2, ■ ■ 'については、 重み付けを軽くして広域画像領域 Em の平均明度値を求める。
これにより、 広域画像領域 Emが明度的に特異的な領域を含む場合 (例えば、 広域画像領域 Emが 2つの明度値の異なる物体の境界を含む場合) であっても、 選択信号 Smの出力に対して、 その特異的な領域の明度値が与える影響が少なく なり、 さらに適切な選択信号 S mの出力が行われることとなる。
(6)
視覚処理装置 1 21では、 2次元 LUTが格納する値であるプロファイルデ一 タを作成するプロファイルデータ作成部をさらに備えていても良い。 具体的には 、 プロファイルデータ作成部は、 視覚処理装置 1 01 (図 44参照) における画 像分割部 1 02と階調変換曲線導出部 1 1 0とから構成されており、 作成された 複数の階調変換曲線の集合をプロフアイルデータとして 2次元 L U Tに格納する o
また、 2次元 LUTに格納される階調変換曲線のそれぞれは、 空間処理された 入力信号 I Sに関連づけられていてもかまわない。 この場合、 視覚処理装置 1 2 1では、 画像分割部 1 22と選択信号導出部 1 23と選択信号補正部 1 24とを 、 入力信号 I Sを空間処理する空間処理部に置き換えても良い。 [第 7実施形態]
図 6 5〜図 7 1を用いて本発明の第 7実施形態としての視覚処理装置 1 6 1に ついて説明する。
図 6 5に示す視覚処理装置 1 6 1は、 画像信号の空間処理、 階調処理など視覚 処理を行う装置である。 視覚処理装置 1 6 1は、 例えば、 コンピュータ、 テレビ 、 デジタルカメラ、 携帯電話、 P D A、 プリンタ、 スキャナなどの画像を取り扱 う機器において、 画像信号の色処理を行う装置とともに画像処理装置を構成する 視覚処理装置 1 6 1は、 画像信号と、 画像信号に対して空間処理 (ボケフィル タ処理) を施したボケ信号とを用いた視覚処理を行う装置であり、 空間処理にお いて特徴を有している。
従来、 対象画素の周辺の画素を用いてボケ信号を導出する際に、 周辺の画素が 対象画素と大きく濃度の異なる画素を含むと、 ボケ信号は、 濃度の異なる画素の 影響を受ける。 すなわち、 画像において物体のエッジ近傍の画素を空間処理する 場合、 本来エッジでない画素がエッジの濃度の影響を受けることとなる。 このた め、 この空間処理により、 例えば、 擬似輪郭の発生などが引き起こされることと なる。
そこで、 空間処理を画像の内容に適応させて行うことが求められる。 これに対 して、 例えば、 特開平 1 0— 7 5 3 9 5号公報は、 ボケ度合いの異なる複数のポ ケ信号を作成し、 それぞれのボケ信号を合成、 あるいは切り替えることによリ適 切なボケ信号を出力する。 これにより、 空間処理のフィルタサイズを変更し、 濃 度の異なる画素の影響を抑制することを目的とする。
—方、 上記公報では、 複数のボケ信号を作成し、 それぞれのボケ信号を合成、 あるいは切り替えることとなるため、 装置における回路規模、 あるいは処理負荷 が大きくなる。
そこで、 本発明の第 7実施形態としての視覚処理装置 1 6 1では、 適切なボケ 信号を出力することを目的とし、 かつ、 装置における回路規模、 あるいは処理負 荷を削減することを目的とする。
〈視覚処理装置 1 6 1〉 図 6 5に、 画像信号 (入力信号 I S ) に視覚処理を行い視覚処理画像 (出力信 号 O S ) を出力する視覚処理装置 1 6 1の基本構成を示す。 視覚処理装置 1 6 1 は、 入力信号 I Sとして取得した原画像の画素ごとの明度値に空間処理を実行し アンシャープ信号 U Sを出力する空間処理部 1 6 2と、 同じ画素についての入力 信号 I Sとアンシャープ信号 U Sとを用いて、 原画像の視覚処理を行い、 出力信 号 O Sを出力する視覚処理部 1 6 3とを備えている。
〈空間処理部 1 6 2〉
図 6 6を用いて、 空間処理部 1 6 2の空間処理について説明する。 空間処理部 1 6 2は、 空間処理の対象となる対象画素 1 6 5と、 対象画素 1 6 5の周辺領域 の画素 (以下、 周辺画素 1 6 6という) との画素値を入力信号 I Sから取得する 周辺画素 1 6 6は、 対象画素 1 6 5の周辺領域に位置する画素であり、 対象画 素 1 6 5を中心として広がる縦 9画素、 横 9画素の周辺領域に含まれる画素であ る。 なお、 周辺領域の大きさは、 この場合に限定されず、 より小さくてもよいし 、 より大きくてもよい。 また、 周辺画素 1 6 6は、 対象画素 1 6 5からの距離に 応じて近いものから第 1周辺画素 1 6 7、 第 2周辺画素 1 6 8と分けられている 。 図 6 6では、 第 1周辺画素 1 6 7は、 対象画素 1 6 5を中心とする縦 5画素、 横 5画素の領域に含まれる画素であるとする。 さらに第 2周辺画素 1 6 8は、 第 1周辺画素 1 6 7の周辺に位置する画素であるとする。
空間処理部 1 6 2は、 対象画素 1 6 5に対してフィルタ演算を行う。 フィルタ 演算では、 対象画素 1 6 5と周辺画素 1 6 6との画素値とが、 対象画素 1 6 5と 周辺画素 1 6 6との画素値の差および距離に基づく重みを用いて、 加重平均され る。 加重平均は、 次式 F = (∑ [W i j ] * [A i j ] ) / (∑ [W i j ] ) に 基づいて計算される。 ここで、 [W i j ] は、 対象画素 1 6 5および周辺画素 1 6 6において、 i行〗列目に位置する画素の重み係数であり、 [ A i j ] は、 対 象画素 1 6 5および周辺画素 1 6 6において、 ί行 j列目に位置する画素の画素 値である。 また、 「∑」 は、 対象画素 1 6 5および周辺画素 1 6 6のそれぞれの 画素についての合計の計算を行うことを意味している。
図 6 7を用いて、 重み係数 [W i j ] について説明する。 重み係数 [W i j ] は、 対象画素 1 65と周辺画素 1 66との画素値の差および距離に基づいて定め られる値である。 より具体的には、 画素値の差の絶対値が大きいほど小さい値の 重み係数が与えられる。 また、 距離が大きいほど小さい重み係数が与えられる。 例えば、 対象画素 1 65に対しては、 重み係数 [W i j ] は、 値 [1 ] である o
第 1周辺画素 1 67のうち、 対象画素 1 65の画素値との差の絶対値が所定の 閾値よりも小さい画素値を有する画素に対しては、 重み係数 [W i j ] は、 値 [ 1 ] である。 第 1周辺画素 1 67のうち、 差の絶対値が所定の閾値よりも大きい 画素値を有する画素に対しては、 重み係数 [W i j ] は、 値 [1 /2] である。 すなわち、 第 1周辺画素 1 67に含まれる画素であっても、 画素値に応じて与え られる重み係数が異なっている。
第 2周辺画素 1 68のうち、 対象画素 1 65の画素値との差の絶対値が所定の 閾値よりも小さい画素値を有する画素に対しては、 重み係数 [W i j ] は、 値 [ 1 /2] である。 第 2周辺画素 1 68のうち、 差の絶対値が所定の閾値よりも大 きい画素値を有する画素に対しては、 重み係数 [W i j ] は、 値 [1 /4] であ る。 すなわち、 第 2周辺画素 1 68に含まれる画素であっても、 画素値に応じて 与えられる重み係数が異なっている。 また、 対象画素 1 65からの距離が第 1周 辺画素 1 67よりも大きい第 2周辺画素 1 68では、 より小さい重み係数が与え られている。
ここで、 所定の閾値とは、 値 [0. 0〜1. 0] の範囲の値をとる対象画素 1 65の画素値に対して、 値 [20/256~60 256] などといった大きさ の値である。
以上により計算された加重平均が、 アンシャープ信号 USとして出力される。 〈視覚処理部 1 63〉
視覚処理部 1 63では、 同一の画素についての入力信号 I Sとアンシャープ信 号 USとの値を用いて、 視覚処理を行う。 ここで行われる視覚処理は、 入力信号 I Sのコントラスト強調、 あるいはダイナミックレンジ圧縮などといった処理で ある。 コントラスト強調では、 入力信号 I Sとアンシャープ信号 usとの差、 あ るいは比を強調する関数を用いて強調した信号を入力信号 I Sに加え、 画像の鮮 銳化が行われる。 ダイナミックレンジ圧縮では、 入力信号 I Sからアンシャープ 信号 USが減算される。
視覚処理部 1 63における処理は、 入力信号 I Sとアンシャープ信号 USとを 入力として出力信号 OSを出力する 2次元 L UTを用いて行われても良い。
〈視覚処理方法 'プログラム〉
上述の処理は、 視覚処理プログラムとして、 コンピュータなどにより実行され るものであってもよい。 視覚処理プログラムは、 以下記載する視覚処理方法をコ ンピュ一タに実行させるためのプログラムである。
視覚処理方法は、 入力信号 I Sとして取得した原画像の画素ごとの明度値に空 間処理を実行しアンシャープ信号 USを出力する空間処理ステップと、 同じ画素 についての入力信号 I Sとアンシャープ信号 USとを用いて、 原画像の視覚処理 を行い、 出力信号 O Sを出力する視覚処理ステップとを備えている。
空間処理ステップでは、 入力信号 I Sの画素毎に、 空間処理部 1 62の説明に おいて記載した加重平均を行い、 アンシャープ信号 USを出力する。 詳細につい ては、 上述したため省略する。
視覚処理ステップでは、 同じ画素についての入力信号 I Sとアンシャープ信号 USとを用いて、 視覚処理部 1 63の説明において記載した視覚処理を行い出力 信号 OSを出力する。 詳細については、 上述したため省略する。
〈効果〉
図 68 (a) 〜 (b) を用いて、 視覚処理装置 1 61による視覚処理の効果を 説明する。 図 68 (a) と図 68 (b) とは、 従来のフィルタによる処理を示し ている。 図 68 (b) は、 本発明のフィルタによる処理を示している。
図 68 (a) は、 周辺画素 1 66が濃度の異なる物体 1 71を含む様子を示し ている。 対象画素 1 65の空間処理では、 所定のフィルタ係数を持つ平滑化フィ ルタが用いられる。 このため、 本来物体 1 71の一部でない対象画素 1 65が物 体 1 71の濃度の影響を受けることとなる。
図 68 (b) は、 本発明の空間処理の様子を示している。 本発明の空間処理で は、 周辺画素 1 66が物体 1 71を含む部分 1 66 a、 物体 1 71を含まない第 1周辺画素 1 67、 物体 1 71を含まない第 2周辺画素 1 68、 対象画素 1 65 、 のそれぞれに対して、 異なる重み係数を用いて空間処理が行われる。 このため 、 空間処理された対象画素 1 6 5が極端に濃度の異なる画素から受ける影響を抑 えることが可能となリ、 より適切な空間処理が可能となる。
また、 視覚処理装置 1 6 1では、 特開平 1 0— 7 5 3 9 5号公報のように複数 のボケ信号を作成する必要が無い。 このため、 装置における回路規模、 あるいは 処理負荷を削減することが可能となる。
さらに、 視覚処理装置 1 6 1では、 実質的に、 空間フィルタのフィルタサイズ 、 およびフィルタが参照する画像の形状を画像内容に応じて適応的に変更するこ とが可能である。 このため、 画像内容に適した空間処理を行うことが可能となる
〈変形例〉
( 1 )
上記した周辺画素 1 6 6、 第 1周辺画素 1 6 7、 第 2周辺画素 1 6 8などの大 きさは、 一例であり、 他の大きさであってもよい。
上記した重み係数は、 一例であり、 他のものであっても良い。 例えば、 画素値 の差の絶対値が所定の閾値を超える場合に、 重み係数を値 [ 0 ] として与えても よい。 これにより、 空間処理された対象画素 1 6 5が極端に濃度の異なる画素か ら受ける影響を無くすことが可能となる。 このことは、 コントラスト強調を目的 とした応用では、 元々ある程度コントラス卜の大きい部分におけるコントラスト を過剰に強調しないという効果がある。
また、 重み係数は、 次に示すような関数の値として与えられるものであっても よい。
( 1 - a )
画素値の差の絶対値を変数とする関数により重み係数の値を与えてもよい。 関 数は、 例えば、 画素値の差の絶対値が小さいときは重み係数が大きく (1に近く ) 、 画素値の差の絶対値が大きいときは重み係数が小さく (0に近く) なるよう な、 画素値の差の絶対値に対して単調減^する関数である。
( 1 - b )
対象画素 1 6 5からの距離を変数とする関数により重み係数の値をあたえても よい。 関数は、 例えば、 対象画素 1 6 5からの距離が近いときには重み係数が大 きく (1に近く) 、 対象画素 1 6 5からの距離が遠いときには重み係数が小さく ( 0に近く) なるような、 対象画素 1 6 5からの距離に対して単調減少する関数 である。
上記 (1— a ) 、 (1一 b ) では、 重み係数がより連続的に与えられることと なる。 このため、 閾値を用いた場合に比して、 より適切な重み係数を与えること が可能となり、 過剰なコントラスト強調を抑制し、 擬似輪郭の発生などを抑制し 、 より視覚的効果の高い処理を行うことが可能となる。
( 2 )
上記したそれぞれの画素についての処理は、 複数の画素を含むブロックを単位 として行われても良い。 具体的には、 まず、 空間処理の対象となる対象ブロック の平均画素値と、 対象ブロックの周辺の周辺ブロックの平均画素値とが計算され る。 さらに、 それぞれの平均画素値が上記と同様の重み係数を用いて加重平均さ れる。 これにより、 対象ブロックの平均画素値がさらに空間処理されることとな る。
このような場合には、 空間処理部 1 6 2を選択信号導出部 1 1 3 (図 4 9参照 ) あるいは選択信号導出部 1 2 3 (図 6 2参照) として用いることも可能である 。 この場合、 [第 5実施形態] 〈変形例〉 (6 ) 、 あるいは [第 6実施形態] く 変形例〉 (5 ) に記載したのと同様である。
これに関し、 図 6 9〜図 7 1を用いて説明を加える。
《構成》
図 6 9は、 図 6 5〜図 6 8を用いて説明した処理を複数の画素を含むブロック 単位で行う視覚処理装置 9 6 1の構成を示すブロック図である。
視覚処理装置 9 6 1は、 入力信号 I Sとして入力される画像を複数の画像プロ ックに分割する画像分割部 9 6 4と、 分割された画像プロック毎の空間処理を行 う空間処理部 9 6 2と、 入力信号 I Sと空間処理部 9 6 2の出力である空間処理 信号 U S 2とを用いて視覚処理を行う視覚処理部 9 6 3とから構成されている。 画像分割部 9 6 4は、 入力信号 I Sとして入力される画像を複数の画像ブロッ クに分割する。 さらに、 分割された画像ブロック毎の特徴パラメータを含む処理 信号 U S 1を導出する。 特徴パラメータとは、 例えば、 分割された画像ブロック 毎の画像の特徴を表すパラメータであり、 例えば、 平均値 (単純平均、 加重平均 など) や代表値 (最大値、 最小値、 中央値など) である。
空間処理部 9 6 2は、 画像ブロック毎の特徴パラメータを含む処理信号 U S 1 を取得し、 空間処理を行う。
図 7 0を用いて、 空間処理部 9 6 2の空間処理について説明する。 図 7 0は、 複数画素を含む画像ブロックに分割された入力信号 I Sを示している。 ここで、 それぞれの画像プロックは、 縦 3画素■横 3画素の 9画素を含む領域に分割され ている。 なお、 この分割方法は、 一例であり、 このような分割方法に限定される わけではない。 また、 視覚処理効果を十分に発揮するためには、 かなり広い領域 を対象として空間処理信号 U S 2を生成することが好ましい。
空間処理部 9 6 2は、 空間処理の対象となる対象画像ブロック 9 6 5と、 対象 画像ブロック 9 6 5の周辺に位置する周辺領域 9 6 6に含まれるそれぞれの周辺 画像ブロックとの特徴パラメータを処理信号 U S 1から取得する。
周辺領域 9 6 6は、 対象画像ブロック 9 6 5の周辺に位置する領域であり、 対 象画像ブロック 9 6 5を中心として広がる縦 5ブロック、 横 5ブロックの領域で ある。 なお、 周辺領域 9 6 6の大きさは、 この場合に限定されず、 より小さくて もよいし、 より大きくてもよい。 また、 周辺領域 9 6 6は、 対象画像ブロック 9 6 5からの距離に応じて近いものから第 1周辺領域 9 6 7、 第 2周辺領域 9 6 8 と分けられている。
図 7 0では、 第 1周辺領域 9 6 7は、 対象画像ブロック 9 6 5を中心とする縦 3ブロック、 横 3ブロックの領域であるとする。 さらに第 2周辺領域 9 6 8は、 第 1周辺領域 9 6 7の周辺に位置する領域であるとする。
空間処理部 9 6 2は、 対象画像プロック 9 6 5の特徴パラメータに対してフィ ルタ演算を行う。
フィルタ演算では、 対象画像ブロック 9 6 5と周辺領域 9 6 6の周辺画像プロ ックとの特徴パラメータの値が加重平均される。 ここで加重平均の重みは、 対象 画像ブロック 9 6 5と周辺画像ブロックとの距離および特徴パラメータの値の差 に基づいて定められている。 より具体的には、 加重平均は、 次式 F= (∑ [W i j ] * [A i j ] ) / (∑ [W i j ] ) に基づいて計算される。
ここで、 [W i j ] は、 対象画像ブロック 965および周辺領域 966におい て、 i行 j列目に位置する画像ブロックに対する重み係数であり、 [A i j ] は 、 対象画像ブロック 965および周辺領域 966において、 i行 j列目に位置す る画像ブロックの特徴パラメータの値である。 また、 「∑」 は、 対象画像ブロッ ク 965および周辺領域 966のそれぞれの画像プロックについての合計の計算 を行うことを意味している。
図 71 を用いて、 重み係数 [W i j ] について説明する。
重み係数 [W i j ] は、 対象画像ブロック 965と周辺領域 966の周辺画像 ブロックとの距離および特徴パラメータの値の差に基づいて定められる値である 。 より具体的には、 特徴パラメータの値の差の絶対値が大きいほど小さい値の重 み係数が与えられる。 また、 距離が大きいほど小さい重み係数が与えられる。 例えば、 対象画像ブロック 965に対しては、 重み係数 [W i j ] は、 値 [1 ] である。
第 1周辺領域 967のうち、 対象画像ブロック 965の特徴パラメータの値と の差の絶対値が所定の閾値よリも小さい特徴パラメータの値を有する周辺画像ブ ロックに対しては、 重み係数 [W i j ] は、 値 [1 ] である。 第 1周辺領域 96 7のうち、 差の絶対値が所定の閾値よりも大きい特徴パラメータの値を有する周 辺画像ブロックに対しては、 重み係数 [W i j ] は、 値 [1Z2] である。 すな わち、 第 1周辺領域 967に含まれる周辺画像ブロックであっても、 特徴パラメ ータの値に応じて与えられる重み係数が異なっている。
第 2周辺領域 968のうち、 対象画像ブロック 965の特徴パラメータの値と の差の絶対値が所定の閾値よリも小さい特徴パラメータの値を有する周辺画像ブ ロックに対しては、 重み係数 [W i j ] は、 値 [1Z2] である。 第 2周辺領域 968のうち、 差の絶対値が所定の閾値よリも大きい特徴パラメータの値を有す る周辺画像ブロックに対しては、 重み係数 [W i j ] は、 値 [1Z4] である。 すなわち、 第 2周辺領域 968に含まれる周辺画像ブロックであっても、 特徵パ ラメータの値に応じて与えられる重み係数が異なっている。 また、 対象画像プロ ック 965からの距離が第 1周辺領域 967よりも大きい第 2周辺領域 968で は、 より小さい重み係数が与えられている。
ここで、 所定の閾値とは、 値 [0. 0~1. 0] の範囲の値をとる対象画像ブ ロック 965の特徴パラメータの値に対して、 値 [20ノ256~60 256 ] などといった大きさの値である。
以上によリ計算された加重平均が、 空間処理信号 U S 2として出力される。 視覚処理部 963では、 視覚処理部 1 63 (図 65参照) と同様の視覚処理が 行われる。 ただし、 視覚処理部 1 63との相違点は、 アンシャープ信号 USの代 わりに、 視覚処理の対象となる対象画素を含む対象画像ブロックの空間処理信号 U S 2が用いられる点である。
また、 視覚処理部 963における処理は、 対象画素を含む対象画像ブロック単 位で一括して処理されてもよいが、 入力信号 I Sから取得される画素の順序で空 間処理信号 US 2を切り換えて処理されてもよい。
以上の処理が、 入力信号 I Sに含まれる全ての画素について行われる。
《効果》
空間処理部 962の処理では、 画像ブロックを単位とした処理が行われる。 こ のため、 空間処理部 962の処理量を削減でき、 より高速の視覚処理が実現可能 となる。 また、 ハードウェア規模を小さくすることが可能となる。
《変形例》
上記では、 正方のブロック単位で処理を行うと記載した。 ここで、 ブロックの 形状は、 任意としてもよい。
また、 上記した重み係数、 閾値なども適宜変更可能である。
ここで、 重み係数の一部の値は、 値 [0] であってもよい。 この場合には、 周 辺領域 966の形状を任意の形状とすることと同じこととなる。
また、 空間処理部 962では、 対象画像ブロック 965と周辺領域 966との 特徴パラメータを用いて空間処理を行うと説明したが、 空間処理は、 周辺領域 9 66のみの特徵パラメータを用いて行うものであってもよい。 すなわち、 空間処 理の加重平均の重みにおいて、 対象画像ブロック 965の重みを値 [0] として もよい。 (3)
視覚処理部 1 63における処理は、 上記したものに限られない。 例えば、 視覚 処理部 1 63は、 入力信号 I Sの値 A、 アンシャープ信号 U Sの値 B、 ダイナミ ックレンジ圧縮関数 F 4、 強調関数 F 5を用いて、 次式 C=F4 (A) * F 5 (A/B) により演算される値 Cを出力信号 OSの値として出力するものであつ てもかまわない。 ここで、 ダイナミックレンジ圧縮関数 F 4は、 上に凸のべき関 数などの単調増加関数であり、 例えば、 F4 (χ) =χ Λ (0<r<1 ) と表 される。 強調関数 F 5は、 べき関数であり、 例えば、 F5 (χ) =χ Λ (0< Qf≤ 1 ) と表される。
視覚処理部 1 63においてこのような処理が行われる場合、 本発明の空間処理 部 1 62により出力された適切なアンシャープ信号 U Sが用いられれば、 入力信 号 I Sのダイナミックレンジを圧縮しつつ、 局所的なコントラストを強調するこ とが可能となる。
一方、 アンシャープ信号 USが適切でなく、 ボケが少なすぎる場合には、 エツ ジ強調的ではあるがコントラストの強調が適切に行えない。 また、 ボケが多すぎ る場合には、 コントラストの強調は行えるが、 ダイナミックレンジの圧縮が適切 に行えない。
[第 8実施形態]
本発明の第 8実施形態として、 上記第 4〜第 7実施形態で説明した視覚処理装 置、 視覚処理方法、 視覚処理プログラムの応用例と、 それを用いたシステムとに ついて説明する。
視覚処理装置は、 例えば、 コンピュータ、 テレビ、 デジタルカメラ、 携帯電話 、 PDAなど、 画像を取り扱う機器に内蔵、 あるいは接続されて、 画像の階調処 理を行う装置であり、 LS Iなどの集積回路として実現される。
より詳しくは、 上記実施形態の各機能ブロックは、 個別に 1チップ化されても 良いし、 一部又は全てを含むように 1チップ化されても良い。 なお、 ここでは、 し S I としたが、 集積度の違いにより、 I C、 システム LS し スーパー LS I 、 ウルトラ LS I と呼称されることもある。
また、 集積回路化の手法は LS Iに限るものではなく、 専用回路又は汎用プロ セサで実現してもよい。 LS I製造後に、 プログラムすることが可能な F PGA (Field Programmable Gate Array) や、 L S I内部の回路セルの接続や設定を 再構成可能なリコンフィギユラブル■プロセッサ一を利用しても良い。
さらには、 半導体技術の進歩又は派生する別技術によリ L S Iに置き換わる集 積回路化の技術が登場すれば、 当然、 その技術を用いて機能ブロックの集積化を 行ってもよい。 バイオ技術の適応等が可能性としてありえる。
図 44、 図 49、 図 62、 図 65、 図 69の各ブロックの処理は、 例えば、 視 覚処理装置が備える中央演算装置 (CPU) により行われる。 また、 それぞれの 処理を行うためのプログラムは、 ハードディスク、 ROMなどの記憶装置に格納 されており、 ROMにおいて、 あるいは RAMに読み出されて実行される。 また 、 図 49、 図 62の階調処理実行部 1 1 4, 1 25において参照される 2次元 L UTは、 ハードディスク、 ROMなどの記憶装置に格納されており、 必要に応じ て参照される。 さらに、 2次元 LUTは、 視覚処理装置に直接的に接続される、 あるいはネッ卜ワークを介して間接的に接続される 2次元 LUTの提供装置から 提供されるものであってもよい。 また、 図 56の階調処理実行部 1 44において 参照される 1次元 L U Tについても同様である。
また、 視覚処理装置は、 動画像を取り扱う機器に内蔵、 あるいは接続されて、 フレーム毎 (フィールド毎) の画像の階調処理を行う装置であってもよい。 また、 それぞれの視覚処理装置では、 上記第 4〜第 7実施形態で説明した視覚 処理方法が実行される。
視覚処理プログラムは、 コンピュータ、 テレビ、 デジタルカメラ、 携帯電話、 PDAなど、 画像を取り扱う機器に内蔵、 あるいは接続される装置において、 ハ ードディスク、 ROMなどの記憶装置に記憶され、 画像の階調処理を実行するプ ログラムであり、 例えば、 CD— ROMなどの記録媒体を介して、 あるいはネッ トワークを介して提供される。
上記実施形態では、 それぞれの画素の明度値について処理を行うと説明した。 ここで、 本発明は、 入力信号 I Sの色空間に依存するものではない。 すなわち、 上記実施形態における処理は、 入力信号 I Sが Y C b C r色空間、 Y U V色空間 、 L a b色空間、 L u v色空間、 Y I Q色空間、 XYZ色空間、 Y P b P r色空 間、 RGB色空間などで表されている場合に、 それぞれの色空間の輝度、 明度に 対して、 同様に適用可能である。
また入力信号 I Sが RGB色空間で表されている場合に、 上記実施形態におけ る処理は、 RGBそれぞれの成分に対して独立に行われるものであってもよい。
[第 9実施形態]
本発明の第 9実施形態として、 上記で説明した視覚処理装置、 視覚処理方法、 視覚処理プログラムの応用例とそれを用いたシステムを図 72〜図 75を用いて 説明する。
図 72は、 コンテンツ配信サービスを実現するコンテンツ供給システム e X 1 00の全体構成を示すブロック図である。 通信サービスの提供エリアを所望の大 きさに分割し、 各セル内にそれぞれ固定無線局である基地局 e X 1 07〜e X 1 1 0が設置されている。
このコンテンツ供給システム e X 1 00は、 例えば、 インタ一ネット e x l O 1にインターネットサービスプロバイダ e X 1 02および電話網 e x 1 04、 お よび基地局 e X 1 07 ~ e X 1 1 0を介して、 コンピュータ e x 1 1 1、 PDA (persona I di ital ass i stant e x 1 1 2、 カメラ e x 1 1 3、 携帯電¾古 e x 1 1 4、 カメラ付きの携帯電話 e χ 1 1 5などの各機器が接続される。
し力、し、 コンテンツ供給システム e X 1 00は図 72のような組合せに限定さ れず、 いずれかを組み合わせて接続するようにしてもよい。 また、 固定無線局で ある基地局 e X 1 07~ e X 1 1 0を介さずに、 各機器が電話網 e x 1 04に直 接接続されてもよい。
カメラ e x 1 1 3はデジタルビデオカメラ等の動画撮影が可能な機器である。 また、 携帯電話は、 P D C (Personal Digital Communications) 方式、 C D A (Code Division Multiple Access) 方式、 W— C DM A (Wideband-Code Div is ion Multiple Access) 方式、 若しぐは GSM (Global System for Mobile Co mmuni cat ions) 方式の傍帯鼋'目古機、 または PHS (Personal Handyphone System ) 等であり、 いずれでも構わない。
また、 ストリ一ミングサーバ e x 1 03は、 カメラ e x 1 1 3から基地局 e x 1 09、 電話網 e x 1 O 4を通じて接続されており、 カメラ e x 1 1 3を用いて ユーザが送信する符号化処理されたデータに基づいたライブ配信等が可能になる
。 撮影したデータの符号化処理はカメラ e X 1 1 3で行っても、 データの送信処 理をするサーバ等で行ってもよい。 また、 カメラ e x 1 1 6で撮影した動画デー タはコンピュータ e X 1 1 1 を介してストリ一ミングサーバ e x 1 03に送信さ れてもよい。 カメラ e X 1 1 6はデジタルカメラ等の静止画、 動画が撮影可能な 機器である。 この場合、 動画データの符号化はカメラ e X 1 1 6で行ってもコン ピュータ e X 1 1 1で行ってもどちらでもよい。 また、 符号化処理はコンビユー タ e x l l lやカメラ e x 1 1 6が有する L S I e x 1 1 7において処理するこ とになる。 なお、 画像符号化 '復号化用のソフトウェアをコンピュータ e X "I 1 1等で読み取り可能な記録媒体である何らかの蓄積メディア (CD— ROM、 フ レキシブルディスク、 ハードディスクなど) に組み込んでもよい。 さらに、 カメ ラ付きの携帯電話 e x 1 1 5で動画データを送信してもよい。 このときの動画デ ータは携帯電話 e X 1 1 5が有する LS Iで符号化処理されたデータである。 このコンテンツ供給システム e X 1 00では、 ユーザがカメラ e X 1 1 3、 力 メラ e X 1 1 6等で撮影しているコンテンツ (例えば、 音楽ライブを撮影した映 像等) を符号化処理してストリーミングサーバ e X 1 03に送信する一方で、 ス トリ一ミングサーバ e X 1 03は要求のあったクライアン卜に対して上記コンテ ンッデータをス卜リ一ム配信する。 クライアントとしては、 符号化処理されたデ 一タを復号化することが可能な、 コンピュータ e x 1 1 1、 PDAe x 1 1 2、 カメラ e x 1 1 3、 携帯電話 e x 1 1 4等がある。 このようにすることでコンテ ンッ供給システム e x 1 00は、 符号化されたデータをクライアン卜において受 信して再生することができ、 さらにクライアントにおいてリアルタイムで受信し て復号化し、 再生することにより、 個人放送をも実現可能になるシステムである コンテンツの表示に際して、 上記実施形態で説明した視覚処理装置、 視覚処理 方法、 視覚処理プログラムを用いても良い。 例えば、 コンピュータ e x 1 1 1、 PDAe x 1 1 2、 カメラ e x 1 1 3、 携帯電話 e x 1 1 4等は、 上記実施形態 で示した視覚処理装置を備え、 視覚処理方法、 視覚処理プログラムを実現するも のであっても良い。 また、 ストリーミングサーバ e x 1 03は、 視覚処理装置に対して、 インタ一 ネット e X 1 01を介してプロファイルデータを提供するものであっても良い。 さらに、 ストリーミングサーバ e X 1 03は、 複数台存在し、 それぞれ異なるプ 口ファイルデータを提供するものであっても良い。 さらに、 ストリーミンダサ一 バ e x 1 03は、 プロファイルの作成を行うものであっても良い。 このように、 インタ一ネット e X 1 01を介して、 視覚処理装置がプロファイルデータを取得 できる場合、 視覚処理装置は、 あらかじめ視覚処理に用いるプロファイルデータ を記憶しておく必要が無く、 視覚処理装置の記憶容量を削減することも可能とな る。 また、 インタ一ネット e X 1 01介して接続される複数のサーバからプロフ アイルデータを取得できるため、 異なる視覚処理を実現することが可能となる。 一例として携帯電話について説明する。
図 73は、 上記実施形態の視覚処理装置を備えた携帯電話 e X 1 1 5を示す図 である。 携帯電話 e X 1 1 5は、 基地局 e x 1 1 0との間で電波を送受信するた めのアンテナ e x 201、 CCDカメラ等の映像、 静止画を撮ることが可能な力 メラ部 e x 203、 カメラ部 e x 203で撮影した映像、 アンテナ e x 201で 受信した映像等が復号化されたデータを表示する液晶ディスプレイ等の表示部 e X 202、 操作キー e X 204群から構成される本体部、 音声出力をするための スピーカ等の音声出力部 e X 208、 音声入力をするためのマイク等の音声入力 部 e x 205、 撮影した動画もしくは静止画のデータ、 受信したメールのデータ 、 動画のデータもしくは静止画のデータ等、 符号化されたデータまたは復号化さ れたデータを保存するための記録メディア e X 207、 携帯電話 e x 1 1 5に記 録メディア e X 207を装着可能とするためのスロット部 e X 206を有してい る。 記録メディア e X 207は SDカード等のプラスチックケース内に電気的に 書換えや消去が可能な不揮発性メモリである EE PROM (Electrical ly Erasa ble and Programmable Read Only Memory) の一種であるフラッシュメモリ素子 を格納したものである。
さらに、 携帯電話 e X 1 1 5について図 74を用いて説明する。 携帯電話 e x 1 1 5は表示部 e X 202および操作キ一 e x 204を備えた本体部の各部を統 括的に制御するようになされた主制御部 e X 31 1に対して、 電源回路部 e x 3 1 0、 操作入力制御部 e X 304、 画像符号化部 e x 31 2、 カメラインタ一フ エース部 e X 303、 LCD (Liquid Crystal Display) 制御部 e x 302、 画 像復号化部 e X 309、 多重分離部 e X 308、 記録再生部 e x 307、 変復調 回路部 e X 306および音声処理部 e x 305が同期バス e x 31 3を介して互 いに接続されている。
電源回路部 e X 31 0は、 ユーザの操作により終話および電源キーがオン状態 にされると、 パッテリパックから各部に対して電力を供給することによリカメラ 付ディジタル携帯電話 e X 1 1 5を動作可能な状態に起動する。
携帯電話 e x 1 1 5は、 CPU、 ROMおよび RAM等でなる主制御部 e X 3 1 1の制御に基づいて、 音声通話モード時に音声入力部 e X 205で集音した音 声信号を音声処理部 e X 305によってディジタル音声データに変換し、 これを 変復調回路部 e X 306でスぺク 卜ラム拡散処理し、 送受信回路部 e x 301で ディジタルアナ口グ変換処理および周波数変換処理を施した後にアンテナ e X 2 01 を介して送信する。 また携帯電話 e x 1 1 5は、 音声通話モード時にアンテ ナ e X 201で受信した受信信号を増幅して周波数変換処理およびアナログディ ジタル変換処理を施し、 変復調回路部 e x 306でスぺク トラム逆拡散処理し、 音声処理部 e X 305によってアナログ音声信号に変換した後、 これを音声出力 部 e X 208を介して出力する。
さらに、 データ通信モード時に電子メールを送信する場合、 本体部の操作キー e X 204の操作によって入力された電子メールのテキストデータは操作入力制 御部 e X 304を介して主制御部 e x 31 1に送出される。 主制御部 e x 31 1 は、 テキス卜データを変復調回路部 e X 306でスペク トラム拡散処理し、 送受 信回路部 e X 301でディジタルアナログ変換処理および周波数変換処理を施し た後にアンテナ e X 201 を介して基地局 e x 1 1 0へ送信する。
データ通信モード時に画像データを送信する場合、 カメラ部 e x 203で撮像 された画像データをカメラインターフェース部 e X 303を介して画像符号化部 e X 31 2に供給する。 また、 画像データを送信しない場合には、 カメラ部 e x 203で撮像した画像データをカメラインターフェース部 e X 303および LC D制御部 e X 302を介して表示部 e x 202に直接表示することも可能である 画像符号化部 e x 3 1 2は、 カメラ部 e x 2 0 3から供給された画像データを 圧縮符号化することにより符号化画像データに変換し、 これを多重分離部 e X 3 0 8に送出する。 また、 このとき同時に携帯電話 e X 1 1 5は、 カメラ部 e X 2 0 3で撮像中に音声入力部 e X 2 0 5で集音した音声を音声処理部 e x 3 0 5を 介してディジタルの音声データとして多重分離部 e X 3 0 8に送出する。
多重分離部 e X 3 0 8は、 画像符号化部 e x 3 1 2から供給された符号化画像 データと音声処理部 e X 3 0 5から供給された音声データとを所定の方式で多重 化し、 その結果得られる多重化データを変復調回路部 e X 3 0 6でスぺク トラム 拡散処理し、 送受信回路部 e X 3 0 1でディジタルアナログ変換処理および周波 数変換処理を施した後にアンテナ e X 2 0 1を介して送信する。
データ通信モード時にホームページ等にリンクされた動画像ファイルのデータ を受信する場合、 アンテナ e X 2 0 1 を介して基地局 e x 1 1 0から受信した受 信信号を変復調回路部 e x 3 0 6でスぺク 卜ラム逆拡散処理し、 その結果得られ る多重化データを多重分離部 e X 3 0 8に送出する。
また、 アンテナ e X 2 0 1 を介して受信された多重化データを復号化するには 、 多重分離部 e x 3 0 8は、 多重化データを分離することにより画像データの符 号化ビットストリームと音声データの符号化ビットストリームとに分け、 同期バ ス e X 3 1 3を介して当該符号化画像データを画像復号化部 e x 3 0 9に供給す ると共に当該音声データを音声処理部 e X 3 0 5に供給する。
次に、 画像復号化部 e X 3 0 9は、 画像データの符号化ビットストリームを復 号することによリ再生動画像データを生成し、 これを L C D制御部 e X 3 0 2を 介して表示部 e X 2 0 2に供給し、 これにより、 例えばホームページにリンクさ れた動画像ファイルに含まれる動画データが表示される。 このとき同時に音声処 理部 e X 3 0 5は、 音声データをアナログ音声信号に変換した後、 これを音声出 力部 e x 2 0 8に供給し、 これにより、 例えばホームページにリンクされた動画 像ファイルに含まる音声データが再生される。
以上の構成において、 画像復号化部 e X 3 0 9は、 上記実施形態の視覚処理装 置を備えていても良い。 なお、 上記システムの例に限られず、 最近は衛星、 地上波によるディジタル放 送が話題となっており、 図 75に示すようにディジタル放送用システムにも上記 実施形態で説明した視覚処理装置、 視覚処理方法、 視覚処理プログラムを組み込 むことができる。 具体的には、 放送局 e x 409では映像情報の符号化ビットス トリームが電波を介して通信または放送衛星 e X 41 0に伝送される。 これを受 けた放送衛星 e x 41 0は、 放送用の電波を発信し、 この電波を衛星放送受信設 備をもつ家庭のアンテナ e X 406で受信し、 テレビ (受信機) e X 40 "Iまた はセットトップボックス (STB) e X 407などの装置により符号化ピットス トリームを復号化してこれを再生する。'ここで、 テレビ (受信機) e x 401ま たはセットトップボックス ( S T B ) e X 407などの装置が上記実施形態で説 明した視覚処理装置を備えていてもよい。 また、 上記実施形態の視覚処理方法を 用いるものであってもよい。 さらに、 視覚処理プログラムを備えていてもよい。 また、 記録媒体である CDや DVD等の蓄積メディア e X 402に記録した符号 化ビットストリームを読み取り、 復号化する再生装置 e X 403にも上記実施形 態で説明した視覚処理装置、 視覚処理方法、 視覚処理プログラムを実装すること が可能である。 この場合、 再生された映像信号はモニタ e X 404に表示される 。 また、 ケーブルテレビ用のケーブル e X 05または衛星 Z地上波放送のアン テナ e x 406に接続されたセッ卜トップボックス e x 407内に上記実施形態 で説明した視覚処理装置、 視覚処理方法、 視覚処理プログラムを実装し、 これを テレビのモニタ e X 408で再生する構成も考えられる。 このときセットトップ ボックスではなく、 テレビ内に上記実施形態で説明した視覚処理装置を組み込ん でも良い。 また、 アンテナ e X 41 1を有する車 e x 41 2で衛星 e x 41 0か らまたは基地局 e X 1 07等から信号を受信し、 車 e X 41 2が有するカーナビ ゲ一シヨン e X 41 3等の表示装置に動画を再生することも可能である。
更に、 画像信号を符号化し、 記録媒体に記録することもできる。 具体例として は、 D VDディスク e X 421に画像信号を記録する D VDレコーダや、 ハード ディスクに記録するディスクレコーダなどのレコーダ e X 420がある。 更に S Dカード e x 422に記録することもできる。 レコーダ e x 420が上記実施形 態の復号化装置を備えていれば、 D VDディスク e X 421や SDカード e X 4 2 2に記録した画像信号を補間して再生し、 モニタ e X 4 0 8に表示することが できる。
なお、 カーナビゲ一シヨン e X 4 1 3の構成は例えば図 7 4に示す構成のうち 、 カメラ部 e X 2 0 3とカメラインターフェース部 e X 3 0 3、 画像符号化部 e X 3 1 2を除いた構成が考えられ、 同様なことがコンピュータ e X 1 1 1ゃテレ ビ (受信機) e X 4 0 1等でも考えられる。
また、 上記携帯電話 e X 1 1 4等の端末は、 符号化器 '復号化器を両方持つ送 受信型の端末の他に、 符号化器のみの送信端末、 復号化器のみの受信端末の 3通 りの実装形式が考えられる。
このように、 上記実施形態で説明した視覚処理装置、 視覚処理方法、 視覚処理 プログラムを上述したいずれの機器 'システムに用いることは可能であり、 上記 実施形態で説明した効果を得ることができる。
[第 1 0実施形態]
図 7 6〜図 9 4を用いて、 本発明の第 1 0実施形態としての表示装置 7 2 0に ついて説明する。
図 7 6に示す表示装置 7 2 0は、 P D P、 L C D、 C R T , プロジェクタなど 、 画像を表示する表示装置である。 表示装置 7 2 0は、 上記実施形態で説明した 視覚処理装置を含む画像処理装置 7 2 3を有する点、 自動あるいは手動にょリ視 覚処理に用いるプロファイルデータを切り替えることできる点に特徴を有してい る。 なお、 表示装置 7 2 0は、 独立した装置であってもよいが、 携帯電話機、 P D A、 P Cなどの携帯情報端末に備えられている装置であってもよい。
〈表示装置 7 2 0〉
表示装置 7 2 0は、 表示部 7 2 1、 駆動制御部 7 2 2、 画像処理装置 7 2 3、 C P U 7 2 4、 入力部 7 2 5、 チューナ 7 2 6、 アンテナ 7 2 7、 コ一デック 7 2 8、 メモリコントローラ 7 2 9、 メモリ 7 3 0、 外部インタフェース ( Iノ F ) 7 3 1、 外部装置 7 4 0を備えている。
表示部 7 2 1は、 駆動制御部 7 2 2から読み出された画像情報 d 3 6 0を表示 する表示デバイスである。 駆動制御部 7 2 2は、 画像処理装置 7 2 3から出力さ れた出力画像信号 d 3 6 1を C P U 7 2 4からの制御により表示部 7 2 1に読み 出すとともに、 表示部 721を駆動するための装置である。 より具体的には、 駆 動制御部 722は、 C PU 724からの制御により、 出力画像信号 d 361の値 に応じた電圧値を表示部 721に与え画像を表示させる。
画像処理装置 723は、 C P U 724からの制御を受け、 入力画像信号 d 36 2に含まれる入力画像データ d 372 (図 77参照) の画像処理を行い、 出力画 像データ d 371 (図 77参照) を含む出力画像信号 d 361を出力する装置で ある。 画像処理装置 723は、 上記実施形態で説明した視覚処理装置を含み、 プ 口ファイルデータを用いて画像処理を行う点に特徴を有している。 詳細について は、 後述する。
CPU 724は、 表示装置 720の各部のデータ処理に関する演算を行うとと もに、 各部の制御を行うための装置である。 入力部 725は、 表示装置 720へ の操作をユーザに行わせるためのユーザィンタフェースであり、 各部の制御をす るためのキー、 つまみ、 リモコンなどで構成される。
チューナ 726は、 無線あるいは有線を介して受信した信号を復調し、 デジタ ルデータとして出力する。 詳しくは、 チューナ 726は、 アンテナ 727あるい はケーブル (図示せず) を介して、 地上波 (デジタル/アナログ) 放送、 BS ( デジタル/アナログ) . CS放送などを受信する。 コ一デック 728は、 チュー ナ 726によリ復調されたデジタルデータの復号化を行い、 画像処理装置 723 に入力される入力画像信号 d 362を出力する。
メモリコントローラ 729は、 D RAMなどで構成される C P Uの作業用メモ リ 730のァドレスやアクセスタイミングなどの制御を行う。
外部 I ZF 731は、 メモリカード 733、 PC735などの外部装置 740 から画像データや、 プロファイル情報などを取得し、 入力画像信号 d 362とし て出力するためのインタフェースである。 プロファイル情報とは、 画像処理を行 うためのプロファイルデータに関する情報である。 詳しくは、 後述する。 外部 I / F 731は、 例えば、 メモリカード I ZF 732、 PC I / F 734 , ネット ワーク I ZF 736、 無線 I ZF 737などにより構成される。 なお、 外部 I / F 731は、 ここに例示したものの全てを備えている必要は無い。
メモリカード I Z F 732は、 画像データやプロフアイル情報などを記録した メモリカード 733と表示装置 720とを接続するためのインタフェースである 。 PC I /F 734は、 画像データやプロファイル情報などを記録したパーソナ ルコンピュータなどの外部機器である PC735と表示装置 720とを接続する ためのインタフェースである。 ネッ卜ワーク I /F 736は、 表示装置 720を ネットワークに接続し、 画像データやプロファイル情報などを取得するためのィ ンタフェースである。 無線 I /F737は、 表示装置 720を無線 LANなどを 介して外部機器と接続し、 画像データやプロファイル情報などを取得するための インタフェースである。 なお、 外部 I /F 731は、 図示したものに限られず、 例えば、 USB、 光ファイバ一などと表示装置 720とを接続するためのインタ フェースであってもよい。
外部 I /F731 を介して取得された画像データやプロファイル情報は、 必要 によリコーデック 728によリ復号化された後、 入力画像信号 d 362として画 像処理装置 723に入力される。
〈画像処理装置 723〉
(1 ) 画像処理装置 723の構成
図 77を用いて、 画像処理装置 723の構成について説明する。 画像処理装置 723は、 入力画像信号 d 362に含まれる入力画像データ d 372に対して視 覚処理および色処理を行い、 出力画像データ d 371を含む出力画像信号 d 36 1を出力する装置である。 ここで、 入力画像データ d 372および出力画像デ一 タ d 371は、 RGB成分を有する画像データであり、 入力画像データ d 372 は、 ( I R, I G, I B) を RGB色空間の成分とし、 出力画像データ d 371 は、 (O t R, O t G, O t B) を RGB色空間の成分とする。
画像処理装置 723は、 入力画像データ d 372に対してカラー視覚処理を行 うカラ一視覚処理装置 745と、 カラー視覚処理装置 745の出力であるカラー 視覚処理信号 d 373に対して色処理を行う色処理装置 746と、 カラー視覚処 理および色処理に用いられるプロファイルデータを特定するためのプロファイル 情報 SS I, SC I を出力するプロファイル情報出力部 747とを備えている。 ここで、 カラー視覚処理信号 d 373は、 RGB成分を有する画像データであり 、 (OR, OG, OB) を RGB色空間の成分とする。 以下、 プロファイル情報出力部 747、 カラ一視覚処理装置 745、 色処理装 置 746の順に詳しい構成を説明する。
(2) プロファイル情報出力部 747とプロファイル情報 SS I, SC I 《2— 1》 プロファイル情報出力部 747の概要
図 78を用いて、 プロファイル情報 SS し SC I を出力するプロファイル情 報出力部 747について説明する。
プロフアイル情報出力部 747は、 カラ一視覚処理装置 745と色処理装置 7 46とにプロファイル情報 SS I , SC I をそれぞれ出力する装置であり (図 7 7参照) 、 環境検出部 749と、 情報入力部 748と、 出力制御部 750とから 構成される。 環境検出部 749は、 後述する環境情報の少なくとも一部を自動的 に検出し、 検出情報 S d 1 として出力する。 情報入力部 748は、 検出情報 S d 1 を取得し、 検出情報 S d 1が含む環境情報以外の環境情報をユーザに入力させ 、 入力情報 S d 2として出力する。 出力制御部 750は、 検出情報 S d 1 と入力 情報 S d 2とを取得し、 カラー視覚処理装置 745と色処理装置 746とにプロ ファイル情報 SS I , SC I を出力する。
各部の詳細な説明を行う前に、 まずプロファイル情報 SS I , SC I について 説明する。
《2— 1》 プロファイル情報 SS I, SC I
プロファイル情報 SS I, SC I とは、 カラー視覚処理装置 745と色処理装 置 746とにおいて用いられるプロファイルデータを特定するための情報である 。 具体的には、 プロファイル情報 SS し SC I は、 プロファイルデータ、 プロ フアイルデータを特定する番号などのタグ情報、 プロフアイルデータの処理の特 徵を示すパラメータ情報、 表示部 721 (図 76参照) の表示環境あるいは表示 部 721に表示される画像が視覚される視環境に関する環境情報のうちの少なく とも一つを含んでいる。
プロファイルデータとは、 カラ一視覚処理装置 745または色処理装置 746 における画像処理に用いられるデータであり、 処理される画像データに対する変 換係数を格納する係数マトリクスデータや処理される画像データに対する処理後 の画像データを与えるテーブルデータ (例えば、 2次元 LU丁など) などである タグ情報とは、 プロファイルデータを他のプロファイルデータと識別するため の識別情報であり、 例えば、 カラ一視覚処理装置 7 4 5と色処理装置 7 4 6とに 登録された複数のプロファイルデータのそれぞれに割り振られた番号などである o
パラメータ情報とは、 プロファイルデータの処理の特徴を示す情報であり、 例 えば、 プロファイルデータが実現するコントラスト強調処理、 ダイナミックレン ジ圧縮処理、 色変変換処理などの処理度合いを数値化した情報である。
環境情報とは、 画像処理された画像データが表示され、 視覚される環境に関す る情報であり、 例えば、 表示装置 7 2 0の設置場所における環境光の明るさや色 温度といった環境光情報、 表示部 7 2 1の製品情報 (例えば、 製品番号など) 、 表示部 7 2 1が表示する画像サイズ情報、 表示される画像と画像を視覚するユー ザとの距離に関する位置情報、 ユーザの年齢■性別などユーザに関するユーザ情 報などの情報である。
なお、 以下では、 プロファイル情報 S S I , S C Iがタグ情報を含む場合につ いて説明する。
《2— 2》環境検出部 7 4 9
環境検出部 7 4 9は、 センサなどを用いて環境情報の検出を行う装置である。 環境検出部 7 4 9は、 例えば、 環境光の明るさや色温度の検出を行う光センサや 、 表示部 7 2 1に取り付けられた製品情報を無線あるいは有線を介して読み取る 装置 (例えば、 無線タグの読み取り装置、 バーコードの読み取り装置、 表示装置 7 2 0が備える各部の情報を管理するデータベースから情報を読み取る装置など ) や、 ユーザとの距離を測定する無線あるいは赤外線などのセンサや、 ユーザに 関する情報を取得するカメラなど、 といった装置である。
環境検出部 7 4 9は、 検出した情報を検出情報 S d 1として、 情報入力部 7 4 8と出力制御部 7 5 0に出力する。
《2— 3》情報入力部 7 4 8
情報入力部 7 4 8は、 ユーザが環境情報を入力するための入力装置であり、 入 力された環境情報を入力情報 S d 2として出力する。 情報入力部 7 4 8は、 例え ば、 スィッチおよびスィッチからの入力を感知する回路などで構成されていても よいし、 表示部 7 2 1あるいは情報入力部 7 4 8自体に表示された入力用のユー ザインタフエースを操作するソフトで構成されてもよい。 また、 情報入力部 7 4 8は、 表示装置 7 2 0に内蔵されているものであってもよいし、 ネットワークな どを介して情報を入力する装置であってもよい。
情報入力部 7 4 8では、 検出情報 S d 1に含まれる環境情報以外の環境情報が 入力される。 例えば、 情報入力部 7 4 8では、 検出情報 S d 1に含まれる環境情 報に応じて、 ユーザが入力可能な環境情報が制御される。
なお、 情報入力部 7 4 8は、 検出情報 S d 1に関わらず全ての環境情報を入力 させるものであってもよい。 この場合には、 情報入力部 7 4 8は、 検出情報 S d 1を取得しないものであってもよいし、 検出情報 S d 1を取得しつつユーザがさ らに詳細な情報を入力することができるものであってもよい。
《2— 4》 出力制御部 7 5 0
出力制御部 7 5 0は、 検出情報 S d 1 と入力情報 S d 2とを取得し、 プロファ ィル情報 S S I , S C I を出力する。 具体的には、 出力制御部 7 5 0は、 検出情 報 S d 1 と入力情報 S d 2とから取得される環境情報に応じて好適なプロフアイ ルデータを選択し、 そのタグ情報を出力する。 より具体的には、 出力制御部 7 5 0は、 選択されるプロファイルデータの候補と環境情報のそれぞれの値とを関連 づけるデータベースを参照することにより、 取得された環境情報に対して好適な プロファイルデータを選択する。
環境情報とプロファイルデータとの関連づけについてさらに説明する。
例えば、 表示装置 7 2 0の環境光の明度が高い場合、 局所的なコントラストを 強調する視覚処理を行うことが望ましい。 このため、 出力制御部 7 5 0では、 よ リ局所的なコントラス卜を強調するプロファイルデータのタグ情報を出力する。 また、 例えば、 ユーザと表示装置 7 2 0との距離が遠い場合、 表示部 7 2 1に 表示される画像の視角が小さくなリ、 画像が小さく見えることとなる。 視角の大 きさが異なると、 画像の明るさが異なって感じられる。 このため、 出力制御部 7 5 0では、 視角の大きさに基づいて、 階調、 コントラストを変化させるようなプ 口ファイルデータのタグ情報を出力する。 なお、 表示装置 7 2 0の表示部 7 2 1 の大きさの違いもこの視角の大きさに影響を与える要因となる。
さらに、 出力制御部 7 5 0の動作の一例を記載する。
人間の視覚では、 表示される画像サイズが大きくなるとより明るく感じる傾向 があり、 暗部領域改善を抑えた方が好ましく感じることがある。 この点を考慮し て、 例えば、 取得される環境情報により表示部 7 2 1が表示する画像サイズが大 きいと判断された場合には、 カラ一視覚処理装置 7 4 5に対しては、 画像全域で の暗部領域改善を抑え、 かつ、 局所的なコントラスト改善を強める、 ような処理 を行うプロファイルデータのタグ情報がプロファイル情報 S S I として出力され る。 さらに、 色処理装置 7 4 6に対しては、 プロファイル情報 S S I と他の環境 情報とに応じた色処理を行うプロファイルデータのタグ情報がプロフアイル情報 S C I として出力される。 ここで、 「プロファイル情報 S S I と他の環境情報と に応じた色処理」 とは、 例えば、 プロファイル情報 S S Iにより指定されたプロ ファイルデータで視覚処理された画像が、 環境光の影響下で適切に色再現される ような色処理などである。
なお、 出力制御部 7 5 0では、 検出情報 S d l と入力情報 S d 2とにより重複 して環境情報が取得された場合に、 検出情報 S d 1 と入力情報 S d 2とのいずれ かを優先して用いることとしてもよい。
( 3 ) カラー視覚処理装置 7 4 5
《3— 1》 カラー視覚処理装置 7 4 5の構成
図 7 9を用いて、 カラ一視覚処理装置 7 4 5の構成について説明する。 カラ一 視覚処理装置 7 4 5は、 上記実施形態で説明した視覚処理を実行可能な視覚処理 装置 7 5 3を備え、 入力画像データ d 3 7 2の輝度成分に対して視覚処理を行う 点、 色制御部 7 5 2を備え、 輝度成分に対して行われた視覚処理を色成分にまで 拡張する点、 において特徴を有している。
カラ一視覚処理装置 7 4 5は、 第 1色空間変換部 7 5 1 と、 視覚処理装置 7 5 3と、 色制御部 7 5 2と、 第 2色空間変換部 7 5 4とを備えている。
第 1色空間変換部 7 5 1は、 R G B色空間の入力画像データ d 3 7 2を、 輝度 成分と色成分に変換する。 例えば、 第 1色空間変換部 7 5 "Iは、 R G B色空間の 入力画像データ d 3 7 2を、 Y C b C r色空間の信号に変換する。 変換後の輝度 成分の信号を入力信号 I S、 色成分の信号を色信号 I C b、 1 C rとする。
視覚処理装置 753は、 入力画像データ d 372の輝度成分である入力信号 I Sの視覚処理を行い、 出力信号 OSを出力する装置である。 また、 視覚処理装置 753には、 プロファイル情報出力部 747 (図 77参照) からプロファイル情 報 S S Iが入力され、 入力されたプロファイル情報 S S Iにより特定されるプロ ファイルデータを用いた視覚処理が行われる。 視覚処理装置 753の詳細につい ては、 後述する。
色制御部 752には、 色信号 I C b、 I C rと、 入力信号 I Sと、 出力信号 O Sとが入力され、 補正された色信号である補正色信号 OC b、 OC rが出力され る。 例えば、 色制御部 752では、 入力信号 I Sと出力信号 OSとの比を用いた 補正が行われる。 より具体的には、 入力信号 I Sの信号値に対する出力信号 OS の信号値の割合を色信号 I C b、 I C rの信号値に乗算した値を、 それぞれ補正 色信号 OC b、 OC rの値とする。
第 2色空間変換部 754は、 YC b C r色空間の信号である出力信号 OS、 補 正色信号 OC b、 OC rを RGB色空間のカラ一視覚処理信号 d 373に変換す る。
《 3— 2》視覚処理装置 753の構成
視覚処理装置 753としては、 上記実施形態で説明した視覚処理装置 1 (図 1 参照) と同様の視覚処理装置が用いられる。
図 80を用いて、 視覚処理装置 753の構成について説明する。
図 80に示す視覚処理装置 753は、 図 1に示す視覚処理装置 1と同様の構成 を有する視覚処理装置である。 視覚処理装置 1とほぼ同様の機能を果たす部分に は、 同じ符号を付している。 図 80に示す視覚処理装置 753と、 図 1に示す視 覚処理装置 1 との相違点は、 プロファイルデータ登録装置 8が、 取得されたプロ ファイル情報 S S Iにより特定されるプロファイルデータを 2次元 L U T 4に登 録する点である。 その他の各部の説明は、 上記実施形態と同様であるため省略す る。
図 80に示す視覚処理装置 753は、 2次元 L U T 4に登録されたプロフアイ ルデータを用いて入力信号 I Sの視覚処理を行い、 出力信号 OSを出力する。 ( 4 ) 色処理装置 7 4 6
色処理装置 7 4 6は、 取得されたプロファイル情報 S C I により特定されるプ 口ファイルデータを用いて、 カラ一視覚処理装置 7 4 5の出力であるカラ一視覚 処理信号 d 3 7 3の色処理を行う。 色処理装置 7 4 6で用いられるプロファイル データは、 例えば、 カラー視覚処理信号 d 3 7 3の成分 (O R, O G , O B ) に 対して、 出力画像データ d 3 7 1の成分 (O t R, O t G, O t B ) を与える 3 つの 3次元ルックアップテーブルや 3行 3列の変換係数マトリクスデータである
〈表示装置 7 2 0の効果〉
( 1 )
表示装置 7 2 0では、 取得された環境情報に好適なプロファイルデータを用い た画像処理を行うことが可能となる。 特に、 自動的に検出された環境情報のみな らず、 ユーザが入力した環境情報にも基づいてプロファイルデータの選択が行わ れるため、 ユーザにとってより視覚的効果の高い画像処理を行うことが可能とな る。
プロファイルデータとしてルックアップテーブルを用いた場合には、 テーブル の参照によリ画像処理が行われるため高速な画像処理が実現可能となる。
表示装置 7 2 0では、 プロフアイルデータを変更することにより異なる画像処 理が実現される。 すなわち、 ハードウェア構成を変更することなく異なる画像処 理が実現される。
プロファイルデータを用いた画像処理では、 予めプロファイルデータを生成し ておくことができるため、 複雑な画像処理を容易に実現することが可能となる。
( 2 )
プロファイル情報出力部 7 4 7では、 カラー視覚処理装置 7 4 5と色処理装置 7 4 6とのそれぞれに対して、 異なるプロファイル情報を出力することが可能と なる。 このため、 カラー視覚処理装置 7 4 5と色処理装置 7 4 6とにおけるそれ ぞれの画像処理が重複した処理、 あるいは効果が相殺される処理となることが防 止可能となる。 すなわち、 画像処理装置 7 2 3による画像処理を適切に行うこと が可能となる。 〈変形例〉
(1 )
上記実施形態において、 入力画像データ d 372、 出力画像データ d 371、 カラー視覚処理信号 d 373は、 RGB色空間の信号であると記載したが、 他の 色空間の信号であっても良い。 例えば、 それぞれの信号は、 YC b C r色空間、 YUV色空間、 L a b色空間、 L u v色空間、 Y I Q色空間、 XYZ色空間、 Y P b P r色空間などで表される信号であってもよい。
また、 第 1色空間変換部 751、 第 2色空間変換部 754において取り扱われ る信号についても同様であり、 実施形態に記載したものに限らない。
(2)
上記実施形態では、 プロファイル情報 SS し SC Iがタグ情報を含む場合に ついて説明した。 ここで、 プロファイル情報 SS し SC Iがその他の情報 (プ 口ファイルデータ、 パラメータ情報、 環境情報など) を含む場合の画像処理装置 723の各部の動作について説明する。
《2 -"!》
プロファイル情報 SS I, SC Iがプロファイルデータを含む場合、 出力制御 部 750は、 プロファイルデータを登録して記憶している、 あるいはプロフアイ データを生成可能な装置であり、 取得した検出情報 S d 1 と入力情報 S d 2とか らカラ一視覚処理装置 745と色処理装置 746とにおいて用いられるプロファ ィルデータを判断し、 それぞれの出力する。
力ラ一視覚処理装置 745と色処理装置 746とでは、 取得したプロフアイル データを用いて画像処理を行う。 例えば、 視覚処理装置 753 (図 80参照) の プロファイルデータ登録装置 8は、 プロファイル情報 SS I に含まれるプロファ ィルデータを 2次元 LUT4に登録して視覚処理を行う。 なおこの場合、 視覚処 理装置 753は、 プロファイルデータ登録装置 8を備えていなくてもよい。 この画像処理装置 723では、 プロファイルデータそのものをプロファイル情 報出力部 747からカラ一視覚処理装置 745と色処理装置 746とに出力する ため、 用いられるプロファイルデータをより確実に特定することが可能となる。 さらに、 カラ一視覚処理装置 745と色処理装置 7 6とにおけるプロファイル データのための記憶容量を削減することが可能となる。
《2 - 2》
プロファイル情報 S S し S C Iがパラメータ情報を含む場合、 出力制御部 7 5 0は、 検出情報 S d 1 と入力情報 S d 2とからパラメータ情報を出力するため のデータベースなどを有している装置である。 このデータベースは、 環境情報の 値と、 その値を示す環境において好適な画像処理との関係を記憶している。 力ラ一視覚処理装置 7 4 5と色処理装置 7 4 6とでは、 取得したパラメータ情 報の値に近い画像処理を実現するプロファィルデータを選択し、 画像処理を行う 。 例えば、 視覚処理装置 7 5 3 (図 8 0参照) のプロファイルデータ登録装置 8 は、 プロファイル情報 S S Iに含まれるパラメータ情報を用いてプロファイルデ —タを選択し、 選択したプロフアイルデータを 2次元 L U T 4に登録して視覚処 理を行う。
この画像処理装置 7 2 3では、 プロファイル情報 S S し S G Iのデータ量を 削減することが可能となる。
《 2— 3》
プロファイル情報 S S I , S C Iが環境情報を含む場合、 出力制御部 7 5 0は 、 検出情報 S d 1 と入力情報 S d 2とをプロファイル情報として出力する装置で ある。 ここで、 出力制御部 7 5 0は、 検出情報 S d 1 と入力情報 S d 2とから取 得した環境情報の全てをプロファイル情報 S S I, S C I として出力してもよい し、 選択的にプロファイルファイル情報 S S I とプロファイル情報 S C I とに振 リ分けて出力してもよい。
カラー視覚処理装置 7 4 5と色処理装置 7 4 6とでは、 環境情報に応じて好適 なプロファイルデータを選択し、 画像処理を行う。 例えば、 視覚処理装置 7 5 3 (図 8 0参照) のプロファイルデータ登録装置 8は、 プロファイル情報 S S Iに 含まれる環境情報のそれぞれの値と選択されるプロファイルデータの候補とを関 連づけるデータベースなどを参照することにより、 取得された環境情報に対して 好適なプロファイルデータを選択し、 選択したプロファイルデータを 2次元し U T 4に登録して視覚処理を行う。
環境情報の全てをプロファイル情報 S S I , S C I として出力する場合には、 出力制御部 7 5 0における処理を削減することが可能となる。 環境情報を選択的 にプロファイル情報 S S し S C I として出力する場合には、 カラ一視覚処理装 置 7 4 5と色処理装置 7 4 6とにおけるそれぞれの処理を考慮することができる ため、 重複した効果を奏する画像処理や、 相殺される効果を奏する画像処理を防 止することが可能となる。 さらに、 カラー視覚処理装置 7 4 5と色処理装置 7 4 6とでは、 適切に選択された環境情報のみを取得するため、 より適切かつ簡易に プロファイルデータの選択を行うことが可能となる。
《2— 4》
プロファイル情報 S S I , S C Iは、 プロファイルデータ、 タグ情報、 パラメ ータ情報、 環境情報の少なくとも一つを含んでいればよく、 それぞれが同時に含 まれていてもよい。
また、 プロファイル情報 S S I とプロファイル情報 S C I とは、 必ずしも異な る情報である必要は無く、 同じ情報であってもよい。
( 3 )
視覚処理装置 7 5 3は、 [第 1実施形態] 〈変形例〉 (7 ) で述べたプロファ ィルデータ登録装置 7 0 1 (図 9参照) を含む装置であり、 プロファイル情報 S S I を用いて選択されたプロファイルデータと、 プロファイル情報 S S Iから取 得される合成度とから新たなプロファイルデータを生成することができる装置で あっても良い。
図 8 1を用いて、 変形例としての視覚処理装置 7 5 3の動作について説明を加 える。
変形例としての視覚処理装置 7 5 3では、 プロファイルデータ登録部 7 0 2に 登録されたプロファイルデータのうち、 プロファイル情報 S S I に基づいて選択 されたプロファイルデータを用いて新たなプロファイルデータが生成される。 プロファイルデータ登録部 7 0 2は、 プロファイル情報 S S Iが含むタグ情報 などに基づいて、 プロファイルデータ 7 6 1 とプロファイルデータ 7 6 2を選択 したとする。 ここで、 プロファイルデータ 7 6 1は、 暗部改善処理を行うための プロファイルデータであり、 環境光が弱い場合などに選択されるプロファイルデ ータであり、 プロファイルデータ 7 6 2は、 局所的コントラスト改善処理を行う ためのプロファイルデータであり、 環境光が強い場合などに選択されるプロファ ィルデータであるとする。
プロファイル生成部 7 0 4は、 プロファイル情報 S S Iが含む環境情報のうち 環境光の強さを取得し、 その環境光の強さにおいて適切な画像処理を行うための プロファイルデータをプロファイルデータ 7 6 1 とプロファイルデータ 7 6 2と から生成する。 より具体的には、 環境情報が含む環境光の強さの値を用いてプロ ファイルデータ 7 6 1 とプロファイルデータ 7 6 2との値を内分する。
以上のようにして、 変形例としての視覚処理装置 7 5 3は、 新しいプロフアイ ルデータを生成し、 視覚処理を行うことが可能となる。 変形例としての視覚処理 装置 7 5 3では、 予め多くのプロファイルデータを登録しておかなくとも、 プロ ファイルデータを生成して多くの異なる視覚処理を実現することが可能となる。
( 4 )
視覚処理装置 7 5 3は、 図 8 0に示したものに限定されない。 例えば、 上記実 施形態で説明した視覚処理装置 5 2 0 (図 6参照) 、 視覚処理装置 5 2 5 (図 7 参照) 、 視覚処理装置 5 3 0 (図 8参照) のいずれかであってもよい。
図 8 2〜図 8 4を用いてそれぞれの構成について説明する。
《4— 1》
図 8 2を用いて、 視覚処理装置 7 5 3 aの構成について説明する。
図 8 2に示す視覚処理装置 7 5 3 aは、 図 6に示す視覚処理装置 5 2 0と同様 の構成を有する視覚処理装置である。 視覚処理装置 5 2 0とほぼ同様の機能を果 たす部分には、 同じ符号を付している。 図 8 2に示す視覚処理装置 7 5 3 aと、 図 6に示す視覚処理装置 5 2 0との相違点は、 プロファイルデータ登録部 5 2 1 が、 取得されたプロファイル情報 S S I と画像判定部 5 2 2からの判定結果 S A とに基づいて特定されるプロファイルデータを 2次元 L U T 4に登録する点であ る。 その他の各部の説明は、 上記実施形態と同様であるため省略する。
この視覚処理装置 7 5 3 aでは、 プロファイル情報 S S Iだけでなく、 判定結 果 S Aにも基づいてプロファイルデータの選択が行われるため、 より適切な視覚 処理を行うことが可能となる。
《4— 2》 図 8 3を用いて、 視覚処理装置 7 5 3 bの構成について説明する。
図 8 3に示す視覚処理装置 7 5 3 bは、 図 7に示す視覚処理装置 5 2 5と同様 の構成を有する視覚処理装置である。 視覚処理装置 5 2 5とほぼ同様の機能を果 たす部分には、 同じ符号を付している。 図 8 3に示す視覚処理装置 7 5 3 bと、 図 7に示す視覚処理装置 5 2 5との相違点は、 プロファイルデータ登録部 5 2 6 が、 取得されたプロファイル情報 S S I と入力装置 5 2 7からの入力結果 S Bと に基づいて特定されるプロファイルデータを 2次元 L U T 4に登録する点である 。 その他の各部の説明は、 上記実施形態と同様であるため省略する。
この視覚処理装置 7 5 3 bでは、 プロファイル情報 S S Iだけでなく、 入力結 果 S Bにも基づいてプロフアイルデータの選択が行われるため、 よリ適切な視覚 処理を行うことが可能となる。
《4— 3》
図 8 4を用いて、 視覚処理装置 7 5 3 cの構成について説明する。
図 8 4に示す視覚処理装置 7 5 3 cは、 図 8に示す視覚処理装置 5 3 0と同様 の構成を有する視覚処理装置である。 視覚処理装置 5 3 0とほぼ同様の機能を果 たす部分には、 同じ符号を付している。 図 8 4に示す視覚処理装置 7 5 3 Gと、 図 8に示す視覚処理装置 5 3 0との相違点は、 プロファイルデータ登録部 5 3 1 が、 取得されたプロファイル情報 S S I と、 画像判定部 5 2 2からの判定結果 S Aと、 入力装置 5 2 7からの入力結果 S Bとに基づいて特定されるプロファイル データを 2次元 L U T 4に登録する点である。 その他の各部の説明は、 上記実施 形態と同様であるため省略する。
この視覚処理装置 7 5 3 bでは、 プロファイル情報 S S Iだけでなく、 判定結 果 S Aと入力結果 S Bとにも基づいてプロファイルデータの選択が行われるため 、 より適切な視覚処理を行うことが可能となる。
( 5 )
上記実施形態で説明した表示装置 7 2 0の各部において、 同様の機能を実現す る部分は、 共通のハードウエアで実現されていても良い。
例えば、 表示装置 7 2 0の入力部 7 2 5 (図 7 6参照) は、 プロファイル情報 出力部 7 4 7の情報入力部 7 4 8、 視覚処理装置 7 5 3 b (図 8 3参照) の入力 装置 5 2 7、 視覚処理装置 7 5 3 c (図 8 4参照) の入力装置 5 2 7などと兼用 される装置であってもよい。
また、 視覚処理装置 7 5 3 (図 8 0参照) のプロファイルデータ登録装置 8、 視覚処理装置 7 5 3 a (図 8 2参照) のプロファイルデータ登録部 5 2 1、 視覚 処理装置 7 5 3 b (図 8 3参照) のプロファイルデータ登録部 5 2 6、 視覚処理 装置 7 5 3 c (図 8 4参照) のプロファイルデータ登録部 5 3 1などは、 画像処 理装置 7 2 3 (図 7 6参照) の外部に備えられる物であっても良く、 例えば、 メ モリ 7 3 0や外部装置 7 4 0により実現されていても良い。
また、 それぞれのプロフアイルデータ登録部やプロフアイルデータ登録装置に 登録されるプロファイルデータは、 予め各部に登録されているものであってもよ いし、 外部装置 7 4 0、 あるいはチューナ 7 2 6から取得されるものであっても よい。
また、 それぞれのプロフアイルデータ登録部やプロフアイルデ一タ登録装置は 、 色処理装置 7 4 6においてプロファイルデータが記憶される記憶装置と兼用さ れていても良い。
また、 プロファイル情報出力部 7 4 7は、 画像処理装置 7 2 3の外部や表示装 置 7 2 0の外部に有線または無線で接続される装置であっても良い。
( 6 )
視覚処理装置 7 5 3 (図 8 0参照) のプロファイルデータ登録装置 8、 視覚処 理装置 7 5 3 a (図 8 2参照) のプロファイルデータ登録部 5 2 1、 視覚処理装 置 7 5 3 b (図 8 3参照) のプロファイルデータ登録部 5 2 6、 視覚処理装置 7 5 3 c (図 8 4参照) のプロファイルデータ登録部 5 3 1などは、 視覚処理に用 いられるプロファイルデータのプロファイル情報を出力できる装置であってもよ い。
例えば、 視覚処理装置 7 5 3 (図 8 0参照) のプロファイルデータ登録装置 8 は、 2次元 L U T 4に登録したプロファイルデータのプロファイル情報を出力す る。 出力されたプロファイル情報は、 例えば、 色処理装置 7 4 6に入力され、 色 処理装置 7 4 6においてプロファイルデータを選択するために用いられる。 これにより、 プロファイル情報 S S Iにより指定されたプロファイルデータ以 外のプロファイルデータが視覚処理装置 7 5 3で用いられた場合でも、 色処理装 置 7 4 6は、 視覚処理装置 7 5 3で用いられたプロファイルデータを判断するこ とが可能となる。 このため、 カラ一視覚処理装置 7 4 5と色処理装置 7 4 6とに おける画像処理がそれぞれ重複する処理となることや相殺する処理となることが さらに防止可能となる。
( 7 )
画像処理装置 7 2 3では、 プロファイル情報出力部 7 4 7に変えて、 ユーザに 入力を行わせるユーザ入力部を備えていてもよい。
図 8 5に画像処理装置 7 2 3 (図 7 7参照) の変形例としての画像処理装置 7 7 0を示す。 画像処理装置 7 7 0は、 ユーザに入力を行わせるユーザ入力部 7 7 2を備えている点に特徴を有している。 画像処理装置 7 7 0において、 画像処理 装置 7 2 3とほぼ同様の機能を果たす部分には同じ符号を付して説明を省略する ユーザ入力部 7 7 2は、 カラー視覚処理装置 7 4 5と色処理装置 7 4 6とにそ れぞれプロファイル情報 S S I, S C Iを出力する。
図 8 6を用いて、 ユーザ入力部 7 7 2について説明を加える。
ユーザ入力部 7 7 2は、 ユーザに入力を行わせる部分と、 入力された情報に基 づいてプロファイル情報 S S I , S C Iを出力する部分とから構成されている。 ユーザに入力を行わせる部分は、 例えば、 ユーザの嗜好する明るさを入力させ る明るさ入力部 7 7 5と、 ユーザの嗜好する画質を入力させる画質入力部 7 7 6 とから構成されている。
明るさ入力部 7 7 5は、 例えば、 表示される画像中の光の状態を入力するスィ ツチ、 画像が表示される環境の光の状態を入力するスィッチなどから構成されて おり、 入力結果を第 1入力結果 S d 1 4として出力する。 表示される画像中の光 の状態を入力するスィッチは、 例えば、 画像中の逆光■順光や、 撮影時のスト口 ポの有無や 撮影時に用いられたマクロプログラムの状態などを入力するための スィッチである。 ここで、 マクロプログラムとは、 撮影装置を被写体の状態に応 じて制御するためのプログラムである。 画像が表示される環境の光の状態を入力 するスィッチは、 例えば、 環境光の明るさ、 色温度などを入力するためのスイツ チである。
画質入力部 7 7 6は、 ユーザの画質の好みを入力するためのスィッチであり、 例えば、 デフォルト■ダイナミック■クラシックなどといった異なる視覚効果を 入力するスィッチである。 画質入力部 7 7 6は、 入力結果を第 2入力結果 S d 1 3として出力する。
入力された情報に基づいてプロファイル情報 S S I, S C Iを出力する部分は 、 出力制御部 7 7 7から構成されている。 出力制御部 7 7 7は、 第 1入力結果 S d 1 4と第 2入力結果 S d 1 3を取得し、 プロファイル情報 S S I, S G Iを出 力する。 より具体的には、 第 1入力結果 S d 1 4や第 2入力結果 S d 1 3の値に 関連づけられたプロファイルデータのプロファイル情報 S S I, S C I を出力す る。
さらに、 出力制御部 7 7 7の動作について具体的に説明する。 例えば、 明るさ 入力部 7 7 5と画質入力部 7 7 6とで 「ダイナミック」 な 「逆光モード」 と入力 された場合、 プロファイル情報 S S Iでは、 逆光による暗部改善を実現するプロ ファイルデータのプロファイル情報が出力される。 一方、 プロファイル情報 S C Iでは、 逆光部分での色処理を行わないプロファイルデータのプロファイル情報 が出力され、 画像処理装置 7 7 0全体としての画像処理が適正化される。
画像処理装置 7 7 0による効果を記載する。
画像処理装置 7 7 0では、 ユーザの好みに応じた適切なプロファイルデータに よる画像処理が実現可能となる。 さらに、 カラー視覚処理装置 7 4 5と色処理装 置 7 4 6とに異なるプロファイル情報 S S I, S C Iを出力することができるた め、 それぞれの画像処理が重複した処理あるいは相殺した処理となることが防止 可能となる。 またさらに、 カラー視覚処理装置 7 4 5と色処理装置 7 4 6とのそ れぞれに対して異なるプロファイル情報 S S し S C Iを出力するため、 それぞ れの装置で考慮すべきプロファイル情報 S S I, S C Iの情報量を削減でき、 よ リ簡易にプロファイルデータの選択を行うことが可能となる。
( 8 )
画像処理装置 7 2 3は、 入力画像信号 d 3 6 2に含まれる属性情報を分離し、 分離した属性情報に基づいてプロフアイルデータを選択し、 画像処理を行う装置 であってもよい。
《8— 1》 画像処理装置 8 0 0の構成
図 8 7に、 画像処理装置 7 2 3の変形例としての画像処理装置 8 0 0を示す。 画像処理装置 8 0 0は、 入力画像信号 d 3 6 2から属性情報 d 3 8 0を分離する 分離部 8 0 1を備える点、 分離された属性情報 d 3 8 0に基づいてプロファイル 情報 S S I , S C Iを出力する点において特徴を有している。
図 8 7に示す画像処理装置 8 0 0は、 入力画像信号 d 3 6 2から入力画像デー タ d 3 7 2と属性情報 d 3 8 0とを分離する分離部 8 0 1 と、 属性情報 d 3 8 0 に基づいてプロファイル情報 S S し S C Iを出力する属性判定部 8 0 2と、 入 力画像データ d 3 7 2とプロファイル情報 S S I とに基づいて視覚処理を行う力 ラ一視覚処理装置 7 4 5と、 カラ一視覚処理信号 d 3 7 3とプロフアイル情報 S C I とに基づいて色処理を行う色処理装置 7 4 6とを備えている。 なお、 上記実 施形態とほぼ同じ機能を有する部分については、 同じ符号を付し説明を省略する 分離部 8 0 1は、 入力画像信号 d 3 6 2から入力画像データ d 3 7 2と属性情 報 d 3 8 0とを分離する。 属性情報 d 3 8 0は、 入力画像信号 d 3 6 2のヘッダ 部分などに配置される情報であり、 入力画像信号 d 3 6 2の属性に関する情報で ある。 分離部 8 0 1は、 入力画像信号 d 3 6 2を先頭から所定のビット数だけ読 みとることにより、 属性情報 d 3 8 0を分離する。 なお、 属性情報 d 3 8 0は、 入力画像信号 d 3 6 2の後尾に配置されるものであってもよい。 あるいは、 入力 画像信号 d 3 6 2中にフラグ情報を伴って分離可能な状態で配置されていてもよ い。
図 8 8に、 属性情報 d 3 8 0が含まれる入力画像信号 d 3 6 2のフォーマット の一例を示す。 図 8 8に示す入力画像信号 d 3 6 2では、 データの先頭部分に属 性情報 d 3 8 0としてのコンテンツ情報が配置されているとともに、 それに続い て入カ画^^データ d 3 7 2が配置されている。
コンテンツ情報は、 入力画像データ d 3 7 2の全体の内容に関する属性であり 、 入力画像データ d 3 7 2のタイトル、 制作会社、 監督、 制作年、 種類、 制作側 指定属性などを含んでいる。 ここで、 種類とは、 コンテンツの種類に関する情報 であり、 例えば、 S F、 アクション、 ドラマ、 ホラー、 などといった情報が含ま れる。 制作側指定属性とは、 コンテンツ制作側が指定する表示特性に関する情報 であり、 例えば、 ダイナミック、 恐怖感、 などといった情報が含まれる。
属性判定部 8 0 2は、 分離された属性情報 d 3 8 0に基づいてプロファイル情 報 S S し S C I を出力する。
図 8 9を用いて、 属性判定部 8 0 2の構成について説明する。 属性判定部 8 0 2は、 属性検出部 8 0 6と属性入力部 8 0 5と出力制御部 8 0 7とを備えている 属性検出部 8 0 6は、 属性情報 d 3 8 0に含まれるコンテンツ情報を検出し、 検出情報 S d 3として出力する。
属性入力部 8 0 5は、 ユーザにコンテンツ情報の入力を行わせるための装置で ある。 属性入力部 8 0 5は、 検出情報 S d 3を取得し、 検出情報 S d 3が含む情 報を更新する、 あるいは検出情報 S d 3が含まない情報を追加し、 入力情報 S d 4として出力する。
ここで、 属性入力部 8 0 5は、 ユーザがコンテンツ情報を入力するための入力 装置であり、 入力されたコンテンツ情報を入力情報 S d 4として出力する。 属性 入力部 8 0 5は、 例えば、 スィッチおよびスィッチからの入力を感知する回路な どで構成されていてもよいし、 表示部 7 2 1あるいは属性入力部 8 0 5自体に表 示された入力用のユーザインタフェースを操作するソフ卜で構成されてもよい。 また、 表示装置 7 2 0に内蔵されているものであってもよいし、 ネットワークな どを介して情報を入力する装置であってもよい。
なお、 属性入力部 8 0 5では、 検出情報 S d 3に含まれるコンテンツ情報に応 じて、 ユーザが入力可能なコンテンツ情報が制御されるものであってもよい。 例 えば、 属性検出部 8 0 6が入力画像データ d 3 7 2の種類は 「アニメ」 であると 検出した場合、 属性入力部 8 0 5では、 アニメに関する項目 (例えば、 アニメ監 督、 アニメタイトルなど) のみを入力させるとしてもよい。
出力制御部 8 0 7は、 検出情報 S d 3と入力情報 S d 4とを取得し、 プロファ ィル情報 S S し S C Iを出力する。
出力制御部 8 0 7の詳しい動作について説明を加える。 出力制御部 8 0 7は、 検出情報 S d 3と入力情報 S d 4とから属性情報 d 3 8 0の内容を取得する。 さ らに、 その属性情報 d 3 8 0を有する画像に対して好適な画像処理を行うプロフ アイルデータを決定する。 例えば、 出力制御部 8 0 7は、 属性情報 d 3 8 0の各 項目とプロファイルデータとの関連付けを記憶するデータベースを参照し、 プロ ファイルデータを決定する。 ここで、 出力制御部 8 0 7は、 検出情報 S d 3と入 力情報 S d 4とにより同じ項目のコンテンツ情報について異なる値が取得された 場合、 いずれかの情報を優先させることとしてもよい。 例えば、 常に入力情報 S d 4を優先的に利用するなどしてもよい。
さらに、 出力制御部 8 0 7は、 決定したプロファイルデータ、 決定したプロフ アイルデータを特定する番号などのタグ情報、 決定したプロファイルデータの処 理の特徴を示すパラメータ情報のうち少なくとも一つを含むプロフアイル情報 S S I , S C I を出力する。
プロファイル情報 S S し S C Iに関する詳しい説明は上記実施形態と同様で あるため省略する。
カラー視覚処理装置 7 4 5や色処理装置 7 4 6では、 プロファイル情報 S S I , S C Iから画像処理に用いるプロファイルデータを判断し、 画像処理を行う。 例えば、 プロファイル情報 S S I, S C Iがプロファイルデータを含む場合、 そ のプロファイルデータを用いて画像処理を行う。 プロファイル情報 S S し S C Iがタグ情報、 パラメータ情報を含む場合、 それぞれの情報により特定されるプ 口ファイルデータを用いて画像処理を行う。
なお、 出力制御部 8 0 7は、 検出情報 S d 3と入力情報 S d 4とから取得され るコンテンツ情報の各項目をプロファイル情報 S S I, S C I として出力しても よい。 この場合、 カラー視覚処理装置 7 4 5や色処理装置 7 4 6では、 プロファ ィル情報 S S I , S C Iから画像処理に用いるプロファイルデータを特定し、 画 像処理を行う。
《8— 2》 効果
( 1 )
コンテンツ制作時のコンテンツ情報に応じて適切なプロファイルデータを用い た画像処理を行うことが可能となる。 このため、 コンテンツ制作側の意図を考慮 して画像処理を行うことが可能となる。
より具体的には、 タイトル、 制作会社などにより、 画像全体の明るさ、 色温度 などの傾向を判断し、 画像全体の明るさ、 色温度などを変換する画像処理を行う ことなどが可能となる。 また、 制作側指定属性などにより、 制作側の意図する画 像表示を行わせることが可能となる。
( 2 )
属性判定部 8 0 2は、 自動的にコンテンツ情報を検出する属性検出部 8 0 6だ けでなく、 手動によリコンテンッ情報を入力させる属性入力部 8 0 5も備える。 このため、 コンテンツ情報の検出に不具合がある場合でも、 属性入力部 8 0 5に よりコンテンツ情報を適切に入力することが可能となり、 適切な画像処理を行う ことが可能となる。 さらに、 属性入力部 8 0 5により、 ユーザ側の好みを画像処 理に反映させることも可能となる。 例えば、 アニメはメリハリを強くした画像に 、 映画は鮮やかな画像に、 というようにユーザ側の好みを反映させることが可能 となる。 さらに、 デジタルリマスター版のように修正された画像のコンテンツ情 報を修正することが可能となる。
( 3 )
カラ一視覚処理装置 7 4 5と色処理装置 7 4 6とにそれぞれプロファイル情報 S S し S C I を指示することが可能となる。 このため、 コンテンツ情報の種類 として 「アクションおよびホラ一」 などと複数の値が指定されている場合にでも 、 アクションのように動きが多い部分に対しては、 カラー視覚処理装置 7 4 5で 適切に視覚処理を行わせ、 ホラーのように色が心理的影響を与える部分に対して は、 色処理装置 7 4 6で適切に色処理を行わせることが可能となる。
また、 カラー視覚処理装置 7 4 5と色処理装置 7 4 6とのそれぞれに対して異 なるプロファイル情報 S S し S C Iを出力するため、 それぞれの装置で考慮す べきプロファイル情報 S S I, S C Iの情報量を削減でき、 より簡易にプロファ ィルデータの選択を行うことが可能となる。
《8— 3》 変形例
( 1 )
一旦取得されたコンテンツ情報は、 繰り返し用いてもよい。 この場合、 再度す ベての情報を取得しなくても記憶されたコンテンツ情報を用いて画像処理を行う プロファイルデータを特定できるものであってもよい。
( 2 )
画像処理装置 8 0 0は、 属性入力部 8 0 5または属性検出部 8 0 6のいずれか 一方を備えない装置であってもよい。 また、 分離部 8 0 1は、 必ずしも画像処理 装置 8 0 0の内部に備えられていなくともよい。
( 3 )
プロファイル情報 S S I とプロファイル情報 S C I とは、 必ずしも異なる情報 である必要は無く、 同じ情報であってもよい。
( 4 )
属性情報 d 3 8 0は、 コンテンツ情報以外の情報を含むものであってもよい。 具体的には、 入力画像データの一部に関わる属性であるシーン属性情報、 入力画 像信号 d 3 6 2が生成された環境に関わる撮影属性情報、 入力画像信号 d 3 6 2 が表示装置 7 2 0に取得されるまでの媒体に関わる放送属性情報、 入力画像信号 d 3 6 2が記録される媒体■機器に関わる記録属性情報、 画像処理に用いられる プロファイルデータに関わるプロファイル属性情報などを含んでもかまわない。 以下、 それぞれについて具体的に説明を加える。
なお、 以下の説明では、 属性情報 d 3 8 0がシーン属性情報、 撮影属性情報、 放送属性情報、 記録属性情報、 プロファイル属性情報のそれぞれを含む場合につ いて别々に説明するが、 コンテンツ情報を含めたこれらの情報は、 属性情報 d 3 8 0において全て同時に、 あるいは、 いくつかを組み合わせて、 含まれるもので あってもよい。 この場合には、 それぞれの情報による^]果をさらに向上させるこ とが可能となる。
( 4 - 1 ) シーン属性情報
( 4 - 1 - 1 )
図 9 0に、 属性情報 d 3 8 0としてシーン属性情報が含まれる入力画像信号 d 3 6 2のフォーマットを示す。 図 9 0に示す入力画像信号 d 3 6 2では、 入力画 像データ d 3 7 2のシーンを単位としてシーン属性情報が配置されている。 シ一 ン属性情報は、 例えば、 フラグ情報を伴うなどして入力画像データ d 3 7 2と分 離可能な状態で配置されている。
シーン属性情報は、 それに続く入力画像データ d 3 7 2のシーン内容を記述す る情報である。 例えば、 シーン属性情報は、 「明るさ」 、 「対象」 、 「動作」 、 「シーン概要」 などといった項目の組み合わせにより記述されており、 「暗い . 森 '風景」 、 「明るい '人物■アップ」 、 「暗い '人物■風景」 などといった内 容が記述されている。 なお、 これらはシーン属性情報一例であり、 これに限定さ れる訳ではない。 たとえば、 「シーン概要」 として、 ニュース、 スポーツ、 ホー ムドラマ、 アクションなどといった内容が指定がされていてもよい。
シーン属性情報を含む入力画像信号 d 3 6 2に対して画像処理を行う画像処理 装置は、 画像処理装置 8 0 0をシーン属性情報に対応させたものと同様である。 分離部 8 0 1 (図 8 7参照) は、 図 9 0に示したフォーマツ卜に基づいて属性 情報 d 3 8 0を分離する。
属性検出部 8 0 6 (図 8 9参照) は、 属性情報 d 3 8 0に含まれるシーン属性 情報を検出し、 検出情報 S d 3を出力する。 属性入力部 8 0 5は、 ユーザにシー ン属性情報の入力を行わせる。
出力制御部 8 0 7 (図 8 9参照) は、 検出情報 S d 3と入力情報 S d 4とを取 得し、 プロファイル情報 S S I, S C Iを出力する。 例えば、 出力制御部 8 0 7 は、 検出情報 S d 3と入力情報 S d 4とから取得されるシーン属性情報の各項目 とプロファイルデータとの関連付けを記憶するデータベースを参照するなどして 、 カラー視覚処理装置 7 4 5と色処理装置 7 4 6とで用いられるプロファイルデ ータを決定する。
プロファイル情報 S S I , S G Iに関する詳しい説明は上記実施形態と同様で あるため省略する。 なお、 プロファイル情報 S S し S C Iは、 シーン属性情報 を含んでいてもよい。 この場合、 カラー視覚処理装置 7 4 5と色処理装置 7 4 6 とは、 取得したシーン属性情報から画像処理に用いるプロファイルデータを選択 し、 画像処理を行う。
その他、 画像処理装置 8 0 0の各部の動作は、 属性情報 d 3 8 0がコンテンツ 情報を含む場合と同様であるため説明を省略する。
( 4 - 1 - 2 ) 本発明により、 上記実施形態で記載した効果と同様の効果が得られる。 以下、 本変形例に特徴的な効果を記載する。
シーン属性情報に応じて適切なプロファイルデータを用いた画像処理を行うこ とが可能となる。 このため、 コンテンツ制作側の意図を考慮して画像処理を行う ことが可能となる。
シーン属性情報は、 入力画像データ d 3 7 2のシーン毎に必要に応じて配置さ れている。 このため、 より詳細に画像処理を切り替えることが可能となり、 より 適切に画像処理を行うことが可能となる。
例えば、 検出情報 S d 3と入力情報 S d 4とにより、 シーン属性情報が 「暗い ,森 "風景」 と取得された場合、 出力制御部 8 0 7は、 「影の暗部を改善するプ 口ファイルデータ」 を指定するプロファイル情報 S S Iを出力するとともに、 Γ 緑色の記憶色補正を行い、 肌色の記憶色補正を行わないプロファイルデータ J を 指定するプロファイル情報 S C I を出力する。
また例えば、 検出情報 S d 3と入力情報 S d 4とにより、 シーン属性情報が Γ 明るい '人物■アップ」 と取得された場合、 出力制御部 8 0 7は、 「コントラス 卜強調を抑制したプロファイルデータ J を指定するプロファイル情報 S S I を出 力するとともに、 「肌色の記憶色補正を行うプロファイルデータ」 を指定するプ 口ファイル情報 S C I を出力する。
また例えば、 検出情報 S d 3と入力情報 S d 4とにより、 シーン属性情報が Γ 暗い ·人物 .風景」 と取得された場合、 出力制御部 8 0 7は、 「人物の暗部を強 調し、 背景の暗部改善を抑制したプロファイルデータ」 を指定するプロファイル 情報 S S I を出力するとともに、 「ホワイ トバランスの調整と肌色の記憶色補正 とを行わないプロファイルデータ」 を指定するプロファイル情報 S C I を出力す る。
また例えば、 検出情報 S d 3と入力情報 S d 4とにより、 シーン属性情報が Γ 人物 ' ドラマ」 と取得された場合、 画像内で主たる処理対象は人物となる。 よつ て、 出力制御部 8 0 7は、 カラー視覚処理装置 7 4 5に対して、 肌色でかつ輝度 の低い領域のコントラスト改善を行い、 かつ、 それ以外の輝度の低い領域のコン トラスト改善をしない、 ようなプロファイルデータを指定するプロファイル情報 S S Iを出力する。 それに対して、 色処理装置 7 4 6に対して、 肌色の記憶補正 を行い、 かつ、 それ以外の緑等の記憶色に対する補正を弱める、 ようなプロファ ィルデータを指定するプロファイル情報 S C Iを出力する。
属性検出部 8 0 6により自動的に検出されたシーン属性情報のみならず、 ユー ザが入力したシーン属性情報にも *づいてプロファイルデータの選択が行われる 。 このため、 ユーザにとっての主観的な画質をより向上させることが可能となる また、 人物の移動シーンにおいて背景が太陽光の向きやが徐々に変動するよう な一連のシーンの場合、 各シーンごとにシーン属性情報を付加することも可能で あるが、 その先頭シーンのみにシーン属性情報を付加することも可能である。 ま た、 先頭シーンにまずシーン属性情報を付加して、 続く連続シーンには先頭シ一 ンからの明るさの変動情報や対象の変動情報のみをシ一ン属性情報として付加す ることも可能である。 こうすることで、 動画像の画像処理におけるちらつきや画 質の急激な変化を抑えることができる。
( 4 - 2 ) 撮影属性情報
( 4 - 2 - 1 )
図 9 1に、 属性情報 d 3 8 0として撮影属性情報が含まれる入力画像信号 d 3 6 2のフォーマットを示す。 図 9 1に示す入力画像信号 d 3 6 2では、 入力画像 信号 d 3 6 2のヘッダ部分に撮影属性情報が配置されている。 なお、 撮影属性情 報は、 これに限らず、 例えば、 フラグ情報を伴うなどして入力画像データ d 3 7 2と分離可能な状態で配置されていてもよい。
撮影属性情報は、 それに続く入力画像データ d 3 7 2の撮影状況を記述する情 報である。 例えば、 撮影属性情報は、 「位置 "方角」 、 「日付」 、 「時刻」 、 「 撮影機器情報」 などといった項目の組み合わせにより記述されている。 「位置- 方角 J は、 撮影時に G P Sなどから取得される情報である。 「撮影機器情報」 は 、 撮影時の機器の情報であり、 ストロボ有無、 絞り、 シャッタースピード、 マク 口撮影 (接写撮影) 有無などの情報が格納されている。 なお、 これらは撮影属性 情報の一例であり、 これに限定される訳ではない。 例えば、 撮影時に用いたマク 口プログラム (ストロボ有無、 絞り、 シャッタースピードなどの制御を組み合わ せて実行するためのプログラム) を特定するための情報であってもよい。
撮影属性情報を含む入力画像信号 d 3 6 2に対して画像処理を行う画像処理装 置は、 画像処理装置 8 0 0を撮影属性情報に対応させたものと同様である。 分離部 8 0 1 (図 8 7参照) は、 図 9 1に示したフォーマットに基づいて属性 情報 d 3 8 0を分離する。
属性検出部 8 0 6 (図 8 9参照) は、 属性情報 d 3 8 0に含まれる撮影属性情 報を検出し、 検出情報 S d 3を出力する。 属性入力部 8 0 5は、 ユーザに撮影属 性情報の入力を行わせる。
出力制御部 8ひ 7 (図 8 9参照) は、 検出情報 S d 3と入力情報 S d 4とを取 得し、 プロファイル情報 S S I, S C I を出力する。 例えば、 出力制御部 8 0 7 は、 検出情報 S d 3と入力情報 S d 4とから取得される撮影属性情報の各項目と プロファイルデータとの関連付けを記憶するデータベースを参照するなどして、 カラ一視覚処理装置 7 4 5と色処理装置 7 4 6とで用いられるプロファイルデ一 タを決定する。 プロファイル情報 S S し S C I に関する詳しい説明は上記実施 形態と同様であるため省略する。
なお、 プロファイル情報 S S I, S C Iは、 撮影属性情報を含んでいてもよい 。 この場合、 カラ一視覚処理装置 7 4 5と色処理装置 7 4 6とは、 取得した撮影 属性情報から画像処理に用いるプロファイルデータを選択し、 画像処理を行う。 その他、 画像処理装置 8 0 0の各部の動作は、 属性情報 d 3 8 0がコンテンツ 情報を含む場合と同様であるため説明を省略する。
( 4 - 2 - 2 )
本発明により、 上記実施形態で記載した効果と同様の効果が得られる。 以下、 本変形例に特徴的な効果を記載する。
撮影属性情報に応じて適切なプロファイルデータを用いた画像処理を行うこと が可能となる。 このため、 コンテンツ制作側の意図を考慮して画像処理を行うこ とが可能となる。
例えば、 「位置■方角」 、 「日付」 、 「時刻」 、 「撮影機器情報」 などといつ た項目から、 入力画像データ d 3 7 2が生成された環境における 「太陽の方向」 、 「季節 J 、 「天気」 、 「太陽光の色」 、 「ストロボ有無」 などの情報を取得し 、 被写体の撮影状況 (例えば、 順光か逆光かなど) を解析することが可能となる 。 さらに、 解析された撮影状況に対して適切なプロファイルデータを用いて画像 処理を行うことが可能となる。
属性検出部 8 0 6により自動的に検出された撮影属性情報のみならず、 ユーザ が入力した撮影属性情報にも基づいてプロファイルデータの選択が行われる。 こ のため、 ユーザにとっての主観的な画質をより向上させることが可能となる。
( 4一 3 ) 放送属性情報
( 4 - 3 - 1 )
図 9 2に、 属性情報 d 3 8 0として放送属性情報が含まれる入力画像信号 d 3 6 2のフォーマットを示す。 図 9 2に示す入力画像信号 d 3 6 2では、 入力画像 信号 d 3 6 2のヘッダ部分に放送属性情報が配置されている。 なお、 放送属性情 報は、 これに限らず、 例えば、 フラグ情報を伴うなどして入力画像データ d 3 7 2と分離可能な状態で配置されていてもよい。
放送属性情報は、 入力画像信号 d 3 6 2が表示装置 7 2 0に取得されるまでの 媒体に関わる情報であって、 特に、 どのような放送形態により入力画像信号 d 3 6 2が取得されたかに関わる情報である。 例えば、 放送属性情報には、 「地上波 デジタル放送」 「地上波アナログ放送」 「衛星デジタル放送」 「衛星アナログ放 送」 「インターネット放送」 のいずれかを示す値が格納されている。
放送属性情報を含む入力画像信号 d 3 6 2に対して画像処理を行う画像処理装 置は、 画像処理装置 8 0 0を放送属性情報に対応させたものと同様である。 分離部 8 0 1 (図 8 7参照) は、 図 9 2に示したフォーマットに基づいて属性 情報 d 3 8 0を分離する。
属性検出部 8 0 6 (図 8 9参照) は、 属性情報 d 3 8 0に含まれる放送属性情 報を検出し、 検出情報 S d 3を出力する。 属性入力部 8 0 5は、 ユーザに放送属 性情報の入力を行わせる。
出力制御部 8 0 7 (図 8 9参照) は、 検出情報 S d 3と入力情報 S d 4とを取 得し、 プロファイル情報 S S I, S C Iを出力する。 例えば、 出力制御部 8 0 7 は、 検出情報 S d 3と入力情報 S d 4とから取得される放送属性情報とプロファ ィルデータとの関連付けを記憶するデータベースを参照するなどして、 カラ一視 覚処理装置 7 4 5と色処理装置 7 4 6とで用いられるプロファイルデータを決定 する。 プロファイル情報 S S し S C Iに関する詳しい説明は上記実施形態と同 様であるため省略する。 - なお、 プロファイル情報 S S I, S C Iは、 放送属性情報を含んでいてもよい 。 この場合、 カラー視覚処理装置 7 4 5と色処理装置 7 4 6とは、 取得した放送 属性情報から画像処理に用いるプロファイルデータを選択し、 画像処理を行う。 その他、 画像処理装置 8 0 0の各部の動作は、 属性情報 d 3 8 0がコンテンツ 情報を含む場合と同様であるため説明を省略する。
( 4 - 3 - 2 )
本発明により、 上記実施形態で記載した効果と同様の効果が得られる。 以下、 本変形例に特徴的な効果を記載する。
放送属性情報に応じて適切なプロファイルデータを用いた画像処理を行うこと が可能となる。 例えば、 放送経路が画像に与える影響を補正し、 放送局側の意図 を考慮して画像処理を行うことが可能となる。
より具体的には、 例えば、 地上波アナログ放送、 衛星アナログ放送などにより 取得された画像に対しては、 伝送時のノイズを過剰に強諷しないプロファイルデ ータの選択が行われる。 これにより、 夜景中に被写体が存在する画像に対して、 夜景領域は輝度を保持しつつ被写体の明瞭化を行うプロフアイルデータを用いて 画像処理を行うことなどが可能となる。
属性検出部 8 0 6により自動的に検出された放送属性情報のみならず、 ユーザ が入力した放送属性情報にも基づいてプロファイルデータの選択が行われる。 こ のため、 ユーザにとっての主観的な画質をより向上させることが可能となる。
( 4— 4 ) 記録属性情報
( 4 - 4 - 1 )
図 9 3に、 属性情報 d 3 8 0として記録属性情報が含まれる入力画像信号 d 3 6 2のフォーマットを示す。 図 9 3に示す入力画像信号 d 3 6 2では、 入力画像 信号 d 3 6 2のヘッダ部分に記録属性情報が配置されている。 なお、 記録属性情 報は、 これに限らず、 例えば、 フラグ情報を伴うなどして入力画像データ d 3 7 2と分離可能な状態で配置されていてもよい。 記録属性情報は、 入力画像信号 d 3 6 2が記録された媒体,装置に関わる情報 である。 例えば、 記録属性情報は、 入力画像信号 d 3 6 2が記録された 「年代 J 、 記録媒体 '装置の 「提供メーカ」 、 記録媒体■装置を特定するための 「製品情 報 J などを含んでいる。
記録属性情報を含む入力画像信号 d 3 6 2に対して画像処理を行う画像処理装 置は、 画像処理装置 8 0 0を記録属性情報に対応させたものと同様である。 分離部 8 0 1 (図 8 7参照) は、 図 9 3に示したフォーマットに基づいて属性 情報 d 3 8 0を分離する。
属性検出部 8 0 6 (図 8 9参照) は、'属性情報 d 3 8 0に含まれる記録属性情 報を検出し、 検出情報 S d 3を出力する。 属性入力部 8 0 5は、 ユーザに記録属 性情報の入力を行わせる。
出力制御部 8 0 7 (図 8 9参照) は、 検出情報 S d 3と入力情報 S d 4とを取 得し、 プロファイル情報 S S I , S C I を出力する。 例えば、 出力制御部 8 0 7 は、 検出情報 S d 3と入力情報 S d 4とから取得される記録属性情報とプロファ ィルデータとの関連付けを記憶するデータベースを参照するなどして、 カラ一視 覚処理装置 7 5と色処理装置 7 4 6とで用いられるプロファイルデータを決定 する。 プロファイル情報 S S I , S C I に関する詳しい説明は上記実施形態と同 様であるため省略する。
なお、 プロファイル情報 S S し S C Iは、 記録属性情報を含んでいてもよい 。 この場合、 カラ一視覚処理装置 7 4 5と色処理装置 7 4 6とは、 取得した記録 属性情報から画像処理に用いるプロフアイルデータを選択し、 画像処理を行う。
その他、 画像処理装置 8 0 0の各部の動作は、 属性情報 d 3 8 0がコンテンッ 情報を含む場合と同様であるため説明を省略する。
( 4 - 4 - 2 )
本発明により、 上記実施形態で記載した効果と同様の効果が得られる。 以下、 本変形例に特徴的な効果を記載する。
記録属性情報に応じて適切なプロフアイルデータを用いた画像処理を行うこと が可能となる。 例えば、 「提供メーカ」 が色処理を専門的に扱うカメラメーカな どである場合、 色処理装置 7 4 6が色処理をあまり行わないようにプロファイル 情報 S C Iが出力される。 また例えばフイルムなどで記録された入力画像データ d 3 7 2に対しては、 フイルムの色表現領域の特性を考慮して色処理を行うよう にプロファイル情報 S C Iが出力される。 このように、 記録媒体 '記録装置が画 像に与える影響を補正し、 制作側の意図を考慮して画像処理を行うことが可能と なる。
属性検出部 8 0 6により自動的に検出された記録属性情報のみならず、 ユーザ が入力した記録属性情報にも基づいてプロファイルデータの選択が行われる。 こ のため、 ユーザにとっての主観的な画質をより向上させることが可能となる。
( 4 - 5 ) プロファイル属性情報
( 4 - 5 - 1 )
図 9 4に、 属性情報 d 3 8 0としてプロファイル属性情報が含まれる入力画像 信号 d 3 6 2のフォーマツ卜を示す。 図 9 4に示す入力画像信号 d 3 6 2では、 入力画像信号 d 3 6 2のヘッダ部分にプロファイル属性情報が配置されている。 なお、 プロファイル属性情報は、 これに限らず、 例えば、 フラグ情報を伴うなど して入力画像データ d 3 7 2と分離可能な状態で配置されていてもよい。
プロファイル属性情報は、 プロファイルデータを特定するための情報であり、 例えば、 入力画像データ d 3 7 2を生成する撮影装置などが推奨するプロフアイ ルデータを特定するための情報である。 プロファイル属性情報は、 プロファイル データ、 プロファイルデータを特定する番号などのタグ情報、 プロファイルデ一 タの処理の特徴を示すパラメータ情報のうちの少なくとも一つを含んでいる。 プ 口ファイルデータ、 タグ情報、 パラメータ情報は、 上記実施形態においてプロフ アイル情報 S S し S C Iの説明の際に記載したのと同様である。
プロファイル属性情報が特定するプロファイルデータは、 次の画像処理 〔a〕 〜画像処理 〔c〕 のいずれかの画像処理を行うためのプロファイルデータである 。 画像処理 〔a〕 は、 入力画像データ d 3 7 2を生成する撮影装置などにおいて 、 入力画像データ d 3 7 2に対して好適であると判断された画像処理である。 画 像処理 〔b〕 は、 画像処理 〔a〕 に加えて、 撮影装置の表示部と標準モデルの表 示装置との特性の差異を補正するための画像処理を行うための画像処理である。 画像処理 〔c〕 は、 画像処理 〔a〕 に加えて、 撮影装置の表示部と表示装置 7 2 O (図 7 6参照) との特性の差異を補正するための画像処理を行うための画像処 理である。
さらに、 プロファイル属性情報は、 入力画像信号 d 3 6 2に含まれる入力画像 データ d 3 7 2が既に撮影装置などにおいて画像処理されたデータであるか否か に関する処理フラグ情報を含んでいる。
プロファイル属性情報を含む入力画像信号 d 3 6 2に対して画像処理を行う画 像処理装置は、 画像処理装置 8 0 0をプロフアイル属性情報に対応させたものと 同様である。
分離部 8 0 1 (図 8 7参照) は、 図 9 4に示したフォーマットに基づいて属性 情報 d 3 8 0を分離する。
属性検出部 8 0 6 (図 8 9参 ¾ ) は、 属性情報 d 3 8 0に含まれるプロフアイ ル属性情報を検出し、 検出情報 S d 3を出力する。 属性入力部 8 0 5は、 ユーザ にプロフアイル属性情報の入力を行わせる。
出力制御部 8 0 7 (図 8 9参照) は、 検出情報 S d 3と入力情報 S d 4とを取 得し、 プロファイル情報 S S し S C Iを出力する。 プロファイル情報 S S し S C Iは、 プロファイル属性情報の形式 (プロファイルデータ、 タグ情報、 パラ メータ情報のいずれか) に関わらず、 プロファイルデータ、 タグ情報、 パラメ一 タ情報のいずれの形式で出力されてもよい。
以下、 出力制御部 8 0 7の動作について詳細に説明を加える。
出力制御部 8 0 7は、 検出情報 S d 3または入力情報 S d 4から取得されるプ 口ファイル属性情報のうち、 プロファイルデータを特定する情報をそのままプロ ファイル情報 S S I , S C 1 として出力するか否かを判断する。
例えば、 入力情報 S d 4によりプロファイルデータが指定されている場合、 プ 口ファイル属性情報にかかわらず 「出力する」 と判断する。
例えば、 プロファイル属性情報が画像処理 〔a〕 または画像処理 〔c〕 を行う プロファイルデータを特定する情報を含んでおり、 処理フラグ情報が 「処理無し j を示している場合、 「出力する」 と判断する。
それ以外の場合、 「出力しない J と判断する。
例えば、 プロファイル属性情報が画像処理 〔a〕 を行うプロファイルデータを 特定する情報を含んでおり、 処理フラグ情報が 「処理有り」 を示している場合、 出力制御部 8 0 7は、 カラー視覚処理装置 7 4 5と色処理装置 7 4 6とに画像処 理を行わせないプロファイルデータを特定する情報をプロファイル情報 S S I , S C I として出力する。
例えば、 プロファイル属性情報が画像処理 〔b〕 を行うプロファイルデータを 特定する情報を含んでおり、 処理フラグ情報が 「処理無し J を示している場合、 画像処理 〔a〕 に加えて、 標準モデルの表示装置と表示装置 7 2 0との特性の差 異を補正するための画像処理を行うプロファイルデータを特定するための情報を プロファイル情報 S S I , S C I として出力する。
例えば、 プロファイル属性情報が画像処理 〔b〕 を行うプロファイルデータを 特定する情報を含んでおり、 処理フラグ情報が 「処理有り」 を示している場合、 標準モデルの表示装置と表示装置 7 2 0との特性の差異を補正するための画像処 理を行うプロファイルデータを特定するための情報をプロファイル情報 S S I, S C I として出力する。
例えば、 プロファイル属性情報が画像処理 〔c〕 を行うプロファイルデータを 特定する情報を含んでおり、 処理フラグ情報が 「処理有り」 を示している場合、 出力制御部 8 0 7は、 カラー視覚処理装置 7 4 5と色処理装置 7 4 6に対して、 撮影装置の表示部と表示装置 7 2 0とのデバイス特性の差異を補正するための画 像処理を行うプロファイルデータを特定するための情報をプロファイル情報を S S I, S C I として出力する。
なお、 これらの処理は、 一例であり、 これに限定される訳ではない。
その他、 画像処理装置 8 0 0の各部の動作は、 属性情報 d 3 8 0がコンテンツ 情報を含む場合と同様であるため説明を省略する。
( 4 - 5 - 2 )
本発明により、 上記実施形態で記載した効果と同様の効果が得られる。 以下、 本変形例に特徴的な効果を記載する。
プロフアイル属性情報に応じて適切なプロフアイルデータを用いた画像処理を 行うことが可能となる。 例えば、 撮影側で推奨されるプロファイルデータを用い た画像処理を行うことが可能となる。 さらに、 撮影側の表示部で確認された画像 に近い表示を行うことが可能となる。 このため、 制作側の意図を考慮して画像処 理を行うことが可能となる。
属性検出部 806により自動的に検出されたプロファイル属性情報のみならず 、 ユーザが入力したプロファイル属性情報にも基づいてプロファイルデータの選 択が行われる。 このため、 ユーザにとっての主観的な画質をより向上させること が可能となる。
[第 1 1実施形態]
図 95〜図 1 03を用いて、 本発明の第 1 1実施形態としての撮影装置 820 について説明する。
図 95に示す撮影装置 820は、 画像の撮影を行うスチールカメラ、 ビデオ力 メラなど、 画像を撮影する撮影装置である。 撮影装置 820は、 上記実施形態で 説明した視覚処理装置を含む画像処理装置 832を有する点、 自動あるいは手動 により視覚処理に用いるプロファイルデータを切り替えることができる点に特徴 を有している。 なお、 撮影装置 820は、 独立した装置であってもよいが、 携帯 電話機、 PDA、 PCなどの携帯情報端末に備えられている装置であってもよい
〈撮影装置 820〉
撮影装置 820は、 撮影部 82 ΐ、 画像処理装置 832、 表示部 834、 CP U 846、 照明部 848、 入力部 850、 セキュリティ判定部 852、 コ一デッ ク 840、 メモリコントローラ 842、 メモリ 844、 外部インタフェース ( I /F) 854、 外部装置 856を備えている。
撮影部 821は、 画像の撮影を行い、 入力画像信号 d 362を出力する部分で あり、 レンズ 822、 絞り 'シャッター部 824、 CCD 826, アンプ 828 、 八 0変換部830、 CCD制御部 836、 情報検出部 838から構成されて いる。
レンズ 822は、 CCD 826上に被写体の画像を結像するためのレンズであ る。 絞り 'シャッター部 824は、 レンズ 822を通過した光束の通過範囲や通 過時間を変えて露出を制御するための機構である。 CCD 826は、 被写体の画 像を光電変換して画像信号として出力するためのイメージセンサである。 アンプ 828は、 CCD 826から出力された画像信号を増幅するための装置である。
A/D変換部 830は、 アンプ 828により増幅されたアナログ画像信号をデジ タル画像信号に変換する装置である。 CCD制御部 836は、 CCD 826を駆 動するタイミングを制御する装置である。 情報検出部 838は、 デジタル画像信 号からォ一卜フォーカス、 絞り、 露出などの情報を検出し、 C PU 846に出力 する装置である。
画像処理装置 832は、 [第 1 0実施形態] で図 77を用いて説明した画像処 理装置 723のと同様の画像処理装置である。 画像処理装置 832は、 C P U 8 46からの制御を受け、 入力画像信号 d 362に含まれる入力画像データ d 37 2 (図 96参照) の画像処理を行い、 出力画像データ d 371 (図 96参照) を 含む出力画像信号 d 361を出力する装置である。 画像処理装置 832は、 上記 実施形態で説明した視覚処理装置を含み、 プロファイルデータを用いて画像処理 を行う点に特徴を有している。 詳細な構成は、 後ほど図 96を用いて説明する。 表示部 834は、 画像処理装置 832により出力された出力画像信号 d 361 を、 例えばサムネイル表示する装置である。 表示部 834は、 LGDで構成され ることが多いが、 PDP、 CRT. プロジェクタなど、 画像を表示する装置であ れぱ特に限定しない。 なお、 表示部 834は、 撮影装置 820に内蔵されている ものだけでなく、 有線あるいは無線のネットワークなどを介して接続されていて もよい。 また、 表示部 834は、 画像処理装置 832と C PU 846を介して接 続されていてもよい。
CPU 846は、 画像処理装置 832、 コーデック 840、 メモリコントロー ラ 842、 外部 I ZF854、 とバスラインを介して接続されており、 情報検出 部 838の検出結果、 入力部 850による入力結果、 照明部 848による発光情 報、 セキュリティ判定部 852による判定結果などを受け取るとともに、 レンズ 822、 絞り .シャッター部 824、 C C D制御部 836、 画像処理装置 832 、 照明部 848、 入力部 850、 セキュリティ判定部 852やバスラインに接続 された各部などの制御を実行する装置である。
照明部 848は、 被写体に照射する照明光を発光するストロポなどである。 入力部 850は、 撮影装置 820への操作をユーザに行わせるためのユーザィ ンタフエースであり、 各部の制御をするためのキー、 つまみ、 リモコンなどであ る。
セキュリティ判定部 852は、 外部から取得されるセキュリティ情報を判定し て、 C PUを介して画像処理装置 832の制御を行う部分である。
コ一デック 840は、 画像処理装置 832からの出力画像信号 d 361を J P E Gあるいは M P E Gなどによリ圧縮処理する圧縮回路である。
メモリコントロ一ラ 842は、 D RAMなどで構成される C P Uのメモリ 84 4のァドレスやアクセスタイミングなどの制御を行う。
メモリ 844は、 DRAMなどで構成され、 画像処理などの際に作業用メモリ として用いられる。
外部 I /F 854は、 メモリカード 859、 PC861などの外部装置 856 に出力画像信号 d 361、 あるいはコーデック 840で圧縮処理された出力画像 信号 d 361を出力するとともに、 画像処理を行うためのプロファイルデータに 関する情報であるプロファイル情報などを取得し、 入力画像信号 d 362として 画像処理装置 832に出力するためのインタフェースである。 プロファイル情報 は、 [第 1 0実施形態] で説明したのと同様である。 外部 I ZF 854は、 例え ば、 メモリカード l /F 858、 PC I /F 860% ネットワーク I /F862 、 無線 I ZF 864などにより構成される。 なお、 外部 I /F 854は、 ここに 例示したものの全てを備えている必要は無い。
メモリカード I /F 858は、 画像データやプロファイル情報などを記録する メモリカード 859と撮影装置 820とを接続するためのインタフ 1ースである 。 PC I ZF 860は、 画像データやプロファイル情報などを記録するパーソナ ルコンピュータなどの外部機器である PC 861 と撮影装置 820とを接続する ためのインタフェースである。 ネッ卜ワーク I / F 862は、 撮影装置 820を ネットワークに接続し、 画像データやプロファイル情報などを送受信するための インタフェースである。 無線 I ZF864は、 撮影装置 820を無線 LANなど を介して外部機器と接続し、 画像データやプロファイル情報などを送受信するた めのインタフェースである。 なお、 外部 I ZF 854は、 図示したものに限られ ず、 例えば、 USB、 光ファイバ一などと撮影装置 820とを接続するためのィ ンタフエースであってもよい。
〈画像処理装置 8 3 2〉
図 9 6に、 画像処理装置 8 3 2の構成を示す。 画像処理装置 8 3 2は、 画像処 理装置 7 2 3と同様の構成を有している。 図 9 6では、 画像処理装置 7 2 3と同 じ機能を有する部分に同じ符号を付している。
画像処理装置 8 3 2は、 入力画像データ d 3 7 2に対してカラ一視覚処理を行 うカラー視覚処理装置 7 4 5と、 カラ一視覚処理装置 7 4 5の出力であるカラ一 視覚処理信号 d 3 7 3に対して色処理を行う色処理装置 7 4 6と、 カラ一視覚処 理および色処理に用いられるプロファイルデータを特定するためのプロファイル 情報 S S し S C I を出力するプロファイル情報出力部 7 4 7とを備えている。 各部の動作は、 [第 1 0実施形態] で説明したため、 詳しい説明を省略する。 なお、 [第 1 0実施形態] では、 プロファイル情報 S S I , S C Iが含む環境 情報は、 「画像処理された画像データが表示され、 視覚される環境に関する情報 である」 、 と記載したが、 これは、 撮影が行われる環境に関する情報であっても よい。
〈撮影装置 8 2 0の効果〉
撮影装置 8 2 0は、 [第 1 0実施形態] で説明した画像処理装置 7 2 3と同様 の画像処理装置 8 3 2を備えている。 このため、 画像処理装置 7 2 3を備える表 示装置 7 2 0 (図 7 6参照) と同様の効果を奏することが可能である。
( 1 )
撮影装置 8 2 0では、 プロファイル情報出力部 7 4 7 (図 7 8参照) を備え、 取得された環境情報に好適なプロフアイルデータを用いた画像処理を行うことが 可能となる。 特に、 自動的に検出された環境情報のみならず、 ユーザが入力した 環境情報にも基づいてプロフアイルデ一タの選択が行われるため、 ユーザにとつ てより視覚的効果の高い画像処理を行うことが可能となる。
プロファイルデータとしてルックアップテーブルを用いた場合には、 テーブル の参照によリ画像処理が行われるため高速な画像処理が実現可能となる。
撮影装置 8 2 0では、 プロファイルデータを変更することにより異なる画像処 理が実現される。 すなわち、 ハードウェア構成を変更することなく異なる画像処 理が実現される。
プロフアイルデータを用いた画像処理では、 予めプロフアイルデータを生成し ておくことができるため、 複雑な画像処理を容易に実現することが可能となる。
( 2 )
画像処理装置 8 3 2のプロファイル情報出力部 7 4 7では、 カラ一視覚処理装 置 7 4 5と色処理装置 7 4 6とのそれぞれに対して、 異なるプロファイル情報を 出力することが可能となる。 このため、 カラー視覚処理装置 7 4 5と色処理装置 7 4 6とにおけるそれぞれの画像処理が重複した処理、 あるいは効果が相殺され る処理となることが防止可能となる。 すなわち、 画像処理装置 8 3 2による画像 処理を適切に行うことが可能となる。
( 3 )
撮影装置 8 2 0は、 表示部 8 3 4を備え、 画像処理された画像を確認しつつ撮 影を行うことが可能である。 このため、 撮影時の画像の印象と、 撮影された画像 を表示した時の印象とを近づけることが可能となる。
〈変形例〉
撮影装置 8 2 0では、 上記実施形態において画像処理装置 7 2 3や視覚処理装 置 7 5 3 (図 7 9参照) に関して記載したのと同様の変形が可能である。 以下、 撮影装置 8 2 0に特徴的な変形例を記載する。
( 1 )
[第 1 0実施形態] の説明において、 プロファイル情報出力部 7 4 7の情報入 力部 7 4 8 (図 7 8参照) は、 ユーザが環境情報を入力するための入力装置であ ると説明した。
撮影装置 8 2 0では、 情報入力部 7 4 8は、 環境情報に加えて、 あるいは変え て、 他の情報を入力することができる装置であってもよい。 例えば、 情報入力部 7 4 8は、 ユーザの嗜好する明るさや画質といったユーザ入力情報を入力するこ とができる装置であってもよい。
本変形例としてのプロファイル情報出力部 7 4 7では、 情報入力部 7 4 8に加 えて、 あるいは変えて、 [第 1 0実施形態] 〈変形例〉 (7 ) に記載したユーザ 入力部 7 7 2 (図 8 6参照) を備えているものでもよい。 ユーザ入力部 7 7 2の 詳しい説明は、 上記実施形態で行ったため省略する。
本変形例としてのプロファイル情報出力部 7 4 7の出力制御部 7 5 0 (図 7 8 参照) は、 ユーザ入力部 7 7 2から入力されたユーザ入力情報と、 環境検出部 7 4 9が検出した環境情報とに基づいて、 プロファイル情報 S S I , S C Iを出力 する。 より具体的には、 本変形例としての出力制御部 7 5 0は、 ユーザ入力情報 の値と環境情報の値とに関連づけられたプロファイルデータのデータベースを参 照するなどしてプロファイル情報 S S I , S C I を出力する。
これにより、 撮影装置 8 2 0では、 ユーザの好みに応じた適切なプロファイル データによる画像処理が実現可能となる。
( 2 )
上記実施形態で説明した撮影装置 8 2 0の各部において、 同様の機能を実現す る部分は、 共通のハードウエアで実現されていても良い。
例えば、 撮影装置 8 2 0の入力部 8 5 0 (図 9 5参照) は、 プロファイル情報 出力部 7 4 7の情報入力部 7 4 8、 変形例としてのプロファイル情報出力部 7 4 7のユーザ入力部 7 7 2、 視覚処理装置 7 5 3 b (図 8 3参照) の入力装置 5 2 7、 視覚処理装置 7 5 3 c (図 8 4参照) の入力装置 5 2 7などと兼用される装 置であってもよい。
また、 視覚処理装置 7 5 3 (図 8 0参照) のプロファイルデータ登録装置 8、 視覚処理装置 7 5 3 a (図 8 2参照) のプロファイルデータ登録部 5 2 1、 視覚 処理装置 7 5 3 b (図 8 3参照) のプロファイルデータ登録部 5 2 6、 視覚処理 装置 7 5 3 c (図 8 4参照) のプロファイルデータ登録部 5 3 1などは、 画像処 理装置 8 3 2の外部に備えられる物であっても良く、 例えば、 メモリ 8 4 4や外 部装置 8 5 6により実現されていても良い。
また、 それぞれのプロファイルデータ登録部やプロファイルデータ登録装置に 登録されるプロファイルデータは、 予め各部に登録されているものであってもよ いし、 外部装置 8 5 6から取得されるものであってもよい。
また、 それぞれのプロフアイルデータ登録部やプロフアイルデータ登録装置は 、 色処理装置 7 4 6においてプロファイルデータが記憶される記憶装置と兼用さ れていても良い。 また、 プロファイル情報出力部 7 4 7は、 画像処理装置 8 3 2の外部や撮影装 置 8 2 0の外部に有線または無線で接続される装置であっても良い。
( 3 )
撮影装置 8 2 0の画像処理装置 8 3 2は、 画像処理に用いるプロファイルデー タを特定するためのプロファイル情報を、 入力画像データ d 3 7 2または画像処 理された入力画像データ d 3 7 2とともに出力画像信号 d 3 6 1 として出力する 装置であってもよい。
これについて、 図 9 7〜図 1 0 1を用いて説明する。
《3— 1》 画像処理装置 8 8 6の構成
図 9 7を用いて、 変形例としての画像処理装置 8 8 6の構成を説明する。 画像 処理装置 8 8 6は、 入力画像データ d 3 7 2の画像処理を行い、 処理結果を表示 部 8 3 4に表示させるとともに、 画像処理に好適なプロファイルデータのプロフ アイル情報 d 4 0 1 を入力画像データ d 3 7 2に付加して出力する装置である。 画像処理装置 8 8 6は、 カラ一視覚処理装置 8 8 8と、 色処理装置 8 8 9と、 推奨プロファイル情報抽出部 8 9 0と、 プロファイル情報付加部 8 9 2とを備え ている。
カラー視覚処理装置 8 8 8は、 [第 1 0実施形態] で説明したカラ一視覚処理 装置 7 4 5とほぼ同様の構成を有しておリ、 カラー視覚処理装置 7 4 5と同様に 、 入力画像データ d 3 7 2の視覚処理を行い、 カラー視覚処理信号 d 3 7 3を出 力する。
力ラー視覚処理装置 8 8 8と力ラー視覚処理装置 7 4 5との相違点は、 カラー 視覚処理装置 8 8 8が有する視覚処理装置が、 視覚処理装置 1 (図 1参照) 、 視 覚処理装置 5 2 0 (図 6参照) 、 視覚処理装置 5 2 5 (図 7参照) 、 視覚処理装 置 5 3 0 (図 8参照) のいずれかとほぼ同様の視覚処理装置であり、 かつ、 視覚 処理装置が推奨プロファイル情報 S S Oを出力する点である。 推奨プロファイル 情報 S S Oの詳細については、 後述する。
色処理装置 8 8 9は、 [第 1 0実施形態] で説明した色処理装置 7 4 6とほぼ 同様の構成を有しており、 色処理装置 7 4 6と同様に、 カラー視覚処理信号 d 3 7 3の色処理を行い、 出力画像データ d 3 7 1を出力する。 色処理装置 8 8 9と色処理装置 7 4 6との相違点は、 色処理装置 8 8 9が色処 理に用いたプロファイルデータのプロファイル情報を推奨プロファイル情報 S C Oとして出力する点である。 推奨プロファイル情報 S C Oの詳細については、 後 述する。
推奨プロファイル情報抽出部 8 9 0は、 推奨プロファイル情報 S S O, S C O を抽出し、 それらの情報をプロファイル情報 d 4 0 1として出力する。
プロファイル情報付加部 8 9 2は、 入力画像データ d 3 7 2に対してプロファ ィル情報 d 4 0 1を付加し、 出力画像信号 d 3 6 1として出力する。
図 9 8に、 プロファイル情報付加部 8 9 2がプロファイル情報 d 4 0 1を付加 した出力画像信号 d 3 6 1のフォーマット例を示す。
図 9 8 ( a ) では、 出力画像信号 d 3 6 1の先頭部にプロファイル情報 d 4 0 1が配置されており、 それに続いて入力画像データ d 3 7 2が配置されている。 このようなフォーマットでは、 先頭部のプロファイル情報 d 4 0 1を用いて、 全 ての入力画像データ d 3 7 2の画像処理が行われる。 このため、 プロファイル情 報 d 4 0 1は、 出力画像信号 d 3 6 1中において一箇所だけ配置されていればよ く、 出力画像信号 d 3 6 1に占めるプロファイル情報 d 0 1の割合を削減する ことが可能となる。
図 9 8 ( b ) では、 複数に分割された入力画像データ d 3 7 2のそれぞれに対 して、 プロファイル情報 d 4 0 1が配置されている。 このようなフォーマットで は、 分割された入力画像データ d 3 7 2のそれぞれの画像処理において、 異なる プロファイルデータが用いられる。 このため、 例えば、 入力画像データ d 3 7 2 のシーン毎に異なるプロファイルデータを用いた画像処理を行うことが可能とな リ、 より画像処理を適切に行うことが可能となる。
また、 連続的に変化するような一連のシーンの場合、 まず先頭シーンにシーン 属性情報を付加して、 続く複数のシーンには先頭シーンからの明るさの変動情報 や対象の変動情報のみをシーン属性情報として付加することで、 動画像に対して 画像処理する場合に発生することがあるちらつきや画質の急激な変化を抑えるこ とができる。
《3— 2》 推奨プロファイル情報 S S O, S C O 推奨プロファイル情報 S S O, S C Oは、 それぞれプロファイルデータを特定 するための情報であり、 プロファイルデータ、 プロファイルデータを特定する番 号などのタグ情報、 プロフアイルデータの処理の特徴を示すパラメータ情報のう ちの少なくとも一つを含んでいる。 プロファイルデータ、 タグ情報、 パラメータ 情報は、 プロファイル情報 S S I, S C Iの説明で記載したのと同様である。 また、 推奨プロファイル情報 S S O, S C Oが特定するプロファイルデータは 、 次の画像処理 〔a〕 〜画像処理 〔c〕 のいずれかの画像処理を行うためのプロ ファイルデータである。 画像処理 〔a〕 は、 カラ一視覚処理装置 8 8 8が入力画 像データ d 3 7 2に対して好適であると判断する視覚処理、 あるいは、 色処理装 置 8 8 9がカラー視覚処理信号 d 3 7 3に対して好適であると判断する色処理で ある。 ここで、 画像処理 〔a〕 において、 「好適であると判断される」 画像処理 とは、 例えば、 カラー視覚処理装置 8 8 8と色処理装置 8 8 9とでそれぞれ用い られた画像処理である。 画像処理 〔b〕 は、 画像処理 〔a〕 に加えて、 撮影装置 8 2 0の表示部 8 3 4と標準モデルの表示装置との特性の差異を補正するための 画像処理を行うためめ画像処理である。 画像処理 〔c〕 は、 画像処理 〔a〕 に加 えて、 撮影装置 8 2 0の表示部 8 3 4と撮影装置 8 2 0が撮影した画像を表示す る表示装置との特性の差異を補正するための画像処理を行うための画像処理であ る。
カラ一視覚処理装置 8 8 8と色処理装置 8 8 9とは、 撮影時の画像を確認する ための表示部 8 3 4の表示特性が分からない場合、 画像処理 〔a〕 を行うプロフ アイルデータのプロファイル情報を推奨プロファイル情報 S S O , S C Oとして 出力する。
力ラ一視覚処理装置 8 8 8と色処理装置 8 8 9とは、 撮影装置 8 2 0で撮影し た画像を表示する表示部 8 3 4の表示特性は分かるが、 撮影装置 8 2 0が撮影し た画像を表示する表示装置 (例えば、 撮影■記録された画像を表示するための表 示装置 7 2 0など) の表示特性が分からない場合、 画像処理 〔b〕 を行うプロフ アイルデータのプロファイル情報を推奨プロファイル情報 S S O, S C Oとして 出力する。
力ラ一視覚処理装置 8 8 8と色処理装置 8 8 9とは、 撮影装置 8 2 0で撮影し た画像を表示する表示部 8 3 4の表示特性と、 撮影装置 8 2 0が撮影した画像を 表示する表示装置 (例えば、 撮影■記録された画像を表示するための表示装置 7 2 0など) の表示特性とが分かる場合、 画像処理 〔c〕 を行うプロファイルデー タのプロファイル情報を推奨プロファイル情報 S S O, S C Oとして出力する。 なお、 以上の処理は、 一例であり、 それぞれの場合に選択される画像処理はこ れに限らない。
《 3— 3》 画像処理装置 8 8 6の効果
画像処理装置 8 8 6では、 プロファイル情報 d 4 0 1を含む出力画像信号 d 3 6 1を出力する。 このため、 出力画像信号 d 3 6 1を取得した装置では、 出力画 像信号 d 3 6 1が含む入力画像データ d 3 7 2の画像処理を行う際に、 好適なプ ロフアイルデータを用いた画像処理を行うことが可能となる。
また、 プロファイル情報 d 4 0 1は、 画像処理 〔a〕 〜画像処理 〔c〕 のいず れかを行うプロファイルデータのプロファイル情報を含んでいる。 このため、 例 えば、 撮影装置 8 2 0の表示部 8 3 4において確認した画像と、 出力画像信号 d 3 6 1を取得する表示装置が表示する画像とを近づけることが可能となる。 すな わち、 画像処理 〔b〕 を行うプロファイルデータのプロファイル情報を取得した 表示装置では、 出力画像信号 d 3 6 1に対して画像処理 〔b〕 を行うとともに、 標準モデルの表示装置との差異を補正する画像処理を行うことにより、 表示画像 を表示部 8 3 4で確認した画像に近づけることが可能となる。 また、 画像処理 〔 c〕 を行うプロファイルデータのプロファイル情報を取得した表示装置では、 出 力画像信号 d 3 6 1に対して画像処理 〔c〕 を行うことにより、 表示画像を表示 部 8 3 4で確認した画像に近づけることが可能となる。
《3— 4》 変形例
( 1 ) 処理フラグ情報
出力画像信号 d 3 6 1は、 出力画像信号 d 3 6 1が含む入力画像データ d 3 7 2が画像処理装置 8 8 6において画像処理されたデータであるか否かについての 処理フラグ情報をさらに含んでいてもよい。 これにより、 出力画像信号 d 3 6 1 を取得する表示装置は、 出力画像信号 d 3 6 1が含む入力画像データ d 3 7 2が 画像処理されたデータであるか否かについて判断することが可能となる。 このた め、 表示装置において過剰な画像処理や、 効果を相殺させるような画像処理を行 うことが防止できる。
( 2 ) 画像処理装置
上記した画像処理装置 8 8 6の説明において、 「プロファイル情報付加部 8 9 2は、 入力画像データ d 3 7 2にプロファイル情報 d 4 0 1を付加して出力する 」 、 と説明した。
ここで、 プロファイル情報付加部 8 9 2は、 入力画像データ d 3 7 2を画像処 理した結果である出力画像データ d 3 7 1にプロファイル情報 d 4 0 1を付加し て出力する、 ものであってもよい。
図 9 9に画像処理装置 8 8 6の変形例としての画像処理装置 8 9 4を示す。 画 像処理装置 8 8 6の各部と同じ機能を果たす部分については同じ符号を付して示 す。 図 9 9に示す画像処理装置 8 9 4は、 プロファイル情報付加部 8 9 2が、 出 力画像データ d 3 7 1に対して、 プロファイル情報 d 4 0 1を付加している点に 特徴を有している。
また、 図 9 9の画像処理装置 8 9 4では、 推奨プロファイル情報 S S O, S C Oが特定するプロファイルデータは、 次の画像処理 〔a ' 〕 〜画像処理 〔c ' 〕 のいずれかの画像処理を行うためのプロファイルデータである。 画像処理 〔a ' 〕 は、 カラ一視覚処理装置 8 8 8が入力画像データ d 3 7 2に対して好適である と判断する視覚処理、 あるいは、 色処理装置 8 8 9がカラー視覚処理信号 d 3 7 3に対して好適であると判断する色処理である。 ここで、 画像処理 〔a ' 〕 にお いて、 「好適であると判断される」 画像処理とは、 例えば、 カラー視覚処理装置 8 8 8と色処理装置 8 8 9とのそれぞれにおいて用いられた画像処理である。 画 像処理 〔b ' 〕 は、 撮影装置 8 2 0の表示部 8 3 4と標準モデルの表示装置との 特性の差異を補正するための画像処理である。 画像処理 〔c ' は、 撮影装置 8 2 0の表示部 8 3 4と撮影装置 8 2 0が撮影した画像を表示する表示装置との特 性の差異を補正するための画像処理である。
その他各部の動作については、 説明を省略する。
画像処理装置 8 9 4では、 例えば、 上述の画像処理 〔a ' 〕 を行うプロフアイ ルデータのプロファイル情報を取得した表示装置は、 画像処理 〔a ' 〕 の逆変換 を行うことにより入力画像データ d 3 7 2を再生することが可能となる。 また、 画像処理 〔a ' 〕 を行うプロファイルデータのプロファイル情報を取得した表示 装置では、 カラー視覚処理や色処理をこれ以上実行しないような指示をすること も可能である。 また、 上述の画像処理 〔b ' 〕 を行うプロファイルデータのプロ ファイル情報を取得した表示装置は、 標準モデルの表示装置との差異を補正する 画像処理を行うことで、 表示画像を表示部 8 3 4で確認した画像に近づけること が可能となる。 また、 上述の画像処理 〔c ' 〕 を行うプロファイルデータのプロ ファイル情報を取得した表示装置は、 画像処理 〔c ' 〕 を行うことで、 表示画像 を表示部 8 3 4で確認した画像に近づけることが可能となる。
また、 画像処理装置 8 9 4では、 上記 (4一 1 ) に記載の処理フラグ情報を含 む出力画像信号 d 3 6 1を出力してもよい。 これにより、 出力画像信号 d 3 6 1 を取得する表示装置は、 出力画像信号 d 3 6 1が含む出力画像データ d 3 7 1は 、 画像処理されたデータであると判断することが可能となり、 表示装置において 過剰な画像処理や、 効果を相殺させるような画像処理を行うことが防止できる。
( 3 ) 画像処理装置
上記した画像処理装置 8 8 6および画像処理装置 8 9 4は、 [第 1 0実施形態 ] 〈変形例〉 (7 ) に記載したユーザ入力部 7 7 2 (図 8 6参照) と同様のュ一 ザ入力部 8 9 7を備え、 ユーザの入力をプロファイルデータの選択に反映させる 装置であってもよい。
図 1 0 0〜図 1 0 1に、 ユーザ入力部 8 9 7を備える画像処理装置 8 9 6およ び画像処理装置 8 9 8を示す。 ユーザ入力部 8 9 7の動作は、 [第 1 0実施形態 ] 〈変形例〉 (7 ) に記載したユーザ入力部 7 7 2の動作と同様であるため、 詳 しい説明を省略する。
画像処理装置 8 9 6および画像処理装置 8 9 8では、 カラ一視覚処理装置 8 8 8は、 視覚処理装置 7 5 3 (図 8 0参照) 、 視覚処理装置 7 5 3 a (図 8 2参照 ) 、 視覚処理装置 7 5 3 b (図 8 3参照) 、 視覚処理装置 7 5 3 c (図 8 4参照 ) のいずれかとほぼ同様の視覚処理装置であり、 かつ、 推奨プロファイル情報 S S Oを出力することのできる視覚処理装置を備えている。 すなわち、 ユーザ入力 部 8 9 7からプロファイル情報 S S I を取得するとともに、 推奨プロファイル情 報 S S Oを出力することができる。
また、 画像処理装置 8 9 6および画像処理装置 8 9 8では、 色処理装置 8 8 9 は、 ユーザ入力部 8 9 7からプロファイル情報 S C Iを取得するとともに、 推奨 プロファイル情報 S C Oを出力することができる。
これにより、 画像処理装置 8 9 6、 画像処理装置 8 9 8では、 表示部 8 3 4に 表示される画像を見ながら撮影時の画像処理に用いるプロファイルデータを適正 化することが可能となる。 この際、 プロファイル情報 S S し S C I とをカラ一 視覚処理装置 8 8 8と色処理装置 8 8 9とに与えることができるため、 各装置に おける処理の効果が過剰となること、 あるいは効果が相殺されることを防止でき る。 また、 ユーザ入力部 8 9 7により、 より微妙な画像処理の調整を行うことが 可能となる。 さらに、 カラー視覚処理装置 8 8 8と色処理装置 8 8 9とが必要と するプロファイル情報 S S I, S C Iのみを与えることで、 各装置における処理 情報を削減でき、 より簡易に処理を行うことが可能となる。
( 4 )
《4— 1》
撮影装置 8 2 0において、 画像処理装置 8 3 2 (図 9 6参照) は、 セキユリテ ィ情報を取得し、 セキュリティ情報に応じて画像処理に用いるプロファイルデー タを切り替える装置であってもよい。 ここで、 セキュリティ情報とは、 撮影装置 8 2 0の撮影環境において撮影が許可されているか否か、 あるいはその許可の程 度を表す情報である。
図 1 0 2に、 画像処理装置 8 3 2の変形例としての画像処理装置 8 7 0を示す 。 画像処理装置 8 7 0は、 入力画像データ d 3 7 2の画像処理を行い、 出力画像 データ d 3 7 1を出力する点において、 画像処理装置 8 3 2と同様である。 画像 処理装置 8 7 0と画像処理装置 8 3 2との相違点は、 画像処理装置 8 7 0が撮影 環境におけるセキュリティ情報を取得するセキュリティ情報入力部 8 7 2を備え る点である。 その他、 画像処理装置 8 3 2と共通する部分については、 同じ符号 を付し、 説明を省略する。
セキュリティ情報入力部 8 7 2は、 例えば、 ユーザに直接セキュリティ情報を 入力させる入力装置、 無線、 赤外線あるいは有線によりセキュリティ情報を取得 する受信装置などにより主に構成されている。 さらに、 セキュリティ情報入力部 8 7 2は、 取得したセキュリティ情報に基づいて、 プロファイル情報 S S I, S C I を出力する。
ここで、 プロファイル情報 S S し S C Iは、 それぞれプロファイルデータを 特定するための情報であり、 プロファイルデータ、 プロファイルデータを特定す る番号などのタグ情報、 プロフアイルデータの処理の特徴を示すパラメータ情報 のうちの少なくとも一つを含んでいる。 プロファイルデータ、 タグ情報、 パラメ ータ情報は、 上記実施形態で記載したのと同様である。
出力されるプロファイル情報 S S I,' S C Iは、 セキュリティ情報が示す撮影 許可の程度が高いほど、 よリ高画質な撮影が行えるようなプロフアイルデータを 特定し、 撮影許可の程度が低いほど、 より低画質な撮影しか行えないようなプロ ファイルデータを特定する。
図 1 0 3を用いて画像処理装置 8 7 0の動作についてさらに詳しく説明する。 図 1 0 3は、 撮影が制御される撮影制御領域 8 8 0における、 画像処理装置 8 7 0を備える撮影装置 8 2 0の動作について説明するための説明図である。 撮影制御領域 8 8 0には、 撮影が禁止される撮影禁止物 8 8 3が配置されてい る。 撮影禁止物 8 8 3とは、 例えば、 人物、 書物など、 肖像権や著作権などの対 象となるものなどである。 撮影制御領域 8 8 0には、 セキュリティ情報発信装置 8 8 1が設置されている。 セキュリティ情報発信装置 8 8 1は、 無線、 赤外線な どによりセキュリティ情報を発信する。
撮影制御領域 8 8 0内の撮影装置 8 2 0は、 セキュリティ情報入力部 8 7 2に よりセキュリティ情報を受信する。 セキュリティ情報入力部 8 7 2は、 セキユリ ティ情報が示す撮影許可の程度を判断する。 さらに、 セキュリティ情報入力部 8 7 2は、 撮影許可の程度の値とプロファイルデータとの関連づけを記憶するデー タベースなどを参照し、 撮影許可の程度の値に応じたプロファイルデータを特定 するためのプロファイル情報 S S I, S C I を出力する。 例えば、 データベース では、 より高い撮影許可の程度の値に対して、 より高画質な撮影が行えるプロフ アイルデータが関連づけられている。
より詳しくは、 例えば、 撮影装置 8 2 0がセキュリティ情報発信装置 8 8 1か ら撮影許可の程度が低いセキュリ亍ィ情報を受信した場合、 セキュリティ情報入 力部 8 7 2は、 画像中心付近や画像の主要な領域を平滑化する (あるいは階調を 落とす) ようなプロファイルデータを特定するためのプロファイル情報 S S Iを カラ一視覚処理装置 7 4 5に出力する。 さらに、 セキュリティ情報入力部 8 7 2 は、 画像を無彩色化するようなプロファイルデータを特定するためのプロフアイ ル情報 S C I を色処理装置 7 4 6に出力する。 これにより、 適切な画質で撮影を 行うことができなくなり、 肖像権や著作権などの権利を保護することが可能とな る。
《4— 2》 その他
( 1 )
セキュリティ情報を受信したセキュリティ情報入力部 8 7 2は、 セキュリティ 情報に応じてプロファイルデータを切り替えるだけでなく、 画像処理装置 8 7 0 あるいは撮影装置 8 2 0の一部の機能を停止させてもよい。
( 2 )
セキュリティ情報を受信したセキュリティ情報入力部 8 7 2は、 さらに、 撮影 装置 8 2 0の入力部 8 5 0などからユーザの認証情報を取得し、 撮影許可された ユーザであれば、 撮影許可の程度を緩和するようなプロフアイルデータを特定す るプロファイル情報 S S I, S C I を出力するものであってもよい。
ユーザの認証情報は、 例えば、 ユーザの指紋,眼紋などによる認証情報である 。 この認証情報を取得したセキュリティ情報入力部 8 7 2は、 撮影許可されたュ —ザのデータベースを参照し、 認証されたユーザが撮影許可されたユーザである か否かを判断する。 また、 この際、 ユーザの課金情報などにより撮影許可の程度 も判断し、 その程度が高いほど、 より高画質な撮影を行えるようにしてもよい。 なお、 セキュリティ情報は、 撮影許可された撮影装置 8 2 0を特定するための 情報を通知するものであってもよい。
( 3 )
プロファイル情報 S S し S C Iは、 セキュリティ情報を含んでいてもよい。 この場合、 プロファイル情報 S S I , S G Iを取得したカラー視覚処理装置 7 4 5と色処理装置 7 4 6とは、 セキュリティ情報に基づいて、 プロファイルデータ を選択する。
( 4 )
セキュリティ情報入力部 8 7 2は、 セキュリティ判定部 8 5 2と兼用されてい てもよい。
[第 1付記]
本発明 (特に、 第 4〜 7実施形態に記載の発明) は、 次のように表現すること も可能である。 なお、 本欄 ( [第 1付記] ) に記載する従属形式の付記では、 第 1付記に記載の付記に従属するものとする。
〈第 1付記の内容〉
(付記 1 )
入力された画像信号を複数の画像領域に分割する画像領域分割手段と、 前記画像領域毎に階調変換特性を導出する手段であって、 前記階調変換特性の 導出対象となる対象画像領域と前記対象画像領域の周辺画像領域との階調特性を 用いて、 前記対象画像領域の前記階調変換特性を導出する階調変換特性導出手段 と、
導出された前記階調変換特性に基づいて、 前記画像信号の階調処理を行う階調 処理手段と、
を備える視覚処理装置。
(付記 2 )
前記階調変換特性は、 階調変換曲線であり、
前記階調変換特性導出手段は、 前記階調特性を用いてヒス卜グラムを作成する ヒストグラム作成手段と、 作成された前記ヒス卜グラムに基づいて前記階調変換 曲線を作成する階調曲線作成手段とを有している、
付記 1に記載の視覚処理装置。
(付記 3 )
前記階調変換特性は、 前記画像信号を階調処理する複数の階調変換テーブルの 中から 1つの階調変換テーブルを選択するための選択信号であり、
前記階調処理手段は、 前記複数の階調変換テーブルを 2次元 L U Tとして有し ている、 付記 1に記載の視覚処理装置。
(付記 4 )
前記 2次元 L U Tは、 前記画像信号の全ての値において、 前記選択信号の値に 対する階調処理された前記画像信号の値が単調増加あるいは単調減少する順序で 前記複数の階調変換テーブルを格納している、
付記 3に記載の視覚処理装置。
(付記 5 )
前記 2次元 L U Tは、 プロフアイルデータの登録によリ変更可能である、 付記 3又は 4に記載の視覚処理装置。 '
(付記 6 )
前記選択信号の値は、 前記対象画像領域と前記周辺画像領域とのそれぞれの画 像領域について導出された選択信号である個別選択信号の特徴量として導出され る、
付記 3 ~ 5のいずれかに記載の視覚処理装置。
(付記 7 )
前記選択信号は、 前記対象画像領域と前記周辺画像領域との階調特性を用いて 導出される特徴量である階調特性特徴量に基づいて導出される、
付記 3 ~ 5のいずれかに記載の視覚処理装置。
(付記 8 )
前記階調処理手段は、 前記選択信号が選択する前記階調変換テーブルを用いて 前記対象画像領域の階調処理を実行する階調処理実行手段と、 前記階調処理され た前記画像信号の階調を補正する手.段であって、 補正の対象となる対象画素を含 む画像領域と前記対象画素を含む前記画像領域の隣接画像領域とについて選択さ れた前記階調処理テーブルに基づいて、 前記対象画素の階調を補正する補正手段 とを有している、
付記 3〜 7のいずれかに記載の視覚処理装置。
(付記 9 )
前記階調処理手段は、 前記選択信号を補正し、 前記画像信号の画素毎に階調処 理テーブルを選択するための補正選択信号を導出する補正手段と、 前記補正選択 信号が選択する前記階調変換テーブルを用いて前記画像信号の階調処理を実行す る階調処理実行手段とを有している、
付記 3 ~ 7のいずれかに記載の視覚処理装置。
(付記 1 0 )
入力された画像信号を複数の画像領域に分割する画像領域分割ステップと、 前記画像領域毎に階調変換特性を導出するステップであって、 前記階調変換特 性の導出対象となる対象画像領域と前記対象画像領域の周辺画像領域との階調特 性を用いて、 前記対象画像領域の前記階調変換特性を導出する階調変換特性導出 ステップと、
導出された前記階調変換特性に基づいて、 前記画像信号の階調処理を行う階調 処理ステップと、
を備える視覚処理方法。
(付記 1 1 )
前記階調変換特性は、 階調変換曲線であり、
前記階調変換特性導出ステップは、 前記階調特性を用いてヒストグラムを作成 するヒス卜グラム作成ステップと、 作成された前記ヒストグラムに基づいて前記 階調変換曲線を作成する階調曲線作成ステップとを有している、
付記 1 0に記載の視覚処理方法。
(付記 1 2 )
前記階調変換特性は、 前記画像信号を階調処理する複数の階調変換テーブルの 中から 1つの階調変換テーブルを選択するための選択信号であり、 .
前記階調処理ステツプは、 前記選択信号が選択する前記階調変換テーブルを用 いて前記対象画像領域の階調処理を実行する階調処理実行ステップと、 前記階調 処理された前記画像信号の階調を補正するステップであって、 補正の対象となる 対象画素を含む画像領域と前記対象画素を含む前記画像領域の隣接画像領域とに ついて選択された前記階調処理テーブルに基づいて、 前記対象画素の階調を補正 する補正ステップとを有している、
付記 1 0に記載の視覚処理方法。
(付記 1 3 ) 前記階調変換特性は、 前記画像信号を階調処理する複数の階調変換テーブルの 中から 1つの階調変換テーブルを選択するための選択信号であり、
前記階調処理ステップは、 前記選択信号を補正し、 前記画像信号の画素毎に階 調処理テーブルを選択するための補正選択信号を導出する補正ステップと、 前記 補正選択信号が選択する前記階調変換テーブルを用いて前記画像信号の階調処理 を実行する階調処理実行ステップとを有している、
付記 1 0に記載の視覚処理方法。
(付記 1 4 )
コンピュータにより視覚処理方法を行うための視覚処理プログラムであって、 前記視覚処理プログラムは、 コンピュータに、
入力された画像信号を複数の画像領域に分割する画像領域分割ステップと、 前記画像領域毎に階調変換特性を導出するステップであって、 前記階調変換特 性の導出対象となる対象画像領域と前記対象画像領域の周辺画像領域との階調特 性を用いて、 前記対象画像領域の前記階調変換特性を導出する階調変換特性導出 ステップと、
導出された前記階調変換特性に基づいて、 前記画像信号の階調処理を行う階調 処理ステップと、
を備える視覚処理方法を行わせるものである、
視覚処理プログラム。
(付記 1 5 )
前記階調変換特性は、 階調変換曲線であり、
前記階調変換特性導出ステップは、 前記階調特性を用いてヒストグラムを作成 するヒストグラム作成ステップと、 作成された前記ヒストグラムに基づいて前記 階調変換曲線を作成する階調曲線作成ステップとを有している、
付記 1 4に記載の視覚処理プログラム。
(付記 1 6 )
前記階調変換特性は、 前記画像信号を階調処理する複数の階調変換テーブルの 中から 1つの階調変換テーブルを選択するための選択信号であり、
前記階調処理ステップは、 前記選択信号が選択する前記階調変換テーブルを用 いて前記対象画像領域の階調処理を実行する階調処理実行ステップと、 前記階調 処理された前記画像信号の階調を補正するステップであって、 補正の対象となる 対象画素を含む画像領域と前記対象画素を含む前記画像領域の隣接画像領域とに ついて選択された前記階調処理テーブルに基づいて、 前記対象画素の階調を補正 する補正ステップとを有している、
付記 1 4に記載の視覚処理プログラム。
(付記 1 7 )
前記.階調変換特性は、 前記画像信号を階調処理する複数の階調変換テーブルの 中から 1つの階調変換テーブルを選択するための選択信号であり、
前記階調処理ステップは、 前記選択信号を補正し、 前記画像信号の画素毎に階 調処理テーブルを選択するための補正選択信号を導出する補正ステップと、 前記 補正選択信号が選択する前記階調変換テーブルを用いて前記画像信号の階調処理 を実行する階調処理実行ステツプとを有している、
付記 1 4に記載の視覚処理プログラム。
(付記 1 8 )
前記階調処理手段は、 前記画像信号を階調処理するための階調変換曲線の曲線 パラメータを、 前記階調変換特性に基づいて出力するパラメータ出力手段を有し ており、 前記階調変換特定と前記曲線パラメータとに基づいて特定される前記階 調変換曲線を用いて、 前記画像信号を階調処理する、
付記 1に記載の視覚処理装置。
(付記 1 9 )
前記パラメータ出力手段は、 前記階調変換特性と前記曲線パラメータとの関係 を格納するルックアップテーブルである、
付記 1 8に記載の視覚処理装置。
(付記 2 0 )
前記曲線パラメータは、 前記画像信号の所定の値に対する前記階調処理された 画像信号の値を含む、
付記 1 8または 1 9に記載の視覚処理装置。
(付記 2 1 ) 前記曲線パラメータは、 前記画像信号の所定の区間における前記階調変換曲線 の傾きを含む、
付記 1 8 ~ 2 0のいずれかに記載の視覚処理装置。
(付記 2 2 )
前記曲線パラメータは、 前記階調変換曲線が通る少なくとも 1点の座標を含む、 付記 1 8 ~ 2 1のいずれかに記載の視覚処理装置。
(付記 2 3 )
入力された画像信号における複数の画像領域毎の空間処理を行い空間処理信号 を導出する手段であって、 前記空間処理では、 前記空間処理の対象となる対象画 像領域と前記対象画像領域の周辺画像領域との階調特性の差に基づいた重み付け を用いて、 前記対象画像領域と前記周辺画像領域との階調特性の加重平均を行う 、 空間処理手段と、
前記対象画像領域の階調特性と前記空間処理信号とに基づいて、 前記対象画像 領域の視覚処理を行う視覚処理手段と、
を備える視覚処理装置。
(付記 2 4 )
前記重み付けは、 前記階調特性の差の絶対値が大きいほど小さくなる、 付記 2 3に記載の視覚処理装置。
(付記 2 5 )
前記重み付けは、 前記対象画像領域と前記周辺画像領域との距離が大きいほど 小さくなる、
付記 2 3または 2 4に記載の視覚処理装置。
(付記 2 6 )
前記画像領域は、 複数の画素から構成されており、
前記対象画像領域と前記周辺画像領域との階調特性は、 それぞれの画像領域を 構成する画素値の特徴量として定められている、
付記 2 3〜 2 5のいずれかに記載の視覚処理装置。
〈第 1付記の説明〉
付記 1に記載の視覚処理装置は、 画像領域分割手段と、 階調変換特性導出手段 と、 階調処理手段とを備えている。 画像領域分割手段は、 入力された画像信号を 複数の画像領域に分割する。 階調変換特性導出手段は、 画像領域毎に階調変換特 性を導出する手段であって、 階調変換特性の導出対象となる対象画像領域と対象 画像領域の周辺画像領域との階調特性を用いて、 対象画像領域の階調変換特性を 導出する。 階調処理手段は、 導出された階調変換特性に基づいて、 画像信号の階 調処理を行う。
ここで、 階調変換特性とは、 画像領域毎の階調処理の特性である。 階調特性と は、 例えば、 画素毎の輝度、 明度などといった画素値である。
本発明の視覚処理装置では、 画像領域毎の階調変換特性を判断する際に、 画像 領域毎の階調特性だけでなく、 周辺の画像領域を含めた広域の画像領域の階調特 性を用いて判断を行う。 このため、 画像領域毎の階調処理に空間処理的効果を加 えることが可能となリ、 さらに視覚的効果を向上させる階調処理を実現すること が可能となる。
付記 2に記載の視覚処理装置は、 付記 1に記載の視覚処理装置であって、 階調 変換特性は、 階調変換曲線である。 階調変換特性導出手段は、 階調特性を用いて ヒス卜グラムを作成するヒストグラム作成手段と、 作成されたヒス卜グラムに基 づいて階調変換曲線を作成する階調曲線作成手段とを有している。
ここで、 ヒストグラムとは、 例えば、 対象画像領域および周辺画像領域が含む 画素の階調特性に対する分布である。 階調曲線作成手段は、 例えば、 ヒス卜ダラ ムの値を累積した累積曲線を階調変換曲線とする。
本発明の視覚処理装置では、 ヒストグラムを作成する際に、 画像領域毎の階調 特性だけでなく、 周辺の画像領域を含めた広域の階調特性を用いてヒス卜グラム の作成を行う。 このため、 画像信号の分割数を増やし画像領域の大きさを小さく することが可能となり、 階調処理による疑似輪郭の発生を抑制することが可能と なる。 また、 画像領域の境界が不自然に目立つことが防止可能となる。
付記 3に記載の視覚処理装置は、 付記 1に記載の視覚処理装置であって、 階調 変換特性は、 画像信号を階調処理する複数の階調変換テーブルの中から 1つの階 調変換テーブルを選択するための選択信号である。 階調処理手段は、 複数の階調 変換テーブルを 2次元 L U Tとして有している。 ここで、 階調変換テーブルとは、 例えば、 画像信号の画素値に対して階調処理 された画像信号の画素値を記憶するルックアップテーブル (L U T ) などである。 選択信号は、 例えば、 複数の階調変換テーブルのそれぞれに割り付けられた値 の中から選択される 1つの階調変換テーブルに割り付けられた値を有している。 階調処理手段は、 選択信号の値と画像信号の画素値とから 2次元 L U Tを参照し て階調処理された画像信号の画素値を出力する。
本発明の視覚処理装置では、 階調処理を 2次元 L U Tを参照して行う。 このた め、 階調処理を高速化することが可能となる。 また、 複数の階調変換テーブルか ら 1つの階調変換テーブルを選択して階調処理を行うため、 適切な階調処理を行 うことが可能となる。
付記 4に記載の視覚処理装置は、 付記 3に記載の視覚処理装置であって、 2次 元 L U Tは、 画像信号の全ての値において、 選択信号の値に対する階調処理され た画像信号の値が単調増加あるいは単調減少する順序で複数の階調変換テーブル を格納している。
本発明の視覚処理装置では、 例えば、 選択信号の値が階調変換の度合いを示す こととなる。
付記 5に記載の視覚処理装置は、 付記 3又は 4に記載の視覚処理装置であって、 2次元 L U Tは、 プロファイルデータの登録により変更可能である。
ここで、 プロファイルデータとは、 2次元 L U Tに格納されるデータであり、 例えば、 階調処理された画像信号の画素値を要素としている。
本発明の視覚処理装置では、 2次元 L U Tを変更することにより、 ハードゥエ ァの構成を変更せずに階調処理の特性を様々に変更することが可能となる。
付記 6に記載の視覚処理装置は、 付記 3 ~ 5のいずれかに記載の視覚処理装置 であって、 選択信号の値は、 対象画像領域と周辺画像領域とのそれぞれの画像領 域について導出された選択信号である個別選択信号の特徴量として導出される。
ここで、 個別選択信号の特徴量とは、 例えば、 それぞれの画像領域について導 出された選択信号の平均値 (単純平均または加重平均) 、 最大値、 あるいは最小 値などである。
本発明の視覚処理装置では、 対象画像領域に対する選択信号を周辺画像領域を 含む広域の画像領域に対する選択信号の特徴量として導出する。 このため、 選択 信号について空間処理的効果を加えることが可能となり、 画像領域の境界が不自 然に目立つことが防止可能となる。
付記 7に記載の視覚処理装置は、 付記 3 ~ 5のいずれかに記載の視覚処理装置 であって、 選択信号は、 対象画像領域と周辺画像領域との階調特性を用いて導出 される特徴量である階調特性特徴量に基づいて導出される。
ここで、 階調特性特徴量とは、 例えば、 対象画像領域と周辺画像領域との広域 の階調特性の平均値 (単純平均または加重平均) 、 最大値、 あるいは最小値など でめる。
本発明の視覚処理装置では、 対象画像領域に対する選択信号を周辺画像領域を 含む広域の画像領域に対する階調特性特徴量に基づいて導出する。 このため、 選 択信号について空間処理的効果を加えることが可能となリ、 画像領域の境界が不 自然に目立つことが防止可能となる。
付記 8に記載の視覚処 ¾装置は、 付記 3〜 7のいずれかに記載の視覚処理装置 であって、 階調処理手段は、 階調処理実行手段と、 補正手段とを有している。 階 調処理実行手段は、 選択信号が選択する階調変換テーブルを用いて対象画像領域 の階調処理を実行する。 補正手段は、 階調処理された画像信号の階調を補正する 手段であって、 補正の対象となる対象画素を含む画像領域と対象画素を含む画像 領域の隣接画像領域とについて選択された階調処理テーブルに基づいて、 対象画 素の階調を補正する。
ここで、 隣接画像領域とは、 階調変換特性を導出する際の周辺画像領域と同じ 画像領域であってもよいし、 異なる画像領域であってもよい。 例えば、 隣接画像 領域は、 対象画素を含む画像領域に隣接する画像領域のうち、 対象画素からの距 離が短い 3つの画像領域として選択される。
補正手段は、 例えば、 対象画像領域毎に同一の階調変換テーブルを用いて階調 処理された画像信号の階調を補正する。 対象画素の補正は、 例えば、 対象画素の 位置に応じて、 隣接画像領域について選択されたそれぞれの階調変換テーブルの 影響が現れるように行われる。
本発明の視覚処理装置では、 画像信号の階調を画素毎に補正することが可能と なる。 このため、 画像領域の境界が不自然に目立つことがさらに防止され、 視覚 的効果を向上させることが可能となる。
付記 9に記載の視覚処理装置は、 付記 3 ~ 7のいずれかに記載の視覚処理装置 であって、 階調処理手段は、 補正手段と、 階調処理実行手段とを有している。 補 正手段は、 選択信号を補正し、 画像信号の画素毎に階調処理テーブルを選択する ための補正選択信号を導出する。 階調処理実行手段は、 補正選択信号が選択する 階調変換テーブルを用いて画像信号の階調処理を実行する。
補正手段は、 例えば、 対象画像領域毎に導出された選択信号を画素位置および 対象画像領域に隣接する画像領域について導出された選択信号に基づいて補正し、 画素毎の選択信号を導出する。
本発明の視覚処理装置では、 画素毎に選択信号を導出することが可能となる。 このため、 画像領域の境界が不自然に目立つことがさらに防止され、 視覚的効果 を向上させることが可能となる。
付記 1 0に記載の視覚処理方法は、 画像領域分割ステップと、 階調変換特性導 出ステップと、 階調処理ステップとを備えている。 画像領域分割ステップは、 入 力された画像信号を複数の画像領域に分割する。 階調変換特性導出ステップは、 画像領域毎に階調変換特性を導出するステップであって、 階調変換特性の導出対 象となる対象画像領域と対象画像領域の周辺画像領域との階調特性を用いて、 対 象画像領域の階調変換特性を導出する。 階調処理ステップは、 導出された階調変 換特性に基づいて、 画像信号の階調処理を行う。
ここで、 階調変換特性とは、 画像領域毎の階調処理の特性である。 階調特性と は、 例えば、 画素毎の輝度、 明度などといった画素値である。
本発明の視覚処理方法では、 画像領域毎の階調変換特性を判断する際に、 画像 領域毎の階調特性だけでなく、 周辺の画像領域を含めた広域の画像領域の階調特 性を用いて判断を行う。 このため、 画像領域毎の階調処理に空間処理的効果を加 えることが可能となリ、 さらに視覚的効果の高い階調処理を実現することが可能 となる。
付記 1 1に記載の視覚処理方法は、 付記 1 0に記載の視覚処理方法であって、 階調変換特性は、 階調変換曲線である。 階調変換特性導出ステップは、 階調特性 を用いてヒス卜グラムを作成するヒス卜グラム作成ステップと、 作成されたヒス トグラムに基づいて階調変換曲線を作成する階調曲線作成ステップとを有してい る。
ここで、 ヒストグラムとは、 例えば、 対象画像領域および周辺画像領域が含む 画素の階調特性に対する分布である。 階調曲線作成ステップは、 例えば、 ヒスト グラムの値を累積した累積曲線を階調変換曲線とする。
本発明の視覚処理方法では、 ヒストグラムを作成する際に、 画像領域毎の階調 特性だけでなく、 周辺の画像領域を含めた広域の階調特性を用いてヒストグラム の作成を行う。 このため、 画像信号の分割数を増やし画像領域の大きさを小さく することが可能となリ、 階調処理による疑似輪郭の発生を抑制することが可能と なる。 また、 画像領域の境界が不自然に目立つことが防止可能となる。
付記 1 2に記載の視覚処理方法は、 付記 1 0に記載の視覚処理方法であって、 階調変換特性は、 画像信号を階調処理する複数の階調変換テーブルの中から 1つ の階調変換テーブルを選択するための選択信号である。 また、 階調処理ステップ は、 階調処理実行ステップと、 補正ステップとを有している。 階調処理実行ステ ップは、 選択信号が選択する階調変換テーブルを用いて対象画像領域の階調処理 を実行する。 補正ステップは、 階調処理された画像信号の階調を補正するステツ プであって、 補正の対象となる対象画素を含む画像領域と対象画素を含む画像領 域の隣接画像領域とについて選択された階調処理テーブルに基づいて、 対象画素 の階調を補正する。
ここで、 階調変換テーブルとは、 例えば、 画像信号の画素値に対して階調処理 された画像信号の画素値を記憶するルックアップテーブル (L U T ) などである。 隣接画像領域とは、 階調変換特性を導出する際の周辺画像領域と同じ画像領域で あってもよいし、 異なる画像領域であってもよい。 例えば、 隣接画像領域は、 対 象画素を含む画像領域に隣接する画像領域のうち、 対象画素からの距離が短い 3 つの画像領域として選択される。
選択信号は、 例えば、 複数の階調変換テーブルのそれぞれに割り付けられた値 の中から選択される 1つの階調変換テーブルに割り付けられた値を有している。 階調処理ステツプは、 選択信号の値と画像信号の画素値とから L U Tを参照して 階調処理された画像信号の画素値を出力する。 補正ステップは、 例えば、 対象画 像領域毎に同一の階調変換テーブルを用いて階調処理された画像信号の階調を補 正する。 対象画素の補正は、 例えば、 対象画素の位置に応じて、 隣接画像領域に ついて選択されたそれぞれの階調変換テーブルの影響が現れるように行われる。 本発明の視覚処理方法では、 階調処理を L U Tを参照して行う。 このため、 階 調処理を高速化することが可能となる。 また、 複数の階調変換テーブルから 1つ の階調変換テーブルを選択して階調処理を行うため、 適切な階調処理を行うこと が可能となる。 さらに、 画像信号の階調を画素毎に補正することが可能となる。 このため、 画像領域の境界が不自然に目立つことがさらに防止され、 視覚的効果 を向上させることが可能となる。
付記 1 3に記載の視覚処理方法は、 付記 1 0に記載の視覚処理方法であって、 階調変換特性は、 画像信号を階調処理する複数の階調変換テーブルの中から 1つ の階調変換テーブルを選択するための選択信号である。 また、 階調処理ステップ は、 補正ステップと、 階調処理実行ステップとを有している。 補正ステップは、 選択信号を補正し、 画像信号の画素毎に階調処理テーブルを選択するための補正 選択信号を導出する。 階調処理実行ステップは、 補正選択信号が選択する階調変 換テーブルを用いて画像信号の階調処理を実行する。
ここで、 階調変換テーブルとは、'例えば、 画像信号の画素値に対して階調処理 された画像信号の画素値を記憶するルックアップテーブル (L U T ) などである。 選択信号は、 例えば、 複数の階調変換テーブルのそれぞれに割り付けられた値 の中から選択される 1つの階調変換テーブルに割り付けられた値を有している。 階調処理ステップは、 選択信号の値と画像信号の画素値とから 2次元 L U Tを参 照して階調処理された画像信号の画素値を出力する。 補正ステップは、 例えば、 対象画像領域毎に導出された選択信号を画素位置および対象画像領域に隣接する 画像領域について導出された選択信号に基づいて補正し、 画素毎の選択信号を導 出する。
本発明の視覚処理方法では、 階調処理を L U Tを参照して行う。 このため、 階 調処理を高速化することが可能となる。 また、 複数の階調変換テーブルから 1つ の階調変換テーブルを選択して階調処理を行うため、 適切な階調処理を行うこと が可能となる。 さらに、 画素毎に選択信号を導出することが可能となる。 このた め、 画像領域の境界が不自然に目立つことがさらに防止され、 視覚的効果を向上 させることが可能となる。
付記 1 4に記載の視覚処理プログラムは、 コンピュータにより、 画像領域分割 ステップと、 階調変換特性導出ステップと、 階調処理ステップとを備える視覚処 理方法を行わせる視覚処理プログラムである。 画像領域分割ステップは、 入力さ れた画像信号を複数の画像領域に分割する。 階調変換特性導出ステップは、 画像 領域毎に階調変換特性を導出するステップであって、 階調変換特性の導出対象と なる対象画像領域と対象画像領域の周边画像領域との階調特性を用いて、 対象画 像領域の階調変換特性を導出する。 階調処理ステップは、 導出された階調変換特 性に基づいて、 画像信号の階調処理を行う。
ここで、 階調変換特性とは、 画像領域毎の階調処理の特性である。 階調特性と は、 例えば、 画素毎の輝度、 明度などといった画素値である。
本発明の視覚処理プログラムでは、 画像領域毎の階調変換特性を判断する際に、 画像領域毎の階調特性だけでなく、 周辺の画像領域を含めた広域の画像領域の階 調特性を用いて判断を行う。 このため、 画像領域毎の階調処理に空間処理的効果 を加えることが可能となリ、 さらに視覚的効果の高い階調処理を実現することが 可能となる。
付記 1 5に記載の視覚処理プログラムは、 付記 1 4に記載の視覚処理プロダラ ムであって、 階調変換特性は、 階調変換曲線である。 階調変換特性導出ステップ は、 階調特性を用いてヒストグラムを作成するヒストグラム作成ステップと、 作 成されたヒス卜グラムに基づいて階調変換曲線を作成する階調曲線作成ステップ とを有している。
ここで、 ヒストグラムとは、 例えば、 対象画像領域および周辺画像領域が含む 画素の階調特性に対する分布である。 階調曲線作成ステップは、 例えば、 ヒスト グラムの値を累積した累積曲線を階調変換曲線とする。
本発明の視覚処理プログラムでは、 ヒストグラムを作成する際に、 画像領域毎 の階調特性だけでなく、 周辺の画像領域を含めた広域の階調特性を用いてヒス卜 グラムの作成を行う。 このため、 画像信号の分割数を増やし画像領域の大きさを 小さくすることが可能となリ、 階調処理による疑似輪郭の発生を抑制することが 可能となる。 また、 画像領域の境界が不自然に目立つことが防止可能となる。 付記 1 6に記載の視覚処理プログラムは、 付記 1 4に記載の視覚処理プロダラ ムであって、 階調変換特性は、 画像信号を階調処理する複数の階調変換テーブル の中から 1つの階調変換テーブルを選択するための選択信号である。 また、 階調 処理ステップは、 階調処理実行ステップと、 補正ステップとを有している。 階調 処理実行ステップは、 選択信号が選択する階調変換テーブルを用いて対象画像領 域の階調処理を実行する。 補正ステップは、 階調処理された画像信号の階調を補 正するズテツプであって、 補正の対象となる対象画素を含む画像領域と対象画素 を含む画像領域の隣接画像領域とについて選択された階調処理テーブルに基づい て、 対象画素の階調を補正する。
ここで、 階調変換テーブルとは、 例えば、 画像信号の画素値に対して階調処理 された画像信号の画素値を記憶するルックアップテーブル (L U T ) などである。 隣接画像領域とは、 階調変換特性を導出する際の周辺画像領域と同じ画像領域で あってもよいし、 異なる画像領域であってもよい。 例えば、 隣接画像領域は、 対 象画素を含む画像領域に隣接する画像領域のうち、 対象画素からの距離が短い 3 つの画像領域として選択される。
選択信号は、 例えば、 複数の階調変換テーブルのそれぞれに割り付けられた値 の中から選択される 1つの階調変換テーブルに割り付けられた値を有している。 階調処理ステップは、 選択信号の値と画像信号の画素値とから L U Tを参照して 階調処理された画像信号の画素値を出力する。 補正ステップは、 例えば、 対象画 像領域毎に同一の階調変換テーブルを用いて階調処理された画像信号の階調を補 正する。 対象画素の補正は、 例えば、 対象画素の位置に応じて、 隣接画像領域に ついて選択されたそれぞれの階調変換テーブルの影響が現れるように行われる。 本発明の視覚処理プログラムでは、 階調処理を L U Tを参照して行う。 このた め、 階調処理を高速化することが可能となる。 また、 複数の階調変換テーブルか ら 1つの階調変換テーブルを選択して階調処理を行うため、 適切な階調処理を行 うことが可能となる。 さらに、 画像信号の階調を画素毎に補正することが可能と なる。 このため、 画像領域の境界が不自然に目立つことがさらに防止され、 視覚 的効果を向上させることが可能となる。
付記 1 7に記載の視覚処理プログラムは、 付記 1 4に記載の視覚処理プロダラ ムであって、 階調変換特性は、 画像信号を階調処理する複数の階調変換テーブル の中から 1つの階調変換テーブルを選択するための選択信号である。 また、 階調 処理ステップは、 補正ステップと、 階調処理実行ステップとを有している。 補正 ステップは、 選択信号を補正し、 画像信号の画素毎に階調処理テーブルを選択す るための補正選択信号を導出する。 階調処理実行ステップは、 補正選択信号が選 択する階調変換テーブルを用いて画像信号の階調処理を実行する。
ここで、 階調変換テーブルとは、 例えば、 画像信号の画素値に対して階調処理 された画像信号の画素値を記憶するルックアップテーブル (L U T ) などである。 選択信号は、 例えば、 複数の階調変換テーブルのそれぞれに割り付けられた値 の中から選択される 1つの階調変換テーブルに割り付けられた値を有している。 階調処理ステップは、 選択信号の値と画像信号の画素値とから 2次元 L U Tを参 照して階調処理された画像信号の画素値を出力する。 補正ステップは、 例えば、 対象画像領域毎に導出された選択信号を画素位置および対象画像領域に隣接する 画像領域について導出された選択信号に基づいて補正し、 画素毎の選択信号を導 出する。
本発明の視覚処理プログラムでほ、 階調処理を L U Tを参照して行う。 このた め、 階調処理を高速化することが可能となる。 また、 複数の階調変換テーブルか ら1つの階調変換テーブルを選択して階調処理を行うため、 適切な階調処理を行 うことが可能となる。 さらに、 画素毎に選択信号を導出することが可能となる。 このため、 画像領域の境界が不自然に目立つことがさらに防止され、 視覚的効果 を向上させることが可能となる。
付記 1 8に記載の視覚処理装置は、 付記 1に記載の視覚処理装置であって、 階 調処理手段は、 画像信号を階調処理するための階調変換曲線の曲線パラメータを、 階調変換特性に基づいて出力するパラメータ出力手段を有している。 階調処理手 段は、 階調変換特定と曲線パラメータとに基づいて特定される階調変換曲線を用 いて、 画像信号を階調処理する。
ここで、 階調変換曲線とは、 少なくとも一部が直線であるようなものも含んで いる。 曲線パラメータとは、 階調変換曲線を他の階調変換曲線と区別するための パラメータであり、 例えば、 階調変換曲線上の座標、 階調変換曲線の傾き、 曲率 などである。 パラメータ出力手段は、 例えば、 階調変換特性に対する曲線パラメ ータを格納するルックアップテーブルや、 所定の階調変換特性に対する曲線パラ メータを用いた曲線近似などの演算によリ曲線パラメータを求める演算手段など である。
本発明の視覚処理装置では、 階調変換特性に応じて画像信号を階調処理する。 このため、 より適切に階調処理を行うことが可能となる。 また、 階調処理に用い られる全ての階調変換曲線の値をあらかじめ記憶しておく必要がなく、 出力され た曲線パラメータから階調変換曲線を特定して階調処理を行う。 このため、 階調 変換曲線を記憶するための記憶容量を削減することが可能となる。
付記 1 9に記載の視覚処理装置は、 付記 1 8に記載の視覚処理装置であって、 パラメータ出力手段は、 階調変換特性と曲線パラメータとの関係を格納するルツ クアップテーブルである。
ルックアップテーブルは、 階調変換特性と曲線パラメータとの関係を格納して いる。 階調処理手段は、 特定された階調変換曲線を用いて、 画像信号を階調処理 する。
本発明の視覚処理装置では、 階調変換特性に応じて画像信号を階調処理する。 このため、 より適切に階調処理を行うことが可能となる。 さらに、 用いられる全 ての階調変換曲線の値をあらかじめ記憶しておく必要がなく、 曲線パラメータを 記憶するのみである。 このため、 階調変換曲線を記憶するための記憶容量を削減 することが可能となる。
付記 2 0に記載の視覚処理装置は、 付記 1 8または 1 9に記載の視覚処理装置 であって、 曲線パラメ一タは、 画像信号の所定の値に対する階調処理された画像 信号の値を含む。
階調処理手段では、 画像信号の所定の値と視覚処理の対象となる画像信号の値 との関係を用いて、 曲線パラメータが含む階調処理された画像信号の値を非線形 あるいは線形に内分し、 階調処理された画像信号の値を導出する。
本発明の視覚処理装置では、 画像信号の所定の値に対する階調処理された画像 信号の値から階調変換曲線を特定し、 階調処理を行うことが可能となる。
付記 2 1に記載の視覚処理装置は、 付記 1 8〜2 0のいずれかに記載の視覚処 理装置であって、 曲線パラメータは、 画像信号の所定の区間における階調変換曲 線の傾きを含む。
階調処理手段では、 画像信号の所定の区間における階調変換曲線の傾きによリ、 階調変換曲線が特定される。 さらに、 特定された階調変換曲線を用いて、 画像信 号の値に対する階調処理された画像信号の値が導出される。
本発明の視覚処理装置では、 画像信号の所定の区間における階調変換曲線の傾 きにより、 階調変換曲線を特定し、 階調処理を行うことが可能となる。
付記 2 2に記載の視覚処理装置は、 付記 1 8 ~ 2 1のいずれかに記載の視覚処 理装置であって、 曲線パラメータは、 階調変換曲線が通る少なくとも 1点の座標 を含む。
曲線パラメータでは、 階調変換曲線が通る少なくとも 1点の座標が特定されて いる。 すなわち画像信号の値に対する階調処理後の画像信号の値が少なくとも 1 点特定されている。 階調処理手段では、 特定された画像信号の値と、 視覚処理の 対象となる画像信号の値との関係を用いて、 特定された階調処理後の画像信号の 値を非線形あるいは線形に内分することによリ階調処理された画像信号の値を導 出する。
本発明の視覚処理装置では、 階調変換曲線が通る少なくとも 1点の座標によリ、 階調変換曲線を特定し、 階調処理を行うことが可能となる。
付記 2 3に記載の視覚処理装置は、 空間処理手段と、 視覚処理手段とを備えて いる。 空間処理手段は、 入力された画像信号における複数の画像領域毎の空間処 理を行い空間処理信号を導出する手段である。 空間処理では、 空間処理の対象と なる対象画像領域と対象画像領域の周辺画像領域との階調特性の差に基づいた重 み付けを用いて、 対象画像領域と周辺画像領域との階調特性の加重平均を行う。 視覚処理手段は、 対象画像領域の階調特性と空間処理信号とに基づいて、 対象画 像領域の視覚処理を行う。
ここで、 画像領域とは、 画像において、 複数の画素を含む領域、 あるいは画素 そのものを意味している。 階調特性とは、 画素毎の輝度、 明度などといった画素 値に基づく値である。 例えば、 画像領域の階調特性とは、 画像領域が含む画素の 画素値の平均値 (単純平均または加重平均) 、 最大値、 あるいは最小値などであ る。
空間処理手段は、 周辺画像領域の階調特性を用いて、 対象画像領域の空間処理 を行う。 空間処理では、 対象画像領域と周辺画像領域との階調特性が加重平均さ れる。 加重平均における重みは、 対象画像領域と周辺画像領域との階調特性の差 に基づいて設定される。
本発明の視覚処理装置では、 空間処理信号において、 階調特性が大きく異なる 画像領域から受ける影響を抑制することなどが可能となる。 例えば、 周辺画像領 域が物体の境界などを含む画像であり、 対象画像領域とは階調特性が大きく異な る場合にも、 適切な空間処理信号を導出することが可能となる。 この結果、 空間 処理信号を用いた視覚処理においても、 特に擬似輪郭などの発生を抑制すること などが可能となる。 このため、 視覚的効果を向上させる視覚処理を実現すること が可能となる。
付記 2 4に記載の視覚処理装置は、 付記 2 3に記載の視覚処理装置であって、 重み付けは、 階調特性の差の絶対値が大きいほど小さくなる。
ここで、 重みは、 階調特性の差に応じて単調減少する値として与えられるもの であってもよいし、 所定の閾値と階調特性の差との比較により、 所定の値に設定 されるものであってもよい。
本発明の視覚処理装置では、 空間処理信号において、 階調特性が大きく異なる 画像領域から受ける影響を抑制することなどが可能となる。 例えば、 周辺画像領 域が物体の境界などを含む画像であり、 対象画像領域とは階調特性が大きく異な る場合にも、 適切な空間処理信号を導出することが可能となる。 この結果、 空間 処理信号を用いた視覚処理においても、 特に擬似輪郭などの発生を抑制すること などが可能となる。 このため、 視覚的効果を向上させる視覚処理を実現すること が可能となる。
付記 2 5に記載の視覚処理装置は、 付記 2 3または 2 4に記載の視覚処理装置 であって、 重み付けは、 対象画像領域と周辺画像領域との距離が大きいほど小さ くなる。 ここで、 重みは、 対象画像領域と周辺画像領域との距離の大きさに応じて単調 減少する値として与えられるものであってもよいし、 所定の閾値と距離の大きさ との比較により、 所定の値に設定されるものであってもよい。
本発明の視覚処理装置では、 空間処理信号において、 対象画像領域と離れた周 辺画像領域から受ける影響を抑制することなどが可能となる。 このため、 周辺画 像領域が物体の境界などを含む画像であり、 対象画像領域とは階調特性が大きく 異なる場合にも、 周辺画像領域と対象画像領域とが離れている場合には、 周辺画 像領域から受ける影響を抑制し、 より適切な空間処理信号を導出することが可能 となる。
付記 2 6に記載の視覚処理装置は、 付記 2 3 ~ 2 5のいずれかに記載の視覚処 理装置であって、 画像領域は、 複数の画素から構成されている。 対象画像領域と 周辺画像領域との階調特性は、 それぞれの画像領域を構成する画素値の特徴量と して定められている。
本発明の視覚処理装置では、 画像領域毎の空間処理を行う際に、 画像領域毎に 含まれる画素だけでなく、 周辺の画像領域を含めた広域の画像領域に含まれる画 素の階調特性を用いて処理を行う。 このため、 より適切な空間処理を行うことが 可能となる。 この結果、 空間処理信号を用いた視覚処理においても、 特に擬似輪 郭などの発生を抑制することなどが可能となる。 このため、 視覚的効果を向上さ せる視覚処理を実現することが可能となる。
[第 2付記]
本発明は、 次のように表現することも可能である。 なお、 本欄 ( [第 2付記] ) に記載する従属形式の付記では、 第 2付記に記載の付記に従属するものとする
〈第 2付記の内容〉
(付記 1 )
入力された画像信号に対して一定の処理を行い、 処理信号を出力する入力信号 処理手段と、
入力された前記画像信号および前記処理信号と視覚処理された前記画像信号で ある出力信号との関係を与える 2次元 L U Tに基づいて、 前記出力信号を出力す る視覚処理手段と、
を備えた視覚処理装置。
(付記 2)
前記 2次元 LUTでは、 前記画像信号と、 前記出力信号とが非線形の関係にあ る、
付記 1に記載の視覚処理装置。
(付記 3)
前記 2次元 LUTでは、 前記画像信号および前記処理信号の両方と、 前記出力 信号とが非線形の関係にある、
付記 2に記載の視覚処理装置。
(付記 4)
前記 2次元 L U Tの各要素の値は、 前記画像信号と前記処理信号とから算出さ れた値を強調する演算を含む数式に基づいて定められている、
付記 1 ~ 3のいずれかに記載の視覚処理装置。
(付記 5)
前記処理信号は、 着目画素と着目画素の周囲画素との画像信号に対して前記一 定の処理を行った信号である、
付記 4に記載の視覚処理装置。
(付記 6)
前記強調する演算は、 非線形の関数である、
付記 4または 5に記載の視覚処理装置。
(付記 7)
前記強調する演算は、 前記画像信号と前記処理信号とに対して所定の変換を行 つたそれぞれの変換値の差を強調する強調関数である、
付記 4〜 6のいずれかに記載の視覚処理装置。
(付記 8)
前記 2次元 LUTの各要素の値 Cは、 前記画像信号の値 A、 前記処理信号の値 B、 変換関数 F 1、 前記変換関数 F 1の逆変換関数 F 2、 前記強調関数 F 3に対 して、 数式 F 2 (F 1 (A) +F3 (F 1 (A) -F 1 (B) ) ) に基づいて定 められる、
付記 7に記載の視覚処理装置。
(付記 9)
前記変換関数 F 1は、 対数関数である、
付記 8に記載の視覚処理装置。
(付記 1 0)
前記逆変換関数 F 2は、 ガンマ補正関数である、
付記 8に記載の視覚処理装置。
(付記 1 1 )
前記強調する演算は、 前記画像信号と前記処理信号との比を強調する強調関数 である、
付記 4 ~ 6のいずれかに記載の視覚処理装置。
(付記 1 2)
前記 2次元 LUTの各要素の値 Cは、 前記画像信号の値 A、 前記処理信号の値 B、 ダイナミックレンジ圧縮関数 F4、 前記強調関数 F 5に対して、 数式 F4 (A) * F 5 (A/B) に基づいて定められる、
付記 1 1に記載の視覚処理装置。
(付記 1 3)
前記ダイナミックレンジ圧縮関数 F 4は、 単調増加関数である、
付記 1 2に記載の視覚処理装置。
(付記 1 4)
前記ダイナミックレンジ圧縮関数 F 4は、 上に凸の関数である、
付記 1 3に記載の視覚処理装置。
(付記 1 5)
前記ダイナミックレンジ圧縮関数 F 4は、 べき関数である、
付記 1 2に記載の視覚処理装置。
(付記 1 6)
前記ダイナミックレンジ圧縮関数 F 4は、 比例係数 1の正比例関数である、 付記 1 2に記載の視覚処理装置。 (付記 1 7)
前記強調関数 F 5は、 べき関数である、
付記 1 2~1 6のいずれかに記載の視覚処理装置。
(付記 1 8)
前記数式は、 前記強調関数により強調された前記画像信号と前記処理信号との 比に対してダイナミックレンジ圧縮を行う演算をさらに含む、
付記 1 1に記載の視覚処理装置。
(付記 1 9)
前記強調する演算は、 前記画像信号と前記処理信号との差を、 前記画像信号の 値に応じて強調する関数を含む、
付記 4〜 6のいずれかに記載の視覚処理装置。
(付記 20)
前記 2次元 LUTの各要素の値 Cは、 前記画像信号の値 A、 前記処理信号の値 B、 強調量調整関数 F6、 強調関数 F 7、 ダイナミックレンジ圧縮関数 F 8に対 して、 数式 F 8 (A) + F 6 (A) * F 7 (A— B) に基づいて定められる、 付記 1 9に記載の視覚処理装置。
(付記 21 )
前記ダイナミックレンジ圧縮関数 F 8は、 単調増加関数である、
付記 20に記載の視覚処理装置。
(付記 22)
前記ダイナミックレンジ圧縮関数 F 8は、 上に凸の関数である、
付記 21に記載の視覚処理装置。
(付記 23)
前記ダイナミックレンジ圧縮関数 F 8は、 べき関数である、
付記 20に記載の視覚処理装置。
(付記 24)
前記ダイナミックレンジ圧縮関数 F 8は、 比例係数 1の正比例関数である、 付記 20に記載の視覚処理装置。
(付記 25) 前記数式は、 前記強調する演算により強調された値に対して、 前記画像信号を ダイナミックレンジ圧縮した値を加える演算をさらに含む、
付記 1 9に記載の視覚処理装置。
(付記 26)
前記強調する演算は、 前記画像信号と前記処理信号との差を強調する強調関数 であり、
前記数式は、 前記強調関数により強調された値に対して、 前記画像信号の値を 加えた値を階調補正する演算をさらに含む、
付記 4 ~ 6のいずれかに記載の視覚処 a装置。
(付記 27)
前記 2次元 LUTの各要素の値 Cは、 前記画像信号の値 A、 前記処理信号の値 B、 前記強調関数 F 9、 階調補正関数 F 1 0に対して、 数式 F I O (A+F 9 (A-B) ) に基づいて定められる、
付記 26に記載の視覚処理装置。
(付記 28)
前記強調する演算は、 前記画像信号と前記処理信号との差を強調する強調関数 であり、
前記数式は、 前記強調関数により強調された値に対して、 前記画像信号を階調 補正した値を加える演算をさらに含む、
付記 4〜 6のいずれかに記載の視覚処理装置。
(付記 29)
前記 2次元 LUTの各要素の値 Cは、 前記画像信号の値 A、 前記処理信号の値 B、 前記強調関数 F 1 1、 階調補正関数 F 1 2に対して、 数式 F 1 2 (A) +F 1 1 (A-B) に基づいて定められる、
付記 28に記載の視覚処理装置。
(付記 30)
前記 2次元 L U Tでは、 同じ値の前記画像信号と前記処理信号とに対して格納 されている値は、 前記画像信号および前記処理信号の値に対して、 単調増加、 あ るいは単調減少する関係にある、 付記 1 〜2 9のいずれかに記載の視覚処理装置。
(付記 3 1 )
前記 2次元 L U Tは、 前記画像信号と前記出力信号との関係を複数の階調変換 曲線からなる階調変換曲線群として格納する、
付記 1 ~ 3のいずれかに記載の視覚処理装置。
(付記 3 2 )
前記階調変換曲線群のそれぞれは、 前記画像信号の値に対して、 単調増加する、 付記 3 1に記載の視覚処理装置。
(付記 3 3 )
前記処理信号は、 前記複数の階調変換曲線群から対応する階調変換曲線を選択 するための信号である、
付記 3 1または 3 2に記載の視覚処理装置。
(付記 3 4 )
前記処理信号の値は、 前記複数の階調変換曲線群が含む少なくとも 1つの階調 変換曲線と関連づけられている、
付記 3 3に記載の視覚処理装置。
(付記 3 5 )
前記 2次元 L U Tには、 所定の演算によってあらかじめ作成されるプロフアイ ルデータが登録されている、
付記 1 ~ 3 4のいずれかに記載の視覚処理装置。
(付記 3 6 )
前記 2次元 L U Tは、 プロフアイルデータの登録によリ変更可能である、 付記 3 5に記載の視覚処理装置。
(付記 3 7 )
前記プロファイルデータを前記視覚処理手段に登録させるためのプロファイル データ登録手段をさらに備えている、
付記 3 5または 3 6に記載の視覚処理装置。
(付記 3 8 )
前記視覚処理手段は、 外部の装置により作成された前記プロファイルデータを 取得する、
付記 3 5に記載の視覚処理装置。
(付記 3 9 )
取得された前記プロファイルデータにより、 前記 2次元 L U Tは変更可能であ る、
付記 3 8に記載の視覚処理装置。
(付記 4 0 )
前記視覚処理手段は、 通信網を介して前記プロファイルデータを取得する、 付記 3 8または 3 9に記載の視覚処理装置。
(付記 4 1 )
前記プロフアイルデータを作成するプロフアイルデータ作成手段をさらに備え ている、
付記 3 5に記載の視覚処理装置。
(付記 4 2 )
前記プロファイルデータ作成手段は、 前記画像信号の階調特性のヒストグラム に基づいて、 前記プロファイルデータを作成する、
付記 4 1に記載の視覚処理装置。
(付記 4 3 )
前記 2次元 L U Tに登録される前記プロファイルデータは、 所定の条件に応じ て切り替えられる、
付記 3 5に記載の視覚処理装置。
(付記 4 4 )
前記所定の条件とは、 明るさに関する条件である、
付記 4 3に記載の視覚処理装置。
(付記 4 5 )
前記明るさは、 前記画像信号の明るさである、
付記 4 に記載の視覚処理装置。
(付記 4 6 )
前記画像信号の明るさを判定する明度判定手段をさらに備え、 前記 2次元 L U Tに登録されるプロフアイルデータは、 前記明度判定手段の判 定結果に応じて切り替えられる、
付記 4 5に記載の視覚処理装置。
(付記 4 7 )
前記明るさに関する条件を入力させる明度入力手段をさらに備え、
前記 2次元 L U Τに登録されるプロフアイルデータは、 前記明度入力手段の入 力結果に応じて切り替えられる、
付記 4 4に記載の視覚処理装置。
(付記 4 8 )
前記明度入力手段は、 前記出力信号の出力環境の明るさ、 あるいは前記入力信 号の入力環境の明るさを入力させる、
付記 4 7に記載の視覚処理装置。
(付記 4 9 )
前記明るさを少なくとも 2種類検出する明度検出手段をさらに備え、
前記 2次元 L U Tに登録されるプロファイルデータは、 前記明度検出手段の検 出結果に応じて切り替えられる、
付記 4 4に記載の視覚処理装置。
(付記 5 0 )
前記明度検出手段が検出する前記明るさは、 前記画像信号の明るさと、 前記出 力信号の出力環境の明るさ、 あるいは前記入力信号の入力環境の明るさとを含む、 付記 4 9に記載の視覚処理装置。
(付記 5 1 )
前記 2次元 L U Tに登録される前記プロファイルデータの選択を行わせるプロ フアイルデータ選択手段をさらに備え、
前記 2次元 L U Tに登録されるプロファイルデータは、 前記プロファイルデ一 タ選択手段の選択結果に応じて切り替えられる、
付記 4 3に記載の視覚処理装置。
(付記 5 2 )
前記プロファイルデータ選択手段は、 プロファイルの選択を行うための入力装 置でお ·©、
付記 5 1に記載の視覚処理装置。
(付記 5 3 )
前記画像信号の画像特性を判断する画像特性判断手段をさらに備え、 前記 2次元 L U Tに登録されるプロファイルデータは、 前記画像特性判断手段 の判断結果に応じて切り替えられる、
付記 4 3に記載の視覚処理装置。
(付記 5 4 )
ユーザを識別するユーザ識別手段をさらに備え、
前記 2次元 L U Tに登録されるプロファイルデータは、 ユーザ識別手段の識別 結果に応じて切り替えられる、
付記 4 3に記載の視覚処理装置。
(付記 5 5 )
前記視覚処理手段は、 前記 2次元 L U Tの格納する値を補間演算して前記出力 信号を出力する、
付記 1 ~ 5 4のいずれかに記載の視覚処理装置。
(付記 5 6 )
前記補間演算は、 2進数で表された前記画像信号あるいは前記処理信号の少な くとも一方の下位ビッ卜の値に基づいた線形補間である、
付記 5 5に記載の視覚処理装置。
(付記 5 7 )
前記入力信号処理手段は、 前記画像信号に対して空間処理を行う、
付記 1 ~ 5 6のいずれかに記載の視覚処理装置。
(付記 5 8 )
前記入力信号処理手段は、 前記画像信号からアンシャープ信号を生成する、 付記 5 7に記載の視覚処理装置。
(付記 5 9 )
前記空間処理では、 画像信号の平均値、 最大値あるいは最小値が導出される、 付記 5 7または 5 8に記載の視覚処理装置。 (付記 6 0 )
前記視覚処理手段は、 入力された前記画像信号及び前記処理信号を用いて、 空 間処理及び階調処理を行う、
付記 1 ~ 5 9のいずれかに記載の視覚処理装置。
(付記 6 1 )
入力された画像信号に対して一定の処理を行い、 処理信号を出力する入力信号 処理ステップと、
入力された前記画像信号および前記処理信号と視覚処理された前記画像信号で ある出力信号との関係を与える 2次元に U Tに基づいて、 前記出力信号を出力す る視覚処理ステップと、
を備えた視覚処理方法。
(付記 6 2 )
コンピュータにより視覚処理方法を行うための視覚処理プログラムであって、 前記視覚処理プログラムは、
入力された画像信号に対して一定の処理を行い、 処理信号を出力する入力信号 処理ステップと、
入力された前記画像信号および前記処理信号と視覚処理された前記画像信号で ある出力信号との関係を与える 2次元 L U Tに基づいて、 前記出力信号を出力す る視覚処理ステップと、
を備えた視覚処理方法をコンピュータに行わせるものである、
視覚処理プログラム。
(付記 6 3 )
付記 1 〜 6 0のいずれかに記載の視覚処理装置を含む集積回路。
(付記 6 4 )
付記 1 ~ 6 0のいずれかに記載の視覚処理装置と、
前記視覚処理装置から出力される前記出力信号の表示を行う表示手段と、 を備える表示装置。
(付記 6 5 )
画像の撮影を行う撮影手段と、 前記撮影手段により撮影された画像を前記画像信号として視覚処理を行う付記 1〜6 0のいずれかに記載の視覚処理装置と、
を備える撮影装置。
(付記 6 6 )
通信あるいは放送された画像データを受信するデータ受信手段と、
受信された前記画像データを前記画像信号として視覚処理を行う付記 1 ~ 6 0 のいずれかに記載の視覚処理装置と、
前記視覚処理装置によリ視覚処理された前記画像信号の表示を行う表示手段と、 を備える携帯情報端末。
(付記 6 7 )
画像の撮影を行う撮影手段と、
前記撮影手段によリ撮影された画像を前記画像信号として視覚処理を行う付記 1 ~ 6 0のいずれかに記載の視覚処理装置と、
前記視覚処理された前記画像信号を送信するデータ送信手段と、
を備える携帯情報端末。
(付記 6 8 )
入力された入力画像信号の画像処理を行う画像処理装置であって、
異なる画像処理を行うための複数のプロフアイルデータに基づいて、 画像処理 に用いられるプロファイルデータを作成するプロファイルデータ作成手段と、 前記プロファイルデータ作成手段により作成された前記プロファイルデータを 用いて、 前記画像処理を行う画像処理実行手段と、
を備える画像処理装置。
(付記 6 9 )
入力された入力画像信号の画像処理を行う画像処理装置であって、
前記画像処理に用いられるプロファイルデータを特定するためのプロファイル 情報を出力するプロファイル情報出力手段と、
前記プロファイル情報出力手段から出力された情報に基づいて特定されるプロ フアイルデータを用いて前記画像処理を行う画像処理実行手段と、
を備える画像処理装置。 (付記 7 0 )
^記プロファイル情報出力手段は、 前記画像処理された入力画像信号を表示す る表示環境に応じて、 前記プロファイル情報を出力する、
付記 6 9に記載の画像処理装置。
(付記 7 1 )
前記プロフアイル情報出力手段は、 前記入力画像信号に含まれる情報のうちプ 口ファイルデータに関わる情報に応じて、 前記プロファイル情報を出力する、 付記 6 9に記載の画像処理装置。
(付記 7 2 )
前記プロファイル情報出力手段は、 取得された前記画像処理の特徴に関わる情 報に応じて、 前記プロファイル情報を出力する、
付記 6 9に記載の画像処理装置。
(付記 7 3 )
前記プロファイル情報出力手段は、 前記入力画像信号が生成された環境に関わ る情報に応じて、 前記プロファイル情報を出力する、
付記 6 9に記載の画像処理装置。
(付記 7 4 )
前記入力画像信号は、 画像データと、 前記入力画像信号の属性情報とを含んで おり、
前記プロファイル情報出力手段は、 前記属性情報に応じて、 前記プロファイル 情報を出力する、
付記 6 9に記載の画像処理装置。
(付記 7 5 )
前記属性情報とは、 前記画像データの全体に関わる全体属性情報を含んでいる、 付記 7 4に記載の画像処理装置。
(付記 7 6 )
前記属性情報とは、 前記画像データの一部に関わる部分属性情報を含んでいる、 付記 7 4または 7 5に記載の画像処理装置。
(付記 7 7 ) 前記属性情報とは、 前記入力画像信号が生成された環境に関わる生成環境属性 情報を含んでいる、
付記 7 4に記載の画像処理装置。
(付記 7 8 )
前記属性情報とは、 前記入力画像信号が取得された媒体に関わる媒体属性情報 を含んでいる、
付記 7 4に記載の画像処理装置。
(付記 7 9 )
付記 6 8〜7 8のいずれかに記載の画像処理装置において、
前記プロファイルデータは、 2次元 L U Tであって、
前記画像処理実行手段は、 付記 1 ~ 6 0のいずれかに記載の視覚処理装置を含 む、
ことを特徴とする画像処理装置。
(付記 8 0 )
入力された入力画像信号に画像処理を行う画像処理実行手段と、
入力された入力画像信号に好適な画像処理を行うプロフアイルデータを特定す るためのプロファイル情報を出力するプロファイル情報出力手段と、
前記入力画像信号あるいは前記画像処理実行手段によリ画像処理された前記入 力画像信号に対して、 前記プロファイル情報を付加して出力するプロファイル情 報付加手段と、
を備える画像処理装置。
(付記 8 1 )
付記 6 8〜 8 0のいずれかに記載の画像処理装置を含む集積回路。
(付記 8 2 )
付記 6 8〜 8 0めいずれかに記載の画像処理装置と、
前記画像処理装置により画像処理された前記入力画像信号の表示を行う表示手 段と、
を備える表示装置。
(付記 8 3 ) 画像の撮影を行う撮影手段と、
前記撮影手段によリ撮影された画像を前記入力画像信号として画像処理を行う 付記 6 8 ~ 8 0のいずれかに記載の画像処理装置と、
を備える撮影装置。
(付記 8 4 )
通信あるいは放送された画像データを受信するデータ受信手段と、
受信された前記画像データを前記入力画像信号として画像処理を行う付記 6 8 〜 8 0のいずれかに記載の画像処理装置と、
前記画像処理装置により画像処理された前記入力画像信号の表示を行う表示手 段と、
を備える携帯情報端末。
(付記 8 5 )
画像の撮影を行う撮影手段と、
前記撮影手段によリ撮影された画像を前記入力画像信号として画像処理を行う 付記 6 8 - 8 0のいずれかに記載の画像処理装置と、
前記画像処理された前記入力画像信号を送信するデータ送信手段と、
を備える携帯情報端末。
〈第 2付記の説明〉
付記 1に記載の視覚処理装置は、 入力信号処理手段と、 視覚処理手段とを備え ている。 入力信号処理手段は、 入力された画像信号に対して一定の処理を行い、 処理信号を出力する。 視覚処理手段は、 入力された画像信号および処理信号と視 覚処理された画像信号である出力信号との関係を与える 2次元 L U Tに基づいて、 出力信号を出力する。
ここで、 一定の処理とは、 例えば、 画像信号に対する直接的あるいは間接的な 処理であって、 空間処理や階調処理などの画像信号の画素値に変換を加える処理 を含んでいる。
本発明の視覚処理装置では、 画像信号および処理信号と視覚処理された出力信 号との関係を記載した 2次元 L U Tを用いて視覚処理を行う。 このため、 2次元 L U Tの機能に依存しないハード構成を実現することが可能となる。 すなわち、 装置全体として実現される視覚処理に依存しないハードウエア構成を実現するこ とが可能となる。
付記 2に記載の視覚処理装置は、 付記 1に記載の視覚処理装置であって、 2次 元 L U Tでは、 画像信号と、 出力信号とが非線形の関係にある。
ここで、 画像信号と出力信号とが非線形の関係にあるとは、 例えば、 2次元 L U Tの各要素の値が画像信号に対して非線形の関数で表される、 あるいは関数に より定式化することが難しいことなどを意味している。
本発明の視覚処理装置では、 例えば、 画像信号の視覚特性にあった視覚処理あ るいは出力信号を出力する機器の非線^特性にあった視覚処理を実現することな どが可能となる。
付記 3に記載の視覚処理装置は、 付記 2に記載の視覚処理装置であって、 2次 元 L U Tでは、 画像信号および処理信号の両方と、 出力信号とが非線形の関係に
¾)る。
ここで、 画像信号および処理信号の両方と、 出力信号とが非線形の関係にある とは、 例えば、 2次元 L U Tの各要素の値が画像信号と処理信号とに対する 2変 数の非線形の関数で表される、 あるいは関数により定式化することが難しいこと などを意味している。
本発明の視覚処理装置では、 例えば、 画像信号の値が同じであっても、 処理信 号の値が異なる場合には、 処理信号の値に応じて異なる視覚処理を実現すること が可能となる。 '
付記 4に記載の視覚処理装置は、 付記 1 〜 3のいずれかに記載の視覚処理装置 であって、 2次元 L U Tの各要素の値は、 画像信号と処理信号とから算出された 値を強調する演算を含む数式に基づいて定められている。
ここで、 画像信号と処理信号とから算出された値とは、 例えば、 画像信号と処 理信号との四則演算で得られる値、 あるいは、 画像信号や処理信号をある関数で 変換した値を演算することにより得られる値などである。 強調する演算とは、 例 えば、 ゲインを調整する演算、 過度のコントラストを抑制する演算、 小振幅のノ ィズ成分を抑制する演算などである。
本発明の視覚処理装置では、 画像信号と処理信号とから算出された値を強調す ることが可能となる。
付記 5に記載の視覚処理装置は、 付記 4に記載の視覚処理装置であって、 処理 信号は、 着目画素と着目画素の周囲画素との画像信号に対して一定の処理を行つ - た信号である。
ここで、 一定の処理とは、 例えば、 着目画素に対して周囲画素を用いた空間処 理などであり、 着目画素と周囲画素との平均値、 最大値あるいは最小値などを導 出する処理である。
本発明の視覚処理装置では、 例えば、 同じ値の着目画素に対する視覚処理であ つても、 周囲画素の影響により、 異なる視覚処理を実現することが可能となる。 付記 6に記載の視覚処理装置は、 付記 4または 5に記載の視覚処理装置であつ て、 強調する演算は、 非線形の関数である。
本発明の視覚処理装置では、 例えば、 画像信号の視覚特性にあった強調、 ある いは出力信号を出力する機器の非線形特性にあった強調を実現することなどが可 能となる。
付記 7に記載の視覚処理装置は、 付記 4〜 6のいずれかに記載の視覚処理装置 であって、 強調する演算は、 画像信号と処理信号とに対して所定の変換を行った それぞれの変換値の差を強調する強調関数である。
ここで、 強調関数とは、 例えば、'ゲインを調整する関数、 過度のコントラスト を抑制する関数、 小振幅のノイズ成分を抑制する関数などである。
本発明の視覚処理装置では、 画像信号と処理信号とを別空間に変換した上でそ れぞれの差を強調することが可能となる。 これにより、 例えば、 視覚特性にあつ た強調などを実現することが可能となる。
付記 8に記載の視覚処理装置は、 付記 7に記載の視覚処理装置であって、 2次 元 L U Tの各要素の値 Cは、 画像信号の値 A、 処理信号の値 B、 変換関数 F 1、 変換関数 F 1の逆変換関数 F 2、 強調関数 F 3に対して、 数式 F 2 ( F 1 ( A )
+ F 3 ( F 1 ( A ) - F 1 ( B ) ) ) に基づいて定められる。
ここで、 2次元 L U Tは、 画像信号の値 Aと処理信号の値 Bとの 2つの入力に 対する各要素の値 Cを与える L U Tである (以下、 この欄において同じ) 。 また、 各信号の値とは、 各信号の値そのものであっても良いし、 値の近似値であっても よい (以下、 この欄において同じ) 。 強調関数 F 3とは、 例えば、 ゲインを調整 する関数、 過度のコントラストを抑制する関数、 小振幅のノイズ成分を抑制する 関数などである。
ここで各要素の値 Cは、 次のことを示している。 すなわち、 画像信号の値 Aと 処理信号の値 Bとは、 変換関数 F 1により別空間上の値に変換されている。 変換 後の画像信号の値と処理信号の値との差分は、 例えば、 別空間上でのシャープ信 号などを表している。 強調関数 F 3により強調された変換後の画像信号と処理信 号との差分は、 変換後の画像信号に加算されている。 これにより、 各要素の値 C は、 別空間上におけるシヤープ信号^ £分が強調された値を示している。
本発明の視覚処理装置では、 例えば、 別空間に変換された画像信号の値 Aおよ び処理信号の値 Bを用いて、 別空間上でのエッジ強調、 コントラスト強調などの 処理が可能となる。
付記 9に記載の視覚処理装置は、 付記 8に記載の視覚処理装置であって、 変換 関数 F 1は、 対数関数である。
ここで、 人間の視覚特性は、 一般に対数的である。 このため対数空間に変換し て画像信号および処理信号の処理を行うと、 視覚特性に適した処理を行うことが 可能となる。
本発明の視覚処理装置では、 視覚的効果の高いコントラスト強調、 あるいは局 所コントラス卜を維持するダイナミックレンジ圧縮が可能となる。
付記 1 0に記載の視覚処理装置は、 付記 8に記載の視覚処理装置であって、 逆 変換関数 F 2は、 ガンマ補正関数である。
ここで、 画像信号には、 一般的に画像信号を入出力する機器のガンマ特性に応 じて、 ガンマ補正関数によるガンマ補正が施されている。
本発明の視覚処理装置では、 変換関数 F 1により、 画像信号のガンマ補正を外 し、 線形特性のもとで処理を行うことが可能となる。 これにより、 光学的なボケ の補正を行うことが可能となる。
付記 1 1に記載の視覚処理装置は、 付記 4〜 6のいずれかに記載の視覚処理装 置であって、 強調する演算は、 画像信号と処理信号との比を強調する強調関数で ある。 本発明の視覚処理装置では、 例えば、 画像信号と処理信号との比は、 画像信号 のシャープ成分を表している。 このため、 例えば、 シャープ成分を強調する視覚 処理を行うことが可能となる。
付記 1 2に記載の視覚処理装置は、 付記 1 1に記載の視覚処理装置であって、 2次元 L U Tの各要素の値 Cは、 画像信号の値 A、 処理信号の値 B、 ダイナミツ クレンジ圧縮関数 F 4、 強調関数 F 5に対して、 数式 F 4 ( A ) * F 5 ( A / B ) に基づいて定められる。
ここで各要素の値 Cは、 次のことを示している。 すなわち、 画像信号の値 Aと 処理信号の値 Bとの除算量 (A/ B ) は、 例えばシャープ信号を表している。 ま た、 F 5 ( A / B ) は、 例えば、 シャープ信号の強調量を表している。 これらは、 画像信号の値 Aと処理信号の値 Bとを対数空間に変換し、 それぞれの差分を強調 処理するのと等価な処理を示しており、 視覚特性に適した強調処理が行われてい る。
本発明の視覚処理装置では、 必要に応じてダイナミックレンジの圧縮を行いつ つ、 局所的なコントラストを強調することが可能となる。
付記 1 3に記載の視覚処理装置は、 付記 1 2に記載の視覚処理装置であって、 ダイナミックレンジ圧縮関数 F 4は、 単調増加関数である。
本発明の視覚処理装置では、 単調増加関数であるダイナミックレンジ圧縮関数 F 4を用いてダイナミックレンジ圧縮を行いつつ、 局所的なコントラストを強調 することが可能となる。
付記 1 4に記載の視覚処理装置は、 付記 1 3に記載の視覚処理装置であって、 ダイナミックレンジ圧縮関数 F は、 上に凸の関数である。
本発明の視覚処理装置では、 上に凸の関数であるダイナミックレンジ圧縮関数 F 4を用いてダイナミックレンジ圧縮を行いつつ、 局所的なコントラストを強調 することが可能となる。
付記 1 5に記載の視覚処理装置は、 付記 1 2に記載の視覚処理装置であって、 ダイナミックレンジ圧縮関数 F 4は、 べき関数である。
本発明の視覚処理装置では、 べき関数であるダイナミックレンジ圧縮関数 F 4 を用いてダイナミックレンジの変換を行いつつ、 局所的なコントラス卜を強調す ることが可能となる。
付記 1 6に記載の視覚処理装置は、 付記 1 2に記載の視覚処理装置であって、 ダイナミックレンジ圧縮関数 F 4は、 比例係数 1の正比例関数である。
本発明の視覚処理装置では、 画像信号の暗部から明部まで均一に、 コントラス 卜を強調することが可能となる。 このコントラス卜強調は、 視覚特性に適した強 調処理となっている。
付記 1 7に記載の視覚処理装置は、 付記 1 2 ~ 1 6のいずれかに記載の視覚処 理装置であって、 強調関数 F 5は、 べき関数である。
本発明の視覚処理装置では、 べき関数である強調関数 F 5を用いてダイナミツ クレンジの変換を行いつつ、 局所的なコントラストを強調することが可能となる。 付記 1 8に記載の視覚処理装置は、 付記 1 1に記載の視覚処理装置であって、 数式は、 強調関数により強調された画像信号と処理信号との比に対してダイナミ ックレンジ圧縮を行う演算をさらに含む。
本発明の視覚処理装置では、 例えば、 画像信号と処理信号との比が表す画像信 号のシャープ成分を強調しつつ、 ダイナミックレンジの圧縮を行うことが可能と なる。
付記 1 9に記載の視覚処理装置は、 付記 4 ~ 6のいずれかに記載の視覚処理装 置であって、 強調する演算は、 画像信号と処理信号との差を、 画像信号の値に応 じて強調する関数を含む。
本発明の視覚処理装置では、 例えば、 画像信号と処理信号との差である画像信 号のシャープ成分などを画像信号の値に応じて強調することが可能となる。 この ため、 画像信号の暗部から明部まで適切な強調を行うことが可能となる。
付記 2 0に記載の視覚処理装置は、 付記 1 9に記載の視覚処理装置であって、 2次元 L U Tの各要素の値 Cは、 画像信号の値 A、 処理信号の値 B、 強調量調整 関数 F 6、 強調関数 F 7、 ダイナミックレンジ圧縮関数 F 8に対して、 数式 F 8 ( A ) + F 6 ( A ) * F 7 ( A - B ) に基づいて定められる。
ここで各要素の値 Cは、 次のことを示している。 すなわち、 画像信号の値 Aと 処理信号の値 Bとの差分 (A— B ) は、 例えばシャープ信号を表している。 また、 F 7 ( A - B ) は、 例えば、 シャープ信号の強調量を表している。 さらに、 強調 量は、 強調量調整関数 F 6により、 画像信号の値 Aに応じて調整され、 必要に応 じてダイナミックレンジ圧縮を行った画像信号の値に対して加算されている。 本発明の視覚処理装置では、 例えば、 画像信号の値 Aが大きいところでは、 強 調量を減らすなど暗部から明部までのコントラス卜を維持することが可能となる。 また、 ダイナミックレンジ圧縮を行った場合でも、 暗部から明部までの局所コン トラス卜を維持することが可能となる。
付記 2 1に記載の視覚処理装置は、 付記 2 0に記載の視覚処理装置であって、 ダイナミックレンジ圧縮関数 F 8は、 単調増加関数である。
本発明の視覚処理装置では、 単調増加関数であるダイナミックレンジ圧縮関数 F 8を用いてダイナミックレンジ圧縮を行いつつ、 局所的なコントラストを維持 することが可能となる。
付記 2 2に記載の視覚処理装置は、 付記 2 1に記載の視覚処理装置であって、 ダイナミックレンジ圧縮関数 F 8は、 上に凸の関数である。
本発明の視覚処理装置では、 上に凸の関数であるダイナミックレンジ圧縮関数 F 8を用いてダイナミックレンジ圧縮を行いつつ、 局所的なコントラストを維持 することが可能となる。
付記 2 3に記載の視覚処理装置は、 付記 2 0に記載の視覚処理装置であって、 ダイナミックレンジ圧縮関数 F 8は、 べき関数である。
本発明の視覚処理装置では、 べき関数であるダイナミックレンジ圧縮関数 F 8 を用いてダイナミックレンジの変換を行いつつ、 局所的なコントラストを維持す ることが可能となる。
付記 2 4に記載の視覚処理装置は、 付記 2 0に記載の視覚処理装置であって、 ダイナミックレンジ圧縮関数 F 8は、 比例係数 1の正比例関数である。
本発明の視覚処理装置では、 画像信号の暗部から明部まで均一に、 コントラス トを強調することが可能となる。
付記 2 5に記載の視覚処理装置は、 付記 1 9に記載の視覚処理装置であって、 数式は、 強調する演算により強調された値に対して、 画像信号をダイナミックレ ンジ圧縮した値を加える演算をさらに含む。
本発明の視覚処理装置では、 例えば、 画像信号のシャープ成分などを画像信号 の値に応じて強調しつつ、 ダイナミックレンジの圧縮を行うことが可能となる。 付記 2 6に記載の視覚処理装置は、 付記 4〜 6のいずれかに記載の視覚処理装 置であって、 強調する演算は、 画像信号と処理信号との差を強調する強調関数で ある。 数式は、 強調関数により強調された値に対して、 画像信号の値を加えた値 を階調補正する演算をさらに含む。
本発明の視覚処理装置では、 例えば、 画像信号と処理信号との差は、 画像信号 のシャープ成分を表している。 このため、 シャープ成分が強調された画像信号に 対して、 階調補正を行う視覚処理を実現することが可能となる。
付記 2 7に記載の視覚処理装置は、 付記 2 6に記載の視覚処理装置であって、 2次元 L U Tの各要素の値 Cは、 画像信号の値 A、 処理信号の値 B、 強調関数 F 9、 階調補正関数 F 1 0に対して、 数式 F 1 0 ( A + F 9 ( A— B ) ) に基づい て定められる。
ここで各要素の値 Cは、 次のことを示している。 すなわち、 画像信号の値 Aと 処理信号の値 Bとの差分 (A— B ) は、 例えばシャープ信号を表している。 また、 F 9 ( A— B ) は、 例えば、 シャープ信号の強調処理を表している。 さらに、 画 像信号の値 Aと強調処理されたシャープ信号との和が階調補正されていることを 表している。
本^明の視覚処理装置では、 コントラス卜強調と階調補正を組み合わせた効果 を得ることが可能となる。
付記 2 8に記載の視覚処理装置は、 付記 4〜 6のいずれかに記載の視覚処理装 置であって、 強調する演算は、 画像信号と処理信号との差を強調する強調関数で ある。 数式は、 強調関数により強調された値に対して、 画像信号を階調補正した 値を加える演算をさらに含む。
本発明の視覚処理装置では、 例えば、 画像信号と処理信号との差は、 画像信号 のシャープ成分を表している。 また、 シャープ成分の強調と画像信号の階調補正 とは独立して行われる。 このため、 画像信号の階調補正量にかかわらず、 一定の シャープ成分の強調を行うことが可能となる。
付記 2 9に記載の視覚処理装置は、 付記 2 8に記載の視覚処理装置であって、 2次元 L U Tの各要素の値 Gは、 画像信号の値 A、 処理信号の値 B、 強調関数 F 1 1、 階調補正関数 F 1 2に対して、 数式 F 1 2 ( A ) + F 1 1 ( A— B ) に基 づいて定められる。
ここで各要素の値 Cは、 次のことを示している。 すなわち、 画像信号の値 Aと 処理信号の値 Bとの差分 (A— B ) は、 例えばシャープ信号を表している。 また、 F 1 1 ( A— B ) は、 例えば、 シャープ信号の強調処理を表している。 さらに、 階調補正された画像信号の値と強調処理されたシャープ信号とが加算されている ことを表している。
本発明の視覚処理装置では、 階調補正にかかわらず、 一定のコントラスト強調 を行うことが可能となる。
付記 3 0に記載の視覚処理装置は、 付記 1 ~ 2 9のいずれかに記載の視覚処理 装置であって、 2次元 L U Tでは、 同じ値の画像信号と処理信号とに対して格納 されている値は、 画像信号および処理信号の値に対して、 単調増加、 あるいは単 調減少する関係にある。
ここで、 同じ値の画像信号と処理信号とに対する 2次元 L U Tが格納する値は、 2次元 L U Tの特性の概要を示している。
本発明の視覚処理装置では、 2次元 L U Tは、 画像信号と処理信号とに対して 単調増加あるいは単調減少する値を、 同じ値の画像信号と処理信号とに対する値 として格納している。
付記 3 1に記載の視覚処理装置は、 付記 1 〜 3のいずれかに記載の視覚処理装 置であって、 2次元 L U Tは、 画像信号と出力信号との関係を複数の階調変換曲 線からなる階調変換曲線群として格納する。
ここで、 階調変換曲線群とは、 画像信号の輝度、 明度といった画素値に階調処 理を施す階調変換曲線の集合である。
本発明の視覚処理装置では、 複数の階調変換曲線から選択された階調変換曲線 を用いて、 画像信号の階調処理を行うことが可能となる。 このため、 より適切な 階調処理を行うことが可能となる。
付記 3 2に記載の視覚処理装置は、 付記 3 1に記載の視覚処理装置であって、 階調変換曲線群のそれぞれは、 画像信号の値に対して、 単調増加する。
本発明の視覚処理装置では、 画像信号の値に対して単調増加する階調変換曲線 群を用いて階調処理を行うことが可能となる。
付記 3 3に記載の視覚処理装置は、 付記 3 1または 3 2に記載の視覚処理装置 であって、 処理信号は、 複数の階調変換曲線群から対応する階調変換曲線を選択 するための信号である。
ここで、 処理信号は、 階調変換曲線を選択するための信号であり、 例えば、 空 間処理された画像信号などである。
本発明の視覚処理装置では、 処理信号によリ選択された階調変換曲線を用いて、 画像信号の階調処理を行うことが可能となる。
付記 3 4に記載の視覚処理装置は、 付記 3 3に記載の視覚処理装置であって、 処理信号の値は、 複数の階調変換曲線群が含む少なくとも 1つの階調変換曲線と 関連づけられている。
ここで、 処理信号の値により、 階調処理に用いられる階調変換曲線が少なくと も 1つ選択される。
本発明の視覚処理装置では、 処理信号の値により、 階調変換曲線が少なくとも 1つ選択される。 さらに、 選択された階調変換曲線を用いて、 画像信号の階調処 理が行われる。
付記 3 5に記載の視覚処理装置は、 付記 1〜 3 4のいずれかに記載の視覚処理 装置であって、 2次元 L U Tには、 所定の演算によってあらかじめ作成されるプ 口ファイルデータが登録されている。
本発明の視覚処理装置では、 あらかじめ作成されたプロファイルデータが登録 された 2次元 L U Tを用いて、 視覚処理が行われる。 視覚処理に際して、 プロフ ァィルデータを作成するなどの処理は必要なく、 視覚処理の実行速度の高速化が 可能となる。
付記 3 6に記載の視覚処理装置は、 付記 3 5に記載の視覚処理装置であって、 2次元 L U Tは、 プロファイルデータの登録により変更可能である。
ここで、 プロファイルデータとは、 異なる視覚処理を実現する 2次元 L U Tの つ "―タである。
本発明の視覚処理装置では、 プロファイルデータの登録により、 実現される視 覚処理を様々に変更することが可能となる。 すなわち、 視覚処理装置のハードウ ェァ構成を変更することなく、 様々な視覚処理を実現することが可能となる。 付記 3 7に記載の視覚処理装置は、 付記 3 5または 3 6に記載の視覚処理装置 であって、 プロファイルデータを視覚処理手段に登録させるためのプロファイル データ登録手段をさらに備えている。
ここで、 プロファイルデータ登録手段は、 あらかじめ算出されたプロファイル データを視覚処理に応じて視覚処理手段に登録する。
本発明の視覚処理装置では、 プロファイルデータの登録により、 実現される視 覚処理を様々に変更することが可能となる。 すなわち、 視覚処理装置のハードウ エア構成を変更することなく、 様々な視覚処理を実現することが可能となる。 付記 3 8に記載の視覚処理装置は、 付記 3 5に記載の視覚処理装置であって、 視覚処理手段は、 外部の装置により作成されたプロファイルデータを取得する。 プロファイルデータは、 外部の装置によりあらかじめ作成されている。 外部の 装置とは、 例えば、 プロファイルデータの作成が可能なプログラムと C P Uを有 する計算機などである。 視覚処理手段は、 プロファイルデータを取得する。 取得 は、 例えば、 ネットワークを介して、 あるいは記録媒体を介して、 行われる。 視 覚処理手段は、 取得したプロファイルデータを用いて、 視覚処理を実行する。 本発明の視覚処理装置では、 外部の装置により作成されたプロファイルデータ を用いて、 視覚処理を実行することが可能となる。
付記 3 9に記載の視覚処理装置は、 付記 3 8に記載の視覚処理装置であって、 取得されたプロファイルデータにより、 2次元 L U Tは変更可能である。
本発明の視覚処理装置では、 取得されたプロファイルデータは、 2次元 L U T として新たに登録される。 これにより、 2次元 L U Tを変更し、 異なる視覚処理 を実現することが可能となる。
付記 4 0に記載の視覚処理装置は、 付記 3 8または 3 9に記載の視覚処理装置 であって、 視覚処理手段は、 通信網を介してプロファイルデータを取得する。
ここで、 通信網とは、 例えば、 専用回線、 公衆回線、 インタ一ネット、 L A N などの通信が可能な接続手段であり、 有線であっても無線であってもよい。 本発明の視覚処理装置では、 通信網を介して取得されたプロファイルデータを 用いて、 視覚処理を実現することが可能となる。 付記 4 1に記載の視覚処理装置は、 付記 3 5に記載の視覚処理装置であって、 プロファイルデータを作成するプロファイルデータ作成手段をさらに備えている。 プロファイルデータ作成手段は、 例えば、 画像信号や処理信号などの特性を用 いて、 プロファイルデータの作成を行う。
本発明の視覚処理装置では、 プロファイルデータ作成手段により作成されたプ ロフアイルデータを用いて、 視覚処理を実現することが可能となる。
付記 4 2に記載の視覚処理装置は、 付記 4 1に記載の視覚処理装置であって、 プロファイルデータ作成手段は、 画像信号の階調特性のヒストグラムに基づいて、 プロファイルデータを作成する。
本発明の視覚処理装置では、 画像信号の階調特性のヒストグラムに基づいて作 成されたプロファイルデータを用いて、 視覚処理が実現される。 このため、 画像 信号の特性に応じて、 適切な視覚処理を実現することが可能となる。
付記 4 3に記載の視覚処理装置は、 付記 3 5に記載の視覚処理装置であって、 2次元 L U Tに登録されるプロファイルデータは、 所定の条件に応じて切り替え られる。
本発明の視覚処理装置では、 所定の条件に応じて切り替えられたプロファイル データを用いて、 視覚処理が実現される。 このため、 より適切な視覚処理を実現 するこ.とが可能となる。
付記 4 4に記載の視覚処理装置は、 付記 4 3に記載の視覚処理装置であって、 所定の条件とは、 明るさに関する条件である。
本発明の視覚処理装置では、 明るさに関する条件のもとで、 より適切な視覚処 理を実現することが可能となる。
付記 4 5に記載の視覚処理装置は、 付記 4 4に記載の視覚処理装置であって、 明るさは、 画像信号の明るさである。
本発明の視覚処理装置では、 画像信号の明るさに関する条件のもとで、 より適 切な視覚処理を実現することが可能となる。
付記 4 6に記載の視覚処理装置は、 付記 4 5に記載の視覚処理装置であって、 画像信号の明るさを判定する明度判定手段をさらに備えている。 2次元 L U Tに 登録されるプロフアイルデータは、 明度判定手段の判定結果に応じて切リ替えら れる。
ここで、 明度判定手段は、 例えば、 画像信号の輝度、 明度などの画素値に基づ いて、 画像信号の明るさを判定する。 さらに、 判定結果に応じて、 プロファイル データが切り替ええられる。
本発明の視覚処理装置では、 画像信号の明るさに応じて、 より適切な視覚処理 を実現することが可能となる。
付記 4 7に記載の視覚処理装置は、 付記 4 4に記載の視覚処理装置であって、 明るさに関する条件を入力させる明度入力手段をさらに備えている。 2次元 L U Tに登録されるプロフアイルデータは 明度入力手段の入力結果に応じて切リ替 えられる。
ここで、 明度入力手段は、 例えば、 明るさに関する条件をユーザに入力させる 有線あるいは無線で接続されるスィッチなどである。
本発明の視覚処理装置では、 ユーザが明るさに関する条件を判断して、 明度入 力手段を介して、 プロファイルデータの切り替えを行うことが可能となる。 この ため、 よリューザにとって適切な視覚処理を実現することが可能となる。
付記 4 8に記載の視覚処理装置は、 付記 4 7に記載の視覚処理装置であって、 明度入力手段は、 出力信号の出力環境の明るさ、 あるいは入力信号の入力環境の 明るさを入力させる。
ここで、 出力環境の明るさとは、 例えば、 コンピュータ、 テレビ、 デジタル力 メラ、 携帯電話、 P D Aなど出力信号を出力する媒体周辺の環境光の明るさや、 プリンタ用紙など出力信号を出力する媒体自体の明るさなどである。 入力環境の 明るさとは、 例えば、 スキャナ用紙など入力信号を入力する媒体自体の明るさな どである。
本発明の視覚処理装置では、 例えば、 ユーザが部屋の明るさなどに関する条件 を判断して、 明度入力手段を介して、 プロファイルデータの切り替えを行うこと が可能となる。 このため、 よリューザにとって適切な視覚処理を実現することが 可能となる。
付記 4 9に記載の視覚処理装置は、 付記 4 4に記載の視覚処理装置であって、 明るさを少なくとも 2種類検出する明度検出手段をさらに備えている。 2次元 L U Tに登録されるプロフアイルデータは、 明度検出手段の検出結果に応じて切リ 替えられる。
ここで、 明度検出手段とは、 例えば、 画像信号の輝度、 明度などの画素値に基 づいて、 画像信号の明るさを検出する手段や、 フォトセンサなど出力環境あるい は入力環境の明るさを検出する手段や、 ユーザにより入力された明るさに関する 条件を検出する手段などである。 なお、 出力環境の明るさとは、 例えば、 コンビ ユータ、 テレビ、 デジタルカメラ、 携帯電話、 P D Aなど出力信号を出力する媒 体周辺の環境光の明るさや、 プリンタ用紙など出力信号を出力する媒体自体の明 るさなどである。 入力環境の明るさとは、 例えば、 スキャナ用紙など入力信号を 入力する媒体自体の明るさなどである。
本発明の視覚処理装置では、 明るさを少なくとも 2種類検出し、 それらに応じ てプロファイルデータの切り替えが行われる。 このため、 より適切な視覚処理を 実現することが可能となる。
付記 5 0に記載の視覚処理装置は、 付記 4 9に記載の視覚処理装置であって、 明度検出手段が検出する明るさは、 画像信号の明るさと、 出力信号の出力環境の 明るさ、 あるいは入力信号の入力環境の明るさとを含む。
本発明の視覚処理装置では、 画像信号の明るさと、 出力信号の出力環境の明る さ、 あるいは入力信号の入力環境の明るさとに応じて、 より適切な視覚処理を実 現することが可能となる。
付記 5 1に記載の視覚処理装置は、 付記 4 3に記載の視覚処理装置であって、 2次元 L U Tに登録されるプロフアイルデータの選択を行わせるプロファイルデ —タ選択手段をさらに備えている。 2次元 L U Tに登録されるプロファイルデ一 タは、 プロファイルデータ選択手段の選択結果に応じて切り替えられる。
プロフアイルデータ選択手段は、 ユーザにプロフアイルデータの選択を行わせ る。 さらに、 視覚処理装置では、 選択されたプロファイルデータを用いて、 視覚 処理が実現される。
本発明の視覚処理装置では、 ユーザが好みに応じたプロファイルを選択して視 覚処理を実現することが可能となる。
付記 5 2に記載の視覚処理装置は、 付記 5 1に記載の視覚処理装置であって、 プロファイルデータ選択手段は、 プロファイルの選択を行うための入力装置であ る。
ここで、 入力装置は、 例えば、 視覚処理装置に内蔵、 あるいは有線または無線 などで接続されたスィッチなどである。
本発明の視覚処理装置では、 ユーザは、 入力装置を用いて、 好みのプロフアイ ルを選択することが可能となる。
付記 5 3に記載の視覚処理装置は、 付記 4 3に記載の視覚処理装置であって、 画像信号の画像特性を判断する画像特性判断手段をさらに備えている。 2次元 L U Tに登録されるプロファイルデータは、 画像特性判断手段の判断結果に応じて 切り替えられる。
画像特性判断手段は、 画像信号の輝度、 明度、 あるいは空間周波数などの画像 特性を判断する。 視覚処理装置は、 画像特性判断手段の判断結果に応じて切リ替 えられたプロファイルデータを用いて、 視覚処理を実現する。
本発明の視覚処理装置では、 画像特性判断手段が画像特性に応じたプロフアイ ルデータを自動的に選択する。 このため、 画像信号に対してより適切なプロファ ィルデータを用いて視覚処理を実現することが可能となる。
付記 5 4に記載の視覚処理装置は、 付記 4 3に記載の視覚処理装置であって、 ユーザを識別するユーザ識別手段をさらに備えている。 2次元 L U Tに登録され るプロファイルデータは、 ユーザ識別手段の識別結果に応じて切り替えられる。 ユーザ識別手段は、 例えば、 ユーザを識別するための入力装置、 あるいはカメ ラなどである。
本発明の視覚処理装置では、 ユーザ識別手段が識別したユーザに適した視覚処 理を実現することが可能となる。
付記 5 5に記載の視覚処理装置は、 付記 1 ~ 5 4のいずれかに記載の視覚処理 装置であって、 視覚処理手段は、 2次元 L U Tの格納する値を補間演算して出力 信号を出力する。
2次元 L U Tは、 所定の間隔の画像信号の値あるいは処理信号の値に対して、 値を格納している。 入力された画像信号の値あるいは処理信号の値を含む区間に 対応する 2次元 L U Tの値を補間演算することにより、 入力された画像信号の値 あるいは処理信号の値に対する出力信号の値が出力される。
本発明の視覚処理装置では、 画像信号あるいは処理信号が取りうる全ての値に 対して 2次元 L U Tが値を格納している必要がなく、 2次元 L U Tのための記憶 容量を削減することが可能となる。
付記 5 6に記載の視覚処理装置は、 付記 5 5に記載の視覚処理装置であって、 補間演算は、 2進数で表された画像信号あるいは処理信号の少なくとも一方の下 位ビッ卜の値に基づいた線形補間である。
2次元 L U Tは、 画像信号あるいは処理信号の上位ビッ卜の値に対応する値を 格納している。 視覚処理手段は、 入力された画像信号あるいは処理信号の値を含 む区間に対応する 2次元 L U Tの値を、 画像信号あるいは処理信号の下位ビット の値で線形補間することにより、 出力信号を出力する。
本発明の視覚処理装置では、 よリ少ない記憶容量で 2次元 L U Tを記憶しつつ、 より正確な視覚処理を実現することが可能となる。
付記 5 7に記載の視覚処理装置は、 付記 1〜5 6のいずれかに記載の視覚処理 装置であって、 入力信号処理手段は、 画像信号に対して空間処理を行う。
本発明の視覚処理装置では、 画像信号と空間処理された画像信号とを用いて、 2次元 L U Tにより視覚処理を実現することが可能となる。
付記 5 8に記載の視覚処理装置は、 付記 5 7に記載の視覚処理装置であって、 入力信号処理手段は、 画像信号からアンシャープ信号を生成する。
ここで、 アンシャープ信号とは、 画像信号に対して直接的あるいは間接的に空 間処理を施した信号を意味している。
本発明の視覚処理装置では、 画像信号とアンシャープ信号とを用いて、 2次元 L U Tによリ視覚処理を実現することが可能となる。
付記 5 9に記載の視覚処理装置は、 付記 5 7または 5 8に記載の視覚処理装置 であって、 空間処理では、 画像信号の平均値、 最大値あるいは最小値が導出され る。
ここで、 平均値とは、 例えば、 画像信号の単純平均でもよいし、 加重平均でも よい。
本発明の視覚処理装置では、 画像信号と、 画像信号の平均値、 最大値あるいは 最小値とを用いて、 2次元 L U Tにより視覚処理を実現することが可能となる。 付記 6 0に記載の視覚処理装置は、 付記 1〜 5 9のいずれかに記載の視覚処理 装置であって、 視覚処理手段は、 入力された画像信号及び処理信号を用いて、 空 間処理及び階調処理を行う。
本発明の視覚処理装置では、 2次元 L U Tを用いて、 空間処理および階調処理 を同時に実現することが可能となる。
付記 6 1に記載の視覚処理方法は、 入力信号処理ステップと、 視覚処理ステツ プとを備えている。 入力信号処理ステップは、 入力された画像信号に対して一定 の処理を行い、 処理信号を出力する。 ネ ί覚処理ステップは、 入力された画像信号 および処理信号と視覚処理された画像信号である出力信号との関係を与える 2次 元 L U Tに基づいて、 出力信号を出力する。
ここで、 一定の処理とは、 例えば、 画像信号に対する直接的あるいは間接的な 処理であって、 空間処理や階調処理などの画像信号の画素値に変換を加える処理 を含んでいる。
本発明の視覚処理方法では、 画像信号および処理信号と視覚処理された出力信 号との関係を記載した 2次元 L U Tを用いて視覚処理を行う。 このため、 視覚処 理の高速化が可能となる。
付記 6 2に記載の視覚処理プログラムは、 コンピュータにより視覚処理方法を 行うための視覚処理プログラムであって、 入力信号処理ステップと、 視覚処理ス テツプとを備える視覚処理方法をコンピュータに行わせるものである。 入力信号 処理ステップは、 入力された画像信号に対して一定の処理を行い、 処理信号を出 力する。 視覚処理ステップは、 入力された画像信号および処理信号と視覚処理さ れた画像信号である出力信号との関係を与える 2次元 L U Tに基づいて、 出力信 号を出力する。
ここで、 一定の処理とは、 例えば、 画像信号に対する直接的あるいは間接的な 処理であって、 空間処理や階調処理などの画像信号の画素値に変換を加える処理 を含んでいる。
本発明の視覚処理プログラムでは、 画像信号および処理信号と視覚処理された 出力信号との関係を記載した 2次元 L U Tを用いて視覚処理を行う。 このため、 視覚処理の高速化が可能となる。
付記 6 3に記載の集積回路は、 付記 1〜 6 0のいずれかに記載の視覚処理装置 を含む。
本発明の集積回路では、 付記 1 ~ 6 0のいずれかに記載の視覚処理装置と同様 の効果を得ることが可能となる。
付記 6 4に記載の表示装置は、 付記 1 ~ 6 0のいずれかに記載の視覚処理装置 と、 視覚処理装置から出力される出力信号の表示を行う表示手段とを備えている。 本発明の表示装置では、 付記 1 〜 6 0のいずれかに記載の視覚処理装置と同様 の効果を得ることが可能となる。
付記 6 5に記載の撮影装置は、 画像の撮影を行う撮影手段と、 撮影手段により 撮影された画像を画像信号として視覚処理を行う付記 1〜6 0のいずれかに記載 の視覚処理装置とを備えている。
本発明の撮影装置では、 付記 1 ~ 6 0のいずれかに記載の視覚処理装置と同様 の効果を得ることが可能となる。
付記 6 6に記載の携帯情報端末は、 通信あるいは放送された画像データを受信 するデータ受信手段と、 受信された画像データを画像信号として視覚処理を行う 付記 1 ~ 6 0のいずれかに記載の視覚処理装置と、 視覚処理装置により視覚処理 された画像信号の表示を行う表示竽段とを備えている。
本発明の携帯情報端末では、 付記 1〜 6 0のいずれかに記載の視覚処理装置と 同様の効果を得ることが可能となる。
付記 6 7に記載の携帯情報端末は、 画像の撮影を行う撮影手段と、 撮影手段に よリ撮影された画像を画像信号として視覚処理を行う付記 1 〜 6 0のいずれかに 記載の視覚処理装置と、 視覚処理された画像信号を送信するデータ送信手段とを 備えている。
本発明の携帯情報端末では、 付記 1 〜 6 0のいずれかに記載の視覚処理装置と 同様の効果を得ることが可能となる。
付記 6 8に記載の画像処理装置は、 入力された入力画像信号の画像処理を行う 画像処理装置であって、 プロファイルデータ作成手段と、 画像処理実行手段とを 備えている。 プロファイルデータ作成手段は、 異なる画像処理を行うための複数 のプロファイルデータに基づいて、 画像処理に用いられるプロファイルデータを 作成する。 画像処理実行手段は、 プロファイルデータ作成手段により作成された プロファイルデータを用いて、 画像処理を行う。
ここで、 画像処理とは、 例えば、 空間処理や階調処理などの視覚処理や、 色変 換などの色処理などである (以下、 この欄において同じ) 。
また、 プロファイルデータとは、 例えば、 入力画像信号に対する演算を行うた めの係数マトリクスデータや、 入力画像信号の値に対する画像処理された入力画 像信号の値を格納するテーブルデータなどである (以下、 この欄において同じ) 。 本発明の画像処理装置は、 複数のプロ'ファイルデータに基づいて新たなプロフ アイルデータを作成する。 このため、 予め用意されるプロファイルデータが少数 であっても、 多くの異なる画像処理を行うことが可能となる。 すなわち、 プロフ アイルデータを記憶するための記憶容量を削減することが可能となる。
付記 6 9に記載の画像処理装置は、 入力された入力画像信号の画像処理を行う 画像処理装置であって、 プロファイル情報出力手段と、 画像処理実行手段とを備 えている。 プロファイル情報出力手段は、 画像処理に用いられるプロファイルデ —タを特定するためのプロファイル情報を出力する。 画像処理実行手段は、 プロ ファイル情報出力手段から出力された情報に基づいて特定されるプロファイルデ —タを用いて画像処理を行う。
ここで、 プロファイル情報とは、 例えば、 プロファイルデータ、 プロファイル データを特定する番号などのタグ情報、 プロファイルデータの処理の特徴を示す パラメータ情報、 その他プロファイルデータを特定するための情報などである。 本発明の画像処理装置では、 プロファイル情報に基づいて、 プロファイルデー タを制御し、 画像処理を行うことが可能となる。
付記 7 0に記載の画像処理装置は、 付記 6 9に記載の画像処理装置であって、 プロファイル情報出力手段は、 画像処理された入力画像信号を表示する表示環境 に応じて、 プロファイル情報を出力する。
ここで、 表示環境とは、 例えば、 環境光の明るさや色温度、 表示を行う装置、 表示される画像のサイズ、 表示される画像と表示される画像を視覚するユーザと の位置関係、 ユーザに関する情報などである。 本発明の画像処理装置では、 表示環境に応じた画像処理を行うことが可能とな る。
付記 7 1に記載の画像処理装置は、 付記 6 9に記載の画像処理装置であって、 プロフアイル情報出力手段は、 入力画像信号に含まれる情報のうちプロファイル データに関わる情報に応じて、 プロファイル情報を出力する。
プロファイルデータに関わる情報とは、 例えば、 プロファイルデータ、 プロフ ァィルデータを特定する番号などのタグ情報、 プロフアイルデータの処理の特徴 を示すパラメータ情報、 その他プロファイルデータを特定するための情報などで 本発明の画像処理装置では、 プロファイルデータに関わる情報を入力画像信号 から取得し、 画像処理を行うことが可能となる。
付記 7 2に記載の画像処理装置は、 付記 6 9に記載の画像処理装置であって、 プロファイル情報出力手段は、 取得された画像処理の特徴に関わる情報に応じて、 プロファイル情報を出力する。
画像処理の特徴に関わる情報とは、 画像処理のパラメータの特徴についての情 報であり、 例えば、 明るさ、 画質、 色などの調整におけるパラメータの値などで あ 。
本発明の画像処理装置では、 例えば、 画像処理の特徴に関わる情報をユーザの 好みで入力することにより画像処理を行うことが可能となる。
付記 7 3に記載の画像処理装置は、 付記 6 9に記載の画像処理装置であって、 プロファイル情報出力手段は、 入力画像信号が生成された環境に関わる情報に応 じて、 プロファイル情報を出力する。
入力画像信号が生成された環境に関わる情報とは、 例えば、 入力画像信号が撮 影によリ記録された場合の撮影環境に関わる情報や、 撮影環境における撮影許可 情報などを含んでいる。
本発明の画像処理装置では、 入力画像信号が生成された環境に関わる情報に応 じて画像処理を行うことが可能となる。
付記 7 4に記載の画像処理装置は、 付記 6 9に記載の画像処理装置であって、 入力画像信号は、 画像データと、 入力画像信号の属性情報とを含んでいる。 プロ ファイル情報出力手段は、 属性情報に応じて、 プロファイル情報を出力する。 本発明の画像処理装置では、 入力画像信号の属性情報に応じて画像処理を行う ことが可能となる。 このため、 入力画像信号に適した画像処理を行うことが可能 となる。
付記 7 5に記載の画像処理装置は、 付記 7 4に記載の画像処理装置であって、 属性情報とは、 画像データの全体に関わる全体属性情報を含んでいる。
全体属性情報とは、 例えば、 画像データ全体の制作に関する情報や、 画像デー タ全体の内容に関する情報などを含んでいる。
本発明の画像処理装置では、 全体属性情報に応じて画像処理を行うことが可能 となる。 このため、 画像データに適した画像処理を行うことが可能となる。
付記 7 6に記載の画像処理装置は、 付記 7 4または 7 5に記載の画像処理装置 であって、 属性情報とは、 画像データの一部に関わる部分属性情報を含んでいる。 部分属性情報とは、 例えば、 画像データの一部のシーン内容に関する情報など を含んでいる。
本発明の画像処理装置では、 部分属性情報に応じて画像処理を行うことが可能 となる。 このため、 画像データに適した画像処理を行うことが可能となる。
付記 7 7に記載の画像処理装置は、 付記 7 4に記載の画像処理装置であって、 属性情報とは、 入力画像信号が生成された環境に関わる生成環境属性情報を含ん でいる。
生成環境属性情報とは、 入力画像信号が撮影、 記録、 作成された環境に関する 情報であり、 例えば、 入力画像信号が生成された際の環境に関する情報や、 生成 に用いられた機器の動作情報などを含んでいる。
本発明の画像処理装置では、 生成環境属性情報に応じて画像処理を行うことが 可能となる。 このため、 入力画像信号に適した画像処理を行うことが可能となる。 付記 7 8に記載の画像処理装置は、 付記 7 4に記載の面像処理装置であって、 属性情報とは、 入力画像信号が取得された媒体に関わる媒体属性情報を含んでい る。
媒体属性情報とは、 放送媒体、 通信媒体、 記録媒体など、 入力画像信号が取得 された媒体に関わる情報である。 本発明の画像処理装置では、 媒体属性情報に応じて画像処理を行うことが可能 となる。 このため、 媒体の属性に適した画像処理を行うことが可能となる。
付記 7 9に記載の画像処理装置は、 付記 6 8 ~ 7 8のいずれかに記載の画像処 理装置において、 プロファイルデータは、 2次元 L U Tでおる。 画像処理実行手 段は、 付記 1 〜6 0のいずれかに記載の視覚処理装置を含む。
本発明の画像処理装置では、 付記 6 8 ~ 7 8のいずれか ί二記載の画像処理装置 と同様の効果が得られる。 さらに、 付記 1 ~ 6 0のいずれ τί)、に記載の視覚処理装 置と同様の効果がえられる。
付記 8 0に記載の画像処理装置は、 画像処理実行手段と、 プロファイル情報出 力手段と、 プロファイル情報出力手段とを備えている。 画像処理実行手段は、 入 力された入力画像信号に画像処理を行う。 プロファイル情報出力手段は、 入力さ れた入力画像信号に好適な画像処理を行うプロファイルデータを特定するための プロファイル情報を出力する。 プロファイル情報付加手段 (ま、 入力画像信号ある いは画像処理実行手段により画像処理された入力画像信号 ί二対して、 プロフアイ ル情報を付加して出力する。
本発明の画像処理装置によリ、 入力画像信号あるいは画像処理実行手段によリ 画像処理された入力画像信号と、 プロファイル情報とを関連づけて処理すること が可能となる。 このため、 プロファイル情報が付加された信号を取得した装置は、 その信号に対して、 好適な画像処理を容易に行うことが可能となる。
付記 8 1に記載の集積回路は、 付記 6 8〜 8 0のいずれ 7¾、に記載の画像処理装 置を含む。
本発明の集積回路では、 付記 6 8〜 8 0のいずれかに記載の画像処理装置と同 様の効果を得ることが可能となる。
付記 8 2に記載の表示装置は、 付記 6 8 ~ 8 0のいずれかに記載の画像処理装 置と、 画像処理装置により画像処理された入力画像信号の表示を行う表示手段と を備えている。
本発明の表示装置では、 付記 6 8〜 8 0のいずれかに記載の画像処理装置と同 様の効果を得ることが可能となる。
付記 8 3に記載の撮影装置は、 画像の撮影を行う撮影手段と、 撮影手段により 撮影された画像を入力画像信号として画像処理を行う付記 6 8〜8 0のいずれか に記載の画像処理装置とを備えている。
本発明の撮影装置では、 付記 6 8〜 8 0のいずれかに記載の画像処理装置と同 様の効果を得ることが可能となる。
付記 8 4に記載の携帯情報端末は、 通信あるいは放送された画像データを受信 するデータ受信手段と、 受信された画像データを入力画像信号として画像処理を 行う付記 6 8〜 8 0のいずれかに記載の画像処理装置と、 画像処理装置により画 像処理された入力画像信号の表示を行う表示手段とを備えている。
本発明の携帯情報端末では、 付記 6 8 - 8 0のいずれかに記載の画像処理装置 と同様の効果を得ることが可能となる。
付記 8 5に記載の携帯情報端末は、 画像の撮影を行う撮影手段と、 撮影手段に より撮影された画像を入力画像信号として画像処理を行う付記 6 8〜8 0のいず れかに記載の画像処理装置と、 画像処理された入力画像信号を送信するデータ送 信手段とを備えている。
本発明の携帯情報端末では、 付記 6 8〜 8 0のいずれかに記載の画像処理装置 と同様の効果を得ることが可能となる。
[第 3付記]
本発明 (特に、 第 1〜第 3実施形態に記戴の発明) は、 次のように表現するこ とも可能である。 なお、 本欄 ( [第 3付記] ) に記載する従属形式の付記では、 第 3付記に記載の付記に従属するものとする。
〈第 3付記の内容〉
(付記 1 )
入力された画像信号に対して空間処理を 亍ぃ、 処理信号を出力する入力信号処 理手段と、
前記画像信号と前記処理信号とを所定の変換により変換したそれぞれの値の差 を強調する演算に基づいて出力信号を出力する信号演算手段と、
を備える視覚処理装置。
(付記 2 )
前記信号演算手段は、 前記画像信号の値 A、 前記処理信号の値 B、 変換関数 F 1、 前記変換関数 F 1の逆変換関数 F 2、 強調関数 F 3に対して、 数式 F 2 (F 1 (A) +F 3 (F 1 (A) -F 1 (B) ) ) に基づいて出力信号の値 Cを演算 する、
付記 1に記載の視覚処理装置。
(付記 3)
前記変換関数 F 1は、 対数関数である、
付記 2に記載の視覚処理装置。
(付記 4)
前記逆変換関数 F 2は、 ガンマ補正関数である、
付記 2に記載の視覚処理装置。
(付記 5)
前記信号演算手段は、 前記画像信号および前記処理信号の信号空間の変換を行 う信号空間変換手段と、 変換後の前記画像信号と変換後の前記処理信号との差分 信号に対して強調処理を行う強調処理手段と、 変換後の前記画像信号と前記強調 処理後の前記差分信号との加算信号に対して信号空間の逆変換を行い、 前記出力 信号を出力する逆変換手段とを有する、
付記 2 ~ 4のいずれかに記載の視覚処理装置。
(付記 6)
入力された画像信号に対して空間処理を行し、、 処理信号を出力する入力信号処 理手段と、
前記画像信号と前記処理信号との比を強調する演算に基づいて出力信号を出力 する信号演算手段と、
を備える視覚処理装置。
(付記 7)
前記信号演算手段は、 前記画像信号のダイナミックレンジ圧縮をさらに行う前 記演算に基づいて前記出力信号を出力する、
付記 6に記載の視覚処理装置。
(付記 8)
前記信号演算手段は、 前記画像信号の値 A、 前記処理信号の値 B、 ダイナミツ クレンジ圧縮関数 F 4、 強調関数 F 5iこ対して、 数式 F 4 (A) * F 5 (A/ B) に基づいて出力信号の値 Cを演算する、
付記 6または 1に記載の視覚処理装置。
(付記 9)
前記ダイナミックレンジ圧縮関数 F 4は、 比例係数 1の正比例関数である、 付記 8に記載の視覚処理装置。
(付記 1 0)
前記ダイナミックレンジ圧縮関数 F 4は、 単調増加関数である、
付記 8に記載の視覚処理装置。
(付記 1 1 )
前記ダイナミックレンジ圧縮関数 F 4は、 上に凸'の関数である、
付記 1 0に記載の視覚処理装置。
(付記"! 2)
前記ダイナミックレンジ圧縮関数 F 4は、 べき関数である、
付記 8に記載の視覚処理装置。
(付記 1 3)
前記ダイナミックレンジ圧縮関数 F 4におけるべき関数の指数は、 画像表示を 行う際のコントラス卜の目標値である目標コントラスト値と、 画像表示を行う際 の表示環境におけるコントラスト値で る実コントラスト値とに基づいて定めら れる、
付記 1 2に記載の視覚処理装置。
(付記 1 4)
前記強調関数 F 5は、 べき関数である、
付記 8 ~ 1 3のいずれかに記載の視覚処理装置。
(付記 1 5)
前記強調関数 F 5におけるべき関数の指数は、 画像表示を行う際のコントラス 卜の目標値である目標コントラスト値と、 画像表示を行う際の表示環境における コントラスト値である実コントラスト値とに基づいて定められる、
付記 1 4に記載の視覚処理装置。 (付記 1 6 )
前記強調関数 F 5におけるべき関数の指数は、 前記画像信号の値 Aが前記処理 信号の値 Bよりも大きい場合に、 前記画像信号の値 Aに対して単調減少する値で あ 、
付記 1 4または 1 5に記載の視覚処理装置。
(付記" I 7 )
前記強調関数 F 5におけるべき関数の指数は、 前記画像信号の値 Aが前記処理 信号の値 Bよりも小さい場合に、 前記画像信号の値 Aに対して単調増加する値で ある、
付記 1 4または 1 5に記載の視覚処理装置。
(付記 1 8 )
前記強調関数 F 5におけるべき関数の指数は、 前記画像信号の値 Aが前記処理 信号の値 Bよりも大きい場合に、 前記画像信号の値 Aに対して単調増加する値で ある、
付記 1 4または 1 5に記載の視覚処理装置。
(付記 1 9 )
前記強調関数 F 5におけるべき関数の指数は、 前記画像信号の値 Aと前記処理 信号の値 Bとの差の絶対値に対して単調増加する値である、
付記 1 4または 1 5に記載の視覚処理装置。
(付記 2 0 )
前記強調関数 F 5の最大値あるいは最小値の少なくとも一方は、 所定の範囲内 に制限されている、
付記 1 4〜 1 9のいずれかに記載の視覚処理装置。
(付記 2 1 )
前記信号演算手段は、 前記画像信号を前記処理信号で除算した除算処理信号に 対して強調処理を行う強調処理手段と、 前記画像信号と前記強調処理された前記 除算処理信号とに基づいて前記出力信号を出力する出力処理手段とを有する、 付記 8に記載の視覚処理装置。
(付記 2 2 ) 前記出力処理手段は、 前記画像信号と前記強調処理された前記除算処理信号と の乗算処理を行う、
付記 2 1に記載の視覚処理装置。
(付記 2 3 )
前記出力処理手段は、 前記画像信号に対してダイナミックレンジ (D R ) 圧縮 を行う D R圧縮手段を含んでおり、 前記 D R圧縮された前記画像信号と前記強調 処理された前記除算処理信号との乗算処理を行ラ、
付記 2 1に記載の視覚処理装置。
(付記 2 4 )
第 1の所定の範囲の入力画像データを第 2の所定の範囲に変換し、 前記画像信 号とする第 1変換手段と、
第 3の所定の範囲の前記出力信号を第 4の所定の範囲に変換し、 出力画像デー タとする第 2変換手段と、
をさらに備え、
前記第 2の所定の範囲は、 画像表示を行う際のコントラストの目標値である目 標コントラスト値に基づいて定められており、
前記第 3の所定の範囲は、 画像表示を行う際の表示環境におけるコントラスト 値である実コントラス卜値に基づいて定められている、
付記 8 ~ 2 3のいずれかに記載の視覚処理装置。
(付記 2 5 )
前記ダイナミックレンジ圧縮関数 F 4は、 前記第 2の所定の範囲の前記画像信 号を前記第 3の所定の範囲の前記出力信号に変換する関数である、
付記 2 4に記載の視覚処理装置。
(付記 2 6 )
前記第 1変換手段は、 前記第 1の所定の範囲の最小値と最大値とのそれぞれを 前記第 2の所定の範囲の最小値と最大値とのそれぞれに変換し、
前記第 2変換手段は、 前記第 3の所定の範囲の最小値と最大値とのそれぞれを 前記第 4の所定の範囲の最小値と最大値とのそれぞれに変換する、
付記 2 4または 2 5に記載の視覚処理装置。 (付記 2 7 )
前記第 1変換手段および前記第 2変換手段における変換は、 それぞれ線形の変 換である、
付記 2 6に記載の視覚処理装置。
(付記 2 8 )
前記第 3の所定の範囲を設定する設定手段をさらに備える、
付記 2 4〜 2 7のいずれかに記載の視覚処理装置。
(付記 2 9 )
前記設定手段は、 画像表示を行う表彔装置のダイナミックレンジを記憶する記 憶手段と、 画像表示を行う際の表示環境における環境光の輝度を測定する測定手 段とを含む、
付記 2 8に記載の視覚処理装置。
(付記 3 0 )
前記設定手段は、 画像表示を行う表示装置の表示環境における黒レベル表示時 と白レベル表示時との輝度を測定する測定手段を含む、
付記 2 8に記載の視覚処理装置。
(付記 3 1 )
入力された画像信号に対して空間処理を行い、 処理信号を出力する入力信号処 理手段と、
前記画像信号と前記処理信号との差を、 前記画像信号の値に応じて強調する演 算に基づいて出力信号を出力する信号演算手段と、
を備える視覚処理装置。
(付記 3 2 )
前記信号演算手段は、 前記強調する演算により強調された値に対して、 前記画 像信号をダイナミックレンジ圧縮した値を加える演算に基づいて前記出力信号を 出力する、
付記 3 1に記載の視覚処理装置。
(付記 3 3 )
前記信号演算手段は、 前記画像信号の値 A、 前記処理信号の値 B、 強調量調整 関数 F6、 強調関数 F 7、 ダイナミックレンジ圧縮関数 F 8に対して、 数式 F8
(A) +F 6 (A) * F 7 (A-B) に基づいて出力信号の値 Cを演算する、 付記 31または 32に記載の視覚処理装置。
(付記 34)
前記ダイナミックレンジ圧縮関数 F 8は、 比例係数"!の正比例関数である、 付記 33に記載の視覚処理装置。
(付記 35)
前記ダイナミックレンジ圧縮関数 F 8は、 単調増加関数である、
付記 33に記載の視覚処理装置。
(付記 36)
前記ダイナミックレンジ圧縮関数 F 8は、 上に凸の関数である、
付記 35に記載の視覚処理装置。
(付記 37)
前記ダイナミックレンジ圧縮関数 F 8は、 べき関数である、
付記 33に記載の視覚処理装置。
(付記 38)
前記信号演算手段は、 前記画像信号と前記処理信号との差分信号に対して前記 画像信号の画素値に応じた強調処理を行う強調処理手段と、 前記画像信号と前記 強調処理された差分信号とに基づいて前記出力信号を出力する出力処理手段とを 有する、
付記 33に記載の視覚処理装置。
(付記 39)
前記出力処理手段は、 前記画像信号と前記強調処理された前記差分信号との加 算処理を行う、
付記 38に記載の視覚処理装置。
(付記 40)
前記出力処理手段は、 前記画像信号に対してダイナミックレンジ (DR) 圧縮 を行う D R圧縮手段を含んでおリ、 前記 D R圧縮さ札た前記画像信号と前記強調 処理された前記差分信号との加算処理を行う、 付記 3 8に記載の視覚処理装置。
(付記 4 1 )
入力された画像信号に対して空間処理を行し、、 処理信号を出力する入力信号処 理手段と、
前記画像信号と前記処理信号との差を強調した値に対して、 前記画像信号を階 調補正した値を加える演算に基づいて出力信号を出力する信号演算手段と、 を備える視覚処理装置。
(付記 4 2 )
前記信号演算手段は、 前記画像信号の値 A、 前記処理信号の値 B、 強調関数 F 1 1、 階調補正関数 F 1 2に対して、 数式 F 1 2 ( A ) + F 1 1 ( A— B ) に基 づいて出力信号の値 Cを演算する、
付記 4 1に記載の視覚処理装置。
(付記 4 3 )
前記信号演算手段は、 前記画像信号と前記処理信号との差分信号に対して強調 処理を行う強調処理手段と、 階調補正された前記画像信号と前記強調処理された 差分信号とを加算処理し出力信号として出力する加算処理手段とを有する、 付記 4 2に記載の視覚処理装置。
(付記 4 4 )
第 1の所定の範囲の入力画像データを第 2の所定の範囲に変換し、 画像信号と する第 1変換ステップと、
前記画像信号のダイナミックレンジ圧縮を行う演算、 あるいは前記画像信号と 前記画像信号を空間処理した処理信号との比を強調する演算の少なくとも一方を 含む演算に基づいて、 第 3の所定の範囲の出力信号を出力する信号演算ステップ と、
前記第 3の所定の範囲の前記出力信号を第 4の所定の範囲に変換し、 出力画像 データとする第 2変換ステップと、
を備え、
前記第 2の所定の範囲は、 画像表示を行う際のコントラス卜の目標値である目 標コントラスト値に基づいて定められており、 前記第 3の所定の範囲は、 画像表示を行う際の表示環境におけるコントラス卜 値である実コントラスト値に基づいて定められている、
視覚処理方法。
(付記 4 5 )
第 1の所定の範囲の入力画像データを第 2の所定の範囲に変換し、 画像信号と する第 1変換手段と、
前記画像信号のダイナミックレンジ圧縮を行う演算、 あるいは前記画像信号と 前記画像信号を空間処理した処理信号との比を強調する演算の少なくとも一方を 含む演算に基づいて、 第 3の所定の範囲の出力信号を出力する信号演算手段と、 前記第 3の所定の範囲の前記出力信号を第 4の所定の範囲に変換し、 出力画像 データとする第 2変換手段と、
を備え、
前記第 2の所定の範囲は、 画像表示を行う際のコントラス卜の目標値である目 標コントラスト値に基づいて定められており、
前記第 3の所定の範囲は、 画像表示を行う際の表示環境におけるコントラスト 値である実コントラス卜値に基づいて定められている、
視覚処理装置。
(付記 4 6 )
コンピュータに視覚処理を行わせるための視覚処理プログラムであって、 第 1の所定の範囲の入力画像データを第 2の所定の範囲に変換し、 画像信号と する第 1変換ステップと、
前記画像信号のダイナミックレンジ圧縮を行う演算、 あるいは前記画像信号と 前記画像信号を空間処理した処理信号との比を強調する演算の少なくとも一方を 含む演算に基づいて、 第 3の所定の範囲の出力信号を出力する信号演算ステツプ と、
前記第 3の所定の範囲の前記出力信号を第 4の所定の範囲に変換し、 出力画像 データとする第 2変換ステップと、
を備え、 .
前記第 2の所定の範囲は、 画像表示を行う際のコントラストの目標値である目 標コントラス卜値に基づいて定められており、
前記第 3の所定の範囲は、 画像表示を行う際の表示環境におけるコントラスト 値である実コントラス卜値に基づいて定められている、
視覚処理方法をコンピュータに対して行わせるものである、
視覚処理プログラム。
〈第 3付記の説明〉
付記 1に記載の視覚処理装置は、 入力信号処理手段と、 信号演算手段とを備え ている。 入力信号処理手段は、 入力された画像信号に対して空間処理を行い、 処 理信号を出力する。 信号演算手段は、 画像信号と処理信号とを所定の変換により 変換したそれぞれの値の差を強調する演算に基づいて出力信号を出力する。 ここで、 空間処理とは、 入力された画像信号に対して低域空間フィルタを適用 する処理、 あるいは、 入力された画像信号の着目画素と周囲画素との平均値、 最 大値あるいは最小値などを導出する処理などである (以下、 この欄において同 じ) 。 また、 強調する演算とは、 例えば、 ゲインを調整する演算、 過度のコント ラストを抑制する演算、 小振幅のノイズ成分を抑讳 Uする演算などである (以下、 この欄において同じ) 。
本発明の視覚処理装置では、 画像信号と処理信号とを別空間に変換した上でそ れぞれの差を強調することが可能となる。 これにより、 例えば、 視覚特性にあつ た強調などを実現することが可能となる。
付記 2に記載の視覚処理装置は、 付記 1に記載の視覚処理装置であって、 信号 演算手段は、 画像信号の値 A、 処理信号の値 B、 变換関数 F 1、 変換関数 F 1の 逆変換関数 F 2、 強調関数 F 3に対して、 数式 F 2 ( F 1 ( A ) + F 3 ( F 1 ( A ) - F 1 ( B ) ) ) に基づいて出力信号の値 Cを演算する。
強調関数 F 3とは、 例えば、 ゲインを調整する関数、 過度のコントラストを抑 制する関数、 小振幅のノイズ成分を抑制する関数などである。
出力信号の値 Cは、 次のことを示している。 すなわち、 画像信号の値 Aと処理 信号の値 Bとは、 変換関数 F 1により別空間上の値に変換されている。 変換後の 画像信号の値と処理信号の値との差分は、 例えば、 別空間上でのシャープ信号な どを表している。 強調関数 F 3により強調された変換後の画像信号と処理信号と の差分は、 変換後の画像信号に加算されている。 これにより、 出力信号の値 Cは、 別空間上におけるシャープ信号成分が強調された値を示してし、る。
本発明の視覚処理装置では、 例えば、 別空間に変換された画像信号の値 Aおよ び処理信号の値 Bを用いて、 別空間上でのエッジ強調、 コン卜ラスト強調などの 処理が可能となる。
付記 3に記載の視覚処理装置は、 付記 2に記載の視覚処理装置であって、 変換 関数 F 1は、 対数関数である。
ここで、 人間の視覚特性は、 一般に対数的である。 このため対数空間に変換し て画像信号および処理信号の処理を行うと、 視覚特性に適し f二処理を行うことが 可能となる。
本発明の視覚処理装置では、 視覚的効果の高いコントラス卜強調、 あるいは局 所コントラス卜を維持するダイナミックレンジ圧縮が可能となる。
付記 4に記載の視覚処理装置は、 付記 2に記載の視覚処理装置であって、 逆変 換関数 F 2は、 ガンマ補正関数である。
一般的に画像信号には、 画像信号を入出力する機器のガンマ特性に応じて、 ガ ンマ補正関数によるガンマ補正が施されている。
本発明の視覚処理装置では、 変換関数 F 1により、 画像信号のガンマ補正を外 し、 線形特性のもとで処理を行うことが可能となる。 これにより、 光学的なボケ の補正を行うことが可能となる。
付記 5に記載の視覚処理装置は、 付記 2〜4のいずれかに記載の視覚処理装置 であって、 信号演算手段は、 信号空間変換手段と、 強調処理手段と、 逆変換手段 とを有している。 信号空間変換手段は、 画像信号および処理信号の信号空間の変 換を行う。 強調処理手段は、 変換後の画像信号と変換後の処理信号との差分信号 に対して強調処理を行う。 逆変換手段は、 変換後の画像信号と強調処理後の差分 信号との加算信号に対して信号空間の逆変換を行い、 出力信号を出力する。
本発明の視覚処理装置では、 信号空間変換手段は、 変換関数 F 1を用いて、 画 像信号と処理信号との信号空間の変換を行う。 強調処理手段 Iま、 強調関数 F 3を 用いて、 変換後の画像信号と変換後の処理信号との差分信号 ίこ対して強調処理を 行う。 逆変換手段は、 逆変換関数 F 2を用いて、 変換後の画像信号と強調処理後 の差分信号との加算信号に対して信号空間の逆変換を行ラ。
付記 6に記載の視覚処理装置は、 入力信号処理手段と、 信号演算手段とを備え ている。 入力信号処理手段は、 入力された画像信号に対して空間処理を行い、 処 理信号を出力する。 信号演算手段は、 画像信号と処理信号との比を強調する演算 に基づいて出力信号を出力する。
本発明の視覚処理装置では、 例えば、 画像信号と^理 ί言号との比は、 画像信号 のシャープ成分を表している。 このため、 例えば、 シャープ成分を強調する視覚 処理を行うことが可能となる。
付記 7に記載の視覚処理装置は、 付記 6に記載の視覚処理装置であって、 信号 演算手段は、 画像信号のダイナミックレンジ圧縮をさらに行う演算に基づいて出 力信号を出力する。
本発明の視覚処理装置では、 例えば、 画像信号と処理信号との比が表す画像信 号のシャープ成分を強調しつつ、 ダイナミックレンジの圧縮を行うことが可能と なる。
付記 8に記載の視覚処理装蘆は、 付記 6または 7に記載の視覚処理装置であつ て、 信号演算手段は、 画像信号の値 Α、 処理信号の値 Β、 ダイナミックレンジ圧 縮関数 F 4、 強調関数 F 5に対して、 数式 F 4 ( A ) * F 5 ( A / 6 ) に基づい て出力信号の値 Cを演算する。
ここで出力信号の値 Cは、 次のことを示している。 すなわち、 画像信号の値 A と処理信号の値 Bとの除算量 (A/ B ) は、 例えばシャープ信号を表している。 また、 F 5 ( A/ B ) は、 例えば、 シャープ信号の強調量を表している。 これら は、 画像信号の値 Aと処理信号の値 Bとを対数空間に変換し、 それぞれの差分を 強調処理するのと等価な処理を示しており、 視覚特性に適した強調処理が行われ ている。
本発明の視覚処理装置では、 必要に応じてダイナミックレンジの圧縮を行いつ つ、 局所的なコントラストを強調することが可能となる。
付記 9に記載の視覚処理装置は、 付記 8に記載の視覚処理装置であって、 ダイ ナミックレンジ圧縮関数 F 4は、 比例係数 1の正比例関数である。
本発明の視覚処理装置では、 画像信号の暗部から明部まで均一に、 コントラス 卜を強調することが可能となる。 このコントラスト強調は、 視覚特性に適した強 調処理となっている。
付記 1 0に記載の視覚処理装置は、 付記 8に記載の視覚処理装置であって、 ダ イナミックレンジ圧縮関数 F 4は、 単調増加関数である。
本発明の視覚処理装置では、 単調増加関数であるダイナミックレンジ圧縮関数 F 4を用いてダイナミックレンジ圧縮を行いつつ、 局所的なコントラス卜を強調 することが可能となる。
付記 1 1に記載の視覚処理装置は、 付記 1 Oに記載の視覚処理装置であって、 ダイナミックレンジ圧縮関数 F 4は、 上に凸の関数である。
本発明の視覚処理装置では、 上に凸の関数であるダイナミックレンジ圧縮関数 F 4を用いてダイナミックレンジ圧縮を行いつつ、 局所的なコントラストを強調 することが可能となる。
付記 1 2に記載の視覚処理装置は、 付記 8に記載の視覚処理装置であって、 ダ イナミックレンジ圧縮関数 F 4は、 べき関数である。
本発明の視覚処理装置では、 べき関数であるダイナミックレンジ圧縮関数 F 4 を用いてダイナミックレンジの変換を行いつつ、 局所的なコントラストを強調す ることが可能となる。
付記 1 3に記載の視覚処理装置は、 付記 1 2に記載の視覚処理装置であって、 ダイナミックレンジ圧縮関数 F 4におけるべき関数の指数は、 画像表示を行う際 のコントラストの目標値である目標コントラスト値と、 画像表示を行う際の表示 環境におけるコントラス卜値である実コントラスト値とに基づいて定められる。
ここで、 目標コントラスト値とは、 画像表示を行う際のコントラストの目標値 であり、 例えば、 画像表示を行う表示装置のダイナミックレンジにより決定され る値などである。 実コントラスト値とは、 画像表示を行う際の表示環境における コントラスト値であり、 例えば、 環境光が存在する場合において表示装置が表示 する画像のコントラストにより決定される値などである。
本発明の視覚処理装置では、 ダイナミックレンジ圧縮関数 F 4によリ目標コン 卜ラスト値と等しいダイナミックレンジを有する画像信号を実コントラスト値と 等しいダイナミックレンジにダイナミックレンジ圧縮することが可能となる。 付記 1 4に記載の視覚処理装置は、 付記 8 ~ 1 3のいずれかに記載の視覚処理 装置であって、 強調関数 F 5は、 べき関数である。
本発明の視覚処理装置では、 べき関数である強調関数 F 5を用いて局所的なコ ントラストを強調することが可能となリ、 視覚的にダイナミックレンジの変換を 行うことが可能となる。
付記 1 5に記載の視覚処理装置は、 付記 1 4に記載の視覚処理装置であって、 強調関数 F 5におけるべき関数の指数は、 画像表示を行う際のコントラス卜の目 標値である目標コントラスト値と、 画像表示を行う際の表示環境におけるコント ラスト値である実コントラス卜値とに基づいて定められる。
本発明の視覚処理装置では、 べき関数である強調関数 F 5を用いて局所的なコ ン卜ラストを強調することが可能となり、 視覚的にダイナミックレンジの変換を 行うことが可能となる。
付記 1 6に記載の視覚処理装置は、 付記 1 4または 1 5 ίこ記載の視覚処理装置 であって、 強調関数 F 5におけるべき関数の指数は、 画像信号の値 Αが処理信号 の値 Bよりも大きい場合に、 画像信号の値 Aに対して単調減少する値である。 本発明の視覚処理装置では、 画像信号において周囲画素よリも輝度の高い着目 画素のうち、 高輝度の部分における局所的なコントラス卜の強調を弱めることが 可能となる。 このため、 視覚処理された画像において、 いわゆる白飛びが抑制さ れる。
付記 1 7に記載の視覚処理装置は、 付記 1 4または 1 5 ί二記載の視覚処理装置 であって、 強調関数 F 5におけるべき関数の指数は、 画像信号の値 Αが処理信号 の値 Bよりも小さい場合に、 画像信号の値 Aに対して単調増加する値である。 本発明の視覚処理装置では、 画像信号において周囲画素よリも輝度の低い着目 画素のうち、 低輝度の部分における局所的なコントラス卜の強調を弱めることが 可能となる。 このため、 視覚処理された画像において、 いわゆる黒潰れが抑制さ れる。
付記 1 8に記載の視覚処理装置は、 付記 1 4または 1 5 ίこ記載の視覚処理装置 であって、 強調関数 F 5におけるべき関数の指数は、 画像信号の値 Αが処理信号 の値 Bよりも大きい場合に、 画像信号の値 Aに対して単調増加する値である。 本発明の視覚処理装置では、 画像信号において周囲画素よリも輝度の高い着目 画素のうち、 低輝度の部分における局所的なコン卜ラス卜の強調を弱めることが 可能となる。 このため、 視覚処理された画像におし、て、 S N比の劣化が抑制され る。
付記 1 9に記載の視覚処理装置は、 付記 1 4まナこは 1 5に記載の視覚処理装置 であって、 強調関数 F 5におけるべき関数の指数 Iま、 画像信号の値 Aと処理信号 の値 Bとの差の絶対値に対して単調増加する値で feる。
ここで、 画像信号の値 Aと処理信号の値 Bとの差の絶対値に対して単調増加す る値とは、 画像信号の値 Aと処理信号め値 Bとの比が 1に近いほど増加すると定 義することもできる。
本発明の視覚処理装置では、 画像信号において周囲画素との明暗差が小さい着 目画素における局所的なコントラス卜を特に強調し、 画像信号において周囲画素 との明暗差が大きい着目画素における局所的なコントラス卜を強調しすぎないと いうことが可能となる。
付記 2 0に記載の視覚処理装置は、 付記 1 4〜1 9のいずれかに記載の視覚処 理装置であって、 強調関数 F 5の最大値あるいは最小値の少なくとも一方は、 所 定の範囲内に制限されている。
本発明の視覚処理装置では、 局所的なコントラス卜の強調量を適切な範囲に制 限することが可能となる。
付記 2 1に記載の視覚処理装置は、 付記 8に記載の視覚処理装置であって、 信 号演算手段は、 強調処理手段と、 出力処理手段とを有している。 強調処理手段は、 画像信号を処理信号で除算した除算処理信号に対して強調処理を行う。 出力処理 手段は、 画像信号と強調処理された除算処理信号とに基づいて出力信号を出力す る。
本発明の視覚処理装置では、 強調処理手段は、 画像信号を処理信号で除算した 除算処理信号に対して、 強調関数 F 5を用いて強調処理を行う。 出力処理手段は、 画像信号と除算処理信号に基づいて出力信号を出力する。
付記 2 2に記載の視覚処理装置は、 付記 2 1に記載の視覚処理装置であって、 出力処理手段は、 画像信号と強調処理された除算処理信号との乗算処理を行う。 本発明の視覚処理装置では、 ダイナミックレンジ圧縮関数 F 4は、 例えば、 比 例係数 1の正比例関数である。
付記 2 3に記載の視覚処理装置は、 付記 2 1に記載の視覚処理装置であって、 出力処理手段は、 画像信号に対してダイナミックレンジ (D R ) 圧縮を行う D R 圧縮手段を含んでおり、 D R圧縮された画像信号と強調処理された除算処理信号 との乗算処理を行う。
本発明の視覚処理装置では、 D R圧縮手段は、 ダイナミックレンジ圧縮関数 F 4を用いて画像信号のダイナミックレンジ圧縮を行う。
付記 2 4に記載の視覚処理装置は、 記 8〜 2 3のいずれか ίこ記載の視覚処理 装置であって、 第 1変換手段と第 2変換手段とをさらに備えてし、る。 第 1変換手 段は、 第 1の所定の範囲の入力画像データを第 2の所定の範囲 ίこ変換し、 画像信 号とする。 第 2変換手段は、 第 3の所定の範囲の出力信号を第 4の所定の範囲に 変換し、 出力画像データとする。 第 2の所定の範囲は、 画像表示を行う際のコン トラス卜の目標値である目標コントラスト値に基づいて定められている。 第 3の 所定の範囲は、 画像表示を行う際の表示環境におけるコントラスト値である実コ ントラス卜値に基づいて定められている。
本発明の視覚処理装置では、 環境光の存在によって低下した実コントラスト値 まで画像全体のダイナミックレンジを圧縮しつつ、 局所的には目標コントラスト 値を維持することなどが可能となる。 このため、 視覚処理された画像の視覚的効 果が向上する。
付記 2 5に記載の視覚処理装置は、 付記 2 4に記載の視覚処理装置であって、 ダイナミックレンジ圧縮関数 F 4は、 第 2の所定の範囲の画像信号を第 3の所定 の範囲の出力信号に変換する関数である。
本発明の視覚処理装置では、 ダイナミックレンジ圧縮関数 F 4により、 画像全 体のダイナミックレンジが第 3の所定の範囲まで圧縮されている。
付記 2 6に記載の視覚処理装置は、 付記 2 4または 2 5に記戴の視覚処理装置 であって、 第 1変換手段は、 第 1の所定の範囲の最小値と最大値とのそれぞれを 第 2の所定の範囲の最小値と最大値とのそれぞれに変換する。 第 2変換手段は、 第 3の所定の範囲の最小値と最大値とのそれぞれを第 4の所定の範囲の最小値と 最大値とのそれぞれに変換する。
付記 2 7に記載の視覚処理装置は、 付記 2 6に記載の視覚処理装置であって、 第 1変換手段および第 2変換手段における変換は、 それぞれ線形の変換である。 付記 2 8に記載の視覚処理装置は、 付記 2 4〜 2 7のいずれかに記載の視覚処 理装置であって、 第 3の所定の範囲を設定する設定手段をさらに備える。
本発明の視覚処理装置では、 画像表示を行う表示装置の表示環境に応じて第 3 の所定の範囲を設定可能となる。 このため、 より適切 ί二環境光の補正を行うこと が可能となる。
付記 2 9に記載の視覚処理装置は、 付記 2 8に記載の視覚処理装置であって、 設定手段は、 画像表示を行う表示装置のダイナミックレンジを記憶する記憶手段 と、 画像表示を行う際の表示環境における環境光の輝度を測定する測定手段とを 含む。
本発明の視覚処理装置では、 環境光の輝度を測定し、 測定された輝度と表示装 置のダイナミックレンジとから実コントラスト値を決定することが可能となる。 付記 3 0に記載の視覚処理装置は、 付記 2 8に記載の視覚処理装置であって、 設定手段は、 画像表示を行う表示装置の表示環境における黒レベル表示時と白レ ベル表示時との輝度を測定する測定手段を含む。
本発明の視覚処理装置では、 表示環境における黒レベル表示時と白レベル表示 時との輝度を測定し実コントラス卜値を決定すること ί»可能となる。
付記 3 1に記載の視覚処理装置は、 入力信号処理手段と、 信号演算手段とを備 えている。 入力信号処理手段は、 入力された画像信号 ί二対して空間処理を行い、 処理信号を出力する。 信号演算手段は、 画像信号と処理信号との差を、 画像信号 の値に応じて強調する演算に基づいて出力信号を出力する。
本発明の視覚処理装置では、 例えば、 画像信号と処理信号との差である画像信 号のシャープ成分を画像信号の値に応じて強調することが可能となる。 このため、 画像信号の暗部から明部まで適切な強調を行うことが可能となる。
付記 3 2に記載の視覚処理装置は、 付記 3 1に記載の視覚処理装置であって、 信号演算手段は、 強調する演算により強調された値に対して、 画像信号をダイナ ミックレンジ圧縮した値を加える演算に基づいて出力信号を出力する。 本発明の視覚処理装置では、 例えば、 画像信号のシャープ成分などを画像信号 の値に応じて強調しつつ、 ダイナミックレンジの圧縮を行うことが可能となる。 付記 3 3に記載の視覚処理装置は、 付記 3 1または 3 2に記載の視覚処理装置 であって、 信号演算手段は、 画像信号の値 A、 処理信号の値 B、 強調量調整関数 F 6、 強調関数 F 7、 ダイナミックレンジ圧縮関数 F 8に対して、 数式 F 8 ( A ) + F 6 ( A ) * F 7 ( A - B ) に基づいて出力信号の値 Cを演算する。 ここで出力信号の値 Cは、 次のことを示している。 すなわち、 画像信号の値 A と処理信号の値 Bとの差分 (A— B ) は、 例えばシャープ信号を表している。 ま た、 F 7 ( A - B ) は、 例えば、 シャープ信号の強調量を表している。 さらに、 強調量は、 強調量調整関数 F 6により、 画像信号の値 Aに応じて調整され、 必要 に応じてダイナミックレンジ圧縮を行った画像信号に対して加算されている。 本発明の視覚処理装置では、 例えば、 画像信号 Aの値が大きいところでは、 強 調量を減らすなど暗部から明部までのコントラス卜を維持することが可能となる。 また、 ダイナミックレンジ圧縮を行った場合でも、 暗部から明部までの局所コン トラストを維持することが可能となる。
付記 3 4に記載の視覚処理装置は、 付記 3 3に記載の視覚処理装置であって、 ダイナミックレンジ圧縮関数 F 8は、 比例係数 1の正比例関数である。
本発明の視覚処理装置では < 画像信号の暗部から明部まで均一に、 コントラス トを強調することが可能となる。
付記 3 5に記載の視覚処理装置は、 付記 3 3に記載の視覚処理装置であって、 ダイナミックレンジ圧縮関数 F 8は、 単調増加関数である。
本発明の視覚処理装置では、 単調増加関数であるダイナミックレンジ圧縮関数 F 8を用いてダイナミックレンジ圧縮を行し、つつ、 局所的なコントラストを維持 することが可能となる。
付記 3 6に記載の視覚処理装置は、 付記 3 5に記載の視覚処理装置であって、 ダイナミックレンジ圧縮関数 F 8は、 上に凸の関数である。
本発明の視覚処理装置では、 上に凸の関数であるダイナミックレンジ圧縮関数 F 8を用いてダイナミックレンジ圧縮を行し、つつ、 局所的なコントラストを維持 することが可能となる。 付記 3 7に記載の視覚処理装置は、 付記 3 3に記載の視覚処理装置であって、 ダイナミックレンジ圧縮関数 F 8は、 べき関数である。
本発明の視覚処理装置では、 べき関数であるダイナミックレンジ圧縮関数 F 8 を用いてダイナミックレンジの変換を行いつつ、 局所的なコントラストを維持す ることが可能となる。
付記 3 8に記載の視覚処理装置は、 付記 3 3に記載の視覚処理装置であって、 信号演算手段は、 強調処理手段と、 出力処理手段とを有している。 強調処理手段 は、 画像信号と処理信号との差分信号に対して画像信号の画素値に応じた強調処 理を行う。 出力処理手段は、 画像信号と強調処理された差分信号とに基づいて出 力信号を出力する。
本発明の視覚処理装置では、 強調処理手段は、 強調量調整関数 F 6により強調 量を調整された強調関数 F 7を用いて強調処理を行う。 出力処理手段は、 画像信 号と差分信号とに基づいて出力信号を出力する。
付記 3 9に記載の視覚処理装置は、 付記 3 8に記載の視覚処理装置であって、 出力処理手段は、 画像信号と強調処理された差分信号との加算処理を行う。 本発明の視覚処理装置では、 ダイナミックレンジ圧縮関数 F 8は、 例えば、 比 例係数 1の正比例関数である。
付記 4 0に記載の視覚処理装置は、 付記 3 8に記載の視覚処理装置であって、 出力処理手段は、 画像信号に対してダイナミックレンジ (D R ) 圧縮を行う D R 圧縮手段を含んでおり、 D R圧縮された画像信号と強調処理された差分信号との 加算処理を行う。
本発明の視覚処理装置では、 D R圧縮手段は、 ダイナミックレンジ圧縮関数 F 8を用いて画像信号のダイナミックレンジ圧縮を行う。
付記 4 1に記載の視覚処理装置は、 入力信号処理手段と、 信号演算手段とを備 えている。 入力信号処理手段は、 入力された画像信号に対して空間処理を行い、 処理信号を出力する。 信号演算手段は、 画像信号と処理信号との差を強調した値 に対して、 画像信号を階調補正した値を加える演算に基づいて出力信号を出力す る。
本発明の視覚処理装置では、 例えば、 画像信号と処理信号との差は、 画像信号 のシャープ成分を表している。 また、 シャープ成分の強調と画像信号の階調補正 とは独立して行われる。 このため、 画像信号の階調補正量にかかわらず、 一定の シヤープ成分の強調を行うことが可能となる。
付記 4 2に記載の視覚処理装置は、 付記 4 1に記載の視覚処理装置であって、 信号演算手段は、 画像信号の値 A、 処理信号の値 B、 強調関数 F 1 1、 階調補正 関数 F 1 2に対して、 数式 F 1 2 ( A ) + F 1 1 ( A— B ) に基づいて出力信号 の値 Cを演算する。
ここで出力信号の値 Cは、 次のことを示している。 すなわち、 画像信号の値 A と処理信号の値 Bとの差分 (A— B ) ほ、 例えば、 シャープ信号を表している。 また、 F 1 1 ( A— B ) は、 例えば、 シャープ信号の強調処理を表している。 さ らに、 階調補正された画像信号と強調処理されたシャープ信号とが加算されてい ることを表している。
本発明の視覚処理装置では、 階調補正にか力、わらず、 一定のコントラスト強調 を行うことが可能となる。
付記 4 3に記載の視覚処理装置は、 付記 4 2に記載の視覚処理装置であって、 信号演算手段は、 強調処理手段と、 加算処理手段とを有している。 強調処理手段 は、 画像信号と処理信号との差分信号に対して強調処理を行う。 加算処理手段は、 階調補正された画像信号と強調処理された差分信号とを加算処理し出力信号とし て出力する。
本発明の視覚処理装置では、 強調処理手段【ま、 差分信号に対して、 強調関数 F 1 1を用いて強調処理を行う。 加算処理手段 ίま、 階調補正関数 F 1 2を用いて階 調補正処理した画像信号と、 強調処理された差分信号とを加算処理する。
付記 4 4に記載の視覚処理方法は、 第 1変換ステップと、 信号演算ステップと、 第 2変換ステップとを備えている。 第 1変換ステップは、 第 1の所定の範囲の入 力画像データを第 2の所定の範囲に変換し、 面像信号とする。 信号演算ステップ は、 画像信号のダイナミックレンジ圧縮を行う演算、 あるいは画像信号と画像信 号を空間処理した処理信号との比を強調する演算の少なくとも一方を含む演算に 基づいて、 第 3の所定の範囲の出力信号を出力する。 第 2変換ステップは、 第 3 の所定の範囲の出力信号を第 4の所定の範囲に変換し、 出力画像データとする。 第 2の所定の範囲は、 画像表示を行う際のコントラス卜の目標値である目標コン トラスト値に基づいて定められている。 第 3の所定の範囲は、 画像表示を行う際 の表示環境におけるコントラスト値である実コントラス卜値に基づいて定められ ている。
本発明の視覚処理方法では、 例えば、 環境光の存在によって低下した実コント ラスト値まで画像全体のダイナミックレンジを圧縮しつつ、 局所的には目標コン トラスト値を維持することなどが可能となる。 このため、 視覚処理された画像の 視覚的効果が向上する。
付記 4 5に記載の視覚処理装置は、 第 1麥換手段と、 信号演算手段と、 第 2変 換手段とを備えている。 第 1変換手段は、 第 1の所定の範囲の入力画像データを 第 2の所定の範囲に変換し、 画像信号とする。 信号演算手段は、 画像信号のダイ ナミックレンジ圧縮を行う演算、 あるいは画像信号と画像信号を空間処理した処 理信号との比を強調する演算の少なくとも一方を含む演算に基づいて、 第 3の所 定の範囲の出力信号を出力する。 第 2変換手段は、 第 3の所定の範囲の出力信号 を第 4の所定の範囲に変換し、 出力画像データとする。 第 2の所定の範囲は、 画 像表示を行う際のコントラス卜の目標値である目標コントラス卜値に基づいて定 められている。 第 3の所定の範囲は、 画像表示を行う際の表示環境におけるコン 卜ラス卜値である実コントラス卜値に基づいて定められている。
本発明の視覚処理装置では、 例えば、 環境光の存在によって低下した実コント ラスト値まで画像全体のダイナミックレンジを圧縮しつつ、 局所的には目標コン トラス卜値を維持することなどが可能となる。 このため、 視覚処理された画像の 視覚的効果が向上する。
付記 4 6に記載の視覚処理プログラムは、 コンピュータに視覚処理を行わせる ための視覚処理プログラムであって、 第 1麥換ステップと、 信号演算ステップと、 第 2変換ステップとをそなえる視覚処理方法をコンピュータに対して行わせるも のである。
第 1変換ステップは、 第 1の所定の範囲の久カ画像データを第 2の所定の範囲に 変換し、 画像信号とする。 信号演算ステップは、 画像信号のダイナミックレンジ 圧縮を行う演算、 あるいは画像信号と画像信号を空間処理した処理信号との比を 強調する演算の少なくとも一方を含む演算に基づいて、 第 3の所定の範囲の出力 信号を出力する。 第 2変換ステップは、 第 3の所定の範囲の出力信号を第 4の所 定の範囲に変換し、 出力画像データとする。 第 2の所定の範囲は、 画像表示を行 う際のコントラス卜の目標値である目標コントラスト値に基づいて定められてい る。 第 3の所定の範囲は、 画像表示を行う際の表示環境におけるコントラスト値 である実コントラス卜値に基づし、て定められている。
本発明の視覚処理プログラムでは、 例えば、 環境光の存在によって低下した実 コントラス卜値まで画像全体のダイナミックレンジを圧縮しつつ、 局所的には目 標コントラスト値を維持することなど^可能となる。 このため、 視覚処理された 画像の視覚的効果が向上する。
(産業上の利用可能性)
本発明の視覚処理装置により、 実現される視覚処理に依存しないハード構成を 有する装置を提供することが可能となり、 視覚処理装置、 特に、 画像信号の空間 処理または階調処理などの視覚処理を行う視覚処理装置として有用である。

Claims

求 の
入力された画像信号に対して所定の処理を行い、 処理信号を出力する入力信号 処理手段と、
入力された前記面像信号および前記処理信号と、 視覚処理された前記画像信号 である出力信号との変換関係を与える変換手段に基づいて、 入力された前記画像 信号を変換し、 前記出力信号を出力する視覚処理手段と、
を備えた視覚処理装置。
2 .
前記処理信号は、 前記画像信号が含む着目画素および前記着目画素の周囲画素 に対して前記所定の処理を行った信号である、
請求項 1に記載の視覚処理装置。
3 .
前記変換手段が与える前記変換関係は、 前記画像信号の少なくとも一部または 前記処理信号の少なくとも一部と、 前記出力信号の少なくとも一部とが非線形と なる関係である、
請求項 1に記載の視覚処理装置。
4 .
前記変換手段が与える前記変換関係は、 前記画像信号および前記処理信号の両 方と、 前記出力信号とが非線形となる関係である、
請求項 3に記載の視覚処理装置。
5 .
前記変換手段が与える前記変換関係は、 前記画像信号と前記処理信号とから算 出された値を強調する演算に基づいて定められている、
請求項 1 ~ 4のいずれかに記載の視覚処理装置。
6 .
前記強調する演算は、 非線形の関数である、
請求項 5に記載の視覚処理装置。
7 .
前記強調する演算は、 前記画像信号または前記処理信号を変換した値を用いる 変換である、
請求項 5または 6に記載の視覚処理装置。
8 .
前記強調する演算は、 前記画像信号と前記処理信号とを変換したそれぞれの変 換値の差を強調する強調関数である、
請求項 5〜 7のいずれかに記載の視覚処理装置。
9 .
前記強調する演算は、 前記画像信号と前記処理信号との比を強調する強調関数 である、 請求項 5〜 8のいずれかに記載の視覚処理装置。
1 0 .
前記変換手段が与える前記変換関係は、 明るさを変える変換に基づいて定めら れている、
請求項 1または 2に記載の視覚処理装置。
1 1 .
前記明るさを変える変換は、 前記画像信号のレベルまたはゲインを変化させる 変換である、
請求項 1 0に記載の視覚処理装置。
1 2 .
前記明るさを変える変換は、 前記処理信号に基づいて定められる変換である、 請求項 1 0に記載の視覚処理装置。
1 3 .
前記明るさを^える変換は、 前記処理信号に対して単調減少する前記出力信号 を出力する変換である、
請求項 1 0に記载の視覚処理装置。
1 .
前記変換手段は、 前記画像信号と前記出力信号との関係を、 複数の階調変換曲 線からなる階調^換曲線群として格納する、 請求項 1 ~ 1 3のいずれかに記載の視覚処理装置。
1 5 .
前記処理信号は、 前記複数の階調変換曲線群から対応する階調変換曲線を選択 するための信号である、
請求項 1 4に記載の視覚処理装置。
1 6 .
前記処理信号の値は、 前記複数の階調変換曲線群が含む少なくとも 1つの階調 変換曲線と関連づけられている、
請求項 1 5に記載の視覚処理装置。
1 7 .
前記変換手段は、 ルックアップテーブル (以下、 L U Tという) で構成され、 前記 L U Tには、 所定の演算によってあらかじめ作成されるプロファイルデータ が登録されている、
請求項 1 ~ 1 6のいずれかに記載の視覚処理装置。
1 8 .
前記 L U Tは、 プロフアイルデータの登録によリ変更可能である、
請求項 1 7に記載の視覚処理装置。
1 9 .
前記プロファイルデータを前記視覚処理手段に登録させるためのプロファイル データ登録手段、
をさらに備えた請求項 1 7または 1 8に記載の視覚処理装置。
2 O .
前記視覚処理手段は、 外部の装置により作成された前記プロファイルデータを 取得する、
請求項 1 9に記載の視覚処理装置。
2 1 .
取得された前記プロファイルデータにより、 前記 L U Tは変更可能である、 請求項 2 0に記載の視覚処理装置。
2 2 . 前記視覚処理手段は、 通信網を介して前記プロファイルデータを取得する、 請求項 2 0または 2 1に記載の視覚処理装置。
2 3 .
前記プロフアイルデータを作成するプロフアイルデータ作成手段、
をさらに備えた請求項 1 7に記載の視覚処理装置。
2 4 .
前記プロファイルデータ作成手段は、 前記画像信号の階調特性のヒストグラム に基づいて、 前記プロファイルデータを作成する、
請求項 2 3に記載の視覚処理装置。
2 5 .
前記 L U Tに登録される前記プロファイルデータは、 所定の条件に応じて切り 替えられる、
請求項 1 7に記載の視覚処理装置。
2 6 .
前記所定の条件とは、 明るさに関する条件である、
請求項 2 5に記載の視覚処理装置。
2 7 .
前記明るさは、 前記画像信号の明るさである、
請求項 2 6に記載の視覚処理装置。
2 8 .
前記画像信号の明るさを判定する明度判定手段をさらに備え、
前記 L U Tに登録されるプロファイルデータは、 前記明度判定手段の判定結果 に応じて切り替えられる、
請求項 2 7に記載の視覚処理装置。
2 9 .
前記明るさに関する条件を入力させる明度入力手段をさらに備え、
前記 L U Tに登録されるプロフアイルデータは、 前記明度入力手段の入力結果 に応じて切り替えられる、
請求項 2 6に記載の視覚処理装置。
3 0 .
前記明度入力手段は、 前記出力信号の出力環境の明るさ、 あるいは前記入力信 号の入力環境の明るさを入力させる、
請求項 2 9に記載の視覚処理装置。
3 1 .
前記明るさを少なくとも 2種類検出する明度検出手段をさらに備え、
前記 L U Tに登録されるプロフアイルデータは、 前記明度検出手段の検出結果 に応じて切り替えられる、
請求項 2 6に記載の視覚処理装置。
3 2 .
前記明度検出手段が検出する前記明るさは、 前記画像信号の明るさと、 前記出 力信号の出力環境の明るさ、 あるいは前記入力信号の入力環境の明るさとを含む、 請求項 3 1に記載の視覚処理装置。
3 3 .
前記 L U Tに登録される前記プロフアイルデータの選択を行わせるプロファィ ルデータ選択手段をさらに備え、
前記 L U Tに登録されるプロファイルデータは、 前記プロファイルデータ選択 手段の選択結果に応じて切り替えられる、
請求項 2 5に記載の視覚処理装置。
3 4 .
前記プロファイルデータ選択手段は、 プロファイルの選択を行うための入力装 置である、
請求項 3 3に記載の視覚処理装置。
3 5 .
前記画像信号の画像特性を判断する画像特性判断手段をさらに備え、
前記 L U Tに登録されるプロフアイルデータは、 前記画像特性判断手段の判断 結果に応じて切リ替えられる、
請求項 2 5に記載の視覚処理装置。
3 6 . ユーザを識別するユーザ識別手段をさらに備え、
前記 L U Tに登録されるプロフアイルデータは、 ユーザ識別手段の識別結果に 応じて切り替えられる、
請求項 2 5に記載の視覚処理装置。
3 7 .
前記視覚処理手段は、 前記 L U Tの格納する値を補間演算して前記出力信号を 出力する、 請求項 1 7に記載の視覚処理装置。
3 8 .
前記補間演算は、 2進数で表された前記画像信号あるいは前記処理信号の少な くとも一方の下位ビッ卜の値に基づいた線形補間である、
請求項 3 7に記載の視覚処理装置。
3 9 .
前記入力信号処理手段は、 前記画像信号に対して空間処理を行う、
請求項 1 ~ 3 8のいずれかに記載の視覚処理装置。
4 0 .
前記入力信号処理手段は、 前記画像信号からアンシャープ信号を生成する、 請求項 3 9に記載の視覚処理装置。
4 1 .
前記空間処理では、 画像信号の平均値、 最大値あるいは最小値が導出される、 請求項 3 9または 4 0に記載の視覚処理装置。
4 2 .
前記視覚処理手段は、 入力された前記画像信号及び前記処理信号を用いて、 空 間処理及び階調処理を行う、
請求項 1 〜4 1のいずれかに記載の視覚処理装置。
4 3 .
入力された画像信号に対して所定の処理を行い、 処理信号を出力する入力信号 処理ステップと、
入力された前記画像信号および前記処理信号と、 視覚処理された前記画像信号 である出力信号との変換関係を与える変換手段に基づいて、 入力された前記画像 信号を変換し、 前記出力信号を出力する視覚処理ステップと、
を備えた視覚処理方法。
4 4 .
コンピュータにより視覚処理方法を行うための視覚処理プログラムであって、 前記視覚処理プログラムは、
入力された画像信号に対して所定の処理を行い、 処理信号を出力する入力信号 処理ステップと、
入力された前記画像信号および前記処理信号と、 視覚処理された前記画像信号 である出力信号との変換関係を与える変換手段に基づいて、 入力された前記画像 信号を変換し、 前記出力信号を出力する視覚処理ステップと、
を備えた視覚処理方法をコンピュータに行わせるものである、
視覚処理プログラム。
4 5 .
請求項 1 〜4 2のいずれかに記載の視覚処理装置を含む、
集積回路。
4 6 .
請求項 1 ~ 4 2のいずれかに記載の視覚処理装置と、
前記視覚処理装置から出力される前記出力信号の表示を行う表示手段と、 を備える表示装置。
4 7 .
画像の撮影を行う撮影手段と、
前記撮影手段によリ撮影された画像を前記画像信号として視覚処理を行う請求 項 1〜 4 2のいずれかに記載の視覚処理装置と、
を備える撮影装置。
4 8 .
通信あるいは放送された画像データを受信するデータ受信手段と、
受信された前記画像データを前記画像信号として視覚処理を行う請求項 1 ~ 4 2のいずれかに記載の視覚処理装置と、
前記視覚処理装置により視覚処理された前記画像信号の表示を行う表示手段と、 を備える携帯情報端末。
4 9 .
画像の撮影を行う撮影手段と、
前記撮影手段によリ撮影された画像を前記画像信号として視覚処理を行う請求 項 1 〜4 2のいずれかに記載の視覚処理装置と、
前記視覚処理された前記画像信号を送信するデータ送信手段と、
を備える携帯情報端末。
PCT/JP2004/013605 2003-09-11 2004-09-10 視覚処理装置、視覚処理方法、視覚処理プログラム、集積回路、表示装置、撮影装置および携帯情報端末 WO2005027043A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020067005003A KR101030839B1 (ko) 2003-09-11 2004-09-10 시각 처리 장치, 시각 처리 방법, 시각 처리 프로그램,집적 회로, 표시 장치, 촬영 장치 및 휴대 정보 단말
US10/571,124 US7860339B2 (en) 2003-09-11 2004-09-10 Visual processing device, visual processing method, visual processing program, intergrated circuit, display device, image-capturing device, and portable information terminal
EP04773249.0A EP1667066B1 (en) 2003-09-11 2004-09-10 Visual processing device, visual processing method, visual processing program, integrated circuit, display device, imaging device, and mobile information terminal
US11/980,581 US8165417B2 (en) 2003-09-11 2007-10-31 Visual processing device, visual processing method, visual processing program, integrated circuit, display device, image-capturing device, and portable information terminal

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2003320061 2003-09-11
JP2003-320061 2003-09-11
JP2003433324 2003-12-26
JP2003-433324 2003-12-26
JP2004169693 2004-06-08
JP2004-169693 2004-06-08

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US10/571,124 A-371-Of-International US7860339B2 (en) 2003-09-11 2004-09-10 Visual processing device, visual processing method, visual processing program, intergrated circuit, display device, image-capturing device, and portable information terminal
US11/980,581 Continuation US8165417B2 (en) 2003-09-11 2007-10-31 Visual processing device, visual processing method, visual processing program, integrated circuit, display device, image-capturing device, and portable information terminal

Publications (1)

Publication Number Publication Date
WO2005027043A1 true WO2005027043A1 (ja) 2005-03-24

Family

ID=34317225

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/013605 WO2005027043A1 (ja) 2003-09-11 2004-09-10 視覚処理装置、視覚処理方法、視覚処理プログラム、集積回路、表示装置、撮影装置および携帯情報端末

Country Status (6)

Country Link
US (2) US7860339B2 (ja)
EP (1) EP1667066B1 (ja)
JP (3) JP4481333B2 (ja)
KR (3) KR101030872B1 (ja)
CN (1) CN101686306A (ja)
WO (1) WO2005027043A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007043460A1 (ja) * 2005-10-12 2007-04-19 Matsushita Electric Industrial Co., Ltd. 視覚処理装置、表示装置、視覚処理方法、プログラムおよび集積回路
US7593017B2 (en) 2006-08-15 2009-09-22 3M Innovative Properties Company Display simulator
US7773158B2 (en) 2005-10-12 2010-08-10 Panasonic Corporation Visual processing device, display device, and integrated circuit
US7881550B2 (en) 2006-04-28 2011-02-01 Panasonic Corporation Visual processing apparatus, visual processing method, program, recording medium, display device, and integrated circuit
US7894684B2 (en) 2006-04-19 2011-02-22 Panasonic Corporation Visual processing device, visual processing method, program, display device, and integrated circuit
US7990465B2 (en) 2007-09-13 2011-08-02 Panasonic Corporation Imaging apparatus, imaging method, storage medium, and integrated circuit
US20110310271A1 (en) * 2007-04-18 2011-12-22 Haruo Yamashita Imaging apparatus, imaging method, integrated circuit, and storage medium
US9240072B2 (en) 2010-09-08 2016-01-19 Panasonic Intellectual Property Management Co., Ltd. Three-dimensional image processing apparatus, three-dimensional image-pickup apparatus, three-dimensional image-pickup method, and program

Families Citing this family (99)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101686306A (zh) * 2003-09-11 2010-03-31 松下电器产业株式会社 可视处理装置、基于它的装置以及可视处理方法
TWI297875B (en) * 2004-09-16 2008-06-11 Novatek Microelectronics Corp Image processing method and device using thereof
KR100640063B1 (ko) * 2005-02-18 2006-10-31 삼성전자주식회사 외부조도를 고려한 영상향상방법 및 장치
US8312489B2 (en) * 2005-02-23 2012-11-13 Sony Corporation CM searching method and apparatus, and CM-appendant information supplying method and apparatus
JP4752431B2 (ja) * 2005-10-03 2011-08-17 セイコーエプソン株式会社 カラー画像複写装置、カラー画像複写方法、およびコンピュータプログラム
CN101422032B (zh) * 2006-04-11 2012-01-25 松下电器产业株式会社 视频信号处理装置和视频信号处理方法
US7905606B2 (en) * 2006-07-11 2011-03-15 Xerox Corporation System and method for automatically modifying an image prior to projection
US7692644B2 (en) * 2006-10-13 2010-04-06 Hitachi Displays, Ltd. Display apparatus
JP4761566B2 (ja) * 2006-12-13 2011-08-31 キヤノン株式会社 画像処理装置及びその方法とプログラム及び媒体
US8228366B2 (en) * 2006-12-15 2012-07-24 Thomson Licensing System and method for interactive visual effects compositing
JP4780413B2 (ja) * 2007-01-12 2011-09-28 横河電機株式会社 不正アクセス情報収集システム
KR100830333B1 (ko) * 2007-02-23 2008-05-16 매그나칩 반도체 유한회사 적응형 구간 선형 처리 장치
KR100844781B1 (ko) * 2007-02-23 2008-07-07 삼성에스디아이 주식회사 유기 전계 발광표시장치 및 그 구동방법
KR100844775B1 (ko) * 2007-02-23 2008-07-07 삼성에스디아이 주식회사 유기 전계발광 표시장치
KR100844780B1 (ko) 2007-02-23 2008-07-07 삼성에스디아이 주식회사 유기 전계 발광표시장치 및 그 구동방법
KR100944595B1 (ko) * 2007-04-24 2010-02-25 가부시끼가이샤 르네사스 테크놀로지 표시 장치, 표시 장치 구동 회로, 화상 표시 방법, 전자기기 및 화상 표시 장치 구동 회로
US8207931B2 (en) * 2007-05-31 2012-06-26 Hong Kong Applied Science and Technology Research Institute Company Limited Method of displaying a low dynamic range image in a high dynamic range
JP5032911B2 (ja) * 2007-07-31 2012-09-26 キヤノン株式会社 画像処理装置及び画像処理方法
US7995857B2 (en) * 2007-09-03 2011-08-09 Himax Technologies Limited Method and apparatus utilizing step-wise gain control for image processing
KR20100089828A (ko) * 2007-10-26 2010-08-12 다이요 유덴 가부시키가이샤 영상표시장치 및 방법과 그것에 내장되는 신호처리회로 및 액정 백라이트 구동장치
EP2068569B1 (en) * 2007-12-05 2017-01-25 Vestel Elektronik Sanayi ve Ticaret A.S. Method of and apparatus for detecting and adjusting colour values of skin tone pixels
JP4453754B2 (ja) * 2007-12-20 2010-04-21 ソニー株式会社 表示装置、映像信号補正装置、映像信号補正方法
JP4314305B1 (ja) * 2008-02-04 2009-08-12 シャープ株式会社 鮮鋭化画像処理装置、方法、及びソフトウェア
JP5275122B2 (ja) * 2008-05-30 2013-08-28 パナソニック株式会社 ダイナミックレンジ圧縮装置、ダイナミックレンジ圧縮方法、プログラム、集積回路および撮像装置
US8311360B2 (en) 2008-11-13 2012-11-13 Seiko Epson Corporation Shadow remover
JP5134508B2 (ja) * 2008-11-19 2013-01-30 株式会社日立製作所 テレビジョン装置
JP2010127994A (ja) * 2008-11-25 2010-06-10 Sony Corp 補正値算出方法、表示装置
US8970707B2 (en) * 2008-12-17 2015-03-03 Sony Computer Entertainment Inc. Compensating for blooming of a shape in an image
JP4994354B2 (ja) * 2008-12-22 2012-08-08 三菱電機株式会社 画像処理装置及び方法並びに画像表示装置
JP4994407B2 (ja) * 2009-03-18 2012-08-08 三菱電機株式会社 画像処理装置及び方法並びに画像表示装置
JP4912418B2 (ja) * 2009-01-14 2012-04-11 三菱電機株式会社 画像処理装置及び方法並びに画像表示装置
CN102265305B (zh) 2008-12-22 2014-04-30 三菱电机株式会社 图像处理装置、方法以及图像显示装置
US8363131B2 (en) * 2009-01-15 2013-01-29 Aptina Imaging Corporation Apparatus and method for local contrast enhanced tone mapping
CN101527779B (zh) * 2009-03-12 2012-06-27 北京大学 一种校色的方法和装置
JP2010278724A (ja) * 2009-05-28 2010-12-09 Olympus Corp 画像処理装置、画像処理方法及び画像処理プログラム
JP5299867B2 (ja) * 2009-06-30 2013-09-25 日立コンシューマエレクトロニクス株式会社 画像信号処理装置
KR20110021107A (ko) * 2009-08-25 2011-03-04 삼성전자주식회사 선명도 보정을 위한 영상처리장치 및 영상처리방법
JP5500964B2 (ja) * 2009-12-11 2014-05-21 キヤノン株式会社 動画像処理装置及びその制御方法、プログラム
CN102110403B (zh) * 2009-12-23 2013-04-17 群康科技(深圳)有限公司 改善显示器拖影现象的方法及相关的显示器
US8582914B2 (en) * 2010-03-22 2013-11-12 Nikon Corporation Tone mapping with adaptive slope for image sharpening
JP2011221524A (ja) * 2010-03-26 2011-11-04 Sharp Corp 表示装置及びその制御方法、テレビジョン受像機、プログラム、並びに記録媒体
KR101113483B1 (ko) * 2010-04-09 2012-03-06 동아대학교 산학협력단 컬러 영상의 가시성 향상 장치 및 방법
JP5672776B2 (ja) * 2010-06-02 2015-02-18 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
KR101681776B1 (ko) * 2010-06-10 2016-12-01 엘지디스플레이 주식회사 화질 제어 방법과 이를 이용한 표시장치
US9013552B2 (en) * 2010-08-27 2015-04-21 Broadcom Corporation Method and system for utilizing image sensor pipeline (ISP) for scaling 3D images based on Z-depth information
US8952978B2 (en) * 2010-09-28 2015-02-10 Sony Corporation Display device, viewing angle control method, computer program storage device with viewing angle control program, and mobile terminal
US9055305B2 (en) * 2011-01-09 2015-06-09 Mediatek Inc. Apparatus and method of sample adaptive offset for video coding
KR101773419B1 (ko) * 2010-11-22 2017-09-01 삼성디스플레이 주식회사 데이터 보상 방법 및 이를 수행하는 표시 장치
TWI471678B (zh) * 2010-12-17 2015-02-01 Hon Hai Prec Ind Co Ltd 投影儀及其投影畫面自動調整方法
TW201248604A (en) * 2011-05-16 2012-12-01 Novatek Microelectronics Corp Display apparatus and image compensating method thereof
KR101803571B1 (ko) * 2011-06-17 2017-11-30 엘지디스플레이 주식회사 입체영상표시장치와 이의 구동방법
JP2013137418A (ja) * 2011-12-28 2013-07-11 Panasonic Liquid Crystal Display Co Ltd 液晶表示装置
KR20130106642A (ko) * 2012-03-20 2013-09-30 삼성디스플레이 주식회사 휘도 보정 시스템 및 그 방법
TWI523500B (zh) * 2012-06-29 2016-02-21 私立淡江大學 影像的動態範圍壓縮方法與影像處理裝置
US9646366B2 (en) * 2012-11-30 2017-05-09 Change Healthcare Llc Method and apparatus for enhancing medical images
US9554102B2 (en) * 2012-12-19 2017-01-24 Stmicroelectronics S.R.L. Processing digital images to be projected on a screen
KR102103277B1 (ko) * 2013-04-12 2020-04-22 삼성전자주식회사 이미지를 관리하는 방법 및 그 전자 장치
CN105393170B (zh) 2013-04-16 2019-06-04 弗劳恩霍夫应用研究促进协会 多相机系统的校准、多相机系统以及校准辅助物
CN104166835A (zh) * 2013-05-17 2014-11-26 诺基亚公司 用于识别活体用户的方法和装置
JP5842940B2 (ja) * 2014-01-10 2016-01-13 株式会社ニコン 画像処理装置及び電子カメラ
LU92406B1 (en) * 2014-03-19 2015-09-21 Iee Sarl Camera head with integrated calibration tables
US9489881B2 (en) * 2014-07-01 2016-11-08 Canon Kabushiki Kaisha Shading correction calculation apparatus and shading correction value calculation method
WO2016022525A1 (en) 2014-08-05 2016-02-11 Seek Thermal, Inc. Time based offset correction for imaging systems
US9924116B2 (en) 2014-08-05 2018-03-20 Seek Thermal, Inc. Time based offset correction for imaging systems and adaptive calibration control
WO2016022374A1 (en) * 2014-08-05 2016-02-11 Seek Thermal, Inc. Local contrast adjustment for digital images
WO2016022008A1 (en) * 2014-08-08 2016-02-11 Samsung Electronics Co., Ltd. Method and apparatus for environmental profile generation
WO2016028755A1 (en) 2014-08-20 2016-02-25 Seek Thermal, Inc. Adaptive adjustment of operating bias of an imaging system
WO2016073054A2 (en) 2014-08-20 2016-05-12 Seek Thermal, Inc. Gain calibration for an imaging system
US10163408B1 (en) * 2014-09-05 2018-12-25 Pixelworks, Inc. LCD image compensation for LED backlighting
KR102190233B1 (ko) 2014-10-06 2020-12-11 삼성전자주식회사 영상 처리 장치 및 이의 영상 처리 방법
US10467736B2 (en) 2014-12-02 2019-11-05 Seek Thermal, Inc. Image adjustment based on locally flat scenes
WO2016089823A1 (en) 2014-12-02 2016-06-09 Seek Thermal, Inc. Image adjustment based on locally flat scenes
US10600164B2 (en) 2014-12-02 2020-03-24 Seek Thermal, Inc. Image adjustment based on locally flat scenes
US10366675B2 (en) * 2015-04-10 2019-07-30 Sharp Kabushiki Kaisha Liquid crystal display device and method for driving same
US9549130B2 (en) 2015-05-01 2017-01-17 Seek Thermal, Inc. Compact row column noise filter for an imaging system
US10623608B2 (en) * 2015-06-26 2020-04-14 Hewlett-Packard Development Company, L.P. Enhance highlighter color in scanned images
EP3142355B1 (en) * 2015-09-08 2017-10-25 Axis AB Method and apparatus for enhancing local contrast in a thermal image
US9651534B1 (en) * 2015-12-02 2017-05-16 Sani-Hawk Optical Solutions LLC Optical chemical test systems and methods
KR102631844B1 (ko) * 2015-12-16 2024-01-31 비<>컴 디지털 이미지를 프로세싱하기 위한 방법, 디바이스, 단말 장비 및 연관된 컴퓨터 프로그램
CN115049563A (zh) * 2015-12-31 2022-09-13 上海联影医疗科技股份有限公司 一种图像处理方法和系统
US9848235B1 (en) * 2016-02-22 2017-12-19 Sorenson Media, Inc Video fingerprinting based on fourier transform of histogram
JP6703800B2 (ja) * 2016-04-01 2020-06-03 シャープ株式会社 表示装置、表示装置の制御方法、および制御プログラム
US10867371B2 (en) 2016-06-28 2020-12-15 Seek Thermal, Inc. Fixed pattern noise mitigation for a thermal imaging system
US11025833B2 (en) 2016-06-30 2021-06-01 I-Cubed Research Center Inc. Video signal processing apparatus, video signal processing method, and program for performing video signal processing in consideration of behavior of light in nature
JPWO2018003939A1 (ja) * 2016-06-30 2019-06-27 アイキューブド研究所株式会社 画像出力装置、画像出力方法、およびプログラム
WO2018003938A1 (ja) 2016-06-30 2018-01-04 アイキューブド研究所株式会社 映像信号処理装置、映像信号処理方法、およびプログラム
JP6852411B2 (ja) * 2017-01-19 2021-03-31 ソニー株式会社 映像信号処理装置、映像信号処理方法およびプログラム
US10454832B2 (en) * 2017-01-31 2019-10-22 Google Llc Balancing data requests over a network
US10084997B1 (en) * 2017-05-23 2018-09-25 Sony Corporation Adaptive optics for a video projector
KR102368229B1 (ko) * 2018-02-06 2022-03-03 한화테크윈 주식회사 영상처리장치 및 방법
US10664960B1 (en) * 2019-04-15 2020-05-26 Hanwha Techwin Co., Ltd. Image processing device and method to perform local contrast enhancement
US11276152B2 (en) 2019-05-28 2022-03-15 Seek Thermal, Inc. Adaptive gain adjustment for histogram equalization in an imaging system
US11430093B2 (en) * 2019-10-01 2022-08-30 Microsoft Technology Licensing, Llc Face-based tone curve adjustment
JP7418690B2 (ja) * 2019-10-25 2024-01-22 株式会社Jvcケンウッド 表示制御装置、表示システム、表示制御方法及びプログラム
US11113818B1 (en) * 2020-02-25 2021-09-07 Himax Technologies Limited Timing controller and operating method thereof
US11809996B2 (en) * 2020-09-21 2023-11-07 University Of Central Florida Research Foundation, Inc. Adjusting parameters in an adaptive system
WO2023094873A1 (en) * 2021-11-29 2023-06-01 Weta Digital Limited Increasing dynamic range of a virtual production display
WO2023094875A1 (en) * 2021-11-29 2023-06-01 Weta Digital Limited Increasing dynamic range of a virtual production display
US11438520B1 (en) 2021-11-29 2022-09-06 Unity Technologies Sf Increasing dynamic range of a virtual production display

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09168097A (ja) * 1995-12-18 1997-06-24 Fuji Xerox Co Ltd 画像処理装置
JPH1013667A (ja) * 1996-06-18 1998-01-16 Fuji Photo Film Co Ltd 画像再生方法および装置
JPH1075395A (ja) 1995-09-29 1998-03-17 Fuji Photo Film Co Ltd 画像処理方法および装置
JP2832954B2 (ja) 1988-09-09 1998-12-09 日本電気株式会社 画像強調回路
JPH1127517A (ja) * 1997-06-27 1999-01-29 Sharp Corp 画像処理装置
JPH11501841A (ja) * 1995-03-10 1999-02-16 アキュソン コーポレイション イメージングシステム用表示プロセッサ
JP2000057335A (ja) 1998-08-05 2000-02-25 Minolta Co Ltd 画像処理装置のための画像補正装置、画像補正方法及び画像補正プログラムを記録した機械読取り可能な記録媒体
JP2001298619A (ja) 2000-04-17 2001-10-26 Fuji Photo Film Co Ltd 画像処理方法及び画像処理装置
JP2002133409A (ja) * 2000-09-13 2002-05-10 Eastman Kodak Co ピクセルカラーに基づくデジタル画像強調方法

Family Cites Families (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3024459A1 (de) * 1979-07-03 1981-01-08 Crosfield Electronics Ltd Pyramideninterpolation
JPS5827145A (ja) 1981-08-10 1983-02-17 Fuji Photo Film Co Ltd カラ−画像信号の輪郭強調処理方法及びカラ−画像走査装置
US4837722A (en) * 1986-05-14 1989-06-06 Massachusetts Institute Of Technology Digital high speed 3-dimensional interpolation machine
JP2718448B2 (ja) 1987-10-19 1998-02-25 富士写真フイルム株式会社 画像処理データの設定方法
JP2655602B2 (ja) 1987-11-04 1997-09-24 日本電気株式会社 画像強調回路
JPH0348980A (ja) 1989-07-18 1991-03-01 Fujitsu Ltd 輪郭強調処理方式
JP2663189B2 (ja) * 1990-01-29 1997-10-15 富士写真フイルム株式会社 画像のダイナミックレンジ圧縮処理方法
JP2961953B2 (ja) 1991-06-14 1999-10-12 松下電器産業株式会社 色補正方法および装置
JP3303427B2 (ja) 1992-05-19 2002-07-22 ミノルタ株式会社 デジタル画像形成装置
JP3222577B2 (ja) 1992-09-16 2001-10-29 古河電気工業株式会社 熱交換器用アルミニウム合金フィン材
US5524070A (en) * 1992-10-07 1996-06-04 The Research Foundation Of State University Of New York Local adaptive contrast enhancement
JPH06259543A (ja) 1993-03-05 1994-09-16 Hitachi Medical Corp 画像処理装置
JP3196864B2 (ja) * 1993-04-19 2001-08-06 富士写真フイルム株式会社 画像のダイナミックレンジ圧縮処理方法
JPH07220066A (ja) 1994-01-28 1995-08-18 Matsushita Electric Ind Co Ltd 画像処理装置
US5483360A (en) * 1994-06-06 1996-01-09 Xerox Corporation Color printer calibration with blended look up tables
JP3518913B2 (ja) 1994-12-22 2004-04-12 株式会社リコー 階調変換曲線生成装置
US5774599A (en) 1995-03-14 1998-06-30 Eastman Kodak Company Method for precompensation of digital images for enhanced presentation on digital displays with limited capabilities
US6094185A (en) * 1995-07-05 2000-07-25 Sun Microsystems, Inc. Apparatus and method for automatically adjusting computer display parameters in response to ambient light and user preferences
JP3003561B2 (ja) * 1995-09-25 2000-01-31 松下電器産業株式会社 階調変換方法及びその回路と画像表示方法及びその装置と画像信号変換装置
JP3192407B2 (ja) 1995-09-25 2001-07-30 松下電器産業株式会社 画像表示方法及びその装置
EP0766202B1 (en) * 1995-09-29 2002-12-18 Fuji Photo Film Co., Ltd. Image processing method and apparatus
JP4014671B2 (ja) 1995-09-29 2007-11-28 富士フイルム株式会社 多重解像度変換方法および装置
JPH09231353A (ja) 1996-02-23 1997-09-05 Toshiba Corp カラー画像処理システム
JPH09275496A (ja) 1996-04-04 1997-10-21 Dainippon Screen Mfg Co Ltd 画像の輪郭強調処理装置および方法
JPH1065930A (ja) 1996-08-19 1998-03-06 Fuji Xerox Co Ltd カラー画像処理方法およびカラー画像処理装置
US6351558B1 (en) 1996-11-13 2002-02-26 Seiko Epson Corporation Image processing system, image processing method, and medium having an image processing control program recorded thereon
US6453069B1 (en) 1996-11-20 2002-09-17 Canon Kabushiki Kaisha Method of extracting image from input image using reference image
JPH10154223A (ja) 1996-11-25 1998-06-09 Ricoh Co Ltd データ変換装置
KR100261214B1 (ko) * 1997-02-27 2000-07-01 윤종용 영상처리 시스템의 콘트라스트 확장장치에서 히스토그램 등화방법 및 장치
JP2951909B2 (ja) 1997-03-17 1999-09-20 松下電器産業株式会社 撮像装置の階調補正装置及び階調補正方法
JPH10334218A (ja) 1997-06-02 1998-12-18 Canon Inc 画像処理装置およびその方法、並びに、記録媒体
JP3671616B2 (ja) * 1997-08-21 2005-07-13 富士ゼロックス株式会社 画像処理装置
US6069597A (en) 1997-08-29 2000-05-30 Candescent Technologies Corporation Circuit and method for controlling the brightness of an FED device
US6147664A (en) * 1997-08-29 2000-11-14 Candescent Technologies Corporation Controlling the brightness of an FED device using PWM on the row side and AM on the column side
JP3880156B2 (ja) 1997-10-17 2007-02-14 シャープ株式会社 画像処理装置
WO1999023637A1 (fr) * 1997-10-31 1999-05-14 Sony Corporation Procede et dispositif de traitement d'images, procede et systeme d'emission/reception d'images et support correspondant
US6411306B1 (en) * 1997-11-14 2002-06-25 Eastman Kodak Company Automatic luminance and contrast adustment for display device
JP3907810B2 (ja) 1998-01-07 2007-04-18 富士フイルム株式会社 3次元ルックアップテーブルの補正法およびこれを行う画像処理装置ならびにこれを備えたデジタルカラープリンタ
US6323869B1 (en) * 1998-01-09 2001-11-27 Eastman Kodak Company Method and system for modality dependent tone scale adjustment
JP3809298B2 (ja) 1998-05-26 2006-08-16 キヤノン株式会社 画像処理方法、装置および記録媒体
JP2000032281A (ja) 1998-07-07 2000-01-28 Ricoh Co Ltd 画像処理方法、装置および記録媒体
US6643398B2 (en) * 1998-08-05 2003-11-04 Minolta Co., Ltd. Image correction device, image correction method and computer program product in memory for image correction
US6275605B1 (en) * 1999-01-18 2001-08-14 Eastman Kodak Company Method for adjusting the tone scale of a digital image
US6624828B1 (en) * 1999-02-01 2003-09-23 Microsoft Corporation Method and apparatus for improving the quality of displayed images through the use of user reference information
JP2000278522A (ja) 1999-03-23 2000-10-06 Minolta Co Ltd 画像処理装置
US6580835B1 (en) 1999-06-02 2003-06-17 Eastman Kodak Company Method for enhancing the edge contrast of a digital image
JP2001111858A (ja) 1999-08-03 2001-04-20 Fuji Photo Film Co Ltd 色修正定義作成方法、色修正定義作成装置、および色修正定義作成プログラム記憶媒体
JP2001069352A (ja) 1999-08-27 2001-03-16 Canon Inc 画像処理装置およびその方法
JP4076302B2 (ja) 1999-08-31 2008-04-16 シャープ株式会社 画像の輝度補正方法
JP2001078047A (ja) 1999-09-02 2001-03-23 Seiko Epson Corp プロファイル合成方法、プロファイル合成装置、並びにプロファイル合成プログラムを記憶した媒体、及びデータ変換装置
US6650774B1 (en) * 1999-10-01 2003-11-18 Microsoft Corporation Locally adapted histogram equalization
US7006668B2 (en) 1999-12-28 2006-02-28 Canon Kabushiki Kaisha Image processing method and image processing apparatus
US6618045B1 (en) * 2000-02-04 2003-09-09 Microsoft Corporation Display device with self-adjusting control parameters
JP3758452B2 (ja) 2000-02-28 2006-03-22 コニカミノルタビジネステクノロジーズ株式会社 記録媒体、並びに、画像処理装置および画像処理方法
JP4556276B2 (ja) 2000-03-23 2010-10-06 ソニー株式会社 画像処理回路及び画像処理方法
US6813041B1 (en) * 2000-03-31 2004-11-02 Hewlett-Packard Development Company, L.P. Method and apparatus for performing local color correction
US6822762B2 (en) * 2000-03-31 2004-11-23 Hewlett-Packard Development Company, L.P. Local color correction
JP2002044451A (ja) 2000-07-19 2002-02-08 Canon Inc 画像処理装置およびその方法
DE60110399T2 (de) * 2000-08-28 2006-01-19 Seiko Epson Corp. Sich an die umgebung anpassendes anzeigesystem, bildverarbeitungsverfahren und bildspeichermedium
US6483245B1 (en) 2000-09-08 2002-11-19 Visteon Corporation Automatic brightness control using a variable time constant filter
JP3793987B2 (ja) * 2000-09-13 2006-07-05 セイコーエプソン株式会社 補正カーブ生成方法、画像処理方法、画像表示装置および記録媒体
US6915024B1 (en) * 2000-09-29 2005-07-05 Hewlett-Packard Development Company, L.P. Image sharpening by variable contrast mapping
JP2002204372A (ja) * 2000-12-28 2002-07-19 Canon Inc 画像処理装置およびその方法
JP2002281333A (ja) 2001-03-16 2002-09-27 Canon Inc 画像処理装置およびその方法
US7023580B2 (en) 2001-04-20 2006-04-04 Agilent Technologies, Inc. System and method for digital image tone mapping using an adaptive sigmoidal function based on perceptual preference guidelines
US6586704B1 (en) * 2001-05-15 2003-07-01 The United States Of America As Represented By The United States Department Of Energy Joining of materials using laser heating
US6826310B2 (en) * 2001-07-06 2004-11-30 Jasc Software, Inc. Automatic contrast enhancement
JP3705180B2 (ja) 2001-09-27 2005-10-12 セイコーエプソン株式会社 画像表示システム、プログラム、情報記憶媒体および画像処理方法
JP3752448B2 (ja) * 2001-12-05 2006-03-08 オリンパス株式会社 画像表示システム
JP2003242498A (ja) 2002-02-18 2003-08-29 Konica Corp 画像処理方法および画像処理装置ならびに画像出力方法および画像出力装置
JP4367162B2 (ja) 2003-02-19 2009-11-18 パナソニック株式会社 プラズマディスプレイパネルおよびそのエージング方法
JP4089483B2 (ja) 2003-03-27 2008-05-28 セイコーエプソン株式会社 異なった特徴の画像が混在する画像を表す画像信号の階調特性制御
JP4126297B2 (ja) * 2003-09-11 2008-07-30 松下電器産業株式会社 視覚処理装置、視覚処理方法、視覚処理プログラム、集積回路、表示装置、撮影装置および携帯情報端末
CN101686306A (zh) * 2003-09-11 2010-03-31 松下电器产业株式会社 可视处理装置、基于它的装置以及可视处理方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2832954B2 (ja) 1988-09-09 1998-12-09 日本電気株式会社 画像強調回路
JPH11501841A (ja) * 1995-03-10 1999-02-16 アキュソン コーポレイション イメージングシステム用表示プロセッサ
JPH1075395A (ja) 1995-09-29 1998-03-17 Fuji Photo Film Co Ltd 画像処理方法および装置
JPH09168097A (ja) * 1995-12-18 1997-06-24 Fuji Xerox Co Ltd 画像処理装置
JPH1013667A (ja) * 1996-06-18 1998-01-16 Fuji Photo Film Co Ltd 画像再生方法および装置
JPH1127517A (ja) * 1997-06-27 1999-01-29 Sharp Corp 画像処理装置
JP2000057335A (ja) 1998-08-05 2000-02-25 Minolta Co Ltd 画像処理装置のための画像補正装置、画像補正方法及び画像補正プログラムを記録した機械読取り可能な記録媒体
JP2001298619A (ja) 2000-04-17 2001-10-26 Fuji Photo Film Co Ltd 画像処理方法及び画像処理装置
JP2002133409A (ja) * 2000-09-13 2002-05-10 Eastman Kodak Co ピクセルカラーに基づくデジタル画像強調方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1667066A4

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2323100A3 (en) * 2005-10-12 2012-03-21 Panasonic Corporation Visual processing apparatus, display apparatus, visual processing method, program and integrated circuit
EP1959390A1 (en) * 2005-10-12 2008-08-20 Matsushita Electric Industrial Co., Ltd. Visual processing apparatus, display apparatus, visual processing method, program and integrated circuit
JP2009277222A (ja) * 2005-10-12 2009-11-26 Panasonic Corp 視覚処理装置、テレビジョン、情報携帯端末、カメラ、視覚処理方法、およびプロセッサ
EP1959390A4 (en) * 2005-10-12 2010-05-05 Panasonic Corp VISUAL PROCESSING APPARATUS, DISPLAY APPARATUS, VISUAL PROCESSING METHOD, PROGRAM, AND INTEGRATED CIRCUIT
US7773158B2 (en) 2005-10-12 2010-08-10 Panasonic Corporation Visual processing device, display device, and integrated circuit
US7881549B2 (en) 2005-10-12 2011-02-01 Panasonic Corporaiton Visual processing device, display device, visual processing method, program, and integrated circuit
WO2007043460A1 (ja) * 2005-10-12 2007-04-19 Matsushita Electric Industrial Co., Ltd. 視覚処理装置、表示装置、視覚処理方法、プログラムおよび集積回路
US7880814B2 (en) 2005-10-12 2011-02-01 Panasonic Corporation Visual processing device, display device, and integrated circuit
US8368814B2 (en) 2005-10-12 2013-02-05 Panasonic Corporation Visual processing device, display device, and integrated circuit for adjusting the contrast of an image
US8311357B2 (en) 2005-10-12 2012-11-13 Panasonic Corporation Visual processing device, display device, visual processing method, program, and integrated circuit
US8406547B2 (en) 2006-04-19 2013-03-26 Panasonic Corporation Visual processing device, visual processing method, program, display device, and integrated circuit
US7894684B2 (en) 2006-04-19 2011-02-22 Panasonic Corporation Visual processing device, visual processing method, program, display device, and integrated circuit
US8401324B2 (en) 2006-04-28 2013-03-19 Panasonic Corporation Visual processing apparatus, visual processing method, program, recording medium, display device, and integrated circuit
US7903898B2 (en) 2006-04-28 2011-03-08 Panasonic Corporation Visual processing apparatus, visual processing method, program, recording medium, display device, and integrated circuit
US7881550B2 (en) 2006-04-28 2011-02-01 Panasonic Corporation Visual processing apparatus, visual processing method, program, recording medium, display device, and integrated circuit
US7593017B2 (en) 2006-08-15 2009-09-22 3M Innovative Properties Company Display simulator
US20110317032A1 (en) * 2007-04-18 2011-12-29 Haruo Yamashita Imaging apparatus, imaging method, integrated circuit, and storage medium
US20110310271A1 (en) * 2007-04-18 2011-12-22 Haruo Yamashita Imaging apparatus, imaging method, integrated circuit, and storage medium
US8144214B2 (en) * 2007-04-18 2012-03-27 Panasonic Corporation Imaging apparatus, imaging method, integrated circuit, and storage medium
US8488029B2 (en) 2007-04-18 2013-07-16 Panasonic Corporation Imaging apparatus, imaging method, integrated circuit, and storage medium
US8711255B2 (en) 2007-04-18 2014-04-29 Panasonic Corporation Visual processing apparatus and visual processing method
US7990465B2 (en) 2007-09-13 2011-08-02 Panasonic Corporation Imaging apparatus, imaging method, storage medium, and integrated circuit
US8786764B2 (en) 2007-09-13 2014-07-22 Panasonic Intellectual Property Corporation Of America Imaging apparatus, imaging method, and non-transitory storage medium which perform backlight correction
US9240072B2 (en) 2010-09-08 2016-01-19 Panasonic Intellectual Property Management Co., Ltd. Three-dimensional image processing apparatus, three-dimensional image-pickup apparatus, three-dimensional image-pickup method, and program

Also Published As

Publication number Publication date
KR20060121874A (ko) 2006-11-29
EP1667066B1 (en) 2020-01-08
US7860339B2 (en) 2010-12-28
KR20090099013A (ko) 2009-09-18
JP4410304B2 (ja) 2010-02-03
JP4481333B2 (ja) 2010-06-16
KR101030839B1 (ko) 2011-04-22
KR20110003597A (ko) 2011-01-12
JP2009211709A (ja) 2009-09-17
EP1667066A4 (en) 2008-11-19
KR101030872B1 (ko) 2011-04-22
JP2008159069A (ja) 2008-07-10
CN101686306A (zh) 2010-03-31
JP2009271925A (ja) 2009-11-19
US8165417B2 (en) 2012-04-24
US20070188623A1 (en) 2007-08-16
US20080107360A1 (en) 2008-05-08
EP1667066A1 (en) 2006-06-07
KR101030864B1 (ko) 2011-04-22

Similar Documents

Publication Publication Date Title
WO2005027043A1 (ja) 視覚処理装置、視覚処理方法、視覚処理プログラム、集積回路、表示装置、撮影装置および携帯情報端末
US7773158B2 (en) Visual processing device, display device, and integrated circuit
JP2008159069A5 (ja)
JP4688945B2 (ja) 視覚処理装置、視覚処理方法、テレビジョン、携帯情報端末、カメラおよびプロセッサ
US9832378B2 (en) Exposure mapping and dynamic thresholding for blending of multiple images using floating exposure
CN107154059B (zh) 一种高动态范围视频处理方法
US20070165048A1 (en) Image processing device, image processing method, and image processing program
US7783126B2 (en) Visual processing device, visual processing method, visual processing program, and semiconductor device
JPWO2007043460A1 (ja) 視覚処理装置、表示装置、視覚処理方法、プログラムおよび集積回路
WO2018231968A1 (en) Efficient end-to-end single layer inverse display management coding
JP4126297B2 (ja) 視覚処理装置、視覚処理方法、視覚処理プログラム、集積回路、表示装置、撮影装置および携帯情報端末
EP3639238A1 (en) Efficient end-to-end single layer inverse display management coding
JP2006024176A5 (ja)
JP4414307B2 (ja) 視覚処理装置、視覚処理方法、視覚処理プログラムおよび半導体装置
JP2012028937A (ja) 映像信号補正装置および映像信号補正プログラム
WO2010137387A1 (ja) 画像処理装置及びプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200480026191.3

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BW BY BZ CA CH CN CO CR CU CZ DK DM DZ EC EE EG ES FI GB GD GE GM HR HU ID IL IN IS KE KG KP KR LC LK LR LS LT LU LV MA MD MG MN MW MX MZ NA NI NO NZ OM PG PL PT RO RU SC SD SE SG SK SL SY TM TN TR TT TZ UA UG US UZ VC YU ZA ZM

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SZ TZ UG ZM ZW AM AZ BY KG MD RU TJ TM AT BE BG CH CY DE DK EE ES FI FR GB GR HU IE IT MC NL PL PT RO SE SI SK TR BF CF CG CI CM GA GN GQ GW ML MR SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1020067005003

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2004773249

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2004773249

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020067005003

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 10571124

Country of ref document: US

Ref document number: 2007188623

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 10571124

Country of ref document: US