WO1997046021A1 - Device and method for predicting and encoding image, device and method for predicting and decoding image, and recording medium - Google Patents

Device and method for predicting and encoding image, device and method for predicting and decoding image, and recording medium Download PDF

Info

Publication number
WO1997046021A1
WO1997046021A1 PCT/JP1997/001800 JP9701800W WO9746021A1 WO 1997046021 A1 WO1997046021 A1 WO 1997046021A1 JP 9701800 W JP9701800 W JP 9701800W WO 9746021 A1 WO9746021 A1 WO 9746021A1
Authority
WO
WIPO (PCT)
Prior art keywords
block
image data
prediction
data
coefficient data
Prior art date
Application number
PCT/JP1997/001800
Other languages
English (en)
French (fr)
Inventor
Choong Seng Boon
Sheng Mei Shen
Thiow Keng Tan
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to MX9800656A priority Critical patent/MX9800656A/es
Priority to KR1019980700683A priority patent/KR100324608B1/ko
Priority to US08/983,640 priority patent/US6148109A/en
Priority to BR9702224A priority patent/BR9702224B1/pt
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to JP54202597A priority patent/JP3369573B2/ja
Priority to DE1997609835 priority patent/DE69709835T2/de
Priority to EP19970924230 priority patent/EP0843484B1/en
Priority to CA 2228166 priority patent/CA2228166C/en
Publication of WO1997046021A1 publication Critical patent/WO1997046021A1/ja
Priority to US10/781,616 priority patent/US7394941B2/en
Priority to US10/973,256 priority patent/US7079694B2/en
Priority to US11/601,728 priority patent/US7995654B2/en
Priority to US11/601,796 priority patent/US7424158B2/en
Priority to US11/601,794 priority patent/US7437008B2/en
Priority to US11/601,623 priority patent/US7444029B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/152Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/48Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/507Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction using conditional replenishment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/619Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding the transform being operated outside the prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/649Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding the transform being applied to non rectangular image segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/149Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/15Data rate or code amount at the encoder output by monitoring actual compressed data size at the memory before deciding storage at the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets

Definitions

  • Image prediction encoding apparatus and method image prediction decoding apparatus and method, and recording medium
  • the present invention relates to an image prediction encoding device and method, an image prediction decoding device and method, and a recording medium.
  • an image prediction encoding device and method for storing digital image data of an image that is a still image or a moving image on a recording medium such as an optical disk or transmitting the communication line, and an image prediction decoding device and About the method.
  • the present invention relates to a recording medium on which a program including the steps of the image prediction encoding method is recorded, and a recording medium on which a program including the steps of the image prediction decoding method is recorded.
  • DCT transform discrete cosine transform
  • JPEG Joint Photographic Experts Group
  • MPEG Motion Picture Experts Group
  • waveform coding methods such as chemical coding and fractal coding. To remove redundant signals between images, inter-image prediction using motion compensation is performed, and the difference signal is waveform-encoded.
  • an input image is divided into a plurality of 16 ⁇ 16 macroblocks and processed.
  • One macroblock is further divided into 8 ⁇ 8 blocks, subjected to 8 ⁇ 8 DCT conversion processing, and then quantized. This is called intra-frame coding.
  • a prediction macro with the smallest error in the target macroblock from another frame adjacent to time A macroblock is detected, the detected predicted macroblock is subtracted from the target macroblock, a difference macroblock is generated, and an 8x8 DCT transform is performed, and then quantization is performed.
  • This is called inter-frame coding, and the predicted macroblock is called a time-domain predicted signal.
  • MPEG does not predict an image from within the same frame.
  • the prediction signal can be obtained from the same frame. This is called the spatial domain prediction signal.
  • the prediction signal in the spatial domain is generally located at a position close to the target signal.
  • the receiving side or the reproducing side since there is no original image, it is necessary to use a signal encoded and reproduced in the past as the prediction signal. From these two factors, it is necessary to generate a spatial domain prediction signal at high speed. This is because the pixel value is used to generate a prediction signal immediately after decoding and reproduction.
  • the encoding device and the decoding device are required to have a configuration capable of high-speed operation.
  • Encoding of image data for moving images consists of intra-frame encoding and predictive frame encoding.
  • intra-frame coding is Refers to intra-frame encoding of one frame within a screen.
  • successive frames can be classified into three different types:
  • I frames Intra frames
  • P frames Predicted frames
  • B frames Bidirectionally predicted frames
  • I-frames are encoded independently of other frames, ie, I-frames are compressed without using other frames.
  • P-frames are coded through motion detection and compensation by using the previous frame to predict the contents of the coded frame (which is a P-frame).
  • B-frames are coded by using motion detection and compensation using information from the previous frame and information from subsequent frames to predict the contents of the B-frame.
  • the previous and subsequent frames are I-frame or P-frames.
  • I-frames belong to intra-code mode.
  • the P frame and the B frame belong to the prediction code mode.
  • I-frames Just as the encoding properties of I-frames, P-frames and B-frames are different, their compression methods are also different. I-frames require more bits than P-frames and B-frames because they do not use temporal prediction to reduce redundancy.
  • MPEG 2 will be described as an example. Assume that the bit rate is 4 Mbits Z seconds, and the image is an image of 30 frames per second. In general, the ratio of the number of bits used for I, P and B frames is 6: 3: 1. Therefore, one frame uses about 420 KbitsZs, and B frame uses about 70 Kbitss. Because the B frame is well predicted from both directions It is.
  • FIG. 14 is a block diagram showing the configuration of a conventional image prediction / synthesis device. All modern image coding methods are based on dividing the image into smaller blocks, since the DCT transform is performed on a block basis.
  • intra-frame coding first, as shown in FIG. 14, a block sampling process 1001 is performed on an input digital image signal. Next, after these blocks after the block sampling process 1001 are subjected to the 0-digit conversion process 1004, the quantization process 1005 and the run-length Hoffman variable length coding ( VLC: Variable Length Coding (entropy coding) Processing 106 is executed.
  • a motion compensation process 1003 is performed on an input digital image, and a DCT is performed on the motion-compensated block (ie, the predicted block).
  • the conversion process 1004 is executed.
  • a quantization process 1005 and a run-length Hoffman VLC coding (entrance-to-peak coding) process 1006 are executed.
  • the block-based conversion process 1004 based on the block removes or reduces the spatial redundancy in the block to be processed, and the motion detection and compensation process 1002, 1003 It is known from conventional image coding techniques to remove or reduce temporary redundancy between adjacent frames. Furthermore, the run-length Hoffman VLC encoding or other entropy encoding process 1006, which is performed after the 0-three transform process 1004 and the quantization process 1005, is performed by a quantized DCT transform. Eliminate statistical redundancy between coefficients. However, the processing is only for the blocks in the screen.
  • the zero-order transform 1004 or other transform is performed on a block-by-block basis due to hardware implementation and computational constraints.
  • Spatial redundancy is reduced by the block-based transformation process. It is limited to only one block. Redundancy between two adjacent blocks is not well considered, but could be further reduced by using intra-frame coding, which always consumes a large number of bits.
  • block-based DCT transform processing removes or reduces spatial redundancy within the block being processed, and motion estimation and compensation works between two adjacent frames. Eliminating or reducing temporary redundancy is known from current image coding techniques. The zigzag scan and run-length Hoffman VLC coding or other random coding performed after the DCT transform and the quantization process is used for statistical redundancy in the quantized DCT transform coefficients. Elimination, but only within one block.
  • the DC coefficient prediction is based on the current code This is performed by subtracting the DC value of the previous encoded block from the block being shaded. This is a simple prediction method that has no adaptability or mode switching when the prediction is not appropriate. Furthermore, it only includes the DC coefficient.
  • FIG. 22 is a block diagram illustrating a configuration of a conventional image prediction encoding device.
  • the image prediction coding apparatus of the related art includes a block sampling unit 200, a DCT transform unit 200, a quantization unit 204, and a zigzag scan unit 200. 5 and entropy coding unit 206.
  • the term "unit" means a circuit device.
  • intra-frame coding ie, intra-frame coding
  • block sampling processing 2001 is performed on an input image signal, and then DCT transform processing 2003 is directly performed.
  • a quantization process 204, a zigzag scan process 205, and an entity P coding process 2 6 are sequentially performed.
  • inter-frame coding ie, inter-frame coding, that is, predictive frame coding
  • motion detection and interpolation processing are performed in the unit 211.
  • the prediction error is obtained by the adder 202 by subtracting the detection ⁇ from the unit 201 from the image data from the block sampling 200 1.
  • a DCT transformation process 203 is performed on the prediction error, followed by a quantization process 204, a zigzag scan process 2005, and an entity speech coding process 2006.
  • ⁇ Int This is performed in the same manner as in the frame coding.
  • the inverse quantization process and the inverse DCT transform process are executed in units 207 and 208.
  • the motion detection and compensated prediction value is added to the prediction error reconstructed by the units 200 and 208 by an adder 209, and
  • the addition value means locally decoded image data, and the decoded image data is stored in the frame memory 210 of the local decoder.
  • the bit stream is output from the entity D- P coding unit 210 and transmitted to the image prediction decoding apparatus of the other party.
  • FIG. 23 is a block diagram illustrating a configuration of a conventional image prediction decoding device.
  • the bit stream is decoded by a Variable Length Decoding (VLD) unit (or Entropy Decoding Unit) 2021, and then the decoded image data is decoded.
  • VLD Variable Length Decoding
  • the inverse quantization process and the inverse DCT transform process are performed in the units 230 and 204.
  • the interframe coding the motion detection and captured prediction value formed by the unit 207 is added to the prediction error reconstructed by the adder 225, and the local decoding is performed.
  • Image data is formed.
  • the locally decoded image data is stored in the frame memory 1026 of the local decoder.
  • DCT or other transforms are performed on a block basis due to hardware implementation and computational constraints. Spatial redundancy will be reduced by block-based transformations. However, it is only within a block. Redundancy between adjacent blocks is not sufficiently considered. In particular, always a large amount No particular consideration is given to intra-frame coding that consumes these bits.
  • a first object of the present invention is to provide an image prediction encoding apparatus and method, and an image prediction decoding apparatus and method capable of easily, quickly and accurately generating predicted image data in a spatial domain. Is to do.
  • a second object of the present invention is to eliminate the redundancy in a block as compared with the image prediction coding apparatus and the image prediction decoding apparatus of the prior art, and to more efficiently code image data. It is an object of the present invention to provide an image prediction encoding device and method that can be encoded or decoded, and an image prediction decoding device and method.
  • a third object of the present invention is to solve the problem that important transform coefficients are concentrated in different areas of the block depending on the internal properties of image data, and to provide a correct scanning method for blocks. It is an object of the present invention to provide an image prediction encoding apparatus and method, and an image prediction decoding apparatus and method, which can improve the efficiency of entropy encoding processing by making a decision.
  • a fourth object of the present invention is to provide a recording medium which records each step of the image prediction encoding method or the image prediction decoding method. Disclosure of the invention
  • An image predictive encoding apparatus includes: a dividing unit that divides input encoded image data into image data of a plurality of small regions adjacent to each other; When encoding the image data of the small area to be processed among the image data of a plurality of small areas, the image data of the reproduced small area adjacent to the image data of the small area to be processed is encoded as described above.
  • the image data of the intra-screen predicted small area of the small area to be processed is used as the image data of the optimal predicted small area,
  • First generation means for generating image data of a difference small area, which is a difference between the image data of the target small area and the image data of the optimal predicted small area,
  • Encoding means for encoding the image data of the small difference area generated by the generating means
  • Decoding means for decoding the image data of the small difference area coded by the coding means
  • Second generating means for generating image data of the reproduced small area by adding the image data of the small difference area decoded by the decoding means to the image data of the optimal small area predicted; Is provided.
  • An image prediction encoding apparatus includes: a dividing unit that divides input encoded image data into image data of a plurality of small areas adjacent to each other; When encoding a small area to be processed among a plurality of small areas, the encoded image data is selected from image data of a reproduced small area adjacent to the image data of the small area to be processed.
  • the first step is to generate image data of the difference small area which is the difference between the image data of the small area to be processed and the image data of the optimally predicted small area.
  • Encoding means for encoding the image data of the small difference area generated by the first generation means
  • Decoding means for decoding the image data of the small difference area encoded by the encoding means
  • the image data of the small difference area decoded by the decoding means is Second generating means for generating image data of the reproduced small area reproduced by adding the image data to the image data of the appropriate predicted small area.
  • an image predictive decoding device includes: an analyzing unit that analyzes an input encoded image data sequence and outputs an image difference signal; and a differential image signal output from the analyzing unit.
  • a line memory for storing image data for generating image data of a predetermined intra-screen prediction small area
  • the reproduced image data adjacent to the image data of the reproduction difference small area is set as the image data of the intra prediction small area
  • Generating means for outputting the image data of the intra prediction small area as image data of the optimal prediction small area; image data of the reproduction difference small area from the decoding means; and an image of the optimal prediction small area from the generation means
  • the image processing apparatus further includes an adding unit that outputs image data for generating an intra-screen prediction small area of the addition result by adding the data to the data and stores the image data in the line memory.
  • the image prediction decoding apparatus analyzes the input encoded image data sequence, and outputs an image difference signal, a motion vector signal, and a control signal.
  • Decoding means for decoding the difference image signal output from the analysis means at once over the image data of the reproduced difference small area
  • Control means for outputting a switching signal for controlling the motion compensation means and the generation means to selectively operate based on the control signal output from the analysis means;
  • the image data of the temporal prediction small area is generated from the frame memory, and the Motion compensation means to output as image data of the predicted small area,
  • the reproduced image data of the addition result is output, and the reproduced image data is added.
  • An adder that stores the image data for generating the image data of the intra prediction small area in the frame memory and stores only the image data for generating the image data of the intra prediction small area in the line memory.
  • An image prediction decoding apparatus includes: an analysis unit that analyzes an input encoded image data sequence and outputs a compressed shape signal and an image difference signal;
  • First decoding means for decoding the compressed shape signal output from the analysis means into a reproduced shape signal
  • Second decoding means for decoding the difference image signal output from the analysis means into image data of a reproduced difference small area
  • a line memory for storing image data for generating image data of a predetermined intra-screen prediction small area; By performing prediction signal processing on the image data from the line memory, the reproduction shape signal indicates from the reproduced image data adjacent to the image data in the reproduction difference small area.
  • the image prediction decoding apparatus By adding the image data of the reproduction difference small area from the second decoding means and the optimal prediction small area from the generation means, the image data of the addition result is output and the intra prediction small area is output.
  • An adding means for storing only the image data for generating the image data of the area in the line memory.
  • the image prediction decoding apparatus analyzes the input coded image data sequence, and outputs a compressed shape signal, an image difference signal, a motion vector signal, and a control signal. Analysis means for outputting
  • First decoding means for decoding the compressed shape signal output from the analysis means into a reproduced shape signal
  • Second decoding means for decoding the difference image signal output from the analysis means into a reproduced difference small area
  • Control means for outputting a switching signal for controlling the motion assist means and the generation means to selectively operate based on the control signal output from the analysis means;
  • a frame memory for storing predetermined reproduction image data
  • a line memory for storing image data for generating image data of a predetermined intra-screen prediction small area
  • the motion compensation processing is performed on the reproduced image data from the frame memory based on the motion vector signal output from the analysis means.
  • Time forecast Motion compensation means for generating image data of the area and outputting the image data as the image data of the optimal prediction small area;
  • the reproduced image data of the addition result is output, and the reproduced image data is output.
  • An image predictive encoding apparatus includes: a sampling unit configured to sample an input image signal into image data of a plurality of blocks each including a one-dimensional array of pixel values;
  • Conversion means for converting the image data of the block sampled by the sampling means into coefficient data of a predetermined conversion area
  • the block coefficient data converted by the conversion means is used.
  • the coefficient data of the most efficient prediction block is determined, selected and output, and an indicator representing the selected prediction block is indicated by an instruction bit.
  • First adding means for outputting coefficient data of the prediction error of the subtraction result by calculating the coefficient data of the prediction block selected by the determining means from the coefficient data of the current block at the present time;
  • Quantizing means for quantizing the coefficient data of the prediction error output from the first adding means
  • Encoding means for encoding the prediction error coefficient data from the quantizing means by end-to-end encoding, and transmitting the encoded prediction error coefficient data to the image prediction decoding apparatus;
  • Inverse quantization means for inversely quantizing the prediction error coefficient data from the quantization means and outputting the restored block coefficient data
  • Inverse conversion means for inversely converting the block coefficient data output from the second addition means to generate restored block image data.
  • An image prediction encoding apparatus includes: a sampling unit that samples an input image signal into image data of a plurality of blocks including pixel values in a two-dimensional array;
  • Conversion means for converting the image data of the plurality of blocks sampled by the sampling means into a coefficient data of a predetermined conversion area
  • a quantizing means for quantizing the coefficient data of the transform area from the transforming means, a block memory for storing the restored block coefficient data, A prediction means for forming a plurality of prediction block coefficient data with respect to the block coefficient data converted by the conversion means, based on the block coefficient data reconstructed before stored in the block memory; ,
  • the coefficient data of the most efficient prediction block is determined from the coefficient data of the plurality of prediction blocks formed by the prediction means, selected and output, and the indicator representing the selected prediction block is indicated by the instruction bit.
  • First adding means for outputting coefficient data of a prediction error as a result of subtraction by subtracting coefficient data of the prediction block selected by the determining means from coefficient data of the current block at the present time;
  • Encoding means for entropy encoding the coefficient data of the prediction error from the first adding means, and transmitting the encoded coefficient data of the prediction error to the image prediction decoding device;
  • An inverse quantization means for inversely quantizing the coefficient data of the current block output from the second addition means and outputting the result
  • An inverse transforming means for inversely transforming the current block coefficient data from the inverse quantizing means to generate restored block image data
  • the image predictive coding apparatus further comprising: sampling means for sampling the input image signal into image data of a plurality of blocks each including a pixel value of a two-dimensional array, A compensation means for generating and outputting motion-compensated block prediction error image data by performing motion compensation processing on the image data of the block to be manually operated;
  • First adding means for subtracting the image data of the prediction error of the block output from the compensation means from the image data of the block output from the sampling means, and outputting the image data of the block as a subtraction result
  • Conversion means for converting the block image data output from the first addition means into coefficient data of a predetermined conversion area
  • a block memory for storing the coefficient data of the restored block; and a block memory for storing the coefficient data of the block reconstructed before and stored in the block memory.
  • a prediction means for forming coefficient data of a plurality of prediction blocks for the coefficient data;
  • the coefficient data of the most efficient prediction block is determined from the coefficient data of the plurality of prediction blocks formed by the prediction means, selected and output, and the indicator representing the selected prediction block is indicated by the instruction bit.
  • Second adding means for outputting coefficient data of a prediction error of a subtraction result by subtracting the coefficient data of the prediction block selected by the determining means from the coefficient data of the current block at the current time;
  • Quantizing means for quantizing the coefficient data of the prediction error output from the second adding means
  • Encoding means for entropy encoding the coefficient data of the prediction error from the quantization means and transmitting the encoded coefficient data of the prediction error to an image prediction decoding device;
  • the coefficient data of the prediction error from the quantization means is inversely quantized and restored.
  • Inverse quantization means for outputting coefficient data of the block
  • Inverse transform means for generating restored block image data by inversely transforming the block coefficient data output from the third adding means, and reconstructed block image data from the inverse transform means.
  • a fourth adding unit that outputs the restored block image data to the compensating unit by adding the motion-compensated block prediction error image data output from the compensating unit.
  • the image predictive encoding apparatus includes: sampling means for sampling an input image signal into image data of a plurality of blocks including pixel values in a two-dimensional array;
  • Compensation means for generating and outputting image data of a prediction error of the motion-compensated block by executing a motion compensation process on the input block image data
  • First adding means for subtracting the image data of the prediction error of the block outputted from the use means from the image data of the block outputted from the sampling means, and outputting the image data of the block as a subtraction result;
  • Conversion means for converting the block image data output from the first addition means into coefficient data of a predetermined conversion area
  • a partitioning means for quantizing the coefficient data of the transform area from the transforming means, a block memory for storing the restored block coefficient data, and a block coefficient reconstructed before being stored in the block memory Day Prediction means for forming a plurality of prediction block coefficient data with respect to the block coefficient data converted by the conversion means,
  • the coefficient data of the most efficient prediction block is determined, selected and output, and an indicator representing the selected prediction block is indicated by an instruction bit.
  • Second adding means for outputting coefficient data of a prediction error of a calculation result by subtracting coefficient data of the prediction block selected by the determining means from coefficient data of the current block at the present time;
  • An inverse quantization means for inversely quantizing and outputting the coefficient data of the current block output from the third addition means
  • Inverse transform means for generating restored block image data by inversely transforming the coefficient data of the current block from the inverse quantizing means, and image data of the restored block from the inverse transform means
  • the fourth addition means for outputting the restored block image data to the compensation means.
  • the image prediction decoding apparatus provides the image prediction decoding apparatus according to the seventh invention, An image prediction decoding device provided corresponding to the shading device, comprising: an oil extraction means for extracting an instruction bit from reception data received from the image prediction encoding device;
  • a block memory that stores the coefficient data of the recovered block, and a previously restored block stored in the block memory based on the predicted block indicated by the instruction bit extracted by the extraction means.
  • Another predicting means for generating and outputting coefficient data of a prediction block with respect to the coefficient data of the current power block included in the received data using the coefficient data of
  • Decoding means for decoding the received data by end-to-peak decoding and outputting decoded coefficient data of a prediction error
  • An inverse quantization means for inversely quantizing the prediction error coefficient data output from the decoding means and outputting the result
  • a third adding means stored in the block memory By adding the coefficient data of the prediction block output from the another prediction unit to the coefficient data of the prediction error output from the inverse quantization unit, the current block coefficient data of the current block is restored and output.
  • a third adding means stored in the block memory By adding the coefficient data of the prediction block output from the another prediction unit to the coefficient data of the prediction error output from the inverse quantization unit, the current block coefficient data of the current block is restored and output.
  • Another inverse transforming means for inversely transforming the coefficient data of the current block output from the third adding means and outputting the restored current block image data is provided.
  • an image prediction decoding apparatus is an image prediction decoding apparatus provided corresponding to the image prediction encoding apparatus according to the eighth invention, wherein the image prediction encoding apparatus Extracting means for extracting an instruction bit from received data received from
  • a block memory storing coefficient data of the restored block Based on the predicted block indicated by the instruction bit extracted by the extraction means, the current power rent block included in the received data is obtained by using the previously restored block coefficient data stored in the block memory.
  • Decoding means for performing entropy decoding on the received data and outputting coefficient data of the decoded prediction error
  • An inverse quantization means for inversely quantizing and outputting the prediction error coefficient data output from the third addition means
  • Another inverse transforming means for inversely transforming the current block coefficient data output from the inverse quantizing means and outputting the restored image data of the current block.
  • an image prediction decoding device is an image prediction decoding device provided corresponding to the image prediction encoding device according to the ninth invention, wherein the image prediction decoding device receives the image prediction decoding device from the image prediction encoding device. Extracting means for extracting an instruction bit from the received data thus obtained,
  • a block memory for storing the restored block coefficient data, and a previously restored block coefficient data stored in the block memory based on the predicted block indicated by the instruction bit extracted by the extracting means. Is used to generate and output coefficient data of the prediction block with respect to the current force block coefficient data contained in the received data. Measuring means,
  • Decoding means for performing entropy decoding on the received data and outputting coefficient data of the decoded prediction error
  • An inverse quantization means for inversely quantizing the prediction error coefficient data output from the decoding means and outputting the result
  • Another inverse transforming means for inversely transforming the coefficient data of the current block outputted from the third adding means and outputting the restored image data of the force lent block;
  • Another compensation means for outputting motion compensation prediction error data by performing motion compensation processing on the current block image data output from the other inverse transform means
  • the prediction error data of the motion compensation output from the another compensating means is subtracted from the image data of the current block output from the other inverse transforming means, and the image data of the block in which the subtraction result is restored is output. And a fifth adding means.
  • an image prediction decoding apparatus is an image prediction decoding apparatus provided corresponding to the image prediction encoding apparatus according to the tenth invention
  • Extracting means for extracting an instruction bit from the received data received from the image predictive encoding device
  • a block memory for storing the restored block coefficient data; Based on the prediction block indicated by the indication bit extracted by the extraction means, the current power rent block included in the received data is obtained by using the previously restored block coefficient data stored in the block memory.
  • Another prediction means for generating and outputting coefficient data of a prediction block for the coefficient data of
  • Decoding means for decoding the received data into an entity and outputting decoded coefficient data of the prediction error
  • a third adding means for storing in the memory By adding the coefficient data of the prediction block output from the prediction means to the coefficient data of the prediction error output from the decoding means, the coefficient data of the current block at the present time is restored and output.
  • a third adding means for storing in the memory By adding the coefficient data of the prediction block output from the prediction means to the coefficient data of the prediction error output from the decoding means, the coefficient data of the current block at the present time is restored and output.
  • Inverse quantization means for inversely quantizing the prediction error coefficient data output from the third addition means and outputting the result
  • Another inverse transforming means for inversely transforming the coefficient data of the current block output from the inverse quantizing means and outputting the restored image data of the current block
  • Another interpolation means for outputting prediction error data of motion interpolation by performing motion interpolation processing on the image data of the current block output from the other inverse conversion means,
  • An image prediction encoding apparatus provides a method for sampling an input image signal into image data of a plurality of blocks each including a two-dimensional array of pixel values. Sampling means for
  • Conversion means for converting the image data of the block sampled by the sampling means into coefficient data of a predetermined conversion area
  • the block memory storing the restored block coefficient data, and the block coefficient data converted by the conversion means based on the block data previously reconstructed stored in the block memory.
  • Prediction means for forming coefficient data of a plurality of prediction blocks
  • the coefficient data of the most efficient prediction block and the scanning method are determined, selected and output, and the selected prediction block and the scanning method are represented.
  • Determining means for transmitting an indicator to the image predictive decoding apparatus in the form of an instruction bit; and subtracting coefficient data of the current block selected by the determining means from the current coefficient data of the current block.
  • First adding means for outputting coefficient data of a prediction error of a subtraction result;
  • Quantizing means for quantizing the coefficient data of the prediction error output from the first adding means
  • Scanning means for executing scan processing on the coefficient data of the prediction error from the quantization means by the scanning method determined by the determination means, and outputting coefficient data of the prediction error after the scan processing
  • Encoding means for entropy encoding the coefficient data of the prediction error after the scan processing output from the scanning means, and transmitting the encoded coefficient data of the prediction error to an image prediction decoding device;
  • Inverse quantization means for inversely quantizing the prediction error coefficient data from the quantization means and outputting the restored block coefficient data
  • the coefficient data of the prediction block output from the determining means is A second adder for outputting the restored block coefficient data by adding to the prediction error coefficient data output from the converter, and for storing the block data in the block memory;
  • Inverse conversion means for inversely converting the block coefficient data output from the second addition means to generate restored block image data.
  • the image prediction encoding apparatus includes: a sampling unit that samples an input image signal into image data of a plurality of blocks including pixel values in a two-dimensional array;
  • Conversion means for converting the image data of the plurality of blocks sampled by the sampling means into coefficient data of a predetermined conversion area
  • a quantizing means for quantizing the coefficient data of the transform area from the transforming means; a block memory for storing the restored block coefficient data; and a previously reconstructed block coefficient data stored in the block memory.
  • Prediction means for forming a plurality of prediction block coefficient data with respect to the block coefficient data converted by the conversion means,
  • the coefficient data of the most efficient prediction block and the scanning method are determined, selected and output, and the selected prediction block and the scanning method are represented.
  • Determining means for transmitting the indicator in the form of an instruction bit to the image predictive decoding device; and subtracting the coefficient data of the prediction block selected by the determining means from the current coefficient data of the current block.
  • First adding means for outputting coefficient data of a prediction error of a result,
  • the scan processing is performed on the coefficient data of the prediction error from the first adding means according to the scanning method determined by the determining means, and the scanning processing is performed.
  • Scanning means for outputting coefficient data of predicted error after processing, and coefficient data of predicted error after scan processing output from the scanning means are subjected to ben-mouth coding, and encoded coefficient data of predicted error Encoding means for transmitting to the image predictive decoding device,
  • the quantized coefficient data of the current block is restored and output.
  • a second adding means stored in the block memory By adding the coefficient data of the prediction error from the first adding means to the coefficient data of the prediction block output from the determining means, the quantized coefficient data of the current block is restored and output.
  • An inverse quantization means for inversely quantizing the coefficient data of the force-rent block output from the second addition means and outputting the result
  • An inverse transforming means for inversely transforming the coefficient data of the current block from the inverse quantizing means to generate restored block image data.
  • the image prediction encoding apparatus includes: a sampling unit that samples the input image signal into image data of a plurality of blocks each including a two-dimensional array of pixel values;
  • a compensating unit that generates and outputs image data of a motion-compensated block pre-equalization error by performing motion compensation processing on the input block image data
  • First adding means for subtracting the image data of the prediction error of the block output from the compensation means from the image data of the block output from the sampling means, and outputting the image data of the block as a subtraction result
  • Conversion means for converting the image data of the block output from the addition means of ⁇ 1 into coefficient data of a predetermined conversion area
  • a block memory storing coefficient data of the restored block, Prediction means for forming a plurality of prediction block coefficient data with respect to the block coefficient data converted by the conversion means based on the coefficient data of the previously reconstructed block stored in the block memory; ,
  • the coefficient data of the most efficient prediction block and the scanning method are determined, selected and output, and the selected prediction block and scanning method are selected.
  • Deciding means for transmitting an indicator indicating the above to the image prediction decoding apparatus in the form of an instruction bit, and subtracting the coefficient data of the prediction block selected by the deciding means from the coefficient data of the current block at the present time In this way, the second adding means for outputting coefficient data of the prediction error of the subtraction result,
  • Quantizing means for quantizing the coefficient data of the prediction error output from the second adding means
  • Scanning means for performing scan processing on the coefficient data of the prediction error from the quantization means by the scanning method determined by the determination means, and outputting coefficient data of the prediction error after the scan processing;
  • Encoding means for entropy encoding the coefficient data of the prediction error after the scanning process output from the scanning means, and transmitting the encoded coefficient data of the prediction error to the image prediction decoding device;
  • Inverse quantization means for inversely quantizing the prediction error coefficient data from the quantization means and outputting the restored block coefficient data
  • the coefficient data of the restored block is output, and the block A third adding means to be stored in the memory;
  • Inversely transforms the block coefficient data output from the third adding means The inverse transform means for generating the restored block image data, and the prediction error of the motion compensated block output from the compensation means is added to the restored block image data from the inverse transform means.
  • a fourth adding unit that outputs the restored image data of the block to the compensating unit by adding the image data.
  • the image predictive encoding apparatus includes: a sampling unit that samples an input image signal into image data of a plurality of blocks including pixel values in a two-dimensional array;
  • Compensation means for generating and outputting image data of a prediction error of the motion-compensated block by executing a motion compensation process on the input block image data
  • First adding means for subtracting the image data of the prediction error of the block output from the compensating means from the image data of the block output from the sampling means, and outputting the image data of the block resulting from the subtraction;
  • Conversion means for converting the block image data output from the first addition means into coefficient data of a predetermined conversion area
  • a quantizing means for quantizing the coefficient data of the transform area from the transforming means; a block memory for storing the coefficient data of the restored block; and a coefficient data of the block reconstructed before being stored in the block memory.
  • Prediction means for forming coefficient data of a plurality of predicted blocks based on the coefficient data of the block converted by the conversion means,
  • the coefficient data of the most efficient prediction block and the scanning method are determined, selected and output, and represent the selected prediction block and the selected scanning method.
  • Determining means for transmitting the indicator in the form of an instruction bit to the image predictive decoding apparatus;
  • the second adding means for outputting coefficient data of the prediction error of the calculation result by subtracting the coefficient data of the prediction block selected by the d determining means from the coefficient data of the current block at the present time;
  • Scanning means for executing scan processing on the coefficient data of the prediction error from the second addition means by the scan method determined by the determination means, and outputting coefficient data of the prediction error after the scan processing;
  • Encoding means for subjecting the coefficient data of the prediction error after the scan processing output from the scanning means to end lobby coding and transmitting the encoded coefficient data of the prediction error to an image prediction decoding device;
  • Inverse quantization means for inversely quantizing the current block coefficient data output from the third addition means and outputting the result
  • Inverse transforming means for generating restored block image data by inversely transforming the power-rent block coefficient data from the inverse quantizing means, and reconstructed block image data from the inverse transforming means.
  • a fourth adding unit that outputs the restored block image data to the complementing unit by adding the motion compensated block prediction error image data output from the capturing unit. .
  • An image prediction decoding device is an image prediction decoding device provided corresponding to the image prediction encoding device according to the fifth invention
  • Extracting means for extracting an instruction bit from the received data received from the image predictive encoding device, Based on the block memory for storing the restored block coefficient data and the predicted block indicated by the instruction bit extracted by the extracting means, the previously restored block coefficient data stored in the block memory is stored.
  • Another prediction means for generating and outputting predicted block coefficient data for the current block coefficient data included in the received data using
  • Decoding means for decoding the received data by end-to-peak decoding and outputting decoded coefficient data of a prediction error
  • the inverse scan processing is performed on the coefficient data of the prediction error output from the decoding means based on the scan method indicated by the instruction bit extracted by the extraction means, and after the inverse scan processing, Inverse scanning means for outputting coefficient data of the prediction error of
  • Inverse quantization means for inversely quantizing and outputting the coefficient data of the prediction error after inverse scan processing output from the inverse scan means
  • the coefficient data of the current block is restored and output by adding the coefficient data of the prediction block output from the other prediction means to the coefficient data of the prediction error output from the inverse quantization means. Together with a third adding means stored in the block memory,
  • Another inverse conversion means for inverting the coefficient data of the current block output from the third addition means and outputting the restored image data of the current block is provided.
  • An image prediction decoding device is an image prediction decoding device provided corresponding to the image prediction encoding device according to the sixteenth invention, wherein: Extracting means for extracting an instruction bit from the received data; A block memory for storing the restored block coefficient data, and a previously restored block stored in the block memory based on the predicted block indicated by the instruction bit extracted by the extracting means. Another prediction means for generating and outputting coefficient data of a prediction block with respect to the coefficient data of the current block included in the reception data using the coefficient data,
  • Decoding means for entropy decoding the received data and outputting coefficient data of the decoded prediction error
  • the inverse scan process is performed on the coefficient data of the prediction error output from the bowing means based on the scan method indicated by the instruction bit extracted by the extractor, and the inverse scan process is performed.
  • An inverse quantization means for inversely quantizing and outputting the prediction error coefficient data output from the third addition means
  • Another inverse transforming means for inversely transforming the current block coefficient data output from the inverse quantizing means and outputting the restored power current block image data.
  • an image prediction decoding device is an image prediction decoding device provided corresponding to the image prediction encoding device according to the seventh invention, wherein the image prediction encoding device Extracting means for extracting an instruction bit from received data received from the device; Based on the block memory for storing the restored block coefficient data and the predicted block indicated by the instruction bit extracted by the extraction means, the previously restored block coefficient data stored in the block memory is stored. Another prediction means for generating and outputting coefficient data of the prediction block with respect to the coefficient data of the current block included in the received data,
  • Decoding means for performing entropy decoding on the received data and outputting coefficient data of the decoded prediction error
  • the inverse scan process is performed on the coefficient data of the prediction error output from the decoding unit based on the scan method indicated by the instruction bit extracted by the above-described extraction unit.
  • Inverse scanning means for outputting coefficient data of prediction error
  • Inverse quantization means for inversely quantizing and outputting the coefficient data of the prediction error after the inverse scan processing output from the inverse scan means
  • Another inverse transforming means for inversely transforming the coefficient data of the current block output from the third adding means and outputting the restored image data of the current block;
  • Another compensating means for outputting motion prediction error data by performing motion compensation processing on the current block image data output from the other inverse transform means
  • an image prediction decoding device is an image prediction decoding device provided corresponding to the image prediction encoding device according to the eighteenth invention
  • Extracting means for extracting an instruction bit from the received data received from the image predictive encoding device
  • the previously restored block coefficient data stored in the block memory is stored.
  • Another prediction means for generating and outputting coefficient data of a prediction block with respect to the coefficient data of the current force rent block included in the received data is stored.
  • Decoding means for entropy decoding the received data to output decoded prediction error coefficient data
  • the inverse scan process is performed on the coefficient data of the prediction error output from the decoding unit based on the scan method indicated by the instruction bit extracted by the extraction unit, and the inverse scan process is performed.
  • the prediction error coefficient data output from the third addition means is dequantized.
  • Another inverse transform means for inversely transforming the current block coefficient data output from the inverse quantization means and outputting the restored image data of the current block;
  • the motion compensation prediction error data output from the another compensation means is subtracted from the current block image data output from the other inverse conversion means, and the block image data in which the subtraction result is restored is output. And a fifth adding means.
  • the image prediction encoding method according to the twenty-third invention includes a step in which each unit in the image prediction encoding apparatus is replaced with each step.
  • the image prediction decoding method according to the twenty-fourth invention includes a step in which each unit in the image prediction decoding apparatus is replaced with each step.
  • a recording medium according to a twenty-fifth aspect of the present invention is a recording medium that stores a program including each step in the image predictive encoding method.
  • a recording medium is a recording medium that stores a program including each step in the image prediction decoding method.
  • FIG. 1 is a block diagram illustrating a configuration of an image prediction encoding device according to a first embodiment of the present invention.
  • FIG. 2 is a schematic diagram when an input image input to the image predictive encoding device of FIG. 1 is divided into 8 ⁇ 8 blocks.
  • Fig. 3 shows the input image input to the image prediction encoding device in Fig. 1 in a triangular area. It is a schematic diagram at the time of dividing.
  • FIG. 4 is a block diagram showing a configuration of a first embodiment of a prediction signal generator used in the image prediction encoding device of FIG.
  • FIG. 5 is a block diagram showing a configuration of a second embodiment of the prediction signal generator used in the image prediction encoding apparatus of FIG.
  • FIG. 6 is a block diagram showing a configuration of a third embodiment of the prediction signal generator used in the image prediction encoding device of FIG.
  • FIG. 7 is a block diagram showing a configuration of a fourth embodiment of the prediction signal generator used in the image prediction encoding device of FIG.
  • FIG. 8 is a block diagram showing a configuration of an image prediction encoding device according to the second embodiment of the present invention.
  • FIG. 9 is a schematic diagram showing an example of an input image input to the image predictive coding apparatus of FIGS. 1 and 8, which has significant pixels.
  • FIG. 10 is a schematic diagram showing an example of an input image input to the image prediction encoding apparatus of FIGS. 1 and 8 and having significant pixels.
  • FIG. 11 is a schematic diagram showing an example of an input image input to the image predictive encoding device of FIGS. 1 and 8 and having an insignificant pixel.
  • FIG. 12 is a block diagram illustrating a configuration of an image prediction decoding device according to the third embodiment of the present invention.
  • FIG. 13 is a block diagram illustrating a configuration of an image prediction decoding device g according to the fourth embodiment of the present invention.
  • FIG. 14 is a block 11 showing the configuration of a conventional image predictive coding apparatus.
  • FIG. 15 is a schematic diagram of both images for explaining an adaptive DCT transform area for intra prediction.
  • FIG. 16 is a block diagram illustrating a configuration of an image encoding / coding apparatus according to a fifth embodiment of the present invention.
  • FIG. 17 is a block diagram illustrating a configuration of an image predictive encoding device according to a sixth embodiment of the present invention.
  • FIG. 18 is a block diagram showing a configuration of the DCT conversion area prediction circuit shown in FIGS. 16 and 17.
  • FIG. 19 is a schematic diagram of an image showing an example of an encoding method of DCZAC prediction in the DCT conversion domain prediction circuit of FIG.
  • FIG. 20 is a block diagram illustrating a configuration of an image prediction decoding device according to the seventh embodiment of the present invention.
  • FIG. 21 is a flowchart showing a decoding method of DCZAC prediction in the image prediction decoding apparatus of FIG.
  • FIG. 22 is a block diagram showing a configuration of a conventional image predictive coding apparatus.
  • FIG. 23 is a block diagram showing a configuration of a conventional image prediction decoding apparatus.
  • FIG. 24 is a block diagram illustrating a configuration of an image predictive encoding device according to an eighth embodiment of the present invention.
  • FIG. 25 is a block diagram illustrating a configuration of an image prediction decoding device according to the eighth embodiment of the present invention.
  • FIG. 26 is a schematic diagram of an image showing a structure of a macroblock and a block of a frame and showing a block prediction method in the eighth embodiment.
  • FIG. 27 is a schematic diagram of an image for explaining the order of horizontal scans used for coefficient scans in the eighth embodiment.
  • FIG. 28 shows a vertical scan used for the coefficient scan in the eighth embodiment.
  • FIG. 7 is a schematic diagram of an image for explaining the order of the buttons.
  • FIG. 29 is a schematic diagram of an image for explaining the order of zigzag scanning used for coefficient scanning in the eighth embodiment.
  • FIG. 30 is a flowchart showing a mode determination process used in the eighth embodiment.
  • FIG. 31 is a schematic diagram of an image showing a block relationship in an implicit mode determination according to the eighth embodiment.
  • the first embodiment group includes the first to fourth embodiments.
  • FIG. 1 is a block diagram illustrating a configuration of an image predictive encoding device according to a first embodiment of the present invention.
  • 101 is an input terminal
  • 102 is a first adder
  • 103 is an encoder
  • 106 is an output terminal
  • 107 is a decoder
  • 110 is a 2 is an adder
  • 1 1 1 is a line memory
  • 1 1 2 is a prediction signal generator.
  • Image data to be encoded is input to an input terminal 101.
  • the input image data is divided into a plurality of adjacent small areas.
  • FIG. 2 shows an image of the input image data when divided into 8 ⁇ 8 small regions
  • FIG. 3 shows an image of the input image data when divided into triangular small regions. Show.
  • the image data of a plurality of small areas are sequentially encoded, but the image data of the small area to be processed is input terminal 101 and line 1 It is input to the adder 102 via 13.
  • the prediction signal generator 112 generates the image data of the intra prediction small area, and uses the generated image data as the image data of the optimal prediction small area via the line 122 to the adder 1. 0 Output to 2.
  • the adder 102 subtracts the corresponding pixel value of the optimal prediction small region from the prediction signal generator 112 from the pixel value of the input image data in the small region to be processed, and calculates the difference of the subtraction result.
  • the encoder 103 includes a DCT converter 104 and a quantizer (Q) 105, and the image data of the small difference area is frequency-converted by a 0 ⁇ converter 104. It is converted to the image signal of the area, and DCT conversion coefficients are obtained. Next, the DCT transform coefficients are quantized by the quantizer 105.
  • the quantized image data of the small area is output to an output terminal 106 via a line ⁇ ⁇ 6, further converted into a variable-length or fixed-length code, and then stored in a recording medium such as an optical disk. Alternatively, it is transmitted via a communication line (not shown).
  • the quantized image data of the small area is input to a decoder 107, where the decoder 107 includes an inverse quantizer 108 and an inverse DCT transformer 109. And restores the input image data of the small area to the image data of the expanded difference small area.
  • the input small region image data is inversely quantized by the inverse quantizer 108, and then the inversely quantized image data is converted to an inverse discrete cosine transform (hereinafter, inverse DCT transform). ) It is converted into a spatial domain image signal by 109.
  • the image data of the expanded difference small area obtained in this way is output to the adder 110, and the adder 110 converts the image data of the expanded difference small area into a line 1 2 from the prediction signal generator 1 12 1 and the optimal predicted image signal output via lines 1 2 2 Then, a reproduction pixel value for generating an in-picture predicted image signal from the solid image data of the reproduction small area is stored in the line memory 111.
  • the prediction signal generator 112 generates image data of a prediction small area in a screen as follows. That is, the prediction signal generator 112 generates the pixel value of the reproduced image data adjacent to the image data of the small area to be processed as the pixel value of the image data of the intra prediction small area.
  • the pixel values of the adjacent reconstructed image data a 0, a ,, a 2, ..., A e, a 7, b 0, bb 2 ,..., B 6 , b 7 .
  • the pixel values of adjacent reproduced image data are g :), g..., ⁇ 0, f1 .f2,. , it is a f 8. Also the figure
  • the pixel values of the adjacent reproduced image data are e 0 , h 0 , h !,..., H 4 . These pixel values are stored in the line memory 111.
  • the prediction signal generator 112 accesses the line memory 111 and reads out the pixel values of the adjacent image data as the pixel values of the image data in the intra prediction small area.
  • FIGS. 4 and 5 are block diagrams each showing the configuration of the first and second embodiments of the prediction signal generator used in the image prediction encoding apparatus of FIG.
  • pixel values a 0 , a, a 2 ,..., A 6 , and a 7 that are horizontally adjacent to the small region to be processed are input from the line memory 111 to the prediction signal generator 112.
  • the generator 401 in the prediction signal generator 112 repeatedly outputs the same pixel in the horizontal direction, for example, eight times to generate the image data 403 of the intra-prediction small area.
  • the image data 403 of the intra prediction small area is used when there is no pixel adjacent to the processing target small area in the vertical direction.
  • pixel values b 0 , bi, b 2 ,..., B 6 , and b 7, which are vertically adjacent to the small region to be processed, are stored in the line memory 111 from the prediction signal generator 112.
  • the generator 402 in the prediction signal generator 112 generates image data 404 of the intra prediction small area by repeatedly outputting pixels in the vertical direction, for example, eight times. .
  • the image data 404 of the intra prediction small area is used when there is no pixel horizontally adjacent to the small area to be processed.
  • the image data of the intra prediction small area is generated as in the third embodiment shown in FIG.
  • FIG. 6 is a block diagram showing a configuration of a third embodiment of a prediction signal generator used for the image prediction encoding apparatus of FIG.
  • image data 4003 (see FIG. 5) of the predicted small area in the screen generated by the generator 401 and image data of the predicted small area in the screen generated by the generator 402 404 is input to an adder 500, and the adder 50,000 averages these two pieces of image data by dividing the sum of the two pieces of input image data by two.
  • the adjacent reproduced pixels are repeatedly output and output by the generator 41.4.002, and the averaging operation is merely performed by the adder 500.
  • the image data of the intra prediction small area may be generated by linearly interpolating the pixel values of two adjacent image data.
  • FIG. 7 is a block diagram showing a configuration of a fourth embodiment of the prediction signal generator used in the image prediction encoding device of FIG.
  • the image data evening pixel values a 0 adjacent in the horizontal direction with respect to the objective small region to be processed, a have a 2,..., A 6, a 7 , the line memory 1 1 1 or we generated Is input to the generator 401, and the generator 401 repeats pixels in the horizontal direction.
  • the generator 402 generates image data of the second intra prediction small area by repeatedly outputting pixels in the vertical direction.
  • the image data of the first predicted small area in the screen and the image data of the second predicted small area in the screen are manually input to the adder 500, and these two pieces of image data are averaged to obtain a third screen. Generate image data of the predicted small area.
  • the image data of the small area to be processed is input to the error calculators 60 1, 60 2, and 60 3 via the line 6 16.
  • the image data of the first predicted small area in the screen and the image data of the small area to be processed are input to the error calculator 600, and the error calculator 600 The first absolute error, which is the absolute value of the error, is calculated and output to the comparator 604.
  • the image data of the second small intra-screen prediction region and the image data of the small region to be processed are input to an error calculator 602, and the error calculator 602
  • the second absolute error which is the absolute value of the error of, is calculated and output to the comparator 604.
  • the image data of the third intra prediction small area and the image data of the small area to be processed are input to an error calculator 603, and the error calculator 603
  • the third absolute error which is the absolute value of the error, is calculated and output to the comparator 604.
  • the comparator 604 compares the three input absolute errors with each other, determines the one with the smallest absolute error, and puts the corresponding image data of the predicted small area in the screen into line 122.
  • Switch 605 is controlled to output.
  • the comparator 604 simultaneously outputs an identifier for identifying the image data of the first, second and third predicted small areas in the screen via the line 615 to a device on the receiving side or the reproducing side. Output to With this identifier, the image data of the intra prediction small area is uniquely determined on the receiving side or the reproducing side.
  • FIG. 8 is a block diagram showing a configuration of an image predictive encoding device according to a second embodiment of the present invention, and the same components as those in FIG. 1 are denoted by the same reference numerals.
  • the image predictive coding device of FIG. 8 has a motion detector 700, a motion compensator 701, an optimal mode selector 703, and a frame memory 700. Is additionally provided.
  • the input image data of the small area to be processed is input to the adder 102 via the input terminal 101, and the adder 102 Is subtracted from the image data of the optimal prediction small region inputted from the optimal mode selector 703 via the line 121, and the resulting image data is coded by the encoder 1 0 Output to 3.
  • the encoder 103 compresses the input subtracted image data and outputs it through the output terminal 106, and at the same time, decodes the image data of the compressed small area. After being output to the adder 107 and subjected to decompression decoding, it is output to the adder 110 to add the decompressed and decoded image data to the image data of the optimal prediction small area.
  • the detector 700 stores image data of a small area to be processed and a frame memory.
  • the reproduced image data stored in 720 is input, and the motion detector 700 detects the motion of the image by a method such as block matching and outputs the motion vector via the line 705. I do.
  • the output motion vector is, for example, variable-length coded and stored or transmitted (not shown), and at the same time, is sent to the motion compensator 70 1.
  • the motion compensator 701 generates image data of the temporal prediction small area from the reproduced image of the frame memory 702 based on the motion vector, and outputs the image data to the optimal mode selector 703.
  • there are forward prediction, backward prediction, and bidirectional prediction are disclosed in, for example, US Pat. No. 5,193,004. I have.
  • the prediction signal generator 112 generates image data of the intra prediction small area and outputs the image data to the optimal mode selector 703, and at the same time, outputs the small data to be processed.
  • the image data of the area is output to the optimal mode selector 703.
  • the optimal mode selector 703 selects the image data of the small region to be processed from the image data of the intra-screen prediction small region and the image data of the time prediction small region, and generates the most error (for example, the absolute difference of each pixel). (The sum of the values) is selected, and the selected image data is output to the adder 102 as the image data of the optimal prediction small area.
  • an identifier indicating which predicted small area image data is selected is output to the receiving side or the reproducing side via the line 709 and transmitted.
  • the intra-frame motion vector is not required to transmit the inter-frame motion vector by introducing the intra prediction into the inter-frame motion capture coding image data, the number of bits can be further reduced.
  • significant pixels are present on the entire screen. There may be pixels that are not significant if they are not significant in the screen. For example, in an image taken with chroma keying, the pixels representing the subject are significant, Pixels representing an area such as a blue scene are insignificant pixels.
  • a prediction signal generator For such an input image, a prediction signal generator
  • FIG. 9 to FIG. 11 show schematic diagrams of an input image having significant pixels and non-alligible pixels.
  • a shape signal is used to indicate whether a pixel is significant.
  • the shape signal is compressed and encoded by a predetermined method and transmitted to the receiving side or the reproducing side.
  • a method of encoding a shape there is a method such as tune encoding.
  • the compressed shape signal is expanded and reproduced again, and the two-sided prediction signal is generated using the reproduced shape signal as described below.
  • the shape curve 800 is a boundary line, the direction indicated by the arrow is inside the object, and the image data inside the object is composed of significant pixels.
  • B 4 , b 5 , b fi , and b 7 are significant pixels among the reproduced pixels adjacent to the processing target small area 800 2, and only these pixel values are repeated to process the small area. It is assumed that the pixel value of the intra-screen prediction small area of 802 is used.
  • the shape curve 804 is the boundary line, the direction indicated by the arrow is inside the object, and the image data inside the object is composed of significant pixels.
  • a 4 , a 5 , a e , and a 7 are significant pixels. It is assumed that the pixel value is that of the intra prediction small area in the area 805.
  • the curve 8 ⁇ 8 is the boundary line, the direction indicated by the arrow is inside the object, and the image data inside the object is composed of significant pixels.
  • a a 5, a 6, a 7 , b 4, b 5, b 6, b 7 significant pixel, the pixel Value only Output is repeated, and where two pixel values overlap, a value obtained by averaging those pixel values is used as the pixel value of the intra-screen prediction small area of the small area 810 to be processed.
  • the value of a pixel z 77 of the small region 810 to be processed is the average value of a 7 and b 7. Where there are no pixel values, take the average of the two pixel values that are adjacent in the horizontal and vertical directions. For example, the value of a pixel z 14 is the average value of a 5 and b 4. In this manner, image data of a screen prediction small area of an image having an arbitrary shape is generated.
  • an average value may be obtained using only significant search values, and the average value may be used as the pixel value of the intra-screen prediction small area. Specifically, in FIG. 9, the average value of the pixels b 4 , b 5 , b fi , and b 7 is measured, and the calculated average value is used as the pixel value of the intra-screen prediction small area.
  • FIG. 12 is a block diagram illustrating a configuration of an image prediction decoding device according to the third embodiment of the present invention.
  • 901 is an input terminal
  • 902 is a data analyzer
  • 903 is a decoder
  • 906 is an adder
  • 907 is an output terminal
  • 908 is a controller
  • 909 is a motion compensator
  • 910 is a prediction signal generator
  • 911 is a line memory
  • 912 is a frame memory.
  • the compression-encoded image data is input to a data analyzer 92, which analyzes the input image data and converts the image data of the compression difference small area.
  • the decoder 903 includes an inverse quantizer 904 and an inverse DCT transformer 905, and decompresses the compressed image data of the small difference area to obtain image data of the expanded difference small area. Restore.
  • the compressed image data of the small difference area is inversely quantized by the inverse quantizer 904, and the image data of the frequency domain after inverse quantization is transformed by the inverse DCT converter 905. Is converted into image data in the spatial domain.
  • the converted image data of the expanded difference small area is input to the adder 906, and the adder 906 converts the input image data of the expanded difference small area to the motion compensator 923 or the prediction signal generation. It adds to the image data of the optimal prediction small area sent from the switch 9222 via the switch 913 and the line 9224 to generate image data of the reproduced small area as a result of the addition.
  • the adder 906 outputs the reproduced image data to an output terminal 907 via a line 917 and, at the same time, stores it in the frame memory 912. Also, the pixel value of the image data used to generate the image of the intra prediction small area is stored in the line memory 911.
  • the image data of the optimal prediction small area is determined by the controller 908 based on the control signal from the data analyzer 902, and the switching of the switch 913 is controlled.
  • the switch 913 connects the line 922 to the line 922 and responds to the control signal from the controller 908.
  • Prediction signal generator The 910 accesses the line memory 911 and outputs an adjacent reproduced pixel value as a pixel value of the intra prediction small area. The details of the operation of the prediction signal generator 910 have been described above with reference to FIGS. 4, 5, and 6.
  • the switch 913 connects the line 924 to the line 923, and the controller 908
  • the motion estimator 909 converts the image data from the frame memory 912 based on the motion vector sent from the data analyzer 902 via the line 925.
  • image data of the temporal prediction small area is generated and output to the adder 906 via the switch 913 and the line 924.
  • FIG. 13 is a block diagram showing a configuration of an image predictive decoding device according to a fourth embodiment of the present invention.
  • the image prediction decoding apparatus of FIG. 13 is characterized in that a shape decoder 990 is additionally provided in addition to the basic configuration of the image prediction decoding apparatus of FIG. Since the basic operation of the image prediction decoding apparatus in FIG. 13 is also the same as that in FIG. 12, only different operations will be described in detail below.
  • the compression-encoded image data includes the compression-encoded shape data.
  • the data analyzer 902 extracts the shape data and outputs it to the shape decoder 990, and in response, the shape decoder 990 expands and reproduces the shape signal.
  • the reproduced shape signal is transmitted to the receiving side or the reproducing side, and at the same time, is input to the prediction signal generator 910.
  • the prediction signal generator 910 generates image data of the intra-screen prediction small area based on the reproduced shape signal, as described with reference to FIGS. 9 to 11. In this way, image data of an intra-screen prediction small area of an image having an arbitrary shape is generated, On the receiving side or the reproducing side, the ghost image data can be decoded and reproduced.
  • a feature of the third and fourth embodiments is that a line memory 911 is provided. If there is no line memory 911, it is necessary to access pixels for generating image data of the intra prediction small area from the frame memory 912. It is necessary to write and read frame memory at high speed in order to generate prediction signals using pixels in adjacent small areas. By providing a dedicated line memory and buffer, it is possible to generate image data of the intra prediction small area at high speed without using a high-speed frame memory.
  • the average value of the plurality of pixel values may be a predetermined weighted average value.
  • the reproduced pixel value adjacent to the image data of the small area to be processed is merely used as the pixel value of the intra-screen prediction signal.
  • the line memory 911 is provided to store the reproduced pixel values used for generating the intra-screen prediction signal, the pixel values can be accessed at high speed, and the intra-screen prediction can be performed. A signal can be generated at high speed.
  • the second embodiment group includes the fifth to seventh embodiments.
  • the present inventor has found that the image coding efficiency is not only between two images or between two blocks in one image, but also between two images in one image. We have found that removing the redundancy between blocks further improves image coding efficiency.
  • the inventor has found that the DCT transform coefficients at the same location on adjacent blocks are often very similar. In particular, we have found that the approximation is high if the textures of the original images for the two blocks are very similar, or contain the same image pattern, for example, straight lines, corners, etc. The same information is redundant by information theory.
  • the present embodiment according to the present invention provides a method of appropriately predicting DCT transform coefficients from other blocks. This scheme removes redundancy that exists beyond adjacent blocks, reduces the entropy of the quantized DCT transform coefficients, and consequently the number of bits required to encode the DCT transform coefficients Can be reduced.
  • the DCT transform coefficient of the current block to be processed (hereafter, the current block) can be predicted from the DCT transform coefficient at the same position in the previous adjacent block. Adjacent blocks have already been decoded during processing. That is, the first DC coefficient is predicted by the first DC coefficient in one of the previously decoded neighboring blocks. Also, the second coefficient AC 1 is predicted from the second coefficient AC 1 in the same decoded block. Thereafter, the same operation is performed.
  • the block is entropy-encoded and transmitted to an image prediction decoding device on the reception side or the reproduction side together with an additional indication bit.
  • the image prediction decoding apparatus reports from which adjacent block the power-rent block is predicted.
  • the method of the present embodiment according to the present invention can predict the DCT transform coefficient of the current block.
  • the DCT transform coefficients generally have good correlation with the DCT transform coefficients of other adjacent blocks. The reason is that the DCT transform tends to give the same value or the same distribution of DCT transform coefficients to similar block images.
  • a block-based DCT transform process is performed on input image data, which is an intra frame or a temporarily predicted frame.
  • DCT transform coefficients of Karen heat block is obtained, before quantizing the prediction processing of the DCT transform domain, also Ru can be performed after the quantization Q
  • the DCT transform coefficients of the current block are already decoded blocks and are adjacent blocks, that is, the upper left block B1, the upper block B2, and the upper right block B 3. You can predict from the left block B4.
  • the predicted block is obtained by subtracting all of the DCT transform coefficients of the current block from all of the DCT transform coefficients of the previous adjacent block at the same location. All DCT transformations It can be obtained by partially subtracting the DCT transform coefficient instead of the transform coefficient.
  • the predicted DCT transform coefficients in the different predicted blocks are quantized if the prediction is performed before quantization.
  • entropy encoding is performed on the DCT conversion coefficient.
  • the entropy coding process is the same as that of the image predictive coding device, and a check is made as to which predicted block is used as the lower bit.
  • a prediction block using the lower bit is selected, and the selected prediction block is encoded with an instruction bit that informs the image prediction decoding device of the prediction decision.
  • a block predicted using the indication bit is decoded. That is, after inverse entropy decoding of the DCT transform coefficient predicted for one block, the DCT transform coefficient for the block is determined by the reference DCT of the adjacent block decoded before being represented by the indicator bit. It is obtained by adding the transform coefficient to the decoded DCT transform coefficient. Finally, the inverse DCT transform is applied to the reconstructed DCT transform coefficients for each block, yielding decoded image data.
  • the present embodiment according to the present invention includes spatial redundancy normally removed by a transform such as DCT, redundancy removed between frames by motion detection and use, and quantized transform coefficients in a block.
  • a transform such as DCT
  • redundancy removed between frames by motion detection and use and quantized transform coefficients in a block.
  • other types of redundancy existing in the DCT domain beyond adjacent blocks can be reduced. Is what you do.
  • Image predictive coding devices commonly used for image coding include a block sampling unit 1001, a DCT transform unit 1004, a quantizer 1005, An entropy encoder 106 is provided.
  • intra-frame coding block sampling processing is first performed on a manually input image signal. Next, the DCT conversion processing is directly performed. Subsequently, a quantization process and an edge-to-peak coding process are performed.
  • inter-frame coding prediction frame coding
  • the current frame to be processed is applied to the motion detection unit 1002 and the motion compensation unit 1 for the image data. The process of 03 is performed, and the DCT conversion process is further performed. Further, a quantization process and an entropy coding process are performed.
  • the quantized value is converted into an entropy code and the data is output.
  • Entropy coding is a method that assigns short codewords to frequently occurring values and long codewords to values that occur less frequently, and encodes them closer to the average information entropy. This is a method for greatly reducing the code amount. This is lossless coding.
  • Various schemes have been proposed for entropy coding, and Huffman coding is used in the baseline system. The Huffman coding method differs between the quantized DC coefficient value and AC coefficient value, that is, the DC coefficient indicates the average value of an 8 ⁇ 8 pixel block, but in a general image, the average value of the adjacent block is used. Values often have similar values.
  • entropy coding is performed after taking the difference from the previous block.
  • the values concentrate around 0, so that entropy coding is effective.
  • AC staff For numbers for example, zigzag scan is performed to convert 2D data into 1D data.
  • entropy coding is performed using a set of AC coefficient values having values other than 0 and the number of 0s before them (run-length) as a set.
  • the rate controller 1007 feeds back the bits used in the previously encoded block, controls the processing of the quantization unit 1005, and modulates the code bit rate. adjust.
  • the rate controller 1007 uses different characteristics for each coded object data, each frame and each coded block based on the properties of the coded unit and available bits. Control the code bit rate to allocate a certain amount of bits.
  • the inverse quantization process and the inverse DCT conversion process are performed in the units 108 and 109 as a part of the ID-cal decoder.
  • the image data decoded by the local decoder is stored in the oral decoding frame memory 11010 and used for motion detection processing.
  • Reference numeral 101 denotes a reference frame memory for storing a previous original frame for motion detection.
  • the bitstream is output from the entropy coding unit 106 and sent to the image predictive decoding device on the receiving or reproducing side.
  • FIG. 15 is a schematic diagram of an image for explaining an adaptive DCT conversion area for intra prediction.
  • FIG. 15 shows that, in the DCT conversion domain, four 0 ⁇ 0 conversion blocks of 8> ⁇ 8 constitute a macro block.
  • B 0 indicates the current calendar block having a DCT transform coefficient of 8 ⁇ 8.
  • B2 indicates the upper adjacent block that has already been decoded.
  • B1 and B3 denote the two adjacent blocks that have been decoded and located diagonally above.
  • B4 indicates the immediately preceding block on the left.
  • Blocks with DCT transform coefficients are 8 It can be seen from FIG. 15 that prediction can be made from a plurality of adjacent decoded blocks having 8 DCT transform coefficients.
  • the block from which the rent block was predicted is always different. Therefore, a decision based on the minimum bit usage rule is performed, and the decision is adaptively given to different blocks on the image predictive decoding device side. The decision is notified to the image predictive decoding device by an instruction bit.
  • the minimum bit usage rule is used to determine a prediction method among a plurality of different prediction methods, and after each prediction method is applied, the amount of bits used to encode a block is determined. Counted. As a result, the method that yields the least amount of bits used is selected as the prediction method to use.
  • DCT domain prediction can be performed after and / or before quantization.
  • FIG. 16 is a block diagram showing a configuration of an image prediction encoding device according to a fifth embodiment of the present invention.
  • the image prediction encoding apparatus in FIG. 16 is characterized in that the DCT transform area prediction processing is executed after the quantization processing.
  • block sampling is performed on the input image signal by the block sampling unit 101.
  • the sampled block image data passes through the adder 101 without being processed by the adder 103, and passes through the DCT transform unit 101. Entered in 4.
  • the adder 103 subtracts the motion detection image data output from the motion detection and complementary unit 105 from the sampled block image data.
  • the image data resulting from the subtraction is output to the DCT unit 104.
  • the quantization processing is executed in the unit 1015.
  • the DCT transform area prediction processing is executed in unit 1017, and 1018 is a block memory for storing blocks previously decoded for prediction.
  • the adder 1016 subtracts the decoded adjacent block output from the DCT transform domain prediction unit 1017 from the current DCT transform block output from the quantization unit 1015.
  • the determination of the coded adjacent block is performed in the DCT transform domain prediction unit 1017.
  • the unit 1020 performs an entropy VLC coding process on the predicted DCT transform block, and the coded bits are written to the bitstream.
  • the adder 1019 restores the current DCT transform block by adding the adjacent block before being used for prediction to the prediction block.
  • inverse quantization processing and inverse DCT conversion processing are performed on the restored DCT transform block in units 1021 and 1022, respectively.
  • the block image data that is locally decoded and output from the inverse DCT transform unit 1022 is input to the adder 1023.
  • the adder 1023 adds the image data of the previous frame to the restored block image data. By performing the addition, the reconstructed image data is obtained and stored in the frame memory 102.
  • Motion detection and compensation processing is performed at unit 1025.
  • Frame memory 1024 is used to store previous frames for motion detection and compensation processing.
  • FIG. 17 is a block diagram showing a configuration of an image prediction encoding device according to the sixth embodiment of the present invention.
  • the bi-prediction coding device shown in Fig. 7 performs quantization processing. Is characterized in that a DCT conversion region prediction process is executed before. A block sampling process is performed in the unit 1026 on the input image signal.
  • the adder 102 performs subtraction for predictive frame coding, and the ghost image data resulting from the subtraction is passed through a DCT transform unit 1028, an adder 1029, and a quantization unit 1030 to perform entropy VLC coding. It is output to unit 1 G34 and inverse quantization unit 1033.
  • the block memory 1032 stores the image data of the previous block for the DCT conversion area prediction processing of the unit 1031.
  • the image data of the current DCT conversion block output from the DCT conversion unit 1028 is subtracted by the adder 1029 from the DCT conversion block previously selected by the DCT conversion area prediction unit 1031 according to the rules for using the minimum bit. Is done.
  • the image data of the DCT transform block resulting from the subtraction is quantized by the quantization unit 1030, and then output to the inverse quantization unit 1033 and the end-to-end VLC encoding unit 1034.
  • the inverse quantization unit 1033 restores the input quantized image data of the DCT transform block by inverse quantization and outputs the restored image data to the adder 1055.
  • the adder 1055 adds the restored image data of the DCT transform block to the image data of the previous DCT transform block from the DCT transform region prediction unit 1031, and adds the image data of the block before the addition result.
  • the image data is stored in the block memory 1032 and output to the inverse DCT conversion unit 1036.
  • the inverse DCT transform unit 1 ⁇ 36 performs an inverse DCT transform process on the image data of the block before being input from the adder 1035, and outputs the restored image data after the transform process to the adder 1037. Output.
  • the adder 1037 operates on the restored image data output from the inverse DCT transform unit 1036.
  • the image data of the frame before being output from the detection and compensation unit 1025 is added, the image data of the addition result is temporarily stored in the frame memory 1038, and then output to the motion detection and compensation unit 1025. Is done.
  • FIG. 18 is a block diagram showing the configuration of the DCT transform region prediction circuits 1017 and 1031 in FIGS. 16 and 17.
  • reference numeral 1040 denotes a block memory for storing image data of a previous adjacent block for prediction.
  • the current power block to be processed is input to unit 1041, and unit 1041 is the image data of the power block input from the previous adjacent DCT conversion block stored in block memory 1040. Is subtracted to obtain the following four types of predictive DCT transform block image data.
  • OCT indicates No-Pred block
  • 01 indicates Up-Pred block
  • 10 indicates Left-Pred block
  • 11 indicates ⁇ ther-Pred block. Is shown.
  • the No—Pred block is the current image data of the DCT transform block at the time of no prediction.
  • the Up-Pred block shows the image data of the prediction block obtained when the block used for prediction is the DCT conversion block B2 adjacent above.
  • the Left-Pred block is a DCT transform block B4 whose block used for prediction is adjacent to the left side. 5 shows image data of a prediction block obtained on a platform.
  • 0 ther—Pred block indicates the image data of the predicted block when prediction is performed only on the DC coefficient.
  • 0 ther—In the case of P red there are two types of prediction methods. That is, Up—DC—Pred (1046) indicates the image data of the prediction block obtained when the prediction is performed only on the DC coefficient based on the DCT transform block B2 adjacent above.
  • Le ⁇ t-DC-P red (1047) indicates the image data of the prediction block obtained when the prediction is performed only for the DC coefficient based on the DCT transform block ⁇ ⁇ 4 adjacent to the left side. For these two cases, another bit is needed for the indication. For example, "0" is used to indicate Up—DC—Pred (1046), and “ ⁇ ” is used to indicate Left—DC—Pred (1047).
  • unit 1048 All predicted blocks are checked and checked by the actual entropy coding process performed by unit 1048. The bits used for the different predicted blocks are compared in unit 1049. Finally, unit 1050 determines the predicted DCT transform block based on the minimum bit usage rules and outputs the predicted DCT transform block along with the instruction bits. That is, the predicted DCT conversion block having the smallest number of bits is selected.
  • FIG. 19 is a schematic diagram of an image showing an example of an encoding method of DCZAC prediction in the DCT transform domain prediction circuit of FIG.
  • the current block 1101 is the upper left 8 ⁇ 8 block of the current macroblock
  • the current block 1102 is the upper right 8 ⁇ 8 block of the current macroblock.
  • a and B are 88 blocks adjacent to the current block 1101.
  • the highlighted top row and left column of current block 1101 are each predicted from the same location of adjacent blocks A and B. That is, the top row of the current block 1101 is predicted from the top row of the block A above it, and the left column of the current block 1101 is predicted from the left row of the block B on the left.
  • the current block 1102 is predicted from the block D above and the force block 1 to the left.
  • C (u.v) be the block to be coded
  • Ei (u.v) be the prediction error in mode i, where each block of A (u, V) and / or B (u.V) It is assumed that the calculated value is obtained by subtracting the predicted value from the calculated value. In actual implementation, only the following three most frequent modes described in Section B1 are used.
  • the mode selection is the sum of the absolute values of the errors predicted for the four blocks of luminance signals in the macro block, S AD m . This is done by calculating de i and selecting the mode with the smallest of them.
  • Mode determination can be performed both on a block basis and on a macroblock basis, depending on the differences in applications targeting different coding bit rates.
  • the modes are encoded using the variable length codes in Table 1 below.
  • QacA be the quantized DCT transform coefficients of block A (see Figure 19) and QacB be the quantized DCT transform coefficients of block B (see Figure 19). If Q step A is the quantization step used for quantizing block A, Q step B is the quantization step used for quantizing block A, and Q step C is the quantization step for current block C. This is the quantization step to be used for the following, so the scaling equation is as follows.
  • Q 'ac A (Qa c AxQ ste pA) / Qs tep C (5)
  • Q' ac B (Qa c BxQ step B) / Q step C (6)
  • Q 'ac A is the DCT transform coefficient from block A, which is used to predict the top row of the current block C.
  • Q ′ ac B is a DCT transform coefficient from block B, and is used for prediction of the left column of current block C.
  • FIG. 20 shows a configuration of an image prediction decoding apparatus according to a seventh embodiment of the present invention.
  • the bit stream from the image predictive coding apparatus is input to a unitary peak VLD decoding unit 1051, and is subjected to variable length decoding.
  • the decoded image data is added to the image data of the previous adjacent DCT conversion block from the DCT conversion area prediction unit 105 by the adder 105 so that the DCT conversion block is obtained.
  • the image data is restored.
  • the previously adjacent DCT conversion block is identified by an indication bit extracted from the bitstream, and is used for prediction in the unit 105.
  • Reference numeral 105 denotes a block memory for storing adjacent DCT conversion blocks used for prediction.
  • the restored DCT conversion block obtained from the adder 1 ⁇ 52 is output to the inverse DCT conversion unit 105.
  • the inverse DCT transform unit 105 generates an image data of the restored DCT transform coefficient by performing the inverse DCT transform process on the input DCT transform block, and outputs the image data to the adder 105. Output.
  • the adder 105 may add the restored image data from the inverse DCT transform unit 105 to the image data of the previous frame from the motion detection and compensation unit 105 by adding It generates and outputs image data that has been motion-detected, compensated and decoded.
  • the decoded image data is temporarily stored in a frame memory for storing image data of a previous frame for motion detection and compensation, and then output to the motion detection and compensation unit 105. It is.
  • the motion detection and compensation unit 1057 performs a motion detection and compensation process on the input image data.
  • the decoded image data output from the adder 106 is the inverse of the processing corresponding to the processing of the block sampling units 101, 26 in FIGS. 16 and 17.
  • reference numeral 1059 denotes an inverse quantization unit.
  • the inverse quantization unit 1059 is the inverse quantization unit 1059 in FIG.
  • the inverse quantization unit 1059 is inserted at the position 1059 b in FIG. .
  • FIG. 21 is a flowchart showing a decoding method of DCZAC prediction in the image prediction decoding device of FIG. That is, FIG. 21 illustrates details of decoding of a bitstream for acquiring a DC / AC prediction mode and reconstructing a DCT transform coefficient from an adjacent DC ZAC prediction value.
  • step 1059 the instruction bit is decoded from the input bit stream, and in step 1060, the flag of the instruction bit is checked, and if it is “0”, the upper block and the upper block are decoded in step 1061.
  • the DC value is calculated from the average value of the image data of the left block, and the flow advances to step 1063. If “NO” in the step 1060, the process proceeds to a step 1062. If the instruction flag checked in the step 1062 is “10”, the image data of the left column of the left block is extracted in a step 1063, and the process proceeds to a step 1065. If “NO” in the step 1062, the process proceeds to a step 1064.
  • step 1064 If the display flag checked in the step 1064 is “11”, the image data of the uppermost line of the upper block is extracted in a step 1065, and the process proceeds to a step 1066. Finally, in step 1066, the DCT transform coefficients obtained or extracted in steps 1061, 1063, or 1065 are added to the corresponding DCT transform coefficients of the current block.
  • the two-dimensional array of pixels in the group of blocks consists of the odd pixels in the odd rows in the first block, the even pixels in the odd rows in the second block, An interleaving process that alternately interpolates pixels may be included, such as three blocks consist of odd-numbered pixels in even-numbered rows, and the fourth block consists of even-numbered pixels in even-numbered rows. .
  • the prediction block is selected from blocks stored in the block memory and previously restored and located adjacent to the encoded current block. All of the conversion coefficients may be selected.
  • the prediction block is selected from blocks that are stored in the block memory and that have been previously restored and that are positioned adjacent to the encoded current block,
  • the determined subset may be selected as the block conversion coefficient.
  • the prediction block is a block stored in the block memory and previously restored, from blocks located adjacent and above and to the left of the encoded power block. Only the transform coefficients selected and the top row of the block and the leftmost column of the block may be used, and the remaining transform coefficients may be set to zero.
  • the prediction block is a block stored in the block memory and previously restored, and is selected from blocks located in the vicinity of the encoded current block.
  • the coefficients may be weighted with different weighting factors.
  • the prediction block is a previously restored block stored in the block memory and located near the coded current block. And the conversion operation may be performed on the conversion coefficient of each block.
  • the prediction block is a block stored in the block memory and previously restored, and is a weighted average of a plurality of blocks located in the vicinity of the coded current block. May be done.
  • the even-numbered pixels in the odd-numbered rows are obtained from the second block, the odd-numbered pixels in the even-numbered rows are obtained from the third block, and the even-numbered pixels in the even-numbered rows are obtained.
  • the reverse interleaving process may be performed on the decoded image data as determined from the fourth block.
  • the second embodiment group of the present invention it is possible to provide a new image prediction coding device and a new image prediction decoding device that increase the coding efficiency at the current time.
  • This device does not require complicated means to increase the coding efficiency, and its circuit configuration is very simple and easy to form.
  • the third embodiment group includes the eighth embodiment.
  • the present inventor considers that the image coding efficiency is not only the redundancy between two images or inside a block in one image, but also the redundancy between blocks in an image.
  • the idea was to reduce the cost and improve the redundancy by optimizing the scan pattern of the block.
  • VLC Entoropi coding can achieve higher coding efficiency for the smaller entropy of a prediction error signal ⁇
  • the embodiment according to the present invention applies a scan based on the prediction mode. Adaptation can solve the above-described problem in coefficient scanning.
  • An embodiment according to the tree invention provides a method for adaptively predicting the DCT transform coefficients of a current block from other blocks, and thereby eliminating redundancy between adjacent blocks.
  • the prediction error information is further reduced by adapting the scan method to a prediction mode that makes the quantized DCT transform coefficient entropy smaller. As a result, the number of bits for encoding the DCT transform coefficients can be reduced.
  • Embodiments according to the present invention provide a method for predicting a DCT transform coefficient of a current block. Since the DCT transform tends to give the same value or the same distribution of DCT transform coefficients to the image data of the same block, the current block usually has a good correlation with the DCT transform coefficients in other adjacent blocks. are doing.
  • the input image data is either an intra-frame or a temporally predicted frame.
  • DCT transform processing based on ordinary blocks is performed on the input image data. Be executed. After the DCT transform coefficients of the current block are obtained, the prediction of the DCT transform domain can be performed before or after quantization.
  • the DCT transform coefficients in the current block can be predicted from the previous adjacent block located diagonally (oblique) to the upper left. They have already been decrypted at that time, as shown in Figure 23.
  • the predicted block is the DCT coefficient at the same position in the current block Generates the predicted error signal by subtracting one or more DCT coefficients from the previous adjacent block from.
  • the prediction error signals from the different prediction modes are quantized if the prediction is made before the quantization process.
  • the quantized prediction error signal is scanned against the sequence of image data before entropy coding is performed.
  • the block predicted based on the minimum bit usage rule, that is, the predicted block having the minimum bit, is selected.
  • the encoded data of this block is sent to the image prediction decoding device together with the prediction mode to be used.
  • the image prediction decoding apparatus decodes a predicted block using the used prediction mode and block encoded data. After inverse entropy decoding on the encoded data for the block, the quantized prediction error is inversely scanned according to the scan mode used. If the quantization process is performed after the prediction process, the block will be dequantized.
  • the reconstructed block can be obtained by adding the DCT transform coefficients in a previously decoded adjacent block, indicated by the prediction mode, to the current DCT transform coefficients.
  • the quantization process is performed before the prediction process, the reconstructed coefficients are inversely quantized.
  • an inverse DCT transform process is applied to the reconstructed DCT transform coefficients for each block to obtain a decoded image.
  • An embodiment according to the present invention provides an image predictive encoding device and an image predictive decoding device that reduce redundancy existing in a DCT transform domain beyond an adjacent block.
  • FIG. 24 is a block diagram illustrating a configuration of an image predictive encoding device according to an eighth embodiment of the present invention.
  • the image predictive coding apparatus of FIG. Compared with the image prediction coding apparatus of the prior art,
  • a DCT transform domain prediction unit 2040 having quantization scaling is provided.
  • intra-frame coding In the intra-frame coding (intra-frame coding), after the input image signal is subjected to block sampling processing at unit 2031, DCT conversion processing is performed directly at unit 2033 Is done. Next, in the unit 2034, a quantization process is performed on the DCT transform coefficients output from the DCT transform unit 2033.
  • interframe coding or interframe coding predictive frame coding
  • adder 2032 after block sampling processing of unit 2031, adder 2032 performs motion detection and compensation from the image data after block sampling processing. The image data output from the unit 205 is subtracted to obtain prediction error data.
  • the prediction error data is output to the adder 2035 via the DCT transform unit 2033 for executing the DCT transform process and the quantization unit 2034 for executing the quantize process.
  • the DCT transform coefficient is predicted by the DCT transform domain processing of the unit 2040, and the predicted DCT transform coefficient is input to the adder 2035.
  • the adder 2035 subtracts the predicted DCT transform coefficient from the DCT transform area prediction unit 2040 from the DCT transform coefficient from the quantization unit 2034, and calculates the DCT transform coefficient of the prediction error resulting from the subtraction. , H / V / Z scan unit 2036 and adder 2038.
  • H scan unit 2036 depends on the prediction mode selected, Performs a horizontal scan, vertical scan or zigzag scan adaptively on the input DC T transform coefficients, and outputs the scanned DC transform coefficients to the entropy VLC encoding unit 2037 .
  • the Entrance Bee VLC decoding unit 2037 performs entropy VLC encoding of the input DCT transform coefficients, and converts the encoded bit stream into an image on the receiving or reproducing side. Transmit to the predictive decoding device.
  • the adder 2038 adds the quantized DC ⁇ transform coefficient output from the adder 2035 and the predicted DCT transform coefficient from the DCT transform region prediction unit 2040 to obtain the restored quantum To obtain the DCT transform coefficient data.
  • the quantized DCT transform coefficient data is output to the block memory 2039 and the inverse quantization unit 2041.
  • the restored DCT transform coefficient data from the adder 2038 is temporarily stored in a block memory 2039 for storing data of one block for performing the next prediction. After that, it is output to the DCT conversion area prediction unit 2040.
  • the inverse quantization unit 2041 inversely quantizes the input quantized DCT transform coefficient and outputs it to the inverse DCT transform unit 2042, and then the inverse DCT transform unit 2042 receives the input restored image.
  • the image data of the current block is restored by performing an inverse DCT conversion process on the obtained DCT conversion coefficient and output to the adder 2043.
  • an adder 2043 is used to generate image data that has been motion-detected and compensated by the motion detection and use unit 2045 and inverse DCT transform to generate locally decoded image data.
  • the locally decoded image data is obtained by adding the reconstructed image data from the unit 2042 and stored in the frame memory 2044 of the local decoder.
  • the configuration and processing of the adder 2043, the frame memory 2044, and the motion detection and compensation unit 2045 are the same as those of the prior art units 2009, 2010 and 2011 shown in FIG.
  • bit stream is output from the event lobby encoding unit 2037 and sent to the image predictive encoding device.
  • FIG. 25 is a block diagram showing a configuration of an image prediction decoding apparatus according to the eighth embodiment of the present invention.
  • the image prediction decoding apparatus of FIG. 25 is different from the image prediction decoding apparatus of the prior art of FIG.
  • a bitstream from the image prediction encoding device is decoded in a variable length decoder unit 2051.
  • the decoded data is input to the HZV / Z reverse scan unit 2052, which scans horizontally in the reverse direction, vertically in the reverse direction, or zigzag in the reverse direction, depending on the scan mode.
  • the data after the scan processing is input to an adder 2053.
  • the adder 2053 adds the data after the inverse scan processing and the prediction error data from the DCT conversion prediction unit 2055 to obtain a decoded DCT. It obtains the transform coefficient data, outputs it to the inverse quantization unit 2056, and stores it in the block memory 2054.
  • the inverse quantization unit 2056 inversely quantizes the input coded DCT transform coefficient data to obtain inversely quantized DCT transform coefficient data, and outputs the inversely quantized DCT transform coefficient data to the inverse DCT transform unit 2057.
  • the inverse DC T conversion unit 2057 receives the input D
  • the inverse DCT transform processing is performed on the CT transform coefficient data to restore the original image data and output to the adder 205.
  • the adder 259 adds the image data from the inverse DCT transform unit 205 to the prediction error data from the motion detection and compensation unit 260. Then, the locally decoded image data is obtained, output to an external device, and stored in the frame memory 205.
  • the decoded image data output from the adder 258 is restored to the original image data by the inverse restoration process corresponding to the process of the block sampling unit 2031, shown in Fig. 24. Is done.
  • the quantization process is performed before the prediction process.
  • a quantization process may be performed after the prediction process.
  • an inverse quantization process is performed before the prediction value is added. All other details are the same as in the above embodiment.
  • FIG. 26 is a schematic diagram of an image showing a frame macroblock and a block structure obtained from block division and showing a block prediction method in the eighth embodiment.
  • the expanded view in Figure 26 shows how the prediction data for the current block is encoded.
  • the block C (u.V) is obtained from the block A (u, v) adjacent on the upper side and the block B (u, v) adjacent on the left.
  • the number of coefficients used for prediction depends on the sequence of image data.
  • the flag AC NurseC 0 ef ⁇ is used to adaptively select the optimal number of coefficients used for each image
  • the flags are shown in Table 2 below and the It is sent as a part of the information from the image prediction decoding device to the image prediction decoding device.
  • Table 2 shows the fixed length code and FLC for the flag AC—Coeff.
  • FLC Fixed Length Coding
  • FLC Fixed Length Coding
  • AC n is A (0. n) or B (n. 0), depending on the mode used.
  • all AC coefficients in the top row and leftmost column are used for prediction.
  • the flag is not required when both the image predictive encoding device and the image predictive decoding device agree with this default value.
  • the prediction method is modified such that the prediction data is scaled by the ratio of the quantization step size of the current block and the ratio of the quantization step of the block of the prediction data. This definition is in the next section C 3. Given by using the equation in.
  • the plurality of modes to be set are as follows.
  • Mode 0 DC prediction from block above processing block (abbreviated as “upper DC mode”)
  • Mode 1 DC prediction from the left block from the processing block (abbreviated as “left DC mode”)
  • ⁇ "0. ⁇ ) C (0. ⁇ ) -A (0, ⁇ )-QA / QC
  • FIGS. 27, 28 and 29 are schematic diagrams of images for explaining the order of horizontal scan, vertical scan and horizontal scan used for coefficient scanning in the eighth embodiment. Here, these scans are collectively referred to as HZVZZ scans.
  • the prediction mode decision is performed in the image predictive coding device, and the decision information is obtained by using some encoded bit information in the bitstream. It is explicitly sent from the image prediction encoding device to the image prediction decoding device.
  • FIG. 30 is a flowchart showing a mode determination process used in the eighth embodiment.
  • DCT conversion coefficient data of the current block is input to unit 206, and unit 206 is input from DCT conversion coefficient data of an adjacent block from block memory 2061.
  • the DCT transform prediction processing is executed by calculating the DCT transform coefficient data of the generated power block.
  • Unit 2062 performs the DCT transform prediction process in the four modes described in Section C3.
  • coefficient scan processing is executed.
  • the corresponding scan processing described in section C4 is executed.
  • the DCT transform coefficient data after the scan processing is sent to the entropy coding unit 2064, where the variable length coding processing is executed.
  • the image prediction encoding device and the image prediction decoding device share the same prediction mode determination function. Both the image predictive encoding device and the image predictive decoding device determine the direction for determining the prediction mode based on the DC coefficient value of the decoded block adjacent to the current block. That is, in the determination of the implicit mode, the determination of the implicit mode is performed in the image prediction encoding device and the image prediction decoding device using some rules. Then, additional information data indicating the mode determination is not sent from the image prediction encoding device to the image prediction decoding device.
  • FIG. 31 is a schematic diagram of an image showing a block relationship in an implicit mode determination according to the eighth embodiment. That is, FIG. 31 shows the positional relationship between each block and the current block to be predicted.
  • block C is the current rent block to be processed. It is.
  • Block A is the block above force rent block C being predicted.
  • the block C is a block located on the left side of the current block C.
  • the ti block C ' is a block between the block A and the block B which are diagonally located with respect to the current block C.
  • the direction of the DC is determined. Using a separate determination method, it is determined whether the AC coefficient is also being predicted. To do this, the sum of the absolute values of the pre-shaving coefficients is compared with the absolute value of the non-predicting coefficients to determine which is smaller. One bit is used for this instruction to the image predictive decoder. The following formula is used to determine the direction of DC prediction and whether or not the AC coefficient is predicted. Table 3 summarizes four possible conclusions.
  • the DCT transform coefficient prediction process is performed on the quantized transform coefficient data by the unit 240, but the present invention is not limited to this, and the sixth embodiment of FIG.
  • the processing may be performed on transform coefficient data that is not quantized.
  • the inverse quantization unit 205 is moved to the inverse scan unit 205 and the adder 205 to be inserted. Is done.
  • a modified example of the eighth embodiment will be described.
  • the block sampling unit 203 is a two-dimensional array of pixels in a four-block group consisting of the odd pixels in the odd rows in the first block,
  • the second block consists of the even-numbered pixels in the odd-numbered rows,
  • the third block consists of the odd-numbered pixels in the even-numbered rows,
  • the fourth block consists of the even-numbered pixels in the even-numbered rows. It may include an interleaving process of alternately inserting pixels so as to be composed of the pixels of the above.
  • the predicted block is stored in the block memory and restored before The block may be selected from blocks located adjacent to the encoded current block, and all coefficient data in the block may be selected.
  • the prediction block is selected from blocks that are stored in the block memory and are previously restored blocks that are positioned adjacent to the encoded current block, and are determined in advance.
  • the selected subset may be selected as the block coefficient data.
  • the prediction block is a block stored in the block memory and previously restored, from blocks located adjacent and above and to the left of the encoded power block. Only the coefficient data selected and used in the top row of the block and the leftmost column of the block may be used, and the remaining coefficient data may be set to zero.
  • the prediction block is stored in the block memory and selected from previously restored blocks according to the criteria described above;
  • the communication between the image predictive coding device and the image predictive decoding device determines that only the subset including one or more coefficient data from the top row or the leftmost column of the block is used.
  • the predicted block is stored in the block memory and selected from previously restored blocks according to the criteria described above;
  • the image prediction encoding apparatus determines that only the subset including one or more coefficient data from the top row or the leftmost column of the block is used, and the determined number of subsets and coefficient data is used. May be notified to the image predictive decoding device by periodically inserting a flag indicating “” into the data transmitted to the image predictive decoding device.
  • the prediction block is stored in the block memory and restored before. Selected according to the above criteria,
  • the coefficient data of each block may be multiplied by a ratio equal to the ratio between the quantization step size of the current block to be encoded and the quantization step size of the prediction block.
  • the prediction block is stored in the block memory and selected from previously restored blocks according to the criteria described above;
  • the coefficient data for each block may be weighted with different weighting functions.
  • the predicted block is stored in the block memory and selected from previously restored blocks according to the criteria described above;
  • a predetermined conversion operation may be performed on the coefficient data of each block.
  • the prediction block may be obtained as a weighted average of previously restored blocks stored in the block memory and located adjacent to the current block to be encoded.
  • the coefficient data may include at least one of the following scanning methods: zigzag scanning in which the coefficient data is scanned diagonally from the leftmost coefficient data in the top row to the rightmost coefficient data in the bottom row. .
  • the predicted block is stored in the block memory and selected from previously restored blocks according to the above criteria,
  • the prediction mode of the prediction block is (1) From the block located above the force rent block to be processed,
  • the coefficient data of the prediction error may be scanned by a zigzag scanning method.
  • the prediction block is stored in the block memory and selected from previously restored blocks according to the criteria described above;
  • the predicted ⁇ difference coefficient data is scanned according to one of the scanning methods described above,
  • the prediction mode for predicting the coefficient data of the prediction error is
  • the image prediction encoding device and the image prediction decoding device may determine the prediction mode using the same predetermined rule.
  • the image prediction encoding device and the image prediction decoding device may determine the scanning method using the same predetermined rule.
  • the third embodiment group according to the present invention it is very effective to reduce or eliminate the redundancy in the DCT conversion area beyond the adjacent blocks.
  • the number of bits can be reduced, and as a result, the coding efficiency can be greatly improved.
  • This is a new video compression It is also useful as a tool in algorithms.
  • each unit in the image predictive encoding device each unit such as each unit, etc.
  • the image prediction encoding method may include a step in which each step is replaced, and may include a step in which each unit in the image predictive decoding apparatus and each component such as a unit are replaced with each step.
  • An image prediction decoding method may be used.
  • each step of the image prediction encoding method and Z or the image prediction decoding method is stored in a storage device as a program, and a microprocessor such as a microprocessor unit (MPU), a central processing unit (CPU), etc.
  • the controller executes the program to execute the image prediction encoding process and / or the image prediction decoding process.
  • the present invention may be a recording medium recording a program including each step in the image prediction encoding method and / or the image prediction decoding method.
  • the recording medium has a disk shape in which a recording area is divided into sector shapes or a recording area is divided into blocks in a spiral shape, for example, an optical disk such as a CD-ROM or a DVD, or a magneto-optical disk, or , A magnetic recording disk such as a floppy disk.
  • a dividing unit that divides input encoded image data into image data of a plurality of adjacent small regions
  • Image data of the reproduced small area Is the image data of the intra-pyramidal predicted small area of the small area to be processed
  • the image data of the intra-predicted small area is the image data of the optimal predicted small area
  • the image data of the small area to be processed is First generating means for generating image data of a difference small area that is a difference from the image data of the optimal prediction small area;
  • Encoding means for encoding the image data of the small difference area generated by the generating means
  • Decoding means for decoding the image data of the small difference area encoded by the encoding means
  • Second generating means for generating image data of the reproduced small area reproduced by adding the image data of the difference small area decoded by the decoding means to the image data of the optimally predicted small area.
  • sampling means for sampling the input image signal into image data of a plurality of blocks each including a pixel value of a two-dimensional array
  • Conversion means for converting the image data of the block sampled by the sampling means into coefficient data of a predetermined conversion area
  • a block memory for storing the restored block coefficient data, and a block coefficient data converted by the conversion means based on the previously reconstructed block coefficient data stored in the block memory.
  • Prediction means for forming coefficient data of a plurality of prediction blocks by
  • First adding means for outputting coefficient data of a prediction error as a result of subtraction by subtracting coefficient data of the prediction block selected by the determining means from coefficient data of the current block at the present time;
  • Quantizing means for quantizing the coefficient data of the prediction error output from the first adding means
  • Encoding means for encoding the prediction error coefficient data from the quantizing means by end-to-end encoding, and transmitting the encoded prediction error coefficient data to the image prediction decoding apparatus;
  • Inverse quantization means for inversely quantizing the prediction error coefficient data from the quantization means and outputting the restored block coefficient data
  • An inverse transform unit for inversely transforming the coefficient data of the block output from the second adding unit to generate restored block image data.
  • the input image signal Sampling means for sampling the signal into image data of a plurality of blocks each including a two-dimensional array of pixel values
  • Conversion means for converting the image data of the block sampled by the sampling means into coefficient data of a predetermined conversion area
  • a block memory for storing the restored block coefficient data and a block coefficient data for the block converted by the conversion means based on the block coefficient data of the block previously stored and stored in the block memory.
  • Prediction means for forming coefficient data of a plurality of prediction blocks;
  • the coefficient data of the most efficient prediction block and the scanning method are determined, selected and output, and the selected prediction block and the scanning method are determined.
  • Determining means for transmitting the indicator to the image predictive decoding device in the form of an instruction bit, and subtracting the coefficient data of the prediction block selected by the determining means from the coefficient data of the current block at the present time.
  • First adding means for outputting coefficient data of a prediction error of a subtraction result
  • Quantizing means for quantizing the coefficient data of the prediction error output from the first adding means
  • Scanning means for performing scan processing on the coefficient data of the prediction error from the quantization means by the scan method determined by the determination means, and outputting coefficient data of the prediction error after the scan processing;
  • Encoding means for entropy encoding the coefficient data of the prediction error after the scanning process output from the scanning means, and transmitting the encoded coefficient data of the prediction error to the image prediction decoding device;
  • Inverse quantization means for inversely quantizing the prediction error coefficient data from the quantization means and outputting the restored block coefficient data; By adding the coefficient data of the prediction block output from the determining means to the coefficient data of the prediction error output from the inverse quantization means, the restored block coefficient data is output, and the block memory
  • a second addition means stored in
  • Inverse conversion means for inversely converting the block coefficient data output from the second addition means to generate restored block image data.

Description

明 細 害
画像予測符号化装置及び方法、 画像予測復号化装置及び方法、 並びに記 錄媒体
技術分野
本発明は、 画像予測符号化装置及び方法、 画像予測復号化装置及び方法、 並びに記録媒体に関する。 特に、 静止画又は動画である画像のデジタル圃 像データを、 例えば光ディスクなどの記録媒体に記憶し、 又は通信回線を 伝送するための画像予測符号化装置及び方法、 並びに、 画像予測復号化装 置及び方法に関する。 また、 上記画像予測符号化方法のステップを含むブ ログラムを記録した記録媒体、 並びに、 上記画像予測復号化方法のステツ プを含むプログラムを記録した記録媒体に関する。
背景技術
デジタル画像を効率よく記憶し又は伝送するには、 圧縮符号化する必要 がある。 デジタル画像を圧縮符号化するための方法として、 J P E G ( Joint Photographic Experts Group) や M P E G (Motion Picture Experts Group) に代表される離散コサイン変換 (以下、 D C T変換とい う。 ) のほかに、 サブバン ド符号化ゃゥヱーブレツ 卜符号化、 フラクタル 符号化などの波形符号化方法がある。 また、 画像間の冗長な信号を取り除 くには動き補償を用いた画像間予測を行い、 差分信号を波形符号化する。
M P E Gの方式では、 入力画像を複数の 1 6 X 1 6のマクロブロックに 分割して処理する。 1つのマクロプロックをさらに 8 X 8のブロックに分 割し、 8 X 8の D C T変換処理を施してから量子化する。 これはフレーム 内符号化と呼ばれる。
—方、 ブロックマッチングをはじめとする動き検出方法で、 時間に隣接 する別のフレームの中から対象マクロブ口ックに誤差の最も小さい予測マ クロブロックを検出し、 検出された予測マクロプロックを対象マクロブロッ クから減算し、 差分マクロブロックを生成し、 8 x 8の D C T変換を施し てから量子化する。 これをフレーム間符号化と呼び、 予測マクロブロック を時間領域の予測信号と呼ぶ。 このように M P E Gでは、 同じフレームの 中から画像を予測していない。
通常の画像は空間的に似ている領域が多く、 この性質を用いて空間領域 に画像を近似することができる。 時間領域の予測信号と同じように、 同じ フレームの中から予測信号を求めることも可能である。 これを空間領域の 予測信号と呼ぶ。
空間的に近接する 2つの画素値が近いため、 空間領域の予測信号は一般 的に対象信号に近い位置にある。 一方、 受信側又は再生側では、 原画像が ないため、 予測信号は過去において符号化し再生された信号を用いる必要 がある。 この 2つの要素から、 空間領域の予測信号を高速に生成する必要 がある。 画素値を復号化し再生した後すぐに予測信号の生成に用いられる からである。
従って、 空間領域の予測信号を簡単かつ高精度に生成する必要がある。 また、 符号化装置及び復号化装置にお 、て高速演算可能な構成が要求され る。
ところで、 画像データの符号化は、 J P E G、 M P E G 1、 H. 2 6 1、 M P E G 2及び H. 2 6 3などの多くの国際的標準に広く使用されて来た。 後者の標準の各々は符号化能率を更に改善している。 すなわち、 同じ画質 を表現するのに従来の標準に比べてビッ ト数をさらに減少する努力がなさ れてきた。
動画に対する画像データの符号化は、 イ ントラフレーム符号化と予測フ レーム符号化から成りたつている。 ここで、 イン トラフレーム符号化は、 1つのフレームの画面内でのフレーム内符号化をいう。 例えば M P E G 1 標準のような代表的なハイプリ ッ ド符号化システムにおいては、 連続する フレームは次の 3つの異なるタイプに分類できる。
( a ) イントラフレーム (以下、 I フレームという。 ) 、
( b ) 予測フレーム (以下、 Pフレームという。 ) 、 及び
( c ) 両方向予測フレーム (以下、 Bフレームという。 ) 。
I フレームは他のフレームと独立的に符号化され、 すなわち、 I フレー ムは他のフレームを用いることなく圧縮される。 Pフレームは、 符号化さ れたフレーム (それは、 Pフレームである。 ) の内容を予測するために 1 つ前のフレームを用いることにより動きの検出及び補償を通じて符号化さ れている。 Bフレームは、 1つ前のフレームからの情報及び Bフレームの 中味のデータを予測する後続のフレームからの情報を用いる動きの検出及 び補償を用いることにより符号化されている。 以前のフレーム及び後铳の フレームは I フレーム力、、 又は Pフレームである。 Iフレームはイン トラ コ一ドモードに属している。 Pフレーム及び Bフレームは予測コードモー ドに属している。
I フレーム、 Pフレーム及び Bフレームの符号化の性質が違っているよ うに、 その圧縮方法も各々異なっている。 Iフレームは、 冗長性を減少さ せるために一時的な予測を使用しないので、 Pフレーム及び Bフレームに 比べてより多くのビッ ト数を必要とする。
ここで、 M P E G 2を例として説明する。 ビッ トレートを 4 Mビッ ト Z 秒とし、 画像は、 3 0フレームノ秒の画像と仮定する。 一般的には、 I、 P及び Bフレームに用いられるビッ ト数の比は 6 : 3 : 1である。 從つて 1フレームは約 4 2 0 KbitsZsを使用し、 Bフレームは約 7 O Kbits s を使用する。 なぜなら Bフレームは両方向から十分に予測されているから である。
図 1 4は、 従来技術の画像予測苻号化装置の構成を示すブロック図であ る。 D C T変換をブロックに基づいて実行するので、 最近の画像符号化方 法はすべて、 画像をより小さいプロックに分割することを基礎としている。 イントラフレーム符号化においては、 入力されたディ ジタル画像信号に対 して、 図 1 4に示されるように、 まず、 ブロックサンプリング処理 1 0 0 1が実行される。 次いで、 ブロックサンプリング処理 1 0 0 1後のこれら のプロックに対して、 0じ丁変換処理1 0 0 4が実行された後、 量子化処 理 1 0 0 5及びランレングスホフマン可変長符号化 (V L C : Variable Length Coding; ェントロピー符号化) 処理 1 0 0 6が実行される。 一方、 予測フレーム符号化においては、 入力されたディジタル画像に対して動き 補值処理 1 0 0 3が実行され、 そして、 動き補償されたプロック (すなわ ち、 予測されたブロック) に対して D C T変換処理 1 0 0 4が実行される。 次いで、 量子化処理 1 0 0 5、 及びランレングスホフマン V L C符号化 (ェ ン ト口ピー符号化) 処理 1 0 0 6が実行される。
プロックに基づく 0じ丁変換処理1 0 0 4は、 処理対象のプロック内の 空間的な冗長性を除去し又は減少させること、 並びに、 動き検出及び補償 処理 1 0 0 2 , 1 0 0 3は隣接するフレームの間の一時的な冗長性を除去 し又は減少させることは、 従来の画像符号化技術から公知である。 さらに、 0じ丁変換処理1 0 0 4及び量子化処理 1 0 0 5の後に実行される、 ラン レングスホフマン V L C符号化又は他のェントロピー符号化処理 1 0 0 6 は、 量子化された D C T変換係数の間の統計的冗長性を除去する。 しかし その処理は、 画面内のブロックのみに対してのみある。
ディジタル画像は本来的性質として空間的に大きな冗長性を有している。 この冗長性は、 画像のフレーム内のブロックのみでなく、 ブロックを越え てブロックとブロックとの間にも存在している。 しかしながら、 現実の方 法は画像のプロック間の冗長性を除去する方法を使用していないことは、 上述から明らかである。
現在の画像符号化手法においては、 0 丁変換処理1004又は他の変 換処理は、 ハードウエアの形成及び計算上の拘束条件のためにブロックに 基づいて実行される。
空間的な冗長性は、 プロックを基礎とする変換処理によって減少される 力^ それは 1つのブロック内でのみに限定される。 隣接する 2つのブロッ ク間の冗長性はあまりうまく考慮されていないが、 常に多くのビッ ト数を 消費するフレーム内符号化を用いればさらに減少できるであろう。
さらに、 ブロックを基礎とする D CT変換処理が、 処理対象のブロック 内の空間的な冗長性を除去し、 又は減少させ、 また、 動き予測及び楠償処 理が、 隣接する 2つのフレーム間の一時的な冗長性を除去し、 又は減少さ せることは、 現在の画像符号化技術から公知である。 DCT変換処理及び 量子化処理の後に実行される、 ジグザグスキヤン及びランレングスホフマ ン VLC符号化処理又は他のェント口ピー符号化処理は、 量子化された D CT変換係数の中の統計的冗長性を除去するが、 なお、 それは 1つのブロッ ク内に限定される。
ディジタル画像は本来高い空間冗長性を含んでいる。 この冗長性はブロッ クの内部に存在するのみでなく、 画像のプロックを越えてそしてブロック 間にも存在している。 従って、 上記のことから明らかなように、 現存する 方法においては、 J PEG、 MPEG]及び MPEG2の DC係数の予測 を除いて、 1つの画像のプロック間の冗長性を除去する方法を全く用いて いない。
MPEG 1及び MP EG 2においては、 DC係数の予測は、 現在の符号 ィ匕されているブロックから前の符号化ブロックの D C値を減算することに より実行される。 これは予測が適切でない時に適応性又はモー ドスィツチ ングを有しない簡単な予測方法である。 さらにそれは D C係数を含むだけ である。
当該技術分野の現在の状態では、 ジグザグスキャンはランレングス符号 化の前にすベてのブロックに対して用いられている。 ブロックの中味のデ 一夕に基づいてスキヤンを適応的にする試みはなされていない。
図 2 2は、 従来技術の画像予測符号化装置の構成を示すプロック図であ る。 図 2 2において、 従来技術の画像予測符号化装置は、 ブロックサンプ リニングュニッ 卜 2 0 0 1、 D C T変換ュニッ 卜 2 0 0 3、 量子化ュニッ ト 2 0 0 4、 ジグザグスキヤンュニッ ト 2 0 0 5及びェントロピー符号化 ュニッ 卜 2 0 0 6を備える。 本明細害において、 「ュニッ ト」 という用語 は、 回路装置を意味する。
イントラフレーム符号化 (すなわち、 フレーム内符号化) においては、 入力された画像信号に対して、 プロックサンプリング処理 2 0 0 1が実行 された後、 直接に、 D C T変換処理 2 0 0 3が実行され、 そして、 量子化 処理 2 0 0 4、 ジグザグスキャン処理 2 0 0 5及びェント口ピー符号化処 理 2 ϋ ϋ 6が順次実行される。 一方、 ィンターフ レーム符号化 (すなわち、 フレーム間符号化、 すなわち、 予測フレーム符号化) においては、 ブロッ クサンプリング処理 2 0 0 1の後に、 動き検出及び補儐処理がュニッ ト 2 0 1 1において実行され、 次いで、 プロックサンプリング 2 0 0 1からの 画像データをュニソ ト 2 0 1 1からの検出倘を減算することにより、 加算 器 2 0 0 2により予測誤差が得られる。 さらに、 この予測誤差に対して、 D C T変換処理 2 0 0 3が実行され、 続いて量子化処理 2 0 0 4、 ジグザ グスキヤ ン処理 2 0 0 5及びェント口ピー符号化処理 2 0 0 6カ^ イ ント ラフレーム符号化と同様に実行される。
図 2 2の画像予測符号化装置内に設けられるローカルデコーダにおいて、 逆量子化処理及び逆 D C T変換処理はュニッ ト 2 0 0 7及び 2 0 0 8にお いて実行される。 イン トラフレーム符号化においては、 動き検出及び補儐 された予測値は、 ユニッ ト 2 0 0 7及び 2 0 0 8によって再構築された予 測誤差に加算器 2 0 0 9によって加算され、 その加算値は、 局所的に復号 化された画像データを意味し、 その復号化された画像データは、 ローカル デコーダのフレームメモリ 2 0 1 0に記憶される。 最終的には、 ビッ トス 卜 リームがェン ト Dピー符号化ュニッ ト 2 0 1 0から出力されて、 相手方 の画像予測復号化装置に送信される。
図 2 3は、 従来技術の画像予測復号化装置の構成を示すプロック図であ る。 ビッ トストリームは、 可変長デコーダ (V L D : Variable Length Decoding) ュニッ ト (又はェントロピ一復号化ュニッ ト) 2 0 2 1によつ て復号化され、 次いで、 復号化された画像データに対して、 逆量子化処理 及び逆 D C T変換処理がュニッ 卜 2 0 2 3及び 2 0 2 4において実行され る。 インターフレーム符号化において、 ユニッ ト 2 0 2 7で形成された、 動き検出及び捕信された予測値は、 加算器 2 0 2 5によって再構築された 予測誤差に加算され、 局所的な復号化画像データが形成される。 局所的に 復号化された画像データはローカルデコーダのフレームメモリ 1 0 2 6に 記憶される。
現在の画像符号化技術においては、 D C T変換処理又は他の変換処理は、 ハードウエアの形成及び計算上の拘束条件のために、 プロックを基礎とし て実行されている。 空間的冗長性はプロックを基礎とする変換によって削 減されるであろう。 しかしながら、 それはブロック内のみである。 隣接す るブロック間の冗長性はあまり十分に考慮されていない。 特に、 常に多量 のビッ 卜を消費するィン卜ラフレーム符号化については特に考慮がなされ ていない。
本発明の第 1の目的は、 空間領域の予測画像データを簡単に、 高速でか つ高精度に生成することができる画像予測符号化装置及び方法、 並びに、 画像予測復号化装置及び方法を提供することにある。
また、 本発明の第 2の目的は、 従来技術の画像予測符号化装置及び画像 予測復号化装置に比较して、 ブロック内の冗長性を除去することができ、 より効率的に画像データを符号化又は復号化することができる画像予測符 号化装置及び方法、 並びに、 画像予測復号化装置及び方法を提供すること にある。
さらに、 本発明の第 3の目的は、 画像データの内部の性質に依存して、 重要な変換係数がプロックの異なる区域に集中されるという問題点を解決 し、 ブロックに対して正しいスキヤン方法を決定することによりェントロ ピー符号化処理の能率を改善することができる画像予測符号化装置及び方 法、 並びに、 画像予測復号化装置及び方法を提供することにある。
またさらに、 本発明の第 4の目的は、 上記画像予測符号化方法又は画像 予測復号化方法の各ステップを記録した記録媒体を提供することにある。 発明の開示
第 1の発明に係る画像予測符号化装置は、 入力される符号化画像データ を互いに隣接する複数の小領域の画像データに分割する分割手段と、 上記分割手段によつて分割された互いに隣接する複数の小領域の画像デ ータの中で処理対象の小領域の画像データを符号化するときに、 上記処理 対象の小領域の画像データに膦接する再生された再生小領域の画像データ を上記処理対象の小領域の画面内予測小領域の画像データとし、 上記画面 内予釗小領域の画像データを最適予測小領域の画像データとし、 上記処理 対象の小領域の画像データと上記最適予測小領域の画像データとの差分で ある差分小領域の画像データを生成する第 1の生成手段と、
上記生成手段によって生成された差分小領域の画像データを符号化する 符号化手段と、
上記符号化手段によつて符号化された差分小領域の画像データを復号化 する復号化手段と、
上記復号化手段によつて復号化された差分小領域の画像データを上記最 適予測小領域の画像データに加算することにより再生された再生小領域の 画像データを生成する第 2の生成手段とを備える。
また、 第 2の発明に係る画像予測符号化装置は、 入力された符号化画像 データを互いに隣接する複数の小領域の画像データに分割する分割手段と、 上記分割手段によって分割された互いに隣接する複数の小領域の中で処 理対象の小領域を符号化するときに、 上記処理対象の小領域の画像データ に隣接する再生された再生小領域の画像データの中から、 上記符号化画像 データが有意であるか否かを示す入力された有意信号によって示される有 意な画像データのみを上記処理対象の小領域の画面内予測小領域の画像デ 一夕とし、 上記画面内予測小領域の画像データを最適予測小領域の画像デ 一夕とし、 上 ^処理対象の小領域の画像データと上記最適予測小領域の画 像データとの差分である差分小領域の画像データを生成する第 1の生成手 段と、
上記第 1の生成手段によつて生成された差分小領域の画像データを苻号 化する符号化手段と、
上記符号化手段によって符号化された差分小領域の画像データを復号化 する復号化手段と、
上記復号化手段によって復号化された差分小領域の画像データを上記最 適予測小領域の画像データに加算することにより再生された再生小領域の 画像データを生成する第 2の生成手段とを備える。
さらに、 第 3の発明に係る画像予測復号化装置は、 入力された符号化さ れた画像データ系列を解析して画像差分信号を出力する解析手段と、 上記解析手段から出力される差分画像信号から、 再生差分小領域の画像 データを復号化する復号化手段と、
所定の画面内予測小領域の画像データを生成するための画像データを格 納するラインメモリと、
上記ラインメモリからの画像データに対して予測信号発生処理を実行す ることにより、 上記再生差分小領域の画像データに隣接する再生された画 像データを画面内予測小領域の画像データとし、 上記画面内予測小領域の 画像データを最適予測小領域の画像データとして出力する発生手段と、 上記復号化手段からの再生差分小領域の画像データと、 上記発生手段か らの最適予測小領域の画像データとを加算して、 加算結果の画面内予測小 領域を生成するための画像データを出力するとともに、 上言 ラインメモリ に格納する加算手段とを備える。
またさらに、 第 4の発明に係る画像予測復号化装置は、 入力された符号 化された画像データ系列を解析して、 画像差分信号と、 動きべク トル信号 と、 制御信号とを出力する解析手段と、
上記解析手段から出力される差分画像信号を、 再生差分小領域の画像デ 一夕に復号化する復号化手段と、
上記解析手段から出力される制御信号に基づいて、 動き補儻手段と発生 手段とが選択的に動作させるように制御する切り換え信号を出力する制御 手段と、
所定の再生画像データを格納するフレームメモリと、 所定の画面内予測小領域の画像データを生成するための画像データを格 納するラインメモリと、
上記制御手段からの切り換え信号に応答して、 入力される動きべク トル 信号に対して動き補償処理を実行することにより、 上記フレームメモリか ら時間予測小領域の画像データを生成して、 最適予測小領域の画像データ として出力する動き補憤手段と、
上記制御手段からの切り換え信号に応答して、 上記ラインメモリからの 画像データに対して予測信号発生処理を実行することにより、 上記再生差 分小領域の画像データに隣接する再生された画像データを画面内予測小颌 域の画像データとし、 上記画面内予測小領域の画像データを最適予測小領 域の画像データとして出力する発生手段と、
上旨己復号化手段からの再生差分小領域の画像データと、 上記発生手段か らの最適予測小領域とを加算することにより、 加算結果の再生画像データ を出力するとともに、 上記再生画像データを上記フレームメモリに格納し、 上記画面内予測小領域の画像データを生成するための画像データのみを上 記ラインメモリに格納する加算手段とを備える。
また、 第 5の発明に係る画像予測復号化装置は、 入力された符号化され た画像データ系列を解析して、 圧縮形状信号と画像差分信号とを出力する 解析手段と、
上記解析手段から出力される圧縮形状信号を、 再生形状信号に復号化す る第 1の複号化手段と、
上記解析手段から出力される差分画像信号を、 再生差分小領域の画像デ 一タに復号化する第 2の復号化手段と、
所定の画面内予測小領域の画像データを生成するための画像データを格 納するラインメモリと、 上記ラインメモリからの画像データに対して予測信号処理を実行するこ とにより、 上記再生差分小領域の画像デ一タに隣接する再生された画像デ 一夕の中から、 上記再生形状信号によって示される有意な画像データのみ を画面内予測小領域の画像データとし、 上記画面内予測小領域の画像デー 夕を最適予測小領域の画像データとして出力する発生手段と、
上記第 2の復号化手段からの再生差分小領域の画像データと、 上記発生 手段からの最適予測小領域とを加算することにより、 加算結果の画像デー タを出力するとともに、 上記画面内予測小領域の画像データを生成するた めの画像データのみを上記ラインメモリに格納する加算手段とを備える。 さらに、 第 6の発明に係る画像予測復号化装置は、 入力された符号化さ れた画像データ系列を解析して、 圧縮形状信号と、 画像差分信号と、 動き べク トル信号と、 制御信号とを出力する解析手段と、
上記解析手段から出力される圧縮形状信号を、 再生形状信号に復号化す る第 1の復号化手段と、
上記解析手段から出力される差分画像信号を、 再生差分小領域に復号化 する第 2の復号化手段と、
上記解析手段から出力される制御信号に基づいて、 動き補俊手段と発生 手段とを選択的に動作させるように制御する切り換え信号を出力する制御 手段と、
所定の再生画像データを格納するフレームメモリと、
所定の画面内予測小領域の画像データを生成するための画像データを格 納するラインメモリと、
上記制御手段から出力される切り換え信兮に応答して、 上記解析手段か ら出力される動きべク トル信号に基づいて、 上記フレームメモリからの再 生画像データに対して動き補儇処理を実行することにより、 時間予測小領 域の画像データを発生して、 最適予測小領域の画像データとして出力する 動き補償手段と、
上記制御手段から出力される切り換え信号に応答して、 上記ラインメモ リからの画像データに対して予測信号処理を実行することにより、 上記再 生差分小領域の画像データに隣接する再生された画像データの中から、 上 記再生形状信号によって示される有意な画像データのみを画面内予測小領 域の画像データとし、 上記画面内予測小領域の画像データを最適予測小颌 域の画像データとして出力する発生手段と、
上記第 2の復号化手段からの再生差分小領域の画像データと、 上記発生 手段からの最適予測小領域とを加算することにより、 加算結果の再生画像 データを出力するとともに、 上記再生画像データを上記フレームメモリに 格納し、 上記画面内予測小領域を生成するための画像データのみを上記ラ ィンメモリに格納する加算手段とを備える。
第 7の発明に係る画像予測符号化装置は、 入力された画像信号をそれぞ れ一次元配列の画素値を含む複数のプロックの画像データにサンプリング するサンプリング手段と、
上記サンプリング手段によってサンプリングされたプロックの画像デ一 タを所定の変換領域の係数データに変換する変換手段と、
復元されたプロックの係数データを格納するプロックメモリと、 上記ブロックメモリに格納された前に再構築されたプロックの係数デー 夕に基づいて、 上記変換手段によって変換されたプロックの係数データに 対して複数の予測プロ クの係数データを形成する予蒯手段と、
上記予測手段によって形成された複数の予測プロックの係数データのう ち、 最も効率が良い予測プロックの係数データを決定し選択して出力し、 上記選択された予測プロックを表す指示子を指示ビッ 卜の形式で画像予測 復号化装置に送信する決定手段と、
上記決定手段によって選択された予測プロックの係数データを、 現時点 のカレン卜ブロックの係数データから'减算することにより、 減算結果の予 測誤差の係数データを出力する第 1の加算手段と、
上記第 1の加算手段から出力される予測誤差の係数データを量子化する 量子化手段と、
上記量子化手段からの予測誤差の係数データをェン卜口ピー符号化して、 符号化された予測誤差の係数データを画像予測復号化装置に送信する符号 化手段と、
上記量子化手段からの予測誤差の係数データを逆量子化して、 復元され たプロックの係数データを出力する逆量子化手段と、
上記決定手段から出力される予測プロックの係数データを、 上記逆量子 化手段から出力される予測誤差の係数データに加算することにより、 復元 されたプロックの係数データを出力するとともに、 上記プロックメモリに 格納する第 2の加算手段と、
上記第 2の加算手段から出力されるプロックの係数データを逆変換する ことにより、 復元されたプロックの画像データを生成する逆変換手段とを 備 る。
また、 第 8の発明に係る画像予測符号化装置は、 入力された画像信号を 二次元配列の画素値を含む複数のプロックの画像データにサンプリングす るサンプリング手段と、
上記サンプリング手段によってサンプリングされた複数のプロックの画 像データを所定の変換領域の係数デ一夕に変換する変換手段と、
上記変換手段からの変換領域の係数データを量子化する量子化手段と、 復元されたプロックの係数データを格納するプロックメモリと、 上記プロックメモリに格納された前に再構築されたプロックの係数デ一 夕に基づいて、 上記変換手段によって変換されたプロックの係数データに 対して複数の予測プロックの係数データを形成する予測手段と、
上記予測手段によって形成された複数の予測プロックの係数データのう ち、 最も効率が良い予測プロックの係数データを決定し選択して出力し、 上記選択された予測ブロックを表す指示子を指示ビッ 卜の形式で画像予測 復号化装置に送信する決定手段と、
上記決定手段によって選択された予測プロックの係数データを、 現時点 のカレントブロックの係数データから減算することにより、 減算結果の予 測誤差の係数データを出力する第 1の加算手段と、
上記第 1の加算手段からの予測誤差の係数データをェントロピー符号化 して、 符号化された予測誤差の係数データを画像予測復号化装置に送信す る符号化手段と、
上記第 1の加算手段からの予測誤差の係数データを、 上記決定手段から 出力される予測プロックの係数データを加算することにより、 量子化され たカレントブロックの係数データを復元して出力するとともに、 上記プロッ クメモリに格納する第 2の加算手段と、
上記第 2の加算手段から出力されるカレントブロックの係数データを逆 量子化して出力する逆量子化手段と、
上記逆量子化手段からのカレントプロックの係数データを逆変換するこ とにより、 復元されたプロックの画像データを生成する逆変換手段とを備 える。
さらに、 笫 9の発明に係る画像予測符号化装置は、 入力された画像信号 をそれぞれ二次元配列の画素値を含む複数のプロックの画像データにサン プリ ングするサンプリ ング手段と、 人力されるブロックの画像データに対して動き補傻処理を実行すること により、 動き補償されたプロックの予測誤差の画像データを生成して出力 する補償手段と、
上記サンプリング手段から出力されるプロックの画像データから、 上記 補償手段から出力されるプロックの予測誤差の画像データを減算して、 減 算結果のプロックの画像データを出力する第 1の加算手段と、
上記第 1の加算手段から出力されるプロックの画像データを所定の変換 領域の係数データに変換する変換手段と、
復元されたブロックの係数データを格钠するブロックメモリ と、 上記プロックメモリに格納された前に再構築されたプロックの係数デー 夕に甚づいて、 上記変換手段によって変換されたブ πックの係数データに 対して複数の予測プロックの係数データを形成する予測手段と、
上記予測手段によって形成された複数の予測プロックの係数データのう ち、 最も効率が良い予測プロックの係数データを決定し選択して出力し、 上記選択された予測ブロックを表す指示子を指示ビッ 卜の形式で画像予測 復号化装置に送信する決定手段と、
上記決定手段によって選択された予測プロックの係数データを、 現時点 のカレン トブロックの係数データから減算することにより、 減算結果の予 測誤差の係数データを出力する第 2の加算手段と、
上記第 2の加算手段から出力される予測誤差の係数データを量子化する 量子化手段と、
上記量子化手段からの予測誤差の係数デ一夕をエントロピー符号化して、 符 化された予測誤差の係数データを画像予測復号化装置に送信する符号 化手段と、
上記量子化手段からの予測誤差の係数データを逆量子化して、 復元され たプロックの係数データを出力する逆量子化手段と、
上記決定手段から出力される予剮ブ口ックの係数データを、 上記逆量子 化手段から出力される予測^差の係数データに加算することにより、 復元 されたプロックの係数データを出力するとともに、 上記プロックメモリに 格納する第 3の加算手段と、
上記第 3の加算手段から出力されるプロックの係数データを逆変換する ことにより、 復元されたプロックの画像データを生成する逆変換手段と、 上記逆変換手段からの復元されたブロックの画像データに、 上記補償手 段から出力される動き補償されたプロックの予測誤差の画像データを加算 することにより、 復元されたプロックの画像データを上記補償手段に出力 する第 4の加算手段とを備える。
またさらに、 第 1 0の発明に係る画像予測符号化装置は、 入力された画 像信号を二次元配列の画素値を含む複数のプロックの画像データにサンプ リ ングするサンプリ ング手段と、
入力されるプロックの画像データに対して動き補僙処理を実行すること により、 動き補債されたプロックの予測誤差の画像データを生成して出力 する補償手段と、
上記サンプリング手段から出力されるブロックの画像データから、 上記 補僂手段から出力されるプロックの予測誤差の画像データを減算して、 減 算結果のプロックの画像データを出力する第 1の加算手段と、
上記第 1の加算手段から出力されるプロックの画像データを所定の変換 領域の係数データに変換する変換手段と、
上記変換手段からの変換領域の係数データを量子化する曩子化手段と、 復元されたプロックの係数データを格納するプロックメモリと、 上記プロックメモリに格納された前に再構築されたプロックの係数デー タに基づいて、 上記変換手段によって変換されたプロックの係数データに 対して複数の予測プロックの係数データを形成する予測手段と、
上記予測手段によって形成された複数の予測プロックの係数データのう ち、 最も効率が良い予測プロックの係数データを決定し選択して出力し、 上記選択された予測プロックを表す指示子を指示ビッ 卜の形式で画像予測 復号化装置に送信する決定手段と、
上記決定手段によって選択された予測プロックの係数データを、 現時点 のカレントブロックの係数データから減算することにより、 减算結果の予 測誤差の係数データを出力する第 2の加算手段と、
上記第 2の加算手段からの予測誤差の係数データをェン卜口ピー符号化 して、 符号化された予測誤差の係数デー夕を画像予測復号化装置に送信す る苻号化手段と、
上記第 2の加算手段からの予測誤差の係数データを、 上記決定手段から 出力される予測プロックの係数データを加算することにより、 量子化され たカレントブロックの係数データを復元して出力するとともに、 上記ブロッ クメモリに格納する第 3の加算手段と、
上記第 3の加算手段から出力されるカレントブロックの係数データを逆 量子化して出力する逆量子化手段と、
上記逆量子化手段からのカレントブロックの係数データを逆変換するこ とにより、 復元されたプロックの画像データを生成する逆変換手段と、 上記逆変換手段からの復元されたブロックの画像データに、 上記補傻手 段から出力される動き補傻されたプロックの予測誤差の画像データを加算 することにより、 復元されたブロックの画像デ一タを上記補償手段に出力 する第 4の加算手段とを備える。
第] 1の発明に係る画像予測復号化装置は、 第 7の発明に係る画像予測 苻号化装置に対応して設けられる画像予測復号化装置であって、 上記画像予測符号化装置から受信された受信データから指示ビッ 卜を抽 出する油出手段と、
復兀されたプロックの係数データを格衲するブロックメモリと、 上記抽出手段によつて抽出された指示ビッ 卜が示す予測プロックに基づ いて、 上記ブロックメモリに格納された以前に復元されたプロックの係数 データを用いて、 上記受信データに含まれる現時点の力レン卜ブロックの 係数データに対して予測プロックの係数データを生成して出力する別の予 測手段と、
上記受信データをェン卜口ピー復号化して、 復号化された予測誤差の係 数データを出力する復号化手段と、
上記復号化手段から出力される予測誤差の係数データを逆量子化して出 力する逆量子化手段と、
上記別の予測手段から出力される予測ブロックの係数データを、 上記逆 量子化手段から出力される予測誤差の係数データに加算することにより、 現時点のカレントブロックの係数データを復元して出力するとともに、 上 記ブロックメモリに格納する第 3の加算手段と、
上記第 3の加算手段から出力されるカレントブロックの係数データを逆 変換して、 復元されたカレン卜プロックの画像データを出力する別の逆変 换手段とを備える。
また、 第 1 2の発明に係る画像予測復号化装置は、 第 8の発明に係る画 像予測符号化装置に対応して設けられる画像予測複号化装置であって、 上記画像予測符号化装置から受信された受信データから指示ビッ トを抽 出する抽出手段と、
復元されたプロックの係数データを格納するプロックメモリと、 上記抽出手段によって抽出された指示ビッ 卜が示す予測プロックに基づ いて、 上記プロックメモリに格納された以前に復元されたプロックの係数 データを用いて、 上記受信データに含まれる現時点の力レン トブロックの 係数データに対して予測プロックの係数データを生成して出力する別の予 測手段と、
上記受信データをェントロピー復号化して、 復号化された予測誤差の係 数データを出力する復号化手段と、
上記予測手段から出力される予測ブロックの係数データを、 上記復号化 手段から出力される予測誤差の係数データに加算することにより、 現時点 のカレン トプロックの係数データを復元して出力するとともに、 上記プロッ クメモリに格納する第 3の加算手段と、
上記第 3の加算手段から出力される予測誤差の係数データを逆量子化し て出力する逆量子化手段と、
上記逆量子化手段から出力されるカレン卜プロックの係数データを逆変 換して、 復元されたカレントブロックの画像データを出力する別の逆変換 手段とを備える。
さらに、 第 1 3の発明に係る画像予測復号化装置は、 第 9の発明に係る 画像予測符号化装置に対応して設けられる画像予測復号化装置であって、 上記画像予測符号化装置から受信された受信データから指示ビッ トを抽 出する抽出手段と、
復元されたブロックの係数データを格納するプロックメモリと、 上記抽出手段によって抽出された指示ビッ 卜が示す予測プロックに基づ いて、 上記プロックメモリに格枘された以前に復元されたプロックの係数 データを用いて、 上記受信データに含まれる現時点の力レン卜プロックの 係数データに対して予測プロックの係数データを生成して出力する別の予 測手段と、
上記受信データをェントロピー復号化して、 復号化された予測誤差の係 数データを出力する復号化手段と、
上記復号化手段から出力される予測誤差の係数データを逆量子化して出 力する逆量子化手段と、
上記別の予測手段から出力される予測プロックの係数データを、 上記逆 量子化手段から出力される予測誤差の係数データに加算することにより、 現時点のカレントブロックの係数データを復元して出力するとともに、 上 記プロックメモリに格納する第 3の加算手段と、
上記第 3の加算手段から出力されるカレン卜ブロックの係数データを逆 変換して、 復元された力レン トブロヅクの画像データを出力する別の逆変 換手段と、
上記別の逆変換手段から出力されるカレントプロックの画像データに対 して動き補償処理を実行することにより、 動き補償の予測誤差データを出 力する別の補信手段と、
上記別の逆変換手段から出力されるカレントブロックの画像データから、 上記別の補償手段から出力される動き補償の予測誤差データを減算して、 減算結果の復元されたブロックの画像データを出力する第 5の加算手段と を備える。
またさらに、 第 1 4の発明に係る画像予測復号化装置は、 第 1 0の発明 に係る画像予測符号化装置に対応して設けられる画像予測復号化装匱であつ て、
上記画像予測符号化装置から受信された受信データから指示ビッ 卜を抽 出する抽出手段と、
復元されたプロックの係数データを格納するブロックメモリと、 上記抽出手段によって抽出された指示ビッ トが示す予測ブロックに基づ いて、 上記ブロックメモリに格納された以前に復元されたプロックの係数 データを用いて、 上記受信データに含まれる現時点の力レン トブロックの 係数データに対して予測プロックの係数データを生成して出力する別の予 測手段と、
上記受信データをェン卜口ピー復°化して、 復号化された予測誤差の係 数データを出力する複号化手段と、
上記予測手段から出力される予測プロックの係数データを、 上記復号化 手段から出力される予測誤差の係数データに加算することにより、 現時点 のカレントブロックの係数データを復元して出力するとともに、 上記プロッ クメモリに格納する第 3の加算手段と、
上記第 3の加算手段から出力される予測誤差の係数デ一タを逆量子化し て出力する逆量子化手段と、
上記逆量子化手段から出力されるカレントブロックの係数データを逆変 換して、 復元された力レン卜ブロックの画像データを出力する別の逆変換 手段と、
上記別の逆変換手段から出力されるカレントブロックの画像データに対 して動き補儻処理を実行することにより、 動き補信の予測誤差データを出 力する別の補侬手段と、
上記別の逆変換手段から出力されるカレントブロックの画像データから、 上記別の補償手段から出力される動き楠儻の予測誤差データを減算して、 減 g結果の復元されたプロックの画像データを出力する第 5の加算手段と を備える。
第 1 5の発明に係る画像予測符号化装置は、 入力された画像信号をそれ ぞれ二次元配列の画素値を含む複数のブロックの画像データにサンプリン グするサンプリング手段と、
上記サンプリ ング手段によってサンプリングされたプロックの画像デー 夕を所定の変換領域の係数データに変換する変換手段と、
復元されたプロックの係数データを格納するブロックメモリと、 上記プロックメモリに格納された前に再構築されたプロックの係数デー 夕に基づいて、 上記変換手段によって変換されたプロックの係数データに 対して複数の予測プロックの係数データを形成する予測手段と、
上記予測手段によって形成された複数の予測プロックの係数データのう ち、 最も効率が良い予測プロックの係数データ及びスキャン方法を決定し 選択して出力し、 上記選択された予測プロック及びスキャン方法を表す指 示子を指示ビッ 卜の形式で画像予測複号化装置に送信する決定手段と、 上記決定手段によって選択された予刺ブロックの係数データを、 現時点 のカレン トプロックの係数データから減算することにより、 減算結果の予 測誤差の係数データを出力する第 1の加算手段と、
上記第 1の加算手段から出力される予測誤差の係数データを量子化する 量子化手段と、
上記量子化手段からの予測誤差の係数デ一タに対して上記決定手段によつ て決定されたスキャン方法でスキヤン処理を実行して、 スキヤン処理後の 予測誤差の係数データを出力するスキャン手段と、
上記スキヤン手段から出力されるスキヤン処理後の予測誤差の係数デー 夕をェントロピー符号化して、 符号化された予測誤差の係数データを画像 予測復号化装置に送信する符号化手段と、
上記量子化手段からの予測誤差の係数データを逆量子化して、 復元され たブロックの係数データを出力する逆量子化手段と、
上記決定手段から出力される予測プロックの係数データを、 上記逆量子 化手段から出力される予測誤差の係数データに加算することにより、 復元 されたプロックの係数データを出力するとともに、 上記ブロックメモリに 格納する第 2の加算手段と、
上記第 2の加算手段から出力されるプロックの係数データを逆変換する ことにより、 復元されたプロックの画像データを生成する逆変換手段とを 備える。
また、 第 1 6の発明に係る画像予測符号化装置は、 入力された画像信号 を二次元配列の画素値を含む複数のプロックの画像データにサンプリング するサンプリング手段と、
上記サンプリング手段によってサンプリングされた複数のプロックの画 像データを所定の変換領域の係数データに変換する変換手段と、
上記変換手段からの変換領域の係数データを量子化する量子化手段と、 復元されたプロックの係数データを格納するプロックメモリ と、 上記プロックメモリに格納された前に再構築されたプロックの係数デー タに基づいて、 上記変換手段によって変換されたプロックの係数データに 対して複数の予測プロックの係数データを形成する予測手段と、
上記予測手段によって形成された複数の予測プロックの係数データのう ち、 最も効率が良い予測ブロックの係数データ及びスキヤン方法を決定し 選択して出力し、 上記選択された予測プロック及びスキャン方法を表す指 示子を指示ビッ トの形式で画像予測復号化装置に送信する決定手段と、 上記決定手段によって選択された予測プロックの係数データを、 現時点 のカレン トプロックの係数データから減算することにより、 減算結果の予 測誤差の係数データを出力する第 1の加算手段と、
上記第 1の加算手段からの予測誤差の係数データに対して上記決定手段 によって決定されたスキヤン方法でスキヤ ン処理を実行して、 スキャン処 理後の予測誤差の係数データを出力するスキャン手段と、 上記スキャン手段から出力されるスキヤ ン処理後の予測誤差の係数デー タをェント口ビー符号化して、 符号化された予測誤差の係数データを画像 予測復号化装置に送信する符号化手段と、
上記第 1の加算手段からの予測誤差の係数データを、 上記決定手段から 出力される予測プロックの係数データを加算することにより、 量子化され たカレントブロックの係数デ一夕を復元して出力するとともに、 上記ブロッ クメモリに格納する第 2の加算手段と、
上記第 2の加算手段から出力される力レン卜ブロックの係数データを逆 量子化して出力する逆量子化手段と、
上記逆量子化手段からのカレントブロックの係数データを逆変換するこ とにより、 復元されたプロックの画像データを生成する逆変換手段とを備 える。
さらに、 第 1 7の発明に係る画像予測符号化装置は、 入力された画像信 号をそれぞれ二次元配列の画素値を含む複数のブロックの画像データにサ ンプリングするサンプリング手段と、
入力されるプロックの画像データに対して動き補償処理を実行すること により、 動き補償されたプロックの予剿誤差の画像データを生成して出力 する補儐手段と、
上記サンプリング手段から出力されるプロックの画像データから、 上記 補償手段から出力されるプロックの予測誤差の画像データを減算して、 減 算結果のプロックの画像データを出力する第 1の加算手段と、
上記笫 1の加算手段から出力されるブロックの画像データを所定の変換 領域の係数データに変換する変換手段と、
復元されたプロックの係数データを格納するプロックメモリと、 上記ブロックメモリに格納された前に再構築されたブロックの係数デ一 夕に基づいて、 上記変換手段によって変換されたプロックの係数データに 対して複数の予測プロックの係数データを形成する予測手段と、
上記予測手段によつて形成された複数の予測プロックの係数データのう ち、 最も効率が良い予測プロックの係数データ及びスキャン方法を決定し 選択して出力し、 上記選択された予測プロック及びスキャン方法を表す指 示子を指示ビッ 卜の形式で画像予測復号化装置に送信する決定手段と、 上記決定手段によつて選択された予測ブロックの係数データを、 現時点 のカレントブロックの係数データから減算することにより、 減算結果の予 測誤差の係数データを出力する第 2の加算手段と、
上記第 2の加算手段から出力される予測誤差の係数デー夕を量子化する 量子化手段と、
上記量子化手段からの予測誤差の係数データに対して上記決定手段によつ て決定されたスキャン方法でスキヤン処理を実行して、 スキヤン処理後の 予測誤差の係数データを-出力するスキャン手段と、
上記スキャン手段から出力されるスキャン処理後の予測誤差の係数デー タをェントロピー符号化して、 符号化された予測誤差の係数データを画像 予測復号化装置に送信する符号化手段と、
上記量子化手段からの予測誤差の係数データを逆量子化して、 復元され たプロックの係数データを出力する逆量子化手段と、
上記決定手段から出力される予測プロックの係数データを、 上記逆量子 化手段から出力される予測誤差の係数デ一タに加算することにより、 復元 されたブロックの係数データを出力するとともに、 上記プロックメモリに 格納する第 3の加算手段と、
上記第 3の加算手段から出力されるプロックの係数データを逆変換する ことにより、 復元されたプロックの画像データを生成する逆変換手段と、 上記逆変換手段からの復元されたプロックの画像データに、 上記補償手 段から出力される動き捕償されたプロックの予測誤差の画像データを加算 することにより、 復元されたブロックの画像データを上記補償手段に出力 する第 4の加算手段とを備える。
またさらに、 第 1 8の発明に係る画像予測符号化装置は、 入力された画 像信号を二次元配列の画素値を含む複数のブロックの画像デー夕にサンプ リングするサンプリング手段と、
入力されるプロックの画像データに対して動き補儅処理を実行すること により、 動き補僙されたプロックの予測誤差の画像データを生成して出力 する補償手段と、
上記サンプリ ング手段から出力されるブロックの画像データから、 上記 補償手段から出力されるプロックの予測誤差の画像データを減算して、 減 算結果のプロックの画像データを出力する第 1の加算手段と、
上記第 1の加算手段から出力されるプロックの画像データを所定の変換 領域の係数データに変換する変換手段と、
上記変換手段からの変換領域の係数データを量子化する量子化手段と、 復元されたブロックの係数データを格納するブロックメモリと、 上記プロックメモリに格納された前に再構築されたプロックの係数デー 夕に基づいて、 上記変换手段によって変換されたプロックの係数データに 対して複数の予測プロックの係数データを形成する予測手段と、
上記予測手段によって形成された複数の予測ブロックの係数データのう ち、 最も効率が良い予測プロックの係数データ及びスキャン方法を決定し 選択して出力し、 上記選択された予測プロック及びスキャン方法を表す指 示子を指示ビッ 卜の形式で画像予測複号化装置に送信する決定手段と、 上 d決定手段によって選択された予測ブロックの係数データを、 現時点 のカレントブロックの係数データから減算することにより、 '减算結果の予 測誤差の係数データを出力する第 2の加算手段と、
上ヒ第 2の加算手段からの予測誤差の係数データに対して上記決定手段 によって決定されたスキヤン方法でスキヤン処理を実行して、 スキヤン処 理後の予測誤差の係数データを出力するスキャン手段と、
上記スキャン手段から出力されるスキヤン処理後の予測誤差の係数デー 夕をェン 卜ロビー符号化して、 符号化された予測誤差の係数データを画像 予測復号化装置に送信する符号化手段と、
上記第 2の加算手段からの予測誤差の係数データを、 上記決定手段から 出力される予測ブロックの係数データを加算することにより、 量子化され たカレン トプロックの係数データを復元して出力するとともに、 上記プロッ クメモリに格納する第 3の加算手段と、
上記第 3の加算手段から出力されるカレン卜プロックの係数データを逆 量子化して出力する逆量子化手段と、
上記逆量子化手段からの力レントプロックの係数データを逆変換するこ とにより、 復元されたプロックの画像データを生成する逆変換手段と、 上記逆変換手段からの復元されたプロックの画像データに、 上記捕儍手 段から出力される動き補償されたプロックの予測誤差の画像データを加算 することにより、 復元されたプロックの画像データを上記補儐手段に出力 する第 4の加算手段とを備える。
第 1 9の発明に係る画像予測復号化装置は、 第〗 5の発明に係る画像予 測符号化装置に対応して設けられる画像予測復号化装置であって、
上記画像予測符号化装置から受信された受信データから指示ビッ トを抽 出する抽出手段と、 復元されたブロックの係数データを格納するブロックメモリと、 上記抽出手段によって抽出された指示ビッ 卜が示す予測プロックに基づ いて、 上記ブロックメモリに格納された以前に復元されたプロックの係数 データを用いて、 上記受信データに含まれる現時点のカレントプロックの 係数データに対して予測プロックの係数データを生成して出力する別の予 測手段と、
上記受信データをェン卜口ピー復号化して、 復号化された予測誤差の係 数データを出力する復号化手段と、
上記復号化手段から出力される予測誤差の係数データに対して、 上記上 記抽出手段によって抽出された指示ビッ 卜が示すスキヤ ン方法に基づいて、 逆スキャン処理を実行して、 逆スキャン処理後の予測誤差の係数データを 出力する逆スキャン手段と、
上記逆スキヤン手段から出力される逆スキャン処理後の予測誤差の係数 データを逆量子化して出力する逆量子化手段と、
上記別の予測手段から出力される予測ブロックの係数データを、 上記逆 量子化手段から出力される予測誤差の係数デー夕に加算することにより、 現時点のカレントブロックの係数データを復元して出力するとともに、 上 記ブロックメモリに格納する第 3の加算手段と、
上記第 3の加算手段から出力されるカレン卜ブロックの係数データを逆 変換して、 復元されたカレントブロックの画像データを出力する別の逆変 換手段とを備える。
また、 第 2 0の発明に係る画像予測復号化装置は、 第 1 6の発明に係る 画像予測符号化装置に対応して設けられる画像予測復号化装置であって、 上記画像予測符号化装置から受信された受信デ一タから指示ビッ 卜を抽 出する抽出手段と、 復元されたプロックの係数データを格納するプロックメモリと、 上記抽出手段によって抽出された指示ビッ 卜が示す予測ブ0ックに基づ いて、 上記ブロックメモリに格納された以前に復元されたプロックの係数 データを用いて、 上記受信データに含まれる現時点のカレントプロックの 係数データに対して予測プロックの係数データを生成して出力する別の予 測手段と、
上記受信データをェントロピ一復号化して、 復号化された予測誤差の係 数データを出力する復号化手段と、
上記復弓化手段から出力される予測誤差の係数データに対して、 上記上 記抽出手段によって抽出された指示ビッ 卜が示すスキヤ ン方法に基づいて、 逆スキヤン処理を実行して、 逆スキャン処理後の予測誤差の係数データを 出力する逆スキャン手段と、
上記予測手段から出力される予測ブロックの係数データを、 上記逆スキヤ ン手段から出力される予測 IS差の係数データに加算することにより、 現時 点の力レントプロックの係数データを復元して出力するとともに、 上記ブ 口ックメモリに格枘する第 3の加算手段と、
上記第 3の加算手段から出力される予測誤差の係数データを逆量子化し て出力する逆量子化手段と、
上記逆量子化手段から出力されるカレン卜プロックの係数データを逆変 換して、 復元された力レントプロックの画像データを出力する別の逆変換 手段とを備える。
さらに、 第 2 1の発明に係る画像予測復号化装置は、 第] 7の発明に係 る画像予測苻号化装置に対応して設けられる画像予測復号化装置であつて、 上記画像予測符号化装置から受信された受信デ—タから指示ビッ トを抽 出する抽出手段と、 復元されたプロックの係数データを格納するブロックメモリと、 上記抽出手段によって抽出された指示ビッ 卜が示す予測プロックに基づ いて、 上記プロックメモリに格納された以前に復元されたプロックの係数 データを用いて、 上記受信データに含まれる現時点のカレン卜プロックの 係数データに対して予測プロックの係数データを生成して出力する別の予 測亍段と、
上記受信データをェントロピー復号化して、 復号化された予測誤差の係 数データを出力する復号化手段と、
上記復号化手段から出力される予測誤差の係数データに対して、 上記上 記抽出手段によって抽出された指示ビッ トが示すスキャン方法に基づいて、 逆スキャン処理を実行して、 逆スキャン処理後の予測誤差の係数データを 出力する逆スキヤン手段と、
上記逆スキャン手段から出力される逆スキャン処理後の予測誤差の係数 データを逆量子化して出力する逆量子化手段と、
上記別の予測手段から出力される予測ブロックの係数データを、 上記逆 量子化手段から出力される予測誤差の係数データに加算することにより、 現時点の力レン卜プロックの係数データを復元して出力するとともに、 上 記ブロックメモリに格納する第 3の加算手段と、
上記第 3の加算手段から出力されるカレントプロックの係数データを逆 変換して、 復元されたカレントブロックの画像データを出力する別の逆変 換手段と、
上記別の逆変換手段から出力されるカレントプロックの画像データに対 して動き補僂処理を実行することにより、 動き楠債の予測誤差データを出 力する別の補償手段と、
上記別の逆変換手段から出力されるカレントブロックの画像データから、 上記別の補慎手段から出力される動き補償の予測誤差データを減算して、 減算結果の復元されたプロックの画像データを出力する第 5の加算手段と を備える。
またさらに、 第 2 2の発明に係る画像予測復号化装置は、 第 1 8の発明 に係る画像予測符号化装置に対応して設けられる画像予測復号化装置であつ て、
上記画像予測符号化装置から受信された受信データから指示ビッ 卜を抽 出する抽出手段と、
復元されたプロックの係数データを格納するプロックメモリと、 上記抽出手段によって抽出された指示ビッ 卜が示す予測プロックに基づ いて、 上記プロックメモリに格納された以前に復元されたプロックの係数 データを用いて、 上記受信データに含まれる現時点の力レン トブロックの 係数データに対して予測プロックの係数データを生成して出力する別の予 測手段と、
上記受信データをエントロピ一復号化して、 復号化された予測誤差の係 数データを出力する復号化手段と、
上記復号化手段から出力される予測誤差の係数データに対して、 上記上 記抽出手段によって抽出された指示ビッ 卜が示すスキャン方法に基づいて、 逆スキヤン処理を実行して、 逆スキャン処理後の予測誤差の係数データを 出力する逆スキャン手段と、
上記予測手段から出力される予測プロックの係数データを、 上記逆スキヤ ン手段から出力される予測誤差の係数データに加算することにより、 現時 点のカレントプロックの係数データを復元して出力するとともに、 上記ブ ロックメモリに格納する第 3の加算手段と、
上記第 3の加算手段から出力される予測誤差の係数データを逆量子化し て出力する逆量子化手段と、
上記逆量子化手段から出力されるカレントプロックの係数データを逆変 換して、 復元されたカレントブロックの画像データを出力する別の逆変換 手段と、
上記別の逆変換手段から出力されるカレントブロックの画像データに対 して動き捕償処理を実行することにより、 動き補儻の予測誤差データを出 力する別の補償手段と、
上記別の逆変換手段から出力されるカレン トブロックの画像データから、 上記別の補償手段から出力される動き補償の予測誤差データを減算して、 減算結果の復元されたプロックの画像データを出力する第 5の加算手段と を備える。
また、 第 2 3の発明に係る画像予測符号化方法は、 上記画像予測符号化 装置における各手段をそれぞれ各ステップに置き換えたステップを含む。 さらに、 第 2 4の発明に係る画像予測復号化方法は、 上記画像予測復号 化装置における各手段をそれぞれ各ステップに置き換えたステップを含む。 また、 第 2 5の発明に係る記録媒体は、 上記画像予測符号化方法におけ る各ステップを含むプログラムを記録した記録媒体である。
さらに、 第 2 6の発明に係る記録媒体は、 上記画像予測復号化方法にお ける各ステップを含むプログラムを記録した記録媒体である。
図面の簡単な説明
図 1は、 本発明に係る第 1の実施形態である画像予測符号化装置の構成 を示すプロック図である。
図 2は、 図 1の画像予測符弓化装置に入力される入力画像を 8 X 8のブ 口ックに分割した場合の模式図である。
図 3は、 図 1の画像予測符号化装置に入力される入力画像を三角領域に 分割した場合の模式図である。
図 4は、 図 1の画像予測符号化装置に用いられる予測信号発生器の第 1 の実施例の構成を示すプロック図である。
図 5は、 図 1の画像予測符号化装置に用いられる予測信号発生器の第 2 の実施例の構成を示すプロック図である。
図 6は、 図 1の画像予測符号化装置に用いられる予測信号発生器の第 3 の実施例の構成を示す,プロック図である。
図 7は、 図 1の画像予測符号化装置に用いられる予測信号発生器の第 4 の実施例の構成を示すプロック図である。
図 8は、 本発明に係る第 2の実施形態である画像予測符号化装置の構成 を示すプロック図である。
図 9は、 図 1及び図 8の画像予測符号化装置に入力される入力画像であつ て、 有意である画素を有する入力画像の一例を示す摸式図である。
図 1 0は、 図 1及び図 8の画像予測符号化装匱に入力される入力画像で あって、 有意である画素を有する入力画像の一例を示す摸式図である。 図 1 1は、 図 1及び図 8の画像予測符号化装置に入力される入力画像で あって、 有意でない画素を有する入力画像の一例を示す模式図である。 図 1 2は、 本発明に係る第 3の実施形態である画像予測復号化装置の構 成を示すプロック図である。
図 1 3は、 本発明に係る第 4の実施形態である画像予測復号化装 gの構 成を示すプロック図である。
図 1 4は、 従来技術の画像予測符号化装置の構成を示すプロック 11であ る。
図 1 5は、 画面内予測のための適応的 D C T変換領域を説明するための 両像の模式図である。 図 1 6は、 本発明に係る第 5の実施形態である画像了'測符号化装置の構 成を示すプロック図である。
図 1 7は、 本発明に係る第 6の実施形態である画像予測符号化装置の構 成を示すプロック図である。
図 1 8は、 図 1 6及び図 1 7の D C T変換領域予測回路の構成を示すブ 口ック図である。
図 1 9は、 図 1 8の D C T変換領域予測回路における D C ZA C予測の 符号化方法の一例を示す画像の模式図である。
図 2 0は、 本発明に係る第 7の実施形態である画像予測復号化装置の構 成を示すプロック図である。
図 2 1は、 図 2 0の画像予測復号化装置における D C Z A C予測の復号 化方法を示すフローチヤ一トである。
図 2 2は、 従来技術の画像予測符号化装置の構成を示すプロック図であ な ο
図 2 3は、 従来技術の画像予測復号化装笸の構成を示すプロック図であ る。
図 2 4は、 本発明に係る第 8の実施形態である画像予測符号化装置の構 成を示すプロック図である。
図 2 5は、 本発明に係る第 8の実施形態である画像予測復号化装置の構 成を示すプロック図である。
図 2 6は、 第 8の実施形態における、 フレームのマクロブロックとブロッ クの構造を示し、 かつプロック予測方法を示す画像の模式図である。
図 2 7は、 第 8の実施形態における係数スキヤ ンに用いられる水平スキヤ ンの順序を説明するための画像の模式図である。
図 2 8は、 第 8の実施形態における係数スキヤ ンに用いられる垂直スキヤ ンの順序を説明するための画像の模式図である。
図 2 9は、 第 8の実施形態における係数スキャンに用いられるジグザグ スキャンの順序を説明するための画像の模式図である。
図 3 0は、 第 8の実施形態に使用されているモード決定処理を示すフロ 一チャートである。
図 3 1は、 第 8の実施形態の暗黙モード決定におけるプロックの関係を 示す画像の模式図である。
発明を実施するための最良の形態
以下、 本発明に係る好ましい実施形態について、 添付の図面を参照して 説明する。
第]の実施形據グループ
第 1の実施形態グループは、 第 1の乃至第 4の実施形態を含む。
第 1の実施形態
図 1は、 本発明に係る第 1の実施形態である画像予測符号化装置の構成 を示すブロック図である。
図 1において、 1 0 1は入力端子、 1 0 2は第 1の加算器、 1 0 3は符 号化器、 1 0 6は出力端子、 1 0 7は復号化器、 1 1 0は第 2の加算器、 1 1 1はラインメモリ、 1 1 2は予測信号発生器である。
以下、 画像予測符号化装置の構成及び動作について説明する。 入力端子 1 0 1に、 符号化の処理対象となる画像データが入力される。 ここで、 入 力された画像データは複数の隣接する小領域に分割される。
図 2において、 8 X 8の小領域に分割された埸合の入力された画像デー タの画像を示し、 図 3において、 三角形小領域に分割された場合の入力さ れた画像データの画像を示す。 複数の小領域の画像データを順次に符号化 するが、 処理対象の小領域の画像データは、 入力端子 1 0 1及びライン 1 1 3を介して加算器 1 0 2に入力される。 一方、 予測信号発生器 1 1 2は、 画面内予測小領域の画像データを発生し、 発生された画像データを最適予 測小領域の画像データとして、 ライ ン 1 2 1を介して加算器 1 0 2に出力 する。
加算器 1 0 2は、 処理対象の小領域における入力された画像データの画 素値から、 予測信号発生器 1 1 2からの最適予測小領域の対応する画素値 を減算し、 減算結果の差分小領域の画像データを生成して符号化器 1◦ 3 に出力して、 圧縮符号化処理を実行する。 本実施形態では、 符号化器 1 0 3は D C T変換器 1 0 4と量子化器 (Q ) 1 0 5を備え、 差分小領域の画 像データは、 0〇丁変換器1 0 4によって周波数領域の画像信号に変換さ れ、 D C T変換係数を得る。 次いで、 D C T変換係数は、 量子化器 1 0 5 によって量子化される。 量子化された小領域の画像データはライン丄 丄 6 を介して出力端子 1 0 6に出力され、 さらに可変長又は固定長の符号に変 換された後、 例えば光ディスクなどの記録媒体に記憶され又は通信回線を 介して伝送される (図示せす。 ) 。
同時に、 量子化された小領域の画像データは復号化器 1 0 7に入力され、 ここで、 当該復号化器 1 0 7は、 逆量子化器 1 0 8と逆 D C T変換器 1 0 9とを備え、 入力された小領域の画像データを、 伸長差分小領域の画像デ 一夕に復元する。 本実施形態では、 入力された小領域の画像データは、 逆 量子化器 1 0 8によって逆量子化された後、 逆量子化された画像データは、 逆離散コサイン変換器 (以下、 逆 D C T変換器という。 ) 1 0 9によって 空間領域の画像信号に変換される。 このように得られた伸長差分小領域の 画像データは加算器 1 1 0に出力され、 加算器 1 1 0は、 伸長差分小領域 の画像データに、 予測信号発生器 1 1 2からライン 1 2 1とライン 1 2 2 を介して出力される最適予測画像信号を加算して、 再生小領域の画像デー タを生成し、 再生小領域の固像データの中から、 画 ¾]内予測画像信号を生 成するための再生画素値をライ ンメモリ 111に格納する。 予測信号発生 器 112は以下のように、 画面内予測小領域の画像データを発生する。 す なわち、 予測信号発生器 112は、 処理対象の小領域の画像データに隣接 する再生された画像データの画素値を、 画面内予測小領域の画像データの 画素値として発生する。
図 2において、 ブロック 200を処理対象の小領域とすると、 隣接する 再生された画像データの画素値は a 0、 a,、 a2、 . . . 、 ae、 a 7、 b0、 b b 2、 . . . 、 b 6、 b7である。 図 3において、 三角形 301を処理 対象の小領域とすると、 隣接する再生された画像データの画素値は g:)、 g . . . 、 ί 0、 f 1. f 2、 . . . 、 f 7、 f 8である。 また、 図
3の三角形 300を処理対象の小領域とすると、 隣接する再生された画像 データの画素値は e0、 h0、 h!、 . . . 、 h4である。 これらの画素値を ラインメモリ 111に格納する。 予測信号発生器 112はライ ンメモリ 1 1 1をアクセスし隣接する画像データの画素値を画面内予測小領域の画像 データの画素値として読み出す。
図 4及び図 5はそれそれ、 図 1の画像予測符号化装置に用いられる予測 信号発生器の第 1及び第 2の実施例の構成を示すブロック図である。
図 4において、 処理対象の小領域に対して水平方向に隣接する画素値 a 0、 a,、 a2、 . . . 、 a6、 a 7はライ ンメモリ 111から予測信号発生 器 112に入力され、 予測信号発生器 112内の発生器 401は、 水平方 向に同一の画素を例えば 8回繰り返して出力することにより、 両面内予測 小領域の画像データ 403を生成する。 ここで、 画面内予測小領域の画像 データ 403は処理対象の小領域に対して垂直方向に隣接する画素が存在 しない場合に用いられる。 図 5において、 処理対象の小領域に対して垂直方向に隣接する画素値 b 0、 b i、 b 2、 . . . 、 b 6、 b 7がラインメモリ 1 1 1から予測信号発生 器 1 1 2に入力され、 予測信号発生器 1 1 2内の発生器 4 0 2は、 垂直方 向に画素を例えば 8回繰り返して出力することにより、 画面内予測小領域 の画像データ 4 0 4を生成する。 ここで、 画面内予測小領域の画像デ一夕 4 0 4は、 処理対象の小領域に対して水平方向に隣接する画素がない場合 に用いられる。 水平方向及び垂直方向共に隣接する画素値が存在する場合、 図 6に示す第 3の実施例のように画面内予測小領域の画像データを生成す る。
図 6は、 図 1の画像予測符号化装置に用 t、られる予測信号発生器の第 3 の実施例の構成を示すプロック図である。
図 6において、 発生器 4 0 1によって発生された画面内予測小領域の画 像データ 4 0 3 (図 5参照。 ) と、 発生器 4 0 2によって発生された画面 内予測小領域の画像データ 4 0 4とは加算器 5 0 0に入力され、 加算器 5 0 0は、 入力された 2つの画像データの和を 2で除算することにより、 こ れら 2つの画像データを平均化する。 このように、 発生器 4 0 1 . 4 0 2 により隣接する再生された画素を緣り返して出力し、 加算器 5 0 0により 平均化演算を行うだけなので、 画面内予測小領域の画像データを高速に生 成することができる。 なお、 隣接する 2つの画像データの画素値を線形補 間することにより画面内予測小領域の画像データを生成してもよい。
図 7は、 図 1の画像予測符号化装置に用いられる予測信号発生器の第 4 の実施例の構成を示すプロック図である。
図 7において、 処理対象の小領域に対して水平方向に隣接する画像デー 夕の画素値 a 0、 aい a 2、 . . . 、 a 6、 a 7は、 ラインメモリ 1 1 1か ら発生器 4 0 1に入力され、 発生器 4 0 1は、 水平方向に画素を繰り返し て出力することにより第 1の画面内予測小領域の画像データを生成する。 —方、 処理対象の小領域に対して垂直方向に隣接する画素値 b o、 b ,、 b 2、 . . . 、 b e、 b 7は、 ラインメモリ 1 1 1から発生器 4 0 2に入力さ れ、 発生器 4 0 2は、 垂直方问に画素を繰り返して出力することにより第 2の画面内予測小領域の画像データを生成する。 第 1の画面内予測小領域 の画像データと、 第 2の画面内予測小領域の画像データは加算器 5 0 0に 人力され、 これら 2つの画像データを平均化することにより第 3の画面内 予測小領域の画像データを生成する。
一方、 処理対象の小領域の画像データは、 ライ ン 6 1 6を介して誤差計 算器 6 0 1 , 6 0 2 , 6 0 3に入力される。 ここで、 上記第 1の画面内予 測小領域の画像データと、 処理対象の小領域の画像データは、 誤差計算器 6 0 1に入力され、 誤差計算器 6 0 1はそれら 2つの画像データの誤差の 絶対値である第 1の絶対誤差を計算して比較器 6 0 4に出力する。 また、 上記第 2の画面内予測小領域の画像データと、 処理対象の小領域の画像デ 一夕は誤差計算器 6 0 2に入力され、 誤差計算器 6 0 2はこれら 2つの幽 像データの誤差の絶対値である第 2の絶対誤差を計算して比較器 6 0 4に 出力する。 さらに、 上記第 3の画面内予測小領域の画像データと、 処理対 象の小領域の画像データは、 誤差計算器 6 0 3に入力され、 誤差計算器 6 0 3はこれら 2つの画像データの誤差の絶対値である第 3の絶対誤差を計 算して比較器 6 0 4に出力する。
比較器 6 0 4は、 入力される 3つの絶対誤差を互いに比較して、 絶対誤 差の最も小さいものを決定し、 それに対応する画面内予測小領域の画像デ ータをライン 1 2 1に出力するようにスィツチ 6 0 5を制御する。 比較器 6 0 4は、 同時に、 第 1、 第 2及び第 3の画面内予測小領域の画像データ を識別するための識别子をライン 6 1 5を介して受信側又は再生側の装置 に出力する。 この識別子により、 受信側又は再生側では画面内予測小領域 の画像データが一意に決まる。 このように誤差の最も小さい画面内予測小 領域の画像データを用いることによって、 符号化時の差分信号を抑圧する ことができ、 発生ビッ ト数を削減することができる。
第 2の実施形態
図 8は、 本発明に係る第 2の実施形態である画像予測符号化装置の構成 を示すプロック図であり、 図 1と同様のものは同一の符号を付している。 図 8の画像予測符号化装置は、 図 1の画像予測符号化装置に比較して、 動き検出器 7 0 0、 動き補償器 7 0 1、 最適モード選択器 7 0 3とフレー ムメモリ 7 0 2を追加して備えたことを特徴とする。
以下、 図 8の画像予測符号化装置の構成及び動作について説明する。 入力端子 1 0 1を介して、 第 1の实施形態と同様に、 入力された処理対 象の小領域の画像データが加算器 1 0 2に入力され、 加算器 1 0 2は、 処 理対象の小領域の画像データを、 最適モー ド選択器 7 0 3からライン 1 2 1を介して入力される最適予測小領域の画像データから減算した後、 減算 結果の画像データを符号化器 1 0 3に出力する。 符号化器 1 0 3は、 入力 される減算結果の画像データを圧縮苻号化して出力端子 1 0 6を介して出 力すると同時に、 ί土縮符号化された小領域の画像データを復号化器 1 0 7 に出力して伸長復号化させた後、 加算器 1 1 0に出力して、 伸長復号化さ れた画像データを最適予測小領域の画像データと加算する。
次いで、 第 1の実施形態と同様に、 画面内予測小領域の画像データを生 成するために用いられる画像データの画素値のみをラインメモリ 1 1 ]に 格納する一方、 再生された画像の画素値をすベてフレームメモリ 7 0 2に 格納する。
次の画像の画像データが入力端子 1 0 1を介して入力されるときに、 動 き検出器 7 0 0には、 処理対象の小領域の画像データと、 フレームメモリ
7 0 2に格納された再生画像データとが入力され、 動き検出器 7 0 0は、 ブロックマッチングなどの方法で画像の動きを検出し、 動きべク トルをラ イン 7 0 5を介して出力する。 出力された動きべク トルは、 例えば可変長 符号化して記憶又は伝送される (図示せず。 ) と同時に動き捕償器 7 0 1 に送られる。 動き補償器 7 0 1は、 動きべク トルに基づいてフレームメモ リ 7 0 2の再生画像から時間予測小領域の画像データを生成して、 最適モ -ド選択器 7 0 3に出力する。 動き検出処理及び動き楠償処理においては、 前方予測と、 後方予測と、 両方向予測とがあり、 これらの方法は、 例えば 米国特許第 5 , 1 9 3 , 0 0 4号明細香に開示されている。
—方、 予測信号発生器 1 1 2は、 第 1の実施形態と同様に、 画面内予測 小領域の画像データを発生して最適モード選択器 7 0 3に出力すると同時 に、 処理対象の小領域の画像データを最適モード選択器 7 0 3に出力する。 最適モード選択器 7 0 3は、 画面内予測小領域の画像データと、 時 予測 小領域の画像データとから、 処理対象の小領域の画像データに最も誤差 (例 えば、 画素毎の差の絶対値の和) の小さい画像データを選択し、 選択され た画像データを最適予測小頜域の画像データとして加算器 1 0 2に出力す る。 また、 どの予測小領域の画像データが選択されたかを示す識別子をラ イン 7 0 9を介して受信側又は再生側に出力して伝送する。
このようにフレーム間動き捕儻符号化の画像データに、 画面内予測を導 入することによりフレーム間の動きべク トルを伝送する必要がないため、 ビッ ト数をさらに削減できる。
第 1と第 2の実施形態では、 画面全体に有意な画素が存在する場合であ る。 画面内に有意であるとそうでない画素が存在する場合がある。 例えば、 クロマキ一で撮影された画像では、 被写体を表す画素は有意なもので、 背 景となるブルーなど領域を現す画素は有意でない画素である。 有意な物体 のテキスチャ一及びその形状を符号化して伝送することにより、 物体単位 の再生表示が可能である。 このような入力画像に対して、 予測信号発生器
1 1 2で画面内予測小領域の画像データを生成する場合、 有意でない画素 値を用いることができない。
図 9乃至図 1 1は有意な画素と有怠でない画素をもつ入力画像の模式図 を示す。 本実施形態においては、 画素が有意であるかどうかを示すには形 状信号を用いる。 形状信号を所定の方法で圧縮符号化して受信側又は再生 側に伝送する。 形状を符号化する方法としては、 チューン符号化などの方 法がある。 圧縮された形状信号をまた伸長再生し、 再生された形状信号を 用いて以下に述べるように両面内予測信号を生成する。
図 9においては、 形状曲線 8 0 0が境界線で、 矢印の示す方向が物体の 内部であって、 物体の内部の画像データは有意な画素から構成される。 処 理対象の小領域 8 0 2に隣接する再生された画素の中で、 b 4、 b 5、 b fi、 b 7が有意な画素で、 これらの画素値のみを繰り返して処理対象の小領域 8 0 2の画面内予測小領域の画素値とする。
また、 図 1 0においては、 形状曲線 8 0 4が境界線で、 矢印の示す方向 が物体の内部であって、 物体の内部の画像データは有意な画素から構成さ れる。 処理対象の小領域 8 0 5に隣接する再生された画素の中で、 a 4、 a 5、 a e、 a 7が有意な画素であって、 これらの画素値のみを繰り返して 処理対象の小領域 8 0 5の画面内予測小領域の画素値とする。
さらに、 図 1 1においては、 曲線 8 Π 8が境界線で、 矢印の示す方向が 物体の内部であって、 物体の内部の画像データは有意な画素から構成され る。 処理対象の小領域 8 1 0に隣接する再生された画素の中で、 a 5、 a 6、 a 7、 b 4、 b 5、 b 6、 b 7が有意な画素であって、 これらの画素値のみを 繰り返して出力し、 2つの画素値が重なるところでは、 それらの画素値を 平均化した値を処理対象の小領域 810の画面内予測小領域の画素値とす る。
図 11において、 例えば、 処理対象の小領域 810の画素 z 77の値は a 7と b 7の平均値とする。 また、 画素値が】つもないところでは、 水平方向 及び垂直方向に膦接する 2つの画素値の平均値をとる。 例えば、 画素 z 14 の値は a 5と b4の平均値とする。 このように、 任意の形状をもつ画像の画 面予測小領域の画像データを生成する。
以上の実施形態においては、 正方形状に分割された小領域について説明 したが、 本発明はこれに限らず、 図 3と同様に、 画面を三角形の小領域に 分割してもよい。 この場合においても、 画像処理が同様に実行される。 また、 別の実施形態として、 有意な画索値だけを用いて平均値を求めて、 その平均値を画面内予測小領域の画素値としてもよい。 具体的には、 図 9 では、 画素 b4、 b5、 bfi、 b 7の平均値を計箕し、 計算された平均値を画 面内予測小領域の画素値とする。 図 10では、 画素 a 4、 a 5、 a6、 a7の 平均値を計算し、 計算された平均値を画面内予測小領域の画素値とする。 図 11では、 画素 a5、 a«、 a7、 b4、 b 5、 b6、 b7の平均値を計算し、 画面内予測小領域の画素値とする。
第 3の実施形態
図 12は、 本発明に係る第 3の実施形態である画像予測復号化装置の構 成を示すプロック図である。
図 12において、 901は入力端子、 902はデータ解析器、 903は 復号化器、 906は加算器、 907は出力端子、 908はコン トローラ、 909は動き補僂器、 910は予測信号発生器、 911はラインメモリ、 912はフレームメモリである。 以下、 図 1 2の画像予測復号化装置の構成及び動作について説明する。 図 1 2において、 圧縮符号化された画像データはデータ解析器 9 0 2に入 力され、 データ解析器 9 0 2は入力された画像データを解析して、 圧縮差 分小領域の画像データをライン 9 1 5を介して復号化器 9 0 3に出力し、 また、 制御信号をライン 9 2 6を介してコントローラ 9 0 8に出力し、 さ らには、 上述の動きべク トル (存在する場合のみ) を動き捕償器 9 0 9に 出力する。 復号化器 9 0 3は、 逆量子化器 9 0 4と、 逆 D C T変換器 9 0 5を備え、 圧縮された差分小領域の画像データを伸長して、 伸長差分小頜 域の画像データに復元する。
本実施形態では、 圧縮された差分小領域の画像データは、 逆量子化器 9 0 4により逆量子化された後、 逆量子化後の周波数領域の画像データは、 逆 D C T変換器 9 0 5により空間領域の画像データに変換される。 変換後 の伸長差分小領域の画像データは加算器 9 0 6に入力され、 加算器 9 0 6 は、 入力される伸長差分小領域の画像データを、 動き補償器 9 2 3又は予 測信号発生器 9 2 2からスィ ッチ 9 1 3及びライン 9 2 4を介して送られ る最適予測小領域の画像データに加算し、 加算結果の再生小領域の画像デ —タを生成する。 加算器 9 0 6は、 再生された画像データをライン 9 1 7 を介して出力端子 9 0 7に出力すると同時に、 フレームメモリ 9 1 2に格 納する。 また、 画面内予測小領域の画像を生成するために用いられる画像 データの画素値をラインメモリ 9 1 1に格納する。
最適予測小領域の画像データは、 データ解析器 9 0 2からの制御信号に 基づいてコン トローラ 9 0 8によって決定されてスィッチ 9 1 3の切り換 えが制御される。 画面内予測小領域の画像データがコントローラ 9 0 8に よって選択される場合、 スィッチ 9 1 3はライン 9 2 4をライン 9 2 2に 接続し、 コントローラ 9 0 8からの制御信号に応答して、 予測信号発生器 9 1 0はラインメモリ 9 1 1をアクセスして、 隣接する再生画素値を画面 内予測小領域の画素値として出力する。 予測信号発生器 9 1 0の動作の詳 細については、 図 4、 図 5及び図 6を参照して許細上述している。 また、 時間予測小領域の画像データがコン卜ローラ 9 0 8によって選択される塌 合、 スィ ッチ 9 1 3はライン 9 2 4をライン 9 2 3に接続し、 コン トロー ラ 9 0 8からの制御信号に応答して、 動き補僂器 9 0 9はデータ解析器 9 0 2からライン 9 2 5を介して送られる動きべク トルに基づいて、 フレー ムメモリ 9 1 2からの画像データに対して動き補值処理を実行することに より、 時間予測小領域の画像データを発生して、 スィッチ 9 1 3及びライ ン 9 2 4を介して加算器 9 0 6に出力する。
第 4の実施形態
図 1 3は、 本発明に係る第 4の実施形態である画像予測復号化装置の構 成を示すプロック図であり、 図 1 3において図 1 2と同様のものについて は同一の符号を付している。 図 1 3の画像予測復号化装置は、 図 1 2の画 像予測復号化装置の基本構成に加えて、 形状復号化器 9 9 0を追加して備 えたことを特徴とする。 図 1 3の画像予測復号化装置の基本動作も図 1 2 と同じであるため、 異なる動作だけについて以下に詳細に説明する。
本実施形態においては、 圧縮符号化された画像データには、 圧縮符号化 された形状データが含まれる。 データ解析器 9 0 2は、 この形状データを 抽出して形状復号化器 9 9 0に出力し、 これに応答して形状復号化器 9 9 0は形状信号を伸 S再生する。 再生された形状信号は受信側又は再生側に 伝送される同時に、 予測信号発生器 9 1 0に入力される。 予測信号発生器 9 1 0は、 この再生された形状信号に基づいて、 図 9乃至図 1 1を参照し て説明したように、 画面内予測小領域の画像データを生成する。 このよう にして、 任意の形状をもつ画像の画面内予測小領域の画像データを生成し、 受信側又は再生側において、 幽像データを復号化し、 再生することができ る。
第 3と第 4の実施形態の特徴は、 ラインメモリ 9 1 1を備えた事である。 ラインメモリ 9 1 1がなければ、 画面内予測小領域の画像データを生成す るための画素をフレームメモリ 9 1 2からアクセスしなければならない。 隣接する小領域の画素で予測信号を生成するために、 高速にフレームメモ リを書き込み、 読み出しするが必要である。 専用のラインメモリやバッファ を設けることにより高速なフレームメモリを用いないで高速に画面内予測 小領域の画像データを生成することが可能になる。
以上の実施形態において、 複数の画素値の平均値は、 所定の重み付け平 均値であってもよい。
以上説明したように、 本発明の第 1の実施形態グループによれば、 処理 対象の小領域の画像データに隣接する再生された画素値を画面内予測信号 の画素値とするだけで、 従来技術に比較して低い演算量で簡単に高精度な 予測信号を生成することができ、 フレーム内苻号化のビッ ト数を削減する ことができるという特有の効果が得られる。 また、 画面内予測信号を生成 するために用いられる再生された画素値を格枘するために、 ラインメモリ 9 1 1を設けているので、 画素値を高速にアクセスすることができ、 画面 内予測信号を高速に生成することができる。
第 2の実施形態グループ
第 2の実施形態グループは、 第 5乃至第 7の実施形態を含む。
本発明者は、 従来技術の問題点に鑑みて、 画像符号化能率が、 2つの画 像間又は 1つの画像内の 2つのブロックの内部の間のみならず、 1つの画 像内の 2つのブロック間の冗長性を除去することにより、 画像符号化能率 をさらに改善することを見いだした。 本発明者は隣接するプロックの、 同じ位置の D C T変換係数は多くの場 合非常に近似していることを発見した。 特に、 2つのブロックに対する原 画像の組織がよく似ている場合、 又は同じ画像パターン、 例えば直線、 角、 その他を含んでいる場合には近似が高いことを発見した。 同一の情報は情 報理論により冗長を意味する。
プロックを越えて D C T変換領域の中に存在するこの種の冗長は、 以前 のブロックからの適応的イン トラ予測 (フレーム内予则) により除去され るか、 又は大幅に減少させることができる。 そして、 次の V L Cェントロ ピ一符号化処理は、 予測の小さいェント口ピーによりさらに高い符号化能 率を達成することができる。 この D C丁変換領域の予測の結果として、 V L Cェントロピー符号化回路への冗長データの入力は、 大幅に減少されう る。 そのために多くのビッ トの節約が期待できる。 従って、 苻号化された 画図データの画質は明確に改善される。
本発明に係る本実施形態は、 他のブロックからの D C T変換係数を適格 に予測する方 を提供する。 この方式により隣接するブロックを越えて存 在する冗長性を除去し、 量子化された D C T変換係数のェントロピーをよ り小さく し、 その結果、 D C T変換係数を符号化するための必要なビッ ト 数を減少することができる。
処理対象である現時点のカレントブロック (以下、 カレントブロックと いう。 ) の D C T変換係数は以前の隣接するブロックの中の同じ位置の D C T変換係数から予測できる。 隣接するブロックは、 処理時に既に復号化 されている。 すなわち、 以前に復号化された隣接するブロックの 1つの中 の第 1の D C係数により第 1の D C係数は予測される。 また、 第 2の係数 A C 1は、 同じ復号化されたプロックの中の第 2の係数 A C 1から予測さ れる。 以下同様に実行される。 この方法を用いることにより、 数個の予測 されるブロックを、 現時点に符号化されている D C T変換プロックに対し て上向き左側に、 斜めに左側に、 上向きに斜めに右側に、 及び上向きにあ る隣接する復号化されたブロックから求めることができる。 これらの予測 されたプロックに対して、 実際のェントロピー符号化が実行されることに よりチユックされる。 そして、 より少ないビッ ト数を持つ予測ブロックが 選択された後、 エントロピ一符号化されて、 付加的指示ビッ 卜とともに受 信側又は再生側の画像予測復号化装置に伝送される。 画像予測復号化装置 には、 どの隣接するブロックから力レン卜プロックが予測したかを報告す 本発明に係る本実施形態の方法は、 カレン卜プロックの D C T変換係数 を予測することができる。 その D C T変換係数は他の隣接するプロックの D C T変換係数と良好な相互関係を一般に保有している。 その理由は D C T変換は、 同様のブロック画像に対しては、 D C T変換係数の同一の値又 は同一の分布を与える傾向にあるからである。
イントラフレームか、 又は一時的に予測されたフレームである、 入力さ れた画像データに対して通常、 まずブロックに基づいた D C T変換処理が 実行される。 カレン トブロックの D C T変換係数が得られた後に、 D C T 変換領域の予測処理を量子化前に、 また量子化の後に実行することができ る Q
カレン トブロックの D C T変換係数は、 図 1 5に示されるように、 既に 復号化されたブロックであって、 隣接するブロック、 すなわち、 左上のブ ロック B 1、 上のブロック B 2、 右上のプロック B 3、 左のプロック B 4 から予測することができる。 予測されたブロックは、 カレントブロックの D C T変換係数の全てを、 同じ位置にある以前の隣接するプロックの D C T変換係数の全てから減算することにより得られる。 また全ての D C T変 換係数の代わりに、 部分的に D C T変換係数を減算することにより得るこ とができる。
異なる予測されたプロックにおける予測された D C T変換係数は、 量子 化の前に予測が実行されるならぱ、 量子化される。 次いで、 D C T変換係 数に対して、 エン トロピ一符号化処理が実行される。 そのエントロピ一符 号化処理は、 画像予測符号化装置のそれと同一であり、 どの予測されたブ 口ックが下位ビッ 卜として使用するかチ ックされる。
下位ビッ トを使用する予測ブロックが選択され、 選択された予測ブロッ クは、 予測決定について画像予測復号化装置に知らせる指示ビッ 卜ととも にェント口ピー苻号化される。
両像予測復号化装置においては、 指示ビッ トを用いて予測されたブ^ッ クが復号化される。 すなわち、 1つのブロックに対して予測された D C T 変換係数を逆エントロピー復号化した後に、 当該プロックに対する D C T 変換係数は、 指示ビッ 卜によって表される前に復号化された隣接するブロッ クの基準 D C T変換係数を上記復号化された D C T変換係数に加算するこ とによって得られる。 最終的に、 逆 D C T変換処理が各々のブロックに対 する復元された D C T変換係数に適用され、 復号化された画像データが得 られる。
本発明に係る本実施形態は、 通常 D C T変換のような変換によって除去 される空間的な冗長性、 動き検出及び補僂によってフレーム間で除去され る冗長性及びブロック内の量子化変換係数の中でェント口ピー符号化によつ て除去される統計的冗長性以外に、 隣接するプロックを越えて D C T変換 領域に存在する他の種類の冗長性を減少させることができる画像符号化装 置を提供するものである。
從来技術の画像予測符号化装置を示す図 1 4からわかるように、 従来の 画像符号化 (例えば、 M P E Gにおいて) に一般的に使用されている画像 予測符号化装置は、 ブロックサンプリ ングユニッ ト 1 0 0 1、 D C T変換 ユニッ ト 1 0 0 4、 量子化器 1 0 0 5及びェントロピー符号化器 1 0 0 6 を備える。
イントラフレーム符号化 (フレーム内符号化) においては、 人力された 画像信号に対してまず、 ブロックサンプリ ング処理が実行される。 次に直 接に D C T変換処理が実行される。 それに続いて、 量子化処理及びェン ト 口ピー符号化処理が実行される。 一方、 インターフレーム符号化 (予測フ レーム符号化) においては、 ブロックサンプリング処理の後に、 処理対象 の現時点のフレームのが画像データに対して、 動き検出ュニッ 卜 1 0 0 2 及び動き補償ユニッ ト 1 0 0 3の処理が実行され、 さらに、 D C T変換処 理が実行される。 さらに、 量子化処理及びエントロピー符号化処理が実行 される。
ここで、 ェントロピー符号化ュニッ 卜 1 0 0 6において、 量子化値はェ ン 卜口ピー苻号化されて苻号データが出力される。 ェン トロビー符号化と は、 よく発生する値には短い符号語を、 あまり発生しない値には長い符号 語を割り当てることにより、 平均情報量であるェントロピーに近づくよう に符号化して、 全体としての符号量を大幅に削減する方式である。 これは、 可逆符号化である。 エントロピ一符号化として種々の方式が提案されてい る力く、 ベースラインシステムでは、 ハフマン符号化を用いる。 量子化され た D C係数値と A C係数値では、 ハフマン符号化の方法が異なり、 すなわ ち、 D C係数は 8 X 8画素ブロックの平均値を示すが、 一般の画像では隣 のブロックとの平均値は似通った値を持つことが多い。 そこで、 前のブロッ クとの差分をとつた後にエン トロピー符号化を行う。 こうすると、 0付近 に値が集中するので、 エントロピー符号化が効果的となる。 また、 A C係 数については、 例えばジグザグスキャンを行い 2次元データを 1次元デー 夕に変換する。 さらに、 特に高周波成分を含む A C係数は 0が多く発生す るので、 0以外の値を持つ A C係数の値とその前に 0がいくつあるか (ラ ンレングス) を組としてエン トロピー符号化する。
レートコントローラ 1 0 0 7は前に符号化されたプロックに用いられた ビッ トをフィ ー ドハ'ックし、 量子化ュニッ 卜 1 0 0 5の処理を制御しかつ コー ドビッ ト レ一卜を調整する。 ここで、 レー トコン トローラ 1 0 0 7は、 符号化された単位の性質や利用可能なビッ 卜に基づいて各符号化されたォ ブジェク トデータ、 各フレーム及び各符号化されたブロックに対して異な るビッ ト量を割り当てるようにコードビッ トレー卜を制御する。 また、 逆 量子化処理及び逆 D C T変換処理は ID—カルデコーダの一部としてのュニッ ト 1 0 0 8及び 1 0 0 9において実行される。 ローカルデコーダで復号化 された画像データは口一カル複号化フレームメモリ 1 0 1 0に記憶され、 動き検出処理ために利用される。 1 0 1 1は動き検出のために、 前の原フ レームを保存する基準フレームメモリである。 そして、 最後にビッ 卜スト リームがエントロピー符号化ュニッ 卜 1 0 0 6から出力されて、 受信側又 は再生側の画像予測復号化装置に送られる。
図 1 5は、 画面内予測のための適応的 D C T変換領域を説明するための 画像の模式図である。
図 1 5において、 D C T変換領域において、 8 >< 8の4個の0〇丁変換 プロックがマクロプロックを構成していることが示されている。 ここで、 B 0は 8 X 8の D C T変換係数を有する現時点のカレン卜プロックを示す。 B 2は既に復号化された上側に隣接するブロックを示す。 B 1及び B 3は 既に復号化された斜め上の隣接する 2つのブロックを示す。 B 4は、 左側 に隣接する直前のブロックを示す。 D C T変換係数を持つブロックは、 8 8の D C T変換係数を有する、 復号化された隣接する複数のプロックか ら予測できることが図 1 5からわかる。
どのブロックから力レントプロックが予測されたかが常に違っているこ とに注意すべきである。 従って、 最小ビッ ト使用規則に基づく決定が実行 され、 その決定は画像予測復号化装置側の異なるブロックに適応的に与え られる。 その決定は、 指示ビッ 卜により画像予測復号化装置に報知される。 ここで、 最小ビッ 卜使用規則は、 異なる複数の予測方法の中で予測方法を 決定するために用いられ、 各予測方法が適用された後に、 ブロックを符号 化するために用いられるビッ ト量が計数される。 結果として、 使用される 最小のビッ ト量をもたらす方法が、 使用すべき予測方法として、 選択され る。
なお、 D C T変換領域予測は量子化の後及びまた前に実施されることが できる。
第 5の実施形態
図 1 6は、 本発明に係る第 5の実施形態である画像予測符号化装置の構 成を示すブロック図である。 図 1 6の画像予測符号化装置は、 D C T変換 領域予測処理は、 量子化処理の後に実行されることを特徴としている。 図 1 6において、 入力された画像信号に対してまず、 ブロックサンプリ ングュニッ ト 1 0 1 2によってプロックサンプリングが実行される。 そし て、 イントラフレーム符号化においては、 サンプルされたブロック画像デ 一夕は加算器 1 0 1 3の処理が実行されずに、 加算器 1 0 1 3を通過して D C T変換ュニッ ト 1 0 1 4に入力される。 一方、 予測フレーム符号化に おいては、 加算器 1 0 1 3は、 サンプルされたブロック画像データから動 き検出及び補慣ュニッ ト 1 0 2 5から出力される動き検出画像データを減 算して、 減算結果の画像データを D C T変換ュニッ 卜 1 0 1 4に出力する。 そして、 DCT変換処理がユニッ ト 1014で実行された後、 量子化処理 がュニッ ト 1015で実行される。
DCT変換領域予測処理はュニッ 卜 1017で実行され、 1018は予 測のために前に復号化されたブロックを格納するためのプロックメモリで ある。 加算器 1016は、 量子化ュニッ ト 1015から出力される現時点 の DC T変換プロックから、 DCT変換領域予測ュニッ ト 1017から出 力される復号化された隣接するプロックを減算する。 この符号化された隣 接するブロックの決定は DCT変換領域予測ュニッ ト 1017において行 われる。 最後に、 予測された DC T変換プロックに対して、 ユニッ ト 10 20によってェントロピー VL C符号化処理が実行され、 符号化されたビッ 卜はビッ トス卜リームに書きこまれる。
加算器 1019は、 予測のために用いられる前の隣接するプロックを、 予測プロックに加算することにより、 現時点の DC T変換プロックを復元 する。 次いで、 復元された D CT変換ブロックに対して、 逆量子化処理及 び逆 DC T変換処理はそれぞれュニッ ト 1021及び 1022において実 行される。 局所的に復号化されて逆 DCT変換ュニッ ト 1022から出力 されるプロックの画像データは加算器 1023に入力される 加算器 10 23は、 復元されたプロックの画像データに前のフレームの画像データを 加箕することによって、 再構築された画像データを得てフレームメモリ 1 024に記憶される。 動き検出及び補償処理はュニッ ト 1025で実行さ れる。 動き検出及び補償処理のための前のフレームを格納するためにフレ ームメモリ 1024が用いられる。
第 6の実施形態
図 17は、 本発明に係る第 6の実施形態である画像予測符号化装置の耩 成を示すブロック図である。 図〗 7の両像予測符号化装置は、 量子化処理 の前に、 D CT変換領域予測処理が実行されたことを特徴としている。 入 力された画像信号に対して、 ユニッ ト 1026においてプロックサンプリ ング処理が実行される。 次いで、 加算器 102了は予測フレーム符号化の ために減算を行い、 減算結果の幽像データは、 DCT変換ュニッ 卜 102 8、 加算器 1029及び量子化ュニッ ト 1030を介して、 エントロピー VLC符号化ュニッ ト 1 G 34及び逆量子化ュニッ 卜 1033に出力され る。
ブロックメモリ 1032は、 ュニッ 卜 1031の DC T変換領域予測処 理のために前のプロックの画像データを格納している。 DCT変換ュニッ ト 1028から出力される現時点の DCT変換プロックの画像データは、 加算器 1029によって、 最小ビッ ト使用規則に従って DCT変換領域予 測ュニッ ト 1031で選択された前の DC T変換プロックから減算される。 減算結果の DC T変換プロックの画像データは、 量子化ュニッ 卜 1030 によって量子化された後、 逆量子化ュニッ ト 1033及びェン卜口ピー V L C符号化ュニッ 卜 1034に出力される。 逆量子化ュニッ 卜 1033は、 入力される量子化された DCT変換プロックの画像データを逆量子化する ことにより復元して加算器 1055に出力する。 加算器 1055は、 復元 された DC T変換フロ ックの画像データを、 DCT変換領域予測ュニッ ト 1031からの前の D CT変換プロックの画像データを加算して、 加算結 果の前のプロックの画像データをプロックメモリ 1032に格納するとと もに、 逆 DCT変換ュニッ ト 1036に出力する。
逆 DCT変換ュニッ ト 1◦ 36は、 加算器 1035から入力される前の プロックの画像データに対して逆 D CT変換処理を実行して、 変換処理後 の復元された画像データを加算器 1037に出力する。 加算器 1037は、 逆 DC T変換ュニッ ト 1036から出力される復元された画像データに動 き検出及び補償ュニッ 卜 1025から出力される前のフレームの画像デー タを加算して、 加算桔果の画像データをフレームメモリ 1038に一時的 に記憶した後、 動き検出及び補償ュニッ 卜 1025に出力される。
B 1. モード決定の一般的な説明
図 18は、 図 16及び図 17の DC T変換領域予測回路 1017, 10 31の構成を示すプロック図である。
図 18において、 1040は予測のために前の隣接するプロックの画像 データを格納するブロックメモリである。 処理対象の現時点の力レン卜ブ ロックはュニッ ト 1041に入力され、 ュニッ 卜 1041は、 ブロックメ モリ 1040で格納されている前の隣接する DC T変換ブロックから入力 された力レントブロックの画像データを減算して、 次の 4種類の予測 DC T変換プロックの画像データが得られる。
(a) 1042で示される No— P r edブロック、
(b) 1043で示される U p— P r e dブロック、
(c) 1044で示される Le f t— P r e dブロック、
(d) 1045で示される O t he r— P r e dブロック。
ここで、 2ビッ トを用いて上記 4つの種類のブロックを示す。 すなわち、 例えば "OCT は No— P r e dブロックを示し、 "01" は Up— P r e dブロックを示し、 "10" は L e f t -P r e dを示し、 "11" は ◦ t he r— P r e dブロックを示す。
No— P r e dブロックは、 予測無しのときの、 現時点の DC T変換ブ 口ックの画像データ自身である。 U p— P r e dブロックは、 予測に用い られたプロックが上方に隣接する D CT変換プロック B 2である場合に得 られた予測プロックの画像データを示す。 L e f t— P r e dブロックは 予測に用いられたプロックが左側に隣接する DC T変換プロック B 4であ る場台に得られた予測プロックの画像データを示す。 0 t h e r— P r e dプロックは予測が D C係数に対してのみ行われたときの予測プロックの 画像データを示す。 0 t h e r— P r e dの場合において、 2種類の予測 方法が存在する。 すなわち、 Up— DC— Pr e d (1046) は上方に 隣接する D C T変換プロック B 2に基づいて D C係数のみに対して予測が 行われた場合に得られた予測ブロックの画像データを示す。 Le ί t—D C一 P r e d ( 1047) は左側に隣接する D C T変換プロック Β 4に基 づいて D C係数のみに対して予測が行われた場合に得られた予測ブロック の画像データを示す。 この 2つのケースに対して、 もう 1つビッ トが指示 のために必要となる。 例えば "0" は Up— DC— P r e d (1046) を示し、 " Γ' は L e f t— D C— P r e d (1047) を示すように使 用される。
斜め方向に隣接するプロック B 1、 B 3に基づいた予測は可能ではある がその予測桔果は上方や左側のプロックに予測によるもののようによくな いので、 本実施形態では用いていない。
全ての予測されたプロックに対して、 ユニッ ト 1048によって実際の ェントロピー符号化処理が実行されることにより検査され、 チェックされ る。 異なる予測されたプロックに使用されたビッ トはュニッ 卜 1049に おいて比較される。 最後に、 ュニッ ト 1050は最小ビッ 卜使用規則に基 づいて予測された DCT変換プロックを決定し、 指示ビッ トとともに予測 された DCT変換ブロックを出力する。 すなわち、 ビッ ト数が最小の予測 された DC T変換プロックを選択する。
B 2. モード決定の実施
図 19は、 図 18の DC T変換領域予測回路における DCZ AC予測の 符号化方法の一例を示す画像の模式図である。 図 19において、 先に定義された DCZAC予測された画像データの部 分集合が実際の使用に対して図示されている。 カレントブロック 1101 はカレントマクロブロックの上部左側の 8 x 8ブロックであり、 カレン卜 ブロック 1 102はカレントマクロブロックの上部右側の 8 X 8ブロック である。 A及び Bは、 カレントブロック 1 101に隣接する 8 8プロッ クである。 カレン トブロック 1101の強調された上部行及び左列はそれ それ、 隣接ブロックである A及び Bの同一場所から予測される。 つまり、 カレントブロック 1101の最上行はその上のプロック Aの最上行から予 測され、 カレントブロック 1101の左列はその左のブロック Bの左列か ら予測される。 同様の手順で、 カレントブロック 1102はその上のブロッ ク D及びその左の力レン卜ブロック 1から予測される。
C (u. v) を符号化すべきブロックとし、 Ei (u. v) をモード i の場合の予測誤差であって、 A (u, V) 及び/又は B (u. V) の各ブ 口ックから予測値を減算して求めたものであるとする。 実際の実施におい ては、 節 B 1において前述した最も頻度が多い次の 3つのモードのみ画使 用される。
( a ) モード 0 : D C予測のみ
Eo (0, 0) =C (0. 0) 一 (A (0, 0) +B (0. ϋ) ) /2, Eo (u. v) =C (u. v) .
u≠ 0 ; v≠ 0 ; u = 0. ···, 7 ; v = 0, -, 7 … (1)
(b) モード】 :上側ブロックからの DC/AC予測
E! (0. V) =C (0. v) -A (0. v) . v = 0. ·■·, 7.
E! ( u, v) =C (u. v) .
u = 1, ···, 7 ; v = 0. ·■', 7 - (2)
( c) モード 2 :左側ブロックからの DCZAC予測 E2 (u, 0) =C (u, ϋ) -B (u, 0) . u = 0, ·", 7.
E2 (u, v) = C (u, v) ,
u - 0. ···. 7 ; v= 1, 7. - (3) モードの選択は、 マクロプロックにおける 4つの輝度信号のブロックに 対して予測された誤差の絶対値の和、 S ADmde iを計算して、 そのうち の最小値を有するモー ドを選択することにより行われる。
S ADmn ,
=∑ [EiCO, 0)+32 -∑E,(u. 0)+32 -∑E ,(0, ν)] , b u v
i = 0, ·-·, 2 ; b = 0, ■··, 3 ; u. v = 1, -··, 7
… (4) モードの決定は、 異なる符号化ビッ トレートを目標とするアプリケーショ ンの違いに依存して、 ブロックベース及びマクロブ口ックベースの両方で 実行することができる。 モードは、 次の表 1の可変長コードを使用して符 号化される。
表 1 DC /ACモード用 VL Cテーブル
Figure imgf000062_0001
量子化後に D C/h C予測を実行する場合、 先行する水平方向の隣接ブ 口ック又は垂直方向の隣接ブロックでは通常、 使用する量子化のステップ が異なるため、 DCZAC予測を正確に行うためには、 量子化された DC T変換係数をスケーリングするために幾つかの種類の重み係数が必要とさ れる。
Qa cAをブロック A (図 19参照。 ) の量子化された D C T変換係数 とし、 Q a c Bをプロック B (図 19参照。 ) の量子化された DCT変換 係数とする。 Q s t e p Aをプロック Aの量子化に使用される量子化ステツ プとすると、 Q s t e p Bはプロック Aの虽子化に使用する量子化ステツ プであり、 Q s t e p Cはカレントブロック Cの量子化に使用すべき量子 化ステップであり、 従ってスケーリ ング方程式は以下の通りである。
Q' a c A= (Qa c AxQ s t e pA) /Qs t e p C ·'· (5) Q' a c B= (Qa c BxQ s t e p B) /Q s t e p C ··· (6) ここで、 Q' a c Aはブロック Aからの DCT変換係数であり、 カ レン トブロック Cの最上行の予測に使用される。 また、 Q' a c Bはブロック Bからの DC T変換係数であり、 カレン卜ブロック Cの左列の予測に使用 される。
第 7の実施形態
図 20は、 本発明に係る第 7の実施形態である画像予測復号化装置の構 成を示すプロック図である。
図 2◦において、 画像予測符号化装置からのビッ トストリームは、 ェン ト口ピー V L D復号化ュニッ ト 1 0 5 1に入力され、 可変長復号化される。 ¾号化された画像データは、 加算器 1 0 5 2によって、 D C T変換領域予 測ュニッ ト 1 0 5 3からの前の隣接する D C T変換プロックの画像データ と加算することにより、 D C T変換プロックの画像データが復元される。 前に隣接する D C T変換ブロックは、 どのブロックであるかは、 ビッ トス トリームからとり出された指示ビッ 卜によって知らされ、 ユニッ ト 1 0 5 3において予測のために使用される。 1 0 5 4は、 予測のために用いる隣 接する D C T変換プロックを格納するためのプロックメモリである。 加算 器 1◦ 5 2から得られる復元された D C T変換プロックは逆 D C T変換ュ ニッ ト 1 0 5 5に出力される。 逆 D C T変換ュニッ ト 1 0 5 5は入力され た D C T変換プロックに対して逆 D C T変換処理を実行することにより復 元された D C T変換係数の画像データを生成して、 加算器 1 0 5 6に出力 する。 加算器 1 0 5 6は、 逆 D C T変換ュニッ ト 1 0 5 5からの復元され た画像データを、 動き検出及び補償ュニッ ト 1 0 5 7からの前のフレーム の画像データと加算することにより、 動き検出及び補儅されかつ復号化さ れた画像データを生成して出力する。 当該復号化された画像データは、 動 き検出及び補償のために前のフレームの画像データを格納するフレームメ モリに一時的に格納した後、 動き検出及び補償ュニッ ト 1 0 5 7に出力さ れる。 動き検出及び補償ュニッ ト 1 0 5 7は、 入力される画像データに対 して、 動き検出及び補償処理が実行される。
さらに、 加算器 1 0 5 6から出力される復号化された画像データは、 図 1 6及び図 1 7のブロックサンプリングュニッ ト 1 0 1 2 , 1 0 2 6の処 理に対応する逆の復元処理により、 元の両像データが復元される。 さらに、 1059は逆量子化ュニッ トであり、 図 17に示すように量子 化処理の前に D CT変換領域予測処理が行われる場合は、 当該逆量子化ュ ニッ ト 1059は図 20における 1059 aの位置に挿入される一方、 図 16に示すように量子化処理の後に D C T変換領域予測処理が行われる場 合は、 当該逆量子化ュニッ ト 1059は図 20における 1059 bの位置 に挿入される。
図 21は、 図 20の画像予測復号化装置における DCZAC予測の復号 化方法を示すフローチャートである。 すなわち、 図 21では、 DC /AC 予測モードを取得し、 隣接する DC ZAC予測値から DC T変換係数を再 構成するためのビッ トストリ一ムの復号化の詳細が図示されている。
まず、 ステップ 1059において、 入力されるビッ トストリームから指 示ビッ 卜を復号化し、 ステップ 1060で、 指示ビッ トのフラグがチェッ クされ、 それが 「0」 であれば、 ステップ 1061で上側ブロック及び左 側プロックの画像データの平均値から DC値を計算してステップ 1063 に進む。 ステップ 1060で NOであればステップ 1062に進み、 ステツ ブ 1062でチェックされた指示フラグが 「10」 であれば、 ステップ 1 063で左側プロックの左列の画像データが抽出され、 ステップ 1065 に進む。 ステップ 1062で NOであればステップ 1064に進み、 ステツ プ 1064でチェックされた表示フラグが 「11」 であれば、 ステップ 1 065で上側ブロックの最上行の画像データが抽出され、 ステップ 106 6に進む。 最後に、 ステップ 1066では、 ステップ 1061、 1063、 又は 1065で取得又は抽出された DCT変換係数がカレントプロックの 対応する DC T変換係数に加算される。
さらに、 以下、 本実施形態グループの変形例について説明する。
(a) 上記ブロ 'ゾクサンブリングュニッ ト 1012. 1026は、 4つの プロックのグループの中の二次元配列の画素は、 第 1のプロックでは奇数 番目の行にある奇数番目の画素から成り、 第 2のプロックでは奇数番目の 行にある偶数番目の画素から成り、 第 3プロックでは偶数番目の行にある 奇数場番目の画素から成り、 第 4プロックでは偶数番目の行にある偶数番 目の画素から成るように、 画素を交互に差し挟むィンターリーブ処理を含 んでもよい。
( b ) 上記予測ブロックは、 上記ブロックメモリに格納され、 前に復元さ れたブ口ックであって、 符号化されたカレントブロックに隣接するように 位置されたプロックから選択され、 プロック中の全ての変換係数が選択さ れてもよい。
( c ) 上記予測ブロックは、 上記ブロックメモリに格納され、 前に復元さ れたブ口ックであって、 符号化された力レントブロックに隣接するように 位置されたブロックから選択され、 あらかじめ定められたサブセッ 卜がブ 口ックの変換係数として選択されてもよい。
( d ) 上記予測ブロックは、 上記ブロックメモリに格納され、 前に復元さ れたブ口ックであって、 符号化された力レン卜ブロックの上方及び左側に 隣接するよう位置されたプロックから選択され、 当該プロックの最上行、 及び当該プロックの最左列の変換係数のみが使用され、 残りの変換係数は ゼロにセッ 卜されてもよい。
( e ) 上記予測ブロックは、 上記ブロックメモリに格納され、 前に復元さ れたブ口ックであって、 符号化されたカレントブロックの近傍に位置され たプロックから選択され、 各プロックの変換係数は異なる重み付け閱数で 重み付けされてもよい。
( f ) 上記予測ブロックは、 上記ブロックメモリに格納され、 前に復元さ れたブ口ックであって、 符号化された力レントブロックの近傍に位置され たプロックから選択され、 各プロックの変換係数に対して変換演算が実行 されてもよい。
(g) 上記予測ブロックは、 上記ブロックメモリに格枘され、 前に復元さ れたブ口ックであって、 符号化された力レントブロックの近傍に位置され た複数のプロックの重み付け平均化されてもよい。
(h) 復号化された画像データに基づいて、 インターリーブされた 4個の プロックからなる複数のグループから二次元配列の画素を形成して元の画 像データを復元するときに、 奇数番目の行にある奇数番目の画素は全て第
1のブロックから求め、 奇数番目の行にある偶数番目の画素は第 2のプロッ クから求め、 偶数番目の行にある奇数番目の画素は第 3プロックから求め、 偶数番目の行にある偶数番目の画素は第 4プロックから求めるように、 上 記複号化された画像データに対して逆ィンタ一リーブ処理を実行してもよ い。
以上説明したように、 本発明に係る本実施形態グループによれば、 隣接 するプロック間における DC T変換領域の冗長性を除去又は減少するため に大いに効果があり、 その結果、 使用ビッ ト数を減少させ、 最終的に符号 化効率を大いに改善することができる。 詳細な画像予測符号化装置の例と して図 18を参照すると、 予測処理は、 好ましくは、 上側又は左側の隣接 するプロックを使用することによってのみ実行される π
QC I Fを含むシーケンスに対しては、 上位ビッ トレート符号化に対し て 6.4%のビッ トを節約することができ、 下位ビッ 卜レート符号化に対 して 20%のビッ トを節約することができる。 また、 例えば、 ァキヨ (Α k i y ο) 、 マザ一 (Mo t h e r) 、 及びドウ夕一 (Da u g h t e r) などのテス トシーケンスなどの他の QC I Fシーケンスに対して、 約 10 %のビッ トを節約することができる。 さらに C I F及び CC I Rのシーケ ンスに対しては、 より多くのビッ 卜節約が可能である。
以上説明したように本発明に係る第 2の実施形態グループによれば、 現 時点の符号化効率を増大させる新しい画像予測符号化装置及び画像予測復 号化装置を提供することができる。 当該装置では、 符号化効率を上げるた めには複雑な手段は必要とせず、 その回路構成は、 非常に簡単で容易に形 成でさる。
第 3の実施形態グループ
第 3の実施形態グループは、 第 8の実施形態を含む。
本発明者は、 従来技術の問題点に鑑みて、 画像符号化効率は、 2つの画 像間又は 1つの画像内のブロックの内部における冗長性ばかりでなく、 画 像内のプロック間の冗長性を削減するとともに、 プロックのスキャンパタ -ンを適切にすることによりさらに冗長性を改善することを考えた。
同じ位置にあっても隣接するプロックの中の D C T変換係数は多くの場 合非常によく似ていることが見出されている。 この 2つのブロックに対す る原画像の特質が非常によく似ている場合、 もしくは水平又は垂直ライン、 対角線その他の画像パターンが同じものを含んでいる場合、 上記のことは 正しいといえる。 情報理論の観点から同じ情報は冗長性を意味することに なる。
プロックを越えて D C T変換領域の中に存在する冗長性は、 以前のブロッ クの適応性予測により除去されるか又は削減されることができる。 このこ とは V L Cェントロピー符号化は予測誤差信号のより小さいエントロピー のためのより高い符号化効率を達成できるという結果になる π
同時に、 水平及び垂直の榱造は、 最左側の列及び最上行の変換ブロック に、 重要な D C T変換係数が集中するという結果になることは公知である。 従って、 本発明に係る実施形態は、 予測モードに基づいて、 スキャンを適 応化することにより係数のスキャンにおける上述の問題点を解決すること ができる。
木発明に係る実施形態は、 他のブロックからカレン卜ブロックの D C T 変換係数を適応的に予測し、 その結果隣接するブロック間の冗長性を除去 する方法を提供する。 予測誤差の情報は量子化 D C T変換係数のェントロ ピーをより小さくする予測モ一 ドにスキヤン方法を適応化することにより さらに縮少される。 その結果、 D C T変換係数を符号化するためのビッ ト の数を削減できる。
この問題点を解決するために、 予測モー ドの決定を実行する方法が各予 測及びスキヤン方法により発生される実際のビッ トレー卜に基づいて得ら れる。
本発明に係る実施形態は、 現在のカレントブロックの D C T変換係数を 予測する方法を提供するものである。 D C T変換は同じ値、 又は同じ D C T変換係数の分布を同じブロックの画像データに与える傾向があるので、 カレン卜ブロックは通常他の隣接するプロックの中の D C T変換係数と良 好な相互関係を保持している。
入力された画像データは、 ィントラフレームであるか又は一時的に予測 されたフレームであるかのいづれかであり、 まず、 人力された画像データ に対して、 通常ブロックを基礎とする D C T変換処理が実行される。 カレ ントブロックの D C T変換係数が得られた後に、 D C T変換領域の予測は 量子化の前、 又は後に実行することができる。
カレントブロックの中の D C T変換係数は上方の左側に対角線方向 (斜 め方向) に位置した以前の隣接するプロックから予測することができる。 それらは、 図 2 3に示すように、 その時刻において既に復号化されている。 予測されたプロックは、 カレントブロックにおける同じ位置の D C T係数 から前の隣接するブロックの 1つ又はそれ以上の D C T係数を減箕するこ とによって、 予測された誤差信号を発生する。
異なる予測モー ドからの予測誤差信号が、 予測が量子化処理の前になさ れるならば量子化される。 量子化された予測誤差信号は、 エン トロピー符 号化が実行される前にシーケンスの (一連の) 画像データに対してスキヤ ンされる。 最小ビッ ト使用規則に基づいて予測されたブロック、 すなわち 最小のビッ トを有する予測ブロックが選択される。 このブロックの符号化 データは使用する予測モードとともに画像予測復号化装置に送られる。 画像予測復号化装置は、 使用した予測モード及びプロックの符号化され たデータを用いて、 予測されたブロックを復号化する。 ブロックに対する 符号化されたデータに対する逆のェントロピー復号化の後に、 量子化され た予測誤差は用いられるスキヤンモードに従って逆にスキヤンされる。 も し量子化処理が予測処理の後の実行されるならば、 プロックは逆量子化さ れることになる。 再構築されたブロックは、 予測モードによって指示され た、 前に復号化された隣接するプロックの中の D C T変換係数を現在の D C T変換係数に加算することにより得ることができる。 一方、 量子化処理 が予測処理の前に実行されるならば、 再構築された係数は逆量子化される。 最後に、 逆 D C T変換処理が各プロックに対して再構築された D C T変換 係数に適用され、 復号化された画像を得ることができる。
本発明に係る実施形態は、 隣接するプロックを越えて D C T変換領域の 中に存在する冗長性を減少させる画像予測符号化装置及び画像予測復号化 装置を提供するものである。
第 8の実施形態
図 2 4は、 本発明に係る第 8の実施形態である画像予測符号化装置の構 成を示すブロック図である。 図 2 4の画像予測符号化装置は、 図 2 2の従 来技術の画像予測符号化装置と比較して、
(a) 加算器 2035、
(b) HZ VZZスキャンュニッ 卜 2036、
C c ) 加算器 2038、
(d) ブロックメモリ 2039、 及び
(e) 量子化スケーリ ングを有する DC T変換領域予測ュニッ 卜 2040 を備えたことを特徴としている。
ィントラフレーム符号化 (フレーム内符号化) においては、 入力された 画像信号に対して、 ュニッ 卜 203 1でブロックサンプリ ング処理が実行 された後に、 直接にュニッ 卜 2033で D CT変換処理が実行される。 次 いで、 ュニッ 卜 2034で、 DCT変換ュニッ 卜 2033から出力される D CT変換係数に対して量子化処理が実行される。 一方、 インターフレー ム符号化又はフレーム間符号化 (予測フレーム符号化) においては、 ュニッ ト 2031のプロックサンプリング処理の後に、 加算器 2032は、 プロッ クサンプリング処理後の画像データから、 動き検出及び補償ュニッ ト 20 5から出力された画像データを減算して、 予測誤差データを得る。 次い で、 この予測誤差データは、 D CT変換処理を実行する DC T変換ュニッ ト 2033及び量子化処理を実行する量子化ュニッ 卜 2034を介して加 算器 2035に出力される。 DCT変換係数は、 ユニッ ト 2040の DC T変換領域処理によつて予測され、 予測された D C T変換係数は加算器 2 035に入力される。 加算器 2035は、 量子化ュニッ ト 2034からの DCT変換係数から、 DCT変換領域予測ュニッ 卜 2040からの予測さ れた DC T変換係数を減算して、 減算結果の予測誤差の D CT変換係数を、 Hノ V/Zスキャンュニッ 卜 2036及び加算器 2038に出力する。 H スキヤンュニッ 卜 2036は、 選択された予測モードに依存して、 入力された DC T変換係数に対して適応的に、 水平スキャン、 垂直スキヤ ン又はジグザグスキャンを実行して、 スキャン処理後の D C丁変換係数を ェン トロピー VL C符号化ュニッ 卜 2037に出力する。 次いで、 ェン 卜 口ビー VLC苻号化ュニッ ト 2037は、 入力された DCT変換係数をェ ントロピー VL C符号化処理を実行して、 符号化されたビッ トス トリーム を受信側又は再生側の画像予測復号化装置に伝送する。
加算器 2038は、 加算器 2035から出力される量子化された DC Τ 変換係数と、 DCT変換領域予測ュニッ ト 2040からの予剷された DC T変換係数とを加算することにより、 復元された量子化 D C T変換係数デ 一夕を得る。 当該量子化 DC T変換係数データは、 ブロックメモリ 203 9及び逆量子化ュニッ ト 2041に出力される。
当該画像予測符号化装置に設けられるローカルデコーダにおいて、 加算 器 2038からの復元された DCT変換係数データは、 次の予測を行うた めに 1つのブロ ックのデータを格納するブロックメモリ 2039に一時的 に記憶された後、 DCT変換領域予測ュニッ 卜 2040に出力される。 逆 量子化ュニッ ト 2041は、 入力される量子化 D CT変換係数を逆量子化 して逆 DC T変換ュニッ ト 2042に出力し、 次いで、 逆 DC T変換ュニッ ト 2042は、 入力される復元された DC T変換係数を逆 DC T変換処理 を実行して、 現時点のブロックの画像データを復元して加算器 2043に 出力する。
フレーム間符号化においては、 ローカル復号化された画像データを生成 するために、 加算器 2043は、 動き検出及び補僂ュニッ 卜 2045によつ て動き検出及び補償された画像データと、 逆 DCT変換ュニッ ト 2042 からの復元された画像データとを加算して、 ローカル復号化された画像デ ータを得て、 ローカルデコーダのフレームメモリ 2044に記憶される。 なお、 加算器 2043とフレームメモリ 2044と動き検出 &び補償ュニッ 卜 2045の構成及び処理は、 図 22の従来技術のュニッ ト 2009、 2 010及び 2011と同様である。
最終的には、 ビッ トストリームはェントロビー符号化ュニッ 卜 2037 から出力されて画像予測符号化装置に送られる。
図 25は、 本発明に係る第 8の実施形態である画像予測復号化装置の構 成を示すブロック図である。 図 25の画像予蒯復号化装置は、 図 23の従 来技術の画像予測復号化装置に比較して、
(a) HZ VZZスキャンュニッ ト 2052、
(b) 加算器 2053、
(c) DCT変換領域予測ュニッ ト 2055、 及び
(d) ブロックメモリ 2054、
を備えたことを特徴とする。
図 25において、 画像予測符号化装置からのビッ 卜ス ト リームは、 可変 長デコーダュニッ 卜 2051において復号化される。 復号化されたデータ は、 HZV/Z逆スキャンュニッ ト 2052に入力され、 スキャンモード に依存して、 水平に逆方向で、 垂直に逆方向で、 又はジグザグに逆方向で スキャンされる。 スキャン処理後のデータは加算器 2053に入力され、 加算器 2053は、 逆スキャン処理後のデータと、 DC T変換予測ュニッ ト 2055からの予測誤差データとを加算することにより、 復号化された DCT変換係数データを得て、 これを逆量子化ュニッ ト 2056に出力す るとともに、 ブロックメモリ 2054に記憧される。 次いで、 逆量子化ュ ニッ ト 2056は、 入力される符号化された DCT変換係数データを逆量 子化して逆量子化された D C T変換係数データを得て、 逆 D C T変換ュニッ ト 2057に出力する。 逆 DC T変換ュニッ 卜 2057は、 入力される D C T変換係数データに対して逆 D C T変換処理を実行して、 元の画像デー 夕を復元して、 加算器 2 0 5 8に出力する。 フレーム間符号化においては、 加算器 2 0 5 9は、 動き検出及び捕償ュニッ ト 2 0 6 0からの予測誤差デ ータに、 逆 D C T変換ュニッ 卜 2 0 5 7からの画像データを加算して、 局 所的に復号化された画像データを得て、 外部装置に出力するとともに、 フ レームメモリ 2 0 5 9に記憶する。
さらに、 加算器 2 0 5 8から出力される復号化された画像データは、 図 2 4のブロックサンプリングュニッ ト 2 0 3 1の処理に対応する逆の復元 処理により、 元の画像データが復元される。
以上の実施形態においては、 量子化処理が予測処理に先だって行われる。 変形例においては、 予測処理の後に量子化処理を行ってもよい。 この場合、 ローカルデコーダ及び画像予測復号化装置では、 予測値が加算される前に 逆量子化処理が実行される。 他の詳細は全て、 上述の実施形態と同様であ る。
図 2 6は、 第 8の実施形態において、 ブロック分割から得られた、 フレ ームのマクロプロックとブロックの構造を示し、 かつプロック予測方法を 示す画像の模式図である。 図 2 6の拡大図は、 カレン トブロックに対する 予測データがどのように符号化されるかを示す。 ここで、 ブロック C ( u . V ) は、 上側に隣接するブロック A ( u, v ) と、 左方向に隣接するブロッ ク B ( u , v ) とから得られる。 次に、 本発明にこの実施形態を更に詳し く説明する。
C 1 . 予測に使用される係数の番号
予測に使用される係数のナンバーは画像データのシーケンスに依存して いる。 フラグ A C„C 0 e f ίは、 各画像に使用される係数の最適の数を 適応的に選択するために使用される。 フラグは下の表 2に示され、 サイ ド 情報の一部として画像予測苻号化装置から画像予測復号化装置に送られる。 フラグ AC— C o e f f に対する固定長コード及び F L Cを表 2に示す。 ここで、 FLC (Fixed Length Coding:固定長符号化) は、 すべての可 能なィベントを表すために、 固定長のコードヮードを割り当てる可逆符号 化である。
表 2 フラグ AC C o e f ίに対する固定長コード, FLC
Figure imgf000075_0001
ここで、 AC nは、 用いられるモードに依存して、 A (0. n) 又は B (n. 0) である。
この実施形態の特別なケースでは、 最上行及び最左列のすべての A C係 数が予測のために使用される。 このケースでは、 画像予測符号化装置と画 像予測復号化装置との両方が、 このデフォルト値を同意しているとき、 フ ラグを必要としない。
C 2. 量子化ステップのスケーリ ング
隣接するプロックがカレントブロックからの異なる量子化ステップサイ ズを用いて量子化されるときは、 AC係数の予測はそんなに能率的ではな い。 従って、 当該予測方法は、 予測データが、 現在のカレン トブロックの 量子化ステップサイズの比と、 予測データのプロックの量子化ステップの 比とによってスケーリングされるように変形される。 この定義は次の節 C 3. における方程式を用いて与えられる。
C3. 予測モード
設定される複数のモードは次の通りである。
(a) モード 0 :処理ブロックから上側のプロックからの D C予測 ( 「上 の D Cモード」 と略す。 )
Eo (0, 0) =C (0, 0) —A (0, 0) ,
Εο (u. ν) =C (u. ν) … (7)
(b) モード 1 :処理ブロックから左側のブロックからの D C予測 ( 「左 の D Cモード」 と略す。 )
E"0, 0) =C (0, 0) - B (0, 0) .
Figure imgf000076_0001
(c) モード 2 ;処理ブロックから上側のブロックからの DC /"AC予測 ( 「上の DCZACモード」 と略す。 )
E2 (0. 0) =C (0, 0) -A (0, 0) ,
Ε"0. ν) =C (0. ν) -A (0, ν) - QA/QC
v = 1. 2, ·.·. AC— C o e f f ,
E2 (u, v) =C (u, v) - (9)
(d) モード 3 :処理ブロックから左側のブロックからの D CZAC予測 ( 「左の DC/ACモード」 と略す。 )
E3 (0, 0) =C (0, 0) B (0, 0) .
E3 (u. 0) =C (u, 0) 一 B (u. 0) - QB/QC
u= 1. 2. ···, AC— C o e f f .
E3 (u, v) =C (u, v) … (10)
C 4. 適応的水平/垂直 Zジグザグスキャン
上のような 4個の予測モードが与えられるならば、 フレーム内符号化の 効率は係数のスキャンを採用することによりさらに改善させることができ る。
図 2 7、 図 2 8及び図 2 9はそれぞれ、 第 8の実施形態における係数ス キヤンに用いられる水平スキヤン、 垂直スキャン &び水平スキヤンの順序 を説明するための画像の模式図である。 ここで、 これらのスキャンは集合 的に H Z V Z Zスキャンとして参照される。
C 5 . 明示的モードの決定
明示的 (explicit) モードの決定においては、 予測モードの決定が画像 予測符号化装置において実行され、 その決定情報が、 ビッ トス トリームに おける幾つかの符号化されたビッ ト情報を用レ、て画像予測符号化装置から 画像予測復号化装置に明示的に送られる。
図 3 0は、 第 8の実施形態に使用されているモード決定処理を示すフロ 一チヤ一トである。
図 3 0において、 カレントブロックの D C T変換係数データはュニッ ト 2 0 6 2に入力され、 ュニッ ト 2 0 6 2は、 ブロックメモリ 2 0 6 1から の隣接するプロックの D C T変換係数データから入力された力レントブロッ クの D C T変換係数データを减算することにより、 D C T変換予測処理が 実行される。 ユニッ ト 2 0 6 2では、 節 C 3. で説明された 4つのモード で、 D C T変換予測処理が実行される。 次いで、 H ZV Z Zスキャンュニッ 卜 2 0 6 3では、 係数のスキャン処理が実行され、 ここでは、 図 3 0に示 すように、 節 C 4. で説明したそれぞれ対応するスキャン処理が実行され る。 さらに、 スキャン処理後の D C T変換係数データは、 エン トロピー符 号化ュニッ ト 2 0 6 4に送られ、 ここで可変長符号化処理が実行される。 次いで、 ュニッ ト 2 0 6 5では、 異なるモードで発生されたすベてのビッ 卜が比較されて、 ュニッ 卜 2 0 6 6では、 最少のビッ トを発生する予測モ 一ドの D C T変換係数のプロックが選択される。 これらの D C Τ変換係数 データのビッ トは予測モードの値とともにュニッ 卜 2 0 6 6からビッ トス トリ一ムとして画像予測復号化装置に送られる。 なお、 予測モードは、 次 の表 3の固定長コードを用いて符号化される。 表 3 D Cノ A C /スキャンモー ドのための F L Cテーブル
Figure imgf000078_0001
C 6. 暗黙的モー ドの決定
モード決定の第 2の実施例では、 画像予測符号化装置と画像予測復号化 装置とが同一の予測モード決定機能を共有している。 画像予測符号化装置 と画像予測復号化装置は共に、 カレントブロックに隣接する復号化された ブロックの D C係数値に基づいて、 予測モードの決定に関する方向性を決 定する。 すなわち、 暗黙的 (implicit) モー ドの決定においては、 暗黙的 モードの決定が幾つかの規則を用いて画像予測符号化装置と画像予測復号 化装置において実行される。 そして、 モー ド決定を示す付加的な情報デー タは画像予測符号化装置から画像予測復号化装置に対して送られない。 図 3 1は、 第 8の実施形態の暗黙モード決定におけるブロックの関係を 示す画像の模式図である。 すなわち、 図 3 1は、 各ブロックと予測対象で あるカレントブロックとの位置関係を示している。
図 3 1において、 プロック Cは現在予測中の処理対象の力レントブロッ クである。 ブロック Aは、 予測中の力レン卜ブロック Cの上側のブロック である。 ブロック Cは、 カレントブロック Cから左側に位置するブロック である ti ブロック C' は、 カレントブロック Cとは対角位置にあるブロッ ク Aとブロック Bの間のブロックである。
まず、 DCの方向が決定される。 個別の決定方法を使用して、 AC係数 も同様に予測中であるか否かが決定される。 これを行うには、 予剃係数の 絶対値の差の合計を非予測係数の絶対値と比較し、 何れが小さいかを判断 する。 画像予測複号化装置へのこの指示には、 1ビッ 卜が使用される。 D C予測の方向性、 及び AC係数が予測されているか否かの決定には、 以下 の式が使用される。 表 3は、 可能性のある 4つの結論を要約したものであ る。
(A 1) もし
(B (0, 0) - C' (0, 0) < C (0. 0) -A (0, 0) )
… (11) のとき、
E (0, 0) =C (0, 0) 一 A (0, 0) … (12) であり、
(a 1) ちし
7 7
( ∑ C (0. V) ≥ ∑ C (0, V) 一 A (0, V) ) … (13) v= 1 v = l
のとき、
E (0 v)
=C (0 v) -A (0, v) · QA/QC, V 7.
( 1 4) (a 2) 上記 (13) 式が成立しなければ、
E (0, v) =C (0. v) (15) である。
(A 2)上 §ヒ (11) 式が成立しなければ、
E (0. 0) =C (0, 0) -B (0, 0) (16) であり、
(b 1) もし
7 7
( ∑ C (u. 0) ≥ ∑ C (u, 0) 一 B (u, 0) ) - (17) = 1 V = 1
のとき、
E (u. 0)
=C (Q, 0) -B (u, 0) · QB/Qc v 7,
(18)
(b 2) 上記 (17) 式が成立しなければ、
E (u, 0) =C (u, 0) (19) である。
さらに、 他の全ての係数に対して、
E (u, V) =C (u, v) (20) である。
表 4 暗黙決定による D C Z A Cスキャンモードのための
F L Cテーブル
Figure imgf000081_0001
以上の第 8の実施形態において、 D C T変換係数予測処理はュニッ 卜 2 0 4 0によって、 量子化された変換係数データについて行っているが、 本 発明はこれに限らず、 図 1 7の第 6の実施形態と同様に、 量子化されない 変換係数データについて行ってもよい。 この場合、 対応する画像予測復号 化装置においては、 図 2 5において、 逆量子化ュニッ ト 2 0 5 6は、 逆ス キャンュニッ ト 2 0 5 2と、 加算器 2 0 5 3に移動されて挿入される。 以下、 第 8の実施形態の変形例について述べる。
( a ) ブロックサンプリングュ二ッ ト 2 0 3 1は、 4つのブロックのグル —プの中の二次元配列の画素は、 第 1のプロックでは奇数番目の行にある 奇数番目の画素から成り、 第 2のプロックでは奇数番目の行にある偶数番 目の画素から成り、 第 3ブロックでは偶数番目の行にある奇数塲番目の画 素から成り、 第 4ブロックでは偶数番目の行にある偶数番目の画素から成 るように、 画素を交互に差し挟むィンタ—リーブ処理を含んでもよい。
( b ) 上記予測ブロックは、 上記ブロックメモリに格納され、 前に復元さ れたブ口ックであって、 符号化されたカレントブロックに隣接するように 位置されたプロックから選択され、 プロック中の全ての係数データが選択 されてもよい。
( C ) 上記予測ブロックは、 上記ブロックメモリに格納され、 前に復元さ れたブ口ックであって、 符号化されたカレントブロックに隣接するように 位置されたブロックから選択され、 あらかじめ定められたサブセッ 卜がブ 口ックの係数データとして選択されてもよい。
( d ) 上記予測ブロックは、 上記ブロックメモリに格納され、 前に復元さ れたブ口ックであって、 符号化された力レン卜ブロックの上方及び左側に 隣接するよう位置されたプロックから選択され、 当該ブロックの最上行、 及び当該ブロックの最左列の係数データのみが使用され、 残りの係数デー 夕はゼロにセッ 卜されてもよい。
( e ) 上記予測ブロックは、 上記ブロックメモリに格納され、 前に復元さ れたブロックから上述の基準に従って選択され、
当該プロックの最上行又は最左列からの 1つ又はそれ以上の係数データ を含むサブセッ トのみを使用することを、 画像予測符号化装置と画像予測 復号化装置とが通信を行うことにより決定してもよし、。
( f ) 上記予測ブロックは、 上記ブ Dックメモリに格納され、 前に復元さ れたブ口ックから上述の基準に従って選択され、
当該プロックの最上行又は最左列からの 1つ又はそれ以上の係数データ を含むサブセッ 卜のみを使用することを、 画像予測符号化装置が決定して、 決定されたサブセッ 卜及び係数データの数を示すフラグを、 画像予測復号 化装置に送信されるデータに周期的に挿入することにより、 画像予測復号 化装置に通知してもよい。
( g ) 上記予測ブロックは、 上記ブロックメモリに格納され、 前に復元さ れたブ口ックから上述の基準に従って選択され、
各プロックの係数データは、 符号化されるカレン卜プロックの量子化ス テップサイズと予測ブロックの量子化ステップサイズの比に等しい比で乗 算されてもよい。
( h ) 上記予測ブロックは、 上記ブロックメモリに格納され、 前に復元さ れたブ口ックから上述の基準に従って選択され、
各プロックの係数データは、 異なる重み付け関数で重み付けされてもよ い。
( i ) 上記予測プロックは、 上記プロックメモリに格納され、 前に復元さ れたブ口ックから上述の基準に従って選択され、
各プロックの係数データに対して所定の変換演算が実行されてもよい。
( j ) 上記予測プロックは、 符号化されるカレントブロックに隣接して位 置する、 上記ブロックメモリに格納され、 前に復元されたブロックの重み 付け平均値として得てもよい。
( k ) スキヤン方法は、
( i ) 係数データが、 左から右に向かって、 行毎に、 最上行で始まり、 最 下行で終わるようにスキヤンされる水平スキャンと、
(ii) 係数データが、 最上行から最下行に向かって、 列毎に、 最左列から 始まり、 最右列で終るようにスキヤンされる垂直スキャンと、
(iii) 係数データが、 最上行の最左の係数データから最下行の最右の係 数データに向かって、 対角線方向にスキヤンされるジグザグスキヤンとの うちの少なくとも 1つのスキャン方法を含んでもよい。
( 1 ) 上記予測ブロックは、 上記ブロックメモリに格納され、 前に復元さ れたブ口ックから上述の基準に従って選択され、
上記予測プロックの予測モードは、 ( 1 ) 処理対象の力レン トブロックから上側に位置するプロックからの、
D C係数として呼ばれる当該プロックの平均値を表す最上及び最左の係数 データのみを予測のために使用する第 1のモードと、
(ii) 処理対象のカレン卜ブロックから左側に位置するプロックからの、 D C係数のみを予測のために使用する第 2のモ一ドと、
(iii) 処理対象の力レン トブロックから上側に位置するブロックの最上 行からの、 D C係数及び、 高周波成分を含む 0個又はそれ以上の A C係数 を予測のために使用する第 3のモードと、
(iv) 処理対象のカレン トブロックから左側に位置するプロックの最左列 からの、 D C係数及び、 高周波成分を含む 0個又はそれ以上の A C係数を 予測のために使用する第 4のモードと、
の少なくとも 1つの予測モードを含み、
上記予測誤差の係数データはジグザグスキャンのスキャン方法でスキヤ ンされてもよい。
(m ) 上記予測ブロックは、 上記ブロックメモリに格納され、 前に復元さ れたブ口ックから上述の基準に従って選択され、
上記予測 ^差の係数データは、 上述のスキャン方法の 1つに従ってスキヤ ンされ、
上記予測誤差の係数データを予測する予測モー ドは、
( i ) 処理対象の力レン トブロックから上側に位置するブロックにおける D C係数のみが予測のために使用され、 上記予測誤差の係数データに対し て、 ジグザグスキャンでスキャン処理が実行される第]のモードと、
(ii) 処理対象の力レン トプロックから左側に位置するブロックにおける D C係数のみが予測のために使用され、 上記予測誤差の係数データに対し て、 ジグザグスキャンでスキャン処理が実行される第 2のモードと、 (iii) 処理対象の力レントブロックから上側に位蘆するブロックの最上 行における D C係数及び、 高周波成分を含む 0個又はそれ以上の A C係数 が予測のために使用され、 上記予測誤差の係数データに対して、 水平スキヤ ンでスキャン処理が実行される第 3のモードと、
(iv) 処理対象の力レン トブロックから左側に位置するブロックの最左列 における D C係数及び、 高周波成分を含む 0個又はそれ以上の A C係数が 予測のために使用され、 上記予測誤差の係数データに対して、 垂直スキヤ ンでスキャン処理が実行される第 4のモードと、
の少なく とも 1つを含んでもよい。
( n ) 上記復号化された画像データに基づいて、 インターリーブされた 4 個のプロックからなる複数のグループから二次元配列の画素を形成して元 の画像データを復元するときに、 奇数番目の行にある奇数番目の画素は全 て第 1のプロックから求め、 奇数番目の行にある偶数番目の画素は第 2の ブロックから求め、 偶数番目の行にある奇数番目の画素は第 3プロックカ、 ら求め、 偶数番目の行にある偶数番目の画索は第 4プロックから求めるよ うに、 上記復号化された画像データに対して逆ィンターリーブ処理を実行 してもよい。
( 0 ) 画像予測符号化装置と画像予測復号化装置は、 予め決められた同一 のルールを用いて、 上記予測モードを決定してもよい。
( P ) 画像予測符号化装置と画像予測復号化装置は、 予め決められた同一 のルールを用いて、 上記スキャン方法を決定してもよい。
以上説明したように、 本発明に係る第 3の実施形態グループによれば、 隣接するプロックを越えて D C T変換領域の中の冗長性を削減又は除去す るのに非常に効果的であり、 使用ビッ 卜のビッ ト数を削減し、 その結果、 符号化の効率を大幅に改善することができる。 これは新しいビデオ圧縮ァ ルゴリズムにおけるツールとしても有用である。
以上の実施形態において、 画像予測符号化装置及び画像予測復号化装置 について述べているが、 本発明はこれに限らず、 上記画像予測符号化装置 における各手段、 各ュニッ 卜などの構成要素をそれぞれ各ステップに置き 換えたステッブを含む画像予測符号化方法であつてもよいし、 上記画像予 測復号化装置における各手段、 各ュニッ 卜などの構成要素をそれぞれ各ス テップに置き換えたステップを含む画像予測復号化方法であってもよい。 この場合、 例えば、 上記画像予測符号化方法及び Z又は上記画像予測復号 化方法の各ステップがプログラムとして記憶装置に記僮され、 マイクロプ 口セッサュニッ ト (M P U ) 、 中央演算処理装置 (C P U ) などのコント ローラは当該プログラムを実行することにより、 画像予測符号化処理及び 又は上記画像予測復号化処理を実行する。
また、 本発明は、 上記画像予測符号化方法及び 又は上記画像予測復号 化方法における各ステップを含むプログラ厶を記録した記録媒体であつて もよい。 当該記録媒体は、 例えば記録領域がセクタ形状に分割され、 又は 記録領域が渦巻き形状で各プロックに分割された円盤形状を有し、 例えば、 C D— R O M、 D V Dなどの光ディスク又は光磁気ディスク、 もしくは、 フロッピーディスクなどの磁気記録ディスクである。
産業上の利用可能性
以上詳述したように、 本発明に係る画像予測符号化装置によれば、 入力 される符号化画像データを互いに隣接する複数の小領域の画像データに分 割する分割手段と、
上記分割手段によって分割された互いに隣接する複数の小領域の画像デ 一夕の中で処理対象の小領域の画像データを符号化するときに、 上記処理 対象の小領域の画像データに隣接する再生された再生小領域の画像データ を上記処理対象の小領域の幽面内予測小領域の画像データとし、 上記画 ¾ 内予測小領域の画像データを最適予測小領域の画像データとし、 上記処理 対象の小領域の画像データと上記最適予測小領域の画像データとの差分で ある差分小領域の画像データを生成する第 1の生成手段と、
上記生成手段によって生成された差分小領域の画像データを符号化する 符号化手段と、
上記符号化手段によって符号化された差分小領域の画像データを復号化 する復号化手段と、
上記復号化手段によって復号化された差分小領域の画像データを上記最 適予測小領域の画像データに加算することにより再生された再生小領域の 画像データを生成する第 2の生成手段とを備える。
従って、 処理対象の小領域の画像データに隣接する再生された画素値を 画面内予測信号の画素値とするだけで、 従来技術に比較して低い演算量で 簡単に高精度な予測信号を生成することができ、 フレーム内符号化のビッ 卜数を削減することができるという特有の効果が得られる。
また、 本発明に係る画像予測符号化装置によれば、 入力された画像信号 をそれぞれ二次元配列の画素値を含む複数のプロックの画像データにサン プリングするサンプリング手段と、
上記サンプリング手段によってサンプリングされたプロックの画像デー タを所定の変換領域の係数データに変換する変換手段と、
復元されたプロックの係数データを格納するプロックメモリと、 上記プロックメモリに格納された前に再構築されたプロックの係数デ一 夕に基づいて、 上記変換手段によって変換されたプロックの係数データに 対して複数の予測プロックの係数データを形成する予測手段と、
上記予測手段によって形成された複数の予測プロックの係数データのう ち、 最も効率が良い予測プロックの係数データを決定し選択して出力し、 上記選択された予測プロックを表す指示子を指示ビッ 卜の形式で画像予測 復号化装置に送信する決定手段と、
上記決定手段によって選択された予測プロックの係数データを、 現時点 のカレントブロックの係数データから減算することにより、 減算結果の予 測誤差の係数データを出力する第 1の加算手段と、
上記第 1の加算手段から出力される予測誤差の係数データを量子化する 量子化手段と、
上記量子化手段からの予測誤差の係数データをェン卜口ピー符号化して、 符号化された予測誤差の係数データを画像予測復号化装置に送信する符号 化手段と、
上記量子化手段からの予測誤差の係数データを逆量子化して、 復元され たプロックの係数データを出力する逆量子化手段と、
上記決定手段から出力される予測ブロックの係数データを、 上記逆量子 化手段から出力される予測誤差の係数データに加算することにより、 復元 されたブロックの係数データを出力するとともに、 上記ブロックメモリに 格納する第 2の加算手段と、
上記第 2の加算手段から出力されるブロックの係数データを逆変換する ことにより、 復元されたプロックの画像データを生成する逆変換手段とを 備える。
従って、 現時点の符号化効率を増大させる新しい画像予測符号化装置及 び画像予測復号化装置を提供することができる。 当該装置では、 符号化効 率を上げるためには複雑な手段は必要とせず、 その回路構成は、 非常に籣 単で容易に形成できる。
さらに、 本発明に係る画像予測符号化装置によれば、 入力された画像信 号をそれぞれ二次元配列の画素値を含む複数のプロックの画像データにサ ンプリングするサンプリング手段と、
上記サンプリ ング手段によってサンプリ ングされたブロックの画像デー 夕を所定の変換領域の係数データに変換する変換手段と、
復元されたプロックの係数データを格納するプロックメモリと、 上記プロックメモリに格納された前に再構築されたプロックの係数デー 夕に基づいて、 上記変換手段によって変換されたプロックの係数データに 対して複数の予測ブロックの係数データを形成する予则手段と、
上記予測手段によって形成された複数の予測プロックの係数データのう ち、 最も効率が良い予測ブロックの係数データ及びスキャン方法を決定し 選枳して出力し、 上記選択された予測ブロック及びスキヤン方法を表す指 示子を指示ビッ 卜の形式で画像予測復号化装置に送信する決定手段と、 上記決定手段によって選択された予測ブロックの係数データを、 現時点 のカレントブロックの係数データから減算することにより、 減算結果の予 測誤差の係数データを出力する第 1の加算手段と、
上記第 1の加算手段から出力される予測誤差の係数デ一タを量子化する 量子化手段と、
上記量子化手段からの予測誤差の係数データに対して上記決定手段によつ て決定されたスキヤン方法でスキヤン処理を実行して、 スキヤン処理後の 予測誤差の係数データを出力するスキヤン手段と、
上記スキャン手段から出力されるスキャン処理後の予測誤差の係数デ一 タをェントロピー符号化して、 符号化された予制誤差の係数データを画像 予測復号化装置に送信する符号化手段と、
上記量子化手段からの予測誤差の係数データを逆量子化して、 復元され たプロックの係数データを出力する逆量子化手段と、 上記決定手段から出力される予測ブロックの係数データを、 上記逆量子 化手段から出力される予測誤差の係数デー夕に加算することにより、 復元 されたプロックの係数データを出力するとともに、 上記プロックメモリに 格納する第 2の加算手段と、
上記第 2の加算手段から出力されるプロックの係数データを逆変換する ことにより、 復元されたプロックの画像データを生成する逆変換手段とを 備える。
従って、 隣接するプロックを越えて変換領域の中の冗長性を削減又は除 去するのに非常に効果的であり、 使用ビッ トのビッ ト数を削減し、 その結 果、 符号化の効率を大幅に改善することができる。 これは新しいビデオ圧 縮アルゴリズムにおけるツールとしても有用である。

Claims

請 求 の 範 囲
1 . 入力される符号化画像データを互いに隣接する複数の小領域の画像デ ータに分割する分割手段と、
上記分割手段によって分割された互いに隣接する複数の小領域の画像デ 一夕の中で処理対象の小領域の画像データを符号化するときに、 上記処理 対象の小領域の幽像データに隣接する再生された再生小領域の画像データ を上記処理対象の小領域の画面内予測小領域の画像データとし、 上記画面 内予測小領域の画像データを最適予測小領域の画像データとし、 上記処理 対象の小領域の画像データと上記最適予測小領域の画像データとの差分で ある差分小領域の画像データを生成する第 1の生成手段と、
上記生成手段によって生成された差分小領域の画像データを符号化する 符号化手段と、
上記符号化手段によつて符号化された差分小領域の画像データを復号化 する復号化手段と、
上記復号化手段によって復号化された差分小領域の画像データを上記最 適予測小領域の画像データに加算することにより再生された再生小領域の 画像データを生成する第 2の生成手段とを備えた画像予測符号化装置。
2. 請求項 1記載の装置において、
上記第 1の生成手段は、 上記処理対象の小領域の画像データに対して、 垂直方向に隣接する再生された再生小領域の画像データを幽面内予測小額 域の画像データとする装置。
3 . 請求項 1記載の装置において、
上記第 1の生成手段は、 上記処理対象の小領域の画像データに対して、 水平方向に隣接する再生された再生小領域の画像データを画面内予測小領 域の画像データとする装置。
4 . 請求項 1記載の装置において、
上記第 1の生成手段は、 ト記処理対象の小領域の画像データに対して、 垂直方向に隣接する再生された再生小領域の画像データを第 1の中間小額 域の画像データとし、 上記処理対象の小領域の画像データに対して、 水平 方向に隣接する再生された再生小領域の画像データを第 2の中間小頜域の 画像データとし、 上記第 1の中間小領域の画像データと上記第 2の中間小 領域の画像データとを重み付きで平均化して、 平均化された画像データを 画面内予測小領域の画像データとする装置。
5. 請求項 1記載の装置において、
上記第 1の生成手段は、 上記処理対象の小領域の画像データに対して、 垂直方向に隣接する再生された再生小領域の画像データを第 1の中問小領 域の画像データとし、 上記処理対象の小領域の画像データに対して、 水平 方向に隣接する再生された再生小領域の画像データを第 2の中間小領域の 画像データとし、 上記笫 1の中間小領域の画像データと上記第 2の中間小 領域の画像データとを重み付きで平均化して、 平均化された画像データを 第 3の中間小領域の画像データとし、 上記第 1、 第 2及び第 3の中間小領 域の画像データのうちの 1つを、 画面内予測小領域の画像データとする装 置。
6 . 請求項 5記載の装置において、
上記笫 1の生成手段は、 上記第 1、 第 2及び第 3の中間小領域の画像デ 一夕の中から、 上記処理対象の小領域の画像データに対して誤差が最も小 さい画像データを画面内予測小領域の画像データとし、
上記符号化手段は、 上記差分小領域の画像データに、 上記第 1、 第 2及 び第 3の中間小領域の画像データを識別するための識別子を付加して符号 化する装置。
7 . 請求項 1乃至 5のうちの 1つに記載の装置において、 上記第]の生成手段は、 上記画面内予測小領域の画像データに加えて、 上記符号化画像データに対して、 時間的に先に符号化して再生された少な くとも 1つの参照画像データから、 時間予測小領域の画像データを生成し、 上記画面内予測小領域の画像データと、 上記時間予測小領域の画像データ のうちの 1つを最適予測小領域の画像データとする装置。
8 . 請求項 7記載の装置において、
上記符号化手段は、 上記差分小領域の画像データに、 上記画面内予測小 領域の画像データと上記時間予測小領域の画像データを識別するための識 別子を付加して符号化する装置。
9. 入力された符号化画像データを互いに隣接する複数の小領域の画像デ —夕に分割する分割手段と、
上記分割手段によって分割された互いに隣接する複数の小領域の中で処 理対象の小領域を符号化するときに、 上記処理対象の小領域の画像データ に隣接する再生された再生小領域の画像データの中から、 上記符号化画像 データが有意であるか否かを示す入力された有意信号によって示される有 意な画像データのみを上記処理対象の小領域の画面内下測小領域の画像デ 一夕とし、 上記画面内予測小領域の画像データを最適予測小領域の画像デ 一夕とし、 上記処理対象の小領域の画像データと上記最適予測小頟域の画 像データとの差分である差分小領域の画像データを生成する第 1の生成手 段と、
上記第 1の生成手段によって生成された差分小領域の画像データを符号 化する符号化手段と、
上記符号化手段によつて符号化された差分小領域の画像データを復号化 する復号化手段と、 上記復号化手段によつて復号化された差分小領域の画像データを上記最 適予測小領域の両像データに加算することにより再生された再生小領域の 画像データを生成する第 2の生成手段とを備えた画像予測符号化装置。
1 0. 請求項 9記載の装置において、
上 ΪΕ1第 1の生成手段は、 上記処理対象の小領域の画像データに対して、 垂直方向に隣接する再生された画像データの中から、 上記有意信号によつ て示される有意な画像データのみを画面内予測小領域の画像データとする 装置。
1 1 . 請求項 9記載の装置において、
上記第 1の生成手段は、 上記処理対象の小領域の画像データに対して、 水平方向に隣接する再生された画像データの中から、 上記有意信号によつ て示される有意な画像データのみを画面内予測小領域の画像データとする 装置。
1 2 . 請求項 9記載の装置において、
上記第 1 0生成手段は、 上記処理対象の小領域の画像データに対して、 垂直方向に隣接する再生された画像データの中から、 上記有意信号によつ て示される有意な画像データのみを第 1の中間小領域の画像データとし、 上記処理対象の小領域の画像データに対して、 水平方向に隣接する再生さ れた画像データの中から、 上記有意信号によって示される有意な画像デ一 タのみを第 2の中間小領域の画像データとし、 上記第 1の中間小領域の画 像データと上記第 2の中間小領域の画像データとを重み付き平均化して、 上記平均化された画像データを上記画面内予測小領域の画像データとする 装置。
1 3. 請求項 9記載の装置において、
上記第 1の生成手段は、 上記処理対象の小領域の画像データに対して、 垂直方向に隣接する再生された画像データの中から、 上記有意信号によつ て示される有意な画像データのみを第 1の中問小領域の画像データとし、 上記処理対象の小領域の画像データに対して、 水平方向に隣接する再生さ れた画像データの中から、 上記有意信号によって示される有意な画像デ一 タのみを第 2の中間小領域の画像デー夕とし、 上記第 1の中間小領域の画 像データと上記第 2の中間小領域の画像データとを重み付き平均化して、 上記平均化された画像データを第 3中間小領域の画像データとし、 上記第 1、 第 2及び第 3の中間小領域のうちの 1つの画像データを上記画面内予 測小領域の画像データとする装置。
1 4. 請求項 9記載の装置において、
上記第 1の生成手段は、 上記処理対象の小領域の画像デ一タに隣接する 再生された画像データの中から、 上記有意信号によって示される有意な画 像データのみの平均値を上記処理対象の小領域の画面内予測小領域の画像 データとする装置。
1 5. 請求項 9乃至 1 4のうちの 1つに記載の装置において、
上記第 1の生成手段は、 上記画面内予測小領域の画像データに加えて、 上記符号化画像データに対して、 時間的に先に符号化され再生された少な くとも 1つの参照画像から、 時間予測小領域の画像データを生成し、 上記 画面内予測小領域の画像データと上記時間予測小領域の画像データのうち の 1つの画像データを上記最適予測小領域の画像データとする装置。
1 6. 入力された符号化された画像データ系列を解析して画像差分信号を 出力する解析手段と、
上記解析手段から出力される差分画像信号から、 再生差分小領域の画像 データを復号化する復号化手段と、
所定の画面内予測小領域の画像データを生成するための画像データを格 納するラインメモリ と、
上記ラインメモリからの画像データに対して予測信号発生処理を実行す ることにより、 上記再生差分小領域の画像データに隣接する再生された画 像データを画面内予測小領域の画像データとし、 上記画面内予測小領域の 画像データを最適予測小領域の画像データとして出力する発生手段と、 上記復号化手段からの再生差分小領域の画像データと、 上記発生手段か らの最適予測小領域の画像データとを加算して、 加算結果の画面内予測小 領域を生成するための画像データを出力するとともに、 上記ラインメモリ に格納する加算手段とを備えた画像予測復号化装置。
1 7. 請求項 1 6記載の装置において、
上記生成手段は、 処理対象の小領域の画像データに対して、 垂直方向に 隣接する再生された画像データを第 1の中間小領域の画像データとし、 上 記処理対象の小領域の画像データに対して、 水平方向に隣接する再生され た画像データを第 2の中間小領域の画像データとし、 上記第 1の中間小領 域の画像データと上記第 2の中間小領域の画像データとを重み付き平均化 して、 上記平均化された画像データを第 3中間小領域の画像データとし、 上記第 1、 第 2及び第 3中間小領域の画像データのうちの 1つの画像デー 夕を上記画面内予測小領域の画像データとする装置。
1 8. 入力された符号化された画像データ系列を解析して、 画像差分信号 と、 動きべク 卜ル信号と、 制御信号とを出力する解析手段と、
上記解析手段から出力される差分画像信号を、 再生差分小領域の画像デ 一タに復号化する復号化手段と、
上記解析手段から出力される制御信号に基づいて、 動き補僂手段と発生 手段とが選択的に動作させるように制御する切り換え信号を出力する制御 手段と、 所定の再生画像データを格納するフレームメモリと、
所定の画面内予測小領域の画像データを生成するための画像データを格 納するラインメモリ と、
上記制御手段からの切り換え信号に応答して、 入力される動きべク トル 信号に対して動き楠償処理を実行することにより、 上記フレームメモリか ら時間予測小領域の画像データを生成して、 最適予測小領域の画像データ として出力する動き補償手段と、
上記制御手段からの切り換え信号に応答して、 上記ラインメモリからの 画像データに対して予測信号発生処理を実行することにより、 上記再生差 分小領域の画像データに隣接する再生された画像データを画面内予測小碩 域の画像データとし、 上記画面内予測小領域の画像データを最適予測小領 域の画像データとして出力する発生手段と、
上記複号化手段からの再生差分小領域の画像データと、 上記発生手段か らの最適予測小領域とを加算することにより、 加算結果の再生画像データ を出力するとともに、 上記再生画像データを上記フレームメモリに格納し、 上記画面内予測小領域の画像データを生成するための画像データのみを上 記ラインメモリに格納する加算手段とを備えた画像予測複号化装置。
1 9. 請求項 1 8記載の装置において、
上記発生手段は、 処理対象の小領域の画像データに対して、 垂直方向に 隣接する再生された画像データを第 1の中間小領域の画像データとし、 上 記処理対象の小領域の画像データに対して、 水平方向に隣接する再生され た画像データを第 2の中間小領域の画像データとし、 上記第 1の中間小領 域の画像デー夕と上記第 2の中間小領域の画像データとを重み付き平均化 して、 上記平均化された画像データを第 3中間小領域の画像データとし、 上記切り換え信号に基づいて、 上記第 1、 第 2及び第 3中間小領域の画像 データのうちの 1つの画像データを上記画面内予測小領域の画像データと する装置。
2 0. 入力された苻号化された画像データ系列を解析して、 圧縮形状信号 と画像差分信号とを出力する解析手段と、
上記解析手段から出力される圧縮形状信号を、 再生形状信号に復号化す る第 1の復号化手段と、
上記解析手段から出力される差分画像信号を、 再生差分小領域の画像デ -夕に復号化する第 2の復号化手段と、
所定の画面内予測小領域の画像データを生成するための画像データを格 钠するラインメモリと、
上記ラインメモリからの画像データに対して予測信号処理を実行するこ とにより、 上記再生差分小領域の画像データに隣接する再生された画像デ —タの中から、 上記再生形状信号によって示される有意な画像データのみ を画面内予測小領域の画像データとし、 上記画面内予測小領域の画像デー タを最適予測小領域の画像データとして出力する発生手段と、
上記第 2の復号化手段からの再生差分小領域の画像データと、 上記発生 手段からの最適予測小領域とを加算することにより、 加算結果の画像デー タを出力するとともに、 上記画面内予測小領域の画像データを生成するた めの画像データのみを上記ラインメモリに格納する加算手段とを備えた画 像予測復号化装置。
2 1 . 請求項 2 0記載の装置において、
上記発生手段は、 処理対象の小領域の画像データに対して、 垂直方向に 隣接する再生された画像データの中から、 上記再生形状信号によって示さ れる有意な画像データのみを第 1の中間小領域の画像データとし、 処理対 象の小領域の画像データに対して、 水平方向に隣接する再生された画像デ 一夕の中から、 上記再生形状信号によって示される有意な画像データのみ を第 2の中間小領域の画像データとし、 上記第 1の中間小領域の画像デー タと上記第 2の中間小領域の画像データとを重み付き平均化して、 上記平 均化された画像データを第 3中間小領域の画像データとし、 上記第 1、 第 2及び第 3の中間小領域のうちの 1つの画像データを上記画面内予測小頟 域の画像データとする装置。
2 2 . 入力された符号化された画像データ系列を解析して、 圧縮形状信号 と、 画像差分信号と、 動きべク トル信号と、 制御信号とを出力する解析手 段と、
上記解析手段から出力される圧縮形状信号を、 再生形状信号に復号化す る第 1の復号化手段と、
上記解析手段から出力される差分画像信号を、 再生差分小領域に復号化 する第 2の復号化手段と、
上記解析手段から出力される制御信号に基づいて、 動き補儅手段と発生 手段とを選択的に動作させるように制御する切り換え信号を出力する制御 手段と、
所定の再生画像データを格納するフレームメモリと、
所定の画面内予測小領域の画像データを生成するための画像データを格 納するラインメモリと、
上記制御手段から出力される切り換え信号に応答して、 上記解析手段か ら出力される動きべク トル信号に基づいて、 上記フレームメモリからの再 生画像データに対して動き補償処理を実行することにより、 時間予測小領 域の画像データを発生して、 最適予測小領域の画像データとして出力する 動き補償手段と、
上記制御手段から出力される切り換え信号に応答して、 上記ラインメモ リからの画像データに対して予測信号処理を実行することにより、 上記再 生差分小領域の画像データに隣接する再生された画像データの中から、 上 記再生形状信号によって示される有意な画像データのみを画面内予測小頜 域の画像データとし、 上記画面内予測小領域の画像デー夕を最適予測小領 域の画像データとして出力する発生手段と、
上記第 2の復号化手段からの再生差分小領域の画像データと、 上記発生 手段からの最適予測小領域とを加算することにより、 加算結果の再生画像 データを出力するとともに、 上記再生画像データを上記フレームメモリに 格納し、 上記画面内予測小領域を生成するための画像データのみを上記ラ インメモリに格納する加算手段とを備えた画像予測復号化装置。
2 3. 請求項 2 1記載の装置において、
上記発生手段は、 処理対象の小領域の画像データに対して、 垂直方向に 隣接する再生された画像データの中から、 上記再生形状信号によって示さ れる有意な画像データのみを第 1の中間小領域の画像データとし、 処理対 象の小領域の画像データに対して、 水平方向に隣接する再生された画像デ 一夕の中から、 上記再生形状信号によって示される有意な画像データのみ を第 2の中間小領域の画像データとし、 上記第 1の中間小領域の画像デー タと上記第 2の中間小領域の画像データとを重み付き平均化して、 上記平 均化された画像データを第 3中間小領域の画像データとし、 上記切り換え 信号に基づいて、 上記第 1、 第 2及び第 3の中間小領域のうちの 1つの画 像データを上記画面内予測小領域の画像データとする装置。
2 4. 請求項 2 0又は 2 2記載の装置において、
上記発生手段は、 上記再生形状信号によって示される有意な凼像データ のみを用いて平均値を計算して、 計算された画像データを画面内予測小領 域の画像データとする装置。
2 5. 入力された画像信号をそれぞれ二次元配列の画素値を含む複数のブ 口ックの画像データにサンプリングするサンプリング手段と、
上記サンプリング手段によってサンプリングされたプロックの画像デー タを所定の変換領域の係数データに変換する変換手段と、
復元されたプロックの係数データを格納するプロックメモリと、 上記プロックメモリに格納された前に再構築されたプロックの係数デー 夕に基づいて、 上記変換手段によって変換されたブロックの係数データに 対して複数の予測プロックの係数データを形成する予測手段と、
上記予測手段によって形成された複数の予測プロックの係数データのう ち、 最も効率が良い予測プロックの係数データを決定し選択して出力し、 上記選択された予測プロックを表す指示子を指示ビッ 卜の形式で画像予測 復号化装置に送信する決定手段と、
上記決定手段によって選択された予測プロックの係数データを、 現時点 のカレントブロックの係数データから減算することにより、 減算結果の予 測誤差の係数データを出力する第 1の加算手段と、
上記第 1の加算手段から出力される予測誤差の係数デ一夕を量子化する 量子化手段と、
上記量子化手段からの予測誤差の係数データをェント口ピー符号化して、 符号化された予測誤差の係数データを画像予測復号化装置に送信する符号 化手段と、
上記量子化手段からの予測誤差の係数データを逆量子化して、 復元され たプロックの係数データを出力する逆量子化手段と、
上記決定手段から出力される予測プロックの係数データを、 上記逆量子 化手段から出力される予測誤差の係数データに加算することにより、 復元 されたプロックの係数データを出力するとともに、 上記プロックメモリに 格納する第 2の加算手段と、
上記第 2の加算手段から出力されるプロックの係数データを逆変換する ことにより、 復元されたプロックの画像データを生成する逆変換手段とを 備えた画像予測符号化装置。
2 6. 入力された画像信号を二次元配列の画素値を含む複数のブロックの 画像データにサンプリングするサンプリング手段と、
上記サンプリング手段によってサンプリングされた複数のブロックの画 像データを所定の変換領域の係数デー夕に変換する変換手段と、
上記変換手段からの変換領域の係数データを量子化する量子化手段と、 復元されたプロックの係数データを格納するブロックメモリと、 上記ブ σックメモリに格納された前に再構築されたプロックの係数デー 夕に基づいて、 上記変換手段によって変換されたプロックの係数データに 対して複数の予測プロックの係数データを形成する予測手段と、
上記予測手段によって形成された複数の予測プロックの係数データのう ち、 最も効率が良い予測プロックの係数データを決定し選択して出力し、 上記選択された予測プロックを表す指示子を指示ビッ トの形式で画像予測 復号化装置に送信する決定手段と、
上記決定手段によつて選択された予測ブロックの係数データを、 現時点 のカレントブ□ックの係数データから減算することにより、 減算結果の予 測誤差の係数データを出力する第 1の加算手段と、
上記第 1の加算手段からの予測誤差の係数データをェントロピー符号化 して、 符号化された予測誤差の係数データを画像予測復号化装置に送信す る符号化手段と、
上記第 1の加算手段からの予測誤差の係数データを、 上記決定手段から 出力される予測プロックの係数データを加算することにより、 量子化され た力レントブロックの係数データを復元して出力するとともに、 上記プロッ クメモリに格納する第 2の加算手段と、
上記第 2の加算手段から出力されるカレントブロックの係数データを逆 量子化して出力する逆量子化手段と、
上記逆量子化手段からの力レントプロックの係数データを逆変換するこ とにより、 復元されたプロックの画像データを生成する逆変換手段とを備 えた画像予測符号化装置。
2 7. 入力された画像信号をそれぞれ二次元配列の画素値を含む複数のブ 口ックの画像データにサンプリ ングするサンプリ ング手段と、
入力されるプロックの画像データに対して動き補償処理を実行すること により、 動き捕儐されたプロックの予刺誤差の画像データを生成して出力 する補償手段と、
上記サンプリ ング手段から出力されるブロックの画像データから、 上記 補僂手段から出力されるプロックの予測誤差の画像データを減算して、 減 算結果のプロックの画像データを出力する第 1の加算手段と、
上記第 1の加算手段から出力されるプロックの画像データを所定の変換 領域の係数データに変換する変換手段と、
復元されたプロ 'ソクの係数データを格納するプロックメモリと、 上記ブロックメモリに格納された前に再構築されたプロックの係数デー 夕に基づいて、 上記変換手段によって変換されたプロックの係数データに 対して複数の予測プロックの係数データを形成する予測手段と、
上記予測手段によって形成された複数の予測ブ口ックの係数データのう ち、 最も効率が良い予測ブロックの係数データを決定し選択して出力し、 上記選択された予測プロックを表す指示子を指示ビッ トの形式で画像予測 復号化装置に送信する決定手段と、 上記決定手段によって選択された予測プロックの係数データを、 現時点 のカレントブロックの係数データから減算することにより、 減算結果の予 測誤差の係数データを出力する第 2の加算手段と、
上記第 2の加算手段から出力される予測誤差の係数データを量子化する 量子化手段と、
上記量子化手段からの予測誤差の係数データをェント口ピー符号化して、 符号化された予測誤差の係数データを画像予測復号化装置に送信する符号 化手段と、
上記量子化手段からの予測誤差の係数データを逆置子化して、 復元され たプロックの係数データを出力する逆童子化手段と、
上記決定手段から出力される予測ブロックの係数データを、 上記逆量子 化手段から出力される予測誤差の係数データに加算することにより、 復元 されたブロックの係数データを出力するとともに、 上記プロックメモリに 格納する第 3の加算手段と、
上記第 3の加算手段から出力されるプロックの係数データを逆変換する ことにより、 復元されたブロックの画像データを生成する逆変換手段と、 上記逆変換手段からの復元されたブロックの画像データに、 上記補儍手 段から出力される動き補償されたプロックの予測誤差の画像データを加算 することにより、 復元されたプロックの画像データを上記補償手段に出力 する第 4の加算手段とを備えた画像予測符号化装 E。
2 8 . 入力された画像信号を二次元配列の画素値を含む複数のプロックの 画像データにサンプリングするサンプリング手段と、
入力されるプロックの画像データに対して動き補償処理を実行すること により、 動き補儍されたプロックの予測誤差の画像データを生成して出力 する補償手段と、 上記サンプリ ング手段から出力されるブロックの画像データから、 上記 補償手段から出力されるプロックの予測誤差の画像データを減算して、 減 算結果のプロックの画像データを出力する第 1の加算手段と、
上記第 1の加算手段から出力されるブロックの画像データを所定の変換 領域の係数データに変換する変換手段と、
上記変換手段からの変換領域の係数データを量子化する量子化手段と、 復元されたプロックの係数データを格納するブロックメモリと、 上記ブロックメモリに格納された前に再構築されたプロックの係数デー タに基づいて、 上記変換手段によって変換されたプロックの係数データに 対して複数の予測プロックの係数データを形成する予測手段と、
上記予測手段によつて形成された複数の予測プロックの係数データのう ち、 最も効率が良い予測プロックの係数データを決定し選択して出力し、 上記選択された予測プロックを表す指示子を指示ビッ 卜の形式で画像予測 復号化装置に送信する決定手段と、
上記決定手段によって選択された予測ブロックの係数データを、 現時点 のカレントブロックの係数データから減算することにより、 減算結果の予 測誤差の係数デー夕を出力する第 2の加算手段と、
上記第 2の加算手段からの予測誤差の係数データをェントロピー符号化 して、 符号化された予測誤差の係数データを画像予測復号化装置に送信す る符号化手段と、
上記第 2の加算手段からの予測誤差の係数データを、 上記決定手段から 出力される予測ブロックの係数データを加算することにより、 量子化され たカレントブロックの係数データを復元して出力するとともに、 上記ブロッ クメモリに格钠する第 3の加算手段と、
上記第 3の加算手段から出力されるカレントブロックの係数データを逆 量子化して出力する逆量子化手段と、
上記逆量子化手段からのカレントプロックの係数データを逆変換するこ とにより、 復元されたプロックの画像データを生成する逆変換手段と、 上記逆変換手段からの復元されたプロックの画像データに、 上記補償手 段から出力される動き補值されたプロックの予測誤差の画像データを加算 することにより、 復元されたプロックの画像データを上記補償手段に出力 する第 4の加算手段とを備えた画像予測符号化装置。
2 9 . 請求項 2 5記載の画像予測符号化装置に対応して設けられる画像予 測復号化装置であって、
上記画像予測符号化装置から受信された受信データから指示ビッ トを抽 出する油出手段と、
復元されたブロックの係数データを格納するブロックメモリと、 上記抽出手段によって抽出された指示ビッ トが示す予測ブロックに基づ いて、 上記プロックメモリに格納された以前に復元されたプロックの係数 データを用いて、 上記受信データに含まれる現時点の力レントブロックの 係数データに対して予測ブロックの係数データを生成して出力する別の予 測手段と、
上記受信データをェントロピー復号化して、 復号化された予測誤差の係 数データを出力する復号化手段と、
上記復号化手段から出力される予測誤差の係数データを逆量子化して出 力する逆量子化手段と、
上記別の予測手段から出力される予測プロックの係数データを、 上記逆 量子化手段から出力される予測誤差の係数データに加算することにより、 現時点のカレントブロックの係数データを復元して出力するとともに、 上 記ブロックメモリに格納する第 3の加算手段と、 上記第 3の加算手段から出力されるカレン卜プロックの係数データを逆 変換して、 復元されたカレントブロックの画像データを出力する別の逆変 換手段とを備えた画像予測復号化装置。
3 0 . 請求項 2 6記載の画像予測符号化装置に対応して設けられる画像予 測復号化装置であって、
上記画像予測符号化装置から受信された受信データから指示ビッ トを抽 出する抽出手段と、
復元されたブロックの係数データを格納するブロックメモリと、 上記抽出手段によって抽出された指示ビッ 卜が示す予測プロックに基づ いて、 上記プロックメモリに格納された以前に復元されたプロックの係数 データを用いて、 上記受信データに含まれる現時点の力レン トブロックの 係数データに対して予測プロックの係数データを生成して出力する別の予 測手段と、
上記受信データをエン トロピー復号化して、 復号化された予測誤差の係 数データを出力する復号化手段と、
上記予測手段から出力される予測プロックの係数データを、 上記復号化 手段から出力される予測誤差の係数データに加算することにより、 現時点 のカレン卜プロックの係数データを復元して出力するとともに、 上記プロッ クメモリに格納する第 3の加算手段と、
上記第 3の加算手段から出力される予測誤差の係数デ一夕を逆量子化し て出力する逆量子化手段と、
上記逆量子化手段から出力されるカレントブロックの係数データを逆変 換して、 復元された力レン トプロックの画像データを出力する別の逆変換 手段とを備えた画像予測復号化装置。
3 1 . 請求項 2 7記載の画像予蒯符号化装置に対応して設けられる画像予 測復号化装置であって、
上記画像予測符号化装置から受信された受信データから指示ビッ 卜を抽 出する抽出手段と、
復元されたブロックの係数デ一タを格納するブロックメモリと、 上記抽出手段によって抽出された指示ビッ 卜が示す予測ブロックに基づ いて、 上記プロックメモリに格納された以前に復元されたプロックの係数 データを用いて、 上記受信データに含まれる現時点の力レントブロックの 係数データに対して予測ブロックの係数データを生成して出力する別の予 測手段と、
上記受信データをエントロピー復号化して、 復号化された予測誤差の係 数データを出力する復号化手段と、
上記復号化手段から出力される予測誤差の係数デ一タを逆量子化して出 力する逆量子化手段と、
上記別の予測手段から出力される予測プロックの係数データを、 上記逆 量子化手段から出力される予測誤差の係数データに加算することにより、 現時点のカレントブロックの係数データを復元して出力するとともに、 上 記プロックメモリに格納する第 3の加算手段と、
上記第 3の加算手段から出力されるカレン卜プロックの係数データを逆 変換して、 復元されたカレントブロックの画像データを出力する別の逆変 換手段と、
上記別の逆変換手段から出力されるカレントブロックの画像データに対 して動き補償処理を実行することにより、 動き補償の予測誤差データを出 力する別の楠儍手段と、
上記別の逆変換手段から出力されるカレントブロックの画像データから、 上記別の補儐手段から出力される動き補憤の予測誤差データを減算して、 減算結果の復元されたプロックの画像データを出力する第 5の加算手段と を備えた画像予測複号化装置。
3 2. 請求項 2 8記載の画像 7'測符号化装置に対応して設けられる画像予 測復号化装置であって、
上記画像予測符号化装置から受信された受信データから指示ビッ トを抽 出する抽出手段と、
復元されたプロ 'ソ クの係数データを格納するブロックメモリと、 上記抽出手段によって抽出された指示ビッ 卜が示す予測ブロックに基づ いて、 上記ブロックメモリに格納された以前に復元されたプロックの係数 データを用いて、 上記受信データに含まれる現時点の力レントブロックの 係数データに対して予測プロックの係数データを生成して出力する別の予 測手段と、
上記受信データをエン トロピー復号化して、 復号化された予測誤差の係 数データを出力する復号化手段と、
上記予測手段から出力される予測プロックの係数データを、 上記復号化 手段から出力される予測誤差の係数データに加算することにより、 現時点 のカレン卜プロックの係数データを復元して出力するとともに、 上記プロッ クメモリに格納する第 3の加算手段と、
上記第 3の加算手段から出力される予測誤差の係数デー夕を逆量子化し て出力する逆量子化手段と、
上記逆量子化手段から出力されるカレントプロックの係数データを逆変 換して、 復元されたカレントプロックの画像データを出力する別の逆変換 手段と、
上記別の逆変換手段から出力されるカレントプロックの画像データに対 して動き補僂処理を実行することにより、 動き補償の予測誤差データを出 力する别の補償手段と、
上 ΐ己別の逆変換手段から出力されるカレントプロックの画像データから、 上記別の補償手段から出力される動き補儍の予測誤差データを減算して、 減算結果の復元されたブロックの画像データを出力する第 5の加算手段と を備えた画像予測復号化装置。
3 3. 請求項 2 5乃至 2 8のうちの 1つに記載の装置において、
上記サンプリング手段は、 4つのブロックのグループの中の二次元配列 の画素は、 第 1のプロックでは奇数番目の行にある奇数番冃の画素から成 り、 第 2のプロックでは奇数番目の行にある偶数番目の画素から成り、 第 3プロックでは偶数番目の行にある奇数場番目の画素から成り、 第 4プロッ クでは偶数番目の行にある偁数番目の画素から成るように、 画素を交互に 差し挟むインターリーブ処理を含む装置。
3 4. 請求項 2 5乃至 3 2のうちの 1つに記載の装置において、
上記予測ブロックは、 上記ブロックメモリに格納され、 前に復元された ブロックであって、 符号化されたカレントプロックに隣接するように位置 されたプロックから選択され、 プロック中の全ての係数データが選択され る装置。
3 5. 請求項 2 5乃至 3 2のうちの 1つに記載の装置において、
上記予測ブロックは、 上記ブロックメモリに格納され、 前に復元された プロックであって、 符号化された力レントプロックに隣接するように位置 されたブロックから選択され、 あらかじめ定められたサブセッ 卜がブロッ クの係数データとして選択される装置。
3 6. 請求項 2 5乃至 3 2のうちの 1つに記載の装置において、
上記予測ブロックは、 上記ブロックメモリに格納され、 前に復元された ブロックであって、 符号化された力レントブロックの上方及び左側に膦接 するよう位置されたブロックから選択され、 当該ブロックの最上行、 及び 当該プロックの最左列の係数データのみが使用され、 残りの係数データは ゼロにセッ 卜される装置。
3 7. 請求項 2 5乃至 3 2のうちの 1つに記載の装置において、
上記予測ブロックは、 上記ブロックメモリに格納され、 前に復元された プロックであって、 符号化された力レン トブロックの近傍に位置されたブ 口ックから選択され、
各プロックの係数データは異なる重み付け関数で重み付けされる装置。
3 8 . 請求項 2 5乃至 3 2のうちの 1つに記載の装置において、
上記予測ブロックは、 上記ブロックメモリに格納され、 前に復元された プロックであって、 符号化された力レントブロックの近佼に位置されたブ 口ックから選択され、
各プロックの係数データに対して所定の変換演算が実行される装置。
3 9. 請求項 2 5乃至 3 2のうちの 1つに記載の装 Sにおいて、
上記予測プロックは、 上記プロックメモリに格納され、 前に復元された ブロックであって、 符号化された力レントブロックの近傍に位罱された複 数のブロックの重み付け平均化されたブロックである装置。
4 0 . 請求項 2 5乃至 3 2のうちの 1つに記載の装置において、
上記決定手段は、
上記プロックメモリに格納された複数の隣接するプロックのデータから 入力されるカレントブロックの係数データをそれそれ減算して、 減算結果 の複数の予測プロックのデータを出力する減算于段と、
上記減算手段から出力される複数の予測プロックのデータをェントロビ 一符号化して、 符号化された複数の予測プロックのデータを出力する別の 符号化手段と、 上記別の符号化手段から出力される符号化された複数の予測ブロックの データの各ビッ ト数を計数する計数手段と、
上記計数手段によって計数された複数の予測プロックのデータの各ビッ ト数のうち最も少ないビッ ト数の予測ブロックのデータに対応する予測ブ Dックのデータを選択する選択手段とを備えた装置。
4 1. 請求項 2 5乃至 3 2のうちの 1つに記載の装置において、
上記復号化された画像データに基づいて、 インターリーブされた 4個の プロックからなる複数のグループから二次元配列の画素を形成して元の画 像データを復元するときに、 奇数番目の行にある奇数番目の画索は全て第 1のプロックから求め、 奇数番目の行にある偶数番目の画素は第 2のプロッ クから求め、 偶数番目の行にある奇数番目の画素は第 3プロ クから求め、 偶数番目の行にある偶数番目の画素は第 4プロックから求めるように、 上 記複号化された画像データに対して、 逆ィンターリーブ処理を実行する装 置。
4 2. 請求項 2 5乃至 3 2のうちの 1つに記載の装置において、
上記変換手段の変換は、 離散コサイン変換である装置。
4 3. 入力された画像信号をそれぞれ二次元配列の画素値を含む複数のブ 口ックの画像データにサンプリングするサンプリング手段と、
上記サンプリ ング手段によってサンプリングされたブロックの画像デー タを所定の変換領域の係数データに変換する変換手段と、
復元されたブロックの係数データを格納するプロックメモリと、 上記プロックメモリに格納された前に再構築されたプロックの係数デー 夕に基づいて、 上記変換手段によって変換されたプロックの係数データに 対して複数の予測プロックの係数データを形成する予測手段と、
上記予測手段によって形成された複数の予測ブロックの係数データのう ち、 最も効率が良い予測プロックの係数データ及びスキヤン方法を決定し 選択して出力し、 上記選択された予測プロック及びスキャン方法を表す指 示子を指示ビッ トの形式で画像予測復号化装置に送信する決定手段と、 上記決定手段によって選択された予測プロックの係数データを、 現時点 のカレン トブロックの係数データから減算することにより、 減算結果の予 測誤差の係数データを出力する第 1の加算手段と、
上記第 1の加算手段から出力される予測誤差の係数データを量子化する 量子化手段と、
上記量子化手段からの予測誤差の係数データに対して上記決定手段によつ て決定されたスキヤン方法でスキヤン処理を実行して、 スキヤン処理後の 予測誤差の係数データを出力するスキャン手段と、
上記スキャン手段から出力されるスキヤン処理後の予測誤差の係数デー タをエントロピー符号化して、 符号化された予測誤差の係数データを画像 予測復号化装置に送信する符号化手段と、
上記量子化手段からの予測誤差の係数データを逆量子化して、 復元され たプロックの係数データを出力する逆量子化手段と、
上記決定手段から出力される予測ブロックの係数データを、 上記逆量子 化手段から出力される予測誤差の係数データに加算することにより、 復元 されたブロックの係数デ一タを出力するとともに、 上記ブロックメモリに 格納する第 2の加算手段と、
上記第 2の加算手段から出力されるプロックの係数データを逆変換する ことにより、 復元されたブロフクの画像データを生成する逆変換手段とを 備えた画像予測符号化装置。
4 4. 入力された画像信号を二次元配列の画素値を含む複数のプロックの 雨像データにサンプリングするサンプリング手段と、 上記サンプリング手段によってサンプリングされた複数のプロックの画 像データを所定の変換領域の係数データに変換する変換手段と、
上記変換手段からの変換領域の係数デ—タを量子化する量子化手段と、 復元されたプロックの係数データを格納するブロックメモリと、 上記プロックメモリに格納された前に再構築されたプロックの係数デ一 夕に基づいて、 上記変換手段によって変換されたプロックの係数データに 対して複数の予測プロックの係数データを形成する予測手段と、
上記予測手段によって形成された複数の予測ブロックの係数データのう ち、 最も効率が良い予測プロックの係数データ及びスキャン方法を決定し 選択して出力し、 上記選択された予測プロック及びスキャン方法を表す指 示子を指示ビッ トの形式で画像予測復号化装置に送信する決定手段と、 上記決定手段によって選択された予測ブロックの係数データを、 現時点 のカレントブロックの係数データから減算することにより、 減算結果の予 測誤差の係数データを出力する第 1の加算手段と、
上記第 1の加算手段からの予測誤差の係数データに対して上記決定手段 によって決定されたスキヤン方法でスキヤン処理を実行して、 スキャ ン処 理後の予測誤差の係数データを出力するスキャン手段と、
上記スキャン手段から出力されるスキャン処理後の予測誤差の係数デー 夕をェントロビー符号化して、 符号化された予測誤差の係数データを画像 予測復号化装置に送信する符号化手段と、
上記第 1の加算手段からの予測誤差の係数データを、 上記決定手段から 出力される予測ブ πックの係数データを加算することにより、 量子化され た力レントブロックの係数データを復元して出力するとともに、 上記プロッ クメモリに格納する第 2の加箕手段と、
上記第 2の加算手段から出力されるカレントブロックの係数データを逆 量子化して出力する逆量子化手段と、
上記逆量子化手段からの力レントブロックの係数データを逆変換するこ とにより、 復元されたプロックの画像データを生成する逆変換手段とを備 えた画像予測符号化装置。
4 5 . 入力された画像信号をそれぞれ二次元配列の画素値を含む複数のブ 口ックの画像データにサンプリングするサンプリング手段と、
入力されるブロックの画像デ一タに対して動き補償処理を実行すること により、 動き補償されたプロックの予測誤差の画像データを生成して出力 する補償手段と、
上記サンプリング手段から出力されるプロックの画像データから、 上記 補償手段から出力されるプロックの予測誤差の画像データを減算して、 弒 算結果のプロックの画像データを出力する第 1の加算手段と、
上記第 1の加算手段から出力されるプロックの画像データを所定の変換 領域の係数データに変換する変換手段と、
復元されたブロックの係数データを格納するプロックメモリと、 上記プロックメモリに格納された前に再構築されたプロックの係数デー 夕に基づいて、 上記変換手段によって変換されたプロックの係数データに 対して複数の予測ブロックの係数データを形成する予測手段と、
上記予測手段によって形成された複数の予測プロックの係数データのう ち、 最も効率が良い予測プロックの係数データ及びスキャン方法を決定し 選択して出力し、 上記選択された予測ブロック及びスキャン方法を表す指 示子を指示ビッ トの形式で画像予測復号化装置に送信する決定手段と、 上記決定手段によって選択された予測ブロックの係数データを、 現時点 のカレン トプロックの係数データから減算することにより、 減算結果の予 測誤差の係数データを出力する第 2の加算手段と、 上記第 2の加算手段から出力される予測誤差の係数データを量子化する 量子化手段と、
上記量子化手段からの予測誤差の係数データに対して丄記決定手段によつ て決定されたスキヤン方法でスキヤン処理を実行して、 スキヤン処理後の 予測誤差の係数データを出力するスキヤン手段と、
上記スキヤン手段から出力されるスキャン処理後の予測誤差の係数デ一 タをェントロピー符号化して、 符号化された予測誤差の係数データを画像 予測復号化装置に送信する符号化手段と、
上記量子化手段からの予測誤差の係数データを逆量子化して、 復元され たプロックの係数データを出力する逆量子化手段と、
上記決定手段から出力される予測ブロックの係数データを、 上記逆量子 化手段から出力される予測誤差の係数データに加算することにより、 復元 されたプロックの係数データを出力するとともに、 上記ブロックメモリに 格納する第 3の加算手段と、
上記第 3の加算手段から出力されるブロックの係数データを逆変換する ことにより、 復元されたプロックの画像データを生成する逆変換手段と、 上記逆変換手段からの復元されたプロックの画像データに、 上記補償手 段から出力される動き補償されたブロックの予測誤差の画像デー夕を加算 することにより、 復元されたプロックの画像データを上記捕償手段に出力 する第 4の加算手段とを備えた画像予測苻号化装置。
4 6 . 入力された画像信号を二次元配列の画素値を含む複数のプロックの 画像データにサンプリ ングするサンプリ ング手段と、
入力されるブロックの画像データに対して動き補俵処理を実行すること により、 動き補值されたブロックの予測誤差の画像データを生成して出力 する補償手段と、 上記サンプリング手段から出力されるブロックの画像データから、 上記 補償手段から出力されるプロックの予測誤差の画像データを減算して、 減 算結果のプロックの画像データを出力する第 1の加算手段と、
上記第 1の加算手段から出力されるブロックの画像デー夕を所定の変換 領域の係数データに変換する変換手段と、
上記変換手段からの変換領域の係数データを量子化する量子化手段と、 復元されたブロックの係数データを格納するブロックメモリと、 上記プロックメモリに格納された前に再構築されたプロックの係数デー 夕に基づいて、 上記変換手段によって変換されたプロックの係数データに 対して複数の予測プロックの係数データを形成する予測手段と、
上記予測手段によって形成された複数の予測プロックの係数データのう ち、 最も効率が良い予測プロックの係数データ及びスキャン方法を決定し 選択して出力し、 上記選択された予測プロック及びスキャン方法を表す指 示子を指示ビッ 卜の形式で画像予測復号化装置に送 ftする決定手段と、 上記決定手段によって選択された予測プロックの係数データを、 現時点 のカレントブロックの係数データから減算することにより、 減算結果の予 測誤差の係数データを出力する第 2の加算手段と、
上記第 2の加算手段からの予測誤差の係数データに対して上記決定手段 によって決定されたスキヤン方法でスキヤン処理を実行して、 スキヤン処 理後の予測誤差の係数データを出力するスキャン手段と、
上記スキャン手段から出力されるスキヤン処理後の予測誤差の係数デ一 タをェントロピー符号化して、 符号化された予測誤差の係数データを画像 予測復号化装置に送信する符号化手段と、
上記第 2の加算手段からの予測誤差の係数データを、 上記決定手段から 出力される予測プロックの係数データを加算することにより、 量子化され たカレン卜プロックの係数データを復元して出力するとともに、 上記ブロッ クメモリに格納する第 3の加算手段と、
上記第 3の加算手段から出力されるカレン卜プロックの係数データを逆 量子化して出力する逆量子化手段と、
上記逆量子化手段からのカレントブロックの係数データを逆変換するこ とにより、 復元されたプロックの画像データを生成する逆変換手段と、 上記逆変換手段からの復元されたブロックの画像データに、 上記楠僙手 段から出力される動き補償されたプロックの予測誤差の画像データを加算 することにより、 復元されたプロックの画像データを上記楠儻手段に出力 する第 4の加算手段とを備えた画像予測符号化装置。
4 7 . 請求項 4 3記載の画像予測符号化装置に対応して設けられる画像予 測復号化装置であって、
上記画像予測符号化装置から受信された受信データから指示ビッ トを抽 出する抽出手段と、
復元されたプロックの係数データを格納するプロックメモリと、 上記抽出手段によって抽出された指示ビッ 卜が示す予測プロックに基づ いて、 上記プロックメモリに格納された以前に復元されたブロックの係数 データを用いて、 上記受信データに含まれる現時点の力レントブロックの 係数データに対して予測プロックの係数データを生成して出力する别の予 測手段と、
上記受信データをエントロピー復号化して、 復号化された予測誤差の係 数データを出力する復号化手段と、
上記復号化手段から出力される予測誤差の係数データに対して、 上記上 記抽出手段によって抽出された指示ビッ 卜が示すスキャン方法に基づいて、 逆スキヤン処理を実行して、 逆スキヤン処理後の予測誤差の係数データを 出力する逆スキヤ ン手段と、
上記逆スキャン手段から出力される逆スキャン処理後の予測誤差の係数 データを逆量子化して出力する逆量子化手段と、
上記別の予測手段から出力される予測ブロックの係数データを、 上記逆 量子化手段から出力される予測誤差の係数データに加算することにより、 現時点のカレントブロックの係数データを復元して出力するとともに、 上 記プロックメモリに格納する第 3の加算手段と、
上記第 3の加算手段から出力されるカレントブロックの係数データを逆 変換して、 復元されたカレン卜ブロックの画像データを出力する別の逆変 換手段とを備えた画像予測復号化装置。
4 8. 請求項 4 4記載の画像予測符号化装置に対応して設けられる画像予 測複号化装置であって、
上記画像予測符号化装置から受信された受信データから指示ビッ 卜を抽 出する抽出手段と、
復元されたプロックの係数データを格納するプロックメモリと、 上記抽出手段によって抽出された指示ビッ 卜が示す予測プロックに基づ いて、 上記プロックメモリに格納された以前に復元されたプロックの係数 データを用いて、 上記受信データに含まれる現時点のカレントプロックの 係数データに対して予測プロックの係数データを生成して出力する の予 測手段と、
上記受信データをエントロピー復号化して、 復号化された予測誤差の係 数データを出力する復号化手段と、
上記復号化手段から出力される予測誤差の係数デ一夕に対して、 上記上 記抽出手段によって抽出された指示ビッ 卜が示すスキヤン方法に基づいて、 逆スキヤン処理を実行して、 逆スキャン処理後の予測誤差の係数データを 出力する逆スキャン手段と、
上記予測手段から出力される予測プロックの係数データを、 上記逆スキヤ ン手段から出力される予測誤差の係数デー夕に加算することにより、 現時 点のカレントプロックの係数データを復元して出力するとともに、 上記ブ ロックメモリに格納する第 3の加算手段と、
上記第 3の加算手段から出力される予測誤差の係数データを逆量子化し て出力する逆量子化手段と、
上記逆量子化手段から出力されるカレントブロックの係数データを逆変 換して、 復元されたカレントブロックの画像データを出力する別の逆変換 手段とを備えた画像予測復号化装置。
4 9 . 請求項 4 5記載の画像予測符号化装置に対応して設けられる画像予 測復号化装置であって、
上記画像予測符号化装置から受信された受信データから指示ビッ トを抽 出する抽出手段と、
復元されたブロックの係数データを格納するブロックメモリと、 上記抽出手段によって抽出された指示ビッ トが示す予測プロックに基づ いて、 上記ブロックメモリに格納された以前に復元されたプロックの係数 データを用いて、 上記受信データに含まれる現時点のカレントブロックの 係数データに対して予測プロックの係数データを生成して出力する別の予 測手段と、
上記受信データをエントロピー復号化して、 復号化された予測誤差の係 数データを出力する復号化手段と、
上記復号化手段から出力される予測誤差の係数データに対して、 上記上 記抽出手段によって抽出された指示ビッ 卜が示すスキャン方法に基づいて、 ^スキヤン処理を実行して、 逆スキャン処理後の予測誤差の係数データを 出力する逆スキャン手段と、
上記逆スキヤン手段から出力される逆スキヤン処理後の予測誤差の係数 デ一タを逆量子化して出力する逆量子化手段と、
上記別の予測手段から出力される予測プロックの係数データを、 上記逆 量子化手段から出力される予測誤差の係数データに加算することにより、 現時点のカレントブロックの係数データを復元して出力するとともに、 上 記プロックメモリに格納する第 3の加算手段と、
上記第 3の加算手段から出力されるカレントブ口ックの係数データを逆 変換して、 復元されたカレン卜ブロックの画像データを出力する別の逆変 換手段と、
上記別の逆変換手段から出力されるカレン卜プロックの画像データに対 して動き補償処理を実行することにより、 動き補償の予測誤差デ一タを出 力する別の補僙手段と、
上記別の逆変换手段から山力されるカレントブロックの画像データから、 上記别の補償手段から出力される動き補僂の予測誤差データを減算して、 減算結果の復元されたプロックの画像データを出力する第 5の加算手段と を備えた画像予測復号化装置。
5 0. 請求項 4 6記載の画像予測符号化装置に対応して設けられる画像予 測複号化装置であって、
上記画像予測符号化装置から受信された受信データから指示ビッ トを抽 出する抽出手段と、
復元されたプロックの係数データを格納するブロックメモリと、 上記抽出手段によって抽出された指示ビッ 卜が示す予測プロックに基づ いて、 上記プロックメモリに格納された以前に復元されたプロックの係数 データを用いて、 上記受信データに含まれる現時点の力レントブロックの 係数データに対して予測プロックの係数データを生成して出力する別の予 測手段と、
上己受信データをェン卜口ピー復号化して、 復号化された予測誤差の係 数データを出力する復号化手段と、
上記復号化手段から出力される予測誤差の係数データに対して、 上記上 記抽出手段によって抽出された指示ビッ 卜が示すスキャン方法に基づいて、 逆スキャン処理を実行して、 逆スキャン処理後の予測誤差の係数データを 出力する逆スキャン手段と、
上記予測手段から出力される予測プロックの係数データを、 上記逆スキヤ ン手段から出力される予測誤差の係数データに加算することにより、 現時 点のカレントブロックの係数データを復元して出力するとともに、 上記ブ ロックメモリに格納する第 3の加算手段と、
上記第 3の加算手段から出力される予測誤差の係数データを逆量子化し て出力する逆量子化手段と、
上記逆量子化手段から出力されるカレントブロックの係数デー夕を逆変 換して、 復元された力レントブロックの画像データを出力する別の逆変換 手段と、
上記別の逆変換手段から出力されるカレン卜プロックの画像データに対 して動き補償処理を実行することにより、 動き補僂の予測誤差データを出 力する別の補 ΑΪ手段と、
上記别の逆変換手段から出力されるカレントブロックの画像データから、 上記別の補儐手段から出力される動き補償の予測誤差データを減算して、 減算結果の復元されたプロックの画像データを出力する第 5の加算手段と を備えた画像予測複号化装置。
5 1 . 請求項 4 3乃至 4 6のうちの 1つに記載の装置において、 上記サンプリ ング手段は、 4つのブロックのグループの中の二次元配列 の画素は、 第 1のプロックでは奇数番目の行にある奇数番目の画素から成 り、 第 2のブロックでは奇数番目の行にある偶数番目の画素から成り、 第 3プロックでは偶数番目の行にある奇数場番目の画素から成り、 第 4プロッ クでは偶数番目の行にある偶数番目の画素から成るように、 画素を交互に 差し挟むインターリーブ処理を含む装置。
5 2 . 請求項 4 3乃至 5 0のうちの 1つに記載の装置において、
上記予測ブロックは、 上記ブロックメモリに格納され、 前に復元された プロックであって、 符号化された力レントプロックに隣接するように位置 されたプロックから選択され、 プロック中の全ての係数データが選択され る装置。
5 3. 請求項 4 3乃至 5 0のうちの 1つに記載の装置において、
上記予測ブロックは、 上記ブロックメモリに格納され、 前に復元された プロックであって、 符号化された力レン トプロックに隣接するように位置 されたブロックから選択され、 あらかじめ定められたサブセッ 卜がブロッ クの係数データとして選択される装置。
5 4 . 請求項 4 3乃至 5 0のうちの 1つに記載の装置において、
上記予測ブロックは、 上記ブロックメモリに格納され、 前に復元された ブロックであって、 符号化されたカレントプロックの上方及び左側に隣接 するよう位置されたブロックから選択され、 当該ブロックの最上行、 及び 当該プロックの最左列の係数データのみが使用され、 残りの係数データは ゼロにセッ トされる装置。
5 5. 請求項 4 4、 4 6、 4 8又は 5 0記載の装置において、
上記予測ブロックは、 上記ブロックメモリに格納され、 前に復元された ブロックから請求項 5 4記載の基準に従って選択され、 当該プロックの最上行又は最左列からの 1つ又はそれ以上の係数データ を含むサブセッ トのみを使用することを、 画像予測符号化装置と画像予測 復号化装匿とが通信を行うことにより決定する装置。
5 6. 請求項 4 4、 4 6、 4 8又は 5 0記載の装置において、
上記予測プロックは、 上記プロックメモリに格納され、 前に復元された ブロックから請求項 5 4記載の基準に従って選択され、
当該ブロックの最上行又は最左列からの 1つ又はそれ以上の係数データ を含むサブセッ トのみを使用することを、 画像予測符号化装置が決定して、 決定されたサブセッ ト及び係数データの数を示すフラグを、 画像予測復号 化装置に送信されるデータに周期的に挿入することにより、 画像予測復号 化装置に通知する装置。
5 7 . 請求項 4 4、 4 6、 4 8又は 5 0記載の装置において、
上記予測ブロックは、 上記ブロックメモリに格納され、 前に復元された ブ ックから請求項 5 1乃至 5 4のうちの 1つに記載の基準に従って選択 され、
各プロックの係数データは、 符号化されるカレントブロックの量子化ス テツプサイズと予剷ブ口ックの量子化ステップサイズの比に等しい比で乗 算される装置。
5 8. 請求項 4 3乃至 5 0のうちの 1つに記載の装置において、
上記予測ブロックは、 上記ブロックメモリに格納され、 前に復元された プロックから請求項 5 1乃至 5 4のうちの 1つに記載の基準に従って選択 され、
各プロックの係数データは異なる重み付け関数で重み付けされる装置。
5 9. 請求項 4 3乃至 5 0のうちの 1つに記載の装置において、
上記予測ブロックは、 上記ブロックメモリに格納され、 前に復元された プロックから請求項 5 1乃至 5 4のうちの 1つに記載の基準に従って選択 され、
各プロックの係数データに対して所定の変換演算が実行される装置。
6 0 . 請求項 4 3乃至 5 0のうちの 1つに記載の装置において、
上記予測プロックは、 符号化されるカレントブロックに隣接して位置す る、 上記ブロックメモリに格納され、 前に復元されたブロックの重み付け 平均値として得られる装置。
6 1 . 請求項 4 3乃至 5 0のうちの 1つに記載の装置において、
上記スキャン方法は、
( i ) 係数データが、 左から右に向かって、 行毎に、 最上行で始まり、 最 下行で終わるようにスキヤンされる水平スキヤンと、
(ϋ) 係数データが、 最上行から最下行に向かって、 列每に、 最左列から 始まり、 最右列で終るようにスキヤンされる垂直スキヤンと、
(i ii) 係数データが、 最上行の最左の係数データから最下行の最右の係 数データに向かって、 対角線方向にスキヤンされるジグザグスキャンとの うちの少なくとも 1つのスキャン方法を含む装置。
6 2 . 講求項 4 3乃至 5 0のうちの 1つに記載の装置において、
上記予測ブロックは、 上記ブロックメモリに格納され、 前に復元された プロックから請求項 5 4記載の基準に従って選択され、
上記予測プロックの予測モードは、
( i ) 処理対象のカレントブロックから上側に位置するブロックからの、 D C係数として呼ばれる当該プロックの平均値を表す最上及び最左の係数 データのみを予測のために使用する第 1のモードと、
( ii) 処理対象の力レン卜ブロックから左側に位置するプロックからの、 D C係数のみを予測のために使用する第 2のモードと、 (iii) 処理対象のカレントブロックから上側に位置するプロックの最上 行からの、 D C係数及び、 高周波成分を含む 0個又はそれ以上の A C係数 を予測のために使用する第 3のモードと、
(iv) 処理対象のカレン卜ブロックから左側に位置するブロックの最左列 からの、 D C係数及び、 高周波成分を含む 0個又はそれ以上の A C係数を 予測のために使用する第 4のモードと、
の少なくとも 1つの予測モー ドを含み、
上記予測^差の係数データはジグザグスキャンのスキヤン方法でスキヤ ンされる装置。
6 3. 請求項 4 3乃至 5 0のうちの 1つに記載の装置において、
上記予測プロックは、 上記プロックメモリに格納され、 前に復元された プロックから請求項 5 4記載の基準に従って選択され、
上記予測誤差の係数データは、 請求項 6 1記載のスキャン方法の 1つに 従ってスキヤンされ、
上記予測誤差の係数データを予測する予測モードは、
( i ) 処理対象のカレン卜プロックから上側に位置するプロックにおける D C係数のみが予測のために使用され、 上記予測誤差の係数データに対し て、 ジグザグスキャンでスキャン処理が実行される第 1のモードと、
( ii) 処理対象のカレントブロックから左側に位置するブロックにおける D C係数のみが予測のために使用され、 上記予測誤差の係数データに対し て、 ジグザグスキャンでスキヤン処理が実行される第 2のモー ドと、
(iii) 処理対象のカレントブロックから上側に位置するブロックの最上 行における D C係数及び、 高周波成分を含む 0個又はそれ以上の A C係数 が予測のために使用され、 上記予測誤差の係数データに対して、 水平スキヤ ンでスキヤン処理が実行される第 3のモードと、 (iv) 処理対象の力レン卜ブロックから左側に位置するブロックの最左列 における D C係数及び、 高周波成分を含む 0個又はそれ以上の A C係数が 予測のために使用され、 上記予剮誤差の係数データに対して、 垂直スキヤ ンでスキャン処理が実行される第 4のモードと、
の少なくとも 1つを含む装置。
6 4 . 請求項 4 3乃至 4 6のうちの 1つに記載の装置において、
上記決定手段は、
上記プロックメモリに格納された複数の隣接するプロックのデータから 入力されるカレントプロックの係数データをそれぞれ減算して、 減算結果 の複数の予測プロックのデータを出力する減算手段と、
上記減算手段から出力される複数の予測プロックのデータをェント口ピ 一符号化して、 符号化された複数の予測プロックのデータを出力する别の 符号化手段と、
上記別の符号化手段から出力される符号化された複数の予測プロックの データの各ビッ ト数を計数する計数手段と、
上記計数手段によつて計数された複数の予測プロックのデータの各ビッ 卜数のうち最も少ないビッ ト数の予測プロックのデータに対応する予測ブ 口ックのデータを選択する選択手段とを備えた装置。
6 5 . 請求項 4 3乃至 5 0のうちの 1つに記載の装置において、
上記復号化された画像データに基づいて、 インターリーブされた 4個の ブロックからなる複数のグループから二次元配列の画素を形成して元の画 像データを復元するときに、 奇数番目の行にある奇数番目の画素は全て第 1のプロックから求め、 奇数番目の行にある偶数番目の画素は第 2のプロッ クから求め、 偶数番目の行にある奇数番目の画素は第 3プロックから求め、 偶数番目の行にある偶数番目の画素は第 4ブロックから求めるように、 上 記復号化された画像データに対して、 逆ィンターリーブ処理を実行する装 置。
6 6. 請求項 4 3乃至 5 0のうちの 1つに記載の装置において、
上記変換手段の変換は離散コサイン変換である装置。
6 7 . 請求項 4 3乃至 5 0のうちの 1つに記載の装置において、
画像予測符号化装置と画像予測復号化装置は、 予め決められた同一のル ールを用いて、 上記予測モー ドを決定する装置。
6 8. 請求項 4 3乃至 5 0のうちの 1つに記載の装置において、
画像予測符号化装置と画像予測復号化装置は、 予め決められた同一のル ールを用いて、 上記スキャン方法を決定する装置。
6 9 . 請求項 1乃至 1 5、 2 5乃至 2 8及び 4 3乃至 4 6のうちの 1つに 記載の画像予測符号化装置における各手段をそれぞれ各ステップに置き換 えたステップを含む画像予測符号化方法。
7 0. 請求項 1 6乃至 2 4、 2 9乃至 3 2及び 4 7乃至 5 0のうちの 1つ に記載の画像予測復号化装置における各手段をそれぞれ各ステップに置き 換えたステップを含む画像予測復号化方法。
7 1 . 請求項 6 9記載の画像予測符号化方法における各ステップを含むプ ログラムを記録した記録媒体。
7 2. 請求項 7 0記載の画像予測復号化方法における各ステップを含むプ ログラムを記録した記録媒体。
PCT/JP1997/001800 1996-05-28 1997-05-28 Device and method for predicting and encoding image, device and method for predicting and decoding image, and recording medium WO1997046021A1 (en)

Priority Applications (14)

Application Number Priority Date Filing Date Title
DE1997609835 DE69709835T2 (de) 1996-05-28 1997-05-28 Vorrichtung zur bildvorhersage und decodierung
US08/983,640 US6148109A (en) 1996-05-28 1997-05-28 Image predictive coding method
BR9702224A BR9702224B1 (pt) 1996-05-28 1997-05-28 aparelho de decodificação de previsão de imagem.
CA 2228166 CA2228166C (en) 1996-05-28 1997-05-28 Image predictive coding apparatus and method, image predictive decoding apparatus and method and recording medium
JP54202597A JP3369573B2 (ja) 1996-05-28 1997-05-28 画像予測復号化方法及び装置
KR1019980700683A KR100324608B1 (ko) 1996-05-28 1997-05-28 화상예측부호화장치와방법,화상예측복호화장치와방법,및기록매체
EP19970924230 EP0843484B1 (en) 1996-05-28 1997-05-28 Device predicting and decoding image
MX9800656A MX9800656A (es) 1996-05-28 1997-05-28 Aparato y metodo de codificacion predictiva de imagenes aparato y metodo de decodificacion predictiva de imagenes y medio de registro.
US10/781,616 US7394941B2 (en) 1996-05-28 2004-02-20 Image predictive coding method
US10/973,256 US7079694B2 (en) 1996-05-28 2004-10-27 Image predictive coding method
US11/601,728 US7995654B2 (en) 1996-05-28 2006-11-20 Image predictive coding method
US11/601,796 US7424158B2 (en) 1996-05-28 2006-11-20 Image predictive coding method
US11/601,794 US7437008B2 (en) 1996-05-28 2006-11-20 Image predictive coding method
US11/601,623 US7444029B2 (en) 1996-05-28 2006-11-20 Image predictive coding method

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP8/132970 1996-05-28
JP13297096 1996-05-28
JP8/176426 1996-07-05
JP17642696 1996-07-05
JP25467796 1996-09-26
JP8/254677 1996-09-26

Related Child Applications (8)

Application Number Title Priority Date Filing Date
US09513198 Division 1960-02-25
US08/983,640 A-371-Of-International US6148109A (en) 1996-05-28 1997-05-28 Image predictive coding method
US08983640 A-371-Of-International 1997-05-28
US09/513,193 Division US6360016B1 (en) 1996-05-28 2000-02-25 Imagine predictive decoding apparatus
US09/512,800 Division US6366703B1 (en) 1996-05-28 2000-02-25 Image predictive decoding apparatus
US09/513,199 Division US6292588B1 (en) 1996-05-28 2000-02-25 Image predictive decoding apparatus
US09/512,801 Division US6377708B1 (en) 1996-05-28 2000-02-25 Image predictive coding method
US09/513,198 Division US6532306B1 (en) 1996-05-28 2000-02-25 Image predictive coding method

Publications (1)

Publication Number Publication Date
WO1997046021A1 true WO1997046021A1 (en) 1997-12-04

Family

ID=27316620

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1997/001800 WO1997046021A1 (en) 1996-05-28 1997-05-28 Device and method for predicting and encoding image, device and method for predicting and decoding image, and recording medium

Country Status (11)

Country Link
US (13) US6148109A (ja)
EP (9) EP1835761A3 (ja)
JP (5) JP3369573B2 (ja)
KR (7) KR100371130B1 (ja)
CN (6) CN1143551C (ja)
BR (1) BR9702224B1 (ja)
CA (1) CA2228166C (ja)
DE (5) DE69709835T2 (ja)
ES (5) ES2170954T3 (ja)
MX (1) MX9800656A (ja)
WO (1) WO1997046021A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003348599A (ja) * 1997-06-20 2003-12-05 Matsushita Electric Ind Co Ltd 画像処理方法
KR100468844B1 (ko) * 2002-01-07 2005-01-29 삼성전자주식회사 정지영상 및 동영상을 부호화/복호화하기 위한변환계수들의 최적주사방법
WO2006028088A1 (ja) * 2004-09-08 2006-03-16 Matsushita Electric Industrial Co., Ltd. 動画像符号化方法および動画像復号化方法
WO2009037828A1 (ja) * 2007-09-21 2009-03-26 Panasonic Corporation 画像符号化装置および画像復号化装置
US7646809B2 (en) 1996-09-20 2010-01-12 At&T Intellectual Property Ii, Lp. System and method of providing directional information for direct prediction
WO2010084692A1 (ja) * 2009-01-22 2010-07-29 株式会社エヌ・ティ・ティ・ドコモ 画像予測符号化装置、方法及びプログラム、画像予測復号装置、方法及びプログラム、並びに、符号化・復号システム及び方法
JP2012135061A (ja) * 1996-09-20 2012-07-12 At & T Corp 復号器における係数を予測する方法、復号化方法、ビデオ復号化器
US8326063B2 (en) 2006-04-28 2012-12-04 Ntt Docomo, Inc. Method, apparatus and program for efficient generation of prediction signals
WO2013038888A1 (ja) * 2011-09-13 2013-03-21 Kddi株式会社 画像符号化装置及び画像復号装置
US8625665B2 (en) 1996-09-20 2014-01-07 At&T Intellectual Property Ii, L.P. Video coder providing implicit coefficient prediction and scan adaptation for image coding and intra coding of video

Families Citing this family (255)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6571016B1 (en) * 1997-05-05 2003-05-27 Microsoft Corporation Intra compression of pixel blocks using predicted mean
US6215910B1 (en) * 1996-03-28 2001-04-10 Microsoft Corporation Table-based compression with embedded coding
KR100371130B1 (ko) 1996-05-28 2003-02-07 마쯔시다덴기산교 가부시키가이샤 화상예측 복호화 장치 및 그 방법과 화상예측 부호화 장치및 그 방법
KR100413979B1 (ko) * 1996-07-15 2004-05-20 주식회사 팬택앤큐리텔 예측부호화방법및장치
EP1887804A3 (en) * 1996-09-20 2009-10-07 AT&T Corp. Video coder providing implicit coefficient predication and scan adaption for image coding and intra coding of video
EP1684530A3 (en) * 1996-09-20 2006-08-09 AT&T Corp. Video coder providing implicit coefficient prediction and scan adaption for image coding and intra coding of video
JP3191922B2 (ja) 1997-07-10 2001-07-23 松下電器産業株式会社 画像復号化方法
KR100281967B1 (ko) * 1998-08-31 2001-02-15 전주범 공간 상관성을 이용한 영상 부호화 장치 및 그 방법
KR100282147B1 (ko) 1998-11-13 2001-02-15 구자홍 압축 영상 복원 방법
US6563953B2 (en) 1998-11-30 2003-05-13 Microsoft Corporation Predictive image compression using a single variable length code for both the luminance and chrominance blocks for each macroblock
US6282322B1 (en) * 1998-12-03 2001-08-28 Philips Electronics North America Corp. System and method for compressing and decompressing images
US6778707B1 (en) * 1999-12-17 2004-08-17 Xerox Corporation Method for decompressing JPEG files using a variable block size inverse discrete cosine transform
US6654503B1 (en) 2000-04-28 2003-11-25 Sun Microsystems, Inc. Block-based, adaptive, lossless image coder
US6643410B1 (en) * 2000-06-29 2003-11-04 Eastman Kodak Company Method of determining the extent of blocking artifacts in a digital image
JP2002118853A (ja) 2000-08-04 2002-04-19 Matsushita Electric Ind Co Ltd 画像復号装置及び画像復号方法
US6823089B1 (en) * 2000-09-28 2004-11-23 Eastman Kodak Company Method of determining the extent of blocking and contouring artifacts in a digital image
US6897977B1 (en) * 2000-11-20 2005-05-24 Hall Aluminum Llc Lossy method for compressing pictures and video
US6765964B1 (en) 2000-12-06 2004-07-20 Realnetworks, Inc. System and method for intracoding video data
US20020122491A1 (en) * 2001-01-03 2002-09-05 Marta Karczewicz Video decoder architecture and method for using same
ITMI20011309A1 (it) * 2001-06-21 2002-12-21 St Microelectronics Srl Metodo di memorizzazione di un file dati in particolare in formato cosiddetto mpeg
US7095785B2 (en) * 2001-06-29 2006-08-22 Equator Technologies, Inc. Determination of prediction direction in MPEG-4
JP3964391B2 (ja) * 2001-06-29 2007-08-22 株式会社エヌ・ティ・ティ・ドコモ 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
JP4163618B2 (ja) * 2001-08-28 2008-10-08 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化伝送システム、動画像符号化伝送方法、これらに用いて好適な符号化装置、復号化装置、符号化方法、復号化方法及びプログラム
US7181070B2 (en) * 2001-10-30 2007-02-20 Altera Corporation Methods and apparatus for multiple stage video decoding
KR100451257B1 (ko) * 2001-11-06 2004-10-06 (주)씨앤에스 테크놀로지 Mpeg-4에 있어서 이산여현변환된 ac/dc 계수의복원회로 및 방법
US20030099403A1 (en) * 2001-11-13 2003-05-29 Trusight Ltd. Image compression with dynamic programming
US7171444B2 (en) * 2001-11-14 2007-01-30 Sharp Laboratories Of America, Inc. Remote desktop protocol compression system
US20030099294A1 (en) * 2001-11-27 2003-05-29 Limin Wang Picture level adaptive frame/field coding for digital video content
KR100992246B1 (ko) 2001-11-22 2010-11-05 파나소닉 주식회사 부호화 방법 및 부호화 장치
US7162094B2 (en) 2001-11-27 2007-01-09 General Instrument Corporation Frequency coefficient scanning paths for coding digital video content
EP1322119B1 (en) * 2001-11-27 2013-01-09 Samsung Electronics Co., Ltd. Apparatus for encoding and decoding key data and keyvalue data of coordinate interpolator and recording medium
CN102316320B (zh) 2001-12-17 2014-07-09 微软公司 处理视频图像的方法
CN101448162B (zh) 2001-12-17 2013-01-02 微软公司 处理视频图像的方法
KR100454501B1 (ko) * 2001-12-26 2004-10-28 브이케이 주식회사 영상신호를 부호화 또는 복호화하기 위한 예측 장치 및 방법
US6690307B2 (en) * 2002-01-22 2004-02-10 Nokia Corporation Adaptive variable length coding of digital video
JP4130780B2 (ja) 2002-04-15 2008-08-06 松下電器産業株式会社 画像符号化方法および画像復号化方法
AU2006203176B2 (en) * 2002-04-15 2008-07-31 Godo Kaisha Ip Bridge 1 Image encoding method and image decoding method
JP2004007563A (ja) * 2002-04-19 2004-01-08 Matsushita Electric Ind Co Ltd 動画像符号化方法および動画像復号化方法
KR100491530B1 (ko) * 2002-05-03 2005-05-27 엘지전자 주식회사 모션 벡터 결정 방법
JP4019790B2 (ja) * 2002-05-23 2007-12-12 富士ゼロックス株式会社 画像処理装置および画像処理プログラム
US7386048B2 (en) 2002-05-28 2008-06-10 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode organization
US7016547B1 (en) 2002-06-28 2006-03-21 Microsoft Corporation Adaptive entropy encoding/decoding for screen capture content
JP4724351B2 (ja) * 2002-07-15 2011-07-13 三菱電機株式会社 画像符号化装置、画像符号化方法、画像復号装置、画像復号方法、および通信装置
DE60330198D1 (de) 2002-09-04 2009-12-31 Microsoft Corp Entropische Kodierung mittels Anpassung des Kodierungsmodus zwischen Niveau- und Lauflängenniveau-Modus
US7433824B2 (en) 2002-09-04 2008-10-07 Microsoft Corporation Entropy coding by adapting coding between level and run-length/level modes
CN1232126C (zh) 2002-09-30 2005-12-14 三星电子株式会社 图像编码方法和装置以及图像解码方法和装置
KR20040031868A (ko) * 2002-10-07 2004-04-14 엘지전자 주식회사 동영상 부호화 방법
JP3679083B2 (ja) * 2002-10-08 2005-08-03 株式会社エヌ・ティ・ティ・ドコモ 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム
US7809204B2 (en) * 2002-10-18 2010-10-05 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding key value data of coordinate interpolator
US6931061B2 (en) * 2002-11-13 2005-08-16 Sony Corporation Method of real time MPEG-4 texture decoding for a multiprocessor environment
CN100401781C (zh) * 2002-11-20 2008-07-09 松下电器产业株式会社 动态图像预测方法、编码方法及装置、解码方法及装置
EP1569460B1 (en) 2002-11-25 2013-05-15 Panasonic Corporation Motion compensation method, image encoding method, and image decoding method
US20040141654A1 (en) * 2003-01-17 2004-07-22 Yi-Yung Jeng Texture encoding procedure
US9330060B1 (en) 2003-04-15 2016-05-03 Nvidia Corporation Method and device for encoding and decoding video image data
HUP0301368A3 (en) * 2003-05-20 2005-09-28 Amt Advanced Multimedia Techno Method and equipment for compressing motion picture data
WO2004109595A2 (en) * 2003-05-22 2004-12-16 Lee, Jin, H. Method for doubling resolution lcd display using line doubling and non-linear interpolation curve
US8660182B2 (en) * 2003-06-09 2014-02-25 Nvidia Corporation MPEG motion estimation based on dual start points
KR100612849B1 (ko) 2003-07-18 2006-08-14 삼성전자주식회사 영상 부호화 및 복호화 장치 및 방법
JP4617644B2 (ja) 2003-07-18 2011-01-26 ソニー株式会社 符号化装置及び方法
US7426308B2 (en) 2003-07-18 2008-09-16 Microsoft Corporation Intraframe and interframe interlace coding and decoding
US8218624B2 (en) 2003-07-18 2012-07-10 Microsoft Corporation Fractional quantization step sizes for high bit rates
US7602851B2 (en) 2003-07-18 2009-10-13 Microsoft Corporation Intelligent differential quantization of video coding
US7580584B2 (en) 2003-07-18 2009-08-25 Microsoft Corporation Adaptive multiple quantization
US10554985B2 (en) 2003-07-18 2020-02-04 Microsoft Technology Licensing, Llc DC coefficient signaling at small quantization step sizes
US7738554B2 (en) * 2003-07-18 2010-06-15 Microsoft Corporation DC coefficient signaling at small quantization step sizes
TWI231714B (en) * 2003-07-30 2005-04-21 Mediatek Inc Method for performing predictive image decoding with memory access
US7606308B2 (en) 2003-09-07 2009-10-20 Microsoft Corporation Signaling macroblock mode information for macroblocks of interlaced forward-predicted fields
US7782954B2 (en) * 2003-09-07 2010-08-24 Microsoft Corporation Scan patterns for progressive video content
US7688894B2 (en) * 2003-09-07 2010-03-30 Microsoft Corporation Scan patterns for interlaced video content
US7724827B2 (en) 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
US8064520B2 (en) 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
US20080123739A1 (en) * 2003-09-25 2008-05-29 Amimon Ltd. Wireless Transmission of High Quality Video
JP2005117196A (ja) * 2003-10-03 2005-04-28 Matsushita Electric Ind Co Ltd 映像符号化方法
US7280595B1 (en) 2003-10-21 2007-10-09 Redrock Semiconductor, Ltd. Post-inverse-quantization AC prediction with a unified variable-length-decoding and inverse-quantization stage
US8223844B2 (en) * 2003-11-14 2012-07-17 Intel Corporation High frequency emphasis in decoding of encoded signals
JP2005151391A (ja) * 2003-11-19 2005-06-09 Toshiba Corp 動画像符号化方法、動画像符号化装置およびプログラム
JP2005184042A (ja) * 2003-12-15 2005-07-07 Sony Corp 画像復号装置及び画像復号方法並びに画像復号プログラム
WO2005062623A1 (ja) * 2003-12-18 2005-07-07 Nec Corporation 動画像再生方法及び装置並びにプログラム
TWI258673B (en) * 2004-02-16 2006-07-21 Sunplus Technology Co Ltd Bi-directional motion compensation method to reduce temporal buffer
JP2007525906A (ja) 2004-02-27 2007-09-06 ティディヴィジョン コーポレイション エス.エー. デ シー.ヴィ. 立体3dビデオイメージディジタルコーディングのシステムおよび方法
CA2557534A1 (en) * 2004-02-27 2005-09-09 Td Vision Corporation S.A. De C.V. Method and system for digital decoding 3d stereoscopic video images
KR20070007295A (ko) * 2004-03-01 2007-01-15 코닌클리케 필립스 일렉트로닉스 엔.브이. 비디오 인코딩 방법 및 장치
US7519229B2 (en) * 2004-03-30 2009-04-14 Apple, Inc. Video coding system providing separate coding chains for dynamically selected small-size or full-size playback
US20050232350A1 (en) * 2004-03-30 2005-10-20 Mana Hamada Inverse prediction apparatus and decoding apparatus using the same
WO2005104563A1 (ja) * 2004-04-22 2005-11-03 Mitsubishi Denki Kabushiki Kaisha 画像符号化装置及び画像復号装置
CN100417203C (zh) * 2004-05-11 2008-09-03 联咏科技股份有限公司 感测装置与其图像信号取样的方法
US7801383B2 (en) 2004-05-15 2010-09-21 Microsoft Corporation Embedded scalar quantizers with arbitrary dead-zone ratios
KR20050112445A (ko) * 2004-05-25 2005-11-30 경희대학교 산학협력단 예측 부호화/복호화 장치, 예측 부호화/복호화 방법 및 그방법을 수행하는 프로그램이 기록된 컴퓨터 판독가능한기록매체
KR20050114751A (ko) * 2004-06-01 2005-12-06 경희대학교 산학협력단 예측 부호화/복호화 장치 및 예측 부호화/복호화 방법
KR101204788B1 (ko) * 2004-06-03 2012-11-26 삼성전자주식회사 영상의 공간 예측 부호화 방법, 부호화 장치, 복호화 방법및 복호화 장치
KR100982518B1 (ko) * 2004-06-11 2010-09-16 삼성전자주식회사 영상 데이터 유닛의 dc 계수 예측 방법 및 그 장치
CN100496128C (zh) * 2004-06-16 2009-06-03 浙江大学 视频或图像压缩中扫描变换系数的方法和装置
KR100612850B1 (ko) * 2004-07-14 2006-08-21 삼성전자주식회사 이산 코사인 변환 계수의 예측 방법 및 장치
KR20060008523A (ko) * 2004-07-21 2006-01-27 삼성전자주식회사 영상의 인트라 예측 방법 및 그 장치
US7664184B2 (en) * 2004-07-21 2010-02-16 Amimon Ltd. Interpolation image compression
KR100587698B1 (ko) * 2004-10-22 2006-06-08 주식회사 휴맥스 선택적 예측 부호화/복호화 방법 및 장치
JP4763422B2 (ja) * 2004-12-03 2011-08-31 パナソニック株式会社 イントラ予測装置
JP4277793B2 (ja) * 2004-12-17 2009-06-10 ソニー株式会社 画像処理装置、符号化装置およびそれらの方法
KR100682912B1 (ko) * 2005-01-05 2007-02-15 삼성전자주식회사 화상 데이터 부호화 및 복호화 방법 및 장치
KR100701740B1 (ko) 2005-01-11 2007-03-29 엘지전자 주식회사 영상 데이터의 pi프레임 인코딩과 디코딩을 위한 장치및 방법
KR101108681B1 (ko) * 2005-01-19 2012-01-25 삼성전자주식회사 동영상 코덱에서의 주파수 변환 계수 예측 방법 및 장치,이를 구비한 부호화 및 복호화 장치와 방법
KR100913088B1 (ko) * 2005-01-21 2009-08-21 엘지전자 주식회사 베이스 레이어의 내부모드 블록의 예측정보를 이용하여영상신호를 엔코딩/디코딩하는 방법 및 장치
CN100426868C (zh) * 2005-01-25 2008-10-15 中国科学院计算技术研究所 一种帧内图像的亮度预测编码方法
KR100694093B1 (ko) * 2005-02-18 2007-03-12 삼성전자주식회사 영상 블럭의 계수 예측 장치 및 그 방법
CN101133650B (zh) 2005-04-01 2010-05-19 松下电器产业株式会社 图像解码装置以及图像解码方法
US8422546B2 (en) 2005-05-25 2013-04-16 Microsoft Corporation Adaptive video encoding using a perceptual model
KR100718130B1 (ko) 2005-06-04 2007-05-14 삼성전자주식회사 디스플레이 구동 장치 및 방법
JP2007043651A (ja) * 2005-07-05 2007-02-15 Ntt Docomo Inc 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法及び動画像復号プログラム
US7599840B2 (en) 2005-07-15 2009-10-06 Microsoft Corporation Selectively using multiple entropy models in adaptive coding and decoding
US7693709B2 (en) 2005-07-15 2010-04-06 Microsoft Corporation Reordering coefficients for waveform coding or decoding
US7684981B2 (en) 2005-07-15 2010-03-23 Microsoft Corporation Prediction of spectral coefficients in waveform coding and decoding
KR101204801B1 (ko) * 2005-07-15 2012-11-26 삼성전자주식회사 색상계에 적응적인 화소값 보정 방법 및 장치, 그를 이용항영상 부호화/복호화 방법 및 장치
US8369406B2 (en) * 2005-07-18 2013-02-05 Electronics And Telecommunications Research Institute Apparatus of predictive coding/decoding using view-temporal reference picture buffers and method using the same
US7933337B2 (en) 2005-08-12 2011-04-26 Microsoft Corporation Prediction of transform coefficients for image compression
US8599925B2 (en) 2005-08-12 2013-12-03 Microsoft Corporation Efficient coding and decoding of transform blocks
US9077960B2 (en) 2005-08-12 2015-07-07 Microsoft Corporation Non-zero coefficient block pattern coding
US7565018B2 (en) 2005-08-12 2009-07-21 Microsoft Corporation Adaptive coding and decoding of wide-range coefficients
KR100727972B1 (ko) * 2005-09-06 2007-06-14 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
CN100466745C (zh) * 2005-10-11 2009-03-04 华为技术有限公司 帧内预测编解码方法及其系统
JP2007116351A (ja) 2005-10-19 2007-05-10 Ntt Docomo Inc 画像予測符号化装置、画像予測復号装置、画像予測符号化方法、画像予測復号方法、画像予測符号化プログラム、及び画像予測復号プログラム
KR100868476B1 (ko) 2005-10-21 2008-11-12 한국전자통신연구원 적응적 스캐닝을 이용한 동영상 부호화/복호화 장치 및 그방법
US8731071B1 (en) 2005-12-15 2014-05-20 Nvidia Corporation System for performing finite input response (FIR) filtering in motion estimation
US7822223B2 (en) * 2006-01-13 2010-10-26 New Jersey Institute Of Technology Method for identifying marked images using statistical moments based at least in part on a JPEG array
US20070199011A1 (en) * 2006-02-17 2007-08-23 Sony Corporation System and method for high quality AVC encoding
CN101317458B (zh) 2006-03-16 2012-04-18 华为技术有限公司 在编码过程中实现自适应量化的方法及装置
US7912129B2 (en) * 2006-03-16 2011-03-22 Sony Corporation Uni-modal based fast half-pel and fast quarter-pel refinement for video encoding
KR100834757B1 (ko) * 2006-03-28 2008-06-05 삼성전자주식회사 엔트로피 부호화 효율을 향상시키는 방법 및 그 방법을이용한 비디오 인코더 및 비디오 디코더
US8599841B1 (en) 2006-03-28 2013-12-03 Nvidia Corporation Multi-format bitstream decoding engine
US8077769B2 (en) * 2006-03-28 2011-12-13 Sony Corporation Method of reducing computations in transform and scaling processes in a digital video encoder using a threshold-based approach
US7929608B2 (en) * 2006-03-28 2011-04-19 Sony Corporation Method of reducing computations in intra-prediction and mode decision processes in a digital video encoder
US8593469B2 (en) * 2006-03-29 2013-11-26 Nvidia Corporation Method and circuit for efficient caching of reference video data
US8724702B1 (en) 2006-03-29 2014-05-13 Nvidia Corporation Methods and systems for motion estimation used in video coding
JP4417919B2 (ja) * 2006-03-31 2010-02-17 株式会社東芝 画像符号化装置及び画像復号化装置
US8503536B2 (en) 2006-04-07 2013-08-06 Microsoft Corporation Quantization adjustments for DC shift artifacts
US7995649B2 (en) 2006-04-07 2011-08-09 Microsoft Corporation Quantization adjustment based on texture level
US7974340B2 (en) 2006-04-07 2011-07-05 Microsoft Corporation Adaptive B-picture quantization control
US8059721B2 (en) 2006-04-07 2011-11-15 Microsoft Corporation Estimating sample-domain distortion in the transform domain with rounding compensation
US8130828B2 (en) 2006-04-07 2012-03-06 Microsoft Corporation Adjusting quantization to preserve non-zero AC coefficients
US8711925B2 (en) 2006-05-05 2014-04-29 Microsoft Corporation Flexible quantization
CN101083769B (zh) * 2006-06-02 2011-05-25 三星电子株式会社 处理n比特视频数据的编/解码器和编/解码方法
US7884742B2 (en) * 2006-06-08 2011-02-08 Nvidia Corporation System and method for efficient compression of digital data
KR100846870B1 (ko) * 2006-07-06 2008-07-16 한국전자통신연구원 다수의 기본 블록들의 다차원 구성을 통한 다단계 변환장치 및 그 방법
EP2047687B1 (en) 2006-08-02 2018-05-16 Thomson Licensing DTV Adaptive geometric partitioning for video encoding
KR100882949B1 (ko) * 2006-08-17 2009-02-10 한국전자통신연구원 화소 유사성에 따라 적응적인 이산 코사인 변환 계수스캐닝을 이용한 부호화/복호화 장치 및 그 방법
US8660380B2 (en) * 2006-08-25 2014-02-25 Nvidia Corporation Method and system for performing two-dimensional transform on data value array with reduced power consumption
US8260070B1 (en) * 2006-10-03 2012-09-04 Adobe Systems Incorporated Method and system to generate a compressed image utilizing custom probability tables
US8059902B2 (en) * 2006-10-31 2011-11-15 Ntt Docomo, Inc. Spatial sparsity induced temporal prediction for video compression
KR101380843B1 (ko) * 2006-12-28 2014-04-07 삼성전자주식회사 인트라 예측을 통해 부호화된 블럭들을 포함하는압축영상에 대한 축소영상 생성방법 및 이를 적용한영상기기
JPWO2008084817A1 (ja) * 2007-01-09 2010-05-06 株式会社東芝 画像符号化と復号化の方法及び装置
KR101411315B1 (ko) * 2007-01-22 2014-06-26 삼성전자주식회사 인트라/인터 예측 방법 및 장치
US8238424B2 (en) 2007-02-09 2012-08-07 Microsoft Corporation Complexity-based adaptive preprocessing for multiple-pass video compression
US8184710B2 (en) 2007-02-21 2012-05-22 Microsoft Corporation Adaptive truncation of transform coefficient data in a transform-based digital media codec
RU2472305C2 (ru) * 2007-02-23 2013-01-10 Ниппон Телеграф Энд Телефон Корпорейшн Способ кодирования видео и способ декодирования видео, устройства для этого, программы для этого и носители хранения, на которых хранятся программы
KR20080082143A (ko) * 2007-03-07 2008-09-11 삼성전자주식회사 영상 부호화 방법 및 장치, 복호화 방법 및 장치
US8233537B2 (en) * 2007-03-19 2012-07-31 Texas Instruments Incorporated Efficient implementation of H.264 4 by 4 intra prediction on a VLIW processor
KR101403338B1 (ko) * 2007-03-23 2014-06-09 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치
US8498335B2 (en) 2007-03-26 2013-07-30 Microsoft Corporation Adaptive deadzone size adjustment in quantization
US8243797B2 (en) 2007-03-30 2012-08-14 Microsoft Corporation Regions of interest for quality adjustments
US8442337B2 (en) 2007-04-18 2013-05-14 Microsoft Corporation Encoding adjustments for animation content
CN102123277B (zh) * 2007-05-08 2012-11-14 孟智平 一种基于流格式的指定区域图像传输及显示方法
US20080291209A1 (en) * 2007-05-25 2008-11-27 Nvidia Corporation Encoding Multi-media Signals
US8756482B2 (en) * 2007-05-25 2014-06-17 Nvidia Corporation Efficient encoding/decoding of a sequence of data frames
JP5188875B2 (ja) 2007-06-04 2013-04-24 株式会社エヌ・ティ・ティ・ドコモ 画像予測符号化装置、画像予測復号装置、画像予測符号化方法、画像予測復号方法、画像予測符号化プログラム、及び画像予測復号プログラム
US8331438B2 (en) 2007-06-05 2012-12-11 Microsoft Corporation Adaptive selection of picture-level quantization parameters for predicted video pictures
US9118927B2 (en) * 2007-06-13 2015-08-25 Nvidia Corporation Sub-pixel interpolation and its application in motion compensated encoding of a video signal
KR101378338B1 (ko) * 2007-06-14 2014-03-28 삼성전자주식회사 영상 복구를 이용한 인트라 예측 부호화, 복호화 방법 및장치
US7774205B2 (en) 2007-06-15 2010-08-10 Microsoft Corporation Coding of sparse digital media spectral data
RU2496252C2 (ru) 2007-06-29 2013-10-20 Шарп Кабусики Кайся Устройство кодирования изображения, способ кодирования изображения, устройство декодирования изображения, способ декодирования изображения, программа и запоминающий носитель
US8873625B2 (en) * 2007-07-18 2014-10-28 Nvidia Corporation Enhanced compression in representing non-frame-edge blocks of image frames
JP5212373B2 (ja) * 2007-09-12 2013-06-19 ソニー株式会社 画像処理装置及び画像処理方法
ES2519766T3 (es) 2007-12-20 2014-11-07 Optis Wireless Technology, Llc Señalización de canal de control usando un campo de señalización común para el formato de trnasporte y la versión de redundancia
KR20090097688A (ko) * 2008-03-12 2009-09-16 삼성전자주식회사 영상의 인트라 예측 부호화/복호화 방법 및 장치
US8189933B2 (en) 2008-03-31 2012-05-29 Microsoft Corporation Classifying and controlling encoding quality for textured, dark smooth and smooth video content
US8179974B2 (en) 2008-05-02 2012-05-15 Microsoft Corporation Multi-level representation of reordered transform coefficients
JP2009290498A (ja) * 2008-05-29 2009-12-10 Renesas Technology Corp 画像符号化装置及び画像符号化方法
US8897359B2 (en) 2008-06-03 2014-11-25 Microsoft Corporation Adaptive quantization for enhancement layer video coding
EP2306732A4 (en) * 2008-06-27 2012-02-22 Fujitsu Ltd IMAGE COMPRESSION DEVICE AND IMAGE RESTORATION DEVICE
KR101223780B1 (ko) * 2008-07-30 2013-01-17 히다찌 컨슈머 일렉트로닉스 가부시끼가이샤 압축 화상 노이즈 제거 장치와 재생 장치
US8406307B2 (en) 2008-08-22 2013-03-26 Microsoft Corporation Entropy coding/decoding of hierarchically organized data
JP5446198B2 (ja) * 2008-10-03 2014-03-19 富士通株式会社 画像予測装置及び方法、画像符号化装置、画像復号化装置
US8774541B2 (en) * 2008-11-05 2014-07-08 Sony Corporation Intra prediction with adaptive interpolation filtering for image compression
US8666181B2 (en) * 2008-12-10 2014-03-04 Nvidia Corporation Adaptive multiple engine image motion detection system and method
US9196059B2 (en) 2009-01-29 2015-11-24 Lg Electronics Inc. Method and apparatus for processing video signals using boundary intra coding
JP5564061B2 (ja) * 2009-02-06 2014-07-30 トムソン ライセンシング ビデオ・エンコーダおよびデコーダにおける暗黙的および半暗黙的イントラ・モード信号伝達方法および装置
PL3567852T3 (pl) 2009-03-23 2023-03-27 Ntt Docomo, Inc. Urządzenie do predykcyjnego dekodowania obrazu i sposób predykcyjnego dekodowania obrazu
US8363722B2 (en) 2009-03-31 2013-01-29 Sony Corporation Method and apparatus for hierarchical bi-directional intra-prediction in a video encoder
FR2944936A1 (fr) * 2009-04-23 2010-10-29 Thomson Licensing Procedes de codage et de decodage d'un bloc de donnees images, dispositifs de codage et de decodage implementant lesdits procedes
US8179291B2 (en) * 2009-05-04 2012-05-15 International Business Machines Corporation Method and system for compression of logical data objects for storage
US8290952B2 (en) * 2009-06-24 2012-10-16 Nokia Corporation Method and apparatus for retrieving nearby data
US8873626B2 (en) * 2009-07-02 2014-10-28 Qualcomm Incorporated Template matching for video coding
US9654792B2 (en) 2009-07-03 2017-05-16 Intel Corporation Methods and systems for motion vector derivation at a video decoder
JP4844657B2 (ja) * 2009-07-31 2011-12-28 カシオ計算機株式会社 画像処理装置及び方法
KR101474756B1 (ko) 2009-08-13 2014-12-19 삼성전자주식회사 큰 크기의 변환 단위를 이용한 영상 부호화, 복호화 방법 및 장치
US8705623B2 (en) 2009-10-02 2014-04-22 Texas Instruments Incorporated Line-based compression for digital image data
US20110090952A1 (en) * 2009-10-21 2011-04-21 Cohen Robert A Directional Transforms for Video and Image Coding
US20110158310A1 (en) * 2009-12-30 2011-06-30 Nvidia Corporation Decoding data using lookup tables
WO2011099789A2 (ko) * 2010-02-10 2011-08-18 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
US9819358B2 (en) * 2010-02-19 2017-11-14 Skype Entropy encoding based on observed frequency
US20110206132A1 (en) * 2010-02-19 2011-08-25 Lazar Bivolarsky Data Compression for Video
US9609342B2 (en) * 2010-02-19 2017-03-28 Skype Compression for frames of a video signal using selected candidate blocks
US20110206118A1 (en) * 2010-02-19 2011-08-25 Lazar Bivolarsky Data Compression for Video
US9313526B2 (en) * 2010-02-19 2016-04-12 Skype Data compression for video
CN102215396A (zh) 2010-04-09 2011-10-12 华为技术有限公司 一种视频编解码方法和系统
US8306343B2 (en) * 2010-04-09 2012-11-06 Newport Media, Inc. Optimized prediction based image compression
EP4354866A2 (en) * 2010-05-14 2024-04-17 InterDigital VC Holdings, Inc. Methods and apparatus for intra coding a block having pixels assigned to groups
CN102972028B (zh) * 2010-05-17 2015-08-12 Lg电子株式会社 新的帧内预测模式
CN101917615A (zh) * 2010-06-03 2010-12-15 北京邮电大学 一种混合视频编码框架中的增强型双向运动矢量预测方法
EP2589224B1 (fr) * 2010-06-29 2020-11-04 Orange Procédés et dispositifs de codage et de décodage d'au moins une image mettant en oeuvre une estimation dans le domaine transformé et programme d'ordinateur correspondant
GB2481856A (en) * 2010-07-09 2012-01-11 British Broadcasting Corp Picture coding using weighted predictions in the transform domain
WO2012011432A1 (ja) 2010-07-20 2012-01-26 株式会社エヌ・ティ・ティ・ドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法、及び、画像予測復号プログラム
KR101373814B1 (ko) * 2010-07-31 2014-03-18 엠앤케이홀딩스 주식회사 예측 블록 생성 장치
US9918086B2 (en) * 2010-08-17 2018-03-13 M&K Holdings Inc. Method for encoding an intra prediction mode
KR20120016991A (ko) * 2010-08-17 2012-02-27 오수미 인터 프리딕션 방법
US11284072B2 (en) 2010-08-17 2022-03-22 M&K Holdings Inc. Apparatus for decoding an image
PL3849194T3 (pl) 2010-09-27 2022-10-31 Lg Electronics, Inc. Sposób podziału bloku oraz urządzenie do dekodowania
US9497472B2 (en) 2010-11-16 2016-11-15 Qualcomm Incorporated Parallel context calculation in video coding
US9049444B2 (en) 2010-12-22 2015-06-02 Qualcomm Incorporated Mode dependent scanning of coefficients of a block of video data
US20120163456A1 (en) 2010-12-22 2012-06-28 Qualcomm Incorporated Using a most probable scanning order to efficiently code scanning order information for a video block in video coding
US9414056B2 (en) 2011-01-13 2016-08-09 Samsung Electronics Co., Ltd. Video-encoding method and apparatus for same and video-decoding method and apparatus for same using a selective scan mode
US8548057B2 (en) 2011-01-25 2013-10-01 Microsoft Corporation Video coding redundancy reduction
US8861593B2 (en) * 2011-03-15 2014-10-14 Sony Corporation Context adaptation within video coding modules
US9374576B2 (en) 2011-06-13 2016-06-21 Dolby Laboratories Licensing Corporation Fused region-based VDR prediction
KR20120140181A (ko) 2011-06-20 2012-12-28 한국전자통신연구원 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치
RU2594291C2 (ru) 2011-06-28 2016-08-10 Самсунг Электроникс Ко., Лтд. Способ и устройство для кодирования и декодирования изображения, используя внутреннее предсказание
EP2544142A1 (en) * 2011-07-08 2013-01-09 Thomson Licensing Method for watermark detection using reference blocks comparison
US10390016B2 (en) 2011-11-04 2019-08-20 Infobridge Pte. Ltd. Apparatus of encoding an image
KR20130049524A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
KR20130050406A (ko) * 2011-11-07 2013-05-16 오수미 머지 모드에서의 움직임 정보 생성 방법
KR20130050407A (ko) * 2011-11-07 2013-05-16 오수미 인터 모드에서의 움직임 정보 생성 방법
CN107493473B (zh) * 2011-11-08 2020-12-08 株式会社Kt 利用解码装置对视频信号进行解码的方法
HUE053941T2 (hu) * 2011-12-15 2021-08-30 Tagivan Ii Llc Luminancia-krominancia kódolt blokk jelölõk (CBF) jelzése videokódolásban
JP5591838B2 (ja) * 2012-02-02 2014-09-17 株式会社東芝 画像符号化装置、及び方法
GB2501535A (en) * 2012-04-26 2013-10-30 Sony Corp Chrominance Processing in High Efficiency Video Codecs
US9185429B1 (en) 2012-04-30 2015-11-10 Google Inc. Video encoding and decoding using un-equal error protection
CN103391433B (zh) * 2012-05-09 2017-07-18 腾讯科技(深圳)有限公司 视频编码帧内预测扫描方法及视频编码方法
US9113164B1 (en) 2012-05-15 2015-08-18 Google Inc. Constant bit rate control using implicit quantization values
US9749645B2 (en) 2012-06-22 2017-08-29 Microsoft Technology Licensing, Llc Coded-block-flag coding and derivation
US9510019B2 (en) 2012-08-09 2016-11-29 Google Inc. Two-step quantization and coding method and apparatus
US9332266B2 (en) 2012-08-24 2016-05-03 Industrial Technology Research Institute Method for prediction in image encoding and image encoding apparatus applying the same
US9826229B2 (en) 2012-09-29 2017-11-21 Google Technology Holdings LLC Scan pattern determination from base layer pixel information for scalable extension
US9407915B2 (en) 2012-10-08 2016-08-02 Google Inc. Lossless video coding with sub-frame level optimal quantization values
US9350988B1 (en) 2012-11-20 2016-05-24 Google Inc. Prediction mode-based block ordering in video coding
WO2014104104A1 (ja) * 2012-12-28 2014-07-03 日本電信電話株式会社 映像符号化装置および方法、映像復号装置および方法、及びそれらのプログラム
US9681128B1 (en) 2013-01-31 2017-06-13 Google Inc. Adaptive pre-transform scanning patterns for video and image compression
US9247251B1 (en) 2013-07-26 2016-01-26 Google Inc. Right-edge extension for quad-tree intra-prediction
EP3007448A1 (en) * 2014-10-07 2016-04-13 Canon Kabushiki Kaisha Disparity data encoding apparatus and method of controlling the same for
JP6728375B2 (ja) 2016-02-12 2020-07-22 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 走査順序選択のための方法および装置
JP6724152B2 (ja) 2016-02-12 2020-07-15 華為技術有限公司Huawei Technologies Co.,Ltd. 走査順序選択のための方法及び装置
US9712830B1 (en) * 2016-09-15 2017-07-18 Dropbox, Inc. Techniques for image recompression
WO2019000443A1 (zh) * 2017-06-30 2019-01-03 华为技术有限公司 一种帧间预测的方法及装置
KR102410035B1 (ko) * 2017-07-06 2022-06-20 삼성디스플레이 주식회사 영상 신호 처리 장치 및 그것을 포함하는 표시 장치
KR102173001B1 (ko) * 2019-04-09 2020-11-02 주식회사 광진 윈도우 레귤레이터용 와이어 클립 및 윈도우 레귤레이터
WO2021040486A1 (ko) 2019-08-31 2021-03-04 엘지전자 주식회사 영상 디코딩 방법 및 그 장치
WO2023286925A1 (en) * 2021-07-13 2023-01-19 Samsung Electronics Co., Ltd. A system and method for rendering differential video on graphical displays
EP4281926A1 (en) 2021-07-13 2023-11-29 Samsung Electronics Co., Ltd. A system and method for rendering differential video on graphical displays

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60143088A (ja) * 1983-12-29 1985-07-29 Fujitsu Ltd 自動モ−ド切替形動き補償予測符号化方式
JPS61201570A (ja) * 1985-03-05 1986-09-06 Fujitsu Ltd フレ−ム内フレ−ム間符号化方式
JPH0265583A (ja) * 1988-08-31 1990-03-06 Sony Corp 画像信号の高能率符号化装置
JPH04306095A (ja) * 1991-04-03 1992-10-28 Oki Electric Ind Co Ltd 動画像パケット符号化復号化方式
JPH0537786A (ja) * 1991-07-26 1993-02-12 Sony Corp 画像データエンコーダおよびデコーダ
JPH05336382A (ja) * 1992-06-03 1993-12-17 Oki Electric Ind Co Ltd フレーム内符号化復号化方式
JPH07231445A (ja) * 1994-02-18 1995-08-29 Hitachi Ltd 画像符号化方法およびその装置
JPH0823536A (ja) * 1994-07-07 1996-01-23 Canon Inc 画像処理装置

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2640157C2 (de) * 1976-09-07 1982-10-07 Philips Patentverwaltung Gmbh, 2000 Hamburg Verfahren und Anordnung zum redundanzvermindernden Codieren von Bildern
JPH0646808B2 (ja) * 1985-09-17 1994-06-15 株式会社日立メデイコ デイジタルラジオグラフイ装置
JPS63197185A (ja) 1987-02-12 1988-08-16 Toshiba Corp 直交変換符号化方式
US4833535A (en) * 1987-02-04 1989-05-23 Kabushiki Kaisha Toshiba Image transmission apparatus
US4870695A (en) * 1987-03-20 1989-09-26 International Business Machines Corporation Compression and de-compression of column-interlaced, row-interlaced graylevel digital images
US5001559A (en) * 1989-10-12 1991-03-19 International Business Machines Corporation Transform coding using coefficient prediction techniques
US5799111A (en) * 1991-06-14 1998-08-25 D.V.P. Technologies, Ltd. Apparatus and methods for smoothing images
JPH05276500A (ja) * 1991-07-19 1993-10-22 Sony Corp 動画像符号化及び復号化装置
JP2507204B2 (ja) * 1991-08-30 1996-06-12 松下電器産業株式会社 映像信号符号化装置
JPH06197334A (ja) * 1992-07-03 1994-07-15 Sony Corp 画像信号符号化方法、画像信号復号化方法、画像信号符号化装置、画像信号復号化装置及び画像信号記録媒体
KR960010196B1 (ko) * 1993-06-04 1996-07-26 배순훈 인간의 시각특성을 이용한 디씨(dc) 변환계수 양자화기
US5654760A (en) * 1994-03-30 1997-08-05 Sony Corporation Selection of quantization step size in accordance with predicted quantization noise
KR0128881B1 (ko) * 1994-04-30 1998-04-10 배순훈 디지틀화상복호화장치
US5608458A (en) * 1994-10-13 1997-03-04 Lucent Technologies Inc. Method and apparatus for a region-based approach to coding a sequence of video images
US5589829A (en) * 1994-10-26 1996-12-31 Intel Corporation Decoding variable-length encoded signals
JP2827997B2 (ja) * 1995-12-28 1998-11-25 日本電気株式会社 画像信号のアダマール変換符号化装置および復号装置
US5737019A (en) * 1996-01-29 1998-04-07 Matsushita Electric Corporation Of America Method and apparatus for changing resolution by direct DCT mapping
KR100371130B1 (ko) * 1996-05-28 2003-02-07 마쯔시다덴기산교 가부시키가이샤 화상예측 복호화 장치 및 그 방법과 화상예측 부호화 장치및 그 방법
US6005622A (en) * 1996-09-20 1999-12-21 At&T Corp Video coder providing implicit or explicit prediction for image coding and intra coding of video
US6341144B1 (en) * 1996-09-20 2002-01-22 At&T Corp. Video coder providing implicit coefficient prediction and scan adaptation for image coding and intra coding of video
KR100346740B1 (ko) * 1996-09-21 2002-09-18 삼성전자 주식회사 이산코사인변환계수예측방법
KR100346728B1 (ko) * 1996-09-21 2002-10-12 삼성전자 주식회사 이산코사인변환의 dc 계수예측방법 및 이를 이용한 데이터 부호화방법
EP0833521A3 (en) * 1996-09-30 1999-09-15 Hyundai Electronics Industries Co., Ltd. Device for and method of coding/decoding image information
KR100303685B1 (ko) * 1996-09-30 2001-09-24 송문섭 영상 예측부호화 장치 및 그 방법
US5974184A (en) * 1997-03-07 1999-10-26 General Instrument Corporation Intra-macroblock DC and AC coefficient prediction for interlaced digital video
US5870144A (en) * 1997-03-28 1999-02-09 Adaptec, Inc. Reduced-quality resolution digital video encoder/decoder
US6222944B1 (en) * 1998-05-07 2001-04-24 Sarnoff Corporation Down-sampling MPEG image decoder
US6233359B1 (en) * 1998-10-29 2001-05-15 Seiko Epson Corporation File size bounded JPEG transcoder (FSBJT)
US6236764B1 (en) * 1998-11-30 2001-05-22 Equator Technologies, Inc. Image processing circuit and method for reducing a difference between pixel values across an image boundary
JP4306095B2 (ja) 2000-06-15 2009-07-29 ソニー株式会社 データ伝送方法及びデータ伝送装置並びにデータ受信方法及びデータ受信装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60143088A (ja) * 1983-12-29 1985-07-29 Fujitsu Ltd 自動モ−ド切替形動き補償予測符号化方式
JPS61201570A (ja) * 1985-03-05 1986-09-06 Fujitsu Ltd フレ−ム内フレ−ム間符号化方式
JPH0265583A (ja) * 1988-08-31 1990-03-06 Sony Corp 画像信号の高能率符号化装置
JPH04306095A (ja) * 1991-04-03 1992-10-28 Oki Electric Ind Co Ltd 動画像パケット符号化復号化方式
JPH0537786A (ja) * 1991-07-26 1993-02-12 Sony Corp 画像データエンコーダおよびデコーダ
JPH05336382A (ja) * 1992-06-03 1993-12-17 Oki Electric Ind Co Ltd フレーム内符号化復号化方式
JPH07231445A (ja) * 1994-02-18 1995-08-29 Hitachi Ltd 画像符号化方法およびその装置
JPH0823536A (ja) * 1994-07-07 1996-01-23 Canon Inc 画像処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP0843484A4 *

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012135061A (ja) * 1996-09-20 2012-07-12 At & T Corp 復号器における係数を予測する方法、復号化方法、ビデオ復号化器
JP2014053945A (ja) * 1996-09-20 2014-03-20 At & T Corp ビデオの画像コーディング及びイントラコーディングのための暗黙の係数予測及び走査適合化を提供するビデオコーダー
US7974346B2 (en) 1996-09-20 2011-07-05 AT&T Intellectual II, L.P. System and method for generating video data for implicit coefficient prediction decoding
JP2015164349A (ja) * 1996-09-20 2015-09-10 エイ・ティ・アンド・ティ・コーポレーションAt&T Corp. ビデオの画像コーディング及びイントラコーディングのための暗黙の係数予測及び走査適合化を提供するビデオコーダー
US8625665B2 (en) 1996-09-20 2014-01-07 At&T Intellectual Property Ii, L.P. Video coder providing implicit coefficient prediction and scan adaptation for image coding and intra coding of video
US7646809B2 (en) 1996-09-20 2010-01-12 At&T Intellectual Property Ii, Lp. System and method of providing directional information for direct prediction
US7869502B2 (en) 1996-09-20 2011-01-11 At&T Intellectual Property Ii, L.P. Video coder providing implicit coefficient prediction and scan adaptation for image coding and intra coding of video
US9693051B2 (en) 1996-09-20 2017-06-27 At&T Intellectual Property Ii, L.P. Video coder providing implicit coefficient prediction and scan adaptation for image coding and intra coding of video
JP2003348599A (ja) * 1997-06-20 2003-12-05 Matsushita Electric Ind Co Ltd 画像処理方法
KR100468844B1 (ko) * 2002-01-07 2005-01-29 삼성전자주식회사 정지영상 및 동영상을 부호화/복호화하기 위한변환계수들의 최적주사방법
US7215707B2 (en) 2002-01-07 2007-05-08 Samsung Electronics Co., Ltd. Optimal scanning method for transform coefficients in coding/decoding of image and video
US8179962B2 (en) 2004-09-08 2012-05-15 Panasonic Corporation Motion image encoding method and motion image decoding method
WO2006028088A1 (ja) * 2004-09-08 2006-03-16 Matsushita Electric Industrial Co., Ltd. 動画像符号化方法および動画像復号化方法
US8326063B2 (en) 2006-04-28 2012-12-04 Ntt Docomo, Inc. Method, apparatus and program for efficient generation of prediction signals
US8634670B2 (en) 2006-04-28 2014-01-21 Ntt Docomo, Inc. Method, apparatus and program for efficient generation of prediction signals
JP5261376B2 (ja) * 2007-09-21 2013-08-14 パナソニック株式会社 画像符号化装置および画像復号化装置
WO2009037828A1 (ja) * 2007-09-21 2009-03-26 Panasonic Corporation 画像符号化装置および画像復号化装置
WO2010084692A1 (ja) * 2009-01-22 2010-07-29 株式会社エヌ・ティ・ティ・ドコモ 画像予測符号化装置、方法及びプログラム、画像予測復号装置、方法及びプログラム、並びに、符号化・復号システム及び方法
US8483496B2 (en) 2009-01-22 2013-07-09 Ntt Docomo, Inc. Image encoding/decoding system
WO2013038888A1 (ja) * 2011-09-13 2013-03-21 Kddi株式会社 画像符号化装置及び画像復号装置

Also Published As

Publication number Publication date
CN1334683A (zh) 2002-02-06
US7995654B2 (en) 2011-08-09
EP1289304A3 (en) 2003-07-16
CA2228166A1 (en) 1997-12-04
CN1172533C (zh) 2004-10-20
US7424158B2 (en) 2008-09-09
CN1684520A (zh) 2005-10-19
DE69718687D1 (de) 2003-02-27
JP3149417B2 (ja) 2001-03-26
EP1098528B1 (en) 2002-01-02
EP1085763A2 (en) 2001-03-21
EP0843484A1 (en) 1998-05-20
US20070065029A1 (en) 2007-03-22
CN1143551C (zh) 2004-03-24
ES2170745T3 (es) 2002-08-16
US7437008B2 (en) 2008-10-14
EP1835760B1 (en) 2012-01-04
JP2001054119A (ja) 2001-02-23
US7394941B2 (en) 2008-07-01
EP1835761A3 (en) 2007-10-03
JP3118237B1 (ja) 2000-12-18
EP1096802A3 (en) 2001-05-09
US20070065030A1 (en) 2007-03-22
EP1096801A3 (en) 2001-05-09
EP1098528A1 (en) 2001-05-09
KR100403077B1 (ko) 2003-10-30
EP1096802B1 (en) 2001-12-12
CN1334682A (zh) 2002-02-06
EP1835760A2 (en) 2007-09-19
ES2170954T3 (es) 2002-08-16
CN1350401A (zh) 2002-05-22
CN1207919C (zh) 2005-06-22
DE69709912T2 (de) 2002-08-22
KR19990036018A (ko) 1999-05-25
KR100324610B1 (ko) 2002-02-27
DE69709189D1 (de) 2002-01-24
DE69718687T2 (de) 2003-05-22
CA2228166C (en) 2002-04-30
JP2001045489A (ja) 2001-02-16
EP1835760A3 (en) 2007-10-03
DE69709912D1 (de) 2002-02-28
CN1334684A (zh) 2002-02-06
DE69709914T2 (de) 2002-08-22
ES2190935T3 (es) 2003-09-01
KR100371129B1 (ko) 2003-02-07
US6377708B1 (en) 2002-04-23
JP2001061154A (ja) 2001-03-06
EP1096802A2 (en) 2001-05-02
EP1085763A3 (en) 2001-04-25
MX9800656A (es) 1998-04-30
BR9702224B1 (pt) 2010-08-10
DE69709914D1 (de) 2002-02-28
US20070065028A1 (en) 2007-03-22
KR100324608B1 (ko) 2002-04-17
US20050058356A1 (en) 2005-03-17
JP3851063B2 (ja) 2006-11-29
US6532306B1 (en) 2003-03-11
US6292588B1 (en) 2001-09-18
EP0843484B1 (en) 2002-01-02
US6360016B1 (en) 2002-03-19
KR100371130B1 (ko) 2003-02-07
US7444029B2 (en) 2008-10-28
CN100361536C (zh) 2008-01-09
JP3369573B2 (ja) 2003-01-20
EP1096801B1 (en) 2002-01-02
EP0843484A4 (en) 2001-01-10
ES2170744T3 (es) 2002-08-16
CN1198288A (zh) 1998-11-04
EP1835762A2 (en) 2007-09-19
US20030059120A1 (en) 2003-03-27
EP1835761A2 (en) 2007-09-19
EP1085763B1 (en) 2003-01-22
US6366703B1 (en) 2002-04-02
JP3149418B2 (ja) 2001-03-26
DE69709189T2 (de) 2002-08-22
KR20020095013A (ko) 2002-12-20
EP1835762A3 (en) 2007-10-03
CN1183769C (zh) 2005-01-05
US7079694B2 (en) 2006-07-18
EP1289304A2 (en) 2003-03-05
DE69709835T2 (de) 2002-08-22
BR9702224A (pt) 1999-12-28
DE69709835D1 (de) 2002-02-28
JP2001057679A (ja) 2001-02-27
US6859559B2 (en) 2005-02-22
US6148109A (en) 2000-11-14
KR100324611B1 (ko) 2002-02-27
CN1172532C (zh) 2004-10-20
EP1096801A2 (en) 2001-05-02
US20050008232A1 (en) 2005-01-13
KR100324609B1 (ko) 2002-02-27
US20070065027A1 (en) 2007-03-22
ES2171377T3 (es) 2002-09-16

Similar Documents

Publication Publication Date Title
JP3118237B1 (ja) 画像予測復号化方法
JP3857298B2 (ja) 画像予測符号化装置及び方法、並びに画像予測復号化装置及び方法
JP3343554B1 (ja) 画像予測復号化方法及び画像予測符号化装置
JP3851317B2 (ja) 画像予測符号化方法及び装置
JP2002359852A (ja) 画像予測復号化装置及び方法
JP3157144B1 (ja) 画像予測復号化方法
JP3343553B1 (ja) 画像予測符号化装置及び方法
JP3857297B2 (ja) 画像予測符号化方法及び装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 97190908.3

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): BR CA CN JP KR MX SG US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FI FR GB GR IE IT LU MC NL PT SE

WWE Wipo information: entry into national phase

Ref document number: 1997924230

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: PA/A/1998/000656

Country of ref document: MX

ENP Entry into the national phase

Ref document number: 2228166

Country of ref document: CA

Ref document number: 2228166

Country of ref document: CA

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 08983640

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1019980700683

Country of ref document: KR

ENP Entry into the national phase

Ref document number: 1998 983640

Country of ref document: US

Date of ref document: 19980227

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 1997924230

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1019980700683

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1019980700683

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1997924230

Country of ref document: EP