WO2014098380A1 - Method for decoding intra-screen prediction mode of chroma block in scalable video coding, and apparatus using such method - Google Patents

Method for decoding intra-screen prediction mode of chroma block in scalable video coding, and apparatus using such method Download PDF

Info

Publication number
WO2014098380A1
WO2014098380A1 PCT/KR2013/010604 KR2013010604W WO2014098380A1 WO 2014098380 A1 WO2014098380 A1 WO 2014098380A1 KR 2013010604 W KR2013010604 W KR 2013010604W WO 2014098380 A1 WO2014098380 A1 WO 2014098380A1
Authority
WO
WIPO (PCT)
Prior art keywords
prediction mode
block
mode
screen
enhancement layer
Prior art date
Application number
PCT/KR2013/010604
Other languages
French (fr)
Korean (ko)
Inventor
이선영
Original Assignee
주식회사 팬택
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 팬택 filed Critical 주식회사 팬택
Publication of WO2014098380A1 publication Critical patent/WO2014098380A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Definitions

  • the present invention relates to a method and apparatus for hierarchical video coding, and more particularly, to a method of deriving an intra prediction mode when performing hierarchical video coding.
  • High efficiency image compression techniques can be used to solve these problems caused by high resolution and high quality image data.
  • An inter-screen prediction technique for predicting pixel values included in the current picture from a picture before or after the current picture using an image compression technique an intra prediction technique for predicting pixel values included in a current picture using pixel information in the current picture
  • a second object of the present invention is to provide an apparatus for performing a method of decoding an intra prediction mode of a chrominance block in video coding.
  • a method of decoding a prediction mode in a chrominance block picture includes decoding a prediction mode in a chrominance block picture of a base layer and a prediction mode in a luminance block picture of an enhancement layer. And deriving the prediction mode in the color difference block screen of the enhancement layer based on the prediction mode in the color difference block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer.
  • Deriving the prediction mode in the chrominance block screen of the enhancement layer based on the prediction mode in the chrominance block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer includes: Determining whether the prediction mode in the luminance block screen of the enhancement layer is the same; and when the prediction mode in the chrominance block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are the same, the color difference block of the base layer. And setting the intra prediction mode to the intra prediction mode of the color difference block of the enhancement layer.
  • the decoding method of the intra prediction mode of the chrominance block screen is based on the intra prediction mode table of the chrominance block when the prediction mode in the chrominance block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are not the same.
  • the method may further include decoding a prediction mode in the color difference block screen of the layer.
  • the intra prediction mode table of the chrominance block is a table in which the intra prediction mode number of the chrominance block and the intra prediction mode of the chrominance block are mapped, and the intra prediction mode of the chrominance block of the base layer and the luminance block of the enhancement layer are mapped.
  • an extra mode (eM) of the intra prediction mode table of the chrominance block is set to the intra prediction mode of No. 34, and the intra prediction mode and the enhancement of the chrominance block of the base layer are improved.
  • a mode (extra mode, eM) is set as the prediction mode in the 34th screen, and the prediction mode in the chrominance block screen of the base layer.
  • Intra prediction mode of the color difference block when the intra prediction mode of the luminance block picture of the enhancement layer is not the same and the intra prediction mode of the color difference block of the base layer is not the planer mode, the DC mode, the vertical mode, or the horizontal mode.
  • the extra mode (eM) of the table may be generated by setting the prediction mode in the color difference block screen of the base layer.
  • the decoding method of the prediction mode in the color difference block screen may further include determining whether the prediction mode in the color difference block screen of the base layer and the prediction mode in the color difference block screen of the enhancement layer are the same.
  • Deriving the intra prediction mode of the chrominance block screen of the enhancement layer based on the prediction mode within the chrominance block screen of the base layer and the prediction mode within the luminance block screen of the enhancement layer may include: And when the prediction mode in the color difference block screen of the enhancement layer is not the same, determining whether the prediction mode in the color difference block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are the same and the base layer.
  • Deriving the intra prediction mode of the chrominance block screen of the enhancement layer based on the prediction mode within the chrominance block screen of the base layer and the prediction mode within the luminance block screen of the enhancement layer may include: And when the prediction mode in the chrominance block screen of the enhancement layer is not the same and the prediction mode in the chrominance block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are not the same, The method may further include calculating a prediction mode in a candidate screen of the color difference block of the enhancement layer except for the prediction mode.
  • An image decoding apparatus for achieving the second object of the present invention includes an entropy decoding unit for decoding a prediction mode in a color difference block picture of a base layer and a prediction mode in a luminance block picture of an enhancement layer. And a prediction unit for deriving a prediction mode in the color difference block screen of the enhancement layer based on the prediction mode in the color difference block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer.
  • the prediction unit selects the prediction mode in the chrominance block screen of the base layer in the screen prediction mode of the chrominance block of the enhancement layer. It can be implemented to set to. If the prediction mode in the color difference block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are not the same, the prediction unit may predict the color difference block screen of the enhancement layer based on the intra prediction mode table of the color difference block. It can be implemented to derive the mode.
  • the intra prediction mode table of the chrominance block is a table in which the intra prediction mode number of the chrominance block and the intra prediction mode of the chrominance block are mapped, and the intra prediction mode in the chrominance block screen of the base layer and the luminance block screen of the enhancement layer. If the prediction modes are the same, the extra mode (eM) of the intra prediction mode table of the chrominance block is set to the intra prediction mode of screen 34, and the prediction mode in the chrominance block screen of the base layer and the luminance of the enhancement layer are set.
  • eM extra mode
  • the extra mode of the intra prediction picture table of the color difference block mode, eM) is set as the prediction mode in the 34th screen, and is different from the prediction mode in the chrominance block screen of the base layer.
  • Intra prediction mode table of the chrominance block if the intra prediction mode of the luminance block of the enhancement layer is not the same and the intra prediction mode of the chrominance block of the base layer is not the planer mode, the DC mode, the vertical mode, or the horizontal mode.
  • the extra mode (eM) may be generated by setting the prediction mode in the color difference block picture of the base layer.
  • the prediction unit may be implemented to determine whether the prediction mode in the color difference block screen of the base layer and the prediction mode in the color difference block screen of the enhancement layer are the same.
  • the prediction unit does not have the same prediction mode in the color difference block screen of the base layer and the prediction mode in the color difference block screen of the enhancement layer, and the prediction mode in the color difference block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are different.
  • it may be implemented to calculate a candidate intra prediction mode of the color difference block of the enhancement layer except for the intra prediction mode of the luminance block screen of the enhancement layer.
  • the prediction unit does not have the same prediction mode in the color difference block screen of the base layer and the prediction mode in the color difference block screen of the enhancement layer, and the prediction mode in the color difference block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are different. If not the same, except for the prediction mode in the color difference block screen of the base layer may be implemented to calculate the prediction mode in the candidate screen of the color difference block of the enhancement layer.
  • the intra prediction mode of the color difference block of an enhancement layer is encoded and encoded.
  • encoding and decoding may be performed by considering color difference block information of a base layer and an intra prediction mode of a luminance block of an enhancement layer. Accordingly, in encoding and decoding an intra prediction mode of a color difference block of an enhancement layer, image encoding efficiency and decoding efficiency may be increased.
  • FIG. 1 is a block diagram illustrating an encoding apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating a decoder according to another embodiment of the present invention.
  • FIG. 3 is a conceptual diagram illustrating a hierarchical video encoding method according to an embodiment of the present invention.
  • FIG. 4 is a conceptual diagram illustrating a hierarchical video decoding method according to an embodiment of the present invention.
  • FIG. 5 is a conceptual diagram illustrating a hierarchical image decoding method using a base prediction mode according to an embodiment of the present invention.
  • FIG. 6 is a conceptual diagram illustrating a method of deriving an intra prediction mode in a color difference block of an enhancement layer according to an embodiment of the present invention.
  • FIG. 7 is a flowchart illustrating a method of decoding an intra prediction mode of a chrominance block according to an embodiment of the present invention.
  • FIG. 8 is a flowchart illustrating a method of determining a table for transmitting an intra prediction mode of a chrominance block in an enhancement layer according to an embodiment of the present invention.
  • FIG. 9 is a flowchart illustrating a method of transmitting intra prediction picture information of a chrominance block according to an embodiment of the present invention.
  • FIG. 10 is a conceptual diagram illustrating a method of calculating an intra prediction mode of a chrominance block according to an embodiment of the present invention.
  • FIG. 11 is a conceptual diagram illustrating a method of calculating an intra prediction mode of a chrominance block according to an embodiment of the present invention.
  • each of the components disclosed in the embodiments and the drawings of the present invention are disclosed in an independent configuration to represent different characteristic functions of the image encoding apparatus. This does not mean that each component is necessarily made up of separate hardware or one software component. In other words, each component is included in each component for convenience of description, and at least two of the components may be combined to form one component, or one component may be divided into a plurality of components to perform a function. The integrated and separated embodiments of the components are also included in the scope of the present invention, without departing from the spirit of the invention.
  • some of the components disclosed in the present invention may not be essential components for performing essential functions in the present invention but may be optional components for improving performance.
  • the present invention can be implemented including only the components essential for implementing the essentials of the present invention except for the components used for improving performance, and the structure including only the essential components except for the optional components used for improving performance. Also included within the scope of the present invention.
  • FIG. 1 is a block diagram illustrating an encoding apparatus according to an embodiment of the present invention.
  • the encoding apparatus includes a splitter 100, a predictor 110, an intra prediction unit 103, an inter prediction unit 106, a transform unit 115, a quantization unit 120, and a rearrangement.
  • the unit 125 may include an entropy encoding unit 130, an inverse quantization unit 135, an inverse transform unit 140, a filter unit 145, and a memory 150.
  • the encoding apparatus may be implemented by the image encoding method described in the following embodiments of the present invention, but operations in some components may not be performed to reduce the complexity of the encoder or for fast real time encoding.
  • some limited number of methods are used without selecting the optimal intra intra coding method using all intra prediction modes in order to perform encoding in real time.
  • a method of selecting one intra prediction mode among them as a final intra prediction mode using the intra prediction mode of the image may be used.
  • the unit of a block processed in the encoding apparatus may be a coding block for encoding, a prediction block for performing prediction, and a transform block for performing transformation.
  • a constant information unit including information used to encode or decode a coding block is a coding unit (CU)
  • a constant information unit including information used to perform prediction on a prediction block is a prediction unit (PU).
  • Prediction Unit Prediction Unit
  • a unit including information used to perform a transformation in a transform block may be expressed in terms of a transform unit (TU).
  • the current block used in the embodiment of the present invention may mean a block that is a target of prediction, transformation, or encoding.
  • the current block When performing prediction, the current block may be a block that is the target of the current prediction.
  • the current block When performing the transformation, the current block may be a transformation block that is the target of the current transformation.
  • the current block When encoding or decoding is performed, the current block may be an encoding block to be encoded or decoded. That is, the unit of the current block may vary according to the image processing performed.
  • the dividing unit 100 divides one picture into a combination of a plurality of coding blocks, a prediction block, and a transform block, and divides a picture of one of the coding blocks, the prediction block, and the transform block according to a predetermined criterion (for example, a cost function).
  • a picture may be divided by selecting a division combination.
  • a recursive tree structure such as a quadtree structure may be used.
  • the meaning of the coding block may be used not only as a block for encoding but also as a block for decoding.
  • the prediction block may be a block for performing intra prediction or inter prediction.
  • the block for performing intra prediction may have a square shape such as 2Nx2N or NxN, or a rectangular block shape using SDIP (Short Distance Intra Prediction).
  • Predictive block segmentation is performed by using 2NxN, Nx2N, or asymmetric symmetric motion partitioning (AMP).
  • AMP symmetric symmetric motion partitioning
  • the transform unit 115 may change a method of performing the transform.
  • the prediction unit 110 may include an intra prediction unit 103 that performs intra prediction and an inter prediction unit 106 which performs inter prediction.
  • the prediction unit 110 may determine whether to use inter prediction or intra prediction on the prediction block.
  • the processing unit in which the prediction is performed may differ from the processing unit in which the prediction method and the details are determined.
  • a prediction mode may be determined in units of prediction blocks, and the process of performing prediction may be performed based on transform blocks.
  • the residual value (residual block) between the generated predicted block (or predicted sample) and the original block (or original sample) may be input to the converter 115.
  • prediction mode information and motion vector information used for prediction may be encoded by the entropy encoder 130 along with the residual value and transmitted to the decoder.
  • the original block may be encoded as it is and transmitted to the decoder without performing prediction through the prediction unit 110.
  • PCM Pulse Coded Modulation
  • the intra prediction unit 103 may generate a predicted block based on reference pixels existing around the current block (prediction block).
  • prediction is performed using a plurality of intra prediction modes for the current block, and one of the intra prediction modes is used as an intra prediction mode for predicting the current block.
  • a prediction mode may have a directional prediction mode using reference pixel information according to a prediction direction, and a non-directional mode using no directional information when performing prediction.
  • the modes for predicting the luminance information and the intra prediction modes for predicting the color difference information may be different, and in order to predict the color difference information, the intra prediction mode information or the predicted luminance signal information for predicting the luminance information may be utilized. Can be.
  • Intra-prediction mode information of the current block may be encoded from intra-prediction mode information of neighboring blocks of the current block. That is, the intra prediction mode of the current block may be predicted from the intra prediction mode of the prediction block existing around the current block.
  • the flag information may be used to indicate that the prediction modes of the current block and the neighboring block are the same. If prediction modes of the current block and neighboring blocks are different, entropy encoding may be performed to encode intra prediction mode information of the current block.
  • the intra prediction mode of the current prediction block may be predicted by setting a preset intra prediction mode value as a candidate intra prediction mode value.
  • the intra prediction unit 103 may generate the predicted block or the predicted sample based on the reference pixel information around the current block which is the pixel information in the current picture.
  • a block or sample generated by referring to pixels around the current block may be expressed as a predicted block or a predicted sample.
  • the intra prediction block for the prediction block is based on the pixels on the left of the prediction block, the pixels on the upper left, and the pixels on the top. You can make predictions.
  • the intra prediction is performed by using the pixel on the left side, the pixel on the upper left side, and the pixel on the top side. Can be.
  • intra prediction using NxN division may be used only for the minimum coding block.
  • the intra prediction method may generate a predicted block (or may be represented as a predicted sample) after applying an adaptive intra smoothing (AIS) filter to a reference pixel according to a prediction mode.
  • AIS adaptive intra smoothing
  • the type of AIS filter applied to the reference pixel may be different.
  • additional filtering may be performed on the reference pixel and some pixels present in the predicted block. Filtering for the reference pixel and some pixels present in the predicted block may use filtering using different filtering coefficients depending on the direction of the intra prediction mode.
  • the inter prediction unit 106 may generate a prediction block (eg, a predicted block or a predicted sample) based on information of at least one picture of a previous picture or a subsequent picture of the current picture.
  • the inter prediction unit 106 may include a reference picture interpolator, a motion predictor, and a motion compensator.
  • the reference picture interpolator may receive reference picture information from the memory 150 and generate pixel information of an integer pixel or less in the reference picture.
  • a DCT based 8-tap interpolation filter having different filter coefficients may be used to generate pixel information of integer pixels or less in units of 1/4 pixels.
  • a DCT-based interpolation filter having different filter coefficients may be used to generate pixel information of an integer pixel or less in units of 1/8 pixels.
  • the inter prediction unit 106 may perform motion prediction based on the reference picture interpolated by the reference picture interpolation unit.
  • various methods such as a full search-based block matching algorithm (FBMA), a three step search (TSS), and a new three-step search algorithm (NTS) may be used.
  • the motion vector may have a motion vector value in units of 1/2 or 1/4 pixels based on the interpolated pixels.
  • the inter prediction unit 106 may predict the current prediction block by using a different motion prediction method.
  • various methods such as a skip method, a merge method, and an advanced motion vector prediction (AMVP) method may be used.
  • AMVP advanced motion vector prediction
  • different prediction operations may be performed depending on whether the prediction unit 110 is included in a base layer or an enhanced layer.
  • the prediction unit 110 When the prediction unit 110 is included in the base layer, it may operate in the same manner as in the above-described embodiment.
  • the prediction unit 110 when the prediction unit 110 is included in the enhancement layer, the prediction unit does not perform inter prediction or intra prediction according to the hierarchical image coding mode, or the image prediction related information generated by the prediction unit of the base layer ( For example, an intra prediction mode, motion prediction related information, etc.) may be received and prediction may be performed based on the corresponding information. Specific examples will be further described in detail.
  • the prediction block 110 may generate a residual block including residual information that is a difference between the predicted block or the predicted sample and the original block or the original sample.
  • the generated residual block may be input to the converter 115.
  • the transform unit 115 may transform the residual block using a transform method such as a discrete cosine transform (DCT) or a discrete sine transform (DST). Whether to apply DCT or DST to transform the residual block may be determined based on intra prediction mode information of the prediction block corresponding to the residual block and / or size information of the transform block. That is, the transform unit may use a transform method differently according to the size of the transform block.
  • DCT discrete cosine transform
  • DST discrete sine transform
  • the quantization unit 120 may quantize the values converted by the transformer 115 into the frequency domain.
  • the quantization coefficient may change depending on the block or the importance of the image.
  • the value calculated by the quantization unit 120 may be provided to the inverse quantization unit 135 and the reordering unit 125.
  • the reordering unit 125 may reorder coefficient values with respect to the quantized residual value.
  • the reordering unit 125 may convert the two-dimensional block shape coefficients into a one-dimensional vector form through a coefficient scanning method. You can change it.
  • the reordering unit 125 may scan from a DC coefficient to a coefficient of a high frequency region by using a Zig-Zag Scan method and change it into a one-dimensional vector.
  • a vertical scan method for scanning two-dimensional block shape coefficients in a column direction, not a zig-zag scan method, and a horizontal scan method for scanning two-dimensional block shape factors in a row direction Can be used. That is, according to the size of the transform block and the intra prediction mode, it is possible to determine which scan method among zigzag-scan, vertical scan and horizontal scan is used.
  • the entropy encoder 130 may perform entropy encoding based on the values calculated by the reordering unit 125. Entropy encoding may use various encoding methods such as, for example, Exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), and Context-Adaptive Binary Arithmetic Coding (CABAC).
  • Entropy encoding may use various encoding methods such as, for example, Exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), and Context-Adaptive Binary Arithmetic Coding (CABAC).
  • the entropy encoding unit 130 receives residual coefficient coefficient information, block type information, prediction mode information, partition block information, prediction block information, transform block information, and motion vector information of the coding block from the reordering unit 125 and the prediction unit 110. By receiving various information such as reference frame information, interpolation information of a block, and filtering information, entropy encoding may be performed based on a predetermined encoding method. In addition, the entropy encoder 130 may entropy encode information on a coding unit input from the reordering unit 125.
  • the inverse quantizer 135 and the inverse transformer 140 inverse quantize the quantized values in the quantizer 120 and inversely transform the transformed values in the transformer 115.
  • the residual value generated by the inverse quantizer 135 and the inverse transformer 140 is reconstructed by being combined with a block predicted by the motion estimator, the motion compensator, and the intra predictor included in the predictor 110. Block) can be created.
  • the filter unit 145 may include at least one of a deblocking filter, an offset correction unit, and an adaptive loop filter (ALF).
  • ALF adaptive loop filter
  • the deblocking filter may remove block distortion caused by boundaries between blocks in the reconstructed picture.
  • it may be determined whether to apply a deblocking filter to the current block based on the pixels included in several columns or rows included in the block.
  • a strong filter or a weak filter may be applied according to the required deblocking filtering strength.
  • horizontal filtering and vertical filtering may be performed in parallel when vertical filtering and horizontal filtering are performed.
  • the offset correction unit may correct the offset with respect to the original image on a pixel-by-pixel basis for the deblocking image.
  • the pixels included in the image are divided into a predetermined number of areas, and then, an area to be offset is determined, an offset is applied to the corresponding area, or offset considering the edge information of each pixel. You can use this method.
  • the adaptive loop filter may perform filtering based on a value obtained by comparing the filtered reconstructed image with the original image. After dividing the pixels included in the image into at least one group, one filter to be applied to the group may be determined and filtering may be performed for each group. For information on whether to apply the ALF, the luminance signal may be transmitted for each coding unit (CU), and the size and coefficient of the ALF to be applied may vary according to each block.
  • the ALF may have various forms, and the number of coefficients included in the filter may also vary.
  • Such filtering related information (filter coefficient information, ALF On / Off information, filter type information) of the ALF may be included in the parameter set in the form of a bitstream and transmitted.
  • the memory 150 may store the reconstructed block or picture calculated by the filter unit 145, and the stored reconstructed block or picture may be provided to the predictor 110 when performing inter prediction.
  • FIG. 2 is a block diagram illustrating a decoder according to another embodiment of the present invention.
  • the decoder includes an entropy decoder 210, a reordering unit 215, an inverse quantizer 220, an inverse transform unit 225, a predictor 230, a filter unit 235, and a memory 240. May be included.
  • the input bitstream may be decoded by a procedure opposite to that of the encoder.
  • the entropy decoder 210 may perform entropy decoding by a procedure opposite to that of the entropy encoder in the encoder.
  • Information for generating a predicted block (or predicted sample) among the information decoded by the entropy decoder 210 is provided to the predictor 230, and the residual value obtained by entropy decoding by the entropy decoder is the reordering unit 215. ) Can be entered.
  • the entropy decoder 210 may decode information related to intra prediction and inter prediction performed by the encoder. As described above, when there are constraints in performing intra-picture prediction and inter-screen prediction in the encoder, for example, when neighboring prediction modes are not available, entropy decoding based on these constraints is performed to perform a screen on the current block. Information related to intra prediction and inter screen prediction may be provided.
  • the reordering unit 215 may reorder the entropy decoded bitstream in the entropy decoding unit 210 based on a method of rearranging the bitstream. Coefficients expressed in the form of a one-dimensional vector may be reconstructed by reconstructing the coefficients in a two-dimensional block form.
  • the reordering unit may be realigned by receiving information related to coefficient scanning performed by the encoder and performing reverse scanning based on the scanning order performed by the encoder.
  • the inverse quantization unit 220 may perform inverse quantization based on the quantization parameter provided by the encoder and the coefficient values of the rearranged block.
  • the inverse transformer 225 may perform inverse DCT and inverse DST on the DCT and DST performed by the transformer with respect to the quantization result performed by the encoder.
  • the inverse transform may be performed based on the transform unit determined by the encoder.
  • the DCT and the DST may be selectively performed according to a plurality of pieces of information such as a prediction method, a size and a prediction direction of the current block, and the inverse transformer 225 of the decoder may perform transform information performed by the encoder of the encoder. Inverse transformation may be performed based on.
  • the predictor 230 predicts a block (or prediction) based on the predicted block (or predicted sample) generation related information provided by the entropy decoder 210 and previously decoded block or picture information provided by the memory 240. Samples) can be generated.
  • the pixels present on the left side of the prediction block, the pixels present on the upper left side, and present on the upper side are performed.
  • Intra-prediction of the prediction block is performed on the basis of the pixel, but when the prediction block is different from the size of the transform block when the intra-prediction is performed, the intra-prediction is performed using the reference pixel based on the transform block. Can be performed.
  • intra prediction using NxN division may be used only for a coding block having a minimum size.
  • the prediction unit 230 may include a prediction block determiner, an inter prediction unit, and an intra prediction unit.
  • the prediction block discriminator receives various information such as prediction block information input from the entropy decoder, prediction mode information of the intra prediction method, and motion prediction related information of the inter prediction method, and distinguishes the prediction block from the coding block. Whether to perform inter prediction or intra prediction can be determined.
  • the inter prediction unit may perform inter prediction on the current prediction block based on information included in at least one of a previous picture or a subsequent picture of the current picture including the current prediction block using information provided by the encoder.
  • Whether the motion prediction method of the prediction block included in the coding block is skip mode, merge mode, or AMVP mode to perform inter prediction. Can be determined.
  • the intra prediction unit may generate a predicted block (or may be expressed as a predicted sample) based on the pixel information in the current picture.
  • the intra prediction may be performed based on intra prediction mode information of the prediction block provided by the encoder.
  • the intra prediction unit may include an AIS filter, a reference pixel interpolator, and a DC filter.
  • the AIS filter is a part of filtering the reference pixel of the current block, and may determine and apply the filter according to the prediction mode of the current prediction block.
  • AIS filtering may be performed on reference pixels of the current block by using the prediction mode and the AIS filter information of the prediction block provided by the encoder. If the prediction mode of the current block is a mode that does not perform AIS filtering, the AIS filter may not be applied.
  • the encoder may similarly perform filtering along with the reference pixel after generating the prediction block.
  • the reference pixel interpolator may generate reference pixels having an integer value or less by interpolating the reference pixels. If the prediction mode of the current block is the prediction mode for generating the prediction block without interpolating the reference pixel, the reference pixel may not be interpolated.
  • the DC filter may generate a predicted block (or expressed as a predicted sample) through filtering when the prediction mode of the current block is the DC mode.
  • the prediction unit 110 may perform different prediction operations depending on whether the prediction unit 110 is included in the base layer or the enhanced layer.
  • the prediction unit 110 may operate in the same manner as in the above-described embodiment.
  • the prediction unit 110 does not perform inter prediction and intra prediction according to the hierarchical image decoding mode, or the image prediction related information generated by the prediction unit of the base layer ( For example, an intra prediction mode, motion prediction related information, etc.) may be received and prediction may be performed based on the corresponding information. Specific examples will be further described in detail.
  • the reconstructed block or picture may be provided to the filter unit 235.
  • the filter unit 235 may include a deblocking filter, an offset correction unit, and an ALF.
  • the deblocking filter of the decoder may receive the deblocking filter related information provided by the encoder and perform the deblocking filtering on the corresponding block in the decoder. As in the encoder, first, vertical deblocking filtering and horizontal deblocking filtering are performed, but in the overlapping portion, at least one of vertical deblocking and horizontal deblocking may be performed. Vertical deblocking filtering or horizontal deblocking filtering, which has not been previously performed, may be performed at a portion where vertical deblocking filtering and horizontal deblocking filtering overlap. Through this deblocking filtering process, parallel processing of deblocking filtering is possible.
  • the offset correction unit may perform offset correction on the reconstructed image based on the type of offset correction and offset value information applied to the image during encoding.
  • the ALF may perform filtering based on a value obtained by comparing the restored image with the original image after performing the filtering.
  • the ALF may be applied to the coding block based on the ALF application information, the ALF coefficient information, and the like provided from the encoder. Such ALF information may be provided included in a specific parameter set.
  • the memory 240 may store the reconstructed picture or block to use as a reference picture or reference block, and may provide the reconstructed picture to the output unit.
  • the hierarchical video coding method is a method of predicting image information of an enhancement layer based on image information in a base layer.
  • this hierarchical video coding method will be described.
  • FIG. 3 is a conceptual diagram illustrating a hierarchical video encoding method according to an embodiment of the present invention.
  • an image may be encoded through a base layer 300 and an enhancement layer 350.
  • the image prediction information generated in the base layer 300 according to the hierarchical image encoding method may be used to perform the image encoding of the enhancement layer 350.
  • the image prediction information may be information generated by upsampling pixels of the base layer, intra prediction mode information used to predict a block in the base layer, and motion prediction related information.
  • the base layer 300 includes a mode determiner 305, a predictor 310, a transform and quantizer 325, an inverse transform and inverse quantizer 330, an entropy encoder 335, a reconstructor 315, and a filter. It may include a part 320. Operation for each part is similar to that described in FIG. 1, and the mode determiner 305 is a component that determines whether to use an intra prediction method or an inter prediction method as an image encoding method.
  • pixel information of blocks generated in the base layer may be upsampled and used in the enhancement layer.
  • the pixel information of the block of the base layer 300 is upsampled by the upsampling unit 340, and then inputs to the enhancement layer 350 after passing through additional inter-layer filtering units 345 and 347. Can be. Interpolation may be performed to perform upsampling.
  • intra prediction mode information or motion prediction related information used for block prediction in the base layer may be transmitted to the enhancement layer, and such prediction related information may be used in the enhancement layer.
  • the inter-layer video encoding method may use various methods, and the method of receiving image prediction information from the base layer and performing prediction in the enhancement layer may be referred to as inter layer prediction.
  • the enhancement layer may perform the image prediction and encoding process using only the information of the enhancement layer without receiving the image prediction information from the base layer.
  • the enhancement layer 350 is also the same as the base layer 300 by the mode determiner 355, the predictor 360, the transform and quantizer 375, the inverse transform and inverse quantizer 380, and the entropy encoder 385.
  • the restoring unit 365 may include a filter unit 370.
  • the operation of each component may have the same configuration as described in FIG. 1.
  • the mode determiner 355 of the enhancement layer 350 may include one of various image encoding methods, such as an image prediction method using image information in the enhancement layer 350 or an inter layer prediction method using image information of a base layer. It can be used as a component for selecting the prediction method of.
  • the mode determiner 355 of the enhancement layer may select an image prediction method to be performed by the image encoder.
  • the information, base layer information, and enhancement layer information generated by the upsampling and inter-layer filtering units 340, 345, and 347 are multiplexed to generate a scalable bitstream, which is then converted into an image decoder. Can be sent.
  • an embodiment of the present invention discloses a method of encoding a prediction mode in a color difference block screen of an enhancement layer based on prediction modes in a color difference block screen of a base layer and prediction mode information in a luminance block screen of an enhancement layer.
  • the prediction unit 360 of the enhancement layer determines whether the prediction mode in the color difference block screen of the base layer is the same as the prediction mode information in the luminance block screen of the enhancement layer, and the entropy encoder 385 determines the color difference of the enhancement layer. It may be determined whether to encode the prediction mode in the block picture.
  • FIG. 4 is a conceptual diagram illustrating a hierarchical video decoding method according to an embodiment of the present invention.
  • image information may be transmitted through a scalable bitstream generated from an image encoder.
  • the hierarchical bitstream is demultiplexed 405 to be input to the entropy decoder 410 of the base layer 400, the entropy decoder 455 of the enhancement layer 450, and the filter coefficient entropy decoder 485. Can be.
  • information input to the entropy decoder 410 of the base layer 400 may be input to the inverse quantizer, the inverse transformer 415, and the mode determiner 420. .
  • the mode determiner 420 may determine whether to perform inter prediction or intra prediction.
  • the prediction unit 425 may perform prediction based on the prediction mode information output from the mode determiner 420.
  • the inverse quantizer and the inverse transformer 415 may generate residual information by inversely transforming and inverse quantizing the residual information generated by the entropy decoder 410. That is, image decoding may be performed in the same manner as the image decoding step of FIG. 2.
  • the information generated after the image decoding process is completed in the base layer 400 may be upsampled if the enhancement layer 450 performs decoding using information that upsamples the pixels included in the block of the base layer 400. It may be sent to the unit 440. The upsampled information may be transmitted to the enhancement layer 450 through inter-layer filtering 445 and 447.
  • the mode determining unit 465 of the enhancement layer 450 may use any image encoding method or image prediction method in the image encoding step. It may be determined whether encoding is performed using.
  • the mode determiner 465 of the enhancement layer 450 may perform image decoding by using the same prediction method as the image prediction method used when encoding is performed in the enhancement layer of the image encoder.
  • a method of performing image prediction with reference to information of the base layer 400 may be large, or a method of performing image prediction without using information of the base layer 400.
  • the enhancement layer 450 does not receive image related information from the base layer 400.
  • the base prediction mode in the hierarchical image decoding method may refer to a mode using image prediction information used to predict a block of a base layer to predict a block of an enhancement layer.
  • the image prediction information may be, for example, an intra prediction mode or motion prediction related information used in a block of the base layer.
  • an embodiment of the present invention discloses a method of deriving a prediction mode in a chrominance block screen of an enhancement layer based on prediction modes in a chrominance block screen of a base layer and prediction mode information in a luminance block screen of an enhancement layer.
  • the enhancement layer predictor 465 uses the color difference of the enhancement layer. The value of the prediction mode in the block screen may be determined. Specific embodiments will be further described in detail.
  • 5 further describes a hierarchical image decoding method using a base prediction mode.
  • FIG. 5 is a conceptual diagram illustrating a hierarchical image decoding method using a base prediction mode according to an embodiment of the present invention.
  • FIG. 5 illustrates a method of performing prediction on a block unit of an enhancement layer by using image prediction related information of corresponding block information of a base layer with respect to a block unit of an enhancement layer.
  • intra screen prediction or inter screen prediction when intra screen prediction or inter screen prediction is performed in the block unit 500 of the base layer, information used for intra screen prediction (eg, intra screen prediction mode) or inter screen prediction is used.
  • Information eg, motion prediction related information
  • the block 540 corresponding to the block unit 500 of the base layer in the enhancement layer corresponds to the vector ( Inter-prediction may be performed using a vector (x ', y') scaled to x, y) to the enhancement layer.
  • the correspondence between the image unit of the base layer and the image unit of the enhancement layer may mean that the relative positions of the image units are the same in the picture of each layer, or that the image unit is referred to between layers when performing inter-layer prediction. May have
  • a block unit is illustrated in FIG. 5 to describe the base prediction mode, it may be determined whether to use the base prediction mode on a slice or picture basis which is another image unit. For example, if the base prediction mode is performed on a slice basis, prediction related information (for example, intra prediction mode information and motion prediction related information) from the corresponding prediction block of the base layer for all prediction blocks included in the slice. Can be derived to perform the prediction.
  • prediction related information for example, intra prediction mode information and motion prediction related information
  • the reconstruction block 540 may be generated in the enhancement layer by adding the predicted block based on the residual information (or residual signal) 520 transmitted from the image encoder and the prediction related information transmitted from the base layer.
  • the intra prediction mode information may be transmitted separately for the luminance sample and the chrominance sample.
  • the prediction related information of the base layer block for example, intra_luma_pred_mode, intra_chroma_pred_mode) And the like
  • intra_luma_pred_mode for example, intra_luma_pred_mode, intra_chroma_pred_mode
  • Reference pixel or reference sample information may be obtained from reconstructed pixels around the enhancement layer, or may be obtained from the reconstructed pixels around the base layer.
  • the image prediction information of the base layer may be used to directly predict the corresponding block of the enhancement layer.
  • the image prediction information of the base layer may be used to calculate the MPM for the block of the enhancement layer.
  • the intra prediction is performed in the block 540 of the enhancement layer. It can also be used as information for calculating the most probable mode (MPM) used in the execution.
  • the MPM is a candidate value of the intra prediction mode of the current block.
  • the MPM will be further described with reference to FIG. 6.
  • FIG. 6 is a conceptual diagram illustrating an intra prediction mode.
  • the intra prediction mode for performing the intra prediction on the block includes a directional prediction mode having various directions as shown in FIG. 6A (the intra prediction screen 600 in the second screen 600 to the intra prediction screen 610 in 34). ) And a non-directional prediction mode (prediction mode (planar 620 in screen 0, 620), intra prediction mode (DC, 630) in screen 1).
  • Directional prediction mode is an intra prediction mode that performs prediction with constant directionality based on reference pixel information when performing intra prediction, and non-directional prediction mode performs intra prediction without direction based on reference pixel information.
  • My prediction mode is
  • FIG. 6B is a conceptual diagram illustrating a relationship between a prediction mode in a luminance block screen and a prediction mode in a chrominance block screen.
  • one image area should include information about the luminance sample Y, which is information about the brightness of the image, and information about the color difference samples Cb and Cr, which are information about the color difference of the image.
  • Luminance samples and chrominance samples may be generated in various formats. For example, the ratio of Y sample: Cb sample: Cr sample may be generated with various ratios such as 4: 4: 4, 4: 2: 2, 4: 2: 0.
  • the base layer block may include a base layer luma block 640 and a base layer chroma block 650.
  • the chrominance block and the luminance block are separated and described, but pixels (samples) included in the chrominance block and the luminance block may be included in the same image region to express image information of a specific region.
  • An enhancement layer luma block 670 and an enhancement layer chroma block 690 may exist in an enhancement layer block corresponding to a block of the base layer.
  • the intra prediction mode derivation method of the chrominance block of the enhancement layer determines whether the intra prediction mode 660 of the chrominance block screen of the base layer is the same as the prediction mode 680 of the luminance block of the enhancement layer. In comparison, it may be determined whether to signal a prediction mode 695 in the chrominance block picture of the enhancement layer.
  • the prediction mode 660 in the color difference block screen of the base layer and the prediction mode 680 in the luminance block screen of the enhancement layer may be the same.
  • the prediction mode 695 in the chrominance block picture of the enhancement layer is encoded and not signaled.
  • Intra-prediction of the color difference block 690 of the enhancement layer may be performed by inducing the same value as the prediction mode 660 of the color difference block screen of the base layer to the prediction mode 695 of the color difference block screen of the enhancement layer.
  • the prediction mode 660 in the color difference block screen of the base layer and the prediction mode 680 in the luminance block screen of the enhancement layer are not the same.
  • the prediction mode 695 in the color difference block screen of the enhancement layer may be encoded and transmitted.
  • the intra prediction of the chrominance block may be performed according to the intra prediction mode of the luminance block of the enhancement layer using a table as shown in Table 1 below. .
  • intra_chroma_pred_mode 4
  • the encoder may use the same value as the intra prediction mode value of the chrominance block in the decoding step.
  • different intra prediction modes may be mapped to the same color difference block prediction mode numbers in the same color difference block screen according to the prediction mode in the luminance block screen as described above.
  • the intra prediction mode according to the intra prediction mode number of the chrominance block may be mapped as follows.
  • the intra prediction mode (intra_chroma_pred_mode) of the color difference block is 0, the intra prediction mode of the 34th screen (diagonal mode)
  • intra prediction mode intra_chroma_pred_mode
  • intra prediction mode horizontal mode
  • Intra prediction mode 1 when the intra prediction mode (intra_chroma_pred_mode) of the color difference block is 3 times.
  • intra prediction mode (intra_chroma_pred_mode) of the chrominance block is 4, the intra prediction mode (planar mode) may be mapped.
  • FIG. 7 is a flowchart illustrating a method of decoding an intra prediction mode of a chrominance block according to an embodiment of the present invention.
  • step S700 it is determined whether the prediction mode in the chrominance block screen of the base layer is the same as the prediction mode in the luminance block screen of the enhancement layer.
  • the prediction mode signaling method in the color difference block screen of the enhancement layer compares whether the prediction mode in the color difference block screen of the base layer is the same as the prediction mode in the luminance block picture of the enhancement layer in the encoding step. Whether to transmit information about the prediction mode in the chrominance block screen can be determined as follows.
  • the prediction mode in the chrominance block screen of the base layer is the same as the prediction mode in the luminance block screen of the enhancement layer
  • the prediction mode in the chrominance block screen of the enhancement layer is changed into the prediction mode in the chrominance block screen of the enhancement layer or the luminance block of the enhancement layer. Intra prediction is performed using the same value as the intra prediction mode.
  • the prediction mode in the color difference block screen of the enhancement layer may be transmitted without encoding.
  • the prediction mode in the chrominance block screen of the base layer is not the same as the prediction mode in the luminance block screen of the enhancement layer
  • the prediction mode in the chrominance block screen of the enhancement layer may be encoded and transmitted.
  • the prediction mode in the chrominance block screen of the base layer is the same as the prediction mode in the luminance block screen of the enhancement layer
  • the prediction mode in the chrominance block screen of the base layer without signaling the prediction mode in the chrominance block screen of the enhancement layer. It may be determined that intra prediction for the color difference block of the enhancement layer is performed using the same intra prediction mode as follows.
  • the prediction mode information in the luminance block screen of the enhancement layer or the prediction mode information in the color difference block screen of the base layer is used as the prediction mode information in the color difference block screen of the enhancement layer (step S710).
  • the prediction mode in the color difference block screen of the base layer is the same as the prediction mode in the luminance block screen of the enhancement layer
  • the prediction mode value in the color difference block screen of the enhancement layer is made using the same value as the prediction mode in the color difference block screen of the base layer. You can judge that you lost. Therefore, an intra prediction on the color difference block of the enhancement layer may be performed by deriving an intra prediction mode of the color difference block of the base layer.
  • the prediction mode information in the color difference block picture of the enhancement layer is decoded (step S720).
  • the intra prediction of the chrominance block is decoded by decoding the information. Generate mode information.
  • the mapping table between the intra prediction mode of the luminance block of the enhancement layer and the intra prediction mode number of the color difference block of the enhancement layer may be changed.
  • Table 2 shows a table for transmitting the intra prediction mode of the color difference block of the changed enhancement layer.
  • an eM extract mode is defined at the position where the prediction mode in screen 34 was in the existing table to determine whether the prediction mode in the chrominance block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are the same.
  • the value of eM may change depending on whether the prediction mode is included in the color difference block screen of the base layer.
  • the eM is set to the intra prediction picture mode 34.
  • the intra prediction mode may be transmitted using the intra prediction mode 34 without changing the intra prediction mode transmitted at the location of the eM.
  • the prediction mode in the chrominance block screen of the base layer is not the same as the prediction mode in the luminance block screen of the enhancement layer, but the prediction mode in the chrominance block screen of the base layer is planar mode (No. 0), DC mode (No. 1). ), In the case of the intra prediction mode of one of the vertical mode (No. 26) and the horizontal mode (No. 10), the eM is set to the intra prediction mode of No. 34. Since the prediction mode in the chrominance block screen of the enhancement layer can be derived even using the existing table, the intra prediction screen 34 can be used at the eM position.
  • Table 2 becomes the same table as Table 1 mentioned above.
  • the prediction mode in the chrominance block screen of the base layer is not the same as the prediction mode in the luminance block screen of the enhancement layer, but the prediction mode in the chrominance block screen of the base layer is planar mode (No. 0), DC mode (No. 1). ), The vertical mode (No. 26) or the horizontal mode (No. 10), the eM is set to the prediction mode in the color difference block picture of the base layer.
  • eM may be replaced with the prediction mode in the color difference block image of the base layer.
  • Table 3 below shows a case where the intra prediction mode of the position of the eM is replaced with the intra prediction mode of the color difference block of the base layer.
  • BL_C means the prediction mode in the color difference block picture of the base layer. Therefore, when a specific condition is satisfied, encoding and decoding on the prediction mode in the chrominance block picture of the enhancement layer may be performed based on Table 3.
  • FIG. 8 is a flowchart illustrating a method of determining a table for transmitting an intra prediction mode of a chrominance block in an enhancement layer according to an embodiment of the present invention.
  • step S800 it is determined whether the prediction mode in the color difference block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are the same (step S800).
  • eM of the intra prediction mode table of the color difference block of the enhancement layer is set to 34 (step S810).
  • the prediction mode in the chrominance block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are not the same, the prediction mode in the chrominance block screen of the base layer is one of planar mode, DC mode, vertical mode, or horizontal mode. It is determined whether the prediction mode is in the screen (step S820).
  • step S820 when the prediction mode in the chrominance block screen of the base layer is the prediction mode in one of the planar mode, the DC mode, the vertical mode, and the horizontal mode, the eM of the prediction mode table in the chrominance block screen of the enhancement layer. Is set to 34 (step S830).
  • step S820 when the prediction mode in the color difference block screen of the base layer is not planer mode, DC mode, vertical mode, or horizontal mode, eM of the prediction mode table in the color difference block screen of the enhancement layer is determined by the color difference block of the base layer.
  • the mode is set to the intra prediction mode (step S840).
  • FIG. 9 is a flowchart illustrating a method of transmitting intra prediction picture information of a color difference block of an enhancement layer according to an embodiment of the present invention.
  • FIG. 9 illustrates a method of transmitting prediction mode information in a color difference block screen of an enhancement layer by using a flag indicating that the prediction mode in the color difference block screen of the base layer and the prediction mode in the color difference block screen of the enhancement layer are the same.
  • a flag indicating that the prediction mode in the color difference block screen of the base layer is the same as the prediction mode in the color difference block screen of the enhancement layer may be defined as a base layer chroma mode flag. If the base layer chrominance mode flag is 1, it indicates that intra prediction is performed with the same intra prediction mode value as the intra prediction mode within the chrominance block screen of the base layer and the intra prediction mode within the chrominance block screen of the enhancement layer. If 0 is 0, it may indicate that intra prediction is performed with an intra prediction mode value in which the prediction mode in the color difference block screen of the base layer and the prediction mode in the color difference block screen of the enhancement layer are not the same.
  • step S900 it is determined whether the prediction mode in the color difference block screen of the base layer and the prediction mode in the color difference block screen of the enhancement layer are the same (step S900).
  • Step S900 may be performed by determining the value of the base layer color difference mode flag.
  • the chrominance block of the enhancement layer is derived by inducing the prediction mode in the chrominance block screen of the base layer. Use in intra prediction mode (step S910).
  • the prediction mode value in the chrominance block screen of the base layer and the luminance of the enhancement layer may be calculated based on the intra prediction mode value (step S920).
  • the candidate intra prediction mode of the chrominance block is a candidate of the intra prediction mode that the chrominance block may have.
  • the intra prediction mode of the chrominance block may refer to the intra prediction mode allocated to the intra prediction mode number of the chrominance block. 10 further describes step S920.
  • FIG. 10 is a conceptual diagram illustrating a method of calculating an intra prediction mode of a chrominance block according to an embodiment of the present invention.
  • the prediction mode 1000 in the color difference block screen of the base layer and the prediction mode 1040 in the color difference block screen of the enhancement layer are not the same (when the base layer color difference mode flag is 0) and in the color difference block screen of the base layer.
  • the case where the prediction mode 1000 and the prediction mode 1020 in the luminance block screen of the enhancement layer are the same is illustrated.
  • the prediction mode 1040 in the color difference block screen of the enhancement layer does not have the same value as the prediction mode 1020 in the luminance block picture of the enhancement layer and the prediction mode 1000 in the color difference block screen of the base layer. Accordingly, the candidate intra prediction modes candModeC [0], candModeC [1], candModeC [2], and candModeC [3] for the prediction mode 1040 of the chrominance block picture of the enhancement layer are calculated as follows.
  • the intra prediction mode of the color difference block of the base layer is the planar mode
  • the DC color mode, the vertical mode, the horizontal mode, and the diagonal mode except the planar mode among the five candidates above are the first color difference block, respectively. It may be a candidate intra prediction mode candModeC [0] to a fourth chrominance block candidate intra prediction mode candModeC [3].
  • the intra prediction mode of the color difference block of the base layer is the intra prediction mode of 20
  • the horizontal modes may be prediction modes in the first color difference block candidate screen to prediction modes in the fourth color difference block candidate screen, respectively.
  • FIG. 11 is a conceptual diagram illustrating a method of calculating an intra prediction mode of a chrominance block according to an embodiment of the present invention.
  • FIG. 11 illustrates that the prediction mode 1100 in the color difference block screen of the base layer and the prediction mode 1140 in the color difference block screen of the enhancement layer are not the same (when the base layer color difference mode flag is 0), and the color difference block screen of the base layer is shown.
  • the prediction mode 1100 and the prediction mode 1120 of the luminance block screen of the enhancement layer are not the same. In this case, there is a possibility that the prediction mode 1120 in the luminance block screen of the enhancement layer and the prediction mode 1140 in the color difference block screen of the enhancement layer are the same.
  • the prediction mode in the candidate picture of the color difference block of the enhancement layer may be a DM mode, a planer mode, It is calculated with the order of priority in DC mode, vertical mode and horizontal mode.
  • the DM mode, planer mode, DC mode, vertical mode, and horizontal mode may be used as prediction modes in the candidate screen of the color difference block.
  • the intra prediction mode of the color difference block of the base layer is mode 20
  • DM mode, planer mode, DC mode, and vertical mode except the horizontal mode having the lowest priority level among the five candidates are It may be used as a prediction mode within a candidate screen of a chrominance block.
  • the four intra prediction modes may be used as the prediction mode within the color difference block candidate screen except for the intra prediction mode corresponding to the prediction mode within the color difference block screen of the base layer among the intra prediction modes.
  • the first color difference block when the intra prediction mode of the color difference block of the base layer is the planar mode, the first color difference block includes DM mode, DC mode, vertical mode, and horizontal mode except for the planar mode among the five candidates, respectively. It may be a prediction mode within the candidate screen to a prediction mode within the fourth color difference block candidate screen.
  • the prediction modes candModeC [0], candModeC [1], candModeC [2], and candModeC [3] of the candidate screens of the color difference blocks calculated in FIGS. 10 and 11 may be expressed as shown in Table 4 below.
  • candModeC [0] is assigned to screen prediction mode number 0 of the chrominance block
  • candModeC [1] is assigned to screen prediction mode number 1 of the chrominance block
  • candModeC is assigned to screen prediction mode number 2 of the chrominance block.
  • [2] may be assigned
  • candModeC [3] may be assigned to picture prediction mode number 3 of the chrominance block
  • prediction mode within the color difference block picture of the base layer may be assigned to picture prediction mode number 4 of the color difference block.
  • the prediction mode number in the chrominance block screen reflecting the intra prediction mode of the other block corresponding to the current chrominance block (the prediction mode in the luminance block screen of the enhancement layer and the prediction mode in the chrominance block screen of the base layer) and The mapping relationship between the intra prediction modes may be calculated.
  • encoding and decoding efficiency can be improved by mapping a code word having the shortest length to a prediction mode in a color difference block picture of a base layer.

Abstract

Disclosed are a method for decoding an intra-screen prediction mode of a chroma block in scalable video coding, and an apparatus using such a method. An intra-screen prediction decoding method of a chroma block comprises the steps of: decoding a chroma block intra-screen prediction mode of a base layer and a luma block intra-screen prediction mode of an enhanced layer; and inducing a chroma block intra-screen prediction mode of the enhanced layer on the basis of the chroma block intra-screen prediction mode of the base layer and the luma block intra-screen prediction mode of the enhanced layer. Thus, the video encoding and decoding efficiency can be raised by encoding and decoding the intra-screen prediction mode of the chroma block of the enhanced layer.

Description

계층적 비디오 코딩에서 색차 블록의 화면 내 예측 모드를 복호화하는 방법 및 이러한 방법을 사용하는 장치Method for decoding intra picture prediction mode of chrominance block in hierarchical video coding and apparatus using such method
본 발명은 계층적 비디오 코딩 방법 및 장치에 관한 것으로 더욱 상세하게는 계층적 비디오 코딩을 수행 시 화면 내 예측 모드를 유도하는 방법에 관한 것이다.The present invention relates to a method and apparatus for hierarchical video coding, and more particularly, to a method of deriving an intra prediction mode when performing hierarchical video coding.
최근 HD(High Definition) 영상 및 UHD(Ultra High Definition) 영상과 같은 고해상도, 고품질의 영상에 대한 수요가 다양한 응용 분야에서 증가하고 있다. 영상 데이터가 고해상도, 고품질이 될수록 기존의 영상 데이터에 비해 상대적으로 데이터량이 증가하기 때문에 기존의 유무선 광대역 회선과 같은 매체를 이용하여 영상 데이터를 전송하거나 기존의 저장 매체를 이용해 저장하는 경우, 전송 비용과 저장 비용이 증가하게 된다. 영상 데이터가 고해상도, 고품질화 됨에 따라 발생하는 이러한 문제들을 해결하기 위해서는 고효율의 영상 압축 기술들이 활용될 수 있다.Recently, the demand for high resolution and high quality images such as high definition (HD) and ultra high definition (UHD) images is increasing in various applications. As the video data becomes higher resolution and higher quality, the amount of data increases relative to the existing video data. Therefore, when the video data is transmitted or stored using a medium such as a conventional wired / wireless broadband line, The storage cost will increase. High efficiency image compression techniques can be used to solve these problems caused by high resolution and high quality image data.
영상 압축 기술로 현재 픽쳐의 이전 또는 이후 픽쳐로부터 현재 픽쳐에 포함된 화소값을 예측하는 화면 간 예측 기술, 현재 픽쳐 내의 화소 정보를 이용하여 현재 픽쳐에 포함된 화소값을 예측하는 화면 내 예측 기술, 출현 빈도가 높은 값에 짧은 부호를 할당하고 출현 빈도가 낮은 값에 긴 부호를 할당하는 엔트로피 부호화 기술 등 다양한 기술이 존재하고 이러한 영상 압축 기술을 이용해 영상 데이터를 효과적으로 압축하여 전송 또는 저장할 수 있다.An inter-screen prediction technique for predicting pixel values included in the current picture from a picture before or after the current picture using an image compression technique, an intra prediction technique for predicting pixel values included in a current picture using pixel information in the current picture, Various techniques exist, such as an entropy encoding technique for allocating a short code to a high frequency of appearance and a long code to a low frequency of appearance, and the image data can be effectively compressed and transmitted or stored.
본 발명의 제1 목적은 계층적 비디오 코딩에서 색차 블록의 화면 내 예측 모드를 복호화하는 방법을 제공하는 것이다. It is a first object of the present invention to provide a method of decoding an intra prediction mode of a chrominance block in hierarchical video coding.
또한, 본 발명의 제2 목적은 비디오 코딩에서 색차 블록의 화면 내 예측 모드를 복호화하는 방법을 수행하는 장치를 제공하는 것이다.A second object of the present invention is to provide an apparatus for performing a method of decoding an intra prediction mode of a chrominance block in video coding.
상술한 본 발명의 제1 목적을 달성하기 위한 본 발명의 일 측면에 따른 색차 블록 화면 내 예측 모드의 복호화 방법은 기본 계층의 색차 블록 화면 내 예측 모드와 향상 계층의 휘도 블록 화면 내 예측 모드를 복호화하는 단계와 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드를 기초로 상기 향상 계층의 색차 블록 화면 내 예측 모드를 유도하는 단계를 포함할 수 있다. 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드를 기초로 상기 향상 계층의 색차 블록 화면 내 예측 모드를 유도하는 단계는 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일한지 여부를 판단하는 단계와 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일한 경우, 상기 기본 계층의 색차 블록 화면 내 예측 모드를 상기 향상 계층의 색차 블록의 화면 내 예측 모드로 설정하는 단계를 포함할 수 있다. 색차 블록 화면 내 예측 모드의 복호화 방법은 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일하지 않은 경우, 색차 블록의 화면 내 예측 모드 테이블을 기초로 상기 향상 계층의 색차 블록 화면 내 예측 모드를 복호화하는 단계를 더 포함할 수 있다. 상기 색차 블록의 화면 내 예측 모드 테이블은, 색차 블록의 화면 내 예측 모드 번호와 색차 블록의 화면 내 예측 모드가 매핑된 테이블로서, 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일한 경우, 상기 색차 블록의 화면 내 예측 모드 테이블의 여분 모드(extra mode, eM)를 34번 화면 내 예측 모드로 설정하고, 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일하지 않고 상기 기본 계층의 색차 블록 화면 내 예측 모드가 플레이너 모드, DC 모드, 수직 모드 또는 수평 모드인 경우, 상기 색차 블록의 화면 내 예측 모드 테이블의 상기 여분 모드(extra mode, eM)를 상기 34번 화면 내 예측 모드로 설정하고, 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일하지 않고 상기 기본 계층의 색차 블록의 화면 내 예측 모드가 플레이너 모드, DC 모드, 수직 모드 또는 수평 모드가 아닌 경우, 상기 색차 블록의 화면 내 예측 모드 테이블의 상기 여분 모드(extra mode, eM)를 기본 계층의 색차 블록 화면 내 예측 모드로 설정하여 생성될 수 있다. 색차 블록 화면 내 예측 모드의 복호화 방법은 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 색차 블록 화면 내 예측 모드가 동일한지 여부를 판단하는 단계를 더 포함할 수 있다. 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드를 기초로 상기 향상 계층의 색차 블록의 화면 내 예측 모드를 유도하는 단계는 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 색차 블록 화면 내 예측 모드가 동일하지 않은 경우, 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일한지 여부를 판단하는 단계와 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 색차 블록 화면 내 예측 모드가 동일하지 않고 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일한 경우, 상기 향상 계층의 휘도 블록 화면 내 예측 모드를 제외하고 상기 향상 계층의 색차 블록의 후보 화면 내 예측 모드를 산출하는 단계를 포함할 수 있다. 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드를 기초로 상기 향상 계층의 색차 블록의 화면 내 예측 모드를 유도하는 단계는 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 색차 블록 화면 내 예측 모드가 동일하지 않고 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일하지 않은 경우, 상기 기본 계층의 색차 블록 화면 내 예측 모드를 제외하고 상기 향상 계층의 색차 블록의 후보 화면 내 예측 모드를 산출하는 단계를 더 포함할 수 있다. According to an aspect of the present invention, a method of decoding a prediction mode in a chrominance block picture according to an aspect of the present invention includes decoding a prediction mode in a chrominance block picture of a base layer and a prediction mode in a luminance block picture of an enhancement layer. And deriving the prediction mode in the color difference block screen of the enhancement layer based on the prediction mode in the color difference block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer. Deriving the prediction mode in the chrominance block screen of the enhancement layer based on the prediction mode in the chrominance block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer includes: Determining whether the prediction mode in the luminance block screen of the enhancement layer is the same; and when the prediction mode in the chrominance block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are the same, the color difference block of the base layer. And setting the intra prediction mode to the intra prediction mode of the color difference block of the enhancement layer. The decoding method of the intra prediction mode of the chrominance block screen is based on the intra prediction mode table of the chrominance block when the prediction mode in the chrominance block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are not the same. The method may further include decoding a prediction mode in the color difference block screen of the layer. The intra prediction mode table of the chrominance block is a table in which the intra prediction mode number of the chrominance block and the intra prediction mode of the chrominance block are mapped, and the intra prediction mode of the chrominance block of the base layer and the luminance block of the enhancement layer are mapped. If the intra prediction mode is the same, an extra mode (eM) of the intra prediction mode table of the chrominance block is set to the intra prediction mode of No. 34, and the intra prediction mode and the enhancement of the chrominance block of the base layer are improved. The redundancy of the intra prediction picture table of the color difference block when the prediction mode in the luminance block picture of the layer is not the same and the prediction mode in the color difference block picture of the base layer is a planer mode, a DC mode, a vertical mode, or a horizontal mode. A mode (extra mode, eM) is set as the prediction mode in the 34th screen, and the prediction mode in the chrominance block screen of the base layer. Intra prediction mode of the color difference block when the intra prediction mode of the luminance block picture of the enhancement layer is not the same and the intra prediction mode of the color difference block of the base layer is not the planer mode, the DC mode, the vertical mode, or the horizontal mode. The extra mode (eM) of the table may be generated by setting the prediction mode in the color difference block screen of the base layer. The decoding method of the prediction mode in the color difference block screen may further include determining whether the prediction mode in the color difference block screen of the base layer and the prediction mode in the color difference block screen of the enhancement layer are the same. Deriving the intra prediction mode of the chrominance block screen of the enhancement layer based on the prediction mode within the chrominance block screen of the base layer and the prediction mode within the luminance block screen of the enhancement layer may include: And when the prediction mode in the color difference block screen of the enhancement layer is not the same, determining whether the prediction mode in the color difference block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are the same and the base layer. The enhancement layer when the prediction mode in the chrominance block picture of and the prediction mode in the chrominance block picture of the enhancement layer are not the same and the prediction mode in the chrominance block picture of the base layer and the prediction mode in the luminance block picture of the enhancement layer are the same. Candidate of the color difference block of the enhancement layer except for the intra prediction mode of the luminance block of the Calculating an intra prediction mode. Deriving the intra prediction mode of the chrominance block screen of the enhancement layer based on the prediction mode within the chrominance block screen of the base layer and the prediction mode within the luminance block screen of the enhancement layer may include: And when the prediction mode in the chrominance block screen of the enhancement layer is not the same and the prediction mode in the chrominance block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are not the same, The method may further include calculating a prediction mode in a candidate screen of the color difference block of the enhancement layer except for the prediction mode.
상술한 본 발명의 제2 목적을 달성하기 위한 본 발명의 일 측면에 따른 영상 복호화 장치는 기본 계층의 색차 블록 화면 내 예측 모드와 향상 계층의 휘도 블록 화면 내 예측 모드를 복호화하는 엔트로피 복호화부와 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드를 기초로 상기 향상 계층의 색차 블록 화면 내 예측 모드를 유도하는 예측부를 포함할 수 있다. 상기 예측부는 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일한 경우, 상기 기본 계층의 색차 블록 화면 내 예측 모드를 상기 향상 계층의 색차 블록의 화면 내 예측 모드로 설정하도록 구현될 수 있다. 상기 예측부는 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일하지 않은 경우, 색차 블록의 화면 내 예측 모드 테이블을 기초로 상기 향상 계층의 색차 블록 화면 내 예측 모드를 유도하도록 구현될 수 있다. 상기 색차 블록의 화면 내 예측 모드 테이블은 색차 블록의 화면 내 예측 모드 번호와 색차 블록의 화면 내 예측 모드가 매핑된 테이블로서 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일한 경우, 상기 색차 블록의 화면 내 예측 모드 테이블의 여분 모드(extra mode, eM)를 34번 화면 내 예측 모드로 설정하고 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일하지 않고 상기 기본 계층의 색차 블록 화면 내 예측 모드가 플레이너 모드, DC 모드, 수직 모드 또는 수평 모드인 경우, 상기 색차 블록의 화면 내 예측 모드 테이블의 상기 여분 모드(extra mode, eM)를 상기 34번 화면 내 예측 모드로 설정하고 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일하지 않고 상기 기본 계층의 색차 블록의 화면 내 예측 모드가 플레이너 모드, DC 모드, 수직 모드 또는 수평 모드가 아닌 경우, 상기 색차 블록의 화면 내 예측 모드 테이블의 상기 여분 모드(extra mode, eM)를 기본 계층의 색차 블록 화면 내 예측 모드로 설정하여 생성될 수 있다. 상기 예측부는 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 색차 블록 화면 내 예측 모드가 동일한지 여부를 판단하도록 구현될 수 있다. 상기 예측부는 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 색차 블록 화면 내 예측 모드가 동일하지 않고 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일한 경우, 상기 향상 계층의 휘도 블록 화면 내 예측 모드를 제외하고 상기 향상 계층의 색차 블록의 후보 화면 내 예측 모드를 산출하도록 구현될 수 있다. 상기 예측부는 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 색차 블록 화면 내 예측 모드가 동일하지 않고 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일하지 않은 경우, 상기 기본 계층의 색차 블록 화면 내 예측 모드를 제외하고 상기 향상 계층의 색차 블록의 후보 화면 내 예측 모드를 산출하도록 구현될 수 있다.An image decoding apparatus according to an aspect of the present invention for achieving the second object of the present invention includes an entropy decoding unit for decoding a prediction mode in a color difference block picture of a base layer and a prediction mode in a luminance block picture of an enhancement layer. And a prediction unit for deriving a prediction mode in the color difference block screen of the enhancement layer based on the prediction mode in the color difference block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer. When the prediction mode in the chrominance block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are the same, the prediction unit selects the prediction mode in the chrominance block screen of the base layer in the screen prediction mode of the chrominance block of the enhancement layer. It can be implemented to set to. If the prediction mode in the color difference block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are not the same, the prediction unit may predict the color difference block screen of the enhancement layer based on the intra prediction mode table of the color difference block. It can be implemented to derive the mode. The intra prediction mode table of the chrominance block is a table in which the intra prediction mode number of the chrominance block and the intra prediction mode of the chrominance block are mapped, and the intra prediction mode in the chrominance block screen of the base layer and the luminance block screen of the enhancement layer. If the prediction modes are the same, the extra mode (eM) of the intra prediction mode table of the chrominance block is set to the intra prediction mode of screen 34, and the prediction mode in the chrominance block screen of the base layer and the luminance of the enhancement layer are set. When the prediction mode in the block picture is not the same and the prediction mode in the color difference block picture of the base layer is planer mode, DC mode, vertical mode, or horizontal mode, the extra mode of the intra prediction picture table of the color difference block mode, eM) is set as the prediction mode in the 34th screen, and is different from the prediction mode in the chrominance block screen of the base layer. Intra prediction mode table of the chrominance block if the intra prediction mode of the luminance block of the enhancement layer is not the same and the intra prediction mode of the chrominance block of the base layer is not the planer mode, the DC mode, the vertical mode, or the horizontal mode. The extra mode (eM) may be generated by setting the prediction mode in the color difference block picture of the base layer. The prediction unit may be implemented to determine whether the prediction mode in the color difference block screen of the base layer and the prediction mode in the color difference block screen of the enhancement layer are the same. The prediction unit does not have the same prediction mode in the color difference block screen of the base layer and the prediction mode in the color difference block screen of the enhancement layer, and the prediction mode in the color difference block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are different. In the same case, it may be implemented to calculate a candidate intra prediction mode of the color difference block of the enhancement layer except for the intra prediction mode of the luminance block screen of the enhancement layer. The prediction unit does not have the same prediction mode in the color difference block screen of the base layer and the prediction mode in the color difference block screen of the enhancement layer, and the prediction mode in the color difference block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are different. If not the same, except for the prediction mode in the color difference block screen of the base layer may be implemented to calculate the prediction mode in the candidate screen of the color difference block of the enhancement layer.
상술한 바와 같이 본 발명의 실시예에 따른 계층적 비디오 코딩에서 색차 블록의 화면 내 예측 모드를 복호화하는 방법 및 이러한 방법을 사용하는 장치에 따르면, 향상 계층의 색차 블록의 화면 내 예측 모드를 부호화 및 복호화함에 있어서 기본 계층의 색차 블록 정보 및 향상 계층의 휘도 블록의 화면 내 예측 모드를 고려하여 부호화 및 복호화를 수행할 수 있다. 따라서 향상 계층의 색차 블록의 화면 내 예측 모드를 부호화 및 복호화함에 있어서 영상 부호화 효율 및 복호화 효율을 증가시킬 수 있다.As described above, according to a method of decoding an intra prediction mode of a chrominance block in hierarchical video coding and an apparatus using the method, the intra prediction mode of the color difference block of an enhancement layer is encoded and encoded. In decoding, encoding and decoding may be performed by considering color difference block information of a base layer and an intra prediction mode of a luminance block of an enhancement layer. Accordingly, in encoding and decoding an intra prediction mode of a color difference block of an enhancement layer, image encoding efficiency and decoding efficiency may be increased.
도 1은 본 발명의 실시예에 따른 부호화 장치를 나타낸 블록도이다.1 is a block diagram illustrating an encoding apparatus according to an embodiment of the present invention.
도 2는 본 발명의 다른 실시예에 따른 복호화기를 나타낸 블록도이다.2 is a block diagram illustrating a decoder according to another embodiment of the present invention.
도 3은 본 발명의 실시예에 따른 계층적 비디오 부호화 방법을 나타낸 개념도이다.3 is a conceptual diagram illustrating a hierarchical video encoding method according to an embodiment of the present invention.
도 4는 본 발명의 실시예에 따른 계층적 비디오 복호화 방법을 나타낸 개념도이다. 4 is a conceptual diagram illustrating a hierarchical video decoding method according to an embodiment of the present invention.
도 5는 본 발명의 실시예에 따른 베이스 예측 모드를 사용한 계층적 영상 복호화 방법을 나타낸 개념도이다. 5 is a conceptual diagram illustrating a hierarchical image decoding method using a base prediction mode according to an embodiment of the present invention.
도 6은 본 발명의 실시예에 따른 향상 계층의 색차 블록에서 화면 내 예측 모드를 유도하는 방법을 나타낸 개념도이다.6 is a conceptual diagram illustrating a method of deriving an intra prediction mode in a color difference block of an enhancement layer according to an embodiment of the present invention.
도 7은 본 발명의 실시예에 따른 색차 블록의 화면 내 예측 모드를 복호화하는 방법을 나타낸 순서도이다. 7 is a flowchart illustrating a method of decoding an intra prediction mode of a chrominance block according to an embodiment of the present invention.
도 8은 본 발명의 실시예에 따른 향상 계층에서 색차 블록의 화면 내 예측 모드를 전송하기 위한 테이블을 결정하는 방법을 나타낸 순서도이다.8 is a flowchart illustrating a method of determining a table for transmitting an intra prediction mode of a chrominance block in an enhancement layer according to an embodiment of the present invention.
도 9는 본 발명의 실시예에 따른 색차 블록의 화면 내 예측 모드 정보를 전송하는 방법을 나타낸 순서도이다. 9 is a flowchart illustrating a method of transmitting intra prediction picture information of a chrominance block according to an embodiment of the present invention.
도 10은 본 발명의 실시예에 따른 색차 블록의 화면 내 예측 모드를 산출하는 방법을 나타낸 개념도이다.10 is a conceptual diagram illustrating a method of calculating an intra prediction mode of a chrominance block according to an embodiment of the present invention.
도 11은 본 발명의 실시예에 따른 색차 블록의 화면 내 예측 모드를 산출하는 방법을 나타낸 개념도이다.11 is a conceptual diagram illustrating a method of calculating an intra prediction mode of a chrominance block according to an embodiment of the present invention.
본 발명의 실시예 및 도면에 개시된 각 구성부들은 영상 부호화 장치의 서로 다른 특징적인 기능들을 나타내기 위해 독립적인 구성으로 개시한 것이다. 각 구성부들이 반드시 분리된 하드웨어나 하나의 소프트웨어 구성 단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벋어나지 않는 한 본 발명의 권리범위에 포함된다.Each of the components disclosed in the embodiments and the drawings of the present invention are disclosed in an independent configuration to represent different characteristic functions of the image encoding apparatus. This does not mean that each component is necessarily made up of separate hardware or one software component. In other words, each component is included in each component for convenience of description, and at least two of the components may be combined to form one component, or one component may be divided into a plurality of components to perform a function. The integrated and separated embodiments of the components are also included in the scope of the present invention, without departing from the spirit of the invention.
또한, 일부의 본 발명에서 개시된 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리 범위에 포함된다.In addition, some of the components disclosed in the present invention may not be essential components for performing essential functions in the present invention but may be optional components for improving performance. The present invention can be implemented including only the components essential for implementing the essentials of the present invention except for the components used for improving performance, and the structure including only the essential components except for the optional components used for improving performance. Also included within the scope of the present invention.
도 1은 본 발명의 실시예에 따른 부호화 장치를 나타낸 블록도이다.1 is a block diagram illustrating an encoding apparatus according to an embodiment of the present invention.
도 1을 참조하면, 부호화 장치는 분할부(100), 예측부(110), 화면 내 예측부(103), 화면 간 예측부(106), 변환부(115), 양자화부(120), 재정렬부(125), 엔트로피 부호화부(130), 역양자화부(135), 역변환부(140), 필터부(145) 및 메모리(150)를 포함할 수 있다.Referring to FIG. 1, the encoding apparatus includes a splitter 100, a predictor 110, an intra prediction unit 103, an inter prediction unit 106, a transform unit 115, a quantization unit 120, and a rearrangement. The unit 125 may include an entropy encoding unit 130, an inverse quantization unit 135, an inverse transform unit 140, a filter unit 145, and a memory 150.
부호화 장치는 이하의 본 발명의 실시예에서 설명하는 영상 부호화 방법에 의해 구현될 수 있으나, 일부의 구성부에서의 동작은 부호화기의 복잡도를 낮추기 위해 또는 빠른 실시간 부호화를 위해 수행되지 않을 수 있다. 예를 들어, 예측부에서 화면 내 예측을 수행함에 있어서, 실시간으로 부호화를 수행하기 위해 모든 화면 내 예측 모드 방법을 사용하여 최적의 화면 내 부호화 방법을 선택하는 방법을 사용하지 않고 일부의 제한적인 개수의 화면 내 예측 모드를 사용하여 그 중에서 하나의 화면 내 예측 모드를 최종 화면 내 예측 모드로 선택하는 방법이 사용될 수 있다. 또 다른 예로 화면 내 예측 또는 화면 간 예측을 수행함에 있어 사용되는 예측 블록의 형태를 제한적으로 사용하도록 하는 것도 가능하다. The encoding apparatus may be implemented by the image encoding method described in the following embodiments of the present invention, but operations in some components may not be performed to reduce the complexity of the encoder or for fast real time encoding. For example, in performing the intra prediction in the prediction unit, some limited number of methods are used without selecting the optimal intra intra coding method using all intra prediction modes in order to perform encoding in real time. A method of selecting one intra prediction mode among them as a final intra prediction mode using the intra prediction mode of the image may be used. As another example, it is possible to limit the use of the type of prediction block used in performing intra prediction or inter prediction.
부호화 장치에서 처리되는 블록의 단위는 부호화를 수행하는 부호화 블록(coding block), 예측을 수행하는 예측 블록(prediction block), 변환을 수행하는 변환 블록(transform block)이 될 수 있다. 부호화 블록을 부호화 또는 복호화하기 위해 사용되는 정보를 포함하는 일정한 정보 단위를 부호화 단위(CU, Coding Unit), 예측 블록에 대한 예측을 수행하기 위해 사용되는 정보를 포함하는 일정한 정보 단위를 예측 단위(PU, Prediction Unit), 변환 블록에 변환을 수행하기 위해 사용되는 정보를 포함하는 단위를 변환 단위(TU, Transform Unit)라는 용어로 표현할 수 있다.The unit of a block processed in the encoding apparatus may be a coding block for encoding, a prediction block for performing prediction, and a transform block for performing transformation. A constant information unit including information used to encode or decode a coding block is a coding unit (CU), and a constant information unit including information used to perform prediction on a prediction block is a prediction unit (PU). , Prediction Unit), and a unit including information used to perform a transformation in a transform block may be expressed in terms of a transform unit (TU).
이하, 본 발명의 실시예에서 사용되는 현재 블록은 예측 또는 변환 또는 부호화의 대상이 되는 블록을 의미할 수 있다. 예측 수행 시 현재 블록은 현재 예측의 대상이 되는 블록이 될 수 있다. 변환 수행 시 현재 블록은 현재 변환의 대상이 되는 변환 블록이 될 수 있다. 부호화 또는 복호화 수행 시 현재 블록은 부호화 또는 복호화의 대상이 되는 부호화 블록이 될 수 있다. 즉, 수행되는 영상 처리에 따라 현재 블록이 의미하는 단위가 달라질 수 있다.Hereinafter, the current block used in the embodiment of the present invention may mean a block that is a target of prediction, transformation, or encoding. When performing prediction, the current block may be a block that is the target of the current prediction. When performing the transformation, the current block may be a transformation block that is the target of the current transformation. When encoding or decoding is performed, the current block may be an encoding block to be encoded or decoded. That is, the unit of the current block may vary according to the image processing performed.
분할부(100)에서는 하나의 픽쳐를 복수의 부호화 블록, 예측 블록 및 변환 블록의 조합으로 분할하고 소정의 기준(예를 들어, 비용 함수)으로 그 중 하나의 부호화 블록, 예측 블록 및 변환 블록의 분할 조합을 선택하여 픽쳐를 분할할 수 있다.The dividing unit 100 divides one picture into a combination of a plurality of coding blocks, a prediction block, and a transform block, and divides a picture of one of the coding blocks, the prediction block, and the transform block according to a predetermined criterion (for example, a cost function). A picture may be divided by selecting a division combination.
예를 들어, 픽쳐에서 부호화 블록을 분할하기 위해서는 쿼드 트리 구조(Quadtree Structure)와 같은 재귀적인 트리 구조를 사용할 수 있다. 이하, 본 발명의 실시예에서는 부호화 블록의 의미는 부호화를 수행하는 블록이라는 의미뿐만 아니라 복호화를 수행하는 블록이라는 의미로도 사용할 수 있다.For example, to split a coding block in a picture, a recursive tree structure such as a quadtree structure may be used. Hereinafter, in the embodiment of the present invention, the meaning of the coding block may be used not only as a block for encoding but also as a block for decoding.
예측 블록은 화면 내 예측 또는 화면 간 예측을 수행하는 블록이 될 수 있다. 화면 내 예측을 수행하는 블록의 형태로는 2Nx2N, NxN과 같은 정사각형의 형태나 SDIP(Short Distance Intra Prediction)를 사용하는 직사각형의 형태의 예측 블록 형태를 가질 수 있다. 화면 간 예측을 수행하는 블록으로는 2Nx2N, NxN과 같은 정사각형의 형태 또는 정사각형 형태의 예측 블록을 동일한 형태로 이분할한 형태인 2NxN, Nx2N 또는 비대칭 형태인 AMP (Asymetric Motion Partitioning)를 사용한 예측 블록 분할 방법이 있다. 예측 블록의 형태에 따라 변환부(115)에서는 변환을 수행하는 방법이 달라질 수 있다.The prediction block may be a block for performing intra prediction or inter prediction. The block for performing intra prediction may have a square shape such as 2Nx2N or NxN, or a rectangular block shape using SDIP (Short Distance Intra Prediction). Predictive block segmentation is performed by using 2NxN, Nx2N, or asymmetric symmetric motion partitioning (AMP). There is a way. Depending on the shape of the prediction block, the transform unit 115 may change a method of performing the transform.
예측부(110)는 화면 내 예측을 수행하는 화면 내 예측부(103)와 화면 간 예측을 수행하는 화면 간 예측부(106)를 포함할 수 있다. 예측부(110)에서는 예측 블록에 대해 화면 간 예측을 사용할 것인지 또는 화면 내 예측을 수행할 것인지를 결정할 수 있다. 예측이 수행되는 처리 단위와 예측 방법 및 구체적인 내용이 정해지는 처리 단위는 다를 수 있다. 예를 들어, 화면 내 예측을 수행함에 있어서 예측 모드는 예측 블록 단위로 결정되고, 예측을 수행하는 과정은 변환 블록 단위를 기초로 수행될 수도 있다. 생성된 예측된 블록(또는 예측된 샘플)과 원본 블록(또는 원본 샘플) 사이의 잔차값(잔차 블록)은 변환부(115)로 입력될 수 있다. 또한, 예측을 위해 사용한 예측 모드 정보, 움직임 벡터 정보 등은 잔차값과 함께 엔트로피 부호화부(130)에서 부호화되어 복호화기에 전달될 수 있다.The prediction unit 110 may include an intra prediction unit 103 that performs intra prediction and an inter prediction unit 106 which performs inter prediction. The prediction unit 110 may determine whether to use inter prediction or intra prediction on the prediction block. The processing unit in which the prediction is performed may differ from the processing unit in which the prediction method and the details are determined. For example, in performing intra prediction, a prediction mode may be determined in units of prediction blocks, and the process of performing prediction may be performed based on transform blocks. The residual value (residual block) between the generated predicted block (or predicted sample) and the original block (or original sample) may be input to the converter 115. In addition, prediction mode information and motion vector information used for prediction may be encoded by the entropy encoder 130 along with the residual value and transmitted to the decoder.
PCM(Pulse Coded Modulation) 부호화 모드를 사용할 경우, 예측부(110)를 통해 예측을 수행하지 않고, 원본 블록을 그대로 부호화하여 복호화부에 전송하는 것도 가능하다.When using a Pulse Coded Modulation (PCM) encoding mode, the original block may be encoded as it is and transmitted to the decoder without performing prediction through the prediction unit 110.
화면 내 예측부(103)에서는 현재 블록(예측 블록)의 주변에 존재하는 참조 픽셀을 기초로 예측된 블록을 생성할 수 있다. 현재 블록에 대한 최적의 화면 내 예측 모드를 산출하기 위해서 현재 블록에 대해 복수의 화면 내 예측 모드를 사용하여 예측을 하고 그 중 하나의 화면 내 예측 모드를 현재 블록을 예측하기 위한 화면 내 예측 모드로 사용할 수 있다. 화면 내 예측에서 예측 모드는 참조 픽셀 정보를 예측 방향에 따라 사용하는 방향성 예측 모드와 예측을 수행 시 방향성 정보를 사용하지 않는 비방향성 모드를 가질 수 있다. 휘도 정보를 예측하기 위한 모드와 색차 정보를 예측하기 위한 화면 내 예측 모드는 종류가 상이할 수 있고, 색차 정보를 예측하기 위해 휘도 정보를 예측한 화면 내 예측 모드 정보 또는 예측된 휘도 신호 정보를 활용할 수 있다.The intra prediction unit 103 may generate a predicted block based on reference pixels existing around the current block (prediction block). In order to calculate an optimal intra prediction mode for the current block, prediction is performed using a plurality of intra prediction modes for the current block, and one of the intra prediction modes is used as an intra prediction mode for predicting the current block. Can be used. In intra prediction, a prediction mode may have a directional prediction mode using reference pixel information according to a prediction direction, and a non-directional mode using no directional information when performing prediction. The modes for predicting the luminance information and the intra prediction modes for predicting the color difference information may be different, and in order to predict the color difference information, the intra prediction mode information or the predicted luminance signal information for predicting the luminance information may be utilized. Can be.
현재 블록의 주변 블록의 화면 내 예측 모드 정보로부터 현재 블록의 화면 내 예측 모드 정보를 부호화할 수 있다. 즉, 현재 블록의 화면 내 예측 모드는 현재 블록의 주변에 존재하는 예측 블록의 화면 내 예측 모드로부터 예측할 수 있다.Intra-prediction mode information of the current block may be encoded from intra-prediction mode information of neighboring blocks of the current block. That is, the intra prediction mode of the current block may be predicted from the intra prediction mode of the prediction block existing around the current block.
현재 블록과 주변 블록의 화면 내 예측 모드가 동일할 경우, 플래그 정보를 이용하여 현재 블록과 주변 블록의 예측 모드가 동일하다는 정보를 지시할 수 있다. 만약, 현재 블록과 주변 블록의 예측 모드가 상이할 경우, 엔트로피 부호화를 수행하여 현재 블록의 화면 내 예측 모드 정보를 부호화할 수 있다.When the intra prediction modes of the current block and the neighboring blocks are the same, the flag information may be used to indicate that the prediction modes of the current block and the neighboring block are the same. If prediction modes of the current block and neighboring blocks are different, entropy encoding may be performed to encode intra prediction mode information of the current block.
주변 블록의 예측 모드가 가용하지 않은 경우, 미리 설정된 화면 내 예측 모드값을 후보 화면 내 예측 모드값으로 설정하여 현재 예측 블록의 화면 내 예측 모드를 예측할 수 있다.When the prediction mode of the neighboring block is not available, the intra prediction mode of the current prediction block may be predicted by setting a preset intra prediction mode value as a candidate intra prediction mode value.
화면 내 예측부(103)는 현재 픽쳐 내의 화소 정보인 현재 블록 주변의 참조 픽셀 정보를 기초로 예측된 블록 또는 예측된 샘플을 생성할 수 있다. 이러한 현재 블록 주변의 픽셀을 참조하여 생성된 블록 또는 샘플을 예측된 블록 또는 예측된 샘플이라고 표현할 수 있다. The intra prediction unit 103 may generate the predicted block or the predicted sample based on the reference pixel information around the current block which is the pixel information in the current picture. A block or sample generated by referring to pixels around the current block may be expressed as a predicted block or a predicted sample.
화면 내 예측을 수행 시 예측 블록의 크기와 변환 블록의 크기가 동일할 경우, 예측 블록의 좌측에 존재하는 픽셀, 좌측 상단에 존재하는 픽셀, 상단에 존재하는 픽셀을 기초로 예측 블록에 대한 화면 내 예측을 수행할 수 있다.When the prediction block has the same size as the transform block when the intra prediction is performed, the intra prediction block for the prediction block is based on the pixels on the left of the prediction block, the pixels on the upper left, and the pixels on the top. You can make predictions.
화면 내 예측을 수행 시 예측 블록의 크기와 변환 블록의 크기가 상이할 경우, 변환 블록의 좌측에 존재하는 픽셀, 좌측 상단에 존재하는 픽셀, 상단에 존재하는 픽셀을 이용하여 화면 내 예측을 수행할 수 있다. 또한, 최소 부호화 블록에 대해서만 NxN 분할을 사용하는 화면 내 예측을 사용할 수 있다.If the size of the prediction block and the size of the transform block are different when performing the intra prediction, the intra prediction is performed by using the pixel on the left side, the pixel on the upper left side, and the pixel on the top side. Can be. In addition, intra prediction using NxN division may be used only for the minimum coding block.
화면 내 예측 방법은 예측 모드에 따라 참조 화소에 AIS(Adaptive Intra Smoothing) 필터를 적용한 후 예측된 블록(또는 예측된 샘플로도 표현될 수 있다.)을 생성할 수 있다. 참조 화소에 적용되는 AIS 필터의 종류는 상이할 수 있다. 화면 내 예측이 수행된 이후에 참조 픽셀과 예측된 블록에 존재하는 일부 픽셀에 대한 추가적인 필터링을 수행할 수 있다. 참조 픽셀과 예측된 블록에 존재하는 일부 픽셀에 대한 필터링은 화면 내 예측 모드의 방향성에 따라 다른 필터링 계수를 사용하여 필터링을 사용할 수 있다.The intra prediction method may generate a predicted block (or may be represented as a predicted sample) after applying an adaptive intra smoothing (AIS) filter to a reference pixel according to a prediction mode. The type of AIS filter applied to the reference pixel may be different. After the intra prediction is performed, additional filtering may be performed on the reference pixel and some pixels present in the predicted block. Filtering for the reference pixel and some pixels present in the predicted block may use filtering using different filtering coefficients depending on the direction of the intra prediction mode.
화면 간 예측부(106)는 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나의 픽쳐의 정보를 기초로 예측 블록(예를 들어, 예측된 블록 또는 예측된 샘플)를 생성할 수 있다. 화면 간 예측부(106)는 참조 픽쳐 보간부, 움직임 예측부, 움직임 보상부가 포함할 수 있다. 참조 픽쳐 보간부에서는 메모리(150)로부터 참조 픽쳐 정보를 제공받고 참조 픽쳐에서 정수 화소 이하의 화소 정보를 생성할 수 있다. 휘도 화소의 경우, 1/4 화소 단위로 정수 화소 이하의 화소 정보를 생성하기 위해 필터 계수를 달리하는 DCT 기반의 8탭 보간 필터(DCT-based Interpolation Filter)가 사용될 수 있다. 색차 신호의 경우 1/8 화소 단위로 정수 화소 이하의 화소 정보를 생성하기 위해 필터 계수를 달리하는 DCT 기반의 4탭 보간 필터(DCT-based Interpolation Filter)가 사용될 수 있다.The inter prediction unit 106 may generate a prediction block (eg, a predicted block or a predicted sample) based on information of at least one picture of a previous picture or a subsequent picture of the current picture. The inter prediction unit 106 may include a reference picture interpolator, a motion predictor, and a motion compensator. The reference picture interpolator may receive reference picture information from the memory 150 and generate pixel information of an integer pixel or less in the reference picture. In the case of luminance pixels, a DCT based 8-tap interpolation filter having different filter coefficients may be used to generate pixel information of integer pixels or less in units of 1/4 pixels. In the case of a chrominance signal, a DCT-based interpolation filter having different filter coefficients may be used to generate pixel information of an integer pixel or less in units of 1/8 pixels.
화면 간 예측부(106)는 참조 픽쳐 보간부에 의해 보간된 참조 픽쳐를 기초로 움직임 예측을 수행할 수 있다. 움직임 벡터를 산출하기 위한 방법으로 FBMA(Full search-based Block Matching Algorithm), TSS(Three Step Search), NTS(New Three-Step Search Algorithm) 등 다양한 방법이 사용될 수 있다. 움직임 벡터는 보간된 화소를 기초로 1/2 또는 1/4 화소 단위의 움직임 벡터값을 가질 수 있다. 화면 간 예측부(106)에서는 움직임 예측 방법을 다르게 하여 현재 예측 블록을 예측할 수 있다. 움직임 예측 방법으로 스킵(Skip) 방법, 머지(Merge) 방법, AMVP(Advanced Motion Vector Prediction) 방법 등 다양한 방법이 사용될 수 있다.The inter prediction unit 106 may perform motion prediction based on the reference picture interpolated by the reference picture interpolation unit. As a method for calculating a motion vector, various methods such as a full search-based block matching algorithm (FBMA), a three step search (TSS), and a new three-step search algorithm (NTS) may be used. The motion vector may have a motion vector value in units of 1/2 or 1/4 pixels based on the interpolated pixels. The inter prediction unit 106 may predict the current prediction block by using a different motion prediction method. As the motion prediction method, various methods such as a skip method, a merge method, and an advanced motion vector prediction (AMVP) method may be used.
계층적 영상 부호화를 수행하는 경우 예측부(110)가 기본 계층(base layer)에 포함되어 있는지 아니면 향상 계층(enhanced layer)에 포함되어 있는지 여부에 따라 서로 다른 예측 동작을 수행할 수 있다. 예측부(110)가 기본 계층에 포함되어 있는 경우는 전술한 실시예와 동일하게 동작할 수 있다. 하지만, 예측부(110)가 향상 계층에 포함되어 있는 경우, 계층적 영상 부호화 모드에 따라 예측부가 화면 간 예측 및 화면 내 예측을 수행하지 않거나, 기본 계층의 예측부에서 생성된 영상 예측 관련 정보(예를 들어, 화면 내 예측 모드, 움직임 예측 관련 정보 등)을 수신받아 해당 정보를 기초로 예측을 수행할 수도 있다. 구체적인 예에 대해서는 추가적으로 상술한다. When performing hierarchical image encoding, different prediction operations may be performed depending on whether the prediction unit 110 is included in a base layer or an enhanced layer. When the prediction unit 110 is included in the base layer, it may operate in the same manner as in the above-described embodiment. However, when the prediction unit 110 is included in the enhancement layer, the prediction unit does not perform inter prediction or intra prediction according to the hierarchical image coding mode, or the image prediction related information generated by the prediction unit of the base layer ( For example, an intra prediction mode, motion prediction related information, etc.) may be received and prediction may be performed based on the corresponding information. Specific examples will be further described in detail.
예측부(110)에서 예측을 수행한 예측된 블록 또는 예측된 샘플과 원본 블록 또는 원본 샘플과 차이값인 잔차값(Residual) 정보를 포함하는 잔차 블록이 생성될 수 있다. 생성된 잔차 블록은 변환부(115)로 입력될 수 있다. 변환부(115)에서는 잔차 블록을 DCT(Discrete Cosine Transform) 또는 DST(Discrete Sine Transform)와 같은 변환 방법을 사용하여 변환할 수 있다. 잔차 블록을 변환하기 위해 DCT를 적용할지 DST를 적용할지는 잔차 블록에 대응하는 예측 블록의 화면 내 예측 모드 정보 및/또는 변환 블록의 크기 정보를 기초로 결정할 수 있다. 즉, 변환부에서는 변환 블록의 크기에 따라 변환 방법을 다르게 사용할 수 있다.The prediction block 110 may generate a residual block including residual information that is a difference between the predicted block or the predicted sample and the original block or the original sample. The generated residual block may be input to the converter 115. The transform unit 115 may transform the residual block using a transform method such as a discrete cosine transform (DCT) or a discrete sine transform (DST). Whether to apply DCT or DST to transform the residual block may be determined based on intra prediction mode information of the prediction block corresponding to the residual block and / or size information of the transform block. That is, the transform unit may use a transform method differently according to the size of the transform block.
양자화부(120)는 변환부(115)에서 주파수 영역으로 변환된 값들을 양자화할 수 있다. 블록에 따라 또는 영상의 중요도에 따라 양자화 계수는 변할 수 있다. 양자화부(120)에서 산출된 값은 역양자화부(135)와 재정렬부(125)에 제공될 수 있다.The quantization unit 120 may quantize the values converted by the transformer 115 into the frequency domain. The quantization coefficient may change depending on the block or the importance of the image. The value calculated by the quantization unit 120 may be provided to the inverse quantization unit 135 and the reordering unit 125.
재정렬부(125)는 양자화된 잔차값에 대해 계수값의 재정렬을 수행할 수 있다.재정렬부(125)는 계수 스캐닝(Coefficient Scanning) 방법을 통해 2차원의 블록 형태 계수를 1차원의 벡터 형태로 변경할 수 있다. 예를 들어, 재정렬부(125)에서는 지그-재그 스캔(Zig-Zag Scan)방법을 이용하여 DC 계수부터 고주파수 영역의 계수까지 스캔하여 1차원 벡터 형태로 변경시킬 수 있다. 변환 블록의 크기 및 화면 내 예측 모드에 따라 지그-재그 스캔 방법이 아닌 2차원의 블록 형태 계수를 열 방향으로 스캔하는 수직 스캔 방법, 2차원의 블록 형태 계수를 행 방향으로 스캔하는 수평 스캔 방법이 사용될 수 있다. 즉, 변환 블록의 크기 및 화면 내 예측 모드에 따라 지그-재그 스캔, 수직 방향 스캔 및 수평 방향 스캔 중 어떠한 스캔 방법이 사용될지 여부를 결정할 수 있다.The reordering unit 125 may reorder coefficient values with respect to the quantized residual value. The reordering unit 125 may convert the two-dimensional block shape coefficients into a one-dimensional vector form through a coefficient scanning method. You can change it. For example, the reordering unit 125 may scan from a DC coefficient to a coefficient of a high frequency region by using a Zig-Zag Scan method and change it into a one-dimensional vector. Depending on the size of the transform block and the intra prediction mode, a vertical scan method for scanning two-dimensional block shape coefficients in a column direction, not a zig-zag scan method, and a horizontal scan method for scanning two-dimensional block shape factors in a row direction Can be used. That is, according to the size of the transform block and the intra prediction mode, it is possible to determine which scan method among zigzag-scan, vertical scan and horizontal scan is used.
엔트로피 부호화부(130)는 재정렬부(125)에 의해 산출된 값들을 기초로 엔트로피 부호화를 수행할 수 있다. 엔트로피 부호화는 예를 들어, 지수 골롬(Exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 다양한 부호화 방법을 사용할 수 있다.The entropy encoder 130 may perform entropy encoding based on the values calculated by the reordering unit 125. Entropy encoding may use various encoding methods such as, for example, Exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), and Context-Adaptive Binary Arithmetic Coding (CABAC).
엔트로피 부호화부(130)는 재정렬부(125) 및 예측부(110)로부터 부호화 블록의 잔차값 계수 정보 및 블록 타입 정보, 예측 모드 정보, 분할 블록 정보, 예측 블록 정보 및 변환 블록 정보, 움직임 벡터 정보, 참조 프레임 정보, 블록의 보간 정보, 필터링 정보 등 다양한 정보를 제공받아 소정의 부호화 방법을 기초로 엔트로피 부호화를 수행할 수 있다. 또한, 엔트로피 부호화부(130)에서는 재정렬부(125)에서 입력된 부호화 단위의 정보를 엔트로피 부호화할 수 있다. The entropy encoding unit 130 receives residual coefficient coefficient information, block type information, prediction mode information, partition block information, prediction block information, transform block information, and motion vector information of the coding block from the reordering unit 125 and the prediction unit 110. By receiving various information such as reference frame information, interpolation information of a block, and filtering information, entropy encoding may be performed based on a predetermined encoding method. In addition, the entropy encoder 130 may entropy encode information on a coding unit input from the reordering unit 125.
역양자화부(135) 및 역변환부(140)에서는 양자화부(120)에서 양자화된 값들을 역양자화하고 변환부(115)에서 변환된 값들을 역변환한다. 역양자화부(135) 및 역변환부(140)에서 생성된 잔차값(Residual)은 예측부(110)에 포함된 움직임 추정부, 움직임 보상부 및 인트라 예측부를 통해서 예측된 블록과 합쳐져 복원 블록(Reconstructed Block)을 생성할 수 있다.The inverse quantizer 135 and the inverse transformer 140 inverse quantize the quantized values in the quantizer 120 and inversely transform the transformed values in the transformer 115. The residual value generated by the inverse quantizer 135 and the inverse transformer 140 is reconstructed by being combined with a block predicted by the motion estimator, the motion compensator, and the intra predictor included in the predictor 110. Block) can be created.
필터부(145)는 디블록킹 필터, 오프셋 보정부, ALF(Adaptive Loop Filter)중 적어도 하나를 포함할 수 있다. The filter unit 145 may include at least one of a deblocking filter, an offset correction unit, and an adaptive loop filter (ALF).
디블록킹 필터는 복원된 픽쳐에서 블록간의 경계로 인해 생긴 블록 왜곡을 제거할 수 있다. 디블록킹을 수행할지 여부를 판단하기 위해 블록에 포함된 몇 개의 열 또는 행에 포함된 픽셀을 기초로 현재 블록에 디블록킹 필터 적용할지 여부를 판단할 수 있다. 블록에 디블록킹 필터를 적용하는 경우 필요한 디블록킹 필터링 강도에 따라 강한 필터(Strong Filter) 또는 약한 필터(Weak Filter)를 적용할 수 있다. 또한 디블록킹 필터를 적용함에 있어 수직 필터링 및 수평 필터링을 수행시 수평 방향 필터링 및 수직 방향 필터링이 병행처리가 되도록 할 수 있다.The deblocking filter may remove block distortion caused by boundaries between blocks in the reconstructed picture. In order to determine whether to perform deblocking, it may be determined whether to apply a deblocking filter to the current block based on the pixels included in several columns or rows included in the block. When the deblocking filter is applied to the block, a strong filter or a weak filter may be applied according to the required deblocking filtering strength. In addition, in applying the deblocking filter, horizontal filtering and vertical filtering may be performed in parallel when vertical filtering and horizontal filtering are performed.
오프셋 보정부는 디블록킹을 수행한 영상에 대해 픽셀 단위로 원본 영상과의 오프셋을 보정할 수 있다. 특정 픽쳐에 대한 오프셋 보정을 수행하기 위해 영상에 포함된 픽셀을 일정한 수의 영역으로 구분한 후 오프셋을 수행할 영역을 결정하고 해당 영역에 오프셋을 적용하는 방법 또는 각 픽셀의 에지 정보를 고려하여 오프셋을 적용하는 방법을 사용할 수 있다.The offset correction unit may correct the offset with respect to the original image on a pixel-by-pixel basis for the deblocking image. In order to perform offset correction for a specific picture, the pixels included in the image are divided into a predetermined number of areas, and then, an area to be offset is determined, an offset is applied to the corresponding area, or offset considering the edge information of each pixel. You can use this method.
ALF (Adaptive Loop Filter)는 필터링한 복원 영상과 원래의 영상을 비교한 값을 기초로 필터링을 수행할 수 있다. 영상에 포함된 픽셀을 적어도 하나 이상의 그룹으로 나눈 후 해당 그룹에 적용될 하나의 필터를 결정하여 그룹마다 차별적으로 필터링을 수행할 수 있다. ALF를 적용할지 여부에 관련된 정보는 휘도 신호는 부호화 단위(Coding Unit, CU) 별로 전송될 수 있고, 각각의 블록에 따라 적용될 ALF의 크기 및 계수는 달라질 수 있다. ALF는 다양한 형태를 가질 수 있으며, 필터에 그에 따라 포함되는 계수의 개수도 달라질 수 있다. 이러한 ALF의 필터링 관련 정보(필터 계수 정보, ALF On/Off 정보, 필터 형태 정보)는 비트스트림 형태로 파라메터 셋에 포함되어 전송될 수 있다.The adaptive loop filter (ALF) may perform filtering based on a value obtained by comparing the filtered reconstructed image with the original image. After dividing the pixels included in the image into at least one group, one filter to be applied to the group may be determined and filtering may be performed for each group. For information on whether to apply the ALF, the luminance signal may be transmitted for each coding unit (CU), and the size and coefficient of the ALF to be applied may vary according to each block. The ALF may have various forms, and the number of coefficients included in the filter may also vary. Such filtering related information (filter coefficient information, ALF On / Off information, filter type information) of the ALF may be included in the parameter set in the form of a bitstream and transmitted.
메모리(150)는 필터부(145)를 통해 산출된 복원 블록 또는 픽쳐를 저장할 수 있고, 저장된 복원 블록 또는 픽쳐는 화면 간 예측을 수행 시 예측부(110)에 제공될 수 있다. The memory 150 may store the reconstructed block or picture calculated by the filter unit 145, and the stored reconstructed block or picture may be provided to the predictor 110 when performing inter prediction.
도 2는 본 발명의 다른 실시예에 따른 복호화기를 나타낸 블록도이다.2 is a block diagram illustrating a decoder according to another embodiment of the present invention.
도 2를 참조하면, 복호화기는 엔트로피 복호화부(210), 재정렬부(215), 역양자화부(220), 역변환부(225), 예측부(230), 필터부(235), 메모리(240)가 포함될 수 있다.Referring to FIG. 2, the decoder includes an entropy decoder 210, a reordering unit 215, an inverse quantizer 220, an inverse transform unit 225, a predictor 230, a filter unit 235, and a memory 240. May be included.
부호화기에서 비트스트림이 입력된 경우, 입력된 비트스트림은 부호화기와 반대의 절차로 복호화될 수 있다.When a bitstream is input from the encoder, the input bitstream may be decoded by a procedure opposite to that of the encoder.
엔트로피 복호화부(210)는 부호화기의 엔트로피 부호화부에서 엔트로피 부호화를 수행한 것과 반대의 절차로 엔트로피 복호화를 수행할 수 있다. The entropy decoder 210 may perform entropy decoding by a procedure opposite to that of the entropy encoder in the encoder.
엔트로피 복호화부(210)에서 복호화된 정보 중 예측된 블록(또는 예측된 샘플)을 생성하기 위한 정보는 예측부(230)로 제공되고 엔트로피 복호화부에서 엔트로피 복호화를 수행한 잔차값은 재정렬부(215)로 입력될 수 있다.Information for generating a predicted block (or predicted sample) among the information decoded by the entropy decoder 210 is provided to the predictor 230, and the residual value obtained by entropy decoding by the entropy decoder is the reordering unit 215. ) Can be entered.
엔트로피 복호화부(210)에서는 부호화기에서 수행된 화면 내 예측 및 화면 간 예측에 관련된 정보를 복호화할 수 있다. 전술한 바와 같이 부호화기에서 화면 내 예측 및 화면 간 예측을 수행시 예를 들어 주변의 예측 모드가 가용하지 않은 경우 등의 제약이 있는 경우, 이러한 제약을 기초로 한 엔트로피 복호화를 수행해 현재 블록에 대한 화면 내 예측 및 화면 간 예측에 관련된 정보를 제공받을 수 있다. The entropy decoder 210 may decode information related to intra prediction and inter prediction performed by the encoder. As described above, when there are constraints in performing intra-picture prediction and inter-screen prediction in the encoder, for example, when neighboring prediction modes are not available, entropy decoding based on these constraints is performed to perform a screen on the current block. Information related to intra prediction and inter screen prediction may be provided.
재정렬부(215)는 엔트로피 복호화부(210)에서 엔트로피 복호화된 비트스트림을 부호화부에서 재정렬한 방법을 기초로 재정렬을 수행할 수 있다. 1차원 벡터 형태로 표현된 계수들을 다시 2차원의 블록 형태의 계수로 복원하여 재정렬할 수 있다. 재정렬부에서는 부호화부에서 수행된 계수 스캐닝에 관련된 정보를 제공받고 해당 부호화부에서 수행된 스캐닝 순서에 기초하여 역으로 스캐닝하는 방법을 통해 재정렬을 수행할 수 있다. The reordering unit 215 may reorder the entropy decoded bitstream in the entropy decoding unit 210 based on a method of rearranging the bitstream. Coefficients expressed in the form of a one-dimensional vector may be reconstructed by reconstructing the coefficients in a two-dimensional block form. The reordering unit may be realigned by receiving information related to coefficient scanning performed by the encoder and performing reverse scanning based on the scanning order performed by the encoder.
역양자화부(220)는 부호화기에서 제공된 양자화 파라미터와 재정렬된 블록의 계수값을 기초로 역양자화를 수행할 수 있다. The inverse quantization unit 220 may perform inverse quantization based on the quantization parameter provided by the encoder and the coefficient values of the rearranged block.
역변환부(225)는 부호화기에서 수행한 양자화 결과에 대해 변환부에서 수행한 DCT 및 DST에 대해 역 DCT 및 역 DST를 수행할 수 있다. 역변환은 부호화기에서 결정된 변환 단위를 기초로 수행될 수 있다. 부호화기의 변환부에서는 DCT와 DST는 예측 방법, 현재 블록의 크기 및 예측 방향 등 복수의 정보에 따라 선택적으로 수행될 수 있고, 복호화기의 역변환부(225)에서는 부호화기의 변환부에서 수행된 변환 정보를 기초로 역변환을 수행할 수 있다.The inverse transformer 225 may perform inverse DCT and inverse DST on the DCT and DST performed by the transformer with respect to the quantization result performed by the encoder. The inverse transform may be performed based on the transform unit determined by the encoder. In the encoder, the DCT and the DST may be selectively performed according to a plurality of pieces of information such as a prediction method, a size and a prediction direction of the current block, and the inverse transformer 225 of the decoder may perform transform information performed by the encoder of the encoder. Inverse transformation may be performed based on.
예측부(230)는 엔트로피 복호화부(210)에서 제공된 예측된 블록(또는 예측된 샘플) 생성 관련 정보와 메모리(240)에서 제공된 이전에 복호화된 블록 또는 픽쳐 정보를 기초로 예측된 블록(또는 예측된 샘플)을 생성할 수 있다.The predictor 230 predicts a block (or prediction) based on the predicted block (or predicted sample) generation related information provided by the entropy decoder 210 and previously decoded block or picture information provided by the memory 240. Samples) can be generated.
전술한 바와 같이 부호화기에서의 동작과 동일하게 화면 내 예측을 수행 시 예측 블록의 크기와 변환 블록의 크기가 동일할 경우, 예측 블록의 좌측에 존재하는 픽셀, 좌측 상단에 존재하는 픽셀, 상단에 존재하는 픽셀을 기초로 예측 블록에 대한 화면 내 예측을 수행하지만, 화면 내 예측을 수행 시 예측 블록의 크기와 변환 블록의 크기가 상이할 경우, 변환 블록을 기초로 한 참조 픽셀을 이용하여 화면 내 예측을 수행할 수 있다. 또한, 최소 크기의 부호화 블록에 대해서만 NxN 분할을 사용하는 화면 내 예측을 사용할 수 있다.As described above, if the size of the prediction block and the size of the transform block are the same when performing intra prediction, the pixels present on the left side of the prediction block, the pixels present on the upper left side, and present on the upper side are performed. Intra-prediction of the prediction block is performed on the basis of the pixel, but when the prediction block is different from the size of the transform block when the intra-prediction is performed, the intra-prediction is performed using the reference pixel based on the transform block. Can be performed. In addition, intra prediction using NxN division may be used only for a coding block having a minimum size.
예측부(230)는 예측 블록 판별부, 화면 간 예측부 및 화면 내 예측부를 포함할 수 있다. 예측 블록 판별부는 엔트로피 복호화부에서 입력되는 예측 블록 정보, 화면 내 예측 방법의 예측 모드 정보, 화면 간 예측 방법의 움직임 예측 관련 정보 등 다양한 정보를 입력 받고 부호화 블록에서 예측 블록을 구분하고, 예측 블록이 화면 간 예측을 수행하는지 아니면 화면 내 예측을 수행하는지 여부를 판별할 수 있다. 화면 간 예측부는 부호화기에서 제공된 정보를 이용해 현재 예측 블록이 포함된 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나의 픽쳐에 포함된 정보를 기초로 현재 예측 블록에 대한 화면 간 예측을 수행할 수 있다.The prediction unit 230 may include a prediction block determiner, an inter prediction unit, and an intra prediction unit. The prediction block discriminator receives various information such as prediction block information input from the entropy decoder, prediction mode information of the intra prediction method, and motion prediction related information of the inter prediction method, and distinguishes the prediction block from the coding block. Whether to perform inter prediction or intra prediction can be determined. The inter prediction unit may perform inter prediction on the current prediction block based on information included in at least one of a previous picture or a subsequent picture of the current picture including the current prediction block using information provided by the encoder.
화면 간 예측을 수행하기 위해 부호화 블록을 기준으로 해당 부호화 블록에 포함된 예측 블록의 움직임 예측 방법이 스킵 모드(Skip Mode), 머지 모드(Merge 모드), AMVP 모드(AMVP Mode) 중 어떠한 방법인지 여부를 판단할 수 있다. Whether the motion prediction method of the prediction block included in the coding block is skip mode, merge mode, or AMVP mode to perform inter prediction. Can be determined.
화면 내 예측부는 현재 픽쳐 내의 화소 정보를 기초로 예측된 블록(또는 예측된 샘플로도 표현할 수 있다.)을 생성할 수 있다. 예측 블록이 화면 내 예측을 수행한 예측 블록인 경우, 부호화기에서 제공된 예측 블록의 화면 내 예측 모드 정보를 기초로 화면 내 예측을 수행할 수 있다. 화면 내 예측부에는 AIS 필터, 참조 화소 보간부, DC 필터를 포함할 수 있다. AIS 필터는 현재 블록의 참조 화소에 필터링을 수행하는 부분으로서 현재 예측 블록의 예측 모드에 따라 필터의 적용 여부를 결정하여 적용할 수 있다. 부호화기에서 제공된 예측 블록의 예측 모드 및 AIS 필터 정보를 이용하여 현재 블록의 참조 화소에 AIS 필터링을 수행할 수 있다. 현재 블록의 예측 모드가 AIS 필터링을 수행하지 않는 모드일 경우, AIS 필터는 적용되지 않을 수 있다. 또한, 부호화기에서 마찬가지로 예측 블록을 생성 후 참조 픽셀과 함께 추가적으로 필터링을 수행할 수 있다.The intra prediction unit may generate a predicted block (or may be expressed as a predicted sample) based on the pixel information in the current picture. When the prediction block is a prediction block that performs intra prediction, the intra prediction may be performed based on intra prediction mode information of the prediction block provided by the encoder. The intra prediction unit may include an AIS filter, a reference pixel interpolator, and a DC filter. The AIS filter is a part of filtering the reference pixel of the current block, and may determine and apply the filter according to the prediction mode of the current prediction block. AIS filtering may be performed on reference pixels of the current block by using the prediction mode and the AIS filter information of the prediction block provided by the encoder. If the prediction mode of the current block is a mode that does not perform AIS filtering, the AIS filter may not be applied. In addition, the encoder may similarly perform filtering along with the reference pixel after generating the prediction block.
참조 화소 보간부는 예측 블록의 예측 모드가 참조 화소를 보간한 화소값을 기초로 화면 내 예측을 수행하는 예측 블록일 경우, 참조 화소를 보간하여 정수값 이하의 화소 단위의 참조 화소를 생성할 수 있다. 현재 블록의 예측 모드가 참조 화소를 보간하지 않고 예측 블록을 생성하는 예측 모드일 경우 참조 화소는 보간되지 않을 수 있다. DC 필터는 현재 블록의 예측 모드가 DC 모드일 경우 필터링을 통해서 예측된 블록(또는 예측된 샘플로도 표현할 수 있다.)을 생성할 수 있다.When the prediction mode of the prediction block is a prediction block that performs intra prediction based on pixel values obtained by interpolating the reference pixels, the reference pixel interpolator may generate reference pixels having an integer value or less by interpolating the reference pixels. . If the prediction mode of the current block is the prediction mode for generating the prediction block without interpolating the reference pixel, the reference pixel may not be interpolated. The DC filter may generate a predicted block (or expressed as a predicted sample) through filtering when the prediction mode of the current block is the DC mode.
계층적 영상 복호화를 수행하는 경우 예측부(110)가 기본 계층(base layer)에 포함되어 있는지 아니면 향상 계층(enhanced layer)에 포함되어 있는지 여부에 따라 서로 다른 예측 동작을 수행할 수 있다. 예측부(110)가 기본 계층에 포함되어 있는 경우는 전술한 실시예와 동일하게 동작할 수 있다. 하지만, 예측부(110)가 향상 계층에 포함되어 있는 경우, 계층적 영상 복호화 모드에 따라 예측부가 화면 간 예측 및 화면 내 예측을 수행하지 않거나, 기본 계층의 예측부에서 생성된 영상 예측 관련 정보(예를 들어, 화면 내 예측 모드, 움직임 예측 관련 정보 등)을 수신받아 해당 정보를 기초로 예측을 수행할 수도 있다. 구체적인 예에 대해서는 추가적으로 상술한다. 복원 된 블록 또는 픽쳐는 필터부(235)로 제공될 수 있다. 필터부(235)는 디블록킹 필터, 오프셋 보정부, ALF를 포함할 수 있다.When performing the hierarchical image decoding, the prediction unit 110 may perform different prediction operations depending on whether the prediction unit 110 is included in the base layer or the enhanced layer. When the prediction unit 110 is included in the base layer, it may operate in the same manner as in the above-described embodiment. However, when the prediction unit 110 is included in the enhancement layer, the prediction unit does not perform inter prediction and intra prediction according to the hierarchical image decoding mode, or the image prediction related information generated by the prediction unit of the base layer ( For example, an intra prediction mode, motion prediction related information, etc.) may be received and prediction may be performed based on the corresponding information. Specific examples will be further described in detail. The reconstructed block or picture may be provided to the filter unit 235. The filter unit 235 may include a deblocking filter, an offset correction unit, and an ALF.
부호화기로부터 해당 블록 또는 픽쳐에 디블록킹 필터를 적용하였는지 여부에 대한 정보 및 디블록킹 필터를 적용하였을 경우, 강한 필터를 적용하였는지 또는 약한 필터를 적용하였는지에 대한 정보를 제공받을 수 있다. 복호화기의 디블록킹 필터에서는 부호화기에서 제공된 디블록킹 필터 관련 정보를 제공받고 복호화기에서 해당 블록에 대한 디블록킹 필터링을 수행할 수 있다. 부호화기에서와 마찬가지로 우선 수직 디블록킹 필터링 및 수평 디블록킹 필터링을 수행하되, 겹치는 부분에 있어서는 수직 디블록킹 및 수평 디블록킹 중 적어도 하나를 수행할 수 있다. 수직 디블록킹 필터링 및 수평 디블록킹 필터링이 겹치는 부분에서 이전에 수행되지 못한 수직 디블록킹 필터링 또는 수평 디블록킹 필터링이 수행될 수 있다. 이러한 디블록킹 필터링 과정을 통해서 디블록킹 필터링의 병행 처리(Parallel Processing)이 가능하다. Information about whether a deblocking filter is applied to the corresponding block or picture and when the deblocking filter is applied to the block or picture may be provided from the encoder as to whether a strong filter or a weak filter is applied. The deblocking filter of the decoder may receive the deblocking filter related information provided by the encoder and perform the deblocking filtering on the corresponding block in the decoder. As in the encoder, first, vertical deblocking filtering and horizontal deblocking filtering are performed, but in the overlapping portion, at least one of vertical deblocking and horizontal deblocking may be performed. Vertical deblocking filtering or horizontal deblocking filtering, which has not been previously performed, may be performed at a portion where vertical deblocking filtering and horizontal deblocking filtering overlap. Through this deblocking filtering process, parallel processing of deblocking filtering is possible.
오프셋 보정부는 부호화 시 영상에 적용된 오프셋 보정의 종류 및 오프셋 값정보 등을 기초로 복원된 영상에 오프셋 보정을 수행할 수 있다.The offset correction unit may perform offset correction on the reconstructed image based on the type of offset correction and offset value information applied to the image during encoding.
ALF는 필터링을 수행 후 복원된 영상과 원래의 영상을 비교한 값을 기초로 필터링을 수행할 수 있다. 부호화기로부터 제공된 ALF 적용 여부 정보, ALF 계수 정보 등을 기초로 부호화 블록에 ALF를 적용할 수 있다. 이러한 ALF 정보는 특정한 파라메터 셋에 포함되어 제공될 수 있다.The ALF may perform filtering based on a value obtained by comparing the restored image with the original image after performing the filtering. The ALF may be applied to the coding block based on the ALF application information, the ALF coefficient information, and the like provided from the encoder. Such ALF information may be provided included in a specific parameter set.
메모리(240)는 복원된 픽쳐 또는 블록을 저장하여 참조 픽쳐 또는 참조 블록으로 사용할 수 있도록 할 수 있고 또한 복원된 픽쳐를 출력부로 제공할 수 있다. The memory 240 may store the reconstructed picture or block to use as a reference picture or reference block, and may provide the reconstructed picture to the output unit.
이하 본 발명의 실시예에서는 계층적 비디오 코딩(scalable video coding) 방법에 대해 개시한다. 계층적 비디오 코딩 방법은 기본 계층(base layer)에 있는 영상 정보를 기초로 향상 계층(enhancement layer)의 영상 정보를 예측하는 방법이다. 아래에서는 이러한 계층적 비디오 코딩 방법에 대해 개시한다.Hereinafter, an embodiment of the present invention discloses a scalable video coding method. The hierarchical video coding method is a method of predicting image information of an enhancement layer based on image information in a base layer. Hereinafter, this hierarchical video coding method will be described.
도 3은 본 발명의 실시예에 따른 계층적 비디오 부호화 방법을 나타낸 개념도이다.3 is a conceptual diagram illustrating a hierarchical video encoding method according to an embodiment of the present invention.
도 3을 참조하면, 영상은 기본 계층(base layer, 300)과 향상 계층(enhancement layer, 350)를 통해 부호화가 수행될 수 있다. 계층적 영상 부호화 방법에서는 계층적 영상 부호화 방법에 따라 기본 계층(300)에서 생성된 영상 예측 정보가 향상 계층(350)의 영상 부호화를 수행하기 위해 사용될 수 있다. 예를 들어, 영상 예측 정보는 기본 계층의 픽셀을 업샘플링하여 생성한 정보, 기본 계층에서 블록을 예측하기 위해 사용된 화면 내 예측 모드 정보, 움직임 예측 관련 정보 일 수 있다.Referring to FIG. 3, an image may be encoded through a base layer 300 and an enhancement layer 350. In the hierarchical image encoding method, the image prediction information generated in the base layer 300 according to the hierarchical image encoding method may be used to perform the image encoding of the enhancement layer 350. For example, the image prediction information may be information generated by upsampling pixels of the base layer, intra prediction mode information used to predict a block in the base layer, and motion prediction related information.
기본 계층(300)은 모드 결정부(305), 예측부(310), 변환 및 양자화부(325), 역변환 및 역양자화부(330), 엔트로피 부호화부(335), 복원부(315), 필터부(320)를 포함할 수 있다. 각 부분별 동작은 도 1에서 개시한 바와 유사하고 모드 결정부(305)는 영상 부호화 방법으로 화면 내 예측 방법을 사용할지 아니면 화면 간 예측 방법을 사용할지 여부에 대한 결정을 수행하는 구성부이다.The base layer 300 includes a mode determiner 305, a predictor 310, a transform and quantizer 325, an inverse transform and inverse quantizer 330, an entropy encoder 335, a reconstructor 315, and a filter. It may include a part 320. Operation for each part is similar to that described in FIG. 1, and the mode determiner 305 is a component that determines whether to use an intra prediction method or an inter prediction method as an image encoding method.
계층 간 영상 부호화 방법 중 하나로 기본 계층에서 생성된 블록의 픽셀 정보가 업샘플링하여 향상 계층에서 사용할 수 있다. 이러한 방법을 사용하는 경우, 기본 계층(300)의 블록의 픽셀 정보는 업샘플링부(340)에서 업샘플링되고, 추가의 계층 간 필터링부(345, 347)를 거친 후에 향상 계층(350)으로 입력될 수 있다. 업 샘플링을 수행하기 위해 보간(interpolation)을 수행할 수 있다.As one of the inter-layer video encoding methods, pixel information of blocks generated in the base layer may be upsampled and used in the enhancement layer. When using this method, the pixel information of the block of the base layer 300 is upsampled by the upsampling unit 340, and then inputs to the enhancement layer 350 after passing through additional inter-layer filtering units 345 and 347. Can be. Interpolation may be performed to perform upsampling.
또 다른 계층 간 부호화 방법으로 기본 계층에서 블록의 예측에 사용된 화면 내 예측 모드 정보 또는 움직임 예측 관련 정보를 향상 계층에 전송하고, 이러한 예측 관련 정보를 향상 계층에서 이용할 수도 있다. 계층 간 영상 부호화 방법은 이뿐만 아니라 다양한 방법을 사용할 수 있고 기본 계층으로부터 영상 예측 정보를 수신하여 향상 계층에서 예측을 수행하는 방법을 계층 간 예측 방법(inter layer prediction)이라고 할 수 있다.In another inter-layer encoding method, intra prediction mode information or motion prediction related information used for block prediction in the base layer may be transmitted to the enhancement layer, and such prediction related information may be used in the enhancement layer. In addition, the inter-layer video encoding method may use various methods, and the method of receiving image prediction information from the base layer and performing prediction in the enhancement layer may be referred to as inter layer prediction.
또한 향상 계층에서는 기본 계층으로부터 영상 예측 정보를 수신하지 않고 향상 계층의 정보만을 사용하여 영상 예측 및 부호화 과정을 수행할 수도 있다.In addition, the enhancement layer may perform the image prediction and encoding process using only the information of the enhancement layer without receiving the image prediction information from the base layer.
향상 계층(350)도 기본 계층(300)과 동일하게 모드 결정부(355), 예측부(360), 변환 및 양자화부(375), 역변환 및 역양자화부(380), 엔트로피 부호화부(385), 복원부(365), 필터부(370)를 포함할 수 있다. 각 구성부별 동작은 도 1에서 개시한 바와 동일한 구성을 가질 수 있다. 향상 계층(350)의 모드 결정부(355)는 향상 계층(350) 내의 영상 정보를 이용한 영상 예측 방법 또는 기본 계층의 영상 정보를 이용한 영상 예측 방법(inter layer prediction) 등 여러 가지 영상 부호화 방법 중 하나의 예측 방법을 선택하기 위한 구성부로 사용될 수 있다.The enhancement layer 350 is also the same as the base layer 300 by the mode determiner 355, the predictor 360, the transform and quantizer 375, the inverse transform and inverse quantizer 380, and the entropy encoder 385. The restoring unit 365 may include a filter unit 370. The operation of each component may have the same configuration as described in FIG. 1. The mode determiner 355 of the enhancement layer 350 may include one of various image encoding methods, such as an image prediction method using image information in the enhancement layer 350 or an inter layer prediction method using image information of a base layer. It can be used as a component for selecting the prediction method of.
즉, 향상 계층의 모드 결정부(355)에서는 영상 부호화부에서 수행할 영상 예측 방법을 선택할 수 있다. That is, the mode determiner 355 of the enhancement layer may select an image prediction method to be performed by the image encoder.
업샘플링 및 계층 간 필터링부(340, 345, 347)에서 생성된 정보, 기본 계층 정보, 향상 계층 정보는 멀티플렉싱(multiplexing, 395)이 수행되어 계층적 비트스트림(scalable bitstream)으로 생성되어 영상 복호화부로 전송될 수 있다.The information, base layer information, and enhancement layer information generated by the upsampling and inter-layer filtering units 340, 345, and 347 are multiplexed to generate a scalable bitstream, which is then converted into an image decoder. Can be sent.
이하 본 발명의 실시예에서는 기본 계층의 색차 블록 화면 내 예측 모드와 향상 계층의 휘도 블록 화면 내 예측 모드 정보를 기초로 향상 계층의 색차 블록 화면 내 예측 모드를 부호화하는 방법에 대해 개시한다. 향상 계층의 예측부(360)에서 예측 수행 결과 기본 계층의 색차 블록 화면 내 예측 모드와 향상 계층의 휘도 블록 화면 내 예측 모드 정보가 동일한 지 여부를 판단하여 엔트로피 부호화부(385)에서 향상 계층의 색차 블록 화면 내 예측 모드를 부호화할지 여부를 판단할 수 있다. Hereinafter, an embodiment of the present invention discloses a method of encoding a prediction mode in a color difference block screen of an enhancement layer based on prediction modes in a color difference block screen of a base layer and prediction mode information in a luminance block screen of an enhancement layer. The prediction unit 360 of the enhancement layer determines whether the prediction mode in the color difference block screen of the base layer is the same as the prediction mode information in the luminance block screen of the enhancement layer, and the entropy encoder 385 determines the color difference of the enhancement layer. It may be determined whether to encode the prediction mode in the block picture.
도 4는 본 발명의 실시예에 따른 계층적 비디오 복호화 방법을 나타낸 개념도이다. 4 is a conceptual diagram illustrating a hierarchical video decoding method according to an embodiment of the present invention.
도 4를 참조하면, 영상 정보는 영상 부호화부로부터 생성된 계층적 비트스트림(scalable bitstream)을 통해 전송될 수 있다. 계층적 비트스트림은 디멀티플렉싱(demultiplexing, 405)되어 기본 계층(400)의 엔트로피 복호화부(410), 향상 계층(450)의 엔트로피 복호화부(455) 및 필터 계수 엔트로피 복호화부(485)로 입력될 수 있다.Referring to FIG. 4, image information may be transmitted through a scalable bitstream generated from an image encoder. The hierarchical bitstream is demultiplexed 405 to be input to the entropy decoder 410 of the base layer 400, the entropy decoder 455 of the enhancement layer 450, and the filter coefficient entropy decoder 485. Can be.
기본 계층(400)에 대해 우선적으로 기술하면, 기본 계층(400)의 엔트로피 복호화부(410)로 입력된 정보는 역양자화부 및 역변환부(415) 및 모드 결정부(420)로 입력될 수 있다. 복호화된 정보를 기초로 모드 결정부(420)에서는 화면 간 예측(inter prediction)을 수행할 것인지 아니면 화면 내 예측(intra prediction)을 수행할 것인지 여부에 대해 결정할 수 있다. 모드 결정부(420)에서 출력된 예측 모드 정보를 기초로 예측부(425)에서는 예측을 수행할 수 있다. 역양자화부 및 역변환부(415)에서는 엔트로피 복호화부(410)에서 생성된 잔차 정보를 역변환 및 역양자화하여 잔차 정보를 생성할 수 있다. 즉, 도 2의 영상 복호화 단계와 동일한 방법으로 영상 복호화가 수행될 수 있다.When the base layer 400 is described first, information input to the entropy decoder 410 of the base layer 400 may be input to the inverse quantizer, the inverse transformer 415, and the mode determiner 420. . Based on the decoded information, the mode determiner 420 may determine whether to perform inter prediction or intra prediction. The prediction unit 425 may perform prediction based on the prediction mode information output from the mode determiner 420. The inverse quantizer and the inverse transformer 415 may generate residual information by inversely transforming and inverse quantizing the residual information generated by the entropy decoder 410. That is, image decoding may be performed in the same manner as the image decoding step of FIG. 2.
기본 계층(400)에서 영상 복호화 과정을 마친 후 생성된 정보는 만약, 향상 계층(450)이 기본 계층(400)의 블록에 포함된 픽셀을 업샘플링한 정보를 사용하여 복호화를 수행할 경우 업샘플링부(440)로 전송될 수 있다. 업샘플링된 정보는 계층 간 필터링(445, 447)을 거쳐서 향상 계층(450)으로 전송될 수 있다.The information generated after the image decoding process is completed in the base layer 400 may be upsampled if the enhancement layer 450 performs decoding using information that upsamples the pixels included in the block of the base layer 400. It may be sent to the unit 440. The upsampled information may be transmitted to the enhancement layer 450 through inter-layer filtering 445 and 447.
향상 계층(450)의 엔트로피 복호화부(455)에서 복호화된 정보를 기초로 향상 계층(450)의 모드 결정부(465)에서는 영상 부호화 단계에서 향상 계층(450)은 어떠한 영상 부호화 방법 또는 영상 예측 방법을 사용하여 부호화를 수행하였는지 여부를 판단할 수 있다.Based on the information decoded by the entropy decoding unit 455 of the enhancement layer 450, the mode determining unit 465 of the enhancement layer 450 may use any image encoding method or image prediction method in the image encoding step. It may be determined whether encoding is performed using.
향상 계층(450)의 모드 결정부(465)에서는 영상 부호화부의 향상 계층에서 부호화를 수행 시 사용한 영상 예측 방법과 동일한 예측 방법을 사용하여 영상 복호화를 수행할 수 있다. 영상 복호화 단계에 수행되는 영상 예측 방법으로 크게는 기본 계층(400)의 정보를 참조하여 영상 예측을 수행하는 방법 또는 기본 계층(400)의 정보를 사용하지 않고 영상 예측을 수행하는 방법을 사용할 수 있다. 기본 계층(400)의 정보를 사용하지 않고 영상 예측 수행하는 경우 향상 계층(450)에서는 기본 계층(400)으로부터 따로 영상 관련 정보를 수신하지 않는다.The mode determiner 465 of the enhancement layer 450 may perform image decoding by using the same prediction method as the image prediction method used when encoding is performed in the enhancement layer of the image encoder. As an image prediction method performed in the image decoding step, a method of performing image prediction with reference to information of the base layer 400 may be large, or a method of performing image prediction without using information of the base layer 400. . When image prediction is performed without using information of the base layer 400, the enhancement layer 450 does not receive image related information from the base layer 400.
이하 본 발명의 실시예에서는 계층적 비디오 코딩(scalable video coding) 방법에 대해 개시한다. 계층적 영상 복호화 방법 중 베이스 예측 모드는 향상 계층(enhancement layer)의 블록을 예측하기 위해 기본 계층(base layer)의 블록을 예측하기 위해 사용된 영상 예측 정보를 사용하는 모드를 의미할 수 있다. 영상 예측 정보는 예를 들어, 기본 계층의 블록에서 사용한 화면 내 예측 모드, 또는 움직임 예측 관련 정보 등이 될 수 있다.Hereinafter, an embodiment of the present invention discloses a scalable video coding method. The base prediction mode in the hierarchical image decoding method may refer to a mode using image prediction information used to predict a block of a base layer to predict a block of an enhancement layer. The image prediction information may be, for example, an intra prediction mode or motion prediction related information used in a block of the base layer.
이하 본 발명의 실시예에서는 기본 계층의 색차 블록 화면 내 예측 모드와 향상 계층의 휘도 블록 화면 내 예측 모드 정보를 기초로 향상 계층의 색차 블록 화면 내 예측 모드를 유도하는 방법에 대해 개시한다. 향상 계층(450)의 엔트로피 복호화부(455)에서 복호화된 기본 계층의 색차 블록 화면 내 예측 모드와 향상 계층의 휘도 블록 화면 내 예측 모드를 기초로 향상 계층의 예측부(465)에서는 향상 계층의 색차 블록 화면 내 예측 모드의 값을 결정할 수 있다. 구체적인 실시예에 대해서는 추가적으로 상술한다.Hereinafter, an embodiment of the present invention discloses a method of deriving a prediction mode in a chrominance block screen of an enhancement layer based on prediction modes in a chrominance block screen of a base layer and prediction mode information in a luminance block screen of an enhancement layer. Based on the prediction mode in the color difference block screen of the base layer decoded by the entropy decoder 455 of the enhancement layer 450 and the prediction mode in the luminance block screen of the enhancement layer, the enhancement layer predictor 465 uses the color difference of the enhancement layer. The value of the prediction mode in the block screen may be determined. Specific embodiments will be further described in detail.
도 5에서는 베이스 예측 모드를 사용한 계층적 영상 복호화 방법에 대해 추가적으로 개시한다.5 further describes a hierarchical image decoding method using a base prediction mode.
도 5는 본 발명의 실시예에 따른 베이스 예측 모드를 사용한 계층적 영상 복호화 방법을 나타낸 개념도이다.5 is a conceptual diagram illustrating a hierarchical image decoding method using a base prediction mode according to an embodiment of the present invention.
도 5에서는 향상 계층의 블록 단위에 대해 기본 계층의 대응되는 블록 정보의 영상 예측 관련 정보를 사용하여 향상 계층의 블록 단위에 대한 예측을 수행하는 방법에 대해 개시한다.5 illustrates a method of performing prediction on a block unit of an enhancement layer by using image prediction related information of corresponding block information of a base layer with respect to a block unit of an enhancement layer.
도 5를 참조하면, 기본 계층의 블록 단위(500)에서 화면 내 예측 또는 화면 간 예측을 수행한 경우, 화면 내 예측에 사용된 정보(예를 들어, 화면 내 예측 모드) 또는 화면 간 예측에 사용된 정보(예를 들어, 움직임 예측 관련 정보)가 향상 계층의 블록(540)에 대한 영상 예측을 수행하는데 사용될 수 있다. 예를 들어, 기본 계층의 블록 단위(500)이 화면 내 예측 모드로 DC 모드를 사용한 경우, 향상 계층에서 기본 계층의 블록 단위(500)에 대응되는 블록(540)에서도 동일하게 DC 모드를 사용하여 화면 내 예측을 수행할 수 있다. 또 다른 예로 기본 계층의 블록 단위(500)이 화면 간 예측 방법을 수행시 벡터 (x,y)를 사용한 경우, 향상 계층에서 기본 계층의 블록 단위(500)에 대응되는 블록(540)에서는 벡터 (x,y)를 향상 계층에 맞게 스케일링 한 벡터 (x’,y’)을 사용하여 화면 간 예측을 수행할 수 있다.Referring to FIG. 5, when intra screen prediction or inter screen prediction is performed in the block unit 500 of the base layer, information used for intra screen prediction (eg, intra screen prediction mode) or inter screen prediction is used. Information (eg, motion prediction related information) may be used to perform image prediction on block 540 of the enhancement layer. For example, if the block unit 500 of the base layer uses the DC mode as the intra prediction mode, the block 540 corresponding to the block unit 500 of the base layer in the enhancement layer uses the same DC mode. Intra-prediction can be performed. As another example, when the block unit 500 of the base layer uses a vector (x, y) when performing the inter prediction method, the block 540 corresponding to the block unit 500 of the base layer in the enhancement layer corresponds to the vector ( Inter-prediction may be performed using a vector (x ', y') scaled to x, y) to the enhancement layer.
기본 계층의 영상 단위와 향상 계층의 영상 단위가 대응된다는 것은 각각의 계층의 픽쳐에서 영상 단위의 상대적인 위치가 동일하다는 의미를 가질 수도 있고, 계층 간 예측을 수행 시 계층 간에 참조되는 영상 단위라는 의미를 가질 수도 있다.The correspondence between the image unit of the base layer and the image unit of the enhancement layer may mean that the relative positions of the image units are the same in the picture of each layer, or that the image unit is referred to between layers when performing inter-layer prediction. May have
도 5에서 베이스 예측 모드를 설명하기 위해 블록 단위를 예시하였으나, 다른 영상 단위인 슬라이스(slice), 픽쳐(picture) 단위로 베이스 예측 모드를 사용할지 여부를 결정할 수도 있다. 예를 들어, 슬라이스 단위로 베이스 예측 모드를 수행하는 경우 해당 슬라이스에 포함된 모든 예측 블록에 대해 기본 계층의 해당 예측 블록으로부터 예측 관련 정보(예를 들어, 화면 내 예측 모드 정보, 움직임 예측 관련 정보)를 유도하여 예측을 수행할 수 있다.Although a block unit is illustrated in FIG. 5 to describe the base prediction mode, it may be determined whether to use the base prediction mode on a slice or picture basis which is another image unit. For example, if the base prediction mode is performed on a slice basis, prediction related information (for example, intra prediction mode information and motion prediction related information) from the corresponding prediction block of the base layer for all prediction blocks included in the slice. Can be derived to perform the prediction.
즉, 계층적 영상 복호화 방법에서 계층 간 예측 방법으로 베이스 예측 모드를 사용하는 경우 기본 계층의 영상 단위(500)에서 사용된 영상 예측 정보가 복호화되어 향상 계층의 영상 단위(540)에서 영상 예측을 수행하기 위해 사용된다. 향상 계층에서는 영상 부호화기에서 전송된 잔차 정보(또는 잔차 신호)(520)와 기본 계층에서 전송된 예측 관련 정보를 기초로 예측된 블록과 더해져 향상 계층에서 복원 블록(540)을 생성할 수 있다.That is, when the base prediction mode is used as the inter-layer prediction method in the hierarchical image decoding method, image prediction information used in the image unit 500 of the base layer is decoded to perform image prediction in the image unit 540 of the enhancement layer. Used to In the enhancement layer, the reconstruction block 540 may be generated in the enhancement layer by adding the predicted block based on the residual information (or residual signal) 520 transmitted from the image encoder and the prediction related information transmitted from the base layer.
화면 내 예측 모드 정보는 휘도 샘플과 색차 샘플에 대하여 따로 전송될 수 있는데, 예를 들어, 기본 계층의 블록이 화면 내 예측을 수행하였다면, 기본 계층 블록의 예측 관련 정보(예를 들어, intra_luma_pred_mode, intra_chroma_pred_mode 등)를 유도하여, 향상 계층에서 대응되는 예측 블록의 화면 내 예측에 사용할 수 있다. 참조 픽셀(reference pixel 또는 reference sample) 정보는 향상 계층 주변의 복원 픽셀로부터 획득하거나, 기본 계층의 주변 복원 픽셀로부터 획득할 수 있다.The intra prediction mode information may be transmitted separately for the luminance sample and the chrominance sample. For example, if the block of the base layer performs intra prediction, the prediction related information of the base layer block (for example, intra_luma_pred_mode, intra_chroma_pred_mode) And the like) can be used for intra prediction of the corresponding prediction block in the enhancement layer. Reference pixel or reference sample information may be obtained from reconstructed pixels around the enhancement layer, or may be obtained from the reconstructed pixels around the base layer.
기본 계층의 영상 예측 정보를 바로 향상 계층의 대응되는 블록을 예측하기 위해 사용할 수도 있으나 또 다른 방법으로 향상 계층의 블록에 대한 MPM을 산출하기 위해서도 사용할 수 있다.The image prediction information of the base layer may be used to directly predict the corresponding block of the enhancement layer. Alternatively, the image prediction information of the base layer may be used to calculate the MPM for the block of the enhancement layer.
예를 들어, 기본 계층의 블록(500)에서 사용되는 화면 내 예측 모드 정보를 직접적으로 향상 계층의 블록의 화면 내 예측을 수행하기 위해 사용하지 않고, 향상 계층의 블록(540)에서 화면 내 예측을 수행 시 사용되는 MPM(most probable mode)를 산출하기 위한 정보로서 사용할 수도 있다. MPM은 현재 블록의 화면 내 예측 모드의 후보값으로서 이하, 도 6에 MPM에 대해 추가적으로 설명한다.For example, instead of using the intra prediction mode information used in the block 500 of the base layer to directly perform the intra prediction of the block of the enhancement layer, the intra prediction is performed in the block 540 of the enhancement layer. It can also be used as information for calculating the most probable mode (MPM) used in the execution. The MPM is a candidate value of the intra prediction mode of the current block. Hereinafter, the MPM will be further described with reference to FIG. 6.
도 6은 화면내 예측 모드를 설명하기 위한 개념도이다. 6 is a conceptual diagram illustrating an intra prediction mode.
블록에 대하여 화면 내 예측을 수행하기 위한 화면 내 예측 모드는 도 6의 (A)와 같이 다양한 방향을 가진 방향성 예측 모드(2번 화면 내 예측 모드(600) 내지 34번 화면 내 예측 모드(610))와 비방향성 예측 모드(0번 화면 내 예측 모드(planar, 620), 1번 화면 내 예측 모드(DC, 630))를 가질 수 있다.The intra prediction mode for performing the intra prediction on the block includes a directional prediction mode having various directions as shown in FIG. 6A (the intra prediction screen 600 in the second screen 600 to the intra prediction screen 610 in 34). ) And a non-directional prediction mode (prediction mode (planar 620 in screen 0, 620), intra prediction mode (DC, 630) in screen 1).
방향성 예측 모드는 화면 내 예측을 수행 시 참조 픽셀 정보를 기초로 일정한 방향성을 가지고 예측을 수행하는 화면 내 예측 모드이고 비방향성 예측 모드는 참조 픽셀 정보를 기초로 방향성이 없이 화면 내 예측을 수행하는 화면 내 예측 모드이다.Directional prediction mode is an intra prediction mode that performs prediction with constant directionality based on reference pixel information when performing intra prediction, and non-directional prediction mode performs intra prediction without direction based on reference pixel information. My prediction mode is
도 6의 (B)는 휘도 블록 화면 내 예측 모드 및 색차 블록 화면 내 예측 모드 사이의 관계를 나타낸 개념도이다.FIG. 6B is a conceptual diagram illustrating a relationship between a prediction mode in a luminance block screen and a prediction mode in a chrominance block screen.
컬러 영상을 표현하기 위해서는 하나의 영상 영역에는 영상의 밝기에 대한 정보인 휘도 샘플(Y)에 대한 정보와 영상의 색차에 대한 정보인 색차 샘플(Cb, Cr)에 대한 정보가 포함되어야 한다. 휘도 샘플과 색차 샘플은 다양한 포맷으로 생성될 수 있다. 예를 들어, Y 샘플:Cb 샘플:Cr 샘플의 비율이 4:4:4, 4:2:2, 4:2:0의 비율 등 다양한 비율을 가지고 생성될 수 있다.In order to express a color image, one image area should include information about the luminance sample Y, which is information about the brightness of the image, and information about the color difference samples Cb and Cr, which are information about the color difference of the image. Luminance samples and chrominance samples may be generated in various formats. For example, the ratio of Y sample: Cb sample: Cr sample may be generated with various ratios such as 4: 4: 4, 4: 2: 2, 4: 2: 0.
도 6의 (B)를 참조하면, 기본 계층(base layer)의 블록은 기본 계층 휘도 블록(base layer luma block, 640), 기본 계층 색차 블록(base layer chroma block, 650)이 존재할 수 있다. 설명의 편의상 색차 블록과 휘도 블록을 분리하여 설명하나, 색차 블록과 휘도 블록에 포함된 픽셀(샘플)들을 특정한 영역의 영상 정보를 표현하기 위해 동일한 영상 영역에 포함될 수 있다.Referring to FIG. 6B, the base layer block may include a base layer luma block 640 and a base layer chroma block 650. For convenience of description, the chrominance block and the luminance block are separated and described, but pixels (samples) included in the chrominance block and the luminance block may be included in the same image region to express image information of a specific region.
기본 계층의 블록에 대응되는 향상 계층(enhanced layer)의 블록은 향상 계층 휘도 블록(enhanced layer luma block, 670), 향상 계층 색차 블록(enhanced layer chroma block, 690)이 존재할 수 있다.An enhancement layer luma block 670 and an enhancement layer chroma block 690 may exist in an enhancement layer block corresponding to a block of the base layer.
본 발명의 실시예에 따른 향상 계층의 색차 블록의 화면 내 예측 모드 유도 방법은 기본 계층의 색차 블록 화면 내 예측 모드(660)와 향상 계층의 휘도 블록 화면 내 예측 모드(680)가 동일한지 여부를 비교하여 향상 계층의 색차 블록 화면 내 예측 모드(695)를 시그널링할지 여부에 대해 결정할 수 있다.The intra prediction mode derivation method of the chrominance block of the enhancement layer according to an embodiment of the present invention determines whether the intra prediction mode 660 of the chrominance block screen of the base layer is the same as the prediction mode 680 of the luminance block of the enhancement layer. In comparison, it may be determined whether to signal a prediction mode 695 in the chrominance block picture of the enhancement layer.
(1) 기본 계층의 색차 블록 화면 내 예측 모드(660)와 향상 계층의 휘도 블록 화면 내 예측 모드(680)는 동일할 수 있다. 이러한 경우, 향상 계층의 색차 블록 화면 내 예측 모드(695)를 부호화하여 시그널링하지 않는다. 기본 계층의 색차 블록 화면 내 예측 모드(660)와 동일한 값을 향상 계층의 색차 블록 화면 내 예측 모드(695)로 유도하여 향상 계층의 색차 블록(690)에 대한 화면 내 예측을 수행할 수 있다.(1) The prediction mode 660 in the color difference block screen of the base layer and the prediction mode 680 in the luminance block screen of the enhancement layer may be the same. In this case, the prediction mode 695 in the chrominance block picture of the enhancement layer is encoded and not signaled. Intra-prediction of the color difference block 690 of the enhancement layer may be performed by inducing the same value as the prediction mode 660 of the color difference block screen of the base layer to the prediction mode 695 of the color difference block screen of the enhancement layer.
(2) 기본 계층의 색차 블록 화면 내 예측 모드(660)와 향상 계층의 휘도 블록 화면 내 예측 모드(680)가 동일하지 않은 경우가 존재할 수 있다. 이러한 경우 향상 계층의 색차 블록 화면 내 예측 모드(695)를 부호화하여 전송할 수 있다. (2) There may be a case in which the prediction mode 660 in the color difference block screen of the base layer and the prediction mode 680 in the luminance block screen of the enhancement layer are not the same. In this case, the prediction mode 695 in the color difference block screen of the enhancement layer may be encoded and transmitted.
예를 들어, 향상 계층의 색차 블록 화면 내 예측 모드를 부호화하기 위해서는 아래의 표 1과 같은 테이블을 사용하여 향상 계층의 휘도 블록의 화면 내 예측 모드에 따라 색차 블록의 화면 내 예측을 수행할 수 있다. For example, in order to encode the intra prediction mode of the chrominance block screen of the enhancement layer, the intra prediction of the chrominance block may be performed according to the intra prediction mode of the luminance block of the enhancement layer using a table as shown in Table 1 below. .
표 1
Figure PCTKR2013010604-appb-T000001
Table 1
Figure PCTKR2013010604-appb-T000001
표 1을 참조하면, 색차 블록의 화면 내 예측 모드로 휘도 블록의 화면 내 예측 모드와 동일한 화면 내 예측 모드를 사용하는 DM 모드가 존재한다. 부호화 또는 복호화된 색차 블록의 화면 내 예측 모드(intra_chroma_pred_mode)가 4번인 경우, 색차 블록이 DM 모드임을 지시한다. 즉, 부호화기에서 색차 블록이 4번 화면 내 예측 모드로 부호화되어 복호화기로 전송된 경우, 복호화 단계에서는 휘도 블록의 화면 내 예측 모드 값과 동일한 값을 색차 블록의 화면 내 예측 모드 값으로 사용할 수 있다.Referring to Table 1, there is a DM mode using the same intra prediction mode as the intra prediction mode of the luminance block as the intra prediction mode of the chrominance block. When the intra prediction mode (intra_chroma_pred_mode) of the encoded or decoded color difference block is 4, it indicates that the color difference block is the DM mode. That is, when the chrominance block is encoded in the intra prediction mode 4 and transmitted to the decoder, the encoder may use the same value as the intra prediction mode value of the chrominance block in the decoding step.
DM 모드가 사용됨에 따라 색차 블록은 위와 같이 휘도 블록 화면 내 예측 모드에 따라 동일한 색차 블록 화면 내 예측 모드 번호에서도 다른 화면 내 예측 모드가 매핑될 수 있다.As the DM mode is used, different intra prediction modes may be mapped to the same color difference block prediction mode numbers in the same color difference block screen according to the prediction mode in the luminance block screen as described above.
예를 들어, 향상 계층의 휘도 블록 화면 내 예측 모드가 0 번 모드(플레이너 모드)인 경우, 아래와 같이 색차 블록의 화면 내 예측 모드 번호에 따른 화면 내 예측 모드가 매핑될 수 있다. For example, when the prediction mode in the luminance block screen of the enhancement layer is the mode 0 (planar mode), the intra prediction mode according to the intra prediction mode number of the chrominance block may be mapped as follows.
(1) 색차 블록의 화면 내 예측 모드(intra_chroma_pred_mode)가 0 번인 경우, 34 번 화면 내 예측 모드(사선 모드)(1) If the intra prediction mode (intra_chroma_pred_mode) of the color difference block is 0, the intra prediction mode of the 34th screen (diagonal mode)
(2) 색차 블록의 화면 내 예측 모드(intra_chroma_pred_mode)가 1 번인 경우, 26번 화면 내 예측 모드(수직 모드)(2) Intra picture prediction mode (vertical mode) when the intra prediction mode (intra_chroma_pred_mode) of the color difference block is 1
(3) 색차 블록의 화면 내 예측 모드(intra_chroma_pred_mode)가 2 번인 경우, 10번 화면 내 예측 모드(수평 모드)(3) When the intra prediction mode (intra_chroma_pred_mode) of the chrominance block is 2, the intra prediction mode (horizontal mode) is 10.
(4) 색차 블록의 화면 내 예측 모드(intra_chroma_pred_mode)가 3 번인 경우, 1번 화면 내 예측 모드 (DC 모드)(4) Intra prediction mode 1 (DC mode) when the intra prediction mode (intra_chroma_pred_mode) of the color difference block is 3 times.
(5) 색차 블록의 화면 내 예측 모드(intra_chroma_pred_mode)가 4 번인 경우, 휘도 블록 화면 내 예측 모드 (플레이너 모드)가 매핑될 수 있다.(5) When the intra prediction mode (intra_chroma_pred_mode) of the chrominance block is 4, the intra prediction mode (planar mode) may be mapped.
도 7은 본 발명의 실시예에 따른 색차 블록의 화면 내 예측 모드를 복호화하는 방법을 나타낸 순서도이다. 7 is a flowchart illustrating a method of decoding an intra prediction mode of a chrominance block according to an embodiment of the present invention.
도 7을 참조하면, 기본 계층의 색차 블록 화면 내 예측 모드가 향상 계층의 휘도 블록 화면 내 예측 모드와 동일한지 여부를 판단한다(단계 S700).Referring to FIG. 7, it is determined whether the prediction mode in the chrominance block screen of the base layer is the same as the prediction mode in the luminance block screen of the enhancement layer (step S700).
본 발명의 실시예에 따른 향상 계층의 색차 블록 화면 내 예측 모드 시그널링 방법은 부호화 단계에서 기본 계층의 색차 블록 화면 내 예측 모드가 향상 계층의 휘도 블록 화면 내 예측 모드와 동일한지 여부를 비교하여 향상 계층의 색차 블록 화면 내 예측 모드에 대한 정보를 전송할지 여부를 아래와 같이 결정할 수 있다.The prediction mode signaling method in the color difference block screen of the enhancement layer according to an embodiment of the present invention compares whether the prediction mode in the color difference block screen of the base layer is the same as the prediction mode in the luminance block picture of the enhancement layer in the encoding step. Whether to transmit information about the prediction mode in the chrominance block screen can be determined as follows.
(1) 기본 계층의 색차 블록 화면 내 예측 모드가 향상 계층의 휘도 블록 화면 내 예측 모드와 동일한 경우 향상 계층의 색차 블록 화면 내 예측 모드를 기본 계층의 색차 블록 화면 내 예측 모드 또는 향상 계층의 휘도 블록 화면 내 예측 모드와 동일한 값으로 사용하여 화면 내 예측을 수행한다. 또한, 향상 계층의 색차 블록 화면 내 예측 모드를 부호화하지 않고 전송할 수 있다.(1) When the prediction mode in the chrominance block screen of the base layer is the same as the prediction mode in the luminance block screen of the enhancement layer, the prediction mode in the chrominance block screen of the enhancement layer is changed into the prediction mode in the chrominance block screen of the enhancement layer or the luminance block of the enhancement layer. Intra prediction is performed using the same value as the intra prediction mode. In addition, the prediction mode in the color difference block screen of the enhancement layer may be transmitted without encoding.
(2) 기본 계층의 색차 블록 화면 내 예측 모드가 향상 계층의 휘도 블록 화면 내 예측 모드와 동일하지 않은 경우 향상 계층의 색차 블록 화면 내 예측 모드를 부호화하여 전송할 수 있다.(2) When the prediction mode in the chrominance block screen of the base layer is not the same as the prediction mode in the luminance block screen of the enhancement layer, the prediction mode in the chrominance block screen of the enhancement layer may be encoded and transmitted.
즉, 복호화 단계에서는 기본 계층의 색차 블록 화면 내 예측 모드가 향상 계층의 휘도 블록 화면 내 예측 모드와 동일한 경우, 향상 계층의 색차 블록 화면 내 예측 모드에 대한 시그널링 없이 기본 계층의 색차 블록 화면 내 예측 모드와 동일한 화면 내 예측 모드를 사용하여 향상 계층의 색차 블록에 대한 화면 내 예측이 수행되었음을 판단할 수 있다.That is, in the decoding step, when the prediction mode in the chrominance block screen of the base layer is the same as the prediction mode in the luminance block screen of the enhancement layer, the prediction mode in the chrominance block screen of the base layer without signaling the prediction mode in the chrominance block screen of the enhancement layer. It may be determined that intra prediction for the color difference block of the enhancement layer is performed using the same intra prediction mode as follows.
향상 계층의 휘도 블록 화면 내 예측 모드 또는 기본 계층의 색차 블록 화면 내 예측 모드 정보를 향상 계층의 색차 블록 화면 내 예측 모드 정보로 사용한다(단계 S710). The prediction mode information in the luminance block screen of the enhancement layer or the prediction mode information in the color difference block screen of the base layer is used as the prediction mode information in the color difference block screen of the enhancement layer (step S710).
기본 계층의 색차 블록 화면 내 예측 모드가 향상 계층의 휘도 블록 화면 내 예측 모드와 동일한 경우, 향상 계층의 색차 블록 화면 내 예측 모드값이 기본 계층의 색차 블록 화면 내 예측 모드와 동일한 값을 사용하여 이루어졌다고 판단할 수 있다. 따라서, 기본 계층의 색차 블록 화면 내 예측 모드를 유도하여 향상 계층의 색차 블록에 대한 화면 내 예측을 수행할 수 있다.If the prediction mode in the color difference block screen of the base layer is the same as the prediction mode in the luminance block screen of the enhancement layer, the prediction mode value in the color difference block screen of the enhancement layer is made using the same value as the prediction mode in the color difference block screen of the base layer. You can judge that you lost. Therefore, an intra prediction on the color difference block of the enhancement layer may be performed by deriving an intra prediction mode of the color difference block of the base layer.
향상 계층의 색차 블록 화면 내 예측 모드 정보를 복호화한다(단계 S720).The prediction mode information in the color difference block picture of the enhancement layer is decoded (step S720).
기본 계층의 색차 블록 화면 내 예측 모드가 향상 계층의 휘도 블록 화면 내 예측 모드와 동일하지 않아서 향상 계층의 색차 블록 화면 내 예측 모드 정보가 따로 전송되는 경우, 해당 정보를 복호화하여 색차 블록의 화면 내 예측 모드 정보를 생성한다.If the prediction mode information in the chrominance block screen of the enhancement layer is not the same as the prediction mode in the luminance block screen of the enhancement layer, and the prediction mode information in the chrominance block screen of the enhancement layer is transmitted separately, the intra prediction of the chrominance block is decoded by decoding the information. Generate mode information.
본 발명의 실시예에 따른 향상 계층의 색차 블록의 화면 내 예측 모드 전송 방법에서는 기본 계층의 색차 블록 화면 내 예측 모드와 향상 계층의 휘도 블록 화면 내 예측 모드가 동일한지 여부 및 기본 계층의 색차 블록 화면 내 예측 모드가 어떠한 화면 내 예측 모드인지를 판단하여 향상 계층의 휘도 블록의 화면 내 예측 모드와 향상 계층의 색차 블록의 화면 내 예측 모드 번호 사이의 매핑테이블이 변할 수 있다.In the intra prediction mode transmission method of the chrominance block of the enhancement layer according to an embodiment of the present invention, whether the prediction mode in the chrominance block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are the same and the chrominance block screen of the base layer By determining which intra prediction mode is the intra prediction mode, the mapping table between the intra prediction mode of the luminance block of the enhancement layer and the intra prediction mode number of the color difference block of the enhancement layer may be changed.
아래의 표 2는 변화된 향상 계층의 색차 블록의 화면 내 예측 모드를 전송하기 위한 테이블을 나타낸다.Table 2 below shows a table for transmitting the intra prediction mode of the color difference block of the changed enhancement layer.
표 2
Figure PCTKR2013010604-appb-T000002
TABLE 2
Figure PCTKR2013010604-appb-T000002
표 2를 참조하면, 기존의 테이블에서 34번 화면 내 예측 모드가 있었던 위치에 eM(extra mode)을 정의하여 기본 계층의 색차 블록 화면 내 예측 모드와 향상 계층의 휘도 블록 화면 내 예측 모드가 동일한지 여부 및 기본 계층의 색차 블록 화면 내 예측 모드 정보에 따라 eM의 값이 변화될 수 있다.Referring to Table 2, an eM (extra mode) is defined at the position where the prediction mode in screen 34 was in the existing table to determine whether the prediction mode in the chrominance block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are the same. The value of eM may change depending on whether the prediction mode is included in the color difference block screen of the base layer.
(1) 기본 계층의 색차 블록 화면 내 예측 모드가 향상 계층의 휘도 블록 화면 내 예측 모드와 동일하면, eM은 34번 화면 내 예측 모드로 설정된다. 기본 계층의 색차 블록 화면 내 예측 모드가 향상 계층의 휘도 블록 화면 내 예측 모드와 동일한 경우 따로 향상 계층의 색차 블록의 정보를 시그널링해주지 않는다. 따라서, eM의 위치에서 전송되는 화면 내 예측 모드를 변화시키지 않고 34번 화면 내 예측 모드를 사용하여 전송할 수 있다.(1) If the prediction mode in the chrominance block picture of the base layer is the same as the prediction mode in the luminance block picture of the enhancement layer, the eM is set to the intra prediction picture mode 34. When the prediction mode in the color difference block picture of the base layer is the same as the prediction mode in the luminance block picture of the enhancement layer, information of the color difference block of the enhancement layer is not signaled separately. Accordingly, the intra prediction mode may be transmitted using the intra prediction mode 34 without changing the intra prediction mode transmitted at the location of the eM.
(2) 기본 계층의 색차 블록 화면 내 예측 모드가 향상 계층의 휘도 블록 화면 내 예측 모드와 동일하지 않으면서 기본 계층의 색차 블록 화면 내 예측 모드가 플레이너 모드(0번), DC 모드(1번), 수직 모드(26번), 수평 모드(10번) 중 하나의 화면 내 예측 모드인 경우, eM은 34번 화면 내 예측 모드로 설정된다. 기존의 테이블을 사용하여도 향상 계층의 색차 블록 화면 내 예측 모드를 유도할 수 있으므로, eM 위치에 34번 화면 내 예측 모드를 사용할 수 있다.(2) The prediction mode in the chrominance block screen of the base layer is not the same as the prediction mode in the luminance block screen of the enhancement layer, but the prediction mode in the chrominance block screen of the base layer is planar mode (No. 0), DC mode (No. 1). ), In the case of the intra prediction mode of one of the vertical mode (No. 26) and the horizontal mode (No. 10), the eM is set to the intra prediction mode of No. 34. Since the prediction mode in the chrominance block screen of the enhancement layer can be derived even using the existing table, the intra prediction screen 34 can be used at the eM position.
즉, (1), (2)의 경우, 표 2는 전술한 표 1과 동일한 테이블이 된다.That is, in the case of (1) and (2), Table 2 becomes the same table as Table 1 mentioned above.
(3) 기본 계층의 색차 블록 화면 내 예측 모드가 향상 계층의 휘도 블록 화면 내 예측 모드와 동일하지 않으면서 기본 계층의 색차 블록 화면 내 예측 모드가 플레이너 모드(0번), DC 모드(1번), 수직 모드(26번) 또는 수평 모드(10번)가 아닌 경우, eM은 기본 계층의 색차 블록 화면 내 예측 모드로 설정된다.(3) The prediction mode in the chrominance block screen of the base layer is not the same as the prediction mode in the luminance block screen of the enhancement layer, but the prediction mode in the chrominance block screen of the base layer is planar mode (No. 0), DC mode (No. 1). ), The vertical mode (No. 26) or the horizontal mode (No. 10), the eM is set to the prediction mode in the color difference block picture of the base layer.
기본 계층의 색차 블록의 화면 내 예측 모드 값을 향상 계층의 색차 블록에서도 하나의 후보 화면 내 예측 모드로서 사용할 수 있게 하기 위해 eM을 기본 계층의 색차 블록 화면 내 예측 모드로 대체할 수 있다. In order to enable the intra prediction mode value of the color difference block of the base layer to be used as the prediction mode within one candidate screen in the color difference block of the enhancement layer, eM may be replaced with the prediction mode in the color difference block image of the base layer.
아래의 표 3는 eM의 위치의 화면 내 예측 모드를 기본 계층의 색차 블록 화면 내 예측 모드로 대체된 경우를 나타낸 것이다. Table 3 below shows a case where the intra prediction mode of the position of the eM is replaced with the intra prediction mode of the color difference block of the base layer.
표 3
Figure PCTKR2013010604-appb-T000003
TABLE 3
Figure PCTKR2013010604-appb-T000003
BL_C는 기본 계층의 색차 블록 화면 내 예측 모드를 의미한다. 따라서, 특정한 조건을 만족하는 경우 표 3을 기초로 향상 계층의 색차 블록 화면 내 예측 모드에 대한 부호화 및 복호화를 수행할 수 있다.BL_C means the prediction mode in the color difference block picture of the base layer. Therefore, when a specific condition is satisfied, encoding and decoding on the prediction mode in the chrominance block picture of the enhancement layer may be performed based on Table 3.
도 8은 본 발명의 실시예에 따른 향상 계층에서 색차 블록의 화면 내 예측 모드를 전송하기 위한 테이블을 결정하는 방법을 나타낸 순서도이다.8 is a flowchart illustrating a method of determining a table for transmitting an intra prediction mode of a chrominance block in an enhancement layer according to an embodiment of the present invention.
도 8을 참조하면, 기본 계층의 색차 블록 화면 내 예측 모드와 향상 계층의 휘도 블록 화면 내 예측 모드가 동일한지 여부를 판단한다(단계 S800).Referring to FIG. 8, it is determined whether the prediction mode in the color difference block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are the same (step S800).
기본 계층의 색차 블록의 화면 내 예측 모드와 향상 계층의 휘도 블록의 화면 내 예측 모드가 동일한 경우, 향상 계층의 색차 블록 화면 내 예측 모드 테이블의 eM을 34로 설정한다(단계 S810).If the intra prediction mode of the color difference block of the base layer and the intra prediction mode of the luminance block of the enhancement layer are the same, eM of the intra prediction mode table of the color difference block of the enhancement layer is set to 34 (step S810).
기본 계층의 색차 블록 화면 내 예측 모드와 향상 계층의 휘도 블록 화면 내 예측 모드가 동일하지 않은 경우, 기본 계층의 색차 블록 화면 내 예측 모드가 플레이너 모드, DC 모드, 수직 모드, 수평 모드 중 하나의 화면 내 예측 모드인지 여부를 판단한다(단계 S820).If the prediction mode in the chrominance block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are not the same, the prediction mode in the chrominance block screen of the base layer is one of planar mode, DC mode, vertical mode, or horizontal mode. It is determined whether the prediction mode is in the screen (step S820).
단계 S820의 판단 결과, 기본 계층의 색차 블록 화면 내 예측 모드가 플레이너 모드, DC 모드, 수직 모드, 수평 모드 중 하나의 화면 내 예측 모드인 경우, 향상 계층의 색차 블록 화면 내 예측 모드 테이블의 eM을 34로 설정한다(단계 S830).As a result of the determination in step S820, when the prediction mode in the chrominance block screen of the base layer is the prediction mode in one of the planar mode, the DC mode, the vertical mode, and the horizontal mode, the eM of the prediction mode table in the chrominance block screen of the enhancement layer. Is set to 34 (step S830).
단계 S820의 판단 결과, 기본 계층의 색차 블록 화면 내 예측 모드가 플레이너 모드, DC 모드, 수직 모드 또는 수평 모드가 아닌 경우, 향상 계층의 색차 블록 화면 내 예측 모드 테이블의 eM을 기본 계층의 색차 블록 화면 내 예측 모드로 설정한다(단계 S840).As a result of the determination in step S820, when the prediction mode in the color difference block screen of the base layer is not planer mode, DC mode, vertical mode, or horizontal mode, eM of the prediction mode table in the color difference block screen of the enhancement layer is determined by the color difference block of the base layer. The mode is set to the intra prediction mode (step S840).
도 9는 본 발명의 실시예에 따른 향상 계층의 색차 블록의 화면 내 예측 모드 정보를 전송하는 방법을 나타낸 순서도이다. 9 is a flowchart illustrating a method of transmitting intra prediction picture information of a color difference block of an enhancement layer according to an embodiment of the present invention.
도 9에서는 기본 계층의 색차 블록 화면 내 예측 모드와 향상 계층의 색차 블록 화면 내 예측 모드가 동일함을 나타내는 플래그를 사용하여 향상 계층의 색차 블록 화면 내 예측 모드 정보를 전송하는 방법을 나타낸다.9 illustrates a method of transmitting prediction mode information in a color difference block screen of an enhancement layer by using a flag indicating that the prediction mode in the color difference block screen of the base layer and the prediction mode in the color difference block screen of the enhancement layer are the same.
예를 들어, 기본 계층의 색차 블록 화면 내 예측 모드와 향상 계층의 색차 블록 화면 내 예측 모드가 동일함을 나타내는 플래그를 기본 계층 색차 모드 플래그(base layer chroma mode flag)라고 정의할 수 있다. 기본 계층 색차 모드 플래그가 1인 경우 기본 계층의 색차 블록 화면 내 예측 모드와 향상 계층의 색차 블록 화면 내 예측 모드가 동일한 화면 내 예측 모드 값으로 화면 내 예측이 수행되었음을 지시하고, 기본 계층 색차 모드 플래그가 0인 경우 기본 계층의 색차 블록 화면 내 예측 모드와 향상 계층의 색차 블록 화면 내 예측 모드가 동일하지 않은 화면 내 예측 모드 값으로 화면 내 예측이 수행되었음을 지시할 수 있다.For example, a flag indicating that the prediction mode in the color difference block screen of the base layer is the same as the prediction mode in the color difference block screen of the enhancement layer may be defined as a base layer chroma mode flag. If the base layer chrominance mode flag is 1, it indicates that intra prediction is performed with the same intra prediction mode value as the intra prediction mode within the chrominance block screen of the base layer and the intra prediction mode within the chrominance block screen of the enhancement layer. If 0 is 0, it may indicate that intra prediction is performed with an intra prediction mode value in which the prediction mode in the color difference block screen of the base layer and the prediction mode in the color difference block screen of the enhancement layer are not the same.
도 9를 참조하면, 기본 계층의 색차 블록 화면 내 예측 모드와 향상 계층의 색차 블록 화면 내 예측 모드가 동일한지 여부를 판단한다(단계 S900).Referring to FIG. 9, it is determined whether the prediction mode in the color difference block screen of the base layer and the prediction mode in the color difference block screen of the enhancement layer are the same (step S900).
단계 S900은 기본 계층 색차 모드 플래그의 값을 판단하여 수행될 수 있다.Step S900 may be performed by determining the value of the base layer color difference mode flag.
기본 계층 색차 모드 플래그가 1인 경우(기본 계층의 색차 블록 화면 내 예측 모드와 향상 계층의 색차 블록 화면 내 예측 모드가 동일한 경우) 기본 계층의 색차 블록 화면 내 예측 모드를 유도하여 향상 계층의 색차 블록 화면 내 예측 모드로 사용한다(단계 S910).When the base layer chrominance mode flag is 1 (when the prediction mode in the chrominance block screen of the base layer is the same as the prediction mode in the chrominance block screen of the enhancement layer), the chrominance block of the enhancement layer is derived by inducing the prediction mode in the chrominance block screen of the base layer. Use in intra prediction mode (step S910).
기본 계층 색차 모드 플래그가 0인 경우(기본 계층의 색차 블록 화면 내 예측 모드와 향상 계층의 색차 블록 화면 내 예측 모드가 동일하지 않은 경우) 기본 계층의 색차 블록 화면 내 예측 모드 값 및 향상 계층의 휘도 블록 화면 내 예측 모드 값을 기초로 향상 계층의 색차 블록의 후보 화면 내 예측 모드를 산출할 수 있다(단계 S920). When the base layer chrominance mode flag is 0 (when the prediction mode in the chrominance block screen of the base layer and the prediction mode in the chrominance block screen of the enhancement layer are not the same), the prediction mode value in the chrominance block screen of the base layer and the luminance of the enhancement layer The candidate intra prediction mode of the color difference block of the enhancement layer may be calculated based on the intra prediction mode value (step S920).
색차 블록의 후보 화면 내 예측 모드는 색차 블록이 가질 수 있는 화면 내 예측 모드의 후보이다. 예를 들어, 색차 블록의 후보 화면 내 예측 모드는 색차 블록의 화면 내 예측 모드 번호에 할당되는 화면 내 예측 모드를 의미할 수 있다. 도 10에서는 단계 S920에 대해 추가적으로 기술한다. The candidate intra prediction mode of the chrominance block is a candidate of the intra prediction mode that the chrominance block may have. For example, the intra prediction mode of the chrominance block may refer to the intra prediction mode allocated to the intra prediction mode number of the chrominance block. 10 further describes step S920.
도 10은 본 발명의 실시예에 따른 색차 블록의 화면 내 예측 모드를 산출하는 방법을 나타낸 개념도이다.10 is a conceptual diagram illustrating a method of calculating an intra prediction mode of a chrominance block according to an embodiment of the present invention.
도 10에서는 기본 계층의 색차 블록 화면 내 예측 모드(1000)와 향상 계층의 색차 블록 화면 내 예측 모드(1040)가 동일하지 않고(기본 계층 색차 모드 플래그가 0인 경우) 기본 계층의 색차 블록 화면 내 예측 모드(1000)와 향상 계층의 휘도 블록 화면 내 예측 모드(1020)가 동일한 경우를 나타낸 것이다.In FIG. 10, the prediction mode 1000 in the color difference block screen of the base layer and the prediction mode 1040 in the color difference block screen of the enhancement layer are not the same (when the base layer color difference mode flag is 0) and in the color difference block screen of the base layer. The case where the prediction mode 1000 and the prediction mode 1020 in the luminance block screen of the enhancement layer are the same is illustrated.
이러한 경우, 향상 계층의 색차 블록 화면 내 예측 모드(1040)는 향상 계층의 휘도 블록 화면 내 예측 모드(1020) 및 기본 계층의 색차 블록 화면 내 예측 모드(1000)와 동일한 값을 가지지 않는다. 따라서, 향상 계층의 색차 블록 화면 내 예측 모드(1040)에 대한 후보 화면 내 예측 모드(candModeC[0], candModeC[1], candModeC[2], candModeC[3])는 아래와 같이 산출된다.In this case, the prediction mode 1040 in the color difference block screen of the enhancement layer does not have the same value as the prediction mode 1020 in the luminance block picture of the enhancement layer and the prediction mode 1000 in the color difference block screen of the base layer. Accordingly, the candidate intra prediction modes candModeC [0], candModeC [1], candModeC [2], and candModeC [3] for the prediction mode 1040 of the chrominance block picture of the enhancement layer are calculated as follows.
(1) 5 개의 후보 화면 내 예측 모드(플레이너 모드, DC 모드, 수직 모드, 수평 모드, 사선 모드(34번 모드)) 중 기본 계층의 색차 블록의 화면 내 예측 모드와 동일한 값이 존재하는 경우, 5 개의 화면 내 예측 모드 중 기본 계층의 색차 블록의 화면 내 예측 모드와 동일한 화면 내 예측 모드를 제외하고 나머지 4개의 화면 내 예측 모드를 색차 블록의 후보 화면 내 예측 모드로 사용한다.(1) Out of five candidate intra prediction modes (planar mode, DC mode, vertical mode, horizontal mode, oblique mode (mode 34)) when the same value as the intra prediction mode of the color difference block of the base layer exists Of the five intra prediction modes, the remaining four intra prediction modes are used as the candidate intra prediction modes of the color difference block except for the intra prediction mode that is the same as the intra prediction mode of the color difference block of the base layer.
예를 들어, 기본 계층의 색차 블록의 화면 내 예측 모드가 플레이너 모드인 경우, 위의 5개 후보 중 플레이너 모드를 제외한 DC 모드, 수직 모드, 수평 모드, 사선 모드가 각각, 제1 색차 블록 후보 화면 내 예측 모드(candModeC[0]) 내지 제4 색차 블록 후보 화면 내 예측 모드(candModeC[3])가 될 수 있다. For example, when the intra prediction mode of the color difference block of the base layer is the planar mode, the DC color mode, the vertical mode, the horizontal mode, and the diagonal mode except the planar mode among the five candidates above are the first color difference block, respectively. It may be a candidate intra prediction mode candModeC [0] to a fourth chrominance block candidate intra prediction mode candModeC [3].
(2) 5개의 화면 내 예측 모드(플레이너 모드, DC 모드, 수직 모드, 수평 모드, 사선 모드(34번 모드)) 중 기본 계층의 색차 블록의 화면 내 예측 모드와 동일한 값이 존재하지 않는 경우, 5개의 화면 내 예측 모드 중 마지막 우선 순위인 사선 모드(34번 모드)를 제외한 나머지 4개의 화면 내 예측 모드를 색차 블록의 후보 화면 내 예측 모드로 사용한다. (2) Out of five intra prediction modes (planar mode, DC mode, vertical mode, horizontal mode, oblique mode (mode 34)) when the same value as the intra prediction mode of the color difference block of the base layer does not exist The other four intra prediction modes are used as the prediction intra prediction modes of the chrominance block except for an oblique mode (mode 34) which is the last priority among the five intra prediction modes.
또 다른 예를 들어, 기본 계층의 색차 블록의 화면 내 예측 모드가 20번 화면 내 예측 모드인 경우, 위의 5개 후보 중 마지막 우선 순위인 사선 모드를 제외한 플레이너 모드, DC 모드, 수직 모드, 수평 모드가 각각, 제1 색차 블록 후보 화면 내 예측 모드 내지 제4 색차 블록 후보 화면 내 예측 모드가 될 수 있다. As another example, when the intra prediction mode of the color difference block of the base layer is the intra prediction mode of 20, the planar mode, the DC mode, the vertical mode, The horizontal modes may be prediction modes in the first color difference block candidate screen to prediction modes in the fourth color difference block candidate screen, respectively.
도 11은 본 발명의 실시예에 따른 색차 블록의 화면 내 예측 모드를 산출하는 방법을 나타낸 개념도이다.11 is a conceptual diagram illustrating a method of calculating an intra prediction mode of a chrominance block according to an embodiment of the present invention.
도 11은 기본 계층의 색차 블록 화면 내 예측 모드(1100)와 향상 계층의 색차 블록 화면 내 예측 모드(1140)가 동일하지 않고(기본 계층 색차 모드 플래그가 0인 경우), 기본 계층의 색차 블록 화면 내 예측 모드(1100)와 향상 계층의 휘도 블록 화면 내 예측 모드(1120)가 동일하지 않은 경우를 나타낸 것이다. 이러한 경우 향상 계층의 휘도 블록 화면 내 예측 모드(1120)와 향상 계층의 색차 블록 화면 내 예측 모드(1140)가 동일할 가능성이 존재한다.11 illustrates that the prediction mode 1100 in the color difference block screen of the base layer and the prediction mode 1140 in the color difference block screen of the enhancement layer are not the same (when the base layer color difference mode flag is 0), and the color difference block screen of the base layer is shown. The prediction mode 1100 and the prediction mode 1120 of the luminance block screen of the enhancement layer are not the same. In this case, there is a possibility that the prediction mode 1120 in the luminance block screen of the enhancement layer and the prediction mode 1140 in the color difference block screen of the enhancement layer are the same.
향상 계층의 휘도 블록 화면 내 예측 모드(1120)가 기본 계층의 색차 블록 화면 내 예측 모드(1140)와 동일하지 않은 경우, 향상 계층의 색차 블록의 후보 화면 내 예측 모드는 DM 모드, 플레이너 모드, DC 모드, 수직 모드, 수평 모드의 우선 순서를 가지고 산출된다.When the prediction mode 1120 in the luminance block picture of the enhancement layer is not the same as the prediction mode 1140 in the color difference block picture of the base layer, the prediction mode in the candidate picture of the color difference block of the enhancement layer may be a DM mode, a planer mode, It is calculated with the order of priority in DC mode, vertical mode and horizontal mode.
(1) 만약, 5개의 화면 내 예측 모드(DM 모드, 플레이너 모드, DC 모드, 수직 모드, 수평 모드) 중에서 기본 계층의 색차 블록 화면 내 예측 모드와 동일한 화면 내 예측 모드가 존재하지 않는 경우, 마지막 우선 순위를 가지는 수평 모드를 제외한 DM 모드, 플레이너 모드, DC 모드, 수직 모드가 색차 블록의 후보 화면 내 예측 모드로 사용될 수 있다.(1) If there is no intra prediction mode among the five intra prediction modes (DM mode, planer mode, DC mode, vertical mode, and horizontal mode) that is the same as the prediction mode in the color difference block screen of the base layer, The DM mode, the planar mode, the DC mode, and the vertical mode except the horizontal mode having the last priority may be used as prediction modes in the candidate screen of the color difference block.
예를 들어, 기본 계층의 색차 블록의 화면 내 예측 모드가 20번 모드인 경우, 위의 5개 후보 중 가장 낮은 우선 수위를 가지는 수평 모드를 제외한 DM 모드, 플레이너 모드, DC 모드, 수직 모드가 색차 블록의 후보 화면 내 예측 모드로 사용될 수 있다.For example, if the intra prediction mode of the color difference block of the base layer is mode 20, DM mode, planer mode, DC mode, and vertical mode except the horizontal mode having the lowest priority level among the five candidates are It may be used as a prediction mode within a candidate screen of a chrominance block.
(2) 만약, 5개의 화면 내 예측 모드(DM 모드, 플레이너 모드, DC 모드, 수직 모드, 수평 모드) 중에서 기본 계층의 색차 블록 화면 내 예측 모드와 동일한 화면 내 예측 모드가 존재하는 경우, 5개의 화면 내 예측 모드 중 기본 계층의 색차 블록 화면 내 예측 모드에 해당하는 화면 내 예측 모드를 제외하고 4 개의 화면 내 예측 모드를 색차 블록 후보 화면 내 예측 모드로 사용할 수 있다. (2) If there is an intra prediction mode among the five intra prediction modes (DM mode, planer mode, DC mode, vertical mode, and horizontal mode) that is the same as the prediction mode in the color difference block screen of the base layer, 5 The four intra prediction modes may be used as the prediction mode within the color difference block candidate screen except for the intra prediction mode corresponding to the prediction mode within the color difference block screen of the base layer among the intra prediction modes.
예를 들어, 기본 계층의 색차 블록의 화면 내 예측 모드가 플레이너 모드인 경우, 위의 5개 후보 중 플레이너 모드를 제외한 DM 모드, DC 모드, 수직 모드, 수평 모드가 각각, 제1 색차 블록 후보 화면 내 예측 모드 내지 제4 색차 블록 후보 화면 내 예측 모드가 될 수 있다. For example, when the intra prediction mode of the color difference block of the base layer is the planar mode, the first color difference block includes DM mode, DC mode, vertical mode, and horizontal mode except for the planar mode among the five candidates, respectively. It may be a prediction mode within the candidate screen to a prediction mode within the fourth color difference block candidate screen.
도 10 및 도 11에서 산출된 색차 블록의 후보 화면 내 예측 모드(candModeC[0], candModeC[1], candModeC[2], candModeC[3])는 아래의 표 4와 같이 표현될 수 있다. The prediction modes candModeC [0], candModeC [1], candModeC [2], and candModeC [3] of the candidate screens of the color difference blocks calculated in FIGS. 10 and 11 may be expressed as shown in Table 4 below.
표 4
Figure PCTKR2013010604-appb-T000004
Table 4
Figure PCTKR2013010604-appb-T000004
표 4를 참조하면, 색차 블록의 화면 예측 모드 번호 0에 candModeC[0]가 할당되고, 색차 블록의 화면 예측 모드 번호 1에 candModeC[1]가 할당되고, 색차 블록의 화면 예측 모드 번호 2에 candModeC[2]가 할당되고, 색차 블록의 화면 예측 모드 번호 3에 candModeC[3]가 할당되고, 색차 블록의 화면 예측 모드 번호 4에 기본 계층의 색차 블록 화면 내 예측 모드가 할당될 수 있다. Referring to Table 4, candModeC [0] is assigned to screen prediction mode number 0 of the chrominance block, candModeC [1] is assigned to screen prediction mode number 1 of the chrominance block, and candModeC is assigned to screen prediction mode number 2 of the chrominance block. [2] may be assigned, candModeC [3] may be assigned to picture prediction mode number 3 of the chrominance block, and prediction mode within the color difference block picture of the base layer may be assigned to picture prediction mode number 4 of the color difference block.
위와 같은 표를 사용함으로써 현재 색차 블록에 대응되는 다른 블록의 화면 내 예측 모드(향상 계층의 휘도 블록 화면 내 예측 모드 및 기본 계층의 색차 블록 화면 내 예측 모드)를 반영한 색차 블록 화면 내 예측 모드 번호와 화면 내 예측 모드 사이의 매핑 관계를 산출할 수 있다.By using the above table, the prediction mode number in the chrominance block screen reflecting the intra prediction mode of the other block corresponding to the current chrominance block (the prediction mode in the luminance block screen of the enhancement layer and the prediction mode in the chrominance block screen of the base layer) and The mapping relationship between the intra prediction modes may be calculated.
코드 워드의 경우, 기본 계층의 색차 블록 화면 내 예측 모드에 가장 짧은 길이의 코드 워드를 매핑시킴으로서 부호화 및 복호화 효율을 높일 수 있다.In the case of a code word, encoding and decoding efficiency can be improved by mapping a code word having the shortest length to a prediction mode in a color difference block picture of a base layer.
이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described with reference to the embodiments above, those skilled in the art will understand that the present invention can be variously modified and changed without departing from the spirit and scope of the invention as set forth in the claims below. Could be.

Claims (14)

  1. 색차 블록 화면 내 예측 모드의 복호화 방법에 있어서,In the decoding method of the prediction mode in the color difference block screen,
    기본 계층의 색차 블록 화면 내 예측 모드와 향상 계층의 휘도 블록 화면 내 예측 모드를 복호화하는 단계; 및Decoding the prediction mode in the chrominance block picture of the base layer and the prediction mode in the luminance block picture of the enhancement layer; And
    상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드를 기초로 상기 향상 계층의 색차 블록 화면 내 예측 모드를 유도하는 단계를 포함하는 화면 내 예측 모드 복호화 방법.And deriving a prediction mode in the chrominance block picture of the enhancement layer based on the prediction mode in the chrominance block picture of the base layer and the prediction mode in the luminance block picture of the enhancement layer.
  2. 제1항에 있어서, The method of claim 1,
    상기 향상 계층의 색차 블록 화면 내 예측 모드를 유도하는 단계는,Inducing the prediction mode in the color difference block screen of the enhancement layer,
    상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일한지 여부를 판단하는 단계; 및Determining whether the prediction mode in the chrominance block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are the same; And
    상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일한 경우, 상기 기본 계층의 색차 블록 화면 내 예측 모드를 상기 향상 계층의 색차 블록의 화면 내 예측 모드로 설정하는 단계를 포함하는 화면 내 예측 모드 복호화 방법.When the prediction mode in the chrominance block screen of the base layer is the same as the prediction mode in the luminance block screen of the enhancement layer, the prediction mode in the chrominance block screen of the base layer is set to the intra prediction mode of the chrominance block of the enhancement layer. Intra prediction mode decoding method comprising the step.
  3. 제2항에 있어서,The method of claim 2,
    상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일하지 않은 경우, 색차 블록의 화면 내 예측 모드 테이블을 기초로 상기 향상 계층의 색차 블록 화면 내 예측 모드를 복호화하는 단계를 더 포함하는 화면 내 예측 모드 복호화 방법.When the prediction mode in the chrominance block picture of the base layer and the prediction mode in the luminance block screen of the enhancement layer are not the same, the prediction mode in the chrominance block picture of the enhancement layer is decoded based on the intra prediction picture table of the chrominance block. Intra prediction mode decoding method further comprising the step of.
  4. 제3항에 있어서, The method of claim 3,
    상기 색차 블록의 화면 내 예측 모드 테이블은,The intra prediction mode table of the chrominance block is
    색차 블록의 화면 내 예측 모드 번호와 색차 블록의 화면 내 예측 모드가 매핑된 테이블로서,A table in which the intra prediction mode number of the chrominance block and the intra prediction mode of the chrominance block are mapped.
    상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일한 경우, 상기 색차 블록의 화면 내 예측 모드 테이블의 여분 모드(extra mode, eM)를 34번 화면 내 예측 모드로 설정하고,When the prediction mode in the chrominance block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are the same, an extra mode (eM) of the intra prediction mode table of the chrominance block is displayed in the 34th prediction mode. Set to,
    상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일하지 않고 상기 기본 계층의 색차 블록 화면 내 예측 모드가 플레이너 모드, DC 모드, 수직 모드 또는 수평 모드인 경우, 상기 색차 블록의 화면 내 예측 모드 테이블의 상기 여분 모드(extra mode, eM)를 상기 34번 화면 내 예측 모드로 설정하고,When the prediction mode in the chrominance block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are not the same, and the prediction mode in the chrominance block screen of the base layer is a planer mode, a DC mode, a vertical mode, or a horizontal mode. Setting the extra mode (eM) of the intra prediction mode table of the chrominance block to the intra prediction mode 34;
    상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일하지 않고 상기 기본 계층의 색차 블록의 화면 내 예측 모드가 플레이너 모드, DC 모드, 수직 모드 또는 수평 모드가 아닌 경우, 상기 색차 블록의 화면 내 예측 모드 테이블의 상기 여분 모드(extra mode, eM)를 기본 계층의 색차 블록 화면 내 예측 모드로 설정하여 생성되는 화면 내 예측 모드 복호화 방법.The prediction mode in the color difference block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are not the same, and the prediction mode in the picture of the color difference block of the base layer is a planer mode, a DC mode, a vertical mode, or a horizontal mode. Otherwise, the extra mode (eM) of the intra prediction mode table of the chrominance block is set to the intra prediction mode of the chrominance block of the base layer.
  5. 제1항에 있어서, The method of claim 1,
    상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 색차 블록 화면 내 예측 모드가 동일한지 여부를 판단하는 단계를 더 포함하는 화면 내 예측 모드 복호화 방법.And determining whether the prediction mode in the chrominance block picture of the base layer and the prediction mode in the chrominance block picture of the enhancement layer are the same.
  6. 제5항에 있어서, The method of claim 5,
    상기 향상 계층의 색차 블록의 화면 내 예측 모드를 유도하는 단계는,Inducing the intra prediction mode of the color difference block of the enhancement layer may include:
    상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 색차 블록 화면 내 예측 모드가 동일하지 않은 경우, 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일한지 여부를 판단하는 단계; 및When the prediction mode in the color difference block screen of the base layer and the prediction mode in the color difference block screen of the enhancement layer are not the same, the prediction mode in the color difference block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are the same. Determining whether or not there is; And
    상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 색차 블록 화면 내 예측 모드가 동일하지 않고 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일한 경우, 상기 향상 계층의 휘도 블록 화면 내 예측 모드를 제외하고 상기 향상 계층의 색차 블록의 후보 화면 내 예측 모드를 산출하는 단계를 포함하는 화면 내 예측 모드 복호화 방법.When the prediction mode in the color difference block screen of the base layer and the prediction mode in the color difference block screen of the enhancement layer are not the same, and the prediction mode in the color difference block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are the same, And calculating a candidate intra prediction mode of the chrominance block of the enhancement layer except for the intra prediction mode of the luminance block screen of the enhancement layer.
  7. 제5항에 있어서, The method of claim 5,
    상기 향상 계층의 색차 블록의 화면 내 예측 모드를 유도하는 단계는,Inducing the intra prediction mode of the color difference block of the enhancement layer may include:
    상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 색차 블록 화면 내 예측 모드가 동일하지 않고 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일하지 않은 경우, 상기 기본 계층의 색차 블록 화면 내 예측 모드를 제외하고 상기 향상 계층의 색차 블록의 후보 화면 내 예측 모드를 산출하는 단계를 더 포함하는 화면 내 예측 모드 복호화 방법.The prediction mode in the color difference block screen of the base layer and the prediction mode in the color difference block screen of the enhancement layer are not the same, and the prediction mode in the color difference block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are not the same. And calculating a candidate intra prediction mode of the chrominance block of the enhancement layer, except for the intra prediction mode of the chrominance block of the base layer.
  8. 영상 복호화 장치에 있어서,In the video decoding apparatus,
    기본 계층의 색차 블록 화면 내 예측 모드와 향상 계층의 휘도 블록 화면 내 예측 모드를 복호화하는 엔트로피 복호화부; 및An entropy decoder which decodes the prediction mode in the chrominance block picture of the base layer and the prediction mode in the luminance block picture of the enhancement layer; And
    상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드를 기초로 상기 향상 계층의 색차 블록 화면 내 예측 모드를 유도하는 예측부를 포함하는 영상 복호화 장치.And a prediction unit for deriving a prediction mode in the chrominance block screen of the enhancement layer based on the prediction mode in the chrominance block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer.
  9. 제8항에 있어서, The method of claim 8,
    상기 예측부는, 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일한 경우, 상기 기본 계층의 색차 블록 화면 내 예측 모드를 상기 향상 계층의 색차 블록의 화면 내 예측 모드로 설정하도록 구현되는 영상 복호화 장치.When the prediction mode in the chrominance block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are the same, the prediction unit predicts the prediction mode in the chrominance block screen of the base layer in the screen of the chrominance block of the enhancement layer. And an image decoding device configured to set to a mode.
  10. 제9항에 있어서, The method of claim 9,
    상기 예측부는, 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일하지 않은 경우, 색차 블록의 화면 내 예측 모드 테이블을 기초로 상기 향상 계층의 색차 블록 화면 내 예측 모드를 유도하도록 구현되는 영상 복호화 장치.If the prediction mode in the chrominance block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are not the same, the prediction unit is further configured in the chrominance block screen of the enhancement layer based on the intra prediction mode table of the chrominance block. An image decoding apparatus is implemented to derive a prediction mode.
  11. 제10항에 있어서, The method of claim 10,
    상기 색차 블록의 화면 내 예측 모드 테이블은 색차 블록의 화면 내 예측 모드 번호와 색차 블록의 화면 내 예측 모드가 매핑된 테이블로서,The intra prediction mode table of the chrominance block is a table in which the intra prediction mode number of the chrominance block and the intra prediction mode of the chrominance block are mapped.
    상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일한 경우, 상기 색차 블록의 화면 내 예측 모드 테이블의 여분 모드(extra mode, eM)를 34번 화면 내 예측 모드로 설정하고,When the prediction mode in the chrominance block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are the same, an extra mode (eM) of the intra prediction mode table of the chrominance block is displayed in the 34th prediction mode. Set to,
    상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일하지 않고 상기 기본 계층의 색차 블록 화면 내 예측 모드가 플레이너 모드, DC 모드, 수직 모드 또는 수평 모드인 경우, 상기 색차 블록의 화면 내 예측 모드 테이블의 상기 여분 모드(extra mode, eM)를 상기 34번 화면 내 예측 모드로 설정하고, When the prediction mode in the chrominance block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are not the same, and the prediction mode in the chrominance block screen of the base layer is a planer mode, a DC mode, a vertical mode, or a horizontal mode. Setting the extra mode (eM) of the intra prediction mode table of the chrominance block to the intra prediction mode 34;
    상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일하지 않고 상기 기본 계층의 색차 블록의 화면 내 예측 모드가 플레이너 모드, DC 모드, 수직 모드 또는 수평 모드가 아닌 경우, 상기 색차 블록의 화면 내 예측 모드 테이블의 상기 여분 모드(extra mode, eM)를 기본 계층의 색차 블록 화면 내 예측 모드로 설정하여 생성되는 영상 복호화 장치.The prediction mode in the color difference block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are not the same, and the prediction mode in the picture of the color difference block of the base layer is a planer mode, a DC mode, a vertical mode, or a horizontal mode. If not, the image decoding apparatus is generated by setting the extra mode (eM) of the intra prediction mode table of the color difference block to the intra prediction mode of the color difference block of the base layer.
  12. 제8항에 있어서, The method of claim 8,
    상기 예측부는 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 색차 블록 화면 내 예측 모드가 동일한지 여부를 판단하도록 구현되는 영상 복호화 장치.And the prediction unit is configured to determine whether the prediction mode in the color difference block screen of the base layer and the prediction mode in the color difference block screen of the enhancement layer are the same.
  13. 제12항에 있어서, The method of claim 12,
    상기 예측부는 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 색차 블록 화면 내 예측 모드가 동일하지 않고 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일한 경우, 상기 향상 계층의 휘도 블록 화면 내 예측 모드를 제외하고 상기 향상 계층의 색차 블록의 후보 화면 내 예측 모드를 산출하도록 구현되는 영상 복호화 장치.The prediction unit does not have the same prediction mode in the color difference block screen of the base layer and the prediction mode in the color difference block screen of the enhancement layer, and the prediction mode in the color difference block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are different. In the same case, the image decoding apparatus is configured to calculate a candidate intra prediction mode of the color difference block of the enhancement layer except for the intra prediction mode of the luminance block of the enhancement layer.
  14. 제12항에 있어서, The method of claim 12,
    상기 예측부는 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 색차 블록 화면 내 예측 모드가 동일하지 않고 상기 기본 계층의 색차 블록 화면 내 예측 모드와 상기 향상 계층의 휘도 블록 화면 내 예측 모드가 동일하지 않은 경우, 상기 기본 계층의 색차 블록 화면 내 예측 모드를 제외하고 상기 향상 계층의 색차 블록의 후보 화면 내 예측 모드를 산출하도록 구현되는 영상 복호화 장치.The prediction unit does not have the same prediction mode in the color difference block screen of the base layer and the prediction mode in the color difference block screen of the enhancement layer, and the prediction mode in the color difference block screen of the base layer and the prediction mode in the luminance block screen of the enhancement layer are different. And if not the same, calculating the prediction mode in the candidate screen of the color difference block of the enhancement layer except for the prediction mode in the color difference block screen of the base layer.
PCT/KR2013/010604 2012-12-20 2013-11-21 Method for decoding intra-screen prediction mode of chroma block in scalable video coding, and apparatus using such method WO2014098380A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0149722 2012-12-20
KR1020120149722A KR20140080884A (en) 2012-12-20 2012-12-20 Method for decoding intra prediction mode of chroma block on scalable video coding and apparatus for using the same

Publications (1)

Publication Number Publication Date
WO2014098380A1 true WO2014098380A1 (en) 2014-06-26

Family

ID=50978649

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/010604 WO2014098380A1 (en) 2012-12-20 2013-11-21 Method for decoding intra-screen prediction mode of chroma block in scalable video coding, and apparatus using such method

Country Status (2)

Country Link
KR (1) KR20140080884A (en)
WO (1) WO2014098380A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110166785A (en) * 2018-07-25 2019-08-23 腾讯科技(深圳)有限公司 Intra-frame prediction method and device and storage medium and electronic device
WO2020175938A1 (en) * 2019-02-28 2020-09-03 주식회사 엑스리스 Method for encoding/decoding image signal, and device therefor

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107197273B (en) * 2017-06-09 2019-07-09 西安万像电子科技有限公司 The coding method of image and device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6043838A (en) * 1997-11-07 2000-03-28 General Instrument Corporation View offset estimation for stereoscopic video coding
US20090110073A1 (en) * 2007-10-15 2009-04-30 Yu Wen Wu Enhancement layer residual prediction for bit depth scalability using hierarchical LUTs
US20090185627A1 (en) * 2005-04-01 2009-07-23 Seung Wook Park Method for scalably encoding and decoding video signal
US20100202512A1 (en) * 2007-04-16 2010-08-12 Hae-Chul Choi Color video scalability encoding and decoding method and device thereof
US20110019739A1 (en) * 2005-07-08 2011-01-27 Byeong Moon Jeon Method for modeling coding information of a video signal to compress/decompress the information

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6043838A (en) * 1997-11-07 2000-03-28 General Instrument Corporation View offset estimation for stereoscopic video coding
US20090185627A1 (en) * 2005-04-01 2009-07-23 Seung Wook Park Method for scalably encoding and decoding video signal
US20110019739A1 (en) * 2005-07-08 2011-01-27 Byeong Moon Jeon Method for modeling coding information of a video signal to compress/decompress the information
US20100202512A1 (en) * 2007-04-16 2010-08-12 Hae-Chul Choi Color video scalability encoding and decoding method and device thereof
US20090110073A1 (en) * 2007-10-15 2009-04-30 Yu Wen Wu Enhancement layer residual prediction for bit depth scalability using hierarchical LUTs

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110166785A (en) * 2018-07-25 2019-08-23 腾讯科技(深圳)有限公司 Intra-frame prediction method and device and storage medium and electronic device
CN110166785B (en) * 2018-07-25 2022-09-13 腾讯科技(深圳)有限公司 Intra-frame prediction method and device, storage medium and electronic device
WO2020175938A1 (en) * 2019-02-28 2020-09-03 주식회사 엑스리스 Method for encoding/decoding image signal, and device therefor
US11711534B2 (en) 2019-02-28 2023-07-25 Apple Inc. Method for encoding/decoding image signal, and device therefor
US11936895B2 (en) 2019-02-28 2024-03-19 Apple Inc. Method for encoding/decoding image signal, and device therefor

Also Published As

Publication number Publication date
KR20140080884A (en) 2014-07-01

Similar Documents

Publication Publication Date Title
WO2017039256A1 (en) Method and device for processing video signal
WO2018117546A1 (en) Video signal processing method and device
WO2018212578A1 (en) Method and device for video signal processing
WO2018044088A1 (en) Method and device for processing video signal
WO2018044087A1 (en) Method and device for processing video signal
WO2017188652A1 (en) Method and device for encoding/decoding image
WO2017034331A1 (en) Method and device for chroma sample intra prediction in video coding system
WO2018066959A1 (en) Method and apparatus for processing video signal
WO2018008904A2 (en) Video signal processing method and apparatus
WO2016052977A1 (en) Method and apparatus for processing video signal
WO2013154366A1 (en) Transform method based on block information, and apparatus using said method
WO2013069975A1 (en) Method and apparatus for coefficient scan based on partition mode of prediction unit
WO2017014412A1 (en) Intra prediction method and device in video coding system
WO2018026222A1 (en) Video signal processing method and device
WO2018056702A1 (en) Method and apparatus for processing video signal
WO2018216862A1 (en) Method and device for decoding image according to intra prediction in image coding system
WO2016114583A1 (en) Method and device for processing video signal
WO2019117639A1 (en) Image coding method on basis of transformation and device therefor
WO2020242145A1 (en) Video coding method and apparatus using adaptive parameter set
WO2018164504A1 (en) Video signal processing method and device
WO2015009009A1 (en) Scalable video signal encoding/decoding method and device
WO2016122251A1 (en) Method and apparatus for processing video signals
WO2016122253A1 (en) Method and apparatus for processing video signals
WO2015009021A1 (en) Method and apparatus for encoding/decoding scalable video signal
WO2018128222A1 (en) Method and apparatus for image decoding in image coding system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13864339

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13864339

Country of ref document: EP

Kind code of ref document: A1