WO2007017970A1 - 映像記録装置、シーンチェンジ抽出方法、及び映像音声記録装置 - Google Patents

映像記録装置、シーンチェンジ抽出方法、及び映像音声記録装置 Download PDF

Info

Publication number
WO2007017970A1
WO2007017970A1 PCT/JP2006/305337 JP2006305337W WO2007017970A1 WO 2007017970 A1 WO2007017970 A1 WO 2007017970A1 JP 2006305337 W JP2006305337 W JP 2006305337W WO 2007017970 A1 WO2007017970 A1 WO 2007017970A1
Authority
WO
WIPO (PCT)
Prior art keywords
scene change
video
recording
encoding
unit
Prior art date
Application number
PCT/JP2006/305337
Other languages
English (en)
French (fr)
Inventor
Yoshiaki Kusunoki
Isao Otsuka
Original Assignee
Mitsubishi Denki Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2005232948A external-priority patent/JP3894940B2/ja
Priority claimed from JP2005232957A external-priority patent/JP3827705B1/ja
Application filed by Mitsubishi Denki Kabushiki Kaisha filed Critical Mitsubishi Denki Kabushiki Kaisha
Priority to JP2007529457A priority Critical patent/JP4707713B2/ja
Priority to US11/989,309 priority patent/US8886014B2/en
Priority to CN2006800291636A priority patent/CN101238727B/zh
Publication of WO2007017970A1 publication Critical patent/WO2007017970A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/87Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/781Television signal recording using magnetic recording on disks or drums

Definitions

  • Video recording apparatus scene change extraction method, and video / audio recording apparatus
  • the present invention relates to a video recording apparatus capable of detecting a video scene change in parallel with video recording, and a scene change extraction method implemented by the video recording apparatus.
  • the present invention is a video / audio that can detect a commercial message broadcast that is sandwiched between the main parts of a recorded television broadcast program in parallel with the recording of the television broadcast program. It relates to recording devices.
  • Patent Document 1 a method for finding a scene change scene (hereinafter referred to as “scene change”) of a video has been proposed (see, for example, Patent Documents 1 and 2).
  • scene change a scene change scene
  • Patent Document 2 discloses a method for extracting scene changes by reading video data already stored in a storage medium such as an HDD.
  • main program broadcast is a broadcast part based on the video / audio data of the movie itself.
  • commercial message broadcasting is a broadcast part based on video and audio data provided by a client, such as an advertiser or an advertising agency, with a contract with a broadcasting station. It will be broadcast on.
  • client such as an advertiser or an advertising agency
  • broadcasters advertise themselves. Broadcasting to do this is also included.
  • program main broadcast is also referred to as “program main volume”
  • CM broadcast Commercial message broadcast” is also referred to as “CM broadcast”.
  • CM broadcast For the viewer who wants to concentrate on watching the main part of the program, where the relationship between the main part of the program and the CM broadcast is often sparse, the CM broadcast is efficiently deleted when recording or viewing the television broadcast. There is a demand to do or to overlook.
  • a conventional video / audio recording apparatus detects an audio system of a television broadcast, and distinguishes between a main program and a CM broadcast based on the detected audio system.
  • the audio system of the main part of the program is often monaural audio or Nike language audio (Japanese and English in Western movies, etc.).
  • the audio system of CM broadcasting is often stereo audio. Using such a difference, the section in which the stereo sound is detected is determined as the CM broadcast section, and the CM broadcast section is not recorded at the time of recording (that is, deleted), or the CM is viewed at the time of viewing. Make sure to skip the broadcast section (ie skip it)! /
  • the above-described conventional CM detection method does not function when the audio system of the main program is the same stereo audio system as the audio system of CM broadcasting.
  • a proposal to identify a CM broadcast section by detecting a full-screen black frame image called ⁇ black 'frame''inserted at the boundary between the main program and CM broadcast (for example, see Patent Document 3). .) 0 also detects a silence section occurs at the boundary between the turn set main and CM broadcast, appearance interval force of the detected silent sections are also proposed to identify the CM broadcast segment (e.g., see Patent Document 4.) 0
  • There is also a proposal to extract CM broadcasts using the frequency of scene change occurrences see Patent Document 5).
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2004-282318 (page 7, FIG. 2)
  • Patent Document 2 JP 2002-064823 A (Page 5, Figure 1)
  • Patent Document 3 Japanese Patent Publication No. 8-507633 (Page 12-15, Fig. 1)
  • Patent Document 4 Japanese Unexamined Patent Publication No. 2003-47031 (Page 5-8, Fig. 1)
  • Patent Document 5 Japanese Unexamined Patent Publication No. 2000-165796 (Page 7, Fig. 14)
  • Patent Document 1 is a method of detecting a scene change by a pre-image signal processing device provided in the preceding stage of the encoder, the configuration from the video encoder to the encoder is different. It could not be applied to a video recording device equipped with an integrated encoder chip set that does not output scene change extraction results to the outside. Also, when the encoder chip set outputs the scene change extraction result, the scene change extraction result changes every time the type of encoder chip set used changes, so the video recording device changes every time the encoder chip set type changes. There was a problem that adjustments were required.
  • Patent Document 2 is a method for detecting a video stream force scene change that has already been compressed and recorded on the HDD, a large amount of data is required offline after the recording process is completed. It was necessary to perform time-consuming processing, which was not practical.
  • a black'frame may not be inserted depending on the country, region, or broadcasting station ( In fact, in domestic broadcasting, there is a problem that the accuracy of automatic detection of CM broadcast sections cannot be made sufficiently high if black and white frames are required by law.
  • the method of skipping 15 seconds by the user's button operation should support CM broadcasts that have a non-default time length (for example, a 5-second program spot advertisement) that is a multiple of 15 seconds. There is a problem that can not be.
  • the present invention has been made to solve the above-described problems of the prior art, and an object of the present invention is to provide a video recording apparatus capable of extracting video scene changes in parallel with video recording. And a scene change extraction method implemented in the video recording apparatus. Another object of the present invention is to provide a video / audio recording apparatus capable of extracting a CM broadcast section in parallel with the recording of a television broadcast program. Means for solving the problem
  • the video recording apparatus of the present invention includes an encoding unit that encodes video data, a recording unit that records the output encoded stream, and an output output from the encoding unit.
  • Stream control means for transferring the encoded stream to the recording means, and video for decoding the encoded stream output from the encoding means means and extracting a scene change of the decoded video data
  • a recording control means for outputting a scene change extraction instruction.
  • the scene change extraction method of the present invention includes a step of encoding video data by an encoding unit and outputting an encoded stream, and a recording unit by transferring the encoded stream by a stream control unit. And the recording control means obtains the sign key completion notification for each code key unit of the coded stream, and the video change point when the sign key completion notice is obtained.
  • a step of outputting a scene change extraction instruction to the extraction means; and the video change point extraction means decodes the encoded stream to which the encoding means power is also output, and a scene change of the decoded video data. And a step of extracting.
  • the video / audio recording apparatus of the present invention records the encoded stream output from the encoding means for encoding the input video and audio data and outputting the encoded stream, and the output of the encoding means.
  • Recording means for decoding video change point detection means for decoding a coded stream output from the encoder means, and detecting a scene change of the video from the decoded data, and input audio data
  • Silence detection means for detecting a silent section from the above, a transition point detection means for detecting a transition point where a scene change detected by the video change point detection means and a silent section detected by the silence detection means occur simultaneously, Two or more consecutive transition point combinations in which the interval between the transition points detected by the transition point detecting means falls within a predetermined time range centered on a preset reference time.
  • CM broadcast section determining means for determining the section to be continued as a CM broadcast section, and CM broadcast section information recording for recording time information of the CM broadcast section determined by the CM broadcast section determining means. It is
  • the scene change extraction process is performed every time a video is encoded, so that there is an effect that the scene change can be extracted in real time. .
  • the CM broadcast section detection process is executed in parallel with the recording of the broadcast program, so that the CM broadcast section can be detected in real time.
  • FIG. 1 is a block diagram showing a configuration of a video recording apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 is a block diagram showing a configuration of a scene change extraction unit of the video recording apparatus in the first embodiment.
  • FIG. 3 is a block diagram showing a configuration of a scene change command control unit of the video recording apparatus according to Embodiment 2 of the present invention.
  • FIG. 4 is a flowchart showing the operation of the video recording apparatus in the second embodiment.
  • FIG. 5 is a flowchart showing the operation of the API section of the scene change command control section of the video recording apparatus in the second embodiment.
  • FIG. 6 is a flowchart showing the operation of the state control unit of the scene change command control unit of the video recording apparatus in the second embodiment.
  • FIG. 7 is a block diagram showing a configuration of a decoding unit of the video recording apparatus in the third embodiment of the present invention.
  • FIGS. 8A to 8D are diagrams for explaining DCT coefficient reduction processing of the video recording apparatus of the third embodiment.
  • FIG. 9 is a block diagram showing a configuration of a decoding unit of the video recording apparatus in the fourth embodiment of the present invention.
  • FIG. 10 is a diagram showing a YUV region in the video recording apparatus in the fifth embodiment of the present invention.
  • FIG. 11 is a flowchart showing the operation of the video recording apparatus in the fifth embodiment.
  • FIG. 12 is a block diagram schematically showing a configuration of a video / audio recording apparatus according to Embodiment 6 of the present invention.
  • FIG. 12 is a block diagram schematically showing a configuration of a video / audio recording apparatus according to Embodiment 6 of the present invention.
  • FIG. 13 is a flowchart showing the operation of the transition point detection unit of the video / audio recording apparatus of the sixth embodiment.
  • FIG. 14 is a diagram showing an example of a transition point stack table of the video / audio recording apparatus according to the sixth embodiment.
  • FIGS. 15A to 15E are diagrams for explaining the CM broadcast section detection operation in the video / audio recording apparatus of the sixth embodiment.
  • FIG. 16 is a flowchart showing the CM broadcast section detection operation of the video / audio recording apparatus of the sixth embodiment.
  • FIGS. 17 (A) to (C) are diagrams showing a transition point detection method in the video / audio recording apparatus according to Embodiment 7 of the present invention.
  • FIG. 18 is a graph showing a measurement result of a silent time length between CMs in the video / audio recording apparatus according to Embodiment 8 of the present invention.
  • FIG. 19 is a graph showing a measurement result of the silent time length when the video / audio recording apparatus of the eighth embodiment shifts from CM to the main program.
  • FIG. 20 is a flowchart showing CM broadcast section detection operation using silence duration in the video / audio recording apparatus of the eighth embodiment.
  • FIG. 21 is a flowchart showing a CM broadcast section detection operation using a scene change difference value in the video / audio recording apparatus according to Embodiment 9 of the present invention.
  • FIG. 22 is a diagram for explaining the CM broadcast section detection operation using the scene change difference value in the video / audio recording apparatus of the ninth embodiment.
  • FIG. 23 is a diagram for explaining an operation in the video / audio recording apparatus of the tenth embodiment.
  • 100 video recording device 101 encoding unit, 102 recording control unit, 103 stream control unit, 104 stream buffer, 105 HDD, 110 scene change extraction unit, 1 11 decoding unit, 112 histogram generator, 113 first histogram Buffer, 114 second histogram buffer, 115 difference extractor, 116 scene change determiner, 120 Scene change command control unit, 121 API unit, 122 command buffer, 12 3 Scene change extraction result buffer, 124 State control unit, 301 Pixel size detection unit, 302 Order determination unit, 303 DCT coefficient extraction unit, 304 IDCT unit, 305 Image shaping unit, 306 Use slice determination unit, 307 Header detection unit, 308 Inverse quantization unit, 1 antenna, 2 tuner, 3 video AZD conversion unit, 4 audio AZD conversion unit, 5 video encoder, 6 audio encoder, 7 multiplexer ( Mux), 8 recording control unit, 9 stream control unit, 10 file system unit, 11 HDD,
  • FIG. 1 is a block diagram showing a configuration of video recording apparatus 100 according to Embodiment 1 of the present invention.
  • the video recording apparatus 100 is a code that performs code coding in accordance with MPEG-2 (Moving Picture Experts Group) on input video data input from a tuner (not shown) or externally.
  • Encoding unit 101 as the key means
  • HDD (hard disk drive) 105 as the recording means for recording the encoded stream generated by the encoding unit 101
  • the encoded stream to the HDD 105 are stabilized.
  • a stream control unit 103 as stream control means for performing stream control for performing writing and reading.
  • the video recording apparatus 100 includes a stream buffer 104 as a temporary storage unit in which the stream control unit 103 temporarily stores the code stream, and start / end of the code key for the code key unit 101.
  • a recording control unit 102 as a recording control means for instructing a video stream
  • a scene change extraction unit 110 as a video change point extraction means for extracting a scene change from the encoded stream force generated by the encoding unit 101.
  • the force recording means whose HDD 105 is shown as the recording means may be another information recording medium such as an optical disk such as a DVD or a magnetic tape.
  • the video recording apparatus 100 may be a DVDZHDD hybrid recorder.
  • the video recording apparatus 100 is applicable not only to a home video recorder but also to various uses such as a personal computer, a video sano, or a surveillance recorder for a surveillance system.
  • MPEG-2 which is a code key method by the code key unit 101, corresponds to a variable rate, and therefore, the code amount (bit rate) generated per second varies greatly with time. Therefore, the stream control unit 103 temporarily stores the encoded stream in the stream buffer 104 so that the encoded stream does not overflow or underflow due to data writing to the HDD 105 and data reading from the HDD 105. The encoded stream is written to the HDD 105 and read from the HDD 105 according to the status.
  • the stream buffer 104 is composed of a ring buffer, and a valid data area is managed by a write position pointer and a read Lf standing pointer.
  • FIG. 2 is a block diagram showing a configuration of scene change extraction unit 110 shown in FIG.
  • the scene change extraction unit 110 generates a histogram of the decoded video data and the decoding unit 111 as a decoding unit that decodes the input encoded stream.
  • Histogram generator 112 as a histogram generation means
  • first histogram buffer 113 and second histogram buffer 114 holding the histogram generated by histogram generator 112, and histograms stored in first histogram buffer 113
  • a difference extractor 115 as difference extraction means for obtaining a difference between histograms held in the second histogram buffer 114.
  • the scene change extraction unit 110 also compares the difference value obtained by the difference extractor 115 with a preset threshold value.
  • Scene change determination unit 116 as a scene determination unit and a scene change command control unit as a scene change command control unit that controls the scene change extraction unit 110 based on a control signal such as a scene change start command from the recording control unit 102 And a command control unit 120.
  • the recording control unit 102 When recording is started, the recording control unit 102 outputs a control signal C to the encoding unit 101 to instruct the start of encoding.
  • the code key unit 101 starts the encoding process of the input video data P. Sign
  • the unit 101 sends a GOP code completion notification I to the recording control unit 102 every time encoding of a GOP (Group of Pictures), which is an encoding unit, is completed.
  • Stream control unit 1
  • the stream control unit 103 sequentially writes the encoded stream encoded by the encoder unit 101 with the write position pointer of the stream buffer 104 as the head.
  • the stream control unit 103 reads the encoded stream with the reading position pointer force of the stream buffer 104 and writes it to the HDD 105. While the recording is being performed, the above operation is repeated.
  • the recording control unit 102 instructs the encoding unit 101 to end encoding, and the encoding unit 101 stops encoding.
  • the stream control unit 103 writes all the encoded streams remaining in the stream buffer 104 to the HDD 105.
  • the recording control unit 102 for example, every time it receives a GOP code completion notification I from the code unit 101.
  • the scene change extraction command C is sent to the scene change extraction unit 110.
  • the scene change extraction command C is sent to the scene change extraction unit 110.
  • the change extraction command C is a scene change control unit in the scene change extraction unit 110.
  • the video data decoded from MPEG-2 to YUV by the decoding unit 111 is input to the histogram generator 112, and a histogram is generated based on the count included in each YUV section of the video data by the histogram generator 112.
  • the partitioning for generating the histogram is a method of dividing the range of values that can be taken at a certain interval, or by defining a plurality of threshold values in advance, and the magnitude relationship with respect to each threshold value. There is a method of partitioning according to the situation.
  • a histogram is created for all components of the luminance component Y and the color difference components u and V will be described.
  • a method of generating a histogram only for the luminance component Y is adopted. Also good.
  • a histogram is created for all of the luminance component Y and the color difference components U and V, but a method of roughening the partitioning by applying weights to the color difference components U and V is adopted. Also good.
  • the method of dividing the histogram is not limited to the example described above, and other partitioning methods should be adopted.
  • the histogram generated by the histogram generator 112 is alternately sent to and held in the first histogram buffer 113 or the second histogram buffer 114.
  • the difference extractor 115 uses the histograms alternately stored in the first histogram buffer 113 and the second histogram buffer 114 to compare the current video data and the video of the previous video data (for example, Compare the video data of the current frame with the video data of the previous frame) to obtain the difference value.
  • a method for obtaining the difference value between two histograms for example, there is a method of accumulating a difference between values of corresponding components of two histograms for all components.
  • the histogram of the i-th video is H
  • the difference value d between the histogram H of the i-th video and the histogram H of the previous i-first video is obtained by the following formula.
  • K is a predetermined positive integer.
  • N is the number of pixels in one frame.
  • the difference value d takes a value from 0 to 1, and if the video of the i-th frame and the video of the i-th first frame are the same video, the difference value d becomes 0 and the i-th frame The difference value d approaches 1 if the difference between the video of i and the video of i 1st frame is large.
  • the difference value d obtained by the difference extractor 115 is sent to the scene change determiner 116 and compared with the threshold value E set by the scene change command control unit 120 in advance.
  • the scene change is determined and the determination result R is Change command control unit 120. Furthermore, the judgment result R is displayed at the end of recording.
  • the scene change detection unit 110 performs scene change determination processing continuously from the start to the end of video recording, thereby recording the video stream P while recording the video stream P.
  • scene change extraction processing is executed every time a GOP code is completed, scene change extraction can be performed in parallel with encoding.
  • an encoder that does not have a scene change extraction function can be used for the encoding unit 101. Therefore, when selecting an encoder to be used in the video recording device, it is possible to select an encoder that does not have a scene change extraction function, which broadens the range of encoder selection, and selects an encoder that emphasizes cost and availability. Is possible.
  • the time required to read out the encoded stream from the HDD is limited to the analysis time of the scene change. Barking and needed.
  • the stream buffer 104 (usually using a volatile semiconductor memory) that temporarily stores a stream that is faster in writing and reading speed than the HDD 105. ) Since force is also read out, it can be read out at high speed, resulting in faster processing time.
  • the scene change extraction unit 110 is not affected by the operation of the encoding unit 101 (encoder), even if the encoder type and specifications are changed, the scene change extraction reference is kept within a certain range. Can be maintained.
  • the video recording apparatus of Embodiment 1 also has a function of directly analyzing an encoded stream. For this reason, scene change extraction can be performed by reading the encoded stream via the stream control unit 103 even for the encoded stream directly recorded in the HDD.
  • an algorithm for scene change extraction can be configured only with the firmware of a recording / playback device that does not use the scene change function in an encoder chip that is generally configured with hardware. Can be modified relatively easily, and the state transition and threshold value of the scene change extraction process can be dynamically changed according to the state of the recording / playback apparatus.
  • the threshold E for scene change determination is increased to make it difficult to determine that it is a scene change.
  • control method may be employed in which scene change detection is not executed.
  • the threshold E for determining the scene change.
  • the force scene change extraction unit in which the scene change extraction unit is 1 GOP may be a plurality of GOP units.
  • the scene change extraction unit may be one or more slice units or one or more macroblock units.
  • the video recording apparatus according to the second embodiment of the present invention differs from the video recording apparatus according to the first embodiment only in the configuration and operation of the scene change command control unit 120 shown in FIG. Therefore, in the description of the second embodiment, FIG. 1 and FIG. 2 are also referred to.
  • the video recording apparatus performs the scene change extraction operation asynchronously with the GOP coding process when performing the scene change extraction in parallel with the recording.
  • This asynchronous encoding process is also simply called “asynchronous processing”.
  • This asynchronous process can be executed even in a state that does not necessarily coincide with the completion timing of the encoding process, which is the start timing force of the scene change extraction process executed for the GOP for which the encoding unit 101 has completed the encoding process. That is.
  • As an actual operation of asynchronous processing if you focus on a GOP, After the encoding process is completed, the scene change extraction process is not performed immediately, but after a while, the scene change extraction process is executed with a certain amount of time.
  • an operation that increases the CPU load of the apparatus such as playback or dubbing occurs in parallel with the recording operation. obtain.
  • actions that are performed irregularly by the user such as operations such as opening a DVD tray, displaying a function setting screen, and viewing an electronic program guide, cause a temporary increase in CPU load on the device.
  • load increases due to these operations it is possible to continue to occupy the CPU for scene change extraction processing.
  • the scene change extraction process must not interfere with the video recording function, which is the basic function of the device. Therefore, the scene change extraction process should have a lower priority than the recording process. desirable.
  • the video recording apparatus of the second embodiment is configured so that the scene change extraction process can be performed asynchronously with the recording operation.
  • FIG. 3 is a block diagram showing a configuration of scene change command control unit 120 (shown in FIG. 2) of the video recording apparatus of the second embodiment.
  • the scene change command control unit 120 includes an API (application program interface) unit 121 that receives commands from the recording control unit 102, and a command buffer 122 that holds a plurality of received commands.
  • the state control unit 124 manages the state transition of the scene change extraction unit and processes the received command, and the scene change extraction result buffer 123 for holding the scene change extraction result and the error state and returning them to the recording control unit 102. And have.
  • the difference between the video recording device of the second embodiment and the video recording device of the first embodiment is that the scene change extraction command issued from the recording control unit 102 is the API unit 121 ⁇ in the scene change command control unit 120. This is transmitted and held in the command buffer 122.
  • the number of commands that can be held in the command buffer 122 may be set according to the capacity of the stream buffer 104. For example, assuming that the size of the stream buffer 104 is 20 Mbytes shown in the first embodiment, about 15 seconds of an encoded stream (that is, 15 pictures per 1 GO P, and a time length of 0.5 seconds, 30 GOP Data) is temporarily retained Therefore, it can be configured to hold 30 scene change extraction commands.
  • the command buffer 122 can hold 30 scene change extraction commands and 30 GOPs of data remain in the stream buffer 104, it is possible to extract scene changes retroactively from the most recent GOP to the previous 30 GOPs. This means that it is possible to extract 30 GOPs, that is, scene changes that are delayed by 15 seconds.
  • the scene change extraction result buffer 123 of the scene change command control unit 120 can hold a plurality of scene change extraction results executed by the state control unit 124 of the scene change extraction unit 110, and can be stored in the command buffer 122. If you can hold the same number as the number.
  • the scene change extraction process of the preceding GOP has not been completed (for example, because the user has requested playback of a stream that has already been recorded, the system load increases, and the scene change Even if the next GOP sign is completed and a scene change extraction command is issued from the recording control unit 102, the new scene change extraction command is a command.
  • the scene change extraction command stored in the command buffer 122 can execute the scene change extraction process of the preceding GOP after the currently executing scene change extraction process is completed. Since the extraction process is not completed, the next scene change extraction process cannot be executed, thereby preventing the problem.
  • Step S201 the system is started (Step S201), the system termination is regularly confirmed (Step S202) and the recording start is confirmed (Step S204), and the system termination is requested. For example, the system transitions to the system end (step S202).
  • Step S 205 if there is a request to start recording, a recording start command is issued to the scene change command control unit 120 (step S 205). After the recording start command is issued, the recording end is confirmed (step S206).
  • step S207 the recording end command is issued to the scene change command control unit 120 (step S207).
  • GOP When the unit sign is completed (step S208), a scene change detection command is issued to the scene change command control unit 120 (step S209).
  • Step S208 is continued until the recording is completed.
  • the control command issued from the recording control unit 102 is processed in the API unit 121 of the scene change command control unit 120.
  • step S224 If there is an empty command buffer 122, the command is stored in the command buffer 122 (step S224).
  • the scene change extraction result stored in the scene change result buffer 123 is next acquired from the scene change state control unit 124, including the case where it cannot be stored in the command buffer 122 (step S225). Finally, the scene change extraction result and whether or not the command is accepted are returned to the recording control unit 102 (step S226).
  • step S241 when the scene change state control unit 124 is powered on (step S241), it enters a command wait state (step S242). If the received command is the system end (step S243), the system end is terminated. Move (step S245). If the command is a recording start command (step S252), a recording start command (step S253) is executed by executing a recording start process (step S253) such as securing memory or initializing variables for recording start. 54), for example, a recording end process (step S255) is performed in which the secured memory is released and the scene change extraction result is sent to the recording control unit 102.
  • a recording start process step S253 such as securing memory or initializing variables for recording start. 54
  • the encoded stream is decoded based on the head address in the stream buffer 104 of the encoded stream passed along with the scene change extraction command (step S246). ).
  • the video data force converted into YUV by the decoding unit 111 also generates a histogram (step S247), and stores the histogram in the first histogram buffer 113 (or the second histogram buffer 114) (step S248). .
  • the difference between the generated histogram and the histogram of the previous video stored in the second histogram buffer 114 (or the first histogram buffer 11 3) is obtained (step S 249) and set in advance. If it is equal to or greater than the threshold, it is determined that the scene has changed (step S250). This result is stored in the result buffer 123 (step S251).
  • step S242 the process is performed to perform the next process. Move to wait for command (step S242). If a command has already been stored in the command buffer 122, the next GOP analysis is immediately started. Next command buffer force S If not set yet, the command wait is continued (step S242). ).
  • the priority of the task or thread of the software module that performs scene change extraction is set lower than that of the module group that performs recording and playback.
  • the module that performs scene change extraction involves MPEG software decoding processing, so the processing load is very high, so although the time to occupy the CPU that processes the software is not shown, compared to other modules This is because it becomes extremely large.
  • the priority of the scene change extraction module is the same as or higher than the priority of the recording / playback module, it will occupy much of the CPU processing time during recording / playback. This may cause problems that result in delays and inability to record or playback results.
  • the API unit of the scene change command control unit 120 looks at the empty space in the command buffer (step S223), and if there is a free space, stores the scene change extraction command in the command buffer.
  • the scene change command control unit 120 only stores the scene change extraction command and immediately returns a return to the recording control unit 102. Furthermore, if the previous GOP scene change extraction has not been completed before the completion of the sign of the next GOP, a scene change extraction command for the next GOP is also stored in the command buffer.
  • the scene change state control unit waits for a command (step S242), receives the oldest command from the command buffer, and starts executing the next GOP scene change extraction.
  • the recording control unit 102 may execute some error processing, or continue the processing as it is without executing any error processing because the recording operation which is the main purpose of the apparatus is normally performed. May be.
  • the video is always encoded by buffering the command issued from the recording control unit 102. It is possible to perform a delay process without having to execute scene change extraction on the stream that has been coded each time. Therefore, the encoding process and the scene change extraction process are independent because there is no need to continuously process the encoding unit in the encoding process by the recording control unit 102 and the analysis unit in the scene change extraction unit 120. Can be designed as a unit.
  • the recording control unit 102 and the scene change extraction unit 120 can operate independently, and further, by making the processing priority of the scene change extraction unit 120 lower than that of the processing related to recording,
  • the operation of the scene change extraction unit 120 which takes a long processing time, delays the processing of the recording control unit 102, and as a result affects the normal recording processing. V, will not cause any adverse effects.
  • the scene change extraction process can be delayed, if the scene change extraction process cannot be completed within the GOP playback time due to a temporary increase in system load, or the scene change extraction process Even if the process does not go around, the scene change extraction command can be skipped because the scene change extraction command stored in the command buffer 122 can be used to sequentially extract the previously encoded stream. It is possible to avoid the above problems.
  • the time or number of times that the scene change extraction process can be delayed is determined by the number of stream buffers 104 and command buffers.
  • the video recording apparatus of the third embodiment of the present invention is different from the video recording apparatus of the first embodiment in that the configuration of the decoding unit 111 of the video recording apparatus of the first embodiment is specified. Therefore, FIG. 1 and FIG. 2 are also referred to in the description of the third embodiment.
  • FIG. 7 is a block diagram showing the configuration of the decoding key unit 111 in FIG.
  • the video recording apparatus according to Embodiment 3 is characterized in that the decoding order of the DCT (discrete cosine transform) coefficient is controlled in the decoding process when the encoded stream force scene change extraction process is performed as shown in FIG. There is.
  • the decoding unit 111 includes a pixel size detection unit 301 that obtains the pixel size of the header power of the input encoded stream, and a DCT from the pixel size detected by the pixel size detection unit 301.
  • An order determination unit 302 that determines the component (order) used by the block, and a DCT coefficient extraction unit 303 that extracts DCT coefficients while performing inverse quantization on the encoded stream up to the order determined by the order determination unit 302,
  • the IDCT unit 304 that executes the inverse DCT based on the extracted DCT coefficient power and the inverse DCT executed with the reduced order generates a reduced image by packing the pixel data that has been discretized.
  • the image shaping unit 305 is included!
  • FIGS. 8A to 8D are diagrams for explaining the DCT coefficient reduction processing of the video recording apparatus according to the third embodiment.
  • Fig. 8 (A) shows the encoded stream pixel size
  • Fig. 8 (B) shows D Shows CT block (when using 2 X 2) and DCT block (when using 4 X 4).
  • Figure 8 (C) shows the decoded DCT block (when other than 2 X 2 is invalid) and decoding
  • Fig. 8 (D) shows the decoded image.
  • a video recording apparatus will be described in which the pixel size of the video to be encoded can be selected as 704 ⁇ 480 pixels and 352 ⁇ 240 pixel powers as desired by the user.
  • the decoding unit 111 there are two types of streams that can be manually input to the decoding unit 111, that is, a 704 ⁇ 480 pixel code stream or a 352 ⁇ 240 pixel encoded stream.
  • the pixel size detection unit 301 first detects the pixel size of the encoding stream and sends the detected pixel size to the order determination unit 302.
  • the order determining unit 302 determines the order De to be processed among the DCT coefficients included in the encoded stream according to the detected pixel size.
  • DCT coefficient extraction section 303 and IDCT section 304 set the order to be processed by the DCT block and perform decoding.
  • the decoded video data output from the IDCT unit 304 is a decoded video generated by connecting the decoded DCT blocks because the DCT coefficients are interleaved in units of DCT blocks. These pixels are discrete images.
  • the pixel shaping unit 305 performs a process of filling the gaps of pixels with respect to an image in which the pixels are discrete.
  • the decoded video becomes 176 X 120 pixels in the case of an encoded stream of 704 X 480 pixels, and 176 X 120 pixels in the case of an encoded stream of 352 X 240 pixels.
  • the same size image can be obtained even though the pixel size of the stream is different.
  • the encoded stream is encoded with different pixel sizes by the encoding unit 101.
  • Histogram generation Since the scene change extraction can always be performed on the encoded stream having the same pixel size in the device 112 and later, the processing in the subsequent histogram generator 112 and later can be performed without depending on the pixel size.
  • a scene change extraction process can be performed on a decoded video having the same pixel size, so that a stream with a different encoded stream has a different pixel size.
  • the same scene change evaluation method and evaluation standard can be used, and as a result, even when the same video is recorded with different pixel sizes, the same time position can be detected as a scene change. .
  • the frequency bands of the decoded images can be made uniform, so the same video can be recorded with different pixel sizes. In this case, the same time position can be detected as a scene change.
  • the higher-order code data can be configured so that the high-frequency order can be thinned out, it is relatively easy for high-frequency noise to be generated, and noise removal is performed in higher-resolution code data. Can be done effectively.
  • the memory sizes for storing the decoded video can be made the same.
  • a memory area to be prepared for the decoding video processing is / J. Can be crushed.
  • Embodiment 3 the points other than the above are the same as those in Embodiments 1 and 2.
  • Embodiment 4 The video recording apparatus of the fourth embodiment of the present invention is different from the video recording apparatus of the first embodiment in that the configuration of the decoding unit 111 of the video recording apparatus of the first embodiment is specified. Therefore, in the description of the fourth embodiment, FIG. 1 and FIG. 2 are also referred to.
  • FIG. 9 is a block diagram showing a configuration of the decoding unit of the video recording apparatus according to Embodiment 4 of the present invention.
  • the encoded stream power is also used for decoding when scene change extraction processing is performed! In the process of limiting the slices to be decoded! Explain in a moment.
  • the decoding unit 111 of the video recording apparatus of Embodiment 4 extracts a scene change from the pixel size detection unit 301 that obtains the pixel size of the header power of the input encoded stream, and the pixel size detected by the pixel size detection unit 301
  • a slice determination unit 306 a header detection unit 307 that analyzes the header of the encoded stream, an inverse quantization unit 308 that performs inverse quantization of the encoded stream, and a frequency domain. It has an IDCT unit 304 that performs inverse DCT processing on the converted coefficient value.
  • the pixel size detecting unit 301 detects the pixel size, and the used slice determining unit 306 determines the slice to be used.
  • the number of pixels in the vertical direction is 80
  • X 2 80 pixels
  • the number of unused pixels differs depending on the resolution, but if the ratio to the vertical direction is 480 pixels, 10 slices are not used for all 30 slices, so 1Z3 is not used, whereas 240 pixels In this case, 4 slices are not used for all 15 slices, so 4Z15 is not used, and it can be seen that almost the same ratio is used for scene change extraction.
  • the number of slices to be used is obtained by the used slice determining unit 306, the header of the encoded stream is analyzed by the header detecting unit 307, and the previous used slice determining unit 306 is used every time a slice header is extracted.
  • the slice is determined to be a slice, the next slice While jumping to the chair header, if the slice is to be used, the corresponding slice is sent to the dequantizer 308.
  • the inverse quantization unit 308 performs inverse quantization on the encoded stream, and the IDCT unit 304 performs inverse DCT. With the above configuration, only the slice to be used is decoded. As a result, if the vertical resolution is 80 pixels, a video with a vertical resolution of 320 pixels is obtained. Can be obtained.
  • the histogram generator 112 With respect to the video that has been reduced in the vertical direction and decoded as described above by the decoding unit 111, the histogram generator 112 generates a histogram for the pixel at the same position as the effective slice region.
  • N number of pixels in 1 frame representing the number of pixels in the frame is used.
  • the number N of pixels in the frame is corrected as follows. First, if the original is a vertical resolution of 720 pixels, the reduced vertical resolution is 320 pixels and the horizontal resolution is 720 pixels.
  • the vertical resolution is 240 pixels
  • the reduced vertical resolution is 172 pixels
  • the horizontal resolution is 352 pixels.
  • the scene change determiner 116 can perform the same scene change determination as in the first embodiment.
  • an area used for scene change may be set in units of pixel positions or macroblocks. .
  • the position where the scene change is detected can be specified, so that the detection accuracy can be improved.
  • when setting whether or not to perform scene change extraction for each pixel perform decoding for all pixels and extract the histogram of the area and the difference value of the histogram extracted after decoding. If the force detection unit specified by macroblock is specified in units of macroblocks, it is possible to control whether or not the processing is executed in units of macroblocks in the header detection unit or the decoding key processing unit. It is possible to configure the system so as not to execute the process, and the processing speed can be improved.
  • the pixel size for decoding and scene change extraction is obtained. Since the size can be reduced in units of slices, high-speed processing can be realized.
  • the memory size to be used is also reduced.
  • the target of the scene change is a broadcast program, it is less relevant to the main part of the program by configuring so that the slices at the upper and lower positions of the video are not used.
  • Scene changes can be extracted without being affected by time information, temporary-use character display, or telop, which is not available information.
  • scene change detection can be performed only for one or more arbitrary macroblocks, and the position is specified. Scene change extraction is possible.
  • Embodiment 4 the points other than those described above are the same as those in Embodiments 1 to 3.
  • the video recording apparatus of the fifth embodiment is different from the video recording apparatus of the first embodiment in the operation of the difference extractor 115. Therefore, FIG. 1 and FIG. 2 are also referred to in the description of the fifth embodiment.
  • FIG. 10 shows the YUV distribution of image pixel values.
  • YUV is represented by 256 values
  • the luminance signal Y takes values from 0 to 255
  • the color difference signals U and V take values from ⁇ 128 to 127.
  • W and B the area that is almost white and the area that is almost black by the human eye.
  • the difference value is calculated in regions other than region W.
  • black image In the case of an image with a large number of areas close to black as a whole (hereinafter also referred to as “black image”), the two images to be compared are calculated by calculating the difference value in areas other than area B.
  • the purpose is to detect scene changes accurately even for similar images.
  • FIG. 11 is a flowchart showing the operation of the difference extractor 115 according to the fifth embodiment.
  • First Histograms of the i-th frame (hereinafter also referred to as “i frame”) and the i 1-th frame (hereinafter also referred to as “i 1 frame”) are obtained from the histogram buffer 113 of 1 and the second histogram buffer 114 ( Step S301).
  • the number of pixels in the white area W of each frame is counted (step S302). Number of white pixels C and C in i frame and i-l frame
  • Wi is expressed by the following equation.
  • step S303 the cumulative difference r of the white area W is obtained by the following equation (step S303).
  • step S305 the cumulative difference r of the black region B is obtained by the following equation (step S305).
  • step S306 if both the i frame and the i 1 frame satisfy the following conditional expression, it is determined that there are many regions of a color close to white and is an image (also referred to as "white image") (step S306). ).
  • C MAX>C> C MIN The above is based on the condition that the number of pixels in the white area w is larger than the lower limit C — MIN and less than the upper limit C — MAX.
  • the reason why the upper limit is set only to satisfy that the number of white pixels is larger than the lower limit is that when the number of white pixels is larger than a certain value, the number of pixels other than the area close to white is very large. This is to avoid the fact that the scene change of the entire image is judged with pixels other than white, which is very small relative to the total number of pixels.
  • Step S308 if it is close to white and there are many color areas and it is not determined to be an image, it is determined by the following conditional expression whether or not it is close to black and has many color areas and is an image.
  • the scene change determination unit 116 determines the scene change in the same manner as the method described in the first embodiment.
  • both of the two images to be compared are images having many areas close to white
  • the changes in the images are compared in the area excluding the white area W
  • the two images to be compared are both Since it is close to black and has many color areas, and the video area can be compared except for black area B, it is possible to extract a scene change of the video excluding a specific color area. it can.
  • the area power of the company name and product name can be detected as a scene change as a result, and it works very effectively to detect CM breaks. can do.
  • FIG. 12 is a block diagram schematically showing the configuration of the video / audio recording apparatus 20 according to the sixth embodiment of the present invention. As shown in FIG. 12, the video / audio recording device 20 digitizes the analog video signal output from the tuner 2 that selects a broadcast program to be recorded from the broadcast wave received by the antenna 1 and the tuner 2.
  • Video AZD converter 3 and audio AZD converter 4 that digitizes the analog audio signal output from tuner 2 and a code that compresses and encodes the digital video signal into MPEG-2 (Moving Picture Experts Group-2)
  • the video / audio recording apparatus 20 includes a hard disk drive (HDD) 11 as recording means for recording the encoded stream, and a stream for stably writing the encoded stream multiplexed by Mux7 to the HDD 11.
  • a stream control unit 9 as a control means, a stream buffer 17 for temporarily storing an encoded stream, a file system unit 10 for storing each generated encoded stream as a file in the HDD 11, and a generated It has a navigation unit 12 for generating and managing address information for realizing special reproduction and CM section information described later, in addition to the thread name and generation date and time of the code stream.
  • the video / audio recording apparatus 20 includes a scene change detection unit 13 as a video change point detection means for detecting a scene change scene of video, and a silence detection as a silence detection means for detecting a silent section of audio.
  • Section 14 transition point detection section 15 as a transition point detecting means for detecting a transition point where a scene change and a silent section occur at the same time, and a transition that holds information on a scene change and a silent section in order to detect the transition point
  • a transition point matching buffer 19 provided as a temporary storage means provided in the point detector 15 and a CM filter as a CM broadcast section judgment means for detecting a CM section from a plurality of transition points with a periodicity unique to the CM.
  • a transition point stack table 18 for storing transition points analyzed by the CM filter 16.
  • the force recording means whose HDD 105 is shown as the recording means may be another information recording medium such as an optical disk such as a DVD or a magnetic tape.
  • the video / audio recording device 20 may be a receiver or a DVDZHDD hybrid recorder that receives and records a broadcast program.
  • the video / audio recording apparatus 20 is applicable not only to a home video recorder but also to various uses such as a personal computer, a video server, or a surveillance recorder for a surveillance system.
  • the file system unit 10 performs data management for making it easy to access the write information by converting the information to be written to the HDD 11 into a file.
  • the file system unit 10 allows the stream control unit 9 and the navigation unit 12 to When writing information to HDD11 or reading from HDD11, by specifying a file that does not care about the direct address on HDD11, it is possible to read and write in order from the beginning or in order of the specified position force. It can be carried out.
  • MPEG-2 which is an encoding method by the video encoder 5, supports a variable rate, and therefore, the amount of code (bit rate) generated per second varies greatly with time. Therefore, the stream control unit 9 temporarily stores the encoded stream in the stream buffer 17 so that the encoded stream does not overflow or underflow due to data writing to the HDD 11 and data reading from the HDD 11, and the status of the HDD 11 Depending on the situation, the coded stream is written to HDD11 and read from HDD11.
  • the stream buffer 17 is composed of a ring buffer, and a valid data area is managed by a write position pointer and a read position pointer.
  • tuner 2 When the user manually presses the recording start button or when the recording start time set in advance by the recording timer is reached, tuner 2 also selects the designated channel for the broadcast wave power received by antenna 1.
  • the video and audio analog signals output from the tuner 2 are sent to the video AZD conversion unit 3 and the audio AZD conversion unit 4, respectively, and converted into digital video signals and digital audio signals.
  • the recording control unit 8 instructs the video encoder 5 and the audio encoder 6 to start encoding and the Mux 7 to start multiprocessing at the start of recording.
  • the digital video signal and the digital audio signal output from the video AZD conversion unit 3 or the audio AZD conversion unit 4 are sequentially compressed and encoded by the video encoder 5 and the audio encoder 6, and further, Mux 7 1 Multiplexed into one program stream, the stream control unit 9 controls the stream and is recorded on the HDD 11! ⁇ o
  • the video encoder 5 sends a GOP code completion notification to the recording control unit 8 every time encoding of a GOP (Group of Pictures) that is an encoding unit is completed.
  • the stream control unit 9 sequentially writes the encoded stream encoded by the video encoder 5 and the audio encoder 6 and multiplexed by Mux 7 with the write position pointer of the stream buffer 17 as the head.
  • the stream control unit 9 reads the encoded stream with the read position pointer force of the stream buffer 17 while confirming that the HDD 11 is in a write state, and writes it to the HDD 11. The above operation is repeated while recording is in progress.
  • the recording control unit 8 instructs the video encoder 5 and the audio encoder 6 to end the encoding, and stops the encoding. After the encoding is stopped, the stream control unit 9 writes all the encoded streams remaining in the stream buffer 17 to the HDD 11.
  • the recording control unit 8 sends a scene change detection command to the scene change detection unit 13 every time GOP code completion is received from the video encoder 5.
  • the scene change detection unit 13 reads the GOP data that has been encoded from the stream control unit 9, and detects a scene change of the video.
  • the detection method there is the following method. First, the I picture is decoded from the read GOP unit data, and a histogram is created. The histogram is compared with the histogram of the previous I picture, and the sum of the absolute differences between the element values of the histogram is defined as the scene change difference value.
  • the scene change difference value is a preset threshold value. If it is larger, the scene change is determined.
  • the audio AZD conversion unit 4 converts an analog audio signal into a linear PCM signal that is a digital audio signal.
  • the silence detection unit 14 determines that the period is a silence interval if the state where the amplitude of the input linear PCM signal is equal to or less than a preset threshold value continues for a preset time.
  • the amplitude of the input linear PCM signal is set to a preset threshold. If the state below the value continues for 300 milliseconds or more, it is determined that a silent section has occurred.
  • the reason for requiring that the linear PCM signal has a low amplitude for a certain period of time as a condition of the silent section is to prevent instantaneous silence from being determined as a silent section, and to This is because if the frequency of the CM broadcast section detection operation described later increases for each occurrence, the processing load on the system increases, and operations other than CM broadcast section detection may be hindered. If it is determined that it is a silent section, the silent start time is calculated from the cumulative number of recording start force samples. If the amplitude of the linear PCM signal becomes larger than the preset threshold value while the silence period is continued, it is determined that the silence period has ended, and the cumulative number of samples is the same. Is calculated.
  • FIG. 13 is a flowchart showing the operation of the transition point detection unit 15 of the video / audio recording apparatus 20 shown in FIG.
  • the transition point detection unit 15 switches the operation based on the scene change information sent from the scene change detection unit 13 or the silence information sent from the silence detection unit 14. For example, the operation of the transition point detection unit 15 is started, the scene change detection unit 13 performs a scene change detection operation (step S 101), and scene change information includes a scene change detection flag, a GOP number, and a scene. If the change difference value is sent to the transition point detection unit 15, the scene change information detected in step S101 is stored in the transition point matching buffer 19 in the transition point detection unit 15 (step S102).
  • a silence detection flag, a silence occurrence time, and a silence end time are sent to the transition point detection unit 15 as silence section information.
  • the silence information related to the silence section determined in step S103 is stored in the transition point matching buffer 19 in the transition point detection unit 15 (step S104).
  • a transition point is detected on the transition point matching buffer 19, that is, a time position where a scene change and silence occur simultaneously is detected (step S105). The transition point is detected every time a silent section is detected. To obtain the product information of the scene change detection section and the silent section, it is necessary to detect the silent section that is less frequently generated than the scene change detection.
  • the transition point matching buffer 19 temporarily stores the latest scene change and silent section information. If the two match, the matched information is sent to step S106, which is the next process. That sea Change information and silent section information, and previous scene change information and silent section information are discarded. In addition, the scene change information and the silent section information are discarded when a predetermined time has elapsed. By such control, it is possible to detect the coincidence between a scene change and a silent section in real time even with a finite noffer size. Therefore, a transition point can be detected on the transition point matching buffer 19 based on the scene change GOP number for a scene change that occurs between the start time and end time of the silent section.
  • the GOP number of the scene change is used as a value that represents the transition point time.
  • the transition point selected in this way, the difference value of the matched scene change and the duration of silence are sent to the next CM filter 16 (step S106), and the transition point stack table for storing the transition point in the CM filter 16 18 And the operation of CM filter 16 is executed (step S107).
  • FIG. 12 is a diagram showing an example of the transition point stack table 18. Since the transition point stack table 18 is updated during the CM broadcast section detection operation that is executed in parallel with the recording, it has a ring buffer configuration. Therefore, the processing range for CM broadcast section detection is up to the read pointer power and before the write pointer.
  • transition point stack table 18 a transition point G OP number indicating the time position of the transition point, a concatenation end GOP number indicating the time position of the final transition point when the subsequent transition point is regarded as CM, and A transition point counter indicating the number of subsequent transition points, a silent time length at the transition point, a scene change difference value at the transition point, and a valid / invalid flag indicating validity / invalidity of this transition point are provided! / RU
  • the transition point GOP number is the GOP number at which the scene change was detected.
  • the time can be expressed by the GOP cumulative number from the start of recording.
  • the end of connection GOP number is the GOP number of the last transition point in the CM broadcast section based on a certain transition point.
  • CMs are continuously detected at GOP numbers '10', '40', and '101', so the GOP number '101' is Concatenation end GOP number.
  • the transition point detector 15 detects the transition point 33g, GO
  • the GOP number '130' is connected to the P number '101', and the transition point 33b to the transition point 33g is determined as the CM broadcast section. If there is no transition point following the transition point GOP number, the concatenation end GOP number is the same value as the transition point GOP number.
  • the transition point counter indicates the number of transition points when CMs are connected at transition points in the CM broadcast section.
  • the silent time length indicates the length of the silent section at the transition point in milliseconds.
  • the scene change difference value indicates the change amount of the scene change at the transition point from 0 to 1.
  • the valid / invalid flag is a flag indicating that it is a processing target range in the transition point stack table.
  • valid '1' is set.
  • a certain transition point is out of the processing range, for example, when '10, '40, '101,' 131 'is detected as a CM section,' 6 before '10', , 'All transition points between' 10 'and' 131 '62, '83, invalid' 0, the processing speed and memory size required for the transition point stack table It is possible to reduce this.
  • the CM filter 16 compares transition points that are elements of the transition point stack table 18, and the transition point interval is a predetermined reference interval, for example, 15 seconds, 30 seconds, 60 seconds, or 9 Extract what is equivalent to 0 seconds.
  • the CM length may be shifted by 15 seconds due to detection error, length variation at the frame level of the CM, and so on. Therefore, the effective interval as the interval of the previous transition point can be expressed by the number of GOPs, and the tolerance of ⁇ 1GOP is provided, such as 30GOP ⁇ 1GOP, 60GOP ⁇ 1GOP, 120GOP player lGOP and 180GOP ⁇ 1GOP It can be expressed as the number of GOPs.
  • the interval between transition points where the interval between the transition points coincides with the GOP interval set in advance as described above is set as the CM candidate interval.
  • that section is designated as the CM broadcast section. To do.
  • FIGS. 15A to 15E are diagrams for explaining the CM broadcast interval detection operation in the video / audio recording apparatus 20 of the sixth embodiment.
  • a method for identifying between CM broadcasts is explained using Figs. 15 (A) to (E).
  • the case where the silent section 31a,..., 31m is detected by the silent detector 14 will be described.
  • FIG. 15 (B) it is assumed that there are scene changes 32a,.
  • the silence occurrence time and silence end time are obtained, and for scene changes, the GOP number where the scene change occurred is obtained.
  • the time can be uniquely expressed by the GOP number.
  • transition points 33a,..., 33i are detected as shown in FIG. Further, the transition points 33a,..., 33i that match the CM interval are determined as CMs.
  • the interval from transition point 33b to transition point 33c is 30 GOP
  • the interval from transition point 33c to transition point 33f is 61 GOP
  • the interval from transition point 33f to transition point 33g is 29 GOP. Since each section is detected as a CM, and three CMs continue in succession, transition points 33b,..., 33g are determined to be CM broadcast sections.
  • the force at which the transition point 33i is detected when 201GOP has passed since the transition point 33g The interval from the transition point 33g to the transition point 33i exceeds 180GOP, which is the maximum value of the preset CM broadcast section. It can be judged that the CM has ended, indicating that the CM broadcast section detection has been completed.
  • the transition point detection unit 15 detects a transition point at which a scene change and a silent section occur simultaneously, the information is sent to the CM filter 16 to start the operation of the CM filter 16 (step S401).
  • Information on the detected transition point is stored at the end of the transition point stack table 18 in the CM filter 16 (step S402).
  • the information stored in the transition point stack table 18 in the CM filter 16 includes a valid / invalid flag, transition point GOP number, concatenation end GOP number, transition point counter value that is the number of transition points detected as consecutive CMs, Indicates the silent time length of the detected transition point and the amount of scene change. This is the scene change difference value.
  • the reading base point of the transition point stack table 18 is set (step S403). In FIG.
  • step S407 the transition point 33c is the end point. If there is no transition point as the end point in the transition point stack table 18 (step S408), the next base point is acquired (step S404). In FIG. 15C, when the base point is the transition point 33a and the end point is the transition point 33i, the base point is the transition point 33b.
  • the CM detection process is terminated (step S406).
  • the base point force is also obtained as a time length until the end point (step S409).
  • Fig. 15 (C) when the base point is the transition point 33b and the end point is the transition point 33c, it is the difference between the base point '1 0' and the end point '40' (ie, the transition point interval). It is. If this length of time matches one of the CM reference times 30GOP ⁇ 1GOP, 60GOP ⁇ 1GOP, 120GOP player lGOP, and 180GOP ⁇ 1GOP (step S410), the base link end GOP number is set to the end point. Replace with the end of consolidation GOP number (step S411).
  • step S412 If it is determined in step S410 that it is not the CM reference time length, it is next determined whether the time length between the base point and the end point exceeds the maximum CM reference time length of 180 GOP ⁇ 1 GOP (In step S414), if it is determined that it has exceeded, it is determined from the base point to the link end GOP number as the CM broadcast section, and information on the CM broadcast section is sent to the recording control unit 8 (step S415). In addition, the base point of the next CM broadcast section detection process is set to the transition point next to the final transition point of the current CM broadcast section, and the valid / invalid flag of the transition point before the detected final transition point is invalidated. (Step S416).
  • the CM broadcast section of the broadcast program to be recorded can be detected in real time.
  • the time information of the CM broadcast section detected by the CM filter 16 is once passed to the recording control unit 8 and transmitted to the navigation unit 12 that handles the management information of the recorded program. It is recorded on the HDD 11 that functions as a transmission section information recording means.
  • CM is executed in parallel with the recording operation. Since the broadcast section can be detected, the range of encoder selection is widened, and as a result, it is possible to select an encoder with an emphasis on cost and availability.
  • the scene change detection result and the silence detection result are recorded in the transition point matching buffer 19 which is a temporary storage area, and the transition point is compared in the storage area of the transition point matching buffer 19 in real time. Therefore, the CM broadcast section can be detected in parallel with the recording. Even if a scene change and a silent section occurring at the same time are notified to the transition point detection unit 15 with a certain amount of time difference, the information is held in the transition point matching buffer 19, so one of the information is collected. The CM broadcast section can be detected without spilling.
  • transition point matching buffer 19 which is a temporary storage area is executed.
  • silence only registration to the transition point matching buffer 19 is performed.
  • the transition point matching buffer 19 detects a scene change that occurs at the same time as silence, and further detects the CM broadcast section to perform processing in synchronization with silence detection with a small number of detections. As a result, it is possible to detect CM broadcast sections with less CPU processing time and less system load! /.
  • CM broadcast section detection when the unit of CM broadcast section detection is linked in units of frames, for example, it is only possible to reduce the processing frequency and processing load by using GOP units. Even if there is, CM broadcast section without being affected by the difference in length of each CM Can be detected.
  • the force scene change detection unit in which the scene change detection unit is 1 GOP may be a plurality of GOP units. Further, the scene change detection unit may be set for any number of frames.
  • a method for selecting a transition point to be determined as a boundary between CMs when a plurality of transition points exist in the vicinity of the boundary between CMs will be described.
  • telops such as the name of the company or product that advertises are often displayed temporarily.
  • silence and scene changes occur at the same time, and transition points often occur multiple times in succession.
  • detection is performed with a certain amount of width relative to the reference CM length.
  • Embodiment 7 shows three selection criteria that serve as a guide for selecting one transition point from candidate transition points.
  • FIGS. 17A to 17C show candidate transition points and selected transition points.
  • the first method is to select the next transition point so that it is ⁇ OGOP from the reference time, as shown in Fig. 17 (A), and the transition interval is 30 GOP, 60 GOP, and 90 GOP. It is a way to go.
  • CM filter 16 calculates the sum of the time length of the CM determined immediately before and the time length of the CM previously determined next as the preset reference time (for example, A transition point that is close to an integer multiple of 30 GOP is determined as a transition point for defining the CM broadcast section.
  • the third method is a method of selecting the accumulated time so that it becomes ⁇ 0 GOP as much as possible.
  • the selected transition point is GOP number '0', '29', '58, GOP number '88
  • GOP interval becomes 30 ⁇ 0GOP
  • GOP number '89' that makes GOP interval 30 + 1GOP without selecting GOP number
  • the shift point shift will be ⁇ 0GOP as a whole.
  • the CM filter 16 defines the CM broadcast section as a transition point having a high degree of closeness to the determined CM broadcast section to be an integer multiple of a preset reference time (for example, 30 GOP). Judge as a transition point.
  • the detected CM broadcast section becomes closer to the reference time, and the detection accuracy of the CM broadcast section Will improve.
  • one CM is detected by weighting the detected transition point so that the deviation time from the reference time of the cumulative value of the cumulative number of hours or the number of GOPs is ⁇ 0 GOP.
  • the ⁇ 1 GOP which is the error to continue, is continuously executed in the CM broadcast section, that is, it is detected by deviating from the original CM boundary and further deviating from the original CM boundary force. The problem that the CM to be detected cannot be detected can be reduced.
  • Figure 18 shows the result of measuring the duration of silence between one CM and the next CM in a broadcast section that includes any 20 programs and 591 CMs that are actually being broadcast. It is a graph which shows. As shown in Figure 18, most of the silence between CMs exists between 0.8 seconds and 1.4 seconds!
  • FIG. 19 is a graph showing the result of measuring the time length of the silent part when the CM broadcast section ends and the program shifts to the main program in the broadcast section of any 20 programs as in FIG. It is.
  • the CM broadcast section power also shifts to the main part of the program, most of the time length of the silent part exists between about 0.4 seconds and about 1.2 seconds.
  • the silent time length at the transition point shown in Embodiment 6 is between 0.4 seconds and 0.8 seconds, or 1.4 seconds or more, the CM will end in most cases and the program It can be determined that the main part has been transferred.
  • FIG. 20 is a flowchart showing a method for detecting a CM broadcast section using the silent time length between CMs.
  • the basic CM broadcast section detection method in the eighth embodiment is the same as in the sixth embodiment, but in the eighth embodiment, the silent time length of the transition point is verified in step S420.
  • the CM is terminated. A step of determining is added.
  • At least one silence time length at each transition point of the CM broadcast section silence having a time length within the range of 0.8 seconds to 1.4 seconds. Verify that the part exists (step S420), and if there is no silent part with a time length in the range from 0.8 seconds to 1.4 seconds, do not adopt it as the CM broadcast section. The process is added.
  • CM broadcast section detection method capable of improving detection accuracy using a scene change difference value indicating a change amount of a scene change will be described.
  • FIG. 21 shows the scene change difference value in the video / audio recording apparatus of the ninth embodiment. It is a flowchart which shows the detection method of used CM broadcast area.
  • FIG. 22 is a diagram for explaining a CM broadcast interval detection method using the scene change difference value in the video / audio recording apparatus of the ninth embodiment.
  • FIG. 22 shows the detected CM broadcast section and transition points 51a,..., 51f located at the boundary of each CM in the CM broadcast section.
  • the amount of change in scene change is extremely large because the video-causal relationship between CM and the main program or between CM and CM is poor.
  • the program main part is mistakenly used by utilizing the fact that the scene change difference value between the CM and the main part of the program and between the CM and CM is larger than the scene change difference value in the main part of the program.
  • CM filter 16 determines that the time length from the transition point as the base point to the transition point as the end point is the same as the CM reference time length (for example, 15 seconds, 30 seconds, 60 seconds, 90 seconds, etc.) After (Step S410), it is determined whether the base point and the end point are the head CM and the time length is 60 seconds or 90 seconds (Step S430). If these conditions are met, the base scene change difference value is compared with the end point scene change difference value (step S431). Return to 1. In FIG. 22, the scene change difference values at the transition point 51a and the transition point 51b are compared, and it is determined that the scene change difference value is large! /, Which is the boundary between the main program and the CM.
  • step S431 if it is determined in step S431 that the scene change difference value at the end point is larger than the scene change difference value at the base point, the CM filter 16 starts CM from the end point position, that is, with this base point. It is determined that the main program is continued during the end point.
  • the CM filter 16 determines whether the CM is the final CM at the end of the CM and the time length is 60 seconds or 90 seconds (step S432). Compare the change change value with the scene change difference value at the end point (step S433). Move to. In FIG. 22, the scene change difference value at the transition point 51e is compared with the scene change difference value at the transition point 51f, and the one with the larger scene change difference value is determined as the boundary between the CM and the main part of the program.
  • the CM filter 16 starts the base point position program, that is, the base point. It is determined that the program is already in the main part during the end point. In this way, in the case of a CM that is long, such as 60 seconds or 90 seconds at the start of the CM or at the start of the main part, and is broadcasted less frequently, it depends on which of the video changes are greater before and after the section. Determine the boundary between the main program and the CM.
  • the beginning and end of the main part of the program may be edited units such as a single episode or a corner. In such a case, there is a possibility of being erroneously detected as a CM.
  • the boundary between the CM and the main part of the program can be accurately detected by finding the CM boundary where the video change is larger.
  • step S435 the scene change difference value of all transition points is checked and compared with a second threshold value that is larger than the threshold value used for the scene change determination, and at least one transition point of the CM broadcast section. If the scene change difference value exceeds the second threshold, the process proceeds to step S415, where it is treated as a CM broadcast section. If not, the CM broadcast section is invalidated (step S436).
  • the threshold value of the scene change difference value is 0.9
  • the scene change difference values at the transition points 33b and 33g out of the transition points 33b, 33c, 33f, and 33g exceed the threshold value 0.9. Therefore, the period from the transition point 33b to the transition point 33g is determined as the CM broadcast section.
  • the boundary between the main program and the CM is determined by using the scene change difference value for selecting the boundary between the main program and the CM at the CM at the boundary between the main program and the CM. It is possible to reduce the frequency of occurrences of misdetection of the beginning or end of the main program as CM.
  • At least one of the scene change difference values in the detected CM broadcast section is If it does not exceed a certain threshold, it is determined that it is not a CM, so that it is possible to reduce the occurrence frequency of a situation in which a main program with a small amount of video change compared to a CM is erroneously detected as a CM.
  • Embodiment 10 there is a method for detecting a fragmented CM of several seconds when there is a CM of several seconds at the beginning of the recorded stream and the main part is recorded following that CM.
  • the video / audio recording device 20 requires a certain period of time from the start of recording to the start of actual recording. For this reason, a few seconds from the preset recording start time. Many are configured to start recording retroactively. Also, there is no guarantee that the clock held inside the audiovisual recording device always points to the correct time. Therefore, for example, even if the program is scheduled to start at broadcast program power SPM 9:00 and the main part of PM 9:00 is started, it may be recorded at the beginning of the recorded stream.
  • Embodiment 10 shows a method for extracting a fragmented CM recorded at the beginning of a recorded stream.
  • Embodiment 10 will be described with reference to FIG. Assume that the recorded stream force is detected at the transition point, which is the point at which scene change and silence occur simultaneously.
  • the transition point 60c that occurred last in the forced CM conversion section 61 in Fig. 23 is judged as the boundary between CM and the main part, and the section between the recording start position 62 and 60c is regarded as CM.
  • the forced CM section is determined by the specifications of the video / audio recording device. For example, if recording starts 5 seconds before the scheduled recording time, the forced CM section may be 5 seconds.
  • an error of the internal clock of the video / audio recording apparatus for example, 2 seconds may be taken into account, and 7 seconds may be set.
  • the final transition point 60c in the compulsory CM section is adopted as the boundary between the CM and the main part so that the time width of the compulsory CM section is approximately equal to the difference between the actual recording start time and the scheduled recording time. This is because the frequency of transition points in CM is considerably higher than the frequency of transition points in this volume.
  • recording is started as a forced CM time instead of the force forced CM interval, in which the final transition point in the forced CM interval is adopted as the boundary between CM and the main part.
  • the final transition point in the forced CM interval is adopted as the boundary between CM and the main part.
  • 60d and CM are adopted as the boundaries of the main part.
  • CM broadcast sections can be detected by selectively combining the configurations of Embodiments 6 to 10.

Abstract

 映像の記録と並行して映像のシーンチェンジ抽出を行うことができる映像記録装置及びシーンチェンジ抽出方法を提供する。映像記録装置100は、映像データPINを符号化する符号化器101と、符号化器101から出力された符号化ストリームを記録するHDD105と、符号化器101から出力された符号化ストリームをHDD105に転送するストリーム制御部103と、符号化器101から出力された符号化ストリームを復号化し、復号化された映像データのシーンチェンジを抽出するシーンチェンジ抽出部110と、符号化器101から符号化ストリームの符号化単位毎に符号化完了通知IENを取得して、シーンチェンジ抽出部110に対するシーンチェンジ抽出指示CSCを出力する録画制御部102とを有している。

Description

明 細 書
映像記録装置、シーンチェンジ抽出方法、及び映像音声記録装置 技術分野
[0001] 本発明は、映像の記録と並行して映像のシーンチェンジを検出することができる映 像記録装置、及びこの映像記録装置によって実施されるシーンチェンジ抽出方法に 関するものである。また、本発明は、テレビジョン放送番組の録画と並行して、録画さ れるテレビジョン放送番組の本編の間に挟まれているコマーシャルメッセージ(Com mercial Message)放送の検出を行うことができる映像音声記録装置に関するもの である。
背景技術
[0002] 従来、映像を符号化して記録する映像記録装置において、記録した映像から希望 する映像シーンを探し出すためには、早送り又は巻戻しなどの特殊再生を利用しな がら、人間の目で該当するシーンを探し出しており、非常に多くの時間と労力を費や す必要があった。
[0003] このような問題を解消するために、映像の場面転換シーン (以後「シーンチェンジ」 と言う。)を見つけるための方法が提案されてきた (例えば、特許文献 1及び 2参照)。 特許文献 1には、符号化を行うェンコーダの前段のプリ映像信号処理装置において 、時間的に前後する 2つの映像のヒストグラムの差の絶対値を算出し、算出された絶 対値が所定の閾値を超えた場合にシーンチェンジであると判定する方法が示されて いる。また、特許文献 2には、既に HDDなどのストレージメディアに蓄積された映像 データを読み出してシーンチェンジを抽出する方法が示されている。
[0004] また、テレビジョン放送は、その内容から「番組本編放送」と「コマーシャルメッセ一 ジ放送」に分類することができる。番組本編放送は、映画番組の場合には映画の内 容自体の映像音声データに基づく放送部分である。一方、コマーシャルメッセージ放 送は、広告主や広告代理店などの依頼主が放送局と契約を結んで、依頼主から提 供を受けた映像音声データに基づく放送部分であり、番組本編放送の合間に放送さ れるものである。また、コマーシャルメッセージ放送には、放送局が自らの広告宣伝を するための放送も含まれる。本出願においては、「番組本編放送」を「番組本編」と、「 コマーシャルメッセージ放送」を「CM放送」とも記す。番組本編と CM放送とは、内容 の関連が希薄である場合が多ぐ番組本編の視聴に集中したい視聴者にとっては、 テレビジョン放送を録画する際又は視聴する際に、 CM放送を効率よく削除したい、 又は見飛ばしたい、とする要望がある。
[0005] 従来の映像音声記録装置は、テレビジョン放送の音声方式を検出し、検出された 音声方式に基づ 、て番組本編と CM放送との識別を行って 、た。番組本編の音声 方式は、モノラル音声又はニケ国語音声 (洋画における日本語と英語、など)であるこ とが多ぐまた、一般に、 CM放送の音声方式は、ステレオ音声であることが多い。こ のような違いを利用して、ステレオ音声が検出された区間を CM放送区間と判別して 、録画時には CM放送区間の録画を行わない (すなわち、削除する)、又は、視聴時 には CM放送区間を見飛ばす (すなわち、スキップする)処理を行うようにして!/、た。
[0006] 上記従来の CM検出方式は、番組本編の音声方式が CM放送の音声方式と同じス テレオ音声である場合には、機能しなくなる。この改善策として、番組本編と CM放送 との境界に挿入される「ブラック 'フレーム」と呼ばれる全画面黒色のフレーム映像を 検出して CM放送区間を特定する提案がある (例えば、特許文献 3参照。 )0また、番 組本編と CM放送との境界に生じる無音区間を検出し、検出された無音区間の出現 間隔力も CM放送区間を特定する提案もある (例えば、特許文献 4参照。 )0また、映 像のシーンチェンジの発生頻度を利用して CM放送を抽出する提案もある(特許文 献 5参照)。さらに、視聴時に、ユーザーのボタン操作によって、 15秒などの固定時 間を見飛ばし (すなわち、スキップ)するユーザーインターフェースを提供する提案も ある。
[0007] 特許文献 1 :特開 2004— 282318号公報(第 7頁、図 2)
特許文献 2 :特開 2002— 064823号公報 (第 5頁、図 1)
特許文献 3:特表平 8— 507633号公報 (第 12— 15頁、図 1)
特許文献 4:特開 2003— 47031号公報 (第 5— 8頁、図 1)
特許文献 5:特開 2000— 165796号公報 (第 7頁、図 14)
発明の開示 発明が解決しょうとする課題
[0008] し力しながら、特許文献 1に示される方法は、エンコーダの前段に設けられたプリ映 像信号処理装置によってシーンチェンジを検出する方法であるので、ビデオェンコ ーダからエンコーダまでの構成が一体になつているエンコーダチップセットであって シーンチェンジ抽出結果を外部に出力しないものを備えた映像記録装置には適用 することができなかった。また、エンコーダチップセットがシーンチェンジ抽出結果を 出力する場合においても、使用するエンコーダチップセットの種類が変わる毎にシー ンチェンジ抽出結果が変わってしまうので、エンコーダチップセットの種類が変わる毎 に映像記録装置における調整が必要になるという問題があった。
[0009] また、特許文献 2に示される方法は、既に圧縮され HDD上に記録された映像ストリ ーム力 シーンチェンジを検出する方法であるので、記録処理が完了した後に、オフ ラインで多大な時間の力かる処理を行う必要があり、実用的ではな力つた。
[0010] また、ブラック 'フレームを検出して CM放送区間を特定する特許文献 3に記載の方 法では、国や地域、又は放送局によってはブラック 'フレームが挿入されていないこと があるので (実際に、国内放送において、ブラック 'フレームの挿入は法令で義務付 けられては 、な 、)、 CM放送区間の自動検出の確度を十分に高くできな 、と 、う問 題がある。
[0011] また、特許文献 4又は 5に記載の方法では、無音区間やシーンチェンジが番組本 編の中にも多数存在するので、 CM放送区間を高精度に特定することは困難である という問題がある。
[0012] さらに、ユーザーのボタン操作によって 15秒スキップさせる方法では、 15秒の倍数 系列にな 、既定外の時間長(例えば、 5秒の番組スポット宣伝など)を持つ CM放送 には対応することができな 、と 、う問題がある。
[0013] そこで、本発明は、上記従来技術の課題を解決するためになされたものであり、そ の目的は、映像の記録と並行して映像のシーンチェンジ抽出を行うことができる映像 記録装置及びこの映像記録装置において実施されるシーンチェンジ抽出方法を提 供することである。また、本発明の他の目的は、テレビジョン放送番組の記録と並行し て、 CM放送区間の抽出を可能とする映像音声記録装置を提供することである。 課題を解決するための手段
[0014] 本発明の映像記録装置は、映像データを符号化する符号化手段と、前記符号ィ匕 手段力 出力された符号化ストリームを記録する記録手段と、前記符号化手段から出 力された符号化ストリームを前記記録手段に転送するストリーム制御手段と、前記符 号ィ匕手段カゝら出力された符号化ストリームを復号ィ匕し、該復号化された映像データの シーンチェンジを抽出する映像変化点抽出手段と、前記符号化手段から符号化スト リームの符号ィ匕単位毎に符号ィ匕完了通知を取得し、該符号ィ匕完了通知を取得したと きに前記映像変化点抽出手段に対するシーンチェンジ抽出指示を出力する録画制 御手段とを有することを特徴とするものである。
[0015] また、本発明のシーンチェンジ抽出方法は、符号ィ匕手段によって映像データを符 号化して符号化ストリームを出力するステップと、前記符号化ストリームをストリーム制 御手段によって転送して記録手段に記録するステップと、録画制御手段によって前 記符号ィ匕手段力 符号化ストリームの符号ィ匕単位毎に符号ィ匕完了通知を取得し、該 符号ィヒ完了通知を取得したときに映像変化点抽出手段に対するシーンチェンジ抽 出指示を出力するステップと、前記映像変化点抽出手段によって、前記符号化手段 力も出力された符号化ストリームを復号ィ匕し、該復号ィ匕された映像データのシーンチ ェンジを抽出するステップとを有することを特徴とするものである。
[0016] 本発明の映像音声記録装置は、入力された映像'音声データを符号化して符号化 ストリームを出力する符号ィ匕手段と、前記符号ィ匕手段力 出力された符号化ストリー ムを記録する記録手段と、前記符号ィヒ手段カゝら出力された符号化ストリームを復号 化し、該復号ィ匕されたデータから映像のシーンチェンジを検出する映像変化点検出 手段と、入力された音声データから無音区間を検出する無音検出手段と、前記映像 変化点検出手段によって検出されたシーンチェンジと前記無音検出手段によって検 出された無音区間が同時に発生する変移点を検出する変移点検出手段と、前記変 移点検出手段によって検出された変移点の間隔が予め設定された基準時間を中心 とする所定の時間範囲内になる変移点の組み合わせが連続して 2つ以上継続する 区間を CM放送区間と判定する CM放送区間判定手段と、前記 CM放送区間判定 手段によって判定された CM放送区間の時刻情報を記録する CM放送区間情報記 録手段とを有することを特徴として 、る。
発明の効果
[0017] 本発明の映像記録装置及びシーンチェンジ抽出方法によれば、映像が符号ィ匕さ れる毎にシーンチェンジ抽出処理を行うので、リアルタイムにシーンチェンジの抽出 を行うことができるという効果がある。
[0018] 本発明の映像音声記録装置によれば、放送番組の記録と並行して CM放送区間 検出処理を実行するのでリアルタイムに CM放送区間検出を行うことができるという効 果がある。
図面の簡単な説明
[0019] [図 1]本発明の実施の形態 1の映像記録装置の構成を示すブロック図である。
[図 2]実施の形態 1の映像記録装置のシーンチェンジ抽出部の構成を示すブロック図 である。
[図 3]本発明の実施の形態 2の映像記録装置のシーンチェンジコマンド制御部の構 成を示すブロック図である。
[図 4]実施の形態 2の映像記録装置の動作を示すフローチャートである。
[図 5]実施の形態 2の映像記録装置のシーンチェンジコマンド制御部の API部の動 作を示すフローチャートである。
[図 6]実施の形態 2の映像記録装置のシーンチェンジコマンド制御部の状態制御部 の動作を示すフローチャートである。
[図 7]本発明の実施の形態 3の映像記録装置の復号ィ匕部の構成を示すブロック図で ある。
[図 8] (A)乃至 (D)は、実施の形態 3の映像記録装置の DCT係数削減処理を説明 するための図である。
[図 9]本発明の実施の形態 4の映像記録装置の復号ィ匕部の構成を示すブロック図で ある。
[図 10]本発明の実施の形態 5の映像記録装置における YUV領域を示す図である。
[図 11]実施の形態 5の映像記録装置の動作を示すフローチャートである。
[図 12]本発明の実施の形態 6の映像音声記録装置の構成を概略的に示すブロック 図である。
[図 13]実施の形態 6の映像音声記録装置の変移点検出部の動作を示すフローチヤ ートである。
[図 14]実施の形態 6の映像音声記録装置の変移点スタックテーブルの一例を示す図 である。
[図 15] (A)乃至 (E)は、実施の形態 6の映像音声記録装置における CM放送区間検 出動作を説明するための図である。
[図 16]実施の形態 6の映像音声記録装置の CM放送区間検出動作を示すフローチ ヤートである。
[図 17] (A)乃至 (C)は、本発明の実施の形態 7の映像音声記録装置における変移 点検出方法を示す図である。
[図 18]本発明の実施の形態 8の映像音声記録装置における CM間の無音時間長の 測定結果を示すグラフである。
[図 19]実施の形態 8の映像音声記録装置にお ヽて CMから番組本編に移行するとき の無音時間長の測定結果を示すグラフである。
[図 20]実施の形態 8の映像音声記録装置における、無音時間長を利用した CM放送 区間検出動作を示すフローチャートである。
[図 21]本発明の実施の形態 9の映像音声記録装置における、シーンチェンジ差異値 を利用した CM放送区間検出動作を示すフローチャートである。
[図 22]実施の形態 9の映像音声記録装置における、シーンチェンジ差異値を利用し た CM放送区間検出動作を説明するための図である。
[図 23]実施の形態 10の映像音声記録装置における動作を説明するための図である 符号の説明
100 映像記録装置、 101 符号化部、 102 録画制御部、 103 ストリーム制 御部、 104 ストリームバッファ、 105 HDD, 110 シーンチェンジ抽出部、 1 11 復号化部、 112 ヒストグラム生成器、 113 第 1のヒストグラムバッファ、 114 第 2のヒストグラムバッファ、 115 差分抽出器、 116 シーンチェンジ判定器、 120 シーンチェンジコマンド制御部、 121 API部、 122 コマンドバッファ、 12 3 シーンチェンジ抽出結果バッファ、 124 状態制御部、 301 画素サイズ検出 部、 302 次数決定部、 303 DCT係数抽出部、 304 IDCT部、 305 画像 整形部、 306 使用スライス決定部、 307 ヘッダ検出部、 308 逆量子化部、 1 アンテナ、 2 チューナ、 3 ビデオ AZD変換部、 4 オーディオ AZD変換 部、 5 ビデオエンコーダ、 6 オーディオエンコーダ、 7 マルチプレクサ(Mux) 、 8 録画制御部、 9 ストリーム制御部、 10 ファイルシステム部、 11 HDD、
12 ナビゲーシヨン部、 13 シーンチェンジ検出部、 14 無音検出部、 15 変移点検出部、 16 CMフィルタ、 17 ストリームバッファ、 18 変移点スタックテ 一ブル、 19 変移点マッチングバッファ、 20 映像音声記録装置、 31a, · ··, 31 m 無音区間、 32a, · ··, 32ο シーンチェンジ、 33a, · ··, 33i 変移点、 34a, · ··, 34c 検出された CM、 35 検出された CM放送区間、 51a 番組本編から C M放送区間に移行する時点における変移点、 51b, · ··, 51e CM間の変移点、 51f CM放送区間から番組本編に移行する時点における変移点。
発明を実施するための最良の形態
実施の形態 1.
図 1は、本発明の実施の形態 1の映像記録装置 100の構成を示すブロック図である 。図 1に示されるように、映像記録装置 100は、図示しないチューナから又は外部か ら入力された入力映像データに対して、 MPEG— 2 (Moving Picture Experts Group)に準拠した符号ィ匕を行う符号ィ匕手段としての符号ィ匕部 101と、符号化部 10 1によって生成された符号化ストリームが記録される記録手段としての HDD (ハード ディスクドライブ) 105と、 HDD105に対して符号化ストリームを安定的に書き込み及 び読み出しを行うためのストリーム制御を行うストリーム制御手段としてのストリーム制 御部 103とを有している。また、映像記録装置 100は、ストリーム制御部 103が符号 ィ匕ストリームを一時的に記憶しておく一時記憶手段としてのストリームバッファ 104と、 符号ィ匕部 101に対して符号ィ匕の開始 ·終了などを指示する録画制御手段としての録 画制御部 102と、符号ィ匕部 101によって生成された符号化ストリーム力もシーンチェ ンジを抽出する映像変化点抽出手段としてのシーンチェンジ抽出部 110とを有して いる。図 1には、記録手段として HDD105が示されている力 記録手段は、 DVDの ような光ディスクや磁気テープなどの他の情報記録媒体であってもよい。また、映像 記録装置 100は、 DVDZHDDノヽイブリツドレコーダであってもよい。さらに、映像記 録装置 100は、家庭用のビデオレコーダに限らず、パーソナルコンピュータ、映像サ ーノ 、又は、監視システム用の監視レコーダなどの各種用途に適用できる。
[0022] 符号ィ匕部 101による符号ィ匕方式である MPEG— 2は可変レートに対応しており、そ のため、 1秒間に発生する符号量 (ビットレート)は時間によって大きく変動する。その ため、ストリーム制御部 103は、 HDD105へのデータ書き込み及び HDD105からの データ読み出しによって符号化ストリームがオーバーフロー又はアンダーフローしな いように、符号化ストリームをストリームバッファ 104に一時的に保持させ、 HDD105 の状態に応じて符号化ストリームの HDD105への書き出し及び HDD105からの読 み込みを行っている。ストリームバッファ 104は、リングバッファで構成されており、書 き込み位置ポインタと読み出 Lf立置ポインタによって有効なデータ領域が管理されて いる。すなわち、データの書き込み時には、書き込み位置ポインタを先頭にデータサ ィズ分書き込みを行 ヽ、書き込んだデータサイズ分だけ書き込み位置ポインタを進め る。一方、データの読み出し時には、読み出し位置ポインタを先頭にデータサイズ分 読み出しを行い、読み出したデータサイズ分だけ読み出し位置ポインタを進める。た だし、リングバッファの終了位置に来たときは、ポインタを先頭の位置に戻す処理を行
[0023] 図 2は、図 1に示されるシーンチェンジ抽出部 110の構成を示すブロック図である。
図 2に示されるように、シーンチェンジ抽出部 110は、入力された符号化ストリームの 復号化を行う復号化手段としての復号化部 111と、復号ィ匕された映像データのヒスト グラムを生成するヒストグラム生成手段としてのヒストグラム生成器 112と、ヒストグラム 生成器 112によって生成されたヒストグラムを保持する第 1のヒストグラムバッファ 113 及び第 2のヒストグラムバッファ 114と、第 1のヒストグラムバッファ 113に保持されたヒ ストグラムと第 2のヒストグラムバッファ 114に保持されたヒストグラムの差異を求める差 分抽出手段としての差分抽出器 115とを有している。また、シーンチェンジ抽出部 11 0は、差分抽出器 115で求めた差異値と予め設定された閾値を比較するシーンチヱ ンジ判定手段としてのシーンチェンジ判定器 116と、録画制御部 102からのシーンチ ェンジ開始命令などの制御信号に基づ 、てシーンチェンジ抽出部 110を制御するシ ーンチェンジコマンド制御手段としてのシーンチェンジコマンド制御部 120とを有して いる。
[0024] 次に、映像記録装置 100の録画動作について説明する。録画が開始されると、録 画制御部 102は、符号ィ匕部 101に対して制御信号 C を出力して符号化開始を指
EN
示し、符号ィ匕部 101は入力された映像データ P の符号化処理を開始する。符号ィ匕
IN
部 101は、例えば、符号化単位である GOP (Group of Pictures)の符号化が完 了する毎に、録画制御部 102に GOP符号ィ匕完了通知 I を送る。ストリーム制御部 1
EN
03は、符号ィ匕部 101によって符号ィ匕された符号化ストリームをストリームバッファ 104 の書き込み位置ポインタを先頭に順次書き込んでいく。一方、ストリーム制御部 103 は、 HDD105が書き込み状態になっているのを確認しながら、ストリームバッファ 10 4の読み出し位置ポインタ力も符号化ストリームを読み出し、 HDD105に書き込みを 行う。録画が実行されている間、前記動作が繰り返し行われる。録画終了時には、録 画制御部 102は、符号ィ匕部 101に対して符号ィ匕終了を指示し、符号化部 101は符 号化を停止する。ストリーム制御部 103は、ストリームバッファ 104に残っている符号 化ストリームをすベて HDD105に書き込む。
[0025] 次に、録画を行いながらシーンチェンジを抽出する方法について説明する。録画制 御部 102は、例えば、 GOPの符号ィ匕完了通知 I を符号ィ匕部 101から受け取る毎に
EN
、シーンチェンジ抽出部 110に対してシーンチェンジ抽出コマンド C を送る。シーン
sc
チェンジ抽出コマンド C は、シーンチェンジ抽出部 110内のシーンチェンジ制御部
sc
120を経由して、復号化開始コマンド C として復号ィ匕部 111に送られる。復号化部
DE
111は、符号化ストリーム P をストリーム制御部 103を経由してストリームバッファ 10
ST
4から呼び出し、復号化を開始する。復号ィ匕部 111によって MPEG— 2から YUVに 復号ィ匕された映像データはヒストグラム生成器 112に入力され、ヒストグラム生成器 1 12によって映像データの YUVの各区画に含まれる計数に基づいてヒストグラムが作 成される。ここで、ヒストグラム生成のための区画分けは、値の取り得る範囲を一定間 隔に区切る方法、又は、予め複数の閾値を定めておいて、各閾値に対する大小関係 に応じて区画分けをする方法などがある。また、ここでは、輝度成分 Yと色差成分 u、 Vのすベての成分に対してヒストグラムを作成する場合を説明して 、るが、輝度成分 Yのみについてヒストグラムを生成する方法を採用してもよい。また、輝度成分 Yと色 差成分 U、 Vのすベての成分に対してヒストグラムを作成するが、色差成分 U及び V に対しては重みを加えて区画分けを荒くする方法を採用してもよい。また、ヒストグラ ムの区画分けの方法は、以上に説明した例に限定されず、他の区画分け方法を採 用してちょい。
[0026] ヒストグラム生成器 112で生成されたヒストグラムは、第 1のヒストグラムバッファ 113 又は第 2のヒストグラムバッファ 114に交互に送られ保持される。差分抽出器 115は、 第 1のヒストグラムバッファ 113及び第 2のヒストグラムバッファ 114に交互に記憶され たヒストグラムを用いて、現在の映像データと 1つ前の映像データの映像の比較を行 い(例えば、現在のフレームの映像データと、 1フレーム前のフレームの映像データの 比較を行い)、差異値を求める。 2つのヒストグラムの差異値を求める方法としては、例 えば、 2つのヒストグラムの対応する成分の値の差を、すべての成分について累積す る方法がある。ここで、 i番目の映像のヒストグラムを H
H = {h (l) , h (2) , · · · , h (K) }
とすると、 i番目の映像のヒストグラム Hと、 1つ前の i一 1番目の映像のヒストグラム H との差異値 dを以下の式で求める。なお、 Kは、所定の正の整数である。
[数 1] d x∑- i hi (k )- h-(k ) i
ここで、 Nは 1フレーム内の画素数である。これによつて、差異値 dは 0から 1までの値 をとり、 i番目のフレームの映像と i一 1番目のフレームの映像が同じ映像であれば差 異値 dは 0になり、 i番目のフレームの映像と i一 1番目のフレームの映像の違いが大き ければ差異値 dは 1に近づくことになる。
[0027] 差分抽出器 115で求められた差異値 dは、シーンチェンジ判定器 116に送られ、予 めシーンチェンジコマンド制御部 120によって設定された閾値 E と比較され、設定
TH
された閾値 E より大きな値であればシーンチェンジと判定し、その判定結果 R をシ ーンチェンジコマンド制御部 120に送る。さらに、録画終了時などに判定結果 R を
SC
録画制御部 102に送る。
[0028] 以上に説明したように、符号ィ匕部 101によって GOPの符号ィ匕が完了する毎に (す なわち、実施の形態 1においては、 GOPの符号ィ匕完了に同期して)、シーンチェンジ 抽出部 110でシーンチェンジ判定を行う処理を、映像の録画開始から終了までの間 において継続的に行うことによって、映像ストリーム P を録画しながら、映像ストリー
ST
ム p のシーンチェンジを抽出することができる。すなわち、符号化の最小単位である
ST
GOPの符号ィ匕完了毎にシーンチェンジ抽出処理を実行するので、符号化と並行し てシーンチェンジ抽出を行うことができる。
[0029] また、リアルタイムにシーンチェンジ抽出を行うので、シーンチェンジ抽出機能を有 していないエンコーダを符号ィ匕部 101に用いることができる。そのため、映像記録装 置に採用するエンコーダの選定に際して、シーンチェンジ抽出機能を有しないェンコ ーダを選ぶことが可能になり、エンコーダ選択の幅が広がり、コストや調達性を重視し たェンコーダの選択が可能になる。
[0030] また、既に HDDなどに蓄積された符号化ストリームを解析してシーンチェンジを抽 出する方法では、符号化ストリームを記憶装置である HDD力 読み出すための時間 力 シーンチェンジの解析時間にカ卩えて、必要とされる。し力しながら、実施の形態 1 の映像記録装置 100においては、 HDD105よりも書き込み及び読出し速度が速ぐ ストリームを一時的に記憶しておくストリームバッファ 104 (通常は、揮発性半導体メモ リを用いる)力も読み出すため高速に読み出すことができ、結果として処理時間が早 くなる。
[0031] また、シーンチェンジ抽出部 110は符号ィ匕部 101 (エンコーダ)の動作よつて影響さ れないので、エンコーダの種類や仕様が変更されたとしても、シーンチェンジの抽出 基準を一定範囲に維持することができる。
[0032] また、実施の形態 1の映像記録装置は、録画と並行してシーンチェンジを抽出でき る機能のほかに、符号化ストリームを直接解析する機能をも有する。このため、直接 H DDに記録された符号化ストリームに対してもストリーム制御部 103を介して符号化ス トリームを読み出すことによってシーンチェンジ抽出を行うことができる。 [0033] さらに、一般的にハードウェアで構成されるエンコーダチップ内のシーンチェンジ機 能を利用するわけではなぐ録画再生装置のファームウェアのみで構成することも可 能なので、シーンチェンジ抽出のためのアルゴリズムを比較的容易に改変したり、録 画再生装置の状態等に合わせてシーンチェンジ抽出処理の状態遷移や閾値を動的 に変更したりすることができる。
[0034] 例えば、入力映像データが CM映像データである期間は、シーンチェンジの判定の 閾値 E を大きくして、シーンチヱンジであると判定され難くして、 CM映像データに
TH
対するシーンチェンジ検出を実行させないように制御する方法を採用してもよい。
[0035] また、シーンチェンジにおいて音声信号が無音になる瞬間が存在することに着目し 、音声信号が無音 (すなわち、所定の閾値よりも低いレベル)のときに、シーンチェン ジの判定の閾値 E を小さくすることによって、シーンチェンジを映像データだけでな
TH
ぐ音声データをも考慮して検出し、シーンチェンジの検出精度を向上させる制御方 法を採用してもよい。
[0036] また、以上の説明においては、シーンチェンジ抽出単位を 1GOPとしている力 シ ーンチェンジ抽出単位を複数の GOP単位としてもよい。また、シーンチェンジ抽出単 位を、 1又は複数のスライス単位又は 1又は複数のマクロブロック単位としてもよい。
[0037] また、以上の説明においては、復号化処理を行う方法としてソフトウェアによる例を 示したが、ハードウェアによって実行してもよい。
[0038] 実施の形態 2.
本発明の実施の形態 2の映像記録装置は、図 2に示されるシーンチェンジコマンド 制御部 120の構成及び動作のみが、実施の形態 1の映像記録装置と相違する。した がって、実施の形態 2の説明においては、図 1及び図 2をも参照する。
[0039] 実施の形態 2の映像記録装置は、録画と並行してシーンチェンジ抽出を行う場合に 、シーンチェンジ抽出動作を GOPの符号ィ匕処理と非同期に行う。この非同期に行わ れる符号化処理を、単に「非同期処理」とも言う。この非同期処理は、符号化部 101 による符号化処理が完了した GOPに対して実行されるシーンチェンジ抽出処理の開 始タイミング力 符号化処理の完了タイミングと必ずしも一致しな!ヽ状態でも実行でき ることである。非同期処理の実際の動作としては、ある GOPについて着目すると、符 号化処理が完了した後、直ぐにシーンチェンジ抽出処理が行うのではなぐしばらく 時間を置いて力もシーンチェンジ抽出処理を実行する方法である。
[0040] 一般的に、映像を記録する装置、例えば、 HDDZDVDハイブリッドレコーダなど にお 、ては録画動作に並行して、再生やダビング等のような装置の CPUの負荷が 上昇する動作が発生し得る。また、ユーザーによって不定期に行われる行為、例え ば、 DVDのトレーオープン、機能設定画面の表示、及び電子番組表の閲覧などの 動作は、装置の一時的な CPUの負荷上昇を招く。これらの動作によって負荷上昇が 発生した場合、シーンチェンジ抽出処理のために、 CPUを占有し続けることができる 保障はなぐ他の処理の完了を待つ間、シーンチェンジ抽出処理をしばらく遅らせる ことが望ましい場合があり得る。一方、シーンチェンジ抽出処理によって、装置の基本 機能である映像の記録機能が妨げられることがあってはならず、よってシーンチェン ジ抽出処理は記録処理よりも優先度を落とした処理にすることが望ましい。このような 機能を実現するために、実施の形態 2の映像記録装置においては、シーンチェンジ 抽出処理を録画動作と非同期に行うころができるように構成している。
[0041] 図 3は、実施の形態 2の映像記録装置のシーンチェンジコマンド制御部 120 (図 2に 示される)の構成を示すブロック図である。図 3に示されるように、シーンチェンジコマ ンド制御部 120は、録画制御部 102からのコマンドの受け付けを行う API (アプリケー シヨン プログラム インターフェース)部 121と、受け付けたコマンドを複数保持する コマンドバッファ 122と、シーンチェンジ抽出部の状態遷移を司り、受け付けたコマン ドを処理する状態制御部 124と、シーンチェンジ抽出結果やエラー状態を保持し、録 画制御部 102に返すためのシーンチェンジ抽出結果バッファ 123とを有している。実 施の形態 2の映像記録装置が実施の形態 1の映像記録装置と相違する点は、録画 制御部 102から発行されたシーンチェンジ抽出コマンドがシーンチェンジコマンド制 御部 120内の API部 121〖こ伝えられ、コマンドバッファ 122にー且保持されることで ある。コマンドバッファ 122が保持できるコマンドの数はストリームバッファ 104の容量 に応じて設定すればよい。例えば、ストリームバッファ 104のサイズが実施の形態 1で 示した 20Mバイトである仮定すると、符号化ストリームの約 15秒分 (すなわち、 1GO Pあたり 15ピクチャ、 0. 5秒の時間長とすると、 30GOPのデータ)が一時的に保持で きることになり、よって、 30個分のシーンチェンジ抽出コマンドを保持できるように構成 すればよい。コマンドバッファ 122が 30個のシーンチェンジ抽出コマンドを保持でき、 且つ、ストリームバッファ 104に 30GOP分のデータが残っていれば、最新の GOPか ら 30個前の GOPまで遡ってシーンチェンジ抽出が可能であることを意味し、 30個の GOP分、すなわち、 15秒遅延したシーンチェンジ抽出処理が可能であることをも意 味する。シーンチェンジコマンド制御部 120のシーンチェンジ抽出結果バッファ 123 は、シーンチェンジ抽出部 110の状態制御部 124が実行したシーンチェンジ抽出結 果の複数回分保持することが可能で、コマンドバッファ 122に保持できるコマンド数と 同数分を保持できるものとすればょ 、。
[0042] これによつて、先行する GOPのシーンチェンジ抽出処理が完了していない状態 (例 えば、ユーザーが既に録画されているストリームの再生要求をしたために、システム の負荷が上昇し、シーンチェンジ抽出処理が完了できな力つた場合)において、次の GOPの符号ィ匕が完了し、録画制御部 102からシーンチェンジ抽出コマンドが発行さ れた場合であっても、新しいシーンチェンジ抽出コマンドはコマンドバッファ 122に保 持される。コマンドバッファ 122に保持されているシーンチェンジ抽出コマンドによつ て、現在実行中のシーンチェンジ抽出処理が完了後に、先行する GOPのシーンチェ ンジ抽出処理を実行できるので、 GOPの符号化毎にシーンチェンジ抽出処理が完 了しな 、ために次のシーンチェンジ抽出処理が実行できな ヽと 、う問題を防ぐことが できる。
[0043] 次に、図 4、図 5、及び図 6のフローチャートを用いて録画動作と非同期で動作する シーンチェンジ抽出処理の説明を行う。まず、録画制御部 102の動作について説明 する。映像記録装置 100に電源が投入されると、システム起動 (ステップ S201)され、 定期的にシステム終了の確認 (ステップ S202)と録画開始の確認 (ステップ S204)が 行われ、システム終了の要求があれば、システム終了(ステップ S202)に遷移する。 一方、録画開始の要求があれば、シーンチェンジコマンド制御部 120に対して、録画 開始コマンド発行 (ステップ S 205)が行われる。録画開始コマンドの発行の後は、録 画終了を確認 (ステップ S 206)し、録画終了であれば録画終了コマンドをシーンチェ ンジコマンド制御部 120に発行する(ステップ S207)。録画状態においては、 GOP 単位の符号ィ匕が完了すると (ステップ S208)、シーンチェンジコマンド制御部 120に 対してシーンチェンジ検出コマンドが発行される(ステップ S 209)。 GOP符号化検出
(ステップ S208)は、録画が完了するまで続けられる。録画制御部 102から発行され た制御コマンドは、シーンチェンジコマンド制御部 120の API部 121内で処理される
。シーンチェンジ制御コマンド C が発行されるとコマンドバッファ 122の空きをチエツ sc
クし (ステップ S223)、コマンドバッファ 122の空きがあれば、コマンドバッファ 122に コマンドを格納する(ステップ S224)。コマンドバッファ 122に格納できなかった場合 も含めて、次にシーンチェンジ状態制御部 124からシーンチェンジ結果バッファ 123 に蓄えられたシーンチェンジ抽出結果の取得を行う(ステップ S225)。最後に、シー ンチェンジ抽出結果とコマンドが受け付けられた力否かを録画制御部 102に返す (ス テツプ S226)。
[0044] 一方、シーンチェンジ状態制御部 124では電源起動されると (ステップ S241)、コ マンド待ち状態になり(ステップ S242)、受け取ったコマンドがシステム終了(ステップ S 243)であればシステム終了に移る(ステップ S245)。また、コマンドが録画開始コ マンドであれば (ステップ S252)、録画開始のための例えばメモリの確保や変数の初 期化などの録画開始処理 (ステップ S253)を実行し、録画終了コマンド (ステップ S2 54)であれば、例えば確保したメモリの開放やシーンチェンジ抽出結果を録画制御 部 102に送る録画終了処理 (ステップ S255)を行う。一方、受け取ったコマンドがシ ーンチェンジ抽出コマンドであれば、シーンチェンジ抽出コマンドに付けて渡される 符号化ストリームのストリームバッファ 104における先頭アドレスを元に、符号化ストリ 一ムの復号化を行う(ステップ S246)。復号ィ匕部 111によって YUVに変換された映 像データ力もヒストグラムを生成し (ステップ S247)、そのヒストグラムを第 1のヒストグラ ムバッファ 113 (又は第 2のヒストグラムバッファ 114)に格納する(ステップ S 248)。生 成したヒストグラムと第 2のヒストグラムバッファ 114 (又は第 1のヒストグラムバッファ 11 3)に格納されている 1つ前の映像のヒストグラムの差異値を求め(ステップ S 249)、予 め設定されている閾値以上であればシーンチェンジと判定する(ステップ S250)。こ の結果を、結果バッファ 123に格納する (ステップ S251)。
[0045] 1つの GOPに対するシーンチェンジ抽出処理が終わると、次の処理を行うためにコ マンド待ち(ステップ S242)に移る。ここでもし既にコマンドバッファ 122にコマンドが 格納されていれば、即座に、次の GOPの解析が開始される力 次のコマンドバッファ 力 Sまだ設定されていなければ、コマンド待ちを継続する (ステップ S242)。
[0046] 実施の形態 2の映像記録装置においては、シーンチェンジ抽出を行うソフトウェア モジュールのタスク又はスレッドの優先度は録画再生を行うモジュール群より低くして いる。この理由は、シーンチェンジ抽出を行うモジュールは、 MPEGのソフトウェアデ コード処理を伴うために、非常に処理負荷が高ぐよって図示しないがソフトウェアを 処理する CPUを占有する時間が他のモジュールに比べて極めて大きくなるからであ る。そのため、もしシーンチェンジ抽出モジュールの優先度を録画再生モジュールの 優先度と同じ又はそれ以上にしていると、録画再生時に CPUの処理時間の多くを占 有し、そのために映像の記録に関するモジュールの処理が遅れ、結果記録又は再生 ができない問題を引き起こす可能性があるからである。さらに、ユーザー入力によつ て動作するモジュール、例えば、キー入力、画面表示等を司るモジュールの動作も 同様にシーンチェンジ抽出モジュールによってその動作を遅延させることが想定しう る。よって、シーンチェンジ抽出モジュールの優先度は、その他のモジュールの優先 度に比べて、低くすることが望ましい。一方、次々と録画によって生成される GOPに 対してシーンチェンジの解析を実行して 、かなければ、シーンチェンジ検出を行うこ とはできない。しなしながら、符号ィ匕部 101による符号ィ匕処理はリアルタイムに行われ ていくが、生成された符号化ストリームは HDD105に書き込みを行うために一時的に ストリームバッファ 104に保持されている。よって、符号化ストリームがストリームバッフ ァ 104に保持されている間にシーンチェンジモジュールがストリームバッファ 104上の 符号化ストリームを処理すれば、すべての GOPに対してシーンチェンジ抽出処理を 行うことができること〖こなる。
[0047] 実際に、シーンチェンジ抽出動作が «続して実行されている最中において、例えば 、ユーザーによる別番組の再生要求や EPG番組表の表示などシステム的に負荷の 大きな処理が起動された場合を想定してみる。先行する GOPのシーンチェンジ抽出 実行時に大きな負荷がかかり、その処理の進行があまり進んでいない状況で、次の G OPの符号ィ匕完了通知が符号ィ匕部 101から録画制御部 102に上がってくる。録画制 御部 102は、即座にシーンチェンジ抽出部 110のシーンチェンジコマンド制御部 12 0に対して、シーンチェンジ抽出コマンドを発行する。シーンチェンジコマンド制御部 120の API部は、コマンドバッファの空きを見て(ステップ S223)、空きがあればコマ ンドバッファにシーンチェンジ抽出コマンドを格納する。シーンチェンジコマンド制御 部 120は、シーンチェンジ抽出コマンドの格納だけを行い、即座に録画制御部 102 にリターンを返す。さらに、次の GOPの符号ィ匕完了までに、先行する GOPのシーン チェンジ抽出が完了していなければ、さらにその次の GOPに対するシーンチェンジ 抽出コマンドもコマンドバッファに格納する。その後シーンチェンジ抽出が完了すると 、シーンチェンジ状態制御部はコマンド待ち(ステップ S242)に移り、コマンドバッファ より最古のコマンドを受け取り、次の GOPのシーンチェンジ抽出の実行を開始する。 その後システムの負荷が定常状態になると、シーンチェンジ抽出処理の処理頻度が 増加し、コマンドバッファの遅延されたコマンドを順次と実行する。ただし、この遅延に 許された最大数は 20GOP分であり、それ以上のシーンチェンジ処理要求が生じた 場合はコマンドバッファにコマンドの空きがないため、該当する GOPに対してシーン チェンジ処理が実行されないことになる。このとき録画制御部 102は何らかのエラー 処理を実行してもよぐまた、装置の主たる目的である録画動作が正常に行われてい るという理由で特にエラー処理を実行せずにそのまま処理を継続してもよい。
[0048] このようにストリームバッファ 104上に一時的に保持されたストリームを解析すること に加え、録画制御部 102から発行されるコマンドをバッファリングすることによって、必 ずしも映像が符号ィ匕される毎に符号ィ匕されたストリームに対してシーンチヱンジ抽出 を実行する必要がなぐ遅延処理が可能である。そのため、録画制御部 102による符 号ィ匕処理における符号ィ匕単位とシーンチェンジ抽出部 120における解析単位を連 続的に処理する必要がなぐよって符号化処理とシーンチェンジ抽出処理を独立し た処理単位として設計できる。
[0049] また、録画制御部 102とシーンチェンジ抽出部 120は独立して動作することが可能 であり、さらにシーンチェンジ抽出部 120の処理優先度を録画に関する処理のそれよ り低くすることによって、処理時間が長くかかるシーンチェンジ抽出部 120の動作によ つて、録画制御部 102の処理が遅れ、結果として通常の録画処理に影響を及ぼすと V、つた悪影響を発生させることがな 、。
[0050] また、シーンチェンジ抽出処理は遅延処理が可能なため、システムの一時的な負 荷上昇によってシーンチェンジ抽出処理が GOPの再生時間内で完了できな力つた 場合や、シーンチェンジ抽出処理に処理が回ってこない場合であっても、コマンドバ ッファ 122に格納されたシーンチェンジ抽出コマンドを使って、過去に符号化された ストリームに対して順次抽出処理を実行できるため、シーンチェンジ抽出処理が飛ば されて実行されな 、と 、つた問題を回避することができる。
[0051] なお、上記シーンチェンジ抽出処理の遅延可能な時間若しくは回数は、ストリーム バッファ 104及びコマンドバッファの数によって決定される。
[0052] また、実施の形態 2において、上記以外の点は、上記実施の形態 1の場合と同じで ある。
[0053] 実施の形態 3.
本発明の実施の形態 3の映像記録装置は、実施の形態 1の映像記録装置の復号 化部 111の構成を特定した点が、実施の形態 1の映像記録装置と相違する。したが つて、実施の形態 3の説明においては、図 1及び図 2をも参照する。
[0054] 図 7は、図 1の復号ィ匕部 111の構成を示すブロック図である。実施の形態 3の映像 記録装置は、図 7に符号化ストリーム力 シーンチェンジの抽出処理を行う場合の復 号ィ匕処理において、 DCT (離散コサイン変換)係数の復号化次数を制御する方法に 特徴がある。図 7に示されるように、復号ィ匕部 111は、入力された符号化ストリームの ヘッダ力も画素サイズを求める画素サイズ検出部 301と、画素サイズ検出部 301によ つて検出された画素サイズから DCTブロックの使用する成分 (次数)を決定する次数 決定部 302と、符号化ストリームに対して次数決定部 302で決定した次数まで逆量 子化を行いながら DCT係数を抽出する DCT係数抽出部 303と、抽出された DCT係 数力ゝら逆 DCTを実行する IDCT部 304と、削減された次数で実行された逆 DCTによ つて離散化してしまった画素データを詰めて縮小された画像を生成する画像整形部 305とを有して!/ヽる。
[0055] 図 8 (A)乃至 (D)は、実施の形態 3の映像記録装置の DCT係数削減処理を説明 するための図である。図 8 (A)は、符号化ストリーム画素サイズを示し、図 8 (B)は、 D CTブロック(2 X 2を使用する場合)と DCTブロック (4 X 4を使用する場合)を示し、 図 8 (C)は、復号済 DCTブロック(2 X 2以外を無効とする場合)と復号済 DCTブロッ ク (4 X 4以外を無効とする場合)を示し、図 8 (D)は、復号画像を示す。実施の形態 3 にお 、ては、ユーザーの希望により符号化する映像の画素サイズを 704 X 480画素 と 352 X 240画素力も選択できる映像記録装置について説明する。よって、復号ィ匕 部 111に人力されるストリームは、 704 X 480画素の符号ィ匕ス卜リーム又は 352 X 24 0画素の符号化ストリームの 2種類の画素サイズのものが存在する。復号化部 111に 符号化ストリームが入力されると、まず最初に画素サイズ検出部 301が符号化ストリ ームの画素サイズの検出を行い、検出した画素サイズを次数決定部 302に送る。次 数決定部 302では、検出した画素サイズに応じて、符号化ストリームに含まれる DCT 係数のうちの処理する次数 Deを決定する。例えば、 704 X 480画素の符号化ストリ ームの場合は DCTブロックの内の次数 2まで、一方、 352 X 240画素の符号ィヒストリ ームの場合は次数 4まで処理すると予め設定しておく。この次数に従って DCT係数 抽出部 303と IDCT部 304は、 DCTブロックの処理対象とする次数を設定し、復号化 を行う。 IDCT部 304から出力された復号ィ匕された映像データは、 DCTブロック単位 で DCT係数の間弓 Iきを行ったため復号ィ匕された DCTブロックをつなぎ合わせて生 成された復号化された映像の画素は離散的な映像になっている。この画素間が離散 的な映像に対して画素の隙間をつめる処理を画素整形部 305で行う。これによつて、 復号化された映像は、 704 X 480画素の符号化ストリームの場合は 176 X 120画素 、 352 X 240画素の符号化ストリームの場合は 176 X 120画素となり、入力された符 号化ストリームの画素サイズが違っていたにもかかわらず同じサイズの画像を得ること ができる。このように復号ィ匕された映像を次のヒストグラム生成器 112に送れば、実施 の形態 1と同様にシーンチェンジの検出を行うことができる。
すなわち、実施の形態 3にお 、ては、復号化部 111に DCT係数の制御を行う機能 が付加されることによって、符号ィ匕部 101によって異なる画素サイズとして符号ィ匕され た符号化ストリームであってもシーンチェンジ抽出に使う映像は同じ画素サイズで行う ことができることを示すと共に、シーンチェンジ抽出で解析対象とする映像の周波数 帯域の上限を同じ帯域に揃えることができることを示している。また、ヒストグラム生成 器 112以降では常に同じ画素サイズの符号化ストリームに対してシーンチェンジ抽出 を行うことができるので、次のヒストグラム生成器 112以降の処理は画素サイズに依存 することなく同じ処理を行うことができる。
[0057] 上記のように構成することによって、符号化ストリームの画素サイズが違う場合であ つても、同じ又は同程度の画素サイズに復号ィ匕された映像を得ることができる。
[0058] また、符号化ストリームの画素サイズが違う場合でも同じ画素サイズの復号化された 映像に対して、シーンチェンジ抽出処理を行うことができるので、符号化ストリームの 画素サイズが違っているストリームに対しても、同じシーンチェンジの評価方法と評価 基準を用いることができ、結果として画素サイズを変えて同じ映像を録画した場合に おいても、同じ時間位置をシーンチェンジとして検出することができる。
[0059] また、画素サイズが異なる符号化ストリームに対して DCT係数を制御することによつ て、復号化された画像の周波数帯域を揃えることができるので、画素サイズを変えて 同じ映像を録画した場合にぉ 、ても、同じ時間位置をシーンチェンジとして検出する ことができる。
[0060] また、高解像度の符号ィ匕データほど間引きを多くすることができるので、処理時間 力 Sかかる高解像度な符号ィ匕データであっても高速にシーンチェンジ抽出することが できる。
[0061] また、高解像度の符号ィ匕データほど高周波の次数を間引きくことができるように構 成できるので、比較的高周波ノイズの発生し易 、高解像度の符号ィ匕データほどノィ ズ除去を効果的に行うことができる。
[0062] また、解像度によらず同一の復号ィ匕映像を生成するために、復号化映像を記憶す るメモリサイズを同一にすることができる。
[0063] また、本来復号ィ匕映像を記憶するために大きなメモリサイズを必要とする高解像度 映像ほど間引き処理を行うために、復号ィ匕処理のために用意しておくべきメモリ領域 を/ J、さくすることができる。
[0064] なお、実施の形態 3において、上記以外の点は、上記実施の形態 1乃至 2の場合と 同じである。
[0065] 実施の形態 4. 本発明の実施の形態 4の映像記録装置は、実施の形態 1の映像記録装置の復号 化部 111の構成を特定した点が、実施の形態 1の映像記録装置と相違する。したが つて、実施の形態 4の説明においては、図 1及び図 2をも参照する。
[0066] 図 9は、本発明の実施の形態 4の映像記録装置の復号化部の構成を示すブロック 図である。図 9を用いて符号化ストリーム力もシーンチェンジの抽出処理を行う場合の 復号化処理にお!ヽて、復号化を実行するスライスを限定する処理につ!ヽて説明する 。実施の形態 4の映像記録装置の復号化部 111は、入力された符号化ストリームの ヘッダ力も画素サイズを求める画素サイズ検出部 301と、画素サイズ検出部 301の検 出した画素サイズからシーンチェンジ抽出の処理対象とするスライスを決定する使用 スライス決定部 306と、符号化ストリームのヘッダを解析するヘッダ検出部 307と、符 号化ストリームの逆量子化を行う逆量子化部 308と、周波数領域に変換された係数 値を逆 DCT処理する IDCT部 304とを有して!/、る。
[0067] 次に、スライス削減と合わせて動作するシーンチェンジ抽出処理の動作について説 明する。画素サイズ検出部 301が画素サイズの検出を行い、使用スライス決定部 30 6が使用するスライスを決定する。ここでは、例えば、符号ィ匕部 101で生成される符号 化ストリームの解像度は 720 X 480画素と 352 X 240画素の 2種類のみしか存在しな い場合には、垂直方向の画素数力 80のときには、上下 5スライス、すなわち、 (16画素 X 5スライス) X 2 = 80画素 X 2
を使用しないものとし、一方、画素数が 240のときには、上下 2スライス、すなわち、 (16画素 X 2スライス) X 2 = 32画素 X 2
を使用しないものとしている。ここで解像度によって使用しない画素数が異なるが、垂 直方向に対する割合は、 480画素の場合、全 30スライスに対して 10スライスを使用し ないので、 1Z3を使用しないことになり、一方、 240画素の場合、全 15スライスに対 して 4スライスを使用しないので、 4Z15を使用しないことになり、ほぼ同じ割合をシー ンチェンジ抽出対象として 、ることが分かる。
[0068] このようにして使用スライス決定部 306において使用するスライス数を求め、ヘッダ 検出部 307で符号化ストリームのヘッダを解析し、スライスヘッダを抽出する毎に先の 使用スライス決定部 306で使用しな 、スライスと判定したスライスであれば、次のスラ イスヘッダまでジャンプし、一方、使用するスライスであれば、該当するスライスを逆量 子化部 308に送る。逆量子化部 308は、符号化ストリームの逆量子化を行い、 IDCT 部 304は、逆 DCTを実行する。上記構成によって、使用するスライスのみが復号ィ匕 処理され、結果として垂直解像度力 80画素であれば垂直解像度 320画素の映像 を、一方、垂直解像度が 240画素であれば垂直 172画素の復号ィ匕された映像を求 めることができる。復号化部 111によって上記のように垂直方向に削減され復号ィ匕さ れた映像に対して、ヒストグラム生成器 112では有効なスライス領域と同じ位置の画 素を対象にヒストグラムの生成を行う。差分抽出器 115で求める差異値 dを導出する ためにフレーム内の画素数を表す N (lフレーム内の画素数)を利用している。実施 の形態 4においては、垂直方向に画素を削減したので、フレーム内の画素数 Nは以 下のように補正される。まず、元が垂直解像度 720画素の場合であれば、削減された 垂直解像度が 320画素で、水平解像度は 720画素なので、
N= 320 X 720 = 230400
となる。また、垂直解像度 240画素の場合、削減された垂直解像度が 172画素で、 水平解像度は 352画素であれば
N= 172 X 352 = 60544
に補正を行う。本補正を行ったうえで求められる差異値 dを用いて、シーンチェンジ判 定器 116は、実施の形態 1と同様のシーンチェンジ判定を行うことができる。
[0069] 上記説明にお 、ては、スライス単位で復号ィ匕をする力否かを設定して 、るが、シー ンチェンジに利用する領域を画素位置又はマクロブロック単位で設定してもよ 、。こ の場合、シーンチェンジを検出する位置を特定できるので、検出精度を向上すること ができる。また、画素毎にシーンチェンジ抽出を行うか否かを設定する場合、すべて の画素にっ ヽて復号ィ匕を行 、、復号化した後に抽出した 、エリアのヒストグラム及び ヒストグラムの差異値をとることによって実現可能である力 検出単位をマクロブロック 単位で指定するようにすると、ヘッダ検出部又は復号ィ匕処理部においてマクロブロッ ク単位で処理を実行するか否かを制御できるので、不必要な復号ィ匕を実行しな 、よう 構成でき、処理速度を向上することができる。
[0070] 以上のように構成することによって、復号化及びシーンチェンジ抽出する画素サイ ズがスライス単位で削減できるので、処理の高速ィ匕を実現できる。
[0071] また、スライスの削減によって復号した画像のサイズも小さくなるので使用するメモリ サイズも小さくなる。
[0072] また、シーンチェンジを検出する対象が放送番組であれば、映像の上下位置のスラ イスを使用しないように構成することによって、番組の本編との関連性が低い、又は、 余り重要ではない情報である、時刻表示、臨時-ユースの文字表示、又はテロップな どに影響されることなくシーンチェンジ抽出を行うことができる。
[0073] また、マクロブロック単位で復号ィ匕及びシーンチェンジ抽出処理の実行を指定する ことによって、任意の 1つ若しくは複数のマクロブロックに対してのみシーンチェンジ 検出が可能になり、位置を特定したシーンチェンジ抽出が可能になる。
[0074] なお、実施の形態 4において、上記以外の点は、上記実施の形態 1乃至 3の場合と 同じである。
[0075] 実施の形態 5.
実施の形態 5の映像記録装置は、差分抽出器 115の動作が実施の形態 1の映像 記録装置と相違する。したがって、実施の形態 5の説明においては、図 1及び図 2を も参照する。
[0076] 実施の形態 5においては、シーンチェンジ抽出対象となる映像によってシーンチェ ンジの判定基準を切り替える方法について説明する。図 10は映像の画素値の YUV 分布を示している。一般的に YUVは各 256値で表現され、輝度信号 Yは 0から 255 まで、色差信号 U及び Vは、—128から 127までの値をとる。そのとき人間の目でほ ぼ白と感じる領域及びほぼ黒と感じる領域を、図 10において、それぞれ W及び Bで 示している。実施の形態 5においては、抽出対象となる映像力 全体として白に近い 色の領域が多い映像 (以下「白映像」とも言う。)である場合は、領域 W以外の領域で 差異値を算出し、一方、全体として黒に近い色の領域が多い映像 (以下「黒映像」と も言う。)である場合は、領域 B以外の領域で差異値を算出する方法によって、比較 する 2つの映像がよく似た映像であっても的確にシーンチェンジを検出することを目 的とする。
[0077] 実施の形態 5の差分抽出器 115の動作を、図 11にフローチャートで示す。まず、第 1のヒストグラムバッファ 113及び第 2のヒストグラムバッファ 114から i番目のフレーム( 以下「iフレーム」とも言う。 )及び i 1番目のフレーム(以下「i 1フレーム」とも言う。 ) のヒストグラムを取得する(ステップ S301)。次にそれぞれのフレームの白領域 Wの画 素数をカウントする(ステップ S302)。 iフレーム及び i—lフレームの白画素数 C 、 C
Wi は次式で表される。
Wi-1
[数 2]
)
Figure imgf000026_0001
[0078] 次に、白領域 Wの累積差異 r を次式で求める (ステップ S303)。
W
[数 3] rw =∑keW |h1(k)-hi_1(k)| [0079] 一方、黒領域 Bについても同様に、黒画素数 C 、C を次式で求める(ステップ S
Bi Bi-1
304)。
Figure imgf000026_0002
[0080] また、黒領域 Bの累積差異 rを次式で求める (ステップ S305)。
B
[数 5]
½=∑ > )— hi— )|
[0081] 次に、 iフレーム及び i 1フレームが共に以下の条件式を満足すれば、白に近い色 の領域が多 、映像 (「白映像」とも言う。 )であると判断する (ステップ S306)。
C MAX>C >C MIN 且つ
W一 Wi W ~
C MAX>C >C MIN 上記は、全体として白に近い色の領域が多い映像と判定する条件として、白領域 w の画素数が下限 C — MINより大きぐ上限 C —MAX未満であることを条件として
W W
いる。このように、白画素数が下限より大きいことを満足するだけでなぐ上限を設け ている理由は、白画素数がある値より大きい場合は、白に近い色の領域以外の画素 数が非常に少なくなり、全体の画素数に対して非常に少ない白以外の画素で画像全 体のシーンチェンジを判定を行ってしまうことを避けるためである。
[0082] 上記条件を満足できれば、白領域 Wを除 、た領域にっ 、て次式で差異値を求める
(ステップ S307)。
[数 6] d = N 1 「 x O W— h,— )| )— ½ }
し Wi し Wi— 1
[0083] 一方、白に近 、色の領域が多 、映像と判断されな力つた場合は、以下の条件式で 黒に近 、色の領域が多 、映像である力否かを判定する (ステップ S308)。
C MAX>C >C MIN 且つ
B一 Bi B一
C MAX>C >C MIN
B一 Bi- 1 B一
上記は、黒に近い色の領域が多い映像と判定する条件として、黒領域 Bの画素数が 下限 C— MINより大きぐ上限 C—MAX未満であることを条件としている。上記条
B B
件を満足できれば、黒領域 Bを除 、た領域にっ 、て次式で差異値を求める (ステップ
S309)。
[数 7] )- 柳 — rB }
Figure imgf000027_0001
[0084] 一方、白に近 、色の領域が多 、映像と判断されず、且つ、黒に近!、色の領域が多 い映像とも判断されなカゝつた場合は、実施の形態 1で示した差異値の導出式
[数 8] d x∑- i h i (k) - h- (k) i によって差異値を求める (ステップ S310)。
[0085] 以上によって求めた差異値 dを用いて、実施の形態 1で示した手法と同様に、シー ンチェンジ判定器 116によってシーンチェンジの判定が行われる。
[0086] 上記動作により、比較する 2つの映像が共に白に近い色の領域が多い映像であれ ば白領域 Wを除いた領域で映像の変化を比較し、一方、比較する 2つの映像が共に 黒に近 、色の領域が多 、映像であれば黒領域 Bを除 、た領域で映像の変化を比較 することができるので、特定の色領域を除いた映像のシーンチェンジを抽出すること ができる。
[0087] そのために、全体的に白に近い色の領域が多い映像又は黒に近い色の領域が多 V、映像が続 、たシーンにぉ ヽてもシーンチェンジを検出することが可能である。
[0088] 特に、放送番組の CM (Commercial Message)間のつなぎ目にお!/、て、白い背 景 (又は黒 、背景)に企業名や製品名が示されたシーン力 同じように白 、背景 (又 は黒い背景)に異なる企業名や製品名が示されるシーンに切り替わる場合において
、白い背景や黒い背景を除いたエリアでシーンチェンジ判定を行うので、結果として 企業名や製品名の領域力もシーンチェンジとして検出することができ、 CMの区切り を検出するのに非常に有効に動作することができる。
[0089] なお、実施の形態 5において、上記以外の点は、上記実施の形態 1乃至 4の場合と 同じである。
[0090] 実施の形態 6.
図 12は、本発明の実施の形態 6の映像音声記録装置 20の構成を概略的に示すブ ロック図である。図 12に示されるように、映像音声記録装置 20は、アンテナ 1によって 受信された放送波から録画する放送番組を選局するチューナ 2と、チューナ 2から出 力されたアナログ映像信号をデジタル化するビデオ AZD変換部 3と、チューナ 2から 出力されたアナログ音声信号をデジタルィ匕するオーディオ AZD変換部 4と、デジタ ル映像信号を MPEG— 2 (Moving Picture Experts Group— 2)に圧縮符号 化する符号ィ匕手段としてのビデオエンコーダ 5と、デジタル音声信号を、例えば、リニ ァ PCM (Linear pulse code modulation)又はドルビーデジタル(Dolby Digi tal)に符号ィ匕する符号ィ匕手段としてのオーディオエンコーダ 6と、符号ィ匕された映像 及び音声信号を 1つの符号化ストリームに多重するマルチプレクサ(Multiplexer) ( 以下「Mux」とも記す。) 7と、ビデオエンコーダ 5、オーディオエンコーダ 6及び Mux7 を制御する録画制御部 8とを有して ヽる。
[0091] また、映像音声記録装置 20は、符号化ストリームを記録する記録手段としてのハー ドディスクドライブ(HDD) 11と、 Mux7で多重された符号化ストリームを HDD11に 安定して書き込むためのストリーム制御手段としてのストリーム制御部 9と、符号化スト リームを一時的に記憶するストリームバッファ 17と、生成された各符号化ストリームを ファイルとして HDD11に保存するためのファイルシステム部 10と、生成された符号 ィ匕ストリームの番糸且名や生成日時に加え、特殊再生を実現するためのアドレス情報 や後述する CM区間情報を生成及び管理するナビゲーシヨン部 12とを有している。
[0092] さら〖こ、映像音声記録装置 20は、映像の場面転換シーンを検出する映像変化点 検出手段としてのシーンチェンジ検出部 13と、音声の無音区間を検出する無音検出 手段としての無音検出部 14と、シーンチェンジと無音区間が同時に発生する変移点 を検出する変移点検出手段としての変移点検出部 15と、変移点を検出するためにシ ーンチェンジと無音区間の情報を保持する、変移点検出部 15内に備えられた一時 記憶手段としての変移点マッチングバッファ 19と、複数の変移点から CMに固有の周 期性等力も CM区間を検出する CM放送区間判定手段としての CMフィルタ 16と、 C Mフィルタ 16で解析する変移点を記憶する変移点スタックテーブル 18とを有してい る。
[0093] 図 12には、記録手段として HDD105が示されている力 記録手段は、 DVDのよう な光ディスクや磁気テープなどの他の情報記録媒体であってもよい。また、映像音声 記録装置 20は、放送番組を受信及び録画する受信機又は DVDZHDDハイブリツ ドレコーダであってもよい。さら〖こ、映像音声記録装置 20は、家庭用のビデオレコー ダに限らず、パーソナルコンピュータ、映像サーバ、又は、監視システム用の監視レ コーダなどの各種用途に適用できる。
[0094] ファイルシステム部 10は、 HDD11に書き込む情報をファイル化することによって書 き込み情報に対するアクセスが簡単に行えるようにするためのデータ管理を行う。フ アイルシステム部 10によって、ストリーム制御部 9及びナビゲーシヨン部 12は、ストリー ムゃ情報を HDD11に書き込み又は HDD11から読み出しを行うときに、 HDD11上 の直接のアドレスを気にすることなぐファイルを指定することによって、先頭から順に 、又は、指定した位置力も順に読み出し及び書き込みを行うことができる。
[0095] ビデオエンコーダ 5による符号化方式である MPEG— 2は、可変レートに対応して おり、そのため、 1秒間に発生する符号量 (ビットレート)は時間によって大きく変動す る。そのため、ストリーム制御部 9は、 HDD11へのデータ書き込み及び HDD11から のデータ読み出しによって符号化ストリームがオーバーフロー又はアンダーフローし ないように、符号化ストリームをストリームバッファ 17に一時的に保持させ、 HDD11 の状態に応じて符号化ストリームの HDD11への書き出し及び HDD11からの読み 込みを行っている。ストリームバッファ 17は、リングバッファで構成されており、書き込 み位置ポインタと読み出し位置ポインタによって有効なデータ領域が管理されている 。すなわち、データの書き込み時には、書き込み位置ポインタを先頭にデータサイズ 分書き込みを行 ヽ、書き込んだデータサイズ分だけ書き込み位置ポインタを進める。 一方、データの読み出し時には、読み出し位置ポインタを先頭にデータサイズ分読 み出しを行い、読み出したデータサイズ分だけ読み出し位置ポインタを進める。ただ し、リングバッファの終了位置に来たときは、ポインタを先頭の位置に戻す処理を行う
[0096] 次に、放送番組を記録する動作につ!、て説明する。ユーザーが手動で録画開始ボ タンを押した、又は、予め録画タイマーで設定しておいた録画開始時間になると、チ ユーナ 2はアンテナ 1で受信した放送波力も指定チャンネルを選局する。チューナ 2 力も出力された映像及び音声のアナログ信号は、それぞれビデオ AZD変換部 3及 びオーディオ AZD変換部 4に送られ、デジタル映像信号及びデジタル音声信号に 変換される。録画制御部 8は録画開始時にビデオエンコーダ 5及びオーディオェンコ ーダ 6に対してエンコード開始を、 Mux7に対して多重処理開始を指示する。すると、 ビデオ AZD変換部 3又はオーディオ AZD変換部 4から出力されたデジタル映像信 号及びデジタル音声信号が順次ビデオェンコーダ 5及びオーディオェンコーダ 6で 圧縮符号化処理が行われ、さらに、 Mux7で 1つのプログラムストリームに多重化が 行われ、ストリーム制御部 9でストリームの制御を行 、ながら HDD11に記録されて!ヽ <o
[0097] ビデオエンコーダ 5は、エンコード単位である GOP (Group of Pictures)の符号 化が完了する毎に録画制御部 8に GOP符号ィ匕完了通知を送る。ストリーム制御部 9 は、ビデオエンコーダ 5及びオーディオエンコーダ 6によって符号化され Mux7で多 重された符号化ストリームをストリームバッファ 17の書き込み位置ポインタを先頭に順 次書き込む。一方、ストリーム制御部 9は、 HDD11が書き込み状態になっていること を確認しながら、ストリームバッファ 17の読み出し位置ポインタ力も符号化ストリームを 読み出し、 HDD11に書き込みを行う。録画が実行されている間、前記動作を繰り返 し行う。録画終了時には、録画制御部 8は、ビデオエンコーダ 5及びオーディオェンコ ーダ 6に対して符号ィ匕終了を指示し、符号化を停止させる。符号化停止後、ストリー ム制御部 9は、ストリームバッファ 17に残って!/、る符号化ストリームを全て HDD11に 書き込む。
[0098] 次に、シーンチェンジ検出と無音検出について説明する。録画制御部 8は、 GOP の符号ィ匕完了をビデオエンコーダ 5から受け取る毎に、シーンチェンジ検出部 13に 対してシーンチェンジ検出コマンドを送る。シーンチェンジ検出部 13は、エンコード が完了した GOPデータをストリーム制御部 9から読み出し、映像のシーンチェンジの 検出を行う。検出方法の一例としては、以下の方法がある。まず、読み出した GOP単 位のデータから Iピクチャの復号ィ匕を行い、ヒストグラムを作成する。そのヒストグラムと 一つ前の Iピクチャのヒストグラムと比較を行 、、ヒストグラムの各要素値の絶対値の差 の合計をシーンチェンジ差異値と定義し、そのシーンチェンジ差異値が予め設定さ れた閾値より大きければシーンチェンジであると判定する。以下の説明にお 、ては、 説明を簡単にするために、 GOPを構成するピクチャ数は 15枚固定であり、その GOP の時間は 0. 5秒であるものとする。よって、シーンチェンジの発生した時刻は、 GOP の個数で簡単に表すことが可能となる。
[0099] オーディオ AZD変換部 4は、アナログ音声信号をデジタル音声信号であるリニア P CM信号に変換する。無音検出部 14は、入力されたリニア PCM信号の振幅が予め 設定されている閾値以下の状態が予め設定された時間以上続けば無音区間である と判定する。ここでは、入力されたリニア PCM信号の振幅が予め設定されている閾 値以下の状態が、 300ミリ秒以上続けば、無音区間が発生したと判定する。無音区 間の条件として、ある時間以上、リニア PCM信号の振幅が低い状態が続くことを必要 としている理由は、瞬間的な無音を、無音区間と判定しないようにするため、及び、無 音の発生毎に後述する CM放送区間検出動作の頻度が多くなると、システムの処理 負荷が大きくなつて CM放送区間検出以外の動作に支障を来たすおそれがあるから である。無音区間であると判定した場合、録画開始力 のサンプル数の累積番号に より無音開始時刻を算出する。また、無音区間が継続されている状態でリニア PCM 信号の振幅が、予め設定されている閾値より大きくなつた場合、無音区間が終了した と判定し、同様にサンプル数の累積番号力 無音終了時刻を算出する。
[0100] 図 13は、図 12に示される映像音声記録装置 20の変移点検出部 15の動作を示す フローチャートである。変移点検出部 15は、シーンチェンジ検出部 13から送られるシ ーンチェンジ情報又は無音検出部 14から送られる無音情報に基づいて動作を切り 替える。例えば、変移点検出部 15の動作が開始されて、シーンチェンジ検出部 13に おいてシーンチェンジの検出動作を行い(ステップ S 101)、シーンチェンジ情報とし てシーンチェンジ検出フラグ、 GOP番号、及びシーンチェンジ差異値が変移点検出 部 15に送られたとすると、ステップ S 101において検出されたシーンチェンジ情報は 、変移点検出部 15内の変移点マッチングバッファ 19に保存される (ステップ S 102)。
[0101] 一方、無音検出部 14によって無音区間が検出されると (ステップ S103)、無音区間 情報として無音検出フラグ、無音発生時刻、及び無音終了時刻を変移点検出部 15 に送る。ステップ S103において判定された無音区間に関する無音情報は、変移点 検出部 15内の変移点マッチングバッファ 19に保存される (ステップ S104)。無音区 間が検出された場合は、さらに変移点マッチングバッファ 19上で変移点検出、つまり シーンチェンジと無音が同時に発生した時間位置の検出を行う(ステップ S105)。無 音区間検出毎に変移点検出を行うのは、シーンチェンジ検出区間と無音区間の積情 報を取るには、シーンチェンジ検出より発生頻度の低い無音区間検出の度に行うこと が処理効率の面力も適しているためである。変移点マッチングバッファ 19には、最新 のシーンチェンジ及び無音区間の情報が一時的に保持されており、双方が一致した 場合は、一致した情報が次の処理であるステップ S 106に送られるとともに、そのシー ンチェンジ情報及び無音区間情報と、それ以前のシーンチェンジ情報及び無音区間 情報が破棄される。また、予め設定された一定時間が経過したときにも、シーンチェ ンジ情報及び無音区間情報が破棄される。このような制御によって、有限のノ ッファ サイズであっても、リアルタイムにシーンチェンジと無音区間の一致を検出することが できる。したがって、変移点マッチングバッファ 19上で、無音区間の開始時刻から終 了時刻までの間に発生したシーンチェンジを、シーンチェンジの GOP番号をもとに 変移点を検出することができる。そして、シーンチェンジの GOP番号を変移点の時刻 を表す値として利用する。このようにして選出された変移点及び一致したシーンチェ ンジの差異値及び無音の時間長を次の CMフィルタ 16に送り(ステップ S106)、 CM フィルタ 16内の変移点格納用の変移点スタックテーブル 18に保存し、 CMフィルタ 1 6の動作を実行する (ステップ S 107)。
[0102] 次に、図 12に示される CMフィルタ 16によって CM放送区間を検出する方法につ いて説明する。図 12に示されるように、 CMフィルタ 16内には、変移点に関する情報 を記憶する変移点スタックテーブル 18が設けられている。図 14は、変移点スタックテ 一ブル 18の一例を示す図である。変移点スタックテーブル 18は、録画と並行して実 行される CM放送区間検出動作時に更新されるので、リングバッファの構成をとる。よ つて、リードポインタ力 ライトポインタの手前までが CM放送区間検出のための処理 範囲である。変移点スタックテーブル 18内には、変移点の時間位置を示す変移点 G OP番号と、後続する変移点が CMとみなされた場合の最終変移点の時間位置を示 す連結終了 GOP番号と、後続する変移点の個数を示す変移点カウンタと、変移点に おける無音時間長と、変移点におけるシーンチェンジ差異値と、この変移点の有効- 無効を示す有効無効フラグとが設けられて!/、る。
[0103] 変移点 GOP番号は、シーンチェンジが検出された GOP番号である。実施の形態 6 においては、シーンチェンジの検出精度を 1GOPとしているため、録画開始からの G OPの累積番号で時間を表すことができる。
[0104] 連結終了 GOP番号とは、ある変移点を基点とした CM放送区間における最終変移 点の GOP番号である。図 14においては、変移点 GOP番号' 10'の場合、 GOP番号 ' 10'、 '40'、 ' 101 'において CMが継続して検出されるので、 GOP番号' 101 'が 連結終了 GOP番号になる。変移点検出部 15では、変移点 33gが検出されると、 GO
P番号' 101 'に GOP番号' 130'が連結され、変移点 33bから変移点 33gまでが CM 放送区間と判定される。また、変移点 GOP番号に後続する変移点がない場合は、連 結終了 GOP番号は、変移点 GOP番号と同じ値になる。
[0105] 変移点カウンタは、 CM放送区間において CMが変移点で連結された場合におけ る変移点の数を示す。
[0106] 無音時間長は、変移点における無音区間の長さをミリ秒単位で示す。
[0107] シーンチェンジ差異値は、変移点におけるシーンチェンジの変化量を 0から 1まで の値で示す。シーンチェンジ差異値が大きいほど、映像の変化量が大きいことを意味 する。
[0108] 有効無効フラグは、変移点スタックテーブル内において処理対象範囲であることを 示すフラグであり、変移点が登録されたときには有効' 1 'が設定され、 CMフィルタ 16 の処理において、例えば、 '40'のように、先行する変移点に連結された変移点につ いて無効' 0'に変更される。また、ある変移点が処理対象範囲から外れた場合、例え ば、 ' 10,、 '40,、 ' 101,、 ' 131 'を CM区間として検出した場合に、 ' 10'以前の' 6 ,や、 ' 10,から' 131,の間の全ての変移点' 62,、 '83,を無効' 0,にすることによつ て、処理の高速ィ匕及び変移点スタックテーブルに必要なメモリサイズの低減を図るこ とがでさる。
[0109] CMフィルタ 16においては、変移点スタックテーブル 18の要素である変移点をそれ ぞれ比較し、変移点の間隔が所定の基準間隔、例えば、 15秒、 30秒、 60秒、又は 9 0秒相当であるものを抜き出していく。そのとき、検出誤差、 CMのフレームレベルで の長さのばらつき等により CMの長さが 15秒力もずれる可能性があるので、そのため の許容誤差を、例えば、 1GOP分設ける。よって、先の変移点の間隔として有効な間 隔は、 GOPの個数で表現でき、 30GOP± 1GOP、 60GOP± 1GOP、 120GOP士 lGOP、及び 180GOP± 1GOPのように、 ± 1GOPの許容誤差を設けた GOPの数 で表現することができる。 CMフィルタ 16においては、上記変移点の間隔が上記のよ うに予め設定している GOPの間隔と一致する変移点の間隔を CM候補間隔とする。 さらに、 CM候補間隔が連続して 2個以上ある場合には、その区間を CM放送区間と する。
[0110] 図 15 (A)乃至 (E)は、実施の形態 6の映像音声記録装置 20における CM放送区 間検出動作を説明するための図である。図 15 (A)乃至 (E)を用いて CM区放送間を 特定する方法について説明する。無音検出部 14によって無音区間 31a, · ··, 31mが 検出された場合を説明する。一方、図 15 (B)に示されるように、シーンチェンジ 32a, · ··, 32οが存在するものとする。無音区間については、無音発生時刻と無音終了時 刻が得られ、シーンチェンジについては、シーンチェンジの発生した GOP番号が得 られる。実施の形態 6においては、 GOPのフレーム数を固定にしているので、 GOP 番号によって一意に時刻を表すことができる。無音とシーンチェンジの時刻を比較し 、同一時刻に無音とシーンチェンジが発生した場合に、この点を変移点とする。ここ では、図 15 (C)に示されるように、変移点 33a, · ··, 33iが検出されている。さらに、各 変移点 33a, · ··, 33iの間で、上記 CM間隔に一致するものを CMと判定する。ここで は、変移点 33bから変移点 33cまでの間隔が 30GOPであり、変移点 33cから変移点 33fまでの間隔が 61GOPであり、変移点 33fから変移点 33gまでの間隔が 29GOP であるので、それぞれの区間が CMとして検出され、さらに、 CMが 3個連続して続く ので、変移点 33b, · ··, 33gが CM放送区間であると判定する。さらに、変移点 33gか ら 201GOP経過したところで変移点 33iが検出される力 変移点 33gから変移点 33i までの間隔は、予め設定された CM放送区間の最大値である 180GOPを超えている ので、 CMが終了したと判断することができ、 CM放送区間検出を完了したことを示し ている。
[0111] 次に、図 16を用いて CMフィルタ 16による CM検出処理手順について説明する。
変移点検出部 15においてシーンチェンジと無音区間が同時に発生する変移点が検 出されると、その情報が CMフィルタ 16に送られることによって、 CMフィルタ 16の動 作が開始する(ステップ S401)。検出された変移点の情報は、 CMフィルタ 16内の変 移点スタックテーブル 18の最後尾に保存される(ステップ S402)。 CMフィルタ 16内 の変移点スタックテーブル 18に保存される情報は、有効無効フラグ、変移点 GOP番 号、連結終了 GOP番号、連続する CMとして検出された変移点の個数である変移点 カウンタ値、検出された変移点の無音時間長、及びシーンチェンジの変化量を示す シーンチェンジ差異値である。次に、変移点スタックテーブル 18の読み出し基点を設 定する(ステップ S403)。図 15 (C)において、例えば、前回、変移点 33aの処理まで 完了していたとすると、今回は次の変移点 33bを最初の基点とする。次に、変移点の 終点側を設定する(ステップ S407)。図 15 (C)においては、変移点 33cを終点とする 。もしも、変移点スタックテーブル 18に終点となる変移点がなければ (ステップ S408) 、次の基点を取得する (ステップ S404)。図 15 (C)においては、基点が変移点 33a で終点が変移点 33iの場合に、基点を変移点 33bにする処理である。ここで、次の基 点が見つ力もなければ (ステップ S404)、 CM検出処理を終了する(ステップ S406) 。基点と終点が決定した場合、基点力も終点までの時間長を求める (ステップ S409) 。図 15 (C)においては、基点が変移点 33b、終点が変移点 33cの場合には、基点' 1 0'と終点' 40'との差 (すなわち、変移点間隔)である 30GOP力 時間長である。この 時間長が、 CM基準時間である 30GOP± 1GOP、 60GOP± 1GOP、 120GOP士 lGOP、及び 180GOP± 1GOPのいずれかに一致していれば (ステップ S410)、基 点の連結終了 GOP番号を終点の連結終了 GOP番号で置き換える (ステップ S411) 。さらに、終点の有効無効フラグを無効化し (ステップ S412)、基点の変移点カウント を一つ増分する(ステップ S413)。また、ステップ S410において CM基準時間長で はないと判定された場合は、次に、基点と終点間の時間長が最大 CM基準時間長で ある 180GOP± 1GOPを超えているか否かを判断し (ステップ S414)、超えていると 判定された場合には、基点から連結終了 GOP番号までを CM放送区間と判定し、 C M放送区間の情報を録画制御部 8に送る (ステップ S415)。さらに、次回の CM放送 区間検出処理の基点を今回の CM放送区間の最終変移点の次の変移点に設定す ると共に、検出した最終変移点より前の変移点の有効無効フラグを無効化する (ステ ップ S416)。
上記ステップを録画動作中継続して実行することによって、記録する放送番組の C M放送区間をリアルタイムに検出することができる。 CMフィルタ 16で検出した CM放 送区間の時刻情報は、録画制御部 8に一旦渡され、録画した番組の管理情報を扱う ナビゲーシヨン部 12に伝えられ、ファイルシステム 10によってファイル化され、 CM放 送区間情報記録手段として機能する HDD11上に記録される。 [0113] 上記のように映像音声記録装置 20を構成することによって、放送番組を録画しなが ら CM放送区間を検出することができる。
[0114] また、シーンチェンジ検出機能を有しないエンコーダを用いた場合、通常、録画実 行後にあらためて録画された番組を解析する必要がある力 本発明の構成において は、録画動作と並行して CM放送区間の検出が行うことができるので、エンコーダの 選択の範囲が広くなり、結果コストや調達性を重視したエンコーダの選択が可能にな る。
[0115] さらに、ストリーム制御部 9からシーンチェンジ検出部 13及び無音検出部 14にストリ ームを送ることによって、 HDD11に録画されている番組に対して、 CM放送区間検 出を行うことも可能である。ただし、その場合、無音検出はシーンチェンジと同様にス トリーム力 解析する方法を使用しなければならない。
[0116] また、シーンチェンジ検出結果と無音検出結果を一時的な記憶領域である変移点 マッチングバッファ 19に記録し、変移点マッチングバッファ 19の記憶領域上で比較 することによって、リアルタイムに変移点を検出することができ、よって、録画と並行し て CM放送区間の検出が可能になる。また、同時に発生しているシーンチェンジと無 音区間が、ある程度の時間差をもって変移点検出部 15に通知されたとしても、変移 点マッチングバッファ 19で情報が保持されているので、片方の情報をとりこぼすこと なく CM放送区間の検出を実行できる。
[0117] また、シーンチェンジ検出時には一時的な記憶領域である変移点マッチングバッフ ァ 19への登録のみを実行し、一方で無音が検出されたときは変移点マッチングバッ ファ 19への登録だけでなぐ変移点マッチングバッファ 19上で無音と同時に発生す るシーンチェンジを検出し、さらに、 CM放送区間の検出処理を行う構成にすることに よって、検出回数の少ない無音検出に同期して処理を行うことができるので、 CPUの 処理時間が少なぐかつシステム負荷の少な!/、状態で CM放送区間の検出を行うこ とがでさる。
[0118] また、 CM放送区間検出の単位をフレーム単位でなぐ例えば、 GOP単位とするこ とによって処理頻度及び処理負荷の低減を計れるだけでなぐ CM毎に CMの長さが 数フレーム違う場合であっても、各 CMの長さの違いに影響されずに、 CM放送区間 の検出を行うことができる。
[0119] また、以上の説明においては、シーンチェンジ検出単位を 1GOPとしている力 シ ーンチェンジ検出単位を複数の GOP単位としてもよい。また、シーンチェンジ検出単 位を任意の数のフレーム毎にしてもよい。
[0120] また、以上の説明においては、シーンチェンジ及び無音検出処理を行う方法として ソフトウェアによる例を示した力 ハードウェアによって実行してもよい。また、音声は オーディオ AZD変換部 4出力を直接解析しているが、符号化ストリーム力も解析して 無音を検出してもよい。
[0121] 実施の形態 7.
実施の形態 7においては、 CM間の境界付近に複数の変移点が存在する場合に、 CM間の境界と判定する変移点を選択する方法について説明する。通常、 CMの前 後部分には、宣伝を行う企業名や製品名などのテロップが一時的に表示されることが 多い。このため、 CM間の境界付近においては、無音及びシーンチェンジが同時に 起こり、変移点が複数回連続して発生する場合が多い。一方、 CM放送区間の検出 においては、 CMの時間長さの誤差や検出遅れ及び検出ばらつきを補うため、基準 とする CM長さに対して、ある程度の幅を持たせて検出を行っている。例えば、実施 の形態 6においては、 15秒の CMを検出するために、 30± 1GOPの範囲内で検出 を実行している。しかしながら、 ± lGOPの検出幅において複数回の変移点が存在 することがあり、候補となる変移点から 1つの変移点を選択する指針が必要であった。 そこで、実施の形態 7においては、候補となる変移点から 1つの変移点を選択する指 針となる 3つの選択基準を示す。
[0122] 図 17 (A)乃至 (C)は、候補となる変移点と選択された変移点を示している。第 1の 方法は、図 17 (A)〖こ示すよう〖こ、変移点間隔が 30GOP、 60GOP、及び 90GOPの ように、基準時間から ±OGOPとなるように、次の変移点を選択していく方法である。
[0123] 第 2の方法は、図 17 (B)の GOP番号' 30'から GOP番号' 59'までに示すように、 ある CM境界検出において選択された変移点の間隔が 29GOP ( = 30GOP— 1GO P)となった場合に、図 17 (B)の GOP番号 ' 60 '力 GOP番号 ' 90 'までに示すように 、次の CM境界検出における選択された変移点の間隔を、 31GOP ( = 30GOP+ 1 GOP)を中心に選択する方法である。これは、選択された変移点が一時的に基準値 力もずれた場合(図 17 (B)における GOP番号' 59'に相当する。)、次の変移点は、 ずれを打ち消す GOPを優先して選択するものである(図 17 (B)における GOP番号' 90'に相当する)。すなわち、予め設定された基準時間(例えば、 30GOP)を中心と する所定の時間範囲内(± lGOPの範囲内)に、検出されたシーンチェンジと検出さ れた無音区間が同時に発生する変移点が複数検出された場合には、 CMフィルタ 1 6は、直前に判定された CMの時間長と、次に前判定される CMの時間長との合計が 、前記予め設定された基準時間(例えば、 30GOP)の整数倍に近づける度合いの大 きい変移点を CM放送区間を規定するための変移点と判定する。
[0124] 第 3の方法は、累積した時間が、できるだけ ±0GOPになるように選択する方法で ある。これは、図 17 (C)に示されるように、選択された変移点を GOP番号' 0'、 ' 29' 、 ' 58,とした後に、 GOP間隔が 30±0GOPとなる GOP番号' 88,を選択せずに、 G OP間隔が 30+ 1GOPとなる GOP番号' 89'を選択し、さらに次の検出に際して、 G OP間隔が 30GOP— 1GOPや 30GOP±0GOPを選択せずに、 GOP番号' 120 'を 選択することによって、変移点のずれが全体として ±0GOPになるようにするものであ る。すなわち、予め設定された基準時間 (例えば、 30GOP)を中心とする所定の時間 範囲内(± lGOPの範囲内)に、検出されたシーンチェンジと検出された無音区間が 同時に発生する変移点が複数検出された場合には、 CMフィルタ 16は、判定される CM放送区間を、予め設定された基準時間(例えば、 30GOP)の整数倍に近づける 度合いの大きい変移点を CM放送区間と規定するための変移点と判定する。
[0125] 上記第 2の方法又は第 3の方法を採用することによって、検出誤差等によって、一 且変移点が本来の CM間の境界位置力 ずれた場合であっても、補正処理が可能と なり、結果として CM放送区間検出精度を向上させることができる。
[0126] また、変移点のずれが全体として ±0GOPとなる変移点を優先的に選択することに よって、検出した CM放送区間が基準時間に近くなるようになり、 CM放送区間の検 出精度が向上する。
[0127] また、累積時間数又は GOP数の累積値の基準時間からのずれ力 ±0GOPにな るように、検出した変移点に対して重み付けを行うことによって、 1つの CMを検出す るための誤差である ± 1GOPが CM放送区間を継続して実行するなかで、 CMの数 が増えるほど累積する、すなわち、本来の CM境界からずれる、さらには本来の CM 境界力 ずれることによって検出すべき CMが検出できなくなるという問題を低減する ことができる。
[0128] なお、実施の形態 7において、上記以外の点は、上記実施の形態 6の場合と同じで ある。
[0129] 実施の形態 8.
実施の形態 8においては、変移点における無音時間長を用いて CM放送区間の検 出精度を向上させる方法を説明する。
[0130] 一般に、テレビ放送番組においては、 1つの CMの前後には約 0. 5秒程度の無音 部分が存在し、 CMと CMのつなぎ目である境界付近においては、双方の CMの無 音部分の和で約 1秒(^0. 5秒 X 2)の無音部分が存在する。一方、番組本編から C Mに移行するとき、及び、 CMカゝら番組本編に移行するときは、番組本編側の無音部 分が短い場合が多ぐ双方の無音部分の和で約 0. 6秒程度の無音部分が入るのみ である。
[0131] 図 18は、実際に放送されている任意の 20番組、 591本の CMを含む放送区間に おいて、ある CMとその次の CMの間の無音部分の時間長さを測定した結果を示す グラフである。図 18に示されるように、 CM間の無音部分のほとんどが 0. 8秒から 1. 4秒までの間に存在して!/、る。
[0132] 図 19は、図 18の場合と同じ任意の 20番組の放送区間において、 CM放送区間が 終了して番組本編に移行するときの無音部分の時間長さを測定した結果を示すダラ フである。図 19に示されるように、 CM放送区間力も番組本編に移行するときは、無 音部分の時間長さのほとんどが、約 0. 4秒から約 1. 2秒までの間に存在していること がわかる。すなわち、実施の形態 6で示した変移点における無音時間長が 0. 4秒か ら 0. 8秒までの間、又は、 1. 4秒以上であれば、ほとんどの場合において CMが終了 し番組本編に移行したと判断することができる。
[0133] 図 20は、 CM間の無音時間長を用いて CM放送区間を検出する方法を示すフロー チャートである。図 20において、図 16のステップと同じステップには、同じ符号を付し ている。実施の形態 8における基本的な CM放送区間の検出方法は、実施の形態 6 の場合と同じであるが、実施の形態 8においては、ステップ S420で変移点の無音時 間長について検証を行い、 CMが 2つ以上検出されている状態において、先述のと おり、無音時間長が 0. 8秒から 1. 4秒まで (すなわち、第 1の規定範囲)に入らなけ れば CMが終了したと判定する工程が追加されている。また、 CM放送区間が検出さ れた場合においても、 CM放送区間の各変移点の無音時間長において少なくとも 1 つ以上、 0. 8秒から 1. 4秒までの範囲内の時間長を持つ無音部分が存在している かを検証し (ステップ S420)、0. 8秒から 1. 4秒までの範囲内の時間長を持つ無音 部分が含まれて 、なければ、 CM放送区間として採用しな 、工程が追加されて 、る。
[0134] 上記のように構成することによって、 CM放送区間の終了及び本編開始位置を検出 することができ、 CM放送区間の検出精度を向上させることができる。
[0135] とくに、 CM力 番組本編に移行した後に、 CM間隔と同じ間隔でシーンチェンジと 無音が発生した場合、番組本編の冒頭部分を CMであると誤検出する場合があるが 、無音時間長により CM終了位置を精度良く検出でき、番組本編冒頭を CMと誤検 出する事態の発生頻度を低減でき、結果として、 CM放送区間の検出精度を向上さ せることができる。
[0136] さらに、番組本編中においてシーンチェンジと無音区間が同時に複数発生し、その 間隔が CM放送区間におけるシーンチェンジと無音区間の発生の間隔と同じであつ た場合に、番組本編を CM放送区間であると誤検出する場合がある力 無音時間長 力 SCM間の無音時間長と一致していることを条件とするために、番組本編を CMと誤 検出する事態の発生頻度を低減させることができる。
[0137] なお、実施の形態 8において、上記以外の点は、上記実施の形態 6及び 7の場合と 同じである。
[0138] 実施の形態 9.
実施の形態 9にお 、ては、シーンチェンジの変化量を示すシーンチェンジ差異値を 利用して検出精度を向上させることができる CM放送区間の検出方法について説明 する。
[0139] 図 21は、実施の形態 9の映像音声記録装置における、シーンチェンジ差異値を利 用した CM放送区間の検出方法を示すフローチャートである。また、図 22は、実施の 形態 9の映像音声記録装置における、シーンチェンジ差異値を利用した CM放送区 間検出方法を説明するための図である。図 22には、検出された CM放送区間と、 C M放送区間における各 CMの境界に位置する変移点 51a, · ··, 51fが示されている。 一般に、 CMと番組本編の間、又は、 CMと CMの間の映像的な因果関係は乏しぐ よって、シーンチェンジの変化量は極めて大きいものとなる。実施の形態 9において は、 CMと番組本編の間、及び、 CMと CMの間におけるシーンチェンジ差異値が、 番組本編内におけるシーンチェンジ差異値よりもが大きいことを利用して、番組本編 を誤って CMとみなす誤検出を低減する方法につ ヽて示す。
[0140] 図 21のフローチャートに示される動作は、実施の形態 6における図 16のフローチヤ ートに示される動作を基本とし、さらに、シーンチェンジ差異値を利用した幾つ力の判 断と処理が追加されている。図 21において、図 16のステップと同じ又は対応するス テツプには、同じ符号を付している。
[0141] まず、 CMフィルタ 16は、基点となる変移点から終点となる変移点までの時間長が CM基準時間長(例えば、 15秒、 30秒、 60秒、 90秒など)と同じと判定された (ステツ プ S410)後に、その基点と終点が先頭 CMであり、かつ、時間長が 60秒又は 90秒 であるかを判定する (ステップ S430)。その条件に一致した場合、基点のシーンチェ ンジ差異値と終点のシーンチェンジ差異値を比較し (ステップ S431)、基点のシーン チェンジ差異値が大きければ基点位置力 CMが開始されたと判定し、ステップ S41 1に復帰する。図 22においては、変移点 51aと変移点 51bのシーンチヱンジ差異値 を比較し、シーンチェンジ差異値が大き!/、方を番組本編と CMの境界と判定すること を示す。
[0142] 一方、ステップ S431において、基点のシーンチェンジ差異値より終点のシーンチェ ンジ差異値のほうが大きいと判断した場合は、 CMフィルタ 16は、終点位置から CM が開始される、すなわち、この基点と終点の間は番組本編が継続されていると判定す る。
[0143] 同様に、 CMフィルタ 16は、 CM終了時にも最終 CMであり、かつ、時間長が 60秒 又は 90秒であるかを判定し (ステップ S432)、条件に一致した場合、基点のシーン チヱンジ差異値と終点のシーンチヱンジ差異値を比較し (ステップ S433)、基点のシ ーンチェンジ差異値より終点のシーンチェンジ差異値が大きければ終点位置力 番 組本編が開始されたと判定し、処理をステップ S435に移す。図 22においては、変移 点 51eのシーンチヱンジ差異値と変移点 51fのシーンチヱンジ差異値を比較し、シー ンチェンジ差異値が大きい方を CMと番組本編の境界と判定することを示す。
[0144] 一方、終点のシーンチェンジ差異値より基点のシーンチェンジ差異値のほうが大き いと判断した場合は、 CMフィルタ 16は、基点位置力 番組本編が開始された、すな わち、この基点と終点の間はすでに番組本編に入っていると判定する。このように、 C M開始時又は本編開始時において 60秒又は 90秒などの長ぐかつ、放送される頻 度の少ない CMの場合、その区間の前後のどちらがより映像の変化量が大きいかに よって番組本編と CMの境界を判断する。番組本編の冒頭や最後は、ひとまとまりの エピソードや 1コーナーなど編集された単位になっている場合があり、その場合に、 C Mと誤検出する可能性がある力 実施の形態 9の CM放送区間検出方法においては 、より映像変化の大きい CM境界を見つけることによって、正確に CMと番組本編の 境界を検出することができる。
[0145] また、ステップ S435においては、全変移点のシーンチェンジ差異値をチェックし、 シーンチェンジの判定に用いた閾値より大きな、第 2の閾値と比較し、 CM放送区間 の少なくとも一つの変移点のシーンチェンジ差異値が第 2の閾値を越えていれば、 C M放送区間として扱うステップ S415に移り、反対に、超えていなければこの CM放送 区間を無効化する (ステップ S436)。図 14で説明すると、シーンチェンジ差異値の閾 値が 0. 9であったとすると、変移点 33b, 33c, 33f, 33gのうち変移点 33b及び 33g のシーンチェンジ差異値が閾値 0. 9を超えているため、変移点 33bから変移点 33g までの期間を CM放送区間と判定する。
[0146] 上記のように番組本編と CMとの境界の CMにお!/、てシーンチェンジ差異値を番組 本編と CMの境界選択に利用することによって、番組本編と CMとの境界を判定する ことができ、番組本編の冒頭又は最後を CMとして誤検出する事態の発生頻度を低 減させることができる。
[0147] また、検出した CM放送区間内においてシーンチェンジ差異値の少なくとも一つが 、ある閾値を超えない場合、 CMでないと判定することによって、 CMに比べて映像の 変化量の少ない番組本編を CMであると誤検出する事態の発生頻度を低減させるこ とがでさる。
[0148] なお、実施の形態 9において、上記以外の点は、上記実施の形態 6乃至 8の場合と 同じである。
[0149] 実施の形態 10.
実施の形態 10においては、記録されたストリームの先頭に数秒の CMがあり、その CMに続いて本編が記録されているような場合に、その数秒の断片化された CMを検 出する方法について示す。通常、映像音声記録装置 20は、記録を開始すると判断し てから、実際の記録が開始されるまでに一定の時間が必要とされており、そのために 予め設定されて ヽた記録開始時刻から数秒遡って記録を開始するように構成されて いるものが多い。また、映像音声記録装置の内部に持っている時計は、常に正確な 時刻を指し示している保障はない。そのため、例えば、放送番組力 SPM9 : 00に開始 予定であり、かつ、 PM9 : 00ちょうどの本編が開始されたとしても、記録されたストリー ムの先頭に記録されてしまうことがあった。実施の形態 10では、記録されたストリーム の先頭に記録された断片化された CMを抽出する方法を示す。
[0150] 図 23を用いて実施の形態 10を説明する。シーンチェンジと無音が同時に発生した 点である変移点が、記録されているストリーム力も検出されたとする。その変移点が、 図 23の強制 CM化区間 61内の最終に発生した変移点 60cを CMと本編の境界と判 断し、記録開始位置 62から 60cの間を CMとみなす。強制 CM化区間は、映像音声 記録装置の仕様によって決定され、例えば、記録予定時刻より 5秒前から記録が開 始されるのであれば、強制 CM化区間は 5秒とすればよい。また、映像音声記録装置 の内部時計の誤差分、例えば、 2秒を勘案し、 7秒に設定してもよい。ここで、強制 C M化区間の最終変移点 60cを CMと本編の境界として採用しているのは、強制 CM 化区間の時間幅が実際の記録開始時刻と記録予定時刻の差にほぼ等しいように設 定していることと、 CM内の変移点発生頻度は本編中の変移点発生頻度に比べて、 かなり高いことによる。
[0151] 以上より、予め設定された記録予定時刻ちようど力も記録を開始しないために、本 編前の不要な CMから記録を開始するような映像音声記録装置であっても、本編より 前の不要な CMを検出することができる。
[0152] また、映像音声記録装置の内部時計が正確な時刻を刻んでいなくても、本編より前 の不要な CMを検出することができる。
[0153] また、実施の形態 10では、強制 CM化区間における最終変移点を CMと本編の境 界として採用する方法を取った力 強制 CM化区間の代わりに、強制 CM化時刻とし て記録開始時刻から、例えば、 5秒経過した時刻を用い、その強制 CM化時刻に最も 近い変移点を CMと本編の境界として採用するよう構成してもよい。図 23では、 60d と CMを本編の境界として採用する方法である。
[0154] また、実施の形態 6乃至 10の各構成を選択的に組み合わせて、 CM放送区間の検 出を行うこともできる。

Claims

請求の範囲
[1] 映像データを符号ィ匕して符号化ストリームを出力する符号ィ匕手段と、
前記符号化手段から出力された符号化ストリームを記録する記録手段と、 前記符号ィ匕手段力 出力された符号化ストリームを前記記録手段に転送するストリ ーム制御手段と、
前記符号ィ匕手段カゝら出力された符号化ストリームを復号ィ匕し、該復号化された映像 データのシーンチェンジを抽出する映像変化点抽出手段と、
前記符号ィ匕手段力 符号化ストリームの符号ィ匕単位毎に符号ィ匕完了通知を取得し 、該符号ィヒ完了通知を取得したときに前記映像変化点抽出手段に対するシーンチェ ンジ抽出指示を出力する録画制御手段と
を有することを特徴とする映像記録装置。
[2] 前記映像変化点抽出手段は、
前記符号ィ匕手段カゝら出力された符号化ストリームを復号ィ匕する復号ィ匕手段と、 前記復号化された映像データのヒストグラムを生成するヒストグラム生成手段と、 前記生成されたヒストグラムを所定の画素数毎に交互に保持する第 1のヒストグラム バッファ及び第 2のヒストグラムバッファと、
前記第 1のヒストグラムバッファに保持されたヒストグラムと前記第 2のヒストグラムバッ ファに保持されたヒストグラムの差異値を求める差分抽出手段と、
前記差分抽出手段で求めた差異値と予め定められた閾値とを比較するシーンチェ ンジ判定手段と、
前記録画制御手段力 のシーンチェンジ抽出指示に基づいて前記映像変化点抽 出手段を制御するシーンチェンジコマンド制御手段と
を有することを特徴とする請求項 1に記載の映像記録装置。
[3] 前記記録手段よりもデータの書込み速度及びデータの読出し速度が早ぐ前記スト リーム制御手段に入力された符号化ストリ一ムをー時的に記憶する一時記憶手段を さらに有し、
前記映像変化点抽出手段によるシーンチェンジの抽出は、前記一時記憶手段から 読み出された符号化ストリームに対して実行される ことを特徴とする請求項 1に記載の映像記録装置。
[4] 前記符号化手段からの符号化完了通知の送信は、前記符号化手段から符号化ス トリームが 1又は複数 GOP出力される毎に実行されることを特徴とする請求項 1に記 載の映像記録装置。
[5] 前記符号化手段からの符号化完了通知の送信は、前記符号化手段から符号化ス トリームが 1又は複数スライス出力される毎に実行されることを特徴とする請求項 1に 記載の映像記録装置。
[6] 前記符号化手段からの符号化完了通知の送信は、前記符号化手段から符号化ス トリームが 1又は複数マクロブロック出力される毎に実行されることを特徴とする請求 項 1に記載の映像記録装置。
[7] 前記映像変化点抽出手段によるシーンチェンジ抽出動作は、前記録画制御手段 力 のシーンチェンジ抽出指示の受信に同期して実行されることを特徴とする請求項
1に記載の映像記録装置。
[8] 前記映像変化点抽出手段が、前記録画制御手段からのシーンチェンジ抽出指示 を一時保持する制御命令保持手段を有し、
前記映像変化点抽出手段によるシーンチェンジ抽出動作は、前記制御命令保持 手段から出力されたシーンチェンジ抽出指示に基づいて、前記録画制御手段からの シーンチェンジ抽出指示の受信に非同期のタイミングで実行される
ことを特徴とする請求項 1に記載の映像記録装置。
[9] 前記制御命令保持手段は、前記シーンチヱンジ抽出指示を複数回分保持し、所定 の符号ィ匕単位のシーンチェンジ抽出が完了する毎に、前記シーンチェンジ抽出指示 に対応した処理をすることを特徴とする請求項 8に記載の映像記録装置。
[10] 前記符号化手段が、 DCTを用いて映像データを圧縮し、
前記映像変化点抽出手段が、前記復号化に際して、符号化ストリームの画素サイ ズに応じて符号化ストリームの DCT係数の復号ィ匕次数を制御する
ことを特徴とする請求項 1に記載の映像記録装置。
[11] 前記映像変化点抽出手段が、符号化ストリームの画素サイズに応じて符号化ストリ 一ムの復号化スライスを制御することを特徴とする請求項 10に記載の映像記録装置
[12] 前記ヒストグラム生成手段は、前記ヒストグラムの分布が、指定した色分布に適合す るかを判定し、指定した色分布であると判定した場合、指定した色分布以外のヒストグ ラムを前記第 1のヒストグラムバッファ及び前記第 2のヒストグラムバッファに出力するこ とを特徴とする請求項 2に記載の映像記録装置。
[13] 符号ィ匕手段によって映像データを符号ィ匕して符号化ストリームを出力するステップ と、
前記符号化ストリ一ムをストリーム制御手段によって転送して記録手段に記録する ステップと、
録画制御手段によって前記符号ィ匕手段力 符号化ストリームの符号ィ匕単位毎に符 号ィ匕完了通知を取得し、該符号ィ匕完了通知を取得したときに映像変化点抽出手段 に対するシーンチェンジ抽出指示を出力するステップと、
前記映像変化点抽出手段によって、前記符号化手段から出力された符号化ストリ ームを復号ィ匕し、該復号ィ匕された映像データのシーンチェンジを抽出するステップと を有することを特徴とするシーンチェンジ抽出方法。
[14] 前記シーンチェンジを抽出するステップが、
前記符号ィ匕手段カゝら出力された符号化ストリームを復号ィ匕するステップと、 前記復号ィ匕された映像データのヒストグラムを生成するステップと、
前記生成されたヒストグラムを所定の画素数毎に交互に第 1のヒストグラムバッファ 及び第 2のヒストグラムバッファに保持するステップと、
前記第 1のヒストグラムバッファに保持されたヒストグラムと前記第 2のヒストグラムバッ ファに保持されたヒストグラムの差異値を求めるステップと、
前記求められた差異値と予め定められた閾値とを比較するステップと、 前記録画制御手段力 のシーンチェンジ抽出指示に基づいて前記映像変化点抽 出手段を制御するステップと
を有することを特徴とする請求項 13に記載のシーンチェンジ抽出方法。
[15] 前記記録手段よりもデータの書込み速度及びデータの読出し速度が早!、一時記 憶手段に、前記ストリーム制御手段に入力された符号化ストリームを一時的に記憶さ せるステップさらに有し、
前記映像変化点抽出手段によるシーンチェンジの抽出は、前記一時記憶手段から 読み出された符号化ストリームに対して実行される
ことを特徴とする請求項 13に記載のシーンチェンジ抽出方法。
[16] 前記符号化手段からの符号化完了通知の送信は、前記符号化手段から符号化ス トリームが 1又は複数 GOP出力される毎に実行されることを特徴とする請求項 13に記 載のシーンチェンジ抽出方法。
[17] 前記符号化手段からの符号化完了通知の送信は、前記符号化手段から符号化ス トリームが 1又は複数スライス出力される毎に実行されることを特徴とする請求項 13に 記載のシーンチェンジ抽出方法。
[18] 前記符号化手段からの符号化完了通知の送信は、前記符号化手段から符号化ス トリームが 1又は複数マクロブロック出力される毎に実行されることを特徴とする請求 項 13に記載のシーンチェンジ抽出方法。
[19] 前記映像変化点抽出手段によるシーンチェンジ抽出動作は、前記録画制御手段 力 のシーンチェンジ抽出指示の受信に同期して実行されることを特徴とする請求項
13に記載のシーンチェンジ抽出方法。
[20] 前記録画制御手段力 のシーンチェンジ抽出指示を制御命令保持手段に一時保 持させるステップをさらに有し、
前記映像変化点抽出手段によるシーンチェンジ抽出動作は、前記制御命令保持 手段から出力されたシーンチェンジ抽出指示に基づいて、前記録画制御手段からの シーンチェンジ抽出指示の受信に非同期のタイミングで実行される
ことを特徴とする請求項 13に記載のシーンチェンジ抽出方法。
[21] 前記制御命令保持手段にシーンチェンジ抽出指示を一時保持させるステップにお いて、前記シーンチェンジ抽出指示を複数回分保持させ、所定の符号ィ匕単位のシー ンチェンジ抽出が完了する毎に、前記シーンチェンジ抽出指示に対応した処理をす ることを特徴とする請求項 20に記載のシーンチェンジ抽出方法。
[22] 前記符号化手段が、 DCTを用いて映像データを圧縮し、
前記映像変化点抽出手段が、前記復号化に際して、符号化ストリームの画素サイ ズに応じて符号化ストリームの DCT係数の復号ィ匕次数を制御する
ことを特徴とすることを特徴とする請求項 13に記載のシーンチェンジ抽出方法。
[23] 符号化ストリームの画素サイズに応じて符号化ストリームの復号化スライスを制御す ることを特徴とする請求項 22に記載のシーンチェンジ抽出方法。
[24] 前記ヒストグラム生成手段は、前記ヒストグラムの分布が、指定した色分布に適合す るかを判定し、指定した色分布であると判定した場合、指定した色分布以外のヒストグ ラムを前記第 1のヒストグラムバッファ及び前記第 2のヒストグラムバッファに出力するこ とを特徴とする請求項 14に記載のシーンチェンジ抽出方法。
[25] 入力された映像データ及び音声データを符号ィ匕して符号化ストリームを出力する符 号化手段と、
前記符号化手段から出力された符号化ストリームを記録する記録手段と、 前記符号化手段から出力された符号化ストリームを復号化し、該復号化されたデー タから映像のシーンチェンジを検出する映像変化点検出手段と、
前記音声データから無音区間を検出する無音検出手段と、
前記映像変化点検出手段によって検出されたシーンチェンジと前記無音検出手段 によって検出された無音区間が同時に発生する変移点を検出する変移点検出手段 と、
前記変移点検出手段によって検出された変移点の間隔が予め設定された基準時 間を中心とする所定の時間範囲内になる変移点の組み合わせが連続して 2つ以上 継続する区間を CM放送区間と判定する CM放送区間判定手段と、
前記 CM放送区間判定手段によって判定された CM放送区間の時刻情報を記録 する CM放送区間情報記録手段と
を有することを特徴とする映像音声記録装置。
[26] 前記変移点検出手段が、
前記映像変化点検出手段によって検出されたシーンチェンジ情報と前記無音検出 手段によって検出された無音区間情報を一時的に保持する一時記憶手段を有し、 前記一時記憶手段上でシーンチェンジと無音区間が同時に発生する時刻を検出 する ことを特徴とする請求項 25に記載の映像音声記録装置。
[27] 前記変移点検出手段による変移点の検出動作及び前記 CM放送区間判定手段に よる CM放送区間の判定動作は、前記無音検出手段によって無音区間が検出される 毎に実行されることを特徴とする請求項 25に記載の映像音声記録装置。
[28] 前記映像変化点検出手段によるシーンチェンジの検出動作は、複数フレームを 1 単位とする処理単位毎に実行され、
前記 CM放送区間判定手段による前記 CM放送区間の判定動作は、前記映像変 化点検出手段によるシーンチェンジの検出動作と同じ処理単位毎に実行される ことを特徴とする請求項 25に記載の映像音声記録装置。
[29] 前記 CM放送区間判定手段が用いる前記基準時間が、予め決められた数の GOP に相当する時間であり、
前記 CM放送区間判定手段が用いる前記基準時間を中心とする所定の時間範囲 内力 前記予め決められた数の GOPを中心にして ± lGOPの範囲内である ことを特徴とする請求項 25に記載の映像音声記録装置。
[30] 前記 CM放送区間判定手段が用いる前記基準時間を中心とする所定の時間範囲 内に、前記変移点が複数検出された場合には、
前記 CM放送区間判定手段は、
前記 CM放送区間判定手段により直前に判定された変移点間隔が前記基準時間 よりも第 1の値だけ長い場合には、次に前記 CM放送区間判定手段により判定される 変移点間隔を前記基準時間よりも第 1の値だけ短くする変移点を、 CM放送区間を 規定するための変移点として優先的に選択し、
前記 CM放送区間判定手段により直前に判定された変移点間隔が前記基準時間 よりも第 2の値だけ短い場合には、次に前記 CM放送区間判定手段により判定される 変移点間隔を前記基準時間よりも第 2の値だけ長くする変移点を、 CM放送区間を 規定するための変移点として優先的に選択する
ことを特徴とする請求項 25に記載の映像音声記録装置。
[31] 前記 CM放送区間判定手段が用いる前記基準時間を中心とする所定の時間範囲 内に、前記変移点が複数検出された場合には、 前記 CM放送区間判定手段は、前記 CM放送区間判定手段によって判定される C M放送区間を、前記基準時間の整数倍に近づける度合いの大きい変移点を、 CM 放送区間を規定するための変移点と判定する
ことを特徴とする請求項 25のいずれかに記載の映像音声記録装置。
[32] 前記無音検出手段は、音声データの無音部分の発生時刻と無音時間長を検出し 、無音時間長が予め定められた第 1の規定範囲内であれば、前記無音部分を、前記 変移点を検出するために用いられる前記無音区間であると判定し、
前記 CM放送区間判定手段は、検出された第 3番目以降の変移点の無音時間長 が予め定められた第 1の規定範囲外であれば CM放送区間が終了したと判定する ことを特徴とする請求項 25に記載の映像音声記録装置。
[33] 前記 CM放送区間判定手段によって判定された CM放送区間の変移点の中に、無 音時間長が第 1の規定範囲内に有る変移点が存在しない場合、前記 CM放送区間 判定手段によって判定された前記 CM放送区間を前記記録手段に記録しない ことを特徴とする請求項 32記載の映像音声記録装置。
[34] 前記映像変化点検出手段力 出力される情報は、シーンチェンジ発生時間と、シ ーンチェンジにおける映像データの変化の度合いを示すシーンチェンジ差異値とを 含み、
前記 CM放送区間判定手段によって検出された CM放送区間の変移点の中に、シ ーンチェンジ差異値が予め設定されたシーンチェンジ基準値よりも大きい変移点が 存在しな!ヽ場合、前記 CM放送区間判定手段によって判定された前記 CM放送区間 を前記記録手段に記録しな ヽ
ことを特徴とする請求項 25に記載の映像音声記録装置。
[35] 前記 CM放送区間判定手段は、変移点間隔が 60秒又は 90秒であり、かつ、 CMと 番組本編の境界にあたる場合、基点となる変移点のシーンチェンジ差異値と終点と なる変移点のシーンチェンジ差異値の比較結果に基づ 、て、 CM放送区間と番組本 編と判定することを特徴とする請求項 34に記載の映像音声記録装置。
[36] 前記 CM放送区間判定手段が、前記変移点検出手段によって検出された変移点 のうち、ストリームが記録開始されて力も規定時間内において、最後尾に発生した変 移点までを CM放送区間と判定することを特徴とする請求項 25に記載の映像音声記
PCT/JP2006/305337 2005-08-11 2006-03-17 映像記録装置、シーンチェンジ抽出方法、及び映像音声記録装置 WO2007017970A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007529457A JP4707713B2 (ja) 2005-08-11 2006-03-17 映像記録装置及びシーンチェンジ抽出方法
US11/989,309 US8886014B2 (en) 2005-08-11 2006-03-17 Video recording apparatus, scene change extraction method, and video audio recording apparatus
CN2006800291636A CN101238727B (zh) 2005-08-11 2006-03-17 图像记录装置、场景转换提取方法及图像语音记录装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2005-232948 2005-08-11
JP2005232948A JP3894940B2 (ja) 2005-08-11 2005-08-11 映像音声記録装置
JP2005232957A JP3827705B1 (ja) 2005-08-11 2005-08-11 映像記録装置及びシーンチェンジ抽出方法
JP2005-232957 2005-08-11

Publications (1)

Publication Number Publication Date
WO2007017970A1 true WO2007017970A1 (ja) 2007-02-15

Family

ID=37727163

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/305337 WO2007017970A1 (ja) 2005-08-11 2006-03-17 映像記録装置、シーンチェンジ抽出方法、及び映像音声記録装置

Country Status (3)

Country Link
US (1) US8886014B2 (ja)
JP (1) JP4707713B2 (ja)
WO (1) WO2007017970A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013190383A1 (en) * 2012-06-22 2013-12-27 Ati Technologies Ulc Remote audio keep alive for a wireless display

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8886014B2 (en) 2005-08-11 2014-11-11 Mitsubishi Electric Corporation Video recording apparatus, scene change extraction method, and video audio recording apparatus
JP4062339B2 (ja) * 2006-04-05 2008-03-19 船井電機株式会社 情報記録再生装置
KR100796392B1 (ko) * 2006-06-15 2008-01-22 삼성전자주식회사 스포츠 동영상에서의 네비게이션 정보 생성 방법 및 그장치
JP5203648B2 (ja) * 2007-07-20 2013-06-05 オリンパス株式会社 画像抽出装置および画像抽出プログラム
JP5493531B2 (ja) * 2009-07-17 2014-05-14 三菱電機株式会社 映像音声記録再生装置および映像音声記録再生方法
US8582952B2 (en) * 2009-09-15 2013-11-12 Apple Inc. Method and apparatus for identifying video transitions
US10116902B2 (en) * 2010-02-26 2018-10-30 Comcast Cable Communications, Llc Program segmentation of linear transmission
JP2011211481A (ja) * 2010-03-30 2011-10-20 Hitachi Consumer Electronics Co Ltd 動画再生装置
JP5510012B2 (ja) * 2010-04-09 2014-06-04 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP5929902B2 (ja) * 2011-04-05 2016-06-08 日本電気株式会社 情報処理装置
US9264760B1 (en) * 2011-09-30 2016-02-16 Tribune Broadcasting Company, Llc Systems and methods for electronically tagging a video component in a video package
US9110562B1 (en) * 2012-07-26 2015-08-18 Google Inc. Snapping a pointing-indicator to a scene boundary of a video
US9152872B2 (en) * 2012-11-12 2015-10-06 Accenture Global Services Limited User experience analysis system to analyze events in a computer desktop
US20140184917A1 (en) * 2012-12-31 2014-07-03 Sling Media Pvt Ltd Automated channel switching
JP5820986B2 (ja) 2013-03-26 2015-11-24 パナソニックIpマネジメント株式会社 映像受信装置及び受信映像の画像認識方法
JP5838351B2 (ja) * 2013-03-26 2016-01-06 パナソニックIpマネジメント株式会社 映像受信装置及び受信映像の画像認識方法
JP2014230159A (ja) * 2013-05-23 2014-12-08 株式会社メガチップス 画像処理装置
JP6281126B2 (ja) 2013-07-26 2018-02-21 パナソニックIpマネジメント株式会社 映像受信装置、付加情報表示方法および付加情報表示システム
WO2015015712A1 (ja) 2013-07-30 2015-02-05 パナソニックIpマネジメント株式会社 映像受信装置、付加情報表示方法および付加情報表示システム
US9900650B2 (en) 2013-09-04 2018-02-20 Panasonic Intellectual Property Management Co., Ltd. Video reception device, video recognition method, and additional information display system
EP3043570B1 (en) 2013-09-04 2018-10-24 Panasonic Intellectual Property Management Co., Ltd. Video reception device, video recognition method, and additional information display system
US10194216B2 (en) 2014-03-26 2019-01-29 Panasonic Intellectual Property Management Co., Ltd. Video reception device, video recognition method, and additional information display system
EP3125569A4 (en) 2014-03-26 2017-03-29 Panasonic Intellectual Property Management Co., Ltd. Video receiving device, video recognition method, and supplementary information display system
EP3171609B1 (en) 2014-07-17 2021-09-01 Panasonic Intellectual Property Management Co., Ltd. Recognition data generation device, image recognition device, and recognition data generation method
US10200765B2 (en) 2014-08-21 2019-02-05 Panasonic Intellectual Property Management Co., Ltd. Content identification apparatus and content identification method
US10652298B2 (en) * 2015-12-17 2020-05-12 Intel Corporation Media streaming through section change detection markers
JP6701776B2 (ja) * 2016-02-15 2020-05-27 船井電機株式会社 録画装置、録画方法
US10095933B2 (en) * 2016-12-05 2018-10-09 Google Llc Systems and methods for locating image data for selected regions of interest
CN110998726B (zh) * 2017-06-29 2021-09-17 杜比国际公司 用于使外部内容适配视频流的方法、系统和计算机可读媒体
US11166028B2 (en) * 2019-02-01 2021-11-02 Comcast Cable Communications, Llc Methods and systems for providing variable bitrate content
US10986378B2 (en) 2019-08-30 2021-04-20 Rovi Guides, Inc. Systems and methods for providing content during reduced streaming quality
US11005909B2 (en) 2019-08-30 2021-05-11 Rovi Guides, Inc. Systems and methods for providing content during reduced streaming quality
US11184648B2 (en) * 2019-08-30 2021-11-23 Rovi Guides, Inc. Systems and methods for providing content during reduced streaming quality
CN112040249A (zh) * 2020-08-11 2020-12-04 浙江大华技术股份有限公司 一种录播方法、装置及单相机

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998041978A1 (fr) * 1997-03-19 1998-09-24 Hitachi, Ltd. Procede et dispositif destines a detecter des points de depart et de terminaison d'une section son dans une sequence video
JPH10276388A (ja) * 1997-03-28 1998-10-13 Sony Corp 画像処理装置および画像処理方法、画像再生装置および画像再生方法、並びに記録媒体
JP2000165796A (ja) * 1998-11-30 2000-06-16 Sony Corp 情報処理装置および方法、並びに提供媒体
JP2000286715A (ja) * 1999-03-31 2000-10-13 Toshiba Corp 情報記録再生方法および情報記録再生装置
JP2002010254A (ja) * 2000-06-20 2002-01-11 Sony Corp 特徴点検出方法および記録再生装置
JP2005175710A (ja) * 2003-12-09 2005-06-30 Sony Corp デジタル記録再生装置及びデジタル記録再生方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5696866A (en) * 1993-01-08 1997-12-09 Srt, Inc. Method and apparatus for eliminating television commercial messages
BR9405709A (pt) 1993-01-08 1995-11-28 Little Inc A Processo e aparelho para eliminar mensagens comerciais na televisão
JP3511312B2 (ja) * 1994-06-24 2004-03-29 三菱電機株式会社 光ディスク、および光ディスクの再生装置および方法
US6154601A (en) * 1996-04-12 2000-11-28 Hitachi Denshi Kabushiki Kaisha Method for editing image information with aid of computer and editing system
JPH10162560A (ja) * 1996-12-04 1998-06-19 Matsushita Electric Ind Co Ltd 映像編集方法、及びノンリニア映像編集装置
AU1579401A (en) * 1999-11-10 2001-06-06 Thomson Licensing S.A. Commercial skip and chapter delineation feature on recordable media
JP3825282B2 (ja) * 2000-06-26 2006-09-27 松下電器産業株式会社 デジタルビデオレコーディング装置及び方法
JP4296693B2 (ja) 2000-07-13 2009-07-15 ソニー株式会社 Av信号記録再生装置、cm検出方法、および記録媒体
JP2002064823A (ja) 2000-08-21 2002-02-28 Matsushita Electric Ind Co Ltd 圧縮動画像のシーンチェンジ検出装置、圧縮動画像のシーンチェンジ検出方法及びそのプログラムを記録した記録媒体
JP2002247516A (ja) 2001-02-20 2002-08-30 Sharp Corp 記録装置、再生装置および記録再生装置
JP3840928B2 (ja) * 2001-07-17 2006-11-01 ソニー株式会社 信号処理装置および方法、記録媒体、並びにプログラム
JP4697371B2 (ja) 2001-08-03 2011-06-08 日本電気株式会社 コマーシャル検出方法及び装置
JP3942088B2 (ja) * 2002-09-27 2007-07-11 株式会社リコー 画像処理装置及び画像処理方法
JP4100205B2 (ja) 2003-03-14 2008-06-11 ソニー株式会社 シーンチェンジ検出方法および装置
JP4172379B2 (ja) * 2003-11-14 2008-10-29 船井電機株式会社 記録再生装置
JP4216217B2 (ja) 2004-01-19 2009-01-28 株式会社ナカオ 梯子状脚体及びこれを用いた可搬式作業台
DE602005023997D1 (de) 2004-06-21 2010-11-18 Mitsubishi Electric Corp Codierungseinrichtung für bewegliche bilder, aufzeichnungseinrichtung für bewegliche bilder und wiedergabeeinrichtung für bewegliche bilder
JP3894940B2 (ja) 2005-08-11 2007-03-22 三菱電機株式会社 映像音声記録装置
US8886014B2 (en) 2005-08-11 2014-11-11 Mitsubishi Electric Corporation Video recording apparatus, scene change extraction method, and video audio recording apparatus
JP3827705B1 (ja) * 2005-08-11 2006-09-27 三菱電機株式会社 映像記録装置及びシーンチェンジ抽出方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998041978A1 (fr) * 1997-03-19 1998-09-24 Hitachi, Ltd. Procede et dispositif destines a detecter des points de depart et de terminaison d'une section son dans une sequence video
JPH10276388A (ja) * 1997-03-28 1998-10-13 Sony Corp 画像処理装置および画像処理方法、画像再生装置および画像再生方法、並びに記録媒体
JP2000165796A (ja) * 1998-11-30 2000-06-16 Sony Corp 情報処理装置および方法、並びに提供媒体
JP2000286715A (ja) * 1999-03-31 2000-10-13 Toshiba Corp 情報記録再生方法および情報記録再生装置
JP2002010254A (ja) * 2000-06-20 2002-01-11 Sony Corp 特徴点検出方法および記録再生装置
JP2005175710A (ja) * 2003-12-09 2005-06-30 Sony Corp デジタル記録再生装置及びデジタル記録再生方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013190383A1 (en) * 2012-06-22 2013-12-27 Ati Technologies Ulc Remote audio keep alive for a wireless display
US9008591B2 (en) 2012-06-22 2015-04-14 Ati Technologies Ulc Remote audio keep alive for wireless display

Also Published As

Publication number Publication date
US20090034937A1 (en) 2009-02-05
US8886014B2 (en) 2014-11-11
JP4707713B2 (ja) 2011-06-22
JPWO2007017970A1 (ja) 2009-02-19

Similar Documents

Publication Publication Date Title
JP4707713B2 (ja) 映像記録装置及びシーンチェンジ抽出方法
JP3894940B2 (ja) 映像音声記録装置
US7187415B2 (en) System for detecting aspect ratio and method thereof
US8457478B2 (en) Method and apparatus for receiving, storing, and presenting multimedia programming without indexing prior to storage
US7295757B2 (en) Advancing playback of video data based on parameter values of video data
US8661483B2 (en) Determination of receiving live versus time-shifted media content at a communication device
JP2005524290A (ja) 黒フィールド検出システムおよび方法
KR20010089770A (ko) 동적 임계치를 사용하는 비주얼 인덱싱 시스템에 대한중요 장면 검출 및 프레임 필터링
US8331763B2 (en) Apparatus and method for synchronizing reproduction time of time-shifted content with reproduction time of real-time content
US6891547B2 (en) Multimedia data decoding apparatus and method capable of varying capacity of buffers therein
CN101238727B (zh) 图像记录装置、场景转换提取方法及图像语音记录装置
JP4432823B2 (ja) 特定条件区間検出装置および特定条件区間検出方法
US20070031129A1 (en) Image recording apparatus and method
JP5036882B2 (ja) 映像記録装置、映像記録方法、映像音声記録装置、及び映像音声記録方法
JP5521436B2 (ja) 動画像記録装置、動画像記録方法およびプログラム
JP5425972B2 (ja) 映像音声記録装置及び映像音声記録方法
US20050053353A1 (en) Personal video recorder and method for controlling the same
US20060210248A1 (en) Information recording apparatus and information
JP2009010603A (ja) 記録装置および記録方法
CN1859552A (zh) 数字广播记录器和使用其记录标题的方法
JP5682167B2 (ja) 映像音声記録再生装置、および映像音声記録再生方法
JP2006303868A (ja) 信号属性判定装置、信号属性判定方法、情報信号記録装置、情報信号記録方法、情報信号再生装置、情報信号再生方法、情報信号記録再生装置および情報信号記録再生方法並びに記録媒体
JP2009117923A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680029163.6

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2007529457

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 11989309

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06729327

Country of ref document: EP

Kind code of ref document: A1