WO2004112391A1 - 映像データと音声データの記録装置 - Google Patents

映像データと音声データの記録装置 Download PDF

Info

Publication number
WO2004112391A1
WO2004112391A1 PCT/JP2004/008053 JP2004008053W WO2004112391A1 WO 2004112391 A1 WO2004112391 A1 WO 2004112391A1 JP 2004008053 W JP2004008053 W JP 2004008053W WO 2004112391 A1 WO2004112391 A1 WO 2004112391A1
Authority
WO
WIPO (PCT)
Prior art keywords
audio
time
frame
data
video data
Prior art date
Application number
PCT/JP2004/008053
Other languages
English (en)
French (fr)
Inventor
Tetsuya Okada
Daisuke Hiranaka
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to EP04735991A priority Critical patent/EP1633138B1/en
Priority to US10/559,419 priority patent/US7738772B2/en
Publication of WO2004112391A1 publication Critical patent/WO2004112391A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/926Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation
    • H04N5/9265Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation with processing of the sound signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/782Television signal recording using magnetic recording on tape
    • H04N5/783Adaptations for reproducing at a rate different from the recording rate

Definitions

  • the present invention relates to an audio / video synchronization processing device, an audio / Z video synchronization processing method, and an audio / video recording device for synchronizing video data and audio data.
  • AV audio Z video
  • AV recording device such as an input device of an MPEG encoder
  • frame length (frame period) of input signals of video data and audio data is generally different.
  • fetch cycle of audio data and video data is performed in frame units.
  • FIG. 15 is a system configuration diagram of a conventional AV recording apparatus.
  • This system includes a data control unit 2a receiving a control instruction from a host (HOST) 1a and a system encoder 3a.
  • HOST host
  • the data control unit 2a receives a control instruction from the host 1a by the audio Z video control unit (AV-CTRL) 2la, and based on the time information from the timer (T IMER) 24a, The video controller 26a is controlled.
  • AV-CTRL audio Z video control unit
  • T IMER timer
  • the audio / video control unit is referred to as an AV control unit.
  • AV control unit 2] a performs input control of audio data (A-DATA) by issuing a control instruction to the audio control unit (A-CTRL) 22a.
  • the input voice data is stored in a voice data memory (A-MEM) 23a.
  • the AV control unit 2a performs input control of video data (V-DATA) by issuing a control instruction to the video control unit (V_CTRL) 26a.
  • the input video data is stored in the video data memory (V_MEM) 25a.
  • the data control unit 2a Based on the time information from the timer 24a, the data control unit 2a provides the system encoder 3a with audio data (A-PTS) and video data (VTS) added with a PTS (Presentation Time Stamp) as time information. — PTS).
  • the system encoder 3a is controlled by a control instruction from the host 1a.
  • the audio encoder (A-ENC) 31a encodes and encodes the audio data added with the PTS from the data control unit 2a.
  • the video encoder (V—ENC) 33a encodes and encodes the video data added with the PTS from the data control unit 2a.
  • the multiplexer (MPX) 32a multiplexes the data encoded by the audio encoder 31a and the video encoder 33a to generate a bit stream (BSD).
  • BSD bit stream
  • AV recording devices including MPEG encoders often cannot change the frame period of video data and audio data due to hardware limitations.
  • AV synchronization deviation a deviation of the audio data from the video data occurs when the pause is released thereafter
  • FIG. 16 is a diagram illustrating an example of the AV synchronization deviation when the pause and the pause release control are performed.
  • data capture control can be performed only on a frame basis, and even during pause, each frame period of video data and audio data (V 1 de o_f ram e_ time, audi o_ f rame_time) cannot be changed.
  • a pause request (indicated by “P” in the figure) is received from the host 1 a
  • the pause request is reflected in the data control unit 2 a at the time of a frame break of the video data 1.
  • T 1 6 1 The audio data is in the middle of the frame cycle at time t161, and the pause request is reflected in the next audio frame, so tp161 is generated as the difference between the video data and audio data at the time of pause. .
  • the frame period of the video data and the frame period of the audio data do not change as they are, and tp16, which is the difference between the video data and the audio data at the time of the pause, is generated and is not corrected.
  • the data controller 2a When a pause release request (indicated as “P—RL” in the figure) is received from the CPU 1a, the data controller 2a reflects the pause release request only when the input of video data n (VD n) is started. This is the timing of time t 1 62.
  • VD n video data n
  • tP1661 a deviation in AV synchronization occurs. No o
  • the difference tp 162 from the pause release time t 16 2 to the input start time of the audio input data n is due to the pause. Since it is generated as a difference between audio data and video data at the time of release, as a result, a deviation tp 163 of the AV synchronization occurs at the time of the pause release from the time t 16 1 and the time tp 16 2.
  • this tp166 may be accumulated for each pause request, and may be perceived as uncomfortable. Disclosure of the invention
  • An object of the present invention is that the frame lengths of video data and audio data are different, and An object of the present invention is to provide an AV synchronization processing apparatus and method which do not cause an AV synchronization delay in an AV recording apparatus in which the frame length of audio data cannot be changed from the initial time.
  • the present invention has been made in consideration of the above problems, and a first aspect of the present invention is to provide an audio Z-video synchronization that performs synchronization processing on video data and audio data each having a different predetermined frame length.
  • Storage means for storing a start time, a pause request time, and a pause release request time of each frame of the video data and the audio data measured by the timer means;
  • Control means for deciding whether to perform the delay or not to delay any of them.
  • the audio delay time which is the delay time of the audio data frame, is calculated based on the break of the video data frame
  • either the video data or the audio data is delayed in frame units after the pause release request, or the delay is not delayed. To decide.
  • a delay time (sound delay time) of audio data with respect to video data at the time of a pause request is obtained, and the video data during the pause is acquired.
  • the audio data deviation with respect to the video data is suppressed to less than the ⁇ ⁇ ⁇ audio data frame regardless of the pause release request. Since the playback timing of the audio data is adjusted, the AV synchronization deviation can be greatly suppressed.
  • a second aspect of the present invention is an audio / video recording apparatus that generates multiplexed data including video data and audio data having different predetermined frame lengths, and includes timer means,
  • Storage means for storing a start time, a pause request time, and a pause release request time of each frame of the video data and audio data measured by the timer means;
  • Synchronization control for synchronizing audio data after the pause release request on a frame basis based on the start time of each frame of the video data and audio data, the pause request time, and the pause release request time Means
  • Multiplexed data generating means for generating the multiplexed data by adding time information to the video data and the audio data synchronized by the synchronization control means.
  • a delay time (sound delay time) of audio data with respect to video data at the time of a pause request is obtained, and a difference between a frame of video data and a frame of audio data during the subsequent pause is acquired.
  • the playback timing of the audio data after the pause is released is controlled so that the deviation of the audio data from the video data is kept within one audio data frame even when the pause release request is received. Adjustment makes it possible to generate multiplexed data with significantly reduced AV synchronization deviation.
  • FIG. 1 is a diagram showing a system configuration of an AV recording apparatus as one embodiment of the present invention. is there.
  • FIG. 2 is a flowchart showing processing when the AV control unit 21 receives a START request from the host 1.
  • FIG. 3 is a timing chart for explaining a video PTS (V_PTS) and an audio PTS (A-PTS) generated according to the start of data input.
  • V_PTS video PTS
  • A-PTS audio PTS
  • FIG. 4 is a flowchart showing a process of adding an FTS when the data control unit 2 provides audio data to the system encoder 3.
  • FIG. 5 is a flowchart showing a process of adding a PTS when the data control unit 2 provides video data to the system encoder 3.
  • FIG. 6 is a flowchart showing a process performed by the AV control unit 2 # based on a pause request from the host 1.
  • FIG. 7 is a timing chart showing processing for a pause request.
  • FIG. 8 is a flow chart showing the processing after the pause request processing from the host (processing during the pause).
  • FIG. 9 is a diagram illustrating a method of measuring a frame shift time (f-count).
  • FIG. 10 is a flowchart illustrating a process performed by the AV control unit 21 when a pause release request is issued from the host 1. It is.
  • FIG. 11 is a timing chart illustrating a method of calculating the voice correction time (a-dif) during the measurement of the delay time during the pause.
  • FIG. 12 is a timing chart illustrating a method of calculating the audio correction time (a-diff) when the delay time during the pause is not being measured.
  • FIG. 13 is a diagram for explaining a process of eliminating the AV synchronization error by a process of delaying the resumption of the input of the video data by one frame.
  • FIG. 14 is a diagram for explaining a process of resolving the AV synchronization error by a process of delaying the resumption of the input of the audio data by ⁇ frame.
  • FIG. 5 is a diagram showing a system configuration of a conventional AV recording equipment.
  • FIG. 16 is a timing chart showing the pause and pause release processing of the conventional AV recording apparatus.
  • FIG. 1 shows an AV recording device which is an embodiment of the audio-video synchronization processing device according to the present invention.
  • the AV recording apparatus shown in FIG. 1 has the same system configuration as the conventional AV recording apparatus shown in FIG. 15, but has a special control in the AV control unit 21.
  • the AV control unit (AV-CTRL) 21 performs processing based on a START request from the host (HOST) 1, processing at a regular time, processing based on a pause request from the host 1, processing during a pause, in this order.
  • the processing based on the pause release request from the host 1 and the processing for eliminating the AV synchronization error caused by the pause and the pause release request will be described.
  • FIG. 2 is a flowchart showing processing when the AV control unit 21 receives a START request from the host 1.
  • the AV control unit 21 acquires time information from the timer 24 and stores it as STC-0 f f set in a memory (not shown).
  • the timer (TIMER) 24 is, for example, a timer that operates with a clock of 90 kHz.
  • FIG. 2 shows a processing flow of the ST ART request from the host in the data control unit 2.
  • the AV control unit 21 Waiting for an overnight frame break, and detecting a frame break in the video data (
  • ST21 obtains time information from the timer 24, and holds the time information as STC_offset (ST22).
  • FIG. 3 is a timing chart for explaining a video PTS (V-PTS) and an audio PTS (A_PTS) generated according to the start of data input.
  • the AV control unit 21 of the data control unit 2 upon receiving a START request from the host 1, the AV control unit 21 of the data control unit 2 starts inputting video data and audio data on the basis of a video frame. Then, a time t31 at the start is acquired from the timer 24, and is held as STC-0 f f set.
  • the current time is sequentially obtained from the timer 24 at the break of each frame of the video data and the audio data, and a value obtained by subtracting STC at the time of START-offset (t31) is output to the system encoder 3 as PTS.
  • a time t32 is acquired from the timer 24, and the system encoder 3 is notified of the PTS of the video data together with the video input data.
  • a time t33 is obtained from the timer 24, and the PTS of the audio data is notified to the system encoder 3 together with the audio data.
  • FIG. 4 is a flowchart showing a process of adding a PTS when the data control unit 2 provides audio data to the system encoder 3.
  • the above processing is performed for each voice input frame during the regular processing.
  • FIG. 5 is a flowchart showing a process of adding a PTS when the data control unit 2 supplies video data to the system encoder 3.
  • the AV control unit 21 detects a break in the frame of the video data (ST51)
  • the AV control unit 21 acquires and saves time information from the evening image 24 (ST52).
  • a video PTS is generated from the STC— ⁇ ffset stored at the time of START and the acquired time information (ST53).
  • the video encoder 33 of the system encoder 3 is notified of the information obtained by adding the PTS information to the video frame data (ST54). The above processing is performed for each video input frame during regular processing.
  • FIG. 6 is a flowchart showing processing performed by the AV control unit 21 based on a pause request from the host 1.
  • the time information that the AV control unit 21 acquires from the timer 24 when a pause request is received from the host 1 is set as p ause_STC_off set.
  • the AV control unit 2 Upon receiving a pause request from the host, the AV control unit 2] waits for a frame break in the video data, and detects a frame break in the video data (ST61). Get (ST 62). Further, it instructs the video controller 26 to stop inputting video data (S T63) Based on the time information from the timer 24, the measurement of the difference between the audio data and the video data is started (ST64).
  • the control waits for a break in the audio data frame.
  • a break in the audio frame is detected (ST65)
  • the measurement of the time lag between the audio data and the video data is completed based on the time information from the timer 24 (ST65).
  • ST66 the delay time between the audio data and the video data is stored as the audio delay time (a-de1ay) (ST 67).
  • the input instruction of the audio data is instructed (ST68), and the processing for the pause request from the host 1 is completed.
  • Fig. 7 is a timing chart showing the processing for the pause request shown in Fig. 6.
  • the AV control unit 21 upon receiving a pause request from the host 1, the AV control unit 21 stops inputting video data on the basis of the video data frame. At this time, the time t71 obtained from the timer 24 is stored as Pauses_STC_offfset. Then, from the time t71 when the video data input is temporarily stopped, when a break in the frame of the audio data is detected next, the time t72 is acquired from the timer 24.
  • time t72 and time t71 are stored as a—de1ay, and the input of voice data is temporarily stopped.
  • the frame shift time (f_count) which is the shift time between the frames of audio data and video data, is measured as described below.
  • FIG. 8 first, it is determined whether or not a pause is currently made (ST81). If the pause is being made, a pause between frames of audio data is waited. ST82), obtains and saves time information from the timer 24, and starts measuring a frame shift time between audio data and video data (ST83). Next, it waits for a frame break in the video data, and when a frame break in the video is detected (ST84), obtains and saves the time information from the timer 24, and stores the time lag between the audio data and the video data. The measurement ends (ST85).
  • the frame shift time (f_c0unt) is written from the start time of measuring the shift time between the audio data and the video data in ST83 and the end time of measuring the shift time between the audio data and the video data in ST85 (ST86). .
  • the above processing is repeated during the pause, and the measurement of the frame shift time (fc-unt) is continued.
  • the frame shift time (f-count) indicates a time lag between the latest audio data and the video data during the pause because the memory in the AV control unit 21 is overwritten.
  • the reason why f-count is constantly updated is that it is not possible to predict when a pause release request will be made, and it is necessary to prepare for the request.
  • FIG. 9 illustrates a method of measuring the frame shift time (fcunt) described based on the flowchart of FIG.
  • the AV control unit 21 Upon detecting a break in the audio data, the AV control unit 21 obtains the time information t91 from the timer 24 and starts measuring the time difference between the audio data and the video data.
  • the AV control unit 21 obtains the time information t92 from the timer 24, and measures the time lag between the audio data and the video data (t92-t91).
  • the time difference between the measured audio data and the video data is the frame time difference (fc-unt).
  • This control is repeatedly performed based on the audio data during the pause, and the latest frame shift time (fc0 unt) is always stored.
  • the latest value of the frame shift time (f ⁇ c0unt) is the difference (t96 ⁇ t95) between time t95 and time t96.
  • the AV control unit 2 based on the difference between audio data and video data measured during the pause request and during the pause.
  • the method 1 determines whether to delay the resumption of the input of audio data, the resumption of the input of video data, or neither of them, and a method of resolving the deviation of AV synchronization will be described below.
  • FIG. 10 is a flowchart showing processing performed by the AV control unit 21 when a pause release request is issued from the host 1.
  • a_diff in the flowchart of FIG. 0 represents an audio correction time which is a difference between audio data and video data at the time of pause and at the time of pause release.
  • tota 1—a ud i o_d e 1 ay in the flowchart of FIG. 10 is a cumulative sound capture time that is a variable that accumulates a shift of the sound data with respect to the video data. Initialized to 0.
  • the frame shift time (f ⁇ c0unt) is updated at the timing of the break of the video data frame. Therefore, on the time axis, the time from the break of the audio data frame to the break of the video data frame is “measurement of the time difference between audio data and video data” in the flowchart of FIG. are doing.
  • the time indicated by the horizontal arrow in Fig. 9 means that the time difference between the audio data and the video data is being measured, and the other time means that the time difference between the audio data and the video data is being measured. Means no.
  • the AV control unit 21 when receiving a pause release request from the host 1, the AV control unit 21 waits for a frame break of video data, and when detecting a frame break of video data (ST 101), updates the STC_offset. (ST 102). Thereafter, it is determined whether or not the delay time between the audio data and the video data is being measured (ST 103), and if the delay time between the audio data and the video data is being measured, based on equation (1) described later.
  • the audio correction time (a-diff) which is the time difference between audio data and video data during pause and pause release (ST) 04). During measurement Then, the voice correction time (a-diff) is obtained based on the following equation (2) (S105) «>
  • the details of the audio correction time (a-diff) will be described later. However, based on the audio delay time during pause a- de 1 ay and the frame shift time (f-count), correction is performed during pause processing during pause processing. It shows the deviation of audio data from the video data to be performed.
  • the audio correction time (a-diff) is a positive value, it means that the audio data is delayed with respect to the video data.
  • the audio correction time (a_diff) is negative, the audio correction time (a_diff) is Means that the audio data is advanced.
  • step ST104 the voice correction time (a-diff) obtained in step ST104 or ST105 is added to the accumulated voice correction time t0tal_audio_de1ay (ST106).
  • the accumulated voice correction time t o t a l_a u d i o_d e 1 a y which is the initial value 0 at the time of system startup is cumulatively added in step ST 106 for a plurality of pause processes while the system is operating.
  • the voice capture time (a-diff) is the difference between the voice data to be corrected during each pause process, while the cumulative voice correction time t 0 tal_a udi o_de 1 ay is the voice correction time ( a—diff) is the cumulative value, so this is the audio data correction value for the video data that should actually be corrected.
  • step ST107 onward how to control the deviation of AV synchronization based on the value of the cumulative audio correction time total—aud io—delay accumulated for each pause process during system operation. Is a process for determining whether or not the shift of the audio data with respect to the video data should be corrected, and determining whether to delay the audio data or the video data if it is to be corrected.
  • step ST] 07 when the cumulative voice capture time t 0 tal_a udi o_de 1 ay is negative, that is, when the voice data is advanced, the cumulative voice capture time After adding the time of one frame length of the video data to total—audio—delay (ST 108), perform the process of delaying the actual restart of the video data] frames.
  • the process of delaying the resumption of video data by one frame is realized by waiting for resumption of video data input until a frame break of video data is detected (ST109) 0
  • step ST107 when the accumulated audio correction time t0tal_audio_de1ay is not negative, that is, when the audio data is the same or delayed, the human power is restarted without delaying the video data overnight (ST 1 0), the process proceeds to step ST 1 1 1.
  • step ST 1 if the cumulative sound correction time t 0 tal_a udio-de 1 ay force is longer than 1 audio data frame (audio-frame e_time), the audio data Since it is necessary to delay the restart, go to step ST112 or later.
  • step ST 1 1 2 the time of one frame length of the audio data is subtracted from the accumulated audio correction time t 0 tal_a udi o_de 1 ay (ST 1 1 2), and then the actual restart of the audio data is performed by one frame. Perform processing to delay.
  • the process of delaying the restart of the audio data by one frame is realized by waiting for a manual restart of the audio data until a frame break of the audio data is detected (ST113).
  • FIG. 11 is a timing chart illustrating how to calculate the audio correction time (a-diff) when measuring the delay time during pause.
  • the audio data is transmitted from a frame break to a video data frame.
  • the voice correction time (a-diff) is calculated using the value of the frame shift time (f-c0unt) obtained after the pause release request because the processing was performed during the break.
  • step ST104 of FIG. 10 to calculate the audio correction time (a ⁇ diff) will be described with reference to FIG.
  • the AV control unit 2 Upon receiving the pause release request from the host #, the AV control unit 2 obtains the time t111 from the timer 24 in accordance with the video frame period, and updates the Pause_STC_offset saved at the time of the pause request. Reset ST C—offset as reference.
  • a-delay is the frame shift time between the audio data and the video data at the time of the pause, as described above, and is the data calculated and held at the time of the pause.
  • Audio-frame-time is the frame period of the audio data.
  • FIG. 12 is a timing chart illustrating a method for calculating the voice capture time (a-diff) when the measurement of the delay time during the pause is not being performed.
  • the voice capture time (a_diff) is calculated using the frame shift time (f-count) obtained before the pause release request.
  • step ST05 of FIG. 5 the procedure performed in step ST05 of FIG. 5 to calculate the voice correction time (a ⁇ diff) will be described with reference to FIG.
  • the AV control unit 21 When the AV control unit 21 receives the pause release request from the host 1, it acquires the time t121 from the timer 24 in synchronization with the video frame period, and stores the time t pause 21 when the pause request was made. Pause— STC— 0 ffset Reset ST C_offset based on.
  • a—de 1 a y is the pause audio delay time, which is the pause time of the audio data during pause and the video data as described above, and is the data calculated and held during pause.
  • Audio-frame-time is the frame period of the audio data.
  • video—frame—time is the frame period of the video data.
  • the speech correction time (a-diff) can be obtained by the following equation (2).
  • a- diff a-de 1 ay + f-c oun ta ud io-fr ame-time + vide o_f ram e_ time C 2)
  • FIG. 13 is a diagram for explaining a process of eliminating the AV synchronization error by a process of delaying the input restart of the video data by one frame.
  • the control for delaying the resumption of the input of the video data is based on the fact that the accumulated sound capturing time t 0 tal_a udi o_de 1 ay is negative as described above according to the pause release flowchart in FIG. 10 (ST 107). ), Corrects the AV synchronization deviation (ST108), and performs processing to delay the video data] frame until a frame break of the video data is found (ST109).
  • the AV control unit 2] when the AV control unit 2] receives a pause release request from the host 1, it waits for a frame break in the video data, and detects a frame break in the video data (time t1 31). Is calculated on the basis of the processing flow of (1), t0tal_audio_de1ay. Since this is negative, the input of video data is resumed after waiting for one video frame (time t 1 32).
  • FIG. 14 is a diagram for explaining a process of resolving the AV synchronization error by a process of delaying the resumption of the input of the audio data by one frame.
  • the control for delaying the restart of the input of the audio data is performed when the cumulative audio correction time t 0 tal_a udi o_d e 1 ay is one or more audio frames.
  • This is realized by a process (ST113) of correcting the AV synchronization deviation (St ⁇ 12) and delaying the restart of the audio data by one frame until a frame break of the audio data is found.
  • the AV control unit 21 when the AV control unit 21 receives a pause release request from the host 1, it waits for a frame break of video data, and when it detects a frame break of video data (time t 141), Since o_d e 1 ay exceeds one voice frame, input of voice data is restarted after waiting for one voice frame (time t 142). As is clear from steps ST 107 and ST 111 in FIG. 10, if total — au di o_d e 1 ay is positive and does not exceed one audio frame, any of audio data and video data input restarts Do not delay. In this case, the difference between the audio data and the video data caused by the pause processing at this time is accumulated in t0ta1—audio_de1ay.
  • the cumulative audio correction time (steps ST108 and ST312 in Fig. 10) t 0 ta 1— audi o_de 1 ay) does not become 0, so that the AV synchronization deviation is not completely eliminated.
  • the accumulated audio correction time (t0ta1—audio_de1ay) always falls within one audio data frame during the operation of the AV recording device. Therefore, the difference is not recognized by the viewer, and it is possible to sufficiently eliminate the AV synchronization deviation.
  • the present invention is applicable to an apparatus that records or reproduces audio data and video data in synchronization.

Abstract

ポーズ要求があると、映像データフレーム基準とした音声データのフレームの遅れ時間である音声遅れ時間を求める。ポーズ中には、映像データと音声データのフレーム開始時刻のずれであるフレームずれ時間を監視する。ポーズ解除要求があると、音声遅れ時間とフレームずれ時間に基づいて、当該ポーズ要求において補正すべき音声補正時間を算出する。そして、各ポーズ要求毎に累積された音声補正時間に基づいて、音声データが映像データに対して進んでいると判断した場合には、映像データを音声データに対して1フレーム分遅延させ、音声データが映像データに対して遅れていると判断した場合には、音声データを映像データに対して1フレーム分遅延させる。

Description

明 糸田 映像データと音声データの記録装置 技術分野
本発明は、 本発明は映像デ一タおよび音声デー夕の同期をとるための音声 映 像同期処理装置および音声 Z映像同期処理方法並びに音声 映像記録装置に関す る。 特に、 映像データおよび音声データの一時停止 (ポーズ) 時の AV (音声 Z 映像) 同期技術に関する。 背景技術
例えば、 MPEGのエンコーダの入力装置などの音声 Z映像同期処理装置 (A V記録装置) では、 映像データと音声データの入力信号のフレーム長 (フレーム 周期) が異なる場合が一般的である。 また、 音声データ及び映像データの取り込 み周期がそれぞれフレーム単位で行われる点に特徵がある。 以下、 このような従 来の A V記録装置の構成及び作用について説明する。
図 15は従来の A V記録装置のシステム構成図である。
このシステムは、 ホスト (HOST) 1 aから制御指示を受けるデータ制御部 2 a及びシステムエンコーダ 3 aから構成される。
データ制御部 2 aは、 ホスト 1 aからの制御指示を音声 Z映像制御部 (AV— CTRL) 2 l aが受け、 タイマ (T IMER) 24 aからの時間情報に基づき 、 音声制御部 22 a、 映像制御部 26 aに対する制御を行う。
なお、 以下、 音声 映像制御部を、 A V制御部と称する。
A V制御部 2】 aは、 音声制御部 (A— CTRL) 22 aに制御指示を出すこ とで、 音声データ (A— DATA) の入力制御を行う。 入力された音声データは 、 音声データメモリ (A— MEM) 23 aに格納される。 また、 A V制御部 2〗 aは、 映像制御部 (V_CTRL) 26 aに制御指示を 出すことで、 映像データ (V— DATA) の入力制御を行う。 入力された映像デ 一夕は、 映像データメモリ (V_MEM) 25 aに格納される。
データ制御部 2 aは、 タイマ 24 aからの時間情報に基づいて、 システムェン コーダ 3 aに対し、 時間情報としての PTS (Presentation Time Stamp)を付加 した音声データ (A— PTS) および映像データ (V— PTS) を提供する。 システムエンコーダ 3 aは、 ホスト 1 aからの制御指示により制御される。 音 声エンコーダ (A— ENC) 31 aは、 データ制御部 2 aからの PTSを付加し た音声デ一夕をェンコ一ドし、 符号化する。 映像エンコーダ (V— ENC) 33 aは、 データ制御部 2 aからの PTSを付加した映像データをエンコードし、 符 号化する。 マルチプレクサ (MPX) 32 aは、 音声エンコーダ 31 aと映像ェ ンコーダ 33 aにより符号化されたデータを多重化し、 ビッ トストリーム (BS D) を生成する。
しかしながら、 MPEGのエンコーダを含む AV記録装置では、 ハードウェア 上の制約から映像データと音声データのフレーム周期を変えられないことが多い 。 かかる場合に、 映像データのフレームを基準にポーズ処理を行うと、 その後に ポーズ解除を行つたときに、 映像データに対する音声データのずれが発生すると いう問題 (AV同期ずれ) がある。
この問題に対し、 適切な処置を行わない場合には同期のずれが蓄積され、 視聴 者に異和感となつて知覚されることとなる。
以下、 従来の問題点を図 1 6を用いて具体的に説明する。
図 1 6は、 ポーズおよびポーズ解除の制御を行ったときの AV同期ずれの例を 示す図である。
図】 5に示した従来の A V記録装置においては、 データの取り込み制御はフレ ーム単位でしか行うことができず、 またポーズ中も映像データと音声データの各 フレーム周期 (それぞれ、 V 1 d e o_f r a m e_ t i m e , a u d i o_ f r a m e _ t i m e ) を変えることができない。
図 1 6において、 ホスト 1 aからポーズ要求 (図中 「P」 と示す) を受けると 、 データ制御部 2 aにおいてポーズ要求が反映されるのは、 映像データ 1のフレ ームの切れ目の時刻である t 1 6 1である。 音声データは、 時刻 t 1 6 1ではフ レーム周期の途中であり、 次の音声フレームでポーズ要求が反映されるので、 ポ ーズ時の映像データと音声データの差分として t p 1 6 1が生ずる。
ポーズ中は、 映像データのフレーム周期及び音声データのフレーム周期はその まま変わらず、 ポーズ時の映像データと音声データの差分である t p 1 6 〗が生 じたまま補正されていない状態である。
C P U 1 aからポーズ解除要求 (図中 「P— R L」 と示す) を受けると、 デー 夕制御部 2 aにおいて、 ポーズ解除要求が反映されるのは、 映像データ n (V D n ) の入力開始である時刻 t 1 6 2のタイミングである。 ここで、 ポーズ解除時 に、 ポーズ時の映像データと音声データの差分である t P 1 6 1を考慮して映像 デー夕に対する音声デ一夕のタイミングを調整すれば、 A V同期のずれは生じな い o
しかしながら、 映像デ一夕と音声データのフレーム周期の差により、 ポーズ解 除の時刻である t 1 6 2から音声入力データ n (A D n ) の入力開始時刻までの 差分 t p 1 6 2が、 ポーズ解除時の音声データと映像データの差分として発生す るため、 結果として、 時刻 t 1 6 1 と時刻 t p 1 6 2からポーズ解除時に A V同 期のずれ t p 1 6 3が生じる。
特に、 映像データと音声データのフレーム周期が変えられない場合には、 この t p 1 6 3がポーズ要求毎に累積される可能性があるので、 違和感として知覚さ れることがある。 発明の開示
本発明の目的は、 映像データと音声データのフレーム長が異なり、 しかも映像 デ一夕と音声データのフレーム長を変えられない A V記録装置において、 A V同 期ずれを起こさない A V同期処理装置および方法を提供することにある。
本発明は、 上記課題を参酌してなされたものであり、 その第 1の観点は、 それ ぞれ異なる所定のフレーム長を持つ映像データおよび音声データに対して同期処 理を行う音声 Z映像同期処理装置であつて、
タイマ手段と、
前記タィマ手段により計時された前記映像データおよび音声デー夕の各フレー ムの開始時刻、 ポーズ要求の時刻、 およびポーズ解除要求の時刻を記憶する記憶 手段と、
前記映像データと音声データの各フレームの開始時刻、 前記ポーズ要求の時刻 、 および前記ポーズ解除要求の時刻に基づいて、 前記ポーズ解除要求後に映像デ —夕と音声データのいずれかをフレーム単位で遅延させるか、 またはいずれも遅 延させな t、かを決定する制御手段とを有する音声/映像同期処理装置である。 前記制御手段は、
ポーズ要求時に、 映像データのフレームの切れ目を基準として、 音声データの フレームの遅れ時間である音声遅れ時間を算出し、
前記ポーズ要求後に、 映像データの各フレームの開始時刻毎に、 前記映像デー 夕に対する音声デー夕のフレーム開始時刻の差分であるフレームずれ時間をモニ 夕し、
前記音声遅れ時間と、 前記ポーズ要求に対するポーズ解除要求時のフレームず れ時間とに基づ t、て音声補正時間を算出し、
各ポーズ要求毎に算出した音声補正時間を累積した累積音声補正時間に基づい て、 前記ポーズ解除要求後に映像データと音声データのいずれかをフレーム単位 で遅延させるか、 または 、ずれも遅延させな 、かを決定する。
本発明の第 1の観点によれば、 ポーズ要求があった時点の映像データに対する 音声データの遅れ時間 (音声遅れ時間) を取得し、 その後のポーズ中の映像デー 夕と音声データのフレームのずれ時間を常にモニタすることで、 いつポーズ解除 要求があつたとしても、 映像データに対する音声デ一タのずれを〗音声データフ レーム以下に抑制するように、 ポーズ解除後の音声データの再生タイミングを調 整するので、 A V同期ずれを大幅に抑制することができる。
本発明の第 2の観点は、 それぞれ異なる所定のフレーム長を持つ映像デー夕お よび音声デー夕を含む多重化データを生成する音声ノ映像記録装置であつて、 タイマ手段と、
前記タイマ手段により計時された前記映像データおよび音声データの各フレー ムの開始時刻、 ポーズ要求の時刻、 およびポーズ解除要求の時刻を記憶する記憶 手段と、
前記映像データと音声データの各フレームの開始時刻、 前記ポーズ要求の時刻 、 および前記ポーズ解除要求の時刻に基づいて、 前記ポーズ解除要求後の音声デ 一夕の同期処理をフレーム単位で行う同期制御手段と、
映像データ、 および前記同期制御手段により同期処理された音声データに対し 、 時間情報を付加して前記多重化データを生成する多重化データ生成手段と を有する。
本発明の第 2の観点によれば、 ポーズ要求があった時点の映像データに対する 音声データの遅れ時間 (音声遅れ時間) を取得し、 その後のポーズ中の映像デー 夕と音声データのフレームのずれ時間を常にモニタすることで、 いつポーズ解除 要求があつたとしても、 映像データに対する音声デー夕のずれを 1音声デー夕フ レーム以下に抑制するように、 ポーズ解除後の音声データの再生タイミングを調 整するので、 A V同期ずれが大幅に抑制された多重化データを生成することがで さる o 図面の簡単な説明
図 1は、 本発明の一実施形態としての A V記録装置のシステム構成を示す図で ある。
図 2は、 AV制御部 21がホスト 1から START要求を受けた場合の処理を 表すフローチヤ一トである。
図 3は、 データ入力開始に応じて生成される映像 PTS (V_PTS)および 音声 PTS (A— PTS) を説明するためのタイミングチヤ一トである。
図 4は、 デー夕制御部 2がシステムエンコーダ 3に音声データを提供する際に 、 FTSを付加する処理を示すフローチャートである。
図 5は、 データ制御部 2がシステムエンコーダ 3に映像デ一タを提供する際に 、 PTSを付加する処理を示すフローチャートである。
図 6は、 ホスト 1からのポーズ要求に基づいて AV制御部 2〗が行う処理を示 すフローチヤ一トである。
図 7は、 ポーズ要求に対する処理を示すタイミングチヤートである。
図 8は、 ホスト】からのポーズ要求処理後の処理 (ポーズ中の処理) を示すフ ローチャートである。
図 9は、 フレームずれ時間 (f— c ount) の測定方法を図解する図である 図 1 0は、 ホスト 1からポーズ解除要求があった時に、 A V制御部 21で行わ れる処理を示すフローチヤ一トである。
図 1 1は、 ポーズ中のずれ時間測定中の場合の音声補正時間 (a— d i f f) の算出方法を図解するタイミングチャートである。
図 1 2は、 ポーズ中のずれ時間測定中でない場合の音声補正時間 (a— d i f f ) の算出方法を図解するタイミングチャートである。
図 13は、 映像データの入力再開を 1フレーム遅らせる処理により、 AV同期 ずれを解消する処理を説明するための図である。
図 1 4は、 音声データの入力再開を〗フレーム遅らせる処理により、 AV同期 ずれを解消する処理を説明するための図である。 図】 5は、 従来の A V記録装匱のシステム構成を示す図である。
図 16は、 従来の AV記録装置のポーズ及びポーズ解除処理を示すタイミング チヤ一トである。 発明を実施するための最良の形態
以下、 本発明の好適な実施の形態について、 添付図面を参照して述べる。 図 1は、 本発明に係る音声 映像同期処理装置の一実施の形態である A V記録 装置である。 なお、 図 1に示す A V記録装置は、 図 15に示す従来の A V記録装 置と比較して、 システム構成は同一であるが、 AV制御部 21における制御に特 徵がある。
以下、 順を追って、 AV制御部 (AV— CTRL) 21における、 ホスト (H OST) 1からの START要求に基づく処理、 定常時における処理、 ホスト 1 からのポーズ要求に基づく処理、 ポーズ中における処理、 ホスト 1からのポーズ 解除要求に基づく処理、 そしてポーズ及びポーズ解除要求よりに生じる A V同期 ずれを解消する処理について説明する。
まず、 ホスト 1からの START要求に基づく、 A V制御部 21で行われる処 理について説明する。
図 2は、 AV制御部 21がホスト 1から START要求を受けた場合の処理を 表すフローチヤ一トである。
ここで、 A V制御部 21は、 ホスト 1から START要求を受けると、 タイマ 24から時間情報を取得し、 STC— 0 f f s e tとして図示しないメモリに格 納する。 なお、 タイマ (T I MER) 24は、 例えば、 90kHzのクロックで 動作するタイマである。
図 2にデータ制御部 2におけるホスト】からの S T A R T要求の処理フローを 示す。
先ず、 AV制御部 21は、 ホスト 1から START要求を受け取ると、 映像デ 一夕のフレームの切れ目を待ち、 映像データのフレームの切れ目を検出すると (
ST21) 、 タイマ 24から時間情報を取得し、 その時間情報を STC_o f f s e tとして保持する (ST22)。
次に、 映像制御部 (V_CTRL) 26に映像データの入力閧始指示を行い ( ST23)、 さらに音声制御部 (A— CTRL) 22に音声データの入力開始指 示を行い (ST 24)、 CPU 1からの START要求における処理が終了する 図 3は、 データ入力開始に応じて生成される映像 PTS (V— PTS) および 音声 PTS (A_PTS) を説明するためのタイミングチャートである。
図 3において、 ホスト 1から START要求を受けると、 データ制御部 2の A V制御部 21は、 映像のフレームを基準として、 映像データと音声データの入力 を開始する。 そして、 開始したときの時刻 t 31をタイマ 24から取得し、 ST C— 0 f f s e tとして保持する。
その後、 映像データおよび音声データそれぞれのフレームの切れ目において、 夕イマ 24から現在時刻を逐次取得し、 START時の STC— o f f s e t ( t 31 ) を引いた値を PTSとして、 システムエンコーダ 3に出力する。
例えば、 図 3においては、 映像データフレームの切れ目を検出すると、 タイマ 24から時刻 t 32を取得し、 システムエンコーダ 3には、 映像入力データとと もに映像デー夕の P T Sを通知する。 同様に音声データフレー厶の切れ目を検出 すると、 タイマ 24から時刻 t 33を取得し、 システムエンコーダ 3には、 音声 データとともに音声データの PTSを通知する。
次に、 ホスト 1からの START要求の処理後の定常時の処理について説明す る o
図 4は、 データ制御部 2がシステムエンコーダ 3に音声データを提供する際に 、 PTSを付加する処理を示すフローチャートである。
A V制御部 21は、 音声データのフレームの切れ目を検出すると (ST41 ) 、 タイマ 24から時間情報を取得して保存する (ST 42)。 そして、 STAR T時に保存した STC— 0 f f s e tと、 取得した時間情報から音声 PTSを生 成する (ST43)。 最後に、 システムエンコーダ 3の音声エンコーダ (A_E NO 31に、 音声フレームデータに PTS情報を付加した情報を通知する (S T44) o
以上の処理を定常処理時、 音声入力フレーム毎に行う。
図 5は、 データ制御部 2がシステムエンコーダ 3に映像データを握供する際に 、 PTSを付加する処理を示すフローチャートである。
AV制御部 21は、 映像データのフレームの切れ目を検出すると (ST51) 、 夕イマ 24から時間情報の取得して保存する (ST52) 。 そして、 STAR T時に保存した STC—◦ f f s e tと、 取得した時間情報から映像 PTSを生 成する (ST53)。 最後に、 システムエンコーダ 3の映像エンコーダ 33に、 映像フレームデータに PTS情報を付加した情報を通知する (ST 54) 以上の処理を定常処理時、 映像入力フレーム毎に行う。
図 4および図 5に示したフローチヤ一卜に従って、 各データの入力開始が行わ れ、 P T Sを付加した A V同期のとれた音声データと映像デ一タがデータ制御部 2からシステムエンコーダ 3に提供される。
次に、 ホスト】からのポーズ要求に対する処理について説明する。
図 6は、 ホスト 1からのポーズ要求に基づいて AV制御部 21が行う処理を示 すフローチャートである。 なお、 ホスト 1からポーズ要求を受けたとき、 AV制 御部 21がタイマ 24から取得する時間情報を、 p a u s e_STC_o f f s e tとしている。
AV制御部 2】は、 ホスト】からポーズ要求を受け取ると、 映像データのフレ ームの切れ目を待ち、 映像データのフレームの切れ目を検出すると (ST61) 、 タイマ 24から時間情報として p a u s e_STC_o f f s e tを取得する (ST 62)。 さらに、 映像制御部 26に映像データの入力停止指示を行い (S T63) 、 タイマ 24からの時間情報に基づいて、 音声データと映像データのず れ時間測定を開始する (ST 64)。
次に、 音声データのフレームの切れ目を待ち、 音声フレームの切れ目を検出す ると (ST65) 、 タイマ 24からの時間情報に基づいて、 音声データと映像デ 一夕のずれ時間測定を終了する (ST66)。 同時に、 音声データと映像データ のずれ時間を音声遅れ時間 (a— d e 1 a y) として保存する (ST 67)。 さ らに、 音声データの入力停止指示を行って (ST 68)、 ホスト 1からのポーズ 要求における処理が終了する。
図 7は、 図 6に示したポーズ要求に対する処理を示すタイミングチヤートであ る o
図 7では、 ホスト 1からポーズ要求を受けると、 AV制御部 21は、 映像デー 夕のフレームを基準として、 映像データの入力を停止する。 このときのタイマ 2 4から取得した時刻 t 7 1を P a u s e_STC_o f f s e tとして保存する 。 そして、 映像データ入力を一時停止した時刻 t 71から、 次に音声データのフ レームの切れ目を検出した時、 タイマ 24から時刻 t 72を取得する。
さらに、 時刻 t 72と時刻 t 71の差分を a— d e 1 a yとして保存し、 音声 データの入力一時停止を行う。
次に、 ホスト 1からのポーズ要求処理後 (図 7において時刻 t 72以降) の処 理 (ポーズ中の処理) について、 図 8に示すフローチャートに関連付けて説明す る。
ポーズ中は、 以下に述べるように、 音声データと映像データのフレームのずれ 時間であるフレームずれ時間 (f_c ount) の測定を行う。
図 8において、 まず現在ポーズ中であるか否かの判定を行い (ST81)、 ポ —ズ中であれば、 音声デ一夕のフレームの切れ目を待ち、 音声のフレームの切れ 目を検出すると (ST82) 、 タイマ 24から時間情報を取得して保存し、 音声 データと映像データのフレームずれ時間測定を開始する (ST 83)。 次に映像データのフレームの切れ目を待ち、 映像のフレームの切れ目を検出す ると (ST84)、 タイマ 24から時間情報を取得して保存し、 音声データと映 像デー夕のフレ一ムずれ時間測定を終了する ( S T 85 )。
そして、 ST83における音声データと映像データのずれ時間測定開始時刻と 、 ST 85における音声データと映像データのずれ時間測定終了時刻から、 フレ ームずれ時間 (f _c 0 u n t ) を書き込む (ST 86)。
以上の処理をポーズ中に緣り返し行い、 フレームずれ時間 (f— c 0 u n t) の測定を続ける。 フレームずれ時間 (f— c o un t) は、 A V制御部 21内の メモリに上書きされていくため、 ポーズ中の最新の音声データと映像データのず れ時間を示している。 ここで、 常に f— c ountを更新するのは、 いつポーズ 解除要求があるか予測できず、 その要求に備える必要があるためである。
図 9は、 図 8のフローチヤ一トをもとに説明したフレームずれ時間 (f— c 0 unt) の測定方法を、 図示したものである。
音声データの切れ目を検出すると、 AV制御部 21は、 タイマ 24から時間情 報 t 91を取得し、 音声データと映像データのずれ時間測定を開始する。
次に映像データの切れ目を検出すると、 AV制御部 21は、 タイマ 24から時 間情報 t 92を取得し、 音声データと映像データのずれ時間測定 (t 92— t 9 1) を行う。 ここで、 測定された音声データと映像データのずれ時間が、 フレー 厶ずれ時間 (f— c 0 u n t ) になる。
この制御をポーズ中、 音声データを基準に繰り返し行い、 常に最新のフレーム ずれ時間 (f— c 0 un t) を保存する。 図 9においては、 フレームずれ時間 ( f— c 0 u n t) の最新値は、 時刻 t 95と時刻 t 96の差分 (t 96— t 95 ) である。
次に、 ホスト 1からのポーズ解除要求に対する処理について説明する。
すなわち、 ホスト 1からポーズ解除要求があった時に、 ポーズ要求があった時 とポーズ中に測定した音声データと映像データのずれに基づいて、 A V制御部 2 1が、 音声データの入力再開を遅らせるか、 映像データの入力再開を遅らせるか 、 またはどちらも遅らせないかを決定し、 AV同期のずれを解消する方法を以下 に述べる。
図 1 0は、 ホスト 1からポーズ解除要求があった時に、 A V制御部 21で行わ れる処理を示すフローチヤ一トである。
なお、 図】 0のフローチヤ一トの a_d i f f は、 ポーズ時とポーズ解除時に おける音声データと映像デ一夕のずれである音声補正時間を表している。 また、 図 1 0のフローチャートにおける t o t a 1— a ud i o_d e 1 a yは、 映像 デ一タに対する音声データのずれを蓄積していく変数である累積音声捕正時間で あり、 システム初期化時において 0に初期化される。
また、 既に述べたとおり、 フレームずれ時間 (f— c 0 u n t) は映像データ フレームの切れ目のタイミングで更新される。 従って、 時間軸において、 音声デ 一夕のフレームの切れ目から映像データのフレームの切れ目までの時間が、 図】 0のフローチャートにおいて、 「音声データと映像データのずれ時間測定中」 で あることを意味している。
例えば、 図 9の横向きの矢印で示した時間が、 音声データと映像データのずれ 時間測定中であることを意味しており、 それ以外の時間は音声データと映像デー 夕のずれ時間測定中ではないことを意味している。
図 1 0において、 AV制御部 21は、 ホスト 1からポーズ解除要求を受け取る と、 映像データのフレームの切れ目を待ち、 映像データのフレームの切れ目を検 出すると (ST 1 01) 、 STC_o f f s e tの更新を行う (ST 1 02)。 その後、 音声データと映像データのずれ時間測定中であるか否かの判定を行い (ST 1 03) 、 音声データと映像データのずれ時間測定中であれば、 後述の式 (1) に基づいて、 ポーズ時とポーズ解除時の音声データと映像データのずれ時 間である音声補正時間 (a— d i f f) を求める (ST】 04)。 測定中でなけ れば、 後述の式 (2) に基づいて、 音声補正時間 (a— d i f f) を求める (S 1 05) «>
音声補正時間 (a— d i f f) の詳細については後述するが、 ポーズ時音声遅 れ時間 a— d e 1 a yとフレームずれ時間 (f— c o u n t ) に基づいて、 その ポーズ処理において、 ポーズ解除時において補正されるべき映像データに対する 音声データのずれを表している。 音声補正時間 (a— d i f f)が正の値の時は 、 映像データに対して音声データが遅れていることを意味し、 音声補正時間 (a _d i f f )が負の時は、 映像データに対して音声データが進んでいることを意 味している。
次に、 ステップ ST 1 04またはステップ ST 1 05で求められた音声補正時 間 (a— d i f f ) を、 累積音声補正時間 t 0 t a l_a u d i o_d e 1 a y に加算する (ST 1 06) 。
従って、 システム起動時に初期値 0である累積音声補正時間 t o t a l_a u d i o_d e 1 a yは、 システム動作中の間、 複数のポーズ処理に対して、 逐次 ステップ ST 1 06において累積加算される。 音声捕正時間 (a— d i f f ) は 各ポーズ処理時に補正されるべき音声データのずれ分であるのに対し、 累積音声 補正時間 t 0 t a l_a u d i o_d e 1 a yは、 各回の音声補正時間 (a— d i f f) を加算した累積値となるため、 これが実際に捕正されるべき映像データ に対する音声データ捕正値となる。
ステップ ST 1 07以降は、 システム動作中ポーズ処理毎に累積される累積音 声補正時間 t o t a l— aud i o— d e l a yの値に基づいて、 A V同期のず れをどのように制御するか、 具体的には映像デ一タに対する音声デー夕のずれを 補正すべきか否か、 及び、 補正する場合は音声データと映像データのどちらを遅 らせるかについて決定する処理である。
まず、 ステップ ST】 07において、 累積音声捕正時間 t 0 t a l_a u d i o_d e 1 ayが負、 つまり音声データが進んでいる時には、 累積音声捕正時間 t o t a l— a u d i o— d e l a yに映像データの 1フレーム長の時間を加算 した (ST 1 08) うえで、 実際に映像データの再開を】フレーム遅らせる処理 を行う。 映像データの再開を 1フレーム遅らせる処理は、 映像データのフレーム 切れ目を検出するまで映像データの入力再開を待つことにより実現される (ST 1 0 9) 0
映像フレームの切れ目を検出すると、 映像データの入力を再開する (ST 1 1
0) O
ステップ ST 1 07において、 累積音声補正時間 t 0 t a l_a u d i o_d e 1 a yが負でない場合、 つまり音声データが同じか遅れている時には、 映像デ 一夕は遅らせることなくそのまま人力を再開し (ST】 1 0) 、 ステップ ST 1 1 1へ進む。
ステップ ST 1 】 1においては、 正である累積音声補正時間 t 0 t a l_a u d i o― d e 1 a y力 1音声テ一タフレーム (a u d i o― f r a m e_ t ι m e) 以上である場合には、 音声データの再開を遅らせる必要があるため、 ステツ プ ST 1 1 2以降に進む。
累積音声補正時間 t 0 t a l_a u d i o_d e 1 a yが、 正ではあるが】音 声データフレーム未満の場合には、 音声デ一タを遅らせることなく再開させる ( ST 1 1 ) 0
ステップ ST 1 1 2では、 累積音声補正時間 t 0 t a l_a u d i o_d e 1 a yに音声データの 1フレーム長の時間を減算した (ST 1 1 2) うえで、 実際 に音声データの再開を 1フレーム遅らせる処理を行う。 この音声データの再開を 1フレーム遅らせる処理は、 音声データのフレーム切れ目を検出するまで音声デ 一夕の人力再開を待つことにより実現される (ST 1 1 3) 。
音声フレームの切れ目を検出すると、 映像データの人力を再開する (ST 1 1 4) o
次に、 図 1 0のステップ ST 1 04及び ST 1 05における音声補正時間 (a _d i f f ) の算出方法について、 図 1 1及び図 1 2に関連付けて説明する。 図 1 1は、 ポーズ中のずれ時間測定中の場合の音声補正時間 (a— d i f f) の算出方法を図解するタイミングチヤートである。
図 1 1に示すタイミングチヤートは、 f _c o u n t測定中の場合、 すなわち 、 ホスト】から A V制御部 2】に対するポーズ解除要求 (P_RL)が、 音声デ 一夕のフレームの切れ目から映像データのフレームの切れ目の間に行われたため 、 そのポーズ解除要求後に求められるフレームずれ時間 (f— c 0 u n t)の値 を用いて、 音声補正時間 (a— d i f f) を算出する場合を示す。
以下、 図 1 1に従って、 音声補正時間 (a— d i f f) を算出するために、 図 10のステップ ST 1 04で行われる手順について説明する。
A V制御部 2】は、 ホスト〗からポーズ解除要求を受け取ると、 映像のフレー ム周期に合わせて、 タイマ 24から時刻 t 1 1 1を取得し、 ポーズ要求時に保存 していた P a u s e_STC_o f f s e tを基準として ST C— o f f s e t を再設定する。
また、 時刻 t 1 1 1のタイミングにおいて、 フレームずれ時間 (f— c oun t ) の測定も行われる。
ここで、 a— d e l ayは、 すでに述べたとおり、 ポーズ時における音声デー 夕と映像データのフレームずれ時間であり、 ポーズ時に算出して保持していたデ 一夕である。 また、 a u d i o— f r ame— t imeは、 音声データのフレー ム周期である。
図 1 1から明らかなように、 下式 (1) により音声捕正時間 (a— d i f f) を求めることができる。 a一 d i f f = a― d e 1 ay + f— c o un t— a ud ι o_f r a m e_ t ime
- ( 1 ) 図 1 2は、 ポーズ中のずれ時間測定中でない場合の音声捕正時間 (a— d i f f ) の算出方法を図解するタイミングチャートである。
図 1 2に示すフローチヤ一トは、 f _c 0 u n t測定中の場合、 すなわち、 ホ スト 1から A V制御部 21に対するポーズ解除要求が、 映像データのフレームの 切れ目から音声データのフレームの切れ目の間に行われたため、 そのポーズ解除 要求前に求めたフレームずれ時間 (f— c o un t) を用いて、 音声捕正時間 ( a_d i f f ) を算出する場合である。
以下、 図 1 2に従って、 音声補正時間 (a— d i f f) を算出するために、 図 】 0のステップ ST】 05で行われる手順について説明する。
AV制御部 21が、 ホスト 1からポーズ解除要求を受け取ると、 映像のフレー 厶周期に合わせて、 タイマ 24から時刻 t 1 21を取得し、 ポーズ要求時に保存 していた P a u s e— STC— 0 f f s e tを基準として ST C_ o f f s e t を再設定する。
ここで、 a— d e 1 a yは、 すでに述べたとおり、 ポーズ時の音声データと映 像デー夕ずれ時間であるポーズ時音声遅れ時間であり、 ポーズ時に算出し保持し ていたデータである。
また、 a u d i o— f r ame— t imeは、 音声データのフレーム周期であ る o
v i d e o— f r ame— t imeは、 映像データのフレーム周期である。 図 1 2から明らかなように、 下式 (2) により音声補正時間 (a— d i f f ) を求めることができる。 a― d i f f = a― d e 1 a y + f― c oun t-a ud i o— f r ame— t i m e + v i d e o_f r a m e_ t i m e C 2 ) 次に、 ポーズ解除時における A V同期のずれを解消する処理について、 図 13 及び図】 4を用いて具体的に説明する。
図 1 3は、 映像データの入力再開を 1フレーム遅らせる処理により、 AV同期 ずれを解消する処理を説明するための図である。
映像データの入力再開を遅らせる制御は、 図 1 0のポーズ解除時のフローチヤ 一卜に従ってすでに述べたとおり、 累積音声捕正時間 t 0 t a l_a u d i o_ d e 1 a yが負であるため (ST 1 07)、 A V同期ずれの補正を行い (ST 1 08)、 映像データのフレームの切れ目を見つけるまで、 映像データの再開を】 フレーム遅らせる処理を行う (ST 1 09) ことにより実現される。
図 13において、 AV制御部 2】がホスト 1からのポーズ解除要求を受け取る と、 映像データのフレームの切れ目を待ち、 映像データのフレームの切れ目を検 出すると (時刻 t 1 31)、 図】 0の処理フローに基づき累積音声補正時間 t 0 t a l_a u d i o_d e 1 a yを算出する。 これが負であるため、 1映像フレ —ム待ってから映像データの入力を再関する (時刻 t 1 32) 。
図 1 4は、 音声データの入力再開を 1フレーム遅らせる処理により、 AV同期 ずれを解消する処理を説明するための図である。
音声データの入力再開を遅らせる制御は、 図 1 0のポーズ解除時のフローチヤ 一トを参照して述べたとおり、 累積音声補正時間 t 0 t a l_a u d i o_d e 1 a yが 1音声フレーム以上の場合に、 A V同期ずれの補正を行い (S t〗 1 2 ) , 音声データのフレームの切れ目を見つけるまで、 音声データの再開を 1フレ —厶遅らせる処理を行う処理 (ST 1 13) によって実現される。
図 14において、 AV制御部 21が、 ホスト 1からのポーズ解除要求を受け取 ると、 映像データのフレームの切れ目を待ち、 映像データのフレームの切れ目を 検出すると (時刻 t 141) 、 t o t a l一 aud i o_d e 1 a yが 1音声フ レームを超えているため、 1音声フレーム待ってから音声データの入力を再開す る (時刻 t 1 42 )。 図 1 0のステップ ST 107及び ST 1 1 1から明らかなように、 t o t a l — au d i o_d e 1 a yが正であり 1音声フレームを超えていない場合には、 音声データノ映像データの入力再開のいずれも遅らせない。 この場合には、 この 時ポーズ処理で生じた音声データと映像データのずれは、 t 0 t a 1— a u d i o_d e 1 a yに蓄積されていくことになる。
もっとも、 音声データ/映像データの入力再開のいずれかを遅らせて AV同期 ずれの解消が行われた場合にも、 図 1 0のステップ ST 1 08及び3 1 1 2の 処理によって累積音声補正時間 (t 0 t a 1— a u d i o_d e 1 a y ) は 0に ならないため、 完全に AV同期ずれが解消されることはない。
しかしながら、 本発明に係る AV記録装置によれば、 当該 A V記録装置が動作 中において、 累積音声補正時間 (t 0 t a 1— a u d i o_d e 1 a y)が常に 1音声デー夕フレーム以内に収まることになるため、 その差が視聴者に認識され ることはなく、 十分に A V同期ずれを解消することが可能となる。 産業上の利用可能性
本発明は、 音声データと映像データを同期させて記録または再生する装置に適 用可能である。

Claims

請求の範囲
1 . それぞれ異なる所定のフレーム長を持つ映像データおよび音声デー夕に 対して同期処理を行う音声 映像同期処理装置であつて、
タイマ手段と、
前記タィマ手段により計時された前記映像データおよび音声デー夕の各フレー ムの開始時刻、 ポーズ要求の時刻、 およびポーズ解除要求の時刻を記憶する記憶 手段と、
前記映像データと音声データの各フレームの開始時刻、 前記ポーズ要求の時刻 、 および前記ポーズ解除要求の時刻に基づいて、 前記ポーズ解除要求後に映像デ 一夕と音声デ一タの 、ずれかをフレーム単位で遅延させるか、 またはいずれも遅 延させな t、かを決定する制御手段と
を有する音声/映像同期処理装置。
2 . 前記制御手段は、
ポーズ要求時に、 映像データのフレームの切れ目を基準として、 音声デ 夕の フレームの遅れ時間である音声遅れ時間を算出し、
前記ポーズ要求後に、 映像データの各フレームの開始時刻毎に、 前記映像デー タに対する音声データのフレ ^"ム開始時刻の差分であるフレ一ムずれ時間をモニ 夕し、
前記音声遅れ時間と、 前記ポーズ要求に対するポーズ解除要求時のフレームず れ時間とに基づ L、て音声補正時間を算出し、
各ポーズ要求毎に算出した音声補正時間を累積した累積音声補正時間に基づい て、 前記ポーズ解除要求後に映像データと音声データのいずれかをフレ一ム単位 で遅延させるか、 または L、ずれも遅延させな t、かを決定する
請求項 1記載の音声 映像同期処理装置。
3 . 前記制御手段は、
前記累積音声補正時間に基づいて、 音声データが映像データに対して進んでい ると判断した場合、 前記ポーズ解除要求後に前記映像データを前記音声データに 対して】フレーム分遅延させる
請求項 2記載の音声/映像同期処理装置。
4 . 前記制御手段は、
前記累積音声補正時間に基づいて、 音声データが映像データに対して 1フレー ム分以上遅れていると判断した場合、 前記ポーズ解除要求後に前記音声データを 前記映像デ一夕に対して〗フレーム分遅延させる
請求項 2記載の音声/映像同期処理装置。
5 . それぞれ異なる所定のフレーム長を持つ映像データおよび音声デ一タに 対して同期処理を行う音声 Z映像同期処理方法であつて、
ポーズ要求時に、 映像データのフレームの切れ目を基準として、 音声データの フレームの遅れ時間である音声遅れ時間を算出するステップと、
前記ポーズ要求後に、 映像データの各フレームの開始時刻毎に、 前記映像デー 夕に対する音声デー夕のフレ一ム開始時刻の差分であるフレームずれ時間をモニ 夕するステップと、
ポーズ解除要求時に、 前記音声遅れ時間と前記フレ一ムずれ時間とに基づ 、て 音声補正時間を算出するステップと、
前記音声補正時間を累積した累積音声補正時間に基づいて、 前記ポーズ解除要 求後に映像データと音声データのいずれかをフレーム単位で遅延させるか、 また はいずれも遅延させないかを決定するステップと
を有する音声 Z映像同期処理方法。
6 . 前記累積音声補正時間に基づいて、 音声データが映像データに対して進 んでいると判断した場合、 前記ポーズ解除要求後に前記映像データを前記音声デ 一夕に対して 1フレーム分遅延させる
請求項 5に記載の音声 Z映像同期処理方法。
7 . 前記累積音声補正時間に基づいて、 音声データが映像データに対して 1 フレーム分以上遅れていると判断した場合、 前記ポーズ解除要求後に前記音声デ 一タを前記映像データに対して】フレーム分遅延させる
請求項 5に記載の音声 映像同期処理方法。
8 . それぞれ異なる所定のフレー厶長を持つ映像デー夕および音声デー夕を 含む多重化データを生成する音声 映像記録装置であつて、
タイマ手段と、
前記タイマ手段により計時された前記映像データおよび音声データの各フレー ムの開始時刻、 ポーズ要求の時刻、 およびポーズ解除要求の時刻を記憶する記憶 手段と、
前記映像データと音声データの各フレームの開始時刻、 前記ポーズ要求の時刻 、 および前記ポーズ解除要求の時刻に基づいて、 前記ポーズ解除要求後の音声デ 一夕の同期処理をフレーム単位で行う同期制御手段と、
映像デ一タ、 および前記同期制御手段により同期処理された音声データに対し 、 時間情報を付加して前記多重化データを生成する多重化デ—タ生成手段と を有する音声 z映像記録装置。
PCT/JP2004/008053 2003-06-12 2004-06-03 映像データと音声データの記録装置 WO2004112391A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP04735991A EP1633138B1 (en) 2003-06-12 2004-06-03 Device for recording video data and audio data
US10/559,419 US7738772B2 (en) 2003-06-12 2004-06-03 Apparatus and method for synchronizing video data and audio data having different predetermined frame lengths

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003168019A JP4305065B2 (ja) 2003-06-12 2003-06-12 Av同期処理装置および方法ならびにav記録装置
JP2003-168019 2003-06-12

Publications (1)

Publication Number Publication Date
WO2004112391A1 true WO2004112391A1 (ja) 2004-12-23

Family

ID=33549324

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/008053 WO2004112391A1 (ja) 2003-06-12 2004-06-03 映像データと音声データの記録装置

Country Status (6)

Country Link
US (1) US7738772B2 (ja)
EP (1) EP1633138B1 (ja)
JP (1) JP4305065B2 (ja)
KR (1) KR101006593B1 (ja)
CN (1) CN100521766C (ja)
WO (1) WO2004112391A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110418183A (zh) * 2019-08-05 2019-11-05 北京字节跳动网络技术有限公司 音视频同步方法、装置、电子设备及可读介质

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100762608B1 (ko) * 2004-04-06 2007-10-01 마쯔시다덴기산교 가부시키가이샤 음성 재생 장치, 음성 재생 방법 및 프로그램
JP4560788B2 (ja) * 2005-05-26 2010-10-13 カシオ計算機株式会社 カメラ装置及び録画装置並びにプログラム
JP4665719B2 (ja) * 2005-10-28 2011-04-06 オムロン株式会社 フィルタパラメータ設定装置、フィルタリング処理装置、フィルタパラメータ設定方法、作業時間計測システム、制御プログラム、および、記録媒体
TWI314017B (en) * 2006-07-12 2009-08-21 Quanta Comp Inc System and method for synchronizing video frames and audio frames
US20080260350A1 (en) * 2007-04-18 2008-10-23 Cooper J Carl Audio Video Synchronization Stimulus and Measurement
US8542749B2 (en) * 2008-12-17 2013-09-24 Telefonaktiebolaget Lm Ericsson (Publ) Method and apparatus for measuring audiovisual synchronisation
US8989280B2 (en) * 2011-06-30 2015-03-24 Cable Television Laboratories, Inc. Frame identification
US8593948B1 (en) * 2012-12-04 2013-11-26 Hitachi, Ltd. Network device and method of controlling network device
US8913189B1 (en) * 2013-03-08 2014-12-16 Amazon Technologies, Inc. Audio and video processing associated with visual events
JP6358113B2 (ja) 2015-01-30 2018-07-18 株式会社Jvcケンウッド 記録装置及び多重化方法
CN105141869B (zh) * 2015-08-19 2018-12-18 中山市天启智能科技有限公司 基于Android系统的分段录像数据处理方法
US10522190B2 (en) 2017-05-09 2019-12-31 Echo360, Inc. Methods and apparatus for ordered serial synchronization of multimedia streams upon sensor changes
CN109040818B (zh) * 2017-06-12 2021-04-27 武汉斗鱼网络科技有限公司 直播时的音视频同步方法、存储介质、电子设备及系统
CN108965971B (zh) * 2018-07-27 2021-05-14 北京数码视讯科技股份有限公司 多路音频同步控制方法、控制装置及电子设备
CN110225279B (zh) * 2019-07-15 2022-08-16 北京小糖科技有限责任公司 一种移动终端的视频制作系统和视频制作方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5502573A (en) 1992-12-18 1996-03-26 Sony Corporation Apparatus for reproducing and decoding multiplexed data from a record medium with means for controlling data decoding as a function of synchronization errors
JP2001266549A (ja) * 2000-03-17 2001-09-28 Sony Corp 情報再生装置および画像表示制御方法、並びに記録媒体
EP1161095A2 (en) 2000-05-31 2001-12-05 Fujitsu Limited Apparatus for reproduction of video and audio with suspension function

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4703355A (en) * 1985-09-16 1987-10-27 Cooper J Carl Audio to video timing equalizer method and apparatus
US5675511A (en) * 1995-12-21 1997-10-07 Intel Corporation Apparatus and method for event tagging for multiple audio, video, and data streams
US6148135A (en) * 1996-01-29 2000-11-14 Mitsubishi Denki Kabushiki Kaisha Video and audio reproducing device and video decoding device
US6181383B1 (en) * 1996-05-29 2001-01-30 Sarnoff Corporation Method and apparatus for preserving synchronization of audio and video presentation when splicing transport streams
JP3698376B2 (ja) * 1996-08-19 2005-09-21 松下電器産業株式会社 同期再生装置
US6381398B1 (en) * 1996-11-13 2002-04-30 Matsushita Electric Industrial Co., Ltd. Apparatus and method of generating bit stream for information recording disc storage which enables seamless reproduction of a plurality of pieces of image information, and recording medium on which program applied to the generating apparatus is recorded
US6262777B1 (en) * 1996-11-15 2001-07-17 Futuretel, Inc. Method and apparatus for synchronizing edited audiovisual files
US6262776B1 (en) * 1996-12-13 2001-07-17 Microsoft Corporation System and method for maintaining synchronization between audio and video
JP3094999B2 (ja) * 1998-10-15 2000-10-03 日本電気株式会社 オーディオ・ビデオ同期再生装置
US6583821B1 (en) * 1999-07-16 2003-06-24 Thomson Licensing S.A. Synchronizing apparatus for a compressed audio/video signal receiver
JP2003199045A (ja) * 2001-12-26 2003-07-11 Victor Co Of Japan Ltd 情報記録信号の生成方法、情報信号の再生方法、情報信号の伝送方法、情報記録信号生成装置、情報信号再生装置、情報信号伝送装置、情報信号記録媒体、及び情報信号伝送用プログラム
US6850284B2 (en) * 2002-08-27 2005-02-01 Motorola, Inc. Method and apparatus for decoding audio and video information

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5502573A (en) 1992-12-18 1996-03-26 Sony Corporation Apparatus for reproducing and decoding multiplexed data from a record medium with means for controlling data decoding as a function of synchronization errors
JP2001266549A (ja) * 2000-03-17 2001-09-28 Sony Corp 情報再生装置および画像表示制御方法、並びに記録媒体
EP1161095A2 (en) 2000-05-31 2001-12-05 Fujitsu Limited Apparatus for reproduction of video and audio with suspension function
JP2001346147A (ja) * 2000-05-31 2001-12-14 Fujitsu Ltd 映像・音声再生装置及び映像・音声再生方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1633138A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110418183A (zh) * 2019-08-05 2019-11-05 北京字节跳动网络技术有限公司 音视频同步方法、装置、电子设备及可读介质

Also Published As

Publication number Publication date
KR101006593B1 (ko) 2011-01-07
JP4305065B2 (ja) 2009-07-29
EP1633138A1 (en) 2006-03-08
CN1802851A (zh) 2006-07-12
EP1633138A4 (en) 2010-11-10
US7738772B2 (en) 2010-06-15
CN100521766C (zh) 2009-07-29
US20060140280A1 (en) 2006-06-29
JP2005006095A (ja) 2005-01-06
KR20060010829A (ko) 2006-02-02
EP1633138B1 (en) 2012-08-08

Similar Documents

Publication Publication Date Title
WO2004112391A1 (ja) 映像データと音声データの記録装置
JP3698376B2 (ja) 同期再生装置
JP4852094B2 (ja) 再生装置、携帯電話機、及び再生方法
RU2483470C2 (ru) Способ и устройство для обработки видео- и аудиоданных, принимаемых в системе декодирования
US8526501B2 (en) Decoder and decoding method based on video and audio time information
JPH09205618A (ja) 動画像音声伸張再生装置および動画像音声同期制御器
JPH11355263A (ja) データ復号装置及びデータ復号方法
JP5024000B2 (ja) 記録再生装置及びタイムコード復元方法
JP3100308B2 (ja) 画像及び音声情報の再生システム
JP3350365B2 (ja) 映像同期信号補正装置
JP2000308065A (ja) 動画伝送装置
JPH10210483A (ja) 動画像再生装置及びその方法
JP2006229484A (ja) 画像処理方法およびその装置
WO2006043768A1 (en) Image processor and operating method thereof
JPH11225332A (ja) 画像復号方法及び画像復号装置
JP3165661B2 (ja) 音声同期再生装置
JP2003339023A (ja) 動画再生装置
JP2001078195A (ja) システムエンコード装置
JP4894251B2 (ja) 音声切替方法及び音声切替装置
JPH11261968A (ja) 外部入力機能を有する画像圧縮記録装置
JPH1042254A (ja) 動画像データ再生方式
WO2005122578A1 (ja) 映像受信装置
JP2005101818A (ja) 復号再生装置、復号再生用プログラムおよび復号再生方法
JP2007110412A (ja) ストリームデータ処理装置,ストリームデータ処理方法
JPH1093934A (ja) 音声信号エンコードシステム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004735991

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020057022680

Country of ref document: KR

ENP Entry into the national phase

Ref document number: 2006140280

Country of ref document: US

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 10559419

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 20048160768

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 1020057022680

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2004735991

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10559419

Country of ref document: US