WO1998025413A1 - Optical disc for high resolution and three-dimensional image recording, optical disc reproducing device, and optical disc recording device - Google Patents

Optical disc for high resolution and three-dimensional image recording, optical disc reproducing device, and optical disc recording device Download PDF

Info

Publication number
WO1998025413A1
WO1998025413A1 PCT/JP1997/004429 JP9704429W WO9825413A1 WO 1998025413 A1 WO1998025413 A1 WO 1998025413A1 JP 9704429 W JP9704429 W JP 9704429W WO 9825413 A1 WO9825413 A1 WO 9825413A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
video
optical disc
unit
recorded
Prior art date
Application number
PCT/JP1997/004429
Other languages
English (en)
French (fr)
Inventor
Mitsuaki Oshima
Hiromu Kitaura
Hideki Fukuda
Hideshi Ishihara
Toshiyuki Kawara
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from PCT/JP1997/000615 external-priority patent/WO1997032437A1/ja
Priority to US09/319,476 priority Critical patent/US6573819B1/en
Priority to DE69717139T priority patent/DE69717139T2/de
Priority to CA002273891A priority patent/CA2273891C/en
Priority to CA002340314A priority patent/CA2340314C/en
Priority to EP97946090A priority patent/EP0944269B1/en
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Publication of WO1998025413A1 publication Critical patent/WO1998025413A1/ja
Priority to US10/342,826 priority patent/US7317868B2/en
Priority to US11/928,530 priority patent/US8467456B2/en
Priority to US11/928,246 priority patent/US8467455B2/en
Priority to US12/683,677 priority patent/US8441519B2/en
Priority to US12/683,701 priority patent/US8442112B2/en
Priority to US13/080,858 priority patent/US8654861B2/en
Priority to US13/080,784 priority patent/US20110181699A1/en
Priority to US13/080,811 priority patent/US20110181700A1/en
Priority to US13/080,750 priority patent/US20110181697A1/en
Priority to US13/080,760 priority patent/US20110181698A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/00007Time or data compression or expansion
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10009Improvement or modification of read or write signals
    • G11B20/10222Improvement or modification of read or write signals clock-related aspects, e.g. phase or frequency adjustment or bit synchronisation
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/12Formatting, e.g. arrangement of data block or words on the record carriers
    • G11B20/1217Formatting, e.g. arrangement of data block or words on the record carriers on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/14Digital recording or reproducing using self-clocking codes
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/005Reproducing at a different information rate from the information rate of recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42646Internal components of the client ; Characteristics thereof for reading from or writing on a non-volatile solid state storage medium, e.g. DVD, CD-ROM
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4305Synchronising client clock from received content stream, e.g. locking decoder clock with encoder clock, extraction of the PCR packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4392Processing of audio elementary streams involving audio buffer management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • H04N9/8045Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/10537Audio or video recording
    • G11B2020/10546Audio or video recording specifically adapted for audio data
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/1062Data buffering arrangements, e.g. recording or playback buffers
    • G11B2020/10675Data buffering arrangements, e.g. recording or playback buffers aspects of buffer control
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/1062Data buffering arrangements, e.g. recording or playback buffers
    • G11B2020/10675Data buffering arrangements, e.g. recording or playback buffers aspects of buffer control
    • G11B2020/1074Data buffering arrangements, e.g. recording or playback buffers aspects of buffer control involving a specific threshold value
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/1062Data buffering arrangements, e.g. recording or playback buffers
    • G11B2020/10805Data buffering arrangements, e.g. recording or playback buffers involving specific measures to prevent a buffer overflow
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B2020/10935Digital recording or reproducing wherein a time constraint must be met
    • G11B2020/10953Concurrent recording or playback of different streams or files
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/12Formatting, e.g. arrangement of data block or words on the record carriers
    • G11B2020/1264Formatting, e.g. arrangement of data block or words on the record carriers wherein the formatting concerns a specific kind of data
    • G11B2020/1288Formatting by padding empty spaces with dummy data, e.g. writing zeroes or random data when de-icing optical discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2562DVDs [digital versatile discs]; Digital video discs; MMCDs; HDCDs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/46Receiver circuitry for the reception of television signals according to analogue transmission standards for receiving on more than one standard at will
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/775Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/012Conversion between an interlaced and a progressive signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/0122Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal the input and the output signals having different aspect ratios
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • H04N9/877Regeneration of colour television signals by assembling picture element blocks in an intermediate memory

Definitions

  • the present invention relates to an optical disk on which a stereoscopic image and a high-quality image are recorded, and a recording / reproducing apparatus for the optical disk.
  • an optical disk and a playback device that record a stereoscopic moving image have been known.
  • the optical disc 201 has the right eye screen in even field areas 204, 204a and 204b, and the left eye screen has odd field areas 203, 203. a, 203 b are recorded alternately.
  • this optical disc 201 is reproduced by the existing optical disc reproducing apparatus 205 as shown in FIG. 11, a right eye image and a left eye image alternately appear on the TV 206 every 1/60 second. . With the naked eye, you can see only a double image of the right and left eyes.
  • a stereoscopic image can be seen with the stereoscopic glasses 207, which switch between the shirts for the right and left eyes every 60 minutes and 1 second.
  • the right-eye video and the left-eye video are alternately encoded for each field in each in-one race signal in 1 GOP of the MPEG signal.
  • a first object of the present invention is to provide a three-dimensional and high-quality optical disk and a reproduction system having compatibility.
  • the new stereoscopic optical disc and high-resolution disc of the present invention are output in monaural vision, that is, 2D or normal resolution, in a reproducing device such as an existing DVD, and are reproduced in stereo vision, that is, in a new reproducing device using the present invention.
  • a stereoscopic image or a high-resolution video is output.
  • the conventional synchronization method starts decoding when the decoding conditions for each compressed video signal are met, and compensates for any loss of synchronization during playback or synchronizes including audio. There was a problem that I could not do it.
  • the second object of the present invention is to provide a reproducing apparatus for synchronously reproducing a plurality of compressed video signals or a plurality of compressed audio signals, including a correction for a case where synchronization is lost during reproduction.
  • the purpose is. Disclosure of the invention
  • the optical disk of the present invention first inputs two moving images at a frame rate of 30 frames per second on the left and right, and collects one or more GOPs of images of multiple frames of image data of one eye or field components of progressive images.
  • a data unit is created, and an image leave block is provided so that one of the image data units is recorded on the optical disk track for one or more revolutions, and the image data unit on the left and right is an image leave block.
  • And are recorded so as to be arranged alternately, and information on the video identifier of a stereoscopic image or a high-quality video is recorded.
  • this optical disc is played back by a 2D normal playback optical disc playback apparatus, a normal 2D moving picture is played back.
  • the playback device of the present invention which supports a stereoscopic image and a high quality video, includes means for playing back image identifier information from an optical disc, means for playing back a 2D image based on this information in a conventional manner, It is provided with means for reproducing high-quality video images and means for outputting stereoscopic images and high-quality video.
  • the playback device of the present invention includes a reference time signal generation unit that generates a reference time signal, a compressed video stream expanded, and controls a playback time of the expanded video signal according to a difference between the reference time signal and the video playback time information. It has a plurality of video decompression / reproduction means having the function of performing
  • Another playback device of the present invention has a function of generating a reference time signal, expanding a compressed video stream, and controlling a playback time of the expanded video signal according to a difference between the reference time signal and the video playback time information.
  • a plurality of video decompression / reproduction means having the same, and the reference time signals of the plural video decompression / reproduction means are corrected to approximately the same time using the same information.
  • another reproduction device of the present invention includes a reference time signal generating means for generating a reference time signal, an audio signal expanded based on a difference between the reference time signal and audio reproduction time information, and a compressed audio stream expanded. And a plurality of audio decompression / reproduction means having a function of controlling the reproduction time.
  • Still another reproduction apparatus of the present invention controls the reproduction time by changing the frequency of a clip in which the audio decompression / reproduction means performs the decompression reproduction operation.
  • FIG. 1 is a block diagram showing a recording apparatus according to an embodiment of the present invention.
  • FIG. 2 is a time chart illustrating a relationship between an input signal and a recording signal according to an embodiment of the present invention.
  • FIG. 3 is a top view of the optical disc showing an arrangement of an in-line live block on the optical disc according to the embodiment of the present invention.
  • FIG. 4 is a diagram showing stereoscopic video arrangement information according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating a stereoscopic video playback device according to an embodiment of the present invention.
  • FIG. 6 is a time chart illustrating a relationship between a recorded signal and a video output signal in the playback device according to the embodiment of the present invention.
  • FIG. 7 is a block diagram showing another type of MPEG decoder of the reproducing apparatus according to the embodiment of the present invention.
  • FIG. 8 is a time chart illustrating a relationship between a recording signal and an output signal during 2D playback of the playback apparatus according to the embodiment of the present invention.
  • FIG. 9 is a block diagram showing a 2D-type playback device according to one embodiment of the present invention.
  • FIG. 10 is a top view showing a data arrangement of an optical disc on which a stereoscopic video is recorded according to one conventional embodiment.
  • FIG. 11 is a block diagram of a playback apparatus for playing back an optical disc on which stereoscopic video is recorded according to one embodiment of the related art.
  • FIG. 12 is a time chart showing a relationship between a recording signal reproduced from the stereoscopic video type optical disc according to the conventional embodiment and a video output.
  • FIG. 13 is a time chart showing the relationship between the virtual stereoscopic video identifier and the R and L outputs according to the embodiment of the present invention.
  • FIG. 14 is a reproduction sequence diagram showing a difference in access of the f pointer between the normal video reproduction mode and the stereoscopic video reproduction mode according to the embodiment of the present invention.
  • FIG. 15 is a flowchart (part 1) of the procedure for changing the pointer access procedure when the stereoscopic video signal according to the embodiment of the present invention is reproduced and when the stereoscopic video signal is not reproduced.
  • FIG. 16 is a flowchart (part 2) in which the procedure of accessing the pointer when the stereoscopic video signal is reproduced and when the stereoscopic video signal is not reproduced is changed according to the embodiment of the present invention.
  • FIG. 17 is a diagram showing a stereoscopic video in the stereoscopic video reproducing apparatus according to the embodiment of the present invention. It is a flowchart figure which changes an output when it does not match.
  • FIG. 18 is a diagram showing a state in which a stereoscopic video identifier is included in the stereoscopic video logical arrangement table according to one embodiment of the present invention.
  • FIG. 19 is a flowchart illustrating a procedure for specifying the attribute of the stereoscopic video of each cap, cell, and in-leave block from the stereoscopic video identifier of the stereoscopic video logical arrangement table according to the embodiment of the present invention. It is.
  • FIG. 20 is a block diagram of the playback device according to the embodiment of the present invention in the interlace video signal output mode.
  • FIG. 21 is a block diagram of the playback device of one embodiment of the present invention in the progressive video signal output mode.
  • FIG. 22 is a block diagram of the recording apparatus according to the embodiment of the present invention in a progressive * image signal input mode.
  • FIG. 23 is a principle diagram of the multi-angle video division multiplex recording system according to the embodiment of the present invention.
  • FIG. 24 is a block diagram of the playback device of one embodiment of the present invention in the stereoscopic video signal playback mode.
  • FIG. 25 is a block diagram of the quadruple-speed playback device according to the embodiment of the present invention in the stereoscopic progressive video signal playback mode.
  • FIG. 26 is a block diagram of the playback device according to the embodiment of the present invention when a multi-stream progressive video is played back.
  • FIG. 27 is a diagram showing the data structure of the entire optical disc according to one embodiment of the present invention.
  • FIG. 28 is a diagram showing the internal structure of the volume information file in FIG. 27 according to one embodiment of the present invention.
  • FIG. 29 is a flowchart showing a detailed procedure of the reproduction process of the program chain group by the system control unit M1-9 according to one embodiment of the present invention.
  • FIG. 30 shows the AV synchronization related to the AV synchronization control 12-10 of the embodiment of the present invention. It is a block diagram which shows the partial structure performed.
  • FIG. 31 is a timing chart of a data stream according to an embodiment of the present invention, which is reproduced and output through a decoder buffer and a decoding process.
  • FIG. 32 is a diagram illustrating a method of reducing in-one-race interference by using ⁇ N ⁇ FF of a filter when obtaining an interlaced signal according to an embodiment of the present invention.
  • FIG. 33 is a diagram illustrating the principle of an entrapment system sharing one motion detection vector according to an embodiment of the present invention.
  • FIG. 34 is a diagram illustrating a method of adjusting timing when reproducing from a DVD disc according to an embodiment of the present invention.
  • FIG. 35 is a time chart showing the reproduction of interleaved blocks at the time of video stream switching according to one embodiment of the present invention.
  • FIG. 36 is a principle diagram of recording two progressive video signals according to an embodiment of the present invention by dividing the video signals into in-leaved blocks.
  • FIG. 37 is a flowchart for skipping the first dummy field of VOB according to one embodiment of the present invention.
  • FIG. 38 is a flowchart of STC switching during seamless connection according to an embodiment of the present invention.
  • FIG. 39 is a block diagram of a data recovery processing unit according to an embodiment of the present invention.
  • FIG. 40 is a diagram showing the principle of separating a scope (wide) image in the horizontal direction and recording it in an in-leaved block according to an embodiment of the present invention.
  • FIG. 41 is a principle diagram of synthesizing a scope image from an optical disc on which a scope (wide) image is separated and recorded according to an embodiment of the present invention and performing 3-2 conversion.
  • FIG. 42 is a configuration diagram of a system stream and a video stream of an optical disc according to an embodiment of the present invention.
  • FIG. 43 is a flowchart at the time of seamless connection according to an embodiment of the present invention.
  • FIG. 4 shows the separation of the horizontal and vertical interpolation information according to the embodiment of the present invention.
  • FIG. 6 is a diagram illustrating a method of recording data in a live block.
  • FIG. 45 is a timing chart with respect to the data amount of the buffer at the time of reproducing the progressive, stereoscopic, and wide signals according to the embodiment of the present invention.
  • FIG. 46 is a configuration diagram of a horizontal filter and a vertical filter according to an embodiment of the present invention.
  • FIG. 47 is a block diagram in the case where a motion vector signal and color information are shared in the reproducing apparatus according to one embodiment of the present invention.
  • FIG. 48 is a principle diagram of performing motion detection using a motion detection vector of a progressive image in the MPEG encoder of one embodiment of the present invention.
  • FIG. 49 is a signal format of an image identifier according to an embodiment of the present invention.
  • FIG. 50 shows the contents of the identifiers of the vertical fill and the horizontal fill according to the embodiment of the present invention.
  • FIG. 51 shows the principle of divided recording of a 15050 interlace signal according to an embodiment of the present invention.
  • FIG. 52 is a signal arrangement diagram for outputting a progressive signal, an NTSC signal, and an HDTV signal according to an embodiment of the present invention.
  • FIG. 53 shows a progressive reproduction method for reproducing an in-leaved block while referring to a video presentation time stamp according to an embodiment of the present invention.
  • FIG. 54 is an arrangement diagram of the HDTV sub-signal and the NTSC signal of the simulcast system according to one embodiment of the present invention.
  • FIG. 55 is a block diagram of a reproducing apparatus for a simultaneous cast HDTVZN TSC shared disk according to an embodiment of the present invention.
  • FIG. 56 is a flowchart for controlling two buffer units according to an embodiment of the present invention.
  • FIG. 57 is a flowchart of AV synchronization between the first decoder and the second decoder according to one embodiment of the present invention.
  • FIG. 58 is a diagram showing the principle of the MADM method of dividing horizontally into two according to an embodiment of the present invention. It is.
  • FIG. 59 is a diagram showing the overall processing of the horizontal filter circuit according to one embodiment of the present invention.
  • (B) It is a figure which shows the process of each line of the horizontal filter circuit of one Embodiment of this invention.
  • FIG. 60 is a block diagram for horizontally dividing a scope-size image into two and recording M A D M according to an embodiment of the present invention.
  • FIG. 61 is a principle diagram of a private stream multiplexing method (vertical division) according to an embodiment of the present invention.
  • FIG. 62 is a principle diagram of a private stream multiplexing method (horizontal division) according to an embodiment of the present invention.
  • FIG. 63 is a signal format of a private stream multiplexing system according to an embodiment of the present invention.
  • FIG. 64 is a block diagram of an optical disc reproducing apparatus according to an embodiment of the present invention.
  • FIG. 65 is a configuration diagram of a video decoder according to an embodiment of the present invention.
  • FIG. 66 shows a data structure on an optical disc according to an embodiment of the present invention.
  • FIG. 67 is a timing chart of video reproduction according to an embodiment of the present invention.
  • FIG. 68 is a block diagram of an optical disc reproducing apparatus according to an embodiment of the present invention.
  • FIG. 69 is a configuration diagram of an audio decoder according to an embodiment of the present invention.
  • FIG. 70 shows a data structure on an optical disc according to an embodiment of the present invention.
  • FIG. 71 is a timing chart of audio and video reproduction according to an embodiment of the present invention.
  • FIG. 72 shows an optical disk reproducing apparatus according to an embodiment of the present invention.
  • FIG. 73 is a configuration diagram of a video decoder according to an embodiment of the present invention.
  • FIG. 74 is a timing chart of video reproduction according to an embodiment of the present invention.
  • FIG. 75 is a block diagram of an optical disc reproducing apparatus according to an embodiment of the present invention.
  • FIG. 76 is a configuration diagram of a video decoder according to an embodiment of the present invention.
  • FIG. 77 is a configuration diagram of a video decoder according to an embodiment of the present invention.
  • FIG. 78 is a configuration diagram of a video decoder according to an embodiment of the present invention.
  • FIG. 79 is a block diagram of an optical disc reproducing apparatus according to an embodiment of the present invention.
  • FIG. 80 is a configuration diagram of an audio decoder according to an embodiment of the present invention.
  • FIG. 81 shows a data structure on an optical disc according to an embodiment of the present invention.
  • FIG. 82 is a timing chart of audio and video reproduction according to an embodiment of the present invention.
  • FIG. 83 is a timing chart of audio reproduction and operating frequency according to an embodiment of the present invention.
  • FIG. 84 is a timing chart of audio reproduction and operating frequency according to an embodiment of the present invention.
  • FIG. 85 is an IP structure diagram of an MDAM stream according to an embodiment of the present invention.
  • FIG. 86 shows a method for preventing a sub video signal from being output by a conventional reproducing apparatus according to an embodiment of the present invention.
  • FIG. 87 is a simulation calculation result showing a buffer required for synchronous reproduction according to an embodiment of the present invention.
  • FIG. 88 is a layout diagram of a continuous block section and an evening block section according to an embodiment of the present invention.
  • FIG. 89 is a layout diagram of an indoor unit according to an embodiment of the present invention.
  • FIG. 90 is a block diagram when a plurality of (2) screens are simultaneously displayed according to an embodiment of the present invention.
  • Fig. 91 shows that the high-resolution video signal in the first embodiment of the present invention is horizontally separated-two streams are obtained, recorded on a disc, and the two streams are synthesized again. (Luminance signal).
  • FIG. 92 shows that the high-resolution video signal according to Embodiment 1 of the present invention is horizontally separated, two streams are obtained, recorded on a disc, and the two streams are synthesized again to obtain a high-resolution signal ( FIG.
  • FIG. 93 is a flowchart showing compatibility when the MADM disc according to Embodiment 1 of the present invention is played back by a conventional playback apparatus.
  • FIG. 94 is a flowchart of the operation in the case where the MADM system disc according to Embodiment 1 of the present invention is reproduced by the MADM system reproducing device.
  • FIG. 95 is a diagram illustrating (a) an access procedure using the first playback information of the MADM system disc according to the first embodiment of the present invention when the conventional playback apparatus plays the disc.
  • FIG. 6 is a diagram illustrating an access procedure using the second reproduction information when the MADM system disc according to the first embodiment of the present invention is reproduced by the MADM system reproducing device.
  • FIG. 96 is a block diagram of a playback device that combines two streams according to Embodiment 1 of the present invention.
  • FIG. 97 is a block diagram in which two streams divided in frame units according to Embodiment 1 of the present invention are reproduced and synthesized on a time axis.
  • FIG. 98 is a block diagram of a recording device and a reproducing device that separate a progressive video signal into two streams according to Embodiment 1 of the present invention and combine the two streams again with a progressive video.
  • the first embodiment as an application using the MADM method of the present invention, first, a method of recording and reproducing a stereoscopic image and a high-quality image is described in the first half, and a method of realizing a high-quality image is described in a second half.
  • Embodiments 2 to 8 describe a specific method of synchronizing during reproduction of the MADM method.
  • divisional recording is performed using two screens of the right eye and the left eye or two screens divided in the horizontal direction. These two screens are field images starting from odd lines and are called OddFirst signals.
  • OddFirst signals When progressive video is divided into two screens in the vertical direction and recorded, these two screens become a field signal starting from an odd line and a field signal starting from an even line, and they are ⁇ dd First signal and Even F signal respectively. Called the irst signal.
  • the recording unit of interleaved image information of 1 GOP or more is called an interleaved block, but is also called a frame group. This method is called multi-angle video division multiplexing (MADM).
  • MADM multi-angle video division multiplexing
  • FIG. 1 is a block diagram of a recording device 2 for an MADM optical disk according to the present invention.
  • the progressive and stereoscopic signals can be recorded.
  • the right-eye signal of the stereoscopic image is called R-TV signal
  • the left-eye signal is called L-TV signal.
  • R-TV signal and L-TV signal are MPEG encoder.
  • 3a and 3b the signal is compressed into an MPEG signal, and an R-MPEG signal and an L-MPEG signal as shown in (2) of Fig. 2 are obtained. As shown in FIG.
  • these signals are converted by the in-leave circuit 4 into R-frames 6 and L-
  • the L-frames 7 of the MPEG signal are interleaved so that the L-frame groups 8 in which the number of frames of 1 GOP or more are collected are alternately arranged.
  • This recording unit is called an in-leave leave block, but is also called a frame group in the text.
  • These frames of R frame group 6 and L frame group 8 are the same so that the right eye signal and left eye signal are synchronized during playback. There are the same number of frames in time.
  • This is also called an image data unit, but this data unit is recorded from 0.4 seconds to 1 second.
  • the innermost circumference is 1440 rpm, that is, 24 Hz.
  • the in-leave block is recorded over one or more dozen rotations of the disk.
  • the address information is output from the address circuit 13
  • the progressive stereoscopic image arrangement information is output from the progressive / stereoscopic image arrangement information output unit 10, and is recorded on the optical disk by the recording circuit 9.
  • the progressive-novel stereoscopic image arrangement information includes an identifier indicating whether or not a progressive or stereoscopic image exists on the optical disc, or the progressive Z-stereoscopic image arrangement table 14 of FIG.
  • the TEXTDT file 83 describes the angle numbers and cell numbers where R and L stereoscopic video and progressive signals are arranged for each VTS.
  • the playback device correctly outputs the progressive video and the stereoscopic video as the progressive output and the R and L outputs. If a normal video of different content is output to R and L by mistake, it causes discomfort because the video is not related to the right and left eyes of the user.
  • the progressive stereoscopic video arrangement information or the progressive stereoscopic video identifier has an effect of preventing output of such an unpleasant video. The detailed usage will be described later in the description of the reproducing apparatus.
  • a progressive signal such as 525P is also separated by a separation unit 38 into a sum component and a difference component to create two in-lace signals, which are encoded by the two MPEG decoders 3a and 3b. It can be recorded in multiple angles.
  • a VPTS synchronized with the APTS of the audio signal is added to the IMP EG signal and the second MPEG signal by the VP TS adding unit 81. Details will be described later.
  • a normal 2D playback device does not read the three-dimensional (PG) logical layout file 53, but does not hinder 3D playback.
  • FIG. DVD video information consists of three logical layers. There are three layers: a video title set (VTS) layer that indicates the title of a work such as a movie, a part-of-video title layer (PVT) that indicates a chapter in a title, and a cell layer (Cell) that indicates a stream in a chapter.
  • VTS video title set
  • PVT part-of-video title layer
  • Cell cell layer
  • 1 10 is all three-dimensional, and 001 means that a three-dimensional part and a non-three-dimensional part are mixed.
  • title 1 of the VTS layer means "001", that is, 3D and normal video are mixed, and title 2 is "1 10", that is, everything is three-dimensional, and title 3 is "000", that is, three-dimensional. Indicates no. From the above, no three-dimensional information is required for the layers below titles 2 and 3.
  • step 5 la the stereoscopic (PG) video logical arrangement table 52 is read from the first recording area of the optical disk.
  • step 51 ⁇ the display that the title n is all three-dimensional is displayed on the menu screen.
  • the additional recording of the three-dimensional (PG) video logical arrangement table 52 in FIG. 18 has an effect that it is possible to determine whether all video titles, captions, and cells are three-dimensional, PG, PG, or not three-dimensional.
  • R frame group 6 is recorded over a plurality of R tracks 11, 11, and 11b. It is actually recorded over multiple tracks of 5 to 24 tracks.
  • L frame group 8 consists of L tracks 12, 12a, 12 In b, the next R frame group 6a is recorded in R tracks 11c, lid, and 11e.
  • n is an integer of 1 or more
  • R frames 6 and L frames 8 having nG ⁇ P frames are recorded alternately on the optical disc.
  • Figure 85 shows this state in detail.
  • one unit is defined by dividing an intra-frame coded frame called I (intra) frame and an inter-frame coded frame called B or P into I (intra) frames as discontinuous points.
  • the left and right streams are recorded on the disk alternately as an in-leave unit.
  • Fig. 6 (1) shows the overall view and (2) shows a partial view.
  • the output signal of the optical regeneration circuit 24 in FIG. 5 is as shown in (2) in FIG.
  • This signal is separated into an R signal and an L signal by the SW unit 25, and the time axes of the R signal and the L signal are matched to the original time by the first buffer circuit 23a and the second buffer circuit 23b, respectively.
  • the input signals of the R and L-MPEG decoders as shown in (5) are obtained.
  • This signal is processed by the MPEG decoders 16a and 16b in FIG. 5, respectively, so that the R and L output signals synchronized with each other are sent to the video output unit 31 as shown in (6) and (7) in FIG. .
  • the audio signal is expanded and output in the audio output unit 32. In this way, the two outputs R and L are output at the same time, so a 60 fps (frame Z second) signal is output from the R output unit 29 and the L output unit 30 to the R and L 2 output stereoscopic TV. If you send, you will get a video of fritz-carles.
  • the stereoscopic glasses control signal generator 33a detects the stereoscopic control signal for switching between the left and right shirts of the stereoscopic megaphone from the frame synchronizing signal of the decoded signal and the RL mixing circuit 28, and outputs it to the outside to provide stereoscopic glasses. Is obtained.
  • n images for example, two images are output to the TV as one NTSC signal screen in which two images are synthesized by using the line memory 28c of the n-screen synthesis unit 28b in FIG. 90. Therefore, you can watch the video at two angles on the DVD even on a general TV.
  • the conventional 1x speed playback device only one angle out of a plurality of multi-angles was displayed at the same time, so it was inconvenient. Since this is displayed on the screen, there is an effect that there is no need to switch between multiple angles.
  • the line memory 28c of the n-screen combining section 28b is used, a two-screen display 28f of screens A and B of the same size can be obtained.
  • n screens can be obtained with a simple configuration to enter the IC.
  • a two-screen display 28g having a different size is obtained according to the zoom signal of the zoom signal generator 28e.
  • the user can freely change the size using the remote control, so that the TV image can be viewed in the optimal size. effective.
  • the IMP EG signal and the second MP EG signal are combined into one MP EG signal by the combining unit 36 to generate a double clock.
  • the circuit can be simplified by generating a double clock from the unit 37, multiplying the data by the double clock type MPEG decoder 16c, decompressing it, and outputting the R and L video signals in the separation unit 38.
  • it is only necessary to add a 16 MB SD-RAM to the memory 39, so that there is an effect that the cost rise is small.
  • step 241a the synchronization of both the first decoder and the second decoder is set to OFF.
  • step 24 lb synchronize the vertical and horizontal as described above.
  • step 241c the audio APTS is read, and this APTS value is set as the initial value of the STC of the first decoder and the STC of the second decoder.
  • step 241f it is checked in step 241f whether the first VPTS reaches the initial value, and if OK, decoding is started in step 24lg.
  • step 24lh the processing delay time of the first decoder is calculated, and the VPTS of the decode output is adjusted so that the APTS and the VPTS are synchronized. Since the second decoder performs the same processing, the images of the first decoder and the second decoder are synchronized.
  • the two decoded outputs of the IMP EG signal and the second MP EG signal are synchronized within one line. Thereafter, synchronization is performed on a dot-by-dot basis by the video signal synchronizing unit 36a in the synthesizing unit 36, and the original progressive image can be obtained even when the sum operation is performed.
  • APT S84 is read by audio decoder 16c.
  • a buffer amount control 23c is provided as shown in FIG. 5 to control the amounts of the two buffers.
  • the maximum interleave value in the NAVI information of each disk is read in step 240a, and the maximum value 1 ILB of one main interleave block is set. Normally, it is 5 1 2 sectors, that is, about 1 MB. If the limit is set to 1 MB or less, set the value.
  • step 24 Ob when the simultaneous playback of the main and sub-inverted leave blocks comes together, if the buffer amount of the first buffer 23a is 1 ILB or less in step 24 Oc, the playback is performed from the main interleave block, Issue an instruction to transfer data to the first buffer 23a.
  • steps 240b and 24 Oc when the first buffer amount exceeds 1 ILB, the transfer is stopped at step 24 Od.
  • the buffer 23a becomes 1 I L ⁇ ;
  • the maximum value 1ILB-Sub of the sub-inverted leave block is set in step 24Of.
  • Simultaneous playback at step 24 Og read at step 20 j ⁇ X buffer if the second buffer 23b is less than 1/2 I LB-Sub at step 24 Oh, and stop at step 240 i if it is more than I do.
  • the second buffer may be 1/2 ILB, so that the buffer amount can be halved.
  • the buffer control in FIG. 56 eliminates buffer underflow and reduces the disturbance of the synthesized image on the playback screen.
  • the procedure to extract only the R signal by rotating at 1x speed is described.
  • the standard rotation of a DVD playback device is called 1x speed, and the standard double speed is called 2x speed. Since it is not necessary to rotate the motor 34 at 2x speed, the 1x speed command is sent from the control unit 21 to the rotation speed change circuit 35. Feed and reduce the rotation speed.
  • the procedure for extracting only the R signal at 1 ⁇ speed from the optical disc on which the R and L signals are recorded will be described with reference to the time chart of FIG. As described in (1) and (2) in FIG. 6, the R frame group 6 and the L frame group 8 are alternately recorded on the optical disc of the present invention. This is shown in Fig. 8 (1) and (2).
  • the optical disk rotates 5 to 20 times during the reproduction of one frame group.
  • the track jump time of the adjacent track takes several tens of ms. If the maximum rotation waiting time is one rotation, it will be possible to reproduce the entire image of the R frame group 6a between two rotations. This is shown in the reproduction signal diagrams in Figs. 8 (4) and 8 (5) and the time chart of one rotation signal of the disk.
  • the time axis of the reproduced signal of FIG. 8 (4) is adjusted by the buffer circuit 23a of FIG. 5, and the MPEG signal of the continuous R frame as shown in FIG.
  • This signal is expanded by the MPEG decoder 16a as an R video signal as shown in (7) of FIG. If another channel is selected as in the case of the R signal, a 2D signal of the L signal can be obtained.
  • R or L By assigning R or L to a frame signal group of 1 GOP or more as in the present invention and continuously recording the frame signal group over a plurality of tracks, a 3D optical disk can be used even in a 1 ⁇ speed playback device. This has the effect that a 2D output of only the scale can be obtained even when playing back.
  • the buffer circuit 23 of the 3D playback device of FIG. Playback device Since the 2D playback device 40 has a stereoscopic video arrangement information reproducing unit 26, it reproduces the identifier and the arrangement information of the stereoscopic video of the 3D optical disc 1. Therefore, when a 3D optical disk is played back by a 2D playback device, one of the R and L channels is output. Since R and L are the same image, it is a waste of time to change and output the channel by the channel selection unit 20.
  • the stereo channel output control unit 41 Use an extra to limit the output to channels on one side only, such as R for stereoscopic video. As a result, only one of R and L of the same video content can be selected, so that the user does not need to select an unnecessary channel.
  • the user can recognize that the stereoscopic content is the stereoscopic content because the “stereoscopic” display is displayed on the screen or the display unit 42 of the playback device from the “stereoscopic” display signal output unit 33.
  • the optical disc of the present invention achieves compatibility such that 2D and 3D images can be obtained with the stereoscopic playback device 43 of FIG. 5, and 2D images can be obtained with the 2D playback device of FIG.
  • FIG. 13 shows a time chart of the stereoscopic video identifier and the output signal.
  • the R frame groups 6, 6a, 6b and the L frame groups 8, 8a, 8b of the stereoscopic video are recorded from t1 to t7.
  • completely different contents A and B are recorded in the first frame group 44, 44a and the second frame group 45, 45a.
  • the stereoscopic video identifier is t1 ⁇ ! : 7 alternately outputs even field signals 48, 48a and odd field signals 49, 49a from one output at a field frequency of 60 Hz or 12 OHz. Even field signal And outputs the data of the first time domain 46 and 46a to the odd field signal, and outputs the data of the second time domain 47 and 47a to the odd field signal.
  • the data of the first time domain 46c, 46d is output to both the even field signals 48d, 48e and the odd field signals 49d, 49e. Let it.
  • the right eye of the user by changing the output of the signal to the stereoscopic display between the area where the stereoscopic image arrangement information indicates that there is no stereoscopic image and the area where the stereoscopic image is not indicated, the right eye of the user and the This has the effect of preventing the left eye from inputting images of different contents. If this function is not provided, the right and left images of the first and second time domains of the optical disc will have different contents when viewing the right and left images of the same content of the stereoscopic image. Abnormal images of B-contents are displayed on the left eye of the contents and the eyes, giving the user discomfort.
  • step 50a the optical disk is loaded, and in step 50b, the file of the content list of the disk is read. There is no information on stereoscopic images here.
  • step 50c the progressive stereoscopic video arrangement information is read from the TXTD file of the disc.
  • step 50d based on the read stereoscopic video arrangement information, when displaying the content list in the disc, a mark of stereoscopic display is displayed for each content on the menu screen.
  • This information may be present in the entire optical disc, or may be included in the navigation information for each unit of the DVD.
  • step 50e the data of the specific address is reproduced.
  • step 5Of it is determined whether or not this data is a stereoscopic video by referring to the stereoscopic video arrangement information. If Yes, in step 5 Og, if the first time domain 46 signal is an R signal and the second time domain 47 is an L signal from the stereoscopic video arrangement information data, then decode each signal, The data of the first time domain 46 is output as an image for the right eye, (2) Output data in the time domain 47 as an image for the left eye. Each image is synchronized. When playing back the next data, return to steps 50e and 5Of to check if it is a stereoscopic video. If the image is not a stereoscopic image, proceed to Step 5Oh, and for example, use one of the first domain 46 and the second time domain 47 for the same image as the right-eye image and the left-eye image. Output.
  • the first interleave block 56 has the data of A1 and the first data to be accessed next.
  • the start address a5 of the leave block 5 6a is recorded. That is, since the next pointer 60 is recorded, as shown in (2) of FIG. 14, when the playback of the first leave block 56 is completed, the address of the pointer 6 Oa is accessed. Just by jumping the track, and within 100 ms, you can access the next interleaved block 56a and play back the data of A2. Similarly, A3 data can be reproduced. Thus, the content A3 can be continuously reproduced.
  • the optical disc on which the R and L stereoscopic images shown in (3) in Fig. 14 are recorded must have the same format as (1) in Fig. 14 to maintain compatibility. 60 is in the evening. For this reason, stereoscopic images cannot be played unless the pointer is ignored.
  • the stereoscopic identifier 61 of each cell can be defined from the stereoscopic video logical arrangement table.
  • the three-dimensional identifier 61 of each of the in-leave blocks 54, 55, 56, and 57 can also be logically defined. This is shown in the figure.
  • R 1 and L 1 and jump to play R 2 and L 2 the pointer cannot be used. Specifically, R in evening leave block When the end of 5 4 is completed, the address of pointer a 5 is not affirmed.After playing the next L-interleave block 55, track jump to a 5 which is the pointer of the R interleave block is accessed. I do. In this case, Boyne Even 6 Ob of L Inn Even Leave Block 55 was ignored.
  • R and L are continuously played back as shown in (4) in Fig. 14 by changing the pointer address access procedure from that for normal video. There is an effect that can be.
  • step 62a an access instruction to an address of a specific cell comes.
  • the address to be accessed is referred to the stereoscopic video arrangement information to determine whether it is a stereoscopic video.
  • step 62c if the image is not a stereoscopic image, the process proceeds to step 62t, and one process of a normal image is performed. If it is a stereoscopic video in step 62c, proceed to step 62d, check whether or not to reproduce the stereoscopic video of the user or the like. If NO, output the display of "stereoscopic video" on the screen and proceed to step 62t. .
  • step 62d the stereoscopic video arrangement information is read out in a step 62e, and the arrangement of the R and L in-leave blocks is calculated from the chapter number, the R cell number, the L cell number and the like.
  • step 62g the n-th R-in-leave block is reproduced, and in step 62h, the pointers recorded in the R-in-leave block and the L-in-leave block are read and stored in the pointer memory.
  • step 62i the previous, that is, the (n-1) th pointer AL (n) is read from the pointer memory.
  • step 62j it is checked whether AL (n) and AR (n) are continuous. If N N, jump to address AL (n) in step 62k.
  • step 62m the n-th L-in-leave block is reproduced, and in step 62n, the first VFTS and the second VPTS are synchronously output using n + 1, and in step 63h, PG, ie, progressive For signals, two decodes in step 63 I The sum and difference of the output signals are calculated and synthesized in the vertical direction, and a signal with a higher resolution in the vertical direction, such as 525P, is synthesized.
  • step 63 j If it is found in step 63 j that the signal is wide 525P (i), the sum and difference of the two decoded output signals are summed and then combined in the horizontal direction to obtain a wide 525P (1), that is, 1440 x 480 pixels. A video with a higher resolution in the horizontal direction, such as Play pointer address. Step 63g In Lord Yin Yu Rebblog? At step 62P, it is checked whether or not all data has been reproduced.
  • step 62q it is checked whether the n-th L-in-even block and the (n + 1) -th R-in-leave block are recorded consecutively, and if not, in step 621 ", eight (n + Jump to track 1) and return to step 62 f.If Yes, return to step 62 f.
  • step 62 t if the stereoscopic image is not displayed, access the start address A (1) of the h cell, play the first in-leave block, and then in step 62u, the address A (n) Play the nth interleaved block sequentially.
  • each interleave block performs a track jump to the next successive interleave block, reads out the pointer address A (n + 1) for access at step 62V, and reads the pointer address A (n + 1) at step 62w. It is checked whether all the playbacks have been completed overnight, and if completed, the process returns to the first step 62a of the flowchart of A.
  • step 62x If not, check in step 62x if the block with the start address of A (n) and A (n + 1) is continuous, and if yes, do not jump and go to the step before step 62u. Return. If NO, jump to address A ( ⁇ + 1) in step 62y.
  • the signal reproduced from the optical disk 1 is composed of a first interleave block 66 and a second interleave block 67 units each composed of a frame signal of 1 GOP unit or more. Then, it is separated by the separation unit 68.
  • the frame video signals 70a and 7 Ob of 30 frames per second, which are MPEG-decompressed by the decompression unit 69, are separated into odd field signals 72a and 72b and even field signals 73a and 73b by the field separation units 71a and 7lb.
  • 2ch NTSC interlaced signals 74a and 74b are output.
  • the wide screen of FIG. 20 will be described later.
  • progressive video signals 75a and 75b are input, and the separation unit 38 separates the odd lines, that is, the Odd First in-night race signal 244, and the even lines, that is, the Even Firsi in-night race signal 245.
  • the n-th line such as the first line of the interlace signal 244 is An
  • the n-th line such as the second line of the interlace signal 245 is Bn
  • the sum of the vertical filter 142 is 1 / 2 Perform the operation of ( ⁇ + ⁇ ) to obtain the low-frequency component. In other words, it plays the role of Phil Yu 141, which removes interference from races in the evening.
  • an NTSC signal without interlace interference can be obtained.
  • An color signal is separated by the color separation unit 242 and is compressed by the MPEG encoder, which is synthesized by the color synthesis unit 243 into a 1/2 (A + B) signal without passing through the vertical filter 142.
  • the difference that is, 1/2 (An-Bn) is calculated to obtain the high frequency component, that is, the difference information.
  • This signal is compressed by the MPEG decoder without any color signal. Therefore, the difference information has an effect that the information amount of the color signal is reduced.
  • Fig. 23 shows the concept of Fig. 22.
  • the video signal is divided into high and low bands in the vertical and horizontal directions, and divided and recorded in each of the multiple andals. This is called multi-angle video multiplexing (MADM).
  • MADM multi-angle video multiplexing
  • the sum operation unit 141 and the difference operation unit 143 divide the signal into a basic signal (sum signal) and an auxiliary signal (difference signal), and encode the resulting signal into MPEG and alternately interleave in 1 G 1P units.
  • the amount of information can be reduced by 20% by performing synchronous 3-2 conversion of the basic signal and auxiliary signal.
  • the basic signal is a normal MPEG As shown in the main GOP structure 244 at the time of loading, it is efficient to use "IBBFBBFBBFBBPBB” in which the I frame 246, the B frame 248, and the P frame 247 are alternately arranged. However, in the case of the difference signal, it is clear from experiments that the configuration of only the I frame 246 and the P frame 247 such as "I PPPPPPP I PPPPPPP" as shown in the sub GOP structure 245 is efficient because of the loop pattern. became. Efficiency is improved by setting the sub G ⁇ P structure differently.
  • FIG. 23 shows an example in which a 525P video signal is divided into two in the vertical direction
  • FIG. 58 described below shows an example in which the 525P video signal is divided into two in the horizontal direction
  • the 525 P signal is divided into 30 odd-numbered frames and 30 even-numbered frames, and each 30 P signal is converted into two 60-field interlaced signals.
  • the playback device that does not support MADM plays the first channel, that is, a distorted 525 interlace signal of 30 P, that is, a dropped frame.
  • the MADM-compatible playback device plays back a 30P signal as a basic signal and a 30P signal as an auxiliary signal.
  • the two 30-frame signals are combined into one regular 525P signal of 60 frames by frame combining means including a frame buffer and output.
  • a 4-tap filter as shown in Fig. 46 (c) it is possible to lower the separation frequency to about 200 lines. An example using this will be shown. If the amount of information in the basic signal is too large to encode, if the separation frequency is lowered from 300 to 220, for example, the information in the basic signal is greatly reduced and encoding is possible. The amount of information of the auxiliary signal increases, but the amount of information is originally small because there is no color in the difference signal. For this reason, there is no problem that encoding is insufficient.
  • This filter information is stored in the filter identifier 144 in FIG.
  • the original image can be played back normally by changing the filter characteristics and changing the filter characteristics in units of 1 cell or 1 GP. This enables high-rate video that is difficult to encode.
  • the MPEG encoder unit combines the odd interlaced signals 79a and 79b and the even interlaced signals 80a and 8 Ob to combine the frame signals 8 la and 8 lb.
  • Compressed signals 83a, 831) compressed by MPEG compression units 82a, 82b) 10 to 15 frames 1 GOP or more interleaved blocks 84a, 84b, 84c are created and separated from the same progressive signal
  • the same time stamp is added to the compressed signal by the time stamp adding means, and the compressed signal is recorded on the optical disk 85.
  • the optical disk 85 containing the progressive signal is a 2x speed playback device shown in Fig. 21.
  • Field separators 71a and 7lb separate the odd fields 72a and 72b and the even fields 73a and 73b on the time axis.
  • the combining section 90 combines the odd-numbered fields 72a and 72b of the A channel 91 and the B channel 92 using the sum operation circuit and the difference operation circuit. The same applies to the even fields 73a and 73b.
  • the A-channel 91 and the B-channel 92 are combined in a zigzag manner to obtain progressive signals 93a and 93b of 60 frames / second, which are output from the progressive video output unit 94.
  • the reproduction apparatus of the present invention can obtain progressive video signals, that is, 525 signals in which NTSC signals are not interlaced, in this case, 480 signals.
  • the playback unit 95 plays at double speed.
  • FIG. 23 explains the concept of the MDM scheme divided in the vertical direction, but FIG. 58 shows the concept of the MADM scheme in the case of division in the horizontal direction.
  • Consideration is being given to movies for wide 5 25 P, such as 1440 X 480 P.
  • This signal can be converted to a 1440 x 480i in-race signal by the 3-2 conversion section 1 ⁇ 4.
  • In the horizontal fill area 206a split horizontally into two parts.
  • the principle of this filter is shown in Fig. 59 (a) and (b).
  • 1 440 dots are divided into odd-numbered dots 26 3 a and 26 3 b and even-numbered dots 2 64 a and 2 64 b.
  • the horizontal sum signal obtained in this way is reduced to 720 dots horizontally, but since it passes through the horizontal fill, the aliasing distortion is suppressed to the same level as the NTSC signal. Therefore, in the conventional reproducing apparatus, since only the sum signal is reproduced, exactly the same DVD image quality can be obtained.
  • the difference signal is a line drawing that is merely a circle, it is limited by the second video signal output restriction information adding section 179 in FIG. 60, and is not easily seen by a general playback device. Is prevented.
  • the sum signal and the difference signal are converted into an MPEG stream by the first encoder 3a and the second encoder 3b, and are interleaved by 1 GUP or more. And are MADM-multiplexed.
  • the signal is subjected to 3-2 conversion by the 3-2 conversion section 174, and is MADM-recorded as each MPEG signal together with the 3-2 conversion information 174a.
  • the movie since the movie is 24 frames per second, a 144 ⁇ 480 P progressive video is reproduced from the two interlaced signals by a 2 ⁇ speed playback device.
  • the movie has a scope size of 2.35 to 1, 144 ⁇ 480 P is suitable in terms of the aspect ratio, and the effect of wide 52 P is high.
  • the movie software when playing back an optical disc that contains movie software for a 1x speed playback device for playing in-and-out race signals, the movie software is originally a frame signal (progressive signal) of 24 frames per second.
  • a progressive signal of 24 frames can be obtained.
  • the progressive signal is reproduced by detecting that it is movie software by the detecting means, or by converting 24 frames into a progressive signal of 60 frames / sec by the 4-2 converter 174 shown in FIG.
  • the progressive signal When outputting an in-night race image, the progressive signal is filtered by the vertical filter unit based on the filter identifier.
  • the optical disk 85 encoded in FIG. 22 is reproduced by the progressive-compatible reproducing device 65 shown in FIG. 20, the interlace signal # 4a of the A channel is reproduced.
  • Conventional single-race DVD players have only the A channel of the A and B channels. From this, it is understood that when the optical disk 85 of the present invention is mounted on a conventional in-one-race type DVD player, an A-channel interlace signal can be obtained.
  • the optical disc of the present invention can obtain a progressive signal in the reproducing apparatus of the present invention, and can obtain an in-or-one race signal of the same content in the conventional reproducing apparatus, and has the effect of achieving complete compatibility.
  • the interlace interference removal compression filter 141 can greatly reduce aliasing distortion.
  • a right-eye signal 97 and a left-eye signal 98 are input to the recording device 99 in the same manner as the sum signal and the difference signal of the progressive signals in FIG. Since the signal is an in-one race signal, odd field signals 72a and 72b and even field signals 73a and 73b are input every 1 / 60th of a second.
  • the signals are combined by the combining units 101a and 101b and converted into frame signals 102a and 102b every 1/30 second.
  • Compression sections 103a and 103b combine compressed signals 83a and 83b into a set of 1 G ⁇ P or more to form in-leave blocks 84a, 84b and 84c, and alternately arrange them on optical disc 1. Record in.
  • the stereoscopic ZPG video arrangement information reproducing section 26 shown in FIG. 5 detects the FG identifier in the disc and outputs the stereoscopic picture as shown in FIG. A description will be given with reference to a block diagram of the playback device 104 in the playback mode.
  • the stereoscopic video in the optical disc 1d is first divided into the A channel and the B channel by the separation unit 68, expanded by the expansion units 88a and 88b, and separated into field signals by the field separation units 71a and 7lb.
  • the operation so far is the same as in the case of FIG.
  • the feature of FIG. 24 is that the field separator 7 la outputs the odd field signal and the even field signal by switching the output order in the output converter and outputting them.
  • the field separator 7 la outputs the odd field signal and the even field signal by switching the output order in the output converter and outputting them.
  • the odd field signal 72a of the A channel, the odd field signal 72b of the B channel, the even field signal 73a of the A channel 73a, and the even field signal 73b of the B channel 73b Send in order.
  • the right and left eyes are alternately output in the order of the odd field and the even field.
  • a video with no flit power and with the same time information is output progressively. Obtained from Part 105.
  • the flit force is a certain force. 3D images from 3D glasses It is.
  • the playback device 107 performs playback at a quadruple speed, it requires a quadruple speed playback capability. However, for DVD, 80% of the normal transfer rate is sufficient. If the progressive signals A, B on the right and the progressive signals C, D on the left 108a, 108b, 108c, 108d are arranged consecutively without gaps as shown in Fig. 25, the optical pickup needs to jump. No need to play continuously.
  • the separation blocks 109a, 108b, 108c, and 108d are separated by the separation unit 109 as described above, and the signals of four channels A, B, C, and D are reproduced.
  • the video signals decompressed by the decompression units 69a, 69b, 69c. 69d are synthesized by the synthesis units 90a and 9 Ob, respectively, as in Fig. 21, and two progressive signals are output from the progressive output units 110a and 11 Ob. Is done.
  • the playback device 107 Since each of them is a left-eye signal and a right-eye signal, the playback device 107 outputs a progressive stereoscopic video. In this case, if the MF EG chip with a 4 ⁇ speed block is used, processing can be performed with one chip, so there is no increase in the number of parts. It can also record and play back video of four different contents. In this case, a single disc can simultaneously display on four multi-screen TVs.
  • a feature of the present invention is that all are compatible.
  • a conventional reproducing apparatus such as a DVD
  • an interlace signal of either the right eye or the left eye is output.
  • it can only be played for a quarter of the time.
  • you use DVD double-layer lamination most movie works will fit in 2 hours and 15 minutes.
  • One race or one channel of progressive images can be switched to the desired image by sending a command from the input unit 19 in FIG. 9 to the control unit 21 via the channel selection unit 20.
  • a command from the input unit 19 in FIG. 9 to the control unit 21 via the channel selection unit 20.
  • FIG. 20 has described the method of reproducing the optical disc 1 on which the two-screen interlaced signal is recorded by the double speed reproduction apparatus of the present invention.
  • Fig. 40 this is applied by applying a super wide image (154) of Scope size (2.35: 1) to the center image (15), side image (15), The screen is divided into three screens of 158, and the division position is represented by the center shift amount 159.
  • the center image 156 d is used as the first video signal 156 d, and the side images 157 d and 158 d are combined and compressed as the second video signal. Interleaved and recorded on the optical disk together with the first shift amount of 159.
  • the second video signal restriction information adding section 1.9 adds reproduction restriction information such as password protection to the stream of the second video signal to the file management information area of the optical disc. Then, the reproduction device cannot reproduce the second video signal alone. In this way, it is possible to prevent the viewer from seeing an abnormal image on the divided screen with the single output of the second video signal limited. In this case, the progressive-compatible player reproduces both the first video signal and the second video signal, and Output screen.
  • the second video signal is not output alone.
  • the first shift amount 159 is reproduced from the first shift amount reproducing unit 159b.
  • the wide image synthesizing unit 173 synthesizes the scope image
  • the 3_2 conversion unit 174 performs the 3-2 pull-down conversion shown in Fig. 41 to convert the 24 frames of the movie into 60 frames. Convert to interlaced signal with a field of Z seconds or progressive signal with a frame rate of 60 frames. Decompression and wide image synthesis are performed as shown in FIG.
  • the composite image 179a of the composite image 179 having 24 frames per second becomes three interlaced images 180a, 180b, and 180c.
  • the composite image 179b becomes two in-night race images 180d and 180e.
  • an image of 24 frames / second becomes an in-race image of 60 fields.
  • the screen 154a is synthesized and 3-2 conversion is performed.
  • This horizontal separation method of the second screen is based on the normal 720 x 480 pixel that is obtained by halving the original 1440 x 480 pixels in both the first and second video signals in the horizontal direction. Since the video is recorded, even if the second video signal is erroneously played back on a normal playback device such as a DVD player, the video with the same aspect ratio as the original is output, and the effect of high compatibility is achieved. is there.
  • this separation method can reproduce wide images such as an interlaced image on a general playback device, a progressive image on a compatible playback device, and a 720P scope on a playback device compatible with a high resolution of 720P. effective.
  • the effect is high because it can be realized at 2x speed.
  • the progressive image 1842a of 1440x960 is divided horizontally and vertically by the horizontal and vertical separation unit 1954 of the image separation unit 1115. Separation is performed using a filter or a wavelet transform. The result is 5 25 progressive video 18 3. This is separated into 525 interlaced signals 184 and recorded as stream 188a.
  • the remaining interpolation information 185 is similarly separated into four streams 188c, 188d, 188e, 188f and recorded in an interleaved block. Since the maximum transfer rate of each interleave block is 8 Mbps according to the DVD standard, if the interpolation information is divided into four streams, 32 Mbps, 6 angles, and 48 Mbps are recorded, It can record 720P and 1500P HD TV images. In this case, the conventional reproducing apparatus reproduces the stream 188a, and outputs an in-night one-race video 184.
  • the in-night-to-one-race signal is converted into an in-night-to-one-race signal by the in-night-to-one-race conversion section 175, and is output, to obtain a scope screen 178.
  • 5 2 5 P Progress The signal is also output as a scope screen 178.
  • the 525P signal is converted to a 720P progressive signal by the 525P / 720P conversion unit 176, and is converted to 1280X720 or 1440X720 (image is 1280X480 Or 1440 X 480) letterbox type 720P screen 177 is output. Since the scope image (2.35: 1) is 1128 X 480, an image with a close aspect ratio can be obtained.
  • progressive images have a rate of 4 Mbps.
  • a scope image is recorded by the method of the present invention, which is divided into two screens, the speed becomes 8 Mbps and can be recorded on a DVD dual-layer disc for about two hours.
  • a progressive image of image quality can be recorded.
  • it is naturally displayed on interlaced output signals even on conventional TVs. In this way, the effect is obtained that a movie scope (2.33: 1) screen can be output at 525P or 720P.
  • the even field 208a of the 1050-in-one-race signal is separated into two images 208b and 208c by the horizontal separation means 209, and separated into images 208d and 208e by the vertical separation means 210a and 2 10b.
  • images 208 f and 208 g are obtained.
  • the odd-numbered field signal 21 1 a is similarly separated to obtain images 2 lid, e, f, and g.
  • the image 208d and the image 211d are the main signal, and the existing playback device can obtain the DVD interlaced video.
  • Figures 27, 28, 42, and 49 describe the file structure and image identifiers.
  • Figure 27 shows the logical format of a DVD. A video file is recorded in each logical block. As shown in Fig. 28, the smallest unit in the system stream is called a cell. The voice and the sub-picture are recorded in packets.
  • Prov i d e de r d e f i ne ds t r e am in packet 217 in cell 216 of the main signal of the first stream has a capacity of 2048 bytes.
  • a progressive identifier 218 indicating whether it is a progressive or an in-the-night race
  • a resolution identifier 219 indicating that the resolution is 525, 720, or 1050
  • the interpolation signal is a difference signal from the main signal
  • a file identifier 144 described later and sub-stream number information 221 indicating the stream number of the first sub-stream.
  • the image identifier 222 may be recorded in the management information 224.
  • the relationship between the VP TS (Video Presentation Time Stamp) of the sub-track by each interleaved block, that is, the time at the time of decoding output will be described with reference to FIG.
  • the interleaving blocks 227a, 227b, and 227c of the main signal are recorded together with VPTS 1, 2, and 3 of VPTS.
  • 2nd VOB 226 c has an evening leave block 22
  • the progressive signal shown in FIG. 53 (4) is output.
  • the playback device checks the same VPTS of each in-leaved block, decodes and synthesizes the main signal and sub-signal in synchronism, and obtains a normal progressive signal. There is.
  • FIG. 54 is a diagram showing the signal arrangement in the case of the simulcast system in which the NTSC signal and the HDTV signal are independently recorded at the same time independently of each other.
  • NTSC video and audio 232 are recorded in the main signal VOB 227a.
  • VOB 227b and VOB 227c a signal of about 16 Mb ps of the compressed video signal of HDTV is divided into 8 Mb ps and recorded on the optical disk by the in-leave method of the present invention.
  • the NTS-style (525i) signal is reproduced.
  • the playback signal from the optical disk is separated by the interleave block separation unit 233, the audio of the main signal is decoded by the audio decoder 230 of the NTSC decoder 229, and the first sub The 8 Mbps stream of the signal and the second sub-signal is decoded by the HDTV decoder 231 and the HDTV signal is decoded.
  • the HDTV signal and the audio signal are output. In this case, there is an effect that the simultaneous cast can be played back on the NTSC by the simultaneous cast.
  • a transfer rate of 16 Mbps can be obtained by using a two-in-leave stream
  • a standard HDTV MPEG compressed signal can be recorded as it is.
  • DVDs can only record 16Mb ps in two interval blocks.
  • the HDTV compressed video signal is 16 Mbps. Therefore, audio data cannot be recorded.
  • the audio data of the NTSC signal of the main signal as in the present invention, there is an effect that the audio output can be recorded even if the HDTV is recorded with two in-line channels.
  • the interlace interference removing means 140 is inserted in the progressive signal section of the progressive interface conversion section 139 of the block diagram of the recording apparatus 99 in FIG.
  • the input program First, the received signal is detected by the in-one / one-race interfering image detecting means 140a to detect an image signal having a high probability of inter-race interfering. 4 Pass through 1. For example, in the case of an image having a low frequency component in the vertical direction, interlace interference does not occur. This can reduce degradation of the vertical resolution of the image.
  • Infinity Race Filler 1 4 1 consists of a vertical fill 1 4 2.
  • the shaded area is the interlace fold and the distortion generation area 2 13.
  • three line memories 195 are provided, and 480 progressive line signals are converted into the image information of the target line (the n-th line) and the preceding and succeeding lines (the n-th line).
  • Addition of the three pieces of image information (1, n + 1 line) at an adder ratio in an adder 196 yields one line of image information and 240 interlaced signals.
  • the fill is reduced in the vertical direction, and interlace interference can be reduced.
  • the filter characteristics can be changed. This is called a vertical three-line tap filter. By changing the ratio of the center and the previous two lines, a simpler vertical filter can be obtained. As shown in Fig.
  • the line information is not a simple vertical fill.
  • the n- 1 line of the previous frame and the n + 1-th even line of the next frame are expanded in the same space.
  • the vertical fill ring can be applied.
  • This time vertical fill 2 1 4 reduces the interference between the in-and-out race that occurs when a non-progressive DVD player plays an optical disc on which a progressive signal has been recorded and watches only the in-and-out race signal. This has the effect.
  • the horizontal fill 206 a is realized by adding two pixels in the horizontal direction and synthesizing one pixel. However, applying a filter naturally degrades the resolution of progressive video.
  • the interference image detection means 140 prevents the image from being disturbed from being filtered or changing the addition ratio of the vertical filter adder, which weakens the filter effect, thus reducing the degradation during progressive image playback. It has the effect of reducing.
  • the interlace interference can be eliminated at the filter side of the playback apparatus without applying a filter at the time of recording. In the future, it will be replaced with a progressive playback device, so in the future it will not be necessary to record at the time of recording.
  • the interlacing interference detection means 140 uses the filtering signal to identify the interlaced interference removing filter 1 4 is output and recorded on the optical disk 85 by the recording means 9.
  • FIG. 50 shows a specific method of recording a file identifier.
  • the filter identifier 144 is inserted in the header of 1 GOP, which is a pixel unit of M PEG in the stream. "0 0" indicates that there is no filter, "1 0" indicates that the signal has passed through the vertical fill, "01” indicates that the signal has passed through the vertical and horizontal fill. Since at least 1 GOP unit is included, the filter can be turned ON / OFF by 1 GOP with the playback device, so that it is possible to prevent the image quality from being deteriorated by inserting a double filter.
  • FIGS. 32 (a) and 32 (b) the operation when the optical disk 85 is reproduced by the reproducing device 86a will be described with reference to FIGS. 32 (a) and 32 (b).
  • two interlaced images 84a and 84b are reproduced, and a progressive image 93a is once synthesized.
  • the Interlace Interference Filtering Identifier 144 is ON, when slow playback or special playback of still images is not performed, and when progressive images are not output, rotation at 1x speed is performed by direct interlace output 144. Outputs interlaced signals. In this case, there is a power saving effect.
  • control unit 14 7 When performing trick play or when the interlace interference elimination filtering identifier 144 is off, the control unit 14 7 sends a 2x speed command 14 6 to the motor speed change unit 35. As a result, the optical disk 85 rotates at 2 ⁇ speed, and a progressive image is reproduced.
  • a method for removing the interlace interference when the progressive image reproduced in this way is output to the interlaced TV 148 as an interlace race signal will be described.
  • the discrimination switching circuit 149 is switched to allow the progressive signal to pass through the Interlace Interference Rejection Filter 145, then the interlace converter 13
  • two odd-numbered in-race signals 72a and even-numbered interlace signals 73a are output from two frames 93a and 93b, and a normal interlace signal is output. In this case, an image without interference is displayed on the interface TV148.
  • the progressive signal output section 2 15 outputs a progressive signal that does not include the interlace interference removal filter. Therefore, the method of performing ON / OFF of the interlace interference elimination filter on the reproduction apparatus side has a great effect that a progressive image without deterioration and an interlace image without deterioration such as interlace interference can be simultaneously obtained.
  • the interlace conversion unit 14 49 is a frame processing unit. According to 1 52, 480 lines of one frame 93 a are distributed to two fields, and an odd-numbered interlace signal 7 2 b and an even-numbered inter-race signal 7 3 b are created. , Output. Then, the interlace TV 148 displays a still image or a slow playback image of the interlace of 480 resolutions without blur.
  • Steps 1553a to 1553g in FIG. 32 (a) show this procedure in the form of a flowchart, but the description is omitted.
  • the first stream is played from a two-channel stream, for example, a disc on which the images of camera 1 and camera 2 are recorded, and the stream is switched to the second stream on the way.
  • FIG. 35 we will describe a method for seamlessly switching from one stream to another when the content is multiple stories, that is, when streams are multiplexed.
  • two different stories in the optical disk 106 contain two streams of the first video signal and the second video signal, that is, the first stream 1 1 1 As the second stream 112, they are basically recorded on substantially the same radius.
  • the first stream 11b is successively output after the first stream 11la.
  • the user issues a command to switch to the second video signal from the command input unit 19 in FIG. 5 at time tc
  • the output signal is switched to the second stream 112b of the second video signal.
  • the video, audio and sub-picture of the second video signal are switched seamlessly without any break.
  • the method of synchronizing video, audio, and sub-picture to achieve seamless playback will be described later.
  • FIG. 35 (3) is a time chart illustrating the principle diagram of FIG. 36, and the operation is the same.
  • FIG. 36 illustrates the recording apparatus of FIG.
  • the two streams that is, the progressive signal of the first video signal
  • the first video signal separation unit 78a into two in-first-out signals of the Odd First main signal and the Even First sub signal.
  • the difference signal between the main signal and the sub signal is obtained by the difference unit 116a, and the main signal and the difference signal are compressed and recorded on a disk, thereby reducing the amount of recorded information.
  • the correlation between adjacent odd-numbered (Odd) lines and even-numbered (Even) lines is so strong that the amount of information on the difference signal between them is small. Taking the difference has the effect of greatly reducing the amount of recorded information.
  • the division recording method of the present invention using this differentiator 1 16a is based on the 720P progressive signal 182 or the progressive video 182a of 1050P as shown in FIG. 1 5 and 525 basic information 1 8 7 and progressive video 1 83 and 525 in evening race video 184 and supplementary information 186 are separated.
  • the difference information 1185 of the basic information 187 and the supplementary information 186 is obtained by the differencer 116a, and the difference information 185 is obtained by the second video signal separation unit 78c and the third video signal separation unit 78d.
  • a total of four streams 188c, 188d, 188e, and 188 ⁇ can be separated.
  • the image output restriction information generation unit 179 sets the angles of the streams 188c, 188d, 188e and 188f including the supplementary information 186 so that the angles are not output by the incompatible past playback device. Restriction information is generated and recorded on the optical disk 187.
  • the DVD standard is set so that a specific stream cannot be opened without a password.
  • password protection to the streams 188c, 188d, 188e, and 188f, it is difficult for conventional playback devices to open them, and viewers may mistakenly view abnormal images that decode the supplementary information 186. This has the effect of avoiding it.
  • the first video signal is compressed in this way, and the main signal is converted into A1 and A2 in-leave blocks 83b and 83d in units of 1 GOP or more.
  • the main signal of the second video signal is an interleaved block 83a of C1 and C2
  • the sub signal is an interleaved block 83e and 83g of Bl and B2
  • the sub signal is an interleaved block of Dl and D2.
  • the blocks are 83 f and 83 h.
  • a recording stream 117 is generated from the above four data as shown in FIG.
  • a 1, B 1, C 1, D 1, A 2, B 2, C 2, and D 2 are arranged in this order, and are recorded on the optical disk 155 by the recording means 118.
  • Al, B1, A2, and B2 are the first video signals, they are recorded in the order of the first video signal, the second video signal, the first video signal, and the second video signal. .
  • the seamless playback of the AV synchronization control unit will be described later.
  • the MPEG signal of 1 GOP or more is recorded in each block unit, but strictly speaking, since one interleave unit is limited to about 0.5 seconds or less, the video signal is Only a maximum of 30 fields can be recorded. Therefore, a maximum of 30 GOPs can be recorded in one interblock unit. That is, a book One invention unit is limited to a record of 1 GOP or more and 30 GOP or less.
  • the first and second race signals 79a and 80a of the first VOB 118 are combined into a field pair 125a, and encoded by the frame encoding unit 123a to become a frame encoded signal 127a.
  • the dummy field 121 of the second V ⁇ B 119 is encoded on a field-by-field basis by the field encoding unit 124b in the compression unit 82b, and first, the field encoded signal 129 is encoded.
  • the even interlace signal 8 Ob and the odd interlace signal 79 b which are the original sub-signals, are combined into a first field pair 126a, which is a combination of the two, and is frame-coded by the frame coding unit 123b of the compression unit 82b. It is encoded as a frame encoded signal 128a.
  • one progressive signal corresponds to the frame coded signal 127a and the frame coded signal 128a.
  • an offset time 130 of Id exists between the frame coded signal 127a of the main signal and the frame coded signal 128a of the sub signal.
  • the signal from the reproducing section 95 is separated into the first V ⁇ B 118 of the main signal and the second VOB 119 of the sub signal. Since the first VOB 118 originally starts from an odd line, it may be expanded as it is. However, a dummy field 129 is inserted at the head of the second VOB 119 because of the authoring. For this reason, if the signal is reproduced as it is, there will be no synchronization between the main signal and the sub-signal, with an offset time of 119, which is td. As a result, it takes time to synthesize the first progressive video, and the screen is not continuous when switching from V ⁇ B to the next VOB. Therefore, in the present invention, the dummy field 1 2 1 is skipped by two methods.
  • the field coded signal 12 9 at the head of the second V ⁇ B 1 19 is input once to the decompression unit 13 2, and is progressively processed during or after field decompression processing. If there is identification information, the progressive processing switching unit 135 is switched to Yes, the dummy field detour means 132 skips the dummy field 121, and the even-numbered one-race signal 8 0b, and then output the odd interlace signal 79b.
  • This signal is synchronized with the audio signal 134 recorded in the main signal and the sub-pictures 135 such as subtitles by the synchronizing means 133, and the progressive image 90 3a, 9 3 b is output.
  • the dummy field detour means 1 3 2 is set to ⁇ N in the case of the progressive processing, and otherwise ⁇ FF, so that the normal field-coded in-race signal is converted to the first field. The effect of normal reproduction without dropping is obtained.
  • the second method will be described. This is used when the dummy field 129 is field-encoded into one GOP and can be separated from the GOP of the sub-signal frame.
  • the field coded signal 12 9 which is the coding information of the dummy field, is skipped by 1 G ⁇ P by the coding information bypass means 1 37 of the dummy field. Enter the skipped information in buffer 1 3 lb or You may skip when outputting 1b. Only the frame or field information of the sub signal paired with the main signal is input to the decompression unit 88b. In this way, the even-numbered-in-race signal 80 and the odd-numbered-in-race signal 79b are expanded and converted into one-in-one-race by the usual means described in FIG.
  • the signals are converted into progressive signals 93a and 93b by the progressive conversion section 90.
  • the second method since the dummy field is removed at the stage of the encoded information, there is an effect that the processing of the buffer 13 lb and the processing of the decompressor 88 need not be changed. This is suitable for inserting a dummy field coded into one GOP at the beginning of the second VOB 119.
  • the first method is to perform field coding on the dummy field 12 9 and the field signal in each frame 127 a together to generate 1 GOP, as in the seamless multi-angle method with high recording efficiency. Since the efficiency is high when a dummy field is inserted at the beginning of the 1-in-1 live block, it has the effect of increasing the recording time.
  • the progressive video is cut at the boundary between one VOB and the next V ⁇ B or at the seamless multi-angle in-leave block. The effect is that it can be reproduced without any.
  • step 1338a a command to start reproducing the data of the (2n-1) th angle is received.
  • step 1338b check whether there is a progressive identifier. If Yes, jump to step 1338f. If NO, check in step 1338c whether the following three conditions are satisfied.
  • Condition 1 is that there is one field (or an odd number of fields) GOP at the beginning of the n-th angle VOB.
  • Condition 2 is that there is no one field GOP consecutive to the one field GOP.
  • Condition 3 is that the first GOP of the 2 ⁇ -1 angle is not one field.
  • step 13d Output.
  • step 1 38g checks whether to play from the beginning of V ⁇ B at the 2n-1 angle, if no, jump to step 1 38j, if yes, step 1 At 38h, skips the first one field or one field of the GOP image of the n-th angle VOB and outputs it. If there is an audio signal at the 2n-1st angle, skip the VOB first offset time td (default value 1/60 sec) and output. In step 138j, the main signal of the 2n-1th angle and the sub-signal of the 2nth angle are decoded, synchronized, and combined with a progressive signal.
  • Step 1 If you want to output a progressive image at 38k and Step 1 38m to output a seamless multi-angle output, go to Step 1 , Skip the first and output. Or, reverse the output order of the odd line and even line fields during in-one race conversion. Step 1 At 38p, combine and output progressive images.
  • a dummy field of a few seconds is inserted before the beginning of the multi-angle, so the dummy field group at the beginning of the VOB is read from the PGC data in the same way as the starting address of the multi-angle.
  • reading from the beginning of the VOB skipping the dummy field group only during 3D or progressive playback, and reading from the head address of the multi-angle, has the effect of preventing the 3D or progressive from being interrupted at the VOB boundary.
  • PSDM Private Stream Video Division Multiplexing
  • Fig. 61 shows a block diagram of the P-SDM system using the vertical separation method
  • Fig. 62 shows the P-SDM system using the horizontal separation method
  • Fig. 63 shows the signal format of the P-SDM system.
  • the DVD video signal is 10.08Mbps
  • a private stream Provided Stream
  • the sum signal was 6 Mbps and the difference signal was 3 Mbps, and good progressive video was obtained. Therefore, if the video is not difficult to encode, a beautiful progressive video can be obtained.
  • Fig. 61 is basically the same as Fig. 22 and Fig. 23, and authorizes the second half sum signal with a basic stream identifier 267, adds recording paper to the basic stream, and adds a private stream identifier 268 to the difference signal. Record in private stream.
  • a 3-2 conversion identifier 269 synchronized with the sum and difference signals is added.
  • the sum signal is decoded by the first decoder 69a from the bucket with the basic stream identifier 267, the difference signal is decoded from the packet with the private stream identifier 268, and the sum operation unit 250
  • the A and B signals are obtained by the difference calculation unit 251, and the 525P signal is synthesized.
  • an example of an optical disk 15 55 has A1, Bl, C1, D1, A2, ⁇ 2, C2, D2, A3, B3, C3, and D3.
  • 4 channels of streams are recorded in interleaved blocks of 1 Gm in order.
  • the first is the output of the first video signal, so the in-leave blocks (hereinafter abbreviated as ILB) 84a and 84b of ⁇ and ⁇ , that is, A1, B1 are continuously played, and track jump 1556 is performed.
  • ILB in-leave blocks
  • the main signal is A1, A2, C3, the sub signal B1, B2, D3 are reproduced, decompressed and decompressed by the decompression unit, sent from the synthesis unit 10 lb to the output unit 11 Ob, and the sub-pictures
  • the audio from the audio signal reproduction unit 160 and the above three signals are phase-adjusted by the AV synchronization control unit 158, and are output in a timely manner.
  • the progressive signal of the first stream and the progressive signal of the second stream have an effect that both the audio and the subpicture are continuous without interruption, that is, seamless.
  • the seamless synchronization method will be described later.
  • Fig. 45 the procedure for synchronizing two images and audio when playing two streams simultaneously, such as progressive video, stereoscopic video, or scope video, is described.
  • the case where three or four streams are reproduced like a 720P signal can be realized in the same manner, and therefore, the description thereof is omitted.
  • the system stream reproduced from the optical head is temporarily stored in the track buffer 23, and then sent to the first video decoder 69d and the second video decoder 69c. .
  • the first video decoder 69d and the second video decoder 69c On the track of the optical disk, two streams A of the progressive signal, that is, the first stream and the second stream B are alternately recorded in interleaved block units.
  • stream A is reproduced at double speed rotation, and data accumulation is started in the first track buffer 23 a of the track buffer 23.
  • the data of one in-leave block (ILB) I1 of the first video signal of the first video signal during the one-in-leave time T1 Evening accumulates.
  • the amount of data in the first track buffer is increased to ⁇ 2, and is increased to the amount of data in one ILB, completing the accumulation of data for one ILB of the first video signal.
  • the 2nd video signal of stream B is reproduced from the next in-leave block I2 of the optical disk.
  • the second video signal is stored in the second track buffer 23b at t2.
  • the first video signal and the second video signal are synchronized with the video presentation time stamp, that is, the VPTS time, so that the track buffer 23a , From the track buffer 23b to the first video decoder 69c and the second video decoder 69d.
  • the input to the first decoder 69c starts at t8, so it keeps decreasing until t11, and finally the buffer memory amount for 1/2 ILB.
  • the transition of the memory amount of the second track buffer 23a which is the buffer amount of the stream B, will be described with reference to FIG.
  • the offset at 1 is 2 and the buffer size at 16 is 1/2 ILB.
  • a track buffer capacity 198 indicated by a dotted line indicates a data amount obtained by adding the track buffer 23a and the track buffer 23b.
  • the audio data of the audio synchronization stream B is played back, and the STC may be switched at the point H using the APTS of the stream B as shown in Fig. 31 (4).
  • the rib video signal for stream B can be switched to 3TC in the same way as in Fig. 31 (4).
  • AV synchronization is realized by simple control by using the data of stream B preferentially and performing AV synchronization.
  • the streams A1 and A2 do not overflow because all the video data is stored in the buffer memory.
  • Stream B1 may overflow.
  • the STC is switched so that VPTS 2 does not exceed the VPTS 2 threshold as shown in FIG. 31 (6), and the signal flow is controlled.
  • the buffer does not overflow.
  • the audio decoder buffer can be halved as described above, but also as shown in Fig. 31 (4).
  • the sound can be smoothly reproduced without exceeding the APTS threshold.
  • the sub-picture information is also smoothly synchronized and reproduced. Therefore, video and audio, sub-pictures such as subtitles are synchronized, and the screen and audio are reproduced seamlessly, that is, seamlessly. In this case, even if the recording of the audio and sub-video of stream A is omitted, it is okay.
  • the existing playback device can reproduce stream B-2, and the second video signal output control information adding unit 1 shown in FIG.
  • the trouble of outputting an image without sound can be prevented.
  • progressive video software for example, a two-hour movie, can be recorded on a single double-layer disc.
  • recording can be performed by the recording method. This effect will be described.
  • Movie software can record about 15 P for 2 hours on a single-layer 4.7 GB DVD disc. If the progressive video of the present invention is recorded in two channels as it is without taking the difference, it requires twice as much as 9.4 GB.
  • video signals require 4 Mb ps
  • sub-video and audio signals require close to 1 Mb ps. If 1Mb ps of the audio signal is recorded in only one stream, a total of 9Mb ps is sufficient. In other words, 90% of the data amount is sufficient, so 90% of 9.4 GB is 8.5 GB, so that progressive signals can be recorded on a dual-layer disc with a single-layer disc.
  • the stream A block of the stream A is followed by the block of the stream B. If the first data (A in the embodiment) is recorded in the track buffer and the other data (B in the embodiment) is reproduced, the synchronization information of stream B is recorded. Synchronize using proactively. Specifically, by switching the system clock so that the time stamp of the video of stream B VPTS 1 does not exceed the VPTS 1 threshold, The effect is that the video and audio are played back synchronously without interruption of the screen. In addition, by synchronizing with the time information that is the time stamp of K Lee people ⁇ ⁇ Since only reading is required, control is simplified.
  • the buffer memory size is set to 1 ILB or more, no overflow or underflow will occur.
  • a buffer memory of 100 to 300 kB of about 1/15 of the standard ILB is used.
  • smooth reproduction can be performed using a buffer memory for one unit of the standard ILB.
  • 1 18 is 0.5 to 2 seconds, but in the case of multi-angle, the waiting time is only about 1 second, so it is actually used in the range of 0.5 to 1 second. Therefore, considering a stream of 8 Mbps as a maximum of 1 second, the DVD optical disc reproducing apparatus of the present invention may use a buffer memory of 1 MB or more.
  • the synchronization control unit 166 in FIG. 30 switches the STC by using the synchronization data of the second video signals of the input blocks I2 and I6 in FIG. Seamless playback between leave blocks can be performed.
  • playing back data of interleaved blocks of I2 and I6 by controlling the motor rotation speed playback track while monitoring the buffer amount of stream B, it is optimal so that the memory amount of the track buffers 23a and 23b does not overflow. Therefore, there is an effect that the memory amount of the track buffer can be reduced. Since all the data of the in-leaved blocks I1 and I5 of stream A are stored in the track buffer 23a, it is not suitable for performing playback control with two stream A signals and optimizing the buffer size.
  • the in-leave block I 2 When using the audio data of I6 and I6, as shown in Fig. 45 (5), 1/2, that is, 1/2 of ILB data is sufficient, so that the track buffer 23 (Fig. 39) and the audio decoder buffer 1 This has the effect of halving the amount of memory in ( Figure 39).
  • the in-leave block By storing II and I5 in the buffer and then controlling the rotation of the motor based on the playback data of the in-leave blocks I2 and I6, the buffer memory size can be reduced. Also, the switching of the STC of the AV synchronization control unit 158 in FIG. 30 can be performed stably without the buffer overflow by using the STC of the interleaved blocks I2 and I6 as a reference. There is.
  • the data of the Odd Fsi identifier 199 and the Odd First identifier 202 obtained by converting the Even First are reproduced.
  • step 203 it is checked whether or not the signal is a progressive signal reproduction. If Yes, the Odd First identifier of the second video signal is changed to Even First identifier 200a in step 204, and the interlace conversion section of the MPEG decoder 7 lb Send to If No, do not change the identifier.
  • 1st Race Converter 7 lb Since the line fields are output first from the image, the Even First image is output.
  • the synthesizing section 90 synthesizes the Even First image of the second video signal with the Odd First image of the first video signal, and outputs a normal progressive image.
  • the head of all interleaved blocks is set to Odd First, and there is an effect that seamless multi-angle video can be reproduced without any problem on a DVD standard playback device.
  • the beginning of each leave block is limited to Odd First, so there is no need to insert a dummy field, and this has the effect of not lowering the recording efficiency. .
  • the first video signal is normally reproduced even by the existing reproducing apparatus.
  • the existing playback device performs one-to-one race conversion according to the Odd First identifier of the second video signal, the odd and even fields are inverted, and a hard-to-view video with reduced resolution is output.
  • the information for restricting the reproduction of the second video signal within the DVD standard is recorded on the optical disc 85 by the second video signal output restriction information adding unit described in FIG. If it is recorded, the second video signal is not reproduced by the existing reproducing device, so that it is possible to avoid a situation in which the user shows an unpleasant video.
  • the AV synchronization control unit is one of the most important parts in the present invention. Then, it explains in detail.
  • the system control unit 21 determines whether or not the optical disc has been set (inserted) into the DVD player. When the setting is detected, the mechanism control unit and the signal control unit are controlled to control the disk rotation until stable reading is performed, and when it becomes stable, the optical pickup is moved. 28 Read the volume information file shown in 8. Further, the system control unit 21 reproduces the program chain group for the volume menu according to the volume menu management information in the volume information file of FIG. At the time of reproducing the program chain group for the volume menu, the user can specify desired audio data and sub-video data numbers. In addition, the reproduction of the program chain for the volume menu during the reproduction time of the optical disc may be omitted if it is not necessary according to the application of the multimedia data.
  • the system control unit 21 reproduces and displays the title menu program chain according to the title group management information in the volume information file, and manages the file management information of the video file including the title selected based on the user's selection. And branch to the program chain at the beginning of the title. Furthermore, this program chain group is reproduced.
  • FIG. 29 is a flowchart showing a detailed procedure of the reproduction processing of the program chain group by the system control unit 21.
  • the system control unit 21 reads the corresponding program chain information from the program chain information table of the volume information file or the video file. Is read.
  • step 235d if the program chain has not ended, go to step 235e.
  • step 2 35 e refer to the seamless connection instruction information of the cell to be transferred next in the e-program chain information, and check that the connection between the cell and the immediately preceding cell is seamless. It is determined whether or not a wireless connection should be made. If seamless connection is necessary, the process proceeds to the seamless connection process in step 235f. If seamless connection is not required, the process proceeds to a connection process for connection.
  • step 235f the mechanism control unit, the signal processing unit, and the like are controlled to read the DSI bucket, and the V ⁇ B reproduction end time (V ⁇ B—E) existing in the DSI packet of the cell to which the data was previously transferred. Read the lost VOB playback start time (VOB-S-PTM) in the DSI packet of the cell to be transferred next.
  • V ⁇ B—E V ⁇ B reproduction end time
  • VOB-S-PTM lost VOB playback start time
  • step 235h “VOB playback end time (VOB-E-PTM) -V ⁇ B playback start time (VOB-S-PTM)” is calculated, and this is calculated between the relevant cell and the cell that has just been transferred. It is transferred to the STC offset synthesizing section 164 in the AV synchronization control section 158 in FIG. 30 as the STC offset.
  • step 235i the VOB playback end time (VOB-E-PTM) is transferred to the STC switching timing control section 166 as the switching time T4 of the STC switching switch 162e.
  • step 235j the data of the relevant cell is transferred to the track buffer 23 in step 235j, and the program chain information is read out in step 235c as soon as the transfer is completed.
  • step 235e If it is determined in step 235e that the connection is not a seamless connection, the transfer to the track buffer 23 is performed to the end of the system stream, and the process proceeds to step 235c to read out the program chain information.
  • the system decoder 161, audio decoder 160, video decoders 69c and 69d, and sub-picture decoder 159 in Fig. 39 are all supplied from the AV synchronization control unit in Fig. 30. Synchronize with the obtained system time clock, and perform processing in the system stream.
  • the AV synchronization control section 158 will be described with reference to FIG.
  • the AV synchronization control section includes STC switching switches 162a, 162b, 162c, 162d, STC 163, STC offset synthesis section 164, and STC setting section.
  • an STC switching timing control unit 166 an STC switching timing control unit 166.
  • STC switching units 162a, 162b, 162c, 162d, and 162e are standards to be given to the system decoder 161, audio decoder 160, main video decoder 69c, sub-video decoder 69d, and sub-video decoder 159, respectively.
  • the output value of the STC 163 and the output value of the STC offset synthesizer 164 are switched as a clock.
  • STC 163 is the reference clock of the entire MPEG decoder in FIG. 39 in normal playback.
  • the STC offset synthesizing unit 164 outputs a value obtained by subtracting the STC offset value given from the system control from the value of the STC 163.
  • the five-figure setting unit 165 stores the STC initial value or S T given from the system control unit.
  • the STC offset combined value provided from the C offset combining unit 164 is set in the STC 163 at the timing provided from the STC switching timing control unit 166.
  • the STC switching timing control unit 166 determines the STC switching unit switches 162a to l6 based on the STC switching timing information given from the system control unit and the STC offset combined value given from the STC 163 and the STC offset combining unit 164. 26 and 5 control settings 165.
  • the STC offset value is the offset value used to change the STC value when connecting the system stream # 1 and the system stream # 2 having different initial STC values for continuous playback. is there.
  • V ⁇ B playback start time V ⁇ B playback start time (VOB_S—PTM)” described in the DSI of stream # 2.
  • the information of these display times is calculated in advance by the system control section 167 reading out the data read from the optical disc in FIG.
  • the calculated offset value is provided to the STC offset combining section 164 before the last pack of the system stream # 1 is input to the system decoder 161.
  • the data decoding processing unit 165 in FIG. 5 operates as an MPEG decoder except when performing seamless connection control.
  • the STC offset given from the system control unit 167 is 0 or an arbitrary value, and the STC switch 162a to 162e in FIG. 30 always selects the STC 163 side.
  • the system control unit 167 calculates the value of the STC offset by the method described above, and uses this value until the last pack of the system stream # 1 is input to the decoder buffer.
  • the STC offset synthesizing unit 164 continues to output the value of the STC 163 or the subtraction value of the STC offset value (step 168a).
  • the STC switching timing controller 166 is the system stream that is played first.
  • the time T1 at which the last pack in 1 is input to the decoder buffer is obtained, and at time ⁇ 1, the STC switch 162a is switched to the output side of the STC offset synthesizer 164 (step 168b).
  • the output of the STC offset synthesizing unit 164 is given to the STC value referred to by the system decoder 161, and the transfer timing of the system stream # 2 to the system decoder 161 is determined by the system stream. Determined by the SCR described in the # 2 pack header.
  • the STC switching timing control unit 166 obtains the time T2 at which the reproduction of the last audio frame of the previously reproduced system stream # 1 ends, and at the time T2, switches the STC switching switch 162b. Switch to the output side of STC offset synthesizer 164 (step 168c). A method for obtaining the time T2 will be described later. Thereafter, the output of the STC offset synthesizing unit 164 is given to the S-C value referred to by the audio decoder 160, and the audio output of the system stream # 2 is synchronized during the audio bucket of the system stream # 2. Is determined by the AP TS described in.
  • the STC switching timing control section 166 obtains times T3 and T'3 at which decoding of the last video frame of the main signal and the sub-signal of the system stream 1 to be reproduced earlier is completed. , T'3, the STC switching switch 162 162d is switched to the output side of the STC offset combining section 164 (step 168d). A method for obtaining the time T3 will be described later. After that, video decoder 69c,
  • the output of the STC offset synthesizing unit 164 is given to the STC value referred to by 69d, and the timing of video decoding of the system stream # 2 is determined by the VP TS described in the video packet of the system stream # 2. Is determined by Next, the STC switching timing control unit 166 obtains a time T4 at which the reproduction output of the last video frame of the system stream # 1 to be reproduced first ends, and at time T4, sets the STC switching switch 162e to the STC offset combining unit. Switch to 1 64 output side (Step 1 68e). A method for obtaining the time T4 will be described later.
  • the output of the STC offset synthesizing unit 164 is given to the STC value referred to by the video output switching switch 169 and the sub-picture decoder 159, and the timing of the video output and the sub-picture output of the system stream # 2 Is determined by the VPTS and SPTS described in the video bucket and sub-picture bucket of system stream # 2.
  • the five setting units 165 set the value given from the STC offset synthesizing unit 164 to the STC 162 (step 1). 68 ⁇ (this is referred to as reloading of STC 163), and all switches in steps 1 62a to 1 62e are switched to the STC 1 63 side (step 1 68g).
  • the output of the STC 163 is given to the STC value referred to by the audio decoder 160 and the video decoders 69d and 69c.
  • the video output switch 169 and the sub-picture decoder 159, and the operation returns to the normal operation.
  • the time ⁇ 1 to 4 can be easily calculated at the time of stream creation, information representing the time ⁇ 1 to 4 is described in advance on a disk, and the system This is a method of reading and transmitting it to the STC switching timing control unit 166.
  • the "VOB playback end time (VOB-E-PTM)" recorded in the DSI which is used when obtaining the STC offset, can be used as it is.
  • the value recorded at this time is described based on the value of the STC used in the system stream # 1 reproduced earlier, and the STC switching timing control unit 166 determines that the value to be counted up by the STC 163 is the time.
  • the switch STC switch 162a to 162e is switched at the moment T1 to T4.
  • the second means is to read from the timing at which the first data of the system stream ft2 is written to the track buffer 23, the video decoder buffers 171, 171a and the audio decoder buffer 172, and to the read timing. Is a way to get
  • Track buffer 23 Assuming that the ring buffer is composed of a write pointer, a read pointer, and data memory, specifically, the system control unit 21 determines the address indicated by the write pointer in the track buffer 23. The address pointed to by the write pointer and the address pointed to by the read pointer when the target pack is written are detected from the address pointed to by the read pointer.
  • the system control unit 21 specifies the head address of the system stream # 2 on the optical disc when reading from the system stream # 1 to the reproduction of the system stream # 2. Know the moment when the first data of Ream # 2 is stored in the track buffer 23. Next, the address at which the first pack of the system stream # 2 has been written is marked, and the instant at which reading of the immediately preceding pack is completed is defined as T1, whereby time T1 is obtained.
  • the system controller 21 notifies the video decoders 69c and 69d and the audio decoder 160 at the moment of obtaining T1, so that the video decoders 69c and 69d and the audio decoder 16 0 indicates that the first packet of video buffer 17 1 and audio buffer 17 2 in system stream # 2 will be transferred in the subsequent transfer.
  • the two video decoders 69 c and 69 d and the audio decoder 160 can be connected to the system stream # 1. Get the moment the last bucket is transferred, get T2, T3.
  • T1 detection of T1 is video decoder buffer 1 ⁇ 1 or audio decoder If all data has been read from buffer 172 (immediately after the last frame of system stream it1 has been decoded) and the data to be written has not yet arrived (the transfer time between packs is not sufficient. ), Address management cannot be performed because there is no data to write. However, also in this case, the packet of the next frame to be decoded is surely transferred before the next decode timing (the decode timing of the first frame of the system stream # 2). By setting 2 or T3, the switching timing can be known.
  • the "display end time (VOB-E-PTM) of the last frame of the video of the system stream # 1" described in the DSI packet may be used as it is.
  • FIG. 31 is a diagram showing how the system stream is reproduced and output at the respective timings after the system stream is input to the data decoding processing unit in FIG. 38, passes through the decoder buffer and the decoding process.
  • Fig. 31 we explain the changes in the values of APT S and VP TS at the point where the system stream H1 and system stream # 2 are connected, and the seamless connection part in the actual stream processing operation. The method of AV synchronization control in the PC will be described.
  • the timing for starting the seamless connection control is obtained from the SCR graph in Fig. 31 (3).
  • the period during which the SCR value in this graph continues to increase is the period during which data is transferred from the system stream # 1 track buffer 23 (Fig. 5) to the data decoding processor 16 (Fig. 5).
  • the value of SCR is “0” only at point G, where the transfer of system stream It 1 has been completed and the transfer of system stream # 2 has started. Therefore, by determining the G point where the value of SCR becomes “0”, a new system It is found that the stream # 2 has been input to the data decryption processing unit 16, and at this time (time Tg), the synchronization mechanism control unit may cancel the AV synchronization mechanism of the reproduction output unit by $ FF (cancel).
  • the detection that the value of the SCR is “0” can be detected after signal processing of a signal read from the optical disk or when writing to the track buffer 23.
  • the AV synchronization mechanism may be turned off based on the detection at this point.
  • the period during which the AV synchronization mechanism is It can be even shorter.
  • both TS and VP TS of the video output data is monitored, and as soon as one of these values is detected, the one that decreases first is immediately detected.
  • the mechanism should be OFF.
  • the maximum values of the initial values of APTS and VPTS are determined as follows.
  • the initial values of APTS and VPTS are based on the time required to store video data and audio data in the video buffer and audio buffer, respectively, and the video decoder (MPEG video has the same decoding and display order as the picture). (The display is delayed by up to one picture with respect to decoding.) Therefore, the sum of the time required for the video buffer and audio buffer to become full and the delay of the display by the video Rioder (one frame) is the maximum value of the initial values of the APTS and VPTS.
  • the method of determining whether the values of APTS and VPTS are increasing has been described as the criterion for determining the timing of turning on the AV synchronization mechanism after connecting the system stream.
  • Such a threshold determination can also be realized.
  • an audio threshold and a video threshold shown in graphs (4) and (5) of FIG. 31 are determined in advance on the reproducing apparatus side. These values are equal to the maximum initial values of the APTS and VPTS values in the system stream, and are the same as the maximum values described above.
  • FIG. 98 illustrates in detail the operation of the synthesizing section of the reproducing apparatus of FIG. 21 and the separation operation of the recording apparatus of FIG.
  • FIG. 98 (a) is a detailed explanation of FIG. 23.
  • the (A + B) ⁇ 2 operation is performed by the 1-separation operation unit 141 to obtain a low-frequency component M and obtain the q-line data 279 of the first stream.
  • lines 1, 3, and 5 are created in the Pth field, and in the PH field, the q-th line is processed, that is, lines 2, 4, and 6 are calculated for each line.
  • the thus-obtained one-night race signal is encoded by the first encoder 82a.
  • the second separation operation unit 143 performs the operation of AB. Negative values are not defined in the DVD standard. To make it compatible with the previous standard, a constant 257 is added to (A-B) ⁇ 2 so that it does not become negative. In the case of 8bit, 1 28 is added as a constant 277.
  • the calculation result is S, that is, an in-line signal is generated as the data 280 of the q-th line, encoded by the second encoder 82b, and recorded on the disk by the MADM in-line.
  • FIG. 98 (a) the disc 85 multiplexed and recorded by the MADM method of the present invention is separated into a separation unit 87, a first stream and a second stream, and two video signals are obtained by decoders 88a and 88b.
  • This signal is an interlace signal
  • the first line is a top line first (hereinafter referred to as TF) signal starting from an odd line.
  • Fig. 98, Fig. 21 and Fig. 23 can be separated and synthesized by only one adder and one subtractor of 8bit or l Ob it for the operation, so that a simple configuration is sufficient and the cost is almost nil. High resolution video of a progressive-wide video signal can be obtained without rising.
  • Negative numbers can be reproduced simply by adding the constants 278a and 278b to the A-B signal, so that the conventional decoders 279 and 280 that cannot handle negative numbers can be used.
  • the first line of the first field starts with an odd line, that is, the top line first (TF for short). If it is not the first (TF), frames will be dropped.
  • TF top line first
  • FIG. 96 shows the overall operation of the playback device of FIG. 98 (b).
  • the separation unit 87 separates the playback signal in nGOP units to create a first stream and a second stream.
  • 1 operation unit 250, 2nd operation unit 251, top line first signal 244 and bottom line first signal A signal 245 is generated, and an analog signal such as 525P is output by the DA converter 266.
  • Figure 96 shows a case where two field screens with the same time stamp are combined vertically.
  • the horizontal resolution can be doubled.
  • Fig. 58, Fig. 59, and Fig. 60 show the recording device and the playback device using the wide image synthesizing unit 173 in Fig. 20.
  • Fig. 91 and Fig. 92 show the principle of the separation unit of the recording device and the reproduction device. The principle of the wide image synthesizing unit 173 will be described in detail.
  • the luminance signals ⁇ and ⁇ of the input pixel signals 287a and 287b of the horizontal pixel 1440 are obtained by the separation operation unit 285 of FIG.
  • the first separation operation unit 141a and the second separation operation unit 143a perform addition and subtraction, respectively, and the luminance signal of the first stream (Y0 + YD / 2) becomes (Y0-Yl) / 2 of the second stream.
  • a luminance signal is generated, and the input signal of horizontal 1440 pixels is divided into two video signals of horizontal 720 pixels.Because the first stream passes through the horizontal filter, the high frequency components are removed.
  • the conventional device has the compatibility that no aliasing distortion occurs even if only the first trim is output to the screen Figure 92 shows the processing of the color signal, and the input pixel signal 287a and the input pixel signal 287c
  • the sum signal (Cb0 + Cb2) / 2 of CbO and Cb2 is used as the separated pixel signal 290a of the first stream, and the difference signal
  • the signal (CrO-Cb2) / 2 is obtained as the separated pixel signal 291a of the second stream, and similarly (CrO + Cr2) / 2 and (CrO-Cr2) / 2 from the input pixel signals 287b and 287d.
  • the high resolution signal of 1440 horizontal pixels is separated into two digital video signals of CCIR601 and NTSC grade of SMPTE259M standard. it can.
  • the first arithmetic unit 250 adds the separated pixel signals 288b and 289d of the first and second streams, and obtains ( ⁇ 6 + ⁇ 7) / 2 + ( ⁇ -Y + 256) / 2 -1 282 Perform Y6 operation to obtain ⁇ 6 and restore 287g of input pixels.
  • the two signals of horizontal 720 pixels are used to calculate 1440 horizontal pixels using a sum operator and a difference operator. High resolution signals can be obtained.
  • the same operation is performed on the separated pixel signals 290c and 291c to obtain Cr4 and Cr6 and assign them to the input pixel signals 287e and 287g.
  • the luminance signal and the color signal of the input signal are completely combined, and a high-resolution video signal of 1440 horizontal pixels is obtained.
  • This video reproduces a horizontal 1440 pixel in-night race signal in a 2x speed playback device, but performs a 3-2 conversion in the playback device described in Fig. 62, and outputs a 24-frame signal like a movie.
  • a progressive video signal of 60 frames is obtained by repeatedly outputting 24 frames by the frame memory a plurality of times.
  • the horizontal resolution is doubled to 1440 pixels in the wide image synthesizing unit 173, a wide 525P image 178 is obtained, and a 1440 X 480P progressive image is output.
  • Fig. 97 the operation when playing a MADM disc in which a progressive 60-frame no-second image is divided into two frames of odd-numbered frames 294 and even-numbered frames 295 is described.
  • the operations of the separation unit 87 and the decoding unit 88 are the same as those in FIG.
  • the time direction combining unit 296 combines the first field 297a and the second field 297b of the first stream to create a first odd frame 294a,
  • the first field 298a and the second field 298b of the second stream are combined to create a first even frame 295a.
  • the buffer amount necessary for the reproduction of the MADM method of the present invention is calculated.
  • the calculated value as shown in Fig. 87 is obtained as the capacity of one in-vehicle leave unit. It is the length of the unit required to perform track jumps of 5000 and 10,000 sectors for each transfer rate. The transfer rate of 8 Mbps is the maximum, and 1000 000 sectors are the maximum length of the jump.
  • the unit can stably track and switch to another unit of another stream with a 1x speed drive.
  • a drive faster than 1x speed is used, so 551 sectors are not necessary, but in the worst case, the disk manufacturer records more than 551 sectors in an 8Mbps stream. I do. Therefore, in the case of the MADM system of the present invention, a buffer memory for one interleave unit is required as shown in FIG. In other words, by setting a buffer memory of 551 sectors or 1102 bytes or more, simultaneous playback of two streams can be stably performed.
  • FIGS 93, 94, and 95 illustrate the method of maintaining operation compatibility by changing the operation of the conventional machine and the operation of the device of the present invention.
  • FIG. 95 (a) shows the operation when the MADM-type disc of the present invention is reproduced by the conventional device
  • FIG. 95 (b) shows the operation when the MADM-type disc is reproduced by the MADM-type reproducing apparatus. .
  • a plurality of, in the figure, four streams are divided and recorded on the optical disc la. Therefore, four in-leave units 84a, 84b, 84c, and 84d having the same time information of the n-th time are sequentially recorded on the optical disk la. Separately, both the first reproduction information 300 for reproducing streams 1 and 3 and the second reproduction information 301 for reproducing streams 1, 2, 3, and 4 are stored on the optical disk la. A second reproduction information identifier 302 indicating that the information is recorded above is recorded.
  • the existing reproduction apparatus does not consider reproduction of the MADM method, and cannot reproduce the second reproduction information identifier 302, so that the second reproduction information 301 cannot be effectively read or used. Therefore, conventionally, it operates as if only two streams of the first and third streams are recorded, and the second and fourth streams cannot be reproduced at all.
  • a stereoscopic signal is recorded by MADM, for example, only the left eye is reproduced, so that when the stereoscopic display is not performed, the meaningless right-eye image is prevented from being displayed.
  • the basic components for example, NTSC are recorded in the first and third streams.
  • Differential signals that is, line drawings without color are recorded in the second and fourth streams, but since the second and fourth streams are not substantially reproduced in the conventional device, these are meaningless and unpleasant.
  • the user is prevented from seeing a proper image.
  • the MADM disc is played back with the conventional playback device, the normal video signals of the first and third streams are played back, and at the same time, the unusual video of the second and fourth streams are not played back. Sexuality is realized.
  • This operation is explained using a flowchart. I will tell. As shown in the flowchart of FIG. 93, in step 303a, the MADM m-stream disc is reproduced.
  • the first reproduction information 300a since the first reproduction information 300a records the pointer information on the streams 1 and 3, that is, the first address of the next evening unit 84e to jump to, the address information is used as shown in FIG. Since a track jump of several tracks is performed and the head address of the interleave block 84e having the time information next to the first stream can be accessed, the first stream can be continuously reproduced one after another.
  • step 303c an identifier indicating the existence of the PCI table in the case of the DVD standard of the second reproduction information 301 is checked in step 303c.
  • the process proceeds to step 303d.
  • the DSI table which is the first playback information, is used.
  • the first playback information 300 includes only the first and third stream's boyne information, so in step 303f, a track jump is performed based on the pointer information of the first and third streams, and Continue the continuous playback mode of the stream. Alternatively, switch from the first stream to the third stream, and perform step-like continuous playback of the third stream again.
  • the reproduction is limited to the reproduction of the third stream of the first stream, the normal NTSC image is output, and the output of the second and fourth unusual unpleasant and unnecessary images is restricted. Therefore, complete compatibility is realized.
  • the interleave unit 84a has the next time of the first, second, third, and fourth streams.
  • Information leave unit 84e The first address information is recorded. Therefore, among the four streams, the physical address of the interleave units 84e, 84f, 8, 84h, etc. of the arbitrary stream is Track jump, you can easily jump tracks. This is because the MADM playback device plays back the second playback information identifier 302, knows the existence of the second playback information, and uses the second playback information 301.
  • the second reproduction information identifier 302 only needs to be able to distinguish between the conventional disc and the MADM disc, and may be at least Ibit. It may be a MADM identifier that indicates the presence of a high-resolution signal or a three-dimensional signal.
  • step 304a the MADM disc is reproduced.
  • step 304b the second reproduction information identifier 302 or the high-resolution Z-dimensional identifier of the MADM is checked. If No, the disc is determined to be a conventional disc, and the process proceeds to step 304h. move on.
  • step 304c check the identifier of the in-leaving unit 84, if there is an identifier indicating the existence of the second playback information, if it is a DVD, if there is a seamless identifier, and if there is a non-seamless identifier, in step 304d,
  • the identifier and the PCI, which is a non-seamless table, that is, the second playback information that is not originally valid, are regarded as valid.
  • step 304e link information of the first, third, and fourth streams is extracted from the second reproduction information.
  • step 304f the main stream of the stream that can be switched from the first playback information or the DSI table for DVD is detected.
  • the first and third streams are the main streams. That is, since the first reproduction information contains the main stream information and the second reproduction information contains the main and sub stream information, there is an effect that the main and sub can be distinguished from both.
  • the number of stream groups (angles) can be found to be 2 by checking the second playback information.
  • step 304g when a stream (angle) switch command is received, in step 304m, when switching from the first stream to the third stream, the first stream using the pointer information of the second stream of the second playback information, 2nd stream 2nd stream Switch from the simultaneous playback mode (A) to the simultaneous playback mode (B) for the third and fourth streams.
  • the stepping stone access of the interleave units 84a, 84b, 84e, and 84f is switched to the stepping stone access of the interleave units 84c, 84d, and 84g. In this way, switching between two stream groups in units of two streams becomes possible.
  • step 304h the seamless identifier indicating that the second reproduction information is invalid on the disc is recorded. Therefore, in the conventional disc, in step 304j, the second reproduction information (PCI) is invalid. In step 304k, only the first and third streams are reproduced using only the first reproduction information (DSI).
  • the second playback information which is not valid according to the conventional rules, is called valid, so that it is meaningless or uncomfortable to play the MADM disk with the conventional device. Since such video is not output, compatibility is improved.
  • the operation of the two-screen combining unit 28 described in FIG. 5 will be described in detail with reference to FIG. Actually, there are n screens, but in the text it is expressed as two screens.
  • the four images of the first image (A), the second image (B), the first sub-picture, and the second sub-picture of the first and second streams are input to the ⁇ -screen combining unit 28b in FIG.
  • the ⁇ -screen combining unit 28b For a simple configuration, it has a line memory 28c.
  • the first image 28p of A and the second image 28q of B are line-synthesized by the line memory 28c, a two-screen horizontally arranged image such as a mode is obtained.
  • the audio signals (A) and (B) of the first and second streams are synthesized by the audio mixer 28, and only the audio of A is output in the mode 1L.
  • the first sub-picture which is the sub-picture of the first stream, is synthesized on the screen.
  • the display can be enlarged.
  • the second audio B is mixed and output to the speaker on the right side of the screen. This has the effect that the second sound 28s of the second video B can be heard with a small sound.
  • the frame memory 28d as a more advanced configuration, a two-screen zoom System is possible.
  • the zoom signal generating unit 28e Upon receiving the zoom instruction signal 28p, the zoom signal generating unit 28e sends the n-screen combining unit 28b and the audio mixer 28 a signal change signal. As shown in the two-screen image 28i in mode 1, when the first video (A) is enlarged, the sound of the first audio is used, and in the opposite case, the second audio is output as in the two-screen video 28j. . By changing the ratio between the video signal and the audio signal of the first stream and the second stream in this way, matching between the video and the audio can be achieved.
  • the images of the third to sixth streams may be divided and displayed in the frame memory as in the two-screen image 28D1.
  • two streams are played back simultaneously, two video signals are output, and two screen synthesizing units 28 and 28b and a sound mixer 28 are used to perform screen synthesis and audio synthesis, thereby providing two streams.
  • Streams For example, images taken by two cameras can be viewed simultaneously on two screens.
  • a video signal is separated into a low band and a high band by a video separation unit 141a shown in FIG.
  • This separation filter can be represented as shown in Figure 46.
  • the boundary separation frequency can be changed.
  • the separation frequency is changed to 200 lines, 250 lines, and 300 lines, and each file identifier 144 is recorded on the optical disc, so that the file identifier of the reproducing apparatus shown in Fig. 96 can be reproduced.
  • the detection value is detected by the reproduction unit 305, and the set values of the operation parameters nl, ⁇ 2, ⁇ 3, and ⁇ 4 of the operation unit 212a are changed from the operation parameter overnight output unit 306 of FIG. 96 according to the filter identifier of FIG.
  • the calculation unit 21 2a of the synthesis unit 90 performs the calculation in response to the set value, and calculates nl, n2, n3, and n4 on the n-1 lines, n lines, n + 1 lines, and n + 2 lines of the vertical lines. Performs an arithmetic operation based on the parameters 196a and restores the n-line signal. This process is actually May be performed inside the first arithmetic unit 250 and the second arithmetic unit 251.
  • the separation frequency value of the video separation filter By changing the separation frequency value of the video separation filter, the distribution of the data amount of the first stream and the second stream can be changed.
  • the first and second streams each have a maximum capacity of 8 Mbps. If the separation frequency value is fixed, the image of the second stream overflows for an image with many high-frequency components, and the high-frequency MPEG encoded signal breaks down. On the other hand, in images with many low-frequency components, the first stream overflows and breaks down during encoding, resulting in extremely poor images.
  • increasing the separation frequency in Fig. 50 to 300 reduces the data amount of the second stream, increases the data amount of the first stream, optimizes the allocation, and performs encoding. Can be avoided.
  • the separation frequency If there are many low-frequency components, reducing the separation frequency to 200 lines will conversely reduce the amount of data in the first stream and prevent breakdown. This is usually the case and is effective.
  • the boundary value of the separation filter By changing the boundary value of the separation filter according to the state of the video in this way, it is possible to prevent the breakdown of the encoding of one of the streams, so that a beautiful video signal can be reproduced.
  • the separation point can be changed to prevent overflow of either the first stream or the second stream, so that recording and playback with a well-balanced distribution can be performed.
  • the scanning line converter 29a described in FIG. 5 will be specifically described.
  • an area for recording high-resolution signals such as progressive and an area for recording standard-resolution signals such as NTSC are mixed.
  • the simultaneous playback of two streams and the single playback of one stream are mixed, and the output is changed from progressive to NTSC, or to NTSC and progressive.
  • the scanning frequency is changed from 31.5 kHz to 15.7 kHz, so that the deflection frequency of the TV 29c is switched, and the image is disturbed for several seconds. Even on a TV with a built-in liner, the image is disturbed during switching from progressive video to NTSC video.
  • the scanning line conversion unit 29a switches between double-speed scanning of the NTSC video of the first stream and output of the progressive signal as it is.
  • the output section 29b automatically switches between the progressive signal and the double-speed converted signal of NTSC video. Then, when switching from the high-resolution area for 2-stream playback to the normal-resolution area for 1-stream playback, the output signal switches instantaneously, so that the progressive signal is continuously input to the TV 29c. Therefore, it has the effect of not disturbing the TV screen at all.
  • step 307a the stream switching prohibition flag 309 is recorded on the disk 1c.
  • step 307b stream 1 is set as the initial stream value in the management information.
  • step 307a When this disc Ic is played on an existing playback device, the management information of the angle 1, that is, stream 1, is read out at step 307a, and playback of angle 1 is started at step 307f.
  • step 307g When an angle switching command is input in step 307g, an angle (stream) switching prohibition flag is checked in step 307h.
  • the angle (stream) is not switched in step 307i because of the flag. For this reason, the output of the differential video of the MADM is prevented, and there is an effect that compatibility is maintained. (HDTV (1080i) output)
  • This section describes how to create 1080i video to be output to an HDTV TV.
  • FIG. 20 as shown in the scope screen 178, a wide image is output. This output is converted to 1050 progressive images by the liner 29b, and further converted to 1050 interlaced images by the interlace converter 175b. In other words, approximately 1080 in-one evening video 178b can be obtained. In this way, HDTV can be output to TV. (High quality audio output)
  • high-quality audio is reproduced, but in the case of linear PCM, a bandwidth of 1.5 Mbps to 4 Mbps is required.
  • MADM as shown in Fig. 88, the basic audio section 312 is recorded in stream 1 with 380kbps AC3, and the high-quality audio section 313 is in stream 3.
  • a voice recording identifier 314 is recorded as an MADM identifier.
  • the audio recording identifier reproducing section 31 1 reproduces the audio recording identifier 314, in the figure, the audio signal is separated from the stream 2 and the high-definition audio is reproduced by the audio decoder 160a. Output as output.
  • the MADM disc has an MADM identifier recorded in management information such as a file.
  • management information such as a file.
  • the same data as the MADM identifier will be accidentally recorded and recorded in the TXT file. If the disc is judged to be a MADM disc and played back, it will malfunction and an abnormal image will be synthesized and output. In order to prevent this malfunction, the present invention uses a method of recording the authentication data for verification.
  • an authentication data generation unit 315 is provided to generate authentication data of the MADM identifier 10b and disc attribute information 316 unique to the disc (master) such as the disc title, disc ID, disc capacity, and final address value. Computation is performed by the computation unit 317 and the MADM authentication data An evening 318 is generated and recorded on the optical disc 1 together with the MADM identifier 10b and the authentication data 318 or the progressive configuration information.
  • optical disk 1 is reproduced by the reproducing apparatus shown in FIG. 5 and collated by the MADM identifier collating unit 26a.
  • the identifier matching unit 26a reads the MADM identifier 10b, MADM authentication data 318, and disk attribute information 316 such as title, disk number, capacity, address, etc., from the optical disk 1, and compares these three data.
  • the matching is performed by the unit 319, and the MADM reproducing unit 321 sends an MADM reproduction command to the control unit 21 only when the result is correct by the determining unit 320, and combines the two streams to output a high-resolution pressure image or a stereoscopic image. If the judgment result is not correct in the judging section 320, the normal reproduction section 322 sends an instruction to perform normal reproduction without performing MADM reproduction.
  • the MADM playback device performs verification using the authentication data, so that malfunction is prevented beforehand.
  • the authentication data and the MADM identifier may be combined into one data, or data obtained by encrypting the MADM identifier and the disk attribute information using encryption may be recorded.
  • the MADM system of the present invention can reproduce a plurality of streams simultaneously, and the synchronization system is important.
  • Embodiments 2 to 8 describe various synchronization methods. As an application, it can be used for recording and reproduction of high-resolution video such as the three-dimensional and 5255P described in the first embodiment, but is omitted in the embodiments.
  • FIG. 66 shows a data structure on an optical disk used in the optical disk reproducing apparatus according to the second embodiment.
  • the three video signals, video signal A, video signal B, and video signal C, are each subjected to MPEG compression to obtain a compressed video stream A, a compressed video stream B, and a compressed video stream C.
  • Each compressed video stream A to C is packetized as a video bucket every 2 KB.
  • a stream ID for identifying whether the stored data is one of the compressed video streams A to C, and the beginning of the video frame in the packet are stored.
  • VPTS Video Presentation Time Stamp
  • NTSC video is used as each video signal, and the video frame period is approximately 33 ms ec.
  • the video buckets created as described above are stored. Each time, the compressed video signal A_1, the compressed video signal B-1 and the compressed video signal C-1 are stored in an appropriate number of video buckets. And are multiplexed and recorded.
  • FIG. 64 is a block diagram of the optical disk reproducing apparatus according to the second embodiment.
  • reference numeral 501 denotes the optical disk described above
  • reference numeral 502 denotes an optical pickup for reading data from the optical disk 501
  • reference numeral 503 denotes binarization, demodulation, error correction, etc. of a signal read by the optical pickup 502.
  • 504 is a buffer memory for temporarily storing data output from the signal processing unit 503
  • 505 is a device for separating data read from the buffer memory 504 into respective compressed video signals.
  • Reference numeral 506 denotes a reference time signal generation means for generating a reference time signal, which is constituted by a counter for counting a clock of 90 kHz (not shown).
  • 510, 520 and 530 are buffer memories for temporarily storing the respective compressed video signals separated by the separating means 505,
  • 5 1 1, 52 1 and 53 1 are video decoders for expanding and Reference numerals 512, 522, and 532 denote monitors for displaying respective video signals.
  • FIG. 65 shows the configuration of the video decoders 5 1, 5 2 1 and 5 3 1.
  • reference numeral 61 denotes V P stored in the bucket header of the video bucket.
  • VPTS detecting means for detecting TS
  • 602 is video decompressing means for MPEG decompressing the compressed video stream
  • 603 is comparing the reference time signal with VPTS, and reproducing the video if the comparison result exceeds the threshold value Is a video playback timing control means that skips or repeats in frame units.
  • the optical pickup 502 is subjected to focus control and tracking control by servo means (not shown), reads a signal from the optical disk 501, and outputs the signal to the signal processing means 503.
  • the signal processing means 503 performs a series of optical disk signal processing such as binarization processing, demodulation processing, and error correction processing, and stores the digital data in the buffer memory 504.
  • the buffer memory 504 functions so that even if the data read supply from the optical disk 501 is temporarily interrupted due to rotation waiting or the like, the data supply to the subsequent stage is not interrupted.
  • the data read from the buffer memory 504 is separated by the separating means 505 into a compressed video signal A to a compressed video signal C and output.
  • the separating means identifies whether the compressed video stream stored in each bucket is A to C based on the stream ID of the bucket header of the packetized data, and determines the output destination according to the identification result. decide.
  • the separated video compression signals are stored in buffer memories 510 to 530, respectively.
  • Each of the buffer memories 51 0 to 53 30 functions to continuously supply data to the video decoders 51 1 to 53 1.
  • Video decoders 5 1 1 to 5 3 1 are buffer memories 5 1 0 to 5 3 0, respectively. The data is read out from the memory, the compressed video signal is expanded, and output to the monitors 512 to 532 as a video signal.
  • the operation of each of the video decoders 511 to 531 will be described with reference to FIG.
  • the compressed video signal read from the buffer memory is input to the VPTS detection means 601 and the video decompression means 602.
  • the video decompression means 602 performs MPEG decompression processing on the compressed video stream and outputs a video signal.
  • the VPTS detecting means 601 detects and outputs VPTS of the bucket header.
  • the video playback timing control means 603 receives the video signal output from the video decompression means 602, the reference time signal, and the VPTS output from the VPTS detection means 601, and compares the reference time signal with VPTS.
  • the video playback timing is controlled so that the difference between the VP TS and the reference time signal becomes less than or equal to the threshold value when the difference between the VP TS and the reference time signal is exceeded.
  • 33 msec is used as a threshold value for video reproduction.
  • the video decoder 511 and the video decoder 531 decompress the reference time signal due to the accuracy error of the crystal oscillator used in the reference time signal generation means 506 and each of the video decoders 511-531. Since the playback progress is slow and the video decoder 52 1 progresses the expansion playback quickly with respect to the reference time signal, if the playback timing is not corrected, the synchronization of the video signals to be played will be shifted. become.
  • FIG. 67 shows a timing chart of video reproduction in the second embodiment.
  • (A) of Fig. 67 shows the reference time signal with respect to the reproduction time t, and (b) similarly shows the video VPTS # A, which is the VPT S of the compressed video signal A that the decoder 511 expands,
  • (c) shows the VP TS well B which is the VP TS of the video compression signal B decompressed by the video decoder 521, and (d) VPTS # C which is the VP TS of the video compression signal C decompressed by the video decoder 531. Is shown.
  • the video playback timing control means corrects the playback timing so that the difference between VPTS #A and the reference time signal is equal to or less than a threshold value by skipping one frame that should be played back.
  • the video decoder 521 continues the expansion / reproduction operation of the compressed video signal B, and when the reference time signal is at T2, the difference between VPTS #B and the reference time signal exceeds the threshold value—33 msec.
  • the video playback timing control means of the decoder 521 repeats the playback of the frame being played back at that time, thereby correcting the playback timing so that the difference between VPTS # B and the reference time signal is equal to or less than a threshold.
  • the video decoder 531 continues the decompression / reproduction operation of the compressed video signal C. Since the difference between the VPTS # C and the reference time signal exceeds the threshold value of 33 msec at the time of the reference time signal, the video decoder 531 The video reproduction timing control means of the decoder 531 corrects the reproduction timing so that the difference between the VPTS #C and the reference time signal becomes equal to or less than the threshold value by skipping one frame to be originally reproduced.
  • the reference time signal and each video decoder detect
  • Embodiment 3 of the present invention corrects a reference time signal using audio reproduction time information indicating a time at which audio is to be reproduced, and synchronizes a plurality of video signals with the reference time signal.
  • the present invention relates to a reproducing apparatus to be combined.
  • FIG. 70 shows a data structure on an optical disc used in the optical disc reproducing apparatus according to the third embodiment. Compared with the optical disk used in the second embodiment, the optical disk includes compressed audio data.
  • the audio signal is converted into audio frames in units of 32 ms e and compressed to obtain a compressed audio stream, packetized as audio packets every 2 KB, and recorded on an optical disc.
  • a stream ID indicating that the stored data is a compressed audio stream, and if the beginning of the audio frame is stored in the bucket, the audio frame is reproduced.
  • APS Audio Presentation Time Stamp
  • FIG. 68 shows a block configuration diagram of the playback device of the third embodiment.
  • 50 to 532 have the same configuration as that of the optical disk reproducing apparatus shown in FIG. 64 of the second embodiment.
  • 540 is a buffer memory for temporarily storing the compressed audio signal
  • 541 is audio expansion means for expanding the compressed audio signal
  • 542 is a speaker for reproducing the expanded audio signal.
  • FIG. 69 shows a configuration of an audio decoder 541, 701 is an APTS detecting means for detecting an APTS stored in a bucket header of an audio bucket, and 702 is an audio decompressing means for decompressing a compressed audio stream. .
  • the operation up to the input to the separation means 505 is the same as that of the optical disk reproducing apparatus shown in the second embodiment.
  • the data read out from the buffer memory 504 is separated into a compressed video signal A to a compressed video signal C and a compressed audio signal by a separation means 505 and output respectively.
  • the separating means 505 identifies whether each bucket is a compressed video signal A to C or a compressed audio signal based on the stream ID of the bucket header of the packetized data, and according to the identification result. Determine the output destination.
  • the separated compressed video signal and compressed audio signal are temporarily stored in buffer memories 510 to 540, respectively.
  • the video decoders 5 1 1 to 5 3 1 read the data from the buffer memories 5 1 to 5 3 0, respectively, decompress the compressed video signal, and output it to the monitor 5 1 to 5 3 2 as a video signal. I do. Also, the audio decoder 541 reads data from the buffer memory 540, decompresses the compressed audio signal, and outputs it to the speaker 542 as an audio signal.
  • the operation of the video decoders 5 1 1 to 5 3 1 to expand the compressed video signal and the operation of correcting synchronization when the difference between the reference time signal and V PTS exceeds a threshold value are the same as those in the second embodiment.
  • the compressed audio signal read out from the buffer memory 540 is input to the audio decoder 541, and the APSS is detected and output by the APTS detecting means 701.
  • the audio decompression means 702 performs an expansion process on the compressed audio stream and outputs an audio signal.
  • the APTS signal output from the audio decoder 541 is input to the reference time signal generation means 506, and the reference time signal is corrected by the APTS.
  • Figure 71 shows a timing chart for video and audio playback in the third embodiment.
  • A) of FIG. 71 shows the APT S with respect to the reproduction time t
  • (b) shows the reference time signal
  • (c) similarly shows that the video decoder 5 11 expands.
  • FIG. 71 does not show VPTS #C of the compressed video signal C expanded by the video decoder 531, the progress is almost the same as in FIG. 67 of the second embodiment.
  • the reference time signal generation means 506 corrects the APTS using the APTS at the time when the APTS indicates ta1 and ta2, and resets the reference time signal to ta1 and ta2 at each time.
  • the video decoder 5 1 1 continues the expansion / reproduction operation of the compressed video signal A, and when the reference time signal is at T4, the difference between VPTS #A and the reference time signal exceeds the threshold value of 33 msec. 11.
  • the video playback timing control means 11 corrects the playback timing such that the difference between VPT S # A and the reference time signal becomes less than or equal to the ⁇ value by skipping one frame to be originally played back.
  • the video decoder 521 continues the expansion / reproduction operation of the compressed video signal B, and when the reference time signals are T5 and T6, the difference between VPTS #B and the reference time signal is a threshold value of 33 ms ec.
  • the video playback timing control means of the video decoder 52 1 repeats the frame being played back at each point in time, so that the playback timing is adjusted so that the difference between VPTS #B and the reference time signal is less than the threshold. to correct.
  • the correction function of the video playback timing control means of each video decoder operates, and The difference between the signal and each VPTS does not exceed the threshold, and the video signals reproduced by each video decoder can be synchronized with each other. became.
  • the APTS is not corrected using the reference time signal, but the reference time signal is corrected using the APTS. Without this, it became possible to synchronize the playback of audio and the playback of each video.
  • Embodiment 4 of the present invention relates to a playback apparatus that corrects a reference time signal using V PTS detected by one video decoder, and synchronizes a plurality of video signals with the reference time signal.
  • FIG. 72 shows a block configuration diagram of the playback device of the fourth embodiment.
  • FIG. 501 to 53 32 have the same configuration as the optical disc reproducing apparatus shown in the second embodiment, reference numeral 551 denotes a video decoder used in the fourth embodiment.
  • the video decoder 551 has a function of outputting the detected V PTS, and FIG. 73 shows the configuration of the video decoder 551.
  • Reference numeral 8001 denotes a VPTS detecting means for detecting a VPTS indicating the reproduction time of the video signal multiplexed on the compressed video signal
  • reference numeral 802 denotes a video expanding means for expanding the compressed video signal.
  • the reference time signal is advanced by the video decoder 551, due to the accuracy error of the crystal oscillator used in the reference time signal generating means 506 and the video decoders 521, 531, and 51. Synchronization occurs because the progress of decompression playback is slower for the video decoder 521, compared to the reference time signal, and the progress of decompression playback is faster for the video decoder 531, relative to the reference time signal. If the correction of is not performed, the synchronization of the video signals reproduced by each will be shifted.
  • FIG. 74 shows a timing chart of video output in the fourth embodiment.
  • (A) of FIG. 74 is a diagram showing the VPTS # A detected by the video decoder 551, with respect to the reproduction time t.
  • (b) is a diagram showing the reference time signal, and similarly (c). ) Is The time VPTS # B at which the compressed video signal B expanded by the video decoder 521 is to be reproduced is shown.
  • the reference time signal generation means 506 corrects using VPTS #A at the time when VPTS #A indicates tV1 and tV2, and at each time, the reference time signal is regenerated to tV1 and tV2. Is set.
  • the video decoder 521 continues the decompression operation of the compressed video signal B, and when the reference time signal is at T7, the difference between VPTS #B and the reference time signal exceeds the threshold value of 33 ms ec.
  • the video playback timing control means corrects the playback timing so that the difference between VPTS #B and the reference time signal is equal to or less than a threshold value by skipping one frame that should be played back.
  • the video decoder 531 continues the expansion / reproduction operation of the compressed video signal C, and when the reference time signals are T8 and T9, the difference between VPTS # C and the reference time signal exceeds the threshold—33 ms ec. Therefore, the video playback timing control means of the video decoder 531 repeats playback of the frame being played back at each point in time so that the playback timing is adjusted so that the difference between VPTS # C and the reference time signal becomes less than or equal to the ⁇ value. to correct.
  • the correction function of the video playback timing control means of each video decoder operates.
  • the difference between the reference time signal and each VPTS is kept from exceeding the threshold.
  • the video signal reproduced by the video decoder 551 can be visually perceived as being skipped in units of frames or visually accompanied by repeat reproduction. And the playback of each video can be synchronized.
  • Embodiment 5 of the present invention includes a plurality of video decoders for decompressing and reproducing a compressed video signal, and each video decoder includes a reference time signal generating means.
  • the present invention relates to a reproducing apparatus that synchronizes by correcting a reference time signal of each video decoder.
  • the optical disc shown by the data structure in FIG. 70 is used.
  • FIG. 75 shows a block configuration diagram of the optical disc reproducing apparatus according to the fifth embodiment.
  • 50 1-54 2 has the same configuration as that of the optical disk reproducing apparatus shown in FIG. 68 of the third embodiment, and has a reference time signal generating means 50 0 compared to the optical disk reproducing apparatus shown in FIG. 6 is not provided independently, but is provided in each video decoder 561 to 581.
  • Reference numeral 561 denotes a video decoder for expanding and reproducing the compressed video signal A, 571 a video decoder for expanding and reproducing the compressed video signal B, and 581 a video decoder for expanding and reproducing the compressed video signal C.
  • FIG. 76 shows the configuration of video decoders 56 1 to 58 1 used in the fifth embodiment.
  • 910 is VPTS detection means for detecting VPTS indicating the reproduction time of the video signal multiplexed on the compressed video signal
  • 902 is video expansion means for expanding the compressed video signal
  • 903 is the reference time signal.
  • the VPTS is compared, and if the comparison result exceeds the threshold value, the video playback timing control means for skipping or repeating the video playback on a frame-by-frame basis; 904, a reference time signal generation means for generating a reference time signal; is there.
  • the reference time signal of the reference time signal generation means 904 included in the video decoders 56 1 to 58 1 is corrected using the APSS detected by the audio decoder 54 1.
  • the reference time signals generated by the video decoders 56 1 to 58 1 show the same value after the correction.
  • the timing control means performs skip or repeat reproduction in frame units, and corrects the reproduction timing so that the difference is equal to or less than a threshold value.
  • the reference time signal generated inside each video decoder is corrected by the APTS, and the difference between each reference time signal and each VPTS is determined by the video playback timing control means of each video decoder.
  • the video signal reproduced by each video decoder can be synchronized with each other so as not to exceed the threshold value.
  • the reference time signals of the video decoders 561 to 581 are corrected by using the APTS detected by the audio decoder 541.
  • FIG. 7 of the fourth embodiment is applied to one video decoder. By using the one shown in 3 and correcting the reference time signal of another video decoder using the VPTS detected by that video decoder, it becomes possible to synchronize the playback of each video in the same way.
  • Embodiment 6 of the present invention two compressed video signals are reproduced simultaneously.
  • the two compressed video signals are obtained by separating a stereoscopic video signal into a right-eye video signal and a left-eye video signal, respectively. This is a compressed signal.
  • FIG. 77 shows the configuration of one video decoder used in Embodiment 6
  • FIG. 78 shows the configuration of the other video decoder.
  • Figure 77 shows one video decoder
  • 1001 is a VPTS detecting means for detecting the VPTS indicating the playback time of the video signal multiplexed in the compressed video signal
  • 1002 is the input MPEG compressed video signal.
  • Video decompression means for decompressing a video signal
  • 1004 is reference time signal generation means for generating a reference time signal
  • 1003 is reference time signal
  • VPT s is a video playback timing control means that skips or repeats video playback on a frame-by-frame basis when the comparison result exceeds the threshold value, and outputs a horizontal synchronization signal and a vertical synchronization signal of the video to be played back.
  • Figure 78 shows the other video decoder
  • 1101 is VPTS detection means for detecting the VPTS indicating the playback time of the video signal multiplexed in the compressed video signal
  • 1102 is the MPEG-compressed video signal.
  • Means for expanding the video signal 1104 is a reference time signal generating means for generating a reference time signal
  • 1103 compares the reference time signal with VPTS, and the comparison result exceeds a threshold.
  • the video output is skipped or repeated frame by frame, the horizontal and vertical sync signals of the video signal are input, and the expanded video is played in synchronization with the horizontal and vertical sync signals. This is timing control means.
  • Each video decoder uses the horizontal and vertical sync signals output by the video decoder shown in Fig. 77 so that they are connected to the horizontal and vertical sync signals of the video decoder shown in Fig. 78. I have.
  • the reference time signal generated inside each of the right-eye and left-eye video decoders is corrected by the APTS, and each video is decoded.
  • the difference between each reference time signal and each VPTS did not exceed the threshold, and it became possible to synchronize the right-eye and left-eye videos in frame units.
  • the horizontal synchronization signal and vertical synchronization signal generated by one video decoder as the other horizontal synchronization signal and vertical synchronization signal, it is possible to reproduce the two images synchronously in pixel units.
  • a compressed video signal obtained by compressing a video signal obtained by separating a stereoscopic video into right and left eyes, respectively is used as a compressed video signal to be simultaneously reproduced.
  • First and second video signals with a second resolution lower than the first resolution that separates the video signal in the vertical or Z direction and the horizontal direction Separated into at least two or more video signals containing video signals, and compressed video signals can be obtained to obtain multiple video signals synchronized in pixel units as in the case of stereoscopic video. By combining them, it becomes possible to reproduce a clear original video signal of the first resolution.
  • Embodiment 7 relates to an optical disk reproducing apparatus that expands one compressed video signal and two compressed audio signals, respectively, and reproduces them at the same time.
  • FIG. 81 shows the data structure on the optical disk used in the seventh embodiment.
  • the audio signal D and the audio signal E which are two audio signals, are compressed, and the compressed audio stream D and the compressed audio stream E are compressed.
  • the video signal is compressed to obtain a compressed video stream.
  • the compressed video streams D and E and the compressed video stream are packetized as audio packets and video packets every 2 KB.
  • a stream ID for identifying whether the stored data is a compressed audio stream D or E or a compressed video stream, and the above-mentioned APTS and VPTS are recorded.
  • FIG. 79 shows the configuration of the optical disk reproducing apparatus according to the seventh embodiment.
  • the configuration is almost the same as that shown in FIG. 68 of the third embodiment.
  • the audio decoder 541 uses the one shown in FIG. 69, and the video decoder 531 uses the one shown in FIG. 65.
  • the audio decoder 591 the one shown in FIG. 80 is used.
  • Reference numeral 590 denotes a buffer memory for temporarily storing a compressed audio signal as in the case of 540, and 592 denotes a speaker for reproducing the audio signal.
  • FIG. 80 shows the configuration of the audio decoder 591.
  • 1 2 0 1 is an APTS detection means for detecting an APTS indicating a reproduction time of an audio signal multiplexed on a compressed audio signal
  • 1 2 0 2 is an audio expansion means for expanding an input compressed audio signal
  • 1 2 0 3 compares the reference time signal with APTS, and the comparison result is the threshold
  • the audio reproduction timing control means skips or pauses the audio reproduction in audio frame units when the number exceeds the threshold.
  • the operation until the signal read from the optical disk 501 is input to the separation means 505 is the same as in the other embodiments.
  • the data read from the buffer memory 504 is separated into a compressed video signal, a compressed audio signal D, and a compressed audio signal E by a separation means 505 and output.
  • the separating means 505 identifies whether each packet is a compressed video signal or a compressed audio signal D or E based on the stream ID of the bucket header of the packetized data, and determines an output destination according to the identification result. I do.
  • the separated compressed video signal is temporarily stored in the buffer memory 530, the compressed audio signal D is temporarily stored in the buffer memory 540, and the compressed audio signal E is temporarily stored in the buffer memory 590.
  • the video decoder reads out the data from the buffer memory 530, expands the compressed video signal, and outputs it to the monitor 532 as a video signal.
  • the audio decoders 541 and 591 read the data from the buffer memories 540 and 590 respectively, decompress the compressed audio signal, and output them to the speakers 542 and 592 as audio signals.
  • the reference time signal generated by the reference time signal generation means 506 is corrected by APTS #D detected by the audio decoder 541.
  • the APTS # E is detected by the APTS detecting means 1 201, and the compressed audio signal E is expanded by the audio expanding means 1202.
  • the audio reproduction timing control means 1 203 inputs the expanded audio signal output from the audio expansion means 1202, the reference time signal, and the APTS # E output from the APTS detection means 1201, and outputs the reference time signal and the APTS Compare #E, and if the difference between the two exceeds the threshold, control the audio playback evening so that the difference between APTS #E and the reference time signal is less than or equal to the threshold.
  • 32 msec is used as the threshold value of the sound reproduction.
  • the operation of the video decoder 531 to expand the compressed video signal and the operation of correcting the synchronization when the difference between the reference time signal and the VPTS exceeds the threshold value are the same as those in the second embodiment.
  • the audio decoders 541 and 591 expand and reproduce the reference time signal due to the accuracy error of the crystal oscillator used in the reference time signal generating means 506, the video decoder 531, and the audio decoders 541 and 591. If the playback timing is not corrected, the synchronization of the video signals to be reproduced will be out of sync. Will be.
  • FIG. 82 shows a timing chart of video reproduction and audio reproduction according to the seventh embodiment.
  • FIG. 82 (a) shows the AP TS #D with respect to the reproduction time t
  • FIG. 82 (b) shows the reference time signal
  • FIG. 82 (c) shows the audio decoder 59 1 Indicates the time APT S #E at which the compressed audio signal E is to be generated
  • (d) indicates the time VPTS at which the video signal to be expanded by the video decoder 531 is to be reproduced. Is corrected using APTS #D at the time when APTS #D indicates ta 3 and ta 4, and the reference time signal is reset to ta 3 and ta 4 at each time.
  • the audio decoder 59 1 continues the expansion operation of the compressed audio signal E, and when the reference time signal is at T 10, the difference between APTS # E and the reference time signal exceeds the threshold of 32 ms for audio reproduction, so the audio decoder 59 1 Decoder 59 1 Audio playback evening control Means 1 203 3 Power By skipping one audio frame that should be played back, the playback timing is corrected so that the difference between APTS #E and the reference time signal is equal to or smaller than a threshold value.
  • the difference between VPTS and the reference time signal exceeds the 33 value of video reproduction—33 msec.
  • the playback timing is corrected so that the difference between the VPTS and the reference time signal is less than or equal to the threshold value by repeating the playback of the frame being played back at each point in time.
  • the correction function of the audio reproduction timing control means operates.
  • the difference between the reference time signal and APT S #E is kept so as not to exceed the audio reproduction threshold.
  • the difference between the reference time signal and the VPTS is kept so as not to exceed the video playback threshold.
  • the reference time signal is corrected using APT S #D, it has become possible to synchronize the playback of each audio and the playback of video.
  • a method for changing a clock for performing a decompression reproduction operation is used as audio reproduction timing control.
  • Embodiment 8 has the same device configuration and overall operation as Embodiment 7 compared to Embodiment 7. Forced sound playback timing when the difference between the reference time signal and APT S #E exceeds the threshold for sound playback. The operation of the control is different.
  • the sound reproduction timing control used in the eighth embodiment will be described with reference to FIGS. 83 and 84.
  • Fig. 83 shows the operation when the difference between the APT S # E and the reference time signal exceeds the audio playback threshold value of 32 ms ec
  • Fig. 83 (a) shows the reference time signal for the playback time t
  • FIG. 4B shows APTS # E
  • FIG. 4C shows the clock frequency at which the audio decoder 591 performs the expansion reproduction operation. Normal decompression playback operation is performed by the clock f0 which is 384 times the sampling frequency fs of the audio signal.
  • the reference time signal is at T11, the difference between APTS # E and the reference time signal exceeds the audio playback threshold of 32 ms ec, so the audio playback timing control means sets the expansion playback operation clock to f1. Switch.
  • f1 is a clock having a frequency 10% higher than the frequency of f0.
  • the decompression reproduction operation proceeds 10% faster than when the decompression reproduction operation is performed at f0.
  • the time for performing the extension reproduction operation at f1 was set to a period of 32 Oms ec from the point in time when the difference between APTS # E and the reference time signal exceeded the threshold of 32 ms ec, which is the threshold value for sound reproduction. By this operation, the reproduction timing is corrected so that the difference between the APTS #E and the reference time signal is equal to or less than the threshold value for audio reproduction.
  • Fig. 84 shows the operation when the difference between the APT S #E and the reference time signal exceeds the threshold value of the audio reproduction, ie, 32 ms ec
  • Fig. 84 (a) shows the reference time signal for the reproduction time t.
  • FIG. 4B shows the APTS #E
  • FIG. 4C shows the clock frequency at which the audio decoder 591 performs the extension reproduction operation. Since the difference between APTS #E and the reference time signal exceeds the threshold value for audio playback of 32 ms ec when the reference time signal is T12, the audio playback timing control means switches the clock for the extension playback operation to f2.
  • . f2 is a clock having a frequency 10% lower than the frequency of f0.
  • the decompression playback operation proceeds 10% slower than when the decompression playback operation is performed at fO.
  • the extension playback operation time at f2 was set to 320 ms ec from the point when the difference between APTS #E and the reference time signal exceeded the threshold of 132 ms for audio playback. By this operation, the reproduction timing is corrected so that the difference between APSTS # E and the reference time signal is equal to or smaller than the audio reproduction threshold value.
  • the eighth embodiment when the difference between APTS # E and the reference time signal exceeds the threshold value for audio playback, the clock for performing the extension playback operation is changed, and the extension playback operation is performed at a speed higher or lower than normal.
  • the reference time signal and APTS #E The difference is controlled so as to be equal to or less than the threshold value for audio reproduction, and it has become possible to synchronize the reproduction of each audio with the reproduction of video without causing any auditory discomfort.
  • the clock of the expansion / reproduction operation is changed by 10% as compared with the normal case.
  • the timing is controlled more naturally than the auditory sense by making the change width smaller or changing stepwise. Clearly, it is possible.
  • the reference time signal is corrected using APTS #D.
  • the video decoder shown in FIG. 73 is used, and the VPTS output from this video decoder is used to correct the reference time signal. Correction may be performed.
  • the comparison of the reference time signal with VPTS and APTS and the control of the playback time, and the correction of the reference time signal using VPTS and APTS, are performed by, for example, a microcomputer controlling the entire playback device. It may be realized.
  • the basic video signal and the interpolated video signal are each divided into frames of 1 GOP or more, alternately interleaved, and recorded as an interleaved block 54, 55 on an optical disc, thereby achieving progressive (3D).
  • progressive (stereoscopic) video can be obtained by reproducing information of both the odd field (for the right eye) and the even field (for the left eye) right and left in-leave blocks.
  • a disc that records progressive (stereo) video is played back by a playback device that does not support progressive (stereo)
  • only one of the odd-field (right-eye) or even-field (left-eye) in-leave blocks is used.
  • By performing track jump and playback a complete two-dimensional normal image can be obtained.
  • mutual compatibility This has the effect of realizing it.
  • a progressive (three-dimensional) video arrangement information file is provided, and a progressive (three-dimensional) video identifier is recorded on the optical disc. Therefore, since it is easy to determine where the progressive (stereoscopic) video exists, it is possible to progressively convert the two ordinary in-night or one-race signals, and to output two different content images by mistake to the left and right eyes of the stereoscopic television, respectively. This has the effect of preventing failures to be made.
  • the stereoscopic video-compatible playback device uses a two-dimensional pointer to enable continuous playback of stereoscopic video by using the method of the present invention that changes the access procedure only when there is a stereoscopic video identifier. And It is possible to realize a stereoscopic video compatible playback device without changing the two-dimensional format.
  • the reproduction can be performed in synchronization with each other.
  • a reproducing apparatus that uses the horizontal synchronization signal and the vertical synchronization signal of the video generated and output by one video decoder as the horizontal synchronization signal and the vertical synchronization signal of another video decoder, for example, an image obtained by expanding a plurality of compressed video signals
  • synthesizing images to obtain a stereoscopic image or a high-resolution image it is possible to achieve synchronization on a pixel-by-pixel basis and obtain a clear image.
  • a playback device that corrects the reference time signal using the APTS detected by the audio decoder and controls the video output timing so that the VPTS matches the reference time signal does not cause audio problems without causing hearing problems. Synchronous playback of multiple video outputs is possible.
  • a playback device that controls the timing of audio output by changing the decompression operation clock does not generate noise due to audio skip / pause and performs synchronized playback without causing any auditory discomfort. Becomes possible.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Optical Recording Or Reproduction (AREA)

Description

明 細 書 高解像度および立体映像記録用光ディスク、 光ディスク再生装置、 および光ディスク記録装置
技術分野
本発明は立体映像および高画質映像が記録された光ディスクおよび, その光デ イスクの記録再生装置に関する。 背景技術
従来、 立体動画を記録した光ディスクと再生装置としては、 図 1 0に示すよう なものが知られている。 これは、 光ディスク 2 0 1に、 右眼画面を偶数フィ一ル ド領域 2 0 4、 2 0 4 a , 2 0 4 bに、 左眼画面を奇数フィ一ルド領域 2 0 3、 2 0 3 a, 2 0 3 bに、 交互に記録したものである。 この光ディスク 2 0 1を図 1 1に示すような既存の光ディスク再生装置 2 0 5で再生すると T V 2 0 6には、 6 0分の 1秒毎に右眼画像, 左眼画像が交互に現われる。 裸眼では、 右眼と左眼 の画像が 2重になった画像しかみえない。 しかし、 6 0分 1秒毎に右眼と左眼の シャツ夕が切り替わる立体メガネ 2 0 7でみると立体画像がみえる。 図 1 2に示 すように、 M P E G信号の 1 G O Pの中の各イン夕一レース信号に右眼映像と左 眼映像が 1フィールド毎に交互にェンコ一ドされている。
また高画質映像としては 5 2 5 P , 7 2 0 Pと呼ばれるプログレッシブ方式が 検討されている。
まず、 従来方式の第 1の課題を述べる。 従来の立体型光ディスクを標準の再生 装置で再生した場合、 立体画像でない普通の画像つまり 2 D画像は出力されない。 立体光ディスクは立体ディスプレイが接続された再生装置でないと再生できない。 このため、 同じコンテンツの立体光ディスクと 2 D光ディスクの 2種類を制作す る必要があった。 高画質映像も同様である。 つまり従来の立体および高画質光デ イスクは通常映像との互換性がなかった。 次に発明の目的を述べる。 本発明の第 1の目的は互換性をもつ立体および高画質光ディスクおよび再生システムを提供 することにある。
互換性の定義を明確にすると、 丁度、 過去のモノラルレコードとステレオレコ
—ドの関係の互換性である。 つまり本発明の新しい立体光ディスクや高解像度デ イスクは、 既存の D V D等の再生装置では、 モノラルビジョン、 つまり 2 Dや通 常解像度で出力され、 本発明を用いた新しい再生装置ではステレオビジョンつま り立体画像や高解像度映像が出力される。
次に、 第 2の課題として同期方式の課題を述べる。 従来の同期方法は、 各々の 圧縮された映像信号に対する復号条件が整った時に復号を開始するものであり、 再生途中で何らかの要因により同期がずれた場合の補正や、 音声を含めた同期を とることができないと言う課題があった。
本発明は、 再生途中に同期がずれた場合の補正も含めて、 複数の圧縮された映 像信号、 もしくは複数の圧縮された音声信号を同期して再生する再生装置を提供 することを第 2の目的としている。 発明の開示
まず、 この第 1の目的を達成するために以下の手段を備えている。
本発明の光ディスクはまず左右各々 3 0フレームノ秒のフレームレートの 2つ の動画を入力し、 片側の眼もしくはプログレッシブ画像のフィールド成分の画像 データの複数のフレームの画像を 1 G O P以上まとめた画像データ単位を作成し、 この画像データ単位の 1つが、 光ディスクのトラック上に 1回転分以上記録され るようなィン夕リーブブロックを設け、 左右の画像デ一夕単位がィン夕リーブつ まり、 交互に配置されるように記録するとともに、 立体画像や高画質映像の映像 識別子の情報を記録したものである。 この光ディスクを 2 Dの通常の再生用の光ディスク再生装置で再生すると、 通 常の 2 Dの動画が再生される。
本発明の立体画像 ·高画質映像対応型の再生装置は、 光ディスクから画像識別 子情報を再生する手段と、 この情報に基づいて 2 D画像を従来の手順で再生する 手段と, 3 D画像や高画質映像を画像を再生する手段と、 立体画像 ·高画質映像 を出力する手段とを備えたものである。
次に第 2の課題を解決するためには、 以下の手段を備えている。
本発明の再生装置は、 基準時刻信号を生成する基準時刻信号生成手段と、 圧縮 映像ストリームを伸長し、 基準時刻信号と映像再生時刻情報との差に応じて伸長 した映像信号の再生時刻を制御する機能を有する映像伸長再生手段を複数備える ものである。
また、 本発明の他の再生装置は、 基準時刻信号を生成し、 圧縮映像ストリーム を伸長し、 基準時刻信号と映像再生時刻情報との差に応じて伸長した映像信号の 再生時刻を制御する機能を有する映像伸長再生手段を複数備え、 この複数の映像 伸長再生手段の基準時刻信号を同一情報を用いて概略同一時刻に補正するもので ある。
また、 本発明の他の再生装置は、 基準時刻信号を生成する基準時刻信号生成手 段と、 圧縮音声ストリームを伸長し、 基準時刻信号と音声再生時刻情報との差に 応じて伸長した音声信号の再生時刻を制御する機能を有する音声伸長再生手段を 複数備えるものである。
さらに本発明の他の再生装置は、 音声伸長再生手段が伸長再生動作を行うク口 ックの周波数を変化させることにより再生時刻を制御するものである。
図面の簡単な説明
図 1は、 本発明の一実施の形態の記録装置を示すブロック図である。
図 2は、 本発明の一実施の形態の入力信号と記録信号との関係を示すタイムチヤ ート図である。 図 3は、 本発明の一実施の形態の光ディスク上のィン夕リ一ブブロックの配置を 示す光ディスクの上面図である。
図 4は、 本発明の一実施の形態の立体映像配置情報を示す図である。
図 5は、 本発明の一実施の形態の立体映像の再生装置を示す図である。
図 6は、 本発明の一実施の形態の再生装置における記録されている信号と映像出 力信号との関係を示すタイムチャート図である。
図 7は、 本発明の一実施の形態の再生装置の別の方式の M P E Gデコーダを示す ブロック図である。
図 8は、 本発明の一実施の形態の再生装置の 2 D再生時の記録信号と出力信号の 関係を示すタイムチャートである。
図 9は、 本発明の一実施の形態の 2 D型再生装置を示すブロック図である。 図 1 0は、 従来の一実施の形態の立体映像を記録した光ディスクのデータ配置を 示す上面図である。
図 1 1は、 従来の一実施の形態の立体映像を記録した光ディスクを再生する再生 装置のブロック図である。
図 1 2は、 従来の一実施の形態の立体映像型光ディスクを再生した記録信号と映 像出力との関係を示すタイムチヤ一ト図である。
図 1 3は、 本発明の一実施の形態の仮想的な立体映像識別子と R出力、 L出力と の関係を示すタイムチヤ一ト図である。
図 1 4は、 本発明の一実施の形態の通常映像再生モードと立体映像再生モードの f ポィンターのアクセスの違いを示す再生シーケンス図である。
図 1 5は、 本発明の一実施の形態の立体映像信号を再生する場合と再生しない場 合のポインタのアクセスの手順を変えたフローチャート図 (その 1 ) である。 図 1 6は、 本発明の一実施の形態の立体映像信号を再生する場合と再生しない場 合のポインタのアクセスの手順を変えたフローチャート図 (その 2 ) である。 図 1 7は、 本発明の一実施の形態の立体映像再生装置における立体映像である場 合とない場合に出力を変更するフローチャート図である。
図 1 8は、 本発明の一実施の形態の立体映像論理配置テーブルに立体映像識別子 が入った状態を示す図である。
図 1 9は、 本発明の一実施の形態の立体映像論理配置テーブルの立体映像識別子 から、 各チヤプ夕、 各セル、 各イン夕リーブブロックの立体映像の属性を特定す る手順を示すフローチャート図である。
図 2 0は、 本発明の一実施の形態の再生装置のインターレース映像信号出力モー ド時のプロック図である。
図 2 1は、 本発明の一実施の形態の再生装置のプログレシブ映像信号出力モード 時のブロック図である。
図 2 2は、 本発明の一実施の形態の記録装置のプログレシブ*像信号入力モード 時のブロック図である。
図 2 3は、 本発明の一実施の形態のマルチアングル映像分割多重記録方式の原理 図である。
図 2 4は、 本発明の一実施の形態の再生装置の立体映像信号再生モード時のプロ ック図である。
図 2 5は、 本発明の一実施の形態の 4倍速の再生装置の立体プログレシブ映像信 号再生モード時のブロック図である。
図 2 6は、 本発明の一実施の形態の再生装置のマルチストリームのプログレシブ 映像再生時のブロック図である。
図 2 7は、 本発明の一実施の形態の光ディスク全体のデータ構造を示す図である。 図 2 8は、 本発明の一実施の形態の図 2 7中のボリューム情報ファイルの内部構 造を示す図である。
図 2 9は、 本発明の一実施の形態のシステム制御部 M 1— 9によるプログラムチ エーン群の再生処理の詳細な手順を示すフローチャート図である。
図 3 0は、 本発明の一実施の形態の A V同期制御 1 2— 1 0に関する A V同期を 行う部分構成を示すブロック図である。
図 3 1は、 本発明の一実施の形態のデータストリームがデコーダのバッファ、 デ コード処理を経て、 再生出力されるタイミング図である。
図 3 2は、 本発明の一実施の形態のインターレース信号を得る場合にフィルタの 〇N 〇F Fによりイン夕一レース妨害を低減する方法を示す図である。
図 3 3は、 本発明の一実施の形態の片方の動き検出べクトルを共用するえんこ一 ど方式の原理図である。
図 3 4は、 本発明の一実施の形態の D V Dディスクから再生する場合のタイミン グを調節する方法を示す図である。
図 3 5は、 本発明の一実施の形態の映像ストリーム切替時のインタリーブブロッ クの再生を示すタイムチャートである。
図 3 6は、 本発明の一実施の形態の 2つのプログレシブ映像信号をイン夕リーブ ブロックに分割して記録する原理図である。
図 3 7は、 本発明の一実施の形態の V O Bの最初のダミーフィールドをスキップ するフローチャート図である。
図 3 8は、 本発明の一実施の形態のシームレス接続時の S T C切替のフローチヤ ート図である。
図 3 9は、 本発明の一実施の形態のデータ復合処理部のブロック図である。 図 4 0は、 本発明の一実施の形態のスコープ (ワイド) 画像を水平方向に分離し て、 イン夕リーブブロックに記録する原理図である。
図 4 1は、 本発明の一実施の形態のスコープ (ワイド) 画像が分離されて記録さ れている光ディスクからスコープ画像を合成し、 3 - 2変換する原理図である。 図 4 2は、 本発明の一実施の形態光ディスクのシステムストリーム、 ビデオデ一 夕の構成図である。
図 4 3は、 本発明の一実施の形態のシームレス接続時のフローチャートである。 図 4 4は、 本発明の一実施の形態の水平、 垂直方向の補間情報を分離 1 リ一ブブロックに記録する方法を示す図である。
図 4 5は、 本発明の一実施の形態のプログレシブ、 立体、 ワイド信号の再生時の バッファのデータ量とのタイミングチヤ一トである。
図 4 6は、 本発明の一実施の形態の水平フィル夕、 垂直フィル夕の構成図である。 図 4 7は、 本発明の一実施の形態の再生装置において動きベクトル信号と色情報 を共用する場合のブロック図である。
図 4 8は、 本発明の一実施の形態の M P E Gエンコーダにおいてプログレシブ画 像の動き検出ベクトルを用いて動き検出する原理図である。
図 4 9は、 本発明の一実施の形態の画像識別子の信号フォーマツトである。
図 5 0は、 本発明の一実施の形態の垂直フィル夕、 水平フィル夕の識別子の内容 である。
図 5 1は、 本発明の一実施の形態の 1 0 5 0インターレース信号の分割記録原理 である。
図 5 2は、 本発明の一実施の形態のプログレシブ信号と N T S C信号と H D T V 信号を出力する信号配置図である。
図 5 3は、 本発明の一実施の形態のビデオプレゼンタイムスタンプを参照しなが らイン夕リーブブロックを再生するプログレシブ再生方法である。
図 5 4は、 本発明の一実施の形態のサイマルキャスト方式の H D T Vサブ信号と N T S C信号の配置図である。
図 5 5は、 本発明の一実施の形態のサイマルキャスト方式の HD T VZN T S C 共用ディスク用の再生装置のブロック図である。
図 5 6は、 本発明の一実施の形態の 2つのバッファ部を制御するフローチヤ一卜 図である。
図 5 7は、 本発明の一実施の形態の第 1デコーダと第 2デコーダ間を A V同期さ せるフローチャート図である。
図 5 8は、 本発明の一実施の形態の水平方向に 2分割する MA D M方式の原理図 である。
図 5 9は、 ) 本発明の一実施の形態の水平フィル夕回路の全体の処理を示す 図である。 (b) 本発明の一実施の形態の水平フィル夕回路の各ラインの処理を 示す図である。
図 6 0は、 本発明の一実施の形態のスコープサイズの映像を水平に 2分割して M A D M記録するブロック図である。
図 6 1は、 本発明の一実施の形態のプライべ一トストリーム多重方式 (垂直分 割) の原理図である。
図 6 2は、 本発明の一実施の形態のプライベートストリーム多重方式 (水平分 割) の原理図である。
図 6 3は、 本発明の一実施の形態のプライべ一トストリーム多重方式の信号フォ —マツトである。
図 6 4は、 本発明の一実施の形態による光ディスク再生装置のブロック構成図で ある。
図 6 5は、 本発明の一実施の形態によるビデオデコーダの構成図である。
図 6 6は、 本発明の一実施の形態による光ディスク上のデータ構造である。 図 6 7は、 本発明の一実施の形態による映像再生のタイミングチャートである。 図 6 8は、 本発明の一実施の形態による光ディスク再生装置のブロック構成図で ある。
図 6 9は、 本発明の一実施の形態によるオーディオデコーダの構成図である。 図 7 0は、 本発明の一実施の形態による光ディスク上のデ一夕構造である。 図 7 1は、 本発明の一実施の形態による音声、 映像再生のタイミングチャートで ある。
図 7 2は、 本発明の一実施の形態による光ディスク再生装置である。
図 7 3は、 本発明の一実施の形態によるビデオデコーダの構成図である。
図 7 4は、 本発明の一実施の形態による映像再生のタイミングチャートである。 図 7 5は、 本発明の一実施の形態による光ディスク再生装置のブロック構成図で ある。
図 7 6は、 本発明の一実施の形態によるビデオデコーダの構成図である。
図 7 7は, 本発明の一実施の形態によるビデオデコーダの構成図である。
図 7 8は、 本発明の一実施の形態によるビデオデコーダの構成図である。
図 7 9は、 本発明の一実施の形態による光ディスク再生装置のブロック構成図で ある。
図 8 0は、 本発明の一実施の形態によるオーディオデコーダの構成図である。 図 8 1は、 本発明の一実施の形態による光ディスク上のデ一夕構造である。 図 8 2は、 本発明の一実施の形態による音声、 映像再生のタイミングチャートで ある。
図 8 3は、 本発明の一実施の形態による音声再生と動作周波数のタイミングチヤ 一卜である。
図 8 4は、 本発明の一実施の形態による音声再生と動作周波数のタイミングチヤ ートである。
図 8 5は、 本発明の一実施の形態による MD AMのス卜リームの I P構造図であ る。
図 8 6は、 本発明の一実施の形態によるサブ映像信号を従来の再生装置での出力 を防止すう方法である。
図 8 7は、 本発明の一実施の形態による同期再生するために必要なバッファ一量 を示すシュミレーション計算結果である。
図 8 8は、 本発明の一実施の形態による連続ブロック部とイン夕リーブブロック 部の配置図である。
図 8 9は、 本発明の一実施の形態によるイン夕リーブュニットの配置図である。 図 9 0は、 本発明の一実施の形態による複数 (2 ) 画面同時表示時のブロック図 である。 図 9 1は, 本発明の実施の形態 1における高解像度映像信号を水平方向に分離し- 2つのストリームを得て、 ディスクに記録し、 再び、 2つのストリームを合成し て、 .高解像度信号 (輝度信号) を復元する原理図である。
図 9 2は、 本発明の実施の形態 1における高解像度映像信号を水平方向に分離し、 2つのストリームを得て、 ディスクに記録し、 再び、 2つのストリームを合成し て、 高解像度信号 (色信号) を復元する原理図である。
図 9 3は、 本発明の実施の形態 1における MA D M方式ディスクを従来の再生装 置で再生した時の互換性を示すフローチャート図である。
図 9 4は、 本発明の実施の形態 1における MAD M方式ディスクを MA D M方式 の再生装置で再生した場合の動作のフローチャート図である。
図 9 5は、 (a ) 本発明の実施の形態 1における MAD M方式ディスクを従来の 再生装置で再生した時の第 1再生情報のボイン夕を用いたアクセス手順を示す図 である。 (b ) 本発明の実施の形態 1における MAD M方式ディスクを MAD M 方式の再生装置で再生した時の第 2再生情報を用いたアクセス手順を示す図であ る。
図 9 6は、 本発明の実施の形態 1における 2ストリ一ムを合成する再生装置のブ 口ック図である。
図 9 7は、 本発明の実施の形態 1におけるフレーム単位で分割された 2ストリ一 ムを再生し時間軸上に合成するブロック図である。
図 9 8は、 本発明の実施の形態 1におけるプログレシブ映像信号を 2ストリーム に分離し、 再びプログレシブ映像に合成する記録装置と再生装置とのブロック図 である。 発明を実施するための最良の形態
以下、 本発明の実施の形態について、 図を用いて説明する。
本文では、 本発明の複数ストリ一ム同時再生のための記録 ·再生方式を MA D Mと呼ぶ。
実施の形態 1では、 本発明の MADM方式を用いた応用として、 まず前半で立 体映像と高画質映像の記録およびその再生の方法を述べ、 後半部では高画質映像 の実現方法を述べる。 実施の形態 2から実施の形態 8では具体的な MADM方式 の再生時の同期方法について述べる。
(実施の形態 1 )
本発明の記録においては、 立体映像やワイド映像の場合は、 右眼と左眼の 2画 面や水平方向に分割した 2画面を用いて分割記録する。 この 2画面は、 奇数ライ ンから始まるフィールド映像であり、 これを Odd F i r s t信号と呼ぶ。 ま た、 プログレシブ映像を垂直方向に、 2画面に分割して記録する場合は、 この 2 画面は奇数ラインから始まるフィールド信号と偶数ラインから始まるフィールド 信号となり、 各々〇 d d F i r s t信号、 Ev e n F i r s t信号と呼ぶ。 なお本文では、 インタリーブした 1 GO P以上の画像情報の記録単位をインタリ —ブブロックと呼ぶが、 フレーム群ともよぶ。 本方式をマルチアングル映像分割 多重方式 (MADM) と呼ぶ。
図 1は、 本発明の MADM方式の光ディスクの記録装置 2のブロック図を示す。 プログレシブと立体信号が記録できるが、 立体画像の右眼用の信号を R— T V信 号、 左眼用の信号を L— TV信号と呼び、 R— TV信号, L一 TV信号は MP E Gエンコーダ 3 a, 3 bにより、 MP EG信号に圧縮され、 図 2の (2) に示す ような R— MP EG信号, L一 MP EG信号が得られる。 これらの信号はイン夕 リーブ回路 4により図 2 (3) に示すように、 R— MP EG信号の Rフレーム 5 を 1 GO P以上のフレーム数のフレーム群をまとめた Rフレーム群 6、 L -MP EG信号の Lフレーム 7を 1 GOP以上のフレーム数集めた Lフレーム群 8とが 交互に配置されるようにイン夕リーブされる。 この記録単位をィン夕リーブプロ ックとよぶが、 本文ではフレーム群ともよぶ。 再生時に右眼用信号と左眼用信号 が同期するようにこれらの Rフレーム群 6と Lフレーム群 8の各フレームは同じ 時間のフレームが同じフレーム数だけある。 これを画像デ一夕単位とも呼ぶが、 この 1単位は 0. 4秒から 1秒の時間のデ一夕が記録される。 一方、 DVDの場 合、 最内周で 1440 r. p. mつまり 24Hzである。 このため図 2の (4) に示すように、 イン夕リーブブロックは、 ディスクの 1回転以上十数回転分にわ たって記録される。 図 1に戻るとアドレス情報はアドレス回路 13より出力され、 プログレシブ 立体画像配置情報はプログレシブ/立体画像配置情報出力部 10 より出力され、 記録回路 9により、 光ディスク上に記録される。 このプログレシ プノ立体画像配置情報には、 プログレシブ又は立体画像が光ディスク上に存在す るかどうかを示す識別子又は、 図 4のプログレシブ Z立体画像配置表 14が含ま れている。 図 4に示すように VTS毎の Rと Lの立体映像やプログレシブ信号が 配置されているアングル番号やセル番号が TEXTDTファイル 83の中に書か れている。 各 VTSの PGCファイルには各セルの開始ァドレスと終了ァドレス が書いてあるので、 結果的に開始ァドレスと終了ァドレスが示されることになる。 この配置情報や識別情報をもとに再生装置では、 プログレシブ映像や立体映像を 正しくプログレシブ出力や R, L出力として出力する。 誤って異なるコンテンツ の通常映像が Rと Lに出力されると、 使用者の右眼と左眼に関連のない映像のた め不快感を与える。 プログレシブノ立体映像配置情報もしくはプログレシプ 立 体映像識別子はこのような不快な映像を出力することを防止するという効果があ る。 くわしい用い方は後の再生装置の説明の項で述べる。
図 1の記録装置では 525 P等のプログレシブ信号も分離部 38により、 和成 分と差成分に分離することにより 2つのイン夕レース信号を作り、 2つの MPE Gデコーダ 3a、 3bで符号化し、 マルチアングルで記録することができる。 この 場合、 オーディオ信号の APT Sと同期した VP TSを VP TS付与部 81によ り、 第 IMP EG信号と第 2 MP EG信号に付与する。 詳しくは後述する。
ここで立体映像配置情報の具体的な実現方法を述べる。 DVD規格の光デイス クの場合、 光ディスクの記録開始領域にコンテンツのディレクトリ一や目次情報
]2 のファイルが規格化され記録されている。 しかし、 これらのファイルには立体映 像に関する記述はない。 そこで、 図 18に示す立体 (PG) 映像論理配置表 52 の入った立体映像論理配置ファイル 53を設け、 立体に対応した再生装置がこの ファイルを読み出せばよい。 通常の 2Dの再生装置は立体 (PG) 論理配置ファ ィル 53を読まないが、 3Dを再生しないので、 支障はない。
さて、 図 18の説明に入る。 DVDのビデオ情報は 3つの論理階層からなって いる。 映画等作品タイトルを表すビデオタイトルセット (VTS) 層、 タイトル の中のチヤプタ一を示すパートォブビデオタイトル層 (PVT) 、 チャプターの 中のストリームを示すセル層 (Cell) の 3つである。
各層別に立体映像の配置を示す。 000は立体やプログレシブが全くないこと、
1 10は全部立体であること、 001は立体部分と非立体とが混在することを意 味する。
図 18では VTS層のタイトル 1は "001" つまり 3Dと通常映像が混在す ることを意味し、 タイトル 2は "1 10" つまり全てが立体であり、 タイトル 3 〖ま " 000" つまり立体がないことを示す。 以上からタイトル 2、 3の下の階層 には立体情報は不要となる。
さて、 タイトル 1の PVT層ではチヤプタ 2は "000" で立体のセルなし、 チヤプ夕 3は "1 10" で全てのセルが立体である。 従ってセル層には立体情報 は不要となる。 チヤプタ 1は "001" で立体のセルと通常のセルとが混在する ことがわかる。 チヤプ夕 1のセル層をみると、 セル 1、 2が第 1ストリームの R と 、 セル 3、 4が第 2ストリームの Rと Lであり、 セル 5、 6は通常映像が記 録されていることがわかる。 このように立体 (PG) 映像論理配置ファイル 53 を別途光ディスクに記録することにより、 従来フアイルを変更しないので互換性 を保てる。 また、 この論理情報により、 光ディスク上の全ての物理情報がわかる ので、 2つの異なるコンテンツの通常映像を左と右の眼に表示させる誤動作を防 ぐことができる。 また、 立体映像を的確に再生し、 デコードし、 正しい出力部か ら右眼と左眼に Rと Lの映像を与えることができる。
ここで、 図 19のフローチャートを用いて、 立体 (PG) 映像論理配置表 52 より、 各セルが立体映像やプログレシブ映像かどうかを判別する手順を示す。 ス テツプ 5 laで立体 (PG) 映像論理配置表 52を光ディスクの最初の記録領域 より読み出す。 ステップ 5 lbで、 タイトル nの図 18に示す VT S層の内容を チェックし、 "000" なら立体やプログレシブのセルでないと判断し、 3D処 理を行わない。 ステップ 51 cで VTS=1 10ならステップ 51 dで全セルが 3Dであると扱い、 ステップ 5 leで奇数セル =R、 偶数セル =Lとして扱う。 ス テツプ 51〖では、 タイトル nの全てが立体であるとの表示をメニュー画面に表示 させる。 ステップ 5 lgで VTS = 001なら、 ステップ 51 iで下の階層のチヤ プ夕一nの配置情報をチェックし、 ステップ 5 ljで PVT=000ならステップ 5 lkでチヤプ夕 nに 3 Dや P Gのセルはないと判断し、 ステップ 5 lmで PVT = 1 10ならステップ 5 Inでチヤプ夕の全てのセルが 3 Dであると判断し、 ステ ップ 51 dに進み前述と同じようにメニュー画面の該当チヤプ夕は立体の表示を 付加する。 ステップ 51 Pに戻り、 PVT=001なら P VT=00 1のチヤプタ のセル番号 =nを 1つずつチェックし、 ステップ 5 Isで CelI=00 Oなら 3Dで ないと判断し、 ステップ 5 lqに戻る。 ステップ 5 1 uで Cell=m-Rならステツ プ 51 で111ストーリの Rと判断し、 ステップ 51 wで Cell=m Lならステップ 5 lxで mストーリの Lと判断し、 ステップ 5 lqで次のセルをチェックする。
こうして図 18の立体 (PG) 映像論理配置テーブル 52の追加記録により、 全てのビデオのタイトル、 チヤプ夕、 セルが立体か PGか PGや立体でないかを 判別できるという効果がある。
さて、 これを図 3のディスクの上面図で説明する。 ディスク 1にはスパイラル の 1本のトラックが形成されており、 Rフレーム群 6は Rトラック 1 1, l l a, 1 1 bの複数本のトラックにわたって記録される。 実際には 5〜24本の複数ト ラックにわたって記録される。 Lフレーム群 8は Lトラック 12, 12 a, 12 bに、 次の Rフレーム群 6 aは Rトラック 1 1 c, l i d, 1 1 eに記録されて いる。
さて、 図 5の本発明の 3 Dの再生装置のブロック図と図 6のタイミングチヤ一 トを用いて、 再生動作を説明する。 光ディスク 1から光ヘッド 1 5と光再生回路 24により信号を再生し立体映像配置情報再生部 26により立体映像識別子を検 出した場合、 もしくは図 4に示したような立体映像配置表 14で立体映像がある と指定されている映像データを再生する場合に、 入力部 19等より立体画像出力 の指示がある場合立体画像の処理を行うと同時に SW部 27を制御して R出力部 29と L出力部 30から R信号と L信号を出力させ RL混合回路 28より Rと L をフィールド毎に交互に出力させる。
さて、 図 5と図 6を用いて立体画像再生の動作を述べる。 光ディスク上には、 図 2の (3) で説明したように各々 nを 1以上の整数とすると nG〇P分のフレ ームをもつ Rフレーム群 6と Lフレーム群 8が交互に記録されている。 この状態 を詳しく表現したものが図 85である。 つまり I (イントラ) フレームと呼ばれ るフレーム内符号化フレームデ一夕と Bや Pと呼ばれるフレーム間符号化フレー ムデ一夕を I (イントラ) フレームを不連続点として区切ったものを 1単位とし てイン夕リーブユニットとして、 左右 2つのストリームが交互に、 ディスク上に 記録してある。
図 6では (1) がこの全体図を (2) が部分図を示す。 図 5の光再生回路 24 の出力信号は図 6の (2) のようになる。 この信号を SW部 25により R信号と L信号に分離し、 各々第 1バッファ回路 23 aと第 2バッファ回路 23 bにより R信号と L信号の時間軸を元の時間に一致させる。 これにより図 6の (4)
(5) に示すような R及び L— MPEGデコーダの入力信号が得られる。 この信 号を図 5の MPEGデコーダ 16 a, 16 bで各々処理することにより、 図 6の (6) (7) に示すように互いに同期した R、 L出力信号が映像出力部 31に送 られる。 音声信号は音声出力部 32において伸長され、 出力される。 このようにして、 Rと Lの 2つの出力が同時に出力されるので、 R, L 2出力 の立体 TVには R出力部 29と L出力部 30から各々、 60 f p s (フレーム Z 秒) の信号を送れば、 フリツカレスの映像が得られる。 また RL混合回路 28か らは 60フィールド/秒の RL混合出力を送れば、 一般 TVと 3Dメガネで、 フ リツ力はあるが 3 D映像を観賞できる。 120フィールド/秒の RL混合出力を 出力すれば倍スキャン TVと 3Dメガネでフリッカレスの 3D映像を観賞できる。 また立体映像コンテンツであるのに, 立体出力をしない場合は "立体" 表示信号 出力部 33より、 信号を追加し、 TV画面に立体を意味する記号を表示させる。 これにより、 使用者に立体ソフトを 2Dモ一ドでみていることを通知させること により、 立体出力に切り替えることを促すという効果がある。 また立体メガね制 御信号発生部 33 aより立体メガねの左右のシャツ夕一を切り替える立体制御信 号を復号信号のフレーム同期信号や R L混合回路 28より検出し外部に出力する ことにより立体メガネの同期信号が得られる。
また n個たとえば 2つの画像出力を図 90の n画面合成部 28 bのラインメモ リ一 28 cを用いることにより 2つの画像が合成された一つの NT S C信号の画 面として TVに出力されるので一般 TVでも DVDの 2つのアングルの映像を視 聴することができる。 従来の 1倍速再生装置では、 複数のマルチアングルの内 1 アングルしか同時に表示されなかったため、 不便であつたが本発明により 2倍速 再生装置と MADM再生方式により、 2ストリームが同時に再生され、 かつ 2画 面表示されるため複数アングルを切り替える必要がなくなるという効果がある。 図 90に詳しく示すように。 n画面合成部 28 bのラインメモリー 28 cを用 いた場合は、 同じ大きさの画面 A, Bの 2画面表示 28 fが得られる。 ラインメ モリーは構成が簡単であるため、 I Cに入るため簡単な構成で n画面が得られる。 フレームメモリ一 28 dを用いた場合は、 ズーム信号発生部 28 eのズーム信号 により大きさの異なる 2画面表示 28 gが得られる。 この場合使用者がリモコン で大きさを任意に変更できるため、 最適なサイズで T V映像を視聴できるという 効果がある。
また、 図 5のブロック図では、 MPEGデコーダを 2ケ使っているが、 図 7に 示すように、 第 IMP EG信号と第 2 MP EG信号を合成部 36で一つの MP E G信号とし倍クロック発生部 37より、 倍クロックを発生させ、 倍クロック型の MPEGデコーダ 16 cで倍の演算し、 伸長し、 分離部 38で Rと Lの映像信号 として出力する回路構成により、 構成を簡単にできる。 この場合、 2D再生装置 に比べて、 メモリ 39に 16MB SD— R AMを追加するだけでよいためコス ト上昇が少ないという効果がある。
図 7を用いて、 立体映像やプログレシブ映像の復号に重要な 2つのストリーム の同期再生について述べる。 まず、 2つのストリームの垂直, 水平の同期を 1ラ イン以内に合わせる必要がある。 このため垂直 #水平同期制御部 85cにより、 第 1MPEGデコーダ 16aと第 2MPEGデコーダ 16 bとを同時期に立ち上げ同 期をかける。 次に 2つのデコード出力が、 同じ VFTSの画像である必要がある。 この方法を図 57のフ口一チヤ一卜と図 7を用いて説明する。 ステップ 241 a で第 1デコーダ、 第 2デコーダの双方の同期を OF Fにする。 ステップ 24 lb で前述のように垂直, 水平の同期をとる。 ステップ 241 cでオーディオの AP T Sを読み込みこの A PTS値を第 1デコーダの S T Cと第 2デコーダの S T C の初期値として設定する。 ステップ 241 eの第 1デコーダの処理としては、 ス テツプ 241 fで第 1 VPTSが初期値に達するかをチェックし、 OKならステ ップ 24 lgでデコードを開始する。 ステップ 24 lhでは第 1デコーダの処理遅 延時間を演算して、 APTSと VPTSが同期するようにデコード出力の VPT Sを調整する。 第 2デコーダも同じ処理をするので、 第 1デコーダと第 2デコー ダの画像が同期する。 こうして 1ライン以内に第 IMP EG信号と第 2 MP EG 信号の 2つのデコード出力は同期される。 後は合成部 36の中の映像信号同期部 36 aによりドット単位で同期し、 和演算を行っても元のプログレシブ画像が得 られる。 図 5に示すように、 オーディオデコーダ 16cで APT S 84を読み込 み、 2つの MP EGデコーダ 1 6a, 1 6bの S TCのレジスタ 39 a, 39 bに同じ APTSを設定することにより、 自動的にオーディォと 2つの映像ストリームの 同期をとることもできる。
本発明の場合、 バッファ回路 23 a, 23 bのバッファがアンダーフローすると、 2つの内どちらかの映像信号が途切れ、 乱れたプログレシブ映像が出力されてし まう。 そこで図 5に示すようにバッファ量制御 23 cを設けて、 2つのバッファ の量を制御している。 この動作は図 56のフローチャートに示すように、 まずス テツプ 240 aで各ディスクの N A V I情報の中の最大ィンタリーブ値を読み出 し、 1つの主インタリーブブロックの最大値 1 I LBを設定する。 通常は 5 1 2 セクタつまり、 1MB程度である。 規定で 1 MB以下に制限した場合、 その値を 設定する。 次にステップ 24 Obで主■副ィン夕リーブブロックの同時再生合包 がきた場合、 ステップ 24 Ocで第 1バッファ 23aのバッファ量が 1 I LB以下 であれば、 主インタリーブブロックから再生し、 第 1バッファ 23aへデータを 転送させる命令を出す。 ステップ 240b, 24 Ocに戻り、 第 1バッファ量が 1 I LBを越えるとステップ 24 Odで転送を停止させる。 こうしてバッファ 23a は 1 I L Βΰ;,上 Iこなるので. アンダー: η—は.防力 れ ¾„
バッファ 23 bではステップ 24 Ofで副ィン夕リーブブロックの最大値 1 I L B- Subを設定する。 ステップ 24 Ogで同時再生し、 ステップ 24 Ohで第 2バ ッファ 23bが 1/2 I LB- Sub以下であればステップ 2 0 j^ Xッファへ読 み込み、 以上であればステップ 240 iで停止する。
図 45の(4)に示すように第 2バッファは 1/2 I LBでよいため、 バッファ 量を半分にできる。 図 56のバッファ制御により、 バッファのアンダーフローが なくなり、 再生画面の合成画像が乱れることが低減する。
次に、 1倍速で回転させ R信号のみをとり出す手順を述べる。 DVD再生装置 の標準回転を 1倍速、 標準の倍速回転を 2倍速と呼ぶ。 2倍速でモーター 34を 回転させる必要はないため、 制御部 2 1より 1倍速命令を回転数変更回路 35に 送り、 回転数を下げる。 R信号と L信号が記録されている光ディスクより、 1倍 速で R信号のみをとり出す手順を図 8のタイムチャート図を用いて説明する。 図 6の (1) (2) で説明したように本発明の光ディスクには Rフレーム群 6と L フレーム群 8が交互に記録されている。 これを図 8 (1) (2) に示す。
この信号と図 8 (3) のディスクの 1回転信号とを比較すると 1つのフレーム 群の再生中には、 光ディスクは 5〜20回転することになる。 ここで、 Rフレー ム群 6から Rフレーム群 6 aに光へッドをトラックジャンプさせると隣接トラッ クのトラックジヤンプ時間は数十 m s要する。 回転待ち時間を最大の 1回転とす ると、 2回転の間に Rフレーム群 6 aのデ一夕を再生できることになる。 これを 図 8 (4) (5) の再生信号図とディスクの 1回転信号のタイムチャートに示す。 図 8 (4) の再生信号は図 5のバッファ回路 23 aにより時間軸が調整され、 図 8の (6) のような連続した Rのフレームの MPEG信号がバッファ 23 aより 出力される。 この信号は MPEGデコーダ 16 aにより図 8の (7) のような R の映像信号として伸長される。 R信号と同様別のチャンネルを選択すれば L信号 の 2D信号が得られる。 本発明のように 1 GOP以上のフレーム信号群に R又は Lを割り当て、 かつ、 上記フレーム信号群を複数トラックにわたり、 連続的に記 録することにより、 1倍速の再生装置でも、 3 Dの光ディスクを再生しても尺の みの 2 D出力が得られるという効果がある。
このことから図 9のブロック図に示すように図 5の 3 Dの再生装置のバッファ 回路 23を一つにし、 MPEGデコーダ 16を 1にし、 映像出力部 17を一つに することにより、 2D専用の再生装置ができる。 この 2 D再生装置 40には立体 映像配置情報再生部 26があるので、 3Dの光ディスク 1の立体映像の識別子や 配置情報を再生する。 従って、 3Dの光ディスクを 2D再生装置で再生した場合 Rと Lの各チャンネルのいずれか一方が出力される。 Rと Lは同じ画像であるの で、 チャンネルをチャンネル選択部 20で変えて出力させるのは、 時間の無駄で ある。 しかし、 本発明では、 立体チャンネル出力制御部 41が上記の立体映像識 別子を用いて、 立体映像の Rのみといった片側だけのチャンネルに出力制限する。 このことにより、 同じ映像コンテンツの Rと Lのうち一方しか選択できなくなる ので、 ユーザが不必要なチャンネルを選択しなくていいという効果がある。
また、 立体コンテンツの場合 "立体'' の表示が画面もしくは再生装置の表示部 42に "立体" 表示信号出力部 33より表示されるので立体コンテンツであるこ とをユーザ一が認識できる。 このように、 本発明の光ディスクは図 5の立体用再 生装置 43では、 2Dと立体映像が、 図 9の 2D用再生装置では、 2D映像が得 られるという互換性が実現する。
さて, 3Dの再生装置に戻り、 立体映像識別子の用い方と効果を述べる。
図 1 3は立体映像識別子と出力信号とのタイムチャートを示す。 図 1 3の
(3) 以降は 1イン夕リーブブロック時間単位と定義すると、 1 t分の遅延時間 が発生するが図には示していない。 図 13の (1) の立体映像識別子は t == t 7 で 1から 0に変わる。 図 13の (2) の記録信号は t 1〜 t 7までは、 立体映像 の Rフレーム群 6, 6 a, 6 bと Lフレーム群 8, 8 a, 8 bが記録される。 一 方 t 7〜 t 1 1には全く異なるコンテンツである A, Bが第 1フレーム群 44, 44 aと第 2フレーム群 45, 45 aが記録されている。 DVD等の規格では立 体画像の規定はないので、 デ一夕やディレクトリー情報の中には立体映像識別子 はない。 従って光ディスクが立上がる時に本発明の立体映像配置情報ファイルを 読み出す必要がある。 図 13の (3) (4) の R出力, L出力では t l〜 t 7で は第 1のタイムドメイン 46, 46 a, 46 bのデータはそのまま R出力に、 第 2タイムドメイン 47, 47 a, 47 bのデータはそのまま L出力に出力すれば よい。 t= t 7以降では立体映像識別子がないため R出力と L出力に第 1タイム ドメイン 46 c, 46 dの同じデータを出力させる。 別の出力方式である図 13 (5) (6) の混合出力では立体映像識別子が 1である t 1〜!: 7は 60 Hz又 は 12 OH zのフィールド周波数で 1つの出力から偶数フィールド信号 48, 4 8 aと奇数フィールド信号 49, 49 aを交互に出力する。 偶数フィールド信号 に第 1タイムドメイン 4 6 , 4 6 aのデータを出力し、 奇数フィールド信号に第 2タイムドメイン 4 7 , 4 7 aのデ一夕を出力する。
しかし、 立体映像がない t 7以降は第 1タイムドメイン 4 6 c , 4 6 dのデー 夕を偶数フィールド信号 4 8 d , 4 8 eと奇数フィールド信号 4 9 d , 4 9 eの 双方に出力させる。
以上のように、 立体映像配置情報により立体映像がないことが示されている領 域と示されていない領域とで信号の立体ディスプレイへの出力を変えることによ り、 使用者の右眼と左眼に異なるコンテンツの映像を入力させることが防止され るという効果がある。 もし、 この機能がないと立体映像の同じコンテンツの右画 像と左画像を観賞している時に、 光ディスクの第 1タイムドメインと第 2タイム ドメインの映像が別コンテンツになった時右眼に Aコンテンツ, 左眼に Bコンテ ンッの異常な画像が表示され使用者に不快感を与えることになる。
図 1 7のフローチャートを用いて、 上述の手順をくわしく説明する。 ステップ 5 0 aで光ディスクが装着され、 ステップ 5 0 bでディスクのコンテンツリスト のファイルを読み込む。 ここには立体映像の情報はない。 ステップ 5 0 cでディ スクの T X T D Tフアイルからプログレシブ立体映像配置情報を読む。
ステップ 5 0 dで、 読み込んだ立体映像配置情報に基づき、 ディスク内のコン テンッリストを表示する時にメニュー画面に各コンテンッごとに立体表示のマー キングを表示する。 こうして、 ユーザ一は立体映像の存在を識別できる。 この情 報は光ディスク全体に一つあっても、 D V Dの各デ一夕単位のナビゲ一シヨン情 報に入れてもよい。
ステップ 5 0 eでは、 特定アドレスのデータを再生し、 ステップ 5 O fでは、 立 体映像配置情報を参照して、 このデ一夕が立体映像であるかを判別する。 もし、 Y esであれば、 ステップ 5 O gで立体映像配置情報のデータから例えば第 1タイ ムドメイン 4 6力 R信号で第 2タイムドメイン 4 7が L信号なら、 各々の信号 をデコードし、 第 1タイムドメイン 4 6のデータを右眼用画像として出力し、 第 2タイムドメイン 4 7のデータを左眼用画像として出力する。 各々の画像は同期 させる。 次のデータを再生する時はステップ 5 0 e、 5 O fに戻り、 立体映像であ るかをチェックする。 立体映像でない場合は、 ステップ 5 O hに進み、 例えば第 1 ドメイン 4 6もしくは第 2タイムドメイン 4 7のいずれか一方のデ一夕を、 右 眼用画像と左眼用画像として同一の画像を出力する。
こうして左右の眼に異なるコンテンツの画像が出力されることが防止される。 次に本発明ではイン夕リーブブロック方式の通常映像を再生する場合と、 ィン 夕リ一ブブロック方式の立体映像を再生する場合とでは手順を変え再生している。 この本発明の工夫を述べる。
図 1 4のタイムチャート図の (1 ) の光ディスク上の記録デ一夕に示すように、 第 1インタリーブブロック 5 6には A 1のデ一夕と、 次にアクセスすべき第 1ィ ン夕リーブブロック 5 6 aの先頭アドレス a 5が記録されている。 つまり、 次のポ インター 6 0が記録されているため、 図 1 4の (2 ) に示すように、 第 1イン夕 リーブブロック 5 6を再生し終えると, ポインター 6 O aのァドレスをアクセス するだけで、 トラックジャンプして、 1 0 0ミリ秒の間に、 次の第 1インタリ一 ブブロック 5 6 aをアクセスし、 A 2のデ一夕を再生することができる。 同様に して A 3のデータも再生できる。 こうして、 コンテンツ A 3を連続的に再生でき る。
これに対し、 図 1 4の (3 ) で示す Rと Lの立体映像が記録された光ディスク は、 互換性を保っため図 1 4の (1 ) と同じフォーマットにする必要があるため、 同じボイン夕 6 0が入っている。 このためボインタを無視しないと立体映像は再 生できないことになる。
また、 立体映像論理配置表から、 各セルの立体識別子 6 1は定義できる。 この ため各イン夕リーブブロック 5 4、 5 5、 5 6、 5 7の立体識別子 6 1も論理的 に定義できる。 これを図に示す。 R 1と L 1を再生しジャンプして R 2と L 2を 再生するには、 ポインタをそのまま使えない。 具体的に Rイン夕リーブブロック 5 4を再 ±先了するとポィンタ a 5のァドレスをァク ヒスするのてはなく、 次の Lイン夕リーブブロック 55を再生した後、 Rインタリーブブロックのポインタ である a5にトラックジャンプしてアクセスする。 この場合、 Lイン夕リーブブ ロック 55のボイン夕 6 Obは無視されたことになる。 立体識別子が 1のィン夕 リ一ブブロックを再生するときは、 ポインターアドレスのアクセス手順を通常映 像の場合と変えることにより、 図 14の (4) のように Rと Lを連続的に再生で きるという効果がある。
では図 1 5、 16のフローチャート図を用いて、 立体映像識別情報を用いて、 ィン夕リーブプロックのアクセス時のボイン夕を変更する手順を述べる。
まず、 ステップ 62 aで特定のセルのアドレスへのアクセス命令がくる。 ステ ップ 62bでアクセスすべきアドレスを立体映像配置情報を参照し、 立体映像か を判別する。 ステップ 62cで、 立体映像でなければステップ 62 tへ進み、 通常 映像の 1処理を行う。 ステップ 62 cで立体映像であれば、 ステップ 62dへ進 み、 使用者等の立体映像を再生するかをチェックし、 NOなら "立体映像" の表 示を画面に出力させ、 ステップ 62 tへ進む。
さて、 ステップ 62dが Yesなら、 ステップ 62 eで立体映像配置情報を読み出 し、 チャプター番号や Rのセル番号、 Lのセル番号等から Rや Lのイン夕リーブ ブロックの配置を算出する。 ステップ 62 gで、 第 n番目の Rイン夕リーブブロッ クを再生し、 ステップ 62hで Rイン夕リーブブロックと Lイン夕リーブブロッ クに記録されているポインタを読み出し、 ポインタメモリに記憶する。 ステップ
62iで前回、 つまり n-1回目のポインタ AL (n) をポインタメモリより読み出 す。 ステップ 62jで AL (n) と AR (n) が連続しているかをチェックし、 N 〇であれば、 ステップ 62kでアドレス AL (n) へジャンプする。
図 16に移り、 ステップ 62mでは、 n番目の Lイン夕リーブブロックを再生し、 ステップ 62nで n+1用いて第 1 VFTSと第 2 VPTSを同期出力させ、 ステ ップ 63 hで PGつまりプログレシブ信号ならステップ 63 Iで 2つのデコード 出力信号の和と差をとり、 垂直方向に合成し 525 P等の垂直方向に解像度を高 めた信号を合成する。
ステップ 63 jでワイド 525 P (i) であることが判明した場合は、 2つのデ コード出力信号の和と差をとり、 水平方向に合成し、 ワイド 525 P (1) つま り 1440 X 480画素のような、 水平方向に解像度を高めた映像を合成する。 のポインタァドレスを再生する。 ステップ 63 gでは主ィン夕リーブブロッグの ?丁3をステップ62 Pは全デ一夕を再生完了したかをチェックする。 ステツ プ 62qでは、 n番目の Lイン夕リーブブロックと (n+1) 番目の Rイン夕リーブ ブロックが連続記録されているかをチェックし、 連続していないなら、 ステップ 621"で八 (n+1) へトラックジャンプして、 ステップ 62 fへ戻る。 Yesの場 合はステップ 62 fへ戻る。
さて、 ステップ 62 tの立体映像を表示しない場合は hセルの開始ァドレス A (1) をアクセスし、 1番目のイン夕リーブブロックを再生し、 次にステップ 6 2 uでアドレス A (n) の n番目のインタリーブブロックを順次再生していく。 こ の時, 各イン夕リーブブロックには、 次の続きのインタリーブブロックにトラッ クジャンプして、 アクセスするためのポインタアドレス A (n+1) をステップ 6 2 Vで読み出し、 ステップ 62 wでデ一夕再生が全て完了したかをチェックし、 完 了なら Aのフローチャートの最初のステップ 62 aに戻る。 完了してなければ、 ステップ 62xで A (n) と A (n+1) の開始アドレスをもつイン夕リーブブロッ クが連続しているかをチェックし、 Yesならジャンプしないでステップ 62uの 前のステップに戻る。 NOならステップ 62yでアドレス A (π+ 1 ) へジャンプ する。
次に図 20に示す 2倍速のプログレシブゃスーパ一ワイド画像や 720 Ρ再生 用の再生装置のブロック図を用いて、 本発明の再生装置 65での再生動作を詳し く説明する。 光ディスク 1から再生した信号は、 1 GOP単位以上のフレーム信 号からなる第 1インタリーブブロック 66、 第 2イン夕リーブブロック 67単位 に、 分離部 68で分離される。 伸長部 69で MPEG伸長された, 秒 30フレー ムのフレーム映像信号 70a、 7 Obはフィールド分離部 7 1 a、 7 lbで奇数フィ —ルド信号 72a、 72bと偶数フィールド信号 73a、 73bに分離され、 2chの NTSCのインタ一レース信号 74a、 74bが出力される。 図 20のワイド画面 に関しては後述する。
次に図 22を用いて、 プログレシブ映像信号の場合のエンコードの動作を述べ る。 t 1と〖 2でプログレシブ映像信号 75a、 75bが入力され、 分離部 38、 奇数ラインつまり Odd Firstのイン夕レース信号 244と偶数ラインつまり Ev en F irsiのイン夕一レース信号 245とに分離され、 イン夕レース信号 244 の第 1ラインのような第 nラインを Anとすると、 インターレース信号 245の第 2ラインのような第 nラインを Bnと呼ぶと、 垂直フィル夕 142では、 和つまり 1/2 (Αη+Βπ)の演算を行い、 低域成分を得る。 つまり、 イン夕レース妨害除去 フィル夕 141の役割を果たす。 このためアングル 1のみを従来の再生装置で再 生した場合、 インターレース妨害のない NTS C信号が得られる。 Anの色信号 色分離部 242で分離され、 垂直フィル夕 142を通らないで、 1/2 (A+B)の 信号に色合成部 243で合成された、 MP EGエンコーダで圧縮される。
次に垂直フィル夕 143では差つまり 1/2 (An-Bn)の演算を行い、 高域成分 つまり差分情報を得る。 この信号は、 色信号を入れないで MP EGデコーダで圧 縮される。 従って、 差分情報は色信号の情報量が減るという効果がある。
図 22の構成を、 概念で表わしたものが図 23の概念である。 映像信号を垂直 方向や水平方向の高域と低域に分割し、 マルチアンダルの各アンダルに分割記録 するため、 マルチアングル映像多重方式 (MADM) と呼ぶ。 図 23に示すよう に、 和演算部 141と差演算部 143で基本信号 (和信号) と補助信号 (差信 号) に分割して、 MP EG符号化し 1 G〇P単位でインタリーブブロックに交互 に記録する。 この場合、 映像では基本信号と補助信号を同期に 3- 2変換するこ とにより、 情報量を 20%削減できる。 また、 基本信号は通常の MP EGェンコ ード時の主 GOP構造 244に示すように Iフレーム 246と Bフレーム 248 と Pフレーム 247が交互に並んだ " I BBFBBFBBFBBPBB" を用い ると効率がよい。 しかし、 差信号の場合、 輪かくパターンのため、 副 GOP構造 245に示すように " I PPPPPPP I PPPPPPP" のような Iフレーム 246と Pフレーム 247だけの構成が効率がよいことが実験で明らかになった。 副 G〇P構造の設定を違えることにより、 効率が向上する。
図 23では 525 P映像信号を垂直方向に 2分割した例を、 後述する図 58で は 525 P映像信号を水平方向に 2分割した例を示したが、 フレーム分割手段を 用いて、 60フレームの 525 P信号の奇数番目のフレ一ムの 30フレームとと 偶数番目のフレームの 30フレームに分割し、 それぞれの 30 P信号を 60フィ —ルドの 2つのィンターレ一ス信号に変換し、 それぞれの信号を MPEGェンコ —ドして MADM方式で記録することもできる。 この場合、 プログレッシブで符 号化されるため、 映画と同様符号化効率が向上するため、 記録時間が増加する。 この場合、 MAD M非対応再生装置では、 第 1チャンネルつまり 30 Pのつま りコマ落ちした、 いびつな、 525インターレース信号が再生される。
MADM対応再生装置では、 基本信号として 30 P信号、 補助信号として、 3 0 P信号が再生される。 この 2つの 30フレームの信号はフレームバッファを含 むフレーム合成手段により、 60フレームの 1つの正規の 525 P信号に合成さ れ出力される。
また 525 Pの出力部にラインダブラ一を付加すると, 1050 Pの映像が得 られる。
MADMの合成部の、 和信号部に 525インターレース信号を入力し、 差信号 に 0値を入力すると 525 Pの映像が得られる。 つまり、 ラインダブラーとおな じ効果がある。 この方法であれば、 525イン夕レース信号も 525 P出力でき るのでプログレッシブ入力端子に 1本のケーブルを接続するだけですベての映像 が鑑賞出来るという効果がある。 図 23ではフィルタ演算式として 2タップより 1/2 (A + B), 1/2 (A- B)を 使っている。 この場合、 分離周波数は 300本位である。
図 46 (c)に示すような 4タップのフィルタを用いると、 分離周波数を 200 本位に低くすることも自在である。 これを用いる例を示す。 基本信号の情報量が 多過ぎて符号化できない時、 分離周波数を 300本より、 下げて例えば 220本 にすると、 基本信号の情報は大巾に減り、 符号化可能となる。 補助信号の情報量 が増えるが、 差分信号で色がないため元々、 情報量が少ない。 このため、 符号化 しても不足するという問題が生じない。 このフィル夕情報を図 50のフィルタ識 別子 144に入れておき、 1 00や 1 0 1や 1 1 1の識別子をみて、 再生装置の フィルター分離周波数変更手段により、 和演算部と差演算部の定数を変えて、 フ ィル夕特性を 1セル又は 1 G〇P単位で変えることにより、 元の画像が正常に再 生される。 これにより、 符号化が困難なレートの高い映像も可能となる。
図 22に戻ると、 この場合 MPEGエンコーダ部では、 奇数インターレース信 号 79a、 7 9bと偶数インターレース 80a、 8 Obを各々合成して、 フレーム信 号 8 la、 8 lbを合成する。 MPEGの圧縮部 82a、 82bで圧縮した圧縮信号 83 a, 831)を 10〜1 5フレーム 1 GO P以上集めたィンタリーブブロック 8 4a. 84b、 84cを作り、 同一のプログレッシブ信号から分離された圧縮信号 にタイムスタンプ付加手段により同一のタイムスタンプを付加した上で、 光ディ スク 85上に記録する。
このプログレシブ信号の入った光ディスク 85は、 図 21の 2倍速の再生装置
86で再生され、 分離部 87でインタリーブブロック単位で再生され、 インタリ —ブブロック 84a、 84 cとィン夕リーブブロック 84 bの 2つのストリームに 分離され、 伸長部 88a、 88bで 720 X 480画素のフレーム信号 8 9a、 8
9 bに伸長される。 フィールド分離部 7 1 a、 7 lbで奇数フィールド 72a、 72 bと偶数フィ一ルド 73a、 73 bに時間軸上で分離される。 ここまでは図 20の 再生装置 65と同じ動作である。 しかし、 図 2 1では、 合成部 9 0で和演算回路と差演算回路を用いて、 Aチヤ ンネル 9 1と Bチャンネル 9 2の奇数フィールド 7 2a、 7 2bを合成する。 偶数 フィールド 7 3a、 7 3bも同様である。 こうして Aチャンネル 9 1と Bチャンネ ル 9 2はジグザグ状に合成されて、 6 0フレーム/秒のプログレシブ信号 9 3a、 9 3bが得られ, プログレシブ映像出力部 94より出力される。
こうして、 本発明の再生装置により、 プログレシブ映像信号、 つまり NTS C 信号をインターレースしない 5 2 5本、 この場合 480本の信号が得られる。 再 生部 9 5は 2倍速再生をする。
この場合、 映画ソフ卜の記録された従来の光ディスクを再生してもプログレッ シブ映像が得られるという効果がある。
図 2 3は垂直方向に分割した M A DM方式の概念を説明したが、 図 5 8を用い て水平方向に分割した場合の MADM方式の概念を示す。 1 440 X 48 0 P等 のワイド 5 2 5 P時が映画用に検討が進んでいる。 この信号は 3-2変換部 1 Ί 4により 1 440 X 4 8 0 iのィン夕ーレース信号に変換できる。 水平フィル夕 部 2 0 6aで、 水平方向に 2分割する。 このフィルタの原理を図 5 9 (a) (b)に示 す。 (b)のように 1 440 ドットは奇数ドット 2 6 3 a, 2 6 3 bと偶数ドット 2 6 4 a, 2 64bに分けられる。 これらを Xn, Ynと呼ぶと、 Χ + Υで和信号、 X- Υで 差信号が演算出力と得られ、 図 5 9 (b)に示す 7 2 0 X 4 8 0と 7 2 0 X 48 0 の 2つの 5 2 5 Pもしくは 5 2 5 i信号が得られる。
図 5 8に戻りこうして得られた水平方向の和信号は、 水平 7 2 0ドットに減つ ているが、 水平フィル夕を通っているので、 折り返し歪みは NTS C信号並みに 抑えられる。 従って、 従来の再生装置では、 和信号だけ再生するため全く同等 の DVDの画質が得られる。 差信号は輪かくだけの線画であるが図 6 0の第 2映 像信号出力制限情報付加部 1 7 9により制限されているため、 一般の再生装置で は、 容易にみられないため問題は防止される。 和信号と差信号は第 1エンコーダ 3 aと第 2エンコーダ 3 bで MP EGストリームとなり、 1 GUP以上のインタリ ーブブロック単位でィン夕リーブされて MADM多重される。
映画の場合、 図 5 0に示すように 3- 2変換部 1 7 4で 3- 2変換されて、 3 - 2変換情報 1 74aとともに、 各々の MPEG信号として、 MADM記録される。 この場合映画は 1秒に 24フレームのため、 2倍速再生装置で、 2つのインタ レース信号から 1 44 0 X 48 0 Pのプログレシブ映像が再生される。 また, 映 画はスコープサイズは 2. 3 5対 1であり、 1 44 0 X 4 8 0 Pはアスペスド比 の面で適しておりワイド 5 2 5 Pの効果は高い。
なお、 図 2 0で、 イン夕一レース信号再生用の 1倍速再生装置用の映画ソフト が入った光ディスクを再生する場合、 映画ソフトは元々 1秒 24コマのフレーム 信号 (プログレシブ信号) であるため、 MP EGデコーダ内では 24コマのプロ グレシブ信号が得られる。 映画ソフトであることを検知手段で検知、 もしくは図 49に示す 3— 2変換部 1 74で 24フレームを 6 0フレーム/秒のプログレシ ブ信号に変換することにより、 プログレシブ信号が再生される。 イン夕一レース 出力する時は、 フィルタ識別子をみてプログレシブ信号を垂直フィルタ部でフィ ル夕リングすることにより、 妨害のないイン夕一レース画像が得られる。
ここで、 図 2 2でエンコードした光ディスク 8 5を図 2 0のプログレシブ対応 の再生装置 6 5にかけて再生すると Aチャンネルのィンターレース信号 Ί 4 aが 再生される。 ィンタ一レース型の従来の DVDプレーヤは Aチャンネルと Bチヤ ンネルのうち Aチャンネルだけを持っている。 このことから本発明の光ディスク 8 5を従来のイン夕一レース型の DVDプレーヤに装着した場合、 Aチャンネル のインターレース信号が得られることがわかる。 つまり本発明の光ディスクは本 発明の再生装置ではプログレシブ信号が、 従来の再生装置では同じコンテンツの イン夕一レース信号が得られ、 完全な互換性が実現するという効果がある。
なお、 この場合図 2 2の MPEGエンコーダにはインターレース妨害除去圧縮 フィル夕 1 4 1が折り返し歪を大幅に減らすことができる。
次に立体映像のエンコードについて、 さらに詳しく述べる。 図 22のプログレッシブ信号の和信号と差信号と同様にして、 記録装置 99に、 右眼信号 97と左眼信号 98が入力される。 イン夕一レース信号であるため、 6 0分の 1秒毎に奇数フィールド信号 72a、 72 bと偶数フィールド信号 73 a、 73 bが入力される。 この信号を合成部 101 a、 101 bで合成して 30分の 1 秒毎のフレーム信号 102a、 102bに変換する。 圧縮部 103a, 103bで、 圧縮した圧縮信号 83 a、 83 bを 1 G〇P以上の集合にまとめて、 イン夕リーブ ブロック 84a、 84b, 84 cをつくり、 交互に配置して、 光ディスク 1上に記 録する。 この光ディスク 1を図 24に示す本発明の再生装置で再生した場合、 前 述の図 5の立体 ZPG映像配置情報再生部 26が、 ディスク中の F G識別子を検 出して、 図 24のように立体再生モードになった再生装置 104のブロック図を 用いて説明する。 光ディスク 1 dの中の立体映像はまず分離部 68で Aチャンネ ルと Bチャンネルに分けられ、 伸長部 88a、 88bで伸長され、 フィールド分離 部 71a、 7 lbでフィールド信号に分離される。 ここまでの動作は、 図 21の場 合と同じである。
図 24の特徵としては、 フィールド分離部 7 la力 奇数フィールド信号と偶 数フィールド信号を出力変換部で出力順序を切り換えて出力させる点にある。 ま ず、 プログレシブ TVつまり、 120Hzのフィールド周波数の TV用には、 A チャンネルの奇数フィールド信号 72a、 Bチャンネルの奇数フィールド信号 7 2 b, Aチャンネルの偶数フィールド信号 73a、 Bチャンネルの偶数フィールド 信号 73bの順番で送る。 すると右眼左眼が交互にかつ、 奇数フィールド、 偶数 フィ一ルドの順で出力されるので、 スィツチ型の立体メガネを使うことにより、 フリツ力のない、 かつ時間情報が一致した映像がプログレシブ出力部 105より 得られる。
次に一般 TVへの出力としては、 上記のうち、 Aチャンネルの奇数フィールド 72 aと Bチャンネルの偶数フィールド 73 bを NTS C出力部 106より出力す ることにより、 フリツ力はある力 動きの自然な立体映像が立体メガネより得ら れる。
以上の本発明のプログレシブ方式と立体映像再生方式を組み合わせると、 左と 右のプログレシブ画像の高品位の立体映像が得られる。 図 25を用いて説明する。 この再生装置 107は 4倍速のレートで再生するため、 4倍速の再生能力を要す る。 しかし、 DVDでは通常の転送レートの 80 %でよい。 もし図 25のように 連続して右のプログレシブ信号 A、 Bと左のプログレシブ信号 C、 Dのインダリ ーブブロック 108a、 108b, 108c, 1 08 dを間隔なく配置すると, 光ピ ックアップはジャンプする必要がなく、 連続再生すればよい。 DVDの場合 8 0 %の情報に制限されるため、 連続再生では 4倍速に対して、 3、 2倍速でよレ^ このように連続配置することにより、 再生速度を低減できるという効果がある。 さて、 説明に戻ると、 分離部 109により、 前述のようにイン夕リーブブロッ ク 108a、 108b, 108c, 108dは分離され、 A、 B、 C、 Dの 4チャン ネルの信号が再生される。 伸長部 69 a、 69b, 69c. 69dで伸長された映像 信号は、 図 2 1と同様合成部 90a、 9 Obで各々合成され 2つのプログレシブ信 号がプログレシブ出力部 1 10a、 1 1 Obから出力される。 各々が左眼用信号、 右眼用信号であるため、 再生装置 107からはプログレシブの立体映像が出力さ れる。 この場合 4倍速のブロックの MF EGチップを使えば 1チップで処理でき るため部品点数の増大はない。 また、 4つの異なるコンテンツの映像を記録し, 再生することができる。 この場合、 1枚のディスクで 4面のマルチスクリーン T Vに同時表示できる。
本発明の特徴は全ての間に互換性がある点にある。 図 25のディスク 106を 従来の DVD等の再生装置で再生した場合は、 右眼もしくは左眼のどちらかのィ ンタ一レース信号が出力される。 画像の劣化はない。 ただし、 4分の 1の時間し か再生できない。 しかし、 DVDの 2層貼り合わせを使えば、 2時間 1 5分入る ためほとんどの映画作品は入る。
次に本発明の 2倍速の立体ノプログレシブ対応の再生装置では、 立体のイン夕 一レースもしくは、 1チャンネルのプログレシブの画像をユーザ一力 図 9の入 力部 1 9からチャンネル選択部 2 0を介して制御部 2 1に命令を送れば、 好みの 映像に切り替えられる。 以上のように過去のモノラルレコードとステレオレコ一 ドのように完全互換性を保てるという大きな効果がある。
こうして本発明の 2倍速、 4倍速の再生装置により、 様々な画質、 撮影法の画 像が得られる。
以上のように本発明では立体映像識別子がない時はボイン夕を読んで、 ジヤン プするだけでよいが、 立体映像識別子がある時は 1つ前の片方のィンタリーブブ ロックのポインタを読み、 アクセスするように再生手順を変えることにより、 フ ォーマツトを変えないで立体映像を記録できるという効果がある。
ここで、 スコープサイズの映画の画面を 2つの画像に分割して、 記録再生する 方法を述べる。
図 2 0では、 本発明の 2倍速の再生装置で、 2画面のインターレース信号を記 録した光ディスク 1を再生する方法を述べた。 図 4 0ではこのことを応用してス コープサイズの (2 . 3 5 : 1 ) のスーパ一ワイド画像 1 5 4を画面分割部 1 5 5で中央画像 1 5 6 , サイド画像 1 5 7、 1 5 8の 3つの画面に分割し、 分割位 置をセンターシフト量 1 5 9で表す。 中央画像 1 5 6 dを第 1映像信号 1 5 6 dと し、 サイド画像 1 5 7 d、 1 5 8 dを合わせて、 第 2映像信号として圧縮し、 イン タリ一ブ部 1 1 3でインタリーブしてセン夕一シフト量 1 5 9とともに光デイス クに記録する。 この場合、 第 2映像信号はつぎ合わせた異質の画像であるので、 再生されることは望ましくない。 そこで第 2映像信号制限情報付加部 1 Ί 9によ り、 光ディスクのファイル管理情報領域に、 第 2映像信号のストリームにパスヮ ードプロテクト等の再生制限情報を付加する。 すると、 再生装置では、 第 2映像 信号を単独で再生することができなくなる。 こうして第 2映像信号の単独出力制 限分割画面の異常な画像を視聴者がみることを防ぐことができる。 この場合、 プ ログレシブ対応プレーヤでは第 1映像信号と第 2映像信号の双方を再生し、 ワイ ド画面を出力することができる。
このディスクを図 20の再生装置で再生すると、 まず、 第 2映像信号は単独で 出力されない。 光ディスクからはセン夕一シフト量 1 5 9がセン夕一シフト量再 生部 1 59bから再生される。 このシフ卜量 1 59を用いてワイド画像合成部 1 73において、 スコープ画像を合成し、 3_2変換部 1 74において、 図 41に 示す 3- 2プルダウン変換を行い、 映画の 24フレ一ムを 60フィールド Z秒の インターレース信号、 もしくは 60フレームノ秒のプログレシブ信号に変換する。 図 41に示すように伸長とワイド画像合成が行われる。 3 -2変換部 1 74での 3- 2変換処理を述べると、 1秒に 24フレームある合成画像 1 79の合成画像 179aは、 3枚のインタ一レース画像 180a, 1 80b, 1 80cとなり、 合成 画像 1 7 9bは 2枚のイン夕一レース画像 1 80d, 1 80eとなる。 こうして 2 4フレーム/秒の画像は 60フィールドのィン夕ーレース画像となる。 プログレ シブ画像 1 8 1を出力する時は、 そのまま 3枚のプログレシブ画像 1 8 la, 1
8 1b, 1 8 1 cと 2枚のプログレシブ画像 18 ld, 1 8 1 eを出力すればいよい。 また、 第 2の画面分離の方法として、 図 40に示すように 1440 X 480の 画面 1 54の各画素を画像水平方向分離部 207で水平方向の 2画素を 1画素ず つ分離すると 720 X480画素の 2つの水平分離画面 1 90a, 1 90 bに分離 できる。 これを同様に手法で第 1映像信号、 第 2映像信号として圧縮し、 光ディ スク 1 9 1に記録する。 この場合、 水平方向の、 折り返し歪みが発生するので、 水平フィルタ 206で図 46の水平フィル夕 206のように 2画素を特定の加算 比で加算し、 水平方向の高域成分を減衰させる。 このことにより、 既存の再生装 置で 720 ドッ卜で再生した時のモアレを防げる。
この光ディスク 19 1を図 20の再生装置 65で再生すると、 水平分離画面 1
90a, 1 9 Obが復号され、 ワイド画像合成部 1 73で合成すると元の 1440 X 480画素の画面 1 54aが再生される。 映画ソフトの場合, 3- 2変換は図 4
1に示すようにして画面 154aを合成して 3- 2変換を行う。 この第 2の画面の水平分離方法は、 第 1映像信号も第 2映像信号も元の 1 4 4 0 X 4 8 0画素を水平方向に半分にした 7 2 0 X 4 8 0画素の通常の映像が記録 されているため、 D V Dプレーヤ等の通常の再生装置で誤って第 2映像信号を再 生しても、 元と同じアスペクト比の映像が出力されるので、 互換性が高いという 効果がある。 こうしてこの分離方式により、 一般再生装置ではインターレース画 像、 対応再生装置では 5 2 5プログレシブ画像、 7 2 0 Pの高解像度対応再生装 置では 7 2 0 Pのスコープ等のワイド画像を再生できるという効果がある。 映画 素材の場合は 2倍速で実現できるため効果が高い。
これを発展させると、 図 4 4において、 1 4 4 0 X 9 6 0のプログレシブ画像 1 8 2 aを画像分離部 1 1 5の水平垂直分離部 1 9 4で水平垂直方向に例えば、 サブバンドフィル夕やウェーブレツト変換を用いて分離する。 すると 5 2 5プロ グレシブ映像 1 8 3が得られる。 これを 5 2 5インターレース信号 1 8 4分離し て、 ストリーム 1 8 8 aで記録する。
一方残りの補間情報 1 8 5を同様にして 4つのストリーム 1 8 8 c, 1 8 8 d, 1 8 8 e, 1 8 8 fに分離してインタリーブブロックに記録する。 各イン夕リーブブ ロックの最大転送レ一トは D V D規格で 8 Mbpsであるため、 補間情報を 4つの ストリームに分割した場合、 3 2 Mbps、 6アングルの場合、 4 8 Mbpsを記録す るため、 7 2 0 Pや 1 0 5 0 Pの HD T Vの映像を記録できる。 この場合、 従来 の再生装置ではストリーム 1 8 8 aを再生し、 ィン夕一レース映像 1 8 4が出力 される。 また、 ストリーム 1 8 8 c, 1 8 8 d, 1 8 8 e, 1 8 8 Πこは画像処理制 限情報発生部 1 7 9により、 出力制限情報が光ディスク 1 8 7に記録されている ので、 見づらい画像の差分情報等の補間情報 1 8 5が誤って出力されることはな レ こうして、 図 4 4の方式で水平垂直双方向に分離することにより, HD T V と N T S Cの互換性のある光ディスクが実現するという効果がある。
図 2 0において、 イン夕一レース信号はイン夕一レース変換部 1 7 5でイン夕 一レース信号に変換し出力し、 スコープ画面 1 7 8を得る。 5 2 5 Pプログレシ ブ信号も同様にスコープ画面 178として出力される。 また、 720 Pのモニタ —で見る場合は、 525 P信号を 525 P/720 P変換部 1 76において、 7 20 Pのプログレシブ信号として変換し、 1280X 720もしくは、 1440 X 720 (画像は 1280 X 480又は 1440 X 480) のレターボックス型 の 720 P画面 1 77が出力される。 スコープ画像 (2.35 : 1) は 1 1 28 X 480となるので近いアスペクト比の画像が得られる。 特に、 映画ソフトの場 合、 24フレーム Z秒なので、 プログレシブ画像は 4 Mbpsのレートになる。 ス コープ画像を 2画面分割の本発明の方式で記録した場合、 8 Mbpsとなり、 DV Dの 2層ディスクに約 2時間記録できるため 1枚にスコープ画像の 720 P、 も しくは 525 Pの高画質のプログレシプ画像が記録できるという効果がある。 ま た、 従来 TVでも、 当然インタ一レース出力信号で表示される。 このように映画 のスコープ (2.33 : 1) 画面を 525 Pもしくは 720 Pで出力できるとい う効果が得られる。
ここで、 図 51で具体的に 1050イン夕一レース信号を記録再生する方法を 述べる。 1050イン夕一レース信号の偶数フィールド 208 aを水平分離手段 209で 2つの画像 208 b、 208 cに分離し、 垂直分離手段、 210 a、 2 10 bで画像 208 d、 208 eに分離し、 同様にして、 画像 208 f 、 208 gを得る。 奇数フィールド信号 21 1 aも同様にして分離し、 画像 2 l i d, e、 f 、 gを得る。 この場合、 画像 208 dと画像 21 1 dがメイン信号となり、 既 存の再生装置で DVDのインターレース映像が得られる。 イン夕一レース妨害等 を防ぐため、 水平フィル夕 206 b、 206 cと垂直フィルタ 212 a、 212 bを揷入することにより、 再生画像の折り返し歪みは減少する。
図 27、 図 28、 図 42、 図 49でファイル構造と画像の識別子を述べる。 図 27は DVDの論理フォーマツトに示す。 各論理ブロックの中にビデオファイル が記録されている。 図 28に示すようにシステムストリームの中の最小単位はセ ルと呼ばれており、 この中に図 42に示すように 1 GO P単位の映像データと音 声デ一夕とサブピクチヤーがパケットで記録されている。
第 1ストリームのメイン信号のセル 216 (図 18参照) の中のパケット 21 7の中の P r ov i d e r d e f i ne d s t r e amは 2048バイトの 容量をもつ。 この中にプログレシブかイン夕一レースかを示すプログレシブ識別 子 218、 解像度が 525本、 720本、 1050本であることを示す解像度識 別子 219、 補間信号が主信号との差分信号であるかを示す差分識別子 220、 後述するフィル夕識別子 144、 第 1の副ストリ一ムのストリーム番号を示す副 ストリーム番号情報 221が記録されている。
図 52を用いてこの画像識別子 222を用いて再生する手順を示す。
光ディスクからは、 まず管理情報 224から再生手順制御情報 225を読み出 す。 この中には VOBの制限情報があるため、 既存の再生装置では、 第 0VOB 226 aからメイン映像が記録された第 1 VOB 226 bにしか接続されない。 第 0VOB 226 aから差分情報等の補間信号が記録された第 2 VOB 226 c に接続されないため、 前述のように差分情報のような見苦しい画像が既存の再生 装置から再生されることはない。 次にメイン信号の各 VOBには画像識別子が記 録されており、 第 1 VOB 226 bと第 2 VOB 226 cはプログレシブ識別子 =1、 解像度識別子 =00 ( 525本) なので、 525本のプログレシブ信号が プログレシブプレーヤ HDプレーヤからは再生される。
次の VOB 226 dの画像識別子 222はプログレシブ識別子 = 0、 解像度識 別子 219 = 10なので、 1050本のインタ一レース信号であり、 VOB 22 6 e、 VOB 226 f , V〇 Β 226 gの 3つの V〇 Βが補間情報であることが わかる。 こうして従来プレーヤでは NTS C、 プログレシブプレーヤで、 水平画 素数 720本の 1050本のイン夕一レース、 HDプレーヤでは 1050 cのフ ル規格の HDTV信号が出力される。 こうして画像識別子 222により、 様々な 映像信号がイン夕リーブ記録でき、 再生できる。 なお、 この画像識別子 222は 管理情報 224に記録してもよい。 ここで、 図 53を用いて各インタリ一ブブロックによるサブトラックの VP T S (V i d e o P r e s e n t a t i on T ime S t amp) つまり、 デコード出力時の時刻の関係を述べる。 第 lV〇B 226 bは、 メイン信号のィ ンタリ一ブブロック 227 a、 227 b、 227 cが VPTSの VPTS 1、 2、 3とともに記録されている。 第 2 VOB 226 cにはイン夕リーブブロック 22
7 d、 227 e、 227 fが VPTS 1、 2、 3ともに記録されている。 従来プ レ一ャでは 1倍速で、 ィン夕リ一ブブ口ック 227 a、 227 b、 227 cを再 生する。 メイン信号には音声が入っているので音声も再生される。 一方プログレ シブ対応プレーヤでは、 まずサブ信号である第 2 VOB 226 cのイン夕リーブ ブロック 227 dから再生し、 一旦バッファメモりに蓄える。 蓄え終わるとメイ ン信号の第 1 VOB 226 bのイン夕リーブブロック 227 aを再生し、 この同 期情報で AV同期をとる。 音声もメイン信号に記録されているので、 図 53 (2) (3) に示すようなメイン信号、 サブ信号の出力が音声と同期する。 この 場合トラックジャンプはィン夕リ一ブブ口ック 227 aとインタリ一ブブロック 227 eの間に行う。
こうして、 図 53 (4) のプログレシブ信号が出力される。 このように再生装 置側で、 各イン夕リーブブロックの同じ VPTSをチェックすることにより、 メ イン信号とサブ信号を同期してデコードし、 合成することにより、 正常なプログ レシブ信号を得るという効果がある。
図 54は NTS C信号と HDTV信号をそれぞれ、 独立して、 同時間にイン夕 リーブ記録するサイマルキャスト方式の場合の信号の配置を示す図である。 この 場合はメイン信号である VOB 227 aには NTS Cの映像と音声 232が記録 される。 VOB 227 b、 VOB 227 cには HDTVの圧縮映像信号の約 16 Mb p sの信号が 8Mb p sずつに分割されて本発明のイン夕リーブ方式で光デ イスク上に記録されている。 図 54 (1) 、 (2) の従来のプレーヤやプログレ ッシブ対応プレーヤでは NTSじの (525 i ) 信号が再生される。 しかし図 5 4 (3) の HDTVプレーヤでは、 第 1 VOB 227 aから音声データのみをも らい、 VOB 227 b、 227 cから第 1サブ映像と第 2サブ映像を再生し、 合 成し、 図 54 (3) に示すように、 16Mb p sの HDTV信号を再生する。 こ の場合サブ信号の再生は再生手順制限情報 225により制限されているので、 既 存の DVDプレーヤで使用者が操作を誤っても、 HDTV圧縮信号が再生される ことはない。 こうして、 従来のプレーヤでは NTS Cが、 HDTVプレーヤでは、 HDTV信号が出力されるという両立性が得られる。 このブロック図を図 55に 示す。 詳しい動作は他と同じであるため省略するが、 光ディスクからの再生信号 は、 インタリーブブロック分離部 233により分離され、 メイン信号の音声は N TS Cデコーダ 229の音声デコーダ 230によりデコードされ, 第 1サブ信号 と第 2サブ信号の 8Mb p sのストリームは HDTVデコーダ 231でデコード され、 HDTV信号がデコードされる。 こうして HDTV信号と音声信号が出力 される。 この場合、 まずサイマルキャストにより、 従来機でも NTS Cで再生で きるという効果がある。 さらに本発明では 2イン夕リーブストリームをもちいる と 16Mb p sの転送レートが得られるので、 標準的な HDTVの MP EG圧縮 信号をそのまま記録できるという効果がある。 次に DVDでは 2つのィンタリ一 ブブロックで 16Mb p sしか記録できない。 一方 HDTV圧縮映像信号は 16 Mbp sである。 このため音声データは記録できない。 しかし本発明のように、 メイン信号の NT S C信号の音声データを使用することにより、 2つのィン夕リ ーブで HDTVを記録しても、 音声出力が記録できるという効果がある。
ここで、 インターレース妨害の除去の方法について述べる。 プログレッシブ信 号を間引いてインターレース信号に変換すると、 折り返しが発生し、 低域成分の モアレが発生する。 また 30Hzのラインフリッカーも発生する。 これを避ける ため、 インターレース妨害除去手段を通す必要がある。 すでに説明した図 22の 記録装置 99のブロック図のプログレシブインターレ一ス変換部 139のプログ レシブ信号部にインターレース妨害除去手段 140を入れる。 入力されたプログ レシブ信号は、 まず、 イン夕一レース妨害画像検知手段 1 4 0 aにより、 インタ 一レース妨害が起こる確率の高い画像信号を検出し、 この画像信号のみをィン夕 一レース妨害除去フィル夕 1 4 1に通す。 例えば垂直方向の周波数成分の低い画 像の場合、 インターレース妨害は起こらないので、 フィル夕バイパスルート 1 4 3により、 フィル夕を迂回する。 このことにより、 画像の垂直解像度の劣化を軽 減できる。 ィン夕一レース妨害除去フィル夕 1 4 1は垂直方向のフィル夕 1 4 2 で構成される。
図 4 6 ( a ) の時間、 空間周波数図に示すように、 斜線部が, インターレース の折り返し、 歪発生領域 2 1 3である。
これを除去するには垂直フィルタを通せばよい。 具体的な方法としては、 図 4
6 ( c ) に示すように、 3本のラインメモリ一 1 9 5を設け、 4 8 0本のプログ レツシブのライン信号を対象ライン (第 nライン) の画像情報と前後のライン (第 n - 1、 n + 1ライン) の 3本の画像情報を加算器 1 9 6で加算比で加算す ると 1本のライン画像情報が得られ 2 4 0本のインターレース信号ができる。 こ の処理により垂直方向にフィル夕一がかかり、 インタ一レース妨害は軽減できる。 3本のラインの加算比率を変えることによりフィルター特性を変更することがで きる。 これを垂直 3ラインタップフィルターと呼ぶ。 中心と前の 2本のラインの 加算比を変更することにより、 より簡単な垂直フィルターを得ることができる。 図 4 6 ( d ) に示すようにライン情報は単純な垂直フィル夕でなく、 例えば前の フレームの n— 1ラインと次のフレームの n + 1番目の偶数ラインを同一空間上 に展開した上で、 垂直フィル夕リングを施すこともできる。 この時間垂直フィル 夕一 2 1 4により、 プログレシブ非対応の D V Dプレーヤで、 プログレシブ信号 を記録した光ディスクを再生し、 ィン夕一レース信号のみを視聴した時に生ずる イン夕一レース妨害が軽減されるという効果がある。 また、 水平フィル夕 2 0 6 aは水平方向の 2画素を加算して 1画素を合成することにより実現する。 しかし、 フィルタをかけると当然プログレシブ映像の解像度が劣化する。 インターレース 妨害画像検知手段 1 4 0により、 妨害の少ない画像にフィル夕をかけないことや 垂直フィルターの加算器の加算比を変更することにより、 フィルタ効果が弱くな るので、 プログレシブ画像再生時の劣化が軽減するという効果がある。 また、 本 発明のプログレシブ対応型の再生装置では、 後述するようにフィルタを記録時に かけなくても, 再生装置側のフィル夕一でインタ一レース妨害を除去できる。 将 来はプログレシブ対応型再生装置に置き換わることから、 将来は記録時のフィル 夕は不要となる。 そのときはフィルタリングされた光ディスクとフィルタリング されない光ディスクが存在するため、 インターレース妨害検知手段 1 4 0はフィ ル夕リングを入れた画像に対し、 それを識別できる識別子であるインターレース 妨害除去フィル夕リング識別子 1 4 4を出力し、 記録手段 9により光ディスク 8 5上に記録する。
図 5 0に具体的なフィル夕識別子の記録法について述べる。 ストリームの中の M P E Gの画素単位である 1 G O Pの中のヘッダにフィルタ識別子 1 4 4を入れ る。 " 0 0 " ではフィルタなし、 " 1 0 " では垂直フィル夕、 " 0 1 " では水平 フィル夕" 1 1 " では垂直水平フィル夕を通過した信号であることを示す。 最低 1 G O P単位で入っているので、 再生装置で 1 G O P毎にフィルタを O NZO F Fできるので、 2重にフィル夕を入れて画質劣化をさせることを防げる。
次にこの光ディスク 8 5を再生装置 8 6 aで再生した場合の動作を図 3 2 (a) 、 (b) を用いて説明する。 図 2 1と同様にして 2つのインターレース画像 8 4 a, 8 4 bを再生し、 プログレシブ画像 9 3 aを一旦合成する。 ただし、 インターレ一 ス妨害除去フィルタリング識別子 1 4 4が O Nの時やスロー、 静止画の特殊再生 をしない時で、 かつプログレシブ画像を出力しない時は、 直接インターレース出 力 1 4 5により 1倍速回転で、 インターレース信号を出力する。 この場合省電力 効果がある。
特殊再生を行う場合やインターレース妨害除去フィルタリング識別子 1 4 4が オフの時は制御部 1 4 7より 2倍速命令 1 4 6がモーター回転数変更部 3 5に送 られ、 2倍速で光ディスク 8 5は回転し、 プログレシブ画像が再生される。
こうして再生されたプログレシブ画像をィン夕一レース信号としてィンターレ ース T V 1 4 8に出力する場合にィン夕一レース妨害を除去する方法を述べる。 イン夕一レース妨害除去フィルタリング識別子 1 4 4がオフの時は、 判別切替回 路 1 4 9を切り替えて、 プログレシブ信号をインターレース妨害除去フィル夕 1 4 1を通過させた後、 インターレース変換部 1 3 9において、 2枚のフレーム 9 3 a, 9 3 bから 2枚の奇数イン夕一レース信号 7 2 aと偶数インターレース信号 7 3 aを出力し、 通常のインターレース信号を出力する。 この場合、 インタ一レ ース T V 1 4 8にはィン夕一レース妨害のない画像が表示される。 ィン夕一レ一 ス妨害フィルタによるイン夕一レ一ス信号への影響は少ないため、 インターレ一 ス信号の劣化はない。 一方、 プログレシブ信号出力部 2 1 5には、 インターレー ス妨害除去フィル夕が入ってないプログレシブ信号が出力される。 従って、 再生 装置側でインターレース妨害除去フィル夕 O N, O F Fする方式により、 劣化の ないプログレシブ画像とィンターレース妨害等の劣化のないインターレース画像 の出力が同時に得られると言う大きな効果が得られる。
なお、 1 / 2倍速以下のスロー再生、 静止画再生においては、 インターレース 妨害は減るので除去フィル夕を弱くする。
次に特殊再生の画質を向上させる工夫を述べる。 操作入力部 1 5 0を介して制 御部 1 4 7より、 スロー、 静止画再生の命令がスロー静止画再生手段 1 5 1に入 力された場合、 インターレース変換部 1 4 9はフレーム処理部 1 5 2により、 1 枚のフレーム 9 3 aの 4 8 0本のラインを 2つのフィールドに分配して、 奇数ィ ン夕一レース信号 7 2 bと偶数インタ一レース信号 7 3 bを作成し、 出力する。 するとィンターレース T V 1 4 8には、 ぶれのない 4 8 0本の解像度のィンター レースの静止画もしくはスロー再生画像が表示される。 従来のィン夕ーレース方 式の再生装置ではぶれのない静止画、 スローを得られるためには 2 4 0本に解像 度を落とす必要があつたが、 本発明ではイン夕一レースから一旦プログレシブに 変換し、 インターレースに変換することにより、 4 8 0本の解像度のインターレ —スのスロー、 静止画が得られるという効果がある。 なお、 図 3 2 (a) におけ るステップ 1 5 3 a〜 1 5 3 gはこの手順をフローチヤ一卜で示した物であるが、 説明は省略する。
次に図 2 6では, 2チャンネルのストリーム、 例えばカメラ 1とカメラ 2の映 像がィン夕リーブされているディスクから第 1のストリームを再生し、 途中で第 2のストリームに切り換え、 連続的に出力する方法を述べる。
図 3 5を用いて、 コンテンツが複数のストーリー、 つまりストリームが多重化 されている場合、 特定のストリームから他のストリームへ切れ目無くスムーズに 切り換える方法を述べる。 図 3 5の (1 ) に示すように、 光ディスク 1 0 6の 中には異なる 2つのストーリーが、 第 1映像信号と第 2映像信号の 2つのストリ —ムつまり、 第 1ストリーム 1 1 1と第 2ストリーム 1 1 2として、 基本的に 略々同一半径上に記録されている。
この場合、 通常は基本ストーリーである第 1映像信号のみを再生するので、 第 1ストリーム 1 1 l aの次には次の第 1ストリーム 1 1 l bが連続して再生出力さ れる。 しかし、 使用者が t cの時点で、 図 5の命令入力部 1 9より、 第 2映像信 号へ切り換える命令を出した場合、 t = t cの時点で、 第 1ストリーム 1 1 1 aから 第 2ストリーム 1 1 2 bへ図 5のトラッキング制御回路 2 2を用いて、 別の半径 位置にあるトラックをアクセスし、 出力信号を第 2映像信号の第 2ストリ一ム 1 1 2 bに切り換える。
こうして図 3 5の (2 ) に示すように第 1映像信号が t = t cの時点で、 第 2映像 信号の映像と音声とサブピクチャーは切れ目なくシームレスで切り替わる。 この映像、 音声、 サブピクチャーを同期させて、 シームレス再生を実現するェ 夫に関しては、 後で述べる。
図 3 5 ( 3 ) ( 4 ) のタイミングチャートを用いてさらに、 具体的なデ一夕の 再生手順を述べる。 図 2 2の記録装置のプロック図で説明したように第 1映像信 号のプログレシブ画像は Odd line F irs tのメインのイン夕一レース映像信号 A l〜Anと Even line F irstのサブのインターレース映像信号 B 1〜Briに分離 され、 各々、 第 1アングルと第 2アングルのサブチャンネルに別々に記録される。 また、 図 22では省略したが、 第 2映像信号のプログレシブは同様にして、 メイ ンのィン夕ーレース映像信号 C 1〜Cnとサブのィン夕一レース映像信号 D 1〜 Dnに分離され、 図 3 5 (3) のように各々第 3アングルと第 4アングルに別々 に記録される。 図 35 (3) は図 36の原理図をタイムチャートで説明したもの で、 動作は同じである。
図 36は図 22の記録装置のイン夕リーブ部に絞り、 説明した物である。 2つ のストリームつまり、 第 1映像信号のプログレシブ信号を第 1映像信号分離部 7 8aで、 Odd Firstのメイン信号と Even F irstのサブ信号の 2つのイン夕一レ ース信号に分離する。 この場合、 情報量を減らすために、 メイン信号とサブ信号 の差分信号を差分部 1 1 6aで求め、 メイン信号と差分信号を圧縮して、 デイス クに記録することにより、 記録情報量を減らすことができる。 プログレシブ映像 の場合、 隣接する奇数 (Odd) ラインと偶数 (Even) ラインの相関はかなり強 いため、 両者間の差分信号の情報量は少ない。 差分をとることにより記録情報量 を大幅に削減できるという効果がある。
この差分器 1 1 6 aを用いる本発明の分割記録方法は、 図 44に示すように 7 20 Pつまり、 720ラインのプログレシブ信号 182や 1 050 Pのプログレ シブ映像 1 82 aを画像分離部 1 1 5で 525の基本情報 1 8 7とプログレシブ 映像 1 83や 525イン夕一レース映像 184と補完情報 186に分離する。 差 分器 1 16 aにより、 基本情報 187と補完情報 1 86の差分情報 1 8 5を求め、 この差分情報 185を第 2映像信号分離部 78 cと第 3映像信号分離部 78dによ り、 計 4つのストリーム 1 88c, 1 88d, 188 e, 188 ί·のストリームに分 離できる。 これらを圧縮部 1 03に送り、 インタリーブ 1 1 3aでイン夕リーブ して 6つのストリームを光ディスク 1 87の各アングルに記録する。 この時ストリーム 188 188d, 188e, 188 fは差分情報もしくは補 完情報であるため、 再生装置で復号されても、 TV画面に出力された場合、 正常 な TV画像ではないため、 視聴者に不愉快な印象を与えてしまう。 そこで、 本発 明では、 補完情報 186を含むストリーム 188c, 188 d, 188 e. 188 f のアングルが、 非対応の過去の再生装置で出力されないように、 画像出力制限情 報発生部 179で、 制限情報を発生し、 光ディスク 187に記録しておく。 具体 的には DVD規格には特定のストリームをパスワードがないと開かないように設 定する。 ストリーム 188c, 188d, 188e, 188 fにパスワードプロテク トをかけることにより、 従来の再生装置では容易に開くことができず、 補完情報 186を復号した異常な画像を視聴者が誤ってみるという事態を避けるという効 果がある。
図 36に戻り、 こうして第 1映像信号は圧縮されて、 メイン信号は 1 GO P以 上の単位の A 1, A 2のイン夕リーブブロック 83 b, 83dとなる。 一方、 第 2 映像信号のメイン信号は C 1 , C 2のインタリ一ブブロック 83 a、 サブ信号は B l, B 2のイン夕一ブロック 83e, 83g, サブ信号は D l, D 2のインタリ —ブブロック 83 f, 83 hとなる。 以上の 4つのデータから図 36に示すように、 記録ストリーム 1 17が生成される。 記録ストリーム 1 17では、 A 1 , B 1, C 1, D 1 , A2, B 2, C 2, D 2の順に配列され、 記録手段 1 18により光 ディスク 155上に記録される。 プログレシブ信号レベルでみると、 Al, B 1, A2, B 2は第 1映像信号であるため、 第 1映像信号、 第 2映像信号、 第 1映 像信号、 第 2映像信号の順に記録される。 A V同期制御部のシームレス再生に関 しては後で述べる。
なお説明では、 各イン夕一ブロックュニッ卜に 1 GO P以上の MP EG信号を 記録すると記載したが、 厳密には、 1インタリーブユニットは約 0. 5秒以下に 制限されているので、 映像信号は最大 30フィールド分しか記録できない。 従つ て 1インターブロックュニッ卜には最大 30 GO Pしか記録できない。 つまり本 発明の一つのイン夕リーブュニットは 1 GO P以上 30 GO P以下の記録に制限 される。
次に圧縮方法を述べる。 第 1 VOB 118のィン夕一レース信号 79 a, 8 Oa はフィールド対 125aにまとめられ、 フレーム符号化部 123aで、 符号化され、 フレーム符号化信号 127aとなる。
一方第 2 V〇B 1 19のダミーフィールド 121は圧縮部 82 bの中のフィー ルド符号化部 124bでフィールド単位の符号化がされ、 まず、 フィールド符号 化信号 129が符号化される。 次に、 本来のサブ信号である偶数インターレース 信号 8 Obと奇数インターレース信号 79 bは 2つ合わせた第 1フィールド対 12 6aにまとめられ、 圧縮部 82bのフレーム符号化部 123bでフレーム符号化さ れフレーム符号化信号 128 aとして符号化される。
こうして第 2 VOB 1 19に Odd F irstのダミーフィールドが追加されるの で、 奇数インターレース信号から始まることになる。 奇数、 偶数と順番に記録さ れるので、 DVDプレーヤでスムーズ再生されるという効果がある。 なお、 この 場合 1枚のプログレシブ信号はフレーム符号化信号 127aとフレーム符号化信 号 128aが対応する。 しかし、 ダミーフィールドであるフィールド符号化信号 129があるため、 メイン信号のフレーム符号化信号 127 aとサブ信号のフレ —ム符号化信号 128 aの間には、 Idなるオフセット時間 130が存在する。 プ ログレシブを再生する時は、 このオフセット時間 130の分だけサブ信号の出力 タイミングを早くする必要がある。
ここで、 図 34を用いて、 図 21で述べた再生装置の 86の動作をさらに詳し く説明する。 再生部 95からの信号はメイン信号の第 1 V〇B 1 18とサブ信号 の第 2 VOB 1 19に分離される。 第 1 VOB 1 18は元々、 奇数ラインから始 まるため、 そのまま伸長すればよい。 しかし第 2 VOB 1 19の先頭にはォ一サ リングの関係でダミーフィールド 129が挿入されている。 このため、 このまま 再生するとメイン信号とサブ信号の間に tdなるオフセット時間 1 19の同期のず れが生じて、 最初のプログレシブ映像を合成するのに時間を要し、 V〇Bから次 の V O Bの間で切り換え時に画面が連続的につながらない。 そこで、 本発明では 2つの方法でダミーフィ一ルド 1 2 1をスキップする。
第 1の方法では、 第 2 V〇B 1 1 9の先頭にあるフィールド符号化信号 1 2 9 を伸長部 1 3 2に一旦入力し、 フィールド伸長処理による伸長する途中、 もしく は伸長後にプログレシブ識別情報があった場合は, プログレシブ処理切替部 1 3 5が Yesに切り替わり、 ダミ一フィールド迂回手段 1 3 2により、 ダミーフィ一 ルド 1 2 1をスキップして、 先頭に偶数イン夕一レース信号 8 0 b、 次に奇数ィ ンターレース信号 7 9 bを出力する。 この信号は、 同期手段 1 3 3により、 メイ ン信号に記録されている音声信号 1 3 4、 字幕等のサブピクチャー 1 3 5と同期 して、 プログレシブ変換部 9 0でプログレシブ画像 9 3 a, 9 3 bが出力される。 こうして、 ダミーフィールド 1 2 1を迂回することにより、 奇数フィールドと偶 数フィールドが同期して合成され、 時間軸のあったプログレシブ信号と音声信号、 サブピクチャーが出力される。 なお、 プログレシブ識別情報がない場合はプログ レシブ切替部 1 3 5が N〇に切り替わりダミーフィールド 1 2 1が除去されない で、 さらにプログレシブ変換もされないで、 インターレース信号 1 3 6が出力さ れる。 従来のプログレシブ機能をもたない D V Dプレーヤではこのィン夕一レー ス信号 1 3 6が出力される。 こうしてダミーフィールド迂回手段 1 3 2をプログ レシブ処理の場合に〇Nし、 そうでない時には〇F Fすることにより、 通常のフ ィ一ルド符号化されたィン夕ーレース信号を最初のフィ一ルドを落とすことなく 正常に再生するという効果が得られる。
次に第 2の方法について述べる。 これはダミーフィールド 1 2 9がフィールド 符号化され 1 G O Pとなり、 サブ信号のフレームの G O Pと分離できる場合に用 いる。 符号の復号の前にダミーフィールドの符号化情報であるフィールド符号化 信号 1 2 9をダミーフィールドの符号化情報迂回手段 1 3 7で 1 G〇P分だけス キップする。 バッファ 1 3 l bにスキップした情報を入力するか、 ノ ッファ 1 3 1 bの出力時にスキップしてもよい。 伸長部 8 8bにはメイン信号と対になった、 サブ信号のフレームもしくはフィールド情報しか入力されない。 こうして図 2 1 で述べた通常の手段で偶数ィン夕ーレース信号 8 0と奇数ィン夕ーレース信号 7 9bが伸長、 イン夕一レース変換され、 メイン信号と同期手段 1 3 3で同期され て、 プログレシブ変換部 9 0でプログレシブ信号 9 3 a, 9 3bに変換される。 第 2の方法では、 符号化情報の段階で、 ダミーフィールドを取り除いてしまう ため、 ノ ッファ部 1 3 lbの処理や伸長部 8 8の処理を変更しなくてもよいとい う効果がある。 第 2 VOB 1 1 9の先頭に 1 GOPに符号化したダミーフィール ドを入れる時に適している。
第 1の方法はダミーフィールド 1 2 9と各フレーム 1 2 7 a内のフィールド信 号をまとめてフィ一ルド符号化し、 1 GO Pを生成するため記録効率が高いシー ムレスマルチアングル方式のように 1イン夕リ一ブブロックの先頭にダミーフィ ールドを揷^してある時に効率がよいため、 記録時間を増やす効果がある。
以上のようにしてプログレシブ処理の場合のみダミーフィ一ルド 1 2 1をスキ ップすることにより、 ある VOBから次の V〇Bの境界、 もしくはシームレスマ ルチアングルのイン夕リーブブロックにおいて、 プログレシブ映像を切れ目無く 再生できるという効果が得られる。
図 3 7のフローチャート図を用いて、 手順を説明する。 ステップ 1 3 8aで、 第 2n- 1アングルのデータの再生開始命令を受ける。 ステップ 1 3 8bでプログ レシブ識別子があるかをチェックし、 Yesの時はステップ 1 3 8 fへジャンプし, NOの時はステップ 1 3 8 cで以下の 3条件を満たすかチェックする。 条件 1は 第 nアングルの VOBの先頭に 1フィールド (もしくは奇数個のフィールド) の GO Pがあること。 条件 2はその 1フィールドの GO Pに連続して 1フィ一ルド の GO Pがないこと。 条件 3は、 第 2π- 1アングルの先頭の GO Pが 1フィール ドでないこと。 次にステップ 1 3 8dで以上の条件を満たすかをチェックし、 N 〇ならステップ 1 3 8eでィンターレース処理を行い、 第 2π- 1アングルのみを 出力する。 Yesならステップ 1 38〖でプログレシブ処理に切替、 ステップ 1 3 8gで第 2n- 1アングルの V〇Bの最初から再生するかをチェックし、 Noならス テツプ 1 38jへジャンプし、 Yesならステップ 1 38 hで第 nアングルの V O B の最初の 1フィールドもしくは 1フィールド分の GO Pの映像をとばして出力す る。 第 2n- 1アングルに音声信号がある場合は VOBの最初のオフセット時間 td (デフォルト値 1/60秒) をスキップして出力する。 ステップ 1 38 jで第 2n- 1アングルのメイン信号と第 2nアングルのサブ信号を復号し、 同期をとり、 プ ログレシブ信号に合成する。 ステップ 1 38kでプログレシブ画像を出力し、 ス テツプ 1 38 mでシームレスマルチアングル出力をする場合は、 ステップ 1 38n へ進み、 第 2n-lアングルの (サブ信号) の各インタリーブブロックをフィール ド復号し、 第 1番目をスキップして出力する。 もしくはイン夕一レース変換時に 奇数ラインと偶数ラインフィールドの出力順を逆にする。 ステップ 1 38pでプ ログレシブ画像の合成と出力を行う。
またォーサリングの関係で、 マルチアングルの先頭部の前には、 数秒のダミー フィールドが入るので V O Bの先頭のダミーフィールド群をこれと同様の方法で P GCデータからマルチアングルの始まる先頭ァドレスを読み出し、 通常再生は VOBの先頭から読み出し、 立体やプログレッシブ再生時のみダミーフィールド 群をスキップしマルチアングルの先頭ァドレスから読み出すことにより、 立体や プログレッシブが V O Bの境界で中断することがなくなるという効果がある。 ここで、 本発明の第 1の方式である MADMとは異なる、 第 2の方式について 述べる。 プライベートストリーム映像分割多重方式 (P SDM) と呼ぶ。 図 6 1 が垂直方向分離方式の P S DM方式のブロック図, 図 62が水平方向分離方式の P SDM方式、 図 63が P SDM方式の信号フォ一マツトを示す。
図 63に示すように, DVDのビデオ信号は 1 0.08Mbpsあり、 基本ス卜リ —ムとは別にプライべ一トストリ一ム (Provider Defined Stream) が規定さ れている。 基本ストリームに、 図 23で説明した和信号を記録し、 プライベート ストリームに収めることができ、 通常の 1倍速ドライブでも回路の変更で再生可 能となる。 我々の実験では和信号は 6Mbps、 差信号は 3 Mbpsで、 良好なプログ レシブ映像が得られているので、 符号化が難しくない映像であれば、 美しいプロ グレシブ映像が得られる。
映画素材の場合は、 元々 24 1コマのプログレシブ映像であるため P S DM方 式で充分な画質が得られる。 図 6 1は基本的に図 22や図 23と同じで後半の和 信号をォーサリングで基本ストリーム識別子 267を付与して基本ストリームに 記録紙、 差信号をプライべ一トストリーム識別子 268を付与してプライべ一ト ストリームに記録する。 映画の場合は、 和、 差信号に同期した 3- 2変換識別子 2 6 9を付与する。
再生装置側では、 基本ストリーム識別子 26 7のついたバケツ卜から和信号を 第 1デコーダ 69aでデコードし、 プライべ一トストリーム識別子 268のつい たパケッ卜から差信号をデコードし、 和演算部 250差演算部 2 5 1により, A, B信号を得て、 525 P信号を合成する。
図 62は図 58と同様にワイド 525 Pを水平方向に分割し、 2つのインタレ ース信号として P S DM記録したものである。
ここで、 図 26と図 35の (3) を用いて、 この光ディスク 1 5 δを再生し、 第 1映像信号から第 2映像信号へ tcで切り替える手順を述べる。 一例である光 ディスク 1 5 5には図 26に示すように A 1, B l, C 1 , D 1 , A 2 , Β 2. C 2, D2, A3, B 3, C 3, D 3の順に 1 G〇 Ρ単位のインタリ一ブブロッ ク単位で、 4チャンネルのストリームがイン夕リーブされて記録されている。 最 初は第 1映像信号の出力であるため、 Αと Βのイン夕リーブブロック (以下 I L Bと略する) 84a, 84 bつまり A 1, B 1を連続再生しトラックジャンプ 1 5 6を行い、 I LB 84e, 84fつまりを A2, B 2を再生する。 t = tcで第 2映像 信号に切り替わるため、 トラックジャンプ 1 57を行い、 I LB 84i, 84hつ まり C 3, D 3を再生する。 こうしてメイン信号は A 1 , A2, C 3、 サブ信号 は B l, B 2, D 3が再生され, 伸長部で伸長され合成され、 合成部 1 0 l bか ら出力部 1 1 O bへ送られ、 サブピクチャーデコーダ 1 5 9からのサブピクチャ 一、 音声信号再生部 1 6 0からの音声、 以上の 3つの信号が、 AV同期制御部 1 5 8により調相されて、 タイミングが合った状態で出力される。 このため、 第 1 ストリームのプログレシブ信号と第 2ストリームのプログレシブ信号が音声、 サ ブピクチャーともに切れ目なしに、 つまりシームレスで連続されるという効果が ある。 シームレスの同期法は後述する。
図 4 5を用いてプログレシプ映像もしくは, 立体映像もしくはスコープ映像の ように 2つのストリームを同時に再生する場合に 2つの映像と音声の同期をとる 手順について述べる。 7 2 0 P信号のように 3つや 4つのストリームを再生する 場合も同様にして実現できるので、 これらの説明は省略する。
最初に本発明の 2つのビデオストリームを同期させる方法を述べる。 まず, 図 3 9に示すように、 光ヘッドから再生されたシステムストリームは、 トラックバ ッファ 2 3に一旦蓄積された後に、 第 1ビデオデコーダ 6 9 dと第 2ビデオデコ ーダ 6 9 cへ送られる。 光ディスクのトラックには、 プログレシブ信号の 2つの ストリーム A、 つまり第 1ストリームと、 Bの第 2ストリームがインタリーブブ ロック単位で交互に記録されている。
まず、 2倍速回転でストリーム Aを再生し、 トラックバッファ 2 3の中の第 1 トラックバッファ 2 3 aにデータの蓄積を開始する。 この状態は図 4 5の (1 ) に示したように、 t l〜t 2では 1イン夕リーブ時間 T 1の期間の第 1映像信号 の 1イン夕リーブブロック分 ( I L B ) I 1のデ一夕が蓄積されていく。 第 1の トラックバッファデ一夕量は増加し 〖 2で 1 I L Bのデ一夕量まで増加し、 第 1映像信号の 1 I L B分のデータの蓄積を完了する。 t = t 2で、 第 1映像信号の 1 G O P分以上の 1 I L B分の蓄積を完了した後、 今度はストリーム Bの第 2映 像信号を光ディスクの次のイン夕リーブブロック I 2から再生し、 図 4 5 ( 4 ) の実線で示すように t 2で第 2 トラックバッファ 2 3 bに第 2映像信号の デ一夕の蓄積を開始し、 t = t6まで、 第 1 トラックバッファ 23bに蓄積する。 同 時に、 t = t2から t8までは、 図 45 (7) , (10) に示すように第 1映像信号 と第 2映像信号をビデオプレゼンテーションタイムスタンプ、 つまり VPTSの 時間を同期させてトラックバッファ 23a, トラックバッファ 23bから第 1ビデ ォデコーダ 69c,第 2ビデオデコーダ 69dに入力させる。 この入力信号は図 4 5 (8) , (1 1) に示すように MP EGの伸長処理時間であるビデオ遅延時間 twdだけ遅れた時間の t 3より、 第 1ビデオデコーダ 69 cと第 2ビデオデコ一 ダ 69 dから伸長された 2つのビデオデータとして出力される。 t = t4より t 10 までこのストリーム Aとストリーム Bの 2つのビデオデータはプログレシブ変換 部 170によりプログレシブ信号に合成されて 1インタリーブブロック分のプロ グレシブ信号が出力される。
さて、 このように t = t 2から t 8までは 1ィン夕リーブブロック分のデータがデ コーダに入力される。 従って、 ほぼ同一のレートで、 第 1 トラックバッファ 23 aと第 2 トラックバッファ 23 bのデ一夕は消費され減少する。 従って図 4 5 (2) に示すように、 第 1 トラックバッファのデータ量は t2から 17までは減少 し、 t = t 7では 1 I L Bの 1/2まで減少する。 t 7で、 イン夕リーブブロッ ク I 5のデ一夕の再生が始まるので、 増加分と減少分が相殺され、 t = t 8まで増 加し、 t = t 8で 1 I LBに達する力 t 2の場合と同様にして t 8で第 1デコ —ダ 69 cへの入力が始まるので、 t 11まで減少を続け、 最終的に 1/2 I L B分のバッファメモリ量となる。
次に図 45 (4) を用いてストリーム Bのバッファ量である第 2 トラックバッ ファ 23 aのメモリ量の推移を説明する。 t = t 2でイン夕リーブブロック I 2の ストリーム Bのデータ B 1が第 2トラックバッファ 23bに入力され始める力 同時に B 1のデ一夕の第 2ビデオデコーダ 69 dへの転送も始まるので、 1ノ 2 に相殺され、 16におけるバッファ量は 1/2の 1/2 I LB分となる。 本発明 のプログレシブ信号の 2角度のマルチアングル記録する場合は、 4つのストリー ムつまり 4つのイン夕リーブブロックがあるため、 t = t 6力 ら t 7に力 ナて、 イン 夕リーブブロック 1 3, I 4をトラックジャンプして、 1 5へジャンプする必要 がある。 この tjのジャンプ時間 197の間は、 光ディスクからのデ一夕の再生入 力は中断するため、 ストリーム Bのバッファ量は t = t 8まで減少を続け、 t = t8で 0近くなる。
t = t 8でィンタリーブブロック I 6のデータ B 2の再生データが入力されてく るので、 再び増加を始め、 い t l 1で第 2トラックバッファのメモリ量は 1/2 I LB分となる。 t 1 1でトラックジャンプを行い、 イン夕リーブブロック I 7, I 8をスキップして A 3のイン夕リーブブ口ック I 9をアクセスする。
以上の動作を繰り返す。
ここで、 本発明の方式の第 1 トラックバッファ 23 aと第 2 トラックバッファ 23bを加算したトラックバッファ 23に最低必要なメモリ容量を述べる。 図 4 5 (4) に点線で示すトラックバッファ容量 1 98がトラックバッファ 23 aと トラックバッファ 23 bを足したデータ量を示す。 このように合計で最低 1 I L B分の容量をトラックバッファに設定することにより、 切れ目無く再生できる。 本発明では本発明のプログレシブ再生時にトラックバッファ 23のトラックバ ッファ 23 aと 23 bの合計容量を 1インタリーブブロック以上とることにより、 トラックバッファのオーバ一フ口一ゃァンダ一フロ一を防ぐことができる効果が ある。 また、 図 31で 2ストリームの場合のシステムクロック STCの切替法 を後述するが、 プログレシブ再生の場合、 A, B 2つのストリームがある。 この 場合、 1 I LBのプログレシブ信号を構成する 2つのイン夕一レース信号の 2つ のストリームを A 1, B 1とすると、 まず 1番目の A 1ストリームのデータは図 31 (1) に示すように 1ノ 2 I LB期間に再生され、 バッファに全データが蓄 積される。 次にストリーム Bのデータは図 3 1 (2) に示すように、 A 1の再生 終了後、 B 1として再生されバッファに蓄積される。 この場合、 前述の用に図 3 1 (2) のストリーム Bで、 光ディスクからの再生データは制御されるので、 ト ラックバッファがオーバーフローすることはない。 図 31 (3) に示すストリ一 ム A, もしくはストリーム Bのトラックバッファからの SCRつまりストリーム クロックは、 図 31 (2) に示すス卜リ一厶 Bの再生開始点 Jに略々同期して力 ゥン夕をリセットされる。 そして、 ストリーム Bは 2倍速で出力されるので、 ) ッファにより、 図 31 (3) に示すような 1倍速、 つまり 1ノ 2の速度でストリ —ムクロックはカウントされる。 そして G点でストリームクロックはリセットさ れる。 ビデオデコーダより、 ストリーム Bのビデオ信号が出力する時刻 VP T S 2は MP EGデコード時間等の遅延時間 Tv dを考慮し同期させる必要がある。 この場合、 I点つまり、 VPTSの増加が途切れた点で t =T iで AV同期制御 を再起動する。 この場合ストリーム Bの VPTS 2をチェックし、 この VPTS 2にストリ一ム Aの VPTS 1を同期させることにより、 1系統の簡単な制御で 同期が実現する。 この場合 VPTS 1を併用してもよい。
オーディオの同期ストリーム Bの音声デ一夕を再生し、 図 31 (4) に示すよ うに、 ストリーム Bの APTSを用いて H点で STCを切り替えればよい。 スト リーム Bのリブ映像信号も図 3 1 (4) と同じようにして 3TCを乗り替えれば よい。
以上のようにして、 ス卜リーム Bのデータを優先的に用いて AV同期させるこ とにより、 簡単な制御で A V同期が実現する。
この場合、 ストリーム A 1、 A 2は全映像データがバッファメモリに蓄えられ ているのでオーバ一フローすることはない。 ストリーム B 1がオーバ一フローす る可能性がある。 しかし本発明ではストリーム Bで同期制御を行うことにより、 図 31 (6) に示すように VPTS 2が VPTS 2しきい値を超えないように S TCを切り替え、 信号フローを制御しているので、 バッファがオーバ一フローす ることがない。
また, ストリーム Bの音声を音声再生に用いることにより前述のように、 ォー ディォデコーダのバッファを 1/2にできるだけでなく、 図 3 1 (4) に示すよ うに、 t =Thの H点で STCを切り替えることにより、 APTSしきい値を超 えることなく、 スムーズに音声が再生される。 サブ映像情報も同様にスムーズに 同期して再生される。 従って、 映像と音声、 字幕等のサブ映像が同期するととも に、 画面、 音声が途切れることなく、 つまりシームレスに再生される。 この場合、 ストリーム Aの音声、 サブ映像の記録を省略しても、 さしつかえない。 また、 ス トリ一ム Bに音声、 サブ映像を入れることにより、 既存の再生装置でストリーム Bの 2を再生するようにし、 前述の図 22に示した第 2映像信号出力制御情報付 加部 1 79により、 ストリーム Aの再生を制御することにより、 音のない画像を 出力するトラブルを防ぐことができる。 このようにストリーム Aの音声、 サブ映 像のデ一夕を省略することにより、 プログレシブ映像のソフト, 例えば 2時間の 映画を 1枚の 2層ディスクに本発明のィン夕リ一ブブ口ック記録方式により, 記 録できるという大きな効果がある。 この効果を述べる。 映画ソフトは 1層の 4. 7 GBの DVDディスクに 2時間 1 5 P程度記録できる。 本発明のプログレシブ 映像を差分をとらないで、 そのまま 2チャンネル記録すると、 倍の 9. 4GB必 要である。 しかし、 例えば映像信号は 4Mb p s、 サブ映像と音声信号は 1Mb p s近く必要である。 音声信号の 1Mb p sを片方のストリームだけに記録する と、 合わせて 9Mb p sでよい。 つまり 90 %のデータ量でよいため、 9. 4 G Bの 90%で 8. 5 GBとなり、 2層ディスクに 1層ディスクと々プログレシブ 信号が記録できる。
本発明の同期方法では、 プログレシブ信号の 2本 1組の信号のうち、 光デイス ク上のビデオデータの先頭からみて、 ストリーム Aのィン夕リーブブロックの次 にストリーム Bのィン夕リーブブロックの順序で記録されているとすると、 先頭 のデータ (実施例では A) をトラックバッファに入れて、 もう一方のデ一夕 (実 施例では B) を再生する時に、 ストリーム Bの同期情報を主体的に用いて同期さ せる。 具体的には、 ストリーム Bのビデオのタイムスタンプ VPTS 1力 VP TS 1のしきい値を超えないようにシステムクロックを切り替えることにより、 画面が途切れることなく, ビデオと音声が同期して再生されるという効果が得ら れる. 又 Kリー人 Αϋ~ トリ一入 Βのタイムスタンプである の時問 情報に同期させて, バッファから、 読み出すだけでよいので、 制御が簡単となる。 このように、 本発明では、 第 1のストリームを一旦、 バッファに蓄積し、 第 2 のストリームを同期制御するだけでよいので、 制御が確実で簡単になる。 この場 合、 バッファメモリのサイズは 1 I L B分以上に設定すれば、 オーバーフローや アンダーフローしない。
既存の DVDの光デ'イスク再生装置の場合、 標準的な 1 I L B分の 1 5程度 の 100〜300 kBのバッファメモリが使用されている。 しかし、 本発明の場 合、 標準的な I LBの 1単位分のバッファメモリにより、 スムーズに再生できる。 1 1 8は0. 5〜2秒であるが、 マルチアングルの場合の待ち時間は 1秒程度 しか許容できないので実際には、 0. 5〜 1秒の範囲で使われている。 従って、 最大 1秒として 8Mb p sのストリームを考えると、 本発明の D VDの光ディ スク再生装置では 1MB以上のバッファメモリを用いればよい。
以上の動作の中で図 30の同期制御部 166は図 45 (1) のイン夕リーブブ ロック I 2と I 6の第 2映像信号の同期データを用いて, STCを切り替えるこ とにより、 イン夕リーブブロックブロック間のシームレス再生が可能となる。 I 2、 I 6のインタリーブブロックのデータ再生時、 ストリーム Bのバッファ量を モニターしながらモーター回転数再生トラックを制御することにより、 トラック バッファ 23a, 23 bのメモリ量がオーバーフロ一しないように最適化できるの で、 トラックバッファのメモリ量を少なくできるという効果がある。 ストリーム Aのイン夕リーブブロック I 1, I 5のデータは、 全部トラックバッファ 23a に入っているので、 2ストリーム Aの信号で再生制御を行い、 バッファサイズを 最適化するには適していない。 またイン夕リーブブロック I 1 , I 5のオーディ ォデ一夕を用いて再生すると図 45 (8) 、 ( 1 1) のビデオデ一夕の出力の夕 ィムスタンプと一致させるためには、 図 45 (3) に示すように 1イン夕リーブ ブロック分以上のオーディオデ一夕や、 サブ映像データをトラックバッファ 2 3 (図 39) やオーディオデコーダバッファ 1 72 (図 3 9) に蓄積する必要があ るのに対し、 イン夕リーブブロック I 2, I 6のオーディオデ一夕を用いると、 図 45 (5) に示すように、 1/2つまり 1/2の I LBデータでよいため、 トラ ックバッファ 23 (図 39) やオーディオデコーダバッファ 1 72 (図 39) の メモリ量が半分になるという効果がある。
また、 図 45にしめしたように、 プログレシブ信号の主信号と補完信号の入つ た I 1, I 2の 1組と 1 5, I 6の 1組のデータを再生する時、 イン夕リーブ ブロック I I, I 5をバッファに蓄積しておき, 次にイン夕リーブブロック I 2, I 6の再生データを基準にしてモー夕の回転制御をかけるとバッファのメモリ 量を小さくできる。 また、 図 30の AV同期制御部 1 58の STCの切替夕イミ ングもインタリーブブロック I 2, I 6の STCを基準にすることにより、 バッ ファのオーバーフ口一なしに安定したデコードができるという効果がある。
また、 図 37のようにプログレシブ信号再生時は、 VOBの最初のフィールド をスキップする方法を述べたが、 第 2の現実的な方法として、 図 22に示すよう に、 記録装置 99で、 インターレース変換した Odd F st識別子 1 99の画像 と Even First識別子 200のついた画像の 2枚の画像のうち、 Even/〇dd変換 部 20 1により、 Even F irst識別子 200だけを Odd First識別子 20 2に 変換して各 MP EGデ一夕に Odd Firstの識別子を付加することにより、 全て の VOBの先頭が Odd Firstになる。
再生装置側では、 図 2 1に示すように Odd F si識別子 1 99のデータと、 Ev e n F i r s tが変換された Odd First識別子 202が再生される。 ス テツプ 203に示すようにプログレシブ信号再生かどうかをチェックし、 Yesな らステップ 204で第 2映像信号の Odd F irst識別子を Even First識別子 2 00 aに変更し、 MPEGデコーダのインターレース変換部 7 lbに送る。 Noな ら識別子は変更しない。 イン夕一レース変換部 7 lbでは第 2映像信号のフレー ム画像からラインのフィ一ルドを先に出力するので Even F irstの画像が出力さ れる。 合成部 90では、 この第 2映像信号の Even F irstの画像と第 1映像信号 の Odd F irstの画像と合成され、 正常なプログレシブ画像が出力される。 この 方法により、 全てのインタリーブブロックの先頭が Odd Firstになり、 DVD 規格の再生装置でシームレスのマルチアングル映像が問題なく再生されるという 効果がある。 シームレスマルチアングル再生の時は各ィン夕リーブブロックの先 頭が Odd Firstに制限されているので、 この方法により、 ダミ一フィールドを 入れなくてもよいため、 記録効率が落ちないという効果がある。
さて、 この第 2の Odd F irstラインを揃える方法は、 既存の再生装置でも第 1映像信号は正常に再生される。 しかし、 既存の再生装置で第 2映像信号の Odd F irst識別子の通りにィン夕一レース変換すると、 奇数と偶数フィールドが逆' になり、 解像度の落ちた見にくい映像が出力される。 これを避けるためには、 図 40で説明した第 2映像信号出力制限情報付加部により、 従来の再生装置で再生 する時に、 DVD規格内で第 2映像信号の再生を制限する情報を光ディスク 85 に記録しておけば、 第 2映像信号は既存の再生装置で再生されないため、 使用者 に不愉快な映像をみせるという事態を避けることができる。
この記録装置において、 Odd F st画像と変換された Odd First画像の 1対 のフィールド画像を各々の圧縮部 8 1 a, 82 bで可変符号化の画像圧縮を行う場 合、 別々に動き検出と補償を行うと圧縮しにくい画像をエンコードする時に、 ブ ロック歪みが別々に現れるため、 プログレシブ信号に合成した時、 デコード画像 が汚くなる。 これを避けるため本発明では、 同一の動き検出補償部 20 5により 同一の動きベクトルを採用し、 動き補償し符号化することにより、 2つのフィー ルドをデコードした時、 ブロック歪みが揃うため目立ちにくいという効果がある。 また、 エンコードの負荷も減る。
次に、 この AV同期制御部 1 58の動作について詳しく述べる。
A V同期制御部については、 本発明においても最も重要な部分の一つであるの で、 詳しく説明する。
図 5のシステム制御部 2 1の動作を述べる。 まず、 システム制御部 2 1は光デ イスクが D V D再生装置にセット (挿入) されたかどうかを判別する。 セットさ れたことを検出すると、 機構制御部および信号制御部を制御することにより、 安 定な読み出しが行われるまでディスク回転制御を行い、 安定になった時点で光ピ ックアップを移動させ、 図 2 8に示したボリューム情報ファイルを読み出す。 さらに、 システム制御部 2 1は、 図 2 8のボリューム情報ファイル中のボリュ ームメニュー管理情報に従って、 ボリユームメニュー用のプログラムチェーン群 を再生する。 このボリュ一ムメニュー用のプログラムチェ一ン群の再生時には、 ユーザは、 所望するオーディオデータおよび副映像データの番号を指定すること ができる。 また、 光ディスクの再生時間におけるボリュームメニュー用のプログ ラムチェ一ン群の再生は、 マルチメディアデ一夕の用途に応じて必要でない場合 には、 省略してもよい。
システム制御部 2 1は、 ボリューム情報ファイル中のタイトル群管理情報に従 つてタイトルメニュー用プログラムチェーン群を再生して表示し、 ユーザの選択 に基づいて選択されたタイトルを含むビデオファイルのファイル管理情報を読み 出して、 タイトル先頭のプログラムチェーンに分岐する。 さらに、 このプロダラ ムチェーン群を再生する。
図 2 9はシステム制御部 2 1によるプログラムチェーン群の再生処理の詳細な 手順を示すフロ一チャートである。 図 2 9において、 ステップ 2 3 5 a、 2 3 5 b、 2 3 5 cで、 まずシステム制御部 2 1は、 ボリューム情報ファイルまたはビ デォファイルのプログラムチェーン情報テーブルから, 該当するプログラムチェ —ン情報を読み出す。 ステップ 2 3 5 dで、 プログラムチェーンが終了していな い場合は、 ステップ 2 3 5 eに進む。
次に、 ステップ 2 3 5 eプログラムチェーン情報内において次に転送すべきセ ルのシームレス接続指示情報を参照し、 当該セルと直前のセルとの接続がシーム レス接続を行うべきか否かを判別し、 シームレス接続の必要がある場合は、 ステ ップ 235 f のシームレス接続処理に進み、 シームレス接続の必要がなければ、 通じよう接続処理に進む。
ステップ 235 f では、 機構制御部、 信号処理部などを制御して DS Iバケツ トを読み出し、 先に転送を行ったセルの D S Iパケット内に存在する V〇B再生 終了時刻 (V〇B— E— PTM) と、 次に転送するセルの D S Iパケット内に損 ザイル VOB再生開始時刻 (VOB— S— PTM) を読み出す。
次にステップ 235 hでは 「VOB再生終了時刻 (VOB— E— PTM) —V 〇B再生開始時刻 (VOB— S— PTM) 」 を算出してこれを当該セルと直前に 転送済みのセルとの S TCオフセットとして、 図 30の AV同期制御部 1 58内 の STCオフセッ卜合成部 164に転送する。
同時に、 ステップ 235 iで、 VOB再生終了時刻 (VOB— E— PTM) を、 STC切り替えスィツチ 162 eの切り替え時刻 T 4として STC切り替えタイ ミング制御部 1 66に転送する。
次に当該セルの終端位置になるまでデータを読み出すように機構制御部に指示 する。 これによりステップ 235 jでトラックバッファ 23に当該セルのデータ が転送され、 転送が終了し次第ステップ 23 5 cのプログラムチェーン情報の読 み出しに進む。
また、 ステップ 23 5 eにおいて、 シームレス接続でないと判断された場合、 トラックバッファ 23への転送をシステムストリーム末尾まで行い, ステップ 2 35 cのプログラムチェーン情報の読み出しに進む。
次に、 本発明におけるシームレス再生を行うためのシームレス接続制御の A V 同期制御方法に関する 2つの実施例を説明する。 これらは図 26と図 39におけ る A V同期制御部 1 58を詳細に説明するものである。
図 39のシステムデコーダ 1 6 1、 オーディオデコーダ 1 60、 ビデオデコー ダ 69c, 69d、 副映像デコーダ 1 59は全て、 図 30の A V同期制御部から与 えられるシステムタイムクロックに同期して、 システムストリーム中のデ一夕の 処理を行う。
第 1の方法では、 図 30を用いて、 A V同期制御部 1 58の説明を行う。
図 30において AV同期制御部は、 STC切替スィッチ 1 62a, 1 62b, 1 62 c, 1 62d, STC 1 63, S T Cオフセット合成部 1 64、 STC設定部
1 65、 STC切替タイミング制御部 166から構成される。
STC切替部 1 62a, 1 62b, 1 62c, 1 6 2d, 162eは各々システム デコーダ 1 6 1、 オーディオデコーダ 1 60、 メインビデオデコーダ 69c、 サ ブビデオデコーダ 69d、 副映像デコーダ 1 5 9に与える基準クロックとして S TC 1 63の出力値と STCオフセット合成部 1 64の出力値とを切り替える。
STC 1 63は、 通常再生において図 39の MP EGデコーダ全体の基準クロ ックである。
STCオフセット合成部 1 64は STC 1 63の値から、 システム制御から与 えられる S TCオフセット値を減算した値を出力し統ける。
5丁じ設定部165は、 システム制御部から与えられる S TC初期値又は S T
Cオフセット合成部 1 64から与えられる S TCオフセット合成値を STC切替 タイミング制御部 1 66から与えられるタイミングで S TC 1 6 3に設定する。
STC切替タイミング制御部 1 66は, システム制御部から与えられる STC 切替タイミング情報と STC 1 63及び STCオフセット合成部 1 64から与え られる STCオフセット合成値に基づいて S TC切替部スィッチ 1 62a〜 l 6 26と5丁 設定165を制御する。
S TCオフセット値とは、 異なる S TC初期値を持つシステムス卜リーム # 1 とシステムストリ一ム #2を接続して連続再生する際に、 STC値を変更するた るめに用いるオフセット値である。
具体的には、 先に再生するシステムストリーム it 1の D S Iパケットに記述さ れる 「VOB再生終了時刻 (VOB— E— PTM) 」 から、 次に再生するシステム ストリーム # 2の D S Iに記述される 「V〇B再生開始時刻 (VOB_S— PT M) 」 を減算して得る。 これらの表示時刻の情報は、 図 5において光ディスクか ら読み出されたデ一夕がトラックバッファ 23に入力される時点で、 システム制 御部 1 67が読み出すことで、 予め算出しておく。
算出したオフセット値は、 システムストリーム # 1の最後のパックがシステム デコーダ 1 6 1に入力されるまでに、 S TCオフセット合成部 1 64に与えられ る。
図 5のデータ復号処理部 1 65は、 シームレス接続制御を行う場合以外は、 M P EGデコーダとして動作する。 この時にシステム制御部 1 67から与えられる STCオフセットは 0または任意の値であり、 図 30における STC切替スイツ チ 162a〜 162 eは常に STC 1 63側が選択される。
次に、 システムストリーム # 1とシステムストリーム #2という S TC値の連続 しない 2つのシステムストリームがシステムデコーダ 1 6 1に連続入力される場 合の、 システムストリームの接続部における S TC切替スィツチ 1 62a〜 1 6 2eの切替及び、 STC 1 63の動作について図 3 8のフローチャートを用いて 説明する。
入力されるシステムストリーム # 1とシステムストリーム # 2の SCR, APT S, VPTS, VDTS説明は省略する。
S T C 1 63には予め、 再生中のシステムストリーム # 1に対応した S TC初 期値が STC設定部 1 65からセットされて、 再生動作とともに順次カウントァ ップ中であるとする。 まずシステム制御部 1 67 (図 5) は、 先に述べた方法 により S TCオフセッ卜の値を算出しておき、 システムストリーム # 1の最後の パックがデコーダバッファに入力されるまでにこの値を S T Cオフセット合成部 1 64にセットしておく。 STCオフセット合成部 1 64は STC 1 63の値か STCオフセット値の減算値を出力し続ける (ステップ 168a) 。
STC切替タイミング制御部 1 66は、 先に再生されるシステムストリ一ム # 1中の最後のパックがデコーダバッファに入力される時刻 T 1を得, 時刻 Τ 1に おいて STC切替スィッチ 1 62aを STCオフセット合成部 1 64の出力側に 切り替える (ステップ 1 68b) 。
以降、 システムデコーダ 1 6 1の参照する STC値には、 STCオフセット合 成部 1 64の出力が与えられ、 システムストリーム #2のシステムデコ一ダ 1 6 1への転送タイミングは、 システムストリ一ム #2のパックヘッダ中に記述され た S CRにより決定される。
次に STC切替タイミング制御部 166は、 先に再生されるシステムストリ一 ム # 1の最後のオーディオフレームの再生が終了する時刻 T 2を得、 時刻 T 2に おいて S TC切替スィツチ 1 62bを STCオフセッ卜合成部 1 64の出力側に 切り替える (ステップ 168c) 。 時刻 T 2を得る方法については後述する。 以降、 オーディオデコーダ 1 60の参照する S丁 C値には、 STCオフセット 合成部 1 64の出力が与えられ、 システムストリーム #2のオーディォ出力の夕 ィミングは、 システムストリーム #2のオーディォバケツ卜中に記述された A P TSにより決定される。
次に S TC切り替えタイミング制御部 1 66は、 先に再生されるシステムスト リーム 1のメイン信号とサブ信号の最後のビデオフレームのデコードが終了す る時刻 T3, T' 3を得、 時刻 Τ 3, T' 3において STC切替スィッチ 162 162dを STCオフセット合成部 1 64の出力側に切り替える (ステップ 1 6 8 d) 。 時刻 T 3を得る方法については後述する。 以降、 ビデオデコーダ 69c,
69 dの参照する STC値には、 STCオフセット合成部 1 64の出力が与えら れ、 システムストリーム #2のビデオデコードのタイミングは、 システムストリ —ム #2のビデオパケット中に記述された VP T Sにより決定される。 次に S TC切り替えタイミング制御部 1 66は、 先に再生されるシステムストリーム # 1の最後のビデオフレームの再生出力が終了する時刻 T4を得、 時刻 T4におい て STC切替スィツチ 162eを STCオフセット合成部 1 64の出力側に切替 える (ステップ 1 68e) 。 時刻 T 4を得る方法については後述する。
以降、 ビデオ出力切替スィツチ 1 69及び副映像デコーダ 1 59の参照する S TC値には、 STCオフセット合成部 1 64の出力が与えられ、 システムストリ ーム #2のビデオ出力及び副映像出力のタイミングは, システムストリーム #2の ビデオバケツト及び副映像バケツト中に記述された VP T Sと S PTSにより決 定される。
これら S TC切替スィツチ 162a〜 162eのスィツチの切替が終了した時点 で、 5丁 設定部1 6 5は、 S TCオフセット合成部 1 64から与えられている 値を STC 1 62に設定し (ステップ 1 68 Π (これを S T C 1 6 3のリロ一 ディングと呼ぶ) 、 ステップ 1 62a〜 1 62 eの全てのスィツチを STC 1 63 側に切り替える (ステップ 1 68g) 。
以降、 オーディオデコーダ 1 60、 ビデオデコーダ 69d, 69c. ビデオ出力 切替スィツチ 1 69及び副映像デコーダ 1 59の参照する S TC値には、 STC 1 63の出力が与えられ、 通常動作に戻る。
ここで、 S TCの切替タイミングである時刻 T 1〜T 4を得る方法として 2つ の手段について説明する。
一つ目の手段としては、 時刻 Τ 1〜丁 4はストリーム作成時に容易に計算し得 るため、 予め時刻丁 1〜丁 4を表す情報をディスクに記述し、 システム制御部 2 1がこれを読み出して、 S TC切替タイミング制御部 1 66に伝える方法である。 特に、 Τ4については、 STCオフセットを求める際に使用する、 DS Iに記 録されている 「VOB再生終了時刻 (VOB— E— PTM) 」 がそのまま使用でき る。
この時に記録する値は, 先に再生するシステムストリ一ム # 1で使用する ST Cの値を基準として記述し、 STC切替タイミング制御部 1 66は、 STC 1 6 3のカウントアップする値が時刻 T 1〜T 4になった瞬間に S TC切り替えスィ ツチ 1 62a〜 1 62 eを切り替える。 2つ目の手段としては、 トラックバッファ 2 3、 ビデオデコーダバッファ 1 7 1 , 1 7 1 a及びオーディオデコーダバッファ 1 7 2に, システムストリーム ft 2の先頭デ一夕を書き込んだタイミングから、 読み出すタイミングを得る方法で ある。
トラックバッファ 2 3力 書き込みポインタと読み出しポインタとデータメモ リから構成されるリングバッファであると仮定すると、 具体的には、 システム制 御部 2 1は、 トラックバッファ 2 3内の書き込みポインタの指すァドレスと読み 出しボイン夕の指すァドレスを読み出す構成とし、 目標パックを書き込んだ際の 書き込みポインタの指すアドレスと読み出しポインタの指すァドレスから、 その 直前に書き込まれたパックが読み出される瞬間を検出する。
システム制御部 2 1は、 システムストリ一ム # 1からシステムストリーム # 2の 再生に移行する際、 光ディスク上のシステムス卜リ一ム# 2の先頭ァドレスを指 定して読み出すため、 システムス卜リーム # 2の先頭デ一夕がトラックバッファ 2 3に格納される瞬間を知る。 次に、 システムストリーム # 2の先頭のパックを 書き込んだアドレスをマークして、 その一つ前のパックを読み出し終える瞬間を T 1とすることで、 時刻 T 1が得られる。
システム制御部 2 1は、 T 1を得た瞬間にこれをビデオデコーダ 6 9 c , 6 9 d、 オーディオデコーダ 1 6 0に知らせることで、 ビデオデコーダ 6 9 c , 6 9 d及び オーディオデコーダ 1 6 0は、 以降の転送においてビデオバッファ 1 7 1及びォ —ディォバッファ 1 7 2システムストリ一ム # 2の先頭のパケットが転送される ことを知る。
従って、 トラックバッファ 2 1のバッファ管理と同様にして、 各デコーダバッ ファの管理を行うことで 2つのビデオデコーダ 6 9 c, 6 9 d及びオーディオデコ —ダ 1 6 0は、 システムストリ一ム# 1の最後のバケツ卜の転送される瞬間を得、 T 2、 T 3を得る。
但し、 T 1の検出がビデオデコーダバッファ 1 Ί 1或いはオーディオデコーダ バッファ 1 72から全てのデータが読み出されて (システムストリーム it 1の最 後のフレームのデコードが行われた直後) 且つ、 書き込むデータがまだ到着して いない場合 (パック間の転送時間が空いている場合) には、 書き込むデータがな いためアドレス管理ができない。 しかしこの場合も、 次のデコードタイミング (システムストリーム # 2の先頭フレームのデコードタイミング) までの間に次 にデコードすべきフレームのパケットは確実に転送されるため、 このパケットが 転送された瞬間を T 2或いは T 3とすることで、 切替タイミングを知ることがで さる。
なお、 T4については先に述べたように、 D S Iパケット中に記述された 「シ ステムストリーム # 1のビデオの最後のフレームの表示終了時刻 (VOB— E— P TM) 」 をそのまま用いれば良い。
次に第 2のシームレス再生の方法を述べる。
図 3 1はシステムストリームが図 38のデータ復号処理部に入力されてからデ コーダバッファ及びデコ一ド処理を経て、 どのような夕イミングでそれぞれ再生 出力されるかを示す図である。 図 3 1を用いて、 システムストリーム H 1とシス テムス卜リーム #2とを接続する部分での APT S及び VP TSの各値の変化を 説明し、 実際にストリームを処理する動作におけるシームレス接続部分での A V 同期制御の方法を説明する。
次に図 3 1のグラフを用いて、 図 43に示したフローチヤ一卜の流れ通りにシ ームレス接続制御を行う方法を説明する。
シームレス接続制御の起動のタイミングは図 3 1 (3) の S CRのグラフで得 られる。 このグラフの S CRの値が増加し続けている期間は、 システムストリー ム #1力 トラックバッファ 23 (図 5) からデータ復号処理部 1 6 (図 5) に対 して転送されている期間であり、 システムス卜リーム It 1の転送が終了してシス テムストリーム #2の転送が開始された G点のみ、 S CRの値が 「0」 となる。 従って、 S CRの値が 「0」 となる G点を判別することで、 新しいシステムスト リーム #2がデータ復号処理部 1 6に入力されたことがわかり、 この時点 (時刻 Tg) で、 同期機構制御部は再生出力部の AV同期機構を〇F F (解除) すれば 良い。
また、 S CRの値が 「0」 であることの検出は、 光ディスクから読み出した信 号を信号処理した後もしくは、 トラックバッファ 23に書き込む際にも可能であ る。 このボイントでの検出を元に A V同期機構を〇F Fしても良い。
次に、 OF Fした A V同期機構を ON (開始) するタイミングであるが、 ォー ディォとビデオとが合わないちぐはぐな再生を防ぐためには、 システムストリー ム# 1に含まれるオーディォ出力及びビデオ出力の両方が新しいシステムス卜リ —ム #2に変わったことを知る必要がある。 オーディオ出力が新しいシステムス トリーム #2のものに変わった瞬間は、 APT Sの値の増加が途切れた H点を検 出することで知ることができる。 また、 同様にしてビデオ出力が新しいシステム ストリ一ム #2のものに変わった瞬間は、 VP T Sの値の増加が途切れた I点を 検出することで知ることができる。 従って、 同期機構制御部は、 H点及び I点の 両方が出現したことを知った後、 直ちに (時刻 Tiにて) AV同期を再起動すれ ば良い。
時刻 Tgから時刻 Tiの期間において、 S TCに S C Rの値をセットしない場合 或いは、 APTSの値と VPTSの値とを直接比較している場合には, AV同期 機構を〇F Fしている期間をさらに短くすることができる。
これには、 データ復号処理部 1 6から出力されるオーディオ出力データの AP
TS及びビデオ出力デ一夕の VP TSの両方の値を監視し、 どちらか一方で先に その値が減少する方についてこれを検出して直ちに、 すなわち図 3 1においては 時刻 Thで、 A V同期機構を OF Fすれば良い。
ただし、 これまで説明したように A P T Sの値及び V PTSの値の増加が継続 しているか否かによるタイミング判定を行う場合は、 システムストリームが接続 された点において A P T Sの値及び VP T Sの値が必ず減少する必要があること は自明である。 これは言い換えれば、 システムストリームの中の APTS、 VP TSの初期値の最大値よりも、 システムストリームの中の最終の APT Sの値、 VPTSの値が大きな値であればよい。
APTS及び VPTSの初期値 (図中 ATad, ATvd) の最大値は次のように して定まる。
A P T S及び V P T Sの初期値は、 ビデオデータ及びオーディオデ一夕をビデ ォバッファ及びオーディォバッファ内にそれぞれ蓄える時間と、 ビデオのリォ一 ダ (MP EGビデオでは、 ピクチャのデコード順序と表示順序とは一致しておら ず、 デコードに対して表示が最大で 1ピクチャ遅れる) との和である。 従って, ビデオバッファ及びオーディォバッファが満杯になるまでに要する時間とビデオ のリオ一ダによる表示の遅れ (1フレーム時問) の和が APT S及び VPTSの 初期値の最大値となる。
従って、 システムストリームを作成する際には、 システムストリーム中の最終 の A P T S及び V PTSの各値が必ずこれらの値を超えるように構成すればよい。 これまで本実施例では、 システムストリーム接続後の A V同期機構 ONのタイ ミングの判断基準について、 APTS及び VPTSの各値が増加しているか否 かを判定する方法で述べてきたが、 次に述べるようなしきい値判定でも実現可能 である。 まず予め、 再生装置側で図 3 1の (4) と (5) のグラフに示すオーデ ィォしきい値及びビデオしきい値をそれぞれ決めておく。 これらの値は、 システ ムストリーム中における APT S及び VP T Sの各値の初期値の最大値に等しく、 上述の最大値と同様である。
そして APTS読み出し手段及び VPTS読み出し手段で読み出した APT S 及び V PTSの各値が、 それぞれオーディォしきい値及びビデオしきい値以下に なるか否かで判定を行う。 APT S及び VP T Sの各値が、 オーディオしきい値 及びしきい値よりも大きければ新しいシステムストリームの出力データには変わ つておらず、 以下になれば新しいシステムストリームの出力デ一夕が開始された ことになり、 A V同期機構の〇F Fもしくは O Nのタイミングを知ることができ る。
以上で説明したような A V同期機構の O N/O F F制御を行うことにより、 シ ステムストリ一ムの接続部分において、 再生状態に乱れを生じないシームレスな 再生を行うことができる。
(合成部の演算)
図 98は図 21の再生装置の合成部の演算と図 23の記録装置の分離演算を詳しく説 明したものである。
図 98 (a)は図 23とを詳しく説明したもので 525P等のプログレシブ映像の Aで表わ す第 qラインデータ 283と Bで表わす第 q+ 1ラインデ一夕 : 284を分離演算部 285の第 1分離演算部 141で(A+B) ÷ 2の演算を行い、 低周波成分 Mを得て第 1ストリ一ムの第 qラインデータ 279とする。 インターレース信号の場合、 第 Pフィールドでは、 1 , 3, 5ラインを作成し、 第 PHフィールドでは第 q ラインデ一夕、 つまり 2, 4, 6ライン をライン毎に演算していく。 こうして得られたィン夕一レース信号は第 1ェンコ ーダ 82aで符号化される。
一方、 第 2分離演算部 143では、 A-Bの演算が行なわれる。 DVD規格等では負の値 が定義されていない。 従来の規格と互換性をもたせるため、 (A-B) ÷ 2に定数 257 を加えて、 負の値にならないようになつている。 8b i tの場合、 定数 277として 1 28 を加えている。 演算結果は、 Sつまり第 qラインのデ一夕 280として、 イン夕レー ス信号が作成され、 第 2エンコーダ 82bで符号化されディスクに MADMのイン夕リー ブ記録される。
次に図 2 1で説明した再生装置の合成部における演算を図 98 (b)を用いて詳しく 説明する。 図 98 (a)で、 本発明の MADM方式で多重化され、 記録されたディスク 85 から分離部 87, 第 1ストリーム, 第 2ストリームに分離し、 デコーダ 88a, 88bで 2つ の映像信号を得る。 この信号はインタ一レース信号で、 第 1ラインが奇数ライン から始まるトップラインファースト (以下 TFと呼ぶ) 信号である。 合成部 90では Mつまりマス夕一信号の第 qラインデ一夕 279と Sつまりサブ信号の第 qラインデ一 夕 280とを第 1演算部 250で(2M+2S-定数)÷ 2の演算を行うと(A+B+A- B+256-256) ÷ 2 =Aとなり、 Aつまり第 qラインデ一夕 283が復元され、 出力映像として、 第 rライン データ 281が出力される。
図 98 (a)の第 2分離演算部 U3で定数 277を加算しているので、 合成部 1 28の 2倍値,
256を引くことにより元のデ一夕が得られる。 この場合、 負数のない従来のデコ ーダを使えるという互換性の効果が得られる。
次に第 2演算部 251では(2M-2S+ (2 X定数))の演算を行うと、 (A+B-A-B-256-256) ÷ 2=Bとする。 つまり、 第 q+ 1ラインデータ 284が得られ、 これを第 r+ 1ラインデ一 夕 282として、 出力する。
こうして 2つのィンタ一レース信号が合成され第 1〜480ラインの 480本のプログ レシブ映像信号が出力される。
図 98, 図 21, 図 23の特徴は演算に 8b i t又は l Ob i tの加算器 1ケと減算器 1ケのみ で、 分離, 合成ができるため、 簡単な構成でよいため、 コストが殆んど上昇しな いで、 プログレシブゃワイド映像信号の高解像度映像が得られる。
また A-Bの信号に定数 278 a, 278bを加えるだけで負の数が再現できるため、 従来 の負の数が扱えないデコーダ 279, 280が使用できるという効果がある。
図 98 (a)に示すように第 1ストリームと第 2ストリームともに, 第 1フィールドの 第 1ラインが奇数ラインつまり、 トップラインファースト (略して TF) から始ま るために DVD規格のエンコーダではトップラインファースト (TF) でないとコマ 落ちするが本発明の方式では、 各ストリームが TFのため、 フィールド落ちしない という効果がある。
図 96は図 98 (b)の再生装置の全体の動作を示したものである。 分離部 87では再 生信号を nGOP単位で分離し、 第 1ストリームと第 2ストリームを作り、 第 1, 第 2デ コーダ 88a,88bで、 2つのトップラインファースト信号 (TF) を復号し、 第 1演算 部 250、 第 2演算部 251でトップラインファースト信号 244とボトムラインファース ト信号 245を作成し、 DA変換部 266で、 525P等のアナログ信号を出力する。
図 96では同じタイムスタンプの 2枚のフィールド画面を垂直方向に合成した場 合を示した。 本発明を用いて水平方向に合成することにより、 水平解像度を 2倍 に高めることができる。 図 58, 図 59, 図 60に記録装置を図 20のワイ ド画像合成部 1 73で再生装置を示したが、 図 91,図 92を用いて記録装置の分離部の原理と再生装 置のワイド画像合成部 173の原理を詳しく説明する。
まず図 91の左半分の各々輝度信号と色信号の分離方法を示し、 水平画素 1440の 入力画素信号 287a, 287bの輝度信号 ΥΟ, ΥΙは図 98の分離演算部 285において、 図 91, 図 92の第 1分離演算部 141 aと第 2分離演算部 143aで各々加算, 減算を行い、 第 1ス トリームの(Y0+YD /2なる輝度信号第 2ストリームの(Y0- Y l ) /2なる輝度信号がで き、 水平 1 440画素の入力信号は水平 720画素の 2つの映像信号に分割される。 第 1 ストリームは水平フィル夕を通過しているため、 高域成分が除去されているため、 従来装置で第 1トリームのみを画面に出力しても折り返し歪が出ないという互換 性が得られる。 図 92は色信号の処理を示し、 入力画素信号 287aと 1つとんだ入力 画素信号 287cの CbOと Cb2の和信号(Cb0+Cb2) /2を第 1ストリームの分離画素信号 29 0aとし、 差信号(CrO-Cb2) /2を第 2ストリームの分離画素信号 291 aを得ている。 同 様にして入力画素信号 287b, 287dより(CrO+Cr2) /2, (CrO- Cr 2) /2を得て、 各々第 1, 第 2ストリームの分離画素信号 290b, 291 bを得る。 こうして水平 1440画素の高解像 度信号は CC IR601や SMPTE259M規格の NTSCグレードの 2つのデジタル映像信号に分 離できる。
次に図 20で簡単に説明した再生装置の合成部 173の処理について詳しく述べる。 図 91の合成部 90では、 まず第 1演算部 250で第 1 , 第 2ストリームの分離画素信号 28 8bと 289dを加算し、 (Υ6+Υ7) /2+ (Χ- Y+256) /2-1 28二 Y6の演算を行い、 Υ6を得て入力 画素 287gを復元する。 次に第 2演算部 251で差演算を行い、 (Y6+Y7) /2+ (X6- Y7+25 6) /2Η 28=Υ7の演算を行い、 Υ7を得て入力画素 287hの輝度信号が得られる。 こう して水平 720画素の 2つの信号から、 和演算器, 差演算器を用いて水平 1440画素の 高解像度信号が得られる。
次に図 92を用いて色信号の合成演算を述べる。 まず Cr信号の場合、 第 1, 第 2ス トリームの分離画素信号 290dと 291 dの和を第 1演算部 250、 差を第 2演算部 251で演 算する。 各々 (Cr4+Cr6) /2+ (Cr4-Cr6+256) /2-128-Cr4, (Cr4+Cr6) /2- (Cr4-Cr6+25 6) /2+ 1 28=Cr6の演算を行い、 Cr4と Cr6が得られ、 入力画素信号 287 f , 287hに割り つけられる。
Cb信号に対しては、 分離画素信号 290c,291 cに対して、 同様の演算を行い、 Cr4, Cr6を得て入力画素信号 287e, 287gに割り付ける。 こうして、 入力信号の輝度信号, 色信号が完全に合成され、 水平 1440画素の高解像度映像信号が得られる。
この映像は 2倍速の再生装置においては, 水平 1440画素のイン夕一レース信号 を再生するが、 図 62で説明した再生装置においては、 3- 2変換を行い、 映画のよ うに 24フレームの信号が記録されている場合は、 3-2変換部 1 74において、 24フレ ームをフレームメモリにより、 複数回反復出力させると 60フレームのプログレシ ブ映像信号が得られる。 このプログレシブ信号をワイド画像合成部 173において、 水平解像度を倍の 1440画素にすると, ワイ ド 525P映像 1 78が得られ、 1440 X 480P のプログレシブ映像が出力される。
このように 3- 2変換部 174とワイド画像合成部 1 73を組み合わせると、 2倍速の再 生装置でも、 映画のような 24Pの映像を再生すると、 1440 X 480Pの高解像度信号 が出力できるという効果がある。 既存の DVDプレーヤで再生した場合は、 第 1スト リームの和信号だけが再生されるが、 水平方向にフィルタリングされているため、 水平のィン夕ーレースも妨害は出ない。
次に図 97を用いて、 プログレシブの 60フレームノ秒の画像を奇数番目のフレー ム数フレーム 294と偶数番目のフレーム偶数フレーム 295の 2つのフレームに分割 した MADMディスクを再生する場合の動作を述べる。 分離部 87, 復号部 88の動作は 図 96と同じであるため説明は省く。 時間方向合成部 296では第 1ストリームの第 1 フィールド 297aと第 2フィールド 297bを合成して第 1奇数フレーム 294aを作成し、 第 2ス卜リ一ムの第 1フィ一ルド 298a, 第 2フィールド 298bを合成して第 1偶数フレ —ム 295aを作成する。 これらのフレームを時間方向に合成して、 1/60秒おきに、 第 1奇数フレーム 294a, 第 1偶数フレーム 295a, 第 2奇数フレーム 294b, 第 2偶数フ レーム 295bと合成していくと、 60フレーム 秒のプログレシブ映像が再生される。 既存の 1倍速の再生装置では第 1ストリームのみが再生されるので、 525インター レース信号 299が再生され、 互換性は保たれるが、 しかし、 30コマ映像のため、 若干動きの不自然さは残る。 この方式は、 30コマと 30コマの 2つのストリームの 記録を行う MADM方式であり、 プログレシブ映像のため MPEGェンコ一ダの符号化効 率が高いという効果が得られる。
(バッファ量の最適化)
図 5のトラックバッファ回路 23の総容量について、 図 45のように 2ストリームを 同時再生する場合は、 最低 1イン夕リーブプロック分のデータを収容する必要が あることを示した。 図 87を用いて、 本発明の MADM方式の再生に必要なバッファ量 を算出する。 1イン夕リーブユニットの容量として、 図 87のような計算値が得ら れる。 各転送レートに対して 5000セクタと 10000セクタトラックジャンプするの に必要なイン夕リーブユニット長である。 8Mbpsの転送レートが最大であり、 100 00セクタがジャンプの最大長である。 従って、 最低 551セクタのイン夕リーブュ ニット長があれば、 1倍速のドライブでも安定して、 卜ラックジャンプして別の ストリームのィン夕リーブュニッ卜に切り換えることができる。 実際には 1倍速 より速いドライブを使用しているので、 551セクタ必要ないが、 最悪のことを考 えると、 ディスクメ一カーは 8Mbpsのストリームの時 551セクタ以上のィン夕リー ブユニットを記録する。 従って、 本発明の MADM方式の場合、 図 45に示したように 1インタリーブユニット分のバッファメモリが必要となる。 つまり、 551セクタ, 1 102バイ ト以上のバッファメモリを設定することにより、 安定して 2ストリーム の同時再生が可能となる。
(2つの再生情報の切り換え) 図 93、 94、 95は従来機における動作と本発明の装置との動作を変えて, デイス 夕の互換性を保つ方式を説明したものである。
図 95 (a) は本発明の MADM方式のディスクを従来機で再生した時の動作を示し、 図 95 (b) は、 MADM方式のディスクを MADM方式の再生装置で再生した時の動作を 示す。
光ディスク l aの中には複数個、 図では 4個のストリームが分割記録されている。 従って、 同じ第 n時間の時間情報をもつ 4つのイン夕リーブユニット 84a、 84b, 84 c、 84dが順番に光ディスク l a上に記録されている。 またこれらとは別に光デイス ク l aにはストリーム 1と 3を再生するための第 1再生情報 300と、 ストリーム 1、 2、 3、 4を再生するための第 2再生情報 301の双方が光ディスク l a上に記録されている ことを示す第 2再生情報識別子 302が記録されている。
第 1再生情報 300、 300a, 300cには図 95 (c) に示すようにストリーム 1、 3に対 応するイン夕リーブブロック 84a、 84cに関する先頭ァドレス情報つまりボイン夕 しか記録されていない。 従って既存の再生装置では MADM方式の再生が考慮されて いないため、 第 2再生情報識別子 302を再生できないため、 効果的に第 2再生情報 3 01を読むことも利用することもできない。 従って、 従来では第 1、 第 3ストリーム の 2ストリームしか記録されてないかの如く動作し、 第 2 , 第 4ストリームは全く 再生できない。 立体信号を MADM記録した場合は、 例えば左眼しか再生されないた め、 立体表示しない場合は無意味な右眼の映像を表示されることが防止される。 高画質映像を MADM記録した場合は、 第 1、 第 3ストリームには、 基本成分、 例え ば NTSCが記録されている。 第 2、 第 4ストリームには差分信号つまり、 色のない線 画が記録されているが、 従来機では第 2、 第 4ストリームは実質的に再生されてな いため、 これらの無意味で、 不快な映像を使用者が見ることが未然に防がれる。 こうして MADMディスクを従来の再生装置で再生した場合に、 第 1、 第 3ストリーム の正常な映像信号が再生されると同時に、 第 2、 第 4ストリームの通常でない映像 が再生されないため、 完全な互換性が実現する。 この動作をフローチャートで説 明する。 図 93のフ口一チヤ一ト図に示すようにステップ 303aで MADM方式の mスト リームのディスクを再生する。 この場合、 第 1再生情報 300aにはストリーム 1、 3 に関するポインタ情報つまり、 次にジャンプするイン夕リーブュニット 84eの先 頭ァドレスが記録されているため、 このァドレス情報を用いて図 3に示したよう に数トラックのトラックジャンプを行い、 第 1ストリームの次の時間情報をもつ インタリーブブロック 84eの先頭ァドレスをアクセスできるため、 第 1ス卜リーム を次々と連続的に再生できる。
次にステツプ 303bでス卜リームを切り換える入力命令があった場合は、 ステツ プ 303cで第 2再生情報 301の DVD規格の場合は PCIテーブルの存在を示す識別子をチ エックする。 MADMディスクの場合、 第 2再生情報の存在を示すノンシームレス、 つまり PC I識別子ではなく、 第 1再生情報の存在を示すシームレス、 つまり DS I識 別子が記録されているため、 ステップ 303dへ進み、 第 1再生情報である DS Iテ一ブ ルを利用する。 しかしステップ 303eで第 1再生情報 300には、 第 1、 第 3ストリーム のボイン夕情報しかないため、 ステップ 303 fで第 1ストリームと第 3ストリームの ポインタ情報に基づき、 トラックジャンプを行い、 第 1ストリームの連続再生モ ードを続ける。 もしくは第 1ストリームから第 3ストリームに切り換え、 再び第 3 ストリームの飛び石的な連続再生を行う。 こうして、 ステップ 303gに示すように、 第 1ストリームの第 3ストリームの再生に限定され、 通常の NTSC等の画像が出力さ れるとともに第 2、 第 4の通常でない不快、 不用の画像の出力が制限されるため, 完全な互換性が実現する。
次に MADM方式の再生装置において、 第 1、 2、 3、 4のストリームのうち、 2つの ストリームを同時再生する手順を図 94、 図 95を用いて述べる。 図 95 (b) の第 2再 生情報 301、 301 a. 301 b, 301 c . 301 dに示すように、 インタリーブユニット 84aに は第 1、 第 2、 第 3、 第 4ストリームの次の時間情報のイン夕リーブユニット 84e先 頭アドレス情報が、 記録されている。 従って、 4つのストリームのうち、 任意の ストリームのインタリーブユニット 84e、 84 f、 8 、 84hのセクタ等の物理アドレ スがわかるため、 容易にトラックジャンプできる。 これは MADM再生装置が第 2再 生情報識別子 302を再生し、 第 2再生情報の存在を知り、 第 2再生情報 301を利用す るからである。
こうして、 ストリーム 1 , 2の同時再生、 もしくはストリーム 3、 4の同時再生が 行い、 MADMディスクから立体もしくは高解像度信号の再生が可能となる。 なお、 第 2再生情報識別子 302としては、 従来ディスクと MADMディスクの識別ができれば よく、 最低 I b i tでよい。 高解像度信号や立体信号の存在を示す M A D M識別子で もよい。
この動作を図 94のフ口一チャートを用いて説明する。 ステップ 304aで、 MADMデ イスクを再生し、 ステップ 304bで第 2再生情報識別子 302 , もしくは MADMの高解像 度 Z立体識別子をチェックし、 Noの場合は、 従来ディスクと判断し、 ステップ 30 4hへ進む。 Yesの場合は、 ステップ 304cに進み、 イン夕リーブユニット 84の識別 子をみて、 第 2再生情報の存在を示す識別子がある場合、 DVDの場合はシームレス 識別子がある場合、 ステップ 304dで、 ノンシームレス識別子と、 よみかえてノン シームレス用のテーブルである PC Iつまり本来は有効でない第 2再生情報を有効で あるとみなす。 ステップ 304eで第 2再生情報から第 1 , 、 3、 4ストリームのリン ク情報を抽出する。
ステップ 304 fでは第 1再生情報, DVDでは DS Iテ一ブルから切り替え可能なスト リームの主ストリームを検出する。 図 95の場合は第 1、 第 3ストリームが主ストリ ームであることがわかる。 つまり、 第 1再生情報には主ストリーム情報、 第 2再生 情報には主と副のストリーム情報が含まれているので、 両者から主と副の区別が できるという効果がある。 図の場合ストリームグループ (アングル) 数は、 2個 であることが第 2再生情報をチェックすることによりわかる。
そしてステップ 304gでは、 ストリーム (アングル) 切り換え命令がきた時は、 ステップ 304mで第 1ストリームから第 3ストリームへ切り換える場合は、 第 2再生 情報の第し 第 2ストリームのポインタ情報を用いた第 1、 第 2ストリームの 2スト リーム同時再生モード (A) から、 第 3、 第 4ストリームの同時再生モード (B) に 切り換える。 つまりインタリーブユニット 84a、 84b, 84e、 84fの飛び石アクセス から、 イン夕リーブユニット 84c、 84d、 84gの飛び石アクセスに切り換える。 こ うして、 2ストリーム単位の 2ストリームグループの切り換えが可能となる。
さて、 ステップ 304hに戻り、 ディスク上には第 2再生情報は無効であるという、 シームレス識別子が記録されているため従来ディスクでは、 ステップ 304jで、 第 2再生情報 (PC I ) は無効であるとみなしてステップ 304kで第 1再生情報 (DS I ) の みを用いて第 1 , 第 3ストリームの再生のみを行う。
以上のように従来ディスクと MADMディスクの識別子を検知することにより、 従 来のルールでは有効でない第 2再生情報を有効とよみ変えることにより、 従来装 置で MADMディスクを再生しても無意味や不快な映像を出力しないため、 互換性が 向上するという効果が得られる。
(2画面同時再生)
図 90を用いて, 図 5で説明した 2画面合成部 28の動作を詳しく説明する。 実際に は n画面であるが、 本文中では 2画面と表現する。 図 90の π画面合成部 28bには第 1、 第 2ストリームの第 1映像 (A) 、 第 2映像 (B) 、 第 1サブピクチャー、 第 2サブピ クチャ一の 4つの映像が入力される。 簡単な構成の場合、 ラインメモリ 28cをもつ。 この場合、 Aの第 1映像 28pと Bの第 2映像 28qをラインメモリ 28cでライン合成する とモード のような 2画面の横配置画像が得られる。 第 1、 第 2ストリームの音声 信号 (A) (B) は音声ミキサ 28 Πこより、 合成されて、 モード 1 Lの場合は、 Aの音 声のみ出力される。 モード 2Lでは第 1ス卜リームのサブピクチャーである第 1サブ ピクチャーを画面上に合成する。 字幕等のサブピクチャー 28rを 1方だけ n画面合 成部 28bが選択して表示することにより、 表示を大きくできるという効果がある。 モ一ド 2Lでは画面の右側のスピーカーに第 2音声 Bをミキシングして出力している。 このことにより、 第 2映像 Bの第 2音声 28sを小さな音で聞けるという効果がある。 より高度な構成としてフレームメモリ 28dを用いてることにより、 2画面のズー ムが可能となる。 ズーム指示信号 28pを受けたズーム信号発生部 28eは n画面合成 部 28bと音声ミキサー 28 Πこ比率変更信号を送る。 モード 1の 2画面画像 28 iに示す ように、 第 1映像 (A) を拡大したどきは、 第 1音声の音声を使い、 逆の時は 2画面 映像 28jのように第 2音声を出力する。 こうして第 1ストリームと第 2ストリームの 映像信号と音声信号の比率を各々変えることにより、 映像と音声のマッチングが とれる。 2画面画像 28D1のようにフレームメモリで第 3〜第 6ストリームの画像を分 割表示してもよい。
以上のように、 2つのストリームを同時再生して 2つの映像信号を出力し、 2画 面合成部 28、 28bと音声ミキサー 28 Πこより、 画面の合成と音声の合成を行うこと により、 2つのストリーム例えば, 2つのカメラでとった映像を 2画面同時に観賞 することができる。
(フィル夕の変更)
本発明では、 図 22等で示す映像分離部 141 aで映像信号を低域と高域に分離する。 この分離フィル夕は図 46に示すように表せる。 図 22では ml =0、 m2=l /2、 m3= l/2, m4=0を第 1ストリームの分離演算に、 ml =0、 m2=l /2, m3=-l /2. m4=0の演算パラメ —夕を第 2ストリームの分離演算に用いた例を示した。 この条件の場合、 525Pの プログレブ信号が垂直解像度 250本を境界として、 低域成分と高域成分に分離さ れる。
mK m2、 m3、 m4の演算パラメ一夕を変えると境界の分離周波数を変更できる。 図 50に示すように、 分離周波数を 200本、 250本、 300本と変え、 各々のフィル夕 識別子 144を光ディスクに記録しておくことにより、 再生時図 96の再生装置のフ ィル夕識別子再生部 305で検知し、 図 50のフィルタ識別子に応じて、 図 96の演算 パラメ一夕出力部 306より演算部 21 2aの演算パラメ一夕 n l、 η2、 π3、 η4の設定値 を変更する。 合成部 90の演算部 21 2aはこの設定値を受けて演算を行い、 垂直ライ ンの n- 1ライン、 nライン、 n+1ライン、 n+2ラインに nl , n2, n3、 n4の演算パラメ 一夕 196aに基づく演算処理を施し、 nラインの信号を復元する。 この処理は実際 には第 1演算部 250と第 2演算部 25 1の内部で行つてもよい。
この映像分離フィル夕の分離周波数値を変えることにより、 第 1ス卜リームと 第 2ストリームのデータ量の配分を変えることができる。 DVD規格の場合、 第 1、 第 2ストリームは各々最大 8Mbpsの容量をもつ。 分離周波数値を固定にすると、 高 域成分が多い画像は第 2ストリームのデ一夕がオーバーフローして、 高域の MPEG 符号化信号が破綻をきたす。 一方、 低域成分が多い画像は第 1ストリームがォー バーフローし、 符号化時、 破綻し, 画像が極端に悪くなる。 分離周波数を可変と し高域成分が多いときは、 図 50の分離周波数を 300本に高めると第 2ストリームの データ量が減り、 第 1ストリームのデータ量が増え、 配分が最適化され符号化の 破綻が回避できる。
低域成分が多いときは、 分離周波数値を 200本に下げると逆に、 第 1ストリーム のデ一夕量が減り、 破綻が防げる。 通常はこのケースが多く、 効果的である。 こ のように分離フィル夕の境界値を映像の状況に応じて変更することにより、 一方 のストリームの符号化の破綻を防ぐことができるので美しい映像信号が再生でき るという効果がある。 つまり. 分離点を変更して第 1ストリームと, 第 2ストリー ムの一方のオーバーフローを防ぐことができるため、 配分のバランスがよい記録 再生ができる。
(走査線変換処理) ,
図 5で述べた走査線変換部 29 aの動作を具体的に説明する。 MADMデイスクの中に は、 プログレシブ等の高解像度信号を記録した領域と NTSCのような標準解像度信 号の記録領域とが混在する。 この場合、 2つのストリームの同時再生と 1つのスト リームの単独再生が混在し、 出力はプログレシブから NTSCへ、 また NTSCとプログ レシブへと変更される。 この変化点において、 そのまま出力部 29bより出力する と走査周波数が 31 . 5kHzから 1 5. 7kHzに変更されるため、 TV29cの偏向周波数が切 り換わり、 数秒間画像が乱れてしまう。 ライン夕ブラ内蔵 TVにおいてもプログレ シブ映像から NTSC映像への切り換えの間、 画像が乱れる。 この乱れを避けるため 本発明では、 MADMディスク 1に記録されている MADMディスク識別子 10hを用いて第 1ストリームの NTSC映像を走査線変換部 29aで、 倍速走査するか、 プログレシブ信 号を、 そのまま出力するかを切り換える。 つまり出力部 29bでプログレシブ信号 と NTSC映像の倍速変換信号を自動的に切り換える。 すると 2ストリーム再生の高 解像度領域から 1ストリーム再生の通常解像度領域に切り換わる時、 瞬時に出力 信号が切り換わるため、 TV29cでは連続的にプログレシブ信号が入力される。 従 つて、 全く T Vの画面か乱れないと言う効果がある。
(ストリーム切り換え禁止フラグ)
既存の装置で、 高解像度信号の差分出力を再生させない方法として、 ストリー ム切り換え禁止フラグを記録する方法を述べる。
図 86に示すように、 ステップ 307aで、 ディスク 1 cにストリーム切り換え禁止フラ グ 309を記録する。 ステップ 307bで管理情報に、 初期ストリーム値としてストリ ーム 1を設定する。
このディスク l cを既存の再生装置にかけると、 ステップ 307aで、 アングル 1つ まりストリーム 1の管理情報を読み出し、 ステップ 307 fでアングル 1を再生開始す る。 ステップ 307gでアングル切り換え命令が入力されると、 ステップ 307hで、 ァ ングル (ストリーム) 切り換え禁止フラグをチェックする。 MADMディスクでは、 フラグがあるためステップ 307 iでアングル (ストリーム) を切り換えない。 この ため、 MADMの差分映像の出力は防止され、 互換性が保たれるという効果がある。 (HDTV (1080 i ) 出力)
HDTVの T Vに出力する 1080 iの映像を作成する方法を述べる。 図 20では、 スコ ープ画面 178に示すように、 ワイド の映像が出力される。 この出力はライン 夕ブラ 29bにより、 1050本のプログレシブ映像となり、 さらにインターレース変 換部 1 75bにより、 1050本のインターレース映像となる。 つまり、 略々 1080本のィ ン夕一レース映像 178bが得られる。 こうして HDTVの TVへの出力が可能となる。 (高品位音声出力) 図 20では、 高品位音声を再生するが、 リニア PCMの場合 1 . 5Mbps〜4Mbpsの帯域 が必要となる。 MADMでは、 図 88に示すように基本音声部 312は 380kbpsの AC3でス トリーム 1に記録し、 高品位音声部 31 3はストリーム 3に入っている。 同時に MADM 識別子として、 音声記録識別子 31 4が記録されている。 図 20の再生装置では、 音 声記録識別子再生部 31 1で音声記録識別子 314を再生した場合、 図ではストリーム 2より音声信号を分離し、 音声デコーダ 1 60aで、 高品位音声を再生し、 音声出力 として出力する。
DVDの場合、 最大 8Mbpsしか 1つのストリームに与えられてない。 最大 4Mbpsも の高品位音声を基本映像が入っている第 1ス卜リームに記録すると、 基本映像が 4Mbpsとなり劣化し, 互換性を確保できない。 図 88の高品位音声 313a, 31 3b, 31 3 cのように、 第 2ストリームや第 3ストリーム、 第 4ストリームに収納することによ り、 基本映像を劣化させずに高品位音声を記録できるという効果がある。 特に第 2ストリームの 525pの差分信号のデータ量は基本映像信号の 1 /2から 1/3であるた め、 4Mbps程度の余裕がある。 従って図 88の高品位音声 313a, 31 3bに示すように第 2、 第 4ストリームに差分映像信号と高品位音声を混合しても、 差分信号を劣化さ せることなく、 収納できるための高画質の映像と高品位音声を 2倍速の再生装置 で再生できるという効果がある。
(MADM識別子の照合方法)
図 4に示すように、 MADMディスクには ΤΠファイルのような管理情報に MADM識別 子が記録されている。 しかし TXTファイルには MADM識別子と同じデータがたまた ま誤って記録されてレゝる可能性がある。 このようにディスクを MADMデイスクと判 断して再生すると誤動作し、 異常な画像を合成し出力してしまう。 この誤動作を 防ぐために、 本発明では照合用の認証デ一夕を記録する方法を用いている。
図 1に示すように、 認証データ生成部 31 5を設け、 MADM識別子 10bとディスクの タイトル名、 ディスク ID、 ディスク容量、 最終アドレス値等のディスク (原盤) 固有のディスク属性情報 316を認証データ生成演算部 31 7で演算し、 MADM認証デー 夕 31 8を生成し、 MADM識別子 10bと認証データ 31 8またはプログレシブ 立体配置 情報とともに光ディスク 1に記録する。
次にこの光ディスク 1を図 5の再生装置で再生し MADM識別子照合部 26aで照合す る。
この動作を図 9を用いて詳しく説明する。 識別子照合部 26aでは、 MADM識別 子 10bと MADM認証データ 318とタイトル名、 ディスク番号、 容量、 アドレス等のデ イスク固有のディスク属性情報 31 6を光ディスク 1より読み出し、 これらの 3つの データを照合演算部 319で照合し、 判定部 320で正しい場合のみ MADM再生部 321で M ADM再生の命令を制御部 21に送り、 2ストリームを合成して高解像圧映像や立体映 像を出力する。 判定部 320で、 照合結果が正しくない時は, 通常再生部 322で MADM 再生せずに通常の再生を行う命令を送る。
こうして、 もし MADM識別子 10bと同じデータ力 XTファイルにたまたま誤って記 録されていても、 MADM再生装置では認証デ一夕を用いて照合するので、 誤動作す ることは未然に防止されるという効果がある。 なお、 この場合認証データと MADM 識別子を一つのデ一夕にしてもよいし、 暗号を用いて MADM識別子とディスク属性 情報を暗号化したデータを記録してもよい。
以上が本発明の複数ストリーム同時再生合成方式つまり MA D iM方式を用いた 場合の応用例である。 次に MA D Mの同期方式について述べる。
(実施の形態 2 )
本発明の MA D M方式は複数のストリームを同時再生できるものであり、 同期 方式が重要である。 実施の形態 2から 8までは様々な同期の方法を述べる。 応用 として実施の形態 1で述べた立体や 5 2 5 P等の高解像度映像の記録再生に用い ることができるが、 実施例では省略する。
一例として、 本発明の実施の形態 2では、 同時に再生すべき 3本の圧縮映像信 号が記録された光ディスクからデータを読み出し、 3本の映像を同時に伸長再生 する再生装置の動作を説明する。 まず、 図 66に実施の形態 2の光ディスク再生装置で使用する光ディスク上の データ構造を示す。
3本の映像信号である映像信号 A、 映像信号 B、 映像信号 Cをそれぞれ MP E G圧縮し、 圧縮映像ストリーム A、 圧縮映像ストリーム B、 圧縮映像ストリーム Cを得る。
各圧縮映像ストリーム A〜Cは、 それぞれ 2 KB毎にビデオバケツトとしてパ ケット化される。 各バケツ卜のバケツトヘッダには格納されているデ一夕が圧縮 映像ス卜リーム A〜Cのいずれであるかを識別するためのストリ一厶 I Dと、 パ ケッ卜にビデオフレームの先頭が格納されている場合には、 そのフレームを再生 すべき時刻を示す映像再生時刻情報としての VPTS (Video Presentation Tim e Stamp)が付加される。 実施の形態 2では各映像信号として N T S Cの映像を用 いており、 ビデオフレーム周期は概略 33ms e cである。
光ディスクには、 上記のように作成されたビデオバケツトを格納デ一夕ごとに、 適当な個数のビデオバケツトで圧縮映像信号 A _ 1、 圧縮映像信号 B— 1、 圧縮 映像信号 C— 1のようにグループ化され、 多重化されて記録されている。
図 64は実施の形態 2の光ディスク再生装置のプロック構成図である。
図 64において、 50 1は上記で説明した光ディスク、 50 2は光ディスク 5 0 1からデータを読み出す光ピックアップ、 503は光ピックアップ 502が読 み出した信号に対して 2値化、 復調、 エラー訂正などの一連の光ディスクの信号 処理を行う信号処理手段、 504は信号処理手段 503から出力されたデータを 一時的に格納するバッファメモリ、 505はバッファメモリ 504から読み出し たデータをそれぞれの圧縮映像信号に分離する分離手段、 506は基準時刻信号 を生成する基準時刻信号生成手段で、 図示しない 90 KH zのクロックをカウン 卜するカウン夕により構成されている。 5 1 0、 520, 530は分離手段 50 5により分離されたそれぞれの圧縮映像信号を一時的に格納するバッファメモリ、
5 1 1、 52 1、 53 1はそれぞれの圧縮映像信号を伸長再生するビデオデコー ダ、 5 1 2 , 5 2 2 , 5 3 2はそれぞれの映像信号を表示するモニタ一である。 図 6 5にビデオデコーダ 5 1 1、 5 2 1、 5 3 1の構成を示す。
図 6 5において、 6 0 1はビデオバケツ卜のバケツトヘッダに格納される V P
T Sを検出する V P T S検出手段、 6 0 2は圧縮映像ストリームを M P E G伸長 する映像伸長手段, 6 0 3は基準時刻信号と V P T Sを比較して、 比較結果が閾 値を越えている場合に映像再生をフレーム単位でスキップもしくはリピー卜する 映像再生タイミング制御手段である。
図 6 4に示した光ディスク再生装置の動作について、 以下に述べる。
光ピックアップ 5 0 2は図示しないサーボ手段によりフォーカス制御やトラッ キング制御され、 光ディスク 5 0 1から信号を読み出し、 信号処理手段 5 0 3に 出力する。 信号処理手段 5 0 3では 2値化処理、 復調処理、 エラー訂正処理など 一連の光ディスク信号処理を施し、 デジタルデータとしてバッファメモリ 5 0 4 に格納する。
ノ ッファメモリ 5 0 4は光ディスク 5 0 1からのデータ読み出し供給が、 回転 待ちなどによつて一時的に途絶えた場合でも後段に対するデ一夕供給を途絶えさ せないように機能する。
バッファメモリ 5 0 4から読み出されたデータは分離手段 5 0 5において、 圧 縮映像信号 A〜圧縮映像信号 Cに分離されて、 それぞれ出力される。 分離手段は ノ、 'ケット化されたデ一夕のバケツトヘッダのストリーム I Dにより各バケツ卜に 格納される圧縮映像ストリームが A〜Cのいずれであるかを識別し、 識別結果に 応じて出力先を決定する。
分離された映像圧縮信号はそれぞれバッファメモリ 5 1 0〜 5 3 0に格納され る。
各バッファメモリ 5 1 0〜 5 3 0は、 ビデオデコーダ 5 1 1〜 5 3 1に対して 連続的にデータを供給するように機能する。
ビデオデコーダ 5 1 1〜 5 3 1は、 それぞれバッファメモリ 5 1 0〜 5 3 0か らデータを読み出し、 圧縮映像信号を伸長し、 映像信号としてモニタ 5 1 2〜 5 32に出力する。
図 65を用いて各ビデオデコーダ 5 1 1〜 531の動作について述べる。 バッファメモリから読み出した圧縮映像信号は VPTS検出手段 60 1と映像 伸長手段 602に入力される。
映像伸長手段 602では圧縮映像ストリームに対して MP EG伸長処理を施し て, 映像信号を出力する。
VP TS検出手段 60 1ではバケツトヘッダの VP T Sを検出して出力する。 映像再生タイミング制御手段 603では映像伸長手段 602から出力される映 像信号と、 基準時刻信号、 VPTS検出手段 60 1から出力される VPTSを入 力し、 基準時刻信号と VPTSとを比較し、 両者の差が闕値を越えた場合に VP T Sと基準時刻信号の差が閾値以下となるように映像再生のタイミングを制御す る。
実施の形態 2では、 映像再生の為の閾値として、 33m s e cを用いており、 映像再生夕イミング制御手段 603では、
(基準時刻信号— VPTS) > 33ms e c : 1フレームスキップ (基準時刻信号一 VPTS) < — 33ms e c : 1フレームリピート を行うものである。
実施の形態 2では基準時刻信号生成手段 506や各ビデオデコーダ 5 1 1 - 5 3 1で用いている水晶発振器の精度誤差によりビデオデコーダ 5 1 1とビデオデ コーダ 53 1は基準時刻信号に対して伸長再生の進行が遅く、 またビデオデコ一 ダ 52 1は基準時刻信号に対して伸長再生の進行が早いため、 再生タイミングの 補正を行わない場合は、 それぞれで再生される映像信号同士の同期がずれること になる。
図 67に実施の形態 2における映像再生のタイミングチャートを示す。 図 6 7 の(a)は再生時間 tに対する基準時刻信号を示した図であり、 同様に(b)はビデオ デコーダ 5 1 1が伸長する圧縮映像信号 Aの VPT Sである VP T S # Aを、
(c ) はビデオデコーダ 52 1が伸長する映像圧縮信号 Bの VP T Sである VP TS井 Bを、 (d) ビデオデコーダ 531が伸長する映像圧縮信号 Cの VP T S である VPTS#Cを、 それぞれ示している。
ビデオデコーダ 51 1が圧縮映像信号 Aの伸長再生動作を続け、 基準時刻信号 が T 1の時点で、 VPTS # Aと基準時刻信号の差が閾値である 33m s e cを 越えるため、 ビデオデコーダ 5 1 1の映像再生タイミング制御手段が、 本来再生 すべき 1フレームをスキップすることにより、 VPTS #Aと基準時刻信号の差 が閾値以下となるよう再生タイミングを補正する。
また、 ビデオデコーダ 52 1が圧縮映像信号 Bの伸長再生動作を続け, 基準時 刻信号が T 2の時点で、 V P T S # Bと基準時刻信号の差が閾値である— 33m s e cを越えるため、 ビデオデコーダ 52 1の映像再生タイミング制御手段が、 その時点で再生しているフレームをリピート再生することにより、 VPTS#B と基準時刻信号の差が閾値以下となるよう再生タイミングを補正する。
同様に, ビデオデコーダ 53 1は圧縮映像信号 Cの伸長再生動作を続け、 基準 時刻信号が丁 3の時点で、 VPTS#Cと基準時刻信号と差が閾値である 3 3m s e cを越えるため、 ビデオデコーダ 53 1の映像再生タイミング制御手段が、 本来再生すべき 1フレームをスキップすることにより、 VPTS #Cと基準時刻 信号の差が閥値以下となるよう再生タイミングを補正する。
上記のように、 実施の形態 2では基準時刻信号と各ビデオデコーダが検出する
VPTSの差が閾値を越えた場合に、 各ビデオデコ一ダの映像再生タイミング制 御手段の補正機能が動作し、 基準時刻信号と各 V PTSの差が閾値を越えないよ う保たれ、 各ビデオデコ一ダが再生する映像を同期させることが可能となった。 (実施の形態 3)
本発明の実施の形態 3は、 音声を再生すべき時刻を示す音声再生時刻情報を用 いて、 基準時刻信号を補正し、 この基準時刻信号により複数の映像信号の同期を 合わせる再生装置に関するものである。
図 70に実施の形態 3の光ディスク再生装置で使用する光ディスク上のデータ 構造を示す。 この光ディスクには実施の形態 2で使用した光ディスクに比べて、 圧縮音声データも含めて記録されている。
音声信号を 32ms e c単位でオーディオフレーム化して圧縮し、 圧縮音声ス トリームを得て、 2 KB毎にオーディオパケットとしてパケット化して、 光ディ スクに記録される。 オーディオパケットのパケットヘッダには、 格納されている データが圧縮音声ス卜リームであることを示すストリーム I Dと、 バケツトにォ —ディオフレームの先頭が格納されている場合には、 そのオーディオフレームを 再生すべき時刻を示す音声再生時刻情報としての APT S (Audio Presentation Time Stamp) が付加される。
図 68に実施の形態 3の再生装置のブロック構成図を示す。
同図 50 1〜532までは実施の形態 2の図 64で示した光ディスク再生装置 と同様の構成である。
540は圧縮された音声信号を一時的に格納するバッファメモリ, 541は圧 縮された音声信号を伸長する音声伸長手段、 542は伸長された音声信号を再生 するスピーカ一である。
図 69はオーディォデコーダ 541の構成を示したもので、 70 1はオーディ ォバケツ卜のバケツトヘッダに格納される APT Sを検出する AP T S検出手段、 702は圧縮音声ストリームを伸長する音声伸長手段である。
図 68に示した光ディスク再生装置において、 図 70の光ディスクを再生する 場合の動作について、 以下に述べる。
分離手段 505に入力されるまでの動作は実施の形態 2で示した光ディスク再 生装置と同様である。
バッファメモリ 504から読み出されたデ一夕は分離手段 50 5において、 圧 縮映像信号 A〜圧縮映像信号 C, 圧縮音声信号に分離されて、 それぞれ出力され る。 分離手段 5 0 5はバケツト化されたデ一夕のバケツトヘッダのストリ一ム I Dにより各バケツ卜が圧縮映像信号 A〜C、 圧縮音声信号のいずれであるかを識 別し、 識別結果に応じて出力先を决定する。
分離された圧縮映像信号、 圧縮音声信号はそれぞれバッファメモリ 5 1 0〜 5 4 0に一時的に格納される。
ビデオデコーダ 5 1 1〜5 3 1は, それぞれバッファメモリ 5 1 0〜 5 3 0力、 らデ一夕を読み出し、 圧縮映像信号を伸長し、 映像信号としてモニタ 5 1 2〜 5 3 2に出力する。 また、 オーディオデコーダ 5 4 1はバッファメモリ 5 4 0から データを読み出し圧縮音声信号を伸長し、 音声信号としてスピーカ 5 4 2に出力 する。
ビデオデコーダ 5 1 1〜 5 3 1が圧縮映像信号を伸長する動作、 基準時刻信号 と V P T Sの差が閾値を越えた場合の同期の補正動作は実施の形態 2と同様であ る。
バッファメモリ 5 4 0から読み出した圧縮音声信号はオーディォデコーダ 5 4 1に入力され、 A P T S検出手段 7 0 1で A P T Sが検出され出力される。 音声 伸長手段 7 0 2は圧縮音声ストリームに対して伸長処理を施して音声信号を出力 する。
オーディオデコーダ 5 4 1から出力された A P T S信号は基準時刻信号生成手 段 5 0 6に入力され、 基準時刻信号はこの A P T Sにより補正される。
実施の形態 3では基準時刻信号生成手段 5 0 6や各ビデオデコーダ 5 1 1〜 5
3 1、 オーディオデコーダ 5 4 1で用いている水晶発振器の精度誤差により、 基 準時刻信号の進行はオーディォデコーダ 5 4 1の伸長再生の進行より早く、 ビデ ォデコーダ 5 1 1は基準時刻信号に対して伸長再生の進行が遅く、 またビデオデ コーダ 5 2 1は基準時刻信号に対して伸長再生の進行が早いため、 再生タイミン グの補正を行わない場合は、 それぞれで再生される映像信号同士, および音声と の同期がずれることになる。 図 7 1に実施の形態 3における映像再生, 音声再生のタイミングチャートを示 す。 図 7 1の(a)は再生時刻 tに対する APT Sを示した図であり、 同図 (b) は基準時刻信号を示した図であり、 同様に(c)はビデオデコーダ 5 1 1が伸長す る圧縮映像信号 Aを再生すべき時刻 VPTS # Aを、 (d) はビデオデコーダ 5 12が伸長する圧縮映像信号 Bを再生すべき時刻 VP TS#Bを示している。 なお、 図 7 1ではビデオデコーダ 53 1が伸長する圧縮映像信号 Cの VPTS #Cに関しては示していないが、 その経過は実施の形態 2の図 67とほぼ同様で ある。
基準時刻信号生成手段 506は APT Sが t a 1および t a 2を示す時刻で A PTSを用いて補正され、 それぞれの時刻で基準時刻信号が t a 1および t a 2 に再設定される。
ビデオデコーダ 5 1 1が圧縮映像信号 Aの伸長再生動作を続け、 基準時刻信号 が T 4の時点で、 V P T S # Aと基準時刻信号の差が閾値である 3 3 m s e cを 越えるため、 ビデオデコーダ 5 1 1の映像再生タイミング制御手段が、 本来再生 すべき 1フレームをスキップすることにより、 VPT S # Aと基準時刻信号の差 が閱値以下となるよう再生タイミングを補正する。
同様に、 ビデオデコーダ 52 1が圧縮映像信号 Bの伸長再生動作を続け、 基準 時刻信号が T 5および T 6の時点で、 V P T S # Bと基準時刻信号の差が閾値で ある一 3 3ms e cを越えるため、 ビデオデコーダ 52 1の映像再生タイミング 制御手段が. それぞれの時点で再生しているフレームをリピート再生することに より、 VPTS #Bと基準時刻信号の差が閾値以下となるよう再生タイミングを 補正する。
上記のように、 実施の形態 3では基準時刻信号と各ビデオデコーダが検出する VPTSの差が閾値を越えた場合に、 各ビデオデコーダの映像再生タイミング制 御手段の補正機能が動作し、 基準時刻信号と各 VPTSの差が閾値を越えないよ う保たれ、 各ビデオデコーダが再生する映像信号同士を同期させることが可能と なった。
また、 基準時刻信号と A P T Sの差に関しては、 基準時刻信号を用いて A P T Sを補正するのではなく、 A P T Sを用いて基準時刻信号を補正することにより、 音声の再生に関しては聴覚上の違和感を生じることなく、 音声の再生と各映像の 再生を同期させることが可能となった。
(実施の形態 4 )
本発明の実施の形態 4は、 1つのビデオデコーダが検出する V P T Sを用いて, 基準時刻信号を補正し、 この基準時刻信号により複数の映像信号の同期を合わせ る再生装置に関するものである。
図 7 2に実施の形態 4の再生装置のブロック構成図を示す。
同図 5 0 1〜5 3 2までは実施の形態 2で示した光ディスク再生装置と同様の 構成であるが、 5 5 1は実施の形態 4で用いるビデオデコーダである。
ビデオデコーダ 5 5 1は検出した V P T Sを出力する機能を持つもので、 図 7 3にビデオデコーダ 5 5 1の構成を示す。
8 0 1は圧縮映像信号に多重化されている映像信号の再生時刻を示す V P T S を検出する V P T S検出手段、 8 0 2は圧縮映像信号を伸長する映像伸長手段で ある。
実施の形態 4では基準時刻信号生成手段 5 0 6やビデオデコーダ 5 2 1 , 5 3 1、 5 5 1で用いている水晶発振器の精度誤差により、 基準時刻信号の進行はビ デォデコーダ 5 5 1の伸長再生の進行より早く、 ビデオデコーダ 5 2 1は基準時 刻信号に対して伸長再生の進行が遅く、 またビデオデコーダ 5 3 1は基準時刻信 号に対して伸長再生の進行が早いため、 同期の補正を行わない場合は、 それぞれ で再生される映像信号同士の同期がずれることになる。
図 7 4に実施の形態 4における映像出力のタイミングチヤ一トを示す。 図 7 4 の(a)は再生時間 tに対するビデオデコーダ 5 5 1が検出する V P T S # Aを示 した図であり、 同様に (b ) は基準時刻信号を示した図であり、 同様に(c )はビ デォデコーダ 52 1が伸長する圧縮映像信号 Bを再生すべき時刻 VPT S #Bを、 (d) はビデオデコーダ 53 1が伸長する圧縮映像信号 Cを再生すべき時刻 VP TS#Cを示している。
基準時刻信号生成手段 506は V P T S # Aが t V 1および t V 2を示す時刻 で VPTS # Aを用いて補正され、 それぞれの時刻で基準時刻信号が t V 1およ び t V 2に再設定される。
ビデオデコーダ 52 1が圧縮映像信号 Bの伸長再生動作を続け、 基準時刻信号 が T 7の時点で、 VPTS #Bと基準時刻信号の差が閾値である 33ms e cを 越えるため、 ビデオデコーダ 52 1の映像再生タイミング制御手段が、 本来再生 すべき 1フレームをスキップすることにより、 VPTS #Bと基準時刻信号との 差が閾値以下となるよう再生タイミングを補正する。
同様に、 ビデオデコーダ 53 1が圧縮映像信号 Cの伸長再生動作を続け, 基準 時刻信号が T 8および T 9の時点で、 V P T S # Cと基準時刻信号の差が閾値で ある— 33ms e cを越えるため、 ビデオデコーダ 53 1の映像再生タイミング 制御手段が、 それぞれの時点で再生しているフレームをリピート再生することに より、 VPTS#Cと基準時刻信号の差が闞値以下となるよう再生タイミングを 補正する。
上記のように、 実施の形態 4では基準時刻信号とビデオデコーダ 52 1、 53 1が検出する V P T Sの差が閾値を超えた場合に、 各ビデオデコーダの映像再生 タイミング制御手段の補正機能が動作し、 基準時刻信号と各 V PTSの差が閾値 を越えないよう保たれる。
また、 ビデオデコーダ 55 1が検出する VPTS # Aを用いて基準時刻信号を 補正することにより、 ビデオデコーダ 55 1が再生する映像信号に関してはフレ ーム単位のスキップやリピート再生に伴う視覚上の違和感を生じることはなく、 各映像の再生を同期させることが可能となった。
(実施の形態 5) 本発明の実施の形態 5は、 圧縮映像信号を伸長再生するビデオデコーダを複数 備え、 かつ各ビデオデコーダが基準時刻信号生成手段を備えており、 音声を再生 すべき時刻を示す A P T Sを用いて、 各ビデオデコーダの基準時刻信号を補正す ることにより同期を合わせる再生装置に関するものである。
実施の形態 5では図 7 0のデータ構造で示す光ディスクを用いた。
図 7 5に実施の形態 5の光ディスク再生装置のプロック構成図を示す。
5 0 1 - 5 4 2は実施の形態 3の図 6 8で示した光ディスク再生装置と同様の 構成であり、 図 6 8で示した光ディスク再生装置に比較して基準時刻信号発生手 段 5 0 6を独立して備えておらず、 各ビデオデコーダ 5 6 1〜 5 8 1に備えられ ている点が異なる。
5 6 1は圧縮映像信号 Aを伸長再生するビデオデコーダ、 5 7 1は圧縮映像信 号 Bを伸長再生するビデオデコーダ、 5 8 1は圧縮映像信号 Cを伸長再生するビ デォデコーダである。
実施の形態 5で用いたビデオデコーダ 5 6 1〜 5 8 1の構成を図 7 6に示す。 9 0 1は圧縮映像信号に多重化されている映像信号の再生時刻を示す V P T S を検出する V P T S検出手段、 9 0 2は圧縮映像信号を伸長する映像伸長手段、 9 0 3は基準時刻信号と V P T Sを比較して、 比較結果が閾値を越えている場合 に映像再生をフレーム単位でスキップもしくはリピー卜する映像再生タイミング 制御手段、 9 0 4は基準時刻信号を生成する基準時刻信号生成手段、 である。 実施の形態 5ではオーディオデコーダ 5 4 1が検出する A P T Sを用いて、 ビ デォデコーダ 5 6 1〜 5 8 1が備える基準時刻信号生成手段 9 0 4の基準時刻信 号を補正する。
同一の A P T Sを用いて補正されることにより、 補正後はビデオデコーダ 5 6 1〜 5 8 1で生成される基準時刻信号は同一の値を示す。
A P T Sによる補正後以降は、 実施の形態 3と同様に、 各ビデオデコーダの基 準時刻信号と V P T Sの差が閾値を越えた場合に、 各ビデオデコーダの映像再生 タイミング制御手段がフレーム単位でのスキップもしくはリピート再生し、 差が 閾値以下となるよう再生タイミングを補正する。
上記のように、 実施の形態 5では各ビデオデコーダ内部で生成される基準時刻 信号を A P T Sで補正するとともに、 各ビデオデコーダの映像再生タイミング制 御手段により、 各基準時刻信号と各 V P T Sの差が閾値を越えないよう保たれ、 各ビデオデコーダが再生する映像信号同士を同期させることが可能となった。 また、 実施の形態 3と同様に、 音声の再生に関しては聴覚上の不具合を生じる ことなく、 音声の再生と各映像の再生を同期させることが可能となった。
なお、 実施の形態 5ではオーディォデコーダ 5 4 1が検出する A P T Sを用い てビデオデコーダ 5 6 1〜5 8 1の基準時刻信号を補正したが, 1つのビデオデ コーダに実施の形態 4の図 7 3に示したものを用い、 そのビデオデコーダが検出 する V P T Sを用いて他のビデオデコーダの基準時刻信号を補正することにより、 同様に各映像の再生を同期させることが可能となる。
(実施の形態 6 )
本発明の実施の形態 6は, 2つの圧縮映像信号を同時に再生するもので、 2つ の圧縮映像信号は立体映像信号を右目用の映像信号と左目用の映像信号とに分離 したものをそれぞれ圧縮した信号である。
装置全体の構成は実施の形態 5の図 7 5に示した光ディスク再生装置の構成と ほぼ同様であるが、 同時に再生する映像信号が 2つであることから、 分離手段 5 0 5の後段の圧縮映像信号を伸長するビデオデコーダを 2つ備える構成である。 実施の形態 6で用いる一方のビデオデコーダの構成を図 7 7に、 他方のビデオデ コーダの構成を図 7 8に示す。
図 7 7は一方のビデオデコーダで、 1 0 0 1は圧縮映像信号に多重化されてい る映像信号の再生時刻を示す V P T Sを検出する V P T S検出手段、 1 0 0 2は 入力された M P E G圧縮された映像信号を伸長する映像伸長手段、 1 0 0 4は基 準時刻信号を生成する基準時刻信号生成手段、 1 0 0 3は基準時刻信号と V P T sを比較して、 比較結果が閾値を越えている場合に映像再生をフレーム単位でス キップもしくはリピートするとともに、 再生する映像の水平同期信号、 垂直同期 信号を出力する映像再生タイミング制御手段である。
図 7 8は他方のビデオデコーダで、 1 1 0 1は圧縮映像信号に多重化されてい る映像信号の再生時刻を示す V P T Sを検出する V P T S検出手段、 1 1 0 2は 入力された M P E G圧縮された映像信号を伸長する映像伸長手段、 1 1 0 4は基 準時刻信号を生成する基準時刻信号生成手段、 1 1 0 3は基準時刻信号と V P T Sを比較して、 比較結果が閾値を越えている場合に映像再生をフレーム単位でス キップもしくはリピートするとともに、 映像信号の水平同期信号、 垂直同期信号 を入力し、 この水平ノ垂直同期信号に同期して、 伸長した映像を再生する映像出 力タイミング制御手段である。
また、 それぞれのビデオデコーダは、 図 7 7のビデオデコーダが出力する水平 同期信号、 垂直同期信号を図 7 8のビデオデコーダの水平同期信号、 垂直同期信 号の入力となるよう接続して用いている。
このように構成された実施の形態 6の光ディスク再生装置では、 実施の形態 5 と同様に、 右目用, 左目用の各ビデオデコーダ内部で生成される基準時刻信号を A P T Sで補正するとともに、 各ビデオデコーダの映像再生タイミング制御手段 により、 各基準時刻信号と各 V P T Sの差が閾値を越えないよう保たれ、 右目用、 左目用の映像をフレーム単位で同期させることが可能となった。 さらに, 一方の ビデオデコーダが生成する水平同期信号、 垂直同期信号を、 他方の水平同期信号、 垂直同期信号として用いることにより、 2つの映像は画素単位で同期して再生さ れることが可能となった。
なお、 実施の形態 6では同時に再生する圧縮映像信号として, 立体映像を右目 用, 左目用に分離した映像信号をそれぞれ圧縮した圧縮映像信号を用レ ^たが、 例えば、 第 1解像度を持つ原映像信号を垂直方向もしく Zかつ水平方向に映像信 号を分離した第 1解像度より低い第 2解像度を持つ第 1映像信号と第 2映像信号 を含む少なくとも 2つ以上の映像信号に分離し、 それぞれを圧縮した圧縮映像信 号とすることにより、 立体映像の場合と同様に画素単位での同期がとれた複数の 映像信号を得ることが可能となり、 それらを合成することにより、 第 1解像度の 鮮明な原映像信号を再現することが可能となる。
(実施の形態 7 )
実施の形態 7は 1つ圧縮映像信号と 2つの圧縮音声信号をそれぞれ伸長し、 同 時に再生する光ディスク再生装置に関するものである。
図 8 1に実施の形態 7で使用する光ディスク上のデータ構造を示す。
2つの音声信号である音声信号 D、 音声信号 Eをそれぞれ圧縮し、 圧縮音声ス トリーム D , 圧縮音声ストリーム Eを、 映像信号を圧縮し圧縮映像ストリームを 得る。
圧縮映像ストリーム D、 Eおよび圧縮映像ストリームはそれぞれ 2 K B毎にォ 一ディォパケット、 ビデオパケットとしてパケット化される。 各パケットのパケ ッ卜ヘッダには格納されているデータが圧縮音声ストリーム D、 Eもしくは圧縮 映像ストリームのいずれであるかを識別するためのストリーム I Dと, 前述の A P T S、 V P T Sが記録される。
図 7 9に実施の形態 7の光ディスク再生装置の構成を示す。
実施の形態 3の図 6 8で示した構成とほぼ同様であり、 オーディオデコーダ 5 4 1は図 6 9に示したもの、 ビデオデコーダ 5 3 1は図 6 5に示したものを用い ているが、 オーディオデコーダ 5 9 1は図 8 0に示すものを用いている。
また、 5 9 0は 5 4 0と同様に圧縮音声信号を一時的に格納するバッファメモ リ、 5 9 2は音声信号を再生するスピーカである。
図 8 0にオーディオデコーダ 5 9 1の構成を示す。
1 2 0 1は圧縮音声信号に多重化されている音声信号の再生時刻を示す A P T Sを検出する A P T S検出手段、 1 2 0 2は入力された圧縮音声信号を伸長する 音声伸長手段、 1 2 0 3は基準時刻信号と A P T Sを比較して、 比較結果が閾値 を越えている場合に音声再生をオーディオフレーム単位でスキップもしくはポー ズする音声再生タイミング制御手段である。
次に実施の形態 7における再生動作について説明する。
光ディスク 50 1から読み出した信号が分離手段 505に入力されるまでの動 作は、 他の実施の形態と同様である。
バッファメモリ 504から読み出されたデ一夕は分離手段 505において, 圧 縮映像信号、 圧縮音声信号 D、 圧縮音声信号 Eに分離されて、 それぞれ出力され る。 分離手段 505はバケツ卜化されたデ一夕のバケツトヘッダのストリーム I Dにより各パケットが圧縮映像信号、 圧縮音声信号 D、 Eのいずれであるかを識 別し、 識別結果に応じて出力先を決定する。
分離された圧縮映像信号はバッファメモリ 530に、 圧縮音声信号 Dはバッフ ァメモリ 540に、 圧縮音声信号 Eはバッファメモリ 590に一時的に格納され る。
ビデオデコーダは、 バッファメモリ 530からデ一夕を読み出し、 圧縮映像信 号を伸長し、 映像信号としてモニタ一 532に出力する。 また、 オーディオデコ —ダ 541、 59 1はそれぞれバッファメモリ 540、 590からデ一夕を読み 出し圧縮音声信号を伸長し、 音声信号としてスピーカ 542、 5 92に出力する。 基準時刻信号生成手段 506が生成する基準時刻信号は、 オーディオデコーダ 541に検出される AP T S #Dにより補正される。
オーディオデコーダ 591では、 APTS検出手段 1 20 1で APTS#Eを 検出し、 音声伸長手段 1 202で圧縮音声信号 Eを伸長する。 音声再生タイミン グ制御手段 1 203では音声伸長手段 1202から出力される伸長された音声信 号と、 基準時刻信号、 APTS検出手段 120 1から出力される APTS#Eを 入力し、 基準時刻信号と APTS #Eとを比較し、 両者の差が閾値を越えた場合 に A P T S # Eと基準時刻信号の差が閾値以下となるように音声再生の夕イミン グを制御する。 実施の形態 7では、 この音声再生の閾値として 32m s e cを用いており、 音 声再生タイミング制御手段 1 203では、
(基準時刻信号一 APT S #E) > 32ms e c : 1オーディオフレー ムスキップ、
(基準時刻信号— APT S#E) < — 32ms e c : 1オーディオフレー ムリピート、
を行うものである。
なお、 ビデオデコーダ 53 1が圧縮映像信号を伸長する動作、 基準時刻信号と VPTSの差が閾値を越えた場合の同期の補正動作は実施の形態 2と同様である。 実施の形態 7では基準時刻信号生成手段 5 06やビデオデコーダ 53 1、 ォー ディォデコーダ 541、 59 1で用いている水晶発振器の精度誤差によりオーデ ィォデコーダ 541, 59 1は基準時刻信号に対して伸長再生の進行が遅く、 ま たビデオデコーダ 53 1は基準時刻信号に対して伸長再生の進行が早いため、 再 生タイミングの補正を行わない場合は、 それぞれで再生される映像信号同士の同 期がずれることになる。
図 82に実施の形態 7における映像再生、 音声再生のタイミングチヤ一トを示 す。 図 8 2の(a)は再生時間 tに対する AP T S #Dを示した図であり, 同図 (b) は基準時刻信号を示した図であり、 同様に(c)はオーディオデコーダ 5 9 1が仲長する圧縮音声信号 Eを丙生すべき時刻 APT S #Eを、 (d〉 はビデオ デコーダ 53 1が伸長する映像信号を再生すべき時刻 VPTSを示している。 基準時刻信号生成手段 506は APTS#Dが t a 3および t a 4を示す時刻で APTS #Dを用いて補正され、 それぞれの時刻で基準時刻信号が t a 3および t a 4に再設定される。
オーディオデコーダ 59 1が圧縮音声信号 Eの伸長動作を続け、 基準時刻信号 が T 1 0の時点で、 APTS#Eと基準時刻信号の差が音声再生の閾値である 3 2ms e cを越えるため、 オーディオデコーダ 59 1の音声再生夕イミング制御 手段 1 20 3力 本来再生すべき 1オーディオフレームをスキップすることによ り、 A P T S # Eと基準時刻信号の差が閾値以下となるよう再生夕イミングを補 正する。
また、 基準時刻信号が T 1 1および T 12の時点で、 V P T Sと基準時刻信号 の差が映像再生の閱値である— 33m s e cを越えるため、 ビデオデコーダ 5 3 1の映像再生タイミング制御手段が、 それぞれの時点で再生しているフレームを リピート再生することにより、 VPTSと基準時刻信号の差が閾値以下となるよ う再生タイミングを補正する。
上記のように、 実施の形態 7では基準時刻信号とオーディオデコーダ 59 1が 検出する APT S #Eの差が音声再生の閾値を超えた場合に、 音声再生タイミン グ制御手段の補正機能が動作し、 基準時刻信号と APT S #Eの差が音声再生の 閾値を超えないように保たれる。 また, 同様に基準時刻信号と VP TSの差が映 像再生の閾値を超えないように保たれる。 さらに、 APT S #Dを用いて基準時 刻信号を補正することから、 各音声の再生と映像の再生を同期させることが可能 となった。
(実施の形態 8)
実施の形態 8は音声再生タイミング制御として、 伸長再生動作を行うためのク ロックを変化させるものを用いた。
実施の形態 8では実施の形態 7と比較して装置構成、 全体の動作は同じである 力 基準時刻信号と APT S #Eの差が音声再生の閾値を超えた場合に行う、 音 声再生タイミング制御の動作が異なるものである。 図 83および図 84を用いて 実施の形態 8で用いた音声再生タイミング制御について説明する。
図 83は APT S#Eと基準時刻信号の差が音声再生の閾値である 32ms e cを越えた場合の動作を示したものであり、 同図 (a) は再生時間 tに対する基 準時刻信号を示した図であり、 同図 (b) は APTS#Eを、 (c) はオーディ ォデコーダ 59 1が伸長再生動作を行うクロック周波数を示したものである。 通常の伸長再生動作は、 音声信号のサンプリング周波数 f sに対する 384倍の クロック f 0により行われる。 基準時刻信号が T 1 1の時点で AP T S # Eと基 準時刻信号の差が音声再生の閾値である 32ms e cを越えるため、 音声再生夕 イミング制御手段が伸長再生動作のクロックを f 1に切り替える。 f 1は f 0の 周波数より 1 0 %高い周波数のクロックである。 f 1で伸長再生動作を行う場合、 f 0で伸長再生動作を行う場合に比べて 1 0 %高速に伸長再生動作が進行する。 また、 f 1で伸長再生動作を行う時間は、 APTS#Eと基準時刻信号の差が音 声再生の閾値である 32ms e cを越えるた時点から 32 Oms e cの区間とし た。 この動作により、 APTS #Eと基準時刻信号の差が音声再生の閾値以下と なるよう再生タイミングが補正される。
図 84は APT S #Eと基準時刻信号の差が音声再生の閾値である一 32ms e cを越えた場合の動作を示したものであり、 同図 (a) は再生時間 tに対する 基準時刻信号を示した図であり、 同図 (b) は APTS #Eを、 (c) はオーデ ィォデコーダ 59 1が伸長再生動作を行うクロック周波数を示したものである。 基準時刻信号が T 1 2の時点で A P T S # Eと基準時刻信号の差が音声再生の 閾値である一 32ms e cを越えるため、 音声再生タイミング制御手段が伸長再 生動作のクロックを f 2に切り替える。 f 2は f 0の周波数より 1 0 %低い周波 数のクロックである。 f 2で伸長再生動作を行う場合、 f Oで伸長再生動作を行 う場合に比べて 10%低速に伸長再生動作が進行する。 また, f 2で伸長再生動 作を行う時間は、 APTS #Eと基準時刻信号の差が音声再生の閾値である一 3 2ms e cを越えるた時点から 320ms e cの区間とした。 この動作により、 A P T S # Eと基準時刻信号の差が音声再生の閾値以下となるよう再生タイミン グが補正される。
上記のように、 実施の形態 8では A P T S # Eと基準時刻信号の差が音声再生 の閾値を超えた場合に、 伸長再生動作を行うクロックを変化させ、 通常より高速 あるいは低速に伸長再生動作を行うことにより、 基準時刻信号と APTS #Eの 差が音声再生の閾値以下となるよう制御するものであり、 聴覚上の違和感を生じ ることなく、 各音声の再生と映像の再生を同期させることが可能となった。
なお、 実施の形態 8では伸長再生動作のクロックを通常に比べて 1 0 %ずつ変 化させたが、 変化幅をより小さく、 あるいは段階的に変化させることにより聴覚 上より自然にタイミングを制御することが可能であることは明らかである。
実施の形態 7および 8では A P T S # Dを用いて基準時刻信号を補正したが、 ビデオデコーダに図 7 3に示したものを用いて、 このビデオデコーダから出力さ れる V P T Sを用いて基準時刻信号の補正を行ってもよい。
以上, 本発明の実施の形態について説明した。
なお、 基準時刻信号と V P T Sや A P T Sとの比較や再生時刻の制御、 さらに 基準時刻信号を V P T Sや A P T Sを用いての補正を、 例えば再生装置全体を制 御するマイクロコンピュ一夕によりそれぞれの機能を実現させても良い。
また、 各実施の形態では光ディスク再生装置の例で説明したが、 ネットワーク やデジ夕ル衛星放送などにより圧縮信号が供給され、 それらを伸長再生する再生 装置に対しても本発明を適用することは可能である。 産業上の利用可能性
基本映像信号と補間映像信号を、 1 G O P以上のフレーム群に各々分割し、 交 互にイン夕リーブしてイン夕リーブブロック 5 4、 5 5として光ディスク上に記 録することにより、 プログレシブ (立体) 対応型再生装置では、 奇数フィールド (右眼用) と偶数フィールド (左眼用) 右と左のイン夕リーブブロックの双方の 情報を再生することによりプログレシブ (立体) 映像を得ることができる。 また プログレシブ (立体) 非対応型再生装置で, プログレシブ (立体) 映像を記録し たディスクを再生した場合は、 奇数フィールド (右眼) もしくは偶数フィールド (左眼) のイン夕リーブブロックの一方のみをトラックジャンプして再生するこ とにより、 完全な 2次元の通常映像を得ることができる。 こうして相互互換性が 実現するという効果がある。
とくにプログレシブ (立体) 映像の配置情報ファイルを設け、 プログレシブ (立体) 映像識別子を光ディスクに記録してある。 従ってどこにプログレシブ (立体) 映像が存在するか容易に判別できるので 2つの通常イン夕一レース信号 をプログレシブ化することや立体テレビの左目と右目に、 誤って異なる 2つのコ ンテンッの画像をそれぞれ出力する失敗を防止できるという効果がある。
立体映像対応再生装置では 2次元で用いるボインターを用いて、 立体映像識別 子がある場合のみ、 アクセス手順を変更する本発明の方法を使うことにより、 立 体映像を連続して再生することを可能としている。 2次元のフォーマツトを変更 することなしに立体映像対応再生装置を実現することができる。
また、 本発明の同期方式を用いると、 同時に再生すべき複数の圧縮映像信号も しくは複数の圧縮音声信号を仲長再生する際に、 それぞれを同期して再生を行う ことができる。
また、 一つのビデオデコーダが生成出力する映像の水平同期信号、 垂直同期信 号を他のビデオデコーダの水平同期信号、 垂直同期信号として用いる再生装置で は、 例えば複数の圧縮映像信号を伸長した映像を合成して立体映像や高解像度の 映像を得る場合にも画素単位での同期を実現することが可能となり、 鮮明な映像 を得ることができる。
また、 オーディォデコーダが検出する A P T Sを用いて基準時刻信号を補正し、 この基準時刻信号に V P T Sがー致するよう映像出力タイミングを制御する再生 装置では、 聴覚上の不具合を引き起こすことなく音声と複数の映像の出力の同期 再生が可能となる。
さらに、 音声出力のタイミングを伸長動作クロックを変化させることにより制 御する再生装置では、 音声のスキップゃポーズに起因するノィズを発生すること なく、 聴覚上違和感を感じさせることなく同期再生を行うことが可能となる。

Claims

請求の範囲
1 . 光ディスクを再生する光ディスク再生装置であって、
該光ディスクには、 第 1信号源に対応する第 1映像ストリームと第 2信号源に 対応する第 2映像ストリームとが少なくとも記録されており、 該第 1映像ストリ ームは複数の第 1インタリーブュニッ 卜を含んでおり、 該第 2映像ストリームは 複数の第 2インタリーブュニッ トを含んでおり、 該複数の第 1インタリーブュニ ッ 卜のそれぞれは rr^個の G〇Pであり、 該複数の第 2ィン夕リーブュニッ 卜の それぞれは m 2個の G O Pであり、 該第 1ィンタリーブュニッ トと該第 2ィン夕 リーブュニッ 卜とは所定の順序で該光ディスクに記録されており、 該複数の第 1 ィンタリーブュニッ 卜のそれぞれは再生時間に関連する第 1時間情報に対応づけ られており、 該複数の第 2イン夕リーブュニッ 卜のそれぞれは再生時間に関連す る第 2時間情報に対応づけられており、
該光ディスク再生装置は、
該光ディスクに記録された信号を再生する再生部と、
該再生された信号を該第 1映像ストリ一ムに含まれる該複数の第 1インタリー ブュニッ 卜と該第 2映像ス卜リームに含まれる該複数の第 2ィン夕リーブュニッ トとに分解する分解部と、
該複数の第 1インタリーブュニッ 卜と該複数の第 2インタリーブュニッ 卜とを 復号する復号部と、
該第 1インタリ一ブュニッ 卜に対応づけられた該第 1時間情報と該第 2インタ リーブュニッ 卜に対応づけられた該第 2時間情報とに基づいて、 該復号された第 1インタリーブュニッ 卜と該復号された第 2インタリーブュニッ 卜とを実質的に 同時に出力する出力部と
を備えており、 および m 2は 1以上の整数である、 光ディスク再生装置。
2 . 該光ディスク再生装置は、 該復号された第 1インタリーブュニッ 卜と該復号 された第 2ィンタリーブュニッ トとを合成する合成部をさらに備えている、 請求 の範囲 1に記載の光ディスク再生装置。
3 . 高解像度映像信号は、 低解像度成分と高解像度成分とを含み、
該第 1映像ストリームは、 該高解像度映像信号のうち該低解像度成分を表し、 該第 2映像ス卜リームは、 該高解像度映像信号のうち該高解像度成分を表し、 該合成部は、 該復号された第 1イン夕リーブュニッ 卜と該復号された第 2イン 夕リーブュニッ 卜とを合成することにより、 該高解像度映像信号を生成する、 請 求の範囲 2に記載の光ディスク再生装置。
4 . 立体映像信号は、 右目用信号と左目用信号とを含み、
該第 1映像ストリームは、 該立体映像信号のうち該右目用信号を表し、 該第 2 映像ストリ一ムは、 該立体映像信号のうち該左目用信号を表し、
該合成部は、 該復号された第 1インタリーブュニッ 卜と該復号された第 2イン 夕リーブュニッ 卜とを合成することにより、 該立体映像信号を生成する、 請求の 範囲 2に記載の光デイスク再生装置。
5 . 該合成部は、 該第 1インタリ一ブュニッ トと該第 2インタリ一ブュニッ トと に対して所定の第 1演算を行い、 該第 1インタリーブユニッ トと該第 2インタリ ーブュニッ 卜とに対して所定の第 2演算を行い、 該所定の第 1演算の結果と該所 定の第 2演算の結果とを合成することにより、 合成信号を生成する、 請求の範囲 2に記載の光ディスク再生装置。
6 . 該所定の第 1演算は、 該第 1インタリーブユニッ トと該第 2インタリーブュ ニッ 卜との和演算を含み、 該所定の第 2演算は、 該第 1イン夕リーブュニッ 卜と 該第 2インタリ一ブュニッ トとの差演算を含む、 請求の範囲 5に記載の光ディス ク再生装置。
7 . 該所定の第 1演算は、 該和演算の結果に所定の第 1値を加算する演算をさら に含み、 該所定の第 2演算は、 該差演算の結果に所定の第 2値を加算する演算を さらに含む、 請求の範囲 6に記載の光ディスク再生装置。
8 . 該合成部は、 該所定の第 1演算の結果を該合成信号の第 Sラインの画像デー 夕に、 該所定の第 2演算の結果を該合成信号の第 S + 1ラインの画像データに、 各々割り当てた該合成信号を生成し、 sは整数であることを特徴とする、 請求の 範囲 6に記載の光ディスク再生装置。
9 . 入力映像信号の第 Pフレームに対しては、 映像信号の少なくとも 2 Qと 2 Q + 1ラインの双方の映像データを用いて、 第 1分離演算と第 2分離演算とを行い、 該第 1分離演算の結果を該第 1映像ストリームの第 2 Qラインに配置し、 該第 2 分離演算の結果を、 該第 2映像ス トリームの第 2 Qラインに配置し、 該入力映像 信号の第 P + 1フレームに対しては、 映像信号の少なく とも 2 Qと 2 Q + 1ライ ンの双方の映像データを用いて、 該第 1分離演算と該第 2分離演算とを行い、 該 第 1分離演算の演算結果を該第 1映像ス卜リ一厶の第 2 Q + 1ラインに配置し、 該第 2分離演算の結果を、 該第 2映像ストリ一厶の第 2 Q + 1ラインに配置した 光ディスクを再生し、
該合成部は、 該第 1映像ス卜リ一厶の復号信号の第 2 Qもしくは 2 Q + 1ライ ンの映像信号と、 該第 2映像ストリー厶の第 2 Qもしくは 2 Q— 1 ラインの映像 信号との該和演算と該差演算とを行ない、 該和演算の結果を合成信号の第 2 Rラ ィンの映像信号とし、 該差演算の結果を合成信号の第 2 R + 1ラインの映像信号 とした、 合成信号を生成することを特徴とし、 P, Qは整数であり、 Rは Qと特 定の開係にある整数である、 請求の範囲 8に記載の光ディスク再生装置。
1 0 . 該合成部は、 該第 1映像ス トリームの色情報を用いるとともに該第 2映像 ストリームの色情報を用いないで、 合成信号を生成することを特徴とする、 請求 の範囲 6に記載の光ディスク再生装置。
1 1 . 高解像度映像信号は、 低解像度成分と高解像度成分とを含み、
該合成部は、 該高解像度成分と該低解像度成分との分離フィルタパラメ一夕を 示すフィル夕識別情報に基づき該和演算と該^算一 のハ^^夕を変換す^こ とを特徴とする、 請求の範囲 6に記載の光ディスク再生装置。
1 2 . 高解像度映像信号は、 低解像度成分と高解像度成分とを含み、
該第 1映像ス卜リームは、 該高解像度映像信号のうち該低解像度成分を表し、 該第 2映像ストリームは、 該高解像度映像信号のうち該高解像度成分を表し、 該合成部は、 該第 1映像ストリームの色情報を用いて、 かつ該第 2映像ストリ ームの色情報を用いないで該高解像度映像信号を合成し出力することを特徴とす る、 請求の範囲 5に記載の光ディスク再生装置。
1 3 . 高解像度映像信号は、 低解像度成分と高解像度成分とを含み、
該第 1映像ス卜リームは、 該高解像度映像信号のうち該低解像度成分を表し、 該第 2映像ストリームは、 該高解像度映像信号のうち該高解像度成分を表し、 該合成部は、 該光ディスクから再生された、 該高解像度信号を分離した時の分 離パラメータ一を示す分離情報に応じて演算ノ ラメ一夕一を変更することを特徴 とする、 請求の範囲 5に記載の光ディスク再生装置。
1 4 . 該演算パラメータ一としてフィルタ一定数を用いたことを特徴とする、 請 求の範囲 1 3に記載の光ディスク再生装置。
1 5 . 該合成部は、 該所定の第 1演算の結果と該所定の第 2演算の結果とを垂直 方向に合成する、 請求の範囲 5に記載の光デイスク再生装置。
1 6 . 該合成部は、 該所定の第 1演算の結果と該所定の第 2演算の結果とを水平 方向に合成する、 請求の範囲 5に記載の光ディスク再生装置。
1 7 . 該合成部は、 該合成信号をプログロレシブ信号に変換する、 請求の範囲 5 に記載の光ディスク再生装置。
1 8 . 該復号部は、 該第 1映像ス トリームの動き補償信号を該第 2映像ス トリー ムの動き補償信号として用いて復号することを特徴とする、 請求の範囲 2に記載 の光ディスク再生装置。
1 9 . 高解像度映像信号もしくは立体映像信号が記録されていることを示す識別 情報を識別する映像識別手段をさらに備え、
該映像識別手段が識別情報を識別した場合は、 必要に応じて、 該第 1インタリ ーブュニッ トと該第 2インタリーブュニッ 卜との双方を再生し、
該復号部および該合成部は、 該高解像度映像信号もしくは/かつ該立体映像信 号を復号、 合成することを特徴とする、 請求の範囲 2に記載の光ディスク再生装
2 0 . 該映像識別手段が、 該識別情報を再生しない場合は、 必要に応じて、 該第 1インタリ一プュニッ 卜のみを再生することを特徴とする、 請求の範囲 1 9に記 載の光ディスク再生装置。
2 1 . 該映像識別手段が、 該識別情報を再生しない場合は、 必要に応じて、 該第 1ィンタリーブユニッ トのみを再生し、 該第 1信号源の走査線を増加させて出力 することを特徴とする、 請求の範囲 2 0に記載の光ディスク再生装置。
2 2 . 該第 1イン夕リーブュニッ 卜を再生する情報があるとともに該第 2インタ リーブュニッ トを再生する情報がないことを示す第 1再生情報と、 該第 1インタ リーブュニッ 卜を再生する情報と該第 2インタリーブュニッ トを再生する情報と の双方があることも示す第 2再.土情報と、 該第 1再生愔報が有効であること 示 す識別情報と、 高解像度映像信号もしくは立体映像信号が、 該第 1映像ストリ一 厶と該第 2映像ス卜リームとに分離されて記録されていることを示す高解像度 Z 立体信号記録識別情報とが記録されている光ディスクを再生して、
該高解像度 立体信号記録識別情報を検出した場合は、 必要に応じて、 該第 2 再生情報に従って、 該第 1インタリーブュニッ 卜と該第 2インタリーブュニッ 卜 との双方を再生することを特徴とする、 請求の範囲 1に記載の光ディスク再生装
2 3 . 該第 2再生情報を再生して各ストリームの特定のュニッ 卜の次のィン夕リ ーブュニッ 卜の開始位置情報を入手して、 該第 1イン夕リーブュニッ トと該第 2 イン夕リーブュニッ 卜との双方のデ一夕を再生することを特徴とする、 請求の範 囲 2 2に記載の光デイスク再生装置。
2 4 . 該高解像度/立体信号記録識別情報を検出しない場合は、 該第 1再生情報 に従って、 該第 1インタリーブュニッ 卜を再生することを特徴とする、 請求の範 囲 2 2に記載の光ディスク再生装置。
2 5 . 該光ディスクには、 n個の信号源にそれぞれ対応する n個の映像ストリー 厶が記録されており、
該光ディスク再生装置は、
該 n個の映像ストリームから、 該第 1映像ス卜リームと該第 2映像ストリーム とを含む i個の映像ストリームを選択する選択部をさらに備えており、 nおよび iは 2以上の整数である、 請求の範囲 1に記載の光ディスク再生装置。
2 6 . 該分解部は、 該 i個の映像ストリームをバッファ リ ングするバッファ部を 備えており、 該バッファ部の総容量は 1 1 0 2 X ( i - 1 ) キロバイ 卜以上であ る、 請求の範囲 2 5に記載の光ディスク再生装置。
2 7 . i = 2である、 請求の範囲 2 6に記載の光デイスク再生装置。
2 8 . 少なくとも該第 1映像ストリー厶と該第 2映像ストリームとを同時にデコ ードし、 1つの画面上の第 1領域に該第 1映像ス トリームを配置し、 第 2領域に 該第 2ス卜リームを配置した 1画面の映像信号を出力する、 請求の範囲 1に記載 の光ディスク再生装置。
2 9 . 該第 1領域と該第 2領域とを水平方向に異なる領域に設けたことを特徴と する、 請求の範囲 2 8に記載の光ディスク再生装置。
3 0 . 該合成部にラインメモリを用いたことを特徴とする、 請求の範囲 2 9に記 載の光ディスク再生装置。
3 1 . 外部入力指示信号に応じて、 該第 1領域の表示情報を拡大もしくは縮小す ることを特徴とする、 請求の範囲 2 8に記載の光ディスク再生装置。
3 2 . 該合成部にフレームメモリを用いたことを特徴とする、 請求の範囲 3 1に 記載の光ディスク再生装置。
3 3 . 外部入力指示信号に応じて、 該第 1領域を拡大し、 該第 2領域を縮小する ことを特徴とする、 請求の範囲 3 1に記載の光ディスク再生装置。
3 4 . 該第 1映像ス ト リームもしくは該第 2映像ス卜リームのいずれか一方のサ ブピクチャーを表示することを特徴とする、 請求の範囲 2 8に記載の光ディスク 再生装置。
3 5 . フレームメモリを用い該第 1映像ス卜リームの映像信号を該第 1領域に連 続的に表示するとともに、 nケの表示領域を設け、 第 nストリームを第 n領域に 非連続的に次々と更新しながら表示させ、 nは 1以上の整数であることを特徴と する、 請求の範囲 2 8に記載の光ディスク再生装置。
3 6 . 該第 1映像ストリームの音声だけを出力することを特徴とする、 請求の範 囲 2 8に記載の光デイスク再生装置。
3 7 . 該第 1映像ス トリームの音声と該第 2映像ストリームの音声とを出力し、 該第 2映像ストリームの音声レベルを下げたことを特徴とする、 請求の範囲 2 8 に記載の光デイスク再生装置。
3 8 . 該出力部は、 該第 1映像ストリ一厶を右眼用信号として、 該第 2映像スト リームを左眼用信号として出力することを特徴とする、 請求の範囲 1に記載の光 ディスク再生装置。
3 9 . 該出力部は、 該第 1映像ス トリームを右眼用映像出力部に、 該第 2映像ス トリ一厶を左眼用映像出力部に出力することを特徴とする、 請求の範囲 3 8に記 載の光ディスク再生装置。
4 0 . 該出力部は、 該左目用信号と該右目用信号との識別信号を含む立体メガネ 用同期信号を出力することを特徴とする、 請求の範囲 3 9に記載の光ディスク再 生装置。
4 1 . 該出力部は、 立体映像出力命令が入力された時のみ該立体映像を出力する ことを特徴とする、 請求の範囲 3 9に記載の光ディスク再生装置。
4 2 . 該出力部は、 該立体映像信号が記録されている領域を再生している間は、 該立体映像信号が再生されていることを示す表示を表示部に出力することを特徴 とする、 請求の範囲 3 9に記載の光ディスク再生装置。
4 3 . 該出力部は、 該第 1映像ス トリームと該第 2映像ストリームとの時間情報 を同期させて、 フィールドもしくはフレーム単位で混合し、 交互に出力させる混 合合成部を備えていることを特徴とする、 請求の範囲 3 8に記載の光ディスク再
4 4 . 該出力部は、 左右の信号の切り替え信号を出力する立体切替え信号出力部 を備えていることを特徴とする、 請求の範囲 4 3に記載の光ディスク再生装置。
4 5 . 該混合合成部は、 立体映像信号であることを識別し、 立体映像出力命令が 入力された場合にのみ該第 1映像ストリ一厶と該第 2映像ス卜リー厶とを混合す ることを特徴とする、 請求の範囲 4 3に記載の光ディスク再生装置。
4 6 . 該出力部は、 該立体映像信号が記録されている領域を再生中に該立体映像 信号以外の映像信号を出力している場合は該立体映像信号が記録されていること を示す表示を出力映像信号に加えることを特徴とする、 請求の範囲 4 3に記載の 光ディスク再生装置。
4 7 . 該出力部は、 該立体映像信号が記録されている領域を再生中に該立体映像 信号以外の映像信号を出力している場合は該立体映像信号が記録されていること を示す表示を出力映像信号に加えることを特徴とする、 請求の範囲 3 8に記載の 光ディスク再生装置。
4 8 . 該光ディスク再生装置は、 同期して再生されるべき複数の映像信号をそれ ぞれ圧縮した圧縮映像ストリームと、 該映像信号を再生すべき時刻を示す映像再 生時刻情報が多重化された複数の圧縮映像信号とを入力し、 伸長再生する光ディ スク再生装置であって、
基準時刻信号を生成する基準時刻信号生成手段と、
該圧縮映像ストリームを伸長し、 該基準時刻信号と該映像再生時刻情報との差 に応じて伸長した映像信号の再生時刻を制御する機能を有する複数の映像伸長再 生手段とをさらに備え、
該複数の映像伸長再生手段の基準時刻信号を同一情報を用いて概略同一時刻に 補正することを特徴とする、 請求の範囲 2に記載の光ディスク再生装置。
4 9 . 該映像信号と同期して再生されるべき音声信号を圧縮した圧縮音声ストリ ームと、 該音声信号を再生すべき時刻を示す音声再生時刻情報が多重化された少 なくとも 1つの圧縮音声信号とを入力し、 該圧縮音声ス トリームを伸長し、 該音 声再生時刻情報を出力する少なくとも 1つの音声伸長再生手段とをさらに備え、 該音声伸長再生手段が出力する該音声再生時刻情報を用いて該基準時刻信号を 補正することを特徴とする、 請求の範囲 4 8に記載の光ディスク再生装置。
5 0 . 該複数の映像伸長再生手段のうち少なくとも 1つは、 映像再生時刻情報を 出力し、
該複数の映像伸長再生手段のうち少なくとも 1つにより出力された映像再生時刻 情報を用いて該基準時刻信号を補正することを特徴とする、 請求の範囲 4 8に記 載の光ディスク再生装置。
5 1 . 該映像伸長再生手段は、 該映像信号のフレームをスキップ再生し、 もしく は繰り返し再生を行うことにより、 該再生時刻を制御することを特徴とする、 請 求の範囲 4 8に記載の光ディスク再生装置。
5 2 . 該複数の映像伸長再生手段のうち少なくとも 1つは、 該映像信号の水平同 期信号および垂直同期信号を出力し、 他の映像伸長再生手段の映像再生を該水平 同期信号および該垂直同期信号に同期させることを特徴とする、 請求の範囲 4 8 に記載の光ディスク再生装置。
5 3 . 光ディスクを再生する光ディスク再生装置であって、
該光ディスクには、 少なくとも 1つの音声ストリームが記録されており、 該音 声ストリームは複数の圧縮された音声信号を含んでおり、 該複数の圧縮された音 声信号のそれぞれは再生時間に関連する時間情報に対応づけられており、 該光ディスク再生装置は、
該光デイスクに記録された信号を再生する再生部と、
該再生された信号を該音声ス卜リームに含まれる該複数の圧縮された音声信号 に分解する分解部と、
基準時刻信号を生成する基準時刻信号生成手段と、
該複数の圧縮された音声信号を伸長する伸長部と、
該複数の圧縮された音声信号のそれぞれに対応づけられた該時間情報と該基準 時刻信号との差に基づいて、 該伸長された音声信号を出力するタイミングを制御 する出力部と
を備えている、 光ディスク再生装置。
5 4 . 複数の該出力部のうち少なくとも 1つは音声再生時刻情報を出力し、 該複数の出力部のうち少なくとも 1つにより出力された音声再生時刻情報を用 いて基準時刻信号を補正することを特徴とする、 請求の範囲 5 3に記載の光ディ スク再生装置。
5 5 . 音声信号と同期して再生されるべき映像信号を圧縮した圧縮映像ストリ一 ムと、 該映像信号を再生すべき時刻を示す映像再生時刻情報が多重化された少な くとも 1つの圧縮映像信号とを入力し、 該圧縮映像ストリームを伸長し、 該映像 再生時刻情報を出力する少なくとも 1つの映像伸長再生手段とをさらに備え、 該映像伸長再生手段が出力する該映像再生時刻情報を用いて基準時刻信号を補 正することを特徴とする、 請求の範囲 5 3に記載の光ディスク再生装置。
5 6 . 該音声ストリームは音声信号をオーディオフレームと呼ばれる時間毎に分 割し圧縮したものであり、
該出力部は該ォ一ディオフレームをスキップ再生もしくはポーズすることによ り再生時刻を制御することを特徴とする、 請求の範囲 5 3に記載の光ディスク再 生装置。
5 7 . 該出力部は伸長再生動作を行うク口ックの周波数を変化させることにより 再生時刻を制御することを特徴とする、 請求の範囲 5 3に記載の光ディスク再生
5 8 . 第 1信号源に対応する第 1映像ストリームと第 2信号源に対応する第 2映 像ストリームとが少なくとも記録されており、 該第 1映像ストリームは複数の第 1ィン夕リーブュニッ トを含んでおり、 該第 2映像ストリームは複数の第 2ィン 夕リ一ブュ二ッ 卜を含んでおり、 該複数の第 1インタリ一ブュ二ッ 卜のそれぞれ は 個の G O Pであり、 該複数の第 2インタリーブュニッ 卜のそれぞれは m 2 個の G O Pであり、 該第 1インタリーブュニッ トと該第 2インタリーブュニッ ト とは所定の順序で該光ディスクに記録されており、 該複数の第 1ィンタリーブュ ニッ トのそれぞれは再生時間に関連する第 1時間情報に対応づけられており、 該 複数の第 2ィン夕リーブュニッ 卜のそれぞれは再生時間に関連する第 2時間情報 に対応づけられていることを特徴とする光ディスク。
5 9 . 高解像度映像信号は、 低解像度成分と高解像度成分とを含んでおり、 光ディスクに記録される該第 1映像ストリームは、 該高解像度映像信号のうち 該低解像度成分を表し、
光デイスクに記録される該第 2映像ストリ一ムは、 該高解像度映像信号のうち 該高解像度成分を表すことを特徴とする、 請求の範囲 5 8に記載の光ディスク。
6 0 . 光ディスクに記録される該第 1映像ストリームの該低解像度成分は、 該高 解像度映像信号の特定の 2つ以上の信号の和演算により生成され、
光ディスクに記録される該第 2映像ストリームの該高解像度成分は、 該高解像 度映像信号の特定の 2つ以上の信号の差演算により生成されることを特徴とする、 請求の範囲 5 9に記載の光ディスク。
6 1 . 光ディスクに記録される該第 1映像ストリームの該低解像度成分と光ディ スクに記録される該第 2映像ストリームの該高解像度成分とは、 映像信号分離手 段により垂直方向の低解像度信号と高解像度成分に分離されることにより生成さ れることを特徴とする、 請求の範囲 6 0に記載の光ディスク。
6 2 . 該第 1映像ス トリームの第 2 Qラインには、 入力映像信号の第 Pフレーム に対して、 該入力映像信号の少なくとも 2 Qと 2 Q + 1ラインの双方の映像デ一 夕を用 、て行つた第 1分離演算の結果が記録されており、
該第 2映像ストリームの第 2 Qラインには、 該入力映像信号の第 Pフレームに 対して、 該入力映像信号の少なく とも 2 Qと 2 Q + 1ラインの双方の映像デ一タ を用 、て行つた第 2分離演算の結果が記録されており、
該第 1映像ストリ一ムの第 2 Q + 1ラインには、 該入力映像信号の第 P + 1 フ レームに対して行った該第 1分離演算の結果が記録されており、
該第 2映像ストリームの第 2 Q + 1ラインには、 該入力映像信号の第 P + 1フ レ一厶に対して行った該第 2分離演算の結果が記録されており、 P, Qは整数で あることを特徴とする、 請求の範囲 6 1に記載の光ディスク。
6 3 . 光ディスクに記録される該第 1映像ストリームの該低解像度成分と光ディ スクに記録される該第 2映像ストリームの該高解像度成分とは、 映像分離手段に より垂直方向の該低解像度信号と該高解像度成分に分離することにより生成され ることを特徴とする、 請求の範囲 5 9に記載の光ディスク。
6 4 . 光ディスクに記録される該第 1映像ストリームと光ディスクに記録される 該第 2映像ストリームとは、 映像分離手段において、 高解像度映像信号を水平方 向に分離して、 水平方向の低解像度成分をもつ該第 1映像ストリームと水平方向 の高解像度成分をもつ該第 2映像ス卜リームとに分離することにより生成される ことを特徴とする、 請求の範囲 5 9に記載の光ディスク。
6 5 . 映像信号の中の重複するフィールドもしくはフレー厶信号は省略されて符 号化されて記録されており、
省略されたフィールドもしくはフレーム信号を示す識別子が記録されているこ とを特徴とする、 請求の範囲 6 4に記載の光ディスク。
6 6 . 映像を分離する際の、 分離演算処理に用いた演算パラメ一ター値を示す識 別情報が記録されていることを特徴とする、 請求の範囲 5 9に記載の光ディスク。
6 7 . 該第 1映像ストリームの映像符号化信号の動きべク トル情報と該第 2映像 ス卜リームの映像符号化信号の動きべク トル情報とが同じ値であることを特徴と する、 請求の範囲 5 9に記載の光ディスク。
6 8 . 少なくとも該第 1映像ス卜リームと該第 2映像ス卜リームとが実質的に同 一の信号フォーマツ 卜で符号化されて記録されていることを特徴とする、 請求の 範囲 5 8に記載の光ディスク。
6 9 . 同一の該信号フォーマッ トとして、 N T S Cもしくは P A L , S E C A M 信号を符号化した該信号フォーマツ トを用いたことを特徴とする、 請求の範囲 6 8に記載の光ディスク。
7 0 . 各々の第 1〜第 mス トリームのに対応するィン夕リーブュニッ トを第 1〜 第 mインタリーブユニッ トとすると、
該第 1ィンタリーブュニッ トを再生するための情報を含み該第 2ィンタリーフ" ュニッ 卜を再生するための情報を含まない第 1再生情報と、
該第 1インタリーブュニッ トを再生するための情報と該第 2インタリーブュニ ッ トを再生するための情報との双方を含む第 2再生情報と、
該第 2再生情報を有効にするための識別子とが記録されていることを特徴とす る、 請求の範囲 5 8に記載の光ディスク。
7 1 . 再生情報として、 インタリーブユニッ トの、 同じストリームで、 かつ次の 時間情報をもつィンタリーブュニッ トの先頭位置情報が記録されていることを特 徴とする、 請求の範囲 7◦に記載の光ディスク。
7 2 . 該第 1再生情報として、 第 1テーブルに該第 1インタリーブュニッ 卜の再 生情報が記録され、 該第 2再生情報として、 第 2テーブルに該第 1インタリーブ ュニッ 卜および該第 2インタリーブュニッ 卜の双方の再生情報が記録されるとと もに、 該第 1テーブルが有効であることを示す識別子が記録されていることを特 徴とする、 請求の範囲 7 1に記載の光ディスク。
7 3 . 該第 1テーブルとしてシームレス再生用テーブル、 該第 2テーブルとして ノンシ一厶レス再生用テ一ブルが記録されるとともに、 シームレス再生を示す識 別子が記録されていることを特徴とする、 請求の範囲 7 2に記載の光ディスク。
7 4 . 少なくとも該第 1映像ストリームとして、 立体映像信号の右眼用の符号化 した映像信号、 該第 2映像ス卜リームとして該立体映像信号の左眼用の符号化し た映像信号を用いるとともに、 該立体映像信号が記録されている記録領域を示す 識別情報が記録されていることを特徴とする、 請求の範囲 5 8に記載の光デイス ク。
7 5 . 少なくとも該第 1映像ストリームとして、 高解像度映像信号の低解像度成 分用の符号化した映像信号、 該第 2映像ストリームとして該高解像度映像信号の 高解像度成分用の符号化した映像信号を用いるとともに、 高解像度映像が記録さ れている記録領域を示す識別情報が記録されていることを特徴とする、 請求の範 囲 5 8に記載の光ディスク。
7 6 . 光ディスクに所定の信号を記録する光ディスク記録装置であって、 該所定の信号は、 少なくとも第 1信号源に対応する第 1映像ス卜リームと第 2 信号源に対応する第 2映像ス卜リームとを含んでおり、 該第 1映像ス卜リームは 複数の第 1インタリーブュニッ 卜を含んでおり、 該第 2映像ストリ一厶は複数の 第 2インタリ一ブュニッ トを含んでおり、 該複数の第 1インタリーブュニッ トの それぞれは 個の G O Pであり、 該複数の第 2ィン夕リーブュニッ 卜のそれぞ れは m 2個の G〇 Pであり、 該複数の第 1インタリーブュニッ 卜のそれぞれは再 生時間に関連する第 1時間情報に対応づけられており、 該複数の第 2インタリ一 ブュニッ トのそれぞれは再生時間に関連する第 2時間情報に対応づけられている ことを特徴とする光ディスク記録装置。
7 7 . 高解像度映像信号を低解像度成分と高解像度成分に分離する映像信号分離 手段をさらに備え、
光ディスクに記録される該第 1映像ストリームは、 該高解像度映像信号のうち 該低解像度成分を表し、
光ディスクに記録される該第 2映像ストリームは、 該高解像度映像信号のうち 該高解像度成分を表すことを特徴とする、 請求の範囲 7 6に記載の光ディスク記
7 8 . 該映像信号分離手段は、 該高解像度映像信号の特定の 2つ以上の信号の和 演算により該低解像度成分を生成し、 差演算により該高解像度成分を生成するこ とを特徴とする、 請求の範囲 7 7に記載の光ディスク記録装置。
7 9 . 該映像信号分離手段は、 該映像信号を垂直方向の低解像度信号と高解像度 成分に分離することを特徴とする、 請求の範囲 7 8に記載の光ディスク記録装置。
8 0 . 該映像信号分離手段は、 該第 1映像ス トリームの第 2 Qラインには、 入力 映像信号の第 Pフレームに射して、 i 入力映像信号の少なく 、 2 0と 2 0 + 1 ラィンの双方の映像デー夕を用し、て行つた第 1分離演算の結果を配置し、
該第 2映像ストリームの第 2 Qラインには、 該入力映像信号の第 Pフレームに 対して、 該入力映像信号の少なくとも 2 Qと 2 Q + 1ラインの双方の映像データ を用 、て行つた第 2分離演算の結果を配置し、
該第 1映像ス卜リ一ムの第 2 Q + 1ラインには、 該入力映像信号の第 P + 1 フ レームに対して行った該第 1分離演算の結果を配置し、
該第 2映像ス トリームの第 2 Q + 1ラインには、 該入力映像信号の第 P + 1 フ レームに対して行った該第 2分離演算の結果配置し、 P , Qは整数であることを 特徴とする、 請求の範囲 7 9に記載の光ディスク記録装置。
8 1 . 該映像信号分離手段は、 該高解像度映像信号を垂直方向の該低解像度成分 と該高解像度成分とに分離することを特徴とする、 請求の範囲 7 7に記載の光デ イスク記録装置。
8 2 . 該映像信号分離手段は、 該高解像度映像信号を水平方向の該低解像度成分 をもつ該第 1映像ストリームと水平方向の該高解像度成分をもつ該第 2映像ス 卜 リームとに分離することを特徴とする、 請求の範囲 7 7に記載の光ディスク記録
83. 映像信号の中の重複するフィ一ルドもしはくフレーム信号は省略されて符 号ィ匕されて記録されており、
省略された該フィ一ルドもしくは該フレーム信号を示す識別子を記録すること を特徴とする、 請求の範囲 82に記載の光ディスク記録装置。
84. 映像を分離する際の、 分離演算処理に用いた演算パラメーター値を示す識 別情報を記録することを特徴とする、 請求の範囲 77に記載の光ディスク記録装
85. 映像符号化部の動きべク トル検出部においてにおいて一方のス卜リームの 動きべク トル検出信号を用いて他方のストリームを符号化することを特徴とする、 請求の範囲 Ί 7に記載の光ディスク記録装置。
86. 少なくとも該第 1映像ストリームと該第 2映像ストリームとを実質的に同 一の信号フォーマツ 卜で符号化することを特徴とする、 請求の範囲 76に記載の 光ディスク記録装置。
87. 同一の該信号フォーマツ 卜として、 NTSCもしくは PAL, S E CAM 信号をと符号化した該信号フォーマツ トを用いたことを特徴とする、 請求の範囲 86に記載の光ディスク記録装置。
88. 各々の第 1〜第 mストリ一厶のに対応するィン夕リ一ブュニッ 卜を第 1〜 第 mィン夕リーブュニッ 卜とすると、
該第 1インタリーブュニッ トを再生するための情報を含み該第 2ィン夕リーブ ュニッ 卜を再生するための情報を含まな 、第 1再生情報と、 該第 1インタリーブュニッ 卜を再生するための情報と該第 2ィンタリ一プュ二 ッ トを再生するための情報との双方を含む第 2再生情報と、
該第 2再生情報を有効にするための識別子とを記録することを特徴とする、 請 求の範囲 7 6に記載の光ディスク記録装置。
8 9 . 再生情報として、 ィン夕リーブュニッ 卜の、 同じストリームで、 かつ次の 時間情報をもつィン夕リーブュニッ 卜の先頭位置情報を記録することを特徴とす る、 請求の範囲 8 8に記載の光ディスク記録装置。
9 0 . 該第 1再生情報として、 第 1テーブルに該第 1インタリ一ブの再生情報を 記録し、 該第 2再生情報として、 第 2テーブルに該第 1インタリーブュニッ 卜お よび該第 2インタリーブュニッ 卜の双方の再生情報を記録するとともに、 該第 1 テーブルが有効であることを示す識別子を記録することを特徴とする、 請求の範 囲 8 9に記載の光ディスク記録装置。
9 1 . 該第 1テーブルとしてシームレス再生用テーブル、 該第 2テーブルとして ノンシームレス再生用テーブルを記録するとともに、 シームレス再生を示す識別 子を記録することを特徴とする、 請求の範囲 9 0に記載の光ディスク記録装置。
9 2 . 少なくとも該第 1映像ストリームとして、 立体映像信号の右眼用の符号化 した映像信号、 該第 2映像ストリームとして該立体映像信号の左眼用の符号化し た映像信号を用いるとともに、 該立体映像信号が記録されている記録領域を示す 識別情報を記録することを特徴とする、 請求の範囲 7 6に記載の光ディスク記憶
9 3 . 少なくとも該第 1映像ストリームとして、 高解像度映像信号の低解像度成 分用の符号化した映像信号、 該第 2映像ス卜リームとして該高解像度映像信号の 高解像度成分用の符号化した映像信号を用いるとともに、 高解像度映像が記録さ れている記録領域を示す識別情報を記録することを特徴とする、 請求の範囲 7 6 に記載の光デイスク記憶装置。
9 4 . 識別情報と、 光ディスクの原盤もしくは、 光ディスクに固有のディスク属 性情報との特定の演算を行った演算結果が記録されていることを特徴とする請求 の範囲 7 5に記載の光ディスク。
PCT/JP1997/004429 1996-12-04 1997-12-03 Optical disc for high resolution and three-dimensional image recording, optical disc reproducing device, and optical disc recording device WO1998025413A1 (en)

Priority Applications (15)

Application Number Priority Date Filing Date Title
US09/319,476 US6573819B1 (en) 1996-12-04 1997-12-03 Optical disc for high resolution and three-dimensional image recording, optical disc reproducing device, and optical disc recording device
DE69717139T DE69717139T2 (de) 1996-12-04 1997-12-03 Vorrichtung zur aufnahme und wiedergabe von hochauflösenden und dreidimensionalen bildern mit optischer speicherplatte
CA002273891A CA2273891C (en) 1996-12-04 1997-12-03 Optical disc for high resolution and three-dimensional video recording, optical disc reproducing apparatus and optical disk recording apparatus
CA002340314A CA2340314C (en) 1996-12-04 1997-12-03 Optical disk for high resolution and three-dimensional video recording, optical disk reproduction apparatus, and optical disk recording apparatus
EP97946090A EP0944269B1 (en) 1996-12-04 1997-12-03 Optical disc for high resolution and three-dimensional image recording, optical disc reproducing device, and optical disc recording device
US10/342,826 US7317868B2 (en) 1996-12-04 2003-01-15 Optical disk for high resolution and three-dimensional video recording, optical disk reproduction apparatus, and optical disk recording apparatus
US11/928,246 US8467455B2 (en) 1996-12-04 2007-10-30 Optical disk for high resolution and three-dimensional video recording, optical disk reproduction apparatus and optical disk recording apparatus
US11/928,530 US8467456B2 (en) 1996-12-04 2007-10-30 Optical disk for high resolution and three-dimensional video recording, optical disk reproduction apparatus and optical disk recording apparatus
US12/683,701 US8442112B2 (en) 1996-12-04 2010-01-07 Optical disk for high resolution and three-dimensional video recording, optical disk reproduction apparatus and optical disk recording apparatus
US12/683,677 US8441519B2 (en) 1996-12-04 2010-01-07 Optical disk for high resolution and three-dimensional video recording, optical disk reproduction apparatus and optical disk recording apparatus
US13/080,858 US8654861B2 (en) 1996-12-04 2011-04-06 Optical disk for high resolution and three-dimensional video recording, optical disk reproduction apparatus and optical disk recording apparatus
US13/080,784 US20110181699A1 (en) 1996-12-04 2011-04-06 Optical disk for high resolution and three-dimensional video recording, optical disk reproduction apparatus and optical disk recording apparatus
US13/080,811 US20110181700A1 (en) 1996-12-04 2011-04-06 Optical disk for high resolution and three-dimensional video recording, optical disk reproduction apparatus and optical disk recording apparatus
US13/080,750 US20110181697A1 (en) 1996-12-04 2011-04-06 Optical disk for high resolution and three-dimensional video recording, optical disk reproduction apparatus and optical disk recording apparatus
US13/080,760 US20110181698A1 (en) 1996-12-04 2011-04-06 Optical disk for high resolution and three-dimensional video recording, optical disk reproduction apparatus and optical disk recording apparatus

Applications Claiming Priority (10)

Application Number Priority Date Filing Date Title
JP8/323770 1996-12-04
JP32377096 1996-12-04
JP34728496 1996-12-26
JP8/347284 1996-12-26
PCT/JP1997/000615 WO1997032437A1 (en) 1996-02-28 1997-02-28 High-resolution optical disk for recording stereoscopic video, optical disk reproducing device, and optical disk recording device
JPPCT/JP97/00615 1997-02-28
JP23432097 1997-08-29
JP9/234320 1997-08-29
JP9/288099 1997-10-21
JP28809997 1997-10-21

Related Child Applications (3)

Application Number Title Priority Date Filing Date
US09319476 A-371-Of-International 1997-12-03
US09/319,476 A-371-Of-International US6573819B1 (en) 1996-12-04 1997-12-03 Optical disc for high resolution and three-dimensional image recording, optical disc reproducing device, and optical disc recording device
US10/342,826 Continuation US7317868B2 (en) 1996-12-04 2003-01-15 Optical disk for high resolution and three-dimensional video recording, optical disk reproduction apparatus, and optical disk recording apparatus

Publications (1)

Publication Number Publication Date
WO1998025413A1 true WO1998025413A1 (en) 1998-06-11

Family

ID=27477573

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1997/004429 WO1998025413A1 (en) 1996-12-04 1997-12-03 Optical disc for high resolution and three-dimensional image recording, optical disc reproducing device, and optical disc recording device

Country Status (9)

Country Link
US (11) US6573819B1 (ja)
EP (9) EP2259584B1 (ja)
JP (22) JP4041198B2 (ja)
KR (1) KR100354418B1 (ja)
CN (3) CN1183780C (ja)
CA (2) CA2340314C (ja)
DE (1) DE69717139T2 (ja)
HK (2) HK1151155A1 (ja)
WO (1) WO1998025413A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6925250B1 (en) * 1997-08-29 2005-08-02 Matsushita Electric Industrial Co., Ltd. Optical disc for recording high resolution and normal image, optical disc player, optical disc recorder, and playback control information generator
CN1300796C (zh) * 1998-08-04 2007-02-14 三星电子株式会社 用于高密度记录媒体的交错装置
US8548308B2 (en) 2008-11-18 2013-10-01 Panasonic Corporation Playback apparatus, integrated circuit, and playback method considering trickplay

Families Citing this family (240)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2101495B1 (en) 1996-02-28 2012-12-26 Panasonic Corporation High-resolution optical disk for recording stereoscopic video, optical disk reproducing device and optical disk recording device
CN1183780C (zh) * 1996-12-04 2005-01-05 松下电器产业株式会社 光盘再现设备及光盘记录方法
WO2000038419A1 (fr) 1998-12-22 2000-06-29 Matsushita Electric Industrial Co., Ltd. Dispositif de reproduction de signaux video
JP2000270347A (ja) * 1999-03-17 2000-09-29 Sharp Corp 記録装置、及び該記録装置を用いた監視システム
JP2001231016A (ja) * 2000-02-15 2001-08-24 Matsushita Electric Ind Co Ltd 映像信号再生装置
KR100394974B1 (ko) * 2000-05-23 2003-08-19 엘지전자 주식회사 고밀도 광 기록매체에서의 멀티경로 데이터를 수용하는 방법
US6791578B1 (en) * 2000-05-30 2004-09-14 Apple Computer, Inc. 16:9 aspect ratio and anamorphic image processing
US7133594B2 (en) * 2000-06-26 2006-11-07 Matsushita Electric Industrial Co., Ltd. Digital recording apparatus that secures a certain number of video frames in a VOB constituting with another VOB a portion of encode stream that should be reproduced seamlessly
JP4239380B2 (ja) * 2000-08-18 2009-03-18 ソニー株式会社 画像信号処理装置
JP3841630B2 (ja) * 2000-08-29 2006-11-01 オリンパス株式会社 画像取り扱い装置
EP1195767A1 (en) * 2000-09-27 2002-04-10 Deutsche Thomson-Brandt Gmbh Method and apparatus for evaluating for the purpose of decoding a bitstream having a data structure fulfilling the requirements of two different data structure standards, and storage medium containing such bitstream
KR20020097454A (ko) * 2001-06-21 2002-12-31 엘지전자 주식회사 멀티채널 스트림 기록장치 및 방법과, 그에 따른 기록매체
KR100752480B1 (ko) 2001-06-21 2007-08-28 엘지전자 주식회사 멀티채널 스트림 기록장치 및 방법과, 그에 따른 기록매체
KR100598285B1 (ko) * 2001-06-21 2006-07-07 엘지전자 주식회사 멀티채널 스트림 기록장치 및 방법과, 그에 따른 기록매체
US7643727B2 (en) * 2001-07-24 2010-01-05 Lg Electronics Inc. Method and apparatus of recording a multi-channel stream, and a recording medium containing a multi-channel stream recorded by said method
JP3556624B2 (ja) * 2001-08-17 2004-08-18 株式会社東芝 映像再生装置及び映像再生方法
WO2003039142A1 (fr) * 2001-10-29 2003-05-08 Matsushita Electric Industrial Co., Ltd. Appareil de synchronisation audio/video
KR100456024B1 (ko) * 2002-02-28 2004-11-08 한국전자통신연구원 디브이디 플레이어의 자막정보 재생 장치 및 방법
US7689105B2 (en) 2002-03-08 2010-03-30 Sony Corporation Record medium and its reproducer, reproducing method, record medium manufacturing apparatus, record medium manufacturing method, and recorder
JP4590827B2 (ja) * 2002-03-08 2010-12-01 ソニー株式会社 記録媒体及び記録装置
EP2357835A3 (en) * 2002-03-27 2012-02-22 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US8369607B2 (en) 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US7265775B2 (en) * 2002-03-28 2007-09-04 Kabushiki Kaisha Toshiba Three-dimensional display apparatus
CA2380105A1 (en) * 2002-04-09 2003-10-09 Nicholas Routhier Process and system for encoding and playback of stereoscopic video sequences
AU2003231510A1 (en) * 2002-04-25 2003-11-10 Sharp Kabushiki Kaisha Image data creation device, image data reproduction device, and image data recording medium
US20050248561A1 (en) * 2002-04-25 2005-11-10 Norio Ito Multimedia information generation method and multimedia information reproduction device
KR100693200B1 (ko) * 2002-04-25 2007-03-13 샤프 가부시키가이샤 화상 부호화 장치, 화상 복호 장치, 기록 매체 및 화상기록 장치
WO2004001752A1 (en) * 2002-06-24 2003-12-31 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple title video data recorded thereon and recording and reproducing methods and apparatuses
US7889968B2 (en) * 2002-06-24 2011-02-15 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple reproduction path video data for at least a segment of a title recorded thereon and recording and reproducing methods and apparatuses
CN101350215B (zh) 2002-06-24 2012-08-29 Lg电子株式会社 记录和再现用于视频数据的再现的数据结构的方法及装置
KR20040000290A (ko) 2002-06-24 2004-01-03 엘지전자 주식회사 고밀도 광디스크의 멀티 경로 데이터 스트림 관리방법
WO2004003907A1 (en) * 2002-06-28 2004-01-08 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple playback path video data recorded thereon and recording and reproducing methods and apparatuses
JP4312151B2 (ja) * 2002-06-28 2009-08-12 エルジー エレクトロニクス インコーポレーテッド 多重経路データの記録及び再生を管理するためのデータ構造を有する記録媒体と、それによって記録し、再生する方法及び装置
WO2004004363A1 (ja) * 2002-06-28 2004-01-08 Sharp Kabushiki Kaisha 画像符号化装置、画像送信装置および画像撮影装置
JP4197427B2 (ja) * 2002-09-27 2008-12-17 シャープ株式会社 画像データ生成装置、画像データ再生装置、画像データ生成方法、画像データ再生方法、画像データ又は画像処理プログラムを記録した記録媒体および画像データ記録方法
AU2003268678A1 (en) * 2002-09-27 2004-04-19 Sharp Kabushiki Kaisha Image data creation device, image data reproduction device, image data creation method, image data reproduction method, recording medium containing image data or image processing program, and image data recording device
KR100620332B1 (ko) * 2002-11-08 2006-09-13 엘지전자 주식회사 멀티 컴포넌트 스트림의 기록 방법 및 장치와, 그에 따라기록된 멀티 컴포넌트 스트림을 갖는 고밀도 광디스크그리고 이의 재생 방법과 장치
ES2541122T3 (es) * 2002-11-12 2015-07-16 Lg Electronics Inc. Medio de grabación que tiene una estructura de datos para gestionar la reproducción de datos de vídeo de múltiples trayectorias de reproducción grabados en el mismo y métodos y aparatos de grabación y reproducción
US7720356B2 (en) 2002-11-12 2010-05-18 Lg Electronics Inc Recording medium having data structure for managing reproduction of multiple reproduction path video data recorded thereon and recording and reproducing methods and apparatuses
US7783160B2 (en) * 2002-11-20 2010-08-24 Lg Electronics Inc. Recording medium having data structure for managing reproduction of interleaved multiple reproduction path video data recorded thereon and recording and reproducing methods and apparatuses
US7664372B2 (en) * 2002-11-20 2010-02-16 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple component data recorded thereon and recording and reproducing methods and apparatuses
BR0316559A (pt) * 2002-11-25 2005-10-04 Thomson Licensing Sa Decodificador em duas camadas para dvd hìbrido de alta definição
JP4251864B2 (ja) * 2002-12-13 2009-04-08 シャープ株式会社 画像データ作成装置およびそのデータを再生する画像データ再生装置
JP4252105B2 (ja) * 2002-12-13 2009-04-08 シャープ株式会社 画像データ作成装置及び画像データ再生装置
CN1512768A (zh) 2002-12-30 2004-07-14 皇家飞利浦电子股份有限公司 一种在hd-dvd系统中用于生成视频目标单元的方法
JP2004215081A (ja) * 2003-01-07 2004-07-29 Pioneer Electronic Corp 情報記録媒体、情報再生装置及び方法、並びにコンピュータプログラム
JP2004274091A (ja) * 2003-01-15 2004-09-30 Sharp Corp 画像データ作成装置、画像データ再生装置、画像データ記録方式および画像データ記録媒体
JP4259884B2 (ja) * 2003-01-20 2009-04-30 シャープ株式会社 画像データ作成装置およびそのデータを再生する画像データ再生装置
FR2851112B1 (fr) * 2003-02-07 2005-06-03 Medialive Dispositif securise pour la diffusion, l'enregistrement et la visualisation a la demande des oeuvres audiovisuelles au format de type mpeg-2ts
CN100568964C (zh) 2003-02-18 2009-12-09 诺基亚有限公司 图像解码方法
AU2004214313B2 (en) 2003-02-18 2010-05-20 Nokia Technologies Oy Picture coding method
US7606463B2 (en) * 2003-02-24 2009-10-20 Lg Electronics, Inc. Recording medium having data structure for managing playback control and recording and reproducing methods and apparatuses
CN1723703B (zh) * 2003-02-27 2012-05-30 松下电器产业株式会社 数据处理装置及方法
US7809775B2 (en) 2003-02-27 2010-10-05 Lg Electronics, Inc. Recording medium having data structure for managing playback control recorded thereon and recording and reproducing methods and apparatuses
CN100397882C (zh) 2003-02-28 2008-06-25 Lg电子株式会社 具有用于管理记录其上的视频数据的随机/洗牌重现的数据结构的记录媒体以及记录和重现的方法和装置
JP2004274253A (ja) * 2003-03-06 2004-09-30 Sharp Corp 映像記録装置および映像送信装置
US7224664B2 (en) 2003-03-25 2007-05-29 Lg Electronics Inc. Recording medium having data structure for managing reproduction of data streams recorded thereon and recording and reproducing methods and apparatuses
EP1465181A1 (en) 2003-04-02 2004-10-06 Deutsche Thomson-Brandt Gmbh Method for controlling an optical pick-up for reading data streams for simultaneous reproduction
JP4251907B2 (ja) * 2003-04-17 2009-04-08 シャープ株式会社 画像データ作成装置
JP4679804B2 (ja) * 2003-04-17 2011-05-11 シャープ株式会社 画像ファイル作成装置
KR100768837B1 (ko) 2003-04-17 2007-10-19 샤프 가부시키가이샤 3차원 화상 작성 장치, 3차원 화상 재생 장치, 3차원 화상 처리 장치, 3차원 화상 처리 프로그램을 기록한 기록 매체
JP2004336492A (ja) * 2003-05-08 2004-11-25 Sharp Corp 画像処理装置および画像処理方法
JP2004357156A (ja) * 2003-05-30 2004-12-16 Sharp Corp 映像受信装置および映像再生装置
JP4599351B2 (ja) * 2003-06-02 2010-12-15 ディズニー エンタープライゼス インコーポレイテッド 民生用ビデオプレーヤー用のプログラムによるウィンドウ制御システム及び方法
JP4183587B2 (ja) * 2003-09-12 2008-11-19 シャープ株式会社 画像記録装置
US7463816B2 (en) * 2003-09-18 2008-12-09 Cyberlink Corp. Method of encoding and decoding pictured data for enhancing image resolution
US7480382B2 (en) * 2003-09-30 2009-01-20 Microsoft Corporation Image file container
US7650036B2 (en) * 2003-10-16 2010-01-19 Sharp Laboratories Of America, Inc. System and method for three-dimensional video coding
JP4106662B2 (ja) * 2003-11-17 2008-06-25 ソニー株式会社 情報記録再生装置および方法、プログラム格納媒体、並びにプログラム
JP4251968B2 (ja) * 2003-11-26 2009-04-08 シャープ株式会社 コンテンツ作成装置、コンテンツ作成プログラム、およびコンテンツ作成プログラムを記録した記録媒体
US7177532B2 (en) * 2003-12-12 2007-02-13 Numark Industries, Llc Dual video player for disc jockeys
US20050201471A1 (en) 2004-02-13 2005-09-15 Nokia Corporation Picture decoding method
US7296205B2 (en) 2004-02-18 2007-11-13 Nokia Corporation Data repair
JP2005244502A (ja) * 2004-02-25 2005-09-08 Pioneer Electronic Corp 光ディスク記録装置、光ディスク再生装置および多層型光ディスク
JP3746506B2 (ja) * 2004-03-08 2006-02-15 一成 江良 立体視化パラメータ埋込装置及び立体視画像再生装置
TWI272582B (en) * 2004-05-10 2007-02-01 Ali Corp DVD seamless playback system having two timers
CN1707671B (zh) * 2004-05-11 2010-10-13 三星电子株式会社 记录/再现设备
JP4361435B2 (ja) * 2004-07-14 2009-11-11 株式会社エヌ・ティ・ティ・ドコモ 動画像復号方法、動画像復号プログラム、動画像復号装置、動画像符号化方法、動画像符号化プログラム及び動画像符号化装置
US20080035176A1 (en) * 2004-08-25 2008-02-14 Byers Ernest F Automated Cart and Container Cleaning System
US9124907B2 (en) 2004-10-04 2015-09-01 Nokia Technologies Oy Picture buffering method
CN101103630B (zh) * 2004-10-05 2010-11-17 维克多曼克斯公司 授权多媒体组播的方法和系统
WO2006054176A1 (en) * 2004-11-22 2006-05-26 Nokia Corporation System and method for proactive, early network switching
JP4968561B2 (ja) * 2005-03-04 2012-07-04 ソニー株式会社 再生装置、再生方法、および記録方法
GB2425028A (en) * 2005-04-07 2006-10-11 British Broadcasting Corp Compatibility of a compressed signal with older (legacy) equipment
FR2886787A1 (fr) * 2005-06-06 2006-12-08 Thomson Licensing Sa Procede et dispositif de codage et de decodage d'une sequence d'images
TWI269591B (en) * 2005-09-26 2006-12-21 Princeton Technology Corp Image playing device, system and method
KR100746005B1 (ko) * 2005-10-17 2007-08-06 삼성전자주식회사 다중 목적의 비디오 스트림을 처리하는 장치 및 방법
JP4218680B2 (ja) * 2005-11-24 2009-02-04 船井電機株式会社 光ディスク再生装置
JP4389883B2 (ja) * 2006-01-30 2009-12-24 ソニー株式会社 符号化装置、符号化方法、符号化方法のプログラム、符号化方法のプログラムを記録した記録媒体
KR101191195B1 (ko) * 2006-05-04 2012-10-15 엘지전자 주식회사 콘텐츠 전송 장치, 콘텐츠 표출 장치, 콘텐츠 전송 방법 및콘텐츠 표출 방법
JP5011842B2 (ja) 2006-06-22 2012-08-29 株式会社ニコン 画像再生装置
CN100518074C (zh) * 2006-08-16 2009-07-22 中兴通讯股份有限公司 一种移动多媒体广播多视频流的实现方法
WO2008050383A1 (fr) * 2006-10-23 2008-05-02 Pioneer Corporation Dispositif de reproduction vidéo, système d'affichage vidéo et support d'enregistrement
JP4945236B2 (ja) * 2006-12-27 2012-06-06 株式会社東芝 映像コンテンツ表示装置、映像コンテンツ表示方法及びそのプログラム
US8594484B2 (en) * 2007-05-15 2013-11-26 Warner Bros. Entertainment Inc. DVD player with external connection for increased functionality
US8237776B2 (en) * 2007-10-19 2012-08-07 Warner Bros. Entertainment Inc. Method and apparatus for generating stereoscopic images from a DVD disc
US10182203B2 (en) 2007-05-15 2019-01-15 Warner Bros. Entertainment Inc. DVD player with external connection for increased functionality
EP2158769B1 (en) * 2007-05-15 2014-07-30 Warner Bros. Entertainment Inc. Method and apparatus for providing additional functionality to a dvd player
JP4720785B2 (ja) * 2007-05-21 2011-07-13 富士フイルム株式会社 撮像装置、画像再生装置、撮像方法及びプログラム
KR101388265B1 (ko) * 2007-06-11 2014-04-22 삼성전자주식회사 2d 영상 미디어 표준을 기반으로 3d 입체영상 파일을생성 및 재생하기 위한 시스템 및 방법
KR101389074B1 (ko) * 2007-06-27 2014-04-28 톰슨 라이센싱 비-정수 플래쉬 비율을 갖는 3d 프로젝션 시스템
JP2009016934A (ja) * 2007-06-29 2009-01-22 Toshiba Corp 映像再生装置
CN101690188A (zh) * 2007-07-04 2010-03-31 松下电器产业株式会社 影像记录再生装置以及其方法
WO2009048309A2 (en) * 2007-10-13 2009-04-16 Samsung Electronics Co., Ltd. Apparatus and method for providing stereoscopic three-dimensional image/video contents on terminal based on lightweight application scene representation
US8922621B2 (en) 2007-10-19 2014-12-30 Samsung Electronics Co., Ltd. Method of recording three-dimensional image data
JP2009105684A (ja) * 2007-10-23 2009-05-14 Panasonic Corp 動画像復号化装置
WO2009072273A1 (ja) * 2007-12-04 2009-06-11 Panasonic Corporation 映像信号処理装置
KR101480186B1 (ko) * 2007-12-10 2015-01-07 삼성전자주식회사 2d 영상과 3d 입체영상을 포함하는 영상파일을 생성 및재생하기 위한 시스템 및 방법
WO2009075495A1 (en) * 2007-12-10 2009-06-18 Samsung Electronics Co., Ltd. System and method for generating and reproducing image file including 2d image and 3d stereoscopic image
CN101897195B (zh) 2007-12-14 2013-03-06 皇家飞利浦电子股份有限公司 用于视频重放的3d模式选择机制
KR101506217B1 (ko) * 2008-01-31 2015-03-26 삼성전자주식회사 스테레오스코픽 영상의 부분 데이터 구간 재생을 위한스테레오스코픽 영상 데이터스트림 생성 방법과 장치, 및스테레오스코픽 영상의 부분 데이터 구간 재생 방법과 장치
WO2009099307A1 (en) * 2008-02-05 2009-08-13 Samsung Electronics Co., Ltd Apparatus and method for generating and displaying media files
KR20100121574A (ko) * 2008-02-15 2010-11-18 파나소닉 주식회사 재생장치, 기록장치, 재생방법 및 기록방법
WO2009133714A1 (ja) * 2008-05-01 2009-11-05 パナソニック株式会社 立体視映像を再生するための光ディスク
JP2010034704A (ja) * 2008-07-25 2010-02-12 Sony Corp 再生装置及び再生方法
US20100045779A1 (en) * 2008-08-20 2010-02-25 Samsung Electronics Co., Ltd. Three-dimensional video apparatus and method of providing on screen display applied thereto
US20100046917A1 (en) * 2008-08-21 2010-02-25 David Naranjo 3d enabled player/recorder
JP2010088092A (ja) * 2008-09-02 2010-04-15 Panasonic Corp 立体映像伝送システム、映像表示装置および映像出力装置
EP2605243B1 (en) * 2008-09-17 2014-12-31 Panasonic Corporation Playback device
TW201027978A (en) 2008-09-30 2010-07-16 Panasonic Corp Recording medium on which 3D video is recorded, playback apparatus for playing back 3D video, and system LSI
MX2011006360A (es) * 2008-09-30 2011-07-13 Panasonic Corp Dispositivo de reproduccion, medio de grabacion y circuito integrado.
WO2010038365A1 (ja) * 2008-09-30 2010-04-08 パナソニック株式会社 3d映像に係る記録媒体、再生装置、システムlsi、再生方法、眼鏡、表示装置
JP2010092575A (ja) * 2008-10-10 2010-04-22 Jcc Kk 設定データによる1画面複数動画表示の方法。
MY154752A (en) 2008-12-01 2015-07-15 Sharp Kk Content reproducing apparatus, reproducing method, program and recording medium
MY158823A (en) * 2008-12-19 2016-11-15 Koninl Philips Electronics Nv Method and device for overlaying 3d graphics over 3d video
JP5491414B2 (ja) * 2008-12-26 2014-05-14 パナソニック株式会社 記録媒体、再生装置、及び集積回路
WO2010076846A1 (ja) * 2008-12-29 2010-07-08 パナソニック株式会社 記録媒体、再生装置、及び集積回路
US20100177162A1 (en) * 2009-01-15 2010-07-15 Charles Macfarlane Method and system for enabling 3d video and image processing using one full resolution video stream and one lower resolution video stream
WO2010089995A1 (ja) 2009-02-04 2010-08-12 パナソニック株式会社 記録媒体、再生装置、及び集積回路
MX2010008146A (es) * 2009-02-04 2010-09-30 Panasonic Corp Medio de grabacion, dispositivo de reproduccion y circuito integrado.
KR20110126518A (ko) * 2009-02-19 2011-11-23 파나소닉 주식회사 기록매체, 재생장치 및 집적회로
KR20110126514A (ko) * 2009-02-19 2011-11-23 파나소닉 주식회사 기록매체, 재생장치, 집적회로
US20110013884A1 (en) * 2009-02-19 2011-01-20 Taiji Sasaki Recording medium, playback device, and integrated circuit
WO2010095440A1 (ja) * 2009-02-20 2010-08-26 パナソニック株式会社 記録媒体、再生装置、及び集積回路
WO2010095381A1 (ja) * 2009-02-20 2010-08-26 パナソニック株式会社 記録媒体、再生装置、集積回路
MX2011001210A (es) * 2009-02-27 2011-03-04 Panasonic Corp Medio de grabacion, dispositivo de reproduccion, y circuito integrado.
WO2010100875A1 (ja) * 2009-03-02 2010-09-10 パナソニック株式会社 記録媒体、再生装置、及び集積回路
JP2010212948A (ja) 2009-03-10 2010-09-24 Sony Corp 再生装置、再生方法、記録装置、記録方法、プログラム、及び、データ構造
WO2010113454A1 (ja) * 2009-03-31 2010-10-07 パナソニック株式会社 記録媒体、再生装置、及び集積回路
JP4962672B2 (ja) * 2009-04-03 2012-06-27 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
JP4915457B2 (ja) * 2009-04-03 2012-04-11 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
JP4915459B2 (ja) * 2009-04-03 2012-04-11 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
JP4962824B1 (ja) * 2009-04-03 2012-06-27 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
JP2010244630A (ja) * 2009-04-07 2010-10-28 Sony Corp 情報処理装置、情報処理方法、プログラム、及び、データ構造
JP4984183B2 (ja) * 2009-04-07 2012-07-25 ソニー株式会社 再生装置、再生方法、および記録方法
JP2010263615A (ja) * 2009-04-08 2010-11-18 Sony Corp 情報処理装置、情報処理方法、再生装置、再生方法
JP4984184B2 (ja) 2009-04-08 2012-07-25 ソニー株式会社 再生装置および再生方法
JP4993224B2 (ja) 2009-04-08 2012-08-08 ソニー株式会社 再生装置および再生方法
JP5267886B2 (ja) * 2009-04-08 2013-08-21 ソニー株式会社 再生装置、記録媒体、および情報処理方法
JP4957823B2 (ja) * 2009-04-08 2012-06-20 ソニー株式会社 再生装置および再生方法
JP4962525B2 (ja) 2009-04-08 2012-06-27 ソニー株式会社 再生装置、再生方法、およびプログラム
JP4992931B2 (ja) * 2009-04-20 2012-08-08 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
JP5274359B2 (ja) * 2009-04-27 2013-08-28 三菱電機株式会社 立体映像および音声記録方法、立体映像および音声再生方法、立体映像および音声記録装置、立体映像および音声再生装置、立体映像および音声記録媒体
RU2533300C2 (ru) * 2009-05-19 2014-11-20 Панасоник Корпорэйшн Носитель записи, устройство воспроизведения, устройство кодирования, интегральная схема и устройство вывода для воспроизведения
JP4825321B2 (ja) 2009-05-25 2011-11-30 パナソニック株式会社 再生装置、再生方法、プログラム
US8290338B2 (en) * 2009-05-27 2012-10-16 Panasonic Corporation Recording medium, playback device, encoding device, integrated circuit, and playback output device
JP4724257B2 (ja) * 2009-06-11 2011-07-13 パナソニック株式会社 再生装置
WO2010143439A1 (ja) * 2009-06-12 2010-12-16 パナソニック株式会社 再生装置、集積回路、記録媒体
US20110013888A1 (en) * 2009-06-18 2011-01-20 Taiji Sasaki Information recording medium and playback device for playing back 3d images
KR101396011B1 (ko) * 2009-06-19 2014-05-16 캐논 가부시끼가이샤 자성 캐리어의 제조 방법
JP4993042B2 (ja) * 2009-06-22 2012-08-08 ソニー株式会社 再生装置、再生方法、および記録方法
JP4984181B2 (ja) * 2009-06-22 2012-07-25 ソニー株式会社 再生装置および再生方法
KR20120104485A (ko) * 2009-07-10 2012-09-21 파나소닉 주식회사 기록매체, 재생장치 및 집적회로
US8270807B2 (en) * 2009-07-13 2012-09-18 Panasonic Corporation Recording medium, playback device, and integrated circuit
TW201130289A (en) * 2009-07-14 2011-09-01 Panasonic Corp Image reproducing apparatus
JP2011033594A (ja) 2009-08-06 2011-02-17 Panasonic Corp 車両用距離算出装置
KR101648450B1 (ko) * 2009-08-10 2016-08-16 엘지전자 주식회사 데이터 재생 방법 및 재생 장치
KR20110025123A (ko) 2009-09-02 2011-03-09 삼성전자주식회사 비디오 영상 배속 재생 방법 및 장치
KR20120106541A (ko) * 2009-09-25 2012-09-26 파나소닉 주식회사 기록매체, 재생장치 및 집적회로
US9131203B2 (en) 2009-09-30 2015-09-08 Sharp Kabushiki Kaisha Information recording medium, reproduction method and recording method using information recording medium, information recording/reproduction device, and 3D conversion unit and information recording device
JP4763822B2 (ja) * 2009-09-30 2011-08-31 パナソニック株式会社 映像信号処理装置及び映像信号処理方法
JP5669257B2 (ja) 2009-10-27 2015-02-12 信越化学工業株式会社 フルオロオキシアルキレン基含有ポリマー組成物および該組成物を含む表面処理剤並びに該表面処理剤で表面処理された物品
CN102656620B (zh) * 2009-11-13 2017-06-09 寇平公司 用于从标准视频流驱动3d双目眼镜的方法
JP2011109397A (ja) * 2009-11-17 2011-06-02 Sony Corp 画像送信方法、画像受信方法、画像送信装置、画像受信装置、及び画像伝送システム
JP5540746B2 (ja) * 2009-11-20 2014-07-02 ソニー株式会社 受信装置、送信装置、通信システム、受信装置の制御方法、及びプログラム
US20120257817A1 (en) * 2009-12-15 2012-10-11 Koichi Arima Image output apparatus
KR101376066B1 (ko) 2010-02-18 2014-03-21 삼성전자주식회사 영상 표시 시스템 및 그 표시 방법
KR20110106160A (ko) * 2010-03-22 2011-09-28 (주)인터큐비트 다중 디스플레이를 이용한 초고해상도 영상 재생 시스템
US9001193B2 (en) * 2010-03-23 2015-04-07 Samsung Electronics Co., Ltd. Apparatus, method and system for synchronization and 3D display apparatus using the same
US20120050476A1 (en) * 2010-03-29 2012-03-01 Toru Kawaguchi Video processing device
US10448083B2 (en) 2010-04-06 2019-10-15 Comcast Cable Communications, Llc Streaming and rendering of 3-dimensional video
US11711592B2 (en) 2010-04-06 2023-07-25 Comcast Cable Communications, Llc Distribution of multiple signals of video content independently over a network
JP2011223248A (ja) 2010-04-08 2011-11-04 Sony Corp 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
JP5577805B2 (ja) 2010-04-08 2014-08-27 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
JP5559614B2 (ja) * 2010-04-21 2014-07-23 日立マクセル株式会社 受信装置および受信方法
US20110292038A1 (en) * 2010-05-27 2011-12-01 Sony Computer Entertainment America, LLC 3d video conversion
JP5559605B2 (ja) * 2010-05-28 2014-07-23 日立マクセル株式会社 受信装置および受信方法
WO2011148554A1 (ja) * 2010-05-28 2011-12-01 日立コンシューマエレクトロニクス株式会社 受信装置および出力方法
JP2011250218A (ja) * 2010-05-28 2011-12-08 Hitachi Consumer Electronics Co Ltd 受信装置、受信方法および送信方法
US20130113883A1 (en) * 2010-06-02 2013-05-09 Takashi Kanemaru Receiving device and output method
CN107911684B (zh) 2010-06-02 2020-06-23 麦克赛尔株式会社 接收装置和接收方法
WO2011151960A1 (ja) * 2010-06-02 2011-12-08 日立コンシューマエレクトロニクス株式会社 受信装置および出力方法
JP5023190B2 (ja) 2010-06-10 2012-09-12 Nttエレクトロニクス株式会社 映像伝送システム
US20110314253A1 (en) * 2010-06-22 2011-12-22 Jacob Yaakov Jeffrey Allan Alon System, data structure, and method for transposing multi-dimensional data to switch between vertical and horizontal filters
US8934757B2 (en) 2010-06-23 2015-01-13 Panasonic Corporation Content distribution system, playback device, distribution server, playback method, and distribution method
CN102959972B (zh) 2010-06-30 2015-12-02 松下知识产权经营株式会社 光学设备
JP5436668B2 (ja) 2010-06-30 2014-03-05 パナソニック株式会社 光デバイス
EP2424251A3 (en) * 2010-08-23 2012-12-26 Lg Electronics Inc. Method for providing 3d video data in a 3dtv
JP4966400B2 (ja) * 2010-08-26 2012-07-04 株式会社東芝 画像出力装置及び画像出力方法
US8760517B2 (en) * 2010-09-27 2014-06-24 Apple Inc. Polarized images for security
JP5235026B2 (ja) 2010-09-28 2013-07-10 信越化学工業株式会社 フルオロオキシアルキレン基含有ポリマー組成物および該組成物を含む表面処理剤並びに該表面処理剤で表面処理された物品
US8458362B2 (en) 2010-09-30 2013-06-04 Comcast Cable Communications, Llc Delivering content in multiple formats
KR101045889B1 (ko) * 2010-10-13 2011-07-01 주식회사 쓰리디누리 입체 영상 처리 장치 및 방법
JP5594045B2 (ja) * 2010-10-14 2014-09-24 ソニー株式会社 再生装置、再生方法、プログラム、および記録媒体
JP5412404B2 (ja) * 2010-11-15 2014-02-12 シャープ株式会社 情報統合装置、情報表示装置、情報記録装置
US8786674B2 (en) * 2010-11-26 2014-07-22 Mediatek Singapore Pte. Ltd. Method for performing video display control within a video display system, and associated video processing circuit and video display system
US9204123B2 (en) * 2011-01-14 2015-12-01 Comcast Cable Communications, Llc Video content generation
US20120206568A1 (en) * 2011-02-10 2012-08-16 Google Inc. Computing device having multiple image capture devices and image modes
CA2823288C (en) * 2011-02-16 2019-05-07 Panasonic Corporation Video encoder, video encoding method, video encoding program, video reproduction device, video reproduction method, and video reproduction program
JPWO2012111325A1 (ja) * 2011-02-17 2014-07-03 パナソニック株式会社 映像符号化装置、映像符号化方法、映像符号化プログラム、映像再生装置、映像再生方法及び映像再生プログラム
WO2012155105A1 (en) 2011-05-12 2012-11-15 Apple Inc. Presence sensing
US20120287031A1 (en) 2011-05-12 2012-11-15 Apple Inc. Presence sensing
US8913104B2 (en) * 2011-05-24 2014-12-16 Bose Corporation Audio synchronization for two dimensional and three dimensional video signals
JP2011234387A (ja) * 2011-06-09 2011-11-17 Panasonic Corp 映像信号処理装置及び映像信号処理方法
JP5426628B2 (ja) * 2011-09-16 2014-02-26 株式会社東芝 映像再生装置、映像再生装置の制御方法及びプログラム
US8687470B2 (en) 2011-10-24 2014-04-01 Lsi Corporation Optical disk playback device with three-dimensional playback functionality
US9380327B2 (en) 2011-12-15 2016-06-28 Comcast Cable Communications, Llc System and method for synchronizing timing across multiple streams
JP4993233B2 (ja) * 2012-01-26 2012-08-08 ソニー株式会社 記録方法
JP4993234B2 (ja) * 2012-01-26 2012-08-08 ソニー株式会社 再生装置、再生方法、および記録方法
JP4984193B2 (ja) * 2012-02-01 2012-07-25 ソニー株式会社 再生装置、再生方法、および記録方法
JP4984192B2 (ja) * 2012-02-01 2012-07-25 ソニー株式会社 記録方法
US10063757B2 (en) * 2012-11-21 2018-08-28 Infineon Technologies Ag Dynamic conservation of imaging power
US9251595B2 (en) 2013-03-15 2016-02-02 Drs Network & Imaging Systems, Llc Method of shutterless non-uniformity correction for infrared imagers
US9531964B2 (en) 2013-03-14 2016-12-27 Drs Network & Imaging Systems, Llc Methods and system for producing a temperature map of a scene
JP6300576B2 (ja) * 2013-05-02 2018-03-28 キヤノン株式会社 画像処理装置及び画像処理方法
US9319576B2 (en) 2014-01-29 2016-04-19 Google Technology Holdings LLC Multi-processor support for array imagers
US9851839B2 (en) * 2015-03-03 2017-12-26 Semiconductor Energy Laboratory Co., Ltd. Display system
KR101596932B1 (ko) * 2015-12-30 2016-02-24 중앙대학교 산학협력단 기판 고정용 홀더 및 이를 포함하는 박막 제조 장치
CN106463118B (zh) * 2016-07-07 2019-09-03 深圳狗尾草智能科技有限公司 一种同步语音及虚拟动作的方法、系统及机器人
WO2018006369A1 (zh) * 2016-07-07 2018-01-11 深圳狗尾草智能科技有限公司 一种同步语音及虚拟动作的方法、系统及机器人
US10209081B2 (en) 2016-08-09 2019-02-19 Nauto, Inc. System and method for precision localization and mapping
US10733460B2 (en) 2016-09-14 2020-08-04 Nauto, Inc. Systems and methods for safe route determination
WO2018085804A1 (en) 2016-11-07 2018-05-11 Nauto Global Limited System and method for driver distraction determination
US10453150B2 (en) 2017-06-16 2019-10-22 Nauto, Inc. System and method for adverse vehicle event determination
US10817594B2 (en) 2017-09-28 2020-10-27 Apple Inc. Wearable electronic device having a light field camera usable to perform bioauthentication from a dorsal side of a forearm near a wrist
US11392131B2 (en) 2018-02-27 2022-07-19 Nauto, Inc. Method for determining driving policy
US10466489B1 (en) 2019-03-29 2019-11-05 Razmik Ghazaryan Methods and apparatus for a variable-resolution screen
US11284053B2 (en) 2019-03-29 2022-03-22 Razmik Ghazaryan Head-mounted display and projection screen
US10554940B1 (en) 2019-03-29 2020-02-04 Razmik Ghazaryan Method and apparatus for a variable-resolution screen
JP7459506B2 (ja) 2019-12-24 2024-04-02 株式会社Jvcケンウッド 画像処理装置及び画像処理方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01109990A (ja) * 1987-10-23 1989-04-26 Sanyo Electric Co Ltd 立体ビデオディスクレコーダ
JPH0638244A (ja) * 1992-07-02 1994-02-10 Sony Corp 映像信号出力装置および映像信号表示装置
JPH06350968A (ja) * 1993-06-03 1994-12-22 Matsushita Electric Ind Co Ltd 光ディスク記録再生装置及び光ディスク
JPH0730925A (ja) * 1993-06-25 1995-01-31 Matsushita Electric Ind Co Ltd 光ディスク記録再生装置及び光ディスク
JPH07143443A (ja) * 1993-11-19 1995-06-02 Victor Co Of Japan Ltd 情報符号化装置及び円盤状記録媒体及びその再生装置

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4706117A (en) * 1984-06-01 1987-11-10 Arnold Schoolman Stereo laser disc viewing system
JPS62210797A (ja) * 1986-03-12 1987-09-16 Sony Corp 立体画像観視装置
JPS63116590A (ja) * 1986-11-04 1988-05-20 Nippon Hoso Kyokai <Nhk> 立体ビデオデイスクレコ−ド
JPH0779487B2 (ja) * 1987-06-29 1995-08-23 日本電気ホームエレクトロニクス株式会社 圧縮立体画像デ−タ再生システム
US4847698A (en) * 1987-07-16 1989-07-11 Actv, Inc. Interactive television system for providing full motion synched compatible audio/visual displays
IL83752A (en) * 1987-09-02 1992-03-29 Ibm Israel Method and apparatus for transmitting and receiving 3-dimensional video images
US5122873A (en) * 1987-10-05 1992-06-16 Intel Corporation Method and apparatus for selectively encoding and decoding a digital motion video signal at multiple resolution levels
KR950006457B1 (ko) * 1988-03-31 1995-06-15 주식회사Lg 입체 텔레비젼 수상기
FR2650465B1 (fr) * 1989-07-26 1996-06-21 France Etat Procede de traitement et de transmission par un canal de type " mac " d'une sequence de couple d'images de television stereoscopique
US5193000A (en) * 1991-08-28 1993-03-09 Stereographics Corporation Multiplexing technique for stereoscopic video system
JPH06197334A (ja) * 1992-07-03 1994-07-15 Sony Corp 画像信号符号化方法、画像信号復号化方法、画像信号符号化装置、画像信号復号化装置及び画像信号記録媒体
US5461420A (en) * 1992-09-18 1995-10-24 Sony Corporation Apparatus for coding and decoding a digital video signal derived from a motion picture film source
JP3255308B2 (ja) * 1992-12-18 2002-02-12 ソニー株式会社 データ再生装置
JP3548191B2 (ja) * 1993-03-22 2004-07-28 キヤノン株式会社 カメラ
JP2518149B2 (ja) * 1993-04-13 1996-07-24 日本電気株式会社 動画像デ―タ復号化システム
JPH0713544A (ja) * 1993-06-28 1995-01-17 Olympus Optical Co Ltd 映像信号判別装置およびそれを用いる映像表示自動切替装置
US5473381A (en) * 1993-08-07 1995-12-05 Goldstar Co., Ltd. Apparatus for converting frame format of a television signal to a display format for a high definition television (HDTV) receiver
JP2986659B2 (ja) * 1993-09-20 1999-12-06 キヤノン株式会社 立体画像撮影像・表示システム
US5430485A (en) * 1993-09-30 1995-07-04 Thomson Consumer Electronics, Inc. Audio/video synchronization in a digital transmission system
JPH07107434A (ja) * 1993-10-04 1995-04-21 Matsushita Electric Ind Co Ltd 動画像記録再生装置およびビデオディスク
JPH07115619A (ja) * 1993-10-18 1995-05-02 Sony Corp ビデオ信号再生装置
US5576843A (en) * 1993-10-29 1996-11-19 Time Warner Entertainment Co., L.P. System and method for controlling play of multiple dialog audio tracks of a software carrier
DE69424129T2 (de) * 1993-11-29 2000-11-16 Canon Kk Vorrichtung zur Verarbeitung von stereoskopischen Bildern
JPH07193840A (ja) 1993-12-27 1995-07-28 Sanyo Electric Co Ltd 立体映像信号の符号化装置及び復号化装置
JPH07212761A (ja) * 1994-01-17 1995-08-11 Toshiba Corp 階層符号化装置及び階層復号化装置
CN1113320C (zh) * 1994-02-01 2003-07-02 三洋电机株式会社 将二维图像转换成三维图像的方法以及三维图像显示系统
JP3332551B2 (ja) * 1994-02-24 2002-10-07 三洋電機株式会社 立体動画像再生装置
JPH07288850A (ja) * 1994-04-14 1995-10-31 Sanyo Electric Co Ltd 立体映像表示装置
JPH07298311A (ja) * 1994-04-21 1995-11-10 Sanyo Electric Co Ltd 立体映像表示装置
JPH07298306A (ja) * 1994-04-28 1995-11-10 Sanyo Electric Co Ltd 立体動画像圧縮符号化装置
JPH07298307A (ja) * 1994-04-28 1995-11-10 Canon Inc 画像記録再生装置
KR0180026B1 (ko) * 1994-05-13 1999-05-01 마츠모도 세이야 입체표시방법 및 장치
JPH0870475A (ja) * 1994-06-23 1996-03-12 Sanyo Electric Co Ltd 立体動画像の符号化・復号化方法及び装置
JP3513219B2 (ja) * 1994-07-12 2004-03-31 キヤノン株式会社 対応点マッチング方法および装置
JP3164971B2 (ja) * 1994-07-15 2001-05-14 日本電気株式会社 画像再生装置
US5594660A (en) * 1994-09-30 1997-01-14 Cirrus Logic, Inc. Programmable audio-video synchronization method and apparatus for multimedia systems
US5572250A (en) * 1994-10-20 1996-11-05 Stereographics Corporation Universal electronic stereoscopic display
JP3598544B2 (ja) 1994-10-21 2004-12-08 ソニー株式会社 記録再生装置及び方法
JPH08249814A (ja) 1995-03-13 1996-09-27 Sony Corp 多チャンネルオーディオ記録再生装置
JP3185594B2 (ja) 1995-03-23 2001-07-11 松下電器産業株式会社 ディジタル圧縮データ再生装置
EP0818784A4 (en) * 1995-03-30 1999-09-08 Victor Company Of Japan INFORMATION RECORDING PLATE
JP3329361B2 (ja) 1995-04-24 2002-09-30 ソニー株式会社 映像表示音声出力装置
JPH08307896A (ja) * 1995-04-27 1996-11-22 Sony Corp 画像信号記録方法および装置、画像信号再生方法および装置、ならびに画像信号記録媒体
JPH08307902A (ja) * 1995-04-27 1996-11-22 Sony Corp 画像信号記録方法および装置、画像信号再生方法および装置、ならびに画像信号記録媒体
US5751694A (en) * 1995-05-22 1998-05-12 Sony Corporation Methods and apparatus for synchronizing temporally related data streams
US5619256A (en) * 1995-05-26 1997-04-08 Lucent Technologies Inc. Digital 3D/stereoscopic video compression technique utilizing disparity and motion compensated predictions
JPH08331473A (ja) * 1995-05-29 1996-12-13 Hitachi Ltd テレビジョン信号の表示装置
JP3184763B2 (ja) * 1995-06-07 2001-07-09 インターナショナル・ビジネス・マシーンズ・コーポレ−ション マルチメディア直接アクセス記憶装置及びフォーマット方法
US6282362B1 (en) * 1995-11-07 2001-08-28 Trimble Navigation Limited Geographical position/image digital recording and display system
JPH09215295A (ja) * 1996-02-08 1997-08-15 Sankyo Seiki Mfg Co Ltd スピンドルモータ
US5886736A (en) * 1996-10-24 1999-03-23 General Instrument Corporation Synchronization of a stereoscopic video sequence
CN1183780C (zh) * 1996-12-04 2005-01-05 松下电器产业株式会社 光盘再现设备及光盘记录方法
EP1708487B1 (en) * 1997-08-29 2013-05-08 Panasonic Corporation Method and apparatus for reading a high-resolution optical video disc

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01109990A (ja) * 1987-10-23 1989-04-26 Sanyo Electric Co Ltd 立体ビデオディスクレコーダ
JPH0638244A (ja) * 1992-07-02 1994-02-10 Sony Corp 映像信号出力装置および映像信号表示装置
JPH06350968A (ja) * 1993-06-03 1994-12-22 Matsushita Electric Ind Co Ltd 光ディスク記録再生装置及び光ディスク
JPH0730925A (ja) * 1993-06-25 1995-01-31 Matsushita Electric Ind Co Ltd 光ディスク記録再生装置及び光ディスク
JPH07143443A (ja) * 1993-11-19 1995-06-02 Victor Co Of Japan Ltd 情報符号化装置及び円盤状記録媒体及びその再生装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP0944269A4 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6925250B1 (en) * 1997-08-29 2005-08-02 Matsushita Electric Industrial Co., Ltd. Optical disc for recording high resolution and normal image, optical disc player, optical disc recorder, and playback control information generator
US8107794B2 (en) 1997-08-29 2012-01-31 Panasonic Corporation Optical disk for high resolution and general video recording, optical disk reproduction apparatus, optical disk recording apparatus, and reproduction control information generation apparatus
US8155500B2 (en) 1997-08-29 2012-04-10 Panasonic Corporation Optical disk for high resolution and general video recording, optical disk reproduction apparatus, optical disk recording apparatus, and reproduction control information generation apparatus
US8160420B2 (en) 1997-08-29 2012-04-17 Panasonic Corporation Optical disk for high resolution and general video recording, optical disk reproduction apparatus, optical disk recording apparatus, and reproduction control information generation apparatus
US8270802B2 (en) 1997-08-29 2012-09-18 Panasonic Corporation Optical disk for high resolution and general video recording, optical disk reproduction apparatus, optical disk recording apparatus, and reproduction control information generation apparatus
US8311387B2 (en) 1997-08-29 2012-11-13 Panasonic Corporation Optical disk for high resolution and general video recording, optical disk reproduction apparatus, optical disk recording apparatus, and reproduction control information generation apparatus
US8428425B2 (en) 1997-08-29 2013-04-23 Panasonic Corporation Optical disk for high resolution and general video recording, optical disk reproduction apparatus, optical disk recording apparatus, and reproduction control information generation apparatus
US8824873B2 (en) 1997-08-29 2014-09-02 Panasonic Corporation Optical disk for high resolution and general video recording, optical disk reproduction apparatus, optical disk recording apparatus, and reproduction control information generation apparatus
CN1300796C (zh) * 1998-08-04 2007-02-14 三星电子株式会社 用于高密度记录媒体的交错装置
US8548308B2 (en) 2008-11-18 2013-10-01 Panasonic Corporation Playback apparatus, integrated circuit, and playback method considering trickplay

Also Published As

Publication number Publication date
JP4744647B1 (ja) 2011-08-10
JP2012138954A (ja) 2012-07-19
EP1094674B1 (en) 2014-04-02
EP2259584B1 (en) 2013-10-16
HK1151155A1 (en) 2012-01-20
US20030108341A1 (en) 2003-06-12
JP4358902B2 (ja) 2009-11-04
CN100484228C (zh) 2009-04-29
JP2009247032A (ja) 2009-10-22
EP2259584A2 (en) 2010-12-08
CN1917066A (zh) 2007-02-21
EP2180717A2 (en) 2010-04-28
EP2268015A3 (en) 2011-04-13
JP2009183006A (ja) 2009-08-13
HK1151153A1 (en) 2012-01-20
EP2175659A3 (en) 2010-05-05
EP0944269A4 (en) 1999-12-08
CN1624788A (zh) 2005-06-08
US20100111503A1 (en) 2010-05-06
US20110181697A1 (en) 2011-07-28
JP2010022067A (ja) 2010-01-28
EP2175666B1 (en) 2012-11-14
JP2011166827A (ja) 2011-08-25
JP2011182410A (ja) 2011-09-15
EP2259584A3 (en) 2011-04-13
JP2011199879A (ja) 2011-10-06
EP2259585A3 (en) 2011-04-13
EP0944269B1 (en) 2002-11-13
JP2013211901A (ja) 2013-10-10
US8467455B2 (en) 2013-06-18
CA2340314C (en) 2003-07-08
EP2175659A2 (en) 2010-04-14
KR100354418B1 (ko) 2002-09-28
US6573819B1 (en) 2003-06-03
EP2268015B1 (en) 2013-10-16
DE69717139T2 (de) 2003-10-02
JP4768890B1 (ja) 2011-09-07
JP2013069403A (ja) 2013-04-18
CN1917066B (zh) 2010-10-06
EP2175665A2 (en) 2010-04-14
US20110279642A1 (en) 2011-11-17
JP2011172249A (ja) 2011-09-01
JP2012199972A (ja) 2012-10-18
JP4717952B2 (ja) 2011-07-06
DE69717139D1 (de) 2002-12-19
US20110181700A1 (en) 2011-07-28
JP4767351B2 (ja) 2011-09-07
US20110181698A1 (en) 2011-07-28
JP2010183600A (ja) 2010-08-19
EP2175666A2 (en) 2010-04-14
JP4768891B2 (ja) 2011-09-07
US8442112B2 (en) 2013-05-14
EP2175666A3 (en) 2010-05-05
US8467456B2 (en) 2013-06-18
EP2175665B1 (en) 2012-11-21
EP2180717A3 (en) 2010-05-05
JP4358901B2 (ja) 2009-11-04
JPH11191895A (ja) 1999-07-13
JP5172030B2 (ja) 2013-03-27
JP2009183004A (ja) 2009-08-13
US7317868B2 (en) 2008-01-08
US8441519B2 (en) 2013-05-14
JP5555796B2 (ja) 2014-07-23
JP4768892B2 (ja) 2011-09-07
JP4717951B2 (ja) 2011-07-06
JP4759098B1 (ja) 2011-08-31
EP1094674A2 (en) 2001-04-25
CN1183780C (zh) 2005-01-05
JP2011182412A (ja) 2011-09-15
JP5314797B2 (ja) 2013-10-16
US20080063385A1 (en) 2008-03-13
US20100119213A1 (en) 2010-05-13
JP4489839B2 (ja) 2010-06-23
JP2011182411A (ja) 2011-09-15
JP2008079316A (ja) 2008-04-03
JP4381440B2 (ja) 2009-12-09
JP2012199976A (ja) 2012-10-18
JP4744648B1 (ja) 2011-08-10
CN1247004A (zh) 2000-03-08
JP2009183005A (ja) 2009-08-13
CA2273891A1 (en) 1998-06-11
EP2175659B1 (en) 2012-11-14
CA2340314A1 (en) 1998-06-11
EP0944269A1 (en) 1999-09-22
JP4358903B2 (ja) 2009-11-04
EP2268015A2 (en) 2010-12-29
US20080063386A1 (en) 2008-03-13
CA2273891C (en) 2001-06-12
EP1094674A3 (en) 2008-04-30
JP2010183599A (ja) 2010-08-19
US20110181699A1 (en) 2011-07-28
JP5042394B1 (ja) 2012-10-03
EP2175665A3 (en) 2010-05-05
JP4041198B2 (ja) 2008-01-30
US8654861B2 (en) 2014-02-18
EP2259585B1 (en) 2013-10-16
EP2180717B1 (en) 2012-11-14
KR20000057426A (ko) 2000-09-15
JP2011166828A (ja) 2011-08-25
JP2010183598A (ja) 2010-08-19
JP5027938B2 (ja) 2012-09-19
JP5042393B2 (ja) 2012-10-03
EP2259585A2 (en) 2010-12-08

Similar Documents

Publication Publication Date Title
JP4381440B2 (ja) 高解像度および立体映像記録用光ディスク、光ディスク再生装置、および光ディスク記録装置
JP3935507B2 (ja) 高解像度および立体映像記録用光ディスク、光ディスク再生装置、光ディスク記録装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 97181612.3

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CA CN KR SG US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FI FR GB GR IE IT LU MC NL PT SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
ENP Entry into the national phase

Ref document number: 2273891

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 1019997005008

Country of ref document: KR

Ref document number: 09319476

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1997946090

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1997946090

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1019997005008

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1019997005008

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1997946090

Country of ref document: EP